Zephyrnet-logo

MIT-studie over Tesla Autopilot-gebruikers benadrukt oogpatronen, maar merkt op dat dit niet "automatisch afleiding of onoplettendheid impliceert"

Datum:

Er is een nieuwe studie van het Massachusetts Institute of Technology (MIT), die naar Tesla-eigenaren keek die Autopilot gebruikten en hoe ze ermee omgaan. De studie, "Een model voor naturalistisch blikgedrag rond het uitschakelen van Tesla Autopilot", is al de bron van veel krantenkoppen waarin wordt beweerd dat alle Tesla-bestuurders onoplettend worden bij het gebruik van Autopilot. Deze koppen doen vermoeden dat elke Tesla-eigenaar die Autopilot gebruikt onoplettend wordt.

Ogen op de weg met automatische piloot aan en uit

Het doel van het onderzoek was inzicht te krijgen in het visuele gedrag dat het blikpatroon simuleert dat wordt waargenomen rond door de bestuurder geïnitieerde, niet-kritieke ontkoppelingen van Tesla's Autopilot bij gebruik op de snelweg. De studie analyseerde gegevens van 290 door mensen geïnitieerde Autopilot-ontkoppelingen. Blikduur en overgang werden gemodelleerd met Bayesiaanse gegeneraliseerde lineaire gemengde modellen. Het rapport noteerde de resultaten in een korte samenvatting:

“Het model repliceert het waargenomen blikpatroon van bestuurders. De componenten van het model laten zien dat offroad-blikjes langer waren met AP actief dan zonder en dat hun frequentiekarakteristieken veranderden. Aan het rijden gerelateerde off-road blikken kwamen minder vaak voor met AP actief dan bij handmatig rijden, terwijl niet-rijgerelateerde blikken naar de beneden/midden-stack gebieden het meest frequent en het langst waren (22% van de blikken was langer dan 2 s). Er werd weinig verschil gevonden in de duur van de blikken op de weg.”

Het rapport concludeerde dat het gedrag verandert voor en na het uitschakelen van de Autopilot.

“Voordat ze werden uitgeschakeld, keken chauffeurs minder op de weg en concentreerden ze zich meer op niet-rijgerelateerde gebieden in vergelijking met na de overgang naar handmatig rijden. Het grotere aandeel off-road blikken vóór het overschakelen naar handmatig rijden werd niet gecompenseerd door langere blikken vooruit.”

Het rapport concludeerde ook dat deze veranderingen in blikduur en patronen erop wijzen dat er minder visuele aandacht is voor de voorwaartse weg wanneer Autopilot is ingeschakeld in vergelijking met na het uitschakelen van handmatig rijden.

"Deze verschuiving in visuele aandacht vereist mogelijk betere bestuurdersbeheersystemen om te voldoen aan het door de fabrikant aanbevolen gebruik.

“Het is echter niet bekend wat voldoende aandacht is bij automatisering om de veiligheidsdrempel van een conventioneel voertuig te halen of te overschrijden. Off-road kijken betekent echter niet automatisch afleiding of onoplettendheid omdat het rijgedrag van de bestuurder niet los van de rijsituatie kan worden beoordeeld.”

Wat de studie gevonden heeft

In een notendop: uit het onderzoek bleek dat Autopilot Tesla-bezitters een veilig genoeg gevoel geeft om langer dan normaal van de weg weg te kijken. Een bestuurder kan zich veilig genoeg voelen om naar de passagier naast hem te kijken terwijl de auto in beweging is. De vraag is: doen ze dit zorgvuldig en veilig? Het onderzoek geeft op de een of andere manier geen antwoord op die vraag.

Het lijkt erop dat de automatische piloot Tesla-eigenaren een gevoel van veiligheid geeft dat een normale bestuurder niet zou voelen tijdens het rijden, en dit is niet goed of slecht, maar het is iets waarmee zowel Tesla als de chauffeurs rekening moeten houden. Tesla's focus ligt op veiligheid, en het bedrijf, dat rijgegevens verzamelt om FSD te bouwen, is zich hiervan waarschijnlijk bewust en gebruikt het om een ​​veiliger systeem te creëren.

Een oplossing voor de mogelijke onoplettendheid van Tesla-eigenaren die Autopilot gebruiken, is een zeurend systeem dat Tesla heeft. Tesla kan bestuurders er echter niet van weerhouden gewichten te kopen om het systeem te misleiden. Evenmin kan het bedrijven ervan weerhouden dergelijke apparaten te verkopen. Misschien is dit waar regelgeving het beste kan worden toegepast: strengere boetes of straffen voor chauffeurs die worden betrapt op het gebruik van dergelijke hacks. Er zijn veel video's over hoe je andere systemen, zoals cruisecontrol, kunt misleiden, dus dit kan zeker een veel breder probleem zijn om te verhelpen.

In december 2020 was er een nieuwe rekening in Arizona die bestuurders een boete van $ 250 oplegt als ze auto's misleiden om handsfree te rijden. De rit rapporteerde hierover en wees erop dat automobilisten al jaren proberen verschillende waarschuwingen en lock-outs uit te schakelen die bedoeld zijn om hun aandacht bij de weg te houden. Het wetsvoorstel is echter stierf in de commissie en niet in de wet worden omgezet.

Als het in de wet was opgenomen, zou Arizona een grote stap hebben gezet om de verantwoordelijkheid om aandacht aan de weg te besteden nog meer rechtstreeks op de weg te leggen - en dit is waar het zou moeten zijn.

Waar ik graag een studie over zou willen zien

Ik zou graag een onderzoek zien naar hoe Autopilot levens heeft gered. De gegevens zijn er en er zijn verschillende video's van Tesla-eigenaren die accounts delen over hoe de software hen heeft gered van een ongeluk. CleanTechnica heeft een aantal van deze behandeld, maar het lijkt erop dat er elke dag een leven wordt gered door Autopilot.

Toch lijkt geen van de grote verkooppunten die snel werken met "Driverless Tesla Crashes" of soortgelijke koppen enige interesse te hebben in de levens die worden gered door het gebruik van Autopilot. Een onderzoek waarin ongevalgegevens worden vergeleken - hoeveel ongevallen gebeuren met en zonder ingeschakelde Autopilot - en kijken hoe Autopilot levens redt, zou nuttig kunnen zijn.

Conclusie

Ja, er is een probleem. Tesla en elke andere maker van elk type ADAS zullen tegen dit probleem aanlopen. Het probleem is veelzijdig. Aan de ene kant zijn mensen snel afgeleid. Dus heeft Tesla daar een oplossing voor geïmplementeerd: een zeur. Aan de andere kant zijn mensen egoïstisch en denken ze niet dat veiligheidsvoorzieningen op hen van toepassing zijn. Ze vinden manieren om veiligheidsvoorzieningen te misleiden of zelfs uit te schakelen. Dit is niet de schuld van Tesla, noch die van een bedrijf dat een technologie maakt die mensen manieren vinden om ze te misbruiken. Het probleem is dat mensen er misbruik van maken.

"Nou, misschien moet Tesla het dan niet halen!"

Zeggen dat we geen betere systemen moeten maken omdat mensen ze zullen misbruiken, helpt niet. De oplossing is om een ​​manier te vinden om te voorkomen of te ontmoedigen dat mensen misbruik maken van het systeem. Er zou echter regulering nodig zijn en dit zou betekenen dat er in elke staat veel bureaucratie moet worden doorbroken. Zelfs dan zullen er altijd mensen zijn die de wet overtreden, systemen misbruiken die zijn ontworpen om ons te helpen beschermen, en al te gevaarlijke dingen doen.

 

Waardeer je de originaliteit van CleanTechnica? Overweeg om een CleanTechnica-lid, ondersteuner, technicus of ambassadeur - of een beschermheer op Patreon.

 

 


advertentie


 


Heeft u een tip voor CleanTechnica, wilt u adverteren of een gast voorstellen voor onze CleanTech Talk-podcast? Neem hier contact met ons op.

PlatoAi. Web3 opnieuw uitgevonden. Gegevensintelligentie versterkt.
Klik hier om toegang te krijgen.

Bron: https://cleantechnica.com/2021/09/23/mit-study-on-tesla-autopilot-users-highlights-eye-patterns-but-notes-that-it-doesnt-automatically-imply-distraction- of-onoplettendheid/

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?