Zephyrnet-logo

Washington Post vraagt ​​zich af waarom Tesla Autopilot kan worden gebruikt op plaatsen waar dat niet zou moeten gebeuren – CleanTechnica

Datum:

MELD U AAN VOOR dagelijkse nieuwsupdates van CleanTechnica op e-mail. Of volg ons op Google Nieuws!


Een artikel in de Washington Post op 10 december 2023 wordt gevraagd: als Tesla Autopilot niet bedoeld is voor gebruik op wegen met kruisend verkeer, waarom staat Tesla toe dat het op die wegen wordt geactiveerd? Het is een terechte vraag, waarbij een aantal factoren betrokken zijn – van de houding van federale toezichthouders tot de wensen van de rijkste man ter wereld. Rond de waterkoeler bij CleanTechinca's ultramoderne juice bar, die is er veel onenigheid over deze kwestie. Het feit dat de Post Het verhaal is pas ongeveer 12 uur live en heeft meer dan 3,600 reacties, wat getuigt van de mate van belangstelling – en controverse – die met deze kwestie gepaard gaat.

Automatische piloot op een donkere, eenzame weg

Het verhaal begint met een jong stel dat hun Chevy Tahoe bij Key Largo van de weg trok om naar de sterren te kijken. De Post zegt: “Een Tesla die op de automatische piloot reed, stortte met een snelheid van ongeveer 70 km per uur door een T-kruising en gooide het jonge stel de lucht in, waarbij de een om het leven kwam en de ander ernstig gewond raakte. Lichaamscamerabeelden van de politie, verkregen door de politie Washington Post, zegt de geschokte chauffeur dat hij “op cruise reed” en wendde zijn blik van de weg af toen hij zijn telefoon liet vallen.

Maar de crash van 2019 onthult een probleem dat dieper gaat dan de onoplettendheid van de bestuurder Post zegt. Het gebeurde op een landelijke weg waar Tesla's Autopilot-technologie niet was ontworpen om te worden gebruikt. Dashcam-beelden vastgelegd door de Tesla en exclusief verkregen door The Post toont de auto die door een stopbord, een knipperlicht en vijf gele borden waait die waarschuwen dat de weg eindigt en dat bestuurders links of rechts moeten afslaan.

Misschien heb je een mening over Elon Musk, Tesla en de beroemdheden Automatische piloot-technologie en zo ja, goed voor jou. Maar bekijk die video en beantwoord vervolgens deze vragen:

  • Waarom kon Autopilot op die weg worden geactiveerd?
  • Waarom herkende Autopilot een T-kruising gemarkeerd door een stopbord, een knipperend licht en vijf gele borden niet?

AutopilotIn gebruikershandleidingen, juridische documenten en communicatie met federale toezichthouders heeft Tesla erkend dat Autosteer, het belangrijkste kenmerk van Autopilot, “bedoeld is voor gebruik op snelwegen met gecontroleerde toegang” met “een middenscheiding, duidelijke rijstrookmarkeringen en geen kruisend verkeer.” Tesla adviseert automobilisten dat de technologie kan haperen op wegen als er heuvels of scherpe bochten zijn, aldus de gebruikershandleiding.

Hoewel het bedrijf de technische mogelijkheid heeft om de beschikbaarheid van Autopilot per regio te beperken, heeft het enkele definitieve stappen ondernomen om het gebruik van de software te beperken. De vraag is: waarom? Als de auto weet waar hij is en op welke weg hij zich bevindt, waarom staat daar dan geen voorziening in de software? verbiedt dat de automatische piloot wordt ingeschakeld in omstandigheden waarin het gebruik ervan gevaarlijk zou kunnen zijn voor bestuurders, passagiers en voetgangers?

Federale toezichthouders zijn het daar niet mee eens

Een deel van het antwoord kan liggen in een intern geschil tussen de National Transportation Safety Board en de National Highway Traffic Safety Administration. Na de crash in 2016 waarbij Tesla Model S-coureur Joshua Brown om het leven kwam, riep de NTSB op tot beperkingen op de plekken waar rijhulptechnologie kan worden geactiveerd. Maar als puur onderzoeksbureau heeft het geen toezichthoudende macht over Tesla. NHTSA, onderdeel van het Department of Transportation, heeft de bevoegdheid om afdwingbare veiligheidsnormen voor auto's vast te stellen, maar het nalaten hiervan heeft aanleiding gegeven tot een ongebruikelijke en steeds gespannener kloof tussen de twee instanties.

In een interview in oktober zei NTSB-voorzitter Jennifer Homendy dat de crash van 2016 NHTSA ertoe had moeten aanzetten om afdwingbare regels te creëren rond waar Tesla's technologie zou kunnen worden geactiveerd. De passiviteit, zei ze, weerspiegelt “een werkelijk falen van het systeem. Als de fabrikant de veiligheid niet serieus gaat nemen, is het aan de federale overheid om ervoor te zorgen dat ze opkomen voor anderen om de veiligheid te garanderen”, maar “veiligheid lijkt niet de prioriteit te hebben als het om Tesla gaat. ” Over NHTSA gesproken, Homendy voegde eraan toe: “Hoeveel mensen moeten er nog sterven voordat je als bureau actie onderneemt?”

Dat klinkt zeker als een schot voor de boeg van NHTSA. In reactie daarop zei het agentschap dat het “de inbreng van de NTSB altijd verwelkomt en deze zorgvuldig beoordeelt – vooral bij het overwegen van mogelijke regelgevende maatregelen. Als volksgezondheids-, regelgevende en veiligheidsinstantie is veiligheid onze topprioriteit.” Vervolgens werd gezegd dat het te complex en arbeidsintensief zou zijn om te verifiëren dat systemen zoals Tesla Autopilot worden gebruikt binnen de omstandigheden waarvoor ze zijn ontworpen, en dat dit het probleem mogelijk niet zou oplossen.

Homendy was sceptisch over die verklaring en zei dat agentschappen en industrieën vaak op NTSB-aanbevelingen reageren door de onmogelijkheid van hun verzoeken aan te halen – totdat nog meer bloedbad hen de hand dwingt. NHTSA zei dat het er in plaats daarvan op gericht is ervoor te zorgen dat bestuurders volledig betrokken zijn bij het gebruik van geavanceerde rijhulpsystemen.

In rechtszaken en publieke verklaringen heeft Tesla herhaaldelijk betoogd dat het niet aansprakelijk is voor ongevallen waarbij Autopilot betrokken is, omdat de bestuurder uiteindelijk verantwoordelijk is voor het traject van de auto. Na een fatale crash in 2018 vertelde Tesla aan NTSB dat ontwerplimieten voor Autopilot niet passend zouden zijn omdat “de bestuurder de acceptabele werkomgeving bepaalt.”

Steven Cliff, een voormalige NHTSA-chef die vorig jaar het bureau verliet, vertelde de Washington Post De aanpak van de toezichthouders kan soms te voorzichtig lijken, maar hij zei dat zijn bureau onder zijn toezicht agressief was en bedrijven als Tesla opdracht gaf hun gegevens te rapporteren over ongevallen waarbij geavanceerde rijhulpsystemen betrokken waren. Maar de overgang van de fase van gegevensverzameling naar een definitieve regel, waarbij indien nodig nieuwe regelgeving wordt aangenomen, kan jaren duren. "De filosofie van Tesla is: laat de operator zelf bepalen wat veilig is, maar geef hem veel flexibiliteit om die beslissing te nemen", zei hij.

De automatische piloot weet waar hij is

Cliff zei ook dat Tesla gemakkelijk kan beperken waar de technologie kan worden ingezet. “De Tesla weet waar hij is. Er zit navigatie in. Het weet of het zich op een snelweg bevindt of op een gebied waar de technologie niet is ontworpen om te worden gebruikt,' zei hij. “Als het niet ontworpen is om daar gebruikt te worden, waarom kun je het dan daar gebruiken?” Elon Musk hing ooit op met voormalig NTSB-voorzitter Robert Sumwalt, die in 2021 met pensioen ging bij het bureau toen Homendy het overnam.

In 2020 bracht NTSB een rapport uit over een ander fataal Tesla-ongeluk waarin zowel een vrachtwagenchauffeur die een stopbord aanhield als het "overmatige vertrouwen" van de Tesla-chauffeur op de Autopilot als waarschijnlijke oorzaken van de crash werden genoemd. NTSB zette ook de nieuwe stap door voor het eerst de NHTSA te citeren en zei dat het onvermogen om “een methode te ontwikkelen” die “het gebruik van geautomatiseerde voertuigcontrolesystemen zou beperken tot de omstandigheden waarvoor ze zijn ontworpen” heeft bijgedragen aan de crash. In 2021 stuurde NTSB nog een brief naar NHTSA over Autopilot, waarin ze de dienst opriep om “verstandige waarborgen, protocollen en minimale prestatienormen op te nemen om de veiligheid van automobilisten en andere kwetsbare weggebruikers te garanderen.”

In een van haar laatste pogingen om tot actie aan te zetten, stuurde Homendy in augustus 2021 rechtstreeks een brief naar Musk. Ze drong er bij hem op aan om veiligheidsmaatregelen te implementeren om de technologie te ‘beperken’ tot de omstandigheden waarvoor deze was ontworpen, naast andere aanbevelingen. ‘Als je serieus wilt zijn dat veiligheid centraal staat in het ontwerp van Tesla-voertuigen,’ schreef ze, ‘dan nodig ik je uit om actie te ondernemen op basis van de veiligheidsaanbevelingen die we je vier jaar geleden hebben gegeven.’ Musk heeft nooit gereageerd, zei ze.

Er zijn veel controverses over de automatische piloot

Mijn oude Ierse grootvader beweerde altijd dat het gevaarlijkste onderdeel van elke auto de moer achter het stuur is. Musk-apologeten zeggen graag dat Autopilot veel meer mensen heeft gered dan er schade aan heeft geleden. Musk-haters laten daarentegen duister doorschemeren dat Autopilot is ontworpen om zichzelf enkele seconden vóór een crash uit te schakelen, zodat het bedrijf met een strak gezicht kan zeggen dat het systeem niet actief was op het moment van een crash. Beide groepen hebben waarschijnlijk gedeeltelijk gelijk.

Maar hier komt het rubber de weg tegen. De man die ernstig gewond raakte in de Florida Keys vraagt: ‘Hoe konden ze zoiets op de weg toestaan? Het is als een dodelijk wapen dat overal rondrijdt. En mensen, voetgangers zoals ik, hoe moeten we dit soort dingen weten? Het mag niet worden toegestaan.”

Meer dan eens kwam het gesprek op CleanTechnica heeft zich niet gericht op Tesla-bestuurders, maar op de bestuurders en passagiers in andere auto’s – en ook op voetgangers en fietsers – die niet weten dat zij acteurs zijn in een gigantische computersimulatie die speciaal voor de Grote en Machtige Musk is gecreëerd. Wie spreekt voor hen? Wie beschermt hun rechten? Waarom worden ze zonder hun toestemming betrokken bij het Tesla-verhaal?

Onze lezers zullen dat ongetwijfeld doen heb veel te zeggen over die onderwerpen. We kunnen niet wachten om uw opmerkingen te lezen.


Heeft u een tip voor CleanTechnica? Wilt u adverteren? Wilt u een gast voorstellen voor onze CleanTech Talk-podcast? Neem hier contact met ons op.


Onze nieuwste EVObsession-video

[Ingesloten inhoud]


Ik hou niet van betaalmuren. Je houdt niet van betaalmuren. Wie houdt er van betaalmuren? Hier bij CleanTechnica hebben we een tijdje een beperkte betaalmuur geïmplementeerd, maar het voelde altijd verkeerd – en het was altijd moeilijk om te beslissen wat we daarachter moesten zetten. In theorie bevindt uw meest exclusieve en beste inhoud zich achter een betaalmuur. Maar dan lezen minder mensen het!! Daarom hebben we besloten om de betaalmuren hier bij CleanTechnica volledig te schrappen. Maar…

 

Net als andere mediabedrijven hebben we lezerssteun nodig! Als u ons steunt, Gelieve maandelijks een beetje bij te dragen om ons team te helpen bij het schrijven, redigeren en publiceren van 15 cleantech-verhalen per dag!

 

Bedankt!


advertentie



 


CleanTechnica maakt gebruik van affiliatielinks. Zie ons beleid hier.


spot_img

Laatste intelligentie

spot_img