Zephyrnet-logo

The Rocky Road Toward Explainable AI (XAI) voor AI autonome auto's 

Datum:

De AI-systemen die het besturen van autonome auto's uitvoeren, zullen nieuwsgierige passagiers uitleg moeten geven over de route die wordt afgelegd. (Credit: Getty Images) 

Door Lance Eliot, de AI Trends Insider  

Ons leven is gevuld met verklaringen. U gaat naar uw huisarts vanwege een pijnlijke schouder. De dokter zegt dat u uw arm moet laten rusten en zwaar tillen moet vermijden. Daarnaast wordt er een recept gegeven. Je vraagt ​​je meteen af ​​waarom je medicijnen zou moeten slikken en bent ongetwijfeld ook geïnteresseerd om te weten wat de medische diagnose en algehele prognose is. 

Dus je vraagt ​​om uitleg. 

In zekere zin heb je zojuist een stukje van Pandora's doos geopend, althans met betrekking tot de aard van de uitleg die je zou kunnen krijgen. De arts zou bijvoorbeeld een langdurige en met jargon gevulde indicatie van de schouderanatomie kunnen ratelen en diep in de chemische eigenschappen van de voorgeschreven medicatie kunnen duiken. Dat is waarschijnlijk niet de verklaring die u zocht.   

Vroeger verwachtten artsen niet dat patiënten om uitleg vroegen. Wat de dokter ook zei, werd als heilig beschouwd. Alleen al het lef om om uitleg te vragen, kwam neer op het in twijfel trekken van de juistheid van een gerespecteerde medische mening. Sommige doktoren zouden je nors zeggen dat je gewoon moet doen wat ze je hebben opgedragen (geen vragen toegestaan) of misschien iets nogal saai zeggen, zoals dat je schouder hulp nodig heeft, en dit is de beste manier van handelen. Periode, einde verhaal.   

Tegenwoordig zijn artsen zich bewust van de noodzaak van uitvoerbare verklaringen. Er is een gespecialiseerde 'bedside'-training die plaatsvindt op medische scholen. Ziekenhuizen hebben hun eigen in-house cursussen. Aankomende artsen worden beoordeeld op hun interactie met patiënten. Enzovoorts.   

Hoewel dat zeker de deur heeft geopend voor een verbeterde interactie met patiënten, lost het niet noodzakelijk het verklaringsprobleem volledig op. 

Weten hoe je het beste een verklaring kunt geven, is zowel kunst als wetenschap. U moet bedenken dat er een uitlegger is die de uitleg zal geven, en dat er een persoon is die de uitleg zal ontvangen. 

Uitleg is er in alle soorten en maten. 

Iemand die een verklaring zoekt, kan in gedachten hebben dat hij een volledig uitgewerkte verklaring wil, met alle beschikbare toeters en bellen. De persoon die de uitleg geeft, denkt misschien in gedachten dat de juiste uitleg kort en krachtig is. Daar heb je het, een verklaring die niet overeenkomt met het brouwen recht voor onze ogen. 

De uitlegger kan een scherpe uitleg geven en tevreden zijn met hun uitleg. Ondertussen is de persoon die de uitleg ontvangt, volledig ontevreden. Op dit punt kan de persoon die de uitleg heeft gekregen mogelijk zijn tanden op elkaar knarsen en gewoon bedenken dat dit alles is wat hij zal krijgen. Ze zouden zwijgend weg kunnen lopen en verdomd van streek zijn, en ervoor kiezen om als het ware niet te proberen het stadhuis te bestrijden, en slechts toe te geven aan de minimale uitleg die ze krijgen. 

Misschien besluit de persoon die de uitleg ontvangt dat hij graag een meer uitgewerkte versie wil. Ze kunnen hun mannetje staan ​​en om een ​​meer diepgaande uitleg vragen. Nu moeten we overwegen wat de uitlegger gaat doen. De uitlegger zou kunnen geloven dat de uitleg meer dan voldoende was, en ziet geen noodzaak om enige aanvullende articulatie te geven.   

De uitlegger is misschien in de war over waarom de oorspronkelijke uitleg niet acceptabel was. Misschien luisterde de persoon die de uitleg kreeg niet of had hij de betekenis van de gesproken woorden niet begrepen. Op dit moment kan de uitlegger daarom besluiten om dezelfde uitleg die zojuist is gegeven te herhalen en dit te doen om ervoor te zorgen dat de persoon die de oorspronkelijke uitleg ontvangt, echt begrijpt wat er is gezegd.   

U kunt waarschijnlijk verwachten dat dit op het punt staat uit de hand te lopen. 

De persoon die deze "uitgebreide" uitleg ontvangt, is hieraan gebonden kennisgeving dat het dezelfde uitleg is die herhaald wordt, bijna woordelijk. Dat is beledigend! De persoon die de uitleg krijgt, denkt nu dat hij door de uitlegger wordt gekleineerd. Deze persoon zal ofwel zijn eigen mond houden en het opgeven om een ​​verklaring te krijgen, of proberen beledigingen uit te voeren over hoe absurd een verklaring de uitleg was.   

Het kan een rommelige aangelegenheid worden, dat is zeker.   

Er is een delicate dans tussen de uitlegger en het geven van uitleg, samen met de ontvanger en de gewenste aard van een uitleg.   

We nemen meestal deze verschillen als vanzelfsprekend. YJe ziet zelden een uitlegger die vraagt ​​wat voor uitleg iemand wil hebben. In plaats daarvan begint de uitlegger in elke schijn van uitleg waarvan hij aanneemt dat de persoon deze nuttig zou vinden. Het overhaasten om uitleg te geven kan zo zijn voordelen hebben, maar het kan ook een lelijke verbale lawine veroorzaken die zowel de uitlegger als de persoon die de uitleg ontvangt, zal neerslaan.   

Sommigen suggereren dat de uitlegger zou moeten beginnen met te vragen naar het soort uitleg dat de andere persoon zoekt. Dit kan inhouden dat u moet vragen wat voor achtergrond de andere persoon heeftin het geval van een medische diagnose, of de ander bekend is met de medische terminologie en de geneeskunde. Er kan ook een zachte vraag zijn of de uitleg in één klap moet worden gedaan of mogelijk in hapklare stukjes moet worden verdeeld. Enz.   

De moeilijkheid met dat soort pre-game formatie is dat de ontvanger soms niet door die handschoen wil gaan. Ze willen gewoon een verklaring (of dat zeggen ze). Proberen een preambule te maken, zal die ontvanger waarschijnlijk irriteren, en ze zullen het gevoel hebben dat de uitleg opzettelijk wordt uitgesteld. Dit zou zelfs kunnen lijken op het verbergen van de feiten of op een andere snode basis voor het vertragen van de uitleg. 

Alles bij elkaar verwachten we een uitleg wanneer we erom vragen, en hoeven we niet vooraf een uitgebreide checklist te doorlopen.   

Een andere wending aan dit alles is de interactieve dialoog die kan optreden tijdens uitleg.   

De manier waarop de uitleg wordt gegeven, hoeft niet van begin tot eind in één adem te gebeuren. In plaats daarvan is het waarschijnlijker dat de ontvanger tijdens de uitleg zal onderbreken en om opheldering zal vragen of vragen heeft die rijzen. Dit is zeker een verstandig aspect. Als de uitleg misgaat, waarom zou je het dan maar doorgaan, waarbij de ontvanger in plaats daarvan hopelijk de richting en stijl van de uitleg kan aanpassen of hervormen.   

Stel dat u een medische professional bent en naar een arts bent gegaan vanwege uw pijnlijke schouder. Stel dat de arts die de diagnose stelt niet beseft dat de patiënt een mede-medisch specialist is. In dat geval zal de geboden uitleg waarschijnlijk gericht zijn op een veronderstelde niet-medische kennisbasis en mogelijk simplistisch te werk gaan (met betrekking tot medisch advies). De persoon die de uitleg krijgt, zal ongetwijfeld onderbreken en verduidelijken dat hij of zij verstand heeft van medicijnen en dat de uitleg dienovereenkomstig moet worden aangepast.   

Je zou in de verleiding kunnen komen om te geloven dat verklaringen als goed of slecht kunnen worden beoordeeld. Hoewel je zo'n perspectief zou kunnen hebben, is het algemene idee dat verklaringen en hun schoonheid in de ogen van de toeschouwer zijn. De favoriete verklaring van een persoon kan voor iemand anders rampzalig of vreselijk zijn. Dat gezegd hebbende, is er nog een kleine basis om verklaringen te beoordelen en met elkaar te vergelijken. 

We kunnen een draai aan die draai geven. Stel dat u een uitleg krijgt en denkt dat het een goede is. Later leer je iets anders over de kwestie en besef je dat de uitleg misschien onvolledig was. Erger nog, het kan zijn dat de uitleg opzettelijk is vervormd om u een verkeerde indruk van een bepaalde situatie te geven. Kortom, een verklaring kan worden gebruikt om opzettelijk onwaarheden te creëren. 

Daarom is het krijgen van een verklaring vol problemen. We gaan er vaak van uit dat als we om uitleg vragen, en als dit aannemelijk lijkt, dit aantoont dat de zaak goed geregeld en overdreven is. Het punt is dat een verklaring kan worden verdraaid, hetzij door opzet of door toeval, en ons kan leiden tot een vals gevoel van waarachtigheid of waarachtigheid. 

Een andere invalshoek voor uitleg betreft het vragen om uitleg versus het krijgen van uitleg wanneer er niet om wordt gevraagd. Een uitlegger kan je een regelrechte uitleg geven omdat ze aannemen dat je er een wilt, terwijl u zijn tevreden om gewoon verder te gaan. Als u op dat moment de uitleg verstoort, kan de uitlegger verrast zijn.   

Waarom al dit gepraat over verklaringen? Vanwege AI.   

Het toenemende gebruik van kunstmatige intelligentie (AI) in alledaagse computersystemen brengt ons op een pad waarbij de computer keuzes maakt en wij de mensen met die beslissingen moeten leven. Als u een woningkrediet aanvraagt ​​en een op AI gebaseerd algoritme u afwijst, is de kans groot dat u alleen weet dat u de lening niet hebt gekregen. U heeft geen idee waarom u de lening werd geweigerd.   

Als u een persoon had geraadpleegd die de lening verstrekte, had u hen waarschijnlijk kunnen vragen om uit te leggen waarom u werd afgewezen.   

Merk op dat dit niet altijd het geval is, en het kan zijn dat de mens de zaak niet wil of kan uitleggen. De persoon die de lening verstrekt, haalt misschien zijn schouders op en zegt dat hij geen idee heeft waarom u werd afgewezen, of hij zou u kunnen vertellen dat het bedrijfsbeleid hem belet u een verklaring te geven. 

Ergo, ik suggereer niet dat alleen omdat een mens op de hoogte is, je noodzakelijkerwijs een verklaring krijgt. Bovendien, zoals herhaaldelijk eerder werd benadrukt, kan de verklaring nogal zwak en totaal nutteloos zijn.    

In ieder geval is er tegenwoordig een groot rumoer dat AI-systemen moeten worden geprogrammeerd om uitleg te geven voor wat ze ook ondernemen.   

Dit staat bekend als Explainable AI (XAI). 

XAI groeit snel als een gebied van grote belangstelling. Mensen die AI-systemen gebruiken, zullen waarschijnlijk verwachten en enigszins eisen dat ze een uitleg krijgen. Aangezien het aantal AI-systemen snel groeit, zal er een enorme honger zijn naar een machinaal geproduceerde uitleg over wat de AI heeft gedaan of aan het doen is.   

Het probleem is dat de AI vaak geheimzinnig is en niet gemakkelijk vatbaar voor het genereren van een verklaring.   

Neem als voorbeeld het gebruik van Machine Learning (ML) en Deep Learning (DL). Dit zijn algoritmen voor het matchen van computationele patronen die gegevens onderzoeken en wiskundige patronen proberen op te sporen. Soms zijn de innerlijke computationele aspecten complex en lenen ze zich niet om op een alledaagse, voor mensen begrijpelijke en op logica gebaseerde manier te worden uitgelegd. 

Dit betekent dat de AI niet intrinsiek is opgezet om uitleg te geven. In dat geval zijn er meestal pogingen om een ​​XAI-component toe te voegen. Deze XAI tast ofwel in de AI en probeert te achterhalen wat er heeft plaatsgevonden, of hij staat naast de AI en is voorgeprogrammeerd om uitleg te geven op basis van wat wordt verondersteld dat er is gebeurd binnen de wiskundig raadselachtige mechanismen. 

Sommigen beweren dat je de XAI zou moeten inbouwen in de kern van wat voor AI ook wordt bedacht. Dus, in plaats van op de AI na te denken over het produceren van verklaringen, zou het ontwerp van de AI vanaf het begin de neiging moeten omvatten om verklaringen te produceren.   

Temidden van al dat technologisch nadenken, zijn er de andere aspecten van wat een verklaring vormt. Als je mijn eerdere opmerkingen over hoe verklaringen werken, en de variabiliteit die afhangt van de uitlegger en de persoon die de uitleg ontvangt, opnieuw bekijkt, kun je gemakkelijk zien hoe moeilijk het kan zijn om programmatisch uitleg te geven.   

De goedkoopste manier om te gaan, is alleen het hebben van vooraf ingeblikte uitleg. Er zou een systeem van toekenning van leningen kunnen zijn opgezet met vijf verklaringen waarom een ​​lening werd geweigerd. Als u wordt afgewezen voor de lening, krijgt u een van deze vijf verklaringen te zien. Er is geen interactie. Het lijkt er niet op dat de uitleg in het bijzonder passend of geschikt voor u is. 

Dat zijn de schijntje verklaringen. 

Een meer robuuste en respectabele XAI-mogelijkheid zou bestaan ​​uit het genereren van uitleg tijdens de vlucht, in realtime, en dit op basis van de specifieke situatie. Daarnaast zou de XAI proberen vast te stellen welke smaak of stijl van uitleg geschikt zou zijn voor de persoon die de uitleg krijgt. 

  

En deze uitlegfunctie moet zorgen voor een vloeiende interactie met de persoon die de uitleg krijgt. De ontvanger moet de uitleg kunnen onderbreken, de uitlegger of XAI zover krijgen dat hij naar andere aspecten gaat of de uitleg opnieuw vormgeven op basis van wat de persoon aangeeft.   

Dat zijn natuurlijk dezelfde overwegingen waarmee menselijke uitleggers ook rekening moeten houden. Dit brengt het feit naar voren dat het doen van uitstekende XAI moeilijker is dan het lijkt. Bij wijze van spreken zult u waarschijnlijk AI binnen de XAI moeten gebruiken om te kunnen simuleren of nabootsen wat een menselijke uitlegger geacht wordt te kunnen doen (hoewel, zoals we weten, niet alle mensen bedreven zijn in uitleg geven).   

Als u schakelt, vraagt ​​u zich misschien af ​​welke gebieden of toepassingen vooral gebruik kunnen maken van XAI.   

Een van die inspanningen betreft autonome voertuigen (AV's). We zullen geleidelijk aan autonome vormen van mobiliteit krijgen, waarbij we streven naar een mantra van mobiliteit voor iedereen. Er zullen zelfrijdende auto's, zelfrijdende vrachtwagens, zelfrijdende motorfietsen, zelfrijdende duikboten, zelfrijdende drones, zelfrijdende vliegtuigen en de rest zijn.   

Je zou in eerste instantie misschien verbaasd zijn waarom AV's XAI nodig zouden kunnen hebben. We kunnen zelfrijdende auto's gebruiken om te laten zien hoe XAI een essentieel element gaat worden voor AV's.   

De vraag is deze: Op welke manier zal Explainable AI (XAI) belangrijk zijn voor de komst van AV's en zoals blijkt uit de opkomst van zelfrijdende auto's? 

Laten we duidelijk maken wat ik bedoel met zelfrijdende auto's, en dan kunnen we verder springen in de XAI AV-discussie.   

Zie de link hier voor mijn raamwerk over autonome AI-auto's: https://aitrends.com/ai-insider/framework-ai-self-driving-driverless-cars-big-picture/   

Waarom dit een moonshot-inspanning is, zie mijn uitleg hier: https://aitrends.com/ai-insider/self-driving-car-mother-ai-projects-moonshot/   

Voor meer informatie over de niveaus als een type Richter-schaal, zie mijn discussie hier: https://aitrends.com/ai-insider/richter-scale-levels-self-driving-cars/   

Zie mijn uitleg hier voor het argument over het splitsen van de niveaus: https://aitrends.com/ai-insider/reframing-ai-levels-for-self-driving-cars-bifurcation-of-autonomy/ 

Inzicht in de niveaus van zelfrijdende auto's 

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarbij de AI de auto volledig alleen bestuurt en er geen menselijke assistentie is tijdens de rijtaak.   

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5, terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning mee te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die samen de rijtaak delen, worden beschreven als semi -autonoom, en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-on's die worden aangeduid als ADAS (Advanced Driver-Assistance Systems).   

Er is nog geen echte zelfrijdende auto op niveau 5, waarvan we nog niet eens weten of dit mogelijk zal zijn en hoe lang het duurt om daar te komen. 

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen moet worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment dat plaatsvindt op onze snelwegen en zijwegen, beweren sommigen). 

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel verschillen van het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (maar zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).  

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt. 

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid. 

Zie mijn uitleg hier voor waarom het op afstand besturen of bedienen van zelfrijdende auto's over het algemeen wordt vermeden: https://aitrends.com/ai-insider/remote-piloting-is-a-self-driving-car-crutch/   

Om op uw hoede te zijn voor nepnieuws over zelfrijdende auto's, bekijk mijn tips hier: https://aitrends.com/ai-insider/ai-fake-news-about-self-driving-cars/ 

De ethische implicaties van AI-aandrijfsystemen zijn aanzienlijk, zie mijn indicatie hier: https://aitrends.com/selfdrivingcars/ethically-ambiguous-self-driving-cars/ 

Wees je bewust van de valkuilen van normalisatie van deviantie als het gaat om zelfrijdende auto's, hier is mijn oproep tot bewapening: https://aitrends.com/ai-insider/normalization-of-deviance-endangers-ai-self-driving-cars/ 

Zelfrijdende auto's en XAI   

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn. Alle inzittenden zijn passagiers​ thij AI doet het rijden. 

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.   

Waarom deze extra nadruk op het feit dat de AI niet bewust is? 

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.   

Nu we het podium op de juiste manier hebben gelegd, is het tijd om een ​​duik te nemen in de talloze aspecten die komen spelen over dit onderwerp over XAI.   

Houd er allereerst rekening mee dat veel van de bestaande proefversies van zelfrijdende auto's weinig of geen schijn van XAI in zich hebben. De aanvankelijke overtuiging was dat mensen in een zelfrijdende auto zouden stappen, hun bestemming zouden opgeven en in stilte naar die plaats zouden worden gebracht. Er zou geen interactie met het AI-rijsysteem nodig zijn. Er zou geen uitleg of XAI-mogelijkheid nodig zijn.   

We kunnen die veronderstelling opnieuw bekijken door na te denken over wat er gebeurt als je ritten deelt en een menselijke bestuurder achter het stuur hebt.   

Er zijn zeker gevallen waarin u in een Uber- of Lyft-voertuig stapt en er gedurende de hele reis steenachtige stilte heerst. Waarschijnlijk heb je de bestemming al opgegeven via de ride-request-app. De persoon die aan het rijden is, is bezig met het rijden en gaat ogenschijnlijk naar die bestemming. Geen behoefte om te chatten. U kunt videogames spelen op uw smartphone en doen alsof er geen andere mens in de auto zit.   

Dat is prima in orde.   

Maar stel je voor dat de chauffeur tijdens de rit plotseling besluit een route te volgen die je onverwacht of ongebruikelijk vindt. U kunt de chauffeur vragen waarom er een verandering is in het verder normale pad naar de bestemming. Ze zouden hopelijk om uitleg vragen van de menselijke chauffeur. 

IHet kan zijn dat de menselijke bestuurder je geen uitleg geeft of een flinterdunne uitleg geeft. Mensen doen dat. In theorie zal een goed uitgevoerde XAI een on-target verklaring bieden, hoewel dit een uitdaging kan zijn. Misschien vertelt de menselijke chauffeur dat er bouwwerkzaamheden plaatsvinden op de snelweg, en om langdurige vertraging te voorkomen, wordt er een alternatieve koers ondernomen. 

Misschien bent u tevreden met die uitleg. Aan de andere kant woon je misschien in de buurt en ben je benieuwd naar de aard van de bouw. U vraagt ​​de chauffeur dus om meer details over de constructie. In zekere zin ben je in interactie met een uitlegger en op zoek naar aanvullende nuances of facetten over de uitleg die werd gegeven. 

Oké, zet je zelfrijdende auto-denk-pet op en bedenk wat een passagier zou willen van een XAI. Een zelfrijdende auto brengt u naar uw huis. Het normale pad dat zou worden gebruikt, wordt onverwachts omgeleid van het AI-aandrijfsysteem. Waarschijnlijk wilt u de AI vragen waarom de autorit afwijkt van uw verwachte verplaatsing. Veel van de bestaande tests van zelfrijdende auto's zouden geen directe manier hebben om de AI deze kwestie te laten uitleggen, en in plaats daarvan zou je contact moeten opnemen met een externe agent van de wagenparkbeheerder die toezicht houdt op de zelfrijdende auto's. 

In wezen wordt de zaak, in plaats van de XAI te bouwen, overgebracht naar een persoon op afstand om uit te leggen wat er aan de hand is. Dit is iets dat niet bijzonder schaalbaar zal zijn. Met andere woorden, als er eenmaal honderdduizenden zelfrijdende auto's op onze wegen zijn, zal het idee dat de rijders altijd contact moeten opnemen met een externe agent voor de eenvoudigste vragen enorme arbeidskosten en een logistieke nachtmerrie zijn.   

Er zou een frontlinie XAI moeten zijn die bestaat met het AI-aandrijfsysteem.   

Stel dat een Natural Language Processing (NLP) -interface is gekoppeld aan het AI-stuursysteem, vergelijkbaar met Alexa of Siri. De passagier communiceert met de NLP en kan algemene acties bespreken, zoals vragen om de bestemming midstream te wijzigen, of vragen om door een drive-in van een fastfoodrestaurant te slingeren, enzovoort.   

Daarnaast kan de passagier om uitleg vragen.   

Stel dat het AI-aandrijfsysteem plotseling op de rem moet trappen. De berijder in de zelfrijdende auto had misschien een bijzonder fascinerende kattenvideo bekeken en was zich niet bewust van de omstandigheden op de rijbaan. Nadat de passagier door de harde remactie is rondgestuiterd, zou hij angstig kunnen vragen waarom het AI-aandrijfsysteem zo'n plotselinge en schurende rijactie heeft uitgevoerd. 

Je zou willen dat de AI direct zo'n verklaring geeft. Als de enige mogelijke manier om een ​​verklaring te krijgen het zoeken naar een externe agent is, stel je dan voor hoe dat zou kunnen zijn. Daar zit je dan, in de zelfrijdende auto, en hij heeft zojuist radicale maatregelen genomen, maar je hebt geen idee waarom hij dat deed. U moet op een knop drukken of op de een of andere manier een oproep naar een externe agent activeren. Dit kan even duren.   

Zodra de externe agent beschikbaar is (ervan uitgaande dat er een direct beschikbaar is), kunnen ze de dialoog beginnen met een gebruikelijke standaardtoespraak, zoals welkom bij de grootste van alle zelfrijdende auto's. Je hebt ondertussen gezeten in deze zelfrijdende auto, die nog steeds vrolijk aan het rijden is, en toch heb je geen idee waarom hij uit het niets op de rem trapte. 

Het punt hier is dat tegen de tijd dat u een gesprek aangaat met de menselijke afstandsbediening, er veel tijd en rijaspecten hadden kunnen voorkomen. Tijdens die vertraging ben je verbaasd, bezorgd en bezorgd over wat het AI-aandrijfsysteem vervolgens gek zou kunnen doen.   

Als er een XAI was geweest, had je misschien de XAI kunnen vragen wat er net is gebeurd. De XAI zou meteen kunnen uitleggen dat er een hond op het trottoir was die naar de zelfrijdende auto rende en binnen een zeer korte afstand leek te komen. Het AI-aandrijfsysteem koos ervoor om snel te remmen. De hond kreeg het idee en rende veilig weg.   

Een tijdige uitleg, en een die de passagier troost en opluchting geeft, waardoor ze weer in hun stoel kunnen gaan zitten en meer van die video's over dartele kittens en schattige puppy's kunnen bekijken.   

Zie mijn indicatie op deze link hier voor meer informatie over ODD's: https://www.aitrends.com/ai-insider/amalgamating-of-operational-design-domains-odds-for-ai-self-driving-cars/ 

Wat betreft off-road zelfrijdende auto's, hier zijn mijn details: https://www.aitrends.com/ai-insider/off-roading-as-a-challenging-use-case-for-ai-autonomous-cars/ 

Ik heb erop aangedrongen dat er een Chief Safety Officer moet zijn bij zelfrijdende autofabrikanten, hier is de primeur: https://www.aitrends.com/ai-insider/chief-safety-officers-needed-in-ai-the-case-of-ai-self-driving-cars/ 

Verwacht dat rechtszaken geleidelijk een belangrijk onderdeel gaan worden van de zelfrijdende auto-industrie, zie mijn verklarende details hier: https://aitrends.com/selfdrivingcars/self-driving-car-lawsuits-bonanza-ahead/   

Conclusie   

Er zijn heel veel situaties die zich kunnen voordoen tijdens het rijden in een auto en waarvoor je misschien een uitleg zou willen hebben. De auto wordt plotseling tot stilstand gebracht. De auto maakt vrij sterk een bocht. De auto bocht een aangrenzende rijstrook in zonder een comfortabele foutmarge. De auto rijdt over een weg die je niet had verwacht. Er zijn schijnbaar eindeloze mogelijkheden.   

In dat geval, als XAI inderdaad bijzonder handig is voor zelfrijdende auto's, vraagt ​​u zich misschien af ​​waarom het niet al helemaal op zijn plaats is.   

Toegegeven, voor die AI-ontwikkelaars die onder grote druk staan ​​om AI te bedenken die een auto van punt A naar punt B kan besturen, op een veilige manier, staat het aspect van het geven van door de machine gegenereerde uitleg vrij laag op hun prioriteitenlijst. Ze zouden vurig beweren dat het een zogenaamde rand- of hoekgeval is. Het kan worden bereikt wanneer de zonneschijn van het bereiken van voldoende zelfrijdende auto's is bereikt. 

Mensen die in allerlei soorten AV rijden, zullen uitleg willen hebben. Een kosteneffectieve en onmiddellijk beschikbare manier om uitleg te geven, houdt in dat XAI wordt geïmplementeerd in de AI-systemen die de autonome pilot uitvoeren.   

Men veronderstelt dat als u zich in een zelfrijdende auto bevindt en die dringend een acrobatische rijmanoeuvre uitvoert, u misschien aarzelt om te vragen wat er aan de hand is, op dezelfde manier, dat u zich zorgen zou kunnen maken dat u een menselijke bestuurder zou afleiden. dat deed iets wilds achter het stuur.   

Vermoedelijk zal een goed ontworpen XAI het AI-rijsysteem niet belasten, en dus ben je vrij om een ​​langdurige dialoog aan te gaan met de XAI. In feite is de meest waarschijnlijke vraag die zelfrijdende auto's zullen krijgen, hoe werkt het AI-rijsysteem. De XAI zou voorbereid moeten zijn om met dat soort vragen om te gaan. 

Het enige dat we waarschijnlijk niet mogen verwachten dat XAI afhandelt, zijn de vragen die niet bij het autorijden horen. Bijvoorbeeld, de XAI vragen om de zin van het leven uit te leggen, is iets dat zou kunnen worden betoogd als out-of-bounds en boven het loonniveau van de AI.   

Tenminste tot de dag dat AI bewust wordt, dan kun je zeker wegvragen. 

Copyright 2021 Dr.Lance Eliot  http://ai-selfdriving-cars.libsyn.com/website 

Coinsmart. Beste Bitcoin-beurs in Europa
Bron: https://www.aitrends.com/ai-insider/the-rocky-road-toward-explainable-ai-xai-for-ai-autonomous-cars/

spot_img

Laatste intelligentie

spot_img

Chat met ons

Hallo daar! Hoe kan ik u helpen?