Verbind je met ons

AI

The Rocky Road Toward Explainable AI (XAI) voor AI autonome auto's 

gepubliceerd

on

De AI-systemen die het besturen van autonome auto's uitvoeren, zullen nieuwsgierige passagiers uitleg moeten geven over de route die wordt afgelegd. (Credit: Getty Images) 

Door Lance Eliot, de AI Trends Insider  

Ons leven is gevuld met verklaringen. U gaat naar uw huisarts vanwege een pijnlijke schouder. De dokter zegt dat u uw arm moet laten rusten en zwaar tillen moet vermijden. Daarnaast wordt er een recept gegeven. Je vraagt ​​je meteen af ​​waarom je medicijnen zou moeten slikken en bent ongetwijfeld ook geïnteresseerd om te weten wat de medische diagnose en algehele prognose is. 

Dus je vraagt ​​om uitleg. 

In zekere zin heb je zojuist een stukje van Pandora's doos geopend, althans met betrekking tot de aard van de uitleg die je zou kunnen krijgen. De arts zou bijvoorbeeld een langdurige en met jargon gevulde indicatie van de schouderanatomie kunnen ratelen en diep in de chemische eigenschappen van de voorgeschreven medicatie kunnen duiken. Dat is waarschijnlijk niet de verklaring die u zocht.   

Vroeger verwachtten artsen niet dat patiënten om uitleg vroegen. Wat de dokter ook zei, werd als heilig beschouwd. Alleen al het lef om om uitleg te vragen, kwam neer op het in twijfel trekken van de juistheid van een gerespecteerde medische mening. Sommige doktoren zouden je nors zeggen dat je gewoon moet doen wat ze je hebben opgedragen (geen vragen toegestaan) of misschien iets nogal saai zeggen, zoals dat je schouder hulp nodig heeft, en dit is de beste manier van handelen. Periode, einde verhaal.   

Tegenwoordig zijn artsen zich bewust van de noodzaak van uitvoerbare verklaringen. Er is een gespecialiseerde 'bedside'-training die plaatsvindt op medische scholen. Ziekenhuizen hebben hun eigen in-house cursussen. Aankomende artsen worden beoordeeld op hun interactie met patiënten. Enzovoorts.   

Hoewel dat zeker de deur heeft geopend voor een verbeterde interactie met patiënten, lost het niet noodzakelijk het verklaringsprobleem volledig op. 

Weten hoe je het beste een verklaring kunt geven, is zowel kunst als wetenschap. U moet bedenken dat er een uitlegger is die de uitleg zal geven, en dat er een persoon is die de uitleg zal ontvangen. 

Uitleg is er in alle soorten en maten. 

Iemand die een verklaring zoekt, kan in gedachten hebben dat hij een volledig uitgewerkte verklaring wil, met alle beschikbare toeters en bellen. De persoon die de uitleg geeft, denkt misschien in gedachten dat de juiste uitleg kort en krachtig is. Daar heb je het, een verklaring die niet overeenkomt met het brouwen recht voor onze ogen. 

De uitlegger kan een scherpe uitleg geven en tevreden zijn met hun uitleg. Ondertussen is de persoon die de uitleg ontvangt, volledig ontevreden. Op dit punt kan de persoon die de uitleg heeft gekregen mogelijk zijn tanden op elkaar knarsen en gewoon bedenken dat dit alles is wat hij zal krijgen. Ze zouden zwijgend weg kunnen lopen en verdomd van streek zijn, en ervoor kiezen om als het ware niet te proberen het stadhuis te bestrijden, en slechts toe te geven aan de minimale uitleg die ze krijgen. 

Misschien besluit de persoon die de uitleg ontvangt dat hij graag een meer uitgewerkte versie wil. Ze kunnen hun mannetje staan ​​en om een ​​meer diepgaande uitleg vragen. Nu moeten we overwegen wat de uitlegger gaat doen. De uitlegger zou kunnen geloven dat de uitleg meer dan voldoende was, en ziet geen noodzaak om enige aanvullende articulatie te geven.   

De uitlegger is misschien in de war over waarom de oorspronkelijke uitleg niet acceptabel was. Misschien luisterde de persoon die de uitleg kreeg niet of had hij de betekenis van de gesproken woorden niet begrepen. Op dit moment kan de uitlegger daarom besluiten om dezelfde uitleg die zojuist is gegeven te herhalen en dit te doen om ervoor te zorgen dat de persoon die de oorspronkelijke uitleg ontvangt, echt begrijpt wat er is gezegd.   

U kunt waarschijnlijk verwachten dat dit op het punt staat uit de hand te lopen. 

De persoon die deze "uitgebreide" uitleg ontvangt, is hieraan gebonden kennisgeving dat het dezelfde uitleg is die herhaald wordt, bijna woordelijk. Dat is beledigend! De persoon die de uitleg krijgt, denkt nu dat hij door de uitlegger wordt gekleineerd. Deze persoon zal ofwel zijn eigen mond houden en het opgeven om een ​​verklaring te krijgen, of proberen beledigingen uit te voeren over hoe absurd een verklaring de uitleg was.   

Het kan een rommelige aangelegenheid worden, dat is zeker.   

Er is een delicate dans tussen de uitlegger en het geven van uitleg, samen met de ontvanger en de gewenste aard van een uitleg.   

We nemen meestal deze verschillen als vanzelfsprekend. YJe ziet zelden een uitlegger die vraagt ​​wat voor uitleg iemand wil hebben. In plaats daarvan begint de uitlegger in elke schijn van uitleg waarvan hij aanneemt dat de persoon deze nuttig zou vinden. Het overhaasten om uitleg te geven kan zo zijn voordelen hebben, maar het kan ook een lelijke verbale lawine veroorzaken die zowel de uitlegger als de persoon die de uitleg ontvangt, zal neerslaan.   

Sommigen suggereren dat de uitlegger zou moeten beginnen met te vragen naar het soort uitleg dat de andere persoon zoekt. Dit kan inhouden dat u moet vragen wat voor achtergrond de andere persoon heeftin het geval van een medische diagnose, of de ander bekend is met de medische terminologie en de geneeskunde. Er kan ook een zachte vraag zijn of de uitleg in één klap moet worden gedaan of mogelijk in hapklare stukjes moet worden verdeeld. Enz.   

De moeilijkheid met dat soort pre-game formatie is dat de ontvanger soms niet door die handschoen wil gaan. Ze willen gewoon een verklaring (of dat zeggen ze). Proberen een preambule te maken, zal die ontvanger waarschijnlijk irriteren, en ze zullen het gevoel hebben dat de uitleg opzettelijk wordt uitgesteld. Dit zou zelfs kunnen lijken op het verbergen van de feiten of op een andere snode basis voor het vertragen van de uitleg. 

Alles bij elkaar verwachten we een uitleg wanneer we erom vragen, en hoeven we niet vooraf een uitgebreide checklist te doorlopen.   

Een andere wending aan dit alles is de interactieve dialoog die kan optreden tijdens uitleg.   

De manier waarop de uitleg wordt gegeven, hoeft niet van begin tot eind in één adem te gebeuren. In plaats daarvan is het waarschijnlijker dat de ontvanger tijdens de uitleg zal onderbreken en om opheldering zal vragen of vragen heeft die rijzen. Dit is zeker een verstandig aspect. Als de uitleg misgaat, waarom zou je het dan maar doorgaan, waarbij de ontvanger in plaats daarvan hopelijk de richting en stijl van de uitleg kan aanpassen of hervormen.   

Stel dat u een medische professional bent en naar een arts bent gegaan vanwege uw pijnlijke schouder. Stel dat de arts die de diagnose stelt niet beseft dat de patiënt een mede-medisch specialist is. In dat geval zal de geboden uitleg waarschijnlijk gericht zijn op een veronderstelde niet-medische kennisbasis en mogelijk simplistisch te werk gaan (met betrekking tot medisch advies). De persoon die de uitleg krijgt, zal ongetwijfeld onderbreken en verduidelijken dat hij of zij verstand heeft van medicijnen en dat de uitleg dienovereenkomstig moet worden aangepast.   

Je zou in de verleiding kunnen komen om te geloven dat verklaringen als goed of slecht kunnen worden beoordeeld. Hoewel je zo'n perspectief zou kunnen hebben, is het algemene idee dat verklaringen en hun schoonheid in de ogen van de toeschouwer zijn. De favoriete verklaring van een persoon kan voor iemand anders rampzalig of vreselijk zijn. Dat gezegd hebbende, is er nog een kleine basis om verklaringen te beoordelen en met elkaar te vergelijken. 

We kunnen een draai aan die draai geven. Stel dat u een uitleg krijgt en denkt dat het een goede is. Later leer je iets anders over de kwestie en besef je dat de uitleg misschien onvolledig was. Erger nog, het kan zijn dat de uitleg opzettelijk is vervormd om u een verkeerde indruk van een bepaalde situatie te geven. Kortom, een verklaring kan worden gebruikt om opzettelijk onwaarheden te creëren. 

Daarom is het krijgen van een verklaring vol problemen. We gaan er vaak van uit dat als we om uitleg vragen, en als dit aannemelijk lijkt, dit aantoont dat de zaak goed geregeld en overdreven is. Het punt is dat een verklaring kan worden verdraaid, hetzij door opzet of door toeval, en ons kan leiden tot een vals gevoel van waarachtigheid of waarachtigheid. 

Een andere invalshoek voor uitleg betreft het vragen om uitleg versus het krijgen van uitleg wanneer er niet om wordt gevraagd. Een uitlegger kan je een regelrechte uitleg geven omdat ze aannemen dat je er een wilt, terwijl u zijn tevreden om gewoon verder te gaan. Als u op dat moment de uitleg verstoort, kan de uitlegger verrast zijn.   

Waarom al dit gepraat over verklaringen? Vanwege AI.   

Het toenemende gebruik van kunstmatige intelligentie (AI) in alledaagse computersystemen brengt ons op een pad waarbij de computer keuzes maakt en wij de mensen met die beslissingen moeten leven. Als u een woningkrediet aanvraagt ​​en een op AI gebaseerd algoritme u afwijst, is de kans groot dat u alleen weet dat u de lening niet hebt gekregen. U heeft geen idee waarom u de lening werd geweigerd.   

Als u een persoon had geraadpleegd die de lening verstrekte, had u hen waarschijnlijk kunnen vragen om uit te leggen waarom u werd afgewezen.   

Merk op dat dit niet altijd het geval is, en het kan zijn dat de mens de zaak niet wil of kan uitleggen. De persoon die de lening verstrekt, haalt misschien zijn schouders op en zegt dat hij geen idee heeft waarom u werd afgewezen, of hij zou u kunnen vertellen dat het bedrijfsbeleid hem belet u een verklaring te geven. 

Ergo, ik suggereer niet dat alleen omdat een mens op de hoogte is, je noodzakelijkerwijs een verklaring krijgt. Bovendien, zoals herhaaldelijk eerder werd benadrukt, kan de verklaring nogal zwak en totaal nutteloos zijn.    

In ieder geval is er tegenwoordig een groot rumoer dat AI-systemen moeten worden geprogrammeerd om uitleg te geven voor wat ze ook ondernemen.   

Dit staat bekend als Explainable AI (XAI). 

XAI groeit snel als een gebied van grote belangstelling. Mensen die AI-systemen gebruiken, zullen waarschijnlijk verwachten en enigszins eisen dat ze een uitleg krijgen. Aangezien het aantal AI-systemen snel groeit, zal er een enorme honger zijn naar een machinaal geproduceerde uitleg over wat de AI heeft gedaan of aan het doen is.   

Het probleem is dat de AI vaak geheimzinnig is en niet gemakkelijk vatbaar voor het genereren van een verklaring.   

Neem als voorbeeld het gebruik van Machine Learning (ML) en Deep Learning (DL). Dit zijn algoritmen voor het matchen van computationele patronen die gegevens onderzoeken en wiskundige patronen proberen op te sporen. Soms zijn de innerlijke computationele aspecten complex en lenen ze zich niet om op een alledaagse, voor mensen begrijpelijke en op logica gebaseerde manier te worden uitgelegd. 

Dit betekent dat de AI niet intrinsiek is opgezet om uitleg te geven. In dat geval zijn er meestal pogingen om een ​​XAI-component toe te voegen. Deze XAI tast ofwel in de AI en probeert te achterhalen wat er heeft plaatsgevonden, of hij staat naast de AI en is voorgeprogrammeerd om uitleg te geven op basis van wat wordt verondersteld dat er is gebeurd binnen de wiskundig raadselachtige mechanismen. 

Sommigen beweren dat je de XAI zou moeten inbouwen in de kern van wat voor AI ook wordt bedacht. Dus, in plaats van op de AI na te denken over het produceren van verklaringen, zou het ontwerp van de AI vanaf het begin de neiging moeten omvatten om verklaringen te produceren.   

Temidden van al dat technologisch nadenken, zijn er de andere aspecten van wat een verklaring vormt. Als je mijn eerdere opmerkingen over hoe verklaringen werken, en de variabiliteit die afhangt van de uitlegger en de persoon die de uitleg ontvangt, opnieuw bekijkt, kun je gemakkelijk zien hoe moeilijk het kan zijn om programmatisch uitleg te geven.   

De goedkoopste manier om te gaan, is alleen het hebben van vooraf ingeblikte uitleg. Er zou een systeem van toekenning van leningen kunnen zijn opgezet met vijf verklaringen waarom een ​​lening werd geweigerd. Als u wordt afgewezen voor de lening, krijgt u een van deze vijf verklaringen te zien. Er is geen interactie. Het lijkt er niet op dat de uitleg in het bijzonder passend of geschikt voor u is. 

Dat zijn de schijntje verklaringen. 

Een meer robuuste en respectabele XAI-mogelijkheid zou bestaan ​​uit het genereren van uitleg tijdens de vlucht, in realtime, en dit op basis van de specifieke situatie. Daarnaast zou de XAI proberen vast te stellen welke smaak of stijl van uitleg geschikt zou zijn voor de persoon die de uitleg krijgt. 

  

En deze uitlegfunctie moet zorgen voor een vloeiende interactie met de persoon die de uitleg krijgt. De ontvanger moet de uitleg kunnen onderbreken, de uitlegger of XAI zover krijgen dat hij naar andere aspecten gaat of de uitleg opnieuw vormgeven op basis van wat de persoon aangeeft.   

Dat zijn natuurlijk dezelfde overwegingen waarmee menselijke uitleggers ook rekening moeten houden. Dit brengt het feit naar voren dat het doen van uitstekende XAI moeilijker is dan het lijkt. Bij wijze van spreken zult u waarschijnlijk AI binnen de XAI moeten gebruiken om te kunnen simuleren of nabootsen wat een menselijke uitlegger geacht wordt te kunnen doen (hoewel, zoals we weten, niet alle mensen bedreven zijn in uitleg geven).   

Als u schakelt, vraagt ​​u zich misschien af ​​welke gebieden of toepassingen vooral gebruik kunnen maken van XAI.   

Een van die inspanningen betreft autonome voertuigen (AV's). We zullen geleidelijk aan autonome vormen van mobiliteit krijgen, waarbij we streven naar een mantra van mobiliteit voor iedereen. Er zullen zelfrijdende auto's, zelfrijdende vrachtwagens, zelfrijdende motorfietsen, zelfrijdende duikboten, zelfrijdende drones, zelfrijdende vliegtuigen en de rest zijn.   

Je zou in eerste instantie misschien verbaasd zijn waarom AV's XAI nodig zouden kunnen hebben. We kunnen zelfrijdende auto's gebruiken om te laten zien hoe XAI een essentieel element gaat worden voor AV's.   

De vraag is deze: Op welke manier zal Explainable AI (XAI) belangrijk zijn voor de komst van AV's en zoals blijkt uit de opkomst van zelfrijdende auto's? 

Laten we duidelijk maken wat ik bedoel met zelfrijdende auto's, en dan kunnen we verder springen in de XAI AV-discussie.   

Zie de link hier voor mijn raamwerk over autonome AI-auto's: https://aitrends.com/ai-insider/framework-ai-self-driving-driverless-cars-big-picture/   

Waarom dit een moonshot-inspanning is, zie mijn uitleg hier: https://aitrends.com/ai-insider/self-driving-car-mother-ai-projects-moonshot/   

Voor meer informatie over de niveaus als een type Richter-schaal, zie mijn discussie hier: https://aitrends.com/ai-insider/richter-scale-levels-self-driving-cars/   

Zie mijn uitleg hier voor het argument over het splitsen van de niveaus: https://aitrends.com/ai-insider/reframing-ai-levels-for-self-driving-cars-bifurcation-of-autonomy/ 

Inzicht in de niveaus van zelfrijdende auto's 

Ter verduidelijking: echt zelfrijdende auto's zijn auto's waarbij de AI de auto volledig alleen bestuurt en er geen menselijke assistentie is tijdens de rijtaak.   

Deze zelfrijdende voertuigen worden beschouwd als niveau 4 en niveau 5, terwijl een auto waarvoor een menselijke bestuurder nodig is om de rij-inspanning mee te delen, meestal wordt beschouwd op niveau 2 of niveau 3. De auto's die samen de rijtaak delen, worden beschreven als semi -autonoom, en bevatten doorgaans een verscheidenheid aan geautomatiseerde add-on's die worden aangeduid als ADAS (Advanced Driver-Assistance Systems).   

Er is nog geen echte zelfrijdende auto op niveau 5, waarvan we nog niet eens weten of dit mogelijk zal zijn en hoe lang het duurt om daar te komen. 

Ondertussen proberen de inspanningen van niveau 4 geleidelijk wat grip te krijgen door zeer smalle en selectieve proeven op de openbare weg te ondergaan, hoewel er controverse is over de vraag of dit testen moet worden toegestaan ​​(we zijn allemaal proefkonijnen op leven of dood in een experiment dat plaatsvindt op onze snelwegen en zijwegen, beweren sommigen). 

Aangezien semi-autonome auto's een menselijke bestuurder nodig hebben, zal de adoptie van dat soort auto's niet veel verschillen van het besturen van conventionele voertuigen, dus er is op zich niet veel nieuws om erover te praten over dit onderwerp (maar zoals je zult zien in een oogwenk zijn de volgende punten algemeen toepasbaar).  

Voor semi-autonome auto's is het belangrijk dat het publiek wordt gewaarschuwd voor een verontrustend aspect dat de laatste tijd naar voren komt, namelijk dat ondanks de menselijke chauffeurs die video's blijven plaatsen van zichzelf die in slaap vallen achter het stuur van een auto van niveau 2 of niveau 3 , we moeten allemaal voorkomen dat we worden misleid door te geloven dat de bestuurder zijn aandacht kan afleiden van de rijtaak terwijl hij in een semi-autonome auto rijdt. 

U bent de verantwoordelijke voor de rijacties van het voertuig, ongeacht hoeveel automatisering er in een niveau 2 of niveau 3 kan worden gegooid. 

Zie mijn uitleg hier voor waarom het op afstand besturen of bedienen van zelfrijdende auto's over het algemeen wordt vermeden: https://aitrends.com/ai-insider/remote-piloting-is-a-self-driving-car-crutch/   

Om op uw hoede te zijn voor nepnieuws over zelfrijdende auto's, bekijk mijn tips hier: https://aitrends.com/ai-insider/ai-fake-news-about-self-driving-cars/ 

De ethische implicaties van AI-aandrijfsystemen zijn aanzienlijk, zie mijn indicatie hier: https://aitrends.com/selfdrivingcars/ethically-ambiguous-self-driving-cars/ 

Wees je bewust van de valkuilen van normalisatie van deviantie als het gaat om zelfrijdende auto's, hier is mijn oproep tot bewapening: https://aitrends.com/ai-insider/normalization-of-deviance-endangers-ai-self-driving-cars/ 

Zelfrijdende auto's en XAI   

Voor echte zelfrijdende voertuigen van niveau 4 en niveau 5 zal er geen menselijke bestuurder bij de rijtaak betrokken zijn. Alle inzittenden zijn passagiers​ thij AI doet het rijden. 

Een aspect dat meteen moet worden besproken, is het feit dat de AI die betrokken is bij de huidige AI-rijsystemen niet bewust is. Met andere woorden, de AI is helemaal een collectief van computergebaseerde programmering en algoritmen, en zeer zeker niet in staat om op dezelfde manier te redeneren als mensen.   

Waarom deze extra nadruk op het feit dat de AI niet bewust is? 

Omdat ik wil onderstrepen dat ik bij het bespreken van de rol van het AI-rijsysteem geen menselijke kwaliteiten aan de AI toeschrijf. Houd er rekening mee dat er tegenwoordig een voortdurende en gevaarlijke tendens is om AI te antropomorfiseren. In wezen kennen mensen een menselijk gevoel toe aan de huidige AI, ondanks het onmiskenbare en onbetwistbare feit dat een dergelijke AI nog niet bestaat.   

Nu we het podium op de juiste manier hebben gelegd, is het tijd om een ​​duik te nemen in de talloze aspecten die komen spelen over dit onderwerp over XAI.   

Houd er allereerst rekening mee dat veel van de bestaande proefversies van zelfrijdende auto's weinig of geen schijn van XAI in zich hebben. De aanvankelijke overtuiging was dat mensen in een zelfrijdende auto zouden stappen, hun bestemming zouden opgeven en in stilte naar die plaats zouden worden gebracht. Er zou geen interactie met het AI-rijsysteem nodig zijn. Er zou geen uitleg of XAI-mogelijkheid nodig zijn.   

We kunnen die veronderstelling opnieuw bekijken door na te denken over wat er gebeurt als je ritten deelt en een menselijke bestuurder achter het stuur hebt.   

Er zijn zeker gevallen waarin u in een Uber- of Lyft-voertuig stapt en er gedurende de hele reis steenachtige stilte heerst. Waarschijnlijk heb je de bestemming al opgegeven via de ride-request-app. De persoon die aan het rijden is, is bezig met het rijden en gaat ogenschijnlijk naar die bestemming. Geen behoefte om te chatten. U kunt videogames spelen op uw smartphone en doen alsof er geen andere mens in de auto zit.   

Dat is prima in orde.   

Maar stel je voor dat de chauffeur tijdens de rit plotseling besluit een route te volgen die je onverwacht of ongebruikelijk vindt. U kunt de chauffeur vragen waarom er een verandering is in het verder normale pad naar de bestemming. Ze zouden hopelijk om uitleg vragen van de menselijke chauffeur. 

IHet kan zijn dat de menselijke bestuurder je geen uitleg geeft of een flinterdunne uitleg geeft. Mensen doen dat. In theorie zal een goed uitgevoerde XAI een on-target verklaring bieden, hoewel dit een uitdaging kan zijn. Misschien vertelt de menselijke chauffeur dat er bouwwerkzaamheden plaatsvinden op de snelweg, en om langdurige vertraging te voorkomen, wordt er een alternatieve koers ondernomen. 

Misschien bent u tevreden met die uitleg. Aan de andere kant woon je misschien in de buurt en ben je benieuwd naar de aard van de bouw. U vraagt ​​de chauffeur dus om meer details over de constructie. In zekere zin ben je in interactie met een uitlegger en op zoek naar aanvullende nuances of facetten over de uitleg die werd gegeven. 

Oké, zet je zelfrijdende auto-denk-pet op en bedenk wat een passagier zou willen van een XAI. Een zelfrijdende auto brengt u naar uw huis. Het normale pad dat zou worden gebruikt, wordt onverwachts omgeleid van het AI-aandrijfsysteem. Waarschijnlijk wilt u de AI vragen waarom de autorit afwijkt van uw verwachte verplaatsing. Veel van de bestaande tests van zelfrijdende auto's zouden geen directe manier hebben om de AI deze kwestie te laten uitleggen, en in plaats daarvan zou je contact moeten opnemen met een externe agent van de wagenparkbeheerder die toezicht houdt op de zelfrijdende auto's. 

In wezen wordt de zaak, in plaats van de XAI te bouwen, overgebracht naar een persoon op afstand om uit te leggen wat er aan de hand is. Dit is iets dat niet bijzonder schaalbaar zal zijn. Met andere woorden, als er eenmaal honderdduizenden zelfrijdende auto's op onze wegen zijn, zal het idee dat de rijders altijd contact moeten opnemen met een externe agent voor de eenvoudigste vragen enorme arbeidskosten en een logistieke nachtmerrie zijn.   

Er zou een frontlinie XAI moeten zijn die bestaat met het AI-aandrijfsysteem.   

Stel dat een Natural Language Processing (NLP) -interface is gekoppeld aan het AI-stuursysteem, vergelijkbaar met Alexa of Siri. De passagier communiceert met de NLP en kan algemene acties bespreken, zoals vragen om de bestemming midstream te wijzigen, of vragen om door een drive-in van een fastfoodrestaurant te slingeren, enzovoort.   

Daarnaast kan de passagier om uitleg vragen.   

Stel dat het AI-aandrijfsysteem plotseling op de rem moet trappen. De berijder in de zelfrijdende auto had misschien een bijzonder fascinerende kattenvideo bekeken en was zich niet bewust van de omstandigheden op de rijbaan. Nadat de passagier door de harde remactie is rondgestuiterd, zou hij angstig kunnen vragen waarom het AI-aandrijfsysteem zo'n plotselinge en schurende rijactie heeft uitgevoerd. 

Je zou willen dat de AI direct zo'n verklaring geeft. Als de enige mogelijke manier om een ​​verklaring te krijgen het zoeken naar een externe agent is, stel je dan voor hoe dat zou kunnen zijn. Daar zit je dan, in de zelfrijdende auto, en hij heeft zojuist radicale maatregelen genomen, maar je hebt geen idee waarom hij dat deed. U moet op een knop drukken of op de een of andere manier een oproep naar een externe agent activeren. Dit kan even duren.   

Zodra de externe agent beschikbaar is (ervan uitgaande dat er een direct beschikbaar is), kunnen ze de dialoog beginnen met een gebruikelijke standaardtoespraak, zoals welkom bij de grootste van alle zelfrijdende auto's. Je hebt ondertussen gezeten in deze zelfrijdende auto, die nog steeds vrolijk aan het rijden is, en toch heb je geen idee waarom hij uit het niets op de rem trapte. 

Het punt hier is dat tegen de tijd dat u een gesprek aangaat met de menselijke afstandsbediening, er veel tijd en rijaspecten hadden kunnen voorkomen. Tijdens die vertraging ben je verbaasd, bezorgd en bezorgd over wat het AI-aandrijfsysteem vervolgens gek zou kunnen doen.   

Als er een XAI was geweest, had je misschien de XAI kunnen vragen wat er net is gebeurd. De XAI zou meteen kunnen uitleggen dat er een hond op het trottoir was die naar de zelfrijdende auto rende en binnen een zeer korte afstand leek te komen. Het AI-aandrijfsysteem koos ervoor om snel te remmen. De hond kreeg het idee en rende veilig weg.   

Een tijdige uitleg, en een die de passagier troost en opluchting geeft, waardoor ze weer in hun stoel kunnen gaan zitten en meer van die video's over dartele kittens en schattige puppy's kunnen bekijken.   

Zie mijn indicatie op deze link hier voor meer informatie over ODD's: https://www.aitrends.com/ai-insider/amalgamating-of-operational-design-domains-odds-for-ai-self-driving-cars/ 

Wat betreft off-road zelfrijdende auto's, hier zijn mijn details: https://www.aitrends.com/ai-insider/off-roading-as-a-challenging-use-case-for-ai-autonomous-cars/ 

Ik heb erop aangedrongen dat er een Chief Safety Officer moet zijn bij zelfrijdende autofabrikanten, hier is de primeur: https://www.aitrends.com/ai-insider/chief-safety-officers-needed-in-ai-the-case-of-ai-self-driving-cars/ 

Verwacht dat rechtszaken geleidelijk een belangrijk onderdeel gaan worden van de zelfrijdende auto-industrie, zie mijn verklarende details hier: https://aitrends.com/selfdrivingcars/self-driving-car-lawsuits-bonanza-ahead/   

Conclusie   

Er zijn heel veel situaties die zich kunnen voordoen tijdens het rijden in een auto en waarvoor je misschien een uitleg zou willen hebben. De auto wordt plotseling tot stilstand gebracht. De auto maakt vrij sterk een bocht. De auto bocht een aangrenzende rijstrook in zonder een comfortabele foutmarge. De auto rijdt over een weg die je niet had verwacht. Er zijn schijnbaar eindeloze mogelijkheden.   

In dat geval, als XAI inderdaad bijzonder handig is voor zelfrijdende auto's, vraagt ​​u zich misschien af ​​waarom het niet al helemaal op zijn plaats is.   

Toegegeven, voor die AI-ontwikkelaars die onder grote druk staan ​​om AI te bedenken die een auto van punt A naar punt B kan besturen, op een veilige manier, staat het aspect van het geven van door de machine gegenereerde uitleg vrij laag op hun prioriteitenlijst. Ze zouden vurig beweren dat het een zogenaamde rand- of hoekgeval is. Het kan worden bereikt wanneer de zonneschijn van het bereiken van voldoende zelfrijdende auto's is bereikt. 

Mensen die in allerlei soorten AV rijden, zullen uitleg willen hebben. Een kosteneffectieve en onmiddellijk beschikbare manier om uitleg te geven, houdt in dat XAI wordt geïmplementeerd in de AI-systemen die de autonome pilot uitvoeren.   

Men veronderstelt dat als u zich in een zelfrijdende auto bevindt en die dringend een acrobatische rijmanoeuvre uitvoert, u misschien aarzelt om te vragen wat er aan de hand is, op dezelfde manier, dat u zich zorgen zou kunnen maken dat u een menselijke bestuurder zou afleiden. dat deed iets wilds achter het stuur.   

Vermoedelijk zal een goed ontworpen XAI het AI-rijsysteem niet belasten, en dus ben je vrij om een ​​langdurige dialoog aan te gaan met de XAI. In feite is de meest waarschijnlijke vraag die zelfrijdende auto's zullen krijgen, hoe werkt het AI-rijsysteem. De XAI zou voorbereid moeten zijn om met dat soort vragen om te gaan. 

Het enige dat we waarschijnlijk niet mogen verwachten dat XAI afhandelt, zijn de vragen die niet bij het autorijden horen. Bijvoorbeeld, de XAI vragen om de zin van het leven uit te leggen, is iets dat zou kunnen worden betoogd als out-of-bounds en boven het loonniveau van de AI.   

Tenminste tot de dag dat AI bewust wordt, dan kun je zeker wegvragen. 

Copyright 2021 Dr.Lance Eliot  http://ai-selfdriving-cars.libsyn.com/website 

Coinsmart. Beste Bitcoin-Börse in Europa
Bron: https://www.aitrends.com/ai-insider/the-rocky-road-toward-explainable-ai-xai-for-ai-autonomous-cars/

AI

Uitgaven voor digitale identiteitsverificatie stijgen tegen 2026

gepubliceerd

on

Het bedrag dat bedrijven besteden aan processen voor digitale identiteitsverificatie zal naar verwachting de komende vijf jaar bijna verdubbelen, zo blijkt uit gegevens van Juniper Research.

De processen, waaronder selfie-scans, adrescontroles en op kennis gebaseerde authenticatie, zullen in 9.4 $ 2021 miljard aan uitgaven genereren, maar groeien tot $ 16.7 miljard in 2026. COVID-19 is een belangrijke reden voor de stijging, aangezien meer bedrijven gedwongen werden om digitaal aan boord te gaan gebruikers in sociaal afstandelijke tijden. Zoals veel online gedrag, heeft de pandemie reeds bestaande trends meer versneld dan nieuwe gecreëerd.

Het zakelijke klimaat is op het punt waar naadloze digitale onboarding nu op het spel staat. Dat kan een uitdaging zijn voor bedrijven die snel gedwongen worden om digitaler te worden. Ze worden geconfronteerd met de noodzaak om een ​​wrijvingsarme en toch zeer veilige ervaring te bieden die complexe processen als kunstmatige intelligentie en gedragsanalyses omvat.

In 2026 zullen de bank- en financiële dienstverlening goed zijn voor meer dan 60 procent van de uitgaven voor digitale identiteitsverificatie.

"Alleen digitale banken hebben aangetoond dat volledig digitale KYC kan werken en zeer aantrekkelijk is voor de gebruiker, daarom staat de druk op traditionele banken om nieuwe identiteitsverificatiediensten in te zetten”, aldus co-auteur Vladimir Surovkin. "Het snel beheren van deze overgang en het verkrijgen van de juiste balans tussen gebruikersgemak en beveiliging, zal het algehele succes bepalen."

Het aantal uitgevoerde individuele identiteitscontroles zal naar verwachting meer dan verdubbelen van 45 miljard in 2021 tot 92 miljard in 2026. Naast financiële diensten zijn mobiele netwerkexploitatie en online gokken twee andere rijpe gebieden, stelt het rapport.

Coinsmart. Beste Bitcoin-Börse in Europa
Bron: https://www.crowdfundinsider.com/2021/06/177023-digital-identity-verification-spends-to-surge-by-2026/

Verder lezen

Artificial Intelligence

Nvidia's Canvas AI-tekengereedschap verandert onmiddellijk blobs in realistische landschappen

gepubliceerd

on

AI vult al jaren de hiaten voor illustratoren en fotografen op - letterlijk, het vult op intelligente wijze hiaten op met visuele inhoud. Maar de nieuwste tools zijn erop gericht om een ​​AI kunstenaars een handje te laten helpen vanaf de vroegste, lege canvas-stadia van een stuk. Nvidia's nieuwe Canvas-tool laat de maker ruw in een landschap zoals blobs schilderen op nummer, en vult het vervolgens in met overtuigend fotorealistische (zo niet helemaal galerijklare) inhoud.

Elke afzonderlijke kleur vertegenwoordigt een ander type kenmerk: bergen, water, gras, ruïnes, enz. Wanneer kleuren op het canvas worden gedruppeld, wordt de ruwe schets doorgegeven aan een generatief netwerk van tegenstanders. GAN's geven in wezen inhoud door tussen een maker-AI die (in dit geval) een realistisch beeld probeert te maken en een detector-AI die evalueert hoe realistisch dat beeld is. Deze werken samen om wat zij denken een redelijk realistische weergave te geven van wat is gesuggereerd.

Het is zo'n beetje een gebruiksvriendelijkere versie van het prototype GauGAN (snap je?) getoond op CVPR in 2019. Deze is veel vloeiender aan de randen, produceert betere beelden en kan op elke Windows-computer met een degelijke Nvidia grafische kaart draaien.

Deze methode is gebruikt om zeer realistische gezichten, dieren en landschappen te creëren, hoewel er meestal een soort "vertellen" is die een mens kan zien. Maar de Canvas-app probeert niet iets te maken dat niet van de werkelijkheid te onderscheiden is - zoals conceptkunstenaar Jama Jurabaev in de onderstaande video uitlegt, gaat het meer om het vrij kunnen experimenteren met beelden die gedetailleerder zijn dan een doodle.

Als je bijvoorbeeld een vermolmde ruïne wilt hebben in een veld met een rivier aan één kant, kan een snelle potloodschets je maar zoveel vertellen over hoe het uiteindelijke stuk eruit zou kunnen zien. Wat als je het in je hoofd hebt, en dan twee uur schilderen en kleuren later realiseer je je dat omdat de zon aan de linkerkant van het schilderij ondergaat, het de schaduwen op de voorgrond ongemakkelijk maakt?

Als je deze functies in plaats daarvan gewoon in Canvas hebt gekrabbeld, zie je misschien meteen dat dit het geval was en ga je verder met het volgende idee. Er zijn zelfs manieren om snel de tijd van de dag, het palet en andere parameters op hoog niveau te wijzigen, zodat ze snel als opties kunnen worden geëvalueerd.

Animatie van een kunstenaar die schetst terwijl een AI zijn streken interpreteert als fotorealistische kenmerken.

Afbeelding Credits: Nvidia

"Ik ben niet meer bang voor blanco canvas", zei Jurabaev. "Ik ben niet bang om hele grote veranderingen aan te brengen, omdat ik weet dat er altijd AI is die me helpt met details... Ik kan al mijn energie steken in de creatieve kant van de dingen, en ik laat Canvas de rest doen."

Het lijkt erg op Chimera Painter van Google, als je je die specifieke nachtmerriebrandstof herinnert, waarin een bijna identiek proces werd gebruikt om fantastische dieren te creëren. In plaats van sneeuw, rotsen en struiken had het een achterpoot, vacht, tanden enzovoort, wat het nogal ingewikkelder maakte om te gebruiken en gemakkelijk om fout te gaan.

Afbeelding Credits: Devin Coldewey / Google

Toch is het misschien beter dan het alternatief, want zeker een amateur als ik zou zelfs nooit de rare buisachtige dieren kunnen tekenen die het resultaat waren van basisblob-painting.

In tegenstelling tot de Chimera Creator wordt deze app echter lokaal uitgevoerd en vereist een stevige Nvidia-videokaart om dit te doen. GPU's zijn lange tijd de favoriete hardware geweest voor machine learning-toepassingen, en zoiets als een realtime GAN heeft absoluut een stevige nodig. Je kunt de app hier gratis downloaden.

Coinsmart. Beste Bitcoin-Börse in Europa
Bron: https://techcrunch.com/2021/06/23/nvidias-canvas-ai-painting-tool-instantly-turns-blobs-into-realistic-landscapes/

Verder lezen

AI

Luister: hoe machine learning valse positieven in AML vermindert

gepubliceerd

on

Het op kunstmatige intelligentie gebaseerde beveiligingsbedrijf Hawk AI heeft vandaag aangekondigd dat het $ 10 miljoen heeft opgehaald in serie A-financiering. Het in München gevestigde bedrijf is een platform voor de bestrijding van witwassen en terrorismefinanciering (AML/CFT) dat in de cloud draait. Het zal de fondsen gebruiken “voor de internationale expansie van [zijn] activiteiten in Duitsland, Europa en de VS, evenals […]

Coinsmart. Beste Bitcoin-Börse in Europa
Bron: https://bankautomationnews.com/allposts/secur-risk/listen-how-machine-learning-reduces-false-positives-in-aml/

Verder lezen

AI

Fundbox, een financieel platform voor kleine bedrijven, benoemt Hilliard Terry tot lid van de raad van bestuur

gepubliceerd

on

Fundbox, het financiële platform voor kleine bedrijven, maakte dinsdag (22 juni 2021) bekend dat ze een Hilliard Terry aan hun raad van bestuur.

Zoals vermeld in een nota die met CI is gedeeld, is de heer Terry een ervaren uitvoerend leider, bestuurslid en adviseur van door private equity gesteunde portefeuillebedrijven.

De aankondiging vermeldde ook dat de heer Terry momenteel in de raad van bestuur van Umpqua Holdings Corporation (NASDAQ: UMPQ), een financiële dienstverlener.

Terry is ook lid van de raad van bestuur van Upstart Holdings, Inc. (NASDAQ: UPST), een door AI aangedreven platform voor consumentenleningen, en in het bestuur van TLG Acquisitie One Corporation (NYSE: TLGA-UN), een overnamebedrijf voor speciale doeleinden of SPAC.

Prashant Fuloria, CEO van Fondsendoos, vermeld:

“Hilliard is een ervaren CFO van een beursgenoteerd bedrijf en een ervaren bestuurslid met een indrukwekkende staat van dienst op het snijvlak van technologie, financiën en bankieren. We zijn verheugd om te profiteren van zijn operationele en bestuurservaring in deze tijd van kansen en groei na COVID.

Onlangs trad Terry op als adviseur voor particuliere bedrijven en eerder als EVP en CFO van Textainer (NYSE: TGH). Voordat hij bij Textainer werkte, was de heer Terry VP en Treasurer bij Agilent Technologies (NYSE: A), en werkte hij ook als Head of Investor Relations tijdens hun IPO en "volgende spin-off van Hewlett-Packard".

De update vermeldde ook dat Terry, voordat hij bij Agilent kwam, in marketing en investor relations werkte voor HP's VeriFone-dochteronderneming. Tijdens zijn uitgebreide carrière heeft hij ook sleutelposities bekleed in investor relations en investment banking bij Kenetech Corporation und Goldman Sachs & Co., Respectievelijk.

Terry is een "gekwalificeerde financiële expert met operationele ervaring en diepgaande kennis van boekhouding, treasury, investor relations, financiële planning en analyse, risicobeheer en bedrijfsontwikkeling", aldus de aankondiging.

Terry merkte op:

“Via hun AI-aangedreven platform biedt Fundbox toegang tot krediet voor een veel bredere gemeenschap van kleine bedrijven, een sector die in het verleden onvoldoende werd bediend. Dit is van cruciaal belang en fundamenteel anders dan alles wat ooit eerder is gedaan. Er ligt een enorme marktkans in het verschiet en ik kijk ernaar uit om mijn mouwen op te stropen en me te verdiepen in gebieden als governance en compliance, die in dit stadium cruciale investeringsgebieden zijn voor een bedrijf.”

Het bedrijf zal naar verwachting een aanzienlijke groei doormaken naarmate de MKB-economie zich begint te herstellen en zich uitbreidt na COVID. Onderzoek heeft uitgewezen dat inwoners van de VS vorig jaar tal van bedrijven hebben gelanceerd. Er was een stijging van bijna 25% ten opzichte van het jaar ervoor in nieuwe Amerikaanse bedrijven, en "de eerste keer in de geschiedenis dat nieuwe bedrijven zijn toegenomen tijdens een recessie."

Fundbox biedt toegang tot financiële tools waarmee het MKB bedrijfskritische bedrijfskosten kan dekken. De AI-technologie van het Fintech-bedrijf "stelde het bedrijf in staat om snel te schalen door middel van automatisering en tegelijkertijd de toegang tot kapitaal te vergroten door superieure voorspellingen en kredietbeslissingen."

Het proces van Fundbox is "volledig geautomatiseerd en 99% van hun beslissingen worden genomen zonder menselijke tussenkomst."

Coinsmart. Beste Bitcoin-Börse in Europa
Bron: https://www.crowdfundinsider.com/2021/06/177005-fundbox-a-financial-platform-for-small-businesses-appoints-hilliard-terry-to-its-board-of-directors/

Verder lezen
eSports4 dagen geleden

Selecteer Smart Genshin Impact: hoe u de persoonlijkheidsquiz kunt laten werken

eSports1 dagen geleden

Dungeons & Dragons: Dark Alliance Stemacteurs: wie spreekt Utaar uit?

Blockchain4 dagen geleden

Bitmain heeft nieuwe mijnbouwmachines uitgebracht voor DOGE en LTC

Blockchain2 dagen geleden

Is Margex een oplichterij?

eSports3 dagen geleden

Genshin Impact Grand Line Conch-locaties

eSports5 dagen geleden

TFT Reckoning 11.13 patch preview belicht Nidalee, Kayle en Trundle herwerk

Energie3 dagen geleden

Inna Braverman, oprichter en CEO van Eco Wave Power zal spreken op het Qatar Economic Forum 2021, mogelijk gemaakt door Bloomberg

eSports5 dagen geleden

Alle personages, vaardigheden en vaardigheden in Naraka: Bladepoint

Blockchain2 dagen geleden

Technische analyse van Yearn Finance (YFI) en Synthetix (SNX): wat te verwachten?

eSports1 dagen geleden

Valorant Patch 3.00 Agent Tier-lijst

Blockchain5 dagen geleden

Mede-oprichter van Coinbase praat over DeFi, NFT's en cryptoregulering

Blockchain5 dagen geleden

Uniswap bereikt bearish uitputting terwijl verkopers dreigen te shorten

eSports4 dagen geleden

Chivalry 2 Crossplay werkt niet: is er een oplossing?

AI2 dagen geleden

Nieuw modulair SaaS-platform voor de financiële dienstverleningssector gelanceerd door Ezbob, een technologieleverancier voor klantacquisitie

Luchtvaart3 dagen geleden

SAS was de eerste luchtvaartmaatschappij die een poolroute exploiteerde

HRTech22 uur geleden

TCS-vleermuizen voor satellietkantoren, meer vrouwen in het personeelsbestand

eSports1 dagen geleden

Is Dungeons and Dragons: Dark Alliance Crossplay?

Blockchain2 dagen geleden

Cardano, Chainlink, Filecoin Prijsanalyse: 21 juni

Blockchain5 dagen geleden

Ethereum's London Hard fork is eindelijk klaar om testnetten te raken

Cyber ​​Security5 dagen geleden

Kwetsbaarheden in de SDK van tekeningen gemaakt door ODA Impact Siemens en andere leveranciers

Trending