Zephyrnet-logo

Verklaarbare AI voor gesprekken uitleggen

Datum:

 

Binnen slechts twee tot drie decennia heeft kunstmatige intelligentie (AI) de bladzijden van sciencefictionromans verlaten en is het een van de hoeksteentechnologieën van de moderne samenleving geworden. Succes op het gebied van machinaal leren (ML) heeft geleid tot een stortvloed aan nieuwe AI-toepassingen die bijna te talrijk zijn om te tellen, van autonome machines en biometrie tot voorspellende analyses en chatbots.   

Een van de opkomende toepassingen van AI de afgelopen jaren is conversational intelligence (CI). Terwijl geautomatiseerde chatbots en virtuele assistenten zich bezighouden met de interactie tussen mens en computer, wil CI de interactie tussen mens en mens gedetailleerder onderzoeken. Het potentieel om gegevens uit menselijke gesprekken te monitoren en te extraheren, inclusief toon, sentiment en context, heeft schijnbaar onbeperkte mogelijkheden.  

Gegevens van callcenterinteracties kunnen bijvoorbeeld worden gegenereerd en geregistreerd, waarbij alles, van sprekersratio en klanttevredenheid tot gesprekssamenvattingen en actiepunten, automatisch wordt opgeslagen. Dit zou de bureaucratie die gepaard gaat met de afhandeling van callcenters drastisch verminderen en agenten meer tijd geven om met klanten te praten. Bovendien kunnen de gegenereerde gegevens zelfs worden gebruikt om trainingsprogramma's voor het personeel vorm te geven en zelfs uitmuntend werk te erkennen en te belonen.   

Maar er ontbreekt iets: vertrouwen. Het op deze manier inzetten van AI is ongelooflijk nuttig, maar vergt op dit moment nog een sprong in het diepe van de bedrijven die er gebruik van maken.   

Als bedrijven, en als samenleving als geheel, stellen we veel vertrouwen in op AI gebaseerde systemen. Sociale mediabedrijven zoals Twitter maken nu gebruik van Op AI gebaseerde algoritmen om haatzaaiende uitlatingen aan te pakken en gebruikers online veilig te houden. Zorgaanbieders over de hele wereld maken steeds meer gebruik van AI, van chatbots die patiënten kunnen beoordelen tot algoritmen die pathologen kunnen helpen met nauwkeurigere diagnoses. De Britse regering heeft onlangs een AI-tool geïmplementeerd die bekend staat als “Connect” om belastinggegevens te helpen analyseren en frauduleuze activiteiten op te sporen. Er zijn zelfs voorbeelden van AI die wordt gebruikt om de resultaten van wetshandhaving te verbeteren, waarbij gebruik wordt gemaakt van hulpmiddelen als gezichtsherkenning, toezicht op mensenmassa's en loopanalyse om verdachten te identificeren.   

Wij maken deze sprong in het diepe in ruil voor een efficiëntere, verbonden en naadloze wereld. Die wereld is gebouwd op ‘big data’, en we hebben AI nodig om ons te helpen de stroom van die gegevens te beheren en goed te gebruiken. Dat geldt zowel in macro-economische zin als voor individuele bedrijven. Maar ondanks onze toenemende afhankelijkheid van AI als technologie, weten we heel weinig over wat er onder de motorkap gebeurt. Naarmate het datavolume toeneemt en de paden die AI bewandelt om tot een besluit te komen uitgebreider worden, zijn wij als mensen het vermogen kwijtgeraakt om die paden te begrijpen en te volgen. Wat we overhouden is een “zwarte doos” die vrijwel onmogelijk te interpreteren is.   

Het roept de vraag op; Hoe kunnen we op AI gebaseerde beslissingen vertrouwen als we het niet kunnen begrijpen? hoe Worden die beslissingen genomen? Het is een toenemende bron van frustratie voor bedrijven die er zeker van willen zijn dat hun systemen correct werken, aan de juiste wettelijke normen voldoen of dat ze met maximale efficiëntie werken. Denk eens aan het rekruteringsteam bij Amazon, dat wel moest schrappen hun geheime AI-rekruteringstool nadat ze zich realiseerden dat het blijk gaf van vooroordelen jegens vrouwen. Ze dachten dat ze de ‘heilige graal’ van rekrutering in handen hadden: een tool die honderden cv’s kon scannen en er de beste uit kon kiezen ter beoordeling, waardoor ze talloze uren werk konden besparen. Door herhaling en versterking slaagde de AI erin zichzelf ervan te overtuigen dat mannelijke kandidaten op de een of andere manier de voorkeur hadden boven vrouwelijke kandidaten. Als het team blindelings op de AI had vertrouwd – wat ze gedurende een zeer korte periode hadden gedaan – zouden de gevolgen voor het bedrijf verwoestend zijn geweest.   

Als het gaat om zakelijke frustratie en de angst om te veel vertrouwen in AI te stellen, is het opkomende veld van CI een ideaal voorbeeld.   

De wereld van menselijke interactie is al jaren een bijenkorf van AI-innovatie. Het is één ding om natuurlijke taalverwerking (NLP) te gebruiken om chatbots te maken of spraak-naar-tekst te transcriberen, maar het is iets heel anders om betekenis en begrip uit gesprekken te halen. Dat is wat conversatie-intelligentie (CI) doet. Het gaat verder dan deterministische ‘A naar B’-resultaten en heeft tot doel minder tastbare aspecten van gesprekken zoals toon, sentiment en betekenis te analyseren.   

Als CI bijvoorbeeld in een callcenter wordt gebruikt, kan het worden gebruikt om de effectiviteit van de gespreksbehandelaar en de emotionele toestand van de klant te bepalen, of om een ​​automatisch gespreksoverzicht met actiepunten te geven. Dit zijn verfijnde en subjectieve interacties die niet noodzakelijkerwijs goede of verkeerde interpretaties hebben. Als een callcenter CI gaat gebruiken om interacties te stroomlijnen, agenten op te leiden en klantgegevens bij te werken, moet het erop kunnen vertrouwen dat de onderliggende AI zijn werk effectief doet. Dat is waar verklaarbare AI of “XAI” in het spel komt.   

Elk bedrijf is anders en heeft een andere definitie van wat het systeem zou moeten leren en voorspellen met behulp van hun conversatie-informatiestapel. En het is essentieel dat de oplossing een compleet beeld geeft van de voorspellingen van de menselijke actoren die het systeem gebruiken, zodat zij de voorspellingen van het systeem voortdurend kunnen goedkeuren of afkeuren. In plaats van een black-boxed deep learning-gebaseerd systeem te gebruiken om taken uit te voeren, is een gemodulariseerd systeem met volledige transparantie en controle over elk aspect van de voorspellingen van het systeem van cruciaal belang. Een deterministisch programmeerbaar systeem kan bijvoorbeeld worden gebruikt om afzonderlijke systemen te gebruiken voor het volgen van het sentiment van een oproep, het vinden van onderwerpen, het genereren van samenvattingen, het detecteren van specifieke aspecten zoals het type probleem in een ondersteuningsoproep of verzoeken in feedbackgesprekken van klanten, enz. van een enkelvoudig diepgaand leersysteem dat al deze dingen doet. Door een dergelijke modulaire architectuur te creëren, is de algehele oplossing voor conversatie-intelligentie traceerbaar en deterministisch gebouwd. 

Toen AI-processen eenvoudig en deterministisch waren, was vertrouwen in die processen nooit een probleem. Nu die processen complexer en minder transparant zijn geworden, zoals in het voorbeeld van CI hierboven, is vertrouwen essentieel geworden voor bedrijven die in AI willen investeren. In zijn nog steeds relevante decennium oud papierMariarosaria Taddeo noemde dit ‘e-trust’ – hoe mensen vertrouwen in computergebaseerde processen, en de mate waarin we toestaan ​​dat kunstmatige agenten bij die relatie worden betrokken.   

Verklaarbare AI (XAI) is een opkomend veld in machinaal leren dat tot doel heeft deze kunstmatige agenten volledig transparant en gemakkelijker te interpreteren te maken. De Defence Advanced Research Projects Agency (DARPA) in de VS is een van de toonaangevende organisaties die XAI-oplossingen nastreeft. DARPA stelt dat het potentieel van AI-systemen ernstig wordt belemmerd door het onvermogen om de acties ervan uit te leggen aan menselijke gebruikers. Met andere woorden: een gebrek aan vertrouwen bij organisaties weerhoudt hen ervan het volledige spectrum van wat AI en ML te bieden hebben te verkennen.   

Het doel is om een ​​reeks machine learning-technieken te creëren die verklaarbare modellen kunnen produceren waarmee menselijke gebruikers de volgende generatie kunstmatig intelligente oplossingen kunnen begrijpen en beheren. Deze ML-systemen zullen in staat zijn hun grondgedachte uit te leggen, hun eigen sterke en zwakke punten te herkennen, en over te brengen hoe ze zullen “leren” van de gegevens die ze ontvangen. Voor DARPA maakt het deel uit van een streven naar wat zij de derde generatie AI-systemen noemen, waarbij machines de context en de omgeving waarin ze opereren zullen begrijpen.   

Om het potentieel van AI volledig te kunnen verwezenlijken, moeten we afstappen van de enen en nullen en meer subjectieve analyses introduceren. De technologie is er, we hebben alleen meer redenen nodig om erop te vertrouwen. 
 
 
Surbhi Rathore is de CEO en mede-oprichter van Symbl.ai. Symbl brengt haar visie voor een programmeerbaar platform tot leven dat ontwikkelaars en bedrijven in staat stelt stem- en videogesprekken op schaal in hun producten en workflows te monitoren, te handelen en na te leven zonder hun interne datawetenschapsexpertise op te bouwen.
 

spot_img

Laatste intelligentie

spot_img