Zephyrnet-logo

Verklaarbare AI-principes: wat moet u weten over XAI

Datum:

beeld

ITRex Hacker Noon profielfoto

@itrexITRex

Opkomende technische ontwikkeling en advies: kunstmatige intelligentie. Geavanceerde analyse. Machine leren. Big data. Wolk

Een gevangene in een gevangenis in New York, Glenn Rodriguez, zou binnenkort vervroegd vrijgelaten worden. De man heeft zijn beste gedrag vertoond en verheugde zich erop om vrijgelaten te worden en een nieuw leven te beginnen. Tot Glenns afgrijzen werd hem voorwaardelijke vrijlating geweigerd. 

Een AI-algoritme dat het reclasseringsbord gebruikte, gaf deze gevangene een slechte score, en omdat het niet verklaarbaar was, wist niemand dat er iets vreselijk mis ging. De heer Rodriguez vocht tegen zijn zaak en werd uiteindelijk vrijgelaten na weer een onnodig jaar in de gevangenis te hebben doorgebracht. Helaas kan dit soort fouten optreden wanneer AI wordt ingezet. Als we de redenering achter de beslissingen van algoritmen niet zien, kunnen we het probleem niet herkennen. 

U kunt dit probleem in uw organisatie voorkomen door de verklaarbare AI-principes te volgen terwijl: het ontwikkelen van uw kunstmatige-intelligentieoplossing. Dus, wat is verklaarbare kunstmatige intelligentie (XAI)? Hoe bepaal je het juiste niveau van uitlegbaarheid voor jouw sector? En welke uitdagingen je onderweg kunt verwachten?

Wat is verklaarbare AI en waarom zou het je iets kunnen schelen?

Wanneer we het hebben over AI, denken veel mensen aan black-box-algoritmen die miljoenen invoergegevenspunten nodig hebben, hun magie bewerken en onverklaarbare resultaten opleveren die gebruikers geacht worden te vertrouwen. Dit soort model wordt rechtstreeks op basis van gegevens gemaakt en zelfs de ingenieurs kunnen de uitkomst ervan niet verklaren. 

Black-box-modellen, zoals neurale netwerken, beschikken over superieure vaardigheden als het gaat om uitdagende voorspellingstaken. Ze produceren resultaten van opmerkelijke nauwkeurigheid, maar niemand kan begrijpen hoe algoritmen tot hun voorspellingen zijn gekomen. 

Gebruikers kunnen daarentegen de grondgedachte achter hun beslissingen begrijpen met verklaarbare AI in de witte doos, waardoor het steeds populairder wordt in zakelijke omgevingen. Deze modellen zijn technisch niet zo indrukwekkend als black-box-algoritmen. Toch is hun transparantie een afweging omdat het een hoger niveau van betrouwbaarheid biedt en de voorkeur heeft in sterk gereguleerde industrieën.

Wat is verklaarbare AI?

Explainable AI (XAI) verwijst naar een reeks technieken, ontwerpprincipes en processen die ontwikkelaars/organisaties helpen een laag transparantie aan AI-algoritmen toe te voegen, zodat ze hun voorspellingen kunnen rechtvaardigen. XAI kan AI-modellen, hun verwachte impact en mogelijke vooroordelen beschrijven. Menselijke experts kunnen de resulterende voorspellingen begrijpen en vertrouwen opbouwen in de resultaten met deze technologie. Als je het over verklaarbaarheid hebt, komt het er allemaal op neer wat je wilt uitleggen. 

Er zijn twee mogelijkheden: 

  1. De stamboom van het AI-model uitleggen: hoe het model is getraind, welke gegevens zijn gebruikt, welke soorten vooroordelen mogelijk zijn en hoe deze kunnen worden verminderd. 
  2. Het globale model uitleggen: dit wordt ook wel ‘model interpreteerbaarheid’ genoemd.

Er zijn twee benaderingen van deze techniek: 

  • Proxymodellering: een begrijpelijker model, zoals een beslisboom, wordt gebruikt als benadering van een omslachtiger AI-model. Ook al geeft deze techniek een eenvoudig overzicht van wat u kunt verwachten, het blijft een benadering en kan afwijken van de werkelijke resultaten. 
  • Ontwerp voor interpreteerbaarheid: AI-modellen ontwerpen op een manier die eenvoudig, gemakkelijk uit te leggen gedrag afdwingt. Deze techniek kan resulteren in minder krachtige modellen omdat het een aantal gecompliceerde tools uit de toolkit van de ontwikkelaar elimineert.
beeld

bron

Verklaarbare AI-principes

Het Amerikaanse National Institute of Standards and Technology (NIST) ontwikkelde vier verklaarbare AI-principes:

  • Het systeem moet in staat zijn om de output te verklaren en (minimaal) ondersteunend bewijs te leveren. Er zijn verschillende soorten uitleg: 
    ○ Verklaringen die de eindgebruiker ten goede komen 
    ○ Uitleg die bedoeld zijn om vertrouwen in het systeem te krijgen 
    ○ Verklaringen waarvan wordt verwacht dat ze aan de wettelijke vereisten voldoen 
    ○ Uitleg die kunnen helpen bij de ontwikkeling en het onderhoud van algoritmen 
    ○ Verklaringen die de eigenaar van het model ten goede komen, zoals engine voor filmaanbevelingen
  • De gegeven uitleg moet zinvol zijn, zodat gebruikers hun taken kunnen uitvoeren. Als er een reeks gebruikers is met verschillende vaardigheden, moet het systeem verschillende uitleg geven voor de beschikbare gebruikersgroepen
  • Deze uitleg moet duidelijk en nauwkeurig zijn, wat verschilt van uitvoernauwkeurigheid
  • Het systeem moet binnen de vastgestelde kennisgrenzen werken om een ​​redelijk resultaat te garanderen

Verklaarbaar AI-voorbeeld

XAI kan een gedetailleerde verklaring op modelniveau geven waarom een ​​bepaalde beslissing is genomen. Deze uitleg wordt geleverd in een reeks begrijpelijke regels. Na een vereenvoudigd voorbeeld van een leningaanvraag hieronder, krijgen aanvragers een duidelijke rechtvaardiging wanneer ze een lening wordt geweigerd: iedereen ouder dan 40 jaar spaart minder dan $ 433 per maand en vraagt ​​een krediet aan met een terugverdientijd van meer dan 38 jaar zal een lening worden geweigerd . Hetzelfde geldt voor jongere aanvragers die minder dan $ 657 per maand besparen.

beeld
beeld

Waarom is verklaarbare AI belangrijk?

In sommige industrieën is een verklaring nodig om AI-algoritmen te accepteren. Dit kan te wijten zijn aan regelgeving en/of menselijke factoren. Denk aan de classificatie van hersentumoren. Geen enkele arts zal zich op zijn gemak voelen bij het voorbereiden van een operatie die uitsluitend is gebaseerd op "het algoritme zei het". En hoe zit het met het verstrekken van leningen? Klanten die hun aanvraag afgewezen hebben, willen graag begrijpen waarom. Ja, er zijn meer tolerante use-cases waarbij een uitleg niet essentieel is. Toepassingen voor voorspellend onderhoud zijn bijvoorbeeld geen kwestie van leven of dood, maar zelfs dan zouden werknemers meer vertrouwen hebben als ze weten waarom bepaalde apparatuur preventief moet worden gerepareerd. 

Het senior management begrijpt vaak de waarde van AI-toepassingen, maar ze hebben ook hun zorgen. Volgens Gaurav Deshpande, VP Marketing bij TigerGraph, is er altijd een "maar" in de redenering van leidinggevenden: "... maar als je niet kunt uitleggen hoe je aan het antwoord bent gekomen, kan ik het niet gebruiken. Dit komt door het risico van vooringenomenheid in het black box AI-systeem dat kan leiden tot rechtszaken en aanzienlijke aansprakelijkheid en risico's voor zowel het bedrijfsmerk als de balans." 

De ideale XAI-oplossing is de oplossing die redelijk nauwkeurig is en de resultaten ervan kan uitleggen aan praktijkmensen, leidinggevenden en eindgebruikers. Verklaarbare AI-principes opnemen in intelligente software:

  • Brengt verlichting voor systeemgebruikers. Ze begrijpen de redenering en kunnen achter de genomen beslissingen staan. Een leningfunctionaris zal bijvoorbeeld meer op zijn gemak zijn om een ​​klant te informeren dat hun leningaanvraag is afgewezen als hij kan begrijpen hoe de beslissing is genomen.
  • Zorgt voor naleving. Door de verstrekte uitleg te verifiëren, kunnen gebruikers zien of de regels van het algoritme correct zijn en in overeenstemming met de wet en ethiek.
  • Maakt systeemoptimalisatie mogelijk. Wanneer ontwerpers en ontwikkelaars de uitleg zien, kunnen ze zien wat er mis gaat en dit oplossen.
  • Elimineert vooroordelen. Wanneer gebruikers de uitleg bekijken, kunnen ze een vooringenomen oordeel opmerken, de beslissing van het systeem negeren en het algoritme corrigeren om soortgelijke scenario's in de toekomst te vermijden.
  • Stelt medewerkers in staat om te reageren op de output van het systeem. Een XAI kan bijvoorbeeld voorspellen dat een bepaalde zakelijke klant zijn softwarelicentie niet zal verlengen. De eerste reactie van de beheerder kan zijn om een ​​korting aan te bieden. Maar wat als de reden achter het vertrek een slechte klantenservice was? Het systeem zal dit in zijn uitleg vertellen.
  • Stelt mensen in staat om actie te ondernemen. XAI stelt de partijen die betrokken zijn bij bepaalde beslissingen in staat om de uitkomst aan te vechten en mogelijk te wijzigen (zoals situaties bij het verstrekken van hypotheken).

Welke industrieën hebben XAI het meest nodig?

  • Gezondheidszorg
  • Financiën
  • Automotive
  • Productie

1. Verklaarbare AI in de zorg

AI heeft veel toepassingen in de zorg. Verschillende AI-aangedreven medische oplossingen kunnen artsen tijd besparen bij repetitieve taken, waardoor ze zich primair kunnen concentreren op patiëntgerichte zorg. Bovendien zijn algoritmen goed in het diagnosticeren van verschillende gezondheidsproblemen, omdat ze kunnen worden getraind om kleine details te herkennen die aan het menselijk oog ontsnappen. Wanneer artsen de uitkomst echter niet kunnen verklaren, aarzelen ze om deze technologie te gebruiken en de aanbevelingen op te volgen. 

Een voorbeeld komt uit het Duke University Hospital. Een team van onderzoekers installeerde een machine learning-applicatie genaamd Sepsis horloge, die een waarschuwing zou sturen wanneer een patiënt het risico liep sepsis te ontwikkelen. De onderzoekers ontdekten dat artsen sceptisch stonden tegenover het algoritme en terughoudend waren om op de waarschuwingen te reageren omdat ze het niet begrepen. 

Dit gebrek aan vertrouwen wordt doorgegeven aan patiënten die aarzelen om door AI te worden onderzocht. Harvard Business Review publiceerde een onderzoek waarin deelnemers werden uitgenodigd om gratis hun stressniveau te meten. 40% van de deelnemers geregistreerd voor de test terwijl ze wisten dat een menselijke arts de evaluatie zou doen. Slechts 26% meldde zich aan toen een algoritme de diagnose uitvoerde. 

Als het gaat om diagnose en behandelingen, kunnen de genomen beslissingen levensveranderend zijn. Geen wonder dat artsen wanhopig op zoek zijn naar transparantie. Gelukkig wordt dit met verklaarbare AI realiteit. Keith Collins, CIO van SAS, zei bijvoorbeeld dat zijn bedrijf al een dergelijke technologie ontwikkelt. Dit is wat hij zei: "We werken momenteel aan een geval waarin artsen AI-analyse gebruiken om kankerachtige laesies nauwkeuriger te detecteren. De technologie fungeert als de 'virtuele assistent' van de arts en legt uit hoe elke variabele in een MRI-beeld bijvoorbeeld bijdraagt ​​aan de technologie die verdachte gebieden als waarschijnlijk voor kanker identificeert en andere verdachte gebieden niet."

2. XAI in financiën

Financiën is een andere sterk gereguleerde sector waar beslissingen moeten worden uitgelegd. Het is van vitaal belang dat AI-gestuurde oplossingen controleerbaar zijn; anders zullen ze moeite hebben om de markt te betreden. 

AI kan onder meer helpen bij het toekennen van kredietscores, het beoordelen van verzekeringsclaims en het optimaliseren van beleggingsportefeuilles. Als de algoritmen echter vooringenomen resultaten opleveren, kan dit leiden tot reputatieverlies en zelfs rechtszaken. 

Niet lang geleden, Apple haalde de krantenkoppen met zijn Apple Card-product, dat inherent bevooroordeeld was tegen vrouwen, waardoor hun kredietlimieten werden verlaagd. Mede-oprichter van Apple, Steve Wozniak, bevestigde deze bewering. Hij herinnerde zich dat ze samen met zijn vrouw geen aparte bankrekeningen of aparte activa hebben, en toch was zijn toegestane limiet bij het aanvragen van een Apple Card tien keer hoger dan die van zijn vrouw. Als gevolg van deze ongelukkige gebeurtenis werd het bedrijf onderzocht door het New York State Department of Financial Services. 

Met verklaarbare AI kan men dergelijke schandalige situaties vermijden door de output te rechtvaardigen. Het verstrekken van leningen is bijvoorbeeld een use case die kan profiteren van XAI. Het systeem zou zijn definitieve aanbeveling kunnen rechtvaardigen en klanten een gedetailleerde uitleg kunnen geven als hun leningaanvraag wordt afgewezen. Hierdoor kunnen gebruikers hun kredietprofiel verbeteren en later opnieuw aanvragen.

3. Verklaarbare AI in de auto-industrie

Autonome voertuigen werken met enorme hoeveelheden gegevens, waarvoor AI nodig is om alles te analyseren en te begrijpen. De beslissingen van het systeem moeten echter transparant zijn voor chauffeurs, technologen, autoriteiten en verzekeringsmaatschappijen in geval van incidenten. 

Het is ook van cruciaal belang om te begrijpen hoe voertuigen zich zullen gedragen in geval van nood. Hier is hoe Paul Appleby, voormalig CEO van een datamanagementsoftwarebedrijf Kinetica, zijn bezorgdheid uitte: “Als een zelfrijdende auto zich in een positie bevindt waarin een ongeval onvermijdelijk is, welke maatregelen moet hij dan nemen? Prioriteit geven aan de bescherming van de bestuurder en voetgangers in groot gevaar brengen? Voetgangers vermijden en de veiligheid van de passagiers in gevaar brengen?” 

Dit zijn moeilijke vragen om te beantwoorden, en mensen zouden het oneens zijn over hoe met dergelijke situaties om te gaan. Maar het is belangrijk om richtlijnen op te stellen die het algoritme in dergelijke gevallen kan volgen. Dit zal passagiers helpen beslissen of ze comfortabel reizen in een auto die is ontworpen om bepaalde beslissingen te nemen. Bovendien zal de verstrekte uitleg na een incident ontwikkelaars helpen het algoritme in de toekomst te verbeteren.

4. Verklaarbare kunstmatige intelligentie in productie

AI heeft veel toepassingen in de productie, waaronder voorspellend onderhoud, voorraadbeheer en logistieke optimalisatie. Met zijn analytische capaciteiten kan deze technologie bijdragen aan de 'stamkennis' van menselijke werknemers. Maar het is gemakkelijker om beslissingen te nemen als je de logica erachter begrijpt. 

Heena Purohit, Senior Product Manager voor IBM Watson IoT, legt uit hoe hun op AI gebaseerde onderhoudsproduct verklaarbare AI benadert. Het systeem biedt menselijke medewerkers verschillende mogelijkheden om een ​​apparaat te repareren. Elke optie bevat een procentueel betrouwbaarheidsinterval. Zo kan de gebruiker bij het maken van een keuze toch zijn “stamkennis” en expertise raadplegen. Ook kan elke aanbeveling de output van de kennisgrafiek projecteren samen met de input die in de trainingsfase wordt gebruikt.

Uitdagingen op weg naar verklaarbare AI

De noodzaak om concessies te doen aan de voorspellende kracht 

Black box-algoritmen, zoals neurale netwerken, hebben een hoog voorspellend vermogen, maar bieden geen rechtvaardiging voor de uitvoer. Als gevolg hiervan moeten gebruikers blindelings op het systeem vertrouwen, wat in bepaalde omstandigheden een uitdaging kan zijn. White box AI biedt de broodnodige verklaarbaarheid, maar de algoritmen moeten eenvoudig blijven en de voorspellende kracht in gevaar brengen. 

Bijvoorbeeld AI heeft toepassingen in de radiologie waar algoritmen opmerkelijke resultaten opleveren bij het classificeren van hersentumoren en het sneller opsporen van borstkanker dan mensen. Wanneer artsen echter beslissen over de behandeling van patiënten, kan dit een situatie van leven en dood zijn en willen ze begrijpen waarom het algoritme tot deze diagnose kwam. Het kan voor artsen ontmoedigend zijn om te vertrouwen op iets dat ze niet begrijpen.

Het begrip verklaarbaarheid 

Er is geen universele definitie van verklaarbaarheid. Het is vaak een subjectief begrip. Gebruikers verwachten misschien het ene type uitleg, terwijl ontwikkelaars bereid zijn om iets anders te geven. Ook hebben verschillende doelgroepen een rechtvaardiging op maat nodig, wat ertoe leidt dat één XAI-systeem dezelfde output op verschillende manieren moet uitleggen.

Problemen met betrekking tot beveiliging en robuustheid 

Als klanten met XAI toegang krijgen tot het besluitvormingsproces van het algoritme, kunnen ze vijandig gedrag toepassen, wat inhoudt dat ze opzettelijke acties ondernemen om hun gedrag te veranderen om de output te beïnvloeden. Een studies publiceerde een zorg dat iemand met technische vaardigheden delen van de dataset die wordt gebruikt voor algoritmetraining kan herstellen na het zien van de uitleg, en daarmee de privacyregelgeving schendt.

Hoe aan de slag met verantwoorde en verklaarbare AI

Wanneer uw bedrijf zich voorbereidt om verantwoorde XAI-oplossingen in te zetten, moet u eerst bepalen wat u precies moet uitleggen en aan wie.

Enkele van de vragen die tijdens de planningsfase aan de orde komen, kunnen zijn:

  • Is het een bepaalde beslissing of het algemene model?
  • Wie is je publiek? Zijn het technische gebruikers?
  • Moet je voor elke output een andere uitleg geven of volstaat één uitleg voor alle betrokkenen?

Vervolgens moet uw bedrijf beslissen over de mate van uitlegbaarheid. Niet alle op AI gebaseerde tools vereisen dezelfde mate van interpreteerbaarheid. PwC identificeert zes componenten voor toepassingskritiek die u zullen helpen bij het bepalen van uw gewenste XAI-niveau:

  • Beslissingsimpact: welke gevolgen heeft het besluit voor alle betrokken partijen? Dit beperkt zich niet tot omzetgerelateerde aspecten. Een onjuiste kankerdiagnose zal bijvoorbeeld een grote impact hebben, terwijl het aanbevelen van een irrelevante film geen groot probleem zal zijn.
  • Controleniveau: is het een autonoom AI-systeem dat beslissingen neemt en ernaar handelt, of beveelt de output van het systeem acties aan aan mensen die kunnen kiezen of ze volgen of niet?
  • Risico's: alle mogelijke schade die de algoritmen kunnen veroorzaken, zoals gevolgen voor de bedrijfsvoering, verkoop, werknemers, ethische, juridische, milieu- of gezondheidsgerelateerde overwegingen.
  • Regelgeving: het wettelijk kader van de branche en of de besluiten toegelicht dienen te worden.
  • Reputatie: hoe het systeem omgaat met belanghebbenden — binnen het bedrijf en met de samenleving in het algemeen.
  • Striktheid: als de toepassing nauwkeurig is en in staat is haar conclusies te generaliseren naar ongeziene gegevens.

Tot slot, zelfs nadat verklaarbare kunstmatige intelligentie aanwezig is, is het het beste om actie te ondernemen om ervoor te zorgen dat uw gegevensgebruik ethisch is. Voer tijdige audits van uw algoritmen uit. Een sterke verklaarbaarheidsfunctie kan eventuele vooroordelen die in uw software sluipen onthullen. Als u echter kiest voor een oplossing met beperkte verklaarbaarheid, kan vooringenomenheid onopgemerkt blijven. U kunt zich ook abonneren op de Partnerschap op AI-consortium. Of ontwikkel zelfs uw eigen set ethische principes voor gegevensgebruik, zoals Microsoft deed. Ze omvatten eerlijkheid, betrouwbaarheid en veiligheid, privacy en beveiliging, inclusiviteit, transparantie en aansprakelijkheid.

Tot slot…

Traditioneel implementeren AI zit vol uitdagingen, laat staan ​​de verklaarbare en verantwoorde versie ervan. Ondanks de obstakels zal het verlichting brengen voor uw medewerkers, die meer gemotiveerd zullen zijn om gevolg te geven aan de aanbevelingen van het systeem als ze de grondgedachte erachter begrijpen. Bovendien helpt XAI u te voldoen aan de regelgeving en ethische overwegingen van uw branche.

by ITRex @itrex. Opkomende technische ontwikkeling en advies: kunstmatige intelligentie. Geavanceerde analyse. Machine leren. Big data. WolkBreng ons uw uitdaging!

Ook te zien in

Loading ...

Tags

Doe mee met Hacker Noon

Maak uw gratis account aan om uw persoonlijke leeservaring te ontgrendelen.

PlatoAi. Web3 opnieuw uitgevonden. Gegevensintelligentie versterkt.
Klik hier om toegang te krijgen.

Bron: https://hackernoon.com/explainable-ai-principles-what-should-you-know-about-xai-u83h32y0?source=rss

spot_img

Laatste intelligentie

spot_img