Zephyrnet-logo

Als een kind kan deze door het brein geïnspireerde AI de redenering ervan verklaren

Datum:

Kinderen zijn natuurwetenschappers. Ze observeren de wereld, vormen hypothesen en testen deze. Uiteindelijk leren ze hun (soms vertederend hilarische) redenering uit te leggen.

AI, niet zo veel. Het lijdt geen twijfel dat deep learning – een vorm van machinaal leren die losjes gebaseerd is op de hersenen – de technologie dramatisch verandert. Van het voorspellen van extreme weerpatronen tot het ontwerpen van nieuwe medicijnen of het diagnosticeren van dodelijke vormen van kanker: AI wordt steeds vaker geïntegreerd in de grenzen van de wetenschap.

Maar deep learning heeft een enorm nadeel: de algoritmen kunnen hun antwoorden niet rechtvaardigen. Deze ondoorzichtigheid, vaak het ‘black box’-probleem genoemd, belemmert het gebruik ervan in risicovolle situaties, zoals in de geneeskunde. Patiënten willen uitleg wanneer de diagnose van een levensveranderende ziekte wordt gesteld. Voorlopig kunnen op deep learning gebaseerde algoritmen – ook al hebben ze een hoge diagnostische nauwkeurigheid – die informatie niet verschaffen.

Om de zwarte doos te openen, heeft een team van het Southwestern Medical Center van de Universiteit van Texas de menselijke geest gebruikt voor inspiratie. In Een studie in Natuur Computational Sciencecombineerden ze principes uit de studie van hersennetwerken met een meer traditionele AI-aanpak die berust op verklaarbare bouwstenen.

De resulterende AI gedraagt ​​zich een beetje als een kind. Het condenseert verschillende soorten informatie in ‘hubs’. Elke hub wordt vervolgens getranscribeerd in coderingsrichtlijnen die mensen kunnen lezen: CliffsNotes voor programmeurs, waarin de conclusies van het algoritme over de patronen die het in de gegevens heeft gevonden, in eenvoudig Engels worden uitgelegd. Het kan ook volledig uitvoerbare programmeercode genereren om uit te proberen.

De AI, ook wel ‘diep distilleren’ genoemd, werkt als een wetenschapper wanneer hij wordt uitgedaagd met een verscheidenheid aan taken, zoals moeilijke wiskundige problemen en beeldherkenning. Door de gegevens te doorzoeken, distilleert de AI deze in stapsgewijze algoritmen die beter kunnen presteren dan door mensen ontworpen algoritmen.

“Diep distilleren kan generaliseerbare principes ontdekken die complementair zijn aan menselijke expertise,” schreef het team in hun krant.

Flinterdun

AI blundert soms in de echte wereld. Neem robotaxis. Vorig jaar kwamen sommigen herhaaldelijk vast te zitten in een wijk in San Francisco – vervelend voor de lokale bevolking, maar ze moesten er nog steeds om grinniken. Erger nog: zelfrijdende voertuigen blokkeerden het verkeer en ambulances en veroorzaakten in één geval vreselijke schade aan een voetganger.

Ook in de gezondheidszorg en wetenschappelijk onderzoek kunnen de gevaren groot zijn.

Als het gaat om deze domeinen met een hoog risico, vereisen algoritmen “een lage tolerantie voor fouten”, zegt dr. Joseph Bakarji van de Amerikaanse Universiteit van Beiroet, die niet bij het onderzoek betrokken was. schreef in een begeleidend stuk over het werk.

De barrière voor de meeste deep learning-algoritmen is hun onverklaarbaarheid. Ze zijn gestructureerd als meerlaagse netwerken. Door tonnen ruwe informatie op te nemen en talloze feedbackrondes te ontvangen, past het netwerk zijn verbindingen aan om uiteindelijk nauwkeurige antwoorden te produceren.

Dit proces vormt de kern van deep learning. Maar het heeft moeite als er niet genoeg gegevens zijn of als de taak te complex is.

In 2021, het team een AI ontwikkeld dat een andere aanpak vergde. Het neurale netwerk, dat ‘symbolisch’ redeneren wordt genoemd, codeert expliciete regels en ervaringen door de gegevens te observeren.

Vergeleken met deep learning zijn symbolische modellen gemakkelijker voor mensen om te interpreteren. Beschouw de AI als een set Lego-blokken, die elk een object of concept vertegenwoordigen. Ze kunnen op creatieve manieren bij elkaar passen, maar de verbindingen volgen een duidelijke reeks regels.

Op zichzelf is de AI krachtig maar broos. Het is sterk afhankelijk van eerdere kennis om bouwstenen te vinden. Wanneer hij zonder voorafgaande ervaring met een nieuwe situatie wordt geconfronteerd, kan hij niet out-of-the-box denken – en breekt hij.

Hier komt de neurowetenschappen om de hoek kijken. Het team werd geïnspireerd door connectomen, modellen die laten zien hoe verschillende hersengebieden samenwerken. Door deze connectiviteit te combineren met symbolisch redeneren, hebben ze een AI gemaakt die een solide, verklaarbare basis heeft, maar die zich ook flexibel kan aanpassen wanneer hij met nieuwe problemen wordt geconfronteerd.

In verschillende tests versloeg het ‘neurocognitieve’ model andere diepe neurale netwerken bij taken waarvoor redenering vereist was.

Maar kan het data begrijpen en algoritmen ontwikkelen om dit uit te leggen?

Een menselijke aanraking

Een van de moeilijkste onderdelen van wetenschappelijke ontdekkingen is het observeren van luidruchtige gegevens en het distilleren van een conclusie. Dit proces leidt tot nieuwe materialen en medicijnen, een dieper begrip van de biologie en inzichten over onze fysieke wereld. Vaak is het een zich herhalend proces dat jaren in beslag neemt.

AI kan de zaken misschien versnellen en mogelijk patronen vinden die aan de menselijke geest zijn ontsnapt. Deep learning is bijvoorbeeld vooral nuttig geweest bij het voorspellen van eiwitstructuren, maar de redenering voor het voorspellen van die structuren is lastig te begrijpen.

“Kunnen we leeralgoritmen ontwerpen die observaties in eenvoudige, alomvattende regels destilleren, zoals mensen dat doorgaans doen?” schreef Bakarji.

De nieuwe studie nam het bestaande neurocognitieve model van het team en gaf het een extra talent: het vermogen om code te schrijven.

De AI, genaamd deep distilling, groepeert vergelijkbare concepten, waarbij elk kunstneuron een specifiek concept codeert en de verbinding ervan met anderen. Eén neuron kan bijvoorbeeld het concept van een kat leren kennen en weten dat deze anders is dan een hond. Een ander type gaat om met de variabiliteit wanneer hij wordt uitgedaagd met een nieuwe afbeelding (bijvoorbeeld een tijger) om te bepalen of deze meer op een kat of op een hond lijkt.

Deze kunstmatige neuronen worden vervolgens in een hiërarchie gestapeld. Met elke laag differentieert het systeem steeds meer concepten en vindt uiteindelijk een oplossing.

In plaats van de AI zoveel mogelijk gegevens te laten verwerken, verloopt de training stap voor stap, bijna alsof je lesgeeft aan een peuter. Dit maakt het mogelijk om de redenering van de AI te evalueren terwijl deze geleidelijk nieuwe problemen oplost.

Vergeleken met standaard neurale netwerktraining is het vanzelfsprekende aspect ingebouwd in de AI, legt Bakarji uit.

In een test daagde het team de AI uit met een klassieke videogame: Conway's Game of Life. Het spel werd voor het eerst ontwikkeld in de jaren zeventig en gaat over het laten groeien van een digitale cel in verschillende patronen, op basis van een specifieke reeks regels (probeer het zelf hier). Getraind op basis van gesimuleerde gameplay-gegevens, was de AI in staat potentiële uitkomsten te voorspellen en zijn redenering om te zetten in voor mensen leesbare richtlijnen of computerprogrammeercode.

De AI werkte ook goed in een verscheidenheid aan andere taken, zoals het detecteren van lijnen in afbeeldingen en het oplossen van moeilijke wiskundige problemen. In sommige gevallen genereerde het creatieve computercode die beter presteerde dan gevestigde methoden – en kon verklaren waarom.

Diep distilleren zou een impuls kunnen zijn voor de natuur- en biologische wetenschappen, waar eenvoudige onderdelen aanleiding geven tot uiterst complexe systemen. Een mogelijke toepassing van de methode is als co-wetenschapper voor onderzoekers die DNA-functies decoderen. Een groot deel van ons DNA bestaat uit 'donkere materie', in de zin dat we niet weten welke rol het speelt. Een verklaarbare AI zou mogelijk genetische sequenties kunnen kraken en genetici kunnen helpen zeldzame mutaties te identificeren die verwoestende erfelijke ziekten veroorzaken.

Buiten het onderzoek is het team enthousiast over het vooruitzicht van een sterkere samenwerking tussen AI en mens.

"Neurosymbolische benaderingen zou mogelijk meer mensachtige machine learning-mogelijkheden mogelijk kunnen maken”, schreef het team.

Bakarji is het daarmee eens. De nieuwe studie gaat “verder dan de technische vooruitgang en raakt aan de ethische en maatschappelijke uitdagingen waarmee we vandaag de dag worden geconfronteerd.” Uitlegbaarheid zou kunnen werken als een vangrail, waardoor AI-systemen kunnen synchroniseren met menselijke waarden terwijl ze worden getraind. Voor toepassingen met een hoog risico, zoals de medische zorg, kan dit vertrouwen opbouwen.

Voorlopig werkt het algoritme het beste bij het oplossen van problemen die in concepten kunnen worden opgesplitst. Het kan niet omgaan met continue gegevens, zoals videostreams.

Dat is de volgende stap in diep distilleren, schreef Bakarji. Het “zou nieuwe mogelijkheden openen op het gebied van wetenschappelijk computergebruik en theoretisch onderzoek.”

Krediet van het beeld: 7AV 7AV / Unsplash 

spot_img

Laatste intelligentie

spot_img