Zephyrnet-logotyp

Som ett barn kan denna hjärninspirerade AI förklara sitt resonemang

Datum:

Barn är naturvetare. De observerar världen, bildar hypoteser och testar dem. Så småningom lär de sig att förklara sina (ibland förtjusande lustiga) resonemang.

AI, inte så mycket. Det råder ingen tvekan om att djupinlärning – en typ av maskininlärning löst baserad på hjärnan – förändrar teknologin dramatiskt. Från att förutsäga extrema vädermönster till att designa nya mediciner eller diagnostisera dödliga cancerformer, integreras AI alltmer i vetenskapens gränser.

Men djupinlärning har en enorm nackdel: Algoritmerna kan inte motivera sina svar. Ofta kallad "svarta lådan"-problemet hindrar denna opacitet deras användning i högrisksituationer, såsom inom medicin. Patienter vill ha en förklaring när de får diagnosen en livsavgörande sjukdom. För närvarande kan algoritmer baserade på djupinlärning – även om de har hög diagnostisk noggrannhet – inte tillhandahålla den informationen.

För att öppna den svarta lådan, knackade ett team från University of Texas Southwestern Medical Center det mänskliga sinnet för inspiration. I en studie in Naturberäkningsvetenskap, kombinerade de principer från studiet av hjärnnätverk med en mer traditionell AI-metod som bygger på förklarliga byggstenar.

Den resulterande AI:n fungerar lite som ett barn. Det kondenserar olika typer av information till "hubbar". Varje nav transkriberas sedan till kodningsriktlinjer för människor att läsa – CliffsNotes för programmerare som förklarar algoritmens slutsatser om mönster den hittade i data på vanlig engelska. Den kan också generera helt körbar programmeringskod för att testa.

AI, kallad "djup destillering", fungerar som en vetenskapsman när den utmanas med en mängd olika uppgifter, som svåra matematiska problem och bildigenkänning. Genom att rota igenom data destillerar AI den till steg-för-steg-algoritmer som kan överträffa mänskligt designade.

"Djupdestillering kan upptäcka generaliserbara principer som kompletterar mänsklig expertis," skrev laget i sin tidning.

Papperstunn

AI gör ibland misstag i den verkliga världen. Ta robotaxel. Förra året fastnade några upprepade gånger i en stadsdel i San Francisco - en olägenhet för lokalbefolkningen, men fick ändå ett skratt. Allvarligare, självkörande fordon blockerade trafik och ambulanser och skadade i ett fall en fotgängare fruktansvärt.

Inom sjukvård och vetenskaplig forskning kan farorna också vara stora.

När det gäller dessa högriskdomäner kräver algoritmer en låg tolerans för fel, säger doktor Joseph Bakarji från American University of Beirut, som inte var involverad i studien, skrev i ett följeslag om verket.

Barriären för de flesta algoritmer för djupinlärning är deras oförklarlighet. De är strukturerade som nätverk i flera lager. Genom att ta in massor av rå information och ta emot otaliga rundor av feedback, justerar nätverket sina anslutningar för att så småningom ge korrekta svar.

Denna process är kärnan i djupt lärande. Men det kämpar när det inte finns tillräckligt med data eller om uppgiften är för komplex.

Tillbaka 2021, laget utvecklat en AI som tog ett annat tillvägagångssätt. Kallas "symboliskt" resonemang, det neurala nätverket kodar explicita regler och upplevelser genom att observera data.

Jämfört med djupinlärning är symboliska modeller lättare för människor att tolka. Tänk på AI som en uppsättning legoklossar, som var och en representerar ett objekt eller koncept. De kan passa ihop på kreativa sätt, men kopplingarna följer ett tydligt regelverk.

I sig är AI kraftfull men skör. Den förlitar sig mycket på tidigare kunskap för att hitta byggstenar. När den utmanas med en ny situation utan tidigare erfarenhet kan den inte tänka utanför lådan – och den går sönder.

Det är här neurovetenskap kommer in. Teamet inspirerades av connectomes, som är modeller för hur olika hjärnregioner samverkar. Genom att kombinera denna anslutning med symboliska resonemang skapade de en AI som har solida, förklarliga grunder, men som också flexibelt kan anpassa sig när de ställs inför nya problem.

I flera tester slog den "neurokognitiva" modellen andra djupa neurala nätverk i uppgifter som krävde resonemang.

Men kan det vara meningsfullt med data och ingenjörsalgoritmer för att förklara det?

En mänsklig beröring

En av de svåraste delarna av vetenskaplig upptäckt är att observera bullriga data och destillera en slutsats. Denna process är vad som leder till nya material och mediciner, djupare förståelse för biologi och insikter om vår fysiska värld. Ofta är det en repetitiv process som tar år.

AI kanske kan påskynda saker och potentiellt hitta mönster som har undgått det mänskliga sinnet. Till exempel har djupinlärning varit särskilt användbar vid förutsägelse av proteinstrukturer, men dess resonemang för att förutsäga dessa strukturer är svåra att förstå.

"Kan vi designa inlärningsalgoritmer som destillerar observationer till enkla, omfattande regler som människor vanligtvis gör?" skrev Bakarji.

Den nya studien tog teamets befintliga neurokognitiva modell och gav den en ytterligare talang: Förmågan att skriva kod.

Kallas djup destillation, AI grupperar liknande koncept tillsammans, där varje artificiell neuron kodar för ett specifikt koncept och dess koppling till andra. Till exempel kan en neuron lära sig begreppet en katt och veta att den är annorlunda än en hund. En annan typ hanterar variation när den utmanas med en ny bild - säg en tiger - för att avgöra om den är mer som en katt eller en hund.

Dessa artificiella neuroner staplas sedan i en hierarki. Med varje lager differentierar systemet allt mer koncept och hittar så småningom en lösning.

Istället för att AI ska knäcka så mycket data som möjligt, är träningen steg-för-steg - nästan som att lära ett litet barn. Detta gör det möjligt att utvärdera AI:s resonemang då den gradvis löser nya problem.

Jämfört med standardträning för neurala nätverk är den självförklarande aspekten inbyggd i AI:n, förklarade Bakarji.

I ett test utmanade teamet AI:n med ett klassiskt videospel - Conways Game of Life. Spelet utvecklades först på 1970-talet och handlar om att odla en digital cell till olika mönster givet en specifik uppsättning regler (prova själv här.). Utbildad på simulerade speldata kunde AI förutsäga potentiella resultat och omvandla dess resonemang till mänskliga läsbara riktlinjer eller datorprogrammeringskod.

AI:n fungerade också bra i en mängd andra uppgifter, som att upptäcka linjer i bilder och lösa svåra matematiska problem. I vissa fall genererade den kreativ datorkod som överträffade etablerade metoder – och kunde förklara varför.

Djupdestillering kan vara ett lyft för fysikaliska och biologiska vetenskaper, där enkla delar ger upphov till extremt komplexa system. En potentiell tillämpning för metoden är som medforskare för forskare som avkodar DNA-funktioner. Mycket av vårt DNA är "mörk materia", eftersom vi inte vet vilken – om någon – roll det har. En förklarlig AI kan potentiellt krossa genetiska sekvenser och hjälpa genetiker att identifiera sällsynta mutationer som orsakar förödande ärftliga sjukdomar.

Utanför forskning är teamet glada över utsikterna till ett starkare AI-mänskligt samarbete.

"Neurosymboliska tillvägagångssätt skulle potentiellt kunna tillåta mer människoliknande maskininlärningsfunktioner”, skrev teamet.

Bakarji håller med. Den nya studien går "bortom tekniska framsteg och berör etiska och samhälleliga utmaningar som vi står inför idag." Förklarlighet skulle kunna fungera som ett skyddsräcke och hjälpa AI-system att synkroniseras med mänskliga värderingar när de tränas. För högriskapplikationer, som sjukvård, kan det bygga upp förtroende.

För närvarande fungerar algoritmen bäst när man löser problem som kan brytas ner i begrepp. Den kan inte hantera kontinuerliga data, till exempel videoströmmar.

Det är nästa steg i djupdestillering, skrev Bakarji. Det "skulle öppna nya möjligheter inom vetenskaplig beräkning och teoretisk forskning."

Image Credit: 7AV 7AV / Unsplash 

plats_img

Senaste intelligens

plats_img