Zephyrnet-logo

MIT's AI-agenten zijn pioniers op het gebied van interpreteerbaarheid in AI-onderzoek

Datum:

In een baanbrekende ontwikkeling hebben onderzoekers van het Computer Science and Artificial Intelligence Laboratory (CSAIL) van MIT een nieuwe methode geïntroduceerd die gebruik maakt van kunstmatige intelligentie (AI) agenten om de verklaring van ingewikkelde neurale netwerken te automatiseren. Naarmate de omvang en verfijning van neurale netwerken blijven groeien, is het verklaren van hun gedrag een uitdagende puzzel geworden. Het MIT-team wil dit mysterie ontrafelen door AI-modellen te gebruiken om met andere systemen te experimenteren en hun innerlijke werking te verwoorden.

MIT's AI-agenten zijn pioniers op het gebied van interpreteerbaarheid in AI-onderzoek

De uitdaging van de interpreteerbaarheid van neurale netwerken

Het gedrag van getrainde mensen begrijpen neurale netwerken vormt een aanzienlijke uitdaging, vooral met de toenemende complexiteit van moderne modellen. MIT-onderzoekers hebben een unieke aanpak gekozen om deze uitdaging aan te pakken. Ze zullen AI-agenten introduceren die experimenten kunnen uitvoeren op diverse computersystemen, variërend van individuele neuronen tot hele modellen.

Agenten gebouwd op basis van vooraf getrainde taalmodellen

De kern van de methodologie van het MIT-team bestaat uit agenten die zijn opgebouwd uit vooraf getrainde taalmodellen. Deze agenten spelen een cruciale rol bij het produceren van intuïtieve uitleg van berekeningen binnen getrainde netwerken. In tegenstelling tot passieve interpreteerbaarheidsprocedures die alleen maar voorbeelden classificeren of samenvatten, houden de door MIT ontwikkelde Artificial Intelligence Agents (AIA's) zich actief bezig met het vormen van hypothesen, experimenteel testen en iteratief leren. Deze dynamische deelname stelt hen in staat hun begrip van andere systemen in realtime te verfijnen.

Autonome hypothesegeneratie en testen

Sarah Schwettmann, Ph.D. ’21, co-hoofdauteur van het artikel over dit baanbrekende werk en wetenschappelijk onderzoeker bij CSAIL, benadrukt de autonomie van AIA’s bij het genereren en testen van hypothesen. Het vermogen van de AIA’s om autonoom andere systemen te onderzoeken, kan gedrag aan het licht brengen dat anders aan detectie door wetenschappers zou kunnen ontsnappen. Schwettmann benadrukt de opmerkelijke mogelijkheden van taalmodellen. Bovendien zijn ze uitgerust met hulpmiddelen voor het onderzoeken, ontwerpen en uitvoeren van experimenten die de interpreteerbaarheid vergroten.

FIND: Interpreteerbaarheid vergemakkelijken door middel van nieuw ontwerp

MIT's AI-agenten zijn pioniers op het gebied van interpreteerbaarheid in AI-onderzoek

De FIND-aanpak (Facilitating Interpretability through Novel Design) van het MIT-team introduceert interpreteerbaarheidsmiddelen die in staat zijn tests op computersystemen te plannen en uit te voeren. Deze agenten produceren verklaringen in verschillende vormen. Dit omvat taalbeschrijvingen van de functies en tekortkomingen van een systeem en code die het gedrag van het systeem reproduceert. FIND vertegenwoordigt een verschuiving van traditionele interpretatiemethoden, waarbij actief wordt deelgenomen aan het begrijpen van complexe systemen.

Realtime leren en experimenteel ontwerp

Het dynamische karakter van FIND maakt real-time leren en experimenteel ontwerp mogelijk. De AIA's verfijnen actief hun begrip van andere systemen door middel van voortdurende hypothesetests en experimenten. Deze aanpak verbetert de interpreteerbaarheid en brengt gedragingen aan het licht die anders misschien onopgemerkt zouden blijven.

Ons zeggen

De MIT-onderzoekers zien de cruciale rol van de FIND-aanpak in het onderzoek naar interpreteerbaarheid. Het is vergelijkbaar met hoe schone benchmarks met antwoorden op de grond van de waarheid de vooruitgang in taalmodellen hebben gestimuleerd. Het vermogen van AIA's om autonoom hypothesen te genereren en experimenten uit te voeren, belooft een nieuw niveau van begrip te brengen in de complexe wereld van neurale netwerken. De FIND-methode van MIT stimuleert de zoektocht naar AI-interpreteerbaarheid, onthult het gedrag van neurale netwerken en bevordert het AI-onderzoek aanzienlijk.

spot_img

Laatste intelligentie

spot_img