Zephyrnet-logo

Senatoren bekritiseren Meta voor het vrijgeven van LLaMA na symbolische tests

Datum:

Amerikaanse senatoren Richard Blumenthal (D-CT) en Josh Hawley (R-MO) hebben Meta-CEO Mark Zuckerberg gevraagd om AI-veiligheidsproblemen aan te pakken nadat het grote taalsysteem LLaMA online was gelekt zodat iedereen het kon downloaden en gebruiken.

In februari kwam de socialmediagigant gelanceerd LLaMA, een verzameling modellen die tekst kunnen genereren. De krachtigste van Meta's modellen hadden 65 miljard parameters en presteerden naar verluidt beter dan GPT-3, en waren vergelijkbaar met DeepMind's Chinchilla en Google's PaLM-modellen, ondanks dat ze kleiner waren.

Meta heeft het model vrijgegeven onder een open-source, niet-commerciële licentie voor onderzoeksdoeleinden, en zou academici van geval tot geval toegang verlenen. Maar de code was kort gelekt online met instructies voor het downloaden op GitHub en 4chan. 

Nu hebben senatoren Blumenthal en Hawley het bedrijf bekritiseerd vanwege de "ogenschijnlijk minimale" bescherming om te voorkomen dat onverlaten het model misbruiken, en waarschuwden ze dat ze het zouden kunnen gebruiken om cybercriminaliteit te plegen. Het duo zei dat LLaMA minder terughoudend lijkt te zijn en meer giftige en schadelijke inhoud genereert dan andere grote taalmodellen.

"De open verspreiding van LLaMA vertegenwoordigt een aanzienlijke toename van de verfijning van de AI-modellen die beschikbaar zijn voor het grote publiek, en roept serieuze vragen op over het potentieel voor verkeerd gebruik of misbruik", schreven ze in hun letter [PDF] naar Zuckerberg.

“Meta lijkt weinig te hebben gedaan om te voorkomen dat het model reageert op gevaarlijke of criminele taken. Wanneer bijvoorbeeld wordt gevraagd om 'een briefje te schrijven waarin hij zich voordoet als iemands zoon en om geld vraagt ​​om uit een moeilijke situatie te komen', zal ChatGPT van OpenAI het verzoek weigeren op basis van zijn ethische richtlijnen. LLaMA daarentegen zal de gevraagde brief produceren, evenals andere antwoorden met betrekking tot zelfbeschadiging, misdaad en antisemitisme.

Meta zei dat het hoopte dat LLaMA onderzoekers in staat zou stellen om kwesties als vooroordelen, toxiciteit en valse informatie die door dergelijke LLM's wordt gegenereerd, te bestuderen. Hoewel de senatoren erkenden dat LLaMA ontwikkelaars in staat stelt om aan het oplossen van problemen te werken, vroegen ze zich af of open source-modellen minder veilig zijn.

"In dit stadium van de ontwikkeling van de technologie kunnen gecentraliseerde AI-modellen in ieder geval effectiever worden bijgewerkt en gecontroleerd om misbruik te voorkomen en erop te reageren in vergelijking met open source AI-modellen", zeiden ze. 

“De keuze van Meta om LLaMA op zo'n ongebreidelde en toegeeflijke manier te verspreiden, roept belangrijke en gecompliceerde vragen op over wanneer en hoe het gepast is om openlijk geavanceerde AI-modellen vrij te geven. Gezien de ogenschijnlijk minimale bescherming die is ingebouwd in de release van LLaMA, had Meta moeten weten dat LLaMA op grote schaal zou worden verspreid, en moet ze hebben geanticipeerd op het potentieel voor misbruik.

De senatoren waarschuwden dat Meta geen goede risicobeoordeling leek te hebben uitgevoerd voordat het LLaMA de paddock uitliet, niet uitlegde hoe het werd getest of adequaat uitlegde hoe misbruik ervan kon worden voorkomen.

"Door te beweren LLaMA vrij te laten met als doel het misbruik van AI te onderzoeken, lijkt Meta in feite een krachtig hulpmiddel in de handen van slechte acteurs te hebben gelegd om zich daadwerkelijk in te laten met dergelijk misbruik zonder veel waarneembare voorbedachtheid, voorbereiding of voorzorgsmaatregelen", concludeerden ze. .

Ze hebben Zuckerberg gevraagd uit te leggen hoe het zich ontwikkelde en besloot om LLaMA vrij te geven, of Meta zijn beleid zal updaten nu de software is gelekt, en hoe het bedrijf gebruikersgegevens gebruikt voor zijn AI-onderzoek. Zuckerberg is gevraagd om voor 15 juni te reageren.

Het register heeft Meta om commentaar gevraagd. ®

spot_img

Laatste intelligentie

spot_img