Zephyrnet-logo

Hoe het gebruik van beveiliging om AI-chips te reguleren eruit zou kunnen zien

Datum:

Onderzoekers van OpenAI, Cambridge University, Harvard University en University of Toronto boden “verkennend” aan ideeën over hoe AI-chips en hardware kunnen worden gereguleerden hoe beveiligingsbeleid het misbruik van geavanceerde AI zou kunnen voorkomen.

De aanbevelingen bieden manieren om de ontwikkeling en het gebruik van geavanceerde AI-systemen en de chips die deze aandrijven te meten en te controleren. Aanbevelingen voor beleidshandhaving omvatten onder meer het beperken van de prestaties van systemen en het implementeren van beveiligingsfuncties die frauduleuze chips op afstand kunnen uitschakelen.

“Het trainen van zeer capabele AI-systemen vereist momenteel het verzamelen en orkestreren van duizenden AI-chips”, schreven de onderzoekers. “Als deze systemen potentieel gevaarlijk zijn, zou het beperken van deze geaccumuleerde rekenkracht kunnen dienen om de productie van potentieel gevaarlijke AI-systemen te beperken.”

Overheden hebben zich grotendeels gericht op software voor AI-beleid, en het artikel is een aanvulling op de hardwarekant van het debat, zegt Nathan Brookwood, hoofdanalist van Insight 64.

De industrie zal echter geen beveiligingskenmerken verwelkomen die de prestaties van AI beïnvloeden, waarschuwt hij. AI veilig maken door middel van hardware “is een nobel streven, maar ik zie niemand van hen dit verwezenlijken. De geest is uit de lamp en veel geluk om hem er weer in te krijgen”, zegt hij.

Verbindingen tussen clusters beperken

Een van de voorstellen die de onderzoekers suggereren is een limiet om de rekenverwerkingscapaciteit die beschikbaar is voor AI-modellen te beperken. Het idee is om veiligheidsmaatregelen te treffen die misbruik van AI-systemen kunnen identificeren en het gebruik van chips kunnen afsnijden en beperken.

Concreet suggereren ze een gerichte aanpak om de bandbreedte tussen geheugen- en chipclusters te beperken. Het gemakkelijkere alternatief – om de toegang tot chips af te sluiten – was niet ideaal omdat dit de algehele AI-prestaties zou beïnvloeden, schreven de onderzoekers.

Het document suggereerde geen manieren om dergelijke veiligheidsrails te implementeren of hoe misbruik van AI-systemen zou kunnen worden opgespoord.

“Het bepalen van de optimale bandbreedtelimiet voor externe communicatie is een gebied dat verder onderzoek verdient”, schreven de onderzoekers.

Grootschalige AI-systemen vereisen een enorme netwerkbandbreedte, en AI-systemen zoals Microsoft's Eagle en Nvidia's Eos behoren tot de top 10 snelste supercomputers ter wereld. Er bestaan ​​manieren om de netwerkprestaties te beperken voor apparaten die de programmeertaal P4 ondersteunen, waarmee netwerkverkeer kan worden geanalyseerd en routers en switches opnieuw kunnen worden geconfigureerd.

Maar veel succes met het vragen aan chipfabrikanten om AI-beveiligingsmechanismen te implementeren die chips en netwerken kunnen vertragen, zegt Brookwood.

“Arm, Intel en AMD zijn allemaal bezig met het bouwen van de snelste, gemeenste chips die ze kunnen bouwen om concurrerend te zijn. Ik weet niet hoe je kunt vertragen”, zegt hij.

Mogelijkheden op afstand brengen enig risico met zich mee

De onderzoekers stelden ook voor om chips op afstand uit te schakelen, iets dat Intel in zijn nieuwste serverchips heeft ingebouwd. De On Demand-functie is een abonnementsservice waarmee Intel-klanten functies op de chip, zoals AI-extensies, kunnen in- en uitschakelen, zoals stoelverwarming in een Tesla.

De onderzoekers stelden ook een attestatieschema voor waarbij chips alleen geautoriseerde partijen toegang geven tot AI-systemen via cryptografisch ondertekende digitale certificaten. Firmware zou richtlijnen kunnen bieden over geautoriseerde gebruikers en applicaties, die met updates kunnen worden gewijzigd.

Hoewel de onderzoekers geen technische aanbevelingen deden over hoe dit gedaan zou worden, is het idee vergelijkbaar met hoe vertrouwelijk computergebruik applicaties op chips beveiligt door geautoriseerde gebruikers bevestigen. Intel en AMD hebben vertrouwelijk computergebruik op hun chips staan, maar het is nog te vroeg voor de opkomende technologie.

Er zijn ook risico’s verbonden aan het op afstand afdwingen van beleid. “Mechanismen voor handhaving op afstand brengen aanzienlijke nadelen met zich mee, en zijn mogelijk alleen gerechtvaardigd als de verwachte schade van AI extreem hoog is”, schreven de onderzoekers.

Brookwood is het daarmee eens.

“Zelfs als je dat zou kunnen, zullen er slechteriken zijn die het zullen nastreven. Het opleggen van kunstmatige beperkingen voor goede mensen zal ineffectief zijn”, zegt hij.

spot_img

Laatste intelligentie

spot_img