Zephyrnet-logo

Hvordan bruk av sikkerhet for å regulere AI-brikker kan se ut

Dato:

Forskere fra OpenAI, Cambridge University, Harvard University og University of Toronto tilbød "utforskende" ideer om hvordan man kan regulere AI-brikker og maskinvare, og hvordan sikkerhetspolicyer kan forhindre misbruk av avansert AI.

Anbefalingene gir måter å måle og revidere utviklingen og bruken av avanserte AI-systemer og brikkene som driver dem. Anbefalinger for håndhevelse av retningslinjer inkluderer å begrense ytelsen til systemene og implementere sikkerhetsfunksjoner som kan eksternt deaktivere falske brikker.

"Å trene svært dyktige AI-systemer krever for tiden akkumulering og orkestrering av tusenvis av AI-brikker," skrev forskerne. «[Hvis] disse systemene er potensielt farlige, kan det å begrense denne akkumulerte datakraften tjene til å begrense produksjonen av potensielt farlige AI-systemer.»

Regjeringer har i stor grad fokusert på programvare for AI-politikk, og avisen er en følgesvenn som dekker maskinvaresiden av debatten, sier Nathan Brookwood, hovedanalytiker i Insight 64.

Bransjen vil imidlertid ikke ønske noen sikkerhetsfunksjoner som påvirker ytelsen til AI velkommen, advarer han. Å gjøre AI trygt gjennom maskinvare "er en edel ambisjon, men jeg kan ikke se noen av dem som gjør det. Anden er ute av lampen og lykke til med å få den inn igjen, sier han.

Begrensende forbindelser mellom klynger

Et av forslagene forskerne foreslår er et tak for å begrense databehandlingskapasiteten som er tilgjengelig for AI-modeller. Tanken er å sette på plass sikkerhetstiltak som kan identifisere misbruk av AI-systemer, og kutte av og begrense bruken av brikker.

Spesielt foreslår de en målrettet tilnærming for å begrense båndbredden mellom minne og brikkeklynger. Det enklere alternativet - å kutte tilgangen til sjetonger - var ikke ideelt da det ville påvirke den generelle AI-ytelsen, skrev forskerne.

Avisen foreslo ikke måter å implementere slike sikkerhetsrekkverk eller hvordan misbruk av AI-systemer kunne oppdages.

"Å bestemme den optimale båndbreddegrensen for ekstern kommunikasjon er et område som fortjener videre forskning," skrev forskerne.

Storskala AI-systemer krever enorm nettverksbåndbredde, og AI-systemer som Microsofts Eagle og Nvidias Eos er blant topp 10 raskeste superdatamaskiner i verden. Det finnes måter å begrense nettverksytelsen på for enheter som støtter programmeringsspråket P4, som kan analysere nettverkstrafikk og rekonfigurere rutere og svitsjer.

Men lykke til med å spørre brikkeprodusenter om å implementere AI-sikkerhetsmekanismer som kan bremse brikker og nettverk, sier Brookwood.

"Arm, Intel og AMD er alle opptatt med å bygge de raskeste, slemmeste brikkene de kan bygge for å være konkurransedyktige. Jeg vet ikke hvordan du kan bremse, sier han.

Fjerne muligheter medfører en viss risiko

Forskerne foreslo også å deaktivere brikker eksternt, noe som Intel har bygget inn i sine nyeste serverbrikker. On Demand-funksjonen er en abonnementstjeneste som lar Intel-kunder slå på-chip-funksjoner som AI-utvidelser på og av som oppvarmede seter i en Tesla.

Forskerne foreslo også en attestasjonsordning der brikker bare lar autoriserte parter få tilgang til AI-systemer via kryptografisk signerte digitale sertifikater. Firmware kan gi retningslinjer for autoriserte brukere og applikasjoner, som kan endres med oppdateringer.

Selv om forskerne ikke ga tekniske anbefalinger om hvordan dette ville gjøres, ligner ideen på hvordan konfidensiell databehandling sikrer applikasjoner på brikker ved å bekrefter autoriserte brukere. Intel og AMD har konfidensiell databehandling på brikkene sine, men det er fortsatt tidlig for den nye teknologien.

Det er også risikoer ved å håndheve retningslinjer eksternt. "Fjernhåndhevelsesmekanismer har betydelige ulemper, og kan bare være berettiget hvis den forventede skaden fra AI er ekstremt høy," skrev forskerne.

Brookwood er enig.

"Selv om du kunne, kommer det til å være skurker som kommer til å forfølge det. Å sette kunstige begrensninger for gode gutter kommer til å være ineffektivt, sier han.

spot_img

Siste etterretning

spot_img