Logotip Zephyrnet

Microsoft uvaja ta varnostna orodja za Azure AI

Datum:

Microsoft je predstavil nabor orodij, ki naj bi pomagala narediti modele AI varnejše za uporabo v Azure.

Odkar je podjetje v oblaku in kodiranju začelo zbirati sredstva v OpenAI in svojemu programskemu imperiju dodajati zmogljivosti klepetalnih robotov – dramo, ki so jo z enako vnemo odigrali tekmeci med veličastnimi obljubami glede produktivnosti – je Microsoft moral priznati, da generativni AI prinaša tveganja.

O nevarnosti so splošno znani in včasih brezskrbno zavrnjeni. Pred desetletjem je Elon Musk opozoril, da bi lahko umetna inteligenca samo uničiti človeštvo. Vendar ga ta skrb ni preprečila, da bi dal na voljo AI avtomobili, na njegovem megafon družbenih medijev, in morda kmalu v roboti.

Pojav velikih jezikovnih modelov, ki halucinirajo in ponujajo nepravilne ali škodljive odzive, je privedel do vrnitve na risalno desko, vendar v sejno sobo za nadaljnje financiranje. Namesto da bi proizvedla varen, etičen izdelek, tehnološka industrija poskuša ukrotiti divje modele ali jih vsaj držati dovolj daleč od strank, ki lahko divjajo, ne da bi koga poškodovale.

In če to ne deluje, vedno obstaja odškodnina od pravnih zahtevkov dobaviteljev, ob upoštevanju določenih pogojev.

Zaveze industrije glede varnosti umetne inteligence sovpadajo z ustreznimi vladnimi zahtevami. V ZDA je v četrtek Urad Bele hiše za upravljanje in proračun (OMB) izdano svojo prvo vladno politiko za obravnavo tveganj umetne inteligence.

Politika od zveznih agencij zahteva, da do 1. decembra izvajajo konkretne zaščitne ukrepe pri uporabi umetne inteligence na način, ki bi lahko vplival na pravice ali varnost Američanov. To pomeni ocene tveganja, testiranje in spremljanje, prizadevanja za omejevanje diskriminacije in pristranskosti ter spodbujanje preglednost za aplikacije AI, ki zadevajo zdravje, izobraževanje, stanovanja in zaposlovanje.

Tako Microsoft o svojih najnovejših varnostnih ukrepih za umetno inteligenco poroča prek Sarah Bird, produktne direktorice za odgovorno umetno inteligenco, naziv, ki implicira obstoj neodgovorne umetne inteligence – če si lahko predstavljate.

Bird pravi, da poslovni voditelji poskušajo uravnotežiti inovacije in obvladovanje tveganja, da bi jim omogočili uporabo generativne umetne inteligence, ne da bi jih ta ugriznila.

"Napadi s takojšnjim vbrizgavanjem so se izkazali kot pomemben izziv, kjer zlonamerni akterji poskušajo manipulirati s sistemom AI, da naredi nekaj, kar ni v skladu s predvidenim namenom, kot je produkcija škodljive vsebine ali izločanje zaupnih podatkov," pojasnjuje Bird v blog post.

»Poleg ublažitve teh varnostnih tveganj organizacije skrbita tudi kakovost in zanesljivost. Želijo zagotoviti, da njihovi sistemi umetne inteligence ne ustvarjajo napak ali dodajajo informacij, ki niso utemeljene v podatkovnih virih aplikacije, kar lahko zmanjša zaupanje uporabnikov.«

Ker varnost in natančnost nista vključeni v naročnino AI, Microsoft vidi priložnost da jih prodam kot dodatek.

Stranke, ki uporabljajo Azure AI Studio za pomoč pri ustvarjanju generativnih aplikacij AI, se lahko veselijo štirih novih orodij.

Prvič, obstaja Prompt Shields, ki obljubljajo pomoč pri obrambi pred napadi s takojšnjim vbrizgavanjem. Prej znan kot zaznavanje tveganja bega iz zapora in zdaj v javnem predogledu, je način za ublažitev tveganja neposrednega in posrednega takojšnjega vmešavanja v modele temeljev.

Neposredni napadi vključujejo pozive (vnose), namenjene temu, da model ignorira svoje varnostno usposabljanje. Posredni napadi se nanašajo na poskuse prikritega vnosa v model. Eden od načinov za to je lahko vključitev skritega besedila v e-poštno sporočilo z zavedanjem, da bo model AI, ki deluje v imenu prejemnika preko, recimo, Copilota v Outlooku, razčlenil sporočilo, interpretiral skrito besedilo kot ukaz in, upajmo, ravnajte po navodilih in naredite nekaj podobnega kot tihi odgovor z občutljivimi podatki.

Druga je Zaznavanje ozemljenosti, sistem za lovljenje, ko modeli AI halucinirajo ali si stvari izmišljujejo. Strankam ponuja več možnosti, ko je zaznana lažna trditev, vključno s pošiljanjem odgovora nazaj v revizijo pred prikazom. Microsoft pravi, da je to dosegel z izgradnjo jezikovnega modela po meri, ki ocenjuje neutemeljene trditve na podlagi izvornih dokumentov. Odgovor na varnost modela AI je torej, uganili ste, drug model.

Čeprav je to čudovit korak k zanesljivi AI, je problem še vedno nerešen

Tretjič, smo Varnostne ocene s pomočjo umetne inteligence v AI Studio, ki zagotavlja testni okvir za predstavitev hitrih predlog in parametrov za model, ki preizkuša različne kontradiktorne interakcije s strankino aplikacijo. Še enkrat, AI mora testirati AI.

In končno, tam je “nadzor tveganj in varnosti”, funkcija za storitev Azure OpenAI, ki zagotavlja meritve škodljive vsebine.

Vinu Sankar Sadasivan, doktorski študent na Univerzi v Marylandu, ki je pomagal razviti napad ZVERI na LLM, povedal Register Čeprav je vznemirljivo videti, da Azure gradi orodja za večjo varnost AI, dodajanje več modelov v mešanico razširi potencialno površino napadov.

»Varnostne ocene Azure ter orodja za spremljanje tveganja in varnosti so pomembna za raziskovanje zanesljivosti modelov umetne inteligence,« je dejal. »Čeprav je to čudovit korak k zanesljivi AI, je problem še vedno nerešen. Na primer, Prompt Shields, ki jih predstavljajo, domnevno uporabljajo drug model AI za odkrivanje in blokiranje posrednih takojšnjih napadov. Ta model umetne inteligence je lahko ranljiv za grožnje, kot so kontradiktorni napadi.

»Nasprotniki bi lahko izkoristili te ranljivosti, da bi obšli Prompt Shields. Čeprav so se sporočila varnostnega sistema v nekaterih primerih izkazala za učinkovita, lahko obstoječi napadi, kot je BEAST, nasprotno napadejo modele umetne inteligence in jih v hipu zlomijo. Medtem ko je uvedba obrambe za sisteme umetne inteligence koristna, je nujno, da se zavedamo njihovih morebitnih pomanjkljivosti.« ®

spot_img

Najnovejša inteligenca

spot_img