Zephyrnet logo

Microsoft julkaisee nämä turvatyökalut Azure AI:lle

Treffi:

Microsoft on esitellyt joukon työkaluja, joiden väitetään auttavan tekoälymalleja turvallisempia käyttää Azuressa.

Siitä lähtien, kun pilvi- ja koodiliiketoiminta alkoi lapioida varoja OpenAI:hen ja lisätä ohjelmistoimperiumiaan chatbot-ominaisuuksilla – draama, jonka kilpailijat esittivät yhtä kiihkeästi tuottavuutta koskevien suurenmoisten lupausten keskellä – Microsoftin on täytynyt myöntää, että generatiiviseen tekoälyyn liittyy riskejä.

- vaaroista ovat laajalti tunnettuja, ja joskus ne on sivuutettu. Kymmenen vuotta sitten Elon Musk varoitti, että tekoäly saattaa vain tuhota ihmiskunnan. Tämä huoli ei kuitenkaan estänyt häntä tarjoamasta tekoälyä saataville autot, hänen sosiaalisen median megafonija ehkä pian sisään robotit.

Suurten hallusinaatioiden ja vääriä tai haitallisia vastauksia tarjoavien kielimallien syntyminen on johtanut paluuseen piirustuspöydälle, mutta neuvotteluhuoneeseen lisärahoituksen saamiseksi. Turvallisen, eettisen tuotteen tuottamisen sijaan teknologiateollisuus yrittää kesyttää villiä malleja tai ainakin pitää ne riittävän kaukana asiakkaista, jotka voivat juosta ketään vahingoittamatta.

Ja jos se ei auta, niin aina on korvaus toimittajien oikeudellisista vaateista tietyin ehdoin.

Alan sitoumukset tekoälyn turvallisuuteen ovat samat kuin vastaavat hallituksen vaatimukset. Yhdysvalloissa torstaina Valkoisen talon hallinto- ja budjettitoimisto (OMB) liikkeeseen ensimmäinen hallituksen laajuinen politiikka tekoälyriskien torjumiseksi.

Käytäntö edellyttää, että liittovaltion virastot "ottavat käyttöön konkreettisia suojatoimia käytettäessä tekoälyä tavalla, joka voi vaikuttaa amerikkalaisten oikeuksiin tai turvallisuuteen" 1. joulukuuta mennessä. Tämä tarkoittaa riskinarviointia, testausta ja seurantaa, pyrkimyksiä rajoittaa syrjintää ja ennakkoluuloja sekä edistää avoimuus tekoälysovelluksiin, jotka koskevat terveyttä, koulutusta, asumista ja työllisyyttä.

Siten Microsoft tuo sanan uusimmista tekoälyturvatoimenpiteistään Sarah Birdin, vastuullisen tekoälyn tuotepäällikön kautta. Nimitys viittaa vastuuttoman tekoälyn olemassaoloon – jos voit kuvitella.

Bird sanoo, että yritysjohtajat yrittävät tasapainottaa innovaatioita ja riskienhallintaa, jotta he voivat käyttää generatiivista tekoälyä ilman, että se puree.

"Nopeat injektiohyökkäykset ovat nousseet merkittäväksi haasteeksi, kun pahantahtoiset toimijat yrittävät manipuloida tekoälyjärjestelmää tekemällä jotain sen aiottuun tarkoitukseen poikkeavaa, kuten tuottamaan haitallista sisältöä tai suodattamaan luottamuksellisia tietoja", Bird selittää. blogi.

”Näiden turvallisuusriskien pienentämisen lisäksi organisaatiot ovat huolissaan laadusta ja luotettavuudesta. He haluavat varmistaa, että heidän tekoälyjärjestelmänsä eivät tuota virheitä tai lisää tietoja, joita ei ole perusteltu sovelluksen tietolähteissä, mikä voi heikentää käyttäjien luottamusta.

Koska turvallisuus ja tarkkuus eivät sisälly tekoälyn tilausmaksuun, Microsoft näkee mahdollisuuden myydä niitä lisäosana.

Asiakkaat, jotka käyttävät Azure AI Studiota luomaan luovia tekoälysovelluksia, voivat odottaa neljää uutta työkalua.

Ensinnäkin, siellä on Prompt Shields, jotka lupaavat auttaa puolustautumaan nopeilta injektiohyökkäyksiltä. Se tunnettiin aiemmin nimellä Jailbreak Risk Detection ja nyt julkisessa esikatselussa. Se on tapa vähentää sekä suoran että epäsuoran nopean sekaantumisen riskiä perustusmalleihin.

Suorat hyökkäykset sisältävät kehotteita (syötteitä), joiden tarkoituksena on saada malli sivuuttamaan turvallisuuskoulutustaan. Epäsuorat hyökkäykset viittaavat yrityksiin hiipiä syötettä malliin. Yksi tapa tehdä tämä voisi olla sisällyttää sähköpostiin piilotekstiä tietäen, että AI-malli, joka toimii vastaanottajan puolesta esimerkiksi Outlookin Copilotin kautta, jäsentää viestin, tulkitsee piilotetun tekstin komennona ja toivottavasti toimi ohjeiden mukaan, esimerkiksi vastaa arkaluontoisilla tiedoilla hiljaa.

Toinen on Maadoittavuuden tunnistus, järjestelmä, jolla havaitaan, kun tekoälymallit tekevät hallusinaatioita tai keksivät asioita. Se tarjoaa asiakkaille useita vaihtoehtoja, kun virheellinen väite havaitaan, mukaan lukien vastauksen lähettäminen tarkistettavaksi ennen näyttämistä. Microsoft sanoo saaneensa tämän aikaan rakentamalla mukautetun kielimallin, joka arvioi perusteettomat väitteet lähdeasiakirjojen perusteella. Joten vastaus tekoälymallien turvallisuuteen on, arvasit sen, toinen malli.

Vaikka tämä on upea askel kohti luotettavaa tekoälyä, ongelma on edelleen ratkaisematta

Kolmanneksi meillä on AI-avusteiset turvallisuusarvioinnit AI Studiossa, joka tarjoaa testauskehyksen kehotteiden mallien ja parametrien esittämiseen mallille, joka testaa erilaisia ​​vastakkaisia ​​vuorovaikutuksia asiakkaan sovelluksen kanssa. Jälleen tekoäly testaa tekoälyä.

Ja lopuksi, siellä on "riskien ja turvallisuuden seuranta", Azure OpenAI -palvelun ominaisuus, joka tarjoaa haitallisen sisällön mittareita.

Vinu Sankar Sadasivan, Marylandin yliopiston tohtoriopiskelija, joka auttoi kehittämään BEAST hyökkäys LLM:issä, kerrottiin Rekisteri että vaikka on jännittävää nähdä Azuren rakennustyökalut tekoälyn turvallisuuden parantamiseksi, useampien mallien lisääminen yhdistelmään laajentaa mahdollista hyökkäyspintaa.

"Azuren turvallisuusarvioinnit sekä riskien ja turvallisuuden seurantatyökalut ovat tärkeitä tekoälymallien luotettavuuden tutkimisessa", hän sanoi. "Vaikka tämä on upea askel kohti luotettavaa tekoälyä, ongelma on edelleen ratkaisematta. Esimerkiksi heidän esittelemänsä Prompt Shield -suojaimet käyttävät oletettavasti toista tekoälymallia havaitakseen ja estääkseen epäsuoria kehotteita. Tämä tekoälymalli voi olla alttiina uhille, kuten vastakkaisille hyökkäyksille.

”Vastaajat voivat hyödyntää näitä haavoittuvuuksia ohittaakseen Prompt Shields. Vaikka turvajärjestelmän viestit ovat joissakin tapauksissa osoittautuneet tehokkaiksi, olemassa olevat hyökkäykset, kuten BEAST, voivat hyökätä tekoälymallien kimppuun ja murtaakseen ne hetkessä. Vaikka on hyödyllistä ottaa käyttöön suojakeinoja tekoälyjärjestelmille, on tärkeää pysyä tietoisena niiden mahdollisista haitoista." ®

spot_img

Uusin älykkyys

spot_img