Logo Zephyrnet

Firma Microsoft udostępnia te narzędzia bezpieczeństwa dla platformy Azure AI

Data:

Microsoft wprowadził zestaw narzędzi, które rzekomo mają pomóc w zwiększeniu bezpieczeństwa modeli AI na platformie Azure.

Odkąd branża chmury i kodu zaczęła pompować fundusze w OpenAI i wyposażać swoje imperium oprogramowania w możliwości chatbota – dramat rozegrany z równym zapałem przez rywali w połączeniu z imponującymi obietnicami dotyczącymi produktywności – Microsoft musiał przyznać, że generatywna sztuczna inteligencja niesie ze sobą ryzyko.

Połączenia Niebezpieczeństwa są powszechnie znane, a czasem beztrosko ignorowane. Dziesięć lat temu Elon Musk ostrzegł, że sztuczna inteligencja może po prostu zniszczyć ludzkość. Jednak ta obawa nie powstrzymała go przed udostępnieniem sztucznej inteligencji w samochody, na jego megafon mediów społecznościowychi być może wkrótce roboty.

Pojawienie się dużych modeli językowych, które wywołują halucynacje i oferują nieprawidłowe lub szkodliwe odpowiedzi, doprowadziło do powrotu do deski kreślarskiej, ale do sali konferencyjnej w celu uzyskania dalszego finansowania. Zamiast produkować bezpieczny i etyczny produkt, branża technologiczna próbuje ujarzmić zdziczałe modele lub przynajmniej trzymać je z dala od klientów, którzy mogą wpaść w szał, nie raniąc nikogo.

A jeśli to nie zadziała, zawsze można odszkodowanie z roszczeń prawnych, pod pewnymi warunkami, ze strony dostawców.

Zobowiązania branży w zakresie bezpieczeństwa sztucznej inteligencji pokrywają się z odpowiednimi żądaniami rządowymi. W czwartek w USA Biuro Zarządzania i Budżetu Białego Domu (OMB) wydane swoją pierwszą politykę obejmującą cały rząd, mającą na celu zajęcie się zagrożeniami związanymi ze sztuczną inteligencją.

Polityka ta wymaga, aby agencje federalne „wdrożyły konkretne zabezpieczenia podczas korzystania ze sztucznej inteligencji w sposób, który mógłby mieć wpływ na prawa lub bezpieczeństwo Amerykanów” do 1 grudnia. Oznacza to ocenę ryzyka, testowanie i monitorowanie, wysiłki na rzecz ograniczenia dyskryminacji i uprzedzeń oraz promowanie przejrzystość zastosowań sztucznej inteligencji dotyczących zdrowia, edukacji, mieszkalnictwa i zatrudnienia.

W ten sposób Microsoft przekazuje informacje o swoich najnowszych środkach bezpieczeństwa związanych ze sztuczną inteligencją za pośrednictwem Sarah Bird, dyrektor ds. produktu odpowiedzialnej sztucznej inteligencji. Tytuł ten sugeruje istnienie nieodpowiedzialnej sztucznej inteligencji – jeśli możesz to sobie wyobrazić.

Bird twierdzi, że liderzy biznesowi starają się zrównoważyć innowacje i zarządzanie ryzykiem, aby umożliwić im korzystanie z generatywnej sztucznej inteligencji bez obawy, że ją ugryzą.

„Poważnym wyzwaniem okazały się ataki polegające na natychmiastowym wstrzykiwaniu, podczas których szkodliwi przestępcy próbują zmanipulować system sztucznej inteligencji, aby zrobił coś niezgodnego z jego przeznaczeniem, na przykład wytworzył szkodliwą treść lub wydobył poufne dane” – wyjaśnia Bird w swoim artykule blogu.

„Oprócz łagodzenia zagrożeń bezpieczeństwa organizacje zwracają także uwagę na jakość i niezawodność. Chcą mieć pewność, że ich systemy sztucznej inteligencji nie generują błędów ani nie dodają informacji, które nie są poparte źródłami danych aplikacji, co może podważyć zaufanie użytkowników”.

Ponieważ bezpieczeństwo i dokładność nie są wliczone w opłatę za subskrypcję AI, Microsoft widzi szansę je sprzedać jako dodatek.

Klienci korzystający z Azure AI Studio do tworzenia generatywnych aplikacji AI mogą spodziewać się czterech nowych narzędzi.

Po pierwsze, jest Szybkie tarcze, które obiecują pomóc w obronie przed natychmiastowymi atakami polegającymi na wstrzykiwaniu. Rozwiązanie to, znane wcześniej jako wykrywanie ryzyka Jailbreak, a teraz dostępne w publicznej wersji zapoznawczej, jest sposobem na ograniczenie ryzyka zarówno bezpośredniego, jak i pośredniego, natychmiastowego ingerowania w podstawowe modele.

Ataki bezpośrednie obejmują podpowiedzi (dane wejściowe), których zadaniem jest zlekceważenie przez model szkolenia w zakresie bezpieczeństwa. Ataki pośrednie odnoszą się do prób przemycenia danych wejściowych do modelu. Jednym ze sposobów może być dołączenie ukrytego tekstu do wiadomości e-mail ze świadomością, że model sztucznej inteligencji działający w imieniu odbiorcy za pośrednictwem, powiedzmy, funkcji Copilot w Outlooku, przeanalizuje wiadomość, zinterpretuje ukryty tekst jako polecenie i, miejmy nadzieję, postępuj zgodnie z instrukcjami, na przykład cicho odpowiadając, podając wrażliwe dane.

Drugi to Wykrywanie uziemienia, system wychwytywania halucynacji lub zmyśleń modeli AI. Zapewnia klientom kilka opcji w przypadku wykrycia fałszywego roszczenia, w tym odesłanie odpowiedzi do sprawdzenia przed wyświetleniem. Microsoft twierdzi, że osiągnął ten cel, budując niestandardowy model językowy, który ocenia bezpodstawne twierdzenia na podstawie dokumentów źródłowych. Zatem odpowiedzią na bezpieczeństwo modelu AI jest, jak się domyślacie, inny model.

Chociaż jest to wspaniały krok w kierunku godnej zaufania sztucznej inteligencji, problem nadal pozostaje nierozwiązany

Po trzecie, mamy Ocena bezpieczeństwa wspomagana sztuczną inteligencją w AI Studio, które zapewniają platformę testową do prezentowania szybkich szablonów i parametrów do modelu testującego różne przeciwstawne interakcje z aplikacją klienta. Powtórzę: sztuczna inteligencja ma testować sztuczną inteligencję.

I wreszcie jest „monitorowanie zagrożeń i bezpieczeństwa”, funkcja usługi Azure OpenAI, która udostępnia metryki szkodliwej zawartości.

Vinu Sankar Sadasivan, doktorant na Uniwersytecie Maryland, który pomógł opracować Atak BESTII na LLM, powiedział Rejestr że chociaż obserwowanie tworzenia narzędzi na platformie Azure zwiększających bezpieczeństwo sztucznej inteligencji jest ekscytujące, dodanie do tego większej liczby modeli zwiększa potencjalną powierzchnię ataku.

„Oceny bezpieczeństwa oraz narzędzia do monitorowania ryzyka i bezpieczeństwa oferowane przez platformę Azure są ważne przy badaniu niezawodności modeli sztucznej inteligencji” – powiedział. „Chociaż jest to wspaniały krok w kierunku godnej zaufania sztucznej inteligencji, problem nadal pozostaje nierozwiązany. Na przykład wprowadzone przez nich osłony natychmiastowe prawdopodobnie wykorzystują inny model sztucznej inteligencji do wykrywania i blokowania pośrednich, natychmiastowych ataków. Ten model sztucznej inteligencji może być podatny na zagrożenia, takie jak ataki kontradyktoryjne.

„Przeciwnicy mogą wykorzystać te luki w celu ominięcia funkcji Prompt Shields. Chociaż komunikaty systemu bezpieczeństwa okazały się w niektórych przypadkach skuteczne, istniejące ataki, takie jak BEAST, mogą atakować modele sztucznej inteligencji w sposób kontradyktoryjny i błyskawicznie je jailbreakować. Chociaż wdrażanie zabezpieczeń systemów sztucznej inteligencji jest korzystne, należy mieć świadomość ich potencjalnych wad”. ®

spot_img

Najnowsza inteligencja

spot_img