Logo Zephyrnet

Jak mogłoby wyglądać wykorzystanie zabezpieczeń do regulowania chipów AI

Data:

Badacze z OpenAI, Cambridge University, Harvard University i University of Toronto zaproponowali „eksperymentalne” pomysły, jak regulować chipy i sprzęt AIoraz w jaki sposób zasady bezpieczeństwa mogą zapobiegać nadużywaniu zaawansowanej sztucznej inteligencji.

Zalecenia zapewniają sposoby pomiaru i audytu rozwoju i wykorzystania zaawansowanych systemów sztucznej inteligencji oraz chipów, które je napędzają. Zalecenia dotyczące egzekwowania zasad obejmują ograniczenie wydajności systemów i wdrożenie funkcji bezpieczeństwa, które mogą zdalnie wyłączyć fałszywe chipy.

„Szkolenie wysoce wydajnych systemów sztucznej inteligencji wymaga obecnie gromadzenia i koordynowania tysięcy chipów sztucznej inteligencji” – napisali naukowcy. „[I] jeśli te systemy są potencjalnie niebezpieczne, ograniczenie tej skumulowanej mocy obliczeniowej mogłoby posłużyć do ograniczenia produkcji potencjalnie niebezpiecznych systemów sztucznej inteligencji”.

Rządy w dużej mierze skupiły się na oprogramowaniu na potrzeby polityki związanej ze sztuczną inteligencją, a artykuł jest artykułem towarzyszącym omawiającym sprzętową stronę debaty, mówi Nathan Brookwood, główny analityk Insight 64.

Ostrzega jednak, że branża nie będzie z radością przyjmować żadnych funkcji bezpieczeństwa wpływających na wydajność sztucznej inteligencji. Zapewnienie bezpieczeństwa sztucznej inteligencji za pomocą sprzętu „to szlachetna aspiracja, ale nie widzę, żeby komukolwiek się to udało. Dżin wyszedł z lampy i powodzenia w jego ponownym umieszczeniu” – mówi.

Ograniczanie połączeń między klastrami

Jedną z propozycji zaproponowanych przez badaczy jest ograniczenie mocy obliczeniowej dostępnej dla modeli sztucznej inteligencji. Pomysł polega na wprowadzeniu środków bezpieczeństwa, które będą w stanie wykryć nadużycia w systemach AI oraz odciąć i ograniczyć użycie chipów.

W szczególności sugerują ukierunkowane podejście polegające na ograniczaniu przepustowości między klastrami pamięci i chipów. Naukowcy napisali, że łatwiejsza alternatywa – odcięcie dostępu do chipów – nie była idealna, ponieważ miałaby wpływ na ogólną wydajność sztucznej inteligencji.

W artykule nie zasugerowano sposobów wdrożenia takich barier bezpieczeństwa ani sposobów wykrywania nadużyć w systemach sztucznej inteligencji.

„Określenie optymalnego limitu przepustowości dla komunikacji zewnętrznej to obszar wymagający dalszych badań” – napisali naukowcy.

Wielkoskalowe systemy AI wymagają ogromnej przepustowości sieci, a systemy AI, takie jak Eagle firmy Microsoft i Eos firmy Nvidia, należą do 10 najszybszych superkomputerów na świecie. Istnieją sposoby ograniczania wydajności sieci w przypadku urządzeń obsługujących język programowania P4, który może analizować ruch sieciowy i rekonfigurować routery i przełączniki.

Powodzenia w proszeniu producentów chipów o wdrożenie mechanizmów bezpieczeństwa AI, które mogłyby spowolnić chipy i sieci, mówi Brookwood.

„Arm, Intel i AMD są zajęte budowaniem najszybszych i najgorszych chipów, jakie mogą zbudować, aby być konkurencyjnymi. Nie wiem, jak można zwolnić” – mówi.

Możliwości zdalne niosą ze sobą pewne ryzyko

Badacze zasugerowali także zdalne wyłączanie chipów, co Intel wbudował w swoje najnowsze chipy serwerowe. Funkcja On Demand to usługa subskrypcyjna, która umożliwia klientom firmy Intel włączanie i wyłączanie funkcji wbudowanych w chip, takich jak rozszerzenia AI, np. podgrzewane siedzenia w Tesli.

Badacze zaproponowali także schemat atestacji, w którym chipy umożliwiają dostęp do systemów sztucznej inteligencji jedynie upoważnionym stronom za pośrednictwem podpisanych kryptograficznie certyfikatów cyfrowych. Oprogramowanie sprzętowe może zapewniać wytyczne dotyczące autoryzowanych użytkowników i aplikacji, które można zmieniać wraz z aktualizacjami.

Chociaż badacze nie przedstawili zaleceń technicznych dotyczących sposobu, w jaki można to zrobić, pomysł jest podobny do sposobu, w jaki poufne przetwarzanie danych zabezpiecza aplikacje na chipach za pomocą poświadczające autoryzowanych użytkowników. Intel i AMD mają poufne przetwarzanie danych na swoich chipach, ale na pojawienie się nowej technologii jest jeszcze dopiero początek.

Zdalne egzekwowanie zasad wiąże się również z ryzykiem. „Mechanizmy zdalnego egzekwowania mają swoje wady i mogą być uzasadnione tylko wtedy, gdy spodziewane szkody spowodowane sztuczną inteligencją są wyjątkowo wysokie” – napisali naukowcy.

Brookwood zgadza się.

„Nawet gdybyś mógł, znajdą się źli ludzie, którzy będą to ścigać. Nakładanie sztucznych ograniczeń na dobrych ludzi będzie nieskuteczne” – mówi.

spot_img

Najnowsza inteligencja

spot_img