Badacze z OpenAI, Cambridge University, Harvard University i University of Toronto zaproponowali „eksperymentalne” pomysły, jak regulować chipy i sprzęt AIoraz w jaki sposób zasady bezpieczeństwa mogą zapobiegać nadużywaniu zaawansowanej sztucznej inteligencji.
Zalecenia zapewniają sposoby pomiaru i audytu rozwoju i wykorzystania zaawansowanych systemów sztucznej inteligencji oraz chipów, które je napędzają. Zalecenia dotyczące egzekwowania zasad obejmują ograniczenie wydajności systemów i wdrożenie funkcji bezpieczeństwa, które mogą zdalnie wyłączyć fałszywe chipy.
„Szkolenie wysoce wydajnych systemów sztucznej inteligencji wymaga obecnie gromadzenia i koordynowania tysięcy chipów sztucznej inteligencji” – napisali naukowcy. „[I] jeśli te systemy są potencjalnie niebezpieczne, ograniczenie tej skumulowanej mocy obliczeniowej mogłoby posłużyć do ograniczenia produkcji potencjalnie niebezpiecznych systemów sztucznej inteligencji”.
Rządy w dużej mierze skupiły się na oprogramowaniu na potrzeby polityki związanej ze sztuczną inteligencją, a artykuł jest artykułem towarzyszącym omawiającym sprzętową stronę debaty, mówi Nathan Brookwood, główny analityk Insight 64.
Ostrzega jednak, że branża nie będzie z radością przyjmować żadnych funkcji bezpieczeństwa wpływających na wydajność sztucznej inteligencji. Zapewnienie bezpieczeństwa sztucznej inteligencji za pomocą sprzętu „to szlachetna aspiracja, ale nie widzę, żeby komukolwiek się to udało. Dżin wyszedł z lampy i powodzenia w jego ponownym umieszczeniu” – mówi.
Ograniczanie połączeń między klastrami
Jedną z propozycji zaproponowanych przez badaczy jest ograniczenie mocy obliczeniowej dostępnej dla modeli sztucznej inteligencji. Pomysł polega na wprowadzeniu środków bezpieczeństwa, które będą w stanie wykryć nadużycia w systemach AI oraz odciąć i ograniczyć użycie chipów.
W szczególności sugerują ukierunkowane podejście polegające na ograniczaniu przepustowości między klastrami pamięci i chipów. Naukowcy napisali, że łatwiejsza alternatywa – odcięcie dostępu do chipów – nie była idealna, ponieważ miałaby wpływ na ogólną wydajność sztucznej inteligencji.
W artykule nie zasugerowano sposobów wdrożenia takich barier bezpieczeństwa ani sposobów wykrywania nadużyć w systemach sztucznej inteligencji.
„Określenie optymalnego limitu przepustowości dla komunikacji zewnętrznej to obszar wymagający dalszych badań” – napisali naukowcy.
Wielkoskalowe systemy AI wymagają ogromnej przepustowości sieci, a systemy AI, takie jak Eagle firmy Microsoft i Eos firmy Nvidia, należą do 10 najszybszych superkomputerów na świecie. Istnieją sposoby ograniczania wydajności sieci w przypadku urządzeń obsługujących język programowania P4, który może analizować ruch sieciowy i rekonfigurować routery i przełączniki.
Powodzenia w proszeniu producentów chipów o wdrożenie mechanizmów bezpieczeństwa AI, które mogłyby spowolnić chipy i sieci, mówi Brookwood.
„Arm, Intel i AMD są zajęte budowaniem najszybszych i najgorszych chipów, jakie mogą zbudować, aby być konkurencyjnymi. Nie wiem, jak można zwolnić” – mówi.
Możliwości zdalne niosą ze sobą pewne ryzyko
Badacze zasugerowali także zdalne wyłączanie chipów, co Intel wbudował w swoje najnowsze chipy serwerowe. Funkcja On Demand to usługa subskrypcyjna, która umożliwia klientom firmy Intel włączanie i wyłączanie funkcji wbudowanych w chip, takich jak rozszerzenia AI, np. podgrzewane siedzenia w Tesli.
Badacze zaproponowali także schemat atestacji, w którym chipy umożliwiają dostęp do systemów sztucznej inteligencji jedynie upoważnionym stronom za pośrednictwem podpisanych kryptograficznie certyfikatów cyfrowych. Oprogramowanie sprzętowe może zapewniać wytyczne dotyczące autoryzowanych użytkowników i aplikacji, które można zmieniać wraz z aktualizacjami.
Chociaż badacze nie przedstawili zaleceń technicznych dotyczących sposobu, w jaki można to zrobić, pomysł jest podobny do sposobu, w jaki poufne przetwarzanie danych zabezpiecza aplikacje na chipach za pomocą poświadczające autoryzowanych użytkowników. Intel i AMD mają poufne przetwarzanie danych na swoich chipach, ale na pojawienie się nowej technologii jest jeszcze dopiero początek.
Zdalne egzekwowanie zasad wiąże się również z ryzykiem. „Mechanizmy zdalnego egzekwowania mają swoje wady i mogą być uzasadnione tylko wtedy, gdy spodziewane szkody spowodowane sztuczną inteligencją są wyjątkowo wysokie” – napisali naukowcy.
Brookwood zgadza się.
„Nawet gdybyś mógł, znajdą się źli ludzie, którzy będą to ścigać. Nakładanie sztucznych ograniczeń na dobrych ludzi będzie nieskuteczne” – mówi.
- Dystrybucja treści i PR oparta na SEO. Uzyskaj wzmocnienie już dziś.
- PlatoData.Network Pionowe generatywne AI. Wzmocnij się. Dostęp tutaj.
- PlatoAiStream. Inteligencja Web3. Wiedza wzmocniona. Dostęp tutaj.
- PlatonESG. Węgiel Czysta technologia, Energia, Środowisko, Słoneczny, Gospodarowanie odpadami. Dostęp tutaj.
- Platon Zdrowie. Inteligencja w zakresie biotechnologii i badań klinicznych. Dostęp tutaj.
- Źródło: https://www.darkreading.com/cyber-risk/what-using-security-to-regulate-ai-chips-could-look-like