Logo Zephyrnet

Konwergencja sztucznej inteligencji, 5G i rzeczywistości rozszerzonej stwarza nowe zagrożenia dla bezpieczeństwa 

Data:

John P. Desmond, Trendy AI redaktor  

Około 500 ekspertów ds. Biznesu i bezpieczeństwa na poziomie C z firm o przychodach przekraczających 5 miliardów dolarów w wielu branżach wyraziło zaniepokojenie w niedawnej ankiecie przeprowadzonej przez Accenture na temat potencjalnych luk w zabezpieczeniach wynikających z dążenia do jednoczesnej sztucznej inteligencji, 5G i technologii rzeczywistości rozszerzonej. .  

Claudio Ordóñez, lider ds. Cyberbezpieczeństwa w Accenture w Chile

Na przykład, aby odpowiednio trenować modele AI, firma musi chronić dane potrzebne do szkolenia AI i środowiska, w którym jest tworzona. Kiedy model jest używany, dane w ruchu muszą być chronione. Danych nie można gromadzić w jednym miejscu, ani ze względów technicznych, ani ze względów bezpieczeństwa, ani w celu ochrony własności intelektualnej. „Dlatego zmusza firmy do wprowadzenia bezpiecznego uczenia się, aby różne strony mogły współpracować ”- stwierdził Claudio Ordóñez Lider ds. Cyberbezpieczeństwa w Accenture w Chile, na niedawnym koncie w Badania rynkowe.  

Firmy muszą rozszerzyć praktyki tworzenia bezpiecznego oprogramowania, znane jako DevSecOps, aby chronić sztuczną inteligencję przez cały cykl życia. „Niestety, nie ma srebrnej kuli do obrony przed manipulacjami sztucznej inteligencji, więc konieczne będzie wykorzystanie warstwowych możliwości w celu zmniejszenia ryzyka w procesach biznesowych opartych na sztucznej inteligencji” - stwierdził. Środki obejmują wspólne funkcje i kontrole bezpieczeństwa, takie jak oczyszczanie danych wejściowych, wzmacnianie aplikacji i konfigurowanie analizy bezpieczeństwa. Ponadto należy podjąć kroki w celu uzyskania integralności danych, kontroli dokładności i wykrywania manipulacji, i możliwości wczesnego reagowania.    

Ryzyko wydobywania modeli i ataków na prywatność  

Modele uczenia maszynowego wykazały pewne wyjątkowe problemy z bezpieczeństwem i prywatnością. „Jeśli model jest dostępny dla zewnętrznych dostawców danych, możesz być narażony na wyodrębnienie modelu”, Ordónez ostrzeżony. W takim przypadku haker może być w stanie poddaj model inżynierii wstecznej i wygeneruj model zastępczy, który odtwarza funkcję modelu oryginalnego, ale ze zmienionymi wynikami. „Ma to oczywiste konsekwencje dla poufności własności intelektualnej” - stwierdził.  

Aby zabezpieczyć się przed wyodrębnianiem modelu i atakami na prywatność, potrzebne są elementy sterujące. Niektóre są łatwe do zastosowania, na przykład ograniczenia szybkości, ale niektóre modele mogą wymagać bardziej wyrafinowanych zabezpieczeń, takich jak analiza nieprawidłowego użytkowania. Jeśli model sztucznej inteligencji jest dostarczany jako usługa, firmy muszą wziąć pod uwagę środki kontroli bezpieczeństwa stosowane w środowisku usług w chmurze. „Dane i modele generowane na zasadach open source lub zewnętrznie zapewniają wektory ataku dla organizacji ”- stwierdził Ordóñez, ponieważ osoby atakujące mogą być w stanie wstawić zmanipulowane dane i ominąć wewnętrzne zabezpieczenia.   

Na pytanie, w jaki sposób ich organizacje planują tworzyć wiedzę techniczną potrzebną do wspierania nowych technologii, większość respondentów ankiety Accenture stwierdziła, że ​​przeszkoliłaby obecnych pracowników (77%), współpracowałaby lub współpracowała z organizacjami, które mają doświadczenie (73%), zatrudnij nowe talenty (73%) i pozyskać nowe firmy lub startupy (49%).  

Zdaniem Ordóñeza czas potrzebny na wyszkolenie specjalistów w zakresie tych umiejętności jest niedoceniany. Ponadto „Respondenci zakładają, że będzie można zatrudnić ogromne talenty z AI, 5G, komputerów kwantowych i rzeczywistości rozszerzonej, ale w rzeczywistości jest i będzie ich niedobór na rynku” - stwierdził. „Połączenie problemu i znalezienie talentów w dziedzinie bezpieczeństwa z tymi nowymi umiejętnościami technicznymi będzie jeszcze trudniejsze” - stwierdził.  

Funkcje technologii 5G wiążą się z nowymi problemami z bezpieczeństwem, w tym wirtualizacją, która poszerza powierzchnię ataku i „niezwykle dokładne” śledzenie lokalizacji ataków, zwiększając obawy użytkowników o prywatność. „Podobnie jak rozwój usług w chmurze, 5G ma potencjał tworzenia sieci-cienia, które działają poza wiedzą i zarządzaniem firmy” - stwierdził Ordóñez.  

"Rejestracja urządzenia musi obejmować uwierzytelnianie w celu obsługi powierzchni ataku przedsiębiorstwa. Bez tego nie można zagwarantować integralności wiadomości i tożsamości użytkownika ”- stwierdził. Firmy będą potrzebowały zaangażowania dyrektora ds. Bezpieczeństwa informacji (CISO), aby były skuteczne. „Sukces wymaga znacznego zaangażowania CISO i doświadczenia w zarządzaniu ryzykiem cybernetycznym od samego początku i podczas codziennych innowacji, w tym odpowiedniego nastawienia, zachowań i kultury, aby to urzeczywistnić”.  

Rzeczywistość rozszerzona wprowadza również szereg nowych zagrożeń bezpieczeństwa, obejmujących kwestie bezpieczeństwa wokół lokalizacji, rozpoznawania zaufania, treści obrazów i otaczającego dźwięku oraz „maskowania treści”. W związku z tym „Polecenie„ otwórz ten zawór ”może być skierowane do niewłaściwego obiektu i spowodować katastrofalną aktywację” - zasugerował Ordóñez.  

Techniki ochrony prywatności danych w erze 5G 

Jiani Zhang, prezes, dział ds. Sojuszy i rozwiązań przemysłowych, Persistent Systems

Prywatność danych jest jedną z najważniejszych kwestii tej dekady, ponieważ sztuczna inteligencja się rozwija, a jednocześnie wprowadzanych jest więcej ram regulacyjnych. Kilka technik zarządzania danymi może pomóc organizacjom w przestrzeganiu przepisów i zapewnieniu bezpieczeństwa - zasugerował J.iani Zhang, prezes Alliance and Industrial Solution Unit w Persistent Systems, gdzie ściśle współpracuje z IBM i Red Hat, aby opracowywać rozwiązania dla klientów, jak poinformowała niedawno w Projekt Enterprisers. 

Sfederowane uczenie się. W dziedzinie, w której występują wrażliwe dane użytkowników, takiej jak opieka zdrowotna, tradycyjna mądrość ostatniej dekady polegała na tym, aby „usuwać” dane, kiedy tylko było to możliwe. Jednak agregacja danych niezbędnych do szkolenia i wdrażania algorytmów uczenia maszynowego spowodowała „poważne problemy z prywatnością i bezpieczeństwem”, zwłaszcza gdy dane są udostępniane wewnątrz organizacji. 

W federacyjnym modelu uczenia się dane pozostają bezpieczne w swoim środowisku. Lokalne modele ML są uczone na prywatnych zestawach danych, a aktualizacje modeli przepływają między zestawami danych, które mają być agregowane centralnie. „Dane nigdy nie muszą opuszczać swojego lokalnego środowiska” - stwierdził Zhang.   

„W ten sposób dane pozostają bezpieczne, a jednocześnie dają organizacjom„ mądrość tłumu ”,stwierdziła. „Uczenie federacyjne zmniejsza ryzyko pojedynczego ataku lub wycieku naruszającego prywatność wszystkich danych, ponieważ zamiast przebywać w jednym repozytorium, dane są rozproszone między wieloma”.  

Wytłumaczalne AI (XAI). Wiele modeli AI / ML, w szczególności sieci neuronowe, to czarne skrzynki, których dane wejściowe i operacje nie są widoczne dla zainteresowanych stron. Nowy obszar badań to wyjaśnialność, która wykorzystuje techniki pomagające zapewnić przejrzystość, takie jak drzewa decyzyjne reprezentujące złożony system, aby uczynić go bardziej odpowiedzialnym.   

"W wrażliwych dziedzinach, takich jak opieka zdrowotna, bankowość, usługi finansowe i ubezpieczenia, nie możemy ślepo ufać podejmowaniu decyzji przez sztuczną inteligencję ”- stwierdził Zhang. Na przykład konsument, któremu odmówiono kredytu bankowego, ma prawo wiedzieć, dlaczego. „XAI powinno być głównym obszarem zainteresowania organizacji rozwijających systemy AI w przyszłości” - zasugerowała. 

Operacje AI / Operacje ML. Chodzi o to, aby przyspieszyć cały cykl życia modelu ML poprzez standaryzację operacji, pomiar wydajności i automatyczne korygowanie problemów. AIOps można nakładać na następujące trzy warstwy: 

  • Infrastruktura: Zautomatyzowane narzędzia umożliwiają organizacjom skalowanie infrastruktury i nadążanie za zapotrzebowaniem na pojemność. Zhang wspomniał o powstającym podzbiorze DevOps o nazwie GitOps, który stosuje zasady DevOps do opartych na chmurze mikrousług działających w kontenerach.  
  • Zarządzanie wydajnością aplikacji (APM): Organizacje stosują APM do zarządzania przestojami i maksymalizacji wydajności. Rozwiązania APM obejmują podejście AIOps, wykorzystując sztuczną inteligencję i ML do proaktywnego identyfikowania problemów, zamiast stosować podejście reaktywne.  
  • Zarządzanie usługami IT (ITSM): Usługi IT obejmują sprzęt, oprogramowanie i zasoby obliczeniowe w ogromnych systemach. ITSM stosuje AIOps do automatyzacji przepływu pracy związanej z biletami, zarządzania incydentami i analizowania ich oraz autoryzowania i monitorowania dokumentacji w ramach swoich obowiązków. 

Przeczytaj artykuły źródłowe w  Badania rynkowe, w powiązanym raporcie z Accenture i in Projekt Enterprisers. 

Do kasy PrimeXBT
Handluj z oficjalnymi partnerami CFD AC Milan
Najłatwiejszy sposób na handel kryptowalutami.
Źródło: https://www.aitrends.com/ai-and-5g/convergence-of-ai-5g-and-augmented-reality-poses-new-security-risks/

spot_img

Najnowsza inteligencja

spot_img

Czat z nami

Cześć! Jak mogę ci pomóc?