Zephyrnet-Logo

Die Konvergenz von KI, 5G und Augmented Reality birgt neue Sicherheitsrisiken 

Datum:

Von John P. Desmond, AI-Trends Herausgeber  

Rund 500 C- und C-Level-Experten für Unternehmen und Sicherheit von Unternehmen mit einem Umsatz von über 5 Milliarden US-Dollar in verschiedenen Branchen äußerten sich in einer kürzlich von Accenture durchgeführten Umfrage besorgt über die potenziellen Sicherheitslücken, die durch die gleichzeitige Verfolgung von KI-, 5G- und Augmented-Reality-Technologien entstehen .  

Claudio Ordóñez, Cybersecurity Leader für Accenture in Chile

Um beispielsweise KI-Modelle richtig zu trainieren, muss das Unternehmen die Daten schützen, die zum Trainieren der KI und der Umgebung, in der sie erstellt wird, erforderlich sind. Wenn das Modell verwendet wird, müssen die bewegten Daten geschützt werden. Daten können weder aus technischen oder Sicherheitsgründen noch zum Schutz des geistigen Eigentums an einem Ort gesammelt werden. „Daher müssen Unternehmen sicheres Lernen einführen, damit die verschiedenen Parteien zusammenarbeiten können “, erklärte Claudio Ordóñez, Cybersecurity Leader für Accenture in Chile, in einem kürzlich veröffentlichten Bericht in Marktforschung Biz.  

Unternehmen müssen sichere Softwareentwicklungspraktiken erweitern, die als bekannt sind DevSecOps, um die KI während des gesamten Lebenszyklus zu schützen. "Leider gibt es keine Silberkugel, um sich gegen KI-Manipulationen zu verteidigen. Daher müssen geschichtete Funktionen eingesetzt werden, um das Risiko in Geschäftsprozessen zu verringern, die auf künstlicher Intelligenz basieren", erklärte er. Zu den Maßnahmen gehören allgemeine Sicherheitsfunktionen und -kontrollen wie die Bereinigung von Eingabedaten, das Absichern der Anwendung und das Einrichten von Sicherheitsanalysen. Darüber hinaus müssen Schritte unternommen werden, um die Datenintegrität, die Genauigkeitskontrolle und die Manipulationserkennung zu verbessern, und frühzeitige Reaktionsfähigkeit.    

Risiko der Modellextraktion und Angriffe auf die Privatsphäre  

Modelle für maschinelles Lernen haben einige einzigartige Sicherheits- und Datenschutzprobleme aufgezeigt. "Wenn ein Modell externen Datenanbietern ausgesetzt ist, besteht möglicherweise das Risiko einer Modellextraktion." Ordonez gewarnt. In diesem Fall der Hacker möglicherweise in der Lage zu sein, Reverse Engineering des Modells und Generieren eines Ersatzmodells, das die Funktion des Originalmodells reproduziert, jedoch mit veränderten Ergebnissen. "Dies hat offensichtliche Auswirkungen auf die Vertraulichkeit des geistigen Eigentums", erklärte er.  

Zum Schutz vor Modellextraktion und Angriffen auf die Privatsphäre sind Kontrollen erforderlich. Einige sind einfach anzuwenden, z. B. Ratenbeschränkungen, aber einige Modelle erfordern möglicherweise eine ausgefeiltere Sicherheit, z. B. eine Analyse abnormaler Nutzung. Wenn das KI-Modell als Service bereitgestellt wird, müssen Unternehmen Sicherheitskontrollen in der Cloud-Service-Umgebung berücksichtigen. „Open Source oder extern generierte Daten und Modelle bieten Angriffsmethoden für Organisationen “, erklärte Ordóñez, da Angreifer möglicherweise manipulierte Daten einfügen und die interne Sicherheit umgehen können.   

Auf die Frage, wie ihre Organisationen planen, das technische Wissen zu schaffen, das zur Unterstützung neuer Technologien erforderlich ist, gaben die meisten Befragten der Accenture-Umfrage an, dass sie vorhandene Mitarbeiter schulen würden (77)%), würde mit Organisationen zusammenarbeiten oder mit ihnen zusammenarbeiten, die über die Erfahrung verfügen (73%), neue Talente einstellen (73%) und erwerben neue Unternehmen oder Startups (49%).  

Die Zeit, die erforderlich ist, um Fachkräfte in diesen Fähigkeiten auszubilden, wird nach Ansicht von Ordóñez unterschätzt. Darüber hinaus gehen die Befragten davon aus, dass über AI, 5G, Quantencomputer und Extended Reality enorme Talente zur Verfügung stehen, aber die Realität ist, dass es auf dem Markt einen Mangel an diesen Fähigkeiten gibt und geben wird, erklärte er. "Um das Problem zu verschärfen, wird es noch schwieriger sein, Sicherheitstalente mit diesen neuen technischen Fähigkeiten zu finden", erklärte er.  

Die Funktionen der 5G-Technologie werfen neue Sicherheitsprobleme auf, einschließlich der Virtualisierung, die die Angriffsfläche erweitert, und der „hypergenauen“ Verfolgung von Angriffsorten, wodurch die Datenschutzbedenken für Benutzer zunehmen. „Wie das Wachstum von Cloud-Diensten hat 5G das Potenzial, Schattennetzwerke zu erstellen, die außerhalb des Wissens und des Managements des Unternehmens arbeiten“, erklärte Ordóñez.  

"Die Geräteregistrierung muss eine Authentifizierung enthalten, um die Angriffsfläche des Unternehmens zu handhaben. Ohne sie kann die Integrität der Nachrichten und die Identität des Benutzers nicht gewährleistet werden “, erklärte er. Unternehmen benötigen die Verpflichtung des Chief Information Security Officer (CISO), um effektiv zu sein. "Erfolg erfordert von Anfang an und im gesamten Innovationsalltag ein erhebliches Engagement und Know-how des CISO im Bereich Cyber-Risikomanagement, einschließlich der richtigen Einstellung, des richtigen Verhaltens und der richtigen Kultur, um dies zu erreichen."  

Augmented Reality bringt auch eine Reihe neuer Sicherheitsrisiken mit sich, darunter Sicherheitsaspekte in Bezug auf den Standort, die Vertrauenserkennung, den Inhalt von Bildern und Umgebungsgeräuschen sowie die „Inhaltsmaskierung“. In diesem Zusammenhang kann „Der Befehl„ Dieses Ventil öffnen “auf das falsche Objekt gerichtet werden und eine katastrophale Aktivierung auslösen“, schlug Ordóñez vor.  

Techniken zum Schutz des Datenschutzes in der 5G-Ära 

Jiani Zhang, Präsident der Alliance and Industrial Solution Unit, Persistent Systems

Der Datenschutz ist eines der wichtigsten Themen des Jahrzehnts, da die KI erweitert wird und gleichzeitig mehr rechtliche Rahmenbedingungen geschaffen werden. Verschiedene Datenverwaltungstechniken können Unternehmen dabei helfen, die Richtlinien einzuhalten und sicher zu sein, schlug J voriani Zhang, Präsidentin der Alliance and Industrial Solution Unit bei Persistent Systems, arbeitet eng mit IBM und Red Hat zusammen, um Lösungen für Kunden zu entwickeln Das Enterprisers-Projekt. 

Föderiertes Lernen. In einem Bereich mit sensiblen Benutzerdaten wie dem Gesundheitswesen bestand die traditionelle Weisheit des letzten Jahrzehnts darin, Daten nach Möglichkeit zu "unsilo". Die Aggregation von Daten, die zum Trainieren und Bereitstellen von Algorithmen für maschinelles Lernen erforderlich sind, hat jedoch zu „schwerwiegenden Datenschutz- und Sicherheitsproblemen“ geführt, insbesondere wenn Daten innerhalb von Organisationen gemeinsam genutzt werden. 

In einem Verbundlernmodell bleiben Daten in ihrer Umgebung sicher. Lokale ML-Modelle werden an privaten Datensätzen trainiert, und Modellaktualisierungen fließen zwischen den Datensätzen, die zentral aggregiert werden sollen. "Die Daten müssen niemals ihre lokale Umgebung verlassen", erklärte Zhang.   

„Auf diese Weise bleiben die Daten sicher und geben Unternehmen dennoch die‚ Weisheit der Masse '."  Sie bemerkte. "Federated Learning reduziert das Risiko eines einzelnen Angriffs oder Lecks, das die Privatsphäre aller Daten beeinträchtigt, da die Daten nicht in einem einzigen Repository gespeichert, sondern auf viele verteilt werden."  

Erklärbare KI (XAI). Viele AI / ML-Modelle, insbesondere neuronale Netze, sind Black Boxes, deren Eingaben und Operationen für interessierte Parteien nicht sichtbar sind. Ein neues Forschungsgebiet ist Erklärbarkeit, das Techniken verwendet, um Transparenz zu schaffen, wie z. B. Entscheidungsbäume, die ein komplexes System darstellen, um es rechenschaftspflichtiger zu machen.   

"In sensiblen Bereichen wie Gesundheitswesen, Bankwesen, Finanzdienstleistungen und Versicherungen können wir KI-Entscheidungen nicht blind vertrauen “, erklärte Zhang. Ein Verbraucher, der beispielsweise für einen Bankkredit abgelehnt wurde, hat das Recht zu wissen, warum. "XAI sollte ein Hauptschwerpunkt für Organisationen sein, die in Zukunft KI-Systeme entwickeln", schlug sie vor. 

AI Ops / ML Ops. Die Idee ist, den gesamten Lebenszyklus des ML-Modells zu beschleunigen, indem Vorgänge standardisiert, die Leistung gemessen und Probleme automatisch behoben werden. AIOps kann auf die folgenden drei Ebenen angewendet werden: 

  • Infrastruktur: Mit automatisierten Tools können Unternehmen ihre Infrastruktur skalieren und mit den Kapazitätsanforderungen Schritt halten. Zhang erwähnte eine aufkommende Untergruppe von DevOps namens GitOps, die DevOps-Prinzipien auf Cloud-basierte Mikrodienste anwendet, die in Containern ausgeführt werden.  
  • Anwendungsleistungsmanagement (APM): Unternehmen wenden APM an, um Ausfallzeiten zu verwalten und die Leistung zu maximieren. APM-Lösungen beinhalten einen AIOps-Ansatz, bei dem AI und ML verwendet werden, um Probleme proaktiv zu identifizieren, anstatt einen reaktiven Ansatz zu verfolgen.  
  • IT Service Management (ITSM): IT-Services umfassen Hardware-, Software- und Computerressourcen in massiven Systemen. ITSM wendet AIOps an, um Ticketing-Workflows zu automatisieren, Vorfälle zu verwalten und zu analysieren sowie die Dokumentation zu autorisieren und zu überwachen. 

Lesen Sie die Quellartikel in  Marktforschung Biz, im zugehörigen Bericht von Accenture und in Das Enterprisers-Projekt. 

Kasse PrimeXBT
Handel mit den offiziellen CFD-Partnern des AC Mailand
Der einfachste Weg, um mit Krypto zu handeln.
Quelle: https://www.aitrends.com/ai-and-5g/convergence-of-ai-5g-and-augmented-reality-poses-new-security-risks/

spot_img

Neueste Intelligenz

spot_img