Zephyrnet-Logo

Anpassung der Sicherheit zum Schutz von KI/ML-Systemen

Datum:

Künstliche Intelligenz (KI) ist nicht nur das neueste Schlagwort in der Wirtschaft; Es verändert Branchen rasant und definiert Geschäftsprozesse neu. Doch während Unternehmen darum kämpfen, KI und maschinelles Lernen (ML) in alle Facetten ihrer Abläufe zu integrieren, führen sie auch neue Technologien ein neue Sicherheits- und Risikoherausforderungen. Da der Schwerpunkt auf agilen Entwicklungspraktiken liegt, um einen Wettbewerbsvorteil zu erzielen, tritt die Sicherheit in den Hintergrund. Dies war in den Anfängen des World Wide Web und mobiler Anwendungen der Fall, und wir sehen es im Sprint zur KI erneut.

Die Art und Weise, wie KI- und ML-Systeme aufgebaut, trainiert und betrieben werden, unterscheidet sich erheblich von der Entwicklungspipeline herkömmlicher IT-Systeme, Websites oder Apps. Während einige der gleichen Risiken, die bei der traditionellen IT-Sicherheit bestehen, auch bei KI/ML weiterhin relevant sind, gibt es sie doch mehrere bedeutende und herausfordernde Unterschiede. Im Gegensatz zu einer Webanwendung, die auf einer Datenbank basiert, basieren KI-Anwendungen auf ML-Modellen. Der Prozess der Modellerstellung umfasst das Sammeln, Bereinigen und Verfeinern von Daten; Trainieren von ML-Modellen anhand der Daten; Führen Sie diese Modelle dann im großen Maßstab aus, um Schlussfolgerungen zu ziehen und basierend auf dem, was sie lernen, zu iterieren.

Es gibt vier Hauptbereiche, in denen traditionelle Software- und KI/ML-Entwicklung voneinander abweichen. Dies sind jeweils geänderte Zustände gegenüber dynamischen Zuständen, Regeln und Begriffe gegenüber Verwendung und Eingabe, Proxy-Umgebungen gegenüber Live-Systemen und Versionskontrolle gegenüber Herkunftsänderungen.

Open-Source-KI/ML-Tools, wie z MLflow und Strahl, bieten praktische Frameworks zum Erstellen von Modellen. Doch viele dieser Open-Source-Software (OSS)-Tools und -Frameworks weisen sofort einsatzbereite Schwachstellen auf, die zu schwerwiegenden Ausnutzungen und Schäden führen können. Für sich genommen schaffen KI/ML-Bibliotheken selbst eine viel größere Angriffsfläche, da sie riesige Mengen an Daten und Modellen enthalten, die nur so sicher sind wie das KI/ML-Tool, in dem sie gespeichert sind. Wenn diese Tools kompromittiert werden, können Angreifer auf mehrere zugreifen Vertrauliche Informationen aus Datenbanken löschen, Modelle ändern und Malware einschleusen.

Security by Design für KI/ML

Der traditionellen IT-Sicherheit fehlen mehrere Schlüsselfunktionen zum Schutz von KI-/ML-Systemen. Erstens gibt es die Möglichkeit, Tools zu scannen, die Datenwissenschaftler beispielsweise zur Entwicklung der Bausteine ​​von KI-/ML-Systemen verwenden Jupyter Notizbücher und andere Werkzeuge in der KI/ML-Lieferkette, auf Sicherheitslücken.

Während Datenschutz ein zentraler Bestandteil der IT-Sicherheit ist, kommt ihm bei KI/ML eine zusätzliche Bedeutung zu, da ständig Live-Daten zum Trainieren eines Modells verwendet werden. Dies öffnet einem Angreifer die Tür zur Manipulation von KI-/ML-Daten und kann dazu führen, dass Modelle beschädigt werden und ihre beabsichtigten Funktionen nicht mehr erfüllen.

In KI/ML-Umgebungen erfordert der Datenschutz die Erstellung eines unveränderlichen Datensatzes, der Daten mit dem Modell verknüpft. Wenn die Daten in irgendeiner Weise modifiziert oder verändert werden, würde ein Benutzer, der das Modell neu trainieren möchte, daher feststellen, dass die Hashing-Werte (die verwendet werden, um die Integrität der Daten während der Übertragung sicherzustellen) nicht übereinstimmen. Dieser Prüfpfad erstellt einen Datensatz, um nachzuverfolgen, wann die Datendatei bearbeitet wurde und wo diese Daten gespeichert sind, um festzustellen, ob ein Verstoß vorliegt.

Darüber hinaus ist das Scannen von KI/ML-Modellen erforderlich, um Sicherheitsbedrohungen wie Befehlsinjektion zu erkennen. Das liegt daran, dass es sich bei einem Modell um einen Vermögenswert handelt, der im Speicher abgelegt wird. Beim Speichern auf der Festplatte (zur Verteilung an Kollegen) kann jedoch Code in das Format eingefügt werden. Während das Modell also weiterhin genau wie zuvor läuft, führt es beliebigen Code aus.

Angesichts dieser einzigartigen Herausforderungen sind hier einige nützliche Best Practices, die Sie berücksichtigen sollten:

  • Finden Sie Abhängigkeiten für Schwachstellen: Durch kontextualisierte Sichtbarkeit und leistungsstarke Abfragetools kann in Echtzeit eine umfassende Sicht auf alle ML-Systeme generiert werden. Es sollte alle an der KI/ML-Entwicklung beteiligten Anbieter, Cloud-Anbieter und Lieferkettenressourcen umfassen, um einen Überblick über alle Abhängigkeiten und Bedrohungen zu bieten. In einer dynamischen ML-Stückliste (ML BOM) können alle Komponenten und Abhängigkeiten aufgelistet werden, wodurch das Unternehmen einen vollständigen Überblick über alle KI/ML-Systeme im Netzwerk erhält.

  • Sichere Cloud-Berechtigungen: Datenlecks durch Cloud-Container können eine fatale Schwachstelle in der KI-Sicherheit darstellen, da das Modell beim Lernen auf diese Daten angewiesen ist. Das Scannen von Berechtigungen in der Cloud hat Priorität, um Datenverlust zu verhindern.

  • Priorisieren Sie die Sicherheit der Datenspeicherung: Implementieren Sie integrierte Sicherheitsprüfungen, Richtlinien und Gates, um automatisch über Richtlinienverstöße zu berichten und Warnmeldungen zu senden, um die Modellsicherheit durchzusetzen.

  • Scan-Entwicklungstools: So wie sich Entwicklungsabläufe zu Entwicklungssicherheitsabläufen entwickelt haben, muss die KI/ML-Entwicklung Sicherheit in den Entwicklungsprozess integrieren und Entwicklungsumgebungen und Tools wie ML Flow und ihre Abhängigkeiten zusammen mit allen KI/ML-Modellen und Dateneingaben auf etwaige Schwachstellen scannen.

  • Regelmäßige Audits: Automatisierte Tools können die notwendigen unveränderlichen Ledger bereitstellen, die als zeitgestempelte Versionen der KI/ML-Umgebung dienen. Dies unterstützt die forensische Analyse im Falle eines Verstoßes und zeigt, wer wo und wann möglicherweise gegen die Richtlinie verstoßen hat. Darüber hinaus können Audits dazu beitragen, Schutzmaßnahmen zu aktualisieren, um der Bedrohungslandschaft entgegenzuwirken.

Um das Potenzial von KI auszuschöpfen und gleichzeitig die inhärenten Sicherheitsrisiken anzugehen, sollten Unternehmen die Implementierung der oben aufgeführten Best Practices in Betracht ziehen und mit der Umsetzung beginnen MLSecOps.

spot_img

Neueste Intelligenz

spot_img