Zephyrnet-Logo

Bewältigung der Sicherheits- und Datenschutzherausforderungen großer Sprachmodelle

Datum:

Geschäftssicherheit

Organisationen, die das Potenzial von LLMs nutzen wollen, müssen auch in der Lage sein, die Risiken zu bewältigen, die andernfalls den Geschäftswert der Technologie untergraben könnten

Bewältigung der Sicherheits- und Datenschutzherausforderungen großer Sprachmodelle

Alle reden über ChatGPT, Bard und generative KI als solche. Doch nach dem Hype kommt unweigerlich der Realitätscheck. Während Unternehmens- und IT-Führungskräfte gleichermaßen über das disruptive Potenzial der Technologie in Bereichen wie Kundenservice und Softwareentwicklung schwärmen, sind sie sich zunehmend auch einiger potenzieller Nachteile und Risiken bewusst, vor denen sie Ausschau halten müssen.

Kurz gesagt: Damit Unternehmen das Potenzial großer Sprachmodelle (LLMs) ausschöpfen können, müssen sie auch in der Lage sein, die versteckten Risiken zu bewältigen, die andernfalls den Geschäftswert der Technologie untergraben könnten.

Was ist mit LLMs los?

ChatGPT und andere generative KI-Tools werden von LLMs unterstützt. Sie nutzen künstliche neuronale Netze, um enorme Mengen an Textdaten zu verarbeiten. Nachdem das Modell die Muster zwischen Wörtern und deren Verwendung im Kontext gelernt hat, ist es in der Lage, in natürlicher Sprache mit Benutzern zu interagieren. Tatsächlich ist einer der Hauptgründe für den herausragenden Erfolg von ChatGPT seine Fähigkeit, Witze zu erzählen, Gedichte zu verfassen und allgemein auf eine Weise zu kommunizieren, die von einem echten Menschen kaum zu unterscheiden ist.

VERBUNDENE LESUNG: Schreiben wie ein Chef mit ChatGPT: So erkennen Sie Phishing-Betrug besser

Die LLM-gestützten generativen KI-Modelle, wie sie in Chatbots wie ChatGPT verwendet werden, funktionieren wie leistungsstarke Suchmaschinen und verwenden die Daten, auf denen sie trainiert wurden, um Fragen zu beantworten und Aufgaben mit menschenähnlicher Sprache zu erledigen. Unabhängig davon, ob es sich um öffentlich verfügbare Modelle oder proprietäre Modelle handelt, die intern innerhalb einer Organisation verwendet werden, kann LLM-basierte generative KI Unternehmen bestimmten Sicherheits- und Datenschutzrisiken aussetzen.

5 der wichtigsten LLM-Risiken

1. Übermäßige Weitergabe sensibler Daten

LLM-basierte Chatbots sind nicht gut darin, Geheimnisse zu bewahren – oder sie auch zu vergessen. Das bedeutet, dass alle von Ihnen eingegebenen Daten möglicherweise vom Modell aufgenommen und anderen zur Verfügung gestellt oder zumindest zum Trainieren zukünftiger LLM-Modelle verwendet werden. Samsung-Mitarbeiter Dies mussten sie auf ihre Kosten erfahren, als sie vertrauliche Informationen mit ChatGPT teilten, während sie diese für arbeitsbezogene Aufgaben nutzten. Der Code und die Besprechungsaufzeichnungen, die sie in das Tool eingegeben haben, könnten theoretisch öffentlich zugänglich sein (oder zumindest für die zukünftige Verwendung gespeichert werden, z. B Darauf weist das National Cyber ​​Security Centre des Vereinigten Königreichs hin kürzlich). Anfang des Jahres haben wir einen genaueren Blick darauf geworfen, wie Organisationen dies tun können Vermeiden Sie es, Ihre Daten bei der Verwendung von LLMs einem Risiko auszusetzen.

2. Urheberrechtliche Herausforderungen  

LLMs werden auf große Datenmengen trainiert. Diese Informationen werden jedoch häufig ohne die ausdrückliche Genehmigung des Inhaltseigentümers aus dem Internet entfernt. Dies kann zu potenziellen Urheberrechtsproblemen führen, wenn Sie es weiterhin verwenden. Allerdings kann es schwierig sein, die ursprüngliche Quelle spezifischer Trainingsdaten zu finden, was es schwierig macht, diese Probleme zu entschärfen.

3. Unsicherer Code

Entwickler greifen zunehmend auf ChatGPT und ähnliche Tools zurück, um die Markteinführungszeit zu verkürzen. Theoretisch kann es dabei helfen, Codeschnipsel und sogar ganze Softwareprogramme schnell und effizient zu generieren. Allerdings warnen Sicherheitsexperten, dass dadurch auch Schwachstellen entstehen können. Dies ist insbesondere dann besorgniserregend, wenn der Entwickler nicht über ausreichende Domänenkenntnisse verfügt, um zu wissen, nach welchen Fehlern er suchen muss. Wenn später fehlerhafter Code in die Produktion gelangt, kann dies schwerwiegende Auswirkungen auf den Ruf haben und die Behebung erfordert Zeit und Geld.

4. Das LLM selbst hacken

Unbefugter Zugriff auf LLMs und Manipulationen an ihnen könnten Hackern eine Reihe von Möglichkeiten bieten, böswillige Aktivitäten durchzuführen, beispielsweise das Modell dazu zu bringen, vertrauliche Informationen über Prompt-Injection-Angriffe preiszugeben oder andere Aktionen auszuführen, die blockiert werden sollen. Bei anderen Angriffen kann es sich um die Ausnutzung von SSRF-Schwachstellen (Server-Side Request Forgery) in LLM-Servern handeln, die es Angreifern ermöglichen, interne Ressourcen zu extrahieren. Bedrohungsakteure könnten sogar einen Weg finden, mit vertraulichen Systemen und Ressourcen zu interagieren, indem sie einfach böswillige Befehle über Eingabeaufforderungen in natürlicher Sprache senden.

VERBUNDENE LESUNG: Black Hat 2023: KI erhält hohes Preisgeld für Verteidiger

Als Beispiel: ChatGPT musste offline genommen werden im März nach der Entdeckung einer Sicherheitslücke, die die Titel aus den Konversationsverläufen einiger Benutzer für andere Benutzer offenlegte. Um das Bewusstsein für Schwachstellen in LLM-Anwendungen zu schärfen, hat die OWASP Foundation kürzlich eine Liste von Schwachstellen veröffentlicht 10 kritische Sicherheitslücken wird bei diesen Anwendungen häufig beobachtet.

5. Ein Datenverstoß beim KI-Anbieter

Es besteht immer die Möglichkeit, dass ein Unternehmen, das KI-Modelle entwickelt, selbst angegriffen wird, sodass Hacker beispielsweise Trainingsdaten stehlen können, die vertrauliche proprietäre Informationen enthalten könnten. Gleiches gilt für Datenlecks – etwa wenn Google versehentlich Datenlecks verursacht hat Durchsickern privater Barden-Chats in seine Suchergebnisse.

Was ist als nächstes zu tun?

Wenn Ihr Unternehmen das Potenzial generativer KI für Wettbewerbsvorteile nutzen möchte, sollte es zunächst einige Maßnahmen ergreifen, um einige dieser Risiken zu mindern:

  • Datenverschlüsselung und Anonymisierung: Verschlüsseln Sie Daten, bevor Sie sie mit LLMs teilen, um sie vor neugierigen Blicken zu schützen, und/oder ziehen Sie Anonymisierungstechniken in Betracht, um die Privatsphäre von Personen zu schützen, die in den Datensätzen identifiziert werden könnten. Die Datenbereinigung kann das gleiche Ziel erreichen, indem sensible Details aus Trainingsdaten entfernt werden, bevor sie in das Modell eingespeist werden.
  • Erweiterte Zugangskontrollen: Starke Passwörter, Multi-Faktor-Authentifizierung (MFA) und Least-Privilege-Richtlinien tragen dazu bei, sicherzustellen, dass nur autorisierte Personen Zugriff auf das generative KI-Modell und die Back-End-Systeme haben.
  • Regelmäßige Sicherheitsaudits: Dies kann dazu beitragen, Schwachstellen in Ihren IT-Systemen aufzudecken, die sich auf das LLM und die generativen KI-Modelle auswirken können, auf denen es basiert.
  • Üben Sie Pläne zur Reaktion auf Vorfälle: Ein gut ausgearbeiteter und solider IR-Plan hilft Ihrem Unternehmen, schnell zu reagieren, um etwaige Verstöße einzudämmen, zu beheben und sich davon zu erholen.
  • Überprüfen Sie LLM-Anbieter gründlich: Wie bei jedem Anbieter ist es wichtig sicherzustellen, dass das Unternehmen, das das LLM bereitstellt, die Best Practices der Branche in Bezug auf Datensicherheit und Datenschutz befolgt. Stellen Sie sicher, dass klare Angaben darüber vorliegen, wo Benutzerdaten verarbeitet und gespeichert werden und ob sie zum Trainieren des Modells verwendet werden. Wie lange wird es aufbewahrt? Wird es an Dritte weitergegeben? Können Sie der Verwendung Ihrer Daten für Schulungen zustimmen bzw. widersprechen?
  • Stellen Sie sicher, dass Entwickler strenge Sicherheitsrichtlinien befolgen: Wenn Ihre Entwickler LLMs zum Generieren von Code verwenden, stellen Sie sicher, dass sie sich an Richtlinien wie Sicherheitstests und Peer-Reviews halten, um das Risiko zu verringern, dass sich Fehler in die Produktion einschleichen.

Die gute Nachricht ist, dass es nicht nötig ist, das Rad neu zu erfinden. Bei den meisten der oben genannten Tipps handelt es sich um bewährte Best-Practice-Sicherheitstipps. Sie müssen möglicherweise für die KI-Welt aktualisiert/optimiert werden, aber die zugrunde liegende Logik sollte den meisten Sicherheitsteams vertraut sein.

WEITERE LESUNG: A Bard's Tale – wie gefälschte KI-Bots versuchen, Malware zu installieren

spot_img

Neueste Intelligenz

spot_img