Zephyrnet-Logo

Microsoft führt diese Sicherheitstools für Azure AI ein

Datum:

Microsoft hat eine Reihe von Tools eingeführt, die angeblich dazu beitragen sollen, die Verwendung von KI-Modellen in Azure sicherer zu machen.

Seitdem die Cloud-and-Code-Branche damit begonnen hat, Geld in OpenAI zu stecken und ihr Software-Imperium mit Chatbot-Funktionen auszustatten – ein Drama, das von Konkurrenten mit gleichem Eifer inmitten grandioser Produktivitätsversprechen inszeniert wird – muss Microsoft anerkennen, dass generative KI mit Risiken verbunden ist.

Das Gefahren sind weithin bekannt und werden manchmal leichtfertig beiseite gewischt. Vor einem Jahrzehnt warnte Elon Musk davor, dass KI dies tun könnte die Menschheit zerstören. Doch diese Sorge hielt ihn nicht davon ab, KI verfügbar zu machen Autos, auf seinem Social-Media-Megaphon, und vielleicht bald in Roboter.

Das Aufkommen großer Sprachmodelle, die halluzinieren und falsche oder schädliche Antworten bieten, hat zu einer Rückkehr ans Reißbrett, aber in den Sitzungssaal für weitere Finanzierung geführt. Anstatt ein sicheres, ethisch vertretbares Produkt herzustellen, versucht die Technologiebranche, wilde Models zu zähmen oder sie zumindest weit genug von Kunden fernzuhalten, die Amok laufen können, ohne jemanden zu verletzen.

Und wenn das nicht funktioniert, gibt es immer noch etwas Entschädigung unter bestimmten Voraussetzungen von Rechtsansprüchen gegen Lieferanten freizustellen.

Die Verpflichtungen der Industrie zur KI-Sicherheit decken sich mit entsprechenden Forderungen der Regierung. In den USA hat am Donnerstag das Office of Management and Budget (OMB) des Weißen Hauses ausgegeben seine erste regierungsweite Richtlinie zur Bewältigung von KI-Risiken.

Die Richtlinie verpflichtet die Bundesbehörden, bis zum 1. Dezember „konkrete Sicherheitsvorkehrungen zu treffen, wenn KI in einer Weise eingesetzt wird, die sich auf die Rechte oder die Sicherheit der Amerikaner auswirken könnte“. Das bedeutet Risikobewertungen, Tests und Überwachung sowie Bemühungen, Diskriminierung und Voreingenommenheit einzudämmen und zu fördern Transparenz für KI-Anwendungen in den Bereichen Gesundheit, Bildung, Wohnen und Beschäftigung.

So informiert Microsoft über seine neuesten KI-Sicherheitsmaßnahmen durch Sarah Bird, Chief Product Officer für verantwortungsvolle KI, ein Titel, der die Existenz unverantwortlicher KI impliziert – wenn Sie sich das vorstellen können.

Bird sagt, dass Unternehmensführer versuchen, Innovation und Risikomanagement in Einklang zu bringen, um ihnen die Nutzung generativer KI zu ermöglichen, ohne davon gebissen zu werden.

„Prompt-Injection-Angriffe haben sich zu einer großen Herausforderung entwickelt, bei der böswillige Akteure versuchen, ein KI-System so zu manipulieren, dass es etwas tut, das nicht seinem beabsichtigten Zweck entspricht, beispielsweise schädliche Inhalte produziert oder vertrauliche Daten herausfiltert“, erklärt Bird in einem Blog-Post.

„Zusätzlich zur Minderung dieser Sicherheitsrisiken sind Unternehmen auch auf Qualität und Zuverlässigkeit bedacht. Sie möchten sicherstellen, dass ihre KI-Systeme keine Fehler generieren oder Informationen hinzufügen, die nicht in den Datenquellen der Anwendung begründet sind, was das Vertrauen der Benutzer untergraben kann.“

Da Sicherheit und Genauigkeit nicht in der KI-Abonnementgebühr enthalten sind, sieht Microsoft eine Chance um sie zu verkaufen als Zusatz.

Kunden, die Azure AI Studio zur Erstellung generativer KI-Apps nutzen, können sich auf vier neue Tools freuen.

Erstens gibt es Sofortige Schilde, die bei der Abwehr von Prompt-Injection-Attacken helfen sollen. Früher bekannt als Jailbreak Risk Detection und jetzt in der öffentlichen Vorschau, ist es eine Möglichkeit, das Risiko direkter und indirekter sofortiger Einmischung in Basismodelle zu mindern.

Bei direkten Angriffen handelt es sich um Aufforderungen (Eingaben), die das Modell dazu bringen sollen, sein Sicherheitstraining zu ignorieren. Unter indirekten Angriffen versteht man Versuche, heimlich Eingaben in ein Modell einzuschleusen. Eine Möglichkeit, dies zu tun, könnte darin bestehen, versteckten Text in eine E-Mail einzufügen, mit dem Wissen, dass ein KI-Modell, das beispielsweise im Namen des Empfängers über Copilot in Outlook handelt, die Nachricht analysiert, den versteckten Text als Befehl interpretiert und hoffentlich Befolgen Sie die Anweisungen und antworten Sie beispielsweise stillschweigend mit vertraulichen Daten.

Zweitens ist Erdungerkennung, ein System zum Erkennen, wenn KI-Modelle halluzinieren oder Dinge erfinden. Es bietet Kunden mehrere Optionen, wenn eine falsche Behauptung entdeckt wird, einschließlich der Rücksendung der Antwort zur Überarbeitung vor der Anzeige. Microsoft gibt an, dies durch die Entwicklung eines benutzerdefinierten Sprachmodells erreicht zu haben, das unbegründete Behauptungen anhand von Quelldokumenten bewertet. Die Antwort auf die Sicherheit von KI-Modellen ist also, Sie haben es erraten, ein anderes Modell.

Obwohl dies ein wunderbarer Schritt in Richtung vertrauenswürdiger KI ist, ist das Problem immer noch ungelöst

Drittens haben wir KI-gestützte Sicherheitsbewertungen in AI Studio, das ein Test-Framework für die Darstellung von Eingabeaufforderungsvorlagen und Parametern zur Modellierung bereitstellt, das verschiedene gegnerische Interaktionen mit der Anwendung des Kunden testet. Auch hier gilt es, KI zu testen.

Und schließlich ist da noch etwas „Risiken- und Sicherheitsüberwachung“, eine Funktion für den Azure OpenAI Service, die Kennzahlen zu schädlichen Inhalten bereitstellt.

Vinu Sankar Sadasivan, ein Doktorand an der University of Maryland, der an der Entwicklung beteiligt war BEAST-Angriff über LLMs, erzählt Das Register Es ist zwar spannend zu sehen, wie Azure Tools entwickelt, um die KI sicherer zu machen, aber das Hinzufügen weiterer Modelle in den Mix vergrößert die potenzielle Angriffsfläche.

„Die Sicherheitsbewertungen sowie die Risiko- und Sicherheitsüberwachungstools von Azure sind wichtig für die Untersuchung der Zuverlässigkeit von KI-Modellen“, sagte er. „Obwohl dies ein wunderbarer Schritt in Richtung vertrauenswürdiger KI ist, ist das Problem immer noch ungelöst. Beispielsweise nutzen die von ihnen eingeführten Prompt Shields vermutlich ein anderes KI-Modell, um indirekte Prompt-Angriffe zu erkennen und zu blockieren. Dieses KI-Modell kann anfällig für Bedrohungen wie gegnerische Angriffe sein.

„Angreifer könnten diese Schwachstellen ausnutzen, um Prompt Shields zu umgehen. Obwohl sich Sicherheitssystemmeldungen in einigen Fällen als effektiv erwiesen haben, können bestehende Angriffe wie BEAST KI-Modelle in kürzester Zeit gegnerisch angreifen, um sie zu jailbreaken. Obwohl es von Vorteil ist, Schutzmaßnahmen für KI-Systeme zu implementieren, ist es wichtig, sich ihrer potenziellen Nachteile bewusst zu bleiben.“ ®

spot_img

Neueste Intelligenz

spot_img