Zephyrnet-Logo

Der Einfluss von KI auf die Cybersicherheit – DATAVERSITY

Datum:

Künstliche Intelligenz hat in allen Bereichen, von der Wegnahme von Arbeitsplätzen über die Verbreitung von Desinformation bis hin zur Verletzung von Urheberrechten, große Medienaufmerksamkeit auf sich gezogen. Die Auswirkungen von KI auf die Cybersicherheit sind jedoch möglicherweise ihr drängendstes unmittelbares Problem.

Die Auswirkungen von KI auf Sicherheitsteams sind vorhersehbar zweischneidig. Bei richtiger Anwendung kann es ein starker Kraftmultiplikator für Cybersicherheitsexperten sein, beispielsweise durch die Verarbeitung riesiger Datenmengen mit Computergeschwindigkeit, das Finden von Verbindungen zwischen entfernten Datenpunkten, das Erkennen von Mustern, das Erkennen von Angriffen und das Vorhersagen von Angriffsverläufen. Sicherheitsexperten sind sich jedoch bewusst, dass KI nicht immer richtig eingesetzt wird. Es verschärft die ohnehin schon beeindruckende Palette an Cybersicherheitsbedrohungen, von Identitätsgefährdung und Phishing bis hin zu Ransomware und Lieferkettenangriffen.

CISOs und Sicherheitsteams müssen sowohl die Vorteile als auch die Risiken von KI verstehen, was eine umfassende Neuausrichtung der Fähigkeiten erfordert. Sicherheitsingenieure müssen beispielsweise die Grundlagen des maschinellen Lernens, Modellqualität und -verzerrungen, Konfidenzniveaus und Leistungsmetriken beherrschen. Datenwissenschaftler Sie müssen die Grundlagen der Cybersicherheit, Angriffsmuster und Risikomodellierung erlernen, um effektiv zu Hybridteams beitragen zu können.

KI-Modelle benötigen eine angemessene Schulung, um die Cybersicherheit zu unterstützen

Die Aufgabe, mit der Verbreitung KI-gestützter Bedrohungen umzugehen, verschärft die Herausforderungen für CISOs und bereits überlastete Sicherheitsteams, die sich nicht nur mit neuen, raffinierten Phishing-Kampagnen auseinandersetzen müssen, die von einem erstellt wurden großes Sprachmodell (LLM) wie ChatGPT, müssen sich aber dennoch um einen ungepatchten Server in der DMZ sorgen, der eine größere Bedrohung darstellen könnte.

KI hingegen kann Teams viel Zeit und Aufwand bei der Risikobewertung und der Erkennung von Bedrohungen ersparen. Es kann auch bei der Reaktion hilfreich sein – allerdings muss dies sorgfältig erfolgen. Ein KI-Modell kann Analysten dabei unterstützen, zu lernen, wie sie Vorfälle selektieren, und diese Aufgaben dann entweder selbst ausführen oder Fälle für die menschliche Überprüfung priorisieren. Aber Teams müssen sicher sein, dass die richtigen Leute die KI-Anweisungen erteilen.

Vor Jahren habe ich beispielsweise ein Experiment durchgeführt, bei dem ich 10 Analysten mit unterschiedlichem Qualifikationsniveau 100 Fälle von mutmaßlicher Datenexfiltration überprüfen ließ. Zwei leitende Analysten identifizierten alle positiven und negativen Aspekte richtig, drei weniger erfahrene Analysten lagen in fast allen Fällen falsch und die restlichen fünf erhielten zufällige Ergebnisse. Egal wie gut ein KI-Modell ist, es wäre nutzlos, wenn es von einem solchen Team trainiert würde.

KI ist wie ein leistungsstarkes Auto: Sie kann in den Händen eines erfahrenen Fahrers Wunder bewirken, in den Händen eines unerfahrenen Fahrers jedoch großen Schaden anrichten. Dies ist ein Bereich, in dem der Fachkräftemangel die Auswirkungen von KI auf die Cybersicherheit beeinträchtigen kann.

Wie können CTOs eine KI-Lösung auswählen?

Angesichts des Hypes um KI könnten Unternehmen versucht sein, die Technologie einfach überstürzt einzuführen. Aber zusätzlich zum richtigen Training der KI müssen CTOs auch Fragen beantworten, angefangen bei Eignungsfragen:

  • Passt KI in das Ökosystem der Organisation? Dazu gehören die Plattform, externe Komponenten wie eine Datenbank und eine Suchmaschine, freie und Open-Source-Software und Lizenzierung sowie die Sicherheit und Zertifizierungen, Backup und Failover der Organisation. 
  • Lässt sich KI an die Größe des Unternehmens anpassen?
  • Welche Fähigkeiten sind für das Sicherheitsteam erforderlich, um KI zu warten und zu betreiben?

CTOs müssen sich auch speziell mit Fragen einer KI-Lösung befassen: 

  • Welche der beanspruchten Funktionen eines bestimmten KI-Produkts stimmen mit Ihren Geschäftszielen überein?
  • Kann die gleiche Funktionalität mit vorhandenen Tools erreicht werden?
  • Erkennt die Lösung tatsächlich Bedrohungen?

Diese letzte Frage kann schwer zu beantworten sein, da böswillige Cybersicherheitsereignisse im Vergleich zu legitimen Aktivitäten in einem winzigen Ausmaß auftreten. In einer begrenzten Proof-of-Concept-Studie mit Live-Daten erkennt ein KI-Tool möglicherweise nichts, wenn nichts vorhanden ist. Anbieter verwenden häufig synthetische Daten oder Red-Team-Angriffe, um die Leistungsfähigkeit einer KI zu demonstrieren. Es bleibt jedoch die Frage, ob sie tatsächliche Erkennungsfähigkeit demonstriert oder lediglich die Annahme validiert, unter der die Indikatoren generiert wurden.

Es ist schwierig herauszufinden, warum eine KI denkt, dass etwas ein Angriff war, da KI-Algorithmen im Wesentlichen Black Boxes sind und immer noch nicht erklären können, wie sie zu einer bestimmten Schlussfolgerung gelangt sind – wie die DARPA zeigt Erklärbare KI (XAI)

Die Risiken der KI mindern

Eine KI-Lösung ist nur so gut wie die Daten, mit denen sie arbeitet. Um ethisches Verhalten sicherzustellen, sollten KI-Modelle anhand ethischer Daten trainiert werden und nicht anhand der Massensammlung von Müll im World Wide Web. Und jeder Datenwissenschaftler weiß, dass die Erstellung eines ausgewogenen, unvoreingenommenen und sauberen Datensatzes zum Trainieren eines Modells eine schwierige, mühsame und unspektakuläre Aufgabe ist. 

Aus diesem Grund können KI-Modelle, einschließlich LLMs, letztendlich auf eine Weise verwaltet werden, die der Cybersicherheit am besten entspricht – als spezialisierte Modelle (im Gegensatz zu „allwissenden“ Allzweckmodellen), die bestimmte Bereiche bedienen und auf denen trainiert wird Daten, die von Fachexperten auf diesem Gebiet zusammengestellt wurden. 

Der Versuch, KI als Reaktion auf den aktuellen Aufschrei der Medien zu zensieren, wird das Problem nicht lösen. Dies kann nur durch sorgfältige Arbeit bei der Erstellung zuverlässiger Datensätze erreicht werden. Solange KI-Unternehmen – und die VCs, die sie unterstützen – diesen Ansatz nicht als die einzige Möglichkeit zur Bereitstellung seriöser Inhalte akzeptieren, heißt das: Müll rein/Müll raus. 

Sollte die KI-Entwicklung stärker reguliert werden?

Die Entwicklung der KI hat viel hervorgebracht berechtigte Bedenken über alles von Deepfakes und Voice Cloning bis hin zu fortgeschrittenem Phishing/Vishing/Smishing, Killerrobotern und sogar der Möglichkeit eines KI-Apokalypse. Eliezer Yudkowsky, einer der angesehensten Namen auf dem Gebiet der künstlichen allgemeinen Intelligenz (AGI), rief kürzlich dazu auf: „schalte alles ab„Das vorgeschlagene sechsmonatige Moratorium reichte nicht aus.“

Aber man kann die Entwicklung neuer Technologien nicht aufhalten, eine Tatsache, die seit den Tagen der Alchemisten in der Antike offensichtlich ist. Was kann also aus praktischer Sicht getan werden, um zu verhindern, dass die KI außer Kontrolle gerät, und um das Risiko eines KI-bedingten Aussterbens zu mindern? Die Antwort liegt darin, dass viele der gleichen Kontrollsätze, die auch in anderen Bereichen eingesetzt werden, das Potenzial für den Einsatz als Waffe haben: 

  • Transparente Forschung. Die Open-Source-KI-Entwicklung treibt nicht nur Innovationen voran und demokratisiert den Zugang, sondern bietet auch viele Sicherheitsvorteile, von der Erkennung von Sicherheitslücken und gefährlichen Entwicklungslinien bis hin zur Schaffung von Abwehrmaßnahmen gegen potenziellen Missbrauch. Big Tech unterstützt bisher Open-Source-Bemühungen, aber das könnte sich ändern, wenn der Wettbewerb zunimmt. Möglicherweise sind gesetzgeberische Maßnahmen erforderlich, um den Open-Source-Zugang beizubehalten.
  • Experimente enthalten. Alle Experimente mit ausreichend fortgeschrittener KI müssen in einer Sandbox durchgeführt werden, wobei Sicherheitsverfahren strikt durchgesetzt werden müssen. Dies sind keine narrensicheren Maßnahmen, können aber den Unterschied zwischen einer lokalen Störung und einer globalen Katastrophe ausmachen.
  • Kill-Schalter. Ebenso wie Gegenmittel und Impfstoffe müssen Gegenmaßnahmen gegen außer Kontrolle geratene oder destruktive KI-Varianten ein integraler Bestandteil des Entwicklungsprozesses sein. Sogar Ransomware-Entwickler bauen einen Kill-Schalter ein. 
  • Regulieren Sie, wie es verwendet wird. KI ist eine Technologie, die zum Wohle der Menschheit eingesetzt oder mit katastrophalen Folgen missbraucht werden kann. Die Regulierung seiner Anwendungen ist eine Aufgabe der Regierungen auf der ganzen Welt, und die Dringlichkeit ist viel größer als die Notwendigkeit, die nächste Version von ChatGPT zu zensieren. Der EU-KI-Gesetz ist eine gut formulierte, prägnante Grundlage, die darauf abzielt, Missbrauch zu verhindern, ohne Innovationen zu unterdrücken. Die USA AI-Bill of Rights und die jüngste Executive Order zur KI sind weniger spezifisch und scheinen sich mehr auf politische Korrektheit als auf die Themen ordnungsgemäße Modellentwicklung, Schulung und Eindämmung zu konzentrieren. Diese Maßnahmen sind jedoch nur ein Anfang. 

Zusammenfassung

KI hält Einzug in die Cybersicherheit, ob CISOs dies wollen oder nicht, und sie wird sowohl erhebliche Vorteile als auch Risiken für den Bereich der Cybersicherheit mit sich bringen, insbesondere mit der eventuellen Einführung von Post-Quanten-Kryptographie. CISOs sollten sich zumindest die Zeit nehmen, um die Vorteile von KI-gehypten Tools und die Bedrohungen durch KI-gesteuerte Angriffe zu verstehen. Ob sie Geld in KI investieren, hängt weitgehend von den konkreten Vorteilen von KI-Sicherheitsprodukten, den veröffentlichten Folgen von KI-Angriffen und bis zu einem gewissen Grad von ihren persönlichen Erfahrungen mit ChatGPT ab. 

Die Herausforderung für CISOs besteht darin, KI effektiv und verantwortungsvoll zu implementieren.

spot_img

Neueste Intelligenz

spot_img