Zephyrnet-Logo

KI stößt bei Cybersicherheitsexperten auf Skepsis  

Datum:

KI für Cybersicherheit wurde kürzlich auf einer Branchenkonferenz von Experten mit einer gewissen Skepsis aufgenommen. Ein Anbieter skizzierte einen Service zur Bewertung des KI-Inhalts einer Lösung. (Bildnachweis: Getty Images) 

Von John P. Desmond, AI Trends Editor 

Wie effektiv KI auf die Cybersicherheit angewendet werden kann, war Gegenstand einiger Debatten auf der RSA-Sicherheitskonferenz, die praktisch vom 17. bis 20. Mai stattfand.  

Die Veranstaltung umfasste eine virtuelle Show „Floor“ von rund 45 Anbietern, die verschiedene KI- und maschinelle Lernfunktionen für Cybersicherheit anbieten, sowie einen Programm-Track für sicherheitsorientierte KI VentureBeat.  

Die Skepsis war groß genug, dass Mitre Corp. ein Bewertungsinstrument entwickelte, mit dem Käufer die KI- und maschinellen Lerninhalte von Cybersicherheitsangeboten bewerten können. Der ARCCS (AI Relevance Competence Cost Score) soll Verteidigern die Möglichkeit geben, Anbieter über ihre KI-Ansprüche zu befragen, ähnlich wie sie andere grundlegende Sicherheitsfunktionen bewerten würden. Mitre ist eine gemeinnützige US-Organisation, die von der Bundesregierung finanzierte Forschungs- und Entwicklungszentren verwaltet, die mehrere US-Regierungsbehörden unterstützen. 

Anne Townsend, Abteilungsleiterin, NIST Cyber ​​Partnerships, Mitre

„Wir wollen in den Dialog mit Cybersecurity-Anbietern treten und die Sicherheit und auch die KI-Komponente verstehen“, sagt Anne Townsend, Abteilungsleiterin und Leiterin der NIST-Cyberpartnerschaften bei Mitre. „Ist etwas wirklich KI-fähig oder ist es wirklich nur ein Hype?“ 

ARCCS wird eine Bewertungsmethode für KI in Bezug auf Informationssicherheit bereitstellen, mit der die Relevanz, Kompetenz und relativen Kosten eines KI-fähigen Produkts gemessen werden. Der Prozess bestimmt, wie notwendig eine KI-Komponente für die Leistung eines Produkts ist. ob das Produkt die richtige Art von KI verwendet und verantwortungsbewusst handelt; und ob die zusätzlichen Kosten der KI-Fähigkeit für die daraus resultierenden Vorteile gerechtfertigt sind. 

„Man muss in der Lage sein, den Anbietern die richtigen Fragen zu stellen und sie konsequent zu stellen.“ sagte Michael Hadjimichael, leitender Informatiker bei Mitre, vom AI-Framework. „Nicht alle KI-fähigen Ansprüche sind gleich. Wenn Sie so etwas wie unser ARCCS-Tool verwenden, können Sie verstehen, ob Sie das bekommen haben, wofür Sie bezahlt haben, und ob Sie das bekommen, was Sie brauchen. “ 

Mitres ARCCS-Forschung befindet sich in einem frühen Stadium. Es war nicht einfach zu beurteilen, wie die meisten Produkte, die AI-Verbesserungen beanspruchen, mit der Bewertung abschneiden würden. "Das Tool besteht oder besteht keine Produkte - es wird ausgewertet", erklärte Townsend gegenüber VentureBeat. "Im Moment stellen wir fest, dass es nicht so viele Informationen zu Produkten gibt, wie wir möchten." 

Ein Anbieter von Cybersicherheitssoftware, dessen Produkt AI enthält, war erfreut über den Bewertungsrahmen. Hunters von Tel Aviv, Israel, bietet erweiterte Funktionen für maschinelles Lernen in seiner XDR-Plattform (Extended Detection and Response). Das im Jahr 2018 gegründete Unternehmen hat laut Crunchbase bisher 20.4 Millionen US-Dollar gesammelt. 

"In einer Welt, in der KI und maschinelles Lernen von Sicherheitsanbietern großzügig genutzt werden, um ihre Technologie zu beschreiben, ist die Schaffung eines Bewertungsrahmens für Käufer zur Bewertung der Technologie und ihres Werts von entscheidender Bedeutung", erklärte Uri May, CEO und Mitbegründer von Hunters, gegenüber VentureBeat. "Kunden sollten verlangen, dass Anbieter klare, leicht verständliche Erklärungen für die vom Algorithmus erzielten Ergebnisse liefern." 

Das Marketinganalyseunternehmen AppFlyer verbindet alle seine SEIM-Tools (Security Information and Event Management) mit Hunters XDR. Das Hauptziel bestand darin, das Security Operations Center (SOC) zu vergrößern und von einem reaktiven Verteidigungsmodus zu einem proaktiven Sicherheitsansatz überzugehen.  

„Der Hauptnutzen, den Hunters XDR mir als CISO bietet, besteht darin, dass es lösungsübergreifend die Punkte verbindet. Meine Teams haben jetzt einen besseren Einblick in die Probleme, die wir in unserer Umgebung haben, und wir können Warnungen mit einer bitteren Geschichte verknüpfen “, erklärte Guy Flechter, CISO bei AppsFlyer, in einem Konto auf der Hunters-Website.  

Nur wenige Entwicklerressourcen rund um KI und Cybersicherheit 

Während Cybersicherheitsanbieter zunehmend maschinelles Lernen und KI einsetzen, um Anomalien zu erkennen, stehen Sicherheitsexperten in der Regel vor der Herausforderung, die KI-Techniken auf ihre eigene Arbeit anzuwenden. Jess Garcia, Gründer von One eSecurity, der von seinem Hauptsitz in Madrid, Spanien, digitale Forensik und Vorfallreaktionsdienste anbietet, versuchte zu Beginn der Pandemie, Automatisierung und ML in seine Arbeit zur Bedrohungssuche zu integrieren, so ein Bericht in TechBeacon 

Er fand nur wenige Ressourcen und Unternehmen, die bereit waren, Algorithmen und Technologien zu teilen, die sie für die Cybersicherheit verwendeten. Die Open-Source-Community rund um die Entwicklung von ML für Cybersicherheit sei weit weniger entwickelt als die Community rund um die Entwicklung von Webanwendungen. 

„Alles ist sehr verschwommen; alles ist sehr allgemein oder sehr dunkel. Ich war ziemlich überrascht zu sehen, dass alle über KI sprechen und KI und maschinelles Lernen in Tier-Technologien verwenden sollen“, sagte er. „Man würde also eine große Community rund um KI und Cybersicherheit erwarten. Zu meiner Überraschung gab es fast nichts. “  

Schneier warnt vor dem Potenzial der KI, der Hacker zu werden  

Bruce Schneier, Computersicherheitsexperte und Autor

Ein weiterer potenzieller Nachteil von KI in der Cybersicherheit ist das Potenzial, dass KI zum Hacker wird, schlägt Bruce Schneier, Computersicherheitsexperte und Autor, vor, der auf der RSA-Konferenz 2021 eine Grundsatzrede mit dem Titel „The Coming AI Hackers“ hielt.  

Schneier hat dieses Thema kürzlich in einem Aufsatz behandelt Er schrieb für das Cyber-Projekt und den Rat für den verantwortungsvollen Umgang mit KI am Belfer-Zentrum für Wissenschaft und internationale Angelegenheiten der Harvard Kennedy School Dunkles Lesen. 

Er ging auf die Frage ein, was passieren würde, wenn KI-Systeme soziale, wirtschaftliche und politische Systeme auf Computerskala, Geschwindigkeit und Reichweite so hacken könnten, dass Menschen sie nicht rechtzeitig erkennen könnten. Er beschrieb es als KI, die sich zum „kreativen Prozess des Findens von Hacks“ entwickelt. 

„Das machen sie bereits in Software und finden Schwachstellen im Computercode. Sie sind nicht so gut darin, aber irgendwann werden sie besser, [während] die Menschen gleich bleiben “, erklärte er. 

Die KI weiß nicht, wann sie gegen die Regeln verstößt, es sei denn seine Programmierer sagen es so. Er erinnerte sich an den Volkswagen-Skandal im Jahr 2015, als der Autohersteller beim Schummeln bei Emissionskontrolltests erwischt wurde, nachdem seine Ingenieure die Computersysteme des Autos so programmiert hatten, dass die Emissionsbegrenzung nur während der Tests und nicht im normalen Betrieb aktiviert wurde.  

In seinem Aufsatz Die kommenden KI-HackerSchneier erklärt: „Wenn ich Sie bitten würde, die Motorsteuerungssoftware eines Autos zu entwickeln, um die Leistung zu maximieren, während Sie noch die Emissionskontrolltests bestehen, würden Sie die Software nicht zum Betrügen entwickeln, ohne zu verstehen, dass Sie betrogen haben. Dies gilt einfach nicht für eine KI; es versteht das abstrakte Konzept des Betrugs nicht. Es wird "out of the box" denken, einfach weil es keine Vorstellung von der Box oder den Einschränkungen bestehender menschlicher Lösungen hat. Oder der Ethik. Es wird nicht verstanden, dass die Volkswagen Lösung anderen schadet, die Absicht der Abgasreinigungstests untergräbt oder gegen das Gesetz verstößt. “  

Während er zugibt, ist die Idee der KI als Hacker "Super spekulativ" für den Moment muss das Thema berücksichtigt werden. "Wir müssen darüber nachdenken", sagte er. „Und ich bin mir nicht sicher, ob du damit aufhören kannst. Die Leichtigkeit dieses [AIs-Hacking] hängt stark von der [fraglichen] Domäne ab: Wie können wir die Regeln des Systems kodifizieren? “ 

Wenn einI könnte genutzt werden, um alle Schwachstellen in einem Softwareprogramm zu finden und zu beheben, bevor es veröffentlicht wird. „Wir würden in einer Welt leben, in der Software-Schwachstellen der Vergangenheit angehören“, sagte Schneier. 

Lesen Sie die Quellartikel und Informationen in VentureBeat, vom Anbieter von Cybersicherheitssoftware Huntersin TechBeacon und im DarkReading. 

Münzsmart. Beste Bitcoin-Börse in Europa
Quelle: https://www.aitrends.com/security/ai-runs-into-skepticism-from-cybersecurity-experts/

spot_img

Neueste Intelligenz

spot_img