Zephyrnet-Logo

Die Cybersicherheitsfähigkeiten des US-Militärs sollen OpenAI stärken

Datum:

OpenAI entwickelt KI-gestützte Cybersicherheitsfunktionen für das US-Militär und treibt seine Wahlsicherheitsarbeit auf Hochtouren, sagten die Leiter des Labors diese Woche beim Weltwirtschaftsforum (WEF) in Davos.

Die öffentliche Kehrtwende in Bezug auf die Zusammenarbeit mit den Streitkräften erfolgt Tage nach a Änderungen in Die Richtliniensprache von OpenAI, die zuvor die Verwendung seiner generativen KI-Modelle für „Militär- und Kriegsführungsanwendungen“ sowie „die Generierung von Malware“ mit seiner Technologie untersagte. Diese Einschränkungen sind nun aus dem Kleingedruckten des ChatGPT-Herstellers verschwunden. Allerdings betonte das Superlabor, dass seine Technologie nach wie vor nicht für Gewalt, Zerstörung oder Kommunikationsspionage eingesetzt werden dürfe.

„Unsere Richtlinie erlaubt nicht, dass unsere Werkzeuge dazu verwendet werden, Menschen zu schaden, Waffen zu entwickeln, die Kommunikation zu überwachen oder andere zu verletzen oder Eigentum zu zerstören“, sagte ein OpenAI-Sprecher Das Register heute.

„Es gibt jedoch Anwendungsfälle für die nationale Sicherheit, die mit unserer Mission übereinstimmen.

„Wir arbeiten bereits mit DARPA zusammen, um die Entwicklung neuer Cybersicherheitstools voranzutreiben, um Open-Source-Software zu sichern, auf die kritische Infrastrukturen und die Industrie angewiesen sind. Es war nicht klar, ob diese vorteilhaften Anwendungsfälle in unseren bisherigen Richtlinien unter „Militär“ zulässig gewesen wären. Das Ziel unserer Richtlinienaktualisierung besteht also darin, Klarheit und die Möglichkeit zu schaffen, diese Diskussionen zu führen.“ 

Am Dienstag, während eines Interview Beim WEF-Shindig für die Staats- und Regierungschefs der Welt sagte Anna Makanju, Vizepräsidentin für globale Angelegenheiten bei OpenAI, dass ihre Partnerschaft mit dem Pentagon die Entwicklung von Open-Source-Cybersicherheitssoftware umfasst. OpenAI beginne außerdem Gespräche mit der US-Regierung darüber, wie seine Technologie dazu beitragen könne, Selbstmorde von Veteranen zu verhindern, sagte sie.

„Da es zuvor im Wesentlichen ein pauschales Militärverbot gab, dachten viele Leute, dass dies viele dieser Anwendungsfälle verbieten würde, von denen die Leute glauben, dass sie sehr gut mit dem übereinstimmen, was wir in der Welt sehen wollen“, sagte Makanju. 

Obwohl „Militär und Kriegsführung“ sowie andere „unzulässige Verwendungen“ für ChatGPT entfernt wurden, sagte Makanju, dass OpenAI an seinem Verbot festhält, seine Modelle zur Entwicklung von Waffen zu verwenden, um Menschen zu verletzen. 

Im selben Interview sagte Sam Altman, CEO von OpenAI, dass das Unternehmen Schritte unternimmt, um sicherzustellen, dass seine generativen KI-Tools nicht zur Verbreitung wahlbezogener Desinformationen verwendet werden. 

Es folgt auch ein ähnliches Push von Microsoft, der größte Investor von OpenAI, der im November eine fünfstufige Wahlschutzstrategie für „die Vereinigten Staaten und andere Länder, in denen im Jahr 2024 kritische Wahlen stattfinden werden“, ankündigte. 

„Bei dieser Wahl steht viel auf dem Spiel“, sagte Altman am Dienstag.

Dies geschieht einen Tag nach dem des ehemaligen US-Präsidenten Donald Trump großer Gewinn im Iowa-Caucus am Montag.

Und all diese Themen – KI, Cybersicherheit und Desinformation – spielen eine wichtige Rolle auf der Tagesordnung Weltführer treffen sich diese Woche in Davos.

Laut WEFs Globaler Risikobericht 2024In dem letzte Woche veröffentlichten Bericht sind „Fehlinformationen und Desinformationen“ das größte kurzfristige globale Risiko, wobei „Cyber-Unsicherheit“ an vierter Stelle steht.

Der Aufstieg der generativen KI verschärft diese Herausforderungen, da 56 Prozent der beim WEF befragten Führungskräfte Jahrestreffen für Cybersicherheit im November 2023 sagen Generative KI wird Angreifern einen Vorteil verschaffen über Verteidiger innerhalb der nächsten zwei Jahre.

„Besondere Besorgnis erregt der Einsatz von KI-Technologien zur Verbesserung der Fähigkeiten zur Cyberkriegsführung, und das aus gutem Grund“, sagte Bernard Montel, technischer Direktor EMEA bei Tenable Das Register

„Während die KI in den letzten 12 bis 24 Monaten astronomische technologische Fortschritte gemacht hat, ist es heute unverständlich, einem autonomen Gerät zu erlauben, das endgültige Urteil zu fällen“, fügte er hinzu.

„Während KI in der Lage ist, einige Maßnahmen, die ergriffen werden müssen, schnell zu identifizieren und zu automatisieren, ist es zwingend erforderlich, dass der Mensch die entscheidenden Entscheidungen darüber trifft, wo und wann er auf der Grundlage der von der KI bereitgestellten Informationen handelt.“ ®

spot_img

Neueste Intelligenz

spot_img