Zephyrnet-Logo

Warum Sie die Abstammung Ihrer KI kennen müssen

Datum:

KOMMENTAR

Künstliche Intelligenz (KI) verändert rasant nahezu jeden Aspekt unseres täglichen Lebens, von der Art und Weise, wie wir arbeiten, über die Art und Weise, wie wir Informationen aufnehmen, bis hin zur Art und Weise, wie wir unsere Führungskräfte bestimmen. Wie jede Technologie ist KI amoralisch, kann aber zum Fortschritt der Gesellschaft eingesetzt werden Schaden anrichten.

Daten sind die Gene, die KI-Anwendungen antreiben. Es ist DNA und RNA in einem. Wie es beim Aufbau von Softwaresystemen oft heißt: „Garbage in/Garbage out“. KI-Technologie ist nur so genau, sicher und funktionsfähig wie die Datenquellen, auf die sie sich stützt. Der Schlüssel, um sicherzustellen, dass die KI ihr Versprechen hält und ihre Albträume vermeidet, liegt in der Fähigkeit, den Müll draußen zu halten und zu verhindern, dass er sich in Millionen von KI-Anwendungen vermehrt und repliziert.

Dies nennt man Datenherkunft, und wir können es kaum erwarten, Kontrollen einzuführen, die verhindern, dass unsere KI-Zukunft zu einem riesigen Müllhaufen wird.

Schlechte Daten führen zu KI-Modellen, die Cybersicherheitslücken, Fehlinformationen und andere Angriffe innerhalb von Sekunden weltweit verbreiten können. Heute generative KI (GenAI-)Modelle sind unglaublich komplex, aber im Kern sagen GenAI-Modelle lediglich den besten nächsten auszugebenden Datenblock voraus, basierend auf einer Reihe vorhandener vorheriger Daten.

Ein Maß für die Genauigkeit

Ein ChatGPT-Modell wertet die Wortgruppe aus, aus der die ursprünglich gestellte Frage besteht, sowie alle Wörter in der bisherigen Modellantwort, um das nächstbeste Wort für die Ausgabe zu berechnen. Dies geschieht so lange, bis es zu dem Schluss kommt, dass es ausreichend geantwortet hat. Angenommen, Sie bewerten die Fähigkeit des Modells, Wörter aneinanderzureihen, die wohlgeformte, grammatikalisch korrekte Sätze ergeben, die thematisch und allgemein für das Gespräch relevant sind. In diesem Fall sind die heutigen Modelle erstaunlich gut – ein Maß für die Genauigkeit.

Tauchen Sie tiefer ein ob der KI-erstellte Text immer „richtige“ Informationen vermittelt und gibt den Konfidenzgrad der übermittelten Informationen angemessen an. Dies deckt Probleme auf, die von Modellen herrühren, die im Durchschnitt sehr gute Vorhersagen treffen, in Randfällen jedoch nicht so gut – was ein Robustheitsproblem darstellt. Es kann noch schlimmer werden, wenn schlechte Datenausgaben von KI-Modellen online gespeichert und als zukünftige Trainingsdaten für diese und andere Modelle verwendet werden.

Die schlechten Ergebnisse können sich in einem Ausmaß reproduzieren, das wir noch nie gesehen haben, was zu einer Abwärtsspirale der KI führt.

Wenn ein böswilliger Akteur diesen Prozess unterstützen wollte, könnte er absichtlich die Erzeugung, Speicherung und Verbreitung zusätzlicher schlechter Daten fördern – was dazu führen würde, dass Chatbots noch mehr Fehlinformationen aussenden oder etwas so Schändliches und Beängstigendes wie Autopilot-Modelle von Autos, die entscheiden, dass sie es brauchen Sie können ein Auto trotz Hindernissen schnell nach rechts lenken, wenn sie ein speziell erstelltes Bild vor sich „sehen“ (natürlich hypothetisch).

Nach Jahrzehnten implementiert die Softwareentwicklungsbranche – angeführt von der Cybersecurity Infrastructure Security Agency – endlich eine sicher durch Design Rahmen. Secure-by-Design schreibt vor, dass Cybersicherheit die Grundlage des Softwareentwicklungsprozesses bildet, und einer seiner Kerngrundsätze besteht darin, die Katalogisierung jeder Softwareentwicklungskomponente zu fordern – a Softwarestückliste (SBOM) – um Sicherheit und Ausfallsicherheit zu stärken. Schließlich löst die Sicherheit die Geschwindigkeit als kritischsten Markteinführungsfaktor ab.

Sicherung von KI-Designs

KI braucht etwas Ähnliches. Die KI-Rückkopplungsschleife verhindert gängige frühere Cybersicherheits-Verteidigungstechniken wie das Verfolgen von Malware-Signaturen, den Aufbau von Perimetern um Netzwerkressourcen oder das Scannen von von Menschen geschriebenem Code auf Schwachstellen. Wir müssen sichere KI-Designs zu einer Voraussetzung machen, während die Technologie noch in den Kinderschuhen steckt, damit KI sicher gemacht werden kann, lange bevor die Büchse der Pandora geöffnet wird.

Wie lösen wir dieses Problem? Wir sollten einen Blick auf die Welt der Wissenschaft werfen. Wir schulen Schüler mit sorgfältig kuratierten Trainingsdaten, die ihnen von einer Lehrerbranche interpretiert und vermittelt werden. Wir setzen diesen Ansatz fort, um Erwachsene zu unterrichten, aber von Erwachsenen wird erwartet, dass sie selbst mehr Daten kuratieren.

Das Training von KI-Modellen muss einen zweistufigen Ansatz mit kuratierten Daten verfolgen. Zunächst würden grundlegende KI-Modelle mit aktuellen Methoden und unter Verwendung riesiger Mengen weniger kuratierter Datensätze trainiert. Diese Basismodelle für große Sprachen (LLMs) würden in etwa einem Neugeborenen entsprechen. Die Basismodelle würden dann mit sorgfältig kuratierten Datensätzen trainiert, ähnlich wie Kinder unterrichtet und erzogen werden, um Erwachsene zu werden.

Der Aufwand, große, kuratierte Trainingsdatensätze für alle Arten von Zielen zu erstellen, wird nicht gering sein. Dies ist vergleichbar mit all den Anstrengungen, die Eltern, Schulen und die Gesellschaft unternehmen, um Kindern ein hochwertiges Umfeld und hochwertige Informationen zu bieten, während sie sich zu (hoffentlich) funktionierenden, Mehrwert leistenden Mitwirkenden der Gesellschaft entwickeln. Das ist der Aufwand, der erforderlich ist, um hochwertige Datensätze zu erstellen, um hochwertige, gut funktionierende, minimal beschädigte KI-Modelle zu trainieren, und es könnte dazu führen, dass eine ganze Branche von KI und Menschen zusammenarbeiten, um KI-Modellen beizubringen, ihre Zielaufgabe gut zu erfüllen .

Der Stand des heutigen KI-Trainingsprozesses zeigt einige Anzeichen dieses zweistufigen Prozesses. Da die GenAI-Technologie und die Branche jedoch noch in den Kinderschuhen stecken, erfolgt bei zu vielen Schulungen der weniger kuratierte Ansatz der ersten Stufe.

Wenn es um KI-Sicherheit geht, können wir es uns nicht leisten, eine Stunde zu warten, geschweige denn ein Jahrzehnt. KI benötigt eine 23andMe-Anwendung, die die vollständige Überprüfung der „Algorithmen-Genealogie“ ermöglicht, damit Entwickler die „Familien“-Geschichte der KI vollständig verstehen können, um zu verhindern, dass sich chronische Probleme wiederholen, die kritischen Systeme, auf die wir uns täglich verlassen, infizieren und wirtschaftlichen und gesellschaftlichen Schaden anrichten das kann irreversibel sein.

Unsere nationale Sicherheit hängt davon ab.

spot_img

Neueste Intelligenz

spot_img