Zephyrnet-Logo

Die größten Entdeckungen in der Informatik im Jahr 2023 | Quanta-Magazin

Datum:

Einleitung

Im Jahr 2023 dominierte künstliche Intelligenz die Populärkultur – sie tauchte in allem auf, von Internet-Memes bis hin zu Senatsanhörungen. Große Sprachmodelle wie die hinter ChatGPT sorgten für viel Aufregung, auch wenn die Forscher immer noch Schwierigkeiten hatten, die „Black Box“ zu öffnen, die ihr Innenleben beschreibt. Auch Bilderzeugungssysteme beeindruckten und verunsicherten uns regelmäßig mit ihren künstlerischen Fähigkeiten, die jedoch explizit darauf beruhten Konzepte, die der Physik entlehnt sind.

Das Jahr brachte viele weitere Fortschritte in der Informatik. Forscher machten subtile, aber wichtige Fortschritte bei einem der ältesten Probleme auf diesem Gebiet, einer Frage nach der Natur schwieriger Probleme, die als „P versus NP“ bezeichnet wird. Im August mein Kollege Ben Brubaker untersuchte dieses grundlegende Problem und die Versuche von Theoretikern der rechnerischen Komplexität, die Frage zu beantworten: Warum ist es (im präzisen, quantitativen Sinne) schwierig zu verstehen, was schwierige Probleme schwierig macht? „Es war keine einfache Reise – der Weg ist übersät mit falschen Abzweigungen und Straßensperren und er führt immer wieder auf sich selbst zurück“, schrieb Brubaker. „Doch für Metakomplexitätsforscher ist diese Reise in eine unbekannte Landschaft ihre eigene Belohnung.“

Das Jahr war auch voller diskreterer, aber dennoch wichtiger individueller Fortschritte. Shors Algorithmus, die lange versprochene Killer-App des Quantencomputings, hat es geschafft erstes bedeutendes Upgrade nach fast 30 Jahren. Die Forscher haben endlich herausgefunden, wie man den kürzesten Weg durch ein allgemeines Netzwerk findet fast so schnell wie theoretisch möglich. Und Kryptographen stellten eine unerwartete Verbindung zur KI her und zeigten, wie damit auch Modelle des maschinellen Lernens und maschinengenerierte Inhalte zu kämpfen haben versteckte Schwachstellen und Meldungen.

Es scheint, dass wir einige Probleme vorerst noch nicht lösen können.

Einleitung

Seit 50 Jahren versuchen Informatiker, die größte offene Frage auf ihrem Gebiet zu lösen, die als „P versus NP“ bekannt ist. Es wird grob gefragt, wie schwierig bestimmte schwierige Probleme sind. Und 50 Jahre lang scheiterten ihre Versuche. Oftmals stießen sie, gerade als sie mit einem neuen Ansatz Fortschritte machten, auf eine Hürde, die bewies, dass die Taktik niemals funktionieren würde. Schließlich begannen sie sich zu fragen, warum es so schwer ist zu beweisen, dass manche Probleme schwierig sind. Ihre Bemühungen, solche nach innen gerichteten Fragen zu beantworten, haben sich zu einem Teilgebiet namens Metakomplexität entwickelt, das die bislang besten Erkenntnisse zu dieser Frage geliefert hat.

In einem August Artikel und einem kurzes Dokumentarvideo, Wie viel erklärte genau, was wir wissen, woher wir es wissen und was wir gerade erst anfangen herauszufinden, wenn es um Metakomplexität geht. Auf dem Spiel steht nicht nur die Neugier der beteiligten Forscher: Die Lösung von P versus NP könnte unzählige logistische Probleme lösen, die gesamte Kryptographie hinfällig machen und sogar die ultimative Natur dessen ansprechen, was erkennbar ist und was für immer außerhalb unserer Reichweite liegt.

Einleitung

Wenn Sie genug Zeug zusammentragen, werden Sie überrascht sein, was passieren kann. Wassermoleküle erzeugen Wellen, Vogelschwärme fliegen im Sturzflug durch die Luft und unbewusste Atome verbinden sich zu Leben. Wissenschaftler nennen diese Verhaltensweisen „aufkommendes Verhalten“, und das haben sie auch Habe vor Kurzem das Gleiche gesehen passieren mit großen Sprachmodellen – KI-Programme, die auf riesigen Textsammlungen trainiert werden, um menschenähnliche Schrift zu erzeugen. Ab einer bestimmten Größe können diese Modelle plötzlich unerwartete Dinge tun, die kleinere Modelle nicht können, wie z bestimmte mathematische Probleme lösen.

Doch das wachsende Interesse an großen Sprachmodellen hat neue Bedenken hervorgerufen. Diese Programme erfinden Unwahrheiten, soziale Vorurteile ausüben und nicht zu bewältigen sogar einige der elementarsten Elemente der menschlichen Sprache. Darüber hinaus bleiben diese Programme eine Black Box, deren interne Logik nicht erkennbar ist, obwohl einige Forscher dies getan haben Ideen, wie man das ändern kann.

Einleitung

Informatiker kennen seit langem Algorithmen, die durch Graphen flitzen können – Netzwerke von Knoten, die durch Kanten verbunden sind –, wobei die Verbindungen gewisse Kosten verursachen, wie eine mautpflichtige Straße, die zwei Städte verbindet. Aber jahrzehntelang konnten sie keinen schnellen Algorithmus finden, um den kürzesten Weg zu bestimmen, wenn eine Straße entweder Kosten oder eine Belohnung haben könnte. Ende letzten Jahres ein Forschertrio lieferte einen praktikablen Algorithmus Das ist fast so schnell wie theoretisch möglich.

Dann veröffentlichten die Forscher im März ein neuer Algorithmus das auf präzise Weise bestimmen kann, wann zwei Arten mathematischer Objekte, sogenannte Gruppen, gleich sind; Die Arbeit könnte zu Algorithmen führen, die Gruppen (und vielleicht auch andere Objekte) im Allgemeinen schnell vergleichen können, eine überraschend schwierige Aufgabe. Zu den weiteren großen Algorithmus-Neuigkeiten in diesem Jahr gehörte eine neue Art von Primzahlen berechnen Durch die Einbeziehung zufälliger und deterministischer Ansätze kann die Widerlegung einer langjährigen Vermutung über die Leistung informationsbeschränkter Algorithmen und eine Analyse, die zeigt, wie eine nicht intuitive Idee funktionieren kann die Leistung verbessern von Gradientenabstiegsalgorithmen, die in maschinellen Lernprogrammen und anderen Bereichen allgegenwärtig sind.

Einleitung

Bildgenerierungstools wie DALL·E 2 erfreuten sich in diesem Jahr explosionsartiger Beliebtheit. Geben Sie ihnen einfach eine schriftliche Aufforderung, und sie senden Ihnen ein Bild mit den von Ihnen gewünschten Darstellungen zurück. Aber die Arbeit, die die meisten dieser künstlichen Künstler ermöglichte, war gewesen Brauerei seit vielen Jahren. Basierend auf physikalischen Konzepten, die sich ausbreitende Flüssigkeiten beschreiben, lernen diese sogenannten Diffusionsmodelle effektiv, wie man formloses Rauschen in ein scharfes Bild entschlüsselt – als würde man bei einer Tasse Kaffee die Uhr zurückdrehen, um zu sehen, wie sich die gleichmäßig verteilte Creme wieder in ein gut verteiltes Bild verwandelt. definierter Klecks.

Auch KI-Tools waren erfolgreich Verbesserung der Wiedergabetreue vorhandener Bilder, obwohl wir immer noch weit entfernt sind vom TV-Bild eines Polizisten, der immer wieder „Verbessert!“ ruft. In jüngerer Zeit wandten sich Forscher an physikalische Prozesse neben der Diffusion um neue Wege für Maschinen zur Generierung von Bildern zu erkunden. Ein neuerer Ansatz, der auf der Poisson-Gleichung basiert, die beschreibt, wie sich elektrische Kräfte über die Entfernung ändern, hat sich bereits als besser in der Fehlerbewältigung erwiesen und ist in manchen Fällen einfacher zu trainieren als Diffusionsmodelle.

Einleitung

Seit Jahrzehnten ist Shors Algorithmus der Inbegriff der Leistungsfähigkeit von Quantencomputern. Dieser 1994 von Peter Shor entwickelte Befehlssatz ermöglicht es einer Maschine, die die Besonderheiten der Quantenphysik ausnutzen kann, große Zahlen viel schneller als ein normaler, klassischer Computer in ihre Primfaktoren zu zerlegen – und damit möglicherweise einen Großteil der Sicherheitssysteme des Internets zu zerstören. Im August ein Informatiker entwickelte eine noch schnellere Variante von Shors Algorithmus, die erste wesentliche Verbesserung seit seiner Erfindung. „Ich hätte gedacht, dass jeder Algorithmus, der mit dieser Grundstruktur funktioniert, zum Scheitern verurteilt wäre“, sagte Shor. "Aber ich habe mich getäuscht."

Doch praktische Quantencomputer sind noch immer unerreichbar. Im wirklichen Leben können sich winzige Fehler schnell summieren, Berechnungen ruinieren und jegliche Quantenvorteile zunichte machen. Tatsächlich Ende letzten Jahres ein Team von Informatikern zeigte dass für ein bestimmtes Problem ein klassischer Algorithmus ungefähr so ​​gut funktioniert wie ein Quantenalgorithmus, der Fehler enthält. Aber es gibt Hoffnung: Arbeiten im August zeigten, dass bestimmte fehlerkorrigierende Codes, sogenannte Low-Density-Paritätsprüfcodes, dies tun mindestens zehnmal effizienter als der aktuelle Standard.

Einleitung

Ein Team von Informatikern hat an der Schnittstelle von Kryptographie und künstlicher Intelligenz eine ungewöhnliche Entdeckung gemacht zeigte, dass es möglich war in Modelle des maschinellen Lernens bestimmte Hintertüren einzufügen, die praktisch unsichtbar waren und deren Unentdeckbarkeit durch die gleiche Logik wie die besten modernen Verschlüsselungsmethoden gestützt wurde. Die Forscher konzentrierten sich auf relativ einfache Modelle, daher ist unklar, ob das Gleiche auch für die komplizierteren Modelle gilt, die einem Großteil der heutigen KI-Technologie zugrunde liegen. Die Ergebnisse deuten jedoch darauf hin, wie zukünftige Systeme sich vor solchen Sicherheitslücken schützen können, und signalisieren gleichzeitig ein erneutes Interesse daran, wie die beiden Bereiche sich gegenseitig beim Wachstum unterstützen können.

Solche Sicherheitsprobleme sind einer der Gründe dafür Cynthia Rudin hat sich dafür eingesetzt, interpretierbare Modelle zu verwenden, um besser zu verstehen, was in Algorithmen für maschinelles Lernen passiert; Forscher mögen Yael Tauman Kalai, haben inzwischen unsere Vorstellungen von Sicherheit und Datenschutz weiterentwickelt, selbst angesichts der sich abzeichnenden Quantentechnologie. Und ein Ergebnis im verwandten Bereich der Steganographie zeigte, wie man eine Nachricht versteckt mit perfekter Sicherheit innerhalb maschinell generierter Medien.

Einleitung

So mächtig die KI auch geworden ist, haben die künstlichen neuronalen Netze, die den meisten modernen Systemen zugrunde liegen, zwei Nachteile: Sie erfordern enorme Ressourcen für Training und Betrieb und es ist zu leicht, dass sie zu undurchschaubaren Black Boxes werden. Viele Forscher argumentieren, dass es vielleicht an der Zeit ist Ein anderer Ansatz. Anstatt künstliche Neuronen zu verwenden, die einzelne Merkmale oder Merkmale erkennen, könnten KI-Systeme Konzepte mit endlosen Variationen hyperdimensionaler Vektoren darstellen – Arrays aus Tausenden von Zahlen. Dieses System ist vielseitiger und besser für den Umgang mit Fehlern gerüstet, wodurch seine Berechnungen weitaus effizienter werden. Außerdem ermöglicht es Forschern, direkt mit den Ideen und Beziehungen zu arbeiten, die diese Modelle berücksichtigen, und erhält so einen besseren Einblick in die Argumentation des Modells. Hyperdimensionales Computing steckt noch in den Kinderschuhen, aber wenn es größeren Tests unterzogen wird, könnte sich der neue Ansatz durchsetzen.

spot_img

Neueste Intelligenz

spot_img