Zephyrnet-Logo

Warum Fehlerkorrektur die größte Herausforderung des Quantencomputings ist – Physics World

Datum:

Steve Brierley argumentiert, dass Quantencomputer umfassende Fehlerkorrekturtechniken implementieren müssen, bevor sie für die Gesellschaft ihren vollen Nutzen entfalten können

<a href="https://zephyrnet.com/wp-content/uploads/2024/03/why-error-correction-is-quantum-computings-defining-challenge-physics-world-3.jpg" data-fancybox data-src="https://zephyrnet.com/wp-content/uploads/2024/03/why-error-correction-is-quantum-computings-defining-challenge-physics-world-3.jpg" data-caption="Ihren Vorteil ausnutzen Quantencomputer werden erst dann nützlich, wenn Hardware- und Softwaretools inhärent instabile Qubits steuern können. (Mit freundlicher Genehmigung von Riverlane)“>
Ein Mann im Kapuzenpullover arbeitet mit einem Laptop und einem Quantensystem
Ihren Vorteil ausnutzen Quantencomputer werden erst dann nützlich, wenn Hardware- und Softwaretools inhärent instabile Qubits steuern können. (Mit freundlicher Genehmigung von Riverlane)

„Es gibt keine überzeugenden Argumente dafür, dass kommerziell realisierbare Anwendungen gefunden werden unterlassen Sie Verwenden Sie Quantenfehlerkorrekturcodes und fehlertolerantes Quantencomputing.“ Das erklärte der Caltech-Physiker John Preskill in einem Vortrag am Ende von 2023 beim Q2B23-Treffen in Kalifornien. Ganz einfach: Wer einen praxistauglichen Quantencomputer bauen will, muss einen Weg finden, mit Fehlern umzugehen.

Quantencomputer werden immer leistungsfähiger, doch ihre Grundbausteine ​​– Quantenbits oder Qubits – sind sehr fehleranfällig, was ihren breiten Einsatz einschränkt. Es reicht nicht aus, einfach Quantencomputer mit mehr und besseren Qubits zu bauen. Um das volle Potenzial von Quantencomputeranwendungen auszuschöpfen, sind neue Hardware- und Softwaretools erforderlich, die inhärent instabile Qubits steuern und Systemfehler 10 Milliarden Mal oder mehr pro Sekunde umfassend korrigieren können.

Preskills Worte kündigten im Wesentlichen den Beginn des sogenannten an Quantenfehlerkorrektur (QEC)-Ära. QEC ist keine neue Idee und Unternehmen entwickeln seit vielen Jahren Technologien, um die in Qubits gespeicherten Informationen vor Fehlern und Dekohärenz durch Rauschen zu schützen. Neu ist jedoch die Abkehr von der Idee, dass die heutigen lautstarken Intermediate-Scale-Geräte (NISQ) klassische Supercomputer übertreffen und Anwendungen ausführen könnten, die derzeit unmöglich sind.

Sicher, NISQ – ein Begriff, der von Preskill geprägt wurde – war ein wichtiger Schritt auf dem Weg zur Fehlertoleranz. Aber die Quantenindustrie, Investoren und Regierungen müssen jetzt erkennen, dass die Fehlerkorrektur die größte Herausforderung des Quantencomputings ist.

Eine Frage der Zeit

QEC hat allein im letzten Jahr bereits beispiellose Fortschritte gemacht. Im Jahr 2023 Google zeigte, dass ein 17-Qubit-System nach einem einzelnen Fehler und ein 49-Qubit-System nach zwei Fehlern wiederhergestellt werden konnte (Natur 614 676). Amazon veröffentlichte einen Chip, der Fehler 100-mal unterdrückte IBM-Wissenschaftler entdeckte ein neues Fehlerkorrekturschema, das mit zehnmal weniger Qubits funktioniert (arXiv: 2308.07915). Dann, am Ende des Jahres, produzierte das Quanten-Spin-out Quera der Harvard University die bisher größte Anzahl fehlerkorrigierte Qubits .

Die Dekodierung, die viele unzuverlässige physikalische Qubits in ein oder mehrere zuverlässige „logische“ Qubits umwandelt, ist eine Kerntechnologie der QEC. Denn große Quantencomputer erzeugen jede Sekunde Terabytes an Daten, die genauso schnell dekodiert werden müssen, wie sie erfasst werden, um zu verhindern, dass sich Fehler ausbreiten und Berechnungen unbrauchbar werden. Wenn wir nicht schnell genug dekodieren, werden wir mit einem konfrontiert exponentiell wachsender Datenstau.

Meine eigene Firma – Riverlane – wurde letztes Jahr vorgestellt der leistungsstärkste Quantendecoder der Welt. Unser Decoder löst dieses Rückstandsproblem, aber es gibt immer noch Probleme noch viel zu tun. Das Unternehmen entwickelt derzeit „Streaming-Decoder“, die kontinuierliche Ströme von Messergebnissen verarbeiten können, sobald diese eintreffen, und nicht erst nach Abschluss eines Experiments. Sobald wir dieses Ziel erreicht haben, gibt es noch mehr zu tun. Und Decoder sind nur ein Aspekt von QEC – wir brauchen auch hochpräzise und schnelle „Kontrollsysteme“, um die Qubits zu lesen und zu schreiben.

Da Quantencomputer immer größer werden, müssen diese Decoder- und Steuerungssysteme zusammenarbeiten, um fehlerfreie logische Qubits zu erzeugen. Bis 2026 will Riverlane einen adaptiven oder Echtzeit-Decoder gebaut haben. Heutige Maschinen sind nur in der Lage, einige hundert fehlerfreie Operationen auszuführen, aber zukünftige Entwicklungen werden mit Quantencomputern arbeiten, die eine Million fehlerfreie Quantenoperationen verarbeiten können (bekannt als MegaQuOp).

Riverlane ist mit solchen Bemühungen nicht allein und andere Quantenunternehmen geben QEC nun Vorrang. IBM hat bisher nicht an der QEC-Technologie gearbeitet und sich stattdessen auf mehr und bessere Qubits konzentriert. Aber die der Firma Quanten-Roadmap 2033 gibt an, dass IBM bis zum Ende des Jahrzehnts eine 1000-Qubit-Maschine bauen will, die nützliche Berechnungen durchführen kann – beispielsweise die Simulation der Funktionsweise von Katalysatormolekülen.

Quera, inzwischen, hat kürzlich seine Roadmap vorgestellt das priorisiert auch QEC, während die Die nationale Quantenstrategie des Vereinigten Königreichs zielt darauf ab, bis 2035 Quantencomputer zu bauen, die in der Lage sind, eine Billion fehlerfreier Operationen (TeraQuOps) auszuführen. Andere Länder haben ähnliche Pläne veröffentlicht und ein Ziel für 2035 scheint erreichbar, auch weil die Quantencomputing-Community beginnt, kleinere, inkrementelle Operationen anzustreben – aber ebenso ehrgeizig – Ziele.

Was mich an der nationalen Quantenstrategie des Vereinigten Königreichs wirklich begeistert, ist das Ziel, bis 2028 eine MegaQuOp-Maschine zu haben. Auch dies ist ein realistisches Ziel – ich würde sogar behaupten, dass wir das MegaQuOp-Regime früher erreichen werden, weshalb Die QEC-Lösung Deltaflow von Riverlane wird bis 2026 bereit sein, mit diesen MegaQuOp-Maschinen zu arbeiten. Wir brauchen keine radikal neue Physik, um einen MegaQuOp-Quantencomputer zu bauen – und eine solche Maschine wird uns helfen, Quantenfehler besser zu verstehen und zu profilieren.

Sobald wir diese Fehler verstanden haben, können wir damit beginnen, sie zu beheben und mit den TeraQuOp-Maschinen fortzufahren. Das TeraQuOp ist ebenfalls ein schwebendes Ziel – und eines, bei dem Verbesserungen sowohl im QEC als auch anderswo dazu führen könnten, dass das Ziel für 2035 einige Jahre früher erreicht wird.

Es ist nur eine Frage der Zeit, bis Quantencomputer für die Gesellschaft nützlich sein werden. Und da wir uns jetzt koordiniert auf die Quantenfehlerkorrektur konzentrieren, werden wir diesen Wendepunkt eher früher als später erreichen.

spot_img

Neueste Intelligenz

spot_img