Logo Zephyrnet

Dlaczego korekcja błędów jest najważniejszym wyzwaniem w obliczeniach kwantowych – Świat Fizyki

Data:

Steve'a Brierleya twierdzi, że komputery kwantowe muszą wdrożyć kompleksowe techniki korekcji błędów, zanim staną się w pełni przydatne dla społeczeństwa

<a href="https://zephyrnet.com/wp-content/uploads/2024/03/why-error-correction-is-quantum-computings-defining-challenge-physics-world-3.jpg" data-fancybox data-src="https://zephyrnet.com/wp-content/uploads/2024/03/why-error-correction-is-quantum-computings-defining-challenge-physics-world-3.jpg" data-caption="Wykorzystując swoją przewagę Komputery kwantowe staną się przydatne dopiero wtedy, gdy narzędzia sprzętowe i programowe będą w stanie kontrolować z natury niestabilne kubity. (Dzięki uprzejmości: Riverlane)”>
Mężczyzna w bluzie z kapturem pracuje z laptopem i systemem kwantowym
Wykorzystując swoją przewagę Komputery kwantowe staną się przydatne dopiero wtedy, gdy narzędzia sprzętowe i programowe będą w stanie kontrolować z natury niestabilne kubity. (Dzięki uprzejmości: Riverlane)

„Nie ma przekonujących argumentów wskazujących, że znajdą się komercyjnie opłacalne zastosowania nie korzystaj z kwantowych kodów korygujących błędy i odpornych na błędy obliczeń kwantowych. Tak stwierdził podczas przemówienia fizyk z Caltech, John Preskill pod koniec 2023 r na spotkaniu Q2B23 w Kalifornii. Po prostu każdy, kto chce zbudować praktyczny komputer kwantowy, będzie musiał znaleźć sposób na radzenie sobie z błędami.

Komputery kwantowe stają się coraz potężniejsze, ale ich podstawowe elementy składowe – bity kwantowe, czyli kubity – są bardzo podatne na błędy, co ogranicza ich powszechne zastosowanie. Nie wystarczy po prostu zbudować komputer kwantowy z większą liczbą lepszych kubitów. Uwolnienie pełnego potencjału aplikacji obliczeń kwantowych będzie wymagało nowego sprzętu i narzędzi programowych, które będą w stanie kontrolować z natury niestabilne kubity i kompleksowo korygować błędy systemowe 10 miliardów razy lub więcej na sekundę.

Słowa Preskilla w zasadzie zapowiadały nadejście tzw Kwantowa korekcja błędów (QEC) era. QEC nie jest nowym pomysłem i firmy od wielu lat opracowują technologie mające na celu ochronę informacji przechowywanych w kubitach przed błędami i dekoherencją powodowaną przez szum. Nowością jest jednak rezygnacja z poglądu, że dzisiejsze hałaśliwe urządzenia średniej skali (NISQ) mogą przewyższać klasyczne superkomputery i uruchamiać aplikacje, które są obecnie niemożliwe.

Jasne, NISQ – termin ukuty przez Preskilla – był ważnym krokiem na drodze do odporności na błędy. Jednak przemysł kwantowy, inwestorzy i rządy muszą teraz zdać sobie sprawę, że korekcja błędów jest najważniejszym wyzwaniem dla obliczeń kwantowych.

Kwestia czasu

Tylko w zeszłym roku QEC odnotowała bezprecedensowy postęp. W 2023 r Google wykazało, że system 17-kubitowy może naprawić błąd po pojedynczym błędzie, a system 49-kubitowy po dwóch błędach (Natura 614 676). Amazonka wypuścił chip, który 100 razy tłumił błędy, podczas gdy Naukowcy z IBM odkrył nowy schemat korekcji błędów, który działa z 10 razy mniejszą liczbą kubitów (arXiv: 2308.07915). Następnie pod koniec roku kwantowa spółka typu spin-out Uniwersytetu Harvarda, Quera, wyprodukowała największą jak dotąd liczbę kubity z korekcją błędów .

Dekodowanie, które zamienia wiele zawodnych kubitów fizycznych w jeden lub więcej niezawodnych kubitów „logicznych”, jest podstawową technologią QEC. Dzieje się tak dlatego, że wielkoskalowe komputery kwantowe będą co sekundę generować terabajty danych, które należy odszyfrować tak szybko, jak zostały uzyskane, aby zapobiec rozprzestrzenianiu się błędów i czynieniu obliczeń bezużytecznymi. Jeśli nie będziemy dekodować wystarczająco szybko, będziemy mieli do czynienia z wykładniczo rosnące zaległości w zakresie danych.

Moja własna firma – Riverlane – została wprowadzona na rynek w zeszłym roku najpotężniejszy na świecie dekoder kwantowy. Nasz dekoder rozwiązuje ten problem z zaległościami, ale nadal występuje dużo więcej pracy. Firma opracowuje obecnie „dekodery strumieniowe”, które mogą przetwarzać ciągłe strumienie wyników pomiarów w momencie ich otrzymania, a nie po zakończeniu eksperymentu. Kiedy już osiągniemy ten cel, pozostaje jeszcze wiele do zrobienia. A dekodery to tylko jeden aspekt QEC – potrzebujemy również precyzyjnych i szybkich „systemów sterowania” do odczytu i zapisu kubitów.

W miarę ciągłego skalowania komputerów kwantowych te dekodery i systemy sterujące muszą współpracować, aby wytworzyć wolne od błędów kubity logiczne, a do 2026 r. firma Riverlane zamierza zbudować dekoder adaptacyjny, czyli działający w czasie rzeczywistym. Dzisiejsze maszyny są w stanie wykonać zaledwie kilkaset bezbłędnych operacji, ale przyszłe udoskonalenia będą działać z komputerami kwantowymi zdolnymi do przetworzenia miliona bezbłędnych operacji kwantowych (tzw. MegaQuOp).

Riverlane nie jest osamotniony w takich przedsięwzięciach i inne firmy kwantowe traktują obecnie priorytetowo QEC. IBM nie pracował wcześniej nad technologią QEC, skupiając się zamiast tego na większej liczbie lepszych kubitów. Ale firmowe Kwantowy plan działania na rok 2033 stwierdza, że ​​IBM zamierza do końca dekady zbudować maszynę o pojemności 1000 kubitów, zdolną do wykonywania użytecznych obliczeń, takich jak symulowanie działania cząsteczek katalizatora.

Tymczasem Quera niedawno przedstawiła swój plan działania który również nadaje priorytet QEC, podczas gdy Brytyjska Narodowa Strategia Kwantowa ma na celu zbudowanie komputerów kwantowych zdolnych do wykonania biliona bezbłędnych operacji (TeraQuOps) do 2035 r. Inne kraje opublikowały podobne plany, a cel na rok 2035 wydaje się możliwy do osiągnięcia, częściowo dlatego, że społeczność zajmująca się obliczeniami kwantowymi zaczyna dążyć do mniejszych, przyrostowych – ale równie ambitne – cele.

Tym, co naprawdę ekscytuje mnie w brytyjskiej Narodowej Strategii Kwantowej, jest cel posiadania maszyny MegaQuOp do 2028 r. Ponownie jest to realistyczny cel – właściwie twierdzę nawet, że wcześniej osiągniemy reżim MegaQuOp, dlatego Rozwiązanie QEC firmy Riverlane, Deltaflow, będzie gotowe do współpracy z maszynami MegaQuOp do 2026 r. Do zbudowania komputera kwantowego MegaQuOp nie potrzebujemy radykalnie nowej fizyki – a taka maszyna pomoże nam lepiej zrozumieć i profilować błędy kwantowe.

Gdy zrozumiemy te błędy, możemy zacząć je naprawiać i przystąpić do maszyn TeraQuOp. TeraQuOp jest również celem zmiennym – takim, w przypadku którego ulepszenia zarówno w QEC, jak i gdzie indziej, mogą skutkować osiągnięciem celu na rok 2035 kilka lat wcześniej.

Przydatność komputerów kwantowych dla społeczeństwa jest tylko kwestią czasu. A teraz, gdy w sposób skoordynowany skupiamy się na korekcji błędów kwantowych, punkt krytyczny osiągniemy raczej wcześniej niż później.

spot_img

Najnowsza inteligencja

spot_img