Logo Zephyrnet

Bộ giải mã mạng thần kinh cho mã Toric 2D khoảng cách lớn

Ngày:

Hiểu Đồng Ni

QuTech, Đại học Công nghệ Delft, POBox 5046, 2600 GA Delft, Hà Lan.

Tìm bài báo này thú vị hay muốn thảo luận? Scite hoặc để lại nhận xét về SciRate.

Tóm tắt

Chúng tôi vẫn chưa có bộ giải mã hoàn hảo cho các mã tô pô có thể đáp ứng mọi nhu cầu của các thiết lập thử nghiệm khác nhau. Gần đây, một số bộ giải mã dựa trên mạng thần kinh đã được nghiên cứu, với động lực là chúng có thể thích ứng với nhiều loại mô hình nhiễu và có thể dễ dàng chạy trên các chip chuyên dụng mà không cần máy tính chính thức. Tính năng sau này có thể dẫn đến tốc độ nhanh và khả năng hoạt động ở nhiệt độ thấp. Tuy nhiên, một câu hỏi chưa được giải quyết trong các công trình trước đó là liệu bộ giải mã mạng thần kinh có thể xử lý mã tô pô 2D với khoảng cách lớn hay không. Trong công việc này, chúng tôi cung cấp một câu trả lời tích cực cho mã toric [1]. Cấu trúc của bộ giải mã mạng thần kinh của chúng tôi được lấy cảm hứng từ bộ giải mã nhóm tái chuẩn hóa [2,3]. Với chính sách khá nghiêm ngặt về thời gian đào tạo, khi tỷ lệ lỗi lật bit thấp hơn $9%$ và quá trình trích xuất hội chứng diễn ra hoàn hảo, bộ giải mã mạng nơ-ron hoạt động tốt hơn khi khoảng cách mã tăng lên. Với chính sách ít nghiêm ngặt hơn, chúng tôi thấy bộ giải mã thần kinh không khó để đạt được hiệu suất gần với thuật toán khớp hoàn hảo có trọng số tối thiểu. Mô phỏng số được thực hiện đến khoảng cách mã $d=64$. Cuối cùng nhưng không kém phần quan trọng, chúng tôi mô tả và phân tích một vài cách tiếp cận thất bại. Chúng hướng dẫn chúng ta đến thiết kế cuối cùng của bộ giải mã thần kinh, nhưng cũng là một lời cảnh báo khi chúng ta đánh giá tính linh hoạt của các mạng thần kinh sâu có sẵn. Mã nguồn của bộ giải mã thần kinh của chúng tôi có thể được tìm thấy tại [4].

► Dữ liệu BibTeX

► Tài liệu tham khảo

[1] A.Yu. Kitaev. Tính toán lượng tử chịu lỗi của bất kỳ ai. Biên niên sử Vật lý, 303 (1): 2–30, tháng 2003 năm 10.1016. 0003/​s4916-02(00018)0-XNUMX.
https:/​/​doi.org/​10.1016/​s0003-4916(02)00018-0

[2] Guillaume Duclos-Cianci và David Poulin. Bộ giải mã nhanh cho mã lượng tử tôpô. Thư đánh giá thể chất, 104 (5): 050504, 2010. 10.1103 / PhysRevLett.104.050504.
https: / / doi.org/ 10.1103 / PhysRevLett.104.050504

[3] Guillaume Duclos-Cianci và David Poulin. Bộ giải mã nhóm tái chuẩn hóa chịu lỗi cho các mã cấu trúc liên kết abelian. Thông tin & Tính toán Lượng tử, 14 (9-10): 721–740, 2014.

[4] https://​/​github.com/​XiaotongNi/​toric-code-neural-decoder.
https://​/​github.com/​XiaotongNi/​toric-code-neural-decoder

[5] Paul Baireuther, Thomas E. O'Brien, Brian Tarasinski, và Carlo WJ Beenakker. Máy học hỗ trợ sửa các lỗi qubit tương quan trong mã cấu trúc liên kết. Lượng tử, 2:48, tháng 2018 năm 10.22331. 2018/​q-01-29-48-XNUMX.
https:/​/​doi.org/​10.22331/​q-2018-01-29-48

[6] Savvas Varsamopoulos, Ben Criger và Koen Bertels. Giải mã các mã bề mặt nhỏ bằng mạng thần kinh chuyển tiếp. Khoa học và Công nghệ Lượng tử, 3 (1): 015004, tháng 2017 năm 10.1088. 2058/​9565-955/​aaXNUMXa.
https: / / doi.org/ 10.1088 / 2058-9565 / aa955a

[7] Giacomo Torlai và Roger G Melko. Một bộ giải mã thần kinh cho các mã tô pô. Physical Review Letters, 119 (3): 030501, 2017. 10.1103/​PhysRevLett.119.030501.
https: / / doi.org/ 10.1103 / PhysRevLett.119.030501

[8] Nikolas P. Breuckmann và Xiaotong Ni. Bộ giải mã mạng thần kinh có thể mở rộng cho mã lượng tử chiều cao hơn. Lượng tử, 2: 68, tháng 2018 năm 10.22331. 2018/​q-05-24-68-XNUMX.
https:/​/​doi.org/​10.22331/​q-2018-05-24-68

[9] Paul Baireuther, MD Caio, B Criger, Carlo WJ Beenakker, và Thomas E O'Brien. Bộ giải mã mạng thần kinh cho các mã màu cấu trúc liên kết với nhiễu mức mạch. Tạp chí Vật lý mới, 21(1): 013003, 2019. 10.1088/​1367-2630/​aaf29e.
https: / / doi.org/ 10.1088/1367-2630 / aaf29e

[10] Stefan Krastanov và Lương Giang. Bộ giải mã xác suất mạng thần kinh sâu cho mã ổn định. Báo cáo khoa học, 7 (1), tháng 2017 năm 10.1038. 41598/​s017-11266-1-XNUMX.
https:/​/​doi.org/​10.1038/​s41598-017-11266-1

[11] Nishad Maskara, Aleksander Kubica và Tomas Jochym-O'Connor. Ưu điểm của giải mã mạng thần kinh linh hoạt cho các mã tô pô. Đánh giá Vật lý A, 99 (5): 052351, 2019. 10.1103/​PhysRevA.99.052351.
https: / / doi.org/ 10.1103 / PhysRevA.99.052351

[12] Christopher Chamberland và Pooya Ronagh. Bộ giải mã thần kinh sâu cho các thí nghiệm chịu lỗi trong thời gian ngắn. Khoa học và Công nghệ lượng tử, 3 (4): 044002, tháng 2018 năm 10.1088. 2058/​9565-1/​aad7fXNUMX.
https:/​/​doi.org/​10.1088/​2058-9565/​aad1f7

[13] Yann LeCun và cộng sự. Khái quát hóa và chiến lược thiết kế mạng. Chủ nghĩa kết nối trong quan điểm, trang 143–155, 1989.

[14] Alex Krizhevsky, Ilya Sutskever, và Geoffrey E. Hinton. Phân loại Imagenet với các mạng thần kinh tích chập sâu. Trong F. Pereira, CJC Burges, L. Bottou và KQ Weinberger, biên tập viên, Những tiến bộ trong Hệ thống xử lý thông tin thần kinh 25, trang 1097–1105. Hiệp hội Curran, Inc., 2012.

[15] Alexandre Attia và Sharone Dayan. Tổng quan toàn cầu về học bắt chước. 2018. URL https://​/​arxiv.org/​abs/​1801.06503.
arXiv: 1801.06503

[16] Eliya Nachmani, Yair Be'ery, và David Burshtein. Học cách giải mã mã tuyến tính bằng cách sử dụng học sâu. Vào năm 2016, Hội nghị Allerton thường niên lần thứ 54 về Truyền thông, Điều khiển và Điện toán (Allerton). IEEE, tháng 2016 năm 10.1109. 2016.7852251/​allerton.XNUMX.
https://​/​doi.org/​10.1109/​allerton.2016.7852251

[17] Sergey Ioffe và Christian Szegedy. Chuẩn hóa hàng loạt: Tăng tốc đào tạo mạng sâu bằng cách giảm sự thay đổi đồng biến nội bộ. 2015. URL https://​/​arxiv.org/​abs/​1502.03167.
arXiv: 1502.03167

[18] Norman P. Jouppi, Al Borchers, Rick Boyle, Pierre luc Cantin, Clifford Chao, Chris Clark, Jeremy Coriell, Mike Daley, Matt Dau, Jeffrey Dean, Ben Gelb, Cliff Young, Tara Vazir Ghaemmaghami, Rajendra Gottipati, William Gulland, Robert Hagmann, C. Richard Ho, Doug Hogberg, John Hu, Robert Hundt, Dan Hurt, Julian Ibarz, Nishant Patil, Aaron Jaffey, Alek Jaworski, Alexander Kaplan, Harshit Khaitan, Daniel Killebrew, Andy Koch, Naveen Kumar, Steve Lacy, James Laudon, James Law, David Patterson, Diemthu Le, Chris Leary, Zhuyuan Liu, Kyle Lucke, Alan Lundin, Gordon MacKean, Adriana Maggiore, Maire Mahony, Kieran Miller, Rahul Nagarajan, Gaurav Agrawal, Ravi Narayanaswami, Ray Ni, Kathy Nix, Thomas Norrie, Mark Omernick, Narayana Penukonda, Andy Phelps, Jonathan Ross, Matt Ross, Amir Salek, Raminder Bajwa, Emad Samadiani, Chris Severn, Gregory Sizikov, Matthew Snelham, Jed Souter, Dan Steinberg, Andy Swing, Mercedes Tan, Gregory Thorson , Bo Tian, ​​Sarah Bates, Horia Toma, Erick Tuttle, Vijay Va sudevan, Richard Walter, Walter Wang, Eric Wilcox, Doe Hyun Yoon, Suresh Bhatia và Nan Boden. Phân tích hiệu suất trong trung tâm dữ liệu của một đơn vị xử lý tensor. Trong Kỷ yếu của Hội thảo Quốc tế Thường niên lần thứ 44 về Kiến trúc Máy tính – ISCA '17. ACM Press, 2017. 10.1145/​3079856.3080246.
https: / / doi.org/ 10.1145 / 3079856.3080246

[19] Martín Abadi, Ashish Agarwal, Paul Barham, Eugene Brevdo, Zhifeng Chen, Craig Citro, Greg S. Corrado, Andy Davis, Jeffrey Dean, Matthieu Devin, Sanjay Ghemawat, Ian Goodfellow, Andrew Harp, Geoffrey Irving, Michael Isard, Yangqing Jia, Rafal Jozefowicz, Lukasz Kaiser, Manjunath Kudlur, Josh Levenberg, Dandelion Mané, Rajat Monga, Sherry Moore, Derek Murray, Chris Olah, Mike Schuster, Jonathon Shlens, Benoit Steiner, Ilya Sutskever, Kunal Talwar, Paul Tucker, Vincent Vanhouckevan , Fernanda Viégas, Oriol Vinyals, Pete Warden, Martin Wattenberg, Martin Wicke, Yuan Yu và Xiaoqiang Zheng. TensorFlow: Máy học quy mô lớn trên các hệ thống không đồng nhất, 2015. URL https: / / www.tensorflow.org/. Phần mềm có sẵn từ tensorflow.org.
https: / / www.tensorflow.org/

[20] ID Conway Lamb, JI Colless, JM Hornibrook, SJ Pauka, SJ Waddy, MK Frechtling và DJ Reilly. Một nền tảng thiết bị dựa trên FPGA để sử dụng ở nhiệt độ đông lạnh sâu. Review of Scientific Instruments, 87 (1): 014701, tháng 2016 năm 10.1063. 1.4939094/​XNUMX.
https: / / doi.org/ 10.1063 / 1.4939094

[21] Yu Cheng, Duo Wang, Pan Zhou và Tao Zhang. Nén và tăng tốc mô hình cho mạng lưới thần kinh sâu: Các nguyên tắc, tiến độ và thách thức. Tạp chí xử lý tín hiệu IEEE, 35 (1): 126–136, tháng 2018 năm 10.1109. 2017.2765695/​msp.XNUMX.
https://​/​doi.org/​10.1109/​msp.2017.2765695

[22] Vladimir Kolmogorov. Blossom v: một triển khai mới của thuật toán kết hợp hoàn hảo với chi phí tối thiểu. Tính toán lập trình toán học, 1 (1): 43–67, tháng 2009 năm 10.1007. 12532/​s009-0002-8-XNUMX.
https:/​/​doi.org/​10.1007/​s12532-009-0002-8

[23] Aric Hagberg, Dan Schult, Pieter Swart, et al. Mạngx, 2004–. URL https://​/​networkx.github.io/​.
https://​/​networkx.github.io/​

[24] Gabriel Goh. Tại sao đà thực sự hoạt động. Chưng cất, 2017. 10.23915/​distill.00006.
https://​/​doi.org/​10.23915/​distill.00006

[25] Yoshua Bengio và Yann LeCun. Mở rộng các thuật toán học tập theo hướng ai. Máy nhân quy mô lớn, 34 (5): 1–41, 2007.

[26] Dumitru Erhan, Yoshua Bengio, Aaron Courville, Pierre-Antoine Manzagol, Pascal Vincent và Samy Bengio. Tại sao đào tạo trước không giám sát giúp học sâu? Tạp chí Nghiên cứu Máy học, ngày 11 (Tháng 625): 660–2010, XNUMX.

[27] Andrew L Maas, Awni Y Hannun, và Andrew Y Ng. Sự phi tuyến tính của bộ chỉnh lưu cải thiện các mô hình âm thanh mạng thần kinh. Trong Kỷ yếu Hội nghị Quốc tế lần thứ 30 về Học máy, tập 28 của Kỷ yếu Hội thảo và Hội thảo JMLR, Atlanta, Georgia, Hoa Kỳ, 2013.

[28] Diederik Kingma và Jimmy Ba. Adam: Một phương pháp tối ưu hóa ngẫu nhiên. Hội nghị quốc tế lần thứ 3 về biểu diễn học tập, San Diego, 2015. URL https://​/​arxiv.org/​abs/​1412.6980.
arXiv: 1412.6980

Trích dẫn

[1] Ryan Sweke, Markus S. Kesselring, Evert PL van Nieuwenburg, và Jens Eisert, “Reinforcement Learning Decoders for Fault-Tolerant Quantum Computation”, arXiv: 1810.07207.

[2] Hendrik Poulsen Nautrup, Nicolas Delfosse, Vedran Dunjko, Hans J. Briegel và Nicolai Friis, “Tối ưu hóa mã sửa lỗi lượng tử với học tăng cường”, arXiv: 1812.08451.

[3] Ye-Hua Liu và David Poulin, “Bộ giải mã lan truyền niềm tin thần kinh cho mã sửa lỗi lượng tử”, Thư đánh giá vật lý 122 20, 200501 (2019).

[4] Chaitanya Chinni, Abhishek Kulkarni, Dheeraj M. Pai, Kaushik Mitra, và Pradeep Kiran Sarvepalli, “Bộ giải mã thần kinh cho mã cấu trúc liên kết sử dụng Pseudo-Inverse of Parity Check Matrix”, arXiv: 1901.07535.

[5] Savvas Varsamopoulos, Koen Bertels và Carmen G. Almudever, “So sánh các bộ giải mã dựa trên mạng nơ-ron cho mã bề mặt”, arXiv: 1811.12456.

[6] Savvas Varsamopoulos, Koen Bertels, và Carmen G. Almudever, “Giải mã mã bề mặt bằng bộ giải mã dựa trên mạng thần kinh phân tán”, arXiv: 1901.10847.

[7] Nishad Maskara, Aleksander Kubica, và Tomas Jochym-O'Connor, “Ưu điểm của giải mã mạng thần kinh đa năng cho các mã cấu trúc liên kết”, Đánh giá vật lý A 99 5, 052351 (2019).

[8] Milap Sheth, Sara Zafar Jafarzadeh, và Vlad Gheorghiu, "Giải mã nhóm thần kinh cho các mã sửa lỗi lượng tử tôpô", Đánh giá vật lý A 101 3, 032338 (2020).

[9] Philip Andreasson, Joel Johansson, Simon Liljestrand và Mats Granath, “Sửa lỗi lượng tử cho mã toric bằng cách sử dụng phương pháp học tăng cường sâu”, arXiv: 1811.12338.

[10] Agnes Valenti, Evert van Nieuwenburg, Sebastian Huber và Eliska Greplova, “Học Hamilton để sửa lỗi lượng tử”, Nghiên cứu đánh giá vật lý 1 3, 033092 (2019).

[11] Thomas Wagner, Hermann Kampermann và Dagmar Bruß, “Các đối xứng cho bộ giải mã thần kinh cấp cao trên mã Toric”, arXiv: 1910.01662.

[12] Nicolas Delfosse, "Giải mã phân cấp để giảm yêu cầu phần cứng cho tính toán lượng tử", arXiv: 2001.11427.

[13] Poulami Das, Christopher A. Pattison, Srilatha Manne, Douglas Carmean, Krysta Svore, Moinuddin Qureshi, và Nicolas Delfosse, “Một kiến ​​trúc vi mô bộ giải mã có thể mở rộng cho Máy tính lượng tử dung nạp lỗi”, arXiv: 2001.06598.

[14] David Fitzek, Mattias Eliasson, Anton Frisk Kockum và Mats Granath, “Bộ giải mã Deep Q-learning để khử nhiễu trên mã toric”, Nghiên cứu đánh giá vật lý 2 2, 023230 (2020).

[15] Lingling Lao và Carmen G. Almudever, “Sửa lỗi lượng tử chịu lỗi trên bộ xử lý lượng tử ngắn hạn sử dụng qubit cờ và cầu”, Đánh giá vật lý A 101 3, 032333 (2020).

[16] Santiago Varona và Miguel Angel Martin-Delgado, “Xác định ngưỡng mã Semion bằng bộ giải mã thần kinh”, arXiv: 2002.08666.

Các trích dẫn trên là từ SAO / NASA ADS (cập nhật lần cuối thành công 2020 / 08-26 04:30:59). Danh sách có thể không đầy đủ vì không phải tất cả các nhà xuất bản đều cung cấp dữ liệu trích dẫn phù hợp và đầy đủ.

On Dịch vụ trích dẫn của Crossref không có dữ liệu về các công việc trích dẫn được tìm thấy (lần thử cuối cùng 2020 / 08-26 04:30:57).

Nguồn: https://quantum-journal.org/ con / q-2020 / 08-24-310 /

tại chỗ_img

Tin tức mới nhất

tại chỗ_img