Logo Zephyrnet

Vitalik Buterin podkreśla potencjalny przypadek użycia sztucznej inteligencji w Ethereum

Data:

Vitalik Buterin podkreśla potencjalny przypadek użycia sztucznej inteligencji w Ethereum

reklama

 

 

Współzałożyciel Ethereum, Vitalik Buterin, wyraził swoje podekscytowanie potencjałem formalnej weryfikacji kodu i wyszukiwania błędów wspomaganej sztuczną inteligencją.

W poniedziałkowym tweecie Buterin zauważył, że największe ryzyko techniczne Ethereum wynika z błędów w kodzie i wszystko, co mogłoby znacząco zmienić grę na tym froncie, byłoby przełomowe.

„Jednym z zastosowań sztucznej inteligencji, które mnie ekscytuje, jest wspomagana przez sztuczną inteligencję formalna weryfikacja kodu i wyszukiwanie błędów. W tej chwili największym ryzykiem technicznym Ethereum są prawdopodobnie błędy w kodzie i wszystko, co mogłoby znacząco zmienić grę, byłoby niesamowite.” on napisał.

Warto zauważyć, że jest to jedno z głównych wyzwań stojących przed nami Ethereum protokołów polega na wykorzystywaniu błędów, co skutkuje wielomilionowymi stratami dla inwestorów w wyniku incydentów włamań. Według raportu Chainalytic środki kryptograficzne skradzione w 2023 r. osiągnęły zdumiewającą kwotę 1.7 miliarda dolarów, przy czym około dwie trzecie wszystkich skradzionych środków wywodzi się z hacków wymierzonych w protokoły DeFi. I chociaż ogólna liczba kradzieży spadła w porównaniu z poprzednimi latami, zagrożenie włamaniem do DeFi pozostaje poważnym problemem.

Tymczasem Buterin, choć wyraża optymizm co do potencjału AI, zwraca także uwagę na ostrożność. W blogu z 30 stycznia współzałożyciel Ethereum zalecał ostrożność w integracji sztucznej inteligencji z technologią blockchain, podkreślając krytyczną potrzebę ostrożnego i wyważonego podejścia, szczególnie przy wdrażaniu sztucznej inteligencji w kontekstach, które niosą ze sobą znaczną wartość i ryzyko.

reklamaCoinbase 

 

Warto zauważyć, że w zeszłym roku eksperyment OpenZeppelin, firmy zajmującej się opracowywaniem inteligentnych kontraktów, wykorzystujący GPT-4 OpenAI do wykrywania problemów z bezpieczeństwem w inteligentnych kontraktach Solidity, przyniósł mieszane rezultaty. Jak wynika z raportu firmy, GPT-4 dokładnie zidentyfikował luki w 20 z 28 wyzwań, ale czasami sfabrykował też nieistniejące luki.

Podobnie Kang Li, dyrektor ds. bezpieczeństwa w firmie CertiK zajmującej się bezpieczeństwem blockchain, przestrzegł przed poleganiem wyłącznie na narzędziach do kodowania opartych na sztucznej inteligencji. Przemawiając we wrześniu ubiegłego roku podczas Koreańskiego Tygodnia Blockchain, Li zauważył, że narzędzia AI mogą wprowadzić więcej problemów związanych z bezpieczeństwem, niż rozwiążą, jeśli zostaną zastosowane bez ostrożności. 

Li podkreślił ponadto, że na przykład ChatGPT może nie być w stanie wykryć błędów w kodzie logicznym tak skutecznie, jak doświadczeni programiści. Zamiast tego ekspert zaproponował wykorzystanie asystentów AI jako narzędzi wsparcia dla doświadczonych programistów, umożliwiając im skuteczniejsze zrozumienie kodu.

spot_img

Najnowsza inteligencja

spot_img