Sztuczna inteligencja uczy się hakować inteligentne kontrakty: Anthropic ujawnia zagrożenie dla branży kryptograficznej
Badania firmy Anthropic, opublikowane 1 grudnia, pokazują, w jaki sposób zaawansowane modele sztucznej inteligencji, takie jak Claude Opus 4.5, Claude Sonnet 4.5 i GPT-5, mogą naśladować działania hakerów, a nawet odkrywać nieznane wcześniej exploity.
Eksperyment Anthropic opierał się na benchmarku SCONE-bench, który obejmował 405 prawdziwych inteligentnych kontraktów zhakowanych w latach 2020-2025. Naukowcy poprosili 10 zaawansowanych modeli sztucznej inteligencji o odtworzenie tych ataków w symulowanym środowisku. Wyniki są uderzające: Sztuczna inteligencja z powodzeniem zhakowała 207 kontraktów (51,11%), "kradnąc" 550,1 miliona dolarów w symulacji. W szczególności modele Opus 4.5, Sonnet 4.5 i GPT-5 poradziły sobie z 19 z 34 kontraktów zhakowanych po marcu 2025 r. (po odcięciu wiedzy modeli), generując do 4,6 mln USD symulowanego zysku.
Eksperyment nie zakończył się jednak na znanych podatnościach. Anthropic dostarczył modelom 2 849 nowych inteligentnych kontraktów z Binance Smart Chain, które nie miały znanych luk w zabezpieczeniach, były kompatybilne z ERC-20, ze zweryfikowanym kodem i płynnością. Sonnet 4.5 i GPT-5 niezależnie znalazły exploity w dwóch kontraktach, "zarabiając" 3 694 USD w symulacji. Pokazuje to zdolność sztucznej inteligencji do wykrywania luk "zero-day" - takich, o których nikt wcześniej nie wiedział.
Koszt takiego skanowania jest imponująco przystępny: uruchomienie agenta GPT-5 w celu przeanalizowania wszystkich 2 849 umów kosztowało tylko 3 476 USD, a proces trwał mniej niż 48 godzin. Średni koszt jednego uruchomienia agenta to 1,22 USD, a wykrycie podatnego kontraktu to 1 738 USD. Zyski z exploitów średnio przewyższały koszty, czyniąc je ekonomicznie opłacalnymi. Badacze zauważają, że w rzeczywistych warunkach hakerzy mogliby osiągnąć 3-4 razy więcej udanych exploitów przy tym samym budżecie, biorąc pod uwagę optymalizację i skalowalność.
Wyniki te wywołują niepokój w społeczności kryptowalut. Według szacunków Anthropic, zysk z exploitów w 2025 r. podwajał się mniej więcej co 1,3 miesiąca ze względu na poprawę możliwości agentów AI, takich jak wykorzystanie narzędzi i długoterminowe planowanie zadań. Prawdopodobnie sztuczna inteligencja była już zaangażowana w połowę włamań, które miały miejsce w 2025 roku, od ataków na dużą skalę na protokoły DeFi po mniej zauważalne exploity.
Badania podkreślają dwoistą naturę sztucznej inteligencji: ci sami agenci, którzy wykorzystują exploity, mogą być wykorzystywani do audytu i naprawiania umów. Anthropic opublikował otwarty punkt odniesienia dla testów bezpieczeństwa, wzywając do proaktywnego wykorzystania sztucznej inteligencji w obronie blockchain.
Eksperci z CoinDesk i Decrypt zauważają, że sygnalizuje to nową erę cyberzagrożeń, w której sztuczna inteligencja może być stosowana nie tylko w blockchainie, ale także w ogólnym oprogramowaniu.
"Zbliżamy się do prawdziwych ataków na DeFi", pisze CoinDesk. "Warto przygotować się na to, że agenci AI staną się standardowym narzędziem hakerów".
W kontekście 2025 r., kiedy branża kryptowalut poniosła rekordowe straty w wyniku włamań (ponad 2 mld USD według szacunków Chainalysis), badania te stają się wezwaniem do działania. Twórcy inteligentnych kontraktów zalecają wzmocnienie audytów, wykorzystanie sztucznej inteligencji do testowania i wdrożenie wielowarstwowej ochrony. Przyszłość kryptowalut zależy od tego, kto dostosuje się szybciej - hakerzy czy obrońcy.


11% bonus od depozytu + FreeSpin
DODATKOWY BONUS OD DEPOZYTU 10% + DARMOWE 2 SPINY NA KOLE
NAJLEPSZE ODDSY, darmowe skrzynki dzienne, darmowe pady, dzienny, tygodniowy i miesięczny rakeback!

Zarejestruj się teraz i otrzymaj 1 BEZPŁATNE PUDEŁKO
Darmowe etui i 100% bonus powitalny




Komentarze