Nowe badania twierdzą, że specjalistyczna AI dramatycznie przewyższa modele ogólnego przeznaczenia w wykrywaniu wykorzystanych podatności DeFi.

Oba systemy działały na tym samym modelu granicznym. Różnica, według raportu, dotyczyła warstwy aplikacji: metodologia specyficzna dla domeny, uporządkowane fazy przeglądu oraz heurystyki bezpieczeństwa skoncentrowane na DeFi nałożone na model.

Wyniki pojawiają się w obliczu rosnącego niepokoju, że AI przyspiesza przestępczość kryptograficzną. Oddzielne badania przeprowadzone przez Anthropic i OpenAI wykazały, że agenci AI mogą teraz wykonywać eksploity end-to-end na większości znanych podatnych kontraktów inteligentnych, a zdolność do eksploatacji podobno podwaja się mniej więcej co 1,3 miesiąca. Średni koszt próby eksploatacji wspomaganej przez AI wynosi około $1.22 za kontrakt, co znacznie obniża barierę do skanowania na dużą skalę.

Poprzednie relacje CoinDesk wskazały, jak źli aktorzy, tacy jak Korea Północna, zaczęli używać AI do skalowania operacji hakerskich i automatyzacji części procesu eksploatacji, podkreślając rosnącą lukę między zdolnościami ofensywnymi a defensywnymi.

Cecuro argumentuje, że wiele zespołów polega na ogólnych narzędziach AI lub jednorazowych audytach w zakresie bezpieczeństwa, podejście, które sugeruje benchmark, może przeoczyć wartościowe, złożone luki. Kilka umów w zbiorze danych wcześniej przeszło profesjonalne audyty przed ich wykorzystaniem.

Zestaw danych benchmarkowych, ramy oceny i podstawowy agent zostały udostępnione jako open source na GitHubie. Firma stwierdziła, że nie opublikowała swojego pełnego agenta bezpieczeństwa z obaw, że podobne narzędzia mogą zostać wykorzystane do użytku ofensywnego.

#GoogleDocsMagic

#Shibarium

#KEEP_SUPPORT

#ordi。

#DelistingAlert