Wyciek Mythos wstrząsa rynkami kryptowalut Nieintencjonalny wyciek najbardziej zaawansowanego modelu sztucznej inteligencji Anthropic, Claude Mythos, spowodował natychmiastowe reperkusje w obu obszarach: kryptowalut i cyberbezpieczeństwa.
Wyciek Mythos wstrząsa rynkami kryptowalut
Nieintencjonalny wyciek najbardziej zaawansowanego modelu sztucznej inteligencji #Anthropic , #ClaudeMythos , spowodował natychmiastowe reperkusje w obu obszarach: kryptowalut i cyberbezpieczeństwa.
Na papierze, intencją Anthropic było cicho przetestować Mythos z wybranymi klientami mającymi wczesny dostęp, ale przypadkowe ujawnienie zmusiło do nagłej publicznej konfrontacji z jego potencjalnymi ryzykami.
Wpływ nie ograniczał się tylko do walut cyfrowych. Akcje związane z bezpieczeństwem oprogramowania, takie jak #PaloAltoNetworks i #CrowdStrike spadły o 4% do 6%, podczas gdy szerszy ETF iShares Expanded Tech-Software Sector spadł o 2,5%. Te liczby odzwierciedlają, jak ściśle związane stały się postępy AI i bezpieczeństwo aktywów cyfrowych — oraz jak szybko zaufanie rynku może się erodować, gdy pojawiają się nowe zagrożenia.
$BTC dropnęło z $66,899.75 do $66,000 po wiadomości o wycieku w czwartek.
Błąd ludzki ujawnia ryzyka AI i blockchaina
Anthropic przypisał naruszenie błędowi ludzkiego w swoim systemie zarządzania treścią. Badacze zajmujący się cyberbezpieczeństwem odkryli, że nie tylko robocza wersja Mythos była dostępna, ale także tysiące innych wewnętrznych zasobów związanych z operacjami blogowymi Anthropic. Firma odpowiedziała, natychmiast ograniczając publiczny dostęp po skontaktowaniu się z dziennikarzami, ale do tego momentu szkody zostały już wyrządzone: wrażliwe informacje o ich najpotężniejszym #AI modelu trafiły do domeny publicznej.
Sama robocza wersja posta ostrzegała, że Mythos może stwarzać „bezprecedensowe ryzyka cyberbezpieczeństwa”, szczególnie dla bezpieczeństwa blockchaina i audytu kontraktów inteligentnych.
Według coindesk.com, wewnętrzne dokumenty Anthropic wyraźnie podkreślały te zagrożenia, zauważając, że Mythos uzyskał „dramatycznie wyższe” wyniki niż wcześniejsze modele w testach dotyczących kodowania oprogramowania i cyberbezpieczeństwa. Ten skok w zdolnościach jest podwójnie ostrym mieczem: podczas gdy oferuje nowe narzędzia do obrony, podnosi również stawkę dla eksploatacji, jeśli taki AI wpadnie w ręce złośliwych osób.
Poziom Capybara obiecuje niewidzialną moc
Poza samym Mythos, wyciekłe materiały odnosiły się do nadchodzącego poziomu modelu o nazwie „Capybara”, opisanego jako większy i bardziej zdolny niż istniejąca oferta Opus Anthropic.
Poziom Capybara nie jest jeszcze dostępny do ogólnego użytku i pozostaje w wczesnym etapie testów z wybranymi organizacjami skoncentrowanymi na obronie cyberbezpieczeństwa. Wewnętrznie oznaczony jako wersja druga — podczas gdy Mythos to wersja pierwsza — Capybara sygnalizuje ambicje Anthropic, aby jeszcze bardziej posunąć możliwości AI poza obecne standardy. Jednak roboczy post na blogu jasno wskazał, że uruchamianie tych modeli jest kosztowne i jeszcze nieopłacalne na dużą skalę dla większości użytkowników.
Dlaczego to ma znaczenie: praktyczny wpływ na bezpieczeństwo kryptowalut
Bezpośrednie skutki wycieku odczuwane są zarówno w sferach finansowych, jak i technicznych. Dla posiadaczy kryptowalut i deweloperów blockchaina, ujawnienie, że model AI potrafi identyfikować i wykorzystywać luki w sposób bardziej efektywny niż kiedykolwiek wcześniej, wprowadza nową warstwę ryzyka. Audyt kontraktów inteligentnych — proces mający na celu wychwycenie błędów lub tylnych drzwi w kodzie zdecentralizowanych finansów (DeFi) — może teraz napotkać wyzwania, którym obecne narzędzia są nieprzystosowane do radzenia sobie.
To zmartwienie nie jest teoretyczne; protokoły DeFi już zmagają się z częstymi hackami, które skutkują utratą milionów każdego roku. Z doniesień wynika, że Mythos przewyższa Opus 4.6 w zakresie rozumowania akademickiego i zadań związanych z bezpieczeństwem oprogramowania, niektórzy obawiają się, że napastnicy mogą wykorzystać podobną technologię do automatyzacji eksploatacji na dużą skalę. Fakt, że Anthropic planuje jedynie ostrożne wprowadzenie wczesnego dostępu, podkreśla zarówno obietnice, jak i niebezpieczeństwa takich zaawansowanych systemów AI.
Tysiące wewnętrznych zasobów przypadkowo ujawnionych
Skala ujawnienia wyróżnia się: prawie 3,000 nieopublikowanych zasobów zostało pozostawionych otwartych z powodu błędnie skonfigurowanych kontroli dostępu w systemach zaplecza Anthropic. Ten zbiór zawierał nie tylko szczegóły dotyczące Mythos, ale także inne wrażliwe materiały firmy. Chociaż publiczny dostęp został zablokowany wkrótce po odkryciu, pozostaje niepewne, ile dokładnie stron trzecich mogło uzyskać dostęp lub pobrać te pliki przed ich zabezpieczeniem.
Orzeczenie jednego sędziego w tym tygodniu dodało kolejny poziom złożoności: sędzia okręgowy USA Rita Lin zablokowała wysiłki federalnych agencji mające na celu uznanie Anthropic za ryzyko w łańcuchu dostaw z powodu odmowy zezwolenia na masową inwigilację lub śmiercionośne autonomiczne zastosowania wojenne dla swoich modeli AI. Walka prawna dotyczy kontraktu rządowego na 200 milionów dolarów przyznanego w lipcu 2025 — i podkreśla, jak regulacyjne zbadanie zbiega się z ryzykiem technicznym w dokładnie niewłaściwym momencie zarówno dla Anthropic, jak i jego klientów.
Co może napędzać następny etap
Jeśli Anthropic przeniesie Mythos z ograniczonych wczesnych testów dostępu do szerszej dostępności ogólnej — co obecnie nie jest jeszcze potwierdzone z powodu wysokich kosztów operacyjnych i wskazanych ryzyk cyberbezpieczeństwa — rynki mogą zareagować natychmiast, biorąc pod uwagę udowodnioną zdolność modelu do przewyższania Opus 4.6 w zakresie kodowania oprogramowania i cyberbezpieczeństwa, jak podkreślono w wyciekłych dokumentach wewnętrznych.
