La fuga di Mythos scuote i mercati crypto La fuga involontaria del modello di intelligenza artificiale più avanzato di Anthropic, Claude Mythos, ha innescato immediati contraccolpi sia nel settore crypto che in quello della cybersicurezza.
La fuga di Mythos scuote i mercati crypto
La fuga involontaria del modello di intelligenza artificiale più avanzato di #Anthropic , #ClaudeMythos , ha innescato immediati contraccolpi sia nel settore crypto che in quello della cybersicurezza.
Sulla carta, l'intento di Anthropic era di testare silenziosamente Mythos con selezionati clienti in accesso anticipato, ma la divulgazione accidentale ha costretto a un'improvvisa presa di coscienza pubblica sui suoi potenziali rischi.
L'impatto non si è limitato solo alle valute digitali. Le azioni di sicurezza software come #PaloAltoNetworks e #CrowdStrike sono scese tra il 4% e il 6%, mentre l'ETF iShares Expanded Tech-Software Sector più ampio è sceso del 2,5%. Questi numeri riflettono quanto siano strettamente intrecciati i progressi dell'AI e la sicurezza degli asset digitali—e quanto rapidamente la fiducia del mercato possa erodersi quando emergono nuove minacce.
$BTC sceso da $66,899.75 a $66,000 dopo la notizia della fuga di notizie giovedì.
L'errore umano espone i rischi dell'AI e della blockchain
Anthropic ha attribuito la violazione a un errore umano nel suo sistema di gestione dei contenuti. I ricercatori di sicurezza informatica hanno scoperto che non solo il progetto di Mythos era accessibile, ma anche migliaia di altre risorse interne legate alle operazioni del blog di Anthropic. L'azienda ha risposto limitando immediatamente l'accesso pubblico dopo essere stata contattata dai giornalisti, ma oramai, il danno era fatto: informazioni sensibili sul loro modello più potente #AI erano entrate nel dominio pubblico.
Il progetto di post stesso avvertiva che Mythos potrebbe presentare “rischi per la sicurezza informatica senza precedenti”, in particolare per la sicurezza della blockchain e l'audit dei contratti intelligenti.
Secondo coindesk.com, documenti interni di Anthropic hanno evidenziato esplicitamente questi pericoli, notando che Mythos ha ottenuto punteggi “dramaticamente più alti” rispetto ai modelli precedenti in test che coinvolgono la codifica software e la sicurezza informatica. Questo salto nella capacità è a doppio taglio: mentre offre nuovi strumenti per la difesa, alza anche le scommesse per lo sfruttamento se tale AI finisce in mani malintenzionate.
Il livello Capybara promette potere invisibile
Oltre a Mythos stesso, i materiali trapelati hanno fatto riferimento a un livello di modello imminente chiamato “Capybara,” descritto come più grande e più capace rispetto alla linea di prodotti Opus esistente di Anthropic.
Il livello Capybara non è ancora disponibile per l'uso generale e rimane in fase di test iniziale con organizzazioni selezionate focalizzate sulla difesa informatica. Etichettato internamente come versione due—mentre Mythos è la versione uno—Capybara segnala l'ambizione di Anthropic di spingere le capacità dell'AI ancora oltre gli attuali parametri di riferimento. Tuttavia, il progetto di post del blog ha chiarito che eseguire questi modelli è costoso e non ancora fattibile su larga scala per la maggior parte degli utenti.
Perché è importante: impatto pratico sulla sicurezza delle criptovalute
Le conseguenze immediate della fuga di notizie sono state avvertite in entrambi i settori finanziario e tecnico. Per i possessori di criptovalute e gli sviluppatori di blockchain, la rivelazione che un modello AI può identificare e sfruttare vulnerabilità in modo più efficace di qualsiasi altro prima di esso introduce un nuovo livello di rischio. L'audit dei contratti intelligenti—un processo volto a catturare bug o backdoor nel codice della finanza decentralizzata (DeFi)—potrebbe ora affrontare sfide che gli strumenti esistenti non sono attrezzati per gestire.
Questa preoccupazione non è teorica; i protocolli DeFi già si confrontano con frequenti hackeraggi che portano a milioni di dollari persi ogni anno. Con Mythos che apparentemente supera Opus 4.6 in ragionamento accademico e compiti di sicurezza software, alcuni temono che gli attaccanti potrebbero sfruttare una tecnologia simile per automatizzare gli sfruttamenti su larga scala. Il fatto che Anthropic preveda solo un lancio cauto di accesso anticipato sottolinea sia la promessa che il pericolo di tali sistemi AI avanzati.
Migliaia di risorse interne esposte involontariamente
La scala dell'esposizione si distingue: quasi 3.000 risorse non pubblicate sono state lasciate aperte a causa di controlli di accesso mal configurati nei sistemi backend di Anthropic. Questo tesoro includeva non solo dettagli su Mythos ma anche altri materiali sensibili dell'azienda. Anche se l'accesso pubblico è stato bloccato subito dopo la scoperta, rimane incerto esattamente quante terze parti possano aver avuto accesso o scaricato questi file prima che fossero protetti.
La sentenza di un giudice questa settimana ha aggiunto un ulteriore livello di complessità: il giudice distrettuale degli Stati Uniti Rita Lin ha bloccato gli sforzi delle agenzie federali per designare Anthropic come un rischio per la catena di approvvigionamento a causa del suo rifiuto di consentire la sorveglianza di massa o applicazioni di guerra autonoma letale per i suoi modelli AI. La battaglia legale coinvolge un contratto governativo da 200 milioni di dollari assegnato a luglio 2025—e mette in evidenza come il controllo normativo si stia congiungendo con il rischio tecnico nel momento sbagliato sia per Anthropic che per i suoi clienti.
Cosa potrebbe guidare la prossima fase
Se Anthropic sposta Mythos da prove di accesso anticipato limitato a una disponibilità generale più ampia—attualmente non ancora confermata a causa dei suoi alti costi operativi e dei dichiarati rischi per la sicurezza informatica—i mercati potrebbero reagire immediatamente data la capacità dimostrata del modello di superare Opus 4.6 nella codifica software e nella sicurezza informatica, come evidenziato in documenti interni trapelati.