

Unisciti alla chat#claude封杀openclaw Anthropic ha colpito, il “gambero” OpenClaw è stato bandito! Perché il mondo delle criptovalute è stato colpito in questo gioco di potere AI?
#大非农 La tempesta non si è ancora placata, e il mondo AI è di nuovo in subbuglio. Oggi non parleremo del mercato, ma di un grande evento che è passato dall'AI al mondo delle criptovalute—Anthropic ha ufficialmente “bannato” OpenClaw.
I fratelli potrebbero avere un po' di familiarità con questo nome, ma non sanno esattamente cosa sia. OpenClaw, soprannominato “gambero”, è un framework di agenti AI open source che ha conquistato popolarità sia nel mondo geek che in quello delle criptovalute all'inizio di quest'anno. E a “bannarlo” è la casa madre di Claude, Anthropic.
Perché Anthropic dovrebbe bloccare un progetto open source in rapida crescita? I conti economici, il gioco di potere e l'impatto che questo ha sul campo degli agenti AI nel mondo delle criptovalute meritano di essere analizzati in dettaglio.
Uno, cosa è successo davvero? Non è una disconnessione, ma una tariffazione “al collo”.
Iniziamo a chiarire l'andamento degli eventi. Il 4 aprile, Boris Cherny, responsabile di Claude Code di Anthropic, ha annunciato sulla piattaforma X: a partire dalle 12:00, ora del Pacifico degli Stati Uniti, il servizio di abbonamento Claude non includerà più l'utilizzo di strumenti di terze parti come OpenClaw. In altre parole, gli utenti non possono più utilizzare il servizio Claude Pro da 20 dollari al mese o il Max da 200 dollari per attivare l'agente AI di OpenClaw. Se vuoi continuare a usarlo, devi acquistare pacchetti di utilizzo aggiuntivi a proprie spese o acquistare un API Key per pagamento a consumo.
Attenzione, Anthropic non ha tecnicamente bloccato l'accesso a OpenClaw, ma questo adeguamento della politica equivale sostanzialmente a un divieto: nel modello di pagamento per consumo, i costi diventeranno completamente incontrollabili.
Secondo stime di esperti del settore, un agente OpenClaw che funziona per un giorno ha costi API equivalenti compresi tra 1000 e 5000 dollari. Ciò significa che prima, con 200 dollari si poteva lavorare per un mese, ora potrebbe esaurirsi in pochi giorni.
Due, perché bloccare? I conti non tornano.
La ragione ufficiale fornita da Anthropic è “pressione sulla capacità del sistema”, ma le cause profonde sono molto più complesse.
1. Bilancio economico: 20 dollari per 5000 dollari di potenza di calcolo, chi può sopportarlo?
OpenClaw ha un modello di utilizzo di Claude estremamente aggressivo: un singolo account può eseguire simultaneamente 10 agenti e funzionare ininterrottamente 7×24 ore. Secondo le stime del settore, un abbonamento Max da 200 dollari/mese ha un valore di potenza di calcolo reale per gli utenti di OpenClaw di circa 5000 dollari. Per Anthropic, ciò significa che ogni nuovo utente heavy di OpenClaw comporta costi aggiuntivi di potenza di calcolo di migliaia di dollari.
Un altro dato è più diretto: il costo API equivalente per un agente OpenClaw che funziona per un giorno è compreso tra 1000 e 5000 dollari. La tariffa di abbonamento è solo di 200 dollari al mese, quindi Anthropic sta praticamente perdendo soldi sugli utenti di OpenClaw. Questo modello commerciale, chiunque lo gestisca, non può reggere.
2. Bilancio competitivo: il mio territorio, le mie regole.
Le ragioni più profonde sono competitive. Anthropic ha recentemente lanciato tre prodotti: Claude Code Channels, Claude Cowork e Claude Dispatch, le cui funzioni si sovrappongono fortemente a quelle di OpenClaw; alcuni media tecnologici hanno direttamente etichettato Claude Code Channels come il “killer di OpenClaw”. Nel frattempo, all'inizio di quest'anno, Anthropic ha rilasciato l'applicazione di agenti desktop Claude Cowork, e recentemente ha annunciato che il suo prodotto può consentire a Claude di controllare il computer, aprire file e utilizzare il browser, praticamente una replica ufficiale di OpenClaw.
In precedenza eri un terzo, coltivando nel mio ecosistema; ora io stesso voglio coltivare, quindi questo terreno te lo riprendo. Questa è la logica inevitabile della competizione commerciale.
3. Bilancio del personale: i fondatori sono fuggiti da noi.
C'è anche un fattore che non può essere trascurato. Il fondatore di OpenClaw, Peter Steinberger, ha annunciato a febbraio di quest'anno di essersi unito a OpenAI, responsabile del dipartimento degli agenti personali. Il fondatore del proprio strumento ecologico fondamentale, si è però trasferito dal concorrente più grande—è difficile per qualsiasi azienda commerciale accettare questa situazione.
Steinberger stesso ha ammesso di aver cercato di convincere Anthropic a riconsiderare, insieme a Dave Morin, membro del consiglio di OpenClaw, ma alla fine sono riusciti solo a posticipare l'implementazione della politica di una settimana. Ha commentato su X: “Il tempismo è davvero interessante, prima hanno copiato alcune funzionalità popolari nel loro framework chiuso, poi hanno escluso il software open source.”
Tre, il fondatore grida ingiustizia: vi ho invitato a unirvi all'organizzazione non profit, voi non rispondete.
Di fronte al divieto, Steinberger ha risposto sulla piattaforma X dicendo che OpenClaw opera in modo indipendente; ha persino invitato Anthropic e diverse altre aziende a unirsi alla loro organizzazione non profit, ma non ha ricevuto risposta. Ci sono anche utenti che si schierano dalla parte di Anthropic, sostenendo che le aziende commerciali non hanno l'obbligo di sovvenzionare l'ecosistema open source, poiché i costi delle schede grafiche sono troppo elevati.
Quattro, perché il mondo delle criptovalute è stato colpito? La relazione “malefica” tra OpenClaw e il mondo delle criptovalute.
Fratelli, il motivo per cui questo evento merita la nostra attenzione è che la relazione tra OpenClaw e il mondo delle criptovalute è molto più complessa di quanto molti pensino.
1. Schemi di token falsi: “lunedì nero” da 16 milioni di dollari.
Già all'inizio di quest'anno, durante il periodo di rinominazione di OpenClaw, i truffatori hanno approfittato dell'occasione per dirottare vecchi account e lanciare il token falso CLAWD sulla blockchain di Solana, il cui valore di mercato è salito a 16 milioni di dollari. Steinberger ha successivamente dichiarato pubblicamente che “non emetterà mai token” e ha sottolineato che qualsiasi progetto che emette token a suo nome è una truffa. Il token è poi crollato di oltre il 90%.
Dopo l'evento, il server Discord ufficiale di OpenClaw ha completamente vietato di menzionare parole chiave come “Bitcoin” e “crypto”, anche in discussioni tecniche neutrali. Alcuni utenti sono stati rimossi per aver citato l'altezza del blocco di Bitcoin come riferimento per i test di benchmark.
2. Incidente di sicurezza dell'agente AI: L'incidente “Lobstar Wilde”
Episodi di incidenti di sicurezza degli agenti AI hanno un significato allarmante. A febbraio di quest'anno, l'impiegato di OpenAI Nik Pash ha utilizzato il framework OpenClaw per sviluppare un agente AI per il trading di criptovalute chiamato “Lobstar Wilde”, che, mentre gestiva un messaggio di richiesta da un utente, a causa di un errore di analisi della quantità, ha trasferito tutti i 5243 milioni di token LOBSTAR che possedeva in un'unica operazione, per un valore di mercato di circa 250.000 dollari, mentre il ricavato effettivo è stato di circa 40.000 dollari.
Non si tratta di un attacco informatico, né di una vulnerabilità del contratto intelligente—è stato l'AI stesso a “interpretare male” e ha inviato tutti i soldi. Il crimine informatico ha rapidamente replicato questa logica, sfruttando le caratteristiche di esecuzione dei comandi di OpenClaw per indurre autonomamente l'AI a completare trasferimenti di portafoglio con semplici frasi. Alcuni utenti hanno quindi perso decine di migliaia di beni, inclusi stablecoin come USDT. L'Associazione Internet Finanziaria della Cina ha specificamente elencato il “rischio di perdita di fondi” come una delle quattro principali problematiche di OpenClaw.
Questi eventi dimostrano che quando gli agenti AI iniziano a operare autonomamente sugli asset della blockchain, le infrastrutture per proteggerli non sono affatto pronte.
Cinque, le treplici ripercussioni del gioco di potere AI.
Impatto uno: L'attacco della commercializzazione all'open source.
L'open source nell'AI era visto un tempo come un'arma contro il monopolio delle grandi tecnologie, ma questo evento rivela una dura realtà: chi detiene il potere di calcolo di base, stabilisce le regole. Puoi fare qualsiasi cosa su un framework open source, ma un semplice adeguamento della strategia API può far crollare l'intero tuo modello commerciale. Non è un divieto a livello tecnologico, ma un attacco di riduzione della dimensione dell'infrastruttura a livello applicativo.
Impatto due: La narrativa degli agenti AI nel mondo delle criptovalute, la forza motrice di base cambia.
Negli ultimi mesi, sono emersi numerosi token e applicazioni DeFi basati su framework AI come OpenClaw. Dopo il divieto di OpenClaw, i progetti che dipendono da Claude come modello di base affronteranno una pressione doppia: aumento dei costi e obbligo di adeguare la propria direzione tecnologica. Questo ci ricorda: l'entusiasmo per la narrativa AI nel mondo delle criptovalute dipende fortemente dalla cooperazione o dal consenso dei fornitori di modelli di base. Una volta che la relazione di cooperazione si rompe, l'intera base della narrativa potrebbe essere scossa.
Impatto tre: La fusione tra AI e criptovalute, la sicurezza è il punto debole più grande.
Dall'incidente “Lobstar Wilde” alla manipolazione del linguaggio nel crimine informatico per rubare criptovalute, fino a questo divieto politico—la sicurezza e la sostenibilità degli agenti AI sulla blockchain stanno emergendo come problematiche centrali. L'AI può farti guadagnare, ma l'attuale consenso del settore, i meccanismi di gestione del rischio e il quadro legale non sono affatto pronti per le operazioni autonome dell'AI sulla blockchain.
Ultime considerazioni.
Il divieto di Anthropic su OpenClaw offre agli investitori nel mondo delle criptovalute diversi spunti di riflessione.
Primo, quando la fusione tra AI e criptovalute diventa un argomento caldo di mercato, dovremmo chiedere: chi fornisce il modello di base di questo progetto? I rapporti commerciali sono solidi? Una volta interrotta l'offerta di base, quanto è solido il racconto superiore?
In secondo luogo, le infrastrutture di sicurezza per il settore degli agenti AI necessitano di un miglioramento urgente. Attualmente, sul mercato sono già apparse soluzioni di portafoglio come Claw Wallet, progettate appositamente per gli agenti AI, cercando di affrontare i problemi di sicurezza degli asset operati autonomamente dagli agenti attraverso strategie di frammentazione delle chiavi e gestione dei rischi. Questa direzione merita attenzione, ma fino a quando non verrà validata su larga scala, è consigliabile rimanere cauti nell'ingresso.
Terzo, l'attuale ambiente di mercato è fragile, la liquidità è bassa, non inseguire ciecamente le tendenze. Qualunque sia questa tendenza, che provenga dal mondo AI o da quello delle criptovalute, in una fase di pressione ambientale, mantenere il ritmo è più importante che inseguire ogni singolo picco temporaneo.
La fusione tra AI e criptovalute sta avvenendo, ma questo settore è ancora nelle fasi iniziali: la regolamentazione è indeterminata, la sicurezza è debole e i modelli commerciali non sono stati sufficientemente testati. Mantieni la curiosità, ma è essenziale mantenere la razionalità. Il rischio prima, il profitto dopo, sosteniamoci a vicenda.
