

Betritt den Chatraum#claude封杀openclaw Anthropic hat gehandelt, "Lobster" OpenClaw wurde verboten! Warum wird die Krypto-Welt in diesem Machtspiel der KI getroffen?
#大非农 Die Aufregung hat sich noch nicht vollständig gelegt, und die KI-Welt ist erneut explodiert. Heute sprechen wir nicht über den Markt, sondern über ein großes Ereignis, das von der KI-Welt in die Krypto-Welt übergegriffen hat – Anthropic hat offiziell OpenClaw "verboten".
Brüder werden diesen Namen vielleicht ein wenig vertraut vorkommen, können ihn aber nicht genau zuordnen. OpenClaw, umgangssprachlich "Lobster", ist ein Open-Source-KI-Intelligent-Framework, das Anfang dieses Jahres sowohl in Geek- als auch in Krypto-Kreisen explosionsartig populär wurde. Und das Unternehmen, das es "verboten" hat, ist Anthropic, die Muttergesellschaft von Claude.
Warum möchte Anthropic ein so beliebtes Open-Source-Projekt verbieten? Die wirtschaftlichen Überlegungen, die Machtspiele und die Auswirkungen auf den AI-Agenten-Sektor des Krypto-Marktes sind es wert, dass wir sie genau unter die Lupe nehmen.
Eins, was ist wirklich passiert? Es war kein Netzausfall, es war eine „Halsabschneider“-Preiserhöhung.
Lass uns zuerst die Hintergründe des Vorfalls klären. Am 4. April gab Boris Cherny, der Leiter von Claude Code bei Anthropic, auf der X-Plattform bekannt: Ab 12 Uhr mittags, westlicher Zeitpunkt der USA, wird der Claude-Abonnementsdienst keine Nutzungskapazitäten für Drittanbieter-Tools wie OpenClaw mehr enthalten. Das bedeutet, dass Benutzer nicht mehr mit dem Claude Pro-Abonnement für 20 Dollar pro Monat oder dem Max-Abonnement für 200 Dollar OpenClaws AI-Agenten betreiben können. Wer weiterhin nutzen möchte, muss entweder zusätzliche Nutzungspakete auf eigene Kosten erwerben oder selbst einen API-Schlüssel kaufen und nach Verbrauch abrechnen.
Achtung, Anthropic hat OpenClaws Zugang technisch nicht vollständig gesperrt, aber diese politische Anpassung entspricht im Wesentlichen einem Verbot – unter dem nutzungsabhängigen Abrechnungsmodell werden die Kosten völlig außer Kontrolle geraten.
Brancheninsider schätzen, dass ein OpenClaw-Agent einen Tag lang läuft, was API-Kosten zwischen 1000 und 5000 Dollar entspricht. Das bedeutet, dass man früher für 200 Dollar einen Monat lang arbeiten konnte, jetzt aber möglicherweise schon nach wenigen Tagen alles verbraucht ist.
Zweitens, warum verbieten? Die Rechnung geht nicht mehr auf.
Der Grund, den Anthropic angibt, ist „Druck auf die Systemkapazität“, aber die tieferliegende Ursache ist weit komplexer.
1. Wirtschaftliche Überlegungen: 20 Dollar gegen 5000 Dollar Rechenleistung, wer kann das tragen?
OpenClaws Nutzungsmodell für Claude ist extrem aggressiv – ein einzelnes Konto kann gleichzeitig 10 Agenten betreiben und ununterbrochen 7×24 Stunden laufen. Branchenexperten schätzen, dass der tatsächliche Rechenwert, den ein OpenClaw-Nutzer aus einem 200-Dollar/Monat-Max-Abonnement herausholt, etwa 5000 Dollar entspricht. Für Anthropic bedeutet dies, dass das Unternehmen bei jedem neuen intensiven OpenClaw-Nutzer zusätzliche Tausende von Dollar an Rechenkosten tragen muss.
Eine andere Zahl ist anschaulicher: Die äquivalenten API-Kosten für einen OpenClaw-Agenten, der einen Tag lang läuft, liegen zwischen 1000 und 5000 Dollar. Die Abonnementgebühr beträgt nur 200 Dollar pro Monat, Anthropic subventioniert de facto OpenClaw-Nutzer. Dieses Geschäftsmodell kann niemand tragen.
2. Wettbewerbsüberlegungen: Mein Territorium, ich bestimme.
Eine tiefere Ursache ist der Wettbewerb. Anthropic hat kürzlich die Produkte Claude Code Channels, Claude Cowork und Claude Dispatch eingeführt, deren Funktionen stark mit OpenClaw überlappen. Einige Technologiemedien bezeichneten Claude Code Channels direkt als „OpenClaw-Killer“. Gleichzeitig veröffentlichte Anthropic Anfang dieses Jahres die Desktop-Agentenanwendung Claude Cowork und kündigte kürzlich an, dass das Produkt Claude in der Lage ist, Computer zu steuern, Dateien zu öffnen und den Browser zu verwenden – fast eine offizielle Kopie von OpenClaw.
Früher warst du ein Dritter, der in meinem Ökosystem Gemüse anbaute; jetzt will ich auch selbst Gemüse anbauen, also muss ich dein Stück Land zurücknehmen. Das ist die unvermeidliche Logik des geschäftlichen Wettbewerbs.
3. Personalüberlegungen: Die Gründer sind zu den Wettbewerbern gegangen.
Ein weiterer nicht zu ignorierender Faktor. Der Gründer von OpenClaw, Peter Steinberger, gab im Februar bekannt, dass er zu OpenAI gewechselt ist, um die persönliche Agentenabteilung zu leiten. Sein eigenes zentrales Ökosystem-Tool hat der Gründer jedoch zur größten Konkurrenz gebracht – kein kommerzielles Unternehmen kann dies gelassen akzeptieren.
Steinberger selbst hat zugegeben, dass er und das Vorstandsmitglied von OpenClaw, Dave Morin, versucht haben, Anthropic zu überzeugen, ihre Meinung zu ändern, aber sie konnten letztendlich nur erreichen, dass die Politik um eine Woche verschoben wird. Er beschwerte sich auf X: „Der Zeitpunkt ist wirklich ein Zufall, zuerst haben sie einige beliebte Funktionen in ihren geschlossenen Rahmen kopiert, und dann haben sie die Open-Source-Software ausgeschlossen.“
Drittens, der Gründer erhebt Vorwürfe: Ich lade euch ein, der gemeinnützigen Organisation beizutreten, und ihr antwortet nicht.
Angesichts des Verbots antwortete Steinberger auf der X-Plattform, dass OpenClaw unabhängig operiert; er hatte sogar Anthropic und Dutzende von Unternehmen eingeladen, sich ihrer gemeinnützigen Organisation anzuschließen, aber die andere Seite hat nicht geantwortet. Einige Internetnutzer stehen auf der Seite von Anthropic und argumentieren, dass kommerzielle Unternehmen keine Verpflichtung haben, das Open-Source-Ökosystem zu subventionieren, die Kosten für Grafikkarten sind einfach zu hoch.
Vier, warum ist der Krypto-Sektor betroffen? Die „schicksalhafte“ Verbindung zwischen OpenClaw und der Krypto-Welt.
Brüder, der Grund, warum wir diesem Vorfall Aufmerksamkeit schenken sollten, ist, dass die Beziehung zwischen OpenClaw und der Krypto-Welt viel komplexer ist, als viele denken.
1. Betrug mit gefälschten Token: 16 Millionen Dollar „Schwarzer Montag“
Bereits im Januar dieses Jahres, während der Umbenennung von OpenClaw, nutzten Betrüger die Gelegenheit, alte Konten zu hijacken und auf der Solana-Blockchain den gefälschten Token CLAWD einzuführen, dessen Marktwert zeitweise auf 16 Millionen Dollar anstieg. Steinberger erklärte anschließend öffentlich, dass er „niemals Token ausgeben wird“ und betonte, dass alle Projekte, die im Namen von ihm Token ausgeben, Betrug sind. Der Token fiel daraufhin um über 90%.
Nach dem Vorfall hat der offizielle Discord-Server von OpenClaw die Erwähnung von Schlüsselwörtern wie „Bitcoin“ und „Krypto“ umfassend verboten, selbst neutrale technische Diskussionen sind davon nicht ausgenommen. Ein Benutzer wurde entfernt, weil er den Bitcoin-Blockhöhe als Benchmark zitiert hat.
2. Sicherheitsvorfall bei AI-Agenten: Der „Lobstar Wilde“-Vorfall
Besonders alarmierend ist ein Sicherheitsvorfall mit AI-Agenten. Im Februar dieses Jahres entwickelte OpenAI-Mitarbeiter Nik Pash mit dem OpenClaw-Rahmenwerk den Krypto-Handels-AI-Agenten „Lobstar Wilde“, der beim Verarbeiten einer Hilfsanfrage eines Nutzers aufgrund eines Zahlendekodierungsfehlers alle 52.430.000 LOBSTAR-Token auf einmal übertrug, deren Marktwert zu diesem Zeitpunkt etwa 250.000 Dollar betrug, der letztendliche Cash-Out betrug jedoch nur etwa 40.000 Dollar.
Das war kein Hackerangriff, kein Smart-Contract-Fehler – AI hat sich einfach „verletzt“ und hat das ganze Geld ausgegeben. Cyberkriminelle haben schnell diese Logik kopiert und die Ausführungseigenschaften von OpenClaw genutzt, um mit einfachen Worten AI zu verleiten, Wallet-Transfers selbstständig durchzuführen. Einige Benutzer haben dadurch Vermögenswerte im Wert von Hunderttausenden verloren, einschließlich stabiler Münzen wie USDT. Der chinesische Internetfinanzverband hat das „Risiko von Vermögensverlusten“ als eines der vier Kernrisiken von OpenClaw aufgeführt.
Diese Vorfälle zeigen: Wenn AI-Agenten beginnen, selbstständig mit On-Chain-Assets zu operieren, ist die Infrastruktur zum Schutz dieser Assets noch lange nicht bereit.
Fünf, die dreifache Auswirkung des Machtspiels der AI.
Schock eins: Der kommerzielle Übergriff auf Open Source.
Open Source in AI wurde einst als Waffe gegen das Monopol der Tech-Giganten angesehen, aber dieser Vorfall enthüllt eine brutale Realität – die zugrunde liegende Rechenleistung liegt in den Händen von denen, die die Regeln festlegen. Du kannst innerhalb des Open-Source-Rahmens alles tun, aber eine einzige Anpassung der API-Politik kann dein gesamtes Geschäftsmodell zum Einsturz bringen. Das ist kein technisches Verbot, sondern ein dimensionaler Angriff auf die Anwendungsebene durch die Infrastruktur.
Schock zwei: Die Erzählung der AI-Agenten im Krypto-Sektor, die zugrunde liegenden Antriebskräfte verändern sich.
In den letzten Monaten sind rund um OpenClaw und andere AI-Agenten-Rahmenwerke ständig neue Tokens und DeFi-Anwendungen entstanden. Nach dem Verbot von OpenClaw werden Projekte, die von Claude als zugrunde liegendem Modell abhängen, mit dem doppelten Druck konfrontiert, dass die Kosten stark steigen oder die Technologie gezwungen ist, sich anzupassen. Das erinnert uns daran: Die Hitze der AI-Erzählungen im Krypto-Sektor hängt stark von der stillschweigenden Zustimmung oder Zusammenarbeit der Anbieter großer zugrunde liegender Modelle ab. Sobald die Zusammenarbeit zerbricht, könnte die gesamte Grundlage der Erzählung ins Wanken geraten.
Schock drei: Die Verschmelzung von AI und Krypto, Sicherheit ist das größte Manko.
Vom „Lobstar Wilde“-Vorfall über die sprachliche Verführung von Cyberkriminellen bis hin zu diesem politischen Verbot – die Sicherheits- und Nachhaltigkeitsprobleme von AI-Agenten auf der Blockchain werden zunehmend offensichtlich. AI kann für dich Geld verdienen, aber der derzeitige Branchenkonsens, die Risikokontrollmechanismen und der rechtliche Rahmen sind noch lange nicht bereit, AI für eigenständige Transaktionen auf der Blockchain vorzubereiten.
Letzte Überlegungen.
Die Sache mit Anthropics Verbot von OpenClaw bietet den Krypto-Investoren zumindest einige Denkanstöße.
Erstens, wenn die Verschmelzung von AI und Krypto zum Markttrend wird, sollten wir uns immer fragen: Wer stellt das zugrunde liegende Modell des Projekts zur Verfügung? Sind die kommerziellen Beziehungen stabil? Wenn das zugrunde liegende „versorgt“ wird, auf wie viel Grundlage basiert die oberste Erzählung?
Zweitens, die Sicherheitsinfrastruktur für AI-Agenten muss dringend verbessert werden. Derzeit gibt es bereits Wallet-Lösungen wie Claw Wallet, die speziell für AI-Agenten entwickelt wurden und versuchen, Sicherheitsprobleme bei den selbstständigen Operationen von Agenten durch Schlüsselverteilung und Risikokontrollstrategien zu lösen. Diese Richtung ist es wert, verfolgt zu werden, aber vor einer massiven Validierung sollte man vorsichtig sein beim Einstieg.
Drittens, das aktuelle Marktumfeld ist schwach und die Liquidität ist niedrig. Vermeide es, blind den Trends zu folgen. Egal, ob dieser Trend aus dem AI-Sektor oder dem Krypto-Sektor kommt, in einer Phase, in der das Gesamtumfeld unter Druck steht, ist es wichtiger, das Tempo zu halten, als jedem kurzfristigen Trend nachzujagen.
Die Verschmelzung von AI und Krypto findet statt, aber dieser Sektor ist noch sehr früh – die Regulierung ist unklar, die Sicherheit ist schwach, und die Validierung der Geschäftsmodelle ist unzureichend. Behalte Neugier, aber sei auch rational. Risiko geht vor, Gewinn kommt danach, lasst uns gemeinsam daran arbeiten.
