Dzisiejsza decyzja Anthropic o usunięciu OpenClaw z subskrypcji Claude przekształca sposób, w jaki użytkownicy zaawansowani, agenci i kompromisy w zakresie bezpieczeństwa się rozwijają.
Nagłówek „Anthropic Bans Open Claw From Claude” jest bardziej złożony, niż się wydaje. Anthropic nie zabił OpenClaw bezpośrednio, ale skutecznie go usunął z płaskich planów Pro i Max Claude’a, zmuszając użytkowników zaawansowanych do korzystania z płatności za użycie, jeśli chcą, aby ich agenci nadal działali na modelach Claude.
OpenClaw i inne zewnętrzne systemy przekształciły stałe plany cenowe Claude w ciche dotacje dla tysięcy zawsze aktywnych agentów, często działających na słabo zabezpieczonych bramach, które ujawniały klucze API, historie czatów, a nawet ścieżki zdalnego wykonywania kodu. Badacze bezpieczeństwa już wcześniej sygnalizowali, że nieautoryzowane instalacje OpenClaw wyciekają klucze Claude i umożliwiają jednokrotne RCE poprzez przejmowanie WebSocketów, co jest koszmarnym scenariuszem dla każdej firmy AI stawiającej bezpieczeństwo na pierwszym miejscu.
Jak pokazują badania, odczuwam, że czas wydaje się jak zrzut dywanowy, twórca niedawno dołączył do OpenAI, a ruch Anthropic natychmiast przekształca wiele projektów hobbystycznych i małych firm z „przystępnych” na „ekonomicznie niemożliwe”, z niektórymi szacunkami wzrostu kosztów o 10–50x dla intensywnych użytkowników.
Ponadto sygnalizuje to szerszą zmianę, Anthropic wyznacza twardą granicę między użyciem z człowiekiem w pętli (subskrypcje) a autonomicznymi agentami (mierzone API), prawdopodobnie w celu utrzymania bezpieczeństwa, odpowiedzialności i obciążeń infrastrukturalnych pod ściślejszą kontrolą.
Niezależnie od tego, czy postrzegasz to jako odpowiedzialne zarządzanie bezpieczeństwem, czy blokadę platformy, jedno jest oczywiste: era uruchamiania poważnych autonomicznych agentów na bazie subsydiowanych, stałych subskrypcji AI dobiega końca.
