Сегодняшнее решение Anthropic исключить OpenClaw из подписок Claude изменяет способ, которым развиваются пользователи с высоким уровнем доступа, агенты и компромиссы по безопасности.

Заголовок «Anthropic запрещает Open Claw в Claude» более нюансирован, чем кажется. Anthropic не убил OpenClaw полностью, но фактически исключил его из плоских тарифных планов Pro и Max Claude, заставляя пользователей с высоким уровнем доступа переходить на оплату по мере использования, если они хотят, чтобы их агенты продолжали работать на моделях Claude.

OpenClaw и другие сторонние системы превратили фиксированные тарифные планы Claude в тихие субсидии для тысяч постоянно работающих агентов, часто работающих на плохо защищенных шлюзах, которые раскрывали ключи API, истории чатов и даже пути удаленного выполнения кода. Исследователи в области безопасности уже отмечали неаутентифицированные установки OpenClaw, утечку ключей Claude и возможность однократного RCE через захват WebSocket, что является кошмарным сценарием для любой AI-компании, ориентированной на безопасность.

По мере того как исследование продолжается, я обнаружил, что тайминг ощущается как резкое вытягивание ковра, создатель недавно присоединился к OpenAI, и шаг Anthropic мгновенно превращает многие хобби-проекты и малые предприятия из "доступных" в "экономически невозможные", с некоторыми оценками увеличения затрат на 10–50 раз для активных пользователей.

Более того, это также сигнализирует о более широком сдвиге, Anthropic проводит четкую грань между использованием человека в цикле (подписки) и автономными агентами (по счетчику API), вероятно, чтобы держать безопасность, ответственность и нагрузки на инфраструктуру под более строгим контролем.

Независимо от того, считаете ли вы это ответственной безопасной политикой или запиранием платформы, одно очевидно: эра запуска серьезных автономных агентов на основе субсидированных, фиксированных подписок на ИИ заканчивается.

#anthropicbansopenclawfromclaude