Historia, która pokazuje, jak głęboko AI już wrosło w infrastrukturę wojskową USA — i jak trudno je „wyłączyć” nawet na bezpośredni rozkaz prezydenta.

28 lutego 2026 roku administracja Donalda Trumpa wydała zarządzenie o zaprzestaniu korzystania z technologii firmy Anthropic we wszystkich federalnych agencjach. Zakazano wszystkich rozwiązań firmy, w tym modelu Claude. Formalnie ustalono okres przejściowy — do sześciu miesięcy — na całkowite zaprzestanie korzystania z usług i przejście na alternatywne platformy.

Przyczyną konfliktu stał się zasadniczy odmowa Anthropic osłabienia ograniczeń swojej modelu. Firma publicznie przestrzega polityki:

— zakazu użycia AI do masowego śledzenia

— zakazu całkowicie autonomicznych systemów bojowych

— zakazu scenariuszy, w których model samodzielnie podejmuje decyzje o przeprowadzaniu ataków

To właśnie te ograniczenia spowodowały napięcia z blokiem wojskowym.

Jednak, według informacji The Wall Street Journal, zaledwie kilka godzin po publikacji dyrektywy amerykańskie wojsko kontynuowało używanie Claude w analizie wspierającej operację przeciwko Iranowi.

Nie chodziło o bezpośrednie zarządzanie bronią.

Ale Claude był stosowany w następujących zadaniach:

— przetwarzanie strumieni danych wywiadowczych w czasie rzeczywistym

— strukturalizowanie zdjęć satelitarnych i map cieplnych

— wykrywanie anomalii i prawdopodobnych obiektów wojskowych

— ocena ryzyka wtórnych ataków

— modelowanie możliwej reakcji Iranu

— obliczanie scenariuszy eskalacji i reakcji

Faktycznie model pełnił rolę analitycznego przyspieszacza. To, co wcześniej wymagało pracy całych jednostek analityków przez całą dobę, teraz było przetwarzane przez algorytm w ciągu minut.

Ostateczne decyzje podejmowane były przez wojskowych dowódców. Ale w nowoczesnej wojnie szybkość — to przewaga. AI staje się nie bronią, a narzędziem przyspieszającym myślenie.

Dlaczego użycie kontynuowano pomimo zakazu?

Po pierwsze, dyrektywa przewidywała okres przejściowy. Oznaczało to, że istniejące integracje mogły tymczasowo pozostać.

Po drugie, infrastruktura już była głęboko wbudowana w analityczne struktury Pentagonu.

Po trzecie, w warunkach aktywnej operacji nagłe odłączenie systemu mogło wpłynąć na efektywność operacyjną.

Po konflikcie Pentagon rozpoczął przyspieszony poszukiwanie alternatywnych dostawców AI — firm gotowych do pracy w bardziej elastycznym formacie w ramach wojskowych kontraktów. Mowa o dużych graczach technologicznych i kontrahentach obronnych, którzy nie wprowadzają tak rygorystycznych ograniczeń etycznych.

Ale ta historia jest ważniejsza od samego incydentu.

Pokazuje trzy kluczowe tendencje:

  1. AI już stał się częścią strategicznej infrastruktury.

  2. Prywatne firmy są w stanie wpływać na granice dopuszczalnego zastosowania technologii.

  3. Państwo, nawet mając władzę do wydania rozkazu, nie może natychmiast zerwać technologicznego uzależnienia.

Dla rynków to sygnał: wojskowy sektor AI będzie tylko rósł. Budżety państwowe na AI rosną, a popyt na modele zdolne do działania w scenariuszach obronnych wzrasta.

Anthropic zajęła stanowisko technologicznej ostrożności. Ale jeśli jeden dostawca ogranicza zastosowanie wojskowe, jego miejsce zajmie inny. Rynek technologii obronnych nie znosi próżni.

AI stopniowo staje się elementem kognitywnym wojskowego balansu. Nie autonomicznym „terminatorem”, a narzędziem analizy, prognozowania i przyspieszania podejmowania decyzji.

I główne pytanie teraz nie dotyczy tego, czy używano Claude'a po zakazie.

Główne pytanie — ile podobnych systemów już zintegrowano w struktury wojskowe różnych krajów, i jaką rolę będą odgrywać w przyszłych konfliktach.

AI wychodzi z laboratoriów i staje się częścią rzeczywistej geopolityki.

#AI #Anthropic #Claude #США #Иран