🚨 NOWE INFORMACJE — zgłoszone przez wiele źródeł, w tym The Wall Street Journal 📊
🇺🇸 Pomimo oficjalnego zakazu jego użycia, amerykańska armia rzekomo polegała na modelu AI Claude firmy Anthropic podczas niedawnych ataków na Iran — wykorzystując go do analizy wywiadowczej, identyfikacji celów i symulacji operacyjnych w trakcie kampanii.
Raporty wskazują, że siły, w tym Dowództwo Centralne USA (CENTCOM), kontynuowały korzystanie z Claude w swoich procesach roboczych zaledwie kilka godzin po tym, jak federalny nakaz zarządził wycofanie technologii Anthropic w agencjach rządowych.
Główne punkty z raportów: • Claude został zintegrowany z systemami dowodzenia obroną w czasie operacji.
• AI rzekomo wspierało zadania wywiadowcze i przygotowanie planów ataków.
• Technologia AI armii była głęboko osadzona, więc przejście z niej nie może być zrealizowane z dnia na dzień.
Podkreśla to, w jaki sposób zaawansowane modele AI są już wprowadzane do systemów wspierania decyzji w aktywnych środowiskach operacyjnych — nawet w obliczu kontrowersji politycznych i prawnych.