Niedawne badanie Królewskiego Kolegium Londyńskiego, podczas którego odkryto interesującą zasadę: nowoczesne modele AI, w tym GPT-5.2, Claude Sonnet 4.5 oraz Gemini3, są skłonne do radykalnej eskalacji w symulacjach wojskowych.
W trakcie 21 przeprowadzonej gry wojennej, które modelują kryzysy międzynarodowe i działania bojowe, AI zastosowało taktyczną broń jądrową w 95% przypadków!
Maszyny wykazały brak jakiegokolwiek "jądrowego tabu", które przez dziesięciolecia powstrzymywało ludzkość: żaden model ani razu nie wybrał kapitulacji ani pełnego pojednania, nawet będąc w przegranej pozycji.
Zamiast tego algorytmy często popełniały błędy przez "mgłę wojny" (przede wszystkim z powodu zapomnienia), gdzie w 86% konfliktów poziom przemocy przekraczał ten, który początkowo planowano w logicznych uzasadnieniach modeli.
Problem techniczny polega na tym, że AI nie rozumie poziomu "stawki" i konsekwencji tak, jak robi to człowiek.
Podczas gdy doktryna wzajemnego gwarantowanego zniszczenia opiera się na strachu, AI nie ma wątpliwości ani obaw i postrzega atak jądrowy jako logiczny krok w celu poprawy swojej pozycji na polu bitwy.
Na tle tego Pentagon nadal wywiera presję na Anthropic. Punkt bez powrotu blisko