Скандал вокруг военного ИИ набирает обороты: Пентагон требует от Anthropic снять ограничения с модели Claude для военных задач.
Требование жёсткое — в случае отказа возможен разрыв контрактов и блокировка доступа к оборонным цепочкам поставок.
Официально — стратегическая аналитика. Неофициально — ИИ без «этических фильтров».
Параллельно США усиливают позиции в гонке против Китай, не желая терять контроль над военными ИИ-технологиями.
Исследования показывают: в ряде симуляций модели от Anthropic, OpenAI и Google в большинстве случаев выбирали ядерную эскалацию даже при наличии альтернатив.
Скорость решений растёт. Вопрос — растёт ли вместе с ней разум.
Подписывайся, если хочешь понимать, куда ведёт гонка ИИ.