
В резком эскалации напряженности с Вашингтоном компания AI Anthropic подала антропический иск против ее внезапного внесения в черный список американским оборонным ведомством.
Anthropic подает в суд на Пентагон по поводу метки "риск цепочки поставок"
Anthropic подала два иска в понедельник против Министерства обороны (DoD), утверждая, что решение правительства объявить компанию "риском цепочки поставок" является незаконным и нарушает ее права по Первой поправке. Спор тянется уже несколько месяцев, поскольку компания добивалась мер предосторожности, ограничивающих военное использование ее ИИ для массового внутреннего наблюдения или полностью автономных смертоносных оружий.
Новые дела, поданные в северном окружном суде Калифорнии и Апелляционном суде США для округа Вашингтон, следуют за официальным объявлением Пентагона о риске, сделанным в прошлый четверг. Примечательно, что это первый случай, когда этот инструмент черного списка был применен против американской компании. Более того, это обозначение фактически предписывает любому подрядчику, который ведет бизнес с правительством, разорвать все связи с Anthropic, что представляет серьезную угрозу для бизнес-модели фирмы.
Свобода слова и иски о преследовании против администрации Трампа
Жалоба Anthropic утверждает, что администрация Трампа наказывает компанию за отказ выполнить то, что она описывает как идеологические требования правительства. Согласно подаче, это предполагаемое преследование нарушает защищенную речь и представляет собой попытку принудить фирму изменить свою позицию по военным приложениям ИИ.
"Эти действия беспрецедентны и незаконны. Конституция не позволяет правительству использовать свою огромную власть для наказания компании за ее защищенную речь," - утверждает Anthropic в своем иске в Калифорнии. Однако правительство еще не опубликовало свои обоснования для этого обозначения.
Глубокая интеграция Claude в системы обороны США
За последний год флагманская модель ИИ Anthropic Claude была глубоко интегрирована в Министерство обороны. До недавнего времени сообщалось, что Claude была единственной моделью ИИ, одобренной для использования в засекреченных системах, подчеркивая ее стратегическую важность. Сообщается, что Министерство обороны активно использовало систему в военных операциях, включая помощь в определении мест для ракетных ударов в своей войне против Ирана.
Anthropic подчеркивает в своих подачах, что остается приверженной предоставлению ИИ для целей национальной безопасности. Более того, компания заявила в иске в Калифорнии, что ранее сотрудничала с Пентагоном для модификации своих систем для уникальных случаев использования, адаптируя технологию для чувствительных оборонных требований.
Компания ищет как судебный пересмотр, так и продолжение диалога
Фирма настаивает на том, что обращение за судебным пересмотром не сигнализирует о retreat из оборонной работы. Вместо этого она рассматривает юридические действия как необходимую меру предосторожности. В заявлении для The Guardian пресс-секретарь сказал: "Обращение за судебным пересмотром не меняет нашего давнего обязательства использовать ИИ для защиты нашей национальной безопасности, но это необходимый шаг для защиты нашего бизнеса, наших клиентов и наших партнеров."
Anthropic добавила, что хочет продолжить переговоры с правительством США, несмотря на судебные разбирательства. Тем не менее, компания пообещала использовать все возможные средства для разрешения спора, включая дальнейшие юридические действия и прямой диалог с федеральными чиновниками.
Утверждения о экономическом ущербе и смешанные сигналы
В своих судебных подачах Anthropic утверждает, что карательные действия администрации Трампа и Пентагона "наносят непоправимый ущерб Anthropic", отрезая ее от критически важного бизнеса с правительством. Компания утверждает, что назначение риска в цепочке поставок может охладить партнерство в более широкой экосистеме обороны и технологий.
Тем не менее, эти утверждения не совсем согласуются с комментариями CEO Дарио Амодеи в недавнем интервью CBS News. На прошлой неделе Амодеи сказал: "влияние этого обозначения довольно небольшое" и настаивал, что компания "будет в порядке". Наблюдатели отмечают, что этот контраст может стать ключевым моментом по мере продвижения дел.
Тестовый случай для ИИ, национальной безопасности и свободы слова
Anthropic рассматривает спор как столкновение с высокими ставками в вопросах инноваций и свободы выражения мнений. "Ответчики стремятся уничтожить экономическую ценность, созданную одной из самых быстрорастущих частных компаний мира, которая является лидером в ответственной разработке новой технологии, имеющей жизненно важное значение для нашей Нации," - утверждает фирма в своем иске. Иск Anthropic также поднимает более широкие вопросы о том, как Вашингтон будет регулировать стратегических поставщиков ИИ.
В более широком смысле, это дело готово проверить, насколько далеко может зайти правительство США в черном списке компании ИИ из-за политических разногласий относительно использования ИИ в национальной безопасности. Это также может определить будущее руководство по требованиям правительственной цензуры и пределам исполнительной власти над поставщиками новых технологий.
Пентагон пока молчит
Министерство обороны не ответило немедленно на запрос о комментариях по поданным искам или своему процессу принятия решений. На данный момент юридический вызов Anthropic добавляет новую точку напряженности в дебаты о том, как США должны балансировать между императивами безопасности, гражданскими свободами и быстрым развертыванием передовых ИИ-систем внутри военных и разведывательных операций.
В заключение, двойные иски Anthropic знаменуют собой ключевое противостояние между быстрорастущим разработчиком ИИ и оборонным учреждением США, исход которого может отразиться на национальной безопасности, политике в области технологий и битвах за корпоративную свободу слова в 2024 году и позже.
