⚠️ Предупреждение | Новый конфликт между этикой искусственного интеллекта и национальной безопасностью

Распространенные отчеты указывают на то, что Министерство обороны США (Пентагон) стремилось к сделке на сумму 200 миллионов долларов для использования модели Claude компании Anthropic без ограничений, включая, согласно заявлениям, приложения, связанные с массовым наблюдением, и полностью автоматизированные системы вооружений.

🔹 Согласно распространенной информации, Anthropic отклонила предложение, подтвердив, что такие применения выходят за рамки красных линий, касающихся безопасности, этики и надежности.

Говорят, что генеральный директор заявил: "Мы не можем согласиться добросовестно."

🔹 В результате сообщается, что был введен немедленный федеральный запрет на технологии Anthropic, с планом постепенного отказа на 6 месяцев внутри Министерства обороны, и классификацией компании как угрозы для цепочки поставок, что является характеристикой, обычно используемой в отношении враждебных иностранных компаний.

📌 Если детали этого дела верны, оно отражает нарастание напряженности между:

Этикой разработки искусственного интеллекта 🤖

И приоритетами национальной безопасности 🛡️

Ситуация быстро развивается… И вопрос следующей стадии:

Может ли быть достигнут реальный баланс между инновациями и защитой?

#AI #Anthropic #Claude #Pentagon #TechPolicy