⚠️ Предупреждение | Новый конфликт между этикой искусственного интеллекта и национальной безопасностью
Распространенные отчеты указывают на то, что Министерство обороны США (Пентагон) стремилось к сделке на сумму 200 миллионов долларов для использования модели Claude компании Anthropic без ограничений, включая, согласно заявлениям, приложения, связанные с массовым наблюдением, и полностью автоматизированные системы вооружений.
🔹 Согласно распространенной информации, Anthropic отклонила предложение, подтвердив, что такие применения выходят за рамки красных линий, касающихся безопасности, этики и надежности.
Говорят, что генеральный директор заявил: "Мы не можем согласиться добросовестно."
🔹 В результате сообщается, что был введен немедленный федеральный запрет на технологии Anthropic, с планом постепенного отказа на 6 месяцев внутри Министерства обороны, и классификацией компании как угрозы для цепочки поставок, что является характеристикой, обычно используемой в отношении враждебных иностранных компаний.
📌 Если детали этого дела верны, оно отражает нарастание напряженности между:
Этикой разработки искусственного интеллекта 🤖
И приоритетами национальной безопасности 🛡️
Ситуация быстро развивается… И вопрос следующей стадии:
Может ли быть достигнут реальный баланс между инновациями и защитой?
