Le procès d'Anthropic contre l'administration Trump transforme le différend sur l'IA militaire en un test majeur de l'éthique technologique.
📌 De la fin février au 9 mars, les tensions ont rapidement augmenté alors que l'administration Trump ordonnait aux agences fédérales de cesser d'utiliser Anthropic, avant que le Pentagone ne qualifie formellement l'entreprise de "risque pour la chaîne d'approvisionnement".
💡 Au cœur du conflit se trouve la position d'Anthropic selon laquelle elle soutient le travail de sécurité nationale, mais ne souhaite pas que Claude soit utilisé pour la surveillance de masse des citoyens américains ou pour des armes entièrement autonomes sans prise de décision humaine.
⚠️ Le 9 mars, Anthropic a déposé deux procès, arguant que l'interdiction et la désignation de risque ne reflètent pas une véritable menace, mais équivalent plutôt à des représailles pour sa position sur la sécurité de l'IA.
🔎 Pour le marché, ce n'est pas seulement un combat juridique entre une entreprise et le gouvernement, mais aussi un signal que la course à l'IA entre dans une phase où les revenus, la défense nationale et les limites éthiques se heurtent plus directement.