Le scandale autour de l'IA militaire prend de l'ampleur : le Pentagone exige qu'Anthropic lève les restrictions sur le modèle Claude pour les tâches militaires.
L'exigence est stricte - en cas de refus, une rupture des contrats et un blocage de l'accès aux chaînes d'approvisionnement de défense sont possibles.
Officiellement - analyse stratégique. Officieusement - IA sans "filtres éthiques".
Parallèlement, les États-Unis renforcent leurs positions dans la course contre la Chine, ne souhaitant pas perdre le contrôle sur les technologies d'IA militaires.
Des recherches montrent : dans une série de simulations, les modèles d'Anthropic, OpenAI et Google ont choisi l'escalade nucléaire dans la plupart des cas, même en présence d'alternatives.
La vitesse de décision augmente. La question est de savoir si la raison augmente également avec elle.
Abonne-toi si tu veux comprendre où mène la course de l'IA.