Le co-fondateur d'Ethereum, Vitalik Buterin, vient de s'exprimer sur l'un des affrontements politiques les plus importants
#AI qui se déroulent en ce moment — et son avis fait tourner les têtes.
Dans un post récent, Vitalik a déclaré que cela « augmenterait significativement » son opinion sur
#Anthropic si l'entreprise maintenait sa position et acceptait les conséquences plutôt que de revenir sur ses garde-fous sous la pression du Pentagone.
Au centre du différend ? Deux lignes rouges.
Anthropic a refusé de permettre que son modèle d'IA, Claude, soit utilisé pour des armes entièrement autonomes ou une surveillance de masse des Américains. Selon des sources, le secrétaire à la Défense Pete Hegseth a donné à l'entreprise une date limite vendredi pour se conformer aux demandes de assouplir ces restrictions — ou risquer de perdre un contrat de 200 millions de dollars avec le Pentagone. Il y a également des rapports sur une invocation potentielle de la Loi sur la production de défense et même le fait de qualifier l'entreprise de « risque pour la chaîne d'approvisionnement ».
Le cadre que propose Vitalik est intéressant car il qualifie la position d'Anthropic de « réellement très conservatrice et limitée ». Ce n'est pas anti-militaire. Ce n'est pas anti-gouvernement. C'est simplement tracer une frontière autour de deux domaines qui mettent beaucoup de gens mal à l'aise : les armes contrôlées par IA et les violations de la vie privée à grande échelle.
Il fait également un point philosophique plus large. Dans son monde idéal, toute personne travaillant sur des armes autonomes ou la surveillance de masse n'aurait accès qu'aux modèles d'IA à poids ouverts — rien de plus. Pas de capacités spéciales. Pas d'accès privilégié. Juste les mêmes outils de base que tout le monde.
Réalistement, il admet que nous n'atteindrons pas ce monde. Mais même se rapprocher de « 10% » de la limitation de ces usages serait un progrès. Aller « 10% plus loin » serait un pas en arrière.
Le Pentagone dit que la légalité est de sa responsabilité en tant qu'utilisateur final. Anthropic dit que l'IA n'est pas encore assez fiable pour le contrôle des armes et qu'il n'y a pas de lois claires régissant la surveillance de masse par IA. Pendant ce temps, des concurrents seraient prêts à entrer dans des environnements classifiés si Anthropic se retire.
#VitalikButerin #PolicyNews