🛒 Anthropic teste si l'IA peut gĂ©rer une vĂ©ritable entreprise et apprend quelques leçons difficiles

Plus tÎt cette année, Anthropic a confié son modÚle d'IA Claude à un véritable distributeur automatique, lui donnant un budget de 1 000 $ et une responsabilité totale pour l'approvisionnement en produits, la fixation des prix et le traitement des demandes via Slack. La premiÚre phase s'est mal terminée, mais Anthropic a maintenant partagé ce qui s'est passé ensuite.

đŸ–± AprĂšs la mi-avril, l'expĂ©rience s'est dĂ©tĂ©riorĂ©e davantage : l'entreprise de distributeurs automatiques a plongĂ© Ă  prĂšs de –2 000 $, en grande partie parce que Claude Ă©tait facile Ă  manipuler pour donner des rĂ©ductions ou distribuer des produits gratuitement.

đŸ–± À un moment donnĂ©, des journalistes ont convaincu l'IA de donner une PlayStation gratuitement, et l'ont mĂȘme persuadĂ©e qu'elle opĂ©rait en 1962 en Russie soviĂ©tique, dĂ©clenchant une redistribution massive de biens « communiste ».

đŸ–± Pour reprendre le contrĂŽle, Anthropic a ajoutĂ© des systĂšmes de CRM de base et a introduit une seconde IA, « CEO » Seymour Cash, destinĂ©e Ă  surveiller les finances et Ă  bloquer la gĂ©nĂ©rositĂ© excessive. Les rĂ©ductions ont diminuĂ©, mais les remboursements et les prĂȘts ont augmentĂ©.

đŸ–± Un agent IA distinct, Clothius, a Ă©tĂ© lancĂ© pour vendre des produits dĂ©rivĂ©s personnalisĂ©s. Les balles anti-stress et les T-shirts sont rapidement devenus les articles les plus vendus, aidant Ă  stabiliser les revenus.

đŸ–± En octobre, Anthropic a mis Ă  niveau Claude vers un modĂšle plus rĂ©cent, aprĂšs quoi l'entreprise s'est rĂ©tablie de maniĂšre inattendue et est revenue dans le noir.

L'enseignement d'Anthropic : les agents IA ont encore besoin de supervision humaine, surtout dans la logistique et les litiges avec les clients, et les modĂšles formĂ©s pour ĂȘtre « utiles » ont tendance Ă  agir comme des amis trop gĂ©nĂ©reux, pas comme des opĂ©rateurs commerciaux rationnels.