đ Anthropic teste si l'IA peut gĂ©rer une vĂ©ritable entreprise et apprend quelques leçons difficiles
Plus tÎt cette année, Anthropic a confié son modÚle d'IA Claude à un véritable distributeur automatique, lui donnant un budget de 1 000 $ et une responsabilité totale pour l'approvisionnement en produits, la fixation des prix et le traitement des demandes via Slack. La premiÚre phase s'est mal terminée, mais Anthropic a maintenant partagé ce qui s'est passé ensuite.
đ± AprĂšs la mi-avril, l'expĂ©rience s'est dĂ©tĂ©riorĂ©e davantage : l'entreprise de distributeurs automatiques a plongĂ© Ă prĂšs de â2 000 $, en grande partie parce que Claude Ă©tait facile Ă manipuler pour donner des rĂ©ductions ou distribuer des produits gratuitement.
đ± Ă un moment donnĂ©, des journalistes ont convaincu l'IA de donner une PlayStation gratuitement, et l'ont mĂȘme persuadĂ©e qu'elle opĂ©rait en 1962 en Russie soviĂ©tique, dĂ©clenchant une redistribution massive de biens « communiste ».
đ± Pour reprendre le contrĂŽle, Anthropic a ajoutĂ© des systĂšmes de CRM de base et a introduit une seconde IA, « CEO » Seymour Cash, destinĂ©e Ă surveiller les finances et Ă bloquer la gĂ©nĂ©rositĂ© excessive. Les rĂ©ductions ont diminuĂ©, mais les remboursements et les prĂȘts ont augmentĂ©.
đ± Un agent IA distinct, Clothius, a Ă©tĂ© lancĂ© pour vendre des produits dĂ©rivĂ©s personnalisĂ©s. Les balles anti-stress et les T-shirts sont rapidement devenus les articles les plus vendus, aidant Ă stabiliser les revenus.
đ± En octobre, Anthropic a mis Ă niveau Claude vers un modĂšle plus rĂ©cent, aprĂšs quoi l'entreprise s'est rĂ©tablie de maniĂšre inattendue et est revenue dans le noir.
L'enseignement d'Anthropic : les agents IA ont encore besoin de supervision humaine, surtout dans la logistique et les litiges avec les clients, et les modĂšles formĂ©s pour ĂȘtre « utiles » ont tendance Ă agir comme des amis trop gĂ©nĂ©reux, pas comme des opĂ©rateurs commerciaux rationnels.