🤖 Claude se encuentra atrapado en una tormenta geopolítica: el juego de cumplimiento de Anthropic con el Pentágono
¿Se ha convertido la inteligencia artificial oficialmente en una herramienta de guerra? El último informe de investigación de The Wall Street Journal (WSJ) ha sorprendido a la comunidad tecnológica.
📍 Evento clave:
Según informantes, el ejército de EE. UU. utilizó el modelo Claude AI de Anthropic en la operación del mes pasado para capturar al ex presidente de Venezuela, Maduro. Se dice que el modelo participó en la planificación de la misión, asistiendo a las fuerzas armadas en el ataque a un objetivo en Caracas.
⚠️ Punto de conflicto:
Anthropic tiene la “constitución” de IA más estricta del mundo. La compañía prohíbe explícitamente el uso de Claude para:
Incitar a la violencia. Desarrollar armas. Implementar vigilancia.
El CEO de Anthropic ha advertido en múltiples ocasiones sobre los riesgos de las armas autónomas. Actualmente, el contrato de la compañía con el Pentágono está bajo cuestionamiento, lo que podría desencadenar un intenso debate sobre la regulación de la IA.
🗣 Respuesta oficial:
Un portavoz de Anthropic declaró: “No podemos comentar si Claude ha sido utilizado en operaciones confidenciales específicas. Cualquier uso de Claude, ya sea en el sector privado o en el gobierno, debe cumplir con nuestras políticas de uso.”
📉 Impacto en la industria:
Este evento podría acelerar la tendencia de regulación estricta de la inteligencia artificial a nivel mundial. Para los inversores, esto significa que el sector de IA (tokens de IA) estará cada vez más influenciado por marcos geopolíticos y éticos, más allá de depender únicamente del avance tecnológico.
¿Crees que la IA debería tener el derecho de rechazar ejecutar órdenes militares? ¡Bienvenido a discutir en la sección de comentarios! 👇
#AI #Anthropic #Claude #五角大楼 #科技新闻
