O Pentágono exigiu que a Anthropic cancelasse as restrições de segurança embutidas no Claude sobre "robôs assassinos autônomos" e "monitoramento em massa", caso contrário, perderia um contrato de 200 milhões de dólares e seria rotulada como um risco na cadeia de suprimentos. A Anthropic recusou-se a fazer um compromisso por escrito, e o CEO Dario Amodei respondeu de forma contundente: "Essas ameaças não podem mudar nossa posição, não podemos atender ao pedido deles por questões de consciência."
A isso, Trump também respondeu de forma firme: eu instruí cada agência federal do governo dos EUA a parar imediatamente de usar a tecnologia da Anthropic.
Subsequentemente, a OpenAI anunciou uma parceria com o Departamento de Guerra dos EUA para substituir o Claude da Anthropic.
Esse evento revela a questão central dos limites de segurança da inteligência artificial, na disputa entre ética tecnológica e poder político, como defender a linha ética moral da inteligência artificial requer regras e instituições claras, e não a vontade dos autoridades.
#anthropicControvérsiaDoGovernoAmericano