Las empresas que crean la inteligencia artificial (IA) más poderosa del mundo se han convertido al mismo tiempo en los principales cabilderos que determinan las reglas de su regulación. OpenAI y Anthropic gastaron en 2025 más en cabildeo federal que en todos los años anteriores de su trabajo, y no es una coincidencia casual.

Anthropic gastó $3.13 millones en cabildeo federal directo, OpenAI — $2.99 millones. Además, aproximadamente $300,000 cada una en cabildeo en California. Ambas compañías, valoradas en $380 mil millones y $830 mil millones respectivamente, comenzaron a cabildear solo en 2023. Para Anthropic, 2025 fue el primer año en que la compañía declaró públicamente donaciones en apoyo a candidatos políticos específicos.

Palabras hermosas — y cheques grandes

El mes pasado, el director ejecutivo de Anthropic, Dario Amodei, publicó un extenso ensayo en el que se quejaba de la falta de voluntad de la industria tecnológica para desafiar el poder y del apoyo a «políticas extremadamente antirregulatorias en el ámbito de la IA». Su receta sonaba noble: un curso estatal sustantivo es más importante que la coyuntura política.

Sin embargo, predicar distancia de la política, al mismo tiempo que se coordinan contratos gubernamentales de nueve cifras, es una tarea que ninguna ética corporativa puede manejar. El conflicto de Anthropic con el Departamento de Defensa de EE. UU. sobre un contrato de $200 millones — para desarrollar IA para tareas de seguridad nacional — ilustra claramente cuán ilusoria es esa «independencia» de la que habla Amodei. Axios fue el primero en informar sobre este enfrentamiento.

La semana pasada, Anthropic anunció una donación de $20 millones a la organización Public First Action, que aboga por una regulación más estricta de la IA. La empresa presentó esto como un «paso bipartidista» — aunque las posiciones que promueve claramente difieren de la dirección de la administración de Trump, el «rey de la IA» David Sacks y la lógica antirregulatoria general de la industria.

Donde los intereses coinciden

Si eliminamos la capa superior de retórica, a nivel federal OpenAI y Anthropic se parecen mucho más entre sí de lo que les gustaría admitir. En agosto, ambas compañías firmaron acuerdos que permiten a las agencias gubernamentales utilizar sus modelos por $1. En septiembre, xAI de Elon Musk propuso condiciones similares por $0.42. Ya en 2024, OpenAI silenciosamente eliminó de sus términos de uso la cláusula que prohibía aplicaciones militares de sus modelos.

El argumento para Washington es simple y claro: escalar más rápido — te mantienes más fuerte en la competencia con China. El director principal de asuntos globales de OpenAI, Chris Lehane, escribió en una carta a la Oficina de Política Científica y Tecnológica de la Casa Blanca que «el imperativo de seguridad nacional de liderar en el ámbito de la IA abre una oportunidad única en un siglo para fortalecer nuestra economía».

En los materiales de cabildeo, Anthropic menciona directamente el proyecto de ley GAIN AI Act, que limitaría la venta de chips avanzados de IA a países como China y Rusia, otorgando a los compradores estadounidenses un derecho preferencial de compra antes de la exportación. El tema ha adquirido una agudeza particular: Nvidia ahora tiene derecho a vender sus avanzados chips H200 a empresas chinas — tras años de negociaciones.

En cuanto a Sam Altman, él expresó públicamente sus dudas sobre la efectividad de las restricciones a la exportación: «El trabajo del presidente es asegurar la victoria de América. Nuestra misión es servir a toda la humanidad… aquí hay una contradicción», dijo a Forbes.

Las empresas que redactan especificaciones técnicas para modelos de IA, al mismo tiempo, están escribiendo los cheques más grandes en Washington. Convencen a las autoridades de que la velocidad es patriotismo, la escala es seguridad, y su éxito comercial es un bien para el país. Hasta que el Congreso demuestre lo contrario, siguen siendo, al mismo tiempo, sujetos de regulación y las principales voces que dan forma a esa regulación.

Opinión de IA

El patrón histórico aquí es dolorosamente reconocible. Microsoft en la década de 1990 ignoró fundamentalmente a Washington — y recibió un prolongado acoso antimonopolio que casi terminó en la división forzada de la empresa. La lección fue contagiosa: la experiencia de Microsoft se convirtió en un manual para Google, que construyó una poderosa máquina de cabildeo por adelantado — y cerró con éxito la investigación antimonopolio de la FTC en 2013. OpenAI y Anthropic, al parecer, estudiaron ambos precedentes y saltaron la etapa de «estamos fuera de la política».

#AImodel #AI #OpenAI #Anthropic #Write2Earn

$BTC

BTC
BTC
68,343.23
-1.37%