OpenAI y Anthropic invirtieron más en lobby en 2025 que nunca. Están impulsando un trato amistoso y menos regulación en medio de crecientes tensiones—al menos para Anthropic—con la administración Trump.

El mes pasado, el CEO de Anthropic, Dario Amodei, publicó un extenso ensayo argumentando que la proliferación de centros de datos de IA está vinculando cada vez más los intereses financieros y tecnológicos de los grandes laboratorios de IA a los políticos del gobierno. Lamentó lo que describió como la reticencia de la tecnología a desafiar al gobierno, así como el apoyo del gobierno a “políticas extremas antirregulatorias sobre IA.” Su propuesta: anteponer la política a la política.

Desgraciadamente, es difícil mantener la distancia de la política mientras negociamos contratos gubernamentales de nueve cifras.

Una disputa —informada primero por Axios— entre Anthropic y el Departamento de Defensa de EU por un contrato de 200 millones de dólares para desarrollar IA para la seguridad nacional en casos de guerra y empresas, sugiere que la separación que Amodei defiende podría ser difícil de lograr en la administración de monedas del presidente Trump. Y el CEO de Anthropic obviamente lo sabe, por eso su empresa está intensificando el lobby y las donaciones políticas igual que sus rivales.

Anthropic y OpenAI gastaron 3.13 millones y 2.99 millones de dólares, respectivamente, en lobby federal directo en 2025: más que nunca, según las divulgaciones regulatorias. Eso se suma a aproximadamente 300,000 dólares por empresa para hacer lobby en California. Las dos empresas, valoradas supuestamente en 830,000 y 380,000 millones de dólares respectivamente, comenzaron a hacer lobby en 2023. Para Anthropic, 2025 marcó el primer año en que se revelaron donaciones en apoyo a candidatos políticos concretos.

La semana pasada, Anthropic anunció una donación de 20 millones de dólares a Public First Action, una organización política que aboga por una mayor regulación de la IA. La empresa promocionó el esfuerzo como no partidista, aunque muchas de las políticas que apoya parecen estar en desacuerdo con las de Trump, el zar de la IA David Sacks y la tendencia general de la industria antirregulación. OpenAI declinó hacer comentarios. Anthropic declinó comentar sobre esfuerzos específicos de presión, pero dirigió a Forbes su comunicado de prensa sobre la donación de Public First Action.

Quizá la ruptura más visible entre los esfuerzos políticos de OpenAI y Anthropic se dio con la ley de seguridad de la IA de California, que entró en vigor en enero.

El SB 53 exige que los grandes fabricantes de modelos de IA creen normas y barreras para evaluar la seguridad de los nuevos modelos, y luego auto-informen cómo los han abordado antes de lanzar nuevos modelos, o se enfrentan a multas. Ambas compañías hicieron lobby por el proyecto de ley. Según se informa, OpenAI se opuso a ello. Anthropic finalmente la respaldó.

Pero, ¿cuánto importa esa distinción?

“Es posicionarte como defensor de la seguridad o de estar orientado a la seguridad… [pero] fue más bien un movimiento publicitario”, dice Kyle Qi de Llama Ventures, que tiene una participación indirecta en Anthropic. Michael Kleinman, responsable de política estadounidense en el Future of Life Institute de regulación pro-IA, es aún más directo: “Hasta que veamos que las empresas realmente apoyan una legislación significativa, lo que dicen sobre su deseo de regulación es un discurso vacío… La industria en su conjunto está empeñada en evitar la regulación.”

Al desvelar las capas, a nivel federal, la superposición es más clara que la división. Para Anthropic y OpenAI, las prioridades de lobby en 2025 incluyeron seguridad nacional e infraestructura de IA. Las agencias federales utilizan cada vez más sistemas de IA. En agosto, OpenAI y Anthropic anunciaron acuerdos para que las agencias gubernamentales usaran sus modelos por 1 $; xAI de Elon Musk anunció una asociación similar por 0,42 dólares en septiembre. En 2024, OpenAI eliminó discretamente el lenguaje de sus políticas de uso que prohíbe aplicaciones “militares y bélicas”.

La propuesta a Washington es sencilla: una escala más rápida fortalece la competitividad estadounidense.

En una carta de octubre a la Oficina de Política Científica y Tecnológica de la Casa Blanca, Chris Lehane, director de asuntos globales de OpenAI, escribió que “la necesidad de seguridad nacional de liderar el mundo en IA también presenta una oportunidad única por siglo para fortalecer nuestra economía.” Instó al gobierno a garantizar que los sistemas de IA fronterizos protejan los intereses de seguridad nacional de EU “incluyendo la adopción por agencias federales.”

Los documentos de Anthropic hacen referencia explícita a los controles de exportación y a la Ley GAIN AI. Presentada en octubre, la ley restringiría aún más la venta de chips de IA avanzados a adversarios como China y Rusia, otorgando a los clientes estadounidenses un derecho de preferencia antes de la exportación. El asunto ha vuelto a tener urgencia: Nvidia ahora tiene permiso para vender sus avanzados chips H200 a empresas chinas tras años de negociaciones con funcionarios estadounidenses y chinos.

No está claro si OpenAI ha presionado sobre los controles de exportación, pero el CEO Sam Altman ha cuestionado su eficacia. El “trabajo del presidente Trump es asegurarse de que América gane”, dijo a Forbes. “Y veo nuestra misión como la de toda la humanidad… hay algo de oposición ahí.”

Ahí está el tema de la construcción. Desarrollar y desplegar IA de vanguardia requiere vastos centros de datos. Anthropic, OpenAI y empresas tradicionales como Google y Meta compiten por ampliar su capacidad. Argumentan que la complexidad de los permisos, los cuellos de botella en el poder, los retrasos en la construcción y la oposición local están ralentizando los proyectos; más de la mitad de los desarrollos de centros de datos en 2025 se retrasaron al menos tres meses, según JLL.

Los compromisos financieros son enormes. OpenAI se ha comprometido a gastar unos 1.4 billones de dólares en ellos durante los próximos ocho años, aparentemente sin un plan para pagarlo todo.

Ambas empresas están presionando en consecuencia. Anthropic presionó una orden ejecutiva de julio destinada a acelerar la concesión de permisos federales para la infraestructura de centros de datos. En su carta de octubre, OpenAI pidió créditos fiscales y otras subvenciones, junto con permisos energéticos y medioambientales simplificados para poner en funcionamiento las instalaciones más rápido. Anthropic ha apoyado políticas similares y recientemente anunció que cubriría los costes eléctricos relacionados con la conexión de nuevos centros de datos a la red.

Otros proyectos de ley y cuestiones mencionados en esas divulgaciones incluyen la Ley CREATE AI—que pretende hacer que la tecnología de IA sea accesible para todos los estadounidenses; interferencia electoral de IA; derechos de autor; una orden ejecutiva para prevenir la “IA woke” en el gobierno federal; una moratoria sobre la IA; y regulaciones más amplias de seguridad y gobernanza de la IA. Sin embargo, aún es pronto: aún no se ha aprobado una legislación que cambie de forma significativa el desarrollo y despliegue de la IA en Estados Unidos. Una pieza clave de legislación, para que la política federal de IA tenga prioridad sobre las leyes estatales y así hacer casi imposible que los estados aprueben su propia regulación de IA, terminó siendo una orden ejecutiva de diciembre en lugar de una ley aprobada por el Congreso.

“Washington está lamentablemente atrasado en política de IA, dejando a los responsables políticos peligrosamente dependientes de las empresas tecnológicas para obtener información sobre la trayectoria e impacto de las tecnologías emergentes que nos afectarán a todos”, dice Matt Lerner, director general de investigación de Founders Pledge, una organización sin ánimo de lucro que agrupa donaciones de fundadores y ha dirigido donaciones filantrópicas a varias organizaciones sin ánimo de lucro de política y seguridad de IA (la organización no hace lobby).

La regulación de la IA se está preparando como una lucha de mitad de mandato, con candidatos y filantropías con grandes recursos gastando millones para que sus posiciones sean escuchadas. Pero por ahora, el campo pertenece a los constructores. Las empresas que redactan las especificaciones del modelo de IA también están emitiendo los mayores cheques en Washington—argumentando que la velocidad es patriotismo, la escala es seguridad y que su éxito comercial es bueno para el país. Hasta que el Congreso demuestre lo contrario, siguen siendo tanto el sujeto de las normas como las voces más fuertes que las moldean.

Este artículo fue publicado originalmente en Forbes US

Lea también: El fundador de OpenClaw se une a OpenAI y el bot de código abierto se convierte en la fundación