Caitlin Kalinowski, líder del equipo de ingeniería de hardware y robótica en OpenAI, dijo el sábado que dejará la empresa y escribió en una publicación en redes sociales que su decisión “fue una cuestión de principios”.

Kalinowski, quien fue contratada en 2024 procedente de Meta, dijo en X que su decisión no fue fácil: “La IA tiene un papel importante en la seguridad nacional. Pero la vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana son líneas que merecían más deliberación de la que tuvieron”.

Su decisión se produce mientras OpenAI dijo esta semana que su tecnología podría respaldar trabajos relacionados con defensa, incluidos ciberseguridad, análisis de inteligencia y logística, áreas que el Ejército considera aplicaciones críticas para la inteligencia artificial.

El acuerdo ha generado críticas de algunos empleados de OpenAI y de investigadores en inteligencia artificial, quienes advierten que expandir el uso de la IA en operaciones militares plantea riesgos relacionados con la vigilancia y las armas autónomas.

La asociación entre OpenAI y el Departamento de Defensa se produce después de que la administración Trump dejara de trabajar con Anthropic, a la que el Pentágono etiquetó formalmente como un riesgo para la cadena de suministro.

Kalinowski dijo en X que su problema con el anuncio de OpenAI fue que se hizo con demasiada rapidez, escribiendo que se realizó “sin límites definidos”.

“Creemos que nuestro acuerdo con el Pentágono crea un camino viable para usos responsables de la IA en seguridad nacional, al tiempo que deja claras nuestras líneas rojas: sin vigilancia doméstica y sin armas autónomas”, dijo OpenAI en un comunicado enviado a TechCrunch confirmando la renuncia de Kalinowski. “Reconocemos que las personas tienen posturas firmes sobre estos temas y seguiremos participando en discusiones con empleados, el gobierno, la sociedad civil y comunidades de todo el mundo”.

ChatGPT se enfrenta al rechazo

La controversia provocó una reacción negativa entre los usuarios de ChatGPT, quienes eliminaron la popular aplicación de inteligencia artificial en oleadas. TechCrunch informó que las desinstalaciones de la app móvil de ChatGPT aumentaron un 295% el día después de que se anunciara el acuerdo con el Departamento de Defensa.

En respuesta, Altman dijo que el acuerdo fue “precipitado”, señalando que parecía “oportunista y descuidado”. El acuerdo fue posteriormente modificado y ahora establece que los sistemas impulsados por ChatGPT “no deberán utilizarse intencionalmente para la vigilancia doméstica de personas y ciudadanos estadounidenses”.

Las desinstalaciones de ChatGPT coincidieron con un aumento en las descargas de Claude, el modelo de Anthropic, que creció alrededor de un 55% semana a semana hasta el 2 de marzo.

El Pentágono trabajó inicialmente con Anthropic, que buscaba mantener límites estrictos sobre cómo el gobierno utiliza sus modelos, como parte de un esfuerzo por incorporar inteligencia artificial en la planificación militar. Sin embargo, la administración Trump canceló su contrato con Anthropic después de que el desarrollador de Claude no permitiera que el Ejército utilizara su tecnología de IA para alimentar armas autónomas o sistemas de vigilancia masiva.

Este cambio despejó el camino para que OpenAI profundizara su relación con el Departamento de Defensa, después de que la empresa, junto con Anthropic, Google y xAI, firmara un contrato de 200 millones de dólares con el Pentágono en junio pasado para desarrollar herramientas de inteligencia artificial con fines de seguridad nacional.

Exlíder de Anthropic advierte que el mundo está ‘en peligro’

La disputa entre el Pentágono y Anthropic también se reflejó dentro de la propia compañía. En febrero, el líder de investigación en salvaguardas de Anthropic, Mrinank Sharma, anunció que dejaba la empresa y advirtió en una carta de renuncia que el “mundo está en peligro” en medio de los crecientes riesgos asociados a la inteligencia artificial y los desafíos de seguridad global.

Sharma señaló que los equipos de seguridad enfrentaban cada vez más presión mientras las compañías compiten por desplegar sistemas de IA más potentes. Su salida se suma a una serie de advertencias de investigadores en inteligencia artificial que han pedido a las empresas ralentizar el desarrollo o imponer reglas más estrictas sobre cómo se utiliza esta tecnología.

Esta es una noticia en desarrollo y será actualizada.

Lea también: OpenAI difumina su línea roja de vigilancia masiva con nuevo contrato con el Pentágono

Esta noticia fue publicada originalmente por Forbes US