Anthropic vio un problema de vigilancia y se marchó. OpenAI vio una oportunidad y firmó. Ahora, Sam Altman está bajo críticas por tener dificultades para explicar en qué el contrato de OpenAI es más seguro.
La propia confesión de Sam Altman, el torbellino de los últimos días ha pesado mucho sobre el jefe de OpenAI.
El viernes, irrumpió para tomar un contrato del Departamento de Guerra de la rival Anthropic, aprovechando un acuerdo que se había torcido cuando el CEO de su competidor, Dario Amodei, insistió en límites contractuales al uso de la IA para armas totalmente autónomas y vigilancia doméstica masiva.
Amodei había explicado sus problemas con el contrato en una entrada de blog el jueves, diciendo que la empresa no quería que ninguna agencia utilizara a Claude para crear una imagen detallada y precisa de la vida privada de los ciudadanos mediante conexiones entre grandes conjuntos de datos, todo ello sin necesidad de una orden judicial.
Señaló la compra por parte del gobierno de EE. UU. de enormes conjuntos de datos sobre ubicaciones de personas, hábitos de navegación web y otra información, normalmente de intermediarios de datos. La IA podría usarse para reunir todas esas fuentes de datos y hacer inferencias sobre una persona o poblaciones enteras, representando una amenaza de privacidad sin precedentes.
Luego, a lo largo de horas el viernes por la noche, las conversaciones entre ambas entidades se desmoronaron por completo. En represalia, el gobierno de EU designó a Anthropic como una “amenaza en la cadena de suministro”, cortándola efectivamente de los contratos federales. (Anthropic ha dicho que planea demandar).
Al principio, Altman afirmó haber llegado a un compromiso, ya que OpenAI afirmó que su acuerdo con el Pentágono mantenía sus líneas rojas, incluida una que estipulaba que sus herramientas no se usarían para vigilancia doméstica masiva. La empresa continuó con una entrada en su blog en la que afirmaba que su IA podría usarse con fines legales y que cualquier manipulación de información privada cumpliría con múltiples leyes relacionadas con la vigilancia bajo las que opera el Pentágono.
Esto incluye la Ley de Vigilancia de Inteligencia Extranjera (FISA), que otorga un amplio alcance a la controvertida Agencia de Seguridad Nacional dentro del Pentágono, permitiéndole recopilar las comunicaciones de ciudadanos estadounidenses con individuos y entidades extranjeras. También incluye la Orden Ejecutiva 12333, que permite la recopilación masiva de datos de objetivos extranjeros, independientemente de si están hablando con estadounidenses o no. “El Sistema de IA no podrá utilizarse para la vigilancia sin restricciones de la información privada de personas estadounidenses conforme a estas autoridades”, dice el contrato.
La reacción fue inmediata. Expertos en políticas y legales de IA señalaron que FISA y la Orden Ejecutiva 12333 habían sido previamente criticadas por permitir una vigilancia amplia de ciudadanos estadounidenses. Tampoco parecía haber ninguna disposición para impedir que el Pentágono usara los modelos de OpenAI sobre datos adquiridos comercialmente. Como escribió Mike Masnick en Techdirt, “OpenAI ha adoptado efectivamente el diccionario de la comunidad de inteligencia, un diccionario en el que las palabras comunes en inglés han sido cuidadosamente redefinidas durante décadas para permitir precisamente aquello que parecen prohibir.” Los usuarios respondieron: Los datos de SensorTower mostraron que las desinstalaciones de la aplicación móvil ChatGPT aumentaron un 295% día a día el sábado, mientras que Anthropic se disparó a lo más alto de las listas de IA, según TechCrunch.
El lunes por la noche, Altman respondió a la avalancha de críticas, tuiteando un mensaje interno en el que decía que la empresa modificaría su contrato con el Pentágono para incluir un nuevo lenguaje que estipule que su IA “no debe ser utilizada intencionadamente para la vigilancia doméstica de personas y nacionales estadounidenses.” Dijo que el contrato también impediría que las agencias de inteligencia del Departamento de Guerra, como la NSA, utilizaran herramientas OpenAI a menos que hubiera una “modificación en nuestro contrato”.
“Para evitar dudas, el Departamento entiende esta limitación para prohibir el rastreo, la vigilancia o la vigilancia deliberada de personas o nacionales estadounidenses, incluyendo la adquisición o el uso de información personal o identificable adquirida comercialmente”, escribió.
Ambas condiciones intentaron disipar los temores sobre las formas legales en que el Pentágono vigila a los estadounidenses bajo las leyes especificadas en el contrato. El Departamento de Guerra compra acceso a una cantidad significativa de información personal de los estadounidenses. Cuenta con múltiples contratos tecnológicos de Babel Street, una empresa que utiliza agentes de IA para establecer conexiones entre todo tipo de conjuntos de datos, incluyendo información de redes sociales e historial de ubicación de teléfonos móviles. Los registros de contratación muestran que LexisNexis, propiedad de la empresa de análisis de capitalización bursátil RELX con un valor de 56,000 millones de dólares, proporciona al Departamento de Guerra una herramienta llamada Smartlinx para “servicios de verificación de identidad en línea para descubrir conexiones personales integrales”, y Accurint para “conexión directa a más de 34,000 millones de registros públicos actuales.” La Agencia de Seguridad Nacional también compra datos de “netflow”, que son esencialmente huellas de las actividades online de las personas, que pueden revelar qué sitios web visitan y qué aplicaciones utilizan.
En su blog del jueves, Amodei de Anthropic parecía anticipar lo que podría pasar al dejar que una IA poderosa explote todos esos datos. En segundos, una IA así podría hurgar en la información para descubrir los lugares donde una persona vive, trabaja o ha visitado, ya haya asistido a determinados mítines políticos, lugares de culto o clínicas de aborto, y su estatus migratorio. Sumado a cualquier comunicación que hayan tenido con otros países fuera de EU individuos, la IA podía inferir mucho sobre cualquier individuo.
Ese tipo de vigilancia a gran escala era prácticamente imposible cuando los analistas humanos tenían que hacer el trabajo de campo, pero la IA presenta un nuevo paradigma. “Los nuevos sistemas de IA son más potentes y mejores analizando estos conjuntos de datos y sacando inferencias sobre las personas a gran escala que las herramientas existentes de otras empresas disponibles en el mercado”, dice Patrick Toomey, subdirector del Proyecto de Seguridad Nacional de la ACLU.
Wolfie Christl, investigador con base en Viena en Cracked Labs, que investiga la industria de los datos, afirma que ya es “extremadamente peligroso” que los gobiernos compren datos personales y los utilicen para vigilancia sin orden judicial sin supervisión. “Estos riesgos se agravan aún más si estos datos se introducen en sistemas de IA opacos y a menudo disfuncionales, donde errores, sesgos y falta de rendición de cuentas pueden magnificar el daño”, añade Christl.
A pesar de las afirmaciones de Altman de que su acuerdo no permitirá ese tipo de vigilancia masiva, aún le queda algo por convencer. Tyson Brody, experto en políticas y exdirector de investigación de la campaña presidencial de Bernie Sanders, escribió en X que el lenguaje contractual actualizado el lunes contenía “un lenguaje extremadamente cuidadoso y preocupante. Difícil no interpretarlo como una admisión de una red de IA.” Se ofendió por el lenguaje del acuerdo con OpenAI que permitiría usar la IA en datos recogidos de forma accidental o accidental, señalando que “los estadounidenses se verán arrastrados por estos datos”, pero que el gobierno podrá alegar que cualquier “recopilación incidental” es legal.
Durante toda la controversia, el Pentágono ha insistido en que no tiene interés en la vigilancia doméstica masiva. “El DoW no realiza ninguna vigilancia doméstica ilegal con o sin un sistema de IA y siempre cumple estrictamente con las leyes, regulaciones y las protecciones constitucionales para las libertades civiles de los estadounidenses”, escribió Emil Michael, subsecretario de Guerra para Investigación e Ingeniería, en X, cuando se anunció el contrato con OpenAI el viernes. “El DoW no espía la comunicación doméstica de personas estadounidenses (incluida la recolección comercial) y hacerlo sería ilegal y profundamente antiamericano”.
Aunque el Pentágono y OpenAI prometen usar la IA dentro de los límites legales, las leyes estadounidenses fueron redactadas en la era previa a la IA, cuando nadie tenía ni idea del potencial invasivo de los modelos fronterizos actuales. Como escribió Amodei, “En la medida en que dicha vigilancia sea actualmente legal, esto es solo porque la ley aún no ha alcanzado las capacidades en rápido crecimiento de la IA”.
En un extenso AMA en X, Altman indicó que también había luchado con estos desafíos. En respuesta a una pregunta sobre qué era lo más difícil de conciliar entre los principios fundamentales de OpenAI y las demandas del gobierno, dijo: “Pensar a través de la vigilancia no doméstica. He aceptado que el ejército estadounidense va a hacer cierta vigilancia sobre extranjeros, y sé que los gobiernos extranjeros intentan hacerlo con nosotros, pero aun así no me gusta”, señalando, “Por otro lado, también respeto el proceso democrático. No creo que esto me corresponda a mí decidirlo.”
Mientras intentaba calmar las tensiones, Altman repitió que quería que el Departamento de Guerra revocara la designación de Anthropic como amenaza en la cadena de suministro. Y confesó que había manejado mal la situación. “Una cosa que creo que hice mal: no deberíamos habernos apresurado a sacar esto el viernes. Los temas son súper complejos y exigen una comunicación clara”, escribió. “De verdad intentábamos calmar las cosas y evitar un resultado mucho peor, pero creo que simplemente parecía oportunista y descuidado.”
Este artículo fue publicado originalmente en Forbes US
Lea también: Apple presentó su portátil más económico, por US$599
