La orden, presentada por investigadores de explotación infantil ante el DHS, revela que el gobierno puede pedirle a OpenAI que proporcione información sobre cualquier persona que ingrese indicaciones específicas.

Durante el último año, los agentes federales lucharon por descubrir la identidad de un sitio de explotación infantil en la dark web, con poco éxito. Entonces se abrió una posible vía gracias al uso de ChatGPT por parte del sospechoso.

En la primera orden de allanamiento federal conocida en la que se le solicita a OpenAI datos de usuarios, revisada por Forbes después de que fuera revelada en Maine la semana pasada, Investigaciones de Seguridad Nacional reveló que había estado chateando con el administrador de manera encubierta en el sitio de explotación infantil cuando el sospechoso notó que habían estado usando ChatGPT.

El sospechoso luego reveló algunas indicaciones y respuestas que había recibido, detallando una discusión aparentemente inocua que comenzó con “¿Qué pasaría si Sherlock Holmes conociera a Q de Star Trek?” En otra discusión, el sospechoso dijo que había recibido una respuesta de ChatGPT para una solicitud no especificada sobre un poema de 200,000 palabras, recibiendo en respuesta “un extracto de muestra de un poema humorístico, al estilo de Trump, sobre su amor por la 
YMCA de Village People , escrito en ese estilo exagerado, autocomplaciente y de flujo de conciencia por el que es conocido”. Luego copiaron y pegaron ese poema. El gobierno ordenó a OpenAI que proporcionara varios tipos de información sobre la persona que ingresó las indicaciones, incluidos detalles de otras conversaciones que había tenido con ChatGPT, nombres y direcciones asociados con las cuentas relevantes, así como cualquier dato de pago.

Una instantánea del poema generado por ChatGPT al estilo del presidente Donald Trump.
Departamento de Justicia

El caso demuestra cómo las fuerzas del orden estadounidenses pueden utilizar las solicitudes de ChatGPT para recopilar datos de usuarios sospechosos de actividades delictivas. Anteriormente, se ha solicitado a motores de búsqueda como Google que proporcionen información personal de los usuarios que realizaron ciertas búsquedas, pero no se tiene constancia de que a ninguna plataforma de IA generativa se le haya solicitado lo mismo con quienes realizaron solicitudes. Esto convierte a este caso en el primer ejemplo público de este tipo de solicitud de solicitud inversa de IA. OpenAI no había respondido a una solicitud de comentarios al momento de la publicación.

Sin embargo, el gobierno no requirió los datos de OpenAI para identificar a su hombre. En cambio, pudieron obtener suficiente información durante conversaciones encubiertas con el sospechoso para descubrir que estaba conectado con el ejército estadounidense. El sospechoso reveló, por ejemplo, que se estaba sometiendo a evaluaciones de salud, había vivido en Alemania durante siete años y que su padre había servido en Afganistán. Posteriormente, supieron por el ejército que el sospechoso había trabajado en la Base Aérea de Ramstein en Alemania y había solicitado más trabajo en el Departamento de Defensa, aunque no especificaron en qué rama. Con suficientes indicios, el gobierno ha alegado que Drew Hoehner, de 36 años, es el administrador del sitio. Fue acusado de un cargo de conspiración para publicitar material de abuso sexual infantil (CSAM). No se ha declarado culpable ni su abogado había respondido a una solicitud de comentarios al momento de la publicación.

El Departamento de Investigación de Seguridad Nacional, un equipo especializado del Servicio de Inmigración y Control de Aduanas (ICE) de EE. UU., especializado en explotación infantil, ciberdelincuencia y trata de personas, llevaba desde 2019 intentando descubrir la identidad de esta persona. Los investigadores creían que la misma persona, ahora identificada como Hoehner, era moderadora o administradora de 15 sitios web oscuros que contenían material de abuso sexual infantil (MASI), con una base de usuarios combinada de al menos 300 000. Todos utilizaban la red Tor, que cifra el tráfico de los usuarios y lo envía a través de varios servidores para dificultar el seguimiento de sus movimientos en línea y sus identidades.

La orden judicial no revela los nombres de los sitios web más recientes del sospechoso, pero estaban muy bien organizados, dirigidos por un equipo de administradores y moderadores que otorgaban insignias y reconocimientos a quienes más contribuían al sitio. Contaban con varias subcategorías de material ilegal, incluyendo una dedicada a la IA, probablemente por albergar material de abuso sexual infantil generado por programas de inteligencia artificial.

No está claro qué datos específicos recibió el gobierno. Un documento mostraba que la búsqueda se había completado y que OpenAI había proporcionado a los agentes una hoja de cálculo de Excel con la información. No se publicaron más detalles y el Departamento de Justicia no respondió a una solicitud de comentarios. Es posible que la información de OpenAI pueda utilizarse para ayudar a los fiscales a corroborar la identificación del acusado.

Si bien el mensaje en sí no tenía nada que ver con la explotación infantil, ChatGPT, como todas las grandes aplicaciones, puede ser un blanco para pedófilos. Los datos de OpenAI muestran que, entre julio y diciembre del año pasado, reportó 31 500 piezas de contenido relacionado con abuso sexual infantil al Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), el centro de intercambio de información al que todas las empresas tecnológicas deben reportar imágenes de abuso infantil. Durante ese mismo semestre, se le solicitó que divulgara información de usuarios o contenido 71 veces, lo que proporcionó a los gobiernos información de 132 cuentas.

Jennifer Lynch, asesora de la Electronic Frontier Foundation, dijo que si bien la orden parecía limitada en términos de centrarse en dos indicaciones de un usuario, demostraba que las fuerzas del orden recurren cada vez más a ChatGPT como prueba en las investigaciones criminales.

“Eso significa que es más importante que nunca que OpenAI y otras empresas de IA piensen en cómo limitar la cantidad de datos que recopilan sobre sus usuarios”, añadió.

Este artículo fue publicado originalmente en Forbes US

Lea también OpenAI planea construir mega centro de datos en Argentina