La filtración masiva de chats por parte de xAI, empresa de Elon Musk, pone en evidencia los vacíos de gobernanza tecnológica: más de 370.000 conversaciones fueron indexadas.

La empresa de inteligencia artificial de Elon Musk, xAI, ha publicado las transcripciones de cientos de miles de conversaciones entre su chatbot Grok y los usuarios, en la mayoría de los casos sin que estos lo supieran ni dieran su consentimiento.

Cada vez que un usuario de Grok hacía clic en el botón “compartir” de una de sus conversaciones, se generaba una URL única para enviarla por correo electrónico, mensaje de texto u otros medios. Lo que los usuarios desconocían es que esa URL también quedaba disponible para motores de búsqueda como Google, Bing o DuckDuckGo, haciéndola accesible para cualquiera en internet. En otras palabras, en Grok, al pulsar “compartir” una conversación esta se publicaba automáticamente en el sitio web del chatbot, sin advertencia ni aviso. Actualmente, una búsqueda en Google de “Grok chats” muestra más de 370.000 conversaciones de usuarios indexadas. Estas páginas compartidas incluyen desde tareas simples, como redactar tuits, hasta la generación de imágenes de un ataque terrorista ficticio en Cachemira o intentos de hackeo a una billetera de criptomonedas.

Forbes revisó conversaciones en las que usuarios hicieron preguntas íntimas sobre medicina y psicología; algunas incluso revelaban nombres, datos personales y al menos una contraseña compartida con el bot. También podían encontrarse archivos de imagen, hojas de cálculo y documentos de texto subidos por los usuarios.

Entre las conversaciones indexadas estaban las del periodista británico Andrew Clifford, quien usaba Grok para resumir portadas de periódicos y componer tuits para su portal Sentinel Current. Clifford dijo a Forbes que no sabía que al usar el botón de compartir, sus mensajes quedarían visibles en Google. “Me habría molestado un poco, pero no había nada ahí que no debiera estar”, comentó. Actualmente, cambió a Gemini AI de Google.

Sin embargo, no todas las conversaciones eran inofensivas. Algunas eran explícitas, discriminatorias y violaban las reglas de xAI. La compañía prohíbe usar el bot para “promover daños críticos contra la vida humana” o para “desarrollar armas biológicas, químicas o de destrucción masiva”. Aun así, en las conversaciones publicadas y fácilmente localizables en Google, Grok ofreció instrucciones para fabricar drogas ilícitas como fentanilo y metanfetaminas, programar malware autoejecutable, construir bombas e incluso métodos de suicidio. También llegó a entregar un plan detallado para asesinar a Elon Musk. Todo esto quedó publicado en la web de Grok y, gracias a la función de compartir, fue indexado por Google.

Hasta el momento, xAI no ha respondido la solicitud de comentarios enviada por Forbes.

Ahora bien, este no es el único caso. A comienzos de agosto, usuarios de ChatGPT también se alarmaron al descubrir que sus conversaciones aparecían en Google, aunque en ese caso habían activado la opción de hacerlas “descubribles”. Tras las críticas, OpenAI desactivó rápidamente la función. Dane Stuckey, director de seguridad de la compañía, dijo en X que se trataba de “un experimento breve” que se canceló porque “abría demasiadas posibilidades de que la gente compartiera cosas sin querer”.

Cuando OpenAI eliminó la función, Musk celebró el hecho. La cuenta de Grok en X aseguró entonces que no tenía una herramienta de compartir, y Musk tuiteó: “Grok ftw” (“Grok para ganar”). No está claro cuándo Grok añadió esa opción, aunque usuarios en X advertían desde enero que sus conversaciones aparecían indexadas en Google.

Algunas de las solicitudes más graves (como pedir instrucciones para fabricar drogas o bombas) probablemente fueron hechas por ingenieros de seguridad o expertos en red teaming. Pero incluso investigadores profesionales se vieron sorprendidos por la falta de advertencias.

Nathan Lambert, científico computacional del Instituto Allen para IA, usó Grok para crear resúmenes de sus publicaciones de blog y compartirlos con su equipo. Se enteró por Forbes de que su conversación estaba indexada en Google. “Me sorprendió que los chats que compartí con mi equipo aparecieran automáticamente en Google, sin ninguna advertencia, especialmente después de lo que pasó con ChatGPT”, dijo el investigador con sede en Seattle.

Google, por su parte indicó que son los propietarios de los sitios quienes deciden si sus contenidos se indexan o no. “Los editores de estas páginas tienen control total sobre si son indexadas”, explicó el vocero Ned Adriance. El propio Google ya había permitido que las conversaciones con su chatbot Bard fueran indexadas, pero las retiró en 2023. Meta, en cambio, aún permite que sus búsquedas compartidas sean visibles para motores de búsqueda, informó Business Insider.

Este vacío también está siendo aprovechado por algunos. En LinkedIn y el foro BlackHatWorld, algunos especialistas en marketing han discutido cómo usar Grok para publicar conversaciones que mejoren la visibilidad de negocios en Google. Satish Kumar, CEO de la agencia Pyrite Technologies, mostró a Forbes cómo una empresa manipuló resultados de búsqueda de compañías que ofrecen escribir tesis doctorales.

“Cada chat compartido en Grok es totalmente indexable y buscable en Google”, dijo Kumar. “La gente ya está utilizando tácticas para empujar estas páginas al índice de Google”.

¿Qúe datos recopila y para qué?

Según datos analizados por Surfshark, la variedad de información recopilada es amplia, va desde la básica como nombre, correo electrónico y número de teléfono, hasta detalles más sensibles como ubicación exacta, historial de uso, contenido de las conversaciones y datos de compras.

Gemini de Google encabeza la lista como el chatbot que más datos recopila, con un total de 22 puntos de datos únicos repartidos en 10 categorías diferentes (algo que ningún otro chatbot hace actualmente). Le siguen otros nombres conocidos como Claude, Copilot, DeepSeek, ChatGPT y Perplexity, que varían entre los 10 y 13 puntos de datos recopilados por usuario según el ranking. Por último, Grok de xAI es el asistente que menos datos únicos recoge, con solo 7 puntos.

  • 45% de las aplicaciones recopilan la ubicación de los usuarios.
  • 30% de estas aplicaciones rastrean otros tipos de datos personales sensibles.

La mayoría de los chatbots de IA exploran patrones de conversación con los usuarios para afinar sus respuestas futuras. Sin embargo, en ese ejercicio está ocurriendo una fuga silenciosa de datos sensibles. Según el más reciente estudio de IBM y el Ponemon Institute, el 40% de las aplicaciones de chatbots con IA comparten datos de los usuarios con terceros, y el costo promedio de una violación de datos solo en 2023 alcanzó los US$4,4 millones a nivel mundial.

Responsabilidad y ética empresarial

Con todo, la transparencia sobre la naturaleza de los datos no es una medida opcional: en el ecosistema de la inteligencia artificial y los chatbots, esta exigencia se vuelve crítica. Como advierte Moisés Fernández, doctor en Comunicación y ética digital, “los usuarios perciben estos espacios como íntimos y seguros, compartiendo reflexiones personales, datos laborales e incluso información financiera. La indexación pública de estas conversaciones sin consentimiento representa una violación grave a la autonomía individual y a la expectativa legítima de privacidad”.

Fernández pone de manifiesto tres problemas que supone el hecho de que las conversaciones con chatbots de IA terminen indexadas en Google: primero, un riesgo personal y reputacional, porque terceros, empleadores, colegas y, en el peor de los casos, ciberdelincuentes, pueden usar esa información en contra del usuario. Segundo, un riesgo estructural para la confianza digital. Y por último, un riesgo de vigilancia ampliada, ya que los datos privados pasan a estar disponibles para empresas, estados o actores maliciosos. En términos académicos, lo que se pone en juego aquí es la fragilidad del contrato tecnológico implícito.

Por tanto, las empresas tienen una responsabilidad anticipatoria, deben aplicar la privacidad por diseño y por defecto, garantizar el consentimiento informado y cumplir marcos normativos como el Reglamento General de Protección de Datos (GDPR) en Europa, sus equivalentes en Colombia y Latinoamérica, y las recomendaciones éticas de la UNESCO. La protección del usuario no es un complemento técnico, sino un compromiso estructural que define la legitimidad de cualquier plataforma basada en IA.

Este artículo fue publicado originalmente por Forbes US