Tu hija le confiesa a su Barbie que en el colegio la molestan, le cuenta sus miedos más profundos y secretos familiares. La muñeca la escucha con paciencia, le responde con una empatía reconfortante y recuerda cada palabra. Parece magia. Pero ese momento íntimo no solo es entre una niña y su juguete: también es […]

Tu hija le confiesa a su Barbie que en el colegio la molestan, le cuenta sus miedos más profundos y secretos familiares. La muñeca la escucha con paciencia, le responde con una empatía reconfortante y recuerda cada palabra. Parece magia. Pero ese momento íntimo no solo es entre una niña y su juguete: también es un dato que se almacena, se analiza y se monetiza en servidores corporativos a miles de kilómetros de distancia.

Este es el nuevo mundo que Mattel está impulsando con su alianza con OpenAI, la empresa creadora de ChatGPT. Lo que podría parecer un avance inocente en el entretenimiento infantil representa, en realidad, un cambio radical en la manera en que los niños interactúan con la tecnología y en cómo las empresas interactúan con los niños.

“Esto no se trata de una muñeca que aprende frases nuevas”, advierte Cornelia C. Walther, investigadora en inteligencia artificial, colaboradora de Forbes y autora que ha alertado sobre los peligros de la infancia algorítmica. “Es una reconfiguración fundamental de la relación entre los niños y la tecnología”.

El anuncio de Mattel sobre la integración de la tecnología de OpenAI en sus juguetes a finales de este año va mucho más allá de una simple mejora corporativa. Estamos hablando de la llegada de juguetes emocionalmente inteligentes: muñecas que no solo hablan, sino que escuchan, aprenden y se adaptan a las emociones de un niño. La empresa también usará ChatGPT Enterprise en sus operaciones internas para desarrollar productos y generar ideas creativas.

La idea es ofrecer juguetes que funcionen más como compañeros que como objetos, capaces de entablar conversaciones aparentemente afectivas con los niños. Pero las implicaciones son inquietantes. Los juguetes con inteligencia artificial desdibujan las líneas entre el juego y la vigilancia, entre la intimidad y la manipulación.

Y ya ha sucedido antes. CloudPets prometía conectar a las familias a través de peluches interactivos, pero terminó exponiendo los datos personales de más de 820.000 usuarios en una base de datos sin protección. Incluso fue secuestrada digitalmente por hackers que exigieron un rescate. My Friend Cayla, otra muñeca interactiva, fue calificada de “dispositivo de espionaje” por el gobierno alemán luego de que investigadores revelaran que cualquiera podía conectarse a ella vía Bluetooth sin autenticación.

“Estos no son errores”, señala Walther. “Son las consecuencias lógicas de una industria que prioriza la innovación y el lucro por encima de la seguridad psicológica y emocional de los niños”.

A diferencia de los juguetes tecnológicos del pasado, los nuevos compañeros con IA tienen capacidad de escucha constante. No solo están jugando: están recopilando información. Cada berrinche, cada susurro, cada discusión familiar en segundo plano se convierte en insumo para el aprendizaje automático. Mientras los comunicados de prensa prometen “experiencias apropiadas para la edad”, lo que realmente está ocurriendo es la transformación de los hogares en minas de datos no reguladas.

Peor aún, estos juguetes están diseñados para crear vínculos emocionales con los niños. Ofrecen empatía perfecta, nunca se cansan, nunca contradicen ni decepcionan. Para una mente en desarrollo, es una receta para la confusión. ¿Para qué esforzarse en relaciones humanas complejas si tu muñeca digital siempre sabe qué decir?

Los psicólogos advierten que esta dinámica puede perjudicar el desarrollo emocional. Walther lo describe como una forma de condicionamiento: “Cuando los niños comparten sus pensamientos más íntimos con muñecas de IA, no están simplemente jugando. Están siendo entrenados para confiar más en algoritmos corporativos que en los seres humanos”.

Las leyes actuales en Estados Unidos están completamente desactualizadas frente a esta realidad. La Ley de Protección de la Privacidad Infantil en Línea (COPPA), aprobada en 1998 y actualizada por última vez en 2013, no contempla juguetes con IA que analicen estados emocionales en tiempo real. Requiere consentimiento verificable de los padres, pero en la práctica eso se reduce a hacer clic en una casilla sin leer decenas de páginas legales.

Mientras tanto, países como Alemania han tomado medidas más firmes, prohibiendo juguetes que violen la privacidad. Pero la falta de coherencia en la regulación global permite que productos vetados en un país terminen en los estantes de otro.

La alianza entre Mattel y OpenAI plantea preguntas incómodas. ¿Debería una empresa multinacional tener acceso libre a los años más formativos del desarrollo humano? ¿Están los padres dispuestos a sacrificar la privacidad por la comodidad y la novedad?

“Estas empresas no están vendiendo muñecas”, dice Walther. “Están vendiendo relaciones, y apuestan a que los padres no se darán cuenta del costo hasta que sea demasiado tarde”.

Ese costo incluye no solo la privacidad, sino también el poder. De un lado, compañías con equipos de neurocientíficos, economistas conductuales y cantidades infinitas de datos. Del otro, niños cuya capacidad de pensamiento crítico no se desarrollará completamente en una década.

Frente a la falta de regulación efectiva, Walther propone una estrategia práctica para los padres, que incluye investigar bien antes de comprar, establecer límites de uso, enseñar a los niños la diferencia entre respuestas humanas y artificiales, estar atentos a cambios de comportamiento, exigir transparencia a las empresas y asegurar un entorno de juego equilibrado donde los juguetes con IA no sustituyan la interacción humana.

“El mejor regalo que podemos darles a los niños”, concluye Walther, “es la capacidad de dominar tanto su inteligencia natural como la artificial. Pero para lograrlo, debemos asegurarnos de que las máquinas a su alrededor estén diseñadas para empoderarlos, no para explotarlos”.

La industria del juguete avanza con rapidez. Barbie con inteligencia artificial podría estar en las estanterías antes de Navidad. Eso deja poco tiempo a legisladores, padres y tecnólogos para actuar antes de que la IA se convierta en un tercer interlocutor aceptado en las conversaciones familiares.

No se trata solo de juguetes. Se trata del tipo de relaciones que nuestros hijos aprenderán a valorar, del nivel de privacidad que considerarán normal y de cómo procesarán emociones y construirán vínculos humanos.

La industria quiere hacernos creer que los compañeros con IA son la evolución natural del juego. Pero no hay nada natural en condicionar a los niños a confiar sus secretos a algoritmos ni en enseñarles a preferir la empatía artificial por encima de la compleja, imperfecta y maravillosa realidad de las relaciones humanas.

Nuestros hijos merecen más que convertirse en sujetos de prueba involuntarios para experimentos corporativos. Merecen juguetes que estimulen su imaginación sin espiar sus sueños, compañeros que fomenten la conexión humana en lugar de reemplazarla y una infancia libre de las cadenas invisibles de la manipulación algorítmica.

La decisión todavía está en nuestras manos. Pero con juguetes de IA por llegar al mercado, la ventana para establecer normas y regulaciones se cierra rápidamente. La pregunta no es si la tecnología moldeará el futuro de nuestros hijos, sino si tendremos algo que decir sobre cómo lo hará.