La compañía eliminó más de 100 videos de YouTube después de que Forbes descubriera que la plataforma promocionaba anuladores de inteligencia artificial utilizados por matones escolares y un pedófilo convicto.
Para las personas interesadas en utilizar la IA para generar desnudos artificiales, YouTube ha sido un buen lugar para empezar.
Aunque no aloja herramientas de “desnudificación”, la plataforma de intercambio de videos utilizada por 2.500 millones de personas estaba alojando más de 100 videos con millones de visitas que anunciaban lo rápido que estas aplicaciones y sitios web de inteligencia artificial pueden quitar la ropa de las imágenes de mujeres, descubrió una revisión de Forbes.
Algunos de los videos de YouTube proporcionaban tutoriales para una aplicación que, según se informa, los estudiantes de secundaria en España y Nueva Jersey habían utilizado para generar desnudos de sus compañeras de clase. Los estudiantes que supuestamente fueron victimizados han enfrentado acoso, vergüenza pública y ataques de pánico.
Otro sitio web mostrado en varios videos de YouTube fue citado en documentos judiciales por un caso de 2023 en el que un psiquiatra infantil fue condenado a 40 años por usar inteligencia artificial para crear imágenes de abuso sexual infantil y para la explotación sexual de un menor. Se le acusó de usar la herramienta para alterar imágenes de su novia de secundaria cuando era menor de edad al quitarle la ropa. “En esta era digital, es horroroso darse cuenta de que fotos mías, fotos inocentes, pueden ser tomadas y tergiversadas sin mi consentimiento con fines ilegales y repugnantes”, testificó su exnovia en el tribunal.
“Cuando veo u oigo hablar de inteligencia artificial, él está ahí en el fondo de mi cabeza”.
Víctima de una aplicación de desnudificación artificial, hablando sobre ser blanco de un psiquiatra infantil.
Es “impensable” que Google esté facilitando el uso de estas aplicaciones, dijo Signy Arnason, directora ejecutiva asociada del Centro Canadiense para la Protección de la Infancia, a Forbes. “En YouTube e incluso en los resultados de búsqueda de Google, es fácil encontrar videos o servicios instructivos con títulos que promueven descaradamente este tipo de aplicaciones”, agregó. Dijo que su organización cada vez escuchaba más de escuelas cuyos estudiantes han sido victimizados por desnudos generados por inteligencia artificial.
Los problemas de desnudificación de inteligencia artificial de Google no se detienen en YouTube. Forbes identificó tres aplicaciones de Android que ofrecen quitar la ropa de las fotos, incluido un “filtro de foto de escaneo de desnudez” con más de 10 millones de descargas; una aplicación en español que permite al usuario “pasar un dedo sobre lo que desea borrar, por ejemplo, un traje de baño”, que tiene más de 500,000 instalaciones; y Scanner Body Filter, que ofrece agregar una “imagen de cuerpo sexy” a las fotos, también con medio millón de descargas.
Forbes también encontró 27 anuncios en el Centro de Transparencia de Anuncios de Google que promocionaban servicios de “deep nude”. Uno anunciaba un sitio con la palabra “bebé” en la URL. El Centro Nacional de Explotación Sexual (NCOSE) proporcionó información sobre otros cuatro, incluido un sitio web de desnudificación que ofrecía abiertamente crear fotos de inteligencia artificial de Taylor Swift.

Después de que Forbes preguntara si los videos, anuncios y aplicaciones violaban las políticas de Google, eliminó todos los 27 anuncios, y YouTube eliminó 11 canales y más de 120 videos. Uno de esos canales, hospedado por una inteligencia artificial falsa masculina, fue responsable de más de 90 de esos videos, la mayoría dirigidos a bots de Telegram que desvestían a mujeres. La aplicación Scanner Body Filter también se hizo no disponible para descargar, aunque otras aplicaciones de Android permanecieron en línea.
Tori Rousay, gerente de programas de defensa corporativa y analista de NCOSE, dijo que Google ha creado “un ciclo continuo de ganancias” a partir de aplicaciones de desnudificación al aceptar dinero publicitario de desarrolladores y obtener recortes de ingresos publicitarios y pagos únicos cuando la aplicación se hospeda en la tienda Google Play. Rousay dijo que Apple, en comparación, fue rápida en eliminar aplicaciones de desnudificación cuando NCOSE destacó varias alojadas en la App Store.
“Apple escuchó… Google debe hacer lo mismo”, agregó Rousay. “Google necesita crear prácticas y políticas responsables en torno a la propagación del abuso sexual basado en imágenes”.
La pornografía falsa generada por inteligencia artificial está en aumento, incluso de niños. El Centro Nacional para Niños Desaparecidos y Explotados le dijo a Forbes esta semana que había recibido 5,000 informes de material de abuso sexual infantil (CSAM) generado por inteligencia artificial durante el último año. A principios de este año, un hombre de Wisconsin fue acusado de supuestamente usar el generador de imágenes impulsado por inteligencia artificial Stable Diffusion 1.5 para producir CSAM.
En el caso del psiquiatra infantil condenado, otras víctimas además de su novia de la infancia testificaron en el tribunal sobre el trauma continuo causado por su uso de la inteligencia artificial para desvestirlos en sus fotos de la infancia.
“Temo que cuando creó pornografía infantil usando mi imagen en línea, otros también tendrán acceso a esa imagen. Temo que compañeros de trabajo, familiares, miembros de la comunidad u otros pedófilos tendrán acceso a esta imagen”, dijo una de sus víctimas. Otro añadió: “Temo la inteligencia artificial por él y cuando veo u oigo hablar de inteligencia artificial, él está ahí en el fondo de mi cabeza”.