Hasta que Forbes avisó a Etsy, se podían comprar imágenes pornográficas generadas por IA de al menos 55 famosas. Mientras tanto, la función de recomendación y "búsquedas relacionadas" de la empresa dirigía a los usuarios a aún más.

En Etsy, cualquiera puede comprar camisetas y fotos de Olivia Munn autografiadas por la propia actriz. También hay tazas para fans de Olivia Munn que se pueden personalizar con un bocadillo. Y, hasta el martes, se podían comprar imágenes digitales deepfake de ella generadas por IA, algunas de ellas pornográficas.

“Con una resolución de 300 DPI, los detalles de Olivia cobran vida, lo que la hace ideal para el arte digital, el diseño y la impresión. Olivia celebra la elegancia de la forma femenina de una manera artística y con buen gusto, por lo que es adecuada para una variedad de aplicaciones creativas”, rezaba la descripción de una imagen a la venta por US$2,49.

Bryan Sullivan, abogado de Munn, actriz que ha protagonizado The Newsroom y varias películas de superhéroes, declaró que su cliente se siente “violada y ofendida” por estas imágenes.

“Esto es indignante y una violación de los derechos de mi clienta y, lo que es más importante, de su dignidad”, declaró a Forbes. “Vamos a tomar medidas para eliminar esto y evitar que vuelva a ocurrir. Y ya he iniciado ese proceso con Etsy”.

Aunque Sullivan dijo que notificó inmediatamente a Etsy después de ser contactado por Forbes el 13 de diciembre, Etsy no retiró las imágenes hasta seis días más tarde, después de que Forbes se pusiera en contacto con la empresa directamente.

Otros vendedores habían ofrecido conjuntos similares por precios ligeramente superiores (US$5,51), e incluso se tomaron algunas licencias creativas: “Jenna Ortega acaba de darse un baño. Partes íntimas afeitadas, pecho sobredimensionado”.

Otro vendedor ofrecía hacer “el desnudo de la celebridad que quieras en diferentes posiciones… ya sea desnuda, durante el sexo o simplemente en lencería”, por el módico precio de US$0,92.

“¡En el puto Etsy! No quiero ser demasiado directo. Así es como sabes que se ha vuelto mainstream, tío, aparece en Etsy”.

Hany Farid, profesor, UC Berkeley

Etsy eliminó también esas cuentas (16, según Forbes), pero también dejó miles de otros listados que contienen pornografía generada por IA, todos ellos fácilmente localizables con los términos de búsqueda más rudimentarios.

“Estamos profundamente comprometidos con la seguridad de nuestro mercado y nuestra comunidad, y hemos eliminado inmediatamente los anuncios infractores cuando nos lo comunicaron”, afirma Alice Wu, responsable de seguridad de Etsy, en un comunicado enviado por correo electrónico a Forbes.

“Los deepfakes de famosas desnudas están prohibidos. Dado que este es un problema emergente en Internet, estamos trabajando activamente para ampliar nuestros esfuerzos de aplicación en esta área.”

Esta empresa, que cotiza en bolsa y ha alcanzado una capitalización bursátil de casi US$10.000 millones facilitando la venta de chucherías y artesanía, tiene un problema de deepfake porn, provocado por la generalización de la inteligencia artificial.

Etsy se negó a explicar su política sobre las imágenes generadas por IA de personas reales que no son famosos, o a explicar por qué hay tantas imágenes pornográficas artificiales en su sitio web.

“Aunque en Etsy se permiten algunos contenidos para adultos, la pornografía está prohibida”, añadió Wu.

A pesar de esta política, una búsqueda de “deepfake porn” arrojó más de 1.600 resultados a 18 de diciembre. Algunos de estos resultados no son porno, y se limitan a ofrecer servicios no explícitos para “hacer tu propio vídeo deepfake“.

Después de que Forbes se pusiera en contacto con Etsy, el número de resultados para ese término de búsqueda había caído a poco menos de 1.500. Del mismo modo, el lunes, la búsqueda “ai nude” arrojó más de 4.000 resultados; después de que Forbes se pusiera en contacto con Etsy, ese número se redujo a menos de 3.700.

Algunas de estas imágenes generadas por IA eran deepfakes de celebridades femeninas, desde Munn y Jenna Ortega hasta Ariana Grande y otras. Otras eran totalmente humanas, en su mayoría mujeres. (Los representantes de Ortega y Grande no respondieron a la solicitud de comentarios).

Los anuncios eran bastante claros sobre lo que vendían. “Este paquete contiene 40 imágenes JPG, sin censura y de alta calidad, en las que aparecen muchas mujeres hermosas, generadas por inteligencia artificial, completamente desnudas, en diferentes poses y lugares. No hay duplicados de otros paquetes”, decía uno de los anuncios.

Aunque la Política de Artículos Prohibidos de Etsy en el momento de la publicación prohíbe la venta de pornografía -definida como “material que describe o muestra explícitamente actos sexuales, órganos sexuales u otros comportamientos eróticos con fines de excitación o estimulación sexual”-, en el sitio se vende mucha pornografía.

En el momento de la publicación, las búsquedas más sencillas de frases como “AI porn” mostraban imágenes explícitas, incluidas colecciones generadas artificialmente de “putas góticas”, “enfermeras traviesas” y “exhibicionistas de invierno”, así como un cojín decorativo que mostraba sexo oral.

Mientras tanto, los algoritmos de recomendación de Etsy, en el momento de la publicación, señalaban a los usuarios imágenes similares. En la parte inferior de la lista de la imagen deepfake de Munn, ahora eliminada, había listas de otras imágenes eróticas generadas artificialmente de mujeres famosas vendidas por el mismo vendedor y sugerencias para “explorar búsquedas relacionadas” utilizando términos como “nsfw ai art” y “olivia munn nude“.

Según Hany Farid, profesor de informática de la Universidad de Berkeley y experto en tecnologías de IA generativa, no hay “ninguna razón técnica” para que Etsy no pueda filtrar mejor estos materiales. Las búsquedas de la misma frase (“deepfake porn”) en otras plataformas de comercio electrónico, como Amazon y eBay, no devuelven artículos pornográficos deepfake similares.

Oficialmente, Etsy ha trazado una línea divisoria entre las imágenes de desnudos, que permite, y la pornografía, que no permite. Etsy se adhiere a una definición legal común del género, prohibiendo imágenes que representen órganos sexuales o actos sexuales “con fines de excitación sexual”.

“Todavía estamos trabajando para determinar el lugar que los productos generados por IA tienen en nuestro mercado, pero los listados generados por IA que violen nuestras políticas de larga data serán eliminados”, dijo Wu en un comunicado.

Dijo que, aunque los vendedores son “responsables de cumplir nuestras políticas”, Etsy supervisa el sitio “tanto manualmente como mediante controles automáticos”. No quiso explicar qué implica eso exactamente ni por qué, si se han tomado esas precauciones, una simple búsqueda de “AI porn” sigue devolviendo productos con imitaciones pornográficas de conocidas actrices.

En los últimos años, la pornografía deepfake, que afecta desproporcionadamente a las mujeres, se ha vuelto mucho más sofisticada, mucho más fácil de crear y ahora ha proliferado a niveles sin precedentes, según los expertos.

Los programas informáticos de fácil acceso pueden tomar casi cualquier imagen y convertirla en pornográfica, a menudo con detalles casi realistas. Los sitios web dedicados a alterar imágenes de mujeres reales mediante el uso de IA para quitarles la ropa ya permiten a cualquiera crear un sinfín de imágenes pornográficas generadas por IA en cuestión de segundos, pero estos sitios no son plataformas de comercio electrónico que coticen en bolsa.

“¡En el puto Etsy!”, dijo Farid a Forbes. “No quiero ser demasiado directo. Así es como sabes que se ha vuelto mainstream, tío, aparece en Etsy”.

Etsy, fundada en 2005, salió a bolsa en 2015. En 2022, la empresa obtuvo unos beneficios de US$643 millones, frente a los US$627 millones del año anterior. A principios de diciembre despidió al 11% de su plantilla. También está luchando con la gestión de una avalancha de contenidos generados por IA, como extraños libros para colorear y una plétora de tazas de café baratas con frases ingeniosas, informó The Atlantic a principios de este año.

Según un vendedor de Etsy que había estado vendiendo estas imágenes deepfake de famosos, “no son especialmente populares” porque “hoy en día, todo el mundo puede generar imágenes explícitas artificiales utilizando IA”. Los demás vendedores no respondieron a una solicitud de comentarios.

Rebecca Delfino, profesora de Derecho de la Universidad Loyola Marymount de Los Ángeles, que lleva años estudiando la intersección entre los deepfakes y la ley, declaró a Forbes que, aunque no existe ninguna ley federal que proteja a las víctimas reales de los deepfakes, sí hay algunas leyes estatales.

“Cuando vendes algo de forma comercial y lo comercializas en masa, estás sujeto a todo tipo de reclamaciones por derechos de autor, desde la apropiación de la imagen a la difamación, pasando por la publicidad engañosa, y en algunos estados, como California y Nueva York, existen ahora acciones civiles”, explica, refiriéndose a los estados en los que residen muchas de estas celebridades.

Delfino dijo que la mayoría de los abogados de famosos enviarían una carta de cese y desistimiento a Etsy para proteger a sus clientes.

Hasta la fecha, añadió, no ha habido ningún caso importante que haya puesto a prueba estas nuevas leyes estatales en torno a la pornografía deepfake. Sin embargo, hay un deepfake no pornográfico que se está juzgando actualmente en un tribunal federal de Los Ángeles.

A principios de este año, Kyland Young, una personalidad de la telerrealidad californiana, demandó con éxito a una empresa ucraniana, Neocortext, que fabrica la aplicación de intercambio de rostros “Reface”. Young alegó que Neocortext violaba su derecho a la publicidad en virtud de la legislación del estado de California al permitir a los usuarios pagar para insertarse en imágenes fijas con Young, o incluso para intercambiar su cara en su cuerpo. Este mes, Neocortext apeló su derrota ante el Tribunal de Apelación del 9º Circuito de EE.UU., alegando que su aplicación está protegida por la Primera Enmienda.

Con un recurso legal limitado (por no mencionar el tiempo y los recursos necesarios para interponerlo), gran parte de la responsabilidad de gestionar la proliferación de deepfakes porno recae en las plataformas tecnológicas que los alojan y los hacen accesibles, ya sea Etsy o Google, que facilita la búsqueda de otros sitios que publican porno deepfake.

“No creo que esto se resuelva con cartas y abogados”, afirma Farid. “Esto es Internet. Hay que pensar dónde están los puntos de estrangulamiento”.

Esta historia ha sido actualizada con comentarios adicionales de Etsy.

Este artículo fue publicado originalmente en Forbes US

Le recomendamos: Avianca lideró el ranking de las aerolíneas más puntuales del mundo en 2023, según estudio de consultora

Siga a Forbes Colombia en Google News