Todos los Derechos reservados © 2004 - 2019, Forbes Colombia

Tecnología

De la acampada a la pizza con queso, el “algospeak” se está apoderando de las redes sociales

Los estadounidenses utilizan cada vez más palabras en clave conocidas como “algospeak” para eludir la detección de la tecnología de moderación de contenidos, especialmente cuando publican cosas controvertidas o que pueden infringir las normas de la plataforma.

Publicado

on

Si has visto a personas que publican sobre “acampada” en las redes sociales, es probable que no estén hablando de cómo montar una tienda de campaña o de qué Parques Nacionales visitar. El término se ha convertido recientemente en “algospeak” para algo totalmente diferente: discutir cuestiones relacionadas con el aborto tras la anulación de Roe v. Wade por parte del Tribunal Supremo.

Los usuarios de las redes sociales utilizan cada vez más palabras clave, emojis y errores tipográficos deliberados -lo que se denomina “algospeak”- para evitar ser detectados por la IA de moderación de las aplicaciones cuando publican contenidos sensibles o que podrían infringir sus normas.

Siobhan Hanna, que supervisa las soluciones de datos de IA para Telus International, una empresa canadiense que ha proporcionado servicios de moderación de contenidos humanos y de IA a casi todas las principales plataformas de redes sociales, incluida TikTok, dijo que “acampar” es sólo una frase que se ha adaptado de esta manera. “Preocupaba que los algoritmos pudieran captar las menciones” al aborto, dijo Hanna.

Más de la mitad de los estadounidenses afirman haber visto un aumento de la algospeak a medida que se desarrollan acontecimientos políticos, culturales o globales polarizantes, según los nuevos datos de Telus procedentes de una encuesta realizada a 1.000 personas en Estados Unidos el mes pasado.

A su vez, casi un tercio de los estadounidenses que utilizan las redes sociales y los sitios de juegos dicen haber “utilizado emojis o frases alternativas para eludir los términos prohibidos”, como los que son racistas, sexuales o relacionados con la autolesión, según los datos.

Según Hanna, los términos más utilizados para eludir las normas que prohíben la incitación al odio, incluido el acoso y la intimidación, seguidos de las políticas relativas a la violencia y la explotación.

Hemos recorrido un largo camino desde el “pr0n” y el emoji de la berenjena. Estas soluciones en constante evolución suponen un reto cada vez mayor para las empresas tecnológicas y los contratistas que contratan para ayudarles a vigilar los contenidos. Mientras que el aprendizaje automático puede detectar material abiertamente violento, como el discurso del odio, puede ser mucho más difícil para la IA leer entre líneas los eufemismos o las frases que para algunos parecen inocuas, pero en otro contexto, tienen un significado más siniestro.

“Casi un tercio de los estadounidenses en las redes sociales dicen haber “utilizado emojis o frases alternativas para eludir los términos prohibidos.”

El término “pizza de queso”, por ejemplo, ha sido ampliamente utilizado por cuentas que ofrecen intercambiar imágenes explícitas de niños. El emoji del maíz se utiliza con frecuencia para hablar o intentar dirigir a la gente hacia el porno (a pesar de una tendencia viral no relacionada que tiene a muchos cantando sobre su amor por el maíz en TikTok). Y anteriores informes de Forbes han revelado el doble sentido de frases mundanas, como “tocar el techo”, utilizadas para engatusar a las jóvenes para que muestren sus seguidores y exhiban sus cuerpos.

“Uno de los aspectos que más nos preocupan es la explotación infantil y humana”, dijo Hanna a Forbes. Es “una de las áreas de más rápida evolución de la algosfera”.

Pero Hanna dijo que no depende de Telus el que ciertos términos de algospeak deban ser retirados o degradados. Son las plataformas las que “marcan las pautas y toman decisiones sobre dónde puede haber un problema”, dijo.

“No solemos tomar decisiones radicales sobre el contenido”, dijo a Forbes. “En realidad son impulsadas por nuestros clientes, que son los propietarios de estas plataformas. Realmente actuamos en su nombre”.

Por ejemplo, Telus no reprime la jerga de los momentos políticos o sociales importantes, dijo Hanna, y citó “acampada” como ejemplo. La empresa no quiso decir si alguno de sus clientes ha prohibido ciertos términos de algospeak.

Las referencias a la “acampada” surgieron a las 24 horas de la sentencia del Tribunal Supremo y aumentaron en las dos semanas siguientes, según Hanna. Pero el fenómeno de la “acampada” en el lenguaje de los algoritmos se ha ido apagando “porque se ha vuelto tan omnipresente que ya no es una palabra clave”, explicó. Así es como suele funcionar el algospeak: “Se dispara, recibe mucha atención, empieza a convertirse en una especie de memeificación y se extingue”.

En las redes sociales también surgieron nuevas formas de algospeak en torno a la guerra entre Ucrania y Rusia, dijo Hanna, con carteles que utilizaban el término “no vivo”, por ejemplo, en lugar de mencionar “muertos” y “soldados” en la misma frase, para evadir la detección de la IA. Y en las plataformas de juegos, añadió, el algospeak se incrusta con frecuencia en los nombres de usuario o “gamertags” como declaraciones políticas.

Un ejemplo: las referencias numéricas al “6/4”, el aniversario de la masacre de la Plaza de Tiananmen de 1989 en Pekín. “La comunicación en torno a ese acontecimiento histórico está muy controlada en China”, explica Hanna, por lo que, aunque pueda parecer “un poco oscuro, en esas comunidades que están muy, muy unidas, puede ser una declaración políticamente muy acentuada para hacer en tu nombre de usuario”.

Telus también espera ver un repunte en el algospeak online en torno a las inminentes elecciones de mitad de mandato.

“Una de las áreas que más nos preocupa es la explotación infantil y humana. [Es una de las áreas que más rápido evoluciona”.

Siobhan Hanna de Telus International

Otras formas de evitar ser moderado por la IA consisten en escribir mal las palabras a propósito o sustituir las letras por símbolos y números, como “$” por “S” y el número cero por la letra “O”. Muchas personas que hablan de sexo en TikTok, por ejemplo, se refieren a ello como “seggs” o “seggsual”.

En algospeak, los emojis “se utilizan muy comúnmente para representar algo que el emoji no fue concebido originalmente como”, dijo Hanna. En algunos contextos, eso puede ser mezquino, pero inofensivo: El emoji del cangrejo está en auge en el Reino Unido como una respuesta metafórica a la muerte de la Reina Isabel. Pero en otros casos, es más malicioso: el emoji del ninja ha sido sustituido en algunos contextos por términos despectivos y discursos de odio sobre la comunidad negra, según Hanna.

Existen pocas leyes que regulen las redes sociales, y la moderación de contenidos es una de las cuestiones de política tecnológica más controvertidas del gobierno. Los desacuerdos partidistas han obstaculizado leyes como la Algorithmic Accountability Act (Ley de Responsabilidad Algorítmica), un proyecto de ley destinado a garantizar que la IA (como la que impulsa la moderación de contenidos) se gestione de forma ética y transparente. A falta de normativa, los gigantes de las redes sociales y sus empresas de moderación externas han actuado por su cuenta. Pero los expertos han expresado su preocupación por la responsabilidad y han pedido que se examinen estas relaciones.

Telus ofrece moderación de contenidos tanto humana como asistida por IA, y más de la mitad de los participantes en la encuesta subrayaron que es “muy importante” que haya humanos en la mezcla.

“La IA no puede captar las cosas que los humanos sí pueden”, escribió uno de los encuestados.

Y otro: “Las personas son buenas para evitar los filtros”.

Publicada en Forbes US

Publicidad
Publicidad