Este será un año electoral clave para todo el mundo, por eso los gigantes tecnológicos ya presentan sus cartas. Combatir la desinformación será la prioridad y prohibirán suplantar la identidad de candidatos o funcionarios.
Miles de millones de personas votarán este año en las elecciones de todo el mundo, que los expertos temen que puedan verse socavadas por herramientas de inteligencia artificial cada vez más populares como ChatGPT y la desinformación que permiten, lo que ha llevado a algunas de las mayores empresas tecnológicas del mundo a revelar públicamente cómo planean moderar los contenidos.
OpenAI, la empresa que está detrás de populares productos de IA generativa como el chatbot ChatGPT y el generador de imágenes Dall-E, ha declarado que prohibirá el uso de sus herramientas a políticos, campañas políticas y grupos de presión, y que pondrá fin a las aplicaciones que puedan disuadir a la gente de votar.
También se prohibirá a los usuarios suplantar la identidad de candidatos, funcionarios o gobiernos a través de las herramientas, y la empresa afirma que introducirá herramientas de autenticación que ayudarán a los votantes a evaluar si pueden confiar en una imagen.
Meta, cuya familia de aplicaciones incluye Facebook, Instagram, Threads y WhatsApp, afirma que mantendrá en 2024 sus prácticas habituales, como etiquetar a los medios de comunicación controlados por el Estado, bloquear los anuncios de dichos medios dirigidos a personas en Estados Unidos y prohibir nuevos anuncios políticos en la última semana de la campaña estadounidense, además de exigir a los anunciantes que revelen si se ha utilizado IA u otras herramientas digitales para crear o alterar contenidos para anuncios políticos, sociales y relacionados con las elecciones.
Google, de Alphabet, que afirma haber sido la primera empresa tecnológica en exigir a los anunciantes electorales que revelen de forma destacada si el contenido ha sido alterado digitalmente o generado con IA u otras herramientas; dijo que limitará los tipos de consultas relacionadas con las elecciones que su chatbot Bard de IA y otros productos de IA generativa pueden responder.
La plataforma de vídeo Youtube, que también es propiedad de Alphabet, exigirá a los creadores de contenido que revelen si han creado contenido sintético, realista o alterado en 2024, para que pueda ser etiquetado para informar a los espectadores, una estrategia que, según la compañía, debería evitar los posibles daños de “las nuevas y poderosas formas de narración de la IA”.
X, antes conocida como Twitter, es criticada con regularidad por su incapacidad para atajar los altos niveles de falsedades y desinformación que se propagan en la plataforma y el año pasado eliminó las herramientas para denunciar la desinformación electoral y despidió a su equipo de integridad electoral, cuyo multimillonario propietario, Elon Musk, afirmó que en realidad estaba “socavando la integridad electoral”.
La plataforma promueve su sistema de comprobación de hechos por crowdsourcing Community Notes como principal medio para combatir la desinformación, un método que ha sido ampliamente criticado por ser defectuoso, propenso a errores e inadecuado.
Microsoft dijo que ofrecerá varios servicios para ayudar a proteger la integridad de las elecciones, incluyendo una herramienta para ayudar a los candidatos a proteger su imagen; autenticar el contenido y salvaguardar ambos de la manipulación digital; apoyar y asesorar a las campañas en el trabajo con la IA y la construcción de un centro para apoyar a los gobiernos en la entrega de elecciones seguras.
La empresa también afirmó que se asegurará de que su motor de búsqueda Bing —cuyo chatbot de IA, Copilot, recientemente renovado, devolvió información falsa y engañosa sobre las recientes elecciones en Europa— ofrezca a los votantes resultados “fidedignos”.
TikTok, propiedad del gigante chino ByteDance y en gran medida rechazada por los políticos a pesar de ser una fuente creciente de noticias, entretenimiento y debate para las generaciones más jóvenes, dijo que no permite anuncios políticos pagados (los propios políticos están autorizados) y trabaja con organizaciones de verificación de hechos para ayudar a limitar la propagación de información errónea.
Más de la mitad de la población mundial acudirá a las urnas en 2024 en lo que se ha descrito como el mayor año electoral de la historia. Más de 50 países, entre ellos India, Estados Unidos, Gran Bretaña, Rusia, Sudáfrica, México, Indonesia y Pakistán, celebrarán elecciones nacionales, y varias democracias, como Bangladesh y Taiwán, ya han votado. Se espera que los resultados de las elecciones de este año tengan ramificaciones significativas y globales para el futuro de la democracia y una amplia variedad de áreas, como los derechos humanos, la seguridad y la acción climática. No se espera que todas estas elecciones sean libres y justas, e incluso democracias sólidas han expresado su temor a que el aumento de los niveles de desinformación en línea y el rápido avance de las capacidades de las herramientas de IA puedan socavar el proceso.
La IA está clasificada como uno de los mayores riesgos globales en 2024, en gran parte debido a su potencial para perturbar las elecciones. La IA generativa, que produce contenidos como sonido o texto a partir de una solicitud de entrada, preocupa especialmente a la hora de garantizar la seguridad de las elecciones por las herramientas que podrían utilizarse para imitar o alterar de forma convincente la voz y la imagen de los candidatos. Este año se celebran las primeras elecciones importantes desde que se generalizó el uso de herramientas generativas avanzadas, como los generadores de imágenes Dall-E y Midjourney y chatbots como ChatGPT y Bard.
Muchas grandes plataformas como Facebook y Twitter han sido acusadas de no hacer lo suficiente para atajar la propagación de la desinformación durante las pasadas elecciones y crece el temor de que las consecuencias puedan ser mucho peores ahora que la tecnología se ha desarrollado y extendido. Los deepfakes, contenidos fabricados con inteligencia artificial, existen desde hace tiempo, pero los últimos avances los han hecho más fáciles de crear y más convincentes. Ya han aparecido imágenes de Hillary Clinton (apoyando de forma inverosímil a Ron DeSantis), del presidente Joe Biden (anunciando un servicio militar obligatorio) o del expresidente Donald Trump (siendo detenido y huyendo de la policía). Las campañas también están utilizando la tecnología, como cuando los republicanos presentaron una serie de imágenes generadas por inteligencia artificial que mostraban cómo sería el país si ganara Biden.
Este artículo fue publicado originalmente en Forbes US
Le recomendamos: Petro habló con Bill Gates sobre IA y energías verdes
¿Le interesa el mundo de los negocios? Siga a Forbes Colombia en Google News