El Ministerio TIC alertó sobre el aumento de videos manipulados en contextos políticos, en el ultimo año.
La constante exposición digital ha transformado la forma en la que los colombianos se relacionan con la información. Desde que despertamos hasta que terminamos el día, estamos frente a las pantallas, consumiendo contenido automáticamente. Tanto así que Colombia se consolida como uno de los países que más tiempo dedica a las redes sociales en el mundo, con un promedio de 3 horas y 22 minutos al día.
En este contexto, la capacidad de manipular videos, audios e imágenes mediante inteligencia artificial ha dejado de ser exclusiva de laboratorios en Silicon Valley. Hoy, estas creaciones—conocidas como deepfakes— circulan con naturalidad por redes sociales, plataformas de streaming e incluso noticieros. Aunque tienen aplicaciones legítimas, también se han convertido en una de las principales herramientas para la desinformación, la difamación y el fraude digital.
¿Qué es un deepfake y por qué son peligrosos?
Un deepfake es un contenido audiovisual falsificado mediante algoritmos de inteligencia artificial, generalmente redes neuronales profundas. Estas piezas logran imitar con gran precisión la voz, el rostro y los gestos de una persona, haciéndola parecer que dice o hace algo que en realidad nunca sucedió.
“Los deepfakes pueden imitar con precisión la apariencia y el comportamiento humano. Esto debilita la confianza en los métodos tradicionales de autenticación visual”, advierte Daniel Molina, vicepresidente para América Latina de iProov.
Uno de los ejemplos más virales fue el video de BuzzFeed en 2018, donde el comediante Jordan Peele usó un deepfake del expresidente Barack Obama para advertir sobre los peligros de esta tecnología. Otro caso más reciente ocurrió en Alemania, cuando la alcaldesa de Berlín habló por videollamada con quien creía era el alcalde de Kiev. Minutos después, descubrieron que se trataba de un cheapfake, una versión más rudimentaria pero igual de peligrosa.
Señales para detectar un deepfake
A pesar de su realismo, los deepfakes suelen tener imperfecciones que los delatan. Estas son algunas señales:
- Verifica la fuente. ¿Quién lo publicó? ¿Es una cuenta oficial?
- Movimientos faciales antinaturales: el gesto no siempre está sincronizado con la voz.
- Inconsistencias de iluminación: sombras o luces que no cuadran con el entorno real.
- Audio: desfase entre lo que se dice y lo que se ve puede ser una alerta.
- Parpadeo extraño o nulo: los deepfakes muchas veces no logran imitar correctamente el parpadeo humano.
- Distorsión alrededor de los bordes del rostro: especialmente en clips de baja calidad.
- Busca análisis forenses digitales: algunas herramientas en línea permiten examinar metadatos o manipulación visual.

Entre la viralidad y la manipulación
Durante los últimos meses, se han detectado múltiples casos de contenidos manipulados en redes sociales con fines políticos, comerciales o incluso personales. Algunos de estos videos alcanzan miles de visualizaciones antes de ser desmentidos, lo que pone en evidencia la velocidad con la que se propaga la desinformación frente a la lentitud de su corrección. La falta de regulación específica y la limitada alfabetización digital en ciertos sectores agravan el panorama.
Herramientas para detectar deepfakes
Además del criterio humano, existen plataformas que permiten verificar si un contenido ha sido manipulado:
- Deepware Scanner: detecta audios falsificados por IA.
- Microsoft Video Authenticator: analiza fotogramas en tiempo real.
- Reality Defender: aplicación que alerta sobre potenciales deepfakes en navegadores.
- Sensity AI: plataforma de análisis automatizado que trabaja con medios y gobiernos para identificar contenido sintético.
Legislación en Colombia
El Gobierno nacional presentó ante el Congreso un proyecto de ley pionero en América Latina para enfrentar los riesgos asociados al uso de contenidos sintéticos en entornos digitales, especialmente en contextos políticos y electorales. Esta propuesta, impulsada por el Ministerio TIC y la Consejería Presidencial para Asuntos Digitales, plantea la creación de un marco normativo para regular el uso de inteligencia artificial generativa.
Entre los principales puntos del proyecto se encuentran la obligatoriedad de etiquetar todos los contenidos audiovisuales generados por IA que sean difundidos en campañas electorales, así como en medios de comunicación y redes sociales, siempre que estén relacionados con figuras públicas o temas de interés nacional. También se propone establecer sanciones penales y administrativas para quienes utilicen deepfakes con fines difamatorios, de manipulación informativa o fraude.
Lea más: Radiografía digital: así se conectan, compran y trabajan los colombianos