Aunque no lo percibamos, el desarrollo de la inteligencia artificial está siendo un hito para la historia de la humanidad. Sin embargo, al tiempo, está suponiendo uno de los mayores retos. ¿Por qué?
El desarrollo de innovadoras tecnologías como la Inteligencia Artificial (IA) representa uno de los hitos más significativos en la historia de la humanidad. De hecho, la IA ha formado parte de nuestra vida cotidiana durante décadas. Cada uno de nosotros hemos estado participando en una nueva era de expansión global habilitada por el silicio llamada ‘Siliconomy’ en donde sistemas inteligentes se encuentran en nuestros entornos cotidianos.
De manera casi imperceptible, la IA se ha integrado en nuestras actividades diarias: desde los productos y servicios que consumimos, hasta las tareas que realizamos en el ámbito laboral, e incluso en las herramientas que utilizamos para adquirir conocimiento. Aunque este concepto de aprendizaje automatizado o aprendizaje de las máquinas no es nuevo, su progresión exponencial en los últimos años ha impulsado la adopción de herramientas que lo incorporan.
En la actualidad, la IA posibilita la rápida creación de diversos tipos de contenido con altos estándares de calidad y, en numerosos casos, sin costo alguno. Mediante instrucciones básicas, generadores de texto, imágenes y videos pueden concebir o modificar productos con resultados en los que la contribución de las máquinas resulta prácticamente indetectable. Un ejemplo es esta columna de opinión, que bien podría haber sido redactada en su totalidad por la IA, pasando desapercibida para la mayoría.
Sin embargo, la calidad de las creaciones generadas por la IA y la dificultad para discernir su origen están suscitando preocupaciones en muchas personas. ¿Cómo podemos estar seguros de la autenticidad de un video o una fotografía compartida en redes sociales? ¿Fue nuestra última conversación en línea con un humano o con un “chatbot”? ¿Cómo distinguir lo genuino de lo elaborado por la IA?
Estas inquietudes cobran mayor relevancia en un contexto en el que la confianza en los medios de comunicación y las instituciones está siendo erosionada por la proliferación de contenidos manipulados, “deepfakes” y desinformación deliberada. En el ámbito empresarial, el uso malintencionado de la IA ha abierto la puerta para que esta se convierta en una herramienta de ingeniería social la cual las organizaciones deben aprender a defenderse.
Uno de los ejemplos más conocidos de este tipo de amenazas, citado recientemente en un informe de la firma KPMG, es el de una compañía cuya sede en Hong Kong transfirió 35 millones de dólares a delincuentes, quienes usando una versión falsa de la voz del presidente de la compañía lograron engañar al gerente de la sucursal.
En este escenario, las empresas tecnológicas, que se ubican como las más importantes promotoras de tendencias como la IA, asumimos una responsabilidad crucial. Estamos llamadas a colaborar con otros actores de la industria, la academia y el sector público para mitigar los posibles usos perjudiciales de estas herramientas.
Asumiendo esta responsabilidad, compañías como Intel han emprendido diversas iniciativas con el objetivo de aprovechar la IA para potenciar las capacidades humanas y abordar desafíos globales críticos. Dentro de esta línea de acción se destaca un avance significativo centrado en apoyar a los usuarios en la reconstrucción de la confianza en los medios. El objetivo es permitirles a los usuarios distinguir entre contenidos auténticos y falsificados a través de un detector de deepfakes conocido como FakeCatcher.
FakeCatcher representa un hito importante al ser el primer sistema a nivel mundial capaz de detectar deepfakes y proporcionar resultados en cuestión de milisegundos y en tiempo real. La herramienta opera en un servidor y se integra a través de una plataforma basada en la web. A diferencia de la mayoría de los detectores convencionales –que analizan los datos sin procesar con el fin de identificar signos de inautenticidad y determinar anomalías en un video–, FakeCatcher se enfoca en buscar señales de autenticidad en videos genuinos. Esto se logra al evaluar un aspecto que nos caracteriza como seres humanos: el sutil “flujo sanguíneo” que se manifiesta en los píxeles de un video.
En el momento en que nuestro corazón late y la sangre fluye por las venas, se produce un cambio de color en estas últimas. Estas señales de flujo sanguíneo se recopilan en toda la superficie del rostro y los algoritmos las transforman en mapas de espacio temporales. Posteriormente, a través del uso de aprendizaje profundo, somos capaces de identificar al instante si una secuencia es auténtica o si es una creación falsa.
A nivel global, esta poderosa herramienta podría beneficiar a millones de usuarios. En el ámbito de las redes sociales, la tecnología sería de gran utilidad para prevenir que los internautas carguen videos deepfake perjudiciales. Además, las organizaciones de noticias a nivel internacional podrían emplear este detector para evitar la circulación involuntaria de videos manipulados. A su vez, las entidades sin fines de lucro podrían poner la plataforma al servicio de la detección democrática de deepfakes para todo el mundo.
Este ejemplo demuestra cómo nuestra industria, al desarrollar herramientas guiadas por principios de responsabilidad, tienen la capacidad de abordar los riesgos y preocupaciones inherentes a la evolución tecnológica. Nuestra responsabilidad está no solo en ser actores pasivos ante las consecuencias de las creaciones tecnológicas, sino en tomar un rol protagónico que permita un ecosistema digital seguro, diverso y que abraza la innovación.
Por: Marcelo Bertolami*
*El autor es director de Socios Regionales y del equipo de Tecnología de Latam en Intel.
Las opiniones expresadas son sólo responsabilidad de sus autores y son completamente independientes de la postura y la línea editorial de Forbes.
Lea también: El PC: muchos caminos por recorrer