Cuando hablamos de deepfake nos referimos a una tecnología que utiliza inteligencia artificial para crear videos, audios o imágenes falsas que parecen auténticos. Existe consenso en la comunidad científica en señalar que estas técnicas avanzadas representan serias amenazas a la privacidad e incrementan los riesgos de suplantación de identidad. Esta herramienta se emplea en política para difamar o promover a candidatos, manipular discursos, o generar eventos ficticios que puedan influir en la opinión pública. Hablamos pues de un peligro formidable para las democracias a las que acechan. Algo que queda de relieve en este 2024, cuando se han celebrado comicios en Rusia, Reino Unido, la India, la Unión Europea, Francia y España (las gallegas, vascas y catalanas, además de las europeas) y a la vuelta de la esquina se celebrarán elecciones en Venezuela y Estados Unidos, por mencionar algunas de las más relevantes.
Varios ejemplos ilustran el fenómeno de videos deepfake que inducen a denigrar a un político o un movimiento político. Por lo general, se trata de documentos audiovisuales en los que los políticos hacen declaraciones controvertidas o actos indebidos, como el caso de un falso video, difundido en 2019, de Nancy Pelosi, política estadounidense del Partido Demócrata conocida por haber sido la primera mujer en ocupar el cargo de presidenta de la Cámara de Representantes de los Estados Unidos. El video fue manipulado para que pareciera que Pelosi hablaba de manera lenta y confusa, dando la impresión de que estaba borracha o con deterioro cognitivo. Este video fue creado alterando la velocidad de reproducción y editando su discurso para desacreditarla y generar desinformación.
La sofisticación de los deepfakes hace cada vez más complejo diferenciar entre lo real y lo falso, hasta el punto de que han afectado a figuras relevantes de nuestro tiempo como Barack Obama, Donald Trump y Mark Zuckerberg. En esa línea, varias actrices, cantantes y periodistas han sido víctimas de deepfakes pornográficos. En ese contexto, un informe reciente reveló más de 400 casos de deepfake pornográfico de políticos británicos de alto perfil, lo que subraya la capacidad de esta tecnología para desinformar y socavar la confianza pública. En Estados Unidos, aunque algunos Estados han comenzado a legislar para regular su uso en campañas políticas y prohibir la creación del deepfake pornográfico, el Congreso aún lucha por implementar regulaciones efectivas. Lamentablemente, estos videos manipulados pueden influir en elecciones, generar revueltas ciudadanas o afectar el mercado de valores.
Regulación y conciencia ciudadana
Resulta crucial implementar leyes que exijan la transparencia en el uso de esta tecnología, al tiempo que se articulan campañas educativas para enseñar a los ciudadanos a identificarlos, y plataformas tecnológicas que desarrollen herramientas para detectar y etiquetar contenido manipulado. Estas iniciativas ayudarían a proteger la integridad electoral y fortalecer la confianza de los ciudadanos en el proceso democrático. En esa dirección, se están desarrollando herramientas para detectar deepfakes de forma automatizada, utilizando análisis de contexto, aspectos técnicos y biométricos, neutralizando o aminorando así el impacto de esta tecnología en la desinformación y el pensamiento crítico.
¿Por qué se pone tanto interés en neutralizar los deepfake? Porque esta clase de documentos audiovisuales fraudulentos pueden engañar fácilmente a los espectadores, lo que plantea serias preocupaciones sobre la desinformación y la manipulación de la opinión pública. En este contexto, la ética y la transparencia en la política son esenciales para preservar la democracia, y el uso de deepfakes en este ámbito juega una amenaza directa. Para conjurar esta amenaza es vital que los ciudadanos, los medios de comunicación y las empresas tecnológicas cooperen para tratar y atajar esta problemática.
Indicadores para detectar los deepfakes
Los expertos señalan varios indicios para identificar deepfakes. A continuación, se detallan los más relevantes, extraídos de una información elaborada por The Guardian.
Rarezas alrededor de la boca o el mentón. Así como sincronización imperfecta entre la voz y la boca, menos detalles y arrugas, y apariencia borrosa. Estas señales visuales y acústicas son claros indicadores de que nos encontramos ante un video falso y fraudulento.
Elementos extraños del habla. Otra pista que alerta de que estamos ante un deepfake es que se aprecia una estructura de oraciones inusual y un uso atípico de palabras, lo que indica herramientas de texto a audio.
Falta de proporción entre la cara y el cuerpo. Se constata una falta de armonía evidente entre el tamaño de la cabeza y diferencias en los tonos de piel.
Discontinuidad a lo largo del video. Esto sucede cuando se perciben cambios evidentes en elementos como el color de la ropa.
Dedos, manos y miembros adicionales respecto a la realidad estándar morfológica. Otro indicador muy estimable de que estamos ante un video falso se concreta en el hecho de que en la pantalla contemplamos más extremidades de lo normal y distorsiones en las imágenes generadas por IA.
Letras y números desfigurados. También resulta importante reseñar las dificultades de la IA para reproducir texto y números correctamente.
Ediciones bruscas de video. Una de las claves que revela que estamos viendo un deepfake radica en el uso de un software tosco de edición, que desemboca en videos claramente manipulados.
¿Qué dos ingredientes en cuanto a la actitud nos ayudan a percatarnos de que estamos ante un deepfake? El sentido común y el escepticismo al consumir información que nos llegue de manera online. Las recientes elecciones británicas han dejado algunos ejemplos aleccionadores al respecto. En uno de esos deepfake, se puede apreciar muestra una simulación en la que se aprecia a Nigel Farage (un político británico de extrema derecha, conocido por su papel destacado en el movimiento a favor del Brexit, la salida del Reino Unido de la Unión Europea, que por primera vez ha logrado representación en el parlamento británico en las recientes elecciones en el Reino Unido) destruyendo la casa de Rishi Sunak (otro político británico que, desde octubre de 2022 hasta julio de 2024 ha ejercido como primer ministro del Reino Unido y líder del Partido Conservador) en Minecraft, un popular videojuego donde puedes construir y explorar un mundo hecho de bloques, caracterizado por las aventuras y los desafíos.
¿Cómo darse cuenta de estos engaños no precisamente sofisticados? Resulta esclarecedora la reflexión de la doctora Mhairi Aitken, experta de ética en el Instituto Alan Turing, el instituto de inteligencia artificial del Reino Unido, quien señala que la primera pista para detectar los deepfakes ambientados en el marco de Minecraft es, por supuesto, “lo ridículo de la situación”. Al tiempo que advierte de otros detalles, como la sincronización imperfecta entre la voz y la boca.
Reality Defender es una herramienta de software diseñada para detectar y combatir contenido falso y manipulado en medios digitales. Sus responsables aportan una pauta de valor para desenmascarar los deepfake, alertando que las personas que confeccionan esta clase de videos “ponen mayor énfasis en las personas que aparecen en ellas, particularmente en los rostros”, de manera que “crean rostros humanos creíbles con detalles de alta calidad, mientras se descuida la consistencia física del fondo (o, en muchos casos, otras partes del cuerpo, como las manos)” . En el contexto político mundial de numerosas elecciones que se están celebrando este año por todo el orbe, durante el desarrollo de las elecciones mexicanas se editó un video de la actual presidenta Claudia Sheinbaum para mostrar que decía que iba a cerrar iglesias si era elegida. El clip fue parcheado de manera deliberadamente engañosa a partir de un video donde ella decía en realidad: “Están diciendo, imagínense la mentira, que vamos a cerrar iglesias”. También se agregó un fondo alternativo que mostraba símbolos satanistas en un intento de hacer el clip aún más dañino.
Qué son los cheapfakes
El medio Wired destaca la creciente amenaza que representan los cheapfakes en la escena política actual, hasta el punto de que superan a los deepfakes en términos de gravedad. Se trata de manipulaciones simples de contenido audiovisual que no requieren inteligencia artificial avanzada, como ralentizar un video o editar audio para alterar el mensaje original. Estos métodos, accesibles y fáciles de usar, propagan aún más la desinformación durante las elecciones, debido a su simplicidad y alcance. Ejemplos recientes incluyen un video manipulado del expresidente Donald Trump criticando a la gobernadora de Iowa, Kim Reynolds, utilizando una voz generada por IA. ¿Cómo combatir esta oleada de desinformación audiovisual? Aunque las plataformas de redes sociales como Meta y YouTube han implementado nuevas políticas para exigir la revelación del uso de IA en anuncios políticos, los expertos advierten que esto no aborda adecuadamente el problema más amplio de los cheapfakes.
En el otro lado del “ring democrático estadounidense”, un deepfake de audio que imitaba la voz del presidente Biden desanimó a los votantes a participar en las primarias de New Hampshire, instándoles a reservar su voto para las elecciones generales de noviembre. La llamada falsificada sugería que votar en las primarias solo beneficiaría a los republicanos, aludiendo a una estrategia para reelegir a Donald Trump. Este incidente perturbó el proceso electoral, creando confusión y desinformación entre los votantes. Ningún grupo o individuo reconoció la responsabilidad, y tanto los aliados como los oponentes de Biden, incluyendo Trump y el congresista Dean Phillips, han negado cualquier implicación en el acto.
La proliferación de desinformación se ve incrementada por la disminución de controles en plataformas de redes sociales, como X, antigua Twitter, tras la reducción del equipo de integridad electoral de esta plataforma. La situación es muy preocupante en países con alta participación en redes sociales, como Indonesia, donde la desinformación podría influir significativamente en las elecciones de 2024.
El peligro para Eslovaquia y Polonia
Investigaciones recientes de Check Point Research han revelado el uso de tecnologías deepfake en múltiples elecciones alrededor del mundo, con ejemplos notables en Eslovaquia y Polonia, donde se utilizó clonación de voz y videos manipulados para influir en los resultados. Estos engaños pueden dañar la reputación de los candidatos y difundir información falsa rápidamente a través de las redes sociales, desestabilizando el entorno político y debilitando la confianza pública.
¿Cómo combatir estas amenazas? Se recomienda verificar la fuente de la información, formarse en alfabetización mediática y utilizar herramientas tecnológicas para detectar contenidos manipulados. Además, la Unión Europea ha aprobado leyes sobre inteligencia artificial para aumentar la transparencia y limitar el uso dañino de estas tecnologías. Sin embargo, la lucha contra la desinformación y los ciberataques requiere una vigilancia constante y la cooperación en todos los niveles.
Francisco Viudes Fernández, consultor de marketing, aborda el impacto de los deepfakes en la política y cómo gestionar la desinformación digital. Viudes destaca que los deepfakes, al ser tan convincentes, pueden manipular la percepción pública de manera peligrosa, “al falsificar declaraciones de políticos, difamar o crear escándalos, desacreditar a los oponentes, o incluso manipular las elecciones”. Este experto señala el deepfake de Meritxell Batet en 2019 y el de Pedro Sánchez en 2020 para ilustrar cómo estas tecnologías pueden influir negativamente en la opinión pública.
Aunque Meta y YouTube han introducido políticas más estrictas, la implementación y la eficacia de estas políticas siguen siendo cuestionables. Viudes señala la necesidad de emplear métodos avanzados, como análisis forense digital y algoritmos de IA, para identificar estas falsificaciones, al tiempo que pone el acento en la importancia de la alfabetización mediática, subrayando que “la alfabetización mediática y digital es crucial para que las personas puedan reconocer y desacreditar la desinformación”. Este especialista recalca la importancia de que las plataformas se autorregulen y tomen medidas proactivas para detectar y eliminar la desinformación, informando a los usuarios sobre contenidos engañosos. Por último, este experto apuesta por el desarrollo de estrategias combinadas que pongan de acuerdo tecnología avanzada, educación pública y autorregulación de las plataformas, como un camino esencial para mitigar el impacto de los deepfakes en la política y la sociedad.
Para contrarrestar los efectos nocivos de los deepfakes en nuestra democracia, es esencial que los ciudadanos, los medios de comunicación y las empresas tecnológicas trabajen juntos. A través de la implementación de leyes claras, campañas educativas y el desarrollo de herramientas avanzadas para detectar contenido manipulado, podemos proteger la integridad electoral. Con estos esfuerzos, se podrá fortalecer la confianza pública y preservar la transparencia en el proceso democrático.