Internacionales | 17 jul 2024
Manipulación electoral
Advierten que la manipulación electoral con deepfakes es inquietantemente fácil
A medida que cientos de millones de votantes en todo el mundo se preparan para elegir a sus líderes este año, no hay duda de que los trolls intentarán influir en los resultados utilizando IA, según Clint Watts, gerente general del Centro de Análisis de Amenazas de Microsoft.
Por: Cayo Acosta
Simplemente poner un logo puede engañar a más personas y llegar más lejos
A medida que cientos de millones de votantes en todo el mundo se preparan para elegir a sus líderes este año, no hay duda de que los trolls intentarán influir en los resultados utilizando IA, según Clint Watts, gerente general del Centro de Análisis de Amenazas de Microsoft.
Watts aseguró que es improbable que la desinformación y el engaño mediante IA sean tan sofisticados como algunos temen, pero eso no significa que no sean efectivos. Porque los planes simples funcionan.
«En 2024, habrá falsificaciones», declaró Watts durante un evento organizado por el Instituto Aspen y la Universidad de Columbia. «Algunas serán profundas. La mayoría serán superficiales. Y las manipulaciones más simples serán las que más viajen por internet.»
Watts dijo que su equipo detectó la primera cuenta de redes sociales rusa que se hacía pasar por estadounidense hace diez años. «Y usamos una herramienta: Microsoft Excel, lo cual es increíble», bromeó.
Inicialmente, los cazadores de amenazas de Redmond (usando Excel, por supuesto) rastrearon a los trolls rusos probando sus videos e imágenes falsos en locales, y luego pasaron a Ucrania, Siria y Libia. «Eran campos de batalla, y luego se llevaron la estrategia a todas las elecciones europeas y estadounidenses», recordó Watts.
«En 2016, nuestra lista de monitoreo eran cuentas de Twitter o Facebook que enlazaban a Blogspot», señaló. «En 2020, era Twitter o Facebook y algunas otras plataformas, pero principalmente enlazaban a YouTube. Y hoy, es todo video, cualquier actor de amenaza.»
El equipo de Watts rastrea grupos de amenazas vinculados a gobiernos de Rusia, Irán, China, además de otras naciones de todo el mundo, explicó.
También reveló que hace unos nueve meses su equipo realizó una inmersión profunda en cómo estos grupos están usando IA para influir en las elecciones.
«En los últimos meses, la técnica más efectiva utilizada por los actores rusos ha sido publicar una imagen y ponerle el logo de una organización de noticias real», observó. «Eso obtiene millones de compartidos.»
¿IA o no IA?
Watts también señaló algunos indicadores para ayudar a distinguir entre noticias reales y falsas. El primero, dijo, es el entorno: ¿el video o la foto está ambientado en un lugar público o privado? Los videos en lugares públicos con un orador conocido en un mitin o evento al que asiste un gran grupo de personas son más difíciles de falsificar.
«Hemos visto un video deepfake circular, y los grupos son bastante buenos, colectivamente, para decir que no – hemos visto un video de esto antes, hemos visto el fondo, él no dijo esto o ella no dijo esto», explicó Watts.
Sin embargo, el contenido generado por IA que presenta a un funcionario electo – a menudo supuestamente ambientado en su oficina, hogar u otro entorno privado – es mucho más fácil de hacer pasar por legítimo.
«La segunda parte es que, en términos de IA, el medio importa enormemente», explicó Watts. Mientras que los videos deepfake son los más difíciles de hacer, y el texto generado por IA es el más fácil, «es difícil que la gente preste atención al texto», señaló. «Con el video, a la gente le gusta mirar.»
Sin embargo, el audio es el medio que debería preocupar a las personas, según Watts. «El audio de IA es más fácil de crear porque tu conjunto de datos es más pequeño, y no hay pistas contextuales para que la audiencia realmente evalúe.»
Los espectadores de videos generados por IA pueden determinar mejor su autenticidad en función de cómo se mueve o habla el sujeto, explicó. Pero con grabaciones solo de audio, esas pistas no son tan obvias. Watts mencionó las llamadas automáticas de Biden en EE.UU. y las grabaciones de audio falsas de las elecciones en Eslovaquia como ejemplos.
«Lo más efectivo es lo real, un poco de falso, y luego lo real», mezclándolo para cambiarlo solo un poco – eso es difícil de verificar», lamentó. «Cuando estás mirando entornos privados y audio, con una mezcla de real y falso, eso es una herramienta poderosa que puede ser usada» para la interferencia electoral.