Home DeportesDesinformación rusa: IA suplantan voces en los Juegos Olímpicos

Desinformación rusa: IA suplantan voces en los Juegos Olímpicos

by Editor de Deportes

Una red de desinformación rusa está utilizando voces generadas por inteligencia artificial para suplantar a figuras públicas de confianza, según ha revelado BBC Verify. La campaña se centra en los Juegos Olímpicos de Invierno, con el objetivo de difundir noticias falsas dirigidas a atletas y aficionados ucranianos.

Lo que distingue a esta operación, denominada “Matryoshka”, es el uso de deepfakes de audio para imitar las voces de personas reconocidas”, explica Pablo Maristany de las Casas, del Instituto de Diálogo Estratégico (ISD). “Toman un vídeo real de una persona, pero a mitad de camino lo sustituyen por metraje de archivo con una narración deepfake que suena exactamente igual, para insertar mentiras absurdas que parecen más auténticas”, añade Darren Linvill, experto en forense mediática de la Universidad de Clemson.

A continuación, se presenta un vídeo vinculado a esta red:

El vídeo comienza con una conferencia de prensa real de Kirsty Coventry, jefa de los Juegos Olímpicos, en Euronews. Sin embargo, después de unos segundos, una versión generada por IA de la voz de Coventry toma el control. En la versión falsa, Coventry afirma estar “impactada” por la presencia de los ucranianos en Milán, acusándolos de buscar “relaciones públicas políticas insanas”, de comportarse de manera agresiva y de ser “la gente más irritante que he conocido, lo juro”.

No obstante, las imágenes originales de la conferencia de prensa demuestran que Coventry nunca pronunció esas palabras.

BBC Verify ha identificado la misma táctica utilizada para crear un deepfake de un comentarista deportivo estadounidense en los Juegos Olímpicos de Invierno. Además, la cadena pública canadiense CBC ha desmentido un vídeo generado por IA de uno de sus periodistas. Enlace al reportaje de CBC.

leer más  Basketball BBL: Bayern domina y el jefe de liga denuncia desventaja competitiva

Aunque el impacto individual y el alcance de estos vídeos falsos han sido limitados, en conjunto revelan los métodos empleados para socavar el apoyo a Ucrania. BBC Verify también investigó previamente cómo la voz de un operador de emergencias británico fue clonada utilizando IA por la misma operación el año pasado.

“Los operadores de Matryoshka saben que su contenido es más creíble cuando se presenta, aparentemente, a través de una persona de confianza”, concluye Maristany de las Casas del ISD.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.