Mirando directamente a la cámara, la presentadora de noticias habla de la importancia de la cooperación entre los Estados Unidos y China para apoyar la economía mundial.
A primera vista, la mujer parece estar presentando un noticiario normal. Pero ni la presentadora ni la marca Wolf News que aparecen en el video son reales. Es una ultrafalsificación generada por inteligencia artificial (IA).
Los espectadores que se fijan bien pueden ver algunas pistas de que algo falla. La voz suena poco natural y no se sincroniza con los movimientos de la boca.
El video es uno de los dos que aparecieron en las redes sociales en publicaciones que parecían promover los intereses del Partido Comunista Chino (PCC), según señaló en un informe de febrero la empresa de investigación Graphika, con sede en Nueva York.
Los avances de las herramientas de IA generativa suscitan preocupación por la capacidad de la tecnología para crear y difundir desinformación a una escala nunca antes vista. Los presentadores de noticias falsas alimentan esas preocupaciones.
Estos avances tecnológicos se producen, mientras un informe de febrero de la Unión Europea describe el enfoque múltiple que China y Rusia están adoptando para tratar de controlar las narrativas, sobre todo desde la política exterior hasta la guerra en Ucrania.
El uso de los propios presentadores de noticias falsas no fue el aspecto más sorprendente para Tyler Williams, director de investigaciones de Graphika. En 2018, The Guardian informó que el medio de noticias estatal chino Xinhua había mostrado al primer presentador de noticias de IA del mundo.
Williams dijo a VOA, “inicialmente nos sorprendió verlo dentro de este contexto”.
Graphika encontró al presentador de noticias ultrafalsas en plataformas como Facebook, Twitter y YouTube, mientras monitoreaba operaciones de desinformación pro-China que la firma de investigación ha bautizado como spamouflage.
Identificado por primera vez en 2019, spamouflage se refiere a una extensa red de cuentas vinculadas a Beijín que difunden propaganda pro-China.
“Hemos estado rastreando esta campaña de spamouflage IO [operación de información] durante varios años”, dijo Williams. “Es la primera vez que vemos que esta campaña utiliza este tipo de técnica o tecnología”.
Un portavoz de la embajada china en Washington, dijo a la VOA que el informe de Graphika “está lleno de prejuicios y especulaciones maliciosas a las que China se opone firmemente”.
“En los últimos años, algunos medios de comunicación y grupos de reflexión occidentales han calumniado el uso por parte de China de cuentas falsas en los medios sociales, para difundir la llamada información ‘pro-China’”, dijo el portavoz a través de correo electrónico. “China cree que cada usuario de los medios sociales tiene derecho a expresar su propia voz”.
Sin embargo, numerosos organismos han documentado cómo China censura las redes sociales e incluso encarcela a los usuarios que critican al gobierno.
Erosión de la confianza
La habilidad y eficacia con la que la IA puede generar desinformación preocupa especialmente a Williams.
“La mayor preocupación es la erosión continua de la confianza, tanto en los medios de comunicación como en las noticias publicadas en las redes sociales. Ese nivel de autenticidad está cada vez más en entredicho a medida que vemos cómo se amplía, como suponemos que ocurrirá”, afirma. “Para mí, esa es la principal preocupación. ¿Acabaremos en este entorno final, de confianza cero y cínico, en el que todo es falso?”
“Es una especie de escenario apocalíptico”, se apresuró a añadir Williams. No hay que exagerar estos avances, advierte.
Según Bill Drexel, que investiga la inteligencia artificial en el centro de estudios Center for a New American Security, en Washington, la tecnología dista mucho de estar perfeccionada.
“Cuando vi los videos al principio me pareció casi cómico, porque no utilizaban una ultrafalsificación de gran calidad”, dijo a la VOA. “Pero es una especie de oscuro presagio de lo que está por venir, en lo que respecta a la desinformación en el extranjero”.
“China es famosa por su desinformación en el extranjero, que es sorda y a menudo contraproducente”, dijo Drexel.
Pero China no es el único país que utiliza la tecnología para desinformar.
El informe del Servicio de Acción Exterior de la Unión Europea (UE) se centra en la desinformación rusa y china. Concluye que Moscú apoya operaciones de desinformación que suplantan la identidad de medios de comunicación internacionales.
El estudio analizó una muestra de 100 casos de lo que denomina “manipulación informativa” entre octubre y diciembre. Con 60 ejemplos vinculados a la invasión rusa de Ucrania, el objetivo de Moscú es distraer al público, desviar la culpa o dirigir la atención hacia temas diferentes, según el informe.
“Esta guerra no sólo la llevan a cabo los soldados en el campo de batalla, sino que también se libra en el espacio de la información, tratando de ganarse los corazones y las mentes de la gente”, dijo el jefe de la Política Exterior de la UE Josep Borrell, en un discurso pronunciado en febrero. “Tenemos muchas pruebas de que Rusia está detrás de intentos coordinados de manipular los debates públicos en sociedades abiertas”.
Los medios de comunicación impresos y televisivos son los objetivos más frecuentes de la suplantación de identidad de Moscú, en particular cuando apuntan a Ucrania.
El informe cita cuatro casos en los que se crearon portadas falsas imitando a revistas satíricas europeas, para atacar a Ucrania y al presidente Volodymyr Zelenskyy.
“Nadie está exento de que se haga uso indebido de su identidad o marca”, afirma el informe. “Los actores de amenazas utilizan la suplantación de identidad para añadir legitimidad a sus mensajes y alcanzar y afectar a las audiencias familiarizadas con las entidades suplantadas y que confían en ellas”.
La embajada rusa en Washington no respondió al correo electrónico de la VOA solicitando comentarios.
La estrategia de suplantación es rudimentaria, pero la desinformación no necesita ser sofisticada para ser eficaz, dijo Nika Aleksejeva, que investiga la desinformación rusa en el Laboratorio de Investigación Forense Digital, del Atlantic Council.
A veces lo básico funciona mejor.
Atribuir material falso a los medios de comunicación hace que las mentiras sean más verosímiles. El objetivo es hacer que los lectores piensen: “Si este medio de comunicación legítimo escribió sobre ello, entonces debe ser verdad”, dijo Aleksejeva.
Esta estrategia es especialmente eficaz porque, según Aleksejeva, cuando los lectores hacen clic en las páginas falsas, vuelven al sitio real de noticias.
“Hace falta más vigilancia por parte del lector para darse cuenta de que algo no va bien”, declaró Aleksejeva a la VOA desde Riga, la capital de Letonia.
A Aleksejeva también le preocupa que la IA generativa pueda utilizarse para potenciar las campañas de desinformación. Según ella, ahora es tan fácil como dar a un software de IA algunos detalles y pedir una historia.
“El volumen cambiará sin duda”, afirma. “Es mucho más fácil inventar una historia”.