Llamada automática de Biden: el audio deepfake alimenta los temores de desinformación electoral | Nacional

La carrera por la Casa Blanca de 2024 se enfrenta a la perspectiva de una oleada de desinformación basada en IA, y una llamada automática que se hace pasar por el presidente de Estados Unidos, Joe Biden, ya ha avivado una alarma particular sobre las falsificaciones de audio.

“Qué montón de tonterías”, decía el mensaje telefónico, parodiando digitalmente la voz de Biden y haciéndose eco de una de sus frases distintivas.

La llamada automática instó a los residentes de New Hampshire a no votar en las primarias demócratas del mes pasado, lo que llevó a las autoridades estatales a iniciar una investigación sobre una posible supresión de votantes.

También desencadenó demandas por parte de los activistas de medidas de seguridad más estrictas en torno a las herramientas de inteligencia artificial generativa o una prohibición total de las llamadas automáticas.

Los investigadores de desinformación temen un uso indebido desenfrenado de aplicaciones impulsadas por IA en un año electoral crucial gracias a la proliferación de herramientas de clonación de voz, que son baratas, fáciles de usar y difíciles de rastrear.

“Esto es sin duda la punta del iceberg”, dijo a la AFP Vijay Balasubramaniyan, director ejecutivo y cofundador de la empresa de ciberseguridad Pindrop.

“Podemos esperar ver muchos más deepfakes a lo largo de este ciclo electoral”.

Un análisis detallado publicado por Pindrop dijo que para crear la llamada automática de Biden se utilizó un sistema de texto a voz desarrollado por la startup de clonación de voz de IA ElevenLabs.

El escándalo se produce cuando los activistas de ambos lados del pasillo político estadounidense aprovechan herramientas avanzadas de inteligencia artificial para enviar mensajes de campaña eficaces y mientras los inversores en tecnología invierten millones de dólares en nuevas empresas de clonación de voz.

leer más  El exrepresentante estatal Rick Becker busca el único escaño en la Cámara de Representantes de Dakota del Norte

Balasubramaniyan se negó a decir si Pindrop había compartido sus hallazgos con ElevenLabs, que el mes pasado anunció una ronda de financiación de inversores que, según Bloomberg News, dio a la empresa una valoración de 1.100 millones de dólares.

ElevenLabs no respondió a las repetidas solicitudes de comentarios de la AFP. Su sitio web lleva a los usuarios a un generador gratuito de texto a voz para “crear voces naturales de IA al instante en cualquier idioma”.

Según sus pautas de seguridad, la firma dijo que a los usuarios se les permitía generar clones de voz de figuras políticas como Donald Trump sin su permiso si “expresan humor o burla” de una manera que deje “claro para el oyente que lo que están escuchando es una parodia y no un contenido auténtico.”

– ‘Caos electoral’ –

Los reguladores estadounidenses han estado considerando ilegalizar las llamadas automáticas generadas por IA, y la llamada falsa de Biden dio un nuevo impulso al esfuerzo.

“El momento político del deepfake está aquí”, dijo Robert Weissman, presidente del grupo de defensa Public Citizen.

“Los formuladores de políticas deben apresurarse a implementar protecciones o nos enfrentaremos a un caos electoral. El deepfake de New Hampshire es un recordatorio de las muchas formas en que los deepfake pueden sembrar confusión”.

A los investigadores les preocupa el impacto de las herramientas de inteligencia artificial que crean videos y textos tan aparentemente reales que los votantes podrían tener dificultades para descifrar la verdad de la ficción, socavando la confianza en el proceso electoral.

Pero los deepfakes de audio utilizados para hacerse pasar por celebridades y políticos de todo el mundo o difamarlos son los que han despertado la mayor preocupación.

leer más  Legislador de Dakota del Norte que insultó a la policía en una parada de DUI obtiene libertad condicional sin supervisión y una multa de 1.000 dólares | AP

“De todas las superficies (vídeo, imagen, audio) en las que la IA puede utilizarse para la supresión de votantes, el audio es la mayor vulnerabilidad”, dijo a la AFP Tim Harper, analista político del Centro para la Democracia y la Tecnología.

“Es fácil clonar una voz usando IA y es difícil de identificar”.

– ‘Integridad electoral’ –

La facilidad para crear y difundir contenidos de audio falsos complica un panorama político ya hiperpolarizado, socavando la confianza en los medios y permitiendo a cualquiera afirmar que “las pruebas basadas en hechos han sido fabricadas”, dijo a la AFP Wasim Khaled, director ejecutivo de Blackbird.AI.

Estas preocupaciones abundan a medida que la proliferación de herramientas de audio de IA supera al software de detección.

ByteDance de China, propietario de la popular plataforma TikTok, presentó recientemente StreamVoice, una herramienta de inteligencia artificial para la conversión en tiempo real de la voz de un usuario a cualquier alternativa deseada.

“Aunque los atacantes utilizaron ElevenLabs esta vez, es probable que en futuros ataques se utilice un sistema de IA generativo diferente”, dijo Balasubramaniyan.

“Es imperativo que haya suficientes salvaguardias disponibles en estas herramientas”.

Balasubramaniyan y otros investigadores recomendaron incorporar marcas de agua de audio o firmas digitales en herramientas como posibles protecciones, así como una regulación que las haga disponibles solo para usuarios verificados.

“Incluso con esas acciones, detectar cuándo se utilizan estas herramientas para generar contenido dañino que viola sus términos de servicio es realmente difícil y muy costoso”, dijo Harper.

“(Requiere) inversión en confianza y seguridad y un compromiso de construir con la integridad electoral centrada como un riesgo”.

leer más  Los estadounidenses se mudarán a estados con impuestos bajos en 2023

aire acondicionado/des

2024-02-05 01:48:57
1707267711
#Llamada #automática #Biden #audio #deepfake #alimenta #los #temores #desinformación #electoral #Nacional

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.