Home NoticiasOpenAI Sora: Fin de la app de video IA y el auge de las noticias falsas

OpenAI Sora: Fin de la app de video IA y el auge de las noticias falsas

by Editora de Noticias

OpenAI ha puesto fin a una aplicación que permitía generar videos con inteligencia artificial con solo pulsar un botón, apenas seis meses después de su lanzamiento.

La aplicación, llamada Sora, funcionaba de la siguiente manera: los usuarios introducían una breve descripción de lo que querían ver y Sora generaba un video de 10 segundos que parecía completamente real. Un ejemplo citado fue la imagen de un perro conduciendo un coche, capturada en un video que simulaba ser una grabación de una cámara policial.

(SONIDO DE ARCHIVO)

AUTOMATED VOICE: (Como Agente de Policía) Bien, quita las patas del volante, amigo.

(SONIDO DE NEUMÁTICOS CHIRRIANDO)

AUTOMATED VOICE: (Como Agente de Policía) Eh, no. Eh, detente. Detén el coche. Central, el conductor acaba de huir. Es un perro. Repito.

Sora ofrecía una cantidad ilimitada de contenido generado por IA, pero también permitía a los usuarios descargar y compartir los videos. Rápidamente se convirtió en una herramienta para la creación de noticias falsas, incluyendo videos fabricados que mostraban agentes de ICE (Servicio de Inmigración y Control de Aduanas) arrestando a sacerdotes.

(SONIDO DE ARCHIVO)

AUTOMATED VOICE: (Como Agente de ICE #1) Obispo, deje de resistirse. Manos detrás de la espalda.

AUTOMATED VOICE: (Como Obispo) No tiene derecho. Esto es una iglesia.

AUTOMATED VOICE: (Como Agente de ICE #2) Señor…

Estos videos, junto con otros que mostraban falsas imágenes de bombardeos en Oriente Medio o celebraciones en Venezuela por la supuesta captura de Nicolás Maduro, causaron problemas a OpenAI. La compañía enfrentó acusaciones de violaciones de derechos de autor y el proceso de generación de videos consumía una gran cantidad de recursos computacionales. OpenAI no ha revelado las razones específicas para el cierre de la aplicación.

leer más  Kate Hudson: El hábito diario para sentirse ella misma

Hany Farid, profesor de la Universidad de California, Berkeley, especializado en el estudio de imágenes digitales, considera que el mayor legado de Sora será la desconfianza generalizada que ha generado. “Ahora, cada video, cada imagen, todo está en duda”, afirma Farid.

Investigaciones recientes realizadas por Farid y sus colegas demostraron que las personas tienen dificultades para distinguir entre videos reales y generados por IA, incluyendo aquellos creados con Sora. De hecho, los participantes en el estudio tuvieron más problemas para identificar videos auténticos que los falsos, debido a la pérdida de confianza en su propia percepción visual.

Farid explica que autenticar contenido real se ha vuelto más difícil, ya que solo se cuenta con la ausencia de evidencia, lo cual no resulta tranquilizador. En su opinión, esto favorecerá a los mentirosos y dificultará la creencia en videos reales que documenten abusos o corrupción.

FARID: “Esto alimenta esa ‘dividendo del mentiroso’, lo cual, por supuesto, es increíblemente peligroso.”

El problema persiste, ya que existen otras herramientas capaces de generar contenido falso con IA, y su calidad mejora constantemente. Mientras tanto, OpenAI ha anunciado que reasignará al equipo que trabajó en Sora para desarrollar robots impulsados por inteligencia artificial.

Geoff Brumfiel, NPR News.

(SONIDO DE LA CANCIÓN “CONCEITED” DE LOLA YOUNG)

Copyright © 2026 NPR. All rights reserved. Visit our website terms of use and permissions pages at www.npr.org for further information.

Accuracy and availability of NPR transcripts may vary. Transcript text may be revised to correct errors or match updates to audio. Audio on npr.org may be edited after its original broadcast or publication. The authoritative record of NPR’s programming is the audio record.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.