Imaginen este escenario. El año es 2030; los deepfakes y el contenido generado por inteligencia artificial están por todas partes, y usted es miembro de una nueva profesión: el notario de la realidad. Desde su oficina, los clientes le piden que verifique la autenticidad de fotos, videos, correos electrónicos, contratos, capturas de pantalla, grabaciones de audio, hilos de mensajes de texto, publicaciones en redes sociales y registros biométricos. La gente llega desesperada por proteger su dinero, su reputación, su cordura y también su libertad.
Todo está en juego un lunes lluvioso cuando una anciana le cuenta que a su hijo lo han acusado de asesinato. Lleva la evidencia en su contra: una memoria USB que contiene imágenes de vigilancia del tiroteo. Está sellada en una bolsa de plástico grapada a una declaración jurada, que explica que la memoria contiene pruebas que la fiscalía pretende utilizar. En la parte inferior hay una cadena de números y letras: un hash criptográfico.
El Laboratorio Estéril
Para apoyar el periodismo científico
Si está disfrutando de este artículo, considere apoyar nuestro periodismo galardonado suscribiéndose. Al comprar una suscripción, está ayudando a garantizar el futuro de historias impactantes sobre los descubrimientos y las ideas que dan forma a nuestro mundo actual.
Su primer paso no es mirar el video, eso sería como caminar por la escena del crimen. En cambio, conecta la memoria a una computadora sin conexión con un bloqueador de escritura, un dispositivo de hardware que impide que se escriban datos en la memoria. Esto es como introducir evidencia en un laboratorio estéril. La computadora es donde se calcula el hash del archivo. El hashing criptográfico, una verificación de integridad en la informática forense, tiene un “efecto avalancha” de modo que cualquier cambio pequeño, un píxel eliminado o un ajuste de audio, da como resultado un código completamente diferente. Si abre la memoria sin protegerla, su computadora podría modificar silenciosamente los metadatos (información sobre el archivo) y no sabrá si el archivo que recibió es el mismo que pretende presentar la fiscalía. Cuando calcula el hash del video, obtiene la misma cadena de números y letras impresa en la declaración jurada.
A continuación, crea una copia y la calcula, verificando que los códigos coincidan. Luego bloquea el original en un archivo seguro. Mueve la copia a una estación de trabajo forense, donde mira el video: lo que parece ser una grabación de una cámara de seguridad que muestra al hijo de la mujer acercándose a un hombre en un callejón, levantando una pistola y disparando un tiro. El video es convincente porque es aburrido: no hay ángulos cinematográficos, ni iluminación dramática. De hecho, ya lo ha visto antes: comenzó a circular en línea semanas después del asesinato.
Al ver las imágenes granuladas, recuerda por qué hace esto. Estaba todavía en la universidad a mediados de la década de 2020 cuando los deepfakes pasaron de ser una novedad a un gran negocio. Las empresas de verificación informaron de un aumento de diez veces en los deepfakes entre 2022 y 2023, y los ataques de intercambio de rostros aumentaron más del 700 por ciento en solo seis meses. Para 2024, un intento de fraude con deepfake ocurría cada cinco minutos. Tenía amigos cuyas cuentas bancarias fueron vaciadas, y sus abuelos enviaron miles de dólares a un estafador de secuestro virtual después de recibir fotos alteradas de su prima mientras viajaba por Europa. Entró en esta profesión porque vio cómo una sola fabricación podía arruinar una vida.
Huellas Digitales
El siguiente paso para analizar el video es realizar una verificación de procedencia. En 2021, la Coalición para la Procedencia y la Autenticidad del Contenido (C2PA) se fundó para desarrollar un estándar para rastrear el historial de un archivo. Las Credenciales de Contenido de C2PA funcionan como un pasaporte, recopilando sellos a medida que el archivo se mueve por el mundo. Si el video tiene alguno, podría rastrear su creación y modificaciones. Pero la mayoría han sido lentos en adoptarlos, y las Credenciales de Contenido a menudo se eliminan a medida que los archivos circulan en línea. En una prueba de 2025 del Washington Post, los periodistas adjuntaron Credenciales de Contenido a un video generado por IA, pero todas las plataformas principales donde lo subieron eliminaron los datos.
A continuación, abre los metadatos del archivo, aunque rara vez sobreviven a las transferencias en línea. Las marcas de tiempo no coinciden con la hora del asesinato. Se restablecieron en algún momento, todas ahora aparecen como medianoche, y el campo de dispositivo está en blanco. La etiqueta de software le dice que el archivo se guardó por última vez con el tipo de codificador de video común utilizado por las plataformas sociales. Nada indica que el clip provenga directamente de un sistema de vigilancia.
Al buscar los registros judiciales públicos en el caso de homicidio, descubre que el propietario de la propiedad con la cámara de seguridad tardó en responder a la solicitud de la policía. El sistema de vigilancia estaba configurado para sobrescribir los datos cada 72 horas, y cuando la policía accedió a él, las imágenes se habían ido. Esto es lo que hizo que la aparición anónima del video en línea, con el asesinato mostrado desde el ángulo exacto de esa cámara de seguridad, fuera una sensación.
La Física del Engaño
Comienza la búsqueda en Internet que los investigadores llaman inteligencia de fuentes abiertas, o OSINT. Le indica a un agente de IA que busque una copia anterior del video. Después de ocho minutos, entrega los resultados. Un video publicado dos horas antes de la descarga de la policía muestra un registro parcial que indica que la grabación se realizó con un teléfono.
La razón por la que está encontrando los datos de C2PA es que empresas como Truepic y Qualcomm desarrollaron formas para que los teléfonos y las cámaras firmen criptográficamente el contenido en el momento de la captura. Lo que está claro ahora es que el video no proviene de una cámara de seguridad.
Lo vuelve a ver buscando elementos de la física que no tienen sentido. Los fotogramas ralentizados pasan como un libro de diapositivas. Mira las sombras, las líneas de una puerta del callejón. Luego, en el borde de una pared, una luz que no debería estar allí palpita. No es el parpadeo de una bombilla, sino un brillo rítmico. Alguien grabó una pantalla.
El parpadeo es la señal de dos relojes fuera de sincronía. Una cámara de teléfono escanea el mundo línea por línea, de arriba a abajo, muchas veces por segundo, mientras que una pantalla se actualiza en ciclos, de 60 a 120 veces por segundo. Cuando un teléfono graba una pantalla, puede capturar el brillo de la pantalla que se actualiza. Pero esto aún no le dice si la pantalla grabada mostró la verdad. Alguien podría simplemente haber grabado el monitor de vigilancia original para guardar las imágenes antes de que se sobrescribieran. Para probar un deepfake, tiene que profundizar más.
Artefactos del Engaño
Ahora verifica si hay marcas de agua, patrones estadísticos invisibles dentro de la imagen. Por ejemplo, SynthID es la marca de agua de Google DeepMind para el contenido de Google generado por IA. Su software encuentra indicios de lo que podría ser una marca de agua, pero nada seguro. El recorte, la compresión o la grabación de una pantalla pueden dañar las marcas de agua, dejando solo rastros, como los de palabras borradas en el papel. Esto no significa que la IA haya generado toda la escena; sugiere que un sistema de IA puede haber alterado las imágenes antes de que se grabara la pantalla.
A continuación, lo ejecuta a través de un detector de deepfakes como Reality Defender. El análisis marca anomalías alrededor de la cara del tirador. Divide el video en imágenes fijas. Utiliza el complemento InVID-WeVerify para extraer fotogramas claros y realizar búsquedas inversas de imágenes de la cara del acusado para ver si apareció en otro contexto. No aparece nada.
En la memoria hay otras pruebas, incluidas imágenes más recientes de la misma cámara. La mampostería coincide con el video. Esta no es una escena fabricada.
Vuelve a la cara del tirador. La iluminación del callejón es dura, proyectando un grano distinto. Su chaqueta, sus manos y la pared detrás de él tienen ese ruido digital áspero, pero su rostro no. Es ligeramente más suave, de una fuente más limpia.
Las cámaras de seguridad dan a los objetos en movimiento un desenfoque distintivo, y sus imágenes se comprimen. El tirador tiene ese desenfoque y esa calidad bloqueada, excepto por su rostro. Vuelve a ver el video, acercando la imagen solo al rostro. El contorno de la mandíbula tiembla levemente: dos capas están ligeramente desalineadas.
El Cálculo Final
Vuelve al momento en que aparece el tirador. Levanta el arma con la mano izquierda. Llama a la mujer. Le dice que su hijo es diestro y le envía videos de él jugando deportes cuando era adolescente.
Por último, va al callejón. Los registros de mantenimiento del edificio enumeran la cámara a 12 pies de altura. Mide su altura y ángulo descendente, utilizando trigonometría básica para calcular la altura del tirador: tres pulgadas más alto que el hijo de la mujer.
El video tiene sentido ahora: se hizo clonando la cara del hijo, utilizando un generador de IA para superponerla al tirador y grabando la pantalla con un teléfono para eliminar la marca de agua del generador. Inteligente, quien hizo esto eligió un teléfono que generaría Credenciales de Contenido, para que los espectadores vieran una declaración firmada criptográficamente de que el clip se grabó con ese teléfono y que no se declararon ediciones después de la captura. Al hacer esto, el creador del video esencialmente falsificó un certificado de autenticidad para una mentira.
El documento notariado que enviará al defensor público no se leerá como un thriller, sino como un informe de laboratorio. En 2030, un “notario de la realidad” ya no es ciencia ficción; es la persona cuyos servicios utilizamos para asegurarnos de que las personas y las instituciones son lo que parecen ser.
