Home ENTRETENIMIENTO Los errores profundos están mejorando, pero aún son fáciles de detectar

Los errores profundos están mejorando, pero aún son fáciles de detectar

Deepfakes generados a partir de una sola imagen. La técnica provocó preocupaciones de que las falsificaciones de alta calidad están llegando para las masas. Pero no te preocupes demasiado, todavía.

Deepfakes generados a partir de una sola imagen. La técnica provocó preocupaciones de que las falsificaciones de alta calidad están llegando para las masas. Pero no te preocupes demasiado, todavía.

Egor Zakharov, Aliaksandra Shysheya, Egor Burkov, Victor Lempitsky

La semana pasada, Mona Lisa sonrió. Una gran y amplia sonrisa, seguida de lo que parecía ser una risa y el silencio de palabras que solo podían ser una respuesta al misterio que había engañado a sus espectadores durante siglos.

Una gran cantidad de personas estaban enojadas.

El “retrato vivo” de Mona, junto con las imágenes de Marilyn Monroe, Salvador Dali y otros, demostró la última tecnología en Deepfakes: video o audio aparentemente realista generado mediante aprendizaje automático. Desarrollados por investigadores en el laboratorio de inteligencia artificial de Samsung en Moscú, los retratos muestran un nuevo método para crear videos creíbles a partir de una sola imagen. Con solo unas cuantas fotografías de rostros reales, los resultados mejoran dramáticamente, produciendo lo que los autores describen como "cabezas parlantes realistas". Los investigadores (de forma escalofriante) llaman al resultado "títere", una referencia a cómo las cuerdas invisibles parecen manipular el rostro objetivo. . Y sí, podría, en teoría, ser usado para animar tu foto de perfil de Facebook. Pero no te asustes por tener cuerdas maliciosas que tiren de tu rostro pronto.

"Nada me sugiere que solo usarás esto para generar errores en casa". No a corto plazo, a mediano plazo, ni siquiera a largo plazo ", dice Tim Hwang, director de Ética y Gobernabilidad de la Iniciativa de Harvard-MIT. Las razones tienen que ver con los altos costos y el conocimiento técnico para crear falsificaciones de calidad, barreras que no desaparecerán pronto.

Usando tan poco como una imagen de origen, los investigadores pudieron manipular las expresiones faciales de las personas representadas en retratos y fotos. "Src =" https://cdn.arstechnica.net/wp-content/uploads/2019/05/Deep -Fakes-Inline-1905.08233-1-640x194.jpg "width =" 640 "height =" 194 "srcset =" https://cdn.arstechnica.net/wp-content/uploads/2019/05/Deep-Fakes- Inline-1905.08233-1.jpg 2x
Agrandar / Usando tan poco como una imagen de origen, los investigadores pudieron manipular las expresiones faciales de las personas representadas en retratos y fotos.

Egor Zakharov, Aliaksandra Shysheya, Egor Burkov, Victor Lempitsky

Deepfakes entró por primera vez en público a fines de 2017, cuando un Redditor anónimo con el nombre de "deepfakes" comenzó a cargar videos de celebridades como Scarlett Johansson cosidas a los cuerpos de actores pornográficos. Los primeros ejemplos involucraron herramientas que podrían insertar una cara en las imágenes existentes, fotograma a fotograma (un proceso fallido de entonces y ahora) y expandirse rápidamente a figuras políticas y personalidades de la televisión. Las celebridades son los objetivos más fáciles, con amplias imágenes públicas que se pueden usar para entrenar algoritmos falsos; Es relativamente fácil hacer un video de alta fidelidad de Donald Trump, por ejemplo, que aparece en la televisión día y noche y en todos los ángulos.

La tecnología subyacente para las fallas profundas es un área candente para las empresas que trabajan en cosas como la realidad aumentada. El viernes, Google lanzó un penetración en el control de la percepción de la profundidad en las secuencias de video, abordando, en el proceso, un relato fácil que atormenta a deepfakes. En su artículo, publicado el lunes. como una preimpresión, los investigadores de Samsung apuntan a crear rápidamente avatares para juegos o videoconferencias. Aparentemente, la compañía podría usar el modelo subyacente para generar un avatar con solo unas pocas imágenes, una respuesta fotorrealista para los Memoji de Apple. El mismo laboratorio también publicó. un papel Esta semana en la generación de avatares de cuerpo completo.

Las preocupaciones sobre el uso malicioso de esos avances han dado lugar a un debate sobre si se podrían utilizar los errores profundos para socavar la democracia. La preocupación es que una imitación profunda ingeniosa de una figura pública, tal vez imitando un video de un teléfono celular granulado para que se pasen por alto las imperfecciones y se programe el momento adecuado, puede dar forma a muchas opiniones. Eso provocó una carrera de armamentos para automatizar formas de detectarlos antes de las elecciones de 2020. El Darpa del Pentágono ha gastado decenas de millones en un programa de investigación forense de medios, y varias empresas nuevas están preparándose para convertirse en árbitros de la verdad a medida que la campaña se pone en marcha. En el Congreso, los políticos tienen pedido Legislación que prohíbe su “uso malicioso”.

Pero Robert Chesney, profesor de derecho en la Universidad de Texas, dice que la interrupción política no requiere tecnología de vanguardia; puede ser el resultado de cosas de menor calidad, destinadas a sembrar discordia, pero no necesariamente a engañar. Tomemos, por ejemplo, la clip de tres minutos La presidenta de la Cámara de Representantes, Nancy Pelosi, que circula en Facebook, parece mostrarla insultando sus palabras en público. Ni siquiera fue una falsificación profunda los malhechores simplemente habían ralentizado las imágenes.

Al reducir la cantidad de fotos requeridas, el método de Samsung agrega otra arruga: "Esto significa problemas más grandes para la gente común", dice Chesney. "Algunas personas podrían haberse sentido un poco aisladas por el anonimato de no tener mucha evidencia fotográfica o de video en línea". Llamado "aprendizaje de pocos disparos", el enfoque hace la mayor parte del levantamiento computacional pesado antes de tiempo. En lugar de ser entrenado con, digamos, imágenes específicas de Trump, el sistema se alimenta con una cantidad mucho mayor de video que incluye a diversas personas. La idea es que el sistema aprenda los contornos básicos de las cabezas humanas y las expresiones faciales. Desde allí, la red neuronal puede aplicar lo que sabe para manipular una cara determinada basándose solo en unas pocas fotos, o, como en el caso de la Mona Lisa, solo una.

El enfoque es similar a los métodos que han revolucionado la forma en que las redes neuronales aprenden otras cosas, como el lenguaje, con conjuntos de datos masivos que les enseñan principios generalizables. Eso ha dado lugar a modelos como el GPT-2 de OpenAI, que crea un lenguaje escrito tan fluido que sus creadores decidió no lanzarlo, por temor a que se usara para crear noticias falsas.

Hay grandes desafíos para manejar esta nueva técnica de manera maliciosa contra usted y yo. El sistema se basa en menos imágenes de la cara de destino, pero requiere entrenar un gran modelo desde cero, lo cual es costoso y requiere mucho tiempo, y probablemente solo lo será más. También tienen experiencia para ejercer. No está claro por qué querría generar un video desde cero, en lugar de recurrir a, digamos, técnicas establecidas en la edición de películas o PhotoShop. “Los propagandistas son pragmáticos. Hay muchas más formas de hacer esto a un costo más bajo ", dice Hwang.

Por ahora, si se adaptara para un uso malicioso, esta variedad particular de chicanery sería fácil de detectar, dice Siwei Lyu, un profesor de la Universidad Estatal de Nueva York en Albany que estudia análisis forenses falsos bajo el programa de Darpa. La demostración, aunque impresionante, pierde detalles más finos, señala, como la famosa mole de Marilyn Monroe, que se desvanece cuando se echa la cabeza hacia atrás para reírse. Los investigadores tampoco han abordado otros desafíos, como cómo sincronizar correctamente el audio con Deepfake y cómo resolver los problemas de fallas. Para comparar, Lyu me envía un ejemplo del estado del arte utilizando una técnica más tradicional: un video que fusiona la cara de Obama con un imitador que canta "Happy" de Pharrell Williams. Los investigadores de Albany no estaban lanzando el método, dijo, debido a su Potencial para ser armado.

Hwang tiene pocas dudas de que la tecnología mejorada finalmente hará difícil distinguir las falsificaciones de la realidad. Los costos bajarán o se lanzará un modelo mejor entrenado de alguna manera, lo que permitirá a una persona inteligente crear una poderosa herramienta en línea. Cuando llegue ese momento, argumenta que la solución no será necesariamente una investigación forense digital de primer nivel, sino la capacidad de ver pistas contextuales, una forma sólida para que el público evalúe las pruebas fuera del video que corrobora o descarta su veracidad. Comprobación de los hechos, básicamente.

Pero la comprobación de hechos como eso ya ha demostrado ser un desafío para las plataformas digitales, especialmente cuando se trata de tomar medidas. Como señala Chesney, actualmente es bastante fácil detectar imágenes alteradas, como el video de Pelosi. La pregunta es qué hacer a continuación, sin descender por una pendiente resbaladiza para determinar la intención de los creadores, ya sea sátira, tal vez, o creada con malicia. "Si parece claramente tener la intención de defraudar al oyente para que piense algo peyorativo, parece obvio eliminarlo", dice. "Pero una vez que sigues ese camino, caes en un dilema de dibujo de líneas". A partir del fin de semana, Facebook parecía haber llegado a una conclusión similar: el video de Pelosi aún se compartía en Internet, con la compañía Dicho, contexto adicional de verificadores de hechos independientes.

Esta historia apareció originalmente en Wired.com.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Must Read

Trump dice que los partidarios podrían "exigir" que no se vaya después de dos períodos

CERRAR El presidente Donald Trump dijo que "por supuesto" iría al FBI o al fiscal general si...

Miles marchan en oposición al proyecto de ley de extradición.

CERRAR Después de días de protestas, el presidente ejecutivo de Hong Kong, Carrie Lam, anunció que el...

Raytheon es el toque final de $ 50 mil millones de United Technologies

Por Brooke Sutherland | Bloomberg 16 de junio a las 3:18 am La...

Los apostadores de Las Vegas eligen a los Lakers como el favorito del título de la NBA

A las 3:27 pm, menos de 30 minutos después de la apuesta de $ 10,000 a los Lakers, Adrian Wojnarowski de ESPN tuitea:...

El director de Dark Phoenix, Simon Kinberg, habla de la decepción de la taquilla de la película.

La franquicia de X-MEN de Fox llegó a su fin la semana pasada con el lanzamiento de DARK PHOENIX, y desafortunadamente, la película de...