El nuevo detector de falsificaciones profundas de Intel puede detectar un video real o falso según el flujo sanguíneo en los píxeles del video

Witthaya Prasongsin/Getty

En los últimos años, más y más deepfakes han aparecido en Internet: piezas de medios sintéticos que toman una imagen o un video y usan la cara o la voz de otra persona para crear una imagen nueva y falsa de personas o sucesos. Y lo más probable es que ya hayas visto uno y no sabías que era un deepfake.

Las características muy reales de los deepfakes han permitido que muchos casos de información errónea, engaños y fraudes se difundan en línea. En respuesta, Intel anunció una nueva tecnología llamada “FakeCatcher” para detectar medios falsos profundos con una tasa de precisión del 96 %.

Deepfakes utiliza tecnología impresionante derivada del aprendizaje automático y la inteligencia artificial para crear impresiones aterradoramente precisas de celebridades y políticos que hacen y dicen cosas que no han hecho.

Las tecnologías existentes pueden tardar horas en disipar la confianza de los internautas en un deepfake, ya que utilizan el aprendizaje profundo para investigar signos de manipulación digital.

También: ¿Cómo detectar un deepfake? Un simple truco es todo lo que necesitas

FakeCatcher de Intel puede detectar una falsificación profunda en tiempo real al “evaluar lo que nos hace humanos: el ‘flujo de sangre’ en los píxeles de un video”, según un comunicado de prensa.

Intel dice que su tecnología puede identificar cambios en el color de nuestras venas cuando la sangre circula por el cuerpo. Luego, las señales del flujo sanguíneo se recopilan de la cara y se traducen mediante algoritmos para discernir si un video es real o falso.

Cada vez es más importante contar con un software que nos ayude a identificar falsificaciones profundas para evitar consecuencias dañinas. Algunos videos e imágenes deepfake son de naturaleza gráfica y otros perpetúan la desconfianza en los medios.

En el pasado, los estafadores han usado deepfakes para hacerse pasar por solicitantes de empleo para acceder a información confidencial de la empresa. También se han acostumbrado a hacerse pasar por figuras políticas prominentes para decir declaraciones incendiarias.

Además: la próxima gran amenaza a la seguridad nos está mirando a la cara. Abordarlo va a ser duro

Aunque algunos movimientos y manierismos en los deepfakes revelan su naturaleza engañosa, la mayoría de las personas se desplazan sin pensar por su feed de Twitter y no se toman el tiempo para averiguar si un video es real o falso.

Y para cuando un deepfake obtiene millones de acciones, ya es demasiado tarde, ya que El 63% de los adultos en los EE. UU. admite que un video alterado los ha confundido sobre los eventos actuales.según el Centro de Investigación Pew.

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.