El generador de vídeos de OpenAI, Sora, podría permitir desnudos. Los expertos están preocupados

Ver la reproducción en video de un sueño o una idea genial que tengas podría convertirse pronto en realidad. El generador de IA de texto a video de OpenAI, Sora, es va a ser publicado públicamente “Definitivamente este año”, dijo a The Wall Street Journal Mira Murati, directora de tecnología de la compañía. El medio de comunicación recibió ejemplos de las generaciones de Sora: una sirena con un teléfono inteligente y un toro en una cacharrería.

¿Cómo asustó Sam Altman a los miembros de la junta? | ¿Qué sigue para OpenAI?

Pero cuando se le preguntó sobre la desnudez de Sora, Murati dijo que no estaba segura de si se permitiría en generaciones de videos., y agregó que los artistas podrían utilizar generaciones de desnudos en entornos creativos. Murati dijo que OpenAI está “trabajando con artistas y creadores de diferentes campos para descubrir exactamente qué es útil”, junto con “qué nivel de flexibilidad” debería tener Sora.

Pero a pesar de los esfuerzos de las nuevas empresas y las empresas que trabajan en los modelos para implementar barreras sobre el tipo de contenido que se puede generar, material sensible como desnudos falsos y pornografía profunda son producidos periódicamente por las principales herramientas de IA generativa. Y los expertos dicen que OpenAI y otras empresas tecnológicas que trabajan en tecnología similar, así como el gobierno de EE. UU., deberían ser más proactivo a la hora de regular herramientas como Sora antes de su lanzamiento generalizado.

Subirse a las barandillas

En una encuesta de febrero entre votantes estadounidenses realizada por el AI Policy Institute (AIPI), el 77% de los encuestados dijo que cuando se trata de generadores de vídeo de IA como Sora, incluir barandillas y salvaguardas para evitar el uso indebido es más importante que hacer que los modelos estén ampliamente disponibles. Más de dos tercios de los encuestados dijeron que el desarrollador de un modelo de IA debería ser considerado legalmente responsable de cualquier actividad ilegal por parte de la modelo, como generar videos falsos para difamación o pornografía de venganza.

leer más  Esa película TMNT fue tan exitosa que tendrá una secuela del juego

“Eso realmente indica cómo el público se está tomando en serio esta tecnología”, dijo Daniel Colson, fundador y director ejecutivo de AIPI. “Piensan que es poderoso. Han visto la forma en que las empresas de tecnología implementan estos modelos, algoritmos y tecnologías, y esto conduce a resultados que transforman completamente la sociedad”.

Pero Colson dijo que el público tampoco “confía en que las empresas de tecnología hagan eso de manera responsable”.

“OpenAI tiene que tomar una decisión difícil en torno a esto”, dijo, “porque, para bien o para mal, la realidad es que probablemente el 90% de la demanda de videos generados por IA será para pornografía, y eso crea una dinámica desagradable en la que, Si las empresas centralizadas que crean estos modelos no brindan ese servicio, eso crea un incentivo extremadamente fuerte para que el mercado gris brinde ese servicio”.

Colson dijo que esto ya ha sucedido con los modelos de imágenes de IA de código abierto donde no hay mucha restricción o supervisión del contenido.

Sora es actualmente siendo probado por los equipos rojoso “Expertos en áreas como desinformación, contenido que incita al odio y prejuicios”, ha dicho OpenAI. dijo mientras se prepara para poner el modelo a disposición. La compañía también dijo que está trabajando en herramientas para “detectar contenido engañoso”, incluidos videos generados por Sora. OpenAI no respondió a una solicitud de comentarios para esta historia.

Después de que las imágenes pornográficas de Taylor Swift generadas por IA inundaran las redes sociales en enero, una encuesta de AIPI encontró que el 84% de los encuestados apoyó una legislación para ilegalizar la pornografía deepfake no consensuada. Mientras tanto, el 86% de los encuestados apoyó la legislación que exige que las empresas que desarrollen modelos de inteligencia artificial eviten que se utilicen para crear pornografía ultrafalsa. Más del 90% de los encuestados dijeron que creían que las personas que usan modelos de inteligencia artificial para crear pornografía deepfake deberían ser consideradas responsables ante la ley, mientras que el 87% de los encuestados dijeron que creen que las empresas que desarrollan los modelos deberían ser consideradas legalmente responsables. Hay actualmente sin leyes ni regulaciones de EE. UU. alrededor de esto. (En la Unión Europea, la recién aprobada Ley de inteligencia artificialque evaluará y regulará el riesgo del software de IA, aún no se ha promulgado oficialmente).

leer más  Los científicos revelan la transmisión inalámbrica de energía para la comunicación lunar

“El [U.S.] El gobierno realmente no ha dado ningún paso notable en los últimos 25 años (desde los albores de Internet) para regular sustancialmente estas entidades, y eso es notable, dado el grado en que cada vez más sociedad estadounidense está realmente gobernada por estas entidades no gubernamentales. entidades elegidas democráticamente”, dijo Colson.

Los ciberdelincuentes también podrían utilizar generadores de vídeo como Sora para crear deepfakes de ejecutivos, actores y políticos en situaciones comprometedoras para ejercer influencia o pedir un rescate. En febrero, la Comisión Federal de Comunicaciones prohibió las voces generadas por IA en llamadas automáticas después de múltiples incidentes, incluida una llamada falsa que circuló en enero en la que una imagen generada por IA del presidente Joe Biden animaba a los votantes de New Hampshire a quedarse en casa en lugar de votar en las primarias del estado. elección. Y durante su fallida campaña por la nominación presidencial republicana, el gobernador de Florida, Ron DeSantis lanzó un video generado por IA en junio del expresidente Donald Trump abrazando al exasesor médico de la Casa Blanca, el Dr. Anthony Fauci, sin revelar que no era real.

Pero imponer medidas de seguridad como la verificación de usuarios, el etiquetado de contenidos, la clasificación de riesgos y la imposición de restricciones sobre cómo y dónde se puede exportar el contenido generado por IA podría ayudar a eludir el delito cibernético.

“Necesitamos pasar de una postura reactiva a una postura proactiva”, dijo Jason Hogg, ejecutivo residente de Great Hill Partners y ex director ejecutivo global de la firma de ciberseguridad Aon Cyber, sobre la regulación estadounidense sobre los modelos de IA. (Great Hill Partners es un inversor en la empresa matriz de Quartz, G/O Media).

leer más  Classic Racers Elite: ¡conducción a la antigua!

Hogg dijo que es necesario que existan regulaciones y sanciones para hacer frente a “un tsunami de delitos cibernéticos que se dirige hacia nuestra costa”.

2024-03-17 09:00:00
1710667984
#generador #vídeos #OpenAI #Sora #podría #permitir #desnudos #Los #expertos #están #preocupados

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.