Riot Games actualiza su Aviso de privacidad para comenzar a desarrollar la moderación de las comunicaciones de voz – TechCrunch

Cualquiera que haya jugado un videojuego con chat de voz en la última década sabe que existe cierto riesgo. Es posible que lo reciban compañeros de equipo amistosos, pero también es posible que escuche el lenguaje más tóxico que haya escuchado en su vida.

Juegos antidisturbios, el desarrollador de juegos detrás de títulos ultra populares como League of Legends y Valorant, está pensando mucho en esto. Y actuar.

El desarrollador anuncia hoy cambios en su Aviso de privacidad que le permiten capturar y evaluar las comunicaciones de voz cuando se envía un informe sobre comportamiento perturbador. Los cambios en la política son para todo Riot, lo que significa que todos los jugadores de todos los juegos deberán aceptar esos cambios. Sin embargo, el único juego que está programado para utilizar estas nuevas habilidades es VALORANT, ya que es el juego más pesado de chat de voz de Riot.

El plan aquí es almacenar datos de audio relevantes en la región registrada de la cuenta y evaluarlos para ver si se violó el acuerdo de comportamiento. Este proceso se activa cuando se envía un informe y no es un sistema siempre activo. Si se ha producido una infracción, los datos se pondrán a disposición del jugador infractor y, en última instancia, se eliminarán una vez que ya no sea necesario después de las revisiones. Si no se detecta ninguna infracción, los datos se eliminarán.

Antes de continuar, permítanme decirles que este es un gran problema. Los editores y desarrolladores saben desde hace mucho tiempo que la toxicidad en los juegos no solo es una experiencia de usuario terrible, sino que evita activamente que grandes franjas de jugadores potenciales se dediquen a ella.

“Los jugadores están experimentando mucho dolor en las comunicaciones de voz y ese dolor se manifiesta en todo tipo de alteraciones de comportamiento diferentes y puede ser bastante dañino”, dijo Weszt Hart, director de dinámica de jugadores. “Reconocemos eso, y les hemos prometido a los jugadores que haremos todo lo que podamos en este espacio”.

El chat de voz a menudo hace que los juegos sean mucho más ricos y divertidos. Particularmente durante la pandemia, las personas anhelan una conexión más humana. Pero en un entorno tenso como en los juegos competitivos, esa conexión puede volverse amarga.

Como jugador, puedo decir con seguridad que algunas de las experiencias más dolorosas de mi vida han sido mientras jugaba videojuegos con extraños.

Para ser claros, Riot no se está poniendo específico sobre cómo funcionará exactamente esta moderación de chat de voz. El primer paso es la actualización de su Aviso de privacidad, que avisa a los jugadores y le da a la empresa el derecho a comenzar a evaluar las comunicaciones por voz.

Es increíblemente difícil controlar las comunicaciones por voz. No solo debe ser transparente con los usuarios y actualizar cualquier documento legal (que posiblemente sea el paso más fácil, y el que Riot está tomando hoy), sino que debe desarrollar la tecnología adecuada para hacer esto, todo mientras protege la privacidad del jugador.

Hablé con Hart y el Oficial de Protección de Datos y CISO Chris Hymes sobre los cambios. El dúo dijo que el sistema real para detectar violaciones de comportamiento dentro de las comunicaciones por voz aún está en desarrollo. Puede centrarse en la transcripción automatizada de voz a texto y pasar por el mismo sistema que la moderación del chat de texto, o puede depender más del aprendizaje automático para detectar una infracción solo a través de la voz.

“Estamos mirando las tecnologías y estamos tratando de aterrizar en la que queremos lanzar”, dijo Hart. “Hemos estado dedicando mucho tiempo y esfuerzo al espacio y tenemos una idea bastante clara de la dirección que vamos a tomar. Pero lo que queremos hacer es tener algo de audio con el que trabajar, para comprender mejor si cualquier otro enfoque que estamos viendo va a ser el mejor. Para hacer esto, debemos ser capaces de procesar algo real, y no solo hacer una buena suposición “.

Para llegar a esa respuesta lo más rápido posible, agregó, el primer paso para actualizar el aviso de privacidad tenía que entrar en vigencia.

Hart e Hymes también dijeron que se involucrará una capa de moderación humana para garantizar que cualquier sistema que se esté desarrollando funcione correctamente y, en última instancia, pueda implementarse en otros idiomas y otros títulos, ya que el sistema se está desarrollando inicialmente para Valorant en América del Norte. .

Los avances en el aprendizaje automático y el procesamiento del lenguaje natural están haciendo que ese desarrollo sea más fácil de lo que era hace diez, o incluso dos, años. Pero incluso en un mundo donde un algoritmo de aprendizaje automático podría detectar con precisión el discurso de odio, con todos sus matices, existe otro obstáculo.

Los jugadores, incluso de un título a otro, tienen su propio idioma. Existe todo un léxico de palabras y términos utilizados por los jugadores que no se utilizan en la vida cotidiana. Esto agrega otra complicación más al proceso de desarrollo de este sistema.

Aún así, este es un paso fundamental para garantizar que los títulos de Riot Games y, con suerte, también otros títulos, se conviertan en un entorno inclusivo donde cualquiera que quiera jugar se sienta seguro y pueda hacerlo.

Y Riot tiene cuidado de comprender que el desarrollo de juegos es un esfuerzo integral. Todo, desde el diseño del juego hasta las medidas contra las trampas, las pautas de comportamiento y la moderación, tiene un efecto en la experiencia general del jugador.

Junto con este anuncio, la compañía también presenta una actualización de sus Términos de servicio con una política de reembolso global actualizada y un nuevo lenguaje sobre el software anti-trampas para los títulos actuales y futuros de Riot.

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.