Importante asesor renuncia porque Instagram no eliminó el contenido de autolesiones | Instagram

Instagram

Exclusiva: Psicóloga acusa a Meta de “hacer la vista gorda” ante publicaciones que cree que representan un mayor peligro para las mujeres vulnerables

Dom 17 de marzo de 2024 05:00 AEDT

Una destacada psicóloga que asesora a Meta sobre la prevención del suicidio y las autolesiones ha renunciado a su cargo, acusando al gigante tecnológico de “hacer la vista gorda” ante el contenido dañino en Instagram, ignorando repetidamente los consejos de expertos y priorizando las ganancias sobre las vidas.

Lotte Rubæk, que ha estado en el grupo global de expertos de Meta durante más de tres años, dijo al Observador que el gigante tecnológico está en curso no eliminar imágenes de autolesión desde sus plataformas está “provocando” que mujeres jóvenes y niñas vulnerables se autolesionen aún más y contribuyendo al aumento de las cifras de suicidio.

Tal es su desilusión con la empresa y su aparente falta de ganas de cambiar, que la psicóloga danesa ha dimitido del grupo, alegando que a Meta no le importa el bienestar y la seguridad de sus usuarios. En realidad, dijo, la empresa está utilizando contenido dañino para mantener a los jóvenes vulnerables enganchados a sus pantallas en aras de las ganancias de la empresa.

En su carta de renuncia, escribió: “Ya no puedo formar parte del panel de expertos SSI de Meta, porque ya no creo que nuestra voz tenga un impacto positivo real en la seguridad de los niños y jóvenes en sus plataformas”.

En una entrevista con el ObservadorRubæk dijo: “A primera vista parece que les importa, tienen estos grupos de expertos y demás, pero detrás de escena hay otra agenda que es una prioridad más alta para ellos”.

leer más  2 buenas películas y 2 series de televisión – Mobile-review.com – Todo sobre equipos y tecnología móviles

Esa agenda, dijo, era “cómo mantener la interacción de sus usuarios y ganar su dinero manteniéndolos en este estricto control de la pantalla, recopilando datos de ellos, vendiéndolos, etc.”.

La psicóloga Lotte Rubæk dice que Meta “utiliza muchos trucos” para evitar eliminar contenido. Fotografía: Linda Kastrup/Ritzau Scanpix/Alamy

Un portavoz de Meta dijo: “El suicidio y las autolesiones son cuestiones complejas y las tomamos increíblemente en serio. Hemos consultado con expertos en seguridad, incluidos aquellos de nuestro grupo asesor sobre suicidio y autolesiones, durante muchos años y sus comentarios nos han ayudado a seguir logrando avances significativos en este espacio.

“Más recientemente, anunciamos que ocultaremos el contenido que analice el suicidio y las autolesiones de los adolescentes, incluso si lo comparte alguien a quien siguen, una de las muchas actualizaciones que hemos realizado después de una cuidadosa discusión con nuestros asesores”.

La advertencia de Rubæk surge cuando una nueva investigación de Ofcom publicado la semana pasada descubrió que el contenido violento en línea es “inevitable” para los niños en el Reino Unido, muchos de los cuales quedan expuestos por primera vez cuando aún están en la escuela primaria. Entre las principales aplicaciones mencionadas por los entrevistados se encuentra Instagram.

Rubæk, que dirige el equipo de autolesiones en psiquiatría infantil y adolescente en la región capital de Dinamarca, fue contactada por primera vez para unirse al selecto grupo de expertos, que cuenta con 24 miembros que figuran en la lista pública, en diciembre de 2020. La invitación se produjo después de que ella criticara públicamente Meta, entonces conocida como Facebook, a través de una red Instagram vinculada a suicidios de mujeres jóvenes en Noruega y Dinamarca tras un documental de la emisora ​​danesa DR.

leer más  La actualización KB5031455 de Windows 11 causa problemas en algunos juegos

Aceptó unirse con la esperanza de ayudar a cambiar la plataforma para hacerla más segura para los jóvenes. Después de un par de años de que se ignoraran sus sugerencias (la cadena original que criticaba aún existe), llegó a la conclusión de que el panel era solo para mostrar.

Ahora cree que la invitación podría haber sido un intento de silenciarla. “Tal vez querían que yo fuera parte de ellos para no ser tan crítico con ellos en el futuro”.

En correos electrónicos vistos por el Observador Rubæk planteó las dificultades que enfrentaban los usuarios al intentar informar a Meta sobre imágenes potencialmente desencadenantes en octubre de 2021. En correspondencia con Martin Ruby, jefe de políticas públicas de Meta en los países nórdicos, Ella dijo que había intentado reportar una imagen de una mujer demacrada pero recibió un mensaje de Instagram diciendo que no tenían suficientes moderadores para mirar la imagen, que permaneció en la plataforma.

En respuesta, Ruby dijo en noviembre de 2021: “Nuestra gente lo está analizando, pero no es tan simple”. En el mismo correo electrónico, mencionó la red secreta de Instagram que Rubæk había criticado originalmente, diciendo que Meta estaba “mirando más de cerca”.

Pero a pesar de su vínculos bien documentados con suicidiosRubæk afirma que la red sigue funcionando hoy en día.

Los pacientes de Rubæk le dicen que han intentado denunciar imágenes de autolesión en Instagram, pero que a menudo lo hacen. Un cliente dijo que después de reportar una imagen, esta desapareció, pero luego la vio a través de la cuenta de un amigo, sugiriendo que solo la habían quitado de su vista. Meta “hace muchos trucos” para evitar la eliminación de contenido, dijo Rubæk.

leer más  Streamer IShowSpeed se intoxica en directo por hacer el experimento de la pasta de dientes del elefante en un espacio cerrado

“La IA es tan inteligente que encuentra incluso el pezón más pequeño en una foto”. Pero cuando se trata de imágenes gráficas de autolesión que se ha demostrado que inspiran a otros a hacerse daño a sí mismos, añadió, parece ser una historia diferente.

{{#corazón}}

{{arriba a la izquierda}}

{{abajo a la izquierda}}

{{parte superior derecha}}

{{abajo a la derecha}}

{{#goalExceededMarkerPercentage}}{{/goalExceededMarkerPercentage}}{{/ticker}}

{{título}}

{{#párrafos}}

{{.}}

{{/paragraphs}}{{texto resaltado}}
{{#choiceCards}}

Una vezMensualAnual

Otro

{{/choiceCards}}Nos pondremos en contacto contigo para recordarte que contribuyas. Esté atento a un mensaje en su bandeja de entrada en . Si tiene alguna pregunta sobre cómo contribuir, comuníquese con nosotros.
2024-03-16 18:39:00
1710615240
#Importante #asesor #renuncia #porque #Instagram #eliminó #contenido #autolesiones #Instagram

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.