El debate sobre la prohibición de las redes sociales para menores está ganando terreno en Europa y Estados Unidos. Australia ya implementó en diciembre una restricción de acceso a estas plataformas para menores de 16 años, mientras que en Francia la Asamblea Nacional ha aprobado un proyecto de ley que prohíbe su uso a menores de 15 años. En Italia, la discusión también está abierta, con propuestas legislativas que buscan limitar el acceso de los más jóvenes.
Estas medidas drásticas ejercen presión sobre las grandes empresas tecnológicas. Para evitar restricciones generalizadas, las principales plataformas están fortaleciendo sus herramientas de protección interna, introduciendo nuevos sistemas de control y prevención.
La nueva función de Instagram
En este contexto, Meta Platforms ha anunciado una nueva funcionalidad para Instagram. La plataforma ha lanzado en Estados Unidos, Reino Unido, Australia y Canadá una función que alerta a los padres cuando un adolescente realiza búsquedas repetidas de términos relacionados con el suicidio o la autolesión. Se prevé que la extensión a otros países, incluyendo Italia, se realice antes de fin de año.
Es la primera vez que una red social introduce un sistema de notificación proactiva de este tipo. Hasta ahora, plataformas como TikTok, YouTube y Snapchat se habían limitado a bloquear ciertas búsquedas o a mostrar recursos de apoyo, sin involucrar directamente a las familias. Las notificaciones de Instagram se enviarán por correo electrónico, SMS, WhatsApp o a través de una alerta dentro de la aplicación, acompañadas de pautas sobre cómo abordar el diálogo con los hijos.
Inteligencia artificial y nuevas responsabilidades
El siguiente paso se centra en la inteligencia artificial. Meta está desarrollando sistemas de alerta similares para las interacciones con Meta AI, con el objetivo de informar a los padres si los jóvenes intentan iniciar conversaciones sobre temas delicados.
Mientras tanto, en Estados Unidos, se multiplican las acciones legales contra empresas de IA, acusadas de crear chatbots potencialmente dañinos para los más jóvenes. La extensión de las alertas también a las conversaciones con la IA representa, según los expertos, un paso coherente con la evolución de los hábitos digitales de los adolescentes, quienes cada vez más se confían a los asistentes virtuales.
