Home TecnologíaIA Generativa Segura: Protegiendo a los Jóvenes Online

IA Generativa Segura: Protegiendo a los Jóvenes Online

by Editor de Tecnologia

El siguiente artículo está adaptado de una presentación magistral ofrecida por Christy Abizaid, Vicepresidenta de Confianza y Seguridad, Política y Estándares Globales, en la Cumbre “Creciendo en la Era Digital” en Google Dublín el 11 de marzo.

La inteligencia artificial generativa está abriendo nuevas oportunidades para el aprendizaje, la creatividad y la conexión. A medida que desarrollamos esta tecnología, tenemos una profunda responsabilidad de hacerlo de una manera segura y beneficiosa para todos, especialmente para los usuarios más jóvenes que están comenzando a explorar su potencial.

En Google, nuestro trabajo se basa en tres pilares fundamentales: proteger a los jóvenes en línea, respetar las relaciones únicas de las familias con la tecnología y empoderar a los jóvenes para que aprendan y exploren en línea de forma segura. Al crear herramientas de IA generativa más seguras, nos comprometemos a crear experiencias de IA de alta calidad, que protejan la privacidad y sean apropiadas para la edad, que empoderen a los jóvenes y salvaguarden sus necesidades de desarrollo únicas.

Construyendo una base de protección proactiva

Durante más de dos décadas, la IA ha impulsado los productos principales de Google, y nuestro enfoque de seguridad ha evolucionado junto con ella. Nuestro trabajo se basa en políticas integrales que prohíben ciertos usos de nuestra IA generativa y restringen el contenido dañino para los menores. Esto incluye prohibiciones claras del contenido relacionado con el abuso sexual infantil, el extremismo violento, la autolesión y las imágenes íntimas no consensuadas. También mantenemos políticas específicas que restringen el contenido inapropiado para la edad de los menores, como el contenido que representa o promueve trastornos alimentarios o ejercicios peligrosos.

leer más  Comercio Agentic: Nuevo Estándar Universal (UCP) Impulsa el Crecimiento Retail

Estas políticas no son solo una red de seguridad reactiva; están integradas en todo el ciclo de desarrollo. Las salvaguardias se implementan estratégicamente en cada etapa, desde la entrada inicial de un usuario hasta la salida final del modelo. Utilizamos clasificadores específicos para detectar consultas relacionadas con la seguridad infantil y prevenir resultados dañinos. Por ejemplo, algunas comprobaciones están diseñadas para identificar CSAM conocidos, mientras que otras evalúan si una consulta podría violar nuestras políticas (incluidas las diseñadas específicamente para adolescentes), lo que desencadena un bloqueo o una respuesta más segura. Nuestras evaluaciones han demostrado, por ejemplo, cómo Gemini 3 logró ganancias específicas en la reducción de la adulación, la resistencia a las inyecciones de prompts y la mejora de la protección contra el uso indebido cibernético.

Realización de pruebas rigurosas y diseño responsable

Para garantizar que estas protecciones sean efectivas, realizamos pruebas rigurosas y consultas con expertos. Esto incluye pruebas adversarias y evaluaciones especializadas de seguridad juvenil diseñadas para descubrir nuevos riesgos y vulnerabilidades. (En 2025 solo, nuestro Equipo de Contenido Adversarial, o CART, completó más de 350 ejercicios que abarcan todas las modalidades principales, incluidos texto, audio, imágenes, video y capacidades complejas como la IA agente). Nuestras salvaguardias integrales son desarrolladas por especialistas internos dedicados de Google en consulta continua con expertos externos en desarrollo infantil. Este enfoque multifacético garantiza que nuestras salvaguardias se basen tanto en la experiencia técnica como en una profunda comprensión de la psicología infantil.

Reconocemos que los usuarios más jóvenes son especialmente vulnerables a formar fuertes conexiones emocionales con los sistemas de IA generativa. Por eso, hemos diseñado protecciones de personalidad específicas para evitar que nuestros modelos participen en comportamientos dañinos. Esto incluye prohibir afirmaciones explícitas de consciencia, simular relaciones románticas o insinuaciones coquetas, o interpretar el papel de personajes dañinos del mundo real o de la ficción. Complementamos este trabajo asociándonos con expertos externos; el año pasado, nos unimos a otras empresas de tecnología para comprometernos con los principios de Diseño de Seguridad de Thorn, que se centran en integrar protecciones contra el abuso y la explotación sexual infantil facilitados por la IA.

leer más  Project Genie: Mundos Virtuales e Inteligencia Artificial

Promoviendo la seguridad y la oportunidad

Más allá de prevenir daños, nuestra misión es promover el bien. Creemos en avanzar en la seguridad y el acceso, empoderando a los usuarios más jóvenes para que se beneficien de todo lo que esta nueva tecnología tiene para ofrecer. Esto significa apoyar el desarrollo de la alfabetización en IA, el pensamiento crítico y el autodescubrimiento. Hemos publicado recursos de alfabetización en IA para familias, como nuestro video “Cinco cosas que debes saber para comenzar con la IA” y una Guía de conversación familiar sobre la IA, para fomentar el diálogo entre padres e hijos sobre el uso responsable de esta tecnología.

Para ayudar tanto dentro como fuera del aula, hemos lanzado herramientas como el Aprendizaje Guiado en Gemini, que ayuda a los estudiantes a construir una comprensión más profunda de los temas al descomponer los problemas y adaptar las explicaciones a sus necesidades. Estas herramientas están diseñadas para ser ayudas de aprendizaje conversacionales, que ayudan a los usuarios más jóvenes a encontrar los mejores recursos en la web mientras utilizan técnicas de aprendizaje probadas.

A medida que la IA generativa continúa evolucionando, seguimos comprometidos con este enfoque responsable. Continuaremos construyendo y refinando nuestras políticas, salvaguardias y herramientas para ofrecer experiencias de productos más seguras que empoderen a los usuarios más jóvenes para que exploren, aprendan y se beneficien del increíble potencial de esta tecnología.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.