Los chatbots de inteligencia artificial como ChatGPT se han convertido en una herramienta indispensable para muchos, tanto en tareas profesionales como personales. Sin embargo, compartir datos sensibles o utilizar funciones conectadas puede aumentar los riesgos para la seguridad de la información. Para proteger a sus usuarios, OpenAI ha introducido dos nuevas funciones de seguridad: las etiquetas de Riesgo Elevado y el Modo Bloqueo.
Las etiquetas alertarán a los usuarios cuando una función conectada a la web pueda exponer más datos, mientras que el Modo Bloqueo limitará la forma en que ChatGPT se conecta a sistemas externos. La compañía afirma que estas funciones están diseñadas para proporcionar a los usuarios alertas más claras y un mayor control sobre su información, al tiempo que se reduce el riesgo de ataques de inyección de prompts. “A medida que los sistemas de IA asumen tareas más complejas, especialmente aquellas que involucran la web y aplicaciones conectadas, las implicaciones de seguridad cambian. Un riesgo emergente se ha vuelto especialmente importante: la inyección de prompts”, explicó la empresa en su blog oficial. “Estamos introduciendo dos nuevas protecciones diseñadas para ayudar a los usuarios y organizaciones a mitigar los ataques de inyección de prompts, con una mayor visibilidad del riesgo y controles más sólidos.”
¿Cuál es la amenaza de la inyección de prompts?
La inyección de prompts es una técnica en la que los hackers ocultan instrucciones maliciosas dentro de páginas web o archivos para engañar a un sistema de IA y que revele información confidencial o realice acciones no deseadas. Con millones de personas en todo el mundo utilizando chatbots de IA como ChatGPT para tareas como leer documentos, navegar por la web o conectarse a otras aplicaciones, los riesgos asociados a estas tácticas son cada vez mayores.
Las nuevas herramientas de OpenAI en ChatGPT tienen como objetivo proteger a los usuarios de estas amenazas.
¿Qué es el Modo Bloqueo en ChatGPT?
OpenAI ha introducido el Modo Bloqueo como una configuración opcional que restringe estrictamente la forma en que ChatGPT interactúa con sistemas externos. Al activarlo, se limitarán o desactivarán ciertas herramientas y conexiones, como la navegación web en vivo o las integraciones que envían y reciben información de servicios externos. Al reducir estas interacciones externas, OpenAI busca disminuir la “superficie de ataque” que los hackers podrían explotar.
Según la compañía, el Modo Bloqueo no es necesario para la mayoría de los usuarios habituales. Está diseñado principalmente para personas que manejan información altamente sensible o que creen que pueden estar en un riesgo elevado, como periodistas, ejecutivos, investigadores o profesionales de la seguridad.
¿Qué son las etiquetas de Riesgo Elevado en ChatGPT?
Junto con el Modo Bloqueo, OpenAI también está introduciendo las etiquetas de Riesgo Elevado dentro de ChatGPT. Estas etiquetas aparecerán junto a las herramientas o funciones que implican una mayor exposición al contenido o sistemas externos.
Por ejemplo, si una función se conecta a contenido externo o proporciona un acceso más amplio al sistema, ChatGPT mostrará una alerta visible sobre los riesgos potenciales. Esto ayudará a los usuarios a decidir si continuar o mantener la privacidad. OpenAI señala que muchas de las herramientas más potentes de ChatGPT dependen de conexiones externas, ya sea navegando por la web, analizando archivos cargados o interactuando con aplicaciones de terceros. Estas capacidades hacen que la IA sea más útil, pero también pueden introducir vulnerabilidades si se utilizan de forma incorrecta. Al ofrecer advertencias más claras y un modo de seguridad más estricto, la compañía pretende reducir estos riesgos sin limitar la experiencia de la mayoría de los usuarios.
– Fin
