Este artículo se basa en una conversación con Harsh Varshney, de 31 años, quien trabaja en Google y vive en Nueva York. El siguiente texto ha sido editado para mayor brevedad y claridad.
La inteligencia artificial (IA) se ha convertido rápidamente en un socio silencioso en nuestra vida diaria, y no puedo imaginar la vida sin herramientas de IA.
En mi día a día, me ayudan con investigaciones profundas, toma de notas, programación y búsquedas en línea.
Sin embargo, mi trabajo me hace ser muy consciente de las preocupaciones sobre la privacidad asociadas con el uso de la IA. He trabajado en Google desde 2023 y pasé dos años como ingeniero de software en el equipo de privacidad, construyendo la infraestructura para proteger los datos de los usuarios. Luego me cambié al equipo de seguridad de Chrome IA, donde ayudo a proteger Google Chrome de amenazas maliciosas, como hackers y aquellos que utilizan agentes de IA para llevar a cabo campañas de phishing.
Los modelos de IA utilizan datos para generar respuestas útiles, y nosotros, los usuarios, debemos proteger nuestra información privada para que entidades dañinas, como los ciberdelincuentes y los corredores de datos, no puedan acceder a ella.
Aquí hay cuatro hábitos que he adoptado que creo que son esenciales para proteger mis datos al usar la IA.
Trata la IA como una postal pública
A veces, una falsa sensación de intimidad con la IA puede llevar a las personas a compartir información en línea que nunca compartirían de otra manera. Las empresas de IA pueden tener empleados que trabajan en mejorar los aspectos de privacidad de sus modelos, pero no es aconsejable compartir detalles de tarjetas de crédito, números de la Seguridad Social, su domicilio, historial médico personal u otra información de identificación personal con los chatbots de IA.
Dependiendo de la versión que se utilice, la información compartida con los chatbots de IA públicos puede utilizarse para entrenar modelos futuros y generar respuestas más relevantes. Esto podría resultar en una «fuga de entrenamiento», donde el modelo memoriza información personal de un usuario y luego la repite en las respuestas a otro. Además, existe el riesgo de filtraciones de datos, que expondrían lo que ha compartido con un chatbot.
Trato a los chatbots de IA como una postal pública. Si no escribiría una información en una postal que pudiera ser vista por cualquiera, no la compartiría con una herramienta de IA pública. No confío en cómo se podrían utilizar mis datos para futuros entrenamientos.
Conoce en qué ‘habitación’ estás
Es importante identificar si está utilizando una herramienta de IA más pública o una de nivel empresarial.
Si bien no está claro cómo se utilizan las conversaciones para entrenar los modelos de IA públicos, las empresas pueden pagar por modelos «empresariales». Aquí, los modelos normalmente no están diseñados para entrenarse con las conversaciones de los usuarios, por lo que es más seguro para los empleados hablar sobre su trabajo y proyectos de la empresa.
Piense en ello como tener una conversación en una cafetería llena de gente donde podría ser escuchado, en comparación con una reunión confidencial en su oficina que permanece dentro de la sala.
Se ha informado de casos en los que los empleados han filtrado accidentalmente datos de la empresa a ChatGPT. Si trabaja en proyectos de la empresa que no se han lanzado o está intentando obtener una patente, probablemente no querrá discutir sus planes con un chatbot que no sea de nivel empresarial debido al riesgo de filtración.
No discuto los proyectos en los que estoy trabajando en Google con chatbots públicos. En cambio, utilizo un modelo empresarial, incluso para tareas tan pequeñas como editar un correo electrónico de trabajo. Me siento mucho más cómodo compartiendo mi información porque mis conversaciones no se utilizan para el entrenamiento, pero aún así minimizo la información personal que comparto.
Elimina tu historial regularmente
Los chatbots de IA suelen guardar un historial de sus conversaciones, pero recomiendo eliminarlo tanto en los modelos empresariales como en los públicos de forma regular para proteger su privacidad de usuario a largo plazo. Debido al riesgo de que su cuenta se vea comprometida, es un buen hábito preventivo, incluso si confía en que no está introduciendo datos privados en las herramientas.
Una vez, me sorprendió que un chatbot Gemini empresarial pudiera decirme mi dirección exacta, aunque no recordaba haberla compartido. Resultó que anteriormente le había pedido que me ayudara a refinar un correo electrónico, que incluía mi dirección. Debido a que la herramienta tiene funciones de memoria a largo plazo, lo que le permite recordar información de conversaciones anteriores, pudo identificar cuál era mi dirección y conservarla.
A veces, si estoy buscando cosas que no quiero que el chatbot recuerde, utilizo un modo especial, similar al modo incógnito, donde los bots no almacenan mi historial ni utilizan la información para entrenar modelos. ChatGPT y Gemini llaman a esto la función de «chat temporal».
Utiliza herramientas de IA bien conocidas
Es mejor utilizar herramientas de IA que sean bien conocidas y que tengan más probabilidades de tener marcos de privacidad claros y otras salvaguardias en su lugar.
Además de los productos de Google, me gusta utilizar ChatGPT de OpenAI y Claude de Anthropic.
También es útil revisar las políticas de privacidad de cualquier herramienta que utilice. A veces, explicarán más sobre cómo se utilizan sus datos para entrenar el modelo. En la configuración de privacidad, también puede buscar una sección con la opción de «mejorar el modelo para todos». Al asegurarse de que esa configuración esté desactivada, evitará que sus conversaciones se utilicen para el entrenamiento.
La tecnología de la IA es increíblemente poderosa, pero debemos tener cuidado para garantizar que nuestros datos y nuestra identidad estén seguros cuando la utilizamos.
¿Tiene una historia que compartir sobre el uso de la IA para ayudarle en el trabajo? Póngase en contacto con este reportero en ccheong@businessinsider.com
