La conservación masiva de datos pone de manifiesto los riesgos para los usuarios de ChatGPT.
En pocas palabras
- Un tribunal ha ordenado a OpenAI entregar 20 millones de registros de ChatGPT, lo que plantea interrogantes sobre la privacidad de los datos.
- A diferencia de las VPN “sin registros”, los chatbots de IA a menudo conservan el historial de conversaciones e información de los usuarios, exponiendo los datos a obligaciones legales.
- Para proteger su privacidad, se recomienda utilizar soluciones locales, consultar las políticas de privacidad y combinar un uso razonable de la IA con una VPN.
Una decisión judicial que cuestiona la confidencialidad de la IA
La orden dada a OpenAI de entregar 20 millones de registros provenientes de ChatGPT, incluso supuestamente “desidentificados”, reaviva un debate crucial sobre la gestión de los datos personales por parte de las herramientas de inteligencia artificial. Si bien esta solicitud se enmarca en un caso relacionado con los derechos de autor, destaca principalmente la cantidad colosal de información recopilada y almacenada por estas plataformas. Cabe señalar que la cifra inicial mencionada, 120 millones, ilustra hasta qué punto estas bases de datos son vastas y potencialmente sensibles.
La ausencia de una política de “no registros” en los chatbots
A diferencia de los proveedores de VPN de renombre, que se basan en una estricta política de “no registros”, pocos actores de la IA ofrecen este nivel de protección. En el caso de las VPN, un compromiso firme garantiza que no se conserve ningún dato personal o identificador. Esto significa que, si se produce una solicitud judicial, no hay nada que entregar: algunos proveedores han visto su política validada ante los tribunales, como en el caso que involucró a Windscribe en Grecia, donde el caso fue archivado por falta de pruebas.
Para comprender mejor la diferencia entre estos dos universos, basta con recordar que:
- VPNs: gracias a las políticas de “no registros”, no hay datos de usuario identificables disponibles para las autoridades.
- Chatbots de IA: a menudo recopilan y conservan el historial de intercambios, así como información sobre el dispositivo o la ubicación.
Implicaciones legales y prácticas para los usuarios
La retención prolongada de las conversaciones –a veces hasta su eliminación manual por parte del usuario– deja un halo de incertidumbre: las promesas mostradas en las cartas no siempre coinciden con las obligaciones legales. Un caso anterior que enfrentó a The New York Times con OpenAI ya obligaba a esta última a conservar ciertos contenidos indefinidamente, revelando la brecha entre la comunicación y la realidad operativa.
Ante esta situación, el Dr. Ilia Kolochenko (ImmuniWeb) aconseja una mayor vigilancia: cualquier interacción con una IA puede terminar ante un tribunal. Advierte especialmente sobre el riesgo de que ciertos elementos producidos se utilicen en investigaciones judiciales o conduzcan a acciones legales.
Pistas para recuperar el control de sus datos personales
En un contexto en el que evitar por completo el uso de la IA se vuelve utópico, dado que se impone en la vida profesional diaria, surgen algunas alternativas. Los modelos locales, como Lumo, desarrollados por Proton, garantizan un procesamiento en el propio dispositivo del usuario sin tránsito a un servidor central. Si bien son menos potentes que sus homólogos en la nube, ofrecen un mejor control de la confidencialidad.
Último consejo: consultar sistemáticamente la política de privacidad antes de compartir cualquier información sensible sigue siendo indispensable. Además, combinar un uso razonable de una VPN y una preferencia por soluciones locales ayuda a mitigar significativamente los riesgos asociados con el almacenamiento masivo impuesto por los gigantes de la IA.
