La inteligencia artificial (IA) ha facilitado enormemente la identificación de cuentas anónimas en redes sociales por parte de ciberdelincuentes, según advierte un nuevo estudio.
En la mayoría de los escenarios probados, los modelos de lenguaje de gran tamaño (LLM) –la tecnología que impulsa plataformas como ChatGPT– lograron asociar con éxito a usuarios anónimos en línea con sus identidades reales en otras plataformas, basándose en la información que estos habían publicado.
Los investigadores de IA, Simon Lermen y Daniel Paleka, señalan que los LLM hacen que los ataques sofisticados a la privacidad sean más rentables, lo que obliga a una “reconsideración fundamental” de lo que puede considerarse privado en línea.
En su experimento, los investigadores introdujeron cuentas anónimas en una IA y le permitieron recopilar toda la información posible. Presentaron un ejemplo hipotético de un usuario que hablaba de sus dificultades en la escuela y de pasear a su perro, Biscuit, por un parque en Dolores. En ese caso hipotético, la IA buscó esos detalles en otros lugares y asoció a @anon_user42 con una identidad conocida con un alto grado de confianza.
Aunque este ejemplo era ficticio, los autores del estudio destacaron escenarios en los que los gobiernos utilizan la IA para vigilar a disidentes y activistas que publican de forma anónima, o en los que los piratas informáticos pueden lanzar estafas “altamente personalizadas”.
La vigilancia con IA es un campo en rápido desarrollo que está causando alarma entre los científicos informáticos y los expertos en privacidad. Utiliza los LLM para sintetizar información sobre un individuo en línea que sería impráctica de reunir manualmente para la mayoría de las personas.
La información sobre el público que ya está disponible en línea puede ser “mal utilizada fácilmente” para estafas, según Lermen, incluido el spear-phishing, donde un pirata informático se hace pasar por un amigo de confianza para que las víctimas sigan un enlace malicioso en su bandeja de entrada.
Con la reducción de los requisitos de experiencia para llevar a cabo ataques más desarrollados, los piratas informáticos solo necesitan acceso a modelos de lenguaje disponibles públicamente y a una conexión a Internet.
Peter Bentley, profesor de informática en UCL, expresó su preocupación por los usos comerciales de la tecnología “si y cuando salgan al mercado productos para la desanonimización”.
Un problema es que los LLM a menudo cometen errores al vincular cuentas. “Se va a acusar a la gente de cosas que no han hecho”, advirtió Bentley.
Otra preocupación, planteada por el profesor Marc Juárez, profesor de ciberseguridad en la Universidad de Edimburgo, es que los LLM pueden utilizar datos públicos más allá de las redes sociales: los registros hospitalarios, los datos de admisión y otras publicaciones estadísticas podrían no cumplir con el alto nivel de anonimización necesario en la era de la IA.
“Es bastante alarmante. Creo que este estudio muestra que deberíamos reconsiderar nuestras prácticas”, afirmó Juárez.
La IA no es un arma mágica contra el anonimato en línea. Si bien los LLM pueden desanonimizar registros en muchas situaciones, a veces no hay suficiente información para llegar a conclusiones. En muchos casos, el número de posibles coincidencias es demasiado grande para reducirlo.
“Solo pueden vincular plataformas donde alguien comparte constantemente la misma información en ambos lugares”, explicó la profesora Marti Hearst de la escuela de información de UC Berkeley.
Aunque la tecnología no es perfecta, los científicos ahora están pidiendo a las instituciones y a los individuos que reconsideren cómo anonimizan los datos en el mundo de la IA.
Lermen ha recomendado que las plataformas restrinjan el acceso a los datos como primer paso: aplicando límites de velocidad a las descargas de datos de los usuarios, detectando el raspado automatizado y restringiendo las exportaciones masivas de datos. También señaló que los usuarios individuales pueden tomar mayores precauciones sobre la información que comparten en línea.
