La inteligencia artificial se ha convertido en un campo de batalla donde la protección de los secretos es tan importante como el desarrollo de los modelos. Google ha revelado recientemente que ha frustrado un intento masivo de clonación de Gemini, su modelo de IA más avanzado, a través de una ofensiva basada en más de 100.000 consultas.
Según informa Android Headlines, los atacantes utilizaron más de 100.000 entradas para analizar las respuestas del chatbot ante diversos estilos y temas. Esta técnica, conocida como «destilación», permite entrenar modelos de IA competidores robando propiedad intelectual sin necesidad de hackear sistemas complejos, simplemente abusando del acceso a la API que Google ofrece a los desarrolladores.
El ataque de destilación: ¿cómo intentaron robar la IA de Google?
Se ha usado un ataque de destilación para intentar clonar a Gemini
La seguridad de los servicios de Google siempre es una prioridad, y este no es el primer incidente crítico que enfrenta la compañía. El año pasado, se produjo una filtración que comprometió los datos de miles de millones de usuarios de Gmail. En esta ocasión, el objetivo no eran los usuarios, sino el núcleo algorítmico que impulsa a Gemini.
Este tipo de ataques se han vuelto comunes en el sector. Hace unos meses, OpenAI confirmó una importante brecha de seguridad que expuso datos sensibles, demostrando que los sistemas de IA son un objetivo prioritario. El interés en clonar estas herramientas se justifica por su valor de mercado: Gemini ya cuenta con cerca de 750 millones de usuarios, consolidándose como un activo estratégico fundamental para Google en su competencia comercial.
Afortunadamente, los sistemas de monitorización detectaron el volumen inusual de consultas en tiempo real y bloquearon las cuentas implicadas. Google aprovechó para recordar que su propia IA también actúa como defensa, algo que ya demostró al descubrir el primer fallo de seguridad gracias a la inteligencia artificial hace poco más de un año. Se trata de una dinámica constante donde la tecnología es tanto el arma como la defensa.
La compañía ha confirmado que no se produjo una brecha de datos personales, pero ha reforzado los protocolos de acceso a sus modelos más avanzados. Los atacantes intentaron ajustar idiomas y tipos de preguntas para forzar al sistema a revelar su «cadena de pensamiento» interna. Estas prácticas ponen en riesgo la ventaja competitiva de las grandes empresas tecnológicas que invierten miles de millones en investigación y desarrollo de redes neuronales.
El futuro de la red dependerá no solo de quién ofrece el asistente más inteligente, sino de quién sea capaz de proteger su lógica interna ante ataques masivos. Google también ha informado que el uso de la API para generar código malicioso o correos de phishing forma parte de su informe de amenazas, confirmando que la IA generativa es una herramienta poderosa y peligrosa si cae en las manos equivocadas.
La seguridad absoluta no existe, especialmente en un entorno tan nuevo como el de los modelos de lenguaje. Google ha logrado detener este intento de clonación, pero la lección es clara: el espionaje industrial se ha vuelto digital y automatizado. Queda por ver si las nuevas medidas de contención serán suficientes para evitar que alguien logre obtener una copia del modelo más avanzado de Google.
