Los sistemas de inteligencia artificial (IA) agentes son cada vez más capaces de realizar tareas complejas con una mínima intervención humana. Al mismo tiempo, no existe un consenso sobre los estándares de seguridad y comportamiento de los agentes de IA. Estas y otras conclusiones se desprenden del AI Agent Index 2025, un estudio del Computer Science & Artificial Intelligence Laboratory (CSAIL) del Massachusetts Institute of Technology (MIT).
Para el AI Agent Index, un equipo de científicos de diversas universidades analizó treinta agentes de IA. La base de su investigación fue información de dominio público o correspondencia con los desarrolladores. Los investigadores se centraron en el origen, el alcance de las funciones, las arquitecturas del sistema y las medidas de seguridad de los sistemas de IA agentes más comunes.
Desarrollos rápidos
Según el estudio, es evidente que la popularidad de los sistemas de IA agentes aumentó masivamente el año pasado. El interés no se limita, según el estudio, al público en general. Esto se refleja, por ejemplo, en un aumento de las búsquedas relacionadas en Google. También ha aumentado el número de publicaciones científicas sobre IA basada en agentes, más que duplicándose en 2025 en comparación con el período 2020-2024. Esto es lógico, ya que tales sistemas no existían antes de 2023.
Los científicos señalan que el desarrollo de los sistemas de IA agentes también está ocurriendo rápidamente. El ochenta por ciento de los agentes de IA estudiados en el estudio fueron publicados o recibieron actualizaciones significativas de sus capacidades de agente entre 2024 y 2025. Al mismo tiempo, se revela una dependencia estructural significativa de las grandes empresas de IA. Esto se debe a que la mayoría de los agentes de IA utilizan las familias de modelos GPT, Claude o Gemini de las grandes corporaciones de IA estadounidenses. Estas empresas compiten, como es bien sabido, en una especie de carrera por nuevos modelos de IA, incluidos aquellos con capacidades de agente.
Los fabricantes revelan poca información sobre seguridad
A pesar del creciente interés en los agentes de IA, los científicos señalan que siguen siendo opacos aspectos importantes del desarrollo y la implementación de los agentes de IA. Falta información de acceso público, especialmente para investigadores y responsables políticos. Los modelos mencionados son, en última instancia, todos propietarios, y se sabe muy poco sobre su estructura y datos de entrenamiento.
Según los científicos, solo cuatro de los trece agentes de IA estudiados con un alto grado de autonomía revelan evaluaciones de seguridad. Veinticinco de los treinta sistemas de IA agentes analizados no publicaron los resultados de investigaciones internas sobre la seguridad del producto.
Estándares de comportamiento y responsabilidades no aclarados
El AI Agent Index 2025 también revela que los estándares de comportamiento para los agentes de IA están insuficientemente regulados. Muchos de los agentes simplemente ignoran los archivos robots.txt de los sitios web. El archivo robots.txt es un archivo de texto en el directorio raíz de un sitio web que proporciona instrucciones a los rastreadores web sobre qué áreas pueden buscar y analizar de forma automatizada y cuáles no. Algunos de los agentes de IA estudiados por los científicos del MIT incluso están diseñados explícitamente para eludir los sistemas anti-bot.
Además, la cuestión de la responsabilidad por el mal comportamiento y los problemas de seguridad de los sistemas de IA agentes es fundamentalmente difícil. Debido a que la mayoría de los agentes se basan en los modelos de IA de grandes desarrolladores como OpenAI, Google o Anthropic, no está claro quién debe asumir la responsabilidad.
De hecho, el propio CEO de OpenAI, Sam Altman, advierte contra el uso de sistemas de agentes. Estos son particularmente fáciles de atacar, por ejemplo, mediante inyecciones de prompts. Esto implica proporcionar a los agentes instrucciones ocultas. Para ser utilizados de forma significativa, los agentes necesitan acceso a la información y cierto margen de maniobra, por ejemplo, acceso a correos electrónicos, calendarios o similares.
(rah)
