El mundo “podría no tener tiempo” para prepararse ante los riesgos de seguridad que plantean los sistemas de inteligencia artificial de vanguardia, según un destacado experto de la Agencia Aria, el organismo de investigación científica del gobierno británico.
David Dalrymple, director de programa y experto en seguridad de la IA en la agencia Aria, declaró a The Guardian que la población debería preocuparse por la creciente capacidad de esta tecnología.
“Considero que debemos preocuparnos por los sistemas que pueden realizar todas las funciones que los humanos desempeñan para lograr resultados en el mundo, pero de manera superior”, afirmó. “Seremos superados en todos los ámbitos en los que necesitamos ser dominantes para mantener el control de nuestra civilización, sociedad y planeta.”
Dalrymple señaló que existe una brecha en la comprensión entre el sector público y las empresas de IA sobre el poder de los avances tecnológicos que se avecinan.
“Aconsejo que las cosas se están moviendo muy rápido y que podríamos no tener tiempo para adelantarnos desde la perspectiva de la seguridad”, advirtió. “No es ciencia ficción proyectar que, en cinco años, la mayoría de las tareas económicamente valiosas serán realizadas por máquinas con un nivel de calidad superior y a un costo menor que el de los humanos.”
Dalrymple enfatizó que los gobiernos no deben asumir que los sistemas avanzados son fiables. Aria recibe financiación pública, pero es independiente del gobierno y dirige la financiación de la investigación. Dalrymple está desarrollando sistemas para salvaguardar el uso de la IA en infraestructuras críticas, como las redes energéticas.
“No podemos asumir que estos sistemas son fiables. La ciencia para lograrlo probablemente no se materializará a tiempo, dadas las presiones económicas. Por lo tanto, lo mejor que podemos hacer, y que quizás podamos lograr a tiempo, es controlar y mitigar los inconvenientes”, explicó.
Describiendo las consecuencias de que el progreso tecnológico supere a la seguridad como una “desestabilización de la seguridad y la economía”, Dalrymple señaló que se necesita más trabajo técnico para comprender y controlar el comportamiento de los sistemas de IA avanzados.
“El progreso puede considerarse desestabilizador, pero en realidad podría ser beneficioso, algo que muchos de los que están en la vanguardia esperan. Estoy trabajando para intentar que las cosas vayan mejor, pero es un riesgo muy alto y la civilización humana en su conjunto está entrando en esta transición como sonámbulos”, añadió.
Este mes, el Instituto de Seguridad de la IA (AISI) del gobierno británico declaró que las capacidades de los modelos de IA avanzados están “mejorando rápidamente” en todos los ámbitos y que el rendimiento en algunas áreas se está duplicando cada ocho meses.
Según el instituto, los modelos líderes ahora pueden completar tareas de nivel de aprendiz en un 50% de las ocasiones, en comparación con aproximadamente el 10% del año pasado. El AISI también descubrió que los sistemas más avanzados pueden completar de forma autónoma tareas que llevarían más de una hora a un experto humano.
El instituto también probó modelos avanzados para la autorreplicación, una preocupación clave en materia de seguridad, ya que implica que un sistema propague copias de sí mismo a otros dispositivos y sea más difícil de controlar. Las pruebas mostraron que dos modelos de vanguardia lograron tasas de éxito de más del 60%.
Sin embargo, el AISI enfatizó que un escenario pesimista es poco probable en un entorno cotidiano, afirmando que cualquier intento de autorreplicación “es poco probable que tenga éxito en condiciones del mundo real”.
Dalrymple cree que los sistemas de IA podrán automatizar el equivalente a un día completo de trabajo de investigación y desarrollo para finales de 2026, lo que “resultará en una mayor aceleración de las capacidades”, ya que la tecnología podrá mejorarse a sí misma en los elementos matemáticos y de informática del desarrollo de la IA.
