Lo que estalla en las últimas horas en manos de Dario Amodei es la contradicción en la que viven desde hace años los creadores de una inteligencia artificial cada vez más potente y difícil de controlar: por un lado, sienten una gran necesidad de impulsar al máximo las fronteras del conocimiento, y por otro, crece en ellos la conciencia de los peligros asociados al desarrollo de máquinas capaces de sustituir al ser humano en el trabajo e incluso en el campo de batalla, de vigilar y espiar a los ciudadanos de forma exhaustiva y, quizás, incluso de escapar al control de sus creadores.
Entusiasmos y tormentos que recuerdan a los de Robert Oppenheimer y otros científicos que crearon la bomba atómica: alegría científica, dudas éticas, la relación con los supervisores militares, primero cordial, luego cada vez más conflictiva.
En realidad, existen grandes diferencias. Históricas (en Los Álamos se corría a toda velocidad por la urgencia impuesta por la guerra y el temor a que el Tercer Reich fuera el primero en desarrollar el arma nuclear) y materiales: la bomba atómica implica un único riesgo específico, aunque inmenso, la explosión, y su proliferación puede controlarse vigilando las producciones físicas y tangibles: uranio enriquecido, centrifugadoras, plutonio.
La IA, en cambio, puede utilizarse para diversos fines violentos: guiar enjambres de drones hacia un objetivo, producir armas bacteriológicas, paralizar redes eléctricas o de comunicación, alimentar robots guerreros capaces de atacar sin intervención humana. También son posibles usos que asestarían nuevos golpes a nuestras ya debilitadas democracias: especialmente sistemas de vigilancia masiva basados en massive data y reconocimiento facial con los que rastrear a los ciudadanos, lo que hacen, a dónde van.
No es ciencia ficción: basta con mirar a China y su sistema de calificación social. E incluso si se llegara a un acuerdo para impedir usos devastadores de la IA, sería casi imposible verificar su cumplimiento: nada físico, verificable, solo la consistencia impalpable del software.
Amodei, que conoce todos estos riesgos, pero continúa acelerando el desarrollo de inteligencias cada vez más potentes mientras sigue pidiendo a los gobiernos reglas y salvaguardias contra los riesgos existenciales que denuncia (y también contra la posible destrucción masiva de puestos de trabajo), parece cada vez más un personaje que encajaría en las obras de Dostoievski, Pirandello o Shakespeare: un científico que quiere salvar al mundo de la tecnología que él mismo está construyendo.
Esta contradicción encuentra su explicación en su biografía: la convicción de que la tecnología debe progresar a la máxima velocidad posible, reforzada por la muerte de su padre, víctima de una enfermedad rara que se volvió curable poco después de su fallecimiento. Una investigación un poco más rápida lo habría salvado. Amodei, por lo tanto, acelera, pero también pide reglas, quiere que la sociedad y la política comprendan la magnitud de la revolución que se avecina, preparándose a tiempo. Y estudia sistemas de seguridad para insertar en los sistemas de Anthropic.
Amodei no es el único que se ha planteado estos problemas éticos. Hay científicos, como Joshua Bengio y Stuart Russell, que ya han levantado el pie del acelerador. El caso más conocido: el premio Nobel Geoffrey Hinton, definido como el «padrino de la inteligencia artificial», ha dejado la investigación de Google para poder denunciar libremente los riesgos a los que se expone la humanidad. Incluso los empresarios y genios industriales de Silicon Valley ven estos peligros y los han denunciado en el pasado. Sin embargo, prevaleció el deseo de destacar, de conquistar beneficios y poder.
Esto se aplica a Elon Musk: el primero en denunciar, hace años, el riesgo de los robots asesinos. Y el primero, hoy, en «descargar» a Amodei: ofrece al Pentágono su xAI con la esperanza de sustituir a Anthropic. Pero el personaje clave es Sam Altman de OpenAI. Cuando lanzó ChatGPT, recorrió el mundo pidiendo reglas para una tecnología que entusiasmaba al mundo, pero que, advertía, también podía transformarse en un terrible instrumento de destrucción. Hoy, él también ha reducido estas advertencias a un susurro, mientras está a la vanguardia de la carrera tecnológica del gobierno Trump.
La voz de Amodei se ha convertido así en una voz poderosa pero aislada que desafía al aparato militar más poderoso del mundo, arriesgándose a represalias graves, incluso mortales, para su empresa. Se desliza hacia un escenario de pesadilla: mientras lo acusan de socavar la seguridad nacional y se convierte en un estandarte para algunos pacifistas, él, en realidad, ya ha entregado su tecnología a los militares: está en el software de Palantir de Peter Thiel y Alex Karp, grandes proveedores de tecnología militar y para los servicios secretos, aliados de Trump.
Amodei está, además, convencido de que las armas autónomas son inevitables. Solo hay que dejarlas madurar: la tecnología actual es todavía incipiente, sin salvaguardias.
Sus preocupaciones son fundadas, pero el ministro de Guerra, Pete Hegseth, que lo ataca, parece tener, legalmente, la sartén por el mango: reclama manos libres en la carrera tecnológica y militar con China, donde nadie puede objetar por razones éticas o de otro tipo. Y reivindica el derecho a utilizar la tecnología Anthropic «para todos los usos permitidos por la ley». Amodei replica con un argumento jurídicamente irrelevante, pero que nos hace reflexionar a todos: «Los usos de la IA para la vigilancia y el desarrollo de armas autónomas son legales solo porque las leyes no se han adaptado a la realidad de nuevas herramientas de poder sin precedentes».
En cuanto a la vigilancia masiva, con la tecnología de Amodei, Palantir puede crear sistemas penetrantes de rastreo de ciudadanos. No es seguro que esto ocurra, pero para entender el ambiente basta con escuchar a su CEO, Karp: «Me gusta cuando me gritan en Europa. En realidad, deberíais agradecerme. Si no hubiera alguien que se interpusiera entre mí y vosotros con innumerables ataques terroristas, gracias a nuestra tecnología, hoy viviríais en una realidad política muy diferente».
