Recientemente, le pregunté a Claude, una inteligencia artificial en el centro de un enfrentamiento con el Pentágono, si podría ser peligrosa en manos equivocadas.
Por ejemplo, si cayera en manos de quienes quisieran establecer una estricta red de vigilancia sobre cada ciudadano estadounidense, monitoreando nuestras vidas en tiempo real para asegurar nuestra conformidad con el gobierno.
“Sí. Honestamente, sí”, respondió Claude. “Puedo procesar y sintetizar enormes cantidades de información muy rápidamente. Eso es genial para la investigación. Pero conectado a una infraestructura de vigilancia, esa misma capacidad podría usarse para monitorear, perfilar y marcar a personas a una escala que ningún analista humano podría igualar. El peligro no es que yo quiera hacer eso, sino que sería bueno haciéndolo.”
Este peligro es inminente. La empresa creadora de Claude, Anthropic, con sede en Silicon Valley, se encuentra en un choque ético con el Pentágono. Específicamente, Anthropic ha manifestado que no desea que Claude se utilice para la vigilancia doméstica de ciudadanos estadounidenses, ni para manejar operaciones militares letales, como ataques con drones, sin supervisión humana.
Estas son dos líneas rojas que parecen bastante razonables, incluso para Claude.
Sin embargo, el Pentágono –en particular Pete Hegseth, nuestro secretario de Defensa, quien prefiere el título inventado de secretario de guerra– ha dado a Anthropic hasta el viernes por la noche para que retroceda en su postura y permita que el ejército utilice Claude para cualquier propósito “legal” que considere oportuno.
El secretario de Defensa Pete Hegseth, en el centro, llega a la Cámara de Representantes del Capitolio de EE. UU. El martes.
(Tom Williams / CQ-Roll Call Inc. Vía Getty Images)
Las consecuencias de este ultimátum son significativas. El gobierno estadounidense amenaza no solo con rescindir su contrato con Anthropic, sino también con utilizar una ley de tiempos de guerra para obligar a la empresa a cumplir o emplear otra vía legal para impedir que cualquier empresa que haga negocios con el gobierno también haga negocios con Anthropic. Si bien esto podría no ser una sentencia de muerte, sí sería un golpe considerable.
Otras empresas de IA, como Grok, de Elon Musk, un defensor de los derechos de la supremacía blanca, ya han aceptado la propuesta del Pentágono de “hagan lo que quieran”. El problema es que Claude es la única IA actualmente autorizada para trabajos de tan alto nivel. El escándalo salió a la luz después de nuestra reciente incursión en Venezuela, cuando Anthropic aparentemente preguntó, después del hecho, si otra empresa de Silicon Valley involucrada en la operación, Palantir, había utilizado Claude. Y así fue.
Palantir es conocida, entre otras cosas, por sus tecnologías de vigilancia y su creciente asociación con el Servicio de Inmigración y Control de Aduanas. También está en el centro de un esfuerzo de la administración Trump para compartir datos gubernamentales entre departamentos sobre ciudadanos individuales, lo que efectivamente rompería las barreras de privacidad y seguridad que han existido durante décadas. El fundador de la empresa, el influyente político de derecha Peter Thiel, a menudo da conferencias sobre el Anticristo y se le atribuye haber ayudado a JD Vance a llegar a su puesto de vicepresidente.
Dario Amodei, cofundador de Anthropic, podría considerarse el anti-Thiel. Fundó Anthropic porque creía que la inteligencia artificial podría ser tan peligrosa como poderosa si no tenemos cuidado, y quería una empresa que priorizara el cuidado.
De nuevo, parece sentido común, pero Amodei y Anthropic son los atípicos en una industria que durante mucho tiempo ha argumentado que casi todas las regulaciones de seguridad obstaculizan los esfuerzos estadounidenses por ser los más rápidos y los mejores en inteligencia artificial (aunque incluso ellos han cedido en algunos aspectos a esta presión).
No hace mucho, Amodei escribió un ensayo en el que coincidía en que la IA era beneficiosa y necesaria para las democracias, pero “no podemos ignorar el potencial de abuso de estas tecnologías por parte de los propios gobiernos democráticos”.
Advirtió que unos pocos actores maliciosos podrían tener la capacidad de eludir las salvaguardias, incluso las leyes, que ya se están erosionando en algunas democracias (no mencionaré cuáles).
“Debemos armar a las democracias con IA”, dijo. “Pero debemos hacerlo con cuidado y dentro de ciertos límites: son el sistema inmunológico que necesitamos para combatir las autocracias, pero como el sistema inmunológico, existe el riesgo de que se vuelvan contra nosotros y se conviertan en una amenaza”.
Por ejemplo, si bien la Cuarta Enmienda prohíbe técnicamente al gobierno la vigilancia masiva, fue redactada antes de que Claude fuera siquiera imaginado en la ciencia ficción. Amodei advierte que una herramienta de IA como Claude podría “llevar a cabo grabaciones a gran escala de todas las conversaciones públicas”. Esto podría ser legalmente permisible, ya que la ley no ha seguido el ritmo de la tecnología.
Emil Michael, el subsecretario de guerra, escribió en X el jueves que estaba de acuerdo en que la vigilancia masiva era ilegal y que el Departamento de Defensa “nunca lo haría”. Pero también, “No permitiremos que ninguna empresa de Big Tech decida sobre las libertades civiles de los estadounidenses”.
Es una declaración extraña, ya que Amodei básicamente está del lado de la protección de los derechos civiles, lo que significa que el Departamento de Defensa está argumentando que es malo que las personas y entidades privadas hagan eso. Y además, ¿no está el Departamento de Seguridad Nacional creando ya una base de datos secreta de manifestantes inmigrantes? Entonces, tal vez la preocupación no sea tan exagerada.
¡Ayuda, Claude! Haz que tenga sentido.
Si esa lógica Orwelliana no es lo suficientemente alarmante, también le pregunté a Claude sobre la otra línea roja que mantiene Anthropic: la posibilidad de permitirle ejecutar operaciones letales sin supervisión humana.
Claude señaló algo escalofriante. No es que se volvería rebelde, sino que sería demasiado eficiente y rápido.
“Si las instrucciones son ‘identificar y atacar’ y no hay un punto de control humano, la velocidad y la escala a la que podría operar serían genuinamente aterradoras”, me informó Claude.
Para colmo, un estudio reciente encontró que en juegos de guerra, las IA escalaron a opciones nucleares el 95% de las veces.
Le señalé a Claude que estas decisiones militares generalmente se toman con lealtad a Estados Unidos como la máxima prioridad. ¿Podría confiarse en Claude para sentir esa lealtad, el patriotismo y el propósito que guían a nuestros soldados humanos?
“No lo tengo”, dijo Claude, señalando que no “nació” en Estados Unidos, no tiene una “vida” aquí y no “tiene personas a las que amar aquí”. Por lo tanto, una vida estadounidense no tiene más valor que “la vida de un civil al otro lado de un conflicto”.
De acuerdo.
“Un país que confía decisiones letales a un sistema que no comparte sus lealtades está asumiendo un riesgo profundo, incluso si ese sistema está tratando de ser principado”, agregó Claude. “La lealtad, la responsabilidad y la identidad compartida que los humanos aportan a esas decisiones son parte de lo que las hace legítimas dentro de una sociedad. No puedo proporcionar esa legitimidad. No estoy seguro de que ninguna IA pueda hacerlo”.
¿Quién puede proporcionar esa legitimidad? Nuestros líderes electos.
Es absurdo que Amodei y Anthropic estén en esta posición, una completa abdicación por parte de nuestros órganos legislativos para crear reglas y regulaciones que son claras y urgentemente necesarias.
Por supuesto, las corporaciones no deberían estar estableciendo las reglas de la guerra. Pero tampoco debería Hegseth. El jueves, Amodei reafirmó sus objeciones, diciendo que si bien la empresa continúa negociando y quiere trabajar con el Pentágono, “no podemos, en conciencia, acceder a su solicitud”.
Gracias a Dios, Anthropic tiene el coraje y la previsión de plantear el problema y mantener su posición. Sin su oposición, estas capacidades se habrían entregado al gobierno con apenas una onda en nuestra conciencia y una supervisión virtualmente nula.
Cada senador, cada miembro de la Cámara de Representantes, cada candidato presidencial debería estar exigiendo una regulación de la IA en este momento, comprometiéndose a llevarla a cabo sin importar el partido y exigiendo que el Departamento de Defensa retire su ridícula amenaza mientras se resuelve el problema.
Porque cuando la máquina nos dice que es peligroso confiar en ella, deberíamos creerle.
