Home NoticiasTrump Ordena Suspender Uso de IA de Anthropic: Coerción Ilegal

Trump Ordena Suspender Uso de IA de Anthropic: Coerción Ilegal

by Editora de Noticias

El presidente Donald Trump ha ordenado a las agencias federales cesar el uso de la tecnología de inteligencia artificial de Anthropic. El mandatario calificó a Anthropic como “de extrema izquierda” y acusó a la compañía de poner en riesgo la vida de los estadounidenses. No obstante, la administración no ha presentado argumentos legales sólidos que justifiquen la autoridad del gobierno para obligar a una empresa privada estadounidense a rediseñar sus productos según sus exigencias.

Si bien la publicación en redes sociales de Trump no especificó las “consecuencias civiles y penales” que podrían derivarse, amenazas anteriores del Pentágono incluyeron la cancelación de su contrato de 200 millones de dólares con el Pentágono, su designación como un “riesgo en la cadena de suministro” que la excluiría de futuros contratos federales y, de manera más notable, la posible invocación de la Ley de Producción de Defensa para obligar al cumplimiento, incluso sin el consentimiento de la empresa. La administración podría justificar esto como una necesidad de seguridad nacional, pero la ley lo consideraría coerción ilegal.

La Ley de Producción de Defensa es la herramienta más contundente que el gobierno está utilizando en esta disputa, y es la herramienta equivocada para este trabajo. Promulgada en 1950, la DPA fue diseñada para movilizar la capacidad industrial en situaciones de emergencia y obligar a los fabricantes a producir artículos vitales para la seguridad nacional. Invocarla para forzar a una empresa de software privada a rediseñar su modelo de IA y eliminar restricciones éticas específicas sería un alcance de poder sin precedentes y casi con seguridad ilegal. La ley simplemente no fue redactada para otorgar al gobierno la autoridad para anular la filosofía del producto de una empresa.

leer más  SOTU 2026: Críticas Demócratas al Discurso de Trump

El problema legal se agrava aún más bajo la doctrina de las “cuestiones mayores” de la Corte Suprema, que exige que, cuando el poder ejecutivo reclama autoridad sobre cuestiones de gran importancia económica y política, debe señalar una clara autorización del Congreso para actuar como lo hace. El lenguaje estatutario amplio y la inferencia no son suficientes; el Congreso debe haber contemplado específicamente ese uso. La administración Trump aprendió esta lección cuando la Corte Suprema anuló sus aranceles IEEPA precisamente por estas razones. La DPA enfrenta el mismo problema aquí. En 1950, el Congreso pensaba en los altos hornos, no en la arquitectura ética de los sistemas de IA de vanguardia. Esta brecha en la autoridad delegada explícita es fatal para las amenazas del Pentágono.

También existe una dimensión de la Primera Enmienda en juego, ya que Anthropic ha tomado decisiones deliberadas y expresivas sobre lo que su modelo hará y no hará, decisiones que reflejan los principios éticos de la empresa que están integrados en el producto en sí. Cuando el gobierno exige la eliminación de esas decisiones bajo amenaza de castigo, no se involucra en una negociación contractual, sino que obliga a un actor privado a abandonar decisiones de diseño expresivas a discreción del gobierno. Anthropic tendría un argumento creíble de que lo que se exige no es una adquisición legal, sino una coerción inconstitucional.

La incoherencia del Pentágono es aún más profunda. Las dos líneas rojas que Anthropic se niega a abandonar son el uso de su IA para la vigilancia masiva de ciudadanos estadounidenses y el desarrollo de armas totalmente autónomas que disparen sin intervención humana. Esta última se alinea con la doctrina de larga data del Departamento de Defensa, que exige un control humano significativo sobre las decisiones de fuerza letal. Sin embargo, el Pentágono está presionando actualmente a una empresa privada para que abandone una salvaguardia que su propia política ha respaldado históricamente.

leer más  Kiffin se beneficia del éxito de Ole Miss en el playoffOle Miss avanza y Kiffin gana: bonos por el playoffÉxito de Ole Miss: Kiffin se lleva un bonus millonarioPlayoff: Kiffin gana dinero con Ole Miss pese a estar en LSUOle Miss en el playoff: Kiffin recibe inesperada recompensa

Un alto funcionario del Pentágono fue inusualmente franco al hablar sobre su necesidad de la IA de Anthropic, diciendo: “La única razón por la que todavía estamos hablando con estas personas es porque las necesitamos y las necesitamos ahora. El problema de estos tipos es que son muy buenos“. Si eso es cierto, y la conducta del propio Pentágono sugiere que lo es a pesar de la declaración del presidente, entonces la administración se está moviendo para destruir una relación indispensable por salvaguardias que, según el propio Pentágono, nunca han interferido con una sola operación militar.

El argumento de seguridad nacional de la administración es legítimo y merece una respuesta directa. Su preocupación declarada es real; los adversarios están desarrollando IA sin las restricciones éticas que imponen las empresas estadounidenses. Pero lo que el Pentágono está pasando por alto en este análisis es que la carrera de la IA no se trata solo de rendimiento bruto, sino también de valores. El mundo merece un modelo de IA que opere dentro de un marco legal y ético que refleje los valores estadounidenses, como la transparencia y el respeto al estado de derecho.

Cuando Washington coacciona a una empresa privada de IA para que abandone esos compromisos, el mensaje al mundo es que las empresas de IA estadounidenses operan bajo mandato gubernamental, al igual que las chinas. Esa no es la forma en que ganaremos la carrera de la IA, es que Estados Unidos está cediendo la parte que más importa.

Si Estados Unidos va a liderar en inteligencia artificial, debe esforzarse por hacerlo con un modelo arraigado en los valores y principios legales que distinguen a este país de los estados autoritarios con los que compite. Eliminar esos principios bajo coerción legal no hace que la tecnología sea más estadounidense. La hace indistinguible de lo que estamos compitiendo.

leer más  Worst snow storm you've have experienced in Jersey? : r/newjersey - Reddit

Nicholas Creel es profesor asociado de derecho empresarial en Georgia College & State University.

Las opiniones expresadas en este artículo son propias del autor.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.