Home NoticiasAnthropic gana orden judicial contra el Pentágono por riesgo en la cadena de suministro

Anthropic gana orden judicial contra el Pentágono por riesgo en la cadena de suministro

by Editora de Noticias

Anthropic, una empresa de inteligencia artificial generativa, ha obtenido una orden judicial preliminar que impide al Departamento de Defensa de Estados Unidos etiquetarla como un riesgo en la cadena de suministro. Esta decisión podría permitir que los clientes retomen la colaboración con la compañía.

La jueza federal Rita Lin, de San Francisco, dictaminó el jueves que la designación de Anthropic como un “riesgo en la cadena de suministro” es “probablemente contraria a la ley y arbitraria y caprichosa”, según se desprende de su fallo, disponible aquí. Lin argumentó que el Departamento de Defensa, al que se refirió como el “Departamento de Guerra”, no tiene una base legítima para inferir que Anthropic podría convertirse en un saboteador debido a sus restricciones de uso autoimpuestas.

Ni Anthropic ni el Pentágono han respondido de inmediato a las solicitudes de comentarios sobre el fallo.

El Departamento de Defensa ha utilizado las herramientas de IA Claude, de Anthropic, para redactar documentos confidenciales y analizar datos clasificados en los últimos años. Sin embargo, este mes comenzó a suspender el uso de Claude después de determinar que Anthropic no era de confianza. Funcionarios del Pentágono citaron numerosas instancias en las que Anthropic supuestamente impuso o intentó imponer restricciones de uso a su tecnología que la administración Trump consideró innecesarias.

La administración emitió finalmente varias directivas, incluida la designación de la empresa como un riesgo en la cadena de suministro, lo que ha provocado una disminución gradual del uso de Claude en todo el gobierno federal y ha afectado las ventas y la reputación pública de Anthropic. La compañía presentó dos demandas impugnando las sanciones como inconstitucionales. Durante una audiencia el martes, Lin declaró que el gobierno parecía haber “debilitado” y “castigado” ilegalmente a Anthropic.

leer más  Acuerdo de París: 10 años de promesas incumplidas y crisis climática

La decisión de Lin el jueves “restaura el statu quo” al 27 de febrero, anterior a la emisión de las directivas. “No impide que ningún demandado tome ninguna acción legal que hubiera estado disponible para él” en esa fecha, escribió. “Por ejemplo, esta orden no exige que el Departamento de Guerra utilice los productos o servicios de Anthropic ni impide que el Departamento de Guerra haga la transición a otros proveedores de inteligencia artificial, siempre y cuando esas acciones sean coherentes con las regulaciones, leyes y disposiciones constitucionales aplicables”.

La decisión sugiere que el Pentágono y otras agencias federales aún son libres de cancelar contratos con Anthropic y pedir a los contratistas que integran Claude en sus propias herramientas que dejen de hacerlo, pero sin citar la designación de riesgo en la cadena de suministro como base.

El impacto inmediato es incierto porque la orden de Lin no entrará en vigor hasta dentro de una semana. Además, un tribunal federal de apelaciones en Washington, D.C., aún no ha dictaminado en la segunda demanda presentada por Anthropic, que se centra en otra ley bajo la cual también se le prohibió proporcionar software al ejército.

Sin embargo, Anthropic podría utilizar el fallo de Lin para demostrar a algunos clientes preocupados por trabajar con un paria de la industria que la ley podría estar de su lado a largo plazo. Lin aún no ha fijado un calendario para emitir un fallo definitivo.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.