La empresa de inteligencia artificial Anthropic se encuentra en desacuerdo con el ejército estadounidense por las restricciones impuestas a su modelo de IA, Claude. Según fuentes, el Secretario de Defensa, Pete Hegseth, dio a Dario Amodei, CEO de Anthropic, un ultimátum hasta el viernes para eliminar estas salvaguardias o arriesgarse a perder un contrato de 200 millones de dólares con el Pentágono.
El Pentágono busca acceso irrestricto a Claude para su uso en operaciones militares “legales”, mientras que Anthropic expresa preocupaciones sobre el uso de la IA en armas autónomas y la vigilancia masiva de ciudadanos estadounidenses. La compañía argumenta que la IA no es lo suficientemente fiable para operar armas y que no existen leyes o regulaciones que cubran el uso de la IA en la vigilancia masiva.
Si Anthropic no cede a las demandas del Pentágono antes del viernes, se podría rescindir el contrato. Además, el Secretario Hegseth ha amenazado con invocar la Ley de Producción de Defensa (DPA) para obligar a Anthropic a colaborar, e incluso con designar a la empresa como un riesgo en la cadena de suministro, lo que podría dificultar su trabajo con el gobierno.
Otras empresas de IA, como xAI de Elon Musk, ya han mostrado disposición a colaborar con el ejército en entornos clasificados.
