Google cierra acuerdo con el Pentágono para proyectos militares clasificados de inteligencia artificial
Google ha firmado un contrato valorado en 200 millones de dólares con el Departamento de Defensa de Estados Unidos (Pentágono) para proporcionar herramientas de inteligencia artificial (IA) destinadas a trabajos militares clasificados. El acuerdo, revelado este lunes, ha generado una fuerte controversia interna en la compañía, donde más de 600 empleados han exigido su cancelación mediante una carta abierta dirigida al CEO, Sundar Pichai.
Según fuentes cercanas a las negociaciones citadas por The Information, el contrato no otorga a Google capacidad de veto sobre el uso que el Pentágono haga de su tecnología, siempre que se ajuste a fines legales. El acuerdo incluye cláusulas que prohíben expresamente el desarrollo de armas autónomas letales («killer robots») y el uso de la IA para vigilancia doméstica sin supervisión humana. Sin embargo, los empleados señalan que estas restricciones son insuficientes para evitar aplicaciones «inhumanas o extremadamente dañinas».
Preocupaciones éticas y riesgos reputacionales
En la carta abierta, los empleados advierten que la participación de Google en proyectos militares clasificados podría dañar irreversiblemente la reputación de la empresa. «Nuestra proximidad a esta tecnología nos impone la responsabilidad de evitar sus usos más peligrosos», afirman los firmantes, quienes citan como ejemplos el riesgo de que la IA sea empleada en sistemas de vigilancia masiva o en operaciones que vulneren derechos humanos.
.jpg/640px-Sundar_Pichai_-_2023_(cropped).jpg)
El documento también subraya que el acuerdo contradice los principios éticos que Google ha promovido públicamente en el pasado, especialmente en lo relativo al desarrollo de tecnologías con fines bélicos. «Tomar la decisión equivocada en este momento tendría consecuencias irreparables para el papel de Google en el mundo», añaden los trabajadores.
Detalles del acuerdo y condiciones
El contrato, valorado en 200 millones de dólares, permite al Pentágono utilizar los modelos de IA de Google para «cualquier propósito legal», aunque con ciertas limitaciones. Entre ellas, destaca la prohibición de emplear la tecnología en el desarrollo de armas autónomas o en sistemas de vigilancia interna sin control humano. No obstante, el acuerdo no especifica mecanismos para garantizar que estas restricciones se cumplan en la práctica.
Además, el contrato establece que Google deberá ajustar los parámetros de seguridad de su IA según las solicitudes del gobierno, lo que ha generado inquietud entre los empleados sobre la posible manipulación de los sistemas para fines no declarados. «No tenemos forma de saber cómo se utilizará realmente esta tecnología una vez que esté en manos del Pentágono», declaró un ingeniero de la compañía que prefirió mantener el anonimato.
Reacciones y contexto del sector tecnológico
El acuerdo de Google con el Pentágono se produce en un contexto de creciente colaboración entre el sector tecnológico y el ámbito militar. Empresas como OpenAI ya han establecido acuerdos similares con el Departamento de Defensa, aunque con cláusulas más restrictivas. En el caso de OpenAI, el contrato prohíbe expresamente el uso de su tecnología para vigilancia doméstica masiva o para el desarrollo de armas autónomas.

La polémica en Google refleja un debate más amplio sobre el papel de la IA en la defensa y la seguridad nacional. Mientras algunos argumentan que estas herramientas pueden mejorar la eficiencia en operaciones militares, otros advierten sobre los riesgos de delegar decisiones críticas en sistemas automatizados, especialmente en contextos donde la transparencia es limitada.
Hasta el momento, ni Google ni el Pentágono han emitido declaraciones oficiales sobre la carta de los empleados o los detalles del acuerdo. La compañía se enfrenta ahora a la presión de equilibrar sus intereses comerciales con las demandas éticas de una parte significativa de su plantilla.
Implicaciones para el futuro de Google
El conflicto interno en Google pone de manifiesto las tensiones entre el crecimiento empresarial y los principios éticos en el desarrollo de IA. Mientras la compañía busca expandir su presencia en el sector de defensa —un mercado con un potencial económico significativo—, enfrenta el desafío de mantener la confianza de sus empleados y usuarios.
Analistas del sector señalan que la decisión de Google podría influir en otras empresas tecnológicas que evalúan colaboraciones similares con gobiernos. «Este acuerdo marca un precedente importante», comenta un experto en ética tecnológica consultado por Notiulti. «Si Google, una empresa que ha abogado por el uso responsable de la IA, cede ante las presiones militares, otras compañías podrían seguir su ejemplo sin mayores cuestionamientos».
Por ahora, la respuesta de Sundar Pichai y la dirección de Google será clave para determinar el rumbo de la compañía en un debate que trasciende lo tecnológico y se adentra en lo geopolítico y lo moral.
