Más de 600 empleados de Google exigen rechazar el uso militar secreto de su inteligencia artificial
Un grupo de más de 600 trabajadores de Google, entre los que se incluyen investigadores de DeepMind, directores y más de veinte vicepresidentes, ha firmado una carta abierta dirigida al CEO de la compañía, Sundar Pichai, para exigir que la empresa rechace cualquier acuerdo que permita el uso de su tecnología de inteligencia artificial (IA) en operaciones militares clasificadas.

La misiva, difundida este lunes, advierte sobre los riesgos de que herramientas como el modelo Gemini sean empleadas por el Departamento de Defensa de Estados Unidos en contextos opacos, donde no existan garantías de transparencia ni supervisión pública. «Queremos que la IA beneficie a la humanidad, no que se utilice de manera deshumanizante o extremadamente dañina», señala el documento.
Entre las preocupaciones expresadas por los empleados destacan el posible uso de la IA en armas autónomas letales y en sistemas de vigilancia masiva, así como en aplicaciones que podrían erosionar libertades civiles o facilitar la persecución de civiles inocentes. «Los proyectos clasificados, por definición, carecen de transparencia. No hay forma de asegurar que nuestras herramientas no sean explotadas para causar daños graves», declaró uno de los organizadores de la carta, quien prefirió mantenerse en el anonimato.
La carta, firmada abiertamente por altos cargos de áreas como Google Cloud y otras divisiones, llega en un momento en que la compañía mantiene negociaciones con el Pentágono para explorar el uso de Gemini en entornos militares. Los empleados subrayan que, sin mecanismos de rendición de cuentas, la tecnología podría ser empleada en operaciones que violen principios éticos básicos.
Este no es el primer conflicto interno en Google relacionado con el uso militar de su tecnología. En 2018, la compañía enfrentó una crisis similar cuando cientos de empleados se opusieron al proyecto Maven, una colaboración con el Pentágono para analizar imágenes de drones. Tras las protestas, Google decidió no renovar el contrato.
La carta actual refleja una creciente inquietud en el sector tecnológico sobre el papel de la IA en conflictos bélicos. Los firmantes insisten en que, sin políticas claras, la innovación podría convertirse en un instrumento de opresión o violencia indiscriminada. «No podemos permitir que nuestra tecnología se utilice para fines que contradicen nuestros valores fundamentales», concluye el texto.
Hasta el momento, Google no ha emitido una respuesta oficial a la carta, aunque fuentes internas indican que el tema está siendo evaluado a alto nivel. Mientras tanto, la presión de los empleados se suma a un debate global sobre los límites éticos de la inteligencia artificial y su regulación en contextos militares.
