Apenas un mes pasa sin que un experto en inteligencia artificial (IA) advierta sobre la amenaza existencial que representa esta tecnología para la humanidad. Muchas de estas advertencias pueden ser imprecisas o ingenuas, otras podrían estar motivadas por intereses particulares. Se necesita un análisis sereno y ponderado. Sin embargo, algunas advertencias merecen ser tomadas en serio.
La semana pasada, varios investigadores de seguridad en IA de primer nivel renunciaron, alertando que las empresas, en su búsqueda de beneficios, están relegando la seguridad y promoviendo productos riesgosos. A corto plazo, esto sugiere una rápida “degradación” en la búsqueda de ingresos a corto plazo. Sin regulación, el interés público cede ante las ganancias. Sin duda, el papel cada vez mayor de la IA en el gobierno y en la vida cotidiana, así como el deseo de beneficios de sus propietarios multimillonarios, exigen rendición de cuentas.
La elección de utilizar agentes –chatbots– como la principal interfaz de consumo para la IA fue primordialmente comercial. La apariencia de conversación y reciprocidad promueve una interacción más profunda del usuario que una simple barra de búsqueda de Google. La investigadora de OpenAI, Zoë Hitzig, ha advertido que la introducción de anuncios en esta dinámica conlleva el riesgo de manipulación. OpenAI afirma que los anuncios no influyen en las respuestas de ChatGPT. Pero, como ocurre con las redes sociales, podrían volverse menos visibles y más dirigidos psicológicamente, basándose en extensos intercambios privados.
Cabe destacar que Fidji Simo, quien desarrolló el negocio de publicidad de Facebook, se unió a OpenAI el año pasado. Y OpenAI despidió recientemente a su ejecutiva Ryan Beiermeister por “discriminación sexual”. Varios informes indican que se había opuesto firmemente al lanzamiento de contenido para adultos. En conjunto, estas acciones sugieren que las presiones comerciales están moldeando la dirección de la empresa, y probablemente también la del sector en general. La forma en que las herramientas de IA Grok de Elon Musk se mantuvieron activas el tiempo suficiente para generar abusos, luego se restringieron detrás de un acceso de pago y finalmente se suspendieron tras investigaciones en el Reino Unido y la Unión Europea, plantea interrogantes sobre la monetización del daño.
Es más difícil evaluar los sistemas más especializados que se están desarrollando para fines sociales, como la educación y el gobierno. Pero dado que la búsqueda frenética de beneficios tiende a introducir sesgos irresistibles en todo sistema humano que conocemos, lo mismo ocurrirá con la IA.
Este no es un problema que afecte a una sola empresa. Una carta de renuncia más vaga del investigador de seguridad de Anthropic, Mrinank Sharma, advirtió sobre un “mundo en peligro” y que había “visto repetidamente lo difícil que es que nuestros valores realmente gobiernen nuestras acciones”. OpenAI fue inicialmente una organización sin fines de lucro; después de comprometerse con la comercialización a partir de 2019, Anthropic surgió prometiendo ser la alternativa más segura y cautelosa. La partida de Sharma sugiere que incluso las empresas fundadas sobre principios de prudencia están luchando por resistir la misma atracción de las ganancias.
La causa de esta reorientación es clara. Las empresas están consumiendo capital de inversión a un ritmo histórico, sus ingresos no están creciendo lo suficientemente rápido y, a pesar de los impresionantes resultados técnicos, aún no está claro qué puede “hacer” la IA para generar beneficios. Desde el tabaco hasta los productos farmacéuticos, hemos visto cómo los incentivos de lucro pueden distorsionar el juicio. La crisis financiera de 2008 demostró lo que sucede cuando los sistemas esenciales se ven impulsados por necesidades a corto plazo y una supervisión débil.
Se necesita una sólida regulación estatal para resolver este problema. El reciente Informe Internacional sobre Seguridad de la IA 2026 ofreció una evaluación sobria de los riesgos reales, desde la automatización defectuosa hasta la desinformación, y un claro plan para la regulación. Sin embargo, a pesar de que fue respaldado por 60 países, los gobiernos de Estados Unidos y el Reino Unido se negaron a firmarlo. Esta es una señal preocupante de que están optando por proteger a la industria en lugar de controlarla.
