Sam Altman, CEO de OpenAI, ha sugerido que un reportaje de investigación que lo describe como alguien «sin restricciones ante la verdad» y con una «falta sociopática de preocupación» por las consecuencias pudo haber provocado un ataque contra su residencia en San Francisco el pasado viernes temprano.
Esta implicación, que carece de pruebas, fue publicada por Altman en su blog personal horas después del incidente. En su escrito, mencionó que hace unos días se publicó un «artículo incendiario» sobre él y que, aunque inicialmente lo ignoró, se sentía «cabreado» y ahora considera que ha «subestimado el poder de las palabras y las narrativas».
El incidente involucró la detención de un joven de 20 años, quien presuntamente lanzó un cóctel Molotov contra la casa de Altman. No hubo heridos. Además, se sospecha que este mismo individuo amenazó con incendiar un edificio en la sede de OpenAI más tarde esa misma mañana. El reportaje de The New Yorker al que Altman hace referencia se basó en entrevistas con más de 100 personas con conocimiento directo de sus negocios; aunque hubo algunas defensas, la mayoría lo describió como manipulador y hambriento de poder.
En un intento por suavizar su imagen, Altman acompañó su publicación con una fotografía de su esposo e hijo. Reconoció que actualmente existe una «gran ansiedad sobre la IA», pero instó a «desescalar la retórica y las tácticas» para evitar «más explosiones en menos hogares, tanto figurada como literalmente». Sus menciones a las «tácticas» sugieren que considera que investigaciones como la de The New Yorker son intencionalmente deshonestas y derivan en violencia.
Este suceso ocurre en un contexto donde los directivos ejecutivos están incrementando su inversión en seguridad privada. Según datos de ESGauge y la organización sin fines de lucro Conference Board, el 10% de los mayores gastadores destina un promedio de 1.2 millones de dólares anuales a equipos de protección a tiempo completo, vehículos blindados e inteligencia de amenazas.
Por su parte, OpenAI se encuentra expandiendo su equipo de seguridad. Al 11 de abril, la empresa buscaba cubrir cuatro puestos en seguridad corporativa, incluyendo líderes de seguridad en Washington D.C., San Francisco y centros de datos, así como un analista de riesgos con experiencia en contrainteligencia, gestión de riesgos y seguridad física.
Sin embargo, la seguridad de la compañía trasciende la protección física debido a la naturaleza de su tecnología. Existe la preocupación de que este ataque pueda servir de pretexto para desarrollar redes de vigilancia. En febrero, OpenAI concretó un contrato con el Pentágono, anunciado bajo el título “Nuestro acuerdo con el Departamento de Guerra”.
Ese mismo día, la administración Trump excluyó y puso en lista negra a Anthropic, empresa rival de IA, de los contratos federales debido a que la compañía se negó a eliminar restricciones de seguridad que impiden al gobierno utilizar sus modelos para armas autónomas o vigilancia masiva. Esto plantea interrogantes sobre cómo OpenAI logró asegurar dicho contrato a pesar de afirmar en febrero que sus herramientas «no se utilizarán para la vigilancia doméstica».
Para que Altman logre realmente «desescalar la retórica», deberá conciliar su postura con el crecimiento de una empresa que demanda recursos energéticos masivos y que puede afectar tanto a comunidades locales como a personas en el extranjero bajo la premisa de la seguridad nacional.
