La competencia entre los gigantes de la inteligencia artificial ha dado un giro hacia la seguridad digital. OpenAI ha anunciado la siguiente fase de su estrategia de ciberseguridad, destacando el lanzamiento de GPT-5.4-Cyber, un modelo diseñado específicamente para ser utilizado por defensores digitales.
Este movimiento ocurre tras el anuncio de Anthropic la semana pasada sobre su modelo Claude Mythos Preview. A diferencia de OpenAI, Anthropic ha optado por un lanzamiento privado inicial, argumentando que el modelo podría ser explotado por actores malintencionados y hackers. Además, Anthropic impulsó la creación de una coalición industrial, que incluye a Google, para analizar el impacto de los avances en IA generativa sobre la ciberseguridad.
La postura de OpenAI: Un enfoque menos catastrófico
OpenAI ha buscado diferenciar su narrativa adoptando un tono menos alarmista, resaltando la eficacia de sus barreras de seguridad actuales. Según un comunicado de la compañía, consideran que las salvaguardas vigentes reducen el riesgo cibernético lo suficiente como para permitir el despliegue amplio de sus modelos actuales y futuros.
No obstante, la empresa reconoce que los modelos entrenados específicamente para trabajos de ciberseguridad —que son más permisivos— requieren controles más estrictos y despliegues restringidos. A largo plazo, OpenAI prevé la necesidad de defensas más expansivas, ya que las capacidades de los modelos futuros superarán rápidamente a los modelos especializados de hoy.
Los tres pilares de la estrategia de OpenAI
La compañía ha centrado su enfoque de ciberseguridad en tres ejes principales, destacando el primero de ellos: los sistemas de validación «know your customer» (conoce a tu cliente). El objetivo de estos sistemas es permitir un acceso controlado a los nuevos modelos que sea lo más «democratizado» posible, evitando decisiones arbitrarias sobre quién puede acceder a la tecnología para usos legítimos.
