Home TecnologíaOpenAI: Usuarios abandonan ChatGPT por contrato militar

OpenAI: Usuarios abandonan ChatGPT por contrato militar

by Editor de Tecnologia

Un contrato con el Departamento de Defensa de EE. UU. Pone a OpenAI en una posición defensiva. Mientras los usuarios de ChatGPT cancelan sus suscripciones, el competidor Anthropic se beneficia principalmente.

¿Sin tiempo? blue News lo resume por ti

  • Tras un acuerdo entre OpenAI y el Departamento de Defensa de EE. UU., las desinstalaciones de la aplicación ChatGPT se cuadruplicaron.
  • Al mismo tiempo, la aplicación competidora Claude de Anthropic se beneficia de un aumento del 51% en las descargas.
  • El trasfondo es un conflicto ético sobre el uso militar de la IA.

La controversia en torno al uso militar de la Inteligencia Artificial está teniendo, por primera vez, un impacto notable en la base de usuarios de un importante proveedor de IA. Poco después de que OpenAI firmara un contrato con el Departamento de Defensa de EE. UU. A finales de febrero, muchos usuarios reaccionaron retirando su apoyo digitalmente.

Según datos de la empresa de análisis Sensor Tower, el número de desinstalaciones de la aplicación ChatGPT se cuadruplicó inmediatamente después de que se conociera el acuerdo. Paralelamente, el rival Anthropic experimentó un aumento significativo de la demanda. Las descargas de su aplicación de IA, Claude, aumentaron un 51%, catapultando al programa a la cima de las listas de aplicaciones de la App Store estadounidense.

Un conflicto ético dentro de la industria de la IA

El detonante de esta evolución es un conflicto fundamental sobre el papel de la IA en el contexto militar. Mientras que OpenAI firmó el contrato con el Pentágono, Anthropic se había negado previamente a flexibilizar sus normas de seguridad internas para dicha colaboración.

leer más  Purkeypile critica el precio de los videojuegos: ¿100 dólares por GTA 6?

Según informes de fuentes de la industria, el Departamento de Defensa de EE. UU. Solicitó usos más amplios para los sistemas de IA, incluidas aplicaciones en el ámbito de la vigilancia masiva y, potencialmente, para sistemas de armas autónomos. Se dice que Anthropic rechazó estas condiciones.

Esta decisión tiene consecuencias. Aunque la tecnología de Anthropic ya estaba integrada en los sistemas del Pentágono en 2025, la empresa podría ahora ser excluida de los procesos de adquisición relacionados con la seguridad.

Die Firma Anthropic, mit CEO Dario Amodei, konkurriert unter anderem mit dem ChatGPT-Entwickler OpenAI. (Archivbild)

sda

Sam Altman a la defensiva

El director ejecutivo de OpenAI, Sam Altman, reaccionó públicamente a las críticas y publicó un memorando interno en la plataforma X. En él, admite que la conclusión del contrato con el Pentágono podría parecer “oportunista y descuidada” desde el exterior.

Internamente, sin embargo, la decisión estuvo motivada de otra manera. OpenAI intentó evitar un contrato aún más problemático desde el punto de vista de la empresa y, al mismo tiempo, mantener la influencia sobre las condiciones de uso de la tecnología.

MyTech: der digitale Hotspot für alle Tech-Fans

blue News te ofrece diariamente Insights aus der Techwelt: Noticias, información de fondo, consejos y recomendaciones para tu vida digital, así como pruebas y reseñas de gadgets, herramientas y juegos.

Altman también enfatizó que OpenAI establece “líneas rojas” similares a las de Anthropic. La tecnología aún no está lo suficientemente madura para muchas aplicaciones, y en algunas áreas los compromisos de seguridad política aún no se comprenden completamente.

En respuesta a las críticas, Altman anunció que quería precisar el acuerdo con el Pentágono a posteriori. Se planean cláusulas adicionales que excluyan ciertos usos de la tecnología OpenAI.

leer más  Spotify: IA crea playlists personalizadas con solo una idea

Según las ideas actuales de la empresa, ChatGPT no debe ser utilizado por la Agencia de Seguridad Nacional ni para la vigilancia de ciudadanos estadounidenses. También en el tema de las armas autónomas, quieren establecer límites más estrictos. Sin embargo, no está claro si el Departamento de Defensa aceptará tales restricciones.

Una cuestión de confianza para la industria de la IA

Las reacciones en las redes sociales muestran cuán sensible es el público a los proyectos militares de IA. Bajo la explicación de Altman, se encontraron numerosos comentarios críticos. Algunos usuarios acusaron a OpenAI de sacrificar principios éticos en favor de intereses políticos.

El conflicto plantea una cuestión estratégica fundamental para la industria: mientras que los gobiernos de todo el mundo recurren cada vez más a los sistemas de IA para fines de seguridad y defensa, las empresas deben decidir cuán estrechamente quieren vincularse a las estructuras de poder estatales.

El éxodo actual de usuarios sugiere que estas decisiones podrían tener consecuencias no solo regulatorias o geopolíticas en el futuro, sino que también afectar directamente la confianza de los propios usuarios.

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.