OpenAI enfrenta investigaciones y demandas en Canadá y Florida por presunto incumplimiento en la detección de usuarios peligrosos
La empresa tecnológica OpenAI, desarrolladora de la plataforma de inteligencia artificial ChatGPT, se encuentra bajo escrutinio legal en dos frentes internacionales. Autoridades en Canadá y el estado de Florida, en Estados Unidos, han iniciado procesos legales para determinar si la compañía falló en reportar actividades sospechosas de usuarios que podrían representar un riesgo para la seguridad pública.
Hasta el momento, no se han revelado detalles específicos sobre los casos individuales que motivaron estas acciones, ni se han precisado las acusaciones concretas en cada jurisdicción. Sin embargo, las investigaciones apuntan a evaluar si los protocolos de monitoreo y respuesta de OpenAI cumplen con las normativas locales e internacionales en materia de prevención de delitos.
En Florida, el caso ha cobrado relevancia tras un incidente ocurrido en la Universidad Estatal de Florida, donde se alega que el presunto responsable de un tiroteo habría utilizado ChatGPT para planificar el ataque. Aunque las autoridades estatales no han confirmado una relación directa entre el uso de la plataforma y el crimen, el fiscal general de Florida anunció una investigación criminal para analizar el papel de la herramienta en los hechos.

Por su parte, en Canadá, las autoridades no han divulgado información sobre los motivos específicos que impulsaron las acciones legales contra la empresa. No obstante, el caso se suma a un creciente debate global sobre la responsabilidad de las plataformas tecnológicas en la prevención de usos malintencionados de sus herramientas.
OpenAI no ha emitido un comunicado detallado sobre las investigaciones, pero en declaraciones previas ha señalado su disposición a colaborar con las autoridades y ha destacado las medidas de seguridad implementadas en sus sistemas. La compañía también ha subrayado que sus políticas prohíben el uso de sus servicios para actividades ilegales o peligrosas.
El desenlace de estos procesos podría sentar un precedente en la regulación de la inteligencia artificial y su impacto en la seguridad pública, un tema que ha generado preocupación entre legisladores, expertos en tecnología y organizaciones de derechos digitales.
