Casi todo el mundo ha experimentado alguna vez la pérdida repentina de datos personales, ya sea por un borrado accidental o por un fallo del sistema. Recientemente, un profesor alemán ha denunciado la pérdida de una gran cantidad de documentos académicos tras modificar la configuración de ChatGPT de OpenAI. Compartió su experiencia en la última edición de la revista Nature. Lejos de recibir muestras de simpatía, se convirtió en blanco de burlas en las redes sociales, principalmente porque se le percibió como excesivamente dependiente de la inteligencia artificial.
El profesor Marcel Bucher, catedrático de ciencias vegetales en la Universidad de Colonia (Alemania), declaró que se había suscrito a la versión de pago ChatGPT Plus hace dos años y que consideraba esta herramienta un asistente valioso.
“Desde que me suscribí a ChatGPT Plus, lo utilizo a diario como asistente – para redactar correos electrónicos, elaborar planes de estudio, preparar solicitudes de subvenciones de investigación, corregir artículos científicos, preparar conferencias, crear preguntas de examen, analizar el trabajo de los estudiantes e incluso como herramienta interactiva de enseñanza”, escribió Bucher.
Reconoció que ChatGPT, como otros modelos de lenguaje grandes, proporciona a veces información inexacta. Sin embargo, valoró su capacidad para mantener el contexto y su sensación de “espacio de trabajo continuo y estable”.
Según Gizmodo, el problema comenzó cuando modificó la configuración relativa a los permisos de uso de los datos.
De acuerdo con el artículo publicado en Nature, en agosto, Bucher desactivó temporalmente la opción “Aceptar el uso compartido de datos” para verificar si seguía utilizando todas las funcionalidades de ChatGPT. En ese momento, todo su historial de conversaciones y sus archivos de proyectos fueron eliminados definitivamente: dos años de documentos académicos cuidadosamente organizados, desaparecieron. No hubo advertencias, ni botón de recuperación, solo una página en blanco. Afortunadamente, pudo guardar una pequeña parte de las conversaciones, pero la gran mayoría de los datos se perdió para siempre.
Inicialmente, el profesor pensó que se trataba de un simple problema técnico y creyó poder recuperar los datos. Reinstaló la aplicación, probó diferentes navegadores y modificó varias veces la configuración, sin éxito. Cuando contactó con OpenAI, solo recibió una respuesta automática incapaz de resolver el problema. Finalmente, incluso después de contactar con el soporte técnico, la conclusión fue la misma: los datos se habían perdido.
Si esta historia hubiera ocurrido hace algunos años, el profesor Bucher probablemente habría suscitado más compasión. Pero en 2026, con la creciente crítica a la IA por producir contenidos de baja calidad, inexactos y controvertidos, muchos se regocijan con la “pérdida” de todos los datos de su IA.
“Una historia trágica y sorprendente: ‘ChatGPT borró todo lo que yo no hice por mí mismo’”, comentó con sarcasmo un usuario de la plataforma de redes sociales Bluesky.
Otros se mostraron más virulentos: “La próxima vez, haz tú mismo el trabajo por el que te pagan, en lugar de confiarlo todo a una máquina de copiar que daña el medio ambiente y es criticada por sus numerosas consecuencias sociales”.
Algunos incluso sospechan que el propio profesor Bucher podría no haber escrito el artículo publicado en Nature.
“Es lo más ridículo que he leído en mucho tiempo. Dicho esto, no hay razón para creer que la persona que publicó esto realmente lo haya escrito”, comentó otro usuario.
El profesor Bucher, sin embargo, presentó un argumento relevante: indicó que él mismo se vio animado a utilizar la IA en su trabajo, y que no era un caso aislado. Muchas grandes organizaciones instan a sus empleados a integrar la IA en la investigación y la enseñanza, considerándolo una evolución inevitable.
Escribió que cada vez más personas utilizan la IA para escribir, planificar y enseñar; las universidades también están experimentando con la integración de estas herramientas en sus programas. Sin embargo, su ejemplo ilustra una debilidad fundamental: estas herramientas no se desarrollan con los estándares académicos de fiabilidad y responsabilidad.
Según él, si un simple clic puede borrar años de datos acumulados, entonces ChatGPT, al menos según su experiencia, no puede considerarse aún una herramienta segura para su uso en un entorno profesional.
El impacto real de las herramientas de IA capaces de generar contenido en el mundo laboral sigue siendo incierto, especialmente porque los empleados se muestran cada vez más reacios, mientras que muchos líderes se esfuerzan por promover su adopción. Sea cual sea el futuro, muchos escépticos de la IA podrían alegrarse ante cualquier noticia sobre la pérdida de datos debido a una dependencia excesiva de esta tecnología.
Fuente: https://vietnamnet.vn/giao-su-than-tho-mat-sach-du-lieu-vi-ai-khong-ngo-bi-mang-xa-hoi-cuoi-nhao-2484868.html
