Home TecnologíaChatGPT Salud: Riesgos y Privacidad de la IA en la Asistencia Médica

ChatGPT Salud: Riesgos y Privacidad de la IA en la Asistencia Médica

by Editor de Tecnologia

Los chatbots de inteligencia artificial han ganado una popularidad explosiva, pero son conocidos por dispensar consejos de salud francamente extraños y potencialmente peligrosos, en una avalancha de información errónea de fácil acceso que ha alarmado a los expertos.

Su auge ha convertido a innumerables usuarios en expertos de sillón, que a menudo terminan confiando en consejos obsoletos, mal atribuidos o completamente inventados.

Una investigación reciente de The Guardian, por ejemplo, reveló que las AI Overviews de Google, que acompañan a la mayoría de las páginas de resultados de búsqueda, proporcionaron abundante información de salud inexacta que podría acarrear graves riesgos para la salud si se siguiera.

Pero, aparentemente imperturbable ante las repetidas advertencias de los expertos de que los consejos de salud de la IA no deben ser confiables, OpenAI está redoblando la apuesta al lanzar una nueva función llamada ChatGPT Health, que procesará sus registros médicos para generar respuestas “más relevantes y útiles para usted”.

A pesar de haber sido “diseñada en estrecha colaboración con médicos” y construida sobre “sólidos controles de privacidad, seguridad y datos”, la función está “diseñada para apoyar, no para reemplazar, la atención médica”. De hecho, se lanza con una advertencia absurdamente contraproducente: que la función de salud personalizada “no está destinada al diagnóstico ni al tratamiento”.

“ChatGPT Health ayuda a las personas a asumir un papel más activo en la comprensión y gestión de su salud y bienestar, al tiempo que apoya, pero no reemplaza, la atención de los clínicos”, se lee en el sitio web de la compañía.

En realidad, es seguro que los usuarios la utilicen para exactamente el tipo de consejos de salud que OpenAI está advirtiendo en la letra pequeña, lo que probablemente traerá nuevos bochornos para la compañía.

leer más 

Fable: Análisis Completo del Nuevo RPG de Playground Games

Fable: Todo lo que sabemos del reboot en PC, Xbox y PS5

Fable: Detalles, Fecha de Lanzamiento y Novedades

Reboot de Fable: Un Nuevo Comienzo para la Saga

Fable: Primeras Impresiones y Análisis Detallado

Esto solo agravará los problemas existentes de la compañía. Como informa Business Insider, ChatGPT está “convirtiendo a todos en abogados y médicos aficionados”, para disgusto de los profesionales del derecho y la medicina.

Jonathan Freidin, abogado especializado en negligencia médica con sede en Miami, le dijo a la publicación que las personas utilizarán chatbots como ChatGPT para completar la hoja de contacto de clientes de su firma.

“Estamos viendo a muchos más llamantes que sienten que tienen un caso porque ChatGPT o Gemini les dijeron que los médicos o enfermeras no cumplieron con el estándar de atención en múltiples formas”, dijo. “Si bien eso puede ser cierto, no necesariamente se traduce en un caso viable”.

También está el hecho de que los usuarios están dispuestos a entregar historiales médicos, incluida información altamente sensible y personal, una decisión que OpenAI ahora está alentando con ChatGPT Health, a pesar de que la ley federal, como HIPAA, no se aplica a los productos de IA de consumo.

Como ejemplo, el multimillonario Elon Musk animó el año pasado a las personas a cargar sus datos médicos a Grok, su competidor de ChatGPT, lo que provocó una avalancha de confusión cuando los usuarios recibieron diagnósticos alucinatorios después de compartir sus radiografías y PET scans.

Dado el historial de la industria de la IA en lo que respecta a la protección de la privacidad y las dificultades con filtraciones de datos significativas, todos estos riesgos son tan pertinentes como siempre.

“Las nuevas herramientas de salud de la IA ofrecen la promesa de empoderar a los pacientes y promover mejores resultados de salud, pero los datos de salud son una de las informaciones más sensibles que las personas pueden compartir y deben protegerse”, declaró a la BBC Andrew Crawford, asesor senior del Center for Democracy and Technology.

leer más  Bitmoji Navideño: ¡Moda Festiva!

“Especialmente a medida que OpenAI avanza en la exploración de la publicidad como modelo de negocio, es crucial que la separación entre este tipo de datos de salud y los recuerdos que ChatGPT captura de otras conversaciones sea hermética”, añadió. “Dado que depende de cada empresa establecer las reglas sobre cómo se recopilan, utilizan, comparten y almacenan los datos de salud, las protecciones y políticas de datos inadecuadas pueden poner en peligro la información de salud sensible”.

“ChatGPT solo está sujeto a sus propias divulgaciones y promesas, por lo que sin una limitación significativa de eso, como una regulación o una ley, ChatGPT puede cambiar los términos de su servicio en cualquier momento”, dijo a The Record Sara Geoghegan, asesora senior del Electronic Privacy Information Center.

También existen preocupaciones sobre que datos altamente sensibles, como la información sobre la salud reproductiva, se entreguen a la policía en contra de los deseos del usuario.

“¿Cómo maneja OpenAI las solicitudes de las fuerzas del orden?”, preguntó Crawford a The Record. “¿Simplemente entregan la información? ¿Se informa al usuario de alguna manera?”

“Hay muchas preguntas ahí que todavía no tienen grandes respuestas”, añadió.

Más sobre la IA y los consejos de salud: Google’s AI Overviews Caught Giving Dangerous “Health” Advice

You may also like

Leave a Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.