La inteligencia artificial (IA) ha reemplazado ya a conductores, traductores e incluso a artistas. Pero, ¿estábamos preparados para que sustituyera a los médicos en la decisión más trascendental que existe? Philip Nitschke, el controvertido creador de la cápsula de suicidio “Sarco”, ha dado un nuevo paso en la bioética. Su último proyecto no solo proporciona una máquina para morir, sino que confía a un algoritmo la responsabilidad de validar la salud mental del candidato al suicidio. Una “casilla de verificación” digital que podría transformar el final de la vida en un procedimiento automatizado, sin la más mínima intervención humana.
El psiquiatra reemplazado por un código
El dispositivo Sarco, una cápsula impresa en 3D con un aspecto futurista, ya generaba debate por su estética y método (la hipoxia por nitrógeno). Pero la verdadera revolución –o regresión, según el punto de vista– es invisible. Philip Nitschke ha revelado la integración de un sistema de evaluación psiquiátrica basado íntegramente en la inteligencia artificial.
Concretamente, el usuario ya no se enfrentaría a un médico o psiquiatra para evaluar su capacidad de discernimiento, como ocurre actualmente en los países que autorizan el suicidio asistido. Interactuaría con una IA. Si el algoritmo “valida” que la persona está sana de mente y apta para tomar esta decisión, la cápsula se desbloquea. El usuario dispone entonces de un plazo de 24 horas para activar el mecanismo.
El objetivo declarado por Nitschke es la “desmedicalización” total de la muerte. Según él, cada uno debería poder disponer de su final de vida sin tener que convencer al cuerpo médico. Para sus detractores, esto es abrir la caja de Pandora: ¿cómo puede un software, por sofisticado que sea, captar los matices de la angustia humana, la presión social o una depresión pasajera?
Una primera utilización trágica y caótica
Si la IA es el siguiente paso, la cápsula Sarco ya tiene una historia, y es pesada. Se utilizó por primera vez en 2024 en un bosque suizo. Una estadounidense de 64 años, que sufría dolores intolerables debido a una enfermedad inmunitaria, acabó con su vida en ella.
En ese momento, el algoritmo aún no estaba activo. La paciente tuvo que seguir el protocolo clásico: una evaluación psiquiátrica realizada por un médico para confirmar su aptitud mental. Una vez dado el visto bueno, entró en la cápsula, pulsó el botón y el nitrógeno reemplazó al oxígeno, provocando una pérdida de conciencia y luego la muerte en pocos minutos.
Pero el asunto no terminó ahí. Las autoridades suizas, acostumbradas a los procedimientos de fin de vida (el país tolera la asistencia al suicidio bajo estrictas condiciones), detuvieron al Dr. Florian Willet, presente en el lugar, por complicidad. La ley suiza exige que el acto no esté motivado por ningún “interés personal”. Este episodio judicial dejó huella: el Dr. Willet, profundamente afectado por su encarcelamiento, recurrió él mismo al suicidio asistido en Alemania un año después, en 2025.
Hacia una muerte “en dúo”?
Lejos de verse frenado por estos dramas humanos y judiciales, el desarrollo de la máquina se acelera hacia opciones aún más sorprendentes. Se está preparando una versión llamada “Double Dutch”. ¿Su particularidad? Está diseñada para parejas que desean morir juntas.
Una vez más, la IA sería la encargada de evaluar a ambos miembros simultáneamente para darles la autorización de entrar en la cápsula común.
La ética frente al algoritmo
Esta tecnologización de la muerte plantea cuestiones vertiginosas. No se trata aquí de una necesidad logística –no faltan psiquiatras para este tipo de evaluaciones poco frecuentes–, sino de una elección ideológica. Reemplazar al humano por la máquina en este proceso es correr el riesgo de reducir la complejidad de la psicología humana a una serie de datos binarios.
Los expertos en ética médica se preocupan por la fiabilidad de estos diagnósticos automatizados. ¿Puede una IA detectar una coerción sutil por parte de un ser querido? ¿Puede diferenciar una voluntad firme de una crisis temporal? Por el momento, ningún estudio prueba que un algoritmo pueda igualar el juicio clínico de un psiquiatra experimentado en este campo concreto.
De hecho, esto es lo que señalan regularmente los investigadores en el campo de la salud mental digital: si la IA es una herramienta de detección prometedora, aún carece cruelmente de la “comprensión contextual” necesaria para las decisiones vitales.
