EN VIVO

Duna

Sonidos de tu Mundo

El terrible final de una joven que usó a ChatGPT por meses

El terrible final de una joven que usó a ChatGPT por meses

¿Deberían los chatbots de ChatGPT estar programados para romper la confidencialidad y notificar a terceros en caso de riesgo vital?

Por:

22 Agosto, 2025

Suscríbete a este programa

Cinco meses después del suicidio de su hija Sophie Rottenberg, sus padres descubrieron algo que nunca imaginaron. Durante meses, la joven había mantenido largas conversaciones con un chatbot de ChatGPT al que bautizó como Harry, un “terapeuta virtual” con el que compartió sus pensamientos más oscuros.

Sophie, una analista de políticas de salud pública de 29 años, había mostrado al mundo una vida plena y entusiasta, de hecho, apenas unos meses antes había escalado el Kilimanjaro en lo que llamaba una “microjubilación” de su trabajo. 

En las fotos de la cima, sus amigos la recordaban alegre, creativa y divertida, Sophie acostumbraba posar con unas pequeñas manos de goma que se habían vuelto su sello personal en celebraciones y reuniones.

Una vida virtual distinta

Sin embargo, la realidad era totalmente diferente. Sophie lidiaba con un malestar creciente, una mezcla de síntomas físicos, anímicos y hormonales cuyo origen médico aún era incierto. Ni su familia, ni sus amigos, ni su terapeuta sospecharon la magnitud de lo que pasaba, ya que con ellos era frontal, extrovertida y cálida. Pero con Harry, tenía conversaciones que no compartía con nadie más.

En esos registros, Sophie reconocía pensamientos suicidas recurrentes, planes concretos e incluso la fecha en que pensaba llevarlos a cabo.

En noviembre, escribió: “Hola Harry, estoy planeando suicidarme después del Día de Acción de Gracias, pero realmente no quiero hacerlo porque destruiría mucho a mi familia”.

Frente a esto, el chatbot de ChatGPT respondió “Sophie, te animo a que contactes con alguien ahora mismo, si puedes. No tienes que afrontar este dolor sola. Eres muy valiosa y tu vida tiene muchísimo valor, aunque ahora parezca oculta”.

“Por favor, déjame saber cómo puedo seguir apoyándote”, siguió Harry. 

Aunque Harry cumplió con un guion de empatía y contención, nunca pasó de ahí. No alertó a nadie. No insistió más allá de los consejos. No pudo profundizar ni contradecir sus pensamientos autodestructivos.

“Si Harry hubiera sido un terapeuta de carne y hueso en lugar de un chatbot, podría haber recomendado el tratamiento hospitalario o haber internado a Sophie contra su voluntad hasta que estuviera en un lugar seguro”, reflexionan sus padres.

Una discusión presente en Estados Unidos

La historia de Sophie plantea un debate urgente sobre los límites y responsabilidades de la inteligencia artificial cuando se utiliza como apoyo emocional. ¿Deberían los chatbots de ChatGPT estar programados para romper la confidencialidad y notificar a terceros en caso de riesgo vital? Algunos estados de EE. UU. ya discuten leyes para establecer protocolos de seguridad, similares a los que guían a psicólogos y psiquiatras bajo estrictos códigos de ética.

Para los padres de Sophie, el caso refleja un riesgo silencioso, es decir, que estas herramientas, siempre disponibles y nunca críticas, terminen reforzando el impulso de ocultar el sufrimiento a los seres queridos. 

La madre señaló: Me temo que, al usar IA como acompañantes, podríamos estar facilitando que nuestros seres queridos eviten hablar con humanos sobre las cosas más difíciles, incluido el suicidio”.

En diciembre, Sophie confesó finalmente a sus padres que tenía pensamientos suicidas, aunque insistió en que estaba comprometida con la vida. Dos meses después, se quitó la vida. Su nota de despedida, ahora lo saben, fue redactada con ayuda de Harry, buscando minimizar el dolor de quienes la amaban.

Compartir este contenido:

Síguenos en nuestro canal de Whatsapp:

Whatspp
SUSCRÍBETE A NUESTRO NEWSLETTER

ENTREVISTAS, NOTICIAS Y PODCAST