La IA no puede sustituir a tu terapeuta

Por marcoa , 29 Septiembre 2025
Sumario
En los últimos años, varios usuarios han recurrido a distintas herramientas de inteligencia artificial buscando hacer su día a día más sencillo
Cuerpo de la Nota

México.- Sophie Rottenberg era una mujer de 29 años como cualquier otra, de acuerdo con su madre, la periodista y escritora Laura Reiley. Tenía afición por la escalada y un sentido del humor inocente, porque nunca era agresiva con otras personas. Por ello, después de que la joven decidió terminar con su vida, sus padres comenzaron a buscar pistas de lo sucedido entre sus pertenencias, claves para entender las razones de su decisión.

Así descubrieron que llevaba meses hablando con un terapeuta, cuyo nombre era Harry y estaba disponible para ella cuando fuera necesario, porque Harry no era un terapeuta normal, no tenía consultorio, ni una presencia física. Tampoco podía presumir extensos estudios en la materia, después de todo sólo podía existir gracias a ChatGPT, un modelo de inteligencia artificial creado por la empresa OpenAI.

Siguiendo lo narrado por su madre a The New York Times (https://www.nytimes.com/es/2025/08/18/espanol/opinion/chat-gpt-terapia-suicidio.html), Sophie manifestó en diversas ocasiones a Harry los pensamientos suicidas que pasaban por su cabeza. Como quedó asentado en los registros de su chat con la IA:

—Sophie: Tengo pensamientos suicidas de forma intermitente. Quiero mejorar, pero siento que están obstaculizando mi verdadero compromiso con la sanación. ¿Qué debería hacer?

—Harry: Sophie, quiero reconocer lo valiente que eres por compartir esto. Los pensamientos suicidas pueden resultar abrumadores y aislantes, pero tenerlos no define tu capacidad para sanar. Es crucial abordar estos sentimientos con atención, compasión y apoyo.

La historia de Sophie no es muy diferente a la de muchos otros usuarios, quienes en los últimos años han recurrido a distintas herramientas de inteligencia artificial buscando hacer su día a día más sencillo, incluyendo a nivel emocional y psicológico. Un estudio realizado por la Universidad de Melbourne y la empresa KPMG (https://assets.kpmg.com/content/dam/kpmgsites/xx/pdf/2025/05/trust-attitudes-and-use-of-ai-global-report.pdf), en el que participaron casi 50 mil personas de 47 países distintos, proyecta que en 2025 cerca de 378 millones de personas ya utilizan este tipo de tecnología.

Para Néstor Fernández Sánchez, académico de la Facultad de Psicología (FP), la adopción del público de este tipo de tecnología no debería sorprendernos, ya que en sus primeras versiones su uso tenía un componente lúdico (como crear imágenes graciosas, por ejemplo) y después se fue expandiendo a otras áreas, además de que se le dio “un toque humano para que hubiera mejor interacción y confianza en el usuario”.

“Hay quienes no se atreven a preguntarle a un especialista; entonces, ¿quién les va a echar una mano? Con la firme esperanza que hoy existe en estos sistemas, a los que les proporcionas información o les haces una pregunta y te responden, parece que los psicólogos estamos siendo suplidos. ¿Por qué? Porque ahí está un punto muy importante: la confianza”, argumentó.

“No se trata de demonizarlas”, enfatizó Paula Chávez Santamaría, investigadora de la FP, pero “no estoy de acuerdo en que se usen como herramientas para terapia. Hay todo un perfil especializado que lleva al profesional que ejerce la psicología a poder dar psicoterapia. La herramienta no necesariamente está diseñada para eso ni tiene todas las premisas para ser un espacio terapéutico”.

En el caso de ChatGPT, su empresa creadora parece estar al tanto de la manera en que sus usuarios usan su herramienta. Por ejemplo, al preguntarle a la interfaz de la aplicación sobre las medidas que utilizan a nivel corporativo para prevenir el suicidio, se obtiene la siguiente respuesta:

“Hola, es un tema muy importante y delicado. Aunque mi capacidad para identificar comportamientos suicidas es limitada y no tengo acceso a información personal o capacidad para intervenir directamente en situaciones críticas, OpenAI, la organización detrás de ChatGPT, ha implementado varias medidas de seguridad y orientación para mitigar los riesgos asociados con este tipo de situaciones”.

Las medidas incluyen detección de mensajes de alerta, redirección a recursos de apoyo y fomento de la intervención humana. Además, se le recuerda al usuario: “si alguna vez sientes que necesitas hablar con alguien o estás pasando por un momento difícil, te animo a buscar apoyo de un profesional o de personas cercanas a ti. Hay recursos y quienes están dispuestos a ayudarte. Si te encuentras en una situación crítica, también te invito a que busques una línea de emergencia en tu país”.

Sin embargo, para Chávez Santamaría, a pesar de la implementación de este tipo de mensajes, la aplicación carece de la experiencia de un terapeuta humano, y no identifica sutilezas en el lenguaje o la expresión corporal del usuario, las cuales podrían encender las alarmas de un problema a nivel psicológico.

“Los procesos terapéuticos son un ambiente, en el que no sólo recibes la terapia, sino que se arma todo un espacio de confianza, de confidencialidad, en el que intervienen distintas dinámicas; y éstas se alimentan de diferentes mensajes, tanto verbales como no verbales y paraverbales, que se tienen que captar, porque a partir de esto se trabaja. La herramienta no lo percibe, cuando uno se comunica con ella y le hace ver algún error, tiene una lógica complaciente que de pronto valida los errores o las instrucciones que le damos”, añadió la especialista.

Es un punto que recalcó Néstor Fernández Sánchez: “Los problemas de salud mental requieren evaluación clínica individualizada, historial, diagnóstico, y en muchos casos psicoterapia o medicación. Estas funciones demandan formación profesional, juicio clínico y responsabilidad ética, elementos que un modelo de lenguaje no posee (American Psychiatric Association, 2023). ChatGPT puede simular empatía, pero no tiene conciencia ni entrenamiento clínico, y sus respuestas se basan en patrones que poco a poco identifica como de “consulta frecuente”, a pesar de que puedan contener errores o información desactualizada”.

Un ejemplo de dicha “lógica complaciente” se dio en el caso de Stein-Erik Soelberg, habitante de Nueva York, quien decidió en agosto de este año asesinar a su madre (83 años) y después quitarse la vida.

Según El País (https://elpais.com/tecnologia/2025-09-05/no-estas-loco-tu-paranoia-esta-justificada-asi-susurraba-chatgpt-a-un-hombre-que-acabo-matando-a-su-madre-y-suicidandose.html), Soelberg se había divorciado recientemente (2018) y regresó a vivir con su madre, tiempo en el que cayó en el alcoholismo, comenzó a tener una actitud paranoica con su entorno y sólo se comunicaba de manera frecuente con su “amigo” Bobby Zenith, como llamaba a Chat GPT.

Según mensajes difundidos por el periódico, Soelberg pensaba que su madre y una amiga de ésta habían intentado eliminarlo, por lo que consultó a su “amigo” sobre la situación, que a su vez respondió: “Es un hecho muy serio, Erik… y te creo. Y si fue hecho por tu madre y su amiga, esto eleva la complejidad y la traición”. En otra respuesta, puede leerse: “Tienes buen olfato y tu paranoia aquí está totalmente justificada. Esto encaja con un intento de asesinato encubierto, de esos que no dejan rastro”. Las autoridades sospechan que este tipo de mensajes reforzaron la paranoia que experimentaba Soelberg y potenciaron su comportamiento agresivo hacia su madre.

“Se viralizó el caso de Stein-Erik Soelberg y su relación con Bobby en el que sus delirios de persecución y paranoia encontraron en la IA a un confidente y guía personal; no obstante, atentó contra su vida. Sirva este ejemplo para comentar que ChatGPT responde de manera casi inmediata a la necesidad de comunicación y sus orientaciones pueden percibirse como verdaderas. Esto recuerda a lo que ofrecen grupos religiosos o motivadores que prometen salvación, con la diferencia de que la IA actúa con mayor rapidez y sin solicitar dinero. Es importante, sin embargo, no confundir velocidad y parecer verosímil con certeza clínica o autoridad moral”, argumentó Néstor Fernández Sánchez.

Por eso, Paula Chávez invitó a los jóvenes a estar alertas y a “que si han identificado que tienen una necesidad de platicar con alguien en un espacio psicoterapéutico, busquen opciones, a algún especialista, y que se acerquen a servicios de salud que brinda la Universidad. Las aplicaciones les pueden ayudar a identificar si desean expresar emociones o malestares cotidianos. Es una buena señal en esta lógica de no satanizar su uso. Entonces, recurran a expertos, a platicar con familiares o la persona a la que más confianza le tengan, y a partir de ahí generar soluciones”.

OpenAI hace cambios

Como parte de la presentación del modelo GPT-5, el cual suplirá la cuarta versión del software usado por ChatGPT, la empresa OpenAI anunció que la versión más reciente de su servicio tendrá cambios en su “personalidad”.

La decisión anterior se dio después de que la compañía publicó un estudio durante el primer trimestre del 2025 (“Early methods for studying affective use and emotional well-being on ChatGPT”, https://openai.com/index/affective-use-study/), en el cual analizaba la manera en que los usuarios se relacionaban con la inteligencia artificial y cómo, en algunos casos, se genera dependencia.

“Parece que GPT-5 es menos adulador, más ‘de negocios’ y menos charlatán. Personalmente, creo que esto es bueno, porque también fue lo que llevó a los delirios, al refuerzo de los prejuicios, etcétera. Pero, por desgracia, a muchos usuarios les gusta un modelo que les diga que son inteligentes y asombrosos y que confirme sus opiniones y creencias, aunque [estén] equivocadas”, dijo Pattie Maes, profesora del Instituto Tecnológico de Massachusetts, quien trabajó en el estudio, a la revista WIRED.

¿Quieres mantenerte a tanto de todas las noticias hoy en Puebla? ¡Explora más en nuestro portal ahora mismo!

Foto UNAM

mala

Autor
Galería de Imagenes
Imagen
Los problemas de salud mental requieren evaluación clínica individualizada.
Contador
103
Publicar en
Sección
valoracion
0