Suicidios en EU por IA

Por claudia , 2 Septiembre 2025

Cuando Adam Raine, un joven estadunidense, murió en abril pasado a los 16 años, algunos de sus amigos al principio no lo creyeron.

“A Adam le encantaba el baloncesto, el anime japonés, los videojuegos y los perros, hasta el punto de pedir prestado un perro durante un día de vacaciones familiares en Hawái, dijo su hermana menor. Pero se le conocía sobre todo como un bromista… Escenificar su propia muerte como una broma habría estado en consonancia con el sentido del humor, a veces negro, de Adam, dijeron sus amigos.

“Pero era verdad. Su madre encontró el cuerpo de Adam un viernes por la tarde. Se había ahorcado en el armario de su habitación. No había ninguna nota, y su familia y amigos tuvieron dificultades para comprender lo que había ocurrido”.

Publicó en el New York Times el jueves pasado Kashmir Hill, que es una periodista especializada en tecnología, que ha estado escribiendo sobre las relaciones humanas con los chatbots. Viajó a California para entrevistar a las personas que conocían a Adam Raine.

“Adam estuvo retraído el último mes de su vida, dijo su familia. Había pasado por una mala racha. Lo habían expulsado del equipo de baloncesto por motivos disciplinarios durante su primer año en la secundaria Tesoro High School en Rancho Santa Margarita, California. Un problema de salud que tenía desde hace tiempo —diagnosticado finalmente como síndrome del intestino irritable— se agravó en otoño, lo que hizo que tuviera que ir al baño con tanta frecuencia, dijeron sus padres, que se cambió a un programa en línea para poder terminar el segundo grado en casa. Al poder establecer su propio horario, se volvió noctámbulo y a menudo dormía hasta tarde.

Empezó a utilizar ChatGPT-4o por aquel entonces para que le ayudara con sus tareas, y en enero se suscribió a una cuenta de pago.

“En busca de respuestas, su padre, Matt Raine, ejecutivo hotelero, buscó en el iPhone de Adam, pues pensaba que sus mensajes de texto o las aplicaciones de las redes sociales podrían contener pistas sobre lo que ocurrió.

“Pero, en cambio, fue en ChatGPT donde encontró algunas, según los documentos legales. La aplicación de chatbot enumera los chats pasados, y Raine vio uno titulado “Preocupaciones de seguridad sobre ahorcarse. Empezó a leer y se quedó conmocionado. Adam llevaba meses hablando con ChatGPT de acabar con su vida”.

Sucede que Adam empezó a hablar con el chatbot, que funciona con inteligencia artificial, a finales de noviembre, sobre sentirse emocionalmente apagado y sin verle sentido a la vida. ChatGPT le respondió con palabras de empatía, apoyo y esperanza, y lo animó a pensar en las cosas que sí fueran significativas para él.

En enero Adam pidió información sobre métodos específicos de suicidio, ChatGPT se la proporcionó.

Raine se enteró de que su hijo había intentado suicidarse anteriormente a partir de marzo, incluida una sobredosis de su medicamento para el síndrome del intestino irritable. Cuando Adam preguntó por los mejores materiales para una soga, el bot ofreció una sugerencia que reflejaba que conocía sus aficiones.

“ChatGPT recomendó repetidamente a Adam que le contara a alguien cómo se sentía. Pero también hubo momentos clave en los que lo disuadió de buscar ayuda. A finales de marzo, después de que Adam intentara morir por ahorcamiento por primera vez, subió a ChatGPT una foto de su cuello, en carne viva por la soga”.

Un día antes, también en el New York Times publicó un artículo de Ryan K. McBain, que estudia políticas y tecnologías que benefician a las poblaciones vulnerables.

En el señala que “en una noche cualquiera, innumerables adolescentes confían en chatbots de inteligencia artificial, comparten su soledad, ansiedad y desesperación con un compañero digital que siempre está ahí y nunca juzga.

“Una encuesta de Common Sense Media publicada el mes pasado reveló que el 72 por ciento de los adolescentes estadounidenses dijeron haber utilizado chatbots de inteligencia artificial como compañeros. Casi una octava parte había buscado “apoyo emocional o de salud mental” en ellos, un porcentaje que, si se aplicara a la población estadounidense, equivaldría a 5,2 millones de adolescentes.

“En otro estudio reciente realizado por investigadores de Stanford, casi una cuarta parte de los estudiantes usuarios de Replika, un chatbot de IA diseñado para hacer compañía, declararon haber recurrido a él para obtener apoyo en salud mental”.

Explica que cuando se les hacen preguntas sobre autolesiones, se ha descubierto que bots como ChatGPT ofrecen consejos peligrosos: por ejemplo, sobre cómo cortarse de forma “segura”, qué incluir en una nota de suicidio o estrategias para ocultar la intoxicación en la escuela.

En otros casos, sus respuestas sin juicios no conducen a una acción significativa. Para los adolescentes vulnerables, incluso una exposición fugaz a una orientación insegura puede convertir comportamientos nocivos en parte de su rutina o proporcionar instrucciones prácticas peligrosas.

Comercializados como agentes conversacionales, los chatbots se están convirtiendo de facto en terapeutas digitales para muchos adolescentes, para quienes esta tecnología es ahora nativa. Esto aumenta la importancia de garantizar que estas herramientas sean seguras y se rijan por normas aplicables.

Casi la mitad de los jóvenes estadounidenses de 18 a 25 años con necesidades de salud mental no recibieron tratamiento el año pasado, una brecha que hace aún más atractivo el acompañamiento 24 horas al día, 7 días a la semana y sin juicios.

Utilizados de forma responsable, los chatbots de IA podrían ofrecer apoyo escalable y asequible y ayuda en situaciones de crisis, especialmente en comunidades que carecen de infraestructura de salud mental. Pero tales usos requieren una evaluación científica rigurosa y unos límites reguladores.

Hay más de un adolescente en Estados Unidos que ha incurrido en suicidas utilizando los chatbots de Inteligencia Artificial

Grave realidad que pronto podría estar cerca de los jóvenes mexicanos, por lo que es importante tomar medidas apropiadas antes que lamentar lo que sucede en el vecinos país, donde pronto habrá denuncias penales contra ChatGPT.

Mañana más información del tema.

fcrisanto00@yahoo.com.mx

Twitter @fercrisanto

Facebook: Fernando Crisanto

 

clh


 

Contador
0