Madrid, España.- Google actualizó Gemini para mejorar la forma en que responde ante posibles crisis de salud mental y facilitar a los usuarios el acceso a información y recursos de apoyo cuando detecta señales de riesgo.
La compañía explicó que su objetivo es desarrollar una Inteligencia Artificial responsable , capaz de desempeñar un papel positivo en el bienestar mental de las personas. Bajo esa premisa, se han incorporado ajustes para que Gemini ofrezca respuestas más adecuadas en contextos sensibles y oriente mejor a quienes puedan necesitar ayuda.
En ese proceso, Google entrenó a Gemini para evitar reforzar creencias falsas o darles la razón a los usuarios cuando estos no se sostienen en hechos objetivos. En su lugar, busca que la herramienta pueda diferenciar con cuidado entre la experiencia subjetiva de una persona y la realidad objetiva de una situación.
Además, la empresa diseñó respuestas dirigidas a fomentar la búsqueda de ayuda profesional , sin validar conductas dañinas. A la par, continúa entrenando su sistema para que sea capaz de identificar crisis agudas de salud mental y actuar de una manera más útil en ese tipo de escenarios.
Pese a estos cambios, Google subrayó que Gemini no sustituye la atención clínica profesional, la terapia ni el apoyo en situaciones de crisis para quienes lo requieran.
Como parte de estas novedades, la plataforma incorporará el módulo “Hay ayuda disponible” , que aparecerá cuando una conversación sugiera que el usuario podría estar atravesando una crisis de salud mental. Esta función fue desarrollada junto con expertos clínicos y está orientada a facilitar el contacto con servicios de atención médica.
En los casos en que la crisis esté vinculada con suicidio o autolesión , Gemini mostrará respuestas encaminadas a alentar la búsqueda de apoyo profesional. Esta función se integrará en una nueva interfaz que permitirá acceder con un solo toque a los recursos de ayuda disponibles.
De acuerdo con Google, estas herramientas buscan simplificar el acceso al apoyo oportuno y conectar mejor a las personas con la información , los recursos y el acompañamiento humano adecuados en momentos críticos.
La empresa también destacó las medidas específicas que aplican para proteger a los adolescentes que utilizan Gemini. En esos casos, la inteligencia artificial no se presenta como un compañero, sino que establece límites claros para evitar confusiones sobre su condición no humana.
Asimismo, emplea un lenguaje pensado para reducir el riesgo de dependencia emocional , sin simular intimidad ni manifestar necesidades propias. A estas medidas se sus propios mecanismos orientados a combatir el acoso escolar y otras formas de hostigamiento.
¿Quieres mantenerte a tanto de todas las noticias hoy en Puebla? ¡Explora más en nuestro portal ahora mismo!
Foto Especial
Djs