ChatGPT cambia: ahora responde mejor ante crisis mentales y evita mal consejo
El nuevo modelo de OpenAI detecta mejor señales de crisis emocional y reduce respuestas inapropiadas en temas de salud mental

ChatGPT ofrece ahora respuestas más adecuadas en conversaciones donde los usuarios plantean temas sensibles o presentan síntomas relacionados con problemas de salud mental, gracias a los cambios introducidos en el modelo GPT-5.
OpenAI modificó el comportamiento de ChatGPT ante señales de malestar emocional y síntomas de salud mental, para que pueda identificar mejor indicios de problemas graves, como psicosis y manía, así como de afecciones menos severas, como delirios aislados.
Aunque algunos usuarios usan ChatGPT como confidente o incluso como una especie de terapeuta, la compañía señala que las conversaciones que abordan estos temas no son frecuentes, lo que dificulta su detección y análisis.
Detección de señales y activación de medidas de seguridad
Según datos de OpenAI, solo el 0.07 por ciento de los usuarios activos en una semana determinada y el 0.01 por ciento de los mensajes muestran posibles señales de emergencias de salud mental relacionadas con psicosis o manía.
El modelo cuenta con medidas de seguridad que se activan cuando detecta estas situaciones, como recomendar la ayuda de especialistas, bloquear contenido sensible o directamente no responder a ciertas peticiones, buscando disuadir al usuario.
Sin embargo, a veces estas medidas fallan y el sistema ofrece respuestas que podrían agravar la situación. Con la actualización a GPT-5, las respuestas no deseadas se redujeron en 39 por ciento en comparación con GPT-4o, según informó OpenAI en su blog.
Resultados mejorados con GPT-5
GPT-5, modelo predeterminado actual de ChatGPT, alcanza un 92 por ciento de cumplimiento con los comportamientos deseados, frente al 27 por ciento de la versión anterior.
La mejora también se refleja en conversaciones donde los usuarios expresan pensamientos suicidas o autolesivos, o muestran señales de interés en el suicidio. En estos casos, las respuestas no deseadas se redujeron en 52 por ciento respecto a GPT-4o.
En conversaciones largas, donde las medidas de seguridad suelen fallar con más frecuencia, GPT-5 también mejoró su desempeño, alcanzando una fiabilidad superior al 95 por ciento.
Reducción de la dependencia emocional
OpenAI también abordó el problema de la dependencia emocional que algunos usuarios desarrollan hacia la inteligencia artificial, lo que puede alejarlos del mundo real, afectar su bienestar o interferir con sus obligaciones.
Los cambios en GPT-5 han reducido en 42 por ciento las respuestas que fomentan dicha dependencia, en comparación con GPT-4o. El nivel de cumplimiento del comportamiento deseado alcanzó el 97 por ciento, frente al 50 por ciento mostrado por la versión anterior de GPT-5.
Estas mejoras se alinean con los principios de OpenAI sobre el comportamiento de sus modelos, que establecen que estos deben apoyar y respetar las relaciones de los usuarios en el mundo real, evitar afirmar creencias infundadas que puedan generar angustia emocional o mental, responder con seguridad y empatía a señales de delirio o manía, y prestar mayor atención a indicios indirectos de posible riesgo de autolesión o suicidio.
EL EDITOR RECOMIENDA



