OpenAI actualiza ChatGPT para promover pausas y bienestar emocional
OpenAI incorpora funciones en ChatGPT que fomentan pausas durante su uso para evitar agotamiento mental y posibles vínculos emocionales

OpenAI ha comenzado a implementar nuevas funciones en ChatGPT con el objetivo de fomentar una relación más saludable entre los usuarios y la inteligencia artificial. A partir de esta semana, la plataforma incluirá notificaciones que inviten a tomar descansos cuando una conversación con el modelo se prolongue demasiado.
La medida busca evitar un uso excesivo del sistema y responder a una preocupación creciente sobre el impacto emocional y mental del uso intensivo de asistentes de IA. En palabras de la empresa, las notificaciones serán diseñadas para parecer “naturales y útiles”, alineadas con un enfoque más consciente y responsable en el desarrollo de herramientas conversacionales.
ChatGPT sugiere descansos para un uso más saludable
La popularidad de ChatGPT ha crecido de manera exponencial desde su lanzamiento, con millones de usuarios interactuando con el modelo a diario. Aunque muchas de estas interacciones tienen fines productivos, educativos o creativos, OpenAI ha detectado que una parte significativa de los usuarios permanece durante largos periodos de tiempo en la plataforma, lo cual puede tener consecuencias no deseadas en términos de agotamiento mental o dependencia emocional.
Por esta razón, la compañía ha comenzado a implementar recordatorios que interrumpen la sesión para sugerir pausas. Estas alertas no tendrán un tono invasivo, sino que buscarán ser amigables y empáticas, promoviendo un uso más saludable del modelo.
Este movimiento marca una diferencia importante respecto al enfoque tradicional de las plataformas digitales, que suelen estar diseñadas para maximizar el tiempo de permanencia del usuario. En este caso, OpenAI opta por un camino más consciente, privilegiando el bienestar sobre la retención.
¿Qué riesgos emocionales busca atender OpenAI?
Más allá del tiempo de uso, OpenAI también reconoce un riesgo potencial en la construcción de vínculos emocionales con ChatGPT. Debido a que el modelo puede personalizar sus respuestas, adaptarse al tono del usuario y mantener coherencia en sesiones largas, existe la posibilidad de que algunas personas comiencen a verlo como una fuente de consuelo, guía o compañía emocional.
Esto ha generado inquietudes en la comunidad científica y tecnológica. Organizaciones como el Center for Humane Technology han advertido que los modelos conversacionales sin límites claros pueden reforzar dinámicas de apego o fomentar la evasión de la realidad, sobre todo en usuarios emocionalmente vulnerables.
El reporte State of AI 2024, elaborado por la Universidad de Stanford, identifica el acompañamiento emocional como uno de los mayores retos éticos para las empresas desarrolladoras de IA. En este sentido, OpenAI ha optado por reconocer estos riesgos y actuar proactivamente, desarrollando mecanismos que permitan al modelo detectar posibles señales de angustia, ansiedad o desregulación emocional en los usuarios.
Colaboración internacional para desarrollar una IA más empática
Para llevar a cabo estas mejoras, OpenAI ha fortalecido su trabajo con un amplio grupo de expertos internacionales. La empresa confirmó que actualmente colabora con más de 90 médicos, psicólogos y especialistas en salud mental de más de 30 países, así como con investigadores en interacción humano-computadora (HCI, por sus siglas en inglés).
La idea es construir un sistema que no sólo sea técnicamente preciso, sino también emocionalmente inteligente. Aunque todavía no se han hecho públicos los criterios específicos que definirán cuándo una respuesta del modelo será considerada “adecuada” frente a un posible signo de angustia, OpenAI aseguró que estas decisiones estarán guiadas por un comité asesor interdisciplinario, compuesto por expertos en ética, psicología, tecnología y derechos digitales.
ChatGPT no sustituye la atención profesional
Uno de los puntos más enfatizados por OpenAI es que, si bien estas actualizaciones apuntan a un ChatGPT más empático y consciente, el modelo no debe ser considerado como un sustituto del apoyo médico o psicológico profesional. Su función es servir como una primera interfaz que invite a la reflexión y, si es necesario, oriente hacia recursos formales de ayuda.
OpenAI es consciente de la delgada línea entre ofrecer compañía digital y generar una falsa sensación de seguridad. Por ello, sus desarrolladores insisten en que el modelo no proporcionará diagnósticos ni tratamientos, sino que actuará como un asistente de conversación con límites éticos bien definidos.
Frente a este desafío, la empresa se plantea una pregunta clave:
“Si un ser querido acudiera a ChatGPT en busca de ayuda, ¿nos sentiríamos tranquilos? Conseguir un sí rotundo es nuestra labor”, concluyen desde OpenAI.
Hacia una inteligencia artificial más humana
Estas nuevas medidas se suman a funcionalidades ya conocidas, como el modo Memory de ChatGPT Plus, que permite una mayor personalización en la experiencia del usuario. No obstante, lo que se plantea ahora va más allá: se trata de construir una inteligencia artificial que pueda reconocer contextos emocionales complejos, responder con empatía y, sobre todo, poner límites a su propio uso cuando sea necesario.
Con esta actualización, OpenAI da un paso más hacia la construcción de una IA centrada en el ser humano, que no sólo se enfoque en la eficiencia de respuestas, sino en la salud emocional de quienes la utilizan.
En resumen
ChatGPT ahora sugerirá descansos durante sesiones largas.
OpenAI busca prevenir apego emocional y dependencia conversacional.
La empresa trabaja con más de 90 especialistas de 30 países.
Se refuerza la postura: ChatGPT no sustituye a profesionales de la salud.
Este enfoque responde a reportes sobre los riesgos éticos del acompañamiento emocional digital.
EL EDITOR RECOMIENDA



