Aumenta el uso de inteligencia artificial como terapeutas y expertos se preocupan
La terapia con IA crece en el mundo, pero expertos advierten riesgos éticos y clínicos.

La búsqueda de apoyo emocional a través de la inteligencia artificial se ha convertido en un fenómeno global que crece con rapidez y sin precedentes claros.
Millones de personas recurren hoy a chatbots y aplicaciones digitales para hablar de ansiedad, depresión, conflictos de pareja o pensamientos intrusivos, en un contexto marcado por la saturación de los sistemas de salud mental y el estigma que aún rodea a la terapia tradicional.
Sin embargo, especialistas advierten que esta expansión acelerada abre un terreno lleno de dilemas éticos, clínicos y de seguridad.
¿Puede una IA ser buen terapeuta?
De acuerdo con un análisis de MIT Technology Review, el auge de los llamados “terapeutas de inteligencia artificial” ha ampliado el acceso a una forma básica de acompañamiento psicológico, pero también ha dado lugar a riesgos graves.
El fenómeno se desarrolla como un experimento a gran escala, donde los beneficios reportados por algunos usuarios conviven con fallos preocupantes y consecuencias potencialmente dañinas.
La necesidad de alternativas accesibles es innegable. Datos de la Organización Mundial de la Salud (OMS) indican que más de 1000 millones de personas viven con algún trastorno relacionado con la salud mental, con aumentos significativos en ansiedad y depresión, especialmente entre jóvenes.

Plataformas como ChatGPT de OpenAI, Claude de Anthropic y aplicaciones como Wysa o Woebot concentran millones de usuarios que buscan apoyo inmediato, gratuito y disponible las 24 horas.
Riesgos de la IA como terapeuta
El problema surge cuando estas herramientas, diseñadas originalmente para la conversación o el entretenimiento, son utilizadas como sustitutos de la terapia profesional.
La American Psychological Association (APA) ha advertido que no es posible impedir que las personas hablen con chatbots sobre su salud mental, pero sí es necesario informar sobre los riesgos.
La doctora Vaile Wright, directora sénior de innovación en atención médica de la APA, señaló que la tarea principal es ayudar a que “los consumidores conozcan los riesgos que conlleva el uso de chatbots para la salud mental y conductual que no fueron creados para ese fin”.
Uno de los datos más inquietantes fue revelado en octubre de 2025 por el CEO de OpenAI, Sam Altman, quien informó que el 0.15 por ciento de los usuarios de ChatGPT —alrededor de un millón de personas por semana— compartían ideas suicidas a través del sistema. Aunque existen protocolos de seguridad, expertos advierten que las respuestas pueden ser imprevisibles o insuficientes en situaciones críticas.
La psicóloga Marilyn Wei, formada en Yale y Harvard, explicó en Psychology Today que diversos estudios muestran que la IA presenta un menor porcentaje de respuestas apropiadas que los humanos, puede reforzar estigmas y no está diseñada para cuestionar o desafiar patrones de pensamiento dañinos.
Además, la disponibilidad constante “puede empeorar los pensamientos obsesivos” y los modelos no están equipados para manejar riesgos graves.
A estas preocupaciones se suma la cuestión de la privacidad. El periodista Daniel Oberhaus alertó sobre el fenómeno del “asilo algorítmico”, en el que los usuarios entregan datos altamente sensibles de su salud mental a sistemas opacos.
La lógica de la inteligencia artificial psiquiátrica lleva hacia un futuro en el que todos podríamos quedar atrapados bajo vigilancia digital, sin posibilidad de escape”, advirtió.

El investigador Eoin Fullam, citado por MIT Technology Review, subrayó que el modelo de negocio de estas plataformas convierte al usuario en una fuente de datos explotables.
Cuanto mayor es el beneficio que percibe el usuario, mayor es el grado de explotación que experimenta”, sostuvo.
Aun así, algunos expertos reconocen que la IA podría cumplir un rol complementario. Charlotte Blease, filósofa de la medicina, destacó que estos sistemas podrían reducir barreras iniciales y aliviar la sobrecarga de profesionales, permitiendo que más personas se animen a buscar ayuda.
El consenso, por ahora, es claro: la inteligencia artificial no debe reemplazar a los terapeutas humanos, sino, en el mejor de los casos, apoyar procesos clínicos regulados y éticamente supervisados.
EL EDITOR RECOMIENDA



