Hombre de 60 años es hospitalizado tras seguir consejo de ChatGPT sobre la sal
Un hombre de 60 años terminó en el hospital con alucinaciones y toxicidad por bromuro, tras sustituir la sal de mesa por indicación de ChatGPT

Un hombre de 60 años fue hospitalizado con graves síntomas físicos y psiquiátricos después de seguir un consejo de ChatGPT sobre cómo mejorar su dieta.
Lo que inició como una consulta para sustituir la sal de mesa terminó en un cuadro de intoxicación por bromuro de sodio, un compuesto de uso industrial que no está destinado al consumo humano.
El consejo equivocado
De acuerdo con un estudio publicado en Annals of Internal Medicine Clinical Cases, el paciente había leído sobre los supuestos efectos adversos del cloruro de sodio y consultó a ChatGPT para encontrar un sustituto.
La herramienta de inteligencia artificial le sugirió el bromuro de sodio, un compuesto químico similar en apariencia, pero con propiedades y riesgos completamente distintos.
Te podría interesar leer: Inteligencia artificial transforma la educación en medicina
Aunque el bromuro de sodio se ha usado ocasionalmente en medicina, su aplicación más común es en procesos industriales y de limpieza. Sin verificar con un profesional de la salud, el hombre decidió eliminar la sal común de su dieta y reemplazarla por este compuesto, que adquirió en línea.
Tres meses hasta el hospital
Durante tres meses consumió bromuro de sodio en lugar de sal. Con el tiempo desarrolló sed extrema, fatiga, insomnio y problemas de coordinación.
También comenzó a sospechar que un vecino lo estaba envenenando. Sin antecedentes psiquiátricos previos, fue ingresado en el hospital, donde sus síntomas empeoraron con paranoia y alucinaciones auditivas y visuales.
Los médicos lo trataron con líquidos, electrolitos y antipsicóticos. Debido a la gravedad del cuadro y a intentos de fuga, fue internado en la unidad de psiquiatría. Tras mejorar, reportó otros síntomas asociados al bromismo: acné, angiomas cereza, ataxia y polidipsia.
El diagnóstico: bromismo
El bromismo es un síndrome tóxico causado por la exposición prolongada al bromuro o al bromo. Según los autores del estudio, este caso ilustra los riesgos de seguir recomendaciones médicas no verificadas provenientes de sistemas de inteligencia artificial.
“ChatGPT y otros sistemas de IA pueden generar imprecisiones científicas, carecer de capacidad para analizar críticamente los resultados y, en última instancia, propagar información errónea”, advirtieron los médicos.
Los autores verificaron por su cuenta que una versión de ChatGPT (3.5) podía mencionar el bromuro como “sustituto” del cloruro en ciertos contextos sin advertencias claras, lo que apoya la plausibilidad del relato
La confianza en la IA y el riesgo en salud
OpenAI, desarrollador de ChatGPT, establece en sus términos que la herramienta no está destinada al diagnóstico o tratamiento de enfermedades. Sin embargo, una encuesta de 2025 reveló que el 35% de los estadounidenses ya la utiliza para temas de salud y bienestar.
El 63% considera confiable a la IA para brindar información médica, una cifra mayor que la de redes sociales (43%) o influencers (41%), pero menor que la confianza en médicos (93%) o amigos (82%). Para muchos, es más fácil y accesible que una consulta profesional, lo que incrementa el riesgo de desinformación.
En este caso, los médicos concluyen que es muy poco probable que un profesional hubiera recomendado bromuro de sodio como sustituto de la sal, subrayando la importancia de verificar cualquier consejo médico con especialistas calificados.
bgpa
EL EDITOR RECOMIENDA
¿Qué es la hipersomnia? La causa detrás de tener sueño todo el día
Salud 3 min de lectura
Un medicamento logra hasta 7 años sin avance del cáncer de pulmón
Salud 2 min de lectura