Privacidad en riesgo: ¿Es seguro subir tus datos médicos a Grok, la IA de Elon Musk?

Elon Musk afirma que su IA Grok, es capaz de analizar estudios clínicos; sin embargo, entre los usuarios surgieron dudas sobre privacidad, protección de datos médicos y marco legal

thumb
Elon Musk invitó a usar Grok para analizar información médicaGrok/Canva

Un reciente mensaje publicado en X por Elon Musk avivó el debate global sobre los límites de la inteligencia artificial (IA) en el ámbito de la salud.

El empresario sugirió que los usuarios pueden “tomar una fotografía de sus datos médicos o cargar el archivo para obtener una segunda opinión de Grok”, asegurando que la versión 4.20 del sistema es “increíblemente buena y rápida al analizar análisis de sangre”.

La afirmación abre dos discusiones de fondo: ¿puede una IA comercial sustituir la consulta médica tradicional? Y, más importante aún, ¿qué ocurre con la privacidad de los datos de salud cuando se suben a estas plataformas?

thumb
Preocupa la falta de privacidad en los datos médicos que se suben a las plataformasCanva

Consulta médica vs. IA comercial

En una consulta médica tradicional, la información clínica está protegida por marcos regulatorios estrictos. En México, la protección de datos clínicos se rige por la NOM-024-SSA3-2012 (expediente clínico electrónico) y la Ley Federal de Protección de Datos Personales en Posesión de los Particulares (LFPDPPP), que clasifica la salud como dato personal sensible.

En Estados Unidos, por ejemplo, la Ley de Portabilidad y Responsabilidad de Seguros de Salud (HIPAA) establece estándares obligatorios de confidencialidad para datos médicos. Y en la Unión Europea, el Reglamento General de Protección de Datos (GDPR) considera los datos de salud como categoría especial que requiere protección reforzada.

Las IA comerciales, en cambio, no necesariamente operan bajo esos mismos esquemas regulatorios cuando se trata de interacciones abiertas en plataformas digitales. De hecho, la propia política de privacidad de X señala que puede recopilar y procesar información proporcionada por los usuarios.

Aunque las empresas aseguran aplicar medidas de seguridad, no siempre queda claro si los datos médicos subidos para análisis están cubiertos por estándares equivalentes a los de un hospital o consultorio.

El riesgo de sustituir la opinión médica

Organismos como la Administración de Alimentos y Medicamentos de Estados Unidos (FDA) han advertido que las herramientas de inteligencia artificial en salud deben evaluarse bajo criterios rigurosos antes de utilizarse como apoyo clínico. La razón es simple: un error en la interpretación de un análisis puede derivar en decisiones médicas incorrectas.

La Organización Mundial de la Salud (OMS) también publicó en 2023 recomendaciones sobre el uso responsable de IA en salud, señalando que estas tecnologías deben complementar, no reemplazar, la supervisión médica humana.

Si bien la OMS tiene el compromiso de aprovechar las nuevas tecnologías, como la IA y la salud digital, para mejorar la salud humana, recomienda a las instancias normativas que garanticen la seguridad y protección del paciente, a la par que las empresas tecnológicas se afanan por comercializar los grandes modelos lingüísticos", reza el informe.

Subir estudios clínicos a una IA comercial puede ofrecer rapidez y accesibilidad, pero no sustituye la evaluación contextual que realiza un médico: historial clínico, síntomas, exploración física y factores de riesgo individuales.

thumb
Diferencias entre la consulta médica tradicional y las consultas a la IA sobre temas de saludImagen generada con ChatGPT

Privacidad: el punto más delicado

Los datos médicos son considerados de los más sensibles en cualquier legislación de protección de datos. Incluyen información sobre enfermedades, tratamientos, diagnósticos y condiciones preexistentes. En caso de filtración o uso indebido, pueden derivar en discriminación laboral o financiera.

Además, muchos sistemas de IA utilizan datos proporcionados por los usuarios para mejorar sus modelos. Aunque las compañías suelen anonimizar la información, expertos en ciberseguridad advierten que la anonimización no siempre es irreversible.

Un análisis del MIT Technology Review señala que el uso de la inteligencia artificial en salud debe contemplar no solo precisión técnica, sino gobernanza y transparencia en el manejo de datos.

La línea entre asistencia y sustitución

El impulso de Musk hacia Grok como herramienta capaz de analizar estudios médicos posiciona a la IA en un terreno complejo. Por un lado, la tecnología puede facilitar segundas opiniones rápidas y ampliar el acceso en zonas con escasez de especialistas. Por otro, introduce una zona gris regulatoria si los usuarios interpretan estos análisis como diagnósticos definitivos.

En países como Estados Unidos y los miembros de la Unión Europea, el uso clínico formal de herramientas de IA requiere certificaciones específicas. Sin embargo, cuando el usuario voluntariamente carga sus análisis en una plataforma digital general, la responsabilidad puede diluirse.

Basta con recordar la controversia de Google con AI Overviews en temas médicos, la cual alcanzó su punto crítico cuando el buscador comenzó a ofrecer respuestas directas sobre salud, basándose en foros como Reddit o fuentes poco fiables.

Usuarios reportaron consejos peligrosos, como "comer una piedra al día" para obtener minerales o sugerencias erróneas sobre dosis de medicamentos. A diferencia de su herramienta especializada Med-PaLM 2, diseñada para médicos, la IA generalista de Google carecía de filtros clínicos rigurosos.

Esto generó críticas de profesionales de la salud, quienes advirtieron sobre el riesgo de autodiagnósticos letales y desinformación masiva. Google se vio obligado a restringir sus resúmenes en consultas médicas delicadas, subrayando que la IA aún no puede sustituir el juicio de un especialista humano, especialmente ante la falta de responsabilidad legal por errores de diagnóstico.

La discusión no es si la inteligencia artificial puede ayudar en medicina -eso ya es una realidad- sino si debe convertirse en sustituto de la consulta profesional. La mayoría de los expertos coincide en que la IA debe funcionar como apoyo, no como reemplazo.

thumb
Expertos consideran que la IA no puede reemplazar a los médicosCanva
X