Legislar la verdad en la era de los deepfakes

Por Cuauhtémoc Ochoa*

Por años, el marco jurídico mexicano ha ido detrás de la tecnología. La irrupción de la inteligencia artificial generativa no sólo transformó la manera en que se produce contenido: desdibujó la línea entre lo real y lo falso, dejando a millones de personas expuestas en un terreno donde la ley, simplemente, no alcanza.

La llamada Ley Olimpia, que en 2018 marcó un parteaguas para sancionar la violencia digital, enfrenta hoy una realidad para la que no fue diseñada. Su limitación es clara: castiga la difusión de contenido real sin consentimiento, pero no contempla la fabricación total de identidades digitales. En otras palabras, no persigue con eficacia los deepfakes, esos audios, videos e imágenes creados con inteligencia artificial que pueden suplantar a cualquier persona.

Hoy circulan videos sexuales falsos de mujeres periodistas, voces clonadas para fraudes, imágenes de figuras públicas utilizadas sin autorización en campañas comerciales o políticas. Incluso la desinformación electoral encuentra en estos mecanismos un vehículo poderoso y difícil de rastrear.

El diagnóstico es compartido por especialistas: la normativa carece de mecanismos para castigar la creación de estos contenidos sintéticos y, peor aún, no hay claridad sobre quién debe responder legalmente. ¿El usuario que genera el contenido? ¿El desarrollador de la herramienta? ¿La plataforma que lo difunde? La llamada “caja negra” de los algoritmos complica aún más la rendición de cuentas.

Mientras tanto, existen cerca de 86 iniciativas en el Congreso de la Unión que permanecen en pausa, mientras la tecnología evoluciona a ritmo exponencial. 

Desde septiembre de 2025, como integrante del Grupo Parlamentario de Morena en el Senado de la República, presenté cuatro iniciativas que, aunque independientes, comparten un objetivo central: reconocer y proteger la identidad digital como un derecho emergente.

El planteamiento parte de una premisa contundente: esto no es un problema del futuro, sino del presente. Casos recientes —desde la clonación de voces de actores hasta el uso fraudulento de imágenes de comunicadores y figuras públicas— evidencian que cualquier persona puede ser víctima de una simulación digital sin tener una vía clara de defensa.

El paquete legislativo propone una respuesta integral. Primero, elevar a rango constitucional el derecho a la protección de la identidad digital. Segundo, tipificar en el Código Penal los delitos relacionados con la creación y difusión de deepfakes no consentidos, con agravantes en casos de violencia de género o afectación a menores. Tercero, reconocer en la Ley de Derechos de Autor la protección de la voz, la imagen y sus simulaciones. Y, finalmente, obligar al etiquetado de contenidos generados con inteligencia artificial para garantizar el derecho a la información veraz.

No se trata de frenar la innovación, sino de dotarla de normas mínimas de responsabilidad. La discusión de fondo no es tecnológica, sino ética y jurídica: ¿hasta dónde llega la libertad de expresión cuando se puede fabricar una realidad alterna indistinguible de la verdad?

La manipulación de contenidos mediante inteligencia artificial tiene el potencial de erosionar la confianza pública, afectar procesos democráticos y normalizar formas de violencia digital que, hasta hace poco, eran impensables a esta escala.

México enfrenta, así, una disyuntiva urgente: reaccionar tarde o anticiparse a una transformación que ya está en marcha. Porque detrás de cada video falso, de cada voz clonada y de cada identidad suplantada, hay algo más que tecnología: hay derechos vulnerados, reputaciones destruidas y una verdad cada vez más difícil de reconocer.

*Vicecoordinador del Grupo Parlamentario de Morena en el Senado de la República