Ley Olimpia, obsoleta ante Deepfakes

Desde el Consejo Latinoamericano de Ética en Tecnología (CLETec) se pide regular el uso de videos y audios falsos, que afecta fuerte a las mujeres.

thumb
Uno de los mayores obstáculos para la regulación es determinar quién es el responsable legal en la creación del deepfake.IA generativa.

La rápida evolución de la inteligencia artificial (IA) generativa ha superado la velocidad de respuesta del marco jurídico mexicano. Aunque la Ley Olimpia marcó un hito en 2018 para sancionar la violencia digital, hoy se enfrenta a una obsolescencia técnica que impide proteger a las víctimas de contenidos sintéticos, como los deepfakes.

Claudia Jiménez, presidenta del Consejo Latinoamericano de Ética en Tecnología (CLETec), advierte que la normativa actual carece de los mecanismos necesarios para castigar la creación de materiales falsos, audios, videos e imágenes, que vulneran la intimidad de las personas.

“La Ley Olimpia se queda sin dientes en contenido de IA generativa”, afirma Jiménez, destacando que el problema reside en que la ley fue concebida para castigar la difusión de contenido real sin consentimiento, pero no contempla la fabricación total de identidades digitales.

Según la especialista, al no mencionarse de manera “implícita y explícita que los videos son generados por inteligencia artificial”, se genera una laguna que los juzgadores no pueden sortear, dejando a las víctimas en la indefensión jurídica.

La presidenta del CLETec recuerda el caso de un estudiante del Instituto Politécnico Nacional (IPN), Diego “N”, que manipuló fotografías de sus compañeras para crear imágenes desnudas mediante IA. En este tipo de escenarios, el sistema de justicia colisiona con la falta de conceptos claros.

“Tenemos que empezar a hablar de qué entendemos por inteligencia artificial en la justicia. Pareciera que todos hablamos de IA y todos comprendemos su alcance, pero en realidad no es así”, puntualiza la también politóloga por la UNAM.

Uno de los mayores obstáculos para la regulación es determinar quién es el responsable legal: si el usuario que introduce el comando (prompt), el desarrollador de la herramienta o la plataforma que permite su distribución.

Jiménez recalca que México debe impulsar una regulación que establezca “mínimos de buen uso” sin caer en la sobrerregulación que inhiba la innovación, pero enfocada en proteger a grupos vulnerables. “En la inteligencia artificial se amplifica el daño porque estás hablando de entrenamientos masivos con millones de datos expuestos, sin que se sepa de dónde se han extraído”.

Tenemos que empezar a hablar de qué entendemos por inteligencia artificial en la justicia. Pareciera que todos hablamos de IA y todos comprendemos su alcance, pero en realidad no es así.”
Claudia Jiménez
Presidenta del Consejo Latinoamericano de Ética en Tecnología (CLETec).

La deuda pendiente

A nivel legislativo, existen cerca de 86 iniciativas en el Congreso de la Unión que permanecen en la "congeladora".

Jiménez lamenta la falta de voluntad política para definir una estrategia nacional de IA que incluya la ciberseguridad, un tema que arrastra un rezago de 20 años. Para la experta, la opacidad de los algoritmos —conocida como "caja negra"— dificulta la rendición de cuentas. “Es muy difícil que la caja negra te diga el paso a paso que tomó ese algoritmo para llegar a cierta decisión, ahí falta explicabilidad y transparencia”.

El CLETec, que trabaja de la mano con certificadoras de Silicon Valley, busca fortalecer el ecosistema ético en América Latina mediante la alfabetización digital.

Jiménez sostiene que no se trata de implementar tecnología por implementar, sino de entender su impacto social y sanitario. “Hay mucha brecha todavía y hay gente que puede ser dañada en su uso en términos de derechos humanos”, subraya, haciendo énfasis en que el mal uso intencionado de la tecnología es un riesgo histórico que ahora alcanza niveles de difusión masiva.

Desinformación

La presidenta del CLETec advirtió sobre el peligro que representan los deepfakes en el contexto de los procesos democráticos. La capacidad de generar audios y videos falsos de candidatos puede erosionar la confianza ciudadana y manipular la opinión pública de manera irreversible. Al respecto, señala que las redes sociales suelen escudarse en la libertad de expresión, pero cuestiona: “¿Dónde está el límite de la libertad de expresión justamente por este tipo de videos?”.

“La inversión en los gobiernos pareciera que no importara tanto. El papel que puede jugar la IA en los procesos electorales es algo a tomar muy en cuenta”, agrega  Jiménez. Ante este panorama, el CLETec prepara el primer reporte diagnóstico sobre el uso de la IA en América Latina, buscando que las autoridades comprendan que, detrás de los "fierros" y el código, existen repercusiones humanas que requieren, con urgencia, un marco legal con dientes.

El caso de Diego “N”

En diciembre de 2024, un juez absolvió a Diego “N”, de 19 años, quien estaba acusado de alterar con inteligencia artificial miles de fotos de estudiantes compañeras del Instituto Politécnico Nacional (IPN) para fines sexuales. La denuncia se remonta al 6 de octubre de un año atrás, cuando se encontró al joven en ese momento con un dispositivo que contenía aproximadamente 20 mil imágenes alteradas. Sin embargo, la realidad se tornó más oscura. A partir de la investigación de la Fiscalía General de Justicia de Ciudad de México (FGJCDMX), se halló en la tablet 166 mil fotografías alteradas, así como 20 mil videos y compilaciones de fotografías reales y alteradas de las que al menos 40% eran de alumnas del Politécnico, de entre 17 a 25 años.

El magistrado, tras una audiencia que tuvo una duración de más de cinco horas en el Reclusorio Preventivo Varonil Oriente, en la delegación Iztapalapa, justificó que “no había elementos suficientes” para demostrar su culpabilidad en el delito contra la intimidad sexual de dos de las ocho víctimas que llegaron con su denuncia hasta esta instancia.

El caso es el más icónico documentado sobre violencia digital con inteligencia artificial hacia mujeres universitarias en el mundo, que tiene que ver con mercados de explotación sexual y sobre difusión y producción de contenidos. La defensa de las víctimas, tras más de un año de seguir este proceso, buscaban sentar un precedente importante respecto al uso de la tecnología para la creación de contenidos sexuales falsos sin consentimiento.

Temas: