Por Marisol Escárcega
Alerta de spoiler. Hace un par de semanas vi el capítulo Clicbaits de la temporada 27 de la serie La Ley y el Orden: UVE. El caso aborda cómo los hombres, a través de la inteligencia artificial, crean imágenes pornográficas en donde la mayoría de las víctimas son mujeres, específicamente, menores de edad.
En el capítulo, para ilustrar a sus jefes lo peligroso que resultan estas apps, el personaje de Olivia Benson le pide al detective Jake Griffin que suba la imagen de una mujer a la aplicación y enseguida le ordena a la IA hacerle una serie de cambios, entre ellos, colocarla en posiciones sugerentes, quitarle la ropa y salpicarle la cara de semen. La app lo hizo sin ninguna restricción.
Al final, pese a llevar a juicio al creador de la IA y a las afectaciones a decenas de mujeres éste no fue sentenciado, pues el juez resolvió que no había ninguna figura legal que se refiriera a la creación y difusión de contenido pornográfico a través de IA.
Horrible ¿no?, bueno, pues en México ya estamos en ese escenario. En octubre de 2023, un estudiante universitario del IPN fue acusado de haber tomado fotos de las redes sociales de sus compañeras y otras alumnas y alterarlas con IA para venderlas como contenido pornográfico. Tenía en su tableta más de 166 mil imágenes alteradas.
Aunque fue dejado en libertad en 2024, gracias a la insistencia de las víctimas, fue sentenciado a cinco años por trata de personas en la modalidad de almacenamiento de pornografía infantil.
Otro caso. En noviembre de 2025, más de 400 alumnas de la escuela secundaria Técnica Número 1, en Zacatecas, denunciaron que sus fotos de redes sociales fueron convertidas en pornografía con el uso de IA. Tres compañeros alteraron y difundieron las imágenes.
Uno más, el de Grok. Entre diciembre de 2025 y enero de este año, millones de usuarios en el mundo le solicitaron al chatbot de X que le quitara la ropa a diversas personas, la mayoría mujeres menores de edad, y en poses sexualizadas. No hubo detenidos.
Estos casos ponen el dedo en la llaga: urge legislar al respeto, porque, como vimos en el ejemplo de la serie, nadie fue sancionado: ni los que crearon y difundieron el material ni los dueños y creadores de las IA.
En el país ha habido intentos. En 2023, senadoras del PT propusieron reformar el Código Penal Federal, para adicionar el capítulo Violación a la Intimidad Sexual mediante Inteligencia Artificial; proponían una pena de cinco a nueve años de prisión y de 700 a mil 200 días de multa. Nada pasó.
En enero de este año, la diputada del PRI Mónica Sandoval presentó una iniciativa para reformar el Código Penal Federal con el objetivo de proteger a víctimas de acoso y de pornografía generada con IA.
Y es que los deepfakes, contenidos editados o generados con ayuda de IA que remplazan voces o rostros de imágenes y videos, se han vuelto un peligro más para las mujeres, pues ahora deben preocuparse por el uso que muchos hombres le dan a la IA, ya que de acuerdo con cifras, cerca de 98% de los deepfakes es pornográfico y no consensuado, y 99% de las personas afectadas son mujeres. En México, 50% de los casos de violencia digital es por la difusión sin consentimiento de imágenes y videos de índole sexual.
En el país aún no existe una ley ni local ni federal que aborde específicamente la regulación de los deepfakes y la pornografía generada con IA, aunque ha habido iniciativas, sólo la Ley Olimpia reconoce la protección de la identidad digital en la Constitución, pero se requiere modificar el Código Penal Federal y locales y la Ley de Acceso de las Mujeres a una Vida Libre de Violencia, para que, quien cree, almacene, difunda y venda material pornográfico alterado con IA, así como los creadores y dueños de estas herramientas, no queden impunes.
