Por María Elena Esparza Guevara
“Ponle bikini”, “ahora hazlo transparente”, “quítale la ropa. Son comandos misóginos recibidos decenas de veces por hora en la plataforma Grok para modificar fotografías de mujeres y niñas sin su consentimiento. Son palabras íntegras a lo que hoy llamamos inteligencia artificial (IA) y se consolida como uno de los principales desafíos en materia de género para este año.
A finales de 2025, el escándalo asociado a la plataforma X escaló cuando se difundieron imágenes de menores sexualizadas, generadas el 28 de diciembre. La propia plataforma de IA reconoció que había producido contenido sexual de menores, conducta que bajo la ley federal de EU puede derivar en penas de hasta 20 años de prisión.
Un estudio de AI Forensics analizó más de 20 mil imágenes generadas por Grok entre el 25 de diciembre y el 1 de enero. Los hallazgos fueron alarmantes: 53% contenía personas con vestimenta mínima, de las cuales 81% eran mujeres, y 2% representaba a menores de edad. En un reportaje, Bloomberg reveló que Grok genera 6,700 imágenes por hora, lo cual supera ampliamente a los cinco sitios web más utilizados para crear deepfakes, o contenidos falsos, que registran apenas 79 imágenes por hora en conjunto.
Julie Yukari, artista musical de 31 años radicada en Río de Janeiro, publicó una foto de Año Nuevo y al día siguiente recibió notificaciones de usuarios solicitando a Grok que la desnudara digitalmente. Su testimonio resume el impacto: mujeres avergonzadas por la exhibición pública de una imagen sexualizada que no corresponde con ellas. ¿Tendremos que deslindarnos ahora de los cuerpos que nos coloque la IA? Vaya retroceso amparado, paradójicamente, en el avance tecnológico.
La reacción internacional fue contundente. India ordenó a X adoptar medidas en 72 horas. Francia presentó denuncias ante la fiscalía por contenido sexual y sexista ilegal, y así ampliar su investigación para incluir pornografía infantil. La Comisión Europea revisó el cumplimiento de Grok con la Ley de Servicios Digitales tras multar a X con 120 millones de euros en diciembre. Reino Unido exigió explicaciones urgentes. Brasil, Malasia y Polonia manifestaron preocupación y pidieron acciones. Elon Musk, dueño de la plataforma, respondió burlonamente diciendo que se le puede poner bikini hasta a un tostador.
En nuestro país, la Secretaría de las Mujeres, encabezada por Citlalli Hernández, condenó esta práctica como violencia sexual digital, sancionada por la Ley Olimpia que prohíbe difundir contenido íntimo sin autorización, y advirtió que la ausencia de oficinas de X en México no exime a la empresa de responsabilidad ética y legal. A la fecha, sólo se permite el uso de Grok a los suscriptores identificados, a quienes responsabiliza del contenido ilegal que generen.
En el mundo, mil 800 millones de mujeres y niñas carecen de protección legal frente al acoso en línea; entre 16 y 58% ha experimentado violencia digital. En México, el Inegi reportó que, en 2024, 10.6 millones de mujeres fueron víctimas de ciberacoso. El informe más reciente de ONU Mujeres reveló que en 2025 70% de defensoras de derechos humanos sufrió violencia en línea, y 30% de escritoras experimentó violencia que involucraba la IA.
El caso Grok manifiesta la urgencia de exigir responsabilidad a las empresas tecnológicas. La decisión de Musk de eliminar filtros bajo el estandarte de libertad absoluta permite la perpetuación de sesgos patriarcales y facilita violencia contra las mujeres. La tecnología avanza superando el desarrollo de marcos regulatorios y los dueños de las empresas miran hacia otro lado para evadir su responsabilidad. Un dato más: Internet Watch Foundation detectó un repunte de 400% en material de abuso sexual infantil en la primera mitad de 2025.
La respuesta requiere acciones múltiples y convergentes. Desde exigencia a plataformas para cumplimiento de normas éticas, fortalecimiento de reglamentos con mirada feminista y evolucionar legislaciones a la velocidad del algoritmo que no pierde tiempo. Los riesgos virtuales son reales; permitir que los comandos entrenadores de la IA tengan sesgo sexista sería un gran retroceso de género.
