OpenAI decidió suspender su chatbot de contenido erótico por riesgos y críticas

OpenAI suspendió su chatbot de contenido erótico tras críticas internas y presión global por los riesgos del uso de IA.

thumb
El proyecto “modo Citron” generó preocupación entre empleados e inversionistas por riesgos reputacionales.REUTERS

OpenAI suspendió indefinidamente sus planes para lanzar un chatbot de contenido sexual explícito, informó la compañía, en medio de las crecientes preocupaciones sobre los riesgos sociales y reputacionales de lanzar al mercado un producto de este tipo.

La decisión, dada a conocer primero por el Financial Times, se produce mientras el gigante de la inteligencia artificial (IA) busca deshacerse de proyectos secundarios para mantener su liderazgo en esta competida industria.

La función de contenido explícito, conocida internamente como "modo Citron", suscitó críticas, según informó el FT.

Algunos empleados cuestionaron si el producto era compatible con la misión de la empresa de garantizar que su tecnología beneficie la humanidad.

Los inversionistas por su parte expresaron su preocupación sobre posibles riesgos reputacionales frente al beneficio comercial.

OpenAI anunció el año pasado que relajaría las restricciones sobre su chatbot ChatGPT, incluida la autorización de contenido erótico para usuarios adultos verificados. La empresa lo describió como un paso para "tratar a los usuarios adultos como adultos".

La cancelación del plan se produce la misma semana en que OpenAI anunció el cierre de su aplicación de video social Sora, señalada por desencadenar una avalancha de contenido de IA de escaso valor añadido en línea.

Estos anuncios llegan además en un momento delicado para la industria tecnológica, con Meta y otras redes sociales enfrentadas a una ola de demandas y regulaciones por el impacto de sus plataformas en menores.

La empresa rival de inteligencia artificial de Elon Musk suscitó una condena global el año pasado después de que su chatbot Grok se utilizara para generar imágenes sexuales falsas de personas reales, incluidos menores.

Crece la presión global sobre la IA por riesgos de contenido erótico

El debate sobre los límites del contenido generado por inteligencia artificial se ha intensificado desde la popularización de herramientas como ChatGPT, que obligaron a las empresas tecnológicas a definir políticas claras sobre seguridad y uso responsable.

En 2023 y 2024, reguladores en Estados Unidos y la Unión Europea comenzaron a exigir mayores controles sobre contenido sensible, especialmente tras la aprobación de marcos como la Ley de Servicios Digitales, que impone obligaciones estrictas a plataformas digitales para mitigar riesgos sistémicos, incluyendo la difusión de material dañino o ilegal.

Al mismo tiempo, el uso indebido de herramientas de IA para crear contenido sexual no consentido ha generado alarma global. Casos documentados por medios como la BBC y The New York Times han evidenciado la proliferación de “deepfakes” sexuales, incluidos montajes con rostros de celebridades y menores, lo que ha derivado en investigaciones legislativas en varios países.

Expertos advierten que este tipo de contenidos puede causar daños psicológicos, reputacionales y legales, y subrayan la dificultad de contener su rápida difusión en internet.

Empresas del sector han optado por reforzar restricciones internas y priorizar la seguridad frente a la expansión de funciones polémicas. Compañías como Meta y Google han sido objeto de investigaciones y demandas relacionadas con el impacto de sus plataformas en menores, lo que ha incrementado la presión sobre toda la industria.

Analistas coinciden en que decisiones como la de OpenAI reflejan un giro hacia modelos más conservadores en materia de contenido, en un entorno donde la regulación y la opinión pública pesan cada vez más sobre la innovación tecnológica.