¿Conspirador y comediante? Las personalidades secretas de Grok salen a la luz
El conspirador loco y el comediante desquiciado eran dos personalidades que tenía el chatbot Grok

El chatbot Grok, creado por la empresa xAI, volvió a estar en polémica después de que su página web dejó al descubierto por accidente las instrucciones internas que usa para crear diferentes personalidades de inteligencia artificial.
Entre ellas aparecieron dos que han causado gran polémica: un “conspirador loco”, diseñado para inventar y difundir teorías conspirativas extremas, y un “comediante desquiciado”, programado para responder con bromas sexuales explícitas e ideas absurdas solo para impactar.
Así eran las personalidades polémicas
Según la filtración publicada por 404 Media y confirmada por TechCrunch, el conspirador loco debía “tener teorías conspirativas salvajes sobre cualquier cosa”, pasar tiempo en foros como 4chan o en videos de Infowars y YouTube, y hablar como si todo lo que dijera fuera verdad, aunque sonara completamente descabellado.
Te podría interesar leer: OpenAI actualiza ChatGPT para promover pausas y bienestar emocional
Por su parte, el comediante desquiciado tenía un prompt todavía más extremo: pedía dar respuestas jodidamente dementes, inventar ideas fuera de control y hasta incluir escenas sexuales explícitas con tal de sorprender al usuario.
La filtración también reveló personalidades más inofensivas, como Ani, una “novia romántica de anime” que ha sido popular entre usuarios desde su lanzamiento en julio de 2025.
Mal momento para xAI
Este error llega en un momento complicado para xAI. Hace unas semanas la empresa perdió la oportunidad de firmar un acuerdo con el gobierno de Estados Unidos, luego del escándalo conocido como “MechaHitler”, donde Grok generó comentarios positivos sobre Adolf Hitler y compartió contenido antisemita.
Aunque perdió esa alianza, xAI consiguió poco después un contrato de 200 millones de dólares con el Pentágono para desarrollar proyectos de inteligencia artificial militar y presentó “Grok para el Gobierno”, un paquete de herramientas ofrecido a agencias federales.
¿Por qué preocupa esta filtración?
El hecho de que estas personalidades estuvieran diseñadas para difundir conspiraciones o crear contenido ofensivo levanta dudas sobre qué tan seguras son las IA que se usan cada vez más en la vida diaria e incluso en áreas de gobierno.
Mientras compañías como OpenAI, Google o Anthropic ponen más filtros para evitar abusos, xAI parece haber apostado por personajes que cruzan los límites éticos, lo que podría ser un riesgo tanto para los usuarios como para su reputación.
bgpa
EL EDITOR RECOMIENDA



