ChatGPT comenzó a citar a Grokipedia y genera preocupaciones
El diario The Guardian documentó cómo es que ChatGPT está usando algunas de las respuestas sesgadas de Grokipedia, el proyecto de Elon Musk.

ChatGPT comenzó a citar como fuente a Grokipedia, la enciclopedia hecha con IA e impulsada xAI, de Elon Musk. El diario británico The Guardian detectó respuestas sobre asuntos sensibles (temas políticos y económicos de Irán, perfiles vinculados a negacionistas del Holocausto, etc.), con respuestas que no citan a Grok directamente, pero sí responden a sus criteriosparciales.
Según el diario británico, GPT-5.2 mencionó Grokipedia nueve veces al responder más de una docena de preguntas. Entre ellas, consultas sobre salarios de la milicia Basij o la estructura de propiedad de la Fundación Mostazafan (dos piezas relevantes del ecosistema de poder iraní), además de cuestiones biográficas sobre el historiador Sir Richard Evans, experto que testificó contra David Irving en un célebre juicio por difamación ligado al negacionismo.
Qué es Grokipedia
Grokipedia nació como un intento de competir con Wikipedia: un buscador minimalista que promete “verdad” en formato enciclopédico. La diferencia esencial está en el método. Wikipedia es un organismo social: voluntarios editan, discuten y corrigen, con reglas de verificabilidad y trazabilidad. Grokipedia, en cambio, se apoya en generación automática con IA y no permite edición humana directa; a lo sumo, los usuarios sugieren correcciones.
Cuando xAI la lanzó (octubre de 2025), aparecieron alertas por sus referencias: entradas cortas, con menos fuentes y menos control comunitario; un terreno fértil para el error y el sesgo, sobre todo en temas políticos y culturales que se alinean con las posturas públicas de Elon Musk.

En las pruebas descritas por The Guardian, ChatGPT no recurrió a Grokipedia cuando se le pidió repetir desinformación notoria (por ejemplo, sobre el asalto al Capitolio del 6 de enero o falsedades sobre VIH/sida). El filtrado, ahí, sí funcionó. Pero el fenómeno apareció en lo menos vigilado, es decir, en las preguntas con menos fuentes de calidad en la web.
El diario pone un ejemplo concreto: al hablar de MTN-Irancell (un operador de telefonía móvil en Irán), ChatGPT, citando Grokipedia, formuló afirmaciones más polémicas que disponibles en Wikipedia, incluyendo supuestos vínculos con la oficina del líder supremo iraní. En otro caso, el sistema citó detalles sobre Richard Evans que el propio The Guardian afirma haber desmentido previamente, donde Grokipedia sumaba varios datos biográficos que el propio Evans revisó y dijo que eran falsos.
“Grooming” de modelos: sembrar mentiras para cosechar respuestas
La preocupación sobre fuentes sesgadas tiene nombre: “LLM grooming”. Es la idea de inundar la red con contenidos engañosos para que, tarde o temprano, los sistemas que rastrean la web, ya sea para entrenar, indexar o responder en tiempo real, terminen usándolas como fuente.
La investigadora Nina Jankowicz, que ha trabajado en este terreno, advirtió en el reportaje que las entradas de Grokipedia revisadas por su equipo se apoyaban en fuentes “poco fiables” o directamente en desinformación, y que el simple hecho de que los modelos las citen puede aumentar su credibilidad ante el público.
Jankowicz también relata un episodio ilustrativo: tras lograr que un medio retirara una cita inventada atribuida a ella, los modelos siguieron reproduciéndola durante un tiempo.
No todo es conspiración: a veces es un “vacío de datos”
El sesgo no siempre se trata de manipulación coordinada; en ocasiones, el problema es estructural. Un estudio en HKS Misinformation Review sugiere que las referencias a fuentes de baja calidad pueden surgir por “data voids”: vacíos de información fiable en ciertos temas, donde lo que domina en buscadores y repositorios es propaganda o material pobre. En ese paisaje, el modelo elige lo que hay.
OpenAI defendió que su búsqueda web “busca apoyarse en un abanico amplio de fuentes públicas y puntos de vista” y que aplica filtros para reducir riesgos de daños graves, además de mostrar al usuario qué fuentes influyeron en la respuesta mediante citas.
Para el usuario común, la regla es simple: una cita no es una verificación. Es una pista. Si la fuente es una enciclopedia generada por IA sin control editorial, hay que tratarla como borrador.
EL EDITOR RECOMIENDA



