¿Por qué delegas tu soberanía intelectual?

Paul Lara

Paul Lara

Cyberpunks

decirnos qué música escuchar según nuestro estado de ánimo o qué ruta tomar para evitar el caos vial de la Ciudad de México. Muchos pensaban que era una genialidad absoluta. “Eficiencia”, le llamaban  con orgullo tecnófilo. Pero algunos empezamos un tipo de resistencia, sobre todo los que amamos la música y la literatura, pues queríamos aprender de nuevos artistas, escritores, de bandas que poco conocíamos, y bloqueamos las recomendaciones o nos alejamos de ellas. Hambre de aprender algo nuevo y diferente, le llamamos. 

Una gran mayoría se sentía dueña del futuro porque había logrado que el código trabajara para ellos, o al menos eso creían. Pero hoy, en pleno 2026, mientras caminamos por la cornisa de una integración total con la inteligencia artificial generativa, la pregunta ya no es qué puede hacer la IA por nosotros, sino qué pedazo de nuestra humanidad le estamos entregando a cambio de la comodidad.

La semana pasada, el economista de Harvard Dani Rodrik puso el dedo en la llaga con una advertencia que debería alertar no sólo a los laboratorios de Silicon Valley, sino a cada oficina, escuela y hogar donde una pantalla ahora dicta su pauta. Rodrik señaló que el peligro real de la IA no es que nos quite el trabajo, sino que está socavando nuestra capacidad para generar conocimiento. Y, sin generación de conocimiento propio, nos convertiremos en simples espectadores de nuestra propia historia. Si hay algo que la IA no puede hacer es justamente generar conocimiento, pero muchos que fantasean con la IA General y afirman que está cerca, dejan que la máquina y sus desarrolladores, que no son científicos ni realmente especialistas o expertos, dicten la forma en la que piensan.

Verán, para quienes llevamos años cubriendo el pulso de la tecnología, siempre ha habido un mantra: la herramienta potencia al hombre. Sin embargo, lo que Rodrik argumenta –y lo hace con una lucidez quirúrgica– es que el conocimiento no es un archivo que se descarga de la nube o un resumen que un chatbot te entrega en segundos. El conocimiento es un proceso social, vivo y, sobre todo, conflictivo. Es el roce de ideas en un café, es el debate acalorado en una junta de consejo, es el error en el laboratorio que te obliga a repensar la teoría.

Lo comenté en otra columna en este espacio: si la IA Generativa hubiera existido en la época de Galileo Galilei, tal vez hubieran pasado algunos siglos más para que el hombre dejara de creer que el Sol gira alrededor de la Tierra, pues la data que se tenía en ese momento, muy en el ámbito religioso que dictaba la norma en esa época, como hoy lo busca la oligarquía tecnológica y los gobiernos totalitarios, hubiera arrojado eso en una respuesta de un chatbot. Afortunadamente, hay mentes que se cuestionan todo e investigan, aunque son pocas hoy en día.

La IA, por su propia naturaleza estadística, es una máquina de promedios. Nos entrega la respuesta “más probable”, y hasta agradable para el que cuestiona, basada en lo que ya se escribió, en lo que ya se pensó. Es una cámara de eco de escala planetaria. Si dejamos que sea ella la que resuelva los dilemas complejos, estamos condenándonos a un estancamiento intelectual. Si la IA redacta el contrato, el análisis de mercado y la tesis doctoral, ¿dónde queda el esfuerzo cognitivo que forma el criterio? 

El conocimiento se fortalece con el uso, como un músculo; si dejas de usarlo, se atrofia (y conozco a varios ya con el cerebro atrofiado). Estamos ante una atrofia colectiva sin precedentes. El riesgo que veo, y que este análisis subraya magistralmente, es que nos estamos volviendo perezosos mentales por diseño. Si la IA puede diseñar una política pública o resolver una ecuación diferencial en milisegundos, la tentación de no cuestionar el resultado es inmensa.

Pero el problema es que, al saltarnos el proceso, perdemos la trazabilidad del pensamiento. Estamos delegando la arquitectura de nuestro futuro a “cajas negras” cuyos sesgos, alucinaciones y jerarquías de datos son, muchas veces, un misterio incluso para sus propios creadores. Si permitimos que la IA se convierta en el filtro principal de nuestra realidad, el conocimiento deja de ser un bien público y vibrante para convertirse en un producto enlatado, tal como lo buscan las empresas y algunos gobiernos.

Un producto controlado por un puñado de gigantes tecnológicos que deciden qué es “la verdad”, basándose en probabilidades matemáticas, no en la verdad ética o empírica. Estamos pasando de una sociedad que busca la verdad a una que busca la respuesta más rápida.

El peligro real no es que las máquinas empiecen a pensar como nosotros, sino que nosotros, en nuestro afán de ser “eficientes”, terminemos pensando como máquinas: de forma predecible, estadística, sin esa chispa de intuición y rebeldía que nos hace humanos.