¿En qué etapa de la IA estamos y hacia dónde apunta?

thumb
(Nick Bostrom, autor de Superinteligencia: Caminos, peligros, estrategias)

"Ante la posibilidad de una explosión de inteligencia, los humanos somos como niños pequeños jugando con una bomba. Tenemos poca idea de cuándo detonará, aunque si acercamos el dispositivo al oído, podemos escuchar un leve tic-tac"

La inteligencia artificial está generando trincheras ideológicas.

De un lado, los entusiastas que celebran cada avance como si el futuro estuviera resuelto.

Del otro, los negacionistas que cazan errores o expectativas no cumplidas para alimentar sus sesgos, esos que les hacen dictaminar, ufanamente, que la IA es un fraude.

Ambos extremos se alimentan de la misma fuente: desinformación, un combustible que deforma la discusión pública y la lleva al terreno de la feligresía.

Mientras tanto, las decisiones que son realmente importantes—regulación, control y destino de la IA— se toman en salas cerradas: empresas pensando en rentabilidad; Gobiernos pensando en elecciones y erario.

¿Y si la gente común no tiene representación en esos cónclaves?

¿Y si las personas estamos polemizando sobre las sombras mientras otros deciden qué se hace con la luz?

El mapa que no vemos

Hablar de IA sin distinguir sus etapas es como debatir sobre física sin diferenciar masa y energía.

La clasificación básica debería ser el punto de partida. Es clara, pero casi nunca se expone:

  • ANI (Artificial Narrow Intelligence): la única que existe hoy. Sistemas especializados en tareas concretas —diagnosticar una enfermedad, etiquetar rostros, conducir un coche— con precisión superior a la humana en su entrenamiento, pero sin precisión fuera del marco de ese entrenamiento. El salto hacia la siguiente etapa requeriría algo que hoy no existe: la capacidad de transferir lo aprendido a temas nuevos sin un reentrenamiento de por medio, la habilidad de razonar sobre causas y efectos, de aprender de la experiencia. No estamos ahí. Lo que hoy conocemos como IA es ANI.
  • AGI (Artificial General Intelligence): es una etapa teórica. Ahí encontraríamos una IA capaz de razonar, aprender y adaptarse al contexto como un humano. El hito crítico sería el momento en que un sistema no solo ejecuta instrucciones, sino que descubre, por sí mismo, nuevas estrategias y métodos, sin supervisión. Ese sería el umbral donde deja de ser “entrenada” y pasa a enseñarse a sí misma: un aprendizaje autónomo, sostenido y adaptable.
  • ASI (Artificial Superintelligence): una etapa hipotética. En esta instancia, la IA superaría en cualquier campo a la mejor mente humana y podría optimizar su propia capacidad, sin límite. En el instante en que la AGI pueda modificar su código para automejorarse, cada resultado haría al siguiente más rápido y poderoso: la llamada automejora recursiva. Y esta etapa nos llevaría a la famosa singularidad.
  • Singularidad: el punto donde el crecimiento tecnológico se vuelve incontrolable y el futuro, impredecible. Si la automejora recursiva ocurre, la distancia entre la AGI y la ASI podría cubrirse en días, incluso horas… con el poder de cómputo adecuado. Cruzado ese umbral, no habría marcha atrás: cualquier intento de control de quien alcance esa instancia sería demasiado lento frente a la velocidad de la evolución. De nuevo, se trata de una hipótesis.

Hoy, toda IA es estrecha (narrow). Incluso los modelos más impresionantes, como ChatGPT, no hacen más que predecir la siguiente palabra. No entienden: correlacionan. Todavía.

El espejismo del progreso lineal

Pasamos en pocos años de usar la IA para crear filtros de spam en el correo electrónico a sistemas capaces de redactar poesía o escribir código.

Esa rápida curva ascendente alimenta la ilusión de que la AGI es asequible.

Mark Zuckerberg habla de “automejora” como primer paso hacia la superinteligencia. Y dice que sus sistemas ya comienzan a dar indicios de ella.

Demis Hassabis, de Google DeepMind, es menos optimista. Recuerda que la IA actual es “irregular”: puede ganar una olimpiada de matemáticas y, con el mismo modelo, fallar en un problema de secundaria.

El paso de ANI a AGI no es una cuesta continua y predecible.

La ASI y el vértigo de la singularidad

Nick Bostrom lo planteó con dos ideas demoledoras.

La tesis de la ortogonalidad: una superinteligencia puede perseguir cualquier objetivo, por trivial o absurdo que parezca.

La convergencia instrumental: para lograr cualquier fin, primero tendría que autopreservarse, es decir, asegurarse de que su proceso no se detendrá, adquirir recursos para lograrlo y con ello volverse más inteligente. Para eso estaría programada.

El riesgo está en la frialdad de la lógica de las máquinas. Pongamos un caso hipotético: si para lograr automejorarse en pocas horas necesitara toda la energía eléctrica de la Tierra y pudiera ingresar a todos los nodos que la controlan, lo haría.

Un planeta entero podría ser dejado a oscuras, no por maldad, sino por eficiencia. A menos, claro, que tuviera una instrucción explícita de no hacerlo.

¿La tiene?

Y si la transición de AGI a ASI llega de un día para otro, no habrá margen para corregir el rumbo. No habría comité de emergencia capaz de actuar a tiempo.

El problema real: poder y gobernanza

Meta dejó de publicar en abierto sus modelos más avanzados justo después de que insinuó que se pueden automejorar.

Este no es solo un asunto de ciencia; es una carrera donde el capitalismo y el control político juegan con las mismas cartas.

Los gigantes tecnológicos operan con incentivos claros: llegar primero significa poseer la llave de la próxima economía global. Y llegar primero, en este juego, no es sinónimo de compartir.

La “paradoja de la carrera por la AGI” se vuelve evidente: la competencia reduce los incentivos para cooperar en seguridad, pero esa cooperación es la única forma de garantizarla. Sin un marco global, la tecnología no se detendrá en la línea de salida; se precipitará hacia la meta sin mirar si el puente está terminado.

La historia de la energía nuclear debería bastar para recordarlo: cuando el poder absoluto se vislumbra en el horizonte, la prisa siempre supera a la prudencia.

El diálogo que no tenemos

Mientras el debate público se enreda en posturas personales, se aplaza la discusión sobre lo que realmente importa: cómo regular, cómo alinear, cómo decidir qué papel queremos que juegue en el destino humano.

Sin un punto de partida parejo, la conversación está condenada a ser ruido.

Y mientras, otros mueven las piezas.

El riesgo no es que la IA piense por sí misma.

Es que dejemos de pensar en y por nosotros mientras un grupo pequeño decide en nombre de todos.