Inteligencia artificial: ¿Frankenstein moderno?

Aunque Geoffrey Hinton cree que la IA transformará la educación y la medicina y, potencialmente, resolverá el cambio climático, está cada vez más preocupado por su rápido desarrollo. Estima que existe un riesgo de 10% a 20% de que la IA, eventualmente, tome el control de los humanos. “La gente aún no lo ha entendido, no ha comprendido lo que viene”, advirtió.

Mary Shelley tiene el honor de haber sido la creadora de la primera novela moderna de ciencia ficción. Una historia de terror que concibió en un verano atípico que pasó en Ginebra junto a su marido, en una villa alquilada por Lord Byron. El mal tiempo los mantuvo encerrados durante días y, para pasar el tiempo, el famoso poeta retó a sus invitados a crear un cuento de fantasmas.

Durante la encerrona, Mary Shelley recordó los avances de un científico escocés que intentaba devolverle la vida a animales muertos a través de descargas eléctricas. Meses después, junto a su marido, Shelley desarrolló aquella idea para un cuento y escribió una de las novelas de terror más aclamadas de todos los tiempos.

El relato es una combinación de admiración por la ciencia y de temor por los vicios ocultos que conlleva cualquier descubrimiento. Víctor Frankenstein logra infundir vida a un ser formado a partir de retazos de cadáveres que resulta ser un monstruo impredecible. La criatura termina revelándose contra su creador y decide vengarse.

Frankenstein o El moderno Prometeo, como también se conoció la obra, se publicó en 1818. 207 años después, Geoffrey Hinton, el Padrino de la Inteligencia Artificial, obtuvo en 2024 el reconocimiento más grande al que un científico puede aspirar: el Premio Nobel de Física.

El investigador de 77 años recibió el premio por su trabajo pionero en redes neuronales, donde propuso en 1986 un método para predecir la siguiente palabra en una secuencia, concepto que actualmente constituye la base de los grandes modelos lingüísticos actuales.

Aunque Hinton cree que la IA transformará la educación y la medicina y, potencialmente, resolverá el cambio climático, está cada vez más preocupado por su rápido desarrollo. El pionero de la IA estima que existe un riesgo de 10% a 20% de que la inteligencia artificial, eventualmente, tome el control de los humanos. “La gente aún no lo ha entendido, no ha comprendido lo que viene”, advirtió.

En la misma dirección que entraña la historia de Frankenstein, Hinton declaró a CBS News: “La mejor manera de comprender la IA emocionalmente es que somos como alguien que tiene un cachorro de tigre adorable”, explicó Hinton. “A menos que estés completamente seguro de que no querrá matarte cuando crezca, deberías preocuparte”. Hinton no se encuentra solo en sus temores. Sus alertas coinciden con las de líderes de la industria, como Sundar Pichai, director ejecutivo de Google; Elon Musk, de xAI, y Sam Altman, director ejecutivo de OpenAI, quienes han expresado inquietudes similares.

No obstante, Hinton critica a estas mismas empresas por priorizar las ganancias sobre la seguridad. El tema crucial es la regulación: “Si nos fijamos en lo que están haciendo las grandes empresas ahora mismo, están presionando para conseguir una menor regulación de la IA. Apenas hay regulación actualmente, pero quieren menos”.

BALANCE

Hinton está decepcionado con Google, donde trabajó anteriormente, por revertir su postura sobre las aplicaciones de inteligencia artificial militar. Según el británico, las empresas de IA deberían dedicar muchos más recursos a la investigación en seguridad: “Como un tercio” de su poder de cómputo, en comparación con la fracción mucho más pequeña que se asigna actualmente.

Las empresas líderes en la materia estudian con cuidado las consecuencias de la regulación pública de la IA. Si bien existen algunos proyectos de legislación, el reto para los legisladores en todo el planeta es formidable. Establecer límites y reglas mínimas para que el “monstruo” no destruya a su creador, sigue siendo todo un enigma con consecuencias nunca imaginadas. Estamos en territorio no explorado.

Temas: