Logo de Excélsior                                                        

¿Una inteligencia artificial asesina?

Carlos Elizondo Mayer-Serra

Carlos Elizondo Mayer-Serra

Contrapunto

La llegada del fin del mundo y la necesidad de hacer algún tipo de sacrificio para evitarla es tema común en las religiones. El fin de la humanidad, sin embargo, nada tendrá que ver con cómo nos comportemos en esta Semana Santa. Si llega, será debido a mala suerte o a alguno de los muchos excesos que como especie le hemos infligido al planeta. Esto ha sido estudiado en un reporte de la Global Challenges Foundation intitulado “Doce riesgos que amenazan la civilización humana”, (http://globalchallenges.org/wp-content/uploads/12-Risks-with-infinite-im...). 

El estudio trata de detectar los doce riesgos más importantes que amenazan la supervivencia del ser humano en la Tierra. La probabilidad de que suceda cualquiera de éstos es baja, pero el costo para los humanos, si llegara a suceder alguno de ellos, es gigantesco, ya que su impacto sería irreversible.

Estos doce riesgos son fenómenos muy complejos. Es imposible resumirlos en este artículo. Sin embargo, se pueden agrupar en dos conjuntos. El primero está compuesto por eventos vinculados a fenómenos naturales catastróficos no imputables a los humanos, como sería un asteroide de buen tamaño que se estrellara contra la Tierra y la erupción de un súper volcán. Ambos enviarían tanto material (polvo o ceniza) a la atmósfera que el planeta atravesaría un largo y crudo invierno de años que ocasionaría, como ya sucedió en el pasado, la extinción de un gran porcentaje de las especies existentes. Contra un súper volcán no hay nada que hacer. Tratar de destruir un asteroide que fuera a chocar contra la Tierra podría lograrse en el futuro si invirtiéramos recursos con ese objetivo.

El segundo conjunto son riesgos vinculados con el actuar del hombre sobre el planeta. Algunos de éstos son consecuencia de los siglos de estar manipulándolo, como el cambio climático extremo (es decir, que el calentamiento global fuera mucho más rápido de lo esperado hoy), un colapso ecológico que hiciera imposible la agricultura o una megapandemia. Otros están ocasionados por nuestra incapacidad de ponernos de acuerdo, ya sea por una guerra nuclear generalizada que dejara sin vida a buena parte del planeta  o un colapso global del sistema económico y social en el que vivimos que destruyeran la capacidad productiva que se requiere para sostener a los más de 7 mil millones de humanos que hoy poblamos el planeta.

Otros riesgos están asociados al cambio tecnológico acelerado en el que nos encontramos. Dentro de estos riesgos se encuentra la biología sintética. Ésta podría llevar a la creación de sustancias que, por error o por estar diseñadas como arma letal, se salieran de control y aniquilaran la vida del planeta. Otro es el de la nanotecnología, la cual puede crear minúsculos artefactos para curar, pero también para matar, ya sea porque se use como arma o se programe mal y empiece a consumir algún elemento esencial para el ser humano.

Dentro de los riesgos asociados al cambio tecnológico acelerado se encuentra uno que, según algunos expertos, va a suceder más temprano que tarde: la creación de una computadora mucho más inteligente que el ser humano, la llamada súper inteligencia artificial. Ésta sería la última máquina que construiríamos. Siendo más inteligente que nosotros, se encargaría de hacer todos los nuevos inventos posibles, inimaginables para nuestra limitada inteligencia. Su utilidad para planear, hacer cálculos complejos y diseñar nuevos productos sería enorme. Podría ayudarnos a prevenir buena parte de los riesgos catastróficos ya mencionados.

Sin embargo, podría también querer maximizar sus probabilidades de sobrevivir y tratar de controlar toda la energía del mundo, lo que terminaría con la vida en el planeta. Podría creer que si no lo hace “ella” lo haría otra máquina. Para impedir esto habría que tener robustos protocolos de seguridad antes de prenderla. Dado su potencial bélico, es muy posible que más de un gobierno esté hoy tratando de desarrollarla para evitar que algún otro gobierno le gane la carrera.

La súper inteligencia artificial es el riesgo global que menos entendemos. No tenemos suficiente capacidad cognitiva como para saber cómo se comportaría una máquina varias veces más inteligente que nosotros. No sabemos si le podremos programar motivaciones positivas para que se ponga al servicio de la humanidad  o simplemente maximizaría alguna otra variable. No sabemos si podremos controlarla o nos controlaría ella. Esto es un tema que discutiremos el jueves 16 de abril en el Tec de Monterrey, Campus Santa Fe, con el profesor Nick Bostrom, director del Instituto Future of Humanity y del Programa de Impacto de la Tecnología del Futuro, de la Universidad de Oxford. 

Pero más allá de si nos va a destruir o no, existe otro riesgo asociado con la llegada de robots y otras máquinas súper inteligentes: la destrucción del mercado laboral. Hay dos hipótesis. Una es que nos va a dejar sin trabajo a casi todos, con consecuencias sociales incalculables. Otra es que irá destruyendo algunos  empleos y creará otros, como sucedió en la Revolución Industrial.

Una alternativa a la destrucción de puestos de trabajo sería instaurar reglas laborales que permitan mayores periodos vacacionales para poder repartir el menor empleo disponible entre mayor número de gente. No estaría mal ahora que disfrutamos de nuestras vacaciones.

PD. Este artículo no fue aún escrito por un robot.

                *Profesor investigador del CIDE

                elizondoms@yahoo.com.mx

                Twitter: @carloselizondom

Comparte en Redes Sociales

Más de Carlos Elizondo Mayer-Serra