“Potencialmente, el peor error de todos”

Stephen Hawking alertó sobre los peligros de la IA.

Esta frase fue dicha por el destacado físico británico Stephen Hawking, quien antes de fallecer, en 2018, alertó sobre los peligros que albergaba la Inteligencia Artificial (IA). Llegó a decir que “podría acabar con la raza humana", dado que nosotros avanzamos evolucionando lentamente y, en cambio, ellas: “podrían llegar a tomar el control y se podrían rediseñar a sí mismas". Ésta era una de las cuatro grandes amenazas que vaticinó que enfrentaría nuestra especie, junto con la necesidad de abandonar la Tierra, tarde o temprano, el calentamiento global y que llegaran seres extraterrestres mucho más adelantados a la Tierra. Su opinión es interesante porque, aunque él nunca reveló su coeficiente intelectual (IQ), los expertos calculan que debió estar entre 152 y 160, lo cual se considera un nivel de genio y se estima que sólo lo han alcanzado 0.003% de los seres humanos. En otras palabras, tenía autoridad para opinar sobre inteligencia.

  •  

No está solo

En marzo de este año, un grupo de expertos en IA, entre los que están el director ejecutivo de la firma Stability AI, Emad Mostaque, y ejecutivos de la industria tecnológica, como el cofundador de Apple, Steve Wozniak, firmaron una carta abierta para solicitar que se “pause de inmediato, durante al menos seis meses, el entrenamiento en los sistemas de inteligencia artificial". Esto debido a que “la IA puede ser más peligrosa que las armas nucleares", como declaró Elon Musk, quien, por cierto, tiene un IQ de 155 (la media es de 100), según ha trascendido, y forma parte de las más de mil personas que también firmaron la carta. Igualmente, el economista jefe de Microsoft Corp., Michael Schwarz, declaró: “Estoy seguro de que la IA será utilizada por malos actores, y sí, creo que eso causará un daño real". La IA se divide en débil y fuerte. La débil, o IA limitada, se refiere a sistemas diseñados para realizar una tarea específica. La IA fuerte, o IA general, se refiere a sistemas con la capacidad de aprender, “pensar" y tomar decisiones de manera autónoma a través de algoritmos y datos predefinidos, con el objeto de realizar tareas que normalmente requerirían inteligencia humana. Un ejemplo de IA fuerte es el sistema Aladdin Wealth, de la empresa de sistemas financieros BlackRock, que, según la revista The New Statesman, maneja exitosamente operaciones financieras equivalentes a más de cuatro veces el valor de todo el efectivo que hay en el mundo. Otro ejemplo es la utilizada por el Hospital General de Massachusetts, donde consiguieron elevar la efectividad en la predicción de cáncer de mama en pacientes de alto riesgo de 18% a 32%. Y uno más es el ChatGPT, al que le pregunté de varias formas cuáles consideraba que son los peligros de la IA. En resumen, me respondió: la posible pérdida de control sobre sistemas de armas autónomas, la pérdida de privacidad personal, pérdida de empleos y que la IA supere significativamente la inteligencia humana, volviéndose incontrolable y tomando decisiones “que no estén en línea con los intereses de los seres humanos, resultando una amenaza existencial para la humanidad".

  •  

El ornitorrinco artificial

“Es un ejemplo impresionante de cómo la tecnología puede recrear y capturar la belleza de la naturaleza, emulando con componentes robóticos y electrónicos el comportamiento del ornitorrinco original". Éste es un fragmento inventado por ChatGPT o fake, como los que planea usar el Mando de Operaciones Especiales de los Estados Unidos (SOCOM) para influir con IA en sus futuras operaciones militares, según reconocieron en un documento publicado por su propia Dirección de Ciencia y Tecnología.

Temas: