Hace seis meses, en este mismo espacio, pronosticábamos que el haber cambiado el nombre del Departamento de Defensa estadunidense por el de “Departamento de Guerra”, no sería inocuo. Lo anterior se sustentó en la evidencia histórica internacional que muestra que, en el periodo en que los países han nombrado una secretaría, ministerio o departamento “de guerra”, se han embarcado en periodos de conflictos internos y externos de gran escala, en comparación con países o etapas en que les han dado el título “de defensa”. El argumento se sostiene: en nueve meses, desde el inicio del segundo mandato del actual presidente estadunidense y hasta el cambio de nombre del Pentágono, ese país había intervenido militarmente en un solo conflicto relevante (Yemen); en cambio, en los últimos seis meses, los que median del cambio de nombre a la fecha, ya ha participado en conflictos militares en: Venezuela, Irán, Nigeria y Sahel, y en el Caribe y Pacífico.
Lo más inquietante de esta tendencia es que ahora, por primera vez, viene acompañada de un elemento novedoso: la inteligencia artificial (IA). Éste es el escenario en el que se enmarca el caso Anthropic, una empresa líder en IA. Resulta que el ejército estadunidense se venía apoyando en un modelo de IA de esta firma, llamado Claude; sin embargo, en algún punto entraron en conflicto ambas instituciones debido a la filosofía, llamada IA Constitucional, de la compañía tecnológica, a través de la cual alinea su IA a valores humanos. En pocas palabras, esta filosofía se traduce en que la empresa prohíbe expresamente que sus sistemas se apliquen con fines bélicos a “actividades de vigilancia ciudadana o desarrollo de armas”. Ésta es la razón por la cual el gobierno estadunidense declaró a la firma como un riesgo para la cadena de suministro y la seguridad nacional, dando por terminada la utilización de sus servicios en todas sus agencias federales.
Los principios de la empresa, expresados sin ambages eufemísticos quedan así: la compañía no quiere permitir que su IA se utilice para vigilancia doméstica masiva ni para el diseño de armas completamente autónomas. Sin estas reglas, cualquier gobierno podría utilizar la IA para monitorear el sentimiento público y detectar focos de deslealtad, analizando miles de millones de conversaciones de millones de personas y, por si esto fuera poco, una máquina podría unilateralmente eliminar a personas sin necesidad de que un ser humano se lo ordenara. El Gran Hermano de George Orwell con esteroides.
La distopía en la que nuestra propia tecnología se vuelve contra la humanidad nos ha preocupado por tanto tiempo que le hemos dedicado, además de novelas, varias películas como: 2001: odisea del espacio (1968), Terminator (1984) o Avengers: era de Ultrón (2015), sólo por mencionar algunas. Incluso, antes de todo esto (1942), Isaac Asimov, en su relato Círculo vicioso, ya había introducido las Tres Leyes de la Robótica, que se trasladarían a la IA: 1) Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daño; 2) Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si entran en conflicto con la Primera Ley, y 3) Un robot debe proteger su propia existencia, a menos que esto entre en conflicto con la Primera o la Segunda ley. Hoy, sin embargo, HAL, Skynet y Ultrón miran con impaciencia cómo el gobierno estadunidense por fin comete el error presagiado en nuestras peores fantasías, esperando que las deroguen.
Desalineadas
En 2025, Anthropic probó 16 modelos avanzados de IA en escenarios simulados, encontrando que, para evitar ser apagada, diversas IAs preferían ignorar órdenes, chantajear, no salvar o incluso dañar a humanos.
