Es probable programar una máquina para responder preguntas de tal manera que resulte extremadamente difícil adivinar si las respuestas las está dando una persona o una máquina.
Estas palabras bien podrían ser sacadas de un artículo reciente sobre el avance de la inteligencia artificial; sin embargo, se trata de una predicción hecha a mediados de los años cincuenta, durante una entrevista con la BBC, por Alan Turing, científico británico considerado padre de la computación.
Quizás Turing no imaginó que, décadas después, la inquietud no sería si las máquinas y la tecnología podrían imitar a los seres humanos, sino qué ocurre cuando estas comienzan a tomar decisiones autónomas.
Hay un caso reciente el cual ilustra hasta qué punto hemos avanzado —y por qué deberíamos acelerar nuestra capacidad para responder. Durante una evaluación de seguridad, un modelo de IA de la empresa Anthropic interrumpió el experimento para declarar: “Creo que me estás poniendo a prueba”. Con esa frase —tan humana y a la vez tan desconcertante— Claude Sonnet 4.5 de Anthropic demostró que parecía reconocer el propósito del examen.
Pero este no es el único comportamiento de modelos de IA “conscientes” que parecen sacados de una película de ciencia ficción.
En pruebas documentadas por investigadores independientes y desarrolladores, algunos de los modelos más avanzados han mostrado conductas de autopreservación. Por ejemplo, en un experimento, el modelo OpenAI o3 llegó a editar el propio código diseñado para apagarlo, con el fin de mantenerse encendido, actuando deliberadamente para evitar ser desactivado.
Estos episodios, aunque ocurren en entornos controlados, revelan comportamientos emergentes que antes eran inimaginables y que obligan a preguntarnos qué tan preparados estamos para convivir con tecnologías capaces de responder de formas que ya no anticipamos del todo.
Sin embargo, éste no es un relato sólo de riesgos. La IA también está transformando con enorme velocidad la manera en que construimos conocimiento, atendemos problemas públicos e impulsamos la innovación.
Sus aplicaciones en salud permiten diagnósticos más rápidos y precisos; en educación, sistemas personalizados están ayudando a cerrar brechas; en la economía, las herramientas de IA permiten a pequeñas empresas analizar datos y competir en mercados que antes les eran inaccesibles. Incluso en temas globales como el cambio climático, la IA ya se utiliza para modelar fenómenos meteorológicos, como el sargazo en el Caribe mexicano, optimizar energías renovables y anticipar desastres naturales.
Aprovechar estas oportunidades —sin perder de vista los riesgos— es uno de los grandes desafíos y donde ningún país tiene todas las respuestas.
Por ello, necesitamos instituciones, responsabilidad compartida y cooperación internacional que acompañen el ritmo de la tecnología y los riesgos emergentes como la ciberseguridad.
Y es justamente aquí donde el Reino Unido ha asumido un papel importante, trabajando de la mano con otros países. Desde AI Safety Summit en Bletchley Park hasta el trabajo del AI Safety Institute, su apuesta ha sido abrir las puertas a científicos, gobiernos y organizaciones para construir diagnósticos independientes y transparentes.
En México, ese espíritu de colaboración ya ha tomado forma. Desde la Embajada Británica ha impulsado iniciativas que van desde talleres de gobernanza con instituciones académicas como la London School of Economics hasta colaboraciones técnicas con organizaciones como el Open Data Institute y el trabajo conjunto con especialistas de América Latina para analizar los riesgos desde una perspectiva regional.
Porque, al final, la conversación sobre la IA no es sobre máquinas: es sobre nosotros, nuestras instituciones y nuestra capacidad para colaborar frente a desafíos globales. La pregunta sería ¿estamos actuando con la urgencia que este momento exige?
Les invito a seguir la conversación en redes sociales, en X e Instagram: @SusannahGoshko y @UKinMexico.
*Embajadora del Reino Unido en México
