Inteligencia artificial: iniciativas de acción
El panorama electoral de 2024, con alrededor de mil millones de potenciales votantes en elecciones tan críticas para el mundo como las de la India, EU y México, entre otras, parece el caldo de cultivo perfecto para los ya conocidos efectos del contenido generado por IA, que se ha convertido repentinamente en una amenaza a la democracia.
En este espacio hemos abordado el tema del advenimiento de la inteligencia artificial (IA) en todas nuestras actividades y particularmente los efectos negativos y enormes riesgos que trae para la democracia.
El panorama electoral de 2024, con alrededor de mil millones de potenciales votantes en elecciones tan críticas para el mundo como las de la India, Estados Unidos y México, entre otras, parece el caldo de cultivo perfecto para los ya conocidos efectos del contenido generado por IA, que se ha convertido repentinamente en una amenaza a la democracia.
En este entorno, las autoridades electorales se enfrentan a este factor adicional, brutalmente desconocido, cuyos efectos ya comienzan a sentirse. Iniciativas como las de la Comisión de Venecia y el Consejo Europa destacaron este año como llamados relevantes para una regulación efectiva de la IA.
En la última semana, dos pasos significativos hacia una mejor regulación de la IA se han dado: por un lado, la celebración de una Cumbre por la Seguridad de la Inteligencia Artificial, que reunió a gobiernos, empresas y académicos de 28 países, se realizó en Bletchley Park, Inglaterra.
Asumir colectivamente este magnífico reto, no podría tener un mejor escenario que Bletchley Park, el histórico lugar donde, de la mano de Alan Turing, un grupo de criptógrafos y científicos logró descifrar el código Enigma, la mejor arma secreta de Adolf Hitler para la logística de su expansión europea. La hazaña de Bletchley Park facilitó la entrada de los aliados a Europa y aceleró la derrota nazi de 1945.
En ese significativo lugar se anunció la Declaración de Bletchley, mediante la que estas naciones se comprometen a acotar las mayores amenazas de la IA a través de la evaluación de las herramientas previamente a su liberación y de la formación de un panel global de expertos, similar al panel de cambio climático de la ONU.
Por otro lado, el presidente Biden firmó una orden ejecutiva sobre inteligencia artificial que habilita la capacidad institucional del gobierno federal para abatir los riesgos extremos de la IA. De acuerdo a esta nueva regulación, las empresas deben realizar pruebas de seguridad e informar sobre los riesgos de sus herramientas, específicamente los relacionados con el terrorismo y con los peligros de la IA generativa para elaborar deepfakes.
Por su parte, la propia OEA ha sido proactiva en torno a los riesgos específicos de la IA en la democracia electoral. Durante la última Reunión de Autoridades Electorales del hemisferio celebrada el pasado septiembre en Ottawa, tuvimos un taller específicamente destinado a estudiar los efectos de la inteligencia artificial en las campañas electorales.
BALANCE
Debemos evitar que el pernicioso efecto de contenidos falsos creados por IA en nuestro diálogo democrático siga irrumpiendo con la forma que lo ha hecho. Todos los días podemos leer sobre los efectos de la IA en el debate político electoral del continente.
Por un lado, la circulación fraudulenta de mensajes falsos en voz e imagen de los actores políticos pretenden dañar su reputación y su impacto electoral mientras que, por el contrario, la inteligencia artificial parece ofrecer la salida fácil –y creíble– para las genuinas expresiones antidemocráticas que realizan actores políticos y que, ante el adverso escrutinio público, no encuentran otra explicación más que señalar hacia los deepfakes creados.
Nuestros esfuerzos para enfrentar estos retos y asegurar procesos electorales libres y justos deben seguir motivándonos para crear marcos regulatorios para abatir este riesgo nunca visto en nuestra vida democrática.
* Los puntos de vista son a título personal.
No representan la posición de la OEA
