Inteligencia artificial: regular para un desarrollo controlado y benéfico

La Unión Europea propuso el primer proyecto de marco jurídico sobre IA de la historia.

La irrupción de ChatGPT en la escena tecnológica ha generado, en las últimas semanas, muchos comentarios e inquietudes sobre inteligencia artificial (IA), como si fuera algo nuevo e inesperado. En realidad, es un reto que llevamos años viendo crecer con los progresos cada vez más rápidos de la tecnología. Sin duda alguna, la IA tiene un enorme potencial en ámbitos tan diversos como la salud, el transporte, la agricultura, el turismo y la ciberseguridad. Pero también es cierto que entraña varios y serios riesgos que debemos prevenir. Sólo un marco regulatorio que genere confianza y control permitirá que la IA se desarrolle de manera armoniosa.

Es por ello que, desde 2021, la Comisión Europea propuso un conjunto de nuevas normas y medidas que buscan convertir a la Unión Europea (UE) en el centro de una IA digna de confianza desde el laboratorio hasta el mercado. Se trata del primer proyecto de marco jurídico sobre IA de la historia, el cual, combinado con un nuevo plan coordinado con los Estados miembros de la UE, busca garantizar la seguridad y los derechos fundamentales de las personas y las empresas, al tiempo que fortalecerá la adopción, la inversión y la innovación en la materia en toda la UE.

Cabe mencionar que estas normas están diseñadas para intervenir cuando sea estrictamente necesario, es decir, cuando estén en riesgo la seguridad y los derechos fundamentales de los ciudadanos. La piedra angular de esta futura legislación es un sistema de clasificación que determina el nivel de riesgo que una tecnología de IA podría suponer.

El marco contempla cuatro niveles de riesgo: 1) mínimo, como los filtros de spam o los videojuegos, que pueden utilizarse libremente; 2) limitado, como los chatbots, que deben cumplir con obligaciones específicas de transparencia; 3) alto, que abarca sistemas de identificación biométrica y tecnologías de IA empleadas en áreas como infraestructuras críticas (p. ej. transportes), componentes de seguridad de los productos (p. ej. cirugías asistidas por robots), formación educativa o profesional (p. ej. puntuación en exámenes), empleo (p. ej. clasificación de CV), servicios públicos y privados esenciales (p. ej. sistemas de calificación crediticia), gestión de la migración y el control de las fronteras (p. ej. comprobación de documentos de viaje), los cuales están sujetos a cumplir obligaciones estrictas para poder comercializarse; 4) inaceptable, como sistemas que permiten la “puntuación social” por parte de gobiernos y sistemas que manipulan el comportamiento humano para eludir la voluntad de los usuarios, los cuales están prohibidos por considerarse una clara amenaza para la seguridad y los derechos de las personas.

La Ley de IA propone fuertes sanciones y multas por incumplimiento mientras que, en términos de gobernanza, establece que las autoridades nacionales de vigilancia del mercado controlen las nuevas normas. La creación de un Comité Europeo de Inteligencia Artificial facilitará su aplicación e impulsará la creación de normas en materia de IA.

Considerando que esta legislación se propuso hace ya un par de años y a la luz de los últimos avances tecnológicos, incluida la irrupción de nuevas herramientas como ChatGPT, este proyecto de legislación está en proceso de revisión por parte de los colegisladores de la UE: el Parlamento Europeo y el Consejo.

Cuando hablamos de IA, la confianza debe ser vista como una obligación, no como un accesorio. Fiel a su tradición de pionera en la regulación de las nuevas tecnologías, la UE está liderando la formulación de nuevas normas que garanticen que se pueda confiar en la IA. De esta manera, reforzaremos nuestra posición como centro mundial de excelencia en materia de IA, al tiempo que velaremos por que la IA respete nuestros valores y normas y esté al servicio de la humanidad.

                      *Embajador de la UE en México

Temas:

    X