Inteligencia artificial (II)

Los sistemas de IA de riesgo inaceptable son aquellos que atentan contra la seguridad, los medios de vida y los derechos de las personas, como la puntuación social por parte de los gobiernos o los juguetesque inducen comportamientos peligrosos.

La ética es factor indispensable para el desarrollo de la Inteligencia Artificial (IA), y consiste en aplicar los valores y principios morales que rigen la conducta humana para el diseño, desarrollo y uso de la IA. El objetivo es que contribuya al bien común, respete la dignidad humana y promueva la justicia social.

Algunos avances importantes en materia de normas, leyes o reglamentos que regulen la ética de la IA son:

La Recomendación sobre la ética de la inteligencia artificial de la Unesco, que es la primera norma mundial sobre este tema, adoptada por los 193 Estados miembros en noviembre de 2021. Esta recomendación establece un marco ético basado en los derechos humanos y la dignidad, y propone ámbitos de acción política para garantizar una IA segura, justa, transparente y responsable.

El Reglamento sobre la inteligencia artificial de la Unión Europea (UE) es la primera propuesta legislativa sobre este tema, presentada en abril de 2021, que clasifica los usos de la IA según su nivel de riesgo y establece requisitos y prohibiciones para garantizar una IA confiable y respetuosa con los valores europeos.

Los Principios para el desarrollo y uso de la inteligencia artificial de la OCDE, que son los primeros principios internacionales sobre este tema, adoptados por 42 países en mayo de 2019. Estos principios promueven una IA centrada en el ser humano, que beneficie a la sociedad, respete el Estado de derecho y garantice la inclusión, la diversidad y la innovación.

La inteligencia artificial (IA) y su desarrollo tienen un impacto complejo y ambiguo sobre el empleo y el trabajo humano; no se puede afirmar con certeza que la IA vaya a sustituirlo en el futuro, sino más bien lo va a cambiar, tanto en cantidad como en calidad, por ello estamos obligados a continuar equipándonos en el tema.

El reglamento sobre inteligencia artificial de la Comisión Europea es una propuesta legislativa que tiene como objetivo establecer normas armonizadas en materia de inteligencia artificial  en la Unión Europea. Su finalidad es garantizar que la IA sea confiable, respete los valores y los derechos fundamentales de la UE y fomente la innovación y la competitividad.

Los deberes y las obligaciones que establece el reglamento varían según el nivel de riesgo que presenten los sistemas de IA. El reglamento identifica cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo.

Los sistemas de IA de riesgo inaceptable son aquellos que atentan contra la seguridad, los medios de vida y los derechos de las personas, como la puntuación social por parte de los gobiernos o los juguetes que inducen comportamientos peligrosos.

Los sistemas de IA de alto riesgo son aquellos que se utilizan en sectores o actividades que pueden tener un impacto significativo en la vida de las personas, como la salud, el transporte, la educación o el empleo. Estos sistemas deberán cumplir una serie de requisitos, como la calidad de los datos, la transparencia, la supervisión humana, la precisión o la seguridad.

Los sistemas de IA de riesgo limitado son aquellos que implican una interacción con las personas, como los asistentes virtuales o los chatbots.

Los sistemas de IA de riesgo mínimo son aquellos que tienen un impacto bajo o nulo en la vida de las personas, como los filtros de spam o los videojuegos.

Así, la UE dio el primer marco jurídico sobre IA a nivel mundial, que servirá de referencia para otros países y regiones, con el propósito de crear un mercado único de IA en la UE, que facilitará la circulación y el uso de los sistemas de IA en todos los Estados miembros impulsando confianza y la aceptación de la IA entre los ciudadanos y las empresas, al garantizar que la IA se desarrolle y utilice de forma ética y respetuosa con los derechos humanos. Urge que hagamos lo propio en América. ¿O no, estimado lector?

Temas: