Logo de Excélsior                                                        

La IA y la experiencia de la vida

Jorge Camargo

Jorge Camargo

Pocas personas saben lo que es la inteligencia artificial generativa, sus usos y los riesgos que implica. Quizá lo más riesgoso es que no tengamos conocimiento si nos está despojando de nuestra experiencia de vida.

Las personas incluso han experimentado algunos de sus efectos perversos, como la “expropiación de la toma libre de decisiones” a través de la información falsa, las violaciones a la privacidad y la apropiación de la experiencia del disfrute de la vida, así como también usos importantes, como la gestión de trámites gubernamentales o asignaciones presupuestarias.

Más allá de las advertencias de un futuro apocalíptico si se le lleva al extremo, lo que realmente preocupa a la sociedad civil global y a legisladores de Estados Unidos y la Unión Europea es el poder que concentran las compañías desarrolladoras, las cuales no tienen ninguna obligación legal de reportar sus avances y muchos de sus usos, así como tampoco restricciones.

Es decir, que algunas compañías podrían estar utilizándola en nosotros sin que lo sepamos. Ante ello, la Unión Europea ha emitido la Ley de Inteligencia Artificial que, a partir de 2025, regulará los usos de ésta bajo una escala de riesgos: altos y prohibidos.

El tema es tan complejo —aunque la IA viene siendo utilizada desde hace casi 50 años— que expertos en tecnología, filósofos e intelectuales, así como la misma Asociación Europea de Inteligencia Artificial, han pedido una “moratoria” de seis meses de desarrollo de esta tecnología a las empresas. Es decir, un alto para valorar los riesgos potenciales que pudieran estarse generando para el conocimiento y las libertades de las personas.

Se trata de frenar la llamada inteligencia artificial generativa, es decir, aquella que puede generar, entre otras cosas, contenidos que simulen haber sido creados por humanos y que se basan en datos existentes. Ello implica un riesgo de verosimilitud.

La preocupación proviene del hecho de que las compañías especializadas se han lanzado a una competencia vertiginosa liberando productos cada vez más avanzados, sin preocuparse por los problemas éticos que pueden generar.

La Asociación Europea de Inteligencia Artificial ha puesto un ejemplo sobre la mesa, como es la prohibición de la IA en armas no personales, es decir, drones controlados por esta inteligencia que puede tener la autonomía para lanzar un misil. Estados Unidos, Israel y China adelantaron que no firmarían ningún acuerdo que frenara este uso con fines militares.

La Unesco, por su parte, también ha realizado un llamado a todos los países a aprobar regulaciones en materia de ética, relacionada con el uso de la IA.

Debe recordarse que, en este debate, el director de OPEN AI, diseñador del ChatGPT, Sam Altman, reconoció tener “un poco de miedo” de que su creación se utilice para desinformación a gran escala o ciberataques.

Kate Crawford, quien dirige la organización AI Now (Inteligencia artificial ahora) y autora del libro Atlas de inteligencia artificial, poder político y costos planetarios, advierte que no existe control sobre los datos sobre los cuales se construyen los algoritmos, que pueden propiciar el procesamiento de información discriminatoria y alimentar una sociedad bajo criterios sexistas, racistas y clasistas.

Esto en momentos puede ser tan elemental como el hecho de que la IA es una proyección de los valores de las personas que la alimentan, esencialmente hombres blancos.

La reflexión de Crawford debe movernos a repensar: “La opacidad de esta tecnología significa que es posible que no estemos informados cuando está en uso o cómo está funcionando. Esto asegura que tengamos poco o nada que decir sobre su impacto en nuestras vidas”.

 

Comparte en Redes Sociales