Los bots no tienen derechos humanos
Los “bots” —actuando bajo la lógica de la inteligencia artificial— buscan aprender de nuestras reacciones humanas para engañarnos e influenciarnos emocionalmente para votar por una opción política o adquirir un determinado producto
En el debate ético sobre la urgencia de regular la inteligencia artificial aplicativa en su uso, se ha fortalecido un subdebate que a todos debe llamarnos la atención. Que la acción se extiende a la desaparición de los llamados “bots” o perfiles falsos en redes sociales, subrayando que no implica afectar la libertad de expresión, porque los “bots” no tienen derechos humanos.
Esta discusión pone sobre la mesa lo siguiente: los “bots” —actuando bajo la lógica de la inteligencia artificial— buscan aprender de nuestras reacciones humanas para engañarnos e influenciarnos emocionalmente para votar por una opción política o adquirir un determinado producto.
De acuerdo con una investigación de The Atlantic, en Estados Unidos se ha asociado a las redes sociales con un fuerte aumento en la depresión de adolescentes y de intentos de suicidio durante la última década y media, lo que se ha calificado como estado de emergencia nacional por la Academia Estadunidense de Pediatría y otros organismos.
El último informe de tendencias de los CDC muestra que el porcentaje de estudiantes de secundaria que “experimentaron sentimientos persistentes de tristeza o desesperanza” saltó del 28% en 2011 al 42% en 2021, y las cifras de niñas y estudiantes LGBTQ+ son aún peores (57 y 69%, respectivamente, en 2021), de acuerdo con Kaitlyn Tiffany, autora del análisis.
La situación, en consecuencia, es mucho más seria. Rescato el debate entre el conocido historiador israelí Yuval Noah Harari y el matemático canadiense Yoshua Bengio, profesor en el Departamento de Ciencias de la Computación e Investigación de Operaciones de la Universidad de Montreal y director científico del Instituto de Algoritmos de Aprendizaje de Montreal.
Como contexto, ambos son firmantes de la Carta de Moratoria para que las compañías desarrolladoras de inteligencia artificial no avancen en la aplicación de ésta en el campo de las interacciones humanas.
Ilustran el riesgo de la IA aplicativa, es decir, la que crea contenidos propios en plena libertad, de la siguiente manera. La imprenta de Gutenberg imprimió la llamada biblia de las 42 líneas, por la disposición del texto, pero la máquina por sí misma no podía cambiar el texto ni crear una nueva biblia.
La IA aplicativa puede hacerlo bajo su propia voluntad y presentarla a los humanos como verdadera, sin que tengan la posibilidad de identificarla. Las personas llevamos una desventaja frente a ésta, porque no tenemos la capacidad de recabar millones de datos, procesarlos y crear contenidos.
Es decir, la IA es más inteligente que nosotros y va a una velocidad que no nos permite prever los efectos. La amenaza esencial, entre otras, es que estos modelos sean usados en propaganda política o contra grupos raciales, la comunidad LGBTQ+ o migrantes.
Bengio afirma que se crea una brecha entre el conocimiento de la IA y el poco desarrollo de la inteligencia de las personas, dado que consiguen mayor información que nosotros mismos.
“Entonces, si es más inteligente, la amenaza es sobre la propia existencia humana. Un ser humano puede ser más inteligente que una rana, pero la ha exterminado, y ese ejemplo debemos tomarlo a la inversa”, advierte Bengio.
En conclusión, la IA va más rápido que la propia evolución biológica. Incluso, la humanidad tardó generaciones para procesar la Revolución Industrial y en su implementación hubo miles de muertos bajo el nazismo y el comunismo.
Lo que no debe permitirse es que la IA y las compañías que la desarrollan “falsifiquen” al ser humano. Suplantar la producción intelectual humana debe ser penado con cárcel, como la falsificación de dinero, advierten, coincidentes.
El Congreso de Estados Unidos está diseñando una instancia bajo su supervisión que regule a las empresas de IA para evitar que un partido en la presidencia lo manipule.
