¿Nos adoctrina la IA?
La herramienta ChatGPT obedece diversos criterios y por supuesto que está ligada a cierta ideología.
La inteligencia artificial no es algo nuevo, mucho menos un invento de Elon Musk, ni se estrenó con ChatGPT. El antecedente más antiguo podría ser el invento de Alan Turing, quien fue el creador de una máquina electromecánica, antecedente de las computadoras, que ayudó a descifrar los códigos secretos de los submarinos alemanes durante la Segunda Guerra Mundial.
Hoy, la inteligencia artificial va mucho más allá, al pretender trasladar el pensamiento humano a un software capaz de realizar aquellas tareas impensables para muchos de nosotros.
Sin duda, ChatGPT es la herramienta más popular en estos momentos, alcanzando más de 100 millones de usuarios.
No me podía quedar con la duda respecto a esta cacareada herramienta, por lo que me dispuse a abrir una cuenta y probarlo, a fin de tener una experiencia de primera mano.
Para los que crean que la inteligencia artificial es un peligro, como ChatGPT, porque podría desplazar al ser humano, apoderarse de profesiones y eliminar muchos empleos, aún no se han dado cuenta de un peligro mucho mayor.
Resulta ser que la noción de que ChatGPT hace las cosas que uno le pida con gran precisión, argumentación y claridad al crear, por ejemplo, un artículo, no es tan cierta.
ChatGPT obedece diversos criterios y, por supuesto, está ligado a cierta ideología. La noción de que ChatGPT podría escribirte un artículo con “tu estilo” es irreal. La coincidencia en la narrativa radica en integrar los (tus) metadatos presentes en nuestros correos electrónicos, redes sociales, teléfono, laptop, computadora. Es decir, de alguna forma puede generar patrones, predecir y crear un perfil del usuario.
Discretamente, lo que firmamos como nuestro obedece, en realidad, a una línea de pensamiento. El ChatGPT está ayudando a construir una narrativa mundial. Es tendencioso, politizado y no es imparcial; y ahí radican los debates éticos en la aplicación de esta tecnología.
Estas afirmaciones vienen a colación por un experimento que realicé. Le pedí a ChatGPT que me hiciera un poema que honrara a la vida. Y me lo hizo. Y salió muy bien.
Le pedí que me hiciera un poema o pensamiento que honrara a Donald Trump. Y me dijo que no. Palabras más, palabras menos: “debo ser imparcial y respetuoso, y dado que la figura del expresidente Donald Trump ha sido objeto de controversia, no creo que sea apropiado crear un poema para él…”.
Tras la respuesta, consideré que quizá sea aceptable para conservar la imparcialidad y no inclinarse hacia uno u otro bando político.
Entonces le pedí que me hiciera un poema o pensamiento que honrara a Joe Biden. ¡Sorpresa! Lo hizo. Lo enalteció y lo honró.
Aquí le pongo parte de lo que hizo: “Joe Biden, líder de la nación. Con su mano firme y corazón compasivo. Guió a su pueblo hacia la esperanza y la unidad. Y demostró que la bondad es una fuerza activa”.
Le pedí un poema para Barack Obama y casi lo describió como el mesías, mientras que se negó a hacer uno para Ron DeSantis, gobernador de Florida, por ser una “figura política controvertida”.
Resulta irrelevante mi opinión personal sobre los políticos mencionados, lo que es grave y preocupante es que la inteligencia artificial, con rostro de ChatGPT, me diga a qué personajes puedo o no dedicarle un poema. Su función es agilizar mi trabajo, no adoctrinarlo. ¿Cómo lo podrían explicar sus creadores?
No hay que olvidar que la inteligencia artificial está creada por empresas que tienen ciertos intereses y, por ende, su producto reflejará la visión y prioridades de la misma. Pensar que es una herramienta neutral es simplemente absurdo.
Lamentablemente, la inteligencia artificial está creciendo a gran velocidad, que cuando comprendamos todas sus implicaciones podría ser demasiado tarde. Urge una regulación, aunque los criterios y reglas de operación debieron implementarse desde su masificación.
POST SCRIPTUM
Dicen públicamente que México no necesita el apoyo de Estados Unidos para controlar el narcotráfico y el crimen organizado.
Pregunta seria: si es así, ¿por qué no lo han hecho?
