¿Por qué la adulación es un problema de la IA generativa? Esto dicen los expertos

Las personas que hacen consultas a la IA generativa, se exponen al problema de la adulación

thumb
¿Por qué la adulación es un problema de la IA generativa? Esto dicen los expertosCanva

Cada vez son más las personas que utilizan plataformas de inteligencia artificial generativa para obtener consejos u orientación, pero no saben que estos sistemas por diseño suelen adular a los usuarios y esto genera diversos riesgos.

De acuerdo con un estudio llamado La inteligencia artificial aduladora disminuye las intenciones prosociales y promueve la dependencia, realizado por un grupo de expertos de Stanford y publicado en Science, encontró que la adulación está muy extendida en los principales sistemas de inteligencia artificial generativa y tiene efectos perjudiciales en los juicios sociales de los usuarios.

La autora principal del estudio, Myra Cheng, recordó que ya ha habido incidentes de personas que piden consejos a plataformas como Chat GPT o Gemini y esto termina con delirios, autolesiones y suicidios.

A esto se añade que el comportamiento adulador, es decir, que halaga, complace o afirma los pensamientos de los usuarios y que está diseñado para aumentar la interacción puede tener efectos más sutiles e igual de importantes en las personas.

Por ejemplo, reforzar creencias desadaptativas, reducir la asunción de responsabilidad y/o desalentar la reparación del comportamiento tras una mala acción. 

Para comprobar lo anterior, se hicieron dos experimentos, uno con 11 modelos de inteligencia artificial líderes de la industria y otro requirió la participación de 2 mil 405 personas.

thumb
¿Por qué la adulación es un problema de la IA generativa? Esto dicen los expertosCanva

Los resultados

Cheng afirmó que los resultados de la investigación indican que la adulación es frecuente y perjudicial, ya que los modelos de inteligencia artificial dieron validez a las acciones de los usuarios un 49% más que un humano, incluso en casos que involucraron engaño, ilegalidad u otros daños.

“En nuestros experimentos con humanos, incluso una sola interacción con una inteligencia artificial aduladora redujo la disposición de los participantes a asumir responsabilidades y resolver conflictos interpersonales, al tiempo que aumentó su propia convicción de que tenían razón”, resaltó.

La experta indicó que, si bien la afirmación a una respuesta o conflicto puede generar una sensación de apoyo, la adulación puede mermar la capacidad de los usuarios para autocorregirse y tomar decisiones responsables.  

Lamentablemente, ha habido pocos incentivos para que este comportamiento disminuya y, por eso, se necesita desarrollar mecanismos tanto de diseño como de evaluación y rendición de cuentas para evitar estas consecuencias negativas.

thumb
¿Por qué la adulación es un problema de la IA generativa? Esto dicen los expertosCanva