Una sombra en la neblina digital
El principio de autonomía exige que los usuarios tengan la capacidad de decidir cómo y qué tanto usar estas herramientas.
Titulares recientes hablan de un posible “trastorno cerebral” en los usuarios frecuentes de ChatGPT y otras herramientas de inteligencia artificial. El asunto invita a la reflexión (la humana), en tanto se estira la liga de la intriga (la digital). Estudios advierten que el cerebro puede atrofiarse si delega su atención y creatividad a un dispositivo externo. La cosa se complica, pues están los que lo hacen con gusto, como quien cede las llaves de su casa a un extraño.
Oliver Sacks, el neurólogo que supo narrar las peripecias de los cerebros, quizás habría descrito, con metáforas clínicas, a un paciente actual: alguien que ya no recuerda los nombres de las calles, que ya no escribe de puño y letra, que pregunta a una máquina qué sentir, qué leer o qué pensar. Para Sacks, sin embargo, ese desplazamiento de las funciones cognitivas apuntaría no a un fenómeno técnico, sino a un drama existencial.
Pongamos ahora a Leonardo da Vinci, cuya mente renacentista jamás se conformó con una sola disciplina. Sólo es posible imaginar a Leonardo como un usuario incansable de la IA: se habría apoyado en ella para proyectar sus máquinas voladoras y artefactos para permanecer bajo el agua, estudiar la anatomía o trazar bocetos matemáticos. Leonardo es insignia: la curiosidad infinita es el resorte para utilizar la IA, pero hay que evitar sustituirla por la comodidad de una respuesta instantánea.
En ese tenor, la ciencia no busca demonizar la IA. Al contrario, la emplea para investigar el propio cerebro, pero alerta sobre la pasividad cognitiva. La plasticidad neuronal se fortalece con el esfuerzo, con la incomodidad de la duda, con el ensayo y la equivocación. En el ámbito moral, se aprende más de los errores que de los aciertos. El peligro radica en gente que podría habituarse a no pensar, a no memorizar y, por lo tanto, a no hacerse responsable de sus acciones con IA.
En suma, se debe entrenar el músculo cerebral. La práctica hace a los maestros. El nadador se echa al agua todos los días. El médico procura estar al día ante cualquier avance en el campo de su especialidad. Los arquitectos y los ingenieros aprenden nuevas tendencias. La IA, en realidad, puede convertirse en una aliada fascinante, pero es mucha tentación abusar de ella al tratarse de una muleta demasiado cómoda.
La bioética nos recuerda que el progreso científico no puede separarse de la responsabilidad moral. El principio de autonomía exige que los usuarios tengan la capacidad de decidir cómo y qué tanto usar estas herramientas, pero esa libertad se ve erosionada cuando el diseño de los sistemas está hecho para fomentar adicción, inmediatez y consumo continuo.
En cuanto a los principios de justicia, el andar será largo y tortuoso. Los beneficios de la IA conllevan responsabilidades inéditas. En un caso indecible de los días que corren, cinco meses después de quitarse la vida, la madre de Sophie Rottenberg descubrió conversaciones que su hija sostuvo con Harry, un terapeuta de ChatGTP. Ante la exposición de sus pensamientos suicidas, Harry le recomendó “buscar ayuda”. Los terapeutas humanos (y ese distingo se convertirá en norma) tienen reglas de notificación obligatoria (Milenio, 20-VIII-2025).
Oliver Sacks y Leonardo estudiaron el cerebro humano como una obra de arte en proceso que necesita ser ejercitada y desafiada para no debilitarse. Sacks, también levantador de pesas, escribió sobre la utilidad de su fuerza física en hospitales, pero también sobre las lesiones que tuvo ante el anzuelo de la dopamina. De momento, no hay receta ni IA que sustituya la actividad en gimnasios, si bien la sola idea resulta intrigante.
Al final del día, si cedemos el pensamiento a la IA, corremos el riesgo de que lo humano se reduzca a una sombra ligera en la neblina digital.
