Tranv-IA

El célebre dilema del tranvía es un experimento ético difundido por la filósofa inglesa Philippa R. Foot, en un artículo de 1967 titulado: El problema del aborto y la doctrina del doble efecto. En él, la filósofa nos pide considerar a un tranvía sin frenos que se ...

El célebre dilema del tranvía es un experimento ético difundido por la filósofa inglesa Philippa R. Foot, en un artículo de 1967 titulado: El problema del aborto y la doctrina del doble efecto. En él, la filósofa nos pide considerar a un tranvía sin frenos que se acerca a una bifurcación de vías. En una, cinco personas están trabajando; en la otra, sólo una. Sin lugar a dudas, quien esté en el paso del tranvía, morirá. ¿A quién preferir?

El que debe tomar la decisión es un transeúnte que casualmente va pasando junto a la palanca de cambio de rieles. En este punto, le sugiero al respetable lector que imagine que es dicho transeúnte y se dé un momento para tomar su decisión y justificarla, antes de seguir leyendo: si jala la palanca, muere una sola persona; si no hace nada, mueren cinco.

Se utiliza deliberadamente la palabra “justificar”, porque lo importante es poder explicar por qué consideramos justa nuestra decisión (la alternativa sería confesar que somos injustos). Es normal que la respuesta sea derivar el tranvía descontrolado hacia la vía donde sólo hay una persona.

De las versiones que he conocido, la que me ha parecido más interesante propone que sólo hay una vía, pero que aún se puede salvar a los cinco trabajadores, si se sacrifica a un hombre corpulento, empujándolo con fuerza frente al paso del tranvía, mientras está distraído. Curiosamente, casi nadie está dispuesto a empujar al hombre, pero sí a jalar la palanca, aunque las consecuencias sean idénticas.

La neurociencia ha dado con el porqué. La primera decisión involucra sólo redes neuronales lógico matemáticas; la segunda, redes emocionales que nos informan que lo que estaríamos cometiendo es un asesinato y sentimos que eso está mal.

Actualmente, el dilema del tranvía ha saltado de los libros de filosofía a la realidad, ante la inminente popularización de los coches autónomos. Estos vehículos están controlados por inteligencia artificial (IA) que previamente debe ser “entrenada”, al menos hasta que desarrollemos una (peligrosa) IA fuerte que pueda tomar decisiones sin requerir instrucciones predefinidas.

Lo anterior quiere decir que debemos anticiparle a la IA conductora las directrices a seguir en casos extremos. Por ejemplo, si un coche autónomo se quedara sin frenos, a quién deberá procurar salvar su IA, ¿a los inocentes que va transportando y sacrificar a otros inocentes que van cruzando la calle?

Y qué pasa si no son todos inocentes: a quién condenar ¿a dos niños que transporta junto con un delincuente?, o a una pareja que cruza la calle con su bebé en una carriola, pero que ignoraron el alto peatonal. Incluso es factible que ocurran escenarios más simples, pero polémicos, como: a quién debería arrollar en esta otra circunstancia irremediable, ¿a cinco perros, o a cinco gatos?

Ante tantos posibles dilemas, investigadores del Instituto Tecnológico optaron por seguir las pautas dictadas por el consenso popular, para lo cual crearon el sitio Moral Machine. En él, cualquiera puede proponer su respuesta a estos casos y muchos otros.

La intención fue la de recolectar la opinión más generalizada para, posteriormente, publicar los resultados en un documento de investigación llamado Un sistema de votación basado en la toma de decisiones éticas. Lo asombroso es que su conclusión es que “no parece existir una manera de diseñar un algoritmo que concilie los valores morales con el interés propio”.

  • ENCRUCIJADA

Para comprender mejor la dificultad de resolver esta añeja contradicción entre el interés propio y el bien común, sólo imagine que, a donde haya decidido dirigir el vehículo en el dilema del tranvía está la persona que más estima. ¿Cambió su decisión?

Temas: