-
Un experimento plantea cómo debería ser la moral de un coche autónomo en caso de accidente de tráfico.
-
¿Atropellar a un ejecutivo o a un indigente? ¿Salvar a una madre en el vehículo o a tres niños que cruzan?
La moral del coche autónomo. Los vehículos que se conducen solos ya han protagonizado incidentes (incluso un atropello mortal), pero sus ensayos siguen avanzando y perfeccionándose. Los veremos en las carreteras en breve. Y eso los enfrentará a dilemas en caso de accidente. ¿Qué ética van a tener? ¿Qué principios seguirán… y quién los determinará?
Quizá no lo habías pensado, pero tras la seguridad que proclaman los fabricantes ante la inminente llegada de los coches autónomos, en los que se eliminan la imprudencia o las distracciones como factores humanos causantes de siniestros, hay mucho que decir. Como señala Elpais.com, un fallo mecánico, las condiciones meteorológicas o los elementos que rodean estos vehículos (peatones, otros automóviles, animales) provocarán un accidente tarde o temprano. Y en ese caso, el coche tendrá que decidir a quién salva… y a quién mata. Es crudo, pero es así.
Por ejemplo, imagina que un vehículo sin conductor se queda sin frenos ante un paso de cebra. Están cruzando un gato, un ejecutivo trajeado, unos niños, un indigente y tres ancianos. Dependiendo de hacia dónde gire el volante, atropellará mortalmente a algunos de ellos y otros se salvarán. También puede evitar a los peatones estrellándose contra un muro, pero en ese caso morirán una mujer embarazada y su hijo de cinco años, que viajan en el interior del automóvil. ¿Qué harías?
Buscando respuestas, científicos europeos y estadounidenses diseñaron un juego online (http://moralmachine.mit.edu/) en el que los participantes tenían que tomar estas decisiones actuando como la conciencia, la moral del coche autónomo. Todavía está activo y puedes contribuir. Harás frente a una serie de dilemas en los que siempre muere alguien y los resultados servirán para orientar unos principios éticos… ¿universales?
Este experimento se llama «La Máquina Moral» y las primeras conclusiones de la investigación han sido publicadas en la revista Nature. Se han resuelto 40 millones de ejercicios similares al propuesto arriba y los resultados muestran que hay tres «normas» que las personas tienden a seguir:
- Entre salvar a un humano o un animal, el automóvil debería atropellar a este último.
- Lo habitual es escoger que siga vivo el mayor número de personas posible: si en el coche hay un pasajero y el vehículo va a arrollar a dos peatones, es preferible que choque contra el muro.
- Si hay que elegir entre la supervivencia de un niño o un anciano, el último morirá para que el pequeño tenga la oportunidad de seguir viviendo.
Moral del coche autónomo: ¿de qué colectivos «preferimos prescindir»?
El estudio muestra que, entre los personajes que cruzan el paso de cebra, protegeríamos (por este orden), a un bebé en un carrito, una niña, un niño y una mujer embarazada. Sin embargo, los seres humanos menos «salvables» para los participantes en el experimento son los delincuentes, los ancianos y los indigentes.
Y aquí viene el problema, pues se apunta a una desigualdad en la moral de las máquinas. «Esto no implica que los expertos deban cambiar sus normas para complacer a la gente. Lo que sugerimos es que tengan esto en cuenta, pues los ayudará a anticipar la reacción pública a las regulaciones que redacten», comenta Edmon Awad, principal autor del estudio e investigador del Instituto de Tecnología de Massachusetts (MIT).
Moral del coche autónomo: ¿a quién «matamos» en cada región?
Por desgracia, este informe también ha puesto sobre la mesa que establecer una moral universal, una serie de normas que rijan el comportamiento del coche autónomo en todo el mundo por igual, es poco menos que imposible.
La geolocalización ha permitido determinar el origen de los participantes en el proyecto… y eso ha manifestado diferencias regionales.
- Los asiáticos tienden a salvar más a las ancianas que los occidentales.
- En Europa y Estados Unidos hay una significativa tendencia (aunque sutil) por proteger personas de complexión atlética, frente a los obesos.
- En los países del sur se salvarían más mujeres que hombres.
- En los estados con mayores desigualdades, los peatones con aspecto de ejecutivo han sido los más protegidos.
«Estos resultados sugieren que implantar un conjunto único de normas sería complicado. La misma regla tendría diferentes apoyos sociales en cada país«, cree Awad. El ejemplo de la investigación es muy gráfico: se puede establecer que todos los coches autónomos decidan, mediante un algoritmo, salvar a los peatones siempre que en el vehículo vaya un solo ocupante. Pero, ¿qué pasa si los viandantes cruzaban por donde no debían?
Elpais.com señala que la única región que ha propuesto ya una guía moral para los automóviles sin conductor es Alemania. Y entre las normas planteadas, la número nueve establece que si el accidente es inevitable, está estrictamente prohibida cualquier distinción basada en rasgos personales (edad, género o constitución física o mental). «Por razones legales y éticas, la programación no puede tratar de forma diferente a las personas«, dice Christoph Lütge, profesor de Filosofía de la Universidad Técnica de Münich y uno de los responsables de este código. «Sé que hay experimentos que muestran que, instintivamente, favoreceríamos al niño, pero eso no se puede convertir en regla para una máquina. La ética no siempre puede seguir los instintos». Así pues… ¿quién decidirá las órdenes que seguirán los coches autónomos, si ni siquiera nosotros nos ponemos de acuerdo?

Deja un comentario