El canal internacional
de noticias en español
más visto en el mundo
Sociedad

Gran dilema ético: ¿Deberían los coches de autoconducción estar programados para matar?

Publicado:
Los coches de autoconducción ya son una realidad pero, antes de que lleguen a ser algo generalizado, los fabricantes tienen que resolver un dilema ético de gran importancia y complejidad: ¿estos vehículos deberían estar programados para matar?
Gran dilema ético: ¿Deberían los coches de autoconducción estar programados para matar?

Los coches sin conductor serán "más seguros, limpios y eficientes en combustible" que sus homólogos manuales, pero no podrán ser absolutamente seguros. Esta circunstancia plantea a los fabricantes una serie de preguntas éticas que pueden tener un gran impacto en la aceptación de este producto por parte de la sociedad, asegura 'MIT Technology Review'.

¿Cómo debe actuar un coche inteligente en caso de que se produzca un accidente inevitable? Por ejemplo, si el vehículo necesita acabar con las vidas de los tripulantes para reducir el número de víctimas mortales, ¿debería sacrificar a los ocupantes o protegerlos a toda costa? ¿Quién va a comprar un coche programado para matar a su propietario?

Un grupo de científicos de la Escuela de Economía de Toulouse (Francia), encabezado por Jean-Francois Bonnefon, ha intentado buscar respuestas a estas preguntas y ha llegado a la conclusión de que la opinión pública jugará un papel clave a la hora de aceptar o no los coches de autoconducción.

Para conocer esta valoración, el equipo ha utilizado "la nueva ciencia de la ética de experimentación", que consiste en presentar una serie de dilemas éticos a un gran número de personas para ver cómo responden.

¿Matar al propietario o a 10 desconocidos?

El mayor dilema ha sido el siguiente: imagínese que, en un futuro no muy lejano, usted posee un coche de autoconducción. Un día, tras una serie de eventos desafortunados, se dirige hacia un grupo de 10 personas que cruza la carretera. El coche no puede parar a tiempo, pero sí dirigirse contra una pared y evitar la muerte de 10 personas... a costa de terminar con la vida de su ocupante.

Desde el punto de vista social, es mejor sacrificar a una persona que matar a 10. Sin embargo, ese enfoque podría provocar que menos conductores compren vehículos autotripulados y, en consecuencia, más personas corran el riesgo de morir, debido a que los coches normales suelen estar involucrados en muchos más accidentes, en los que los investigadores denominan "una situación Catch-22".

Ya que vamos a dotar de autonomía a millones de vehículos, tomar en serio la moral algorítmica nunca ha sido más urgente

De momento, los científicos están realizando su estudio encuestando a centenares de usuarios de la plataforma Amazon Mechanical Turk. En sus preguntas varían algunos detalles, como el número de peatones que podría salvarse, si la decisión de desviarse la toma el conductor o un ordenador de a bordo o si el encuestado es el ocupante o una persona anónima.

Los resultados son interesantes, aunque bastante predecibles. En general, la gente acepta la idea de que los coches sin conductor deben ser programados para minimizar el número de muertos, incluso si hay que sacrificar a los ocupantes, pero siempre que no sean ellos mismos.

Bonnefon y sus compañeros son conscientes de que su trabajo representa el primer paso para resolver este dilema moral y las cuestiones a tener en cuenta no se limitan a las que estudian actualmente. El equipo de científicos advierte: "Ya que vamos a dotar de autonomía a millones de vehículos, tomar en serio la moral algorítmica nunca ha sido más urgente".

RT en Español en vivo - TELEVISIÓN GRATIS 24/7