Cuando hablamos de sistemas autónomos, no hablamos de sistemas automáticos más o menos complejos; hablamos de sumergir un artilugio autónomo en un mar de eventos imprevisibles, de convivir con otras creaciones de carne y hueso con una formidable capacidad intelectual, pero también con muchísimos errores y, sobre todo, con unas reacciones totalmente inesperadas.
Jose Manuel Orrego
Lejos quedaron aquellos pronósticos infantiles que auguraban un futuro plagado de vehículos voladores, viajes interplanetarios, teletransportaciones y demás ilusiones estrafalarias. El paso del tiempo permitió que muchos de aquellos espejismos se materializaran sin que fuéramos conscientes de ello.
Recuerde aquellas películas protagonizadas por Roger Moore interpretando al agente 007. ¿No cree que nuestras fantasías han sido superadas… ampliamente?
Aunque el progreso tecnológico es incuestionable, habría que decir que algún sueño no llegó a florecer. Seguimos esperando ver al hombre en otro planeta, anhelamos la energía inagotable, la vacuna salvadora o los vehículos autónomos que nos lleven a casa solos… ̶ ¡Eh oiga usted!, cuénteme otra cosa que eso último ya está inventado.
Estimado lector, aunque el coche autónomo esté ya a nuestro alcance la cuestión no es tan sencilla. Desde un punto de vista tecnológico que un vehículo tome el control de forma soberana es algo que podríamos admitir como superado, no obstante, este hecho genera otras dificultades de índole ético o filosófico, que es de lo que trataremos aquí.
Pero antes de adentrarnos en el reino de la incertidumbre, hay que matizar que no estamos discutiendo sobre las responsabilidades legales. Para eso los seguros ya idearon la original solución de obligar a que una persona permanezca en el interior del vehículo – o lo que es lo mismo, un chivo expiatorio para casos de accidente. Dígame usted con qué rapidez puede reaccionar un pasajero que va leyendo el periódico dentro de un coche ̶ pero al seguro le vale y solucionado el problema crematístico, ¿qué importa lo demás?
Lo peliagudo del asunto es que cuando hablamos de sistemas autónomos, no hablamos de sistemas automáticos más o menos complejos como pueden ser los semáforos o los centros de control ferroviario; en esos lugares se toman decisiones en función de unos condicionantes conocidos o predecibles. De lo que estamos hablando es de sumergir un artilugio autónomo en un mar de eventos imprevisibles, de convivir con otras creaciones de carne y hueso con una formidable capacidad intelectual, pero también con muchísimos errores y, sobre todo, con unas reacciones totalmente inesperadas.
Por supuesto que considerar a un vehículo gobernado por un ordenador como un objeto capaz de razonar es descabellado, pero nadie duda que a partir de ciertos parámetros un “cerebro electrónico” puede tomar decisiones más rápidas y mejores que un ser humano y, por lo tanto, en teoría, este tipo de tecnología evitaría muchos accidentes.
Efectivamente estas máquinas supuestamente inteligentes tomarán decisiones juiciosas, pero… ¿qué es realmente una decisión juiciosa? Aquí reside el dilema moral.
Pongamos un ejemplo: imagínese un inminente choque frontal donde el vehículo no asistido puede tomar dos alternativas, bien frenar e impactar irremediablemente con el coche que le viene enfrente o bien esquivar el impacto y precipitar al conductor por un abismo ̶ No piense que dramatizo, incidentes como éste van a darse, es cuestión de estadística.
¿Qué consecuencias generaría esa decisión? En el primer caso existen muchas probabilidades de que los ocupantes de ambos coches fallecieran; en el segundo sólo morirían los del coche automático. Este dilema no es nuevo, el filósofo consecuencialista Jeremy Benthan lo formuló hace varios siglos y siguiendo su estilo, lo más importante sería hacer un balance de daños donde la mejor alternativa sería inmolar a los protagonistas con menor valor ¿para qué sacrificar a todos los implicados?, pero, por otro lado, quién establece la valía de una persona ̶ y pensando en esto último, ¿por qué las mujeres y los niños van siempre primero?
Hace poco tiempo, cuando se le planteó un dilema de orden moral a un directivo de la empresa Mercedes, éste afirmó con frialdad teutónica que sus coches tomarían la decisión que mejor salvaguardara la integridad de sus ocupantes… vamos que si ves un Mercedes mejor apártate.
Ahora entiendo eso del punto de mira en el capó. Ahora bien, ¿usted compraría un coche que le dejara vendido como Judas en pro del utilitarismo?
John Stuart Mill, otro pensador inglés, estaría completamente de acuerdo con priorizar el bien común en pro del bien individual, por algo además de filósofo era economista. Pero ¿vale más un grupo de delincuentes que acaban de robar un banco que mi mujer y mi hijo? ¿Cómo valoramos la vida de las personas? ¿Por el número? ¿Por la edad?…
General Motors, Tesla, Uber, Renault-Nissan y otros titanes industriales justifican la existencia de estos ingenios empuñando el argumento de los datos. Ellos afirman que si eliminamos el factor humano un 90% de los accidentes podría ser evitado, por tanto, el balance resultaría más favorable con el uso de esta tecnología. Lo cual me hace recordar aquella metáfora clásica del globo cargado de gente, que ante una inmediata caída en el océano hace necesario el sacrificio de un inocente en beneficio del resto de la tripulación. ¿A quién tiramos por la borda?
Como ven, el tema no es nada sencillo y, a menos que la influencia de algún poder oculto espolee a los gobiernos para que se salten a la torera todas las incertidumbres éticas, pienso que tendremos volante para mucho tiempo.