Le titre se veut provocateur. J’ai lu récemment plusieurs articles sur le sujet qui m’ont pas mal retourné la tête.
-
Slate : Pourquoi les voitures sans conducteur sont programmées pour tuer
-
CNRS : Véhicules automatisés et accidents piétons : aide au choix de stratégies de protection
Avec les premières voitures autonomes en circulation aux USA, la vie d’une automobile ne se résume plus aux facteurs humains, à l’entretien du véhicule, à l’état de la route ou le choix de pièces bon marché, on ajoute également une inconnue informatique via une grosse boîte noire qui mouline des données et en ressort une action, cohérente ou non.
Un constat est clair : les véhicules automatiques posent de sérieux problèmes de choix « stratégiques » où l’enjeu est une ou plusieurs vies humaines, que la machine doit choisir en quelques centièmes de secondes, sans avoir le temps de demander son avis au « conducteur » ni même de connaître tous les paramètres (âge du piéton/conducteur en face, intentions suicidaires ou simple étourderie, etc.).
A cela s’ajoute le problème de responsabilité. Est-elle endossée par le conducteur ou le constructeur en cas de mauvais choix « tactique » ? On peut imaginer des dérives glauques tels que le choix d’une programmation de l’ordinateur de bord à l’achat :
-
Choix d’un algorithme « anti-piéton » sauvant coûte que coûte les occupants du véhicule si il y a un ou plusieurs enfants à bord par exemple, le « conducteur » endossant alors la responsabilité (et la charge psychologique) des dommages causés s’il est en tort.
-
Choix pro-piétons. Si l’ordinateur estime que foncer dans un mur ne tue que le « conducteur », sauvant un ou plusieurs piétons (ou quelqu’un voulant se suicider, le conducteur ne le saura jamais), il sacrifie le véhicule et son occupant.
Ce débat sur la « moralité algorithmique » est loin d’être clos et sera un obstacle majeur à la commercialisation à grande échelle de ce type de voitures. Je vous propose de regarder la vidéo suivante sur le dilemme du Tramway, inventé en 1967 pour illustrer la notion de vertu humaine. Quid de la vertu d’un robot ? Peut-on la simuler ?