Les dilèmmes moraux de la voiture autonome

Être riche, éduqué et en bonne santé :  la formule magique pour éviter de vous faire écraser par une voiture autonome

Pour pouvoir doter les véhicules autonomes d’un compas moral en cas d’accident inévitable, le MIT a mené une large enquête sur le web. D’après le vote de millions d’internautes, les IA doivent éviter en priorité les personnes jeunes et en groupe, et choisir plutôt de renverser les animaux ou les SDF. Sympa !

Vous êtes tranquillement installé au volant de votre voiture autonome quand tout à coup, les freins lâchent. Le logiciel qui gère la conduite doit arrêter immédiatement le véhicule, mais pour ça, il doit faire un choix. Rouler sur une mère qui pousse un landau ou bien percuter un couple de personnes âgées. Que doit-il choisir ?  

C’est pour répondre à ce dilemme moral (connu sous le nom du « dilemme du Tramway » ) que les chercheurs du MIT ont mis en place en 2016 une expérience participative appelée, The Moral Machine. 

Sur ce site, les internautes sont invités à voter sur l’issue de différents scénarios d’accidents impliquant les passagers d’une voiture autonome ou des passants traversant la route. Après avoir récolté plus de deux millions de sondages, le chercheur Edmond Awad et son équipe ont pu déterminer un baromètre des personnes (et des animaux) que la machine peut moralement renverser ou doit absolument éviter. 

« Jamais dans l’histoire de l’humanité nous n’avons eu besoin de dicter à une machine qui elle devait épargner et qui elle devait tuer de manière autonome, explique le chercheur. À présent, nous allons passer ce cap et ça n’arrivera pas sur un champ de bataille mais dans notre vie de tous les jours. Avant d’autoriser les algorithmes à prendre ce type de décision, nous devons avoir une conversation globale sur nos préférences afin de guider les compagnies qui vont designer ces IA ». 

Les femmes (enceintes) et les enfants d’abord

un enfant manque de se faire renverser

Le haut du panier est donc occupé par les poussettes, les enfants et les femmes enceintes que la machine doit éviter à tout prix. À l’inverse, les internautes estiment qu’il est tout à fait moral d’écraser un chat, un criminel ou un chien (dans cet ordre précis) pour éviter d'autres morts. Comment la voiture autonome peut déterminer si la personne qui se trouve devant elle est un dangereux meurtrier ?  L’étude ne le dit pas vraiment. Cependant, les piétons qui traversent au feu rouge sont largement considérés comme des cibles potentielles.

Les choses se corsent encore plus quand on regarde les catégories intermédiaires. Juste en dessous de la femme enceinte, l’IA doit éviter en priorité les docteurs (masculin et féminin), les femmes athlétiques, les femmes dirigeantes d’entreprise, puis les hommes appartenant aux deux catégories précédentes. Du côté des gens sacrifiables, on trouve, juste après le chien, les personnes âgées des deux sexes suivies par un SDF, un homme en surpoids et une femme de la même catégorie.

Vous l’aurez compris, mieux vaut être bien éduqué, riche et en bonne santé si vous voulez survivre à un accident de ce type

Morale élastique

Cependant, cette échelle de la moralité n’est pas tout à fait la même selon les pays d’origine des votants. Sur ce site, les chercheurs du MIT ont montré comment ces choix peuvent changer d’une zone géographique à une autre. En cliquant sur la France, on se rend compte que l’on veut davantage protéger les jeunes, les femmes et les personnes en groupes. Aux Etats-Unis, les internautes privilégient plutôt les gens respectueux de la loi et les personnes athlétiques. 

D’après l’étude, il existe trois gros clusters de pays différents. 

Les pays occidentaux, plutôt chrétiens montrent une préférence pour l’inaction et vont privilégier les groupes, les humains et les personnes athlétiques. Viennent ensuite les pays de l’Est comprenant le continent asiatique et une partie de l’Arabie, avec des religions confucianistes et islamiques. Pour ce groupe, les jeunes sont les moins favorisés tandis que les piétons et les personnes respectueuses de la loi sont avantagés. Enfin les pays d’Amérique du Sud, privilégient clairement les femmes, les jeunes et les personnes au statut social élevé. 

Préférences morales selon les pays

Une infographie
Pour rappel, les voitures autonomes ne sont responsables que d'un seul accident mortel à ce jour. Ce dernier s'était déroulé en mars 2018. La voiture de test appartenait à Uber et avait renversé une femme traversant une route de nuit. Un mois plus tard, les experts avaient rendu leur verdict, indiquant que la voiture avait délibérément choisi d’ignorer l’individu. En effet, son système de détection avait été bridé pour éviter de donner un coup de frein à chaque sac plastique passant devant ses capteurs. À la suite de ce réglage, la piétonne avait donc été confondue avec un objet sans vie et ignorée par l’IA. 

Crédit photo : Fast and Furious

commentaires

Participer à la conversation

Laisser un commentaire