Le plus grand problème auquel seront confrontées les voitures du futur : qui décide de la manière dont les voitures autonomes prennent des décisions éthiques dans les situations d'urgence ? – Actualités automobiles
Le problème du tramway est un dilemme moral hypothétique.
Si vous intervenez dans une situation mortelle pour modifier la trajectoire d'un trolley (ou tramway pour nous) inarrêtable et le faire écraser une personne au lieu des cinq qu'il aurait dû écraser initialement, êtes-vous responsable d'un décès ou du sauvetage de cinq vies ? Auriez-vous été responsable de l'inverse si vous l'aviez laissé tel quel ?
C'est un scénario sombre et certaines variantes du problème du chariot n'ont pas de réponse « moralement correcte », c'est pourquoi il est évoqué en relation avec le développement des voitures autonomes.
Imaginez que vous conduisez une voiture avec quelques passagers et que vous êtes suivi de près par un camion au moment où un piéton apparaît soudainement devant vous, après avoir marché sur la route sans regarder.
Vous avez peut-être le temps de freiner et d’éviter de heurter le piéton, mais avez-vous également le temps de vérifier le camion dans le rétroviseur pour déterminer la force avec laquelle vous freinerez au cas où il heurterait votre voiture ?
Et si c'était un chien ou un piéton ? Ou si vous êtes sur une autoroute et que c'est un kangourou.
En tant que personne, c'est vous qui devez décider en une fraction de seconde quelle est la meilleure marche à suivre pour que le plus grand nombre possible de personnes soient aussi en sécurité que possible.
Mais dans une voiture autonome, le véhicule doit être programmé pour prendre ces décisions, ce qui signifie qu'il existe une trace écrite de code qui laisse son fabricant comme décideur.
Alors, qui chez Mercedes-Benz décide de la manière dont une voiture doit intervenir en cas de danger, ou même si elle doit intervenir tout court ?
Lors de l'événement Intelligent Drive Insight de Mercedes-Benz à Melbourne, Jochen Haab, responsable de la validation sur le terrain des systèmes d'assistance à la conduite de la marque, a déclaré Guide des voitures ce n’est pas aussi simple que de programmer une nouvelle fonction et de voir comment elle se comporte dans le monde réel.
« C'est une question morale, une question technique et une question juridique. Et nous avons ce que nous appelons un comité juridique éthique », explique Haab.
« Et si vous regardez l'histoire et la façon dont nous nous sommes développés jusqu'à présent, nous avons eu des conseils. Donc, les techniciens, bien sûr, nous sommes des gens raisonnables. Nous sommes des gens responsables, et nous nous sommes développés au mieux de nos connaissances.
« Nous sommes ensuite allés voir les avocats, internes et externes, les personnes chargées de l'éthique, les experts internes et externes, les assureurs et nous leur avons demandé : « Hé, qu'en pensez-vous ? »
« Et puis ils ont dit : « Ah, c'est bien » ou « Euh, peut-être qu'il faudrait changer ça ». Et nous avons changé, ou pas, ou quoi que ce soit d'autre, et nous avons décidé de ne pas le faire. »
Un exemple de ce dernier cas, où une technologie ou une fonction a été abandonnée ou grandement modifiée grâce aux retours d'expérience avant son lancement, est l'assistance de direction évasive de Mercedes, l'une des fonctions préférées de Jochen Haab.
Il dit qu'il est « très, très rare » qu'une fonction soit supprimée une fois qu'elle est sur le marché.
« Je dirais jamais. Nous les améliorons, oui, nous apprenons, mais pour revenir en arrière une fois qu'ils sont sur le marché, je ne pense pas qu'il y ait une fonction sur laquelle nous devrions revenir. »
L'assistance de direction évasive a été modifiée au cours de sa phase de développement, plutôt que sur la route dans le monde réel, une fois qu'il a été constaté que dans les environnements de test, la façon dont elle était conçue sur papier ne correspondait pas tout à fait aux réactions humaines instinctives.
À l'origine, la fonction de base était d'intervenir et d'éloigner la voiture d'un danger devant elle dans les cas où le freinage ne suffirait pas, mais une fois que le volant avait déjà tourné et que le conducteur l'avait remarqué, il saisissait le volant après qu'il ait tourné et maintenait la voiture sur une trajectoire capricieuse.
Haab explique qu'il a été décidé que le conducteur devait intervenir en premier, et que la voiture aiderait ensuite en guidant la réaction du conducteur vers des mouvements plus précis plutôt que des écarts paniqués.
Pour Mercedes-Benz, la décision du conducteur reste pour l'instant la clé des systèmes de sécurité de la marque. La voiture fera tout ce qui est en son pouvoir pour alerter le conducteur et lui permettre de prendre une décision avant que ses systèmes n'interviennent pour tenter de minimiser le danger.
Jochen Haab est parfaitement conscient que les choses ne seront pas toujours ainsi si les voitures autonomes voient le jour.
« Lorsque nous approchons des niveaux plus élevés d'autonomie ou d'automatisation, nous avons décidé d'avoir un comité qui se réunit – selon la phase du projet – au moins toutes les deux semaines, dans les phases élevées deux fois par semaine, et il est composé, bien sûr, d'ingénieurs de tous types différents : ingénieurs logiciels, ingénieurs mécaniciens, ingénieurs de test.
« Plus des juristes, des experts en responsabilité du fait des produits, des experts en contentieux, des experts en éthique, des experts en morale, si vous voulez, encore une fois, des experts internes et externes. »
Haab ajoute qu'il ne s'agit pas d'un processus unique et définitif : le comité accompagne l'ensemble du processus de développement de chaque nouvelle fonction ou technologie, contribuant ainsi à parvenir collectivement à ce qui est, espérons-le, le meilleur résultat pour la sécurité et pour la loi.
« C'est un comité qui est toujours là. Au fur et à mesure que vous développez, dans le cadre de la phase de développement, vous vous y rendez en tant qu'ingénieur et vous dites : « Hé, voilà ce que nous prévoyons. Qu'en pensez-vous ? »
« Ensuite, au cours du processus lui-même, même pendant les tests, ils viennent nous rendre visite et voient comment l’animal se comporte. Nous décidons, de manière très responsable, de ce que nous faisons avec les situations ou les types de situations. Et c’est le comité qui décide de ce qu’il faut faire, par exemple, avec les animaux à l’avenir. »
L'équipe de Haab n'est pas la seule à affronter les difficultés morales en matière d'autonomie en matière de conduite automobile. En fait, un scientifique travaillant au Massachusetts Institute of Technology (MIT) a créé une plateforme en ligne pour recueillir les commentaires des personnes interrogées sur divers dilemmes moraux.
Le Syrien Iyad Rahwan, ancien élève de l’Université de Melbourne et aujourd’hui directeur de l’Institut Max Planck pour le développement humain, a créé la Moral Machine, un site Web qui utilise des variantes du problème du chariot pour recueillir des données basées sur la morale collective de groupes de personnes à travers le monde.
Les conclusions de Rahwan, sans surprise peut-être, ont montré une tendance générale selon laquelle les personnes interrogées souhaitaient minimiser les dommages, mais la manière dont les gens choisissent quelles personnes hypothétiques dans chaque scénario méritent le plus de protection varie en fonction des différences culturelles ou générationnelles.
Lors d'une conférence TEDx en septembre 2016, Rahwan a même pointé du doigt un répondant anonyme qui semblait faire passer la vie des chiens avant celle des humains – pas un utilisateur typique de sa plateforme, admet-il, mais potentiellement quelqu'un qui est actuellement lui-même responsable d'une voiture.
Le comité créé par Jochen Haab chez Mercedes a beaucoup de travail devant lui pour trouver des solutions pour des voitures autonomes capables de prendre ces décisions en une fraction de seconde et, espérons-le, de sauver des vies – d'humains et de chiens.