Contenus

Voitures Autonomes : le défi des accidents de la route

Par Volha Litvinets, doctorante à l’Université de La Sorbonne. Elle travaille sur l’éthique de l’intelligence artificielle.

Nous, les êtres humains sommes des conducteurs horribles : plus de 1,3 million de personnes sont tuées sur les routes chaque année, entre 20 et 50 millions de personnes sont blessées. Il est fort à parier que dans un futur proche, grâce un a une application de l’intelligence artificielle portant sur les voitures autonomes (self driving cars), on pourra jeter son permis de conduire. Nous voulons tout optimiser, tout simplifier, bouger moins, prendre des meilleures décisions, en se basant pas seulement sur les paramètres de la situation de la route, mais en prenant en considération l'esprit critique et la morale. Avec cela, la morale de l'intelligence artificielle et des voitures autonomes est l'une des questions les plus débattues. Celles-ci vont se banaliser dans les rues du monde entier, et pas seulement dans la Silicon Valley,.

Elles ont commencé à rouler sur les routes publiques en 2013. Les constructeurs s'efforcent depuis de montrer leur moindre dangerosité face aux voitures ordinaires. Les avantages des voitures autonomes sont incontestables: le risque des accidents sont beaucoup plus bas. 

En sous-jacent, un question se pose : quel est le niveau d’autonomie des machines acceptable ? 

Différents niveaux d’autonomie

La société des ingénieurs de l’industrie automobile et l'administration nationale de la sécurité du trafic routier du département américain des Transports ont classé  6 niveaux d’autonomie de voitures. 

Niveau 0 : les voitures n'ont pas de fonctionnalités autonomes, c'est 80% de voitures sur les routes actuellement. 

Niveau 1 : les véhicules peuvent effectuer une tâche autonome, par exemple, le régulateur adaptatif de vitesse. 

Niveau 2: les véhicules peuvent effectuer 2 tâches à la fois, comme par exemple Tesla’s Autopilot et Cadillac Super Cruise

Niveau 3: sur ce niveau il s’agit d’ “Autonomie conditionnelle”, quand la voiture peut être pilotée automatiquement que dans certaines cas et le reste de temps elle reste pilotée par l’humain (par exemple, Audi A8)

Niveau 4 : le même que le niveau 3 mais le niveau 4 implique plus d’autotomie, le conducteur n’est pas obligé de contrôler la situation tout le temps. Ce type d’autonomie n’existe pas encore sur le marché.

Niveau 5 : correspond à des véhicules complètement autonomes. Volvo, Uber, Tesla, Google et Facebook ont l’objectif de créer des voitures complètement autonomes, et cet objectif est réalisable.  Néanmoins, les voitures de ce niveau d’autonomie ne sont pas encore commercialement disponibles.

https://www.tesla.com/autopilot

Elon Musk a dit que “sur plus d'un million de décès liés au secteur de l'automobile chaque année dans le monde, environ un demi-million de personnes auraient été sauvées si le pilote automatique Tesla était disponible universellement." Mais au-delà de la liste d’accident de voitures autonomes se pose des questions éthiques. Les nouvelles technologies une vieille question morale : comment l’intelligence artificielle va résoudre le dilemme du tramway.

Voitures autonomes et le vieux dilemme du tramway 

Le dilemme du tramway est une expérience de pensée de la philosophie morale, qui force à choisir le mode d’agir en se basant sur différentes approches de l’éthique.

Représentation graphique du dilemme du tramway. Source

Quelle vie devrait être prioritaire pour l'intelligence artificielle de la voiture autonome : les femmes ou les hommes, les jeunes ou les moins jeunes, les piétons traversant la route dans les règles - ou bien ceux qui ne respectent pas la loi ? Comment l’IA résout-elle ce problème ? Alors que les ingénieurs développent et perfectionnent les algorithmes de véhicules autonomes, il y a un débat éthique sur ce qui se passe dans des situations dans lesquelles un accident ou la mort ne peuvent pas être évités. Ce sont des questions difficiles à répondre même pour nous, êtres humains dotés de raison et de conscience.

Une fameuse étude fut réalisée par l’Institut de technologie du Massachusetts (MIT), qui a publié en 2016 un test - MIT Moral Machine, censé aider les créateurs de voitures autonomes à formuler les principes éthiques de base de l'intelligence artificielle. Cette recherche apparaît comme un dilemme moral de tramway étudié sur la base d'une méthodologie sociologique : pendant 2 ans plus de 500 000 personnes, dans plus de 130 pays, ont passé ce test. Des scientifiques du MIT ont tenté de déterminer le comportement d’un véhicule sans pilote en cas d’accident, et qui les véhicules sans pilote pouvaient « sacrifier ». Des passagers ou des piétons ? des hommes ou des femmes ? des personnes âgées ou des enfants ? Voici un exemple de scénario possible :

Ce test est très simple et permet de mieux comprendre les dilemmes moraux auxquels sont confrontés les développeurs d’intelligence artificielle, tout en tenant compte de leurs principes moraux. On a proposé aux gens de se mettre à la place de l'intelligence artificielle d'une voiture autonome et de choisir qui sacrifier en cas d'accident. Les participants devaient choisir qui l'intelligence artificielle sacrifierait en cas d'urgence pour sauver les autres. Dans l'une des tâches, on a proposé de choisir entre une femme et deux enfants dans une voiture et trois femmes dans un passage pour piétons, dans certaines expérimentations on proposait de choisir entre des animaux et des humains.

Les résultats ont montré qu'aucune des qualités personnelles des participants n'influence les résultats du test et le choix moral. Les différences dans les réponses étaient principalement liées au sexe et aux opinions religieuses, mais elles n'étaient pas très perceptibles. Par exemple, les hommes préféraient en peu moins souvent sauver les femmes. L’étude du MIT a révélé trois tendances principales :

-    L’intelligence artificielle doit choisir une vie humaine plutôt qu'une vie animale ;

-    La priorité est de sauver les plus jeunes ;

-    Dans le cas d’un choix possible il faudra sauver le plus grand nombre possible de personnes.

Une autre étude scientifique de Jean-François Bonnefon, Azim Shariff, Iyad Rahwan intitulée Le dilemme social des véhicules autonomes avait pour sujet de comprendre comment les gens veulent que leur voiture autonome se comporte face à des décisions morales. Les résultats ont indiqué que les gens aiment penser au bien social dans des scénarios abstraits, mais quand vient le temps d’utiliser réellement une voiture, ils vont se protéger eux-mêmes. La moralité et l'autonomie peuvent être incongrues : en théorie, tout le monde aime l'idée des rues sécurisées, mais on veut également être sécurisé dans une voiture autonome.

Il est très difficile de ne pas comparer le comportement d’une voiture autonome programmée et ce que ferait un conducteur humain dans une même situation. L’être humain est subjectif, influencé par ses émotions, la fatigue, le stress, les maladies, ce qui peut potentiellement influencer son choix moral. Dans notre vie quotidienne nous faisons constamment face à des choix moraux, mais nous sommes très loin de faire les meilleurs choix éthiques. Avec cela, un conducteur humain dans une situation précaire n'a souvent pas le temps d'envisager toutes les conséquences, ses actions sont souvent intuitives, parfois irrationnelles, il ne peut pas prendre une décision dûment motivée. On ne peut pas exploiter que les êtres humains agissent tout le temps correctement, alors que la machine évalue l'environnement des millions de fois par seconde et pourra faire les routes beaucoup moins dangereuses.

Cependant, si une machine est plus analytique et plus neutre que les êtres humains, elle est en même temps soumise au biais de la programmation, des enjeux de la sécurité et à toutes sortes de problèmes techniques. Une question supplémentaire est : est-ce que les gens seront vraiment intéressés d’acheter une voiture sans-pilote qui pourra faire le choix moral et sacrifier les passagers pour minimiser les victimes ?

La question de fond est bien celle-ci : dans quelle société voulons-nous vivre et quel niveau d’autonomie des décisions nous souhaitons nous laisser à nous autres les humains. 

Plus d'articles Contenus

+ TOUS LES ARTICLES Contenus
  • Bigflo, Oli, NEB et l’IA

    Tribune de Mathieu Vicard, directeur général de l’agence ...

  • Commerce, publicité, IA, influence, consommation, média, RH… 30 chiffres qu’il fallait retenir de ce début d’année

    Les mois de Janvier et Février sont toujours très intéressants pour une lecture globale des marchés qui nous entourent. Tel l’hiver qui s...

  • Michaël Nathan (SIG) – Savoir parler à tous : la communication publique à l’heure de l’expérience utilisateur

    Placée sous l’autorité directe du premier ministre, le Service d’information du Gouvernement (SIG) informe notamment le grand public des a...