Par Alain Bensoussan, avocat à la Cour, Président de l’Association du Droit des Robots , Directeur de publication de Planète Robots
NDRL - « Les robots ont des droits » : c’est le thème du keynote que prononcera Alain Bensoussan dans le cadre de la conférence « IA et Société » qu’organisent Viuz et le Turing Club le 4 juillet Prochain à Paris. Comme nous l’explique l’avocat, loin d’être une provocation, cette affirmation reflète aujourd’hui une réalité, celle de l’apparition de normes – certes encore empiriques et sectorielles - qui dessinent, lentement mais sûrement, les contours d’un véritable droit des robots.
A l’heure du tout digital où l’intelligence artificielle, les algorithmes et les systèmes robotiques sont partout et bouleversent tous les modèles classiques de développement, les défis sont immenses et trouveront le plus souvent une réponse par le droit.
C’est évidemment le cas de l’encadrement juridique que nous appelons de nos vœux des robots au sens large : au fur et à mesure que la pertinence de la qualification de simples objets (les juristes parlent de « biens meubles ») décroît, la nécessité de doter les robots de plus en plus intelligents et apprenants d’un statut juridique dédié se fait chaque jour plus pressante.
Ce mouvement en vases communicants a ceci de particulier qu’il semble à la fois unilatéral et irréversible: la puissance de l’industrie robotique, l’implication des plus grands acteurs de l’économie numérique mondiale, l’importance des enjeux financiers, l’engouement de la recherche et l’appétence sociale constituent, ensemble, une assise particulièrement solide à l’avènement de la robotique intelligente.
Et peu importe si, dans l’attente d’un encadrement juridique en devenir, cet avènement est le fruit de normes issues pour partie du « droit souple » ou soft law, parfois qualifié de « droit mou », qui regroupe un ensemble de règles de droit tantôt obligatoires tantôt non contraignantes, mais qui en pratique, ont le mérite de « montrer le chemin » à une industrie du numérique dans l’attente de solutions, et à des utilisateurs d’objets connectés qui souhaitent être rassurés sur l’utilisation qui est faite de leurs données personnelles.
Résolutions, codes de bonne conduite, directives, guidelines, livres blancs, commissions et groupes de travail, sous l’égide d’organismes divers… C’est sur les bases de ce droit d’un genre nouveau que repose l’encadrement juridique du développement exponentiel des activités robotiques, des algorithmes et de l’IA. Un droit souple complété par les premières décisions de jurisprudences rendues en la matière ainsi que les dispositions éparses disséminées dans des lois récentes à vocation générale (loi Pacte, Loi pour la justice du 21ème siècle…)
Voici un florilège de quelques illustrations récentes et concrètes de normes qui sont autant de jalons posés vers un encadrement juridique des robots, qui permettent d’affirmer aujourd’hui que « les robots ont des droits » (mais aussi des obligations).
Commission européenne : des lignes directrices pour un IA digne de confiance
La Commission européenne a publié le 26 juin une version mise à jour de ses Lignes directrices visant à promouvoir une IA digne de confiance.
Selon le groupe d'experts (constitué par la Commission en juin 2018) qui les a établies, une IA digne de confiance présente les trois caractéristiques suivantes, qui devraient être respectées tout au long du cycle de vie du système :
a) elle doit être licite, en assurant le respect des législations et réglementations applicables ;
b) elle doit être éthique, en assurant l’adhésion à des principes et valeurs éthiques ;
c) elle doit être robuste, sur le plan tant technique que social car "même avec de bonnes intentions, les systèmes d’IA peuvent causer des préjudices involontaires".
Et d'ajouter que "toutes ces caractéristiques sont nécessaires en elles-mêmes, mais elles ne sauraient suffire à la réalisation d’une IA digne de confiance". L’idéal serait que ces trois caractéristiques fonctionnent en harmonie et se chevauchent. Si, dans la pratique, des tensions venaient à apparaître entre ces caractéristiques, la société devrait s’efforcer d’y remédier.
Union européenne : une résolution et un plan pour l’IA
Le Parlement européen a adopté en février 2019 une Résolution sur une politique industrielle européenne globale sur l’intelligence artificielle et la robotique (2018/2088(INI)).
Elle préconise l’adoption d’un cadre juridique pour l’intelligence artificielle et la robotique et la nécessité d’assurer un haut niveau de sûreté, de sécurité et de protection des données utilisées pour
la communication entre les personnes, d’un côté, et les robots et l’intelligence artificielle, de l’autre
Elle estime encore :
- que les actions et les applications de l’intelligence artificielle devraient respecter les principes
éthiques et les lois nationales, européennes et internationales en la matière, et demande la
création d’une charte éthique des bonnes pratiques en matière d’IA et de robotique ;
- que des règles éthiques doivent être en place pour garantir un développement de l’IA centré
sur l’homme, la responsabilité et la transparence des systèmes décisionnels algorithmiques,
la clarté des règles de responsabilité et l’équité.
Conseil de l’Europe : l’IA dans les systèmes judiciaires
La Commission européenne pour l’efficacité de la justice (CEPEJ), qui réunit des experts des 47 Etats membres du Conseil de l’Europe, a adopté fin 2018 une charte éthique européenne d’utilisation de l’IA posant cinq principes fondamentaux d’utilisation de l’IA dans les systèmes judiciaires et leur environnement.
Cette charte fournit un cadre de principes destinés à guider les décideurs politiques, juristes, professionnels de la justice et les concepteurs d’algorithmes dans la gestion du développement rapide de l’IA dans les processus judiciaires nationaux, et vise également à renforcer la confiance des utilisateurs judiciaires dans ces systèmes.
Le RGPD pose le droit de refuser le profilage algorithmique
Le Règlement européen sur la protection des données (RGPD), entré en application effective le 25 mai 2018, prévoit des règles restrictives à l’égard des processus de prise de décision entièrement automatisés.
Le RGPD pose comme principe qu’une personne a le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé, produisant des effets juridiques à son égard ou l’affectant de manière significative (art. 22 du RGPD).
Ce droit à ne pas être soumis à une décision fondée exclusivement sur un traitement automatisé, s’applique y compris lorsqu’elle découle d’un « profilage » (rejet automatique d’une demande de crédit en ligne ou d’un recrutement en ligne sans aucune intervention humaine, par exemple).
Par principe, les individus ont donc le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé et produisant des effets juridiques à leur égard ou les affectant particulièrement.
En d’autres termes, ils ont le droit à l’intervention d’une personne humaine dans la prise de décision.
C’est là une première limite posée à l’activité algorithmique.
Algorithmes autoapprenants : l’avertissement du Conseil constitutionnel
Dans une décision du 12 juin 2018, le Conseil constitutionnel a été amené à se prononcer pour la première fois sur la question du recours à des algorithmes autoapprenants comme fondement d’une décision administrative individuelle. Il pose trois conditions à cet usage :
- une information intelligible doit être délivrée à la personne intéressée sur l’usage en toute transparence de l’algorithme et de ces caractéristiques ;
- des recours administratifs doivent être possible contre les décisions fondées sur l’algorithme et les juges sont susceptibles d’exiger de l’administration la communication de l’algorithme ;
- l’algorithme de traitement utilisé ne doit pas porter sur des données sensibles (données raciales ou ethniques, opinions politiques, convictions religieuses ou philosophiques ou appartenance syndicale, données génétiques, biométriques ou de santé ainsi que l’orientation sexuelle d’une personne)..
Le Conseil constitutionnel marque ainsi une défiance à l’égard des algorithmes auto-apprenants.
Loi Pacte : irresponsabilité pénale et voitures autonomes
Face à de possibles incertitudes quant aux règles applicables, en matière de responsabilité civile et pénale, aux véhicules circulant sans conducteur, le Gouvernement français a décidé de clarifier le régime de responsabilité applicable en cas d’accident pendant une expérimentation.
En effet, l'absence de cadre législatif dédié constituait un frein majeur au développement de ces expérimentations.
La loi du 22 mai 2019 relative à la croissance et la transformation des entreprises (loi « PACTE ») exempte de responsabilité pénale les conducteurs de véhicules pendant les périodes où le système de délégation de conduite est activé.
Cette responsabilité pénale est rétablie dès lors que le système de délégation de conduite demande au conducteur de reprendre le contrôle du véhicule, ou lorsque le conducteur ignore délibérément que les conditions requises pour la délégation de conduite ne sont pas réunies.
C’est bien là la reconnaissance en creux d’une responsabilité du système robotique lorsque le système de délégation de conduite est activé
Justice et profilage des magistrats
La loi du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice apporte également sa pierre à l’édifice d’un droit des robots en gestation.
On l’a vu, par principe, les individus ont le droit de ne pas faire l’objet d’une décision fondée exclusivement sur un traitement automatisé et produisant des effets juridiques à leur égard ou les affectant particulièrement.
S’agissant du nom des magistrats indiqués sur les décisions de justice, la loi du 7 octobre 2016 sur la République numérique dite « loi Lemaire » était déjà venue prévoir qu’en matière d’open data des décisions de justice, la jurisprudence soit « mise à la disposition du public à titre gratuit » après « une analyse du risque de ré-identification des personnes », notamment afin de protéger la vie privée des personnes concernées.
Les éléments permettant d’identifier les magistrats et les fonctionnaires de greffe ne sont donc en principe pas occultés, ce qui a ouvert un débat au sein des professionnels de la justice : l’open data doit-il s’étendre à la mention du nom des magistrats ayant rendus les décisions ?
Si la diffusion du nom des magistrats s’inscrit dans la logique d’améliorer la qualité et la finesse de l’analyse réalisée, elle permet également un profilage des magistrats.
La loi du 23 mars 2019 prévoit des dispositions qui interdisent le profilage des magistrats et des fonctionnaires de greffe sur la base de la réutilisation des données issues de la publicité des décisions de justice.
Avec l’introduction de l'intelligence artificielle, les robots ne sont pas de simples automates. Ils ont des capacités grandissantes qui les amènent à collaborer avec les hommes.
L’heure est venue d’organiser cette mixité Hommes-Robots.
Osons la personne-robot, pour faire demain des robots, non plus seulement des objets de droit, mais bien des sujets de droit.
- La responsabilité : elle sera inévitablement en cascade, et ce ne sera pas nécessairement celle du concepteur qui sera retenue ;
- La traçabilité : elle sera incontournable pour, demain, pouvoir déterminer la responsabilité ;
- La dignité : il s’agit d’un élément essentiel, les robots devront être conçus «Dignity by design».