Contenus

Intelligence artificielle et marketing : pourquoi on doit se poser des questions d’éthique

Têtes de Socrate en rendu 3D - VictorVector / Shutterstock

 

Par Volha Litvinets, chef marketing de recherche chez Fairmarkit. Elle prépare un mémoire de philosophie à Paris-Sorbonne sur l'éthique de l'intelligence artificielle dans le domaine du marketing.

 

« Dans cette immense machine technologique de distribution de la vie, chaque être se sent de plus en plus comme un jeton inséré dans la fente. »

Romain Gary, Chien Blanc

L'accès à l'information n'a jamais été aussi facile qu'aujourd'hui : la quantité de données augmente à une vitesse incroyable, et c’est avec l’apparition de l’intelligence artificielle (IA) qu’on a appris à mieux traiter ces données, en créant des modèles et en faisant des prédictions. Les innovations technologiques nous concernent tous, en permettant de simplifier nos actions quotidiennes, aussi bien intellectuelles que routinières. l’IA et son écosystème technique entrainent dans le même temps des craintes, des risques éthiques et des enjeux qu’il ne faut pas taire.

Le paradoxe de la vie privée : par delà le RGPD

61% des utilisateurs préfèrent placer leur assistant vocal dans la cuisine. C’est très pratique ! Les assistants vocaux peuvent chercher de l’information, commander une pizza et raconter des histoires. Mais qu'est-ce que Alexa, Siri, Cortana, Google home, Yandex Alice et les autres outils de la « maison connectée » connaissent de nous ? Notre voix, la voix de nos enfants, notre visage, nos historiques de recherches, nos objets connectés, nos habitudes de vie, les amis qui viennent chez nous, et une quantité impressionnante d’autres données privées. Et ils ne réussissent pas toujours à bien nous comprendre et nous aider.  La question est : que va-t-on faire avec toutes ces données ? Ce n’est pas de l’IA que l’on doit avoir peur, mais c’est de son utilisation.

A partir du mai 2018 a été mis en œuvre le règlement général sur la protection des données - RGPD. C’est un document assez complexe qui a pour objet la garantie de la confidentialité des données et le contrôle de l’utilisateur sur ses données. RGPD oblige les sites à être plus transparents et responsables : les informations personnelles doivent être dépersonnalisées, c’est-à-dire chiffrées, et les sites web doivent donner à chaque utilisateur la possibilité de supprimer son compte, mais aussi l’utilisateur doit explicitement consentir à la collecte de données. 

Mais en dépit de l’incontestable avancée que représente le RGPD, l’aspect éthique de l’utilisation massive des données repose sur le paradoxe de la vie privée : sans avoir en rien exposé délibérément notre vie personnelle en ligne, les cookies retracent pourtant tous les mots-clés de nos recherches, le contenu de notre téléphone portable et de notre l’ordinateur, de même que les coups de fil et les données de messagerie peuvent aussi être surveillés et déchiffrés. Les États-Unis eux-mêmes n’échappent pas à cette surveillance. L’éthique et la politique y entrent en conflit ouvert, opposant d’une part des individus mettant en garde l’humanité contre les abus des agences de renseignements en matière de respect de la vie privée, et d’autre part des gouvernements pourtant démocratiques.

Il ne s’agit pas seulement d’inconvénients techniques, apparus par manque d’attention et par l’impossibilité de prévoir toutes les décisions de l’IA et surtout toutes les erreurs ou lacunes de programmation ouvrant la possibilité de réactions moralement et socialement inacceptables de l’IA. Comme dans le cas où Google a « tagué » des Afro-Américains sur des images en tant que gorilles, ou encore quand des algorithmes ont complété des textes avec des phrases antisémites et sexistes. Ou bien encore lorsque le chatbot de Microsoft fut supprimé après avoir commencé à proférer des tweets racistes. Ces cas ont mis en cause le facteur humain et ont pu être corrigés relativement facilement. 

Rating social

Par contre, les cas comme les Fake news de Facebook et la manipulation de l’opinion publique constituent un problème qui n’est pas facile à résoudre. Le cœur de ce problème ne se situe pas forcément dans les grandes entreprises du web, dont la finalité première n’est pas de surveiller des populations mais de vendre des services et s’enrichir. Sans compter que la législation des pays européens est devenue beaucoup plus contraignante pour les entreprises. La vraie difficulté politique et éthique apparaît lorsque c’est un gouvernement, comme par exemple celui de la Chine, qui utilise délibérément l’IA pour créer un rating social. Toutes les informations sur une personne en ligne, son comportement, ses achats, son historique de crédit, ses déplacements dans la ville, son milieu social - tout est combiné dans un système pour lui donner des points. On a déjà vu cela dans la fameuse série Black Mirror qui semble avoir anticipé la réalité.

La surveillance totale cause sans doute des dangers plus inquiétants que ceux contre lesquels elle est supposée nous prémunir et remet en question la démocratie, la vie privée, la sécurité et même la définition de l’homme. En effet, quel est le rôle de l’homme dans l'écosystème technologique ?

Qu'est-ce que l’homme ?

Selon Hegel, les êtres humains, comme les animaux, ont des besoins naturels et des désirs, dirigés vers l'extérieur, comme la nourriture, la boisson, le logement, et surtout, l'auto-préservation. Mais un homme est fondamentalement différent des autres animaux, car il veut être reconnu. Ce besoin de reconnaissance pousse notamment l’homme à produire encore plus, ce qui favorise le développement de la technique et mène peut-être aussi à l’hyperconsommation qui ne satisfait pas les besoins humains, mais les fait empirer. Il faut ajouter que le désir essentiel d’être reconnu a fait directement progresser toutes sortes de réseaux sociaux, ce qui, par effet secondaire, a fait progresser le big data et la collecte globale d’informations personnelles.

Selon Lewis Mumford, l’homme est celui qui produit des outils. Mais les produit-il encore ? Ou bien n’est-il pas lui-même produit par ses produits ? La technique, en effet, ne semble plus être un moyen mais bien une fin en soi. On invente par exemple un rasoir électrique pour gagner du temps, afin de pouvoir travailler à la recherche d'un rasoir plus performant, pour gagner encore plus de temps, ceci afin de concevoir un rasoir plus rapide, et ainsi de suite. Nous vivons dans la technique, de la technique et pour la technique. La technique en tant que milieu dans lequel l’homme baigne transforme celui-ci en outil de son propre développement.

Günther Anders a défendu naguère avec brio une conception de l'obsolescence de l’homme, et montré comment l’humain finit par être exclu du processus technique. L’homme devient dans le même temps une sorte d’appendice du phénomène de la publicité omniprésente dans l’univers de la consommation de masse. Les machines produisent des machines dans un emballement technique que Heidegger avait, en son temps, caractérisé comme un « procès sans sujet ».  L’idée de la fin de l'histoire et du dernier homme développée plus récemment par Francis Fukuyama souligne les dangers de l’ère prospère de la consommation généralisée, provoquée par le triomphe de la technologie, et qui entraîne la possible destruction de l’humain par le développement des biotechniques. Loin de perfectionner la nature humaine, celles-ci conduisent à la création d’une « post-humanité » effrayante.

La data est le produit

Les technologies de L’IA déjà implémentées dans le marketing et la publicité devenue de plus en plus omniprésente et imperceptible rétrécissent sans cesse l’espace d’une supposée liberté de choix de l’individu consommateur.

N’est-ce pas sur ce point que réside un terrible paradoxe de notre monde de plus en plus investi par l’IA ? En effet, les sociétés occidentales modernes se sont construites sur la valorisation de l’individu comme être capable de décisions libres. En général, cette capacité est désignée comme étant « l’autonomie » de l’individu, estimée fondatrice, par le biais les institutions politiques démocratiques, de l’autonomie des sociétés. Or, toute la dynamique de nos sociétés contemporaines semble aller dans le sens d’une exacerbation du contrôle des individus par l’IA, au point de finir par nier la valeur d’autonomie reconnue aux individus.

La plupart des technologies remettant en cause la liberté personnelle, sont développées par des entreprises dont le modèle commercial repose sur la collecte et le traitement des données personnelles des utilisateurs, afin de les vendre. Le produit à vendre est aussi complètement transformé : ce n’est plus un bien ou un service, ce sont les données elles-mêmes. Nous-mêmes et nos intérêts personnels sommes devenus des produits, parce que, quand tout est gratuit, le produit est l’utilisateur.

Quel rapport entre l’intelligence artificielle, le marketing et la philosophie ?

Les philosophes nous aident certainement à poser les bonnes questions en soulignant que les technologies de l’IA, surtout lorsqu’elles sont au service du marketing et de la publicité, devraient se développer selon des principes éthiques et sociaux et non simplement selon un dynamique propre et incontrôlé.

Pendant la Conférence de Marketing Remix, la question de la responsabilité sociale fut soulevée plusieurs fois. Les sociétés de marketing digital comprennent de plus en plus l’importance du développement durable et cherchent maintenant à créer de la valeur. Isabelle Gally, fondatrice du Hub France Intelligence Artificielle, a posé la question Peut-on avoir confiance dans les intelligences artificielles ?” pendant la conférence sur les enjeux de l’IA “Convergence” à Paris en 2018.  Dans le cadre de la Journée de la diplomatie au Ministère de l'Europe et des Affaires étrangères, lors de la discussion des enjeux de la présidence française du G7, il fut mentionné que l’intelligence artificielle est un outil qui aide les gens dans plusieurs domaines, mais qu’il faut encore créer les stratégies de son développement.

Les impacts négatifs de l'application des connaissances ainsi que les avancées technologiques et scientifiques impliquent de nos jours de réfléchir à la responsabilité individuelle et sociale. Ces impacts incluent les risques industriels, surtout dans le secteur de l'usage des technologies de l'information, du développement des réseaux et de la sécurisation de l’information. La notion de développement durable, inspirée par la philosophie de Hans Jonas et popularisée par le Rapport Brudtland en 1987, est un point de repère éthique fondamental. Elle avance un critère simple : le développement doit répondre aux besoins du présent sans compromettre la capacité des générations futures à répondre de façon aussi libre que possible à leurs propres besoins. Nos avancées technologiques ne doivent donc pas compromettre gravement les capacités de choix, et évidemment encore moins de survie, des générations futures.

Les entreprises engagées dans la montée en puissance de l’IA sont-elles capables d’intégrer ce principe et assumer le fait que ne pas prendre en compte les dimensions sociales et éthiques de la technologie serait dramatique ?  Quelle solution adoptent les acteurs-clés dans ce domaine ? Google, Apple, Facebook, Microsoft  consultent et recrutent déjà des philosophes pour mettre au point un processus interne d'évaluation éthique de la recherche. Twitter s'appuie sur aussi l'expertise de philosophes, de psychologues et d'avocats dans le cadre de son Conseil de sécurité et de confiance.  Mais malgré tous ces réels efforts institutionnels, les solutions ne peuvent pas seulement provenir de la dynamique éthique interne aux acteurs du domaine de l’IA. L’intégration de principes d'éthique doit également être provoquée de façon externe, à partir de réglementations nationales ou internationales. Des institutions publiques et de cadres légaux doivent désormais participer activement à l’effort de régulation éthique du domaine de l’IA.

Principe de responsabilité et valeurs

Le marketing a aussi besoin de changement. En travaillant ensemble, les philosophes, les techniciens, les data ingénieurs, les marketers, les programmeurs sont capables de fonder des conditions pour créer des valeurs et développer des industries en respectant le principe du développement durable.

Qu’on me permette à ce stade de reprendre plus longuement, et plus tragiquement, la citation de Romain Gary présentée au début de l’article :

« Dans cette immense machine technologique de distribution de la vie, chaque être se sent de plus en plus comme un jeton inséré dans la fente, manipulé par des circuits préétablis et éjecté à l'autre bout sous forme de retraite et de cadavre. Pour sortir de l'inexistence, ou bien, comme les hippies ou les sectes innombrables, on se regroupe en tribus, ou bien on cherche à s'affirmer avec éclat par le happening meurtrier, pour se venger. »

Romain Gary, Chien Blanc

Le seul moyen pour échapper au risque d’une obsolescence de l’homme est d’assumer notre responsabilité et de surmonter notre inconscience pour ne pas perdre notre humanité.

______________________________________

Bibliographie sommaire :

Günther Anders, L'obsolescence de l'homme : Sur l'âme à l'époque de la deuxième révolution industrielle

Hans Jonas, Le principe responsabilité, une éthique pour la civilisation technologique

Francis Fukuyama, La Fin de l'histoire et le Dernier Homme

Lewis Mumford, Le mythe de la machine

Plus d'articles Contenus

+ TOUS LES ARTICLES Contenus
  • Sébastien Liebus (Le Gorafi) : L’humour, c’est du travail

    Le Gorafi dévoile son livre annuel : ...

  • Au-delà des Données : L’IA comme catalyseur de transformation des organisations

    Un tribune de Guillaume Planet, fondateur de Revolvia. Au-delà des sujets datas et solutions technologiques, l’enjeu 1er de l’intellig...

  • I.A. DE LA JOIE ?

    Une tribune d'Alexandre CATTANEO, CEO New Generation Agency et membre de l'AACC ...