Contenus

Intelligence artificielle : deux grands fantasmes… en passe de se réaliser (ou pas)

Partenariat Union des Marques - Viuz : nous  proposons un article de fond aux lecteurs de Viuz et aux membres de l’Union des Marques.

L’intelligence artificielle est l’un des grands agents de transformation de nos vies et de nos sociétés. Et comme telle, elle suscite  de nombreux fantasmes.

Andrey_Popov / Sutterstock

Certains fantasmes anticipent des temps futurs plus ou moins lointains. Deux grandes peurs renvoient à l'actualité pressante : la sophistication des fausses informations dopée par l’IA et le contrôle très accru, voire sans limites, des individus rendu possible par la reconnaissance faciale. Qu’en est-il vraiment ?

 

Le deep fake, plus vrai que nature

Nous connaissons les fake news, ces informations fausses, inventées de toutes pièces, aux conséquences parfois lourdes, notamment en périodes électorales. Comme le démontre de manière très  détaillée les auteurs de l’ouvrage Network Propaganda publié par Oxford University Press en 2018 les fake news sont le fait de divers types d’acteurs : hommes politiques en froid avec la vérité, média radicaux, puissances étrangères en mal d’influence, ou tout simplement bricoleurs du web à la recherche de revenus publicitaires. Les réseaux sociaux en sont les grands amplificateurs.

Les fakes news n’ont pas attendu l’intelligence artificielle pour exister. Mais celle-ci, utilisée par des acteurs plus sophistiqués, pourraient leur donner un deuxième vie.

Quand la voix perd son maître

Le deep fake est bel et bien en mesure de s’attaquer à la voix. L’appli Lyrebird, accessible à tout un chacun, sait, en partant d’un enregistrement 30 phrases de votre voix créer votre avatar vocal. Preuve tangible, la startup s’est amusée à faire dialoguer Barack Obama, Donald Trump et Hilary Clintion  au sujet de... Lyrebird.

Barack Obama paraît quelque peu endormi, ou sous médicament. Mais on perçoit le potentiel : transmettre de fausses infos... ou vous voler votre voix.

Google, via son entité Deepmind, met également point Wavenet une solution de voix de synthèse, selon le procédé text-to-speech. Une startup française hébergée par Telecom Paris Tech et soutenue par la BPI, CandyVoice, est également sur le créneau. Elle prouve montre comment à partir de 10 minutes de voix enregistrée, elle permet de faire dire n’importe quoi à Emmanuel Macron.

Testez ici par vous-même

La vidéo : manipulation si facile

C’est le site d’infos Buzzfeed qui nous prévenait dès septembre dernier :  une vidéo montrait Barack Obama, disant du mal de son successeur était en fait fausse. Elle alertait l’opinion publique sur le risque du deep fake, demain à la portée de manipulations mal intentionnées.

A la vérité, la manipulation vidéo  la plus efficace à ce jour n’a en fait sans doute rien à voir avec de l’intelligence. Le mois dernier on pouvait voir Nancy Pelosi ivre et aux capacités intellectuelles ralenties ou altérées dans une série de vidéo largement relayée par la plupart des réseaux sociaux. Les vidéos étaient manipulée et ont fait grand bruit. Mais la manipulation n’avait rien à voir avec l’intelligence artificielle, c’était plutôt de la low tech : une des vidéos était tout simplement ralentie à 75%, ce qui suffisait à donner l'impression de voir un femme réellement ivre. L’IA aurait-elle la fonction de cristalliser des peurs ? Dans le faits, plus c’est gros plus ça marche. Dans le cas de Nancy Pelosi, on est loin, bien loin des sophistications neuronales promises par le machine learning.

Reconnaissance faciale sans filtre ?

En matière de peurs, une autre technologie est peut-être à prendre plus à ce jour au sérieux. La reconnaissance faciale, utilisée sur le web depuis quelques années, est connue du grand public :  Facebook a introduit la reconnaissance des visages en 2010, lui permettant ainsi de taguer plus d’individus et d’enrichir de toujours plus de données les comportements et les interactions.

Usage industriel

Apple a propulsé la reconnaissance faciale dès 2017, puisque avec la fonctionnalité Face ID, un utilisateur peut ouvrir son iPhoneX en lieu et place du Touch ID, le système de reconnaissance par empreinte digitale.

La reconnaissance faciale est une  technologie biométrique. Elle utilise des éléments du corps humains comme clé d’identification : visage, pupille, empreinte. Exemple d’application industrielle : Apple vient de déposer un brevet qui permettra à une voiture de s’ouvrir automatiquement à l’appproche de son conducteur, simplement par reconnaissance faciale. Les usages sont multiples et pourraient contribuer activement à l’avènement d’un internet ambiant, sans interfaces apparentes.

A surveiller

Mais il y a un domaine un plus sensible que l’industrie automobile  : la surveillance.

Vous avez déjà peut-être entendu parler de Ring, le service de caméra pour sécuriser la maison.  Il a été mis au point par Amazon, qui dans la foulée a déposé un brevet permettant aux résidents d’une maison de reconnaître des individus s’approchant de leur domicile et d’identifier des cambrioleurs. Et pour éviter toute confusion, chaque foyer pourrait dresser sa liste une liste blanche des personnes connues, comme le facteur (ou le livreur Amazon ?). La technologie repose sur de bonnes intentions mais elle n’est pas à l’abri d’erreurs de fichage. Elle pose surtout des questions fondamentales d’éthique.

D’autant que ce sont un peu partout dans le monde, et particulièrement aux Etats-Unis, les forces de l’ordre qui sont le plus en demande de solutions de reconnaissance faciale. Nombre de startups s’engouffrent dans la brèche. Or on sait aujourd’hui, que la technologie contient des biais, notamment racistes. Amazon Web Services met à disposition de tout développeur ses outils IA de reconnaissance Amazon Rekognition. Google a préféré au contraire faire machine arrière en la matière, en n’offrant pas d’accès à des outils de reconnaissance faciale afin d’éviter “tout abus et toutes conséquences néfastes” dixit. De fait Aux Etats-Unis, des élus en appellent à la régulation. L’Europe est, elle, plus équipée, notamment avec le RGDP.

La reconnaissance faciale est, dans certains cas, tout simplement une question de libertés fondamentales . Il arrive que ce soit l’Etat qui repousse les limites de la surveillance. On sait que la reconnaissance faciale est l’un des piliers du rating social mis en place en Chine. Les individus sont classés et se voient attribuer des points ou des sanctions en fonction de leurs comportements sociaux, enregistrés notamment par les caméras. Comme nous l'évoquions dans un article précédent, “La surveillance totale cause sans doute des dangers plus inquiétants que ceux contre lesquels elle est supposée nous prémunir et remet en question la démocratie, la vie privée, la sécurité”.

Plus d'articles Contenus

+ TOUS LES ARTICLES Contenus
  • Commerce, publicité, IA, influence, consommation, média, RH… 30 chiffres qu’il fallait retenir de ce début d’année

    Les mois de Janvier et Février sont toujours très intéressants pour une lecture globale des marchés qui nous entourent. Tel l’hiver qui s...

  • Michaël Nathan (SIG) – Savoir parler à tous : la communication publique à l’heure de l’expérience utilisateur

    Placée sous l’autorité directe du premier ministre, le Service d’information du Gouvernement (SIG) informe notamment le grand public des a...

  • Perspectives : 30 chiffres qu’il fallait retenir de novembre et décembre 2023

    La rédaction de Viuz vous propose un condensé de 30 chiffres marquants sur la fin d’année (novembre et décembre 2023) qui permettent de po...