Quand l’IA nous manipule : comment réguler les pratiques qui malmènent notre libre arbitre ?
Définir l’IA et définir la conscience : deux écueils complexes sur lesquels achoppent aujourd’hui les textes visant à réguler les pratiques de manipulation des citoyens et des consommateurs.
Définir l’IA et définir la conscience : deux écueils complexes sur lesquels achoppent aujourd’hui les textes qui visent à réguler les pratiques de manipulation des citoyens et des consommateurs.
L’influence et la manipulation des citoyens — ou des consommateurs dans une acception plus économique — sont une pratique aussi banale qu’ancienne, entre la publicité qui existe depuis fort longtemps, les réunions et meetings électoraux susceptibles d’emporter la conviction du public, ou encore le plus traditionnel bouche-à-oreille au sein des familles et des cercles amicaux, qui conduit à consulter l’avis d’autrui avant de prendre une décision. Elle intervient parfois involontairement, en induisant des comportements sous le seuil de conscience des usagers, et parfois, bien sûr, intentionnellement.
Néanmoins, le numérique a provoqué une véritable révolution. Les outils d’intelligence artificielle (IA) en particulier permettent de personnaliser les pratiques de manipulation, avec une meilleure connaissance de la personne manipulée et une adaptation plus rapide à son profil comportemental. Ces techniques numériques sont en outre souvent mises en œuvre par des opérateurs économiques puissants, usant de multiples canaux afin de récupérer les données des consommateurs et disposant d’une force de frappe sans précédent (sites Internet, réseaux sociaux, moteurs de recherche, chatbots, services d’IA générative permettant de formuler des prompts…). Il en résulte une asymétrie des moyens qui permet de malmener le libre arbitre et d’exploiter la faible conscience du risque de manipulation par les utilisateurs.
C’est pour cela que la Commission européenne dresse une taxonomie des risques systémiques engendrés par les IA génératives à usage général (celles permettant de produire du contenu de type texte, code, image, son, vidéo, par exemple ChatGPT, Copilot, Gemini, Grok, Sora). La dernière version de cette taxonomie (2024) est fondée sur les analyses d’experts mondiaux — notamment celles de Joshua Bengio, titulaire du Prix d’informatique Alan Turing 2018, mais également celles de John Hopfield, prix Nobel de physique 2024, et de Daron Acemoglu, prix Nobel d’économie 2024.
Y apparaissent comme risques systémiques, entre autres, les risques de manipulation malveillante des humains à grande échelle par des IA (manipulations électorales, atteintes aux droits fondamentaux…), les risques de discrimination illégale à grande échelle par des systèmes d’IA prenant des décisions automatisées à enjeux élevés, et les risques de perte de contrôle des IA par l’humain.
Les initiatives pour réguler l’IA se multiplient
Aussi, de nombreux textes récents, français ou européens, prennent en compte, en droit du numérique, ce risque de manipulation. À cet égard, le droit de la consommation apparaît comme un observatoire particulièrement pertinent puisque se multiplient, tout particulièrement depuis 2019, les règles visant à encadrer l’influence et la manipulation du consommateur en ligne.
Il peut être cité, pour illustration et sans exhaustivité, la prohibition des publicités ciblant les mineurs et l’interdiction des « dark patterns » qui conduisent l’internaute à faire des choix qui ne sont pas toujours en sa faveur (amplification de la recommandation de certaines offres de produits, services et contenus ; invisibilisation corrélative d’autres offres de produits, services et contenus ; techniques addictives tendant à capter l’attention du consommateur ; biens ou services placés par défaut dans le panier ; difficultés à se désabonner, etc.) dans le règlement sur les services numériques ; la prohibition de techniques déloyales de collecte et de traitement des données personnelles dans le règlement européen sur la protection des données (RGPD) ; la réglementation nationale des influenceurs exerçant leur activité sur les plates-formes en ligne ; ou encore la prohibition de certaines pratiques subliminales et manipulatoires par des systèmes d’intelligence artificielle ou l’encadrement des hypertrucages, les deepfakes, dans le règlement européen sur l’IA).
Sur la base de ce constat, et au regard de la multiplication des textes qui témoigne des enjeux cruciaux en termes de préservation du libre arbitre de l’humain, nous avons dirigé une recherche collective intitulée « Vers un droit neuro-éthique ? » qui s’est donné pour ambition d’établir une synthèse, puis de mener une analyse prospective, sur les techniques numériques de l’influence et de la manipulation des consommateurs. Elle a reposé sur la rencontre entre spécialistes, tant universitaires que praticiens, de différentes disciplines, notamment juridiques, informatiques, neuroscientifiques, sociologiques, psychologiques, économiques et de gestion.
Cette multiplication est-elle un signe de l’impuissance à appréhender efficacement ces techniques ?
Or, il résulte de ces échanges que la multiplication des textes semble plutôt le signe de l’impuissance à appréhender efficacement ces techniques, plus que la réponse juste et adaptée de l’ordre juridique à des techniques qui peuvent être gravement préjudiciables aux consommateurs.
Outre que la multiplication des réglementations s’accompagne de celle des autorités internes et européennes de régulation et de contrôle (Arcom, CNIL, DGCCRF, Commission européenne), ce qui peut porter atteinte à l’effectivité des règles, les textes comportent des contradictions internes qui contribuent à brouiller l’efficacité des règles mises en place.
Par exemple, sont totalement interdites dans l’AI Act les pratiques subliminales (au-dessous du seuil de conscience) et les techniques délibérément manipulatrices ou trompeuses avec pour objectif d’altérer le comportement d’une personne ou d’un groupe de personnes. Mais ce principe d’interdiction entre en contradiction avec l’autorisation de principe des deepfakes sous réserve d’en avoir informé le consommateur, autorisation posée à l’article 50 du même règlement. En pratique, si un deepfake conduit un consommateur à prendre une décision, sans qu’il ait conscience qu’il a été influencé par ce deepfake, il devrait être interdit. Mais, que faire lorsque le deepfake est assorti d’un bandeau indiquant que l’image a été générée par une IA ? Doit-on considérer qu’il est autorisé ? Ce deepfake perd-il totalement ses potentiels effets trompeurs ?
La lutte contre les pratiques d’IA manipulatrices repose aujourd’hui sur des notions incertaines
De plus, chaque disposition juridique relative à la lutte contre les pratiques d’IA manipulatrices, prise individuellement, recèle également son lot d’incertitudes, ce qui contribue à fragiliser cette lutte.
Au rang des incertitudes, se trouve, en premier lieu, celle concernant la définition même de l’IA. Par exemple, un système d’IA est défini dans l’AI Act européen comme :
« un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels » (article 3.1)
Cette définition, bien qu’alignée avec la définition de l’OCDE, suscite de nombreuses interrogations, tout particulièrement sur le critère permettant de distinguer l’IA du simple logiciel informatique classique.
À ce stade, les incertitudes sont telles que le bureau de l’Intelligence artificielle de la Commission européenne a lancé une consultation publique, en vue de préciser non seulement la définition de l’IA mais aussi les conditions de caractérisation des pratiques d’IA interdites, au rang desquelles, justement, la pratique d’IA manipulant l’humain sous le seuil de conscience, consistant en :
« la mise sur le marché, la mise en service ou l’utilisation d’un système d’IA qui a recours à des techniques subliminales, au-dessous du seuil de conscience d’une personne, ou à des techniques délibérément manipulatrices ou trompeuses, avec pour objectif ou effet d’altérer substantiellement le comportement d’une personne ou d’un groupe de personnes en portant considérablement atteinte à leur capacité à prendre une décision éclairée, amenant ainsi la personne à prendre une décision qu’elle n’aurait pas prise autrement, d’une manière qui cause ou est raisonnablement susceptible de causer un préjudice important à cette personne, à une autre personne ou à un groupe de personnes ».
Ces incertitudes et fragilités du texte peuvent en particulier s’expliquer par le fait que l’un des critères de l’interdiction, « la manipulation sous le seuil de conscience », repose sur un concept, « la conscience », qui ne fait l’objet d’aucun consensus scientifique, ni auprès des neuroscientifiques ni auprès des philosophes, et est même au cœur des débats actuels de ces disciplines.
Faire reposer une interdiction, assortie d’une lourde amende administrative, sur un critère conceptuel aux contours ne faisant pas consensus, pose de nombreuses difficultés, non seulement au regard d’un principe fondamental du droit qu’est le respect du principe de légalité des délits et des peines, mais également, en ce que ce critère n’offre pas une véritable garantie d’effectivité de la règle tendant à la protection de l’humain en général, et du consommateur en particulier, face aux pratiques d’IA manipulatrices.
À lire aussi : Peut-on détecter automatiquement les deepfakes ?
Vers la consécration d’un nouveau texte européen pour réguler les pratiques d’IA au même titre que les autres pratiques numériques
C’est d’ailleurs pour cette raison, que la Commission européenne vient d’annoncer, le 3 octobre 2024, qu’elle entendait proposer un nouveau règlement européen, le Digital Fairness Act, tendant à protéger le consommateur d’une manière plus effective contre les pratiques numériques déloyales, que ces pratiques reposent sur de l’IA ou non.
L’annonce de ce futur « règlement sur l’équité numérique pour lutter contre les techniques et pratiques commerciales contraires à l’éthique liées aux interfaces truquées, au marketing par les influenceurs sur les médias sociaux, à la conception addictive des produits numériques et au profilage en ligne, en particulier lorsque les vulnérabilités des consommateurs sont exploitées à des fins commerciales » met ainsi en lumière le fait que la protection juridique du consommateur face aux pratiques d’IA manipulatrices n’en est encore qu’aux prémices de sa construction.
Cet article a été écrit dans le cadre de la troisième édition des Dauphine Digital Days qui a eu lieu à l’Université Paris Dauphine — PSL, du 18 au 20 novembre 2024.
Sabine Bernheim-Desvaux est membre du pôle "Droit des contrats, de la consommation et du commerce électronique" du réseau Trans Europe Experts
Juliette Sénéchal est Directrice du pôle "Droit des contrats, de la consommation et du commerce électronique" du réseau "Trans Europe Experts"