IA : vers des principes éthiques partagés et intégrés dans les algorithmes

L’IA reflète les contradictions de nos sociétés et la diversité de nos valeurs. L’éthique propose des pistes de mises en commun, qui pourraient permettre de programmer des IA plus justes.

Jan 16, 2025 - 16:01
 0
IA : vers des principes éthiques partagés et intégrés dans les algorithmes

L’IA reflète les contradictions de nos sociétés et la diversité de nos valeurs. À l’occasion du Sommet pour l’action sur l’IA les 10 et 11 février prochain, nous explorons les pistes de mises en commun proposées par l’éthique. Cette recherche de consensus pourrait permettre de programmer des IA plus justes.


Durant la dernière élection présidentielle américaine, le rôle des algorithmes d’intelligence artificielle utilisés par les réseaux sociaux pour capter et retenir l’attention des internautes a été critiqué. De fait, non seulement ces mécanismes confortent l’opinion des électeurs — en recommandant des contenus avec lesquels ils sont déjà d’accord — mais encore, ils nuisent à la qualité du débat en empêchant jusqu’à la possibilité même d’échanges pluralistes et rationnels basés sur les faits — notamment par la génération de « bulles de filtres » qui évitent toute dissonance en favorisant les échanges entre individus d’opinions proches.

Une conception plus éthique de ces systèmes d’IA pourrait-elle à l’avenir remédier à ces problèmes ? Si oui, grâce à quelle éthique ? En outre, que mettre concrètement derrière ce concept parfois considéré comme inconsistant ?

Les systèmes d’IA pourraient intégrer des contraintes éthiques

Au-delà du cas particulier des réseaux sociaux, l’absence de neutralité des systèmes d’IA, prédictifs comme génératifs, est reconnue et documentée par la communauté académique. Ils peuvent en effet engendrer des injustices et nuire aux individus, notamment à cause de leurs conséquences socio-économiques — le cas de la discrimination à l’octroi de crédit bancaire fait office de cas d’école en la matière.

Si cet enjeu majeur est d’abord de la responsabilité du législateur, les concepteurs de systèmes d’IA conserveront toujours une marge de liberté pour opérer des choix dans la programmation de leurs systèmes : choix plus ou moins bénéfiques, reflets conscients ou non de leur éthique personnelle ou collective. Ainsi, pour raccourcir ses délais de livraison, l’entreprise Amazon optimise toujours plus sa chaîne logistique grâce à l’IA, en toute légalité, mais au prix de cadences effrénées et d’une forte pression sur ses employés.

Or, c’est précisément dans les interstices de la loi et de la réglementation qu’une éthique commune peut être embarquée explicitement dans les systèmes d’IA. Cet alignement des mécanismes algorithmiques aux préférences morales humaines est sans doute l’une des clés, après le droit, de l’intégration harmonieuse de ces systèmes dans la société.

À la recherche du consensus moral

Avant d’aller plus loin, définissons l’éthique de manière simple : l’éthique est le moyen de discerner les bons comportements des mauvais, mais aussi les bonnes décisions et actions, en fonction de leurs conséquences et de leur adhésion à un ensemble de valeurs ou principes moraux.

Certes, chacun, en fonction de son histoire, de ses croyances et de sa culture peut se prévaloir d’un jugement moral singulier. Il faut pourtant dépasser l’individu et le relativisme du « chacun son éthique » pour construire une éthique élargie, visant l’universel, afin de favoriser l’empathie, le vivre-ensemble et la solidarité, et dans le cadre d’une société où les systèmes d’IA sont bien intégrés, cette éthique partagée devrait y être encodée.

Définir ce plus grand commun dénominateur est possible sur la base d’une méthode démocratique de délibération. L’éthique de la discussion, théorisée par les philosophes Jürgen Habermas et Karl-Otto Appel peut nous y aider. Celle-ci procède d’un processus d’écoute mutuelle, durant lequel les participants débattent autour d’une table pour distinguer l’argument qu’ils jugeront unanimement le meilleur.

Si cette recherche du consensus peut résonner comme une utopie, des exemples réels d’application de ce type d’éthique existent. En pratique, ils sont toutefois plus réalistes, avec des modalités de délibération moins exigeantes.

Ainsi, le travail normatif de l’UNESCO permet d’élaborer et adopter des recommandations à l’intention de ses 194 états membres, à l’issue de processus longs et inclusifs, regroupant experts internationaux, société civile et représentations étatiques.

L’octroi de crédit bancaire, exercice d’équilibre entre désavantager la banque ou le particulier

Prenons maintenant un exemple concret, celui de l’octroi de crédit bancaire. Si la distribution de crédit est limitée par une réglementation visant à garantir leur stabilité, les banques conservent des degrés de liberté pour contrôler leur risque économique en fonction de leur appétence au risque. En conséquence, chaque client souhaitant souscrire un crédit se voit attribuer un score de crédit, soit une prédiction de son risque de défaut. Ce score est déterminant dans la prise de décision d’octroi du prêt, relativement à l’appétence au risque de la banque.

Or, le score est bien souvent calculé par un système d’intelligence artificielle, fonctionnant par apprentissage automatique, une phase pendant laquelle la machine apprend à évaluer le risque de défaut « par elle-même », à l’aide d’un jeu d’apprentissage regroupant les crédits passés de la banque.

L’expression « par elle-même » est un peu naïve car cet apprentissage, de type supervisé, peut en réalité, être orienté ou contraint. Ainsi, des travaux académiques suggèrent des approches d’apprentissages visant à maximiser le profit espéré de la banque. La machine apprend alors à minimiser les conséquences économiques négatives pour la banque, imputables aux erreurs de prédictions. Ces erreurs sont de deux types aux conséquences inégales, soit la banque prête à un emprunteur qui fera défaut (perte), soit la banque ne prête pas à un emprunteur qui n’aurait pas fait défaut si on lui avait fait confiance (manque à gagner).

Le problème avec ce type d’approche est que l’apprentissage ne tient compte que des conséquences économiques négatives pour la banque sans considérer celles affectant les emprunteurs, à savoir les risques de surendettement et d’exclusion bancaire. Or, une décision équitable devrait tenir compte de toutes les parties prenantes.

Allons plus loin, il est possible, outre les conséquences socio-économiques pour toutes les parties prenantes, d’identifier également les valeurs éthiques mises en danger par les conséquences décisionnelles négatives, par exemple lors d’un prêt à une personne peu solvable dont le défaut entraînera une situation de surendettement.

Ainsi, si l’on se dote d’un référentiel de valeurs éthiques, tel celui proposé par la Commission européenne, on peut recourir aux valeurs de « bien-être social » (ou de groupe) et de « bien-être individuel », dans lesquelles ‘bien-être’ est à prendre dans le sens « d’aisance matérielle permettant une existence agréable ». Il est alors possible d’associer, pour la banque, le danger de stabilité financière à la valeur de « bien-être social » puisque ses salariés seraient impactés par des pertes comptables voire une banqueroute. Concernant l’emprunteur, les dangers de faillite personnelle et les difficultés à s’intégrer dans la société peuvent être associés à la valeur de « bien-être individuel ». Or, une valeur peut prévaloir sur l’autre — l’approche par hiérarchisation est d’ailleurs une modalité de sortie des dilemmes moraux. Platon donne un exemple dans lequel un individu a promis de rendre une arme à son ami alors que ce dernier est susceptible de l’utiliser pour blesser un tiers, en raison de son état d’esprit. Ici, la résolution du dilemme moral est assez simple car la valeur d’intégrité physique du tiers l’emporte sur celle de respect d’une promesse.

Sur le plan théorique, si l’on se réfère à la typologie du sociologue Max Weber, cette approche met en œuvre une éthique plurielle, combinant éthique de responsabilité (assimilable à l’utilitarisme), avec les conséquences socio-économiques, et éthique de conviction (assimilable à la déontologie), avec la prise en compte de valeurs éthiques sous-tendant des normes implicites. Ces deux éthiques, souvent considérées comme inconciliables, sont ici intégrées dans un même modèle.

La mise en œuvre d’une éthique « plurielle »

En pratique, on peut donc « aligner moralement » un système d’intelligence artificielle grâce à un apprentissage machine, contraint par la minimisation des conséquences socio-économiques adverses pour toutes les parties prenantes, ajustées par l’importance relative des valeurs éthiques associées.

En l’état actuel, en ce qui concerne les décisions assistées par des systèmes d’IA, la difficulté de cette approche réside dans l’estimation des conséquences socio-économiques induites par les erreurs de prédiction ainsi que dans la définition d’une hiérarchie des valeurs associées. Ces deux tâches, d’estimation et de hiérarchisation, pourraient être accomplies par voie de délibération, grâce à l’éthique de la discussion. Mais quelle organisation dispose de l’indépendance et de la légitimité nécessaire à la mise en œuvre de telles discussions ?

En effet, si les entreprises sont libres d’aller au-delà des exigences légales et réglementaires en définissant leurs propres normes éthiques, cela implique aussi qu’elles sont juges et parties.

Pour cette raison, seuls des organismes de normalisation indépendants, à même de proposer des standards éthiques sectoriels (car développer une IA dédiée au secteur médical ou commercial n’appelle pas les mêmes expertises, regroupées au sein de comités techniques distincts) sont de nature à garantir le sérieux de la démarche.

L’AFNOR pourrait jouer ce rôle pour la France, le CEN-CENELEC pour l’Union européenne et l’ISO- IEC pour le monde. En outre, les normes étant publiées, la hiérarchie des valeurs en jeu avec un système d’IA serait accessible au grand public.

Les entreprises y ayant recours pourraient bénéficier d’une certification éthique, facteur de différentiation avec la concurrence. Les organismes de normalisation auraient la responsabilité de constituer un comité de gouvernance éthique dédié, regroupant des experts multidisciplinaires, coopérant avec le comité technique ad hoc, afin d’apprécier les conséquences et les valeurs en jeu dans chaque cas d’espèce considéré. Surtout, les représentants de toutes les parties prenantes, emprunteur et prêteur dans le cas de l’octroi de crédit, seraient également inclus, pour une délibération juste, dessinant les contours d’une véritable éthique commune intégrée au système d’IA.The Conversation

Christian Goglin ne travaille pas, ne conseille pas, ne possède pas de parts, ne reçoit pas de fonds d'une organisation qui pourrait tirer profit de cet article, et n'a déclaré aucune autre affiliation que son organisme de recherche.

Quelle est votre réaction ?

like

dislike

love

funny

angry

sad

wow