Skip to Content

“AI and the ethical conundrum” report

30 Sep 2020

Selon le nouveau rapport de Capgemini, 70% des clients s’attendent à ce que les entreprises déploient une intelligence artificielle de manière transparente et basée sur des critères d’équité.

Paris, le 30 septembre 2020 – L’intelligence artificielle (IA) a le pouvoir de transformer positivement la société et l’environnement, et pour exploiter ce pouvoir à son plein potentiel, les organisations doivent se concentrer sur la résolution des défis éthiques. Selon le nouveau rapport du Capgemini Research Institute intitulé «AI and the ethical conundrum: How organizations can build ethically robust AI systems and gain trust», la part des clients qui estiment que les organisations sont totalement transparentes en matière de traitement de leurs données personnelles est tombée de 76% à 62% entre 2019 et 2020. Il révèle également que seulement 53% des organisations ont désigné un responsable de l’éthique pour leurs systèmes IA. De plus, la mise en place d’une gouvernance, d’outils et de cadres pragmatiques lors de son déploiement, ainsi que le traitement de la question de la responsabilité de l’IA, entraînent un coût élevé pour les organisations.

Malgré cette prise de conscience, les progrès réalisés en termes de déploiement d’une IA éthique restent inégaux : une proportion quasi identique de dirigeants par rapport à 2019 déclarent avoir progressé sur les critères d’«équité» (65% en 2020 contre 66% en 2019) et d’«auditabilité[1]» (45% en 2020 contre 46% en 2019) de leurs systèmes IA ; de même, le critère de transparence a chuté de 73% à 59%, alors même que 58% des entreprises déclarent avoir sensibilisé leurs employés aux problèmes pouvant résulter de l’utilisation de l’IA. Le rapport indique également que 70% des clients souhaitent obtenir des explications claires et s’attendent à ce que les organisations proposent des interactions IA à la fois transparentes et respectant des critères d’équité.

Une IA discriminatoire et une mauvaise expérience client peuvent impacter sérieusement les entreprises

Alors qu’un grand nombre d’organisations publiques et privées déploient de plus en plus les technologies IA cette année, il est essentiel de maintenir la confiance des clients en mettant en place des interactions positives avec l’IA. Des études montrent cependant que les   données collectées pour le secteur de la santé et le secteur public sont soumises à des biais de nature sociale et culturelle[2].

Ce problème ne concerne pas uniquement les institutions publiques. Le rapport de Capgemini révèle en effet que 65% des dirigeants sont conscients des biais discriminatoires dans les systèmes d’IA. De plus, au cours des deux ou trois dernières années, près de 60% des organisations ont fait l’objet d’un examen juridique et 22% ont été confrontées à des réactions négatives de la part de leurs clients en raison de décisions prises par leurs systèmes d’IA. De fait, 45% des clients affirment en effet qu’ils n’hésiteraient pas à parler de leurs expériences négatives à leur famille et à leurs amis, en leur recommandant d’éviter l’organisation concernée. 39% se disent également prêts à faire part de leurs préoccupations aux organisations et à leur demander des explications, et 39% sont disposés à passer d’un canal IA à une interaction humaine plus coûteuse. Plus d’un quart (27%) des consommateurs se disent également prêts à ne plus avoir affaire avec l’entreprise en question.

Les leaders doivent assumer leur responsabilité sur la question éthique

Seules 53% des organisations ont désigné un responsable de l’éthique ou ‘Chief Ethics Officer’ de leurs systèmes IA au sein de leur entreprise. Il est pourtant essentiel d’établir un leadership de haut niveau pour s’assurer que la question éthique de l’IA est traitée en priorité par la direction et pour garantir la robustesse des systèmes mis en place.

De plus, la responsabilité sur le plan éthique des conséquences liées aux applications IA doit intégralement incomber à la fois aux directions business et technologies des entreprises. Selon le rapport, seule la moitié des interrogés indique disposer d’une hotline confidentielle ou d’un médiateur pour permettre aux clients et aux collaborateurs de l’entreprise de signaler des problèmes éthiques liés à l’IA.

Une gouvernance éthique de l’IA est devenue un prérequis

La nécessité des chartes d’éthique en entreprise est également portée par la multiplication des cadres réglementaires. La Commission européenne a par exemple publié des directives sur les principes éthiques clés à respecter dans le cadre du développement des applications IA[3]. Début 2020, la Federal Trade Commission (FTC) des Etats-Unis a également émis des recommandations en faveur de la transparence des IA[4] indiquant que, face à une décision négative prise par un système IA (par exemple, le refus d’une demande d’emprunt faite par un client), l’organisation devrait montrer au client concerné les principales données utilisées dans le processus décisionnel, puis l’autoriser à modifier toute information incorrecte. En 2019, 73% des organisations à travers le monde indiquaient qu’elles informaient leurs utilisateurs sur l’impact potentiel des décisions de l’IA, mais elles ne sont plus que 59% à le faire aujourd’hui.

Selon le rapport, cette tendance repose sur plusieurs éléments :  le contexte actuel créé par la pandémie de Covid-19, et ses dimensions sociétales et environnementales, la complexité croissante des systèmes IA, mais aussi l’évolution des comportements des consommateurs. D’où un bouleversement dans les fonctionnalités des modèles IA existants. Les entreprises repensent leurs systèmes pour s’adapter à cette réalité, faire face à de nouveaux facteurs – tels qu’un penchant accru pour la sécurité ou les achats en gros – et combler le manque de recul et de données sur des situations similaires qui auraient eu lieu par le passé. Malheureusement, ces changements ont nui à la transparence.

Le rapport conclut sur sept recommandations pour aider les organisations à concevoir et déployer une IA robuste sur le plan éthique, chacune s’appuyant sur des fondations solides en termes de leadership, gouvernance et pratiques internes[5]:

  • Indiquer clairement l’objectif visé par les systèmes IA et leur impact potentiel
  • Déployer une IA qui soit pensée proactivement au service de la société et de l’environnement
  • Intégrer d’office des critères de diversité et d’inclusion tout au long du cycle de vie des systèmes IA
  • Renforcer la transparence au moyen d’outils technologiques
  • Rendre l’expérience IA plus humaine et s’assurer que les systèmes IA sont contrôlés par l’humain
  • Garantir la robustesse technologique des systèmes IA
  • Protéger la vie privée des utilisateurs en leur donnant plus de pouvoir en termes de contrôle des interactions IA

« Compte tenu de son potentiel, une utilisation éthique de l’IA devrait bien sûr garantir l’absence de préjudice pour l’humain, ainsi que la pleine responsabilité humaine en cas de problème. Mais au-delà de ce prérequis, il existe une opportunité tangible de déployer une IA qui soit pensée proactivement au service de la société et de l’environnement, » commente Anne-Laure Thieullent, responsable de l’offre AI & Analytics du groupe Capgemini.

 « L’IA est une technologie vectrice de transformation qui pourrait se traduire par des avancées considérables dans le monde de l’entreprise, la société et l’environnement. Au lieu de craindre les impacts de l’IA sur les humains et la société, il est tout à fait possible d’orienter l’IA vers la lutte active contre les préjugés ciblant les minorités, voire en corrigeant les préjugés humains existant dans nos sociétés aujourd’hui. Cela signifie que les organisations gouvernementales et non gouvernementales dotées de capacités en termes d’IA, de volumes de données, et dont la raison d’être est d’œuvrer pour le bien-être de la société et l’environnement, doivent aujourd’hui assumer une plus grande part de responsabilité face à ces problématiques afin d’en faire bénéficier les sociétés d’aujourd’hui et de demain ; et cela, tout en respectant le principe de transparence et en endossant leur propre responsabilité dans le processus. »

Pour consulter l’étude dans son intégralité, ainsi que ses recommandations, cliquez ici.

Méthodologie de l’étude

Les données analysées par Capgemini dans le cadre de cette enquête 2020 proviennent d’interviews menées auprès de consommateurs et de dirigeants à travers le monde entre avril et mai 2020. Ont été interrogés 2 900 consommateurs répartis dans 6 pays et 884 dirigeants exerçant diverses fonctions (notamment dans les domaines des ventes, du marketing, des services clients et des technologies de l’information, développeurs d’IA et data scientists) répartis dans 10 pays. Ces résultats ont été comparés à une enquête réalisée entre avril 2019 et juin 2019 auprès de 5 000 consommateurs et 722 dirigeants appartenant à des services ventes, marketing, et à des équipes de développeurs d’IA et de data scientists. Capgemini a également conduit des interviews approfondies avec des dirigeants d’industries, universitaires, et experts en matière d’éthique de l’IA entre août et septembre 2020.

À propos de Capgemini

Capgemini est un leader mondial du conseil, de la transformation numérique, des services technologiques et d’ingénierie. A la pointe de l’innovation, le Groupe aide ses clients à saisir l’ensemble des opportunités que présentent le cloud, le digital et les plateformes. Fort de plus de 50 ans d’expérience et d’une grande expertise des différents secteurs d’activité, il accompagne les entreprises et organisations dans la réalisation de leurs ambitions, de la définition de leur stratégie à la mise en œuvre de leurs opérations. Pour Capgemini, ce sont les hommes et les femmes qui donnent toute sa valeur à la technologie. Résolument multiculturel, le Groupe compte aujourd’hui 270 000 collaborateurs présents dans près de 50 pays. Avec Altran, le Groupe a réalisé un chiffre d’affaires combiné de 17 milliards d’euros en 2019.

Plus d’informations sur www.capgemini.com. People matter, results count.

À propos du Capgemini Research Institute

Le « Capgemini Research Institute » est le centre de recherche de Capgemini. Il publie régulièrement des études sur l’impact des technologies digitales au sein des organisations et des grands secteurs économiques. L’équipe de l’Institut s’appuie sur le réseau international d’experts de Capgemini et travaille en étroite collaboration avec les partenaires académiques et technologiques du Groupe. Il dispose de plusieurs centres de recherche dédiés en Inde, au Royaume-Uni, à Singapour et aux Etats-Unis. Il a été récemment classé N°1 mondial pour la qualité de ses recherches par des analystes indépendants.

Plus d’informations sur https://www.capgemini.com/researchinstitute/

[1] Que l’on peut auditer et contrôler

[2]  SSIR, «The Problem With COVID-19 Artificial Intelligence Solutions and How to Fix Them», juin 2020

[3]   Commission européenne, «Lignes directrices en matière d’éthique pour une IA digne de confiance», avril 2019.

[4]   FTC.Gov, «Using Artificial Intelligence and Algorithms», avril 2020.

[5]   Les sept dimensions éthiques de l’IA sont dérivées des sept principes définis par la Commission européenne.