Passer au contenu

Consommateurs, employés et citoyens privilégieront les organisations qui démontrent de façon proactive que leurs systèmes IA sont éthiques, équitables et transparents

Paris, le 5 juillet 2019 – Selon une nouvelle étude du Capgemini Research Institute, une charte éthique encadrant l’utilisation de l’IA est devenue indispensable pour gagner la confiance du consommateur. Alors que les organisations se tournent de plus en plus vers l’IA pour en exploiter le potentiel, clients, employés et citoyens les observent de près, résolus à récompenser ou sanctionner leurs comportements. Les personnes interrogées ont affirmé qu’elles seraient davantage disposées à acheter les produits et faire la promotion des organisations dont l’utilisation de l’IA est jugée éthique. Lire l’étude

Les entreprises qui utilisent l’IA de façon éthique seront récompensées : Parmi les consommateurs interrogés, 62% feraient davantage confiance à une entreprise dont l’utilisation de l’IA est considérée éthique, 61% parleraient de leurs expériences positives à leurs proches, 59% seraient plus fidèles à l’égard de l’entreprise et 55% achèteraient plus de produits, attribueraient de meilleures notes et publieraient des commentaires positifs sur les réseaux sociaux. En revanche, lorsque l’utilisation de l’IA dans les interactions avec les consommateurs entraînent des problèmes d’ordre éthique, la réputation de l’entreprise ainsi que son chiffre d’affaires sont menacés. Dans le cas où une interaction avec l’IA engendrerait des problèmes éthiques, 41% des personnes interrogées se plaindraient auprès de l’entreprise, 36% lui demanderaient de se justifier et 34% cesseraient d’interagir avec elle.

Des problèmes éthiques engendrés par des systèmes IA ont été constatés : Parmi les organisations interrogées, 9 dirigeants sur 10 estiment que des problèmes d’ordre éthique ont résulté de l’utilisation de l’IA au cours des 2 ou 3 dernières années. Pour illustration : dans le domaine médical, la collecte de données personnelles de patients sans leur accord, ou, dans les secteurs de la banque et de l’assurance, un recours trop systématique aux décisions proposées par une machine et sans arbitrage préalable. Pour expliquer ces problèmes, les dirigeants citent notamment la pression pour déployer en urgence l’IA, la prise en compte insuffisante de l’aspect éthique lors de l’élaboration des systèmes IA et un manque de ressources dédiées aux questions éthiques lors de la mise en place des systèmes IA.

Consommateurs, employés et citoyens se disent inquiets vis-à-vis des questions éthiques liées à l’IA et demandent une certaine forme de réglementation : Près de la moitié des personnes interrogées (47%) estiment qu’elles ont vécu au moins deux cas d’utilisation de l’IA ayant entraîné des problèmes d’ordre éthique au cours des 2 ou 3 dernières années. La plupart d’entre elles (75%) déclarent qu’elles souhaitent plus de transparence lorsqu’un service est géré par l’IA, et qu’elles veulent savoir si l’IA les traite de façon équitable (73%). Plus des trois quarts des consommateurs (76%) pensent que la réglementation devrait être renforcée pour encadrer la façon dont les entreprises utilisent l’IA.

Les organisations commencent à prendre conscience de l’importance d’une IA éthique : 51 % des dirigeants considèrent qu’il est important de veiller à ce que les systèmes d’IA soient éthiques et transparents. Les organisations prennent également des mesures concrètes lorsque des questions d’éthique sont soulevées. L’étude révèle que 41 % des dirigeants interrogés déclarent avoir complètement arrêté un système d’IA lorsque celui-ci soulevait une question d’éthique.

 «  De nombreuses organisations sont arrivées à la croisée des chemins en termes d’utilisation de l’IA. Consommateurs, employés et citoyens sont de plus en plus disposés à interagir avec la technologie, mais ils sont conscients des problèmes éthiques potentiels. Cette étude montre qu’il est nécessaire de créer un cadre et des pratiques éthiques pour l’utilisation de l’IA afin de gagner la confiance du public. Ce n’est pas qu’une question de conformité : cela peut devenir un véritable avantage en termes de fidélité et d’adhésion », explique Anne-Laure Thieullent, responsable de l’offre AI and Analytics du groupe Capgemini. « Pour y parvenir, les organisations doivent se concentrer sur la mise en place des bonnes structures de gouvernance ; elles doivent non seulement établir un code de conduite basé sur leurs valeurs mais aussi adopter une approche « ethics-by-design » et surtout, se concentrer sur l’information et la responsabilisation de chacun dans la manière d’interagir avec les solutions IA ».

Les organisations doivent privilégier une stratégie IA éthique : Afin de répondre aux préoccupations des consommateurs et accroître leur confiance vis-à-vis de l’utilisation éthique de l’IA, les organisations doivent adopter une approche ciblée pour adapter les systèmes. Capgemini recommande une approche en trois volets qui englobe toutes les parties prenantes.

  • Pour les dirigeants, chefs d’entreprise et tous ceux qui ont un devoir de confiance et d’éthique : Établir une base solide avec une stratégie et un code de conduite pour une IA éthique ; élaborer des politiques qui définissent les pratiques acceptables pour les employés et les applications d’IA ; créer des structures de gouvernance de l’éthique et assurer la responsabilité des systèmes d’IA ; et constituer des équipes diversifiées pour assurer la sensibilité à l’ensemble des questions éthiques.
  • Pour les équipes en contact avec les clients et les employés, telles les RH, le marketing, la communication et le service client : Assurer l’utilisation éthique des applications IA ; éduquer et informer les utilisateurs afin qu’ils aient confiance dans les systèmes IA ; donner aux utilisateurs plus de contrôle et la possibilité d’exercer des recours ; et communiquer de façon proactive sur les questions d’IA en interne et à l’externe afin de renforcer la confiance.
  • Pour les responsables de l’intelligence artificielle, des données et de l’informatique et leurs équipes : Chercher à rendre les systèmes IA aussi transparents et compréhensibles que possible pour gagner la confiance des utilisateurs ; pratiquer une bonne gestion des données et atténuer les mauvaises interprétations potentielles des données ; surveillance continue pour garantir la précision et l’exactitude ; et utiliser les outils technologiques qui permettent d’intégrer l’éthique dans les systèmes IA.

Luciano Floridi, directeur du Digital Ethics Labs de l’Oxford Internet Institute, ajoute : « La méthode classique pour gagner la confiance, avec des interactions IA en particulier, peut se résumer en trois mots : transparence, responsabilité et responsabilisation. La transparence consiste à permettre aux gens de voir ce que vous faites, la responsabilité signifie que vous êtes responsable de ce que vous faites, et la responsabilisation correspond au devoir que les autres ont de vous alerter si vous avez agi de façon inappropriée ou incorrecte. »

Vous pouvez télécharger une copie du rapport en cliquant ici.

Méthodologie

L’étude a été réalisée auprès de plus de 1 580 dirigeants de grandes entreprises (dont le chiffre d’affaires annuel est supérieur à 1 milliard de dollars) dans 10 pays (Chine, France, Allemagne, Inde, Italie, Pays-Bas, Espagne, Suède, Royaume-Uni et Etats-Unis) et occupant trois types de fonctions : direction générale/stratégie/communication d’entreprise, informatique/data science/analytique et RH/marketing. En parallèle, une enquête a été réalisée auprès de 4 400 consommateurs de six pays (Etats-Unis, Chine, Royaume-Uni, France, Allemagne, Pays-Bas) ayant tous eu une interaction avec l’IA par le passé et donc une première approche des questions d’éthique, de confiance et de transparence liées à l’IA. Le Capgemini Research Institute a également organisé des entretiens approfondis avec plus de 20 universitaires, experts et entrepreneurs du secteur.

À propos de Capgemini

Capgemini est un leader mondial du conseil, des services informatiques et de la transformation numérique. A la pointe de l’innovation, le Groupe aide ses clients à saisir l’ensemble des opportunités que présentent le cloud, le digital et les plateformes. Fort de 50 ans d’expérience et d’une grande expertise des différents secteurs d’activité, il accompagne les entreprises et organisations dans la réalisation de leurs ambitions, de la définition de leur stratégie à la mise en œuvre de leurs opérations. Pour Capgemini, ce sont les hommes et les femmes qui donnent toute sa valeur à la technologie. Résolument multiculturel, le Groupe compte plus de 200 000 collaborateurs présents dans plus de 40 pays. Il a réalisé un chiffre d’affaires de 13,2 milliards d’euros en 2018.

Plus d’informations sur www.capgemini.com. People matter, results count.

À propos du Capgemini Research Institute

Le « Capgemini Research Institute » est le centre de recherche de Capgemini. Il publie régulièrement des études sur l’impact des technologies numériques au sein des organisations et des grands secteurs économiques. L’équipe de l’Institut s’appuie sur le réseau international d’experts de Capgemini et travaille en étroite collaboration avec les partenaires académiques et technologiques du Groupe. Il dispose de plusieurs centres de recherche dédiés en Inde, au Royaume-Uni et aux Etats-Unis. Il a été récemment classé N°1 mondial pour la qualité de ses recherches par des analystes indépendants.

Plus d’informations sur https://www.capgemini.com/researchinstitute/