Passer au contenu
2022 FR CRI-AI-THE-ETHICAL-CONUNDRUM
IA & Data

Résoudre l’énigme de l’équité dans l’IA

70% des clients s’attendent à ce que les entreprises déploient l’Intelligence Artificielle de façon transparente et basée sur des critères d’équité.

Les mesures liées à la situation sanitaire nous rendent dépendants à l’Intelligence Artificielle (IA).

Aujourd’hui plus que jamais, nous nous tournons vers l’IA en vue de limiter les contacts physiques mais aussi pour prédire une nouvelle vague de contamination, désinfecter les établissements de santé et même se faire livrer un repas. Mais, pouvons-nous vraiment lui faire confiance ?

Aujourd’hui plus que jamais, nous nous tournons vers l’IA en vue de limiter les contacts physiques mais aussi pour prédire une nouvelle vague de contamination, désinfecter les établissements de santé et même se faire livrer un repas. Mais, pouvons-nous vraiment lui faire confiance ?

Le Capgemini Research Institute a interrogé plus de 800 organisations et 2 900 consommateurs afin de recueillir leurs impressions et sentiments au sujet de l’IA. Comment les entreprises peuvent-elles déployer des IA plus transparentes et basées sur des critères d’équité ? Pour quels bénéfices ? Et quels risques si elles ne le faisaient pas ?

Nous avons constaté que les consommateurs étaient plus enclins à utiliser l’IA, tandis que les progrès des organisations en termes d’équité ne sont pas suffisants. Cela peut-être risqué car un utilisateur ayant eu une mauvaise expérience avec une Intelligence Artificielle peut perdre confiance.

Voici nos sept recommandations pour concevoir et déployer une IA basée sur des critères d’équité et de confiance :

  1. Indiquer clairement l’objectif visé par l’IA et son impact potentiel ;
  2. Déployer une IA pensée au service de la société et de l’environnement ;
  3. Intégrer d’office des critères de diversité et d’inclusion tout au long du cycle de vie des systèmes IA ;
  4. Renforcer la transparence au moyen d’outils technologiques ;
  5. Rendre l’expérience avec l’IA plus « humaine » et s’assurer que celle-ci  soit contrôlée par l’humain ;
  6. Garantir la pérennité technologique des systèmes IA ;
  7. Protéger la vie privée des utilisateurs en leur donnant plus de pouvoir en termes de contrôle des interactions IA.