Ouvrir la « black box » : Transparence et explicabilité au cœur de l’intelligence artificielle de confiance

Publish date:

Aborder de manière proactive les questions éthiques dans l’intelligence artificielle dès le début est maintenant une étape critique pour en assurer l’adoption à grande échelle, afin d’éviter de manière préventive les risques importants du point de vue de la conformité, de la protection de la vie privée, de la sécurité et de la réputation.

Par Sébastien Guibert, Directeur du Centre d’Excellence pour l’intelligence artificielle, Capgemini

Au sein du Centre d’Excellence pour l’intelligence artificielle de Capgemini, la question d’adopter une démarche responsable dans l’élaboration de nos projets d’IA s’est rapidement posée. En effet, comme de nombreuses innovations avant elle, l’intelligence artificielle soulève des questions d’ordre éthique, allant des conséquences involontaires et néfastes pour les utilisateurs aux préoccupations concernant l’utilisation dangereuse de ces technologies.

Il s’agit également de répondre à une attente forte du grand public, le dernier rapport du Capgemini Research Institute indique ainsi que 7 personnes sur 10 souhaitent plus de transparence lorsqu’un service est géré par une intelligence artificielle. Plus des trois quarts d’entre eux pensent également que la réglementation devrait être renforcée pour encadrer la façon dont les entreprises utilisent l’IA. Rendre les systèmes d’intelligence artificielle transparents et compréhensibles pour gagner la confiance des utilisateurs doit donc être une préoccupation quotidienne pour tous ceux qui participent à un projet reposant sur de l’intelligence artificielle.

En effet, les équipes commerciales, ou les conseillers clientèle doivent être en mesure de pouvoir expliquer certains résultats générés par l’IA lors d’une demande émanant d’un client. C’est du ressort des personnes qui élaborent les systèmes d’intelligence artificielle de mettre à disposition la documentation et l’information nécessaires pour expliquer, en termes simples, comment certaines décisions fondées sur l’IA sont prises et quel impact elles ont sur les personnes. Ces équipes doivent également documenter les processus pour l’ensemble des données ainsi que les systèmes décisionnels.

Autre point majeur de défiance, les biais cognitifs. L’intelligence artificielle parce qu’elle est créée et entrainée par des humains, avec ce que cela représente de subjectivité et de différence de sensibilité peut rapidement donner des résultats qui ne sont pas acceptables du point de vue des consommateurs qui s’attendent à voir traiter leur requête avec équité. Pire, envisageons le cas d’une IA qui analyserait des données induisant une discrimination. Par exemple, sur une adresse postale dans le cas de l’ouverture d’un compte en banque, parce que statistiquement, la banque accorde peu de prêts aux habitants de tel ou tel quartier.

C’est pourquoi pratiquer une bonne gestion des données et atténuer les biais potentiels dans les données est l’une des premières étapes à avoir en tête. Il incombe aux équipes d’ingénierie et de science des données de s’assurer que ces pratiques sont respectées. Ces équipes doivent intégrer les principes de « Privacy By Design », protection de la vie privée dès la phase de conception et d’assurer la solidité, la répétabilité et la vérifiabilité de l’ensemble du cycle de données (données brutes, données de formation, données de test, etc.). Pour cela, il faut s’assurer que les données proviennent d’une source conforme à ce que la réglementation autorise, en vérifier l’exactitude, la qualité et les biais potentiels. Y compris la détection des minorités ou des tendances sous-représentées. Puis établir des pratiques adéquates de labellisation des données et les examiner périodiquement, et les stocker de manière responsable, afin qu’il soit mis à disposition pour des audits et des évaluations de répétabilité. Enfin, surveiller constamment les résultats produits par les modèles ainsi que la précision et l’exactitude, et vérifier les biais ou la dégradation de l’exactitude.

Une bonne gestion des données doit également intégrer des pouvoirs de contrôle pour atténuer les biais liés à l’IA. Les équipes doivent particulièrement veiller à ce que les ensembles de données existants ne créent pas ou ne renforcent pas les biais existants.
Pour cela, il faut identifier les biais existants dans l’ensemble de données par l’utilisation d’outils d’IA existants ou par des contrôles spécifiques dans les modèles statistiques des ensembles de données.

La démarche doit être scrupuleuse, pour ne pas créer de biais de sélection sur les données lors de l’élaboration d’algorithmes. Mener suffisamment d’essais préalables et de surveillance apres la mise en œuvre pour identifier, réglementer et atténuer les biais existants.

Et si l’IA pouvait également aider à construire l’éthique dans l’IA ?

L’un des problèmes rencontrés par ceux qui mettent en œuvre l’IA est la nature opaque de l’apprentissage profond et des réseaux neuronaux. Il peut être difficile d’assurer la transparence et vérifier s’il n’y a pas de biais. C’est la fameuse boite noire ! Certaines plateformes d’intelligence artificielle sont conçues pour donner des explications sur la façon dont les modèles d’IA prennent des décisions. L’intelligence artificielle peut détecter et atténuer les biais dans les ensembles de données et dans les algorithmes, vérifier les décisions et recommandations que les systèmes d’IA fournissent. Ces outils d’IA permettent aux entreprises de vérifier leurs ensembles de données et leurs algorithmes et d’y apporter les corrections nécessaires.

L’IA offre des avantages importants pour les organisations qui ont une vision, une planification et une approche appropriées de la mise en œuvre. Aborder de manière proactive les questions éthiques dans l’intelligence artificielle dès le début est maintenant une étape critique pour en assurer l’adoption à grande échelle, afin d’éviter de manière préventive les risques importants du point de vue de la conformité, de la protection de la vie privée, de la sécurité et de la réputation. Il est essentiel de responsabiliser l’ensemble des équipes concernées afin d’insuffler ces considérations d’ordre éthique dans les applications de l’IA.

 

En savoir plus : L’éthique de l’IA au coeur de votre stratégie

Découvrez notre offre Perform AI

 

Articles associés

Intelligence Artificielle

L’IA au service de la qualité des données, pour des cas d’usage toujours plus innovants

Ramzi Kaak
Date icon 4 novembre 2019

Selon Gartner, près de 70% des entreprises interrogées déclarent que leurs problèmes de...

Intelligence Artificielle

L’intelligence artificielle au service du gouvernement et du citoyen : potentiels et enjeux

Sébastien Guibert
Date icon 23 octobre 2019

Le rapport Villani publié en mars 2018 a jeté les bases de la stratégie nationale de la...

Intelligence Artificielle

Intelligence Artificielle : tirer les bénéfices des cas concrets

Sébastien Guibert
Date icon 28 janvier 2019

Parmi les technologies de l’IA, le machine learning est une révolution pour de nombreux...

Cookies

En continuant à naviguer sur le site web, vous acceptez l'utilisation des cookies

Pour changer la configuration des cookies sur votre ordinateur ou obtenir davantage d’information, veuillez consulter la page Données personnelles

Fermer

Fermer les informations cookies