Explicabilité de l’Intelligence Artificielle – un défi majeur pour une adoption durable

Publish date:

L’intelligence artificielle est désormais une technologie utilisée par de nombreuses industries et dans des secteurs qui touchent de près l’individu comme l’éducation ou la santé. Il est primordial que les différents acteurs de la société, citoyens, entreprises ou régulateurs, puissent avoir confiance dans les décisions qu’elle apporte.

Par Isabelle Budor, Vice President – Data Privacy & Ethics chez Capgemini Invent

Avec des applications telles que la reconnaissance faciale, les voitures autonomes les prédictions fournies par l’IA ont un impact considérable sur les organisations recourant à ces technologies, et sur les individus qui en font l’objet. C’est pourquoi, la nécessité de comprendre ces prédictions est un prérequis indéniable pour instaurer la confiance et pérenniser l’adoption de l’IA. Pour être performants et répondre à des problématiques de plus en plus précises, prenant en compte une multitude de variables de natures souvent différentes les algorithmes d’IA se sont sophistiqués et atteignent un tel niveau de complexité qu’ils dépassent parfois la compréhension des utilisateurs.

Ainsi, les processus leur permettant de transformer une donnée en une prédiction semblent opaques, limitant ainsi notre capacité à comprendre pourquoi et comment ils aboutissent à une décision. Ces algorithmes sont appelés des « boîtes noires ». A l’inverse certains algorithmes « boîtes blanches », comme les régressions linéaires, sont systématiquement compréhensibles mais moins performants.

Améliorer la compréhension des modèles en s’appuyant sur les outils d’explicabilité

L’explicabilité est la solution pour ne pour ne pas avoir à choisir entre performance et confiance, il s’agit de développer des outils en mesure d’améliorer notre compréhension des boîtes noires, et de les transformer en boîtes grises. C’est à dire des algorithmes, certes opaques, mais dont les processus de prise de décisions sont partiellement décomposés et expliqués. Les outils d’explicabilité model-agnostic peuvent être appliqués à n’importe quel modèle d’IA. D’autres, désignés par model-specific, améliorent l’interprétabilité de modèles spécifiques. Les interprétations fournies seront globales, identifiant des critères de prise de décision pour l’ensemble des données, ou locales visant à interpréter un résultat en particulier. Par exemple, LIME, méthode d’explicabilité très populaire, permet d’expliquer localement les interactions entre les variables en appliquant une régression linéaire sur un périmètre réduit de prédictions avoisinant celle à expliquer.

Les informations fournies par ces outils sont précieuses pour les Data Scientists afin d’identifier des leviers d’amélioration de leurs modèles et argumenter leur efficacité auprès des utilisateurs finaux. Néanmoins, elles sont souvent inintelligibles pour ces derniers, qu’ils soient collaborateurs métiers ou clients. Des interfaces doivent ainsi être développées pour rendre les explications faciles d’accès. Leur sophistication dépendra de la complexité du modèle et du type d’utilisateur final, variant d’une simple phrase expliquant les variables ayant impactées la prédiction pour les utilisateurs les plus aguerris, ou un tableau de bord présentant les explications sous forme visuelle pour les utilisateurs métier, peu familiers des algorithmes.

« Le sens critique et l’expertise des utilisateurs sont indispensables pour capitaliser sur les interprétations de ces méthodes »

Ces méthodes peuvent être sensibles à certaines caractéristiques du jeu de données, comme la corrélation. D’autre part, les résultats obtenus par différentes méthodes, appliquées à un même modèle, peuvent diverger, soulevant la question de leur fiabilité. Ainsi, le sens critique et l’expertise des utilisateurs sont indispensables pour capitaliser sur les interprétations de ces méthodes.
Malgré ces limites, les efforts de recherche en explicabilité doivent être maintenus. En effet, en adoptant des modèles explicables, les entreprises peuvent renforcer les expertises de leurs collaborateurs. Par exemple, un algorithme soumettant des pistes de ventes à un commercial aura un meilleur retour sur investissement si ce dernier comprend la proposition et en déduit les bons arguments de vente. Elle est aussi vectrice de confiance auprès des clients et citoyens afin de leur expliquer la pertinence des prédictions quand elles affectent leur vie privée. D’autre part, si l’utilisation de l’intelligence artificielle intervient dans l’automatisation de processus impliquant des conséquences juridiques ou légales, l’explicabilité garantit la traçabilité des facteurs décisifs de chaque prédiction et réduit les risques juridiques et financiers associés. De plus, les questions d’éthique et de confiance de l’IA soulevées par les Régulateurs, à l’instar du récent livre blanc sur l’IA de la Commission Européenne, ne font que renforcer les besoins d’explicabilité, afin de concrétiser les principes de transparence, de robustesse et de contrôle humain.

Le niveau d’explicabilité requis pour un modèle varie donc selon sa finalité.

Ainsi, une analyse de ces enjeux dès la phase de conception d’un cas d’usage permet de déterminer le besoin en explicabilité et de choisir un modèle d’IA pertinent. Ce modèle-là n’est pas forcément le plus sophistiqué, mais bien celui qui offre un équilibre satisfaisant entre performance et explicabilité. Pour insuffler ce type de réflexions au sein de leurs équipes, il convient aux organisations d’associer leurs outils technologiques à des mesures organisationnelles visant à embarquer les collaborateurs grâce une dynamique de sensibilisation et de responsabilisation et à inclure les principes de confiance dans les processus d’analyse de projets dès la phase de conception.

« L’explicabilité démontre que l’IA atteint son plein potentiel quand elle est couplée à l’intelligence humaine, qu’elle augmente sans remplacer. »

L’IA ne pourra continuer son ascension dans notre société sans que les individus qui interagissent avec ces technologies ne soient en mesure de les maîtriser. Au-delà de répondre à une volonté de contrôle de la pertinence et de l’éthique des prédictions, l’explicabilité démontre que l’IA atteint son plein potentiel quand elle est couplée à l’intelligence humaine, qu’elle augmente sans remplacer.

Lisez les témoignages de Bayer et Axa sur l’importance de mettre en place une IA de confiance

L’infographie : Qu’est-ce qu’une intelligence artificielle éthique ?

Articles associés

Intelligence Artificielle

Le secteur public est prêt à se saisir de l’IA !

Date icon 12 juin 2020

Pour réaliser un gouvernement numérique potentialisé grâce à l’IA, il est essentiel de...

Intelligence Artificielle

L’IA au service de la qualité des données, pour des cas d’usage toujours plus innovants

Ramzi Kaak
Date icon 4 novembre 2019

Selon Gartner, près de 70% des entreprises interrogées déclarent que leurs problèmes de...

Intelligence Artificielle

Ouvrir la « black box » : Transparence et explicabilité au cœur de l’intelligence artificielle de confiance

Sébastien Guibert
Date icon 24 octobre 2019

Aborder de manière proactive les questions éthiques dans l’intelligence artificielle...