Inscrivez-vous maintenant ! Les places sont limitées…

L’intelligence artificielle pour augmenter l’être humain

L’intelligence artificielle revient au-devant de la scène et déclenche à nouveau les passions et les plus folles anticipations. Elle est notamment le résultat d’un travail long de quelques chercheurs internationaux (citons G. Hinton, Y. Lecun, Y. Bengio) mis en valeur par les purs players d’Internet tels Google, Facebook, Amazon, Apple et Microsoft pour résoudre des problèmes complexes. En réalité, ce chemin a démarré très tôt pour Google ou Amazon qui ont investi continument et surveillé le seuil de rentabilité de ces technologies (rapport usage / coût). Trois facteurs principaux ont permis cette émergence : des algorithmes plus stables et plus performants grâce à la recherche, l’augmentation de la puissance de calcul grâce à l’innovation sur le hardware et au cloud et enfin, la disponibilité en masse des données grâce au partage sur Internet et à la digitalisation de l’activité. Ce mouvement se renforce naturellement avec la digitalisation des entreprises.

Avec la masse de données que l’on sait traiter aujourd’hui, l’intelligence artificielle peut adresser des processus qu’il n’était pas possible de traiter auparavant. Les médias parlent de capacité à prendre des décisions à la place de l’Homme voir de le remplacer. Cela génère des craintes autant sur des emplois remplacés par l’intelligence artificielle que des aspects éthiques sur le bon ou mauvais choix opéré par une machine. Certaines personnes reconnues craignent ouvertement l’arrivée d’armes autonomes. Pour autant, écarter l’intelligence artificielle va naturellement impliquer de ne plus être compétitif.

La valorisation de la donnée devient un moteur essentiel pour les entreprises et l’intelligence artificielle emboîte le pas au Big data pour offrir de nouveaux moyens d’exploiter et de valoriser la donnée.

Parmi ses opportunités on trouve toutes les activités qui n’ont pas aujourd’hui de formulation théorique, de règles opérationnelles structurées ou qui s’effectuent dans un contexte bruité, complexe. L’algorithmique traditionnelle a, dans ces cas, des difficultés à s’adapter et à fournir des résultats exploitables. Par exemple, quel est le produit qui va le plus motiver un client à l’ajouter à son panier ? Comment saisir un objet le plus rapidement possible ? Ce sont des questions ouvertes, sans forcément de réponse formelle. Les processus traditionnels, à base de règles, ne vont pas faciliter cette découverte ou sa maîtrise. De là en découlent deux approches. Celle, classique, se résume à faire de l’analyse et à comprendre pour produire un modèle. L’autre, novatrice, consiste simplement à exploiter l’information pour en tirer un usage. Grâce à l’intelligence artificielle, il est possible de modéliser ce comportement qui évolue et dépend de l’utilisateur et d’en tirer une classification, une recommandation qui peut être une action. L’approche n’est plus algorithmique, mais comportementale.  Il n’est plus obligatoire de maîtriser formellement un sujet pour aboutir à un résultat, mais de maîtriser la question, le modèle d’usage et l’information nécessaire pour obtenir un résultat utile. Le travail porte plus sur les données elles-mêmes, leur processus de production sans biais, le formatage et l’exploitation du modèle de sortie plutôt que sur l’algorithmique.

Ce nouveau paradigme complète le Big data, qui lui agrège et traite les données en masse, en apportant des fonctions de reconnaissance, de classification, de raisonnement, et d’action. Par exemple, des algorithmes de clusterisation fabriquent des groupes juste à partir des données brutes, sans faire appel à de la sémantique, contrairement à l’approche marketing traditionnelle. On regroupe des individus parce qu’ils sont similaires dans leur comportement et leurs caractéristiques et non parce qu’on imagine le comportement social d’un CSP+ par exemple. L’IA permet dans ce cas de fabriquer un nouveau vocabulaire à partir des comportements. Mais l’IA va plus loin en apportant l’interactif, elle permet de reconnaître des formes complexes dynamiques et de réagir en temps réel. Elle prend ainsi une forme d’autonomie.

Cette autonomie n’est pas sans effrayer : l’intelligence artificielle va-t-elle remplacer l’homme ? Je pense plutôt qu’elle va l’augmenter. Certes, sur certains métiers, dans le secteur de la logistique par exemple les robots prennent plus de place et on peut penser que l’IA va remplacer progressivement certains emplois tout comme la mécanique à l’époque industrielle. Mais ce sont surtout les métiers qui vont changer.  En se basant sur la radiographie, les réseaux neuronaux sont capables de prédire certains cas de cancers de façon plus précise qu’un spécialiste. C’est une réalité. Est-ce à dire que le praticien va disparaître ? Non, il sera toujours nécessaire pour prendre du recul sur l’analyse, prodiguer des conseils, rassurer et orienter les personnes… Dans de nombreux métiers, le volet social va prendre plus d’importance parce que l’analyse « mécanique » sera aidée, simplifiée par la machine.

Cette autonomie s’oppose-t-elle au contrôle ? Là encore, non, au contraire. La plupart des cas d’autonomie ne posent pas de problème, car ils sont contrôlés par l’humain ; on peut répéter l’adage : la délégation n’exclut pas le contrôle. Comme pour la mécanique en son temps, on confie une tâche sur un espace délimité et contrôlé. Cet espace s’étend aujourd’hui sur une part nouvelle de cognitif. Pour être validé, ce système doit faire la preuve de son bon fonctionnement. Impossible de laisser une machine travailler toute seule, sans contrôle. Elle sait se stabiliser aujourd’hui pour donner le bon fonctionnement, mais il n’y a pas d’explication : elle n’est qu’un moyen. Un des facteurs de généralisation de ces technologies sera l’intégration d’une législation spécifique intégrant la preuve de bon fonctionnement.  L’autonomie est également une capacité qui s’acquiert par l’expérience dans le contexte. On ne pourra laisser une machine être autonome que si elle a fait ses preuves, et qu’il est possible de lui faire confiance pour certaines tâches et dans un certain contexte. Cela demande expérimentation et travail dans l’entreprise pour décider du niveau d’automatisation à donner.

L’IA va-t-il finalement bouleverser tout le système d’information de l’entreprise ? On peut se poser la question prospective de savoir ce qu’on laisse à l’informatique traditionnelle, avec des algorithmes, et ce qu’on réalise sans ces algorithmes. De nombreux processus pourraient être traités à moyen terme grâce à l’IA, car elle paraît beaucoup plus efficace. La vraie difficulté aujourd’hui est paradoxalement le manque de données. Remplacer un programme complet de style ERP dans une entreprise nécessite un apprentissage énorme. Le volume des exemples est aujourd’hui fondamental pour que l’IA puisse fonctionner. C’est la limite : plus l’IA a besoin de données, moins les use cases sont nombreux. Le processus de digitalisation des entreprises est de ce fait un accélérateur majeur de l’IA ainsi que le Cloud qui massifie l’expérience sur des solutions en ligne. L’IA fait actuellement des recherches intensives pour réduire cette dépendance.

Parce que l’IA nécessite un apprentissage contextuel, l’entreprise doit s’attaquer à l’expérimentation sur son domaine d’abord sur de petits sujets et continuer l’expérimentation sur les données. L’IA va permettre d’améliorer les processus sur lesquels les approches traditionnelles ne suffisent pas, parce qu’elles ne sont plus capables de générer des règles ou de les contextualiser systématiquement. L’IA va apporter de nouvelles possibilités d’interaction ou d’analyse automatique qu’il faut découvrir. Il faut donc changer l’angle d’analyse et s’intéresser à toutes les sources possibles de données, nouvelles pour une part, pour devenir objectif par les données. Le chemin à parcourir est long et les métiers vont évoluer naturellement avec les approches agiles d’exploration et de généralisation rapides de ces technologies.

Guillaume Leroy, Lead Architecte