Passer au contenu

Cybersécurité et IA : un nouvel horizon pour la défense

Vincent Laurens, Jérôme Desbonnet
23 juin 2025

L’IA bouleverse tous les aspects du domaine militaire, du centre de commandement au théâtre des opérations, des fonctions de soutien aux systèmes de combat. Pour les forces armées, elle est un formidable atout, leur permettant de se préparer et d’agir avec davantage d’anticipation, de précision et d’efficacité, mais elle est aussi une redoutable menace, car elle démultiplie dans les mêmes proportions les capacités de l’adversaire.

De la désinformation au sabotage des infrastructures en passant par l’usage massif des drones, les conflits en cours révèlent la place prépondérante qu’elle occupe désormais. Dans un contexte géopolitique particulièrement tendu et incertain, et face à des acteurs de plus en plus désinhibés, le monde de la défense doit absolument faire de la cybersécurité de, et par, l’IA une priorité absolue.

La sécurisation des systèmes d’IA comporte deux volets complémentaires :

  • Développer des solutions nativement sécurisées : Pour éviter que l’on puisse exfiltrer ou polluer les données d’un système d’IA, le paralyser ou s’y introduire pour en prendre le contrôle, il est impératif d’en envisager la sécurité dès l’origine, c’est-à-dire dès la conception des algorithmes et de l’application qui va les intégrer. On s’appuiera pour cela sur les bonnes pratiques usuelles de la sécurité by design, auxquelles s’ajoutera une dimension spécifique d’éthique by design afin de maintenir la solution et ses réponses dans le cadre des valeurs de l’institution.
  • Protéger les actifs lorsque les systèmes sont utilisés : En plus de protéger les systèmes d’IA contre les attaques extérieures, il faut aussi éviter que leur utilisation elle-même – maladroite ou malveillante – ne puisse avoir des conséquences dommageables. Pour éviter les décisions erronées ou la divulgation d’informations sensibles, on mettra en place des garde-fous automatisés et humains, et l’on veillera tout particulièrement à la qualité des données d’entraînement et d’analyse (RAG) pour minimiser les biais et les hallucinations.

La puissance de l’IA peut par ailleurs être mise au service de la cybersécurité, là aussi de deux manières :

  • Prendre de meilleures décisions : Dans la masse des données de toutes natures que collectent les organismes de défense, l’IA est capable de repérer des signaux faibles, des schémas révélateurs d’une attaque, d’en identifier et d’en localiser avec précision l’origine, de fournir aux personnels une information claire et complète, d’automatiser les réponses… Ces capacités bénéficient à la cybersécurité de même qu’à tous les enjeux de la défense dans le monde physique : communication et renseignement, systèmes opérationnels, génie, logistique, MCO…
  • Contrecarrer des activités malveillantes employant elle-même l’IA : Les acteurs malveillants mettent eux aussi à profit l’IA pour développer des attaques toujours plus sophistiquées, et seule l’IA est parfois capable de les contrer. Elle peut, par exemple, identifier à la volée les deepfakes et les messages de phishing, ou encore lutter contre les malwares polymorphes.

L’urgence est de se renforcer sur ces quatre aspects fondamentaux. Cependant, ces enjeux immédiats ne doivent pas occulter les conséquences à plus long terme de l’IA, dont il faut aussi tenir compte terme dans l’élaboration des stratégies, des capacités et des systèmes futurs. En ce qui concerne la cybersécurité, deux sujets doivent dès à présent entrer dans les réflexions :

  • La perte de compétences : Bien que les taux d’hallucinations restent élevés (et même augmentent selon certaines observations), la confiance des utilisateurs envers l’IA s’accroît à mesure qu’elle s’installe dans leur quotidien. Il pourrait s’ensuivre une déperdition des savoirs qu’ils sont de plus en plus enclins à déléguer à la machine. L’exemple de l’industrie nucléaire montre que l’attrition des compétences peut être très rapide. Manquera-t-on bientôt d’experts pour valider les résultats des systèmes d’IA ou prendre les décisions finales ? La défense ne peut ignorer cette question cruciale.
  • L’émergence de l’IA agentique : Alors que les capacités des LLM pourraient à terme plafonner faute de données d’apprentissage en quantité, en qualité et en originalité suffisantes, les IA dites « agentiques » – des systèmes spécialisés, fermés, entraînés sur des corpus restreints, et capables d’accomplir seuls des tâches complexes comme coordonner le vol d’un essaim de drones – offrent des perspectives très prometteuses. Cependant, ces IA agentiques poseront des défis de sécurité inédits. Il faudra par exemple intégrer les agents aux systèmes d’authentification et d’habilitation, sécuriser leurs interconnexions… Pour l’heure, il n’existe pas encore de standards en la matière, et encore moins de niveau défense, mais des travaux sont en cours.

Que ce soit en tant que cible, menace ou parade, l’IA repousse les frontières de la cybersécurité avec, aux côtés de problématiques des plus classiques, des enjeux d’une nature ou d’une magnitude inédite. Pour le monde de la défense, il s’agit d’un défi majeur et vital. Pour le relever, il lui faut se doter d’une doctrine et d’une stratégie, de compétences et de ressources technologiques, et d’instruments de veille, d’analyse et d’innovation pour rester au contact d’évolutions extrêmement rapides. Et tout cela sans perdre un instant.

Auteurs

Vincent Laurens

Directeur du développement Cyber pour la région Europe du Sud, Capgemini
Vincent a débuté sa carrière en sécurité informatique dans les années 90, travaillant avec diverses organisations, y compris des services de renseignement et des industries spécialisées. En 2013, Vincent a rejoint Sogeti au Luxembourg, puis est devenu vice-président mondial de la cybersécurité en 2018. Depuis 2022, Vincent est vice-président et stratège mondial de la sécurité chez Devo, et en 2024, il a rejoint Capgemini pour diriger la cybersécurité dans la région SCE. Depuis 2019, il est également administrateur non exécutif pour plusieurs start-ups technologiques et conseille des dirigeants et des conseils d’administration en cybersécurité.

Jérôme Desbonnet

VP – Cybersecurity CTIO – Chief cybersecurity Architect CIS GBL's, Capgemini
En tant que VP, Cybersecurity CTIO, Jérôme crée des modèles d’architecture de sécurité. Jérôme planifie et exécute d’importants programmes de sécurité afin de garantir que les clients de Capgemini sont bien protégés.

    Pour aller plus loin

      Cybersécurité

      Accélérez la transformation de votre entreprise avec une cybersécurité en laquelle vous pouvez avoir confiance.

      Aéronautique et défense

      Capgemini réunit les capacités nécessaires pour réimaginer la façon dont les leaders de l’aéronautique et de la défense conçoivent, fabriquent e