Lire l'article All ArticlesAnalyses

IA, Défense, Souveraineté : ce que nous apprend le PDSF 2026

Retour sur une table ronde qui a réuni industriels, chercheurs et représentants institutionnels autour des enjeux de l'intelligence artificielle dans le domaine de la défense.

Odysseus Defense Partners·8 min de lecture

Introduction : quand l'IA entre en doctrine

Le Forum de Paris pour la Défense et la Stratégie (PDSF 2026) a réuni, autour de Jean Peeters (Institut des hautes études de défense nationale – IHEDN), six personnalités qui incarnent la diversité des acteurs désormais engagés dans la transformation IA de la défense : Patrick Aufort (Agence de l'innovation de défense), Eric Papin (Naval Group), Julien Bzowski (Safran.AI, ex-Preligens), Karl Neuberger (Capgemini Invent), Bruno Carron (Airbus) et Stéphan Clémençon (Télécom Paris).

Grands maîtres d'œuvre, champions industriels, acteurs issus du monde civil reconvertis au secteur défense, académiciens spécialisés en apprentissage machine : la pluralité des regards était représentative d'un écosystème en pleine recomposition.

Ce qui ressort de leurs échanges dépasse le simple état des lieux technologique. La question posée est en réalité plus profonde : l'IA de défense est-elle un outil parmi d'autres, ou le révélateur d'une transformation systémique qui oblige à repenser doctrines, architectures industrielles, souveraineté et rapport à la décision humaine ?


1. Un marché en forte croissance, un écosystème qui se recompose

Depuis deux ans, le marché de l'IA de défense a connu une accélération marquée. Les grands industriels — Naval Group, Airbus, Safran, entre autres — ont créé des entités dédiées, structurant en interne des compétences qui relevaient jusqu'ici de la recherche ou de la prestation externe. Parallèlement, des startups et des acteurs issus du monde civil ont fait leur entrée dans l'écosystème, apportant avec eux une culture produit, des cycles d'itération courts et une appétence pour l'expérimentation.

Cette double dynamique — institutionnalisation chez les grands groupes, ouverture à des acteurs agiles — redessine les équilibres. Elle soulève aussi une question centrale pour les donneurs d'ordres : comment intégrer ces capacités nouvelles dans des organisations et des processus d'acquisition conçus pour un autre rythme ?


2. L'IA comme multiplicateur de forces : où et pourquoi ça change tout

L'IA n'est pas un outil universellement pertinent. La table ronde a permis d'identifier les conditions dans lesquelles elle devient véritablement un multiplicateur de forces :

  • Des données abondantes — l'IA s'appuie sur des volumes que l'humain seul ne peut traiter
  • Une production massive d'informations hétérogènes à analyser en temps contraint
  • Une compréhension difficile — des signaux faibles, des corrélations non intuitives
  • Une temporalité critique — là où la vitesse de traitement fait la différence opérationnelle

Dans ces conditions, deux transformations profondes sont à l'œuvre. La première est le passage du raisonnement en silo vers une fusion multidomaine : croiser des données terrestres, aériennes, électromagnétiques et cyber en temps réel pour produire une image de situation cohérente. La seconde est le passage du temps différé au temps réel : non plus analyser après coup, mais agir dans la fenêtre d'opportunité.


3. Plus de 400 cas d'usage recensés par la DGA : applications de combat et de soutien

La Direction générale de l'armement recense aujourd'hui plus de 400 cas d'usage de l'IA dans le domaine défense. Ils s'organisent en grandes familles :

  • Traitement de flux de renseignement hétérogènes (imagerie satellitaire, signaux électromagnétiques, données OSINT)
  • Capteurs intelligents intégrant du traitement embarqué
  • Navigation autonome pour les drones et systèmes non-habités
  • Aide à la décision pour les états-majors
  • Maintenance prédictive des équipements

Ce qui frappe dans ce panorama, c'est la maturité croissante des applications logistiques et de soutien. Moins visibles que les systèmes de combat, elles sont tout aussi déterminantes : l'optimisation des chaînes d'approvisionnement, la gestion des pièces de rechange, la prédiction des pannes — autant de domaines où l'IA produit des gains opérationnels mesurables et immédiats.


4. L'IA de confiance : supervision humaine et robustesse adversariale

Une IA de défense n'évolue pas dans un environnement neutre. Elle opère face à un adversaire qui cherche activement à la faire échouer. Cela pose des exigences radicalement différentes des systèmes civils :

  • Contamination des données d'entraînement par injection de données corrompues
  • Attaques adversariales conçues pour tromper les modèles de perception
  • Brouillage et leurrage des capteurs sur lesquels s'appuient les systèmes autonomes

À cela s'ajoute un paradoxe bien connu des praticiens : plus un modèle est performant, moins il est compréhensible. L'explicabilité (la capacité à rendre compte des décisions d'un système d'IA) reste un défi non résolu, particulièrement dans les architectures deep learning de pointe.

Ces deux contraintes, robustesse et explicabilité, fondent l'exigence de supervision humaine dans les systèmes d'IA de défense. Non comme une contrainte réglementaire, mais comme une nécessité opérationnelle et éthique. La question n'est pas "faut-il un humain dans la boucle ?" mais "quel rôle exact doit-il y jouer, et comment l'outiller pour qu'il soit réellement en mesure d'exercer ce rôle ?"


5. La souveraineté en cercles : entre autonomie stratégique et dépendances consenties

La table ronde a tranché sur un point souvent débattu : la souveraineté ne se conçoit pas comme une quête d'autonomie totale. En repartant de la réflexion de Jensen Huang des "cinq couches d'IA" (applications, modèles, infrastructure, puces et énergie), s'est dégagée une réflexion sur la souveraineté pensée en cercles concentriques :

  • Un cœur souverain en maîtrise nationale : les algorithmes critiques, les modèles entraînés sur données sensibles, les architectures de commandement
  • Une couche intermédiaire en dépendance consentie dans un cadre européen : partage de capacités de calcul, mutualisation de certains outils de développement
  • Une périphérie sur étagère : composants génériques pour lesquels la dépendance est acceptable car substituable

Cette structuration impose des choix politiques et industriels clairs. Elle suppose de savoir ce que l'on veut vraiment maîtriser et d'assumer les coûts de cette maîtrise.


6. La dépendance aux GPU américains : une fragilité structurelle

La dépendance aux processeurs graphiques (GPU) de fabrication américaine pour les systèmes déployés sur le terrain est identifiée comme une fragilité fondamentale. Dans un contexte de tensions géopolitiques et de contrôles à l'export, la disponibilité de ces composants en opération extérieure ou en temps de crise n'est pas garantie.

S'y ajoute la question des données : les informations classifiées ou sensibles ne peuvent transiter par des architectures cloud génériques. La réponse émergente, défendue lors de la table ronde, est une architecture en couches :

  • Des modèles génériques pré-entraînés sur données ouvertes
  • Un entraînement spécifique réalisé dans des environnements souverains sur données opérationnelles
  • Des clouds de confiance gradués selon les niveaux de classification, depuis les données non-sensibles jusqu'au secret défense

Cette approche permet de bénéficier de la puissance des fondations ouvertes tout en préservant la confidentialité des actifs stratégiques.


7. L'IA de défense comme système socio-technique

Il serait réducteur de traiter l'IA de défense comme une question purement technologique. La table ronde a convergé vers une vision plus complète : l'IA de défense est un système socio-technique qui engage simultanément :

  • Des choix industriels : quels acteurs, quelles architectures, quels modèles de partenariat ?
  • Des doctrines d'emploi : comment intégrer l'IA dans les chaînes de commandement, les règles d'engagement, les procédures opérationnelles ?
  • Des architectures de données : comment collecter, qualifier, sécuriser et valoriser les données opérationnelles ?
  • Des enjeux de formation : comment préparer les opérateurs, les officiers et les décideurs à travailler avec des systèmes d'IA ?
  • Des défis d'attractivité pour les talents : comment le secteur défense peut-il attirer et retenir des ingénieurs et data scientists face à la concurrence du secteur privé ?
  • Une vision politique de ce que l'Europe veut maîtriser sur le long terme

Aucune de ces dimensions ne peut être traitée isolément. C'est leur cohérence d'ensemble qui déterminera la qualité — et la robustesse — des systèmes produits.


Conclusion : pourquoi la pensée Lean Tech est incroyablement bien placée pour relever ces défis

Face à la complexité de ces enjeux, notre conviction chez Odysseus Defense Partners est que la pensée Lean Tech offre un cadre de réflexion et de fabrication particulièrement adapté aux systèmes d'IA de défense. Pas comme une méthode parmi d'autres, mais comme une philosophie d'action alignée avec les contraintes spécifiques de ce domaine.

Premièrement, le Lean Tech place la réflexion sur la valeur et les usages au cœur du processus. Avant d'écrire la première ligne de code ou d'entraîner le premier modèle, il s'agit de définir avec précision ce que le système doit accomplir pour l'opérateur, dans quelle situation, avec quelles contraintes. Dans un domaine où les cas d'usage sont nombreux et les ressources limitées, cette discipline évite de construire des capacités techniquement impressionnantes mais opérationnellement inutiles.

Deuxièmement, les boucles d'apprentissage courtes et intenses sont structurellement adaptées à l'incertitude opérationnelle. L'IA de défense évolue dans des environnements non-coopératifs, face à des adversaires qui s'adaptent. Dans ce contexte, construire sur des cycles longs, c'est livrer des systèmes déjà obsolètes. Les boucles itératives du Lean Tech permettent au contraire de confronter tôt les hypothèses à la réalité, d'ajuster les modèles aux données réelles, et d'intégrer le retour des utilisateurs finaux avant que les erreurs de conception ne soient irrattrapables.

Troisièmement, la cartographie des flux et l'analyse des défauts permettent de révéler les gaspillages systémiques. Dans des chaînes de traitement complexes, de la collecte de données brutes jusqu'à la décision opérationnelle, les goulots d'étranglement, les redondances et les étapes sans valeur ajoutée sont légion. La démarche Lean, appliquée aux flux d'information et aux pipelines d'IA, permet d'identifier ces défauts structurels et de construire des systèmes réellement fluides plutôt qu'apparemment sophistiqués.

Quatrièmement, et peut-être surtout, le Lean Tech pense l'humain comme maître du système et pas seulement comme superviseur "dans la boucle". Cette nuance est fondamentale. Un superviseur "dans la boucle" peut valider ou refuser une décision proposée par une machine, mais il reste passif, tributaire de ce que le système lui présente. Un humain maître du système comprend les hypothèses sur lesquelles repose le modèle, identifie ses conditions de défaillance, sait quand ne pas lui faire confiance, et peut intervenir de façon proactive. Il définit le contexte dans lequel le modèle va opérer. Former cet opérateur-là, concevoir les interfaces qui lui donnent une vraie visibilité sur le comportement du système, structurer les processus qui lui permettent d'exercer un jugement éclairé : c'est un programme de travail considérable. C'est exactement ce que le Lean Tech permet de formaliser et d'opérationnaliser.

IAsouverainetéLean Tech

Work With Us

Want to discuss your defence strategy?

Odysseus Defense Partners provides strategic advisory, funding support, and go-to-market acceleration for European defence startups and institutional stakeholders.

Get in Touch