L’Intelligence Artificielle au service de la Défense

L’IA au service de la défense et de la sécurité

Le domaine de la défense et de la sécurité s’intéresse depuis longtemps aux techniques d’intelligence artificielle sous leurs nombreuses formes : interfaces humain-machine, traitement de l’information, robotique, etc.

Dans les prochaines années, l’utilisation de l’intelligence artificielle sera une nécessité pour assurer les missions de sécurité, conserver l’ascendant face à nos adversaires potentiels, tenir notre rang par rapport aux alliés (aussi bien au sein de coalitions que dans une perspective d’export) et maintenir un niveau de qualité élevé concernant les services dispensés à l’ensemble des personnels des ministères.

Une des différences réside notamment dans le lieu qui représente le théâtre du conflit : extérieur (opérations militaires), intérieur (sécurité intérieure) voire même virtuel (cyberdéfense).

Le domaine est très mature et extrêmement riche en cas d’usage et données à haute valeur ajoutée pour des usages d’IA : imagerie (notamment satellitaire, drones, hyperspectrale), vidéos, signaux électromagnétiques (radars), systèmes de combat, renseignement, cybersécurité, robotique (aéronautique, marine, terrestre), données de maintenance, etc.

La nécessité d’une IA régalienne et ses spécificités

L’IA crée avant tout une opportunité pour améliorer le quotidien de l’ensemble des métiers et des citoyens. Contrairement à certaines idées reçues, les premières applications identifiées relèvent de sujets du quotidien. Parmi les pistes, on peut évoquer : le filtrage des appels d’urgence arrivant aux 17-18-112 pour désaturer, mieux prioriser et cibler ; la gestion de crise par la gestion des interventions et de l’information ; la réduction de l’accidentologie et du nombre de morts sur les routes. La réalisation de ces applications relève de l’intérêt général et en améliorant la qualité du service public et de son exercice.

La cyberdéfense et la cybersécurité évoluent dans ce même contexte de tsunami informationnel et de complexification constante des menaces. Si les moyens d’analyse automatiques permettent jusqu’à présent de détecter des attaques déjà connues, la mise en oeuvre de techniques d’IA permet aujourd’hui d’imaginer des capacités de détecter, parer voire répondre à des attaques qui étaient jusqu’à présent inconnues.

L’IA est également un moyen de protection pour nos forces et pour ceux qui assurent leurs missions au quotidien. on peut citer à titre d’illustration la reconnaissance et la cartographie 3D de bâtiments en zone ennemie, ou encore le déminage (terrestre et maritime notamment) qui pourrait être effectué par des robots. Ces deux exemples montrent que dans certaines applications, il est possible d’utiliser des techniques d’IA pour préserver des êtres humains et limiter le niveau de risque auquel ils sont exposés. Dans le contexte du combat, l’IA permet d’outiller l’échelon de commandement pour faciliter l’accès à l’information et assister ainsi sa prise de décision, C’est enfin un facteur déterminant dans la performance et l’augmentation des systèmes de combat, notamment pour des fonctions support telles que la logistique et de la maintenance.

Quel que soit l’usage, les missions régaliennes nécessitent de prendre en compte certains aspects spécifiques pouvant être contraignants techniquement, notamment dans la conception des systèmes impliquant de l’IA :

  • la sécurité et la protection des systèmes nécessitent d’être particulièrement renforcée et adaptée au contexte d’utilisation. En effet, les conséquences d’attaques en cas de vulnérabilité peuvent être importantes ;
  • la gestion des informations (classifiées à de multiples niveaux, éventuel¬lement judiciaire), la protection du secret et du droit d’en connaître en particulier lorsqu’elles impliquent de grands volumes de données ;
  •  l’interopérabilité avec d’autres systèmes, en particulier dans le cas de coalitions ou d’échanges internationaux ;
  • la répartition géographique des opérations et la multiplicité des modes de déploiements, de l’échelon central en métropole jusqu’aux théâtres d’opérations extérieures, y compris embarqués comme par exemple dans des bateaux ou des systèmes aéronautiques.
  • le besoin de fiabilité (entre humains, entre humains et machines…) et de contrôle accru dans un contexte où l’IA peut trouver sa place dans des applications critique (pilotage par exemple).
  •  enfin, sur ces technologies qui évoluent à grande vitesse, il est impératif pour les techniciens et experts de se tenir au courant par la participation régulière à des forums, conférences, colloques internationaux, bien sûr dans le respect de la confidentialité qui s’impose aux actions les plus sensibles.

L’importance de la dimension opérationnelle a été soulignée pour faciliter l’expérimentation et les développements au plus près des utilisateurs finaux. En effet, celle-ci est cruciale pour faciliter les démarches d’expérimentation, de conception itérative et de déploiement de produits. Pour y parvenir, il faudra permettre des expérimentations opérationnelles sur le terrain ou dans les centres d’essais pour donner vie à un living lab dans l’État.

Donner un sens à l’Intelligence Artificielle

Le rapport du mathématicien et député de l’Essonne Cédric Villani intitulé « Donner un sens à l’intelligence artificielle » a été rendu public le mercredi 28 mars 2018.

L’utilisation des données au cœur de la politique économique

Le rapport de Cédric Villani met en exergue la nécessité du partage des données à l’échelle européenne, ce qui impliquerait notamment une réforme du droit d’auteur pour les rendre plus accessibles à l’analyse. Il souhaite inciter les acteurs économiques à partager leurs données. Des données européennes qui seraient également mieux protégées vis-à-vis de puissances tiers.

La mission souhaite amener les acteurs français du domaine, aussi bien privés que publics, à collaborer et à se fédérer. La qualité des applications pourrait faire l’objet d’une labellisation.

Quatre secteurs de l’économie de l’Intelligence Artificielle ont été jugés comme prioritaires : Mobilité et transports, santé, environnement, défense.

L’intelligence Artificielle pourrait être développée au travers de « plateformes sectorielles de mutualisation » et de « bacs à sable d’innovation ».

Réformer la recherche française

Le rapport Villani propose la création d’instituts 3IA. L’Intelligence Artificielle conjugue en effet plusieurs axes de recherche. Les instituts 3IA seront donc des établissements interdisciplinaires, répartis dans toute la France et coordonnés au niveau national. Le but est de fédérer les acteurs de la recherche et accroître l’offre de formation. L’IA devant traiter des masses de données très importantes, un nouveau supercalculateur verra le jour. Un cloud privé accessible sur forfait au niveau européen complétera ce dispositif. Et pour éviter la fuite des cerveaux, Cédric Villani, préconise de doubler les salaires en début de carrière.

En effet un maître de conférences débutant (bac + 8) et exigence d’excellence, perçoit en France moins de 1800 euros nets par mois et environ 3200€ enfin de carrière après plusieurs dizaines d’années de bons et loyaux services ! En famille, les premières années, il a du mal à boucler ses fins de mois. Des compétences qu’un chercheur peut valoriser à un salaire bien plus important à l’étranger.

Impact sur le travail et l’emploi : Anticiper !

L’intelligence Artificielle va profondément transformer le marché du travail. Le rapport préconise une formation tout au long de la vie pour développer notamment les compétences créatives qui deviennent de plus en plus importantes.

Il convient en effet d’anticiper les effets et préparer la transformation inévitable en favorisant le dialogue social. Les personnes exerçant les métiers les moins qualifiés ou du moins les plus sujets à automatisation, doivent être formées tout au long de leur vie.  

Pour une IA plus écologique

Le rapport préconise la création d’une plateforme mesurant l’impact environnemental des équipements numériques intelligents. Cédric Villani affirme : « D’ici 2040, les besoins en espace de stockage mondial, corrélés au développement du numérique et de l’IA, risquent d’excéder la production disponible globale de silicium ». La solution ? Une politique d’innovation « de rupture » dans le domaine des semi-conducteurs afin de les rendre moins gourmands en silicium. Un label permettrait de valoriser les solutions les plus écologiques.

Le rapport préconise de rendre accessibles d’ici fin 2019 dans le cadre de l’Open Data les données touchant à l’agriculture, la météo, l’énergie, les transports, la biodiversité, le climat, la gestion des déchets, le cadastre ou encore la performance énergétique. Certaines données privées pourraient également entrer dans le cadre de cette ouverture.

Définir une éthique

L’IA est fondée sur le Deep Learning. Ce sont des algorithmes complexes d’apprentissage automatique qui conduit la machine à prendre des décisions de façon autonome. Il est éventuellement préoccupant d’avoir une boite noire qui agit à notre place, sans savoir ce qu’il y a dedans ! Il faut donc pouvoir expliquer et détailler les algorithmes d’apprentissage automatique, d’une part et contrôler l’utilisation de certaines données d’autre part.

Il peut s’agir par exemple des données personnelles ou encore génétiques d’un grand nombre de personnes. Le rapport Villani propose la création d’un corps d’experts qui auront capacité à saisir la justice et l’administration. Une garantie indispensable pour le respect de nos libertés et la création d’une IA éthique et citoyenne. Le rapport préconise en outre la création d’un comité d’éthique des technologies numériques, dont les décisions et avis feraient jurisprudence.

C’est pour toutes ces raisons également il faudra enseigner l’éthique aux jeunes ingénieurs. Elle est quasiment absente des enseignements aujourd’hui !

Pour une IA inclusive et diverse

Pourquoi inclusive ? Parce que le constat est clair, l’Intelligence Artificielle, est aujourd’hui beaucoup plus une affaire d’hommes que de femmes. Non seulement cela pose un problème en termes d’égalité, mais également en termes de vision du monde. En effet, l’IA doit conduire à terme à proposer une certaine modélisation du monde. Un monde d’hommes ? A terme, la présence de biais cognitifs essentiellement masculins dans les algorithmes pourrait poser problème.

D’où plusieurs initiatives :

  1. Une politique incitative pour la mixité. Cédric Villani propose un seuil de 40% d’étudiantes dans les filières d’enseignement du numérique d’ici 2025
  2. Des financements pour soutenir la diversité dans l’IA.
  3. Une base de données nationale pour « objectiver les inégalités entre les femmes et les hommes ». Elle permettrait la mise en œuvre d’actions en faveur de la diversité dans les entreprises du numérique.