Fake news, manipulation algorithmique et désinformation : Cybersécurité et guerre hybride dans un monde en mutation

Par Marianne Dabbadie, chercheuse associée au Laboratoire LHUMAIN – Université Paul Valéry – Montpellier

Résumé (Abstract)

Dans un contexte de transformation accélérée des conflictualités, cet article examine les liens étroits entre cybersécurité, guerre hybride et enjeux éthiques, à partir de données empiriques récentes et d’analyses institutionnelles. Il montre que le cyberespace est devenu un champ stratégique majeur, au croisement des intérêts géopolitiques, économiques et sociétaux. L’étude s’appuie notamment sur le rapport Cloudflare (2024) et les interventions de l’ANSSI[1] pour démontrer la fragilité structurelle de l’Europe numérique, ainsi que l’inadéquation des réponses organisationnelles à l’ampleur des menaces.

La directive européenne NIS 2 est analysée comme un instrument de souveraineté numérique, appelant une gouvernance plus intégrée et proactive. L’intelligence artificielle y est identifiée comme facteur d’accélération et de sophistication des attaques. Par ailleurs, l’article propose une lecture approfondie de la guerre hybride dans sa dimension cognitive, insistant sur la nécessité d’un renforcement des compétences critiques face aux techniques de manipulation informationnelle.

L’ensemble de l’analyse conduit à une conclusion stratégique : seule une réponse collective, unifiée et rigoureusement mise en œuvre au sein de l’Union européenne peut constituer un rempart efficace face à la montée des menaces hybrides. L’éducation à la sécurité numérique, la cohérence réglementaire et la responsabilité politique sont présentées comme les conditions nécessaires à la résilience démocratique dans un environnement de plus en plus instable.

 

Fake news, manipulation algorithmique et désinformation : Cybersécurité et guerre hybride dans un monde en mutation

Dans le contexte actuel de fragilisation des démocraties libérales, la montée en puissance des pratiques de désinformation, des manipulations algorithmiques et des fausses nouvelles interroge la capacité des États à préserver l’intégrité de l’espace public. Le cyberespace devient un terrain stratégique où s’expriment des tensions géopolitiques diffuses, souvent dissimulées derrière des dispositifs techniques.

Les thématiques relatives à l’éthique, à la cybersécurité et à la guerre hybride ne peuvent être abordées isolément tant elles s’entrelacent. Leur articulation permet de mieux appréhender la nature composite des menaces contemporaines. Dans une phase historique marquée par l’instabilité – qu’elle soit institutionnelle, technique ou géostratégique -, la guerre hybride s’insinue dans les interstices de la gouvernance numérique, façonnant perceptions et comportements. Cette interpénétration justifie une approche intégrée où l’éthique devient un garde-fou, la cybersécurité un impératif structurel, et la guerre cognitive un phénomène stratégique à nommer.

L’éthique numérique comme impératif européen

L’enquête conduite par Cloudflare en 2024[2] met en évidence une vulnérabilité structurelle préoccupante de l’espace numérique européen. La fréquence des cyberattaques ne peut plus être considérée comme un phénomène marginal : 72 % des organisations ont déclaré avoir été visées au cours des deux dernières années, et 43 % d’entre elles ont subi plus de dix incidents en un an. Ces chiffres démontrent une intensification de la menace, devenue permanente.

Malgré cette recrudescence, seuls 29 % des répondants estiment leur structure adéquatement préparée. Ce décalage manifeste entre la réalité opérationnelle et le niveau de préparation institutionnelle soulève des enjeux éthiques majeurs. L’inertie ou l’impréparation ne peuvent être justifiées. Elles engagent la responsabilité des acteurs, notamment dans les secteurs critiques tels que la santé, les transports ou l’éducation.

Le rapport pointe également une faille inquiétante : 86 % des décideurs ne maîtrisent pas le principe de Zero Trust, pourtant central dans les stratégies de sécurité modernes. Ce déficit de connaissance technique induit un coût élevé, aussi bien en termes financiers – avec des pertes dépassant 1,88 million d’euros pour 25 % des victimes – que sociaux – 19 % des organisations ont dû procéder à des suppressions de poste -, et démocratiques – avec une compromission des données personnelles dans près de la moitié des cas recensés.

Les petites et moyennes structures apparaissent particulièrement exposées : moins d’un quart d’entre elles se considèrent comme suffisamment protégées. Pourtant, elles constituent le socle de l’activité locale, de l’innovation, et de la vie sociale. Cette asymétrie d’accès à la cybersécurité contribue à accentuer les inégalités structurelles en matière de résilience numérique.

On assiste ainsi à l’émergence silencieuse d’un fossé défensif. Les grandes entreprises concentrent les compétences et les ressources, tandis que les plus petites improvisent leur sécurité. Ce déséquilibre se manifeste de manière aiguë dans certains États membres comme l’Italie, l’Allemagne ou la Tchéquie. À cela s’ajoute une fragmentation technologique : près de la moitié des entités gèrent plus de onze outils de sécurité distincts, souvent sans cohérence stratégique.

Ce phénomène traduit une perte de maîtrise politique. Lorsque la gestion de la sécurité est entièrement déléguée, elle se vide de son sens stratégique. Cette dilution des responsabilités génère un affaiblissement généralisé, visible dans les délais de remédiation : 40 % des organisations subissent des interruptions de service de plus de six heures lors d’un incident majeur.

Pour autant, certains États démontrent qu’un autre modèle est possible[3]. La Pologne ou l’Espagne investissent dans la formation, la modernisation des infrastructures et la structuration des réponses. Ces initiatives témoignent d’une volonté politique forte et d’une compréhension systémique du problème.

Derrière les chiffres se dessine une crise profonde de la responsabilité. Les acteurs économiques tardent à reconnaître la cybersécurité comme un enjeu de bien commun. Les autorités politiques peinent à imposer une culture de la prévention. La société dans son ensemble reste vulnérable, faute d’un partage équitable des moyens de protection.

Ce que l’intelligence artificielle révèle, ce que la directive NIS 2 impose

À l’occasion de la 19e université des délégués à la protection des données (DPO), le général Emmanuel Naëgelen, directeur général adjoint de l’ANSSI, a souligné avec clarté les dynamiques contemporaines de la menace cyber. Son propos s’inscrit dans une perspective institutionnelle où la gestion de la donnée devient un enjeu fondamental de souveraineté. Les données ne constituent plus de simples actifs opérationnels, mais bien des ressources stratégiques convoitées à la fois par des acteurs économiques, politiques et criminels. Leur protection exige une approche équilibrée, respectueuse à la fois du Règlement général sur la protection des données (RGPD) et des impératifs de sécurité.

Dans ce contexte, la directive européenne NIS 2[4], entrée en vigueur en 2023, marque un tournant normatif. Héritière de la directive NIS 1, elle élargit considérablement son champ d’application en intégrant de nouveaux secteurs critiques, en renforçant la coopération entre États membres, et en structurant la réponse aux crises à travers le réseau CyCLONe. L’architecture qu’elle propose ne relève pas uniquement de la technicité réglementaire : elle reflète une volonté politique de structuration défensive à l’échelle de l’Union[5].

La directive ne se limite pas à formuler des exigences de conformité. Elle impose aux entités publiques et privées une reconfiguration de leurs priorités organisationnelles. La sécurité n’est plus périphérique : elle devient centrale. Cette exigence s’explique d’autant plus par l’évolution rapide des menaces, notamment liées à l’usage croissant de l’intelligence artificielle dans les opérations hostiles.

Selon les observations de l’ANSSI, l’intelligence artificielle constitue un multiplicateur de menaces. Elle permet d’automatiser les cyberattaques, d’en accélérer la cadence, de diversifier les vecteurs d’intrusion, et de complexifier la détection des signaux faibles. Ces capacités opérationnelles, mises au service d’acteurs malveillants, confèrent à l’IA une fonction de levier stratégique dans le champ cyberconflituel.

Face à cette transformation, les dispositifs traditionnels de protection apparaissent inadaptés. La réponse doit s’appuyer sur une logique de pragmatisme : une évaluation continue des vulnérabilités, l’adaptation constante des protocoles, la formation des personnels, et une mise en conformité active avec le RGPD et la directive NIS 2. Cette évolution implique également une gouvernance de l’intelligence artificielle qui garantisse la traçabilité des algorithmes, l’auditabilité des processus et le maintien d’un contrôle humain sur les décisions automatisées.

L’exploitation des grands événements internationaux comme vecteurs d’attaque – à l’instar des Jeux olympiques de Paris 2024 – illustre la manière dont les cyberattaquants mobilisent les moments de visibilité maximale pour mener des actions d’infiltration. La concomitance entre vulnérabilité logistique et exposition médiatique constitue un facteur d’attractivité stratégique pour les groupes malveillants.

Ce corpus de constats convergents met en lumière une transformation majeure : la cybersécurité ne peut plus être réduite à une sous-discipline technique. Elle est devenue une question de gouvernance, de souveraineté et de résilience démocratique. Sa prise en compte appelle un engagement durable des acteurs publics et privés autour de principes communs, de normes partagées et d’une vigilance institutionnalisée.

La guerre hybride et la reconfiguration cognitive du conflit

La notion de guerre hybride, aujourd’hui mobilisée dans de nombreux travaux en sciences politiques et relations internationales, désigne un mode d’action composite combinant des moyens conventionnels – tels que les forces armées – et non conventionnels – comme les cyberattaques, la désinformation, la coercition économique ou encore le soutien à des groupes armés irréguliers. Cette approche vise à affaiblir l’adversaire sans franchir les seuils juridiquement ou politiquement explicites de la guerre déclarée, permettant ainsi une négation plausible des actes hostiles.

Les analyses de l’Organisation du traité de l’Atlantique nord (OTAN)[6] décrivent cette hybridité comme un continuum d’actions où s’enchevêtrent dimensions militaires, numériques et informationnelles. Le Center for Security Studies et l’Ifri (Institut français des relations internationales) rappellent que cette forme de conflictualité s’est cristallisée dans les années 2000 avec les contributions théoriques de James Mattis et Frank Hoffman[7], notamment à la suite du conflit entre Israël et le Hezbollah en 2006[8]. Elle repose sur une articulation flexible entre forces régulières, opérations psychologiques, et stratégies de déstabilisation médiatique.

Mais la spécificité contemporaine de la guerre hybride réside dans sa dimension cognitive. Le cœur du conflit ne se situe plus uniquement dans le champ militaire ou infrastructurel, mais dans la transformation des opinions, des perceptions et des schémas mentaux. Il s’agit moins de vaincre militairement que de désorienter, de polariser, voire de paralyser l’adversaire en agissant sur ses capacités collectives de discernement.

Cette guerre cognitive s’appuie sur des techniques sophistiquées de manipulation : production de contenus émotionnels, diffusion de fausses informations, saturation informationnelle, recours aux biais cognitifs pour influencer les décisions sans que les individus en soient conscients. En suscitant la peur, la colère ou le doute, les campagnes de désinformation désactivent les mécanismes rationnels et favorisent l’adhésion à des narrations alternatives – souvent complotistes ou clivantes.

La multiplication des biais cognitifs – de confirmation, d’ancrage, de disponibilité, ou de groupe – constitue ainsi le levier principal de cette guerre des esprits. Une telle stratégie vise la désarticulation du débat démocratique, la fragmentation des communautés politiques et, in fine, l’érosion de la capacité collective à penser de manière critique et nuancée.

Dans ce cadre, la sécurité cognitive apparaît comme un enjeu stratégique. Elle suppose de renforcer l’éducation aux médias, de développer la culture numérique, et de promouvoir une citoyenneté numérique éclairée. Lutter contre la guerre hybride ne peut dès lors se réduire à une dimension technologique : elle exige une réponse éducative, culturelle et intellectuelle, capable de réarmer les esprits contre la manipulation et l’abrutissement.

L’évolution stratégique des conflits et les exigences nouvelles de résilience

Les événements géopolitiques récents, tels que l’invasion de l’Ukraine, le retour explicite de la menace nucléaire dans les discours stratégiques, et l’augmentation des actions non militaires dans les zones grises du droit international, imposent une réévaluation en profondeur des doctrines de sécurité et des dispositifs de défense.

La guerre hybride, en tant que stratégie multiforme, trouve aujourd’hui un terreau favorable dans ce contexte d’instabilité globale. Elle convoque des outils militaires classiques tout en les combinant à des instruments d’influence, d’intimidation ou de subversion. La prolifération de ces modes d’action implique que les conflits à venir ne ressembleront pas à ceux du passé. Ils seront plus diffus, plus simultanés, plus complexes. Dès lors, la réflexion stratégique doit intégrer l’hypothèse d’un engagement dans des conflits de haute intensité, mais également la possibilité de confrontations non militaires, aux formes moins visibles mais potentiellement plus corrosives.

Cette transformation du paradigme sécuritaire interpelle les décideurs politiques et militaires sur leur capacité à maintenir la liberté d’action à l’échelle stratégique. Elle souligne également la nécessité de repenser les formats opérationnels des armées, leurs missions, ainsi que les articulations entre défense extérieure, sécurité intérieure, et résilience nationale[9].

Ce tournant stratégique, dont les contours sont déjà perceptibles mais dont l’issue reste incertaine, se manifeste aussi par une contestation croissante des valeurs et normes promues par les démocraties libérales. L’émergence d’un monde multipolaire, caractérisé par une compétition accrue pour des ressources limitées et une instabilité géopolitique durable, annonce un environnement international structuré par la rivalité, la complexité et l’ambiguïté.

Les conflits contemporains – en Ukraine, à Gaza, dans le détroit de Taïwan – démontrent la nécessité d’une posture d’anticipation. Ils rappellent que les engagements futurs exigeront des efforts d’adaptation majeurs. Pour les forces armées, cela signifie être prêtes à intervenir dans des configurations inédites, souvent hybrides, où la distinction entre front et arrière, entre civil et militaire, entre paix et conflit, tend à se brouiller.

Dans cette perspective, les armées ne peuvent plus se contenter d’une réponse strictement technique ou tactique. Leur rôle, en tant qu’ultime recours dans la chaîne de résilience nationale, les engage à penser l’intégralité du spectre des menaces, y compris celles d’ordre cognitif, informationnel ou cyber. Elles incarnent, selon une formule éprouvée, « l’assurance-vie de la Nation » – ce qui suppose, en amont de toute action, une capacité à imaginer tous les scénarios possibles, y compris les plus improbables.

L’éthique à l’épreuve du numérique généralisé

Face à la transformation rapide et profonde des environnements technologiques, les questions éthiques ne peuvent être reléguées au second plan. Le Comité d’éthique de la défense (COMEDEF), créé en 2019[10], insiste à juste titre sur la nécessité d’intégrer l’analyse éthique dans la conception et l’usage des technologies militaires émergentes, notamment en matière d’intelligence artificielle (IA) et de cybersécurité. L’éthique, dans ce contexte, n’est ni décorative ni secondaire : elle constitue un cadre de légitimité pour l’action dans un monde numérisé.

La cybersécurité, en tant que domaine de régulation des risques numériques, dépasse désormais la simple protection des infrastructures informatiques. Elle vise à préserver l’intégrité des processus démocratiques, la continuité des services publics, et la qualité du débat collectif. Elle est aussi un enjeu de confiance : dans l’information, dans la machine, dans l’État.

La dépendance croissante des sociétés à l’égard du numérique – ordinateurs, smartphones, objets connectés, plateformes algorithmisées – produit un espace d’interconnexion généralisée. Cet environnement ubiquitaire, structurant aussi bien les fonctions vitales que les interactions sociales, constitue autant d’opportunités que de vulnérabilités. Chaque terminal, chaque réseau, chaque interface peut devenir un vecteur d’attaque.

L’intelligence artificielle, en particulier, modifie en profondeur les dynamiques de sécurité. En rendant possible l’identification automatisée de cibles, la conduite autonome d’opérations numériques, ou la production massive de contenus manipulatoires, elle introduit une asymétrie nouvelle entre les agresseurs et les défenseurs. Cette extension des capacités techniques complexifie l’attribution des attaques et augmente les effets systémiques.

Dans un tel contexte, l’adoption de gestes de sécurité numérique devient aussi élémentaire que le lavage des mains durant une épidémie. La mise à jour régulière des systèmes, le changement fréquent des mots de passe, la vigilance face aux tentatives de phishing ou d’ingénierie sociale sont autant de pratiques qui relèvent désormais d’une hygiène numérique minimale. La banalisation de ces gestes constitue une ligne de défense primaire, mais essentielle[11].

La cybersécurité ne peut donc plus être considérée comme une affaire de spécialistes. Elle doit devenir une composante de la culture commune. Le mot d’ordre « Tous connectés, tous responsables » doit être compris comme un principe structurant : celui d’une solidarité active dans la gestion des risques numériques.

Quels scénarios pour le futur ? Entre menaces numériques et imaginaires technologiques

Les réflexions prospectives sur les menaces émergentes doivent aujourd’hui intégrer les transformations profondes des imaginaires collectifs. Le philosophe Ariel Kyrou[12] identifie deux grandes figures dominantes de l’avenir : la démesure technologique, d’une part, et l’effondrement environnemental, d’autre part. Dans la première catégorie, on retrouve notamment les projections associées à la guerre hybride, à l’ingérence étatique, à l’expansion des réseaux criminels et à la multiplication des cybermenaces.

L’intelligence artificielle, en tant qu’outil de plus en plus accessible, participe de cette transformation des rapports de force. Les attaques de phishing, par exemple, ont acquis une précision nouvelle, capables d’imiter à la perfection des échanges légitimes, et de tromper même des utilisateurs avertis. Cette montée en puissance de l’ingénierie sociale accroît la vulnérabilité tant des institutions que des individus.

Les attaques par déni de service distribué (DDoS), menées via des réseaux de botnets – c’est-à-dire des millions d’appareils personnels compromis à l’insu de leurs propriétaires – sont une autre illustration de la montée en complexité des cybermenaces[13]. Ces offensives peuvent neutraliser des infrastructures critiques, des systèmes bancaires aux plateformes gouvernementales. Elles s’appuient sur des défaillances structurelles : absence de mises à jour, faiblesses de configuration, manque de dispositifs de filtrage.

Les cibles les plus fréquemment exposées sont les postes informatiques des petites et moyennes entreprises, des particuliers et des salariés en télétravail. Ce dernier, massivement déployé en réponse à la pandémie de COVID-19, a souvent été mis en œuvre sans garanties suffisantes en matière de sécurité. Il en résulte un terrain favorable pour l’infiltration malveillante, contribuant à la généralisation du risque.

Les scénarios de déstabilisation à grande échelle ne relèvent plus de la fiction. L’hypothèse d’alertes à la bombe diffusées simultanément sur l’ensemble d’un territoire depuis des serveurs distants, visant à saturer les services de secours et à créer un climat de panique, illustre la capacité de la guerre hybride à provoquer des effets psychologiques massifs.

Les attaques par ransomware sur des structures essentielles – hôpitaux, réseaux d’énergie, systèmes militaires – confirment la fragilité de nos interdépendances numériques. Elles démontrent que les intérêts vitaux des sociétés modernes peuvent être pris en otage. Par ailleurs, la divulgation de données personnelles sensibles, comme dans l’affaire Ashley Madison, révèle les conséquences humaines des failles de sécurité : réputation détruite, chantage, suicides.

Enfin, les dérives possibles de l’IA dans le domaine biologique méritent une attention particulière. Une IA développée à des fins médicales pourrait, dans un scénario extrême, être détournée pour concevoir un agent pathogène à fort potentiel pandémique. Ce type de menace, qualifiée de « bio-numérique », élargit encore le spectre des risques systémiques auxquels les sociétés contemporaines sont confrontées.

Éduquer pour déjouer et retourner les attaques

Face à l’ampleur croissante des menaces numériques, il devient impératif d’élargir le champ des réponses. Il ne suffit plus de penser la cybersécurité en termes de technologies défensives ; il faut l’intégrer dans une approche cognitive et éducative, capable de neutraliser les logiques de manipulation avant même leur diffusion. Cela implique une compréhension fine des mécanismes psychologiques sur lesquels reposent les stratégies d’influence informationnelle.

Un premier levier réside dans la segmentation des audiences. Identifier les caractéristiques cognitives des groupes sociaux permet de comprendre les vulnérabilités spécifiques à chaque segment et de calibrer des messages de sensibilisation plus efficaces. Cette démarche ne vise pas à manipuler en retour, mais à immuniser symboliquement contre les techniques d’instrumentalisation.

Un second axe d’intervention concerne l’exploitation des émotions dans la guerre cognitive. Les stratégies de désinformation cherchent à mobiliser la colère, la peur ou le ressentiment pour désactiver la réflexion critique. Il est donc essentiel de développer chez les citoyens une capacité de mise à distance émotionnelle, notamment par le biais d’outils pédagogiques et médiatiques.

La formation à la reconnaissance des biais cognitifs est une composante clé de cette stratégie éducative. Le biais de confirmation, le biais de disponibilité, le biais de négativité, ou encore le biais d’ancrage influencent la réception des contenus et favorisent l’adhésion à des récits biaisés. Connaître ces mécanismes permet de rétablir une capacité de discernement autonome[14].

Enfin, la mise en œuvre de dispositifs de rétroaction – ou feedbacks – en temps réel, dans les sphères médiatiques comme institutionnelles, contribue à une meilleure régulation des contenus. Ces ajustements permettent d’éviter les emballements viraux, de corriger rapidement les désinformations et d’adapter les stratégies de communication aux réactions du public.

L’ensemble de ces mesures ne pourra produire des effets durables que s’il repose sur une culture partagée de la vérité, de la vigilance et de la responsabilité. Dans une société hyperconnectée, l’autodéfense cognitive devient une compétence collective à cultiver.

Conclusion : L’Union européenne face à la guerre hybride – condition d’unité, exigence de rigueur

Dans le contexte contemporain de montée en puissance des menaces hybrides, l’Union européenne constitue l’un des derniers espaces institutionnels capables de structurer une réponse stratégique cohérente. Elle dispose d’une architecture réglementaire – RGPD, directive NIS 2 -, de capacités techniques partagées, et d’un potentiel de coopération interétatique sans équivalent[15].

Mais cette promesse n’est pas automatique. Elle repose sur une condition sine qua non : celle de l’unité dans l’action. Une régulation partagée ne produit ses effets que si elle est comprise, appliquée, et incarnée dans les pratiques concrètes des administrations, des entreprises et des citoyens. L’exemplarité réglementaire de l’Union ne saurait masquer les écarts d’exécution observés entre États membres.

La guerre hybride prospère sur les dissonances, les inerties, les asymétries. À l’inverse, seule une Union cohérente, rigoureuse et résolument politique peut opposer une digue crédible à cette offensive insidieuse. L’Europe doit se penser comme un espace de souveraineté numérique, où la cybersécurité n’est pas une simple réponse technologique mais un pilier de la démocratie.

Protéger les données, c’est protéger la liberté. Éduquer les citoyens, c’est fortifier la démocratie. Coopérer entre États, c’est préserver la paix civile. Le défi posé par la guerre hybride n’est pas uniquement militaire : il est civilisationnel.

 

[1] Plan stratégique de l’Agence nationale de la sécurité des systèmes d’information 2025-2027 : « Au cœur d’un collectif, pour une Nation cyber-résiliente ». https://cyber.gouv.fr/en/node/2181

[2] Cloudfare (2024) Shielding the Future: Europe’s Cyber Threat Landscape

[3] Shamatonova, D. (2024). The importance of the NIS2 Directive and the potential challenges it entails. https://dx.doi.org/10.2139/ssrn.4980348

[4] Mirsky, Y., et al. (2021). The Threat of Offensive AI to Organizations. https://doi.org/10.1016/j.cose.2022.103006

[5] Ruohonen, J. (2024). A Systematic Literature Review on the NIS2 Directive. https://doi.org/10.48550/arXiv.2412.08084

[6] Deppe C. Schaal G. (2024). Cognitive warfare: a conceptual analysis of the NATO ACT cognitive warfare exploratory concept. doi10.3389/fdata.20241452129

[7] Mattis J.N. and Hoffman F. G. (2005) : Future Warfare: The Rise of Hybrid Wars , in Proceedings of U.S. Naval Institute. Vol. 131/11/1,233

[8] Tenenbaum E. (2015). Le piège de la guerre hybride in Ifri Focus stratégique n°63. ISBN : 978-2-36567-457-7

[9] NATO. (2024). Hybrid threats and hybrid warfare. https://www.nato.int/nato_static_fl2014/assets/pdf/2024/7/pdf/241007-hybrid-threats-and-hybrid-warfare.pdf  69-70

[10] https://www.defense.gouv.fr/comite-dethique-defense

[11] Danet, D. (2023). Cognitive Security: Facing Cognitive Operations in Hybrid Warfare in Proceedings of the 22nd European Conference on Cyber Warfare and Security ISBN: 978-1-914587-70-2 161-168

[12] ActuSF (Ed). 2020. Ariel Kyrou Dans les imaginaires du futur, ISBN 978-2-37686-316-8

[13] Usman, Y., et al. (2024). Is Generative AI the Next Tactical Cyber Weapon For Threat Actors?

https://doi.org/10.48550/arXiv.2408.12806

[14] Wardle, C., & Derakhshan, H. « INFORMATION DISORDER : Toward an interdisciplinary Framework for research and policy making » in Council of Europe report DGI(2017)09 – 22-29

[15] European Parliamentary Research Service. (2021). The NIS2 Directive: A high common level of cybersecurity in the EU.