– Par Maëlys GERY, membre du CRSI
Source : DÉPOSÉ en application de l’article 145 du Règlement PAR LA COMMISSION DES AFFAIRES ÉTRANGÈRES en conclusion des travaux d’une mission d’information constituée le 15 janvier 2025
Le rapport déposé par Alain David et Laetitia Saint-Paul constitue une étape importante dans l’analyse des stratégies contemporaines d’ingérence informationnelle. Il met en évidence une évolution marquée des modes d’influence, caractérisée par le recours croissant à des procédés automatisés fondés sur l’intelligence artificielle (IA). Selon les rapporteurs, cette évolution marque un déplacement des stratégies d’influence classiques vers des formes d’ingérence reposant sur l’industrialisation des outils de manipulation informationnelle.
S’appuyant sur une lecture stratégique des transformations technologiques, le rapport souligne que l’intelligence artificielle ne constitue plus uniquement un outil technique, mais un facteur de transformation des rapports de puissance, susceptible d’affecter les conditions d’exercice de la souveraineté des États. La question centrale posée par les rapporteurs est celle de la capacité des systèmes démocratiques, fondés sur la liberté de choix et la transparence du débat public, à faire face à des technologies permettant une diffusion massive et automatisée de contenus trompeurs ou manipulés.
Les rapporteurs inscrivent leur analyse dans une perspective historique et doctrinale, rappelant que les évolutions technologiques ont toujours accompagné les transformations des formes de conflictualité. Ils estiment toutefois que l’IA introduit une rupture d’ampleur, en raison de son impact direct sur les processus cognitifs, informationnels et décisionnels.
I. Une rupture technologique dans les modes de déstabilisation informationnelle
Le rapport identifie une rupture induite par l’intelligence artificielle selon trois dimensions principales : le coût, la qualité et la rapidité de diffusion des actions d’influence.
Les rapporteurs soulignent l’abaissement significatif des barrières à l’entrée : des capacités qui relevaient auparavant d’acteurs étatiques disposant de services spécialisés (production de faux documents, structuration de réseaux d’influence) sont désormais accessibles à un large éventail d’acteurs, étatiques ou non étatiques, à un coût réduit.
Ils mettent également en évidence une remise en cause du cadre informationnel commun, en particulier à travers le développement des deep fakes et des techniques de manipulation algorithmique des opinions. Selon le rapport, l’objectif de ces stratégies ne se limite plus à influencer un public cible, mais vise à fragiliser durablement la confiance dans l’information elle-même, en multipliant les contenus synthétiques et contradictoires.
Les rapporteurs identifient trois principaux vecteurs d’attaque :
- la manipulation des opinions, via la génération automatisée de contenus et le micro-ciblage comportemental ;
- les atteintes à la cybersécurité, par l’automatisation de la détection de vulnérabilités et la création de logiciels malveillants évolutifs ;
- l’empoisonnement de données (data poisoning), consistant à altérer les jeux de données servant à l’entraînement des systèmes d’IA afin d’en biaiser les résultats.
Dans ce contexte, les démocraties apparaissent, selon le rapport, comme des cibles privilégiées, en raison de l’ouverture de leurs espaces informationnels et de la sensibilité de leurs processus électoraux.
II. Une position européenne marquée par des vulnérabilités structurelles
Les rapporteurs portent une appréciation critique sur la situation européenne. Ils soulignent que l’Union européenne occupe une position de premier plan en matière de régulation, notamment avec l’adoption de l’IA Act, tout en demeurant dépendante de technologies développées hors de son territoire.
Ce décalage est présenté comme un facteur de vulnérabilité, l’Europe utilisant majoritairement des infrastructures et des modèles d’IA (notamment des grands modèles de langage) conçus par des acteurs étrangers, principalement américains ou chinois. Cette dépendance est susceptible, selon les rapporteurs, de faciliter des formes d’ingérence indirectes ou de manipulation des chaînes de données.
Le rapport insiste également sur la fragilité des processus électoraux face à des stratégies de guerre hybride combinant cyberattaques et campagnes informationnelles ciblées, en particulier dans les périodes pré-électorales.
Enfin, les rapporteurs estiment que la réponse française et européenne demeure incomplète sur le plan opérationnel, en comparaison avec des États ayant intégré l’IA de manière plus systématique dans leurs doctrines militaires et d’influence.
III. Vers une stratégie de résilience renforcée
Le rapport ne se limite pas à un diagnostic et formule des propositions visant à renforcer la résilience démocratique, autour de deux axes principaux.
Le premier concerne la protection du citoyen face aux manipulations informationnelles. Les rapporteurs proposent notamment la création d’indicateurs de lisibilité de l’information (score d’artificialité, labellisation des sources), ainsi qu’une réflexion sur une « réserve algorithmique pré-électorale », consistant à suspendre temporairement certains mécanismes de recommandation avant les scrutins.
Le second axe porte sur le renforcement des capacités opérationnelles et de la souveraineté informationnelle. Les rapporteurs appellent à une montée en puissance de Viginum et de l’ANSSI, ainsi qu’à une posture plus proactive en matière de communication stratégique, afin de contrer les narratifs adverses, y compris à l’international.
IV. Les propositions des rapporteurs
Les 18 propositions formulées par les rapporteurs sont structurées autour de deux axes : la résilience de la société et le renforcement des moyens de l’État.
Axe A – Sensibilisation et transparence : vers une société plus résiliente
Les rapporteurs proposent plusieurs mesures destinées à renforcer la capacité de discernement des citoyens et à limiter l’impact des mécanismes de manipulation informationnelle :
- Consentement algorithmique : rendre obligatoire l’accord explicite de l’utilisateur pour l’activation des algorithmes de suggestion de contenus.
- Réserve algorithmique pré-électorale : prévoir la suspension temporaire des algorithmes de recommandation avant les scrutins, afin de limiter les manipulations de dernière minute.
- Majorité numérique : conditionner effectivement l’accès aux réseaux sociaux au respect d’un âge minimum.
- Communication active de l’État : mobiliser Viginum pour alerter le public sur les campagnes de désinformation identifiées.
- Score d’artificialité : imposer l’étiquetage des contenus générés ou modifiés par intelligence artificielle.
- Labellisation de l’information (« Nutri-score de l’info ») : créer un indicateur visant à informer le public sur la fiabilité et l’origine des sources.
- Éducation aux médias : intégrer de manière obligatoire des enseignements relatifs à la lutte contre la désinformation dans les formations journalistiques.
- Responsabilité sociétale des entreprises (RSE démocratique) : inciter les entreprises à soutenir une information de qualité par leurs politiques publicitaires.
- Partenariats locaux : développer des actions de sensibilisation auprès des diasporas, en lien avec le tissu associatif, afin de prévenir les risques d’ingérence ciblée.
Axe B – Moyens de l’État et souveraineté : renforcement opérationnel
Le second axe porte sur le renforcement des capacités publiques de détection, de protection et de réponse aux ingérences numériques :
- Renforcement de Viginum : accroître les moyens humains et financiers dédiés à la détection des ingérences informationnelles étrangères.
- Soutien à l’ANSSI : garantir les ressources nécessaires à la protection cyber et assurer la mise en œuvre de la directive NIS 2.
- Audiovisuel extérieur : renforcer le financement des médias français à l’étranger afin de contrer les narratifs adverses.
- Posture plus proactive : développer une stratégie d’influence assumée, complémentaire des dispositifs de détection.
- Élargissement du COLMI : associer davantage de ministères au Comité de lutte contre les manipulations de l’information.
- Recherche et expertise : soutenir la recherche scientifique et les travaux des think tanks afin d’objectiver les impacts de l’ingérence numérique.
- Partenariats public-privé : développer des outils techniques de détection, notamment des deep fakes.
- Coopération internationale : promouvoir la mise en place d’un « bouclier démocratique » avec les États partenaires.
- Souveraineté industrielle : orienter l’épargne et la commande publique vers des solutions européennes d’intelligence artificielle afin de réduire les dépendances stratégiques.
Conclusion
Pour les rapporteurs, l’enjeu central réside dans la préservation d’un socle commun de confiance dans l’information, indispensable au fonctionnement démocratique. Ils estiment que la réponse aux risques d’ingérence automatisée ne peut être que globale, combinant des outils techniques de détection, un cadre juridique adapté et un effort accru de formation et de sensibilisation.
Le rapport souligne la nécessité de trouver un équilibre entre la protection des processus démocratiques et le respect des libertés fondamentales. Selon les rapporteurs, l’objectif n’est pas de restreindre l’espace démocratique, mais de renforcer sa capacité de vigilance face à des menaces informationnelles d’un nouveau type.
