Faux sur les vaccins, comment les repérer ? Le Club Digital Santé répond le 21 mai à SantExpo. Table ronde gratuite, 14h-14h45.

Tribune cosignée par Adel Mebarki, CEO Foresight Data Agency, et Chanfi Maoulida, Responsable Transformation et Innovation Numérique, DSI Soutien Santé, Service de Santé des Armées. Tous deux membres du Club Digital Santé.
Une société dont la population ne croit plus son système de santé devient vulnérable bien avant le premier conflit armé.
Nous exerçons dans deux mondes qui ne se parlent pas : la santé et la défense. Ce que nous voyons chacun de notre côté nous a conduit à écrire ce texte ensemble. Ce n’est pas une alerte de plus. C’est un diagnostic.
La désinformation en santé a muté. Elle n’est plus du bruit informationnel diffus, produit par des individus mal informés ou des charlatans isolés. Dans certains cas documentés, elle est devenue un vecteur stratégique délibéré : compromettre la confiance dans un système de santé pour fragiliser une société entière, sans recours à la force armée.
Qu’est-ce que la guerre cognitive appliquée à la santé ?
La guerre cognitive désigne une forme de conflictualité qui vise à altérer la perception, le jugement et la capacité décisionnelle d’un adversaire en agissant sur son environnement informationnel. Le concept est reconnu dans plusieurs doctrines de sécurité internationales, notamment au sein de l’OTAN depuis 2021, et rejoint les travaux de l’OMS sur les infodémies.
Dans les cas documentés, des acteurs étatiques ou para-étatiques exploitent les plateformes numériques pour amplifier des récits sanitaires anxiogènes, semer le doute sur les institutions médicales et modifier les comportements de santé à grande échelle. Les cibles ne sont pas des serveurs. Ce sont des esprits. Et plus précisément : la confiance, qui est le socle invisible sur lequel repose tout système de soins.
Pourquoi la santé est-elle un terrain si vulnérable ?
Si la santé est devenue ce terrain de choix, ce n’est pas par hasard. Trois asymétries structurelles en font un vecteur particulièrement vulnérable.
La première est émotionnelle. La santé touche au corps, à la survie, aux enfants. La peur court-circuite le raisonnement rationnel. Un contenu qui inquiète se partage plus qu’un contenu qui rassure.
La deuxième est une asymétrie d’expertise. Le citoyen dispose rarement des moyens nécessaires pour évaluer seul une information médicale complexe. Il est contraint à une relation de confiance envers des intermédiaires. Compromettre cette confiance suffit, sans avoir besoin de fausser l’information elle-même.
La troisième est temporelle. Une rumeur se diffuse en quelques heures. La validation scientifique exige des jours, parfois des semaines. Cette fenêtre suffit à installer durablement le doute avant toute réfutation possible.
Les plateformes numériques n’ont pas créé ces asymétries. Elles les ont industrialisées. Leurs algorithmes maximisent l’engagement, et l’engagement est corrélé à l’anxiété. Les acteurs malveillants n’ont pas besoin de pirater ces systèmes : ils les utilisent tels qu’ils sont conçus, en injectant des contenus calibrés pour déclencher exactement les réponses que ces algorithmes amplifient.
Il faut ici distinguer trois niveaux qui ne relèvent pas de la même logique : la désinformation organique, portée par des individus de bonne ou mauvaise foi ; l’amplification algorithmique, qui maximise la portée des contenus anxiogènes indépendamment de toute intention coordonnée ; et les opérations d’influence délibérées, conduites par des acteurs organisés qui exploitent les deux premiers niveaux à des fins stratégiques. C’est leur combinaison, et non chacun de ces phénomènes pris isolément, qui constitue la menace. En 2026, les outils d’IA générative abaissent fortement le coût et la vitesse de production de contenus pseudo-médicaux crédibles. La fabrication artisanale du faux récit médical devient progressivement industrielle.
Ce que les faits documentent déjà
Ces mécanismes ont déjà produit des effets mesurables, bien avant que l’IA générative n’en démultiplie l’échelle.
Aux Philippines, un signal de pharmacovigilance réel sur le vaccin Dengvaxia a été instrumentalisé pour accuser l’État d’avoir sciemment mis des enfants en danger. La confiance dans les vaccins est passée de 93 % en 2015 à 32 % en 2018, soit une chute de 61 points en trois ans. La couverture vaccinale contre la rougeole s’est effondrée de 88 % à 55 %, entraînant une résurgence documentée de la maladie. Ce n’était pas de la désinformation classique. C’était de la malinformation : des faits réels, sortis de leur contexte, amplifiés à des fins de déstabilisation.
Pendant le Covid-19, les campagnes pro-ivermectine ont montré comment un algorithme peut transformer un signal marginal en récit global, amplifié par des réseaux coordonnés dans des dizaines de pays simultanément. Des travaux du Stanford Internet Observatory et du réseau EUvsDisinfo ont documenté des dynamiques similaires sur d’autres sujets sanitaires.
En Ukraine, plusieurs jours avant la frappe sur la maternité de Marioupol, une campagne coordonnée visait à accréditer le récit selon lequel le bâtiment avait été militarisé. L’objectif n’était pas de tromper les journalistes : c’était de préempter le choc moral, de neutraliser la réaction émotionnelle avant qu’elle ne se produise. La désinformation sanitaire peut ainsi fonctionner comme un outil de préparation cognitive au service d’une opération militaire.
Sur TikTok et Instagram, une enquête de CBS News en 2025 a identifié plus de 100 vidéos générées par IA usurpant l’identité de médecins réels, certaines cumulant des millions de vues. Chaque deepfake érode un peu plus la capacité du patient à distinguer une source légitime d’une source fabriquée.
Une difficulté analytique à nommer
Attribuer avec certitude une opération d’influence à un acteur étatique reste souvent difficile. Les dynamiques informationnelles mêlent fréquemment comportements organiques, logiques algorithmiques et exploitations opportunistes. Les exemples cités relèvent de niveaux d’attribution différents : certains sont documentés par des enquêtes journalistiques ou académiques, d’autres restent partiellement débattus. Cette difficulté d’attribution ne réduit pas la réalité du risque systémique. Elle renforce au contraire la nécessité de dispositifs de veille capables de qualifier ces dynamiques avec rigueur, sans sur-interprétation.
L’angle mort que personne ne comble
Nous avons chacun, depuis nos périmètres respectifs, observé la même lacune.
Les professionnels de santé voient les effets : patients qui refusent des protocoles, consultations qui baissent, rumeurs persistantes dans les salles d’attente. Ils n’ont pas les outils pour qualifier ces signaux comme opérations d’influence, ni les canaux pour les remonter à qui pourrait agir.
Les professionnels de la défense et du renseignement voient les opérations. Mais ils n’ont pas accès aux signaux faibles du terrain sanitaire, et la santé n’est pas encore intégrée dans leur cartographie des infrastructures critiques.
Ce n’est pas une défaillance individuelle. C’est une séparation historique entre deux cultures professionnelles qui n’ont jamais eu de raison de se parler, jusqu’à ce que leur angle mort commun devienne une vulnérabilité exploitable.
Les signaux sont déjà là. Sur le Hantavirus, 8 des 10 contenus les plus partagés sur Facebook en France étaient trompeurs ou complotistes. On observe dans ces dynamiques des structures de diffusion qui méritent attention : des communautés déjà actives sur des sujets sanitaires précédents, des logiques d’amplification rapide en phase d’incertitude scientifique, et des formes de pression croissante sur certains professionnels de santé en ligne. Ce sont des signaux faibles. Ils ne constituent pas encore un consensus analytique. Mais ils dessinent un terrain que la détection précoce devrait apprendre à lire.
Une précision nécessaire : tout dissensus scientifique n’est pas une opération hostile. Ce que nous décrivons, c’est l’exploitation délibérée du débat par des acteurs dont l’objectif n’est pas la vérité mais la déstabilisation. Confondre les deux serait aussi dangereux que de ne pas voir la menace.
Trois recommandations actionnables
Créer des cellules mixtes santé / renseignement sur la veille narrative. Pas une commission de plus. Un dispositif opérationnel, avec des analystes des deux champs, capables de corréler les signaux faibles remontant des établissements de santé avec la cartographie des opérations d’influence en cours. Ce type de cellule existe pour d’autres secteurs critiques. Il n’existe pas encore pour la santé.
Imposer des obligations de transparence algorithmique aux plateformes sur les contenus santé. Les algorithmes amplifient les contenus anxiogènes parce qu’ils maximisent l’engagement. Cette mécanique doit être régulée spécifiquement sur les contenus de santé, avec des obligations de traçabilité et des seuils d’alerte en cas de diffusion coordonnée anormale. Le cadre juridique européen (DSA, NIS2) offre des leviers. Ils ne sont pas encore utilisés à ce niveau de précision.
Former les professionnels de santé à la détection des opérations d’influence. Pas une formation générique à la vérification des faits. Une formation spécifique : reconnaître les schémas d’une campagne coordonnée, distinguer désinformation spontanée et malinformation instrumentalisée, savoir à qui remonter un signal. Ces compétences s’enseignent. Elles n’ont aujourd’hui aucune place dans la formation initiale ou continue des soignants.
Ce qui vient
La résilience d’un système de santé ne dépend plus uniquement de ses capacités hospitalières. Elle dépend aussi de sa capacité à préserver la confiance informationnelle sur laquelle repose l’adhésion collective.
Ce qui vient ne sera pas une désinformation plus volumineuse. Ce sera une désinformation de plus en plus difficile à distinguer du réel. Les outils d’IA générative abaissent chaque mois le coût de production de contenus pseudo-médicaux crédibles. L’équilibre entre production de contenus trompeurs et capacité de détection est structurellement rompu. Les outils de détection restent artisanaux là où les outils de production sont désormais automatisés.
La détection précoce des opérations d’influence en santé n’est plus une option de recherche. C’est une nécessité opérationnelle. Elle est une urgence de santé publique parce que chaque heure de narratif non détecté fragilise un peu plus l’adhésion aux soins. Elle est une urgence de sécurité parce que cette confiance est désormais une cible délibérée. Ces deux urgences appellent les mêmes réponses. C’est peut-être là que commence le dialogue entre deux mondes qui ne se parlent pas assez.
Sources et références
Sur la guerre cognitive et les menaces hybrides
- OTAN — Cognitive Warfare concept (2021) : https://www.nato.int/cps/en/natohq/topics_cognitive_warfare.htm
- CAPS/IRSEM — Les manipulations de l’information : un défi pour nos démocraties (2019) : https://www.irsem.fr/rapport.html
- IRSEM — Lettre n° 06/2022, Guerre cognitive : https://www.irsem.fr/storage/file_manager_files/2025/03/lettre-irsem-06-2022-v2.pdf
Sur les infodémies et la désinformation sanitaire
- OMS — Infodemic Management (2020) : https://www.who.int/publications/i/item/9789240012554
- Molimard, Costagliola, Maisonneuve — Information en santé et lutte contre la désinformation, rapport ministériel, janvier 2026 : https://www.insei.fr/ressources/rapport-sur-linformation-en-sante-et-recommandations-pour-une-strategie-nationale
- Generative AI and health misinformation, BMC Public Health, janvier 2026 : https://link.springer.com/article/10.1186/s12889-025-26148-9
- Health Disinformation: Weapons of Mass Disinformation, JAMA, 2023 : https://pubmed.ncbi.nlm.nih.gov/37955873/
- Schneider N. — Désinformation en Santé Numérique : les 5 Angles Morts Opérationnels, janvier 2026
Sur le cas Dengvaxia
- Hartigan-Go & Magno — Vaccine confidence plummets in the Philippines, Human Vaccines & Immunotherapeutics, 2019 : https://pmc.ncbi.nlm.nih.gov/articles/PMC6605722/
- Implications of information heard about Dengvaxia on Filipinos’ perception on vaccination, ScienceDirect, 2024 : https://www.sciencedirect.com/science/article/abs/pii/S0264410X24001233
Sur les deepfakes et faux comptes de médecins
- CBS News — AI-generated doctor impersonation videos on TikTok and Instagram (2025)
Sur la réglementation européenne
- Digital Services Act (DSA) : https://digital-strategy.ec.europa.eu/en/policies/digital-services-act-package
- Directive NIS2 : https://digital-strategy.ec.europa.eu/en/policies/nis2-directive
