Se rendre au contenu

Intelligence artificielle et technologies numériques contre la désinformation sur la santé

✍️ Artificial Intelligence and Digital Technologies Against Health Misinformation: A Scoping Review of Public Health Responses - Cianciulli A., Santoro E., Manente R., Pacifico A., Quagliarella S., Bruno N., Schettino V., Boccia G. – octobre 2025
4 novembre 2025 par
Intelligence artificielle et technologies numériques contre la désinformation sur la santé
Daniel Oberlé - Pratiques en santé Oberlé
| Aucun commentaire pour l'instant

🤖📡 L’IA contre l’infodémie en santé : comment les outils numériques transforment la surveillance, la communication et la littératie pour contrer la désinformation. Des leviers concrets pour les acteurs de terrain - 🤖 L’IA au service de la lutte contre la désinformation santé : 63 études analysées révèlent que les outils numériques améliorent la surveillance et la communication, mais leur succès dépend de l’équité et de la transparence

L’infodémie à l’ère numérique : un défi majeur pour la santé publique

La pandémie de COVID-19 a révélé l’ampleur des infodemics, où la surabondance d’informations – exactes ou trompeuses – perturbe les réponses sanitaires. Les fausses informations sur les traitements, les théories conspirationnistes et les campagnes antivaccins se propagent rapidement, érodant la confiance dans les institutions et altérant les comportements préventifs. Les outils d’intelligence artificielle (IA) et les technologies numériques émergent comme des solutions clés pour surveiller, détecter et contrer ces phénomènes. Cette revue systématique analyse 63 études (2017-2025), majoritairement centrées sur la surveillance (54%) et la communication santé (43%), et met en lumière leur rôle dans la détection des narratives trompeuses, le renforcement de la littératie, et l’adaptation des stratégies de communication. Cependant, les preuves restent hétérogènes, avec des déséquilibres géographiques et une attention limitée aux populations vulnérables.

Apports opérationnels pour les professionnels de terrain

Les applications d’IA, comme le traitement automatique du langage (NLP) et les modèles prédictifs, permettent une surveillance en temps réel des plateformes sociales (Twitter, Facebook, YouTube), identifiant les pics de désinformation liés à des événements médiatiques ou épidémiologiques. Des initiatives comme Dear Pandemic démontrent l’efficacité de messages clairs et accessibles pour renforcer la confiance dans la science. Les chatbots et assistants virtuels offrent des réponses validées à faible coût, tandis que les modèles hybrides (ex : BERT-LSTM) atteignent des précisions supérieures à 90% dans la classification des contenus fallacieux. Malgré ces avancées, des défis persistent : biais algorithmiques, fractures numériques, et besoin de cadres éthiques et réglementaires pour une intégration durable dans les systèmes de santé publique.

Source 

 ℹ️➕ https://www.mdpi.com/2227-9032/13/20/2623 

Références complémentaires

Points clés du document

  • Surveillance en temps réel : Les outils de social listening (ex : WHO-EARS) détectent les tendances de désinformation et anticipent les variations de couverture vaccinale ou de demande clinique.
  • Modèles prédictifs performants : Les algorithmes multimodaux (texte, image, métadonnées) classent les contenus trompeurs avec une précision >95%, mais leur généralisabilité reste limitée par des jeux de données linguistiquement et culturellement restreints.
  • Communication adaptée : Les stratégies comme Dear Pandemic améliorent la littératie santé via des messages culturelement adaptés, atteignant des millions d’utilisateurs.
  • Éducation et formation : Les programmes ciblés (ex : chatbots interactifs) renforcent les compétences critiques des publics, notamment étudiants et patients.
  • Enjeux éthiques et d’équité : 29% des études soulignent les risques de biais algorithmiques, d’exclusion numérique, et l’urgence de cadres réglementaires transparents (ex : Digital Services Act).

Pistes d’action pour les acteurs locaux

  • Intégrer des dashboards de surveillance : Utiliser des outils comme WHO-EARS pour identifier les narratives émergentes et adapter les messages en temps réel.
  • Déployer des chatbots validés : Mettre en place des assistants virtuels pour répondre aux questions fréquentes sur les vaccins ou les traitements, en veillant à leur accessibilité multilingue.
  • Former les professionnels : Organiser des ateliers sur l’utilisation des outils d’IA pour la détection de désinformation, en ciblant les équipes de santé communautaire.
  • Collaborer avec les plateformes : Exiger des APIs ouvertes et des datasets représentatifs pour réduire les biais et améliorer la couverture des populations marginalisées.

Analyse transversale (Pratiques en Santé)

  • Littératie : Le document propose des outils adaptés (chatbots, contenus simplifiés), mais leur efficacité dépend de l’inclusion des niveaux de compréhension variés.
  • Empowerment : Les bénéficiaires sont peu impliqués dans la conception des outils, limitant leur appropriation.
  • Participation : Peu de mécanismes de co-construction avec les communautés, malgré des exemples ponctuels (ex : feedback via plateformes digitales).
  • Santé communautaire : La dimension collective est abordée via des alliances institutionnelles (ex : WHO-EARS), mais les réseaux locaux sont sous-exploités.
  • Éthique : Les biais culturels et sociaux sont identifiés, mais les solutions restent théoriques (ex : audits indépendants).
  • Droits humains : L’approche respecte l’équité, mais l’accès aux technologies reste inégal selon les régions.
  • Intersectorialité : Partenariats recommandés entre santé, éducation et tech (ex : intégration des outils dans les cursus universitaires).

Synthèse : Ce document offre un cadre solide pour l’IA en santé publique, mais son application terrain nécessite des adaptations contextuelles et une gouvernance inclusive.

  • Pertinence scientifique : Méthodologie rigoureuse (PRISMA-ScR, revue systématique), sources variées et actualisées (2017-2025).
  • Adéquation avec les standards : Approche evidence-based, mais lacunes sur l’inclusion des populations vulnérables et la reproductibilité des modèles

#️⃣ #PréventionNumérique #LittératieSanté #SantéPublique #IAetSanté #Désinformation #Infodémie #ÉthiqueIA #pratiquesensanté

Se connecter pour laisser un commentaire.