Société

Désinformation visuelle : comment vérifier les images

4 min de lecture
Désinformation visuelle : comment vérifier les images

La désinformation visuelle a augmenté de 230 % entre 2022 et 2025, selon l’Information Futures Lab. Deepfakes, images générées par IA, photos sorties de leur contexte : les faux visuels circulent plus vite que les démentis. Les médias visuels accélèrent le phénomène. Vérifier une image avant de la partager devient un réflexe vital.

Trois types de manipulation visuelle

Toutes les fausses images ne se ressemblent pas. Les identifier exige de comprendre comment elles sont produites.

Détournement de contexte — L’image est authentique, mais utilisée dans un contexte différent de son origine. Type le plus fréquent : 68 % des cas de désinformation visuelle selon First Draft. Une photo de manifestation au Chili réutilisée pour illustrer un mouvement social en France, par exemple.

La retouche — Ajout, suppression ou modification d’éléments dans une image réelle. L’Iran a publié en 2008 une photo de tir de missiles où un lanceur défaillant avait été dupliqué numériquement pour masquer l’échec. La manipulation a été détectée en 4 heures par des analystes indépendants.

La génération complète — Création ex nihilo par intelligence artificielle. Les outils comme Midjourney, DALL-E et Stable Diffusion produisent des images photoréalistes en quelques secondes. En mars 2023, une image du pape François en doudoune blanche a trompé des millions de personnes avant d’être identifiée comme générée par Midjourney.

Les enjeux éthiques de la génération d’images par IA dépassent la seule détection de faux.

La boîte à outils du vérificateur

Les professionnels du fact-checking visuel utilisent une combinaison d’outils gratuits et accessibles :

OutilFonctionAccès
Google Images (recherche inversée)Retrouver la source originale d’une photoGratuit
TinEyeHistorique d’apparition d’une image en ligneGratuit
InVID/WeVerifyAnalyse de vidéos et images (métadonnées, fragments)Gratuit
FotoForensics (ELA)Détection de zones retouchéesGratuit
Hive ModerationDétection d’images générées par IAFreemium

La méthode en 5 étapes :

  1. Recherche inversée — L’image existe-t-elle ailleurs avec un contexte différent ?
  2. Métadonnées EXIF — Date, lieu, appareil utilisé (absentes = suspect)
  3. Analyse d’erreur de niveau (ELA) — Les zones modifiées présentent un niveau de compression différent
  4. Cohérence visuelle — Ombres, reflets, proportions anatomiques, texte lisible
  5. Recoupement — D’autres sources indépendantes confirment-elles l’événement ?

Les deepfakes : la menace la plus complexe

Un deepfake vidéo de qualité nécessitait 72 heures de calcul en 2020. En 2025, certains outils produisent un résultat convaincant en 15 minutes. Le volume de deepfakes détectés a été multiplié par 9 en trois ans (Sensity AI, rapport 2025).

Les usages problématiques identifiés :

  • Politique — Fausses déclarations de dirigeants (25 % des deepfakes détectés)
  • Fraude financière — Appels vidéo avec des dirigeants d’entreprise imités (cas Arup, 2024 : 25 millions de dollars volés)
  • Déstabilisation — Images de conflits fabriquées pour orienter l’opinion

Les photojournalistes professionnels travaillent avec des protocoles d’authentification. Le standard C2PA (Coalition for Content Provenance and Authenticity), soutenu par Adobe, Microsoft, la BBC et Nikon, intègre un certificat d’origine directement dans le fichier image. Ce marquage cryptographique retrace la chaîne complète : appareil → logiciel → publication.

Comment éduquer le regard

La vérification ne repose pas uniquement sur les outils. Le regard critique s’entraîne :

Observer les détails — Les mains générées par IA présentent souvent des anomalies (doigts en trop, articulations incohérentes). Les textes dans l’image sont illisibles ou absurdes. Les reflets dans les yeux ne correspondent pas à l’environnement.

Questionner la source — Qui diffuse cette image ? Un média établi avec des standards éditoriaux ou un compte anonyme ? L’impact des images sur l’opinion dépend largement de la crédibilité perçue de la source.

Ralentir — Le partage compulsif est le vecteur principal de la désinformation. Attendre 60 secondes avant de partager une image choquante réduit la propagation de faux contenus de 38 % (étude MIT, 2024).

Le rôle des médias et des plateformes

Les grandes plateformes ont déployé des systèmes de détection automatique. Meta supprime environ 500 000 contenus visuels manipulés par mois. YouTube applique un label « altéré ou synthétique » depuis 2024.

Côté médias, les cellules de fact-checking se sont structurées. AFP Factuel, Les Décodeurs (Le Monde), CheckNews (Libération) publient en moyenne 30 vérifications visuelles par semaine.

Le défi reste la vitesse. Une image fausse atteint en moyenne 1 million de vues avant sa première vérification publique. Les formats d’infographie diffusent les corrections de manière visuelle — le même langage que la désinformation elle-même.

Prochaine étape pour chaque internaute : intégrer la vérification visuelle comme réflexe automatique. Les photographes de voyage et les reporters de terrain appliquent déjà ces protocoles. Chaque lecteur devrait en faire autant.

désinformation fact-checking deepfake vérification

À lire aussi