Une vidéo de votre patron qui annonce votre licenciement. Un message vocal de votre mère qui demande un virement urgent. Ces scénarios ne relèvent plus de la science-fiction : les deepfakes sont devenus accessibles, bon marché et difficiles à détecter. Voici comment garder l’œil ouvert.

Deepfake : de quoi parle-t-on ?

Un deepfake est un contenu (vidéo, audio, image) généré ou modifié par intelligence artificielle pour imiter une personne réelle. La technologie repose sur des réseaux de neurones capables de reproduire un visage, une voix ou des expressions avec un réalisme troublant.

En 2024, le nombre de deepfakes détectés en ligne a été multiplié par 10 par rapport à 2022, selon le rapport annuel de Sumsub. Les deepfakes audio sont les plus redoutables : une voix peut être clonée à partir de 3 secondes d’enregistrement avec des outils comme ElevenLabs.

Les signaux qui doivent alerter

Sur une vidéo, cherchez ces indices :

  • Clignement des yeux irrégulier ou absent
  • Contours du visage flous, surtout au niveau de la mâchoire et des oreilles
  • Incohérences dans l’éclairage (ombres qui ne correspondent pas)
  • Mouvements de lèvres légèrement décalés par rapport au son

Sur un audio, c’est plus difficile. Méfiez-vous des tonalités trop uniformes, des respirations absentes ou d’un rythme de parole mécanique.

Les outils de détection disponibles

Plusieurs solutions existent pour vérifier un contenu suspect :

  • Microsoft Video Authenticator : analyse les pixels pour repérer les manipulations invisibles à l’œil nu.
  • Sensity AI : plateforme spécialisée qui scanne les deepfakes dans les vidéos et images.
  • Hive Moderation : API utilisée par des plateformes pour filtrer le contenu synthétique en temps réel.
  • TrueMedia.org : outil gratuit lancé en 2024, pensé pour les journalistes et les fact-checkers.

Attention : aucun outil n’est fiable à 100 %. Les meilleurs détecteurs tournent autour de 90 % de précision, et les techniques de génération évoluent plus vite que les contre-mesures.

Ce que dit la loi en France

Depuis la loi SREN de mai 2024, la diffusion de deepfakes à caractère sexuel sans consentement est passible de 2 ans de prison et 60 000 euros d’amende. Pour les deepfakes visant à manipuler l’opinion (période électorale), les sanctions peuvent aller jusqu’à 3 ans de prison.

Le règlement européen sur l’IA (AI Act), entré en vigueur progressivement depuis 2024, impose aussi un marquage obligatoire des contenus générés par IA. Les plateformes doivent étiqueter ces contenus de façon visible.

Comment se protéger au quotidien

Quelques réflexes simples :

  • Vérifiez la source : une vidéo choquante sans source fiable mérite un doute systématique.
  • Cherchez la vidéo originale : une recherche inversée sur Google Images ou InVID peut révéler le contenu d’origine.
  • Méfiez-vous des urgences : les arnaques par deepfake audio jouent sur la panique (« il faut virer de l’argent maintenant »). Raccrochez et rappelez la personne directement.
  • Limitez vos contenus publics : moins il y a de vidéos et d’audios de vous en ligne, plus il est difficile de vous cloner.

La meilleure défense reste l’esprit critique. Dans un monde où tout peut être fabriqué, la question « est-ce que c’est vrai ? » devrait devenir un réflexe automatique.