« C’est terminé. » Deux mots. Prononcés sans hésitation par Hany Farid, professeur de criminalistique numérique à l’université de Berkeley et cofondateur de GetReal Security, une entreprise spécialisée dans la détection de deepfakes. Un journaliste de la BBC venait de lui demander : « Pouvez-vous prouver, là, maintenant, que je ne suis pas une IA ? » Réponse : non. Personne ne peut.
Jusqu’ici, quand on parlait de deepfakes, la peur était d’être dupé — un faux appel vocal d’un proche, une vidéo truquée d’un PDG. Le problème s’est retourné. Aujourd’hui, c’est prouver qu’on est soi-même qui est devenu le vrai casse-tête. Et un premier ministre vient d’en faire les frais de manière spectaculaire.
Trois vidéos, zéro conviction
Mi-mars, Benjamin Netanyahu poste une vidéo officielle. Un jeu de lumière sur sa main droite crée un reflet que des internautes interprètent comme un sixième doigt — autrefois un marqueur classique d’images générées par IA. L’internet s’enflamme : le premier ministre serait mort dans une frappe de missile, et Israël dissimulerait le tout avec des vidéos synthétiques.
Netanyahu poste une deuxième vidéo depuis un café, mains bien en vue, dix doigts comptés. Puis une troisième. Trois preuves de vie en quelques jours. Selon les experts contactés par la BBC, c’est la première fois qu’un chef d’État tente ouvertement de prouver qu’il n’est pas une création de l’IA.
Le verdict des spécialistes ? Les trois vidéos sont authentiques, sans le moindre doute. Jeremy Carrasco, cofondateur de Riddance (un média spécialisé dans la détection de contenus IA), est catégorique : « Les six doigts ne sont plus un signe d’IA. Les meilleurs outils ont corrigé ça depuis des années. » Hany Farid a fait tourner des analyses voix, des détections visage image par image, des vérifications de lumière et d’ombres. Résultat : « Aucune preuve que ce soit généré par IA. »
Ça n’a convaincu personne. Une partie significative d’internet reste persuadée que Netanyahu est mort. Les trois vidéos n’ont rien changé.
Le test de la tante Eleanor
Pour mesurer l’ampleur du problème, le journaliste Thomas Germain de la BBC a mené sa propre expérience. Il appelle sa tante Eleanor et lui explique les règles : « Je vais te rappeler. Tu parles soit au vrai moi, soit à un deepfake de moi. À toi de deviner. »
Première réaction de sa tante : « Ça ressemble à toi. » Puis une pause. « J’étais sûre à 90 %. Mais ça, là, ça sonnait plus artificiel. » En réalité, c’était bien lui — aucune IA impliquée. Mais le doute s’est installé. Sa tante, qui le connaît depuis qu’il est né, n’a jamais pu atteindre 100 % de certitude.
Elle lui lit des blagues trouvées sur Facebook pour tester si sa réaction est « naturelle ». Elle lui parle du pull qu’elle lui tricote. Quand il change de couleur préférée — noir au lieu de doré —, c’est un drapeau rouge : « Ça sonne plus robotique. » À la fin de l’appel, elle lâche : « Je ne peux pas être sûre. Mais je t’aime, gamin. »
Le « dividende du menteur »
Cette impasse porte un nom dans la recherche : le dividende du menteur (liar’s dividend). Le concept est brutal : prouver qu’un contenu est réel coûte cher. Semer le doute, c’est gratuit.
« Les personnes au pouvoir peuvent affirmer que des preuves authentiques — de vraies preuves de ce qu’elles ont fait — sont fausses », explique Samuel Woolley, directeur des études sur la désinformation à l’université de Pittsburgh. Et l’inverse est tout aussi vrai : accuser quelqu’un de réel d’être un deepfake ne nécessite aucune preuve.
L’expert en désinformation Hany Farid décrit une escalade : « Au début de l’Ukraine, quelques deepfakes, grossiers, pas convaincants. Gaza ? Beaucoup plus de faux contenus, et meilleurs. Le Venezuela ? Un monde parallèle. J’ai vu plus de faux contenus que de vrais. L’Iran a poussé le curseur encore plus loin. »
Les chiffres qui font froid dans le dos
Ce n’est pas un problème théorique. Les arnaques par deepfake sont devenues une industrie :
- Les escroqueries utilisant l’IA ont été multipliées par 20 entre 2023 et 2025, selon l’AARP (Association américaine des retraités)
- Le cabinet d’ingénierie britannique Arup a perdu 25 millions de dollars quand des attaquants ont utilisé un deepfake de son directeur financier lors d’un appel vidéo
- Fabriquer un deepfake convaincant pour une attaque ciblée coûte entre 500 et 1 000 dollars avec des outils largement gratuits. Une attaque sophistiquée : 5 000 à 10 000 dollars, selon CloudGuard
- La moitié de tous les emails de spam sont désormais générés par IA, d’après une étude de l’université Columbia
En Inde, le patron de la Bourse de Bombay a vu un deepfake de lui circuler sur les réseaux sociaux, donnant de faux conseils boursiers. Chez LastPass, le PDG Karim Toubba a été cloné par IA pour tenter d’arnaquer un employé européen via WhatsApp. L’employé a flairé le piège — le message venait de son téléphone personnel et non du canal d’entreprise.
La solution ? Celle de vos grands-parents
Face à cette impasse technologique, la recommandation des plus grands experts en sécurité numérique est d’une simplicité déconcertante : des mots de passe familiaux.
« Ma femme et moi avons un mot de code qu’on utilise en cas d’appel inhabituel », confie Farid. « On ne l’a jamais utilisé pour de vrai, mais parfois je lui demande juste pour vérifier qu’on ne l’a pas oublié. » La tante Eleanor du journaliste avait aussi un mot de code — pour ses enfants et son mari. Mais son neveu n’était pas dans la boucle.
L’idée, c’est de l’authentification multifacteur version humaine : une phrase secrète que vous partagez avec vos proches, que personne d’autre ne connaît, et qui prouve votre identité en cas de doute. Low-tech. Efficace. Mais qui oblige à admettre qu’en 2026, la technologie la plus avancée pour prouver qu’on est humain… c’est un mot de passe oral, comme au Moyen Âge.
Ce qu’on en pense
Il y a quelque chose de profondément vertigineux dans ce basculement. On a passé des années à craindre d’être trompés par des faux. Le vrai danger, c’est l’inverse : ne plus pouvoir prouver qu’on est vrai. Et les conséquences dépassent les arnaques financières.
Quand un chef d’État ne peut pas convaincre le monde qu’il est vivant malgré trois vidéos, quand un expert de Berkeley dit « c’est terminé » sans ciller, quand la meilleure défense que proposent les spécialistes est littéralement un code secret entre amis — on a un problème civilisationnel, pas juste un problème technique.
Le dividende du menteur va empirer. Et on n’a rien de mieux qu’un mot de passe murmuré entre proches pour y faire face.
Sources
- BBC Future — « I tried to prove I’m not AI. My aunt wasn’t convinced » (Thomas Germain, 25 mars 2026)
- BBC Verify — « Wave of false AI claims about Israeli PM Netanyahu » (16 mars 2026)
- BBC News — « Deepfake attack: Many people could have been cheated »
- AARP — « AI-Powered Scams Make Fraud Even Harder to Spot »
À lire aussi : Deepfakes : comment les repérer et s’en protéger · Clonage vocal par IA : comment ça marche et pourquoi ça pose problème · Zoom fabrique vos clones IA et combat les deepfakes en même temps