Un gouverneur du Texas partage une vidéo de frappe aérienne américaine sur l’Iran. Quelques heures plus tard, il la supprime sans un mot. Les images venaient de War Thunder, un jeu vidéo de simulation militaire. Plus de 7 millions de personnes l’avaient déjà vue.
Depuis l’escalade du conflit au Moyen-Orient, les réseaux sociaux croulent sous les fausses vidéos et images prétendant montrer des combats entre l’Iran et les États-Unis. Certaines sont recyclées d’autres pays. D’autres sortent de jeux vidéo. D’autres encore sont entièrement fabriquées par intelligence artificielle. Le site d’analyse médias NewsGuard a comptabilisé plus de 21,9 millions de vues cumulées pour ces contenus trompeurs. Et la machine ne ralentit pas.
Des feux d’artifice algériens vendus comme des missiles sur Tel Aviv
L’un des clips les plus viraux sur X prétendait montrer des missiles iraniens frappant le centre de Tel Aviv. Plus de 4 millions de personnes l’ont vu. En réalité, la vidéo montrait des supporters du CR Belouizdad, un club de football algérien, célébrant une victoire avec des feux d’artifice sur la place Al Mokrani à Alger.
Le détail le plus accablant : l’équipe de fact-checking d’Euronews (The Cube) avait déjà démenti ce même clip en 2023, quand il circulait comme preuve d’une attaque israélienne sur Gaza. Trois ans plus tard, la même vidéo fonctionne encore.
Arma 3 et War Thunder passent pour des images de guerre
Un autre clip viral affirmait montrer un bombardement américain sur l’Iran. Une légende en chinois accompagnait les images : « Les États-Unis ont déchaîné leurs F-15 dans la plus grande frappe aérienne de l’histoire moderne. » Cinq millions de vues. Sauf que la séquence provenait d’Arma 3, un simulateur militaire connu pour son réalisme graphique poussé.
Le cas du gouverneur Greg Abbott est encore plus embarrassant. L’élu texan a relayé une vidéo censée montrer « un avion iranien contre un navire américain », visionnée 7 millions de fois, rapporte Euronews. Il l’a retirée après que des internautes ont identifié des images tirées de War Thunder, un autre jeu de simulation militaire. Ni excuses, ni correction publique.
Le problème dépasse les simples erreurs de bonne foi. La qualité graphique des simulateurs militaires modernes rend la distinction quasi impossible pour un œil non averti, surtout sur un écran de smartphone où la vidéo défile en quelques secondes.
Grok certifie qu’un deepfake est authentique
Le cas le plus inquiétant concerne une vidéo entièrement générée par IA. On y voit des missiles balistiques détruire des immeubles résidentiels au centre de Tel Aviv. Le clip a circulé sur X, TikTok, Instagram, YouTube et Douyin (le TikTok chinois). Plusieurs indices trahissent la fabrication : des toits d’immeubles dupliqués à l’identique, une fumée d’une teinte orange artificielle, aucune sirène en arrière-plan.
Mais quand des utilisateurs de X ont interrogé Grok, le chatbot d’xAI, pour vérifier l’authenticité de la vidéo, la réponse a été catégorique. « Non, ce n’est pas de l’IA. C’est une vraie photo des frappes balistiques iraniennes sur le centre d’Israël », a affirmé le chatbot, avant de citer Reuters, CNN et Euronews comme sources. Aucun de ces trois médias n’avait publié quoi que ce soit de tel. Un chatbot qui invente ses propres preuves pour valider un faux : le scénario que les experts en désinformation redoutaient depuis des années vient de se concrétiser.
Un réseau de 31 comptes piratés pour inonder X
Nikita Bier, responsable produit de X, a reconnu l’ampleur du problème et annoncé des mesures. Les créateurs qui ne signalent pas leurs contenus générés par IA risquent l’exclusion du programme de partage de revenus de la plateforme. X compte aussi sur ses Community Notes pour identifier les vidéos synthétiques, mais des spécialistes de la vérification en ligne remettent en question l’efficacité de cet outil face au volume de publications.
La plateforme a identifié un compte se faisant passer pour un journaliste de Gaza qui publiait de fausses vidéos de frappes sur Tel Aviv. Plus sophistiqué : un utilisateur basé au Pakistan avait piraté 31 comptes existants, modifié leurs noms d’affichage, puis utilisé ce réseau pour diffuser massivement des vidéos générées par IA du conflit, selon les déclarations de Bier relayées par Euronews.
Les motivations sont doubles. D’un côté, l’argent : X rémunère les comptes populaires via son programme créateur, et une vidéo virale de « frappe militaire » génère des clics lucratifs. De l’autre, la propagande : NewsGuard a constaté que la majorité des contenus truqués émanaient de comptes pro-iraniens exagérant la puissance militaire du pays. Rolling Stone a consacré une enquête à ce phénomène qu’il qualifie de « nouvelle arme » dans le conflit.
Meta rappelé à l’ordre par son propre organe de contrôle
X n’est pas la seule plateforme dans le viseur. L’Oversight Board de Meta, l’organe de supervision indépendant que l’entreprise a elle-même créé, a publiquement critiqué le géant des réseaux sociaux pour la faiblesse de ses labels sur les contenus générés par IA. Sur Facebook et Instagram, les vidéos trompeuses circulent avec la simple mention « Made with AI », un marquage que la plupart des utilisateurs ignorent en scrollant, a rapporté NDTV.
Le New York Times a qualifié la situation de « cascade de faux générés par l’IA » provoquant un « chaos en ligne », tandis que Mother Jones titrait sur la « dégradation de notre confiance dans la réalité ». Le conflit Iran-USA est devenu le premier test grandeur nature de la désinformation par IA générative en temps de guerre.
L’Europe regarde, mais n’a pas encore bougé
L’AI Act européen, dont les premières obligations sont entrées en vigueur en février 2025, impose le marquage des contenus générés par IA. Le Digital Services Act (DSA) oblige les grandes plateformes à lutter activement contre la désinformation. Mais l’application concrète de ces textes aux contenus liés au conflit n’a fait l’objet d’aucune annonce officielle de la Commission européenne. Face à des vidéos qui cumulent des millions de vues en quelques heures avant d’être vérifiées, la question n’est plus de savoir si les outils existent, mais s’ils peuvent agir assez vite.