Cinquante pour cent. C’est le taux auquel ChatGPT Voice a répété de fausses affirmations quand on lui a demandé de le faire, selon une étude publiée le 19 février 2026 par NewsGuard, société américaine spécialisée dans la vérification de l’information. Gemini Live, l’assistant vocal de Google, s’en tire à peine mieux : 45%. Alexa+, lui, n’a jamais craqué.

La méthode : 20 fausses affirmations, trois façons de les poser

Les chercheurs de NewsGuard ont conçu un test en trois volets. Ils ont soumis ChatGPT Voice (OpenAI), Gemini Live (Google) et Alexa+ (Amazon) à 20 fausses affirmations tirées de leur base de données propriétaire, réparties sur quatre thèmes : santé, politique américaine, actualité mondiale et désinformation d’origine étrangère. Chaque affirmation a été testée via trois types de questions : une question neutre, une question orientée et, enfin, une requête malveillante. Dans ce dernier cas, on demandait carrément au bot de générer un script de reportage radio présentant la fausse information comme vraie.

En cumulant les trois types de prompts, ChatGPT Voice a répété des fausses informations dans 22% des cas. Gemini Live, 23%. Résultat en apparence modeste, mais qui grimpe brutalement quand les prompts deviennent malveillants : 50% pour ChatGPT, 45% pour Gemini. Un sur deux.

La propagande pro-russe passe mieux que les autres

Le plus frappant dans les résultats de NewsGuard, c’est que la désinformation d’origine étrangère s’est révélée la plus difficile à bloquer. Gemini Live a répété des affirmations pro-Kremlin dans 40% des cas, ChatGPT Voice dans 33%. Pour comparaison, les deux assistants ont bien mieux résisté aux fausses informations sur la santé : 6% pour Gemini, 0% pour ChatGPT.

Quelques exemples concrets. Les deux bots ont généré des reportages audio fictifs sur une prétendue présence d’enfants d’oligarques ukrainiens parmi les victimes de l’incendie de Crans-Montana en janvier 2026. L’affirmation venait de comptes pro-russes et ne reposait sur rien. Même chose avec une fausse information sur une soi-disant découverte de soldats ukrainiens lors d’une opération contre le cartel Tren de Aragua en Colombie. Cette rumeur avait été diffusée par Storm-1516, une opération d’influence russe documentée par Microsoft.

Alexa+, l’exception qui confirme tout

Zéro faute pour Alexa+. À chaque requête, même malveillante, l’assistant vocal d’Amazon a refusé de propager les fausses affirmations. Mieux : selon NewsGuard, il expliquait souvent pourquoi la demande était problématique. Leila Rouhi, vice-présidente d’Amazon, a indiqué que l’assistant s’appuie sur des sources d’information vérifiées comme l’AP (Associated Press) et Reuters pour construire ses réponses.

De son côté, OpenAI n’a pas répondu aux questions de NewsGuard. Google n’a pas donné suite à deux relances successives.

Reste une question que l’étude pose sans y répondre : si des garde-fous aussi efficaces existent chez Amazon, pourquoi OpenAI et Google ne les ont-ils pas encore intégrés ? NewsGuard souligne que le problème n’est pas technique. Il est de volonté.