Neuf réponses justes sur dix. Le chiffre semble rassurant. Sauf qu’une étude commandée par le New York Times vient de retourner la promesse comme un gant : plus de la moitié des bonnes réponses de l’IA de Google citent des sources qui ne confirment absolument rien de ce qu’elle avance.
4 326 recherches passées au crible
La startup d’IA Oumi a testé les AI Overviews de Google, ces résumés générés par intelligence artificielle qui s’affichent tout en haut des résultats de recherche, sur 4 326 requêtes. Le protocole s’appuie sur SimpleQA, un outil de mesure de la fiabilité factuelle développé par OpenAI. Deux vagues de tests ont été réalisées : en octobre 2025, quand Google utilisait Gemini 2, et en février 2026, après la migration vers Gemini 3.
Résultat : la précision est passée de 85% à 91%. Six points de mieux en quatre mois, c’est un progrès réel. Mais rapporté à l’échelle de Google, le problème change de dimension. Avec des milliards de recherches quotidiennes, 9% d’erreurs se traduisent par des millions de réponses fausses chaque heure. Le site Slashdot a titré sans détour : « les AI Overviews de Google racontent des millions de mensonges par heure ».
Justes, mais sans preuves
Le constat le plus troublant ne concerne pas les erreurs. Il concerne les bonnes réponses. En octobre, 37% des réponses correctes de l’IA étaient « non fondées », c’est-à-dire que les sources citées par Google ne contenaient pas l’information avancée. En février, ce chiffre a grimpé à 56%. Plus de la moitié des réponses justes renvoient vers des pages qui ne disent pas ce que Google prétend y avoir trouvé.
Concrètement, l’IA donne la bonne réponse, mais le lien censé la prouver ne prouve rien du tout. Le lecteur qui veut vérifier tombe sur une page sans rapport ou qui contredit partiellement l’information affichée.
Le classement des sources les plus utilisées par l’IA interroge autant que le fond. Facebook apparaît dans 5% des réponses correctes et 7% des réponses erronées, ce qui en fait la deuxième source la plus fréquente. Reddit se hisse au quatrième rang. Deux plateformes où n’importe qui peut écrire n’importe quoi, promues au rang de références par le moteur de recherche le plus utilisé au monde.
Le musée Bob Marley, une rivière fantôme et un violoncelliste introuvable
Les exemples d’erreurs identifiés par l’étude racontent chacun un scénario différent. Pour une question sur le Classical Music Hall of Fame, l’IA a trouvé le bon site web, repéré le nom du violoncelliste Yo-Yo Ma, puis affirmé qu’il n’avait jamais été intronisé. La page disait pourtant le contraire.
Sur une question portant sur la plus longue rivière de Caroline du Nord, Google a accédé au bon site touristique mais a confondu la « Little River » avec la « Neuse River », renvoyant une réponse fausse tirée d’une source correcte. L’IA avait toutes les données sous les yeux et a choisi la mauvaise ligne.
Pour le musée Bob Marley à Kingston, l’IA a donné 1987 comme année d’ouverture au lieu de 1986, en piochant dans des sources contradictoires sans trancher. Un an d’écart qui passe inaperçu pour la plupart des utilisateurs, mais qui illustre la fragilité du système : l’IA ne distingue pas une source fiable d’une page approximative. Pour des questions médicales, juridiques ou financières, ce type de confusion peut avoir des conséquences bien plus lourdes qu’une date de musée.
Un tiers du trafic des éditeurs évaporé
Ces résumés automatiques ne se contentent pas d’afficher des réponses bancales. Ils absorbent les clics. Selon les données compilées par Press Gazette, le trafic Google vers les sites d’information a chuté d’un tiers en 2025 à l’échelle mondiale. Les AI Overviews y contribuent directement : quand un résumé s’affiche, le taux de clic organique chute de 61%, passant de 1,76% à 0,61%. Pour un site qui occupait la première position, la perte atteint 79% si le résultat glisse sous le résumé généré par l’IA.
En 2026, 58% des recherches Google se terminent sans un seul clic. L’utilisateur obtient sa réponse, referme l’onglet, et le site qui a produit l’information originale ne le saura jamais. Les éditeurs anticipent une baisse de trafic de 43% sur les trois prochaines années, selon une enquête du Digital Content Next. Certains petits éditeurs ont déjà fermé. Les secteurs lifestyle, voyage et célébrités sont les plus touchés, avec des baisses allant de 8% à 55% sur un an, rapporte AdExchanger.
Google balaie les critiques
Du côté de Mountain View, le porte-parole Ned Adriance a qualifié l’étude de « trouée » et pointé des limites méthodologiques. Selon lui, le benchmark SimpleQA contient lui-même des erreurs et ne reflète pas les requêtes réelles des utilisateurs. Google n’a pas contesté le chiffre de 56% de réponses non fondées.
La position est délicate. Google a construit sa domination sur la promesse de renvoyer vers les meilleures sources. Avec les AI Overviews, le moteur garde l’utilisateur sur sa page, donne une réponse directe, et relègue les sources en second plan. Quand ces sources ne soutiennent même plus les réponses affichées, la boucle se referme : l’IA cite des pages qu’elle ne lit pas vraiment, et l’utilisateur ne les visitera jamais.
Le Parlement européen examine depuis mars un projet de directive sur la transparence algorithmique des moteurs de recherche. Aux États-Unis, le procès antitrust de Google pourrait imposer des obligations de renvoi de trafic vers les éditeurs dès 2027. En attendant, chaque recherche Google passe d’abord par un filtre dont personne, pas même Google, ne peut garantir la fiabilité à 100%.