Depuis hier, une phrase suffit pour obtenir un graphique interactif dans Gemini. « Montre-moi comment fonctionne X » et l’assistant de Google génère une visualisation que vous pouvez modifier en temps réel, faire pivoter, explorer sous tous les angles, sans quitter la conversation. Google a lancé cette fonctionnalité le 9 avril pour les abonnés Pro, avec environ un mois de décalage sur Claude d’Anthropic. Ce délai dit quelque chose sur la direction que prend la bataille entre assistants IA.

Tourner, ajuster, explorer sans changer d’onglet

Concrètement, l’utilisateur tape une demande comme « aide-moi à visualiser comment ce paramètre évolue » et Gemini construit une représentation graphique directement dans la fenêtre de conversation. The Decoder rapporte un exemple précis : une invite demandant de montrer l’impact des réponses générées par IA sur le trafic web, avec un taux de conversion de 1% vers les sources originales. Gemini produit un schéma dynamique que l’utilisateur peut modifier en changeant les variables, sans relancer une nouvelle requête.

Les modèles en trois dimensions sont dans le périmètre. L’utilisateur peut les faire pivoter pour examiner un objet, un concept ou une structure depuis plusieurs angles. Ce type d’interaction dépasse ce que les outils de génération d’images comme DALL-E d’OpenAI proposent aujourd’hui : ici, la visualisation reste liée aux données de la conversation et réagit aux modifications.

Pour accéder à la fonctionnalité, il faut utiliser Gemini Pro sur gemini.google dans un navigateur web. Les formules « montre-moi » ou « aide-moi à visualiser » semblent les plus efficaces pour déclencher le mode graphique. Le modèle juge lui-même quand une visualisation apporte quelque chose de plus, et peut en générer une spontanément si le contexte s’y prête.

Google derrière Anthropic d’un mois, ce qui change tout

Il y a un an, l’idée qu’Anthropic sorte une fonctionnalité grand public avant Google paraissait improbable. Anthropic a été fondée en 2021 par d’anciens d’OpenAI, et elle reste dix fois plus petite que Mountain View en termes d’effectifs et de ressources de calcul. Pourtant, c’est Claude qui a déployé les visualisations interactives en mars 2026, selon The Decoder, et Gemini qui a suivi le 9 avril.

Ce mois d’écart est symboliquement fort. Il ne signifie pas qu’Anthropic a « battu » Google au sens technique : les capacités des deux modèles restent distinctes sur beaucoup d’autres dimensions. Mais il confirme une tendance que plusieurs observateurs du secteur notent depuis le début de l’année : la compétition entre assistants IA ne porte plus seulement sur la qualité des réponses textuelles. Elle porte sur l’expérience, la fluidité, la façon dont l’information devient accessible sans friction.

Selon The Decoder, l’implémentation de Claude fonctionne selon un principe similaire à celui de Gemini : le modèle décide lui-même quand une visualisation aide à comprendre, ou l’utilisateur peut en demander une explicitement. Google a repris cette approche plutôt que de créer une interface dédiée aux graphiques, ce qui aurait compliqué l’expérience de base.

Ce que ça change pour vous, concrètement

L’usage le plus direct concerne la compréhension de données qui seraient rébarbatives en texte. Demander à Gemini de « montrer l’évolution des prix immobiliers en France depuis 2010 » peut produire une courbe qu’on fait glisser dans le temps, qu’on zoome sur une période particulière, qu’on compare à un autre indicateur en ajoutant une variable dans la conversation. L’alternative habituelle : ouvrir un onglet, chercher un outil de datavisualisation, importer des données, configurer un graphique. Compter vingt minutes minimum.

Pour les étudiants, le gain est encore plus net. Les modèles moléculaires en chimie, les figures géométriques en mathématiques, les phénomènes physiques dynamiques comme les ondes ou les orbites : autant de domaines où tourner, déformer, modifier une représentation en temps réel change la façon d’apprendre. Jusqu’ici, ces outils existaient séparément, dans des applications dédiées que beaucoup n’ont pas le réflexe d’utiliser.

VentureBeat rapporte une donnée qui éclaire pourquoi cette fonctionnalité arrive maintenant : le trafic généré par les IA vers des sites web convertit à 30 à 40%, contre moins de 5% pour le référencement classique sur Google. Les personnes qui posent une question à un assistant IA sont plus ciblées, plus engagées, que celles qui scrollent des résultats de recherche. Dans ce contexte, un assistant qui rend l’information compréhensible à l’intérieur même de la conversation capte davantage d’attention qu’un qui renvoie vers une page extérieure.

OpenAI à contre-courant, pour l’instant

OpenAI maintient une approche différente. DALL-E génère des images statiques, ChatGPT peut écrire du code Python pour créer un graphique avec matplotlib, mais l’expérience est fragmentée : le graphique s’affiche dans un bloc de code, et modifier une variable demande de réécrire la commande. Ce n’est pas de l’interactivité fluide, c’est de l’assistance au code.

La question est de savoir si OpenAI considère cette direction comme stratégique. L’entreprise a investi massivement dans les capacités vocales et dans la génération vidéo avec Sora. Les visualisations interactives ne semblent pas prioritaires dans sa feuille de route publique. Ce positionnement différent par rapport à Google et Anthropic pourrait indiquer des paris stratégiques divergents sur ce que les utilisateurs veulent vraiment dans un assistant IA.

L’interface comme prochain terrain de jeu

Ce que Gemini et Claude révèlent en déployant ces fonctionnalités à quelques semaines d’intervalle : les mois qui viennent de la compétition entre assistants IA se jouent sur l’interface, pas sur les benchmarks de raisonnement abstrait. Celui qui fait comprendre un phénomène le plus vite, sans friction, sans changement d’onglet, sans apprentissage préalable, gagnera la prochaine vague d’utilisateurs.

Google a une carte maîtresse : son assistant est lié à son moteur de recherche, à Google Docs, à Gmail, à tous les services que des milliards de personnes utilisent quotidiennement. Intégrer des visualisations interactives dans cet écosystème, c’est potentiellement transformer chaque document, chaque tableau de bord, chaque conversation en espace d’exploration dynamique. Anthropic, de son côté, n’a pas cet écosystème, mais a montré qu’il pouvait dicter le rythme de l’innovation sur les fonctionnalités.

La fonctionnalité est aujourd’hui réservée aux abonnés Pro sur gemini.google en navigateur web. Google n’a pas communiqué de calendrier pour une extension aux interfaces mobiles ou aux applications tierces. L’entreprise a simplement indiqué que la fonctionnalité sera « améliorée au fil du temps ». Anthropic, qui a un mois d’avance, va probablement aussi progresser. La question n’est plus de savoir si les IA visualiseront vos données, mais lesquelles le feront le mieux.