3,35 milliards de paramètres, plus de 70 langues, et pas besoin de Wi-Fi. Cohere vient de poser un sacré pavé dans la mare.

L’IA qui parle bengali sur un laptop

La startup canadienne Cohere a profité du India AI Summit pour dévoiler Tiny Aya, une nouvelle famille de modèles de langage open-weight. Concrètement, n’importe qui peut télécharger ces modèles, les modifier et les faire tourner sur un ordinateur portable classique. Sans connexion internet.

Le modèle de base embarque 3,35 milliards de paramètres. C’est léger comparé aux mastodontes du secteur, mais c’est justement le point. L’idée, c’est de permettre à des développeurs de créer des applications en langues locales sans dépendre du cloud.

Et on ne parle pas que d’anglais ou de français. Bengali, hindi, tamoul, ourdou, gujarati, marathi, télougou, pendjabi… la liste couvre plus de 70 langues.

Quatre variantes pour couvrir la planète

Cohere ne s’est pas contenté d’un modèle unique. La famille Tiny Aya se décline en plusieurs versions régionales. TinyAya-Global, d’abord, est une version affinée pour mieux suivre les instructions des utilisateurs. TinyAya-Earth cible les langues africaines. TinyAya-Fire se concentre sur l’Asie du Sud. TinyAya-Water couvre l’Asie-Pacifique, l’Asie de l’Ouest et l’Europe.

Chaque variante développe ce que Cohere appelle un « ancrage linguistique plus profond ». Traduction : les réponses sonnent plus naturelles pour les locuteurs natifs, avec des nuances culturelles que les gros modèles généralistes ratent souvent.

Entraîné sur 64 GPU, pas sur un méga-cluster

Détail qui compte : toute la famille Tiny Aya a été entraînée sur un seul cluster de 64 GPU H100 de Nvidia. Pour le secteur, c’est modeste. Les géants comme OpenAI ou Google mobilisent des milliers de puces pour leurs modèles phares.

Cette sobriété en calcul n’est pas un hasard. Cohere a optimisé son logiciel pour fonctionner directement sur les appareils des utilisateurs, avec une consommation de ressources réduite par rapport aux modèles comparables. Dans un pays comme l’Inde, où la connexion internet reste inégale selon les régions, pouvoir faire tourner un traducteur hors ligne change la donne.

Une startup qui prépare son entrée en bourse

Cohere n’est pas un petit joueur. La startup fondée à Toronto en 2019 par Aidan Gomez (co-auteur du papier fondateur sur les Transformers) a bouclé 2025 avec 240 millions de dollars de revenus récurrents annuels, selon CNBC. La croissance trimestrielle dépassait les 50 % tout au long de l’année.

Son PDG a évoqué une entrée en bourse « prochaine ». Les modèles Tiny Aya sont disponibles sur HuggingFace, Kaggle et Ollama. Les jeux de données d’entraînement et d’évaluation seront aussi publiés, avec un rapport technique détaillant la méthodologie.

Et après ?

Reste à voir si les développeurs s’en empareront massivement. Le marché des modèles open-source multilingues est encore jeune, et la demande dans les pays émergents explose. Cohere mise gros sur le fait que l’IA ne doit pas parler qu’anglais pour être utile.