Georgi Gerganov a lâché la bombe ce vendredi matin. Le créateur de llama.cpp, le logiciel open source le plus téléchargé au monde pour faire tourner des modèles d’intelligence artificielle sur un simple ordinateur portable, rejoint Hugging Face avec toute son équipe.

Un mariage qui se préparait en coulisses

L’annonce a été publiée simultanément sur GitHub et sur le blog de Hugging Face. Gerganov et ses développeurs passent sous le toit de la plateforme française, devenue au fil des ans le hub central de la communauté IA mondiale. Concrètement, l’équipe ggml continue de consacrer 100 % de son temps à llama.cpp. Rien ne change dans la gouvernance du projet : les décisions techniques restent entre les mains des contributeurs. Hugging Face apporte ce qui manquait, des ressources financières sur le long terme pour qu’un projet bénévole ne s’essouffle pas.

La collaboration entre les deux entités n’est pas nouvelle. Deux ingénieurs de Hugging Face, Son Nguyen Xuan et Alek Buzinsky, contribuaient déjà activement au code de llama.cpp. Ils ont ajouté le support multimodal, amélioré le format de fichier GGUF et intégré l’outil dans l’infrastructure d’inférence de la plateforme. Formaliser le partenariat coulait de source, selon les deux parties.

Pourquoi ça compte

Pour ceux qui ne baignent pas dans la technique : llama.cpp permet de faire tourner des modèles comme Llama, Mistral ou Qwen directement sur votre machine, sans envoyer vos données vers un serveur distant. Plus de 70 000 étoiles sur GitHub, des milliers de projets qui en dépendent. C’est la brique de base qui rend l’IA locale possible pour le commun des mortels.

L’objectif : un clic pour tout faire tourner

Le chantier prioritaire ? Brancher llama.cpp à la bibliothèque transformers de Hugging Face pour qu’un modèle publié sur la plateforme puisse être converti et lancé en local quasi automatiquement. Aujourd’hui, le processus demande encore quelques manipulations manuelles (quantification, conversion de format). Demain, le but est de réduire ça à un seul clic.

L’autre axe, c’est le packaging. Installer llama.cpp reste un parcours du combattant pour quelqu’un qui ne compile pas du C++ avant le petit-déjeuner. Hugging Face veut simplifier tout ça, rendre l’outil accessible aux utilisateurs « grand public » qui veulent garder leurs conversations privées sans passer par OpenAI ou Google.

Open source et gros sous, le dilemme éternel

La question qui fâche, on la pose quand même. Un projet open source critique qui passe sous la coupe d’une entreprise, ça a déjà mal tourné (Redis, Elasticsearch, MongoDB). Gerganov insiste : la licence MIT ne bouge pas, la communauté garde le contrôle. Hugging Face, de son côté, a bâti sa réputation sur l’open source et semble sincère dans cette démarche, du moins pour l’instant.

Reste que la concentration du pouvoir dans l’écosystème IA devrait interpeller. Hugging Face héberge déjà les modèles, les jeux de données et maintenant le moteur d’inférence local dominant. Beaucoup d’œufs dans le même panier. La communauté Hacker News, qui a propulsé l’annonce en tête du classement, oscille entre enthousiasme et prudence mesurée.

Le message de Gerganov résume bien l’ambition : « Rendre la superintelligence open source accessible au monde entier. » Rien que ça.