Google DeepMind propose que les systèmes d’IA confient volontairement des tâches aux humains qu’ils pourraient gérer seuls. Objectif : éviter que nos compétences ne rouillent pendant que les machines bossent à notre place.
Le paradoxe du pilote qui ne pilote plus
C’est une idée qui a de quoi faire sourire. Dans un article de recherche publié cette semaine, des chercheurs de Google DeepMind suggèrent que l’IA devrait, de temps en temps, refiler du boulot aux humains exprès. Pas par incompétence, mais pour leur propre bien.
Le raisonnement s’appuie sur ce que The Atlantic avait baptisé dès 2016 le « paradoxe de l’automatisation ». Le principe est simple : plus on automatise une tâche, moins les humains chargés de superviser le système comprennent ce qu’il fait. Le jour où ça plante, personne ne sait reprendre la main. On l’a vu dans l’aviation, on le voit maintenant dans l’IA.
Les chercheurs appellent ça construire des « inefficacités délibérées ». Traduction : l’IA saurait faire le travail, mais elle le confie quand même à un humain. Pour que celui-ci garde la main, qu’il continue de comprendre les mécanismes, qu’il ne devienne pas un simple spectateur déconnecté du système qu’il est censé surveiller.
Quand les agents IA se délèguent le travail entre eux
Le papier va bien au-delà de cette recommandation provocante. L’équipe de DeepMind propose un cadre complet pour organiser la « délégation intelligente » entre agents IA et humains. L’idée, rapporte The Decoder, c’est que les agents IA vont bientôt distribuer des tâches de manière autonome, entre eux et vers des humains. Et que les protocoles actuels ne sont pas à la hauteur.
Les chercheurs empruntent au vocabulaire des organisations humaines. Ils appliquent le « problème principal-agent », un classique de la théorie économique, aux systèmes d’IA. Quand un donneur d’ordre confie une mission à un exécutant, les objectifs des deux ne sont pas toujours alignés. Chez les IA, ça se traduit moins par de la triche délibérée que par du « reward hacking » : le système exploite les failles de sa fonction objectif pour maximiser son score sans vraiment résoudre le problème.
Autre concept emprunté à l’aviation : le « gradient d’autorité ». Quand l’écart de compétence entre un superviseur et son subordonné est trop grand, la communication se grippe. Appliqué à l’IA, ça donne des systèmes « flagorneurs » qui disent ce que l’utilisateur veut entendre au lieu de signaler un problème.
La « zone de déformation morale », ou comment absorber la faute
Le cadre proposé repose sur cinq piliers : évaluation continue des agents, redistribution dynamique des tâches quand les conditions changent, traçabilité de toutes les décisions, systèmes de réputation pour coordonner des places de marché ouvertes, et garde-fous pour empêcher qu’une erreur individuelle ne se propage dans tout le réseau.
Sur la sécurité, le papier tire la sonnette d’alarme. Il pointe le risque d’agents malveillants qui volent des données ou livrent des résultats falsifiés, de « virus agentiques » (des prompts qui se propagent d’un agent à l’autre) et de « monoculture cognitive ». Si trop d’agents tournent sur les mêmes modèles de fondation, une seule faille suffit à faire tomber des pans entiers du réseau.
Les chercheurs identifient aussi ce qu’ils appellent une « zone de déformation morale ». Le concept est glaçant : des humains placés dans la chaîne de décision sans réel pouvoir, juste pour absorber la responsabilité quand les choses tournent mal. Un fusible humain, en quelque sorte.
MCP, A2A : les protocoles actuels recalés
L’équipe a passé au crible les protocoles existants pour la communication entre agents. Le MCP d’Anthropic, le protocole A2A de Google, le Agent Payments Protocol. Verdict : aucun ne répond pleinement aux exigences de la délégation intelligente telle qu’ils la conçoivent. Le MCP ne propose qu’un accès binaire, sans niveaux d’autorisation plus fins. A2A manque de vérification cryptographique des résultats.
Reste la question qui fâche. Si l’IA doit nous donner du travail pour qu’on garde nos compétences, ça veut dire quoi pour les millions de postes qu’on nous promet de supprimer ? DeepMind ne répond pas. Mais le simple fait qu’une filiale de Google publie un papier sur les risques de trop déléguer à l’IA, c’est un signal qu’on aurait tort d’ignorer.