74 dollars de l’heure, en télétravail, horaires flexibles. L’annonce ressemble à un petit boulot rêvé pour acteurs en galère. La mission : improviser des scènes devant une caméra, explorer des personnages, exprimer des émotions sur commande. Le client ? « L’une des principales entreprises d’IA au monde », selon l’offre publiée par Handshake AI, une société spécialisée dans la fourniture de données d’entraînement aux grands laboratoires.
Derrière cette annonce en apparence anodine se cache une tendance de fond qui redessine le marché du travail : les géants de l’intelligence artificielle ne se contentent plus de développeurs et de data scientists. Ils recrutent des médecins, des avocats, des scénaristes, et maintenant des comédiens d’improvisation. L’objectif est simple : leurs modèles savent calculer, résumer, coder. Mais ils sont incapables de comprendre un haussement de sourcils, un silence gêné ou un éclat de rire nerveux.
Ce que les labos IA cherchent vraiment
L’offre d’emploi, repérée par The Verge sur la plateforme de Handshake AI, détaille un processus très encadré. Les participants sont mis en binôme par vidéo, reçoivent un scénario léger, puis improvisent librement. Les sessions sont « non scriptées et ouvertes », avec une large latitude créative. Mais les critères de sélection sont précis : le candidat doit démontrer une « conscience émotionnelle », c’est-à-dire la capacité de « reconnaître, exprimer et passer d’une émotion à l’autre de manière authentique et humaine ». Il doit aussi maintenir la cohérence d’un personnage tout au long d’une interaction.
Le nom du laboratoire client n’est pas divulgué, mais le contexte ne laisse guère de doute sur le type d’usage. Depuis 2024, OpenAI, Anthropic et Google ont tous lancé des modes vocaux avancés capables de moduler leur intonation, de marquer des pauses, voire de rire. ChatGPT propose plusieurs voix différentes avec des inflexions réalistes. Claude d’Anthropic a lancé un mode vocal en bêta en mai dernier, comme le rappelait The Verge. Grok, le chatbot d’Elon Musk, offre aussi une fonction similaire. Pour que ces voix sonnent « humaines », il faut des humains pour calibrer ce que « humain » veut dire.
Une industrie de la donnée humaine à plusieurs milliards
Handshake AI n’est pas un petit acteur. Selon Wired, la société était valorisée 3,5 milliards de dollars en 2022. Sa demande en données d’entraînement a triplé au cours de l’été dernier, et son chiffre d’affaires annualisé dépassait 150 millions de dollars en novembre, d’après The Verge. Le concurrent Surge AI était en discussion pour une levée de fonds à 25 milliards de dollars de valorisation l’été dernier, selon Bloomberg.
Ces chiffres traduisent une réalité que peu de gens soupçonnent : derrière les modèles d’IA se cache une armée de travailleurs humains. Handshake et ses concurrents (Mercor, Scale AI, Surge) revendiquent des réseaux de dizaines de milliers de professionnels qualifiés, des chimistes aux scénaristes, en passant par des juristes et des radiologues. Chacun contribue à rendre les modèles plus performants dans son domaine de spécialité, une tâche par tâche, une annotation à la fois.
Le phénomène n’est pas nouveau. Depuis les débuts du machine learning, les modèles ont besoin de données annotées par des humains. Ce qui a changé, c’est l’échelle et la spécialisation. Les premiers annotateurs étiquetaient des photos de chats. Aujourd’hui, on demande à des chirurgiens de valider des diagnostics et à des acteurs de simuler la colère ou la tendresse. Le prix a suivi : de quelques dollars de l’heure sur les plateformes de micro-travail type Mechanical Turk, on est passé à 74 dollars pour des compétences de niche.
OpenAI veut aussi vos anciens dossiers professionnels
Les acteurs d’impro ne sont que la pointe visible d’un effort bien plus large. En janvier dernier, Wired révélait qu’OpenAI demandait à des sous-traitants, toujours via Handshake AI, de téléverser des travaux réels issus de leurs emplois actuels ou passés. Des présentations PowerPoint, des tableurs Excel, des rapports PDF : le laboratoire veut mesurer les performances de ses modèles face à des tâches professionnelles concrètes, ce qu’il appelle le programme GDPval.
Un document interne consulté par Wired précise que les exemples doivent refléter du « vrai travail réalisé sur le terrain ». OpenAI demande aux contributeurs de supprimer les informations confidentielles et les données personnelles, mais laisse cette responsabilité aux individus eux-mêmes. Evan Brown, avocat spécialisé en propriété intellectuelle chez Neal & McDevitt, s’inquiète de cette approche : « Le labo IA fait énormément confiance à ses sous-traitants pour déterminer ce qui est confidentiel ou non. Si quelque chose passe à travers les mailles du filet, est-ce que le labo prend vraiment le temps de vérifier ? »
Le risque juridique est réel. Un sous-traitant qui fournit des documents de son ancien employeur, même anonymisés, pourrait violer des accords de confidentialité ou exposer des secrets commerciaux. Mais la pression est forte : ces missions paient bien, et les tâches arrivent par vagues imprévisibles, créant une compétition permanente entre contributeurs.
« Dystopique » : les premiers concernés grincent des dents
Sur le forum Reddit r/improv, l’annonce de Handshake a provoqué des réactions partagées. « C’est clairement une tentative de faire entraîner des modèles IA pour générer des vidéos par des humains », écrit un utilisateur. Un autre résume l’absurdité de la situation : « L’IA vient maintenant chercher nos jobs lucratifs dans l’improvisation », en référence au fait que l’impro est rarement une source de revenus stable.
Un troisième contributeur adopte une stratégie plus subversive : « Mon plan, c’était de saboter les données. » L’idée de polluer volontairement les données d’entraînement circule dans plusieurs communautés de créatifs qui se sentent instrumentalisés par les labos.
Le malaise dépasse le monde du spectacle. Wired rapportait en décembre que de nombreux professionnels recrutés par ces plateformes, avocats, ingénieurs, rédacteurs, craignent de former les outils qui les remplaceront. Le paradoxe est cruel : accepter la mission accélère potentiellement l’obsolescence de son propre métier, la refuser revient à laisser d’autres s’en charger.
Un commentateur sur Reddit voit pourtant une lueur d’espoir : « Je prédis un retour en force du spectacle vivant, porté par des gens qui en auront marre des services en ligne. Un vrai angle marketing pour les troupes d’impro : venez voir de la comédie brute, rigolote, PAS fabriquée par un ordinateur. »
La facture grimpe, le modèle vacille
Reste une question que personne dans l’industrie ne pose à voix haute : ce modèle économique est-il tenable ? Payer des dizaines de milliers de professionnels qualifiés à des tarifs élevés pour entraîner des modèles censés, à terme, remplacer ces mêmes professionnels crée une équation paradoxale. Plus les modèles progressent, plus ils ont besoin de données spécialisées, donc de spécialistes humains, pour franchir le palier suivant.
Handshake AI promet des missions « flexibles, faciles à caler entre deux auditions ». Mais comme le documentait The Verge, la rémunération de départ fond souvent après l’inscription, et le planning « flexible » l’est surtout pour le client, pas pour le travailleur qui rafraîchit sa boîte mail en espérant qu’une nouvelle tâche apparaisse.
OpenAI prévoit de publier ses premières évaluations GDPval comparant humains et modèles au cours du deuxième trimestre 2026. Si les résultats montrent que l’IA rattrape les professionnels sur un nombre croissant de tâches, la demande en données humaines pourrait évoluer : moins de volume brut, mais des cas de plus en plus spécialisés et difficiles à automatiser. Les acteurs d’impro pourraient bien être les derniers recrutés avant que la boucle ne se referme.