Angel a 24 ans, parle couramment anglais, chinois, russe et turc. Elle vient d’arriver à Sihanoukville, au Cambodge, et envoie sa candidature vidéo sur Telegram. Pas pour un poste de traductrice ou de guide touristique, mais pour devenir « mannequin IA ». Son futur quotidien : s’asseoir devant un ordinateur et enchaîner des dizaines d’appels vidéo, son visage superposé en temps réel à celui d’une fausse identité grâce à un logiciel de deepfake. De l’autre côté de l’écran, des victimes persuadées de parler à quelqu’un de réel. Bienvenue dans l’industrie des arnaques 2.0.
Des offres d’emploi sur Telegram, des bureaux derrière des barbelés
Une enquête de Wired, publiée le 16 mars, révèle l’existence de dizaines de chaînes Telegram où des candidats du monde entier postulent pour devenir « modèle IA » ou « modèle visage réel ». Les annonces promettent un emploi au Cambodge, au Laos ou au Myanmar. Ce qu’elles ne précisent pas : les « bureaux » sont souvent des complexes fortifiés, entourés de murs de quatre mètres couronnés de barbelés et de tessons de verre, surveillés par des gardes armés et des caméras à chaque coin de rue.
Ces usines à arnaques, appelées yuanqu dans le jargon criminel chinois, sont le moteur d’une industrie qui brasse des milliards de dollars chaque année. Selon Amnesty International, au moins 53 de ces complexes sont répertoriés rien qu’au Cambodge. Le Korea Times, qui a enquêté sur place en octobre 2025, rapporte que le chef de la communauté coréenne locale, Oh Chang-soo, résume la situation en une phrase : « La ville entière de Sihanoukville est pratiquement une prison. » Des Coréens, des Chinois, des Philippins y sont retenus contre leur gré, passeports confisqués, contraints de participer à des opérations frauduleuses.
L’appel vidéo, dernier rempart des victimes, tombe à son tour
Le schéma du « pig butchering », ces arnaques sentimentales ou crypto où l’escroc gagne patiemment la confiance de sa victime avant de la dépouiller, reposait jusqu’ici sur des photos volées et des messages soigneusement rédigés. Le point faible : quand la victime demande un appel vidéo pour vérifier l’identité de son interlocuteur, le bluff s’écroule. C’est précisément ce verrou que les « mannequins IA » font sauter.
Le logiciel de permutation faciale remplace en temps réel le visage de la personne assise devant la caméra par celui du faux profil utilisé dans l’arnaque. Le mannequin apporte les expressions, les mouvements de tête, la gestuelle naturelle. L’intelligence artificielle colle le masque numérique par-dessus, pixel par pixel, assez vite pour que le flux vidéo reste fluide. Résultat : la victime croit voir « la personne de la photo de profil » en chair et en os. L’appel vidéo, autrefois ultime preuve de bonne foi, devient une arme supplémentaire.
« Depuis un an, ils recrutent aussi des gens pour faire du mannequinat IA », confirme Hieu Minh Ngo, enquêteur cybercriminalité chez ChongLuaDao, une ONG vietnamienne spécialisée dans la lutte contre les arnaques en ligne, cité par Wired. « Ils vous fournissent le logiciel pour que votre visage soit échangé grâce à l’IA, et ils peuvent faire des arnaques sentimentales. »
Un marché du travail sordide qui se structure
Les vidéos de candidature analysées par Wired et Humanity Research Consultancy montrent des profils venus de Turquie, de Russie, d’Ukraine, de Biélorussie et de plusieurs pays d’Asie du Sud-Est. Certaines candidates, comme Angel avec sa mention « un an d’expérience en tant que modèle IA » sur son CV vidéo, semblent parfaitement au courant de ce qui les attend. D’autres le découvrent une fois sur place.
Le rapport de Humanity Research Consultancy, publié en février 2026, documente la montée en puissance de ces recrutements sur Telegram. Les annonces ciblent explicitement des personnes prêtes à s’installer dans des « villes connues pour être des plaques tournantes d’arnaques ». Le processus de sélection ressemble à n’importe quelle offre d’emploi : photo, vidéo de présentation, compétences linguistiques, mensurations. Sauf que le poste consiste à aider des réseaux criminels à voler l’épargne de particuliers à l’autre bout du monde.
Le Korea Times a documenté le cas concret de deux jeunes Coréens enfermés au treizième étage d’un hôtel de Sihanoukville, forcés de passer des appels de hameçonnage vocal. Les dix premiers étages de l’immeuble accueillaient des clients classiques. Les cinq derniers servaient de base opérationnelle au réseau criminel. La façade de normalité fait partie intégrante du dispositif.
Des outils accessibles, une industrie qui grossit
Ce qui inquiète les spécialistes, c’est la montée en gamme. Les logiciels de permutation faciale en temps réel se sont démocratisés ces deux dernières années. Plusieurs sont disponibles en téléchargement libre sur GitHub. Les centres d’arnaques les intègrent désormais comme un outil standard de leur chaîne de production, au même titre qu’un script de conversation ou une fausse page de portefeuille crypto. Le mannequinat IA n’est plus un bricolage artisanal : c’est un poste avec candidature, sélection et « expérience requise ».
Le phénomène dépasse largement le Cambodge. Des opérations similaires ont été documentées au Laos, au Myanmar, aux Philippines et en Thaïlande. Les victimes des arnaques se comptent par centaines de milliers dans le monde, principalement aux États-Unis, en Europe et en Australie. L’ONU estime que plus de 200 000 personnes sont retenues dans des centres d’arnaques en Asie du Sud-Est. Tant que les outils de deepfake resteront accessibles et que les plateformes comme Telegram hébergeront ces recrutements sans broncher, le marché des « mannequins IA » continuera de grossir.
L’Union européenne prépare un volet spécifique de son AI Act consacré aux deepfakes, avec une obligation de marquage et de traçabilité prévue pour 2027. Reste à voir si ces régulations auront le moindre effet sur des opérations criminelles situées hors de toute juridiction européenne, dans des pays où la corruption locale garantit l’impunité des exploitants.