Trois millions d’images sexualisées générées en onze jours par un seul chatbot. Des photos de collégiennes transformées en contenus pédocriminels, échangées sur Telegram comme des cartes Pokémon. Jusqu’ici, l’Union européenne poursuivait les utilisateurs. Désormais, ce sont les outils eux-mêmes qu’elle veut interdire.

Le 18 mars, les commissions IMCO (marché intérieur) et LIBE (libertés civiles) du Parlement européen ont adopté un amendement au règlement sur l’intelligence artificielle, connu sous le nom d’AI Act. L’objectif : bannir du marché européen tous les systèmes d’IA capables de produire des images sexuellement explicites à partir de photos de personnes réelles, sans leur consentement. Une première mondiale qui vise les plateformes, pas seulement ceux qui s’en servent.

Des enquêtes à l’interdiction pure et simple

Jusqu’à présent, la stratégie européenne reposait sur deux piliers : le RGPD et le Digital Services Act. L’enquête ouverte contre X début 2026, après la vague d’images générées par Grok, en était l’illustration. Mais les eurodéputés ont vite compris les limites de cette approche. Punir les utilisateurs un par un, c’est comme vider l’océan à la petite cuillère quand le robinet reste ouvert.

Bloomberg qualifie cet amendement de « premier texte européen ciblant spécifiquement les plateformes d’IA » pour la production de contenus sexuels non consentis. Le changement de doctrine est radical : au lieu de courir après des millions d’utilisateurs anonymes, l’UE s’attaque directement aux entreprises qui fournissent l’outil.

La nuance est importante : le texte prévoit une exemption pour les systèmes dotés de « mesures de sécurité efficaces empêchant les utilisateurs de créer de telles images ». Autrement dit, si une entreprise prouve qu’elle a mis en place des filtres solides, elle n’est pas concernée. C’est un signal clair à toute l’industrie : soit vous verrouillez vos modèles, soit vous sortez du marché européen.

52 eurodéputés, tous partis confondus

Ce qui frappe dans cette initiative, c’est l’ampleur du consensus politique. La question parlementaire E-000202/2026, déposée le 20 janvier, porte la signature de 52 eurodéputés issus de cinq groupes différents : Verts, Sociaux-démocrates, Renew, Parti populaire européen et La Gauche. Du centre-droit à la gauche radicale, la coalition transcende les clivages habituels.

Les signataires ne mâchent pas leurs mots. Ils pointent « une augmentation des outils pilotés par l’IA qui permettent aux utilisateurs de générer des images intimes manipulées de personnes sans leur consentement, facilitant la cyberviolence de genre et la création de contenus pédocriminels ». Leur demande à la Commission est directe : ces systèmes représentent-ils « un risque inacceptable pour la santé, la sécurité et les droits fondamentaux » ? Si oui, ils doivent rejoindre la liste des pratiques d’IA interdites de l’article 5 de l’AI Act.

Michael McNamara, membre de la commission LIBE et élu Renew, résume le sentiment général lors du communiqué de presse : « C’est ce que nos citoyens attendent. »

Grok, le déclencheur que Musk ne contrôle plus

Difficile de parler de cette législation sans évoquer l’éléphant dans la pièce. Les eurodéputés évoquent explicitement « Grok sur X » dans leur question parlementaire, aux côtés d’« autres outils librement accessibles en ligne ». Le chatbot de xAI est devenu le symbole d’un problème systémique.

Les chiffres compilés par le Center for Countering Digital Hate donnent la mesure du phénomène : environ trois millions d’images sexualisées produites durant la période la plus active de la polémique, dont quelque 23 000 représentant apparemment des mineurs. Plutôt que de corriger le problème, xAI avait alors restreint l’accès aux abonnés payants. Les images les plus extrêmes ont continué de circuler hors de la plateforme, via des applications tierces accédant à l’API de Grok, rapporte Ars Technica.

Le dossier a pris une dimension judiciaire aux États-Unis. En janvier, Ashley St. Clair, mère d’un enfant de Musk, est devenue l’une des premières victimes à déposer plainte. Le 16 mars, trois adolescentes du Tennessee ont lancé un recours collectif devant un tribunal fédéral. Leur avocate, Annika K. Martin, accuse xAI d’avoir « intentionnellement conçu Grok pour tirer profit de la prédation sexuelle de personnes réelles, y compris des enfants ».

L’affaire du Tennessee révèle un circuit glaçant. Un utilisateur Discord a alerté une victime que ses photos, transformées en images explicites via une application tierce exploitant Grok, circulaient dans un dossier partagé avec celles de 18 autres mineures. La police a découvert que le suspect utilisait ces fichiers comme monnaie d’échange sur Telegram, les troquant contre d’autres contenus pédocriminels.

Un modèle pour le reste du monde

Si l’amendement suit son parcours législatif normal, il devra encore être voté en séance plénière et négocié avec le Conseil de l’UE. Mais le soutien transpartisan au Parlement laisse peu de doute sur l’issue. L’UE deviendrait alors la première juridiction au monde à interdire explicitement une catégorie entière de systèmes d’IA, pas simplement leurs usages.

La portée dépasse l’Europe. Le « Take It Down Act » américain, signé récemment, criminalise la publication de deepfakes non consentis, mais ne cible pas les outils de création. L’approche européenne va un cran plus loin : elle oblige les développeurs à intégrer des garde-fous dès la conception, sous peine d’exclusion du marché. C’est le principe de « safety by design » appliqué à la lutte contre les violences sexuelles numériques.

Pour xAI, les conséquences pourraient être immédiates. L’entreprise fait déjà face à une enquête RGPD de la Commission irlandaise, à des procédures judiciaires sur deux continents, et désormais à une interdiction potentielle de son produit phare en Europe. D’après les estimations des plaignantes du Tennessee, « au moins des milliers de mineurs » auraient été victimes du système. Le Parlement européen a choisi de ne plus attendre que les tribunaux tranchent un par un : il veut fermer le robinet à la source.