569 voix pour, 45 contre. Le Parlement européen a adopté jeudi 26 mars, à une écrasante majorité, un amendement qui inscrit l’interdiction des applications de « nudification » dans le règlement européen sur l’intelligence artificielle. Ces outils, capables de transformer n’importe quelle photo en image intime à l’aide de l’IA, visent principalement des femmes et des mineurs. Mais le même texte repousse de près de deux ans l’essentiel de la régulation des systèmes d’IA à haut risque. Un paradoxe qui résume bien l’état du débat européen sur l’IA en 2026.
Ce que le vote interdit concrètement
Le texte adopté ajoute une nouvelle pratique interdite au règlement IA européen (AI Act) : les systèmes qui « créent ou manipulent des images sexuellement explicites ou intimes ressemblant à une personne réelle identifiable, sans le consentement de cette personne ». En clair, toute application qui prend la photo de quelqu’un et génère une version nue ou sexualisée de cette personne tombe sous le coup de l’interdiction.
Une nuance importante : les systèmes dotés de « mesures de sécurité efficaces empêchant les utilisateurs de créer de telles images » sont exemptés. Autrement dit, un générateur d’images qui bloque activement ce type de requêtes ne sera pas visé. C’est une porte laissée ouverte aux entreprises qui intègrent des garde-fous, tout en ciblant les dizaines d’applications clandestines qui prospèrent sur Telegram et le dark web.
Le corapporteur du texte, le député irlandais Michael McNamara (groupe Renew), l’a résumé après le vote : « Ce compromis inclut une proposition visant à interdire les applications dites de nudification, ce que, selon moi, nos citoyens attendent des colégislateurs. » Le score du scrutin, 569 contre 45, montre que le sujet ne fait pratiquement pas débat dans l’hémicycle.
8 029 images en 2025 : le rapport qui a précipité le vote
Le timing n’est pas un hasard. Deux jours avant le vote, le 24 mars, l’Internet Watch Foundation (IWF) a publié un rapport accablant sur l’explosion des contenus pédocriminels générés par IA. En 2025, les analystes de l’IWF ont identifié 8 029 images et vidéos réalistes d’abus sexuels sur mineurs créées par intelligence artificielle, soit une hausse de 14 % par rapport à l’année précédente.
Plus inquiétant encore : en janvier 2026, l’organisation avait déjà signalé une multiplication par 260 du nombre de vidéos d’abus générées par IA. Dans son rapport, l’IWF détaille comment des individus échangent sur des forums du dark web des techniques pour rendre ces contenus toujours plus réalistes. Certains décrivent l’installation de caméras cachées pour filmer des enfants réels, dont les images sont ensuite transformées en vidéos d’abus par des outils d’IA. Un utilisateur cité dans le rapport s’extasie devant les résultats, qu’il qualifie de « chef-d’œuvre absolu » en « réalisme extrême ».
Un sondage Savanta, publié le même jour, indique que 82 % des adultes britanniques sont favorables à ce que les gouvernements imposent aux entreprises d’IA de sécuriser leurs modèles dès la conception. Kerry Smith, directrice de l’IWF, a appelé à un standard « non négociable » de protection intégrée dans le développement des outils d’IA.
Mais le phénomène dépasse largement les contenus pédocriminels. Ces outils de nudification touchent aussi des adolescentes, des étudiantes, des personnalités publiques. En Espagne, en 2023, un scandale avait éclaté dans la ville d’Almendralejo quand des lycéens avaient utilisé une application pour générer des images intimes de leurs camarades de classe. Depuis, plusieurs pays européens ont durci leur législation nationale, mais aucun cadre continental unifié n’existait jusqu’à ce vote.
Le paradoxe : interdire les nudes, reporter le reste
Le texte voté jeudi ne se limite pas à la nudification. Il fait partie d’un « paquet omnibus de simplification » qui modifie en profondeur le calendrier de l’AI Act. Et c’est là que le contraste devient frappant.
Pour les systèmes d’IA à haut risque (biométrie, infrastructures critiques, éducation, emploi, justice, gestion des frontières), la date d’entrée en vigueur des obligations passe du 2 août 2026 au 2 décembre 2027, soit 16 mois de retard. Pour les systèmes couverts par la législation sectorielle européenne sur la sécurité des produits, c’est encore pire : 2 août 2028, deux ans de plus que le calendrier initial.
Même le marquage numérique des contenus générés par IA, qui devait être obligatoire cet été, est repoussé au 2 novembre 2026. Concrètement, pendant encore plusieurs mois, rien n’obligera légalement un générateur d’images à indiquer que son contenu a été produit par une machine.
La corapporteure suédoise Arba Kokalari (PPE) justifie ce report par la nécessité de donner aux entreprises des « règles prévisibles, rapides et simplifiées ». Les normes techniques nécessaires à l’application du texte ne sont tout simplement pas prêtes, et selon plusieurs observateurs, les obliger à s’y conformer dès août 2026 aurait créé une insécurité juridique majeure.
Pour les PME, le texte prévoit aussi un allègement : les petites entreprises à moyenne capitalisation bénéficieront des mêmes mesures de soutien que les PME classiques, et les produits déjà réglementés par des lois sectorielles (dispositifs médicaux, jouets, équipements radio) pourront se voir appliquer des obligations allégées au titre de l’AI Act.
Quand l’interdiction entrera vraiment en vigueur
Le vote de jeudi n’est qu’une étape. Le Parlement a adopté sa « position », c’est-à-dire son mandat de négociation. Les discussions avec le Conseil de l’Union européenne (qui représente les gouvernements des 27) doivent maintenant s’ouvrir, suivies d’un trilogue avant un vote définitif. Selon le rythme habituel des institutions, l’adoption finale pourrait intervenir à l’automne 2026, avec une entrée en vigueur progressive.
D’ici là, la nudification reste un vide juridique au niveau européen. Plusieurs États membres, dont la France et l’Espagne, disposent déjà de législations nationales qui pénalisent la création et la diffusion d’images intimes non consenties, y compris celles générées par IA. Mais ces textes varient d’un pays à l’autre, et les applications de nudification, souvent hébergées hors de l’UE, échappent largement aux poursuites.
Le Parlement travaille parallèlement sur deux autres textes du même paquet omnibus numérique : un ensemble de modifications aux lois sur l’utilisation et la protection des données, et une proposition créant des portefeuilles européens d’identité numérique pour les entreprises. L’interdiction de la nudification fait donc partie d’un mouvement plus large, où l’Europe tente de rattraper le rythme d’une technologie qui la distance chaque mois un peu plus. La prochaine étape sera de voir si le Conseil suit l’élan du Parlement, ou si l’interdiction est édulcorée lors des négociations.