8 000. C’est le nombre de signalements de contenus pédopornographiques générés par intelligence artificielle recensés par l’Internet Watch Foundation (IWF) au cours du seul premier semestre 2025. Une hausse de 14% en un an. Et la progression ne ralentit pas.

OpenAI a publié mardi un plan baptisé « Child Safety Blueprint », un document qui fixe pour la première fois un cadre commun à l’industrie. Avec lui, une coalition inhabituelle : Amazon, Anthropic, Google, Meta, Microsoft, Mistral AI et Stability AI ont tous signé. Des concurrents directs qui, sur ce point précis, ont choisi d’agir ensemble.

Trois axes, une même urgence

Le blueprint s’articule autour de trois chantiers distincts. Le premier touche à la législation. Les lois en vigueur dans la plupart des pays ont été rédigées avant l’apparition des outils génératifs. Elles proscrivent les images d’abus réels, mais leur application aux contenus synthétiques, fabriqués de toutes pièces par un modèle de diffusion ou un générateur d’images, reste floue ou absente selon les juridictions.

Le deuxième axe porte sur le signalement. Aujourd’hui, quand un contenu illicite est détecté, les délais entre la découverte et la transmission aux forces de l’ordre varient selon les plateformes. OpenAI veut harmoniser ces procédures : des systèmes de remontée plus rapides, des formats standardisés pour faciliter les enquêtes.

Le troisième volet est technique. Il comprend des filtres de contenu renforcés, des outils de détection d’images et de texte ciblant spécifiquement les représentations de mineurs, et des mécanismes de filigrane numérique pour signaler l’origine synthétique d’un contenu. Un système de prédiction d’âge est aussi mentionné, destiné à adapter l’expérience utilisateur selon l’âge estimé de la personne.

Ce que l’IA a changé

Pendant des décennies, la lutte contre les contenus pédopornographiques s’appuyait sur un principe de base : ces images nécessitaient une victime réelle. Un enfant avait subi des abus pour que le contenu existe. Ce postulat a volé en éclats avec la démocratisation des outils génératifs.

Un utilisateur peut désormais produire des images d’une précision troublante sans impliquer aucun enfant réel. La barrière à l’entrée s’est effondrée : pas besoin de réseau criminel, pas besoin d’accès à des fichiers circulant sur le dark web. Un prompt suffit, si le modèle n’est pas correctement filtré.

L’IWF surveille ce type de contenus en ligne depuis 1996. Ses équipes ont constaté une explosion du phénomène dès 2024 : 8 000 signalements liés à des contenus générés par IA en six mois, soit davantage que sur l’ensemble de l’année précédente. Ce que l’organisation décrit n’est pas seulement une augmentation de volume : c’est aussi une montée en qualité technique des images, devenues de plus en plus difficiles à distinguer de photographies réelles.

« Accélérer de manière inquiétante »

Michelle DeLaune, présidente du National Center for Missing and Exploited Children (NCMEC), a salué l’initiative d’OpenAI. L’IA générative, dit-elle, « accélère l’exploitation sexuelle en ligne des enfants de manière inquiétante. » Elle ajoute que le fait de voir les entreprises concevoir des protections de manière proactive, plutôt que de réagir après coup, marque un changement de posture réel.

L’ONG Thorn, spécialisée dans le combat contre les abus sexuels sur mineurs, a participé à l’élaboration du document. Tout comme All Tech Is Human, un réseau qui travaille sur les impacts sociaux de la technologie. Ces organisations soulignent que l’IA générative ne crée pas le problème de l’exploitation des enfants, mais qu’elle le redimensionne. Les agresseurs disposent désormais d’un outil capable de produire du matériel en masse, à faible coût, sans traçabilité directe vers une victime réelle.

Le retard législatif, un problème opérationnel

L’UNICEF avait tiré la sonnette d’alarme en février. Dans un appel adressé aux gouvernements, l’agence onusienne réclamait la criminalisation explicite des contenus pédopornographiques générés par IA, soulignant que beaucoup de pays ne disposent pas de textes adaptés.

Aux États-Unis, la situation est fragmentée. Certains États ont légiféré, d’autres non. Au niveau fédéral, des projets de loi circulent depuis 2023 mais n’ont pas abouti. En Europe, la directive sur les abus sexuels sur enfants, dont la révision était prévue pour 2024, prend du retard dans son processus d’adoption.

Cette lenteur a des conséquences concrètes. Quand une plateforme détecte un contenu synthétique illicite, elle peut le supprimer. Mais dans beaucoup de pays, elle n’a pas d’obligation légale claire de le signaler aux autorités. Et celles-ci n’ont pas toujours les bases juridiques pour poursuivre sur cette base.

Ce qui reste à faire

Le blueprint fixe des objectifs et des principes. Il ne fixe pas de calendrier contraignant ni de mécanismes de contrôle externe. Les entreprises signataires s’engagent sur la méthode, pas sur des résultats mesurables. La question de l’audit indépendant reste entière.

Une autre limite concerne les modèles open source. Plusieurs générateurs d’images sont disponibles librement, sans filtre, sans conditions d’utilisation. Le plan d’OpenAI ne peut pas s’appliquer à des logiciels que n’importe qui peut télécharger et modifier. La coalition des grandes entreprises ne couvre qu’une fraction du marché réel.

Ce problème n’est pas nouveau dans l’histoire d’internet. Les hébergeurs peuvent supprimer des contenus, les plateformes peuvent bloquer des comptes, mais les contenus circulent via des canaux hors de portée des politiques internes. La différence avec aujourd’hui, c’est que la production elle-même est désormais accessible à tous.

Ce que l’Europe va devoir trancher

OpenAI dit vouloir utiliser ce blueprint comme base de discussion avec les régulateurs et les parlements. Plusieurs États américains ont déjà été approchés via l’Attorney General Alliance, regroupement de procureurs généraux ayant contribué au document.

En Europe, la Commission européenne doit finaliser d’ici la fin de l’année son règlement sur les abus sexuels en ligne (CSAM Regulation). Ce texte obligerait les plateformes à détecter et signaler les contenus illicites automatiquement. Il est bloqué depuis deux ans sur des questions d’équilibre entre protection de l’enfance et protection des communications privées : certains États membres refusent des mesures qui imposeraient un scan de masse des messages chiffrés. Le blueprint d’OpenAI apporte un argument supplémentaire à ceux qui plaident pour avancer, en montrant ce que l’industrie est prête à faire sans attendre la contrainte légale.