Une crevette géante crucifiée comme Jésus Christ. Des selfies de femmes parfaites qui n’ont jamais existé. Des vétérans de guerre tenant un panneau « aujourd’hui c’est mon anniversaire, please like ». Ces images ont des millions de vues sur Facebook. Elles n’ont qu’un point commun : elles ne valent rien.
Ce type de contenu a maintenant un nom. « Slop », qu’on pourrait traduire par « bouillie » ou « lavure ». Merriam-Webster et l’American Dialect Society en ont fait leur mot de l’année 2025. Un signal fort que le phénomène a largement dépassé le stade du simple tic d’internet pour devenir un enjeu concret.
Slop : qu’est-ce que c’est, exactement ?
La définition n’est pas si simple. En janvier 2026, une équipe de six chercheurs emmenée par Cody Kommers a publié un article académique admettant que le slop « résiste jusqu’ici à toute définition formelle ». Malgré tout, ils ont identifié trois propriétés caractéristiques.
D’abord, ce qu’ils appellent la « compétence superficielle » : le contenu a l’air correct au premier coup d’oeil. Une image réaliste, un texte sans faute. Regarder une seconde de plus et quelque chose cloche. Une main avec six doigts. Une légende qui ne correspond à rien. Un article qui dit beaucoup sans dire quoi que ce soit.
Ensuite, « l’effort asymétrique ». Le créateur n’a quasiment rien fait — quelques prompts tapés dans un générateur d’images ou un LLM, et voilà. Le lecteur, lui, doit mobiliser son attention pour rien. Enfin, la « reproductibilité en masse » : ce type de contenu se génère à l’infini en quelques secondes.
Jonathan Gilmore, professeur de philosophie à l’Université de New York, le décrit autrement. Pour lui, ce matériel a « un style incroyablement banal et réaliste » conçu pour être traité sans effort par le cerveau. On scroll, on like sans vraiment regarder. Bref.
Qui fabrique tout ça — et surtout pourquoi ?
La réponse est économique, et assez directe.
Sur Facebook, les créateurs de slop ciblent principalement le public américain. Pas par conviction culturelle : les publicités affichées aux États-Unis rapportent bien plus que celles diffusées en Afrique ou en Asie. Du coup, des créateurs de contenu au Kenya, en Inde ou au Vietnam ont vite compris l’équation.
Le journaliste Jason Koebler de 404 Media a documenté la mécanique de près. Un créateur kényan interrogé racontait donner à ChatGPT des instructions du type « WRITE ME 10 PROMPT picture OF JESUS WHICH WILLING BRING HIGH ENGAGEMENT ON FACEBOOK » (avec les fautes incluses). L’IA génère les prompts, Midjourney ou un autre outil produit les images, et les comptes récoltent les clics et les revenus publicitaires.
Les images les plus grotesques — les « ludicrously implausible » comme les nomment les chercheurs — s’expliquent parfois par l’usage de langues peu représentées dans les données d’entraînement des modèles. Des instructions en hindi ou en vietnamais, mal traduites ou transcrites par reconnaissance vocale, donnent des résultats… inattendus. D’où la crevette-Jésus, devenue un symbole presque officiel du phénomène et même documentée dans Wikipedia sous son propre article.
À lire aussi
L’algorithme de recommandation : amplificateur en chef
Ce serait trop simple de tout mettre sur le dos des créateurs. Le vrai problème, c’est ce qui amplifie ce contenu.
Comme le montrait un développeur web dont le témoignage a récolté plus de mille votes sur Hacker News début 2026, Facebook pousse activement ce type de contenu vers les utilisateurs qui ne postent plus régulièrement. L’algorithme n’a « rien de vrai » à montrer quand vous n’alimentez plus le réseau. Du coup, il comble le vide avec des contenus optimisés pour l’engagement, peu importe leur qualité ou leur véracité.
L’ironie, c’est que les utilisateurs qui postent et interagissent régulièrement voient un Facebook quasi normal. Photos d’amis, événements locaux, groupes thématiques. L’expérience est radicalement différente selon votre niveau d’activité. Ceux qui ne postent plus, ceux qui regardent sans réagir : eux reçoivent la bouillie. Ce mécanisme est documenté dans l’analyse de ce développeur publiée sur actu-ia.eu.
Comment repérer le slop sans être expert en IA ?
Quelques signaux à surveiller, dans l’ordre de fiabilité.
Les mains restent le premier test sur les images. Les générateurs peinent encore à produire exactement cinq doigts bien positionnés. Une sixième phalange, un pouce planté au mauvais endroit, c’est souvent un indice. Même chose avec les oreilles, les dents, les arrière-plans qui « fondent » dans un flou étrange, ou les reflets incohérents dans les lunettes.
Pour les textes, la « compétence superficielle » s’applique à plein. Un article qui répond à une question sans y répondre vraiment. Des chiffres sans sources. Des phrases qui sonnent juste mais ne disent rien de concret. Ce type de texte manque ce qu’un journaliste appelle « la chair » : les anecdotes précises, les contradictions, le détail inattendu qui prouve que quelqu’un s’est vraiment renseigné.
Pour les vidéos : mouvements de bouche décalés sur les personnages, décors qui changent légèrement entre deux plans, voix synthétiques sans inflexion ni hésitation naturelle.
La règle générale reste : si ça provoque une émotion forte sans aucune information vérifiable, si ça semble trop lisse et trop parfait, prenez cinq secondes pour chercher la source d’origine.
Les plateformes se réveillent (doucement)
En janvier 2026, Neal Mohan, le patron de YouTube, a déclaré que la lutte contre le slop et la détection des deepfakes figuraient parmi les « priorités absolues » de la plateforme pour l’année. Pas anodin venant de la plus grande plateforme vidéo mondiale.
Meta, de son côté, a traversé quelques reculades embarrassantes. La société avait lancé des « profils IA » sur Facebook — de faux comptes pilotés par des IA présentés comme de vrais utilisateurs — avant de faire machine arrière face au tollé général, selon le Financial Times. Détecter le slop externe tout en en créant soi-même, difficile à défendre.
Un rapport de Kapwing publié en 2025 révèle que la Corée du Sud est le premier pays au monde en termes de consommation de slop. Paradoxe intéressant : souvent cités comme modèle d’adoption numérique, les Coréens seraient parmi les plus exposés à ce type de contenu. Les experts y voient justement la contrepartie d’une adoption technologique très rapide.
Les communautés les plus touchées ? Les groupes historiques, de jardinage et de culture sur Facebook. Le Mémorial d’Auschwitz a dû intervenir publiquement après la prolifération d’images générées par IA présentant de fausses victimes de la Shoah avec de fausses histoires personnelles, qualifiant ces publications de « distorsion dangereuse de la mémoire ».
Ce que ça dit vraiment de l’attention en ligne
Le slop n’est pas juste agaçant. Il a des effets concrets.
Des artisans comme le sculpteur américain Michael Jones, spécialisé dans la sculpture à la tronçonneuse, voient leur style aspiré et régénéré par des outils IA qui produisent des imitations en masse, souvent attribuées à de faux auteurs. Jones parle d' »un problème immense pour les sculpteurs du monde entier qui perdent leur crédit et leur exposition légitime. »
Il y a aussi la question de l’espace cognitif. Chaque minute passée à scroller du slop est une minute qui ne produit rien. Certains chercheurs sur Hacker News comparent l’effet des algorithmes chargés de contenu vide au plomb dans l’essence : une toxicité diffuse dont on ne mesure l’ampleur qu’avec du recul.
Ça laisse une question ouverte. Les outils pour détecter et bloquer le contenu automatisé existent déjà. YouTube le promet pour 2026. Mais entre la promesse et l’application sur des milliards de vidéos, il y a un gouffre. Et pendant ce temps, quelqu’un au Kenya tape « WRITE ME 10 PROMPT picture OF JESUS » dans ChatGPT.