Sept producteurs sur dix. C’est la proportion de professionnels de la musique qui expérimentent des outils d’intelligence artificielle dans leur studio, selon un sondage mené auprès de 1 100 créateurs par Sonarworks et le magazine Sound On Sound. Le chiffre est massif, mais personne dans l’industrie ne veut en parler. Le PDG de Suno, Mikey Shulman, a trouvé la formule qui résume la situation : l’IA serait « l’Ozempic de l’industrie musicale, tout le monde en prend, personne ne veut en discuter ».
Une enquête approfondie de Rolling Stone vient de lever le voile sur ce silence organisé. Des producteurs aux auteurs-compositeurs, des studios de Nashville aux DAW de Los Angeles, l’IA a changé la manière dont les tubes se fabriquent. Mais la peur du retour de bâton maintient tout le monde dans l’ombre.
Le « don’t ask, don’t tell » des studios
L’expression revient dans la bouche de plusieurs témoins. Michelle Lewis, autrice-compositrice qui a écrit pour Cher et Hilary Duff et cofondatrice de l’association Songwriters of North America, décrit l’atmosphère dans les studios avec ces trois mots : « Don’t ask, don’t tell ». En privé, les auteurs lui confient que ces outils sont « plutôt géniaux ». En public, silence radio.
Le cas de Teddy Swims explique en partie cette omerta. En novembre dernier, le chanteur a qualifié les outils musicaux basés sur l’IA de « vraiment incroyables », avant de se faire démolir par ses fans sur les réseaux sociaux. David Baron, producteur des Lumineers, confirme que le mot « IA » est devenu « un gros mot dans certains cercles ». La sanction sociale est réelle : qui admet utiliser ces outils risque de perdre sa crédibilité artistique, dans une industrie où l’authenticité reste la monnaie d’échange.
Lauren Christy, du groupe The Matrix, a écrit pour Avril Lavigne, Britney Spears et Liz Phair. Son constat est sans appel : « Le train a quitté la gare. » Les majors n’ont aucun logiciel capable de détecter la musique générée par IA de manière fiable. L’industrie fonctionne sur un « système d’honneur », selon Lewis. Et ce système a des failles béantes.
Plus de la moitié du hip-hop sous IA
C’est l’estimation la plus frappante de l’enquête. Young Guru, ingénieur du son historique de Jay-Z, considère que « plus de la moitié » du hip-hop basé sur des samples est désormais fabriqué avec de l’IA. Le mécanisme est simple : au lieu de payer des dizaines de milliers de dollars pour obtenir les droits d’un sample de soul ou de funk des années 60-70, les producteurs demandent à Suno ou à d’autres générateurs de créer un sample fictif dans le même style.
La qualité des prompts a explosé, selon Young Guru. On ne tape plus « musique soul des années 60 ». Les producteurs précisent le studio d’enregistrement (Motown, Stax), le style du compositeur, le type de ligne de basse. Le résultat coûte quelques centimes, arrive en quelques secondes, et ne nécessite aucune négociation de droits. Pour un producteur indépendant qui n’a pas le budget d’un label major, le calcul est vite fait.
Young Guru, lui, continue de payer ses samples ou d’embaucher des musiciens pour les réinterpréter. Mais il reconnaît être devenu l’exception dans un milieu qui a basculé massivement vers l’IA.
Des voix synthétiques qui rendent les chanteuses jalouses
La qualité des voix générées par IA a atteint un seuil qui met mal à l’aise les professionnels. Christy raconte qu’une chanteuse, après avoir écouté une démo vocale IA, a réagi avec frustration : « Je déteste ce robot. Elle chante mieux que moi. » Les voix artificielles ont du « groove », atterrissent pile derrière le temps, et ne fatiguent jamais.
Charlie Puth utilise l’outil Replay pour tester rapidement des idées sur son prochain album, Whatever’s Clever. Un réglage transforme une voix solo en chorale de huit à dix personnes. Il s’en sert pour évaluer si l’idée fonctionne, puis remplace par de vrais choristes. Pour lui, c’est « la bonne manière » d’utiliser l’IA. Mais il trace une ligne : générer une production entière et la transformer par IA lui donne « la nausée ».
Teddy Swims, de son côté, a admis utiliser l’IA pour corriger un mot isolé sur un enregistrement, ce qui lui a évité de retourner en studio pour « refaire la prise 15 fois ». Nathan Chapman, producteur de Taylor Swift et Keith Urban, a reçu des demandes pour modifier des paroles par IA. Il a refusé, mais admet que c’est « le choix de l’artiste ».
Les petites mains du studio paient le prix fort
Chaque tâche que l’IA accélère supprime un emploi en aval. Les musiciens de session qui enregistraient les démos, les assistants ingénieurs qui géraient les mixages, les studios qui louaient leurs heures : tous voient leur travail se raréfier. Chapman le constate directement à Nashville : « Il y a moins de sessions. Ça fait du mal à la communauté des démos. »
Lewis travaille aussi dans l’animation pour enfants, un secteur qu’elle décrit comme « le fruit mûr » pour le remplacement par IA. Elle obtient encore des contrats, mais « globalement, personne ne travaille ». Le marché de la musique de production (publicités, émissions télé, habillage radio) serait « grillé », selon elle. Les grosses sociétés comme Disney évitent la musique IA par précaution juridique, mais les productions plus modestes « cherchent la limite de ce qu’elles peuvent se permettre ».
Baron s’inquiète pour la relève. Les tâches ingrates que l’IA remplace, ce sont celles qui formaient les futurs producteurs. « C’est là qu’on entraîne la prochaine génération », dit-il. « Notre génération va finir par partir. Et on a besoin de ces jeunes de 25 ans formés. »
Des chansons impossibles à chanter par un humain
L’IA crée aussi des effets secondaires inattendus. Lewis raconte que son partenaire d’écriture a produit une démo avec un générateur. La voix n’était pas parfaite, alors elle a voulu chanter la partie elle-même. Impossible : la ligne vocale ne prévoyait aucune pause pour respirer. « On peut finir par écrire une chanson techniquement inchantable par un être humain. »
Chapman pointe un autre problème : la « démoïte ». Les artistes s’attachent au son d’une démo et veulent la reproduire à l’identique en studio. Avec les démos IA, le phénomène prend une dimension étrange. Ces productions sonnent à la fois parfaites et décalées. « Je n’ai pas encore entendu de démo Suno qui sonne mal-bien », dit Chapman. « Elles sont toutes juste… correctes. » L’absence de défaut devient elle-même un défaut, parce que la musique humaine tire sa force de ses imperfections.
Un vide juridique qui arrange tout le monde
Le flou légal facilite le silence. Suno est poursuivi en justice par les majors, qui estiment que ses modèles ont été entraînés sur des enregistrements protégés sans autorisation. Si ces procès aboutissent, la musique générée par ces outils pourrait être considérée comme contrefaisante. Les artistes qui les utilisent ont donc une raison supplémentaire de rester discrets.
Côté droits d’auteur, la question reste ouverte : un morceau généré par IA peut-il être protégé ? Un sample artificiel atteint-il le seuil de créativité requis ? Les bureaux du copyright tranchent au cas par cas, et penchent le plus souvent contre l’IA. Un investisseur de Suno a récemment admis que le générateur était en concurrence directe avec la musique humaine, un aveu qui pourrait fragiliser la défense de l’entreprise devant les tribunaux.
La Recording Academy des Grammy a mis à jour ses règles en 2024 pour autoriser la musique assistée par IA aux récompenses, à condition qu’« un humain ait créé une part significative » de l’œuvre. Mais ce que « significatif » veut dire, personne ne l’a défini. Google a lancé Lyria 3, en assurant n’avoir utilisé que du contenu autorisé pour l’entraînement. OpenAI préparait son propre outil musical, mais la récente décision de tuer Sora rend ce projet incertain.
Un équilibre temporaire
Le sondage Sonarworks livre un dernier enseignement. La première inquiétude des producteurs n’est pas de perdre leur emploi : c’est de voir la musique perdre son originalité. L’IA pourrait noyer le marché de contenus acceptables mais génériques, dans un écosystème où les algorithmes de recommandation favorisent déjà l’uniformité. Les producteurs distinguent nettement les outils qui assistent (nettoyage audio, séparation de pistes, mastering) de ceux qui décident à leur place (composition, arrangement, choix esthétiques).
Le « don’t ask, don’t tell » ne durera pas éternellement. Les outils de détection progressent. Les procès en cours redessineront les limites légales. Mais pour l’instant, l’industrie musicale vit dans un entre-deux confortable : l’IA fabrique les tubes, et personne ne pose de questions.