Elon Musk voulait prouver qu’OpenAI néglige la sécurité de ses utilisateurs. Sa propre déposition, rendue publique cette semaine, pourrait bien lui compliquer la tâche.
44,8 millions, pas 100 : les chiffres ne collent plus
Le transcript vidéo de l’audition de Musk, enregistrée en septembre 2025 dans le cadre de son procès contre OpenAI, a été versé au dossier public cette semaine, rapporte TechCrunch. Le milliardaire y défend sa vision de la sécurité en intelligence artificielle avec une formule qui a fait le tour des rédactions : « Personne ne s’est suicidé à cause de Grok, mais apparemment c’est arrivé à cause de ChatGPT. »
La remarque visait à discréditer OpenAI sur le terrain de la protection des utilisateurs. Musk faisait référence à plusieurs plaintes déposées aux États-Unis par le Social Media Victims Law Center, qui accusent ChatGPT d’avoir utilisé des « tactiques de conversation manipulatrices » ayant conduit des personnes vulnérables au suicide. L’une de ces affaires concerne un étudiant qui affirmait que le chatbot l’avait qualifié d’« oracle » avant qu’il ne soit hospitalisé.
Dans cette même déposition, Musk a reconnu s’être trompé sur le montant de sa donation à OpenAI. Pendant des années, il avait évoqué un chèque de 100 millions de dollars. Le chiffre réel, selon la plainte amendée déposée au tribunal du district nord de Californie (affaire n° 4:24-cv-04722), s’élève à 44,8 millions de dollars, soit moins de la moitié.
Grok, le boomerang
Le problème pour Musk, c’est la chronologie. Quelques mois après cet enregistrement, en janvier 2026, son propre chatbot Grok a inondé le réseau social X d’images intimes générées sans le consentement des personnes représentées. Certaines de ces images mettaient en scène des mineurs, selon plusieurs médias repris par TechCrunch.
Le procureur général de Californie, Rob Bonta, a ouvert une enquête sur xAI et Grok à ce sujet. L’Union européenne a lancé sa propre procédure. Plusieurs gouvernements ont imposé des restrictions ou des blocages. Cette séquence fragilise considérablement l’argument central de Musk : que xAI fait mieux qu’OpenAI en matière de sécurité.
Chez xAI, les signaux d’alerte ne datent pas d’hier. En février 2025, une vague de démissions avait frappé l’équipe sécurité de la startup après sa fusion avec les équipes de SpaceX. Plusieurs ingénieurs partis avaient décrit en interne une culture où la sécurité était « morte », selon les témoignages recueillis à l’époque.
Le vrai enjeu : qui contrôle OpenAI ?
Le procès Musk contre Altman ne porte pas uniquement sur la sécurité. Il attaque la transformation d’OpenAI, passée d’un laboratoire de recherche à but non lucratif à une entreprise commerciale valorisée 730 milliards de dollars après sa levée de fonds de 110 milliards annoncée ce 27 février.
À lire aussi
Musk affirme que cette mutation viole les accords fondateurs de l’organisation. Il avance que les relations commerciales d’OpenAI, avec Microsoft, Amazon et Nvidia, poussent l’entreprise à privilégier la vitesse et le chiffre d’affaires au détriment de la prudence.
Dans sa déposition, Musk explique avoir cofondé OpenAI parce qu’il était « de plus en plus préoccupé par le danger d’un monopole de Google en IA ». Il affirme que ses conversations avec Larry Page, cofondateur de Google, étaient « alarmantes, dans la mesure où il ne semblait pas prendre la sécurité de l’IA au sérieux ». OpenAI devait servir de contrepoids. Huit ans plus tard, Musk estime que l’organisation a trahi cette mission.
Un procès qui peut redessiner l’industrie
La plainte liste douze chefs d’accusation, dont des violations du Sherman Act (loi antitrust américaine), de la loi Cartwright californienne, et plusieurs accusations de fraude. Le jury devra déterminer si OpenAI a rompu des engagements contractuels envers ses cofondateurs en devenant une entreprise à but lucratif.
La lettre ouverte signée par Musk en mars 2023, qui appelait les laboratoires d’IA à suspendre le développement de modèles plus puissants que GPT-4 pendant six mois, revient aussi dans la déposition. Interrogé sur ses motivations, Musk a répondu : « Je l’ai signée, comme beaucoup de gens, pour encourager la prudence dans le développement de l’IA. Je voulais simplement que la sécurité soit une priorité. »
Les avocats d’OpenAI ont toutefois souligné que Musk avait incorporé xAI, sa propre société d’intelligence artificielle, pratiquement au même moment. Le timing suggère que ses préoccupations de sécurité cohabitaient avec des ambitions commerciales.
Le procès devant jury est attendu pour mars 2026. Son issue pourrait créer un précédent sur les obligations des organisations à but non lucratif qui se transforment en géants commerciaux, un modèle que d’autres startups d’IA, comme Anthropic, observent de très près.