70 pages de memos internes, 200 pages de notes confidentielles, plus de 100 témoins interrogés. Ronan Farrow, journaliste lauréat du Pulitzer, et Andrew Marantz publient dans le New Yorker une enquête de 18 mois sur Sam Altman. Le portrait du patron de ChatGPT qui en ressort met en cause sa gestion de la sécurité de l’IA, ses promesses non tenues et son rapport à la vérité.
L’enquête tombe alors qu’OpenAI prépare son entrée en bourse. Et le timing n’a rien d’anodin.
Le memo de 70 pages qu’Ilya Sutskever a caché dans son téléphone
À l’automne 2023, Ilya Sutskever, cofondateur et ex-directeur scientifique d’OpenAI, a compilé un dossier de 70 pages. Messages Slack, documents RH, captures d’écran prises depuis son téléphone personnel pour échapper, selon le New Yorker, à la surveillance des appareils de l’entreprise. Le document s’ouvre sur une phrase limpide : « Sam présente un schéma récurrent… », avec le mot « tromperie » en première position.
Ce dossier aurait servi de base au conseil d’administration pour licencier brièvement Altman en novembre 2023. Quelques jours plus tard, Altman revenait aux commandes. L’enquête interne qui a suivi, confiée au cabinet WilmerHale (connu pour les affaires Enron et Tyco), n’a jamais produit de rapport écrit. Six personnes proches du dossier estiment, selon le New Yorker, que le processus a été conçu pour limiter la transparence.
« Le problème d’OpenAI, c’est Sam lui-même »
En parallèle, Dario Amodei, autre ancien d’OpenAI devenu cofondateur d’Anthropic, a rédigé plus de 200 pages de notes personnelles intitulées « Mon expérience chez OpenAI ». Sa conclusion tient en une phrase : « Le problème d’OpenAI, c’est Sam lui-même. » Amodei décrit des situations où Altman aurait nié en temps réel des clauses contractuelles lors de la négociation du premier investissement d’un milliard de dollars de Microsoft.
Un ancien membre du conseil d’administration, cité anonymement, va plus loin : « Il n’est pas contraint par la vérité. Il a deux traits qu’on voit rarement réunis chez la même personne : un fort désir de plaire dans chaque interaction, et un manque quasi sociopathique de considération pour les conséquences de la tromperie. »
20 % de puissance informatique promis, 1 à 2 % réellement livrés
Mi-2023, OpenAI annonçait la création d’une équipe de « superalignement », chargée d’empêcher l’IA de provoquer « la dépossession de l’humanité, voire l’extinction humaine ». Promesse affichée : 20 % de la puissance de calcul de l’entreprise pendant quatre ans.
La réalité, documentée par le New Yorker et confirmée par des sources internes à Fortune : l’équipe a reçu entre 1 et 2 % de cette puissance, et sur les serveurs les plus anciens. En mai 2024, les co-directeurs Ilya Sutskever et Jan Leike ont quitté l’entreprise. L’équipe a été dissoute. Son successeur, l’équipe « Mission Alignment », a tenu 16 mois avant d’être elle aussi supprimée en février 2026.
Quand les journalistes du New Yorker ont demandé à interviewer des chercheurs en sécurité existentielle chez OpenAI, un porte-parole a répondu : « Ça n’existe pas, en fait. »
Lobbying à Bruxelles, menaces en Californie
L’enquête détaille aussi les contradictions d’Altman face aux régulateurs. En 2022-2023, OpenAI a fait pression avec succès pour affaiblir les règles européennes sur l’IA. En 2024, un projet de loi californien imposait des tests de sécurité sur les modèles d’IA, des mesures qu’Altman avait lui-même défendues devant le Congrès. OpenAI s’y est publiquement opposé.
Un assistant parlementaire californien confie au New Yorker : « Au fil de l’année, on a vu un comportement de plus en plus rusé et trompeur de la part d’OpenAI. »
Le schéma décrit par l’enquête suit une logique constante : plaider pour la régulation en public, la combattre en coulisses.
« Mes vibes ne collent pas avec la sécurité IA »
Interrogé sur les départs massifs de chercheurs en sécurité, Altman a livré une explication qui résume, selon les enquêteurs, son rapport au sujet : « Mes vibes ne collent pas vraiment avec tout ce truc traditionnel de la sécurité IA. » L’entreprise mènerait des « projets de sécurité, ou au moins des projets adjacents à la sécurité ».
La formulation a fait réagir dans la communauté scientifique. L’ironie n’échappe à personne : c’est précisément ce décalage de « vibes » qui a poussé Dario Amodei et une dizaine de chercheurs à fonder Anthropic en 2021, devenu depuis le principal concurrent d’OpenAI.
Un cadre de Microsoft évoque Madoff
L’enquête ne se limite pas au cercle interne d’OpenAI. Un cadre dirigeant de Microsoft, premier investisseur de l’entreprise, confie au New Yorker qu’il existe « une chance faible mais réelle qu’on se souvienne de lui comme un escroc du niveau de Bernie Madoff ou Sam Bankman-Fried ». Les dirigeants de Microsoft auraient exprimé leur inquiétude face à un projet baptisé « ChipCo », où Altman cherchait à obtenir des dizaines de milliards auprès d’États du Golfe pour construire une infrastructure de semi-conducteurs.
La directrice financière d’OpenAI, Sarah Friar, aurait elle-même confié à des collègues qu’elle ne croyait pas à la faisabilité d’une introduction en bourse en 2026, ni au plan de dépenses de 600 milliards de dollars sur cinq ans avancé par Altman.
Ce que cela change pour les 300 millions d’utilisateurs
OpenAI revendique plus de 300 millions d’utilisateurs hebdomadaires pour ChatGPT. La question posée par le New Yorker dépasse la gouvernance d’entreprise : peut-on confier le développement de la technologie la plus transformatrice de la décennie à un dirigeant dont ses propres cofondateurs, membres du conseil et partenaires commerciaux contestent la fiabilité ?
OpenAI n’a pas réagi publiquement à l’enquête au moment de sa parution. L’introduction en bourse, si elle a lieu, fournira un premier test de confiance des marchés. La commission sénatoriale américaine sur le commerce a, de son côté, ouvert des auditions sur la gouvernance des entreprises d’IA pour le mois de mai.