Des emails et SMS échangés entre responsables scolaires et représentants de Waymo, obtenus par WIRED via une demande d’accès aux documents publics, révèlent l’ampleur des efforts déployés pour résoudre un problème que la conduite autonome n’arrive tout simplement pas à comprendre.
24 contraventions, zéro leçon retenue
Depuis la rentrée scolaire d’août 2025, le district scolaire indépendant d’Austin (AISD) a comptabilisé au moins 24 contraventions adressées à Waymo pour dépassement illégal de bus scolaires à l’arrêt. Ce chiffre, rapporté par Fox7 Austin et le Austin American-Statesman, prend une dimension particulière quand on le compare au reste de la flotte locale : sur plus de 7 000 violations enregistrées par les caméras embarquées des bus scolaires ce semestre, 98 % des conducteurs humains qui reçoivent une première amende n’en récoltent jamais une seconde.
Le constat est celui du chef adjoint de la police du district, Travis Pickford, repris par la chaîne KXAN : « Les gens apprennent. Mais le système de conduite automatisé de Waymo, lui, ne semble pas apprendre malgré ses mises à jour logicielles et son rappel. » En clair, un conducteur ordinaire comprend son erreur la première fois. Le logiciel de Waymo, censé tirer parti de « l’expérience collective de toute la flotte » selon son propre site, accumule les récidives.
Un rappel fédéral qui n’a rien changé
Face à la multiplication des incidents, Waymo a lancé un rappel volontaire début décembre 2025, répertorié sous le code 25E-084 auprès de la NHTSA (l’agence fédérale américaine de sécurité routière). Le rappel concernait 3 067 véhicules équipés du système de conduite autonome de cinquième génération. Les ingénieurs de Waymo affirmaient avoir développé des correctifs logiciels plusieurs semaines auparavant.
Le problème : les infractions ont continué après le rappel. Le district scolaire a signalé de nouveaux dépassements les 11, 13 et 19 décembre, puis les 12 et 14 janvier. Cinq d’entre eux se sont produits après que Waymo avait assuré au district que sa mise à jour était en place, selon la lettre d’un avocat du district adressée aux régulateurs fédéraux.
Sept bus, un parking, et des données inutiles
Les documents révélés par WIRED montrent un épisode aussi fascinant que décourageant. Le jour même de la publication du rappel, début décembre, le responsable des interventions d’urgence de Waymo, Rob Patrick, a contacté la police du district avec une proposition : collecter des données sur les bus scolaires d’Austin pour que les voitures autonomes puissent mieux les identifier.
En trois jours, le district a rassemblé sept bus représentant tous les modèles de sa flotte de plus de 550 véhicules sur le terrain de sport d’une école. Les responsables du transport scolaire ont même transmis à Waymo les spécifications techniques des systèmes lumineux de chaque bus. Les véhicules autonomes ont scanné les feux clignotants à différentes distances pendant une demi-journée. À la fin de l’exercice, Waymo a confirmé avoir obtenu ce dont il avait besoin.
Un mois plus tard, quatre nouvelles infractions étaient signalées.
L’humain dans la boucle a dit « non »
Le rapport préliminaire du NTSB (National Transportation Safety Board), publié début mars 2026, a mis en lumière un détail troublant sur l’incident du 12 janvier. Ce matin-là, vers 7h55, un Jaguar I-Pace autonome roulait en sens inverse d’un bus scolaire arrêté dans le quartier d’East Oltorf Street, feux rouges clignotants et bras d’arrêt déployés.
Le robotaxi a fait ce qu’il était censé faire : il s’est arrêté. Puis il a contacté l’assistance à distance avec une question automatique : « Est-ce un bus scolaire avec des signaux actifs ? » Un opérateur humain basé à Novi, dans le Michigan, a répondu « Non ». Le véhicule a redémarré et doublé le bus, suivi par une voiture conduite par un humain. Au total, six véhicules ont dépassé le bus ce matin-là.
Ce détail est révélateur de la fragilité du système. L’assistance à distance de Waymo ne surveille pas les véhicules en continu : elle répond à des requêtes ponctuelles. Environ 70 opérateurs, répartis dans le monde, gèrent plus de 3 000 véhicules aux États-Unis. Chaque opérateur supervise donc en moyenne une quarantaine de robotaxis simultanément, un ratio qui pose question quand la décision porte sur la sécurité d’enfants qui traversent une route.
Un angle mort structurel de la conduite autonome
Pour Missy Cummings, chercheuse en véhicules autonomes à l’université George Mason et ancienne conseillère sécurité de la NHTSA sous l’administration Biden, le problème n’a rien de surprenant. Les logiciels de conduite autonome peinent depuis longtemps à reconnaître les feux clignotants d’urgence et les dispositifs à bras fins comme les panneaux stop des bus scolaires.
« S’ils n’ont pas résolu ça il y a quelques années, plus ils roulent, plus ça va devenir un problème », explique-t-elle à WIRED. « C’est exactement ce qui se passe ici. » Elle va plus loin : selon elle, Waymo « ne devrait pas être autorisé à circuler autour des écoles aux heures de dépose et de ramassage tant que ce problème n’est pas résolu et démontré par des tests spécifiques ».
Philip Koopman, chercheur en sécurité logicielle des véhicules autonomes à Carnegie Mellon, pointe un problème plus subtil. Les panneaux stop prennent des significations légèrement différentes selon le contexte : intersections, agents de circulation, bus scolaires. « Waymo essaie d’enseigner à son logiciel quelque chose de très subtil », note-t-il. « Le dernier 1 % est vraiment difficile, parce qu’on essaie d’enseigner une exception. »
Les données collectées dans un parking, hors du contexte réel de circulation, ne suffisent pas non plus. Former un modèle d’IA avec de nouvelles données prend des semaines, voire des mois. Et les conditions contrôlées d’un parking ne reproduisent pas la complexité d’une rue où des enfants traversent entre les voitures.
36 enfants tués en dix ans, et un précédent en Californie
L’enjeu dépasse largement Austin. Selon les données de la NHTSA, 36 enfants ont été heurtés et tués par des véhicules à proximité de bus scolaires entre 2014 et 2023. C’est précisément pour cette raison que la loi impose aux conducteurs, dans les 50 États américains, de s’arrêter complètement lorsqu’un bus scolaire déploie son bras d’arrêt.
Quelques jours après les incidents de janvier à Austin, un véhicule Waymo a percuté un enfant qui traversait devant lui à proximité d’une école à Santa Monica, en Californie. L’enfant n’aurait pas été blessé, et Waymo a publié un communiqué affirmant que ses modèles montraient qu’un conducteur humain aurait percuté l’enfant à une vitesse supérieure. Un argument qui a le mérite de la transparence, mais qui esquive la question centrale : pourquoi un véhicule censé surpasser les réflexes humains ne reconnaît-il toujours pas un bus scolaire à l’arrêt ?
Deux enquêtes fédérales, zéro sanction
La NHTSA a ouvert une évaluation préliminaire le 17 octobre 2025. Le NTSB, agence indépendante qui ne peut pas infliger d’amendes mais émet des recommandations de sécurité, mène sa propre enquête depuis janvier 2026. Son rapport final prendra entre 12 et 24 mois.
En attendant, Waymo continue de circuler à Austin. Le district scolaire a demandé à l’entreprise de suspendre ses opérations aux heures de ramassage et de dépose scolaire, une requête que Waymo n’a pas publiquement acceptée. L’entreprise, filiale d’Alphabet (maison mère de Google), n’a pas répondu aux demandes de commentaire de WIRED.
Le contraste entre la promesse et la réalité reste saisissant. Waymo revendique « 12 fois moins d’accidents avec blessures de piétons par rapport aux benchmarks humains ». Mais quand il s’agit d’un bus jaune avec des feux qui clignotent et un panneau rouge qui dit « STOP », ses 3 000 véhicules et ses 70 opérateurs n’y arrivent toujours pas. L’exception la plus simple de la route américaine reste, pour l’instant, hors de portée de l’IA la plus avancée du secteur.
]]>