Le 18 mars dernier, un ingénieur de Waymo réagit à chaud à l’accident mortel provoqué par une voiture autonome d’Uber sur une passante traversant la route. “Voir cela me rend malade. Conducteur irresponsable + un système défectueux. Si vous ne pouvez pas détecter un piéton qui se tient au milieu de la route, vous ne devriez pas avoir des voitures autonomes en circulation”, twitte-t-il avant d’effacer aussitôt son message qui a cependant été repris depuis dans les forums de Reddit.

Beaucoup plus diplomate mais tout aussi critique, le patron de Waymo s’est exprimé officiellement sur le sujet ce week-end lors d’une conférence de concessionnaires automobiles à Las Vegas. « A Waymo, nous sommes confiants dans le fait que notre technologie aurait été capable de gérer une telle situation », a déclaré John Krafcik selon l’AFP. Il a rappelé que les véhicules de Waymo avaient déjà parcouru plus de 8 millions de kilomètres sans avoir jamais été impliqués dans un accident mortel. Reste à savoir ce qui a pêché dans la technologie d’Uber.

Le LIDAR ne serait pas en cause

Le fameux système de LIDAR sert à détecter les obstacles en  projetant des faisceaux laser autour du véhicule pour évaluer la distance des objets environnants. Or, il a été copié en partie sur celui de Waymo, ce qui a valu aux deux parties un bel affrontement judiciaire réglé il y a peu à l’amiable. John Krafcik a déclaré, par ailleurs, que la voiture d’Uber impliquée était équipée « des technologies représentant l’ensemble du secteur de conduite autonome », toujours selon l’AFP. Rien ne manquait donc à son arsenal.

Une enquête est toutefois en cours pour déterminer si la victime a bien été reconnue par les capteurs de la voiture. Car l’accident s’est produit en pleine obscurité vers 22 heures. Mais selon la société Velodyne qui développe ce LIDAR pour Uber, les performances des capteurs ne seraient pas en cause. “Notre LIDAR est capable de représenter clairement Elaine et sa bicyclette dans cette situation. Mais il ne prend pas la décision de freiner ou de se mettre en travers de son chemin”, a confié la présidente de Velodyne Marta Thoma Hall à un journaliste de Bloomberg. Velodyne incrimine donc le système de prise de décision d’Uber.

L’explication se trouve toutefois peut-être ailleurs, d’après le site Jalopnik qui cite le professeur Bryant Walker Smith, spécialiste en droit à l’Université de Caroline du Sud. Ce dernier est persuadé que le problème se situe dans l’interprétation des données : le véhicule aurait très bien pu détecter la passante et mal interpréter ce qu’elle était, en la classant dans une catégorie ne nécessitant pas de s’arrêter. Si cela s’avère être le cas, le projet de voiture autonome d’Uber pourrait bien ne pas s’en relever.

Cet article a été importé d’un feed RSS, cliquez-ici pour voir l’article original