Google revendique une part de responsabilité dans le crash de sa voiture sans conducteur

$config[ads_kvadrat] not found

L'éthique du futur de Jonas

L'éthique du futur de Jonas
Anonim

Google a accepté une partie de la chaleur après le passage de l'une de ses Lexuses autonomes dans un bus municipal de Californie, le 14 février: «Dans ce cas, nous assumons une part de responsabilité, car si notre voiture n'avait pas bougé, elle n'aurait pas été utilisée. une collision ", a admis la société dans un communiqué publié aujourd'hui.

Sauf l’A.I., c’est un casse-tête assez banal: en contournant des sacs de sable à une intersection, la Lexus à deux km / h a heurté un bus roulant à 15 mi / h. L’employé de Google sur le siège avant de la voiture autonome n’a pas pris le volant, pensant que le bus freinerait. La Lexus a cassé une aile et un capteur. Personne n'a été blessé. Mais ne vous attendez pas à ce que cela dure.

Les voitures sans conducteur ont des antécédents compliqués: sur une base kilométrique, une étude d'octobre 2015 suggère qu'elles sont plus susceptibles d'être impliquées dans un accident, même s'il n'est pas statistiquement significatif. Mais jusqu’à présent, aucune voiture sans conducteur n’a été mise en cause - certains experts ont émis l’hypothèse que l’augmentation des taux pourrait être due au fait que les conducteurs humains ne s’attendent pas à A.I. les voitures à se conformer si rigoureusement au code de la route.

Google a mis l'accident dans des zones grises de conduite normale. La société a envoyé ce segment de son rapport mensuel de février 2016 (publié mardi) à Associated Press:

C’est un exemple classique de la négociation qui fait partie intégrante de la conduite. Nous essayons tous de prédire les mouvements de chacun. Dans ce cas, nous portons clairement une part de responsabilité, car si notre voiture n’avait pas bougé, il n’y aurait pas eu de collision. Cela dit, notre chauffeur d’essai pensait que le bus allait ralentir ou s’arrêter pour nous permettre de nous intégrer au trafic et qu’il y aurait suffisamment d’espace pour le faire.

Avant cet incident, Google affirmait que tout accident était la faute de l’autre type. Cependant, en janvier 2016, ses 55 voitures autonomes parcouraient environ 1,4 million de kilomètres sur des voies publiques depuis 2009. Cela peut sembler beaucoup, mais c’est plus que des milliers de kilomètres parcourus chaque année par les Américains.

La National Highway Traffic Safety Administration rapporte le nombre de morts par centaines de millions de kilomètres parcourus. Si Google maintenait son rythme de 15 000 miles autonomes par semaine, il faudrait 128 ans pour atteindre 100 millions de miles - ce qui correspondait, en 2013, à la distance parcourue à laquelle vous vous attendez en moyenne à un décès.

Mais, disons, en 2020, il y a 10 millions de voitures sans conducteur sur les routes et chaque voiture parcourt 10 000 km par an. Si, de manière charitable, les voitures sans conducteur sont deux fois plus sûres que les voitures humaines - à une mort tous les 200 millions de kilomètres - elles seraient impliquées (très grossièrement) dans 50 accidents mortels.

Google prend l'accident comme une leçon d'apprentissage: «Désormais, nos voitures comprendront mieux que les autobus (et autres gros véhicules) ont moins de chances de nous céder que d'autres types de véhicules, et nous espérons gérer des situations comme celle-ci. plus gracieusement à l'avenir."

Nous devrions également prendre cela comme une leçon: les voitures autonomes peuvent très bien être beaucoup plus sûres que les conducteurs humains. Ils vont toujours tuer quelqu'un parce que les machines, comme les humains, sont faillibles.

$config[ads_kvadrat] not found