Google car si scontra con un autobus in California: la colpa è dell'algoritmo

Google car si scontra con un autobus in California: la colpa è dell'algoritmo

È uno dei primi incidenti in cui la macchina di Google ha responsabilità diretta, per fortuna senza conseguenze per il conducente e per i passeggeri del veicolo colpito

di pubblicata il , alle 10:38 nel canale Scienza e tecnologia
Google
 

Uno dei veicoli della flotta delle auto autonome di Google ha colpito un autobus in California durante il giorno di San Valentino. Lo rivela un documento rilasciato lunedì dal Department of Motor Vehicles della California e depositato dalla stessa compagnia di Mountain View. Si tratta di uno dei primi incidenti, dopo centinaia di migliaia di chilometri percorsi dalle auto a guida autonoma, in cui la tecnologia di Google pare avere la responsabilità diretta dell'accaduto. Non ci sono stati feriti.

La Google car viaggiava in modalità autonoma in una corsia di una via principale di Mountain View. Avvicinandosi ad un semaforo l'auto ha segnalato che stava per svoltare a destra, mentre davanti a lei si trovavano nella stessa corsia altre automobili ferme in attesa del verde. Gli algoritmi dell'auto di Google hanno deciso di passare alla corsia di destra per superare queste automobili, ma ha individuato alcuni sacchi di sabbia intorno ad un tombino e si è fermata.

Google car, auto a guida autonoma

Non appena il semaforo è diventato di nuovo verde, il veicolo autonomo ha cercato di tornare al centro della corsia per aggirare i sacchi di sabbia, ed è lì che l'operatore ha visto un autobus attraverso lo specchietto di sinistra. L'uomo ha quindi pensato che l'autobus si sarebbe fermato, o avrebbe quanto meno rallentato per consentire al veicolo autonomo di rientrare nella corsia. Così non è stato: l'autobus proseguiva a circa 25km/h, il veicolo di Google a passo d'uomo.

Rientrando nella corsia l'auto di Google, una delle Lexus modificate ormai celebri a Mountain View, è entrata in contatto con l'autobus. La macchina ha subito alcuni danni al parafango anteriore e alla ruota sinistra, oltre ad un sensore lungo la portiera che si è danneggiato. L'incidente, non di certo grave, dimostra comunque come le tecnologie a guida autonoma abbiano ancora bisogno di ulteriori affinamenti per poter affrontare la giungla urbana e la guida umana.

Se da una parte è probabile avere incidenti stradali quando si macinano così tanti chilometri, dall'altra fatti di questo tipo potrebbero far crescere una certa diffidenza nei confronti delle auto a guida autonoma. In altre parole non tutti vorrebbero mettersi in un'auto in cui in caso di pericolo non c'è alcun modo di intervenire, e l'affidabilità totale degli algoritmi in tutte le circostanze è una caratteristica indispensabile per le tecnologie a guida autonoma del futuro.

Google progetta le sue auto da numerosi anni, ma solo nel 2014 ha ricevuto il permesso di provarle nelle strade pubbliche. Fra le clausole necessarie il dovere di rilasciare prontamente i documenti degli incidenti in cui la Google car è stata coinvolta, con o senza responsabilità diretta. La maggior parte degli incidenti, fino ad oggi, è stata comunque per via di un errore umano, con le macchine di Google che anzi peccano al momento di una prudenza alla guida forse troppo eccessiva.

In seguito al rilascio della documentazione, Google ha divulgato una nota alla stampa in cui ammette l'errore dei propri algoritmi, anche se parla di colpa reciproca in cui entrambe le parti hanno fatto alcune previsioni errate. Alla luce dell'errore la società ha modificato l'algoritmo, aggiungendo una parte in cui i veicoli classificati come autobus vengono considerati come "meno propensi a cedere" in casi come questi. Di seguito l'intera copia della nota così come riportata dal sito Engadget.

Our self-driving cars spend a lot of time on El Camino Real, a wide boulevard of three lanes in each direction that runs through Google's hometown of Mountain View and up the peninsula along San Francisco Bay. With hundreds of sets of traffic lights and hundreds more intersections, this busy and historic artery has helped us learn a lot over the years. And on Valentine's Day we ran into a tricky set of circumstances on El Camino that's helped us improve an important skill for navigating similar roads.

El Camino has quite a few right-hand lanes wide enough to allow two lines of traffic. Most of the time it makes sense to drive in the middle of a lane. But when you're teeing up a right-hand turn in a lane wide enough to handle two streams of traffic, annoyed traffic stacks up behind you. So several weeks ago we began giving the self-driving car the capabilities it needs to do what human drivers do: hug the rightmost side of the lane. This is the social norm because a turning vehicle often has to pause and wait for pedestrians; hugging the curb allows other drivers to continue on their way by passing on the left. It's vital for us to develop advanced skills that respect not just the letter of the traffic code but the spirit of the road.

On February 14, our vehicle was driving autonomously and had pulled toward the right-hand curb to prepare for a right turn. It then detected sandbags near a storm drain blocking its path, so it needed to come to a stop. After waiting for some other vehicles to pass, our vehicle, still in autonomous mode, began angling back toward the center of the lane at around 2 mph -- and made contact with the side of a passing bus traveling at 15 mph. Our car had detected the approaching bus, but predicted that it would yield to us because we were ahead of it. (You can read the details below in the report we submitted to the CA DMV.)

Our test driver, who had been watching the bus in the mirror, also expected the bus to slow or stop. And we can imagine the bus driver assumed we were going to stay put. Unfortunately, all these assumptions led us to the same spot in the lane at the same time. This type of misunderstanding happens between human drivers on the road every day.

This is a classic example of the negotiation that's a normal part of driving -- we're all trying to predict each other's movements. In this case, we clearly bear some responsibility, because if our car hadn't moved there wouldn't have been a collision. That said, our test driver believed the bus was going to slow or stop to allow us to merge into the traffic, and that there would be sufficient space to do that.

We've now reviewed this incident (and thousands of variations on it) in our simulator in detail and made refinements to our software. From now on, our cars will more deeply understand that buses (and other large vehicles) are less likely to yield to us than other types of vehicles, and we hope to handle situations like this more gracefully in the future.

46 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
*aLe01 Marzo 2016, 10:55 #1
Oddio, responsabilità diretta sì (diciamo che non è mai bello vagare a destra e a manca pur stando nella stessa corsia), ma da quel che leggo l'auto di Google non ha cambiato corsia: s'è solo spostata lateralmente all'interno della [U]sua[/U] corsia (che, stando a quanto descritto, pare essere larga abbastanza per ospitare due file parallele di auto, anche se questa non è assolutamente la normalità.

Se la corsia è una, buona parte della responsabilità ce l'hanno tutti quelli che da dietro provano a superare (stando nella stessa corsia) a sinistra le auto che girano, anche se a conti fatti "ci passerebbero".
Quindi, in questo caso, pur capendo che l'auto di Google avrebbe potuto comportarsi diversamente, è l'autobus che in realtà non ha rispettato le regole*. Avrebbe dovuto cambiare corsia se avesse voluto superare la macchina, non procedere dritto alla speraindio stile "tanto ora 'sto qua si tira tutto a destra e mi fa passare".

*almeno, per come valgono in Italia. Non so se negli USA le cose siano diverse.
aald21301 Marzo 2016, 11:00 #2
L'aspetto tragicomico della guida automatizzata è che se 34.000+ persone muoiono in un anno per incidenti autostradali, non fa notizia; se una macchina google urta (a passo d'uomo) un autobus, il fatto balza agli onori della cronaca.
*aLe01 Marzo 2016, 11:06 #3
Originariamente inviato da: aald213
L'aspetto tragicomico della guida automatizzata è che se 34.000+ persone muoiono in un anno per incidenti autostradali, non fa notizia; se una macchina google urta (a passo d'uomo) un autobus, il fatto balza agli onori della cronaca.
Verissimo. C'è questa strana concezione per cui "l'auto a guida autonoma non può sbagliare mai".
Bisogna capire che le auto a guida autonoma saranno infallibili (forse, non sarei sicuro del tutto neanche di quello) solo quando il traffico sarà composto al 100% da veicoli a guida autonoma.
Fino a quel momento, fino a quando dovranno prevedere le azioni delle persone alla guida di mezzi tradizionali, la possibilità di incidente ci starà sempre. La sfida di Google & co. adesso è solo quella di dimostrare che già ora, in mezzo al traffico umano, le auto a guida autonoma sono mediamente più affidabili del guidatore in carne ed ossa.
Eress01 Marzo 2016, 11:13 #4
Per giudicare ci vorrebbe un video. Al momento non ne ho visti. Di incidenti stradali purtroppo ne capitano in continuazione, ma secondo me in questo caso si aggiunge un fattore, guida umana contro guida automatica, le due cose non combaciano alla perfezione, almeno per ora.
Paganetor01 Marzo 2016, 11:23 #5
ha cambiato corsia per sfruttare quella libera più a destra, quindi si è accorta dell'ostacolo (i sacchi di sabbia) e ha provato a tornare nella corsia precedente, anche se nel frattempo arrivava il bus.
è una eventualità che i programmatori evidentemente non hanno previsto (ma che adesso inseriranno).

Mi chiedo invece se sia prevista la possibilità di evitare incidenti nei quali gli altri stanno per colpire la google car: tempo fa stavo uscendo da una rotonda ma ho rallentato vistosamente per far passare un pedone sulle strisce. Quello dietro di me ha piantato i freni e ho sentito il classico strisciamento delle ruote bloccate, ho buttato l'occhio nel retrovisore e ho "allungato" leggermente la mia frenata per dargli lo spazio in più per fermarsi (ovviamente senza andare sulle strisce e sul pedone )

Mi chiedo se abbiano previsto questa "sensibilità" negli algoritmi della macchina...
*aLe01 Marzo 2016, 11:28 #6
Originariamente inviato da: Paganetor
ha cambiato corsia per sfruttare quella libera più a destra, quindi si è accorta dell'ostacolo (i sacchi di sabbia) e ha provato a tornare nella corsia precedente, anche se nel frattempo arrivava il bus.
Secondo il report di Google, mi sa di no. S'è messa (nella corsia più a destra) tutta a destra per girare, quando si è accorta che c'erano i sacchi si è riportata al centro della corsia (ma rimanendo sempre nella corsia di destra, non cambiando mai corsia) e in quel momento ha sbattuto contro l'autobus che la stava sorpassando (sempre nella stessa corsia).

Se avesse cambiato corsia (andando a sbattere lateralmente contro il bus tra l'altro), la colpa sarebbe stata 100% dell'auto di Google immagino.

Originariamente inviato da: Paganetor
Mi chiedo invece se sia prevista la possibilità di evitare incidenti nei quali gli altri stanno per colpire la google car: tempo fa stavo uscendo da una rotonda ma ho rallentato vistosamente per far passare un pedone sulle strisce. Quello dietro di me ha piantato i freni e ho sentito il classico strisciamento delle ruote bloccate, ho buttato l'occhio nel retrovisore e ho "allungato" leggermente la mia frenata per dargli lo spazio in più per fermarsi (ovviamente senza andare sulle strisce e sul pedone )
Se riuscivi a farlo, hai fatto bene... Un mio amico che non l'ha fatto (stessa situazione tua, ha rallentato per fermarsi alle strisce) è stato catapultato addosso al pedone qualche giorno fa.
Fortunatamente, se l'è cavata con un po' di torcicollo e con l'auto d riparare (e anche il pedone non ha subìto danni).

Sì, credo anche io che la grande sfida sia quella di sapersi "adeguare" al comportamento degli esseri umani (che spesso non solo non è molto lineare, ma va addirittura contro la logica).
andbad01 Marzo 2016, 11:31 #7
E finalmente l'uomo ha morso il cane. Il problema non è nell'affidabilità degli algoritmi (non saranno mai perfetti, nemmeno quando tutte le auto saranno autonome), quanto nella percezione dell'errore non-umano: se io canno lo stop e investo un'altra auto, oh, ho fatto una cazzata, ero distratto dal cellulare/sigaretta/autoradio/giovannonacoscialungasulcartellopubblicitario. L'assicurazione paga, io perdo qualche punto sulla patente, finisce lì.
Se un algoritmo sbaglia e causa un incidente, invece, scoppia il finimondo.

Perché non possiamo semplicemente accettare che le macchine, in quanto costruite dall'uomo che è fallibile, possono (e sono) fallibili anch'esse?

By(t)e
Epoc_MDM01 Marzo 2016, 11:39 #8
Originariamente inviato da: andbad
Perché non possiamo semplicemente accettare che le macchine, in quanto costruite dall'uomo che è fallibile, possono (e sono) fallibili anch'esse?

By(t)e


"La loro velocità e forza però restano frutto di un mondo che osserva delle regole, e per questa ragione loro non saranno mai per fortuna forti e veloci come te." Cit.
recoil01 Marzo 2016, 11:40 #9
Originariamente inviato da: *aLe
Sì, credo anche io che la grande sfida sia quella di sapersi "adeguare" al comportamento degli esseri umani (che spesso non solo non è molto lineare, ma va addirittura contro la logica).


anche gli umani dovranno adeguarsi al comportamento di un marziano, come la google car, che inspiegabilmente seguirà alla lettera tutte le norme del codice della strada
mi immagino i colpi di clacson contro la google car che va "solo" a 49KM/h

il problema grosso lo avremo nel periodo di transizione, che sarà lunghissimo, nel quale avremo auto a guida autonoma assieme ad auto con conducente
quando la guida sarà completamente autonoma tutto sarà molto più prevedibile, specialmente in autostrada dove esisteranno solo auto
rimarrà l'incognita pedone e ciclista in città, ma la cosa buona è che un computer ha tempi di reazione pressoché immediati quindi l'unico limite è il tempo per la manovra (frenata o sterzata)
Mparlav01 Marzo 2016, 11:42 #10
Originariamente inviato da: aald213
L'aspetto tragicomico della guida automatizzata è che se 34.000+ persone muoiono in un anno per incidenti autostradali, non fa notizia; se una macchina google urta (a passo d'uomo) un autobus, il fatto balza agli onori della cronaca.


Puoi giurarci, la prima vittima di un'auto a guida automatica, finirà sulla prima pagina delle news nel mondo.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^