Perché l’Autopilot di Tesla è assistenza alla guida e non guida autonoma

0
1014

È cronaca di pochi giorni fa che una Tesla Model S su un’autostrada del Texas nei dintorni di Dallas ha urtato con la fiancata contro la barriera. Nessun danno per il guidatore, secondo il quale il sinistro è stato dovuto al sistema Autopilot.

Il caso è interessante perché aiuta a chiarire fino a che punto possono spingersi, per essere ragionevoli, le aspettative del pubblico sulle possibilità degli attuali sistemi di assistenza alla guida, anche dei più avanzati come Autopilot.

L’episodio è stato filmato da una telecamera montata a bordo di un veicolo che marciava dietro la Tesla e poi postato su Instagram.

#tesla #dashcam minor escape..!!

Un post condiviso da @suryarajesh17 in data:

L’incidente che ha visto coinvolta una Tesla Model S

La scena è semplice: la vettura marciava sulla corsia di sorpasso; un restringimento di carreggiata, con segnaletica orizzontale provvisoria (punteggiata) che indica la deviazione subita dalle corsie temporanee, richiedeva che la vettura (chiunque fosse a guidarla: umano o Autopilot) mettesse la freccia e deviasse a destra, rallentando se necessario. Nessuna delle tre cose è avvenuta: l’auto ha continuato diritta fino a urtare la barriera, venendone poi spinta a destra.

Il guidatore avrebbe affermato, in un post su Reddit che ha subito suscitato lunghissime discussioni, che Autopilot (di prima generazione) era in funzione e non aveva mai dato problemi prima, ma che in quel caso non ha dato alcun avviso ma ha semplicemente frainteso la segnaletica orizzontale e ha causato l’urto.

Limitare l’Autopilot o istruire meglio i piloti?

Sul blog qualcuno ha commentato che i politici dovrebbero assicurarsi attraverso multe o altro che i cantieri stradali prevedano anche la cancellazione della segnaletica orizzontale sbagliata e l’affissione di abbondanti cartelli per segnalare la deviazione.

Altri hanno ribattuto che non ci si può aspettare che la strada sia sempre perfetta, o che se ci si imbattesse in un veicolo fermo, appena guastatosi e quindi ancora senza segnaletica, ovviamente si avrebbe il dovere e la responsabilità di schivarlo anche se nessuno ha ancora messo un cartello che indica di farlo.

Altri hanno detto che sarebbe stata colpa del guidatore se l’auto l’avesse avvisato del pericolo e lui non fosse intervenuto, ma che siccome Autopilot non avrebbe nè reagito automaticamente nè avvisato il guidatore che doveva intervenire lui, sostanzialmente incolpano il sistema.

Altri ancora giustamente hanno fatto notare che se il sistema avesse avvisato il guidatore, ma con “troppo” poco preavviso, ci sarebbe stato da discutere anche sul preavviso minimo necessario.

La vettura è dotata di un sistema di frenata di emergenza automatica (Automatic Emergency Braking, AEB), ma che a quanto pare non è intervenuto. Secondo la descrizione di questa funzione, AEB non interviene quando esiste una strategia percorribile per evitare la collisione, come una sterzata effettuata dal guidatore.

Cosa si può imparare da questo episodio sui sistemi automatici di guida

Grazie al video dell’episodio, e ancora di più leggendo i commenti del guidatore e quelli degli altri partecipanti alla discussione, ci si rende conto che:

  1. i sistemi di bordo attuali non indirizzano il 100% delle situazioni di guida e nemmeno rilevano il 100% dei pericoli, nè avvisano il guidatore nel 100% dei casi non gestibili in automatico in cui deve intervenire l’umano e di conseguenza non ci se ne può fidare al 100% come fossero sistemi a guida autonoma (che del resto, giova ripeterlo, attualmente non affermano affatto di essere).
  2. Inoltre, le mappe dei navigatori non hanno alcuna speranza di essere perennemente e istantaneamente aggiornate su tutte le modifiche, i cantieri, gli ostacoli, gli imprevisti eccetera; quindi resta ovviamente del tutto fondamentale il ruolo della sensoristica di bordo e delle decisioni prese dai computer di bordo (passerà ancora molto tempo prima che ci si possa fidare di computer remoti, magari più potenti e accurati di come possono essere quelli di bordo, ma raggiunti attraverso una rete mobile che potrebbe avere occasionali ritardi e malfunzionamenti con conseguenze potenzialmente catastrofiche).
  3. Indubbiamente, la cattiva segnaletica di cantiere, già oggi un’incuria censurabile, ma che i guidatori umani sembrano saper in molti casi gestire, può diventare assolutamente imperdonabile quando a guidare è un sistema automatico magari più preciso di un umano, ma non altrettanto “tollerante” nè altrettanto “adattativo”.
  4. Quando cominceranno a esserci in circolazione molte auto con guida assistita o semiautonoma, con proprietari che nutrono aspettative sbagliate sulle loro capacità, si moltiplicheranno le situazioni come questa e di conseguenza, in parallelo, (specie in certi Paesi) anche i contenziosi legali che vedranno opporsi due o più soggetti fra: proprietari di auto, costruttori di auto, società di costruzioni responsabili di cantieri stradali, assicurazioni auto, politici, enti per la sicurezza stradale eccetera. E’ facile prevedere che questo scenario farà con ogni probabilità salire, forse anche di parecchio, i costi di assicurazioni, manutenzione stradale e delle stesse auto a guida autonoma.

Sistemi di ausilio alla guida e non guida autonoma

È vero, gli attuali sistemi di assistenza alla guida vengono descritti con accurata scelta di termini che escluda pericolose illusioni e spesso c’è un chiaro e minuzioso avviso sulla documentazione e nella strumentazione circa la responsabilità del guidatore, oppure viene fatto un aspro richiamo se si tolgono le mani dal volante per più di qualche secondo, ma il rischio è che col tempo il guidatore tenda gradualmente a non farci più caso e, dopo tanti chilometri percorsi in modalità assistita o semiautonoma senza problemi (dopotutto già adesso la Model S è una delle auto più sicure in circolazione in USA, se non la più sicura in assoluto, con 5 stelle della scala NHTSA, e questo anche e soprattutto dopo l’introduzione delle varie funzioni di guida autonoma), si abitui a pensare che il sistema sia abbastanza affidabile da prevenire qualsiasi rischio. Questa aspettativa può risultare molto pericolosa.

 

 

Share

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here