Accecato il radar dell’Autopilot di Tesla, e l’auto davanti sparisce

Ricercatori universitari sono riusciti a confondere i sensori (telecamere ottiche, ultrasuoni e radar) Autopilot di Tesla. Ecco come hanno fatto

1
Sensori Autopilot Tesla Hacker

Dopo l’incidente mortale avvenuto lo scorso maggio, in cui una Tesla Model S in modalità Autopilot ha avuto una collisione con un rimorchio, evidentemente sfuggito ai sensori di navigazione, qualcuno che magari aveva pensato che fossimo già entrati nell’era della guida autonoma si è come svegliato di soprassalto da un sogno e ci si è cominciati a preoccupare di quanto veramente sicuri siano attualmente questi sistemi.

Così, come riferisce Wired, ricercatori dell’Università della South Carolina e della Zhejiang University, in collaborazione con una società cinese specializzata in Internet Security hanno voluto provare a confondere i sensori usati da Autopilot per vedere se si può riuscire a far cadere in errore il sistema.

Non dovrebbe stupire più di tanto che i suddetti ricercatori siano riusciti nell’intento. Dopo aver provato ad attaccare tutti e tre i tipi di sensori usati da Autopilot (telecamere ottiche, ultrasuoni e radar) sono riusciti a ingannare solo il sistema radar in un modo che potrebbe provocare una collisione.

Cosa serve per confondere i sensori del Tesla Autopilot

L’equipaggiamento usato per questo attacco di prova comprende un generatore di segnale (attualmente del valore di 90mila dollari) e un moltiplicatore di frequenza. Sintonizzandosi sulle frequenze giuste, disponendo di sufficiente potenza e puntando opportunamente l’emissione radio verso l’antenna radar della Model S è possibile confondere il ricevitore, impedendogli di riconoscere la presenza di un’altra auto fisicamente presente davanti al frontale della vettura.

Sul cruscotto della Tesla sparisce così l’icona del veicolo che precede e, è ragionevole supporlo, se ci si fosse trovati in movimento l’Autopilot si sarebbe comportato come se quell’auto non ci fosse stata.

Un altro attacco messo a segno con successo dal team è stato rivolto non ad Autopilot ma al sistema di parcheggio automatico. Questo sistema si basa principalmente su sensori a ultrasuoni; in questo caso è bastato generare “rumore” acustico nello spettro degli ultrasuoni, anzichè rumore radio in quello delle onde radar, per “assordare” i sensori del parcheggio automatico e provocare o il mancato rilevamento di un oggetto esistente o l’erroneo rilevamento di un oggetto inesistente, alterando così il comportamento del sistema.

Questo attacco è anche costato molto meno di quello radar: usando un Arduino e qualche emettitore di ultrasuoni si è raggiunto il risultato per la modica spesa di 40 dollari.

Si è poi provato, anche qui con successo, a ostacolare la ricezione degli ultrasuoni ostruendo i sensori con schiume fonoassorbenti.

Più difficile confondere i sensori video

Sembra si sia rivelato più difficile contrastare il funzionamento dei sensori video: gli astuti ricercatori hanno provato a puntare laser e luci Led contro le telecamere per accecarle, riuscendo a provocare qualche danno permanente (pixel danneggiati nel sensore), ma non a ingannare Autopilot da questo punto di vista, in quanto il sistema si è disinserito invitando il conducente a riprendere il controllo.

In sintesi: il sistema di guida autonoma (come quello per il parcheggio automatico) fa uso di sensori per assolvere al suo compito; se tali sensori sono messi in condizione di non funzionare correttamente, il sistema riceve indicazioni inesatte e può non accorgersene, finendo col prendere decisioni sbagliate.

Esiste quindi (ma chi l’avrebbe mai detto?) un pericolo di malfunzionamento del sistema di fronte a circostanze accidentali che possono essere incontrate durante la normale circolazione, come pure (bella scoperta!) un pericolo di sfruttamento di questi punti deboli da parte di malintenzionati che potrebbero volontariamente creare le condizioni necessarie perchè Autopilot sbagli, magari durante la guida ad alta velocità, al fine di provocare un incidente.

Francamente, ci stupiamo dello stupore.

Pilota umano o automatico, non esiste il rischio zero

Anche se è un umano (magari uno di questi fenomenali ricercatori) e non un sistema informatico a guidare, se qualcuno improvvisamente punta contro il frontale dell’auto un potente riflettore dalla luce abbacinante è abbastanza probabile che il conducente risulti accecato e per qualche secondo perda il controllo. Così come pure se un enorme e assordante frastuono distrae il conducente per qualche secondo, sebbene la visibilità rimanga perfetta, inducendolo a coprirsi le orecchie e ad abbassare la testa per reazione istintiva.

Tutto sommato, Autopilot ha più possibilità rispetto a un umano di resistere a fenomeni accidentali e ad attacchi intenzionali visto che usa non uno, ma tre tipi diversi di sensori per ottenere le informazioni di cui ha bisogno. Se opportunamente integrate, le informazioni di questi tre canali possono aiutare il sistema a riconoscere e ignorare false segnalazioni.

Queste prove servono per migliorare i sistemi di guida autonoma, ma…

Il punto da capire è che Autopilot, o qualsiasi sistema di guida autonoma, può essere reso più insensibile e resistente di un guidatore umano ad attacchi luminosi, acustici o radio. È probabile e auspicabile che venga progressivamente perfezionato. Ma, naturalmente, nessun sistema di guida autonoma potrà mai essere reso infallibile, invulnerabile e inattaccabile al 100%.

Chi avesse pensato il contrario sbagliava in modo puerile, così come chi ha pensato che fosse necessario dimostrare che delle vulnerabilità esistono. Diciamo piuttosto che si è trattato di un buono spunto per un argomento di ricerca su cui pubblicare qualcosa per primi.

Fra l’altro, il team si è concentrato su attacchi ai sensori, ma sono immaginabili e certamente possibili anche dei (ben più subdoli) attacchi informatici al software Autopilot. Per emettere un potente fascio di onde radar, o una luce abbacinante, o un frastuono assordante, puntati con sufficiente precisione contro i sensori dell’auto, emessi al momento giusto e con l’auto in movimento, serve una preparazione logistica molto più complessa (e molto più appariscente: riflettori, antenne, altoparlanti..) che per scrivere un qualche linea di codice.


Questa mailing list usa Mailchimp. Iscrivendoti ad una o più liste, contestualmente dichiari di aderire ai suoi principi di privacy e ai termini d'uso.

In ottemperanza al Gdpr, Regolamento UE 2016/675 sui dati personali, ti garantiamo che i tuoi dati saranno usati esclusivamente per l’invio di newsletter e inviti alle nostre attività e non verranno condivisi con terze parti.

1 COMMENTO

LASCIA UN COMMENTO

Please enter your comment!
Please enter your name here