In che modo i dati perimetrali stanno addestrando l’IA per una risposta precisa e in tempo reale

241

Non sei riuscito a partecipare a Transform 2022? Dai un’occhiata a tutte le sessioni del vertice nella nostra libreria on-demand ora! Guarda qui.

La guida autonoma è vista come il futuro della mobilità, grazie ad aziende come Tesla che hanno sviluppato sistemi avanzati di assistenza alla guida (ADAS) basati sull’intelligenza artificiale per aiutare gli utenti a navigare da un punto all’altro in determinate condizioni.

I progressi sono stati sorprendenti per molti, ma resta il fatto: non siamo ancora lontani da veicoli veramente autonomi. Per raggiungere una vera autonomia, i veicoli a guida autonoma dovrebbero essere in grado di funzionare meglio dei conducenti umani in tutte le condizioni, che si tratti di un’area urbana densamente popolata, di un villaggio o di uno scenario inaspettato lungo il percorso.

“La maggior parte delle volte, la guida autonoma è in realtà piuttosto facile. A volte è semplice come guidare su una strada vuota o seguire un veicolo di testa. Tuttavia, dal momento che abbiamo a che fare con il mondo reale, c’è un’ampia varietà di “casi limite” che possono verificarsi”, ha affermato Kai Wang, direttore delle previsioni presso la società di mobilità di proprietà di Amazon Zoox, alla conferenza Transform 2022 di VentureBeat.

Questi casi limite creano problemi agli algoritmi. Immagina un gruppo di persone che entra in strada da un angolo cieco o un cumulo di macerie che si frappone.

Sforzo di formazione da Zoox

Gli esseri umani sono abbastanza bravi a riconoscere e rispondere a quasi tutti i tipi di casi limite, ma le macchine trovano il compito difficile poiché ci sono così tante possibilità di ciò che può accadere sulla strada. Per risolvere questo problema, Zoox, che sta costruendo un software di guida completamente autonomo e un robotaxi autonomo appositamente costruito, ha adottato un approccio a più livelli.

“Non c’è davvero un’unica soluzione che risolva tutti questi casi. Quindi, cerchiamo di integrare diversi tipi di mitigazioni a livello di tutto il nostro sistema, a ogni livello per darci le migliori possibilità di gestire queste cose”, ha affermato Wang.

In primo luogo, come ha spiegato il dirigente, Zoox consente la percezione di diverse condizioni/oggetti portando i dati dai sensori pod situati ai quattro angoli del suo veicolo.

Ogni pod è dotato di molteplici modalità di sensori – telecamere RGB, sensori Lidar, radar e sensori termici – che si completano a vicenda. Ad esempio, le telecamere RGB possono rilevare i dettagli nelle immagini ma non riescono a misurare la profondità, che è gestita da Lidar.

“Il compito del nostro sistema di percezione è utilizzare tutti questi sensori insieme e fonderli per produrre un’unica rappresentazione per tutti gli oggetti che ci circondano. Questo dà la migliore possibilità di riconoscere tutte le cose nel mondo che ci circonda”, ha detto Wang.

Una volta che gli agenti circostanti vengono riconosciuti, il sistema modella dove andranno a finire nei prossimi secondi. Questo viene fatto con algoritmi di deep learning basati sui dati che forniscono una distribuzione di potenziali traiettorie future. Dopo questo, considera tutte le entità dinamiche e le loro traiettorie previste e prende una decisione su cosa fare o come navigare in sicurezza attraverso lo scenario attuale fino alla destinazione target.

Teleguida

Sebbene il sistema stia effettivamente modellando e gestendo casi limite, potrebbe imbattersi in alcune nuove situazioni sulla strada. In questi casi, il sistema si ferma e utilizza le capacità di teleguida per chiedere aiuto a un esperto umano (controllando contemporaneamente la presenza di collisioni e ostacoli con altri agenti).

“Abbiamo un operatore umano chiamato in causa per suggerire un percorso per superare il blocco. Finora abbiamo ricevuto teleguida per meno dell’1% del nostro tempo totale di missione in ambienti complessi. E man mano che il nostro sistema diventa più maturo, questa percentuale dovrebbe scendere ulteriormente”, ha affermato Wang.

Dopo essere passati, i dati associati all’edge case passano all’azienda attraverso un ciclo di feedback, consentendole di utilizzare lo scenario e le sue varianti nelle simulazioni per rendere il sistema software più robusto.

Non perdere l’intera sessione su come i dati perimetrali stanno addestrando l’IA a essere più precisa e reattiva.

La missione di VentureBeat deve essere una piazza cittadina digitale per i decisori tecnici per acquisire conoscenze sulla tecnologia aziendale trasformativa e le transazioni. Saperne di più sull’appartenenza.