Casa opinioni L'incidente d'auto a guida autonoma di Uber: ai ci ha deluso?

L'incidente d'auto a guida autonoma di Uber: ai ci ha deluso?

Sommario:

Video: Satisfying Video l Kinetic Sand Nail Polish Foot Cutting ASMR #7 Rainbow ToyTocToc (Ottobre 2024)

Video: Satisfying Video l Kinetic Sand Nail Polish Foot Cutting ASMR #7 Rainbow ToyTocToc (Ottobre 2024)
Anonim

Il 12 marzo, la MIT Technology Review ha pubblicato una storia che è iniziata così: "È l'anno 2023 e le auto a guida autonoma stanno finalmente navigando nelle nostre strade della città. Per la prima volta, uno di loro ha colpito e ucciso un pedone, con enorme copertura mediatica. È probabile una causa di alto profilo, ma quali leggi dovrebbero essere applicate?"

Tutto ciò che riguardava la previsione era giusto, tranne la data. Esattamente una settimana dopo la pubblicazione dell'articolo, un Uber a guida autonoma colpì e uccise un pedone a Tempe, in Arizona, mentre funzionava in modalità autonoma.

Sebbene l'incidente sia ancora oggetto di indagine, la commozione che ne deriva è un'indicazione di quanto siamo lontani dall'integrare con successo l'intelligenza artificiale nei nostri compiti e decisioni critici.

In molti casi, il problema non è con l'IA ma con le nostre aspettative e comprensione. Secondo Wired , circa 40.000 persone sono morte in incidenti stradali l'anno scorso solo negli Stati Uniti, di cui 6.000 erano pedoni. Ma pochissimi (se ce ne sono stati) hanno fatto notizia come ha fatto l'incidente di Uber.

Uno dei motivi per cui l'incidente di Uber ha causato un tale trambusto è che in genere nutriamo grandi aspettative riguardo alle nuove tecnologie, anche quando sono ancora in fase di sviluppo. Con l'illusione che la pura matematica guidi gli algoritmi AI, tendiamo a fidarci delle loro decisioni e siamo scioccati quando commettono errori.

Anche i conducenti di sicurezza al volante di auto a guida autonoma abbassano la guardia. Le riprese dell'incidente di Uber hanno mostrato che l'autista era distratto, guardando in basso pochi secondi prima dell'incidente.

Nel 2016, il conducente di un modello Tesla S funzionante in modalità pilota automatico è deceduto dopo che il veicolo si è schiantato contro un camion. Un'indagine ha rivelato che l'autista potrebbe aver visto un film di Harry Potter al momento della collisione.

Le aspettative di perfezione sono alte e le delusioni sono potenti. I critici furono pronti a mettere in discussione l'intero progetto di auto a guida autonoma di Uber dopo l'incidente; la società ha temporaneamente sospeso i test delle auto a guida autonoma in seguito.

L'IA non è umana

Tra le critiche che seguirono l'incidente c'era che un guidatore umano avrebbe facilmente evitato l'incidente.

"Non stava saltando fuori dai cespugli. Stava facendo chiari progressi su più corsie di traffico, che avrebbero dovuto rientrare nel sistema per raccogliere", ha detto un esperto alla CNN.

Lei ha ragione. Un guidatore umano con esperienza probabilmente l'avrebbe individuata. Ma gli algoritmi AI non sono umani.

Gli algoritmi di deep learning presenti nelle auto a guida autonoma utilizzano numerosi esempi per "apprendere" le regole del proprio dominio. Mentre trascorrono del tempo sulla strada, classificano le informazioni che raccolgono e imparano a gestire situazioni diverse. Ma questo non significa necessariamente che usano lo stesso processo decisionale dei driver umani. Ecco perché potrebbero funzionare meglio degli umani in alcune situazioni e fallire in quelli che sembrano banali per gli umani.

Un esempio perfetto è l'algoritmo di classificazione delle immagini, che impara a riconoscere le immagini analizzando milioni di foto etichettate. Nel corso degli anni, la classificazione delle immagini è diventata super efficiente e supera gli umani in molti contesti. Ciò non significa che gli algoritmi comprendano il contesto delle immagini nello stesso modo in cui lo fanno gli umani.

Ad esempio, una ricerca di esperti della Microsoft e della Stanford University ha scoperto che un algoritmo di apprendimento profondo addestrato con immagini di gatti bianchi credeva con un alto grado di convinzione che una foto di un cane bianco rappresentasse un gatto, un errore che un bambino umano poteva facilmente evitare. E in un caso famigerato, l'algoritmo di classificazione delle immagini di Google ha erroneamente classificato le persone di colore della pelle scura come gorilla.

Questi sono chiamati "casi limite", situazioni che gli algoritmi AI non sono stati addestrati a gestire, di solito a causa della mancanza di dati. L'incidente di Uber è ancora sotto inchiesta, ma alcuni esperti di IA suggeriscono che potrebbe essere un altro caso limite.

L'apprendimento profondo ha molte sfide da superare prima di poter essere applicato in situazioni critiche. Ma i suoi fallimenti non dovrebbero scoraggiarci. Dobbiamo adattare le nostre percezioni e aspettative e abbracciare la realtà che ogni grande tecnologia fallisce durante la sua evoluzione. L'intelligenza artificiale non è diversa.

L'incidente d'auto a guida autonoma di Uber: ai ci ha deluso?