Video: Il Dilemma dell'Onnivoro, il booktrailer (Novembre 2024)
La scorsa settimana non ci è voluto molto a bordo dell'auto a guida autonoma di Google per rendersi conto che la tecnologia non è solo pronta per la strada, ma in alcuni casi prende decisioni migliori rispetto ai conducenti umani, ad esempio rallentando e cedendo ai ciclisti.
Ad esempio, la tecnologia a guida autonoma aggiunge una nuova svolta al secolare dilemma filosofico noto come "problema del carrello". In questo scenario, una persona deve decidere se tirare una leva in corrispondenza di un incrocio a Y e guidare su una persona che è legata alla pista per salvare cinque persone legate alla pista adiacente.
Per le auto a guida autonoma, questo è stato rifuso come "problema del tunnel". Immagina che un veicolo autonomo stia viaggiando su una strada di montagna a una corsia e stia per entrare in un tunnel, quando un bambino inavvertitamente attraversa il suo percorso proprio all'interno dell'ingresso in modo che l'auto debba prendere una decisione in una frazione di secondo. Continua dritto e colpisce il bambino? O sterza e colpisce il tunnel, ferendo o uccidendo gli occupanti della macchina?
Il giorno dopo aver fatto un giro sull'auto a guida autonoma di Google a Mountain View, in California, ho partecipato a un evento presso la struttura di ricerca e sviluppo nordamericana Mercedes-Benz nella vicina Sunnyvale. Tra i vari argomenti trattati durante il giorno, il professore di Stanford e il capo del programma Revs dell'università Chris Gerdes ha tenuto una presentazione che ha approfondito il tema dell'etica e delle auto autonome.
Gerdes ha rivelato che Revs ha collaborato con il dipartimento di filosofia di Stanford su questioni etiche che coinvolgono veicoli autonomi, mentre l'università ha anche avviato una serie di test per determinare quale tipo di decisioni può prendere un'auto robotica in situazioni critiche.
Quando la filosofia prende il sopravvento
Come parte della sua presentazione, Gerdes ha spiegato perché abbiamo bisogno dei filosofi per aiutare a studiare questi problemi. Ha sottolineato che le questioni etiche con le auto a guida autonoma sono un obiettivo mobile e "non hanno limiti", sebbene spetti agli ingegneri "limitare il problema".
Per fare questo e spostare l'etica della tecnologia a guida autonoma oltre una semplice discussione accademica, Revs sta conducendo esperimenti con il veicolo di prova x1 di Stanford posizionando ostacoli sulla strada. Ha osservato che l'inserimento di priorità diverse nel programma software dei veicoli ha portato a "comportamenti molto diversi".
Gerdes ha affermato che questa nascente programmazione basata su etica del software a guida autonoma potrebbe diventare un "requisito fondamentale" per la tecnologia, e non qualcosa che è stato appena discusso nelle torri d'avorio. E ha aggiunto che l'etica non è qualcosa che i produttori di automobili possono reperire da un fornitore "Tier 1" come, per esempio, una pompa del carburante o uno schermo integrato. Il recente scandalo VW Dieselgate lo ha sicuramente dimostrato.
Driver umani esperti sono programmati da anni per gestire le decisioni in una frazione di secondo, e non sempre prendono sempre quelle giuste. Ma dopo aver visto come i veicoli a guida autonoma di Google reagiscono alle decisioni quotidiane e sentendo parlare del lavoro che Stanford Revs e il dipartimento di filosofia della scuola stanno conducendo, sto scommettendo che le auto alla fine prenderanno decisioni più intelligenti.