Casa opinioni L'anno della resa dei conti etica del settore industriale

L'anno della resa dei conti etica del settore industriale

Sommario:

Video: Satisfying Video l Kinetic Sand Nail Polish Foot Cutting ASMR #7 Rainbow ToyTocToc (Novembre 2024)

Video: Satisfying Video l Kinetic Sand Nail Polish Foot Cutting ASMR #7 Rainbow ToyTocToc (Novembre 2024)
Anonim

Da quando le reti neurali profonde hanno vinto la più importante competizione di riconoscimento delle immagini nel 2012, tutti sono stati entusiasti di ciò che l'intelligenza artificiale potrebbe scatenare. Ma nella corsa allo sviluppo di nuove tecniche e applicazioni di intelligenza artificiale, i possibili impatti negativi hanno avuto un arretramento.

Stiamo assistendo a uno spostamento verso una maggiore consapevolezza sull'etica dell'IA. Nel 2018, gli sviluppatori di AI sono diventati più consapevoli delle possibili ramificazioni delle loro creazioni. Molti ingegneri, ricercatori e sviluppatori hanno chiarito che non avrebbero sviluppato tecnologie che danneggiassero o danneggiassero la vita di persone innocenti, e hanno tenuto le loro compagnie.

Riconoscimento facciale nell'applicazione della legge

In passato, creare applicazioni di riconoscimento facciale era arduo, dispendioso in termini di risorse e soggetto a errori. Ma con i progressi della visione artificiale, il sottoinsieme dell'IA che consente ai computer di riconoscere il contenuto di immagini e video, la creazione di applicazioni di riconoscimento facciale è diventata molto più semplice e alla portata di tutti.

Le grandi aziende tecnologiche come Microsoft, Amazon e IBM hanno iniziato a fornire servizi basati su cloud che hanno consentito a qualsiasi sviluppatore di integrare la tecnologia di riconoscimento facciale nel proprio software. Ciò ha sbloccato molti nuovi casi d'uso e applicazioni in diversi domini, come la protezione e l'autenticazione delle identità, la sicurezza della casa intelligente e la vendita al dettaglio. Ma gli attivisti per i diritti alla privacy hanno espresso preoccupazione per il potenziale uso improprio.

Nel maggio 2018, l'American Civil Liberties Union ha rivelato che Amazon stava commercializzando Rekognition, una tecnologia di analisi video in tempo reale, alle forze dell'ordine e alle agenzie governative. Secondo l'ACLU, la polizia di almeno tre stati utilizzava Rekognition per il riconoscimento facciale nei feed video di sorveglianza.

"Con Rekognition, un governo può ora costruire un sistema per automatizzare l'identificazione e il tracciamento di chiunque. Se le telecamere dei corpi di polizia, ad esempio, fossero dotate di riconoscimento facciale, i dispositivi destinati alla trasparenza e alla responsabilità degli ufficiali si trasformerebbero ulteriormente in macchine di sorveglianza destinate al pubblico ", ha avvertito ACLU. "Automatizzando la sorveglianza di massa, i sistemi di riconoscimento facciale come Rekognition minacciano questa libertà, rappresentando una minaccia particolare per le comunità già ingiustamente prese di mira nell'attuale clima politico. Una volta costruiti e distribuiti potenti sistemi di sorveglianza come questi, il danno sarà estremamente difficile da annullare ".

Le preoccupazioni della ACLU sono state confermate dai dipendenti di Amazon, che a giugno hanno scritto una lettera a Jeff Bezos, CEO della società, e hanno chiesto che smettesse di vendere Rekognition alle forze dell'ordine. "La nostra azienda non dovrebbe essere nel settore della sorveglianza; non dovremmo essere nel settore della polizia; non dovremmo essere nel settore del sostegno a coloro che controllano e opprimono le popolazioni emarginate", si legge nella lettera.

A ottobre, uno staff anonimo di Amazon ha rivelato che almeno 450 dipendenti avevano firmato un'altra lettera che invitava Bezos e altri dirigenti a smettere di vendere Rekognition alla polizia. "Non possiamo trarre profitto da un sottogruppo di potenti clienti a spese delle nostre comunità; non possiamo distogliere lo sguardo dal costo umano della nostra attività. Non costruiremo silenziosamente la tecnologia per opprimere e uccidere le persone, sia nel nostro paese che in altri, " ha detto.

The Fallout del progetto AI militare di Google

Mentre Amazon stava affrontando questo contraccolpo interno, Google stava vivendo simili lotte su un contratto per sviluppare l'IA per l'esercito americano, soprannominato Project Maven.

Secondo quanto riferito, Google stava aiutando il Dipartimento della Difesa a sviluppare una tecnologia di visione artificiale in grado di elaborare i filmati video dei droni. La quantità di riprese video registrate dai droni ogni giorno era troppo per essere analizzata dagli analisti umani e il Pentagono voleva automatizzare parte del processo.

Riconoscendo la controversa natura dell'attività, un portavoce di Google ha stabilito che stava fornendo solo API per TensorFlow, la sua piattaforma di apprendimento automatico, per rilevare oggetti nei feed video. Google ha anche sottolineato che stava sviluppando politiche e garanzie per affrontare gli aspetti etici della sua tecnologia.

Ma Project Maven non si è trovato bene con i dipendenti di Google: 3.000 dei quali, tra cui decine di ingegneri, hanno presto firmato una lettera aperta al CEO Sundar Pichai che chiedeva la chiusura del programma.

"Riteniamo che Google non debba occuparsi della guerra", recitava la lettera. Ha chiesto alla società di "redigere, pubblicizzare e applicare una chiara politica in base alla quale né Google né i suoi appaltatori costruiranno mai la tecnologia di guerra".

I dipendenti di Google hanno anche avvertito che il loro datore di lavoro stava mettendo a repentaglio la sua reputazione e la sua capacità di competere per i talenti in futuro. "Non possiamo esternalizzare la responsabilità morale delle nostre tecnologie a terzi", hanno sottolineato i Googler.

Poco dopo, una petizione firmata da 90 accademici e ricercatori ha invitato i principali dirigenti di Google a interrompere il lavoro sulla tecnologia militare. I firmatari hanno avvertito che il lavoro di Google avrebbe posto le basi per "riconoscimento automatico dei bersagli e sistemi di armi autonomi". Hanno anche avvertito che man mano che la tecnologia si svilupperà, sarebbero "a un passo dall'autorizzazione dei droni autonomi a uccidere automaticamente, senza supervisione umana o controllo umano significativo".

Con l'aumentare delle tensioni, diversi dipendenti di Google si sono dimessi per protesta.

Come hanno risposto i leader tecnici

Sotto pressione, Google ha dichiarato a giugno che non avrebbe rinnovato il suo contratto con il Dipartimento della Difesa sul Progetto Maven dopo la sua scadenza nel 2019.

In un post sul blog, il CEO Sundar Pichai (nella foto sotto) ha dichiarato una serie di principi etici che avrebbero governato lo sviluppo e la vendita della tecnologia di intelligenza artificiale. Secondo Pichai, la società prenderà in considerazione progetti che sono per il bene della società nel suo insieme ed eviterà lo sviluppo dell'IA che ha rafforzato i pregiudizi ingiusti esistenti o ha minato la sicurezza pubblica.

Pichai ha inoltre dichiarato esplicitamente che la sua azienda non lavorerà su tecnologie che violano le norme sui diritti umani.

Bezos di Amazon è stato meno spaventato dall'indignazione per Rekognition. "Continueremo a sostenere il DoD e penso che dovremmo", ha detto Bezos in una conferenza tecnologica a San Francisco in ottobre. "Uno dei compiti della dirigenza senior è prendere la decisione giusta, anche quando è impopolare".

Bezos ha anche sottolineato la necessità che la comunità tecnologica supporti i militari. "Se le grandi aziende tecnologiche stanno per voltare le spalle al DoD, questo Paese sarà nei guai", ha detto.

Il presidente della Microsoft Brad Smith, la cui azienda ha dovuto affrontare critiche per il suo lavoro con ICE, ha pubblicato a luglio un post sul blog in cui ha chiesto un approccio misurato nella vendita di tecnologie sensibili alle agenzie governative. Mentre Smith non ha escluso la vendita di servizi di riconoscimento facciale alle forze dell'ordine e ai militari, ha sottolineato la necessità di una migliore regolamentazione e trasparenza nel settore tecnologico.

  • MIT per spendere $ 1 miliardo in programma per studiare l'etica dell'intelligenza artificiale MIT per spendere $ 1 miliardo in programma per studiare l'etica dell'intelligenza artificiale
  • L'IA parla davvero la nostra lingua? L'IA parla davvero la nostra lingua?
  • Abbattere l'inarrestabile fabbrica di intelligenza artificiale della Cina Abbattere l'inarrestabile fabbrica di intelligenza artificiale della Cina

"Abbiamo eletto rappresentanti al Congresso che hanno gli strumenti necessari per valutare questa nuova tecnologia, con tutte le sue ramificazioni. Approfittiamo dei controlli e degli equilibri di una Costituzione che ci ha visto dall'età delle candele a un'era di intelligenza artificiale. Come in così tante volte in passato, dobbiamo garantire che le nuove invenzioni servano le nostre libertà democratiche in conformità con lo stato di diritto ", ha scritto Smith.

Nel 2018, le lontane minacce dei robot killer e la disoccupazione di massa hanno lasciato il posto alle preoccupazioni sull'impatto etico e sociale più immediato dell'IA. In molti modi, questi sviluppi indicano che l'industria sta maturando, poiché gli algoritmi di intelligenza artificiale diventano più importanti nelle attività critiche. Ma man mano che algoritmi e automazione diventano più radicati nella nostra vita quotidiana, sorgeranno più dibattiti.

L'anno della resa dei conti etica del settore industriale