Sommario:
Video: Come contrastare le notizie false nella vita reale e virtuale? (Novembre 2024)
Il laboratorio di ricerca sull'intelligenza artificiale senza scopo di lucro OpenAI ha causato un'ondata di panico nell'apocalisse dell'IA il mese scorso quando ha introdotto un'intelligenza artificiale di generazione di testi all'avanguardia chiamata GPT-2. Ma mentre celebrava i risultati di GPT-2, OpenAI dichiarò che non avrebbe rilasciato il suo modello di intelligenza artificiale al pubblico, temendo che nelle mani sbagliate, GPT-2 potesse essere utilizzato per scopi dannosi come la generazione di articoli di notizie fuorvianti, la rappresentazione di altri online e automatizzare la produzione di contenuti falsi sui social media.
AI e linguaggio umano
I computer hanno storicamente lottato per gestire il linguaggio umano. Ci sono così tante complessità e sfumature nel testo scritto che convertirle tutte in regole del software classico è praticamente impossibile. Ma i recenti progressi nelle reti di apprendimento profondo e neurale hanno spianato la strada a un approccio diverso alla creazione di software in grado di gestire compiti relativi alla lingua.
Il deep learning ha apportato notevoli miglioramenti in settori quali la traduzione automatica, il riepilogo del testo, la risposta alle domande e la generazione del linguaggio naturale. Consente agli ingegneri del software di creare algoritmi che sviluppano il proprio comportamento analizzando molti esempi. Per le attività relative alla lingua, gli ingegneri alimentano le reti neurali di contenuti digitalizzati come notizie, pagine di Wikipedia e post sui social media. Le reti neurali confrontano attentamente i dati e prendono nota di come certe parole seguono altre in sequenze ricorrenti. Quindi trasformano questi schemi in complesse equazioni matematiche che li aiutano a risolvere compiti relativi al linguaggio come la previsione di parole mancanti in una sequenza di testo. In generale, maggiore è la qualità dei dati di formazione forniti a un modello di apprendimento approfondito, migliore è la sua capacità di svolgere il proprio compito.
Secondo OpenAI, GPT-2 è stato addestrato su 8 milioni di pagine Web e miliardi di parole, che è molto più di altri modelli simili. Utilizza inoltre modelli AI avanzati per applicare meglio i modelli di testo. L'output di esempio di GPT-2 mostra che il modello riesce a mantenere la coerenza in sequenze di testo più lunghe rispetto ai suoi predecessori.
Ma mentre GPT-2 è un passo avanti nel campo della generazione del linguaggio naturale, non è un progresso tecnologico verso la creazione di AI in grado di comprendere il significato e il contesto del testo scritto. GPT-2 sta ancora impiegando algoritmi per creare sequenze di parole statisticamente simili ai miliardi di estratti di testo che ha visto in precedenza: non ha assolutamente alcuna comprensione di ciò che sta generando.
In un'analisi approfondita, Tiernan Ray di ZDNet indica diversi casi in cui i campioni di output di GPT-2 tradiscono la loro natura artificiale con artefatti noti come la duplicazione dei termini e la mancanza di logica e coerenza nei fatti. "Quando GPT-2 passa ad affrontare la scrittura che richiede un maggiore sviluppo di idee e di logica, le crepe si aprono abbastanza largamente", osserva Ray.
L'apprendimento statistico può aiutare i computer a generare testi grammaticalmente corretti, ma per mantenere una coerenza logica e fattuale è necessaria una comprensione concettuale più profonda. Sfortunatamente, questa è ancora una sfida che le attuali miscele di AI non hanno superato. Ecco perché GPT-2 può generare bei paragrafi di testo, ma probabilmente sarebbe difficile trovare un articolo autentico longform o impersonare qualcuno in modo convincente e per un lungo periodo di tempo.
Perché AI Fake-News Panic è esagerato
Un altro problema con il ragionamento di OpenAI: si presume che l'IA possa creare una crisi di notizie false.
Nel 2016, un gruppo di adolescenti macedoni ha diffuso false notizie su elezioni presidenziali statunitensi a milioni di persone. Ironia della sorte, non avevano nemmeno le abilità inglesi adeguate; stavano trovando le loro storie sul web e mettendo insieme contenuti disparati. Hanno avuto successo perché hanno creato siti Web abbastanza autentici da convincere i visitatori a fidarsi di loro come fonti di notizie affidabili. Titoli sensazionali, utenti negligenti dei social media e algoritmi di tendenza hanno fatto il resto.
Quindi, nel 2017, gli attori maliziosi hanno scatenato una crisi diplomatica nella regione del Golfo Persico hackerando siti Web di notizie statali del Qatar e account di social media governativi e pubblicando false dichiarazioni per conto dello sceicco Tamim bin Hamad Al Thani, Emirato del Qatar.
Come dimostrano queste storie, il successo delle campagne di fake news dipende dallo stabilire (e tradire) la fiducia, non dalla generazione di grandi quantità di testo inglese coerente.
Gli avvertimenti di OpenAI sull'automazione della produzione di contenuti falsi da pubblicare sui social media sono tuttavia più giustificati, poiché la scala e il volume svolgono un ruolo più importante nei social network rispetto a quelli dei media tradizionali. Il presupposto è che un'intelligenza artificiale come GPT-2 sarà in grado di inondare i social media con milioni di post unici su un argomento specifico, influenzando gli algoritmi di tendenza e le discussioni pubbliche.
Tuttavia, gli avvertimenti non sono all'altezza della realtà. Negli ultimi anni, le società di social media hanno continuato a sviluppare capacità per rilevare e bloccare il comportamento automatizzato. Quindi un attore malintenzionato armato di un'intelligenza artificiale che genera testo dovrebbe superare una serie di sfide oltre alla creazione di contenuti unici.
Ad esempio, avrebbero bisogno di migliaia di account di social media falsi in cui pubblicare i loro contenuti generati dall'IA. Ancora più difficile, per assicurarsi che non ci sia modo di collegare gli account falsi, avrebbero bisogno di un dispositivo univoco e di un indirizzo IP per ciascun account.
Peggiora: gli account dovrebbero essere creati in momenti diversi, possibilmente nell'arco di un anno o più, per ridurre le somiglianze. L'anno scorso, un'indagine del New York Times ha mostrato che le sole date di creazione dell'account potrebbero aiutare a scoprire gli account dei bot. Quindi, per nascondere ulteriormente la loro natura automatizzata ad altri utenti e algoritmi di polizia, gli account dovrebbero impegnarsi in comportamenti umani, come interagire con altri utenti e impostare un tono unico nei loro post.
Nessuna di queste sfide è impossibile da superare, ma mostrano che il contenuto è solo una parte dello sforzo necessario per condurre in una campagna di notizie false sui social media. E ancora, la fiducia gioca un ruolo importante. Alcuni influencer di social media fidati che pubblicano post di notizie false avranno un impatto maggiore rispetto a un mucchio di account sconosciuti che generano grandi volumi di contenuti.
In difesa degli avvertimenti di OpenAI
Gli avvertimenti esagerati di OpenAI hanno innescato un ciclo di clamore e panico da parte dei media che, ironia della sorte, ha rasentato le stesse notizie false, suscitando critiche da parte di rinomati esperti di intelligenza artificiale.
Hanno invitato la gente dei media ad ottenere un accesso anticipato ai risultati, con un embargo sulla stampa in modo che tutto fosse reso pubblico lo stesso giorno. Nessun ricercatore che conosco ha visto il modello di grandi dimensioni, ma i giornalisti lo hanno fatto. Sì, lo hanno fatto esplodere intenzionalmente.
- Matt Gardner (@nlpmattg) 19 febbraio 2019
Ogni nuovo essere umano può potenzialmente essere utilizzato per generare notizie false, diffondere teorie della cospirazione e influenzare le persone.
Dovremmo smettere di fare bambini allora?
- Yann LeCun (@ylecun) 19 febbraio 2019
Volevo solo dare un colpo in testa, il nostro laboratorio ha trovato una svolta incredibile nella comprensione del linguaggio. ma temiamo anche che possa cadere nelle mani sbagliate. così abbiamo deciso di scartarlo e pubblicare invece solo le normali cose * ACL. Grande rispetto per il team per l'ottimo lavoro svolto.
- (((? () (? () 'Yoav)))) (@yoavgo) 15 febbraio 2019
Zachary Lipton, ricercatore di intelligenza artificiale e redattore di Approximately Correct, ha sottolineato la storia di OpenAI di "utilizzare il loro blog e estendere l'attenzione alla catapulta del lavoro immaturo nella visione del pubblico, e spesso interpretando gli aspetti di sicurezza umana del lavoro che non ha ancora intelletto gambe su cui stare ".
Sebbene OpenAI meriti tutte le critiche e il calore che ha ricevuto sulla scia delle sue osservazioni fuorvianti, è anche giusto essere sinceramente preoccupati per i possibili usi dannosi della sua tecnologia, anche se la società ha usato un modo irresponsabile per educare il pubblico a riguardo.
- L'anno del reckoning etico del settore dell'intelligenza artificiale L'anno del reckoning etico del settore dell'intelligenza artificiale
- Vantaggio ingiusto: non aspettarti che l'IA giochi come un essere umano Vantaggio ingiusto: non aspettarti che l'IA giochi come un essere umano
- Questa IA prevede la pesca a traina online prima che accada Questa AI prevede la pesca a traina online prima che accada
Negli anni passati, abbiamo visto come le tecnologie di intelligenza artificiale rese pubbliche senza pensieri e riflessioni possano essere armate per intenti maliziosi. Un esempio è stato FakeApp, un'applicazione AI che può scambiare i volti nei video. Poco dopo il rilascio di FakeApp, è stato utilizzato per creare video pornografici falsi che presentavano celebrità e politici, causando preoccupazione per la minaccia della falsificazione basata sull'intelligenza artificiale.
La decisione di OpenAI mostra che dobbiamo mettere in pausa e pensare alle possibili ramificazioni della tecnologia di rilascio pubblico. E dobbiamo avere discussioni più attive sui rischi delle tecnologie AI.
"Un'organizzazione che mette in pausa un determinato progetto non cambierà davvero nulla a lungo termine. Ma OpenAI ottiene molta attenzione per tutto ciò che fanno… e penso che dovrebbero essere applauditi per aver acceso i riflettori su questo problema", David Bau, un ricercatore del Computer Science and Artificial Intelligence Laboratory (CSAIL) del MIT, ha detto ad Slate.