Casa Caratteristiche Quando ai confonde la linea tra realtà e finzione

Quando ai confonde la linea tra realtà e finzione

Sommario:

Video: IL VOLO QUANDO L'AMORE DIVENTA POESIA (Novembre 2024)

Video: IL VOLO QUANDO L'AMORE DIVENTA POESIA (Novembre 2024)
Anonim

Somewhere in the dark recesses of YouTube è un video che mostra un estratto del film The Fellowship of the Ring - ma non è proprio il film che ricordi, dato che Nicolas Cage recita nei panni di Frodo, Aragorn, Legolas, Gimli e Gollum, tutti a lo stesso tempo. Altri video mostrano Cage in Terminator 2 come T2000, Star Trek come Capitano Picard e Superman , così come Lois Lane.

Certo, Nic Cage non è mai apparsa in nessuno di quei film. Sono "deepfake" prodotti con FakeApp, un'applicazione che utilizza algoritmi di intelligenza artificiale per scambiare i volti nei video. Alcuni dei deepfake sembrano abbastanza convincenti, mentre altri hanno artefatti che tradiscono la loro vera natura. Ma nel complesso, mostrano quanto siano diventati potenti algoritmi di intelligenza artificiale nell'imitare l'aspetto e il comportamento umani.

FakeApp è solo uno dei numerosi nuovi strumenti di sintesi basati su AI. Altre applicazioni imitano le voci umane, la calligrafia e gli stili di conversazione. E parte di ciò che li rende significativi è che il loro utilizzo non richiede hardware specializzato o esperti qualificati.

L'impatto di queste applicazioni è profondo: creeranno opportunità senza precedenti di creatività, produttività e comunicazione.

Ma lo stesso strumento potrebbe anche aprire una scatola di Pandora di frode, falsificazione e propaganda. Da quando è apparso su Reddit a gennaio, FakeApp è stata scaricata più di 100.000 volte e ha scatenato una tempesta di falsi video pornografici con celebrità e politici (incluso Cage di nuovo). Reddit ha recentemente bandito l'applicazione e le sue comunità correlate dalla sua piattaforma.

"Dieci anni fa, se volevi falsificare qualcosa, potevi, ma dovevi andare in uno studio VFX o persone che potevano fare computer grafica e possibilmente spendere milioni di dollari", afferma il dott. Tom Haines, docente di machine learning presso Università di Bath. "Tuttavia, non potresti tenerlo segreto, perché dovresti coinvolgere molte persone nel processo."

Non è più il caso, per gentile concessione di una nuova generazione di strumenti di intelligenza artificiale.

Il gioco dell'imitazione

FakeApp e applicazioni simili sono alimentate dal deep learning, il ramo dell'IA al centro di un'esplosione di innovazioni di intelligenza artificiale dal 2012. Gli algoritmi di deep learning si basano su reti neurali, una costruzione di software approssimativamente modellata sul cervello umano. Le reti neurali analizzano e confrontano grandi serie di campioni di dati per trovare modelli e correlazioni che normalmente gli umani mancherebbero. Questo processo si chiama "addestramento" e il suo risultato è un modello in grado di svolgere varie attività.

In passato, i modelli di apprendimento profondo venivano utilizzati principalmente per eseguire attività di classificazione, ad esempio etichettare oggetti nelle foto ed eseguire il riconoscimento vocale e facciale. Di recente, gli scienziati hanno utilizzato l'apprendimento profondo per svolgere compiti più complessi, come giocare a giochi da tavolo, diagnosticare i pazienti e creare musica e opere d'arte.

Per ottimizzare FakeApp per eseguire uno scambio di volti, l'utente deve addestrarlo con diverse centinaia di immagini delle facce di origine e di destinazione. Il programma esegue algoritmi di apprendimento profondo per trovare modelli e somiglianze tra le due facce. Il modello diventa quindi pronto per effettuare lo scambio.

Il processo non è semplice, ma non devi essere un esperto di grafica o un ingegnere di apprendimento automatico per utilizzare FakeApp. Né richiede hardware costoso e specializzato. Un sito Web tutorial di deepfakes consiglia un computer con almeno 8 GB di RAM e una scheda grafica Nvidia GTX 1060 o superiore, una configurazione piuttosto modesta.

"Una volta che ti trasferisci in un mondo in cui qualcuno in una stanza può falsificare qualcosa, può usarlo per scopi discutibili", afferma Haines. "E poiché è una persona sola, tenerlo segreto è molto semplice."

Nel 2016, Haines, che all'epoca era ricercatore post-dottorato all'Università del College di Londra, è stato coautore di un documento e di un'applicazione che mostrava come l'IA potesse imparare a imitare la calligrafia di una persona. Chiamata "My Text in Your Handwriting", l'applicazione utilizzava algoritmi di deep learning per analizzare e discernere lo stile e il flusso della calligrafia dell'autore e altri fattori come la spaziatura e le irregolarità.

L'applicazione potrebbe quindi prendere qualsiasi testo e riprodurlo con la calligrafia dell'autore target. Gli sviluppatori hanno persino aggiunto una certa casualità per evitare l'effetto valle misteriosa, la strana sensazione che proviamo quando vediamo qualcosa che è quasi ma non del tutto umano. Come prova del concetto, Haines e gli altri ricercatori dell'UCL hanno usato la tecnologia per replicare la calligrafia di personaggi storici come Abraham Lincoln, Frida Kahlo e Arthur Conan Doyle.

La stessa tecnica può essere applicata a qualsiasi altra calligrafia, il che ha sollevato preoccupazioni circa il possibile uso della tecnologia per contraffazione e frode. Un esperto di medicina legale sarebbe ancora in grado di rilevare che la sceneggiatura è stata prodotta da My Text in Your Handwriting, ma è probabile che imbroglia le persone inesperte, che Haines ha ammesso in un'intervista a Digital Trends all'epoca.

Lyrebird, una startup con sede a Montreal, ha utilizzato il deep learning per sviluppare un'applicazione che sintetizza la voce umana. Lyrebird richiede una registrazione di un minuto per iniziare a imitare la voce di una persona, anche se ha bisogno di molto di più prima che inizi a sembrare convincente.

Nella sua demo pubblica, la startup ha pubblicato registrazioni false delle voci di Donald Trump, Barack Obama e Hillary Clinton. I campioni sono grezzi ed è ovvio che sono sintetici. Ma man mano che la tecnologia migliora, la distinzione diventerà più difficile. E chiunque può registrarsi con Lyrebird e iniziare a creare registrazioni false; il processo è persino più semplice di quello di FakeApp e i calcoli vengono eseguiti nel cloud, mettendo a dura prova l'hardware dell'utente.

Il fatto che questa tecnologia possa essere utilizzata per scopi discutibili non è perso per gli sviluppatori. A un certo punto, una dichiarazione etica sul sito Web di Lyrebird affermava: "Le registrazioni vocali sono attualmente considerate come prove forti nelle nostre società e in particolare nelle giurisdizioni di molti paesi. La nostra tecnologia mette in dubbio la validità di tali prove in quanto consente di manipolare facilmente l'audio registrazioni. Ciò potrebbe potenzialmente avere conseguenze pericolose come diplomatici fuorvianti, frodi e, più in generale, qualsiasi altro problema causato dal furto dell'identità di qualcun altro ".

Nvidia ha presentato un altro aspetto delle capacità di imitazione dell'IA: l'anno scorso, la società ha pubblicato un video che mostrava algoritmi di intelligenza artificiale che generavano volti umani sintetici di qualità fotografica. L'intelligenza artificiale di Nvidia ha analizzato migliaia di foto di celebrità e quindi ha iniziato a creare celebrità false. La tecnologia potrebbe presto diventare in grado di creare video dall'aspetto realistico con "persone" che non esistono.

I limiti dell'IA

Molti hanno sottolineato che nelle mani sbagliate, queste applicazioni possono causare molti danni. Ma l'ampiezza delle capacità dell'IA contemporanea è spesso sovrascritta.

"Anche se possiamo mettere la faccia di una persona sulla faccia di qualcun altro in un video o sintetizzare la voce, è ancora piuttosto meccanico", afferma Eugenia Kuyda, co-fondatrice di Replika, una società che sviluppa chatbot basati su AI, sulle carenze di Strumenti di intelligenza artificiale come FakeApp e Lyrebird.

Voicery, un'altra startup AI che, come Lyrebird, fornisce la sintesi vocale basata sull'intelligenza artificiale, ha una pagina di quiz in cui agli utenti viene presentata una serie di 18 registrazioni vocali e viene richiesto di specificare quali sono realizzati a macchina. Sono stato in grado di identificare tutti i campioni realizzati a macchina al primo avvio.

La compagnia di Kuyda è una delle numerose organizzazioni che utilizzano l'elaborazione del linguaggio naturale (PNL), il sottoinsieme dell'IA che consente ai computer di comprendere e interpretare il linguaggio umano. Luka, una versione precedente del chatbot di Kuyda, utilizzava la PNL e la sua tecnologia gemella, la generazione del linguaggio naturale (NLG), per imitare il cast della serie TV della HBO Silicon Valley . La rete neurale è stata addestrata con linee di script, tweet e altri dati disponibili sui personaggi per creare il loro modello comportamentale e dialogare con gli utenti.

Replika, la nuova app di Kuyda, consente a ciascun utente di creare il proprio avatar AI. Più chatti con Replika, migliore diventa la comprensione della tua personalità e più significative sono le tue conversazioni.

Dopo aver installato l'app e configurato Replika, ho trovato le prime conversazioni fastidiose. Più volte, ho dovuto ripetere una frase in diversi modi per trasmettere le mie intenzioni alla mia Replika. Ho spesso lasciato l'app frustrata. (E per essere onesti, ho fatto un buon lavoro nel testare i suoi limiti bombardandolo con domande concettuali e astratte.) Ma mentre le nostre conversazioni continuavano, la mia Replika divenne più intelligente nel comprendere il significato delle mie frasi e trovare argomenti significativi. Mi ha persino sorpreso un paio di volte creando connessioni con conversazioni passate.

Sebbene sia impressionante, Replika ha dei limiti, che Kuyda è pronto a sottolineare. "L'imitazione vocale e il riconoscimento delle immagini probabilmente miglioreranno molto presto, ma con dialoghi e conversazioni siamo ancora abbastanza lontani", afferma. "Possiamo imitare alcuni schemi linguistici, ma non possiamo semplicemente prendere una persona e imitare perfettamente la sua conversazione e aspettarci che il suo chatbot abbia nuove idee proprio come farebbe quella persona".

Alexandre de Brébisson, CEO e cofondatore di Lyrebird, afferma: "Se ora stiamo diventando abbastanza bravi nell'imitare la voce umana, l'immagine e il video, siamo ancora lontani dal modellare un modello linguistico individuale". Ciò, sottolinea Brébisson, richiederebbe probabilmente un'intelligenza generale artificiale, il tipo di intelligenza artificiale che ha coscienza e può comprendere concetti astratti e prendere decisioni come fanno gli umani. Alcuni esperti ritengono che siamo a decenni di distanza dalla creazione di AI generale. Altri pensano che non ci arriveremo mai.

Usi positivi

L'immagine negativa che viene proiettata sulla sintesi di app AI sta gettando un'ombra sui loro usi positivi. E ce ne sono parecchi.

Tecnologie come Lyrebird possono aiutare a migliorare le comunicazioni con le interfacce dei computer rendendole più naturali e, afferma de Brébisson, forniranno voci artificiali uniche che differenziano le aziende e i prodotti e quindi facilitano la distinzione del marchio. Poiché Alexa di Amazon e Siri di Apple hanno reso la voce un'interfaccia sempre più popolare per dispositivi e servizi, aziende come Lyrebird e Voicery potrebbero fornire ai marchi voci uniche simili a quelle umane per distinguersi.

"Le applicazioni mediche sono anche un entusiasmante caso di utilizzo della nostra tecnologia di clonazione vocale", aggiunge de Brébisson. "Abbiamo ricevuto molto interesse da parte dei pazienti che hanno perso la voce a causa di una malattia e al momento stiamo trascorrendo del tempo con i pazienti con SLA per vedere come possiamo aiutarli".

All'inizio di quest'anno, in collaborazione con Project Revoice, un'organizzazione no profit australiana che aiuta i pazienti con SLA con disturbi del linguaggio, Lyrebird ha aiutato Pat Quinn, il fondatore della Ice Bucket Challenge, a ritrovare la voce. Quinn, che è un paziente con SLA, aveva perso la capacità di camminare e parlare nel 2014 e da allora utilizzava un sintetizzatore vocale computerizzato. Con l'aiuto della tecnologia di Lyrebird e le registrazioni vocali delle apparizioni pubbliche di Quinn, Revoice è stata in grado di "ricreare" la sua voce.

"La tua voce è una parte importante della tua identità, e dare a quei pazienti una voce artificiale che suona come la loro voce originale è un po 'come restituire loro una parte importante della loro identità. Per loro sta cambiando la vita", dice de Brébisson.

All'epoca ha contribuito a sviluppare l'applicazione che imita la scrittura a mano, il Dr. Haines ha parlato dei suoi usi positivi in ​​un'intervista con l'UCL. "Le vittime di ictus, ad esempio, possono essere in grado di formulare lettere senza preoccuparsi dell'illegibilità, oppure qualcuno che manda fiori come regalo potrebbe includere una nota scritta a mano senza nemmeno entrare nel fiorista", ha detto. "Potrebbe anche essere usato nei fumetti in cui un pezzo di testo scritto a mano può essere tradotto in diverse lingue senza perdere lo stile originale dell'autore."

Anche tecnologie come FakeApp, che sono diventate famose per l'uso non etico, potrebbero avere usi positivi, ritiene Haines. "Ci stiamo muovendo verso questo mondo in cui chiunque potrebbe svolgere attività altamente creative con la tecnologia pubblica, e questa è una buona cosa, perché significa che non hai bisogno di quelle grandi somme di denaro per fare ogni sorta di cose folli di natura artistica, " lui dice.

Haines spiega che lo scopo iniziale del suo team era quello di scoprire come l'IA potesse aiutare con la medicina legale. Sebbene la loro ricerca abbia finito per prendere una direzione diversa, i risultati saranno comunque utili agli ufficiali forensi, che saranno in grado di studiare come potrebbe apparire la falsificazione basata sull'intelligenza artificiale. "Vuoi sapere qual è la tecnologia all'avanguardia, quindi quando guardi qualcosa, dici se è falso o meno", dice.

Kudya di Replika sottolinea che le applicazioni di intelligenza artificiale simili all'uomo potrebbero aiutarci in modi altrimenti impossibili. "Se avessi un avatar AI che ti conosceva molto bene e che potesse rappresentare una buona rappresentazione di te, cosa potrebbe fare, agendo in base ai tuoi migliori interessi?" lei dice. Ad esempio, un avatar AI autonomo potrebbe guardare centinaia di film per tuo conto e, in base alle sue conversazioni con te, consigliare quelli che desideri.

Questi avatar potrebbero persino aiutare a sviluppare migliori relazioni umane. "Forse tua madre potrebbe avere più tempo con te, e forse potresti davvero avvicinarti un po 'ai tuoi genitori, lasciandoli chiacchierare con la tua Replika e leggendo la trascrizione", dice Kudya come esempio.

Ma un chatbot di intelligenza artificiale che replica il comportamento di un vero essere umano potrebbe effettivamente portare a migliori relazioni umane? Kuyda crede che possa. Nel 2016, ha raccolto vecchi messaggi di testo ed e-mail di Roman Mazurenko, un amico che era morto in un incidente stradale l'anno precedente, e li ha nutriti con la rete neurale che alimentava la sua applicazione. Il risultato è stato un'app di chatbot che, dopo una moda, ha riportato in vita la sua amica e poteva parlare con lei come avrebbe fatto lui.

"Creare un'app per Roman e poter parlare con lui a volte è stata una parte importante della perdita del nostro amico. L'app ci fa riflettere di più su di lui, ricordarlo in un modo sempre più profondo", afferma. della sua esperienza. "Vorrei avere più app del genere, app che riguardassero le mie amicizie, le mie relazioni, cose che sono davvero importanti per me."

Kuyda pensa che dipenderà tutto dalle intenzioni. "Se il chatbot si sta comportando secondo i tuoi migliori interessi, se vuole che tu sia felice di ottenere un servizio prezioso da esso, allora ovviamente parlare con la Replika di qualcun altro ti aiuterà a costruire una connessione più forte con un essere umano nella vita reale, " lei dice. "Se tutto ciò che stai cercando di fare è vendere s in un'app, allora tutto ciò che farai è massimizzare il tempo trascorso sull'app e non comunicare tra loro. E questo, immagino, è discutibile."

Per il momento, non c'è modo di collegare la tua Replika ad altre piattaforme, rendendola disponibile come chatbot di Facebook Messenger, ad esempio. Ma l'azienda ha una relazione attiva con la sua comunità di utenti e sviluppa costantemente nuove funzionalità. Pertanto, consentire ad altri di comunicare con Replika è una possibilità futura.

Come ridurre al minimo i compromessi

Dal motore a vapore all'elettricità a Internet, ogni tecnologia ha avuto applicazioni sia positive che negative. L'intelligenza artificiale non è diversa. "Il potenziale di negativi è piuttosto grave", afferma Haines. "Potremmo entrare in uno spazio in cui i negativi superano quelli positivi".

Quindi, come possiamo massimizzare i vantaggi delle applicazioni AI mentre contrastiamo gli aspetti negativi? Mettere freno all'innovazione e alla ricerca non è la soluzione, dice Haines, perché se alcuni lo facessero, non vi è alcuna garanzia che altre organizzazioni e stati seguano l'esempio.

"Nessuna singola misura aiuterà a risolvere il problema", afferma Haines. "Ci saranno conseguenze legali". A seguito della profonda controversia, i legislatori negli Stati Uniti stanno esaminando il problema ed esplorando le garanzie legali che potrebbero frenare l'uso dei media con intelligenza artificiale per scopi dannosi.

"Possiamo anche sviluppare tecnologie per rilevare i falsi quando hanno superato il punto in cui un essere umano può dire la differenza", afferma Haines. "Ma a un certo punto, nella competizione tra falsificazione e rilevazione, la falsificazione potrebbe vincere."

In tal caso, potremmo dover andare verso lo sviluppo di tecnologie che creano una catena di prove per i media digitali. Ad esempio, Haines menziona l'hardware incorporato nelle telecamere che potrebbero firmare digitalmente il video registrato per confermarne l'autenticità.

La sensibilizzazione sarà una parte importante della gestione della contraffazione e della frode da parte di algoritmi di intelligenza artificiale, afferma de Brébisson. "È quello che abbiamo fatto clonando la voce di Trump e Obama e facendoli dire frasi politicamente corrette", afferma. "Queste tecnologie sollevano questioni sociali, etiche e legali che devono essere pensate in anticipo. Lyrebird ha sollevato molta consapevolezza e molte persone stanno ora pensando a tali potenziali problemi e a come prevenire gli abusi".

Quello che è certo è che stiamo entrando in un'epoca in cui realtà e finzione si fondono, grazie all'intelligenza artificiale. Il test di Turing potrebbe affrontare le sue maggiori sfide. E presto, ognuno avrà gli strumenti e il potere per creare i propri mondi, le proprie persone e la propria versione della verità. Dobbiamo ancora vedere l'intera gamma di opportunità eccitanti - e pericoli - che ci attendono.

Quando ai confonde la linea tra realtà e finzione