Casa Attività commerciale Ai e exploit di machine learning, deepfakes, ora più difficili da rilevare

Ai e exploit di machine learning, deepfakes, ora più difficili da rilevare

Sommario:

Video: Demo Completa di Deep Learning con Keras, Tensorflow e Python (Settembre 2024)

Video: Demo Completa di Deep Learning con Keras, Tensorflow e Python (Settembre 2024)
Anonim

Mentre ci dirigiamo verso la prossima stagione della campagna elettorale presidenziale, ti consigliamo di stare attento ai potenziali pericoli che i falsi video online comportano attraverso l'uso dell'intelligenza artificiale (AI) e dell'apprendimento automatico (ML). Utilizzando il software AI, le persone possono creare video deepfake (abbreviazione di "deep learning e fake") in cui gli algoritmi ML vengono utilizzati per eseguire uno scambio di facce per creare l'illusione che qualcuno abbia detto qualcosa che non ha detto o che sia qualcuno ' non lo sono. I video di Deepfake stanno comparendo in varie arene, dall'intrattenimento alla politica al mondo aziendale. Non solo i video deepfake possono influenzare ingiustamente un'elezione con messaggi falsi, ma possono portare imbarazzo personale o causare messaggi di marchio fuorvianti se, per esempio, mostrano un CEO che annuncia un lancio di un prodotto o un'acquisizione che in realtà non è avvenuta.

I deepfake fanno parte di una categoria di intelligenza artificiale denominata "Reti generative dell'avversario" o GAN, in cui due reti neurali competono per creare fotografie o video che sembrano reali. I GAN sono costituiti da un generatore, che crea un nuovo set di dati come un video falso e un discriminatore, che utilizza un algoritmo ML per sintetizzare e confrontare i dati del video reale. Il generatore continua a provare a sintetizzare il video falso con quello vecchio fino a quando il discriminatore non può dire che i dati sono nuovi.

Come ha sottolineato Steve Grobman, Senior Vice President e Chief Technology Officer (CTO) di McAfee, alla RSA Conference 2019 di marzo a San Francisco, fin dall'invenzione della fotografia sono state scattate fotografie false. Ha detto che modificare le foto è stato un compito semplice che puoi eseguire in un'applicazione come Adobe Photoshop. Ma ora anche questi tipi di funzionalità di editing avanzate si stanno spostando nel video e lo stanno facendo usando strumenti software altamente capaci e facilmente accessibili.

Come vengono creati Deepfakes

Sebbene la comprensione dei concetti di AI sia utile, non è necessario essere uno scienziato di dati per costruire un video di deepfake. Implica solo seguire alcune istruzioni online, secondo Grobman. Alla RSA Conference 2019 (vedi video sopra), ha presentato un video approfondito insieme alla dott.ssa Celeste Fralick, Chief Data Scientist e Senior Principal Engineer presso McAfee. Il video di deepfake ha illustrato la minaccia che questa tecnologia presenta. Grobman e Fralick hanno mostrato come un funzionario pubblico in un video che dice qualcosa di pericoloso potrebbe indurre in errore il pubblico a pensare che il messaggio sia reale.

Per creare il loro video, Grobman e Fralick hanno scaricato il software deepfake. Hanno quindi girato un video di Grobman che testimoniava davanti al Senato degli Stati Uniti nel 2017 e sovrapponeva la bocca di Fralick a quella di Grobman.

"Ho usato commenti pubblici liberamente disponibili per creare e formare un modello ML; questo mi ha permesso di sviluppare un video falso con le mie parole che mi uscivano di bocca", ha detto Fralick al pubblico di RSA sul palco. Fralick ha continuato dicendo che i video di deepfake potevano essere usati per lo sfruttamento sociale e la guerra delle informazioni.

Per realizzare il loro video deepfake, Grobman e Fralick hanno utilizzato uno strumento sviluppato da un utente Reddit chiamato FakeApp, che utilizza algoritmi ML e foto per scambiare i volti sui video. Durante la loro presentazione RSA, Grobman ha spiegato i passi successivi. "Abbiamo diviso i video in immagini fisse, abbiamo estratto i volti e li abbiamo puliti ordinandoli e ripulendoli su Instagram."

Gli script di Python hanno permesso al team McAfee di creare movimenti della bocca per far corrispondere il discorso di Fralick alla bocca di Grobman. Quindi avevano bisogno di scrivere alcuni script personalizzati. La sfida nel creare un deepfake convincente è quando caratteristiche come genere, età e tono della pelle non coincidono, ha detto Grobman.

Lui e Fralick hanno quindi usato un algoritmo AI finale per abbinare le immagini di Grobman che testimoniava davanti al Senato con il discorso di Fralick. Grobman ha aggiunto che ci sono volute 12 ore per addestrare questi algoritmi ML.

McAfee ha delineato i passaggi necessari per creare un video di deepfake mostrato alla conferenza RSA del 2019. Ha usato il software deepfake chiamato FakeApp e la formazione dei modelli ML per modificare il video di Grobman con il discorso di Fralick. (Credito immagine: McAfee).

Le conseguenze di Deepfakes

I video di deepfake creati dai pirati informatici hanno il potenziale per causare molti problemi: qualsiasi cosa, dai funzionari del governo che diffondono false disinformazioni alle celebrità che si imbarazzano per il fatto di essere nei video in cui non si trovavano in aziende che danneggiano le posizioni dei mercati azionari della concorrenza. Consapevoli di questi problemi, a settembre i legislatori hanno inviato una lettera a Daniel Coats, direttore dell'intelligence nazionale degli Stati Uniti, per chiedere una revisione della minaccia rappresentata dai deepfakes. La lettera avvertiva che paesi come la Russia potevano usare i deepfake sui social media per diffondere informazioni false. A dicembre, i legislatori hanno introdotto il Malicious Deep Fake Prohibition Act del 2018 per mettere fuorilegge le frodi in relazione a "registrazioni audiovisive" che si riferiscono a deepfakes. Resta da vedere se il conto passerà.

Come accennato, le celebrità possono soffrire di imbarazzo per i video in cui i loro volti sono stati sovrapposti ai volti delle star del porno, come nel caso di Gal Gadot. Oppure immagina che un CEO abbia annunciato le novità sui prodotti e affondato le azioni di un'azienda. I professionisti della sicurezza possono utilizzare ML per rilevare questo tipo di attacchi, ma se non vengono rilevati in tempo, possono portare danni inutili a un paese o un marchio.

"Con i deepfake, se sai cosa stai facendo e sai a chi puntare, puoi davvero realizzare un video convincente per causare molti danni a un marchio", ha affermato la dott.ssa Chase Cunningham, Analista principale di Forrester Research. Ha aggiunto che, se si distribuiscono questi messaggi su LinkedIn o Twitter o si fa uso di un modulo bot, "è possibile schiacciare le azioni di una società in base al video fasullo totale senza un certo sforzo."

Attraverso video di deepfake, i consumatori potrebbero essere indotti a credere che un prodotto possa fare qualcosa che non può. Cunningham ha osservato che, se un amministratore delegato di un importante produttore di automobili affermasse in un video fasullo che la società non avrebbe più prodotto veicoli alimentati a gas e quindi diffuso quel messaggio su Twitter o LinkedIn in quel video, quell'azione potrebbe facilmente danneggiare un marchio.

"Abbastanza interessante dalla mia ricerca, le persone prendono decisioni basate su titoli e video in 37 secondi, ha detto Cunningham." Quindi puoi immaginare se riesci a ottenere un video che dura più di 37 secondi, puoi convincere le persone a prendere una decisione in base a sia fattuale che no. E questo è terrificante ".

Poiché i social media sono un luogo vulnerabile in cui i video dei deepfake possono diventare virali, i siti dei social media stanno lavorando attivamente per combattere la minaccia dei deepfake. Facebook, ad esempio, schiera team di tecnici in grado di individuare foto, audio e video manipolati. Oltre all'utilizzo del software, Facebook (e altre società di social media) assumono persone per cercare manualmente i deepfake.

"Abbiamo ampliato i nostri continui sforzi per combattere i media manipolati per includere la lotta ai deepfake", ha dichiarato un rappresentante di Facebook in una nota. "Sappiamo che il continuo emergere di tutte le forme di media manipolati presenta sfide reali per la società. Ecco perché stiamo investendo in nuove soluzioni tecniche, imparando dalla ricerca accademica e lavorando con altri nel settore per comprendere i deepfakes e altre forme di media manipolati ".

Non tutti i Deepfakes sono cattivi

Come abbiamo visto con il video educativo di deepfake di McAfee e con i video comici di deepfake sulla TV a tarda notte, alcuni video di deepfake non sono necessariamente cattivi. In effetti, mentre la politica può esporre i veri pericoli dei video di deepfake, l'industria dell'intrattenimento spesso mostra solo il lato più leggero dei video di deepfake.

Ad esempio, in un recente episodio di The Late Show With Stephen Colbert, è stato mostrato un divertente video di deepfake in cui il viso dell'attore Steve Buscemi era sovrapposto al corpo dell'attrice Jennifer Lawrence. In un altro caso, il comico Jordan Peeler ha sostituito un video dell'ex presidente Barack Obama che parlava con la sua stessa voce. Sono anche apparsi online video umoristici di deepfake come questi, in cui il volto del presidente Trump si sovrappone al volto del cancelliere tedesco Angela Merkel mentre la persona parla.

Ancora una volta, se i video di deepfake vengono utilizzati per uno scopo satirico o umoristico o semplicemente come intrattenimento, le piattaforme di social media e persino le case di produzione cinematografica lo consentono o li utilizzano. Ad esempio, Facebook consente questo tipo di contenuti sulla sua piattaforma e Lucasfilm ha utilizzato un tipo di ricreazione digitale per presentare una giovane Carrie Fisher sul corpo dell'attrice Ingvild Deila in "Rogue One: A Star Wars Story".

Grobman di McAfee ha notato che parte della tecnologia alla base di deepfakes viene sfruttata con doppi acrobazie nel cinema per mantenere gli attori al sicuro. "Il contesto è tutto. Se è per scopi comici ed è ovvio che non è reale, è qualcosa che è un uso legittimo della tecnologia", ha detto Grobman. "Riconoscere che può essere utilizzato per tutti i tipi di scopi diversi è la chiave."

(Credito immagine: Statista)

Come rilevare i video di Deepfake

McAfee non è l'unica società di sicurezza che sta sperimentando come rilevare video falsi. Nel suo documento consegnato a Black Hat 2018 dal titolo "AI Gone Rogue: Exterminating Deep Fakes Before They Cause Menace", due esperti di sicurezza Symantec, Security Response Lead Vijay Thaware e Ingegnere di sviluppo software Niranjan Agnihotri, scrivono di aver creato uno strumento per individuare video falsi basati su Google FaceNet. Google FaceNet è un'architettura di rete neurale che i ricercatori di Google hanno sviluppato per aiutare con la verifica e il riconoscimento dei volti. Gli utenti addestrano un modello FaceNet su una particolare immagine e possono quindi verificare la propria identità durante i test successivi.

Per cercare di fermare la diffusione di video deepfake, AI Foundation, un'organizzazione no profit focalizzata sull'interazione umana e AI, offre software chiamato "Reality Defender" per individuare contenuti falsi. Può scansionare immagini e video per vedere se sono stati modificati usando l'IA. Se hanno, otterranno un "Filigrana AI onesto".

  • La guida aziendale all'apprendimento automatico La guida aziendale all'apprendimento automatico
  • PornHub, Twitter Ban 'Deepfake' AI-Modified Porn PornHub, Twitter Ban 'Deepfake' AI-Modified Porn
  • L'ultima tecnologia Deepfake ti farà ballare come Bruno Mars L'ultima tecnologia Deepfake ti farà ballare come Bruno Mars

Un'altra strategia è quella di tenere a mente il concetto di Zero Trust, che significa "mai fidarsi, verificare sempre" - un motto sulla sicurezza informatica che significa che i professionisti IT dovrebbero confermare che tutti gli utenti sono legittimi prima di concedere i privilegi di accesso. Sarà necessario rimanere scettici sulla validità dei contenuti video. Avrai anche bisogno di software con funzionalità di analisi digitale per individuare contenuti falsi.

In cerca di Deepfakes

In futuro, dovremo essere più cauti con i contenuti video e tenere presente i pericoli che possono presentare alla società se utilizzati in modo improprio. Come ha osservato Grobman, "Nel breve termine, le persone devono essere più scettiche su ciò che vedono e riconoscono che il video e l'audio possono essere fabbricati".

Quindi, tieni d'occhio scettico sui video politici che guardi mentre ci dirigiamo verso la prossima stagione elettorale, e non fidarti di tutti i video che caratterizzano i leader aziendali. Perché ciò che ascolti potrebbe non essere ciò che è stato realmente detto e i video fuorvianti ingannevoli hanno il potenziale per danneggiare davvero la nostra società.

Ai e exploit di machine learning, deepfakes, ora più difficili da rilevare