Casa opinioni Qualcosa può proteggerci dai deepfakes? | ben Dickson

Qualcosa può proteggerci dai deepfakes? | ben Dickson

Sommario:

Video: Improving Tron Legacy using Deep Fakes (Ottobre 2024)

Video: Improving Tron Legacy using Deep Fakes (Ottobre 2024)
Anonim

Alla fine del 2017, la scheda madre ha riferito di una tecnologia AI che potrebbe scambiare i volti nei video. All'epoca, la tecnologia, in seguito chiamata deepfakes, produceva risultati grezzi e sgranati e veniva principalmente utilizzata per creare video porno falsi con celebrità e politici.

Due anni dopo, la tecnologia ha fatto enormi progressi ed è più difficile da rilevare ad occhio nudo. Insieme a notizie false, i video falsi sono diventati una preoccupazione per la sicurezza nazionale, in particolare con l'avvicinarsi delle elezioni presidenziali del 2020.

Da quando sono emersi i deepfakes, diverse organizzazioni e società hanno sviluppato tecnologie per rilevare video manomessi dall'intelligenza artificiale. Ma c'è il timore che un giorno la tecnologia dei deepfakes sarà impossibile da rilevare.

I ricercatori dell'Università del Surrey hanno sviluppato una soluzione che potrebbe risolvere il problema: invece di rilevare ciò che è falso, dimostrerà ciò che è vero. In programma per essere presentato alla prossima Conferenza sulla visione artificiale e il riconoscimento dei modelli (CVPR), la tecnologia, chiamata Archangel, utilizza l'intelligenza artificiale e la blockchain per creare e registrare un'impronta digitale digitale a prova di manomissione per video autentici. L'impronta digitale può essere utilizzata come punto di riferimento per verificare la validità dei media distribuiti online o trasmessi in televisione.

Utilizzo dell'IA per firmare video

Il modo classico per dimostrare l'autenticità di un documento binario è utilizzare una firma digitale. Gli editori eseguono il loro documento attraverso un algoritmo crittografico come SHA256, MD5 o Blowfish, che produce un "hash", una breve stringa di byte che rappresenta il contenuto di quel file e diventa la sua firma digitale. L'esecuzione dello stesso file tramite l'algoritmo di hashing in qualsiasi momento produrrà lo stesso hash se il suo contenuto non è cambiato.

Gli hash sono super sensibili alle modifiche nella struttura binaria del file di origine. Quando si modifica un singolo byte nel file con hash e lo si esegue nuovamente attraverso l'algoritmo, si ottiene un risultato completamente diverso.

Ma mentre gli hash funzionano bene per file di testo e applicazioni, presentano sfide per i video, che possono essere archiviati in diversi formati, secondo John Collomosse, professore di visione artificiale all'Università del Surrey e responsabile del progetto per Archangel.

"Volevamo che la firma fosse la stessa indipendentemente dal codec con cui il video viene compresso", afferma Collomosse. "Se prendo il mio video e lo converto da, per esempio, da MPEG-2 a MPEG-4, quel file avrà una lunghezza completamente diversa e i bit saranno completamente cambiati, il che produrrà un hash diverso. Di cosa abbiamo bisogno era un algoritmo di hashing consapevole dei contenuti ".

Per risolvere questo problema, Collomosse e i suoi colleghi hanno sviluppato una profonda rete neurale sensibile al contenuto contenuto nel video. Le reti neurali profonde sono un tipo di costruzione dell'IA che sviluppa il suo comportamento attraverso l'analisi di grandi quantità di esempi. È interessante notare che le reti neurali sono anche la tecnologia al centro dei deepfake.

Durante la creazione di deepfake, lo sviluppatore alimenta la rete con immagini del volto di un soggetto. La rete neurale apprende le caratteristiche del viso e, con sufficiente addestramento, diventa in grado di trovare e scambiare volti in altri video con il volto del soggetto.

La rete neurale di Archangel è addestrata sul video che è l'impronta digitale. "La rete sta guardando il contenuto del video piuttosto che i suoi bit e byte sottostanti", afferma Collomosse.

Dopo l'allenamento, quando esegui un nuovo video attraverso la rete, lo convaliderà quando contiene lo stesso contenuto del video di origine indipendentemente dal suo formato e lo rifiuterà quando si tratta di un video diverso o è stato manomesso o modificato.

Secondo Collomosse, la tecnologia è in grado di rilevare manomissioni sia spaziali che temporali. Le manomissioni spaziali sono le modifiche apportate ai singoli frame, come le modifiche di scambio di facce eseguite nei deepfake.

Ma i deepfake non sono l'unico modo per manomettere i video. Meno discussi ma ugualmente pericolosi sono le modifiche intenzionali apportate alla sequenza di fotogrammi, alla velocità e alla durata del video. Un recente video manomesso, ampiamente diffuso, della portavoce Nancy Pelosi non ha usato i deepfake ma è stato creato attraverso l'uso attento di semplici tecniche di editing che la hanno resa confusa.

"Una delle forme di manomissione che possiamo rilevare è la rimozione di brevi segmenti del video. Questi sono tamponi temporali. E possiamo rilevare fino a tre secondi di manomissione. Quindi, se un video dura diverse ore e ne rimuovi solo tre pochi secondi di quel video, possiamo rilevarlo ", afferma Collomosse, aggiungendo che Archangel rileverà anche le modifiche apportate alla velocità del video originale, come è stato fatto nel video Pelosi.

Registrazione dell'impronta digitale sulla Blockchain

Il secondo componente del progetto Archangel è una blockchain, un database a prova di manomissione in cui è possibile memorizzare ma non modificare nuove informazioni, ideale per gli archivi video, che non apportano modifiche ai video una volta che sono stati registrati.

La tecnologia Blockchain è alla base di valute digitali come Bitcoin ed Ether. È un libro mastro digitale gestito da diverse parti indipendenti. La maggior parte delle parti deve concordare le modifiche apportate alla blockchain, il che rende impossibile per ogni singola parte intromettersi unilateralmente con il libro mastro.

È tecnicamente possibile attaccare e modificare il contenuto di una blockchain se più del 50 percento dei suoi partecipanti collude. Ma in pratica è estremamente difficile, soprattutto quando la blockchain è mantenuta da molte parti indipendenti con obiettivi e interessi diversi.

La blockchain di Archangel è un po 'diversa dalla blockchain pubblica. Innanzitutto, non produce criptovaluta e memorizza solo l'identificatore, l'impronta digitale sensibile al contenuto e l'hash binario della rete neurale del verificatore per ogni video in un archivio (le blockchain non sono adatte per archiviare grandi quantità di dati, motivo per cui il video stesso e la rete neurale sono archiviati off-chain).

Inoltre, è una blockchain autorizzata o "privata". Ciò significa che a differenza della blockchain Bitcoin, dove tutti possono registrare nuove transazioni, solo le parti autorizzate possono archiviare nuovi record sulla blockchain dell'Arcangelo.

L'Arcangelo è attualmente sotto processo da una rete di archivi del governo nazionale di Regno Unito, Estonia, Norvegia, Australia e Stati Uniti: per archiviare nuove informazioni, ogni paese coinvolto deve sottoscrivere l'aggiunta. Ma mentre solo gli archivi nazionali dei paesi partecipanti hanno il diritto di aggiungere record, tutti gli altri hanno accesso in lettura alla blockchain e possono usarlo per convalidare altri video rispetto all'archivio.

  • Sfruttamento di AI e Machine Learning, Deepfakes, ora più difficile da rilevare Sfruttamento di AI e Machine Learning, Deepfakes, ora più difficile da rilevare
  • I video di Deepfake sono qui e non siamo pronti I video di Deepfake sono qui e non siamo pronti
  • La nuova IA di Adobe rileva i volti di Photoshopped La nuova IA di Adobe rileva i volti di Photoshopped

"Questa è un'applicazione di blockchain per il bene pubblico", afferma Collomosse. "A mio avviso, l'unico uso ragionevole della blockchain è quando hai organizzazioni indipendenti che non si fidano necessariamente l'una dell'altra ma hanno questo interesse acquisito in questo obiettivo collettivo di fiducia reciproca. E quello che stiamo cercando di fare è proteggere gli archivi nazionali di governo in tutto il mondo, in modo che possiamo sottoscrivere la loro integrità utilizzando questa tecnologia ".

Poiché la creazione di video contraffatti sta diventando più facile, più veloce e più accessibile, tutti avranno bisogno di tutto l'aiuto possibile per garantire l'integrità dei loro archivi video, in particolare i governi.

"Penso che i deepfakes siano quasi una corsa agli armamenti", afferma Collomosse. "Perché le persone stanno producendo deepfake sempre più convincenti e un giorno potrebbe diventare impossibile rilevarli. Ecco perché il meglio che puoi fare è provare a provare la provenienza di un video".

Qualcosa può proteggerci dai deepfakes? | ben Dickson