Perché le aziende tecnologiche non sono attrezzate per combattere il problema del deepfake di Internet
Come risolvi un problema come deepfake? È una domanda che tutti, dalle aziende tecnologiche ai politici, devono fare con l'avvento di nuovi strumenti sempre più accessibili che consentano la creazione di video manipolati dall'intelligenza artificiale in cui le somiglianze delle persone vengono riappropriate in modi inimmaginabili una volta.
Tali video sono talvolta creati per scopi satirici o talvolta cupamente comici. All'inizio di quest'anno, un profondo video mostrava il CEO Mark Zuckerberg vantarsi allegramente della sua proprietà dei dati degli utenti. Un PSA su notizie false, ventriloquo da Jordan Peele, nel frattempo ha raffigurato Barack Obama che definisce il suo successore presidenziale una "totale e completa oscurità". Con le elezioni presidenziali del 2020 che si profilano all'orizzonte, c'è più preoccupazione che mai su come i falsi possano essere abusati per aiutare diffondere la padronanza.
"Penso che le persone dovrebbero essere profondamente preoccupate per la tecnologia deepfake", ha detto a Digital Trends David Wright , direttore di Trilateral Research e stakeholder nel progetto SHERPA dell'UE , relativo all'uso etico dell'intelligenza artificiale. “Continuerà a evolversi e diventa ancora più difficile distinguere tra ciò che è reale e ciò che non lo è. I siti porno continueranno a sfruttare celebrità – voci e immagini – con tecnologie deepfake. Le bande informatiche utilizzeranno inevitabilmente la tecnologia deepfake per il phishing di lancia ultra sofisticato. Possiamo aspettarci che i politici di destra e i loro scagnozzi lo usino per ingannare gli elettori e minare la reputazione dei loro avversari. Saranno aiutati e incoraggiati da potenze straniere che interferiscono nei processi elettorali. "
Di recente, il rappresentante democratico Adam Schiff ha chiesto a Facebook, Twitter e Google come intendono combattere la diffusione di video e immagini con documenti, compresi i deepfake. Tutti e tre hanno detto che stanno lavorando al problema. Ma è un problema che è persino possibile risolvere?
A caccia dei deepfakes
Fortunatamente, la diffusione dei deepfakes non sta avvenendo in modo isolato. Man mano che gli strumenti per crearli migliorano e diventano più pervasivi, ci sono anche ricercatori che lavorano sul rovescio della medaglia del problema. Questi ricercatori stanno sviluppando i mezzi con cui le tecnologie di intelligenza artificiale possono aiutare a individuare i deepfake con elevati livelli di precisione. All'università Drexel , un team di ricercatori del Multimedia and Information Security Lab ha recentemente sviluppato una rete neurale profonda in grado di individuare immagini manipolate con un alto grado di precisione. Strumenti simili sono stati sviluppati da altre università, come l'Università tecnica tedesca di Monaco .
Questi strumenti non sono ancora pronti per la prima serata, come ammette prontamente Brian Hosler , uno dei ricercatori dietro il cercatore di deepfake della Drexel University. "Dei rilevatori che abbiamo visto, molti di loro sono molto precisi, ma funzionano solo con determinate ipotesi", ha affermato Hosler. "Qualsiasi differenza da questi presupposti, come l'uso di diversi software di deepfake o la modifica delle proporzioni del video, potrebbe potenzialmente paralizzare il rilevatore."
Uno dei problemi principali è che le attuali ipotesi ruotano attorno agli artefatti lasciati dal software utilizzato per creare deepfake. Queste sono stranezze che, in questo momento, una persona astuta può essere in grado di notare, come un battito di ciglia incoerente o uno strano movimento delle labbra; elementi che tradiscono che i video risultanti risiedono da qualche parte nella valle misteriosa.
Ma la tecnologia deepfake sta migliorando continuamente, il che significa che anomalie visive come le teste fluttuanti dei primi deepfake (tenere presente che solo un paio di anni fa) sono già state ampiamente risolte. Mentre continuano a esserci marcatori visivi come strane profondità del viso e distorsioni del movimento distorte quando un viso si muove troppo rapidamente, queste sono sempre più cose che potrebbero non essere individuate dal tuo spettatore medio. Ciò è particolarmente vero se il tuo spettatore medio, già abituato alla qualità variabile delle immagini online, non ha motivo di credere che ciò che stanno guardando potrebbe essere falso.
"Con l'attuale ritmo di produzione di nuove tecnologie di deepfake, è quasi impossibile per i ricercatori forensi tenere il passo", ha continuato Hosler. “Il più grande ostacolo per la creazione di rilevatori di deepfake ampiamente applicabili e affidabili è la coerenza dei video stessi. Deepfakes era originariamente una comunità online e il nome di un software specifico, ma ora si riferisce a qualsiasi video generato o modificato dall'intelligenza artificiale. I metodi utilizzati per creare questi video possono variare notevolmente e rendere difficile il rilevamento affidabile ".
Anche cose come la ricompressione dei video esistenti possono essere sufficienti a coprire qualsiasi traccia che i rivelatori stanno usando per individuare i deepfake. Questo è un problema particolare per le piattaforme di distribuzione video più utilizzate, che ricomprimono immagini e video caricati per risparmiare sulle dimensioni dei file. Di conseguenza, questi file appena compressi spesso introducono artefatti video aggiuntivi che sovrascrivono quelli utilizzati come indizi dai rilevatori di deepfake.
Come distribuirli
Ma lo sviluppo dei rilevatori giusti è solo una parte del problema. Il problema più spinoso è come distribuire questi strumenti una volta che sono abbastanza robusti da poter essere utilizzati. In questo momento, nessuno sembra conoscere la risposta. Vietare i falsi profondi, sebbene tecnicamente possibile, non ha molto senso. Vietare il software per eseguire l'editing delle immagini perché potrebbe essere usato per scopi nefasti è un po 'come cercare di vietare le tastiere perché qualcuno ha scritto alcuni commenti cattivi su Internet.
In una recente lettera del 31 luglio , il direttore delle politiche pubbliche e della filantropia di Twitter, Carlos Monje, ha dichiarato che la piattaforma si impegna a rimanere al passo con i malfattori. "Se veniamo a conoscenza dell'uso di deepfakes per diffondere disinformazione in violazione delle nostre politiche in materia di integrità elettorale, rimuoveremo tale contenuto", ha scritto Monje.
Ci sono due sfide quando si tratta di raggiungere questo obiettivo. Il primo è soggettivo, distinguendo tra i contenuti che ha progettato per diffondere disinformazione e contenuti prodotti per la satira. Un popolare video di YouTube del 2012 mostra Barack Obama "cantare" il successo pop di Carly Rae Jepsen "Call Me Maybe". È stato prodotto modificando insieme centinaia di micro-clip di Obama che pronunciano singole parole. Al momento della stesura, ha raccolto oltre 50 milioni di visualizzazioni. Nel frattempo, un recente video manipolato raffigurava Nancy Pelosi leggermente rallentata per far sembrare che stesse insultando le sue parole. È stato twittato dal presidente Trump il 24 maggio e finora ha raccolto più di 95.000 Mi piace. Sia i 50 milioni di visualizzazioni della canzone di Obama che i 95.000 Mi piace del video di Pelosi sono considerevolmente più alti dei circa 80.000 che hanno scosso le ultime elezioni presidenziali.
"PELOSI STAMMERS ATTRAVERSO NEWS CONFERENCE" pic.twitter.com/1OyCyqRTuk
& Mdash; Donald J. Trump (@realDonaldTrump) 24 maggio 2019
Quale di questi video (
nessuno dei quali, dovrei aggiungere, è un deepfake) è progettato per diffondere disinformazione? Molti di noi giungeranno alla conclusione che il secondo è più una mossa politica calcolata che il primo. Ma spiegare a un bot perché un tipo di manipolazione vocale va bene (anche ben accetto), mentre l'altro potenzialmente non lo è, è molto difficile. E se il secondo video dovesse essere twittato da un account chiaramente non satirico, non commerciale chiamato, diciamo, DrunkFakes? Che ne dici se poi fosse stato ritwittato, senza contesto, da un avversario politico? Va bene un apprendista dell'apprendista -era Donald Trump, ma uno di lui post-inaugurazione no? Questi tipi di argomenti contestuali e sfumati contano.
Ma se la battaglia contro i deepfakes verrà combattuta seriamente, le decisioni dovranno essere prese rapidamente, autorevolmente e senza accuse di parzialità. Agire rapidamente è fondamentale, ma lo è anche prendere la decisione giusta.
Il problema della scala
Questo è dove le cose sono ostacolate dalla seconda delle due grandi sfide: la scala. "Sarebbe bello se i social media e le aziende tecnologiche potessero scansionare automaticamente tutti i video caricati sul loro sito Web, ma la realtà è che è quasi impossibile data la quantità di contenuti video che vengono caricati ogni giorno", ha affermato Hosler.
Secondo le statistiche di maggio 2019 , circa 500 ore di video vengono caricate su YouTube ogni singolo minuto del giorno. Ciò rende difficile il rilevamento manuale, ma è necessaria un'azione immediata. "Non possiamo fare affidamento su società tecnologiche che dispongono di risorse infinite", ha affermato Hosler.
Di recente, c'è stata una spinta concertata per rendere le piattaforme come Facebook legalmente responsabili dei contenuti che ospitano. Resta da vedere se queste proposte equivalgono o meno a qualcosa. Quando si tratta di deepfakes, è una domanda molto più stimolante del monitoraggio di determinate parole chiave nei post o nei collegamenti a siti Web meno desiderabili.
I politici stanno rapidamente abbracciando i deepfake come una delle grandi sfide da risolvere, tuttavia. E hanno le soluzioni teoriche per aiutare. Ad esempio, il rappresentante democratico di New York Yvette Clarke ha suggerito che i media modificati devono essere etichettati come tali usando una filigrana. Non etichettare correttamente il tuo video comporterebbe sanzioni civili e penali per il creatore o l'autore del caricamento.
Nel frattempo, il legislatore della California sta prendendo in considerazione un disegno di legge che vieterebbe a una persona o entità di distribuire consapevolmente supporti audio o visivi ingannevoli di un candidato entro 60 giorni dalle elezioni. Ancora una volta, tuttavia, l'aspetto dell'intento è difficile da quantificare. Come osserva il disegno di legge, ciò non rappresenterebbe un divieto generale di deepfake politici, ma piuttosto dovrebbe essere rivolto a quelli, "con l'intento di danneggiare la reputazione del candidato o di ingannare un elettore nel voto a favore o contro il candidato". Presumibilmente anche essere difficile usarlo per dominare i deepfake creati al di fuori degli Stati Uniti
Con molta preoccupazione, ma nessuna soluzione pronta per la battaglia sui deepfakes continuerà. Quale sarebbe la soluzione ideale? Sul piano tecnologico, sarebbe sicuramente auspicabile una sorta di strumento robusto e in tempo reale per bloccare o richiamare l'attenzione su video discutibili. Ma anche l'educazione focalizzata sulla sensibilizzazione sui rischi dei deepfakes è importante. E mentre tutto questo sta succedendo, si spera che i ricercatori saranno costretti a sviluppare gli strumenti che un giorno potrebbero essere inseriti nei browser o incorporati nei backend del sistema per garantire che le notizie sui deepfake siano tenute a bada.
"L'attuale tecnologia non è ancora pronta per essere utilizzata dalla persona media", ha detto Hosler. “La buona notizia è che, nelle mani di un esperto, questi strumenti possono essere estremamente istruttivi ed efficaci nel combattere la diffusione della disinformazione. Per ora, dovremo prendere tutto su base caso per base, ma continueremo a perseguire strumenti che siano accurati e accessibili a tutti ".