I volti generati dall’intelligenza artificiale stanno prendendo il controllo di Internet

Il Times ha profilato una donna ucraina di 18 anni di nome “Luba Dovzhenko” a marzo per illustrare la vita sotto assedio. Secondo l’articolo, ha studiato giornalismo, parlava “un cattivo inglese” e ha iniziato a portare un’arma dopo l’invasione russa.

Il problema, tuttavia, era che Dovhenko non esiste nella vita reale e la storia è stata rimossa poco dopo la pubblicazione.

Luba Dovhenko era un falso personaggio online progettato per sfruttare il crescente interesse per le storie di guerra Ucraina-Russia su Twitter e ottenere un ampio seguito. L’account non solo non ha mai twittato prima di marzo, ma aveva anche un nome utente diverso e gli aggiornamenti che aveva twittato, che è ciò che forse ha attirato l’attenzione del Times, erano stati derubati da altri profili autentici. La prova più schiacciante della sua frode, tuttavia, era proprio lì in faccia.

Nella foto del profilo di Dovhenko, alcune delle sue ciocche di capelli erano staccate dal resto della testa, mancavano alcune ciglia e, soprattutto, i suoi occhi erano straordinariamente centrati. Erano tutti segni rivelatori di una faccia artificiale tirata fuori da un algoritmo di intelligenza artificiale.

Il posizionamento delle caratteristiche facciali non è l’unica anomalia nella foto del profilo di @lubadovzhenko1 ; non i capelli staccati nella parte in basso a destra dell’immagine e le ciglia parzialmente mancanti (tra le altre cose). pic.twitter.com/UPuvAQh4LZ

— Conspirador Norteño (@cospiratore0) 31 marzo 2022

La faccia di Dovhenko è stata inventata dalla tecnologia dietro i deepfake , una tecnica sempre più diffusa che consente a chiunque di sovrapporre una faccia a quella di un’altra persona in un video ed è impiegata per qualsiasi cosa, dal revenge porn alla manipolazione dei discorsi dei leader mondiali. E alimentando tali algoritmi milioni di immagini di persone reali, possono essere riproposte per creare volti realistici come quello di Dovhenko dal nulla. È un problema crescente che rende ancora più difficile la lotta alla disinformazione.

Un esercito di facce false generate dall’IA

Negli ultimi anni, mentre i social network reprimono i troll anonimi e senza volto, l’IA ha armato attori e robot malintenzionati con un’arma inestimabile: la capacità di apparire allarmantemente autentici. A differenza di prima, quando i troll hanno semplicemente strappato facce vere da Internet e chiunque poteva smascherarle invertendo la propria immagine del profilo, è praticamente impossibile per qualcuno fare lo stesso per le foto generate dall’intelligenza artificiale perché sono fresche e uniche. E anche a un esame più attento, la maggior parte delle persone non può dire la differenza.

La dottoressa Sophie Nightingale, professoressa di psicologia alla Lancaster University del Regno Unito, ha scoperto che le persone hanno solo il 50% di possibilità di individuare un volto sintetizzato dall’intelligenza artificiale e molti li hanno persino considerati più affidabili di quelli reali. I mezzi con cui chiunque può accedere a “contenuti sintetici senza una conoscenza specializzata di Photoshop o CGI”, ha detto a Digital Trends, “crea una minaccia significativamente più grande per usi nefasti rispetto alle tecnologie precedenti”.

Illustrazioni di immagini naturali generate da FFHQ e StyleGAN2 difficilmente distinguibili
Illustrazioni di immagini naturali generate da FFHQ e StyleGAN2 difficilmente distinguibili.

Ciò che rende queste facce così sfuggenti e altamente realistiche, afferma Yassine Mekdad, ricercatrice di sicurezza informatica presso l’Università della Florida, il cui modello per individuare le immagini generate dall’IA ha una precisione del 95,2%, è che la loro programmazione (nota come Generative Adversarial Network) utilizza due reti neurali opposte che lavorano l’una contro l’altra per migliorare un’immagine. Uno (G, generatore) ha il compito di generare le immagini false e fuorviare l’altro, mentre il secondo (D, discriminatore) impara a distinguere i risultati del primo dai volti reali. Questo “gioco a somma zero” tra i due consente al generatore di produrre “immagini indistinguibili”.

E i volti generati dall’intelligenza artificiale hanno effettivamente preso il controllo di Internet a un ritmo vertiginoso. A parte account come quello di Dovhenko che utilizzano personaggi sintetizzati per accumulare un seguito, questa tecnologia ha recentemente alimentato campagne molto più allarmanti.

Quando Google ha licenziato un ricercatore di etica dell’intelligenza artificiale, Timnit Gebru, nel 2020 per aver pubblicato un documento che metteva in evidenza i pregiudizi negli algoritmi dell’azienda, una rete di robot con facce generate dall’intelligenza artificiale , che affermavano di lavorare nella divisione di ricerca sull’intelligenza artificiale di Google, è spuntata in social network e tese un’imboscata a chiunque parlasse a favore di Gebru. Sono state rilevate attività simili da parte di paesi come la Cina che promuovono le narrazioni del governo.

In una rapida recensione su Twitter, non mi ci è voluto molto per trovare diversi anti-vaxxer , filo-russi e altro ancora, tutti nascosti dietro una faccia generata dal computer per spingere i loro programmi e attaccare chiunque si metta sulla loro strada. Sebbene Twitter e Facebook rimuovano regolarmente tali botnet, non dispongono di una struttura per affrontare i singoli troll con una faccia sintetica anche se la politica sulle identità fuorvianti e ingannevoli del primo “proibisce la rappresentazione di individui, gruppi o organizzazioni per fuorviare, confondere o ingannare gli altri, né usare un’identità falsa in un modo che interrompa l’esperienza degli altri”. Questo è il motivo per cui quando ho segnalato i profili che ho incontrato, sono stato informato che non violavano alcuna politica.

Sensity, una società di soluzioni antifrode basata sull’intelligenza artificiale, stima che circa lo 0,2-0,7% delle persone sui social network più diffusi utilizzi foto generate al computer. Di per sé non sembra molto, ma per Facebook (2,9 miliardi di utenti), Instagram (1,4 miliardi di utenti) e Twitter (300 milioni di utenti), significa milioni di bot e attori che potenzialmente potrebbero far parte di campagne di disinformazione .

La percentuale di corrispondenza di un’estensione Chrome del rilevatore facciale generato dall’IA di V7 Labs ha confermato le cifre di Sensity. Il suo CEO, Alberto Rizzoli, afferma che in media l’1% delle foto che le persone caricano sono contrassegnate come false.

Il mercato delle faccine

Una raccolta di volti generati dall'IA su Generated Photos.
Foto generate

Parte del motivo per cui le foto generate dall’intelligenza artificiale sono proliferate così rapidamente è quanto sia facile ottenerle. Su piattaforme come Generated Photos , chiunque può acquisire centinaia di migliaia di volti falsi ad alta risoluzione per un paio di dollari e per le persone che ne hanno bisogno per scopi una tantum come campagne diffamatorie personali, possono scaricarli da siti Web come thispersondoesnotexist .com , che genera automaticamente una nuova faccia sintetica ogni volta che la ricarichi.

Questi siti Web hanno reso la vita particolarmente difficile per persone come Benjamin Strick, il direttore delle indagini presso il Centre for Information Resilience del Regno Unito, il cui team trascorre ore ogni giorno a monitorare e analizzare i contenuti ingannevoli online.

“Se arrotoli [tecnologie autogenerative] in un pacchetto di profili falsi, lavorando in una falsa startup (attraverso thisstartupdoesnotexist.com)”, ha detto Strick a Digital Trends, “c’è una ricetta per l’ingegneria sociale e una base per molto ingannevole pratiche che possono essere configurate in pochi minuti.

Ivan Braun, il fondatore di Generated Photos, sostiene che non è affatto male, però. Sostiene che le foto GAN hanno molti casi d’uso positivi, come rendere anonimi i volti nella vista stradale di Google Maps e simulare mondi virtuali nei giochi, ed è ciò che la piattaforma promuove. Se qualcuno si occupa di ingannare le persone, Braun afferma di sperare che le difese antifrode della sua piattaforma siano in grado di rilevare le attività dannose e che alla fine i social network saranno in grado di filtrare le foto generate da quelle autentiche.

Ma anche la regolamentazione della tecnologia generativa basata sull’intelligenza artificiale è complicata, poiché alimenta anche innumerevoli servizi di valore, incluso l’ultimo filtro su Snapchat e le funzionalità di illuminazione intelligente di Zoom. Il CEO di Sensity Giorgio Patrini concorda sul fatto che vietare servizi come Generated Photos non è pratico per arginare l’ascesa dei volti generati dall’IA. Invece, c’è un urgente bisogno di approcci più proattivi dalle piattaforme.

Fino a quando ciò non accadrà, l’adozione dei media sintetici continuerà a erodere la fiducia nelle istituzioni pubbliche come i governi e il giornalismo, afferma Tyler Williams, direttore delle indagini di Graphika, una società di analisi dei social network che ha scoperto alcune delle più vaste campagne che coinvolgono personaggi falsi . E un elemento cruciale nella lotta contro l’uso improprio di tali tecnologie, aggiunge Williams, è “un curriculum di alfabetizzazione mediatica a partire dalla giovane età e una formazione sulla verifica della fonte”.

Come individuare una faccia generata dall’IA?

Fortunatamente per te, ci sono alcuni modi infallibili per capire se un volto è stato creato artificialmente. La cosa da ricordare qui è che questi volti vengono evocati semplicemente mescolando tonnellate di foto. Quindi, anche se il viso reale sembrerà reale, troverai molti indizi sui bordi: le forme delle orecchie o gli orecchini potrebbero non corrispondere, le ciocche di capelli potrebbero volare dappertutto e il bordo degli occhiali potrebbe essere strano: l’elenco continua. Il regalo più comune è che quando si passano in rassegna alcune facce false, tutti i loro occhi saranno esattamente nella stessa posizione: al centro dello schermo. E puoi testare con l’hack ” biglietto del treno piegato “, come dimostrato qui da Strick.

Nightingale ritiene che la minaccia più significativa rappresentata dalle foto generate dall’intelligenza artificiale stia alimentando il “dividendo del bugiardo”: la semplice esistenza di esse consente a qualsiasi media di essere liquidato come un falso. “Se non riusciamo a ragionare sui fatti di base del mondo che ci circonda”, sostiene, “allora ciò mette le nostre società e democrazie a rischio sostanziale”.