Che cos’è PhotoDNA e come funziona?

Internet ha reso molte cose più facili, dal tenersi in contatto con amici e familiari, trovare un lavoro e persino lavorare da remoto. I vantaggi di questo sistema connesso di computer sono immensi, ma c’è anche uno svantaggio.

A differenza degli stati-nazione, Internet è una rete globale che nessun governo o autorità può controllare. Di conseguenza, il materiale illegale finisce online ed è incredibilmente difficile impedire ai bambini di soffrire e catturare i responsabili.

Tuttavia, una tecnologia sviluppata congiuntamente da Microsoft chiamata PhotoDNA è un passo avanti verso la creazione di uno spazio online più sicuro per bambini e adulti.

Che cos’è il fotoDNA?

PhotoDNA è uno strumento di identificazione delle immagini, sviluppato per la prima volta nel 2009. Sebbene sia principalmente un servizio supportato da Microsoft, è stato co-sviluppato dal professor Hany Farid del Dartmouth College, un esperto di analisi delle foto digitali. Lo scopo di PhotoDNA è identificare immagini illegali, incluso materiale pedopornografico, comunemente noto come CSAM.

Poiché smartphone, fotocamere digitali e Internet ad alta velocità sono diventati più comuni, è aumentata anche la quantità di materiale CSAM trovato online. Nel tentativo di identificare e rimuovere queste immagini, insieme ad altro materiale illegale, il database PhotoDNA contiene milioni di voci per immagini note di abuso.

Microsoft gestisce il sistema e il database è gestito dal National Center for Missing & Exploited Children (NCMEC) con sede negli Stati Uniti, un’organizzazione dedicata alla prevenzione degli abusi sui minori. Le immagini arrivano al database una volta che sono state segnalate a NCMEC.

Sebbene non sia l’unico servizio per cercare CSAM noto, PhotoDNA è uno dei metodi più comuni, inclusi molti servizi digitali come Reddit, Twitter e la maggior parte dei prodotti di proprietà di Google.

PhotoDNA doveva essere installato fisicamente in sede nei primi giorni, ma Microsoft ora gestisce il servizio PhotoDNA Cloud basato su cloud. Ciò consente alle organizzazioni più piccole senza una vasta infrastruttura di eseguire il rilevamento CSAM.

Come funziona PhotoDNA?

Quando gli utenti di Internet o le forze dell’ordine imbattono in immagini di abusi, si sono segnalati per NCMEC tramite il CyberTipline . Questi sono catalogati e le informazioni vengono condivise con le forze dell’ordine se non lo erano già. Le immagini vengono caricate su PhotoDNA, che quindi inizia a creare un hash, o firma digitale, per ogni singola immagine.

Per arrivare a questo valore univoco, la foto viene convertita in bianco e nero, suddivisa in quadrati, e il software analizza l’ombreggiatura risultante. L’hash univoco viene aggiunto al database di PhotoDNA, condiviso tra installazioni fisiche e PhotoDNA Cloud.

I fornitori di software, le forze dell’ordine e altre organizzazioni affidabili possono implementare la scansione PhotoDNA nei loro prodotti, software cloud o altri supporti di memorizzazione. Il sistema esegue la scansione di ogni immagine, la converte in un valore hash e la confronta con gli hash del database CSAM.

Se viene trovata una corrispondenza, l’organizzazione responsabile viene avvisata e i dettagli vengono trasmessi alle forze dell’ordine per l’azione penale. Le immagini vengono rimosse dal servizio e l’account dell’utente viene chiuso.

È importante sottolineare che nessuna informazione sulle tue foto viene memorizzata, il servizio è completamente automatizzato senza coinvolgimento umano e non puoi ricreare un’immagine da un valore hash.

Dal 2015, le organizzazioni possono utilizzare PhotoDNA anche per analizzare i video.

Nell’agosto 2021, Apple ha rotto il passo con la maggior parte delle altre grandi aziende tecnologiche e ha annunciato che avrebbe utilizzato il proprio servizio per scansionare gli iPhone degli utenti alla ricerca di CSAM .

Comprensibilmente, questi piani hanno ricevuto un notevole contraccolpo per l’apparente violazione della posizione rispettosa della privacy dell’azienda e molte persone temevano che la scansione avrebbe gradualmente incluso non-CSAM, portando alla fine a una backdoor per le forze dell’ordine.

PhotoDNA utilizza il riconoscimento facciale?

In questi giorni, abbiamo abbastanza familiarità con gli algoritmi. Queste istruzioni codificate ci mostrano post pertinenti e interessanti sui nostri feed di social media, supportano i sistemi di riconoscimento facciale e decidono persino se ci viene offerto un colloquio di lavoro o se entriamo all’università.

Si potrebbe pensare che gli algoritmi siano al centro di PhotoDNA, ma automatizzare il rilevamento delle immagini in questo modo sarebbe altamente problematico. Ad esempio, sarebbe incredibilmente invasivo, violerebbe la nostra privacy e questo per non parlare del fatto che gli algoritmi non sono sempre corretti.

Google, ad esempio, ha avuto problemi ben documentati con il suo software di riconoscimento facciale. Quando Google Foto è stato lanciato per la prima volta, ha classificato in modo offensivo i neri come gorilla. Nel marzo 2017, un comitato di sorveglianza della Camera ha sentito che alcuni algoritmi di riconoscimento facciale erano sbagliati il ​​15% delle volte e avevano maggiori probabilità di identificare erroneamente i neri.

Questi tipi di algoritmi di apprendimento automatico sono sempre più comuni, ma possono essere difficili da monitorare in modo appropriato. In effetti, il software prende le proprie decisioni e devi decodificare il modo in cui è arrivato a un risultato specifico.

Comprensibilmente, dato il tipo di contenuto che PhotoDNA cerca, l’effetto di un’errata identificazione potrebbe essere catastrofico. Fortunatamente, il sistema non si basa sul riconoscimento facciale e può trovare solo immagini pre-identificate con un hash noto.

Facebook usa PhotoDNA?

In qualità di proprietario e operatore dei social network più grandi e popolari al mondo, Facebook si occupa ogni giorno di molti contenuti generati dagli utenti. Sebbene sia difficile trovare stime attuali affidabili, l’ analisi del 2013 ha suggerito che ogni giorno vengono caricate su Facebook circa 350 milioni di immagini.

Questo sarà probabilmente molto più alto ora che più persone hanno aderito al servizio, l’azienda gestisce più reti (inclusi Instagram e WhatsApp) e abbiamo un accesso più facile alle fotocamere degli smartphone e a Internet affidabile. Dato il suo ruolo nella società, Facebook deve ridurre e rimuovere CSAM e altro materiale illegale.

Fortunatamente, la società ha affrontato questo problema all’inizio, optando per il servizio PhotoDNA di Microsoft nel 2011. Dall’annuncio oltre un decennio fa, ci sono stati pochi dati su quanto sia stato efficace. Tuttavia, il 91% di tutte le segnalazioni di CSAM nel 2018 proveniva da Facebook e Facebook Messenger.

PhotoDNA rende Internet più sicuro?

Il servizio sviluppato da Microsoft è senza dubbio uno strumento essenziale. PhotoDNA svolge un ruolo cruciale nell’impedire la diffusione di queste immagini e può anche aiutare ad aiutare i bambini a rischio.

Tuttavia, il principale difetto del sistema è che può cercare solo immagini pre-identificate. Se PhotoDNA non ha un hash memorizzato, non può identificare immagini offensive.

È più facile che mai prendere e caricare online immagini di abusi ad alta risoluzione e gli autori di abusi si rivolgono sempre più a piattaforme più sicure come il Dark Web e le app di messaggistica crittografate per condividere il materiale illegale. Se non ti sei mai imbattuto nel Dark Web prima, vale la pena leggere i rischi associati al lato nascosto di Internet.