Apple cancella la maggior parte delle menzioni delle controverse funzionalità CSAM dopo l’aggiornamento di iOS 15.2
Questa settimana Apple ha rilasciato iOS 15.2 con una serie di nuove funzionalità, tra cui una funzione di sicurezza della comunicazione per l’app Messaggi incentrata sulla protezione dei bambini. Tuttavia, la società non ha incluso la sua controversa funzionalità di scansione di materiale pedopornografico iCloud Photos e sembra aver cancellato ogni menzione della sua esistenza.
A titolo di ricapitolazione, iOS 15.2 doveva originariamente essere dotato di una funzione di rilevamento di materiale pedopornografico (CSAM). L’aggiornamento avrebbe implementato una funzione di scansione sul dispositivo volta a spazzare la libreria di foto iCloud di un utente per il materiale CSAM. La società ha notato che lo avrebbe fatto sul dispositivo, per la massima privacy. Gli esperti di privacy si sono opposti , osservando che il concetto stesso di scansionare la libreria di foto di un utente alla ricerca di materiale proibito era di per sé una violazione della privacy, che potrebbe espandersi per includere altro materiale una volta stabilito il precedente.
“In precedenza, abbiamo annunciato piani per funzionalità intese a proteggere i bambini dai predatori che utilizzano strumenti di comunicazione per reclutarli e sfruttarli e per aiutare a limitare la diffusione di materiale pedopornografico. Sulla base del feedback di clienti, gruppi di difesa, ricercatori e altri, abbiamo deciso di dedicare più tempo nei prossimi mesi per raccogliere input e apportare miglioramenti prima di rilasciare queste funzionalità di sicurezza dei bambini di fondamentale importanza”, ha affermato Apple in una nota aggiunta in precedenza a la sua pagina di sicurezza dei bambini originale .
Come notato da MacRumors , da allora la società ha cancellato quel segmento dalla pagina e qualsiasi menzione della funzione di scansione delle foto di iCloud. Abbiamo contattato Apple per chiarimenti su questo punto.
Apple ha anche apportato alcune lievi modifiche alla sicurezza delle comunicazioni nella sua funzione Messaggi. Invece di avvisare automaticamente i genitori se un bambino di età inferiore ai 18 anni sceglie di visualizzare o inviare un’immagine di nudo tramite l’app Messaggi, la società ha ora ritirato l’obbligo di notifica in risposta al feedback degli esperti.
Invece, tutti i minori di 18 anni verranno ora avvisati che l’immagine potrebbe contenere materiali sensibili e ricevere una spiegazione su cosa sono le foto sensibili e su come potrebbero essere utilizzate per causare danni, piuttosto che specificare la natura della foto esplicita stessa.