L’app di riconoscimento facciale di Clearview AI è un incubo per le vittime dello stalking
![riconoscimento facciale](https://icdn6.digitaltrends.com/image/digitaltrends/facialrecognitionclearview-720x720.jpg)
L'ultimo esempio dell'hubris della Silicon Valley è l'app di riconoscimento facciale Clearview AI . L'app della piccola startup è così potente che qualcuno potrebbe avvicinarti a te per strada, scattare una foto e scoprire rapidamente il tuo nome, indirizzo e numero di telefono, secondo un rapporto del New York Times .
Questa tecnologia probabilmente sembra un'ottima idea per due tipi di persone: forze dell'ordine e brividi. I sostenitori temono che questo tipo di tecnologia di riconoscimento facciale possa essere un vantaggio per gli stalker, le persone con una storia di abusi domestici e chiunque altro voglia scoprire tutto su di te per uno scopo nefasto.
"Mentre la notizia di questa app si diffonde, le donne sospirano ovunque", ha dichiarato Jo O'Reilly, un difensore della privacy con ProPrivacy, con sede nel Regno Unito, in una dichiarazione a Digital Trends. "Ancora una volta, la sicurezza delle donne sia online che nella vita reale è arrivata al secondo posto nel desiderio delle startup tecnologiche di creare – e monetizzare – tecnologie sempre più invasive."
Clearview funziona, in parte, raschiando i dati disponibili pubblicamente dai siti di social media popolari come Facebook, Twitter, YouTube e Venmo, tra gli altri. Un portavoce della società di Facebook ha detto a Digital Trends che "eliminare le informazioni di Facebook o aggiungerle a una directory è vietato dalle nostre politiche, quindi stiamo esaminando i reclami su questa società e prenderemo le misure appropriate se scopriamo che stanno violando le nostre regole". Twitter anche dice che proibisce questo uso dei suoi dati.
Un nuovo strumento per chi abusa
Lo stalking è stato a lungo un problema per le donne online, e questo è senza uno strumento in grado di rintracciare qualcuno in base solo alla loro faccia. Per ora, Clearview afferma che sta vendendo i suoi servizi solo alle forze dell'ordine, che ha dato recensioni davvero brillanti sulla tecnologia. "Sono stranamente silenziosi, tuttavia, sul fatto che, nelle mani sbagliate, questo software potrebbe essere utilizzato per molestare e perseguitare quasi chiunque", ha detto O'Reilly. "Ciò sarebbe impossibile da evitare se il software fosse reso disponibile al pubblico – è possibile uno scenario riconosciuto dagli investitori Clearview".
"Qualsiasi tecnologia che sviluppi verrà consumata dagli umani, devi pensare ai difetti", ha dichiarato Crystal Justice, responsabile marketing e sviluppo della Hotline per la violenza domestica nazionale . "Gli utenti sono sempre alla ricerca dello strumento successivo nella loro cassetta degli attrezzi."
![Protesta per il riconoscimento facciale](https://icdn7.digitaltrends.com/image/digitaltrends/facial-recognition-protest-1200x9999.jpg)
La hotline ha iniziato a riferire sugli abusi digitali come propria categoria specifica nel 2015 e da allora ha visto un netto aumento dei numeri, soprattutto tra i giovani. La giustizia ha dichiarato a Digital Trends che la hotline ha ricevuto 371.000 contatti nel 2018 e che il 15% di questi erano denunce di abusi digitali. In media a livello nazionale, una donna su quattro e un uomo su sette sono sopravvissuti alla violenza domestica, secondo il numero della hotline.
"I sopravvissuti costituiscono una parte così grande della nostra popolazione", ha detto Justice. "Le aziende tecnologiche devono considerare l'esperienza dei sopravvissuti quando progettano le loro app."
Un problema in corso
Questo è un modello persistente con una tecnologia molto dirompente ai giorni nostri. Quando Uber è stato lanciato nel 2009, la tecnologia sembrava troppo bella per essere vera. Non eravamo più schiavi delle industrie dei taxi o del incompetente trasporto pubblico nelle nostre rispettive città.
Naturalmente, anche il modello di Uber è volato direttamente di fronte alla saggezza convenzionale che ci era stata insegnata da bambini: non salire in macchina con estranei. Dieci anni e diverse migliaia di cause legali oltre violenza sessuale in seguito, a quanto pare c'era una ragione che è stata la saggezza convenzionale. Per molte persone, salire sull'auto di uno sconosciuto non è sicuro, anche quando si paga per esserci.
Ma questo elemento di pensare alla sicurezza, o di dover attraversare il mondo costantemente preoccupato per la tua sicurezza fisica, come devono fare molte donne e persone di genere minoritario, non sembra essere stato nella mente del (principalmente bianco) uomini che hanno fondato aziende tecnologiche come Uber, come Twitter , come tante altre. Volevano solo creare qualcosa di interessante che avrebbe cambiato il mondo. L'idea che sarebbe stata usata per scopi nefasti non ha attraversato la loro mente fino a quando non era troppo tardi.
Privacy e sicurezza devono essere integrate in un'app fin dall'inizio, ha affermato Rachel Gibson, specialista senior in sicurezza tecnologica della National Network to End Domestic Violence. "Una cosa è che qualcosa è costruito con buone intenzioni, ma sappiamo che la tecnologia può essere utilizzata in modo improprio", ha detto Gibson a Digital Trends. “Lo consideriamo come una nuova tecnologia, un vecchio comportamento. Le persone venivano ancora violentate in taxi [prima di Uber], ma dobbiamo pensare a come la tecnologia in questi giorni possa facilitare vecchi comportamenti come lo stalking e l'assalto. "
Qualcosa come Clearview, Gibson ha detto, mentre ha i suoi usi per le forze dell'ordine, certamente solleva domande su come o perché sarebbe utile al grande pubblico. "Fare queste cose per il consumo pubblico mette a rischio i sopravvissuti e dobbiamo pensare alle conseguenze indesiderate", ha detto.
Clearview AI non ha risposto a una richiesta di commento.
La giustizia ha detto che vede cambiare la conversazione sul ruolo della tecnologia nella sicurezza pubblica. "Il discorso è cambiato da MeToo", ha detto. “Ed è anche l'ora. Questo non è un nuovo problema. Non stiamo assistendo necessa
riamente ad un aumento della violenza domestica, ma stiamo finalmente discutendo. E ora possiamo includere negli elementi complessi di come la tecnologia ne faccia parte. ”
Gibson ha anche affermato di aver avuto conversazioni con diverse "grandi aziende tecnologiche" (anche se non ha specificato quale), e hanno detto che ora stavano "cercando di essere consapevoli" di costruire per la privacy e la sicurezza.
Se ritieni che tu o qualcuno che conosci stia soffrendo di abusi intimi con i partner, contatta la hotline nazionale per la violenza domestica 24/7 al numero 1-800-799-7233.