Quali sono gli algoritmi di apprendimento automatico? Ecco come funzionano

L'intelligenza artificiale e l'apprendimento automatico producono molti dei progressi che vediamo oggi nel settore tecnologico. Ma in che modo le macchine danno la possibilità di imparare? Inoltre, in che modo il nostro modo di fare si traduce in conseguenze indesiderate?
Ecco la nostra rapida spiegazione su come funzionano gli algoritmi di machine learning, insieme ad alcuni esempi di machine learning andati storto.
Quali sono gli algoritmi di apprendimento automatico?
L'apprendimento automatico è una branca dell'informatica che si concentra sul dare all'IA la capacità di apprendere le attività . Ciò include lo sviluppo di abilità senza programmatori che codificano esplicitamente l'intelligenza artificiale per fare queste cose. Invece, l'intelligenza artificiale è in grado di utilizzare i dati per insegnare a se stessa.
I programmatori realizzano questo attraverso algoritmi di apprendimento automatico. Questi algoritmi sono i modelli su cui si basa un comportamento di apprendimento dell'IA. Gli algoritmi, in combinazione con i set di dati di addestramento, consentono all'IA di apprendere.
Un algoritmo di solito fornisce un modello che l'intelligenza artificiale può utilizzare per risolvere un problema. Ad esempio, imparando come identificare le immagini dei gatti rispetto ai cani. L'intelligenza artificiale applica il modello definito dall'algoritmo a un set di dati che include immagini di cani e gatti. Nel tempo, l'IA imparerà come identificare i gatti dai cani in modo più accurato e semplice, senza input umani.
L'apprendimento automatico migliora la tecnologia come motori di ricerca, dispositivi domestici intelligenti, servizi online e macchine autonome. È in questo modo che Netflix sa quali film è più facile apprezzare e in che modo i servizi di streaming musicale possono consigliare le playlist.
Ma mentre l'apprendimento automatico può rendere le nostre vite molto più semplici , possono esserci anche alcune conseguenze inaspettate.
7 volte quando l'apprendimento automatico è andato storto
1. Difficoltà nei risultati di Google Image Search
Ricerca Google ha reso la navigazione sul Web molto più semplice. L'algoritmo del motore prende in considerazione una varietà di aspetti quando si elaborano risultati, come parole chiave e frequenza di rimbalzo. Ma l'algoritmo apprende anche dal traffico degli utenti, che può causare problemi per la qualità dei risultati della ricerca.
In nessun luogo questo è più evidente che nei risultati delle immagini. Poiché le pagine che ricevono traffico elevato hanno maggiori probabilità di visualizzare le loro immagini, le storie che attirano un numero elevato di utenti, incluso clickbait, hanno spesso la priorità.
Ad esempio, i risultati della ricerca di immagini per "accampamenti di squatters in Sud Africa" hanno causato polemiche quando è stato scoperto che erano prevalentemente presenti sudafricani bianchi. Questo nonostante le statistiche mostrano che la stragrande maggioranza di coloro che vivono in alloggi informali, come le baracche, sono neri sudafricani.
I fattori utilizzati nell'algoritmo di Google indicano anche che gli utenti di Internet possono manipolare i risultati. Ad esempio, una campagna influenzata dagli utenti ha influenzato i risultati di Google Image Search nella misura in cui la ricerca del termine "idiota" mostra immagini del presidente degli Stati Uniti Donald Trump.
2. Microsoft Bot si è trasformato in un nazista
Affidati a Twitter per corrompere un chatbot ben informato e di apprendimento automatico. Questo è quello che è successo entro il giorno del rilascio del famoso chatbot Tay di Microsoft.
Tay ha imitato i modelli linguistici di un'adolescente e ha imparato attraverso le sue interazioni da altri utenti di Twitter. Tuttavia, è diventata uno dei più infami passi falsi dell'IA quando ha iniziato a condividere affermazioni naziste e insulti razzisti. Si scopre che i troll avevano usato l'apprendimento della macchina dell'IA contro di esso, inondandolo di interazioni caricate di bigottismo.
Non molto tempo dopo, Microsoft ha portato Tay offline per sempre.
3. Problemi di riconoscimento facciale di AI
Riconoscimento facciale L'intelligenza artificiale spesso fa notizia per tutti i motivi sbagliati, come storie sul riconoscimento facciale e preoccupazioni sulla privacy . Ma questa intelligenza artificiale ha anche causato enormi preoccupazioni nel tentativo di riconoscere le persone di colore.
Nel 2015, gli utenti hanno scoperto che Google Photos stava classificando alcune persone di colore come gorilla. Nel 2018, la ricerca dell'ACLU ha mostrato che il software di identificazione facciale di Amazon Rekognition identificava 28 membri del Congresso degli Stati Uniti come sospetti di polizia, con falsi positivi che colpivano in modo sproporzionato le persone di colore.
Un altro incidente ha coinvolto il software Face ID di Apple che identifica erroneamente due diverse donne cinesi come la stessa persona. Di conseguenza, il collega del proprietario dell'iPhone X potrebbe sbloccare il telefono.
Nel frattempo, la ricercatrice del MIT, Joy Buolamwini, ricorda spesso di dover indossare una maschera bianca mentre lavora sulla tecnologia di riconoscimento facciale per far sì che il software la riconosca. Per risolvere problemi come questo, Buolamwini e altri professionisti IT stanno portando l'attenzione sul problema e sulla necessità di set di dati più inclusivi per la formazione di intelligenza artificiale.
4. Deepfakes utilizzati per Hoax
Mentre le persone usano Photoshop per lungo tempo per creare immagini imbrogli, l'apprendimento automatico lo porta ad un nuovo livello. Il software come FaceApp ti consente di scambiare i soggetti da un video a un altro.
Ma molte persone sfruttano il software per una varietà di usi dannosi, tra cui la sovrapposizione di volti di celebrità in video per adulti o la generazione di video falsi. Nel frattempo, gli utenti di Internet hanno contribuito a migliorare la tecnologia per rendere sempre più difficile distinguere i video reali da quelli falsi. Di conseguenza, questo tipo di AI è molto potente in termini di diffusione di notizie false e bufale .
Per mostrare la potenza della tecnologia, il regista Jordan Peele e il CEO di BuzzFeed, Jonah
Peretti, hanno creato un video di Deepfake che mostra quello che sembra essere l'ex presidente degli Stati Uniti Barack Obama che consegna un PSA sul potere dei deepfakes.
5. L'ascesa dei bot di Twitter
I bot di Twitter sono stati originariamente creati per automatizzare cose come le risposte del servizio clienti per i marchi. Ma la tecnologia è ora uno dei principali motivi di preoccupazione. In effetti, la ricerca ha stimato che fino a 48 milioni di utenti su Twitter sono in realtà robot IA.
Piuttosto che usare semplicemente algoritmi per seguire determinati hashtag o rispondere alle richieste dei clienti, molti account bot cercano di imitare persone reali. Queste "persone" quindi promuovono le bufale e aiutano a far diventare virali le notizie false.
Un'ondata di bot di Twitter ha persino influenzato l'opinione pubblica in una laurea sulla Brexit e nelle elezioni presidenziali americane del 2016. Twitter stesso ha ammesso di aver scoperto circa 50.000 robot russi che hanno pubblicato le elezioni.
I robot continuano ad affliggere il servizio, diffondendo disinformazione. Il problema è così diffuso che sta addirittura influenzando la valutazione dell'azienda.
6. I dipendenti dicono che gli uomini assoldati da Amazon AI sono migliori
Nell'ottobre 2018, la Reuters ha riferito che Amazon ha dovuto ritirare uno strumento di assunzione di lavoro dopo che l'AI del software ha deciso che i candidati maschili erano preferenziali.
I dipendenti che desideravano rimanere anonimi si sono fatti avanti per dire a Reuters del loro lavoro sul progetto. Gli sviluppatori volevano che l'intelligenza artificiale identificasse i migliori candidati per un lavoro in base ai loro CV. Tuttavia, le persone coinvolte nel progetto hanno presto notato che l'intelligenza artificiale penalizzava le donne candidate. Hanno spiegato che l'IA ha utilizzato i CV degli ultimi dieci anni, la maggior parte dei quali provenivano da uomini, come set di dati di addestramento.
Di conseguenza, l'IA ha iniziato a filtrare CV in base alla parola chiave "donne". Le parole chiave apparivano nel CV sotto attività come "il capitano del club di scacchi femminile". Mentre gli sviluppatori hanno modificato l'intelligenza artificiale per prevenire questa penalizzazione dei CV delle donne, Amazon ha infine demolito il progetto.
7. Contenuti inappropriati su YouTube Kids
YouTube Kids ha molti video stupidi e stravaganti pensati per intrattenere i bambini. Ma ha anche un problema di video spam che manipolano l'algoritmo della piattaforma.
Questi video sono basati su tag popolari. Dal momento che i bambini non sono spettatori molto esigenti, i video spazzatura che utilizzano queste parole chiave attraggono milioni di visualizzazioni. AI genera automaticamente alcuni di questi video utilizzando elementi di animazione di serie, basati su tag di tendenza. Anche quando i video sono realizzati da animatori, i loro titoli sono generati appositamente per il riempimento delle parole chiave.
Queste parole chiave aiutano a manipolare l'algoritmo di YouTube in modo che finiscano nelle raccomandazioni. Una quantità significativa di contenuti inappropriati è apparsa nei feed dei bambini che utilizzano l'app YouTube Kids. Questo include contenuti che descrivono violenza, salti e contenuti sessuali.
Perché l'apprendimento automatico va male
Ci sono due motivi principali per cui l'apprendimento automatico ha come conseguenze indesiderate: dati e persone. In termini di dati, si applica il mantra di "junk in, junk out". Se i dati che vengono alimentati a un'IA sono limitati, distorti o di bassa qualità; il risultato è un'intelligenza artificiale con portata o pregiudizio limitati.
Ma anche se i programmatori ottengono i dati corretti, le persone possono dare una svolta ai lavori. I creatori di software spesso non si rendono conto di come le persone possano utilizzare la tecnologia maliziosamente o per scopi egoistici. Deepfakes proveniva dalla tecnologia utilizzata per migliorare gli effetti speciali nel cinema.
Ciò che mira a fornire un intrattenimento più coinvolgente finisce per rovinare la vita delle persone quando vengono sfruttate.
Ci sono persone che lavorano per migliorare le salvaguardie attorno alla tecnologia di apprendimento automatico per prevenire l'uso dannoso. Ma la tecnologia è già qui. Nel frattempo, molte aziende non mostrano la forza di volontà richiesta per prevenire l'abuso di questi sviluppi.
Gli algoritmi di apprendimento automatico possono aiutarci
Può sembrare un po 'triste e cupo quando ti rendi conto di quanto l'apprendimento automatico e l'intelligenza artificiale siano inferiori alle aspettative. Ma ci aiuta anche in molti modi, non solo in termini di comodità, ma migliorando la nostra vita in generale.
Se ti senti un po 'titubante riguardo all'impatto positivo dell'IA e dell'apprendimento automatico, scopri i modi in cui l'intelligenza artificiale sta combattendo il crimine informatico e gli hacker per ridare speranza.
Leggi l'articolo completo: Quali sono gli algoritmi di apprendimento automatico? Ecco come funzionano
Fonte: Utilizzare