I lavoratori leggono rappresentazioni grafiche violente in modo che ChatGPT non fosse tossico come GPT-3
Al suo rilascio nel novembre 2022, ChatGPT è stato ampiamente riconosciuto come un risultato tecnologico rivoluzionario. Il chatbot AI avanzato può produrre testo su un’ampia varietà di argomenti, inclusa la rielaborazione di un vecchio proverbio cinese in vernacolo Gen-z e la spiegazione del calcolo quantistico ai bambini con l’uso di allegoria e narrazione. In una sola settimana, aveva accumulato oltre un milione di utenti.
Tuttavia, il successo di ChatGPT non può essere attribuito esclusivamente all’ingegnosità della Silicon Valley. Un’indagine di TIME ha rivelato che negli sforzi per ridurre la tossicità in ChatGPT , OpenAI ha utilizzato i servizi di lavoratori kenioti in outsourcing che guadagnano meno di $ 2 l’ora.
Il lavoro svolto da questi lavoratori in outsourcing è stato fondamentale per OpenAI. GPT-3, il predecessore di ChatGPT , possedeva la capacità di comporre frasi in modo efficace, ma l’applicazione aveva la tendenza a vomitare dichiarazioni violente, sessiste e razziste. Il problema è che l’utilità è stata addestrata in gran parte sulle informazioni provenienti da Internet, sede sia delle peggiori che delle migliori intenzioni umane. Anche se l’accesso a una quantità così massiccia di informazioni umane è il motivo per cui GPT-3 ha messo in mostra un’intelligenza così profonda , è anche il motivo dei pregiudizi altrettanto profondi dell’utilità.
Liberarsi di questi pregiudizi e dei contenuti dannosi che li hanno ispirati non è stato un compito facile. Anche con un team di centinaia di persone, ci sarebbero voluti decenni per vagliare ogni singolo dato e verificare se fosse appropriato o meno. L’unico modo in cui OpenAI è stato in grado di gettare le basi per ChatGPT meno parziale e offensivo è stato attraverso la creazione di un nuovo meccanismo di sicurezza basato sull’intelligenza artificiale.
Tuttavia, per addestrare quel meccanismo di sicurezza basato sull’intelligenza artificiale, OpenAI avrebbe bisogno di una forza lavoro umana e ne ha trovata una in Kenya. A quanto pare, per creare un meccanismo per il rilevamento di contenuti dannosi, è necessaria una vasta libreria di contenuti dannosi su cui addestrare il meccanismo. In questo modo, impara cosa riconoscere come accettabile e cosa riconoscere come tossico. Nella speranza di costruire un chatbot non tossico , OpenAI ha esternalizzato decine di migliaia di frammenti di testo a un’azienda in Kenya a partire da novembre 2021. Una parte significativa del testo sembrava provenire dagli angoli più bui di Internet. Questi testi includevano descrizioni grafiche di atti depravati.
Questi sono stati poi analizzati ed etichettati dalla forza lavoro in Kenya, che aveva giurato di mantenere il segreto ed è rimasta tale a causa dei notevoli timori che circondano lo stato del loro impiego. Gli etichettatori di dati assunti per conto di OpenAI hanno ricevuto uno stipendio compreso tra $ 1,32 e $ 2 l’ora, a seconda della loro esperienza e prestazioni.
La posizione di OpenAI è stata chiara fin dall’inizio. “La nostra missione è garantire che l’intelligenza artificiale generale avvantaggi tutta l’umanità e lavoriamo duramente per costruire sistemi di intelligenza artificiale sicuri e utili che limitino pregiudizi e contenuti dannosi”. Tuttavia, il tributo che questo compito ha richiesto ai nativi kenioti è stato scoperto solo di recente da TIME. In una dichiarazione riguardante il contenuto esplicito e depravato che ha dovuto etichettare, un etichettatore ha affermato che “È stata una tortura, leggerai una serie di affermazioni del genere per tutta la settimana”. Quando arriva venerdì, sei disturbato dal pensare a quella foto.’
L’impatto sui lavoratori è stato tale che la società di outsourcing, Sama, alla fine ha annullato tutto il lavoro che era stato assunto da OpenAI per completare nel febbraio 2022. Il contratto avrebbe dovuto continuare per altri otto mesi.
Questa storia mette in luce il ventre squallido della tecnologia di cui siamo così entusiasti oggi. Ci sono innumerevoli lavoratori invisibili che svolgono innumerevoli compiti inimmaginabili per garantire che l’ IA funzioni come ci aspettiamo.