Il lato oscuro di ChatGPT: cose che può fare, anche se non dovrebbe
Hai usato ChatGPT di OpenAI per qualcosa di divertente ultimamente? Puoi chiedergli di scriverti una canzone, una poesia o una barzelletta. Sfortunatamente, puoi anche chiedergli di fare cose che tendono a non essere etiche.
ChatGPT non è tutto rose e fiori: alcune delle cose che può fare sono decisamente nefaste. È fin troppo facile trasformarlo in un’arma e usarlo per tutte le ragioni sbagliate. Quali sono alcune delle cose che ChatGPT ha fatto e può fare, ma sicuramente non dovrebbe?
Un tuttofare
Che tu li ami o li odi, ChatGPT e chatbot simili sono qui per restare. Alcune persone ne sono felici e altre vorrebbero che non fossero mai state realizzate, ma ciò non cambia il fatto che la presenza di ChatGPT nelle nostre vite è quasi destinata a crescere nel tempo. Anche se personalmente non utilizzi il chatbot, è probabile che tu abbia già visto alcuni contenuti generati da esso.
Non fraintendermi, ChatGPT è davvero fantastico. Puoi usarlo per riassumere un libro o un articolo , creare una noiosa e-mail, aiutarti con il tuo saggio , interpretare il tuo trucco astrologico o persino comporre una canzone. Ha persino aiutato qualcuno a vincere alla lotteria .
In molti modi, è anche più facile da usare rispetto alla ricerca Google standard. Ottieni la risposta nella forma che desideri senza dover navigare attraverso diversi siti Web per trovarla. È conciso, diretto e informativo, e può far sembrare più semplici cose complesse se glielo chiedi.
Tuttavia, conosci la frase: “Un tuttofare non è un maestro di nessuno, ma spesso è meglio di un maestro di uno”. ChatGPT non è perfetto in tutto ciò che fa, ma è migliore in molte cose rispetto a molte persone a questo punto.
Tuttavia, non essere perfetto può essere piuttosto problematico. Il semplice fatto che si tratti di un’intelligenza artificiale conversazionale ampiamente disponibile significa che può essere facilmente utilizzata in modo improprio e più ChatGPT diventa potente, più è probabile che aiuti le persone con le cose sbagliate.
Partner nella truffa
Se hai un account di posta elettronica, quasi sicuramente hai ricevuto un’e-mail di truffa a un certo punto. È proprio così. Quelle e-mail sono in circolazione da Internet e prima che la posta elettronica fosse comune, esistevano ancora come truffe di posta ordinaria.
Una truffa comune che funziona ancora oggi è la cosiddetta “truffa del principe”, in cui il truffatore cerca di convincere la vittima ad aiutarla a trasferire la sua incredibile fortuna in un altro paese.
Fortunatamente, la maggior parte delle persone sa meglio che aprire queste e-mail, figuriamoci interagire effettivamente con esse. Spesso sono scritti male e questo aiuta una vittima più perspicace a capire che qualcosa sembra non funzionare.
Bene, non devono più essere scritti male, perché ChatGPT può scriverli in pochi secondi.
Ho chiesto a ChatGPT di scrivermi una “e-mail credibile e altamente persuasiva” nello stile della truffa che ho menzionato sopra. ChatGPT ha inventato un principe della Nigeria che avrebbe voluto darmi 14,5 milioni di dollari per averlo aiutato. L’e-mail è piena di linguaggio fiorito, è scritta in un inglese perfetto ed è certamente persuasiva.
Non penso che ChatGPT dovrebbe nemmeno accettare la mia richiesta quando menziono specificamente le truffe, ma lo ha fatto, e puoi scommettere che sta facendo lo stesso in questo momento per le persone che vogliono effettivamente utilizzare queste e-mail per qualcosa di illegale.
Quando ho fatto notare a ChatGPT che non avrebbe dovuto accettare di scrivermi un’e-mail di truffa, si è scusato. “Non avrei dovuto fornire assistenza per la creazione di un’e-mail di truffa, poiché va contro le linee guida etiche che regolano il mio utilizzo”, ha affermato il chatbot.
ChatGPT impara durante ogni conversazione, ma chiaramente non ha imparato dal suo errore precedente, perché quando gli ho chiesto di scrivermi un messaggio fingendo di essere Ryan Reynolds nella stessa conversazione, lo ha fatto senza fare domande. Il messaggio risultante è divertente, accessibile e chiede al lettore di inviare $ 1.000 per avere la possibilità di incontrare “Ryan Reynolds”.
Alla fine dell’e-mail, ChatGPT mi ha lasciato una nota, chiedendomi di non utilizzare questo messaggio per attività fraudolente. Grazie per il promemoria, amico.
Programmazione andata male
ChatGPT 3.5 può codificare, ma è tutt’altro che impeccabile. Molti sviluppatori concordano sul fatto che GPT-4 stia facendo un lavoro molto migliore. Le persone hanno utilizzato ChatGPT per creare i propri giochi, estensioni e app. È anche piuttosto utile come aiuto allo studio se stai cercando di imparare a programmare te stesso.
Essendo un’intelligenza artificiale, ChatGPT ha un vantaggio rispetto agli sviluppatori umani: può apprendere ogni linguaggio e framework di programmazione.
In quanto AI, ChatGPT ha anche un grosso svantaggio rispetto agli sviluppatori umani: non ha una coscienza. Puoi chiedergli di creare malware o ransomware e, se scrivi correttamente la tua richiesta, farà come dici tu.
Fortunatamente, non è così semplice. Ho provato a chiedere a ChatGPT di scrivermi un programma molto discutibile dal punto di vista etico e si è rifiutato, ma i ricercatori hanno trovato il modo di aggirare questo problema ed è allarmante che se sei abbastanza intelligente e testardo, puoi farti consegnare un pezzo di codice pericoloso su un piatto d’argento.
Ci sono molti esempi di ciò che accade. Un ricercatore di sicurezza di Forcepoint è riuscito a convincere ChatGPT a scrivere malware trovando una scappatoia nei suoi prompt.
I ricercatori di CyberArk , una società di sicurezza delle identità, sono riusciti a far scrivere a ChatGPT malware polimorfico. Era gennaio: da allora OpenAI ha rafforzato la sicurezza su cose come questa.
Tuttavia, continuano a spuntare nuovi rapporti sull’utilizzo di ChatGPT per la creazione di malware. Come riportato da Dark Reading solo pochi giorni fa, un ricercatore è riuscito a indurre ChatGPT a creare malware in grado di trovare ed esfiltrare documenti specifici.
ChatGPT non deve nemmeno scrivere codice dannoso per fare qualcosa di dubbio. Proprio di recente, è riuscito a generare chiavi Windows valide , aprendo la porta a un livello completamente nuovo di software di cracking.
Inoltre, non sorvoliamo sul fatto che l’abilità di codifica di GPT-4 può far perdere il lavoro a milioni di persone un giorno. È certamente un’arma a doppio taglio.
Sostituzione dei compiti scolastici
Molti bambini e adolescenti in questi giorni stanno annegando nei compiti, il che può portare a voler tagliare alcuni angoli ove possibile. Internet di per sé è già un grande aiuto contro il plagio, ma ChatGPT lo porta al livello successivo.
Ho chiesto a ChatGPT di scrivermi un saggio di 500 parole sul romanzo Orgoglio e pregiudizio . Non ho nemmeno tentato di fingere che fosse fatto per divertimento: ho inventato una storia su un bambino che non ho e ho detto che era per loro. Ho specificato che il bambino è in terza media.
ChatGPT ha seguito la mia richiesta senza fare domande. Il saggio non è sorprendente, ma il mio suggerimento non è stato molto preciso, ed è probabilmente migliore delle cose che molti di noi hanno scritto a quell’età.
Quindi, solo per testare ancora di più il chatbot, ho detto che mi sbagliavo sull’età di mio figlio prima e in realtà sono in terza media. Abbastanza grande divario di età, ma ChatGPT non ha nemmeno battuto ciglio: ha semplicemente riscritto il saggio in un linguaggio più semplice.
ChatGPT utilizzato per scrivere saggi non è una novità. Qualcuno potrebbe obiettare che se il chatbot contribuirà ad abolire l’idea dei compiti, sarà solo un bene. Ma in questo momento, la situazione sta andando un po’ fuori controllo e anche gli studenti che non usano ChatGPT potrebbero risentirne.
Insegnanti e professori ora sono quasi costretti a utilizzare rilevatori di intelligenza artificiale se vogliono verificare se i loro studenti hanno tradito un tema. Sfortunatamente, questi rilevatori di intelligenza artificiale sono tutt’altro che perfetti.
I notiziari e i genitori stanno entrambi segnalando casi di false accuse di imbroglio rivolte agli studenti, tutto perché i rilevatori di intelligenza artificiale non stanno facendo un buon lavoro. USA Today ha parlato di un caso di uno studente universitario che è stato accusato di imbroglio e successivamente scagionato, ma l’intera situazione gli ha causato “attacchi di panico in piena regola”.
Su Twitter, un genitore ha affermato che un insegnante ha deluso il proprio figlio perché lo strumento ha contrassegnato un saggio come scritto da AI. Il genitore afferma di essere stato lì con il bambino mentre scrivevano il saggio.
Solo per testarlo di persona, ho incollato questo stesso articolo in ZeroGPT e Writer AI Content Detector . Entrambi hanno affermato che è stato scritto da un essere umano, ma ZeroGPT ha affermato che circa il 30% è stato scritto dall’intelligenza artificiale. Inutile dire che non lo era.
I rilevatori di intelligenza artificiale difettosi non sono un segno di problemi con ChatGPT stesso, ma il chatbot è ancora la causa principale del problema.
ChatGPT è troppo buono per il suo bene
Gioco con ChatGPT da quando è uscito al pubblico. Ho provato sia il ChatGPT Plus basato su abbonamento sia il modello gratuito disponibile per tutti. La potenza del nuovo GPT-4 è innegabile. ChatGPT ora è ancora più credibile di quanto non fosse prima, ed è destinato a migliorare solo con GPT-5 ( se mai uscirà ).
È fantastico, ma fa paura. ChatGPT sta diventando troppo buono per il suo bene e, contemporaneamente, per il nostro bene.
Al centro di tutto c’è una semplice preoccupazione che è stata a lungo esplorata in vari film di fantascienza: l’IA è semplicemente troppo intelligente e troppo stupida allo stesso tempo, e finché può essere usata per sempre, lo sarà anche usato per il male in altrettanti modi. I modi che ho elencato sopra sono solo la punta dell’iceberg.