Per mettersi al passo con ChatGPT e abbassare i profitti morali, Google può ancora “non essere malvagio”?

Lo slogan “Don’t Be Evil” è stato il motto e il codice di condotta di Google fino al 2018.

▲ Immagine da: sottopila

Ciò significa che Google deve seguire l’etica e le leggi quando fa le cose e non fare cose che sono dannose per la società e gli utenti.

Ma nel 2018, questa frase è stata rivista in “Fai la cosa giusta (fai la cosa giusta)”.

Molti ritengono che questo cambiamento di Google abbia violato la sua intenzione originale.

▲ Immagine da: vox

E in alcune successive azioni commerciali, Google non ha mantenuto la neutralità della tecnologia, ma è stata più incline a realizzare profitti commerciali, raccogliere la privacy degli utenti e utilizzare alcuni dati per garantire l’espansione della propria attività.

Il motivo per cui viene citato il classico slogan di Google è che l’improvviso scoppio dell’attuale AIGC è in qualche modo simile al precedente scoppio di Internet.

In un’intervista con il programma CBS “60 Minutes”, l’attuale CEO di Google Sundar Pichai ha menzionato “Don’t Be Evil” per l’attuale AI.

E ha anche detto che il motivo per cui Bard di Google sembra un po’ goffo al momento è in realtà perché non è stata annunciata una versione avanzata di Bard.

“Spero di dare alla società più tempo per adattarsi all’intelligenza artificiale e dare alle aziende più tempo per sviluppare barriere di sicurezza”.

Per dirla semplicemente, Pichai ritiene che la forza dell’IA di Google non sia peggiore di OpenAI e, per responsabilità sociale, la tecnologia AI è temporaneamente sigillata.

Tuttavia, indipendentemente dai rapporti di Bloomberg, The Verge e Financial Times, Google ha voci completamente diverse su Bard e sull’attuale sviluppo e supervisione della tecnologia AI da parte di Google.

Per contrastare ChatGPT, l’etica può essere messa da parte

Intorno al 2011, Google ha fondato il progetto Google Brain, che è iniziato nel campo del deep learning, il che significa anche che Google ha iniziato a farsi coinvolgere nell’IA.

Da allora, quasi ogni anno Google ha raggiunto piccoli traguardi e piccoli traguardi nel campo dell’intelligenza artificiale.

Da AlphaGo che ha vinto il campione del mondo di scacchi Li Shishi, al rilascio del framework open source TensorFlow, al rilascio del chip TPU per l’apprendimento automatico e ai recenti modelli linguistici come BERT e LaMDA.

Google è un veterano nel campo dell’intelligenza artificiale. Nel processo di ricerca sull’IA, ha anche un team di rischio interno relativamente completo, un team tecnico, ecc., Che può essere descritto come forte.

Certo, è anche un po’ arrogante.

Anche il contenuto dell’annuale Google Developers Conference ha iniziato a rivolgersi all’IA, mostrando al mondo esterno la profonda forza di Google nel campo dell’IA.

Anche il mondo esterno generalmente crede che Google assumerà un ruolo guida nella trasformazione del settore dell’IA.

Fino a ChatGPT, per essere precisi, l’emergere di GPT-3 e il successivo emergere di GPT-4, Midjourney V5 è caldo.

Prima che Google potesse reagire, Microsoft ha colto l’occasione e ha collaborato con OpenAI per applicare ChatGPT al nuovo bing, innescando una rivoluzione della “ricerca”.

Quando Google è tornato in sé, ha lanciato Bard dall’oggi al domani. Non appena è andato online, ha fatto un gran casino. Ci sono stati molti errori fattuali e finora supporta solo l’inglese.

Rispetto a ChatGPT e al nuovo bing, è troppo inferiore.

Il risultato del lancio frettoloso di Bard è quello di provocare una crisi di fiducia e il prezzo delle azioni è crollato.Anche se Google lo aggiusta in seguito, l’impatto di Bard non può ancora essere paragonato a ChatGPT.

Di conseguenza, alcuni dipendenti di Google hanno anche affermato che Bard non ha affatto superato alcuni parametri etici ed era incline a mentire e fare commenti negativi.

Durante i test interni, un dipendente ha chiesto a Bard istruzioni su come far atterrare l’aereo e ha risposto con passaggi che potrebbero facilmente portare a un incidente.

Un altro dipendente ha posto a Bard una domanda sulle immersioni e ha fornito risposte che potrebbero facilmente portare a lesioni gravi o morte.

Oltre a queste risposte pericolose, Google ha anche allentato i suoi requisiti su alcune questioni etiche e sociali.

All’interno di Google esiste un team di ricerca sull’etica dell’IA che esplora, stabilisce e valuta i rischi posti dall’IA.

Hanno il diritto di apporre direttamente un’etichetta rossa su una tecnologia e, se non supera il test, non sarà temporaneamente disponibile al pubblico.

▲ Timnit Gebru, ex ricercatore del team di etica AI di Google Immagine da: Bloomberg

Nel 2021, Google ha anche promesso di espandere il team di ricerca sull’etica dell’IA e di investire più risorse per frenare la ricerca del profitto dei ricercatori tecnici.

Ma ciò che è interessante è che la leadership della squadra è cambiata e l’anno scorso ha anche subito un giro di licenziamenti.

Google ha attualmente 30 volte più ricercatori tecnici legati all’intelligenza artificiale rispetto al team di sicurezza etica.

Anche dopo che ChatGPT ha rubato il colpo al settore AIGC, Google ha iniziato a vacillare e ai membri del team etico è stato detto di non ostacolare o “uccidere” nessuno strumento di intelligenza artificiale generativa in fase di sviluppo.

Dopo essere stato sottoposto a test interni e aver ricevuto molte “domande”, Google ha dovuto affrontare pressioni commerciali da parte di Microsoft e ChatGPT, e alla fine ha scelto di rilasciarlo con il nome di “prodotto sperimentale”.

Perché in alcune indagini statistiche è più probabile che i prodotti sperimentali vengano accettati dal pubblico anche se presentano dei difetti.

E alcuni dipendenti credono anche che l’annuncio di nuove tecnologie al pubblico il prima possibile possa ottenere rapidamente feedback e migliorare i prodotti più rapidamente.

In effetti, per molto tempo dopo il rilascio di Bard, Google ha apportato solo una modifica, aggiungendovi una modifica della logica matematica.

Per quanto riguarda il fatto che alcuni recinti sensibili e argomenti sensibili siano stati modificati e ottimizzati, non è stato menzionato.

Bard sembra anche essere messo da parte nell’ondata di intelligenza artificiale in continua evoluzione.

Musk: ta deve essere sorvegliato

È interessante notare che Musk ha anche parlato di Google su Fox News, quasi prima e dopo l’intervista di Pichai.

Musk e il fondatore di Google, Larry Page, erano amici intimi: Page ha persino acquistato il 10% delle azioni di SpaceX e voleva andare su Marte per giocare sulla sabbia con Musk.

Ma nel 2014, dopo che Google ha acquisito DeepMind, i due avevano opinioni diverse sull’intelligenza artificiale e alla fine non hanno comunicato tra loro.

Nello stesso anno, Page ha dichiarato in un discorso TED che il suo obiettivo finale è costruire un’intelligenza artificiale super digitale, che chiama un “dio digitale”.

Riguardo a questa idea, Pichai non ha smentito né concordato nell’intervista a “60 Minutes”.

Invece, ha solo affermato che Google rilascerà nuovi prodotti AI alla conferenza Developer I/O il 10 maggio.

E Musk ha una chiara comprensione del “dio digitale”: Google ha un computer ad alte prestazioni e un team di intelligenza artificiale che è vicino al monopolio nel mondo, ed è molto probabile che raggiunga il cosiddetto “dio digitale”.

Ma Page, il leader dell’azienda, non si preoccupa dei problemi di sicurezza causati dall’intelligenza artificiale, che è piuttosto pericolosa per il mondo.

Questo è anche il motivo per cui recentemente ha voluto entrare nel gioco dopo aver visto ChatGPT, new bing e Bard come una sciocchezza, e ha lanciato un prodotto simile chiamato TruthGPT.

Inoltre, Musk chiede anche a vari paesi e organizzazioni di introdurre politiche corrispondenti per limitare alcuni comportamenti oltraggiosi dell’IA.

A causa delle caratteristiche dell’IA generativa, i suoi dati provengono da forum Internet, documenti, siti Web e altri aspetti. Poiché questi dati non sono desensibilizzati e non sono strettamente limitati, è facile generare commenti rischiosi, dannosi o imprecisi.

Inoltre, con l’attuale boom dell’industria AIGC, i partecipanti sono come cercare l’oro, come se l’intelligenza artificiale stesse entrando in una nuova fase di sviluppo.

Tuttavia, gli attuali modelli su larga scala e i metodi di generazione industriale ad alto calcolo rendono anche facile il monopolio dell’IA da parte delle grandi aziende.

Quando è difficile per loro valutare se perseguire il profitto o mantenere la sicurezza interna, è facile commettere errori nell’orientamento dell’IA, causando conseguenze irreparabili.

Anche se Musk ha un po’ di egoismo nei confronti dell’AIGC, Musk è davvero molto più sobrio quando si tratta di alcune questioni importanti.

Con un grande potere viene una grande responsabilità

Google Foto utilizzerà il riconoscimento delle immagini AI per contrassegnare e aiutare gli utenti a ordinare le immagini per la classificazione.

Questa è una delle precedenti applicazioni AI di Google. Anche se Google Foto ha modificato la capacità libera, è ancora una delle mie app più utilizzate.

Ma nel 2015, Google Foto ha etichettato erroneamente un’immagine di uno sviluppatore di software nero e dei suoi amici come “gorilla”.

Una risposta più normale sarebbe scusarsi e rifattorizzare l’algoritmo per correggere gradualmente questo errore di riconoscimento.

Ma Google ha scelto di rimuovere del tutto i risultati di ricerca per “gorilla”, “scimpanzé” e “scimmia”.

Il problema che Google Bard deve affrontare oggi è che Google non ha ancora il senso di assumersi la responsabilità e sceglie ancora di sminuirlo.

Per essere in grado di mettersi al passo con ChatGPT, il team interno di etica AI di Google non ne ha condotto una valutazione completa, ha condotto solo ricerche su argomenti sensibili e alla fine l’ha lanciato in fretta e furia.

Bloomberg ha anche citato la valutazione di un ex dirigente del team di etica dell’IA, il quale ritiene che Google sia sempre stato controverso sullo sviluppo di un’IA all’avanguardia o sullo sviluppo di un’IA con una linea di fondo morale.

In effetti, nel settore AIGC, non solo Google, ma anche il Financial Times ha rivelato che giganti della tecnologia come Microsoft e Amazon stanno abolindo i team di etica dell’IA su larga scala.

Sembra che nel momento in cui l’AIGC si sta sviluppando rapidamente e competendo tra loro, l’etica dell’IA e la sicurezza dell’IA hanno influenzato le catene che si rincorrono.

Come affermato nel rapporto dei ricercatori della Stanford University, il rapido sviluppo dell’industria dell’IA è passato dall’accademia all’industrializzazione: sotto la tentazione degli interessi commerciali, stanno emergendo varie IA, ma l’etica, la sicurezza e la sensibilità dietro di esse, dannose e altre informazioni vengono gradualmente ignorate.

Anche le grandi aziende sono diventate riluttanti ad assumersi maggiori responsabilità sociali e sono solo al limite di leggi e regolamenti, che alla fine potrebbero avere un profondo impatto sulla società e sull’industria dell’IA.

Al momento, molti paesi e regioni, e persino alcune aziende e organizzazioni, stanno attivamente studiando e formulando alcune regole per limitare lo sviluppo incontrollato dell’IA.

Come ha affermato Yin Sheng, ex vice caporedattore di Forbes Chinese Edition: “Le grandi aziende devono fare di più di quanto richiesto dagli utenti e dalla legge, perché crei un nuovo mondo e ne trai vantaggio, devi aiutare l’intera società a imparare come per governarlo, se non prendi l’iniziativa, la società prenderà il sopravvento.

#Benvenuti a prestare attenzione all’account pubblico WeChat ufficiale di Aifaner: Aifaner (ID WeChat: ifanr), altri contenuti interessanti ti verranno presentati il ​​prima possibile.

Ai Faner | Link originale · Visualizza i commenti · Sina Weibo