01Wang ha rilasciato il modello Yi-Large da 100 miliardi di parametri, Kai-Fu Lee: i modelli grandi della Cina hanno raggiunto gli Stati Uniti e sono determinati a rivaleggiare con GPT-5

Dopo un anno, Kai-Fu Lee uscì di nuovo dal circolo con "Zero One Thousand Things".

Nel maggio dello scorso anno è stata fondata Zero One Thing e sei mesi dopo ha pubblicato la sua prima serie Yi, modello bilingue cinese-inglese. Fin dall'inizio, Kai-Fu Lee si è posto un obiettivo ambizioso e difficile: "diventare il numero 1 al mondo".

Lingyiwuwu, che fin dalla nascita è stato un "pollo caldo popolare", ha fatto affidamento su un team con un background in una grande azienda e eccellenti prestazioni da modello per raggiungere una valutazione di 1 miliardo di dollari.

Oggi presentano il loro secondo prodotto: il modello closed source Yi-Large .

Attaccare il modello SOTA globale

Nel novembre dello scorso anno, l'Yi-34B rilasciato da Lingyiwuwu si è classificato nella lista Hugging Face con le sue dimensioni "a livello di dessert" nella comunità open source, superando modelli molte volte più grandi come Llama2-70B e Falcon-180B, ed è diventato il il modello più grande del mondo in quel momento. Uno dei modelli base più forti di open source interno.

Sei mesi dopo, 01Wang ha rilasciato ufficialmente Yi-Large con una scala di parametri di 100 miliardi. Nella valutazione autorevole di terze parti, il modello 01Wanyi Yi ha ottenuto buoni risultati nella PK bilingue cinese e inglese dei principali modelli di grandi dimensioni del mondo.

Nelle ultime classifiche dei modelli ufficialmente certificati di AlpacaEval 2.0, un'agenzia di valutazione di Stanford, il principale indicatore della conoscenza dell'inglese del modello Yi-Large, LC Win Rate (che controlla la lunghezza della risposta), è al secondo posto nel mondo, secondo solo a GPT -4 Turbo, il tasso di vincita è addirittura al primo posto nel mondo.

In precedenza, solo Yi e Qwen tra i modelli domestici erano tra i primi 20 di questa lista.

Un prerequisito importante per utilizzare in modo intelligente un modello di grandi dimensioni è che sappia di cosa si sta parlando.

I modelli stranieri hanno prestazioni eccellenti, ma sono tutti basati sul contesto inglese. Tuttavia, i grandi modelli nazionali nati nel paese presentano vantaggi unici nella comprensione del cinese.

In termini di abilità nella lingua cinese, nelle prestazioni di riferimento di aprile aggiornate da SuperCLUE, Yi-Large si è classificato al primo posto tra i grandi modelli domestici. Le capacità bilingui complete di cinese e inglese di Yi-Large hanno dimostrato prestazioni eccellenti.

In una valutazione più completa delle capacità dei modelli di grandi dimensioni, Yi-Large ha superato modelli simili come GPT4, Claude3 e Google Gemini 1.5 nella maggior parte degli indicatori, raggiungendo il primo posto. Ha ottenuto risultati migliori rispetto ai leader globali nelle abilità generali, nella generazione di codici, nel ragionamento matematico e nel seguire le istruzioni, e si è saldamente classificato tra i primi livelli nel mondo.

Man mano che le capacità dei modelli di grandi dimensioni di ciascuna azienda entrano in una nuova fase di impegno per il benchmarking rispetto a GPT4, anche il focus della valutazione dei modelli di grandi dimensioni ha iniziato a spostarsi dalle semplici capacità generali alle capacità di ragionamento complesse come la matematica e la codifica.

Yi-Large ha anche ottenuto risultati sorprendenti su set di valutazione come HumanEval per le capacità di generazione di codice, GSM-8K e MATH per le capacità di ragionamento matematico e GPQA per le capacità di esperti di dominio.

Inoltre, dal punto di vista dell’implementazione del settore, la comprensione delle istruzioni umane e l’allineamento delle preferenze umane sono diventate funzionalità indispensabili per i modelli di grandi dimensioni, e le valutazioni relative al seguito delle istruzioni (Instruction Following) sono sempre più apprezzate dalle aziende globali di modelli di grandi dimensioni.

MT-bench lanciato dal progetto di valutazione open source di Stanford AlpacaEval e Berkeley LM-SYS è costituito da due set di set di valutazione della conformità delle istruzioni in inglese e AlignBench è un benchmark di valutazione dell'allineamento cinese lanciato dal team della Tsinghua University.

Nella serie di valutazioni delle istruzioni autorevoli in patria e all'estero, Yi-Large ha ottenuto risultati migliori rispetto ai primi cinque modelli internazionali.

Durante la conferenza stampa, Kai-Fu Lee ha anche annunciato che Zero One Wish ha lanciato il modello di formazione Yi-XLarge MoE di prossima generazione, che avrà un impatto sulle prestazioni e sull'innovazione di GPT-5.

Allo stesso tempo, Zero One Thousand Things sta considerando anche alcune questioni molto complesse. Kaifu Lee ha riassunto tre punti chiave:

  • Da un lato, dobbiamo prepararci al progresso della tecnologia e al tipo di modelli che possiamo produrre;
  • In secondo luogo, come ridurre al minimo il costo del ragionamento e accendere il punto dell’inclusività;
  • In terzo luogo, esiste il PMF tradizionale per individuare le esigenze degli utenti.

Kai-Fu Lee ha affermato che queste considerazioni sono qualcosa che generalmente non vedono nelle aziende della Silicon Valley:

Questo è il nostro approccio unico e un’opportunità per gli unicorni cinesi.

Yi-1.5 è stato completamente aggiornato e la piattaforma API è stata lanciata a livello globale.

In questa conferenza stampa, anche la serie Yi di modelli open source ha ricevuto un aggiornamento completo Yi-1.5 è diviso in tre versioni: 34B, 9B e 6B, e il modello di messa a punto Yi-1.5-Chat viene fornito agli sviluppatori. scegli da.

A giudicare dai dati di valutazione, la serie Yi-1.5 continua le eccezionali prestazioni dei modelli open source della serie Yi. Mentre la logica matematica e le capacità di codifica sono completamente migliorate, anche le capacità linguistiche mantengono l'alto livello originale.

Dopo la messa a punto, Yi-1.5-6B/9B/34B-Chat è migliorata a un livello superiore in termini di ragionamento matematico, capacità di codifica e seguito delle istruzioni.

Le prestazioni di Yi-1.5-6B/9B-Chat su set di valutazione delle abilità matematiche come GSM-8K e MATH e set di valutazione delle abilità di codice come HumanEval e MBPP sono lontani dallo stesso modello a livello di parametro ed è anche migliore del Llama-3-8B -Instruct recentemente rilasciato.

Anche i punteggi di MT-Bench, AlignBench e AlpacaEval sono in prima posizione tra i modelli con la stessa grandezza dei parametri.

L'anno scorso, Zero One Wanwan ha scelto di lanciare il modello della serie Yi come open source e le sue eccellenti prestazioni sono state altamente riconosciute dagli sviluppatori internazionali.

Nel primo mese dopo il lancio della versione open source Yi nel novembre 2023, ha occupato quasi il 50% delle classifiche dei modelli popolari nella comunità open source. Un mese dopo il suo rilascio, Yi-34B è stato incluso nel grande parco giochi di modelli di Nvidia.

Kai-Fu Lee ha anche le sue idee per la risoluzione dei problemi quando si tratta di questioni come lo sviluppo di modelli di grandi dimensioni e l'implementazione di prodotti.

In un'intervista con APPSO, Kai-Fu Lee ha detto:

Siamo sostenitori pragmatici dell'AGI. Dobbiamo utilizzare il minor numero di chip e il costo più basso per addestrare il miglior modello possibile. Allo stesso tempo, continueremo a esplorare e trovare TC-PMF. Rispetto alle aziende della Silicon Valley, la differenza tra le start-up nazionali è che possiamo guardare le stelle, ma possiamo anche rimanere con i piedi per terra.

L’unico pensiero che tutte le cose non faranno miracoli con la pura forza è chiedersi se è possibile utilizzare dieci miliardi di dollari o cento miliardi di dollari. OPEN AI è qualificata per tentare questa strada, ma non è questa la strada che vogliono intraprendere Naturalmente, non si prenderanno il tempo per prevedere il punto di accensione dell'AGI, ma può dire a tutti con certezza che è la cosa più rilevante. loro sono il punto di AI Pratt & Whitney.

Oggi, Lingyiwanwu ha anche annunciato di aver rilasciato più interfacce API di modelli tra cui Yi-Large, Yi-Large-Turbo, Yi-Medium, Yi-Medium-200K, Yi-Vision, Yi-Spark, ecc. volta, il sito inglese della piattaforma API Yi è aperto agli sviluppatori di tutto il mondo per applicazioni di prova simultanee.

Tra questi, l'API Yi-Large con una scala di parametri di 100 miliardi ha prestazioni di generazione e ragionamento eccellenti ed è adatta per ragionamenti complessi, previsioni, creazione di contenuti approfonditi e altri scenari;

L'API Yi-Large-Turbo è bilanciata e ottimizzata con alta precisione in base a prestazioni, velocità di inferenza e costi ed è adatta a tutti gli scenari, inferenza di alta qualità e generazione di testo.

Il vantaggio dell'API Yi-Medium risiede nella capacità di seguire le istruzioni, che è adatta per chat, dialogo, traduzione e altri scenari in scenari normali;

Se hai bisogno di applicazioni relative a documenti dal contenuto ultra lungo, puoi anche scegliere l'API Yi-Medium-200K, che può interpretare 200.000 parole di testo alla volta;

L'API Yi-Vision ha capacità di comprensione e analisi delle immagini ad alte prestazioni e può servire chat, analisi e altri scenari basati su immagini;

L'API Yi-Spark si concentra su una risposta leggera ed estremamente veloce ed è adatta per analisi matematiche leggere, generazione di codice, chat di testo e altri scenari.

Soprattutto, esistono già applicazioni pratiche e il "Piccolo Pancreas" progettato per i pazienti con tumori al pancreas è una di queste.

L'assistente AI Xiaoyibao può introdurre ai pazienti una conoscenza completa del trattamento 24 ore al giorno, 7 giorni alla settimana.

Il supporto tecnico dietro questo assistente è il modello Yi di Zero One Thing. Dopo aver utilizzato l'API Yi per chiamare il grande modello AI, Xiaoweibao supera la barriera informativa del trattamento del tumore al pancreas e può presentare in modo accurato e sistematico la tabella di marcia e il piano di trattamento del cancro al pancreas ai pazienti affetti da tumore al pancreas.

Attualmente, questo progetto di beneficenza ha aiutato più di 3.000 pazienti affetti da tumore al pancreas.

Piattaforma di lavoro unica

La conferenza stampa di oggi ha presentato anche "Wanzhi", una workstation AI completa recentemente lanciata da Zero One Wagon.

Secondo l'introduzione ufficiale, Wanzhi è una piattaforma di lavoro AI completa appositamente progettata per gli utenti cinesi. Può creare verbali di riunioni, rapporti settimanali, assistere alla scrittura, interpretare rapporti finanziari, documenti e creare PPT. È bilingue in cinese e inglese ed è completamente gratuito.

Attualmente, gli utenti possono accedere per sperimentarlo tramite il sito Web ufficiale e l'applet WeChat "Wanzhi AI".

Alla conferenza stampa, i funzionari di Wanzhi hanno fornito un esempio molto pratico:

Sei appena arrivato al piano di sotto in azienda e all'improvviso il tuo leader ti chiede di fare una presentazione della riunione, ma il computer non è disponibile Ora tramite Wanzhi, inserisci l'argomento che desideri presentare sul tuo cellulare, quindi attendi i due minuti necessari per arrivare dall'ascensore alla tua postazione di lavoro. È stato fatto sulla pagina web di Wanzhi. Successivamente, devi solo apportare alcuni semplici testi, immagini e modifiche per utilizzarlo direttamente.

Inoltre, Wanzhi ha molte altre funzioni.

Il primo è la capacità di lettura dei documenti. Wanzhi AI Assistant può leggere e comprendere rapidamente una grande quantità di contenuti di documenti, inclusi documenti lunghi e dati finanziari complessi. Può estrarre informazioni chiave in pochi secondi e supporta la lettura bilingue in cinese e inglese.

In secondo luogo, negli scenari generali di domande e risposte, Wanzhi ha anche dimostrato eccellenti prestazioni del prodotto, essendo in grado di fornire rapidamente risposte adeguate e fornire feedback rapidi e professionali.

Inoltre, Wanzhi AI Assistant non solo supporta l'output di testo, ma può anche visualizzare informazioni in varie forme come tabelle, formule, codici, ecc., rendendo più chiari i rapporti di lavoro e la pianificazione della vita.

Infine, Wanzhi AI Assistant può accedere alle informazioni Internet in tempo reale, garantendo che i dati e gli approfondimenti ottenuti dagli utenti siano i più recenti e accurati.

Secondo la ricerca e l'osservazione del team Wanzhi, l'efficienza del lavoro personale è aumentata in media di oltre il 50% dopo l'utilizzo di Wanzhi, soprattutto in termini di recupero della conoscenza, concezione e scrittura di documenti, ecc., con un notevole risparmio di tempo.

Attualmente, Wanzhi AI Assistant è completamente gratuito e aperto agli utenti.

I funzionari di Wanzhi hanno affermato che l'applicazione di modelli simili di grandi dimensioni diventerà sicuramente un importante punto di approdo in Cina quest'anno.

Kai-Fu Lee ha anche affermato che quest’anno sarà il primo anno di strumenti di produttività basati sull’intelligenza artificiale, perché alcuni campi esploderanno quest’anno.

Pensa che il vero valore di AI-Frist sia chi costruirà AI Douyin, AI WeChat e AI Taobao? Zero One spera che abbiano il potenziale per fungere da tale accenditore.

Tuttavia, il punto di inclusione dell’intera IA non arriverà nello stesso momento e i requisiti applicativi in ​​alcuni campi saranno molto elevati.

Ad esempio, con gli strumenti di produttività che stiamo realizzando ora, l’utente è il responsabile ultimo del contenuto prodotto dallo strumento di produttività. Quindi, se ci sono degli errori che non sono perfetti, che necessitano di una messa a punto o anche qualche piccola illusione, è l'utente che alla fine decide se può essere modificato, quindi l'indicatore dell'utente è se posso produrre contenuti migliori in un tempo più veloce che senza questo strumento.

Kai-Fu Lee ha affermato che TC-PMF ha effettivamente raggiunto l'obiettivo, ma può essere migliore, quindi accadrà sicuramente negli strumenti di produttività quest'anno.

Allo stato attuale, il numero totale di utenti esteri dell'applicazione di produttività Zero One Thousand Things è vicino a 10 milioni e il fatturato di un singolo prodotto ToC quest'anno ha raggiunto 100 milioni di yuan.

Kai-Fu Lee ha rivelato:

Il nostro ROI è ancora intorno a 1. Pertanto, tali risultati sono molto vantaggiosi, almeno dal punto di vista delle grandi aziende modello nazionali.

All’inizio del 2023, quando il campo dei modelli di grandi dimensioni nazionali è in piena mischia, le varie liste di valutazione sono schiaccianti e non sono pochi i modelli che si trovano in cima a ciascuna lista principale.

Nell'era dell'intelligenza artificiale 1.0, l'intelligenza artificiale non ha ancora dimostrato elevate capacità di generalizzazione e di emergenza e il modello di implementazione privatizzato per i clienti principali è diventato mainstream. Tuttavia, il tempo ha dimostrato che le entrate apportate dal modello di consegna pesante orientato al progetto ci sono rappresenta un limite massimo alla crescita e le sue sfide in termini di sostenibilità sono gravi.

Oggi siamo nell’era dell’AI 2.0 e l’intelligenza artificiale è entrata in una nuova fase di sviluppo. Rispetto alla 1.0, l’AI 2.0 segna un salto dall’elaborazione automatizzata basata su regole alle capacità di deep learning e apprendimento autonomo.

Da questo punto di vista, la "Battaglia dei cento reggimenti" nel campo dell'intelligenza artificiale non farà che intensificarsi.

Dall'anno scorso, sempre più modelli di grandi dimensioni di produzione nazionale si sono distinti dalla forte concorrenza e hanno ottenuto risultati impressionanti anche in rinomate liste globali.

Quest'anno, il settore entrerà in una fase di implementazione commerciale più realistica e gli utenti voteranno con i piedi in base alle capacità dimostrate dal lato dell'applicazione. Come migliorare il più possibile l'effetto dell'applicazione in base alle capacità del modello base è una questione importante per mettersi al passo con TC-PMF.

Kai-Fu Lee ha detto:

Un anno fa, i grandi modelli cinesi si sentivano troppo indietro (rispetto agli Stati Uniti). Ma oggi siamo molto orgogliosi di dire che stiamo correndo selvaggiamente da un anno e in termini di modelli abbiamo almeno raggiunto i migliori prodotti (modelli di grandi dimensioni) rilasciati negli Stati Uniti un anno fa , continueremo a lavorare duro in futuro. Tuttavia, abbiamo bisogno di precipitazione e di prospettive per il futuro, e non possiamo semplicemente correre come un matto.

Nell’era dell’intelligenza artificiale, dove le onde dietro il fiume Yangtze spingono le onde in avanti, l’importanza più grande per gli utenti è conoscere l’intelligenza artificiale, comprenderla, usarla e persino portarla al lavoro, allo studio e alla vita nella competizione tra produttori.

E questa è anche l’intenzione e la destinazione originaria della tecnologia AI.

*Anche Fu Liqun ha contribuito a questo articolo

# Benvenuto per seguire l'account pubblico WeChat ufficiale di aifaner: aifaner (ID WeChat: ifanr) Ti verranno forniti contenuti più interessanti il ​​prima possibile.

Ai Faner |. Link originale · Visualizza commenti · Sina Weibo