Rilasciata una piattaforma di formazione ibrida con chip eterogenei su scala kilocard, Wuwen Core Dome mira a creare l’infrastruttura AI più conveniente WAIC 2024

Che ruolo giocano le infrastrutture nell’era dell’AI? Alcuni dicono che è come l'elettricità, altri dicono che è come l'acqua.

Wuwen Xinqiong ritiene che un'infrastruttura eccellente sia una sorta di "magia" che può ridurre efficacemente il costo dei modelli di grandi dimensioni e consentire a più persone di abbracciare le nuove tecnologie.

Il 4 luglio, Xia Lixue, co-fondatore e CEO di Wuwen Core Dome, ha rilasciato la prima piattaforma di allenamento ibrida con chip eterogenei in kilocalorie. L'utilizzo della potenza di calcolo del cluster di allenamento ibrido eterogeneo in kilocalorie ha raggiunto un massimo del 97,6%.

Quattro mesi fa, la piattaforma cloud di servizi e sviluppo di modelli di grandi dimensioni Infini-AI di Wuwen Core Dome ha annunciato la sua prima beta pubblica. I clienti di grandi aziende di modelli come Zhipu AI, Dark Side of the Moon e Shengshu Technology utilizzano stabilmente Infini-AI. In termini di potenza di calcolo, ci sono più di 20 startup di applicazioni AI Native che continuano a chiamare vari modelli API preimpostati su Infini-AI e utilizzano la catena di strumenti fornita da Wuwen Core Dome per sviluppare i propri modelli di business.

Costruire un'infrastruttura AI Native nell'era dei modelli di grandi dimensioni non solo può fornire agli sviluppatori di IA un ambiente di ricerca e sviluppo più versatile, efficiente e conveniente, ma è anche una pietra miliare fondamentale per ottenere un'integrazione efficace delle risorse informatiche e supportare lo sviluppo sostenibile dell'IA. ​industria. Rispetto al modello "relativamente concentrato" di strati di modello e strati di chip nel mondo, gli strati di modello e gli strati di chip della Cina sono più diversificati.

Ma la diversità significa anche sfide: un gran numero di chip eterogenei hanno formato dei "silos ecologici". Diversi ecosistemi hardware sono chiusi e incompatibili tra loro, il che comporta una serie di sfide tecniche per gli utenti della potenza di calcolo. Questa è la difficoltà più grande nella costruzione di un'infrastruttura AI Native, ed è anche un motivo importante per cui l'attuale settore dei modelli di grandi dimensioni si trova ad affrontare una "carenza di potenza di calcolo".

Wuwen Core Qiong dispone di capacità di ottimizzazione del calcolo AI e di soluzioni di potenza di calcolo di prim'ordine, nonché di un giudizio lungimirante sui modelli di settore dei "tipi M di modelli" e dei "tipi N di chip" e ha preso l'iniziativa nella costruzione di un Modello ecologico dello strato intermedio "MxN" per ottenere un'implementazione efficiente e unificata di più algoritmi di modelli di grandi dimensioni su più chip.

Fino ad ora, Infini-AI ha supportato più di 30 modelli come Qwen2, GLM4, Llama3, Gemma, Yi, Baichuan2, serie ChatGLM3, ecc., Oltre ad AMD, Huawei Shengteng, Biren, Cambrian, Suiyuan, Haiguang, Tianshu Esistono più di 10 tipi di schede informatiche tra cui Zhixin, Muxi, Moore Thread e NVIDIA.

"Non c'è contraddizione tra l'innalzamento del limite tecnico e la diffusione della tecnologia, e dipende da come siamo determinati a trattare questa tecnologia", ha affermato Xia Lixue: "Quando utilizzeremo varie applicazioni di intelligenza artificiale in futuro, non lo sapremo". quali modelli di base richiama e quali modelli vengono utilizzati. Quale tipo di scheda acceleratore ha la potenza di calcolo: questa è la migliore infrastruttura AI nativa."

# Benvenuto per seguire l'account pubblico WeChat ufficiale di aifaner: aifaner (ID WeChat: ifanr) Ti verranno forniti contenuti più interessanti il ​​prima possibile.

Ai Faner |. Link originale · Visualizza commenti · Sina Weibo