Ora puoi camminare sulla luna sulla luna con A.I. di Nvidia e tecnologia di ray tracing

Oltre a lanciare 10 nuovi laptop RTX Studio rivolti ai creatori di SIGGRAPH, Nvidia ha anche annunciato parte del lavoro svolto dai suoi team di ricerca nei campi dell'intelligenza artificiale, della realtà aumentata e della computer grafica. Nel 50 ° anniversario dell'atterraggio lunare dell'Apollo 11, Nvidia ha mostrato come la tecnologia di ray tracing della sua scheda grafica RTX viene utilizzata per migliorare visivamente le immagini catturate dalla NASA 50 anni fa. Al SIGGRAPH, lo sforzo di Nvidia per commemorare l'Apollo 11 fa un passo ulteriore, offrendo ai fan dello spazio l'opportunità di sovrapporsi in un breve video clip, come se fossero gli astronauti Neil Armstrong e Buzz Aldrin, usando l'intelligenza artificiale e il potere del ray tracing per renderizza questi video in tempo reale.
"Quello che stiamo facendo è usare l'intelligenza artificiale per mirare una macchina fotografica e le persone solo nei loro abiti da strada, per essere in grado di fare una stima della posa 3D", ha spiegato Rob Estes, Nvidia TKTK. "Sappiamo dove si trovano nello spazio 3D e sappiamo come si muovono i loro arti, quindi lo stiamo disegnando usando il ray tracing e mettendoti con il tuo movimento come un astronauta nella scena."
Fare il moonwalk sulla luna a piedi
I registi degli effetti visivi di Hollywood hanno fatto qualcosa di simile per anni usando uno schermo verde e attori che catturano il movimento indossando tute con punti per replicare il movimento degli arti, ma il ray tracing e l'IA fanno un ulteriore passo in avanti eliminando la necessità di attrezzature e attori specializzati. "Potresti farlo ovunque tu possa filmare qualcuno", Estes ha elaborato i vantaggi del ray tracing abilitato all'IA in questo esempio lunare. In sostanza, i partecipanti a SIGGRAPH possono filmare un breve montaggio video di se stessi nella tuta spaziale di Aldrin e Armstrong facendo il moonwalk come se fossero sulla luna come parte della missione Apollo 11.
"Avremo un mock-up della superficie lunare e del lander lunare, e riusciremo a far loro vedere come sarebbe essere sulla luna", ha detto, con tutti gli effetti di luce e rendering eseguiti in tempo reale. “Questa è una ricerca all'avanguardia, e nessuno l'ha mai fatto prima. Stai combinando l'intelligenza artificiale e il ray tracing in un modo che ha molti, molti vantaggi pratici. ”Questi benefici non solo aiutano Hollywood e i suoi team di effetti visivi, ma anche designer e ricercatori che cercano di risolvere problemi difficili con la stima della ricerca, Nvidia ha ampliato.
Rendering foggiato con occhiali da vista

Nvidia vuole rendere il rendering per le applicazioni di realtà aumentata e virtuale più realistico e nitido, e sta applicando la sua tecnologia di rendering distorta per raggiungere questo obiettivo. Ciò che il team di ricercatori di Nvidia ha fatto è stato il supporto aggiunto per le lenti graduate, una novità per l'industria. Anche se questo è ancora nella fase iniziale della ricerca in questo momento, Nvidia prevede un giorno in cui chi indossa occhiali da vista non avrà bisogno di indossare occhiali separati dai loro dispositivi di realtà aumentata.
Nvidia sta lavorando con diversi tipi di display per essere in grado di costruire display VR o AR congruenti con gli occhiali da vista che potresti avere. "Questo è un grosso problema", ha detto Estes. "Non sei mai stato in grado di vedere 20/20 prima perché non c'era l'acuità visiva per questi display."
Allo stesso modo in cui il ray tracing può apportare effetti cinematografici realistici ai videogiochi, il rendering distorto può rendere le scene e le immagini AR più realistiche con una migliore risoluzione conservando la potenza grafica. Invece di eseguire il rendering dell'intera scena, il rendering distorto consente ai creatori di eseguire il rendering della parte centrale della scena in alta fedeltà, che è dove i tuoi occhi in genere si concentrano e le aree periferiche possono essere renderizzate in meno dettagli per risparmiare energia GPU.
"Quindi stiamo lavorando per assicurarci che stiamo monitorando dove si trova il tuo gioco e applicandolo in modo da ottenere frame rate più veloci e grafica migliore nel fare la realtà aumentata, o questo potrebbe essere applicato anche alla realtà virtuale", disse Estes.
GauGAN, l'artista dell'intelligenza artificiale, viene liberato

In passato, Nvidia ha mostrato come il suo strumento di disegno GauGAN può trasformare anche gli artisti con difficoltà artistiche in artisti, permettendoti di disegnare paesaggi complessi e vita-vita con solo pochi tratti sfruttando il potere dell'intelligenza artificiale. Le scene disegnate dall'IA, ha rivelato Nvidia, sono state utilizzate anche in alcuni film di Hollywood di grande nome come sfondi, con studi sovrapposti a elementi che volevano creare l'atmosfera generale per la clip.
Piuttosto che usare l'IA per identificare elementi di una scena, come un cane o un gatto, GauGAN, come suggerisce il nome, utilizza una rete contraddittoria generativa, o GAN. Specificando dove si trova il cielo disegnando una linea dell'orizzonte e dove l'oceano incontra il cielo, GauGAN inizia a "disegnare" la scena con nuvole e onde, e l'utente può aggiungere rocce e scogliere a questo paesaggio marino, rendendo la scena con ombre e riflessi adeguati. Quindi, invece di identificare gli oggetti in un'immagine, GAN aiuta a riempire l'immagine con una creazione e un rendering realistici della scena, ha spiegato Nvidia.
Data la popolarità dello strumento, Nvidia ha rivelato che espanderà l'accesso a GauGAN a tutti. In questo momento, Estes ha affermato che non ci sono piani per monetizzare GauGAN, nonostante il suo lavoro creativo nell'industria cinematografica, e che la società stia semplicemente assaporando la gioia che altre persone provano dall'usarlo.