Il recente boom di intelligenza artificiale ha prodotto risultati impressionanti in un modo un po ‘ sorprendente regno: il mondo di immagini e video di generazione. L’ultimo esempio viene da designer di chip Nvidia, che oggi ha pubblicato una ricerca che mostra come AI generato grafica può essere combinato con un video tradizionale motore di gioco. Il risultato è un ibrido sistema di grafica che potrebbe un giorno essere usato nei video giochi, film, e la realtà virtuale.
“E ‘ un nuovo modo per eseguire il rendering di contenuti video utilizzando apprendimento profondo, Nvidia, vice presidente di applicato apprendimento profondo, Bryan Catanzaro, ha detto a The Verge. “Ovviamente Nvidia tiene molto alla generazione di grafica [e] stiamo pensando a come AI rivoluzionerà il campo.”
I risultati di Nvidia funzionano non sono fotorealistici e mostrare il marchio di visual sbavature trovato molto AI-generated imagery. Né sono totalmente romanzo. In un documento di ricerca, i tecnici e gli ingegneri di spiegare come hanno costruito su un certo numero di metodi esistenti, tra cui un influente sistema open-source chiamato pix2pix. Le loro opere, la distribuzione di un tipo di rete neurale conosciuto come un generativa del contraddittorio di rete, o GAN. Questi sono ampiamente utilizzati in AI la generazione di immagini, tra cui la creazione di un’intelligenza artificiale ritratto di recente venduta da Christie’s.
“Stiamo pensando a come AI rivoluzionerà il campo.”
Ma Nvidia ha introdotto una serie di innovazioni, e un prodotto di questo lavoro, si dice, è il primo video demo del gioco con AI-grafica generata. Si tratta di un semplice simulatore di guida in cui i giocatori si muovono tra un paio di isolati della città di AI-generato spazio, ma non può lasciare la propria auto o altrimenti interagire con il mondo. La demo è alimentato con solo una singola GPU — un risultato degno di nota per tali avanguardia di lavoro. (Anche se bisogna riconoscere che la GPU è il top di gamma di $3.000 Titan V, “il più potente PC GPU mai creato” e che generalmente utilizzato per la simulazione avanzata di elaborazione, piuttosto che il gioco.)
Nvidia, il sistema genera la grafica utilizzando un paio di passi. Primo, i ricercatori hanno per raccogliere i dati di allenamento, che in questo caso è stato preso da open-source set di dati utilizzati per autonoma di guida di ricerca. Questo filmato è quindi segmentato, il che significa che ogni fotogramma è suddiviso in diverse categorie: sky, automobili, alberi, strada, edifici, e così via. Un generativa contraddittorio rete è allenato su questo segmentato dati per generare nuove versioni di questi oggetti.
A quel punto, gli ingegneri hanno creato la base della topologia dell’ambiente virtuale, utilizzando un tradizionale motore di gioco. In questo caso il sistema è stato Unreal Engine 4, motore popolare usato per titoli come Fortnite, PUBG, Gears of War 4, e molti altri. L’utilizzo di questo ambiente, come un quadro, di profondo, di algoritmi di apprendimento quindi generare la grafica per ogni diversa categoria di voce in tempo reale, incollando al motore di gioco modelli.
“La struttura del mondo è stato creato tradizionalmente”, spiega Catanzaro, “l’unica cosa che l’IA genera è la grafica.” Egli aggiunge che la demo stessa, di base, è stato messo insieme da un solo ingegnere. “Proof-of-concept, piuttosto che un gioco che è divertente da giocare.”
Un confronto di AI-generated imagery. In alto a sinistra è la segmentazione della mappa; in alto a destra pix2pixHD; in basso a sinistra COVST; in basso a destra, Nvidia sistema, vid2vid.
Credito: Nvidia
Per creare questo sistema di Nvidia ingegneri hanno dovuto risolvere una serie di sfide, di cui la più grande è stata oggetto di permanenza. Il problema è che, se il deep learning algoritmi per la generazione di grafici per il mondo a una velocità di 25 fotogrammi al secondo, come fanno a tenere gli oggetti cercando la stessa cosa? Catanzaro dice questo problema significava che i primi risultati del sistema sono stati “dolorosa” come colori e texture “cambiato ogni fotogramma.”
La soluzione era quella di un sistema di memoria a breve termine, in modo che si confronta ogni nuovo telaio con ciò che è andato prima. Si cerca di predire le cose come movimento all’interno di queste immagini, e crea nuovi fotogrammi che sono coerenti con ciò che è sullo schermo. Tutto questo calcolo è costoso, però, e quindi il gioco funziona solo a 25 fotogrammi al secondo.
La tecnologia è molto nelle prime fasi, sottolinea Catanzaro, e sarà probabilmente decenni, fino AI-grafica generata la mostra di consumatore titoli. Egli paragona la situazione per lo sviluppo di ray tracing, la corrente calda tecnica di rendering della grafica in cui i singoli raggi di luce vengono generati in tempo reale per creare riflessi realistici, ombre e opacità in ambienti virtuali. “Il primo interattiva di ray tracing demo successo un lungo, lungo tempo fa, ma non abbiamo ottenuto in giochi fino a poche settimane fa,” dice.
Il lavoro ha potenziali applicazioni in altri settori di ricerca, però, tra cui la robotica e la self-driving cars, dove potrebbe essere utilizzato per generare gli ambienti di formazione. E si potrebbe mostrare fino in prodotti di consumo, prima seppur con una capacità più limitata.
Per esempio, questa tecnologia potrebbe essere utilizzata in un ibrido sistema di grafica, dove la maggioranza di un gioco viene eseguito utilizzando metodi tradizionali, ma AI è utilizzato per creare i ritratti di persone o oggetti. I consumatori potrebbero catturare immagini utilizzando smartphone, quindi caricare questi dati al cloud in cui gli algoritmi vorresti imparare a copiare e inserire nel giochi. Sarebbe più facile per creare avatar che sembrano proprio come i giocatori, per esempio.
Gli esperti sono preoccupati riguardo AI deepfakes utilizzato per la disinformazione
Questo tipo di tecnologia solleva alcune domande ovvie, però. Negli ultimi anni, gli esperti sono diventati sempre più preoccupati per l’uso di AI-generato deepfakes per disinformazione e propaganda. I ricercatori hanno mostrato, è facile generare falsi filmati di politici e celebrità di dire o fare cose che non hanno, una potente arma nelle mani sbagliate. Spingendo in avanti le potenzialità di questa tecnologia e la pubblicazione della sua ricerca, Nvidia è senza dubbio contribuire a questo potenziale problema..
La società, però, dice che questo non è certo un problema nuovo. “[Questa tecnologia] essere utilizzato per la creazione di contenuti fuorvianti? Sì. Qualsiasi tecnologia per il rendering può essere usato per fare questo,” dice il Catanzaro. Egli dice che Nvidia sta lavorando con i partner per ricerca di metodi per la rilevazione AI falsi, ma che, in definitiva, il problema della disinformazione è un “problema di fiducia.” E, come molte questioni di fiducia prima di esso, dovrà essere risolto con una serie di metodi, non solo tecnologica.
Catanzaro dice tech aziende come Nvidia può solo prendere così tanto la responsabilità. “Non voi avete il potere azienda responsabile perché hanno creato l’elettricità che alimenta il computer che fa i video fake?” chiede.
E, infine, per Nvidia, spingendo in avanti con AI-grafica generata ha un vantaggio evidente: aiuterà a vendere di più la società di hardware. Dal momento che l’apprendimento profondo boom preso il largo nei primi 2010s, Nvidia prezzo delle azioni è salito a come è diventato evidente che i suoi chip per computer sono ideali per l’apprendimento automatico di ricerca e sviluppo.
Quindi, sarebbe un’intelligenza artificiale rivoluzione in computer grafica che essere un bene per le entrate della società? Di certo non sarebbe male, Catanzaro ride. “Tutto ciò che aumenta la nostra capacità di generare una grafica più realistica e convincente penso che è buono per Nvidia linea di fondo.”