Al momento, le immagini realistiche generate dalle reti neurali AI sono di gran moda. Le immagini di Duke Nukem generate dall’intelligenza artificiale sono diventate virali a causa delle loro riprese inquietanti ma stranamente accurate. Mentre le IA come DALLE-2 possono fare la magia di Photoshop meglio degli umani, le cose stanno per diventare molto più pazze mentre passiamo al 3D.
GAN è un popolare approccio di apprendimento automatico che mette l’una contro l’altra due reti neurali per migliorare l’accuratezza della previsione. È già stato dimostrato che è efficace per il ripristino di immagini 2D e, secondo MarketTechPost, i ricercatori di Stanford lo hanno utilizzato per creare immagini 3D impressionanti.
Questo modello di intelligenza artificiale è noto come EG3D dai ricercatori. Trasforma le immagini GAN 2D ad alta risoluzione in tre dimensioni. Lo fa in un modo significativamente meno intensivo di computer e più preciso rispetto ai tentativi precedenti e afferma persino di essere in grado di farlo su computer
portatili. Github consiglia 1-8 GPU Nvidia di fascia alta, quindi un laptop ragionevolmente potente dovrebbe essere sufficiente.Sembra essere ottenuto addestrando le retineurali dell’IA sulla topografia risultante dalle immagini 2D fino a ottenere un output coerente. Di conseguenza, il team ha creato alcune fotografie inquietanti e realistiche dei volti delle persone da varie angolazioni. Ha anche prodotto alcune immagini di gatti piuttosto carine, che sembrano molto meno spaventose.
Lo svantaggio principale di queste invenzioni è che potrebbero essere difficili da aggiornare e perfezionare. Poiché sono generati dall’IA, non sono esattamente modellati in Blender e pronti per essere modificati in base alle preferenze dell’utente. GiraffeHD, un modello di apprendimento automatico sviluppato dall’Università del Wisconsin che consente di determinare e selezionare le diverse caratteristiche di queste foto, sarà molto probabilmente di aiuto significativo nella fase successiva di queste tecnologie.