導(dǎo)讀 谷歌宣布升級自家使用的2D圖像生成技術(shù),特點(diǎn)是可以根據(jù)一個視點(diǎn)看到的2D圖像,生成3D模型圖案,谷歌官方解釋最新的NERF采用最新自解碼器框架。
谷歌宣布升級自家使用的2D圖像生成技術(shù),特點(diǎn)是可以根據(jù)一個視點(diǎn)看到的2D圖像,生成3D模型圖案,谷歌官方解釋最新的NERF采用最新自解碼器框架,從一組圖像里面學(xué)習(xí)3d的結(jié)構(gòu)和外觀建模,這種軟件可以應(yīng)用在汽車和人類等領(lǐng)域,提取他們的特征制作2D圖像,然后做成3D模型,這種方式在電影領(lǐng)域也能發(fā)揮重要作用,自己感興趣的圖片只要拿出來一張就可以,完成訓(xùn)練以后,點(diǎn)擊生成便能出現(xiàn)對應(yīng)的三維模型。
這種概念的最早提出是在2020年,當(dāng)時神經(jīng)輻射場的模型發(fā)布,有人說根據(jù)二維圖像就能生成三維模型,這種想法被很多人認(rèn)為不可能,因為同一個場景的多個視圖,在不同角度下觀看是完全不同的,這要求生成的過程截取圖形的每一個截面,這對設(shè)備和技術(shù)的要求極高。因為可視角度不足,因此做出來的模型很容易崩潰,成為一個平面。現(xiàn)在谷歌最新NERF技術(shù)的研發(fā),說明這個問題已經(jīng)得到解決。
根據(jù)數(shù)據(jù)顯示,最新的LOLNeRF是對原有NeRF的升級,這種使用機(jī)器學(xué)習(xí)的過程必然存在一定漏洞,但是通過計算3D空間里每個點(diǎn)的顏色和密度,可以實現(xiàn)一定程度上的以假亂真,根據(jù)已經(jīng)建立完成的3D模型實現(xiàn)精細(xì)化處理和進(jìn)一步著色設(shè)計,有可能縮短3D建模流程,在3D視覺方面的效果更加顯著。這種預(yù)測的二維landmarks把渲染的數(shù)據(jù)投入原始模型,反映到具體的試圖渲染輻射場景,再生成原始圖像。
利用最新技術(shù)生成的3D模型,與原始二維圖像里的模型背面是存在區(qū)別的,因為缺乏對背面場景的捕捉,最后生成的3D模型不會包括背面,但是這種方法可以減少對真實物體3D模擬的負(fù)擔(dān),減少他們的工作量。