用一張圖片生成多視角3D,LRM by Hong et al.

2024/01/08閱讀時間約 3 分鐘

Transformer被廣泛運用在各種生成式AI,激起了本篇作者的好奇心,是否能用Transformer學到所有先驗知識,足以讓它由一張2D圖片還原3D物件。本篇也從Github上面找到由ZexinHe開源的LRM實作程式,讓有興趣的人可以深入研究。

論文整體架構:

Image本身經過Vision Transformer (DINO) 架構進行編碼,DINO由Meta開發,目前數一數二的影像編碼模型。將2D圖片編碼後可得到 (32 x 32) x 768 的Latent,藉由Cross Attention 結合NeRF / Triplane 的3D生成架構,解碼並進行體積渲染還原出數個視角的2D圖片,進行2-Norm 和 LPIPS (感知相似性) Loss的收斂。

raw-image


由不同的Camera features,可以解碼產生不同視角的圖片,Inference的時候,query 總共 384 x 384 x 384 個點生成mesh (w/ marching cubes),使用的相機視角可以包含每個角度的正規化相機參數,這些參數也是當初拿來訓練的相機參數。

許多準備好的Ground True Views,用來收斂模型的Loss

許多準備好的Ground True Views,用來收斂模型的Loss

以行動支持創作者!付費即可解鎖
本篇內容共 1577 字、0 則留言,僅發佈於人工智慧宇宙你目前無法檢視以下內容,可能因為尚未登入,或沒有該房間的查看權限。
90會員
126內容數
帶你用上帝視角,針對市面上具有高度價值的影片/論文/書籍,用東方取象,與西方邏輯辯證的角度同時出發,跟著我一起來探討宇宙萬事萬物的本質,隨時隨地都可以來一場說走就走的思維旅行。作者在台積電 / 聯發科等科技產業有累計10年的資歷,近期對於人工智慧,東方易經,西方辯證邏輯,還有佛法向內求有深度興趣。
留言0
查看全部
發表第一個留言支持創作者!