GRM:用於高質量高效3D重建和生成的大型高斯重建模型

Link:https://justimyhxu.github.io/projects/grm/

GRM是一種大規模的重建模型,能夠在0.1秒內從稀疏檢視影象中恢復3D資產,並且在8秒內實現生成。它是一種前饋的基於Transformer的模型,能夠高效地融合多檢視資訊將輸入畫素轉換為畫素對齊的高斯分佈,這些高斯分佈可以反投影成為表示場景的密集3D高斯分佈集合。我們的Transformer架構和使用3D高斯分佈的方式解鎖了一種可擴充套件、高效的重建框架。大量實驗結果證明瞭我們的方法在重建質量和效率方面優於其他替代方案。我們還展示了GRM在生成任務(如文字到3D和影象到3D)中的潛力,透過與現有的多檢視擴散模型相結合。

需求人群:

“3D重建、3D建模、文字到3D、影象到3D、視覺特效、計算機圖形學等”

使用場景示例:

  • 從幾張物體照片中高效重建出該物體的3D模型
  • 根據文字描述直接生成相應的3D場景或物體
  • 將2D影象上的物體直接重建為3D模型

產品特色:

高質量、高效的3D重建(約0.1秒)

  • 快速3D生成(小於8秒)
  • 可從各種源(如Zero123++、Instant3D、V3D、SV3D)重建3D高斯分佈與網格
  • 基於Transformer的前饋模型,高效融合多檢視資訊
  • 使用畫素對齊高斯分佈與密集3D高斯分佈表示場景
返回頂端