Diffusion Priors:動態視角合成的擴散先驗模型

Link:diffusion-priors
本論文提出了一種基於擴散先驗的動態視角合成方法,用於從單目影片中生成動態場景的新視角。該方法透過對影片幀進行微調和知識蒸餾,實現了幾何一致性和場景一致性。論文透過定性和定量實驗評估了方法的有效性和魯棒性,證明瞭該方法在複雜場景下的優勢。

需求人群:

"用於從單目影片中生成動態場景的新視角"

產品特色:

對單目影片進行動態視角合成

實現幾何一致性

實現場景一致性

返回頂端