ByteDance的AnimateDiff-Lightning專案透過特定的模型和設定,實現了比原始AnimateDiff快速十倍以上的文字到影片生成。
AnimateDiff-Lightning模型與Contorlnet的配合也非常出色,這意味著視頻轉繪的工作流需要得到升級。同時,字節還推出了對應的Comfyui工作流,這一開源工作流的實施,使得AnimateDiff-Lightning模型的應用更加到位。
據了解,AnimateDiff-Lightning模型是從AnimateDiff SD1.5v2中提煉出來的,包含了1步、2步、4步和8步提煉模型的版本。其中,2步、4步和8步模型的生成質量非常好,這對於視頻制作者來說,無疑提供了更多的選擇和可能。
在使用AnimateDiff-Lightning模型時,字節還建議使用運動LoRA,因為運動LoRA能產生更強的運動效果。為了避免水印的出現,建議將運動LoRA的使用強度控制在0.7~0.8之間。
總的來說,字節發布的AnimateDiff-Lightning模型,以其強大的視頻生成能力,為視頻制作行業帶來了新的可能,同時也為視頻制作者提供更多的選擇和便利。
网址:
https://huggingface.co/ByteDance/AnimateDiff-Lightning
論文地址:https://arxiv.org/html/2403.12706v1
需求人群:
“用於影片內容創作者和開發者,快速從文字生成影片內容。”
使用場景示例:
創作社交媒體影片
開發互動式影片應用
增強數字媒體專案的影片內容
產品特色:
文字到影片快速生成