字節跳動近日正式推出視頻生成模型Seedance 2.0,旗下AI應用豆包與即夢同步接入該技術。用戶現已可通過豆包APP、電腦端、網頁版及即夢全平臺體驗新功能,其中移動端支持真人形象數字分身生成,需完成錄音錄像校驗后使用,而電腦端與網頁版則明確禁止上傳真實人臉素材。
該模型突破傳統文字指令限制,支持圖像、視頻、音頻多模態輸入。用戶可上傳參考圖設定畫面風格,通過視頻片段指定角色動作與鏡頭運動,甚至利用音頻控制節奏氛圍。這種"導演式"創作模式顯著降低技術門檻,使內容生成更貼近自然表達邏輯。此前內測階段,海外創作者對比發現,Seedance 2.0生成的視頻在真實感與細節豐富度上遠超同類產品,引發埃隆·馬斯克在社交平臺感嘆技術迭代速度。
技術層面,Seedance 2.0采用稀疏架構設計,在統一多模態框架下實現訓練與推理效率的雙重提升。官方報告顯示,模型具備強大的泛化能力,不僅能生成高質量音畫同步內容,還支持視頻編輯、時長擴展等復雜操作。在運動穩定性、指令遵循精度及畫面美學表現等關鍵指標上,該模型均達到行業領先水平,尤其擅長處理專業級運鏡組合與敘事節奏控制。
游戲行業資深從業者馮驥在實測后給予高度評價,認為其在多模態信息整合方面實現質的飛躍,堪稱當前最先進的視頻生成工具。海外用戶為體驗該技術,甚至出現研究申請中國手機號的熱潮,側面印證其國際影響力。目前,Seedance 2.0已開放全平臺訪問,標志著AI視頻生成進入多模態交互新時代。










