字節跳動旗下豆包團隊今日宣布,視頻生成模型Seedance 2.0正式面向公眾開放使用。該模型已全面接入豆包APP及即夢創作平臺,用戶可通過火山方舟體驗中心進行操作。此次升級重點強化了多模態內容生成能力,在影視制作、創意設計等領域展現出顯著技術突破。
在倫理規范方面,新模型建立了嚴格的真人形象使用機制。當用戶嘗試以真實人物作為視頻主體時,系統將強制要求提供本人授權證明或通過生物識別驗證。這一措施旨在防范肖像權濫用風險,為AI生成內容劃定倫理邊界。
技術團隊聯合影視行業專家構建了多維評測體系,涵蓋音視頻生成質量、參考素材還原度、編輯操作流暢性等核心指標。測試數據顯示,Seedance 2.0在動態場景渲染、多元素協調等復雜任務中表現突出,特別是在圖生視頻的時空連貫性方面達到行業標桿水平。
盡管取得重要進展,研發團隊坦承模型仍存在技術局限。在高速運動場景中,物體邊緣偶爾會出現細節模糊;多人對話場景的口型同步精度有待提升;涉及文字顯示時,復雜字體的還原準確率尚未完全達標。這些短板在專業影視制作等高精度需求場景中尤為明顯。
針對現存問題,開發團隊正推進三項優化方案:引入更精細的時空注意力機制提升動態穩定性,構建多主體特征關聯數據庫強化一致性表現,開發專用文字渲染引擎優化視覺呈現。技術負責人表示,將持續通過用戶反饋迭代模型,重點突破復雜場景下的創作瓶頸。
目前用戶可通過豆包APP的"視頻創作"模塊或即夢平臺的"AI生成"入口體驗新功能。火山方舟體驗中心同步上線了對比測試工具,允許創作者直觀評估不同參數設置對生成效果的影響。該模型支持4K分辨率輸出,單段視頻最長可生成15秒。







