字節(jié)跳動(dòng)今日宣布,正式推出新一代視頻創(chuàng)作模型Seedance 2.0,該模型通過技術(shù)創(chuàng)新重新定義了多模態(tài)視頻生成的可能性。基于統(tǒng)一的多模態(tài)音視頻聯(lián)合生成架構(gòu),Seedance 2.0實(shí)現(xiàn)了文字、圖片、音頻、視頻四種輸入模態(tài)的無縫融合,為創(chuàng)作者提供了前所未有的創(chuàng)作自由度。
在復(fù)雜場景處理能力方面,Seedance 2.0展現(xiàn)出顯著優(yōu)勢。通過優(yōu)化運(yùn)動(dòng)穩(wěn)定性算法和物理還原引擎,模型在多主體交互、高速運(yùn)動(dòng)等高難度場景中仍能保持高可用率,其生成質(zhì)量達(dá)到行業(yè)領(lǐng)先水平。測試數(shù)據(jù)顯示,在涉及復(fù)雜物理交互的場景中,模型輸出結(jié)果的可用率較前代提升40%以上。
針對專業(yè)創(chuàng)作需求,Seedance 2.0在可控性方面實(shí)現(xiàn)質(zhì)的飛躍。模型不僅顯著提升了指令遵循能力,還新增了視頻延長和編輯功能。創(chuàng)作者可以通過簡單指令調(diào)整視頻時(shí)長、修改特定片段,甚至實(shí)現(xiàn)鏡頭語言的二次創(chuàng)作,真正實(shí)現(xiàn)"所見即所得"的導(dǎo)演級控制體驗(yàn)。
工業(yè)級應(yīng)用場景是Seedance 2.0的重要發(fā)力方向。模型支持15秒高質(zhì)量多鏡頭視頻輸出,配備雙聲道音頻生成能力,可模擬真實(shí)環(huán)境中的空間聲場效果。結(jié)合其強(qiáng)大的參考編輯功能,影視制作、廣告營銷、電商展示等領(lǐng)域的內(nèi)容生產(chǎn)成本有望降低60%以上,同時(shí)保持專業(yè)級的視聽品質(zhì)。
目前,Seedance 2.0已在即夢AI、豆包等平臺開放體驗(yàn)。用戶可通過這些平臺直接調(diào)用模型能力,創(chuàng)作個(gè)性化視頻內(nèi)容。開發(fā)團(tuán)隊(duì)表示,將持續(xù)收集用戶反饋,優(yōu)化模型在特定場景下的表現(xiàn),并探索更多商業(yè)化應(yīng)用可能性。











