字節(jié)跳動旗下豆包視頻生成模型Seedance 2.0近日正式面向公眾開放,用戶可通過豆包App、電腦端及網(wǎng)頁版體驗這一創(chuàng)新功能。該模型上線后迅速引發(fā)海外科技圈關注,特斯拉創(chuàng)始人馬斯克在社交平臺轉發(fā)相關內容并評論稱"It's happening fast",直指人工智能視頻生成領域的發(fā)展速度超出預期。
根據(jù)官方操作指南,用戶打開豆包App后,在對話框界面可找到新增的"Seedance 2.0"入口。輸入文字描述后,系統(tǒng)支持生成5秒或10秒的短視頻內容。特別推出的"分身視頻"功能允許用戶通過真人驗證創(chuàng)建個性化數(shù)字分身,為視頻創(chuàng)作提供更多創(chuàng)意空間。目前該功能暫不支持上傳真實人物照片作為視頻主體參考。
技術團隊透露,Seedance 2.0在動態(tài)場景渲染和語義理解方面實現(xiàn)突破性進展。相較于前代產(chǎn)品,新模型能更精準地捕捉提示詞中的時空關系,生成的視頻在動作連貫性和光影效果上均有顯著提升。此次開放接口標志著字節(jié)跳動在AIGC領域的技術積累開始向消費級市場轉化。














