豆包App及其電腦端、網(wǎng)頁版今日迎來重要更新——官方正式宣布接入全新視頻生成模型Seedance 2.0。用戶只需打開應(yīng)用對(duì)話框,點(diǎn)擊新增的"Seedance 2.0"入口,輸入文字描述即可快速生成5秒或10秒的動(dòng)態(tài)視頻內(nèi)容。針對(duì)個(gè)性化創(chuàng)作需求,平臺(tái)特別推出"分身視頻"功能,通過真人驗(yàn)證后用戶可創(chuàng)建專屬數(shù)字分身,解鎖更多創(chuàng)意互動(dòng)場(chǎng)景。
該模型在技術(shù)層面實(shí)現(xiàn)多項(xiàng)突破性進(jìn)展。其獨(dú)創(chuàng)的多模態(tài)可控生成技術(shù),支持同時(shí)處理文字描述與參考圖像,自動(dòng)生成包含完整原生音軌的多鏡頭視頻。在敘事邏輯處理方面,系統(tǒng)可智能解析文本結(jié)構(gòu),確保鏡頭切換時(shí)角色特征、光影效果、藝術(shù)風(fēng)格及場(chǎng)景氛圍保持高度連貫性。這種端到端的生成方式,顯著降低了專業(yè)視頻制作的門檻。
值得注意的是,當(dāng)前版本對(duì)參考圖像類型存在特定限制。為保障生成內(nèi)容合規(guī)性,系統(tǒng)暫不支持用戶上傳真實(shí)人物照片作為創(chuàng)作主體。官方透露,未來將持續(xù)優(yōu)化模型能力,逐步開放更多創(chuàng)作維度與素材類型。此次更新標(biāo)志著AI視頻生成技術(shù)向消費(fèi)級(jí)應(yīng)用邁出重要一步,普通用戶無需專業(yè)設(shè)備即可實(shí)現(xiàn)創(chuàng)意視頻制作。
從技術(shù)架構(gòu)看,Seedance 2.0采用創(chuàng)新的音畫同步算法,能夠精準(zhǔn)匹配畫面動(dòng)作與背景音效的節(jié)奏變化。在長(zhǎng)敘事場(chǎng)景中,模型通過動(dòng)態(tài)鏡頭規(guī)劃技術(shù),可自動(dòng)生成包含遠(yuǎn)景、中景、特寫等多視角的敘事序列。這種智能化的創(chuàng)作輔助,既保留了用戶的主觀創(chuàng)意空間,又通過技術(shù)手段確保了作品的專業(yè)品質(zhì),為短視頻創(chuàng)作領(lǐng)域帶來新的可能性。











