阿里通義實驗室近日正式推出視頻創(chuàng)作大模型Wan2.7-Video,該模型突破傳統(tǒng)視頻生成工具的局限,支持文本、圖像、視頻、音頻全模態(tài)輸入,實現(xiàn)畫面結(jié)構(gòu)、劇情走向、局部細節(jié)、時序變化等多維度精準編輯。用戶通過自然語言指令即可完成從智能劇本創(chuàng)作到專業(yè)分鏡調(diào)度的全流程操作,甚至能指定電影類型自動匹配色彩風格與光影效果。
在核心功能層面,該模型創(chuàng)新性地引入視頻續(xù)寫與尾幀控制聯(lián)合機制。用戶既可延續(xù)現(xiàn)有視頻內(nèi)容,又能直接指定結(jié)尾畫面,有效解決傳統(tǒng)續(xù)寫中常見的畫面割裂問題。實測顯示,當要求將歐美男生替換為中國男生時,模型不僅精準保留背景細節(jié)與人物姿態(tài),更實現(xiàn)嘴型同步與音色統(tǒng)一,僅對服裝光影進行自然調(diào)整。對于多主體場景,模型支持同時參考最多5個視頻素材,確保角色行為與場景元素的高度協(xié)調(diào)。
針對專業(yè)創(chuàng)作需求,Wan2.7-Video提供精細化控制選項。用戶可通過指令修改拍攝參數(shù),包括機位、視角、景別等十余種運鏡方式,甚至能實現(xiàn)希區(qū)柯克式變焦等復合技巧。在角色塑造方面,模型支持修改臺詞內(nèi)容、情緒表達及行為動作,同時保持口型匹配與音色連貫。當需要將夏日場景轉(zhuǎn)換為深秋時,模型可自動調(diào)整植被色彩與光影氛圍,生成符合邏輯的季節(jié)變遷效果。
技術(shù)突破方面,該模型通過解構(gòu)動畫藝術(shù)風格,將整體造型、線條輪廓、光影材質(zhì)等要素拆分為獨立維度。這種模塊化設計使用戶能自由組合視覺元素,創(chuàng)造獨特風格的同時確保多鏡頭一致性。在情緒表達層面,模型經(jīng)過專業(yè)劇本訓練,可演繹超過40種細分表情,從微妙眼神到復雜肢體語言均能精準呈現(xiàn)。
多模態(tài)協(xié)同是該模型的另一亮點。通義實驗室語音團隊通過音頻預訓練技術(shù),顯著提升聲音真實度與音畫同步質(zhì)量,使角色對話更具感染力。虎鯨文娛摩酷實驗室則提供影視領(lǐng)域?qū)I(yè)知識,優(yōu)化角色表演邏輯與場景調(diào)度合理性。這種跨領(lǐng)域合作印證了當代視頻生成已進入音畫協(xié)同、敘事邏輯與美學表達的綜合競爭階段。
目前,Wan2.7-Video已開放阿里云百煉平臺與萬相官網(wǎng)體驗入口。用戶可通過自然語言指令實現(xiàn)"一句話改視頻",模型自動處理光影材質(zhì)一致性等復雜問題。從局部元素增刪到整體風格轉(zhuǎn)換,從智能運鏡到專業(yè)分鏡,該模型正在重新定義視頻創(chuàng)作的效率標準與技術(shù)邊界。






