這兩天,我一直在玩剪映。在這之前,我一個完整的視頻也沒動手剪過,甚至沒寫過任何視頻的分鏡頭腳本,不是因為懶,而是因為不會。
然而就在昨天,我花了兩個多小時,導演并創作了一部發生在我們硅星人內部的兩分鐘短劇大片——足夠震撼,也足夠炸裂。炸裂到我們沒有一個同事愿意轉。有的人說,都不敢點進去看。
劇情中的五個角色,除了我本人,托馬斯,硅星人創始人和CEO,還有硅星人合伙人王兆洋、副總裁魏男、司機兼行政助理小范,以及老四,我的狗。王兆洋、魏男和小范都拒絕為本片的真實性負責,老四沒有表態。
魏男在公司大群里說:“沒想到2026年第一撥 AI 受害者是我們自己,我覺得我演技已經比黃曉明還要好了”。
這鍋我不背,我本來連視頻都不會剪,就別說拍短劇了。這得怪 Seedance 2.0,字節跳動新的視頻模型。它是不是中國人工智能的另一個“DeepSeek 時刻”我不知道,反正它成就了我的抽象時刻。
哦,還得算上剪映。因為 Seedance 2.0 單一生成的視頻長度最多也就10秒(至少爆6塊錢人民幣的金幣),如果沒有剪映的 AI 自動剪片模板和工具,我也剪不出這兩分鐘來。
反正,這是我的處女作,各位湊合著看吧。感謝字節跳動,感謝 Seedance,感謝剪映,讓我在視頻闖作這條路上不再是一個 virgin,從此放飛自我,一條路走到黑,不撞南墻不回頭。
1
從 Sora 2 到 Veo 3.1 到 Seedance 2.0,什么變了?
好了,我要嚴肅認真地思考一些問題了。
過去半年,全球最頂尖的兩家 AI 公司,先后發布了他們認為會改變視頻行業的產品。
OpenAI 在2025年10月1日發布了 Sora 2,五天下載量破百萬,超過 ChatGPT 當年同期成績。兩周后,Google 發布了 Veo 3.1,也實現了原生音視頻同步,物理渲染達到電影級水準。兩個產品都足夠驚艷,都引發了行業震動。
2026 年春節前,字節跳動把 Seedance 2.0 悄悄發布了。過程很低調——消息是從一份飛書文檔流出來的。而接入它的字節系入口,除了豆包、小云雀和即夢,還有剪映,一個非模型產品,AI 而是創作者的工具和社區。
那么問題來了:
Sora 2 發布之后,最火的視頻是什么?切玻璃的水果,物理效果逼真到令人窒息。奧運體操運動員的騰空動作,每一幀都像真實拍攝。這些視頻在 TikTok 和 X 上瘋傳,評論區沸騰了整整一周。
然后,三個月后,月留存率跌到了 1%。
下載的人很多,留下來的人極少——這個落差本身就說明了問題。Sora 激發的是一次性的驚嘆,不是持續的創作欲。人們看完一條令人窒息的 AI 視頻,感受到的第一情緒往往是震撼,第二情緒往往是渺小——“AI 都能做到這種程度,我還能做什么?”
而這種感受,恰恰是創作欲的殺手。
Veo 3.1 走了另一條路,Google 強調物理真實感和電影級畫質,主要瞄準廣告公司和影視制作團隊——那些本來就有預算、有明確項目的專業買家。
沒錯,Veo 3.1 是個好工具,但它的用戶天花板從一開始就畫死了:有項目才用,沒項目就不存在。它天然親近專業影視制作機構和成熟團隊,普通的創作者——比如我,可能只能用它生成幾個10秒鐘視頻,然后就只能等幾個鐘頭了——盡管我每個月付給 Gemini 20美元,但顯然我不配無限制地用它生成那些不可描述的視頻。
Google 終于打通了內部的墻。YouTube Shorts,也就是 YouTube 的短視頻工具已經全方位接入 Veo 3.1 了,但那個工具……也太糙了。如果對比一下剪映就知道了。但好像 Google 并沒在乎過這件事兒。
所以你看,過去 YouTube Shorts 就沒做起來,現在也沒有因為那么厲害的 Veo 3.1 就抖起來了。
但無論如何,OpenAI 的 Sora 2 和 Google 的 Veo 3.1 都試圖將“AI 能生成多好的視頻”這一問題的答案,推向一個極致的最優解。只不過 Sora 2 的用戶曇花一現,Veo 3.1 滿足了有好奇心的人們的創意需求,但并沒有真正地滿足創作的需求——如果你的自我定義是普通創作者,甚至是我這樣的 virgin 的話。
現在,Seedance 2.0 來了,這一切有什么被改變了么?
毫無疑問,Seedance 2.0 將 Sora 2 和 Veo 3.1 “AI 能生成多好的視頻”的答案,進一步推向了極致。它在 Sora 2 能實現的0.2秒級鏡頭切換上不遑多讓,角色和環境的一致性、完整性和流暢性也極盡精美。它在物理真實感和電影畫質上也并不弱于 Veo 3.1,是一款SOTA視頻生成模型。
而當 OpenAI、Google 和字節跳動這三家在全球 AI 領域的殿堂級公司在視頻模型的能力和生成質量上齊頭并進的時候,“生成”本身就成了一件沒那么重要的事。剪輯能力的超越變成了競爭的關鍵。而剪輯,才是真正的導演思維——準確地說,是創作者的思維。
三個月前,我有幸出任愛奇藝與 Google 聯合舉辦的一場 AI 視頻短片大賽的評委,評審了來自全球幾十個國家的500多個 AI 視頻短片作品,眼睛都快出血了。作為來自 AI 領域、而非導演圈子的評委,除了作品的立意、價值觀、審美、畫面和鏡頭語言等,我其實更看重 AI 工具的使用維度。
既然是 AI 短片創作大賽,所有參賽者都廣泛地采用了 Sora、Veo、Seedance、可靈、Pika 和 Luma 等視頻模型,這沒什么新鮮的。我更愿意給高分的,是在劇本創作和分鏡腳本過程中使用了大語言模型尤其是開源模型的作品。同時,我對使用 AI 工具剪輯的作品更愿意打高分——這也是“專業創作者”心理更難過的關。
有點遺憾,只有20%的作品在創作說明中聲稱采用了 AI 剪輯工具,有 OpusClip 和 Canva,而提到的最多的,是一體兩面的Capcut和剪映。這也難怪,剪映和 Capcut 加起來有8億月活用戶,如果你是吃了 AI 視頻剪輯這只螃蟹的人,基本都繞不開剪映。
我也是那會兒明白過來的—— OpenAI 和 Google,可能缺的就是個剪映。
也就是說,它們缺的是一個真正嵌進創作者生活里的產品載體,而不是強大的模型本身。
1
指揮棒,而非對話框
Sora 和 Veo 相信的是:創作者最想要的是更好的輸出質量。有了精美的畫質和運控,以及完整精確的物理空間感,用戶就自然會聚集。
其實真正的創作者,最在意的從來不是結果有多完美,而是過程有多可控。
一個導演不需要 AI 幫他拍出完美的鏡頭。他需要 AI 在他說“給我一個希區柯克式的變焦,配合角色回憶的情緒”的時候,真的理解他在說什么,然后給他一個可以繼續打磨的素材。這兩件事,差距是本質性的。
Sora 的 Cameo 功能——把真人面孔植入 AI 視頻——設計初衷是讓人覺得好玩。它確實好玩,但好玩是消費品的屬性,不是工具的屬性。新鮮感消退之后,用戶找不到繼續使用的理由,因為它從一開始就沒有嵌進任何人的工作流。
Veo 配套推出了 Flow 編輯工具,方向是對的,但門檻不低,主要服務有明確項目的影視團隊,而不是那些想在下班后花一小時做一條短劇的普通創作者。
以前做 AI 視頻,創作者是在“描述”,然后等待模型去“猜”。猜對了是運氣,猜錯了重新抽卡,主導權始終不在創作者手里。
直到 Seedance 2.0 的出現,讓事情正在發生了那么一點點的變化。它在剪映中,以一個不那么起眼的“AI 視頻生成” 模塊出現,讓創作借助 Seedance 模型的圣杯級水準,升級成了一套完整的 AI 創作組合拳。
剪映給了創作者一根指揮棒,而非一個輸入文字的對話框。
在剪映里的 Seedance 2.0 帶來的,是一套叫做“全能參考”的交互系統:上傳角色圖片和參考視頻,在提示詞里精確指定每個素材的用途——“角色1 的女孩走在雨夜的巷子里,參考 視頻1 的運鏡風格,配上音頻1 的氛圍音”。
值得注意的是,Seedance 2.0 目前關閉了人臉錄制和參與創作的功能。這應該是一個暫時的舉動,待法律風險與合規落實悉數解決和完備之后,仍有望開放。
這套系統在技術上并不神秘。但它做到了一件以前 AI 工具從未做到的事:把“我想要什么”和“AI 生成什么”之間的鴻溝,變成了一座可以走過去的橋。
你給的參考圖是什么臉,生成的就是什么臉,不會換。你給的參考視頻是什么運鏡,生成的就復刻那個運鏡,不會亂來。創作過程第一次真正在創作者的掌控之下——不是在描述,而是在指揮。
影視颶風的 Tim 看完演示,凌晨發視頻說這是“改變視頻行業的 AI”。他強調的不是畫質有多好,而是“鏡頭切換、分鏡設計、音畫匹配,都做到了導演水準”。《黑神話:悟空》制作人馮驥說得更直接:“AIGC 的童年時代,結束了”。
跟這兩位比視頻創作,我連單細胞生物都算不上。但除了前面那個炸裂辣眼睛的短片之外,我事實上也做了幾個舔著自己這張大臉(沒辦法,我在 Seedance 暫停支持人臉功能之前就錄入進去自己和一些熟人的角色)的視頻實驗:
比如上面這個,好多人說我長得像溥儀,那我就像給你們看。我穿上清朝皇帝的常服,溥儀的臉都能拿來解鎖我手機屏幕了。我穿上這身行頭,在頤和園十七孔橋前牽著老四——我的愛犬漫步,鏡頭從正面遠景緩緩推進,我抱起我最親愛的老四,最后停在一個背對湖面的遠望背影。光影真實,我和老四的形象全程沒有漂移,分鏡有開頭,有飽滿的情緒落點。
再比如這個,我在抽雪茄,電話響了,我喊了一聲“叼著”,老四站起身來,用嘴試圖叼住我的雪茄,第一次沒叼住,我穩了它一下,叼住了,然后它順勢站著趴在我腿上,我一邊揉著它的小腿,一邊接電話,過程那叫一個絲滑、自然和溫情脈脈。我覺得 Seedance 的角色和素材組合指令,比 Sora 2 里單獨為了玩人物互動劇情的工具性要豐富多了。作為我這樣在視頻創作上一窮二白的人,就需要這個。
一個普通人,用普通素材,也能做到。我覺得該震撼的是我,不是 Tim 和馮驥。讓頂尖創作者興奮的,和讓普通觀眾驚嘆的,是不一樣的東西。
模型能力再強,也需要一個容器。Sora 需要從零獲客,Veo 的 Flow 需要用戶專門下載學習,而 Seedance 2.0 接入剪映的那一刻,面對的是一個本來就有億級日常用戶的工作臺——那些人不需要被說服來用 AI,他們本來就在這里做視頻。
Seedance 2.0 只是這件事的一半。另一半,是剪映。
1
零摩擦嵌入與數據閉環
剪映的策略,是把生成能力直接放進一個創作者在使用的國民級工具里。不需要用戶遷移,不需要學習新軟件,不需要建立新習慣。
具體是這樣運轉的:用 Seedance 2.0 逐鏡生成素材,每次最長 15 秒,一條 2 分鐘的短劇大約需要生成 8-12次。生成結束后,視頻自動同步進剪映草稿箱,不需要下載,不需要手動導入。然后在剪映里完成剩下的事:智能字幕一鍵識別原生對話音頻自動對齊時間軸,調色面板統一所有鏡頭的色溫,轉場工具分析相鄰內容匹配最合適的銜接方式,背景音樂在原生音效基礎上疊加出層次感。
整條鏈路不需要切換任何軟件。一個從沒做過短劇的人,一個下午,可以拿到一條完整的 2 分鐘成片。
這叫做零摩擦嵌入。它不制造驚嘆,但它制造行動。
這正是 Sora 和 Veo 缺失的東西。Sora 是一個獨立的展示臺——用戶在上面生成,然后下載,發到 TikTok。Veo 有 Flow,但 Flow 是一個新軟件,需要重新學。只有剪映,是創作者本來就在用的地方,Seedance 2.0 只是在里面多了一個按鈕。
創作者開始行動之后,還有一件事在悄悄發生。每一次有人在剪映里用 Seedance 2.0,每一次他們調整提示詞、更換參考素材、對結果不滿意重新生成——這些行為信號都會在體系內沉淀下來。什么樣的提示詞產生了好結果,什么樣的素材組合最有效,什么樣的生成視頻最終在抖音上獲得了高完播率……這是一個閉環:剪映生成,剪映剪輯,抖音發布,抖音反饋反向優化生成與剪輯體驗。Sora 沒有這個閉環。用戶在 Sora 上生成,然后發到 TikTok——那些最重要的反饋,全部留在平臺側的鏈路里。OpenAI 知道你生成了一個視頻,但不知道這個視頻有沒有打動人,在哪里被劃走,哪個細節值得優化。Veo 理論上有 YouTube 這個反饋金礦,但 YouTube 的主力創作者依賴真實影像,他們的身份認同建立在“這是我拍的”上,AI 生成是威脅而不是工具,真正高頻使用 Veo 的用戶群體還太小,飛輪沒有轉起來。數據飛輪的效果要在一兩年后才會充分顯現。但當它開始發揮作用的時候,技術差距會以難以追趕的方式拉開——因為迭代方向來自真實創作行為,而不只是來自素材堆疊或離線評測指標。
Sora 有頂尖的技術。Veo 有頂尖的技術。Seedance 2.0 同樣有頂尖的技術。只有剪映,把這個技術放進了創作者本來就在生活的地方。
這就是 OpenAI 和 Google 缺的那個東西——不是更好的模型,而是一個創作者愿意每天打開、已經建立了使用習慣、生成完就能直接剪輯發布的產品容器。
AI 工具改變一個行業,靠的從來不是發布會上令人窒息的演示視頻。靠的是讓一億個普通人,第一次打開軟件,發現這件事沒有想象中那么難,比如我。











