近日,字節跳動新一代AI視頻生成模型Seedance 2.0上線內測,憑借多模態創作方式、自帶運鏡的呈現效果,迅速在全球范圍內引發高度關注。海外社交平臺上,不少用戶稱贊其生成效果媲美好萊塢大片,相關話題迅速沖上熱門,多條演示視頻播放量破百萬。
一名海外專業創作者使用該模型制作短片后,很快引爆關注:畫面中,一名男子在人群中狂奔,猛地撞翻路邊水果攤,橙子四散飛落。在一段極具張力的慢鏡頭之后,男子掙扎起身,繼續奔跑。評論區不少網友對短片效果感到驚訝,“等會兒,從哪兒開始是AI做的?”
據悉,目前Seedance 2.0僅在國內部分產品小范圍開啟內測。還用不上新模型的海外創作者,已經迫不及待地開始分享國內AI創作者發布的測評視頻。無論是用漫畫分鏡鏡頭生成動作電影場景,還是僅憑一個文字指令生成多鏡頭完整片段……Seedance 2.0都有不俗表現,許多海外創作者感慨“一鍵生成電影”可能并不遙遠。
國內創作者對于該模型的表現能力也十分驚艷。游戲科學CEO馮驥試用后評價說,Seedance 2.0是“當前地表最強的視頻生成模型”,其在多模態信息理解與整合能力上實現了飛躍,并稱“慶幸這款頂尖模型來自中國”。
隨著模型能力的突破,Seedance 2.0在內容安全上也做了一些積極探索。用戶在即夢APP、豆包APP體驗模型時,需要完成錄音錄像,通過真人校驗后才能生成自己的專屬分身,在AI短片中出鏡。
近年來,中國在人工智能領域持續加大研發投入,從基礎算法到應用落地實現全鏈條突破,Seedance 2.0的誕生正是中國AI技術創新能力的生動體現。據模型內測介紹文檔顯示,Seedance 2.0搭載雙分支擴散變換器架構,用戶只需輸入文字提示詞或上傳參考圖像,即可產出帶有完整原生音軌的多鏡頭視頻內容。其最具突破性的“單指令生成連貫多場景”能力,能讓AI自動解析敘事邏輯,生成環環相扣的鏡頭序列,在角色、光影、風格與氛圍上保持高度統一,實現近乎“零后期”的成片效果,徹底突破了早期AI視頻工具僅能生成碎片化片段的局限,大幅降低了專業視頻創作的門檻與成本。