12月2日消息,全球可靈AI正式全量上線其全新O1視頻大模型,首個視頻上線生成視頻號稱“全球首個統(tǒng)一多模態(tài)視頻大模型”,統(tǒng)多打破傳統(tǒng)視頻生成工具功能割裂、模態(tài)操作復(fù)雜的大模痛點(diǎn)。
目前,正式該模型已在可靈App及官網(wǎng)開放體驗(yàn)。句話
與以往需分步處理文生視頻、全球圖生視頻、首個視頻上線生成視頻局部編輯等任務(wù)不同,統(tǒng)多可靈O1基于創(chuàng)新MVL(多模態(tài)視覺語言)交互架構(gòu),模態(tài)在單一輸入框內(nèi)無縫融合文字、大模圖像、正式視頻等多種指令。句話
結(jié)合Chain-of-thought技術(shù),全球模型不僅能理解用戶意圖,還能進(jìn)行常識推理與事件推演,實(shí)現(xiàn)更符合邏輯的視頻生成。
例如,用戶上傳一段真人視頻后,只需簡單對話指令,即可局部增加/刪除元素、智能延展前后鏡頭、捕捉動作生成新畫面。
更關(guān)鍵的是,O1通過多視角主體構(gòu)建技術(shù),徹底解決視頻中人物或物體在鏡頭切換時“特征漂移”的行業(yè)難題,確保多主體場景下畫面精準(zhǔn)連貫。
此外,O1支持3–10秒自由生成時長,把敘事節(jié)奏的控制權(quán)交還創(chuàng)作者。
無論是短視頻博主、廣告團(tuán)隊(duì)還是個人用戶,都能快速產(chǎn)出高質(zhì)量、高一致性的創(chuàng)意視頻。
作者:探索







