騰訊版Sora姍姍來遲,但登場就是王炸

1 評論 2289 瀏覽 0 收藏 11 分鐘

騰訊在人工智能領域的最新動作再次吸引了行業的目光。繼AI工作臺ima.copilot之后,騰訊推出了AI視頻生成功能——混元(HunYuan Video),在騰訊元寶APP內亮相。這一功能的推出,不僅展示了騰訊在AI視頻生成領域的技術實力,也預示著國產AI視頻生成技術競爭的新篇章。

年末補課AI的騰訊,在各條細分賽道快速追進。

繼11月推出AI工作臺 ima.copilot 之后,12月3日,已有劇透的AI視頻生成功能終于被鵝廠放出,官方名稱仍是混元(HunYuan Video),目前可在騰訊元寶APP內體驗,

3號發布當天,用戶僅有三次體驗機會,包括一次高品質生成;4號騰訊增加了體驗次數,改成了每天四次標準+兩次高品質,總共六次,直接翻了一倍。

騰訊元寶-AI應用-AI視頻

直接看演示:模型成功理解了提示詞中外部全景到內部近景的視角切換,質量也比較不錯。

提示詞:一座懸浮于云端的未來都市,高樓大廈皆由透明能量晶體構建。全景展現都市的宏偉,飛行器在樓間穿梭。隨后拉近鏡頭至一個神秘的科技實驗室,一位年輕的女科學家身著銀色防護服,正在操作一臺散發著幽藍光芒的大型儀器,特寫她專注的眼神與儀器上閃爍的復雜數據符文,整體畫面以冷色調為主,科技感。

必須承認,大廠就是大廠,技術能力方面事兒大可不必擔心。

一、可玩性很高的模型

視頻生成大模型曾在今年年中經歷過一段時間的集中發布,大廠和初創公司接連掏出了自家版本的“Sora”。

行業短暫沉默幾個月之后,騰訊進場似乎預示著新一輪國產Sora競爭的開啟(豆包和Kimi近期也都有動作)。

只不過,或許是用戶等得太久熱情太高,又或許是騰訊算力準備不夠充足,混元大模型生成視頻的等待時間,一度格外漫長:之前體驗過的模型最多十幾分鐘也就出來一條了,而發布當天的混元大模型,想體驗需要做好等幾個小時的準備。

12月3日 等待超過一小時

好在,后續官方應該是對算力進行了優化,或者單純加開了一些服務器,等待時間過長的問題已經解決。

12月4日 等待不超過十分鐘

以及,生成的視頻質量在線,不然用戶體驗真的會嚴重扣分。

提示詞:一位身著古裝的書生在庭院中散步,中景呈現書生手持書卷,步伐輕盈。隨后切換到近景,聚焦他抬頭思考,鏡頭以平移運鏡為主,跟隨書生的行動軌跡。

與目前市面上已有的快手可靈、字節即夢、MiniMax海螺和智譜清影相比,騰訊混元在“高級指令”里給出的調節選項最為全面,包含風格、比例、景別、光線和運鏡五個類別。

上面這段提示詞,本身已經給了鏡頭視角的設置(可惜這次AI并沒有做出來切換效果),在下面的“高級指令”選項里,除了打開所有能增強質感的開關外,只額外設定了一個“自然光”。

混元AI視頻 高級指令界面

同賽道其他產品,雖或多或少都會給一些預設選項,但對比混元都相對有限。

從左至右依次為即夢、海螺和清影

更新后的可靈1.5模型,在PC端選擇高品質模式下,額外增加了運鏡控制選項,標準模式目前不支持調節。

可靈1.5

顯而易見,混元視頻模型最大限度的把AI創作的控制權開放給了用戶,有點類似能在手機里找到的“開發者模式”,用戶可以對很多進行細節具體設置,再交由AI執行命令。

這種自由度帶來的可玩性,理論上會非常高。

比如,用不同畫風和景別跑同一段提示詞,最終給出的視頻會有明顯區別,但帽子等等細節又都能呈現。

賽博朋克 近景 明亮

寫實風格 廣角 柔和提示詞:車水馬龍的時尚都市街頭,站著一位背著專業相機、身著個性潮牌服飾且頭戴時尚棒球帽的年輕攝影師,他微微仰頭,尋找拍攝充滿現代活力與時尚氣息的城市街頭夜景。

混元模型對這些預設的執行力尚可,要求基本都加進去了,第二段還用了類似延時攝影的效果,這種“可玩性”帶來的好處就是,用戶可以拿同一段提示詞組合出很多完全不同的視頻內容,獲得更大的調整空間。

這帶來的應用潛力,非??捎^。

二、AI視頻離能用還有多遠?

當然,如果真的要AI視頻可用,風格是只是大面,畫面一致性等等細節還是最終的決定因素。

從以往大量案例中不難看出,手部等四肢部位的生成一直是視頻生成模型的薄弱環節。AI在生成這些細節時常常出現問題,例如人物出現六根手指,或者四肢部分扭曲變形等情況。

本身AI對肢體細節的刻畫就是難點,在文生圖模型上已經頗為明顯,而視頻生成對動態性和連續性的要求,又進一步放大了這種困難。

驚喜的是,諸如手部畸變、面部不自然等問題,在混元模型中幾乎沒有出現,前面幾個案例中,人物面部在運動過后未有太多明顯不合邏輯的變化,人物的動作姿態,身體其他部位與物體及周圍環境存在的交互關系也比較合理。

下面這個片段構圖看起來并不復雜,但細節絕對可以算得上驚艷。

提示詞:一位住在木屋的中年人,睡醒后從床上坐起來,雙手抱頭,表情失落。近景 / 自然光 / 固定鏡頭

人物面部表情,手指運動和雙手抱頭的過程,毛發細節的處理近乎以假亂真。

模型需要對細節有更深入的理解和精準的把握,才能生成趨近現實的人物動作。這種細節部分的穩定連貫,讓混元生成的視頻前后畫面一致性相當不錯——主體、場景、風格、運鏡、光效等方面都能保持一致,觀感上就會比較流暢、自然,減少畫面的“AI味”,那種肉眼可見的突兀變化。

不過,以目前視頻模型所能生成的短短幾秒內容為樣本,包括畫面也包括時長,AI視頻未來一段時間內仍會是以技術探索為主,或者在一些例如廣告片的設計中作為補充元素,離獨當一面還有不小距離,成規模的商業化仍有難度。

既然難以直接實現盈利,不妨先把用戶和開發者生態盡可能打開,騰訊就選擇開源了這個參數量達130億的HunYuan Video模型。

吸引更多用戶和開發者,集思廣益探索基于模型所能衍生出的創新應用與新穎玩法,或許才是破局的關鍵所在。

編輯|魏曉
本文由人人都是產品經理作者【陶然】,微信公眾號:【AI藍媒匯】,原創/授權 發布于人人都是產品經理,未經許可,禁止轉載。

題圖來自Unsplash,基于 CC0 協議。

更多精彩內容,請關注人人都是產品經理微信公眾號或下載App
評論
評論請登錄
  1. 騰訊混元AI視頻生成功能的推出,不僅展示了其在AI領域的技術實力,也為AI視頻生成技術的發展提供了新的方向。

    來自廣東 回復