機(jī)器之心報道
編輯:蛋醬
網(wǎng)友:我都不敢想象一年后的視頻技術(shù)會有多先進(jìn)。
一段五十秒的預(yù)告視頻,再次讓 AI 圈沸騰了。
昨日 Runway 宣布,即將在視頻生成工具 Gen-2 中上線「Motion Brush」(運(yùn)動筆刷)功能,一種可控制生成內(nèi)容移動的新方法。
這次的玩法,甚至不需要輸入文字,只要有手就夠了。
任選一張圖片,畫筆涂抹到哪里,哪里就立刻動起來:
不管是水流、云彩、火焰、煙霧還是人物,都能高度還原其動態(tài)。這就是傳說中的「點石成金」嗎?
網(wǎng)友看完表示:我都不敢想象一年后的視頻技術(shù)會有多先進(jìn)……
畢竟在 2023 年初,從文本生成視頻還是一件相當(dāng)困難的事情。
Runway 曾在今年 2 月推出了 Gen-1,功能非常豐富,包括風(fēng)格化、故事版、蒙版、渲染、自定義等等。看起來,這是一個專注于「編輯」視頻的工具。
但今年 3 月,Gen-2 的面世改變了一切,它新增了文字、圖片生成視頻功能。用戶僅需輸入文字、圖像或文字加圖像的描述,Gen-2 即可在很短的時間內(nèi)生成相關(guān)視頻。
這是市場上第一個公開可用的文本到視頻模型。比如輸入一段純文字「午后的陽光透過紐約閣樓的窗戶照進(jìn)來」,Gen-2 會直接「腦補(bǔ)」出視頻:
現(xiàn)在,只需幾個 prompt 和手勢,我們就能生成像樣的視頻并進(jìn)一步編輯,復(fù)雜的視頻編輯軟件和冗長的制作流程一去不復(fù)返。
如果將文生圖神器 Midjourney 與文生視頻神器 Gen-2 結(jié)合起來使用,用戶完全可以不動筆,直出大片。
當(dāng)然,Gen-2 也是有競爭對手的,就是 Pika Labs,特別是后者還是免費(fèi)的。
以上畫面由 Pika Labs 生成。
對于這種瘋狂卷的態(tài)勢,一部分用戶是非常期待的:「2024 年,Pika Labs 和 Runway 之間的拉扯一定很有意思?!?/span>
傳聞中,OpenAI 也有視頻生成相關(guān)的技術(shù)。有網(wǎng)友表示:「這讓我不禁好奇,OpenAI 的 any-to-any 模型在生成視頻方面究竟有多出色,因為這家公司通常都走在別人前面。」
未來的視頻和電影制作行業(yè),會因此而顛覆嗎?
聯(lián)系客服