|
OpenA12月16日凌晨發(fā)布了文生視頻大模型Sora,在科技圈引起一連串的震驚和感嘆,在2023年,,我們見證了文生文,、文生圖的進展速度,,視頻可以說是人類被A|攻占最慢的一塊“處女地”,。而在2024年開年,,OpenAl就發(fā)布了王炸文生視頻大模型Sora,它能夠僅僅根據(jù)提示詞,,生成60s的連貫視頻,,“碾壓”了行業(yè)目前大概只有平均“4s”的視頻生成長度。
為了方便理解,,我們簡單總結(jié)了這個模型的強大之處:
1,、文本到視頻生成能力:Sora能夠根據(jù)用戶提供的文本描述生成長達60S的視頻,這些視頻不僅保持了視覺品質(zhì),,而且完整準確還原了用戶的提示語,。
2、復雜場景和角色生成能力:Sora能夠生成包含多個角色,、特定運動類型以及主題精確,、背景細節(jié)復雜的場景。它能夠創(chuàng)造出生動的角色表情和復雜的運鏡,,使得生成的視頻具有高度的逼真性和敘事效果,。
3、語言理解能力:Sora擁有深入的語言理解能力,,能夠準確解釋提示并生成能表達豐富情感的角色,。這使得模型能夠更好地理解用戶的文本指令,并在生成的視頻內(nèi)容中忠實地反映這些指令,。
4,、多鏡頭生成能力:Sora可以在單個生成的視頻中創(chuàng)建多個鏡頭,同時保持角色和視覺風格的一致性,。這種能力對于制作電影預告片,、動畫或其他需要多視角展示的內(nèi)容非常有用,。
5,、從靜態(tài)圖像生成視頻能力:Sora不僅能夠從文本生成視頻,還能夠從現(xiàn)有的靜態(tài)圖像開始,,準確地動畫化圖像內(nèi)容,,或者擴展現(xiàn)有視頻,填補視頻中的缺失幀,。
6,、物理世界模擬能力:Sora展示了人工智能在理解真實世界場景并與之互動的能力,這是朝著實現(xiàn)通用人工智能(AGI)的重要一步,。它能夠模擬真實物理世界的運動,,如物體的移動和相互作用。
可以說,,Sora的出現(xiàn),,預示著一個全新的視覺敘事時代的到來,,它能夠?qū)⑷藗兊南胂罅D(zhuǎn)化為生動的動態(tài)畫面,將文字的魔力轉(zhuǎn)化為視覺的盛宴,。在這個由數(shù)據(jù)和算法編織的未來,,Sora正以其獨特的方式,重新定義著我們與數(shù)字世界的互動,。一反常態(tài),,OpenAI在模型公布后的不久,就公布了相關(guān)的技術(shù)Paper,,我們第一時間“啃”了這篇技術(shù)報告,,希望能夠幫助大家理解到底有哪些神奇的技術(shù),讓Sora能夠有如此強大的魔力,。
鏈接
https://www.aihub.cn/news/video-generation-models-as-world-simulators/
|
|