海印网
海印网

输入文字就能生成视频!周鸿祎称Sora工作原理像人做梦

admin数码9850

2月20日消息,近日OpenAI发布了首款文生视频模型——Sora模型。

该模型可以根据用户输入的文字描述,生成一段长达1分钟的高清流畅视频,也能通过现有的静态图像生成视频,还能对现有视频进行扩展、填充缺失内容。

从目前的效果来看,Sora生成的视频效果非常出色,场景逼真、细节真实。

输入文字就能生成视频!周鸿祎称Sora工作原理像人做梦-第1张图片-海印网

360创始人、董事长周鸿祎最新发布视频分享自己对Open AI最新的文生视频大模型Sora的见解,称“Sora工作原理像人做梦,未来AGI比的就是算力和对世界的理解。”

他在视频中表示:“用传统计算机、图形学、影视工业特效的方法来重现一些画面的时候,我们喜欢的是3D件模型、建立光照、搞粒子模型、然后一帧一帧地渲染。这种方法实际上是效率非常低、耗费非常贵的。是用一种最笨的方法模拟出了这个世界。

但Sora的方法非常像人类的做梦——我们会梦到各种奇奇怪怪的东西,做梦所产生的依据是我们在正常生活中眼睛看到的东西,这种积累的经验,是不需要3D建模然后一帧一帧渲染的。”

他还把近期人们关注的Sora在视频中出现的Bug等比做人在做梦时同样会产生的幻觉等违背现实规律的情况。

值得注意的是,周鸿祎此前还强调,Sora可能给广告业、电影预告片、短视频行业带来巨大的颠覆。

Tags: 视频模型

Sorry, comments are temporarily closed!