周鸿祎谈Sora视频模型:中美的AI差距还在加大

2月17日消息,OpenAI近日发布首款文生视频模型——Sora模型,完美继承DALL·E 3的画质和遵循指令能力其支持用户输入文本描述,生成一段长达1分钟的高清流畅视频。

360董事长周鸿祎日前在微博发文,谈到OpenAI的文字转视频模型Sora,他认为Sora模型意味着 AGI实现将从10年缩短到1年。

周鸿祎称,AI不一定那么快颠覆所有行业,但它能激发更多人的创作力。

一个视频或者电影是由无数个60秒组成的,今天Sora可能给广告业、电影预告片、短视频行业带来巨大的颠覆,但它不一定那么快击败TikTok,更可能成为TikTok的创作工具。

周鸿祎还指出,国内大模型发展水平表面看已经接近GPT-3.5了,但实际,上跟4.0比还有一年半的差距。

OpenAl手里应该还藏着一些秘密武器,无论是GPT-5,还是机器自我学习自动产生内容,包括AIGC。

奥特曼是个营销大师,知道怎样掌握节奏,他们手里的武器并没有全拿出来,这样看来中国跟美国的Al差距可能还在加大。

此外,Open AI训练这个模型应该会阅读大量视频,大模型加上Diffusion技术需要对这个世界进行进一步了解,学习样本就会以视频和摄像头捕捉到的画面为主。

一旦人工 智能接上摄像头,把所有的电影都看一遍,把YouTube,上和TikTok 的视频都看一遍,对世界的理解将远远超过文字学习。

一幅图胜过千言万语,而视频传递的信息量又远远超过一幅图,这就离AGI真的就不远了,不是10年20年的问题,可能一两年很快就可以实现。

返回顶部