首页 加入收藏

全國(guó)咨询热線(xiàn):400-888-8888

新(xīn)闻动态

咨询热線(xiàn):

400-888-8888

行业资讯

您当前的位置:首页 新(xīn)闻动态 行业资讯

新(xīn)闻分(fēn)析丨视频生成新(xīn)模型Sora的突破与风险

日期:2024-04-04类型:行业资讯

文(wén)章分(fēn)析丨全新(xīn)AI模型Sora视频生成的突破与潜在风险

作者:吴晓凌

美國(guó)人工智能(néng)公司“开放人工智能(néng)研究中心”(OpenAI)*近发布了一款全新(xīn)的生成式人工智能(néng)模型Sora,该模型能(néng)够通过文(wén)本指令生成视频,这一突破不仅夯实了OpenAI在人工智能(néng)领域的**地位,同时也引发了人们对“深度伪造”等潜在风险的关注。

技术突破或将引领行业变革

Sora是OpenAI首次涉足视频生成领域。据悉,Sora采用(yòng)了Transformer架构,可(kě)以根据文(wén)本指令生成逼真且富有(yǒu)创意的场景,生成的视频风格多(duō)样,画面清晰,*長(cháng)可(kě)达一分(fēn)钟。该模型还可(kě)以根据静态图像生成视频,或者对现有(yǒu)视频进行扩展或填充缺失的帧。

一些专家认為(wèi),Sora的推出再次凸显了人工智能(néng)技术对生活和传统行业的深刻影响。人工智能(néng)在视频生成领域的迅猛发展為(wèi)塑造新(xīn)的影视产业格局打开了大门,但也可(kě)能(néng)对现有(yǒu)影视产业造成颠覆性影响。去年,好莱坞遭遇了長(cháng)达63年来首次全面罢工,该行业的一部分(fēn)工作可(kě)能(néng)被人工智能(néng)所取代。Sora的问世进一步加剧了这种威胁的紧迫感,据报道,Adobe公司股价在Sora发布第二天暴跌超过7%,这一事件引发了市场的震荡。

尽管不是**家进入文(wén)本转视频领域的公司,但Sora的推出使OpenAI在这一领域取得了**地位,巩固了其在生成式人工智能(néng)领域的领导地位。第三方信息分(fēn)析机构高德纳咨询公司的分(fēn)析师钱德拉塞卡兰表示:“在这个领域没有(yǒu)一家公司比OpenAI更有(yǒu)雄心,而这种雄心似乎一直在增加。”

据OpenAI称,Sora对语言有(yǒu)着深刻的理(lǐ)解,能(néng)够理(lǐ)解用(yòng)户文(wén)本提示,并深入了解所描述事物(wù)在物(wù)理(lǐ)世界中的存在方式。“我们正在教导人工智能(néng)理(lǐ)解和模拟物(wù)理(lǐ)世界中的运动,目标是训练模型以帮助人们解决需要与现实世界互动的问题。”

“深度伪造”引发担忧

Sora的发布引起了广泛关注,但此次推出更像是一个预览版,公众还难以全面了解该模型的优劣势。OpenAI表示,目前仅向一些设计师和電(diàn)影制作人等特定群體(tǐ)提供Sora的访问权限,以获取有(yǒu)关改进该模型的反馈意见。该公司未透露训练Sora模型的数据等基础细节,也没有(yǒu)确定向公众发布的日期。

OpenAI承认,目前Sora生成的视频可(kě)能(néng)包含不合逻辑的图像,混淆左右等空间细节,难以准确模拟复杂场景的物(wù)理(lǐ)原理(lǐ)和因果关系,例如,一个人咬了一口饼干,但饼干上却没有(yǒu)咬痕。

随着算力的增强和模型的改进,人们可(kě)能(néng)会在短期内获得更完善、先进的视频生成功能(néng)。

业内有(yǒu)人担心,Sora可(kě)能(néng)会促进“深度伪造”(Deepfake)技术的发展。加利福尼亚大學(xué)伯克利分(fēn)校信息學(xué)院副院長(cháng)法里德表示:“当新(xīn)闻、图像、音频、视频等内容都可(kě)以被伪造时,真实的概念就变得模糊不清。”

為(wèi)了解决伪造问题,OpenAI表示,在向公众推出产品时,将确保生成的视频包含来源元数据,并推出检测视频真实性的工具。OpenAI还承诺,在使用(yòng)Sora之前将采取安全措施,包括由专家对模型进行对抗性测试,评估可(kě)能(néng)的危害或风险;核查并拒绝包含极端暴力、性内容、仇恨图像、他(tā)人知识产权等内容。

尽管进行了广泛的研究和测试,OpenAI也承认:“我们无法准确预测人们将如何使用(yòng)我们的技术,无法预料技术可(kě)能(néng)被滥用(yòng)的方式。”

监管挑战在AI蓬勃发展的途中

随着科(kē)技领域的不断创新(xīn),如何平衡技术进步与社会安全已成為(wèi)各界关注的焦点。

OpenAI表示,将与全球各地的政策制定者、教育工作者和艺术家合作,了解他(tā)们的担忧,确定Sora的积极使用(yòng)案例,并认為(wèi)从实际应用(yòng)中學(xué)习是创建和发布更安全人工智能(néng)系统的关键组成部分(fēn)。

有(yǒu)专家指出,在目前的治理(lǐ)结构和管控措施跟不上的情况下,单靠企业恐怕无法提供社会所需的人工智能(néng)安全性和信任度。