主要观点总结
Meta AI发布的视频生成模型Meta Movie Gen引发行业内关注。其以文本到视频生成、个性化、精准编辑等为核心功能,采用了创新的模型和架构。视频质量上表现出优异的真实性和美观性。安德鲁布朗作为团队负责人透露模型开发背后的努力与技巧。
关键观点总结
关键观点1: Meta Movie Gen的技术特点和创新之处
Meta Movie Gen具备文本到视频生成、个性化视频生成、精准编辑和音频生成等功能。其模型具备强大的参数转换器,能够实现高保真音频和视频生成。此外,模型还具备物体运动、主体与物体间相互作用和相机运动等推理能力。
关键观点2: 模型的训练和研发过程
Meta AI团队在数亿个视频和数十亿张图像上进行预训练。通过不断重复、学习、总结和推理,使Model Gen Video能够准确理解物理世界的运动规律。此外,模型还接受了海量的音频参考训练,以掌握声音和画面之间的对应关系。
关键观点3: Model Gen Video与Sora的对比
相较于先前的视频生成模型Sora,Meta Movie Gen在整体质量和一致性方面都有明显的领先。新模型能够生成更加自然和逼真的视频内容。
关键观点4: 个性化视频生成和精准编辑的应用前景
Model Gen Video具备个性化视频生成和精准编辑的能力,可以广泛应用于自媒体工作室、视频编辑等领域。通过模型,用户可以轻松更改视频中的细节,如人物发色、眼镜样式等,并保留原始内容的其他部分不受干扰。
关键观点5: 模型的挑战和未来展望
尽管Model Gen Video已经取得了显著的进展,但仍面临一些挑战,如视频分辨率和长度的限制。未来,随着技术的不断进步和与电影制作人的合作,Meta AI有望为视频和AI行业注入新的动力,并带来一场新的变革。
正文
这两天,视频生成模型领域因为 Meta Movie Gen 的发布,又炸开了锅。
行业内外感叹最多的地方,无外乎两点,一是生成效果自然逼真,还能同步生成与画面匹配的声音,很像当时 Sora 发布后引起的讨论和轰动;二是 Meta AI 的新模型自定义性很强,无论是视频画面比例,还是视频元素与细节,都能根据用户的需求进行调 整。
所以,可能会引领视频生成新变革的 Meta Movie Gen 到底有哪些细节?这些在官网和演示视频里的惊艳效果是怎么炼成的?Meta AI 的视频模型负责人 Andrew Brown 专门为 Meta Movie Gen 的理论技术做了解读:Movie Gen 在整体质量和一致性方面显著优于 Sora。真实性和美观性考验照片写实性,Movie Gen 全面获胜。Meta Movie Gen 是一组可以进行文本到视频生成、文本到图像生成、个性化、编辑和视频到音频生成的模型。扩展数据、计算和模型参数非常重要,将其与流匹配相结合,并转向简单的常用 LLM 架构 (Llama),从而实现了 SOTA 视频生成质量。我们(Meta AI)是第一个使用 Llama arch 进行媒体生成的人。Movie Gen 是一个 30B 参数转换器,可生成不同宽高比和同步音频的 1080p 视频,最大持续时间为 16 秒(16fps)。我们(Meta)为 T2V 模型提供了多阶段训练方案。T2I + T2V 联合训练,导致收敛速度慢得多且质量更差。文本到视频的评估很困难。自动化指标非常差,并且与人类评估没有很好的相关性。先看最基础的视频生成 Movie Gen Video,多模态的能力使得新模型可以胜任多种不同的输入方式,用户不仅可以通过简单的文本、少许提示词生成相应的视频,还能直接把需要处理的图片放到模型里,根据文字要求,让静态的图片变成动态的视频。提示文本:一个女孩正在海滩上奔跑,手里拿着一只风筝;她穿着牛仔短裤和一件黄色 T 恤;阳光照耀着她。
你甚至还能让 Movie Gen 帮忙重新生成或者优化一段视频。不管选择哪种输入方式,Movie Gen 目前在官网的演示视频,效果都非常好,人物表情自然,画面细节到位,也能比较准确地按照提示词或文本的要求来生成相应结果。Andrew Brown 介绍到,在视频生成的过程中,扩展数据、计算和模型参数非常重要,将其与流匹配相结合,并转向简单的常用 LLM 架构 (Llama),从而实现了 SOTA 视频生成质量。而且,新模型中的 T2V、个性化和编辑模型都来自相同的培训方案。在预训练期间,Meta 首先训练 T2I,然后训练 T2V。使用该模型作为初始化,然后进行 T2V 后期训练,并训练个性化 T2V 和 V2V 编辑的能力。另外,模型的训练也按照分辨率的高低进行,先是低分辨率(256px)训练,然后是高分辨率训练(768px)。Meta AI 尝试联合训练 T2I + T2V,但这导致收敛速度慢得多且质量比之前的还要差劲。Movie Gen Video 之所以能够做到逼真的生成结果,本质上还是因为高达 30B 参数转换器模型的卓越能力,这个模型能够以每秒 16 帧的速度生成长达 16 秒的视频,而且最长能够生成 45 秒的高质量和高保真音频。这些模型可以推理物体运动、主体与物体之间的相互作用和相机运动,并且可以学习各种概念的合理运动。
这句话一共有三层意思,首先是模型本身可以几乎还原出现实世界的物理运动,以及各种「合乎常理」的物理规律,而对于用户而言,看上去「自然且逼真」就是模型技术最成功的地方。Movie Gen Video 能够准确理解物理世界的运动规律,Meta AI 是下了大功夫的。该团队在数亿个视频和数十亿张图像上,对全新的模型进行了大量的预训练。通过不停的重复、学习、总结、推理和运用,Movie Gen Video 才有了在官网里的优异表现。接着,模型还能主动模仿学习专业电影的运镜、画面、蒙太奇等。也就是说,通过 Movie Gen Video 生成的视频,还有了类似电影拍摄的专业性和艺术性。不过 Andrew Brown 提到,文本到视频的评估很困难。因为自动化指标非常差,并且与人类评估没有很好的相关性。也就是说,在视频生成模型研制的早期,生成结果和人们印象中和观察中的真实物理世界差别太大,最后 Meta 还是决定这种真实性的判断,完全依赖人类的评估。我们花费了大量精力将视频评估分解为多个正交质量和对齐轴。
结果 Movie Gen 在和 1000 个提示评估集上的模型进行比较时,在质量和一致性方面获胜或全面处于同等水平。最后,模型能在此基础上,推理和创作出接下来的内容,它就像一个专业的导演,指挥着画面里的一举一动;也像一个经验丰富的拟声师,根据视频内容或者文本提示,实时生成和画面一一对应的配乐。同步生成音频的能力,依靠得是 Movie Gen Audio。这是一个 13B 参数转换器模型,可以接受视频输入以及可选的文本提示,以实现可控性生成与视频同步的高保真音频。和 Movie Gen Video 一样, Movie Gen Audio 也进行了「海量」练习,Meta AI 将数百万个小时的音频参考投喂到模型的训练里。经过大量的对比总结,目前模型已经掌握了声音和画面之间的对应关系,甚至还能了解不同的 bgm 会带给观众哪些不同的感受。因此在遇到有关情绪和环境的提示词时,Movie Gen Audio 总能找到和画面完美契合的音乐。同时,它可以生成环境声音、乐器背景音乐和拟音声音,在音频质量、视频到音频对齐和文本到音频对齐方面提供最先进的结果。虽然我们不敢就此和官方一样,下一个如此自信的定论,但无论是从官方的视频长度、画面质量,还是背景音乐的贴合程度,Movie Gen Video 相较于以往的视频生成模型,有了非常明显的进步。而且,和先前的偶像实力派 Sora 相比,Movie Gen 在整体质量和一致性方面都有着比较明显的领先,Andrew Brown 毫不掩饰地说到在这场与 Sora 的比赛中:在 Movie Gen Video 和 Movie Gen Audio 的协同配合下面,Meta AI 全新的视频生成模型有了全新的能力,不过上述的进步还只是技术基础,同时具备音视频生成能力后,Meta 还继续扩展了全新模型的适用范围,使它能够支持个性化视频的生成。个性化顾名思义,就是结合用户需求,根据要求生成指定的视频内容。虽说先前的视频模型也能做到个性化生成结果,但这个结果总是不尽人意,要么是不能更改细节,只能重新来过,要么是在连续更改细节时,画面里的其他元素无法保持一致性,总是会因为新视频的生成而多少受到点影响。Movie Gen Video 在官网的演示中,很好地展现了他们在这方面的优势。新模型不仅可以按照提示词/参考图像的要求,生成个性化的视频,还能在该视频的基础上,继续优化调整细节,并且保证其他的生成内容不受干扰,也就是「精细化修改」。与需要专业技能或缺乏精确度的生成工具的传统工具不同,Movie Gen 保留了原始内容,仅针对相关像素。在创建保留人类身份和动作的个性化视频方面,我们的模型取得了最先进的成果。
这项功能,对于很多自媒体工作室,或有视频编辑需求的人,非常有用,它可以对更改对象进行全局修改,或者细节修改。大到根据文本重新生成整个画面,小到只改变人物的发色、眼镜的样式等。比如可以通过模型来消除背景当中的无关杂物。或者给原视频换上新的背景,不管是样式还是颜色,都能随时改变,而且还可以把白天秒变成黑夜。另外 Movie Gen Video 还能针对很多细节做出细微的调整,在保证视频构图、画整体不变的同时,改变人物的衣服颜色、眼镜佩戴样式,主体穿着和宠物毛色等。比如去除视频里的无关杂物、更换画面背景样式,增加视频细节,改变主体衣着颜色等方面,都是他的强项。不过这还只是一种畅想,因为 Movie Gen Video 目前只支持 1080P、16 秒、每秒 16 帧的高清长视频,或者最长 45 秒的高质量和高保真音频。这样的画面分辨率以及视频长度,对于一个有创作需求的个体或公司来说,好像都不太够用。
但这种技术的突破,使得 AI 拥有了对视频文件无级调节的编辑能力,个性化定制、精准调节,加上 Movie Gen Audio 打开了视频配音的大门,Movie Gen Video 虽然要等到明年才会和公众正式见面,但以目前官方的演示结果来看,它真有可能为视频、影视和 AI 行业注入新的动力,甚至带来一场新的变革。包括 Movie Gen Video 在内的最新、最前沿的工具,正在试图打破这种 AI 在视频生成领域的刻板印象,虽然目前以他们的能力,这一天的到来还有很久。对于视频生成模型来说,一开始很难直接影响,甚至触及到普通人的日常生活,直到有了某部由 AI 创作的电影,可能才会在新鲜感上,引起大众的注意。当下用 AI 做出的电影、番剧、动漫,多少都有些画面不真实、动作很违和的缺点。Meta AI 也在官网表示,随着模型技术的改善与发展,他们将会与电影制作人和创作者密切合作,整合他们的反馈。当下,无论是 Runway、Sora,还是最新的 Meta AI,都在飞速发展,起码和一年前的生成效果比较起来,可以看到肉眼可见的进步。AI 技术对人们生活的影响,不一定会在第一时间显现出来,当大家还都在探讨 AI「有什么用」的时候,那它对于大多数人的最大意义,就是多了一个好用的工具、一个好玩儿的玩具:无论一个人是希望在好莱坞大展身手的电影制作人,还是喜欢为观众制作视频的创作者,我们都相信每个人都应该有机会使用有助于提高创造力的工具。