# 前言
当大家开始享受 10 月 1 号的黄金假期时,Sora 2 就这么突然地震撼发布了。它的发布毫无预兆,在此之前 Sora 的讨论度也远不比其他热门的视频生成模型,但 Sora 2 一经发布却再次引爆了全世界对 AI 视频生成的热潮。在我大致体验了 Sora 2 的感受来看,Sora 2 的火爆不仅仅是因为它是 OpenAI 的全新作品,Sora 2 的高完成度、简易性以及大量可生成内容更加体现出 OpenAI 在人工智能领域拥有更多的经验和充足的训练数据 —— 这是目前绝大部分 AI 生成模型所无法做到的。
在此之前,我乐此不疲地享受了 Wan2.2 给我带来的乐趣。说实话,当我第一次在本地部署 Wan2.2 后其丰富的动态效果给我带来了不少震撼,所以我一直想写一个有关 AI 视频生成模型的文章。但我再怎么也没有意识到,在 Veo3 和正在付费测试 Wan2.5 以外,一款使用几乎 0 成本、操作简单的 Sora 2 就这么突然横空出世了。你只需要从其他已经成功注册了 Sora 的用户那获得邀请码,就能随时随地使用 Sora 2 创作心中所想的画面。
# 生成画面预览
我尝试用 Sora 2 生成了一些现实风格的视频以及模仿了一些动漫预告 PV 来做了测试。对于一些知名动画来说,不需要很明显的提示词就能准确生成出对应的角色。例如:
模仿动漫 游戏人生 生成一个它的第二季预告pv |
预览一
预览二
预览三
生成一个有关fate stay night saber线动漫预告pv |
预览一
预览二
模仿动漫 ぼっち・ざ・ろっく!生成一个它的第二季预告pv |
预览
通过一些详细描述场景的自然语言提示词,也可以做到生成以下场景:
生成一段模仿fate动漫画风的动漫,配音为日语 出场角色为saber, 以下为分镜: (背景为夜晚正在下雨的城市,镜头从saber坚定的双眼开始拉远到正好能看到她上半身的距离) saber用双手举起湖中剑(saber持剑的姿势应该是剑刃朝上),释放出一阵蓝色风场。随后湖中剑的剑刃爆发出金光。最后saber大喊:Excalibur! |
预览
但比较可惜的是,尽管 Sora 2 对 Fate 角色和画风有足够多的数据训练(甚至还可以让它生成出老 Fate 的画风),但就不知道为什么像咖喱棒这种武器却无法精确地生成出来。我试过了用 “湖中剑”“石中剑” 以及 “Excalibur” 都无法精确生成。看起来 Sora 的动漫训练数据更注重与角色的声音和画风,而不是物件。
我还尝试了只输入一段简单的提示词来生成一些比较新的动漫,但效果都不怎么好。例如《别当欧尼酱了!》,真寻和动漫的画风以及角色的声音都能完美复现,但其他角色基本上就是剧中角色大融合。应该需要用户输入更详细的角色描述来生成。最新的动漫就完全不在训练数据当中了(这是当然的!),网络上那些通过 Sora2 生成的新番画面大多数都导入了图片进行了图生视频,完全依靠提示词应该是不行的,并且角色的声音也对不上。
我还尝试用 Sora2 生成过三次元视频,例如:
一个中国bilibili的动漫区美女up主拍摄了介绍萌趣MOEQY的视频。她着重讲解了萌趣作为一个MqyGalaxy的个人站点,可以浏览有趣的博客文章和一些个人项目。她在讲解的途中顺带展示了这张网站截图(上传的图片)。她说的话都有对应正确的字幕,右上角有她账号的bilibili水印。 |
实际效果就不发了,怕容易引起误导。但 Sora 2 的亮点确能完美体现在这里:无论时虚拟角色的体态、言语,甚至视频字幕(虽然有时候会瞎填)和 b 站 up 主水印都能完全生成出来,这个效果确实太强了。感兴趣的话可以复制这个提示词外加一张小站的截图到 Sora2 看看效果。
# 狂欢过后,便是索然无味
在我高强度地玩了一个下午的 Sora 2 后,我不得不说:相较于 Wan2.2 等一些本地部署要求极高的模型来说,Sora 2 更像是抖音一样的社交媒体,用户只需要在手机上打开 Sora APP 输入提示词就能让自己的想法变成画面,然后就能上传到 Sora 应用自带的社交平台上供其他人观赏。对于我来说,相较于大多数人在创作的角度担心使用 Sora 2 会不会造成一些道德隐患问题,更让我感到的是这样毫无付出的创意实现过程仅仅只是昙花一现,新鲜感一过便再也没有去特意打开过 Sora 2 了。但又对于自己图一乐的角度来说,Wan2.2 这种本地部署且没有限制的模型才更能让人玩出花来。更何况随着开源模型的不断进化,尽管可能存在数据训练上的不足,但实际效果和社区的创意发展肯定是会比这些闭源模型更加丰富。
AI 生成式工具,最终也只能仅仅作为玩具以及创作工具存在。它并不能成为创作本身,因为创作最重要的还是人在其中的互动和付出。