作者团队介绍:本文作者主要来自腾讯 AI Lab,作者分别是曾爱玲,腾讯 AI 资深研究员;来自中科大的杨雨航,主要研究方向是人与物互动的理解与生成;陈卫东,腾讯 AI 资深研究员;刘威,腾讯杰出科学家,IEEE fellow。最近,腾讯 AI Lab 联合中科大发布了一份针对类 SORA 视频生成模型的测评报告,重点聚焦目前最前沿的类 SORA DiT 架构的高质量视频生成闭源模型,产品以及部分开源模型评估,从技术上,这些模型相较于之前 Stable Diffusion 类的视频模型不仅全面提升了画质,还在动作自然度和多样性、视觉 - 语言对齐以及控制精度上做出了显著进步,测评涵盖了从文生视频(T2V)、图生视频(I2V)以及视频到视频(V2V)生成模型全面能力评估,甚至连前几天刚更新的 pika1.5 特效以及 Meta 公布的 Movie Gen 都加进来了!为了更加系统全面地测试,作者团队从多个维度系统地设计了 700 多个生成提示词和图片,分别从 1) 视频垂类场景,2) 多个客观评价角度,3) 十大视频应用场景以及用户需求等角度,从基础能力到应用和落地能力多方面进行了测试设计,评估了 13 个主流模型(包括 10 个闭源和 3 个最新开源模型),生成了超过 8000 个视频案例,以多模型对比可视化地形式直观展示生成效果,帮助大家更好地理解现在模型的能力与不足,作者强调需要关注各个维度的实际例子的比较,而不仅仅是一个数值指标。 图一:视频生成的多维度测评一览
论文题目:The Dawn of Video Generation: Preliminary Explorations with SORA-like Models