视频生成质量超越Sora!

阿里万相大模型首次开源

2025-02-26

本报讯(记者 庄郑悦)昨天晚上10点,阿里云旗下视觉生成基座模型万相2.1(Wan)开源,此次开源采用最宽松的Apache2.0协议,14B和1.3B两个参数规格的所有推理代码和权重全部开源,同时支持文生视频和图生视频任务,全球开发者可在Github、HuggingFace和魔搭社区下载体验。

据介绍,14B万相模型在指令遵循、复杂运动生成、物理建模、文字视频生成等方面表现突出,在权威评测集VBench中,万相2.1以总分86.22%的成绩大幅超越Sora、Luma、Pika等国内外模型,稳居榜首。1.3B版本测试结果不仅超过了更大尺寸的开源模型,甚至还和一些闭源的模型结果接近,同时能在消费级显卡运行,仅需8.2GB显存就可以生成高质量视频,适用于二次模型开发和学术研究。同时,通过将空间降采样压缩提前,在不损失性能的情况下减少了29%的推理时的内存占用。

万相团队的实验结果显示,在运动质量、视觉质量、风格和多目标等14个主要维度和26个子维度测试中,万相均达到了业界领先表现,并且斩获5项第一。尤其在复杂运动和物理规律遵循上的表现上大幅提升,万相能够稳定展现各种复杂的人物肢体运动,如旋转、跳跃、转身、翻滚等,能够精准还原碰撞、反弹、切割等复杂真实物理场景。

从2023年开始,阿里云就坚定大模型开源路线,其千问(Qwen)衍生模型数量已超过10万个,是全球最大的AI模型家族。随着万相的开源,阿里云实现了全模态、全尺寸大模型的开源。