从“演”迈向“导”,阿里发布Wan2.7-Video视频生成系列模型
来源: 紫牛新闻
2026-04-03 16:07:00
4月3日,阿里巴巴发布Wan2.7-Video视频生成系列模型,涵盖文生视频、图生视频、参考生视频和视频编辑四大模型,拥有全面的创作控制力,将AI的能力从单一素材生成扩至创作全链路,从“演”迈向“导”。
近年来,AI生视频在画质上持续进步,但在叙事、剧情可控性和后期编辑灵活度上存在短板,距离影视级创作工具仍有距离。由四个专业模型组成的万相2.7试图补齐这些能力,全新发布的文生视频(Wan2.7-t2v)、图生视频(Wan2.7-i2v)、参考生视频(Wan2.7-r2v)和视频编辑(Wan2.7-videoedit)分别对应从零创作、画面控制、演绎复刻到精细编辑的完整工作流,实现文本、图像、视频、音频全模态输入的统一创作体系,全系列支持720P和1080P分辨率输出,视频时长可在2至15秒范围内任意指定。
一句话轻松改视频
直击影片后期修改成本高昂这一痛点,Wan2.7-Video的视频编辑能力引人注目,一句话即可对视频进行局部或整体修改。比如添加、删除和替换元素、切换场景环境(如将晴天改为雨天、夏季改为冬季),以及变换整体视觉风格(如写实转水彩、真人转黏土动画)。
更进一步,融合了编辑和生成能力,Wan2.7-Video在剧情控制上展现出强大的灵活性。角色的行为、表情和情绪均可调整,角色台词亦可替换并自动匹配口型与音色。拍摄方式也可重新定义,包括机位、视角、景别和焦距等参数,在同一时空下呈现截然不同的观影体验。黑白上色、老片修复等实用功能还可进一步提升视频质量。
在参考生视频上,模型支持动作、运镜和特效的快速复刻。用户可输入图像、视频和音频多模态,参考锁定角色的外观和音色、精准迁移人物动作,即便是大幅度的复杂动作也能稳定还原。最多支持5个视频主体参考,为业内最多。
图二 Wan2.7-Video的视频编辑能力大幅提升,一句话即可对视频进行局部或整体修改。
从素材生成到成片创作
Wan2.7-Video全面的控制能力得益于全能的创作能力。只需一段简短的文字描述,即可实现智能剧本创作和分镜调度,编排剧情节奏、设计镜头语言并安排场景转换。从试探戏、谈判戏到武打戏、战争戏,从悬疑追踪到校园喜剧,均可演绎。在运镜方面,Wan2.7-Video支持数十种基础运镜和复杂的组合运镜方案,包括希区柯克式变焦、360度环绕、FPV无人机俯冲、一镜到底等高难度镜头语言,并能与剧情内容紧密配合,强化叙事张力。
为解决AI视频在叙事连贯性上的短板,Wan2.7-Video引入了视频续写与尾帧控制的联合机制。创作者可以在续写视频的同时指定结尾画面,既保证了动态的延续性,又实现了对画面结构的精准把控,有效消除了传统首尾帧方案中常见的“刹车感”。
Wan2.7-Video在视觉风格和声音控制上也有所突破,可延展出上千种风格组合,覆盖2D卡通、3D动画、水墨、黏土、赛璐璐等多种视觉语言。得益于通义实验室语音团队在音频预训练、音频数据、音频理解方面的技术积累,声音的真实感、自然度、音乐旋律和音画同步的质量进一步提升。
从Wan2.1到最新的Wan2.7,从实现大幅度复杂动作、音画同步、15秒时长到精准的视频指令编辑,万相视频家族的创作能力逐步升级,持续为影视制作、广告创意、内容创作等行业提升生产力。
即日起,用户可在https://tongyi.aliyun.com/wan/、wan.video网站和阿里云百炼体验Wan2.7,千问App也即将接入。
通讯员 玉蕾 扬子晚报/紫牛新闻记者 徐晓风
校对 陶善工