Wan-Move - 阿里通义联合清华等开源的AI视频生成框架

Wan-Move是阿里通义实验室、清华大学等机构联合开发的开源AI视频生成框架,专注于通过精准运动控制技术实现高质量视频合成。核心技术是"潜在轨迹引导",能在现有图像到视频模型基础上无缝添加点级运动控制,支持5秒480P视频生成,运动控制精度超越主流开源方案22.5%。框架无需修改基础模型架构,通过复制第一帧特征到后续帧实现运动注入,适用于单目标、多目标及复杂场景(如多人互动、物体交互),并在MoveBench基准测试中取得FID 12.2、EPE 2.6的顶尖性能。用户可通过ComfyUI插件或云端平台体验,模型已在GitHub开源。Wan-Move - 阿里通义联合清华等开源的AI视频生成框架

>>展开阅读