阿里(li)巴巴周(zhou)四在声明中,该企业发布(bu)了(le)最新的开源人工(gong)智能模型,只需要提供两(liang)张照片作为首帧和尾帧便能自动生成视频。该模型基于该企业的Wan2.1基础模型架构,为短视频创编辑(zhe)提供了(le)更高的创作自由度。这(zhe)款被称为Wan2.1-FLF2V-14B的模型可在HuggingFace、GitHub以及阿里(li)云的魔搭社区找(zhao)到。用户可在通义万(wan)相官网上免费制作时(shi)长(chang)5秒(miao)的视频。