新京报贝壳财经讯(记者罗(luo)亦丹)“相信(xin)我,这是你能用到的最强大的视觉生成模型。”4月15日,快手高级(ji)副总裁、社区科学线负责人盖坤在可灵2.0模型发布(bu)会上说(shuo)。
这是在可灵1.0发布(bu)10个月后,快手方(fang)面对可灵全系模型的一(yi)次重要升级(ji),包括文生图视频“可图大模型2.0”,以及视频生成大模型“可灵大模型2.0”。盖坤先容,可灵2.0模型在动(dong)态质量、语义响应、画面美学等维度,保持全球领(ling)先(xian);可图2.0模型在指(zhi)令遵(zun)循、影片(ying)质感(gan)及艺(yi)术风格(ge)表现等方(fang)面显著提升。
贝壳财经记者注意到,可灵2.0还上线了一(yi)种可以将文字、图片、短视频甚至MMW等不(bu)同格(ge)式文件结合起来(lai)一(yi)起编辑(ji)的新交互模式“MVL(Multi-modal Visual Language直译为多模态视觉语言)”。
据了解,当前视频生成主要分(fen)文生视频和图生视频两种,快手副总裁、可灵AI负责人张迪就披露,85%的视频创作通过图生视频完成。有AI创编辑告诉记者,当前业界(jie)主流的视频制作方(fang)式是首先(xian)通过文字生成图片,再(zai)通过图片生成视频。
而在盖坤的演示中,通过MVL方(fang)式,用户能够结合图像参考、视频片段等多模态信(xin)息,将脑海中的多维度复(fu)杂(za)创意传达给AI,而不(bu)仅仅是文字的提示语句。如下图所(suo)示,用户使(shi)用AI生成视频时(shi),在提示词中也(ye)可以夹带图片或(huo)视频。
快手高级(ji)副总裁、社区科学线负责人盖坤演示多模态交互方(fang)式。新京报贝壳财经记者罗(luo)亦丹/摄
“大家的理念(nian)是致力(li)于研(yan)发很(hen)强大的基础(chu)模型,同时(shi)致力(li)于定义一(yi)个人和AI更完备的沟通方(fang)式,而这背后,大家的愿景(jing)是让每个人都能用AI讲出好故事,希翼这个愿望早日成真。”盖坤说(shuo)。
编辑(ji) 陈莉 校(xiao)对 柳宝庆