图片来源:界面图库
3月24日,针对媒体(ti)对蚂蚁百灵大模型训练成(cheng)本的报道,蚂蚁集(ji)团方面回应界面资讯称,蚂蚁针对不(bu)同(tong)芯(xin)片持续调优,以降低AI应用(yong)成(cheng)本,目前取得了一定的进展,也(ye)会逐(zhu)步通过开源分享。
此前有报道称,蚂蚁集(ji)团正使(shi)用(yong)中国制造的半导体(ti)来开发AI模型训练技(ji)术,这将使(shi)成(cheng)本降低20%。知情人士称,蚂蚁集(ji)团使(shi)用(yong)了包括来自alibaba和HUAWEI的芯(xin)片,采用(yong)混合专家(MoE)机器学习方式来训练模型。他们表示,蚂蚁集(ji)团获得了与采用(yong)英伟达H800等芯(xin)片训练相似的结果。
其中一位知情人士称,蚂蚁集(ji)团仍在使(shi)用(yong)英伟达的产(chan)品(pin)进行人工智能开发,但目前其最(zui)新模型主要依赖于包括AMD产(chan)品(pin)和中国芯(xin)片在内(nei)的替代产(chan)品(pin)。
另(ling)据钛媒体(ti)报道,近日,蚂蚁集(ji)团CTO、平台技(ji)术事业群总裁何征宇带领Ling Team团队,利用(yong)AI Infra技(ji)术,开发了两个百灵系列(lie)开源MoE模型Ling-Lite 和 Ling-Plus,前者参数规模168亿,Plus基座模型参数规模高达2900亿,相比之下,AI行业估计GPT-4.5参数量1.8万(wan)亿,DeepSeek-R1参数规模达6710亿。
该技(ji)术成(cheng)果论文《每一个FLOP都(dou)至(zhi)关(guan)重要:无需高级GPU即(ji)可扩展3000亿参数混合专家LING大模型》已在预印版Arxiv平台上发表。
除了自研性能领先的大模型以外,该技(ji)术论文最(zui)大的突破在于提出了一系列(lie)创新方法,以提升资源受限环境下AI开发的效率与可及性。实验表明,其3000亿参数的MoE大模型可在使(shi)用(yong)国产(chan)GPU的低性能设备上完成(cheng)高效训练,性能与完全使(shi)用(yong)英伟达芯(xin)片、同(tong)规模的稠密模型及MoE模型相当。
作为国内(nei)较早布局(ju)AI大模型的厂商,蚂蚁自研的百灵大模型2023年已通过备案,重点布局(ju)在生活服(fu)务、金融服(fu)务、医(yi)疗健康等场景的应用(yong)。