必一运动·(B-sports)官方网站

业界动态
成本降低20% ?蚂蚁集团回应自研大模型训练降本,Ling,芯片,参数
2025-03-26 06:09:54
成本降低20% ?蚂蚁集团回应自研大模型训练降本,Ling,芯片,参数

图片来源:界面图库

3月24日,针对媒体(ti)对蚂蚁百灵大模型训练成(cheng)本的报道,蚂蚁集(ji)团方面回应界面资讯称,蚂蚁针对不(bu)同(tong)芯(xin)片持续调优,以降低AI应用(yong)成(cheng)本,目前取得了一定的进展,也(ye)会逐(zhu)步通过开源分享。

此前有报道称,蚂蚁集(ji)团正使(shi)用(yong)中国制造的半导体(ti)来开发AI模型训练技(ji)术,这将使(shi)成(cheng)本降低20%。知情人士称,蚂蚁集(ji)团使(shi)用(yong)了包括来自alibaba和HUAWEI的芯(xin)片,采用(yong)混合专家(MoE)机器学习方式来训练模型。他们表示,蚂蚁集(ji)团获得了与采用(yong)英伟达H800等芯(xin)片训练相似的结果。

其中一位知情人士称,蚂蚁集(ji)团仍在使(shi)用(yong)英伟达的产(chan)品(pin)进行人工智能开发,但目前其最(zui)新模型主要依赖于包括AMD产(chan)品(pin)和中国芯(xin)片在内(nei)的替代产(chan)品(pin)。

另(ling)据钛媒体(ti)报道,近日,蚂蚁集(ji)团CTO、平台技(ji)术事业群总裁何征宇带领Ling Team团队,利用(yong)AI Infra技(ji)术,开发了两个百灵系列(lie)开源MoE模型Ling-Lite 和 Ling-Plus,前者参数规模168亿,Plus基座模型参数规模高达2900亿,相比之下,AI行业估计GPT-4.5参数量1.8万(wan)亿,DeepSeek-R1参数规模达6710亿。

该技(ji)术成(cheng)果论文《每一个FLOP都(dou)至(zhi)关(guan)重要:无需高级GPU即(ji)可扩展3000亿参数混合专家LING大模型》已在预印版Arxiv平台上发表。

除了自研性能领先的大模型以外,该技(ji)术论文最(zui)大的突破在于提出了一系列(lie)创新方法,以提升资源受限环境下AI开发的效率与可及性。实验表明,其3000亿参数的MoE大模型可在使(shi)用(yong)国产(chan)GPU的低性能设备上完成(cheng)高效训练,性能与完全使(shi)用(yong)英伟达芯(xin)片、同(tong)规模的稠密模型及MoE模型相当。

作为国内(nei)较早布局(ju)AI大模型的厂商,蚂蚁自研的百灵大模型2023年已通过备案,重点布局(ju)在生活服(fu)务、金融服(fu)务、医(yi)疗健康等场景的应用(yong)。

最新资讯
  • 涉县西达镇
  • 靖西县新靖镇
  • 秦州区汪川镇
  • 新民市大柳屯镇
  • 从江县宰便镇
  • 沭阳县耿圩镇
  • 介休市连福镇
  • 金湖县吕良镇
  • 云龙县白石镇
  • 天等县天等镇
  • 平山县
  • 清城区凤城街
  • 红花岗区长征镇
  • 榆次区新华街街
  • 峰峰矿区界城镇
  • 吴川市中山镇
  • 蒙山县陈塘镇
  • 峨山彝族自治县塔甸镇
  • 宁强县
  • 云岩区中山西路街
  • 河南中青综合资讯
  • 游戏百科综合资讯
  • 快云游综合资讯
  • 快云综合资讯
  • 久诚汽车资讯
  • 癫痫百科
  • 体育百科资讯
  • App百科资讯
  • sitemapsitemap1sitemap2sitemap3sitemap4sitemap5sitemap6sitemap7
    XML 地图 | Sitemap 地图