3月(yue)26日,一场关乎AI未来的全球对话,在博鳌亚洲论坛的现场激烈交锋。官方图
DeepSeek的横空出世,吸引了全球的目光聚焦于中国。随(sui)着AI技术(shu)的“狂飙式”发展,与之相(xiang)伴的安全问题也引起市场广泛(fan)担忧。3月(yue)26日,一场关乎AI未来的全球对话,在博鳌亚洲论坛的现场激烈交锋。
针对通过标准能否解(jie)决人工智能的安全性(xing)问题,与会嘉(jia)宾给出了不(bu)同的见解(jie), vivo首席安全官鲁京辉(hui)表示,安全性(xing)问题不(bu)能简单地通过制定法律或规则来解(jie)决,而是(shi)需要形(xing)成(cheng)共识,但光有共识还不(bu)够(gou),因为(wei)这(zhe)还涉及地缘政(zheng)治、全球化(hua)等(deng)问题。
中国科学院自动化(hua)研究所研究员(yuan)、联合国人工智能高层顾问机构专家曾毅也表达了类似的观点。他认为(wei),由于很多安全和风险问题是(shi)不(bu)可(ke)预知(zhi)的,对于不(bu)可(ke)预知(zhi)的部分大家需要一直(zhi)保持警惕。
中国工程(cheng)院院士、清华(hua)大(da)学智能产业研究院(AIR)院长张亚勤则认为(wei),从可(ke)控性(xing)和可(ke)信度方面,技术(shu)是(shi)可(ke)以解(jie)决信息安全的。“对于风险,大家需要定义一些红线和边界,因为(wei)技术(shu)不(bu)断发展,有了边界之后大家是(shi)可(ke)以解(jie)决的,如果完全没(mei)有边界,只谈(tan)一些大(da)的原则,谈(tan)一些具体方案是(shi)比(bi)较困难的。”
张亚勤:DeepSeek是(shi)近两(liang)年来人工智能领(ling)域(yu)最大(da)的创新
“今年以前,大家没(mei)有想到(dao)会发生(sheng)这(zhe)么大(da)的变化(hua),AI已经走向AI Agent(智能体)阶段。”张亚勤坦言(yan),DeepSeek是(shi)近两(liang)年来人工智能领(ling)域(yu)最大(da)的、系统性(xing)、规模性(xing)的创新,也是(shi)中国对全球的重要贡献。
张亚勤表示,AI已从信息智能走向无人驾驶、机器(qi)人等(deng)物理智能,也走向人脑接口、生(sheng)物体大(da)模型(xing)等(deng)生(sheng)物智能。他认为(wei),无人驾驶是(shi)具身智能最大(da)的应用(yong),也是(shi)第一个能够(gou)真正落地的方向,而人形(xing)机器(qi)人还需要更长时间。
谈(tan)及AI Agent广泛(fan)应用(yong)后的风险时,张亚勤指(zhi)出,相(xiang)关安全风险至少要增加一倍。“智能体是(shi)很好的技术(shu),能够(gou)自我规划、学习、试错并达到(dao)目的,是(shi)非常好的工具,但在其(qi)运(yun)行过程(cheng)中,中间路(lu)径(jing)不(bu)可(ke)控。“虽然智能算法并非完全的黑盒子,但很多运(yun)行机理大家并不(bu)清楚。”
张亚勤表示,风险主要表现为(wei)两(liang)大(da)方面,一种是(shi)可(ke)控风险,一种是(shi)被坏人所利(li)用(yong)的风险。“另外,大家用(yong)智能体的时候(hou)需要设置一些红线,比(bi)如智能体不(bu)能自我复制。确实能力越大(da),带来的风险越高,特别是(shi)AI从信息智能到(dao)物理智能再到(dao)生(sheng)物智能,风险会增加很多倍。”
曾毅:人工智能的发展和安全不(bu)是(shi)相(xiang)互掣肘的关系
伴随(sui)着人工智能的发展,业内对其(qi)创新与治理的态度经历了显著转变。在去年的博鳌亚洲论坛上,业内更多聚焦人工智能的发展前景及趋势,今年论坛将目光瞄准了更深层次的问题,人工智能的应用(yong)与治理。
“去年全世界的科学家对于如何构建安全护栏是(shi)不(bu)知(zhi)道答案的。彼时,多位全球学者自愿签署叫停人工智能6个月(yue)的发展倡议。但是(shi)经过了半年多一年的探索,大家已经有了初步答案,人工智能的发展应用(yong)和安全之间的关系不(bu)是(shi)相(xiang)互掣肘的关系。”曾毅表示。
曾毅认为(wei),人工智能、大(da)模型(xing)能力的提高并不(bu)代表安全能力就好。他表示,现在很多人工智能大(da)模型(xing),包括国内的人工智能大(da)模型(xing),在认知(zhi)问题求解(jie)能力上与GPT系列在同一水(shui)平上,但在伦理框架上还有提升空间。
“今年伦理安全应该作(zuo)为(wei)人工智能大(da)模型(xing)发展的基(ji)因,应该作(zuo)为(wei)第一性(xing)原理,不(bu)可(ke)删除,不(bu)可(ke)违背,同时做到(dao)稳健发展。”曾毅表示。
“不(bu)要让人工智能完全代替(ti)人的决策,一定要让决策权利(li)在人类手中,这(zhe)是(shi)当(dang)代人工智能应用(yong)时大家必须注(zhu)意的问题。”曾毅强调。
江小涓:过去多年AI治理方面的进(jin)展有限
“前面两(liang)位科学家都比(bi)较乐观地表达了人工智能由于技术(shu)的发展,它的安全问题可(ke)能会有比(bi)较好的解(jie)决,我一方面同意这(zhe)个判断,但是(shi)另一方面我认为(wei)技术(shu)发展会带来新的问题。”中国社会科学院大(da)学教授、国务院原副(fu)秘书长江小涓表示。
江小涓表示,过去多年AI治理方面的进(jin)展有限。“从十年前阿西洛马(ma)人工智能原则提出一直(zhi)到(dao)现在,这(zhe)个原则已经讨论十年了,一个月(yue)前巴黎AI峰(feng)会依旧是(shi)继承了过去喊的这(zhe)些原则。这(zhe)些原则落地非常有限,如何落地、如何实践是(shi)最大(da)的挑战。”
从经济学家角度来看,江小涓表示,技术(shu)是(shi)不(bu)是(shi)可(ke)以接受主要关注(zhu)两(liang)个标准,第一,能不(bu)能带来生(sheng)产力的提高,使其(qi)创造更多的财富。第二,(技术(shu))发展的结果能不(bu)能被比(bi)较公平地分享(xiang)。“从这(zhe)两(liang)个原则来讲(jiang),AI的发展肯定是(shi)提高劳动生(sheng)产率了,但第二个问题是(shi)不(bu)是(shi)能够(gou)比(bi)较好地被社会所有成(cheng)员(yuan)分享(xiang),从经济学角度上体现为(wei)就业是(shi)不(bu)是(shi)充分?分配是(shi)不(bu)是(shi)公平?如果这(zhe)两(liang)个问题不(bu)能解(jie)决的话,大家有什(shi)么替(ti)代政(zheng)策?”
江小涓认为(wei),(AI对)就业的冲击必定会出现。“大家应该有新的社会保障政(zheng)策来实行它,而不(bu)是(shi)一再重复那些不(bu)能落地的原则。”
新京报贝壳财经记者 胡(hu)萌 编辑 王进(jin)雨(yu) 校对 柳宝庆