3月(yue)26日,一场关乎AI未来的全球(qiu)对话,在博鳌亚洲论坛的现(xian)场激烈(lie)交锋。官方图
DeepSeek的横空出世,吸引了(le)全球(qiu)的目(mu)光聚焦于中(zhong)国。随着AI技术的“狂(kuang)飙式”发展,与之相伴的安全问题也引起市场广泛担忧。3月(yue)26日,一场关乎AI未来的全球(qiu)对话,在博鳌亚洲论坛的现(xian)场激烈(lie)交锋。
针对通过标准能(neng)否解决(jue)人工智能(neng)的安全性问题,与会嘉(jia)宾给出了(le)不同的见(jian)解, vivo首席安全官鲁京辉表示,安全性问题不能(neng)简单地通过制定法律或规则来解决(jue),而是需要形成共识,但光有共识还不够,因为这还涉及(ji)地缘政治、全球(qiu)化等问题。
中(zhong)国科学院自动化研究所(suo)研究员、联合国人工智能(neng)高层顾(gu)问机构专(zhuan)家曾毅也表达了(le)类似(si)的观点。他认为,由于很多安全和风险问题是不可(ke)预(yu)知的,对于不可(ke)预(yu)知的部分大家需要一直保持警惕。
中(zhong)国工程院院士、清(qing)华大学智能(neng)产业研究院(AIR)院长张亚勤则认为,从可(ke)控性和可(ke)信度方面,技术是可(ke)以解决(jue)信息安全的。“对于风险,大家需要定义(yi)一些红(hong)线和边(bian)界,因为技术不断(duan)发展,有了(le)边(bian)界之后大家是可(ke)以解决(jue)的,如(ru)果完全没有边(bian)界,只谈一些大的原则,谈一些具(ju)体方案是比较(jiao)困难(nan)的。”
张亚勤:DeepSeek是近两(liang)年来人工智能(neng)领域最大的创新
“今年以前(qian),大家没有想到会发生(sheng)这么大的变化,AI已经走向AI Agent(智能(neng)体)阶段。”张亚勤坦言,DeepSeek是近两(liang)年来人工智能(neng)领域最大的、系统性、规模性的创新,也是中(zhong)国对全球(qiu)的重要贡献。
张亚勤表示,AI已从信息智能(neng)走向无人驾(jia)驶、机器人等物理智能(neng),也走向人脑(nao)接口、生(sheng)物体大模型等生(sheng)物智能(neng)。他认为,无人驾(jia)驶是具(ju)身智能(neng)最大的应用,也是第一个能(neng)够真正落地的方向,而人形机器人还需要更(geng)长时间。
谈及(ji)AI Agent广泛应用后的风险时,张亚勤指出,相关安全风险至少要增加一倍。“智能(neng)体是很好的技术,能(neng)够自我规划、学习、试错并达到目(mu)的,是非常好的工具(ju),但在其运行过程中(zhong),中(zhong)间路径不可(ke)控。“虽然(ran)智能(neng)算法并非完全的黑盒子,但很多运行机理大家并不清(qing)楚。”
张亚勤表示,风险主要表现(xian)为两(liang)大方面,一种(zhong)是可(ke)控风险,一种(zhong)是被坏人所(suo)利用的风险。“另外,大家用智能(neng)体的时候(hou)需要设置一些红(hong)线,比如(ru)智能(neng)体不能(neng)自我复制。确实能(neng)力越(yue)大,带来的风险越(yue)高,特别是AI从信息智能(neng)到物理智能(neng)再到生(sheng)物智能(neng),风险会增加很多倍。”
曾毅:人工智能(neng)的发展和安全不是相互掣肘的关系
伴随着人工智能(neng)的发展,业内对其创新与治理的态(tai)度经历了(le)显著转(zhuan)变。在去年的博鳌亚洲论坛上,业内更(geng)多聚焦人工智能(neng)的发展前(qian)景及(ji)趋势,今年论坛将目(mu)光瞄准了(le)更(geng)深层次的问题,人工智能(neng)的应用与治理。
“去年全世界的科学家对于如(ru)何构建安全护栏是不知道答案的。彼时,多位全球(qiu)学者自愿签署叫停人工智能(neng)6个月(yue)的发展倡议。但是经过了(le)半年多一年的探索,大家已经有了(le)初步答案,人工智能(neng)的发展应用和安全之间的关系不是相互掣肘的关系。”曾毅表示。
曾毅认为,人工智能(neng)、大模型能(neng)力的提高并不代表安全能(neng)力就好。他表示,现(xian)在很多人工智能(neng)大模型,包括国内的人工智能(neng)大模型,在认知问题求解能(neng)力上与GPT系列在同一水(shui)平上,但在伦(lun)理框架上还有提升空间。
“今年伦(lun)理安全应该作为人工智能(neng)大模型发展的基因,应该作为第一性原理,不可(ke)删除,不可(ke)违背,同时做到稳(wen)健发展。”曾毅表示。
“不要让(rang)人工智能(neng)完全代替人的决(jue)策(ce),一定要让(rang)决(jue)策(ce)权利在人类手中(zhong),这是当代人工智能(neng)应用时大家必须注意的问题。”曾毅强调。
江小涓:过去多年AI治理方面的进展有限
“前(qian)面两(liang)位科学家都比较(jiao)乐观地表达了(le)人工智能(neng)由于技术的发展,它的安全问题可(ke)能(neng)会有比较(jiao)好的解决(jue),我一方面同意这个判断(duan),但是另一方面我认为技术发展会带来新的问题。”中(zhong)国社会科学院大学教授、国务院原副秘书长江小涓表示。
江小涓表示,过去多年AI治理方面的进展有限。“从十年前(qian)阿西洛马人工智能(neng)原则提出一直到现(xian)在,这个原则已经讨论十年了(le),一个月(yue)前(qian)巴(ba)黎AI峰会依旧是继承了(le)过去喊的这些原则。这些原则落地非常有限,如(ru)何落地、如(ru)何实践是最大的挑战。”
从经济学家角度来看,江小涓表示,技术是不是可(ke)以接受主要关注两(liang)个标准,第一,能(neng)不能(neng)带来生(sheng)产力的提高,使其创造更(geng)多的财富。第二,(技术)发展的结果能(neng)不能(neng)被比较(jiao)公(gong)平地分享。“从这两(liang)个原则来讲(jiang),AI的发展肯定是提高劳动生(sheng)产率了(le),但第二个问题是不是能(neng)够比较(jiao)好地被社会所(suo)有成员分享,从经济学角度上体现(xian)为就业是不是充分?分配是不是公(gong)平?如(ru)果这两(liang)个问题不能(neng)解决(jue)的话,大家有什么替代政策(ce)?”
江小涓认为,(AI对)就业的冲击必定会出现(xian)。“大家应该有新的社会保障(zhang)政策(ce)来实行它,而不是一再重复那些不能(neng)落地的原则。”
新京报贝壳财经记者 胡萌(meng) 编辑 王进雨 校对 柳(liu)宝庆