3月27日,观察者(zhe)网与中国互联网治理论坛(中国IGF)共同举(ju)办了最新一期的科创类谈话节目《心智对话》,主题为“AI与国运(yun):技术跃迁、产业革新背景下的全(quan)球治理”。
在对话中,中国科学院自动化研究所研究员、人工智能安全(quan)与超级对齐北京(jing)市重点实验室主任(ren)、联合国人工智能顾(gu)问机构(gou)专家曾毅提到了他与已故美国前国务卿基辛格的一段交流。
中国科学院自动化研究所研究员、人工智能安全(quan)与超级对齐北京(jing)市重点实验室主任(ren)、联合国人工智能顾(gu)问机构(gou)专家曾毅 观察者(zhe)网
曾毅回忆说(shuo),在基辛格最后一次访华期间,曾经问中方对AI安全(quan)是否足够重视。曾毅提出,美方团队可(ke)以(yi)先列出3个(ge)AI安全(quan)风险,他的团队后列。在曾毅方面也列出3个(ge)不重复的风险后,基辛格赞(zan)叹:“你们说(shuo)得(de)很好”,“看来并非美国的技术发(fa)展在前,对安全(quan)的认知(zhi)也就一定走在中国前面。”
曾毅说明说(shuo),他国关心中方对技术安全(quan)的认知(zhi),正是基于共护安全(quan)、共享发(fa)展的逻辑(ji)。除了发(fa)展的能力、应用的能力,安全(quan)也是能力建(jian)设的重要维(wei)度(du)。
他表示,对AI的治理从来不会影响其发(fa)展进程,而(er)是以(yi)护航者(zhe)的角色避免AI“野(ye)蛮生(sheng)长”。同样(yang),注重AI安全(quan)也不会影响其发(fa)展。
在曾毅看来,所谓“平衡安全(quan)和发(fa)展”的说(shuo)法存在问题。“平衡是相互掣肘的意(yi)思,好似在说(shuo),注重安全(quan),发(fa)展必(bi)然受阻。”
但(dan)是根据曾毅团队近期的实验,人工智能大模型完全(quan)可(ke)以(yi)在几乎不影响问题解决正确率的前提下,将安全(quan)属性提升20%-30%。
“如果是真正的发(fa)展,治理安全(quan)会推进这种稳健(jian)的发(fa)展;如果你认为受到了治理的影响,可(ke)能那本身(shen)就是一种野(ye)蛮的尝试。”曾毅说(shuo)。