不久(jiu)前,某机场出现一张由(you)人工智能(neng)(以下简称“AI”)生成的广告画面,因人物主体(ti)有(you)六根手指引发热议。这一失误(wu)看似荒诞,却也(ye)揭示出“AI幻觉”的问题。
当算(suan)法能(neng)够驱(qu)动内容生产,AI迅速响应用(yong)户指令,生成各类文本、图像和音视频内容,“一键生成”带来的快感,让越来越多的人陷入“技术依赖”,同时也(ye)产生了信息混淆和传播误(wu)导的风险。
近日,国(guo)家(jia)互(hu)联网信息办公室等(deng)四部门联合发布《人工智能(neng)生成合成内容标识办法》(以下简称《标识办法》)。《标识办法》聚焦人工智能(neng)“生成合成内容标识”关键点,通过标识提醒用(yong)户辨别虚假信息,明确(que)相关服务主体(ti)的标识责任义务,规(gui)范内容制作、传播各环节标识行(xing)为。
《标识办法》要求,由(you)人工智能(neng)生成的文本、图片、音频以及视频等(deng)内容,均需添加显(xian)式或隐式的标识。显(xian)式标识,如文字、语音提示,能(neng)够直观地告知用(yong)户内容的生成来源;隐式标识,如元数据、数字水印,则能(neng)在不影响用(yong)户体(ti)验的前提下,暗中标记内容的生成信息。这一举措有(you)效破解了内容溯源的问题,还有(you)助于重建网络空间(jian)的信任秩序(xu)。
技术的发展同风险挑战,从来都是相伴而生。从实验室里助力前沿探(tan)索到医疗影像辅助诊断,从城市交通智慧调度到农业精准种植引导……AI为人们带来了更便捷智能(neng)的体(ti)验,但也(ye)出现了一系列因滥(lan)用(yong)AI而生的问题:深度伪造(zao)技术制造(zao)的虚假影像难辨真伪,AI换脸技术催生的身(shen)份盗用(yong)防不胜防,恶意生成内容更成为网络空间(jian)的新型污染源。
既要用(yong)好,也(ye)要管好。近年来,我国(guo)已相继出台《互(hu)联网信息服务深度合成管理(li)规(gui)定》《生成式人工智能(neng)服务管理(li)暂行(xing)办法》等(deng)政策文件(jian),既为技术创新开辟航(hang)道,又(you)为公共(gong)利益(yi)筑牢堤坝。通过不断对新出现的问题实施针对性治理(li)措施,并与算(suan)法备案、安全评估等(deng)制度相衔接,科技向善的愿景得以更好地维护(hu)和发展。
公众如何使用(yong)AI也(ye)显(xian)得尤为重要。人工智能(neng)最终是要为人服务的,需要人来做出选择和判定。大家需要形(xing)成批(pi)判性使用(yong)AI内容的共(gong)识,提高(gao)人们对AI生成内容的辨识能(neng)力和防范意识。只有(you)这样,大家才能(neng)让AI为工作和生活赋能(neng),避(bi)免被AI“挖坑”。
当前,AI以“周更”速度迭代且更为深入地介入现实生活,生成内容日均亿万量级地井喷,可以预见,相伴而生的AI治理(li)问题还将持续出现。在创新的同时筑牢安全底线,实现动态平衡中的持续优化,将是AI时代长期面临的课题。只有(you)将技术的“快”与人类的“慎”结合起(qi)来,才能(neng)更好地让技术为人类所用(yong),服务社会发展。