对于手机(ji)厂商而言,隐私保护与数据安全是摆在眼前的必答题(ti)。日前,在对外经(jing)贸大学举(ju)办的“边缘计算新纪元:端(duan)侧大型语言模型的应用、风险与治理前瞻”研讨会(hui)上,多位专家学者(zhe)分享了对这(zhe)一主题(ti)的看法。
南都(dou)记者(zhe)注意到,AI变身“贴心助(zhu)理”的同时,如何回应用户的隐私期待(dai),是不少专家关心的问题(ti)。有专家建议,需建立严格的双重(zhong)授权与合(he)理期待(dai)机(ji)制(zhi)来平衡技术(shu)发展与风险防范。还有研究者(zhe)呼吁,构建以信任为核心的交互(hu)边界框架,充分敬重(zhong)用户的知(zhi)情权,为用户提供“不用于模型训练优(you)化”等选择,提升用户对数据使用的理解和(he)控制(zhi)。
另(ling)一个备受关注的议题(ti)是,数据安全责(ze)任分配。当(dang)AI智能体成为新的流(liu)量(liang)入口,用户数据的控制(zhi)权也在发生转移,终端(duan)厂商掌握了更多的主动权。一旦AI智能体能无缝(feng)访(fang)问各类App,那么App服务提供者(zhe)将失(shi)去与用户的直接接触点(dian),这(zhe)也使得数据安全和(he)隐私保护的责(ze)任边界变得复杂模糊。
端(duan)侧大模型的隐私挑战:
用户期待(dai)与实际(ji)风险有差距
当(dang)AI接管手机(ji),是什么样的场景?
理想状态下,通过一句话指令,AI手机(ji)可以帮你打(da)开一众App,实现点(dian)咖啡、发微信消息等自动操作。但AI提供便捷和(he)贴心服务的前提,建立在大量(liang)的数据收集和(he)使用基础上。为了让AI“更懂你”,用户需要让渡更多的个人隐私数据。过程中,如何避免数据隐私泄露(lu)问题(ti)至关重(zhong)要。
北京大学法学院副(fu)院长、长聘副(fu)教授戴(dai)昕认为,端(duan)侧大模型治理的核心难题(ti)在于,绝大多数用户缺乏与“个人助(zhu)理”互(hu)动的经(jing)验,无法准确形成在这(zhe)一场景中有关个人信息使用的合(he)理预期。
中国人民大学法学院教授、未来法治研究院副(fu)院长丁晓东也提到,端(duan)侧大模型对个人信息保护构成重(zhong)大挑战,主要体现在用户期待(dai)与实际(ji)风险之(zhi)间的巨大差距。大模型部署(shu)在硬件(jian)层面要实现智能化,必然(ran)需要调用相关信息作为支(zhi)撑。比如,部分手机(ji)厂商调用了无障碍权限。
南都(dou)此前测评发现,部分手机(ji)厂商调用了无障碍服务、一键识屏、模拟点(dian)击等高敏感权限,这(zhe)使得用户手机(ji)屏幕(mu)上的所有内容都(dou)有可能被读取——包括文字、图片、聊天记录、交易信息等。测评还发现,在用户可能不知(zhi)情的情况(kuang)下,个别AI手机(ji)智能体自动调用开启了无障碍权限。
“普通用户可能把(ba)手机(ji)视(shi)为一个上锁的笔记本,而无障碍权限的开启相当(dang)于将所有抽屉(ti)一次性全部打(da)开,这(zhe)远超出了用户的合(he)理预期。”丁晓东说。
为应对端(duan)侧大模型带(dai)来的隐私与数据安全挑战,丁晓东认为,需建立严格的双重(zhong)授权与合(he)理期待(dai)机(ji)制(zhi)来平衡技术(shu)发展与风险防范。具体而言,第一重(zhong)授权是应用厂商层面。端(duan)侧大模型必须首先获得应用厂商的明确授权或许可。第二重(zhong)授权是用户层面,且应采用“选择加(jia)入”而非“默(mo)认启用”的机(ji)制(zhi)。此外,还需要建立合(he)同之(zhi)外的保障,通过合(he)理信赖、侵权防范或个人信息保护机(ji)制(zhi)建立用户合(he)理期待(dai)。
还有多位专家提及,应赋予用户更多的控制(zhi)权。清华大学人工智能国际(ji)治理研究院助(zhu)理研究员宋雨鑫认为,智能体实行(xing)过程具有一定自主性和(he)随机(ji)性,使个人信息收集使用最小必要原则的适用面临困(kun)难。
为此,她(ta)建议构建以信任为核心的交互(hu)边界框架。在安全交互(hu)层面上,更强调用户权益保护,为用户提供更多数据使用选择权,如限制(zhi)第三方(fang)分享、敏感信息搜集确认、删(shan)除(chu)对话数据、不用于模型训练优(you)化等。
AI与App争(zheng)夺(duo)流(liu)量(liang)入口,
数据安全责(ze)任边界尚待(dai)厘清
当(dang)用户依靠(kao)AI手机(ji)智能体调用其他App时,预示着流(liu)量(liang)入口的迁移。一些App厂商担心,一旦AI代理能够无缝(feng)访(fang)问各类应用,那么它们将失(shi)去与用户的直接交互(hu)点(dian)。
此前有业内人士告诉南都(dou)记者(zhe),AI智能体的自动化操作,可能会(hui)波及第三方(fang)App的停留时长、广告推荐等获利模式,将原本的流(liu)量(liang)入口从App迁移至智能体,减少用户关注和(he)使用App的频率。
AI与App争(zheng)夺(duo)流(liu)量(liang)入口的背后,不仅关乎(hu)利润分配和(he)商业模式的重(zhong)构,也涉及数据权责(ze)分配问题(ti)。中国信通院互(hu)联(lian)网(wang)法律研究中心主任何波认为,AI手机(ji)在为用户带(dai)来便捷智能体验的同时,改变了移动互(hu)联(lian)网(wang)时代的数据生态,打(da)破了应用间数据相互(hu)隔离的格局,强化了终端(duan)厂商和(he)模型服务提供商对数据的控制(zhi)能力,多元主体竞争(zheng)博弈(yi)下数据安全和(he)隐私保护的责(ze)任问题(ti)变得更加(jia)复杂模糊。
在何波看来,多主体数据收集和(he)处理会(hui)引发责(ze)任认定困(kun)境。在端(duan)云(yun)协同的技术(shu)路线下,数据流(liu)转涉及手机(ji)厂商、应用开发者(zhe)、第三方(fang)服务提供商等多个主体,任何单一主体都(dou)难以完全掌握和(he)控制(zhi)整个服务链(lian)条上的数据处理情况(kuang)。
而当(dang)前,各方(fang)在数据收集、使用、共享过程中尚未形成明确的责(ze)任边界。中国社会(hui)科学院法学研究所副(fu)研究员唐林垚认为,在端(duan)云(yun)协同生态中,终端(duan)厂商、应用开发者(zhe)和(he)云(yun)服务商都(dou)属于数据处理者(zhe),风险出现时可能相互(hu)推诿。他建议细化权限分类和(he)动态告知(zhi)义(yi)务,出台明确的端(duan)侧数据安全标准,并通过细腻度更高的法律规则实现责(ze)任划分。
安全和(he)发展是一体两翼。南都(dou)记者(zhe)注意到,在探讨数据治理挑战的同时,与会(hui)专家也肯定了端(duan)侧大模型在提升处理能力、改善用户体验方(fang)面的积极(ji)价值。何波认为,大模型的快速发展为智能终端(duan)产业注入了新的活力。近一年以来,AI手机(ji)、AI PC密集发布,大模型在终端(duan)侧的部署(shu)应用已成为新的发展趋(qu)势。AI终端(duan)正(zheng)处在“渗透(tou)初期”,随着技术(shu)的不断完善,AI终端(duan)将驱动消费电子新一轮的增长曲线。
在确保安全的前提下,如何促进AI手机(ji)行(xing)业健康持续发展?何波建议,统筹近期和(he)中远期的关系,综合(he)运用技术(shu)和(he)制(zhi)度政(zheng)策(ce)等多种手段促进规范发展。
具体而言,他认为近期可针对已暴露(lu)的突出问题(ti)(如数据隐私保护),通过开展专项检测行(xing)动,将端(duan)侧大模型纳入现有个人信息保护监测体系、加(jia)强安全测评等技术(shu)手段进行(xing)治理。中远期则可考虑通过立法方(fang)式,对端(duan)侧大模型的功能发展进行(xing)规范,包括制(zhi)定新法和(he)修订现有法律。
端(duan)侧大模型所带(dai)来的既是“充满光明的未来”,也面临“布满荆棘的路途”。对外经(jing)济(ji)贸易大学法学院教授张欣提到,2024年被誉为“AI手机(ji)元年”,这(zhe)一背后体现的是产业技术(shu)与应用的跨(kua)越式发展。如何共同探索端(duan)侧大模型在移动智能终端(duan)的未来发展方(fang)向,厘清各种技术(shu)路径的潜在收益与风险,凝聚(ju)产业生态共识,备受关注。
采写:南都(dou)记者(zhe)李玲