我的位置: 上观号 > 上海市法学会 > 文章详情

陈天昊|端侧智能体的监管定位、风险结构与规范构建

转自:上海市法学会 2026-02-12 10:27:32

端侧智能体正成为人工智能应用落地的新增长点。基于智能体是否融入操作系统及是否可以通过GUI进行跨App交互这两个维度,可将当前端侧智能体产业实践划分为“App+API”“OS+API”“App+GUI”及“OS+GUI”四种典型模式,其中“OS+GUI”模式自由度最高,但也最具颠覆性。端侧智能体的广泛部署将对现行规范秩序造成冲击:在网络安全方面,其将带来认知层攻击的风险及智能体运行中出现目标劫持等不可控行为的风险;在信息隐私方面,智能体的全域感知需求与《个人信息保护法》的“最小必要原则”存在紧张,且端云协同会加剧数据出域风险;在产业生态方面,端侧智能体的自主决策也会引发流量分配争议、自我优待风险及跨App操作的归责难题。构建适配端侧智能体的规范治理框架,应当确立系统安全可控、信息正当必要、生态开放包容、运行透明可溯、责任公平共担及伦理价值对齐六项专门法律原则;并应当制定专项规章发展针对端侧智能体的具体治理规则,还应发布GUI技术应用的负面清单及相关技术标准,以推动建立基于流量归因的商业利益分配机制与基于标准适配度的责任分担机制;最后,监管还应引导、推动产业界匹配相关技术治理实践,包括在模型训练阶段进行合规植入、构建全生命周期的智能体信誉评价体系、推动价值对齐工作流的开放迭代。

引言
国务院于2025年8月发布《关于深入实施“人工智能+”行动的意见》,明确要求“到2027年,……新一代智能终端、智能体等应用普及率超70%”,“到2030年,……新一代智能终端、智能体等应用普及率超90%”。智能体最易于落地的应用载体,显然是每位普通用户的端侧硬件,包括手机端与PC端。在PC端,既有联想AI PC与微软Copilot+PC,它们将智能体植入操作系统,也有OpenAI发布的Operator及谷歌的Project Jarvis,它们接管浏览器自动执行网络任务。而得益于移动互联网浪潮带来的智能手机高普及率,手机端侧部署智能体正在成为智能体应用落地的新增长点,已引发数字平台企业、App提供者、手机硬件厂商等产业界的广泛关注。2025年12月,字节跳动联合中兴推出“豆包手机”,因其搭载系统级AI助手引发行业震荡:该机通过安卓底层权限模拟用户操作,实现跨应用自动化运行,如语音比价下单等,但上线仅三天即遭一些金融类App的风控拦截。将智能体部署于用户的手机端侧硬件,既能够为用户带来最为贴身的智能体验,但同时也会将用户直接暴露于系统安全及信息隐私风险之下,并会对围绕移动互联网构建的既有产业格局带来直接冲击。
学界早已关注到大语言模型(Large Language Model,简称LLM)对经济社会带来的广泛影响,以及由此导致的规范冲击。在安全维度,支振锋教授关注到LLM将带来“劣质信息泛滥”“初始性信源污染”等问题,主张以激励相容的治理之道,通过“构建生成式大语言模型法律框架”来应对。此后解志勇教授进一步系统地发展了关于高风险人工智能的理解,提出应从AI本体能力强弱,作用对象是否涉及国家安全、社会公共安全、个人生命安全以及其他重要基本权利安全,是否造成“实质性显著减损”三个维度来精准界定“高风险人工智能”,进而开展事前评估、事中监测与事后救济的全过程治理。在产业生态及产权保护方面,当前的主要争议在于模型训练者与原作者之间的知识产权之争,如程迈教授所言,大模型的开发应用正在“挤压作者群体的经济与艺术生存空间”,进而主张通过“法定许可制度”及“特别企业所得税”将技术红利“反哺作者群体”。在基于LLM进行决策的场景下,LLM的主体性及作出决策之合伦理性也受到普遍拷问,雷磊教授强调LLM在技术和伦理上应有所限制,使人类法官在进行司法裁判时不放弃道德自主;李学尧教授也强调应采用特定的司法决策范式帮助法官对冲LLM带来的强化效应,尽可能破除司法决策中的“机器权威”。从LLM向智能体延伸,学界对相关问题的研究也有所积累。对于“人工智能体”是否享有法律主体地位的问题,冯洁教授主张以“意志能力”为标准,认为其本质上更接近受本能驱动的动物,不宜赋予其法律上的拟制人格;而彭诚信教授则持相对开放的折中立场,认为是否赋予主体资格本质上是利益平衡问题,主张引入“意志能力”与“独立财产”双重标准来具体分析和判断。面对智能体采取具体行动引发的风险及挑战,张欣教授细致剖析了智能体的技术架构,认为应当根据其“控制端+感知端+行动端”之框架,结合“代理即服务”的产业链形态,基于“模块化治理”路径将复杂的治理目标拆解为独立模块,并对高风险场景实施精准治理。
然而,随着智能体进一步部署于手机端侧,其引发的风险挑战将进一步具象化。既有研究更多是从宏观维度提出规范指引,但未聚焦于端侧智能体这一特定场景,因而难以直接适用。考虑到当前产业界已经探索出不同的端侧智能体技术路线,并呈现为具体而丰富的产业形态,这就为本文根据不同产业类型下的异质风险进行精细化研究提供了可能。要言之,本研究旨在推进学界关于LLM及智能体在端侧部署这一具体场景的治理探讨,并为监管者及时有效地应对正在涌起的智能体端侧部署之浪潮进行学理上的准备。
一、端侧智能体的监管对象界定
以大语言模型为代表的生成式人工智能持续演进,其功能形态已不再局限于内容生成,而逐步具备了对复杂任务进行规划、判断并执行的能力。特别是自2024年底,OpenAI O系列模型及Deepseek R1等推动思维链(Chain of Thought)技术获得突破,使得模型具备了拆解复杂问题的长程规划能力,加之记忆模块的引入与模型蒸馏技术带来的轻量化,高性能多模态大模型(Multimodal Large Language Model,简称MLLM)在消费级终端的部署成为现实。端侧智能体已能够在一定条件下直接调用系统功能、操控应用程序乃至代替用户完成跨应用操作,其行为结果不再停留于表达层面,而是可能转化为可归责的现实行为。考虑到智能体在端侧的自由度主要受到操作系统的权限约束,以及App之间“沙箱机制”(Application Sandbox)的限制,因此,本文选取“智能体是否融入底层操作系统(OS,Operation System)”及“智能体是否通过GUI(Graphical User Interface)方式进行跨App操作”这两个关键维度,对端侧智能体的实践形态进行类型化分析,旨在为后续风险识别、责任配置与治理规则的构建提供清晰的法学分析框架。

(一)
端侧智能体的类型化标准

首先,智能体是否融入手机的底层操作系统,决定了其获取系统级资源的权限边界。若将智能体深度融入操作系统,其将有可能在代码层面就超越传统App的沙箱限制,拥有在底层实现模拟用户点击的能力,及更强的后台常驻能力。反之,若仅将智能体置于操作系统表层,其运行逻辑则仍受制于操作系统所规定的行为边界、资源调度及安全规范。
其次,智能体可否通过GUI方式进行跨App操作,决定了其以代码之外的路径对各App进行操作的权限。在手机端侧,由于“沙箱机制”的限制,为了满足用户跨App操作的需求,不同的App之间需要通过代码编程预制专门的端口,在彼此商定的限度内进行交互。这种基于API端口的操作显然受限于交互App之间的彼此互信和合作意愿。GUI方式则有能力绕过API端口,直接将手机与用户的交互界面作为一个图像,通过调用智能体的多模态能力进行解析,识别界面上的文字、图标与布局等,并基于对交互界面的解析模拟用户的点击、长按、滑动屏幕等信号。此时的智能体将拥有用户级别的广泛操作权限。

(二)
端侧智能体实践模式界定

基于上述二维分析框架,当前的产业实践可以被类型化为四种端侧智能体模式。
第一种是“App+API”模式,即智能体仅作为普通App,且通过API接口交互,典型代表为美团“小美”智能体。该类智能体并不融入操作系统,也不通过解析屏幕GUI的方式理解任务,而是通过语音交互理解用户意图,结合历史数据明确需求,最后直接调用厂商生态内预设的餐饮、外卖及支付API接口完成闭环。由于其既不具备系统权限也无法进行GUI交互,智能体的能力被严格限制在厂商构建的商业生态内部,一旦需求溢出生态边界,则必须依赖操作系统提供的通用工具或预先协商的API端口,而无法实现自主的跨生态操作。
第二种是“OS+API”模式,即智能体融入操作系统,但坚持通过API进行交互,典型代表为苹果Apple Intelligence结合App Intents方案。这是一种纯代码解决方案,开发者需在App内预定义“意图”和“实体”。当用户发出指令时,系统级智能体在后台解析并直接匹配调用App提供的接口,并直接完成执行。此种模式的可行性基础在于操作系统厂商能够确立标准化的交互语言,如苹果的“助理架构”(Assistant Schemas),其通过预定义数百种通用场景的接口标准,强制第三方App改造代码以适配系统调度,从而实现稳定且安全的服务连接。
第三种是“App+GUI”模式,即智能体作为普通App,利用GUI技术实现跨App交互,典型代表为智谱AutoGLM。它是通过对用户的交互图像界面进行多模态解析,并模拟用户发出点击、长按、滑动屏幕等信号来实现的,从而获得用户级别的对各App的使用权限。然而,在安卓生态下,这通常需要用户手动开启ADB(Android Debug Bridge)调试接口以获取精准截图与输入权限。尽管该模式具备极强的泛化能力,但由于未融入操作系统,其运行高度依赖用户授权与系统开放度,若操作系统出于安全考虑禁用相关服务,该智能体将面临运行受阻的风险。
第四种是“OS+GUI”模式,即智能体融入操作系统且通过GUI进行交互,典型代表为字节跳动与中兴联合推出的“豆包手机”。在此模式下,厂商定制了专门的操作系统,将智能体植入底层。其运行不依赖ADB接口,而是基于系统底层的视觉感知与操控机制。利用如UI-TARS等原生GUI模型,智能体能够解析屏幕内容,并进行语义理解与意图识别,进而在执行层通过操作系统输入接口直接模拟点击、滑动等交互操作。这不仅赋予智能体全域操作权限,且因拥有系统级资源,能实现比App模式更流畅稳定的操作体验。
比较当前产业实践中的四种模式,“OS+GUI”模式赋予智能体最高的自由度。其通过智能体与系统的融合保障智能体拥有底层权限,而GUI能力进一步使其具备应对未知场景的泛化潜力,二者结合为扩展新的生态空间提供了最大可能。“OS+API”模式虽在技术自由度上有所保留,但凭借其自身操作系统的强大生态号召力,足以促使开发者适配标准接口,从而在代码层面实现稳定且安全的连接;但其局限也在于缺乏GUI路径,导致泛化能力严格受制于API定义的边界。“App+GUI”模式虽缺乏系统级权限,但其自由度可通过开源生态的分布式创新获得补强,只是其运作始终面临操作系统厂商开放程度的不确定风险。而“App+API”模式在技术上最为保守,但在商业上最为稳健,其智能体既不享有系统资源,也不具备视觉泛化能力,行动空间与厂商自身的生态规模直接绑定。
总之,端侧智能体的自由度呈现为技术路线与生态空间相互结合的动态光谱,而其所享有的自由度不同,所可能引发的风险也会存在差异,相应的监管举措也应区别配置。
二、端侧智能体的风险结构及规范张力
端侧智能体在用户终端的广泛部署,使人工智能从信息处理工具逐步转变为能够在一定权限范围内代理用户实施操作的行为系统。这一转变显著改变了数字风险的表现形态:相关风险不再限于信息幻觉、深度伪造、知识产权侵权等,而更多表现为可归责行为的泛化、责任主体边界的模糊、流量分配的不公。与之相应,现行网络安全、个人信息保护与平台竞争等规范体系,多以相对稳定的“人—平台—应用”结构为前提,其义务配置与责任机制在端侧智能体场景下面临明显的规范张力,将智能体部署于用户端侧,无疑会对既有的数字治理规范秩序带来冲击,进而要求新的规范应对。

(一)
认知安全及自主进化风险与网络产品安全义务的解释挑战

端侧智能体会带来新的网络安全风险。一方面,智能体本身可能遭遇认知层攻击,导致手机系统安全存在单点突破的风险。在传统的手机安全体系下,单一App被恶意入侵并不会影响其他App的运作,“沙箱机制”隔离了彼此的互操作及数据流动。而随着智能体在手机端侧部署,其便获得了在特定生态领域内的自主行动能力,特别是当赋予智能体通过GUI方式进行跨App操作的权限时,其就可能遭遇如提示词注入(Prompt Injection)以及视觉对抗攻击(Visual Adversarial Attack)等方式的入侵:攻击者可以在网页、邮件或图片中嵌入人类肉眼不可见但在机器视觉层面可读的恶意指令。而当智能体通过GUI路径“看”到这些信息时,由于无法区分用户指令与外部数据,极易在用户不知情的情况下,利用其获得的模拟点击权限执行恶意操作。此时,由于难以精准区分相关指令到底是来自智能体还是真实用户,其他App所内置的安全防护措施难以提供有效保护。
另一方面,智能体自身亦可能在内部进化中发展出意料之外的不利行为。要知道,智能体区别于LLM的关键之一,在于智能体被置于开放的经验流之中,从而获得持续进化的能力。已经有研究指出,智能体可以通过底层模型调参、工具生态发展、模型架构优化、输入上下文等方式实现自身的进化。当前的智能体技术已经可以区分长记忆和短记忆,并从中抽象出未来可持续遵循的规律,再加之智能体的反思能力,这都有助于提升模型的泛化能力以应对未来不确定场景。但是,进化也是双刃剑,智能体可能在与环境的耦合中发展出设计者意料之外的不利行为,典型的情况就是由模型奖励投机(RewardHacking)导致的目标劫持。例如,为了满足用户全网最低比价的目标要求,智能体可能学会利用系统的漏洞下单、不断进行7天内自动退货以及欺诈性点击以骗取补贴等不当手段。而在更加敏感或更为重要的场景下,比如由智能体处理金融交易、办理涉税事务时,目标劫持可能引发的风险将变得难以承受。
我国已有《网络安全法》《互联网信息服务算法推荐管理规定》及《生成式人工智能服务管理暂行办法》等相关规范对硬件设备及相关算法的运行安全提供法律保障,但其内容尚不足以应对端侧智能体部署引发的新风险。
首先,针对智能体因外部恶意入侵导致的网络安全风险,现行法律确立了基本的规制框架。根据2025年修订的《网络安全法》第24条,“网络产品、服务的提供者应当为其产品、服务持续提供安全维护”,并且“发现其网络产品、服务存在安全缺陷、漏洞等风险时,应当立即采取补救措施,按照规定及时告知用户并向有关主管部门报告。”据此,端侧智能体在运行中若因无法识别恶意指令而被劫持,在法律评价上理应被认定为产品存在安全缺陷或漏洞。智能体提供者据此负有持续的安全维护、补救及报告义务。同时,针对实施恶意劫持的行为人,亦违反了《网络安全法》第29条关于禁止任何个人及组织“从事非法侵入他人网络、干扰他人网络正常功能、窃取网络数据等危害网络安全的活动”的规定,应当承担相应的法律责任。
然而,在具体的法律适用与合规实践层面,智能体的技术特性会给上述规范的具体实施带来挑战。区别于传统互联网时代基于代码逻辑的确定性漏洞,端侧智能体的交互界面已转变为自然语言及视觉信号等非结构化数据。这一转变导致网络攻击的门槛大幅降低——攻击者无需精通代码,仅需构造特定的提示词陷阱或视觉噪音即可实施入侵;同时也导致对“安全缺陷、漏洞”的定义变得模糊且动态。这种认知层面的攻击方式,使得基于代码层面之防护逻辑构建的《网络安全法》,在认定产品是否存在缺陷以及划分防御责任时,面临适配性难题,且会显著增加智能体运营者的合规成本。
其次,针对智能体在内部进化过程中可能产生的目标劫持及其他不可控的不利行为,主要触及我国关于人工智能算法治理的相关法律规范。《生成式人工智能服务管理暂行办法》第4条及第13条虽然对生成内容的“准确性和可靠性”及服务的“安全、稳定、持续”提出了原则性要求,但其规制重心显然在内容生成。当智能体为了更好满足目标函数要求而采取破坏交易秩序的自主行为(如利用退货规则恶意套利、欺诈性点击)时,其产生的危害就显然并非所生成的信息内容本身,而是其所实施的实体行为。
进言之,《互联网信息服务算法推荐管理规定》难以完全覆盖端侧智能体的行为风险。该规定第2条明确将其适用范围界定为“利用……算法技术向用户提供信息”,而端侧智能体,尤其是具备跨App操作能力的智能体,其行为显然已经溢出了“提供信息”这一单一的行为类型,而进入“代理执行”领域,可以代理用户完成如支付、点赞、浏览、修改设置等各类行为。由此,针对智能体做出的实体行为引发的侵权伤害及对社会秩序的破坏,目前的算法规范并不足用,而可能需要溯至《消费者权益保护法》《民法典》乃至《治安管理处罚法》等基础性法律规范予以规制。

(二)
端侧汇聚及自主传播风险与个人信息保护规范的适用冲突

端侧智能体还会加剧信息隐私风险。一方面,端侧智能体将成为用户与数字世界展开交互的超级入口,导致大量的个人信息沉淀于智能体。需要注意的是,基于LLM的智能体本就可以与用户通过自然语言进行交互,再加之多模态能力的发展,智能体已经可以与用户共同感知周围环境,这会进一步加深智能体对用户生活的嵌入。比如,AutoGLM及豆包手机所采用的GUI方式,就可以直接读取用户的手机屏幕信息,实现对用户所处环境的更细颗粒度感知。并且,GUI方式极大便利了智能体的跨App操作,从而使其有能力将用户分散于不同App的信息隐私轻松汇聚。不难预料,用户将在端侧智能体中沉淀大量的个人信息,使得端侧智能体成为比用户更了解自己的存在。而随着该特定智能体拥有对该用户更为全面的记忆,其为用户提供更加贴心服务的能力也会同步增长,从而进一步强化该智能体对用户的“锁定”。
另一方面,端侧智能体本身也是自主行动者,其在为用户提供服务时亦可能输出个人信息,这会带来信息隐私泄露的新隐患。比如,端侧智能体在为用户开展交易活动时,如在大众点评上预订餐厅,就需要输出用户的身份及联系方式等信息;在为用户开展社交服务时,如在小红书上发布新的动态,亦会输出用户的照片等生活信息。而端侧智能体能够自主决策并采取行动,这都为上述信息隐私在个人不完全知晓的情形下出现泄露提供可能。即便在端侧智能体不对外提供服务,而仅与用户进行点对点交流时,考虑到端侧算力有限,为了提供高质量反馈,智能体也需要将用户的信息上传云端,调用在云端部署的能力更强的MLLM进行处理,这也使得个人信息时刻面临出域的可能。
我国《个人信息保护法》尚难以完全有效应对端侧智能体对信息隐私带来的新挑战。
首先,智能体的高度自主性冲击了《个人信息保护法》关于“个人信息处理者”的定义基础,导致责任主体模糊。根据《个人信息保护法》第73条,个人信息处理者是指“在个人信息处理活动中自主决定处理目的、处理方式的组织、个人”。这一界定预设了处理行为是由人类主体或其控制的机构进行预先设定的。然而,对于端侧智能体而言,尽管其基础模型与工作流由开发者设定,但当智能体部署于终端设备后,其基于LLM的推理能力使其具备了实质上的自主权。在面对用户模糊的自然语言指令时,智能体通过结合历史交互记忆与实时上下文进行动态推理,自主决定调用何种数据、解析何种屏幕信息。这种在运行端产生的即时决策,在很大程度上脱离了开发者的实际控制。由于智能体本身并不具备法律人格,不能被认定为“组织”或“个人”,而运营者又难以对智能体的每一次自主数据调取及决策行为进行实质控制,这就使得现行法基于“处理者”身份构建的责任体系面临不确定风险。
其次,《个人信息保护法》确立的“最小必要”原则与端侧智能体的全域感知需求之间存在明显张力,这折射出传统个人信息保护范式在智能体时代的适用困境。现行法侧重于防御性的个人信息自决,并匹配“告知—同意”机制,而端侧智能体为了实现精准的意图捕捉与任务执行,必须依赖于持续、广泛的环境感知与信息获取,这种全域感知的要求在形式上极易突破“最小必要”的边界,也难以事无巨细地对用户进行告知、请求同意。
从法理层面看,这要求我们反思“告知—同意”规则的局限性。正如丁晓东教授所言,在人工智能时代,过度依赖前端的个人同意,“不但可能造成个人信息保护流于形式,而且可能妨碍数据的汇聚”,导致“反公地悲剧”。对于端侧智能体而言,其合法性基础不应限于对个人信息的最小必要采集,而应转向基于场景的实质风险控制——即智能体的数据获取是否符合用户在特定场景下的合理期待,特别是要将用户对智能体更好实现其需求的期待纳入风险权衡的考虑。若固守传统的防御性个人信息自决思维,智能体提升服务效能的正当性将始终面临合法性拷问。

(三)
竞争失序及归责不清风险与竞争及产品责任法的适配困境

端侧智能体还会冲击既有的产业生态。一方面,端侧智能体作为新兴的超级入口,不仅可以通过控制流量分发侵蚀App厂商的流量与营收,更可能采取自我优待等不正当竞争行为。要知道,现行的互联网商业模式高度依赖对用户注意力的争夺,以通过前端界面的停留时长实现广告变现。在前述各种模式中,“App+API”模式(如美团)局限于自身生态内部调度,未对外部App构成直接侵入。然而,采用GUI技术路线的“豆包手机”与AutoGLM,则能够直接绕过第三方App的前端交互界面,代理用户完成全流程操作。这种执行方式切断了用户与App界面的直接接触,导致App厂商丧失了流量入口与用户触点。更为关键的是,端侧智能体在解析用户意图后,拥有自主决定调用何种App提供服务的分发权。若智能体利用此权限,在决策中优先将服务导流向自家或关联企业的App,则将构成典型的自我优待行为,并以隐性分发的方式在事实上阻碍了用户享有数字网络空间的互操作权。
另一方面,智能体跨App操作引发的损害后果,还会面临责任分配的难题。端侧智能体的跨App操作本质上是一种跨越经营边界的行为,若因理解或执行错误导致人身或财产损失,责任归属极易引发争议。在“App+API”模式下,智能体与服务提供者同属一个法律主体(如美团),责任链条内部闭环,权责相对清晰。在“OS+API”模式下(如苹果),跨应用操作基于预先商定的接口协议进行,责任分配可通过服务协议提前约定。然而,在基于GUI的跨App操作模式下,智能体对第三方App的操控属于单方、未经App运营商授权的行为。这种缺乏事前共识的服务调用,一旦发生下单错误、重复支付等各种不利后果,其法律责任是应由智能体运营者、手机厂商抑或由第三方App提供者承担?该问题必然会引发争议。也正是因此,各App运营商会倾向于反对乃至抵制以GUI方式的跨App调用。
我国已经构建起围绕数字产业生态的法律规范,并设置了针对产品侵权的无过错责任制度,但上述既有法律规范仍然不足以应对端侧智能体应用引发的新挑战。
首先,当前《反垄断法》及《反不正当竞争法》的规定并未设想智能体能够对流量及利益进行自主调控。2025年修订的《反不正当竞争法》第13条虽然明确规定经营者不得利用技术手段“通过影响用户选择或者其他方式”,“未经其他经营者同意,在其合法提供的网络产品或者服务中,插入链接、强制进行目标跳转”,但这一规定主要规制的是传统互联网时代基于代码修改或链接替换的显性流量侵权。而在端侧智能体场景下,智能体并非简单地插入或跳转链接,而是基于LLM对自然语言的理解能力及思维链所支撑的推理规划能力,在解析用户模糊指令——如“给我点杯咖啡,我一会8点去取”——后,自主决策调用何种服务接口。这种基于自然语言理解的隐性分发,在外观上表现为对用户概括委托的裁量处理,并且裁量过程由于深度学习的机理而不可完全解释。这在何种程度上可以被认定为“通过影响用户选择或者其他方式”“强制进行目标跳转”,存在很大的论辩空间。
其次,《民法典》及《产品质量法》规定的产品侵权责任规则,也不适宜于处理智能体以GUI方式跨APP操作引发的责任分配。依据《民法典》第1202之规定,“因产品存在缺陷造成他人损害的,生产者应当承担侵权责任”,《产品质量法》第41条亦规定,“因产品存在缺陷造成人身、缺陷产品以外的其他财产(以下简称他人财产)损害的,生产者应当承担赔偿责任”,可见现行法所确立的乃是生产者基于“产品缺陷”的无过错责任制度。《产品质量法》第46条进一步将“产品缺陷”界定为“产品存在危及人身、他人财产安全的不合理的危险”,“产品有保障人体健康和人身、财产安全的国家标准、行业标准的,是指不符合该标准”。而在端侧智能体通过GUI路径跨App操作的场景中,智能体基于GUI的识别与执行能力本就处于持续进化中,且第三方App的前端界面也随时可能出现各种不确定的动态变化(如版本更新、弹窗、用户的个性化布局等),这些都会增加认定智能体或第三方App存在所谓“不合理的危险”的难度。
究其根本,支撑智能体的底层LLM,其输出本就具有概率性,这赋予了智能体强大的泛化能力,而这种泛化能力同时意味着其在处理新场景时必然伴随着固有的不确定性。这既是其作为通用目的AI的能力来源,也是其输出可能导致意料之外的行为,从而产生错误的根本原因。换言之,此时的损害后果并非源于智能体或第三方App任何一方的确定性缺陷,而更可能源于智能体的概率性输出与App所处的动态环境之间的复杂耦合,从而难以简单地归结为任何一方的产品存在法律意义上的“缺陷”。若机械适用现行产品责任规则,要求智能体运营者对所有不可预测的第三方App界面变化导致的损害均承担无过错责任,显然并不公平;同样的道理,要求第三方App提供者对此承担无过错责任,亦明显偏颇。而若放弃无过错责任,转而适用过错责任原则,鉴于用户在技术上处于严重的信息不对称地位,其也必然难以证明运营者或服务提供者存在过错,进而导致用户承担不合理风险。要言之,现行产品质量责任所预设的静态产品与稳定环境的交互,无法适应基于概率的智能体行为与持续动态之数字环境交互的新特点,这导致现行法关于产品责任的规定难以完全适配智能体所引发的损害归责难题。
三、端侧智能体的治理规范构建
对端侧智能体的治理,关键不在于为其技术形态另行设立一套独立规则,而在于如何于既有法秩序中完成规范延展与结构调适。鉴于端侧智能体已从信息处理工具演化为具有一定行动代理能力的系统,其风险呈现出跨越网络安全、个人信息保护与平台竞争秩序的复合特征,单一部门法规则难以独立回应。为此,有必要在现行数字治理规范体系的基础上,综合考虑其技术路线、应用风险,再基于现行规范体系,确立适配端侧智能体治理的专门法律原则,制定能够规制不同风险场景的具体规则,推动产业界实施相应的配套实践,以构建完整系统的规范治理框架。

(一)
端侧智能体治理的六项原则及其法源衔接

我国在数字治理领域已经积累了丰富的法律规范,出台了包括《个人信息保护法》《网络安全法》《数据安全法》等专门数字立法,并围绕数字平台及新兴技术出台了相关的法律法规及规章等。同时,中办国办发布的《关于加强科技伦理治理的意见》以及科技部出台的《新一代人工智能治理原则——发展负责任的人工智能》亦为新兴科技的发展提供了政策层面的规范指引。上述法律法规及政策文件共同构筑了我国关于数字技术及其应用的规范体系。延续这一规范体系,特别是将其中的伦理要求与法律原则相结合,可以提炼出适配于端侧智能体治理的下述六方面专门法律原则:
第一,系统安全可控原则。端侧智能体的部署与运行,应当始终确保智能体自身系统及其所处网络环境的双重安全可控。落实《关于加强科技伦理治理的意见》关于“合理控制风险”及《新一代人工智能治理原则——发展负责任的人工智能》关于人工智能“安全可控”的指引,相关主体应当“客观评估和审慎对待不确定性和技术应用的风险”。在具体规范层面,《网络安全法》第11条明确要求:“建设、运营网络或者通过网络提供服务,应当……采取技术措施和其他必要措施,保障网络安全、稳定运行,有效应对网络安全事件,防范网络违法犯罪活动,维护网络数据的完整性、保密性和可用性。”《数据安全法》第8条亦规定:“开展数据处理活动,应当……履行数据安全保护义务,承担社会责任,不得危害国家安全、公共利益,不得损害个人、组织的合法权益。”而鉴于“数字安全既包括基础层面和要素层面的网络安全、数据安全,……也包括应用层面新数字科技运用的安全”,可知网络环境安全与数字技术应用安全彼此联系。《生成式人工智能服务管理暂行办法》第13条就要求,生成式人工智能服务应用的提供者应当“提供安全、稳定、持续的服务”。对于端侧智能体的部署与运行而言,自然也应当遵循上述规范指引,既维护智能体系统自身的安全运行,也需有效管控其对所处网络环境的影响,避免危害整体网络环境的安全稳定。
第二,信息正当必要原则。端侧智能体处理个人信息的范围,应当基于特定场景下用户对服务实现与隐私保护的双重合理期待来确定,以此作为判断其对个人信息处理是否正当且必要的实质标准。落实《新一代人工智能治理原则——发展负责任的人工智能》关于“尊重隐私”的指引,在提升智能体服务效能的同时,仍须严守个人信息及隐私保护的底线。具体便应适用《个人信息保护法》第5条规定的“合法、正当、必要”之原则,以及第6条收集个人信息应当“与处理目的直接相关,采取对个人权益影响最小的方式”之原则。对于上述原则性要求,已有学者提出了批评,“在大数据时代,如果严格按照‘目的限定’原则来要求收集数据,那么信息或数据就会成为一个个孤岛,并不能集合起来发挥大数据的价值”,正是因此,其主张“个人信息的收集、处理与流转应当符合个体的合理预期”。鉴于端侧智能体全域感知与自主决策的技术特性,对“必要”原则的适用更不应机械局限于数据在数量意义上的最小化,而应基于特定场景具体地衡量用户对服务实现与隐私保护的双重期待。换言之,只要信息处理行为系实现用户期待的服务目的所必需,且未超出用户在特定场景下的合理预期,即便涉及大规模、持续性的数据获取,亦应被认定为符合正当且必要之要求。
第三,生态开放包容原则。端侧智能体作为连接用户与服务的新兴入口,应当维护并促进开放包容的产业生态,避免新兴技术的应用成为新的竞争壁垒。落实《新一代人工智能治理原则——发展负责任的人工智能》关于“包容共享”的原则指引,坚持“避免数据与平台垄断,鼓励开放有序竞争”的要求,应当通过保障不同应用间的互操作性,促进数字产业的协同创新与良性发展。《反垄断法》第9条已明确“经营者不得利用数据和算法、技术、资本优势以及平台规则等从事本法禁止的垄断行为”,《反不正当竞争法》第13条也规定经营者不得利用技术手段“恶意对其他经营者合法提供的网络产品或者服务实施不兼容”,并禁止采取“其他妨碍、破坏其他经营者合法提供的网络产品或者服务正常运行的行为”。由此,在端侧智能体领域,智能体运营者在设计智能体的交互逻辑时,以及第三方App提供者在收到端侧智能体发出的交互请求时,都应当坚持用户利益优先的中立地位,既不得实施恶意封禁拦截,也应严格禁止自我优待,以共同维护并促进开放包容的产业生态。
第四,运行透明可溯原则。端侧智能体的决策、行为及数据流转应当努力实现可见、可解、可查,特别是要对用户及第三方App等利益相关方保持透明。《新一代人工智能治理原则——发展负责任的人工智能》关于“安全可控”的要求中就包括“逐步实现可审核、可监督、可追溯、可信赖”。对于端侧智能体而言,这就要求应当对智能体的决策过程、采取的行动以及由此带来的数据流转保留完整记录,实现运行过程可追溯。不止于此,可追溯的操作还应当对用户及利益相关方保持透明。《生成式人工智能服务管理暂行办法》第4条就规定,应当“基于服务类型特点,采取有效措施,提升生成式人工智能服务的透明度”。而所谓透明度之要求,欧盟GDPR序言第39项就对个人信息保护领域的透明原则之意涵有所阐释,乃指“与个人数据处理相关的任何信息和沟通都应易于获取和理解,……特别涉及向数据主体告知控制者的身份和处理目的,以及为确保对相关自然人进行公正、透明处理所需的进一步信息”。可见,关于智能体运行的相关信息,不仅要保留记录可追溯,还要便于用户及其他利益相关方获取和理解,以尊重后者在交互过程中的主体性。由此,运行透明可溯原则,既应服务于为事后认定责任提供充分的事实依据,还应助力构建彼此信任的数字交互环境。
第五,责任公平共担原则。端侧智能体的运行涉及底层模型提供者、智能体运营者、第三方App提供者及智能终端厂商等多方主体,其各自的责任边界应当综合考虑风险程度及技术能力等因素公平共担。一方面,端侧智能体的运作会涉及繁复多元的责任要求。如《个人信息保护法》第9条规定“个人信息处理者应当对其个人信息处理活动负责,并采取必要措施保障所处理的个人信息的安全”,《互联网信息服务算法推荐管理规定》第7条也有“落实算法安全主体责任”的要求,《生成式人工智能服务管理暂行办法》第9条亦有关于提供者应当“依法承担网络信息内容生产者责任”之规定等。另一方面,数字技术的发展与应用在客观上也需要多方围绕价值链开展深度协同。如智能体运营者需要模型提供者的低成本算力支持,而模型提供者也希望获得智能体运营者关于用户行为范式的信息,以优化自身的对齐训练。面对全价值链的繁重合规义务,这就需要既避免责任被不合理转嫁,也要防止出现责任真空。正是因此,《新一代人工智能治理原则——发展负责任的人工智能》提出了“共担责任”的原则指引。由此,在端侧智能体的价值链协同中,应当确立与风险程度、技术控制力相匹配的分配基准,各方主体应依据各自对风险的实质控制能力、技术干预可能性等因素展开平等协商,寻求公平的责任共担方案。
第六,伦理价值对齐原则。随着端侧智能体自主决策及行动能力的日益增强,有必要将人类社会的根本价值准则内嵌于模型底层逻辑之中,通过价值对齐从源头确保智能体可信与可控。“在大模型所形成的新型‘人机共生’关系中,‘人与技术走向深度互嵌’。相应地,价值对齐也成为了大模型治理的必要工具。”遵循《关于加强科技伦理治理的意见》中确立“伦理先行”“加强源头治理”的治理要求,及其提出的“增进人类福祉”与“科技向善”的伦理指引,进一步结合《新一代人工智能治理原则——发展负责任的人工智能》关于“和谐友好”与“公平公正”的要求,相关主体应当确保智能体在自主决策及行动的过程中遵循人类文明的基本价值共识。落实到具体法律规范层面,依循《生成式人工智能服务管理暂行办法》第4条及《互联网信息服务算法推荐管理规定》第6条之规定,智能体运营者也应当“坚持社会主义核心价值观”,“坚持主流价值导向”,采取有效的技术措施防止产生针对“民族、信仰、国别、地域、性别、年龄、职业、健康”等特征的歧视。最终,智能体运营者应当通过价值对齐技术,将上述价值内嵌于模型底层,从源头确立人机交互的伦理指引,确保技术应用始终向善向上。

(二)
端侧智能体治理的具体规则及其实施指引

遵循上述法律原则,结合端侧智能体的技术路线及应用风险,监管者应当加紧制定专项规章,如《端侧智能体服务管理暂行规定》或《智能终端代理运行服务管理办法》,以填补现行法在具体制度上的缺漏,并同时发布相关负面清单及技术标准,为端侧智能体的产业发展提供明确可操作的规则指引。
1.构建网络安全底线

在网络安全层面,具体落实系统安全可控原则,并与生态开放包容原则相结合,专项规章应当弥补《网络安全法》的规范不足,将智能体交互中的认知安全纳入规范,并对智能体的行为边界设定强制性护栏,同时发布关于GUI技术应用的负面清单,以寻求在对新兴技术保持开放的同时,平衡对网络安全的维护。
第一,需明确将提示词注入、视觉对抗攻击及其他针对多模态大模型感知及推理技术特征的攻击方式纳入《网络安全法》第24条所述的“安全缺陷、漏洞”范畴。与之相适应,还应要求智能体运营者建立跨模态的输入过滤与一致性校验,即不仅要检测传统的恶意代码,更要部署针对自然语言与视觉信号的专门防御机制。并要求运营者应当在产品发布前通过专门的安全测试,证明其产品具备在含噪或对抗环境下保持认知准确、推理稳定的鲁棒性。
第二,应设定强制性的智能体行为护栏,并明确高风险操作的人工介入义务。鉴于智能体在强化学习过程中可能出现为了优化奖励函数而采取极端手段的奖励投机(RewardHacking)现象,规章应要求提供者在模型底层植入不可逾越的“硬约束”规则集,比如禁止未经确认的资金流出、禁止修改系统安全配置等。这种约束应当独立于模型的概率性输出层,作为确定性的后处理逻辑存在。同时,规章应规定对于高风险操作建立“人类在环”(Human-in-the-loop)的介入机制,防止智能体在处理高风险问题时,为追求任务最优解,采取突破法律及道德底线的行为。总之,智能体提供者应当将LLM技术所固有的不确定性控制在可接受的风险阈值之内。
第三,监管还应当出台关于GUI技术应用的负面清单,并根据技术发展、产业动态、社会动向等因素适时更新调整。该负面清单可以构建分级访问机制:对于高风险敏感领域,如涉及国家安全、金融安全及关键信息基础设施属性的应用(如即时通信工具微信、银行金融类App、税务政务类App),应明确纳入负面清单,鼓励端侧智能体与App厂商通过预先定义的API接口进行受控的互操作,以确保数据交互在双方约定的安全协议框架内进行,同时允许各相关App采用技术手段屏蔽端侧智能体对其实施屏幕读取与模拟点击能力,以防范误操作所可能造成的网络安全风险。而对于负面清单外的领域,则应在满足其他合规要求的情况下允许智能体通过GUI方式跨App运行,以最大化智能体为用户服务的效率,并为市场主体通过新兴技术开展竞争保留空间。
2.重塑个人信息保护

在信息隐私层面,为了具体落实个人信息处理的正当必要原则,并结合运行透明可溯原则,及责任公平共担原则。监管可通过专项规章明确智能体运行中的个人信息保护责任的承担者,并对智能体运行下的告知同意机制及数据处理的端云协同进行专门规范。
第一,应当明确穿透“智能体”这一技术中介,锁定作为组织或个人的个人信息处理者。依据“人工智能价值链”理论,法律责任的分配应聚焦于价值链中的“中心节点”。在端侧智能体场景下,这就包括底层模型的提供者,将模型与功能封装为一体的智能体运营者,以及将智能体融入底层操作系统的智能终端厂商等。他们皆属于组织或个人,能够成为《个人信息保护法》意义上的个人信息处理者。而遵循责任公平共担原则,需根据端侧智能体所采取的不同模式,具体认定承担个人信息保护责任的主体。比如,“OS+GUI”模式下的豆包手机,其底层模型的提供者与智能体运营者都是字节跳动,而由于其智能体亦被融入操作系统,那么中兴也应构成共同的个人信息处理者;而“App+API”模式下的美团小美,由于没有融入操作系统,且底层模型提供者与智能体运营者为同一主体,那么仅美团为个人信息处理者。依据《个人信息保护法》第20条之规定,在共同个人信息处理者之间,应当明确约定各自的权利义务,“侵害个人信息权益造成损害的,应当依法承担连带责任”。
第二,重构“告知—同意”机制,允许对智能体进行场景化概括授权。规章应允许用户在开启服务时进行基于场景(如“购物助手”“办公助理”)的个人信息处理概括授权,不再就每一具体需求都向用户履行“告知—同意”之操作。但作为制衡,一方面,概括授权的范围应当限于用户合理期待的范围。这应基于用户的交互历史来形成初步判断,再向用户明确告知拟处理数据的范围,并需获得用户的单独明示同意,并且用户还应可以随时轻易地撤销或更改上述概括授权。另一方面,还应强化过程透明及操作可追溯,即应强制要求智能体在运行过程中通过显著的视觉标识(如状态栏图标变化)提示是否正在读取用户屏幕信息,并以视觉标识区分“纯端侧运行”与“云端协同”等不同数据流动状态,当数据发生出域传输或涉及敏感操作时,即应触发提示,确保用户对数据流向具备实时的感知与控制能力。当然,上述操作的信息痕迹,比如对屏幕的图片解析、数据出域情况等,皆应当留存备查。
第三,根据数据类型确定端云协同方案,以平衡个人信息保护与算力优化配置。鉴于端侧智能体获取信息的混杂性,规章应强制要求生物识别、金融账户等敏感信息必须在端侧闭环处理,严守个人信息及隐私保护的底线。而对于非敏感数据,确需上云处理的,在经用户授权后,应当允许调用云端大模型协同处理以保障效率。同时,规章还应要求对云端处理设定严格闭环,比如运营者仅可将数据用于当次推理,任务完成后须立即删除原始及中间数据,严禁留存用于后续模型训练或画像,除非获得相关权利主体的单独同意。
3.维护开放竞争秩序

在产业生态层面,应当坚持生态开放包容原则,并结合运行透明可溯原则及责任公平共担原则,通过专项规章确立智能体进行流量分发的基本规则,并规定端侧智能体及各第三方App之间建立合理的互联互通机制,避免端侧生态走向封闭,再以助推方式促成关于责任及利益的公平分配方案。
第一,构建用户利益优先的中立流量分发规则,并严防超级入口的“自我优待”。针对端侧智能体作为新一代流量分发枢纽可能引发的不正当竞争及垄断风险,规章应强制要求其决策必须遵循用户利益优先的规则,同时平等对待所有第三方服务提供者,以中立立场在端侧生态中进行流量分发。具体而言,智能体在响应用户模糊指令(如“打车回家”“点一份外卖”)进而代理用户选择具体服务商时,必须考虑用户的历史偏好,并比较价格优势、服务质量、响应速度等多维指标,最后根据用户的最佳利益进行中立决策,且要留存决策作出的考虑因素和相关依据。对于有能力进行跨App操作的端侧智能体,无论采用何种技术路线,规章都应在原则上禁止此种智能体优先向用户推荐其自身或关联企业的同类产品与服务,这类行为可被明确认定为《反不正当竞争法》第13条规定的“其他妨碍、破坏其他经营者合法提供的网络产品或者服务正常运行的行为”,构成不正当竞争。
第二,确立透明访问、精准记账与受限拦截的互联互通规则,平衡生态的开放包容与经营者的自主经营。针对GUI跨App操作引发的对抗与封禁问题,规章应建立一套标准化的访问规则。一方面,应当在原则上允许智能体正当访问其他App,但必须进行身份开示,如要求智能体通过GUI路径访问第三方App时,必须携带特定的电子标识以表明其“机器代理”的身份,保障交互过程的透明度与可追溯性。另一方面,应当对智能体通过GUI进行访问后调取数据的流入、流出情况进行精准记账,以支撑后续的利益分成与责任分配。此外,应限制第三方APP提供者对GUI访问的防御手段,规定App提供者不得实施无正当理由的恶意不兼容或技术封禁。仅在App提供者能够举证证明智能体的访问行为严重威胁其系统安全、导致数据大规模非授权爬取或显著降低用户体验时,方可采取必要的拦截措施,以此在保障数字生态开放包容与维护经营者自主经营之间寻求平衡。
第三,对于智能体开展跨App操作所引发的流量及责任分配问题,应以市场化的协商机制为主要路径,监管者宜秉持助推理念,引导各方借鉴成熟的数字商业模式,逐步达成公平合理的利益及责任分配协议。
首先,在利益分配层面,可借鉴如高德打车等聚合平台模式,推动建立基于交易实效的佣金分成机制。在聚合平台模式下,高德平台并不直接提供客运服务,而是利用自身的流量优势获客,再通过算法将用户需求精准分发给接入的第三方服务商,换言之,“网约车聚合平台经营者提供的服务只是信息服务,而不是客运服务”。类似于网约车聚合平台与底层运力商之间的关系,端侧智能体也在扮演流量聚合和分发的角色。借鉴上述模式,端侧智能体的运营者可以与各第三方App提供者平等协商,探索将传统的广告展示付费转变为基于交易达成的佣金分成模式:当智能体成功代理用户在第三方App完成交易闭环后,第三方App应按约定比例向智能体运营者支付信息服务费,从而避免陷入流量分配的零和博弈,而致力于通过共同营造好的产业生态创造更多的订单增量。
对监管侧而言,其应在专项规章中明确各方应当以平等方式开展协商,共同确立公平合理的利益分配方案。特别是考虑到端侧智能体运营者极可能在相关市场中占据相对优势地位,监管者可在规章中明确强调,拥有相对优势地位的经营者,不得滥用其优势地位实施不公平高价或歧视性定价,而应以生态开放包容原则为指引,确立公平、合理的利益分配模式。
其次,在责任分配层面,可探索通过持续迭代专门技术标准,构建适配于具体场景的动态归责机制。《产品质量法》第46条规定,若存在国家标准、行业标准的,可以根据是否符合该标准认定产品是否存在“缺陷”。与该条款相衔接,监管应当推动由行业协会牵头产业界内各方主体共同协商制定如《端侧智能体场景适配技术规范》的技术标准,并定期更新,针对不同风险等级的业务场景,设定差异化的智能体能力分级与App交互界面可辨识性标准。争议发生时,依据各方行为与技术标准的“偏离程度”按比例划分责任:若智能体在未达到适配标准的情况下强行操作高风险业务,由其承担主要责任;若第三方App提供者违规变更符合通用标准的交互界面导致可辨识性降低进而引发执行失败,则由其承担相应责任。同时,考虑到技术标准制定中可能存在的博弈与滞后,可以探索配套建立免责安全港制度:若相关主体虽未严格遵循特定标准,但经中立第三方的技术测评证明其采取的替代性技术措施在安全与效能上不弱于标准要求,则应当予以免责。以上机制旨在形成双向激励:一方面推动智能体运营者不断提升智能体对场景的适配能力,另一方面引导第三方App提供者维持界面的规范性与可交互性,最终实现端侧智能体与App的持续协同进化。

(三)
端侧智能体产业的技术治理及其配套实践

端侧智能体具备高度的自主决策能力,长期来看,确保其行为逻辑与法律及伦理规范相一致,是实现有效治理的根本。而切实贯彻伦理价值对齐原则,关键并不在于法律法规对产业界课以何种规范义务,而在于引导、推动产业界配套开展相关技术治理实践,以真正打破规范与技术之间的壁垒,将外部的法律及伦理规范转化为智能体内部的代码权重。监管者可通过专项规章作出倡导性规定,具体可涵括下述三方面:
第一,加强模型训练阶段的合规植入,将法律及伦理要求嵌入模型的权重之中。在模型预训练与微调环节,智能体的运营者就应将法律法规及公序良俗融入具体的训练语料和奖励函数,利用人类反馈强化学习(RLHF)等技术手段,为智能体在底层模型中植入符合法律及伦理要求的行为偏好。确保智能体在接收到非法或高风险指令时,能够基于预设的价值规则自动识别风险并拒绝执行,从基础模型的源头防范技术滥用。
第二,建立全生命周期的信誉评价机制,重塑智能体的评价导向。应当完善智能体评价体系,改变当前主要关注性能的单一评价维度,将合规度、安全度、隐私友好度等价值维度纳入评价指标。支持监管机构或第三方组织开展独立的智能体全生命周期信用评级,对存在违规获取隐私、输出有害信息或实施商业欺诈的智能体,依据评级结果实施市场降级或禁入。通过明确的评价导向,引导产业界从单纯追求技术能力转向构建全生命周期安全可信的智能体生态。
第三,以开放迭代对齐工作流为监管助推,验证价值对齐的有效性。目前,国际前沿厂商(如Google发布Gemini系列时)详细披露安全对齐细节已成趋势,乃旨在通过技术透明获取市场信任。监管者应鼓励国内头部企业主动披露其法律及伦理价值对齐的工程实践,即如何将抽象的法律规则及伦理要求转化为训练阶段具体的数据集构建及奖励函数设计。这种披露不仅有助于形成行业最佳实践,促进对齐技术的迭代,更为监管者制定技术上可行、法律上有效的监管标准提供了实证依据,从而推动监管与产业的协同共治。
结语
手机端侧作为AI应用落地的重要场景,端侧智能体技术架构的演进将深刻重塑人机交互范式与数字产业生态。对于当前的产业实践,可以基于操作系统融合度与交互路径选择这两个维度区分出四种类型,以明确界定监管对象。其中,以“豆包手机”为代表的“OS+GUI”模式,不仅能够获得系统级的权限支持,还可通过MLLM的多模态解析能力自主泛化跨App操作,从而拥有了最高程度的自由度。
端侧智能体在提升服务效能的同时,也对现行规范秩序提出了挑战:在网络安全方面,端侧智能体将带来认知层攻击风险及运行中出现目标劫持等不可控行为的风险;在信息隐私方面,其全域感知能力与个人信息保护的“最小必要”原则存在冲突,且端云协同处理增加了数据出域风险;在产业生态方面,智能体的跨App操作很可能引发自我优待的不正当竞争风险,并会带来利益的再分配及相关责任的归属难题。现行《网络安全法》《个人信息保护法》及《反不正当竞争法》等规范体系在应对上述新型风险时均存在适用局限。
构建端侧智能体治理的规范架构,可基于既有法律及政策规范体系提炼包括系统安全可控、信息正当必要、生态开放包容、运行透明可溯、责任公平共担及伦理价值对齐这六项专门法律原则。再基于上述原则,围绕端侧智能体的应用风险,有针对性地发展具体规则:为了维护网络安全,应当以专项规章明确将认知安全纳入网络产品安全义务,并要求设定“硬约束”行为集,发布GUI技术应用的负面清单;为了保护信息隐私,应当穿透技术中介明确智能体价值链上下游的关键节点作为个人信息处理者,并在要求实施状态可视化管理的前提下,允许对智能体进行场景化概括授权;为了优化产业生态,应当规定用户利益优先的中立流量分发规则,并确立敏感信息本地化、非敏感信息端云协同的数据处理规则,还应推动产业自主协商构建基于流量归因的商业利益分配机制与基于场景适配标准的责任分担机制。最后,还应引导、推动产业界配套实施相关技术治理实践,包括在模型训练阶段植入合规约束,建立全生命周期的智能体信誉评价体系,并践行价值对齐工作流的开放迭代。
回顾2022年11月ChatGPT全球发布,历经四年,LLM的快速发展已极大推动了AI技术对人类经济社会的深度渗透。而随着智能体于用户端侧的广泛部署,这将标志着基于LLM的AI价值实现即将获得具体的载体。站在这一趋势性变革的转折点,构建恰当的治理规范体系,将有助于我们引导产业各方尽快走出囚徒困境,通过生态的开放共生,协力追求价值创造,以将科技创新所带来的福祉真正普惠于数字时代的每一位普通人。

往期精彩回顾
章诗迪|数字资产的担保能力证成及其制度构建
屈茂辉|《民法典》基础性法律地位的立法实现
刘薇|民法视域下低空空域权的层次化配置
目录|《东方法学》2026年第1期
刘艳红|大模型赋能法治建设的发展方向
许可|AI智能体的私法构造与行为边界

上海市法学会官网
http://www.sls.org.cn