算法透明治理的需要催生了我国算法备案制度。要确保算法备案制度真正落地生根,不仅需要坚实的理论基础作为支撑,更需要回归备案文本进行实践反思,优化制度设计。算法备案制度已实现了生成合成类算法的独立以及检索过滤类算法的拆分两大重要转变,但是目前类型化的算法备案制度面临类型难以界分、与生成式人工智能备案范围的重叠以及备案信息质量难以保障的治理难题。对此,未来我国应以风险为导向,从类型化算法备案逐步转向风险分级人工智能系统备案,并基于包容审慎的监管理念制定一套科学、合理的运行机制,包括完善备案填报指导机制、健全备案审核与责任机制、实行备案继承机制等,以保障备案制度良好运行。
人工智能时代背景下,各类算法层出不穷,在产生巨大经济社会发展收益的同时,也对监管与用户权益保障提出了新的挑战。对此,国内学界对算法透明、算法公开、算法解释等议题探讨如火如荼。算法备案制度的诞生即为算法透明框架下的一项制度实践,肩负着监管技术使用与用户权益保障的双重责任。“算法备案”最早被作为监管体系中的一个重要环节,是在《关于加强互联网信息服务算法综合治理的指导意见》中提出的。随后,《互联网信息服务算法推荐管理规定》(以下简称《算法推荐管理规定》)公布,规定具有舆论属性或者社会动员能力的算法推荐服务提供者应当履行备案义务。自此,我国正式建立了以算法为中心,以算法推荐服务提供者为义务主体,以个性化推送类、排序精选类、检索过滤类、调度决策类、生成合成类划分为格局的算法备案制度。截至2025年6月,国家互联网信息办公室通过互联网信息服务算法备案系统已发布《境内互联网信息服务算法备案清单》(以下简称《信息服务清单》)12批,包含575份境内互联网信息服务算法备案文件;发布《境内深度合成服务算法备案清单》(以下简称《深度合成清单》)11批,包含3445份境内深度合成服务算法备案文件,共计4020份备案文件。其间,算法备案制度不断进行经验总结与自我优化,一方面,基于《互联网信息服务深度合成管理规定》(以下简称《深度合成管理规定》),将深度合成服务类算法与其他类型分离后独立发布,不仅提升了表达上的技术精准度,而且回应了深度合成服务类算法庞大体量的实践需要;另一方面,基于检索类算法与过滤类算法在目标、性质和信息流向等方面的区别,将检索过滤类算法拆分为信息检索类与内容过滤类以符合算法的运行逻辑,防止技术误解的出现。自此,算法备案形成了“5(个性化推送类、排序精选类、信息检索类、内容过滤类、调度决策类)+1(深度合成服务类)”的类型模式。自2022年8月第一批《信息服务清单》发布时,已有一些学者对算法备案制度的性质、功能、价值理念、控制路径等问题进行了理论剖析,也指出了目前算法备案分类存在一定的不合理之处,并被算法备案制度及时吸纳。但在实践发展中,算法备案制度在规制对象、划分类型以及备案信息质量等方面仍存在较大问题,类型化的算法备案难以满足技术监管与权益保障的需要,更难以实现技术发展与技术监管的平衡,亟需从算法备案文本出发进行实践反思与制度重构,而目前尚缺乏对算法备案实践进行系统归纳与体系化梳理的相关文献。对此,本文回归算法文本,通过对4020份备案文件进行实证分析,挖掘算法备案制度存在的问题,并在此基础上提出转向风险分级的人工智能系统备案路径,推动算法备案高效高质运行。算法备案制度经过三年的实践,对备案类型不断进行发展与优化,顺应技术发展趋势,但同时逐渐暴露出制度的底层矛盾与外部表现问题。经过对备案文件的梳理与分析,算法备案制度面临类型化矛盾、算法视角局限以及备案信息质量不佳等治理难题,亟需进行回应与解决。
算法备案类型的科学合理划分是备案制度运行的前提与基础,备案主管机关对此高度重视并积极探索与主动优化。自第六批《信息服务清单》起,信息过滤类算法被拆分为信息检索类与内容过滤类两大不同的类型。信息检索类算法一般先由用户发出搜索请求,算法收到请求后对搜索词进行处理,召回相关内容并进行排序后输出结果,其本质是理解搜索词、理解内容以及度量好搜索词和内容的匹配度,是用户向互联网获取信息的过程。过滤类算法又可分为结果匹配型过滤和内容安全型过滤。结果匹配型过滤是将与结果相关度不高或者不符合用户需求的信息与内容进行过滤,一般属于个性化推送类、调度决策类等算法运行的一个环节。例如,网易传媒信息推送算法中的过滤流程,对已经推送过的重复、相似等内容进行过滤;而内容安全型过滤针对的是违规与不良的信息与内容,是算法对用户发布到互联网的信息的审查机制。例如,百度内容安全算法通过模型审核环节对用户发布的网络信息进行风险安全识别。这一调整提升了算法备案类型划分的合理性与科学性。然而,根本的问题是算法的运行逻辑与实践需要决定了算法类型本质上难以被合理划分。根据现有的备案文本,其主要体现在排序精选类算法与个性化推送类算法、信息检索类算法缠绕交织,以及内容过滤类算法难以与信息检索类、深度合成服务类算法清晰界分两个方面。一方面,排序精选类算法与个性化推送类算法、信息检索类算法缠绕交织。《信息服务清单》中的排序精选类算法常运用于热搜榜单等场景,根据数据指标进行计算打分,并按照得分由高到低进行排序。个性化推送类算法的运行机制一般包括标签内容、用户画像、内容召回、排序、推荐等流程。同样,信息检索类算法在输出前的最后步骤也是排序。通过对比分析微博热搜算法与微博个性化推送算法、网易传媒信息推送算法与网易传媒信息搜索算法两组备案文件后可以发现,排序精选算法被嵌套在个性化推送类、信息检索类算法中运行。因此,排序精选算法应用场景实质上十分广泛,并不局限于《信息服务清单》中热搜榜单类场景,强行将排序精选类单独剥离的做法不符合技术运行实践。另一方面,内容过滤类算法难以与信息检索类、深度合成服务类算法清晰界分。内容过滤类算法本质为一种安全审核机制,用以防止违法信息与不良信息的发布与传播。虽然第六批《信息服务清单》将检索过滤类拆分为信息检索类算法与内容过滤类算法,但备案文件中仍存在不少将两者混为一谈的现象。例如,赶集直招信息检索类算法中仍出现了合规过滤的表述。究其根源在于信息检索类算法往往都会将内容安全考虑在内,并设计过滤机制。同理,发现、处置不良与违法信息是深度合成服务提供者的法定义务,该算法服务提供者必定会设计相关审核与过滤机制。例如,智谱ChatGLM生成算法虽被归类为信息检索类算法,但其运行过程中会对用户输入数据以及产品输出数据进行两轮审核,以过滤违法与不良信息。因此,内容过滤类算法难以与信息检索类、深度合成类等有安全合规需求的算法类型划清界限。
深度合成服务类算法备案与生成式人工智能服务备案范围重叠
深度合成服务类算法发展迅猛,是备案主管机关密切关注的技术领域。目前面临较为复杂的情形是,深度合成服务类算法备案与生成式人工智能服务备案范围存在重叠,导致重复备案问题突出。《深度合成管理规定》要求具有舆论属性或者社会动员能力的深度合成服务提供者,应当按照《算法推荐管理规定》履行备案和变更、注销备案手续。随之,生成合成类算法转变为深度合成服务类算法进行独立发布。2023年被认为是“生成式AI元年”,标志着人工智能进入了新纪元。ChatGPT的问世实现了生成式人工智能的“去神秘化”和“去壁垒化”,也掀起了生成式人工智能的热潮。生成合成类算法层出不穷,应用场景广泛多样,自然语言处理、语音合成、声音模仿、美颜换脸、画质修复、3D建模等都离不开生成合成类算法的支持。至2025年6月,《深度合成清单》已发布11批,共计3445份备案文件,是其他五类清单总量的五倍多,且备案数量持续上升,总量势必愈加庞大。从技术层面来看,深度合成是利用生成合成类算法制作网络信息的一种技术,但生成合成类算法不限于深度合成技术,其包含所有能够生成新的数据样本的算法,例如,云学习算法、进化算法、结合了多种技术的混合模型等算法。通过查阅与分析,前两批《信息服务清单》中10份生成合成类算法备案文件内容都直接或间接表明这些算法利用了深度合成技术,而且两者就备案流程与要求而言并无太大区别。因此,由“生成合成类”到“深度合成服务类”,虽然在技术含义上发生了限缩,但不会对企业履行算法义务产生实质影响。综合来看,该转变不仅使表述更加精确、范围更加清晰、备案结构更加合理,而且顺应了技术发展趋势。然而,值得进一步关注的是,目前算法义务的双备案模式引发的重复备案问题。根据《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)第17条,以及2024年4月发布的《国家互联网信息办公室关于发布生成式人工智能服务已备案信息的公告》,具有舆论属性或者社会动员能力的生成式人工智能服务提供者应当向属地网信部门履行备案义务。重复备案问题可以从形式与实质两个层面进行分析。一方面,从已公示的备案信息的名称上看,以算法为对象的深度合成服务类备案与以大模型为对象的生成式人工智能服务备案范围存在重叠。算法与大模型之间联系密切,算法作为构建和运行大模型的底层逻辑,贯穿大模型的整个生命周期。虽然算法并不属于大模型的“物理组成部分”,但大模型的设计、训练、推理全过程依赖算法驱动。例如,大模型的训练依赖分布式训练算法(如数据并行、模型并行)、优化算法(如Adam、Adafactor)以及混合精度训练等技术。因此,深度合成备案义务不可避免地与生成式人工智能服务备案义务产生重复。另一方面,从实质内容上看,算法备案制度存在深度合成服务和生成式人工智能服务、生成式基础模型和下游衍生模型的重复备案。一是深度合成可视为生成式人工智能的一个技术子集,尤其在涉及数据重组和仿真的场景中,视频生成等部分生成式人工智能应用会结合深度合成技术,但生成式人工智能更强调创新性而非单纯合成,两者在技术层面存在交叉。二是人工智能大模型具有完整的产业链,包括数据、算力等基础软硬件的基础层,算法理论及应用技术的技术层,通用大模型和行业大模型的模型层以及应用层四个部分。以DeepSeek为例,其离不开浪潮信息等算力供应商以及易华录、博彦科技等数据提供与标注企业的上游服务,并最终被腾讯、百度等众多下游合作方接入,应用于教育、办公、娱乐、金融等领域。由于DeepSeek与下游合作企业提供的生成式人工智能都属于“具有舆论属性或者社会动员能力的生成式人工智能服务”,因此按照《暂行办法》的规定都需履行备案义务,这将导致重复备案。
2022年2月,《互联网信息服务算法备案系统使用手册》(以下简称《手册》)发布,为企业备案提供指南,但《手册》的主要内容与作用为填报引导,并未对算法基本原理与算法运行机制等重要部分作内容上的要求。因此,目前备案工作缺乏统一引导,处于无序状态,实际操作更多依赖于企业的技术专业性以及对备案的重视程度,导致企业提供的备案信息在有效性、可理解性、全面性等方面不尽如人意。
实践中存在不少企业在备案时采用抽象与模糊用语,且不加以解释,属于无效备案信息。例如,百度信息检索算法提到从相关性、时效性、权威性、页面质量等维度进行检索,但是对相关性、时效性等维度的判断标准不作任何界定与解释,无法从中获取有效信息,备案信息雷同的现象也屡见不鲜,例如小米浏览器内容推荐算法与一点资讯个性化内容推荐算法对算法基本原理与运行机制的描述完全相同,优酷个性化推送算法与淘宝推荐算法的内容相似度不少于50%。虽然同类型的算法在原理与运行机制上有许多共通之处,但每个算法收集信息的范围、方式,利用的技术,排序的参考因素与方式,以及运行过程中的具体机制都存在差异,备案信息不应该完全相同。信息雷同的出现不仅反映了企业对于备案的消极与敷衍,也暴露了不少备案内容并未根据自身实际出发,提供的信息质量堪忧。
算法备案一方面缓解行政相对人与行政主体的信息不对称,提高行政效能,降低公民获得信息的成本,有效发挥信息作用;另一方面帮助行政主体在掌握充分必要信息的条件下,高效合理地作出行政决策并对行政相对人进行指导监督。然而,不少备案内容技术性与专业性太强,公众难以理解,导致算法备案功能难以实现。例如,新浪新闻个性化推荐算法在算法基本原理部分的备案内容为“使用基于snvd日志、apache日志、画像团队offline特征日志、nlp/cv内容理解特征日志和推荐引擎snap-shot日志数据生产的特征样本,利用画像召回模型、协同召回模型、双塔召回模型和deepfm模型等多种模型,根据ctr、时长、互动等多个目标进行模型训练,通过tf-serving服务进行部署,实现针对APP用户的实时新闻个性化推荐功能”。阅读上述内容必须具备一定的技术知识背景,但普通大众以及行政机关往往不具有技术方面的知识储备。因此,该备案内容不利于算法备案制度的功能发挥。
通过对备案文件的查阅,大量的备案文件对数据、技术、计算方法等方面内容阐述不足。不少备案文件对算法基本原理与算法运行机制两部分的文字总数不足180字。以深演智能个性化推荐算法为例,其对算法基本原理与算法运行机制的阐述仅有118字(含标点符号),内容中没有提及任何使用的技术。此外,算法公示情况不容乐观。在备案系统中,算法公示一栏为非必填内容,因此,目前备案文件中填报算法公示情况的企业寥寥无几,绝大多数企业都为待公示状态。境内互联网信息服务算法备案文件中填报算法公示情况的数量为28份,占备案总数不足5%,且其中有三批公示0份;而境内深度合成服务算法备案文件仅有50份,占备案总数不足2%,且其中有两批公示0份。另外,公示的内容与方式也五花八门,大部分企业填报了公示算法运行机制的位置,有的以索引的方式指明,例如“途牛旅游网站:帮助中心—公告、途牛旅游APP:我的—设置—关于—公告”;有的直接填写了网址,例如美团首页搜索算法、小红书排序精选类算法等。值得肯定的是,有个别企业主动公示了发展报告,如蜂鸟物流配送算法在该栏目填写了《2022蓝骑士发展与保障报告》。总体来看,目前算法备案质量参差不齐。例如,日迎科技短视频推荐算法、天启黑马智能搜索大模型算法、创新大脑语义检索算法的备案内容较为全面详实,既有对技术的专业阐释,也有通俗解释,基本可以满足公众、专家、监管者的信息需求。对此应警惕“破窗效应”的发生,社区中小的破坏和失序如果得不到及时修复和纠正,将会导致更多的犯罪和失序行为,从而加速社区的衰退。境内互联网信息服务算法备案文件中算法公示的填报情况已印证了该效应,在第一批到第三批《信息服务清单》中,算法公示填报文件共有20份,且数量为上升趋势,但从第四批到第十二批《信息服务清单》中,算法公示填报文件仅有8份。换言之,当备案质量不合格的企业不会受到任何惩罚,备案质量很高的企业得不到任何激励时,会导致越来越多的企业在备案上投入更低的成本,效仿备案质量低的企业,进而导致算法备案流于形式。因此,有必要制定一套符合算法基本原理以及运行机制的备案内容框架,指导企业提供有效、可理解、全面的信息内容,并建立有关问责与激励机制,唤醒算法备案的价值。制度设计逻辑从根本上主导着制度的运行效能。对算法进行类型化的备案逻辑不能与技术运行适配,且难以满足监管、发展与知情权保障的需要。因此,转变备案思路是首要任务与基础工作。作为人工智能系统的一个组成部分,算法对系统运行发挥着重要作用。但算法并非全部,过度强调算法反而会忽视对人工智能系统的整体考察,有必要从算法转向人工智能系统。另外,人工智能系统的运行需要多种算法的互相配合,难以对算法类型予以单独剥离,强行归类就如“悬驼就石”,为治理徒增障碍,较为合理的思路为从类型化转向风险导向的分级备案。
算法备案的法律性质决定了备案义务主体的责任内容以及备案主管机关的监管范围与手段。因此,厘清算法备案的法律性质是设计制度逻辑的前提与基础。目前学界对于算法备案性质的认识有共识,但也有分歧。一方面,国内学者对算法备案不是行政确认与行政许可行为的认识上持一致态度,但国外有学者指出备案制度在实际操作中融合了强制披露与许可制度的双重特征。从现有规范以及备案实践来看,算法备案义务仅包含履行备案行为以及真实备案义务,并不产生前置性许可的效果。而且算法备案是鼓励技术发展与规范技术运用的平衡术,如定性为行政许可会增设备案障碍,妨碍技术创新。另一方面,国内学者对算法备案属于行政备案达成了共识。《算法推荐管理规定》第31条和第33条明确规定了算法推荐服务提供者负有按照规定向网信部门提交备案材料,履行备案以及真实备案的义务,不履行备案义务以及虚假、隐瞒等行为会引发警告、通报批评、责令限期改正等一系列法律责任。而且,算法备案与行政备案的功能契合,是一种有效的信息规制手段,不仅支持行政主管部门进行外部合规监管,而且有利于保障用户的知情权,并激励企业自我监管。因此,从备案主体、法律效果以及功能价值来看,算法备案属于行政备案。但对于算法备案属于何种行政备案,学界的态度并不完全一致。例如,有学者认为,算法备案是一种“具有多重属性和特殊功能的特殊的行政备案制度”,也有学者进一步在行政备案框架下主张算法备案属于兼具监督与告知功能的行政事实行为。“行政备案”事实上是一个实践概念,从实在法的角度来看,其可以细分为许多类型,依据功能不同可以划分为告知性行政备案与监督性行政备案;依据时间先后不同可以划分为事前行政备案与事后行政备案;依据对象不同可以划分为内部行政备案与外部行政备案。从备案阶段与审查形式来看,规范意义上的行政备案可区分为预防型备案、告知型备案和后设型备案。由于目前学界对行政备案的性质认定与类型划分仍未达成共识,因此有必要进一步探究算法备案的性质。首先,算法备案要求企业将特定算法的名称、运行机制、基本原理等真实信息在互联网信息服务算法备案系统向网信部门进行填报,因此属于外部行政备案。其次,不履行算法备案义务或者不真实备案会引发一系列法律责任,但并非前置性许可,也并非对现有法律关系的确认,且主要体现为信息规制手段。信息公开是比命令控制式成本更低、侵入性更轻微的一种替代性规制策略,现代信息技术极大拓展了政府利用信息作为规制工具的能力。算法备案即通过特定信息的公开起到技术规制的作用,因此属于监督性行政备案。最后,算法备案行为在备案阶段上为事前阶段,且审查为形式审查与程序审查,实质审查可能导致算法备案异化为行政许可。但其同时具备告知型备案与后设型备案的部分特点,不仅注重鼓励算法技术发展,而且可以通过与备案后监管制度衔接,进行实质审查。
基于算法之间的协作性、算法与大模型的关系以及多模态大型语言模型发展伴随的多模态任务等实践的需要,以算法为中心的备案系统容易陷入片面的、孤立的、静止的分析视角,不符合技术运行逻辑和技术发展趋势,有必要转向以人工智能系统为中心的备案系统,科学、全面、及时地把握技术风险,促进技术发展。人工智能系统的运行往往需要多种算法相互作用。以淘宝为例,用户进行淘宝购物首先会受到淘宝首页个性化推荐算法的推送,紧接着用户检索后会触发信息检索类与排序精选类算法的运行。截至目前,浙江淘宝网络有限公司已经在备案系统备案了12份文件,涉及排序精选类、生成合成类、个性化推送类、检索过滤类各个类型,而且类似一个主体备案多份的情形比比皆是。这样的备案方式不仅在类型划分上存在逻辑矛盾,还会导致公众查阅的困难以及资源的浪费。另外,正如前文所述,算法与大模型作为灵魂与躯体相伴而生,并统一于人工智能系统中,将算法与大模型割裂开来进行单独备案不仅在技术逻辑上不合理,而且会导致重复备案。近年来,以GPT-4V为代表的多模态大型语言模型发展迅猛,其允许获取与处理文本、图像、语音等多种形式的数据与信息,执行多模态任务。实践中的检索、生成与预测等任务往往紧密相关,而非孤立存在。例如,DeepSeek大语言模型算法可以进行智能对话、文本生成、语义理解、计算推理、代码生成补全等多类任务。此外,针对大模型引发的一系列伦理与安全问题,价值对齐与事实对齐成为人工智能领域的重要议题,要求人工智能模型在输出结果之前须判断并确保其符合人类价值体系、法律规定与客观事实,这意味着审核过滤应当是每个模型的基本要求与必备环节,而非作为一种独立的算法类型存在。例如,DeepSeekChat求索对话生成算法在输出生成之前要经过违法不良信息审核,并基于知识和对齐要求进行推理和计算。因此,技术进步与实践发展表明,技术治理不应局限于算法的局部视角,而应综合统筹并慎重对待。转向以人工智能系统为中心的备案系统,将以一种全局的、联系的、发展的视角对待人工智能技术问题,可以摆脱算法仅作为人工智能系统运行的一部分的局部视角局限,综合、全面地考虑人工智能系统技术问题;可以避免出现一主体数份备案的情形,在节省备案资源的同时利于用户查阅;可以防止将算法孤立化,消解算法备案类型交叉重叠的问题;还可以及时回应与跟进人工智能技术的新发展与新问题。因此,人工智能技术的运行逻辑与发展趋势在很大程度上决定了以人工智能系统为备案对象的科学性与合理性。在算法大爆炸时代,我们更应理性、客观地看待算法问题。算法仅是人工智能系统运行的一部分,不应被盲目夸大与过度强调,转向以人工智能系统为中心的备案体系更有利于把握人工智能技术的风险全貌,实现有效监管与技术发展的平衡。
类型化有其固有弊端,具有封闭、僵化的局限性。基于算法之间的紧密联系性、人工智能系统运行的复杂性以及实现合规要求等因素,类型化难度极高,几乎难以实现合理分类。对比之下,分级划分机制较为灵活,且包容性更强,更有利于风险监管,并已获得实践的认可,形成了较为成熟的制度范例与科学的方法论。因此,从类型化转向风险分级更具合理性与可行性。算法迭代速度快,发展迅猛,很难构建一套全面而周延的算法分类体系以囊括所有的算法类型,拘泥于特定算法类型的分类分级将难以满足实践需要。《算法推荐管理规定》第2条第2款用“等”字为实践留下了灵活发展的空间,但通过上文论述可知,算法备案难以类型化的根本原因是算法之间的紧密配合与互相嵌套。因此,以算法为对象进行分类必然会出现交叉重叠、界限不明等问题。对于人工智能系统而言,其功能更加综合、全面、复杂,往往集检索、过滤、预测、生成等任务于一身,同样难以类型化。而且,人工智能系统风险多样,具有不确定性、不透明性、泛在性、变动性等特征,类型化划分虽然在短期内具有较强的可操作性,但无力应对人工智能系统复杂多变的技术风险,无法有效进行技术治理。以风险为导向的分级治理体系可以从多维度对风险进行分析与级别评定,兼具事前预防与事后控制的作用,且可以随着技术的发展不断容纳新的风险。因此,风险分级治理体系已被加拿大、欧盟等广泛认同并采用。欧盟《人工智能法》对监管人工智能技术的应用具有里程碑式的意义。该法案区分了不可接受的风险、高风险、有限风险和最小风险的人工智能的使用,明确规定了禁止某些不可接受的人工智能行为;在人工智能系统可能对基本权利和安全构成高风险时施以重点监管,对高风险人工智能系统提出了高质量数据、文档和可追溯性、透明度、人为监督、准确性和稳健性要求,要求在投放市场或投入使用之前高风险人工智能应用应在欧盟数据库中备案,而对于非高风险人工智能系统仅规定有限的透明度义务。我国《算法推荐管理规定》第24条的“具有舆论属性或者社会动员能力”实质上也是基于风险考量后的划分,但在备案系统中并未继续坚持风险导向的思路,而转为了类型化路径。场景理论提倡以情境为导向分析风险并制定策略。人工智能治理框架下的场景理论最早来源于海伦·尼森鲍姆针对隐私保护提出的场景一致性理论。后由国内学者将场景理论引入算法治理,在该理论指导下提出了场景化的算法规制路径。欧盟《人工智能法》附件三即是对场景理论的运用与实践,其将高风险应用场景分为8个领域:自然人的生物识别和分类,关键基础设施的管理和运营,教育和职业培训,就业、用工管理和自营职业机会,获得和享受基本的私人服务和公共服务及福利,执法,移民、庇护和边境管制管理,司法和民主进程。我国可以借鉴欧盟《人工智能法》的划分思路,以风险为导向,以场景理论为指导,对备案系统进行划分。
算法备案系统运行至今三年有余,已初步形成了较为稳定的类型化备案模式。考虑到算法备案系统的稳定性与连续性,算法备案制度改革应当循序渐进,在备案实践中稳步推进。具体来讲,构建风险分级人工智能系统备案制度可以分“两步走”,短期内形成以人工智能系统为中心的场景化备案系统;未来逐渐建立完善的人工智能系统风险分级体系,实现以人工智能系统为中心的风险分级备案系统。短期内向着以人工智能系统为中心的场景化备案系统迈进,可以采取“小两步走”策略。第一步实现以人工智能系统为中心的备案系统。以算法为中心是导致备案系统繁杂、割裂的根本原因,因此转向以人工智能为中心的备案系统是备案制度优化的首要任务,改变目前“一系统数份备案”的现状,理顺备案逻辑,契合技术运行机制。第二步实现场景化备案,向风险分级靠拢。形成一套逻辑严密、科学合理、能平衡技术安全与发展的风险评价体系需要政府、专家、企业、公众的合力与探索,不能一蹴而就。场景化作为风险分级的关键依据与重要体现,可以先行上阵,为建立完备的分级体系奠定基础。这个阶段的核心任务为厘清适用备案的人工智能系统类型。根据《互联网信息服务管理办法》第2条到第4条的规定,互联网信息服务是指通过互联网向上网用户提供信息的服务活动,又可根据服务的有偿性分为经营性与非经营性互联网信息服务,并分别实行许可制度与备案制度。因此,利用人工智能系统向用户提供互联网信息服务应当履行ICP许可或备案,但更为关键的是部分人工智能系统的特殊许可问题。《人工智能示范法3.0》第32条提出应建立人工智能负面清单制度,对负面清单内的产品、服务实施许可管理,对负面清单外的产品、服务确有需要的实施备案管理;并在第33条至第40条详细规定了许可的条件、申请、审批、公开等内容。《人工智能法(学者建议稿)》第49条也指出了开发者、提供者的许可义务,在第72条和第75条明确列明医疗人工智能和自动驾驶等特殊领域利用人工智能的许可义务,并在第53条提出了关键人工智能的备案义务。对此,可以基于人工智能系统的特性,针对性地完善备案制度,并兼容未来在特殊领域可能出现的行政许可需求。基于对鼓励技术发展、风险规制以及我国算法备案制度功能的考量,转向后的人工智能备案系统应当以备案为原则,许可为例外,这需要一套精巧的设计方案重新架构,以克服算法备案局限,并充分发挥备案制度价值。首先,可以从技术层面进行一级分类,将人工智能系统分为传统人工智能系统与生成式人工智能系统。一方面,将个性化推送类、排序精选类、信息检索类、内容过滤类、调度决策类五类算法类型整合为信息筛选类和决策规划类两大类型,同时披露其是否采取机器学习路线、是否本地化部署模型及处理何种个人信息等有风险治理意义的基础性信息,实施“简易备案”;另一方面,对生成合成类的人工智能系统实施“完全备案”,只要具备基于系统用户输入的不特定信息生成的能力,即作为生成类人工智能系统参照目前生成式人工智能服务的备案标准实行一次性整体备案,避免一个系统的多重备案。如此既可以整合现有分类,解决算法类型化矛盾的问题,又在一定程度上保留了算法备案制度的积极探索,顺应技术发展趋势,促进备案制度顺利转向。其次,可在一级分类的基础上构建基于场景的二级分类,由法律、行政法规对军事、医疗、自动驾驶等可能危及公民生命健康或国家安全的领域设置前置性许可,规定许可的申请条件、程序、法律责任等问题。许可申请可在备案平台上提出。此外,人工智能系统备案信息还需要包含应用场景,仅在技术上进行传统人工智能与生成式人工智能的划分颗粒度过粗,不便于备案管理、用户查阅与社会监督。除需要特殊许可的前述领域外,其余应用领域可以根据生活、就业、教育、金融、政务等场景进行划分,并在未来实践中不断丰富与优化。基于前述二级分类,每份备案文件中都应对人工智能系统的主要用途和应用场景作明确阐释,如此设计更有利于平衡技术发展与监管,并保障公民权益。长期来看,需要一套可操作的风险分级评价体系以指导、支持备案系统的运行。风险分级体系应当秉持包容审慎监管理念,防止片面的强监管模式阻碍技术发展。一方面,风险高低的评价标准应当是公众参与并充分协商的结果,制定过程中需广泛吸收企业、专家、公众等各利益相关方的需求与建议。另一方面,人工智能为驱动新质生产力的重要引擎,应对其审慎监管。备案系统不能仅关注风险监管,还应以技术发展为导向,培育壮大智能产业,为高质量发展提供新动能。目前,“具有舆论属性或者社会动员能力”实际上承担着风险判定的功能,但其重在对互联网私主体进行规范,以促进互联网信息服务健康有序发展,忽视了一些与个人权益相关的重要领域。从长远考虑,可以制定一套完备的人工智能系统风险评价体系,将备案义务嵌入其中,形成科学、合理、发展的人工智能监管体系。在具体的风险划分标准方面,可以通过考察域内外的经验,结合我国算法备案制度的目的,确定我国人工智能系统的划分标准以及备案范围。一方面,欧盟《人工智能法》第7条将存在可能危害健康和安全,或对基本权利造成不利影响,而且其严重性和可能性等于或大于附件三中提到的8个领域的高风险人工智能系统所构成的危害或不利影响风险的也归为高风险。加拿大《自动化决策指令》依据对个人或社区的权利、个人或社区的健康或福祉、个人或社区的经济利益以及生态系统的可持续性的影响程度,将自动化决策分为四个等级:一等级为可修复且短暂的影响;二等级为可修复且短期的影响;三等级为难于修复且持续性的影响;四等级为不可修复且永久的影响。另一方面,我国《信息安全等级保护管理办法》依据对公民、法人和其他组织的合法权益损害程度以及是否损害国家安全、社会秩序和公共利益,将信息系统的安全保护等级分为以下五级,并规定第二级以上信息系统应当在由其运营、使用单位到所在地设区的市级以上公安机关办理备案手续。可见,除场景化标准外,人工智能系统风险的划分依据主要为对个人权益、社会利益、国家安全的影响程度以及影响周期。结合我国算法备案制度的功能定位以及对特殊领域的风险考量,我国人工智能系统风险的分级可以尝试划分为三级:第一级为对于个人权益影响轻微,并且不损害社会利益与国家利益的人工智能系统;第二级为可能侵犯公民、法人和其他组织合法权益但不影响国家安全的人工智能系统;第三级为教育、医疗、司法、信用评价等特殊领域的人工智能系统以及可能严重侵犯公民、法人和其他组织合法权益或影响国家安全的人工智能系统。二级以上(包括二级)的人工智能系统应当履行人工智能系统备案义务。结合前文对人工智能备案制度的功能描述以及备案类型的确定,人工智能系统原则上应一般性地负担备案义务。因此,风险分级的关键为何种风险的人工智能系统可以免于备案,即明确免于人工智能系统备案的标准与条件。免于备案的人工智能系统必须对个人权益影响轻微,并且不损害社会利益与国家利益。具体而言,综合考虑人工智能系统的使用目的、技术类型、尽到安全保障等因素,以下三种情形可以免于备案:第一,用于个人目的或小规模群体内部使用,不投放于市场的人工智能系统;第二,不具备信息生成合成能力,仅用于娱乐目的且尽到安全保障义务的人工智能系统;第三,语义无涉的规则型系统,即不具备机器学习和处理语义信息能力的人工智能系统。上述系统技术原理较为简单,风险治理逻辑清晰,对重大法益可能造成的冲击相当有限,不施加备案的规制负担符合比例原则的要求。为实施上述基于风险分级的备案豁免制度,应当合理设置人工智能服务提供者的自我评估义务,由服务提供者进行风险测评,也可委托专业第三方机构进行风险评估,以此确定风险等级。目前国内外在算法影响评估方面已有许多探索与经验,可为我国完善人工智能系统风险评级的标准与因素提供智识与参考,未来可以进一步与《个人信息保护法》《数据安全法》中的影响评估义务相衔接。在转向风险分级导向的人工智能系统备案制度的过程中,除了对制度构建路径的规划,还需要制定一套可操作的机制以搭建制度的框架,并保障制度的实施。在制定过程中,应把握备案制度的平衡器作用以及保障用户权益的价值取向,紧扣包容审慎监管理念,兼顾技术发展需求与技术监管需要,避免陷入“一管就死”的困境。
备案信息的质量高低不仅直接影响相对人知情权的实现,而且影响对技术的监督效果以及与后续系列治理行为的衔接。备案填报是备案制度运行的第一阶段,是决定备案信息质量高低的首要环节。目前备案填报阶段在规范与指引方面有所欠缺,导致大量备案文件质量较低,难以发挥备案制度的监督与保障功能。基本原理与运行机制是备案的核心内容与关键部分。对此,可以完善备案填报指导机制,结合基本原理与运行机制的功能特性,以可理解性与专业技术性为目标,制定人工系统基本原理与运行机制的内容框架,为企业备案提供统一指导。
何谓基本原理?基本原理的概念最早可以追溯到亚里士多德,他认为在每个系统中都存在一个最基本的命题或假设,即“第一原理”,这个原理是基本的、不可违背的,是推导出其他所有理论或法则的基础。目前学界关于人工智能基本原理的表述尚未达成共识。人工智能涉及的底层数学原理很多,例如Kolmogorov-Anorld定理、流形嵌入定理等原理,但对备案与公开基本没有指导意义。人工智能系统涉及算法、算力、模型架构、数据处理、训练方法等多方面内容,但基于对算法备案制度价值的考量,备案中的人工智能系统的基本原理在最简单的意义上为人工智能系统运行最基本的理论或法则。因此,基本原理的公示内容应当以公众可理解为目的,以平实精准的语言阐述清楚,无需进行过多的技术性解释。通过阅读基本原理,公众至少可以从中了解到该算法“是什么”“用什么”“怎么用”,这是基本原理公示的基本功能与底线要求。具体来讲,该部分内容至少应当包括系统运用了哪些算法、该算法收集哪些数据与信息、依据何种数据或信息将进行哪些处理行为、最终达到何种效果以及利用了哪些模型与技术等要素。另外,值得肯定与借鉴的是,有些企业对算法的原则与方向也进行了说明,例如蜂鸟物流配送算法明确指出,绝不以最严算法、最低时限为导向,安全与公平是持续优化的方向;西藏佳斯特信息技术有限公司网约车分单算法说明其最大的原则为就近派单原则。对算法秉持的原则与方向的阐释,不仅有助于公众理解、认识并监督人工智能系统的运行,而且对企业自身的开发、运行行为也具有引导与监督作用,值得推广。
与基本原理不同,人工智能系统的运行机制贯穿从设计到退役的全生命周期,大致包含需求设计、开发(训练)、验证与确认、部署、运行与维护、退出过程。运行机制本身具有较强的技术性特征,因此,对运行机制的公示应同时兼顾技术性与可理解性,尽可能全面详细地说明人工智能系统运行的技术原理与流程步骤。有不少企业对基本原理与运行机制的理解有误,将两者混为一谈。例如,三维家个性化推荐算法对基本原理与运行机制的说明内容几乎一致。相较之下,值得一提的是日迎科技短视频推荐算法,其比较完整地展现了算法运行机制,将备案内容划分为数据层、模型层、在线服务层、运行流程四大版块,并对每一部分内容详细展开介绍。当然,并非一定要效仿四大版块的备案方式,但是人工智能系统的运行机制至少应当将这四个方面的内容清晰、具体地阐释清楚。算法备案制度肩负着保障用户权益、技术监管与技术发展的使命,具体到运行机制的解释部分,其主要目标有三个方面:首先,解释应达到用户可以理解人工智能运行系统的运行逻辑,质疑运行结果并通过更改某些因素以影响或改变结果的效果;其次,解释内容应当满足行政监管的需要,可以有效衔接算法审计环节;最后,解释应置于保护商业秘密的框架内,防止阻碍技术发展。总体来看,人工智能系统运行机制的内容应当秉持具体、准确且具有逻辑性的准则,对数据来源与处理、模型框架与训练机制、召回排序的技术与方式等内容按照运行流程依次进行全面阐释。一方面,对运行机制的解释应当明晰、具体,例如亲宝宝育儿推荐算法针对“相关性”的判断进一步解释,当用户标签与内容、话题属性重合度越高,相关性越强。另一方面,解释应当有效平衡商业秘密保护、技术透明度以及可理解性之间的关系,这就需要确立合理的解释标准。针对算法解释,存在解释性、可读性与易读性等不同的标准。解释性标准侧重透明度;可读性标准侧重可理解性;易读性标准虽然可以同时满足透明与可理解的要求,但是该标准要求对算法决策的算法模型、评分参数、因素权重、预期输出、目的、性质、环境等方面进行非常全面的解释,其不仅成本高昂,而且容易使商业秘密泄露。基于此,Sandra Wachter等人提出反事实解释或许是较为稳妥的思路,无需打开黑箱,同时不必公布源代码、披露数据、全套变量等所有信息,但需公布系统全生命周期的运行逻辑以及促成结果的外部因素和关键变量的信息。根据反事实解释的思路,可以同时兼顾算法备案制度三个方面的功能实现。此外,人工智能系统运行机制具有较强的技术专业性,对备案内容的阅读与理解造成了挑战,因此,在解释路径上,要充分发挥“软解释”的作用。除备案时注意技术知识与用平实文字解释相结合外,备案主体还可以创新备案方式,以图文并举的方式生动展现运行机制。在现有的备案文件中,不少企业还主动增加了流程图配合文字进行说明,例如东方甄选商品榜单算法、云上守望意图分类调度及内容检索优化算法、T3出行上车点推荐算法等,更容易使用户理解其表达内容,达到专业有效并可理解的双重目的。
惩罚是激励措施中的重要方式。《算法推荐管理规定》对于备案信息是否具体、全面等备案质量问题并未提及,缺乏相关审核与责任机制以保证备案内容质量达标,加之部分企业对备案义务敷衍倦怠,导致备案信息质量与算法公示情况不尽如人意。但算法备案制度本身的问责范围限于不履行备案的程序责任以及备案信息内容的形式责任层面。例如,真实性、全面性、可理解性和有效性主要起辅助未来行政行为之作用。因此,除了从算法备案制度本身健全程序与形式问责机制外,还应有效衔接算法审计,通过实质审核填补算法备案的责任体系,形成完整的责任链条。
算法备案制度虽然在事前阶段表现为柔性的规制工具,但并不代表其是装点门面的饰物。算法备案不仅有助于弥合数字鸿沟,而且是规范技术使用的重要一环,为算法安全评估和审计固定问责点。因此,有必要保证备案信息的质量,提升备案信息的真实性、全面性、有效性与可理解性,为后算法备案的实质审查打好基础。算法备案义务的履行主要涉及企业与监管部门两大主体以及备案系统一大平台工具,三方形成合力,备案信息的质量提升方能事半功倍。企业方面应建立自我报告与审核机制,填补算法公示信息缺漏。根据《算法推荐管理规定》第24条可知,具有舆论属性或者社会动员能力的算法推荐服务提供者,不仅应当填报服务提供者的名称、服务形式、应用领域、算法类型、拟公示内容等目前在备案系统要求填报的信息,还应当填报算法自评估报告,且第8条规定了算法推荐服务提供者的定期审核、评估、验证算法机制机理、模型、数据和应用结果等义务。因此,企业进行自我审核与评估不仅是对企业自治的贯彻,也是企业应履行的法定义务。对此,可以借鉴蜂鸟物流配送算法的做法,将报告内容在算法公示情况一栏进行公示,充分展示算法的运行状况。另外,《算法推荐管理规定》第17条与第22条规定了算法推荐服务提供者应当向用户提供便捷的关闭算法推荐服务的选项,以及设置便捷有效的用户申诉和公众投诉、举报入口的义务。企业可以将这两项义务内容一并在算法公示情况一栏中进行公示,为用户维护权益提供指引。系统层面应充分发挥技术赋能作用,建立查重与评价机制。一方面,备案系统可以增加自动查重功能,考虑到同类算法运行机制与技术采用方面的共通之处,可以接受适当的重复率,不超过30%即可。另一方面,可设计一个评分体系并将其嵌入备案系统,对备案内容进行初步评价。对此,教育移动互联网应用程序备案管理系统中的教育APP投诉举报分级分类及记分标准即为范例,算法备案系统可以参考与借鉴其思路进行框架设计,同时立足算法备案需要,重点围绕基本原理与运行机制部分对内容的全面性、具体性、精准性、可理解性、真实性进行评分,建立不合格、合格、良好以及优秀的评分机制。最后,可以将优秀的备案文件在备案系统进行公示,发挥示范带动作用,激励备案主体提升备案质量;针对不合格的备案文件,由监管机关进行人工审核与介入,避免系统误判,确认质量不合格时,要求企业进行补充纠正。监管主体可以担任审核与问责的双重角色。一方面,针对打分系统评价为不合格的备案文件进行审核以及要求不合格企业进行补充纠正;另一方面,《算法推荐管理规定》尚未对备案信息的质量作出要求,监管机关不能贸然对备案质量不合格的企业进行处罚;而且由于算法备案并非行政许可,因此监管机关不能因备案质量不合格而不予备案。本着鼓励企业自治的理念与平衡行业发展的需要,监管机关应尽量采取较为柔和但有一定震慑效果的方式进行质量监督。具体来讲,监管机关可以先要求企业补正有关信息;如果企业拒不补正,可以对该企业批评教育、公示名单。
算法备案的性质决定了算法备案制度的审核与问责主要限于形式和程序层面,正因如此,后算法备案阶段尤为重要。算法审计可以通过实质审核与技术问责有效衔接算法备案,形成较为完善的责任体系。我国规范层面虽没有明确提出“算法审计”概念,但算法审计并非无根之木、空中楼阁,其具有规范与实践的深厚积淀。《个人信息保护法》第54条与第64条均对个人信息处理者提出了合规审计的要求,《算法推荐管理规定》明确了“科技伦理审查”“定期审核、评估”等算法推荐服务提供者义务,《审计法》也提出了“被审计单位信息系统的安全性、可靠性、经济性”,共同勾勒出算法审计的基本框架。实践中算法审计事例非常丰富,国内有对百度、搜狗等搜索引擎的算法审计,域外有对Google的Top stories算法、YouTube的推荐算法以及Apple News系统中热门故事(Trending Stories)版块等算法的审计。与算法影响评估不同,算法审计本质是一种审核与问责机制。虽然在美国《算法问责法》中的算法影响评估与算法审计的含义具有一致性,但加拿大《自动化决策指令》中明确指出算法影响评估是一套匹配算法审计等要求的风险框架。同样,在我国语境下,审计针对的是合规与监管问题,而影响评估更多体现为知识层面的评估框架。算法审计可以有效衔接算法备案,算法备案系统提供了真实、有效、全面、高质量的算法信息,支持算法审计进一步开展合法性、安全性、透明性、公平性等方面的实质性与技术性审核。算法审计又可分为企业内部审计与外部审计,内部审计可以衔接备案机制中的企业自我审核、评估后形成的算法自评报告;外部审计则由政府监管机构和其他审计组织在备案文件基础上展开。由此,算法审计与算法备案互为依托,形成文本与技术、程序与实体的审核与责任体系。
备案义务不能局限于监管的单一视角,除健全审核与责任机制保障备案系统的高质、高效运行外,促进技术创新、减轻企业压力的发展视角不容忽视。目前我国备案制度为双备案模式。上文已分析了深度合成服务与生成式人工智能服务,生成式基础模型和下游衍生模型导致的重复备案问题。其根源主要为已备案信息不能继承,以及备案义务主体的单一与范围的广泛。备案继承的重要性日益凸显,并在实践中得到了初步响应。2025年1月,《国家互联网信息办公室关于发布2024年生成式人工智能服务已备案信息的公告》明确区分了备案与登记义务的主体,对通过API接口或其他方式直接调用已备案模型能力的生成式人工智能应用或功能只需在地方网信办完成登记即可。该规定考量并回应了人工智能大模型产业链的发展,体现了避免重复备案,备案义务履行可以继承的治理思路。一方面,算法与大模型、深度合成与生成式人工智能之间联系紧密,应用统一与联系的眼光去看待两者的备案义务。基于避免重复备案以及目前生成合成类算法单独备案的形式安排,可以考虑统一生成式人工智能服务模型的属地备案与算法备案系统中的生成合成类算法备案,具体来讲,在保留生成式类型的独立性的前提下,同时对模型与算法两方面内容进行备案,登记程序不变。另一方面,基于高效备案,鼓励技术创新的考量,算法层面的备案义务优化应秉承源头治理,使备案义务的履行得以继承,避免重复备案。具体来讲,在该算法的开发者或使用者已经备案的前提下,后续使用者如并未优化与改进该算法,即可免除备案义务,借鉴模型直接调用的处理办法履行登记义务即可;如有升级与优化,则可针对已备案部分进行登记,仅对优化部分进行备案。从长远发展角度看,推动备案义务主体的精细化划分,可更全面地解决备案重复问题,并为备案继承机制的高效运转奠定基础。目前算法备案义务主体为算法推荐服务提供者与深度合成服务提供者。换言之,只要向用户(或客户)提供了算法推荐服务或者深度合成服务,满足“具有舆论属性或者社会动员能力”,就必须在系统上进行备案。但实践中,人工智能系统参与主体多样,且往往承担多重角色。例如,欧盟《人工智能法》在“运营商”(operator)的统括下详细区分了提供者(provider)、部署者(deployer)、授权代表(authorised representative)、进口商(importer)、经销商(distributor)等主体,将备案义务主体限于提供者或授权代表。与欧盟《人工智能法》“提供者”不同,我国“服务提供者”范围十分广泛,不仅涉及使用人工智能系统的主体,还涉及开发人工智能系统以及将开发的人工智能系统投入市场或以自己的名义或商标投入服务的主体。简言之,只要提供了特定的服务,就可纳入“服务提供者”,极易出现“人人需备案”、重复备案的现象。由此,未来还可以逐渐细化备案义务主体,实现精准备案,并在此基础上形成体系性的备案继承框架。如此,不仅可以鼓励算法市场交易与技术发展,还可以节省备案资源,实现发展与监管的有效平衡。算法备案是优化算法治理体系与国家治理体系的重点环节,对于促进人工智能健康发展、保障用户权益具有重要意义。本文通过对4020份算法备案文件进行实证分析,揭示了我国类型化算法备案制度的治理难题。人工智能系统的运行需要各个算法的相互配合,也离不开数据、算力、模型框架等一系列元素的支撑,技术治理不应再局限于算法的局部视角,受困于类型化的固有弊端中。因此,备案制度的底层逻辑应从算法转向人工智能,从类型化转向风险分级,并有序推进风险分级导向的人工智能系统备案制度的构建。备案制度可以先实现以人工智能系统为中心的场景化备案,未来再逐渐建立完善的人工智能系统风险分级体系,实现以人工智能系统为中心的风险分级备案。另外,风险分级的人工智能系统备案制度需要一套完善的运行机制以保障实施。首先,应完善备案填报指导机制,制定基本原理与运行机制备案框架,提升备案信息质量,在源头阶段保障用户知情权并为信息监管打好基础。其次,应形成算法备案与算法审计责任链条,一方面保障算法备案制度本身发挥好信息规制作用;另一方面衔接算法审计,通过实质审核填补算法备案的责任体系。最后,为有效激励技术创新发展,应坚持系统思维,用统一与联系的眼光看待算法与模型备案义务,贯彻、实行备案继承机制,解决重复备案问题。制度的完善并非一蹴而就,而是一个持续演进的动态过程,需要政策制定者、技术开发者、用户群体以及学术界等众多利益相关方积极参与和协作。我们需持续关注制度的实施效果,及时进行反思和评估,并不断积累经验,以确保算法备案制度能够与时俱进,有效应对各种新兴挑战。在此基础上,还应进一步关注算法备案制度与算法影响评估、算法审计、算法解释等之间的衔接与联动,发挥制度合力,使技术创新在安全、合规的轨道上运行。梅傲|数字贸易制度型开放的基石:数字信任体系之构建齐萌|人工智能强制责任保险的法律构造——以智能驾驶为例姚万勤|“知情同意”与侵犯公民个人信息罪的出罪机制
