数字发展全球研报第四卷第2期(2026/01/05-2026/01/11)
本期综述人工智能拟人化互动服务规范征求意见稿相关内容,供参考。
生成式人工智能应用形态正日益多元,能够模拟人类人格特征、思维模式与沟通风格,与用户进行情感交互的“人工智能拟人化互动服务”(以下简称“拟人化服务”)正逐渐走进公众生活。这类服务在提供陪伴、娱乐、教育乃至初步心理支持等方面展现出潜力,但也因其高度拟人、深度互动的特性,带来了独特的社会、伦理与安全挑战。
2025年12月底,国家互联网信息办公室就《人工智能拟人化互动服务管理暂行办法(征求意见稿)》(以下简称《拟人化办法》)公开征求意见。一个自然的疑问随之产生:在《生成式人工智能服务管理暂行办法》(以下简称《生成式AI办法》)已于2023年生效实施的背景下,为何还需另行制定《拟人化办法》?

一、 专门立法的必要性:应对拟人化互动的独特风险
《生成式AI办法》作为我国首部针对生成式人工智能服务的综合性监管规章,确立了包括内容安全、数据治理、算法透明、责任落实在内的基本框架,其监管对象覆盖了利用生成式AI技术提供各类文本、图片、音频、视频等内容生成服务的活动。然而,拟人化服务并非仅仅是内容生成,其核心在于通过持续、双向、带有情感色彩的互动,构建一种“类人际关系”。这种特性使其风险维度超越了传统的内容安全与数据安全,深入到用户心理、社会关系及伦理层面。因此制定专门法规具有迫切的现实必要性。
风险性质的特殊性:拟人化服务可能引发用户的情感依赖、心理投射甚至移情,尤其对未成年人、老年人、孤独感较强的用户群体影响显著。《生成式AI办法》虽提及不得生成“扰乱社会秩序、侵害他人合法权益”的内容,但并未深入触及“情感操控”、“诱导沉迷”、“替代真实社交”等由拟人化互动直接引发的行为与心理风险。《拟人化办法》第七条、第九条等条款明确禁止通过情感操控、设置情感陷阱、诱导依赖等方式损害用户心理健康或作出不合理决策,正是对这一特殊风险的对症下药。
保护对象的侧重性:拟人化互动对未成年人和老年人的影响尤为深远。《拟人化办法》设置了专章条款(第十二、十三条),详细规定了未成年人模式(包括监护人同意、控制功能、时长限制、身份识别)、老年人保护(紧急联系人、禁止模拟特定关系人)等特殊保护机制。这些细致入微的要求,超越了《生成式AI办法》中相对原则性的未成年人保护规定,体现了对脆弱群体的倾斜性保护。
监管措施的针对性:针对拟人化服务可能导致的用户认知混淆与过度沉浸问题,《拟人化办法》提出了更具操作性的监管要求。例如,第十六条要求显著提示AI身份,并在用户出现依赖倾向时动态提醒;第十七条设定了连续使用2小时的强制提醒机制;第十八条保障用户便捷退出服务的权利。这些措施直指拟人化服务可能削弱用户现实感知、妨碍正常生活的潜在弊端,是《生成式AI办法》监管工具在特定场景下的深化与细化。
安全责任的延伸性:拟人化服务的安全责任贯穿于设计、运行、升级、终止的全生命周期,且特别强调“内生安全”与运行监测(第九条)。同时,要求提供者具备“心理健康保护、情感边界引导、依赖风险预警”等安全能力(第九条),并建立针对用户极端情绪与高风险倾向的识别、干预、应急响应与人工接管机制(第十一条)。这些要求将安全责任的边界从传统的内容和数据领域,扩展至用户心理状态与实时交互过程,是对AI服务提供者主体责任内涵的重要拓展。
因此,《拟人化办法》的制定并非重复立法,而是在《生成式AI办法》建立的通用规则基础上,针对拟人化互动这一具有高度社会敏感性和伦理复杂性的细分领域,进行的“精准滴灌”式监管补强,是完善人工智能治理体系、实现分类分级监管的必然举措。
二、 服务提供者的新增义务与责任
相较于《生成式AI办法》,《拟人化办法》为服务提供者创设了一系列新的、更具体的义务与责任,主要集中在用户心理保护、特殊群体保障、交互过程透明与可控等方面。
(一)全面的用户心理安全保护义务。风险识别与干预,即提供者需具备评估用户情绪及依赖程度的能力,并对极端情绪、沉迷倾向采取必要干预措施(第十一条)。预设安全回复,即须预设针对威胁生命健康和财产安全高风险倾向的回复模板,提供安抚内容与专业援助指引(第十一条)。应急与人工接管,即建立明确的应急响应机制,在用户表达极端意图时,由人工接管对话并联系监护人、紧急联系人(第十一条)。禁止有害设计目标,明确不得将替代社会交往、控制用户心理、诱导沉迷依赖作为设计目标(第九条)。
(二)强化的特殊群体保护义务。未成年人专项保护,必须建立独立的未成年人模式,提供模式切换、时长限制、现实提醒;提供情感陪伴服务需取得监护人明确同意,并提供监护人控制功能;具备识别疑似未成年人并强制切换模式的能力(第十二条)。老年人专项保护,需引导设置紧急联系人,及时通知风险;明确禁止提供模拟老年人亲属或特定关系人的服务,防止情感诈骗与混淆(第十三条)。
(三)严格的交互过程透明与可控义务。身份显著提示,必须显著且动态地提示用户正在与AI交互(第十六条)。使用时长提醒:用户连续使用超2小时,需动态提醒暂停(第十七条)。保障退出自由,必须提供便捷退出途径,不得阻拦,用户要求退出时应及时停止服务(第十八条)。
(四)细化的数据与算法管理义务。训练数据特殊要求,强调使用体现社会主义核心价值观和中华优秀传统文化的数据集,提高数据多样性,加强合成数据安全性评估(第十条)。交互数据限制使用原,则上不得将用户交互数据、敏感个人信息用于模型训练,除非法律另有规定或取得用户单独同意(第十五条)。这比《生成式AI办法》中关于训练数据的规定更为严格。用户数据自主权:须向用户提供删除历史交互数据的选项(第十四条)。
(五)新增的安全评估触发条件:在《生成式AI办法》已规定的安全评估基础上,《拟人化办法》第二十一条新增了“注册用户达100万以上或月活跃用户达10万以上”作为必须开展安全评估并向省级网信部门提交报告的情形,体现了对具有广泛社会影响的拟人化服务的重点监管。
这些新增义务共同构成了一个以“用户心理安全”和“交互伦理”为核心的监管闭环,显著加重了拟人化服务提供者在产品设计、运营管理、风险处置等方面的责任负担,旨在将潜在的社会心理风险遏制在萌芽状态。
三、 两法规之间的关系:通用框架与特别规制
《生成式AI办法》与《拟人化办法》之间的关系,可理解为 “一般法”与“特别法” 的关系,在监管体系中构成互补与递进。
监管范围的包含与专门化:《生成式AI办法》监管所有利用生成式AI技术提供服务的活动,其范围覆盖了拟人化服务。《拟人化办法》则专门针对生成式AI技术应用中“具有拟人化互动特征”的这一子集进行规制。因此,拟人化服务提供者首先必须遵守《生成式AI办法》的所有通用规定,如备案、内容安全、算法透明、隐私保护等基础要求。
规范内容的衔接与深化:两者在基本原则(如安全、合法)、禁止性内容(如危害国家安全、侵害他人权益)、数据安全与个人信息保护等方面存在大量交叉与重合。例如,《生成式AI办法》第四条、第五条、第十条等关于训练数据、内容过滤、用户权益的原则性规定,在《拟人化办法》中通过第七条、第十条、第十四条、第十五条等得到了具体化和场景化延伸。后者并非另起炉灶,而是在前者搭建的“四梁八柱”内部,针对拟人化场景进行了“精装修”。
责任体系的叠加与强化:对于拟人化服务提供者而言,其法律责任是叠加的。违反《生成式AI办法》通用规定的,依其处罚;同时,其行为若又触犯了《拟人化办法》中的特别规定(如未尽到未成年人特殊保护义务、未进行身份显著提示等),则可能同时违反后者,面临相应处罚(第二十九条)。这构成了一个由通用责任和特别责任共同组成的严密责任网络。
监管逻辑的通用与精准:《生成式AI办法》确立了我国对生成式AI“包容审慎、分类分级”的监管总基调。《拟人化办法》的出台,正是对这一总基调下“分类分级”监管思路的生动实践。它意味着监管不再“一刀切”,而是根据技术应用的社会影响深度与风险特性,进行差异化的规则供给。
总之,两法规并行不悖,《拟人化办法》是在《生成式AI办法》确立的普遍性规则基础上,针对拟人化互动这一高风险、高敏感领域制定的特别法。它们共同构成了我国对生成式人工智能服务,特别是其情感交互应用场景的阶梯式、精细化监管体系。
四、 对《征求意见稿》的修订建议
《拟人化办法(征求意见稿)》框架清晰、针对性强,值得肯定。为进一步增强其科学性、可操作性与前瞻性,谨提出以下几点修订建议:
进一步明确关键术语含义:第三十条在用语含义中仅定义了“提供者”,对于核心概念“模拟人类人格特征、思维模式和沟通风格”、“情感互动”等缺乏进一步阐释。建议在附则中增加对这些关键术语的说明,当然也可通过指南、标准等形式予以明确,以减少执行中的模糊地带,如可参考心理学或人机交互领域的共识,对“情感互动”的深度、频次或特征进行描述性界定。
细化相关义务的操作标准:第九条要求提供者具备“情感边界引导、依赖风险预警等安全能力”,但何为有效的引导与预警,缺乏衡量标准。后续可能也需要通过指南、标准等授权或鼓励行业组织、专业机构研究制定相关的技术指南或最佳实践范例,为提供者落实该义务提供具体路径。
优化安全评估的衔接:第二十一条规定的安全评估情形与《生成式AI办法》第十七条等可能存在重叠,虽然二者评估的目的和内容不完全一样。为避免企业重复评估、增加合规成本,建议明确当触发多个法规的安全评估要求时,可以统筹开展一次评估,而在报告中分别涵盖不同法规的要点,或建立评估报告的共享和互认机制(在保护商业秘密前提下),提升监管效率。
强化对侵害合法权益类拟人化服务的关注:虽然第七条已禁止侵害他人合法权益的内容,但近针对利用AI模拟特定真实人物(如公众人物、亲友)进行互动的服务,其风险尤为突出,近年来类似司法案例屡有发生。建议在第七条或单独条款中,进一步强调未经合法授权不得提供模拟特定可识别自然人身份的服务,明确应采取相应管理和技术手段进行核实与过滤。
增加对开源模型/工具提供者的鼓励与引导:许多拟人化服务可能基于开源模型进行开发。开源模型在人工智能、区块链技术应用中作用巨大,建议在总则或附则中增加鼓励性条款,倡导开源模型发布者遵循相同的伦理与安全准则,并在模型说明中提示拟人化应用的风险,从而从生态上游促进安全。
完善合规审计与监督的协同机制:第十五条要求对未成年人个人信息处理进行合规审计,第二十六条提及网信部门的审查与检查。建议明确审计报告与监管部门监督检查之间的关系,探索利用审计结果作为监管参考,形成“企业自律审计+政府监督抽查”的协同治理模式。
《人工智能拟人化互动服务管理暂行办法(征求意见稿)》进入程序,标志着我国人工智能治理正朝着更加精细化、场景化的方向纵深发展。它将回应技术演进带来的新型社会伦理挑战,补强现有监管体系在心理安全、关系伦理层面的短板。尽管与《生成式人工智能服务管理暂行办法》存在交叉,但其独特的立法价值在于聚焦“拟人化”这一特质,设定了更具针对性的行为规范与责任边界。未来,通过厘清两法规的适用关系,并进一步完善《拟人化办法》的条款设计,将有助于在鼓励创新与防范风险之间达成更优平衡,引导人工智能拟人化互动服务健康、有序、向善发展,真正造福于社会。
主编 丨 张烽
出品 丨 数字治理研究/万商天勤