数字发展全球研报第四卷第1期(2025/12/29-2026/01/04)
本期综述判断生成式人工智能服务提供商过错的司法判断相关内容,供参考。
一、AI“幻觉”带来的法律挑战
近期,杭州互联网法院审结的“生成式人工智能‘幻觉’侵权纠纷第一案”(生成式人工智能“幻觉”侵权纠纷案一审生效),为这一新兴领域提供了重要的裁判思路和规则指引。本案中,原告因AI生成的高校信息不准确而起诉服务提供商,法院最终以被告无过错为由驳回诉请。这一判决不仅明确了生成式人工智能服务侵权纠纷的归责原则,更系统构建了判断服务提供者过错的司法标准,对规范行业发展、平衡技术创新与权益保护具有里程碑意义。

二、生成式人工智能生成内容为何不构成有效承诺?
在判断生成式人工智能提供商是否存在过错之前,首先需要厘清AI生成内容的法律性质。本案中,AI在对话中声称若信息错误将赔偿10万元,这一“承诺”成为原告诉请的重要依据。然而,法院从多个层面否定了其法律效力。
第一,主体不适格:AI不具备民事主体资格。 我国现行法律体系中的民事主体仅包括自然人、法人和非法人组织三类。生成式人工智能本质上是算法、数据和算力结合的产物,既非法人实体,也未被法律赋予独立民事权利能力。法院明确指出,AI“不能独立、自主作出意思表示”,其生成内容不构成法律意义上的意思表示。
第二,内容不代表服务商意思。 法院认为,AI生成内容要被视为服务提供者的意思表示,需满足严格条件:或是服务商通过AI工具设定、传达其意思,或是在特定场景(如客服场景)中形成合理信赖。本案中,被告并未通过程序设定赔偿承诺,AI的自主回复不能归责于企业。这一区分至关重要,它避免了企业为AI的随机输出承担无限责任。
第三,缺乏合理信赖基础。 从一般社会观念和交易习惯看,普通用户对AI生成内容的准确性应有理性认知。当前技术条件下,大语言模型本质是“文本辅助生成器”而非“知识权威”。法院认为,原告在此情境下对AI承诺形成信赖“缺乏合理性”,这提示公众需对AI输出保持必要审慎。
第四,服务商无外在接受约束意思表示。 意思表示的核心在于表意人愿受其约束的意思。本案无证据表明被告曾作出接受AI承诺约束的表示,故该“承诺”无法律效力。这一分析坚持了意思自治原则,防止技术工具异化为责任来源。
综上,法院通过对民事主体制度、意思表示理论和信赖保护原则的综合运用,清晰界定了AI生成内容的法律地位,为后续过错认定奠定了逻辑基础。
三、为何适用侵权责任而非产品责任?
责任性质的界定直接关系到归责原则和举证分配。原告可能期望适用产品责任的无过错原则,但法院明确排除了这一路径,理由深刻且具前瞻性。
首先,服务与产品的本质区别。 法院依据《生成式人工智能服务管理暂行办法》,将生成式人工智能定性为“服务”而非“产品”。产品责任适用于有体物,其质量、性能具有相对稳定性和可检验性;而AI服务是动态、交互的过程输出,内容因提示词、语境、时间而异,缺乏统一质检标准。这一区分符合技术特性,避免将工业品责任框架机械套用于数字服务。
其次,生成内容不具备高度危险性。 产品责任适用无过错原则的理论基础之一是产品存在“不合理危险”。AI生成的文本信息,虽可能出错,但通常不直接危及人身安全,不属于侵权法意义上的“高度危险源”。若对信息错误一概适用严格责任,将导致责任泛化,抑制技术创新。
再次,服务商控制能力的有限性。 生成式人工智能基于大语言模型的概率性生成机制,服务提供者无法完全预见和控制每一输出。法院指出,要求企业对海量、实时、个性化的生成内容进行准确性审查,“超出了现有技术条件下的可能性”。这一认知体现了司法对技术现实的尊重。
最后,产业政策考量。 法院敏锐指出,若对AI服务适用无过错责任,“可能会不当加重服务提供者的责任,限制人工智能产业的发展”。在发展与安全并重的原则下,过错责任原则更能平衡激励创新与保护权益,为产业留出试错空间。
这一裁判立场,既坚守了侵权法理,也回应了国家人工智能发展战略,体现了司法在科技治理中的平衡智慧。
三、过错认定三重义务体系的构建
本案判决最具建设性的贡献,在于系统构建了判断生成式人工智能服务提供者过错的三重义务体系。这一框架不是僵化标准,而是基于“动态系统论”的弹性评价机制。
(一)分层化的信息审查义务:严格义务与一般义务的区分
法院首次明确区分了对不同性质信息的审查义务,这一区分对行业实践具有直接指导意义。
对违法信息的严格审查义务。 法律明确禁止生成“有毒、有害、违法信息”(如暴力、色情、歧视性内容、虚假犯罪指控等)。法院指出,一旦生成此类信息,“本身即构成违法”,服务提供者负有结果避免义务。这意味着企业必须通过内容过滤、敏感词库、伦理对齐等技术和管理措施,尽可能杜绝违法输出。这设定了AI服务的“红线”和“底线”。
对一般性不准确信息的合理注意义务。 对于事实错误、逻辑瑕疵等一般性不准确信息,法律并未科以“必须确保准确”的结果义务。法院援引《生成式人工智能服务管理暂行办法》第四条,强调服务提供者义务在于“采取有效措施提高生成内容的准确性和可靠性”,这属于过程性义务和行为义务,而非结果担保。这一区分至关重要:企业无需为所有错误担责,但必须证明已采取合理措施降低错误率。
这种分层处理,既防范了重大社会风险,又为技术不完美性预留了容错空间,符合AI技术当前的发展阶段。
(二)显著的提示说明义务:保障用户知情与理性使用
鉴于AI“幻觉”的不可避免性,充分提示成为平衡风险分配的关键。法院提出了提示说明义务的三重要求:
功能局限的明确告知。 服务提供者必须清晰说明AI生成内容可能不准确,且仅为“辅助性参考”。本案中,被告在欢迎页、用户协议及交互界面均设置了提示,履行了该项义务。
提示方式的显著性与有效性。 提示必须“醒目、显眼”,足以引起普通用户注意。隐藏于冗长协议或不易察觉位置的提示,难以认定已尽义务。
特殊场景的强化警示。 对于涉及人身安全、重大财产决策等专业问题(如医疗建议、投资分析),需以特别方式(如弹窗、确认步骤)进行警示。这体现了风险越高、提示越强的比例原则。
提示义务的履行,不仅关乎过错认定,更是培养用户AI素养、构建健康人机关系的基础。法院通过本案倡导社会公众对AI输出保持“基本怀疑精神与核查能力”,颇具远见。
(三)技术可靠性的基本注意义务:行业标准与合理措施的衡量
服务提供者是否采取了足够的技术措施提高准确性,是过错认定的实质性环节。法院提出了“同行业通行技术措施”和“市场平均水平”的判断标准,这一客观化标准增强了司法可操作性。
通用服务的基准要求。 对于内容创作、信息查询等通用服务,企业需证明其采用了业内普遍认可的技术,如本案提及的“检索增强生成(RAG)”、模型微调、对齐训练、安全护栏等。被告通过备案证明、安全评估报告等完成了初步举证。
特定领域的强化义务。 法院特别指出,当AI应用于医疗、心理咨询、情感陪伴等高风险领域时,服务提供者需满足该行业的“特别技术措施要求”和“特殊安全保障义务”。这意味着跨界应用不能仅满足通用标准,还必须符合目标领域的专业规范。
动态演进的技术期待。 法院强调注意义务处于“动态调整的框架之中”,这意味着司法判断将随技术进步而发展。今天合理的措施,明天可能不足。这激励企业持续创新,以技术发展解决技术风险。
这一义务体系,将主观过错认定转化为对客观行为规范和行业标准的审查,增强了裁判的确定性和指引性。
四、《生成式人工智能服务管理暂行办法》的司法角色:从规范到裁判依据
本案判决多次援引《生成式人工智能服务管理暂行办法》(以下简称《办法》),彰显了该规章在司法裁判中的重要作用。
首先,《办法》确立了服务提供者的基本行为规范。 其第四条第(五)项要求“提高生成内容的准确性和可靠性”,这被法院解读为过程性义务,成为判断企业是否尽到一般注意义务的核心标准。它明确了法律不要求绝对准确,但要求积极作为。
其次,《办法》助力于“服务”性质的认定。 其第二条对“生成式人工智能服务”的定义,为法院区分服务与产品、进而排除产品责任适用提供了规范依据。
再次,《办法》体现了监管的阶段性智慧。 《办法》并未对一般性不准确信息设严苛处罚,而是鼓励“采取有效措施”,这种“软法”导向与法院的过错认定思路高度契合,共同营造了“包容审慎”的监管环境。
最后,司法裁判反哺规范理解。 法院通过对《办法》条款的解释与适用,将其原则性规定具体化为可操作的裁判规则,实现了行政监管与司法治理的协同。本案判决实质上是《办法》精神在司法场景中的生动诠释。
五、损害与因果关系的审慎认定
即便存在过错,侵权成立还需损害事实和因果关系。法院对此也秉持审慎立场。
损害事实要求具体化。 原告主张的“错失报考机会”“核实成本”等属于纯粹经济损失,但未能提供证据证明实际发生。法院坚持“无损害则无赔偿”原则,防止了诉讼滥用。
因果关系采取相当性标准。 法院采用相当因果关系理论,认为AI提供的不准确信息并未“实质介入原告的后续决策、判断”。这意味着,如果用户未合理依赖AI信息,或通过其他渠道进行了核实,则因果链条可能中断。这鼓励用户保持自主判断,不盲目依赖AI。
六、司法保障产业迈向负责任创新
杭州互联网法院的判决,构建了一个兼具原则性与灵活性、平衡创新激励与权益保护的过错认定框架。其核心启示在于:
对产业而言,判决初步划定了较为清晰的责任边界:严守违法信息红线,积极履行提示义务,持续投入技术优化以达到行业合理标准,即可在多数情况下免于承担一般性“幻觉”带来的侵权责任。这为企业的合规运营提供了稳定预期。
对用户而言,判决提示了AI工具的辅助性本质,倡导培养批判性思维和事实核查能力。在人工智能时代,最大的安全阀是理性的使用者。
对司法与监管而言,本案展示了“动态系统论”在科技治理中的优越性:通过分层义务、场景化判断和开放标准,使法律能够与技术共同演进。
生成式人工智能的“幻觉”或许永远无法完全消除,但通过明晰的法律规则、合理的责任分配和成熟的社会认知,我们完全能够驾驭其风险,释放其潜力。本案正是这一进程中的重要奠基,它标志着中国司法在AI治理领域,正走向一条立足国情、面向未来、鼓励负责任创新的理性道路。
主编 丨 张烽
出品 丨 数字治理研究/万商天勤