ISSN 2233-6583
期数:2025-07
出处:KISDI Premium Report
摘要
随着数字与人工智能(AI)技术的发展,其已超越单纯辅助人类的便利工具范畴,正从根本上重塑经济与社会整体,人类社会迈入“智能时代”。在此背景下,社会对于保障用户权益、构建公平且安全的数字与AI环境的呼声与日俱增。2025年9月16日,经国务会议确定的国家核心课题中,明确纳入了相关内容,具体涵盖:应对数字负面效应,营造以用户为中心的安全数字环境;构建透明、公平的数字竞争环境;以及打造公平的平台生态系统等。基于此,本文围绕落实上述国家课题,就如何构建兼顾公平性与创新友好性的数字与AI生态系统,以及营造安全、可信赖的数字与AI使用环境,提出了具体的政策方案。
在促进数字市场公平竞争方面,部分不公平行为过去通过行业自律机制已得到一定程度的缓解,但其余问题仍需审慎评估。尤其应考虑对基于生态系统的数字服务所形成的垄断结构实施具有促进竞争效果的干预措施。最为重要的是,相关政策的制定必须立足于我国数字与AI技术及市场发展的实际情况,并以实证依据为基础。
特别需要着重指出的是,应充分认识到生成式AI作为一项颠覆性创新技术,已成为塑造未来竞争格局的核心要素,在政策设计中需予以积极体现。AI生态系统属于一个随技术快速演进而不断变化的动态市场,因此准确监测并深入理解其发展趋势与关键议题至关重要。为确保企业与用户均能获得公平、诚实的对待,有必要引入公平交易、互操作性(interoperability)、用户选择权等原则。这些原则与现行《数字市场竞争促进法》的立法宗旨高度契合,未来亦可扩展适用于具身智能(Agentic AI)、具身物理AI(Physical AI)等新兴领域。
在构建安全、可信赖的数字与AI服务使用环境方面,鉴于网络内容传播速度快、影响范围广,以及公众对政府审查存在担忧,推动服务提供者通过自律机制防范非法有害信息和虚假操纵信息的传播,在当前阶段具有一定的必要性。然而,为确保自律机制取得实际成效,亟需建立相应的法律框架,并推行“政企协同监管”模式,即要求平台主动公开其自律执行情况,由政府进行核查并提出改进建议。
此外,平台的系统设计架构对信息传播路径、方式及曝光频率具有决定性作用,因此不能仅依赖事后删除等被动应对措施,而应推动对平台系统架构本身进行重新设计。与此同时,必须切实保障用户对数字与AI服务的实质性访问权与选择权,并加强对儿童及青少年群体的保护,防止其陷入极端主义或过度沉迷。还需全面审视并制定对策,以应对包括“暗黑模式”(Dark Patterns)在内的各类利用用户脆弱性的行为,如滥用个性化推荐、算法歧视等问题。
在AI服务用户保护方面,核心依然在于确保透明度、保障用户选择权以及实施有效的风险管控,这与既有算法相关规制的基本逻辑保持一致。其中,预防性措施与有效的自律机制尤为关键,是实现实际保护效果的重要途径。
国政课题1、2、3、4、5、6(省略)
(国政课题7)为缓解确认偏误等服务副作用,提升算法透明度、保障用户选择权的制度改进,以及制定预防社交媒体过度依赖等保护儿童与青少年的措施
切实保障用户对数字与AI服务的实质性访问权和选择权,并加强对儿童与青少年群体的保护,防止其陷入极端主义或过度沉迷。
AI算法的透明性与问责性,是构建“安全、可预测且值得信赖的数字环境”的核心要素,不仅关乎用户权益保障,也对促进公平竞争与创新至关重要。
欧盟委员会(EC)为此于2023年4月设立了“算法透明度中心”(Algorithmic Transparency Centre),以推动《数字服务法》(Digital Services Act, DSA)的实施。
该中心通过监管机构与研究人员共同审查平台的数据与算法,有助于深入理解平台运作机制,并据此优化监管框架。
仅针对用户规模极大的特定类型服务提供商,强制其赋予用户拒绝接收个性化推荐信息的选择权:
参照欧盟《数字服务法》,仅对超大型数字平台(例如:月活跃用户超过500万)施加此项义务,以减轻中小企业的合规负担。
注:关于“内容推荐标准公开义务”,则适用于月活跃用户超过100万的服务商。
此项选择权义务聚焦于缓解“信息茧房”(Filter Bubble)问题,因此限定适用于社交媒体(SNS)、视频分享平台(如YouTube)等服务,不包括电子商务平台等其他类型。
注:“推荐标准公开义务”以提升整体透明度为目标,适用于所有类型的平台。
考虑到个性化推荐的便利性、用户使用习惯及企业运营负担,采用“默认开启、可选择退出”(Opt-out)的方式赋予用户选择权。
关于防范SNS过度依赖、保护儿童与青少年:
海外已有相关立法实践,例如美国纽约州和加州要求平台在获得父母同意后方可向未成年人提供成瘾性信息流;澳大利亚则直接禁止未成年人使用SNS。
儿童与青少年对持续刺激多巴胺分泌的成瘾性信息流尤为脆弱,难以有效控制冲动,可能阻碍其身心正常发育,并造成深远的长期伤害。
此外,批评指出,在青少年身份认同尚未稳固的阶段,过度推送个性化内容会限制其接触多元观点的机会。
因此,有必要评估并制定措施,要求平台承担义务,识别并缓解利用未成年人认知脆弱性与经验不足而诱发成瘾行为、强化“兔子洞效应”(Rabbit Hole Effect,即用户被算法不断引导向更极端内容)的风险。
为切实保护儿童与青少
年的信息安全与身心健康,应探讨推动相关数字与AI服务提供商主动采取适当保护措施的方案:
例如,要求平台在设计面向儿童与青少年的在线界面时,将隐私、安全与防护等级设为最高默认标准(Privacy, Safety & Security by Default),或根据风险程度采取适当且相称的保护措施。
