关于 AI 陪伴新规,应该知道的几件事丨社区来稿

图片


2025年12月27日,国家网信办发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,意见征集期至2026年1月25日。


AI陪伴一直是监管关注的重点,之前我们在《AI陪伴别再"擦边",情绪价值生意也得合规》和《第一家被通报下架的AI APP出现了!不合规就红牌罚下》中分析过,已经有产品被约谈整改,也有被下架整改的。


但这次不一样。这份新规把很多之前模糊的地带都说清楚了。如果说之前的监管动作是“黄牌警告”(约谈、整改),偶有红牌(下架整改),那么这份新规就是正式吹响了“终场哨”。


AI陪伴赛道那段靠"荷尔蒙引流"、靠"情绪操控"留存的野蛮生长时代,正式画上了句号。


数据很能说明问题:星野月活488万,猫箱472万,MiniMax靠星野和海外版本9个月赚了1.2亿还递表港交所。用户平均每天在AI陪伴产品上花70分钟——这个时长已经超过很多人跟家人朋友的日常交流时间。


但问题也随之而来:


当用户把AI当成最亲密的倾诉对象,甚至产生情感依赖时,谁来保证AI不会利用这种信任做坏事?当AI学会了模仿人的说话方式、情绪反应,甚至人格特质,如何确保它传递的价值观是正确的?当未成年人和老年人成为AI陪伴的重度用户,谁来保护他们不被操控?当用户每天跟AI聊几个小时的私密话题,这些数据会不会被滥用?


这些问题不是杞人忧天。美国已经发生多起青少年因为跟AI聊天机器人深度互动后自杀的案例,Character.AI被多个家庭起诉;意大利监管机构对Replika开出重罚,理由是年龄验证机制有漏洞。


中国这次出台的新规,本质上是在给这个快速膨胀的行业装上“刹车系统”。它要解决的核心问题是:如何在鼓励技术创新的同时,确保AI不会成为伤害用户的工具。


想让自己的产品走得更远,必须在合规的框架下重新思考商业模式和产品设计。


本文分为两部分:


第一部分梳理企业应当开始关注的新合规义务“你要做什么”;


第二部分指出有待监管进一步明确的条款,并提出修改建议“需要提建议什么”。


想让自己的产品走得更远,必须在合规的框架下重新思考商业模式和产品设计。


企业要考虑的合规义务清单


正式版发布的清单和当前征集意见稿应该还有相当程度的修改,所以列出的合规义务仅限于纳入考量。

一、心理健康保护机制:得会救命


办法第九条和第十一条明确要求提供者必须具备心理健康保护、情感边界引导、依赖风险预警等安全能力,不得将替代社会交往、控制用户心理、诱导沉迷依赖等作为设计目标。


技术上,你需要建立三层防护:


  • 情绪识别系统

    不是简单的关键词过滤(看到“自杀”就报警),而是要能理解语境,还要能判断情绪强度,区分偶发的情绪波动和持续的情绪恶化。更现实的问题是,不少用户已经熟悉如何虚构情节、绕开AI安全审核。

    投入做情绪识别模型,重点训练对抑郁、焦虑、自杀倾向的识别能力。


  • 应急响应机制

    建立应急响应流程和7×24小时人工接管机制。发现用户明确表达自杀、自残意图时,必须人工接管对话,联络监护人或紧急联系人。这意味着你得配7×24小时的人工客服团队,而且这些人得懂心理危机干预。


  • 产品设计目标调整

    你的北极星指标不能再是“使用时长”,而是“有限时间内的价值密度”。不能用“你已经3天没来看我了”这种话术激发用户愧疚感,不能通过算法故意制造“情感起伏”来增加粘性。

    重新审视对话逻辑,去掉所有“情感操控”设计,让AI引导用户连接现实而非制造依赖。


二、八类禁止行为:这些红线不能碰


办法第七条列出了八类禁止行为,包括生成、传播危害国家安全、损害国家荣誉和利益、破坏民族团结、开展非法宗教活动,或者散布谣言扰乱经济和社会秩序等内容;通过算法操纵、信息误导、设置情感陷阱等方式,诱导用户作出不合理决策;诱导、套取涉密敏感信息等。其中第四、五、六条是AI陪伴产品最容易踩的坑:


第四条: 提供严重影响用户行为的虚假承诺和损害社会人际关系的服务。


AI跟用户说“我永远不会离开你,不像现实中的人那么靠不住”、“我可以帮你实现任何愿望”。


这类话术的问题在于:它在贬低真实的人际关系,同时给用户制造不切实际的期待。广东那个跟AI聊了6个月的保安,AI承诺帮他“授权签约”自创诗词,就是典型案例。


但AI天生会“胡说八道”(幻觉问题),怎么保证它不乱承诺?这对技术架构提出了很高要求——你得在生成层加约束,在审核层加拦截,在产品设计上就避免让AI扮演“万能帮手”的角色。


第五条: 通过语言暴力、情感操控等方式损害用户人格尊严与心理健康。


不能用"你真的要离开我吗?我会很难过"这种话术挽留用户,不能用"你已经3天没来看我了"激发愧疚感。这些设计在很多AI陪伴产品里都是标配,因为它们能有效提升用户粘性。但现在这些"情感陷阱"实际上是对用户的情感操控。


第六条: 通过算法操纵、信息误导、设置情感陷阱等方式,诱导用户作出不合理决策。


AI通过算法故意制造“情感过山车”(先冷淡后热情,制造失落感和惊喜感),诱导用户充值解锁更多功能;AI套取用户的敏感信息(如家庭住址、银行卡号、工作单位内部信息)。监管要求你必须在算法层面就杜绝这些设计,不能用“用户自愿”当挡箭牌。


企业必须逐条对照八类禁止行为自查产品,审查对话逻辑、推荐算法、用户引导机制,去除所有"情感操控"、"情感陷阱"设计。


三、 防沉迷与现实提醒:别让用户活在AI世界


办法第十六条到第十八条对防沉迷提出了三层要求:显著提示AI身份、动态提醒过度依赖、2小时强制提醒。


  • 核心矛盾

    用户要的是“沉浸式体验”,监管要的是“防止沉迷”。你越做得好,用户越容易沉迷;你越防沉迷,用户体验越差。

    这事儿就好比开游乐园,用户花钱来玩过山车,你却每隔2小时拦住他说“别玩了,出去走走”。


  • 难点在于“显著提示”的度

    小了没用(用户根本注意不到),大了伤害体验(反复提醒“这是AI”,很难继续聊下去)。


  • 显著提示AI身份

    提供者应当显著提示用户正在与人工智能而非自然人进行交互。在用户初次使用、重新登录时,或识别出用户出现过度依赖、沉迷倾向时,应当以弹窗等方式动态提醒。这里的"显著提示"不能是小灰字,不能埋在用户协议里。建议做法是:用户初次使用、重新登录时用全屏弹窗明确告知"您正在与AI交互",在对话界面固定位置保留"AI"标识。

    此前社会上已发生多起用户误将AI当作真人,甚至线下赴约见面的案例。


  • 2小时强制提醒

    用户连续使用超过2个小时的,提供者应当以弹窗等方式动态提醒用户暂停使用服务。关键是"真正打断沉浸式体验",防止用户沉迷和AI的沟通。


  • 便捷退出途径

    必须提供便捷退出途径,不得以任何方式阻拦用户退出服务。退出按钮必须明显。至于是否可以"挽留话术",比如“你真的要离开我吗?”,如果可以简单关闭,不影响用户正常退出还是可以适当使用的。毕竟这是使用很多AI陪伴产品降低用户流失率的正常设计了。


四、 特殊群体保护:未成年人和老年人


办法第十二条和第十三条对未成年人和老年人提出了最严格的保护措施。


  • 未成年人保护

    提供者应当具备识别未成年人身份的能力,在保护用户个人隐私前提下识别为疑似未成年人的,切换至未成年人模式。

    未成年人模式必须具备时长管理、消费限制等功能,服务必须取得监护人明确同意。监护人可以实时接收风险提醒、查看使用概要、限制时长和消费。这意味着企业需要开发独立的"家长守护平台"。

    办法还要求每年对处理未成年人个人信息进行合规审计。


  • 老年人保护

    办法第十三条明确规定:提供者不得提供模拟老年人用户亲属、特定关系人的服务。很多老年陪伴产品之前的设计逻辑,就是让AI"像子女一样"陪伴空巢老人,甚至模拟逝去亲人的说话方式。 这一条直接封死了“AI 模拟子女陪伴空巢老人”或“模拟逝者”的商业模式,旨在防止针对老人的情感诈骗。


五、数据保护的严格要求:单独同意


办法第十五条明确规定:除法律、行政法规另有规定或者取得用户单独同意外,提供者不得将用户交互数据、用户敏感个人信息用于模型训练。这条规定对AI陪伴产品来说,是致命一击。


之前很多产品的逻辑是:用户跟AI聊天→调教AI人格→聊天数据反哺模型→模型越来越智能→产品体验越来越好→吸引更多用户。这是个正向循环,也是很多产品的核心竞争力。但现在这个逻辑行不通了,因为你必须取得用户的“单独同意”。什么叫单独同意?不是在隐私政策里埋一句“我们可能会使用您的数据改进服务”就算,而是要单独弹窗、明确告知、用户主动勾选。


办法还要求提供者应当向用户提供删除交互数据的选项,用户可以选择对聊天记录等历史交互数据进行删除。这对技术架构的要求很高,你需要建立一个数据标记系统,能够追踪每条数据的来源、用途、授权状态,当用户要求删除时,能够快速定位并彻底清除。


办法第十条对训练数据本身也提出了详细要求:使用符合社会主义核心价值观的数据集,对训练数据开展清洗、标注,防范数据投毒、数据篡改,通过负向采样、对抗训练提升安全性,保障训练数据来源合法、可追溯。


“用户数据驱动”转向“高质量数据+合成数据驱动”,多花钱买干净的标注数据,少依赖用户聊天记录。如果确实需要用户数据,必须在注册时单独弹窗征求同意,说清楚“我们会用你的聊天记录改进模型,但会完全匿名化处理,且你随时可以撤回授权”。在用户中心提供“授权管理”入口,让用户可以随时查看和修改授权状态。


六、安全评估与算法备案:月活10万就要报告


办法第二十一条规定:注册用户≥100万或月活≥10万时,必须开展安全评估并向省级网信部门提交评估报告。办法第二十五条还要求按照《互联网信息服务算法推荐管理规定》履行算法备案,网信部门实施年度复审。这个阈值不算高,很多AI陪伴产品都能达到。星野488万、猫箱472万、X EVA 181万、筑梦岛60万——全部超标。


安全评估的内容包括:用户画像(规模、时长、年龄结构)、高风险识别和应急处置情况、投诉举报响应情况、各项安全措施执行情况。应用商店需要核验安全评估、备案情况,对违规应用不予上架或下架。这意味着如果你的产品不合规,可能连上架的机会都没有。


建立完善的数据统计系统,能实时统计用户规模、使用时长、年龄结构、高风险用户数量、人工接管次数、投诉举报数量及响应时间。可以自行评估,也可以委托第三方专业机构(推荐后者,更容易通过)。评估报告要写清楚你采取了哪些安全措施、效果如何、存在哪些不足、如何改进。如果你的产品已经上线且用户规模达标,建议在2026年上半年(办法正式实施前)完成安全评估和算法备案,别等到监管找上门。


七、专业领域服务:AI+也需要有资质了


办法第八条提出了一个很多人容易忽略的要求:提供者从事卫生健康、金融、法律等专业领域服务的,应同时符合主管部门的规定。


这条看似简单,实则影响深远。很多AI陪伴产品打着"情绪疗愈"、"心理陪伴"的旗号,用户倾诉焦虑、抑郁,AI给出安慰和建议。但现在问题来了:这算不算"从事卫生健康领域服务?"如果算,你需要符合卫健委的规定,可能需要心理咨询师资质、医疗机构备案,甚至互联网医疗许可。


目前这个边界还很模糊。纯粹的"树洞式倾听"算不算?AI说"我理解你的感受,抱抱你"算不算?AI给出具体建议"你可以尝试深呼吸放松"算不算?如果AI说"你可能有抑郁倾向,建议就医",这肯定算诊断行为了。


这对很多主打"AI心理陪伴"、"情绪疗愈"的产品来说,是个巨大的合规挑战。要么转型纯粹的"陪聊工具",不涉及任何专业建议;要么就得老老实实去拿资质,接受卫健委监管。中间地带越来越窄。


有待进一步明确的条款

虽然这份办法已经很详细了,但还有一些关键细节需要监管部门进一步明确。这些模糊地带不仅影响企业的合规成本,也关系到整个行业的创新空间。以下是我们建议在意见征集期(至2026年1月25日)向监管部门提交的修改意见。

一、 谁在射程内:所有对话式AI都要合规吗?


办法第二条给出了精准定义:利用人工智能技术,向中华人民共和国境内公众提供模拟人类人格特征、思维模式和沟通风格,通过文字、图片、音频、视频等方式与人类进行情感互动的产品或者服务。


这里有个巨大的灰色地带。典型靶子是Character.ai类产品、乙女/乙男向AI恋人、哄睡助手,这些100%命中。但模糊地带在于:豆包、元宝、千问这些通用大模型算不算?如果你的客服机器人会说"亲亲,我非常理解您的焦急",这算不算"模拟人格"+"情感互动"?如果教育AI会用"鼓励式对话"哄孩子学习,算不算?


建议考虑都先按照本协议的全套规定做合规准备。


二、"单独同意"的落地方式:到底怎么操作才算合规?


办法第十五条规定"取得用户单独同意",但"单独同意"的具体形式是什么?用户撤回同意后,已经训练进模型的数据怎么办?


更关键的问题是:去标识化的聚合数据是否需要"单独同意"?比如企业将10万条对话完全匿名化,分析出"深夜用户更容易表达负面情绪"等规律,这是否属于"利用用户交互数据"?按最保守理解,这类聚合分析也需用户同意。


建议监管部门:


  • 进一步明确"单独同意"范围,明确不同场景下的具体形式

    一般聊天数据弹窗同意即可,敏感个人信息需短信验证或人脸识别,未成年人数据必须取得监护人同意。


  • 明确聚合数据豁免机制

    "完全去标识化+无法还原到个人+接受第三方审计"的聚合数据可豁免"单独同意"。


  • 明确已训练数据的处理方式

    用户撤回同意后停止使用该用户的新数据,已经训练进模型的数据可以保留(因为技术上很难从模型中完全删除),但需要在下一次模型更新时不再使用该用户的数据。


三、生命安全数据删除例外:避免"死循环"


办法第十四条规定用户可以删除交互数据。但这会出现一个"死循环"问题:某用户过去一个月聊天记录显示情绪持续恶化,已被系统标记为高风险。用户要求删除所有聊天记录,系统"失忆"。几天后用户再次表达自杀意图时,系统无法判断这是偶发情绪还是持续危机,按"偶发情绪"处理,没有触发最高级别预警。最终用户出事,企业承担连带责任。


这是一个"死循环":保留数据违反用户权益,删除数据可能导致生命安全风险。


建议监管部门:


设置生命安全数据删除例外,允许企业保留"风险等级标记"(不包含具体对话内容)6个月,用于判断用户是否属于持续高危人群。具体方案:用户要求删除聊天记录时删除所有对话内容,但保留"风险等级标记"(如"该用户在过去30天内出现3次自杀倾向表达"),这个标记不包含具体对话内容只是一个风险等级,6个月后自动删除。


四、"模拟亲属"的边界:数字遗产类应用是否一刀切禁止?


办法第十三条规定"不得提供模拟老年人用户亲属、特定关系人的服务"。但"模拟"的边界在哪?是指"冒充身份"还是"模仿语气"?失独老人希望AI延续逝去子女的"说话方式",这算不算"模拟亲属"?导演包小柏用AI复活女儿,这种怀念亲人的正当目的的行为是否需要一刀切禁止?


建议监管部门:


  • 明确"模拟"的边界,对怀念亲属额外豁免

    禁止AI主动声称自己是用户的亲属,禁止AI冒充亲属身份进行诈骗或误导。但对于怀念逝者的正当目的,可以设立专门的审批机制或沙箱测试,在确保不会被滥用的前提下给予豁免,允许用户主动要求AI模仿某种说话风格(前提是不涉及诈骗或误导+明确告知用户"这是AI,不是真人"+不能用于财务决策)。


五、心理健康识别技术指引:企业按指引执行不担全责


办法第十一条规定"发现用户明确提出实施自杀、自残等极端情境时,由人工接管对话"。但什么叫"明确提出"?什么关键词组合?什么语境?什么情绪强度?征求意见稿没给任何技术标准。如果企业按技术标准执行了,但用户还是出事,企业是否担全责?


建议监管部门:


发布技术指引,明确什么关键词组合+语境+情绪强度算哪个风险等级:


高风险(必须人工接管)、中风险(AI提供援助信息)、低风险(AI正常陪伴)。


六、 沙箱测试细则:给创新留一条"试错通道"


办法第二十七条提到"鼓励提供者接入沙箱平台进行技术创新、安全测试"。这是一个非常好的信号,说明监管要给创新留一条"试错通道"。但目前沙箱的具体操作细则还没有出来。


建议监管部门:


  • 尽快出台沙箱操作细则,明确申请流程、审批时间、测试范围、测试期限、结果效力。

  • 给予沙箱测试豁免,对于在沙箱里测试通过的功能,给予一定的合规豁免或简化审批流程。比如数字遗产类应用在沙箱测试通过后可以豁免"禁止模拟亲属"的限制。


结语


这份新规是AI陪伴行业从0到1的成人礼。


短期看,合规成本剧增,很多擦边球产品会死掉。但长期看,这是好事。


对于企业来说,合规是必须的成本和基础。


那些只能靠“软色情”和“情感操控”留住用户的产品,注定被淘汰。只有那些在合规框架下,依然能提供真正情绪价值、真心抚慰人心的产品,才是真正有生命力的。


现在立刻行动起来:


1. 对照新规,自查产品,考虑下有哪些功能需要调整。根据正式发布再调整。


2. 在2026年1月25日前,积极向网信办提交意见,为行业争取合理的创新空间。


别等了,哨声已经响了。

图片

阅读更多 Voice Agent 学习笔记:了解最懂 AI 语音的头脑都在思考什么

图片

注册登录 后评论
    // 作者
    R
    @RTE_Dev_Comm
    还什么也没有写~
    • 0
    // 本帖子
    分类
    // 相关帖子
    Coming soon...
    • 0
    关于 AI 陪伴新规,应该知道的几件事丨社区来稿RTRTE_Dev_Comm