中国网信办最近发了一个草案,专门管那种跟你聊天、陪伴你、还会对你”共情”的AI服务。正式名称叫《人形交互人工智能服务暂行管理措施(征求意见稿)》,2026年4月3日发布,公开征求意见。
什么是”人形交互AI”?
法规覆盖的范围比你想象的宽——只要是”模拟人类人格特征、思维方式和沟通风格”,并且通过文字、图片、语音、视频等方式和用户进行情感互动的,都算。
换句话说:AI聊天伴侣、虚拟恋人、情感咨询Bot、AI客服……只要你觉得”它好像真的在理解我”,大概率都在管辖范围内。
具体管哪些事
强制休息,每两小时一次
用户连续使用满两小时,系统必须弹提醒让你休息。这个逻辑和游戏防沉迷系统一脉相承。考虑到有人真的把AI伴侣当成了每天的情绪垃圾桶,这条规定并不意外。
禁止假装是你的亲人
草案明确禁止AI服务”模拟用户的近亲属”。这刀割得很准——市面上已经有产品可以上传音频、让AI模仿你已故的家人说话,或者扮演你的伴侣。这种做法在中国市场将直接被卡死。
禁止”情感陷阱”
条文用的词是”情感陷阱”——禁止服务通过操纵情绪来影响用户行为或者诱导消费。这是针对那种”故意让你依赖、然后推销付费内容”的商业模式打了一枪。
必须明显告知你在跟AI说话
不能让用户误以为自己在跟真人聊天。这条倒是和现在大部分AI公司的做法一致,但现在是法规层面的硬性要求了。
情绪不对就必须介入
草案要求服务商建立用户心理状态识别系统,当用户表现出极端情绪或依赖迹象时必须主动干预。如果涉及自残或自杀风险,必须切换到真人客服接待。
对未成年人和老人的额外保护
未成年模式是强制要求的:需要家长同意,有专属内容过滤,还有紧急联系人机制。老人保护方面,不能设置任何障碍阻止他们联系到真实的人类服务。
触发监管审查的门槛
注册用户超过100万、月活超过10万的服务,都需要向当地省级网信部门提交安全评估报告。这意味着一旦产品跑起来有规模,就必须进监管视野。
怎么看这个草案
草案目前还在征求意见阶段,正式版可能还有调整。但方向已经很清楚:
中国监管层对AI伴侣类产品的情感操控风险有明确认知,而且不打算等问题爆发了再动手。
两小时强制休息这条,直接类比的是游戏防沉迷——说明官方把AI伴侣的成瘾潜力和网游放在同一个风险级别。
禁止模拟近亲属那条,透出的逻辑更深:AI不应该占据真实人际关系的位置。这不是技术问题,是价值判断。
争议肯定会有。ChinaLawTranslate的分析指出,”突然将危机对话切换给真人客服”这个规定本身可能适得其反——一个正在崩溃的用户,突然被转给一个陌生的人工客服,未必是好体验。用户画像和心理风险识别的算法细节也完全没写,实际执行难度不小。
但不管怎么样,这是全球范围内对AI伴侣、情感AI进行专项立法的最早案例之一。其他国家在这个问题上还在讨论阶段,中国已经在写草案了。
参考来源:China Issues Draft Rules on Interactive AI Services(Mayer Brown);The Friends We've Made: An Initial Breakdown of Draft Rules for Human-like AI(ChinaLawTranslate);China drafts new rules for AI 'humans' and children's addictive tech(CGTN)