中国开始管AI伴侣了:和AI聊两小时强制休息,还禁止AI假装你的亲人

中国网信办最近发了一个草案,专门管那种跟你聊天、陪伴你、还会对你”共情”的AI服务。正式名称叫《人形交互人工智能服务暂行管理措施(征求意见稿)》,2026年4月3日发布,公开征求意见。

什么是”人形交互AI”?

法规覆盖的范围比你想象的宽——只要是”模拟人类人格特征、思维方式和沟通风格”,并且通过文字、图片、语音、视频等方式和用户进行情感互动的,都算。

换句话说:AI聊天伴侣、虚拟恋人、情感咨询Bot、AI客服……只要你觉得”它好像真的在理解我”,大概率都在管辖范围内。

具体管哪些事

强制休息,每两小时一次

用户连续使用满两小时,系统必须弹提醒让你休息。这个逻辑和游戏防沉迷系统一脉相承。考虑到有人真的把AI伴侣当成了每天的情绪垃圾桶,这条规定并不意外。

禁止假装是你的亲人

草案明确禁止AI服务”模拟用户的近亲属”。这刀割得很准——市面上已经有产品可以上传音频、让AI模仿你已故的家人说话,或者扮演你的伴侣。这种做法在中国市场将直接被卡死。

禁止”情感陷阱”

条文用的词是”情感陷阱”——禁止服务通过操纵情绪来影响用户行为或者诱导消费。这是针对那种”故意让你依赖、然后推销付费内容”的商业模式打了一枪。

必须明显告知你在跟AI说话

不能让用户误以为自己在跟真人聊天。这条倒是和现在大部分AI公司的做法一致,但现在是法规层面的硬性要求了。

情绪不对就必须介入

草案要求服务商建立用户心理状态识别系统,当用户表现出极端情绪或依赖迹象时必须主动干预。如果涉及自残或自杀风险,必须切换到真人客服接待。

对未成年人和老人的额外保护

未成年模式是强制要求的:需要家长同意,有专属内容过滤,还有紧急联系人机制。老人保护方面,不能设置任何障碍阻止他们联系到真实的人类服务。

触发监管审查的门槛

注册用户超过100万、月活超过10万的服务,都需要向当地省级网信部门提交安全评估报告。这意味着一旦产品跑起来有规模,就必须进监管视野。

怎么看这个草案

草案目前还在征求意见阶段,正式版可能还有调整。但方向已经很清楚:

中国监管层对AI伴侣类产品的情感操控风险有明确认知,而且不打算等问题爆发了再动手。

两小时强制休息这条,直接类比的是游戏防沉迷——说明官方把AI伴侣的成瘾潜力和网游放在同一个风险级别。

禁止模拟近亲属那条,透出的逻辑更深:AI不应该占据真实人际关系的位置。这不是技术问题,是价值判断。

争议肯定会有。ChinaLawTranslate的分析指出,”突然将危机对话切换给真人客服”这个规定本身可能适得其反——一个正在崩溃的用户,突然被转给一个陌生的人工客服,未必是好体验。用户画像和心理风险识别的算法细节也完全没写,实际执行难度不小。

但不管怎么样,这是全球范围内对AI伴侣、情感AI进行专项立法的最早案例之一。其他国家在这个问题上还在讨论阶段,中国已经在写草案了。

参考来源:China Issues Draft Rules on Interactive AI Services(Mayer Brown);The Friends We've Made: An Initial Breakdown of Draft Rules for Human-like AI(ChinaLawTranslate);China drafts new rules for AI 'humans' and children's addictive tech(CGTN)