如果你最近用Claude或ChatGPT问过比较敏感的事——破产策略、税务安排、和上司的纠纷怎么处理——美国十几家头部律所4月中旬集体发了客户警告:那些对话现在可能被当成法庭证据使用。
不是吓唬人,已经发生过了。
两个判决,两个方向
Heppner案,纽约南区联邦法院,2026年2月17日。
被告Bradley Heppner是已破产的GWG Holdings前董事长,被检方以证券欺诈起诉。Heppner用Claude准备了一批和案件相关的文档,说是给律师团队用的。辩护律师主张:这些AI生成的内容受律师工作产品保护。
法官Jed Rakoff的判决很直接——不受保护。
理由有三条:
- 这些对话不是律师创建的,没有持牌律师参与
- Anthropic的隐私政策允许向第三方披露用户数据
- Heppner是自己跑去问AI的,不是律师指示他这么做
换个说法:你拿AI当律师助理用,但法律不认它是律师助理。
Warner v. Gilbarco案,密歇根,同一天。
一个pro se(自己代理自己)的就业歧视原告,把她和ChatGPT关于这个案子的对话提交给法院。法院反过来判:受work-product原则保护。
理由是AI是”工具,不是人”——就像你用Excel算证据,没人会说Excel条款属于第三方披露。
两个判决,同一天,方向相反。这就是问题——同一份AI对话,在哪个法院打官司,结果可能完全不同。
真正炸出来的是这件事
2026年1月,纽约南区另一位法官Sidney Stein下了一道命令:OpenAI必须向《纽约时报》和其他原告交出2000万条去标识化的ChatGPT对话日志,作为版权诉讼的证据开示。
OpenAI抗辩说这违反用户隐私,被驳回。
那2000万条对话不是某个嫌疑人的,是从普通用户里随机抽出来的。
之后4月,超过十几家美国头部律所——不是小所,是Skadden、Latham这种级别的——同时给客户发出alert:
- AI对话可能被Rule 26的discovery请求要求提交
- companion apps(Character.AI、Replika、Nomi)的隐私政策本来就允许向执法部门披露
- 调查机构不需要直接传唤平台,可以直接要求当事人导出自己的聊天记录提交
Stored Communications Act对平台传唤有限制,但对个人导出没有。
用户该怎么办
实际上能做的不多。
- 假设你和AI聊的所有内容,理论上都可能被法院调取
- 律师特权保护的是和持牌律师的对话,不是和AI的对话——哪怕AI回答得比律师还好
- 工作产品保护在不同法院判得不一样,别赌
- 隐私政策里”我们可能向第三方披露”那一行不是装饰,是真的会执行
OpenAI的ChatGPT付费版有”不保留对话”的选项,但这是产品功能,不是法律豁免。法院命令来的时候,”不保留”的含义会被重新解释。
行业反应
Character.AI去年5月就已经被判定为”产品而非受保护言论”——First Amendment那条防线没了。Anthropic的政策接近,OpenAI的政策更激进——它的enterprise客户可以谈零保留,普通用户没有。
这事接下来要看Heppner案的上诉。如果第二巡回法院维持原判,全国大概率跟进。如果推翻,就要重新打。
但即便上诉成功,那2000万条已经在NYT律师团队手里了。
AI对话不再是个人和机器之间的事,它现在是潜在证据。十几家律所同一周发警告,不是为了吓你——是因为他们已经在帮客户处理这类问题了。
参考来源:Federal Judge Rules AI Chatbot Conversations Can Be Used as Evidence in Court(Technology.org);OpenAI Loses Privacy Gambit: 20 Million ChatGPT Logs Likely Headed to Copyright Plaintiffs(National Law Review);AI Chats Not Privileged: Federal Court Ruling(The Outpost);Federal Courts Just Made Your AI Chats Court Evidence in April 2026(RoboRhythms)