你和Claude的聊天记录不受律师特权保护:联邦法院两份判决,把AI对话变成了法律证据

如果你最近用Claude或ChatGPT问过比较敏感的事——破产策略、税务安排、和上司的纠纷怎么处理——美国十几家头部律所4月中旬集体发了客户警告:那些对话现在可能被当成法庭证据使用。

不是吓唬人,已经发生过了。

两个判决,两个方向

Heppner案,纽约南区联邦法院,2026年2月17日。

被告Bradley Heppner是已破产的GWG Holdings前董事长,被检方以证券欺诈起诉。Heppner用Claude准备了一批和案件相关的文档,说是给律师团队用的。辩护律师主张:这些AI生成的内容受律师工作产品保护。

法官Jed Rakoff的判决很直接——不受保护。

理由有三条:

  • 这些对话不是律师创建的,没有持牌律师参与
  • Anthropic的隐私政策允许向第三方披露用户数据
  • Heppner是自己跑去问AI的,不是律师指示他这么做

换个说法:你拿AI当律师助理用,但法律不认它是律师助理。

Warner v. Gilbarco案,密歇根,同一天。

一个pro se(自己代理自己)的就业歧视原告,把她和ChatGPT关于这个案子的对话提交给法院。法院反过来判:受work-product原则保护。

理由是AI是”工具,不是人”——就像你用Excel算证据,没人会说Excel条款属于第三方披露。

两个判决,同一天,方向相反。这就是问题——同一份AI对话,在哪个法院打官司,结果可能完全不同。

真正炸出来的是这件事

2026年1月,纽约南区另一位法官Sidney Stein下了一道命令:OpenAI必须向《纽约时报》和其他原告交出2000万条去标识化的ChatGPT对话日志,作为版权诉讼的证据开示。

OpenAI抗辩说这违反用户隐私,被驳回。

那2000万条对话不是某个嫌疑人的,是从普通用户里随机抽出来的。

之后4月,超过十几家美国头部律所——不是小所,是Skadden、Latham这种级别的——同时给客户发出alert:

  • AI对话可能被Rule 26的discovery请求要求提交
  • companion apps(Character.AI、Replika、Nomi)的隐私政策本来就允许向执法部门披露
  • 调查机构不需要直接传唤平台,可以直接要求当事人导出自己的聊天记录提交

Stored Communications Act对平台传唤有限制,但对个人导出没有。

用户该怎么办

实际上能做的不多。

  • 假设你和AI聊的所有内容,理论上都可能被法院调取
  • 律师特权保护的是和持牌律师的对话,不是和AI的对话——哪怕AI回答得比律师还好
  • 工作产品保护在不同法院判得不一样,别赌
  • 隐私政策里”我们可能向第三方披露”那一行不是装饰,是真的会执行

OpenAI的ChatGPT付费版有”不保留对话”的选项,但这是产品功能,不是法律豁免。法院命令来的时候,”不保留”的含义会被重新解释。

行业反应

Character.AI去年5月就已经被判定为”产品而非受保护言论”——First Amendment那条防线没了。Anthropic的政策接近,OpenAI的政策更激进——它的enterprise客户可以谈零保留,普通用户没有。

这事接下来要看Heppner案的上诉。如果第二巡回法院维持原判,全国大概率跟进。如果推翻,就要重新打。

但即便上诉成功,那2000万条已经在NYT律师团队手里了。

AI对话不再是个人和机器之间的事,它现在是潜在证据。十几家律所同一周发警告,不是为了吓你——是因为他们已经在帮客户处理这类问题了。

参考来源:Federal Judge Rules AI Chatbot Conversations Can Be Used as Evidence in Court(Technology.org);OpenAI Loses Privacy Gambit: 20 Million ChatGPT Logs Likely Headed to Copyright Plaintiffs(National Law Review);AI Chats Not Privileged: Federal Court Ruling(The Outpost);Federal Courts Just Made Your AI Chats Court Evidence in April 2026(RoboRhythms)