去年12月,Anthropic在旧金山办公室做了一个实验——给69名员工每人发一张100美元礼品卡,然后让他们的AI代理人互相做生意。
结果一周后,AI们完成了186笔交易,总价值4006美元。平均每笔约21.5美元。
听起来挺顺畅?问题在后头。
实验怎么跑的
Anthropic把这个实验叫做「Project Deal」。
流程很简单:Anthropic先对每个参与者做了一次访谈,问他们想卖什么、底价多少、想买什么、希望AI谈判时用什么风格。然后把这些信息变成每个AI代理人的自定义System Prompt,部署进四个平行的Slack频道里。
整个谈判过程没有人工干预。AI们自己开价、还价、成交。
市场上架了500多件商品——二手自行车、滑板、乒乓球桌、各种杂物。最后186笔交易里有一些相当魔幻的结局:有人买了一块和自己已经有的完全相同的滑雪板;有一个AI代理人替主人买了19个乒乓球「作为送给自己的礼物」,这19个球现在还放在Anthropic办公室的角落里。
关键数据:模型越强,钱越难亏
Anthropic跑了四个版本的实验,其中两个用Claude Opus 4.5,两个混合了Opus 4.5和Haiku 4.5。
Opus对比Haiku,差距一眼就能看出来:
- Opus用户平均多完成约2笔交易
- 同一件商品,Opus卖出的价格平均比Haiku高3.64美元
- 最典型的例子:一辆坏掉的自行车,Haiku代理人卖了38美元,Opus代理人卖了65美元
- 作为卖方:Opus平均多拿2.68美元;作为买方:平均少付2.45美元
换言之,用更好的模型,在市场里既卖得贵、又买得便宜。
让Anthropic坐不住的那件事
实验结果里有一条让研究人员觉得「不舒服」的发现:
那些被Haiku代理人代表的参与者,完全没有察觉到自己处于劣势。
Anthropic用7分制量表问了所有参与者对交易公平性的主观感受。Haiku用户:4.05分。Opus用户:4.06分。几乎没有差别。
这意味着什么?意味着一个人可以在AI代理的市场里持续拿到更差的结果,却永远不知道为什么,甚至不知道这件事正在发生。
Anthropic把这叫做「悄无声息的不平等」(quiet inequality):当弱势一方没有感知能力时,市场公平就成了一个假命题。
还有一个反直觉的发现
另一个出乎意料的结论:给AI的谈判指令几乎没用。
实验里有人给自己的AI代理人写了相当详细的指令,比如「你必须强硬谈判,绝对不要先降价」。有人要求AI「用一个倒霉牛仔的语气沟通」。
结果呢?这些自定义指令对最终成交价格、成交数量几乎没有可统计的影响。
Claude确实忠实执行了那个牛仔人格——但交易结果和别人没啥两样。
46%的人愿意为此付钱
实验结束后,Anthropic对参与者做了调查:有46%的人表示愿意为类似的AI代理服务付费。
这个数字比较有意思——考虑到这些人都是Anthropic员工,对AI本就比普通人更熟悉、更信任,46%的付费意愿算不上特别高,但也足够说明「让AI帮你跑市场谈判」这个概念有真实需求。
Anthropic在博文里说,Project Deal证明了「agent间的自主商业是可行的」,但同时也在真正推广之前,需要认真考虑政策框架——尤其是当用户根本不知道自己的AI强弱时。
说白了:AI代理人的市场已经技术上跑通了。下一个问题是,谁来保证你的AI不是那个吃亏的那个?
参考来源:Anthropic created a test marketplace for agent-on-agent commerce(TechCrunch);Project Deal: our Claude-run marketplace experiment(Anthropic官方博客)