这事过了43年。
1983年,John Billingsley发表了第一篇乒乓球机器人论文,叫”Robot Ping-Pong”。那时候能做到的,是用一个关节把球打回去,还得靠固定位置。
2026年4月22日,Nature发表了Sony AI的Ace项目研究成果——一台机器人在东京Sony总部的奥运级别球台上,打赢了精英业余选手,随后在追加测试中也打赢了日本职业联赛选手。
这是人类历史上第一次,机器人在一项真实的竞技性体育运动里达到精英级水平。
不是模拟环境,不是特定条件下的演示,是真实赛制、真实对手、真实球台。
Ace是怎么打乒乓球的
Sony AI研究员Peter Dürr说了一句话,可以当这件事的注脚:
“根本没有办法靠手写程序让机器人打乒乓球。只能从经验里学。”
Ace用的是强化学习——让机器人在数百万次训练中自己摸索出打法,而不是工程师告诉它”遇到这种旋转这么打”。这也是近年来AI突破的核心思路,从AlphaGo到GPT都靠这套。
硬件层面,Ace有8个关节控制动作,9个摄像头分布在球台周围,用的是事件驱动视觉传感器(event-based vision sensors)——这类传感器比普通摄像头反应快得多,延迟低至微秒级,专门用来追踪高速运动的球。另外,Ace还能通过识别球上的品牌Logo来判断旋转方向,这个细节挺有意思。
成绩单:
- 对阵5名有10年以上经验的精英业余选手,以及2名职业联赛选手;
- 共打了13局,赢了7局,拿到3场比赛的胜利;
- 旋转球的回球率达到 75%,这让对手们都表示意外;
- 论文提交后继续训练,在12月及今年3月的测试里赢了专业选手。
值得注意的是,Ace没有靠暴力制胜——球速没有刻意超越人类极限。Sony AI总裁Michael Spranger特意提到这个设计决策:
“机器人不能靠打得比任何人类都快来赢,它必须靠真正打好这个游戏来赢。”
给AI设置”竞技公平性约束”,让它在规则框架内赢,而不是用传感器和马达碾压人类——这个判断挺聪明。
跟DeepMind那次有什么不一样
几年前,Google DeepMind也做过乒乓球机器人项目,也用了强化学习,也跑通了——但测试都在受控环境,没有真正意义上的精英人类对手作为评测基准。
Ace的不同在于:在真实竞技场合,对阵真正的运动员,用真实赛制评判。这才算是”第一次”。
1992年巴塞罗那奥运会乒乓球选手Kinjiro Nakamura看了Ace打球之后说,Ace打出了一个他从没见过、人类选手也不会执行的球路——然后补了一句:”也许人类能从这里学到新技术。”
这话耐人寻味。
“机器人的ChatGPT时刻”
Michael Spranger用了一个比喻:机器人领域的”ChatGPT时刻”。
这个类比的逻辑是:乒乓球这个场景,本质上是一个需要高速感知+实时决策+精准物理控制的闭环任务。如果强化学习能在这里跑通,那制造业、仓储、精密操作,可能都能用同样的思路攻下来。
ChatGPT之前,大家都知道语言模型能做事,但不知道能做到那个程度。Ace可能是机器人领域类似的转折点。
稍微泼点冷水:乒乓球虽然快,但规则是固定的,场景是结构化的。工厂里随时变化的零件位置、不同材质的物体、非预期的障碍,这些还是更难的问题。Ace没有完全解决这些,只是打开了一扇门。
门打开了就是好事。
为什么技术路径值得单独说
乒乓球的物理复杂性是真实的:球速可达每小时150公里以上,旋转方向不固定,接球位置不固定,对手打法随时变化。这比棋盘游戏难得多——棋盘游戏是离散的,乒乓球是连续的、三维的、随机的。
Sony在两个技术点上走出了新路:
- 事件驱动视觉传感器:不同于普通摄像头的逐帧捕捉,这类传感器只在像素发生变化时触发记录,延迟极低,追高速球比普通摄像头准得多。
- 无模型强化学习:不依赖物理仿真模型,直接从真实交互中学。更难收敛,但更能泛化到现实中的不确定性。
这两点放在一起,让Ace能在真实物理世界里做到之前只有仿真环境才能实现的精度。
论文投稿给Nature,意味着同行评审通过了。Nature在机器人和AI领域的发表标准极严,这不是公关稿。
从1983年的第一篇论文到2026年的Nature,用了43年。但很可能,接下来的进展不需要再等43年了。
参考来源:Meet 'Ace,' the paddle-wielding robot who just beat humans at ping pong in AI breakthrough(Fortune);Outplaying elite table tennis players with an autonomous robot(Nature);Sony AI table tennis robot outplays elite human players(Robohub)