■程京德
去年3月份,李世石赢AlphaGo的那盘棋被戏称为人类赢的最后一盘棋。
自从Google DeepMind计算机围棋程序AlphaGo问世之后,它几乎与当今人类所有的职业围棋高手对弈过,连胜60局,横扫对手。职业围棋高手也似乎输得心服口服,远没有去年2月份时的“源于无知的无畏”了。
据说,前不久网上对弈仅是非正式测试,接下来DeepMind团队还会用AlphaGo和职业围棋高手进行正式比赛。实际上,仅从胜负的角度来说,正式比赛已经毫无悬念。
因为AlphaGo此次面对人类职业围棋高手们的表现,足以说明DeepMind团队开发的计算机围棋程序和所借用的计算机计算能力的威力。从人工智能学术研究或者围棋机理研究的角度出发,接下来,人类应该怎么和AlphaGo“玩”下去?
如果DeepMind团队不公布AlphaGo的细节,继续让AlphaGo作为黑盒子和人类棋手对弈,那么,至少有两种玩法还是有可能的:一是人类棋手允许AlphaGo让子;二是扩大围棋棋盘。
让子,是在人类围棋棋手之间常用的一种做法,其本质不在输赢,而在于提供了一种判断棋手棋力高低的标准。既然现在人类职业围棋高手们已经输得心服口服,那么就不妨放下架子,允许AlphaGo让子,并且不限制于让到9子为止,而是让到可以战胜AlphaGo的子数为止。
这样“玩法”的有趣之处在于:一是发现AlphaGo的终极棋力,因为如果允许无限制让子,最终“胜者”必然是人类棋手而非计算机围棋程序。二是可以借用AlphaGo的棋力来作为判断棋手棋力高低的客观标准,因为即便同是人类世界顶级高手,棋力终究还是有微小差距的。
人类世界顶级高手的棋力已经是很难增长的了。但即便是开发AlphaGo的DeepMind团队,恐怕也无人清楚地知道AlphaGo的棋力究竟有多么强。所以,以让子方式的对弈来发现计算机围棋程序的终极棋力,以及给出衡量人类棋手之间棋力差距的客观标准,应该不失为一种有意义的尝试。
而扩大围棋棋盘,是笔者预测到去年2月份李世石可能会输给AlphaGo时提出的“玩法”:“到了AlphaGo战胜超一流棋手的那一天,我们仍然可以继续让它来挑战人类智能,把围棋盘扩大到21×21,23×23,25×25……让职业棋手的直觉和经验与AlphaGo在双方都没有棋谱可利用的条件下出发来比个高低,不是也很有趣吗?”
笔者从直觉上认为,扩大围棋棋盘对于基于直觉和经验的人类职业围棋高手的影响,也许比对基于计算和训练数据的AlphaGo的影响要来得小一些。实际上,既然AlphaGo程序已经做到了层次化的自动化,那么,它剩下的弱点就只有计算复杂性和输入数据了。从利用以人类智能开发出的计算机围棋程序,并且借助计算机高速计算能力来挑战围棋对弈中世界顶级高手这场对战来看,的确可以说结果已经是明白的了。但从人工智能科学实验的角度来看,扩大围棋棋盘的对弈,应该是可以作为一种实验手段的。
另一方面,如果DeepMind团队公布AlphaGo的细节,那么研究工作者和职业围棋高手的“玩法”就更多、更有趣、更具有挑战性了,关于怎样“玩”,暂且留作今后的话题。
无论如何,从胜负角度来说,计算机围棋程序与人类围棋高手之间的胜负已定,这一幕算是结束了。接下来的有趣工作是:我们如何才能说清楚AlphaGo的机理;我们如何利用AlphaGo来探索围棋世界里还没有从理论上弄清楚的众多问题的答案。如果我们仅仅把目光聚集在胜负上,似乎是很不够的。