AlphaGo前后共有18个不同的系统版本,谷歌一直让装载不同版本的AlphaGo进行对战,没有一个重复的动作。将要与李世石对战的系统是第18版本

alphago改变围棋定式(AlphaGo有18个不同系统版本)(1)

《财经》记者 孙爱民 特约记者 全芙庆/文

北京时间3月9日12点,Google人工智能围棋系统AlphaGo与韩国围棋9段李世石的首场比赛即将在首尔打响。比赛前一日下午,Google副总裁、Deepmind创始人兼CEO戴密斯·哈萨比斯(Demis Hassabis)在接受《财经》专访时表示,在完成与李世石的比赛后,Google或将带AlphaGo到中国与日本,与职业围棋高手对决

Google选择李世石,是因为在围棋界,李世石是一位顶级选手,“我们想让这一场对战,即使在20年以后也被人津津乐道,因此,为AlphaGo安排一位职业9段选手进行对决,需要选手在围棋领域拥有超过10年的顶尖地位。”戴密斯认为,此战也可使李世石成为围棋历史上的传奇式人物。

对于AlphaGo自去年10月对战樊麾以来、做过哪些系统升级,戴密斯卖了一个关子,说要到比赛结束之后才会公布细节。他表示,如果还用去年10月份的AlphaGo系统,李世石肯定会轻易赢得比赛,“李世石肯定比樊麾能力强,所以我们必须不断升级程序,相信有机会赢得比赛”。

戴密斯称,AlphaGo前后共有18个不同的系统版本,将要与李世石对战的系统是第18版本,“我们一直让装载了不同版本的AlphaGo进行对战,场面很有意思,你绝对不会看到一个重复的动作。”

AlphaGo的研发团队致力于增强人工智能系统的深度学习范围,使其在同一个系统下,不仅可以学习围棋,还可以学习其他多种行为。

中国科学院计算技术研究所研究员陈云霁在接受《财经》采访时表示,目前的人工智能系统还只是面对一个问题进行设计,所能学习到的行为也具有单一性,要实现人工神经网络学习能力的迁移性,科学与工程还有很长的路要走

人类的大脑里存在千亿以上的神经元细胞,神经元细胞之间的连接靠突触,而突触的数量达百万亿级别,如此庞大而充满未知的网络,使得人的大脑拥有强大的信息处理能力与学习能力。AlphaGo之所以能够学习围棋棋谱,归功于其搭载了人工神经网络,这个网络是对人体神经细胞和突触进行数字化的抽象。

陈云霁表示,人工智能能够实现深度学习,主要原因是借鉴人脑了多层处理的机理。Google尚未公布AlphaGo的技术细节,但陈云霁估计,AlphaGo至少有10层神经元细胞。

为何AlphaGo还只能学习围棋,而难以达到甚至超越人类智能,学习并做到更多的行为?

陈云霁认为,即使现在最先进的人工智能系统,与成人人脑相比也没有可比之处。“微软的人工神经系统拥有152层神经网络,里面神经元的数量也只是千万级,而人脑是千亿级;AlphaGo的神经元不会超过千万。”

现有计算机的硬件,尤其是CPU(中央处理器)与GPU(图片处理器)难以满足千万级别神经元人工神经网络的运行,“现在的GPU和CPU不是为了智能处理设计出来的,他们本质上是用于做加减乘除的,一贯的设计思路是为了科学计算。”陈云霁说。

如果要用现有的CPU去做出人脑这么大规模的神经元,需要1600万CPU核,在运行时,每分钟都会出现CPU损坏情况

陈云霁分析,AlphaGo装载的依旧是传统的CPU与GPU,并没有用专门的深度学习处理器,神经网络规模上还不够大,“某种意义上讲,AlphaGo的人工神经系统相当于人类大脑中的一小块。”

(《财经》实习生闵敏、李名清、侯力嘉对此文亦有贡献)

,