【中关村在线原创】前不久在浙江,围棋目前ELO等级分第一、多次世界冠军柯洁与Deepmind的人工智能围棋程序AlphaGo的三番棋落下了帷幕。第三盘上我们看到了柯洁的泪水。第二次人机大战让全人类见识到了今天的AI在卓越算法和深度神经网络的双重合力之下,如何征服了人类几千年来积累的围棋的理解与经验。最遗憾的是,DeepMind宣布AlphaGo收山了,世间只留下一段传奇。
中国棋院授予AlphaGo第43个正式九段证书
AlphaGo的计算力与配置
这次人机大战,第二天的AI论坛爆料很多,可惜后面记者的提问都没有问Deepmind AlphaGo的首席David Silver更多关于AlphaGo的技术细节。但就已知的来说,李世石版本的需要1300多个处理器加上280个GPU,这个版本改进了,所以只要4个TPU就可以,所以后来公布的棋谱,应该是部署了很多对AlphaGo一起下的,这样可以几天就收集到数以百计的狗的慢棋棋谱。
AlphaGo的硬件架构大幅度的缩减但是棋力却大幅度提升,作为科技领域的记者,我在想的问题是,抛开软件是算法,到底需要多少计算能力就能达到Master的棋力?神经网络拼的是“神经元”节点的数量,并非CPU有多快,一般来说就是TPU:CPU=2:1。也就是说配合一个双处理器的至强E5 2699插满内存,加上4个TPU二代(满打满算,实际用的一代)就可以实现碾压所有人类的棋力。
能买到的最强机器学习加速卡:nVidia的TESLA P100
再换算一下,因为我们买不到TPU,那是谷歌内部使用的。在性能测试上,TPU2的计算能力是45TFLOPS,四个就是180T,而NV刚刚公布的新DGX-1是8个Tesla P100,有170T的能力,大体上二者相当。也就是日本的DeepZenGo的配置,双至强2699V4+4 GTX1080其实也差不多够了,只是“地震狗”的算法比真狗差太多。
换言之,实际上的AlphaGo是一代TPU4个,因此可能只要4个Tesla P100可能就已经具备了相对应的计算力。Google自己搞TPU除了为自己的TensorFlow优化,还有避免花太多钱买GPU的意思,而定制的TPU还可以让学习的效率更高。
本文属于原创文章,如若转载,请注明来源:一剑西来天外飞仙:AlphaGo与围棋变革//oa.zol.com.cn/642/6422051.html
推荐经销商