它的40天你的一千年
论文发表之后,很多人也想自己训练。在论文里面,Deepmind没有详细的指出自己训练的规模有多大,但是停止在40天可见并不是一个省钱的营生。论文里面说的是训练使用了64个GPU Server。
机器学习要GPU
要注意,机器学习、神经网络这个事情,单独堆传统的CPU效率不高,必须要运算核足够多的GPU,越多越好。所以Deepmind可以依靠谷歌调动大量的计算资源,我们是比不了的。
于是有人算了一下,这个人不是别人,是台湾围棋程序CGI的作者,吴毅成教授。他的CGI和AlphaGo类似,他给出了估算,那就是如果你只有一块顶级游戏卡nVidia GTX1080ti,用这个卡训练,需要1200多年!
那么反过来,Deepmind没有细说的64GPU训练服务器,就不是普通的单服务器,而应该是64个GPU服务器群,可能是上面这样的。
本文属于原创文章,如若转载,请注明来源:自己玩要1300年?深度学习是个土豪游戏//oa.zol.com.cn/662/6622215.html