热点:

    谷歌已经All in:AI浪潮下的硬件风暴

      [  中关村在线 原创  ]   作者:王征   |  责编:王征

           谷歌最早的Google Brain搞机器识图的时候,就是大规模的GPU集群。据说曾经用力上万张GPU来进行学习训练。因为GPU并没有针对性的对谷歌的TensorFlow框架进行优化。而到了和李世石下围棋的版本,则已经开始使用自己的TPU,但是多达50个。

    谷歌已经All in:AI浪潮下的硬件风暴
    谷歌完整经历了从CPU到GPU再到TPU的流程

           到了与柯洁下棋的时候,可以看到机器已经变成了只要一个4U左右的4TPU服务器就可以,这就是专用芯片的威力,对于AI和神经网络,专用芯片的效率提升是指数式的,而不是线性的几个机架缩小到1个。

    谷歌已经All in:AI浪潮下的硬件风暴
    TPU2.0:四个一张PCB,算力可以达到180TFlops

           谷歌的TPU全称叫做Tensor Processing Unit,张量处理单元,它针对谷歌的深度学习框架TensorFlow定制开发,TPU推出只有8位的低精度计算,并且有不小的板载内存以减少对内存的访问,但是优化后可以极大的提高机器学习的效率。

    谷歌已经All in:AI浪潮下的硬件风暴
    TPU3.0的高功耗不得不用上水冷散热

    谷歌已经All in:AI浪潮下的硬件风暴
    图片下面8个互联机架有每秒1000万亿次的能力

           与柯洁下棋的是TPU二代,四个TPU有180TFlops的计算能力。而这两天的谷歌I/O上则推出了TPU3.0版本,功耗进一步加大,使用了水冷。根据谷歌CEO Pichai的话说,要比过去快十倍以上:这其实说的是一整个集群模块,可以达到100PFlops,也就是所说的每秒1000万亿次。

    谷歌已经All in:AI浪潮下的硬件风暴 TPU只是对TensorFlow优化

           当然TPU不是万能的,它针对的是谷歌的学习框架,而Facebook的学习PyTorch框架基本就没法用,所以目前来说还只是针对性的硬件。

    本文属于原创文章,如若转载,请注明来源:谷歌已经All in:AI浪潮下的硬件风暴//oa.zol.com.cn/688/6882881.html

    oa.zol.com.cn true //oa.zol.com.cn/688/6882881.html report 1248    谷歌最早的Google Brain搞机器识图的时候,就是大规模的GPU集群。据说曾经用力上万张GPU来进行学习训练。因为GPU并没有针对性的对谷歌的TensorFlow框架进行优化。而到了和李世石下围棋的版本,则已经开始使用自己的TPU,但是多达50个。谷歌完整经...
    提示:支持键盘“← →”键翻页阅读全文
    本文导航
    推荐经销商
    投诉欺诈商家: 010-83417888-9185
    • 北京
    • 上海
    • 喷墨打印机
    • 新品上市
    推荐问答
    提问
    0

    下载ZOL APP
    秒看最新热品

    内容纠错