当前位置主页 > 荣盛产业 >

谷歌只是说它正在用TPU优化TensorFlow机器学习框架

发布时间:2017-04-06 来源:未知 编辑:hg0088
    2006年,谷歌开始研究如何将GPU、FPGA、定制ASICS应用于数据中心。不过当时并没有太多应用因为特殊硬件获益,许多繁重的任务可以用数据中心多余的硬件完成。4月6日消息,谷歌开发定制芯片,它可以提高机器学习算法的运算速度,这不是什么秘密。谷歌管这些处理器叫作Tensor Processing Units(简称TPU),2016年5月,谷歌在I/O开发者大会上首次展示了TPU,之后再也没有提供更多细节,谷歌只是说它正在用TPU优化TensorFlow机器学习框架。今天,谷歌公布了更多内容。
 
    到了2013年情况开始改变,当时谷歌认为DNN将会变得流行起来,数据中心的计算需求将会翻倍,如果用传统CPU计算成本相当高。正因如此,谷歌启动一个项目,用定制ASIC完成推算,采购现在GPU用于训练。谷歌报告称,与GPU相比,将成本效益提高10倍就是它的目标。 根据谷歌自己制定的基准,TPU执行谷歌常规机器学习任务时,速度比标准GPU/CPU组合产品平均快了15倍至30倍。标准GPU/CPU组合产品将英特尔Haswell处理器与Nvidia K80 GPU安装在一起。数据中心极为重视能耗,使用TPU后每瓦特性能(也就是TeraOps/Watt,每万亿次/瓦特)提高了30-80倍。请注意,谷歌提供的数据是在生产过程中使用机器学习模型时获得的,并不是最初创建模型时的数据。
 
    谷歌还表示,大多数架构师优化芯片是为了提高卷积神经网络的性能,不过卷积神经网络只占了数据中心负载的5%,大部分应用使用的是多层感知器神经网络。
相关文章

Copyright @ 2010-2011 荣盛集团 All Right Reserved