新闻热线:15379009688,0931-4809111   新闻邮箱:zglzw2012@163.com  QQ:1538783093  

设为首页

您当前的位置 : 中国兰州网  >  数码科技  >  产业新闻

谷歌开放AlphaGo背后“最强芯片”:GPU遇最强对手


稿源:PingWest 编辑:庄泽帆 发布时间:2018-02-13 16:08      【选择字号:

  开放Cloud TPU,谷歌在人工智能的民主化上又进了一步。

  谷歌Brain团队负责人、谷歌Research Group资深院士,谷歌AI项目的“精神领袖”Jeff Dean刚刚在Twitter上连发10条博文,激动地宣布了谷歌云TPU机器学习加速器测试版已向外部用户开放,价格大约是每小时6.5美元,目前数量有限。

  Jeff Dean提到,谷歌已为那些想访问高速加速器来训练机器学习模型的人们,推出了Cloud TPU的beta版。

  TPU发布于2016年5月,全名是张量处理器(Tensor Processing Unit,TPU),可以简单的理解为是一款为机器学习特别定制的AI芯片,与谷歌诸多AI技术相匹配。

  自从谷歌TPU推出,它已经逐渐进入到谷歌旗下的诸多AI服务上,根据Jeff Dean此前在东京一次研讨会上介绍的信息,谷歌TPU已经存在于图像搜索中、谷歌旗下的一软应用中——Google Photo、Google Translate等。

  就连DeepMind AlphaGo击败围棋大师李世乭,谷歌TPU也是重要的核心部件。

  因为CPU,GPU本身诞生的时间就更早,谷歌TPU是后来者了。根据知乎一位用户的说法,GPU有多个流处理单元,对重复的浮点计算有高度的并行,因此对于AI这种编程框架,尤其是对图形图像的计算要快很多;而谷歌的TPU则是专门针对TensorFlow的框架做的体系结构,在做AI计算方面,它可以排除GPU里面的其他部分,专门做AI需要的处理部件,所以TPU应该是针对AI计算最有效率的运算单元。

  所以,从最开始使用CPU跑AI,到用NVIDIA GPU跑AI,再到如今专有的TPU AI芯片跑AI,就是专用场景优化的结果。而使用谷歌的TPU搭配Google Tensor Flow,一定程度上就是使用谷歌进行机器学习开发的最有效的利器。

  为了让更多的人可以避免花费昂贵的硬件价格,以及复杂的入门条件,谷歌相继在软件上开源AutoML框架以及在计算力上开放这次的谷歌云TPU计划,目的都是为了让更多的人更好的利用到最新的AI技术。

  谷歌在介绍页面提到——Cloud TPU是谷歌设计的一种硬件加速器,旨在优化以加速和扩大使用TensorFlow编程的机器学习工作负载。

  Cloud TPU使用四个定制化ASIC构建,单个Cloud TPU的计算能力达到180万亿次浮点运算,具备64 GB的高带宽内存。这些板卡可单独使用也可通过超快的专门网络联合使用以构建数千万亿次级别的机器学习超级计算机,我们称之为“TPU pod”。今年稍后,我们将在GCP上提供更大型的超级计算机。

  “我们设计Cloud TPU的目的是为TensorFlow工作负载提供差异化的性能,使ML工程师和研究者实现更快迭代。”

  比如:不到一天的时间,你就可以在ImageNet上把ResNet-50模型训练到75%的精度,成本不到200美元。

  在人工智能研究上,大公司往往通过自研自用的方式降低研发成本,而小公司可能会直接选用更灵活的GPU技术开发人工智能。此前谷歌TPU仅仅架设在自家的应用服务上,一定程度上,通过这种规模化的应用达到了自产自销的作用。

  为了释放谷歌TPU的计算能力以及让更多的人可以利用先进的TPU进行机器学习研究。如今,谷歌更简便的Cloud TPU计划在一定程度上进入了更小公司的视野中,侧面在制约使用其他硬件技术,诸如购买GPU开发人工智能技术的发展,这也代表了谷歌在人工智能服务和云服务上展现的不同的组合战略思维。

  Jeff Dean在Twitter上各种安利,比如——

  通过谷歌Cloud VM,TensorFlow编程模型,它可以提供180 tflops的计算能力;

  很多研究员和工程师都遇到机器学习计算受限问题,我们认为Cloud TPU将成为一个极好的解决方案。

  拥有早期访问权限的用户看起来很开心。投资公司Two Sigma的CTO Alfred Spector说:“我们发现,将TensorFlow工作负载转移到TPU上,极大降低了编程新模型的复杂性,并且缩短了训练时间。”

  共享出行公司Lyft软件总监Anantha Kancherla说,“自从使用谷歌Cloud TPU,我们被它的速度惊呆了。以前需要花几天的事情,现在几小时就能完成。”

  除此外,谷歌Cloud TPU在官方介绍网页提到了各种技术支持项目,比如“传统上,编写超级计算机的程序需要专业度。而对于Cloud TPU而言,你可以使用高级TensorFlow API进行编程,我们开源了一系列参考高性能Cloud TPU模型实现,帮助大家立刻上手。”

  “之后,谷歌还会继续开源其他模型。喜爱冒险的机器学习专家可以使用我们提供的文档和工具利用Cloud TPU自己优化其他TensorFlow模型。”

  目前,Cloud TPU最初在美国相关区域提供,价格是每小时6.5美元。Jeff Dean还提到,让很多外部的用户能够利用到我们的Cloud TPU,是很多团队共同努力的结果,包括谷歌云、数据中心、平台小组、谷歌大脑、XLA团队,和许多其他同事。