环球国际_论AI深度学习硬件:谷歌TPU与GPU、FPGA有何差别?

发布时间:2020-11-09    来源:环球体育 nbsp;   浏览:23280次

环球国际

环球体育-目前,谷歌、Facebook、微软、百度等科技巨头都在争相投身人工智能。市场对人工智能的热情持续高涨,尤其是硬件领域。

有分析师认为,人工智能将成为下一个技术出口,主要包括硬件。日前,AlphaGo确认将于5月重返中国,与世界头号棋手柯洁对弈。能打败柯洁吗?逆向势不可挡?去年,当AlphaGo击败李师义时,也许我们都在想,它怎么会这么聪明,是什么支持机器人强大而缓慢的计算能力?毕竟,关键是谷歌的TPU。

在图像语音识别、无人驾驶等人工智能领域的应用中,图形处理器(GPU)的市场份额迅速扩大,而谷歌专门为人工智能开发的TPU被视为GPU的竞争对手。什么是TPU?怎么能算是GPU的竞争对手?人工智能的要素概念人工智能的构建依赖于三个要素:算法是核心,硬件和数据是基础。算法主要分为工程方法和仿真方法。

工程方法是利用传统编程技术,利用大量数据处理经验提高算法性能;模拟规则是模仿人类或其他生物用来提高算法性能的方法或技巧,如遗传算法、神经网络等。目前硬件主要用于GPU并行计算神经网络。

右图可以反映这些要素之间的关系:从产业结构来看,人工智能生态分为基础、技术和应用三层。基础层还包括数据资源和计算能力;技术层还包括算法、模型和研发中的应用;应用层还包括人工智能的各个行业(领域),如语音识别、人脸识别、无人机、机器人、无人驾驶等应用于互联网、金融、汽车、游戏等行业的功能。什么是TPUTPU,也就是谷歌的张量处理器——TensorProcessingUnit。

根据谷歌工程师诺姆茹皮的说法,TPU是一个自我定义的机器学习芯片。经过专门的深度机器学习训练,性能更高(每瓦特计算能力)。总的来环球体育网站说,与目前的处理器相比,它有7年的领先优势和更高的容错能力。

它可以每秒钟在芯片中吸取更好的操作员时间,可以用在更简单更强大的机器学习模型中,而且部署更慢,用户不会更快得到更智能的结果。谷歌专门为人工智能开发的TPU被怀疑对GPU构成威胁。

然而,谷歌回应称,它开发的TPU将不得不与英特尔或英伟达竞争。TPU最近的展示是人工智能和顶尖人类棋手之间的较量。在AlphaGo战胜李世石的系列赛中,TPU可以让AlphaGo“思考”更慢,“想要”更多的棋,更好的预测局势。

深度自学习操作流程对于任何操作,更换新硬件都是为了两个目的:更慢的速度和更低的能耗。对这个看似神秘的词的深入自学,不过是大量的计算。我们都讲一句老话,通用工具总有一天会比专用工具效率低。

无论是CPU、GPU还是FPGA,其属性都是标准化的工具。因为他们可以应付很多不同的任务。而特殊的TPU自然不应该在效率方面低于以前的硬件。

这里的高效率意味着更慢的速度和更低的能耗。但是我们不能只是讲道理,还要竖立一些数据。其实Xilinx已经多次回应,在特定FPGA R&D环境下深度自学的能效比会比CPU/GPU架构高25倍,不是翻倍,而是25倍!学生可以拿走纸和笔。下面推荐一个实际的例子来说说这种效率提升的原因。

以在深度神经网络(DNN)上开发的图像识别为例,网络的整体结构一般如下:除了输出层用于将图像特征提取为函数,输入层用于输入结果,其他隐藏层用于识别和分析图像特征。 输出一张图片时,第一层的隐藏层不会先丢弃像素来分析。此时,分析不会首先提取图像的一些一般特征,如一些粗线条和色块。如果输出的是人脸的图像,就不会先得到一些弯曲的颜色转换。

第一层的节点不会根据自己对被扣信号的分析结果,询问是否向下一层输入信号。从数学上来说,所谓的分析过程就是隐藏层中的每个节点通过特定的函数来处理相邻节点传递的带有权值的数据。并询问是否将结果输入到下一级。

一般来说,一些节点在每一级的分析完成后,都会将数据输入到下一级。当下一级接管上一级的数据时,可以在此基础上识别出一些更简单的特征,如眼、口、鼻等。在识别度大大降低后,算法不会在最底层完成所有面部特征的识别,在输入层得到一个结果识别。根据不同的应用,该结果可能会以不同的方式显示。

比如识别是谁的脸。-环球体育。

本文来源:环球体育网站-www.elifsanat.com