什么是人工智能硬件?GPU 和 TPU 如何推动人工智能算法的发展

什么是人工智能硬件?GPU 和 TPU 如何推动人工智能算法的发展

大多数计算机和算法(包括此时的许多人工智能(AI)应用程序)在称为中央处理器或CPU的通用电路上运行。但是,当经常进行某些计算时,计算机科学家和电气工程师会设计出可以更快或更准确地执行相同工作的特殊电路。现在人工智能算法变得如此普遍和必不可少,专用电路或芯片变得越来越普遍和必不可少。

这些电路有多种形式和不同的位置。有些可以更快地创建新的 AI 模型。它们并行使用多个处理电路来搅动数百万、数十亿甚至更多的数据元素,搜索模式和信号。人工智能科学家在流程开始时在实验室中使用了这些算法,寻找理解数据的最佳算法。

其他模型正在使用该模型的位置进行部署。一些智能手机和家庭自动化系统具有专门的电路,可以加快语音识别或其他常见任务的速度。他们通过提供更快的计算和更低的功耗,在使用模型的地方更有效地运行模型。

科学家们也在试验更新的电路设计。例如,有些人希望使用模拟电子设备而不是主导计算机的数字电路。这些不同的形式可以提供更好的准确性、更低的功耗、更快的训练等等。

人工智能硬件有哪些示例?

AI 硬件最简单的示例是图形处理单元或 GPU,它们已被重新部署以处理机器学习 (ML) 杂务。许多 ML 包已经过修改,以利用普通 GPU 中可用的广泛并行性。渲染游戏场景的相同硬件也可以训练 ML 模型,因为在这两种情况下,可以同时完成许多任务。

一些公司采取了相同的方法,并将其扩展到仅关注ML。这些较新的芯片,有时称为张量处理单元(TPU),并不试图同时服务于游戏显示和学习算法。它们针对 AI 模型开发和部署进行了全面优化。

还有一些针对机器学习管道的不同部分进行了优化的芯片。这些可能更适合创建模型,因为它可以处理大型数据集 - 或者,它们可能擅长将模型应用于传入数据,以查看模型是否可以在其中找到答案。这些可以进行优化,以使用更低的功耗和更少的资源,使它们更容易部署在手机或用户希望依赖人工智能但不创建新模型的地方。

此外,还有一些基本的 CPU 开始简化 ML 工作负载的性能。传统上,许多CPU专注于双精度浮点计算,因为它们广泛用于游戏和科学研究。最近,一些芯片正在强调单精度浮点计算,因为它们可以更快。较新的芯片正在用精度换取速度,因为科学家们发现,在一些常见的机器学习任务中,额外的精度可能没有价值——他们宁愿拥有速度。

在所有这些情况下,许多云提供商使用户能够启动和关闭这些专用机器的多个实例。用户无需投资购买自己的,只需在训练模型时租用即可。在某些情况下,部署多台计算机的速度可以明显提高,从而使云成为有效的选择。

AI 硬件与常规硬件有何不同?

许多为加速人工智能算法而设计的芯片依赖于与常规芯片相同的基本算术运算。他们像以前一样加、减、乘、除。它们最大的优势是它们有许多内核,通常更小,因此它们可以并行处理这些数据。

这些芯片的架构师通常会尝试调整将数据传入和传出芯片的通道,因为数据流的大小和性质通常与通用计算有很大不同。常规 CPU 可以处理更多的指令和相对较少的数据。AI处理芯片通常处理大数据量。

一些公司故意在大型内存阵列中嵌入许多非常小的处理器。传统计算机将内存与 CPU 分开;协调两者之间的数据移动是机器架构师面临的最大挑战之一。在内存旁边放置许多小的算术单元,可以消除用于数据移动的大部分时间和组织,从而显著加快计算速度。

一些公司还专注于为特定类型的AI操作创建特殊的处理器。通过训练创建AI模型的工作计算密集得多,并且涉及更多的数据移动和通信。构建模型后,分析新数据元素的需求更加简单。一些公司正在创建特殊的人工智能推理系统,这些系统可以更快、更有效地与现有模型配合使用。

并非所有方法都依赖于传统的算术方法。一些开发人员正在创建模拟电路,其行为与几乎所有CPU中的传统数字电路不同。他们希望通过放弃数字方法并利用电路的一些原始行为来创造更快、更密集的芯片。

使用 AI 硬件有哪些优势?

主要优点是速度。一些基准测试表明 GPU 比 CPU 快 100 倍甚至 200 倍的情况并不少见。然而,并非所有模型和算法都能加快速度,有些基准测试的速度只有 10 到 20 倍。一些算法根本没有快多少。

一个越来越重要的优势是功耗。在正确的组合中,GPU 和 TPU 可以使用更少的电力来产生相同的结果。虽然GPU和TPU卡通常是大耗电者,但它们的运行速度要快得多,最终可以节省电力。当电力成本上升时,这是一个很大的优势。他们还可以帮助公司产生“更绿色的人工智能”,提供相同的结果,同时使用更少的电力,从而产生更少的二氧化碳。

专用电路对于必须依赖电池或不太丰富的电力来源的手机或其他设备也有帮助。例如,一些应用程序依靠快速的AI硬件来完成非常常见的任务,例如等待语音识别中使用的“唤醒词”。

更快的本地硬件还可以消除通过互联网将数据发送到云的需要。在本地完成计算时,这可以节省带宽费用和电力。

有哪些领先公司如何接近人工智能硬件的例子?

用于机器学习的最常见专用硬件形式仍然来自制造图形处理单元的公司。Nvidia和AMD创造了市场上许多领先的GPU,其中许多也用于加速ML。虽然其中许多可以加速许多任务,例如渲染电脑游戏,但有些已经开始带有专门为 AI 设计的增强功能。

例如,Nvidia 添加了许多对训练 ML 模型有用的多精度操作,并调用这些张量核心。AMD也在调整其GPU用于机器学习,并将这种方法称为CDNA2。在可预见的未来,人工智能的使用将继续推动这些架构的发展。

如前所述,谷歌制造了自己的硬件来加速ML,称为张量处理单元或TPU。该公司还提供一组库和工具,以简化硬件及其构建模型的部署。谷歌的TPU主要通过谷歌云平台出租。

谷歌还在其Pixel手机系列中添加了一个版本的TPU设计,以加速手机可能用于的任何AI杂务。这些可能包括语音识别、照片改进或机器翻译。谷歌指出,该芯片足够强大,可以在本地完成大部分工作,节省带宽并提高速度,因为传统上,手机已将工作卸载到云端。

许多云公司,如亚马逊,IBM,Oracle,Vultr和Microsoft正在安装这些GPU或TPU,并在上面租用时间。事实上,许多高端GPU并不是让用户直接购买的,因为通过这种商业模式共享它们可能更具成本效益。

亚马逊的云计算系统也提供了一套围绕ARM架构构建的新芯片。这些引力子芯片的最新版本可以以更快的速度运行较低精度的算术,这是机器学习通常需要的功能。

一些公司还在构建简单的前端应用程序,帮助数据科学家管理他们的数据,然后将其提供给各种人工智能算法。谷歌的CoLab或AutoML,亚马逊的SageMaker,Microsoft的机器学习工作室和IBM的Watson Studio只是隐藏界面后面任何专用硬件的选项的几个例子。这些公司可能会也可能不会使用专门的硬件来加速ML任务并以较低的价格交付它们,但客户可能不知道。

初创公司如何创建 AI 硬件

数十家初创公司正在接近创造优质AI芯片的工作。这些例子以其资金和市场兴趣而著称:

  • D-Matrix正在创建一个芯片集合,这些芯片使标准算术函数更接近存储在RAM单元中的数据。这种架构,他们称之为“内存计算”,有望通过加快评估先前训练的模型的工作来加速许多人工智能应用程序。数据不需要移动那么远,许多计算可以并行完成。
  • Untether是另一家将标准逻辑与存储单元混合在一起的初创公司,以创建他们所谓的“内存”计算。将逻辑嵌入 RAM 单元可在单个卡中生成一个极其密集但节能的系统,可提供约 2 petaflops 的计算。Untether称之为“世界上最高的计算密度”。该系统旨在从小型芯片(可能用于嵌入式或移动系统)扩展到服务器场的较大配置。
  • Graphcore将其内存计算方法称为“IPU”(用于智能处理单元),并依靠芯片的新颖三维封装来提高处理器密度并限制通信时间。IPU是一个由数千个他们称之为“IPU瓷砖”的大型网格,由内存和计算能力构建而成。他们共同承诺提供350 teraflops的计算能力。
  • Cerebras已经构建了一个非常大的晶圆级芯片,比竞争GPU大50倍。他们使用这种额外的硅来包装850,000个内核,可以并行训练和评估模型。他们将其与极高的带宽连接相结合,以吸收数据,使他们能够比最好的GPU快数千倍的速度产生结果。
  • Celestial使用光子学(电子学和基于光的逻辑的混合物)来加速处理节点之间的通信。这种“光子结构”有望通过使用光来减少用于通信的能量,从而使整个系统能够降低功耗并提供更快的结果。

有什么AI硬件做不到的吗?

在大多数情况下,专用硬件不会执行任何特殊算法或以更好的方式进行训练。芯片在运行算法时速度更快。标准硬件将找到相同的答案,但速度较慢。

这种等效性不适用于使用模拟电路的芯片。不过,总的来说,这种方法足够相似,结果不一定会有所不同,只是更快。

在某些情况下,依靠单精度计算而不是双精度计算来牺牲精度和速度可能是错误的,但这些可能是罕见且可预测的。人工智能科学家投入了大量时间的研究来了解如何最好地训练模型,而且算法通常会收敛,而无需额外的精度。

在某些情况下,专用硬件的额外功能和并行性也无助于找到解决方案。当数据集较小时,部署额外硬件的优势可能不值得花费时间和复杂性。

椰有料原创,作者:小椰子啊,转载请注明出处:http://www.studioyz.com/3555.html

0

扫一扫,分享到微信

猜你喜欢

文章评论

电子邮件地址不会被公开。 必填项已用*标注

后发表评论

上一篇

如何利用 AI 促进护理管理的成功

下一篇

AIops解决方案的增长对企业意味着什么

微信公众号

微信公众号