人工智能芯片(AI chips)采用特定的架构构建,并集成了AI加速,以支持基于深度学习(DL)的应用,包括专用集成电路(ASICs)、现场可编程门阵列(FPGAs)、中央处理器(CPU)和图形处理器。 深度学习(DL)更通常被称为主动神经网络(ANN)或深度神经网络(DNN),是机器学习(ML)的一个子集,属于AI的更广泛的范围。它结合了一系列刺激活动和大脑结构的计算机命令或算法。 dnn经历一个训练阶段,从现有数据中学习新的能力。然后,DNNs可以通过应用在深度学习训练中学习到的这些能力来进行推理,以针对以前从未见过的数据进行预测。深度学习可以让收集、分析和解释大量数据的过程变得更快、更容易。 传统芯片和AI芯片的区别 传统芯片包含处理器内核和内存,执行计算任务时,它们不断地在两个硬件组件之间移动命令和数据。然而,这些芯片对于AI应用来说并不理想,因为它们无法处理具有大量数据的AI工作负载的更高计算需求,虽然一些更高端的传统芯片可能能够处理某些AI应用。 AI芯片通常包含处理器核心,以及几个AI优化的核心(取决于芯片的规模),这些核心旨在执行计算任务时协调工作。由于与旨在处理非AI应用的其他处理器内核紧密集成,AI内核针对具有低延迟推理的异构企业级AI工作负载的需求进行了优化。 从本质上讲,AI芯片重新想象了传统芯片的架构,使智能设备能够以最低的功耗实时执行复杂的深度学习任务,如对象检测和分割。 AI芯片应用 半导体公司为大量智能机器和设备开发了各种专业的AI芯片,其中包括据说可以为边缘设备提供数据中心级计算机性能的芯片。 其中,一些芯片支持车载计算机更有效地运行最先进的AI应用程序。AI芯片也在推动可穿戴电子产品、无人机和机器人中的计算成像应用。此外,由于对聊天机器人和在线渠道(如Messenger、Slack等)的需求增加,AI芯片在NLP(自然语言处理)应用中的使用也有所增加。他们使用NLP来分析用户信息和对话逻辑。 此外,还有一些芯片制造商制造了具有片上硬件加速功能的AI处理器,旨在帮助客户在银行、金融、贸易、保险应用和客户互动等领域实现大规模商业洞察。 随着AI在不同工作负载中变得无处不在,拥有一个包括支持主要深度学习框架的专用推理加速器将允许公司利用其数据的全部潜力。(Donna Zhang,张底剪报)
|