细分赛道
作为用于加速
人工智能训练和推理任务的专用硬件,AI 算力芯片既包括 CPU、GPU、FPGA 等传统芯片,也包括以 TPU、VPU 为代表的专门针对人工智能领域设计的 ASIC芯片,此类芯片通常拥有高度并行计算能力和优异的低功耗高效计算性能。
1.CPU
CPU 为 AI 提供算力和数据管理功能,帮助实现复杂的模型训练、预测和决策过程。CPU是一种通用处理器,适用于大多数计算任务。CPU 的核心数较少,因此其更适用于单线程或少量线程的任务,例如文本处理、网页浏览、编程等,对于高性能计算任务,如机器学、深度学等,则表现稍显乏力。
2.GPU
GPU 芯片最初用于计算机系统图像显示的运算,但因其相比于擅长横向计算的 CPU 更擅长于并行计算,在涉及到大量的矩阵或向量计算的 AI 计算中很有优势,GPU 应运而生。目前,GPU 的制造工艺在
英伟达等企业的领导下已趋向成熟,成本在 AI 芯片中也较低,成为市场主流选择, ChatGPT 引起的 AI 浪潮有望提升其应用规模。
国内 GPU 生态起步较晚,在算力需求快速增长的进程中,国产 GPU 正面临机遇与挑战并存的局面。目前,国产 GPU 厂商的核心架构多为自研,难度极高,需投入海量资金以及高昂的人力和时间成本。由于我国 GPU 行业起步较晚,缺乏相应生态,目前同国际一流厂商仍存在较大差距。3.FPGA
作为 AI 计算平台使用最为广泛的加速芯片之一,FPGA 具有功耗低、延迟短、灵活性强的特点,被广泛应用于机器学、
网络安全、超大规模图像处理、基因检测等领域。随着 AI 的发展对算力及定制化愈发严苛的要求,FPGA 也将围绕可编程的特性作进一步拓展,通过优化其硬件构架、集成 AI 构架与硬件加速器等方面进一步发展。与此同时,CPU+FPGA 或将成为全新的异构加速模式,在未来被更多的 AI 应用领域所采纳。
4.ASIC
ASIC是面向特定的、具体的、相对单一的人工智能应用设计的专用芯片。ASIC 从性能、能效、成本均极大的超越了标准芯片,非常适合 AI 计算场景。优点:
1)定制功能与更小的尺寸:由于器件是根据设计的规格进行生产的;
2)更低的器件成本:实现大批量设计与生产,批量越大,成本越低;
3)高性能、低功耗:ASIC 芯片相当于将 AI 算法“硬件化”,特定算法下能效更高;
4)可形成 IP 校复用:模块化的设计方法,可根据设计需要进行 IP 选取 。
ASIC 一次性成本远远高于 FPGA,但由于其量产成本低,目前主要应用于终端,主要形态为行业专用 SoC,较多集中于语音处理领域。5.
存储芯片AI 高算力需求刺激存储芯片新发展,随着深度学等 AI 算法的发展,AI 服务器对计算能力和内存带宽的要求越来越高。GDDR 逐渐达到极限,每秒每增加 1GB 的带宽所需要的电量剧增,NVIDIA 和 AMD 等厂商逐渐开始使用 HBM(高带宽存储)。
HBM 是DRAM 的一种新技术,它通过 3D 堆叠技术将多个 DDR 垂直堆叠在一起,形成一个高度集成的内存模组,同时与 CPU/GPU 合封,使得 HBM 内存芯片具有更大的密度和更短的电路路径,能够提供更高的内存带宽和更低的延迟,可以显著提高深度学等 AI 算法的计算性能和效率。