下载
登录/ 注册
主页
论坛
视频
热股
可转债
基金
下载
下载

国产人工智能芯片

23-10-11 08:33 161次浏览
临溪
+关注
博主要求身份验证
登录用户ID:
10月10日,据科技日报报道,近日,清华大学集成电路学院教授吴华强、副教授高滨团队基于存算一体计算范式,研制出全球首颗全系统集成的、支持高效片上学(机器学能在硬件端直接完成)的忆阻器存算一体芯片,在支持片上学的忆阻器存算一体芯片领域取得重大突破,有望促进人工智能、自动驾驶可穿戴设备等领域发展。相关成果在线发表于最新一期的《科学》。
打开淘股吧APP
0
评论(3)
收藏
展开
热门 最新
临溪

23-10-11 09:10

0
AI算力芯片中,存算一体的计算架构无疑会有更大更好的机会。据了解,业内头部企业也提出了类似的方案,AMD在今年初,提出了存内计算;三星也认为,存储器在人工智能服务器中的重要性将会超过英伟达的GPU。

她强调,“AI算力芯片,除了有较高的能效比之外,还需要更好的性价比并兼顾通用性,此外,在中国AI大算力芯片发展,还要能够解决先进工艺依赖这一外部问题。”

徐芳副总裁进而指出,“存算一体的技术架构,其优势在于既能够用传统的CM­OS工艺,又能够快速实现量产,进而突破AI芯片的算力困境。”也是从这里来观察,存算一体的大算力芯片也将是中国在算力芯片领域换道超车的机会。
临溪

23-10-11 08:51

0
算力、模型、数据是 AI 发展的三大要素,芯片是 AI 。 算力的源泉。根据承担任务的不同,AI 芯片可以分为训练和推理芯片。训练,即通过输入大量数据来构建神经网络模型,使之可以适应特定的功能;推理,即借助现有神经网络进行运算,通过新输入的数据来获得推理结论。
临溪

23-10-11 08:44

0
细分赛道

作为用于加速人工智能训练和推理任务的专用硬件,AI 算力芯片既包括 CPU、GPU、FP­GA 等传统芯片,也包括以 TPU、VPU 为代表的专门针对人工智能领域设计的 AS­IC芯片,此类芯片通常拥有高度并行计算能力和优异的低功耗高效计算性能。

1.CPU

CPU 为 AI 提供算力和数据管理功能,帮助实现复杂的模型训练、预测和决策过程。CPU是一种通用处理器,适用于大多数计算任务。CPU 的核心数较少,因此其更适用于单线程或少量线程的任务,例如文本处理、网页浏览、编程等,对于高性能计算任务,如机器学、深度学等,则表现稍显乏力。

2.GPU

GPU 芯片最初用于计算机系统图像显示的运算,但因其相比于擅长横向计算的 CPU 更擅长于并行计算,在涉及到大量的矩阵或向量计算的 AI 计算中很有优势,GPU 应运而生。目前,GPU 的制造工艺在英伟达等企业的领导下已趋向成熟,成本在 AI 芯片中也较低,成为市场主流选择, Ch­a­t­G­PT 引起的 AI 浪潮有望提升其应用规模。

国内 GPU 生态起步较晚,在算力需求快速增长的进程中,国产 GPU 正面临机遇与挑战并存的局面。目前,国产 GPU 厂商的核心架构多为自研,难度极高,需投入海量资金以及高昂的人力和时间成本。由于我国 GPU 行业起步较晚,缺乏相应生态,目前同国际一流厂商仍存在较大差距。3.FP­GA

作为 AI 计算平台使用最为广泛的加速芯片之一,FP­GA 具有功耗低、延迟短、灵活性强的特点,被广泛应用于机器学、网络安全、超大规模图像处理、基因检测等领域。随着 AI 的发展对算力及定制化愈发严苛的要求,FP­GA 也将围绕可编程的特性作进一步拓展,通过优化其硬件构架、集成 AI 构架与硬件加速器等方面进一步发展。与此同时,CPU+FP­GA 或将成为全新的异构加速模式,在未来被更多的 AI 应用领域所采纳。

4.AS­IC

AS­IC是面向特定的、具体的、相对单一的人工智能应用设计的专用芯片。AS­IC 从性能、能效、成本均极大的超越了标准芯片,非常适合 AI 计算场景。优点:

1)定制功能与更小的尺寸:由于器件是根据设计的规格进行生产的;

2)更低的器件成本:实现大批量设计与生产,批量越大,成本越低;

3)高性能、低功耗:AS­IC 芯片相当于将 AI 算法“硬件化”,特定算法下能效更高;

4)可形成 IP 校复用:模块化的设计方法,可根据设计需要进行 IP 选取 。

AS­IC 一次性成本远远高于 FP­GA,但由于其量产成本低,目前主要应用于终端,主要形态为行业专用 SoC,较多集中于语音处理领域。5.存储芯片

AI 高算力需求刺激存储芯片新发展,随着深度学等 AI 算法的发展,AI 服务器对计算能力和内存带宽的要求越来越高。GD­DR 逐渐达到极限,每秒每增加 1GB 的带宽所需要的电量剧增,NV­I­D­IA 和 AMD 等厂商逐渐开始使用 HBM(高带宽存储)。

HBM 是DR­AM 的一种新技术,它通过 3D 堆叠技术将多个 DDR 垂直堆叠在一起,形成一个高度集成的内存模组,同时与 CPU/GPU 合封,使得 HBM 内存芯片具有更大的密度和更短的电路路径,能够提供更高的内存带宽和更低的延迟,可以显著提高深度学等 AI 算法的计算性能和效率。
刷新 首页上一页 下一页末页
提交