下载
登录/ 注册
主页
论坛
视频
热股
可转债
下载
下载

​ChatGPT的背后 指数级增长的半导体需求(转载)

23-02-09 22:58 303次浏览
自由翱翔9666
+关注
博主要求身份验证
登录用户ID:
目前ChatGPT算商业应用最快的现象级产品。a股几个高位监管,关注高切低及调整后的二波。这是昨晚的原话,国内大厂均已跟进,百度 、阿里、腾讯、网易 等大厂均已涉足类似ChatGPT和AIGC,目前主流仍然围绕ChatGPT的支线来展开。叠加近期主板注册制的消息,目前科创,创业板20cm打出了赚钱效应,关注20cm个股。

ChatGPT的背后 指数级增长的芯片与半导体需求无论是从技术原理角度还是运行条件角度,ChatGPT都需要强大算力作为支撑,从而带动场景流量大幅增加,此外,ChatGPT对于高端芯片的需求增加也会拉动芯片均价,量价齐升导致芯片需求暴涨;面对指数级增长的算力和数据传输需求,可以进行提供的GPU或CPU+FPGA芯片厂商、光模块厂商即将迎来蓝海市场。

▲芯片需求=量↑x价↑
1)量:AIGC带来的全新场景+原场景流量大幅提高

①技术原理角度:ChatGPT是基于GPT3.5架构开发的对话AI模型,历经GPT-1/2/3迭代,在GPT3.5模型后,开始引入代码训练和指令微调,加入RLHF技术(人类反馈强化学),从而实现能力进化。GPT作为知名的NLP模型,基于Transformer技术,随着模型不断迭代,层数也越来越多,对算力的需求也就越来越大。

②运行条件角度:ChatGPT完美运行的三个条件:训练数据+模型算法+算力。其中训练数据市场广阔,技术壁垒较低,投入足够的人力物力及财力后即可获得;基础模型及模型调优对算力的需求较低,但获得ChatGPT功能需要在基础模型上进行大规模预训练,存储知识的能力来源于1750亿参数,需要大量算力。所以,算力是ChatGPT运行的关键所在。

2)价:对高端芯片的需求将拉动芯片均价
采购一片英伟达 顶级GPU成本为8万元,GPU服务器成本通常超过40万元。对于ChatGPT而言,支撑其算力基础设施至少需要上万颗英伟达GPUA100,一次模型训练成本超过1200万美元。从芯片市场角度出发,芯片需求的快速增加会进一步拉高芯片均价。目前OpenAI已推出20美元订阅模式,初步构建了优质的订阅商业模型,未来继续扩容的能力将会大幅提升。
“背后英雄”系GPU或CPU+FPGA等算力支撑

1)GPU可支撑强大算力需求。
具体来说,从AI模型构建的角度:第一阶段是用超大算力和数据构建预训练模型;第二阶段是在预训练模型上进行针对性训练。而GPU由于具备并行计算能力,可兼容训练和推理,所以目前被广泛应用,ChatGPT训练模型中就已导入至少1万颗英伟达GPU(曾经风靡一时的AlphaGO也只需要8块GPU),推理部分使用微软 的Azure云服务,也需要GPU进行运作。所以,ChatGPT的火热兴起对GPU的需求可见一斑。

2)CPU+FPGA拭目以待。
从深度学的角度来看,虽然GPU是最适合深度学应用的芯片,但CPU和FPGA也不可忽略。FPGA芯片作为可编程芯片,可以针对特定功能进行扩展,在AI模型构建第二阶段具有一定的发挥空间。而FPGA想要实现深度学功能,需要与CPU结合,共同应用于深度学模型,同样可以实现庞大的算力需求。

3)云计算依靠光模块实现设备互联。
AI模型向以ChatGPT为首的大规模语言模型发展,驱动数据传输量和算力提升。伴随数据传输量的增长,光模块作为数据中心内设备互联的载体,需求量随之增长。此外,伴随算力提升能耗增长,厂商寻求降低能耗方案,推动低能耗的光模块发展。
结论:ChatGPT 作为一种新兴的超智能对话 AI 产品,无论是从技术原理角度还 是运行条件角度,ChatGPT 都需要强大算力作为支撑,从而带动场景流量大幅 增加,此外,ChatGPT 对于高端芯片的需求增加也会拉动芯片均价,量价齐升 导致芯片需求暴涨;面对指数级增长的算力和数据传输需求,可以进行提供的 GPU 或 CPU+FPGA 芯片厂商、光模块厂商即将迎来蓝海市场。

看好:看好国内 GPU、CPU、FPGA、AI 芯片及光模块产业链玩家。
① GPU:海光信息景嘉微
② CPU:龙芯中科中国长城
③ FPGA:安陆科技、复旦微电紫光股份
④ AI 芯片:寒武纪澜起科技
⑤ 光模块:德科立天孚通信中际旭创
风险提示:1)半导体下游需求不及预期;2)研发进度不及预期。

风险提示/免责声明:以上信息来源于公开资料,仅在分享研报君的投资逻辑,非荐票,不构成买卖指导意见。股市有风险,入市需谨慎。
打开淘股吧APP
1
评论(0)
收藏
展开
热门 最新
提交