分享
计算机行业:ChatGPT跨行业专题报告 -AIGC发展大年推动新一轮产业革命 20230210 -招银国际.pdf
下载文档
温馨提示:
1. 部分包含数学公式或PPT动画的文件,查看预览时可能会显示错乱或异常,文件下载后无此问题,请放心下载。
2. 本文档由用户上传,版权归属用户,汇文网负责整理代发布。如果您对本文档版权有争议请及时联系客服。
3. 下载前请仔细阅读文档内容,确认文档内容符合您的需求后进行下载,若出现内容与标题不符可向本站投诉处理。
4. 下载文档时可能由于网络波动等原因无法下载或下载错误,付费完成后未能成功下载的用户请联系客服处理。
网站客服:3074922707
计算机行业:ChatGPT跨行业专题报告 -AIGC发展大年,推动新一轮产业革命 20230210 -招银国际 计算机 行业 C
敬请参阅尾页之免责声明 请到彭博(搜索代码:RESP CMBR)或 http:/.hk 下载更多招银国际环球市场研究报告 1 2023 年年 2 月月 10 日日 招银国际环球市场招银国际环球市场|睿智投资睿智投资|行业研究行业研究 ChatGPT 跨行业专题报告跨行业专题报告 AIGC 发展大年发展大年,推动推动新一轮产业革命新一轮产业革命 近年全球科技龙头持续投入 AIGC 领域以及近期 ChatGPT 应用落地加速,我们认为 2023 年 AIGC 大模型与产业将迎来快速发展期,赋予人工智能大规模落地场景,为底层算法和芯片等领域带来巨大需求,同时加速 AIGC 应用渗透和商业化进程。在本篇报告中,我们对 ChatGPT/AIGC 算法层、算力层和应用层的发展和产业链进行深度分析,建议重点关注上游算法商汤和科大讯飞,中游芯片景嘉微和寒武纪,及下游应用微软、谷歌、Meta、百度、腾讯、阿里和字节。算法算法层:层:ChatGPT 底层的大模型技术演进。底层的大模型技术演进。大模型是在大规模无标注数据上进行训练,学习出特征和规则,泛化能力强。大模型技术的兴起,有效降低了AI应用研发门槛,也能解决在特定应用场景有效数据不足导致模型精度低的问题。现阶段的大模型主要是面向 NLP 领域,包括 ChatGPT 背后的GPT-3,而在 CV 领域,多个公司也在积极加大技术储备。针对 5 年来中美发布的主要大模型,我们从两个维度进行了比较:1)在模型参数量上,模型体量随时间呈指数扩张趋势,美国同等参数量级的大模型比中国领先 1-2年;2)在 NLP 专利数量上,微软和谷歌的持有数已经在几千个的量级,而国内领先的 BAT 持有数则在 600 个左右。算力层:大模型驱动算力层:大模型驱动 AI/内存内存芯片需求全面加速芯片需求全面加速。AI 芯片为人工智能应用提供所需的基础算力,主要分为 GPU、FPGA 和 ASIC,ChatGPT 基础模型上大规模预训练需要强大算力作为支持,而大算力需要更多高算力和内存芯片去支撑算法运行。目前 GPU 为主导 AI 芯片,因具有强大计算能力和高通用适用性,广泛应用于AI和机器学习领域。近年多家国内半导体公司积极布局GPU 领域,受中美科技摩擦影响,预计国产 GPU 芯片替代将快速推进。应用层:搜索应用层:搜索+智能客服先行,内容创作智能客服先行,内容创作+文娱生活场景渗透加速,长期看好文娱生活场景渗透加速,长期看好B 端产业机会。端产业机会。进入“数智化时代”,看好 ChatGPT/AIGC 应用场景持续渗透及商业化加速(包括搜索引擎、智能客服、教育培训、金融等),助力行业降本增效的同时,开拓创新变现增量。我们认为 ChatGPT 较难取代搜索引擎,更多体现在赋能优化,在于离线非实时数据库、训练模型下答案非正确、成本过高。中短期,基于内容创作及文娱生活导向的 AIGC 场景应用更为集中,包括文娱、传媒、电商等,长期产业升级机会可期。预计 2030 年AIGC 市场规模达千亿美元,商业模式从按量付费、订阅延伸至 MaaS。受益标的:受益标的:在ChatGPT/AIGC应用层面,建议重点关注拥有海量数据、大模型能力及 AI 内容创作产品丰富(文/音/图/视)的头部平台,包括 OpenAI、微软、谷歌、Meta、百度、腾讯、阿里、字节;可同时关注近期推出类ChatGPT 服务或泛 AI 产品的垂类腰部平台,如网易、知乎、阅文、昆仑万维等。我们看好百度在 ChatGPU 及 AIGC 的全栈技术储备、搜索引擎协同及产品管线,受益于:1)文心一言待推出,数字人+智能创作应用矩阵丰富;2)文心大模型技术支持及海量数字资产优势(语料库、参数量大)。在AI 底层算法领域,建议关注拥有 CV 大模型的商汤及在智能语音技术领先的科大讯飞。在芯片算力领域,建议关注 GPU 领先企业景嘉微、寒武纪、海光信息和龙芯中科,以及 FPGA 龙头紫光国微和复旦微电。相关报告:中国互联网行业 ChatGPT&AIGC 在中国市场的发展前景(link)伍力恒伍力恒(852)3900 .hk黄黄 群群(852)3900 .hk颜宇翾颜宇翾(852)3916 .hk杨天薇博士杨天薇博士(852)3916 .hk李汉卿李汉卿 .hk 刘梦楠刘梦楠 .hk 许义鑫许义鑫 .hk 李博文李博文 .hk AccessorAccessor 获取更多最新资料请加微信:ch e n s a s a 666 2023 年年 2 月月 10 日日 敬请参阅尾页之免责声明 2 大模型产业链大模型产业链及及潜在受益潜在受益标的标的 图图 1:大模型产业链梳理大模型产业链梳理 资料来源:智源研究院,招银国际环球市场 图图 2:大模型产业链投资标的大模型产业链投资标的 产业链产业链 国外潜在受益标的国外潜在受益标的 国内潜在受益标的国内潜在受益标的 应用应用 微软、谷歌、Facebook 百度、腾讯、阿里巴巴、字节跳动、华为、商汤、科大讯飞、思必驰 AI 模型、算法模型、算法 深度学习框架 谷歌(TensorFlow)、Facebook(PyTorch)、微软(CNTK)百度(PaddlePaddle)、华为(MindSpore)商汤(SenseParrots)大模型 微软、谷歌、Facebook 百度、腾讯、阿里巴巴、商汤 基础计算设施基础计算设施 CPU Intel GPU Nvidia,AMD 华为昇腾,燧原科技,壁仞科技 FPGA Intel,Xilinx ASIC 百度,复旦微电,寒武纪 服务器周边 澜起科技、中际旭创 数据中心 Equinix 万国数据、秦淮数据 资料来源:招银国际环球市场 下游产业下游产业中游产业中游产业上游产业上游产业重点领域重点领域重点场景重点场景社交媒体营销教育娱乐内容生产创意设计对话引擎辅助开发编程语言训练框架模型测评系统管理API管理数据处理算法研发模型管理维护芯片服务器高速互联网络云技术数据库容器/虚拟化技术硬件软件产业链方向获取更多最新资料请加微信:ch e n s a s a 666gYjWsUvXmWcVeZbWrUfWaQaOaQnPnNtRoNlOmMmOkPmNrR8OmMwPMYrNzRvPrQpQ 2023 年年 2 月月 10 日日 敬请参阅尾页之免责声明 3 受益标的估值比较受益标的估值比较 图图 3:受益标的估值比较受益标的估值比较 股价股价 市值市值 P/E P/B ROE 公司公司 代码代码 产品产品(当地货币当地货币)(百万美元百万美元)FY23E FY24E FY23E FY24E FY23E 云计算云计算 微软 MSFT US AI 云计算 266.73 1,985,486 28.6 24.8 9.3 7.3 36.4 谷歌 GOOG US AI 云计算 100 1,276,670 18.2 15.2 4.5 3.9 24.6 百度 BIDU US AI 云计算 152.34 52,641 16.5 14.6 1.6 1.7 7.3 腾讯 700 HK AI 云计算 395.6 481,702 23.4 20.0 3.2 2.8 14.4 阿里巴巴 BABA US AI 云计算 105.11 278,282 13.4 13.3 2.2 2.3 8.7 AI 算法算法 商汤 20 HK AI 算法及应用 2.78 11,853 n.a.n.a.3.2 3.5(11.7)科大讯飞 002230 CH AI 算法及应用 46.4 15,911 51.5 38.5 5.4 5.0 11.3 创新奇智 2121 HK AI 算法及应用 20 1,425 n.a.n.a.4.8 5.2(14.6)虹软科技 688088 CH AI 算法及应用 28.73 1,721 42.3 29.5 3.8 3.3 7.8 云从科技 688327 CH AI 算法及应用 31.7 3,465 n.a.n.a.12.0 12.2(26.7)芯片芯片 英伟达 NVDA US GPU 222.05 546,243 68.1 51.3 25.6 23.0 31.1 超威半导体 AMD US GPU 84.69 136,550 27.1 19.7 2.4 2.3 7.4 寒武纪 688256 CH GPU 79.07 4,677 n.a.n.a.7.0 7.4(15.9)景嘉微 300474 CH GPU 82.67 5,545 80.3 58.2 10.5 9.1 12.7 海光信息 688041 CH CPU 53.51 18,353 82.3 56.3 7.6 6.7 10.9 龙芯中科 688047 CH CPU 113 6,687 101.5 76.4 8.9 8.0 8.9 莱迪思 LSCC US FPGA 81.41 11,158 40.3 34.3 n.a.n.a.50.7 安路科技 688107 CH FPGA 73.03 4,312 308.1 138.8 18.1 16.3 5.8 紫光国微 002049 CH FPGA 126.85 15,903 26.3 19.9 7.6 5.5 30.5 复旦微 1385 HK FPGA 33.7 6,942 19.1 17.3 4.7 4.0 22.0 航锦科技 000818 CH FPGA 34.06 3,413 n.a.n.a.n.a.n.a.n.a.兆易创新 603986 CH DRAM 118.08 11,623 28.5 25.4 4.5 3.9 15.3 数据中心数据中心 易昆尼克斯 EQIX US IDC 730.99 67,644 79.4 67.7 6.1 6.2 8.0 万国数据 GDS US IDC 25.03 4,770 n.a.n.a.1.6 1.7(6.4)秦淮数据 CD US IDC 8.84 3,243 26.1 21.0 2.0 1.8 9.7 资料来源:彭博、招银国际环球市场 获取更多最新资料请加微信:ch e n s a s a 666 2023 年年 2 月月 10 日日 敬请参阅尾页之免责声明 4 目录目录 大模型产业链及潜在受益标的大模型产业链及潜在受益标的.2 受益标的估值比较受益标的估值比较.3 追本溯源:追本溯源:ChatGPT 的概述及现状的概述及现状.5 什么是 ChatGPT?.5 ChatGPT 商业化落地的限制?.6 从小模型到大模型的兴起.7 自然语言处理(NLP)大模型.8 计算机视觉(CV)大模型.8 多模态模型.9 算力层:大模型驱动算力层:大模型驱动 AI/内存内存芯片需求全面加速芯片需求全面加速.10 AI 芯片.10 内存芯片.14 应用层:应用层:AIGC 万亿市场可期,大模型万亿市场可期,大模型+内容生态为关键内容生态为关键.15 场景应用:搜索+智能客服先行,内容创作+文娱生活加速落地,长期 B 端产业升级可期.15 变现空间:AIGC万亿市场可期,订阅付费加速商业化,MaaS 探索长期增长点.16 中美对比:美国底层技术领先,中国内容场景多点开花中美对比:美国底层技术领先,中国内容场景多点开花.18 中美引领全球预训练大模型发展,美国底层技术领先.18 技术面:数据及大模型参数量差距较小,算力和模型迭代仍需精进.19 应用面:美国商业化加速、赋能 2B;中国变现早期,侧重生活互娱 C 端场景.20 潜在受益标的潜在受益标的.22 微软(MSFT US)-深度融合 OpenAI 工具,技术和应用并行.23 谷歌(GOOG US)-发布“Bard AI”及开放生成语言 API,LaMDA 大模型积淀深厚.24 百度(9888 HK)-全栈式 AI 技术先锋,文心一言+数字人+AI创作平台矩阵丰富.25 腾讯(700 HK)-混元 AI 大模型赋能多业务场景落地、实现技术提效.27 阿里巴巴(BABA US)-通义大模型凸显开源,构建 AI 统一底座.29 商汤(20 HK)-拥有 300 亿参数视觉大模型.31 科大讯飞(002230 CH)-AI语音市场龙头.32 思必驰(未上市)-“云+芯”渗透 AI 语音语义市场.33 英伟达(NVIDIA,NVDA US)-全球 AI计算平台龙头.34 超威半导体(AMD,AMD US)-CPU+GPU 双芯片行业龙头.34 莱迪思(Lattice,LSCC US)-全球领先 FPGA 供应商.35 景嘉微(300474 CH)-国产 GPU 龙头企业.35 寒武纪(688256 CH)-国内 AI芯片领先者.36 海光信息(688041 CH)-中国微处理器领军者.37 龙芯中科(688047 CH)-国产 CPU 龙头企业.37 紫光国微(002049 CH)-特种集成电路龙头.38 航锦科技(000818 CH)-军工/电子/化工三大业务板块驱动成长.39 安路科技(688107 CH)-国内领先的 FPGA芯片供应商.40 复旦微电(688385 CH)-FPGA平台型公司.40 兆易创新(603986 CH)-DRAM 龙头企业,自有品牌广泛应用.41 获取更多最新资料请加微信:ch e n s a s a 666 2023 年年 2 月月 10 日日 敬请参阅尾页之免责声明 5 追本溯源:追本溯源:ChatGPT 的概述及现状的概述及现状 什么是什么是 ChatGPT?ChatGPT 是 OpenAI 于 2022 年 11 月推出的一款聊天机器人(AI Chatbot),它是基于GPT-3.5(GPT-3 的改进版)模型的变体。ChatGPT 可以在对话中根据上下文形成类似人类的文本响应,与其他使用预定义的响应或规则生成文本的聊天机器人不同,ChatGPT 可以根据接收到的输入生成响应,从而生成更自然、更多样化的响应。ChatGPT 不仅是聊天机器人,还能进行撰写邮件、文案、代码等任务。从 2022 年 11 月上线以来,在 ChatGPT上的累积用户已经达到 1 亿。图图 4:OpenAI 及及 ChatGPT 的发展历程的发展历程 年份年份 大事记大事记 2015 作为 AI 研究实验室,OpenAI 在美国正式成立 Y Combinator 的 Sam Altman 和 Elon Musk 作为 OpenAI 的首届联合主席 2018 Elon Musk 离开 OpenAI,Sam Altman 成为了 OpenAI 的 CEO 发布通用 NLP 模型 GPT,含含 1.17 亿参数亿参数 2019 微软微软(MSFT US)向 OpenAI 投资 10 亿美元 发布 GPT-2,含含 15 亿参数亿参数 2020 OpenAI 发布 GPT 3,含含 1,750 亿参数亿参数 微软取得 GPT-3 的独家授权 2021 发布 CLIP,匹配图像和文本的预训练大模型 发布 DALL E,文字生成图像 AI 系统 2022 发布 DALL E 2 推出 ChatGPT 聊天机器人,5 天内注册用户超过 100 万 2023 微软宣布旗下所有产品将全线整合 ChatGPT,除了搜索引擎 Bing 和 Office 外,微软将在 Azure云平台整合 ChatGPT,Azure的 OpenAI 服务将允许开发者访问 AI 模型 微软宣布将向 OpenAI 追加投资数十亿美元 资料来源:OpenAI,微软,招银国际环球市场 图图 5:ChatGPT 使用示意使用示意 资料来源:ChatGPT,招银国际环球市场 图图 6:ChatGPT 使用示意使用示意 资料来源:ChatGPT,招银国际环球市场 获取更多最新资料请加微信:ch e n s a s a 666 2023 年年 2 月月 10 日日 敬请参阅尾页之免责声明 6 ChatGPT 商业化落地的商业化落地的限制限制?虽然 ChatGPT 的应用空间广泛,但短期内它仍面对几个关键技术瓶颈。1)回答的真实性)回答的真实性 ChatGPR 可能会写出看似合理但不正确的答案。这主要是因为模型进行强化训练(Reinforced Learning)时,缺乏真实信息来源。另外,为了提高模型的严谨性,模型会拒绝回复部分它能正确回答的问题。同时,监督训练会误导模型,由于模型产生的答案是基于模型的认知而不是人类标注师的认知。2)数据量级和算力门槛影响模型数据量级和算力门槛影响模型的实时性的实时性 ChatGPT 学习的数据库停留在 2021 年,由于模型的数据量级大(GPT-3 1750 亿参数,使用 800GB 数据进行训练),加入标注数据训练让实时数据的引入非常困难,重新预训练模型的成本也高(单次几百万美元以上),导致 ChatGPT 对于 2021 年后发生的事情的了解有限。3)回答内容存在偏见或有害指令)回答内容存在偏见或有害指令 ChatGPT 使用了“人类反馈强化学习”(RLHF)的训练方法。首先,预训练的模型在少量已标注的数据上进行调优,随后让预训练好的模型(SFT)针对新问题列表生成若干条回答,并让人类标注师对这些回答进行投票,以创建一个由比较数据组成的新数据集。在此数据集上训练新模型(Reward Model,RM)。RM 模型用于进一步调优和改进 SFT,并将最后两个步骤反复迭代以获得最终的模型。这个方法有明显的局限性,用于 fine-tuning 模型的数据会受到人工标注者的偏好和偏差影响,标注者通常对模型输出的排名持不同意见,RLHF 的方法假设所有人都有相同的价值观,这导致 ChatGPT 导出的内容可能存在偏见。图图 7:ChatGPT 基于人类反馈对语言模型进行强化学习基于人类反馈对语言模型进行强化学习 资料来源:OpenAI,招银国际环球市场 获取更多最新资料请加微信:ch e n s a s a 666 2023 年年 2 月月 10 日日 敬请参阅尾页之免责声明 7 ChatGPT 的底层技术发展演进的底层技术发展演进 从小模型到大模型的兴起从小模型到大模型的兴起 AI 模型最初是针对特定应用场景需求进行训练(即小模型)。小模型的通用性差,换到另一个应用场景中可能并不适用,需要重新训练,这牵涉到很多调参、调优的工作及成本。同时,由于模型训练需要大规模的标注数据,在某些应用场景的数据量少,训练出来的模型精度不理想的情况,这使得 AI研发成本高,效率低的情况。过去 5 年,随着数据,算力及算法的提升,AI 技术也有了变化,从过去的小模型到大模型的兴起。大模型(也称为基础模型 Foundation Models)是在大规模无标注数据上进行训练,学习出特征和规则。大模型泛化能力强,美国OpenAI,谷歌,微软,Facebook 的机构过去几年发布了千亿或万亿参数量的大模型,这些大模型主要是在自然语言领域(NLP),包括 ChatGPT 背后的 GPT-3,Switch Transformer,BERT 等。基于大模型进行应用开发,将大模型进行微调(在下游特定任务上的小规模有标注数据进行二次训练),或者不进行微调,可以完成多个应用场景的任务。这有效降低 AI 应用研发门槛,也能解决在应用场景数据量少,模型精度低的问题。在图 8,我们列出了过去 5 年中美主要大模型及其参数量的规模,在发布时间的差距上,我们可以看到中国的大模型是集中在 2021 年到 2022 年之间,而美国同等参数量级的模型比中国领先 1-2 年。另外,我们看到模型的规模也呈现指数级扩张。但需要注意的是,模型的参数规模不一定是越大越好,大模型的可解析性和可控性比较薄弱,复杂的模型使他们比普通的神经网络更难以理解,在检测和减轻这些 blackbox 模型的偏差会变得更加困难。图图 8:国内外企业发布的超大深度学习模型国内外企业发布的超大深度学习模型 资料来源:Github,招银国际环球市场 OpenAI:GPTDeepMind:BigGAN-deepGoogle:BERTOpenAI:GPT-2Meta:RoBERTaNvdia:Megatron-LMGoogle:T5Microsoft:T-NLGMeta:BlenderOpenAI:GPT-3BAAI:CPMGoogle:Switch TransformerBAAI:WuDao-WenHuiAlibaba:M6Huawei:PanGu-BAAI:CPM-2Baidu:ERNIE 3.0Baidu:Plato-XLCASIA:ZidongtaichuInspur:Yuan 1.0BAAI,Alibaba:BaGuaLu1101001,00010,000100,0001,000,00010,000,000100,000,0001,000,000,000Sep-17Apr-18Oct-18May-19Dec-19Jun-20Jan-21Jul-21Feb-22Aug-22#of parameters(mn)Foundation models获取更多最新资料请加微信:ch e n s a s a 666 2023 年年 2 月月 10 日日 敬请参阅尾页之免责声明 8 自然语言处理(自然语言处理(NLP)大模型)大模型 自然语言处理(NLP)主要通过学习通用语言,使得模型具备语言理解和生成能力。在 AI的感知层(识别能力),目前机器在语音识别(Speech Recognition)的水平基本达到甚至超过了人类的水平。然而,机器在处理自然语言时还是非常困难,主要是因为自然语言具有高度的抽象性,语义组合性,理解语言需要背景知识和推理能力。在 2018 年以来,以 BERT 和 GPT 为代表的语言大模型,弥补了自然语言处理标注数据的缺点,促进了 NLP 技术的发展。从技术的角度,这些大模型的训练,透过事先遮住一些文本片段,让 AI 模型通过自监督学习,通过海量语料库的预训练,逐步掌握上下文语境,把这些被遮住的片段,尽可能合乎逻辑的方式填上去。现阶段只有微软和谷歌正式发布了基于 NLP 大模型的可交互式应用,暂时没有办法评判每家公司大模型在实际产品中的表现。我们尝试比对国内及国外比较领先的 AI公司在 NLP领域的专利数,根据 WIPO 国际专利分类,我们参考了 G06F17/20 项(Handling natural language data),国内比较领先的是互联网企业,前三分别是腾讯,百度和阿里巴巴(专利数在 600 个以上),而专注于语音方面的 AI 企业科大讯飞只有 100 多个专利。国内 AI企业和国际巨头相比,在 NLP 领域的专利数量差距还是比较明显,像微软及谷歌等,他们在 NLP 的专利数已经在几千个的量级。图图 9:NLP 领域专利数量比较领域专利数量比较 资料来源:WIPO,招银国际环球市场*比较G06F17/20项 计算机视觉(计算机视觉(CV)大模型)大模型 在早期的计算机领域(CV),模型的训练需要透过提取特征工程。视觉大模型是通过学习大量的图像和视频数据,形成具备视觉通用能力。相较于上千亿参数的NLP模型相比,CV模型规模要小两三个数量及,目前 CV 大模型的发展还是存在一些挑战,包括 1)在 CV 领域可用于训练的有效数据比 NLP 领域有不少差距,2)CV 领域的学习方法还需要突破,3)不同的视觉应用仍需要依赖于不同的模型,如何建立通用的视觉模型还是未知,4)供训练的图像尺寸越来越大,较小的模型也可能有很大的计算量。01,0002,0003,0004,0005,0006,0007,000MicrosoftGoogleAmazonFacebook/MetaTencentBaiduAlibabaHuaweiiFlytekBytedanceAISpeechSensetimeMicrosoftGoogleAmazonFacebook/MetaTencentBaiduAlibabaHuaweiiFlytekBytedanceAISpeechSensetime获取更多最新资料请加微信:ch e n s a s a 666 2023 年年 2 月月 10 日日 敬请参阅尾页之免责声明 9 现阶段比较有名的 CV 大模型包括微软的 swin-transformer 系列,谷歌的 ViT 系列以及有150 亿参量的 V-MOE 模型。国内方面,截止 2021 年,商汤训练了 300 亿参数的 CV 模型,2022 年,华为也发布了 30 亿参数的盘古系列 CV模型。图图 10:CV 大模型大模型 资料来源:”On the Opportunities and Risks of Foundation Models”,招银国际环球市场 多模态模型多模态模型 多模态机器学习(MultiModal Machine Learning,MMML)是指通过机器学习的方法实现处理,理解及融合多源模态信息的能力,模态是指某种类型的信息,例如文本、图像、视频、音频等,目前比较热门的研究方向是文本-图像的模型及应用,这里面比较有名的是OpenAI 发布的 CLIP 和 DALL E。CLIP(Constrastive Language-Image Pre-training)是一个基于对比图片-文本学习的跨模态预训练模型,通过自然语言的监督学习来有效理解视觉概念,用户只需要提供要识别的视觉类别标签,CLIP 就能完成视觉分类任务。基于 CLIP 模型技术,OpenAI 在 2022 发布 DALL E 2,它是一个 AI 程序,可以通过文本描述生成图像。例如,当文本提示为“生成牛油果形状的躺椅”,DALL E 可以理解牛油果及躺椅的概念,并生成各种牛油果形状的,绿色的躺椅。在输出图像是,DALL E 采用 CLIP 进行排序,从中选取最优结果。图图 11:DALL E 演示演示 资料来源:OpenAI,招银国际环球市场 获取更多最新资料请加微信:ch e n s a s a 666 2023 年年 2 月月 10 日日 敬请参阅尾页之免责声明 10 算力层:算力层:大模型驱动大模型驱动 AI/内存内存芯片芯片需求需求全面加速全面加速 ChatGPT 运行需具备三大条件:数据上,获取训练数据,然后进行清洗和分离,获得不同用于训练和测试调优的数据集;算法上,在基础模型上大规模预训练需要大量算力,获取基于模型调优后不断解锁和进化;算力是核心基础和关键所在,数据获取和模型调优等需大量算力支持;而大算力需更多高端、通用或专用算力芯片和 AI 芯片去支撑算法运行。随着 AIGC 典型应用 ChatGPT 发展推动企业和个人服务多模型和技术向 AI 方向构建,同时还将驱动底层领域包括半导体、HPC和云计算等的协同发展,预计未来对 AI和内存芯片需求将快速提升。我们建议关注 AI 芯片芯片相关标的:1)GPU:海外包括英特尔、英伟达和英特尔、英伟达和AMD;国内包括景嘉微、景嘉微、寒武纪、寒武纪、海光信息、海光信息、龙芯中科和龙芯中科和航锦科技航锦科技;2)FPGA:海外包括英特尔、英特尔、AMD;国内包括紫光国微、复旦微电和安路科技紫光国微、复旦微电和安路科技;3)ASIC:海外包括英伟达、英伟达、谷歌和英特尔谷歌和英特尔;国内包括百度和寒武纪百度和寒武纪。内存芯片内存芯片:建议关注海外标的包括三星、美光和三星、美光和SK 海力士海力士;国内关注兆易创新兆易创新。AI 芯片芯片 AI芯片能为人工智能应用提供所需的基础算力;按技术架构主要分为GPU、FPGA和ASIC。ChatGPT 有着大量复杂计算需求的 AI 模型,AI 芯片专门用于处理人工智能应用中的大量计算任务,是不可或缺的底层硬件。随着 AI 技术快速发展,AI 应用场景扩大至智能制造、家居、教育、医疗和金融等领域;而智能产品种类不断丰富,包括 ChatGPT 等 AIGC 产品持续升级对芯片算力提出更高要求,AI 芯片算力和需求旺盛增长。据 Frost&Sullivan 预计,2022-2026 年全球 AI 芯片市场规模将以 26.3%复合增速增长。从基础预生成 AI 到机器学习,最终达到深度学习,主要依赖于审阅庞大的数据集合、处理数据、生成算法模型、训练算法模型的能力,而 AI 芯片就是从处理数据到终端赋能的算力基础。AI 芯片主要分为三种,分别是 GPU,FPGA 与 ASIC 芯片。不同种类别的 AI 计算芯片有各自突出的优势和适用的领域,贯穿 AI 训练与推理阶段。目前 CPU 在人工智能领域中的应用有限,主要受限于 CPU 在 AI 训练方面的计算能力不足。图图 12:不同类型的人工智能计算芯片不同类型的人工智能计算芯片 CPU GPU FPGA ASIC 定义定义 中央处理器 图像处理器 现场可编程逻辑门阵列 专用处理器 算力与能效算力与能效 算力最低、能效比差 算力高、能效比中等 算力中,能效比优秀 算力高,能效比优秀 上市速度上市速度 快,产品成熟 快,产品成熟 快 慢、开发周期长 成本成本 用于数据处理时,单价成本最高 用于数据处理时,单价成本高 较低的试错成本 成本高,可复制,量产规模生产后成本可有效降低 性能性能 最通用 数据处理通用性强 数据处理能力较强、专用 AI 算力最强,最专用 适用场景适用场景 广泛应用于各种领域 广泛应用于各种图形处理,数值模拟,机器学习算法领域 适用成本要求较低的场景,如军事、实验室、科研等 主要满足场景单一的消费电子等高算力需求领域 芯片芯片 公司公司 英伟达英伟达 Telsa,Titan,Xavier 英特尔英特尔 Xeon Gaudi,Greco Arria,Stratix NNP,NCS2 谷歌谷歌 Cloud TPU,Edge TPU AMD Ryzen Addebaran Versal,Alveo 莱迪思莱迪思 Lower Power 资料来源:公司,招银国际环球市场 获取更多最新资料请加微信:ch e n s a s a 666 2023 年年 2 月月 10 日日 敬请参阅尾页之免责声明 11 图图 13:人工智能学习与涉及芯片类型人工智能学习与涉及芯片类型 资料来源:OpenAI,招银国际环球市场 1)GPU(图形处理器)(图形处理器)GPU 作为显示芯片是可在个人电脑、工作站、游戏机和智能手机/平板电脑上做图像和图像相关运算工作的微处理器。随着互联网用户和网络应用兴起,数据体量逐渐庞大,数据中心对计算需求快速增加,GPU 凭借其相对通用灵活和适应并行计算等特性成为主要选择,GPU 也从最初专用于图像处理制作后逐渐应用于计算,是核心计算资源基础。目前来看,GPU仍然是 AI应用的主导芯片,主要因为它具有强大的计算能力和高通用适用性,广泛应用于各种图形处理、数值模拟及人工智能算法领域。较低的开发成本也时期能够快速在各个垂直下游领域被广泛应用,加速优化拓展。ChatGPT 作为有着大量复杂计算需求的 AI 模型,GPU 芯片成为能帮助其完成计算任务的关键硬件之一;随着深度学习技术发展,GPU 成为 AI 算法训练中重要硬件组成部分。同时,随着云计算技术发展,云端对 GPU 算力要求在不断提升。据机构 JPR 预测显示,2022-2026 年全球 GPU 出货量将以 6.3%复合增速增长;预计 2027 年行业市场规模将超320 亿美元。图图 14:全球全球 GPU 芯片行业市场规模预测芯片行业市场规模预测 资料来源:JPR,前瞻产业研究院,招银国际环球市场预测 图图 15:中国中国 GPU 芯片行业市场规模预测芯片行业市场规模预测 资料来源:Huaon,招银国际环球市场预测 全球 GPU 芯片行业竞争格局中英特尔占主导地位,但在独立 GPU 领域,英伟达高端英伟达高端 GPU占据较大份额(超过占据较大份额(超过 70%)。英伟达 GPU 因其高性能和对 CUDA 的支持而广泛应用于 AI和机器学习领域(CUDA 是 NVIDIA 的并行计算平台和编程模型)。因此,OpenAI 主要使用 NVIDIA GPU(图形处理单元)来训练和运行其 AI 模型,如 GPT-3 和 ChatGPT。据公开数据显示,ChatGPT 已导入至少 1 万个英伟达高端 GPU。获取更多最新资料请加微信:ch e n s a s a 666 2023 年年 2 月月 10 日日 敬请参阅尾页之免责声明 12 图图 16:1Q14-3Q22 全球电脑显卡市场份额变化全球电脑显卡市场份额变化 资料来源:JPR,招银国际环球市场预测 图图 17:全球独立全球独立 GPU 市场份额及出货量市场份额及出货量 资料来源:JPR,招银国际环球市场预测 国内国内 GPU 主要上市公司中,主要上市公司中,景嘉微通过自主研发 GPU 并规模化商用,是国内显示控制市场龙头企业。此外,海光信息、寒武纪等公司均有布局 GPU 产品。受美国对中国 GPU 芯片出口管制影响,预计国产 GPU芯片替代将快速推进。2)FPGA(现场可编程门阵列)(现场可编程门阵列)FPGA 是支持 AI 算力芯片的更优解,优点主要在于低延迟、优秀的能效比、较短的开发周期以及高度可编程能力,可以供给不同垂直行业使用。FPGA 是一种硬件可重构的集成电路芯片,通过在硅片上预先设计实现具有可编程特性,可通过软件重新配置芯片内部的资源来实现不同功能,广泛应用于数据中心、航空航天工程、人工智能、工业、物联网以及汽车等领域。FPGA 拥有软件的可编程性和灵活性、兼具硬件的并行性和低延时性,相较于 ASIC、GPU 等处理器更为灵活,具备上市周期和成本优势。在 5G 通信、人工智能等迭代升级周期频繁、技术不确定性较大的领域,FPGA 是较为理想的解决方案。随着全球新一代通信设备部署以及人工智能与自动驾驶技术等新兴市场领域需求的不断增长,前瞻产业研究院预计全球 FPGA 市场规模将从 2021 年的 82.9 亿美元增长至 2025 年的125.2亿美元,年均复合增长率约为10.8%,中国FPGA市场规模快速增长,预计2021-2025 年规模复合增速 17.1%。图图 18:全球全球 FPGA芯片市场规模预测芯片市场规模预测 资料来源:前瞻产业研究院,招银国际环球市场预测 图图 19:中中国国 FPGA芯片市场规模预测芯片市场规模预测 资料来源:Huaon,招银国际环球市场预测 获取更多最新资料请加微信:ch e n s a s a 666 2023 年年 2 月月 10 日日 敬请参阅尾页之免责声明 13 全球全球 FPGA 市场主要被赛灵思和市场主要被赛灵思和 Altera 占据占据,目前市占率分别为 52%和 35%;其次为Lattice和 Microsemi,份额均为 5%。中国 FPGA厂商中紫光国微、复旦微电和安路科技在2021年市占率超过15%。受益于国产化加速推进,中国FPGA厂商将拥有巨大成长空间。图图 20:2021 年全球年全球 FPGA 市场竞争格局市场竞争格局 资料来源:ASKCI,招银国际环球市场预测 图图 21:2021 中国中国 FPGA 市场竞争格局市场竞争格局 资料来源:安路科技公司公告,招银国际环球市场预测 3)ASIC(专用集成电路)(专用集成电路)ASIC 是为特定用途而定制的集成电路,具有高性能、低能耗的特点,专用化程度最高,其特点同时适合 AI 训练和推理阶段的使用。ASIC 芯片包括 DPU 和 NPU 类别,其中,DPU主要承担网络、存储和安全的加速处理任务,旨在满足网络侧专用计算需求,适用于服务器量多、对数据传输速率要求严苛的场景。ASIC 应用领域广泛,包括医疗、工业、军事、航空等。其中虚拟币是主要应用领域之一,因相对 GPU、FPGA,ASIC 能效更高。目前ASIC渗透率依然较低,主要由于其较高的研发成本与研发壁垒,因此市场份额显著小于 GPU。随着人工智能行业愈加成熟,蓬勃发展的下游应用对于上游研发成本的优化力不断增高,ASIC 芯片依赖于它的卓越性能及低功耗,将成为人工智能技术的首选。根据贝哲斯咨询预测,到 2027 年,全球 ASIC 市场规模预计将达 1677.49 亿元,2021

此文档下载收益归作者所有

下载文档
收起
展开