华西计算机团队2023年3月8日ChatGPT:加速计算服务器时代到来请仔细阅读在本报告尾部的重要法律声明仅供机构投资者使用证券研究报告|行业深度研究报告分析师:刘泽晶SACNO:S1120520020002邮箱:liuzj1@hx168.com.cnAIGC行业深度报告(5)核心逻辑:大模型出现有望带动AI服务器需求爆发我们认为ChatGPT具备跨时代的意义的本质是AI算法大模型,因此科技巨头已经开始算力“军备赛”,大模型的出现有望带动AI服务器需求爆发。服务器架构随负载量扩张不断优化,已经经历传统单一部署与集群模式,目前正处于分布式模式的转变阶段。CPU、内部存储和外部存储是服务器的核心部件。加速计算是服务器成长的核心驱动力按照CPU指令集架构的差异,服务器可分为CISC(复杂指令集)、RISC(精简指令集)、VLIM等架构,代表架构为X86。人工智能应用场景下的加速计算服务器是中国服务器的核心驱动力,AI服务器相较于通用服务器区别在于硬件架构、加速卡数量与设计方面;我们认为AI服务器众芯片组为服务器的核心,且价值成本占比较高。算力时代到来,服务器价值再次凸显我们认为服务器是“伴科技类”的硬件产品,随着科技的服务形式和应用方式不断进步,服务器同样在不断迭代升级或更新换代,近年来随着互联网+、云计算、AI+、边缘计算的出现,服务器市场迎来了极大的发展;根据IDC的数据显示,国家计算力指数与GDP/数字经济的走势呈现出了显著的正相关,而AI服务器作为算力载体为数字经济时代提供广阔动力源泉,更加凸显其重要性。投资建议:关注两条投资主线:1)AI服务器生产商,重点推荐中科曙光,其他受益标的为浪潮信息、拓维信息、神州数码;2)具备算力芯片的厂商,受益标的为寒武纪、海光信息、龙芯中科、景嘉微。风险提示:核心技术水平升级不及预期的风险、AI伦理风险、政策推进不及预期的风险、中美贸易摩擦升级的风险。2目录301AI服务器需求呈现加速状态02拥抱AI服务器的星辰大海03投资建议:梳理AIGC相关受益厂商04风险提示01AI服务器需求呈现加速状态41.1ChatGPT的竞争本质即大模型储备竞赛大模型是人工智能发展的必然趋势:大模型即“大算力+强算法”结合的产物。大模型通常是在大规模无标注数据上进行训练,学习出一种特征和规则。基于大模型进行应用开发时,将大模型进行微调,如在下游特定任务上的小规模有标注数据进行二次训练,或者不进行微调,就可以完成多个应用场景的任务。大模型是辅助式人工智能向通用性人工智能转变的坚实底座:大模型增强...