2023年2月16日半导体行业专题ChatGPT对GPU算力的需求测算与相关分析中信证券研究部雷俊成/王子源/徐涛/杨泽原获取更多最新资料请加微信:chensasa6661核心观点:单个大模型可带来2万GPU销售量,搜索引擎带来成倍空间核心观点:1.短期内GPU增量与市场规模:参考OpenAI算法,假设每日1亿用户,每人进行10条交互,每个问题的回答长度为50词,算力利用率30%,则单个大语言模型(LLM)的日常需求有望带来2.13万片A100的增量,对应市场规模2.13亿美元。假设有5家大企业推出此类LLM,则总增量为10.7片A100,对应市场规模10.7亿美元。2.短期服务器增量与市场规模:单个服务器包含8个GPU,因此单个LLM带来2669台服务器需求,对应市场规模3.39亿美元,5家大企业共需要13345台,对应市场规模20亿美元。3.长期市场空间:参考谷歌,若每日搜访问30亿次,需要106.74万张A100,对应13.3万台服务器DGXA100,带来市场空间200亿美元。资料来源:Raconteur,OpenAI:LanguageModelsareFew-ShotLearners,NVIDIA官网,Amazon,中信证券研究部市场规模相关参数/假设A100单卡算力:19.5TFLOPS/s日常算力利用率:30%(依据经验)GPU单价:1万美元(A100)服务器单价:15万美元(DGXStationA100)做LLM模型的企业数量:5(BAT、华为、字节)每台服务器搭载GPU数量:81亿用户所需GPU数量:21348(A100)近期单日交互+训练总算力1.08E+10TFLOPSA100单卡算力19.5T/s算力利用率30%关键中间变量:GPU与服务器增量一个LLM模型所需GPU数量:21348(A100)1亿用户所需服务器数量:2669(DGXA100)每台服务器搭载GPU数量:85家企业对应10.7万片A100、1.33万台服务器短期国内GPU/服务器增量市场规模一个LLM模型所需GPU数量:21348(A100)GPU单价:1万美元(A100)1亿用户带来国内GPU总市场规模:2.13亿美元一个LLM所需服务器数量:2669服务器单价:15万美元(A100)1亿用户带来国内服务器市场规模:3.39亿美元远期GPU增量空间谷歌+LLM所需GPU数量:1067415(A100)远期总算力需求:5.4E+11TFLOPSA100单卡算力:19.5TFLOPS/s算力利用率:30%5家企业对应10.7亿美元GPU、20亿美元服务器谷歌+LLM所需服务器数量:133427(GPU/8)注:远期由于更高算力的GPU出现或更高效的计算方式,对应市场空间可能变化。获取更多最新资料请加微信:chensasa6662核心观点技术差距:GPGPU的核心壁垒是高精度浮点计算及CUDA生态。从高精度浮点计算能力来看,国内GPU产品与国外产品的计算性能仍或有一代以...