敬请参阅末页重要声明及评级说明证券研究报告ChatGPT引发的大模型时代变革[Table_IndNameRptType]计算机行业研究/深度报告[Table_IndRank]行业评级:增持报告日期:2023-02-25[Table_Chart]行业指数与沪深300走势比较[Table_Author]分析师:尹沿技执业证书号:S0010520020001电话:021-60958389邮箱:yinyj@hazq.com分析师:王奇珏执业证书号:S0010522060002邮箱:wangqj@hazq.com分析师:胡杨执业证书号:S0010521090001邮箱:huy@hazq.com分析师:张天执业证书号:S0010520110002邮箱:zhangtian@hazq.com分析师:金荣执业证书号:S0010521080002邮箱:jjinrong@hazq.com[Table_Report]相关报告1.华安证券_公司研究_计算机行业_行业深度_华安证券2023年计算机推演:数字经济+_2022-12-122.华安证券_公司研究_计算机行业_行业深度_华安证券数字经济系列报告(一):科技赋能、新基建,数字经济大有可为_2022-03-09主要观点:[Table_Summary]⚫ChatGPT带来大模型时代变革,数据要素重要性提升ChatGPT是由OpenAI研发的一种语言AI模型,其特点在于使用海量语料库来生成与人类相似的反应。初代GPT模型参数1.17亿,GPT2模型、GPT3模型参数分别达到15亿、1750亿。不断提升的参数量级,使得ChatGPT3当前已经能够应用在商业、研究和开发活动中。当前此类参数体量庞大的模型,成为各大科技厂商研发重点。大模型的基础为高质量大数据。ChatGPT的前身GPT-3就使用了3,000亿单词、超过40T的数据。此类大数据基础的前提为三部分1)有效场景下的采集数据;2)大数据的存储、清洗和标注;3)数据质量检验。⚫大模型发展之下,算力与网络设施建设成为刚需算力:ChatGPT类人工智能需要更充足的算力支持其处理数据,带来更多高性能的算力芯片需求。英伟达表示,GPT-3需要512颗V100显卡训练7个月,或者1024颗A100芯片训练一个月。2012年以来,AI训练任务中的算力增长(所需算力每3.5月翻一倍)已经超越摩尔定律(晶体管数量每18月翻一倍)。网络设施:以微软Azure为例,其AI基础设施由互联的英伟达AmpereA100TensorCoreGPU组成,并由QuantuminfiniBand交换机提供横向扩展能力。服务器节点多、跨服务器通信需求巨大,网络带宽性能成为GPU集群系统的瓶颈,解决方式包括增加单节点通信带宽与降低网络收敛比,带来光模块、交换机等需求。⚫下游应用场景丰富,多行业落地可期1)“生成式AI(generativeAI)”在互联网及元宇宙领域市场化空间较为广阔。基于现行的NLP算法发展...