61基于语义理解的精简智能搜索优化模型浅析及实践□文/罗钦雨1,王宇1*,王慧1,汪思哲2(1.河海大学,南京210098;2南京信息工程大学,南京210044)摘要:本文针对个人或小型机构难以构建自己的搜索系统,使用互联网或特定大企业的平台导致的结果不全面、精度低等现状。基于语义理解和大模型在这方面的训练和应用。通过微量参数微调、主要开源模型生成式本地优化、引导性设计,构建了可边缘处理基准数据集的最精简部署,仅需不到20G的显存开销。通过理解信息源关系、引用位置准确性和回答特定任务的测试,测试结果表明此模型能在极短时间内给出高效、精确的回答。关键词:智能搜索;大模型;生成式AI;边缘部署;特定任务中图分类号:TP391文献标志码:A文章编号:2096-5036(2023)04-0061-10DOI:10.16453/j.2096-5036.2023.04.007基于语义理解的精简智能搜索优化模型浅析及实践0引言传统的搜索引擎主要通过关键词匹配的方式获取结果,返回与用户输入关键词有关的内容,这种结果的准确性受到关键词的限制,无法满足用户的实际需求的同时,也无法处理语义相似的查询,而产生漏洞或误导用户。通常使用基于语义理解的智能搜索模型。它通过深度学习和自然语言处理以更好地理解用户的查询意图和实际需求。这就是大模型在问答理解和生成上高效且实用的原因。近年来,拥有强大语义理解能力和准确预测能力的大模型相继被推出,它们参数量巨大,并获得通过预先处理的大量文本语料库数据,以及无监督的方式,学习了广泛的人类语言知识和语义信息。采用符合人类学习和问答习惯的技术路线,以构建的智能搜索和问答系统成为当前热点。如何在准确性、无害性和高效性等方面提升,具有极其重要的研究意义和实用价值。本研究通过对GPT-3、BERT等模型的内核进行解析,结合LangChain框架做部署,再使用语义理解的文本相似度检索方式构建测试集,揭示了在生成的结果中给相关段落带上准确的引用标记,提高搜索的效率的原理,并为企业或者个人研究者提供离线的高效、智能的内外部搜索系统部署做了规划和尝试。62专题:AIGCAI-VIEW2023年第4期从AlexNet在ImageNet图像分类挑战赛利用了深度神经网络中的卷积层、池化层和大量的参数进行训练[1]开始,Word2Vec利用大量的语料库训练出了高质量的词向量作为大模型的重要基础之一[2,3]。随后,Transformer模型利用自注意力机制和位置编码的思想,既解决了RNN速度缓慢的问题,又同步获得了文本的上下文信息,还能理解长文本并快...