第328章 熬

A+A-

    32研究方法



    本文以有关电力行业的近十年的英文文献为研究对象,并根据每篇文章的元数据构建数据



    库。进行文档分割,将文件分割为更的部分或章节,分区后使其更容易分类和提取文本,将文档



    元素列表存储并跟踪从文档中提取的各种元数据,将文本元素分割为适合模型注意力窗口的大,



    构建向量数据库,方便大模型调用。利用rag(检索增强生成)模型,帮助大语言模型知晓具有电



    力领域专业性和时效性的知识,包括最新的新闻、公式、数据等内容,增强大模型回答关于电



    力行业领域专业性问题与时效性问题的能力,主要用到的研究方法如下。



    ()文献资料法。通过阅读大量国内外研究检索增强生成的文章,确定将rag技术作为提升



    大语言模型回答电力行业领域问题专业性与时效性问题的解决方法。文献调研显示,聚焦于此



    领域的大模型是一个研究空白,将电力行业的大模型应用于企业层面的分析,能够响应了重大



    战略。该方法能够提升科研眼界、开阔研究思路、丰富研究角度。



    (2)实验法。本文使用爬虫程序抓取各顶级期刊官上近十年的文章,并通过元数据处理方



    法,构建文章元数据的数据库。



    (3)实证分析法。本文通过大量实际数据,来验证大模型调用电力行业领域向量数据库



    回答该领域专业性问题和时效性问题的有效性。



    33系统设计



    系统设计三个模块,整体设计如图4所示,分别是数据处理模块、专业领域知识库构建模块



    以及tbt构建模块。数据处理模块主要包括对电力这个特定领域的英文文献进行选择和初



    步处理,而后将有关数据全部转化成结构化数据。知识库构建模块主要是将数据向量化并构建向量



    知识库。tbt构建分为功能部分和前端部分,功能包括penai基座的调用、知识库检索、在



    线检索;前端部分为web可视化以及ui设计。



    4本章结



    第一章作为本论文的引言部分,主要围绕研究背景、研究目的与意义、研究内容与方法以及系



    统设计进行了全面的阐述。首先,本章通过详细阐述当前大模型技术在内容解析领域的背景,指出



    了电力行业生命周期评价的重要性,并强调了研究流程和研究方法。在这一基础上,本章进一步明



    确了项目系统功能设计。综上所述,本章作为论文的引言部分,为整个研究提供了清晰的研究背



    景、目的、意义、内容及方法概述,为后续章节的展开奠定了坚实的基础。



    2大语言模型



    tgpt是由penai发布的一种大语言模型,能够以问答的形式完成各类任务,包括接受文



    字输入,理解自然语言,理解响应并模拟人类对话形式进行输出。再各个自然语言处理子任务具有



    优异的表现。相比其他大语言模型拥有更丰富的知识,涵盖自然、社会科学、人文历史等多个领



    域。tgpt在gpt35的基础上引入了rlf(rertlerngfrnfeedbk)



    技术,通过将人类的日常对话的语言习惯嵌入模型,并引入价值偏好,使得模型的输出满足人类的



    



    意图。微调过程分为预训练、监督微调、设计奖励模型和反馈优化。桑基韬等人根据tgpt的对



    话对象和定位将其应用分为四个层次:数据生成器、知识挖掘器、模型调度器和人交互界面。在



    多模态领域,vltgpt、-reat和ggggpt让视觉模型与tgpt协同工作来完成视



    觉和语音任务。



    除此以外,许多类tgpt的大模型也同样在自然语言处理方面展示出来了较好的效果。



    l是应该从blln到65blln参数的语言模型,不需要求助于专有的数据集。清华大学



    提出了一种基于自回归填充的通用语言模型gl在整体基于trnfrr的基础上作出改动,在一



    些任务的表现上优于gpt3-5b。



    大语言模型,例如gpt系列、ll系列、ge系列等,在自然语言处理方面取得了显着的



    成功,展示了超强的性能,但仍面临诸如幻觉、过时的知识、不可追溯的推理过程等挑战。2020



    年,由lew等人引入的检索增强生成方法,通过整合来自外部数据库的知识,然后再继续回答问



    题或生成文本。这个过程不仅为后续阶段提供信息,而且确保响应是基于检测到的证据的,从而显



    着提高输出的准确性和相关性。在推理阶段从外部知识库动态检索信息使rag能够解决诸如生成幻



    觉等问题。rag与ll的集成得到了迅速的应用,提高了自然语言处理任务的性能,并且使得模型



    能够更好地利用外部知识和背景信息。



    自2020年起,全球大语言模型在自然语言处理、计算视觉、语音识别、推荐系统等领域表



    现出卓越技术优势,市场规模持续增长,预计到202年将达到095亿美元。国外大模型产品研发



    在202年进入高速发展期,谷歌、penai、英伟达、微软等公司都推出了自主研发的大模型,截



    至2023年月底,国外已发布了3个大模型。我国大模型发展迅速,与国际前沿保持同步,百



    度、腾讯、清华大学、北京航空航天大学等单位都推出了自己的大模型,截至2023年七月底,我



    国已发布30个大模型。



    22知识抽取



    知识抽取主要分为命名实体识别和关系抽取两方面。命名实体识别(ner)任务,旨在识别与



    特定语义实体类型相关联的文本跨度。该任务最早于99年由r等人提出。随着信息理解、人



    工智能等领域的顶级会议对ner任务的评测,其定义逐渐细化和完善,并逐渐成为自然语言处理



    (nlp)领域的重要组成部分。然而,不同领域对实体类型的定义存在差异,因此ner模型的构建



    取决于特定领域任务需求,通常涵盖人物信息、地点信息和组织构信息等。对于英语、法语、西



    班牙语等外语文本,通常采用单词作为基本单位,因此基于这些语言的ner模型主要关注单词本身



    的语义特征和上下文信息。然而,中文语料文本通常由字符构成,需要考虑字符的语义信息和词汇。



    特征,同时引入其他表征信息来提升模型性能,如中文分词(ws)、语义部分标签(ps)等外部



    信息,因此构建中文命名实体识别(er)模型更为复杂。目前,ner任务的研究方法主要包括基



    于词典和规则的方法、基于器学习(l)的方法以及基于深度学习(dl)的方法。



    今天为什么讲座要那么长时间。最近转码严重,让我们更有动力,更新更快,麻烦你动动退出阅读模式。谢谢