LLM+Embedding构建问答系统的局限性及优化方案

LangChain + LLM 方案的局限性:LLM意图识别准确性较低,交互链路长导致时间开销大;Embedding 不适合多词条聚合匹配等。

背景

在探索如何利用大型语言模型(LLM)构建知识问答系统的过程中,我们确定了两个核心步骤:

  1. 将用户提出的问题和知识库中的信息转换成嵌入向量(Embeddings),然后利用向量相似度技术来检索最相关的知识条目。
  2. 利用LLM来识别用户问题的意图,并对检索到的原始答案进行加工和整合,以提供更加精准和有用的回答。

然而,这种方法在实际应用中遇到了一些挑战:

  1. 上层应用与模型基础的紧耦合导致灵活性受限。每当需要更换或升级语言模型时,上层的应用逻辑也必须进行大量的调整。在LLM技术迅速发展的今天,由于成本、许可、技术热点和性能等多方面的考量,模型的变更几乎是不可避免的。
  2. 处理环节的不完善和高开发成本也是一个问题。例如,嵌入向量的存储和搜索、LLM的提示词生成、以及数据链路的处理(包括导入、分片和加工)等,如果这些环节都需要从头开发,将耗费大量的时间和资源。
  3. 缺乏标准化工具和组件也是一大挑战。为了能够根据不同场景灵活地组装和调整系统,我们需要的是一个像“乐高”一样的标准化组件库。

局限性分析

问题简介

多知识点聚合处理场景下,Embedding-Search 召回精度较低的问题。典型应用范式是:

  • 一个仓库有 N 条记录,每个记录有 M 个属性;
  • 用户希望对 x 条记录的y 个属性进行查询、对比、统计等处理。

这种场景在游戏攻略问答中很常见,以体育游戏 NBA2K Online2 为例:

# 多知识点——简单查询
Q: 皮蓬、英格利什和布兰德的身高、体重各是多少?

# 多知识点——筛选过滤
Q: 皮蓬、英格利什和布兰德谁的第一位置是 PF?

# 多知识点——求最值
Q: 皮蓬、英格利什和布兰德谁的金徽章数最多?

Embedding 缺陷

原始的 Embedding Search在面对多知识点聚合处理时,存在几个问题:

  • 本地知识建立索引时,通常对单个知识点进行 Embedding;通畅不会为不同知识点的排列组合分别制作索引,所有组合都建立索引的开销是巨大的。
  • 原始问题直接 Embedding ,和单条知识点的向量相似度比较低。为了避免召回结果有遗漏,就需要降低相似度评分下限(vector similarity score threshold),同时提高召回结果数量上限(top k)。这会产生不好的副效应:
    • 召回结果,有效信息密度大幅降低;score threshold 过高或 top k 过低,会导致某些有效知识点无法命中;反之则很多无效知识点或噪声会被引入。且由于总 token 数量的限制,导致本地知识点被截断,遗漏相似度较低但有效的知识点。
    • 召回结果的膨胀,增加了和 LLM 交互的 token 开销和 LLM 处理的时间复杂度。
    • 给 LLM 的分析处理带来额外噪声,影响最终答案的正确性。

方案分析

想要更加精准的回答问题,需要从两个层面入手:

1. 问题理解—准确识别用户意图

为了准确理解用户的意图,问答系统需要能够:

  1. 解析用户问题:系统需要通过分析用户的提问来识别他们的意图。
  2. 制定计划:根据识别的意图,系统需要拆分问题为多个步骤,并为每个步骤选择合适的工具或方法。
  3. 多轮交互:使用Agents和Chains等工具,系统可以通过多轮对话来逐步明确用户的需求。

在LangChain框架中,Agents 可以帮助系统规划并执行这些步骤。例如,Plan-and-Execute Agents可以用来制定动作计划,而Action Agents则负责执行这些动作。

  • HyDE。Precise Zero-Shot Dense Retrieval without Relevance Labels 是面向 Zero-Shot场景下的稠密检索。它使用基础模型在训练过程中已经掌握的相关语料,面向用户问题,生成虚构的文档。这些文档的作用,不是输出最终结果,而是通过LLM(大型语言模型)对问题的理解能力,生成与之相关的内容。这相当于自动化生成相关性标签,避免外部输入。生成虚构文档后,再使用无监督检索器进行Embedding;然后将生成的向量在本地知识库中进行相似性检索,寻找最终结果。

HyDE 要求与用户问题相关的知识,已经存在于 LLM 基础模型中。但专业领域知识,可能本来就是未联网、未公开的;LLM 生成的虚构文档,可能包含很多噪音,所以效果不一定很明显;另外生成文档的额外交互,进一步增加了时间开销。目前,LangChain 提供了 HyDE Chain,LlamaIndex 也提供了类似的能力;面对中文可能需要自定义 Prompt Template。

  • 意图识别。通过 命名实体识别 和 槽位填充 实现。概括来说就是:
    • 在为用户提供服务的预设场景下,细分用户各种意图的类别,定制对应的语义槽,每个槽位可以视为在语义层面体现意图的基本单位。
    • 通过深度学习、统计学习,甚至 LLM ,理解用户问题提取语义槽中需要的内容。在基于大语言模型构建知识问答系统一文中给过例子:通过 System Role 告知LLM 需要提取槽位信息,让 LLM通过多轮对话引导用户给出所有槽位信息。还是以游戏攻略为例,玩家咨询球员的打法,那么必须提供:球员姓名,年代(比如2020/2022 年),比赛模式。对应的语义槽可以定义为:
    "球员打法" : {
        "球员名称" : ____,
        "年代" : ____,
        "比赛模式": ____,
    }

2. 搜索召回—提升精度

在问答系统中,将用户的诉求转化为语义槽可以显著提升搜索的精度,因为这样可以更准确地捕捉用户的问答意图。在建立知识点的索引时,除了使用原始的Embedding方法,还可以采取以下优化措施:

  • 增加关键词、主题词检索。
    • 主题词是由权威机构定义和发布的规范词汇,通常包括专有名词或名词短语。主题词检索能够返回包括检索词的近义词、同义词以及同一概念词的不同书写形式等结果,这样可以大大减少漏检和误检的情况。
    • 关键词可以是作者自定义的,也可以通过自动分析提取,它们通常能够高度概括文章的主题。使用关键词搜索可以找到与特定主题方向更为明确相关的文章。
  • 对相同知识点建立多级索引。
    • 同一知识点可能涉及多个维度,因此建立多级索引可以让其在不同维度的查询中都能发挥作用。例如,对于球员信息,可以建立包括姓名、球队、年龄、进攻、防守、荣誉等多项属性的索引。这样,在查询时可以高效地检索到指定的属性数据,而不必每次都提取所有内容。
  • 把原始知识库转化为知识图谱。
    • 知识图谱由实体、属性和关系组成的三元组构成。实体代表现实世界中的事物或对象,属性描述这些事物或对象的特征,关系则表示实体之间的相互联系。知识图谱可以帮助人们更好地理解和组织知识,并支持推理和问题解决。在问答系统中,可以通过提示词引导LLM从用户的问题中提取知识三元组,然后在知识图谱数据库中进行查询。

3. 解决思路

意图识别和召回优化是提升问答系统精度的两个关键方面。知识图谱虽然相对于Embedding方式在搜索层面具有更高的加工成本,但在遵循奥卡姆剃刀原则(即“如无必要,勿增实体”)的前提下,我们可以探索一些性价比更高的解决方案。

意图识别和召回均可用 关键词/主题词 表示。那么问题可以转变为:

  • 关键词/主题词提取:
    • 面向知识点,提取的结果作为索引入口。
    • 面向问题,提取的结果作为语义槽内容。
  • 复用 Embedding 框架。从原始问题和知识点直接 Embedding 后的匹配,转化为对两者提取的关键词进行 Embedding 后再进行匹配。

基于关键词Embedding的入库和搜索的流程图如下所示:

这种方式怎么解决原始 Embedding 存在的几个局限呢?

  • 多知识点聚合处理局限。在关键词提取过程中,可以将并列的关键词短语拆分,平铺后分别检索。这样就可以降低Embedding的噪音,提高命中精度。最后将生成不同关键词短语召回的结果组合即可。例如,对于语句“姚明和奥尼尔的内线与三分能力”,提取的关键词可以按照从属关系叉乘,得到“姚明内线”、“姚明三分”、“奥尼尔内线”和“奥尼尔三分”
  • 减少LLM过度依赖导致的性能开销。通过关键词短语召回已经可以大大提升命中精度,因此不必设置较低的score threshold或者较大的top k,这本身就过滤了很多无关词条。另外,如果关键词提取可以不依赖于LLM,而是使用传统的NLP技术,那么可以避免与LLM的多轮交互,从而节省响应时间。这对于大量的知识点文档来说尤为重要。

基于这样的思路,下文将主要描述关键词提取的实现方法和效果,以及如何通过这种方式提升问答系统的整体性能。

关键词提取

关键词提取是信息抽取(IE)的一个重要组成部分,特别是在知识问答场景中。IE通常涉及三类任务:

  • 实体关系三元组抽取(RE, Relation Extraction )。三元组(triples)即 (主体, 关系, 客体) ,用英文表示为 (Subject, Relation, Object) 。关系抽取,即实体三元组抽取。涉及两件事:
    • 识别文本中的主体、客体,即实体识别任务。
    • 判断这两个实体属于哪种关系,即关系分类。
  • 命名实体识别(NER, Name-Entity Recognition)。又称作专名识别、命名实体,是指识别文本中具有特定意义的实体,主要包括人名、地名、机构名、专有名词等,以及时间、数量、货币、比例数值等文字。指的是可以用专有名词(名称)标识的事物,命名实体一般代表具体事物个体,包括人名、地名等。
  • 事件抽取(EE, Event Extraction)。指的是若干与特定矛盾相关的事物,在某一时空内的运动,从自然语言角度通过“主谓宾”等语义单元体现。事件抽取就是从半结构化、非结构化数据中,识别一个与目标相关的事件的重要元素识别出来。

为了简化这些任务,我们可以将它们归纳为两个主要过程:名词短语提取和谓语分析。

  1. 名词短语提取:这包括识别文本中的主语和宾语,通常由名词及其限定词或修饰词组成。例如,在问句“姚主席如何评价周琦的组织进攻能力?”中,“姚主席”是主语,“周琦的组织进攻能力”是宾语。
  2. 谓语分析:谓语体现了名词短语之间的事件或关系。在许多场景中,谓语可以是“比较”、“查询”、“过滤”、“统计”等,这些可能需要动态计算或处理。即使忽略谓语,仅通过名词短语的组合也可以获得完备的知识。谓语所代表的事件可以交给LLM处理。

在关键词提取方面,我们可以专注于名词短语,将它们作为知识点的索引用于召回。事件则体现了不同知识点的关系,重点在于事件关联者。获取事件关联者对应的语料后,可以通过LLM理解事件进行处理。知识点通常不是按照事件组织的,而是按实体组织的,因此索引建立和关键词抽取应该以名词短语为主要目标。

在处理主语和宾语之间的并列和限定关系时,我们可以将限定关系按级联方式处理,同一名词短语内如果存在并列关系则与其他部分叉乘。例如,在处理“姚主席如何评价周琦的组织进攻能力?”这个问题时,我们可以通过分词、词性标注、NER识别和名词间关系分析,得到应该搜索的关键词列表:[姚主席, 周琦, 组织进攻能力]。

如图所示,使用 NLU 的基本处理流程,分析原始问句:

1. 分词

2. 词性标注(Part-Of-Speech Tagging, Penn Chinese Treebank),用于识别名词短语。比如:NR 表示人名、机构、地名等专有名词;NT 表示时间名词,NOI表示汉字顺序颠倒产生的噪声,NN 表示其它类型名词。

3. NER 识别。比如姚,周琦等。

4. 然后还需要考虑语义间的依存关系,确定名词间的关系,比如:

  • 并列
  • 修饰。比如:“组织进攻能力”
  • 从属、限定等等。比如:[周琦, 组织进攻能力]

这样不难得到应该搜索的关键词列表:[姚主席, 周琦, 组织进攻能力]。下面来看看这种思路究竟如何实现,还是分为两大类:LLM、传统 NLP。

基于 LLM 提取

LLM天然具备NLU和NLG能力,业界已经有尝试,比如 Zero-Shot Information Extraction via Chatting with ChatGPT 提出两阶段多轮问答信息提取方式:

在该思想的启发下,可以使用 langchain 开发信息提取 Chain,LLM 使用的是 ChatGLM-6B本地部署,提取部分测试片段如下所示:

从结果李四和王五的出现,可以看出即使 Prompt 已经添加了“不要编造内容”的说明,LLM在信息提取时仍可能但无济于事。总体而言,使用 LLM 提取信息效果如下:

  • 可以支持部分程度的 NER;对非专业名词、或业务自定义术语识别不好,需要Fine-Tuning。
  • 可以提取名词短语,但无法做精确的语义分析,大量测试案例下总是存在不少偏差。
  • 即使明确了输出格式,但还是频繁出错。
  • 耗时较长。提取 6 条测试案例耗时 12s。

传统 NLP 方法提取

在处理自然语言处理(NLP)任务时,特别是当大型语言模型(LLM)效果不佳时,可以回归使用传统的NLP技术。这些技术包括但不限于分词、词性标注、命名实体识别(NER)等。业界已经开发了许多传统NLP工具,如spaCy、CoreNLP和HanLP等,以应对不同的语言处理需求。

spaCy是一个流行的NLP库,但在某些中文语境下,它的表现可能不尽人意。例如,在处理“请比较詹姆斯和麦迪的属性”这样的句子时,spaCy可能无法识别出任何人名。同样,对于“詹姆斯、字母哥和杰林.布朗的金徽章有何差异?”这样的句子,spaCy可能只能识别出“布朗”,而将“杰林”遗漏。

在进行了一系列的测试比较后,HanLP工具因其对中文的良好支持、较少的依赖性、开箱即用的便利性、完备的基础工具和整洁的接口,而被选为最终的基础NLP工具。HanLP在处理上述提到的句子时,能够正确地进行词性标注和命名实体识别。

为了解决多知识点聚合查询的问题,HanLP的核心处理步骤可以分为三步:

  1. 词性标注:对文本中的每个词进行词性标注,如名词、动词、形容词等,为后续分析提供基础。
  2. 名词短语关系分析:分析名词短语之间的关系,包括修饰关系、限定关系、并列关系等。这一步骤有助于理解句子中各元素之间的相互关系。
  3. 名词短语重新组织:根据名词短语之间的关系,重新组织文本内容。例如,将修饰和限定关系进行级联,并列关系与其他部分进行叉乘,以更清晰地表达句子的含义。

通过上述步骤,可以有效地处理复杂的中文语言结构,提高文本处理的准确性和效率。

  • spacy
  • CoreNLP
  • HanLP

名词短语提取与整合

名词短语提取与整合是信息抽取中的关键步骤,特别是在处理复杂句子时。以下是一个复杂例子的分析过程。

分词与词性标注

首先对句子进行分词,然后为每个分词添加词性标注。例如,在处理“张指导、姚主席如何评价詹姆斯、约基奇、张伯伦的三分及抢断能力?”这个问题时,我们首先进行分词和词性标注。

依存分析

获取到词性后,接下来是提取句子中单词与单词之间的语法关系,即 依存句法分析;例如,使用 Stanford Dependencies Chinese (SDC) 标准进行分析,并将结果转化为Pandas DataFrame的形式,以便于查看和分析。

在自然语言处理中,依赖关系分析是理解句子结构的关键部分。`dep_tok_id` 和 `dep_rel` 是依存句法分析中使用的两个重要概念:

  • dep_tok_id 表示当前分词所依赖的中心词的ID。例如,在句子“指导主席”中,“指导”的中心词ID可能是5,这取决于具体分析工具如何分配ID。
  • dep_rel 表示当前分词和中心词之间的关系。例如,“指导”和中心词“主席”之间的关系可能是 `conj`(并列),这意味着“指导”和“主席”是并列关系。在另一个例子中,“张伯伦”的中心词是“能力”,关系为 `assmod`(修饰限定),表明“张伯伦”修饰或限定“能力”。
  • sdp_tok_ids 和 sdp_rel。是在依存句法分析的基础上,进一步提供 语义依存分析,旨在分析一个句子中单词与单词之间的语义关系(sdp_rel),并将其表示为图结构的任务。不同于依存句法分析的地方是:图结构中每个节点可以有任意个目标节点。在本例当中,特别需要关注的是:Agt(施事者),Poss(领事者),eCoo(并列关系)等。

通过分析 DataFrame 中提供的依赖关系,我们可以直观地获取名词短语。例如:

  • 主体:并列关系 [张指导, 姚主席]
  • 客体:[三分能力],其中“三分”和“能力”是修饰关系
  • 客体还存在三个并列的领事关系(所属关系):[詹姆斯, 约基奇, 张伯伦]

因此,实际的客体应该是将并列的领事关系和本体叉乘后平铺的结果,即:

  • [詹姆斯三分能力, 约基奇三分能力, 张伯伦三分能力]

使用这三个关键词进行 Embedding 并在本地知识库中搜索,可以显著提高搜索的准确性。然而,语义依存分析可能存在不准确的情况,例如:

  • “指导”一词的 `sdp_rel` 被识别为 `root`,即动词作为语义树的根部
  • “和”与“主席”被错误地识别为领事关系

这种语义偏差的原因在于,同一个词可能有多种语义,容易产生混淆。例如,“指导”可以是名词也可以是动词。中文的多义词和复杂语境可能导致语义依存分析出现误判。

解决这个问题的传统方法是使用有监督的训练方式对基础语义依存分析模型进行微调(Fine-Tuning)。然而,这种方法成本较高。幸运的是,词性标注和依存句法分析的准确率通常高于语义依存分析。因此,可以考虑以下方法:

  • 基于正确的词性标注,构建语法树,从语法角度提取名词短语。

这种方法可以减少对复杂语义分析的依赖,同时提高名词短语提取的准确性。通过这种方式,可以在不进行有监督训练的情况下,有效地解决名词短语提取的问题。

成分句法分析

为了解决语义依存分析中可能出现的误差,可以基于正确的词性标注构建语法树,从语法角度提取名词短语。成分句法分析可以帮助我们理解句子在语法上的递归构成。

分析句子在语法上的递归构成,在 NLU 领域是经典的 成分句法分析 问题。下面罗列 Chinese Treebank 标准片段,描述对分词单元类型的定义,请大家关注蓝色背景内容。

再次回顾我们要解决的多知识点聚合处理的目标:

  • 名词短语(Noun Phrase)提取。即提取 NP;
  • 处理好修饰名词短语间的修饰限定问题。比如:DNP 等
  • 处理好并列、连接关系。比如:CC 等
  • 将修饰关系的名词短语级联;将并列关系的NP和修饰关系的NP 叉乘。

基于该思路,上文提到实例,可以转化为下面的成分句法分析树:

这是典型的树结构:

  • 顶层的 NP 有两个:分别是主体和客体。客体是VP(动词短语),表示主体的施事对象,和施事行为。
  • 每个 NP 是颗子树。变种很多,但核心有三种形式:
    • 并列。比如:[张指导, 姚主席]通过明确的连接词 "和" 建立关系;[詹姆斯, 约基奇, 张伯伦] 则通过非终结的标点服务建立关系。
    • 堆叠。由修饰词和名词联合形成一个名词短语。
    • 从属。通过"的"这样 DEG 词性的结构,明确表示前后两个短语间的从属关系。比如:"三分及抢断",隶属于"詹姆斯"。

这样来看,NP 的提取非常简单,通过递归方式对三种基础形式的树结构进行识别即可,提取时注意区分:

  • 主体、客体。
  • NP 子树中各个单元的组织关系。并列单元在和其它单元组合时,需要叉乘输出;其它邻接单元直接合并即可。

在上述算法下,样例中提取的名词短语列表最终如下所示:

  • 主语列表:[张指导, 姚主席]
  • 宾语列表:[詹姆斯三分能力, 约基奇三分能力, 张伯伦三分能力]等
  • 在性能方面,单条语句处理方式是 5ms;之前基于 LLM 的方式处理 6 条语句,需要 12s;性能相差数百倍。

完整的处理流程如下图所示:

通过以上步骤,我们可以有效地提取和整合名词短语,从而提高知识问答系统的精度和效率。完整的处理流程包括分词、词性标注、依存分析、成分句法分析和名词短语提取。 

应用效果

关键词提取实现后,配合前文提到的召回方法,应用到文章开始的几个示例问题,结果如下所示:

解决多知识点聚合处理问题的方案:

  • 基于传统NLP的成分句法分析:利用成分句法分析从用户问题中提取名词短语,然后通过分析短语间的依存关系,生成关键词列表。
  • 从完整语句的Embedding切换到关键词Embedding:在知识库构建时,对单个知识点进行入库,同时提取关键词列表进行Embedding,以便于后续的检索。在查询时,对用户的问题进行关键词提取和Embedding,然后从本地知识库中检索出多条相关记录。
  • 多知识点拆解与检索:将用户单次提问中的多个知识点拆解开来分别进行检索,然后将召回的多条记录交付给LLM进行整合和回答。

这种方法的优势主要体现在以下几个方面:

  • 提升召回精准度:与传统的方法相比,基于关键词Embedding的检索方式能够大幅提升召回的精准度。
  • 支持多知识点聚合处理:用户可以在单次交互中提出包含多个知识点的问题,而不需要分别查询单个知识点,然后由LLM对会话历史中的信息进行汇总。
  • 专项问题处理精度和性能:在处理特定问题时,传统NLP方法相比LLM提供了更好的精度和性能。
  • 减少LLM交互频次:通过减少与LLM的交互次数,提升了交付给LLM的有效信息密度,从而大大提升了问答系统的交互速度

总结

LLM(大型语言模型)的兴起对下游应用产生了深远的影响,激发了大量的探索和研究。然而,在这股热潮中,我们仍需关注一些关键细节。尽管LLM的未来充满希望,甚至可能是通往通用人工智能(AGI)的关键步骤,但我们还不能完全放弃传统的自然语言处理(NLP)技术。

本文提出了一种将传统NLP技术与LLM结合的方法。通过分析用户问题和利用本地知识库进行关键词提取,这种方法可以有效解决Embedding精度不足的问题,以及HyDE和LLM自然语言理解(NLU)中的精度和性能问题。这种方法能够实现单轮对话中对多个知识点的聚合处理。

未来,我们将继续探索LLM与传统技术在角色上的分工,以进一步提升整体收益。通过这种方式,我们可以充分利用LLM的潜力和传统NLP技术的稳定性,为自然语言处理领域带来更全面和高效的解决方案。

Reference

意图补充、修复、改写

【text2sql】基于ChatGPT打造'中文自动转SQL'产品(第一部分)

在对话系统中,引导能力、槽位补充能力、槽位修复能力、指代消除和解析能力以及改写能力是确保流畅用户体验的关键功能。

以下是对这些功能的详细描述和示例对话:
1. 引导能力:系统引导用户提供完整查询信息的能力。
   - 用户:我想查一下电量。
   - Bot: 好的,请问您想查的时间范围、空间范围,和分项是?
2. 槽位补充能力:在用户未提供完整信息时,系统补充询问缺失的槽位。
   - 用户:查上个月的整个园区的吧。
   - Bot: 好的,那请问是要查照明、空调、动力的还是其他类型的耗电量?
3. 槽位修复能力:当用户提供的信息不完整或不明确时,系统要求用户提供更多信息。
   - 用户:就查询各个分项的,和总体的都查询。
   - Bot: 好的,那我复述一下,您希望查询"照明、空调、动力的还是其他类型的耗电量,以及总体耗电量,时间范围是上个月,空间范围是整体园区",请问是吗?
4. 指代消除和解析能力:系统需要能够理解和澄清用户使用的不明确指代词,如“它”、“这”等。
   - Bot: 查询目标设置为查询温度,请问查询哪个空间的温度?
5. 改写能力:系统需要能够将用户的自然语言输入改写为数据库可以理解和处理的形式。
   - Bot: 改写模块其实非常关键,数据库的存储有特定的形式,但是用户不会按照你的底层数据结构去写,例如,用户不见得会输入“和平精英”,而是“吃鸡”,数据库里可不见得会存“吃鸡”,对吧?

通过这些功能,对话系统能够更准确地理解用户的意图,提供更精确的响应,并有效地引导对话到预期的结果。 

小虫飞飞:基于大语言模型构建知识问答系统,类似将ChatGPT变成NPC进行对话,用来回收+修复槽位。改写模块包括【R&S[21] | 搜索中涉及的算法问题】:

  • 同义词改写。在某些有戏中,吃鸡要改写为和平精英,这个需要通过同义词挖掘等方式去构造词典实现。
  • 拼音改写。数据库是罗密欧与朱丽叶,但是用户输入的是罗密欧与朱莉业,拼音改写其实颇为常见,用户经常由于找不到需要的结果或者不知道应该需要哪个,于是直接输入后开始搜索。
  • 前缀补全。用户输入射雕,射雕英雄传就要出来,这个一般的方法也是构造词典,另外有一个很重要的需要了解的就是前缀树,这个能让你查询的时间非常低的水平(只和query长度本身有关)。
  • 丢词和留词。结合上述关键词提取和命名实体识别完成,有些不必要的词汇需要被删除,例如“李小璐到底怎么了”,整个句子只有李小璐是关键词,其他词如果也通过and逻辑召回,就没有信息召回了,这时候其实可以直接删除或者将降级到or逻辑。留词和丢词相反,丢词如果是做减法,留词就是做加法。
  • 近义词召回。这个召回不是从数据库中召回,而是召回近义词,具体的方法是通过embedding方法转化词汇,然后通过ball tree、simhash的方式召回与之意思相近的词汇,该模式虽然比较激进,但是能一定程度增加召回,有一定效果。

多轮对话意图继承能力

多轮的根本难题在于,如何把关键信息保留并在合适的时间取出并使用。目前的大家可能用的比较多的是直接拼接历史对话,这点并非不好,凭借大模型的能力确实能做到很高程度的多轮对话,但实际上,我们还是可以用很多思路(提升大模型系统体验的一些思路):

  • 简单的,可能并不需要考虑模型回复的内容,只需要拼接用户query。
  • 单独构造DM模块,结合NER做槽位继承。
  • 参考科研界的一些做法,做更加抽象的矩阵DM,然后配合大模型计算。

过长提问的总结

过长提问的总结,比较长的提问可以通过LLM进行归纳与总结

拒绝回复

提升大模型系统体验的一些思路

在对话系统中,拒绝回复是一个重要的功能,它需要在多种场景下被合理应用。

以下是一些常见的拒绝回复策略:
1. **固定回复**:提供一个预设的回复,用于不支持的问题。
   - "哎呀,这方面的问题我还不太懂,需要学习下。"
2. **大模型生成回复**:利用大型语言模型生成个性化的安抚性回复。
   - "对不起,你问的[]问题,我好像还不太懂。你可以试试问问别的。"
3. **推荐问题或追问策略**:提供一系列可能相关的问题,或者请求用户提供更多信息。
   - "你是否在找以下几个问题XX?"
   - "你描述的我好像不太懂,能再补充补充吗?"

不见得非得用大模型:前沿重器[12] | 美团搜索引导技术启示。

通过这些策略,对话系统可以在遇到不适当或无法回答的问题时,以一种更人性化的方式拒绝回答,同时尽量减少用户的挫败感。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.mfbz.cn/a/477826.html

如若内容造成侵权/违法违规/事实不符,请联系我们进行投诉反馈qq邮箱809451989@qq.com,一经查实,立即删除!

相关文章

飞跃前端瓶颈:技术进阶指南精华篇

引言: 在互联网的快车道上,前端技术日新月异。对于前端工程师而言,技术水平达到一定高度后,往往会遭遇成长的天花板。本文将探讨如何识别并突破这些技术瓶颈,分享实用的进阶策略和实践案例。 一、技术等级概览&#xf…

python知识点总结(七)

python知识点总结七 1、堆和栈的区别2、如何在局部修改全局的变量a、计算结果b、计算结果 3、如何修改一个enclosing变量4、关于值传递还是地址传值5、布尔类型6、逻辑运算7、字符串切片操作8、取整、取余、除数9、变量赋值10、字符串与数字相乘11、整型、浮点型、字符型之间相…

【LVGL-特殊符号】

LVGL-特殊符号 ■ LVGL-特殊符号 ■ LVGL-特殊符号 /* 直接调用 */ lv_label_set_text(my_label, LV_SYMBOL_OK); /* 与字符一起用 */ lv_label_set_text(my_label, LV_SYMBOL_OK "Apply"); /* 多个符号一起用 */ lv_label_set_text(my_label, LV_SYMBOL_OK LV_SYMBO…

智过网:一级建造师必须两年考过吗?有效期多久?

在建筑行业,一级建造师的职业资格证书是众多从业者追求的目标。然而,获得这一证书并非易事,它要求考生不仅具备扎实的专业知识,还需要在限定的时间内完成所有科目的考试。那么,一级建造师是否必须在两年内考完所有科目…

LeetCode - 存在重复元素

219. 存在重复元素 II 这道题可以用两个方法解决。 哈希表 从左到右遍历数组,并将数组的下标存到hash中,在遍历数字的过程中,如果hash中不存在nums[i],将nums[i]加入到hash当中,若存在,则判断下标之间的关…

九泰智库 | 医械周刊- Vol.16

⚖️ 法规动态 28类耗材联盟集采结果出炉,中选率仅27% 3月19日,河北省药械集采中心发布了《关于公示京津冀“3N”联盟28种集中带量采购医用耗材拟中选结果的通知》。共有202个产品被列为拟中选,产品中选率约为27%。本次集采未设置保底中标条…

buuctf_Reverse_wp_2

文章目录 [WUSTCTF2020]level3[base64变表]Youngter-drive[upx、多线程][FlareOn4]IgniteMe[算法分析]相册[APK、so文件、Native方法][WUSTCTF2020]Cr0ssfun[套娃、patience][GWCTF 2019]xxor[z3、算法分析][UTCTF2020]basic-re[FlareOn6]Overlong脚本输出动态调试 [FlareOn3]C…

科技强国:国产桌面操作系统正式上线,中国七位院士发表支持

操作系统是电子产品的核心,无论是手机还是电脑,都离不开它的支持。它是科技发展中至关重要的领域之一。备受瞩目的鸿蒙系统,作为国内颇具影响力的手机桌面操作系统,以其桌面组件自由整合和自定义风格的便捷性,引领了一…

运用YOLOv5实时监测并预警行人社交距离违规情况

YOLO(You Only Look Once)作为一种先进的实时物体检测算法,在全球范围内因其高效的实时性能和较高的检测精度受到广泛关注。近年来,随着新冠疫情对社交距离管控的重要性日益凸显,研究人员开始将YOLO算法应用于社交距离…

5G安全技术新突破!亚信安全5G安全迅龙引擎正式发布

5G专网应用飞速增长:2020年5G专网数量800个,2021年2300个,2022年5325个,2023年已经超过16000个,5G与垂直行业的融合快速加深,5G带来的变革正加速渗透至各行各业。 5G网络出现安全问题,将是异常严…

QT tableWidget横向众向设置

横向控件 要设置QTabWidget选项卡的字体方向,可以使用QTabWidget的setTabPosition()方法。通过传递Qt枚举值QTabWidget.east或QTabWidget.west作为参数,可以设置选项卡的字体方向为从左到右或从右到左。 myTabWidget QTabWidget() myTabWidget.setTabP…

【论文精读】DALLE3:Improving Image Generation with Better Captions 通过更好的文本标注改进图像生成

文章目录 一、文章概览二、数据重标注(一)现在训练数据的文本标注主要存在的问题(二)创建图像标注器(三)微调图像标注器 三、评估重新标注的数据集(一)混合合成标注和真实标注&#…

【vue】vue中的路由vue-router,vue-cli脚手架详细使用教程

✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,…

PCD8000D开关调光/调色线性恒流LED控制芯片 无需变压器及电阻电容 只需极少元器件

概述 PCD8000D 是一款开关调节亮度/色温的LED恒流驱动IC。适用于AC 180V-240V 或AC 90V- 130V 输入电压,恒流精度小于 5% 。PCD8000D在3 段调节亮度应用中,可根据开启/关闭电源,依次改变输出电流的大小,从而改变LED 灯的亮度, …

RK3568驱动指南|第二篇 字符设备基础-第13章 杂项设备驱动实验

瑞芯微RK3568芯片是一款定位中高端的通用型SOC,采用22nm制程工艺,搭载一颗四核Cortex-A55处理器和Mali G52 2EE 图形处理器。RK3568 支持4K 解码和 1080P 编码,支持SATA/PCIE/USB3.0 外围接口。RK3568内置独立NPU,可用于轻量级人工…

SpringMVC | SpringMVC中的 “JSON数据交互“ 和 “RESTful设计风格“

目录: 一、JSON 数据交互1.1 JSON概述1.2 JSON的“数据结构”对象结构数组结构 1.3 JSON的“数据转换”用 \<mvc:annotation-driven/>的方式 来“自动配置” MappingJackson2HttpMessageConverter转换器 (来完成JSON数据转换)用\<bean>标签方式的来“自行配置” JS…

Midjourney发布新特性风格参考

1. 引言 最近&#xff0c;Midjourney 推出了Style Reference V2.0 即功能更加强大的风格参考工具&#xff0c;该工具可以让大家参考其他图像的风格&#xff0c;生成与参考图像风格保持一致&#xff0c;与文本提示词语义内容保持一致的图像。它与图像提示类似&#xff0c;但是只…

关于Count,FPKM,TPM,RPKM等表达量的计算

原文链接&#xff1a;关于Count&#xff0c;FPKM&#xff0c;TPM&#xff0c;RPKM等表达量的计算及转换 | 干货 写在前面 今天使用count值转化TPM&#xff0c;或是使用FPKM转换成TPM。这样的教程&#xff0c;我们在前面已经出国一起相对比较详细的教程了&#xff0c;一文了解…

(一)基于IDEA的JAVA基础1

Java是一门面向对象的编程语言&#xff0c;不仅吸收了C语言的各种优点&#xff0c;还摒弃了C里难以理解的多继承、指针等概念&#xff0c;因此Java语言具有功能强大和简单易用两个特征。Java语言作为静态面向对象编程语言的代表&#xff0c;极好地实现了面向对象理论&#xff0…

上位机图像处理和嵌入式模块部署(qmacvisual模板匹配)

【 声明&#xff1a;版权所有&#xff0c;欢迎转载&#xff0c;请勿用于商业用途。 联系信箱&#xff1a;feixiaoxing 163.com】 模板匹配是图像中经常使用到的功能。我看过很多现场配置部署的同学&#xff0c;虽然他们使用的是类似于vision master、visio pro这样的专业机器视…
最新文章