法律硕士的局限性以及 RAG 如何弥补这些局限性

检索增强生成(RAG)和大型语言模型(LLM)等术语在最近引起了广泛关注--这并不奇怪。人类与机器交流的发展似乎已完全成为常态。但仅靠语言模型 "说话",如

  • GPT-3
  • GPT-4
  • 拉马 2
  • Mistral-7B

这并不是这种情况的特别之处。不寻常的是,这些机器--在这种情况下是法律硕士--能理解你。或者说,它们听懂了吗?

试试吧

请自选一个语言模型,解释联邦议院选举趋势中最新选举民意调查的结果,并在答案中考虑正面和负面影响。

有用吗?

在本篇博文中,我们将向您介绍如何获得类似问题的可靠答案。

法律硕士在回答问题方面的局限性

理解人类用户请求的上下文并不是一个简单的技巧,而是一种技术上高度复杂的方法,它基于外部检索系统(=从存储数据中恢复特定信息的系统)和大型语言模型(LLMs)的结合。

哪些信息是法律硕士能够理解和处理的,哪些是不能理解和处理的?

我们将在这篇博文中详细探讨 LLM 在什么情况下无法回答问题。我们还将向您展示如何将实时信息添加到大型语言模型中。

想了解更多有关使用 LLM 开发 Konfuzio DocumentGPT 的信息?阅读内容丰富的博文 DocumentGPT - 释放法律硕士的力量 并了解更多信息。

法律硕士的具体限制

语言模型可以提高工作效率,并在各种任务中为我们提供支持。但如前所述,即使是人工智能驱动的 LLM 也有其局限性。这些局限性在以下情况下尤为明显

  • 及时或最新的信息、
  • 实时信息、
  • 私人信息、
  • 特定领域的知识、
  • 训练语料中代表性不足的知识、
  • 法律方面和
  • 语言方面

的问题。例如,向 ChatGPT 询问德国当前的通货膨胀率。您将收到类似上述测试的答案:

"很抱歉造成您的困惑,但作为一个人工智能语言模型,我不具备实时数据或浏览功能。我的回答是基于 2021 年 9 月之前的信息。因此,我无法告诉您德国当前的通货膨胀率"。

这一限制是一个大问题。ChatGPT 和许多其他 LLM 一样,无法及时提供对知情决策至关重要的背景信息。

这就是限制法律硕士的原因

法律硕士之所以 "固步自封",跟不上飞速发展的世界,原因就在于此:

ChatGPT 的训练和信息数据有一个所谓的 "截止点"。这个语言模型的时间点或截止日期设定为 2021 年 9 月。因此,如果您向 ChatGPT 询问该日期之后发生的事件或发展,您将得到

  • 听起来令人信服但却完全虚假的信息,这种信息被称为 "幻觉 "或
  • 不客观的回答,隐含建议,如

"我的数据只到 2021 年 9 月,我无法获取 2021 年 9 月之后发生的事件的信息。如果您需要 2021 年 9 月之后发生的事件的信息,我建议您访问当前的新闻来源或搜索引擎,以了解最新进展"。

以 RAG 解决 LLM 极限问题

这正是检索增强生成(RAG)的用武之地。这种方法弥补了 LLM 的知识差距,通过整合外部检索机制,使 LLM 能够提供上下文准确的最新信息。

在接下来的章节中,我们将更详细地解释 RAG 的概念,并探讨 RAG 如何扩展 LLM 的边界。

什么是检索增强一代?

RAG 检索增强生成定义

检索增强生成--简称 RAG--是一种方法。 人工智能 (AI)和 自然语言处理该技术旨在通过整合外部检索系统来提高语言模型的性能。该技术允许从外部来源(如组织语料库或文档数据库)检索数据,并用于丰富语言模型(LLM)的数据条件。 提示.

检索增强一代是如何工作的?

RAG 将 GPT-3 或 GPT-4 等转换器的功能与外部检索或搜索机制结合起来使用。RAG 不依赖于模型的内部知识,而是询问 外部记录 通常是文件语料库,以检索相关信息。然后,这些检索到的数据会被用于生成语境响应。

RAG 与微调

RAG 使模型能够从外部来源检索信息,从而更好地理解用户查询的上下文,并生成更准确的回复。它通过连接知识库或其他信息源,扩展了 LLM 的功能。

微调 是指将已预先训练好的基础模型(如大型语言模型)调整到特定任务或领域的过程。具体做法是在有限的特定任务训练数据集上进一步训练模型。在微调过程中,模型会学习如何最好地专注于特定任务或领域,并针对该特定应用优化其能力。

RAG 和微调的主要区别在于其功能和目的

RAG 侧重于通过整合外部信息来改进自然语言处理,使模型能够更好地理解查询的上下文,并生成更准确的回复。而微调的目的则是利用有限的训练数据集,针对特定任务或领域对预先训练好的基础模型进行专门调整。

这两种方法都很有用,但它们有不同的应用领域和目标。RAG 通过整合外部信息来增强 LLM 的能力,而微调则旨在适应特定任务或领域。

RAG 比较--优势、劣势和替代方案

与预训练或微调基础模型等传统方法相比,RAG 提供了一种经济高效的替代方法。RAG 从根本上增强了大型语言模型在响应特定提示时直接访问特定数据的能力。为了说明 RAG 与其他方法的区别,请看下图。

雷达图具体比较了三种不同的方法:

  • 预培训法学硕士、
  • 预训练 + 微调 LLM 和
  • 预训练 + RAG LLM。
RAG LLM 比较

这种雷达图是一种多维数据的图形表示法,其中每种方法都根据若干标准进行评估,这些标准在图中以坐标轴的形式显示。这些标准包括

  • 费用、
  • 复杂性、
  • 特定领域的知识、
  • 专题性、
  • 可解释性和
  • 避免幻觉。

图中每种方法都用一个多边形表示,多边形的顶点与相应方法的标准值相对应。

例如

预训练 LLM "方法在 "成本"、"复杂性"、"特定领域知识 "和 "避免幻觉 "方面的值相对较低,但在 "及时性 "和 "可解释性 "方面的值较高。

另一方面,"预训练 + 微调 LLM "方法的 "成本"、"复杂性"、"特定领域知识 "和 "避免幻觉 "值较高,但 "及时性 "和 "可解释性 "值较低。最后,"预训练 + RAG LLM "方法具有独特的模式,其 "最新性"、"可解释性 "和 "特定领域知识 "的值较高。

预训练 + RAG LLM 方法具有特定领域知识、最新信息、可解释性和避免幻觉的特点。这可能是由于 RAG 方法允许模型使用图结构解释信息,这可以提高模型的理解能力,防止幻觉,并在特定领域提供更透明、更准确的答案。

根据上下文和主题生成回复,并提供 RAG "如何做"。

检索增强生成 (RAG) 流程包括以下 3 个步骤:

  1. 根据特定区域的数据创建矢量数据库:
    实施 RAG 的第一步是创建一个 矢量数据库 从您的特定领域专有数据中获取。该数据库是 RAG 提供与上下文相关答案的知识来源。要创建该矢量数据库,请按照以下步骤操作:
  2. 转换为向量(嵌入):
    要使您的特定领域数据可用于 RAG,您需要将其转换为数学向量。这一转换过程是通过嵌入模型来实现的,嵌入模型是一种特殊的大型语言模型(LLM)。这些嵌入模型能够将各种类型的数据(包括文本、图像、视频或音频)转换为数组或数值组。重要的是,这些数值反映了输入文本的含义,就像另一个人大声说出文本时能够理解文本的精髓一样。
  3. 创建矢量数据库:
    获得代表特定领域数据的向量后,创建向量数据库。该数据库是以向量形式编码的语义丰富的信息库。在这个数据库中,RAG 会根据存储数据的数字表示来搜索语义相似的元素。

下图说明了如何利用特定领域的专有数据创建矢量数据库。要创建矢量数据库,需要通过嵌入模型将数据转换为矢量。在下面的示例中,我们转换了包含 Konfuzio 最新信息的 Konfuzio 文档(Konfuzio Documents)。数据可以由文本、图像、视频或音频组成:

limits-llm-rag
如何从特定地区的专有数据中创建矢量数据库(矢量数据库和 Konfuzio 文件)

将检索到的专业知识(上下文)整合到法律硕士课程中

现在您已经建立了一个包含特定领域知识的矢量数据库,下一步就是将这些知识整合到 LLM 中。这种整合是通过所谓的 "上下文窗口 "完成的。

将上下文窗口视为 LLM 在特定时刻的视野:

当 RAG 开始运行时,它就像是从特定领域数据库到 LLM 的关键点地图。

这个上下文窗口允许 LLM 获取和整合重要数据。这就确保了其响应不仅连贯,而且符合上下文。

通过在 LLM 的上下文窗口中嵌入特定领域的知识,RAG 提高了生成答案的质量。RAG 使 LLM 能够利用存储在向量数据库中的大量数据。这样,它就能根据用户的查询做出更明智、更相关的回答。

下图以 "Konfuzio 文件 "为例说明了 RAG 的功能:

法律硕士的 RAG 工作流程与 Konfuzio 文件

在我们的 RAG 工作流程 我们可以强制大语言模型(生成器)坚持使用知识库(Konfuzio 文档)中与回答用户查询最相关的内容。

这就是结果: 检索增强生成 !✅

更新 - 了解详情

一方面,Konfuzio 天蓝色 另一方面,Azure 的应用程序接口目前可以将文档转换为 Markdown.这意味着 Konfuzio 可以使用该功能将文档转换为 Markdown,然后将其输入 RAG 中基于 LLM 的生成部分。

这可以提高 RAG 管道的准确性和性能!

原因在于这些 Markdown 表示法 以表格、图像、复选框等形式提供比以前更多的文档信息和上下文。

Konfuzio Azure OCR Markdown
资料来源: techcommunity.microsoft.com

总结

大语言模型(LLM)越来越多地融入我们的日常生活,这无疑带来了许多好处,但也有其局限性。面临的挑战是,GPT-3、GPT-4、Llama 2 和 Mistral-7B 等大型语言模型难以提供及时的上下文信息以及特定领域的知识。这是一个重大障碍,尤其是在需要准确和相关的回应时。

在这方面,检索增强生成(RAG)被证明是一种很有前途的解决方案。RAG 能够将外部检索系统整合到大型语言模型中,从而使这些模型能够访问广泛的知识库和最新信息。这使它们能够更好地理解用户定义的查询,并提供更精确、更符合上下文的答案。

那么,为什么要使用 RAG 而不是其他方法呢?

  1. RAG 能够提供实时信息和最新知识,这对于快速发展的行业和知情决策尤为重要。
  2. RAG 允许将特定领域的知识整合到答案生成中。当需要专业知识时,这一点至关重要。
  3. 与某些替代方法相比,RAG 方法以现有数据和事实为基础,为回答问题提供了一种更加透明和易懂的方法。
  4. RAG 通过获取可靠的外部信息来源,将虚假或捏造信息的可能性降至最低。

总之,"检索增强生成 "填补了 LLM 能力上的空白,能够为复杂问题提供可靠的答案。这使它成为未来机器智能通信和支持广泛应用的一种有前途的方法。

您是否有任何疑问,或者您是否有兴趣观看以下演示 Konfuzio 基础设施?

给我们写信。我们的专家团队将竭诚为您服务。








    "
    "
    Mohamed Dhiab 的头像

    最新文章