From 9cd180b399158af801caff43a0820ee2e59e77c1 Mon Sep 17 00:00:00 2001 From: yuhui <173983476@qq.com> Date: Tue, 11 Mar 2025 19:51:04 +0800 Subject: [PATCH] =?UTF-8?q?Update=202.=E5=A4=84=E7=90=86=E6=96=87=E6=9C=AC?= =?UTF-8?q?=E6=95=B0=E6=8D=AE.md?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- cn-Book/2.处理文本数据.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/cn-Book/2.处理文本数据.md b/cn-Book/2.处理文本数据.md index abf92b9..099850d 100644 --- a/cn-Book/2.处理文本数据.md +++ b/cn-Book/2.处理文本数据.md @@ -62,7 +62,7 @@ > > **个人思考:** 这里聊一下检索增强技术(RAG),目前已经广泛应用于特定领域的知识问答场景。尽管GPT在文本生成任务中表现强大,但它们依赖的是预训练的知识,这意味着它们的回答依赖于模型在预训练阶段学习到的信息。这种方式导致了几个问题: > -> + **知识的有效性:** 模型的知识基于它的预训练数据,因此无法获取最新的信息。比如,GPT-3 的知识截止到 2021 年,无法回答最新的事件或发展。 +> + **知识的时效性:** 模型的知识基于它的预训练数据,因此无法获取最新的信息。比如,GPT-3 的知识截止到 2021 年,无法回答最新的事件或发展。 > + **模型大小的限制:** 即使是大型模型,所能存储和运用的知识也是有限的。如果任务涉及特定领域(如医学、法律、科学研究),模型在预训练阶段可能没有涵盖足够的信息。 > + **生成的准确性:** 生成模型可能会凭空编造信息(即“幻觉现象”),导致生成内容不准确或虚假。 >