From bb48916abbedd57d49d08cea3540d0ffa9222fb1 Mon Sep 17 00:00:00 2001 From: skindhu Date: Thu, 24 Oct 2024 11:10:43 +0800 Subject: [PATCH] add first chapter --- Book/1.理解大语言模型.md | 10 +++++++++- 1 file changed, 9 insertions(+), 1 deletion(-) diff --git a/Book/1.理解大语言模型.md b/Book/1.理解大语言模型.md index 1b81df3..153d0f1 100644 --- a/Book/1.理解大语言模型.md +++ b/Book/1.理解大语言模型.md @@ -2,7 +2,12 @@ - **大语言模型(LLMs)背后基本概念的高级解释** - **对大语言模型(如 ChatGPT 平台上使用的模型)所源自的 Transformer 架构的深入了解** -- **从零开始构建大语言模型的计划** +- **从零开始构建大语言模型的计划** + + +------ + + - [1.1 LLM 是什么?](#11-llm-是什么) @@ -14,6 +19,9 @@ - [1.7 构建大语言模型](#17-构建大语言模型) - [1.8 本章总结](#18-本章总结) + + +------ 大型语言模型 (LLMs),如 OpenAI 的 ChatGPT,是近年来发展起来的深度神经网络模型。这些模型为自然语言处理 (NLP) 开辟了一个新时代。在大型语言模型出现之前,传统方法在电子邮件垃圾分类等分类任务中表现良好,但通常在需要复杂理解和生成能力的语言任务上表现不佳,例如解析详细指令、进行上下文分析,或生成连贯且符合上下文的原创文本。例如,早期的语言模型无法根据关键词列表撰写电子邮件,而这个任务对现代 LLMs 来说却非常简单。