From 494626f0c107463b85f25dbbaa44730aa916cb73 Mon Sep 17 00:00:00 2001 From: skindhu Date: Sat, 30 Nov 2024 18:06:35 +0800 Subject: [PATCH] fix wrong word --- README.md | 16 +++++++++------- 1 file changed, 9 insertions(+), 7 deletions(-) diff --git a/README.md b/README.md index 6459ebf..e38c62c 100644 --- a/README.md +++ b/README.md @@ -6,9 +6,9 @@ 学习大语言模型的原理和实现,不仅有助于理解 AI 如何模仿人类的语言处理能力,也为开发者提供了深入掌握模型训练、调优、部署等技术的机会。无论是从事 AI 研究的学者,还是希望在实际项目中应用大语言模型的开发者,都能从中受益。 -随着 LLM 技术的广泛应用,掌握其基础原理和实现方法将成为每一位 AI 从业者必备的技能。通过学习和研究大语言模型,我们不仅能更好地理解当前的技术发展,还能为未来的创新和突破奠定基础。 +随着 LLM 技术的广泛应用,掌握其基础原理和实现方法将成为每一位 AI 从业者必备的技能。通过学习和研究大语言模型,我们不仅能更好地理解当前的技术发展,还能为未来的创新和突破奠定基础。 - + @@ -21,7 +21,7 @@ + 在原版英文书籍中,有一些内容与书中的主旨关系相对较弱,因此常常被简略提及。但这些内容的深入理解能够帮助我们更好地掌握大模型的设计理念。因此,在翻译过程中,我也加入了自己在遇到不理解或不了解的部分时的思考和解读,希望能帮助读者更深入地理解大模型的各个方面。 + 书中提供了所有需要的实践代码,强烈建议读者按照书中的教程进行实操,并在实现的过程中结合日常使用的各类大模型,深入思考其背后的原理。如果遇到不理解的部分,可以进一步查阅相关资料。(官方也针对书籍提供了配套的[代码库](https://github.com/rasbt/LLMs-from-scratch)) - + @@ -36,14 +36,14 @@ ### 全书章节 + 第一章:理解大语言模型 -+ 第二章:处理文本数据 ++ 第二章:处理文本数据 + 第三章:实现注意力机制 + 第四章:从零开始实现一个用于文本生成的 GPT 模型 + 第五章:在无标记数据集上进行预训练 + 第六章:用于分类任务的微调 + 第七章:指令遵循微调 - + ## 个人思考 @@ -69,9 +69,9 @@ + 接受未来可能带来的变化,积极寻找学习和发展的机会。 - - + + ## 中文版电子书阅读过程中可能遇到的问题 @@ -105,6 +105,8 @@ Address: 185.199.109.133 ``` +## 若希望和作者进一步交流,请关注公众号 +