From ea8f9bdea0a17c674a0391dda8b086379f1022ab Mon Sep 17 00:00:00 2001 From: Ning Guo Date: Wed, 30 Jul 2025 11:45:21 +0800 Subject: [PATCH] fixme: add . for curImg --- cn-Book/3.实现注意力机制.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/cn-Book/3.实现注意力机制.md b/cn-Book/3.实现注意力机制.md index 0014c8c..0bfe278 100644 --- a/cn-Book/3.实现注意力机制.md +++ b/cn-Book/3.实现注意力机制.md @@ -38,7 +38,7 @@ 在本章中,我们将关注 LLM 架构中的重要组成部分,即注意力机制,如图 3.1 所示。
- +
注意力机制是一个复杂的话题,因此我们将专门用一整章来讨论它。我们将注意力机制作为独立模块来研究,重点关注其内部的工作原理。在下一章中,我们将编写与自注意力机制相关的 LLM 的其他部分,以观察其实际运作并创建一个生成文本的模型。