From 1599d9766a66d9e2364430285b360a2e879a57cd Mon Sep 17 00:00:00 2001 From: Ning Guo Date: Wed, 30 Jul 2025 14:05:02 +0800 Subject: [PATCH] fix: img url of ch03 --- cn-Book/3.实现注意力机制.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/cn-Book/3.实现注意力机制.md b/cn-Book/3.实现注意力机制.md index 0bfe278..0014c8c 100644 --- a/cn-Book/3.实现注意力机制.md +++ b/cn-Book/3.实现注意力机制.md @@ -38,7 +38,7 @@ 在本章中,我们将关注 LLM 架构中的重要组成部分,即注意力机制,如图 3.1 所示。
- +
注意力机制是一个复杂的话题,因此我们将专门用一整章来讨论它。我们将注意力机制作为独立模块来研究,重点关注其内部的工作原理。在下一章中,我们将编写与自注意力机制相关的 LLM 的其他部分,以观察其实际运作并创建一个生成文本的模型。