From fddcb214ea5b37f6e2c3145de4e7ee4c99cbbfc2 Mon Sep 17 00:00:00 2001 From: skindhu Date: Sat, 2 Nov 2024 15:12:37 +0800 Subject: [PATCH] add third chapter --- cn-Book/3.实现注意力机制.md | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/cn-Book/3.实现注意力机制.md b/cn-Book/3.实现注意力机制.md index 0a94c09..215484b 100644 --- a/cn-Book/3.实现注意力机制.md +++ b/cn-Book/3.实现注意力机制.md @@ -990,7 +990,7 @@ tensor([[2., 2., 0., 2., 2., 0.], > > Softmax 函数的公式如下: > -> $$ \text{softmax}\left(z_{i}\right)=\frac{e^{z_{i}}}{\sum_{j} e^{z_{j}}} $$ +> $$\text{softmax}\left(z_{i}\right)=\frac{e^{z_{i}}}{\sum_{j} e^{z_{j}}}$$ > > 其中zi是输入的每个分数(即未激活的原始值),e 是自然对数的底。这个公式的作用是将输入向量中的每个元素转换为一个概率值,且所有值的和为 1。 >