diff --git a/Book/3.实现注意力机制.md b/Book/3.实现注意力机制.md index 1a971fd..16fe6ef 100644 --- a/Book/3.实现注意力机制.md +++ b/Book/3.实现注意力机制.md @@ -284,17 +284,11 @@ Sum: tensor(1.) > > 1. **Softmax 的原理** > -> Softmax 函数的公式如下:g +> Softmax 函数的公式如下: > -> \usepackage{amsmath} -> -> [ -> -> \operatorname{softmax}\left(z_{i}\right)=\frac{e^{z_{i}}}{\sum_{j} e^{z_{j}}} -> -> ] -> -> This is an inline formula: $E=mc^2$. +> ``` +> \mathop{\text{softmax}}\left(z_{i}\right)=\frac{e^{z_{i}}}{\sum_{j} e^{z_{j}}} +> ``` > > >