diff --git a/cn-Book/附录B. 参考文献和进一步阅读.md b/cn-Book/附录B.参考文献和进一步阅读.md
similarity index 99%
rename from cn-Book/附录B. 参考文献和进一步阅读.md
rename to cn-Book/附录B.参考文献和进一步阅读.md
index e75ab59..bbf5ba0 100644
--- a/cn-Book/附录B. 参考文献和进一步阅读.md
+++ b/cn-Book/附录B.参考文献和进一步阅读.md
@@ -16,19 +16,19 @@
+ BloombergGPT:金融领域的大型语言模型 (2023),吴等人著,https://arxiv.org/abs/2303.17564
-
+
**现有的 LLM 也可以通过适配和微调来胜过通用 LLM,正如 Google Research 和 Google DeepMind 的团队在医疗领域所展示的那样:**
+ 使用大型语言模型实现专家级医疗问答 (2023),Singhal 等人著,https://arxiv.org/abs/2305.09617
-
+
**提出原始 Transformer 架构的论文:**
+ Attention Is All You Need (2017),Vaswani 等人著,https://arxiv.org/abs/1706.03762
-
+
**最初的编码器式 Transformer,称为 BERT:**