diff --git a/cn-Book/附录B. 参考文献和进一步阅读.md b/cn-Book/附录B.参考文献和进一步阅读.md similarity index 99% rename from cn-Book/附录B. 参考文献和进一步阅读.md rename to cn-Book/附录B.参考文献和进一步阅读.md index e75ab59..bbf5ba0 100644 --- a/cn-Book/附录B. 参考文献和进一步阅读.md +++ b/cn-Book/附录B.参考文献和进一步阅读.md @@ -16,19 +16,19 @@ + BloombergGPT:金融领域的大型语言模型 (2023),吴等人著,https://arxiv.org/abs/2303.17564 - +
**现有的 LLM 也可以通过适配和微调来胜过通用 LLM,正如 Google Research 和 Google DeepMind 的团队在医疗领域所展示的那样:** + 使用大型语言模型实现专家级医疗问答 (2023),Singhal 等人著,https://arxiv.org/abs/2305.09617 - +
**提出原始 Transformer 架构的论文:** + Attention Is All You Need (2017),Vaswani 等人著,https://arxiv.org/abs/1706.03762 - +
**最初的编码器式 Transformer,称为 BERT:**