From 2fff2c8515ce3bec14a583c6b888747b1f2d1b89 Mon Sep 17 00:00:00 2001 From: skindhu Date: Tue, 1 Apr 2025 13:30:52 +0800 Subject: [PATCH] Add appendixB --- ... 参考文献和进一步阅读.md => 附录B.参考文献和进一步阅读.md} | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) rename cn-Book/{附录B. 参考文献和进一步阅读.md => 附录B.参考文献和进一步阅读.md} (99%) diff --git a/cn-Book/附录B. 参考文献和进一步阅读.md b/cn-Book/附录B.参考文献和进一步阅读.md similarity index 99% rename from cn-Book/附录B. 参考文献和进一步阅读.md rename to cn-Book/附录B.参考文献和进一步阅读.md index e75ab59..bbf5ba0 100644 --- a/cn-Book/附录B. 参考文献和进一步阅读.md +++ b/cn-Book/附录B.参考文献和进一步阅读.md @@ -16,19 +16,19 @@ + BloombergGPT:金融领域的大型语言模型 (2023),吴等人著,https://arxiv.org/abs/2303.17564 - +
**现有的 LLM 也可以通过适配和微调来胜过通用 LLM,正如 Google Research 和 Google DeepMind 的团队在医疗领域所展示的那样:** + 使用大型语言模型实现专家级医疗问答 (2023),Singhal 等人著,https://arxiv.org/abs/2305.09617 - +
**提出原始 Transformer 架构的论文:** + Attention Is All You Need (2017),Vaswani 等人著,https://arxiv.org/abs/1706.03762 - +
**最初的编码器式 Transformer,称为 BERT:**