目录
- 前言
- 一、Tuning
-
- 1、Fine-Tuning(微调)
- 2、Prompt-Tuning(提示微调)
-
- 2.1 In-context learning(上下文学习)
- 2.2 Pattern-Verbalizer-Pair(PVP)
- 2.3 Prompt-Tuning
- 2.4 Prompt-Tuning vs Fine-Tuning
- 3、Instruction-Tuning(指示微调)
-
- 3.1、Instruction-Tuning的提出
- 3.2、Fine-Tuning vs Prompt-Tuning vs Instruction-Tuning
- 4、Chain-of-Thought(思维链)
-
- 4.1、Manual-CoT(人工思维链)
- 4.2、Zero-shot-CoT(零示例思维链)
- 4.3、Auto-CoT(自动思维链)
- 5、Parameter-Efficient Fine-Tuning (PEFT,参数有效性微调)
-
- 5.1、PEFT介绍
- 5.2、PEFT实践
- 5.3、大模型Fine-Tuning之分布式训练
- 5.4、大模型知识问答
- 二、LLM简介
-
- 1、GPT系列(OpenAI)
-
- 1.1 GPT-1、GPT-2、GPT-3
- 1.2 InstructGPT
- 1.3 ChatGPT
- 1.4 GPT-4
- 2、其他大模型
-
- 2.1 ChatGLM
- 2.2 LLaMA
- 三、补充知识
-
- 1、LLM为什么都用Decoder only架构?
- 2、NLP小知识点
- 3、名词解释
- 4、对大模型时代的一些个人感想
- 总结

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/50859.html