通俗易懂的LLM(上篇)

通俗易懂的LLM(上篇)目录 前言 一 Tuning 1 Fine Tuning 微调 2 Prompt Tuning 提示微调 2 1 In context learning 上下文学习 2 2 Pattern Verbalizer Pair PVP 2 3 Prompt Tuning 2

大家好,我是讯享网,很高兴认识大家。


讯享网

目录

  • 前言
  • 一、Tuning
    • 1、Fine-Tuning(微调)
    • 2、Prompt-Tuning(提示微调)
      • 2.1 In-context learning(上下文学习)
      • 2.2 Pattern-Verbalizer-Pair(PVP)
      • 2.3 Prompt-Tuning
      • 2.4 Prompt-Tuning vs Fine-Tuning
    • 3、Instruction-Tuning(指示微调)
      • 3.1、Instruction-Tuning的提出
      • 3.2、Fine-Tuning vs Prompt-Tuning vs Instruction-Tuning
    • 4、Chain-of-Thought(思维链)
      • 4.1、Manual-CoT(人工思维链)
      • 4.2、Zero-shot-CoT(零示例思维链)
      • 4.3、Auto-CoT(自动思维链)
    • 5、Parameter-Efficient Fine-Tuning (PEFT,参数有效性微调)
      • 5.1、PEFT介绍
      • 5.2、PEFT实践
      • 5.3、大模型Fine-Tuning之分布式训练
      • 5.4、大模型知识问答
  • 二、LLM简介
    • 1、GPT系列(OpenAI)
      • 1.1 GPT-1、GPT-2、GPT-3
      • 1.2 InstructGPT
      • 1.3 ChatGPT
      • 1.4 GPT-4
    • 2、其他大模型
      • 2.1 ChatGLM
      • 2.2 LLaMA
  • 三、补充知识
    • 1、LLM为什么都用Decoder only架构?
    • 2、NLP小知识点
    • 3、名词解释
    • 4、对大模型时代的一些个人感想
  • 总结
小讯
上一篇 2025-02-24 17:22
下一篇 2025-02-14 08:31

相关推荐

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/50859.html