sft.md

June 19, 2025 · View on GitHub

SFT

预训练模型:如DeepSeek、BERT、GPT等,已在大量数据上训练,具备广泛的语言理解能力。

微调:为适应特定任务,通常需要对整个模型进行微调,但这种方法计算和存储成本高。

图片

虽然这种微调技术已经成功使用了很长时间,但在用于更大的模型时——例如大语言模型(LLM),就会出现问题,主要因为:

  • 模型的大小。
  • 微调所有权重的成本。
  • 维护所有微调后的大模型的成本。