基于deepseek的模型微调
使用 DeepSeek 模型(如 DeepSeek-VL、DeepSeek-Coder、DeepSeek-LLM)进行微调,可以分为几个关键步骤,下面以 DeepSeek-LLM 为例说明,适用于 Q&A、RAG、聊天机器人等方向的应用。
一、准备工作
1. 环境依赖
建议使用 transformers
+ accelerate
或 LoRA
等轻量微调方案,推荐依赖如下:
pip install transformers datasets accelerate peft bitsandbytes
2. 加载 DeepSeek 模型
DeepSeek-LLM-7B/67B 模型可通过 HuggingFace 加载:
<