阅读:1534回复:1
DeepSeek本地化部署、微调专门课开启
前期部分课时 是放在AI查缺补漏课中的,现在移植过来
,由于大家需要因此单独出个课程。本课程快速且粗暴的演示和讲解如何把当今最火爆的deepseek进行本地户部署和微调。课程要求会操作Linux、能够自行租用GPU算力服务,了解python并能快速学习。纯新手不适合观看。短课程,大约10课时左右 各个课程知识点都有交叉,如果不清楚的可以加VIP群提问 第1讲:最简单的本地部署DeepSeek-R1 后面还有进阶的,今天我们先快速无脑的部署个。非常简单,没啥好神秘的(原课时来自查缺补漏课) 第2讲:使用huggingface模型本地部署deepkseek 很简单的几句python代码就能启动模型 第3讲:ollama转化和加载模型文件并启动deepseek 今天我们顺便再讲下ollama转换模型 第4讲:deepseek大模型微调框架入门 今天做个入门,下节课开始微调 第5讲:deepseek微调(1): 微调数据的生成 和蒸馏一样,微调需要准备数据,这节课我们讲一下生成方式。 第6讲:deepseek微调(2): unsloth加载模型和推理测试 开始写代码了,我们先学习如何加载模型 第7讲:deepseek微调(3): unsloth创建微调训练的代码写法 今天我们完成微调代码的编写,下节课看效果 第8讲:deepseek-r1微调(4): 完成微调和测试 今天我们完成第一步的微调,并写代码测试微调数据是否进入思考链 本课程每周更新2-3课时 |
|
|