阅读:3025回复:1
实用级GPT探索性实战之自训练篇之前我们开了一个chatgpt相关的探索性课程。 由于某些原因,我们需要从三个角度来准备(后路) 1、基于chatgpt的应用。 --- 有一定风险,如政策风险等。国内服务器基本部署很困难(不需要解释了吧) 2、基于国内平台的应用。目前比较靠谱就是百度文心一言(其他不表)。 但也存在一些情况,譬如微调模型需要把业务数据(样本)给它(有些项目不方便上传业务数据) 3、利用开源框架+开源模型进行自我训练(其实就是微调,我们一般不会从头开始训练) ----- 但存在算力成本和模型相对落后的缺点 ---------------本课程讲的是这个 为了我们打算单独开一个专栏 来做(布局)这方面课程。 本专栏是百姓化风格,也就是不会讲数学、神经网络、模型底层这些,仅仅关注使用、就是干,产生效果角度、赚钱角度 去使用先有资源进行整合。 因此模型和数学大神 就不要看了,我们都是草根程序员,没能力超越openai 或者超过百度。(you can you up~~~) 本课程走的是自训练模式,分两章 1、基操,以及结合google colab的先熟悉调用、调参等 2、选择一个相对靠谱的模型进行微调,结合譬如金融领域、运开领域来 探索实际的例子。 我们的项目探索目标(可能会有其他子课程来讲才能讲完) 1、利用自训练的模型 来 完成 金融内容的帅选 2、新一代的系统: 网民(发送语音或文字) --->AI服务接收 --->adapter(转化AI结果) --->自动生成表单提交我们的原有系统API(原有后端是不变的) 由于技术栈比较新,课程内容带有探索性质。不是成品,要成品找百度(它还没完全出来哟~~~) 第一章:环境和基操学习 第1讲:开张课、课程内容、GPT学习路线 试听 老套弄的开张课,我们讲下课程内容和以及要怎么干,干什么 第2讲:使用Google colab算力的基操 如果你很有钱,有自己的GPU显卡,那么本课时可以跳过。 第3讲:了解Huggingface Transformers、提取文字摘要模型测试 今天我们开始进入主题,先从最基本的基础模型开始 第4讲:练习:使用中英文翻译模型、两种代码写法 一边练习一边学习。今天的例子是中英文翻译模型的使用 第5讲:练习:使用本地模型文件的基操 今天是个练习课,使用本地模型文件的基操 第6讲:GPT-2 模型平民化理解和其杜撰能力 为了方便理解,我们先从GPT2开始。注意,只调包,不解释底层 第7讲:使用付费算力平台基操、ChatGLM-6B入门使用 因为后面我们的 AI金融版课程即将开更,所以本课时做个介绍。后面我们需要自己来微调 第8讲:ChatGLM-6B学习(2) 加载本地模型、更换配置 今天讲下加载本地模型(防止网速慢)的手法 第9讲:ChatGLM-6B学习(3) 快速微调入门 今天讲解最基本的微调方式. 第10讲:ChatGLM-6B学习(4) 快速部署langchain-ChatGLM、可视化 快速部署langchain-chatglm。构建自己的类GPT系统 第11讲:ChatGLM-6B学习(5) langchain-ChatGLM支持微调数据的对话 上节课我们是无脑加载,之前我们做了微调后,如何把微调数据加载呢? 第12讲:ChatGLM2-6B(第二代)结合langchain快速部署 有了之前我们部署的经验,今天我们来说下第二代ChatGLM 6B的部署。这也是中小公司性价比比较高的模型 第13讲:以api的方式启动ChatGLM2-6B-langchain、golang调用 前面课时是webui,这节课说下API模式,并且使用golang调用。本课时为AI金融版课程服务 本课程不定期更新 |
|
|