shenyi
资深校友
资深校友
  • UID1
  • 粉丝45
  • 关注0
  • 发帖数901
阅读:3025回复:1

实用级GPT探索性实战之自训练篇

楼主#
更多 发布于:2023-04-03 02:11
 
    之前我们开了一个chatgpt相关的探索性课程。 由于某些原因,我们需要从三个角度来准备(后路)
   1、基于chatgpt的应用。 --- 有一定风险,如政策风险等。国内服务器基本部署很困难(不需要解释了吧)
   2、基于国内平台的应用。目前比较靠谱就是百度文心一言(其他不表)。 但也存在一些情况,譬如微调模型需要把业务数据(样本)给它(有些项目不方便上传业务数据)
   3、利用开源框架+开源模型进行自我训练(其实就是微调,我们一般不会从头开始训练) ----- 但存在算力成本和模型相对落后的缺点 ---------------本课程讲的是这个

    为了我们打算单独开一个专栏 来做(布局)这方面课程。 本专栏是百姓化风格,也就是不会讲数学、神经网络、模型底层这些,仅仅关注使用、就是干,产生效果角度、赚钱角度 去使用先有资源进行整合。 因此模型和数学大神 就不要看了,我们都是草根程序员,没能力超越openai 或者超过百度。(you can you up~~~)
    本课程走的是自训练模式,分两章
    1、基操,以及结合google colab的先熟悉调用、调参等
    2、选择一个相对靠谱的模型进行微调,结合譬如金融领域、运开领域来 探索实际的例子。

我们的项目探索目标(可能会有其他子课程来讲才能讲完)
1、利用自训练的模型 来 完成 金融内容的帅选
2、新一代的系统:  网民(发送语音或文字) --->AI服务接收 --->adapter(转化AI结果) --->自动生成表单提交我们的原有系统API(原有后端是不变的)

    由于技术栈比较新,课程内容带有探索性质。不是成品,要成品找百度(它还没完全出来哟~~~)


第一章:环境和基操学习
第1讲:开张课、课程内容、GPT学习路线 试听
老套弄的开张课,我们讲下课程内容和以及要怎么干,干什么

第2讲:使用Google colab算力的基操
如果你很有钱,有自己的GPU显卡,那么本课时可以跳过。

第3讲:了解Huggingface Transformers、提取文字摘要模型测试
今天我们开始进入主题,先从最基本的基础模型开始

第4讲:练习:使用中英文翻译模型、两种代码写法
一边练习一边学习。今天的例子是中英文翻译模型的使用

第5讲:练习:使用本地模型文件的基操
今天是个练习课,使用本地模型文件的基操

第6讲:GPT-2 模型平民化理解和其杜撰能力
为了方便理解,我们先从GPT2开始。注意,只调包,不解释底层

第7讲:使用付费算力平台基操、ChatGLM-6B入门使用
因为后面我们的 AI金融版课程即将开更,所以本课时做个介绍。后面我们需要自己来微调

第8讲:ChatGLM-6B学习(2) 加载本地模型、更换配置
今天讲下加载本地模型(防止网速慢)的手法

第9讲:ChatGLM-6B学习(3) 快速微调入门
今天讲解最基本的微调方式.

第10讲:ChatGLM-6B学习(4) 快速部署langchain-ChatGLM、可视化
快速部署langchain-chatglm。构建自己的类GPT系统

第11讲:ChatGLM-6B学习(5) langchain-ChatGLM支持微调数据的对话
上节课我们是无脑加载,之前我们做了微调后,如何把微调数据加载呢?


第12讲:ChatGLM2-6B(第二代)结合langchain快速部署
有了之前我们部署的经验,今天我们来说下第二代ChatGLM 6B的部署。这也是中小公司性价比比较高的模型


第13讲:以api的方式启动ChatGLM2-6B-langchain、golang调用
前面课时是webui,这节课说下API模式,并且使用golang调用。本课时为AI金融版课程服务




本课程不定期更新



会讲故事的程序员
shenyi
资深校友
资深校友
  • UID1
  • 粉丝45
  • 关注0
  • 发帖数901
沙发#
发布于:2023-07-14 02:28
更至第13讲
会讲故事的程序员
游客

返回顶部