课程介绍
从0到1训练自己的大模型 揭密ChatGPT背后的技能
结合ChatGPT实现智能助手只是第一步?企业真正急迫需求是构建符合自己业务需求的AI智能助手,核心技能训练和微调私有的大模型?本课深入企业需求,从ChatGPT背后原理、技术、不同大模型知识开始,带你从0到1训练出一个大模型,运用PEFT技巧微调大模型解决场景需求,最后用LangChain+训练的大模型搭建知识库问答。让你掌握大模型LLM构建的原理、技术、流程与实战,超越大多数竞争者,抢占先机,脱颖而出。
目前更新到第 8 章节。
第1章 课程介绍
第2章 训练模型与开发平台环境
第3章 chatGPT初始技术词向量原理剖析与实战
第4章 chatGPT基石模型——基于Transformer架构的语言模型
第5章 基于Transformer另一分支Bert系列分析与实战
第6章 chatGPT的核心技术——强化学习
第7章 chatGPT技术演变——从GPT 1 开始的大模型发展与演化
第8章 RLHF训练类ChatGPT模型代码实战
第9章 低成本微调大模型方法PEFT(LoRA等) — 训练 “ChatGLM2” 项目
第10章 langchain+训练大模型ChatGLM2 构建“知识库问答”
第11章 课程总结