你能学到什么?
本课程包括大模型基础,大模型指令微调之LoRA,大模型指令微调Quantization,大模型对齐之RLHF,大模型对齐之DPO,大模型其他微调技术,大模型增量学习7个阶段,内容涵盖Transformer剖析,大模型PEFT微调,GPT家族模型剖析,LLaMA家族模型剖析,ChatGLM家族模型剖析,Baichuan家族模型剖析,LoRA指令微调,Alpaca微调,AdaLoRA算法解析,Vicuna微调,QLoRA算法解析,模型Copression技术,模型蒸馏技术,ZeroQuant算法剖析,SmoothQuant算法剖析,RLHF算法,PPO算法,强化学习基础,策略优化,DPO,Prefix Tuning算法剖析,Adaptor Tuning算法剖析,Flash Attention算法剖析,KTO算法剖析,大模型增量学习等前沿技术等全方位知识讲解,并结合7个实战项目,帮助同学们实现学以致用。
课程大纲
注:由于大模型技术迭代迅速,课程大纲可能会根据技术的迭代而动态调整,加入最新的知识,请以最终上课时的课程大纲和内容为准。
第一阶段 · 大模型基础
第二阶段 · 大模型指令微调之- LoRA
第三阶段 · 大模型指令微调之- Quantization
第四阶段 · 大模型对齐之-RLHF
第五阶段 · 大模型对齐之-DPO
第六阶段 · 大模型其他微调技术
第七阶段 · 大模型增量学习