部分图片较大,加载较慢,PC端浏览最佳!
第1章 课程介绍
5 节|62分钟
第2章 训练模型与开发平台环境
5 节|30分钟
-
视频:2-1 【认知】为什么要引入paddle?平时使用torch,学习paddle貌似没用怎么办?04:06
-
视频:2-2 【框架】paddle和torch与tensorflow对比07:14
-
视频:2-3 【NLP工具和预训练模型】paddleNLP和huggingface03:23
-
视频:2-4 【平台】介绍aistudio07:53
-
视频:2-5 【工具】介绍基于gpt4的IDE cursor06:51
第3章 chatGPT初始技术词向量原理剖析与实战
12 节|176分钟
-
视频:3-1 【认知】词向量,词向量与gpt的关系05:22
-
视频:3-2 【语言模型】语言模型和评估指标PPL13:28
-
视频:3-3 【词向量模型】word2vec-cbow和skipgram08:15
-
视频:3-4 【softmax加速】是softmax 树型优化14:46
-
视频:3-5 【softmax加速】softmax负采样优化13:49
-
视频:3-6 【数据准备与预处理】word2vec实战(1)24:53
-
视频:3-7 【数据准备与预处理】word2vec实战(2)18:49
-
视频:3-8 【模型训练】word2vec实战-模型开发和训练(1)15:17
-
视频:3-9 【模型训练】word2vec实战-模型开发和训练(2)14:33
-
视频:3-10 【激活函数】常见七种激活函数对比15:29
-
视频:3-11 【预训练语言模型】RNN-LSTM-ELMO25:49
-
视频:3-12 本章梳理小结05:06
第4章 chatGPT基石模型——基于Transformer架构的语言模型
11 节|117分钟
第5章 基于Transformer另一分支Bert系列分析与实战
16 节|211分钟
第6章 chatGPT的核心技术——强化学习
18 节|275分钟
第7章 chatGPT技术演变——从GPT 1 开始的大模型发展与演化
11 节|159分钟
第8章 RLHF训练类ChatGPT模型代码实战
19 节|311分钟
第9章 低成本微调大模型方法PEFT(LoRA等) — 训练 “ChatGLM2” 项目
16 节|240分钟
第10章 langchain+训练大模型ChatGLM2 构建“知识库问答”
5 节|75分钟
第11章 课程总结
THE END
- 最新
- 最热
只看作者