-
名单暂未出来,请耐心等待!
| 如何申请
>>点击我要申请,认真填写申请理由、阅读分享计划等,即有机会免费获取书籍。
| 活动日程
申请时间:11月19日至12月9日
遴选公布:12月16日前,公布全部入围名单
阅读时间:12月17日-2月11日
颁奖时间:活动结束后两周内
| 阅读要求
收到书籍后,请在 EEWorld 嵌入式系统板块 自拟标题发表阅读心得,活动期间内,进度为至少每15天提交一篇,直到完成自己的阅读分享计划。要求100%原创首发,抄袭会被封杀哦。心得可包含:书籍内容的评价、理解、尝试书中实验过程等。
| 活动评奖
评委将对阅读心得质量、阅读计划完成度、及时性三方面进行评分。综合分=70%阅读心得质量+10%阅读计划完成度+10%及时性+10%互动性。
综合分 | 奖励 |
综合分>=90分 | 保留阅读书籍+20威望+20芯积分 |
综合分>=75分 | 保留阅读书籍+10威望+10芯积分 |
综合分<75分 | 寄回阅读书籍 |
本书详细介绍了构建大语言模型的四个主要阶段:预训练、有监督微调、奖励建模和强化学习。每个阶段都有算法、代码、数据、难点及实践经验的详细讨论。
本书以大语言模型的基础理论开篇,探讨了大语言模型预训练数据的构建方法,以及大语言模型如何理解并服从人类指令,介绍了大语言模型的应用和评估方法,为读者提供了更全面的视野。
本书旨在为对大语言模型感兴趣的读者提供入门指南,也可作为高年级本科生和研究生自然语言处理相关课程的补充教材。
目录:
第1章 绪论 1
1.1 大语言模型的基本概念 1
1.2 大语言模型的发展历程 4
1.3 大语言模型的构建流程 8
1.4 本书的内容安排 11
第2章 大语言模型基础 13
2.1 Transformer结构 13
2.1.1 嵌入表示层 14
2.1.2 注意力层 16
2.1.3 前馈层 18
2.1.4 残差连接与层归一化 19
2.1.5 编码器和解码器结构 20
2.2 生成式预训练语言模型GPT 25
2.2.1 无监督预训练 26
2.2.2 有监督下游任务微调 27
2.2.3 基于HuggingFace的预训练语言模型实践 27
2.3 大语言模型的结构 33
2.3.1 LLaMA的模型结构 34
2.3.2 注意力机制优化 40
2.4 实践思考 47
第3章 大语言模型预训练数据 49
3.1 数据来源 49
3.1.1 通用数据 50
3.1.2 专业数据 51
3.2 数据处理 52
3.2.1 质量过滤 52
3.2.2 冗余去除 53
3.2.3 隐私消除 55
3.2.4 词元切分 55
3.3 数据影响分析 61
3.3.1 数据规模 61
3.3.2 数据质量 64
3.3.3 数据多样性 66
3.4 开源数据集 68
3.4.1 Pile 68
3.4.2 ROOTS 71
3.4.3 RefinedWeb 73
3.4.4 SlimPajama 75
3.5 实践思考 79
第4章 分布式训练 80
4.1 分布式训练概述 80
4.2 分布式训练的并行策略 83
4.2.1 数据并行 84
4.2.2 模型并行 88
4.2.3 混合并行 96
4.2.4 计算设备内存优化 97
4.3 分布式训练的集群架构 102
4.3.1 高性能计算集群的典型硬件组成 102
4.3.2 参数服务器架构 103
4.3.3 去中心化架构 104
4.4 DeepSpeed实践 110
4.4.1 基础概念 112
4.4.2 LLaMA分布式训练实践 115
4.5 实践思考 127
第5章 有监督微调 128
5.1 提示学习和语境学习 128
5.1.1 提示学习 128
5.1.2 语境学习 130
5.2 高效模型微调 131
5.2.1 LoRA 131
5.2.2 LoRA的变体 135
5.3 模型上下文窗口扩展 137
5.3.1 具有外推能力的位置编码 137
5.3.2 插值法 138
5.4 指令数据的构建 141
5.4.1 手动构建指令 141
5.4.2 自动构建指令 142
5.4.3 开源指令数据集 146
5.5 DeepSpeed-Chat SFT实践 147
5.5.1 代码结构 148
5.5.2 数据预处理 151
5.5.3 自定义模型 153
5.5.4 模型训练 155
5.5.5 模型推理 156
5.6 实践思考 157
第6章 强化学习 158
6.1 基于人类反馈的强化学习 158
6.1.1 强化学习概述 159
6.1.2 强化学习与有监督学习的区别 161
6.1.3 基于人类反馈的强化学习流程 162
6.2 奖励模型 163
6.2.1 数据收集 164
6.2.2 模型训练 166
6.2.3 开源数据 167
6.3 近端策略优化 168
6.3.1 策略梯度 168
6.3.2 广义优势估计 173
6.3.3 近端策略优化算法 175
6.4 MOSS-RLHF实践 180
6.4.1 奖励模型训练 180
6.4.2 PPO微调 181
6.5 实践思考 191
第7章 大语言模型应用 193
7.1 推理规划 193
7.1.1 思维链提示 193
7.1.2 由少至多提示 196
7.2 综合应用框架 197
7.2.1 LangChain框架核心模块 198
7.2.2 知识库问答系统实践 216
7.3 智能代理 219
7.3.1 智能代理的组成 219
7.3.2 智能代理的应用实例 221
7.4 多模态大语言模型 228
7.4.1 模型架构 229
7.4.2 数据收集与训练策略 232
7.4.3 多模态能力示例 236
7.5 大语言模型推理优化 238
7.5.1 FastServe框架 241
7.5.2 vLLM推理框架实践 242
7.6 实践思考 244
第8章 大语言模型评估 245
8.1 模型评估概述 245
8.2 大语言模型评估体系 247
8.2.1 知识与能力 247
8.2.2 伦理与安全 250
8.2.3 垂直领域评估 255
8.3 大语言模型评估方法 260
8.3.1 评估指标 260
8.3.2 评估方法 267
8.4 大语言模型评估实践 274
8.4.1 基础模型评估 274
8.4.2 SFT模型和RL模型评估 277
8.5 实践思考 282
参考文献 284
索引 303
名单暂未出来,请耐心等待!
名称 | 作者 | 时间 |
赞助厂商
电子工业出版社成立于1982年10月,工业和信息化部直属的科技与教育出版社,享有“全国优秀出版社”、“讲信誉、重服务”的优秀出版社、“全国版权贸易先进单位”、首届中国出版政府奖“先进出版单位”、“全国百佳图书出版单位”、“中央国家机关文明单位”和“首都文明单位”等荣誉称号。
电子工业出版社始终秉承“为客户提供一流的知识产品及服务”的宗旨和“出精品、育品牌”的理念。形成了以图书、期刊、音像和电子出版为基本业务,以数字出版和信息内容服务、软件研发和信息化服务、教育培训与相关服务、产业促进与行业支撑服务等为增值业务的现代出版与知识服务业务结构。出版物内容涵盖了信息通信技术的各个分支以及工业技术、经济管理、科普与少儿、社科人文等领域,综合出版能力位居全国出版行业前列。
最新测评
热门测评心得
联系我们
微信号:helloeeworld
关注我们
电子工程世界 电子工程世界福利社