EEWORLD社区 发表于 2024-8-6 16:30

免费申请: 《动手学深度学习(PyTorch版)》,配套视频、源码等

<p><strong>本书是《动手学深度学习》的升级版本,选用经典的PyTorch深度学习框架,并针对技术的发展,新增注意力机制、预训练等内容。</strong>本书包含15章,第一部分介绍深度学习的基础知识和预备知识,并由线性模型引出最简单的神经网络&mdash;&mdash;多层感知机;第二部分阐述深度学习计算的关键组件、卷积神经网络、循环神经网络、注意力机制等大多数现代深度学习应用背后的基本工具;第三部分讨论深度学习中常用的优化算法和影响深度学习计算性能的重要因素,并分别列举深度学习在计算机视觉和自然语言处理中的重要应用。<strong>本书同时覆盖深度学习的方法和实践,</strong>主要面向在校大学生、技术人员和研究人员。阅读本书需要读者了解基本的Python编程知识及预备知识中描述的线性代数、微分和概率等基础知识。</p>

<p><img _height="434" border="0" src="https://bbs.eeworld.com.cn/data/attachment/forum/202408/02/161707z66ap5pkhmzfhgfl.png" width="300" /></p>

<p style="background:rgb(255,255,255)"><strong>如何申请</strong></p>

<p style="background:rgb(255,255,255)">(1)往下滑到&ldquo;产品资料&rdquo;介绍,可进一步了解书籍内容,章节设置;</p>

<p style="background:rgb(255,255,255)">(2)<a href="https://bbs.eeworld.com.cn/elecplay/apply/380" target="_self">&gt;&gt;点击我要申请</a>,认真填写申请理由、阅读分享计划等,即有机会免费获取书籍<strong>(共10本)</strong>。本期活动有1个名额可使用测评券,先用先得。</p>

<p style="background:rgb(255,255,255)">&nbsp;</p>

<p style="background:rgb(255,255,255)"><strong>活动日程</strong></p>

<p style="background:rgb(255,255,255)">申请时间:8月2日至8月20日<br />
遴选公布:8月23日前,公布全部入围名单<br />
阅读时间:8月30日-11月10日<br />
颁奖时间:活动结束后两周内</p>

<p style="background:rgb(255,255,255)"><strong>&nbsp;</strong></p>

<p style="background:rgb(255,255,255)"><strong>阅读要求</strong></p>

<p style="background:rgb(255,255,255)">(1)收到书籍后,请在EEWorld <a href="https://bbs.eeworld.com.cn/forum-15-1.html" style="font-size: 14px; text-decoration: underline;" target="_self">测评中心专版</a>自拟标题发表阅读心得,活动期间内,<strong>完成您提交的阅读分享计划,至少分享3篇具有实质性内容的心得</strong>,进度为至少每15天提交一篇,要求100%原创首发,抄袭会被封杀哦。心得可包含:书籍内容的评价、理解、尝试书中实验过程等;</p>

<p style="background:rgb(255,255,255)">(2)发起#没读懂#、#聊一聊#讨论:每个网友在阅读过程中,可根据自己的阅读理解的情况,发起#没读懂#或者#聊一聊#+自拟主题的讨论帖,每个有实质讨论的帖子,视讨论内容和热度情况,可酌情加2~10分,此部分分值,最多可加到20分。</p>

<p style="background:rgb(255,255,255)">&nbsp;</p>

<p style="background:rgb(255,255,255)"><strong>产品资料</strong></p>

<p style="background:rgb(255,255,255)"><img _height="15534" border="0" src="https://bbs.eeworld.com.cn/data/attachment/elecplay/upload/image/20240802/1722584382800274.jpg" width="790" /></p>

<p><strong>目录</strong></p>

<p>对本书的赞誉</p>

<p>前言</p>

<p>译者简介</p>

<p>学习环境配置</p>

<p>资源与支持</p>

<p>主要符号表</p>

<p>第 1章 引言 1</p>

<p>1.1 日常生活中的机器学习 2</p>

<p>1.2 机器学习中的关键组件 3</p>

<p>1.2.1 数据 3</p>

<p>1.2.2 模型 4</p>

<p>1.2.3 目标函数 4</p>

<p>1.2.4 优化算法 5</p>

<p>1.3 各种机器学习问题 5</p>

<p>1.3.1 监督学习 5</p>

<p>1.3.2 无监督学习 11</p>

<p>1.3.3 与环境互动 11</p>

<p>1.3.4 强化学习 12</p>

<p>1.4 起源 13</p>

<p>1.5 深度学习的发展 15</p>

<p>1.6 深度学习的成功案例 16</p>

<p>1.7 特点 17</p>

<p>第 2章 预备知识 20</p>

<p>2.1 数据操作 20</p>

<p>2.1.1 入门 21</p>

<p>2.1.2 运算符 22</p>

<p>2.1.3 广播机制 23</p>

<p>2.1.4 索引和切片 24</p>

<p>2.1.5 节省内存 24</p>

<p>2.1.6 转换为其他Python对象 25</p>

<p>2.2 数据预处理 26</p>

<p>2.2.1 读取数据集 26</p>

<p>2.2.2 处理缺失值 26</p>

<p>2.2.3 转换为张量格式 27</p>

<p>2.3 线性代数 27</p>

<p>2.3.1 标量 28</p>

<p>2.3.2 向量 28</p>

<p>2.3.3 矩阵 29</p>

<p>2.3.4 张量 30</p>

<p>2.3.5 张量算法的基本性质 31</p>

<p>2.3.6 降维 32</p>

<p>2.3.7 点积 33</p>

<p>2.3.8 矩阵-向量积 33</p>

<p>2.3.9 矩阵-矩阵乘法 34</p>

<p>2.3.10 范数 35</p>

<p>2.3.11 关于线性代数的更多信息 36</p>

<p>2.4 微积分 37</p>

<p>2.4.1 导数和微分 37</p>

<p>2.4.2 偏导数 40</p>

<p>2.4.3 梯度 41</p>

<p>2.4.4 链式法则 41</p>

<p>2.5 自动微分 42</p>

<p>2.5.1 一个简单的例子 42</p>

<p>2.5.2 非标量变量的反向传播 43</p>

<p>2.5.3 分离计算 43</p>

<p>2.5.4 Python控制流的梯度计算 44</p>

<p>2.6 概率 44</p>

<p>2.6.1 基本概率论 45</p>

<p>2.6.2 处理多个随机变量 48</p>

<p>2.6.3 期望和方差 50</p>

<p>2.7 查阅文档 51</p>

<p>2.7.1 查找模块中的所有函数和类 51</p>

<p>2.7.2 查找特定函数和类的用法 52</p>

<p>第3章 线性神经网络 54</p>

<p>3.1 线性回归 54</p>

<p>3.1.1 线性回归的基本元素 54</p>

<p>3.1.2 向量化加速 57</p>

<p>3.1.3 正态分布与平方损失 58</p>

<p>3.1.4 从线性回归到深度网络 60</p>

<p>3.2 线性回归的从零开始实现 61</p>

<p>3.2.1 生成数据集 62</p>

<p>3.2.2 读取数据集 63</p>

<p>3.2.3 初始化模型参数 63</p>

<p>3.2.4 定义模型 64</p>

<p>3.2.5 定义损失函数 64</p>

<p>3.2.6 定义优化算法 64</p>

<p>3.2.7 训练 64</p>

<p>3.3 线性回归的简洁实现 66</p>

<p>3.3.1 生成数据集 66</p>

<p>3.3.2 读取数据集 66</p>

<p>3.3.3 定义模型 67</p>

<p>3.3.4 初始化模型参数 67</p>

<p>3.3.5 定义损失函数 68</p>

<p>3.3.6 定义优化算法 68</p>

<p>3.3.7 训练 68</p>

<p>3.4 softmax回归 69</p>

<p>3.4.1 分类问题 69</p>

<p>3.4.2 网络架构 70</p>

<p>3.4.3 全连接层的参数开销 70</p>

<p>3.4.4 softmax运算 71</p>

<p>3.4.5 小批量样本的向量化 71</p>

<p>3.4.6 损失函数 72</p>

<p>3.4.7 信息论基础 73</p>

<p>3.4.8 模型预测和评估 74</p>

<p>3.5 图像分类数据集 74</p>

<p>3.5.1 读取数据集 75</p>

<p>3.5.2 读取小批量 76</p>

<p>3.5.3 整合所有组件 76</p>

<p>3.6 softmax回归的从零开始实现 77</p>

<p>3.6.1 初始化模型参数 77</p>

<p>3.6.2 定义softmax操作 78</p>

<p>3.6.3 定义模型 78</p>

<p>3.6.4 定义损失函数 79</p>

<p>3.6.5 分类精度 79</p>

<p>3.6.6 训练 80</p>

<p>3.6.7 预测 82</p>

<p>3.7 softmax回归的简洁实现 83</p>

<p>3.7.1 初始化模型参数 83</p>

<p>3.7.2 重新审视softmax的实现 84</p>

<p>3.7.3 优化算法 84</p>

<p>3.7.4 训练 84</p>

<p>第4章 多层感知机 86</p>

<p>4.1 多层感知机 86</p>

<p>4.2 多层感知机的从零开始实现 92</p>

<p>4.3 多层感知机的简洁实现 94</p>

<p>模型 94</p>

<p>4.4 模型选择、欠拟合和过拟合 95</p>

<p>4.5 权重衰减 103</p>

<p>4.6 暂退法 108</p>

<p>4.7 前向传播、反向传播和计算图 112</p>

<p>4.8 数值稳定性和模型初始化 115</p>

<p>4.9 环境和分布偏移 119</p>

<p>4.10 实战Kaggle比赛:预测房价 127</p>

<p>第5章 深度学习计算 136</p>

<p>5.1 层和块 136</p>

<p>5.2 参数管理 141</p>

<p>5.3 延后初始化 145</p>

<p>实例化网络 146</p>

<p>5.4 自定义层 146</p>

<p>5.5 读写文件 148</p>

<p>5.6 GPU 150</p>

<p>第6章 卷积神经网络 155</p>

<p>6.1 从全连接层到卷积 155</p>

<p>6.2 图像卷积 159</p>

<p>6.3 填充和步幅 164</p>

<p>6.4 多输入多输出通道 166</p>

<p>6.5 汇聚层 170</p>

<p>6.6 卷积神经网络(LeNet) 173</p>

<p>第7章 现代卷积神经网络 178</p>

<p>7.1 深度卷积神经网络(AlexNet) 178</p>

<p>7.2 使用块的网络(VGG) 184</p>

<p>7.3 网络中的网络(NiN) 187</p>

<p>7.4 含并行连接的网络(GoogLeNet) 190</p>

<p>7.5 批量规范化 194</p>

<p>7.6 残差网络(ResNet) 200</p>

<p>7.7 稠密连接网络(DenseNet) 205</p>

<p>第8章 循环神经网络 209</p>

<p>8.1 序列模型 209</p>

<p>8.2 文本预处理 216</p>

<p>8.3 语言模型和数据集 219</p>

<p>8.4 循环神经网络 226</p>

<p>8.5 循环神经网络的从零开始实现 230</p>

<p>8.6 循环神经网络的简洁实现 237</p>

<p>8.7 通过时间反向传播 239</p>

<p>第9章 现代循环神经网络 244</p>

<p>9.1 门控循环单元(GRU) 244</p>

<p>9.2 长短期记忆网络(LSTM) 249</p>

<p>9.3 深度循环神经网络 254</p>

<p>9.4 双向循环神经网络 256</p>

<p>9.5 机器翻译与数据集 260</p>

<p>9.6 编码器-解码器架构 265</p>

<p>9.7 序列到序列学习(seq2seq) 267</p>

<p>9.8 束搜索 275</p>

<p>第 10章 注意力机制 278</p>

<p>10.1 注意力提示 278</p>

<p>10.2 注意力汇聚:Nadaraya-Watson 核回归 281</p>

<p>10.3 注意力评分函数 287</p>

<p>10.4 Bahdanau 注意力 291</p>

<p>10.5 多头注意力 295</p>

<p>10.6 自注意力和位置编码 298</p>

<p>10.7 Transformer 302</p>

<p>第 11章 优化算法 311</p>

<p>11.1 优化和深度学习 311</p>

<p>11.2 凸性 315</p>

<p>11.3 梯度下降 322</p>

<p>11.4 随机梯度下降 329</p>

<p>11.5 小批量随机梯度下降 334</p>

<p>11.6 动量法 341</p>

<p>11.7 AdaGrad算法 348</p>

<p>11.8 RMSProp算法 353</p>

<p>11.9 Adadelta算法 356</p>

<p>11.10 Adam算法 358</p>

<p>11.11 学习率调度器 361</p>

<p>第 12章 计算性能 369</p>

<p>12.1 编译器和解释器 369</p>

<p>12.2 异步计算 372</p>

<p>通过后端异步处理 373</p>

<p>12.3 自动并行 375</p>

<p>12.4 硬件 378</p>

<p>12.5 多GPU训练 388</p>

<p>12.6 多GPU的简洁实现 394</p>

<p>12.7 参数服务器 397</p>

<p>第 13章 计算机视觉 404</p>

<p>13.1 图像增广 404</p>

<p>13.2 微调 410</p>

<p>13.3 目标检测和边界框 415</p>

<p>13.4 锚框 417</p>

<p>13.5 多尺度目标检测 427</p>

<p>13.6 目标检测数据集 430</p>

<p>13.7 单发多框检测(SSD) 433</p>

<p>13.8 区域卷积神经网络(R-CNN)系列 441</p>

<p>13.9 语义分割和数据集 445</p>

<p>13.10 转置卷积 450</p>

<p>13.11 全卷积网络 453</p>

<p>13.12 风格迁移 458</p>

<p>13.13 实战 Kaggle竞赛:图像分类(CIFAR-10) 464</p>

<p>13.14 实战Kaggle竞赛:狗的品种识别(ImageNet Dogs) 470</p>

<p>第 14章 自然语言处理:预训练 476</p>

<p>14.1 词嵌入(word2vec) 477</p>

<p>14.2 近似训练 480</p>

<p>14.3 用于预训练词嵌入的数据集 482</p>

<p>14.4 预训练word2vec 488</p>

<p>14.5 全局向量的词嵌入(GloVe) 491</p>

<p>14.6 子词嵌入 494</p>

<p>14.7 词的相似度和类比任务 497</p>

<p>14.8 来自Transformer的双向编码器表示(BERT) 500</p>

<p>14.9 用于预训练BERT的数据集 507</p>

<p>14.10 预训练BERT 512</p>

<p>第 15章 自然语言处理:应用 515</p>

<p>15.1 情感分析及数据集 516</p>

<p>15.2 情感分析:使用循环神经网络 518</p>

<p>15.3 情感分析:使用卷积神经网络 521</p>

<p>15.4 自然语言推断与数据集 526</p>

<p>15.5 自然语言推断:使用注意力 530</p>

<p>15.6 针对序列级和词元级应用微调BERT 535</p>

<p>15.7 自然语言推断:微调BERT 538</p>

<p>附录A 深度学习工具 543</p>

<p>A.1 使用Jupyter记事本 543</p>

<p>A.1.1 在本地编辑和运行代码 543</p>

<p>A.1.2 高级选项 545</p>

<p>A.2 使用Amazon SageMaker 546</p>

<p>A.2.1 注册 547</p>

<p>A.2.2 创建SageMaker实例 547</p>

<p>A.2.3 运行和停止实例 548</p>

<p>A.2.4 更新Notebook 548</p>

<p>A.3 使用Amazon EC2实例 549</p>

<p>A.3.1 创建和运行EC2实例 549</p>

<p>A.3.2 安装CUDA 553</p>

<p>A.3.3 安装库以运行代码 553</p>

<p>A.3.4 远程运行Jupyter记事本 554</p>

<p>A.3.5 关闭未使用的实例 554</p>

<p>A.4 选择服务器和GPU 555</p>

<p>A.4.1 选择服务器 555</p>

<p>A.4.2 选择GPU 556</p>

<p>A.5 为本书做贡献 558</p>

<p>A.5.1 提交微小更改 558</p>

<p>A.5.2 大量文本或代码修改 559</p>

<p>A.5.3 提交主要更改 559</p>

<p>参考文献 562</p>

<p style="background:rgb(255,255,255)">&nbsp;</p>

xinmeng_wit 发表于 2024-8-6 20:27

<p>这是本好书啊 ,搞起来</p>
页: [1]
查看完整版本: 免费申请: 《动手学深度学习(PyTorch版)》,配套视频、源码等