《动手学深度学习(PyTorch版)》5、卷积神经网络
<p><span style="font-size:16px;"><strong>一、背景</strong></span></p><p>在猫狗分类的例子中:假设我们有一个足够充分的照片数据集,数据集中是拥有标注的照片,每张照片具有百万级像素,这意味着网络的每次输入都有一百万个维度。 即使将隐藏层维度降低到1000,这个全连接层也将有106×103=109个参数。 想要训练这个模型将不可实现,因为需要有大量的GPU、分布式优化训练的经验和超乎常人的耐心。</p>
<p>此外,拟合如此多的参数还需要收集大量的数据。 然而,如今人类和机器都能很好地区分猫和狗:这是因为图像中本就拥有丰富的结构,而这些结构可以被人类和机器学习模型使用。 <strong><em>卷积神经网络</em></strong>(convolutional neural networks,CNN)是机器学习利用自然图像中一些已知结构的创造性方法。</p>
<p> </p>
<p><span style="font-size:16px;"><strong>二、卷积</strong></span></p>
<p>在数学中,两个函数(比如f,g:Rd→R)之间的“卷积”被定义为:</p>
<div style="text-align: left;"></div>
<p> </p>
<p><span style="font-size:16px;"><strong>三、图像卷积</strong></span></p>
<p><strong>1、互相关运算</strong></p>
<p>严格来说,卷积层是个错误的叫法,因为它所表达的运算其实是<em>互相关运算</em>(cross-correlation),而不是卷积运算。</p>
<p>输入是高度为3、宽度为3的二维张量(即形状为3×3)。卷积核的高度和宽度都是2,而卷积核窗口(或卷积窗口)的形状由内核的高度和宽度决定(即2×2)。</p>
<div style="text-align: left;"></div>
<p>输出的4个元素的计算方式如下:</p>
<p>0×0+1×1+3×2+4×3=19.</p>
<p>1×0+2×1+4×2+5×3=25.</p>
<p>3×0+4×1+6×2+7×3=37.</p>
<p>4×0+5×1+7×2+8×3=43.</p>
<p> </p>
<p><strong>2、填充</strong></p>
<p>在前面的例子中,输入的高度和宽度都为3,卷积核的高度和宽度都为2,生成的输出表征的维数为2×2。假设输入形状为nh×nw,卷积核形状为kh×kw,那么输出形状将是(nh−kh+1)×(nw−kw+1)。 因此,卷积的输出形状取决于输入形状和卷积核的形状。</p>
<p>在应用多层卷积时,我们常常丢失边缘像素。 由于我们通常使用小卷积核,因此对于任何单个卷积,我们可能只会丢失几个像素。 但随着我们应用许多连续卷积层,累积丢失的像素数就多了。 解决这个问题的简单方法即为<em>填充</em>(padding):在输入图像的边界填充元素(通常填充元素是0)。在上面的例子中,我们将3×3输入填充到5×5,那么它的输出就增加为4×4。阴影部分是第一个输出元素以及用于输出计算的输入和核张量元素: 0×0+0×1+0×2+0×3=0。</p>
<div style="text-align: left;"></div>
<p>通常,如果我们添加ph行填充(大约一半在顶部,一半在底部)和pw列填充(左侧大约一半,右侧一半),则输出形状将为(nh - kh + ph + 1) * ( nw - kw + pw + 1 )</p>
<p>卷积神经网络中卷积核的高度和宽度通常为奇数,例如1、3、5或7。 选择奇数的好处是,保持空间维度的同时,我们可以在顶部和底部填充相同数量的行,在左侧和右侧填充相同数量的列。此外,使用奇数的核大小和填充大小也提供了书写上的便利。对于任何二维张量<span style="background-color: rgb(250, 250, 250); color: rgb(56, 58, 66); font-family: "Source Code Pro", "DejaVu Sans Mono", "Ubuntu Mono", "Anonymous Pro", "Droid Sans Mono", Menlo, Monaco, Consolas, Inconsolata, Courier, monospace, "PingFang SC", "Microsoft YaHei", sans-serif; font-size: 12px;">X</span>,当满足: 1. 卷积核的大小是奇数; 2. 所有边的填充行数和列数相同; 3. 输出与输入具有相同高度和宽度 则可以得出:输出<span style="background-color: rgb(250, 250, 250); color: rgb(56, 58, 66); font-family: "Source Code Pro", "DejaVu Sans Mono", "Ubuntu Mono", "Anonymous Pro", "Droid Sans Mono", Menlo, Monaco, Consolas, Inconsolata, Courier, monospace, "PingFang SC", "Microsoft YaHei", sans-serif; font-size: 12px;">Y</span>是通过以输入<span style="background-color: rgb(250, 250, 250); color: rgb(56, 58, 66); font-family: "Source Code Pro", "DejaVu Sans Mono", "Ubuntu Mono", "Anonymous Pro", "Droid Sans Mono", Menlo, Monaco, Consolas, Inconsolata, Courier, monospace, "PingFang SC", "Microsoft YaHei", sans-serif; font-size: 12px;">X</span>为中心,与卷积核进行互相关计算得到的。</p>
<p>当卷积核的高度和宽度不同时,我们可以填充不同的高度和宽度,使输出和输入具有相同的高度和宽度。</p>
<p> </p>
<p><strong>3、 步幅</strong></p>
<p>在计算互相关时,卷积窗口从输入张量的左上角开始,向下、向右滑动。 在前面的例子中,我们默认每次滑动一个元素。 但是,有时候为了高效计算或是缩减采样次数,卷积窗口可以跳过中间位置,每次滑动多个元素。我们将每次滑动元素的数量称为<em>步幅</em>(stride)。到目前为止,我们只使用过高度或宽度为1的步幅,那么如何使用较大的步幅呢?</p>
<p>下图中是垂直步幅为3,水平步幅为2的二维互相关运算。 着色部分是输出元素以及用于输出计算的输入和内核张量元素:0×0+0×1+1×2+2×3=8、0×0+6×1+0×2+0×3=6。</p>
<p>可以看到,为了计算输出中第一列的第二个元素和第一行的第二个元素,卷积窗口分别向下滑动三行和向右滑动两列。但是,当卷积窗口继续向右滑动两列时,没有输出,因为输入元素无法填充窗口(除非我们添加另一列填充)。</p>
<div style="text-align: left;"></div>
<p> </p>
<p><strong>4、多输入通道</strong></p>
<p>前面我们的例子都是单通道的矩阵,但是实际的RGB图像都是3通道或4通道。每个RGB输入图像具有3×h×w的形状。我们将这个大小为3的轴称为<em>通道</em>(channel)维度。</p>
<p>当输入包含多个通道时,需要构造一个与输入数据具有相同输入通道数的卷积核,以便与输入数据进行互相关运算。假设输入的通道数为ci,那么卷积核的输入通道数也需要为ci。如果卷积核的窗口形状是kh×kw,那么当ci=1时,我们可以把卷积核看作形状为kh×kw的二维张量。</p>
<p>下图中,我们演示了一个具有两个输入通道的二维互相关运算的示例。阴影部分是第一个输出元素以及用于计算这个输出的输入和核张量元素:(1×1+2×2+4×3+5×4)+(0×0+1×1+3×2+4×3)=56。</p>
<div style="text-align: left;"></div>
<p> </p>
<p><span style="font-size:16px;"><strong>四、卷积神经网络</strong></span></p>
<p>本节将介绍LeNet,它是最早发布的卷积神经网络之一,因其在计算机视觉任务中的高效性能而受到广泛关注。 这个模型是由AT&T贝尔实验室的研究员Yann LeCun在1989年提出的(并以其命名),目的是识别图像 (<a href="https://zh-v2.d2l.ai/chapter_references/zreferences.html#id90" title="LeCun, Y., Bottou, L., Bengio, Y., Haffner, P., & others. (1998). Gradient-based learning applied to document recognition. Proceedings of the IEEE, 86(11), 2278–2324.">LeCun <em>et al.</em>, 1998</a>)中的手写数字。当时,LeNet取得了与支持向量机(support vector machines)性能相媲美的成果,成为监督学习的主流方法。 LeNet被广泛用于自动取款机(ATM)机中,帮助识别处理支票的数字。 时至今日,一些自动取款机仍在运行Yann LeCun和他的同事Leon Bottou在上世纪90年代写的代码呢!</p>
<p> </p>
<p><strong>1、LeNet</strong></p>
<p>总体来看,LeNet(LeNet-5)由两个部分组成:</p>
<ul>
<li>
<p>卷积编码器:由两个卷积层组成;</p>
</li>
<li>
<p>全连接层密集块:由三个全连接层组成。</p>
</li>
</ul>
<div style="text-align: left;"></div>
<p>每个卷积块中的基本单元是一个卷积层、一个sigmoid激活函数和平均汇聚层。请注意,虽然ReLU和最大汇聚层更有效,但它们在20世纪90年代还没有出现。每个卷积层使用5×5卷积核和一个sigmoid激活函数。这些层将输入映射到多个二维特征输出,通常同时增加通道的数量。第一卷积层有6个输出通道,而第二个卷积层有16个输出通道。每个2×2池操作(步幅2)通过空间下采样将维数减少4倍。卷积的输出形状由批量大小、通道数、高度、宽度决定。</p>
<p>为了将卷积块的输出传递给稠密块,我们必须在小批量中展平每个样本。换言之,我们将这个四维输入转换成全连接层所期望的二维输入。这里的二维表示的第一个维度索引小批量中的样本,第二个维度给出每个样本的平面向量表示。LeNet的稠密块有三个全连接层,分别有120、84和10个输出。因为我们在执行分类任务,所以输出层的10维对应于最后输出结果的数量。</p>
<p> </p>
<p>值得注意的是,LeNet是最早发布的卷积神经网络之一,现如今也在被广泛使用。</p>
<p> </p>
<p>经典的CNN,Wit兄,最好有代码示例咯。。。。。。。。。。。。<img height="48" src="https://bbs.eeworld.com.cn/static/editor/plugins/hkemoji/sticker/facebook/loveliness.gif" width="48" /></p>
<p>我来专业点赞<img height="48" src="https://bbs.eeworld.com.cn/static/editor/plugins/hkemoji/sticker/facebook/lol.gif" width="48" /></p>
hellokitty_bean 发表于 2024-11-1 09:44
经典的CNN,Wit兄,最好有代码示例咯。。。。。。。。。。。。
我来专业点赞
<p>最近有点忙,没有太多时间实操,尴尬了</p>
xinmeng_wit 发表于 2024-11-5 19:53
最近有点忙,没有太多时间实操,尴尬了
<p>没事。。。。。。大家都是抽空来论坛。。。。。。。。。。。。<img height="48" src="https://bbs.eeworld.com.cn/static/editor/plugins/hkemoji/sticker/facebook/loveliness.gif" width="48" /></p>
页:
[1]