Honghuzaitian 发表于 2024-9-17 10:38

《深度学习》初窥门径

<div class='showpostmsg'><p>本人在三周之前收到了eeworld寄来的测评书籍《深度学习》。在工作之余进行了阅读,时值中秋,写下这篇读后感,第一阶段主要是对1-5章基础知识的阅读,对于一些基本概念进行了了解,并且对相关问题延伸做了查阅。这本书的配套很完善,异步社区对本书提供了很丰富的资料,能够帮助大家更好的入门深度学习这一领域。</p>

<p>在阅读了前五章之后,我对深度学习有了更深刻的理解,以下是我对这些章节内容的读后感。</p>

<p>首先,书中对机器学习问题的描述非常全面。作者详细解释了监督学习、无监督学习、强化学习等不同类型的机器学习问题。在监督学习中,模型通过训练数据学习到从输入到输出的映射关系,这为分类和回归问题提供了解决方案。无监督学习则在没有标签数据的情况下,通过学习数据的内在结构来发现模式,这在聚类和降维问题中尤为重要。强化学习则关注如何在环境中采取行动以最大化某种累积奖励,这在游戏、机器人等领域有着广泛的应用。</p>

<p>其次,书中强调了线性代数和微积分在深度学习中的重要性。线性代数为深度学习提供了强大的数学工具,如矩阵运算、特征值分解等,这些都是理解和实现深度学习算法的基础。微积分则涉及到梯度下降、反向传播等算法,这些算法是训练深度学习模型的关键。通过学习这些基础知识,我更加明白了深度学习模型背后的数学原理。</p>

<p>在介绍线性神经网络的回归算法时,书中详细阐述了如何使用线性代数来构建和训练模型。线性回归模型通过最小化损失函数来找到最佳的权重和偏置,从而实现对数据的预测。这一过程不仅涉及到数学推导,还包括了编程实现,让我对如何将理论知识应用到实践中有了更深的认识。</p>

<p>多层感知机(MLP)的实现是深度学习的核心内容之一。书中不仅介绍了MLP的结构,还详细讲解了如何使用暂退法(GD)和随机梯度下降(SGD)等优化算法来训练模型。暂退法是一种简单的优化方法,它通过在每次迭代中更新所有数据的权重来优化模型。而SGD则是一种更高效的优化方法,它每次只使用一个样本或一小批样本来更新权重,这大大加快了训练速度。</p>

<p>前向传播和反向传播是深度学习中的关键算法。前向传播负责计算模型的输出,而反向传播则用于计算梯度,以便更新权重。这两个过程共同构成了深度学习模型训练的基础。通过学习这些算法,我更加理解了深度学习模型是如何学习的。</p>

<p>书中还介绍了深度学习算法的参数管理,这对于提高模型性能至关重要。参数初始化、正则化、批量归一化等技术都是参数管理的重要组成部分。这些技术可以帮助模型避免过拟合,提高泛化能力。</p>

<p>自定义层的概念让我意识到深度学习框架的灵活性。通过自定义层,我们可以根据自己的需求来设计和实现特定的功能,这为深度学习的应用提供了更多的可能性。</p>

<p>总结来说,《深度学习》这本书不仅让我对深度学习的理论基础有了一定的理解,更让我对其充满了兴趣。</p>

<p>并且,我对于深度学习中损失函数相关知识进行了查阅,了解到一些常见的损失函数及其适用场景:</p>

<p><strong>均方误差损失(MSE)</strong>:适用于回归问题,计算预测值与真实值之间差值的平方和的平均值。它对大误差的惩罚更重,有助于减少极端错误,但对异常值敏感。</p>

<p><strong>平均绝对误差损失(MAE)</strong>:同样用于回归问题,计算预测值与真实值之间差异的绝对值的平均。与MSE相比,它对异常值的敏感性较低。</p>

<p><strong>交叉熵损失</strong>:常用于分类问题,尤其是多分类问题,衡量模型预测的概率分布与真实标签的概率分布之间的差异。它直接优化模型输出的概率,使模型学习产生接近真实标签的概率分布。</p>

<p><strong>Hinge损失</strong>:常用于支持向量机(SVM)等分类算法,鼓励模型对正确分类的样本产生较大的置信度。</p>

<p><strong>Huber损失</strong>:结合了MSE和MAE的优点,对异常值具有较好的鲁棒性,适用于存在异常值的回归问题。</p>

<p><strong>二元交叉熵损失(BCE)</strong>:适用于二分类问题,结合了sigmoid激活函数,优化模型输出与真实标签之间的匹配程度。</p>

<p><strong>Kullback-Leibler散度(KL散度)</strong>:用于衡量两个概率分布之间的差异,常用于生成模型,如变分自编码器(VAE)和生成对抗网络(GAN)。</p>

<p><strong>负对数似然损失(NLLLoss)</strong>:与softmax函数结合使用,适用于分类问题,通过最大化真实标签的预测概率来优化模型。</p>

<p>选择损失函数时,需要考虑问题类型、数据特性、模型性能需求以及实验和调整。</p>

<p>以上便是对于《深度学习》这本书的初窥门径了。</p>
</div><script>                                        var loginstr = '<div class="locked">查看本帖全部内容,请<a href="javascript:;"   style="color:#e60000" class="loginf">登录</a>或者<a href="https://bbs.eeworld.com.cn/member.php?mod=register_eeworld.php&action=wechat" style="color:#e60000" target="_blank">注册</a></div>';
                                       
                                        if(parseInt(discuz_uid)==0){
                                                                                                (function($){
                                                        var postHeight = getTextHeight(400);
                                                        $(".showpostmsg").html($(".showpostmsg").html());
                                                        $(".showpostmsg").after(loginstr);
                                                        $(".showpostmsg").css({height:postHeight,overflow:"hidden"});
                                                })(jQuery);
                                        }                </script><script type="text/javascript">(function(d,c){var a=d.createElement("script"),m=d.getElementsByTagName("script"),eewurl="//counter.eeworld.com.cn/pv/count/";a.src=eewurl+c;m.parentNode.insertBefore(a,m)})(document,523)</script>

hellokitty_bean 发表于 2024-9-17 14:23

<p>好风凭借力,送我入云霄。。。。。。。</p>

<p>跟着楼主也能初窥门径不????。。。。。哈哈,期待ing</p>

秦天qintian0303 发表于 2024-9-17 19:16

<p>主要是深入学习的模型不好弄啊&nbsp;&nbsp;</p>
页: [1]
查看完整版本: 《深度学习》初窥门径