动手学深度学习(PyTorch版)- 【读书活动-心得分享】第一章 引言
本帖最后由 御坂10032号 于 2024-9-2 01:51 编辑<p><span style="font-size:24px;"><b>简介</b></span></p>
<p> </p>
<p>在本书 《动手学深度学习(PyTorch版)》 第一章节主要是介绍了Machine learning 在日常生活中的应用方便。 本书将尤其介绍Deep leaning相关的知识。那么在我们开始之前,让我来先分享一些资料来自于这本图书的配套GIT仓库。仓库内带有这本书的电子版, 那么对ML感兴趣的小伙伴可以自己在这个仓库里下载PDF的版本进行阅读,而不是仅仅参加这个活动的用户。</p>
<p> </p>
<p><strong>GITHUB仓库</strong></p>
<pre>
<code class="language-cpp">https://github.com/d2l-ai/d2l-zh.git</code></pre>
<p> </p>
<p> </p>
<p>用户可以在上图的relese页面上自行下载需要的版本。 这里推荐两个PDF阅读软件, 第一个是SmartPDF(非常轻量,速度超级快,功能少, 仅仅只能标注) 第二个就是福昕阅读器(笨重)。 大家各持所需</p>
<p> </p>
<p><strong><span style="font-size:24px;">正文</span></strong></p>
<p> </p>
<p>日常生活中包含大量的ML内容, 比如说语音识别等。那么通常大家习惯了各个厂商提供的语音转换服务之后可能很少的关注具体这些技术是怎么实现的。那么在下文中就详细的介绍和说明了其实这些语音识别就是数据的标注以及训练的过程。 通过多个的程序输入参数来使用对应的训练算法,在对已经标准过的数据进行多次训练从而找到最佳参数集的过程。</p>
<p> </p>
<p> </p>
<p>抛开复杂的训练步骤而言,其实ML的主要过程就是分为<strong>输入</strong>和<strong>输出</strong>, 输入则是指大量的数据集, 那么输出则是为我们根据某些目标或者训练算法生成的特定的数据集(结果,但是不一定会是我们期望的)。 那么为什么这个输出的数据集不一定是我们所期望的呢? 是因为我们无法模型可以100%根据我们输出的数据进行预测或者是分类。 (在我上个学期学ML的时候我的老师告诉我只要一个模型的正确率能够在80%以上其实都可以被考虑为很好的模型了)</p>
<p> </p>
<p> </p>
<p> </p>
<p><strong><span style="font-size:22px;">1.2.1 数据</span></strong></p>
<p> </p>
<p>在1.2.1中主要介绍了数据的组成,根据我的理解比如说我们现在需要一个鸢尾花的数据集来预测鸢尾花的种类。 这个数据集里每一个鸢尾花都包括了花萼的长度和花瓣的长度等等。 以及它的正确的种类。 那么这些共有的种类可以被称为这个数据集的特征。</p>
<p> </p>
<p> </p>
<p>之后,文中更是强调了数据等长的概念。 下文拿了一张200* 200的图片来距离,怎么通过不同的rgb通道来进行数据处理。</p>
<p> </p>
<p></p>
<p> </p>
<p><span style="color:#e74c3c;"><strong>下文为个人理解 </strong></span>但是也并不是所有的数据都是等长的, 比如说在一个车牌的识别系统中,有些图片在训练的时候都是只有车牌图片, 比如说这样(下图所示)</p>
<p> </p>
<p> </p>
<p> </p>
<p>如果所有的图片都是这样的话,长度宽度,甚至颜色都一样的话,那么ML可以很好的处理这些信息。但是一旦有些车牌信息是还包含额外的信息,比如说(下图)还带了一辆车</p>
<p>那么,这些额外的信息就需要被裁剪,从而留下仅剩车牌的信息用于识别训练等。</p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>而对于深度学习的数据来讲,一般用于训练的数据越多,那么可能训练出来的模型就越精确(因为覆盖了大多数的维度(特征等))。</p>
<p> </p>
<p> </p>
<p> </p>
<p>让我们来接下来看下文关于数据正确性的概述。Garbage in, garbage out。下文其实着重强调了数据的正确性。 我们仍然拿鸢尾花举例,比如说我们由一个鸢尾花的数据集,我们希望对这些鸢尾花数据进行训练,使其之后可以正确的根据鸢尾花的特征来进行识别出鸢尾花的种类。但是在开始之前我们需要做大量的工作来确保我们输入的数据集是正确的,否则可能会导致训练出来的模型,错误的对鸢尾花进行分类。</p>
<p> </p>
<p> </p>
<p> </p>
<p><meta charset="UTF-8" /></p>
<p><span style="font-size:22px;">1.2.3 目标函数</span></p>
<p> </p>
<p><span style="font-size:22px;">目标函数在机器学习中主要指的是模型优劣程度的度量. (<span style="color:#c0392b;">个人理解</span>) 我在Data science的课程的时候, 根据某些输入的数据进行回归从而来进行预测. 训练的数据以及测试的数据为8:2. 错误率和平方误差在回归里比较多一点. </span></p>
<p> </p>
<p> </p>
<p> </p>
<p>至于下面的对于训练的数据集的理解是, 我们在训练的时候需要保证数据的随机性,不能说简简单单的从头部或者尾部分出来80% 和 20 % 的用于训练,而是要保证数据的随机性也就是 shuffle (按照一定的规则 或者随机). 如果训练的数据量足够大的话, 如果现在来了一个新的数据集合, 有很大可能性,两者是比较适合的, 但是也并不是绝对(比如说新加入的数据集并不存在或者之前被训练过)</p>
<p> </p>
<p> </p>
<p> </p>
<p>对于overfitting (过拟合)的解读则为,虽然你现在训练数据的正确率非常高, 每次都可以正确的预测或者是分类测试数据集,但是在实际测试的时候,表现的并不是很良好</p>
<p> </p>
<p> </p>
<p><meta charset="UTF-8" /></p>
<p><span style="font-size:22px;">1.2.4 优化算法</span></p>
<p> </p>
<p>梯度下降(gradian decent) 是在回归中非常重要的一个算法用来查找回归中的最佳拟合曲线的 换句话说就是最小化 square erroe. 我在学习吴恩达的机器学习的时候很好的理解了概念,但是由于我的数据基础比较差. 公式我看不懂. 而且代码也不会写. 希望这次能够学明白</p>
<p> </p>
<p> </p>
<p> </p>
<p><meta charset="UTF-8" /></p>
<p><span style="font-size:24px;">1.3.1 监督学习</span></p>
<p> </p>
<p>在机器学习中, 监督学习supervised learning是机器学习中的一大分类. 它总体上又包含了两个分类, 一个是回归(即通过给定的x-y的数据预测出新的x对应的y的值). 而分类则是指根据指定的数据,将数据划分为不同的种类. 比如说鸢尾数据集中,根据花瓣和花萼的不同长度识别(分类)花的各种类型</p>
<p> </p>
<p> </p>
<p> </p>
<p>机器学习在搜索方面的应用也是蛮有趣的, 就类似于在百度中进行搜索的时候, 有些尽管你的搜索的内容是一样的, 关键词也是一样的. 但是搜索结果的排序是不一样的. 这里就有机器学习的应用, 通过修改关键词或者某些内容的权重等来调整搜索的结果</p>
<p> </p>
<p> </p>
<p>在Machine learning的另一个应用便是大数据的推荐系统了, 在用户浏览网站时候, 消费的时候, 或者是点击喜欢,收藏等等, 对应的数据都可以被大数据系统收集并且用来给用户打标签,建立用户画像, 比如说你每日使用抖音 或者 b站来刷视频, 你会发现在你观看视频达到一定程度之后, 他所推荐的视频往往也是你最喜欢的时候. 当然值钱某些网站其实也有被爆出大数据杀熟的情况</p>
<p> </p>
<p> </p>
<p> </p>
<p>之后此书便介绍了其他的关于机器学习的应用方向, 比如说序列学习, 以及语音转换文字或者文字转换语音等. 由于楼主对这三个方面并没有详细的研究, 所以在这里不做过多的探究, 希望通过继续的学习可以有更深刻的理解.</p>
<p> </p>
<p> </p>
<p><meta charset="UTF-8" /></p>
<p><span style="font-size:22px;">无监督学习</span></p>
<p> </p>
<p>无监督学习的特征是指用户并不会对数据集进行干涉, 而是有ML自动的去处理数据, 发现数据之间的不同,从而进行聚类等等. (生成性分析, 因果关系,和对抗网络 , 希望在后续的章节中持续学习)</p>
<p> </p>
<p> </p>
<p> </p>
<p> </p>
<p>下图为离线学习模型</p>
<p> </p>
<p> </p>
<p> </p>
<p>这里对后文的强化学习和机器学习的起源暂时不做多余讨论和探究,希望有朝一日我也能研究到上述我没有涉及的领域.</p>
<p>老早就下过这本电子档,没有认真读过。。。。。。。。。跟着楼主也看看。。。。<img height="48" src="https://bbs.eeworld.com.cn/static/editor/plugins/hkemoji/sticker/facebook/smile.gif" width="48" /></p>
页:
[1]