往期:轻松看懂机器学习十大常用算法(第一节)
通过本篇文章可以对ML的常用算法有个常识性的认识,没有代码,没有复杂的理论推导,就是图解一下,知道这些算法是什么,它们是怎么应用的,例子主要是分类问题。
今天的算法如下:
1.SVM
2.朴素贝叶斯
3.K最近邻算法
1. SVM
support vector machine
要将两类分开,想要得到一个超平面,最优的超平面是到两类的 margin 达到最大,margin就是超平面与离它最近一点的距离,如下图,Z2>Z1,所以绿色的超平面比较好
将这个超平面表示成一个线性方程,在线上方的一类,都大于等于1,另一类小于等于-1
点到面的距离根据图中的公式计算
所以得到 total margin 的表达式如下,目标是最大化这个 margin,就需要最小化分母,于是变成了一个优化问题
举个栗子,三个点,找到最优的超平面,定义了 weight vector=(2,3)-(1,1)
得到 weight vector 为(a,2a),将两个点代入方程,代入(2,3)另其值=1,代入(1,1)另其值=-1,求解出 a 和 截矩 w0 的值,进而得到超平面的表达式。
a 求出来后,代入(a,2a)得到的就是 support vector
a 和 w0 代入超平面的方程就是 support vector machine
2. 朴素贝叶斯
举个在 NLP 的应用
给一段文字,返回情感分类,这段文字的态度是positive,还是negative
为了解决这个问题,可以只看其中的一些单词
这段文字,将仅由一些单词和它们的计数代表
原始问题是:给你一句话,它属于哪一类
通过 bayes rules 变成一个比较简单容易求得的问题
问题变成,这一类中这句话出现的概率是多少,当然,别忘了公式里的另外两个概率
栗子:单词 love 在 positive 的情况下出现的概率是 0.1,在 negative 的情况下出现的概率是 0.001
3. K最近邻
k nearest neighbours
给一个新的数据时,离它最近的 k 个点中,哪个类别多,这个数据就属于哪一类
栗子:要区分 猫 和 狗,通过 claws 和 sound 两个feature来判断的话,圆形和三角形是已知分类的了,那么这个 star 代表的是哪一类呢
k=3时,这三条线链接的点就是最近的三个点,那么圆形多一些,所以这个star就是属于猫
|