当前位置: 代码迷 >> 综合 >> 机器学习 | 台大林轩田机器学习基石课程笔记2 --- Learning to Answer Yes/No
  详细解决方案

机器学习 | 台大林轩田机器学习基石课程笔记2 --- Learning to Answer Yes/No

热度:37   发布时间:2024-01-15 01:04:33.0

课程主页

课程视频和PPT

上节课,我们主要简述了机器学习的定义及其重要性,并用流程图的形式介绍了机器学习的整个过程:根据模型H(对应一组假设集合,不同的模型参数取值对应不同的假设),使用演算法A,在训练样本D上进行训练,得到最好的假设h(对应一组最好的参数),其对应的函数g就是我们最后需要的机器学习的模型函数,一般g接近于目标函数f。本节课将继续深入探讨机器学习问题,介绍感知机Perceptron模型,并推导课程的第一个机器学习算法:Perceptron Learning Algorithm(PLA)。

目录

1. Perceptron Hypothesis Set

2. Perceptron Learning Algorithm(PLA)

3. Guarantee of PLA

4. Non-Separable Data

5. 总结


1. Perceptron Hypothesis Set

引入这样一个例子:某银行要根据用户的年龄、性别、年收入等情况来判断是否给该用户发信用卡。现在有训练样本D(x,y),即之前用户的信息x和是否发了信用卡y。这是一个典型的机器学习问题,我们要根据D,通过A,在H中选择最好的h,得到g,接近目标函数f,也就是根据先验知识建立是否给用户发信用卡的模型。银行用这个模型对以后用户x'进行判断:发信用卡(+1)还是不发信用卡(-1)。

在这个机器学习的整个流程中,有一个部分非常重要:就是模型选择,即Hypothesis Set(一个模型对应一个假设集,不同的模型参数取值对应不同的假设)。选择什么样的模型,很大程度上会影响机器学习的效果和表现。下面介绍一个简单常用的Hypothesis Set:感知机(Perceptron)。

还是刚才银行是否给用户发信用卡的例子,我们把用户的个人信息作为特征向量x,总共有d个特征(如年龄、性别、年收入等),每个特征赋予不同的权重w,表示该特征对输出(是否发信用卡)的影响有多大。那所有特征的加权和的值与一个设定的阈值threshold进行比较:大于这个阈值,输出为+1,即发信用卡;小于这个阈值,输出为-1,即不发信用卡。感知机模型,就是当特征加权和与阈值的差大于0,则输出h(x)=1;当特征加权和与阈值的差小于0,则输出h(x)=-1,而我们的目的就是计算出所有权值w和阈值threshold。

其中sign(x)是符号函数,当x>0时,sign(x)=1;当x<0时,sign(x)=-1;当x=0时,sign(x)=0。不考虑为0的情况。

为了计算方便,通常我们将阈值threshold当做w_0,引入x_0=1(特征向量x添加一个值为1的分量)的量与w_0相乘,这样就把threshold也转变成了权值w_0,简化了计算。h(x)的表达式做如下变换:

为了更清晰地说明感知机模型,我们假设Perceptrons在二维平面上(此时输入仅包含两个特征),即

h(x) = sign(w_0+w_1x_1+w_2x_2)。其中w_0+w_1x_1+w_2x_2=0是平面上的一条分类直线(决策边界),直线一侧是正类(+1),直线另一侧是负类(-1)。权重w不同,对应于平面上不同的直线。

那么,我们所说的Perceptron,在这个模型上就是一条直线(两个特征),称之为linear(binary) classifiers。注意一下,感知器线性分类不限定在二维空间中,在3D中,线性分类用平面表示,在更高维度中(输入特征更多时),线性分类用超平面表示,即只要是形如w^Tx的线性模型就都属于linear(binary) classifiers。

同时,需要注意的是,这里所说的linear(binary) classifiers是用简单的感知器模型建立的,线性分类问题还可以使用logistic regression来解决,后面将会介绍。

 

2. Perceptron Learning Algorithm(PLA)

根据上一部分的介绍,我们已经知道了hypothesis set由许多条直线构成(两个特征,一组参数对应一条直线)。接下来,我们的目的就是如何设计一个演算法A,来选择一个最好的直线(最好的参数),能将平面上所有的正类和负类完全分开,也就是找到最好的h,我们称它为g,使g≈f。

如何找到这样一条最好的直线呢?我们可以使用逐点修正的思想,首先在平面上随意取一条直线,看看哪些点分类错误。然后开始对第一个错误点进行修正,即变换直线的位置,使这个错误点变成分类正确的点。接着,再对第二个、第三个等所有的错误分类点进行直线纠正,直到所有的点都完全分类正确了,就得到了最好的直线。这种“逐步修正”,就是PLA思想所在。

其中(x_{n(t)},y_{n(t)})在权重向量w_t下分错的样本,t代表修正的轮数,每一轮找到D中的一个分错的样本。

下面介绍一下PLA是怎么做的。首先随机选择一条直线进行分类(随机初始化w,或者将其初始化为0)。然后找到第一个分类错误的点,如果这个点表示正类,被误分为负类,即w^T_{t}x_{n(t)}<0,说明向量w和x夹角>90度,其中w是直线的法向量。所以,x被误分在直线的下侧(相对于法向量,法向量的方向即为正类所在的一侧),修正的方法就是使w和x夹角小于90度。通常的做法是w \leftarrow w+yx,y=1.如上面右上角的图所示,一次或多次更新后的w+yx和x的夹角会小于90度,能保证x在直线的上方(法向量的方向,正类),则对误分为负类的错误点完成了直线修正。

同理,如果是误分为正类的点,即w^T_{t}x_{n(t)}>0,说明向量w和x夹角<90度,其中w是直线的法向量。所以,x被误分在直线的上侧,修正的方法就是使w和x夹角大于90度。通常的做法是w \leftarrow w+yx,y=-1.如上面右下角的图所示,一次或多次更新后的w+yx和x的夹角会小于90度,能保证x在直线的下方(法向量的反方向,负类),则对误分为正类的错误点完成了直线修正。

按照这种思想,遇到个错误点就进行修正,不断迭代。要注意一点:每次修正直线,可能使之前分类正确的点变成错误点,这是可能发生的。但是没关系,不断迭代,不断修正,最终会将所有点完全正确分类(PLA前提是线性可分的)。这种做法的思想是“知错能改”,有句话形容它:“A fault confessed is half redressed.”

实际操作中,可以一个点一个点地遍历,发现分类错误的点就进行修正,直到所有点全部分类正确。这种被称为Cyclic PLA。

下面用图解的形式来介绍PLA的修正过程:

对PLA,我们需要考虑以下两个问题:

  • PLA迭代一定会停下来吗?如果线性不可分怎么办?
  • PLA停下来的时候,能否保证f\approx g? 如果没有停下来,是否有f\approx g

 

3. Guarantee of PLA

PLA什么时候会停下来呢?根据PLA的定义,当找到一条直线,能将所有平面上的点都分类正确,那么PLA就停止了。要达到这个终止条件,就必须保证D是线性可分(linear separable)。如果是非线性可分的,那么,PLA就不会停止。

对于线性可分的情况,如果有这样一条直线,能够将正类和负类完全分开,令这时候的目标权重为w_f,那么对于每个点,必然满足y_n = sign(w^T_fx_n),即对任一点:

PLA会对每次错误的点进行修正,更新权重w_{t+1}的值,如果w_{t+1}w_{f}越来越接近,数学运算上就是内积越大,那表示w_{t+1}是在接近目标权重w_{f},证明PLA是有学习效果的。所以,我们来计算w_{t+1}w_{f}的内积:

从推导可以看出,w_{t+1}w_{f}的内积比w_{t}w_{f}的内积更大了。似乎说明了w_{t+1}更接近w_{f},但是内积更大,可能是向量长度更大了,不一定是向量间角度更小。所以,下一步,我们还需要证明w_{t+1}w_{t}向量长度的关系:

w_{t}只会在分类错误的情况下更新,最终得到的||w_{t+1}||^2相比||w_{t}||^2的增量值不超过max||x_n||^2。也就是说,w_{t}的增长被限制了,w_{t+1}w_{t}向量长度不会差距太大!

如果令初始权值w_0=0,那么经过T次错误修正后,有如下结论:

                                                        \frac{w_f}{||w_f||}\frac{w_t}{||w_t||}\geq \sqrt{T}\cdot constant

该结论的具体推导过程如下:

上述不等式左边其实是w^Tw_f夹角的余弦值,随着迭代次数T的增大,该余弦值越来越大,越来越接近1,即w^Tw_f越来越接近。同时,注意\sqrt{T}\cdot constant\leq 1,也就是说,迭代次数T是有上界的。根据以上证明,我们最终得到的结论是:w^Tw_f是随着迭代次数增加,逐渐接近的。而且,PLA最终会停下来(因为T有上界),实现对线性可分的数据集完全分类。

 

4. Non-Separable Data

上一部分,我们证明了线性可分的情况下,PLA是可以停下来并正确分类的,但对于非线性可分的情况,w_f实际上并不存在,那么之前的推导并不成立,PLA不一定会停下来。所以,PLA虽然实现简单,但也有缺点:

对于非线性可分的情况,我们可以把它当成是数据集D中掺杂了一下noise,事实上,大多数情况下我们遇到的D,都或多或少地掺杂了noise。这时,机器学习流程是这样的:

在非线性情况下,我们可以把条件放松,即不苛求每个点都分类正确,而是容忍有错误点,取错误点的个数最少时的权重w:

事实证明,上面的解是NP-hard问题,难以求解。然而,我们可以对在线性可分类型中表现很好的PLA做个修改,把它应用到非线性可分类型中,获得近似最好的g。

初始化一个口袋权重向量(\hat{w}(w_0)),和PLA差不多,每次随机从训练集D中的选择一个分错的样本,即sign(w_t^Tx_{n(t)}) \neq y_{n(t)},然后对权重向量w_t进行修正/更新得到w_{t+1};不同的是,把修正后的权重向量w_{t+1}\hat{w}进行比较,即遍历一遍训练集,看看在权重向量\hat{w}基础上,总共分错了多少样本,修正后的w_{t+1}总共分错了多少样本,如果w_{t+1}\hat{w}错误更少,则把修正后的权重向量w_{t+1}赋给\hat{w}

需要设置一个迭代次数,事实证明经过足够多的迭代次数,就可以得到一个不错的权重向量\hat{w}(对应假设函数g),分类错误比较少。

如何判断数据集D是不是线性可分?对于二维数据来说,通常还是通过肉眼观察来判断的。一般情况下,Pocket Algorithm要比PLA速度慢一些。

 

5. 总结

本节课主要介绍了线性感知机模型,以及解决这类感知机分类问题的简单算法:PLA。我们详细证明了对于线性可分问题,PLA可以停下来并实现完全正确分类。对于不是线性可分的问题,可以使用PLA的修正算法Pocket Algorithm来解决。

 

 

  相关解决方案