欢迎来到冰豆网! | 帮助中心 分享价值,成长自我!
冰豆网
全部分类
  • IT计算机>
  • 经管营销>
  • 医药卫生>
  • 自然科学>
  • 农林牧渔>
  • 人文社科>
  • 工程科技>
  • PPT模板>
  • 求职职场>
  • 解决方案>
  • 总结汇报>
  • 党团工作>
  • ImageVerifierCode 换一换
    首页 冰豆网 > 资源分类 > DOCX文档下载
    分享到微信 分享到微博 分享到QQ空间

    SVM原理及在人脸识别中的应用备课讲稿Word格式.docx

    • 资源ID:22872393       资源大小:77.38KB        全文页数:13页
    • 资源格式: DOCX        下载积分:12金币
    快捷下载 游客一键下载
    账号登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录 QQ登录
    二维码
    微信扫一扫登录
    下载资源需要12金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP,免费下载
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    SVM原理及在人脸识别中的应用备课讲稿Word格式.docx

    1、结构风险就是经验风险与置信风险之和(2)PPT下一页下面介绍下机器学习和推广能力机器学习就是对一种对问题真实模型的逼近 。机器学习分为传统机器学习和统计机器学习 。传统机器学习方法是把经验风险最小化作为努力的目标,但后来发现很多分类函数能够在样本集上轻易达到100%的正确率,然而用分类函数对未知样本分类时却一塌糊涂。经验风险最小化原则适用的大前提是经验风险要确实能够逼近真实风险才行,但实际上能逼近么?答案是不能,因为样本数相对于现实世界要分类的文本数来说简直九牛一毛,经验风险最小化原则只在这占很小比例的样本上做到没有误差,当然不能保证在更大比例的真实文本上也没有误差。所以传统的机器学习基本上属

    2、于摸着石头过河,用传统的机器学习方法构造分类系统完全成了一种技巧,一个人做的结果可能很好,另一个人差不多的方法做出来却很差,缺乏指导和原则。统计统计机器学习目标是从经验风险最小化变为了寻求经验风险与置信风险的和最小而推广能力就是,用已知样本得到的一个分类器,在其他未知样本分类时候也能获得很好的正确率。(3)PPT下一页SVM基础大家可以看上图,我们要区分C1和C2 这两类,红色的曲线可以区分出来,但是用线性函数进行区分是最简单也很有效的. 我将用一个二维空间里仅有两类样本的分类问题来举例,来说明SVM的形成思路与核心概念何为线性可分与线性不可分 ,C1和C2是要区分的两个类别,如图所示。中间的

    3、直线就是一个分类函数,它可以将两类样本完全分开。一般的,如果一个线性函数能够将样本完全正确的分开,就称这些数据是线性可分的,否则称为非线性可分的。线性函数在一维空间里就是一个点,在二维空间里就是一条直线,三维空间里就是一个平面,如此想象下去,如果不关注空间的维数,这种线性函数一个统一的名称即为超平面下面我们要区分C1,C2可以得到得到一个线性函数 g(x)=wx+b 如取阈值为0,当有一个样本xi需要判别的时候。若g(xi)0,就判别为类别C1,若g(xi)0,而yi=1也大于0;若不属于该类别的话,那么wxi+b0,而yi也小于0,这意味着i总是大于0的,而且它的值就等于|wxi+b| 现在

    4、把w和b进行一下归一化,即用w/|w|和b/|w|分别代替原来的w和b,那么间隔就可以写成 对于2维,|w|就是2-范数。当不是2维空间时候,w就是n范数之所以如此关心几何间隔,是因为几何间隔越大,误差上界越小,置信风险越小。因为支持向量机是要求结构风险最小,那么就是经验风险和置信风险越小越好。所以我们希望几何间隔越大越好。(6)PPT下一页如图,展示出了几何间隔的现实含义, H是分类面就是g(x)=0,而H1和H2是平行于H,H1与H,H2与H之间的距离就是几何间隔。要求几何间隔最大就是右边公式 中最大。而我们常用的方法并不是固定|w|的大小而寻求最大几何间隔,而是固定几何间隔,例如固定几何

    5、间隔为1,寻找最小的|w|。得到目标函数就是:这个式子和求min|w|是等价的,用此形式只是之后推导计算方便如果直接来解这个求最小值问题,很容易看出当|w|=0的时候就得到了目标函数的最小值。但,无论你给什么样的数据,都是这个解!反映在图中,就是H1与H2两条直线间的距离无限大,这个时候,所有的样本点都跑到了H1和H2中间,没有将C1和C2类区分出来。所以我要加入约束条件来,之前提到过将几何距离固定为1,这是指把所有样本点中间隔最小的那一点的间隔定为1,也就意味着集合中的其他点间隔都不会小于1,按照间隔的定义,满足这些条件就相当于让下面的式子总是成立:yi(wxi)+b1 (i=1,2,n)

    6、(n是总的样本数) 这样我们的两类样本分类问题也被我们转化成了它的数学形式,一个带约束的最小值的问题:(7)PPT下一页几何间隔告诉了我们如何在g(x)=wx+b中选择一个最好的。但是我们还要知道如何求出一个g(x)=wx+b。后面这个为内积形式求这样的g(x)的过程就是求w(一个n维向量)和b(一个实数)两个参数的过程,但实际上只需要求w,求得以后找某些样本点代入就可以求得b。因此在求g(x)的时候,w才是变量。一旦求出了w,那么中间的直线H就知道了,因为它就是wx+b=0,H,H1,H2平行,间隔|w|,则H1和H2可以求的。那么w是谁决定的?显然是你给的样本决定的,一旦你在空间中给出了那

    7、些个样本点,三条直线的位置实际上就唯一确定了,因为我们求的是最优的那三条,当然是唯一的样本确定了w,用数学的语言描述,就是w可以表示为样本的某种组合:w=1x1+2x2+nxn式子中的i是拉格朗日乘子,而xi是样本点,是向量,n就是总样本点的个数。但是(1)式还不够好,并不能表示样本的全部信息,我们看图,如果把其中一个正样本点定为负样本点,就是把一个圆形变为方形三条直线都必须移动。这说明w不仅跟样本点的位置有关,还跟样本的类别有关。因此用带有标记的w式子才完整w=1y1x1+2y2x2+nynxn 其中的yi就是第i个样本的标签,它等于1或者-1。 我们来看这个w的等式,式的那一堆拉格朗日乘子

    8、中,只有很少的一部分不等于0,不等于0才对w起决定作用,这部分不等于0的拉格朗日乘子后面所乘的样本点,都落在H1和H2上,也正是这部分样本唯一的确定了分类函数,当然,更严格的说,这些样本的一部分就可以确定,因为例如要确定H1这条直线,只需要两个点就可以,即便有三五个都落在H1上面。这部分我们真正需要的样本点,就叫做支持(撑)向量!形象的理解为,“撑”起了分界线的样本。将w用求和符号简写一下:g(x)表达式可以写为:注意式子中x才是变量,也就是你要分类哪篇文档,就把该文档的向量表示代入到 x的位置,而所有的xi统统都是已知的样本。式子中只有xi和x是向量,所以可以表示为后面的式子。之所以表示为(

    9、1)式形式,是因为以这样的形式描述问题以后,我们的优化问题少了很大一部分不等式约束。我们先不讨论这个等式如何求解,先讲解下支持向量机的最重要的部分核函数和松弛变量(7)PPT下一页核函数之前一直在讨论的线性分类器,只能对线性可分的样本做处理。如果提供的样本线性不可分,结果很简单,线性分类器的求解程序会无限循环,永远也解不出来。这必然使得它的适用范围大大缩小,而它的很多优点我们实在不原意放弃,怎么办呢?有,其思想很简单,还是用二维平面中的分类问题作例子。左边的我们把横轴上红色部分里的所有点定为正类,两边的黑色部分里的点定为负类。试问能找到一个线性函数把两类正确分开么?在二维空间里的线性函数就是指

    10、直线,显然找不到能将两者分开的直线。我们可以找到一条曲线将二者区分开,通过判断点在这条曲线的上方还是下方就可以判断点所属的类别。得到曲线为,问题只是它不是一个线性函数,但是新建一个向量y和a,然后把y和a分别回带一下,得到g(x)=f(y)=ay。在任意维度的空间中,这种形式的函数都是一个线性函数,只不过其中的a和y都是多维向量罢了。这样原来在二维空间中一个线性不可分的问题,映射到四维空间后,变成了线性可分的!因此这也形成了我们最初想解决线性不可分问题的基本思路向高维空间转化,使其变得线性可分。(7) PPT下一页将低维空间线性不可分的映射到的高维空间的到的线性可分的线性函数为 f(x)=+b

    11、 其中:x是经由x变换来的, w是经由w变换来的 计算高维空间向量x与向量w的内积,再把这个内积的值和b相加,就得到了结果,看结果大于阈值还是小于阈值就得到了分类结果。但是x到x, w到w的映射关系很难找到。但是我们发现我们可以只关心那个高维空间里内积的值,如果内积值算出来了,分类结果就算出来了。这就让我们幻想,是否能有这样一种函数K(w,x),他接受低维空间的输入值,却能算出高维空间的内积值?如果存在K(w,x),那么当给了一个低维空间数据,g(x)=K(w,x)+b+b这两个函数的计算结果就完全一样,我们可直接拿低维的输入往g(x)里面代就可以了。万幸的是,这样的K(w,x)确实存在,它被

    12、称作核函数,而且还不止一个。(8) PPT下一页核函数的基本作用就是接受两个低维空间里的向量,能够计算出经过某个变换后在高维空间里的向量内积值。之前我们经过化简得到一个线性表示现在这个就是高维空间里的线性函数,我们就可以用一个低维空间里的函数来代替,之前有介绍核函数是输入低纬数据之间计算出高维空间的内积值得到,低纬空间的代替函数可以看到g(x) 和g(x)里的,y,b全都是一样的!这就是说,尽管给的问题是线性不可分的,但是我们就硬当它是线性问题来求解,只不过求解过程中,凡是要求内积的时候就用你选定的核函数来算。这样求出来的再和你选定的核函数一组合,就得到分类器。PPT下一页根据上面的核函数介绍

    13、会想到下面两个问题1 既然有很多的核函数,针对具体问题该怎么选择?2 如果使用核函数向高维空间映射后,问题仍然是线性不可分的,那怎么办?第一个,对核函数的选择,现在还缺乏指导原则!各种实验的观察结果表明,某些问题用某些核函数效果很好,用另一些就很差,但是一般来讲,径向基核函数是不会出太大偏差的一种,首选。这里我们不讨论径向基核函数具体实现形式是什么样子,只要知道他是一个较好实现输入低维空间数据得到高维空间内积的函数。第二个问题的解决则引出了我们下一节的主题:松弛变量。(10)PPT下一页如图所示,在分类过程中出现图中情况,就是图中黄色那个点,它是方形的,因而它是负类的一个样本,这单独的一个样本

    14、,使得原本线性可分的问题变成了线性不可分的。以我们人类的常识来判断,说有一万个点都符合某种线性可分的规律,有一个点不符合,其实我们会觉得,这个样本点压根就是错误,是噪声,而不是我们分类方法有问题。所以我们会简单的忽略这个样本点,仍然使用原来的分类器,其效果丝毫不受影响。为了使我们的约束条件也有这种对噪声的容错性,我们将原来的约束条件右边的阈值1增加一个松弛变量,如下: 因为松弛变量是非负的,因此最终的结果是要求间隔可以比1小。但是当某些点出现这种间隔比1小的情况时(这些点也叫离群点),意味着我们放弃了对这些点的精确分类,而这对我们的分类器来说是种损失。但是放弃这些点也带来了好处,那就是使分类面

    15、不必向这些点的方向移动,因而可以得到更大的几何间隔。显然我们必须权衡这种损失和好处。回顾下我们原始的优化问题|w|2就是我们的目标函数,希望它越小越好,我们引入松弛变量带来的损失就必然是一个能使之变大的量,能使它变小就不叫损失了,因为我们本来就希望目标函数值越小越好。(11)PPT下一页 我们如何来衡量松弛变量给目标函数带来的损失呢?常用kesai平方求和或者kesai求和来衡量,n为样本数目,这两个没有本质区别。如果选择了(1)式,得到的方法的就叫做二阶软间隔分类器,(2)式就叫做一阶软间隔分类器。 我先解释下什么叫软间隔,我们看约束条件右边是我们给的一个固定的阈值1,我们称这个为 “硬间隔

    16、”分类法,因为他硬性的要求所有样本点都满足和分类平面间的距离必须大于某个值。而带有松弛变量的(2)式,就属于软间隔分类方法把损失加入到目标函数里的时候,就需要一个惩罚因子Ci,原来的优化问题就变成了下面这样:对这个式子有这么几点要注意:一是并非所有的样本点都有一个松弛变量与其对应。实际上只有“离群点”才有,或者也可以这么看,所有没离群的点松弛变量都等于0。二是松弛变量的值实际上标示出了对应的点到底离群有多远,值越大,点就越远。三是惩罚因子Ci决定了你有多重视离群点带来的损失,显然当所有离群点的松弛变量的和一定时,你定的C越大,对目标函数的损失也越大,此时就暗示着你非常不愿意放弃这些离群点,最极

    17、端的情况是你把C定为无限大,这样只要稍有一个点离群,目标函数的值马上变成无限大,马上让问题变成无解,这就退化成了硬间隔问题。四是惩罚因子C不是一个变量,整个优化问题在解的时候,C是一个你必须事先指定的值,指定这个值以后,解一下,得到一个分类器,然后用测试数据看看结果怎么样,如果不够好,换一个C的值,再解一次优化问题,得到另一个分类器,再看看效果,如此就是一个参数寻优的过程。至此一个比较完整的支持向量机框架就有了,简单说来,支持向量机就是使用了核函数的软间隔线性分类法。最后,我要说的是,虽然我是以两类样本进行分类来介绍SVM的原理,其实SVM是可以用到多类样本分类的。(11)PPT下一页总结最后

    18、,我来总结下我所讲。我们的问题是要想办法分类C1,C2。因为线性分类器最简单最高效,所以我们用线性函数对其分类,但是,有很多线性函数,我们利用几何间隔选取最优的线性函数如果C1,C2不是线性可分的。我们利用核函数将2维的数据转换为更高维空间,使其变成线性可分数据。如果出现少量离群点导致数据不可分,我们利用松弛变量将离群点舍去使得数据再次变成线性可分的下面我们来讲解下支持向量机的应用,因为已经理解支持向量机是一种线性分类方法。辨别图片以区别人脸和猴脸为例说明下支持向量机在其中的应用。比如我们有100张人脸照片用A表示和100张猴脸照片用B表示。其中我们把前80张人脸和80张猴脸图片作为训练图片。

    19、剩余的20张人脸和20张猴脸作为测试图片。训练图片和测试图片具体选多少没有规定,但是测试图片和训练图片都是已知样本数据。区别是猴脸还是人脸要对图片的特征信息进行提取,我们不考虑如何提取到的特征信息,只是特征信息都是用同一种方法提取并且得到的维数相同。我们用相同的方法,将训练图片和测试图片全部进行特征提取并组成一个大矩阵 H和H,矩阵每一行代表每一个样本,每一列代表每个样本的一个特征值,H前80行代表人脸数据,后80行代表猴脸数据。后面的数字1,2是一种标记,1表示图片是人脸,2表示图片是猴脸我们将训练图片H矩阵利用支持向量机进行分类,我们不在细究是利用了什么核函数,松弛变量是怎么选择,总之,我

    20、们认为计算机已经训练好了,已经有了一个分类的线性函数,能够将猴脸和人脸区分出来。然后将测试图片H,用这个分类函数进行分类。会得到分类函数对测试图片的分类结果矩阵S,比如,有两个分类错误了,A的第100张图片本来应该是人脸,但是这个分类函数把他分成了猴脸,B的第80张图应该是猴脸缺分成了人脸。这样就可以计算下当前分类函数的分类准确率。38/40=95%.。如果比较低则,再重新将H重新输入到SVM中重新训练。如果准确率可以,则选用当前分类函数为最终的分类函数,这样当给了一张新的图片,就可以用当前分类函数对新图片进行人脸还是猴脸的辨别了。2 www。cer。net/artide/2003082213

    21、089728。shtml。4、宏观营销环境分析(四)DIY手工艺品的“个性化”随科技的迅速发展,人们的生活日益趋向便捷、快速,方便,对于我国传统的手工艺制作,也很少有人问津,因此,我组想借此创业机会,在校园内开个DIY创意小屋。它包括编织、刺绣、串珠等,让我们传统的手工制作也能走进大学,丰富我们的生活。(二)大学生对DIY手工艺品消费态度分析调研提纲:一、 消费者分析(3)优惠多手工艺品,它运用不同的材料,通过不同的方式,经过自己亲手动手制作。看着自己亲自完成的作品时,感觉很不同哦。不论是01年的丝带编织风铃,02年的管织幸运星,03年的十字绣,04年的星座手链,还是今年风靡一时的针织围巾等这些手工艺品都是陪伴女生长大的象征。为此,这些多样化的作品制作对我们这一创业项目的今后的操作具有很大的启发作用。公司成功地创造了这样一种气氛:商店和顾客不再是单纯的买卖关系,营业员只是起着参谋的作用,顾客成为商品或者说是作品的作参与者,营业员和顾客互相交流切磋,成为一个共同的创作体


    注意事项

    本文(SVM原理及在人脸识别中的应用备课讲稿Word格式.docx)为本站会员主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    copyright@ 2008-2022 冰点文档网站版权所有

    经营许可证编号:鄂ICP备2022015515号-1

    收起
    展开