欢迎来到冰豆网! | 帮助中心 分享价值,成长自我!
冰豆网
全部分类
  • IT计算机>
  • 经管营销>
  • 医药卫生>
  • 自然科学>
  • 农林牧渔>
  • 人文社科>
  • 工程科技>
  • PPT模板>
  • 求职职场>
  • 解决方案>
  • 总结汇报>
  • 党团工作>
  • ImageVerifierCode 换一换
    首页 冰豆网 > 资源分类 > DOCX文档下载
    分享到微信 分享到微博 分享到QQ空间

    LSSVMmatlab文档格式.docx

    • 资源ID:16707362       资源大小:502.26KB        全文页数:27页
    • 资源格式: DOCX        下载积分:12金币
    快捷下载 游客一键下载
    账号登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录 QQ登录
    二维码
    微信扫一扫登录
    下载资源需要12金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP,免费下载
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    LSSVMmatlab文档格式.docx

    1、目前LS- SVMlab工具箱用户指南包含了大量MATALAB中LS - SVM算法的实现,其中涉及分类,回归,时间序列预测和无监督学习。所有的功能都已经用Matlab从R2008a,R2008b,R2009a测试,工具箱中参考命令都以打印字体书写。LS SVMlab主页:http:/www.esat.kuleuven.be/sista/lssvmlab/第二章LS-SVMlab 该工具箱主要用于商业用Matlab软件包使用。Matlab的工具箱已经在不同的计算机体系结构编译和测试,包括Linux和Windows。大部分函数可以处理的数据集可高达20,000或更多点的数据。LS- SVMlab

    2、对Matlab接口包括一个适合初学者的基本版本,以及一个多类编码技术和贝叶斯框架的更先进的版本。未来版本将逐步加入新成果的和额外的功能。大量功能受到最小二乘-支持向量机的限制(其中包括“最小二乘支持向量机在函数中”的扩展名),其余的都是一般使用。大量的演示说明如何使用工具箱中的不同功能。Matlab的函数接口以两种方式组织:例如在网络实验室人们可以根据自己的选择将函数既可以按照功能性方式调用又可以按照面向对象的结构方式调用。2.1分类和优化调用函数:trainlssvm, simlssvm, plotlssvm, prelssvm, postlssvm;演示:Subsections demof

    3、un, democlass.Matlab的工具箱是围绕一个快速LS - SVM的训练和模拟算法而建立的。相应的函数调用可用于分类以及函数估计。函数plotlssvm显示该模型在培训点区域模拟结果。通过执行Matlab中灵活和简单代码(lssvmMATLAB.m)来求解线性系统,它基于Matlab矩阵分解(反斜杠命令为准)。对单个和多个输出回归和分类的函数都可以使用。训练和模拟可以做到为每个输出分别通过传递不同的核函数,内核和/或作为列向量正规化参数。执行工具箱中其他核函数也是简单的。一个模型的性能依赖于输入数据和输出数据的缩放。一个适当的算法检测,适当的重新调整重设比例,分类和二进制变量。2.

    4、1.1分类扩展codelssvm, code, deltablssvm, roc, latentlssvmSubsection, democlass 大量附加功能的文件是可用于分类工作的。对于模拟分类模型的潜变量是通过模拟得到的连续的结果,这个结果最终是离散的。受试者工作特征曲线(ROC)可以用来衡量一个分类器的性能。多类分类问题分解成多个二元分类任务。几种编码方案可以用在了这一点:最小输出,一比一,一对多和纠错编码方案。可以用海明距离,损失函数距离和贝叶斯损解码来解码一个给定的结果。一个偏差期限校正是可以做,然而对于小数据集是特别有趣的。2.1.2调谐,稀疏,完整性tunelssvm, cr

    5、ossvalidatelssvm, leaveoneoutlssvm, robustlssvm,sparselssvm;Subsections , demofun, democlass, demomodel估算训练模式的泛化性能的很多方法都包括在内。对于分类,可以用错误分类率(misclass)来表述。对重复培训和验证为基础的估计都是通过crossvalidatelssvm和leaveoneoutlssvm来实现的。一个强大的crossvalidation(关于迭代重加权LS - SVM的)分数由rcrossvalidatelssvm函数被调用。这些绩效措施,可用于确定调整参数(如正规化和内核

    6、参数的LS - SVM的(tunelssvm)。减少一个LS - SVM的模型的复杂性可以通过反复修剪较重要支持值(sparselssvm). 在数据中的异常值的情况下,支持数值的更正将改进模型(robustlssvm).2.1.3贝叶斯框架bay_lssvm, bay_optimize, bay_lssvmARD, bay_errorbar, bay_modoutClass,kpca, eignSubsections计算模型的后验概率和不同层次的推理中超参数的函数是可以用的。通过考虑模型和超参数的不确定性得到误差线。进行分类,一类可以估算后概率(这也被称为主持输出)(bay_modoutCl

    7、ass)。在贝叶斯框架中使用特征值分解核矩阵。矩阵的大小会随着数据点的数量而增长。因此,人们需要逼近技术处理大型数据集。众所周知,主要特征值和相应的特征向量是相关的。因此,迭代逼近方法,如作为Nystrom方法包括在内,这也是高斯过程中经常使用。输入选择可以通过自动关联的测定(bay_lssvmARD)。对于一个落后的变量的选择,贝叶斯框架推断的第三个层次对这个问题来说最合适的运用。2.2 NARX模型及预测predict, windowize; Subsection对非线性NARX时间序列应用系统可以扩散。一个NARX模型能够建立基于非线性回归量,这是通过对过去数据的输出(或输入)的测量来估

    8、计下一次迭代输出的值。使一个数据集通过窗口和NARX窗口转变为一个新的输入(过去测量的)和输出集(未来的输出),这两个窗口分别为时间序列事件和一般的外部输入NARX事件。迭代预测(在递归方法中)下一个输出,该输出是基于先前的预测,及初始值都是由预测来工作。2.3非监督学习kpca, denoise_kpca, preimage_rbf;非监督学习可以基于主成分分析(kpca)所描述的内核进行工作,为此,一种对最小二乘支持向量机的原始双重的解释得到屈服,这也将进一步扩展到内核典型相关分析和内核偏最小二乘法。 2.4通过固定大小的最小二乘支持矢量机解决大型规模问题demo_fixedsize, A

    9、FEm, kentropy;Subsection , demo_fixedsize, demo_fixedclass例如喜欢基于最小二乘支持向量机算法的典型内核通常具有记忆功能和算法复杂度为O(N 2)的计算要求。为绕过这个瓶颈,对大规模的工作方法提出了解决方案。对于大型数据集,将有利于在原始权空间解决最小二乘问题,这是由于当时未知数向量大小是与特征向量大小是成比例的,而不是数据点的数量。但是,该特征空间映射是由内核诱导的,而内核又需要获得非线性,因此,提出了一种固定大小的最小二乘支持向量机的方法。首先,Nystrom方法能够用来估计特征空间的映射。Nystrom近似值,内核主成分分析和密度估

    10、计之间的联系已被讨论。在固定大小的最小二乘支持向量机中,聘请了明确的原始对偶LS-SVM的解释,将它们联系起来。根据二次Renyi熵准则选择支持向量机。最后一步,在原始空间中完成回归,原始空间为求解大规模非线性函数估计和分类问题提供了适当的方法。而固定大小的最小二乘支持向量机的方法正适合处理非常大的数据集。另一个选择子集的标准由41 and 24提出,并与之有很紧密的联系。它衡量特征空间和由子集引起的空间逼近的质量(视为自动特征提取或AFEm)。该子集被认为是从数据(子样本)提取的随机子样本。第三章LS-SVMlab工具箱举例3.1 LS SVM布局在这节中,我们简单地概括一下如何获得的LS

    11、- SVM模型(用于分类和回归有效),见图3.11. 面向功能或面向对象接口(initlssvm)之间进行选择,见图A.3.152. 寻找合适的优化参数(tunelssvm搜索),见图A.3.353. 训练原先确定优化参数的给定模型(trainlssvm),见图A.3.344a. 例如模拟模型测试数据(simlssvm),见图A.3.324b.必要的时候将结果可视化(plotlssvm),见图A.3.243.2分类首先,对工具箱中进行任务分类的可能性说明。3.2.1 hello world一个简单的例子说明如何开始使用工具箱中的分类任务。我们首先我们按照正确的格式构建一个简单的数据集示例。数据

    12、表示为矩阵,每个矩阵包含一个数据点行: X = 2.*rand(100,2)-1; Y = sign(sin(X(:,1)+X(:,2); XX =0.9003 -0.9695-0.5377 0.49360.2137 -0.1098- 0.0280 0.86360.7826 -0.06800.5242 -0.1627. .-0.4556 0.7073-0.6024 0.1871 YY =-11. 为了建立一个LS - SVM模型(带有高斯RBF核)我们需要两个调整参数:(GAM)的是正则参数,它取决与训练误差最小化和平滑程度之间的权衡程度。通常情况下在高斯RBF核中,2(sig2)是平方带宽:

    13、 gam = 10; sig2 = 0.4; type = classification; alpha,b = trainlssvm(X,Y,type,gam,sig2,RBF_kernel); 参数和与LS - SVM相关的变量是通过为一个单元联系起来。此单元允许LS - SVM的参数和相关参数的默认处理句法分类一致。这个定义应该由整个统一使用该LS - SVM的模型使用。相应的LS- SVMlab面向对象接口导致短函数调用(见demomodel)。默认情况下,数据是由适用于原始数据预处理功能的函数prelssvm和对模型进行预测的函数postlssvm来处理的。此选项在调用中可以进行显式切

    14、换: alpha,b = trainlssvm(X,Y,type,gam,sig2,RBF_kernel,original);or be switched on (by default): alpha,b = trainlssvm(X,Y,type,gam,sig2,RBF_kernel,preprocess);一定要始终使用相同的选项在所有连续调用中。为了评估这个模型中新的点,需要使用函数simlssvm。 Xt = 2.*rand(10,2)-1; Ytest = simlssvm(X,Y,type,gam,sig2,RBF_kernel,alpha,b,Xt);如果输入数据的维数是2,L

    15、S - SVM的结果就可以显示。 plotlssvm(X,Y,type,gam,sig2,RBF_kernel,alpha,b);所有的绘制是通过这个简单的命令。它查找结果中显示的最佳方式(见图 3.2)3.2.2示例著名的里普利数据集的问题包括两个类,在每个类中的数据是由两个混合正态分布生成的(见图3.3a)首先,我们基于某数据集建立一个LS SVM模型并确定合适的优化参数。在这种情况下,调整参数,例如10-3,105和带宽20.01,3平方内核。 % load dataset . L_fold = 10; % L-fold crossvalidation gam,sig2 = tunels

    16、svm(X,Y,type,RBF_kernel,1e-3 1e5 0.01 3,.crossvalidatelssvm,L_fold,misclass);默认情况下,为优化参数的最低和最高值都设置为0.05,148和带宽20.08,12平方内核。 gam,sig2 = tunelssvm(X,Y,type,RBF_kernel,.受试者工作特征(ROC)曲线提供了有关的质量信息分类: % latent variables are needed to make the ROC curve Y_latent = latentlssvm(X,Y,type,gam,sig2,RBF_kernel,al

    17、pha,b,X); area,se,thresholds,oneMinusSpec,Sens=roc(Y_latent,Y); thresholds oneMinusSpec Sensans =-2.1915 1.0000 1.0000-1.1915 0.9920 1.0000-1.1268 0.9840 1.0000-1.0823 0.9760 1.0000. . .-0.2699 0.1840 0.9360-0.2554 0.1760 0.9360-0.2277 0.1760 0.9280-0.1811 0.1680 0.92801.1184 0 0.00801.1220 0 02.122

    18、0 0 0相应的ROC曲线如图3.3b所示。图3.3 ROC曲线的里普利分类任务(一)原LS - SVM的分类器(二)接收器工作特性曲线3.2.3使用面向对象的接口:初始化最小二乘支持向量机(initlssvm)另一种可能获得相同的结果是使用面向对象接口。如下所示: % gateway to the object oriented interface model = initlssvm(X,Y,type,RBF_kernel); model = tunelssvm(model,1e-3 1e5 0.01 3,crossvalidatelssvm,L_fold,misclass); model

    19、= trainlssvm(model); plotlssvm(model); Y_latent = latentlssvm(model,X);3.2.4最小二乘支持向量机的分类:只有一个命令行用简单的方法获得一个最小二乘支持向量机模型如下(二进制分类问题和一对一多类编码) Yp = lssvm(X,Y,type);该最小二乘支持向量机命令通过十倍交叉验证(简称CV)或留出一个依赖于样本大小的交叉验证来自动调整参数。此功能将自动的解决(如有可能)问题。默认情况下,高斯RBF将会被采用。更多信息,请参见图A.3.23。3.2.5贝叶斯推理的分类 针对3.2.2节的结果,本节将做进一步的分析。贝叶斯

    20、框架被用来调整优化参数,以获得适当的输出。最优正规化参自由亚齐运动的参数和内核参数sig2可分别通过优化成本推理的第二层和第三层获得。建议采用合适的初始值来初始化模型: gam, sig2 = bay_initlssvm(X,Y,type,gam,sig2,RBF_kernel);Optimization on the second level leads to an optimal regularization parameter: model, gam_opt = bay_optimize(X,Y,type,gam,sig2,RBF_kernel,2);Optimization on th

    21、e third level leads to an optimal kernel parameter: cost_L3,sig2_opt = bay_optimize(X,Y,type,gam_opt,sig2,RBF_kernel,3);Theposteriorclassprobabiliesarefoundbyincorporatingtheuncertaintyofthemodelparameters: sig2 = 1; Ymodout = bay_modoutClass(X,Y,type,10,1,RBF_kernel,figure);One can specify a prior

    22、class probability in the moderated output in order to compensate foran unbalanced number of training data points in the two classes. When the training set contains+ -N positive instances and N negative ones, the moderated output is calculated as:+Nprior =N +N Np = 10; Nn = 50; prior = Np / (Nn + Np)

    23、; Posterior_class_P = bay_modoutClass(X,Y,type,10,1,RBF_kernel,.figure, prior);The results are shown in Figure 3.4.结果如图3.4所示图3.4(a)展示的是基于里普利数据LS - SVM的分类器输出设置。该颜色表示的概率属于某一个类。(b)这个例子说明了一个不平衡的里普利数据子集主持输出。人们可以弥补在主持输出数据计算不平衡。需要注意到在用阳性标本的蓝区面积增加补偿而红色区相应缩小。3.2.6 多级编码下面的示例将演示如何使用多级编码方案的问题。编码和解码分别被视为一个单独的和独立

    24、的预处理和后处理步骤(图 3.5(a) and 3.5(b).一个名为demomulticlass的演示文件包含在工具箱中。 % load multiclass data . Ycode, codebook, old_codebook = code(Y,code_MOC); alpha,b = trainlssvm(X,Ycode,classifier,gam,sig2); Yhc = simlssvm(X,Ycode,classifier,gam,sig2,alpha,b,Xtest); Yhc = code(Yh,old_codebook,codebook,codedist_hamming

    25、);在多类分类问题,它是最容易使用的面向对象接口集其中集成了LS SVM训练和模拟调用的编码: model = initlssvm(X,Y,classifier,RBF_kernel); model = tunelssvm(model,1e-3 1e5 0.01 15,.leaveoneoutlssvm,misclass,code_OneVsOne);该tunelssvm例行的最后一个参数可以设置: code_OneVsOne:一对一编码 code_MOC: 最小输出编码 code_ECOC: 纠错输出码 code_OneVsAll:一对多编码图3.5 LS - SVM的多类的例子:(a)一对一编码(b)纠错输出码(c)最小输出编码(d)一对多编码3.3回归3.3.1 一个简单的例子 这是一个简单的演示,使用ls - SVMlab解决一个简单的回归任务。以正确的格式构建数据集。这些数据被表示为矩阵的每一行包含的一个数据点。 X = linspace(-1,1,50); Y = (15*(X.2-1).2.*X.4).*exp(-X)+normrnd(0,0.1,length(X),1);-1.0000-0.9592-0.9184-0.87


    注意事项

    本文(LSSVMmatlab文档格式.docx)为本站会员主动上传,冰豆网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰豆网(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    copyright@ 2008-2022 冰点文档网站版权所有

    经营许可证编号:鄂ICP备2022015515号-1

    收起
    展开