支援向量机和神经网路那个前景更好?
支援向量机和神经网路那个前景更好?, 支援向量机和神经网路在效果上差异大吗?
你好!支援向量机SVM ( Support Vector Machines)是由Vanpik领导的AT&TBell实验室研究小组
在1963年提出的一种新的非常有潜力的分类技术, SVM是一种基于统计学习理论的模式识别方法,主要应用于模式识别领域.由于当时这些研究尚不十分完善,在解决模式识别问题中往往趋于保守,且数学上比较艰涩,因此这些研究一直没有得到充的重视.直到90年代,一个较完善的理论体系—统计学习理论 ( StatisticalLearningTheory,简称SLT) 的实现和由于神经网路等较新兴的机器学习方法的研究遇到一些重要的困难,比如如何确定网路结构的问题、过学习与欠学习问题、区域性极小点问题等,使得SVM迅速发展和完善,在解决小样本 、非线性及高维模式识别问题中表现出许多特有的优势,并能够推广应用到函式拟合等其他机器学习问题中.从此迅速的发展起来,现在已经在许多领域(生物资讯学,文字和手写识别等)都取得了成功的应用。
SVM的关键在于核函式,这也是最喜人的地方。低维空间向量集通常难于划分,解决的方法是将它们对映到高维空间。但这个办法带来的困难就是计算复杂度的增加,而核函式正好巧妙地解决了这个问题。也就是说,只要选用适当的核函式,我们就可以得到高维空间的分类函式。在SVM理论中,采用不同的核函式将导致不同的SVM演算法
它是一种以统计学理论为基础的,以结构风险最小化的学习机学习方法,要优于神经网路学习。
支援向量机和神经网路哪个收敛速度快神经网路是基于传统统计学的基础上的.传统统计学研究的内容是样本无穷大时的渐进理论,即当样本资料趋于无穷多时的统计性质,而实际问题中样本资料往往是有限的.因此,假设样本资料无穷多,并以此推汇出的各种演算法很难在样本资料有限时取得理想的应用效果.
而支援向量机则是基于统计学理论的基础上的,可以克服神经网路难以避免的问题.通过支援向量机在逼近能力方面与BP网路模拟结果的比较表明,支援向量机具有较强的逼近能力和泛化能力.
至于收敛速度,BP神经网路的速度比向量机要慢。尤其是层次较高的时候。
推荐一款支援向量机SVM和神经网路软体?迈实软体(meshcade)有神经网路和支援向量机SVM软体,有入门视讯教程,可下载一试。
神经网路和支援向量机的优缺点!SVM有如下主要几个特点:
(1)非线性对映是SVM方法的理论基础,SVM利用内积核函式代替向高维空间的非线性对映;
(2)对特征空间划分的最优超平面是SVM的目标,最大化分类边际的思想是SVM方法的核心;
(3)支援向量是SVM的训练结果,在SVM分类决策中起决定作用的是支援向量。
(4)SVM 是一种有坚实理论基础的新颖的小样本学习方法。它基本上不涉及概率测度及大数定律等,因此不同于现有的统计方法。从本质上看,它避开了从归纳到演绎的传统过程,实现了高效的从训练样本到预报样本的“转导推理”,大大简化了通常的分类和回归等问题。
(5)SVM 的最终决策函式只由少数的支援向量所确定,计算的复杂性取决于支援向量的数目,而不是样本空间的维数,这在某种意义上避免了“维数灾难”。
(6)少数支援向量决定了最终结果,这不但可以帮助我们抓住关键样本、“剔除”大量冗余样本,而且注定了该方法不但演算法简单,而且具有较好的“鲁棒”性。这种“鲁棒”性主要体现在:
①增、删非支援向量样本对模型没有影响;
②支援向量样本集具有一定的鲁棒性;
③有些成功的应用中,SVM 方法对核的选取不敏感
两个不足:
(1) SVM演算法对大规模训练样本难以实施
由于SVM是借助二次规划来求解支援向量,而求解二次规划将涉及m阶矩阵的计算(m为样本的个数),当m数目很大时该矩阵的储存和计算将耗费大量的机器记忆体和运算时间。针对以上问题的主要改进有有J.Platt的SMO演算法、T.Joachims的SVM、C.J.C.Burges等的PCGC、张学工的CSVM以及O.L.Mangasarian等的SOR演算法
(2) 用SVM解决多分类问题存在困难
经典的支援向量机演算法只给出了二类分类的演算法,而在资料探勘的实际应用中,一般要解决多类的分类问题。可以通过多个二类支援向量机的组合来解决。主要有一对多组合模式、一对一组合模式和SVM决策树;再就是通过构造多个分类器的组合来解决。主要原理是克服SVM固有的缺点,结合其他演算法的优势,解决多类问题的分类精度。如:与粗集理论结合,形成一种优势互补的多类问题的组合分类器。
支援向量机和人工神经网路的区别, 支援向量机为什么比神经网路好?神经网路不是可以训练很多次吗你好!支援向量机SVM ( Support Vector Machines)是由Vanpik领导的AT&TBell实验室研究小组 在1963年提出的一种新的非常有潜力的分类技术, SVM是一种基于统计学习理论的模式识别方法,主要应用于模式识别领域.由于当时这些研究尚不十分完善,在解...
神经网路 支援向量机和决策树分类的区别
方法是死的,人是活的。你可以两种方法都做一下,用软体也很方便,看看那个结果好,在专业上比较好解释的,就用那个。 统计方法只是一种工具,目的是得到最好的结果。 支援向量机在解决小样本、非线性及高维模式识别问题中表现出许多特有的优势...
利用MFC如何呼叫神经网路(支援向量机)训练结果模型网上找找,svm应该有vc++版的。
支援向量机.神经网路.模糊控制是三大万能控制方法吗您好,很高兴为您解答:
答案是肯定的:
三大万能控制方法是:
支援向量机.神经网路.模糊控制
祝你生活愉快,学习进步!
如果你对这个答案有什么疑问,请追问
如果满意记得采纳哦,谢谢~~~
libsvm支持向量机C-SVM和NU-Svm的区别
方法是死的,人是活的。你可以两种方法都做一下,用软件也很方便,看看那个结果好,在专业上比较好解释的,就用那个。
统计方法只是一种工具,目的是得到最好的结果。
支持向量机在解决小样本、非线性及高维模式识别问题中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中。
决策树将N维空间便被划分成了若干个小区域,用树型结构图的形式展现决策树,它往往向人们展示的是各因素之间的交互作用。
SVM有如下主要几个特点:
(1)非线性映射是SVM方法的理论基础,SVM利用内积核函数代替向高维空间的非线性映射;
(2)对特征空间划分的最优超平面是SVM的目标,最大化分类边际的思想是SVM方法的核心;
(3)支持向量是SVM的训练结果,在SVM分类决策中起决定作用的是支持向量。
(4)SVM 是一种有坚实理论基础的新颖的小样本学习方法。它基本上不涉及概率测度及大数定律等,因此不同于现有的统计方法。从本质上看,它避开了从归纳到演绎的传统过程,实现了高效的从训练样本到预报样本的“转导推理”,大大简化了通常的分类和回归等问题。
(5)SVM 的最终决策函数只由少数的支持向量所确定,计算的复杂性取决于支持向量的数目,而不是样本空间的维数,这在某种意义上避免了“维数灾难”。
(6)少数支持向量决定了最终结果,这不但可以帮助我们抓住关键样本、“剔除”大量冗余样本,而且注定了该方法不但算法简单,而且具有较好的“鲁棒”性。这种“鲁棒”性主要体现在:
①增、删非支持向量样本对模型没有影响;
②支持向量样本集具有一定的鲁棒性;
③有些成功的应用中,SVM 方法对核的选取不敏感
两个不足:
(1) SVM算法对大规模训练样本难以实施
由于SVM是借助二次规划来求解支持向量,而求解二次规划将涉及m阶矩阵的计算(m为样本的个数),当m数目很大时该矩阵的存储和计算将耗费大量的机器内存和运算时间。针对以上问题的主要改进有有J.Platt的SMO算法、T.Joachims的SVM、C.J.C.Burges等的PCGC、张学工的CSVM以及O.L.Mangasarian等的SOR算法
(2) 用SVM解决多分类问题存在困难
经典的支持向量机算法只给出了二类分类的算法,而在数据挖掘的实际应用中,一般要解决多类的分类问题。可以通过多个二类支持向量机的组合来解决。主要有一对多组合模式、一对一组合模式和SVM决策树;再就是通过构造多个分类器的组合来解决。主要原理是克服SVM固有的缺点,结合其他算法的优势,解决多类问题的分类精度。如:与粗集理论结合,形成一种优势互补的多类问题的组合分类器。
鹏仔微信 15129739599 鹏仔QQ344225443 鹏仔前端 pjxi.com 共享博客 sharedbk.com
图片声明:本站部分配图来自网络。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!