svm回归拟合分析,回归分析模型拟合效果的判断

【svm回归拟合分析,回归分析模型拟合效果的判断】用svm Do 回归来预测,SVM和logistic 回归都是常用的分类算法 。从目标函数来看,不同的是Logic 回归采用了logisticalloss,/ , SVM的处理方法是只考虑支持向量,即与分类最相关的几个点来学习分类器 。
1、SVM和logistic 回归分别在什么情况下使用这两种方法都是常见的分类算法 。从目标函数来看 , 区别在于logic 回归采用logisticalloss,而svm采用hingeloss 。这两个损失函数的目的是增加对分类影响较大的数据点的权重,降低与分类关系不大的数据点的权重 。SVM的处理方法是只考虑支持向量,即与分类最相关的几个点来学习分类器 。
两者的根本目的是一样的 。另外,两种方法都可以加入不同的正则项 , 如l1,l2等 。所以在很多实验中,两种算法的结果非常接近 。但是logic 回归比较简单,容易理解和实现,特别是对于大规模的线性分类 。SVM的理解和优化是相对复杂的 。而SVM的理论基础更为扎实,有一套结构风险最小化的理论基?。?虽然一般用户不会关注 。
2、用 svm做 回归预测,为什么预测值都是一样的?p0.001 太?。?选0.1就好 。第一,要看你建立的回归方程中的所有自变量是否都有显著的预测效果;第二,你的回归方程的预测效果如何 , 即系数r有多大 。如果预测效果不好 , 方程计算出来的值肯定会和原始值相差很大 。除非r平方等于1 , 否则不可能用与原始值完全相同的方程预测所有值 。如果你看支持向量机的书或者faruto的教程 , 如果预测值相同 , 那你选择的参数肯定有问题,modelsvmtrain(train _ y,
3、线性可分 svm的基本思想线性可分svm 1的基本思想 。决策平面方程以一个二维空间为例 , 二维空间中的任何一个线性方程都可以写成我们对其进行矢量化,可以得到假设向量W表示矩阵a1和a2,向量X表示矩阵x1和x2,标量γ表示B,那么方程就可以表示为二维空间中一个N维空间的超平面的表示,可以是直线,也可以是曲线(二维空间只能看到N维超平面,看不到) , 超平面方程就是我们的决策曲面方程II,函数区间,几何区间 。在SVM监督学习中 , 我们将标签数据指定为 1和1,这样做的目的是计算任意样本点的性能结果在超平面方程上的符号,如果与标签符号一致,则判断分类的正确性 。因此,我们可以引入函数区间 。

    推荐阅读