svm相关内容
我有一个8670个试验的训练数据集,每个试验的长度为125次样本,而我的测试集则包含578个试验.当我从scikit-learn应用SVM算法时,我得到了很好的结果. 但是,当我应用逻辑回归时,会发生此错误: "ValueError:此求解器需要数据中至少2个类的样本,但数据仅包含一个类:1.0". 我的问题是,为什么SVM能够给出预测,而逻辑回归却给出此错误? 是否有可能
..
我正在尝试对包含160万条带标签推文的Twitter数据集"Sentiment140"进行情感分析.我正在使用单词袋(Unigram)模型构建特征向量,因此每条推文都由约20000个特征表示.现在要使用此数据集训练我的sklearn模型(SVM,逻辑回归,朴素贝叶斯),我必须将整个1.6m x 20000特征向量加载到一个变量中,然后将其输入模型.即使在我的服务器计算机上总共有115GB的内存,它
..
我有一个数据集,其中包含用于训练的510个样本和用于测试的127个样本,每个样本具有7680个功能.我想设计一个模型来根据训练数据预测身高(cm)-标签.目前,我使用了SVM,但结果却非常糟糕.您能否看一下我的代码并给我一些评论.您可以使用数据集和可运行的代码在计算机中进行尝试 import numpy as np from sklearn.svm import SVR # Trainin
..
因此,我试图了解SVM算法的工作原理,但是我只是想不出如何在n维平面的点上转换某些数据集,这些数据集具有数学意义,以便通过超平面将点分开.对它们进行分类. 有一个示例此处,他们正试图对老虎和大象的图片进行分类,他们说“我们将它们数字化为100x100像素的图像,所以我们在n维平面上有x,其中n = 10,000",但是我的问题是它们如何变换实际上仅代表某种颜色的矩阵将具有数学意义的点编码为2
..
我目前正在研究核方法,有时需要将一个非正半定矩阵(即相似矩阵)制成一个PSD矩阵. 我尝试过这种方法: def makePSD(mat): #make symmetric k = (mat+mat.T)/2 #make PSD min_eig = np.min(np.real(linalg.eigvals(mat))) e = np.max([0, -
..
我正在使用一类SVM进行离群值检测.看来,随着训练样本数量的增加,一类SVM检测结果的灵敏度TP/(TP + FN)下降,分类率和特异性都增加. 用超平面和支持向量解释这种关系的最佳方法是什么? 谢谢 解决方案 您拥有的训练示例越多,分类器就无法正确检测出真实的阳性结果. 这意味着新数据与您正在训练的模型不正确匹配. 这是一个简单的例子. 下面有两个类,我们可
..
我正在使用SVM进行分类,我在一个项目中进行培训,在另一个项目中进行测试,以便仅进行一次培训. 培训部分如下: classifier->trainAuto(trainData); string svmDir = "/File/Dir/"; string svmFile = "svmClassifier.xml"; classifier->save(svmDir+svmFile);
..
我是机器学习的新手.当我尝试通过Gate学习时,它显示出一些错误.学习配置文件如下.
..
我正在使用 libsvm 创建2类分类器. 我希望提取./svm-train training.training model.model 生成的模型所使用的每个特征的系数/权重 model.model文件如下所示: svm_type c_svc kernel_type rbf gamma 8 nr_class 2 total_sv 442 rho 21 label 1 -1 nr_sv
..
我正在尝试使用 Libsvm ,并且我得到了以下行为: root@bcfd88c873fa:/home/libsvm# ./svm-train myfile Wrong input format at line 1 root@bcfd88c873fa:/home/libsvm# head -n 5 myfile 2 0:0.00000 8:0.00193 2:0.00000 1:0.00
..
我有一个二进制分类问题,我正在尝试为我的分类器获取精确调用曲线.我将libsvm与RBF内核和概率估计选项一起使用. 要获取曲线,我将决策阈值从0更改为1,步长为0.1.但是在每次运行中,即使召回率随着阈值的增加而降低,我也能获得很高的精度.我的误报率似乎总是比真正的误报率低. 我的结果是这些 Threshold: 0.1 TOTAL TP:393, FP:1, FN: 49 P
..
我想使用数据集来训练模型.数据集具有三种不同类型的生理数据.类型1,类型2和类型3.libSVM的格式如下: 标签index1:value1 index2:value2 .... 现在,我将类型1的标签设为1,将类型2的标签设为2,将类型3的标签设为3.其中,所有值都另存为1:(value).因此,我的培训和测试文件如下. 1 1:值\ n 1 1:值\ n 1 1:值\ n 1 1:
..
我有两个带有5个标签的多类数据集,一个用于训练,另一个用于交叉验证.这些数据集存储为.csv文件,因此在本实验中它们充当控件. 我有一个用于libsvm的C ++包装器,以及一个用于libsvm的MATLAB函数. 对于C ++和MATLAB: 使用带有RBF内核的C型SVM,我遍历了2个C和Gamma值列表.对于每种参数组合,我在训练数据集上进行训练,然后预测交叉验证数据集.我将预测
..
我正在使用libsvm进行文档分类.我在项目中使用svm.cc和svm.h.然后,我叫svm_train.我使用svm_save_model将模型保存在文件中. 我有类别. svm模型文件为: svm_type c_svc kernel_type rbf gamma 0.001002 nr_class 3 total_sv 9 rho -0.000766337 0.00314423 0
..
我是SVM的初学者,我已经成功实现了一类分类.现在,我想了解非常困惑的多类分类. 我经历了如何进行多使用支持向量机(SVM)进行类分类,我希望得到完全相同的输出,但是该链接没有使用Windows的特定示例.如果有人可以在Windows中为"ONE-AGAINST-多类分类的“一",“全能"方法 谢谢 解决方案 使用libLinear,您将无法获得类似的输出,因为它无法预测概率.
..
我正在为libsvm训练一个巨大的数据文件,结果训练文件太大.有什么方法可以将libsvm库模型文件保存为二进制格式? 解决方案 如果您使用的是Matlab: 下载 svm_savemodel.c 和%save model model fid = fopen('model.bin','w'); model = fwrite(fid, model, 'int16'); %load('mode
..
我正在使用LIBSVM以编程方式进行简单的XOR分类,试图了解这些功能的工作原理.我已按照自述文件中的说明尽可能地设置了问题.使用svm_predict(总是1或-1)时,我仍然得到错误的输出. 在一个相关的问题中,有人建议在使用很少的培训示例时可能会出现此问题.我尝试将示例数量增加到20,但这没有帮助. 我怀疑问题出在prob.x和/或prob.y的定义中,但是无法理解在哪里.您能否
..
我想在C#中做一个多类分类应用程序.我决定使用encog这样做.现在我只停留在一点.我发现了一个XOR示例,据我所知.但是,当我要使用自己的数据集时,应用仅使用一个示例中的一项功能进行计算. 这是我的代码: namespace ConsoleApplication1 { public static class Load { public static doub
..
我正在使用R代码从此源中实现SVM-RFE算法 http://www.uccor.edu.ar/paginas/seminarios/Software/SVM_RFE_R_implementation.pdf ,但我做了一些小的修改,以便r代码使用gnum库.代码如下: svmrfeFeatureRanking = function(x,y){ n = ncol(x) surviv
..
我刚刚开始在python中使用libsvm进行游戏,并获得了一些简单的分类方法. 问题是我正在构建人脸检测系统,并且我想要一个非常低的错误拒绝率.另一方面,svm似乎针对相等的错误拒绝和错误接受进行了优化.我在这里有什么选择? 就像前面所说的,我对libsvm还是很陌生,所以请客气. ;) 解决方案 SVM通常不被认为是概率模型,而是最大判别模型.因此,我很难根据我对SVM的了
..