svm相关内容
我一直在尝试使用 Python 语言中的支持向量回归来实现时间序列预测工具.我使用 scikit-learn 的 SVR 模块进行非线性支持向量回归.但是我对未来事件的预测有严重的问题.回归线非常适合原始函数(来自已知数据),但是一旦我想预测未来的步骤,它就会返回最后一个已知步骤的值. 我的代码如下所示: 将 numpy 导入为 np从 matplotlib 导入 pyplot 作为 pl
..
在训练 SVM 回归时,通常建议在训练前缩放输入特征. 但是如何缩放目标呢?通常这不被认为是必要的,我看不出有什么必要这样做的充分理由. 然而,在 SVM 回归的 scikit-learn 示例中:http://scikit-learn.org/stable/auto_examples/svm/plot_svm_regression.html 通过在训练前引入 y=y/1000
..
我正在使用 text2vec 包和 caret 处理文本分类问题.在使用 caret 构建不同模型之前,我正在使用 text2vec 构建文档术语矩阵.目标是使用标记的训练数据识别两个字符串之间的字符串相似性. 但是,在训练线性 SVM 模型时,我收到了许多警告消息,摘录如下: 警告信息:1:在 svm.default(x = as.matrix(x), y = y, kernel =
..
在使用 caret 调整 SVM 参数时,我观察到了一个非常奇怪的行为.在没有调优的情况下训练单个模型时,径向基核的 SVM 比线性核的 SVM 花费更多的时间,这是预期的.然而,当在相同的惩罚网格上调整带有两个内核的 SVM 时,带有线性内核的 SVM 比带有径向基内核的 SVM 花费更多的时间.使用 R 3.2 和 caret 6.0-47,可以在 Windows 和 Linux 中轻松重现此
..
我一直在尝试使用 caret 包应用递归特征选择.我需要的是 ref 使用 AUC 作为性能度量.谷歌搜索一个月后,我无法使该过程正常工作.这是我使用的代码: 库(插入符号)图书馆(doMC)registerDoMC(核心数 = 4)数据(mdrr)子集
..
试图更好地理解 train(tuneLength = ) 在 {caret} 中的工作原理.当我试图从 {kernlab} 中理解 SVM 方法之间的一些差异时,我的困惑发生了我已经查看了文档(这里)和插入符号训练页面(此处). 我的玩具示例是使用 iris 数据集创建五个模型.结果在这里,可重现的代码是这里(它们很长,所以我没有将它们复制并粘贴到帖子中). 来自 {caret} 文档
..
有人告诉我使用 caret 包,以便对我拥有的数据集执行支持向量机回归和 10 折交叉验证.我正在根据 151 个变量绘制我的响应变量.我做了以下事情:- >ctrl 设置种子(1500)>mod
..
将pandas导入为pd从 sklearn 导入 svm### 读取 CSV ###df = pd.read_csv('C:/Users/anagha/Documents/Python Scripts/sampleData.csv')df从 sklearn.cross_validation 导入 train_test_split火车,测试 = train_test_split(df,train_s
..
我正在使用 sklearn.svm.svc从 scikit-learn 做二元分类.我正在使用它的 predict_proba() 函数来获得概率估计.谁能告诉我 predict_proba() 如何在内部计算概率? 解决方案 Scikit-learn 在内部使用 LibSVM,而这反过来使用 Platt 缩放,详见 LibSVM 作者的这篇笔记,用于校准 SVM 以产生除类别预测之外的概
..
我一直在尝试基于 OpenCV 库上的代码使用 SVM 训练手写数字.我的训练部分如下: 导入 cv2将 numpy 导入为 npSZ=20bin_n = 16svm_params = dict( kernel_type = cv2.SVM_LINEAR,svm_type = cv2.SVM_C_SVC,C=2.67,伽马=5.383)affine_flags = cv2.WARP_INVERS
..
我正在实现自己的 SVM,而不是使用 OpenCV 的 svm 类.我想要我的 SVM 用来保存其输出的 XML 文件,如果我愿意的话,将来可以由 OpenCV 的 SVM 加载和使用.我需要为此做什么? 简而言之:OpenCV 用于存储其 SVM 输出的格式是什么? 解决方案 可以参考 OpenCV 的 CvSVM::write 函数. int i, var_count = ge
..
我已经安装了 open cv 3.0,然后我安装了 libsvm.然后我将它添加到了我的 pycharm 包中.但是仍然在输入此代码时 svm_params = dict( kernel_type = cv2.SVM_LINEAR,svm_type = cv2.SVM_C_SVC,C=2.67,伽马=5.383) 它显示这个错误 svm_params = dict( kernel_type
..
我正在使用 BOW 模型和 SVM 开发一个图像分类项目.我想找出 SVM 预测概率,但 opencv svm 中没有这样的功能.有没有办法做到这一点?我想找出 n 类 SVM 中的预测概率. 解决方案 不,你不能用 CvSVM 做到这一点.OpenCV 的 SVM 实现基于一个非常旧版本的 libsvm.下载最新版本的 libsvm 并使用它.当然,您必须编写一个包装器来转换数据格式.见
..
我在绘制脑海中的图像时遇到了一些麻烦.我想用支持向量机可视化内核技巧.所以我做了一些由两个圆(一个内圆和一个外圆)组成的二维数据,这两个圆应该被一个超平面分开.显然,这在二维上是不可能的-因此我将它们转换为3D.令n为样本数.现在我有一个 (n,3) 数组(3 列,n 行)X 的数据点和一个带标签的 (n,1) 数组 y.使用sklearn,我可以通过 获得线性分类器 clf = svm.S
..
我正在尝试为用LinearSVC和sklearn训练的模型绘制超平面.请注意,我正在使用自然语言.在拟合模型之前,我使用 CountVectorizer 和 TfidfTransformer 提取了特征. 这里是分类器: from sklearn.svm import LinearSVC从 sklearn 导入 svmclf = LinearSVC(C=0.2).fit(X_train_t
..
我已经使用sklearn.svm.svc()拟合了3个要素数据集.我可以使用 matplotlib 和 Axes3D 为每个观察点绘制点.我想绘制决策边界以查看适合度.我尝试改编2D示例,以无济于事地绘制决策边界.我了解clf.coef_是垂直于决策边界的向量.我如何绘制它以查看它划分点的位置? 解决方案 以下是玩具数据集上的一个示例.请注意,使用 matplotlib 进行 3D 绘图很
..
因为我知道如何使用Scikit-Learn构建支持向量机,但是现在我想在不使用Scikit-Learn的情况下从头开始使用python创建它.由于我很困惑,缺乏对内部流程的了解,如果能得到帮助并把它弄出来,我将非常高兴. 解决方案 您只能使用 numpy 实现简单的线性SVM,如下所示.顺便说一句,请在下次问问题之前先用google搜索.在线上有很多资源和教程. 将numpy导入为npd
..
在我的代码中,X 和 y 是训练数据: 从sklearn.svm中的 导入SVCclf = SVC(内核= lambda x,y:gauss_kernel(x,y,100))打印(X.shape [0])打印(X.shape [1])打印(X.shape)clf.fit(X,y) 我收到以下错误: 2112个(211,2)/Users/mona/anaconda/lib/python3
..
这是我的代码 我使用网格搜索cv进行超参数调整.但显示错误. param_grid = {:['linear','poly','rbf','Sigmoid'],'loss':['epsilon_insensitive','squared_epsilon_insensitive'],"max_iter";:[1,10,20],'C':[np.arange(0,20,1)]}模型= Grid
..
我是机器学习的新手. 我正在将支持向量机(SVM)与“多项式"内核一起用于多类分类.我的数据集大小为(56010395,4)(没有样本,没有特征).但是,从过去的1周开始,我的机器一直在不断地训练,而且训练还没有结束.我的代码真的很基础,所以我不明白我的代码有什么问题.我不能对我的数据集进行子采样.我的 RAM 是 15 GB,我使用的是 i7 Intel CPU. 我已经尝试过使用线性分
..