rfe相关内容
到目前为止,我拥有的代码如下所示,它工作得很好。但是,我要为每个测试的功能打印以下RFE属性:";rfe.Support_[i]";、&rfe.ranking_[i]";和所选功能的名称。i";引用索引后,第一个属性返回True或False(如果选择了列),第二个属性返回它们各自的排名。 换句话说,我想打印每个RFE中考虑的列,并且它们不会保留为抽象的东西。
..
感谢您提前答复。这是我的第一篇帖子,而且我还是个新手,所以如果我的内容格式化得很糟糕,我很抱歉。 我正在尝试将递归特征消除和网格搜索结合起来,以确定超参数和特征数量的最佳组合。使用下面的代码时,我得到max_Feature必须在(0,n_Feature]估计器拟合失败。除max_Feature之外的任何值都是1。我的数据集中有300多个要素,其中许多可能并不重要。 ‘’
..
是否可以将 sklearn 递归特征消除(RFE)与来自另一个包的估计器一起使用? 具体来说,我想使用 statsmodels 包中的 GLM 并将其包装在 sklearn RFE 中? 如果有,请举例说明? 解决方案 是的,这是可能的.您只需要创建一个继承 sklearn.base.BaseEstimator 的类,确保它具有 fit &predict 方法,并确保其 fit
..
我一直在尝试使用 caret 包应用递归特征选择.我需要的是 ref 使用 AUC 作为性能度量.谷歌搜索一个月后,我无法使该过程正常工作.这是我使用的代码: 库(插入符号)图书馆(doMC)registerDoMC(核心数 = 4)数据(mdrr)子集
..
因为我正在尝试取自 这里,我一直收到这个错误 rfe.default(d[1:2901, ], c(1, 1, 1, 1, 1, 1, 2, 2, 2, 3, 3, 3, ) 中的错误:x 和 y 中的样本数应该相同 这个问题已被问到但它的解决方案没有不适用于这种情况. 代码如下: set.seed(7)# 加载库图书馆(mlbench)图书馆(插入符号)#加载数据d
..
在我的工作项目中,我使用插入符号包中的rfe函数来进行递归功能消除.我用一个玩具例子来说明我的观点. 库(mlbench)图书馆(插入符号)资料(PimaIndiansDiabetes)rfFuncs $ summary
..
使用RFE,您可以获得功能的重要性等级,但是现在我只能在包内部使用模型和参数,例如:lmFuncs(linear model),rfFuncs(random forest) 似乎 caretFuncs 可以为您自己的模型和参数做一些自定义设置,但是我不知道详细信息,而正式文档也没有提供详细信息,我想将svm和gbm应用于此RFE流程,因为这是当前的我以前训练的模型,有人有什么主意吗?
..
我正在使用Caret的rfe进行回归应用.我的数据(在data.table中)具有176个预测变量(包括49个因子预测变量).运行该函数时,出现此错误: Error in { : task 1 failed - "rfe is expecting 176 importance values but only has 2" 然后,我使用model.matrix( ~ . - 1, dat
..
现在,我正在尝试使用Caret rfe函数执行功能选择,因为我处于p >> n的情况下,大多数不涉及某种正则化的回归技术都无法用得好.我已经使用过一些带有正则化(Lasso)的技术,但是现在我想尝试的是减少功能的数量,以便至少可以体面地在其上运行任何类型的回归算法. control
..
受此启发: http://scikit-learn.org/stable/auto_examples/feature_selection/plot_rfe_with_cross_validation.html#sphx-glr-auto-examples-feature-selection-plot-rfe-with- cross-validation-py 我想知道是否有针对特定分数的功能
..
我正在使用sklearn使用RFECV模块通过交叉验证执行递归特征消除. RFE涉及反复训练整套特征的估计器,然后删除信息最少的特征,直到收敛到最佳数量的特征. 为了使估算器获得最佳性能,我想为每种特征的估算器选择最佳的超参数(为清楚起见进行了编辑).估计器是线性SVM,所以我只查看C参数. 最初,我的代码如下.但是,这只是在开始时一个网格搜索C,然后在每次迭代中使用相同的C.
..