mlr相关内容

使用相同任务的 svm 和 ranger 的不同运行时

我对两个学习器的运行时间进行了基准测试,并在 {ranger} 和 {svm} 进行训练时截取了 {htop} 的两个屏幕截图,以使我的观点更加清晰.正如这篇文章的标题所述,我的问题是为什么 svm 中的训练/预测与其他学习者(在本例中为 ranger)相比如此慢?是否与学习者的底层结构有关?或者我在代码中犯了错误?或者...?任何帮助表示赞赏. 游侠训练时的htop;使用所有线程. ..
发布时间:2021-09-01 19:27:30 其他开发

为什么即使使用set.seed(),mlr在不同的运行中也会给出不同的结果?

要发布在mlr程序包中获得的可再现结果,应使用set.seed()函数来控制代码的随机性. 测试中,这种做法似乎并不能达到预期的结果,其中不同的代码运行会给出略有不同的输出,例如 这里有一些可复制的代码 ## libraries library(mlr) library(parallel) library(parallelMap) ## options set.seed(1) cv ..
发布时间:2020-06-30 23:00:12 其他开发

在MLR中获取测试集的预测

我使用R中的MLR包来拟合二进制问题的分类模型.对于每个模型,我都使用"selectFeatures"功能对带有嵌入式特征选择的交叉验证,并检索测试集上的平均AUC.接下来,我想针对每个折痕在测试集上检索预测,但是此功能似乎不支持该预测.我已经尝试将选定的预测变量插入“重采样"函数中以进行获取.它可以工作,但是性能指标不同,这不适合我的分析.我还尝试检查插入符号包是否可行,但乍一看我还没有找到解决 ..
发布时间:2020-06-30 22:59:57 其他开发

MLR:如何为顺序MBO参数化模型计算置换特征的重要性?

我正在使用mlr和mlrMBO软件包进行嵌套交叉验证.内部CV用于参数化(例如,找到最佳参数).由于我想比较不同学习者的表现,因此我使用mlr的基准函数进行了基准实验.我的问题如下:是否可以对参数化模型/学习器进行置换?当我在基准实验中使用的学习者上调用 generateFeatureImportanceData 时,会再次估算模型(忽略序列优化学习的参数化).这是虹膜数据集上的一些代码,用于说明 ..
发布时间:2020-06-30 22:59:52 其他开发

R:如何在Linux服务器上使用parallelMap(带有mlr,xgboost)?与Windows相比,性能出乎意料

我正在尝试在调整超参数级别上并行化我正在mlr中进行调整的xgboost模型,并尝试与parallelMap并行化.我的代码可以在Windows机器(只有8个内核)上成功运行,并且想使用Linux服务器(有72个内核).我无法成功获得转移到服务器上的任何计算优势,并且我认为这是由于我对parallelMap参数的理解出现了漏洞. 我不将多核与本地与套接字之间的差异理解为parallelMap ..
发布时间:2020-06-30 22:59:47 其他开发

更改plotLearnerPrediction ggplot2对象的颜色和图例

我已经使用R的mlr包中的plotLearnerPrediction函数制作了许多漂亮的图.它们看起来像此.通过查看plotLearnerPrediction函数的源代码,看起来好像彩色表面是用geom_tile制作的. 例如,可以通过以下方式制作图: library(mlr) data(iris) #make a learner lrn ..
发布时间:2020-04-30 09:46:50 其他开发