mlr相关内容
我对两个学习器的运行时间进行了基准测试,并在 {ranger} 和 {svm} 进行训练时截取了 {htop} 的两个屏幕截图,以使我的观点更加清晰.正如这篇文章的标题所述,我的问题是为什么 svm 中的训练/预测与其他学习者(在本例中为 ranger)相比如此慢?是否与学习者的底层结构有关?或者我在代码中犯了错误?或者...?任何帮助表示赞赏. 游侠训练时的htop;使用所有线程.
..
本文此处演示了MLR软件包.plotLearnerPrediction函数通过此返回ggplot对象.我尝试了下面为ggplot2对象提供的multiplot函数,但我的RStudio崩溃了.我可以在没有RStudio的情况下进行绘图 解决方案 您可以使用库 gridExtra : require(gridExtra)图书馆(gridExtra)p1
..
要发布在mlr程序包中获得的可再现结果,应使用set.seed()函数来控制代码的随机性. 测试中,这种做法似乎并不能达到预期的结果,其中不同的代码运行会给出略有不同的输出,例如 这里有一些可复制的代码 ## libraries library(mlr) library(parallel) library(parallelMap) ## options set.seed(1) cv
..
我使用R中的MLR包来拟合二进制问题的分类模型.对于每个模型,我都使用"selectFeatures"功能对带有嵌入式特征选择的交叉验证,并检索测试集上的平均AUC.接下来,我想针对每个折痕在测试集上检索预测,但是此功能似乎不支持该预测.我已经尝试将选定的预测变量插入“重采样"函数中以进行获取.它可以工作,但是性能指标不同,这不适合我的分析.我还尝试检查插入符号包是否可行,但乍一看我还没有找到解决
..
我正在使用mlr和mlrMBO软件包进行嵌套交叉验证.内部CV用于参数化(例如,找到最佳参数).由于我想比较不同学习者的表现,因此我使用mlr的基准函数进行了基准实验.我的问题如下:是否可以对参数化模型/学习器进行置换?当我在基准实验中使用的学习者上调用 generateFeatureImportanceData 时,会再次估算模型(忽略序列优化学习的参数化).这是虹膜数据集上的一些代码,用于说明
..
我正在尝试在调整超参数级别上并行化我正在mlr中进行调整的xgboost模型,并尝试与parallelMap并行化.我的代码可以在Windows机器(只有8个内核)上成功运行,并且想使用Linux服务器(有72个内核).我无法成功获得转移到服务器上的任何计算优势,并且我认为这是由于我对parallelMap参数的理解出现了漏洞. 我不将多核与本地与套接字之间的差异理解为parallelMap
..
我正在使用mlr包在R中构建xgboost分类任务: # define task Task
..
我正在使用mlr包中的multilabel.randomForestSRC学习器来解决多标签分类问题 我想返回变量的重要性 getFeatureImportance函数返回此问题: 代码: getFeatureImportance(mod) 错误: Error in checkLearner(object$learner, props = "featimp") : L
..
在某些分类任务中,使用mlr包,我需要处理与此类似的data.frame: set.seed(pi) # Dummy data frame df
..
如果在不平衡二进制目标变量的情况下使用欠采样来训练模型,则预测方法会在假设平衡数据集的情况下计算概率.对于不平衡的数据,如何将这些概率转换为实际概率?转换参数/函数是在mlr软件包中还是在另一个软件包中实现的?例如: a
..
我已经使用R的mlr包中的plotLearnerPrediction函数制作了许多漂亮的图.它们看起来像此.通过查看plotLearnerPrediction函数的源代码,看起来好像彩色表面是用geom_tile制作的. 例如,可以通过以下方式制作图: library(mlr) data(iris) #make a learner lrn
..