mlr3相关内容
使用的 R 版本:3.6.3,mlr3 版本:0.4.0-9000,mlr3proba 版本:0.1.6.9000,mlr3pipelines 版本:0.1.2 和 xgboost 版本:0.90.0.2(如 Rstudio 包管理器所述) 我已经部署了以下图形管道: imputePipe = PipeOpImputeMean$new(id = "imputemean", param_vals
..
我在过滤模型中最不重要的变量时遇到了困难.我收到了一组包含 4,000 多个变量的数据,我被要求减少进入模型的变量数量. 我已经尝试过两种方法,但都失败了两次. 我尝试的第一件事是在建模后手动检查变量重要性,并在此基础上删除不重要的变量. # 可重现的例子数据 %mutate(Species = as.factor(ifelse(Specie
..
我对两个学习器的运行时间进行了基准测试,并在 {ranger} 和 {svm} 进行训练时截取了 {htop} 的两个屏幕截图,以使我的观点更加清晰.正如这篇文章的标题所述,我的问题是为什么 svm 中的训练/预测与其他学习者(在本例中为 ranger)相比如此慢?是否与学习者的底层结构有关?或者我在代码中犯了错误?或者...?任何帮助表示赞赏. 游侠训练时的htop;使用所有线程.
..
我想在 mlr3 中重复 glmnet 的超参数调整(alpha 和/或 lambda)避免可变性 在较小的数据集中 在caret中,我可以用"repeatedcv" 因为我真的很喜欢 mlr3 系列包,所以我想用它们进行分析.但是,我不确定如何在 mlr3 中执行此步骤的正确方法 示例数据 #library图书馆(插入符号)图书馆(mlr3verse)图书馆(mlbench)#
..