在损失函数中调整XgBoost中预测类别的权重 [英] adjust weights for predicted classes in xgboost in loss function
本文介绍了在损失函数中调整XgBoost中预测类别的权重的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
是否可以调整给定目标的加权误差?我试图做的是在预测多类时,对较稀有类的损失进行更高的加权。
推荐答案
如果使用核心数据结构,可以通过"Set_Weight"参数设置标签的权重:
set_weight(Weight)设置每个实例的权重。
参数:权重(类似数组)-每个数据点的权重
虽然关于这个主题的文档相当平淡,但我找到了一个可能对上一个主题有用的合理答案:How is the parameter "weight" (DMatrix) used in the gradient boosting procedure (xgboost)?
引用:
实例权重文件
XGBoost支持为每个实例提供区分权重 实例的重要性。例如,如果我们提供一个实例 示例中Train.txt文件的权重文件如下:Train.txt.weight
%1
0.5
0.5
%1
0.5
这意味着XGBoost将更加强调第一和第四 实例,也就是说,边训练边积极实例。这个 配置类似于配置群组信息。如果 实例文件名为"xxx",XGBoost将检查是否存在 同一目录中名为"xxx.weight"的文件,如果有,将 训练模型时使用权重。
希望能有所帮助!
这篇关于在损失函数中调整XgBoost中预测类别的权重的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!
查看全文