在损失函数中调整XgBoost中预测类别的权重 [英] adjust weights for predicted classes in xgboost in loss function

查看:0
本文介绍了在损失函数中调整XgBoost中预测类别的权重的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

是否可以调整给定目标的加权误差?我试图做的是在预测多类时,对较稀有类的损失进行更高的加权。

推荐答案

如果使用核心数据结构,可以通过"Set_Weight"参数设置标签的权重:

set_weight(Weight)设置每个实例的权重。

参数:权重(类似数组)-每个数据点的权重

虽然关于这个主题的文档相当平淡,但我找到了一个可能对上一个主题有用的合理答案:How is the parameter "weight" (DMatrix) used in the gradient boosting procedure (xgboost)?

引用:

实例权重文件

XGBoost支持为每个实例提供区分权重 实例的重要性。例如,如果我们提供一个实例 示例中Train.txt文件的权重文件如下:

Train.txt.weight

%1

0.5

0.5

%1

0.5

这意味着XGBoost将更加强调第一和第四 实例,也就是说,边训练边积极实例。这个 配置类似于配置群组信息。如果 实例文件名为"xxx",XGBoost将检查是否存在 同一目录中名为"xxx.weight"的文件,如果有,将 训练模型时使用权重。

希望能有所帮助!

这篇关于在损失函数中调整XgBoost中预测类别的权重的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持IT屋!

查看全文
登录 关闭
扫码关注1秒登录
发送“验证码”获取 | 15天全站免登陆