multiclass-classification相关内容

什么时候微观和宏观平均值会有很大不同?

我正在学习机器学习理论。我有一个使用多类别Logistic回归的预测混淆矩阵。 现在我已经计算了微观和宏观平均值(精度和召回)。 值有很大不同。现在我想知道是什么因素影响了这一点。在什么情况下,微观和宏观会有很大的不同? 我注意到的是,对于不同的类别,预测的准确性是不同的。这就是原因吗?或者还有什么其他因素可以导致这种情况? 样本混淆矩阵: 和我计算的微观-宏观平均值 ..

XGBoost 中多类分类的损失函数是什么?

我想知道哪个损失函数使用 XGBoost 进行多类分类.我发现 在这个问题二元情况下逻辑分类的损失函数. 我认为对于多类情况,它可能与 GBM 中的相同(对于 K 类)可以在这里看到,其中 y_k=1 如果 x 的标签是 k 并且在任何其他情况下为 0,并且 p_k(x) 是 softmax 函数.但是,我使用此损失函数制作了一阶和二阶梯度,并且粗麻布与代码中定义的不匹配 此处(在 Soft ..
发布时间:2021-10-01 18:36:17 其他开发

Spacy 的 BERT 模型没有学习

我一直在尝试使用 spaCy 的预训练 BERT 模型 de_trf_bertbasecased_lg 来提高我的分类项目的准确性.我曾经使用 de_core_news_sm 从头开始​​构建模型,一切正常:我的准确率约为 70%.但现在我改用 BERT 预训练模型,准确度为 0%.我不相信它的工作如此糟糕,所以我假设我的代码有问题.我可能错过了一些重要的东西,但我不知道是什么.我以这篇文章中的代 ..

使用 sklearn 进行多类、多标签、序数分类

我想知道如何使用 sklearn 运行多类、多标签、序数分类.我想预测目标群体的排名,范围从某个位置最流行的人群 (1) 到最不流行的人群 (7).我似乎无法做到正确.你能帮我吗? # 随机森林分类# 进口将 numpy 导入为 np将熊猫导入为 pd从 sklearn.model_selection 导入 GridSearchCV、cross_val_score、train_test_spli ..

从多类分类算法输出前 2 个类

我正在研究 text 的多类分类问题,我有很多不同的类(15+).我已经训练了一个 Linearsvc svm 方法(方法只是一个例子).但是它只输出概率最高的单个类,有没有办法让算法同时输出两个类 我正在使用的示例代码: from sklearn.svm import LinearSVC导入 matplotlib.pyplot 作为 plt从 sklearn.feature_extrac ..

解释不平衡数据集上的 AUC、准确率和 f1 分数

我试图了解在数据集不平衡的情况下,AUC 如何成为比分类准确度更好的指标. 假设一个数据集包含 3 个类的 1000 个示例,如下所示: a = [[1.0, 0, 0]]*950 + [[0, 1.0, 0]]*30 + [[0, 0, 1.0]]*20 显然,这个数据是不平衡的. 一种幼稚的策略是预测属于第一类的每个点. 假设我们有一个具有以下预测的分类器: b = [[0.7, ..

R 中的分层 k 折交叉验证

假设我有一个多类数据集(例如 iris).我想执行分层的 10 倍 CV 来测试模型性能.我在包 splitstackchange 中找到了一个名为 stratified 的函数,它根据我想要的数据比例给我一个分层的折叠.因此,如果我想要一个测试折叠,它将是 0.1 个数据行. #One Fold库(splitstackchange)分层(虹膜,c(“物种"),0.1) 我想知道如何在 10 ..

我应该如何让程序停止并等待某些事情?爪哇

这里有问题,目前正在尝试创建数据库系统的登录.我必须类:UserLogManagerMainWindow 和DatabaseConnectionFrame.我的程序是关于日志管理的.我想建立一个数据库连接: UserLogManagerMainWindow 类有一个“连接到数据库"按钮,点击 DatabaseConnectionFrame 初始化并使用 jlabels 和 jtextfiel ..
发布时间:2021-06-04 20:46:46 Java开发

xgboost多类工作中的base_score有什么用?

我正在尝试探索Xgboost二进制分类以及多分类的工作.对于二元类,我观察到 base_score 被视为开始概率,并且在计算 Gain 和 Cover 时也显示出主要影响. 对于多类别的情况,我无法弄清 base_score 参数的重要性,因为它向我展示了 Gain 和 Cover的值相同表示base_score的不同(任意)值. 在为多类别(即 2 * p *(1-p))计算 cove ..

多类分类:概率和校准

我正在处理具有不同分类器的多类分类问题,并使用Python和scikit-learn.我想使用预测概率,基本上是为了比较特定情况下不同分类器的预测概率. 我开始阅读有关“校准"的信息,例如在 scikit-learn 和出版物,我感到困惑. 据我所知:一个经过良好校准的概率意味着该概率也反映了某个类别的分数. 这是否意味着如果我有10个均等分布的类,则理想情况下,每个类的校准概率 ..

Tensorflow,Keras:在多类别分类中,准确性很高,但大多数类别的准确性,召回率和f1得分均为零

常规说明:我的代码工作正常,但结果是有线的.我不知道问题出在哪里 网络结构, 或我将数据馈送到网络的方式 或其他任何东西. 我已经为这个错误苦苦挣扎了好几个星期,到目前为止,我已经更改了损失函数,优化器,数据生成器等,但是我无法解决.感谢您的帮助.如果以下信息还不够,请告诉我. 研究领域:我正在使用tensorflow,keras进行多类分类.数据集具有36个二进制人类属性. ..
发布时间:2021-05-28 19:09:33 其他开发