multiclass-classification相关内容
我正在学习机器学习理论。我有一个使用多类别Logistic回归的预测混淆矩阵。 现在我已经计算了微观和宏观平均值(精度和召回)。 值有很大不同。现在我想知道是什么因素影响了这一点。在什么情况下,微观和宏观会有很大的不同? 我注意到的是,对于不同的类别,预测的准确性是不同的。这就是原因吗?或者还有什么其他因素可以导致这种情况? 样本混淆矩阵: 和我计算的微观-宏观平均值
..
您好,我正在使用新的 SpaCy 模型 en_pytt_bertbaseuncased_lg 实现多分类模型(5 个类).新管道的代码在这里: nlp = spacy.load('en_pytt_bertbaseuncased_lg')textcat = nlp.create_pipe('pytt_textcat',配置={"nr_class":5,“exclusive_classes":真,}
..
我正在使用 Keras 构建多类模型. model.compile(optimizer='adam', loss='categorical_crossentropy', metrics=['accuracy'])model.fit(X_train, y_train, batch_size=batch_size, epochs=epochs, verbose=1, callbacks=[check
..
我想知道哪个损失函数使用 XGBoost 进行多类分类.我发现 在这个问题二元情况下逻辑分类的损失函数. 我认为对于多类情况,它可能与 GBM 中的相同(对于 K 类)可以在这里看到,其中 y_k=1 如果 x 的标签是 k 并且在任何其他情况下为 0,并且 p_k(x) 是 softmax 函数.但是,我使用此损失函数制作了一阶和二阶梯度,并且粗麻布与代码中定义的不匹配 此处(在 Soft
..
我一直在尝试使用 spaCy 的预训练 BERT 模型 de_trf_bertbasecased_lg 来提高我的分类项目的准确性.我曾经使用 de_core_news_sm 从头开始构建模型,一切正常:我的准确率约为 70%.但现在我改用 BERT 预训练模型,准确度为 0%.我不相信它的工作如此糟糕,所以我假设我的代码有问题.我可能错过了一些重要的东西,但我不知道是什么.我以这篇文章中的代
..
我使用 RNN 进行多类分类,这是我的 RNN 主要代码: def RNN(x, weights, biases):x = tf.unstack(x, input_size, 1)lstm_cell = rnn.BasicLSTMCell(num_unit,forget_bias=1.0,state_is_tuple=True)stacked_lstm = rnn.MultiRNNCell([l
..
我想知道如何使用 sklearn 运行多类、多标签、序数分类.我想预测目标群体的排名,范围从某个位置最流行的人群 (1) 到最不流行的人群 (7).我似乎无法做到正确.你能帮我吗? # 随机森林分类# 进口将 numpy 导入为 np将熊猫导入为 pd从 sklearn.model_selection 导入 GridSearchCV、cross_val_score、train_test_spli
..
我正在研究 text 的多类分类问题,我有很多不同的类(15+).我已经训练了一个 Linearsvc svm 方法(方法只是一个例子).但是它只输出概率最高的单个类,有没有办法让算法同时输出两个类 我正在使用的示例代码: from sklearn.svm import LinearSVC导入 matplotlib.pyplot 作为 plt从 sklearn.feature_extrac
..
我试图了解在数据集不平衡的情况下,AUC 如何成为比分类准确度更好的指标. 假设一个数据集包含 3 个类的 1000 个示例,如下所示: a = [[1.0, 0, 0]]*950 + [[0, 1.0, 0]]*30 + [[0, 0, 1.0]]*20 显然,这个数据是不平衡的. 一种幼稚的策略是预测属于第一类的每个点. 假设我们有一个具有以下预测的分类器: b = [[0.7,
..
我正在关注此链接上为多个类绘制 ROC 曲线的文档:http://scikit-learn.org/stable/auto_examples/model_selection/plot_roc.html 我特别对这条线感到困惑: y_score =classifier.fit(X_train, y_train).decision_function(X_test) 我已经看到在其他示
..
我有一个分类问题,我有一个 8x8 图像的像素值和图像代表的数字,我的任务是使用 RandomForestClassifier 根据像素值预测数字('Number' 属性).数值的取值范围为0-9. from sklearn.ensemble import RandomForestClassifier从 sklearn.metrics 导入 roc_auc_scoreForest_model =
..
如何计算多类分类问题的真假阳性率?说, y_true = [1, -1, 0, 0, 1, -1, 1, 0, -1, 0, 1, -1, 1, 0, 0, -1, 0]y_prediction = [-1, -1, 1, 0, 0, 0, 0, -1, 1, -1, 1, 1, 0, 0, 1, 1, -1] 混淆矩阵由 metrics.confusion_matrix(y_true, y_
..
我正在做不同的文本分类实验.现在我需要计算每个任务的 AUC-ROC.对于二进制分类,我已经使用以下代码使其工作: scaler = StandardScaler(with_mean=False)enc = LabelEncoder()y = enc.fit_transform(标签)feat_sel = SelectKBest(mutual_info_classif, k=200)clf =
..
假设我有一个多类数据集(例如 iris).我想执行分层的 10 倍 CV 来测试模型性能.我在包 splitstackchange 中找到了一个名为 stratified 的函数,它根据我想要的数据比例给我一个分层的折叠.因此,如果我想要一个测试折叠,它将是 0.1 个数据行. #One Fold库(splitstackchange)分层(虹膜,c(“物种"),0.1) 我想知道如何在 10
..
这里有问题,目前正在尝试创建数据库系统的登录.我必须类:UserLogManagerMainWindow 和DatabaseConnectionFrame.我的程序是关于日志管理的.我想建立一个数据库连接: UserLogManagerMainWindow 类有一个“连接到数据库"按钮,点击 DatabaseConnectionFrame 初始化并使用 jlabels 和 jtextfiel
..
这个问题也与此相关. 就加权指标而言,您将分别计算4个类别中每个类别的每个指标.每个类别中都有实例数,则可以计算加权平均指标.下图显示了加权精度的等式:
..
试图了解SVM-OVR(One-Vs-Rest)的工作原理,我正在测试以下代码: 将matplotlib.pyplot导入为plt将numpy导入为np从sklearn.svm导入SVCx = np.array([[1,1.1],[1,2],[2,1]])y = np.array([0,100,250])分类器= SVC(内核='线性',decision_function_shape ='ovr
..
我正在尝试探索Xgboost二进制分类以及多分类的工作.对于二元类,我观察到 base_score 被视为开始概率,并且在计算 Gain 和 Cover 时也显示出主要影响. 对于多类别的情况,我无法弄清 base_score 参数的重要性,因为它向我展示了 Gain 和 Cover的值相同表示base_score的不同(任意)值. 在为多类别(即 2 * p *(1-p))计算 cove
..
我正在处理具有不同分类器的多类分类问题,并使用Python和scikit-learn.我想使用预测概率,基本上是为了比较特定情况下不同分类器的预测概率. 我开始阅读有关“校准"的信息,例如在 scikit-learn 和出版物,我感到困惑. 据我所知:一个经过良好校准的概率意味着该概率也反映了某个类别的分数. 这是否意味着如果我有10个均等分布的类,则理想情况下,每个类的校准概率
..
常规说明:我的代码工作正常,但结果是有线的.我不知道问题出在哪里 网络结构, 或我将数据馈送到网络的方式 或其他任何东西. 我已经为这个错误苦苦挣扎了好几个星期,到目前为止,我已经更改了损失函数,优化器,数据生成器等,但是我无法解决.感谢您的帮助.如果以下信息还不够,请告诉我. 研究领域:我正在使用tensorflow,keras进行多类分类.数据集具有36个二进制人类属性.
..