auc相关内容
我正在使用分层的 10 折交叉验证来找到从具有最高 auc 的 X(X 有 34 个标签)预测 y(二元结果)的模型.我设置了 GridSearchCV: log_reg = LogisticRegression()parameter_grid = {'penalty' : ["l1", "l2"],'C': np.arange(0.1, 3, 0.1),}cross_validation =
..
我有以下两种不同情况的 F1 和 AUC 分数 模型 1:精度:85.11 召回:99.04 F1:91.55 AUC:69.94 模型 2:精度:85.1 召回:98.73 F1:91.41 AUC:71.69 我的问题的主要动机是正确预测正例,即减少假负例 (FN).我应该使用 F1 分数并选择模型 1 还是使用 AUC 并选择模型 2.谢谢 解决方案 简介 根
..
我正在使用 scikit-learn 的 roc_auc_score 函数来评估我的模型性能.但是,无论我使用 predict() 还是 predict_proba() ,我都会得到不同的值 p_pred = forest.predict_proba(x_test)y_test_predicted=forest.predict(x_test)fpr, tpr, _ = roc_curve(y_t
..
我正在尝试在非常不平衡的数据集上使用 LightGBM 构建分类器.不平衡的比例为 97:3,即: 类0 0.9706911 0.029309 我使用的参数和训练代码如下所示. lgb_params = {'boosting_type': 'gbdt','目标':'二进制','公制':'auc',“学习率":0.1,'is_unbalance': 'true', #因为训练数据不平衡(用sc
..
在 航班延误数据集. 我使用 pandas 来选择一些列: df = df[["MONTH", "DAY_OF_MONTH", "DAY_OF_WEEK", "ORIGIN", "DEST", "CRS_DEP_TIME", "ARR_DEL15"]] 我用 0 填充 NaN 值: df = df.fillna({'ARR_DEL15': 0}) 确保分类列标有“类别"数据类型:
..
我正在尝试在我的模型的训练时间期间记录AUC. 根据文档,tf.metric.auc 需要 label 和 predictions,两者的形状相同. 但在我的二元分类情况下,label 是一个 一维 张量,只包含类.而prediction 是二维,包含每个数据点的每个类别的概率. 在这种情况下如何计算AUC? 解决方案 我们来看看函数中的参数tf.metrics.auc:
..
我正在尝试了解 Logit 模型的 Python statsmodels 中的 predict 函数.它的文档位于此处. 当我构建 Logit 模型并使用 predict 时,它返回从 0 到 1 的值,而不是 0 或 1.现在我读到这篇文章说这些是概率,我们需要一个阈值.Python statsmodel.api 逻辑回归 (Logit) 现在,我想生成 AUC 数字,我使用 skl
..
我试图了解在数据集不平衡的情况下,AUC 如何成为比分类准确度更好的指标. 假设一个数据集包含 3 个类的 1000 个示例,如下所示: a = [[1.0, 0, 0]]*950 + [[0, 1.0, 0]]*30 + [[0, 0, 1.0]]*20 显然,这个数据是不平衡的. 一种幼稚的策略是预测属于第一类的每个点. 假设我们有一个具有以下预测的分类器: b = [[0.7,
..
我正在对现有数据框进行 k 折 XV,我需要获得 AUC 分数.问题是——有时测试数据只包含 0,而不包含 1! 我尝试使用 this 示例,但使用不同的数字: 将 numpy 导入为 np从 sklearn.metrics 导入 roc_auc_scorey_true = np.array([0, 0, 0, 0])y_scores = np.array([1, 0, 0, 0])roc
..
我一直在尝试使用 caret 包应用递归特征选择.我需要的是 ref 使用 AUC 作为性能度量.谷歌搜索一个月后,我无法使该过程正常工作.这是我使用的代码: 库(插入符号)图书馆(doMC)registerDoMC(核心数 = 4)数据(mdrr)子集
..
我想知道是否有办法根据 caret 包生成的 SVM-RFE 模型的交叉验证数据绘制平均 ROC 曲线. 我的结果是: 递归特征选择外重采样方法:Cross-Validated(10折,重复5次)子集大小的重采样性能:变量 ROC Sens Spec Accuracy Kappa ROCSD SensSD SpecSD AccuracySD KappaSD Selected1 0.6911
..
我的问题 我想建立一个具有高 AUC 的逻辑回归模型来预测二元变量. 我想使用以下方法(如果可行): 使用弹性网络模型 (glmnet) 减少预测变量并找到最佳超参数(alpha 和 lambda) 在逻辑回归模型 (=finalmodelsuperdoc 的意见)相结合/code>),类似于第 26 页中所述: Afshar P、Mohammadi A、Platan
..
我正在处理使用 caret 包生成的 SVM-RFE 模型的交叉验证数据(10 倍重复 5 次).我知道在计算指标时 caret 包与 pROC 包一起工作,但我需要使用 ROCR 包以获得平均 ROC.但是,我注意到使用每个包时平均 AUC 值并不相同,所以我不确定是否应该模糊地使用这两个包. 我用来证明的代码是: predictions_NG3 结果略有不同: auc_mean_
..
使用 gridsearchCV 执行此操作时,我不断收到此错误,评分值为 'roc_auc'('f1', 'precision','recall' 工作正常) # 构建管道管道 = 管道([('reduce_dim',PCA()),('rf',RandomForestClassifier(min_samples_leaf=5,random_state=123))])N_FEATURES_OPTI
..
我分别从 sklearn 的 RandomForestClassifier 和 roc_curve、auc 方法接收到不同的 ROC-AUC 分数. 以下代码使我获得了 0.878 的 ROC-AUC(即 gs.best_score_): def train_model(mod = None, params = None, features = None,结果 = ...结果数组...,度
..
我正在训练一个 RandomForestClassifier (sklearn) 来预测信用卡欺诈.当我测试模型并检查 rocauc 分数时,当我使用 roc_auc_score 和 plot_roc_curve 时,我得到了不同的值.roc_auc_score 给我大约 0.89,而 plot_curve 计算出的 AUC 为 0.96,这是为什么? 标签都是 0 和 1,预测是 0 或
..
我已经使用 Tensorflow 构建了一个二元分类器,现在我想使用 AUC 和准确性来评估分类器. 就准确性而言,我可以很容易地这样做: X = tf.placeholder('float', [None, n_input])y = tf.placeholder('float', [None, n_classes])pred = mlp(X,权重,偏差,dropout_keep_prob
..
我有一个 y 值列表和一个 x 值列表.我想找到由这些点定义的曲线下的面积.对于具有均匀间距的 x 值,我找到了几个解决此问题的方法: 1) 给定一组坐标,在不知道函数的情况下计算曲线下的面积 2) 使用scipy对样本进行离散积分 但是当 x 值不均匀分布时,这两种方法都不起作用. 例如: >>>从 scipy.integrate 导入 simps>>>y = np.a
..
我的数据在一个稀疏矩阵中.在开始大计算之前,我现在首先处理具有约 500k 行的子集.数据是二元数加上熵和字符串长度,完整的数据集包含数百万行乘以 1400 列.该模型旨在帮助表征这些字符串,因此我使用 SGDClassifier 进行逻辑回归. 由于尺寸较大,我决定在我的 SGDClassifier 上使用 partial_fit,但是我得到的计算出的 area-under-curve 值
..
我正在尝试使用 scikit-learn 模块来计算AUC并绘制ROC曲线,以输出三个不同分类器的输出,以比较其性能.我对这个主题还很陌生,我正在努力了解如何将我的数据输入到 auc 函数. 对于测试集中的每个项目,我都有三个分类器中每个分类器的真实值和输出.这些类是 ['N','L','W','T'] .另外,对于分类器输出的每个值,我都有一个置信度得分.如何将这些信息传递给roc_cur
..