logistic-regression相关内容
我正在尝试使用MASS包的polr()函数估计具有聚类标准误差的序数逻辑回归.没有内置的聚类功能,因此我正在寻找(a)软件包或(b)使用模型输出使用模型输出来计算聚类标准误差的手动方法.我打算使用margins包来估计模型的边际效应. 这里是一个例子: library(MASS) set.seed(1) obs
..
我正在使用sklearn中的逻辑回归构建具有12个参数和{0,1}标签的模型.我需要对标签0充满信心,如果某些"0"会被错误分类为1,我可以.目的是,如果数据被分类为0,我想从处理中排除数据. 如何调整参数? 解决方案 您基本上是在寻找特异性,它被定义为TN/(TN+FP),其中TN为True阴性,FP为False Positive.您可以在此博客文章中了解更多信息,并在详细信息.要实现
..
我在做这个大学.在华盛顿的作业中,我必须使用LogisticRegression中的Decision_function()来预测sample_test_matrix的分数(最后几行).但是我得到的错误是 ValueError: X has 145 features per sample; expecting 113092 这是代码: import pandas as
..
我正在对所有都是二进制的三个因素进行逻辑回归. 我的数据 table1
..
在了解Caffe函数 SigmoidCrossEntropyLossLayer 时,我需要帮助,这是逻辑激活的交叉熵错误. 基本上,具有N个独立目标的单个示例的交叉熵误差表示为: - sum-over-N( t[i] * log(x[i]) + (1 - t[i]) * log(1 - x[i] ) 其中,t是目标,为0或1,而x为输出,由i索引. x当然需要进行物流激活.
..
我正在尝试使用sklearn的逻辑回归训练庞大的数据集. 我已经设置了参数n_jobs = -1(也尝试过n_jobs = 5、10,...),但是当我打开htop时,我看到它仍然只使用一个内核. 这是否意味着逻辑回归仅忽略n_jobs参数? 我该如何解决?我真的需要这个过程来并行化... P.S.我正在使用sklearn 0.17.1 解决方案 并行进程后端也取决于求解
..
我试图在葡萄酒数据集上进行最佳子集选择,然后我想使用10倍CV得出测试错误率.我使用的代码是- cost1 0.5) res.best.logistic
..
我正在Matlab中实现逻辑回归.数据已标准化(均值和标准差).我了解,根据您的学习速度,您可能会超出最佳点.但这是否意味着您的费用开始上涨?就我而言,成本变成了负数,我不明白为什么. 这是我认为是标准的成本和重量更新规则 function J = crossEntropyError(w, x, y) h = sigmoid(x*w); J = (-y'*log(h) - (1
..
我正在使用scikit-learn在Python中实现多项式逻辑回归模型.但是,我想对目标变量的类使用概率分布.例如,假设这是一个3类变量,如下所示: class_1 class_2 class_3 0 0.0 0.0 1.0 1 1.0 0.0 0.0 2 0.0 0.5 0.5 3 0.2 0.3 0
..
我试图在Java中找到八度的fminunc(函数最小化不受限制)库的Java版本.目的是将其用于逻辑回归. 当前,我正在使用梯度下降的自制版本以使成本最小化,并且我希望能够使用一个已经存在的库(在Java中)为我做到这一点.这与我从 Coursera机器学习 Java课程. 解决方案 啊,您可以检查以下几项内容的适用性: http://dev.davidsoergel.com/
..
我使用lme4在R中运行混合效果logistig回归(通过调用glmer),现在我试图进行事后比较.因为它们是成对的,所以Tukey应该没问题,但是我想手动调整应该进行的测试数量-现在可以进行12个测试,但是我只对6个比较感兴趣. 到目前为止,我的代码看起来像这样 for (i in seq_along(logmixed_ranks)) { print(lsmeans(
..
我希望有人能帮助我.我从头开始实现了逻辑回归(因此没有库,除了Python中的numpy). 我使用 MNIST数据集作为输入,并决定尝试(因为我正在做二进制分类)仅对两位数字进行测试:1和2.我的代码可在此处找到 https ://github.com/michelucci/Logistic-Regression-Explained/blob/master/MNIST%20with%
..
我想知道如何从python statsmodels中拟合的logistic回归模型中获得比值比. >>> import statsmodels.api as sm >>> import numpy as np >>> X = np.random.normal(0, 1, (100, 3)) >>> y = np.random.choice([0, 1], 100) >>> res = sm.
..
最初,我从.csv文件读取数据,但是在这里我从列表构建数据框,以便可以重现该问题.目的是使用LogisticRegressionCV训练具有交叉验证的逻辑回归模型. indeps = ['M', 'F', 'M', 'F', 'M', 'M', 'F', 'M', 'M', 'F', 'F', 'F', 'F', 'F', 'M', 'F', 'F', 'F', 'F', 'F', 'M',
..
对于一个非常简单的分类问题,如果我有一个目标向量[0,0,0,.... 0]和一个预测向量[0,0.1,0.2,.... 1],则会产生交叉熵损失收敛更好/更快,还是MSE流失? 当我绘制它们时,在我看来,MSE损失的误差幅度较小.为什么会这样呢? 或者例如,当我将目标设为[1,1,1,1 .... 1]时,我得到以下信息: 解决方案 您听起来有些困惑... 比较MSE和MSE的值交叉熵损
..
我试图在带有LogisticRegression估计器的sklearn 0.18.1版中使用TimeSeriesSplit交叉验证策略.我收到一条错误消息,指出: cross_val_predict仅适用于分区 以下代码段显示了如何重现: from sklearn import linear_model, neighbors from sklearn.model_selectio
..
glmnet中是否可以进行一阶交互? 例如,如果我的X矩阵是: V1 V2 V3 0 1 0 1 0 1 1 0 0 ... 是否可以指定沿"y〜V1 + V2 + V3 + V1 * V2 + V2 * V3 + V1 * V3"的方式执行某些操作,而无需手动创建列?我的实际矩阵较大,手工创建所有一阶叉积会很麻烦. 解决方案 此类公式的正确R语法是
..
基于Logistic回归函数: 我正在尝试从 scikit-learn 中的模型中提取以下值. 其中是截距,而现在,我认为我可以通过执行model.intercept_来获取,但我一直在努力获取.有什么想法吗? 解决方案 您可以使用model.coef_访问特征的系数. 它给出了与值beta1,beta2等对应的值列表.列表的大小取决于您的逻辑回归使用的解释变量的数量.
..
我估计使用管道进行逻辑回归. 我在进行逻辑回归之前的最后几行: from pyspark.ml.feature import VectorAssembler from pyspark.ml.classification import LogisticRegression lr = LogisticRegression(featuresCol="lr_features", labelCo
..
我正在通过spark.ml.classification.LogisticRegressionModel.predict进行预测.许多行的prediction列为1.0,而probability列为.04. model.getThreshold是0.5,所以我假设该模型将超过0.5概率阈值的所有内容分类为1.0. 我应该如何解释1.0 prediction和probability为0.04的
..