logistic-regression相关内容
当我在model_df(下面的dput)上运行此GLM时: model
..
我试图了解在Logistic回归交叉验证中如何计算最佳系数,其中“refit”参数为True。 如果我对docs的理解是正确的,那么最好的系数是首先确定最佳正则化参数“C”的结果,即在所有折叠上具有最高平均分数的C值。然后,最好的系数就是在最佳C得分最高的折叠上计算的系数。我假设,如果最大分数被几个折叠获得,则这些折叠的系数将被平均,以得到最佳系数(我在文档中没有看到任何关于如何处理这种情况的内容
..
是否可以在sklearn中运行带有和不带有预测值(即只有截取)的回归(例如,Logistic回归)?这似乎是一个相当标准的类型分析,可能这个信息已经在输出中可用。 我找到的唯一相关内容是sklearn.svm.l1_min_c,但这将返回一个非空模型。 我正在寻找类似的东西,只截取的回归(Y = a + ε)与标准回归(Y = a + bX + ε):http://www.philen
..
我正在对布尔0/1数据集进行Logistic回归(预测某个年龄超过某个金额的工资的概率),并且我使用sklearn和StatsModels得到了非常不同的结果,而skLearning是非常错误的。 为了使该函数更类似于StatsModels,我已将skLearning惩罚设置为None,并将Intercept Term设置为False,但我看不到如何让skLearning给出合理的答案。
..
这是我在这里的第一个问题:-) 我导入了Scikit-Learn提供的Logistic回归类,然后创建了一个对象: from sklearn.linear_model import LogisticRegression my_lr = LogisticRegression() 我正在研究的这本书说,当我检查我的对象时,我应该看到以下输出: LogisticRegression
..
我正在学习机器学习理论。我有一个使用多类别Logistic回归的预测混淆矩阵。 现在我已经计算了微观和宏观平均值(精度和召回)。 值有很大不同。现在我想知道是什么因素影响了这一点。在什么情况下,微观和宏观会有很大的不同? 我注意到的是,对于不同的类别,预测的准确性是不同的。这就是原因吗?或者还有什么其他因素可以导致这种情况? 样本混淆矩阵: 和我计算的微观-宏观平均值
..
我想对下面包含的LogitRegress函数进行修改,以包括其他自变量和固定效果。 以下代码改编自此处提供的答案:how to use sklearn when target variable is a proportion from sklearn.linear_model import LinearRegression from random import choices from
..
我目前正在上一门关于Coursera的Andrew Ng课程,我尝试在数据集上使用我所学到的关于Logistic回归的知识。但我不能使成本函数减小。 我尝试了不同的学习速率(0.0001、0.003、0.0001…)和迭代次数。可能是我写错了函数,但找不到错误 import numpy as np import scipy as sc import matplotlib.pyplot
..
我正在通过在Coursera上使用Andrew Ng的机器学习来实现所有的代码,而不是用MatLab。 在编程练习3中,我以向量化的形式实现了我的正则化Logistic回归成本函数: def compute_cost_regularized(theta, X, y, lda): reg =lda/(2*len(y)) * np.sum(theta**2) return
..
我愿意对我的数据集执行逻辑回归。我使用: glm.fit=glm(direccion~Profit, data=datos, family=binomial) Minute ecopet TASA10 direccion Minute cl1 Day Profit 1 571 2160 5 1
..
我使用到Databricks列出的管道流构建了一个Logistic回归模型。 https://docs.databricks.com/spark/latest/mllib/binary-classification-mllib-pipelines.html 使用OneHotEncoderEstimator对特征(数字和字符串特征)进行编码,然后使用标准定标器进行转换。 我想知道如何将L
..
使用插入符号::Train()运行逻辑回归模型时遇到问题。 LR = caret::train(Satisfaction ~., data= log_train, method = "glm", preProcess = c("scale"), family="binomial") 继续出现以下错误行: 摘要出错。Connection(Connection):无效连接 这个错误对
..
我使用来自乳腺癌数据的以下内容训练Logistic模型,并且只使用了一个特征‘Mean_Area’ from statsmodels.formula.api import logit logistic_model = logit('target ~ mean_area',breast) result = logistic_model.fit() 在训练好的模型中有一个内置的预测方法。然而
..
我正在尝试将Logistic回归模型拟合到JAGS中,但我得到的数据形式为(#Success y,#Trips n),而不是二进制变量。在R中,您可以通过使用带有“Weight”参数的GLM(y/n~)来将模型与这样的数据相匹配,但我不确定如何在JAG中匹配该模型。 这里有一个简单的例子,我希望它能解决我想要问的问题。请注意,我使用的是rjgs包。感谢您的帮助! y
..
我刚开始在CourseraMachine Learning上Ng的课程。 第三周的主题是Logistic回归,因此我尝试实现以下成本函数。 假设定义为: 其中g为Sigmoid函数: 这是我的函数目前的外观: function [J, grad] = costFunction(theta, X, y) m = length(y); % number of training e
..
这是列车数据集的头。 Head of the X_Train 运行以下代码: logit = sm.GLM(Y_train, X_train, family=sm.families.Binomial()) result = logit.fit() 您能帮帮忙吗? 出现以下错误: Error Screen Shot 推荐答案 已在一个或多个预测变量和结果变量中
..
给定成功率的样本数据加上样本量和自变量,我在R中尝试Logistic回归。 下面的代码做了我想要的事情,似乎给出了合理的结果,但看起来不像是合理的方法;实际上它使数据集的大小翻了一番 datf
..
我正在尝试在Python语言中实现混合效果逻辑回归。作为比较,我在R中使用lme4包中的glmer函数。 我发现statsmodels模块有一个BinomialBayesMixedGLM应该能够适应这样的模型。但是,我遇到了一些问题: 我发现statsmodels函数的文档不完全有帮助或不清楚,因此我不完全确定如何正确使用该函数。 到目前为止,我的尝试还没有产生与我在R中使用glme
..
我正在尝试建立Logistic回归模型,但它显示AttributeError: 'str' object has no attribute 'decode'。请帮我解决这个问题。此代码在Datacamp的服务器上运行良好,但在我的笔记本电脑上显示AttributeError。 import pandas as pd df = pd.read_csv('datasets/diabetes.cs
..
我必须使用批量梯度下降进行Logistic回归。 import numpy as np X = np.asarray([ [0.50],[0.75],[1.00],[1.25],[1.50],[1.75],[1.75], [2.00],[2.25],[2.50],[2.75],[3.00],[3.25],[3.50], [4.00],[4.25],[4.50],[4.75],[5.00],
..