logistic-regression相关内容
我无法解释逻辑回归的结果.我的结果变量是Decision,并且是二进制的(0或1,分别取不取乘积). 我的预测变量是Thoughts,它是连续的,可以是正数或负数,并且四舍五入到小数点后第二位. 我想知道随着Thoughts改变产品服用概率的变化. 逻辑回归方程为: glm(Decision ~ Thoughts, family = binomial, data = data)
..
我需要知道如何以自己可以生成预测概率的方式返回逻辑回归系数. 我的代码如下: lr = LogisticRegression() lr.fit(training_data, binary_labels) # Generate probabities automatically predicted_probs = lr.predict_proba(binary_labels) 我假
..
我正在使用sklearn的逻辑回归函数,想知道每个求解器在后台实际上在做什么以解决优化问题. 有人可以简要描述"newton-cg","sag","lbfgs"和"liblinear"在做什么吗?如果没有,那么也非常感谢任何相关链接或阅读材料. 非常感谢. 解决方案 好吧,我希望参加聚会的时间不要太晚!让我先尝试建立一些直觉,然后再挖掘大量信息( 警告:这不是简短的比较)
..
几天来我一直在努力解决这个问题,尽管我在这里发现了类似的问题我想将一些特征拟合到逻辑回归模型中,以预测“中文"或“非中文".我有一个raw_name,我将提取该raw_name以获得两个功能:1)只是姓氏,而2)是姓氏子串的列表,例如,'Chan'将给出['ch','ha', '一个'].但是看来Dictvectorizer并没有将列表类型作为字典的一部分.通过上面的链接,我尝试创建一个函数lis
..
am试图使用深度神经网络体系结构对二进制标签值-0和+1进行分类.这是我的代码在tensorflow中做到这一点.这个问题也从上一个问题 import tensorflow as tf import numpy as np from preprocess import create_feature_sets_and_labels train_x,train_y,test_x,test_y
..
我正在尝试使用深度神经网络体系结构对二进制标签值--1和+1进行分类.这是我在tensorflow中执行此操作的代码. import tensorflow as tf import numpy as np from preprocess import create_feature_sets_and_labels train_x,train_y,test_x,test_y = create_
..
我在R,python statmodels和sklearn中进行了逻辑回归的一些实验.尽管R和statmodels给出的结果一致,但是与sklearn返回的结果存在一些差异.我想了解为什么这些结果会有所不同. 我了解到,这可能与在后台使用的优化算法不同. 具体来说,我使用标准的Default数据集(在 ISL书中使用).以下Python代码将数据读取到数据帧Default中. impo
..
我正在高度不平衡的数据集上使用scikit-learn中的LogisticRegression()方法.我什至将class_weight功能更改为auto. 我知道在Logistic回归中应该可以知道特定一对类的阈值是多少. 是否可以知道LogisticRegression()方法设计的每个“一对多"类中的阈值是什么? 我在文档页面中找不到任何内容. 默认情况下,是否将0.
..
我尝试运行以下代码.顺便说一句,我是python和sklearn的新手. import pandas as pd import numpy as np from sklearn.linear_model import LogisticRegression # data import and preparation trainData = pd.read_csv('train.csv')
..
我已经开始使用 Vowpal Wabbit 进行逻辑回归,但是我无法重现其给出的结果.也许有一些没有记载的“魔术",但是有人能复制/验证/检查逻辑回归的计算吗? 例如,使用下面的简单数据,我们旨在对age预测label的方式进行建模.显然,随着年龄的增长,存在密切的关系,观察到1的概率也会增加. 作为一个简单的单元测试,我使用了以下12行数据: age label 20 0 2
..
这是 https://的副本stats.stackexchange.com/questions/293988/logistic-regression-how-to-try-ever-try-every-combination-of-predictors . 我想进行逻辑回归:我有1个因变量和10个预测变量. 我想尝试每种组合的详尽搜索,例如更改顺序和添加/删除预测变量等.例如:
..
我想通过交叉验证从Logistic回归模型预测概率.我知道您可以获取交叉验证分数,但是可以从predict_proba返回值而不是分数吗? # imports from sklearn.linear_model import LogisticRegression from sklearn.cross_validation import (StratifiedKFold, cross_val_
..
我正在尝试使用vowpal wabbit进行逻辑回归.我不确定这是否是正确的语法 For training, I do ./vw -d ~/Desktop/new_data.txt --passes 20 --binary --cache_file cache.txt -f lr.vw --loss_function logistic --l1 0.05 For testing I d
..
我有一个通过逻辑回归算法训练的二进制预测模型.我想知道哪些特征(预测变量)对于正或负类的决策更为重要.我知道有coef_参数来自scikit-learn包,但我不知道它是否足以满足要求.另一件事是,我如何根据消极和积极类的重要性来评估coef_值.我还阅读了有关标准化回归系数的文章,但我不知道它是什么. 让我们说,有诸如肿瘤大小,肿瘤重量等特征可决定是恶性还是非恶性的测试病例.我想知道哪些特
..
我正在尝试从Stata向R复制logit回归.在Stata中,我使用选项"robust"具有可靠的标准误差(异方差一致性标准误差).我能够从Stata复制完全相同的系数,但是对于“三明治"软件包却无法获得相同的鲁棒标准误差. 我尝试了一些OLS线性回归示例;似乎R和Stata的三明治估计量为我提供了OLS相同的鲁棒标准误.有人知道Stata如何计算非线性回归的三明治估计量吗?在我的例子中是l
..
我正在实施逻辑回归.我设法弄清了概率,并且能够预测2类分类任务. 我的问题是: 对于我的最终模型,我有权重和训练数据.有2个特征,所以我的权重是2行的向量. 我该如何绘制?我看到了这篇文章 ,但我不太明白答案.我需要等高线图吗? 解决方案 逻辑回归分类器的一个优点是,一旦拟合出该分类器,就可以获取任何样本矢量的概率.这可能更有趣.这是使用scikit-learn的示例:
..
我运行了逻辑回归模型并预测了logit值.我用它来获得ROC曲线上的点: from sklearn import metrics fpr, tpr, thresholds = metrics.roc_curve(Y_test,p) 我知道metrics.roc_auc_score给出了ROC曲线下的面积.谁能告诉我什么命令可以找到最佳的截止点(阈值)? 解决方案 您可以最佳截
..
我正在使用批量梯度下降实现逻辑回归.输入样本分为两类.类是1和0.在训练数据时,我正在使用以下Sigmoid函数: t = 1 ./ (1 + exp(-z)); 其中 z = x*theta 我正在使用以下成本函数来计算成本,以确定何时停止培训. function cost = computeCost(x, y, theta) htheta = sigmoid(
..
我尝试在此笔记本中解决此问题6.问题是通过使用来自sklearn.linear_model的LogisticRegression模型,使用50、100、1000和5000个训练样本在此数据上训练一个简单的模型. https://github.com/tensorflow/examples/blob/master /courses/udacity_deep_learning/1_notmnist.i
..
在 Udacity的深度学习课程中,softmax y_i的值就是指数除以整个Y向量的指数之和: 其中S(y_i)是y_i的softmax函数,e是指数,j是no.输入向量Y中的列数. 我尝试了以下操作: import numpy as np def softmax(x): """Compute softmax values for each sets of score
..