logistic-regression相关内容
我正在寻找反馈,以确定如何正确指定随机效应以说明重复测量设计中的相关性,但是具有多个相关性级别(包括每个预测变量组合的纵向数据 ).结果是二进制的,因此我将拟合逻辑混合模型.我打算使用 lme4 包中的 glmer()函数.如果您想知道这些数据是如何产生的,那么一个例子就是眼动仪:人们的眼睛被“跟踪"到了眼睛.持续30秒,例如在不同级别的预测器下,确定它们是否看着屏幕上的某个对象(因此产生二进制结
..
我有一个非常简单的逻辑回归模型,该模型仅基于 Race 和 Sex 中的两个分类预测变量.首先,由于我有一些缺失的值,为了确保所有缺失的数据以 NA 的形式输入,我使用以下命令导入数据框: >mydata
..
我对逐步回归有问题,我的理解是我没有正确传递参数 Data . 我具有以下功能: ForwardStep
..
我想知道如何在 glm 中指定默认起始值. 此帖子建议默认值为设置为零.一个表示其背后有一个算法,但是相关链接已断开 我试图用算法跟踪拟合简单的逻辑回归模型: set.seed(123)x
..
相关问题- 1 我有一个像这样的数据集: >头(training_data)年月频道分组访问开始时间访问次数时间自上次访问浏览器1 2016年10月社交1477775021 1 0铬2 2016年9月社交1473037945 1 0 Safari3 2017年7月自然搜索1500305542 1 0铬4 2017年7月自然搜索1500322111 2 16569铬5 2016年8月社交14
..
我正在尝试使用 train 中的 method ="glm" 建立分类模型.当我使用 method ="rpart" 时,它可以正常工作,但是当我切换到 method ="glm" 时,它给我一个错误提示 调整参数网格应具有列参数 我尝试使用 cpGrid = data.frame(.0001) 还 cpGrid = data.frame(expand.grid(.cp =
..
基本上我的问题与以下论文有关(仅阅读 1.Introduction 部分, 3.Precision模型结构和部分就足够了> 3.1决策树功能转换,其他所有内容都可以跳过) https://pdfs.semanticscholar.org/daf9/ed5dc6c6bad5367d7fd8561527da. 本文建议,与仅使用决策树或线性分类(不是同时使用二者)相比,在组合决策树+线性分
..
我在 R 中使用 gbm 包,并应用"bernoulli"选项进行分发以构建分类器,并且得到了"nan"和“无法预测任何分类结果.但是当我使用"adaboost"时,我没有遇到相同的错误.下面是示例代码,我用虹膜数据集复制了相同的错误. ##使用gbm的虹膜数据图书馆(插入符号)图书馆(GBM)数据(虹膜)数据
..
我正在使用MATLAB进行逻辑回归,以解决一个简单的分类问题.我的协变量是一个介于0和1之间的连续变量,而我的分类响应是二进制变量0(不正确)或1(正确). 我正在寻找一个逻辑回归来建立一个预测变量,该预测变量将输出某些输入观测值(例如上述连续变量)正确或不正确的概率.尽管这是一个非常简单的场景,但是在MATLAB中运行它时遇到了一些麻烦. 我的方法如下:我有一个包含连续变量值的列向量
..
我的实现(见下文)给出了标量值3.18,这不是正确的答案.该值应为0.693.我的代码在哪里偏离方程式? 以下是解决数据以运行Octave中的成本函数方法的说明: data = load('ex2data1.txt'); X = data(:, [1, 2]); y = data(:, 3); [m, n] = size(X); X = [ones(m, 1) X]; initial_
..
在分类数据分析中,我们经常使用逻辑回归来估计二项式结果与一个或多个协变量之间的关系. 我知道这是广义线性模型(GLM)的一种.在R中,这是通过glm函数使用参数family=binomial来实现的.另一方面,在分类数据分析中是多项模型.这些不是GLM吗?难道不能使用glm函数在R中估计它们吗? (在此关于多项式逻辑回归的帖子中.作者使用外部软件包mlogit,该软件包似乎也已过时)
..
在尝试udacity课程深度学习任务时,我遇到了一个问题,那就是将模型的预测与训练集的标签进行比较。我正在使用的数组具有以下形状: 训练集(200000,28,28)(200000,) 验证集(10000,28,28)(10000,) 测试集(10000,28,28)(10000,) 但是,使用函数检查准确性时: def准确性(预测,标签): 返回(100.0 *
..
我是数据科学新手,正在研究 Kaggle Titanic数据集 。我正在对其进行Logistic回归,以预测测试数据集中的乘客是否存活还是死亡。 我同时清理训练数据和测试数据,并运行Logistic回归适合训练数据。 train = pd.read_csv('train .csv') X_train = train.drop('Survived',axis = 1) y_trai
..
谁能解释如何解释 coefficientMatrix , interceptVector ,混淆矩阵 多项式逻辑回归。 根据Spark文档: 通过多项逻辑(softmax)回归支持多类分类。在多项逻辑回归中,该算法生成K组系数或维数K×J的矩阵,其中K是结果类的数量,J是特征的数量。如果该算法适合截距项,则截距的长度K向量可用。 我使用spark ml 2.3.0进行了示例
..
我正在使用Anaconda,并且正在尝试逻辑回归.加载训练数据集并执行回归后.然后我收到以下警告消息. train_cols = data.columns[1:] logit = sm.Logit(data['harmful'], data[train_cols]) result = logit.fit() Warning: Maximum number of iterations has
..
是否有一个R-package来为我的模型计算伪R-平方量度? rcompanion既不支持clogit也不支持bife(由于缺少拦截功能?). 最初,这是从更大的上下文出发的一个问题,我对其进行了编辑以使其更具可读性. 提前感谢您的帮助! 解决方案 相对于问题5:伪r平方值的定义(主要基于对数似然值)由
..
无法为以下逻辑回归修正以下错误 training=(IBM$Serial
..
我当前正在为CSV编制索引,且值低于以下,并遇到错误: ValueError:找到数量不一致的输入变量 样本:[1,514] 它正在检查它是否为514列的1行,这强调我调用了一个特定的参数错误,或者是由于我删除了NaN(大多数数据将默认为?)的原因 "Classification","DGMLEN","IPLEN","TTL","IP" "1","0.000000","192.1
..
我对SAS非常陌生,并尝试使用SAS中的逻辑回归来预测概率.我从SAS支持网站获得以下代码: data vaso; length Response $12; input Volume Rate Response @@; LogVolume=log(Volume); LogRate=log(Rate); datalines; 3.70 0.825 constrict
..
我正在研究R(初学者)中的损失厌恶模型,并希望从具有3列(损失/收益值(连续的和决策编码为0或1(二进制)的列)的数据集中估算一些参数) dropbox.com/s/fpw3obrqcx8ld1q/GrandAverage.RData?dl=0 下面给出了我必须使用的部分代码: set
..