logistic-regression相关内容
我已经训练了逻辑回归模型.现在,我必须使用一组新的训练数据来更新(部分拟合)模型.有可能吗? 解决方案 您不能在 LogisticRegression 上使用 partial_fit . 但是您可以: 使用 warm_start = True ,该代码可重用上一个调用的解决方案以适合初始化,以加快收敛速度. 将 SGDClassifier 与 loss ='log'一起使
..
我有一个评论数据集,其类别标签为正面/负面.我正在将Logistic回归应用于该评论数据集.首先,我要转换成单词包.此处 sorted_data ['文本'] 是评论,而 final_counts 是稀疏矩阵 count_vect = CountVectorizer()final_counts = count_vect.fit_transform(sorted_data ['Text'].va
..
我正在尝试在R中绘制逻辑回归.我目前有此代码... mylogit
..
我正在研究分类问题,需要逻辑回归方程的系数.我可以在R中找到系数,但是我需要在python中提交项目.我找不到用于在python中学习逻辑回归系数的代码.如何在python中获取系数值? 解决方案
..
我正在尝试创建非线性logistic回归,即使用scikit-learn进行多项式logistic回归.但是我找不到如何定义多项式的度数.有人尝试过吗?非常感谢! 解决方案 为此,您需要分两步进行.让我们假设您正在使用虹膜数据集(因此您有一个可重现的示例): 来自sklearn.datasets的 导入load_iris从sklearn.linear_model导入LogisticRe
..
我试图了解 sklearn.linear_model 中的 RidgeClassifier 和 LogisticRegression 之间的区别.我在文档中找不到它. 我想我很清楚 LogisticRegression 的作用.它计算系数和截距以最小化系数平方和的一半 + C 乘以二元交叉熵损失,其中 C 是正则化参数.我从头开始检查了一个简单的实现,结果是一致的. RidgeClas
..
我想用不同的参数给不同的分类器评分. 为了提高 LogisticRegression 的速度,我使用了 LogisticRegressionCV (至少快了2倍),并计划使用 GridSearchCV 进行其他操作. 但是问题出在给我相等的 C 参数,而不是 AUC ROC 得分上. 我将尝试修复许多参数,例如 scorer , random_state , solver , max
..
我正在尝试正则化LR,使用matlab中的此公式很简单: 成本函数: J(θ)= 1/m * sum((-y_i)* log(h(x_i)-(1-y_i)* log(1-h(x_i))))+(lambda/2 * m)* sum(theta_j) 渐变: ∂J(theta)/∂theta_0= [(1/m)*(sum((h(x_i)-y_i)* x_j)]如果j = 0∂j(the
..
我的数据集如下 ID choice_situation替代Attr1 Attr2 Attr3选择ID_1 1 1 0 0 0 0ID_1 1 2 1 1 0 1ID_1 2 1 1 1 0 0ID_1 2 2 1 1 1 1ID_1 3 1 2 1 0 1ID_1 3 2 3 1 0 0ID_2 1 1 3 0 1 1ID_2 1 2 0 0 0 0ID_2 2 1 2 1 1 0ID_2 2
..
我想使用 caret::train 计算具有最佳 alpha 和 lambda 的弹性网络回归模型的 10 倍交叉验证 AUC https://stats.stackexchange.com/questions/69638/does-caret-train-function-for-glmnet-cross-validate-for-both-alpha-and-lambda/69651 解释
..
..
我必须根据其他属性来预测学生所学课程的类型. prog 是一个分类变量,指示学生所在的课程类型:“一般"(1),“学术"(2)或“职业"(3) Ses 是表明某人的社会经济阶层的分类变量:“低"(1),“中"(2)和“高"(3) read , write , math , science 是他们在不同测试中的分数 荣誉是否已注册 图像格式的csv文件; 将熊猫作为pd导
..
使用插入符号包在R中执行逻辑回归,并尝试强制执行零拦截,以使x = 0处的概率为0.5.在其他形式的回归中,似乎可以使用tunegrid关闭截距,但是它没有逻辑回归的功能.有什么想法吗? 模型
..
我有一个存在/不存在响应变量和一个具有9个级别的因子变量的二项式 glm : data $ y
..
使用两个API进行逻辑回归时,它们给出不同的系数.即使使用这个简单的示例,它在系数方面也不会产生相同的结果.而且,我遵循了关于同一主题的较早建议的建议,例如在sklearn中为参数C设置一个较大的值,因为它会使处罚几乎消失(或设置刑罚=“无"). 将pandas导入为pd将numpy导入为np将sklearn导入为sk从sklearn.linear_model导入LogisticRegressi
..
使用imdb电影评论数据集,我进行了逻辑回归以预测评论的情绪. tfidf = TfidfVectorizer(strip_accents = None,小写= False,预处理器= None,tokenizer =填充,use_idf = True,范数='l2',smooth_idf = True)y = df.sentiment.valuesX = tfidf.fit_transfor
..
我有一个模型正在尝试使用 sklearn 中的 LogisticRegression 构建,该模型具有数千种功能和大约60,000个样本.我正在尝试拟合模型,并且它已经运行了大约10分钟.我正在运行它的机器有 GB 的 RAM 和几个可供使用的内核,我想知道是否有任何方法可以加快进程 编辑该机器具有24个核心,这是top的输出,用于给出内存的概念 进程:总共94个,运行8个,阻塞3个,睡眠
..
我有一个由数字数据和分类数据组成的数据集,我想根据患者的医学特征预测患者的不良结局.我为数据集定义了一个预测管道,如下所示: X = dataset.drop(columns = ['target'])y =数据集['target']#定义类别和数字转换器numeric_transformer =管道(步骤= [("knnImputer",KNNImputer(n_neighbors = 2,
..
我目前正在尝试使用Logistic回归创建二进制分类.目前,我正在确定功能的重要性.我已经进行了数据预处理(一次热编码和采样),并使用XGBoost和RandomFOrestClassifier运行了它,没问题 但是,当我尝试拟合LogisticRegression模型(下面是我在Notebook中的代码)时, 来自sklearn.linear_model的 导入LogisticRegr
..
我正在运行以下代码: 库(lme4)图书馆(NLME)nest.reg2
..