linear-regression相关内容
我正在尝试训练一个非常简单的线性回归模型. 我的代码是: 来自scipy导入统计信息的 xs = [[0,1,153][1,2,0][2,3,125][3,1,93][ 2, 24, 5851][3,1,524][ 4, 1, 0][2,3,0][2,1,0][5,1,0]]ys = [1,1,1,1,1,0,1,1,0,1]斜率,截距,r_value,p_value,std_err =
..
我尝试了此操作,但无法使其用于我的数据:使用Scikit了解在时间序列熊猫数据帧上进行线性回归 我的数据包含2个数据框. DataFrame_1.shape =(40,5000)和 DataFrame_2.shape =(40,74).我正在尝试进行某种类型的线性回归,但是 DataFrame_2 包含 NaN 缺失的数据值.当我 DataFrame_2.dropna(how="any")
..
我正在使用 sklearn,特别是 linear_model 模块.在拟合了简单的线性后,如 将pandas导入为pd将numpy导入为np从sklearn导入linear_modelrandn = np.random.randnX = pd.DataFrame(randn(10,3),列= ['X1','X2','X3'])y = pd.DataFrame(randn(10,1),column
..
我想比较两个嵌套的线性模型,分别称为m01和m02,其中m01是简化模型,而m02是完整模型.我想做一个简单的F检验,看看完整模型是否比简化模型增加了显着的实用性. 这在R语言中非常简单.例如: mtcars
..
我正在尝试使用 lm 和 glm 函数在 R 中进行回归. 我的因变量是基于给定时间段内事件对非事件的比例进行logit转换的数据.因此,我的因变量是连续变量,而我的自变量是因子变量或虚拟变量. 我有两个自变量,可以取值 第i年到第m年,我的YEAR变量 第j个月到第n个月,我的MONTH变量 问题是,每当我运行模型作为摘要时,结果4月(月的索引1)和1998年(年的索引
..
在拟合线性回归后,我正在寻找影响力统计数据.在R中,我可以像这样获得它们: hatvalues(fitted_model)#hatvalues(杠杆)cooks.distance(fitted_model)#库克的D值rstandard(fitted_model)#标准化残差rstudent(fitted_model)#学生化残差 等 在拟合如下模型后,如何在Python中使用sta
..
如果我有自变量[x1,x2,x3]如果我在sklearn中拟合线性回归它会给我这样的东西: y = a * x1 + b * x2 + c * x3 +截距 poly =2 的多项式回归会给我类似的东西 y = a * x1 ^ 2 + b * x1 * x2 ...... 我不想拥有像x1 ^ 2这样的二级学位. 我怎么获得 y = a * x1 + b * x2 +
..
我尝试使用相同的模型进行1104线性回归.我的自变量不变.但是,我的因变量确实如此.确实,我有1104个因变量.我不知道如何提取所有系数(包括截距)和p值,以计算每一个的均值(系数和p值).如何轻松做到这一点?这是我的模型: testMCFG1 但是,这里的某个人已经向我展示了如何仅使用一个不变的自变量来完成该操作.这样可行.在下面找到这种情况的代码: y
..
标准 summary(lm(Height〜Weight))将输出假设检验H0:Beta1 = 0的结果,但是如果我有兴趣检验假设H0:B1 = 1一个将产生该p值的包装?我知道我可以手工计算它,我知道我可以“翻转置信区间".进行两次尾巴检验(通过查看95% confint 是否包含关注点来测试95%的假设),但我正在寻找一种简单的方法来为模拟研究生成p值 解决方案 您可以从 car 包中使
..
我试图编写一个for循环,在4个不同级别的因子变量上分别运行相同的回归(相同的因变量和自变量)4次.然后,我想保存每个线性回归的输出.每个级别大约有500行数据. 我最初的想法是做这样的事情,但是我对R和不同的迭代方法是陌生的. 回归结果
..
对于Tensorflow中的python中的多元线性回归模型,如何打印出该模型用于预测标签的方程式.我目前使用的模型具有两个特征来预测一个标签,因此我认为一般方程为此 但是如何使用 Tensorflow 获取所有常量的未知参数和值? 代码: fundingFeatures = fundingTrainSet.copy()fundingLabels = fundingFeatures.po
..
我在R中运行 lm(),这是摘要的结果: 多个R平方:0.8918,调整后R平方:0.8917F统计量:9和10283 DF上的9416,p值:
..
我正在使用GridSearchCV进行线性回归(不是分类器或逻辑回归)的交叉验证. 我也使用StandardScaler对X进行归一化 我的数据框具有17个特征(X)和5个目标(y)(观察).约1150行 我不断收到ValueError:不支持Continuous的错误消息,并且用完了所有选项. 下面是一些代码(假设所有导入均正确完成): soilM = pd.read_
..
我对具有178个自由度的两尾t检验进行了线性回归. summary 函数为我的两个t值提供了两个p值. t值Pr(> | t |)5.06 1.04e-06 ***10.09
..
的OLS结果 df2 = pd.read_csv("MultipleRegression.csv")X = df2 [['Distance','CarrierNum','Day','DayOfBooking']]Y = df2 ['Price']X = add_constant(X)适合= sm.OLS(Y,X).fit()打印(fit.summary()) 仅将每个属性的P值显示到小数点
..
在练习简单线性回归模型时,我遇到了这个错误: ValueError:预期的2D数组,而是标量数组:数组= 60.如果数据只有一个,则使用array.reshape(-1,1)重塑数据feature或array.reshape(1,-1)(如果它包含单个样本). 这是我的代码(Python 3.7): 将pandas导入为pd将numpy导入为np导入matplotlib.pyplot作为
..
我想知道如何约束 lm()中的某些参数以使其具有正系数.有一些软件包或函数(例如 display )可以使所有系数和截距为正. 例如,在此示例中,我只想强制 x1 和 x2 具有正系数. x1 = c(NA,rnorm(99)* 10)x2 = c(NA,NA,rnorm(98)* 10)x3 = rnorm(100)* 10y = sin(x1)+ cos(x2)-x3 + rnorm
..
data2 = pd.DataFrame(data1 ['kwh'])数据2千瓦时日期2012-04-12 14:56:50 1.2564002012-04-12 15:11:55 1.4307502012-04-12 15:27:01 1.3699102012-04-12 15:42:06 1.3593502012-04-12 15:57:10 1.3056802012-04-12 16:12
..
在练习简单线性回归模型时,我遇到了这个错误,我认为我的数据集有问题. 这是我的数据集: 此处是自变量X: 此处是因变量Y: 这是X_train 这是Y_train 这是错误正文: ValueError:预期的2D数组,取而代之的是1D数组:array = [7. 8.4 10.1 6.5 6.9 7.9 5.8 7.4 9.3 10.3 7.3 8.1].如
..
我想在Seaborn中创建具有线性回归的regplot,并通过对数均等地缩放两个轴,以使回归保持直线. 一个例子: 将matplotlib.pyplot导入为plt将seaborn导入为snssome_x = [0,1,2,3,4,5,6,7]some_y = [3,5,4,7,7,9,9,10]ax = sns.regplot(x = some_x,y = some_y,order =
..