non-linear-regression相关内容
我在这里读到的关于这个问题的答案很少,但恐怕我还无法找到答案。 我的R代码是: colors
..
我希望对OpTim()的输出参数进行限制。对于我的正弦函数,它不必要地收敛数千个异相(其中,‘DESIGN L’是我的自变量,‘Ratio’是我的因变量数据,DFM是我的数据帧): lo_0 = 2e-6 kc_0 = 80000 min.RSS
..
我在 Julia 中使用 IPOPT.我的目标函数会对某些参数值抛出错误(具体来说,虽然我认为这无关紧要,但它涉及协方差矩阵的 Cholesky 分解,因此要求协方差矩阵是正定的).因此,我对参数进行非线性约束,以便它们不会产生错误.尽管有这个限制,IPOPT 仍然坚持在参数处评估目标函数,这会导致我的目标函数抛出错误.这会导致我的脚本崩溃,导致痛苦和痛苦. 我很感兴趣,一般来说,IPOPT
..
我正在尝试创建一个简单的基于深度学习的模型来预测 y=x**2但是看起来深度学习无法学习训练集范围之外的一般功能. 直觉上我可以认为神经网络可能无法拟合 y=x**2,因为输入之间不涉及乘法. 请注意,我不是在问如何创建适合 x**2 的模型.我已经做到了.我想知道以下问题的答案: 我的分析是否正确? 如果 1 的答案是肯定的,那么深度学习的预测范围是不是非常有限? 是否有更
..
我正在 R 中进行非线性回归,并希望向我的模型添加一个移动平均项以消除残差中的自相关. 基本上,这是模型: y[n] = a + log((x1[n])^g + (x2[n])^g) + c*e[n-1] + e[n] 其中 [e] 是移动平均项. 我计划使用 ARIMA(0, 0, 1) 对残差进行建模.但是,我不知道我应该在 R 中使用哪个函数将非线性外生部分添加到 ARIMA
..
我有这些特征和标签,它们的线性度不足以满足线性解决方案.我从 sklearn 训练了 SVR(kernel='rbf') 模型,但现在是时候用 tensorflow 来训练了,而且很难说应该写什么才能达到相同或更好的效果. 你看到下面那条懒惰的橙色线了吗?它不会让你充满决心 代码本身: 将pandas导入为pd将 numpy 导入为 np将张量流导入为 tf进口tqdm导入 matp
..
我有以下数据框,我希望对其进行一些回归.我正在使用 Seaborn,但似乎无法找到适合的非线性函数.下面是我的代码和它的输出,下面是我正在使用的数据框 df.注意我已经截断了这个图中的轴. 我想拟合 Poisson 或 Gaussian 分布样式的函数. 导入熊猫进口seaborn图 = seaborn.lmplot('$R$', '均衡值', 数据 = df, fit_reg=True,
..
我正在尝试使用 SMR、逻辑回归等各种技术创建 ML 模型(回归).使用所有技术,我无法获得超过 35% 的效率.这是我正在做的: X_data = [X_data_distance]X_data = np.vstack(X_data).astype(np.float64)X_data = X_data.Ty_data = X_data_orders#print(X_data.shape)#pr
..
我有一个如下所示的数据集: dput(testing1)结构(列表(x = c(0,426.263081392053,852.526162784105,1278.78924417616,1705.05232556821、2131.31540696026、2557.57848835232、2983.84156974437、3410.10465113642、3836.36773252847、4262
..
我目前正在尝试建模和绘制具有少量点的 sigmoidal 曲线. >myExperimentV1 N 均值0.1 9 0.91 9 0.810 9 0.15 9 0.2 我正在使用 minpack.lm 包中的 nlsLM 函数. >nlsLM(mean2 ~ -a/(1 + exp(-b * (v1-o))))非线性回归模型模型:mean2 ~ -a/(1 + exp(-b * (v1 -
..
将此参数化用于增长曲线逻辑模型 我创建了一些点: K =0.7 ;y0=0.01 ;r =0.3 df = data.frame(x= seq(1, 50, by = 5))df$y = 0.7/(1+((0.7-0.01)/0.01)*exp(-0.3*df$x)) 有人能告诉我,如果使用模型启动器创建数据,我怎么会出现拟合错误? fo = df$y ~ K/(1+((K-y0)/y
..
我有一些不适合线性回归的数据: 实际上应该“完全"拟合二次函数: P = R*I**2 我正在做这个: model = sklearn.linear_model.LinearRegression()X = alambres[alambre]['mediciones'][x].reshape(-1, 1)Y = alambres[alambre]['mediciones'][y].res
..
我已经使用 R 包 nlme 和包含的 gnls()函数构建了几个广义的非线性最小二乘模型(指数衰减).我之所以不简单地使用基本的 nls()函数构建非线性最小二乘模型,是因为我希望能够对异方差建模以避免转换.我的模型看起来像这样: 模型
..
我正在尝试估计堆定律的常数。 我有以下数据集 novels_colection : 小说DistinctWords WordOccurrences 1 1 13575 117795 2 1 34224 947652 3 1 40353 1146953 4 1 55392 1661664 5 1 60656 1968274 然后我建立下一个函数:
..
我正在用Python实现一篇论文,该论文最初是在MATLAB中实现的.该论文说,使用曲线拟合从一组采样数据点中找到了一个五次多项式.我不想使用它们的多项式,因此我开始使用样本数据点(在纸上给出),并尝试使用sklearn多项式特征和linear_model查找5度多项式.因为它是一个多元方程f(x,y),其中x和y是某个池塘的长度和宽度,而f是污染物的初始浓度. 所以我的问题是sklearn
..
我想在R中运行多项式logit,并使用了两个库, nnet 和 mlogit ,产生不同的结果并报告不同类型的统计信息.我的问题是: nnet报告的系数和标准误差与mlogit报告的系数和标准误差之间的差异是什么? 我想使用stargazer将结果报告到Latex文件中.这样做时,会有一个权衡的问题: 如果我使用mlogit的结果,则可以得到所需的统计信息,例如psuedo R平
..
有人知道非线性回归MATLAB工具箱的算法和目标函数吗?我正在查看MATLAB网站,但没有提供相关信息. 解决方案 文档末尾目标函数(显然吗?)取决于要解决的问题.
..
因此,我具有以下功能: funk1
..
我正在尝试解决以下问题:正在生长的器官有很多(〜80000)个表面斑块.我测量了其随时间变化的每个区域(18个时间点),并希望拟合一条增长曲线(双逻辑模型,例如,只是两个逻辑函数bcs的总和.观察期). 我有框式约束来确保指数项不爆炸,而线性约束则是一种增长突增必须在另一种之后发生.另外,为了在拟合参数中实现某种类型的空间连续性,我在目标函数(最小二乘法)上添加了一个惩罚项,该惩罚项是相邻面
..
如何在下面进行预测以及哪种算法最合适. 员工的工作活动开始日期&结束日期(列). 工作表中还有其他几列,例如Work_Complexity(High& Low),否.每个活动的子任务. 如何预测开始日期的工作活动结束日期?必须使用哪种ML算法? 这是否可以视为现实用例? 谢谢! 解决方案 是的,这是一个实际的用例. 如果您有带标签的数据工具,那么您将拥有一张工
..