pca相关内容
我正在尝试使用OpenCV中的PCA类在我的C++应用程序中执行主成分分析操作。我是OpenCV新手,遇到问题,希望有人能帮上忙。 我正在尝试在MatLab和PCA类上使用一个演示示例来检查答案 当我使用2*10数据数组和参数(CV_PCA_DATA_AS_COL)时,我在这里有两个维度,所以我希望有两个特征向量,每个特征向量有两个元素,这与预期的一样工作得很好,结果与MatLab相同。 但在
..
通过SCI-KIT学习,我们可以根据累积方差图确定希望保留的功能数量,如下所示 from sklearn.decomposition import PCA pca = PCA() # init pca pca.fit(dataset) # fit the dataset into pca model pca.explained_variance_ratio # this attribut
..
我对我的数据执行了主成分分析。数据如下所示: df Out[60]: Drd1_exp1 Drd1_exp2 Drd1_exp3 ... M7_pppp M7_puuu Brain_Region 0 -1.0 -1.0 -1.0 ... 0.0 0.0 BaGr 3
..
我有一个数据帧df,它包含一个名为‘Event’的列,其中有一个24x24x40数值数组。我想: 提取此数字数组; 将其展平为1x23040向量; 将此条目作为列添加到新的Numpy数组或数据帧中; 对结果矩阵执行PCA。 但是,PCA生成的特征向量的维度为“条目数”,而不是“数据中的维度数”。 为了说明我的问题,我演示了一个运行良好的最小示例: 示例1 fro
..
我目前正在学习主成分分析和Rprcomp函数。我的代码如下: library(dplyr) iris1 = mutate( iris, Species = factor( Species), logSepalLength = log10( Sepal.Length ), log
..
我正在尝试使用样本名称而不是标准数字来标记PCA双曲线图。我正在使用代码: PRCOMP1
..
我想在R中执行三向主成分分析,虽然我找到了几篇解释它的工作原理和如何解释结果的文章,但我在网上找不到任何关于如何在R中执行此操作的有用指南。 我的数据由230个样本、250,000个变量和50个注释组成。通常,人们只对以下类型的数据只使用一个注释进行标准的主成分分析: 标准数据: var1 var2 var3 var4 Sample1 1/1 0/0 1/1
..
我希望使用FactoExtra程序包在主成分分析双曲线图上显示观测行名。 library(factoextra) ## organize dataset to obtain unique rownames iris$id
..
我正在尝试用椭球体为组在gggraph中绘制一个PCA双图,我在 this thread here。 但是,我不能重现结果。我运行了Didzis Elfer解决方案的两个版本,但df_ell数据帧仍然为空。当我运行最后一个命令时: ggplot(data = NMDS, aes(MDS1, MDS2)) + geom_point(aes(color = group)) + geom_p
..
将我的数据放入 X=我的数据 pca = PCA(n_components=1) pca.fit(X) X_pca = pca.fit_transform(X) 现在X_PCA有一个维度。 定义的逆变换不是应该返回到原始数据,也就是X,二维数组吗? 当我这样做时 X_ori = pca.inverse_transform(X_pca) 我得到的尺寸相同,但数字不同。
..
我正在使用SCRKIT学习PCA,并尝试选择满足1-(Sum I 1 To K Sii)/(Sum J 1 To N Sjj)<;=0.01的最小分量数,其中S是SvD对角线矩阵,以便保留99%的方差。 SCRICKIT LEARN是否具有返回给定方差保留百分比阈值的最小分量的函数? 有没有更有效的方法来计算n_Component? 谢谢。 推荐答案 只需将n_com
..
首先我想说我是R的新手,特别是这个网站的新手,所以如果我有必要在这里澄清什么,请让我知道!我还不是很明白所有的事情,所以请你尽量“低调”。 问题:我想创建描述两个组(在本例中为物种)的PCA图。我还想在它们周围画椭圆或边框。 谢天谢地,我使用ggplot2完成了这项任务! 但是,我无法更改超出默认设置的点或椭圆/边框的颜色。 您能在这件事上提供一些帮助吗? 请参见下面的示例
..
我有这个代码。我可以使用joblib.ump将‘pca’和‘svm_clf’保存到一个文件吗?如果没有,还有其他方法吗? from sklearn.svm import SVC from sklearn.externals import joblib from sklearn import decomposition from sklearn import svm X = [[1,3,4,
..
我正在尝试使用 PCA 来选择好的预测器,以便在 arima 模型的 xreg 参数中使用,以尝试预测 tVar 下面的变量.我只是使用下面的简化数据集和几个变量来简化示例. 我试图了解 princomp 中的公式参数是如何工作的.对于下面的 pc 对象,是不是说“使用 xVar1 和 xVar2 来解释 na.omit(dfData[,c("tVar","xVar1","xVar2")])
..
我使用以下方法计算了 PCA: 函数 [signals,V] = pca2(data)[M,N] = 大小(数据);数据 = 重塑(数据,M*N,1);% 减去每个维度的平均值mn = 平均值(数据,2);数据= bsxfun(@减号,数据,平均值(数据,1));% 构造矩阵YY = 数据'*数据/(M*N-1);[V D] = eigs(Y, 10);% 减少到 10 维% 投影原始数据信号
..
我正在使用稀疏数据的特征值分解来实现 PCA.我知道 matlab 实现了 PCA,但它可以帮助我在编写代码时理解所有技术细节.我一直在遵循 here,但与内置函数 princomp 相比,我得到了不同的结果. 任何人都可以看看它并指出正确的方向. 代码如下: 函数 [mu, Ev, Val ] = pca(data)% mu - 平均图像% Ev - 矩阵,其列是对应于特征的特征向
..
我在使用最新的 C++ 语法与 Mat 和 PCA 类一起工作时遇到问题.较旧的 C 语法采用 IplImage* 数组作为参数来执行其处理,而当前 API 仅采用按 Column 或 Row 格式化的 Mat.我采用了 Row 方法,使用 reshape 函数来拟合我的图像矩阵以适合单行.我最终想要获取这些数据,然后使用 SVM 算法进行检测,但是当我这样做时,我的所有数据都只是一个 0 流.有
..
我用50000 X 370维的数据对一个二元分类问题进行了Logistic回归.我得到了大约90%的准确率.但是当我对数据做PCA+logistic时,我的准确率下降到了10%,我很震惊看到这个结果.谁能解释一下可能出了什么问题? 解决方案 不能保证 PCA 会帮助或损害学习过程.特别是 - 如果您使用 PCA 来减少维度数量 - 您正在从数据中删除信息,因此一切都可能发生 - 如果删除的
..
我在 python 中使用 matplotlib 对数据集应用了 pca.但是,matplotlib 不像 Matlab 那样提供 t 平方分数.有没有办法像 Matlab 一样计算 Hotelling 的 T^2 分数? 谢谢. 解决方案 matplotlib 的 PCA 类不包括 Hotelling T2 计算,但只需几行代码即可完成.以下代码包含一个函数,用于计算每个点的 T2
..
我正在尝试将 PCA 应用于多变量分析,并在 Python 中使用 Hotelling T2 置信椭圆绘制前两个分量的得分图.我能够得到散点图,我想向散点图添加 95% 置信椭圆.如果有人知道如何在 python 中完成它会很棒. 预期输出的示例图片: 解决方案 这让我很烦恼,所以我采纳了 PCA 和 Hotelling 的 T^2 用于 R 中的置信区间 in python(并使用
..