feature-extraction相关内容
我使用到Databricks列出的管道流构建了一个Logistic回归模型。 https://docs.databricks.com/spark/latest/mllib/binary-classification-mllib-pipelines.html 使用OneHotEncoderEstimator对特征(数字和字符串特征)进行编码,然后使用标准定标器进行转换。 我想知道如何将L
..
如何在 scikit-learn 中使用我自己的数据集?Scikit Tutorial总是以加载他的数据集(数字数据集,花卉数据集...)为例. http://scikit-learn.org/stable/datasets/index.html即:从 sklearn.datasets 导入 load_iris 我有我的图像,但我不知道如何创建新图像. 特别是,对于开始,我使用我
..
我是开发 map-reduce 功能的新手.考虑我有包含四列数据的 csv 文件. 例如: 101,87,65,67102,43,45,40103,23,56,34104,65,55,40105,87,96,40 现在,我要提取物说 40 10240 10440 105 因为那些行在第四列中包含 40. map reduce函数怎么写? 解决方案 基本 WordCoun
..
我找到了这段代码来获取骨架化图像.我有一张圆形图片(https://docs.google.com/file/d/0ByS6Z5WRz-h2RXdzVGtXUTlPSGc/edit?usp=sharing). img = cv2.imread(nomeimg,0)尺寸 = np.size(img)骨架 = np.zeros(img.shape,np.uint8)ret,img = cv2.thr
..
我正在使用 HoG 功能通过分类进行对象检测. 我对如何处理不同长度的 HoG 特征向量感到困惑. 我使用大小相同的训练图像训练了我的分类器. 现在,我正在从图像中提取要在其上运行分类器的区域 - 例如,使用滑动窗口方法.我提取的一些窗口比训练分类器的图像大小要大得多.(它是根据测试图像中可能预期的最小物体尺寸进行训练的). 问题是,当我需要分类的窗口大于训练图像大小时,H
..
我正在实现“用于人体检测的定向梯度直方图"中的定向梯度直方图特征,我想将结果可视化.所有关于这些特性的论文都使用标准的可视化,但我找不到任何关于这些特性是如何生成的描述.如果您提供解释或有用的链接,我将不胜感激. 解决方案 你在论文中看到的可视化可以这样解释: 描述符由网格中覆盖图像窗口的 M*N 个单元组成.每个单元由边缘方向的直方图表示,其中离散化边缘方向的数量是一个参数(通常为
..
我正在尝试使用 OpenCV 的 HoG API 提取特征,但我似乎找不到允许我这样做的 API. 我想做的是使用 HoG 从我的所有数据集(一组正负图像)中提取特征,然后训练我自己的 SVM. 我在 OpenCV 下查看了 HoG.cpp,但没有帮助.所有代码都隐藏在复杂性和迎合不同硬件(例如英特尔的 IPP)的需要中 我的问题是: 是否有任何来自 OpenCV 的 AP
..
有人知道 OpenCV 2.3 中特征检测和描述符提取之间的区别吗? 我了解使用 DescriptorMatcher 进行匹配需要后者.如果是这样,FeatureDetection 是做什么用的? 解决方案 特征检测 在计算机视觉和图像处理中,特征检测的概念是指旨在计算图像信息的抽象并在每个图像点进行局部决策的方法,即该点是否存在给定类型的图像特征或不是.生成的特征将是图像域的
..
SURF 已获得专利,SIFT 也是如此.ORB 和 Brief 没有专利,但它们的特性不是尺度不变的,严重限制了它们在复杂场景中的实用性. 是否有任何特征提取器可以像 SURF 一样快地提取尺度不变特征,并且没有像 SURF 和 SIFT 那样严格的专利? 解决方案 虽然您已经选择了 BRISK,但您可能会发现 FREAK 很有趣.作者声称比 BRISK 和 ORB 有更好的结果.
..
我正在尝试更多地了解计算机视觉模型,并且我正在尝试探索它们的工作原理.为了理解如何更多地解释特征向量,我尝试使用 Pytorch 来提取特征向量.下面是我从不同地方拼凑的代码. 导入火炬将 torch.nn 导入为 nn导入 torchvision.models 作为模型导入 torchvision.transforms 作为转换从 torch.autograd 导入变量从 PIL 导入图像im
..
我目前正在做一个项目,一个简单的情绪分析器,这样在单独的案例中会有2和3个类.我使用的语料库在独特的词(大约 200.000)方面非常丰富.我使用词袋方法进行特征选择并减少独特特征的数量,由于消除发生频率的>阈值.最终的一组特征包括大约 20.000 个特征,这实际上减少了 90%,但不足以达到预期的准确性测试预测的强>.我依次使用 LibSVM 和 SVM-light 进行训练和预测(线性 和
..
我一直在关注 DeepLearning.net 上的教程,以了解如何实现从图像中提取特征的卷积神经网络.教程解释得很好,易于理解和遵循. 我想扩展相同的 CNN 以同时从视频(图像 + 音频)中提取多模态特征. 我了解视频输入只不过是在与音频相关的一段时间(例如 30 FPS)内显示的一系列图像(像素强度).但是,我真的不明白音频是什么、它是如何工作的,或者它是如何分解以输入网络的.
..
我正在使用 FeatureUnion 来加入从事件的标题和描述中找到的特征: union = FeatureUnion(变压器列表=[# 从事件标题中提取特征的管道('标题', 管道([('选择器', TextSelector(key='title')),('count', CountVectorizer(stop_words='english')),])),# 用于描述的标准词袋模型的管道('
..
这有效(主要来自 sklearn 的演示示例): print(__doc__)# 代码来源:Gaël Varoquaux# 由 Jaques Grobler 修改文档# 许可证:BSD 3 条款将 numpy 导入为 np导入 matplotlib.pyplot 作为 pltfrom sklearn import linear_model, 分解, 数据集从 sklearn.pipeline 导
..
我想对数据集中的 10 个特征中的 3 个分类特征进行编码.我使用 sklearn.preprocessingpreprocessing/a> 这样做: from sklearn 导入预处理cat_features = ['color', 'director_name', 'actor_2_name']enc = preprocessing.OneHotEncoder(categorical_f
..
我的项目是使用 OpenCV 库识别 Android 上的叶子.我使用ORB检测来获取图像的关键点并使用ORB描述符来获取关键点的特征.这是我使用的代码: bmp=BitmapFactory.decodeResource(getResources(),R.drawable.t1);Utils.bitmapToMat(bmp, mat);FeatureDetector 检测器 = FeatureD
..
我正在创建一个小程序来检测大图像中的对象(小图像),我正在使用 OpenCV java.因为我必须考虑旋转和缩放,所以我使用了 FeatureDetector.BRISK 和 DescriptorExtractor.BRISK. 以下方法用于过滤匹配结果以获得最佳匹配. 我有两个问题 有没有办法用我使用的循环找到下面的 min_dist 和 max_dist? 最重要的问题 -
..
我正在关注本教程来训练自动编码器. 培训进行得很顺利.接下来,我有兴趣从隐藏层(编码器和解码器之间)提取特征. 我该怎么做? 解决方案 最简洁、最直接的方法是添加用于创建部分输出的方法——这甚至可以在经过训练的模型上进行后验. from torch import TensorAE类(nn.Module):def __init__(self, **kwargs):...def
..
我有两种不同类型的图像(相机图像及其对应的草图).网络的目标是找到两个图像之间的相似性. 网络由单个编码器和单个解码器组成.单个编码器-解码器背后的动机是在它们之间共享权重. input_img = Input(shape=(img_width,img_height, channels))定义编码器(input_img):# 照片编码器代码pe = Conv2D(96, kernel_si
..
我尝试开发一个 CNN 模型来从静脉图像中提取特征,但我无法解决显示的 ValueError. model = Sequential()model.add(Conv2D(64, kernel_size=(2, 2), activation='relu', padding='same', input_shape=(48, 64, 3)))model.add(Conv2D(64, (2, 2), a
..