image-processing相关内容
我想转换一堆带枕头的图像(PIL为python3)从PNG转换为JPG。我已经探索了在网上做这件事的可能性,但似乎不可能。我有这个脚本: from glob import glob import os from PIL import Image as image for file in glob('*.png'): img=image.open(file) name,ext=
..
我正在尝试使用OpenCV选择图像中的绿色(方法来自website)。我正在处理的图像是: 以下是我尝试编写的代码。 import cv2 import matplotlib.pyplot as plt import numpy as np greenhsv = (60, 255, 255) green2hsv=(70,100,170) g_square = np.full((10,
..
我正在处理从YUV420到RGB的转换,但图像颜色不能产生良好的效果。最初我自己的文件是10位的。最初,我从8位文件开始。 我使用下面的代码读取YUV420图像并转换为RGB。因为我有YUV420.YUV图像文件,但该代码是用于视频的,因此,我只读取了1帧。然后我得到的YUV是全尺寸的Y,但U和V是维基百科上描述的一半大小。然后我将图像大小调整到图像的完整大小,并应用YUV到RGB的转换。但
..
我有一个用例,我需要将716x1280MP4视频缩小到358x640(原始视频的一半)。我使用的命令是 ffmpeg -i ./input.mp4 -vf "scale=640:640:force_original_aspect_ratio=decrease,pad=ceil(iw/2)*2:ceil(ih/2)*2" ./output.mp4 在10个样本视频中,有2个受到了颜色的影响
..
我有两种类型的图像,它们都进行了对比。 类型1:(白色干净背景) 类型2:(背景中有一些灰色纹理) 我可以应用高斯模糊和阈值来处理类型2的图像,以将其调整为与类型1类似的白色背景,如下所示: type2_img = cv2.imread(type2.png) # convert to grayscale gray = cv2.cvtColor(type2_img , cv2
..
我需要从几种类型的图像中提取文本。 我可以根据背景的噪声将图像手动分类为3类: 无噪音的图像。 背景中有一些轻微噪音的图像。 背景噪音很大。 对于类别1的图像,我可以毫不费力地应用OCR。→基本大小写。 对于第二类图像和一些第三类图像,我可以通过应用以下方法来提取文本: 灰度、高斯模糊、大津阈值 变形打开以消除噪点并反转图像 →然后执行文本提取。 对于OCR任务
..
我想在频域中旋转图像。受到Image rotation and scaling the frequency domain?中答案的启发,我设法旋转了正方形图像。(请参阅以下使用OpenCV的Python脚本) M = cv2.imread("lenna.png") M=np.float32(M) hanning=cv2.createHanningWindow((M.shape[1],M.sh
..
我正在分析大量图像并提取主色码。 我要将它们分组为通用颜色名称范围,如绿色、深绿色、浅绿色、蓝色、深蓝、浅蓝色等。 我正在寻找一种语言不可知的方式,以便自己实现一些东西,如果有我可以研究的例子来实现这一点,我将非常感激。 推荐答案 @saastn的精彩答案假设您有一组要对图像进行排序的预定义颜色。如果您只想将图像分类为某组X个等距颜色中的一种颜色(如直方图),则实现起来会更
..
我正在尝试删除图像中存在的所有行。 我能够检测到线条,但当我试图删除线条时,我仍然在最终图像中得到几条小线条。我已经使用cv2.getStructuringElement获得了水平线和垂直线。在某些情况下,最终图像完全失真,我无法前进 图片来自Google res = verticle_lines_img + horizontal_lines_img res = cv
..
我有一个将图像转换为具有光隧道效果的图像的练习,如下所示。 我的第一个想法是在中间选择一个区域圆,如果中心点、边界点和所考虑的点在同一条线上,则圆外的每个点都将具有该圆的边界点的值,但结果很差。 以下是我的代码: import numpy as np import cv2 import math import numpy as np from google.colab.pat
..
我正在使用OpenCV warpVision()函数扭曲图像中找到的反轮廓,以找到我正在使用findContours()查找的轮廓。 如下图所示: 但warpVision()函数需要“更多时间”才能将图像扭曲为全图。是否有其他方法可以将图像中的对象扭曲为全图,如图所示。 或者遍历会有帮助吗?但这样做会很困难,这样我就可以减少warpVision()函数所用的时间。 推荐答案
..
我正在用Android创建一个可以显示图片的应用程序,我想添加一个支持色盲滤镜的功能,这意味着如果某人有颜色缺陷,他会看到更好的图片(就像Windows的滤色器或一些视频游戏也有滤色器一样)。 现在,我已经构建了我需要的所有图片处理代码,我只需要正确过滤图片的值,使它们与色盲类型相对应。我找到了这个网站: http://web.archive.org/web/20081014161121/htt
..
很抱歉这个标题,可能不能很好地描述我想要实现的目标。我正在开始开发一个新的软件,它应该向用户呈现一个网格,用户可以在这个网格的任何点添加行或列来操纵它。问题是,我不确定真正的网格是不是合适的解决方案,因为有一些图形需求,比如更改个人单元格大小、嵌套、缩放/拉伸等。所以我开始分析WPF中使用DrawingVisualElements的解决方案(出于性能原因)。 我能够以所需的方式绘制网格。我还可以在
..
我有一个等高线图,如下所示: 现在,如果我没有数据来生成等高线图,而我只有图像,我如何从图像中提取每个像素的值并将其存储在数组中? 任何用MatLab/Python编写的建议或示例都会很有帮助! 推荐答案 这里有一个小的MatLab脚本,它可以完成这项工作(使用一些图形用户界面,阅读图底部的指南): %// Import the data: imdata = impo
..
我想在此来源中数字化一个热图,面板D image 作为第一步,我尝试在OpenCV中读取图像并获得矩阵 import cv2 from pprint import pprint def read_as_digital(image): # mage dimensions h = image.shape[0] w = image.shape[1]
..
我正在进行一个项目,其中我必须检测到一辆红色车辆(请参见下图)。 因为我相信这可以在不使用深度学习(在这种情况下是过度杀伤力)的情况下实现,所以我使用了直方图反投影,这取决于对象的颜色(红色)。结果令人满意 除非场景中存在与目标具有相同颜色分布的目标红色车辆以外的其他对象(请参见我的T恤下面的示例),否则算法会认为它也是感兴趣的对象,从而检测到感兴趣的对象和不相关的对象(我的T恤)。
..
我使用更快的RCNN训练了一个模型,此模型用于跟踪条带。 here is the output of my model 我用来获得此输出的python代码如下: import cv2 import numpy as np import tensorflow as tf from object_detection.utils import label_map_util from o
..
我正在尝试检测这张图片中的水管数量。为此,我尝试使用OpenCV和基于Python的检测。我得到的结果让我有点困惑,因为圆圈的扩散太大了,而且不准确。 代码 import numpy as np import argparse import cv2 # construct the argument parser and parse the arguments ap = argpars
..
我们正在使用YOLO Darknet进行目标检测。我们使用的是Python3、TensorFlow 1.0、NumPy、OpenCV 3。使用yolo.weight进行检测。以下链接中给出的 : https://github.com/thtrieu/darkflow#cameravideo-file-demo 当我们在视频上运行它时,它同时检测到所有不需要的对象? 请指导我们如何仅检测
..
我有一个图像数据集,我想过滤掉所有包含文本(ASCII字符)的图像。例如,我有一个可爱的狗狗形象: 如您所见,右下角有一段文字&2003年5月18日,因此应将其过滤掉。 经过一番研究,我发现了tesseractOCR。在python中,我有以下代码: # Attempt 1 img = Image.open('n02086240_1681.jpg') text = pytesse
..