cifilter相关内容
我已经进行了全面研究,以找到可以在iOS上执行自适应阈值处理的内核.不幸的是,我不了解内核语言或其背后的逻辑.在下面,我发现了一个执行阈值设置的例程( https://gist.github.com/xhruso00/a3f8a9c8ae7e33b8b23d ) static NSString * const kKernelSource = @"kernel vec4 thresholdKe
..
当尝试在Metal和Core Image的帮助下将简单的小插图滤镜应用于iPhone6的原始摄影机提要时,我发现在MTKView 我遵循的方法是(MetalViewController.swift): 使用AVCaptureVideoDataOutputSampleBufferDelegate 获取原始相机输出 转换CMSampleBuffer> CVPixelBuffer> CGIma
..
我有一个iPhone应用程序,它使用CIFilter CIHardLightBlendMode在XIB创建的视图上覆盖图像.视图是1000x1000像素,我想保持该大小直到最后.如果存在任何复杂性,这会使图像文件的png大小约为1 MB. 我尝试使用JPG,但是它不会将图像叠加到设备的视图上(在模拟器上有效).我曾尝试压缩PNG,但是当它们覆盖在视图上时它们会出现乱码(在覆盖之前,它们看上去
..
基本上,我想创建一个使用OPenGL进行渲染的ImageView.我最终的计划是将其用作具有CIFilters的视频播放器的基础. 我遵循了教程,其中强调了关于使用OpenGL技术来利用GPU的信息.本教程适用于iOS.我将其映射到可可粉. 我不知道哪里出故障了,但是我得到的只是一个空白屏幕. 这是视图. import Cocoa import OpenGL.GL3 cl
..
.metal文件中定义的VertexFunction和FragmentFunction可以很好地工作,但是一旦我在 我需要使用MSL(金属阴影语言)的香ker的上述设置.实际上,使用Core Image Kernel Language的cikernel在12.0中已弃用. 我如何同时使用顶点/片段金属着色器和MSL香石? let library = self.device?.make
..
我正在处理与使用ARMatteGenerator有关的示例项目.生成一个MTLTexture,可以将其用作人物遮挡技术中的遮罩遮罩. 我想确定如何通过CIFilter运行生成的遮罩.在我的代码中,我像这样“过滤"遮罩; func updateMatteTextures(commandBuffer: MTLCommandBuffer) { guard let currentFra
..
我正在编写CIFilter,但是结果像素的颜色与金属函数返回的值不同. kernel.metal #include extern "C" { namespace coreimage { float4 foo(sample_t rgb){ return float4(0.3f, 0.5f, 0.7f, 1.0f
..
我对OpenGL/Metal还是很陌生,我想了解一些基本概念. 在我们的应用程序中,我们使用CIFilter过滤视频.我看过2017年的WWDC视频,解释了您可以将CIFilter与Metal包装在一起并将其用作常规过滤器. 我试图了解如何将OpenGL视频效果转换为Metal,以便可以将其用作将来效果的参考点. void mainImage(out vec4 fragColor, in
..
我想将CIFilter应用于CALayer,除了是矩形联合的区域之外. 我发布了我无法正常工作的代码,它的工作恰好相反,即过滤器仅在矩形中应用,而不在外部! func refreshTheFrameWithEffect() { self.layer!.masksToBounds = true self.layerUsesCoreImageFilters = true
..
我几个小时以来一直在寻找这个问题的答案,而我无法理解。当我按下“按钮”按钮时,我想为图像添加高斯模糊效果。用户是添加图像的用户。 我已经根据SO和网络上其他地方的来源为“按钮”创建了一个动作。不起作用。我究竟做错了什么?任何代码将不胜感激。这是我的“按钮”动作: - (IBAction)测试:(id)发送者{ CIFilter * gaussianBlurFilter = [CI
..
我们正在少量图像上应用'CIGaussianBlur'滤镜。这个过程大部分时间都很好。但是当应用程序移动到后台时,该过程会在图像上产生白色条纹。 (下图中,请注意图像的左下角条纹为白色,与原始图像相比,图像有点尖叫)。 代码: - (UIImage *)imageWithBlurRadius:(CGFloat)radius { UIImage * image = self ;
..
我是swift的新手,并尝试构建一个可以应用实时过滤器的相机应用程序,并使用应用的过滤器进行保存。 到目前为止,我可以使用应用的过滤器实时预览,但是当我将视频保存为全黑时。 import UIKit import AVFoundation import AssetsLibrary import CoreMedia import Photos class Vie
..
我想使用查找表png(示例)作为Swift中 CIColorCube 过滤器的颜色立方体数据。到目前为止,我尝试(和找到)的所有示例都是带有计算颜色立方体的示例,如此示例。 如何将png作为查找数据读取? 解决方案 我现在用这个和这个项目,以调整他们对Swift的Objective-C实现: func colorCubeFilterFromLUT(imageName:NSSt
..
我刚开始使用Objective-C,我正在尝试创建一个简单的应用程序,它会显示带有模糊效果的摄像机视图。我让Camera输出与AVFoundation框架一起工作。现在,我正在尝试连接核心图像框架,但不知道如何,Apple文档让我感到困惑,在线搜索指南和教程导致没有结果。在此先感谢您的帮助。 #import“ViewController.h” #import
..
我想构建一个iOS 10应用程序,让您拍摄RAW( .dng )图像,编辑它,然后保存已编辑的 .dng 文件到相机胶卷。通过结合Apple 2016的“ AVCamManual ”和“ RawExpose ”示例应用程序中的代码,我已经达到了 CIFilter 包含RAW图像以及编辑。 但是,我无法弄清楚如何保存生成的 CIImage 作为 .dng 文件进入相机胶卷。这可能吗? 解
..
设置很简单。 带有UIImageView的ViewController,已分配图像。 点击时UIButton模糊了UIImageView中的图像。 import UIKit class ViewController:UIViewController { @IBOutlet weak var bg:UIImageView! @IBAction func blur
..
是否有任何快速,轻量级的方式将 CIFilter 应用于视频?在提到它之前,我已经看了 GPUImage - 它看起来非常强大魔法代码,但对于我正在尝试做的事情来说真的太过分了。 基本上,我想 拍摄一个视频文件,比如存储在 /tmp/myVideoFile.mp4 将 CIFilter 应用于此视频文件 将视频文件保存到其他(或相同)位置,例如 /tmp/anotherVideoF
..
当用户对iOS上内置的 Photos.app 中的照片进行一些更改(裁剪,消除红眼......等)时,更改不会应用于 fullResolutionImage 由相应的 ALAssetRepresentation 返回。 但是,更改将应用于缩略图和 fullScreenImage c> ALAssetRepresentation 返回$ c>。 此外,有关所应用更改的信息可以在 ALAs
..
我正在编写一个应用程序,让用户拍照,然后进行编辑。我正在使用UISliders实现亮度/对比度/饱和度的工具,并使用Core Image Filter类来实现。当我打开应用程序时,我可以拍照并正确显示。但是,如果我选择编辑图片,然后使用任何描述的滑块工具,图像将逆时针旋转90度。这是有问题的代码: - (void)viewDidLoad { [super viewDidLoad];
..
我正在使用CIFilters将图像转换为灰度并应用一些图像处理效果。在UIImageView中显示输出有效;图像显示并按预期进行了修改。 但是,每次调用UIImageJPEGRepresentation时都不会返回任何数据。它永远不会奏效。 使用原始彩色图像调用UIImageJPEGRepresentation工作正常。 这里发生了什么?为什么显示图像时jpeg转换失败可以正常工作?
..