cgimage相关内容
我已经找到问题了,现在它不再崩溃了,但现在(新一期)它没有画出它应该画的图像。它已损坏... 我有一个像素数组,需要先转换为CGImage,然后再转换为NSImage。我已经尝试了iOS上用于获取aUIImage的代码的这个版本,但我收到了一个错误,我无法处理:CGImageCreate:无效的图像位/像素或字节/行。 致命错误:展开可选值时意外发现空 任何想法,任何帮助都将受到真诚的
..
我想保留一个可变的 CGImageRefs 集合.我是否需要将它们包装在 NSValue 中,如果需要,如何正确包装和打开它们?我可以摆脱使用 C 数组吗?如果是这样,我该如何构造它以及以后如何向其中添加元素?使用 UIImages 而不是 CGImageRefs 作为集合元素的成本是否明显更高? 解决方案 通过 image.CGImage 从 UIImage 中获取 CGImageRef
..
我有一个相当大的、几乎全屏的图像,我将在 iPad 上显示它.图像大约 80% 透明.我需要在客户端确定不透明像素的边界框,然后裁剪到该边界框. 在 StackOverflow 上扫描其他问题并阅读一些 CoreGraphics 文档,我想我可以通过以下方式完成: CGBitmapContextCreate(...)//使用它来渲染图像到一个字节数组..- 遍历这个字节数组以找到边界框..
..
使用标准图像格式(jpeg、gif、png 等)从文件加载 CGImage 或 NSImage 非常简单. 但是,我现在需要从使用 libfreetype 生成的内存中的字节数组创建一个 CGImage.从格式化字节数组创建 OpenGL 纹理真的很容易,我可以看到如何创建一个 CGBitmapContext 来写入.但我似乎找不到从原始像素数组创建 CGImage 的简单方法. 解决
..
在我的 Cocoa 应用程序中,我从磁盘加载一个 .jpg 文件,对其进行操作.现在需要将它作为 .png 文件写入磁盘.你怎么能这样做? 感谢您的帮助! 解决方案 创建一个 CGImageDestination,传递 kUTTypePNG 作为要创建的文件类型.添加图像,然后确定目的地.
..
在后台线程中,我的应用程序需要从磁盘读取图像,将它们缩小到屏幕大小(1024x768 或 2048x1536)并将它们保存回磁盘.原始图片大多来自相机胶卷,但其中一些可能具有更大的尺寸(例如 3000x3000). 稍后,在另一个线程中,这些图像会经常缩小到 500x500 左右的不同大小并再次保存到磁盘. 这让我想知道:在 iOS 中,性能和内存方面最有效的方法是什么?我使用了两种不
..
我一直在研究如何在 Swift 中将 rgb 像素数据数组转换为 UIImage. 我将每个像素的 rgb 数据保存在一个简单的结构中: public struct PixelData {var a: 整数var r: 整数变量 g: 整数var b: 整数} 我已经使用了以下功能,但生成的图像不正确: func imageFromARGB32Bitmap(pixels:[PixelD
..
我正在尝试使用以下堆栈问题以编程方式在 iOS 中创建 GIF: 通过 iOS 创建和导出动画 gif? 我的代码如下所示: //文件参数const void *keys[] = { kCGImagePropertyGIFLoopCount };const void *values[] = { (CFNumberRef) 0 };CFDictionaryRef params = CF
..
我正在尝试使用以下堆栈问题以编程方式在 iOS 中创建 GIF: 通过 iOS 创建和导出动画 gif? 我的代码如下所示: //文件参数const void *keys[] = { kCGImagePropertyGIFLoopCount };const void *values[] = { (CFNumberRef) 0 };CFDictionaryRef params = CF
..
我的崩溃只发生在 4S(而不是 3GS)上.我怀疑它是因为@2x.基本上我得到图像的原始字节并进行操作.这是我的问题. 我加载了下面示例代码中提到的图像.最后,uiWidth 应该是 2000,cgwidth 应该是 2000.对吗?(如果图像是从相机胶卷加载的,它仍然是真的吗?或者它的自动缩放和 uiWidth 将是 4000?) //test.jpg 为 2000x 1500 像素.N
..
我有一张从 AVFoundation 中抓取的图片: [stillImage captureStillImageAsynchronouslyFromConnection:videoConnection completionHandler:^(CMSampleBufferRef imageSampleBuffer, NSError *error) {NSLog(@"图片捕获");NSData *i
..
我有以下代码: UIImage *originalImage;CGImageRef cgImage = [originalImage CGImage]; 我知道 CGImage 是 UIImage 类的只读属性.是否行 CGImageRelease(cgImage) 释放originalImage的内存? 我正在追踪我的程序中的一个错误,如果我稍后尝试访问 originalImage
..
有没有办法在 iOS 的磁盘上存储和加载原始图像数据,以节省解压的时间和内存并减少应用程序的脏内存占用? Paul Haddad 一直暗示类似这样的事情,我知道这种技术是用于使用OpenGL高效加载游戏纹理. 我的用例如果用户提供的全屏壁纸总是显示在背景中.目前我将它保存为 PNG 并在应用程序启动期间加载它.这浪费了用于解压缩图像的内存和 CPU.我想保存图像,然后将其作为内存映射文
..
我需要从字节数组创建一个 UIImage.现在我创建字节数组: image = CGImageCreateWithImageInRect(aux.CGImage, imageRect);context = CGBitmapContextCreate (data[i][j], TILE_WIDTH, TILE_HEIGHT,bitsPerComponent, bitmapBytesPerRow,
..
我使用 AVFoundation 构建了一个相机. 一旦我的 AVCaptureStillImageOutput 完成了它的 captureStillImageAsynchronouslyFromConnection:completionHandler: 方法,我就会像这样创建一个 NSData 对象: NSData *imageData = [AVCaptureStillImageOu
..
为了将图像文件上传到我的服务器,我需要获取它的 NSData.我现在无法执行此操作,因为我的 UIImage 包含一个 CGImage. 让我向您展示我是如何做事的.当用户拍照时,这就是我对拍摄的照片所做的: NSData *imageData = [AVCaptureStillImageOutput jpegStillImageNSDataRepresentation:imageData
..
我想用已有的颜色信息创建一个CGImage 这是将CGImage转换为CML的代码,CML_color是矩阵结构 -(void)CGImageReftoCML:(CGImageRef)图像目标:(CML_color&)目的地{CML_RGBA p;NSUInteger width = CGImageGetWidth(image);NSUInteger height = CGImageGet
..
我在网上尝试了许多“解决方案",发现的所有解决方案都有错误,因此无法正常工作.我需要知道UIImage中像素的颜色.我如何获得此信息? 解决方案 获取原始数据 从Apple的技术问题与解答QA1509 说,可以通过从数据提供者处获取原始图像数据的原始格式. CFDataRef CopyImagePixels(CGImageRef inImage){返回CGDataProvider
..
我有一个函数,它接受一个UIImage和一种颜色,并使用它来返回仅该颜色的UIImage. 作为函数的一部分,UIImage转换为CGImage,但是由于某种原因,CGImage的大小是UIImage大小的3倍,这意味着最终结果是其应有大小的3倍. 这是功能 funccolouredImageNamed(name:String,color:UIColor)->UIImage {让s
..
好吧,看来我正在创建PDFDocument,其中我创建的图像中的pixelWidth不正确.所以问题就变成了:如何在图像中获得正确的分辨率? 我从扫描仪的位图数据开始.我正在这样做: CGDataProviderRef provider = CGDataProviderCreateWithData(NULL(UInt8 *)data,bytesPerRow * length,NULL);
..