cgimageref相关内容
我正在编写此方法来计算图像的平均 R、G、B 值.以下方法将 UIImage 作为输入并返回包含输入图像的 R、G、B 值的数组.我有一个问题:如何/在哪里正确释放 CGImageRef? -(NSArray *)getAverageRGBValuesFromImage:(UIImage *)image{CGImageRef rawImageRef = [图像 CGImage];//该函数返回原
..
这是我第一次发帖,所以请多多包涵.我一直在一个接一个地搜索站点,但似乎找不到解决此问题的任何站点.如果有人能回答我会很高兴. 如果没有记错的话,LeavesCache.m 是在去年修改的,我认为是为了适应 ios 7. 代码如下,但是我收到一个 EXC_BAD_ACCESS 用于 return pageImage.CGImage. 我将其更改为 return (__bridge
..
在我的一个应用程序中,我需要将 UIImage 分成多个部分.以下是我用来拆分的代码.我的问题是我无法通过将图像添加到 UIImageView 来加载图像视图. - (void)viewDidLoad{UIImage* image = [UIImage imageNamed:@"monalisa.png"];NSMutableArray* splitImages = [self splitIma
..
已更新至 Xcode 7 并在操作中呈现图像时收到此(警告?)消息: CreateWrappedSurface() 对于数据提供者支持的 CGImageRef 失败. 在 Xcode 6.4 下没有这样的消息. 知道哪个代码部分抛出了消息: if (!self.originalImage)//@property (nonatomic, strong) UIImage *orig
..
我正在尝试调整 10x10 像素 CGImageRef 的大小,如下所示: CGImageRef imageRef = CGImageCreateWithImageInRect(screenShot, CGRectMake(mouseLoc.x-5, screen_height-mouseLoc.y-5, 10, 10));CGContextRef mainViewContentContext
..
我想在 NSview 或 NSImageView 中显示图像.在我的头文件中,我有 @interface FVView : NSView{NSImageView *imageView;}@结尾 这是我在我的实现文件中尝试做的: - (void)drawRect:(NSRect)dirtyRect{[超级drawRect:dirtyRect];(在这里我得到一个叫做 fitsImage 的图像
..
我使用 AVFoundation 构建了一个相机. 一旦我的 AVCaptureStillImageOutput 完成了它的 captureStillImageAsynchronouslyFromConnection:completionHandler: 方法,我就会像这样创建一个 NSData 对象: NSData *imageData = [AVCaptureStillImageOu
..
我想使用功能 CGImageSourceCreateThumbnailAtIndex 从 UIImage 创建缩略图.我所拥有的只是 UIImage 本身.该图像是 UIView 上的快照. 请,我不想使用任何其他方法来创建缩略图,仅使用 CGImageSourceCreateThumbnailAtIndex 即可,因为我想将其性能与已有的其他方法进行比较. > 说,这就是我到目前为止的
..
我无法从CIImage和UIImage中获取UIImage。下面的代码行在iOS6上运行良好:(输出图像是CIImage) self.imageView = [UIImage imageWithCIImage:outputImage ]; 或 [self.imageView setImage:[UIImage imageWithCIImage:outputIma
..
我正在尝试在CoreGraphics中处理图像,然后将处理后的图像返回到NSImage以进行保存和显示.我有足够的资源来了解如何在iOS中执行这些功能,但是NSImage中似乎缺少辅助方法.在iOS中,类方法为imageWithCGImage:,如何在Mac OS中做到这一点? 解决方案 NSImage中的匹配方法是initWithCGImage:size:. 第二个参数获取图像的大
..
我正在尝试从屏幕缓冲区中读取像素,我正在使用CGDisplayCreateImage创建一个CGImageRef,但是CGImageGetWidth和CGImageGetBytesPerRow的值没有意义,将字节分开每行乘以每个像素的字节数可以得到1376个像素,但是图像的宽度为1366. 这是怎么回事?图像中是否存在某种填充?如何安全地从中读取数据并获得正确的结果? 编辑:重现此内容
..
首先,查看 n.b .:不能保证图层的contents是可表示的或作为 CGImageRef 进行响应的. (这可能会对上面引用的扩展的更广泛使用产生影响.)但是,就我而言,我知道我正在测试的图层具有contents,这些图层被分配了 CGImageRef . (希望这在分配后无法从我下面改变!而且我注意到保留了contents.) 好,回到眼前的问题.这是我使用扩展程序的方式.首先,我将选
..
我做了一个背景,然后是一个渐变.之后,我将参考上下文.然后,我从上下文中收到一个渐变图像,它是正确的,我可以在调试器中看到它.但是,当我尝试获取特定值的像素颜色时,这是不正确的.感谢您的帮助,谢谢.这是代码. - (UIColor*) getColorForPoint: (CGPoint) point imageWidth: (NSInteger) imageHeight { CGC
..
我正在使用 grabKit ,以便允许用户将其Instagram,Facebook和本地图片导入我的应用当照片是本地照片时,问题就来了。在这种情况下,我使用一种当用户选择照片时有效的方法。 为此找到的标准代码如下: -(void)picker:(GRKPickerViewController *)picker didSelectPhoto:(GRKPhoto *)photo {
..
我正在尝试为iOS 5.1设备创建UIImage测试模式。目标UIImageView的大小为320x240,但我试图创建一个160x120 UIImage测试模式(未来,非测试模式图像将是这个大小)。我希望盒子的上半部分是蓝色而下半部分是红色的,但我看起来像未初始化的内存会破坏图像的底部。代码如下: int width = 160; int height = 120; unsign
..
我正在为 CATiledLayer 生成一堆磁贴。在iPhone 4S上以4个级别的细节生成120个256 x 256的图块需要大约11秒钟。图像本身适合2048 x 2048. 我的瓶颈是 UIImagePNGRepresentation 。生成每个256 x 256图像需要大约0.10-0.15秒。 我尝试在不同的背景队列上生成多个图块,但这只会将其减少到约9-10秒。 我也
..
我正在编写此方法来计算图像的平均R,G,B值。以下方法将UIImage作为输入,并返回包含输入图像的R,G,B值的数组。我有一个问题:如何/我在哪里正确发布CGImageRef? - (NSArray *)getAverageRGBValuesFromImage:(UIImage *)image { CGImageRef rawImageRef = [image CGImage];
..
感谢我在iOS应用中修复崩溃的任何帮助(EXC_BAD_ACCESS)。自从使用最新的iOS 8.1.2将我的应用更新到iOS 8后,我看到了这一点。相同的代码在iOS 7.x中运行良好。 我的应用程序中的一个视图是 UICollectionView 。集合视图的每个单元格都会显示一个图像,该图像会动态呈现,并在新内容可用时每隔几分钟更改一次。 单元格的左上角还显示了集合视图的该单元格
..
以下代码使用手动内存管理进行编译,但在ARC下失败: CALayer * layer = [CALayer layer] ; layer.contents = [[UIImage imageNamed:@“dial.png”] CGImage]; 错误是: 自动引用计数问题:使用ARC 不允许将 非目标C指针类型“CGImageRef”(aka'st
..
我正在建立一个需要将UIImage转换为CGImageRef的Iphone应用程式。我不知道如何做到这一点,并会喜欢一些帮助。我没有使用图片的背景... :) 解决方案 它是简单的 image .CGImage 其中 image 是一个 UIImage 对象。
..