cgimage相关内容
我正在尝试剪切用相机拍摄的图像的一部分.这是我的剪贴代码: - (UIImage*) maskImage:(UIImage *)image { CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB(); UIImage *maskImage = [UIImage imageNamed:@"mask3.png"]; CGImage
..
我知道有很多这样的问题,但是他们的解决方案对我不起作用. 注意:该图片是从Internet下载的.不是从iPhone的相机拍摄的. 我有一个UIImage.为了进行一些图像处理操作,我使用Metal并将图像显示在MTKView中.因此,我将图像转换为CIImage. 对图像进行所有修改后,我将其转换回CGImage,然后转换为UIImage并保存. 结果是保存的图像方向错误.
..
从矩形原始图像中裁剪图像的正方形部分时,我面临图像方向问题.当图像处于横向时,就可以了.但是当它为纵向时,似乎无法保留图像方向,这会导致图像方向错误且裁剪不佳: func cropImage(cropRectangleCoordinates: CGRect) { let croppedImage = originalImage let finalCrop
..
在规格中, iPhone 4屏幕分辨率和像素点 密度 * iPhone 4的屏幕分辨率为960×640像素,是屏幕分辨率的两倍. 以前的iPhone型号 我们知道,当我们这样编写代码时, CGImageRef screenImage = UIGetScreenImage(); CGRect fullRect = [[UIScreen mainScreen] application
..
我需要在没有exif额外库的情况下获取图像拍摄日期,而我在文档中找不到这些库: CGImageSource myImageSource; myImageSource = CGImageSource.FromUrl (url, null); var ns = new NSDictionary (); var imageProperties = m
..
我正在拍摄图像,通过屏幕上下文加载它,并逐像素更改它。我对图像应用了许多不同的滤镜,但是我要做的最后一件事是改变色彩平衡(类似于Photoshop)以使红色更青色。 下面的代码显示了我如何拍摄图像,获取数据以及如何逐像素遍历r / g / b值: CGImageRef sourceImage = theImage.image.CGImage; CFDataRef TheDat
..
我正在使用Core Graphics创建图像的许多颜色变化。我总共需要创建约320个,但是逐渐地,该应用的内存使用量一直在增加,直到崩溃为止。从仪器,我看到更多的CGImage对象正在创建并保持活动状态。我想发布它们,因为我将图像以PNG格式存储到缓存目录中。 我搜索了所有我找不到的成功解决方案。任何帮助表示赞赏。谢谢。 这是主要部分: +(UIImage *)tintedIm
..
我有一个CGImage(核心图形,C/C ++).它是灰度的.好吧,最初是黑白,但是CGImage可能是RGB.没关系我想创建一个CCITT-Group 4 TIFF. 我可以通过使用正确的字典创建目标位置并将图像添加到其中来创建LZW TIFF(灰度或彩色). 但是,似乎没有等效的kCGImagePropertyTIFFCompression值来表示CCITT-4.应该是4,但是会产
..
我有使用以下命令生成的整个屏幕的屏幕截图screenshot: let layer = UIApplication.sharedApplication().keyWindow!.layer let scale = UIScreen.mainScreen().scale UIGraphicsBeginImageContextWithOptions(layer.frame.size, false
..
我的主要问题是我需要获取ALAsset对象的缩略图。 我尝试了很多解决方案,并搜索了几天的堆栈溢出,所有的解决方案我由于以下限制,发现对我不起作用: 我无法使用默认缩略图,因为它太少了; 因为屏幕上有很多图像,所以我不能使用fullScreen或fullResolution图像; 我不能使用UIImage或UIImageView来调整大小,因为加载 的fullResolution
..
尝试将库从Swift 2版本转换为Swift 3版本时, vImageHistogramCalculation_ARGB8888 方法有问题。问题在于该方法仅接受 UnsafeMutablePointer
..
如何在没有UIImage的情况下创建新的CGImageRef?我不能使用image.CGImage 我正在从服务器进程接收作为std :: string的base64编码的图像.下面的代码的第一部分模拟了接收编码后的字符串. - (UIImage *)testChangeImageToBase64String { UIImage *processedImage = [UIIma
..
问题: 图像缩小时进行裁剪是可以的. 放大图像进行裁剪显示的图像超出了应有的水平. 之所以存在yOffset,是因为我想要的裁剪正方形从滚动视图所在的位置开始. 代码: CGRect rect; float yOffset = 84; rect.origin.x = floorf([scrollView contentOffset].x * zoomScale); rect.origi
..
在后台线程中,我的应用程序需要从磁盘读取图像,将它们缩小到屏幕大小(1024x768或2048x1536),然后将它们保存回磁盘.原始图像主要来自“相机胶卷",但其中一些图像可能尺寸较大(例如3000x3000). 稍后,在不同的线程中,这些图像经常会缩小为500x500左右的不同大小,然后再次保存到磁盘中. 这使我想知道:在iOS,性能和内存方面,最有效的方法是什么?我使用了两种不同
..
下面是乐器应用的屏幕截图. 请问这行有什么问题吗? 解决方案 ARC不管理C类型,可以考虑使用CGImage.完成CGImageRelease(image)后,必须手动释放ref. 找到了答案聘用者
..
我正在编写一个iPhone应用程序,其中使用MKOverlayView在MKMapView上放置了一个较大的PNG图像(1936××2967).我对如何适当地实现MKOverlayView中的drawMapRect:函数有些困惑-在绘制图像之前我应该手动分割图像吗?还是应该让MKOverlayView机制处理所有这些? 我从其他帖子中得到的印象是,在MKOverlayView可用之前,您
..
我尝试将所有与我的MAC连接的监视器的屏幕截图获取到一张图片.我知道,如果每个监视器的屏幕截图都将保存到不同的图片中,该怎么办,但这不是我想要的.我发现函数 CGGetDisplaysWithRect ,但是我的解决方案不起作用,因为输出图片为空.我希望功能CGDisplayCreateImageForRect(* displays,rect)有此问题,因为第一个参数必须是CGDirectDisp
..
我正在编写一个应用程序,它会将图像平铺为256 * 256并将这些图块文件写回目录中。如果有任何更新,我每次更新我的URL并将这些图像平铺回来并存储在iphone文件夹中。我担心两个主要问题: 1)内存消耗 - 5个大小为200 KB的图像的内存消耗量是多少? 2)如果我必须同时使用图像平铺5个不同的URL,我可以多快处理我的应用程序? 我已经写了一个代码到tile并保存在一个URL的目
..
我收到此错误“[Not A Type release]:在最后一行代码”CGImageRelease(imageToSave);“上发送到deallocated instance的消息”。请解释我为什么以及需要用它来修复它。我正在使用ARC,但我认为这不适用于CG对象。在测试它们有效之后,我已经用建议的答案更新了代码。 CGImageRef imageToSave; UIImage *
..
我正在尝试使用MKOverlayView将png图像添加为自定义地图。我几乎就在那里 - 我能够将图像排列在正确的位置,我知道MKOverlayView的子类中的-drawMapRect:方法是定期调用的;我似乎无法让图像正确渲染。它完全模糊,几乎无法辨认。我也知道图像足够大(它是1936×2967)。这是我的-drawMapRect代码: - (void)drawMapRect:(MK
..