我正在编写一个iPhone应用程序,并且需要在photoshop中实现与“eyedropper”工具相当的东西,在那里你可以触摸图像上的一个点并捕获相关像素的RGB值,以确定并匹配其颜色。获取UIImage是一个简单的部分,但有没有办法将UIImage数据转换为位图表示,我可以在其中提取给定像素的信息?我们非常感谢工作代码示例,请注意我并不关心alpha值。

有帮助吗?

解决方案

更多细节...

我今天早些时候发布了一个整合,并在此页面上说了一些小补充 - 可以在这篇文章的底部找到。我正在编辑帖子,但是,发布我的建议(至少对我的要求,包括修改像素数据)一个更好的方法,因为它提供可写数据(而我据了解,提供的方法)通过以前的帖子和这篇文章的底部提供了对数据的只读参考。

方法1:可写像素信息

  1. 我定义了常量

    #define RGBA        4
    #define RGBA_8_BIT  8
    
  2. 在我的UIImage子类中,我声明了实例变量:

    size_t bytesPerRow;
    size_t byteCount;
    size_t pixelCount;
    
    CGContextRef context;
    CGColorSpaceRef colorSpace;
    
    UInt8 *pixelByteData;
    // A pointer to an array of RGBA bytes in memory
    RPVW_RGBAPixel *pixelData;
    
  3. 像素结构(此版本中带有alpha)

    typedef struct RGBAPixel {
        byte red;
        byte green;
        byte blue;
        byte alpha;
    } RGBAPixel;
    
  4. 位图功能(返回预先计算的RGBA;将RGB除以A得到未经修改的RGB):

    -(RGBAPixel*) bitmap {
        NSLog( @"Returning bitmap representation of UIImage." );
        // 8 bits each of red, green, blue, and alpha.
        [self setBytesPerRow:self.size.width * RGBA];
        [self setByteCount:bytesPerRow * self.size.height];
        [self setPixelCount:self.size.width * self.size.height];
    
        // Create RGB color space
        [self setColorSpace:CGColorSpaceCreateDeviceRGB()];
    
        if (!colorSpace)
        {
            NSLog(@"Error allocating color space.");
            return nil;
        }
    
        [self setPixelData:malloc(byteCount)];
    
        if (!pixelData)
        {
            NSLog(@"Error allocating bitmap memory. Releasing color space.");
            CGColorSpaceRelease(colorSpace);
    
            return nil;
        }
    
        // Create the bitmap context. 
        // Pre-multiplied RGBA, 8-bits per component. 
        // The source image format will be converted to the format specified here by CGBitmapContextCreate.
        [self setContext:CGBitmapContextCreate(
                                               (void*)pixelData,
                                               self.size.width,
                                               self.size.height,
                                               RGBA_8_BIT,
                                               bytesPerRow,
                                               colorSpace,
                                               kCGImageAlphaPremultipliedLast
                                               )];
    
        // Make sure we have our context
        if (!context)   {
            free(pixelData);
            NSLog(@"Context not created!");
        }
    
        // Draw the image to the bitmap context. 
        // The memory allocated for the context for rendering will then contain the raw image pixelData in the specified color space.
        CGRect rect = { { 0 , 0 }, { self.size.width, self.size.height } };
    
        CGContextDrawImage( context, rect, self.CGImage );
    
        // Now we can get a pointer to the image pixelData associated with the bitmap context.
        pixelData = (RGBAPixel*) CGBitmapContextGetData(context);
    
        return pixelData;
    }
    

  5. 只读数据(以前的信息) - 方法2:


    步骤1.我声明了一个字节类型:

     typedef unsigned char byte;
    

    步骤2.我声明了一个与像素对应的结构:

     typedef struct RGBPixel{
        byte red;
        byte green;
        byte blue;  
        }   
    RGBPixel;
    

    步骤3.我将UIImageView子类化并声明(具有相应的合成属性):

    //  Reference to Quartz CGImage for receiver (self)  
    CFDataRef bitmapData;   
    
    //  Buffer holding raw pixel data copied from Quartz CGImage held in receiver (self)    
    UInt8* pixelByteData;
    
    //  A pointer to the first pixel element in an array    
    RGBPixel* pixelData;
    

    步骤4.子类代码我放入一个名为bitmap的方法(返回位图像素数据):

    //Get the bitmap data from the receiver's CGImage (see UIImage docs)  
    [self setBitmapData: CGDataProviderCopyData(CGImageGetDataProvider([self CGImage]))];
    
    //Create a buffer to store bitmap data (unitialized memory as long as the data)    
    [self setPixelBitData:malloc(CFDataGetLength(bitmapData))];
    
    //Copy image data into allocated buffer    
    CFDataGetBytes(bitmapData,CFRangeMake(0,CFDataGetLength(bitmapData)),pixelByteData);
    
    //Cast a pointer to the first element of pixelByteData    
    //Essentially what we're doing is making a second pointer that divides the byteData's units differently - instead of dividing each unit as 1 byte we will divide each unit as 3 bytes (1 pixel).    
    pixelData = (RGBPixel*) pixelByteData;
    
    //Now you can access pixels by index: pixelData[ index ]    
    NSLog(@"Pixel data one red (%i), green (%i), blue (%i).", pixelData[0].red, pixelData[0].green, pixelData[0].blue);
    
    //You can determine the desired index by multiplying row * column.    
    return pixelData;
    

    步骤5.我制作了一个存取方法:

    -(RGBPixel*)pixelDataForRow:(int)row column:(int)column{
        //Return a pointer to the pixel data
        return &pixelData[row * column];           
    }
    

其他提示

这是我对UIImage采样颜色的解决方案。

此方法将请求的像素渲染为1px大型RGBA缓冲区,并将生成的颜色值作为UIColor对象返回。这比我见过的大多数其他方法快得多,并且只使用很少的内存。

对于像颜色选择器这样的东西,它应该可以很好地工作,在任何给定的时间你通常只需要一个特定像素的值。

<强>的UIImage + Picker.h

#import <UIKit/UIKit.h>


@interface UIImage (Picker)

- (UIColor *)colorAtPosition:(CGPoint)position;

@end

<强>的UIImage + Picker.m

#import "UIImage+Picker.h"


@implementation UIImage (Picker)

- (UIColor *)colorAtPosition:(CGPoint)position {

    CGRect sourceRect = CGRectMake(position.x, position.y, 1.f, 1.f);
    CGImageRef imageRef = CGImageCreateWithImageInRect(self.CGImage, sourceRect);

    CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
    unsigned char *buffer = malloc(4);
    CGBitmapInfo bitmapInfo = kCGImageAlphaPremultipliedLast | kCGBitmapByteOrder32Big;
    CGContextRef context = CGBitmapContextCreate(buffer, 1, 1, 8, 4, colorSpace, bitmapInfo);
    CGColorSpaceRelease(colorSpace);
    CGContextDrawImage(context, CGRectMake(0.f, 0.f, 1.f, 1.f), imageRef);
    CGImageRelease(imageRef);
    CGContextRelease(context);

    CGFloat r = buffer[0] / 255.f;
    CGFloat g = buffer[1] / 255.f;
    CGFloat b = buffer[2] / 255.f;
    CGFloat a = buffer[3] / 255.f;

    free(buffer);

    return [UIColor colorWithRed:r green:g blue:b alpha:a];
}

@end 

您无法直接访问UIImage的位图数据。

您需要获取UIImage的CGImage表示。然后从位图的CFData表示中获取CGImage的数据提供程序。确保在完成后释放CFData。

CGImageRef cgImage = [image CGImage];
CGDataProviderRef provider = CGImageGetDataProvider(cgImage);
CFDataRef bitmapData = CGDataProviderCopyData(provider);

您可能希望查看CGImage的位图信息以获取像素顺序,图像尺寸等。

Lajos的回答对我有用。为了将像素数据作为字节数组,我做了这个:

UInt8 * data = CFDataGetBytePtr(bitmapData);

更多信息:CFDataRef 文档

另外,请记住包含 CoreGraphics.framework

谢谢大家!将这些答案中的一些放在一起我得到了:

- (UIColor*)colorFromImage:(UIImage*)image sampledAtPoint:(CGPoint)p {
    CGImageRef cgImage = [image CGImage];
    CGDataProviderRef provider = CGImageGetDataProvider(cgImage);
    CFDataRef bitmapData = CGDataProviderCopyData(provider);
    const UInt8* data = CFDataGetBytePtr(bitmapData);
    size_t bytesPerRow = CGImageGetBytesPerRow(cgImage);
    size_t width = CGImageGetWidth(cgImage);
    size_t height = CGImageGetHeight(cgImage);
    int col = p.x*(width-1);
    int row = p.y*(height-1);
    const UInt8* pixel = data + row*bytesPerRow+col*4;
    UIColor* returnColor = [UIColor colorWithRed:pixel[0]/255. green:pixel[1]/255. blue:pixel[2]/255. alpha:1.0];
    CFRelease(bitmapData);
    return returnColor;
}

对于x和y,这只需要0.0-1.0的点范围。例如:

UIColor* sampledColor = [self colorFromImage:image
         sampledAtPoint:CGPointMake(p.x/imageView.frame.size.width,
                                    p.y/imageView.frame.size.height)];

这对我很有用。我做了几个像每像素位和RGBA色彩空间的假设,但这应该适用于大多数情况。

另一个注意事项 - 它适用于我的模拟器和设备 - 过去我遇到了问题,因为它在设备上运行时发生了PNG优化。

为了在我的应用程序中做类似的事情,我创建了一个小的屏幕外CGImageContext,然后将UIImage渲染到它中。这使我能够快速地一次提取多个像素。这意味着您可以使用易于解析的格式设置目标位图,并让CoreGraphics在色彩模型或位图格式之间进行转换。

  

我不知道如何根据给定的X,Y坐标正确地索引图像数据。有谁知道吗?

pixelPosition =(x +(y *((imagewidth)* BytesPerPixel)));

据我所知,

//音调不是这个设备的问题,可以让零... //(或退出数学)。

使用 ANImageBitmapRep ,它提供像素级访问(读/写)。

许可以下: CC-BY-SA归因
不隶属于 StackOverflow
scroll top