iPhoneのグレースケール画像に対して画像データはどのように解釈されますか?
-
09-10-2019 - |
質問
次のシナリオを考慮して、グレースケール画像の画像データを理解するにはどうすればよいですか。「サンプルバッファー」からビデオデータをキャプチャし、80x20セクションを抽出してから、グレースケールのuiimageに変えます。しかし、生のピクセルバイトを調べると、私はそれらを理解することができず、それを続けて「バイナライズ」することができます(私の本当の目標)。
UiimageWriteToSavedPhotoSalbumを使用してUiImageをフォトアルバムに保存するだけで、自分が持っている画像データの種類を確認すると、実際に白い80x20の画像が表示されます(実際にはライトグレイッシュです)。私は物事を単純化するためにプレーンな白い画像をキャプチャしました。たとえば、200程度と255の間に値のみが表示されることを期待していましたが、ゼロでいっぱいの画像データのセクションがあり、明確に黒いピクセルの行を示唆しています。どんな助けも感謝しています。関連するコードと画像データ(一度に16ピクセル)を以下に示します。
cmsamplebufferrefビデオデータの一部から80x20グレースケール画像を作成する方法は次のとおりです。
UIImage *imageFromImage(UIImage *image, CGRect rect)
{
CGImageRef sourceImageRef = [image CGImage];
CGImageRef newImageRef = CGImageCreateWithImageInRect(sourceImageRef, rect);
CGImageRef grayScaleImg = grayscaleCGImageFromCGImage(newImageRef);
CGImageRelease(newImageRef);
UIImage *newImage = [UIImage imageWithCGImage:grayScaleImg scale:1.0 orientation:UIImageOrientationLeft];
return newImage;
}
CGImageRef grayscaleCGImageFromCGImage(CGImageRef inputImage)
{
size_t width = CGImageGetWidth(inputImage);
size_t height = CGImageGetHeight(inputImage);
// Create a gray scale context and render the input image into that
CGColorSpaceRef colorspace = CGColorSpaceCreateDeviceGray();
CGContextRef context = CGBitmapContextCreate(NULL, width, height, 8,
4*width, colorspace, kCGBitmapByteOrderDefault);
CGContextDrawImage(context, CGRectMake(0,0, width,height), inputImage);
// Get an image representation of the grayscale context which the input
// was rendered into.
CGImageRef outputImage = CGBitmapContextCreateImage(context);
// Cleanup
CGContextRelease(context);
CGColorSpaceRelease(colorspace);
return (CGImageRef)[(id)outputImage autorelease];
}
そして、次のコードを使用してピクセルデータをコンソールにダンプしたとき:
CGImageRef inputImage = [imgIn CGImage];
CGDataProviderRef dataProvider = CGImageGetDataProvider(inputImage);
CFDataRef imageData = CGDataProviderCopyData(dataProvider);
const UInt8 *rawData = CFDataGetBytePtr(imageData);
size_t width = CGImageGetWidth(inputImage);
size_t height = CGImageGetHeight(inputImage);
size_t numPixels = height * width;
for (int i = 0; i < numPixels ; i++)
{
if ((i % 16) == 0)
NSLog(@" -%i-%i-%i-%i-%i-%i-%i-%i-%i-%i-%i-%i-%i-%i-%i-%i-\n\n", rawData[i],
rawData[i+1], rawData[i+2], rawData[i+3], rawData[i+4], rawData[i+5],
rawData[i+6], rawData[i+7], rawData[i+8], rawData[i+9], rawData[i+10],
rawData[i+11], rawData[i+12], rawData[i+13], rawData[i+14], rawData[i+15]);
}
次のような出力を一貫して取得します:
-216-217-214-215-217-215-216-213-214-214-214-215-215-217-216-216-
-219-219-216-219-220-217-212-214-215-214-217-220-219-217-214-219-
-216-216-218-217-218-221-217-213-214-212-214-212-212-214-214-213-
-213-213-212-213-212-214-216-214-212-210-211-210-213-210-213-208-
-212-208-208-210-206-207-206-207-210-205-206-208-209-210-210-207-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-0-
(このパターンは、照明に応じて、残りのバイト、80バイトのピクセルデータ、240バイトのゼロを繰り返します。画像が80x20であるため、合計1600バイトがあります)
解決
これ:
CGContextRef context = CGBitmapContextCreate(NULL, width, height, 8,
4*width, colorspace, kCGBitmapByteOrderDefault);
あるべきです:
CGContextRef context = CGBitmapContextCreate(NULL, width, height, 8,
width, colorspace, kCGBitmapByteOrderDefault);
言い換えれば、8ビットの灰色の画像の場合、行あたりのバイト数は幅と同じです。
他のヒント
おそらく画像のストライドを忘れてしまうでしょう - あなたはあなたの画像が幅*の高さとして保存されていると仮定していますが、いくつかのシステムはそれらをストライド*の高さでストライド>幅として保存します。ゼロはあなたがスキップする必要があるパディングです。
ちなみに、「バイナライズ」とはどういう意味ですか?私はあなたがより少ないグレーのレベルまで量子化することを意味すると思いますか?