Photoshop Plugin usando cacau - Como obter uma pré-visualização
Pergunta
Estou implementando um plugin Photoshop no Mac, e eu estou fazendo isso usando cacau. Fazendo ok até agora, mas o próximo passo é fornecer uma imagem de "preview", como parte da minha janela de encaixe, e eu estou preso. Eu sou um n00b Obj-C programador, que não está realmente ajudando :-)
Até agora eu tenho algo parecido com isto:
int dataSize = gFilterRecord->bigDocumentData->wholeSize32.v *
gFilterRecord->bigDocumentData->wholeSize32.h *
gFilterRecord->planes;
NSData *inData = [[NSData alloc] initWithBytesNoCopy:gFilterRecord->inData length:dataSize freeWhenDone:NO];
NSLog(@"LoadImageFromSDK : Data created");
NSImage *imageTmp = [[NSImage alloc] initWithData:inData];
NSLog(@"LoadImageFromSDK : Image created");
//Save to PNG file as a test of this image creation
[[imageTmp TIFFRepresentation] writeToFile:@"/tmp/imageTmp.tif" atomically:YES];
NSLog(@"LoadImageFromSDK : Wrote image to disk");
No momento, ele trava horrivelmente em:
09/07/22 10:23:32 Adobe Photoshop Elements [46628] *** NSCopyMemoryPages (0x0, 0x245f4000, 2265088) falhou
Eu sou provavelmente o cálculo do tamanho da INDATA incorretamente. Socorro?
Além disso, é NSImage vai ser capaz de interpretar que blob de dados de imagem corretamente? Ou devo desistir e apenas fazer um mapeamento de pixel a pixel no NSImage?
Solução
Ok, que era muito mais doloroso para descobrir que eu tinha previsto. Além disso, parabéns para NVidia para postar esta PDF que é um melhor explicação do registro de filtro Photoshop SDK do que os docs SDK reais.
Este código realmente lê o INDATA e produz um NSImage utilizável (lotes de registrar apenas para descobrir o que está fazendo, fique à vontade para remover), além da amostra tif arquivo para fins de depuração.
NSLog(@"Entering LoadImageFromSDK");
unsigned char *bitmapPlanes[4];
bitmapPlanes[0] = (unsigned char *) (gFilterRecord->inData);
NSLog(@"Params to create bitmap");
NSLog(@"pixelsWide = %d", gFilterRecord->bigDocumentData->imageSize32.h );
NSLog(@"pixelsHigh = %d", gFilterRecord->bigDocumentData->imageSize32.v );
NSLog(@"bitsPerSample = %d", gFilterRecord->depth );
NSLog(@"samplesPerPixel = %d", gFilterRecord->planes );
NSLog(@"hasAlpha = %d", NO );
NSLog(@"isPlanar = %d", NO );
NSLog(@"colorSpaceName = %@", mapImageModeToColorSpace(gFilterRecord->imageMode) );
NSLog(@"bytesPerRow = %d", gFilterRecord->inRowBytes );
NSLog(@"bitsPerPixel = %d", gFilterRecord->depth*gFilterRecord->planes );
NSBitmapImageRep *bitmapTmp = [[NSBitmapImageRep alloc] initWithBitmapDataPlanes:bitmapPlanes
pixelsWide:gFilterRecord->bigDocumentData->imageSize32.h
pixelsHigh:gFilterRecord->bigDocumentData->imageSize32.v
bitsPerSample:gFilterRecord->depth
samplesPerPixel:gFilterRecord->planes
hasAlpha:NO
isPlanar:NO
colorSpaceName:mapImageModeToColorSpace(gFilterRecord->imageMode)
bytesPerRow:gFilterRecord->inRowBytes
bitsPerPixel:gFilterRecord->depth*gFilterRecord->planes];
NSLog(@"LoadImageFromSDK : Bitmap created = %@", bitmapTmp);
[[bitmapTmp TIFFRepresentation] writeToFile:@"/Users/someuser/temp/sample.tif" atomically:YES];
NSImage *imageTmp = [[NSImage alloc] initWithSize:[bitmapTmp size]];
[imageTmp addRepresentation:bitmapTmp];
NSLog(@"LoadImageFromSDK : Image created = %@", imageTmp);