【问题标题】:maximum image size in CIFilter / CIKernel?CIFilter / CIKernel 中的最大图像大小?
【发布时间】:2011-04-21 22:47:36
【问题描述】:

有谁知道自定义 CIFilter 对图像大小的限制是什么?我创建了一个过滤器,当图像达到 2 兆像素时按预期执行,但是当图像更大时会产生非常奇怪的结果。我已经在我的可可应用程序和石英作曲家中对此进行了测试。我开发的过滤器是一种几何类型的失真过滤器,(我认为)需要一个 ROI 和一个跨越整个输入图像的 DOD。我创建了这个过滤器来重新映射全景图像,所以我希望它可以处理非常大(50-100 兆像素)的图像。

作为一个简单的测试,考虑以下 CIFilter(可以在 Quartz Composer 中使用),它简单地转换图像,以便将图像的左下角转换到中心(我知道这可以通过仿射来完成转换,但我需要在更复杂的过滤器中执行这样的操作)。当图像为 2000x1000 时,此过滤器按预期工作,但在输入图像为 4000x2000 像素时产生奇怪的结果。问题是平移没有将角准确地移动到中心,或者图像输出完全消失了。我注意到大图像上更复杂的过滤器的其他奇怪问题,但我认为这个简单的过滤器说明了我的问题,并且可以在 Quartz Composer 中复制。

kernel vec4 equidistantProjection(sampler src, __color color)
{
     vec2 coordinate = samplerCoord(src);
     vec2 result;
     vec4 outputImage;

     result.x = (coordinate.x - samplerSize(src).x / 2.0);
     result.y = (coordinate.y - samplerSize(src).y / 2.0);

     outputImage = unpremultiply(sample(src,result));

     return premultiply(outputImage);
}

使用工作坐标而不是采样器坐标时会出现相同的奇怪行为,但在这种情况下,尺寸为 2000x1000 的图像会出现错误,但对于尺寸为 1000x500 的图像却可以正常工作

kernel vec4 equidistantProjection(sampler src, __color color, vec2 destinationDimensions)
{
     vec2 coordinate = destCoord();
     vec2 result;
     vec4 outputImage;

     result.x = (coordinate.x - destinationDimensions.x / 2.0);
     result.y = (coordinate.y - destinationDimensions.y / 2.0);

     outputImage = unpremultiply(sample(src,result));
     outputImage = unpremultiply(sample(src,samplerTransform(src, result)));

     return premultiply(outputImage);
}

作为参考,我已将以下内容添加到过滤器的 - (CIImage *)outputImage 方法的 Objective-C 部分,以将 DOD 设置为整个输入图像。

- (CIImage *)outputImage
{
    CISampler *src = [CISampler samplerWithImage: inputImage];



     NSArray * outputExtent = [NSArray arrayWithObjects:
            [NSNumber numberWithInt:0],
            [NSNumber numberWithInt:0],
            [NSNumber numberWithFloat:[inputImage extent].size.width],
            [NSNumber numberWithFloat:[inputImage extent].size.height],nil];


return [self apply: filterKernel, src, inputColor, zoom, viewBounds, inputOrigin,
     kCIApplyOptionDefinition, [src definition], kCIApplyOptionExtent, outputExtent, nil];

}

此外,我添加了以下方法来设置我在 - (id)init 方法中调用的 ROI:[filterKernel setROISelector:@selector(regionOf:destRect:userInfo:)];

- (CGRect) regionOf:(int)samplerIndex destRect:(CGRect)r userInfo:obj
{

     return r;
}

对于这个问题的任何帮助或建议将不胜感激。我确信 CIFilters 可以处理更大的图像,因为我使用 CIBumpDistortion 处理超过 50 兆像素的图像,所以我一定做错了什么。有什么想法吗?

【问题讨论】:

    标签: cocoa image-processing quartz-graphics core-image


    【解决方案1】:

    使用 CoreImage 我发现它可以将大图像分割成多个部分。例如,在您的情况下,可以将 4k x 2k 图像拆分为 4 个 2k x 1k 图像并单独渲染。不幸的是,这种优化技巧会影响 samplerCoord,并且一些依赖于坐标的过滤器在大图像上无法正常工作。

    我的解决方案是使用 destCoord 而不是 samplerCoord。当然,您应该记住,图像可以在非零原点和 destCoord 中呈现。我编写了自己的过滤器,因此我能够将整个范围作为 vec4 参数传递。

    示例:尝试使用 CIFilter 生成图像,类似这样:

    float gray = (samplerCoord.x / samplerSize.width) * (samplerCoord.y / samplerSize.height);
    

    这个输出应该在 (0,0) 处为我们提供黑色,在 (1,1) 处为我们提供白色,对吧?但是,对于大图像,您会看到很少的四边形,而不是单个渐变。这是由于来自 CoreImage 引擎的优化渲染,我还没有找到一种方法来传递它,但是您可以通过这种方式重新编写内核:

    float gray = ((destCoord.x - rect.x) / rect.size) * ((destCoord.y - rect.y) / rect.height)
    

    rect 是您必须通过的采样器的真实范围。我为此目的使用了 [inputImage extent] ,但它取决于过滤器,并且在您的情况下可以是其他东西。

    希望这个解释清楚。购买方式,看起来系统内核即使在处理大图像时也能正常工作,所以你应该只在你的自定义内核中担心这个技巧。

    【讨论】:

    • 有没有办法知道平铺图像的来源是什么?如果您传入 4-d 范围(原点 x、原点 y、宽度、高度),您能否以编程方式确定 CoreImage 将如何将图像切割成部分以了解每个块的原点在哪里?或者我错过了什么。我一直在使用 destCoord 和 samplerTransform 来获得不错的结果,同时明确地将输入图像的整个范围作为 ROI 传递。只要输入图像足够小,这种方法就可以很好地工作。
    • @KevinGross 你找到解决方案了吗?谢谢!
    猜你喜欢
    • 2012-08-09
    • 2013-11-15
    • 2013-04-17
    • 1970-01-01
    • 2019-05-04
    • 1970-01-01
    • 2012-07-27
    • 1970-01-01
    • 1970-01-01
    相关资源
    最近更新 更多