iOS 着色器滤镜

作为智能机照相和摄像功能无疑是其重要的功能,从比较早期使用实时滤镜的path到后期迎头赶上的instagram,他们出彩了滤镜效果和流畅的性能无疑给软件增色不少,而其中最大的功臣就要归功于opengles 2.x之后引入的着色器了。
滤镜原理 其实滤镜归根到底就是在照相时,取得每一帧,将取到的这一帧数据的首地址取出,我们就获得了访问每一个像素点的能力,然后在对每个点根据相应的算法来进行变化,就可以得到我们想要的一些效果
如何取得视频数据? 取得照相时的图片数据 加入Framework AVFoundation _session = [[AVCaptureSession alloc] init];

_videoOutput = [[[AVCaptureVideoDataOutput alloc] init] autorelease];

if ([_session canAddOutput:_videoOutput]) {
[_session addOutput:_videoOutput];
}

dispatch_queue_t videoCaptureQueue = dispatch_queue_create("video_capture_queue_",DISPATCH_QUEUE_SERIAL);


[_videoOutput setSampleBufferDelegate:self queue:videoCaptureQueue];


[_session startRunning];


在session start之后我们就可以通过回调 来得到 sbuf

- (void)captureOutput:(AVCaptureOutput *)captureOutput
didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer
fromConnection:(AVCaptureConnection *)connection{
...
OSStatus err = CMBufferQueueEnqueue(previewBufferQueue, sampleBuffer);
if ( !err ) {
dispatch_async(dispatch_get_main_queue(), ^{
CMSampleBufferRef sbuf = (CMSampleBufferRef)CMBufferQueueDequeueAndRetain(previewBufferQueue);

});
}
...
}


拿到sbuf之后 我们就可以通过以下的方法来获取图片的首地址

CVPixelBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);

CVPixelBufferLockBaseAddress( pixelBuffer, 0 );

int len = CVPixelBufferGetDataSize(pixelBuffer);

UInt8 *pixel = (UInt8 *)CVPixelBufferGetBaseAddress(pixelBuffer);

_render(pixel,len) //滤镜函数


这样其实就可以简单的实现照相时候的实时滤镜,当然作为高性能的标题,肯定实现不会这么简单,大家可以尝试一下这个方法的效果,我之前尝试的时候原本60帧左右的摄像,对rgb某个单通道操作影响不大,但是一旦操作到三个通道,降帧就很明显,更不用说在摄像时同时还要录音了。这时我们要解决这个问题就需要我们下一节来认识着色器。


认识着色器
用过opengl的同学对着色器 应该不会陌生,但对与iOS终端设备的开发者,对于图形图像有着深入了解的人不多,本人也只是个初学者,对于opengl es 2.x才引入的着色器也是初步认识,WWDC的专题讲座有一节就是讲opengl es的新特性的 结合AVFoundation那一节 我们还是可以学到不少东西的。
opengl es的着色器 有.fsh和.vsh两个文件 这两个文件在被编译和链接后就可以产生可执行程序 与GPU交互 .vsh 是顶点shader 用与顶点计算 可以理解控制顶点的位置 在这个文件中我们通常会传入当前顶点的位置,和纹理的坐标
例如 attribute vec4 position;
attribute vec4 inputTextureCoordinate;


varying vec2 textureCoordinate;


precision mediump float;
uniform float overTurn;


void main()
{
gl_Position = position;
if (overTurn>0.0) {
textureCoordinate = vec2(inputTextureCoordinate.x,overTurn-inputTextureCoordinate.y);
}
else
textureCoordinate = vec2(inputTextureCoordinate.x,inputTextureCoordinate.y);
}


attribute 外部传入vsh文件的变量 每帧的渲染的可变参数 变化率高 用于定义每个点
varying 用于 vsh和fsh之间相互传递的参数
precision mediump float 定义中等精度的浮点数
uniform 外部传入vsh文件的变量 变化率较低 对于可能在整个渲染过程没有改变 只是个常量


在main()当overTurn大于0的时候 函数里面做的事情就是将纹理y轴反转


.fsh 是片段shader 在这里面我可以对于每一个像素点进行重新计算 从而达到我们滤镜效果

varying highp vec2 textureCoordinate;
precision mediump float;
uniform sampler2D videoFrame;


vec4 memoryRender(vec4 color)
{
float gray;
gray = color.r*0.3+color.g*0.59+color.b*0.11;
color.r = gray;
color.g = gray;
color.b = gray;

color.r += color.r*1.5;
color.g = color.g*2.0;

if(color.r > 255.0)
color.r = 255.0;
if(color.g > 255.0)
color.g = 255.0;

return color;
}


void main()
{
vec4 pixelColor;


pixelColor = texture2D(videoFrame, textureCoordinate);

gl_FragColor = memoryRender(pixelColor);
}


varying highp vec2 textureCoordinate 就是从vsh中传过来了纹理坐标
uniform sampler2D videoFrame 是我们真正的纹理贴图
texture2D(videoFrame, textureCoordinate) 将纹理中的每个像素点颜色取出到pixelColor
我们可以用memoryRender(pixelColor)将我们取到像素点重新加工




总结:
对于着色器的编程并不是很困难,完全是C的语法 但是debug比较麻烦,对于类型的约束也很严格 必须是相同类型的才能进行算术运算。我们理解了这两个文件之后 就可以发挥我们的想象对纹理图片做出各种的处理。 了解如何编写着色器之后 我们就要在下篇开始 了解如何把AVFoundation中取到的图片帧来与我们的着色器结合,从来绘制出高性能的滤镜。

【iOS 着色器滤镜】

    推荐阅读