CoreImage和GPUImage的结合使用
大纲
- 简介
- 效果预览
- 技术点
- 设计思路
- 概述
- 自定义滤镜设计说明
- 难点分析
- 坐标转换
- 视频帧处理
- 待优化点
- 参考资料
git地址:DEMO
效果预览 demo实现的效果如下动图所示:
未命名.gif 技术点
- CoreImage
- GPUImage
- OpenGL
设计大体思路在于利用
GPUImage
自定义一个滤镜,这个滤镜的实际效果可以根据自己所需来实现,比如demo中实现的反色效果。重点在于自定义滤镜需要提供一个设置参数mask,参数类型为矩形区域坐标(x,y,width,height),我们可以通过这个参数设置滤镜的作用范围。在自定义的滤镜中,片元着色器获取到传入的这个mask值,然后对每个纹素(可以理解为像素),进行区域判断,如果在mask所设定的区域内,则进行滤镜效果变换,如果不在的话,则不进行处理。大体流程可以简单分为下面几步:
- 第一步,获取图像或者视频帧的
CIImage
对象。 - 第二步,通过
CoreImage
识别图像中的人脸,获取人脸的矩形区域坐标 (x , y, width, height)。 - 第三步,获取矩形区域坐标后,把值赋给自定义滤镜的mask参数。
- 第四步,自定义滤镜把mask值传递给自己的片元着色器。片元着色器根据传入的区域坐标,决定滤镜的作用区域。
我自定义了一个滤镜类
GPUImageCustomColorInvertFilter
,这个滤镜提供的主要功能是给视频或者静态图片实现局部反色滤镜的功能。代码如下所示://GPUImageCustomColorInvertFilter.h文件
#import "GPUImageFilter.h"@interface GPUImageCustomColorInvertFilter : GPUImageFilter@property (nonatomic, assign) CGRect mask;
//滤镜作用范围@end//GPUImageCustomColorInvertFilter.m文件#import "GPUImageCustomColorInvertFilter.h"NSString *const kGPUImageCustomInvertFragmentShaderString = SHADER_STRING
(
varying highp vec2 textureCoordinate;
uniform sampler2D inputImageTexture;
uniform lowp vec4 mask;
void main()
{
lowp vec4 textureColor = texture2D(inputImageTexture, textureCoordinate);
//根据mask判断,当前像素是否在指定举行区域内
if(gl_FragCoord.x < (mask.x + mask.z) && gl_FragCoord.y < (mask.y + mask.w) && gl_FragCoord.x > mask.x && gl_FragCoord.y > mask.y) {
gl_FragColor = vec4((1.0 - textureColor.rgb), textureColor.w);
//实现反色效果的代码,可以根据自己所需实现不同效果
}else {
gl_FragColor = textureColor;
}
}
);
@interface GPUImageCustomColorInvertFilter() {
GLint maskUniform;
}@end@implementation GPUImageCustomColorInvertFilter- (id)init;
{
if ((self = [super initWithFragmentShaderFromString:kGPUImageCustomInvertFragmentShaderString])) {
maskUniform = [filterProgram uniformIndex:@"mask"];
}return self;
}- (void)setMask:(CGRect)mask {
_mask = mask;
NSLog(@"dkTest: %s mask %@", __func__, NSStringFromCGRect(mask));
GPUVector4 maskVector4 = {mask.origin.x, mask.origin.y, mask.size.width, mask.size.height};
[self setVec4:maskVector4 forUniform:maskUniform program:filterProgram];
}@end
代码比较简单,我们主要关注两个点:
- 我们传递参数给自定义滤镜后,自定义滤镜如何传递值给片元着色器。
- 片元着色器是如何工作的。
对于第一点,
GPUImage
提供了接口方法setVec4:forUniform:program
,我们可以通过这个方法,把需要的mask值传入到片元着色器中,当然其他类型的值也有相应的方法,例如以GPUImage
中GPUImageContrastFilter
的contrast
参数为例,可以使用setFoloat:forUniform:program
方法,把值传到了片元着色器。- (void)setMask:(CGRect)mask {
_mask = mask;
GPUVector4 maskVector4 = {mask.origin.x, mask.origin.y, mask.size.width, mask.size.height};
[self setVec4:maskVector4 forUniform:maskUniform program:filterProgram];
}
然后我们可以通过调用方法
maskUniform = [filterProgram uniformIndex:@"mask"];
,设置在片元着色器中用以获取我们传入值的变量名。这样我们就可以在片元着色器中声明uniform lowp vec4 mask;
,直接使用mask
的值。其中uniform
代表修饰的变量为全局变量,lowp
表示精度。2.2 片元着色器是如何工作的
对于片元着色器是如何工作的,我觉得可以简单的理解为对于每一个像素rgba值的处理。着色器会固定接受两个参数,即2D纹理图像
inputImageTexture
和纹理坐标textureCoordinate
,然后通过texture2D
方法去获取纹素,这是一个纹理图片的像素。接着对该像素进行相应的处理。处理完成后,赋值到gl_FragColor
中,进行输出。NSString *const kGPUImageCustomInvertFragmentShaderString = SHADER_STRING
(
varying highp vec2 textureCoordinate;
uniform sampler2D inputImageTexture;
uniform lowp vec4 mask;
void main()
{
lowp vec4 textureColor = texture2D(inputImageTexture, textureCoordinate);
//根据mask判断,当前像素是否在指定举行区域内
if(gl_FragCoord.x < (mask.x + mask.z) && gl_FragCoord.y < (mask.y + mask.w) && gl_FragCoord.x > mask.x && gl_FragCoord.y > mask.y) {
gl_FragColor = vec4((1.0 - textureColor.rgb), textureColor.w);
}else {
gl_FragColor = textureColor;
}
}
);
难点分析 个人觉得功能实现的主要的难点,第一,在于
coreImage
和我们熟悉的UIkit
以及OpenGL
三者之间的坐标转换。第二,在与视频处理的时候,如何获取每一帧的CIImage
图像,从而获取当前帧人脸的位置。1. 坐标转换
1.1 coreImage和UIKit的坐标转换
coreImage中人脸识别完成后,返回的坐标是基于以左下角为原点的坐标系,如下所示:

文章图片
coreImageCoor.jpg 而我们熟悉的UIKit的坐标,是基于左上角为原点的坐标系,如下所示:

文章图片
UIkitCoor.png 所以当获取到
CIFaceFeature
返回的人脸坐标的时候,我们需要转换成我们以左上角为原点的坐标系的坐标,示例代码如下所示//
CIImage* image = [CIImage imageWithCGImage:imageView.image.CGImage];
CIDetector* detector = [CIDetector detectorOfType:CIDetectorTypeFace
context:... options:...];
//设置坐标转换需要的transform
CGAffineTransform transform = CGAffineTransformMakeScale(1, -1);
transform = CGAffineTransformTranslate(transform,
0, -imageView.bounds.size.height);
//人脸识别
NSArray* features = [detector featuresInImage:image];
for(CIFaceFeature* faceFeature in features) {//进行坐标转换
const CGRect faceRect = CGRectApplyAffineTransform(faceFeature.bounds, transform);
UIView* faceView = [[UIView alloc] initWithFrame:faceRect];
...
}
特别注意的一点,因为识别返回的坐标是图片真实的坐标,如果需要把人脸识别的矩形区域标注到我们自己的view上,比如如下所示的人脸红框:

文章图片
redrectangle.png 我们需要注意展示图片的
imageView
可能会把image
给拉伸了,所以人脸识别的坐标需要乘以拉伸系数,示例代码如下所示:self.widthScale = imageSize.width / imageViewSize.width;
self.heigthScale = imageSize.height / imageViewSize.height;
CGRect rect = CGRectMake(feature.bounds.origin.x / self.widthScale, feature.bounds.origin.y / self.heigthScale, feature.bounds.size.width / self.widthScale, feature.bounds.size.height / self.heigthScale);
1.2 OpenGL坐标
片元着色器存在着很多类型的坐标,例如世界坐标,观察坐标,裁剪坐标,屏幕坐标等等,而我们需要用到的就是屏幕坐标。只有知道了像素点的屏幕坐标,我们才能对比人脸识别出来的区域,判断是否对该像素点进行处理。经过查找资料,发现
OpenGL
提供了gl_FragCoord
值,它描述了当前像素点在屏幕上的xy轴坐标,这正是我们所需要的。所以我们坐标处理可以分为以下几步:
* 第一步,从
CIFeature
中获取人脸的矩形区域。* 第二步,把矩形区域的坐标作为以左上角为原点的坐标。
* 第三部,对比片元着色器中的点是否在在该矩形区域中,重要一点,这里矩形区域无需的坐标无需做上文所说的伸缩系数处理。
着色器坐标对比代码如下所示:
void main()
{
lowp vec4 textureColor = texture2D(inputImageTexture, textureCoordinate);
//坐标对比
if(gl_FragCoord.x < (mask.x + mask.z) && gl_FragCoord.y < (mask.y + mask.w) && gl_FragCoord.x > mask.x && gl_FragCoord.y > mask.y) {
gl_FragColor = vec4((1.0 - textureColor.rgb), textureColor.w);
}else {
gl_FragColor = textureColor;
}
}
);
2. 视频帧处理
对于静态图片的局部滤镜添加处理,我们可以很简单的理解为下面的简单步骤:

文章图片
localProcess.png 但是对于视频的处理,我们需要考虑如何获取到每一个视频帧的
CIImage
,并实时监测到人脸区域坐标,然后把参数传送给滤镜。下面介绍如何实现这个功能。2.1 获取视频的每一帧数据
看了下
GPUImage
的代码,发现GPUImageVideoCamera
类中定义了一个代理方法:@protocol GPUImageVideoCameraDelegate @optional
- (void)willOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer;
@end
继续看这个方法在哪个地方使用:
- (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection
{
.....
runAsynchronouslyOnVideoProcessingQueue(^{
....
if (self.delegate)
{
[self.delegate willOutputSampleBuffer:sampleBuffer];
}
...
});
.....
}
上述方法是
AVCaptureVideoDataOutPut
中定义的代理方法,摄像头开启后,获取每一个视频帧,都会调用这个代理方法。所以我们可以利用willOutputSampleBuffer:
获取到视频的每一帧图像,即sampleBuffer
。这样就解决了我们的获取视频帧的问题。2.2 视频帧转为CIImage
【CoreImage和GPUImage的结合使用】我们获取到
sampleBuffer
,可以通过它获取到对应的CIImage
,代码如下所示: CVPixelBufferRef pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
CFDictionaryRef attachments = CMCopyDictionaryOfAttachments(kCFAllocatorDefault, sampleBuffer, kCMAttachmentMode_ShouldPropagate);
//从帧中获取到的图片相对镜头下看到的会向左旋转90度,所以后续坐标的转换要注意。
CIImage *convertedImage = [[CIImage alloc] initWithCVPixelBuffer:pixelBuffer options:(__bridge NSDictionary *)attachments];
特别要注意一点,获取的CIImage相对于我们手机上看到的图,图的方向会向左旋转90。如下所示:

文章图片
videoCIImage.png 所以后续我们的人脸识别以及识别后的坐标转换都需要特别的注意。
2.3 人脸识别
如上文所示,图像是向左旋转了90度,所以识别人脸的时候,我们需要正确设置
CIDetectorImageOrientation
,否则识别会失败。代码如下所示:NSDictionary *imageOptions = nil;
UIDeviceOrientation curDeviceOrientation = [[UIDevice currentDevice] orientation];
int exifOrientation;
enum {
PHOTOS_EXIF_0ROW_TOP_0COL_LEFT= 1, //1=0th row is at the top, and 0th column is on the left (THE DEFAULT).
PHOTOS_EXIF_0ROW_TOP_0COL_RIGHT= 2, //2=0th row is at the top, and 0th column is on the right.
PHOTOS_EXIF_0ROW_BOTTOM_0COL_RIGHT= 3, //3=0th row is at the bottom, and 0th column is on the right.
PHOTOS_EXIF_0ROW_BOTTOM_0COL_LEFT= 4, //4=0th row is at the bottom, and 0th column is on the left.
PHOTOS_EXIF_0ROW_LEFT_0COL_TOP= 5, //5=0th row is on the left, and 0th column is the top.
PHOTOS_EXIF_0ROW_RIGHT_0COL_TOP= 6, //6=0th row is on the right, and 0th column is the top.
PHOTOS_EXIF_0ROW_RIGHT_0COL_BOTTOM= 7, //7=0th row is on the right, and 0th column is the bottom.
PHOTOS_EXIF_0ROW_LEFT_0COL_BOTTOM= 8//8=0th row is on the left, and 0th column is the bottom.
};
BOOL isUsingFrontFacingCamera = NO;
AVCaptureDevicePosition currentCameraPosition = [self.camera cameraPosition];
if (currentCameraPosition != AVCaptureDevicePositionBack) {
isUsingFrontFacingCamera = YES;
}switch (curDeviceOrientation) {
case UIDeviceOrientationPortraitUpsideDown:
exifOrientation = PHOTOS_EXIF_0ROW_LEFT_0COL_BOTTOM;
break;
case UIDeviceOrientationLandscapeLeft:
if (isUsingFrontFacingCamera) {
exifOrientation = PHOTOS_EXIF_0ROW_BOTTOM_0COL_RIGHT;
}else {
exifOrientation = PHOTOS_EXIF_0ROW_TOP_0COL_LEFT;
}
break;
case UIDeviceOrientationLandscapeRight:
if (isUsingFrontFacingCamera) {
exifOrientation = PHOTOS_EXIF_0ROW_TOP_0COL_LEFT;
}else {
exifOrientation = PHOTOS_EXIF_0ROW_BOTTOM_0COL_RIGHT;
}break;
default:
exifOrientation = PHOTOS_EXIF_0ROW_RIGHT_0COL_TOP;
//值为6。确定初始化原点坐标的位置,坐标原点为右上。其中横的为y,竖的为x
break;
}//exifOrientation的值用于确定图片的方向
imageOptions = [NSDictionary dictionaryWithObject:[NSNumber numberWithInt:exifOrientation] forKey:CIDetectorImageOrientation];
NSArray *features = [self.faceDetector featuresInImage:convertedImage options:imageOptions];
2.4 人脸坐标转换
人脸识别的得到的坐标仍然是基于左下角为原点的坐标系,如下所示:

文章图片
hen.png 但是在视频帧获取到的
CIImage
上,人脸识别坐标是建立在向左旋转了90度的图片上,我们实际显示的图像应该让它向右旋转90度,视图回到垂直的位置。如下所示:
文章图片
videFrameRotate.png 我们对比发现,这时候coreImage坐标的原点和我们熟悉的UIKit坐标的原点是重合的,只是x轴和y轴的坐标变换了位置,所以我们只需转换下x,y坐标以及交换长宽就能完成坐标的转换。示例代码如下所示:
for (CIFeature *feature in featureArray) {
CGRect faceRect = feature.bounds;
CGFloat temp = faceRect.size.width;
faceRect.size.width = faceRect.size.height;
//长宽互换
faceRect.size.height = temp;
temp = faceRect.origin.x;
faceRect.origin.x = faceRect.origin.y;
faceRect.origin.y = temp;
....
}
获取到坐标后,传值给自定义滤镜即可,滤镜中的对比代码再上文已经提到了。
待优化点
- 未实现多人脸识别。
- 视频脸部添加滤镜过程中,cpu使用率过高,待优化。
CoreImage和UIKit坐标
推荐阅读
- 急于表达——往往欲速则不达
- 第三节|第三节 快乐和幸福(12)
- 20170612时间和注意力开销记录
- 2.6|2.6 Photoshop操作步骤的撤消和重做 [Ps教程]
- 对称加密和非对称加密的区别
- 眼光要放高远
- 樱花雨
- 前任
- 2020-04-07vue中Axios的封装和API接口的管理
- 烦恼和幸福