之前的 文章 是在 ViewController 里实现了原生二维码扫描的功能,后来觉得 VC 太重了,便把功能抽成了一个 View,在抽象的过程中也仔细捉摸了一些没有仔细思考过的问题,特此记录下来。

IMG_1130

1.扫描区域的扫描线动画

像微信等很多二维码扫描界面,总有一个上下移动的扫描线动画。一开始用我用 NSTimer 配合 View 的 frame 改变实现,后来发现不仅容易导致 NSTimer 的循环引用,外界调用也容易开启多个定时器,已经在某些时候动画会卡顿。便换成了用 CABasicAnimation 实现,通过改变 View 的 y 值,并把设置 repeatCount 为最大,达到扫描线上下动的效果。

- (void)addScanLineAnimation{
    self.scanLine.hidden = NO;
    CABasicAnimation *animation = [CABasicAnimation animationWithKeyPath:@"transform.translation.y"];
    animation.fromValue = @(0);
    animation.toValue = @(self.scanRect.size.height - scanLineWidth);
    animation.duration = scanTime;
    animation.repeatCount = OPEN_MAX;
    animation.fillMode = kCAFillModeForwards;
    animation.removedOnCompletion = NO;
    animation.timingFunction = [CAMediaTimingFunction functionWithName:kCAMediaTimingFunctionEaseInEaseOut];
    [self.scanLine.layer addAnimation:animation forKey:scanLineAnimationName];
}


- (void)removeScanLineAnimation{
    [self.scanLine.layer removeAnimationForKey:scanLineAnimationName];
    self.scanLine.hidden = YES;
}

取消时把动画移除即可。

2.扫描线的渐变色拖尾

这个用 CAGradientLayer 实现即可,设置渐变起始点和终止点,传入颜色数组和对应的起始位置(0~1),即可。

- (UIView *)scanLine{
    if (!_scanLine) {
        _scanLine = [[UIView alloc]initWithFrame:CGRectMake(self.scanRect.origin.x,self.scanRect.origin.y, self.scanRect.size.width, scanLineWidth)];
        _scanLine.hidden = YES;
        CAGradientLayer *gradient = [CAGradientLayer layer];
        gradient.startPoint = CGPointMake(0.5, 0);
        gradient.endPoint = CGPointMake(0.5, 1);
        gradient.frame = _scanLine.layer.bounds;
        gradient.colors = @[(__bridge id)[self.scanLineColor colorWithAlphaComponent:0].CGColor,(__bridge id)[self.scanLineColor colorWithAlphaComponent:0.4f].CGColor,(__bridge id)self.scanLineColor.CGColor];
        gradient.locations = @[@0,@0.96,@0.97];
        [_scanLine.layer addSublayer:gradient];
    }
    return _scanLine;
}

3.设置 AVFoundation 原生二维码类的一些容易崩溃的地方

具体相关类别在上篇 文章 已经有所介绍,讲讲一些容易崩溃的点,崩溃主要集中在设置 AVCaptureMetadataOutput 的 metadaObjectTypes 属性时,所以在设置这个数组时,最好先检查数组里的值是否在其 availableMetaDataObjectTypes 属性里。像这样

if (![self.dataOutput.availableMetadataObjectTypes containsObject:AVMetadataObjectTypeQRCode]) {
     NSLog(@"The camera unsupport for QRCode.");
}
self.dataOutput.metadataObjectTypes = @[AVMetadataObjectTypeQRCode];

而一般的崩溃是因为 availableMetaDataObjectTypes 为空,而造成空的原因是 AVCaptureSession 没有 addInput 和 addOutput 造成。其中 input 有一个需要注意的地方,在 setSessionPreset,也就是取样的视频分辨率的时候,如果设置了一个摄像头不支持的分辨率,那么 input 的 canAddInput 会返回 NO。并不是所有设备都支持 1080p 视频分辨率的,所以我们在 setSessionPreset 时,可以这样

if ([self.device supportsAVCaptureSessionPreset:AVCaptureSessionPreset1920x1080]) {
    [self.session setSessionPreset:AVCaptureSessionPreset1920x1080];
}
else{
    [self.session setSessionPreset:AVCaptureSessionPresetHigh];
}    

AVCaptureSessionPresetHigh 就是该设备所支持最高的分辨率。而单纯通过设备 ScreenHigh 来区分是否支持 1080p 视频分辨率并不可靠,4s 以后是支持 1080p 的,但是还有一些 touch 设备,iPad 设备,已经某些后摄像头坏掉的手机(会自动调用前摄像头,比如我的 5s TAT)上,就会出现分辨率不支持,canAddInput 返回 NO,没有 input,availavleMetadataObjectTypes 为空,如果不注意就会产生崩溃。

4.关于扫描区域的正确计算方法

之前提到扫描区域的 interestedRect 是一个值是 0~1 的 CGRect,后来我实验发现,这个 0~1 相对的并不是屏幕的 Frame,而是 AVCaptureVideoPreviewLayer 的 Frame 值,而我们习惯把 AVCaptureVideoPreviewLayer 的 frame 值等于 View 的 frame 值,从而才在计算时用 View 的 frame 值去算百分比。但后来我发现正确的转换方法是用 AVCaptureVideoPreviewLayer 里的 metadataOutputRectOfInterestForRect 进行正常 Rect -> 扫描区域坐标系 Rect 转换,另外 AVCaptureVideoPreviewLayer 还提供了 rectForMetadataOutputRectOfInterest 进行扫描区域 Rect -> 正常坐标系 Rect 的转换,以及 CGPoint 的相关转换方法。而且这个转换需要放在 Session 的 startRunning 方法之后才会生效。

[self.session startRunning];
self.dataOutput.rectOfInterest = [self.previewLayer metadataOutputRectOfInterestForRect:self.scanRect];

5.耗时操作放在异步并发线程中处理

AVFoundation 里设置相机相关的方法比较耗时,可以放在异步并发线程中处理。

最后

个人封装了一个 CDZQRScanView 简单易用。支持 Cocoapods也可以直接把两个文件拉进项目里。

所有源码和 Demo

使用时可以把 VC 两个文件拖进项目里就可。

如果您觉得有帮助,不妨给个 star 鼓励一下,欢迎关注&交流