iOS|iOS 视频捕捉UIImagePickerController和AVFoundation

UIImagePickerController
目前,将视频捕获集成到你的应用中的最简单的方法是使用 UIImagePickerController。这是一个封装了完整视频捕获管线和相机 UI 的 view controller。
在实例化相机之前,首先要检查设备是否支持相机录制:

if ([UIImagePickerController isSourceTypeAvailable:UIImagePickerControllerSourceTypeCamera]) { NSArray *availableMediaTypes = [UIImagePickerController availableMediaTypesForSourceType:UIImagePickerControllerSourceTypeCamera]; if ([availableMediaTypes containsObject:(NSString *)kUTTypeMovie]) { // 支持视频录制 } }

然后创建一个 UIImagePickerController 对象,设置好代理便于进一步处理录制好的视频 (比如存到相册) 以及对于用户关闭相机作出响应:
UIImagePickerController *camera = [UIImagePickerController new]; camera.sourceType = UIImagePickerControllerSourceTypeCamera; camera.mediaTypes = @[(NSString *)kUTTypeMovie]; camera.delegate = self;

typedef NS_ENUM(NSInteger, UIImagePickerControllerSourceType) { UIImagePickerControllerSourceTypePhotoLibrary, UIImagePickerControllerSourceTypeCamera, UIImagePickerControllerSourceTypeSavedPhotosAlbum } __TVOS_PROHIBITED

mediaTypes 对应的是 音频:kUTTypeAudio 视频:kUTTypeVideo 音视频 :kUTTypeMovie 图片照片:kUTTypeImage
//编码质量 [camera setVideoQuality:UIImagePickerControllerQualityTypeIFrame1280x720]; //默认开启的摄像头 [camera setCameraDevice:UIImagePickerControllerCameraDeviceFront];

最后 ,当用户操作,选择/拍摄完以后的回调
#pragma mark - UIImagePickerControllerDelegate methods- (void)imagePickerController:(UIImagePickerController *)picker didFinishPickingMediaWithInfo:(NSDictionary *)info { ALAssetsLibrary *library = [[ALAssetsLibrary alloc] init]; NSURL *recordedVideoURL= [info objectForKey:UIImagePickerControllerMediaURL]; if ([library videoAtPathIsCompatibleWithSavedPhotosAlbum:recordedVideoURL]) { [library writeVideoAtPathToSavedPhotosAlbum:recordedVideoURL completionBlock:^(NSURL *assetURL, NSError *error){} ]; }[picker dismissViewControllerAnimated:YES completion:nil]; }- (void)imagePickerControllerDidCancel:(UIImagePickerController *)picker { [picker dismissViewControllerAnimated:YES completion:nil]; }

扩展 - 自定义UIImagePickerController UI
UIView *cameraOverlay = [[UIView alloc] init]; picker.showsCameraControls = NO; picker.cameraOverlayView = cameraOverlay;

然后关联 开始/停止 操作
- (void)takePicture NS_AVAILABLE_IOS(3_1); // programatically initiates still image capture. ignored if image capture is in-flight. // clients can initiate additional captures after receiving -imagePickerController:didFinishPickingMediaWithInfo: delegate callback- (BOOL)startVideoCapture NS_AVAILABLE_IOS(4_0); - (void)stopVideoCaptureNS_AVAILABLE_IOS(4_0);

总结: UIImagePickerController 可以非常方便的进行浏览相册选择视频、图片 ;也可以自己拍摄视频、照片 。系统提供了常用的功能以及通用的UI 。同时,也正是因为系统的同意方便,限制了对于功能、界面的自定义 。
--
AVFoundation
提供了基于 AVCaptureSession 的很对操作硬件层面的接口。

111
AVCaptureSession 做为音频 \ 视频输入 和 文件输出的桥梁 。在中间传输媒体数据流 。
那么根据流程图 我们的初始化代码创建就是这样的
AVCaptureSession *captureSession = [AVCaptureSession new]; AVCaptureDeviceInput *cameraDeviceInput = … AVCaptureDeviceInput *micDeviceInput = … AVCaptureMovieFileOutput *movieFileOutput = … if ([captureSession canAddInput:cameraDeviceInput]) { [captureSession addInput:cameraDeviceInput]; } if ([captureSession canAddInput:micDeviceInput]) { [captureSession addInput:micDeviceInput]; } if ([captureSession canAddOutput:movieFileOutput]) { [captureSession addOutput:movieFileOutput]; }[captureSession startRunning];

需要注意:
  • AVCaptureDeviceInput 在添加进入 Session之前 ,需要验证是否可以添加 。
    @discussion An AVCaptureInput instance can only be added toa session using -addInput: if canAddInput: returns YES. */ - (BOOL)canAddInput:(AVCaptureInput *)input;

  • 所有对 capture session 的调用都是阻塞的,因此建议将它们分配到后台串行队列中
``` _sessionQueue = dispatch_queue_create( "com.example.capturepipeline.session", DISPATCH_QUEUE_SERIAL ); //具体操作captureSession的时候就使用后台同步队列 - (void)startRunning

{
dispatch_sync( _sessionQueue, ^{
[_captureSession startRunning];
} );
}
```

tip: 同步队列 中加载 异步任务 ,异步任务会 遵循先进先出的原则,挨个执行 。同时,系统只会创建一个子线程 。所有的任务逐个执行。 如果加入的是同步任务 ,就不会开线程,只会在主线程中执行。
输入设置-配置音视频质量相关参数
  • 如果只是简单的需求 ,不需要那么精确的控制输出质量
    @discussion The value of this property is an NSString (one of AVCaptureSessionPreset*) indicating the current session preset in use by the receiver.The sessionPreset property may be set while the receiver is running.

*/
@property(nonatomic, copy) NSString *sessionPreset;
```
只需要通过这个函数 ,设置系统提供的等级配置即可
``` NSString *constAVCaptureSessionPresetPhoto; NSString *constAVCaptureSessionPresetHigh; NSString *constAVCaptureSessionPresetMedium; NSString *constAVCaptureSessionPresetLow; NSString *constAVCaptureSessionPreset352x288; NSString *constAVCaptureSessionPreset640x480; NSString *constAVCaptureSessionPreset1280x720; NSString *constAVCaptureSessionPreset1920x1080; NSString *constAVCaptureSessionPresetiFrame960x540; NSString *constAVCaptureSessionPresetiFrame1280x720; NSString *constAVCaptureSessionPresetInputPriority; ```

  • 精确控制 帧率、对焦、曝光
    对于AVCaptureDevice 可以完成对 帧率范围 ,曝光 ,对焦 ,白平衡等的设置 。
    // 官方示例代码 :
    //针对不同的硬件 ,支持的是不同的 ,所以我们需要查询,然后选择合适的 。
    - (void)configureCameraForHighestFrameRate:(AVCaptureDevice *)device

{
AVCaptureDeviceFormat *bestFormat = nil;
AVFrameRateRange *bestFrameRateRange = nil;
for ( AVCaptureDeviceFormat *format in [device formats] ) {
for ( AVFrameRateRange *range in format.videoSupportedFrameRateRanges ) {
if ( range.maxFrameRate > bestFrameRateRange.maxFrameRate ) {
bestFormat = format;
bestFrameRateRange = range;
}
}
}
if ( bestFormat ) {
if ( [device lockForConfiguration:NULL] == YES ) {
device.activeFormat = bestFormat;
device.activeVideoMinFrameDuration = bestFrameRateRange.minFrameDuration;
device.activeVideoMaxFrameDuration = bestFrameRateRange.minFrameDuration;
[device unlockForConfiguration];
}
}
}
```
对于 硬件设置以后另开一个单独写 。

  • 光学防抖 AVCaptureConnection
    视频防抖 是在 iOS 6 和 iPhone 4S 发布时引入的功能。到了 iPhone 6,增加了更强劲和流畅的防抖模式,被称为影院级的视频防抖动。防抖并不是在捕获设备上配置的,而是在 AVCaptureConnection 上设置。由于不是所有的设备格式都支持全部的防抖模式,所以在实际应用中应事先确认具体的防抖模式是否支持
AVCaptureDevice *device = ...; AVCaptureConnection *connection = ...; AVCaptureVideoStabilizationMode stabilizationMode = AVCaptureVideoStabilizationModeCinematic; if ([device.activeFormat isVideoStabilizationModeSupported:stabilizationMode]) { [connection setPreferredVideoStabilizationMode:stabilizationMode]; }```- HDR iPhone 6 的另一个新特性就是视频 HDR (高动态范围图像)有两种方法可以配置视频 HDR:直接将 capture device 的 videoHDREnabled 设置为启用或禁用,或者使用 automaticallyAdjustsVideoHDREnabled 属性来留给系统处理。####硬件访问权限 当用户未授权时,对于录制视频或音频的尝试,得到的将是黑色画面和无声。

  • (void)requestAccessForMediaType:(NSString *)mediaType completionHandler:(void (^)(BOOL granted))handler NS_AVAILABLE_IOS(7_0);
//The media type, either AVMediaTypeVideo or AVMediaTypeAudio
####输出设置 分为两种 :- 基于文件的 AVCaptureMovieFileOutput 编码录制的时候 ,收到的回调 都是基于文件的 ,返回存放文件url。不能对CMSampleBufferRef操作 - 另一种是基于流数据的AVCaptureVideoDataOutput和AVCaptureAudioDataOutput这些输出将会各自捕获视频和音频的样本缓存,接着发送到它们的代理。代理要么对采样缓冲进行处理 (比如给视频加滤镜),要么保持原样传送#####AVCaptureMovieFileOutput- 1、指定编码文件保存地址``` - (void)startRecordingToOutputFileURL:(NSURL*)outputFileURL recordingDelegate:(id)delegate; ``` - 2、编码开始回调

- (void)captureOutput:(AVCaptureFileOutput *)captureOutput didStartRecordingToOutputFileAtURL:(NSURL *)fileURL fromConnections:(NSArray *)connections; ```

  • 3、编码结束回调
    - (void)captureOutput:(AVCaptureFileOutput *)captureOutput didFinishRecordingToOutputFileAtURL:(NSURL *)outputFileURL fromConnections:(NSArray *)connections error:(NSError *)error;

AVAssetWriter 直接操作数据流 AVAssetWriter
  • 1、创建AVCaptureAudioDataOutput 和 AVCaptureVideoDataOutput
    设置好代理 [_videoDataOutput setSampleBufferDelegate:self queue:_videoDataOutputQueue];
  • 2、准备开始编码
    配置AVAssetWriterInput (音频和视频分别)设置输出参数配置
    if ( [_assetWriter canApplyOutputSettings:audioSettings forMediaType:AVMediaTypeAudio] ){ _audioInput = [[AVAssetWriterInput alloc] initWithMediaType:AVMediaTypeAudio outputSettings:audioSettings sourceFormatHint:audioFormatDescription];

  • 3、开始编码
    [_assetWriter startWriting]
  • 4、编码流回调函数
    - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection;
    这个函数是音频和视频共用的 。在这里处理CMSampleBufferRef的时候,需要注意区分 。
    至此,我们就可以拿到实时的编码流 ,在这里可以进行后续的处理 ,比如添加滤镜等 。
  • 最后一步,写入
    [input appendSampleBuffer:sampleBuffer]
补充 AVAssetWriterInput 也可以做输出的配置工作 。那么需要提供一个包含具体输出参数的字典。关于音频输出设置的键值被定义在这里, 关于视频输出设置的键值定义在这里
【iOS|iOS 视频捕捉UIImagePickerController和AVFoundation】还有一种方法可以直接生成复合当前输出配置 ,带有所有参数的字典的方法 。
_videoCompressionSettings = [_videoDataOutput recommendedVideoSettingsForAssetWriterWithOutputFileType:AVFileTypeQuickTimeMovie]; _audioCompressionSettings = [_audioDataOutput recommendedAudioSettingsForAssetWriterWithOutputFileType:AVFileTypeQuickTimeMovie];

    推荐阅读