AVCaptureMovieFileOutput
全部标签 我正在开发iOS应用程序,我想在其中录制分段视频。我读过https://developer.apple.com/library/content/documentation/AudioVideo/Conceptual/AVFoundationPG/Articles/00_Introduction.html我有一个使用AVCaptureVideoDataOutput的工作解决方案,我在其中捕获帧并使用AVAssetWriter将它们写入文件。我将AVCaptureVideoDataOutput添加到AVCaptureSession,如下所示://SetupvideoDataOutputin
我尝试使用以下代码从iphone相机保存视频文件:classCamera{...privatefuncloadDeviceInput(){letdevices=AVCaptureDevice.devices()as![AVCaptureDevice]fordeviceindevices{ifdevice.hasMediaType(AVMediaTypeVideo){ifdevice.position==.Back{_deviceBack=device_inputBack=try?AVCaptureDeviceInput(device:device)}elseifdevice.posit
我正在用AVCaptureSession和AVCaptureMovieFileOutput录制电影。我也在记录加速数据并尝试将加速数据与视频对齐。我想找出一种方法来获取视频文件录制的开始时间。我正在做以下事情:currentDate=[NSDatedate];[outputstartRecordingToOutputFileURL:fileUrlrecordingDelegate:self];但是,根据我的测试,视频录制在调用startRecordingToOutputFileURL之前0.12秒开始。我假设这是因为各种视频缓冲区已经充满了添加到文件中的数据。有没有办法获取视频第一帧的
我正在用AVCaptureSession和AVCaptureMovieFileOutput录制电影。我也在记录加速数据并尝试将加速数据与视频对齐。我想找出一种方法来获取视频文件录制的开始时间。我正在做以下事情:currentDate=[NSDatedate];[outputstartRecordingToOutputFileURL:fileUrlrecordingDelegate:self];但是,根据我的测试,视频录制在调用startRecordingToOutputFileURL之前0.12秒开始。我假设这是因为各种视频缓冲区已经充满了添加到文件中的数据。有没有办法获取视频第一帧的
谁能给我解释一下为什么会出现下面的代码:NSString*filePathString=NSSearchPathForDirectoriesInDomains(NSDocumentDirectory,NSUserDomainMask,YES)[0];NSLog(@"%i",[[NSURLURLWithString:filePathString]isFileURL]);NSLog(@"%@",filePathString);输出:0“/var/mobile/Applications/28ADFC19-874C-4304-94B5-F6441CAE9FAD/Documents”这意味着此u
谁能给我解释一下为什么会出现下面的代码:NSString*filePathString=NSSearchPathForDirectoriesInDomains(NSDocumentDirectory,NSUserDomainMask,YES)[0];NSLog(@"%i",[[NSURLURLWithString:filePathString]isFileURL]);NSLog(@"%@",filePathString);输出:0“/var/mobile/Applications/28ADFC19-874C-4304-94B5-F6441CAE9FAD/Documents”这意味着此u
我一直在尝试从前置摄像头捕捉帧并将其呈现在View中。这是我的代码_session=[[AVCaptureSessionalloc]init];_session.sessionPreset=AVCaptureSessionPreset640x480;AVCaptureDevice*device=[AVCaptureDevicedefaultDeviceWithMediaType:AVMediaTypeVideo];NSError*error=nil;AVCaptureDeviceInput*deviceInput=[[AVCaptureDeviceInputalloc]initWith
我一直在尝试从前置摄像头捕捉帧并将其呈现在View中。这是我的代码_session=[[AVCaptureSessionalloc]init];_session.sessionPreset=AVCaptureSessionPreset640x480;AVCaptureDevice*device=[AVCaptureDevicedefaultDeviceWithMediaType:AVMediaTypeVideo];NSError*error=nil;AVCaptureDeviceInput*deviceInput=[[AVCaptureDeviceInputalloc]initWith
我有以下适用于iOS6和7.x的代码。在iOS8.1中,我有一个奇怪的问题,如果您捕获一个session大约13秒或更长时间,生成的AVAsset只有1个轨道(视频),音频轨道不存在。如果您录制的时间较短,则AVAsset具有预期的2个轨道(视频和音频)。我有足够的磁盘空间,该应用程序有权使用相机和麦克风。我用最少的代码创建了一个新项目,它重现了这个问题。任何想法将不胜感激。#import"ViewController.h"@interfaceViewController()@end@implementationViewController{enumRecordingState{R
我有以下适用于iOS6和7.x的代码。在iOS8.1中,我有一个奇怪的问题,如果您捕获一个session大约13秒或更长时间,生成的AVAsset只有1个轨道(视频),音频轨道不存在。如果您录制的时间较短,则AVAsset具有预期的2个轨道(视频和音频)。我有足够的磁盘空间,该应用程序有权使用相机和麦克风。我用最少的代码创建了一个新项目,它重现了这个问题。任何想法将不胜感激。#import"ViewController.h"@interfaceViewController()@end@implementationViewController{enumRecordingState{R