草庐IT

AVfoundation

全部标签

iphone - AVAssetExportSession 错误 -11820

我正在编写一个使用AVFoundation处理视频的应用程序。我的应用程序的行为很简单:我从相机胶卷中拍摄视频,然后创建一个带有一些音轨的AVMutableComposition。通过混合合成,我初始化了一个AVAssetExportSession,它将视频文件存储在我的应用程序的文档目录中。到此为止一切正常:我的视频已存储,我可以在另一个Controller中播放它。如果我将刚刚存储在我的文档文件夹中的视频进行一些编辑(以与第一次AVmutableComposition,AVAssetExportSession相同的方式),它又可以了。但是我第三次执行此过程来编辑视频时,AVAsse

iphone - AVAssetExportSession 错误 -11820

我正在编写一个使用AVFoundation处理视频的应用程序。我的应用程序的行为很简单:我从相机胶卷中拍摄视频,然后创建一个带有一些音轨的AVMutableComposition。通过混合合成,我初始化了一个AVAssetExportSession,它将视频文件存储在我的应用程序的文档目录中。到此为止一切正常:我的视频已存储,我可以在另一个Controller中播放它。如果我将刚刚存储在我的文档文件夹中的视频进行一些编辑(以与第一次AVmutableComposition,AVAssetExportSession相同的方式),它又可以了。但是我第三次执行此过程来编辑视频时,AVAsse

ios - 录制带有叠加文本和图像的视频

使用UIImagePickerController或AVFoundation我需要捕获或录制视频,不仅要记录相机输出,还要记录覆盖subview。我见过很多将叠加图像添加到相机预览的示例,但我想要的不仅是叠加图像或文本预览,而且是在最终视频输出中实际记录叠加。//添加图形层CALayer*theDonut=[CALayerlayer];theDonut.bounds=CGRectMake(50,50,150,150);theDonut.cornerRadius=50/2;theDonut.backgroundColor=[UIColorclearColor].CGColor;theDo

ios - 录制带有叠加文本和图像的视频

使用UIImagePickerController或AVFoundation我需要捕获或录制视频,不仅要记录相机输出,还要记录覆盖subview。我见过很多将叠加图像添加到相机预览的示例,但我想要的不仅是叠加图像或文本预览,而且是在最终视频输出中实际记录叠加。//添加图形层CALayer*theDonut=[CALayerlayer];theDonut.bounds=CGRectMake(50,50,150,150);theDonut.cornerRadius=50/2;theDonut.backgroundColor=[UIColorclearColor].CGColor;theDo

ios - AVFoundation中,如何同步录制和播放

我有兴趣在iOS中使用AVCaptureSession录制媒体,同时使用AVPlayer播放媒体(具体来说,我正在播放音频和录制视频,但我不确定这是否重要)。问题是,当我稍后一起播放生成的媒体时,它们不同步。是否可以通过确保播放和录制同时开始,或者通过发现它们之间的偏移量来同步它们?我可能需要同步大约为10毫秒。假设我总是可以捕获音频是不合理的(因为用户可能会使用耳机),因此通过分析原始音频和录制的音频进行同步不是一种选择。Thisquestion建议可以同时结束播放和录制,并以此方式确定与结果长度的初始偏移量,但我不清楚如何让它们同时结束。我有两种情况:1)音频播放结束,和2),用户

ios - AVFoundation中,如何同步录制和播放

我有兴趣在iOS中使用AVCaptureSession录制媒体,同时使用AVPlayer播放媒体(具体来说,我正在播放音频和录制视频,但我不确定这是否重要)。问题是,当我稍后一起播放生成的媒体时,它们不同步。是否可以通过确保播放和录制同时开始,或者通过发现它们之间的偏移量来同步它们?我可能需要同步大约为10毫秒。假设我总是可以捕获音频是不合理的(因为用户可能会使用耳机),因此通过分析原始音频和录制的音频进行同步不是一种选择。Thisquestion建议可以同时结束播放和录制,并以此方式确定与结果长度的初始偏移量,但我不清楚如何让它们同时结束。我有两种情况:1)音频播放结束,和2),用户

ios - 如何使用图像创建视频时在图像更改上添加动画

我有一组图像,从中我想通过依次播放这些图像来创建视频。我想在图像更改时添加不同类型的动画。建议我一些方法或任何解决方案,以在带有Cocoa框架的Objective-C中实现此功能。以下是制作图像视频的工作代码,但请建议我们在制作视频时如何制作图像动画:-(void)createVideoFromImages:(NSString*)pathwithSize:(CGSize)size{NSError*error=nil;AVAssetWriter*videoWriter=[[AVAssetWriteralloc]initWithURL:[NSURLfileURLWithPath:path]

ios - 如何使用图像创建视频时在图像更改上添加动画

我有一组图像,从中我想通过依次播放这些图像来创建视频。我想在图像更改时添加不同类型的动画。建议我一些方法或任何解决方案,以在带有Cocoa框架的Objective-C中实现此功能。以下是制作图像视频的工作代码,但请建议我们在制作视频时如何制作图像动画:-(void)createVideoFromImages:(NSString*)pathwithSize:(CGSize)size{NSError*error=nil;AVAssetWriter*videoWriter=[[AVAssetWriteralloc]initWithURL:[NSURLfileURLWithPath:path]

iPhone 检测音量键按下。

我需要检测用户何时按下硬件音量键,(AppStore安全方法)我尝试了很多方法,但都没有成功。你知道如何实现这样的功能吗?目前我正在注册通知,但他们似乎没有收到通知。这是我的代码:AudioSessionInitialize(NULL,NULL,NULL,NULL);NSNotificationCenter*notificationCenter=[NSNotificationCenterdefaultCenter];[notificationCenteraddObserver:selfselector:@selector(volumeChanged:)name:@"AVSystemCo

iPhone 检测音量键按下。

我需要检测用户何时按下硬件音量键,(AppStore安全方法)我尝试了很多方法,但都没有成功。你知道如何实现这样的功能吗?目前我正在注册通知,但他们似乎没有收到通知。这是我的代码:AudioSessionInitialize(NULL,NULL,NULL,NULL);NSNotificationCenter*notificationCenter=[NSNotificationCenterdefaultCenter];[notificationCenteraddObserver:selfselector:@selector(volumeChanged:)name:@"AVSystemCo