草庐IT

AVfoundation

全部标签

ios - 启动 AVPlayer 时如何显示暂停的视频而不是黑屏

我能够成功创建一个播放器,但对最初的黑屏感到恼火。我决定覆盖一个UIImageView并在播放器启动后将其隐藏。这很有效,但我不想为我所有的视频创建和维护图像的麻烦。通过播放并在实例化播放器后立即暂停播放器,我能够获得我想要的确切结果。唯一的问题是有时播放器的状态记录不正确,所以当我再次启动播放器时,尽管播放器已暂停,但状态列为已经“正在播放”。我开始研究使用AVPlayerItemseekToTime但没有找到任何可行的解决方案。是否有实现此目标的“非hacky”方式? 最佳答案 如果您使用的是AVPlayerViewContro

ios - 启动 AVPlayer 时如何显示暂停的视频而不是黑屏

我能够成功创建一个播放器,但对最初的黑屏感到恼火。我决定覆盖一个UIImageView并在播放器启动后将其隐藏。这很有效,但我不想为我所有的视频创建和维护图像的麻烦。通过播放并在实例化播放器后立即暂停播放器,我能够获得我想要的确切结果。唯一的问题是有时播放器的状态记录不正确,所以当我再次启动播放器时,尽管播放器已暂停,但状态列为已经“正在播放”。我开始研究使用AVPlayerItemseekToTime但没有找到任何可行的解决方案。是否有实现此目标的“非hacky”方式? 最佳答案 如果您使用的是AVPlayerViewContro

objective-c - 使用 AVVideoCompositionCoreAnimationTool 在 CALayer 中将视频与静态图像混合

我正在尝试将来自相机的视频与静态图像(加水印)混合。我已经检查了这里的问题/答案和一些示例,包括来自Apple的WWDCAVEditDemo,并以以下代码结尾。不幸的是,导出的视频不包含带有图像的图层。有什么想法吗?-(void)imagePickerController:(UIImagePickerController*)pickerdidFinishPickingMediaWithInfo:(NSDictionary*)info{///incomingvideoNSURL*videoURL=[infovalueForKey:UIImagePickerControllerMediaU

objective-c - 使用 AVVideoCompositionCoreAnimationTool 在 CALayer 中将视频与静态图像混合

我正在尝试将来自相机的视频与静态图像(加水印)混合。我已经检查了这里的问题/答案和一些示例,包括来自Apple的WWDCAVEditDemo,并以以下代码结尾。不幸的是,导出的视频不包含带有图像的图层。有什么想法吗?-(void)imagePickerController:(UIImagePickerController*)pickerdidFinishPickingMediaWithInfo:(NSDictionary*)info{///incomingvideoNSURL*videoURL=[infovalueForKey:UIImagePickerControllerMediaU

ios - AVAssetWriter finishWriting 在 iOS 6 模拟器上失败

似乎finishWriting在iOS6模拟器上坏了-它永远挂起。它现在已被弃用并被新的finishWritingWithCompletionHandler取代:-它也从不调用处理程序。在运行iOS6的真实设备上,这和往常一样工作得很好。同样在以前的iOS模拟器中它工作得很好。似乎是iOS6模拟器中的错误。还有其他人遇到过这种情况或者可以证明我错了吗? 最佳答案 我也有这个问题,然后意识到我没有调用endSessionAtSourceTime:开始一个。这解决了我的问题。 关于ios-A

ios - AVAssetWriter finishWriting 在 iOS 6 模拟器上失败

似乎finishWriting在iOS6模拟器上坏了-它永远挂起。它现在已被弃用并被新的finishWritingWithCompletionHandler取代:-它也从不调用处理程序。在运行iOS6的真实设备上,这和往常一样工作得很好。同样在以前的iOS模拟器中它工作得很好。似乎是iOS6模拟器中的错误。还有其他人遇到过这种情况或者可以证明我错了吗? 最佳答案 我也有这个问题,然后意识到我没有调用endSessionAtSourceTime:开始一个。这解决了我的问题。 关于ios-A

ios - AVFoundation:视频到 OpenGL 纹理工作 - 如何播放和同步音频?

我已经设法使用AVFoundation将电影的视频轨道逐帧加载到OpenGL纹理中。我按照此处答案中描述的步骤操作:iOS4:howdoIusevideofileasanOpenGLtexture?并从WWDC2010的GLVideoFrame示例中提取了一些代码,可以下载here.如何与视频同步播放电影的音轨?我认为在单独的播放器中播放它不是一个好主意,而是使用相同AVAsset的音轨。AVAssetTrack*audioTrack=[[assettracksWithMediaType:AVMediaTypeAudio]objectAtIndex:0];我在CADisplayLink

ios - AVFoundation:视频到 OpenGL 纹理工作 - 如何播放和同步音频?

我已经设法使用AVFoundation将电影的视频轨道逐帧加载到OpenGL纹理中。我按照此处答案中描述的步骤操作:iOS4:howdoIusevideofileasanOpenGLtexture?并从WWDC2010的GLVideoFrame示例中提取了一些代码,可以下载here.如何与视频同步播放电影的音轨?我认为在单独的播放器中播放它不是一个好主意,而是使用相同AVAsset的音轨。AVAssetTrack*audioTrack=[[assettracksWithMediaType:AVMediaTypeAudio]objectAtIndex:0];我在CADisplayLink

ios - AVAssetExportSession 停止进行

我在使用AVAssetExportSession时遇到问题,进度停止增加,但状态仍然显示它正在导出。这实际上是一种非常罕见的情况,它在大约99.99%的时间内都可以完美运行,但我还是想解决这个问题。所以我开始导出:exportSession=[[AVAssetExportSessionalloc]initWithAsset:compositionpresetName:AVAssetExportPresetMediumQuality];exportSession.videoComposition=videoComposition;exportSession.outputFileType=

ios - AVAssetExportSession 停止进行

我在使用AVAssetExportSession时遇到问题,进度停止增加,但状态仍然显示它正在导出。这实际上是一种非常罕见的情况,它在大约99.99%的时间内都可以完美运行,但我还是想解决这个问题。所以我开始导出:exportSession=[[AVAssetExportSessionalloc]initWithAsset:compositionpresetName:AVAssetExportPresetMediumQuality];exportSession.videoComposition=videoComposition;exportSession.outputFileType=