草庐IT

AVfoundation

全部标签

objective-c - 我可以使用 AVFoundation 将下载的视频帧流式传输到 OpenGL ES 纹理中吗?

我已经能够使用AVFoundation的AVAssetReader类将视频帧上传到OpenGLES纹理中。它有一个caveat,但是,因为它在与指向远程媒体的AVURLAsset一起使用时失败。这种失败没有得到很好的记录,我想知道是否有任何方法可以解决这个缺点。 最佳答案 有一些随iOS6一起发布的API,我已经能够使用它们来使这个过程变得轻而易举。它根本不使用AVAssetReader,而是依赖于一个名为AVPlayerItemVideoOutput的类。此类的实例可以通过新的-addOutput:方法添加到任何AVPlayerI

objective-c - 我可以使用 AVFoundation 将下载的视频帧流式传输到 OpenGL ES 纹理中吗?

我已经能够使用AVFoundation的AVAssetReader类将视频帧上传到OpenGLES纹理中。它有一个caveat,但是,因为它在与指向远程媒体的AVURLAsset一起使用时失败。这种失败没有得到很好的记录,我想知道是否有任何方法可以解决这个缺点。 最佳答案 有一些随iOS6一起发布的API,我已经能够使用它们来使这个过程变得轻而易举。它根本不使用AVAssetReader,而是依赖于一个名为AVPlayerItemVideoOutput的类。此类的实例可以通过新的-addOutput:方法添加到任何AVPlayerI

objective-c - shouldOptimizeForNetworkUse 实际上做了什么?

来自Appledocumentation它只是说:WhenthevalueofthispropertyisYES,theoutputfilewillbewritteninsuchawaythatplaybackcanstartafteronlyasmallamountofthefileisdownloaded.但实际上发生了什么? 最佳答案 当shouldOptimizeForNetworkUse设置为YES时,调用finishWriting会将MP4moovatom(电影原子)从文件末尾移动到文件开头。moov原子包含有关电影文件

objective-c - shouldOptimizeForNetworkUse 实际上做了什么?

来自Appledocumentation它只是说:WhenthevalueofthispropertyisYES,theoutputfilewillbewritteninsuchawaythatplaybackcanstartafteronlyasmallamountofthefileisdownloaded.但实际上发生了什么? 最佳答案 当shouldOptimizeForNetworkUse设置为YES时,调用finishWriting会将MP4moovatom(电影原子)从文件末尾移动到文件开头。moov原子包含有关电影文件

ios - iPhone 使用 AVFoundation 从视频中读取 UIimage(帧)

对不起我的英语)在使用iPhone从视频中查找有关读取帧的信息时,我找到了这个项目,http://www.codza.com/extracting-frames-from-movies-on-iphone/comment-page-1#comment-1116,但我也在某处读到,您可以使用AVFoundation从视频中捕获帧以获得更好的性能。但是我找不到关于如何做到这一点的信息...一些想法?感谢阅读 最佳答案 您说的是使用调用在特定时间从视频生成Apple所谓的缩略图。对于MPMoviePlayerController(iOS用

ios - iPhone 使用 AVFoundation 从视频中读取 UIimage(帧)

对不起我的英语)在使用iPhone从视频中查找有关读取帧的信息时,我找到了这个项目,http://www.codza.com/extracting-frames-from-movies-on-iphone/comment-page-1#comment-1116,但我也在某处读到,您可以使用AVFoundation从视频中捕获帧以获得更好的性能。但是我找不到关于如何做到这一点的信息...一些想法?感谢阅读 最佳答案 您说的是使用调用在特定时间从视频生成Apple所谓的缩略图。对于MPMoviePlayerController(iOS用

ios - AVFoundation - 反转 AVAsset 并输出视频文件

我见过这个问题被问过几次,但似乎都没有任何有效的答案。要求是反转并输出视频文件(不仅仅是反转播放),保持与源视频相同的压缩、格式和帧速率。理想情况下,该解决方案将能够在内存或缓冲区中完成所有这些操作,并避免将帧生成为图像文件(例如:使用AVAssetImageGenerator)然后重新编译它(资源密集型、不可靠的时序)结果、原始帧/图像质量的变化等)。--我的贡献:这仍然无法正常工作,但到目前为止我已经尝试过的最好的方法:使用AVAssetReader将样本帧读入CMSampleBufferRef[]数组。使用AVAssetWriter以相反的顺序写回。问题:似乎每个帧的时间都保存在

ios - AVFoundation - 反转 AVAsset 并输出视频文件

我见过这个问题被问过几次,但似乎都没有任何有效的答案。要求是反转并输出视频文件(不仅仅是反转播放),保持与源视频相同的压缩、格式和帧速率。理想情况下,该解决方案将能够在内存或缓冲区中完成所有这些操作,并避免将帧生成为图像文件(例如:使用AVAssetImageGenerator)然后重新编译它(资源密集型、不可靠的时序)结果、原始帧/图像质量的变化等)。--我的贡献:这仍然无法正常工作,但到目前为止我已经尝试过的最好的方法:使用AVAssetReader将样本帧读入CMSampleBufferRef[]数组。使用AVAssetWriter以相反的顺序写回。问题:似乎每个帧的时间都保存在

ios AVFoundation 点击​​聚焦

我正在尝试创建一个相机应用程序,它或多或少会像默认相机应用程序一样工作。目前对我不起作用的东西是点击以集中注意力。我希望相机聚焦并在我触摸的点上做任何事情,就像真正的相机应用程序一样。这是我的viewDidLoad-(void)viewDidLoad{[superviewDidLoad];//Session_session=[[AVCaptureSessionalloc]init];_session.sessionPreset=AVCaptureSessionPresetPhoto;//Input_videoDevice=[AVCaptureDevicedefaultDeviceWit

ios AVFoundation 点击​​聚焦

我正在尝试创建一个相机应用程序,它或多或少会像默认相机应用程序一样工作。目前对我不起作用的东西是点击以集中注意力。我希望相机聚焦并在我触摸的点上做任何事情,就像真正的相机应用程序一样。这是我的viewDidLoad-(void)viewDidLoad{[superviewDidLoad];//Session_session=[[AVCaptureSessionalloc]init];_session.sessionPreset=AVCaptureSessionPresetPhoto;//Input_videoDevice=[AVCaptureDevicedefaultDeviceWit