草庐IT

AVfoundation

全部标签

ios - 在 AVFoundation AVSampleBufferDisplayLayer 中循环播放视频

我正在尝试在AVSampleBufferDisplayLayer上循环播放视频。我可以毫无问题地播放一次。但是,当我尝试循环播放时,它并没有继续播放。根据对AVFoundationtoreproduceavideoloop的回答没有办法倒带AVAssetReader所以我重新创建它。(我确实看到了LoopingavideowithAVFoundationAVPlayer?的答案,但AVPlayer的功能更全。我正在阅读一个文件,但仍然想要AVSampleBufferDisplayLayer。)一个假设是我需要停止一些H264header,但我不知道这是否有帮助(以及如何帮助)。还有一个

ios - 视频轨道后面的 AVFoundation UIImage

我目前正在渲染一个小于输出大小但工作正常的视频轨道。我想将UIImage绘制到背景中,以便视频位于顶部,图像显示在视频不在的区域。我尝试将CoreAnimationLayers与videoCompositionCoreAnimationToolWithPostProcessingAsVideoLayer:inLayer一起使用:但是视频层下面的层似乎没有显示出来(上面的层显示得很好)-只是黑色或我在AVMutableVideoCompositionInstruction对象上设置的任何背景颜色。我也试过将该背景颜色设置为[UIColorclearColor].CGColor但它只是以黑

ios - 使用 avfoundation 时 - 裁剪在显示层中表示的捕获图像的可见部分

我正在使用PBJVision用于捕获图像的库。在后台它使用AVFoundation。我将相机设置为使用以下选项PBJVision*camera=[[PBJVisionalloc]init];self.camera=camera;self.camera.delegate=self;[self.camerasetCameraMode:PBJCameraModePhoto];[self.camerasetCameraDevice:PBJCameraDeviceFront];[self.camerasetCameraOrientation:PBJCameraOrientationPortrai

ios - AVFoundation:isExposureModeSupported 为 AVCaptureExposureModeAutoExpose 返回 FALSE

我正在使用AVFoundation构建自定义相机。除了setExposurePointOfInterest之外,一切都很好。我正在iPhone5上进行测试,AVCaptureDevice告诉我BackCamera不支持AVCaptureExposureModeAutoExpose。然后如何实现点击调整曝光?这是我的代码:-(void)didTapCameraPreview:(UITapGestureRecognizer*)recognizer{CGPointpoint=[recognizerlocationInView:self.view];CGRectscreenRect=[self

ios - 如何在基于 AVFoundation 的自定义相机应用程序中使用 HDR?

我使用AVFoundation框架来创建自定义相机应用程序。是否可以为自定义相机应用使用HDR拍摄照片,即HDR是否暴露在相机api中? 最佳答案 有同样的问题并在this中找到了答案SA问题。HDR是Apple的Camera.app独有的,开发者无法通过API使用。 关于ios-如何在基于AVFoundation的自定义相机应用程序中使用HDR?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/qu

iOS AVFoundation - 以 60 fps 的速度将视频转换为图像

我正在尝试以60fps的速率将整个视频转换为一系列图像,这意味着视频每秒生成60张图像...为此,我使用了AVAssetImageGenerator和generateCGImagesAsynchronouslyForTimes方法...一切进展顺利,只是我在批处理执行时间方面遇到了严重的性能问题(13秒视频大约需要5分钟)...此外,超过以下大小CGSizeMake(512,324),我遇到崩溃......有没有人已经有过这种处理的经验并且知道如何减少执行时间以及能够以更高分辨率提取图像?下面是我正在测试的代码......NSURL*movieURL=[NSURLfileURLWith

iOS SDK AVFoundation ...如何使用绘图 Assets 组合视频 Assets

到目前为止我取得的成就:使用AVFoundation服务,我在UIView中放置了一个视频,用户可以播放、暂停等(使用AVPlayer、AVPlayerItem、AVPlayerLayer等)我在应该显示正在播放的视频的View顶部放置了一个UIView(具有透明/清晰的背景颜色)。我还处理了UIKit触摸事件以根据用户交互绘制线条。现在,当我播放视频并触摸覆盖在该View上的UIView时,我可以看到在播放视频上绘制的线条。我想做的事情:在用户完成绘图(他认为是叠加在视频上)之后,我希望我的应用能够合成原始视频和用户交互的内容(绘制、删除线条等)并将结果导出为另一个视频文件。我们将不

iOS AVFoundation 音频/视频不同步

问题:每次播放时,音频会比视频晚1-2秒。设置:Assets使用来自媒体流的AVURLAssets加载。为了编写合成,我使用了具有非对称时间尺度的AVMutableCompositions和AVMutableCompositionTracks。音频和视频都流式传输到设备。音频的时间刻度是44100;视频的时间尺度是600。播放是用AVPlayer完成的。尝试的解决方案:将videoAssetTrack.timeRange用于[compositioninsertTimeRange]。使用CMTimeRangeMake(kCMTimeZero,videoAssetTrack.duratio

ios - 在 AVFoundation 或 MPMoviePlayerViewController ios 中快速浏览视频

我正在尝试创建一个iPad应用程序来读取服务器上的视频。我希望能够非常快速顺利地通过视频进行搜索。我注意到MPMoviePlayerViewController和AVFoundation非常慢,浏览时会跳来跳去。我目前的解决方案是从MPMoviePlayerViewController获取帧,然后自己操作。让我担心的是,我每十分之一秒对3个视频(不同的View)执行一次此操作,这给了我巨大的时间和内存开销。我也试过将视频放在iPad设备上,但没有用。问题是有没有人知道这个寻求问题的更好的解决方案?我也愿意使用库或其他框架。:)非常感谢任何帮助和提示! 最佳答

ios - AVFoundation:将文本添加到 CMSampleBufferRef 视频帧

我正在使用AVFoundation构建应用。就在我调用[assetWriterInputappendSampleBuffer:sampleBuffer]之前-(void)captureOutput:(AVCaptureOutput*)captureOutputdidOutputSampleBuffer:(CMSampleBufferRef)sampleBufferfromConnection:(AVCaptureConnection*)connection-方法。我操纵样本缓冲区中的像素(使用像素缓冲区来应用效果)。但是客户希望我在帧上也加上文本(时间戳和帧计数器),但我还没有找到办法