草庐IT

avCaptureSession

全部标签

ios - 如何使用 AVCaptureSession 从文件中读取视频?

我正在编写一个应用程序,它使用AVCaptureSession和AVCaptureVideoDataOutput作为输出,并使用AVCaptureDeviceInput作为输出视频文件(不再需要实时)作为输入。是否可以将视频文件用作AVCaptureSession的输入而不是摄像头?如果不可能,使用iOS上的opencv视频捕获处理视频文件的最佳方法是什么(同时或顺序)? 最佳答案 由于您可以访问原始视频文件帧(来自AVCaptureVideoDataOutput),您可以将每个帧转换为cv::Mat对象(一个opencv矩阵,表示

ios - 使用 maxRecordedFileSize 限制 AVCaptureSession 记录时间

我一直在为iOS8编写相机应用程序,它使用AVFoundation来设置和处理记录和保存(而不是ImagePickerController)。我试图保存使用AVCaptureMovieFileOutput类的maxRecordedFileSize属性,以允许用户填满手机上的所有可用空间(减去250MB的缓冲区留给苹果的东西)。-(unsignedlonglong)availableFreespaceInMb{unsignedlonglongfreeSpace;NSError*error=nil;NSArray*paths=NSSearchPathForDirectoriesInDoma

ios - AVCaptureSession 能否使用自定义分辨率

我正在使用AVCaptureSession来捕捉和录制视频。我需要以4:3的比例和良好的分辨率录制视频。在使用AVCaptureSession捕获时是否可以指定自定义分辨率?我尝试使用原生预设,但问题是我需要以4:3的比例进行捕捉,而几乎所有预设都是16:9。4:3的分辨率很低。我无法找到任何其他方法将预设更改为自定义预设,如果我需要以更好的分辨率捕获4:3视频怎么办?有什么想法吗? 最佳答案 AVCaptureSession预设仅涵盖设备相机功能的一小部分(大多数应用程序都希望快速、轻松地访问这些功能)。要进行更细粒度的控制(例如

ios - `[AVCaptureSession canAddOutput:output]` 间歇性地返回 NO。我能找出原因吗?

我正在使用canAddOutput:以确定我是否可以添加AVCaptureMovieFileOutput到AVCaptureSession我发现canAddOutput:有时返回NO,大部分返回YES。有没有办法找出返回NO的原因?或者有什么方法可以消除导致NO被退回的情况?或者我能做的任何其他事情可以防止用户看到间歇性故障?一些进一步的说明:这种情况大约每30次调用就会发生一次。由于我的应用程序尚未启动,因此仅在一台设备上进行了测试:运行7.1.2的iPhone5 最佳答案 这是文档中的引用(讨论canAddOutput:)You

ios - 具有多个输出的 AVCaptureSession?

我目前正在开发一个iOS应用程序,该应用程序将CoreImage应用于相机源以拍摄照片和视频,但我遇到了一些障碍。到目前为止,我一直在使用AVCaptureVideoDataOutput获取样本缓冲区并使用CoreImage对其进行操作,然后显示一个简单的预览,以及使用它来捕获照片并保存它们。当我尝试实现视频录制时,通过将SampleBuffers写入我从AVCaptureVideoDataOutput接收到的视频,它的帧速率非常慢(可能是因为其他图像相关处理正在进行中)。所以我想知道,是否可以让AVCaptureVideoDataOutput和AVCaptureMoveFileOut

ios - 如何在 iOS 9 中使用带有 Slide Over 和 Split View 的 AVCaptureSession?

我的团队正在为barcodescanning开发一套SDK,IDscanning和OCR.我们使用设备的摄像头,特别是AVCaptureSession,来获取我们执行处理的视频帧。我们正在探索新的iOS9多任务功能SlideOver和SplitView。Apple建议为以相机为中心的应用程序选择退出这些功能,其中使用整个屏幕进行预览和快速捕捉瞬间是主要功能(reference)。这是他们的示例应用程序中使用的方法AVCam.但是,我们的客户可能拥有不属于此类的应用程序(例如移动银行应用程序),因此我们不能强制他们选择退出,相反,我们需要处理SDK中的新功能。我们正在探索什么是最好的方法

iphone - 如何正确释放 AVCaptureSession

我正在使用AVFoundation类从摄像机捕获实时视频流并处理视频样本。这很好用。但是,完成后我确实无法正确释放AVFoundation实例(捕获session、预览层、输入和输出)。当我不再需要session和所有关联的对象时,我会停止捕获session并释放它。这在大多数情况下都有效。但是,有时应用程序会因调度队列(以及处理视频样本的位置)创建的第二个线程中引发的EXEC_BAD_ACCESS信号而崩溃。崩溃主要是由于我自己的类实例,它充当示例缓冲区委托(delegate)并在我停止捕获session后被释放。Apple文档提到了这个问题:停止捕获session是一个异步操作。也

swift - 如何同时委托(delegate)ARSession和AVCaptureSession?

我见过有人用ARSCNView运行ARKit,他们能够在相机中获取所说的QR码矩形,并在与QR码所在位置相关的位置渲染一些东西空间。我认为他们是通过委托(delegate)AVCaptureMetadataOutputObjectsDelegate来实现的,所以我继续尝试实现以下逻辑:同时运行ARSCNViewDelegate、ARSessionDelegate和AVCaptureMetadataOutputObjectsDelegate。连接一个ARSCNView,将View及其session委托(delegate)给自己。连接一个AVCaptureSession,将其委托(dele

关于 ios:从同一个 AVCaptureSession 拍摄视频和照片时应用程序崩溃?

AppcrashingwhiletakingbothvideoandphotofromsameAVCaptureSession?我正在尝试使用AVFoundation使用相同的AVCaptureSession制作一个包含音频、视频和照片的应用程序。以下是我如何设置相机和捕获会话。123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354funcsetUpCaptureSession(){  captureSession.sessionPreset=AVCa

关于 ios:从同一个 AVCaptureSession 拍摄视频和照片时应用程序崩溃?

AppcrashingwhiletakingbothvideoandphotofromsameAVCaptureSession?我正在尝试使用AVFoundation使用相同的AVCaptureSession制作一个包含音频、视频和照片的应用程序。以下是我如何设置相机和捕获会话。123456789101112131415161718192021222324252627282930313233343536373839404142434445464748495051525354funcsetUpCaptureSession(){  captureSession.sessionPreset=AVCa