草庐IT

avCaptureSession

全部标签

iOS使用AVCaptureSession实现音视频采集

AVCaptureSession配置采集行为并协调从输入设备到采集输出的数据流。要执行实时音视频采集,需要实例化采集会话并添加适当的输入和输出。AVCaptureSession:管理输入输出音视频流AVCaptureDevice:相机硬件的接口,用于控制硬件特性,诸如镜头的位置(前后摄像头)、曝光、闪光灯等。AVCaptureInput:配置输入设备,提供来自设备的数据AVCaptureOutput:管理输出的音视频数据流AVCaptureConnection:输入与输出的连接AVCaptureVideoPreviewLayer:显示当前相机正在采集的状况AVAssetWriter:将媒体数据

iphone - AVCaptureSession - 停止运行 - 需要很长时间

我将ZXing用于应用程序,这主要是与ZX​​ing原始代码相同的代码,除了我允许连续扫描几次(即,ZXingWidgetController不必在检测到某些内容时立即关闭)。当我按下调用的关闭按钮时,我遇到了长时间的卡住(有时它永远不会结束)-(void)cancelled{//if(!self.isStatusBarHidden){//[[UIApplicationsharedApplication]setStatusBarHidden:NO];//}[selfstopCapture];wasCancelled=YES;if(delegate!=nil){[delegatezxin

iOS AVCaptureVideoDataOutput 占用太多内存

我正在使用AVFoundation框架用iPhone摄像头捕捉视频,我的代码:self.session=[[AVCaptureSessionalloc]init];...self.output=[[AVCaptureVideoDataOutputalloc]init];[self.sessionaddOutput:self.output];在[sessionaddOutput]之前,一切顺利,内存限制在3M,但是在[sessionaddOutput]之后,内存使用每秒增加0.06M,经过一些分钟,App会因为内存警告而崩溃。AVCaptureVideoDataOutput似乎占用太多内

ios - 如何知道iOS相机没有对焦没有调整

我们正在制作一个需要显示以下状态之一的应用:专注,聚焦(调整),不专心。似乎当你四处移动相机时,相机不会尝试调整,直到你停止移动。那么如何识别这种状态呢? 最佳答案 您可以使用AVCaptureDevice的adjustingFocus属性来完成您提到的内容。可以找到更多关于相同的信息here. 关于ios-如何知道iOS相机没有对焦没有调整,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/quest

ios - AVAssetWriter::append() 返回 false,没有额外信息(How to do segmenting of captured input to video-chunks with AVFoundation?)

我正在构建一个使用AVFoundation录制视频和音频的功能。我会录制几个小时,但我想将block上传到我们的后端,以便我们可以构建一个实时HLS播放列表(在对片段进行som处理之后)。首先,某处是否有样本在执行此操作?我还没有找到任何引用实现可以这么说......这是我的看法:按照网络上的文档和示例设置AVCaptureSession非常简单。我实现了AVCaptureVideoDataOutputSampleBufferDelegate和AVCaptureAudioDataOutputSampleBufferDelegate以访问样本缓冲区我有两个AVAssetWriter并在它

ios - AVCaptureDevice 的 isLowLightBoostSupported 在 5S iOS 7.1 上始终返回 false(用于自动启用 LowLightBoost WhenAvailable)

我试图在iOS相机应用程序中启用AVCaptureDevice的automaticallyEnablesLowLightBoostWhenAvailable,但我完全无法使AVCaptureDevice的isLowLightBoostSupported返回true。问题:除了锁定配置之外,是否需要执行任何操作才能启用弱光增强API?是否有任何已知原因导致isL​​owLightBoostSupported在完全更新的现代系统上始终返回false(对于所有设备)?我正在iOS7.1的5S上进行测试。为了这个问题的简单起见,我将更改移植到Apple的AVCam测试应用程序中。AVCam中的

ios - 如何使用 captureStillImageAsynchronouslyFromConnection 实现多重拍摄(iOS AVFoundation)

我正在尝试在循环中使用captureStillImageAsynchronouslyFromConnection捕获连续(多镜头)高分辨率图像,但它偶尔会暂停以重新聚焦。我锁定了对焦模式(如其他stackoverflow帖子中所述),但这并没有阻止相机偶尔重新对焦。我的代码片段是://[self.sessionbeginConfiguration];if([devicelockForConfiguration:nil]==YES){if([deviceisFocusModeSupported:AVCaptureFocusModeLocked]){[devicesetFocusMode:

ios - AVCaptureSession 旋转 |视频传输时的方向

我正在开发视频流应用程序,其中我需要捕获前置摄像头视频帧并编码然后传输到另一端,典型的流程是这样的AVCaptureSession->AVCaptureDeviceInput->AVCaptureVideoDataOutput->捕获帧-->编码帧-->发送帧到另一端,它工作正常,我已经将kCVPixelFormatType_420YpCbCr8BiPlanarVideoRange设置为帧格式。还有预览层用于显示预览,当设备方向发生变化时,问题就来了,如果设备从纵向移动到横向,然后在另一端帧旋转90,我期待因为预览层支持方向所以我会自动接收旋转缓冲区Capture回调,但看起来,预览层

ios - 一旦用户切换相机隐私设置,防止 AVCaptureSession 崩溃

一直在用AVCaptureSession记录条码,效果不错。我也遵循了关于堆栈溢出的建议(HowtoproperlyreleaseanAVCaptureSession)到[_sessionstopRunning];[_prevLayerremoveFromSuperlayer];_prevLayer=nil;_session=nil;在ViewWillDisappear中,希望它能正确释放CaptureSession。(SO中的其他答案指的是ARC之前的时间)但是,当我切换应用程序的相机隐私设置时(例如,从启用到禁用,反之亦然),应用程序崩溃了。这是一个问题,因为最初未启用Camera

ios - 如何使用 AVCaptureVideoDataOutput 和 AVCaptureAudioDataOutput 同时写入视频和音频?

我试图通过使用“AVFoundation”制作一个像藤蔓一样的视频应用程序。现在我可以通过AVCaptureVideoDataOutput保存视频并可以播放。但不知何故音频不工作,我不知道为什么。我是iOS应用程序的初学者,所以解释起来可能不清楚。希望您能理解我的意思并给我一些提示。这是我正在使用的代码。设置AVCaptureVideoDataOutput和AVCaptureAudioDataOutput:AVCaptureVideoDataOutput*videoDataOutput=[[AVCaptureVideoDataOutputalloc]init];[CaptureSess