所以我正在尝试使用AVCaptureMetadataOutput来扫描二维码。我遇到的问题是即使我使用rectOfInterest也可以在预览区域之外进行扫描,请参见下图:代码如下:-(void)capture{session=[[AVCaptureSessionalloc]init];device=[AVCaptureDevicedefaultDeviceWithMediaType:AVMediaTypeVideo];if([devicelockForConfiguration:NULL]==YES){CGPointpoint=CGPointMake(0.5,0.5);[device
我是AVCaptureSession的新手。我正在使用OpenTok来实现视频聊天。我想保留带宽,并且UI的设计使得目前的视频观看量仅为100x100。这是设置预设的OpenTok示例代码的一部分:-(void)setCaptureSessionPreset:(NSString*)preset{AVCaptureSession*session=[selfcaptureSession];if([sessioncanSetSessionPreset:preset]&&![presetisEqualToString:session.sessionPreset]){[_captureSessi
在我的应用程序中,我使用回调通过AVCaptureSession捕获视频:-(void)captureOutput:(AVCaptureOutput*)captureOutputdidOutputSampleBuffer:(CMSampleBufferRef)sampleBufferfromConnection:(AVCaptureConnection*)connection这在95%的时间里工作正常,但有时预览层会卡住并且我在Xcode控制台中收到以下错误:AVCaptureSessionErrorKey="ErrorDomain=AVFoundationErrorDomainCod
是否可以使用AVCaptureSession捕获AVPlayer的输出?我相信这是可能的,但无法弄清楚如何使用AVPlayer作为输入。 最佳答案 您不能将AVPlayer插入到AVCaptureSession中,尽管您可以以CVPixelBuffer的形式访问播放器的视频和音频和AudioBufferList。这是通过两个API实现的:AVPlayerItemVideoOutput用于视频,MTAudioProcessingTap用于音频。尽管是一个c-api,MTAudioProcessingTap更容易集成,就像AVCaptu
有没有一种方法可以在录制视频时设备存储快满时通知我。我发现你可以设置maxRecordedFileSize如果我使用AVCaptureMovieFileOutput,我可以使用它来录制视频,但不幸的是我不能使用它,因为在将视频帧存储到视频文件之前我必须进行一些视频操作。相反,我必须使用AVCaptureVideoDataOutput和AVAssetWriter的方法。是否可以观察存储空间已满时发出的某种系统通知? 最佳答案 您可以使用以下代码获取磁盘中的可用空间-(uint64_t)getFreeDiskspace{uint64_t
我正在iOS应用程序中工作,以裁剪来自相机的矩形图像。我正在使用CIDetector获取矩形特征并使用CIFilter来裁剪矩形图像。但是在应用滤镜后,结果图像质量变得很差。下面是我的代码。我正在从以下委托(delegate)方法获取视频捕获输出-(void)captureOutput:(AVCaptureOutput*)captureOutputdidOutputSampleBuffer:(CMSampleBufferRef)sampleBufferfromConnection:(AVCaptureConnection*)connection{UIImage*image=[selfi
我正在寻找一种在前后摄像头之间切换时保持无缝音轨的方法。市场上很多应用程序都可以做到这一点,一个例子是SnapChat……解决方案应该使用AVCaptureSession和AVAssetWriter。它也应该明确地不使用AVMutableComposition因为有一个bug在AVMutableComposition和AVCaptureSessionATM之间。另外,我负担不起后期处理时间。目前,当我更改视频输入时,录音会跳过并变得不同步。我包括了可能相关的代码。翻转相机-(void)updateCameraDirection:(CamDirection)vCameraDirectio
我正在尝试使用AVCaptureAudioDataOutput来分析音频输入,如here所述.这不是我自己想出来的东西,所以我正在复制这个例子,但我遇到了困难。Swift3中的Xcode提示我进行了一些更改。我在分配samples行时遇到编译错误。Xcode说,“无法使用类型为‘(UnsafeMutableRawPointer?)’的参数列表为类型‘UnsafeMutablePointer调用初始化器”这是我修改后的代码:funccaptureOutput(_captureOutput:AVCaptureOutput!,didOutputSampleBuffersampleBuffer
在我的应用程序中,我显示相机并使用UIGetScreenImage截取某些perts的屏幕截图,(我尝试了UIGraphicsGetImageFromCurrentImageContext并且它适用于我应用程序几乎任何部分的屏幕截图但对于相机View它只会返回空白图像)...无论如何,我担心苹果会因为UIGetScreenImage而拒绝我的应用程序...我如何在不使用此方法的情况下从相机的左上角截取50pxx50px框的“屏幕截图”?我搜索了一下,我能找到的只有“AVCaptureSession”,但我找不到太多关于它的作用,或者它是否就是我正在寻找的东西......有什么见解吗?:
我正在尝试使用AVFoundation实现三种录制模式:音频、视频和照片。音频和视频工作正常,但问题是,如果我将session预设设置为AVCaptureSessionPreset352x288,静态图片也会以该分辨率保存。如果我将我的session预设更改为AVCaptureSessionPresetPhoto,那么照片看起来不错,但视频停止工作,因为这不是视频支持的预设。我试过创建多个session、重新分配session预设等,但似乎没有任何效果。谁有办法让低分辨率的视频和全分辨率的静止图像一起工作? 最佳答案 在拍照之前设置