草庐IT

avCaptureSession

全部标签

ios - AVCaptureSession 图像尺寸(使用 GPUImage)

我正在尝试在iOS中基于GPUImage实现视频录制。我有一个GPUImageVideoCamera,我正在尝试像这样设置录制:-(void)toggleVideoRecording{if(!self.recording){self.recording=true;GPUImageMovieWriter*mw=[selfcreateMovieWriter:self.filter1];[self.filter1addTarget:mw];mw.shouldPassthroughAudio=YES;[mwstartRecording];}else{self.recording=false;[

ios - 为什么使用 AVCaptureSession、AVAssetWriter 和 AVPlayer 录制和重放视频会卡顿?

我正在尝试制作一个显示相机预览的应用,然后在某些情况下开始使用语音输入进行录制,最后重复录制的电影。我已经编写了用于预览/录制/重放的类以及管理它们协调的Controller。似乎这些函数在独立调用时可以完美地工作,但我无法让它们一起工作:当重放视频时,声音运行但图像需要大约五秒钟才能显示然后断断续续。这是我的代码:预览:-(void)createSession{_session=[[AVCaptureSessionalloc]init];AVCaptureDevice*device=[AVCaptureDevicedeviceWithUniqueID:FRONT_CAMERA_ID]

iphone - AVCaptureSession 前置摄像头方向

我正在使用AVCaptureSession录制视频,使用AVAssetWriterInput我正在将视频写入文件。我的问题是视频方向,使用appleRosyWriter示例,我可以转换AVAssetWriterInput因此视频将处于正确的方向。-(CGFloat)angleOffsetFromPortraitOrientationToOrientation:(AVCaptureVideoOrientation)orientation{CGFloatangle=0.0;switch(orientation){caseAVCaptureVideoOrientationPortrait:a

ios - 在 iOS 设备上的 WebRTC 上使用当前的 AVCaptureSession

我将解释我当前的项目以及我想做的事情。当前项目:我有一个iOS应用程序,目前正在录制视频并将其保存到磁盘。我正在使用apple的Avfoundation库在设备上记录和显示捕获屏幕。我想做的事:我想保留当前添加webrtc的功能。问题是webrtc项目已经在使用AVCaptureSession并且你不能在同一个应用程序上有两个session。我问的是这个,但似乎很复杂。有人告诉我写一个cricket::VideoCapturer的子类,但我不确定是否需要用C++重写这背后的每个类。我还看到AvCaptureSession写在rtc_video_capturer_ios.h中,但我不明白

ios - UIImagePickerController 与 AVCaptureSession 视频预览冲突

我有一个AVCaptureVideoPreviewLayer和一个AVCaptureSession来在屏幕上显示视频预览。另外,我有一个UIImagePickerController来捕获图片(使用UIImagePickerControllerOriginalImage)。我的问题是,当我使用UIImagePickerController拍照时,AVCaptureSession视频预览卡住。如何防止使用UIImagePickerController拍照时视频预览卡住? 最佳答案 关闭视频捕获session后,尝试创建新View并在其

ios - AVCaptureSession 和相机线程未关闭 [iOS]

问题当我停止运行AVCaptureSession时,在我的AVCaptureSession期间创建的线程不会关闭。症状通常我从相机获取帧的dispatch_queue会立即启动。但是在大约四次打开和关闭打开/关闭AVCaptureSession的ViewController之后,dispatch_queue需要大约十秒钟才能启动。预后与AVCaptureSession关联的线程似乎没有清除。关闭AVCaptureSession后,我看到这些线程仍然存在:com.apple.coremedia.capturesource.connections(serial)1PendingBlockc

ios - 为 AVCaptureSession 设置自定义 AVFrameRateRange

我正在尝试使用AVCaptureSession每秒拍摄5张图片,但我不确定我是否理解AVFrameRange的含义。目前我有一些设置设备的代码:AVCaptureDevice*device=[AVCaptureDevicedefaultDeviceWithMediaType:AVMediaTypeVideo];并尝试将activeVideoMinFrameDuration和activeVideoMaxFrameDuration设置为CMTimeMake(1,5)的自定义值。Apple告诉我我只能使用他们提供的AVFrameRanges之一。当我对它们进行NSLogged时,我得到(2,

ios - AVCaptureSession 启动然后立即失败

我有一个视频源,它使用基于AVPlayer的自定义视频播放器来播放HLS流。在导航栏上,有一个启动相机的按钮。从iOS7.0.3更新开始,捕获session现在会遇到严重的问题,它将开始,然后立即自行关闭,发出如下错误:Capturesessionerror:NSConcreteNotification0x146eae70{name=AVCaptureSessionRuntimeErrorNotification;object=->->->;userInfo={AVCaptureSessionErrorKey="ErrorDomain=AVFoundationErrorDomainCo

ios - iOS 上的双 AVCaptureSession 输出

我正在尝试同时从iOS设备上的两个摄像头拍照。我还想在屏幕上实时预览两个摄像头。我使用这段代码:-(void)prepareCameraView:(UIView*)window{NSArray*captureDevices=[AVCaptureDevicedevicesWithMediaType:AVMediaTypeVideo];{AVCaptureSession*session=[[AVCaptureSessionalloc]init];session.sessionPreset=AVCaptureSessionPresetMedium;CALayer*viewLayer=wind

ios - 如何为高分辨率静止图像和低分辨率(视频)预览配置 AVCaptureSession?

我想使用AVCaptureSession捕捉高分辨率静止图像。因此AVCaptureSession预设设置为Photo。到目前为止,它运行良好。在iPhone4上,最终静态图像分辨率最大为2448x3264像素,预览(视频)分辨率为852x640像素。现在,由于分析预览帧以检测场景中的对象,我想降低它们的分辨率。如何才能做到这一点?我尝试将具有较低宽度/高度的AVVideoSettings设置为AVCaptureVideoDataOutput,但这会导致以下错误消息:AVCaptureVideoDataOutputsetVideoSettings:]-videoSettingsdict