草庐IT

captureOutput

全部标签

captureOutput 中的 iOS 应用相机方向

首先,我知道很多人问过类似的问题-但我找不到任何类似的问题。调用该接口(interface)时:-(void)captureOutput:(AVCaptureOutput*)captureOutputdidOutputSampleBuffer:(CMSampleBufferRef)sampleBufferfromConnection:(AVCaptureConnection*)connection{CVImageBufferRefpixelBuffer=CMSampleBufferGetImageBuffer(sampleBuffer);CVPixelBufferLockBaseAdd

iOS:未调用 captureOutput:didOutputSampleBuffer:fromConnection

我想从AVCaptureSession的实时馈送中提取帧,我正在使用Apple的AVCam作为测试用例。这是AVCam的链接:https://developer.apple.com/library/ios/samplecode/AVCam/Introduction/Intro.html我发现captureOutput:didOutputSampleBuffer:fromConnection没有被调用,我想知道为什么或我做错了什么。这是我所做的:(1)我让AVCamViewController成为委托(delegate)@interfaceAVCamViewController()(2)

ios - 在 AVCaptureVideoPreviewLayer 上绘制一个矩形,可能吗?

几天来我一直在努力解决这个问题。我想在CALayer(AVCaptureVideoPreviewLayer)的顶部绘制一个矩形,它恰好是来自iPhone4相机的视频源。这是我的部分设置;//(infunctionforinitialization)-(void)initDevices{AVCaptureDeviceInput*captureInput=[AVCaptureDeviceInputdeviceInputWithDevice:[AVCaptureDevicedefaultDeviceWithMediaType:AVMediaTypeVideo]error:nil];AVCap

swift - iOS - Swift - 录制时的一些音频达到最大允许长度

我在Swift中实现了一个录像机作为iOS应用程序的一部分,我将视频输出的maxRecordedDuration设置为4秒(每秒30帧):self.videoOutput?.maxRecordedDuration=CMTimeMakeWithSeconds(4,30)当用户开始录制时,可能会发生两种情况:用户决定在达到最大录制持续时间之前停止录制。在用户停止视频录制之前达到最大录制持续时间。两种情况中的任何一种funccaptureOutput(captureOutput:AVCaptureFileOutput!,didStartRecordingToOutputFileAtURLfi

ios - Swift 4 - 如何扫描二维码

这个问题在这里已经有了答案:Barcodeonswift4(4个答案)关闭5年前。我正在尝试使用我的应用程序(Swift4、iOS11)扫描QR码,并且我遵循了本教程:https://www.hackingwithswift.com/example-code/media/how-to-scan-a-barcode但是当我运行我的应用程序时,相机确实出现了,但是我的captureOutput方法没有被调用,我出于某些原因改变了我的那个方法:funccaptureOutput(_captureOutput:AVCaptureOutput!,didOutputMetadataObjectsm

iOS 相机面部追踪 (Swift 3 Xcode 8)

我正在尝试制作一个简单的相机应用程序,前置摄像头可以检测人脸。这应该很简单:创建一个继承自UIImage的CameraView类并将其放置在UI中。确保它实现了AVCaptureVideoDataOutputSampleBufferDelegate,以便实时处理来自相机的帧。classCameraView:UIImageView,AVCaptureVideoDataOutputSampleBufferDelegate在实例化CameraView时调用的handleCamera函数中,设置AVCapturesession。添加来自相机的输入。overrideinit(frame:CGRe

ios - 在 Swift 中,改编了 AVCaptureVideoDataOutputSampleBufferDelegate,但从未调用 captureOutput

我正在尝试从相机捕获视频帧并在UIImageView上实时显示大量图像。我尝试为我的viewcontroller调整AVCaptureVideoDataOutputSampleBufferDelegate。我还实现了captureOutput,但是captureOutput从未被调用。这是我的代码:importUIKitimportAVFoundationclassViewController:UIViewController,AVCaptureVideoDataOutputSampleBufferDelegate{@IBOutletweakvarimageView:UIImageVi

swift - 不使用 setSampleBufferDelegate 调用 captureOutput 函数

我开始开发iOS应用程序,这是我的第一篇SO帖子。我正在尝试实现一个UIView,它可以显示后置摄像头的预览视频并处理捕获的帧。我的预览层工作得很好,我可以在我的UIView中看到图片显示。但是,从未调用captureOutput函数。我在网上搜索类似的问题和解决方案有一段时间了,并尝试调整不同的东西,包括输出、连接和调度队列设置,但都没有奏效。任何人都可以帮助我或分享一些见解和方向吗?非常感谢!这是我的代码,我使用Xcode11beta和iOS10作为构建目标。classThreeDScanningViewController:UIViewController,AVCaptureVi

swift - 不使用 setSampleBufferDelegate 调用 captureOutput 函数

我开始开发iOS应用程序,这是我的第一篇SO帖子。我正在尝试实现一个UIView,它可以显示后置摄像头的预览视频并处理捕获的帧。我的预览层工作得很好,我可以在我的UIView中看到图片显示。但是,从未调用captureOutput函数。我在网上搜索类似的问题和解决方案有一段时间了,并尝试调整不同的东西,包括输出、连接和调度队列设置,但都没有奏效。任何人都可以帮助我或分享一些见解和方向吗?非常感谢!这是我的代码,我使用Xcode11beta和iOS10作为构建目标。classThreeDScanningViewController:UIViewController,AVCaptureVi

ios - 使用 captureOutput :captureOutput didOutputSampleBuffer:sampleBuffer fromConnection:connection 捕获视频并显示图像

我试图更好地理解AVFoundation框架以及各种Corexxxx框架,因此我决定尝试一个简单的视频捕获,看看是否可以将图像输出到UI。我查看了rosyWriter代码和文档,但没有答案。所以:我有标准的捕获session代码来添加输入和输出。以下内容与问题相关://movingthebufferprocessingoffthemainqueuedispatch_queue_tbufferProcessingQueue=dispatch_queue_create("theBufferQueue",NULL);[self.theOutputsetSampleBufferDelegate
12