草庐IT

ios - AVCapturePhotoOutput iOS 相机超暗

coder 2023-09-16 原文

我有一个应用程序设置,可以使用相机拍摄照片(基于计时器)来检测人脸的存在。当我向应用程序提供我已添加到 Assets 中的照片时,检测过程运行良好。然而,当我尝试直接使用相机的输出,甚至在将图像保存到文件后,生成的图像太暗以至于面部识别完全不可靠。

如果我显示相机看到的图像,它看起来是正确的。我捕获了以下两张图像 - 一张来自实时看到的相机,另一张是从 AVCapturePhotoOutput 创建图像后的相同 View 。如果我只是在 ImageView 中显示捕获的图像,也会出现同样的黑暗。

请注意评论:“我将断点放在这里并截取了屏幕截图”。然后我在代码完成时拍摄了第二个屏幕截图。这些是在高光下拍摄的。 这是基本代码:

class CRSFaceRecognitionViewController: UIViewController, UIImagePickerControllerDelegate {

var sentBy : String?

//timers
var faceTimer : Timer?
var frvcTimer : Timer?

//capture
var captureSession = AVCaptureSession()
var settings = AVCapturePhotoSettings()
var backCamera : AVCaptureDevice?
var frontCamera : AVCaptureDevice?
var currentCamera : AVCaptureDevice?

var photoOutput : AVCapturePhotoOutput?
var cameraPreviewLayer : AVCaptureVideoPreviewLayer?

var image : UIImage?
var outputImage : UIImage?
@IBOutlet weak var imageView: UIImageView!

//MARK: - Setup

override func viewDidLoad() {
    super.viewDidLoad()
}//viewDidLoad

override func viewWillAppear(_ animated: Bool) {
    super.viewWillAppear(true)
}//viewWillAppear

override func viewDidAppear(_ animated: Bool) {
    super.viewDidAppear(true)

    //check for camera
    if (UIImagePickerController.isSourceTypeAvailable(UIImagePickerControllerSourceType.camera)) {

        setupCaptureSession()
        setupDevices()
        setupInputOutput()
        setupPreviewLayer()

        startRunningCaptureSession()

        photoOutput?.capturePhoto(with:settings, delegate: self)

    } else {
        print("Camera not present")
    }

}//viewDidAppear

//MARK: - Video

@objc func showFaceRecognitionViewController() {
    //all this does is present the image in a new ViewController imageView
    performSegue(withIdentifier: "showSavedCameraPhoto", sender: self)
}//showThePhotoView

func setupCaptureSession() {
    captureSession.sessionPreset = AVCaptureSession.Preset.photo
}//setupCaptureSession

func setupDevices() {

    let deviceDiscoverySession = AVCaptureDevice.DiscoverySession(deviceTypes: [AVCaptureDevice.DeviceType.builtInWideAngleCamera], mediaType: .video, position: .unspecified)

    let devices = deviceDiscoverySession.devices
    for device in devices {

        if device.position == AVCaptureDevice.Position.back {
            backCamera = device
        } else if device.position == AVCaptureDevice.Position.front {
            frontCamera = device
        }//if else

    }//for in

    currentCamera = frontCamera

}//setupDevices

func setupInputOutput() {

    do {
        let captureDeviceInput = try AVCaptureDeviceInput(device: currentCamera!)
        captureSession.addInput(captureDeviceInput)
        photoOutput = AVCapturePhotoOutput()
        photoOutput?.setPreparedPhotoSettingsArray([AVCapturePhotoSettings(format: [AVVideoCodecKey: AVVideoCodecType.jpeg])], completionHandler: {(success, error) in
            print("in photoOutput completion handler")
        })
        captureSession.addOutput(photoOutput!)
    } catch {
        print("Error creating AVCaptureDeviceInput:", error)
    }//do catch

}//setupInputOutput

func setupPreviewLayer() {
    cameraPreviewLayer = AVCaptureVideoPreviewLayer(session : captureSession)
    cameraPreviewLayer?.videoGravity = AVLayerVideoGravity.resizeAspectFill
    cameraPreviewLayer?.connection?.videoOrientation = AVCaptureVideoOrientation.portrait
    cameraPreviewLayer?.frame = view.frame
    view.layer.insertSublayer(cameraPreviewLayer!, at: 0)
}//setupPreviewLayer


func startRunningCaptureSession() {
    captureSession.startRunning()
}//startRunningCaptureSession


//MARK: - Segue

override func prepare(for segue: UIStoryboardSegue, sender: Any?) {
    if segue.identifier == "showSavedCameraPhoto" {
        let controller = segue.destination as! JustToSeeThePhotoViewController
        controller.inImage = outputImage
    }//if segue

}//prepare


//MARK: - Look for Faces

func findTheFaces() {
    let myView : UIView = self.view

    guard let outImage = outputImage else {return}

    let imageView = UIImageView(image: outImage)
    imageView.contentMode = .scaleAspectFit

    let scaledHeight = myView.frame.width / outImage.size.width * outImage.size.height

    imageView.frame = CGRect(x: 0, y: 0, width: myView.frame.width, height: myView.frame.height)
    imageView.backgroundColor = UIColor.blue

    myView.addSubview(imageView)

    let request = VNDetectFaceRectanglesRequest { (req, err) in

        if let err = err {
            print("VNDetectFaceRectanglesRequest failed to run:", err)
            return
        }//if let err

        print(req.results ?? "req.results is empty")

        req.results?.forEach({ (res) in

            DispatchQueue.main.async {

                guard let faceObservation = res as? VNFaceObservation else {return}

                let x = myView.frame.width * faceObservation.boundingBox.origin.x

                let width = myView.frame.width * faceObservation.boundingBox.width
                let height = scaledHeight * faceObservation.boundingBox.height

                let y = scaledHeight * (1 - faceObservation.boundingBox.origin.y) - height

                let redView = UIView()
                redView.backgroundColor = .red
                redView.alpha = 0.4
                redView.frame = CGRect(x: x, y: y, width: width, height: height)
                myView.addSubview(redView)

                print("faceObservation bounding box:")
                print(faceObservation.boundingBox)

                //if you get here, then you have a face bounding box

            }//main
        })//forEach block


    }//let request

    guard let cgImage = outImage.cgImage else {return}

    DispatchQueue.global(qos: .utility).async {
        let handler = VNImageRequestHandler(cgImage: cgImage, options: [:])

        do {
            try handler.perform([request])

            print("handler request was successful")
            self.performSegue(withIdentifier: "showSavedCameraPhoto", sender: self)

        } catch let reqErr {
            print("Failed to perform request:", reqErr)
        }
    }//DispatchQueue

}//findTheFaces

//MARK: - Memory

override func didReceiveMemoryWarning() {
    super.didReceiveMemoryWarning()
}//didReceiveMemoryWarning

}//class


extension CRSFaceRecognitionViewController : AVCapturePhotoCaptureDelegate {
func photoOutput(_ output: AVCapturePhotoOutput, didFinishProcessingPhoto photo: AVCapturePhoto, error: Error?) {

    if let imageData = photo.fileDataRepresentation() {

        print(imageData)
        outputImage = UIImage(data : imageData)

        //
        //I put breakpoint here and took a screen shot
        //

        if let outImage = outputImage?.updateImageOrientionUpSide() {
            self.outputImage = outImage
        }

        DispatchQueue.main.async {
            self.findTheFaces()
        }

    }//if let imageData
}//photoOutput

}//extension

extension UIImage {

//you need to do this to ensure that the image is in portrait mode
//the face recognition method will not work if the face is horizontal
func updateImageOrientionUpSide() -> UIImage? {
    if self.imageOrientation == .up {
        return self
    }

    UIGraphicsBeginImageContextWithOptions(self.size, false, self.scale)
    self.draw(in: CGRect(x: 0, y: 0, width: self.size.width, height: self.size.height))
    if let normalizedImage:UIImage = UIGraphicsGetImageFromCurrentImageContext() {
        UIGraphicsEndImageContext()
        return normalizedImage
    }
    UIGraphicsEndImageContext()
    return nil
}//updateImageOrientionUpSide

}//image

我一定是在拍摄相机时做错了什么。任何帮助,将不胜感激。 swift 4、iOS 11.2.5、Xcode 9.2

最佳答案

我会尝试在 startRunningCaptureSession()photoOutput?.capturePhoto(with:settings, delegate: self) 之间添加延迟

例如,

DispatchQueue.main.asyncAfter(deadline: .now() + .seconds(4), 执行: { //拍张照片 startRunningCaptureSession() photoOutput?.capturePhoto(with:settings, delegate: self) })

关于ios - AVCapturePhotoOutput iOS 相机超暗,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48478430/

有关ios - AVCapturePhotoOutput iOS 相机超暗的更多相关文章

  1. ruby - 如何验证 IO.copy_stream 是否成功 - 2

    这里有一个很好的答案解释了如何在Ruby中下载文件而不将其加载到内存中:https://stackoverflow.com/a/29743394/4852737require'open-uri'download=open('http://example.com/image.png')IO.copy_stream(download,'~/image.png')我如何验证下载文件的IO.copy_stream调用是否真的成功——这意味着下载的文件与我打算下载的文件完全相同,而不是下载一半的损坏文件?documentation说IO.copy_stream返回它复制的字节数,但是当我还没有下

  2. Ruby 文件 IO 定界符? - 2

    我正在尝试解析一个文本文件,该文件每行包含可变数量的单词和数字,如下所示:foo4.500bar3.001.33foobar如何读取由空格而不是换行符分隔的文件?有什么方法可以设置File("file.txt").foreach方法以使用空格而不是换行符作为分隔符? 最佳答案 接受的答案将slurp文件,这可能是大文本文件的问题。更好的解决方案是IO.foreach.它是惯用的,将按字符流式传输文件:File.foreach(filename,""){|string|putsstring}包含“thisisanexample”结果的

  3. Get https://registry-1.docker.io/v2/: net/http: request canceled while waiting - 2

    1.错误信息:Errorresponsefromdaemon:Gethttps://registry-1.docker.io/v2/:net/http:requestcanceledwhilewaitingforconnection(Client.Timeoutexceededwhileawaitingheaders)或者:Errorresponsefromdaemon:Gethttps://registry-1.docker.io/v2/:net/http:TLShandshaketimeout2.报错原因:docker使用的镜像网址默认为国外,下载容易超时,需要修改成国内镜像地址(首先阿里

  4. [工业相机] 分辨率、精度和公差之间的关系 - 2

    📢博客主页:https://blog.csdn.net/weixin_43197380📢欢迎点赞👍收藏⭐留言📝如有错误敬请指正!📢本文由Loewen丶原创,首发于CSDN,转载注明出处🙉📢现在的付出,都会是一种沉淀,只为让你成为更好的人✨文章预览:一.分辨率(Resolution)1、工业相机的分辨率是如何定义的?2、工业相机的分辨率是如何选择的?二.精度(Accuracy)1、像素精度(PixelAccuracy)2、定位精度和重复定位精度(RepeatPrecision)三.公差(Tolerance)四.课后作业(Post-ClassExercises)视觉行业的初学者,甚至是做了1~2年

  5. ruby - 为什么不能使用类IO的实例方法noecho? - 2

    print"Enteryourpassword:"pass=STDIN.noecho(&:gets)puts"Yourpasswordis#{pass}!"输出:Enteryourpassword:input.rb:2:in`':undefinedmethod`noecho'for#>(NoMethodError) 最佳答案 一开始require'io/console'后来的Ruby1.9.3 关于ruby-为什么不能使用类IO的实例方法noecho?,我们在StackOverflow上

  6. ruby - 为 IO::popen 拯救 "command not found" - 2

    当我将IO::popen与不存在的命令一起使用时,我在屏幕上打印了一条错误消息:irb>IO.popen"fakefake"#=>#irb>(irb):1:commandnotfound:fakefake有什么方法可以捕获此错误,以便我可以在脚本中进行检查? 最佳答案 是:升级到ruby​​1.9。如果您在1.9中运行它,则会引发Errno::ENOENT,您将能够拯救它。(编辑)这是在1.8中的一种hackish方式:error=IO.pipe$stderr.reopenerror[1]pipe=IO.popen'qwe'#

  7. ruby - IO::EAGAINWaitReadable:资源暂时不可用 - 读取会阻塞 - 2

    当我尝试使用“套接字”库中的方法“read_nonblock”时出现以下错误IO::EAGAINWaitReadable:Resourcetemporarilyunavailable-readwouldblock但是当我通过终端上的IRB尝试时它工作正常如何让它读取缓冲区? 最佳答案 IgetthefollowingerrorwhenItrytousethemethod"read_nonblock"fromthe"socket"library当缓冲区中的数据未准备好时,这是预期的行为。由于异常IO::EAGAINWaitReadab

  8. ruby - 如何使用 ruby​​ fibers 避免阻塞 IO - 2

    我需要将目录中的一堆文件上传到S3。由于上传所需的90%以上的时间都花在了等待http请求完成上,所以我想以某种方式同时执行其中的几个。Fibers能帮我解决这个问题吗?它们被描述为解决此类问题的一种方法,但我想不出在http调用阻塞时我可以做任何工作的任何方法。有什么方法可以在没有线程的情况下解决这个问题? 最佳答案 我没有使用1.9中的纤程,但是1.8.6中的常规线程可以解决这个问题。尝试使用队列http://ruby-doc.org/stdlib/libdoc/thread/rdoc/classes/Queue.html查看文

  9. ruby - 如何从 ruby​​ 中的 IO 对象获取文件名 - 2

    在ruby中...我有一个由外部进程创建的IO对象,我需要从中获取文件名。然而我似乎只能得到文件描述符(3),这对我来说不是很有用。有没有办法从此对象获取文件名甚至获取文件对象?我正在从通知程序中获取IO对象。所以这也可能是获取文件路径的一种方式? 最佳答案 关于howtogetathefilenameinC也有类似的问题,我将在这里以ruby​​的方式给出这个问题的答案。在Linux中获取文件名假设io是您的IO对象。以下代码为您提供了文件名。File.readlink("/proc/self/fd/#{io.fileno}")例

  10. iOS快捷指令:执行Python脚本(利用iSH Shell) - 2

    文章目录前言核心逻辑配置iSH安装Python创建Python脚本配置启动文件测试效果快捷指令前言iOS快捷指令所能做的操作极为有限。假如快捷指令能运行Python程序,那么可操作空间就瞬间变大了。iSH是一款免费的iOS软件,它模拟了一个类似Linux的命令行解释器。我们将在iSH中运行Python程序,然后在快捷指令中获取Python程序的输出。核心逻辑我们用一个“获取当前日期”的Python程序作为演示(其实快捷指令中本身存在“获取当前日期”的操作,因而此需求可以不用Python,这里仅仅为了演示方便),核心代码如下。>>>importtime>>>time.strftime('%Y-%

随机推荐