我正在尝试为我目前正在开发的应用程序设计条形码扫描仪。我希望扫描仪预览填满设备的整个屏幕,并提供一个较小的框架来指向条形码。一切都按照我想要的方式工作,但我无法让感兴趣的框架工作。下面是条码扫描器的实现:#import"GEScannerViewController.h"@importAVFoundation;@interfaceGEScannerViewController(){AVCaptureSession*_session;AVCaptureDevice*_device;AVCaptureDeviceInput*_input;AVCaptureMetadataOutput*_o
我们在使用Xcode9构建应用程序后遇到问题:当我们在iPhone7上拍摄视频时,视频右侧出现绿线。这是视频帧的链接-https://i.imgur.com/J8NQncq.jpg这条绿线的宽度为16px。我们使用编码器-“h264”和AVCaptureSession进行捕获。为了测试,我们将视频大小值设为可被16整除,但并没有解决问题。我们已经从Xcode8在AppStore上提交了申请,所有的视频都没有出现任何坏点。代码未更改。我在我的iPadmini4上测试过,没有这个问题。但是客户端在iPhone7上遇到问题,我没有这个设备,所以我无法调试它。 最佳
我已经捕获了视频帧并使用以下代码将它们转换为VP8数据:https://github.com/chris838/vp8-ios.git我想根据可用的VP8数据捕获vorbis音频数据,以便将VP8数据和vorbis数据合并到WebM文件中。是否有任何可用的iOS库来获取Vorbis数据?提前致谢 最佳答案 有ogg或者你会发现audiolib有帮助。有指向ogg源代码的链接here 关于ios-是否有任何库可以在iPhone中使用AVCaptureSession获取vorbis格式的音频
尝试使用AVCapureSessions并尝试以不同的方式显示输出CMSampleBufferRef(使用AVCaptureVideoPreviewLayer,显示CGImage并将其转换为UIImage),我还查看了可以为您设置的所有不同质量预设AVCaptureSession。然后我注意到质量之间的差异AVCaptureSessionPresetLow,AVCaptureSessionPresetMedium和AVCaptureSessionPresetHigh不仅是图像的分辨率,还有它们的纵横比,最显着的是整体图像质量。在我的具体案例中,使用AVCaptureSessionPre
我希望在使用相机时反转我的应用程序中屏幕的颜色。但是,我不知道(1)是否可行,以及(2)如果可行,该怎么做。谢谢! 最佳答案 您可以使用CoreImage来执行此操作,也可以使用BradLarson的出色框架GPUImage为了方便的做很多视频特效,框架里面有很多例子看看。 关于ios-反转AVCaptureSession的颜色,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/21
我一直在尝试在MonoTouch中进行一些实时视频图像处理。我正在使用AVCaptureSession从与AVCaptureVideoPreviewLayer配合使用的相机获取帧。我也成功地在我的委托(delegate)类中获得回调方法“DidOutputSampleBuffer”。但是,我尝试从生成的CMSampleBuffer创建UIImage的所有方法都失败了。这是我设置捕获session的代码:captureSession=newAVCaptureSession();captureSession.BeginConfiguration();videoCamera=AVCaptur
我正在尝试使用Zxing读取QR码:self.capture=[[ZXCapturealloc]init];self.capture.rotation=90.0f;//Usethebackcameraself.capture.delegate=self;self.capture.camera=self.capture.back;self.capture.layer.frame=self.view.bounds;[self.view.layeraddSublayer:self.capture.layer];我收到这个错误:*由于未捕获的异常“NSGenericException”而终止应
我做了一个很棒的小应用程序,叫做NightCam,它可以录制夜视效果视频。我目前正在更新它。视频捕获绝对正常,但音频却不行。当没有记录到文件时,我一打开应用程序就会出现问题(我将其更改为仅在稍后记录时激活音频)。相关代码如下:session=[[AVCaptureSessionalloc]init];session.sessionPreset=AVCaptureSessionPresetMedium;camera=[AVCaptureDevicedefaultDeviceWithMediaType:AVMediaTypeVideo];microphone=[AVCaptureDevic
我正在尝试在ViewController中运行AVCaptureSession,但在同一ViewController中,我还从使用AVAudioSession的库中调用函数。我似乎无法从调试器中获得太多信息,除了当我调用这个特定库的函数时它崩溃了。库是libpd:https://github.com/libpd并且它调用AVAudioSession作为sharedInstance。我称libpd为:[self.audioControllerconfigurePlaybackWithSampleRate:44100numberChannels:2inputEnabled:YESmixin
我正在尝试让我的应用以正确的方式创建UIImage。我的大部分代码都取自Apple示例...@interfaceCameraManager()@property(nonatomic,strong)CIContext*context;@property(nonatomic,strong)AVCaptureDevice*rearCamera;@end@implementationCameraManager-(id)init{if((self=[superinit])){self.context=[CIContextcontextWithOptions:nil];[selfsetupCame