草庐IT

AVfoundation

全部标签

ios - AVAudioConverter float32/48khz -> int16/16khz 转换失败

此方法处理来自AVAudioEngine输入节点上installTap的回调。我已确认我正在获取单声道float32/48000hz缓冲区数据,我想将其转换为单声道int16/16000hz。varconverter:AVAudioConverter?=nilvarconvertBuffer:AVAudioPCMBuffer?=nillettargetFormat=AVAudioFormat(commonFormat:AVAudioCommonFormat.pcmFormatInt16,sampleRate:16000,channels:1,interleaved:false)func

ios - __copy_helper_block_ 在 AVFoundation 中崩溃

我的视频处理应用程序发生奇怪的崩溃。它使用AVFoundation处理视频和音频,使用GPUImage进行过滤。我自己从未遇到过这个问题,但在将其发布到AppStore后,它经常出现在Crashlytics中。这是崩溃的日志:Thread:Crashed:AVPlayerItemOutputqueue0libobjc.A.dylib0x00000001986f80b4objc_retain+201libsystem_blocks.dylib0x0000000198d79bf8_Block_object_assign+3202AVFoundation0x0000000186895a34_

camera - 如何将代码 AVFoundation objective c 转换为 Swift?

我在swift中使用AVFoundation来拍照,但我无法将任何功能代码行从objectivec转换为Swift。我的函数代码是:-(void)capImage{//methodtocaptureimagefromAVCaptureSessionvideofeedAVCaptureConnection*videoConnection=nil;for(AVCaptureConnection*connectioninstillImageOutput.connections){for(AVCaptureInputPort*portin[connectioninputPorts]){if([

ios - AVPlayerViewController 使用纯音频 AVPlayer

刚开始使用AVKit,我正在尝试播放一些音频。最好使用MasteringModernMediaPlayback中详述的新AVPlayerViewController这样我就有了一个现成的播放/暂停/搜索UI。我基本上有一个带有容器View的Storyboard,它有一个嵌入到AVPlayerViewController的转场。然后我使用:overridefuncprepareForSegue(segue:UIStoryboardSegue,sender:AnyObject?){if(segue.identifier=="embedAudio"){varplayerViewControl

swift - 使用 Swift 从视频中抓取帧

我想在特定时间从视频中抓取帧。我正在调用我的grab-frame-function,时间指定为Float64秒。问题是它没有抓取当前帧。它似乎忽略了小数点。如果我用例如1.22和1.70调用该函数,它将返回相同的帧。我对Swift很陌生,所以我想我没有正确理解CMTime对象。那么任何人都可以看出这有什么问题吗?funcgenerateThumnail(url:NSURL,fromTime:Float64)->UIImage{varasset:AVAsset=AVAsset.assetWithURL(url)as!AVAssetvarassetImgGenerate:AVAssetIm

ios - AVFoundation 元数据对象类型

我正在尝试使用AVFoundation通过以下代码读取条形码,但我不断收到以下错误。帮助解释为什么会非常感激。提前致谢!//Createcameraviewsession=AVCaptureSession()varlayer=self.cameraView.layervidLayer=AVCaptureVideoPreviewLayer.layerWithSession(session)asAVCaptureVideoPreviewLayervidLayer.frame=self.cameraView.boundsvidLayer.videoGravity=AVLayerVideoGr

ios - Swift 编译器错误 : Cannot invoke 'lockForConfiguration' with an argument list of type '(() -> ())'

这是Swift2。我似乎找不到任何相关信息。我收到错误Cannotinvoke'lockForConfiguration'withanargumentlistoftype'(()->())'这里是第二行。ifletdevice=captureDevice{device.lockForConfiguration(){device.videoZoomFactor=1.0+CGFloat(ratioValue)device.unlockForConfiguration()}print(ratioValue)} 最佳答案 在Swift2中,

ios - 将 AVFoundation 中的图像分配给 UIImageView 时,主视图中的 subview 崩溃

我创建了一个自定义的AVFoundation相机,并使用@IBDesignable作为subview加载到另一个View中,拍摄图像后我想将其分配给UIImageView,但是当按下按钮时,自定义相机View(UIView)崩溃并在屏幕中向上移动,而不是将其分配给UIImageView,当自定义相机View开始加载时会发生这种情况,然后当我再次加载自定义相机View时,它会将图像分配给UIImageView。抓图方法:@IBActionfunccaptureImage(sender:AnyObject){ifletstillOutput=self.captureImageOutput{

iphone - 如何控制使用 AVMutableComposition 组装的视频的方向

我正在收集一堆在iPhone上以纵向模式拍摄的视频剪辑。为了组装它们,我采用了如下直接的方法:AVURLAsset获取不同的视频,然后将它们推送到AVMutableCompositionTrack中,然后将其放入我正在使用AVAssetExportSession导出到文件的AVMutableComposition我的问题是,当我在UIWebView中显示视频时,它以横向模式出现。但是,如果我查看任何组件View,它们将显示在纵向View中。有谁知道如何整理方向。我试着用AVMutableCompositionnaturalSize来改变宽度和高度,但这只会让我的人看起来又矮又胖!(在他

iphone - 如何控制使用 AVMutableComposition 组装的视频的方向

我正在收集一堆在iPhone上以纵向模式拍摄的视频剪辑。为了组装它们,我采用了如下直接的方法:AVURLAsset获取不同的视频,然后将它们推送到AVMutableCompositionTrack中,然后将其放入我正在使用AVAssetExportSession导出到文件的AVMutableComposition我的问题是,当我在UIWebView中显示视频时,它以横向模式出现。但是,如果我查看任何组件View,它们将显示在纵向View中。有谁知道如何整理方向。我试着用AVMutableCompositionnaturalSize来改变宽度和高度,但这只会让我的人看起来又矮又胖!(在他