草庐IT

AVfoundation

全部标签

ios - 将 CMSampleBufferRef 缓冲到 CFArray 中

我正在尝试将从iPhone的摄像机接收到的150CMSampleBufferRef收集到数组中。相机在13个缓冲区后以某种方式停止调用委托(delegate)。我尝试使用NSMutableArray、CFArray。没有任何帮助。我怀疑它与内存有关,但我对内存警告一无所知。我很乐意为此提供一些帮助。先谢谢了。session=[[AVCaptureSessionalloc]init];//QualityPresetif([sessioncanSetSessionPreset:AVCaptureSessionPresetLow]){session.sessionPreset=AVCaptu

iphone - 使用 AVAssetExportSession 导出 Wav 文件

我正在尝试向wav文件添加淡入效果,然后使用AVAssetExportSession导出添加了淡入淡出效果的新文件。我见过的所有示例都导出为m4u是否可以使用wav或aif执行此操作?我得到的错误是:AVAssetExportSessionStatusFailedErrorDomain=AVFoundationErrorDomainCode=-11822"CannotOpen"UserInfo=0x1f01c9f0{NSLocalizedDescription=CannotOpen,NSLocalizedFailureReason=Thismediaformatisnotsupport

ios - AVAsset 持续时间不正确

我在Mac播放器中有视频,视频时长为31秒。当我在我的应用程序中使用它并加载该文件时,AVAsset的持续时间为“28.03”。AVAsset*videoAsset=[AVAssetassetWithURL:videoUrl];Float64time=CMTimeGetSeconds(videoAsset.duration); 最佳答案 对于某些类型的Assets,持续时间是一个近似值。如果您需要确切的持续时间(应该是极端情况),请使用:NSDictionary*options=@{AVURLAssetPreferPreciseDu

iphone - MPMoviePlayerViewController - 如何拦截或更改完成按钮的功能

我正在使用MPMoviePlayerViewController。我有一个UINavigationController,但我没有推送它,而是调用了presentModalViewController。这是因为我希望MPMoviePlayerViewController具有交叉溶解过渡(并且我可以将modalTransitionStyle设置为此)。它显示正确,并淡入到位。但是,当它完成时,它会导致先前的View向上滑动到位。这不是我想要的。我试过将modalTransitionStyle和modalPresentationStyle设置为无效。我还对MPMoviePlayerViewC

iphone - 使用具有自定义尺寸的 AVFoundation 录制视频?

这个问题在这里已经有了答案:HowdoIuseAVFoundationtocropavideo(2个答案)关闭9年前。我正在使用AVFoundation录制MOV文件,但我无法找到如何更改视频尺寸的方法。我将captureVideoPreviewLayer的videoGravity属性设置为AVLayerVideoGravityResizeAspectFill并且显示预览层的UIView具有自定义尺寸(不是屏幕的纵横比相同)。录制工作正常,但录制视频的尺寸与屏幕的纵横比相同。如何使用UIView或预览层的纵横比进行录制?

ios - AVFoundation人脸检测能定位眼睛和嘴巴位置吗?

当使用CoreImage面部检测时,我得到具有眼睛和嘴巴位置属性的CIFaceFeature对象。当使用AVFoundation和AVMetadataObjectTypeFace作为元数据对象类型时,我得到具有偏航角和滚动角属性的AVMetadataFaceObject。有没有办法在使用AVFoundation时获取眼睛和嘴巴的位置?谢谢 最佳答案 AVFoundation人脸检测不会返回嘴巴和眼睛的位置。然而,嘴巴和眼睛相对于边界框的位置变化不大。例如,我发现眼睛几乎总是位于:(0.3*脸宽,0.3*脸高)(0.7*脸宽,0.3*

ios - 如何使用 captureStillImageAsynchronouslyFromConnection 实现多重拍摄(iOS AVFoundation)

我正在尝试在循环中使用captureStillImageAsynchronouslyFromConnection捕获连续(多镜头)高分辨率图像,但它偶尔会暂停以重新聚焦。我锁定了对焦模式(如其他stackoverflow帖子中所述),但这并没有阻止相机偶尔重新对焦。我的代码片段是://[self.sessionbeginConfiguration];if([devicelockForConfiguration:nil]==YES){if([deviceisFocusModeSupported:AVCaptureFocusModeLocked]){[devicesetFocusMode:

ios - iOS 能否同时通过蓝牙和设备扬声器播放两个独立的音频流?

我正在研究一款应用的可行性,该应用除了通过设备的内部扬声器播放另一组声音外,还需要通过连接的蓝牙扬声器播放某些声音。查看AVFoundation,似乎每个应用程序只有一个AVAudioSession单例,因此内部扬声器和外部蓝牙扬声器只能以相互排斥的方式使用。我需要播放的声音都在5秒内,并且不需要蓝牙输出和设备扬声器之间的同步。iOS可以实现吗?如果是这样,我应该查看哪些API? 最佳答案 你可以看看AVAudioSessionCategoryMultiRoute。来自文档:Usethiscategorytocustomizethe

ios - AVAssetExportSession 慢

我正在使用AVAssetExportSession导出音频文件。它正在工作,但速度适合实际使用。我正在设置我的导出器,获取我的AVAsset,然后开始导出。这是代码。任何建议或见解都会有所帮助。[exporterexportAsynchronouslyWithCompletionHandler:^{NSLog(@"wearenowexporting");intexportStatus=exporter.status;switch(exportStatus){caseAVAssetExportSessionStatusFailed:{//logerrortotextviewNSError

iOS:如何从 AVAsset 或 AVAssetTrack 获取音频采样率

像这样加载AVAsset之后:AVAsset*asset=[AVAssetassetWithURL:url];我想知道音轨的采样率是多少。目前,我得到的音轨是这样的:AVAssetTrack*audioTrack=[[assettracksWithMediaCharacteristic:AVMediaCharacteristicAudible]objectAtIndex:0];哪个有效。但我似乎无法找到任何类型的属性,即使在使用Google之后也找不到;-),这给了我采样率。这是如何正常工作的?有可能吗?(我开始越来越怀疑,因为谷歌搜索并没有给我很多信息......)