草庐IT

AVfoundation

全部标签

ios - 使用 AVFoundation 获取视频的持续时间

要获取AVPlayerItem的持续时间,我可以这样做:player.currentItem.duration。除此之外,我还可以从后端获取持续时间作为Int。然后我可以将其转换为Float以便在需要持续时间的任何地方使用。我认为这在性能方面可能会更好,并且在我这边获得持续时间的工作更少。例如Apple说这是关于获取持续时间的:“AvitalconceptinAV Foundationisthatinitializinganassetoratrackdoesnotnecessarilymeanthatitisreadyforuse.Itmayrequiresometimetocalcu

ios - 触觉反馈不适用于 AVFoundation? (UIImpactFeedbackGenerator 等)

我正在尝试在后台显示视频/相机View,同时我还允许在我的应用程序中针对各种操作进行触觉反馈,但AVFoundation似乎无法很好地处理我正在进行的涉及的任何调用触觉调用:if#available(iOS10.0,*){letgenerator=UIImpactFeedbackGenerator(style:.light)generator.prepare()generator.impactOccurred()//More:letfeedbackGenerator=UISelectionFeedbackGenerator()feedbackGenerator.selectionCha

xcode - 使用物理静音 iPhone 按钮静音 AVFoundation 声音

我已经使用AVFoundation向我的游戏添加了声音并且它运行良好,除了在设置静音开和关(使用iPhone的物理静音按钮)时声音播放。当静音按钮打开时,如何让我的应用静音?这是我正在使用的代码:importAVFoundationvaraudioPlayerMenu=AVAudioPlayer()varselectSound=NSURL(fileURLWithPath:NSBundle.mainBundle().pathForResource("select",ofType:"mp3")!)audioPlayerMenu=AVAudioPlayer(contentsOfURL:sel

iOS - swift - 使用 AVFoundation 合并视频

我正在尝试将一些视频合并到一个独特的output.mov中。导出的文件无法播放,我现在不知道为什么。有人可以帮助我吗?funcexportVideo2(path:String,outputPath:String,nMovie:Int)->Bool{varcomposition=AVMutableComposition()lettrack:AVMutableCompositionTrack=composition.addMutableTrackWithMediaType(AVMediaTypeVideo,preferredTrackID:CMPersistentTrackID())var

ios - AVFoundation 的 iPhone 5 视网膜显示宽高比

AVFoundation提供了显示视频时可以使用的不同图像纵横比。例如:-NSString*constAVCaptureSessionPreset320x240;-NSString*constAVCaptureSessionPreset352x288;-NSString*constAVCaptureSessionPreset640x480;http://developer.apple.com/library/mac/#documentation/AVFoundation/Reference/AVCaptureSession_Class/Reference/Reference.html#

ios - 使用 AVFoundation 在 iOS 中混合音频不起作用

我正在尝试将一堆视频拼接在一起,然后在iOS中的视频上添加一些音乐。使用AVMutableAudioMix添加音频。然而,当视频最终导出时,音频混合丢失了。代码如下所示:-(void)mergeVideos:(NSArray*)videos{AVMutableComposition*mixComposition=[[AVMutableCompositionalloc]init];AVMutableCompositionTrack*videoTrack=[mixCompositionaddMutableTrackWithMediaType:AVMediaTypeVideopreferre

iOS:AVFoundation:焦点

有没有办法在自动对焦完成后随时获取对焦点?在Apple的示例代码中,他们使用:-(void)subjectAreaDidChange:(NSNotification*)notification{CGPointdevicePoint=CGPointMake(.5,.5);[selffocusWithMode:AVCaptureFocusModeContinuousAutoFocusexposeWithMode:AVCaptureExposureModeContinuousAutoExposureatDevicePoint:devicePointmonitorSubjectAreaChan

iOS用AVFoundation播放RTMP

我需要实现一个使用AV播放RTMP的iOS应用程序。是否存在用于此提议的任何图书馆?我在Internet上搜索过bean,但没有找到任何内容或任何示例。我认为我必须捕获帧并解码,因为iOS不播放rtmp。我不知道从哪里开始 最佳答案 几个月前我遇到的供应商很少。你可能想推荐他们。cine.ioVideoStreamSDKforiOSBrightcovePlayerSDKforiOSRealTimeLibs以上都是收费的。还有一些开源库:RTMP-WrapperMediaLibDemos希望对您有所帮助。

ios - AVFoundation 视频播放问题

我已经关注了thisexcellenttutorial来自尤马,并有一些工作。下面是我在我的ViewController中使用的代码importUIKitimportSceneKitimportARKitimportAVFoundationimportSpriteKitclassViewController:UIViewController,ARSCNViewDelegate{@IBOutletvarsceneView:ARSCNView!overridefuncviewDidLoad(){super.viewDidLoad()//Settheview'sdelegatesceneVi

ios - 有没有办法在不使用 AVFoundation 框架的情况下在 iOS 中录制音频?

我正在开发原生插件trigger.io这不允许2个插件在一个项目中使用相同的框架。我的录音机插件只是简单地录制音频,保存并返回音频文件的url。为此,我使用了AVAudioSessions和AVAudioRecorder。我一直在寻找一种替代方法来通过设备的麦克风录制音频,而无需使用通常的AVFoundation框架。谁能推荐一个替代方案?提前致谢。 最佳答案 CoreAudio有几个较低级别的API。AudioQueueServices类是一个很好的起点,可以在AudioToolbox框架中找到。对于最精细的粒度控制,AudioU