草庐IT

AVfoundation

全部标签

swift - 无法实例化 AVPlayerViewController 错误

尝试创建一个简单的应用程序在iPhone(Xcode7.3,swiftiOS9)上播放视频,我只是想在添加代码加载内容之前让播放器出现。使用Storyboard,创建一个按钮并将segue(显示)到AVViewController对象。当应用程序在设备上运行并按下按钮时,我得到:“由于未捕获的异常‘NSInvalidUnarchiveOperationException’而终止应用程序,原因:‘无法实例化名为AVPlayerViewController的类’”在声明我的ViewController:UIViewController类之前,我有:importUIKit、importAVK

ios - 快速制作播放列表(开始下一首歌曲)

我使用AVFoundation在swift中创建了一个声音播放器。播放歌曲结束后,我正在尝试开始播放下一首歌曲。我试图实现这段代码if(audioPlayer.currentTime>=audioPlayer.duration){varrecentSong=songPlaylist[selectedSongNumber+1]audioPlayer=AVAudioPlayer(contentsOfURL:NSURL(fileURLWithPath:NSBundle.mainBundle().pathForResource(recentSong,ofType:"mp3")!),error:

ios - 如何将 AVMutableVideoComposition 转换为 AVAsset

我正在做一些视频编辑,我需要将我正在操作的AVMutableVideoComposition放回播放器项目中。要进入播放器项目,它需要是一个AVAsset。如何做到这一点? 最佳答案 您可以使用AVMutableComposition作为AVPlayerItem的Assets,因为AVMutableComposition是AVAsset的子类。AVMutableVideoComposition不是AVAsset的子类,而是一种显示您插入到AVAssetTracks中的视频的方法AVMutableComposition。(如果您的所有

ios - 创建无声音频 CMSampleBufferRef

如何在Swift中创建无声音频CMSampleBufferRef?我希望将静默CMSampleBufferRef附加到AVAssetWriterInput的实例。 最佳答案 你没有说你想要什么格式的零(整数/float、单声道/立体声、采样率),但也许这并不重要。无论如何,这是一种快速创建无声CD音频风格CMSampleBuffer的方法。funccreateSilentAudio(startFrm:Int64,nFrames:Int,sampleRate:Float64,numChannels:UInt32)->CMSampleB

ios - Swift ERROR : : Call can throw, 但未标记为 'try' 错误未处理

这个问题在这里已经有了答案:PlayingAudioinXcode7(2个答案)关闭6年前。我刚开始学习Swift,我想在我的代码中添加一首歌曲,以便在我按下按钮时播放它,但出现了该错误。如何解决这个错误?varbuttonAudioPlayer=AVAudioPlayer()@IBActionfuncbtnWarning(sender:UIButton){play()}overridefuncviewDidLoad(){super.viewDidLoad()}funcplay(){letbuttonAudioURL=NSURL(fileURLWithPath:NSBundle.mai

ios - 如何将音频效果应用于文件并写入文件系统 - iOS

我正在构建一个应允许用户将音频过滤器应用于录制音频的应用程序,例如Reverb、Boost。我找不到任何关于如何将过滤器应用于文件本身的可行信息来源,因为稍后需要将处理后的文件上传到服务器。我目前正在使用AudioKit进行可视化,我知道它能够进行音频处理,但只能用于播放。请提出任何进一步研究的建议。 最佳答案 AudioKit有一个不需要iOS11的离线渲染节点。这是一个例子,player.schedule(...)和player.start(at.)位是必需的,因为AKAudioPlayer的底层AVAudioPlayerNod

swift 。获取 CMAudioFormatDescription 时的 EXC_BREAKPOINT

我正在尝试从音频文件中检索采样率和channel数。我在此行遇到运行时“EXC_BREAKPOINT(code=EXC_ARM_BREAKPOINT)”错误:letaudioFormstDesc=descriptions[0]asCMAudioFormatDescription这是我使用的最简单的代码版本:importAVFoundationimportCoreMediaimportMediaPlayerclassViewController:UIViewController{overridefuncviewDidLoad(){super.viewDidLoad()letquery=M

ios - 在 Swift 3 中向视频添加叠加层

我正在学习AVFoundation,我在尝试在Swift3中保存带有叠加图像的视频时遇到问题。使用AVMutableComposition我可以将图像添加到视频中,但是视频被放大并且不局限于拍摄视频的纵向尺寸。我试过:通过AVAssetTrack设置自然大小。在AVMutableVideoCompositionrenderFrame中将视频限制为纵向大小。将新视频的边界锁定到录制的视频宽度和高度。下面的代码与我需要帮助的问题无关。我要添加的图像覆盖了整个纵向View,并且在边缘周围都有边框。该应用程序还只允许纵向。funcprocessVideoWithWatermark(video:

ios - 在 swift 4 中使用摄像头进行实时面部跟踪

我希望能够从摄像头源中跟踪用户的面部。我看过this所以发帖。我使用了答案中给出的代码,但它似乎没有做任何事情。听说过funccaptureOutput(_captureOutput:AVCaptureOutput!,didOutputSampleBuffersampleBuffer:CMSampleBuffer!,fromconnection:AVCaptureConnection!)已在swift4中更改为其他内容。这可能是代码的问题吗?在进行面部跟踪时,我还想使用CIFaceFeature监控面部特征。我该怎么做? 最佳答案

ios - 为什么我的 update() 函数对 dB 水平没有反应?

我正在尝试让我的应用对拍手声或高于正常声级的声音使用react。我为此使用了Swift和SpriteKit。我已经导入了AVFoundation,当然还有SpriteKit。这是我的设置:letdirPaths=NSSearchPathForDirectoriesInDomains(.DocumentDirectory,.UserDomainMask,true)letdocsDir=dirPaths[0]as!StringletsoundFilePath=docsDir.stringByAppendingPathComponent("sound.caf")letsoundFileURL