草庐IT

AVfoundation

全部标签

objective-c - IOS 上的波形

我正在寻找如何绘制声音幅度。我找到了http://supermegaultragroovy.com/2009/10/06/drawing-waveforms/但我有一些问题。如何获取表示音频的浮点值列表? 最佳答案 谢谢大家。我在这里找到了这个例子:DrawingwaveformwithAVAssetReader,对其进行了更改并开发了一个新的类。此类返回UIImageView。//.hfile#import@interfaceWaveformImageVew:UIImageView{}-(id)initWithUrl:(NSURL

objective-c - IOS 上的波形

我正在寻找如何绘制声音幅度。我找到了http://supermegaultragroovy.com/2009/10/06/drawing-waveforms/但我有一些问题。如何获取表示音频的浮点值列表? 最佳答案 谢谢大家。我在这里找到了这个例子:DrawingwaveformwithAVAssetReader,对其进行了更改并开发了一个新的类。此类返回UIImageView。//.hfile#import@interfaceWaveformImageVew:UIImageView{}-(id)initWithUrl:(NSURL

iOS 7 AVPlayer AVPlayerItem 持续时间在 iOS 7 中不正确

我的应用程序中有以下代码:NSURL*url=[NSURLfileURLWithPath:[self.DocDirstringByAppendingPathComponent:self.FileName]isDirectory:NO];self.avPlayer=[AVPlayerplayerWithURL:url];Float64duration=CMTimeGetSeconds(self.avPlayer.currentItem.duration);这在iOS6上运行良好,但在iOS7上由于某种原因返回NaN。检查self.avPlayer.currentItem.duration

iOS 7 AVPlayer AVPlayerItem 持续时间在 iOS 7 中不正确

我的应用程序中有以下代码:NSURL*url=[NSURLfileURLWithPath:[self.DocDirstringByAppendingPathComponent:self.FileName]isDirectory:NO];self.avPlayer=[AVPlayerplayerWithURL:url];Float64duration=CMTimeGetSeconds(self.avPlayer.currentItem.duration);这在iOS6上运行良好,但在iOS7上由于某种原因返回NaN。检查self.avPlayer.currentItem.duration

iphone - AVPlayerItem 失败并显示 AVStatusFailed 和错误代码 "Cannot Decode"

我遇到了一个奇怪的问题,希望有人能提供帮助。在我的iOS应用程序中,我使用MutableComposition通过组合用户照片库中的视频和应用程序包中的音频文件来创建带有自定义音轨的视频。然后我使用AVPlayer和AVPlayerItem使用我制作的自定义视频播放器向用户播放视频。每次创建一个新的合成时,Assets、播放器和合成都会被清除、释放,它基本上从一个干净的初始状态开始。一切正常,直到以这种方式成功创建了4个视频之后,所有其他创建播放器的尝试都失败并显示错误无法解码。不管我正在重新创建的是同一个视频,与视频或音频文件的大小/长度无关,它总是在第五次尝试时完全失败,就像发条一

iphone - AVPlayerItem 失败并显示 AVStatusFailed 和错误代码 "Cannot Decode"

我遇到了一个奇怪的问题,希望有人能提供帮助。在我的iOS应用程序中,我使用MutableComposition通过组合用户照片库中的视频和应用程序包中的音频文件来创建带有自定义音轨的视频。然后我使用AVPlayer和AVPlayerItem使用我制作的自定义视频播放器向用户播放视频。每次创建一个新的合成时,Assets、播放器和合成都会被清除、释放,它基本上从一个干净的初始状态开始。一切正常,直到以这种方式成功创建了4个视频之后,所有其他创建播放器的尝试都失败并显示错误无法解码。不管我正在重新创建的是同一个视频,与视频或音频文件的大小/长度无关,它总是在第五次尝试时完全失败,就像发条一

ios - swift 2.0 : Type of Expression is ambiguous without more context?

以下用于Swift1.2:varrecordSettings=[AVFormatIDKey:kAudioFormatMPEG4AAC,AVEncoderAudioQualityKey:AVAudioQuality.Max.rawValue,AVEncoderBitRateKey:320000,AVNumberOfChannelsKey:2,AVSampleRateKey:44100.0]现在,它给出错误:"Typeexpressionisambiguouswithoutmorecontext". 最佳答案 你可以给编译器更多的信息:

ios - swift 2.0 : Type of Expression is ambiguous without more context?

以下用于Swift1.2:varrecordSettings=[AVFormatIDKey:kAudioFormatMPEG4AAC,AVEncoderAudioQualityKey:AVAudioQuality.Max.rawValue,AVEncoderBitRateKey:320000,AVNumberOfChannelsKey:2,AVSampleRateKey:44100.0]现在,它给出错误:"Typeexpressionisambiguouswithoutmorecontext". 最佳答案 你可以给编译器更多的信息:

swift - 使用 Swift 使用 AVAudioEngine 实时变调

我正在使用Swift在OSX上开发音频效果应用程序,并且我对集成音高转换效果很感兴趣。我想实时将音调调高或调低一个Octave。目前我只收到干信号。我不确定这是否可能,并且想知道这是否可能,或者任何人可能有任何帮助或建议。目前与问题相关的代码如下:importCocoaimportAVFoundationclassViewController:NSViewController{varengine=AVAudioEngine()vartimePitch=AVAudioUnitTimePitch()overridefuncviewDidLoad(){timePitch.pitch=1200

swift - 使用 Swift 使用 AVAudioEngine 实时变调

我正在使用Swift在OSX上开发音频效果应用程序,并且我对集成音高转换效果很感兴趣。我想实时将音调调高或调低一个Octave。目前我只收到干信号。我不确定这是否可能,并且想知道这是否可能,或者任何人可能有任何帮助或建议。目前与问题相关的代码如下:importCocoaimportAVFoundationclassViewController:NSViewController{varengine=AVAudioEngine()vartimePitch=AVAudioUnitTimePitch()overridefuncviewDidLoad(){timePitch.pitch=1200