草庐IT

AVfoundation

全部标签

ios - AVQueuePlayer 播放无间隙和卡住

我使用AVQueuePlayer播放一系列从URL加载的电影。我尝试使用我需要播放的所有AVPlayerItems数组来初始化播放器实例。player=[[AVQueuePlayerqueuePlayerWithItems:playerItemsArray]但在这种情况下,AVQueuePlayer在开始播放之前加载每个AVPlayerItem的一些初始部分。它会导致令人沮丧的卡住,并且应用程序在几秒钟内没有响应。有可能只将第一个AVPLayerItem添加到播放器的队列中,观察其状态并仅在第一个到达结束时才将第二个项目添加到队列中,但在这种情况下播放之间会有间隙由第二个AVPlaye

ios - AVQueuePlayer 播放无间隙和卡住

我使用AVQueuePlayer播放一系列从URL加载的电影。我尝试使用我需要播放的所有AVPlayerItems数组来初始化播放器实例。player=[[AVQueuePlayerqueuePlayerWithItems:playerItemsArray]但在这种情况下,AVQueuePlayer在开始播放之前加载每个AVPlayerItem的一些初始部分。它会导致令人沮丧的卡住,并且应用程序在几秒钟内没有响应。有可能只将第一个AVPLayerItem添加到播放器的队列中,观察其状态并仅在第一个到达结束时才将第二个项目添加到队列中,但在这种情况下播放之间会有间隙由第二个AVPlaye

ios - AVCaptureSession stopRunning 方法造成可怕的挂起

使用RayWenderlich'sQRCodereaderfromChapter22ofiOS7Tutorials,我正在成功读取我当前应用程序的二维码。我现在扩展它,在成功读取QRCode后,我想存储已读取的AVMetadataMachineReadableCodeObject的stringValue,转到新View,并在新View,或多或少准确地说明了大多数QRCode阅读器应用程序(如RedLaser等...)如何处理条形码和QRCode。但是,我调用了[captureSessionstopRunning](这样它就不再读取任何QRCode并触发额外的segues)并且有10多秒

ios - AVCaptureSession stopRunning 方法造成可怕的挂起

使用RayWenderlich'sQRCodereaderfromChapter22ofiOS7Tutorials,我正在成功读取我当前应用程序的二维码。我现在扩展它,在成功读取QRCode后,我想存储已读取的AVMetadataMachineReadableCodeObject的stringValue,转到新View,并在新View,或多或少准确地说明了大多数QRCode阅读器应用程序(如RedLaser等...)如何处理条形码和QRCode。但是,我调用了[captureSessionstopRunning](这样它就不再读取任何QRCode并触发额外的segues)并且有10多秒

ios - AVAssetExportSession 每次都失败(错误 -12780)

我正在尝试合并一些音频文件(通过MPMediaPickerController选择),但导出总是失败,错误代码为-12780。当我尝试使用AVPlayer对象播放我的作品时,它播放正确。只是导出失败。我做错了什么?这是我的代码:AVAssetExportSession*exportSession;AVPlayer*player;-(void)mergeAudiofiles{//self.mediaItemsisanNSArrayofMPMediaItemsif(self.mediaItems.count==0){UIAlertView*alert=[[UIAlertViewalloc]

ios - AVAssetExportSession 每次都失败(错误 -12780)

我正在尝试合并一些音频文件(通过MPMediaPickerController选择),但导出总是失败,错误代码为-12780。当我尝试使用AVPlayer对象播放我的作品时,它播放正确。只是导出失败。我做错了什么?这是我的代码:AVAssetExportSession*exportSession;AVPlayer*player;-(void)mergeAudiofiles{//self.mediaItemsisanNSArrayofMPMediaItemsif(self.mediaItems.count==0){UIAlertView*alert=[[UIAlertViewalloc]

ios - 我想每秒调用 20 次 installTapOnBus :bufferSize:format:block:

我想在麦克风的实时输入中显示波形。我是用installTapOnBus:bufferSize:format:block:实现的,这个函数一秒调用了3次。我想将此函数设置为每秒调用20次。在哪里可以设置?AVAudioSession*audioSession=[AVAudioSessionsharedInstance];NSError*error=nil;if(audioSession.isInputAvailable)[audioSessionsetCategory:AVAudioSessionCategoryPlayAndRecorderror:&error];if(error){r

ios - 我想每秒调用 20 次 installTapOnBus :bufferSize:format:block:

我想在麦克风的实时输入中显示波形。我是用installTapOnBus:bufferSize:format:block:实现的,这个函数一秒调用了3次。我想将此函数设置为每秒调用20次。在哪里可以设置?AVAudioSession*audioSession=[AVAudioSessionsharedInstance];NSError*error=nil;if(audioSession.isInputAvailable)[audioSessionsetCategory:AVAudioSessionCategoryPlayAndRecorderror:&error];if(error){r

iOS:来自 Airplay 的音频和视频点击

我制作了一个视频播放器,可以分析当前正在播放的视频中的实时音频和视频轨道。视频存储在iOS设备上(在AppsDocuments目录中)。一切正常。我使用MTAudioProcessingTap来获取所有音频样本并进行一些FFT,我通过从当前播放的CMTime(AVPlayercurrentTime属性)复制像素缓冲区来分析视频。正如我所说,这很好用。但现在我想支持Airplay。只是airplay本身并不困难,但只要切换Airplay并且视频正在ATV上播放,我的水龙头就会停止工作。不知何故,MTAudioProcessingTap不会处理并且像素缓冲区都是空的...我无法获取数据。有

iOS:来自 Airplay 的音频和视频点击

我制作了一个视频播放器,可以分析当前正在播放的视频中的实时音频和视频轨道。视频存储在iOS设备上(在AppsDocuments目录中)。一切正常。我使用MTAudioProcessingTap来获取所有音频样本并进行一些FFT,我通过从当前播放的CMTime(AVPlayercurrentTime属性)复制像素缓冲区来分析视频。正如我所说,这很好用。但现在我想支持Airplay。只是airplay本身并不困难,但只要切换Airplay并且视频正在ATV上播放,我的水龙头就会停止工作。不知何故,MTAudioProcessingTap不会处理并且像素缓冲区都是空的...我无法获取数据。有