草庐IT

AVfoundation

全部标签

ios - 在 uitableview 单元格中播放视频

我正在尝试设置一个可以播放视频的UITableView。许多以前关于此的SO问题使用了MPMoviePlayer(PlayingVideointoUITableView,PlayingvideoinUItableViewinSWIFT,PlayingVideoFromUITableView),现在在iOS9中已弃用。使用AVFoundation(我正在使用的)的少数人之一就是这个:PlayvideoonUITableViewCellwhenitiscompletelyvisible并且是我从中获取大部分代码的地方。这是我的代码,在cellForRowAtIndexPath中:Video

ios - 在 iOS 上开始在后台播放声音?

我正在尝试做类似于Tile.app的事情.当它显示通知时,它会播放声音。这看起来很简单——使用UILocalNotification并包含声音文件名。但是本地通知将声音限制在不超过30秒,而Tile的声音持续播放的时间比这长得多。我预计它会循环播放,并且一直持续到我再也无法忍受噪音为止。即使手机的静音开关打开,声音也会播放,本地通知不会发生这种情况。由于这些原因,UILocalNotification似乎已经过时了。我想也许我可以发布纯文本本地通知并让我的应用程序播放声音。但是使用AVAudioPlayer,play方法返回NO,声音不播放。Otherquestions已经建议这是设计

ios旋转,过滤ios中的视频流

你好,我正在视频直播中通过GPUImage旋转和应用图像过滤器该任务消耗的时间比预期的要多,导致iPhone过热谁能帮我优化我的代码以下是我使用的代码:-(void)willOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer{//returnifinvalidsamplebufferif(!CMSampleBufferIsValid(sampleBuffer)){return;}//GetCGImagefromsamplebufferCGImageRefcgImageFromBuffer=[selfcgImageFromSampleBu

ios - 使播放 Http 实时流媒体视频的 AVPlayer 静音

我想知道是否可以将播放HTTP直播视频的AVPlayer的声音静音?我已经尝试了几种方法,例如Apple方法来设置AVPlayer的音量explainedhere但它仅适用于本地文件...(参见Apple文档底部的说明)。thispost中解释的类似方法也不起作用。有解决办法吗?我真的不想将设备的声音静音,但只有一个视频,而其他播放器可以有自己的音频(用户可以在播放器之间平衡音频)。提前致谢。 最佳答案 iOS7.0现在支持使用[AVPlayersetVolume:(float)volume]它也适用于HTTPLiveStreami

iphone - AVQueuePlayer 过早开始下一项

我有一个AVQueuePlayer,并且在特定情况下,它会在上一首歌曲播放完毕之前开始播放下一首歌曲。它不会同时播放它们,它只是提前切出第一首轨道并开始下一首轨道。当两个轨道都是http流时肯定会发生这种情况,我在本地播放文件时没有尝试过。此外,这不会发生在每条轨道上。只有特定的两条轨道放在一起时才会导致问题。大多数轨道没有这个问题,但相当多的轨道有。其他媒体播放器在输入这些轨道时不会出现这些症状。显示症状的轨道必须是AAC编码的,我在流式传输MP3版本时没有这样的问题。AAC文件使用libfaac编码,VBR90%。对轨道进行编码的确切命令行:ffmpeg-loglevelerror

ios - AVFoundation 相机预览层不工作

所以,我正在尝试使用AVFoundation实现一个相机。我想我做的一切都是对的。这就是我正在做的创建session获取视频类型的设备遍历设备以获取背面的摄像头使用#3中提到的设备获取设备输入并将其添加到session中创建类型为AVCaptureStillImageOutput的输出设置输出设置并将其添加到session从我的View2中获取一个CALayer(下面将解释我所说的View2的含义)创建一个AVCaptureVideoPreviewLayer实例将其添加到#7中提到的图层开始运行session所以我有2个观点。上面的是View1,下面的是View2。View1应该提供自

ios - 修改 CMSampleBuffer 内容的最有效方法

我想修改CMSampleBuffer的内容,然后用AVAssetWriter/AVAssetWriterInput写入文件。我这样做的方法是创建一个CoreGraphics位图上下文,然后在其中绘图,但速度太慢了。具体来说,我需要将图像绘制到缓冲区中。那么,是否可以就如何更有效地执行此操作提供某种提示或建议?我想过用OpenGL来实现,即首先从CMSampleBuffer创建一个纹理A。然后将根据我要绘制的图像创建的纹理B渲染到纹理A中,然后从OpenGL检索支持纹理A的数据,最后将该数据交给AVAssetWriter/AVAssetWriterInput。但是文档说将纹理数据从GPU

objective-c - AVCaptureVideoPreviewLayer 不适用于 renderInContext

我有一个AVCaptureVideoPreviewLayer(可以很好地全屏显示视频),我试图在另一个我添加为subview的小View中显示一个小预览。为此,我尝试使用renderInContext,但我得到的只是“预览View”中的黑屏。[[self.captureView.layer.sublayersobjectAtIndex:0]renderInContext:context];任何其他层似乎工作正常并显示在我的“预览View”中,为什么AVCaptureVideoPreviewLayer没有? 最佳答案 AVCaptur

ios - 如何发布 MTAudioProcessingTap?

MTAudioProcessingTap的头文件说它的初始化和准备回调将由未准备和完成回调平衡。然而,在Apple'sexample,这些回调永远不会被调用(我向它们添加了日志记录以便我可以检查)。头文件说它们将在对象被释放时被调用。在Apple的示例中,Tap被传递到audioMixInputParameters中的保留参数,该参数被传递到音频混合中,不再公开访问:MTAudioProcessingTapRefaudioProcessingTap;if(noErr==MTAudioProcessingTapCreate(kCFAllocatorDefault,&callbacks,k

ios - 在 iOS 中连接两个音频文件(一个接一个)

我想将两个音频文件合并为一个。我完成了以下代码。请检查以下内容。-(BOOL)combineFiles{AVMutableComposition*composition=[[AVMutableCompositionalloc]init];AVMutableCompositionTrack*compositionAudioTrack=[compositionaddMutableTrackWithMediaType:AVMediaTypeAudiopreferredTrackID:kCMPersistentTrackID_Invalid];[compositionAudioTrackset