草庐IT

AVfoundation

全部标签

ios - swift 3 一起使用语音识别和 AVFoundation

我成功地使用了Speech(语音识别)并且我可以使用AVFoundation在Xcode8/IOS10中播放wav文件。我只是不能同时使用它们。我有导入语音的工作语音识别代码。当我将AVFoundation导入同一个应用程序并使用以下代码时,没有声音,也没有生成错误:varaudioPlayer:AVAudioPlayer!funcplayAudio(){letpath=Bundle.main.path(forResource:"file.wav",ofType:nil)!leturl=URL(fileURLWithPath:path)do{letsound=tryAVAudioPla

iphone - 从 AVCaptureAudioDataOutputSampleBufferDelegate 播放音频

我正在使用AVCaptureAudioDataOutputSampleBufferDelegate捕获音频_captureSession=[[AVCaptureSessionalloc]init];[self.captureSessionsetSessionPreset:AVCaptureSessionPresetLow];//SetupAudioinputAVCaptureDevice*audioDevice=[AVCaptureDevicedefaultDeviceWithMediaType:AVMediaTypeAudio];AVCaptureDeviceInput*captur

ios - 使用嵌入式 HTTP 代理缓存流视频?

例如,有几个人尝试使用AVPlayer或MPMoviePlayerController来缓存预加载的视频数据CachingwithAVPlayerandAVAssetExportSessionAccessthedataofAVPlayerwhenplayingvideofromHTTPLiveStreaming最直接的方法似乎是在播放器的currentItem上使用AVExportSession,但似乎没有人能够让它工作。我的问题是:是否可以透明地代理设备上的视频请求,使用由基于磁盘的缓存支持的嵌入式HTTP服务器?我可以运行一个嵌入式网络服务器(GCDWebServer),所以我的问

ios - 如何让我的视频背景继续使用 swift 播放?

我有一个视频作为我的着陆ViewController的背景播放,每当我退出应用程序然后重新进入时,视频会卡住,直到我转到另一个View并返回,或者只是重新启动应用程序它正常播放。如何让它在应用程序退出并重新进入时继续播放?逻辑是这样的:importUIKitimportAVFoundationclassFirstViewController:UIViewController{varplayer:AVPlayer?overridefuncviewDidLoad(){super.viewDidLoad()letpath=NSBundle.mainBundle().pathForResour

ios - 处理视频和写入文件的最佳性能方法 - ios AVFoundation

我想读入磁盘上的视频资源并对其进行一系列处理,例如在每个单独的帧上使用CICropFilter并剪切一个mask,将一个视频分成几个较小的视频视频,并从原始轨道中删除帧以“压缩”它并使其更像gif。我想出了几个可能的途径:AVAssetWriter和AVAssetReader在这种情况下,我将从文件中读取CMSampleBuffer,执行我想要的操作,然后使用AVAssetWriter写回新文件。AVMutableComposition在这里,给定一个CMTimes列表,我可以轻松地剪切帧并重写视频,甚至为我想创建的每个新视频创建多个合成,然后使用导出所有这些AVAssetExport

swift - AVFoundation:如何实时将视频写入文件而不是使用 exportAsync?

AVFoundation对我来说是一个相当困难的过程,因为那里的大多数示例和文档都在Obj-c中。正如我的标题所述,我想实时写入文件,而不是在用户拥有后调用exportAsync完成录制他们的视频。如果有人可以就如何执行此操作提供一些建议或文档,我们将不胜感激! 最佳答案 不清楚您的视频来自何处,但exportAsync听起来像是您正在对现有文件或合成使用AVAssetExportSession。捕捉您的视频(和音频?)帧一个。如果来自现有的组合或文件,使用AVAssetReaderb.如果来自相机,使用AVCaptureSessi

swift - iOS - Swift - 录制时的一些音频达到最大允许长度

我在Swift中实现了一个录像机作为iOS应用程序的一部分,我将视频输出的maxRecordedDuration设置为4秒(每秒30帧):self.videoOutput?.maxRecordedDuration=CMTimeMakeWithSeconds(4,30)当用户开始录制时,可能会发生两种情况:用户决定在达到最大录制持续时间之前停止录制。在用户停止视频录制之前达到最大录制持续时间。两种情况中的任何一种funccaptureOutput(captureOutput:AVCaptureFileOutput!,didStartRecordingToOutputFileAtURLfi

swift 3 : issue with AVVideoCompositionCoreAnimationTool to add watermark on video

以下代码可以完美地使用AVVideoCompositionCoreAnimationTool向视频添加Logo和文本。然后Swift3来了!现在有时视频会显示带有Logo和文本,有时视频在导出时不显示。letvideoComposition:AVMutableVideoComposition=AVMutableVideoComposition()videoComposition.frameDuration=CMTimeMake(1,60)videoComposition.renderSize=CGSize(width:clipVideoTrack.naturalSize.height,

ios - 无论 UIViewContentMode 选择如何,部分屏幕视频预览都会失真

我正在尝试制作一个简单的应用程序,它将在iPhone屏幕的上半部分显示后置摄像头所见内容的原始预览,而在下半部分显示相同的预览,但应用了各种滤镜。我首先让原始预览部分开始工作,由于几篇SO和博客文章,我并不太难。我正在显示的UIImageView占据了该部分的整个屏幕。为了获得半屏View,我只需将ImageView的高度除以二,然后设置其contentMode以显示所有内容,同时保持相同的纵横比:imageView=UIImageView(frame:CGRectMake(0,0,self.view.frame.size.width,self.view.frame.size.heig

ios - 尝试从 PHAsset 获取 AVAssetExportSession 的输出时得到空结果

我正在尝试构建一个小型玩具iOS应用程序,合并用户照片库中的两个视频资源。我已经到了使用AVMutableComposition合并视频的地步。例如,现在我需要导出合成。我正在使用以下代码这样做:funcsaveEditedComposition(_composition:AVMutableComposition){letdocumentDirectory=NSSearchPathForDirectoriesInDomains(.documentDirectory,.userDomainMask,true)[0]letsavePath=(documentDirectoryasNSStr