草庐IT

AVfoundation

全部标签

iphone - 如何使用 AVFoundation 组合不同方向的视频剪辑

我正在尝试使用AVFoundation将多个视频剪辑合并为一个。我可以使用下面的代码使用AVMutableComposition创建单个视频AVMutableComposition*composition=[AVMutableCompositioncomposition];AVMutableCompositionTrack*compositionVideoTrack=[compositionaddMutableTrackWithMediaType:AVMediaTypeVideopreferredTrackID:kCMPersistentTrackID_Invalid];AVMutab

ios - AVFoundation,如何关闭captureStillImageAsynchronouslyFromConnection时的快门声?

我正在尝试通过AVFoundation在相机的实时预览期间捕捉图像captureStillImageAsynchronouslyFromConnection.到目前为止,该程序按预期工作。但是,如何使快门声音静音? 最佳答案 我曾使用此代码捕获iOS默认快门声音(这里是声音文件名列表https://github.com/TUNER88/iOSSystemSoundsLibrary):NSString*path=@"/System/Library/Audio/UISounds/photoShutter.caf";NSString*do

ios - AVFoundation 导出方向错误

我正在尝试合并图像和视频。我让它们合并和导出,但它是侧向旋转的。抱歉,批量代码粘贴。我已经看到有关将转换应用到compositionVideoTrack.preferredTransform的答案,但是这没有任何作用。添加到AVMutableVideoCompositionInstruction也什么都不做。我觉得这个领域是事情开始出错的地方。这里这里://IfeellikethisloadinghereistheproblemletvideoTrack=videoAsset.tracksWithMediaType(AVMediaTypeVideo)[0]//becauseitmake

ios - 检查 AVFoundation 的资源何时可用

我正在使用AVFoundation并创建AVPlayer但出现了一些错误,如下所示。这是2个错误:2017-01-0615:51:19.974693DemoApp[11855:3855225]VideoplayerStatusFailed:playeritemerror=ErrorDomain=AVFoundationErrorDomainCode=-11839"CannotDecode"UserInfo={NSUnderlyingError=0x174253ef0{ErrorDomain=NSOSStatusErrorDomainCode=-12913"(null)"},NSLoca

ios - 是什么导致 AVMutableComposition 大幅增加视频的大小? - iOS、 swift 、AVFoundation

假设我们有两个视频Assets(AVAsset对象),我们称它们为blank和ma​​in,其中ma​​in是随机的视频长度有限,比方说2-5分钟,空白始终是4秒的视频,我们希望按以下顺序合并视频:空白-主要-空白//CreateAVMutableCompositionObject.ThisobjectwillholdourmultipleAVMutableCompositionTrack.letmixComposition=AVMutableComposition()letassets=[blank,main,blank]vartotalTime:CMTime=CMTimeMake(

ios - 使用 AVFoundation Swift 保存视频

您好,我学习了JaredDavidson的类(class),使用AVFoundation创建自定义相机View并保存图片。https://www.youtube.com/watch?v=w0O3ZGUS3pk但是我想录制和保存视频而不是图像。有人可以帮我吗?我确信它很简单,但苹果的文档是用Objective-C编写的,我无法解读它。这是我的代码。谢谢。importUIKitimportAVFoundationclassViewController:UIViewController{varcaptureSession=AVCaptureSession()varsessionOutput=

ios - 如何在 Swift 中使用 avfoundation 录制视频?

我想弄清楚如何在Swift中使用AVFoundation录制视频。我已经创建了一个自定义相机,但我只知道如何用它拍摄静态照片,但我不知道如何录制视频。据我了解,您必须使用AVCaptureVideoDataOutput从录制中获取数据,但我不知道如何开始录制和实现委托(delegate)方法。整个AVFoundation编程指南/静态和视频媒体捕获都在Objective-C中,我似乎无法破译它。这是我完成此任务的尝试:首先我设置了相机/捕获sessionoverridefuncviewDidLoad(){super.viewDidLoad()captureSession.session

ios - 使用AVFoundation捕获视频

我一直在Stack上四处寻找,但发现了与此类似的问题,但没有一个对我有用。我是Swift3.0的完全新手。本质上,我想做的是使用AVFoundation录制视频。到目前为止,我已经成功捕获了静止图像,这是到目前为止的代码funcbeginSession(){do{letdeviceInput=tryAVCaptureDeviceInput(device:captureDevice)asAVCaptureDeviceInputifcaptureSession.inputs.isEmpty{self.captureSession.addInput(deviceInput)}stillIma

iphone - ios 使用 AVFramework 捕获图像

我正在使用此代码捕获图像#pragmamark-imagecapture//Createandconfigureacapturesessionandstartitrunning-(void)setupCaptureSession{NSError*error=nil;//CreatethesessionAVCaptureSession*session=[[AVCaptureSessionalloc]init];//Configurethesessiontoproducelowerresolutionvideoframes,ifyour//processingalgorithmcancop

iphone - ios 使用 AVFramework 捕获图像

我正在使用此代码捕获图像#pragmamark-imagecapture//Createandconfigureacapturesessionandstartitrunning-(void)setupCaptureSession{NSError*error=nil;//CreatethesessionAVCaptureSession*session=[[AVCaptureSessionalloc]init];//Configurethesessiontoproducelowerresolutionvideoframes,ifyour//processingalgorithmcancop