我正在尝试使用AVFoundation实现三种录制模式:音频、视频和照片。音频和视频工作正常,但问题是,如果我将session预设设置为AVCaptureSessionPreset352x288,静态图片也会以该分辨率保存。如果我将我的session预设更改为AVCaptureSessionPresetPhoto,那么照片看起来不错,但视频停止工作,因为这不是视频支持的预设。我试过创建多个session、重新分配session预设等,但似乎没有任何效果。谁有办法让低分辨率的视频和全分辨率的静止图像一起工作? 最佳答案 在拍照之前设置
我必须在我的应用中播放一系列视频。我正在使用AVQueuePlayer使用代码播放视频:AVQueuePlayer*queuePlayer=[[AVQueuePlayeralloc]initWithItems:items];AVPlayerLayer*myPlayerLayer=[AVPlayerLayerplayerLayerWithPlayer:queuePlayer];myPlayerLayer.frame=CGRectMake(0,0,320,350);[self.view.layeraddSublayer:myPlayerLayer];[self.queuePlayerpla
我正在尝试使用Apple的新功能AVMetadataFaceObject在我的ios6应用程序中,可让您识别面孔。基本上,他们想要实现的是创建AVCaptureMetadataOutput对象并将其设置为现有的AVAVCaptureSession作为输出。所以,我从这个link得到了squarecamApple的示例代码我试过这样创建对象:CaptureObject=[[AVCaptureMetadataOutputalloc]init];objectQueue=dispatch_queue_create("VideoDataOutputQueue",NULL);//dispatch_
我目前正在开发一个iOS应用程序,它可以合并所需数量的视频。一旦用户点击按钮合并视频,视频就会合并,然后使用AVPlayer播放:CMTimenextClipStartTime=kCMTimeZero;NSIntegeri;CMTimetransitionDuration=CMTimeMake(1,1);//Defaulttransitiondurationisonesecond.//Addtwovideotracksandtwoaudiotracks.AVMutableCompositionTrack*compositionVideoTracks[2];AVMutableCompos
我是iOS开发的新手,我正在努力实现一些目标,但我运气不好,找不到好的资源。我想将字幕嵌入到项目的视频文件中。用户录制视频,录制后他输入一些句子,他输入的文本作为字幕嵌入到视频中,一次一个单词。我认为这是通过AVFoundation实现的,但令我惊讶的是,除了Apple的文档外,关于AVFoundation的信息相对较少(当你想嵌入字幕时,它没有多大用处。)如何才能做到这一点?我需要如何格式化文本输入以使其成为字幕轨道?如何将该字幕轨道嵌入视频文件并将其导出,以便视频始终带有字幕?我希望这里有人知道这些事情..提前致谢。 最佳答案
我需要获取视频的屏幕截图。我正在使用以下方法:-(UIImage*)screenshotFromPlayerItem:(AVPlayerItem*)playeratTime:(CMTime)time{CMTimeactualTime;NSError*error;AVAssetImageGenerator*generator=[[AVAssetImageGeneratoralloc]initWithAsset:player.asset];CGImageRefcgIm=[generatorcopyCGImageAtTime:timeactualTime:&actualTimeerror:&
我正在创建一个使用AVFoundation的相机应用程序。当我用我的AVCaptureStillImageOutput对象拍照时,它会发出与默认相机相同的“快门”噪音,而无需我告诉AVCaptureStillImageOutput这样做,这很棒。我想知道的是,是否有可能让AVCaptureMovieFileOutput发出与用户通过相机应用程序开始/停止录制视频时听到的相同的“叮”声?如果没有,我想我需要在应用程序的bundle中加入自己的噪音,并在用户开始/停止录制时播放它...提前致谢! 最佳答案 是的,你可以:AudioSer
我正在使用专为iPhone直播而制作的私有(private)图书馆。在每次记录每一帧时,它都会调用一个delegate函数voidMyAQInputCallback(void*inUserData,AudioQueueRefinQueue,AudioQueueBufferRefinBuffer,constAudioTimeStamp*inStartTime,UInt32inNumPackets,constAudioStreamPacketDescription*inPacketDesc);NowhowIcanappendthisinBuffertomyAVAssetWriterInpu
我在iOS7中使用AVFoundation和AVCaptureMetadataOutput扫描QR条形码,我展示了一个允许用户扫描条形码的ViewController。它工作正常,即。正在扫描条形码,我可以将条形码字符串输出到控制台。但它会一遍又一遍地扫描,请看屏幕截图。我想要它做的是只扫描一次条形码,然后关闭ViewController。这是我的委托(delegate)方法代码:-(void)captureOutput:(AVCaptureOutput*)captureOutputdidOutputMetadataObjects:(NSArray*)metadataObjectsfr
我正在尝试使用以下方法将我的相机曝光设置设置为默认配置setExposurePointOfInterest:CGPointMake(0.5,0.5)这与setExposurePointOfInterest:CGPointMake(0.5f,0.5f)如果我使用没有float的CGPoint,它会导致自动曝光行为发生变化吗? 最佳答案 这里的结果是完全一样的。CGPointMake()函数声明为采用CGFloat值(在32位上定义为float,在64位上定义为double值)。如果您传入不同类型的值,它们将被隐式转换为您。由于您的值(