草庐IT

AVfoundation

全部标签

ios - AVCaptureSession 和预览层不填满整个屏幕

所以,我尝试在我的应用程序中使用手机上的摄像头,我成功了,但不幸的是,在使用预览时,图层没有填满整个屏幕Hereisanimagetoshowyouwhatitlookslike这是我的代码:ifletpreviewLayer=AVCaptureVideoPreviewLayer(session:captureSession){self.previewLayer=previewLayerself.view.layer.addSublayer(self.previewLayer)self.previewLayer.frame=self.view.layer.framecaptureSes

ios - 使用 AVFoundation 像在屏幕上一样捕获图像预览

我设置了AVCaptureSession预设PhotoPresetself.session.sessionPreset=AVCaptureSessionPresetPhoto;然后在我的View中添加一个新层AVCaptureVideoPreviewLayer*previewLayer=[[AVCaptureVideoPreviewLayeralloc]initWithSession:self.session];[previewLayersetVideoGravity:AVLayerVideoGravityResizeAspectFill];CALayer*rootLayer=[sel

ios - 在 iOS 中拍摄没有相机 View 的照片

有没有办法在不将相机View推到屏幕上的情况下使用iPhone相机拍照?通常会有带有“拍照”按钮和一些缩放控件的相机View。但是我想制作一个在后台拍摄多张图像的过程。这在iOS中可行吗? 最佳答案 所以这里是引用https://developer.apple.com/library/mac/documentation/AudioVideo/Conceptual/AVFoundationPG/Articles/04_MediaCapture.html#//apple_ref/doc/uid/TP40010188-CH5-SW2Tom

objective-c - 使用 AVFoundation 捕获和播放新的媒体类型

我有一个非常不标准的AVFoundation问题,作为iOS世界的相对新手,我真的可以使用专家的一些指导-我正在开发一个应用程序,它允许用户记录我需要使用AVMutableComposition以编程方式安排的音频位。事情是这样的,除了我想要捕获和保存加速度计数据并使其与声音同步的音轨之外。通常AVFoundation用于已知的媒体类型,如静态照片、音频和视频,但我想知道使用此框架捕获诸如加速度计数据之类的东西是否可行。这将使我更容易将传感器数据与捕获的音频同步,尤其是在使用AVMutableComposition将这些部分放在一起时。这是我需要完成的:将加速度计数据记录为AVAsse

ios - Mac OS X 10.7 Lion 上核心动画的 AVFoundation 问题

在MacOSX10.7中,Apple引入了AVFoundation,我正在尝试生成一个包含动画形状的简单快速影片。问题是核心动画没有渲染,我最终只有一个空白的“黑色”视频。下面是我使用的代码。我尝试了很多变体,但遗憾的是,它们都不起作用。导出状态始终为“已完成”。奇怪的是,UIView包含另一个层设置,但添加到AVSynchronizedLayer的方式相同,它显示得很好,我可以在动画中来回滑动。//NOTE:compositionisanAVMutableCompositioncontainingasinglevideo//track(30sofblackin1280x720).//

ios - 在 iOS 上的不同时间播放音频文件和暂停

假设我有一个音频文件和关于该音频文件特定片段的时间信息集合,即它们的开始时间和结束时间。我想要做的是按顺序播放音频文件,从开头开始逐段移动文件。例如,假设我有如下数据:第1段-开始时间:1.0秒,结束时间:3.4秒第2段-开始时间:3.4秒,结束时间:5.0秒第3段-开始时间:7.8秒,结束时间:9.5秒...我想按顺序逐段播放音频文件。它将从1.0秒开始进入文件,播放到3.4秒,然后暂停并等待用户按下按钮。一旦用户按下按钮,它将从3.4秒播放到5.0秒,然后从7.8秒播放到9.5秒,等等......用户还可以“删除”音频(但不能在片段之间的间隙内),因此虽然我按顺序播放,但有可能返回

iphone - 在 iOS 上将两个 mpeg-2 传输流文件合并为一个媒体文件

Mediafilesegmenter是Apple提供的工具它可以将一个媒体文件分成一系列小的mpeg-2传输流文件,用于HTTPLiveStreaming现在,我想做一个反向的工作:将所有的mpeg-2传输流文件合并成一个媒体文件(mp4)供iPhone播放我一直在尝试使用AVFoundation类-AVURLAsset、AVMutableComposition、AVMutableCompositionTrack等。我的代码是这样的:AVURLAsset*asset=[[AVURLAssetalloc]initWithURL:mpeg2tsMediaURL];NSLog("durati

iphone - 无法使用 CALayer for iphone 创建 ken burns 效果

最近几天我一直在尝试使用带有动画的CALayer创建kenburns效果,然后将其保存到视频文件中。我的图像层位于另一个1024x576的层内。所有动画都应用于图像层。这是目前的代码:-(CALayer*)buildKenBurnsLayerWithImage:(UIImage*)imagestartPoint:(CGPoint)startPointendPoint:(CGPoint)endPointfromScale:(float)fromScaletoScale:(float)toScale{floatcalFromScale=fromScale+1;floatcalToScale

ios - 可以在启动相机应用程序时控制白平衡模式吗? (iOS)

这只是我一直在尝试试验的一个问题。我知道在我拥有的大多数(如果不是全部)相机应用程序中,iphone相机以连续(2)白平衡开始,如AVFoundation框架中的AVCaptureDevice.h所示:enum{AVCaptureWhiteBalanceModeLocked=0,AVCaptureWhiteBalanceModeAutoWhiteBalance=1,AVCaptureWhiteBalanceModeContinuousAutoWhiteBalance=2,};但是无论如何我可以强制它以锁定白平衡模式启动吗?我似乎找不到它在哪里规定了这种情况。我已经尝试将它包含在我的捕获

ios - 修改曝光持续时间并返回 AVCaptureExposureModeContinuousAutoExposure 后的奇怪行为

我正在开发一个应用程序,该应用程序使用iOS8中引入的新API公开相机的手动控制,我正在使用这个sampleapp来自WWDC2014作为引用。但是我注意到一个奇怪的行为(在我的5s和6上):将曝光模式设置为“自定义”然后返回“自动”后,图像继续滞后,好像曝光持续时间不受此影响改变。以下是每个步骤中涉及的代码(来自示例应用程序,未经任何修改):-(IBAction)changeExposureMode:(id)sender{UISegmentedControl*control=sender;NSError*error=nil;AVCaptureExposureModemode=(AVC