草庐IT

AVfoundation

全部标签

ios - CMTimeMakeWithSeconds 中的首选时间刻度

我正在实现自定义相机,为此我想设置曝光持续时间。我设置slider属性的代码是-slider.maximumValue=Float(CMTimeGetSeconds(camera.activeFormat.maxExposureDuration))slider.minimumValue=Float(CMTimeGetSeconds(camera.activeFormat.minExposureDuration))现在每当更改slider时设置曝光时间就会出现问题。我的代码看起来像这样-change(duration:CMTimeMakeWithSeconds(Double(slider

ios - 使用 AVAudioEngine 离线渲染音频文件

我想录制音频文件并通过应用一些效果来保存它。录音还可以,用效果播放这段音频也可以。问题是当我尝试离线保存此类音频时,它会生成空音频文件。这是我的代码:leteffect=AVAudioUnitTimePitch()effect.pitch=-300self.addSomeEffect(effect)funcaddSomeEffect(_effect:AVAudioUnit){try?AVAudioSession.sharedInstance().setCategory(AVAudioSessionCategoryPlayAndRecord,with:.defaultToSpeaker)

ios - 用于 MIDI 播放和录音的 AVAudioEngine 同步

问题1我的第一个问题涉及使用AVAudioPlayerNode和AVAudioSequencer进行MIDI时的播放同步。基本上我正在尝试通过MIDI播放一些东西,但它们需要完美同步。我知道AVAudioPlayerNode有同步方法,但音序器似乎没有类似的方法。目前我已经尝试在单独的线程上使用CAMediaTime()+delay和usleep,但它们似乎工作得不是很好。问题2我正在使用engine.inputNode上的点击来获取录音,与音乐播放分开。不过,好像录音开始得更早了。当我将录制的数据与原始播放进行比较时,差异约为300毫秒。我可以在300毫秒后开始录制,但即便如此,这也

ios - 使用 AudioMixInputParameters AVFoundation 为每个视频轨道设置多个音量在 Swift iOS 中不起作用

我正在Swift中开发基于Video的Application。根据要求,我必须从DeviceGallery中选择多个Videos,设置不同的CIFilter效果和Volume对于每个VideoAsset,然后合并所有Videos并且必须保存FinalVideo。作为输出,当我播放FinalVideo时,Video声音volume应该相应地改变。我已经将所有选定的VideoAssets合并到一个具有不同CIFilter效果的文件中,但我的问题是当我尝试设置Volume对于每个VideoClips然后它不工作。我正在为我的FinalVideo使用默认的Volume。这是我的代码:funca

ios - AVSpeechSynthesizer 需要在重新开始之前完成

如果我有一个按钮,每次按下它时AVSpeechSynthesizer都会说“HelloWorld”,那么在完成第一个文本到语音字符串之前,声音不会再次开始说话。我如何选择以下两个选项?当我点击按钮时,让它打断之前的语音字符串并重新开始让它在前一个之上说话(即多个声音同时说话)这就是我现在正在做的事情。使用这个,按钮不会再次开始说话,直到前一个按钮按下结束说话:@IBActionfunchelloButton(sender:AnyObject){letutterance=AVSpeechUtterance(string:"HelloWorld")letsynthesizer=AVSpee

ios - AVCapturePhotoOutput isFlashScene 键值观察

我正在关注Apple的最新示例代码AVCamSwift,该代码已更新为使用AVCapturePhotoOutput。varisFlashScene:Bool{get}ABooleanvalueindicatingwhetherthescenecurrentlybeingpreviewedbythecamerawarrantsuseoftheflash.Thisproperty’svaluechangesdependingonthescenecurrentlyvisibletothecamera.Forexample,youmightusethispropertytohighlightt

objective-c - SeekToTime 只为前进顺利工作,向后卡住

我知道有很多帖子,但没有一个有帮助。我的设备上有不同FPS的视频(如果有关系的话)。我正在计算准确的CMTime(如果我们将它们转换为秒,它们将为10.33333、10.4444等)。我正在寻找使用此代码:self.player.seekToTime(time,toleranceBefore:kCMTimeZero,toleranceAfter:kCMTimeZero)它只能顺畅地向前运行,而向后则不然。有什么想法吗? 最佳答案 这是因为压缩视频使用“关键帧”。关键帧是完全渲染的视频帧,但并非每一帧都是关键帧。关键帧之后的帧仅存储为

ios - AVCaptureVideoPreviewLayer 的比例

我目前正在我的Swift应用程序中处理QR扫描View。我想将VideoPreview置于View中间。View看起来像这样:View(白色)称为ScanView,我想让图像预览与ScanView大小相同并将其居中。代码片段:感谢您的帮助! 最佳答案 这是一个可行的解决方案:importUIKitimportAVFoundationclassViewController:UIViewController,AVCaptureVideoDataOutputSampleBufferDelegate,AVCaptureMetadataOut

swift - 使用 AVMutableComposition 难以合并两个视频

我正在开发一个项目,我试图使用AVMutableComposition将两个AVAsset(视频文件)合并在一起。我的视频文件保存到我的相机胶卷时,都完全符合预期。他们的URL是有效的,但我最终导出的产品只显示第一个视频,而不是第二个合并的视频。这是我正在使用的代码://SetupvideoassetletvideoAsset:AVAsset=AVAsset(url:clip1)//Setupcompositionletcomposition=AVMutableComposition()//Getvideotrackletvtrack=videoAsset.tracks(withMed

Swift:使用 AVPlayer 播放音频 - 音频未播放,听不到音频

我正在使用AVPlayer仅播放mp3音频文件。我正在使用我测试过并且工作正常的url。我需要使用AVPlayer,因为我需要以编程方式设置UISlider,而且AVPlayer很方便。UISlider在音频播放时工作和更新。音频可能正在播放,但我听不到声音。我这样说是因为UISlider正在工作。更新:您可以在模拟器上构建应用程序时听到音频。在设备上构建它时出现问题-我的是XSMAX。屏幕录制链接->访问:https://streamable.com/nkbn8我已经尝试使用与AVAudioPlayer相同的URL和音频播放,你可以听到它。privatefuncsetupAudioC