草庐IT

AVfoundation

全部标签

ios - 视频不再录制音频 (PBJVision/AVFoundation)

我有一个应用程序(企业、分布式OTA),其中包括录制视频剪辑。突然间,我们开始收到缺少音频的视频上传,现在这个问题似乎完全可以重现。我一直在使用PBJVision库,它似乎工作得很好,但我也用SwiftyCam(另一个基于AVFoundation的库)测试了它,结果相同。目前还不清楚这是何时引入的,但我检查了以下内容:确保在目标.plist中设置了NSMicrophoneUsageDescription确保摄像头和麦克风权限在系统设置中显示为已授予尝试在设置中禁用麦克风权限(应用会正确提示用户重新启用权限)尝试使用较早版本的视频捕获库以防回归尝试不同的视频捕获库为PBJVision/S

ios - 无法演奏非常简单的音调

我正在关注thisquestion,但我尝试使用AVAudioPCMBuffer播放的音调没有播放。代码非常简单:classPlayer:NSObject{varengine=AVAudioEngine()varplayer=AVAudioPlayerNode()varmixer:AVAudioMixerNode!varbuffer:AVAudioPCMBuffer!overrideinit(){mixer=engine.mainMixerNodebuffer=AVAudioPCMBuffer(pcmFormat:player.outputFormat(forBus:0),frameC

ios - AVAudioEngine实时调频

我想实时修改传入信号并将其发送到iOS设备扬声器。我读过AVAudioEngine可用于此类任务。但是找不到我想要实现的目标的文档或示例。为了测试目的,我做了:audioEngine=AVAudioEngine()letunitEffect=AVAudioUnitReverb()unitEffect.wetDryMix=50audioEngine.attach(unitEffect)audioEngine.connect(audioEngine.inputNode,to:unitEffect,format:nil)audioEngine.connect(unitEffect,to:au

swift - 8000 PCM格式的AVAudioEngine如何录音播放?

我想将此代码用于VoIP服务。我正在使用网络套接字并用它发送:letdata=self.toNSData(PCMBuffer:buffer)和播放:letaudioBuffer=self.toPCMBuffer(data:data)在另一台设备中)我用过:https://github.com/Lkember/IntercomTest并进行了工作,但数据量很大。我感觉41100速率对于发送数据来说是一个非常大的大小,我想将较低速率的缓冲区大小减少到8000。但我不知道如何在不引起错误的情况下降低采样率!我失败的代码如下:@IBActionfuncstart(_sender:Any){va

ios - 为什么 AVAsset 状态变化的观察者不起作用?

我实现了以下codefromApple.它旨在观察playerItem状态的变化。问题是由于某种原因它不起作用。观察函数在就绪时不会运行。所有相关代码如下:funcpreloadVideo(media:Media){//setupcode,andthen:media.playerItem1!.addObserver(self,forKeyPath:#keyPath(AVPlayerItem.status),options:[.old,.new],context:&playerItemContext)}观察方法:privatevarplayerItemContext=0overridef

swift - 卡特琳娜测试版 5 : Quicktime Audio Recording Not Working on 2018 Macbook Pros sw

在2018年或更高版本的MacbookPro上使用CatalinaDevBeta5开始Quicktime音频录制时输出的文件没有声音(选择MacbookPro麦克风)。此处的示例文件:https://www.dropbox.com/s/ib67k0vg8cm93fn/test_no_audio%20%281%29.aifc?dl=0在录制过程中录制控制台显示此错误:“CMIO_Unit_Converter_Audio.cpp:590:RebuildAudioConverterAudioConverterSetProperty()失败(1886547824)”我们有一个使用AVFound

iOS HLS (Http Live Streaming) 从低带宽开始。

如何选择低/中带宽以从变体播放列表开始HLS流式传输(使用AVFoundation)。我假设它会根据可达性/连接和客户端带宽动态地自动切换到更高分辨率。但是你如何确保流媒体以低/中比特率开始?顺便说一句,我注意到Coursera的(iOS应用程序)视频播放器做同样的事情。 最佳答案 它总是从变体播放列表中的第一个条目开始:Thefirstentryinthevariantplaylistwillbeplayedattheinitiationofastreamandisusedaspartofatesttodeterminewhich

ios - CVPixelBufferCreateWithPlanarBytes 返回 -6661 (kCVReturnInvalidArgument)

我正在尝试对CVPixelBuffer进行深度复制。我收到错误kCVReturnInvalidArgument或值-661。我已经验证了每个参数的类型和数组的长度,但我找不到我编码错误的地方。我希望有人会发现它。代码如下:funcclonePixelBuffer(pixelBuffer:CVPixelBuffer)->CVPixelBuffer?{CVPixelBufferLockBaseAddress(pixelBuffer,0)letheight=CVPixelBufferGetHeight(pixelBuffer)letwidth=CVPixelBufferGetWidth(pi

swift - x 秒后触发 iphone 视频录制

在一个swift应用程序中,我想在等待10秒后开始用相机录制视频。一旦10秒等待结束,将调用此函数:funcstartRecording(){//triggervideorecording}到目前为止,当用户点击“录制视频按钮”时,它会显示相机界面,然后用户必须点击内置的录制按钮:@IBActionfuncrecordVideo(sender:AnyObject){if(UIImagePickerController.isSourceTypeAvailable(.Camera)){ifUIImagePickerController.availableCaptureModesForCam

swift - AUAudioUnit 和 AudioUnit 有什么区别

我看到了WDC2016conference关于CoreAudio,DougWyatt在第29分钟开始谈论实时音频。因为我正在开发一个高性能的音频应用程序,所以我需要这样做。但是我注意到他使用了AUAudioUnit但是在我的C应用程序中(我更喜欢使用C/C++来编写音频代码并且我遵循ChrisAdamsonadvices)。所以我有3个问题:AudioUnit和AUAudioUnit有什么区别?据我所知,我读到一个音频单元是AudioComponent.h中定义的AudioComponentInstance类型,而AUAudioUnit将是它的包装类。为什么我不能在C/C++项目中使用