草庐IT

CMSampleBufferRef

全部标签

c++ - 从 AudioInputIOProc 创建 CMSampleBufferRef

我有一个AudioInputIOProc,我正在从中获取一个AudioBufferList。我需要将此AudioBufferList转换为CMSampleBufferRef。这是我到目前为止编写的代码:-(void)handleAudioSamples:(constAudioBufferList*)samplesnumSamples:(UInt32)numSampleshostTime:(UInt64)hostTime{//CreateaCMSampleBufferReffromthelistofsamples,whichwe'llownAudioStreamBasicDescript

ios - 将 CMSampleBufferRef 缓冲到 CFArray 中

我正在尝试将从iPhone的摄像机接收到的150CMSampleBufferRef收集到数组中。相机在13个缓冲区后以某种方式停止调用委托(delegate)。我尝试使用NSMutableArray、CFArray。没有任何帮助。我怀疑它与内存有关,但我对内存警告一无所知。我很乐意为此提供一些帮助。先谢谢了。session=[[AVCaptureSessionalloc]init];//QualityPresetif([sessioncanSetSessionPreset:AVCaptureSessionPresetLow]){session.sessionPreset=AVCaptu

ios - 裁剪 CMSampleBufferRef

我正在尝试将CMSampleBufferRef中的图像裁剪为特定大小。我正在执行5个步骤-1.从SampleBuffer获取PixelBuffer2.将PixelBuffer转换为CIImage3.裁剪CIImage4.将CIImage渲染回PixelBuffer5.将PixelBuffer附加到SampleBuffer。到目前为止,我在第4步时遇到问题-将图像渲染回PixelBuffer(不能检查超出这一点)没有渲染到缓冲区(我使用相同的CIImageimageWithCVPixelBuffer检查它并得到NULL作为返回)。非常感谢任何提示或帮助。CGRectcropRect=CG

ios - Replaykit,startCaptureWithHandler() 不在 captureHandler 中发送 Video 类型的 CMSampleBufferRef

我已经实现了一个RPScreenRecorder,它可以记录屏幕和麦克风音频。完成多个录制后,我停止录制并使用AVMutableComposition将音频与视频合并,然后合并所有视频以形成单个视频。对于屏幕录制和获取视频和音频文件,我正在使用-(void)startCaptureWithHandler:(nullablevoid(^)(CMSampleBufferRefsampleBuffer,RPSampleBufferTypebufferType,NSError*_Nullableerror))captureHandlercompletionHandler:用于停止录制。我调用这

ios旋转,过滤ios中的视频流

你好,我正在视频直播中通过GPUImage旋转和应用图像过滤器该任务消耗的时间比预期的要多,导致iPhone过热谁能帮我优化我的代码以下是我使用的代码:-(void)willOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer{//returnifinvalidsamplebufferif(!CMSampleBufferIsValid(sampleBuffer)){return;}//GetCGImagefromsamplebufferCGImageRefcgImageFromBuffer=[selfcgImageFromSampleBu

ios - 在 iOS 上将 PCM (CMSampleBufferRef) 编码为 AAC - 如何设置频率和比特率?

我想将PCM(CMSampleBufferRef(s)goinglivefromAVCaptureAudioDataOutputSampleBufferDelegate)编码成AAC。当第一个CMSampleBufferRef到了,我设置了(进/出)AudioStreamBasicDescription(s),根据文档“out”AudioStreamBasicDescriptioninAudioStreamBasicDescription=*CMAudioFormatDescriptionGetStreamBasicDescription((CMAudioFormatDescripti

ios - 创建无声音频 CMSampleBufferRef

如何在Swift中创建无声音频CMSampleBufferRef?我希望将静默CMSampleBufferRef附加到AVAssetWriterInput的实例。 最佳答案 你没有说你想要什么格式的零(整数/float、单声道/立体声、采样率),但也许这并不重要。无论如何,这是一种快速创建无声CD音频风格CMSampleBuffer的方法。funccreateSilentAudio(startFrm:Int64,nFrames:Int,sampleRate:Float64,numChannels:UInt32)->CMSampleB

Mac OS 使用Metal渲染NV12、YUV420、CMSampleBufferRef视频

MacOS使用Metal渲染NV12、YUV420、CMSampleBufferRef视频需求MTKView初始化摄像头采集CMSampleBufferRef渲染CMSampleBufferRefyuv420转NV12渲染NV12END资料较少,整合后仅作为记录学习使用。需求yuv420原始视频数据使用metal渲染。MTKView初始化vector_uint2viewportSize;MTKView*mMtkview;idMTLDevice>mDevice;idMTLCommandQueue>mCmdQueue;idMTLRenderPipelineState>mPipeline;idMTL

iphone - 从 CVPixelBuffer Reference 获取所需数据

我有一个程序可以实时查看相机输入并获取中间像素的颜色值。我使用captureOutput:方法从AVCaptureSession输出(恰好被读取为CVPixelBuffer)中获取CMSampleBuffer,然后使用以下代码获取像素的rgb值://GetaCMSampleBuffer'sCoreVideoimagebufferforthemediadataCVImageBufferRefimageBuffer=CMSampleBufferGetImageBuffer(sampleBuffer);//LockthebaseaddressofthepixelbufferCVPixelBu

iphone - 从 CVPixelBuffer Reference 获取所需数据

我有一个程序可以实时查看相机输入并获取中间像素的颜色值。我使用captureOutput:方法从AVCaptureSession输出(恰好被读取为CVPixelBuffer)中获取CMSampleBuffer,然后使用以下代码获取像素的rgb值://GetaCMSampleBuffer'sCoreVideoimagebufferforthemediadataCVImageBufferRefimageBuffer=CMSampleBufferGetImageBuffer(sampleBuffer);//LockthebaseaddressofthepixelbufferCVPixelBu