草庐IT

AudioBuffer

全部标签

javascript - Web 音频 API 获取 <audio> 元素的 AudioBuffer

我有一个音频元素varaudioSrc='https://mfbx9da4.github.io/assets/audio/dope-drum-loop_C_major.wav'varaudio=document.createElement('audio')audio.src=audioSrc我需要AudioBuffer做beatdetection所以我尝试在加载音频时访问缓冲区:audio.oncanplaythrough=()=>{console.info('loaded');varsource=context.createMediaElementSource(audio);sour

javascript - 在树莓派上使用 node.js 进行和弦音频播放

我一直在尝试在运行最新raspbian的树莓派3上使用node.js创建和弦WAV播放:shellingouttoaplay/mpg123/someotherprogram-让我一次只能播放一个声音我尝试了https://github.com/sebpiq/node-web-audio-api的组合和https://github.com/TooTallNate/node-speaker(下面的示例代码)但音频质量很低,有很多失真这里有什么我遗漏的吗?我知道我可以用另一种编程语言轻松地做到这一点(我能够用SDL编写C++代码,用pygame编写Python),但问题是node.js是否可

javascript - 类型错误 : Failed to set the 'buffer' property on 'AudioBufferSourceNode' : The provided value is not of type 'AudioBuffer

我正在处理现有的codoCircle.调低音量。它按预期运行。现在我想在codepen中使用相同的代码我得到这个错误类型错误:无法在“AudioBufferSourceNode”上设置“缓冲区”属性:提供的值不是“AudioBuffer”类型我做了一些研究,找到了firstanswer有用。答案是当我在playSoundplayer.buffer=buffer中分配时,缓冲区仍未定义,因为加载回调尚未触发。这对我来说很有意义,所以我尝试做一个setTimeout像:setTimeout(playSound,9000);没有成功。你知道解决这个问题的方法吗?为什么在CodeCircle中

javascript - 如何将 ArrayBuffer 转换为 AudioBuffer?

我正在流式传输arrayBuffer以转换为audioBuffer以便能够收听它。我正在通过websocket事件接​​收流retrieveAudioStream(){this.socket.on('stream',(buffer)=>{console.log('buffer',buffer)})}buffer是一个arrayBuffer,我需要它是一个audioBuffer以便能够在我的应用程序上收听它。我该怎么做? 最佳答案 您可以使用BaseAudioContext.createBuffer()方法。它用于createanew

ios - swift 3 : Using AVCaptureAudioDataOutput to analyze audio input

我正在尝试使用AVCaptureAudioDataOutput来分析音频输入,如here所述.这不是我自己想出来的东西,所以我正在复制这个例子,但我遇到了困难。Swift3中的Xcode提示我进行了一些更改。我在分配samples行时遇到编译错误。Xcode说,“无法使用类型为‘(UnsafeMutableRawPointer?)’的参数列表为类型‘UnsafeMutablePointer调用初始化器”这是我修改后的代码:funccaptureOutput(_captureOutput:AVCaptureOutput!,didOutputSampleBuffersampleBuffer

ios - 如何转换音频以便它可以跨设备流式传输

我一直在寻找这个问题的答案大约一个月了,非常感谢您的帮助!我正在使用AVAudioEngine来录制音频。此音频是使用水龙头录制的:localInput?.installTap(onBus:0,bufferSize:4096,format:localInputFormat){记录类型为AVAudioPCMBuffer。需要转换成[UInt8]类型我用这个方法这样做:funcaudioBufferToBytes(audioBuffer:AVAudioPCMBuffer)->[UInt8]{letsrcLeft=audioBuffer.floatChannelData![0]letbyte

ios核心音频: how to get samples from AudioBuffer with interleaved audio

我已使用ExtAudioFileRead函数将音频文件读入AudioBufferList。这是音频的ASBD:AudioStreamBasicDescriptionimportFormat;importFormat.mFormatID=kAudioFormatLinearPCM;importFormat.mFormatFlags=kAudioFormatFlagIsSignedInteger|kAudioFormatFlagIsPacked;importFormat.mBytesPerPacket=4;importFormat.mFramesPerPacket=1;importForm

Android AudioRecord频率过滤器一步一步

Android:我是语音处理的新手,我使用JTransform库创建了sampleRate8000Hz的AudioRecord对象我正在尝试过滤频率以下代码中有几件事我不明白我的问题如下Q.1为什么我们要将“toTransform[i]=(double)buffer[i]/32768.0;//signed16bit”缓冲区转换为16位值?Q.2Rite现在audioRecord读取的数据数组是shortarray如果我读取byte数组我如何将它转换成singed16位?Q.3我想用双数组显示以Hz为单位的声音频率,如何计算声音频率?Q.4我写了filter方法filterAudio()

iphone - 从 AVAssetReaderOutput 读取数据时 iOS 5.0 崩溃

我有这段代码用于从AVAssetReaderOutput中读取数据,该方法在iOS4.0中运行良好,但是在5.0中,它在接近尾声时因访问错误而崩溃,不知道为什么,任何人都有有什么意见吗?AVAssetReaderOutput*output=[myOutputsobjectAtIndex:0];inttotalBuff=0;while(TRUE){CMSampleBufferRefref=[outputcopyNextSampleBuffer];if(ref==NULL)break;//copydatatofile//readnextoneAudioBufferListaudioBuff

ios - 确定核心音频 AudioBuffer 中的帧数

我正在尝试访问iPhone/iPad上音频文件的原始数据。我有以下代码,这是我需要的路径的基本开始。然而,一旦我有了AudioBuffer,我就不知道该怎么做。AVAssetReader*assetReader=[AVAssetReaderassetReaderWithAsset:urlAsseterror:nil];AVAssetReaderTrackOutput*assetReaderOutput=[AVAssetReaderTrackOutputassetReaderTrackOutputWithTrack:[[urlAssettracks]objectAtIndex:0]out