草庐IT

audio_policy

全部标签

javascript - 使用 Web Audio API 进行离线/非实时渲染

问题我正在开发一个网络应用程序,用户可以在其中对音频样本进行排序,并可以选择将效果应用于他们使用网络音频API创建的音乐模式。模式存储为JSON数据,我想对每个模式服务器端的渲染音频进行一些分析。据我所知,这给我留下了两个选择:在服务器端运行我自己的渲染代码,尝试使其尽可能忠实于浏览器内渲染。也许我什至可以从Chromium项目中提取WebAudio代码并对其进行修改,但这似乎可能需要大量工作。在客户端进行渲染,希望速度比实时快,然后将渲染后的音频发送到服务器。这是理想的(和DRY),因为只有一个引擎用于模式渲染。可能的解决方案Thisquestion带我到thiscodesample

javascript - Chrome 控制台错误 : The Content Security Policy was delivered in report-only mode, 但未指定 'report-uri'

从今天开始,在Chrome73.0.3683.103控制台中,我看到以下错误:TheContentSecurityPolicy'script-src'report-sample''nonce-PNYOS1z63mBa/Tqkqyii''unsafe-inline';object-src'none';base-uri'self''wasdeliveredinreport-onlymode,butdoesnotspecifya'report-uri';thepolicywillhavenoeffect.Pleaseeitheradda'report-uri'directive,ordeli

javascript - 如何通过函数获取 audio.duration 值

我是我的音频播放器,我需要获取音轨的持续时间。我需要一个函数来获取音频的src并返回其持续时间。这是我正在尝试但不起作用的方法:functiongetDuration(src){varaudio=newAudio();audio.src="./audio/2.mp3";vardue;returngetVal(audio);}functiongetVal(audio){$(audio).on("loadedmetadata",function(){varval=audio.duration;console.log(">>>"+val);returnval;});}我试图拆分成两个函数,但

javascript - PCM Web Audio Api Javascript - 我的声音失真

我正在通过线路接收交错的16位PCM样本。每个样本都有签名我将其读取为Int16位数组,我们称其为ALL_DATA。所以每个数组条目都是一个16位样本。因为它是交错的,所以我将它提取到2个channelR-L-R-L我最终得到2个(16位)数组,大小是ALL_DATA数组的一半。之后,我遍历每个样本并将其标准化为Float32Array,因为这就是网络音频API使用。varnormalizedSample=(样本>0)?sample/32768:sample/-32768;这是正确的做法吗?我听到的是失真的声音。你可以知道发生了什么。所以从字面上看,如果你正在听古典吉他,它听起来像是带

javascript - 混合两个音频缓冲区,使用 web Audio Api 将一个放在另一个的背景上

我想通过将一首歌曲作为另一首歌曲的背景音乐来混合两个音频源。例如,我有输入:解码这些文件的脚本:window.AudioContext=window.AudioContext||window.webkitAudioContext;varcontext=newwindow.AudioContext();varsources=[];varfiles=[];varmixed={};functionhandleFilesSelect(event){if(event.target.files.lengthi+1){readFiles(i+1,callback);}else{if(callback

javascript - meteor DOMException : Unable to decode audio data

编辑:我刚刚创建了一个新的Meteor项目并且它成功了:D哇。但它仍然不适用于我的核心项目..看起来我有不同的设置。在我的Meteor.js项目中,我有4个.mp3文件位于public/sounds/xyz.mp3中。我用:加载这些.mp3letsoundRequest=newXMLHttpRequest();soundRequest.open('GET',this._soundPath,true);soundRequest.responseType='arraybuffer';let$this=this;soundRequest.onload=function(){Core.getA

google-app-engine - 戈朗 : Audio to FLAC conversion without running a executable

我正在尝试制作一个从存储中获取文件并将任意音频文件转换为FLAC的GoogleAppEngine。但是,AppEngine不允许运行可执行文件。我当前的代码看起来像这样:cmd:=exec.CommandContext(ctx,`./ffmpeg`,`-i`,`pipe:0`,`pipe:1`,`-ac`,`1`,`-c:a`,`flac`,`-f`,`flac`)cmd.Stdin=rccmd.Stdout=wcvarerrOutputbytes.Buffercmd.Stderr=&errOutputerr=cmd.Run()fmt.Printf("Runningffmpeg:%v.

audio - 如何让服务器在收到请求时播放声音

我想让服务器在每次收到请求时播放一段声音。如果我使用基于Go的服务器,有没有办法做到这一点?这个想法是服务器托管一个浏览器窗口,它收到一个请求,然后浏览器发出“ping!”。 最佳答案 这取决于您希望代码在哪个操作系统上运行。Afaik没有用于从go播放声音的通用跨平台解决方案:在Linux上,您可能需要依赖PulseAudio和一个软件包,例如github.com/mesilliac/pulse-simple在Windows和Mac上,您可以将PortAudio与诸如github.com/gordonklaus/portaudio

Android 音频(Audio)架构

一、概述Android的音频硬件抽象层(HAL)可将android.media中特定于音频的较高级别的框架API连接到底层音频驱动程序和硬件。本部分介绍了有关提升性能的实现说明和提示。Android音频架构定义了音频功能的实现方式,并指出实现中所涉及的相关源代码。应用框架应用框架包含应用代码,该代码使用android.mediaAPI与音频硬件进行交互。在内部,此代码会调用相应的JNI粘合类来访问与音频硬件互动的原生代码。源代码目录:frameworks/base/media/java/android/media/AudioManager:音频管理器,包括音量管理、AudioFocus管理、音

xml - 覆盖默认的 ImageMagick policy.xml

我在ubuntu-16.04上使用ImageMagick将pdf文件转换为png图像。最近,转换停止了,因为包imagemagick-common添加到/etc/ImageMagick-6/policy.xml中的policy.xml文件我不想改变/etc/ImageMagick-6/policy.xml启用PDF,因为这个文件属于包,另一个更新可能会再次重写这个文件$dpkg-S/etc/ImageMagick-6/policy.xmlimagemagick-common:/etc/ImageMagick-6/policy.xml我在主目录中创建配置文件$cat~/.config/I