草庐IT

音频流

全部标签

javascript - 混合两个音频缓冲区,使用 web Audio Api 将一个放在另一个的背景上

我想通过将一首歌曲作为另一首歌曲的背景音乐来混合两个音频源。例如,我有输入:解码这些文件的脚本:window.AudioContext=window.AudioContext||window.webkitAudioContext;varcontext=newwindow.AudioContext();varsources=[];varfiles=[];varmixed={};functionhandleFilesSelect(event){if(event.target.files.lengthi+1){readFiles(i+1,callback);}else{if(callback

javascript - 在 Android 版 Chrome 上获取音频持续时间

我正在获取文件的音频/视频持续时间,但没有将其附加到屏幕上。“使用相同的代码”,当我尝试获取两侧的视频持续时间时,它按预期工作。但是当使用音频文件时,它说在Android上持续时间为0,但它适用于台式计算机。//OnlyworkingonDesktopvaraudio=newAudio(url);//Hideaudioplayer//player.appendChild(audio);audio.addEventListener('loadedmetadata',function(){alert(audio.duration);});下面的代码是有效的://WorkingonDeskt

javascript - 如何仅加载波形并等待用户单击 'play' 以在 Wavesurfer-js 上下载音频?

在我的服务器上,我使用Audiowaveform从我的音频文件生成JSON数据。在前端我使用Wavesurfer-JS根据之前的JSON数据绘制波形。问题是在页面准备好时,Wavesurfer-JS一直在后台下载音频文件(不仅是在用户点击播放按钮时)。This是我的尝试。这是最重要的部分:varwavesurfer=WaveSurfer.create({container:'#waveform',waveColor:'grey',backend:'MediaElement',mediaType:'audio',progressColor:'red',cursorColor:'#fff'

javascript - 使用不同的浏览器通过 getUserMedia 获得一致的音频质量

我在做什么我正在使用getUserMediaAPI在浏览器中录制音频,然后将此音频发送到websocket服务器。此外,为了测试录音,我使用soundflower在Mac上作为输入设备,所以我可以播放波形文件,而不是对着麦克风讲话。客户端(JavaScript)window.AudioContext=window.AudioContext||window.webkitAudioContext;navigator.getUserMedia=navigator.getUserMedia||navigator.webkitGetUserMedia||navigator.mozGetUserM

javascript - 返回上一页时自动播放音频文件

我有音频/视频,您可以在我网站的投资组合区域中播放。如果我播放其中一个,然后转到上一页,然后使用浏览器的下一步按钮返回我的页面,即使我没有点击任何内容,音频也会自动播放。如果我播放视频或音频,单击以访问另一个页面,然后单击浏览器的上一页按钮,则会发生完全相同的行为。我怎样才能避免这种情况?这是一些代码:转换为:当我点击播放时。但是当错误发生时,iframe的src保持“about:blank”。这里始终是iframe内容:我发现并尝试删除源的src属性中的“&autoplay=1”,但没有成功。但是找不到如何更改视频的自动播放属性。 最佳答案

Javascript 音频 API : onaudioprocess not fired

我正在构建一个简单的应用程序,我试图在其中获取缓冲区,但似乎没有触发以下代码中的onaudio进程:(PasteBin)varaudio_context;varrecorder;window.onload=functioninit(){try{window.AudioContext=window.AudioContext||window.webkitAudioContext;navigator.getUserMedia=navigator.getUserMedia||navigator.webkitGetUserMedia;window.URL=window.URL||window.w

go - SDL2 音频无法正确播放

我在这里使用SDL2绑定(bind)在Golang中制作游戏:https://github.com/veandco/go-sdl2问题是,我添加了代码来播放音频,但当我尝试时,音频声音很乱。由于声音的持续时间,您可以看出它实际上播放了一些东西,并且它在正确的事件中被触发。但声音本身是困惑的。这是我的代码:packageSDLimport("io/ioutil""log""github.com/veandco/go-sdl2/mix")varAUDIOSmap[string]*mix.Chunkfuncinit(){AUDIOS=make(map[string]*mix.Chunk)AU

go - 视频流优化

我正在构建一个视频监控应用程序,用于学习目的。目前我有一个非常基本的原型(prototype)在工作。我正在捕获网络摄像头帧并将其通过websocket发送到浏览器。只是为了了解实现的基本程度,在客户端我有:我正在通过javascript附加框架。应用程序和服务器是用Golang编写的虽然我的方法有效,但我知道如果我想从我的家庭网络外部查看流,将单个帧发送到浏览器永远不会削减它。我必须优化流程。到目前为止,我只是想在将凸轮帧发送给客户之前对其进行压缩。还将帧编码为视频并在客户端实现视频播放器。还能做什么?我知道这个问题很宽泛,但我认为必须有一个针对视频流的标准优化模式。

数字信号处理技术在各个领域(电信、音频、图像、雷达、声呐等)的用途

电信领域电信,即电子通信。电信公司的基本盈利模式就是:为用户创建信道,用户再来使用这些信道,电信公司以此向用户收费,类似先修路再收过路费。当然,电信公司也可以为用户提供更多的服务,再进行收费。信道的概念可能比较抽象,稍微具体化一点,它在物理实物上分为有线和无线,在资源上分为时域、频域、空域。在有线通信中,信号在线缆中占据某一频段某一时间,即信号在信道中传输。在无线通信中,信号在空间中占据某一频段某一时间,也是信号在信道中传输。电信公司的主要成本在于创建和维护信道。在一个信道中传输的有效信息越多,他们赚的钱就越多。一个信道能够传输的最大信息量,在数学上已经被香农公式限定。众多技术只是帮助逼近香农

Android 音频(Audio)架构

一、概述Android的音频硬件抽象层(HAL)可将android.media中特定于音频的较高级别的框架API连接到底层音频驱动程序和硬件。本部分介绍了有关提升性能的实现说明和提示。Android音频架构定义了音频功能的实现方式,并指出实现中所涉及的相关源代码。应用框架应用框架包含应用代码,该代码使用android.mediaAPI与音频硬件进行交互。在内部,此代码会调用相应的JNI粘合类来访问与音频硬件互动的原生代码。源代码目录:frameworks/base/media/java/android/media/AudioManager:音频管理器,包括音量管理、AudioFocus管理、音