草庐IT

c# - .NET 的跨平台音频库

关闭。这个问题不符合StackOverflowguidelines.它目前不接受答案。我们不允许提问寻求书籍、工具、软件库等的推荐。您可以编辑问题,以便用事实和引用来回答。关闭6年前。Improvethisquestion要求:实时从麦克风获取原始输入实时回放原始输入我似乎无法从谷歌搜索中找到很多关于它的信息。有人用过类似的东西吗?我正在使用C#,它需要在Windows、Linux和Mac上工作,后两者使用Mono。我可能愿意使用p/invoke,但我对native代码不是特别熟悉,这会很困难。如果有人可以推荐本地库,我会试一试。

c# - 使用卷积在连续的声音流中找到引用音频样本

在mypreviousquestion在更大的音频样本中找到引用音频样本时,有人建议我应该使用卷积。使用DSPUtil,我能够做到这一点。我试了一下它并尝试了不同的音频样本组合,看看结果如何。为了可视化数据,我只是将原始音频作为数字转储到Excel中,并使用这些数字创建了一个图表。峰是可见的,但我真的不知道这对我有什么帮助。我有这些问题:我不知道,如何从峰值位置推断出原始音频样本中匹配的起始位置。我不知道,我应该如何将它应用到连续的音频流中,以便我可以在引用音频样本出现时立即使用react。我不明白,为什么图2和图4(见下文)差异如此之大,尽管它们都代表了一个与自身卷积的音频样本...

vue2 + egg.js使用FormData传递表单和文件(上传音频)

本篇博客适合了解vue项目、了解eggjs、了解axios的小伙伴阅读,如果不是熟悉这些技术,可以先去看看相关视频或者网站学习。一份表单中包含有普通参数、也有要上传的文件,将这些数据放到formdata中传递到后端进行处理。我这里的前端用的是vue2,页面仅有一个表单,页面的代码如下:template>divclass="about">el-form:model="form"status-iconlabel-width="100px"class="demo-ruleForm">el-form-itemlabel="内容"prop="content">el-inputtype="text"v-m

c# - 从 base64 解码后的嘈杂音频剪辑

我用base64编码了wav文件(资源/声音中的audioClipName.txt)。HEREISTHESOURCEWAVEFILE然后我尝试解码它,从中制作一个AudioClip并像这样播放它:publicstaticvoidCreateAudioClip(){strings=Resources.Load("Sounds/audioClipName").text;byte[]bytes=System.Convert.FromBase64String(s);float[]f=ConvertByteToFloat(bytes);AudioClipaudioClip=AudioClip.C

c# - 当声音仍在播放时,Windows Phone 8 上的 XNA 会循环播放音频

我需要一种在声音仍在播放时开始/停止循环的方法。我发现同时播放多种声音的最佳方式是使用XNA。因此,我从包含音频剪辑的SoundEffect对象开始创建了一个SoundEffectInstance。现在的问题是我有一个按钮可以将此剪辑的状态从“循环”更改为“非循环”,反之亦然。问题来了:它抛出一个异常,说明必须在第一次播放之前设置循环。所以我想,当从“非循环”切换到“循环”时,我可以等待声音停止,然后重新创建SoundEngineInstance,设置IsLooped=true并让它重新开始。这个可以用,但是有一些延迟,这会让你失去时间,所以它没什么用。我正在寻找一种在播放声音时设置或

c# - 如何找到 SpeechSynthesizer 所选语音的音频格式

在C#的文本到语音应用程序中,我使用SpeechSynthesizer类,它有一个名为SpeakProgress的事件,每个说出的词都会被触发。但对于某些声音,参数e.AudioPosition与输出音频流不同步,输出波形文件的播放速度比此位置显示的快(参见thisrelatedquestion)。无论如何,我正在尝试查找有关比特率的确切信息以及与所选语音相关的其他信息。根据我的经验,如果我可以使用此信息初始化wave文件,同步问题将得到解决。但是,如果我无法在SupportedAudioFormat中找到此类信息,我不知道还有什么其他方法可以找到它们。例如,“MicrosoftDav

c# - 如何以编程方式训练 SpeechRecognitionEngine 并将音频文件转换为 C# 或 vb.net 中的文本

是否可以通过编程方式训练识别器提供.wavs而不是对着麦克风说话?如果是这样,该怎么做?目前我有对0.wav文件中的音频执行识别并将识别的文本写入控制台的代码。ImportsSystem.IOImportsSystem.Speech.RecognitionImportsSystem.Speech.AudioFormatNamespaceSampleRecognitionClassProgramSharedcompletedAsBooleanPublicSharedSubMain(ByValargsAsString())UsingrecognizerAsNewSpeechRecognit

c# - Webbrowser 禁用所有音频输出 - 从在线广播到 youtube

我的浏览器:XAML://...xmlns:my="clr-namespace:System.Windows.Forms.Integration;assembly=WindowsFormsIntegration"//...C#背后的代码:System.Windows.Forms.WebBrowserBrowser=newSystem.Windows.Forms.WebBrowser();windowsFormsHost.Child=Browser;我的问题是如何禁用所有音频输出。我发现了这个:C#:privateconstintFeature=21;//FEATURE_DISABLE_

c# - 处理音频 "on-fly"(C#, WP7)

有没有办法在C#和.NET中“即时”处理音频?例如,如果我想在录制时评估音频的平均强度(为此,我需要最后几毫秒)。 最佳答案 麦克风初始化,录音处理:privatevoidInitialize(){Microphonemicrophone=Microphone.Default;//100msisaminimumbufferdurationmicrophone.BufferDuration=TimeSpan.FromMilliseconds(100);DispatcherTimerupdateTimer=newDispatcherTi

【初学音频】Android的Audio系统之AudioTrack

目录前言  1.AudioTrack2.用例介绍2.1过程2.2数据加载模式2.3音频流的类型2.4Buffer分配和Frame的概念3.AudioTrack(Java空间)分析3.1AudioTrack的构造3.2AudioTrackJniStorage分析3.2.1 共享内存介绍3.2.2MemoryHeapBase和MemoryBase类介绍3.2.3play和write的分析3.2.4release的分析3.2.5AudioTrack(Java空间)的分析总结4.AudioTrack(Native空间)分析4.1 newAudioTrack和set分析4.1.1 IAudioTrack