草庐IT

whisper-ctranslate

全部标签

openai-whisper

openai-whisper0.参数说明1.视频语音转文字demo1.提取b站视频中的音频,增加到自己的视频里,并且显示字幕1.下载b站视频到电脑2.提取视频中的音频3.音频转文字4.自己的视频去掉音频,增加新的音频和字幕0.参数说明语音识别模型whisper的参数说明1.视频语音转文字exportCUDA_VISIBLE_DEVICES=3whisper手把手教你从一无所有到财务自由_7.mp3--modellarge-v2--model_dir.--output_dir7--languageChinesedemo1.提取b站视频中的音频,增加到自己的视频里,并且显示字幕1.下载b站视频到电

20240202在WIN10下使用whisper.cpp

20240202在WIN10下使用whisper.cpp2024/2/214:15【结论:在Windows10下,确认large模式识别7分钟中文视频,需要83.7284seconds,需要大概1.5分钟!效率太差!】83.7284/420=0.19935333333333333333333333333333前提条件,可以通过技术手段上外网!^_首先你要有一张NVIDIA的显卡,比如我用的PDD拼多多的二手GTX1080显卡。【并且极其可能是矿卡!】800¥2、请正确安装好NVIDIA最新的545版本的驱动程序和CUDA、cuDNN。2、安装Torch3、配置whisper识别得到的字幕chs

中文语音识别转文字的王者,阿里达摩院FunAsr足可与Whisper相颉顽

君不言语音识别技术则已,言则必称Whisper,没错,OpenAi开源的Whisper确实是世界主流语音识别技术的魁首,但在中文领域,有一个足以和Whisper相颉顽的项目,那就是阿里达摩院自研的FunAsr。FunAsr主要依托达摩院发布的Paraformer非自回归端到端语音识别模型,它具有高精度、高效率、便捷部署的优点,支持快速构建语音识别服务,最重要的是,FunASR支持标点符号识别、低语音识别、音频-视觉语音识别等功能,也就是说,它不仅可以实现语音转写,还能在转写后进行标注,一石二鸟。FunAsr和Whisper对比Mediumvsspeech_paraformer首先配置好Pyth

如何一键生成字幕,如何快速处理生肉资源?借助whisper语音识别系统生成.srt字幕文件 手把手教学在Windows、CPU版本下whisper的安装与使用,快速上手!

目录一.前言二.本机环境三.安装步骤:步骤1:下载Git并添加环境变量步骤2:下载ffmpeg并添加环境变量步骤3:安装pytorch步骤4:安装whisper四.whisper的应用应用1:识别mp3歌曲中的歌词应用2:识别mp4视频文件,以MV歌曲和英文TED演讲为例进行测试①whisper识别MV歌曲②whisper识别TED英文演讲应用3:whisper识别生成文件.srt字幕的使用五.结语一.前言Whisper是OpenAI开源的语音识别网络,支持98中语言,用于语音识别和翻译等任务。我们可以将歌曲的歌词进行识别,将无字幕的视频资源自动生成字母,极大方便了用户。同时,whisper可

【whisper】在python中调用whisper提取字幕或翻译字幕到文本_python whisper

一、whisper简介whisper是一款用于语音识别的开源库,支持多种语言,其中包括中文。在本篇文章中,我们将介绍如何安装whisper以及如何使用它来识别中文字幕。二、安装whisper首先,我们需要安装whisper。根据操作系统,可以按照以下步骤进行安装:对于Windows用户,可以从whisper的GitHub页面(https://github.com/qingzhao/whisper)下载适用的Python版本的whisper安装包,然后运行安装程序。对于macOS用户,可以使用Homebrew(https://brew.sh/)进行安装。在终端中运行以下命令:brewinstal

20240131在ubuntu20.04.6下使用whisper不同模式的比对

20240131在ubuntu20.04.6下使用whisper不同模式的比对2024/1/3116:07首先你要有一张NVIDIA的显卡,比如我用的PDD拼多多的二手GTX1080显卡。【并且极其可能是矿卡!】2、请正确安装好NVIDIA最新的驱动程序和CUDA。可选安装!3、配置whisperrootroot@rootroot-X99-Turbo:~$ rootroot@rootroot-X99-Turbo:~$python-mpipinstall--upgradepip【可以不安装conda】rootroot@rootroot-X99-Turbo:~$wgethttps://repo.a

使用推测解码 (Speculative Decoding) 使 Whisper 实现 2 倍的推理加速

OpenAI推出的Whisper是一个通用语音转录模型,在各种基准和音频条件下都取得了非常棒的结果。最新的large-v3模型登顶了OpenASR排行榜,被评为最佳的开源英语语音转录模型。该模型在CommonVoice15数据集的58种语言中也展现出了强大的多语言性能,在42种语言上的单词错误率(WER)低于30%。尽管转录准确度非常优秀,但推理速度非常缓慢。即使利用flashattention、半精度和分块等优化推理技术,1小时长度的音频在16GBT4GPU上也需要超过6分钟的转录时间。在本文中,我们将演示如何运用推测解码将Whisper的推理时间缩减2倍,同时在数学上确保完全取得与原模型相

实战whisper:本地化部署通用语音识别模型

前言        Whisper是一种通用语音识别模型。它是在大量不同音频数据集上进行训练的,也是一个多任务模型,可以执行多语言语音识别、语音翻译和语言识别。    这里呢,我将给出我的一些代码,来帮助你尽快实现【语音转文字】的服务部署。    以下是该AI模块的具体使用方式:        https://github.com/openai/whisper心得    这是一个不错的语言模型,它支持自动识别语音语种,类似中文、英文、日语等它都能胜任,并且可以实现其他语种转英语翻译的功能,支持附加时间戳的字幕导出功能......    总体来说,它甚至可以与市面上领头的语言识别功能相媲美,并且

AI一点通: OpenAI whisper 在线怎么调用,怎么同时输出时间信息?

OpenAI语音转文字whisperAPI提供了两个端点,即转录和翻译,这基于我们最先进的开源大型v2Whisper模型。它们可以用来:将音频转录成音频所在的语言。翻译并将音频转录成英文。文件上传目前限制为25MB,支持以下输入文件类型:mp3、mp4、mpeg、mpga、m4a、wav和webm。以下是一个Python示例:importrequestsimportopenai#定义API端点和头信息url="https://api.openai.com/v1/audio/transcriptions"headers={"Authorization":"Bearer{}".format(ope

Whisper 从0安装教程 windows

这里写自定义目录标题Whisper从0安装教程windows安装过程安装python3.11安装Anaconda在Anaconda里面安装whisper安装ffmpeg第一次运行whisper检查GPU一些弯路Whisper从0安装教程windows因为需要把语音变成文字稿,问了做语言相关的朋友,决定使用whisper来做这个工作官方网站:https://github.com/ggerganov/whisper.cpp但是官网的教程一般小白很难从0开始。我一共折腾了两天,找了不少教程,走了两次弯路终于搞定了。安装过程安装python3.11因为看到Anaconda官网上最新的版本是基于pyth