草庐IT

faster-whisper-webui

全部标签

Stable-diffusion-WebUI 的API调用(内含文生图和图生图实例)

前情提要在之前尝试使用Diffusers库来进行stable-diffusion的接口调用以及各种插件功能实现,但发现diffusers库中各复杂功能的添加较为麻烦,而且难以实现对采样器的添加,safetensors格式模型的读取。在官网上找到了webui有专门的api接口,能够极大方便我们进行类似webui界面的api调用。diffusers文档webui项目官网webuiAPI说明webui项目部署这种调用webui自带的api的方法需要先将webui运行起来,无论是自己从官网配置的webui,还是各类启动器一键启动的都是可以的。(我使用的为一键启动包,较为简单)一键启动包教程如果是自己配

本地部署Stable Diffusion WebUI

官网StableDiffusion在线Github上的StableDiffusionWebUI提醒一下:下面实例讲解是在Mac系统演示的;一、环境所需资源PythonPycharmAnacondastable-diffusion-webui项目代码注意事项python版本一定要3.10+,最好是3.10.6版本的。StableDiffusionWebUI在Github中README文档里建议如下图:Installation-on-Intel-Silicon文档如果选择Anaconda创建Python环境,则不需要单独下载Python安装二、环境搭建教程Python安装PyCharm安装Anac

20240202在WIN10下使用whisper.cpp

20240202在WIN10下使用whisper.cpp2024/2/214:15【结论:在Windows10下,确认large模式识别7分钟中文视频,需要83.7284seconds,需要大概1.5分钟!效率太差!】83.7284/420=0.19935333333333333333333333333333前提条件,可以通过技术手段上外网!^_首先你要有一张NVIDIA的显卡,比如我用的PDD拼多多的二手GTX1080显卡。【并且极其可能是矿卡!】800¥2、请正确安装好NVIDIA最新的545版本的驱动程序和CUDA、cuDNN。2、安装Torch3、配置whisper识别得到的字幕chs

20240203在WIN10下使用GTX1080配置stable-diffusion-webui.git不支持float16精度出错的处理

20240203在WIN10下使用GTX1080配置stable-diffusion-webui.git不支持float16精度出错的处理2024/2/321:23缘起:最近学习stable-diffusion-webui.git,在Ubuntu20.04.6下配置SD成功。不搞精简版本:Miniconda了。直接上Anacoda!打开stable-diffusion-webui.git的时候报错:webui.batwebui-user.bat双击打开升级软件/包之后都会报错!NansException:AtensorwithallNaNswasproducedinUnet.Thiscould

中文语音识别转文字的王者,阿里达摩院FunAsr足可与Whisper相颉顽

君不言语音识别技术则已,言则必称Whisper,没错,OpenAi开源的Whisper确实是世界主流语音识别技术的魁首,但在中文领域,有一个足以和Whisper相颉顽的项目,那就是阿里达摩院自研的FunAsr。FunAsr主要依托达摩院发布的Paraformer非自回归端到端语音识别模型,它具有高精度、高效率、便捷部署的优点,支持快速构建语音识别服务,最重要的是,FunASR支持标点符号识别、低语音识别、音频-视觉语音识别等功能,也就是说,它不仅可以实现语音转写,还能在转写后进行标注,一石二鸟。FunAsr和Whisper对比Mediumvsspeech_paraformer首先配置好Pyth

stable-diffusion-webui中stability的sdv1.5和sdxl模型结构config对比

sdv1.5v1-inference.yamlmodel:base_learning_rate:1.0e-04target:ldm.models.diffusion.ddpm.LatentDiffusionparams:linear_start:0.00085linear_end:0.0120num_timesteps_cond:1log_every_t:200timesteps:1000first_stage_key:"jpg"cond_stage_key:"txt"image_size:64channels:4cond_stage_trainable:false#Note:differen

stable-diffusion-webui安装Wav2Lip

常见错误1.错误:TorchisnotabletouseGPU;add--skip-torch-cuda-testtoCOMMANDLINE_ARGSvariabletodisablethischeck修改代码:launch_utils.py删除三个地方:

如何一键生成字幕,如何快速处理生肉资源?借助whisper语音识别系统生成.srt字幕文件 手把手教学在Windows、CPU版本下whisper的安装与使用,快速上手!

目录一.前言二.本机环境三.安装步骤:步骤1:下载Git并添加环境变量步骤2:下载ffmpeg并添加环境变量步骤3:安装pytorch步骤4:安装whisper四.whisper的应用应用1:识别mp3歌曲中的歌词应用2:识别mp4视频文件,以MV歌曲和英文TED演讲为例进行测试①whisper识别MV歌曲②whisper识别TED英文演讲应用3:whisper识别生成文件.srt字幕的使用五.结语一.前言Whisper是OpenAI开源的语音识别网络,支持98中语言,用于语音识别和翻译等任务。我们可以将歌曲的歌词进行识别,将无字幕的视频资源自动生成字母,极大方便了用户。同时,whisper可

stable diffusion webui升级bug问题解决思路(纯干货)

个人网站:https://tianfeng.space/文章目录一、前言二、个人方案1.扼杀在萌芽中A.解压后点击启动器运行依赖,然后点击A启动器B.更新本体和扩展(全部到最新版本)C.把controlnet1.1放入stablediffusion中D.插件转移E.模型转移F.额外的东西(视情况而定)2.防患于未然base模型和refiner模型下载:SDXL-controlnet下载安装python库额外扩展一、前言最近随着webui增加到1.6版本,很多问题也随之出现,其实最多就是插件问题,这多是由于插件太久没有更新维护导致,我更新之后主要是TemporalKit和wd1.4tag反推插件

【whisper】在python中调用whisper提取字幕或翻译字幕到文本_python whisper

一、whisper简介whisper是一款用于语音识别的开源库,支持多种语言,其中包括中文。在本篇文章中,我们将介绍如何安装whisper以及如何使用它来识别中文字幕。二、安装whisper首先,我们需要安装whisper。根据操作系统,可以按照以下步骤进行安装:对于Windows用户,可以从whisper的GitHub页面(https://github.com/qingzhao/whisper)下载适用的Python版本的whisper安装包,然后运行安装程序。对于macOS用户,可以使用Homebrew(https://brew.sh/)进行安装。在终端中运行以下命令:brewinstal