草庐IT

faster-whisper-webui

全部标签

无显卡也能AI作画 | Colab + Stable Diffusion WebUI

经典碎碎念事情起因是这样的,我之前写了如何在linux上用StableDiffusionWebUI。里边提到我迟迟没有弄webui是因为我笔记本A卡,台式机显卡带不动。所以无奈只能使用学校服务器搭一个。当时有人说我,你自己电脑不行怎么不用colab,我当时懒得弄。原因如下:服务器在我们本地,不用联网了,空间大。搭在服务器上还有另一个好处,就是我弄好以后全实验室都可以用,启动起来就不用停下了。Colab要科学上网。谷歌硬盘空间太小,放不下我想要的所有checkpointColab长时间不用会自己断开……但是……用服务的弊端:我在169和170两个服务器上弄了webui。上周一师兄占用了170跑代

java - 为什么 ConcurrentSkipListSet 升序迭代器 'faster' 而不是降序迭代器?

我在ConcurrentSkipListSet上使用descendingIterator方法。我刚刚查看了文档并注意到以下评论:“升序View及其迭代器比降序View更快。”参见https://docs.oracle.com/javase/8/docs/api/java/util/concurrent/ConcurrentSkipListSet.html#descendingIterator--不幸的是,它没有提供任何关于此的更多信息。有什么样的性能差异?重要吗?为什么会有性能差异? 最佳答案 如果您查看SkipLists的维基百科

Stable Diffusion 硬核生存指南:WebUI 中的 VAE

本文使用「署名4.0国际(CCBY4.0)」许可协议,欢迎转载、或重新修改使用,但需要注明来源。署名4.0国际(CCBY4.0)本文作者:苏洋创建时间:2023年07月30日统计字数:11485字阅读时间:23分钟阅读本文链接:https://soulteary.com/2023/07/30/stable-diffusion-hardcore-survival-guide-vae-in-webui.htmlStableDiffusion硬核生存指南:WebUI中的VAE本篇文章聊聊StableDiffusion生态中呼声最高、也是最复杂的开源模型管理图形界面“stable-diffusion-

LLMs之LLaMA2:基于text-generation-webui工具来本地部署并对LLaMA2模型实现推理执行对话聊天问答任务(一键安装tg webui+手动下载模型+启动WebUI服务)、同时

LLMs之LLaMA2:基于text-generation-webui工具来本地部署并对LLaMA2模型实现推理执行对话聊天问答任务(一键安装tg webui+手动下载模型+启动WebUI服务)、同时微调LLaMA2模型(采用Conda环境安装tg webui+PyTorch→CLI/GUI下载模型→启动WebUI服务→GUI式+LoRA微调→加载推理)之图文教程详细攻略目录基于TextgenerationwebUI工具实现对话聊天大模型应用一、本地部署实现推理

whisper 语音识别项目部署

1.安装anaconda软件在如下网盘免费获取软件:链接:https://pan.baidu.com/s/1zOZCQOeiDhx6ebHh5zNasA提取码:hfnd2.使用conda命令创建python3.8环境condacreate-nwhisperpython==3.83.进入whisper虚拟环境condaactivatewhisper4.安装cuda10.0的PyTorch环境pip--trusted-hostpypi.tuna.tsinghua.edu.cninstalltorch==1.10.1+cu102torchvision==0.11.2+cu102torchaudio=

Stable Diffusion WebUI 从零基础到入门

本文主要介绍StableDiffusionWebUI的实际操作方法,涵盖prompt推导、lora模型、vae模型和controlNet应用等内容,并给出了可操作的文生图、图生图实战示例。适合对StableDiffusion感兴趣,但又对StableDiffusionWebUI使用感到困惑的同学,希望通过本文能够降低大家对StableDiffusionWebUI的学习成本,更快速的体验到AIGC图像生成的魅力。引言StableDiffusion(简称sd)是一个深度学习的文本到图像生成模型,StableDiffusionWebUI是对StableDiffusion模型进行封装,提供可操作界面的

Stable Diffusion 硬核生存指南:WebUI 中的 GFPGAN

本篇文章聊聊StableDiffusionWebUI中的核心组件,强壮的人脸图像面部画面修复模型GFPGAN相关的事情。写在前面本篇文章的主角是开源项目TencentARC/GFPGAN,和上一篇文章《StableDiffusion硬核生存指南:WebUI中的CodeFormer》提到的项目在某种程度上算是“开源项目的竞争者”。有趣的是,上一篇文章中的CodeFormer在实现过程中,有非常多的项目代码有借鉴和使用GFPGAN主力维护者xintao的项目,某种程度上来说,两个项目存在一定的“亲缘”关系。在去年五月份,我写过一篇《使用Docker来运行HuggingFace海量模型》,其中就使用

Buzz语音转文字安装使用(含Whisper模型下载)

简介:Transcribeandtranslateaudioofflineonyourpersonalcomputer.PoweredbyOpenAI’sWhisper.转录和翻译音频离线在您的个人计算机。由OpenAI的Whisper提供动力。可以简单理解为QT的前端界面,python语言构建服务端,使用Whisper语言模型进行计算语音转文字的软件。痛点在于离线,缺点也很明显,模型较大,高质量模型运算依赖于硬件和算法优化应用场景学习,歌曲提取歌词,视频提取字幕,多媒体信息前置数据提取软件下载从github上进行下载,下载地址https://github.com/chidiwilliams/

python - 使用 Chinese Whispers 算法进行人脸聚类

我正在尝试使用中国耳语算法进行人脸聚类。我已经使用dlib和python为每张脸提取特征并映射到128D向量,如Davisking在https://github.com/davisking/dlib/blob/master/examples/dnn_face_recognition_ex.cpp中所述。.然后我按照那里给出的说明构建了一个图表。我实现了Chinesewhispers算法并应用于此图。谁能告诉我我犯了什么错误?任何人都可以上传使用中国耳语算法进行人脸聚类的python代码吗?这是我的中文耳语代码:importnetworkxasnximportrandomfromrand

stable-diffusion-webui 的模型更新

shared.py和sd_models.py中shared.py:options_templates.update(options_section(('sd',"StableDiffusion"),{"sd_model_checkpoint":OptionInfo(None,"StableDiffusioncheckpoint",gr.Dropdown,lambda:{"choices":list_checkpoint_tiles()},refresh=refresh_checkpoints),"sd_checkpoint_cache":OptionInfo(0,"Checkpointstoc