草庐IT

faster-whisper-webui

全部标签

Stable Diffusion XL webui tagger 插件Linux安装(保姆级教程)

文章目录StableDiffusionXLwebuitagger插件Linux安装为什么要安装tagger插件安装tagger插件下载tagger仓库下载wd-v1-4-vit-tagger模型权重StableDiffusionXLwebuitagger插件Linux安装为什么要安装tagger插件为了使SD能生成我们想要的图像效果,往往需要对SD模型进行微调,但其权重参数太多,如果是用更新全部参数的方法来微调,会耗费大量的计算资源。那么可不可以仅需少量计算资源,对模型进行微调,也有不错的效果呢?答案是肯定的,那就是:基于LoRA对其进行微调!本文写作动机:想自己训练LoRA,需要对训练数据进

【YOLOv8/YOLOv7/YOLOv5/YOLOv4/Faster-rcnn系列算法改进NO.64】即插即用新的注意力机制RFAConv

 前言作为当前先进的深度学习目标检测算法YOLOv8,已经集合了大量的trick,但是还是有提高和改进的空间,针对具体应用场景下的检测难点,可以不同的改进方法。此后的系列文章,将重点对YOLOv8的如何改进进行详细的介绍,目的是为了给那些搞科研的同学需要创新点或者搞工程项目的朋友需要达到更好的效果提供自己的微薄帮助和参考。由于出到YOLOv8,YOLOv7、YOLOv5算法2020年至今已经涌现出大量改进论文,这个不论对于搞科研的同学或者已经工作的朋友来说,研究的价值和新颖度都不太够了,为与时俱进,以后改进算法以YOLOv7为基础,此前YOLOv5改进方法在YOLOv7同样适用,所以继续YOL

windows - 无法从 IE 中找到凭据导致 HDFS WebUI Kerberos 身份验证失败

我使用kerberos身份验证设置我的HDFS服务,这就是配置:hadoop.http.filter.initializersorg.apache.hadoop.security.AuthenticationFilterInitializerhadoop.http.authentication.typekerberoshadoop.http.authentication.simple.anonymous.allowedfalsehadoop.http.authentication.signature.secret.file/opt/hadoop/hdfs/default/etc/had

配置 Stable Diffusion WebUI 纯 CPU 或核显绘画

(如有更新,见原文:https://blog.iyatt.com/?p=12345)1前言我笔记本电脑的独显上半年的时候烧掉了,所以只能用CPU,折腾了一下午总算给配置出来了。我这里用的官方Python,网上很多教程用Anaconda(也是一种Python发行版),其实没必要。最开始我就跟着用Anaconda,挺折腾的,到后面发现只是需要Python而已,那整体简单多了。喜欢用Anaconda的也可以用,不影响,只是需要Python这个基础,然后在上面跑PyTorch,StableDiffusion又是基于PyTorch,结构就是这样。下面的图片是用SD生成的,没独显还是老CPU,速度超级慢。

UE5内置浏览器插件WebUI简易使用笔记

之前的项目中为了提高效率,避免使用UE功能不完善的UMG系统,使用了WebUI插件,在UI中内嵌浏览器来展示网页。用Vue框架配合插件制作网页还是比UMG要快很多的,毕竟UE的UI制作插件比较少。一.UE蓝图首先在UMG中创建一个新UI,拉一个新的面板,然后在里面加一个WebInterface组件。之后就可以使用蓝图节点来设定默认网页了,一般常用的是LoadFile或者LoadHTML来调用项目中Content文件夹或Content/HTML文件夹中的项目和文件。如果前端项目并没有在UE项目中,就可以使用LoadURL来通过网络访问网页。点击变量WebInterface,可以看到有如下几种事件

ubuntu16.04安装语音识别whisper及whisper-ctranslate2工具(填坑篇)

环境:系统ubuntu16.04,显卡是NVIDIA QuadroRTX5000目标:安装语音识别工具whipser/whipser-ctranslate2        因之前有过几次在linux和windows上有过部署whisper经验和使用经验,其中有使用GPU的,有CPU的,各自语音识别效率一言难尽,建议直接装whipser-ctranslate2。同时,感谢B站博主的(Windows系统Whisper(OpenAI)安装指南(全局python环境)-哔哩哔哩)这篇文章曾给我一些启发,有需求的小伙伴可以先参考这篇文章了解一下。一、whipser-ctranslate2介绍      

无需翻墙|Stable Diffusion WebUI 安装|AI绘画

前言最近终于有机会从围墙里往外看,了解到外面的世界已经有了天翻地覆的变化,感叹万千,笔者在本地mac,windows,linux,docker部署了不下20遍后,整理出来的linux极简避坑安装方案,供大家参考学习。注系统:linux用户:pypython:3.10涉及工具:wget、miniconda、gitStableDiffusionWebUI简称:webui安装目录:/data/github地址https://github.com/AUTOMATIC1111/stable-diffusion-webui安装miniconda由于stable-diffusion-webui的安装需要特定

大话Stable-Diffusion-Webui-客制化主题(四)

文章目录目标效果开始重要说明单选框以及复选框图标样式更改gradio主题构建器上传主题方式代码上传主题方式目标在DIY的主题中更改gradio单选框组件以及复选框组件的勾选后图标样式效果开始笔者在使用gradio的主题构建器的过程中发现,gradio的复选框以及单选框组件勾选后的图标样式是一个svg的图片格式,那么这就意味着可以自定义这个图标的样式,于是有了这篇文章。接下来就以笔者DIY的sd的新主题heme_brief作为基础展开。重要说明在使用gr

AI绘画指南 stable diffusion webui (SD webui)如何设置与使用

根据自己最近的理解与实践,只能说是给后来的AI绘画作画者一点快速上手入门的参考吧。主要是涉及SDwebui界面介绍参数含义及调整,txt2img怎么设置特征点,img2img怎么完善原始图像等内容。stablediffusionwebui(SDwebui)界面介绍SDwebui的默认地址为 127.0.0.1:7860目前有中文界面了,下文将以中文版为主,结合英文原文介绍。项目日常更新频繁,请定期gitpull更新:一个小白点的方法:在电脑资源管理器内,打开在stable-diffusion-webui文件夹,在地址栏输入cmd,然后敲回车,在该目录下调出命令提示行,然后在命令提示行窗口里输入

whisper深入-语者分离

文章目录学习目标:如何使用whisper学习内容一:whisper转文字1.1使用whisper.load_model()方法下载,加载1.2使用实例对文件进行转录1.3实战学习内容二:语者分离(pyannote.audio)pyannote.audio是huggingface开源音色包第一步:安装依赖第二步:创建key第三步:测试pyannote.audio学习内容三:整合学习目标:如何使用whisper学习内容一:whisper转文字1.1使用whisper.load_model()方法下载,加载model=whisper.load_model(参数)name需要加载的模型,如上图devi