草庐IT

dart-webui

全部标签

Stable-diffusion-webui本地部署和简要介绍

 StableDiffusion是一款基于人工智能技术开发的绘画软件,它可以帮助艺术家和设计师快速创建高品质的数字艺术作品。是2022年发布的深度学习文本到图像生成模型。它主要用于根据文本的描述产生详细图像,同时也可以应用于其他任务,如内补绘制、外补绘制,以及在提示词指导下产生图生图的翻译。  StableDiffusion项目本地化的部署,是纯代码界面,而StableDiffusionWebUI,是基于StableDiffusion项目的可视化操作项目。这里我们也是部署StableDiffusionWebUI。本地部署StableDiffusionUI前置条件 在部署StableDiffus

Stable-diffusion WebUI API调用方法

写这篇文章的主要原因是工作中需要写一个用训练好的模型批量生图的脚本,开始是想用python直接加载模型,但后来发现webui的界面中有很多用起来比较方便的插件和参数,最终改成调用WebUI接口的方式来批量生图。Stable-diffusion的webui界面使用比较方便,但是它的api文档比较简陋,很多功能需要去看源码,所以在这里记录下主要的调用方法相关文档官方文档:API·AUTOMATIC1111/stable-diffusion-webuiWiki·GitHub运行方式#1.首先需要在webui-user.bat中给COMMANDLINE_ARGS添加--api参数#2.启动命令中需要添

text-generation-webui加载codellama报错DLL load failed while importing flash_attn_2_cuda: 找不到指定的模块。

使用text-generation-webui加载codellama,报错:Traceback(mostrecentcalllast):File"C:\Users\Ma\AppData\Roaming\Python\Python310\site-packages\transformers\utils\import_utils.py",line1353,in_get_modulereturnimportlib.import_module("."+module_name,self.__name__)File"D:\Anaconda\Anaconda\envs\codellama\lib\impor

[Stable Diffusion]:WEBUI(SD)安装、常用模型(checkpoint、embedding、LORA)、提示词具、常用插件

1. 安装Stable DiffusionStableDiffusion的安装可能是第一步,但它绝对是重要的一步。以下是一些安装方式:● AutoDL:AutoD镜像版本,现在维护到V16。镜像地址:AUTOMATIC1111/stable-diffusion-webui/tzwm_sd_webui_A1111。webui1.6.0 整合版,支持SDXL,一键启动,带视频教程。预置ControlNetv1.1.410 所有模型含IP-Adapter、汉化、tagger等常用插件、模型路径优化。有问题可以在微信交流讨论群咨询。● 秋叶整合包:可在B站搜索,Stable Diffusion,第一个

Flutter Dart FFI Pointer<Uint8>类型如何转成数组或String

前言继上一次发布的Flutter直接调用so动态库,或调用C/C++源文件内函数内容,最终我选择了第二种方式,直接把整个NativeC++的项目源代码放进了Flutter工程里编译(放在iOS的目录是因为它不支持自定义源码路径,Android是可以的)。这样的好处是Android和iOS两个平台都不需要分别再去写原生代码调用.so文件,也不用关注动态库平台,而且改动更方便。编译时Android侧会生成指定平台的.so文件(Gradle里配置),iOS侧会生成指定平台的.a文件(XCode里配置)背景Flutter的项目里需要调用C++进行APDU指令的操作和传输,APDU也就是一串16进制编码

stable-diffusion-webui(AI绘画)项目实现,即遇到的问题

 实现步骤:为了使环境中的库版本不会乱,导致自己电脑原来一些项目无法运行最好使用虚拟环境下载miniconda 在搜索中搜所miniconda找到建立虚拟环境D:gitclonehttps://ghproxy.com/https://github.com/AUTOMATIC1111/stable-diffusion-webui.git下载初始模型如果不下载好像在使用时会下载时间成,我们可以现在网页中下载好将模型名字换成model放在D:\stable-diffusion-webui\models\Stable-diffusion目录下 安装所需要的python库pipinstall-rrequ

Stable Diffusion XL webui dreambooth插件 Linux安装,训练LoRA(保姆级教程)

文章目录StableDiffusionXLwebuidreambooth插件Linux安装(保姆级教程)前言安装下载dreambooth仓库下载SDXL预训练模型其他文件下载前注意下载前准备下载StableDiffusionXLwebuidreambooth插件Linux安装(保姆级教程)前言在安装这个插件之前,我已经安装了SDXLwebui,tagger插件,具体安装操作可以参考之前的文章:SDXLwebui、tagger插件。之前已经安装了tagger插件,用来反推训练图像的提示词,接下来,我们可以利用dreambooth插件来训练我们的LoRA模型了。安装下载dreambooth仓库只需

【webUI】gradio基础使用2——Gallery组件显示多张图片

参考:https://www.gradio.app/docs/gallery|参考代码(老版本,有错误)gradio基础使用1:https://blog.csdn.net/imwaters/article/details/131400571说明基于python的浏览器上多图片显示,是很多复杂程序基本环节,本文写出最简单形式方便大家修改。应用:例如上传一张图片,经过处理,输出查询结果。注意官网文档不完善,如果不使用gradio.Gallery().style()是无法控制显示图片的布局的本文gradio_version3.34.0完整代码#-*-coding:utf-8-*-#@Time:202

Stable Diffusion 系列教程 - 2 WebUI 参数详解

StableDiffusion的整个算法组合为:UNet+VAE+文本编码器UNet:就是我们大模型里的核心。文本编码器:将我们的prompt进行encoder为算法能理解的内容(可以理解为SD外包出去的项目CLIP)。VAE:对UNet生成的图像作后处理。上图中红框代表的是大模型,可以通过下拉的方式来替换自己所需要的大模型。该参数控制着出图内容的基调,如真实场景、二次元或建筑模型。我们可以将其理解为拥有无数图像的数据库,根据prompt拿出一堆相关图像拼到一起生成出最终的图像。也就是说想要生成什么样的内容,就得需要一个什么样的数据库。通常,我们所使用的大模型都是在最原始的大模型SD1.5或者

Win 10部署stable-diffusion-webui时github报错的解决方法

这篇博客就是简单记录一下。有很多文章已经详细介绍了怎么在Windows上部署stable-diffusion-webui了,例如:本地部署StableDiffusion教程,详细教学,已安装成功-知乎(zhihu.com)五千字长文:StableDiffusion保姆级教程,附带免费绘画小程序-哔哩哔哩(bilibili.com)一份保姆级的StableDiffusion部署教程,开启你的炼丹之路(baidu.com)其实最简单的安装方法就是按照github上Readme里描述的:GitHub-AUTOMATIC1111/stable-diffusion-webui:StableDiffusi