草庐IT

DIFFUSION

全部标签

Stable Diffusion Webui 之 ControlNet使用

一、安装1.1、插件安装1.2、模型安装模型安装分为预处理模型和controlnet所需要的模型。先安装预处理模型,打开AI所在的安装目录\extensions\sd-webui-controlnet\annotator,将对应的预处理模型放进对应的文件夹中即可,而controlnet所需模型则是安装目录\extensions\sd-webui-controlnet\models,放在该文件夹下即可。二、ControlNet使用2.1、线稿上色通过ControlNet边缘检测模型或线稿模型提取线稿(可提取参考图片线稿,或者手绘线稿),再根据提示词和风格模型对图像进行着色和风格化。应用模型:Ca

这篇stable diffusion绘图教程让你十分钟玩转AI绘图

在我们需要提供好看的设计图案,但是受制于灵感等方面时,大家有没有想过使用AI绘画软件来解决这一问题呢?而且如果自己手动绘画比较困难或者耗时的情况下,一样可以采用这个方法进行解决。在绘制复杂的背景和纹理时,需要绘制大量的细节和纹理,如树叶、草地和云朵等,如果没有智能绘画工具,人们需要花费大量时间和精力来尝试绘制这些细节和纹理,虽然这些细节和纹理是画面中不可或缺的重要元素,但也是最容易被忽略的部分。因此,绘画者需要非常仔细地观察并描绘这些元素,以确保画面的真实感和逼真度。这里有一份stablediffusion绘图教学能帮助到你,快接着往下看吧!大家或许都想要使用stablediffusion这款

AI抠图使用指南:Stable Diffusion WebUI Rembg实用技巧

 抠图是图像处理工具的一项必备能力,可以用在重绘、重组、更换背景等场景。最近我一直在探索StableDiffusionWebUI的各项能力,那么SDWebUI的抠图能力表现如何呢?这篇文章就给大家分享一下。安装插件作为一个生成式AI,SD本身并没有精细的抠图控制能力,它需要借助插件来实现。这里我们使用stable-diffusion-webui-rembg这个插件,插件安装成功后,会出现在“高清化”这个页面的底部。安装方法一适合网络访问各种资源比较畅通的同学。插件地址:GitHub-AUTOMATIC1111/stable-diffusion-webui-rembg:Removesbackgr

LoRa模型训练教程(炼丹,Stable Diffusion)

1.lora介绍(LowRankAdaption)何为LoRA?LoRA并不是扩散模型专有的技术,而是从隔壁语言模型(LLM)迁移过来的,旨在解决避免将整个模型参数拷贝下来才能对模型进行调校的问题。因为大型语言模型的参数量过于恐怖,比如最近新出的GPT-4参数量约为100万亿。LoRA采用的方式是向原有的模型中插入新的数据处理层,这样就避免了去修改原有的模型参数,从而避免将整个模型进行拷贝的情况,同时其也优化了插入层的参数量,最终实现了一种很轻量化的模型调校方法。和上文提到的Hypernetwork相同,LoRA在稳定扩散模型里也将注意打在了crossattention(注意力交叉)机制上,L

使用Stable Diffusion生成艺术二维码

在数字艺术的世界中,二维码已经从单纯的信息承载工具转变为可以展示艺术表达的媒介。这是通过使用StableDiffusion的技术实现的,它可以将任何二维码转化为独特的艺术作品。接下来,我们将一步步教你如何使用StableDiffusion生成艺术二维码。需要的工具你需要一款名为AUTOMATIC1111StableDiffusionGUI的软件,它可以在GoogleColab、Windows或Mac上使用。你还需要安装一个名为ControlNet的扩展程序。生成二维码你首先需要一个二维码。为了提高成功的几率,你需要使用满足以下条件的二维码生成器:使用高容错率设置(30%)。二维码周围有白色边距

Stable Diffusion AI绘画学习指南【常用模型,采样器介绍】

常用采样器、目前有20个采样步骤越多每个步之间的降噪越小,减少采样过程中的截断误差,结果越好学微分方程求解器Euler(最简单的采样器,采样过程中不加随机噪声,根据采样计划来执行每个步骤中的噪声,并使用欧拉方法减少适当数量的噪声以适应噪声计划,到最后一步为0)、Heun(是对Euler的更精确的改进,但需要在每个步骤中预算两次噪声,处理速度相对会更慢一些)、LMS(解决学微分方程的标准方法,采样速度与Euler相同)祖先采样器.随机采样,采样过程具一定的随机性,缺点是图像不收敛Eulera(在每个步骤中减去比『应该』更多的噪声并添加一些随机的噪声以接近于噪声计划,去噪图像取决于前面步骤添加的特

AI 绘画Stable Diffusion 研究(三)sd模型种类介绍及安装使用详解

本文使用工具,作者:秋葉aaaki免责声明:工具免费提供无任何盈利目的大家好,我是风雨无阻。今天为大家带来的是AI绘画StableDiffusion研究(三)sd模型种类介绍及安装使用详解。目前,AI绘画StableDiffusion的各种模型层出不穷,这些模型都有什么作用?又该怎么安装使用?对于新手朋友来说,是非常大的困扰。这篇文章将会为你介绍AI绘画StableDiffusion的模型种类、模型的安装及使用方法、以及模型的选择和下载。不同的模型有不同的画风如:线条风格、手绘风格、立体风格、科幻风格、真人风格。还有不同的概念,例如:人物、物体、动作等。这些都是目前StableDiffusio

如何将 Stable Diffusion PT+YAML 转换成 diffusers 格式

Huggingface的diffusers格式是初学者最爱的格式,只需要简单几行代码,就可以下载模型,执行文字到图片转换等常用功能而有时候在网上淘模型的时候,经常会遇到原版StableDiffusion格式,只有一个.pt文件和一个.yaml配置文件,为了方便管理和加载,可以把原版格式转换为diffusers格式下面以waifu-diffusion-1.4为示例,演示下如何完成格式转换从网站上下载waifu-diffusion-1.4的文件https://huggingface.co/hakurei/waifu-diffusion-v1-4wd-1-4-anime_e1.yamlwd-1-4-

Midjourney危!Stable Diffusion-XL开启公测:会画手、能写字,再也不用写长prompt了

自从Midjourney发布v5之后,在生成图像的人物真实程度、手指细节等方面都有了显著改善,并且在prompt理解的准确性、审美多样性和语言理解方面也都取得了进步。相比之下,StableDiffusion虽然免费、开源,但每次都要写一大长串的prompt,想生成高质量的图像全靠多次抽卡。最近StabilityAI的官宣,正在研发的StableDiffusionXL开始面向公众测试,目前可以在Clipdrop平台免费试用。试用链接:​https://clipdrop.co/stable-diffusion​StabilityAI的创始人兼首席执行官EmadMostaque表示,目前该模型仍然处

Midjourney危!Stable Diffusion-XL开启公测:会画手、能写字,再也不用写长prompt了

自从Midjourney发布v5之后,在生成图像的人物真实程度、手指细节等方面都有了显著改善,并且在prompt理解的准确性、审美多样性和语言理解方面也都取得了进步。相比之下,StableDiffusion虽然免费、开源,但每次都要写一大长串的prompt,想生成高质量的图像全靠多次抽卡。最近StabilityAI的官宣,正在研发的StableDiffusionXL开始面向公众测试,目前可以在Clipdrop平台免费试用。试用链接:​https://clipdrop.co/stable-diffusion​StabilityAI的创始人兼首席执行官EmadMostaque表示,目前该模型仍然处