草庐IT

Stable-Diffusion-Webui

全部标签

Stable Diffusion(SD)核心基础知识——(文生图、图生图)

文章目录一、StableDiffusion核心基础原理(一)StableDiffusion模型工作流程(二)StableDiffusion模型核心基础原理(三)StableDiffusion的训练过程(四)其他主流生成式模型二、StableDiffusion核心网络结构(一)SD模型整体架构(二)VAE模型(三)U-Net模型(四)CLIPTextEncoder模型StableDiffusion是计算机视觉领域的一个生成式大模型,可以用于文生图,图生图,图像inpainting,ControlNet控制生成,图像超分等丰富的任务。一、StableDiffusion核心基础原理(一)Stable

通过Stable Diffusion生成虚假的遥感影像

简介这两天玩了一下stablediffusion,是真的好玩!然后我在想遥感有没有相关的生成模型,找了一下,还真找到了(https://github.com/xiaoyuan1996/Stable-Diffusion-for-Remote-Sensing-Image-Generation/tree/main)。该模型的作者是空天院的Zhiqiangyuan,他提供了相关的训练代码、预测代码、已经训练好的模型等。[外链图片转存中…(img-lOFMZR6f-1705867377350)]生成效果因为我也不想装代码环境,就只下载了模型加载到stablediffusion中看看生成的遥感影像的效果。

Stable Diffusion完整入门指南,保姆级教程!

SD保姆教程,从原理功能到案例输出展示,最后简述ControlNet的使用技巧。StableDiffusion 的基本介绍首先官方给出的解释是:这和MJ有什么区别?为了更方便理解我们将StableDiffusion与Midjourney做一个对比:一、基础介绍这里分为三个部分:1.提示词2.符号的使用3.图像的输出1.提示词提示词分为正向和反向的正向提示词:生成图像时,我们可以使用正向提示词来指定想要生成的图像。正向提示词可以是脑子里想到的图片或一句话,将其拆分成不同的关键词,并用逗号隔开作为输入。需要注意的是,相同的指令在不同的模型库和参数下,生成的输出图像可能会不一样。此外,提示词的顺序也

AI作画工具 stable-diffusion-webui 一键安装工具(A1111-Web-UI-Installer)

安装下载最新版本确保你的NVIDIA显卡驱动程序是最新的(起码不能太老)启动安装程序在欢迎屏幕上单击下一步在屏幕上,选择要安装的内容如果你已经安装了Python3.10和Git,那么可以取消选中如果你不知道这些是什么,就按默认的来。(注意python这玩意,特定版本很重要)点击next等待下载/安装,耐心等待,安装在后台进行这一步的时候注意一下安装路径:整个工具加上模型,体积还是比较大的,最好装在SSD上,硬盘闲置空间大于40GB,以及避免安装路径中出现中文installSDCheckpoint:你要是不知道这个东西是什么,就保持勾选。Iunderstand:用户协议这种东西,懂的都懂,勾上就

Stable Diffusion VAE

简介StableDiffusion在逐步去噪的过程中,按照图片的原尺寸进行运算,由于图片尺寸的太大,需要很大的计算量。sd通常是在latentspace(潜在空间)运算的,相当于在压缩的图片上运算的,然后再恢复到原尺寸。VAE的encode和decode就是sd连接latentspace原真实图的通道。sd生图的时候,有无VAE的区别很大,效果图如下。VAE,作为生成式模型,有许多应用。VAE在StableDiffusion中是重要的一环,我们从sd的角度解析一下VAE。VAE全称VariationalAutoencoder(变分自编码器),主要有encode和decode两个过程,encod

AI绘画软件Stable Diffusion模型/Lora/VAE文件存放位置

型下载说明(下载模型后输入对应参数即可生成)建议直接去civitai.com找模型,如果无法找到可以在幕后模型区找也可以去,下载好后放入对应的文件夹。进入127.0.0.1:7680左上角刷新即可看到新的模型。模型种类大模型大模型特指标准的latent-diffusion模型。拥有完整的TextEncoder、U-Net、VAE。由于想要训练一个大模型非常困难,需要极高的显卡算力,所以更多的人选择去训练小型模型。CKPTCKPT格式的全称为CheckPoint(检查点),完整模型的常见格式,模型体积较大,一般单个模型的大小在7GB左右。文件位置:该模型一般放置在*\stable-diffusi

Stable Diffusion XL总结

StableDiffusionXL是一个二阶段的级联扩散模型,包括Base模型和Refiner模型。其中Base模型的主要工作和StableDiffusion一致,具备文生图,图生图,图像inpainting等能力。在Base模型之后,级联了Refiner模型,对Base模型生成的图像Latent特征进行精细化,其本质上是在做图生图的工作。Base模型由U-Net,VAE,CLIPTextEncoder(两个)三个模块组成,在FP16精度下Base模型大小6.94G(FP32:13.88G),其中U-Net大小5.14G,VAE模型大小167M以及两个CLIPTextEncoder一大一小分别

【云上探索实验室】使用 Amazon Bedrock 体验构建Stable Diffusion-文本生成图像生成式 AI 应用

生成式人工智能(AI)正以惊人的速度蓬勃发展,不断推动着科技创新的边界。在前不久的re:Invent2023大会上,Selipsky为我们重点介绍了全托管式生成式AI服务AmazonBedrock,并表示AmazonBedrock极大地降低了客户从基础模型到构建生成式AI应用的门槛,用户仅需通过简单的几个步骤创建和部署完全托管式的Agent,通过动态调用API来执行复杂的业务任务。这一全新的服务范式不仅可以加速生成式AI应用的推广和采用,也可以为各行业在人工智能革命中找到更为便捷的落地途径。本文将展示AmazonBedrock的基本使用方法,并构建AmazonBedrock-Image模式体验

【扩散模型】12、Stable Diffusion | 使用 Diffusers 库来看看 Stable Diffusion 的结构

文章目录一、什么是StableDiffusion二、Diffusers库三、微调、引导、条件生成3.1微调3.2引导3.3条件生成四、StableDiffusion4.1以文本为条件生成4.2无分类器的引导4.3其它类型的条件生成:超分辨率、图像修补、深度图到图像的转换4.4使用DreamBooth微调五、使用Diffusers库来窥探StableDiffusion内部5.1StableDiffusionPipeline5.2文本到图像5.3图像到图像5.4In-painting5.5Depth2Image5.6ControlNet5.6.1ControlNet与CannyEdge5.6.2C

安装docker报错failure: repodata/repomd.xml from docker-ce-stable: [Errno 256] No more mirrors to try. ht

一、问题:运行sudoyum-config-manager--add-repohttps://download.docker.com/linux/centos/docker-ce.repo之后报错sudoyum-config-manager--add-repohttps://download.docker.com/linux/centos/docker-ce.repofailure:repodata/repomd.xmlfromdocker-ce-stable:[Errno256]Nomoremirrorstotry.https://download.docker.com/linux/cent