草庐IT

Diffusion-XL

全部标签

Stable Diffusion - 编辑生成 (OpenPose Editor) 相同人物姿势的图像

欢迎关注我的CSDN:https://spike.blog.csdn.net/本文地址:https://spike.blog.csdn.net/article/details/131818943OpenPoseEditor是StableDiffusion的扩展插件,可以自定义人物的姿势和表情,以及生成深度、法线和边缘图等信息,打造个性化的人物绘画,或者修复和提高图像的质量,是ControlNet中OpenPose的有力补充,即sd-webui-openpose-editor。1.图像反推提示词模型:DreamShaper7使用图生图中反推图像提示词功能,融合CLIP和DeepBooru,再添加

AI绘图实战(十二):让AI设计LOGO/图标/标识 | Stable Diffusion成为设计师生产力工具

S:AI能取代设计师么?I:至少在设计行业,目前AI扮演的主要角色还是超级工具,要顶替?除非甲方对设计效果无所畏惧~~预先学习:安装及其问题解决参考:《Windows安装StableDiffusionWebUI及问题解决记录》;运行使用时问题《Windows使用StableDiffusion时遇到的各种问题整理》;模型运用及参数《StableDiffusion个人推荐的各种模型及设置参数、扩展应用等合集》;提示词生图咒语《AI绘图提示词/咒语/词缀/关键词使用指南(StableDiffusionPrompt设计师操作手册)》;不同类的模型Models说明《解析不同种类的StableDiffus

关于Photoshop中的【Stable-Diffusion WEBUI】插件:Auto.Photoshop.SD.plugin

文章目录(零)前言(一)PS的插件(1.1)安装(1.2)简评(零)前言本篇主要提到Photoshop中的Stable-DiffusionWEBUI插件,相对WEBUI并不算好用,但省得来回切换。更多不断丰富的内容参考:🔗《继续Stable-DiffusionWEBUI方方面面研究(内容索引)》(一)PS的插件参考:https://github.com/AbdullahAlfaraj/Auto-Photoshop-StableDiffusion-Plugin不能从WEBUI中直接安装,请选择从url安装吧。💡这个插件已经开发好几个月了……它利用WEBUI的API,从PhotoShop中直接使用

Stable Diffusion - SDXL 模型测试 (DreamShaper 和 GuoFeng v4) 与全身图像参数配置

欢迎关注我的CSDN:https://spike.blog.csdn.net/本文地址:https://spike.blog.csdn.net/article/details/132085757图像来源于GuoFengv4XL模型,艺术风格是赛博朋克、漫画、奇幻。全身图像是指拍摄对象的整个身体都在画面中的照片,可以展示人物的姿态、服装、气质等特点,也可以表达一种情绪或故事。全身图像的拍摄需要注意构图、光线、角度、姿势等方面。全身图像的提示词:fullbodyshot,(head-to-toeshot:1.2),1girl,anasianbeatifulwomaninadressandjacke

Stable Diffusion - 人物坐姿 (Sitting) 的提示词组合 与 LoRA 和 Embeddings 配置

欢迎关注我的CSDN:https://spike.blog.csdn.net/本文地址:https://spike.blog.csdn.net/article/details/132201960拍摄人物坐姿时,需要注意:选择一个舒适和自然的坐姿,符合个性和心情。可以坐在椅子、沙发、长凳、凳子或者地上。避免坐得太僵硬或者太懒散。放松肩膀和颈部,保持背部直但不僵硬。根据相机的角度和距离调整腿和脚。可以交叉腿,弯曲一条腿,伸直另一条腿,把脚塞在身下,或者悬在座位的边缘。尽量在腿和身体之间留一些空间,避免看起来臃肿或拥挤。用胳膊和手来增加姿势的多样性和表现力。可以把肘部放在膝盖上,托住下巴或脸颊,摸摸

图像生成模型【自编码器、RNN、VAE、GAN、Diffusion、AIGC等】

目录监督学习与无监督学习生成模型自编码器从线性维度压缩角度:2D->1D线性维度压缩:3D->2D推广线性维度压缩流形自编码器:流形数据的维度压缩全图像空间自然图像流形自编码器的去噪效果自编码器的问题图像预测(“结构化预测”)显式密度模型RNNPixelRNN[vanderOordetal.2016]PixelCNN [vanderOordetal.2016]VariationalAuto-Encoder (变分自编码器VAE)变分自编码器VAEVAEvsPixelRNN​编辑隐变量模型VAE的“不温顺”:IntractabilityGenerativeAdversarialNetwork (

Stable Diffusion 提示词技巧

文章目录背景介绍如何写好提示词提示词的语法正向提示词负向提示词随着AI技术的不断发展,越来越多的新算法涌现出来,例如StableDiffusion、Midjourney、Dall-E等。相较于传统算法如GAN和VAE,这些新算法在生成高分辨率、高质量的图片方面表现更加卓越,把AI图像生成又提升了一个新的高度,AI图像生成对各行各业都带来了很重要的影响。如StableDiffusion技术只需要通过设计好的文字来生成所需要的图片,而这些文字我们称为提示词,故提示词的设计也决定着生成图片的质量。背景介绍StableDiffusion是一个基于LatentDiffusionModel(LDM)的文生

使用ControlNet控制Stable-Diffusion出图人物的姿势

概述在Stable-Diffusion(以下简称SD)出图中,我们往往需要对出图人物的姿势进行控制,这里我使用一个比较简单上手的方法,通过ControlNet可以很方便地对画面风格,人物姿势进行控制,从而生成更加符合自己期望的图片安装ControlNet跟SD配合的插件工具的项目地址是:https://github.com/Mikubill/sd-webui-controlnet将项目gitclone到SD的extensions目录下即可,然后重启运行SD的webgui,即可完成安装下载ControlNet模型ControlNet的模型仓库地址在huggingFace:https://hugg

由浅入深理解Latent Diffusion/Stable Diffusion(3):一步一步搭建自己的Stable Diffusion Models

DiffusionModels专栏文章汇总:入门与实战前言:关于如何使用stablediffusion的文章已经够多了,但是由浅入深探索stablediffusionmodels背后原理,如何在自己的科研中运用stablediffusion预训练模型的博客少之又少。本系列计划写5篇文章,和读者一起遨游diffusionmodels的世界!本文主要介绍带大家一步步搭建自己的stablediffusionmodels。目录背景设置仔细研究文本到嵌入pipeline

【深度学习】扩散模型(Diffusion Model)详解

【深度学习】扩散模型(DiffusionModel)详解文章目录【深度学习】扩散模型(DiffusionModel)详解1.介绍2.具体方法2.1扩散过程2.2逆扩散过程2.3损失函数3.总结4.参考1.介绍扩散模型有两个过程:扩散过程:如上图所示,扩散过程为从右到左X0→XTX_0\rightarrowX_TX0​→XT​的过程,表示对图片逐渐加噪,且Xt+1X_{t+1}Xt+1​是在XtX_{t}Xt​上加躁得到的,其只受XtX_{t}Xt​的影响。因此扩散过程是一个马尔科夫过程。X0X_0X0​表示从真实数据集中采样得到的一张图片,对X0X_0X0​添加TTT次噪声,图片逐渐变得模糊。