草庐IT

Diffusion-GAN

全部标签

【扩散模型】万字长文全面理解与应用Stable Diffusion

万字长文全面理解与应用StableDiffusion1.StableDiffusion简介1.1基本概念1.2主体结构1.3训练细节1.4模型评测1.5模型应用1.6模型版本1.7其他类型的条件生成模型1.8使用DreamBooth进行微调2.实战StableDiffusion2.1环境准备2.2从文本生成图像2.3StableDiffusionPipeline2.3.12.3.2分词器和文本编码器2.3.3UNet2.3.4调度器2.3.5DIY采样循环2.4其他管线应用2.4.1Img2Img2.4.2Inpainting2.4.3Depth2Image3.StableDiffusion的

Stable Diffusion 系列教程 | 文生图 - 提示词

目录1.提示词基本的规则2.提示词分类2.1内容性提示词2.2画风艺术派提示词2.3画幅视角2.4画质提示词3反向提示词3.1内容性反向提示词3.2画质性反向提示词4实例分析5权重5.1方法一5.2方法二6.参数7.学习and技巧7.1辅助写提示词的网站7.2学习他人优秀作品Prompts提示词是指用户输入的指导模型生成图像的文本信息,他是我们要告诉AI我要画什么,怎么画最方便的方式可以想象我们是呼风唤雨的魔法师,那么Promts就好比我们的咒语不过有些时候我们的咒语不那么灵验,因为我们的AI绘画具有随机性,所以需要多多尝试我们知道AI绘画可以图生图,但是即便图生图也会依赖好的提示词接下来我们

Stable Diffusion XL(SDXL)核心基础知识

文章目录一、StableDiffusionXL基本概念二、SDXL模型架构上的优化(一)SDXL的整体架构(二)VAE(三)U-Net(四)textencoder(五)refinermodel三、SDXL在训练上的技巧(一)图像尺寸条件化(二)图像裁剪参数条件(三)多尺度(宽高比)图片训练一、StableDiffusionXL基本概念StableDiffusionXL或SDXL是最新的图像生成模型,与以前的SD模型(包括SD2.1)相比,它专为更逼真的输出而定制,具有更详细的图像和构图。与StableDiffusionV1-v2相比,StableDiffusionXL主要做了如下的优化:对St

全面理解Stable Diffusion采样器

全面理解StableDiffusion采样器原文:StableDiffusionSamplers:AComprehensiveGuide在AUTOMATIC1111的SDwebui中,有许多采样器(sampler),如Eulera,Heun,DDIM,…什么是采样器?他们如何工作?他们之间的区别是什么?我们应该用哪种采样器?本文将带给你答案。什么是采样?在生成图片时,StableDiffusion会先在隐层空间(latentspace)中生成一张完全的噪声图。噪声预测器会预测图片的噪声,将预测出的噪声从图片中减去,就完成了一步。重复该过程,最终将会得到清晰的图片。由于StableDiffusi

stable diffusion模型评价框架

GhostReview:全球第一套AI绘画ckpt评测框架代码-知乎大家好,我是_GhostInShell_,是全球AI绘画模型网站Civitai的AllTimeHighestRated(全球历史最高评价)第二名的GhostMix的作者。在上一篇文章,我主要探讨自己关于ckpt的发展方向的观点,简单来说,即checkpoin…https://zhuanlan.zhihu.com/p/647150677港中大和商汤提出HPSv2:为文本生成图像模型提供更可靠的评价指标_Amusi(CVer)的博客-CSDN博客点击下方卡片,关注“CVer”公众号AI/CV重磅干货,第一时间送达点击进入—>【扩散

Python - Wave2lip 环境配置与 Wave2lip x GFP-GAN 实战 [超详细!]

一.引言前面介绍了GFP-GAN的原理与应用,其用于优化图像画质。本文关注另外一个相关的项目Wave2lip,其可以通过人物视频与自定义音频进行适配,改变视频中人物的嘴型与音频对应。二.Wave2Lip简介Wave2lip研究 lip-syncing以达到视频匹配目标语音片段的目的。目前的作品擅长在训练阶段看到的特定人的静态图像或视频。然而,它们无法准确地改变动态、无约束的谈话面部视频中的任意身份。通过学习强大的唇同步鉴别器来解决它们。接下来,我们提出了新的、严格的评估基准以及在无约束视频中精确测量嘴唇同步的度量。对我们具有挑战性的基准进行了广泛的定量评估,结果表明视频的唇同步准确性几乎和真正

云服务器部署Stable Diffusion Webui从0到1总结:反复重启+循环debug

文章目录在学校服务器部署StableDiffusionWebui(一)准备工作(二)环境配置(三)git拉取项目到本地(四)运行项目遇到的问题:(一)使用gitclone时,Failedtoconnectto127.0.0.1port7890(二)使用gitclone时,出现RPCfailed(三)RuntimeError:Couldn’tinstallopen_clip(四)Couldn'tcheckout{name}'shash:{commithash}.(五)Failurewhenreceivingdatafromthepeer(六)OpenSSLSSL_read:SSL_ERROR_S

【机器学习】什么是GAN 小孩都看得懂的 GAN

以下内容来自:王圣元 王的机器0 GAN是什么GAN的全称是GenerativeAdversarialNetwork,中文是生成对抗网络。一言以蔽之,GAN包含了两个神经网络,生成器(generator)和辨别器(discriminator),两者互相博弈不断变强,即生成器产出的东西越来越逼真,辨别器的识别能力越来越牛逼。2造假和鉴定生成器和辨别器之间的关系很像造假者(counterfeiter)和鉴定者(Appraiser)之间的关系。造假者不断造出假货,目的就是蒙骗鉴定者,在此过程中其造假能力越来越高。鉴定者不断检验假货,目的就是识破造假者,在此过程中其鉴定能力越来越高。GAN是造假者的,

【2023年新版】stable diffusion安装教程,一键安装,永久使用,stable diffusion安装包

目前AI绘画最火的就是MJ和SD了,但是我个人使用下来,觉的SD比MJ的功能更加强大一些,SD能做的太多太多了,比如绘画,动画,视频等等,下面就给大家讲解一下SD的安装教程步骤第一步:   首先下载好stable diffusion整合包,到我们的电脑上,这里需要说明一下,千万不要安装在C盘,最好是其它盘,而且盘的内存至少还有100G左右的空间,SD后期安装模型插件等等,内存都是非常大的,我这边解压到了D盘第二步:   先开打第一个文件夹修复安装一下插件,电脑必须安装了这个才可以,有些电脑有,有些没有,如果你不知道,建议还是先安装修复一下第三步:   返回到上一步,打开第二个文件夹,往下滑找到

基于CPU的云部署Stable-diffusion-webui的详细过程

最近看到很多很精美的AI图片,也想体验下,正好我有台2vCPU和2G内存轻量云服务器,但是不想再额外买GPU,就想着用CPU模式自己部署,部署经过摸索能顺利完成,但是加载模型已经很吃力,老是提示没有足够内存。本过程主要是用来记录部署的详细过程,仅针对于CPU跑Stable-diffusion-webui。1、机器配置要求机器的配置要求主要是针对CPU模式云部署Stable-diffusion-webui。CPU:任何现代AMD或IntelCPU。内存:至少8G内存。存储:这个其实影响不大。显卡: 不影响。系统: centos。2、配置Python环境2.1Miniconda3安装Minicon