草庐IT

Diffusion-GAN

全部标签

2024-01-11 部署Stable Diffusion遇挫记

点击C语言编程核心突破>快速C语言入门部署StableDiffusion遇挫记前言一、一如既往的`GitHub`部署二、使用的感受总结createbyStableDiffusion;prompt:firewaterllama前言要解决问题:由于近期的努力,已经实现语音转文字模型,通用chat迷你大模型的本地部署与使用自由,貌似还缺了一个图像,别无选择stablediffusion想到的思路:stable-diffusion+WebUI,既然已经有人搭了台子,咱们唱戏就完了.其它的补充:这是我部署AI模型最不顺利的一次,因为笑脸被墙了,导致很多问题.一、一如既往的GitHub部署https://

2024年1月11日最热AI论文Top5:开源界Stable Diffusion杀手、Prompt-tuning、零和游戏博弈

本文整理了今日发表在ArXiv上的AI论文中最热门的TOP5。以下内容由 赛博马良-「AI论文解读达人」 智能体生成,人工整理排版。「AI论文解读达人」智能体可提供每日最热论文推荐、AI论文解读等功能。如需查看其他热门论文,欢迎移步saibomaliang.com ^_^TOP1PIXART-δ:FastandControllableImageGenerationwithLatentConsistencyModels标题:秒出大作!清华&HuggingFace联手打造PIXART-δ,图像生成速度提升7倍,开源界的StableDiffusion杀手标签:HuggingFace、Tsinghua

Stable Diffusion初体验

体验了下StableDiffusion2.0的图片生成,效果还是挺惊艳的,没有细调prompt输入,直接输入了下面的内容:generateaEliminationGameimageofburnningtree,Cyberpunkstyle然后点击生成,经过了10多秒的等待就输出了下面的结果。稍后会稍微深入的学习下stablediffusion的生成过程,以及深入的使用方法。同时也会将学习心得在这里与大家一起分享交流。注:文中图片使用stablediffusion生成;

【没有哪个港口是永远的停留~论文解读】stable diffusion 总结 代码&推导&网络结构

了解整个流程:【第一部分】输入图像x(W*H*3的RGB图像)【第一部分】x经过编码器生成 (latent空间的表示)h*w*c(具体设置多少有实验)【第二部分】逐步加噪得到,和噪声标签【第二部分】由Unet()预测噪声与噪声标签得到loss,训练【第三部分】由Clip得到文本编码或者图像编码。以改变K和V的方式添加到Unet【第二部分】训练后,Unet(随机高斯,文本等条件)得到z【第一部分】解码器D将z 重建成RGB图像本文公式推导没有简化,从最原始概率到最终表达式,细致到具体约分!!!仅此一篇足以学会写文不易,点赞收藏关注本文将分为3个部分讲解生成模型全过程:第一部分:VAE编码器第二部

图文教程:stable-diffusion的基本使用教程 txt2img(多图)

之前我介绍了SD的安装过程,那么这篇将介绍怎么使用SD使用模型SD安装好之后,我们只有一个默认的模型。这个模型很难满足我们的绘图需求,那么有2种方法。1是自己训练一个模型(有门槛)2是去网站上找一个别人练好的模型。很显然的,我需要选择第二种方法。那么现在最主流的网站就是这个C站。https://civitai.com/打开C站首页是这样的,这篇文章,我主要使用C站的2个模型来介绍选择我们需要使用的模型,进入它的主页后,点击download,我们将路径选择webui的安装目录的models里的stable-diffusion文件夹里,我的是-->D:\sd\stable-diffusion-we

Stable Diffusion——外挂VAE模型

stablediffusion种的vae作用是什么?StableDiffusion是一种基于变分自编码器(VAE)的深度学习模型,其作用主要是用于文本生成图像。具体来说,VAE是一种生成模型,可以学习到数据的潜在表示空间,并将其用于生成新的数据样本。StableDiffusion的VAE模型在训练过程中会学习到一组潜在变量,这些潜在变量可以捕捉到图像中丰富的语义和结构信息。在生成新的图像时,VAE可以将输入的文本表示转化为潜在变量,然后再从潜在表示空间中生成新的图像。这种基于文本生成的图像具有很高的稳定性和可复现性,因此得名“StableDiffusion”。总的来说,StableDiffus

手把手教你用 Stable Diffusion 写好提示词

StableDiffusion技术把AI图像生成提高到了一个全新高度,文生图Texttoimage生成质量很大程度上取决于你的提示词Prompt好不好。前面文章写了一篇文章:一份保姆级的StableDiffusion部署教程,开启你的炼丹之路本文从“如何写好提示词”出发,从提示词构成、调整规则和chatGPT辅助工具等角度,对文生图的提示词输入进行归纳总结。喜欢本文记得收藏、关注、点赞,喜欢技术交流,可以加入我们。文章目录通俗易懂讲解大模型系列技术交流一背景介绍二如何写好提示词?1正面提示词(1)主体(2)画风(3)风格(4)画家(5)网站(6)分辨率(7)额外细节(8)色调(9)光照2负面提

Stable Diffusion WebUI无法打开,一直显示Loading或载入中,最后无响应直接崩溃卡死(您可以等待该页面恢复响应,也可以退出该页面)或能打开但非常缓慢,点击需要很久才有反应

StableDiffusionWebUI无法打开,一直显示Loading或载入中,最后无响应直接崩溃卡死(您可以等待该页面恢复响应,也可以退出该页面)或能打开但非常缓慢,点击需要很久才有反应⚙️1.软件环境⚙️🔍2.问题描述🔍🐡3.解决方法🐡🤔4.结果预览🤔⚙️1.软件环境⚙️Windows10教育版64位Python3.10.6Chrome版本119.0.6045.199(正式版本)(64位)Edge119.0.2151.72(正式版本)(64位)StableDiffusionWebUI1.6.0🔍2.问题描述🔍StableDiffusionWebUI在自动打开以及输入本地地址后,一直显示L

Stable Diffusion WebUI安装ControlNet插件

ControlNet是一种通过添加额外条件来控制扩散模型的神经网络结构。sd-webui-controlnet下载地址:GitHub-Mikubill/sd-webui-controlnet:WebUIextensionforControlNetWebUIextensionforControlNet.ContributetoMikubill/sd-webui-controlnetdevelopmentbycreatinganaccountonGitHub.https://github.com/Mikubill/sd-webui-controlnet安装ControlNet插件打开WebUI界面