stable-diffusion-xl-refiner
全部标签聊到AI绘画,基本上就会聊到SD这个概念,毕竟作为开源可以本地部署的AI绘画软件,SD可能是目前的唯一选择,不管是webUI或者ComfyUI,还有国内的很多套壳绘画AI,都是sd作为基础进行二次优化的。那么SD到底是个啥,这篇文章就结合我个人的理解简单跟大家聊聊。基础介绍SD全称是StableDiffusion,稳定扩散模型,可以理解为一种技术,而大家常说的WebUI或者Comfyui都是这个技术的界面层,所以这一点首先要了解。StableDiffusion模型是一种基于扩散过程的生成模型,它用于生成高质量的图像。这种模型是在传统的扩散模型(DenoisingDiffusionProbabi
两天时间!我搞定了Intel显卡(核显)+Windows安装stable-diffusion-AI画画软件文章目录两天时间!我搞定了Intel显卡(核显)+Windows安装stable-diffusion-AI画画软件前言一、工具的选择二、工具的熟悉三、硬件的短板四、学习题外话耐力值变通性五、工具的部署部署环境安装步骤第一步、安装Python第二步、安装git第三步、下载StableDiffusion绘画软件第四步、安装绘画软件六、工具的使用第一个问题:缺少模型第二个问题:缺少openai依赖第三个问题:电脑数据精度第四个问题:硬件保护总结一、开源精神二、感谢小伙伴的帮助三、我的希望这篇博客
Stable-Diffusion-webui安装配置前言一、准备工作二、下载StableDiffusion启动器三、安装WebUI四、启动WebUI启动器前言随着人工智能技术的飞速发展,文本到图像生成已经成为一个热门领域。StabilityAI推出的StableDiffusion模型,不仅在技术上取得了重大突破,更在艺术创作和技术应用方面展现了无限的可能性。StableDiffusion是一种先进的生成扩散模型,能够创建高质量的图像。对于媒体创作者、开发者、研究人员来说,能够在WebUI上部署并安装StableDiffusion是一个重要的技能。本文将阐述如何基于秋叶大佬开发的启动器来安装st
我也不想标题党,可它们就是好萌啊!看看下面这些你认识多少?我是憨憨,一个不会画画的设计师。过去半年里,AI绘画曾经多次引爆公众讨论,网络上那些精致的二次元同人插画、堪比真人的AI穿搭博主、打破次元壁的赛博Coser……背后都有一个“幕后黑手”——StableDiffusion,其背后的技术便是人们常说的扩散模型(扩散模型这个概念源自热力学,在图像生成问题中得以应用)。想知道上面这些精致的插画是如何实现的吗?接下来,我将结合这个案例带你走进StableDiffusion的世界,帮你系统性地了解并掌握这神奇AI绘画魔法。虽然我们把这个过程称之为AI绘画,但实际上它并不是像人类画图一样打草稿、构线描
文章目录LDM概述原理模型架构自编码器模型扩散模型条件引导模型图像生成过程实验结果指标定义IS(越大越好)FID(越小越好)训练成本与采样质量分析不带条件的图片生成基于文本的图片生成基于语义框的图片生成基于语义图的图片生成超分辨率图像生成图像重绘其他文生图模型DALL-EImagen在上一章,我们了解了扩散模型的基本原理,但它离实现StableDiffusion的文生图或图生图功能显然还有一段距离,那就是如何将文字或图片信息融入到生成图片的过程中,比如,像下图这样?除此之外,扩散模型的一个重要特点就是维度的不变性,这就限制了生成图片大小的上限,原始论文中最大的图片生成大小也就是256×256,
stable-diffusionmodel目录修改、自定义修改文件stable-diffusion-webui/modules/paths_internal.py28行修改文件stable-diffusion-webui/modules/paths_internal.py28行models_path=os.path.join(data_path,"models")#原来models_path='/workspace/diffusion_model/Stable-diffusion'#你想修改的路径
在StableDiffusion中,采样器(Sampler)是指用于生成图像的一种技术或方法,它决定了模型如何从潜在空间中抽样并生成图像。采样器在生成图像的过程中起着重要作用,影响着生成图像的多样性、质量和创造性。以下是对StableDiffusion采样器的详细解释:潜在空间抽样:采样器负责从潜在空间中抽样,并将这些样本输入到生成器中以生成图像。潜在空间是一个高维向量空间,其中每个向量代表一个潜在的图像表示。通过从潜在空间中抽样不同的向量,采样器可以生成不同的图像样本。采样策略:采样器决定了从潜在空间中抽样的方式和策略。不同的采样策略可能会导致生成图像的多样性和质量不同。例如,随机采样器可以
最近AI大热,从ChatGPT到StableDiffusion,各种AI生成模型层出不穷,作为凑热闹爱好者,也在不停尝试玩一玩各种模型。近期对于StableDiffusion模型比较感兴趣,之前也看到了很多在苹果电脑上运行StableDiffusion的文章,碰巧前段时间关注到了Apple开源的一个在M1/M2芯片上使用CoreML运行StableDiffusion的项目 ,于是就在这里介绍下如何快速上手这个项目。环境官方推荐的运行环境如下:PythonmacOSXcodeiPadOS,iOS3.813.114.216.2步骤conda环境这里我们使用conda来管理运行环境,所以需要首先安装
SVD官方主页:Huggingface||Stability.ai||论文地址huggingface在线运行demo:https://huggingface.co/spaces/multimodalart/stable-video-diffusionSVD开源代码:Github(含其他项目)||Huggingface在Comfyui使用:ComfyUI国内下载|SVD模型下载||官网下载(Github)文章目录一、SVD是什么,能做什么?(图片到视频)1.1模型的缺点(不能干的事情)?二、在comfyui中使用(约15G`显存`)2.1Stable-XL生成图片再生成视频(Text2Img2V
Clip终止层数什么是ClipCLIP(ContrastiveLanguage-ImagePretraining)是由OpenAI于2021年开发的一种语言图像对比预训练模型。其独特之处在于,CLIP模型中的图像和文本嵌入共享相同的潜在特征空间,这使得模型能够直接在图像和文本之间进行对比学习。CLIP模型通过训练使相关的图像和文本在特征空间中更紧密地结合在一起,同时将不相关的图像在特征空间中分开。这种对比学习的方式使得CLIP模型能够理解图像和文本之间的语义关系,并在各种视觉和语言任务上取得优异的表现,如图像分类、文本检索、图像生成等。CLIP的出现对于促进图像和文本之间的跨模态理解和交互具有