Stable-Diffusion-WebUI
全部标签前言之前已经讲过SDXL_LORA,SD1.5_LORA训练过程,基本说的比较清楚了,有兴趣可以去看看,下面我将讲解一下SD1.5大模型的炼制。SDXL_LORA:https://tian-feng.blog.csdn.net/article/details/132955577SD1.5_LORA:https://tian-feng.blog.csdn.net/article/details/132133361DreamBooth是一种定制个性化的TextToImage扩散模型的方法。仅需少量训练数据就可以获得极佳的效果。Dreambooth基于Imagen研发,使用时只需将模型导出为ckpt
过年刷资讯AI的信息铺天盖地,准备研究研究。最后选择从AI绘画的stablediffusion入手。本地安装了最新的Python(13.12.2)然后直接克隆GitHub-Stability-AI/stablediffusion:High-ResolutionImageSynthesiswithLatentDiffusionModels 按照说明文档尝试安装pipinstall-rrequirements.txt,碰到了一个错误具体记不太清了。网上说是因为torch和transformers版本不匹配的问题。最后把requirements.txt里面的transformers==4.19.2改
SD-WebUI是来自B站的秋葉aaaki大佬制作的一款AI绘画启动器。非常开心又进入学习时间,今天来学习关于图像大小、数量、CFG、种子等参数设置。英版原文:https://stable-diffusion-art.com/automatic1111//automatic1111/本文相关参数截图:一、宽度和高度不用解释所有人都明白,就是设置图片的大小。但需要注意一点,就是同样比例的图片精度不等于放大后为同样比例的图片精度。比如,原本尺寸为1024*1024的图片精度不如512*512经过放大算法放大至1024*1024的图片精度,这是因为“改善总是比创造更容易的”,1024*1024会和原
保姆级在Kaggle上部署stablediffusion,白嫖万元32G双GPU最近爆火的AI绘画项目stablediffusion,免费开源,受到广大用户的喜爱,但是它对电脑显卡有很高的要求,自己想玩AI但是购买服务器又太贵,本文将告诉你一个免费部署的方法。 Kaggle注册1、首先打开Kaggle官网:www.kaggle.com可以使用国内邮箱账号注册发送邮箱验证,输入邮箱验证码首先点击右上角的头像,进入设置 如果需要使用GPU,需要手机进行验证,点击手机使用你的手机号码进行校验可以看到我们有30小时的gpu的使用时间,这个时间每周都会重置。平均每天4个小时对于普通
安装这里参考了https://github.com/AUTOMATIC1111/stable-diffusion-webui的官方说明。这里依旧使用conda虚拟环境:(anaconda为例)wgethttps://repo.anaconda.com/archive/Anaconda3-5.3.0-Linux-x86_64.shchmod+xAnaconda3-5.3.0-Linux-x86_64.sh./Anaconda3-5.3.0-Linux-x86_64.sh建立虚拟环境:(这里只需python版本大于3.0)condacreate-nsdpython=3.10condainitbas
StableDiffusion是一个文本到图像的潜在扩散模型,由CompVis、StabilityAI和LAION的研究人员和工程师创建。它使用来自LAION-5B数据库子集的512x512图像进行训练。使用这个模型,可以生成包括人脸在内的任何图像,因为有开源的预训练模型,所以我们也可以在自己的机器上运行它,如下图所示。如果你足够聪明和有创造力,你可以创造一系列的图像,然后形成一个视频。例如,XanderSteenbrugge使用它和上图所示的输入提示创建了下面这段令人惊叹的《穿越时间》视频。以下是他用来创作这幅创造性艺术作品的灵感和文本:本文首先介绍什么是StableDiffusion,并讨
目录前提过程准备Git初始化权重文件模型文件文件配置(2024-02-1512:42更新)运行[notice]pip更新无tb-nightly包无xformers模块多处爆红ERROR出图报错NotImplementedError其他中文语言包安装轻薄本GPU加速参考文献前提Win11CPU:i5-13500HGPU:IntelXeGraphics占用空间:Stable-Diffusion-WebUI+Anything +AOM3A1 =20.1GPython3.11.5Git2.43.0过程准备Git初始化首先选一个空文件目录,右键-显示更多选项-OpenGitBashHere初始化:git
在前文本地大模型运行框架Ollama中,老苏留了个尾巴,限于篇幅只是提了一下OpenWebUI,有网友留言说自己安装没搞定,今天我们来补上文章传送门:本地大模型运行框架Ollama什么是OpenWebUI?OpenWebUI是针对LLM的用户友好的WebUI,支持的LLM运行程序包括Ollama和OpenAI兼容的API。OpenWebUI系统旨在简化客户端(您的浏览器)和OllamaAPI之间的交互。此设计的核心是后端反向代理,可增强安全性并解决CORS问题。外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传OpenWebUI功能演示【说明】:因为老苏的小机器不支持Nvidi
今天来给大家分享,如何用sd简单的咒语输出好看的图片的教程,今天做的是时尚杂志专题,话不多说直入主题。一、基本设置:正向提示词:画质:Highestquality,ultra-highdefinition,masterpieces,8kquality,画面主题:1girl,youngbeautifulgirl,Whiteskin,longlegs,delicateskin,bigeyes,ultradetailed,officialart,unity8kwallpaper,核心风格:(fashionmagazinecover:1.3),穿搭:见下面每一个咒语反向提示词:EasyNegative
本文收录于《AI绘画从入门到精通》专栏,专栏总目录:点这里。文章目录模型介绍生成案例案例一案例二案例三案例四案例五案例六案例七案例八案例九案例十