fc-stable-diffusion-plus
全部标签1、训练图片收集比如要训练一个自己头像的模型,就可以拍一些自己的照片(20-50张,最少15张),要求画质清晰,脸部轮廓清楚,背景较为简单的照片。2、使用stable_diffusion的预处理功能进行图片的预处理这里可以根据自己的情况设置不同的宽高,以及相关的设置项,设置完成之后,点击“预处理”就可以进行图像的预处理了,预处理进度会在右侧显示。处理完成之后的文件夹内文件统一转成了512*512的png格式,并且多了一个txt文件,这个文件里面就是图片内容的提示词。3、lora-scripts环境搭建 (1)先将lora-scripts项目(GitHub-Akegarasu/lora-scri
文章目录StableDiffusionXLwebuidreambooth插件Linux安装(保姆级教程)前言安装下载dreambooth仓库下载SDXL预训练模型其他文件下载前注意下载前准备下载StableDiffusionXLwebuidreambooth插件Linux安装(保姆级教程)前言在安装这个插件之前,我已经安装了SDXLwebui,tagger插件,具体安装操作可以参考之前的文章:SDXLwebui、tagger插件。之前已经安装了tagger插件,用来反推训练图像的提示词,接下来,我们可以利用dreambooth插件来训练我们的LoRA模型了。安装下载dreambooth仓库只需
最近有一款聊天机器人框架LobeChat火出了天际,它不仅支持多模态,支持语音会话,还有一个强大的FunctionCalling插件生态系统(可以作为ChatGPT插件的平替)。最重要的是,它的UI很漂亮,一看就是小姐姐精心设计过的~连Vercel的CEO都给它点赞了:项目地址:https://github.com/lobehub/lobe-chat下面我们来实际体验一下这个项目到底有哪些功能。首先打开Sealos的LobeChat应用模板页面:https://template.cloud.sealos.io/deploy?templateName=lobe-chat然后输入你的OpenAIA
StableDiffusion的整个算法组合为:UNet+VAE+文本编码器UNet:就是我们大模型里的核心。文本编码器:将我们的prompt进行encoder为算法能理解的内容(可以理解为SD外包出去的项目CLIP)。VAE:对UNet生成的图像作后处理。上图中红框代表的是大模型,可以通过下拉的方式来替换自己所需要的大模型。该参数控制着出图内容的基调,如真实场景、二次元或建筑模型。我们可以将其理解为拥有无数图像的数据库,根据prompt拿出一堆相关图像拼到一起生成出最终的图像。也就是说想要生成什么样的内容,就得需要一个什么样的数据库。通常,我们所使用的大模型都是在最原始的大模型SD1.5或者
文章目录Windows安装git下载StableDiffusionwebUIGitHub源码stable-diffusion模型下载生成错误排查处理推荐阅读使用的开源库为StableDiffusionwebUI,它是基于Gradio库的StableDiffusion浏览器界面。运行StableDiffusion需要硬件要求比较高,运行时会消耗较大的GPU资源,硬件环境最好是有独立显卡。所以我在家里的PC上进行部署环境,此前玩WOW,买了一张独立显卡GTX1660Ti,看看能不能运行起来。Windows安装gitGit安装包下载地址:https://git-scm.com/download/wi
不管是element-plus还是上一个版本的element-ui,都是一个使用很广泛的基于css+html+js的ui组件库,它的form表单自带强大的校验功能,form-item的prop怎么写才正确,实现逻辑是怎么样的?element-plus的form表单的model、form-item做校验用的prop、lodash的get都有什么关系??如果弄懂了这些关系,那么下次可能就不再需要查阅了。下面开始进入具体场景:在最简单的form表单里面,只要这么写就能使form表单自带的validate方法生效,调用api实现各种需求,像下面这样:但是,往往需求有时候更复杂一点,比如,动态渲染的表单
DiffusionModels视频生成-博客汇总前言:StableVideoDiffusion已经开源一周多了,技术报告《StableVideoDiffusion:ScalingLatentVideoDiffusionModelstoLargeDatasets》对数据清洗的部分描述非常详细,虽然没有开源源代码,但是博主正在尝试复现其中的操作。这篇博客先梳理一下StableVideoDiffusion的数据清洗部分。原始收集数据集的缺点(1)生成视频模型对运动不一致很敏感,例如剪切通常许多包含在原始和未处理的视频数据中。(2)字幕影响。理想情况下每个视频有对应的多个字幕。级联剪辑用了三个切割器以
一、AnimateDiff简介AnimateDiff采用控制模块来影响StableDiffusion模型,通过大量短视频剪辑的训练,它能够调整图像生成过程,生成一系列与训练视频剪辑相似的图像。简言之,AnimateDiff通过训练大量短视频来优化图像之间的过渡,确保视频帧的流畅性。与传统的SD模型训练方式不同,AnimateDiff通过大量短视频的训练来提高图像之间的连续性,使得生成的每一张图像都能经过AnimateDiff微调,最终拼接成高质量短视频。二、安装AnimateDiff要使用AnimateDiff,需要安装SD插件和AnimateDiff模型。插件安装:如果你可以科学上网,你可以
原文:StableDiffusion教程:4000字说清楚图生图-知乎目录收起基本使用涂鸦绘制局部绘制局部绘制(涂鸦蒙版)局部绘制(上传蒙版)批量处理总结资源下载“图生图”是StableDiffusion的核心功能之一,它的主要能力是根据现有的图片+提示词生成新的改造图片,这在日常的工作和生活中都特别有用。话不多说,让我们看看它都有什么神奇的魔法吧。基本使用本节以生成人物的二次元风格的照片为例,具体步骤如下:1、在StableDiffusion大模型这里选择一个二次元模型:2、在“图生图”这里上传一张人物肖像照,并编写对应的提示词和反向提示词。这里提示词是可选的,但是不填写可能会导致生成的图片
Controlnet更新的v1.1.4版本新预处理ip-adapter,这项新能力简直让stablediffusion的实用性再上一个台阶。这些更新将改变sd的使用流程。 1.ip-adapter是什么? ip-adapter是腾讯Ai工作室发布的一个controlnet模型,可以通过stablediffusion的webui使用,这个新的功能简单来说,他可以识别参考图的艺术风格和内容,然后生成相似的作品,并且还可以搭配其他控制器使用。可以说SD已经学会临摹大师的绘画并且运用到自己的作品上了。腾讯ai实验室论文资料:https://ip-adapter.github.io/IP-adapte