Stable-Diffusion-webui
全部标签小伙伴们好,咱们今天演绎一个使用KerasCV的StableDiffusion模型生成新的图像的示例。考虑计算机性能的因素,这次咱们在Colab上进行,Colab您可以理解为在线版的JupyterNotebook,还不熟悉Jupyter的的小伙伴可以去看一下我以前的文章:政安晨的机器学习笔记——示例讲解机器学习工具JupyterNotebook入门(超级详细)https://blog.csdn.net/snowdenkeke/article/details/135880886概述在本篇中,我们将展示如何使用stability.ai的text-to-image模型StableDiffusion基
其实要在本地部署stable-diffusion不难,只要有“魔法”一切都水到渠成,如下图:(base)MacBook-Propython%gitclonehttps://github.com/AUTOMATIC1111/stable-diffusion-webuiCloninginto'stable-diffusion-webui'...remote:Enumeratingobjects:31021,done.remote:Countingobjects:100%(24/24),done.remote:Compressingobjects:100%(16/16),done.remote:To
中间有一些容易出错的点,我尽量写的详细一些。准备工作首先,打开https://openbayes.com/网站,注册openbayes。注册后应该会赠送三个小时的4090算力,可以尝试部署使用。部署完成后,使用支付宝进行实名认证(注意,一定要支付宝认证,不然webui显示会通不过ssl认证)。认证页面为右上角头像-账号设置。开始部署准备好之后打开页面。openbayse这个页面提供了Yi模型的wasmedge部署。请书签该页面,过一会儿需要来这里粘贴命令。准备完成后,点击克隆,会出现如下页面。若页面没问题,直接选择“下一步:选择算力”。这里可以看到,博主自己还剩1小时18分的4090算力。选择
通过之前的文章相信大家对文生图已经不陌生了,那么图生图是干啥的呢?简单理解就是根据我们给出的图片做为参考进行生成图片。一、能干啥这里举两个例子1、二次元头像真人转二次元,或者二次元转真人都行,下图为真人转二次元样例:左边真人,右边二次元2、换造型换装比如我要让真人漏牙齿,或者换头发颜色,换脸,换服装等等都可以用类似方法二、真人转二次元主要分三步,1.反推已经有的图片的关键词,这里的话就是反推真人图像的关键词2.选大模型,这里是转二次元就要选二次元模型3.调参找最优1.反推关键词这里用到了一个插件“WD1.4标签器”,如果是参考我之前文章安装的话,默认已经集成了。如上图,这里需要把关键词拷贝到翻
从gcc/g++8.1更新到9.1并重新编译我的代码后,它的大部分测试都失败了。因此,进行了一些挖掘,我发现std::stable_sort是问题所在。事实证明,我调用的大部分电话都是std::stable_sort没有必要,也就是说,调用std::sort就足够了。因此,我在可能的地方进行了替换,并且针对这些代码段的测试再次成功。现在,我只有一次调用std::stable_sortvoidMshReader::determinePhysicalEntitiesRange(){//connsisnotemptystd::stable_sort(this->conns.begin(),t
大家好,我是程序员晓晓。大家有没有见过一些破损的照片呢,可能照片缺个角,可能照片中间破损了一条线,在AI之前,修复类似的破损照片可能是个技术活,但是现在使用AI工具,基本上几分钟就可以搞定。我们先来看一下破损照片修复的处理效果。原照片修复后的照片:我们可以在修复照片的同时对人物服装或者背景进行修改。修复后的照片下面我们来看一下具体的操作方式。这里以修复下面的这张破损照片为例。【第一步】ControlNet的设置我们在ControlNet的单元0上传该破损的照片,并且在破损的区域使用画笔涂白。相关参数设置如下:控制类型:选择"局部重绘"预处理器:inpaint_only+lama(局部重绘+大型
本文收录于《AI绘画从入门到精通》专栏,专栏总目录:点这里。大家好,我是水滴~~在安装stable-diffusion-webui前需要做一些准备工作,本篇文章主要介绍需要的电脑配置、魔法、安装Python、安装Git等。文章目录电脑配置使用魔法安装Python下载和安装镜像加速安装Git电脑配置StableDiffusion对显卡有一定的要求,其支持的最小独立显存为4G,8G以上为优,越大越好。对于显卡的厂商,N卡(NVIDIA,英伟达)最佳,A卡(AMD,超威半导体)也能用,发挥的性能会大打折扣。
原文:ComparativeAnalysisofAIImageGenerationPlatforms:DALL·E3,GoogleImagen2,StableDiffusion,andMidjourney-Blog简介本文提供了对四个AI图像生成模型——DALL·E3、GoogleImagen2、StableDiffusion以及Midjourney的详细比较。通过十个不同领域的图像生成能力进行比较,文中展示了各个平台的优点和缺点。结合对每一类别的深度分析,本文向读者提供了最适合其需求的Ai模型的关键信息。该评估是基于OpenGPT.com上的OpenDraw服务完成的,使用了OpenDraw
热烈欢迎大家在git上star!!!冲鸭!!!1.prompt优化插件 GitHub-leeguandong/sd_webui_beautifulprompt:beautifulpromptextensionperformsstablediffusionautomaticpromptengineeringonabrowserUI.beautifulpromptextensionperformsstablediffusionautomaticpromptengineeringonabrowserUI.-GitHub-leeguandong/sd_webui_beautifulprompt:bea
text-generation-webui搭建大模型运行环境text-generation-webui环境初始化安装项目依赖命令方式脚本方式准备模型启动项目加载模型Bug说明Bug1Bug2text-generation-webuitext-generation-webui是一个基于Gradio的LLMWebUI开源项目,可以利用其快速搭建部署各种大模型环境。环境初始化下载该开源项目gitclonehttps://github.com/oobabooga/text-generation-webui.git创建conda环境并进入condacreate-nuipython=3.10condaac