本文介绍在autodl.com搭建gpu服务器,实现stable-diffusion-webui+sadTalker功能,图片+音频可生成视频。autodl租GPU 自己本地部署SD环境会遇到各种问题,网络问题(比如huggingface是无法访问),所以最好的方式是租用GPU,可以通过以下视频了解如何使用autodl.comAutoDL算力云|弹性、好用、省钱。租GPU就上AutoDL炼丹平台AutoDL的简单使用_哔哩哔哩_bilibili autoDL比较好的点就是上边有很多大佬已经部署好的环境镜像,直接使用就行。 如图是我租用的一个GPU实例。 选择的镜
20240203在Ubuntu20.04.6下配置stable-diffusion-webui.git2024/2/311:55【结论:在Ubuntu20.04.6下,生成512x512分辨率的图像,大概需要11秒钟!】前提条件,可以通过技术手段上外网!^_首先你要有一张NVIDIA的显卡,比如我用的PDD拼多多的二手GTX1080显卡。【并且极其可能是矿卡!】800¥2、请正确安装好NVIDIA最新的545版本的驱动程序和CUDA、cuDNN。2、安装Torch3、配置whisper【本文以这个教程为主】https://www.bilibili.com/read/cv24784581/Sta
根据StableDiffusion官方说明webui是不支持AMDGPU显卡的,所以在国内如果想省点事情要玩StableDiffusion(SD)推荐用黄教主的英伟达显卡NVIDIAGPU,可以省心不少。AMD显卡得用webui-directml,这是另外的包,按官方的说明实际操作并不难,下面先说在Windows上的步骤:安装Python3.10.6版(勾选addpython.exetoPATH,具体可以查看下面的参考文献1.),以及git2.39.2版;在DOS窗内执行gitclonehttps://github.com/lshqqytiger/stable-diffusion-webui-
文章目录(零)AI绘图(一)简单介绍(1.1)Stable-Diffusion(1.2)Stable-DiffusionWEBUI(1.3)SD-WebUI启动器和整合包(二)使用(2.1)启动&控制台&WEBUI(2.2)基础模型(stable-diffusion模型)(2.2.1)模型文件位置(2.2.2)模型选择&模型预览图(2.3)小模型(LoRA模型)(2.3.1)模型文件位置(2.3.2)模型选择&模型预览图(2.4)小模型(嵌入式模型/Embedding/TextualInversion)(2.5)小模型(超网络模型/Hypernetwork)(2.6)提示词&模板风格(2.6.
我在Polymer元素中显示国际化字符串,如下所示:{{myContent}}...并具有以下Dart代码:@observableStringmyContent;//...voidonUpdateLocale(_locale){myContent=getMyContent();}//...getMyContent()=>Intl.message('Allmycontent...',name:'myContent',desc:'Thisismycontent',args:[],examples:{'None':0});但是;当Google抓取该应用程序时,它只会提取“{{myConten
自动安装先clone代码:gitclonehttps://github.com/AUTOMATIC1111/stable-diffusion-webui要在不创建虚拟环境的情况下通过pip安装所需的包,运行:pythonlaunch.py手动安装手动安装虽有些过时,但在自动安装遇到问题的时候只能用手动安装了,我的自动安装就偶尔遇到gitclone超时的问题。安装支持CUDA的torchpipinstalltorch--extra-index-urlhttps://download.pytorch.org/whl/cu113检查一下torch是否支持gpupython-c"importtorch
文章目录前言一、StableDiffusionWebUI安装二、泡泡玛特(prompt)三、txt输入规则四、交替渲染五、Lora模型调用六、Hypernetwork&Embeding七、采样器(sampler)选择八、CFGscale九、上采样模型十、SD缺点总结前言Stablediffusion相信很多技术爱好者都了解,并且也尝试用过,目前在各路开源大佬的支持下,Stablediffusion的生图piepline越来越成熟,同时在各种新技术的加持下,可玩性越来越高。相比我以往的理论性文章,该系列文章主要讲解一下SDwebui的具体使用,以及一些拓展功能的使用,同时对自己应用SD有一个记录
标题略有夸张哈哈哈哈,但想表达的是,相较于直接下载或者通过秋叶包更新而,接下来这一套方案确实很简单,而且能够大大节省磁盘空间,和下载时间。这篇教程不需要你有:代码基础。都是复制粘贴就完事。魔法。这篇教程默认你已经有:1.本地能够正常使用的sdwebui。无论是自己源码安装的,还是使用的秋叶包。如果没有的话就不适合哈。2.git环境。能从github上拉源码下来。这个教程很多就不多赘述了。第一次接触的话,学到能拉取代码到本地就可以,其他复杂的代码内容不用看,因为用不到。3.windows环境。以下是正文:====1.首先你需要把ComfyUI的源码克隆到本地来。step1:找到你要把ComfyU
中间有一些容易出错的点,我尽量写的详细一些。准备工作首先,打开https://openbayes.com/网站,注册openbayes。注册后应该会赠送三个小时的4090算力,可以尝试部署使用。部署完成后,使用支付宝进行实名认证(注意,一定要支付宝认证,不然webui显示会通不过ssl认证)。认证页面为右上角头像-账号设置。开始部署准备好之后打开页面。openbayse这个页面提供了Yi模型的wasmedge部署。请书签该页面,过一会儿需要来这里粘贴命令。准备完成后,点击克隆,会出现如下页面。若页面没问题,直接选择“下一步:选择算力”。这里可以看到,博主自己还剩1小时18分的4090算力。选择
通过之前的文章相信大家对文生图已经不陌生了,那么图生图是干啥的呢?简单理解就是根据我们给出的图片做为参考进行生成图片。一、能干啥这里举两个例子1、二次元头像真人转二次元,或者二次元转真人都行,下图为真人转二次元样例:左边真人,右边二次元2、换造型换装比如我要让真人漏牙齿,或者换头发颜色,换脸,换服装等等都可以用类似方法二、真人转二次元主要分三步,1.反推已经有的图片的关键词,这里的话就是反推真人图像的关键词2.选大模型,这里是转二次元就要选二次元模型3.调参找最优1.反推关键词这里用到了一个插件“WD1.4标签器”,如果是参考我之前文章安装的话,默认已经集成了。如上图,这里需要把关键词拷贝到翻