草庐IT

stable-diffusion-webui-colab

全部标签

stable-diffusion-webui的逐步部署教程

  大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为CSDN博客专家、人工智能领域优质创作者。喜欢通过博客创作的方式对所学的知识进行总结与归纳,不仅形成深入且独到的理解,而且能够帮助新手快速入门。  本文主要介绍了stable-diffusion-webui的逐步部署教程,希望能对使用StableDiffusion的同学们有所帮助。文章目录1.前言2.逐步部署教程2.1创建Python环境2.2安装依赖库2.3运行代码1.前言  最近有几个同学在

Diffusion Map扩散映射

扩散映射是一种非线性降维的方法。Diffusionmap使用了diffusionprocess的方法,假设黄色数据点a为热源,它可以扩散到其他点,扩散是随机行走的过程,如果目标距离热源远,则扩散概率小,反之扩散概率大。diffusionprocess将空间距离转换为状态转移概率,从而确定随机行走的方向,确定细胞发育轨迹。算法分为确定细胞转移方向(Markov矩阵)和降维(Markov矩阵特征值分解降维)两块;如图所示,红色为目标细胞,在目标细胞周围有一些细胞,那么DiffusionMap首先计算这些细胞两两之间的距离,如果两个细胞距离较大,那么扩散概率就小,如果两个细胞距离较小,那么扩散概率就

Stable Diffusion WebUi云端部署配置记录

一、前言业务逻辑:服务器部署sdwebui项目,远程浏览器访问ui界面。服务器可租用AutoDL的GPU服务器服务器:租用AutoDL的GPU服务器,LinuxStableDiffusionWebUi:作者AUTOMATIC1111,github项目地址GitHub-AUTOMATIC1111/stable-diffusion-webui:StableDiffusionwebUI二、云端部署、服务器部署部署流程如下:1、租用AutoDL服务器,创建虚拟环境(1)租用服务器这里不说了,选择合适的GPU即可,AutoDL可以使用“无卡模式开机”,即不使用显卡,价格很便宜(0.1元/小时)。适合用来

全网最全stable diffusion图生图教程!!!小白必收藏!!!!

手把手教你入门绘图超强的AI绘画程序StableDiffusion,用户只需要输入一段图片的文字描述,即可生成精美的绘画。给大家带来了全新StableDiffusion保姆级教程资料包(文末可获取)图生图功能初识1.1传统意义上的喂参考图我们都知道,模型在运算时是根据我们提供的提示内容来确定绘图方向,如果没有提示信息,模型只能根据此前的学习经验来自行发挥。在之前的文生图篇,我们介绍了如何通过提示词来控制图像内容,但想要实现准确的出图效果,只靠简短的提示词是很难满足实际需求的。AI绘画的随机性导致我们使用大段的提示词来精确描述我们想要的画面内容,但毕竟文字能承载的信息量有限,即使我们写了一大段咒

Windows安装Stable Diffusion ComfyUI及问题解决记录(注意不是Stable Diffusion WebUI)

本文是StableDiffusionComfyUI的安装介绍,并非StableDiffusionWebUI。该软件使用了流程管理,目前来看更适合专业的设计师,虽然已能实现所有原生的功能,但软件本身目前仍处于初级阶段,还有很多地方需要改进,比如中文版、更多的扩展…的支持~~所以如果你对stablediffusion还不熟悉的朋友,请先安装StableDiffusionWebUI使用学习所有的功能模块。其它问题请参考:安装及其问题解决参考:《Windows安装StableDiffusionWebUI及问题解决记录》;运行使用时问题《Windows使用StableDiffusion时遇到的各种问题整

Stable Diffusion动画版上线!十五种风格预设,支持文本图像视频多种输入方式

StableDiffusion也能生成视频了!你没听错,StabilityAI推出了一款新的文本生成动画工具包StableAnimationSDK,可支持文本、文本+初始图像、文本+视频多种输入方式。使用者可以调用包括StableDiffusion2.0、StableDiffusionXL在内的所有StableDiffusion模型,来生成动画。StableAnimationSDK的强大功能一经展现,网友惊呼:哇哦,等不及想试试了!目前,StabilityAI疑似还在对这个新工具进行技术优化,不久后将公开驱动动画API的组件源代码。3D漫画摄影风,不限时长自动生成StableAnimation

stable diffusion 进阶教程-controlnet详解(持续更新中)

说明插件下载链接:https://pan.baidu.com/s/1-qmJzqcB72nTv_2QLmR-gA?pwd=8888提取码:8888讨论Q群:830970289个人微信:mindcarver如果在按着教程尝试的过程中有错误或问题,可以上面询问讨论,或者评论区留言如果教程有什么问题,请帮忙纠正,持续更新(部分控制插件功能一直在更新,比如ipadapter,,建议收藏点赞评论,留下你宝贵的足迹)参数详解【上传图片】:每个ControlNet单元中可以上传一张参考图片,ControlNet会根据当前选择的ControlType,从参考图片中提取某种特征信息,用于生成图片。【完美匹配像素

Centos7 部署 Stable Diffusion

参考:https://www.jianshu.com/p/ff81bb76158a一、安装最新版gityuminstalllibcurl-develcurl-devel-y#安装依赖库yum-yinstallzlib-develperl-ExtUtils-MakeMakerasciidocxmltoopenssl-develcurl-devellibcurl-devel#下载安装包wgethttps://www.kernel.org/pub/software/scm/git/git-2.42.0.tar.xz--no-check-certificate#解压安装包,进入目录tar-vxfgit

Stable Diffusion 源码解析(1)

参考1:https://blog.csdn.net/Eric_1993/article/details/129393890参考2:https://zhuanlan.zhihu.com/p/6133373421.StableDiffusion基本原理1.1UNetModel、FrozenCLIP模型1.2DDPM、DDIM、PLMS算法2.RunwaymlSD源码2.1Img2ImgPipeline2.2DDIMSampler2.3LatentDiffusionModel2.4UNetModel3.DiffusersStableDiffusionPipeline源码1.StableDiffusi

给数字人生成加上界面,基于ER-NeRF/RAD-NeRF/AD-NeRF,Gradio框架构建WEBUI,使用HLS流媒体,实现边推理边播放——之三:在WEBUI中播放m3u8视频,边推边存边播放

前言前面两篇文章讲了Gradio输出日志和ER-NeRF推理的图转存为ts文件这篇就讲讲如何在Gradio中实时的播放服务器生成的m3u8文件要让web上能播放,那首先要有个播放器,支持hls协议的web播放器,有video.js和hls.js等等,原生的video也能播,我这里选用hls.js除了播放器,还得要让web前端上能寻找到m3u8文件,也就是要让gradio能够支持直接通过url加载到m3u8文件,这涉及到gradio的静态文件挂载我们还需要让gradio能够把播放器在我们设计的webui上展示出来,而gradio的组件库里面是没有可用加载hls.js脚本的播放器组件的,这里就涉及