草庐IT

Diffusion-GAN

全部标签

【深度学习】SDXL tensorRT 推理,Stable Diffusion 转onnx,转TensorRT

文章目录1sdxl转diffusers2转onnx3转TensorRT1sdxl转diffusersjuggernautXL_version6Rundiffusion.safetensors文件是pthpytroch文件,需要先转为diffusers的文件结构。defconvert_sdxl_to_diffusers(pretrained_ckpt_path,output_diffusers_path):importosos.environ["HF_ENDPOINT"]="https://hf-mirror.com"#设置HF镜像源(国内用户使用)os.environ["CUDA_VISIBL

AI绘画Stable Diffusion进阶使用

本文讲解,模型底模,VAE美化模型,Lora模型,hypernetwork。文本StableDiffusion简称sd欢迎关注使用模型C站:https://civitai.com/huggingface:https://huggingface.co/models?pipeline_tag=text-to-image大模型(底模型)stablediffusionwebui部署完成后,checkpoint是放底模home\webui\models目录下常见模式:后缀ckpt/safetensors常见大小:2G-7GRealisticVision:逼真的照片风格。Anythingv5:动漫风格。D

无缝衔接Stable Diffusion,一张照片几秒钟就能生成个性化图片-InstantID

        最近一段时间基于扩散模型的图像处理方法遍地开花,接下来为大家介绍一种风格化图像的方法InstantID,可以通过仅有一张人脸照片,几秒钟内生成不同风格的人物照片。与传统方法需要多张参考图像和复杂的微调过程不同,InstantID只需一张图像,而且无需复杂的训练或微调过程。这项技术能够生成高质量的个性化图像,保持个人特征的真实性,并且能够适应不同的视觉需求。        InstantID的操作流程非常简化,只需要提供一张照片,它就能根据这张照片生成很多不同风格的图片,同时保持这个人的面貌特征不变。与传统方法需要多张参考图像和复杂的微调过程不同,InstantID只需一张图像,

Stable Diffusion汉化插件

今天为大家介绍StableDiffusion的两种UI汉化包,一种是汉化包,就中文界面,方便大家对于繁杂的参数的模型的操作,一种是中英文对照界面,在中文提示下,同时显示英文,不但方便设置也同时学习了英文单词。就如下面这个界面:好了不多说了,我们开始我们的插件安装。一:SD的汉化插件1、项目名称:stable-diffusion-webui-localization-zh_CN2、安装方法:登录StableDiffusion,点击“Extensions”,找到“Available”选项卡,然后装载所有插件,如下图操作:点击Loadfrom:如下图。然后在输入框中输入zh_CN,如下图安装完成后,

第三课-界面介绍SD-Stable Diffusion 教程

前言我们已经安装好了SD,这篇文章不介绍难以理解的原理,说使用。以后再介绍原理。我的想法是,先学会画,然后明白原理,再去提高技术。我失败过,知道三天打鱼两天晒网的痛苦,和很多人一样试了安装github版本,生成了几张图,发现效果不太理想,就放着了。后来也是花了几千元学了很多SD的课程,才逐渐上道。界面基本功能安装好了SD,我们就可以再下面的网页上绘图了:①:大模型:绘图的主要模型,大小一般都在几个G。②:VAE模型:可以理解为让图片更明亮一些。(不重要,现在的大模型一般都自带了VAE)③:CLIP终止层数:值越大,出的结果和你预想的差别越大。这个值我们一般固定用1-4,默认用2就行。④:文生图

机器人操作——diffusion policy(2023)

论文地址标题:DiffusionPolicy:VisuomotorPolicyLearningviaActionDiffusion论文地址:https://arxiv.org/pdf/2303.04137.pdf项目地址:https://diffusion-policy.cs.columbia.edu单位:哥伦比亚大学创新点引入扩散模型(duffisionmodel),输入一段观测序列,输出未来一段时间的行为序列,在机器人操作数据集上学习,即模仿学习或监督学习。相比于现在常用的模仿学习方法LSTM-GMM、IBC(Implicitbehavioralcloning)、BET(Behaviort

如何在Linux上安装Stable Diffusion WebUI

StableDiffusionWebUI是一个基于AUTOMATIC1111的stable-diffusion-webui仓库的项目,允许用户通过web界面轻松地生成AI驱动的图像。本文将指导您在Linux系统上完成StableDiffusionWebUI的安装过程。准备工作在安装StableDiffusionWebUI之前,请确保您的Linux系统满足以下要求:操作系统:基于Debian的Linux发行版,如Ubuntu或Debian。Python版本:Python3.6或更高版本。足够的磁盘空间:至少1GB的空间用于安装和运行。内存要求:至少2GB可用内存。安装步骤1.安装必要的软件和库打

在 Linux 本地部署 stable diffusion

由于工作站安装的是ubuntu,卡也在上面,就只能在ubuntu上部署安装stablediffusion了。另外,Linux上使用stablediffusion也会方便很多。1准备工作NVIDIA官网下载驱动,主要是为了规避多卡驱动不同的问题。由于本机是两张一样的卡,就可以省去这一步。如果存在不同型号的多卡驱动不兼容的问题,就需要去官网下载。安装python3.10安装CUDA11.8(pytorch2.x,xformers),对stablediffusion兼容比较好支持pytorch2.x支持xformers,可以加速图片生成2deploystablediffusiongithubstab

Stable Diffusion(SD)核心基础知识——(文生图、图生图)

文章目录一、StableDiffusion核心基础原理(一)StableDiffusion模型工作流程(二)StableDiffusion模型核心基础原理(三)StableDiffusion的训练过程(四)其他主流生成式模型二、StableDiffusion核心网络结构(一)SD模型整体架构(二)VAE模型(三)U-Net模型(四)CLIPTextEncoder模型StableDiffusion是计算机视觉领域的一个生成式大模型,可以用于文生图,图生图,图像inpainting,ControlNet控制生成,图像超分等丰富的任务。一、StableDiffusion核心基础原理(一)Stable

通过Stable Diffusion生成虚假的遥感影像

简介这两天玩了一下stablediffusion,是真的好玩!然后我在想遥感有没有相关的生成模型,找了一下,还真找到了(https://github.com/xiaoyuan1996/Stable-Diffusion-for-Remote-Sensing-Image-Generation/tree/main)。该模型的作者是空天院的Zhiqiangyuan,他提供了相关的训练代码、预测代码、已经训练好的模型等。[外链图片转存中…(img-lOFMZR6f-1705867377350)]生成效果因为我也不想装代码环境,就只下载了模型加载到stablediffusion中看看生成的遥感影像的效果。