草庐IT

stable-diffusion-xl-refiner

全部标签

使用 Keras 的 Stable Diffusion 实现高性能文生图

前言在本文中,我们将使用基于KerasCV实现的StableDiffusion模型进行图像生成,这是由stable.ai开发的文本生成图像的多模态模型。StableDiffusion是一种功能强大的开源的文本到图像生成模型。虽然市场上存在多种开源实现可以让用户根据文本提示轻松创建图像,但KerasCV有一些独特的优势来加速图片生成,其中包括XLA编译和混合精度支持等特性。所以本文除了介绍如何使用KerasCV内置的StableDiffusion模块来生成图像,另外我们还通过对比展示了使用KerasCV特性所带来的图片加速优势。准备N卡,建议24G,在下文使用KerasCV实际生成图像过程中至少

[SD] stable diffusion webui forge 安装

参考:HowtoinstallSDForge-StableDiffusionArtstablediffusionwebuiforge是stablediffusionwebui的定制版,其主要面向快速图像生成。

Stable diffusion不同模型变量的work pipeline:checkpoint、lora、vae等等到底是怎么work together的?

SD里面有很多不同种类的模型参数,比如embedding、vae、checkpoint、hypernetwork、controlNet、clip还有lora,我看了很多博客,发现它们都是言语寥寥几句说什么改变风格,用于调整和改善生成图片的色彩之类的有点废话的废话。那么我这里从原理层面阐述这几个种类的参数模型在整个SD作图过程是怎么发挥作用的,这些不同的可调节的参数/模型是怎么worktogether的。省流版:声明:不一定对!这些都是本人从很多不同博客and论文整理理解的。​OK,现在慢慢展开讲解。​图书馆的比喻首先第一部分我们先对这几个参数变量有一个感性认识。模型checkpoint:把它想

Monocular Depth Estimation using Diffusion Models

基于扩散模型的单目深度估计论文链接:https://arxiv.org/abs/2302.14816论文项目地址:DepthGen出处:CVPR20231.摘要作者受高保真图像生成方面取得成功的启发,使用【去噪扩散模型】来进行单目深度估计。方法:具体地,引入了新的方法来解决训练数据中由于噪声、不完整的深度图而产生的问题,包括分步去噪扩散、L1损失和训练过程中的深度填充。为了应对监督训练数据的有限可用性,作者在自监督的图到图翻译任务上使用预训练。效果:通过一个通用的损失和架构,论文的DepthGen模型在室内NYU数据集上取得了SOTA性能,在室外KITTI数据集上也取得了接近SOTA的结果。此

【论文阅读】(DiTs)Scalable Diffusion Models with Transformers

(DiTs)ScalableDiffusionModelswithTransformers文章目录(DiTs)ScalableDiffusionModelswithTransformers论文概述DiffusionTransformers实验参考文献引用:[1]PeeblesW,XieS.Scalablediffusionmodelswithtransformers[C]//ProceedingsoftheIEEE/CVFInternationalConferenceonComputerVision.2023:4195-4205.论文链接:(ICCV2023)https://arxiv.org

Stable-Diffusion的WebUI部署实战

1、环境准备及安装1.1、linux环境#首先,已经预先安装好了anaconda,在这里新建一个环境condacreate-nsdwebuipython=3.10#安装完毕后,激活该环境condaactivatesdwebui#安装#下载stable-diffusion-webui代码aptinstallwgetgitpython3python3-venvlibgl1libglib2.0-0gitclonehttps://github.com/AUTOMATIC1111/stable-diffusion-webui.gitcdstable-diffusion-webuibashwebui.sh

上热榜了!抖音博主被曝用AI作品欺骗观众;看看Sora炸出来多少好东西;我帮你踩遍了AIGC创业的各种坑;图解 Stable Diffusion | ShowMeAI日报

👀日报&周刊合集|🎡生产力工具与行业应用大全|🧡点赞关注评论拜托啦!👀抖音知名绘画博主被曝作品是AI制作的,然后道歉也是ChatGPT生成的?2月21日,抖音知名绘画博主@曾bobi发布了最新作品,是他们几名美院学生根据「你有高速运转的机械进入中国……黄龙江一派全都带蓝牙……」抽象热梗进行的绘画。视频内容显示,在经过几人一番「肝疼」的创作后,最终作品也的确是……更抽象了……(👆如上图所示)本以为这就是一个热梗创作,结果越来越多的博主开始指出,这幅画是由AI生成的,博主在骗人!毕竟@曾bobi在视频中丝毫没有提及AI参与创作的事情,还用几人正在创作场景引导观众以为这是他们手绘的作品。本次「露馅儿

超简单stable diffusion安装教程,最新吐血整理

SD没有中文版并且需要翻墙,如果不会的也可以直接用国内AI绘画工具:触站AI,是国内基于SD搭建的最好用站点,对国人来说更加方便,所以本教程面向sd海外用户。随着AI技术的不断发展,越来越多的AI绘画软件被开发出来,让绘画的过程变得更加高效和有趣。其中,StableDiffusion是一款非常受欢迎的AI绘画软件,它使用有监督深度学习算法来完成图像生成的任务。如果你也想在本地安装并使用StableDiffusion,本文将为你提供详细的步骤和操作方法。第1步:下载StableDiffusion程序包首先你需要从StableDiffusion的官方网站或其他可信的来源下载该软件的程序包。请确保你

Stable Diffusion原理详解(附代码实现)

一、前言回顾AI绘画的历史,GAN(GenerativeAdversarialNets)是比较出众的一个。GAN的出现让AI绘画成为可能,当时GAN给AI绘画提供了一种新的思路,现在回顾当时的绘画可以算是相当粗糙。gan-results.jpg初代GAN出现后,出现了大量GAN的变种,比如StyleGAN、CycleGAN、DCGAN等。而StyleGAN已经可以生成非常逼真的图像了,下面是StyleGAN的一些结果。stylegan-results.jpgGAN提出已经过去十年,AI绘画也得到了颠覆性的进步。DiffusionModel(DM)逐渐取代了GAN在AI绘画领域的地位。在此基础上

stable diffusion 基础教程-必备大模型(持续更新)

说明下面的模型大部分来源于C站,无法魔法上网的请参考以下云盘链接链接:https://pan.baidu.com/s/1-qmJzqcB72nTv_2QLmR-gA?pwd=8888提取码:8888讨论Q群:830970289个人微信:mindcarver如果在按着教程尝试的过程中有错误或问题,可以上面询问讨论,或者评论区留言如果教程有什么问题,请帮忙纠正,持续更新(各种经典大模型一直在不停的迭代,所以本篇文章也是持续更新系列)舞厅风格https://civitai.com/models/4107?modelVersionId=4587NovelAI