StableDiffusionAI绘画最近成功破圈,成了炙手可热的热门话题。DALLE,GLIDE,StableDiffusion等基于扩散机制的生成模型让AI作图发生质变,让人们看到了“AI转成生产力”的曙光。在这些扩散模型中,StableDiffusion以其优秀的效果和开源的权重成为了其中的代表,受到广泛的关注和体验。其基于Laion5B超大规模“文本-图像”对数据集,StableAI宣称用了5000张A100耗时几个月训练而成。幻方AI近期在萤火二号上使用GoogleCaption数据集复现了StableDiffusion的训练,并进行了优化。通过幻方自研的hfai.pl插件将源代码P
首先,一个比较广泛的模型下载地址为:CivitaiModels|DiscoverFreeStableDiffusionModels黄框是一些过滤器,比如checkpoints可以理解为比如把1.5版本的SD模型拷贝一份后交叉识别新的画风或场景后得到的模型,可以单独拿出来使用。Hypernetwork和lora在特定场景下都非常好用。我们以majicMIXrealistic麦橘写实模型为例子,点开:点开一张照片,我们能看到生成这张照片的提示词和负提示词以及cfgscale,甚至往下拉还有推荐的优质参数和评论区。下载好模型后,将其放到stablediffusion-webui--->models-
界面选项解读这是在趋动云上部署的StableDiffusiontxt2imgprompt(1)分割符号:使用逗号,用于分割词缀,且有一定权重排序功能,逗号前权重高,逗号后权重低(2)建议的通用范式:建议用以下归类的三大部分来准备相关提示词:前缀(画质词+画风词+镜头效果+光照效果)+主体(人物&对象+姿势+服装+道具)+场景(环境+细节)(3)更改提示词权重:使用小括号()增加模型对被括住提示词的注意(提高权重)。用(xxx:)语法形式来提升权重,其中xxx是你要强调的词1.x代表要提升的比例,如1.5就是提升150%的权重。权重取值范围0.4-1.6,权重太小容易被忽视,太大容易拟合图像出错
(如有更新,见原文:https://blog.iyatt.com/?p=12345)1前言我笔记本电脑的独显上半年的时候烧掉了,所以只能用CPU,折腾了一下午总算给配置出来了。我这里用的官方Python,网上很多教程用Anaconda(也是一种Python发行版),其实没必要。最开始我就跟着用Anaconda,挺折腾的,到后面发现只是需要Python而已,那整体简单多了。喜欢用Anaconda的也可以用,不影响,只是需要Python这个基础,然后在上面跑PyTorch,StableDiffusion又是基于PyTorch,结构就是这样。下面的图片是用SD生成的,没独显还是老CPU,速度超级慢。
《博主简介》小伙伴们好,我是阿旭。专注于人工智能、AIGC、python、计算机视觉相关分享研究。✌更多学习资源,可关注公-仲-hao:【阿旭算法与机器学习】,共同学习交流~👍感谢小伙伴们点赞、关注!《------往期经典推荐------》一、AI应用软件开发实战专栏【链接】项目名称项目名称1.【人脸识别与管理系统开发】2.【车牌识别与自动收费管理系统开发】3.【手势识别系统开发】4.【人脸面部活体检测系统开发】5.【图片风格快速迁移软件开发】6.【人脸表表情识别系统】7.【YOLOv8多目标识别与自动标注软件开发】8.【基于YOLOv8深度学习的行人跌倒检测系统】9.【基于YOLOv8深度学
一、AI绘画工具的选择与运用1.工作场景下AI绘画工具的选择目前文生图的主流AI绘画平台主要有三种:Midjourney、StableDiffusion、DALL·E。如果要在实际工作场景中应用,我更推荐StableDiffusion。 温馨提示:下方多图预警1.注册、创建服务器①打开Midjourney官网,右下角选择"J通过对比,StableDiffusion在数据安全性(可本地部署)、可扩展性(成熟插件多)、风格丰富度(众多模型可供下载,也可以训练自有风格模型)、费用版权(开源免费、可商用)等方面更适合我们的工作场景。那么如何在实际工作中应用StableDiffusion进行AI绘画?要
距离上次给大家推荐的AILOGO生成器,也就才过了一个多月的时间,转眼AI又进化了,本期要给大家分享又一个最新“天菜级别”的AI LOGO生成神器——LogoDiffusion。由于这款AI工具实在太火了,以至于网站都崩溃了,与过往分享的AI LOGO生成器最大的区别在于,这款AI工具可以通过你随手给他画个草图的方式,或者上传一张照片,AI即可帮你生成想要的LOGO,甚至你还能将2D的LOGO变成3D图像,这个真的是太强大了。而且你还可以控制LOGO的风格,想变成什么样子就变成什么样子,并且可以下载成矢量文件,我的天,这下LOGO设计彻底不用求人了。接下来详细演示一遍操作流
前言最近终于有机会从围墙里往外看,了解到外面的世界已经有了天翻地覆的变化,感叹万千,笔者在本地mac,windows,linux,docker部署了不下20遍后,整理出来的linux极简避坑安装方案,供大家参考学习。注系统:linux用户:pypython:3.10涉及工具:wget、miniconda、gitStableDiffusionWebUI简称:webui安装目录:/data/github地址https://github.com/AUTOMATIC1111/stable-diffusion-webui安装miniconda由于stable-diffusion-webui的安装需要特定
一些扩散模型的文章:https://zhuanlan.zhihu.com/p/640138441https://blog.csdn.net/qq_43505867/article/details/130983606https://blog.csdn.net/qq_51392112/article/details/129326444目录Abstract1Introduction2Diffusionmodels3DISCRETEDENOISINGDIFFUSIONFORGRAPHGENERATION3.1迭代过程与逆去噪迭代3.2去噪网络参数化3.3等效特性4利用MARGINALP
什么是StableDiffusionStableDiffusion(简称SD)是2022年发布的一个深度学习文本到图像生成模型,由慕尼黑大学的CompVis研究团体首先提出,并与初创公司StabilityAI、Runway合作开发,同时得到了EleutherAI和LAION的支持。StableDiffusion是一种基于扩散技术的深度学习文本到图像模型,于2022年发布。它主要用于根据文本描述生成细致的图像,也可以用于其他任务,如图像修复、图像扩展、以文本为引导的图像到图像转换等。 StableDiffusion是一种潜在扩散模型(LatentDiffusionModel),一种深度生成人