草庐IT

stable diffusion

全部标签

SD/StableDiffusion部署图文教程,ai绘画教程,实现谷歌云端零成本部署,中文UI

目录一、前言二、准备前提三、教程说明四、开始搭建1、第一步,下载ipynb脚本文件2、第二步,上传一键脚本文件到谷歌云盘3、选择该.ipynb文件--右键--打开方式--关联更多应用4、输入框搜索Colaboratory找到该应用,安装5、安装过程中,选择您已经登录的Google账户6、用安装好的Colaboratory打开.ipynb文件7、在使用Colaboratory打开的界面选中修改-笔记本设置-确认默认设置8、一键部署9、耐心等待云端部署完成,大概15分左右。10、成功部署后打开的页面11、打开新链接即可出现中文界面12、简单使用五、其他相关项目介绍演示:一、前言众所周知Stable

【aigc辅助绘画流程】blender+stableDiffusion+chatgpt辅助建立3D插画背景

首先还是先上效果图吧。这是一张用stablediffusion生成的照片,我们最好去选用这种相对正透视的照片(特别是像我这种透视功底本来就不咋地的半桶水美术)。通过该照片直接映射到场景立方体中(注意这里删掉了正对摄像机的面)简单建模赋予场景体积感,并实现基于摄像机视角的纹理映射,涉及到uv不准确或者效果不好的地方,如果追求效果更准确一些的话,需要手动去调整一下特定位置的uv。完成映射后的效果。距离近一些的话,把视角限定在房间方块中,显得flaws会更少。为了引入额外的ambient和光照,我们调整下材质。目前的材质是这样的:我们其实是直接采样图像的颜色信息,而没有经过真正意义上的光照模型。连接

StableDiffusion的Prompt自动套用正面Tags

        随着人工智能AI的兴起,现在AI画图已经风靡全球,其中StableDiffusion以开源、可以本地部署(免费白嫖)引起了包括本人在内的打工人的兴趣。    我们在使用StableDiffusion进行文生图(Txt2Img)时,除了我们的Prompt以外,时常还要输入大量的正面Tags来润色,对于我这样的懒人,每次复制这些Tags是很麻烦的。故做这段小代码,只要输入我们的Prompt以后,会自动添加正面Tags,并将整合好的完整Prompt复制到剪贴板中,以方便我们直接粘贴到StableDiffusion或VEGA中。以下是代码:'''StableDiffusion或VEGA

玩LLM和StableDiffusion常说的LoRA到底是什么

论文地址:LoRA:Low-RankAdaptationofLargeLanguageModelsLoRA是一种用于adapters和大模型迁移的技术,全称为Low-RankAdaptationofLargeLanguageModels。它最初主要是用于大型语言模型(LLM)的跨领域与跨语言迁移。在微软的论文《LoRA:Low-RankAdaptationofLargeLanguageModels》提出了一种低秩adapters学习技术LoRA,实现大规模语言模型的跨领域与跨语言迁移。其主要内容如下:1.低秩分解:将adapters的参数表示为两个小矩阵U和V的乘积,而不是一个大参数矩阵。这可

StableDiffusion负面标签自动复制

     随着人工智能AI的兴起,现在AI画图已经风靡全球,其中StableDiffusion以开源、可以本地部署(免费白嫖)引起了包括本人在内的打工人的兴趣。    但使用StableDiffusion时,时常会出现诸如:三只手,三只脚,畸形的五官等问题。故StableDiffusion里面有一个负面标签(Tags),用来减少诸如此类的问题。    对于象我这样的懒人,每次复制粘贴负面标签是很麻烦的。故用Python编了这个小代码,用来自动复制心仪的负面标签到剪贴板中,运行完后,直接到负面Tags中粘贴就行了,非常省事。以下是代码,你可以替换成你自己喜欢的负面标签:'''如果还没装pyper

AI绘图-StableDiffusion安装

AI绘图-StableDiffusion安装前言:StableDiffusion是一个基于LatentDiffusionModels(潜在扩散模型,LDMs)的文图生成(text-to-image)模型。它主要用于根据文字的描述产生详细图像,能够在几秒钟内创作出令人惊叹的艺术作品。StableDiffusion在2022年发布,是深度学习文本到图像生成模型之一。StableDiffusion属于一类称为扩散模型(diffusionmodel)的深度学习模型。它们是生成模型,这意味着它们的目的是生成类似于它们训练数据的新数据。对于StableDiffusion来说,数据就是图像。为什么叫扩散模型

SD/StableDiffusion模型,ai绘画部署教程,谷歌云端零成本部署,支持中文

目录前言准备前提说明开始搭建1、第一步,下载ipynb脚本文件2、第二步,上传一键脚本文件到谷歌云盘3、选择该.ipynb文件--右键--打开方式--关联更多应用4、输入框搜索Colaboratory找到该应用,安装5、安装过程中,选择您已经登录的Google账户6、用安装好的Colaboratory打开.ipynb文件7、在使用Colaboratory打开的界面选中修改-笔记本设置-确认默认设置8、一键部署9、耐心等待云端部署完成,大概15分左右。10、成功部署后打开的页面11、打开新链接即可出现中文界面12、简单使用前言众所周知StableDiffusion这款开源软件对电脑硬件要求非常高

StableDiffusion产生随机种子(seed)并复制到剪贴板中

     随着人工智能AI的兴起,现在AI画图已经风靡全球,其中StableDiffusion以开源、可以本地部署(免费白嫖)引起了包括本人在内的打工人的兴趣。    但是每次文生图时,种子(seed)都是随机的,如果手气好,遇见个满意的图,想要继续完善,却苦于不知道种子的编号(用图生图有时候会融合得不太完美),每次手工输入种子编号又太麻烦。    故编了这个Python小代码,运行后自动产生一串随机数并复制到剪贴板中,你只要粘贴到种子(seed)那里就行了,非常方便。    妈妈再也不用担心我的文生图不知道种子编号了!    为了兼容到目前为止仍然免费的VEGA,故本代码产生的随机种子编号是

LLM_StableDiffusion_studio发布

背景:从chatgpt发布到现在已经超过半年时间,AGI的势头越来越猛。大家都在做各种的尝试和组合,把chatgpt通用的强大的知识表达和理解能力尝试应用在自己的业务场景。前期也是出现非常多的业务应用,但是主要还是围绕chatgpt本身已经开放的能力:生成、续写、摘要、简单代码生成,并未对做更深入开发。现在已经开始有更多更深度开发的应用:用chatgpt来控制业务流程,填补人差异性和机器精准格式要求的gap、用chatgpt来优化sdpromot、用chatgpt来为群体旅游计划作综合规划、用chatgpt构建企业自己的私有知识图谱、用chatgpt把用户浏览点击数据撞成文本故事挖掘用户更深层

AI绘画第三步,用Lora创造逼·真的小姐姐!

无论虚拟世界多么繁荣,真实的东西,都有让人不可抗拒的魅力,AI绘画也是如此。今天就来讲讲如何使用ChilloutMix和Lora画出特别“逼·真”的小姐姐,在虚拟中追求真实,这其实也是我们这个系列的核心目标。ChilloutMix是什么?从本质来说,它就是众多的StableDiffusion模型(checkpoints)中的一个。它最大的特点就是可以画出超级逼真的亚洲小姐姐,也正因如此,一发布就火遍全网。目前网上看到的可以以假乱真的AI小姐姐都是基于这个模型。就在当前,它依旧是是C站上最火爆的模型!ChilloutMix获得了5星好评,下载人数高达24万,加上二次分发,三次分享,估计这个模型已