草庐IT

Diffusion-GAN

全部标签

Stable Diffusion中不同的采样方法

    在StableDiffusion模型中,采样方法是从学习到的概率分布中生成图像的算法。采样方法影响生成图像的质量、样式、速度以及过程的控制程度。以下是一些采样方法的概述和它们对图像生成可能产生的影响:DPM++系列DPM++2M/3M:这些是扩展的扩散概率模型,其中数字表示模型使用的标记步数(例如2M表示200万步)。步数越多,通常生成的图像细节和质量越高,但需要更长的计算时间。DPM++SDE:指扩展的扩散概率模型结合了随机微分方程(SDE),提供了不同的扩散和逆扩散路径,可能带来更自然的图像生成过程。DPM++SDEKarras/DPM++2MSDEKarras:这些方法可能结合了

Multi-Concept Customization of Text-to-Image Diffusion——【论文笔记】

本文发表于CVPR2023论文地址:CVPR2023OpenAccessRepository(thecvf.com)Github官方代码地址: github.com 一、Intorduction最近的文本到图像模型能够根据文本提示生成高质量的图像,可以覆盖广泛的物体、风格和场景。尽管这些模型具有多样的通用功能,但用户通常希望从他们自己的个人生活中综合特定的概念。例如,亲人,如家人,朋友,宠物,或个人物品和地方,如新沙发或最近参观的花园,都是有趣的概念。用户往往希望生成与个人生活紧密相关的内容,而这些通常不会出现在大规模训练数据中。所以产生了对模型进行定制化的需求,当前个性化模型主要存在以下一些

超级逼真人脸生成,Stable Diffusion的3个关键技巧

学习如何使用基础模型生成图像,如何升级到StableDiffusionXL模型以提高图像质量,以及如何使用自定义模型生成高质量的人物肖像。微信搜索关注《Python学研大本营》,加入读者群,分享更多精彩简介你是否曾想过,为什么别人可以使用AI图像生成技术生成如此逼真的人脸,而你自己的尝试却充满了错误和瑕疵,使它们看起来明显是假的呢?尝试过调整提示和设置,但似乎仍无法与他人的质量相匹配。在这里,我将带你了解使用StableDiffusion生成超逼真人脸的3个关键技巧。首先,我们将介绍提示工程的基础知识,帮助你使用基础模型生成图像。接下来,我们将探讨升级到StableDiffusionXL模型后

最简单粗暴的Stable Diffusion Webui本地部署教程!让每个人都能自己实现AI画图!

先放两张自己画的图片镇楼。‍​​​​‍什么是StableDiffusionWebui​​StableDiffusionWebUI是StableDiffusion的浏览器界面,StableDiffusion是一种AI模型,可以根据文本提示生成图像或用文本提示修改现有图像。StableDiffusionWebUI是探索StableDiffusion可能性的好方法,只需点击几下即可创建令人惊叹的图像。内容来自官网还是大白话翻译一下,就用这玩意,你就能抛弃GPT4,抛弃Mj(当然实际效果很大可能不如Mj......),在本地实现AI绘画!部署前提条件虽然咱教程的目标是让所有人都能用上StableDif

stable diffusion 人物高级提示词(四)朝向、画面范围、远近、焦距、机位、拍摄角度

一、朝向英文中文frontview正面Profileview/fromside侧面half-frontview半正面Backview背面(quarterfrontview:1.5)四分之一正面prompt/英文中文翻译lookingatthecamera看向镜头facingthecamera面对镜头turnedtowardsthecamera转向镜头lookingawayfromthecamera不看镜头facingawayfromthecamera背对镜头lookingupatthecamera抬头看向镜头lookingdownatthecamera低头看向镜头lookingsideways

Stable Diffusion 本地部署教程

StableDiffusion本地部署教程安装git和python3.10.6NewerversionofPythondoesnotsupporttorch,checking“AddPythontoPATH”设置pip全局镜像pipconfigsetglobal.index-urlhttps://mirrors.aliyun.com/pypi/simple/清华镜像部分依赖没有,中途会报错https://pypi.tuna.tsinghua.edu.cn/simple/下载主程序StableDiffusionwebUIgitclonehttps://github.com/AUTOMATIC11

算法笔记 DreamFusion: text to 3D using 2D diffusion

前不久GoogleResearch在Dreamfields-3D基础上做了改进,发布了新成果DreamFusion,让**生成模型的形态、颜色、光线、密度有巨大的飞跃**,虽然DreamFusion还未开放使用,但项目网站提供了生成画廊:[DreamFusion预览地址](https://dreamfusion3d.github.io/index.html)。要直接训练一个text-to-3D的模型非常困难,因为DALL-E2等模型的训练需要数十亿个图像-文本对作为训练集,但并不存在如此大规模的3D标注数据。DreamFusion先使用一个预训练2DDiffusion模型基于文本提示生成一张二

stable diffusion 人物高级提示词(三)动作、表情、眼神

一、动作中文英文站立Standing走路Walking身体前倾LeaningForward鞠躬Bowing战斗姿势FightingStance单腿站立StandingonOneLeg坐在椅子上SittingonaChair手叉腰HandonHip手插兜HandinPocket双臂交叉CrossedArms翘二郎腿CrossedLegs跪地Kneeling双手举起来HandsUp双臂高举ArmsUp双臂放在身后ArmsBehindBack敬礼Salute向后靠着LeaningBack跳跃Jumping四肢着地,爬行姿势AllFours瑜伽姿势YogaPose高踢腿HighKicksT型台走秀姿势

什么是diffusion model? 它为什么好用?

本文经自动驾驶之心公众号授权转载,转载请联系出处。简介NCSN(NoiseConditionalScoreNetworks)来自于宋飏博士发表在NeurIPS2019上面的文章“GenerativeModelingbyEstimatingGradientsoftheDataDistribution”,也是推动扩散模型领域兴起的重要工作之一,比DDPM发表的还要早。这篇工作提出了基于“score”的生成式模型,和DDPM扩散模型有着千丝万缕的联系,后面宋飏博士发表中ICLR2021上的另一篇工作将NCSN和DDPM在SDE视角下进行了很好的统一。宋飏博士在博客中提到,score-basedgen

Stable Diffusion/Win/本地部署

一、本地部署StableDiffusion前言目前市面上比较权威,并能用于工作中的AI绘画软件其实就两款。一个叫Midjourney(简称MJ),另一个叫Stable-Diffusion(简称SD)。MJ需要付费使用,而SD开源免费,但是上手难度和学习成本略大,并且非常吃电脑配置(显卡、内存)。E和Midjourney相比,StableDiffusion最大的优势是开源,这意味着StableDiffusion的潜力巨大、发展飞快。由于开源免费属性,SD已经收获了大量活跃用户,开发者社群已经为此提供了大量免费高质量的外接预训练模型(fine-tune)和插件,并且在持续维护更新。在第三方插件和模