草庐IT

Diffusion-GAN

全部标签

【AI作画】使用DiffusionBee with stable-diffusion在mac M1平台玩AI作画

DiffusionBee是一个完全免费、离线的工具。它简洁易用,你只需输入一些标签或文本描述,它就能生成艺术图像。DiffusionBee下载地址运行DiffusionBee的硬性要求:MacOS系统版本必须在12.3及以上DBe安装完成后,去C站挑选自己喜欢的图画风格,下载对应的模型,然后将模型添加进去,如何添加?C站传送门1.点击Model2.点击最底部AddNewModel,进入Setting页面后点击蓝色的AddNewModel按钮3.选中你已下载好的本地模型,本次演示使用toonyou_beta3.safetensors模型4.填写Tag或Prompt即可进行AI作画,本次演示使用以

20240203在WIN10下使用GTX1080配置stable-diffusion-webui.git不支持float16精度出错的处理

20240203在WIN10下使用GTX1080配置stable-diffusion-webui.git不支持float16精度出错的处理2024/2/321:23缘起:最近学习stable-diffusion-webui.git,在Ubuntu20.04.6下配置SD成功。不搞精简版本:Miniconda了。直接上Anacoda!打开stable-diffusion-webui.git的时候报错:webui.batwebui-user.bat双击打开升级软件/包之后都会报错!NansException:AtensorwithallNaNswasproducedinUnet.Thiscould

万物皆可GAN之3D-GAN(keras框架)

文章目录前言3D-GAN简介3D卷积3D-GAN的架构生成器网络的架构判别器网络的架构目标函数训练3D-GAN准备数据下载并提取数据集探索数据集什么是体素?加载和可视化3D图像可视化3D图像3D-GAN的Keras实现生成器网络判别器网络训练3D-GAN训练网络保存模型测试模型可视化损失可视化图超参数优化3D-GAN的实际应用总结前言这几天看了一篇比较有意思的文章,这里给你们分享一下。论文地址:https://arxiv.org/abs/1610.07584以下就用keras来对这个3D-GAN来进行分析;目前我还在看这篇文章的potorch代码,如果看懂了后续会将他给也分享出来。分享出来主要

在Meteor Lake上测试基于Stable Diffusion的AI应用

上个月刚刚推出的英特尔新一代MeteorLakeCPU,预示着AIPC的新时代到来。AIPC可以不依赖服务器直接在PC端处理AI推理工作负载,例如生成图像或转录音频。这些芯片的正式名称为IntelCoreUltra处理器,是首款配备专门用于处理人工智能任务的NPU(神经处理单元)的芯片。为了更好地了解MeteorLakeCPU,我们测试了英特尔适用于Audacity和GIMP(开源音频和图像编辑器)的OpenVINO插件和其它相关的AI应用,包含仅CPU模式、NPU模式和GPU模式下运行了所有测试。我们进行的测试有:OpenVINOStableDiffusion:在GIMP中生成图像。Open

stable-diffusion-webui中stability的sdv1.5和sdxl模型结构config对比

sdv1.5v1-inference.yamlmodel:base_learning_rate:1.0e-04target:ldm.models.diffusion.ddpm.LatentDiffusionparams:linear_start:0.00085linear_end:0.0120num_timesteps_cond:1log_every_t:200timesteps:1000first_stage_key:"jpg"cond_stage_key:"txt"image_size:64channels:4cond_stage_trainable:false#Note:differen

stable-diffusion-webui安装Wav2Lip

常见错误1.错误:TorchisnotabletouseGPU;add--skip-torch-cuda-testtoCOMMANDLINE_ARGSvariabletodisablethischeck修改代码:launch_utils.py删除三个地方:

【AI绘画】stable diffusion原理解读,通俗易懂,直接喂到你嘴里!!!

手把手教你入门绘图超强的AI绘画,用户只需要输入一段图片的文字描述,即可生成精美的绘画。给大家带来了全新保姆级教程资料包(文末可获取)文章目录一、前言(可跳过)二、stablediffusion1.clip2.diffusionmodelforwarddiffusion(前向扩散)逆向扩散(reversediffusion)采样图阶段小结3.Unetmodeltimestep_embedding采用正余弦编码三、stablediffusionwebui扩展个人网站一、前言(可跳过)hello,大家好我是Tian-Feng,今天介绍一些stablediffusion的原理,内容通俗易懂,因为我平

AI建筑设计卷疯了!Stable Diffusion成了最终赢家?

AI绘画真的火了!最近观察员打开各大平台刷到的基本上都是用AI生成的画像、插画,甚至建筑设计区别于早几年的人工智能如今的AI只需要给它一段文字描述就能生成精美图像这也极大地改变了我们的创作方式目前最主流的AI绘画平台主要有2种:Midjourney、StableDiffusion。Midjourney是一款AI制图工具,你只要给它关键词,它就能透过AI算法生成相对应的图片,而且绘图质量比较高。但目前不仅要收费,而且硬件要求较高,甚至同一个关键词组合每次得到的结果都不尽相同。相比Midjourney来说,StableDiffusion的可操作性则更高,有人曾这么简单的形容两者的区别:“Midjo

人工智能(pytorch)搭建模型23-pytorch搭建生成对抗网络(GAN):手写数字生成的项目应用

大家好,我是微学AI,今天给大家介绍一下人工智能(pytorch)搭建模型23-pytorch搭建生成对抗网络(GAN):手写数字生成的项目应用。生成对抗网络(GAN)是一种强大的生成模型,在手写数字生成方面具有广泛的应用前景。通过生成逼真的手写数字图像,GAN可以用于数据增强、图像修复、风格迁移等任务,提高模型的性能和泛化能力。生成对抗网络在手写数字生成领域具有广泛的应用前景。主要应用场景包括数据增强、图像修复、风格迁移和跨领域生成。数据增强可以通过生成逼真的手写数字图像,为训练数据集提供更多的样本,提高模型的泛化能力。一、项目背景随着深度学习技术的不断发展,生成模型在计算机视觉、自然语言处

使用 Docker 和 Diffusers 快速上手 Stable Video Diffusion 图生视频大模型

本篇文章聊聊,如何快速上手StableVideoDiffusion(SVD)图生视频大模型。写在前面月底计划在机器之心的“AI技术论坛”做关于使用开源模型“StableDiffusion模型”做有趣视频的实战分享。因为会议分享时间有限,和之前一样,比较简单的部分,就用博客文章的形式来做补充分享吧。本篇是一篇相关的补充内容,主要聊聊使用开源行业标杆stability.ai出品的StableVideoDiffusion的快速上手。本篇文章相关的代码保存在soulteary/docker-stable-video-diffusion,有需要可以自取,欢迎“一键三连”。StableVideoDiffu