草庐IT

Diffusion-XL

全部标签

Hugging Face使用Stable diffusion Diffusers Transformers Accelerate Pipelines VAE

DiffusersAlibrarythatoffersanimplementationofvariousdiffusionmodels,includingtext-to-imagemodels.提供不同扩散模型的实现的库,代码上最简洁,国内的问题是 huggingface需要翻墙。TransformersAHuggingFacelibrarythatprovidespre-traineddeeplearningmodelsfornaturallanguageprocessingtasks.提供了预训练深度学习模型,AccelerateThislibrary,alsofromHuggingFac

java - Android 应用程序在 Android 8.0 (Google Pixel XL) 上崩溃

我的应用程序运行良好,但自从AndroidOreo加入GooglePixelXL以来,它一直在崩溃以下是异常堆栈跟踪FatalException:java.lang.AbstractMethodError:abstractmethod"booleanandroid.app.job.JobServiceEngine.onStartJob(android.app.job.JobParameters)"atandroid.app.job.JobServiceEngine$JobHandler.handleMessage(JobServiceEngine.java:108)atandroid.

【论文阅读】A Survey on Video Diffusion Models

视频扩散模型(VideoDiffusionModel)最新综述+GitHub论文汇总-ASurveyonVideoDiffusionModels。paper:[2310.10647]ASurveyonVideoDiffusionModels(arxiv.org)0.Abstract本文介绍了AIGC时代视频扩散模型的全面回顾。简要介绍了扩散模型的基本原理和演变过程。总结了视频领域的扩散模型研究,将这些工作分为三个关键领域:视频生成、视频编辑和其他视频理解任务。我们对这三个关键领域的文献进行了彻底的回顾,包括领域内的进一步分类和实际贡献。模型合集:GitHub-ChenHsing/Awesome

stable diffusion webui 参数详解

-h,--help:显示帮助信息并退出。--exit:安装后立即终止。--data-dir:指定存储所有用户数据的基本路径,默认为"./"。--config:用于构建模型的配置文件路径,默认为"configs/stable-diffusion/v1-inference.yaml"。--ckpt:稳定扩散模型的检查点路径;如果指定,该检查点将被添加到检查点列表并加载。--ckpt-dir:稳定扩散检查点的目录路径。--no-download-sd-model:即使没有找到模型,也不下载SD1.5模型。--vae-dir:变分自编码器模型的路径。--gfpgan-dir:GFPGAN目录。--gf

Midjourney, Stable XL, Dall.E-3文生图三强效果对比

        AI文生图的大争之世,各种文生图的模型此起彼伏,博眼球的更是不在少数。不过目前生成效果最好的依然还是老牌的三强,Midjourney,StableDiffusionXL,以及Dall.E-3。    我们先来对比一下这三强生成的效果,希望可以为大家在选择图文模型提供一些参考。其他的模型只能说暂时略逊一筹,我们的文心一格4.0大模型的效果赶超很明显,已经可以初步商用了。        废话不说,正片开始。1.图片生成效果对比    PK1:生成要求:“一对老夫妻携手迎面走在乡间小路上,画面温馨,皮克斯动画风格,暖色调”。        StableDiffusionXL生成  M

多模态——使用stable-video-diffusion将图片生成视频

多模态——使用stable-video-diffusion将图片生成视频0.内容简介1.运行环境2.模型下载3.代码梳理3.1修改yaml文件中的svd路径3.2修改DeepFloyDataFiltering的vit路径3.3修改open_clip的clip路径3.4代码总体结构4.资源消耗5.效果预览0.内容简介近期,stabilityAI发布了一个新的项目,是将图片作为基础,生成一个相关的小视频,其实也算是其之前研究内容的扩展。早在stable-diffusion的模型开源出来的时候,除了由prompt生成图片之外,也可以生成连续帧的短视频。本文主要是体验一下stable-video-di

stable diffusion十七种controlnet详细使用方法总结

个人网站:https://tianfeng.space前言最近不知道发点什么,做个controlnet使用方法总结好了,如果你们对所有controlnet用法,可能了解但是有点模糊,希望能对你们有用。一、SDcontrolnet我统一下其他参数,仅切换controlnet模型,为你演示效果正向提示词:(只是一些人物基础提示词为了方便省事,实际场景请根据图片反推提示词)bestquality,masterpiece,4k,1girl,solo,longhair,dress,jewelry,choker,brownhair,realistic,necklace,browneyes,blackdre

【腾讯云 HAI域探秘】借助高性能应用HAI——我也能使用【stable diffusion】制作高级视频封面了

目录高性能应用服务HAI_GPU云服务器的申请与服务创建官网地址:高性能应用服务HAI_GPU云服务器_腾讯云通过高性能应用服务HAI——创建【stablediffusion】WebUI效果:服务器后台效果:stable-diffusion服务测试启动接口服务配置外网访问:访问官方提供的【swagger接口】高级视频封面——效果图总结 高性能应用服务HAI_GPU云服务器的申请与服务创建大家都知道当前最火热的就是AI课程的学习,但是AI吃显卡啊,例如我的:想学习都没办法。。。现在有了,我就可以继续我的AI学习之旅了。官网地址:高性能应用服务HAI_GPU云服务器_腾讯云腾讯云出了个——高性能应

AI绘画:Stable Diffusion 提示词从入门到精通(一)

随着AI技术的日新月异,AI绘画对各个行业的冲击和影响也越来越大。很多人都对如何进行高效的AI绘画并不很了解。作者将通过一个系列对AI绘画「StablediffusionWebUI」进行全面分享,希望可以帮助你更高效的进行AI绘画创作。使用过AI绘画工具的小伙伴都应该知道,想要让AI根据你的要求完成一份靠谱的创作有两大核心要点:「提示词」和「模型」。今天作者将对「提示词」进行全面详细的介绍,作者将基于漫画的创作场景,分享一些鲜为人知又非常实用的提示词技巧。提示词的基础概念提示词:通过自然语言描述画面的内容,指导AI绘画模型完成符合需求的图片创作。 提示词分为正面提示词(Prompts)和反面提

Stable Diffusion WebUI使用AnimateDiff插件生成动画

AnimateDiff可以针对各个模型生成的图片,一键生成对应的动图。配置要求GPU显存建议12G以上,在xformers或者sdp优化下显存要求至少6G以上。要开启sdp优化,在启动参数加上--sdp-no-mem-attention实际的显存使用量取决于图像大小(batchsize)和上下文批处理大小(Contextbatchsize)。可以尝试减小图像大小或上下文批处理大小以减少显存使用量。WebUI版本:v1.6.0ControlNet版本:v1.1.410下载运动模型https://huggingface.co/guoyww/animatediffhttps://huggingfac