最近调试SD卡的时候遇到了发送CMD命令但没有收到正确回应的问题。先简单叙述一下开发环境,我使用的是STM32CubeMX+MDK5,板子用的是原子哥F407探索者。这次的需求是使用SPI驱动SD卡,并建立FATFS文件系统用于管理卡内数据,另外使能了串口1并重定向了printf到串口以便直接观察。 基本了解SD卡驱动流程后就直接开始实战操作(SD卡的驱动流程、卡的驱动及挂载文件系统的代码都可以在网上找,很容易能够找到,这里就不赘述了),在下载的代码基础上用if语句判断f_mkfs、f_mount和f_open函数是否成功执行,成功返回0,否则返回错误代码。建立工程文
大家好,我是水滴~~本文主要介绍在各种显卡环境中,如何安装和运行stable-diffusion-webui,包括:在NVIDIA显卡环境上安装、在AMD显卡环境上安装、在集显或小于4G显卡环境上安装。文章目录在NVIDIA显卡环境上安装下载配置安装与运行在AMD显卡环境上安装在集显或小于4G显卡环境上安装StableDiffusion对显卡有一定的要求,其支持的最小独立显存为4G,8G以上为优,越大越好。对于显卡的厂商,N卡(NVIDIA,英伟达)最佳;A卡(AMD,超威半导体)也能用,但发挥的性能会大打折扣。对于不同情况的显卡,这里也给出了不同的安装教程。所以在安装前先看下自己电脑的配置,
一、简介facechain人物写真应用自8月11日开源了第一版证件照生成后。目前在github(https://github.com/modelscope/facechain)上已有近6K的star,论文链接:FaceChain: A Playground for Identity-Preserving Portrait Generation:https://arxiv.org/abs/2308.14256。facechain社区非常活跃,fork、commit数都很大,相应截图如下:facechain人物写真主要功能如下图所示,同时支持单人、多人写真功能,也可支持上传自炼的人物写真lora风
StableDiffusionWebUI无法打开,一直显示Loading或载入中,最后无响应直接崩溃卡死(您可以等待该页面恢复响应,也可以退出该页面)或能打开但非常缓慢,点击需要很久才有反应⚙️1.软件环境⚙️🔍2.问题描述🔍🐡3.解决方法🐡🤔4.结果预览🤔⚙️1.软件环境⚙️Windows10教育版64位Python3.10.6Chrome版本119.0.6045.199(正式版本)(64位)Edge119.0.2151.72(正式版本)(64位)StableDiffusionWebUI1.6.0🔍2.问题描述🔍StableDiffusionWebUI在自动打开以及输入本地地址后,一直显示L
ControlNet是一种通过添加额外条件来控制扩散模型的神经网络结构。sd-webui-controlnet下载地址:GitHub-Mikubill/sd-webui-controlnet:WebUIextensionforControlNetWebUIextensionforControlNet.ContributetoMikubill/sd-webui-controlnetdevelopmentbycreatinganaccountonGitHub.https://github.com/Mikubill/sd-webui-controlnet安装ControlNet插件打开WebUI界面
先放两张自己画的图片镇楼。什么是StableDiffusionWebuiStableDiffusionWebUI是StableDiffusion的浏览器界面,StableDiffusion是一种AI模型,可以根据文本提示生成图像或用文本提示修改现有图像。StableDiffusionWebUI是探索StableDiffusion可能性的好方法,只需点击几下即可创建令人惊叹的图像。内容来自官网还是大白话翻译一下,就用这玩意,你就能抛弃GPT4,抛弃Mj(当然实际效果很大可能不如Mj......),在本地实现AI绘画!部署前提条件虽然咱教程的目标是让所有人都能用上StableDif
上一篇用MindStudio转换完om模型,就可以在板卡里进行推理验证了。SDK里有相关推理的demo,只要om模型转换没有遇到问题,是可以做推理验证。首先SDK里推理验证方式有两种,一个是用H264实时视频流的方式,还有一种是通过图片的方式。 H264方式需要准备好FFMPEG,通过本地视频转换成H264视频流推给板卡。用下面指令就可以。ffmpeg的安装使用就不在这里介绍了。ffmpeg-itest.avi-vcodeccopytest.h264第二种方式,是需要将本地图片转换一下,给的例子是将.jpg图像转换成.bin文件。提供了python方式。importosimportnumpy
文章目录在学校服务器部署StableDiffusionWebui(一)准备工作(二)环境配置(三)git拉取项目到本地(四)运行项目遇到的问题:(一)使用gitclone时,Failedtoconnectto127.0.0.1port7890(二)使用gitclone时,出现RPCfailed(三)RuntimeError:Couldn’tinstallopen_clip(四)Couldn'tcheckout{name}'shash:{commithash}.(五)Failurewhenreceivingdatafromthepeer(六)OpenSSLSSL_read:SSL_ERROR_S
目录一、4位SD总线模式二、1位SD总线模式三、HSPI总线模式四、VSPI总线模式五、关于SD卡开发板:NodeMCU32s(v1.3)SD卡读写模块:SDIO/SPI二合一SD卡:闪迪32GB(TF卡,实际29.7GB)/Kingston32G(TF卡,实际29.1GB)开发框架:ArduinoEsp32可以通过SDMMC和SPI两种方式读取SD/TF卡数据。SDMMC分为1位SD总线模式和4位SD总线模式Esp32上有4组SPI外设,其中,控制器SPI2和SPI3分别使用带前缀HSPI和VSPI的信号总线。注意:在程序下载前,需要断开SD卡供电,否则会出现报错。【VSPI除外】SD卡在复
最近看到很多很精美的AI图片,也想体验下,正好我有台2vCPU和2G内存轻量云服务器,但是不想再额外买GPU,就想着用CPU模式自己部署,部署经过摸索能顺利完成,但是加载模型已经很吃力,老是提示没有足够内存。本过程主要是用来记录部署的详细过程,仅针对于CPU跑Stable-diffusion-webui。1、机器配置要求机器的配置要求主要是针对CPU模式云部署Stable-diffusion-webui。CPU:任何现代AMD或IntelCPU。内存:至少8G内存。存储:这个其实影响不大。显卡: 不影响。系统: centos。2、配置Python环境2.1Miniconda3安装Minicon