草庐IT

Nvidia显卡

全部标签

【折腾电脑】win笔记本雷电3外接显卡过程记录(使用内屏)、雷电三驱动怎么更新

准备材料:雷电3硬盘盒(400)、NVME转PCIEX16转接板(75,直接用这个关键词搜,对应价格就是)、显卡、主机电源(100+)、机箱盒子、一条杜邦线或者电源欺骗器。确定你的电脑有满血雷电3接口。其他接口可作参考。准备东西时需要注意:电源注意功率,至少要有SATA供电口和你显卡的插口;硬盘盒的接口和NVME转PCIEX16转接板要一样(一般是m2),跟老板确认A卡/N卡是不是能用;硬盘盒建议全新,有闪电标志。1、连接示意图2、分步测试连好设备,先不连接电脑,插上电源欺骗器,或者用杜邦线连接24PIN接口中绿色线和任意黑色线。一插进去,电源风扇立刻转,显卡有蓝色灯亮起来,风扇可转可不转。以

保姆级amd显卡win11搭建stable diffusion教程,GPU运算,而不是CPU运算!!!

1.安装Git2.安装pythonpython版本一定要是3.10.6如果是其他版本,请卸载后再重新安装此版本3.git代理配置此步骤主要是解决拉github源码慢的问题,如果有vpn客户端的同学,记得要单独再配置下git的代理配置(可具体查看自己开启VPN后的代理ip端口,配置一样即可)。开了VPN没配置git代理,正常网站进外网和github下载很快,但git命令拉取很慢?网站会检查电脑的代理配置并使用,而git是检查git单独的代理配置,所以得配4.stablediffusionwebUI源码包下载源码地址https://github.com/lshqqytiger/k-diffusio

AI时代显卡如何选择,B100、H200、L40S、A100、H100、V100 含架构技术和性能对比

AI时代显卡如何选择,B100、H200、L40S、A100、H100、V100含架构技术和性能对比。英伟达系列显卡大解析B100、H200、L40S、A100、A800、H100、H800、V100如何选择,含架构技术和性能对比带你解决疑惑。近期,AIGC领域呈现出一片繁荣景象,其背后离不开强大算力的支持。以ChatGPT为例,其高效的运行依赖于一台由微软投资建造的超级计算机。这台超级计算机配备了数万个NVIDIAA100GPU,并利用60多个数据中心的数十万个GPU辅助,为ChatGPT提供了强大的算力支持。这种规模的算力部署不仅体现了AIGC技术的先进性,也预示着人工智能技术未来的发展趋

惊喜!4G显卡也能用Stable Diffusion啦

上周六StableDiffusionWebUI发布了1.8.0版本。新版本主要特点如下:将touch2.1.2更新到版本2.1.2,提高了稳定性FP8支持,新增了对八位精度模型的支持,降低了硬件门槛支持SDXL-Inpaint模型使用Spandrel进行升级和面部修复架构自动向后版本兼容性(从指定了程序版本的旧图像加载信息文本时,将添加兼容性设置)实现零终端SNR噪声计划选项添加一个[✨]按钮以对库中的选定图像运行局部修复独立的资产存储库;在本地提供字体,而不是从Google的服务器提供字体官方LCM采样器支持添加对DAT升频器型号的支持额外网络树视图NPU支持总体来说,该版本更新亮点较多,但

两天时间!我搞定了Intel显卡(核显)+Windows安装stable-diffusion-AI画画软件

两天时间!我搞定了Intel显卡(核显)+Windows安装stable-diffusion-AI画画软件文章目录两天时间!我搞定了Intel显卡(核显)+Windows安装stable-diffusion-AI画画软件前言一、工具的选择二、工具的熟悉三、硬件的短板四、学习题外话耐力值变通性五、工具的部署部署环境安装步骤第一步、安装Python第二步、安装git第三步、下载StableDiffusion绘画软件第四步、安装绘画软件六、工具的使用第一个问题:缺少模型第二个问题:缺少openai依赖第三个问题:电脑数据精度第四个问题:硬件保护总结一、开源精神二、感谢小伙伴的帮助三、我的希望这篇博客

解决ubuntu 22.04新内核6.5.0-15无法编译NVIDIA显卡驱动

这里的新内核应该包括6.5.*系列的文章目录遇到的问题:遇到的问题:今天我在安装NVIDIA显卡驱动发现了一个问题,主要日志如下所示:make[3]:***[scripts/Makefile.build:251:/tmp/selfgz1310041/NVIDIA-Linux-x86_64-550.54.14/kernel/nvidia/nvlink_linux.o]Error1make[3]:Target'/tmp/selfgz1310041/NVIDIA-Linux-x86_64-550.54.14/kernel/'notremadebecauseoferrors.make[2]:***[/

英伟达系列显卡大解析B100、H200、L40S、A100、A800、H100、H800、V100如何选择,含架构技术和性能对比带你解决疑惑

英伟达系列显卡大解析B100、H200、L40S、A100、A800、H100、H800、V100如何选择,含架构技术和性能对比带你解决疑惑近期,AIGC领域呈现出一片繁荣景象,其背后离不开强大算力的支持。以ChatGPT为例,其高效的运行依赖于一台由微软投资建造的超级计算机。这台超级计算机配备了数万个NVIDIAA100GPU,并利用60多个数据中心的数十万个GPU辅助,为ChatGPT提供了强大的算力支持。这种规模的算力部署不仅体现了AIGC技术的先进性,也预示着人工智能技术未来的发展趋势。这种集成了高性能计算、大数据处理和人工智能算法的超级计算机,将成为推动科技进步的重要引擎。1.GPU

Windows远程桌面RDP mstsc 性能优化用显卡异地玩游戏

-----------------------------------------------------------------------------------------------------------前情提要:服务器在公网环境,带宽只有30M。远程桌面多开玩游戏,设置RDP服务端使用GPU。压缩传输带宽避免造成卡顿。如果是内网,也可以用,还可以提供一个注册表键值,修改后提高fps帧率(公网不推荐)。--------------------------------------------------------------------------------------------

记录Ubuntu20.04安装、NVIDIA显卡驱动安装和cuda安装

一:若之前安装过Ubuntu1:卸载原有的分区,使用DiskGenius2:完全删除ubuntu还需要删除引导文件!!!(很重要)详情可以看以下博客中的3删除引导文件:可新教你彻底卸载Ubuntu双系统,去污不残留!-云社区-华为云...https://bbs.huaweicloud.com/blogs/303695二:ubuntu安装1:下载ubuntuhttps://ubuntu.com/download/desktophttps://ubuntu.com/download/desktop个人推荐20.04比较稳定2:制作U盘启动项Rufus-DownloadRufus,freeandsa

Docker:使用Nvidia官方的pytorch、tensorflow、TensorRT镜像创建Container容器

前言相信大家在学习新的知识前都遇到过开发环境安装不上,或者环境冲突和版本不匹配的情况,另外当我们想要安装多个版本的支持库时,在本地环境上直接安装往往会导致版本冲突的情况,如果我们使用虚拟机或者WSL技术新建一个完整系统,这又往往需要耗费很长时间,同时在我们学习深度学习等相关技术时,我们需要使用到显卡进行计算,虚拟机调用显卡很不方便,同时CUDA、cuDNN、cuBLAS、TensorRT等GPU计算支持库都有强版本依赖,手动安装需要耗费很长时间,因此本文介绍通过docker的容器技术来实现使用Nvidia官方提供的镜像库创建 container容器。一、前期准备本文将以创建一个包含python