草庐IT

torch.Tensor

全部标签

print(torch.cuda.is_available()) 返回false的解决办法

print(torch.cuda.is_available())返回false的解决办法1.问题简述今天给新电脑配置pytorch深度学习环境,最后调用python打印print(torch.cuda.is_available())一直出现false的情况(也就是说无法使用GPU),最后上网查找资料得出报错的原因:下载的pytorch是CPU版本,而非GPU版本。2.报错原因按照最开始的方法,在pytorch的官网上根据自己的cuda版本(笔者为cuda11.5)使用对应的指令在condaprompt中在线下载:condainstallpytorchtorchvisiontorchaudioc

Stable diffusion报Torch is not able to use GPU; add --skip-torch-cuda-test to COMMANDLINE_ARGS variab

Stablediffusion报TorchisnotabletouseGPU;add--skip-torch-cuda-testtoCOMMANDLINE_ARGSvariabletodisablethischeck错误及排查解决背景先说一下我的显卡配置3060Ti,当刚开始报这个错误的时候,发现基本上很多博主说的都是在launch.py或者webui-user.bat加一个参数--precisionfull--no-half--skip-torch-cuda-test,webui-user.bat是在setCOMMANDLINE_ARGS=后面加或者launch.py是在index_url=

torch和numpy的维度交换方法

Tensor的维度转置方法​ 在搭建神经网络的时候,经常会遇到需要交换维度的时候,比如将HWCN的Tensor维度顺序变换为NCHW顺序,此时需要用到Tensor的转置方法。​ 一般有以下三种方法:1、numpy.transpose​ 如果Tensor是由np.Array转换而来,那么可以在变量还是np.Array的时候先进行通道转置,此时可以使用np.transpose方法:>>>importnumpyasnp>>>aa=np.ndarray((1,3,3,4))>>>aa.shape(1,3,3,4)>>>aa.transpose((3,1,0,2)).shape(4,3,1,3)>

利用 device_map、torch.dtype、bitsandbytes 压缩模型参数控制使用设备

device_map以下内容参考HuggingfaceAccelerate文档:超大模型推理方法在HuggingFace中有个重要的关键字是device_map,它可以简单控制模型层部署在哪些硬件上。设置参数device_map="auto",Accelerate会自动检测在哪个设备放置模型的哪层参数(自动根据你的硬件资源分配模型参数)。其规则如下:首先充分利用GPU上的显存资源如果GPU上资源不够了,那么就将权重存储到内存如果内存还不够用了,将会使用内存映射的技术,将剩余的参数存储到硬盘上设置参数no_split_module_classes=["GPTJBlock"]表示,模型中的GPTJ

补充:tensor之间进行矩阵相乘的方法总结

利用@进行简单的矩阵乘@符号在tensor中就表示矩阵相乘,@符号的矩阵相乘性质在numpy中依然适用。首先矩阵相乘的双方必须满足可以矩阵相乘的条件@只会关注两个矩阵最里面的两个维度是否符合条件,外面的维度都只表示矩阵运算的次数,甚至两个矩阵只要满足广播的条件和里面两个维度可以进行矩阵乘,二者的维度都可以不一样。torch.mul一定要注意这个函数是陷阱!其与*的作用是完全一样的,其不管相乘的双方维度如何,执行的都是对位相乘的操作,*与torch.mul均不能实现矩阵相乘的规则。torch.mmtorch.mm是阉割版的@,其只能对二维的tensor进行矩阵相乘,高了的维度其不会进行广播↓a=

python, torch. 遇到AttributeError: module ‘distutils‘ has no attribute ‘version‘ 报错。

1.已经安装了pipinstalltensorboard出现报错 在使用torch.utils.tensorboard时,出现错误: 出错语句fromtorch.utils.tensorboardimportSummaryWriter AttributeError:module'distutils'hasnoattribute'version'2.问题原因当前tensorboard的版本和你安装的pytorch版本不匹配,tensorboard版本太     高,pytorch太低。3解决办法, 一般来说具体哪个地方attribute不匹配我们就降低那个部分的版本。 此处解决方法为pipuni

AttributeError: module ‘torch‘ has no attribute ‘cuda‘

看了下原因为没有装pytorch。(印象中是装了的不知道什么时候这台服务器没有了。。)解决方案:到pytorch官网上找到对应的cuda版本的pytorch安装即可PreviousPyTorchVersions|PyTorch比如我的是cuda10.2(使用nvcc-V命令查看)那么就是使用以下命令安装——condainstallpytorch==1.12.1torchvision==0.13.1torchaudio==0.12.1cudatoolkit=10.2-cpytorch 

深入浅出Pytorch函数——torch.full_like

分类目录:《深入浅出Pytorch函数》总目录相关文章:·深入浅出Pytorch函数——torch.Tensor·深入浅出Pytorch函数——torch.ones·深入浅出Pytorch函数——torch.zeros·深入浅出Pytorch函数——torch.full·深入浅出Pytorch函数——torch.ones_like·深入浅出Pytorch函数——torch.zeros_like·深入浅出Pytorch函数——torch.full_like返回一个形状与input相同且值全为fill_value的张量。full_like(input,fill_value)相当于torch.ful

torch中permute()函数用法

目录前言三维情况变化一:不改变任何参数变化二:1与2交换变化三:0与1交换变化四:0与2交换变化五:0与1交换,1与2交换变化六:0与1交换,0与2交换总结写在最后前言本文只讨论二维三维中的permute用法最近的Attention学习中的一个permute函数让我不理解这个光说太抽象我就结合代码与图片解释一下首先创建一个三维数组小实例importtorchx=torch.linspace(1,30,steps=30).view(3,2,5)#设置一个三维数组print(x)print(x.size()) #查看数组的维数这里为了防止出现维数数值相同的巧合局面(例如三维数组(3,3,3)

python - 值错误 : Argument must be a dense tensor - Python and TensorFlow

我正在提取可能与我遇到的问题相关的部分代码:fromPILimportImageimporttensorflowastfdata=Image.open('1-enhanced.png')......raw_data=dataraw_img=raw_data我收到以下长消息,我不确定如何分析(您知道这里发生了什么吗):Traceback(mostrecentcalllast):File"C:\Python35\lib\site-packages\tensorflow\python\framework\op_def_library.py",line490,inapply_oppreferr