草庐IT

nerf-pytorch

全部标签

已安装Pytorch,却提示no moudle named ‘torch’(没有名称为torch的模块)

Pytorch安装过很多遍(自己的老电脑,实验室的电脑,实验室换的新电脑,服务器的……)不同的显卡不同的服务器……遇到过很多坑都解决过,本以为Pytorch配置环境的坑已经被我踩完了。今天又遇到了这种情况:Pycharm提示是没有名称为torch的模块,当然不能运行也不能调试。 以为版本安装出问题了,检查了一下Pycharm的解释器,没有选错,明明有Pytorch我又从终端通过 condalist 命令查看已安装的包: 发现Pytorch也是在的。 那就奇怪了,为什么编译器找不到呢?这时候还没反应过来答案就在问题里。于是我去搜索引擎和论坛逛了一大圈,发现没有一个人遇到过这种情况,大家报错的情况

Windows安装Pytorch3d

Windows安装Pytorch3d1.前提:安装VisualStudio2019【我记得必须是2017-2019之间的版本,我一开始用的是2022的版本就安装不了】网址pytorch和pytorch3d、cuda和NVIDIACUB版本需要相互对应pytorch和pytorch3d版本对应关系如下:https://github.com/facebookresearch/pytorch3d/releasescuda和NVIDIACUB版本对应关系如下:https://github.com/NVIDIA/cub/releases?page=1本人配置如下:GPU:1050TiCUDA:11.1p

LSTM 时间序列预测+股票预测案例(Pytorch版)

文章目录LSTM时间序列预测股票预测案例数据特征对收盘价(Close)单特征进行预测1.导入数据2.将股票数据收盘价(Close)进行可视化展示3.特征工程4.数据集制作5.模型构建6.模型训练7.模型结果可视化8.模型验证完整代码LSTM时间序列预测股票预测案例数据特征Date:日期Open:开盘价High:最高价Low:最低价Close:收盘价AdjClose:调整后的收盘价Volume:交易量对收盘价(Close)单特征进行预测利用前n天的数据预测第n+1天的数据。1.导入数据importnumpyasnpimportpandasaspdimportmatplotlib.pyplotas

深入浅出Pytorch函数——torch.exp

分类目录:《深入浅出Pytorch函数》总目录相关文章:·深入浅出TensorFlow2函数——tf.exp·深入浅出TensorFlow2函数——tf.math.exp·深入浅出Pytorch函数——torch.exp·深入浅出PaddlePaddle函数——paddle.exp对输入input逐元素进行以自然数eee为底指数运算。语法torch.exp(input,*,out=None)→Tensor参数input:[Tensor]输入的向量。out:[可选,Tensor]输出的向量。返回值与x维度相同、数据类型相同的Tensor。实例importpaddle>>>torch.exp(to

【Pytorch警告】Using a target size (torch.Size([])) that is different to the input size (torch.Size([1])

Pytorch警告记录:UserWarning:Usingatargetsize(torch.Size([]))thatisdifferenttotheinputsize(torch.Size([1]))我代码中造成警告的语句是:value_loss=F.mse_loss(predicted_value,td_value)#predicted_value是预测值,td_value是目标值,用MSE函数计算误差原因:mse_loss损失函数的两个输入Tensor的shape不一致。经过reshape或者一些矩阵运算以后使得shape一致,不再出现警告了。

Pytorch:将列表数据转不同数据类型的Tensor矩阵

    本文主要介绍pytorch中不同数据类型的Tensor矩阵,例如:float32、float64、int32、int64。并将创建好的列表数据转成不同数据类型的Tensor矩阵,最后进行:行复制的操作。一、列表转Tensor,复制行和列向量a=[1,2,3,4,5,6,7,8,9,10]print(a)print(type(a))#查看a的类型---即列表类型'''结果'''[1,2,3,4,5,6,7,8,9,10]a=torch.Tensor(a)#将列表a转成tensor类型print(a)print(type(a),a.dtype)#查看a的类型和a中各个元素的数据类型'''结

【pytorch问题解决】OSError: [WinError 1455] 页面文件太小,无法完成操作。

文章目录问题:分析:解决:问题:在windows上面跑pytorch代码,导致:OSError:[WinError1455]页面文件太小,无法完成操作。Errorloading“D:\python\Anancoda\envs\torch38\lib\site-packages\torch\lib\caffe2_detectron_ops_gpu.dll”oroneofitsdependencies.分析:就是说由于一下要加载一些数据,但是数据大小超过了电脑能够分配的空间,所以导致运行不了。正常来讲,我们使用conda环境的地方就是加载数据的地方,加载数据使用的电脑的虚拟内存。所以我们需要加大c

PyTorch-实现对表格类型数据的一维卷积(CNN1D)

数据集:首先看一下我自己的表格类型的数据看到大家都私信要代码,太多了发不过来,我把代码放到github上了:github链接:https://github.com/JiaBinBin233/CNN1D我的数据集是一个二分类的数据集,是一个12维的数据(第一列为标签列,其他的11列是属性列)神经网络架构#两层卷积层,后面接一个全连接层classLearn(nn.Module):def__init__(self):super(Tudui,self).__init__()self.model1=nn.Sequential( #输入通道一定为1,输出通道为卷积核的个数,2为卷积核的大小(实际为一个[1

【pytorch】Vision Transformer实现图像分类+可视化+训练数据保存

一、VisionTransformer介绍Transformer的核心是“自注意力”机制。论文地址:https://arxiv.org/pdf/2010.11929.pdf自注意力(self-attention)相比卷积神经网络和循环神经网络同时具有并行计算和最短的最大路径⻓度这两个优势。因此,使用自注意力来设计深度架构是很有吸引力的。对比之前仍然依赖循环神经网络实现输入表示的自注意力模型[Chengetal.,2016,Linetal.,2017b,Paulusetal.,2017],transformer模型完全基于注意力机制,没有任何卷积层或循环神经网络层[Vaswanietal.,20

【pytorch】Vision Transformer实现图像分类+可视化+训练数据保存

一、VisionTransformer介绍Transformer的核心是“自注意力”机制。论文地址:https://arxiv.org/pdf/2010.11929.pdf自注意力(self-attention)相比卷积神经网络和循环神经网络同时具有并行计算和最短的最大路径⻓度这两个优势。因此,使用自注意力来设计深度架构是很有吸引力的。对比之前仍然依赖循环神经网络实现输入表示的自注意力模型[Chengetal.,2016,Linetal.,2017b,Paulusetal.,2017],transformer模型完全基于注意力机制,没有任何卷积层或循环神经网络层[Vaswanietal.,20