草庐IT

炼丹术

全部标签

教你如何用家里闲置的Windows电脑搭建GPU服务器炼丹(无公网IP)

教你如何用家里闲置的Windows电脑搭建GPU服务器炼丹配置Zeroiter(内网穿透)电脑登陆配置虚拟IP配置Vscode错误排查💡身为大学生的我们,往往都只有笔记本,在深度学习中,AlexNet以上的model基本是跑不动了,下面我教大家如何在无公网Ip的情况下用Windows系统的电脑作为服务端,我们通过笔记本来访问设备远程炼丹。准备:VscodeZerotier配置Zeroiter(内网穿透)首先打开网站注册账号登陆之后,来到这个页面点击建立新Network会出现下面一行,然后点击它:这个id我们要记好,这是电脑访问这个网络的token。下载客户端电脑登陆我们用的Windows作为服

在Windows10环境安装CUDA11.7及PyTorch1.13--使用Nvidia RTX A4000开始炼丹之旅

在Windows10环境安装CUDA11.7及PyTorch1.13–使用NvidiaRTXA4000开始炼丹之旅前言这个双十一,RTX3090矿卡反倒是涨价了,RTX3090Ti当然也涨价了。。。只好从x宝搞一只工包丽台RTXA4000,唯一的好处就是显存大并且便宜。。。较RTX306012G,16G显存能玩的时间可能也长一点,毕竟现在是4K屏,显存大当然更从容些。硬件配置之前有写过:https://lizhiyong.blog.csdn.net/article/details/123294308主板:x99f8dCPU:e52696v3*2【36核72线程】内存条:DDR4ECC32G*8

gym包升级后炼丹炉的测试代码

关于gym包升级后炼丹炉测试代码的修改前两天电脑有问题,重装了系统。就有了关于安装了更新后的软件包跑环境测试代码遇到的问题。本文包版本分别为——gymversion:0.26.2,pygameversion:2.1.2A.测试代码1由于十月份电脑有些问题重装了一边系统,因此又开始搭环境跑测试代码,果不其然,各种问题出来了。把pycharm、anaconda装好后,rl环境创建好后,并在rl环境中成功安装好gym、pygame、pytorch包以为能成功进入炼丹炉,就拿了之前的测试代码1跑了一下:importgymenv=gym.make('MountainCar-v0')fori_episod

GAN的训练技巧:炼丹师养成计划 ——生成式对抗网络训练、调参和改进

目录一、模式崩溃:生成器产生的结果模式较为单一1.1、改进训练方法1.2、改进目标函数1.3、改进网络架构二、训练缓慢:发生了梯度消失三、不收敛:训练不稳定,收敛的慢四、过拟合五、尽早发现失败六、一些训练技巧最后生成对抗网络(GAN:Generativeadversarialnetworks)是深度学习领域的一个重要生成模型,即两个网络(生成器和鉴别器)在同一时间训练并且在极小化极大算法(minimax)中进行竞争。这种对抗方式避免了一些传统生成模型在实际应用中的一些困难,巧妙地通过对抗学习来近似一些不可解的损失函数。之前我们介绍了GAN的原理:深入浅出理解GAN中的数学原理,GAN最重要的就

GAN的训练技巧:炼丹师养成计划 ——生成式对抗网络训练、调参和改进

目录一、模式崩溃:生成器产生的结果模式较为单一1.1、改进训练方法1.2、改进目标函数1.3、改进网络架构二、训练缓慢:发生了梯度消失三、不收敛:训练不稳定,收敛的慢四、过拟合五、尽早发现失败六、一些训练技巧最后生成对抗网络(GAN:Generativeadversarialnetworks)是深度学习领域的一个重要生成模型,即两个网络(生成器和鉴别器)在同一时间训练并且在极小化极大算法(minimax)中进行竞争。这种对抗方式避免了一些传统生成模型在实际应用中的一些困难,巧妙地通过对抗学习来近似一些不可解的损失函数。之前我们介绍了GAN的原理:深入浅出理解GAN中的数学原理,GAN最重要的就

深度学习炼丹-不平衡样本的处理

前言一,数据层面处理方法1.1,数据扩充1.2,数据(重)采样数据采样方法总结1.3,类别平衡采样二,算法(损失函数)层面处理方法2.1,FocalLoss2.2,损失函数加权参考资料前言在机器学习的经典假设中往往假设训练样本各类别数目是均衡的,但在实际场景中,训练样本数据往往都是不均衡(不平衡)的。比如在图像二分类问题中,一个极端的例子是,训练集中有95个正样本,但是负样本只有5个。这种类别数据不均衡的情况下,如果不做不平衡样本的处理,会导致模型在数目较少的类别上出现“欠学习”现象,即可能在测试集上完全丧失对负样本的预测能力。除了常见的分类、回归任务,类似图像语义分割、深度估计等像素级别任务

深度学习炼丹-不平衡样本的处理

前言一,数据层面处理方法1.1,数据扩充1.2,数据(重)采样数据采样方法总结1.3,类别平衡采样二,算法(损失函数)层面处理方法2.1,FocalLoss2.2,损失函数加权参考资料前言在机器学习的经典假设中往往假设训练样本各类别数目是均衡的,但在实际场景中,训练样本数据往往都是不均衡(不平衡)的。比如在图像二分类问题中,一个极端的例子是,训练集中有95个正样本,但是负样本只有5个。这种类别数据不均衡的情况下,如果不做不平衡样本的处理,会导致模型在数目较少的类别上出现“欠学习”现象,即可能在测试集上完全丧失对负样本的预测能力。除了常见的分类、回归任务,类似图像语义分割、深度估计等像素级别任务

深度学习炼丹-超参数调整

前言网络层内在参数使用3x3卷积使用cbr组合尝试不同的权重初始化方法图片尺寸与数据增强batchsize设定背景知识batchsize定义选择合适大小的batchsize学习率和batchsize关系学习率参数设定背景知识什么是学习率如何设置学习率优化器选择优化器定义如何选择适合不同ml项目的优化器PyTorch中的优化器模型finetune参考资料前言所谓超参数,即不是通过学习算法本身学习出来的,需要作者手动调整(可优化参数)的参数(理论上我们也可以设计一个嵌套的学习过程,一个学习算法为另一个学习算法学出最优超参数),卷积神经网络中常见的超参数有:优化器学习率、训练Epochs数、批次大小

深度学习炼丹-超参数调整

前言网络层内在参数使用3x3卷积使用cbr组合尝试不同的权重初始化方法图片尺寸与数据增强batchsize设定背景知识batchsize定义选择合适大小的batchsize学习率和batchsize关系学习率参数设定背景知识什么是学习率如何设置学习率优化器选择优化器定义如何选择适合不同ml项目的优化器PyTorch中的优化器模型finetune参考资料前言所谓超参数,即不是通过学习算法本身学习出来的,需要作者手动调整(可优化参数)的参数(理论上我们也可以设计一个嵌套的学习过程,一个学习算法为另一个学习算法学出最优超参数),卷积神经网络中常见的超参数有:优化器学习率、训练Epochs数、批次大小

深度学习炼丹-数据增强

一,数据增强概述二,opencv图像增强-几何变换三,pytorch图像增强四,imgaug图像增强参考资料一,数据增强概述数据增强(也叫数据扩增)的目的是为了扩充数据和提升模型的泛化能力。有效的数据扩充不仅能扩充训练样本数量,还能增加训练样本的多样性,一方面可避免过拟合,另一方面又会带来模型性能的提升。数据增强几种常用方法有:图像水平/竖直翻转、随机抠取、尺度变换和旋转。其中尺度变换(scaling)、旋转(rotating)等方法用来增加卷积卷积神经网络对物体尺度和方向上的鲁棒性。在此基础上,对原图或已变换的图像(或图像块)进行色彩抖动(colorjittering)也是一种常用的数据扩充