草庐IT

炼丹术

全部标签

深度学习炼丹-数据增强

一,数据增强概述数据增强(也叫数据扩增)的目的是为了扩充数据和提升模型的泛化能力。有效的数据扩充不仅能扩充训练样本数量,还能增加训练样本的多样性,一方面可避免过拟合,另一方面又会带来模型性能的提升。数据增强几种常用方法有:图像水平/竖直翻转、随机抠取、尺度变换和旋转。其中尺度变换(scaling)、旋转(rotating)等方法用来增加卷积卷积神经网络对物体尺度和方向上的鲁棒性。在此基础上,对原图或已变换的图像(或图像块)进行色彩抖动(colorjittering)也是一种常用的数据扩充手段,即改变图像颜色的四个方面:亮度、对比度、饱和度和色调。色彩抖动是在RGB颜色空间对原有RGB色彩分布进

深度学习炼丹-数据增强

一,数据增强概述数据增强(也叫数据扩增)的目的是为了扩充数据和提升模型的泛化能力。有效的数据扩充不仅能扩充训练样本数量,还能增加训练样本的多样性,一方面可避免过拟合,另一方面又会带来模型性能的提升。数据增强几种常用方法有:图像水平/竖直翻转、随机抠取、尺度变换和旋转。其中尺度变换(scaling)、旋转(rotating)等方法用来增加卷积卷积神经网络对物体尺度和方向上的鲁棒性。在此基础上,对原图或已变换的图像(或图像块)进行色彩抖动(colorjittering)也是一种常用的数据扩充手段,即改变图像颜色的四个方面:亮度、对比度、饱和度和色调。色彩抖动是在RGB颜色空间对原有RGB色彩分布进

深度学习炼丹-不平衡样本的处理

前言在机器学习的经典假设中往往假设训练样本各类别数目是均衡的,但在实际场景中,训练样本数据往往都是不均衡(不平衡)的。比如在图像二分类问题中,一个极端的例子是,训练集中有95个正样本,但是负样本只有5个。这种类别数据不均衡的情况下,如果不做不平衡样本的处理,会导致模型在数目较少的类别上出现“欠学习”现象,即可能在测试集上完全丧失对负样本的预测能力。除了常见的分类、回归任务,类似图像语义分割、深度估计等像素级别任务中也是存在不平衡样本问题的。解决不平衡样本问题的处理方法一般有两种:从“数据层面”入手:分为数据采样法和类别平衡采样法。从“算法层面”入手:代价敏感方法。注意本文只介绍不平衡样本的处理

深度学习炼丹-不平衡样本的处理

前言在机器学习的经典假设中往往假设训练样本各类别数目是均衡的,但在实际场景中,训练样本数据往往都是不均衡(不平衡)的。比如在图像二分类问题中,一个极端的例子是,训练集中有95个正样本,但是负样本只有5个。这种类别数据不均衡的情况下,如果不做不平衡样本的处理,会导致模型在数目较少的类别上出现“欠学习”现象,即可能在测试集上完全丧失对负样本的预测能力。除了常见的分类、回归任务,类似图像语义分割、深度估计等像素级别任务中也是存在不平衡样本问题的。解决不平衡样本问题的处理方法一般有两种:从“数据层面”入手:分为数据采样法和类别平衡采样法。从“算法层面”入手:代价敏感方法。注意本文只介绍不平衡样本的处理

深度学习炼丹-超参数设定

本文首发于github,如果看完文章有所收获,一定要先点赞后收藏。毕竟,赠人玫瑰,手有余香。最后,更多面经和干货文章,欢迎关注我的公众号-嵌入式视觉!前言所谓超参数,即不是通过学习算法本身学习出来的,需要作者手动调整(可优化参数)的参数(理论上我们也可以设计一个嵌套的学习过程,一个学习算法为另一个学习算法学出最优超参数),卷积神经网络中常见的超参数有:优化器学习率、训练Epochs数、批次大小batch_size、输入图像尺寸大小。一般而言,我们将训练数据分成两个不相交的子集,其中一个用于学习参数,另一个作为验证集,用于估计训练中或训练后的泛化误差,用来更新超参数。用于学习参数的数据子集通常仍

深度学习炼丹-超参数设定

本文首发于github,如果看完文章有所收获,一定要先点赞后收藏。毕竟,赠人玫瑰,手有余香。最后,更多面经和干货文章,欢迎关注我的公众号-嵌入式视觉!前言所谓超参数,即不是通过学习算法本身学习出来的,需要作者手动调整(可优化参数)的参数(理论上我们也可以设计一个嵌套的学习过程,一个学习算法为另一个学习算法学出最优超参数),卷积神经网络中常见的超参数有:优化器学习率、训练Epochs数、批次大小batch_size、输入图像尺寸大小。一般而言,我们将训练数据分成两个不相交的子集,其中一个用于学习参数,另一个作为验证集,用于估计训练中或训练后的泛化误差,用来更新超参数。用于学习参数的数据子集通常仍

深度学习炼丹-数据标准化

前言一般机器学习任务其工作流程可总结为如下所示pipeline。在工业界,数据预处理步骤对模型精度的提高的发挥着重要作用。对于机器学习任务来说,广泛的数据预处理一般有四个阶段(视觉任务一般只需DataTransformation):数据清洗(DataCleaning)、数据整合(DataIntegration)、数据转换(DataTransformation)和数据缩减(DataReduction)。1,DataCleaning:数据清理是数据预处理步骤的一部分,通过填充缺失值、平滑噪声数据、解决不一致和删除异常值来清理数据。2,DataIntegration:用于将存在于多个源中的数据合并到