草庐IT

AlexNet—论文分析及复现

AlexNet卷积神经网络是由AlexKrizhevsky等人在2012年的ImagNet图像识别大赛获得冠军的一个卷积神经网络,该网络放到现在相对简单,但也是深度学习不错的卷积神经网络。论文:《ImageNetClassificationwithDeepConvolutionalNeuralNetworks》论文结构Abstruct:简单介绍了AlexNet的结构及其成果Introduction:神经网络要是有更快的GPU和更大的数据集我们的结果就会得到改善TheDataset:介绍ILSVRC-2010和ImageNet数据集TheArchitecture:ReLU非线性函数介绍、两个GP

AlexNet—论文分析及复现

AlexNet卷积神经网络是由AlexKrizhevsky等人在2012年的ImagNet图像识别大赛获得冠军的一个卷积神经网络,该网络放到现在相对简单,但也是深度学习不错的卷积神经网络。论文:《ImageNetClassificationwithDeepConvolutionalNeuralNetworks》论文结构Abstruct:简单介绍了AlexNet的结构及其成果Introduction:神经网络要是有更快的GPU和更大的数据集我们的结果就会得到改善TheDataset:介绍ILSVRC-2010和ImageNet数据集TheArchitecture:ReLU非线性函数介绍、两个GP

深入浅出理解SVM支持向量机算法

  支持向量机是Vapnik等人于1995年首先提出的,它是基于VC维理论和结构风险最小化原则的学习机器。它在解决小样本、非线性和高维模式识别问题中表现出许多特有的优势,并在一定程度上克服了“维数灾难”和“过学习”等传统困难,再加上它具有坚实的理论基础,简单明了的数学模型,使得支持向量机从提出以来受到广泛的关注,并取得了长足的发展。支持向量机(SupportVectorMachine,SVM)本身是一个二元分类算法,是对感知机算法模型的一种扩展,现在的SVM算法支持线性分类和非线性分类的分类应用,并且也能够直接将SVM应用于回归应用中,同时通过OvR或者OvO的方式我们也可以将SVM应用在多元

深入浅出理解SVM支持向量机算法

  支持向量机是Vapnik等人于1995年首先提出的,它是基于VC维理论和结构风险最小化原则的学习机器。它在解决小样本、非线性和高维模式识别问题中表现出许多特有的优势,并在一定程度上克服了“维数灾难”和“过学习”等传统困难,再加上它具有坚实的理论基础,简单明了的数学模型,使得支持向量机从提出以来受到广泛的关注,并取得了长足的发展。支持向量机(SupportVectorMachine,SVM)本身是一个二元分类算法,是对感知机算法模型的一种扩展,现在的SVM算法支持线性分类和非线性分类的分类应用,并且也能够直接将SVM应用于回归应用中,同时通过OvR或者OvO的方式我们也可以将SVM应用在多元

梯度下降算法实现原理(Gradient Descent)

概述  梯度下降法(GradientDescent)是一个算法,但不是像多元线性回归那样是一个具体做回归任务的算法,而是一个非常通用的优化算法来帮助一些机器学习算法求解出最优解的,所谓的通用就是很多机器学习算法都是用它,甚至深度学习也是用它来求解最优解。所有优化算法的目的都是期望以最快的速度把模型参数θ求解出来,梯度下降法就是一种经典常用的优化算法。梯度下降法的思想  思想就类比于生活中的一些事情,比如你去询问你的一个朋友工资多少,他不会告诉你,但是他会让你去猜,然后告诉你猜的结果。你每说出一次答案,他就会说猜高了或是猜低了,这样下去你就会奔着对方的回答继续猜下去,总有一次能猜到正确答案。梯度

梯度下降算法实现原理(Gradient Descent)

概述  梯度下降法(GradientDescent)是一个算法,但不是像多元线性回归那样是一个具体做回归任务的算法,而是一个非常通用的优化算法来帮助一些机器学习算法求解出最优解的,所谓的通用就是很多机器学习算法都是用它,甚至深度学习也是用它来求解最优解。所有优化算法的目的都是期望以最快的速度把模型参数θ求解出来,梯度下降法就是一种经典常用的优化算法。梯度下降法的思想  思想就类比于生活中的一些事情,比如你去询问你的一个朋友工资多少,他不会告诉你,但是他会让你去猜,然后告诉你猜的结果。你每说出一次答案,他就会说猜高了或是猜低了,这样下去你就会奔着对方的回答继续猜下去,总有一次能猜到正确答案。梯度