草庐IT

经典之作

全部标签

java算法:青蛙跳台阶问题(经典算法)

问题一只青蛙一次可以跳上1级台阶,也可以跳上2级台阶。求该青蛙跳上一个n 级的台阶总共有多少种跳法。答案需要取模1e9+7(1000000007),如计算初始结果为:1000000008,请返回1。解决1、动态规划classSolution{publicintnumWays(intn){//**3.动态规划**:穷举可以发现f(n)=f(n-1)+f(n-2);确定边界:f(0)=1,f(1)=1,f(2)=2;最佳解f(n)=f(n-1)+f(n-2);得到最终解决方案(边界+最优解)if(n==0)return1;if(nmap=newHashMap();//定义hashmap应该放在方法

经典 backbone 总结

文章首发于我的github仓库-cv算法工程师成长之路,欢迎关注我的公众号-嵌入式视觉。目录VGGResNetInceptionv3Resnetv2ResNeXtDarknet53DenseNetCSPNetVoVNet一些结论参考资料VGGVGG网络结构参数表如下图所示。ResNetResNet模型比VGG网络具有更少的滤波器数量和更低的复杂性。比如Resnet34的FLOPs为3.6G,仅为VGG-1919.6G的18%。注意,论文中算的FLOPs,把乘加当作1次计算。ResNet和VGG的网络结构连接对比图,如下图所示。不同层数的Resnet网络参数表如下图所示。看了后续的ResNeXt

经典 backbone 总结

文章首发于我的github仓库-cv算法工程师成长之路,欢迎关注我的公众号-嵌入式视觉。目录VGGResNetInceptionv3Resnetv2ResNeXtDarknet53DenseNetCSPNetVoVNet一些结论参考资料VGGVGG网络结构参数表如下图所示。ResNetResNet模型比VGG网络具有更少的滤波器数量和更低的复杂性。比如Resnet34的FLOPs为3.6G,仅为VGG-1919.6G的18%。注意,论文中算的FLOPs,把乘加当作1次计算。ResNet和VGG的网络结构连接对比图,如下图所示。不同层数的Resnet网络参数表如下图所示。看了后续的ResNeXt

机器学习经典算法总结

一,KNN算法1.1,k值的选取1.2,KNN算法思路二,支持向量机算法2.1,支持向量机简述2.2,SVM基本型2.3,对偶问题求解三,K-means聚类算法3.1,分类与聚类算法3.2,K-means聚类算法参考资料一,KNN算法K近邻算法(KNN)是一种基本分类和回归方法。KNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于一个类别,那该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分类样本所属的类别。如下图:在KNN中,通过计算对象间距离来作为各个对象之间的非相似性指标,避免了对象之间的匹配问

机器学习经典算法总结

一,KNN算法1.1,k值的选取1.2,KNN算法思路二,支持向量机算法2.1,支持向量机简述2.2,SVM基本型2.3,对偶问题求解三,K-means聚类算法3.1,分类与聚类算法3.2,K-means聚类算法参考资料一,KNN算法K近邻算法(KNN)是一种基本分类和回归方法。KNN算法的核心思想是如果一个样本在特征空间中的k个最相邻的样本中的大多数属于一个类别,那该样本也属于这个类别,并具有这个类别上样本的特性。该方法在确定分类决策上只依据最邻近的一个或者几个样本的类别来决定待分类样本所属的类别。如下图:在KNN中,通过计算对象间距离来作为各个对象之间的非相似性指标,避免了对象之间的匹配问

经典排序算法

经典排序算法预定义#defineTyint//以整型为例交换数据的函数voidswap(Ty*elems,inti,intj){Tytemp=elems[i];elems[i]=elems[j];elems[j]=temp;}//如果确认只用整型数据使用下面的代码会更快,因为减少了函数压栈,也使用了位运算#defineSWAP_INT(a,b)\{\a=(a)^(b);\b=(a)^(b);\a=(a)^(b);\}冒泡排序原理:将一段序列的最大值(最小值)拿到最左边或者最右边的操作,使用循环重复操作,(每轮排序都会少一个最大值或最小值),当最后只剩下一个数据的时候整个序列就已经排好序了。冒泡

经典排序算法

经典排序算法预定义#defineTyint//以整型为例交换数据的函数voidswap(Ty*elems,inti,intj){Tytemp=elems[i];elems[i]=elems[j];elems[j]=temp;}//如果确认只用整型数据使用下面的代码会更快,因为减少了函数压栈,也使用了位运算#defineSWAP_INT(a,b)\{\a=(a)^(b);\b=(a)^(b);\a=(a)^(b);\}冒泡排序原理:将一段序列的最大值(最小值)拿到最左边或者最右边的操作,使用循环重复操作,(每轮排序都会少一个最大值或最小值),当最后只剩下一个数据的时候整个序列就已经排好序了。冒泡

【带你读论文】向量表征经典之DeepWalk

摘要:详细讲解DeepWalk,通过随机游走的方式对网络化数据做一个表示学习,它是图神经网络的开山之作,借鉴了Word2vec的思想。本文分享自华为云社区《[论文阅读](25)向量表征经典之DeepWalk:从Word2vec到DeepWalk,再到Asm2vec和Log2vec》,作者:eastmount。一.图神经网络发展历程在介绍向量表征之前,作者先结合清华大学唐杰老师的分享,带大家看看图神经网络的发展历程,这其中也见证了向量表征的发展历程,包括从Word2vec到Deepwalk发展的缘由。图神经网络的发展历程如下图所示:(1)Hinton早期(1986年)图神经网络最早也不是这样的,

【带你读论文】向量表征经典之DeepWalk

摘要:详细讲解DeepWalk,通过随机游走的方式对网络化数据做一个表示学习,它是图神经网络的开山之作,借鉴了Word2vec的思想。本文分享自华为云社区《[论文阅读](25)向量表征经典之DeepWalk:从Word2vec到DeepWalk,再到Asm2vec和Log2vec》,作者:eastmount。一.图神经网络发展历程在介绍向量表征之前,作者先结合清华大学唐杰老师的分享,带大家看看图神经网络的发展历程,这其中也见证了向量表征的发展历程,包括从Word2vec到Deepwalk发展的缘由。图神经网络的发展历程如下图所示:(1)Hinton早期(1986年)图神经网络最早也不是这样的,

数值优化:经典随机优化算法及其收敛性与复杂度分析

1随机优化算法概述随着大数据的出现,确定性优化算法的效率逐渐称为瓶颈。为了说明这一点,我们来看一个用梯度下降法求解线性回归的例子。给定训练样本\(D=\{(x_i,y_i)\}_{i=1}^n\),线性回归的目标函数如下:\[f(w)=\frac{1}{n}\sum_{i=1}^nf_i(w)=\frac{1}{n}\sum_{i=1}^n(w^Tx_i-y_i)^2\]这里\(w\in\mathbb{R}^d\)为模型参数。梯度下降法的更新规则为:\[w^{t+1}=w^t-\eta\nablaf(w^t)=w^t-\frac{2\eta}{n}\sum_{i=1}^nx_i\left((w