MonteCarloAlgorithms.蒙特卡洛算法是一大类随机算法,又称为随机抽样或统计试验方法,通过随机样本估计真实值。下面用几个实例来理解蒙特卡洛算法。6.蒙特卡洛算法6.1计算\(\pi\)a.原理如果我们不知道\(\pi\)的值,我们能不能用随机数来近似\(\pi\)呢?假设我们用一个随机数生成器,每次生成两个范围在\([-1,+1]\)的随机数,一个作为x,另一个作为y,即生成了一个二维随机点:假如生成1亿个随机样本,会有多少落在半径=1的圆内?这个概率就是圆的面积除以正方形的面积。即:\(P=\frac{\pi{r^2}}{2^2}=\frac{\pi}{4}\)假设从正方形区
时间复杂度:倍增求法,复杂度\(O(nlogn)\)首先把\(s\)的每个后缀字典序排序。\(sa[i]:\)排名第\(i\)位的是第几个后缀(起始下标)。\(rk[i]:\)第\(i\)个(起始下标为\(i\))的后缀的的排名。\(height[i]:\)\(sa[i]\)与\(sa[i-1]\)的最长公共前缀。\(height\)数组的求法:假设所有后缀都已经排好序了,求\(Lcp(i,j)\)有:(\(i,j,k\)均为排名,不作证明)$$Lcp(i,j)=Lcp(j,i)$$\[Lcp(i,i)=len(i)\]\[Lcp(i,j)=min(Lcp(i,k),Lcp(k,j)),i\[
我们在上一篇博客《数值优化:经典一阶确定性算法及其收敛性分析》中主要介绍了单机数值优化中一些经典的一阶确定性算法,本篇文章我们将会介绍二阶确定性算法和对偶方法。1牛顿法1.1算法描述牛顿法[1]的基本思想是将目标函数在当前迭代点处进行二阶泰勒展开,然后最小化这个近似目标函数,即\[\underset{w\in\mathcal{W}}{\text{min}}f(w)\approx\underset{w\inW}{\text{min}}f(w^t)+\nablaf(w^t)^T(w-w^t)+\frac{1}{2}(w-w^t)^T\nabla^2f(w^t)(w-w^t)\]此处\(\nabla
作者:韩信子@ShowMeAI教程地址:https://www.showmeai.tech/tutorials/37本文地址:https://www.showmeai.tech/article-detail/275声明:版权所有,转载请联系平台与作者并注明出处收藏ShowMeAI查看更多精彩内容本系列为斯坦福CS231n《深度学习与计算机视觉(DeepLearningforComputerVision)》的全套学习笔记,对应的课程视频可以在这里查看。更多资料获取方式见文末。引言之前了解到的都是监督学习(SupervisedLearning):我们有数据x和标签y,目标是学习到一个函数可以将数据
我们在上一篇博客《数值优化:算法分类及收敛性分析基础》介绍了数值优化算法的历史发展、分类及其收敛性/复杂度分析基础。本篇博客我们重点关注一阶确定性优化算法及其收敛性分析。1梯度下降法1.1算法描述梯度下降法[1]是最古老的一阶方法,由Cauchy在1847年提出。梯度下降法的基本思想是:最小化目标函数在当前迭代点处的一阶泰勒展开,从而近似地优化目标函数本身。具体地,对函数\(f:\mathbb{R}^n\rightarrow\mathbb{R}\),将其在第\(t\)轮迭代点\(w^t\)处求解下述问题:\[\underset{w}{\text{min}}f(w)=\underset{w}{\
作者:韩信子@ShowMeAI教程地址:https://www.showmeai.tech/tutorials/37本文地址:https://www.showmeai.tech/article-detail/272声明:版权所有,转载请联系平台与作者并注明出处收藏ShowMeAI查看更多精彩内容本系列为斯坦福CS231n《深度学习与计算机视觉(DeepLearningforComputerVision)》的全套学习笔记,对应的课程视频可以在这里查看。更多资料获取方式见文末。引言目标检测(ObjectDetection)是计算机视觉领域非常重要的任务,目标检测模型要完成「预测出各个物体的边界框(
目录二、评估方法模型评估方法1.留出法(hold-out)2.交叉验证法(crossvalidation)3.自助法(bootstrapping)调参(parametertuning)和最终模型数据集(dataset)三、性能度量(performancemeasure)1.回归任务的性能度量1.1均方误差、均方根误差1.2平方绝对误差1.3确定系数\(R^2\)2.分类任务的性能度量2.1错误率、精度2.2查准率、查全率、F12.3ROC、AUC2.4代价敏感错误率、代价曲线3.聚类任务的性能度量(第9章)3.1外部指标(externalindex)3.1.1Jaccard系数(JC,Jacc
1优化问题定义我们考虑以下有监督机器学习问题。假设输入数据\(D=\{(x_i,y_i)\}_{i=1}^n\)依据输入空间\(\mathcal{X}\times\mathcal{Y}\)的真实分布\(p(x,y)\)独立同分布地随机生成。我们想根据输入数据学得参数为\(w\)的模型\(h(\space\cdot\space;w)\),该模型能够根据输入\(x\)给出接近真实输出\(y\)的预测结果\(h(x;w)\)。我们下面将参数\(w\)对应的模型简称为模型\(w\),模型预测好坏用损失函数\(\mathcal{l}(w;x,y)\)衡量。则正则化经验风险最小化(R-ERM)问题的目标函
目录2.2数据集包含100个样本,其中正、反例各一半,假定学习算法所产生的模型是将新样本预测为训练样本数较多的类别(训练样本数相同时进行随机猜测),试给出用10折交叉验证法和留一法分别对错误率进行评估所得的结果。2.3若学习器A的F1值比学习器B高,试析A的BEP值是否也比B高。2.4试述真正例率(TPR)、假正例率(FPR)与查准率(P)、查全率(R)之间的联系。2.5试证明式(2.22)。2.6试述错误率与ROC曲线的联系。2.7试证明任意一条ROC曲线都有一条代价曲线与之对应,反之亦然。2.8Min−max规范化和z−score规范化是两种常用的规范化方法.令\(x\)和\(x′\)分别
作者:韩信子@ShowMeAI教程地址:https://www.showmeai.tech/tutorials/37本文地址:https://www.showmeai.tech/article-detail/270声明:版权所有,转载请联系平台与作者并注明出处收藏ShowMeAI查看更多精彩内容本系列为斯坦福CS231n《深度学习与计算机视觉(DeepLearningforComputerVision)》的全套学习笔记,对应的课程视频可以在这里查看。更多资料获取方式见文末。本篇重点RNN的概念与多种形式语言模型图像标注、视觉问答、注意力模型RNN梯度流1.RNN的概念与多种形式关于RNN的详细