题解AT5635ShortestPathonaLineupdon2022.9.3:增加了对解法的描述。Description题目传送门题面翻译有一张有\(N\)个点,编号为\(1-N\)的无向图。做\(M\)次操作,每次操作给出三个正整数\(L,R,C\),对于每对\(≥L\)且\(≤R\)的整数对\((S,T)\),在\((S,T)\)之间添加一条长度为\(C\)的边完成操作后,找出操作后无向图的最短路。数据范围$N,M\\leq\10^5$Solution线段树优化建图裸题。建议先完成线段树优化建图模板题CF786B看到区间向区间连边,显然暴力处理是\(O(MN)\)的,会时间超限。那么可
高级人工智能系列(一)——贝叶斯网络、概率推理和朴素贝叶斯网络分类器初学者整理,如有错误欢迎指正。原创地址一、概率论基础1.1样本空间Ω样本空间是随机试验中所有可能的取值的集合。比如,掷骰子,结果有1-6六种可能,那么样本空间即:\(Ω=\{1,2,3,4,5,6\}\)1.2事件空间样本空间的一个子集。1.3条件概率简单地,现有事件A和事件B,条件概率P(A|B)表示事件A在事件B发生的条件下发生的概率。条件概率计算公式:\(P(A|B)\)=\(P(AB)\overP(B)\)更一般地,条件概率公式可以扩展到多条件情况:\(P(A|B_1,B_2,...,B_n)\)=\(P(A,B_1,
题目: 现在有一个长度为n的序列待构造,给出m对关系\(i,j,x\),表示\(a_i|a_j=x\),请在满足这m对关系的情况下构造出的最小字典序的序列。分析: 每当我们看到最小字典序的时候,基本都是贪心的思想。本题可以知道,我们要让序列前面的数尽可能的小。对于他给出的关系,需要按位来考虑,但是有一些麻烦的就是你确定一个数的一位的时候,他会影响到与他有关系的数,感觉就是一个二分图的思想。我们可以用\(f0[i][j]\)表示第\(i\)个数在第\(j\)位必定填0,\(f1[i][j]\)同理必定填1。顺序遍历序列,枚举位,能填0就填0。实现: 对于给出的关系若x在第\(k\)位上为0
题解AT5635ShortestPathonaLineupdon2022.9.3:增加了对解法的描述。Description题目传送门题面翻译有一张有\(N\)个点,编号为\(1-N\)的无向图。做\(M\)次操作,每次操作给出三个正整数\(L,R,C\),对于每对\(≥L\)且\(≤R\)的整数对\((S,T)\),在\((S,T)\)之间添加一条长度为\(C\)的边完成操作后,找出操作后无向图的最短路。数据范围$N,M\\leq\10^5$Solution线段树优化建图裸题。建议先完成线段树优化建图模板题CF786B看到区间向区间连边,显然暴力处理是\(O(MN)\)的,会时间超限。那么可
高级人工智能系列(一)——贝叶斯网络、概率推理和朴素贝叶斯网络分类器初学者整理,如有错误欢迎指正。原创地址一、概率论基础1.1样本空间Ω样本空间是随机试验中所有可能的取值的集合。比如,掷骰子,结果有1-6六种可能,那么样本空间即:\(Ω=\{1,2,3,4,5,6\}\)1.2事件空间样本空间的一个子集。1.3条件概率简单地,现有事件A和事件B,条件概率P(A|B)表示事件A在事件B发生的条件下发生的概率。条件概率计算公式:\(P(A|B)\)=\(P(AB)\overP(B)\)更一般地,条件概率公式可以扩展到多条件情况:\(P(A|B_1,B_2,...,B_n)\)=\(P(A,B_1,
对CART决策树剪枝过程的理解前言:CART决策树生成的过程比较好理解,但是剪枝的过程看了好几遍才看明白,故写出下文,供同样困惑的朋友参考。下文不涉及复杂严密的数学推导,以辅助理解为主。一.损失函数的定义方法CART的损失函数用的是下式:\[C_\alpha(T)=C(T)+\alpha|T|\tag{1}\]损失函数表征的是模型预测错误的程度,所以它越小越好。上式中\(C_\alpha(T)\)是关于\(T\)和\(\alpha\)的函数,\(T\)表示一个决策树,\(C(T)\)是对训练数据的预测误差(分类用基尼指数表示,回归用均方误差表示),\(|T|\)表示树\(T\)的叶节点个数。$
卡特兰数(Catalan数)学习笔记一、引入问题1由\(n\)个\(+1\)和\(n\)个\(-1\)组成的\(2n\)项序列\(a_1,a_2,\cdots,a_{2n}\),求有多少种方案满足其部分和\(a_1+a_2+\cdots+a_k\ge0\(k=1,2,\cdots,2n)\)。分析设满足条件的方案数(即答案)为\(C_n\),不满足条件的方案数为\(U_n\)。由\(n\)个\(+1\)和\(n\)个\(-1\)组成的序列总数为\(\dfrac{(2n)!}{n!n!}=\dbinom{2n}{n}\)那么\(C_n+U_n=\dbinom{2n}{n}\)我们只要求出\(U_
「学习笔记」字符串基础:Hash,KMP与Trie点击查看目录目录「学习笔记」字符串基础:Hash,KMP与TrieHash算法代码KMP算法前置知识:\(\text{Border}\)思路代码\(\text{KMP}\)匹配思路代码Trie数据结构01-Trie代码练习题HashBovineGenomics思路代码[TJOI2018]碱基序列思路代码[CQOI2014]通配符匹配[NOI2017]蚯蚓排队思路代码KMPSeektheName,SeektheFame思路代码[NOI2014]动物园思路代码[USACO15FEB]CensoringS思路代码[POI2006]OKR-Period
洛谷P2973[USACO10HOL]DrivingOutthePiggiesG题目描述TheCowshaveconstructedarandomizedstinkbombforthepurposeofdrivingawaythePiggies.ThePiggycivilizationconsistsofN(2ThestinkbombisdeployedinPiggycity1.Eachhour(includingthefirstone),ithasaP/Q(11,000,000;PBecauseoftherandomnatureofthestinkbomb,theCowsarewonderi
对CART决策树剪枝过程的理解前言:CART决策树生成的过程比较好理解,但是剪枝的过程看了好几遍才看明白,故写出下文,供同样困惑的朋友参考。下文不涉及复杂严密的数学推导,以辅助理解为主。一.损失函数的定义方法CART的损失函数用的是下式:\[C_\alpha(T)=C(T)+\alpha|T|\tag{1}\]损失函数表征的是模型预测错误的程度,所以它越小越好。上式中\(C_\alpha(T)\)是关于\(T\)和\(\alpha\)的函数,\(T\)表示一个决策树,\(C(T)\)是对训练数据的预测误差(分类用基尼指数表示,回归用均方误差表示),\(|T|\)表示树\(T\)的叶节点个数。$