2.2随机变量的数字特征离散型随机变量的数学期望设离散型随机变量\(X\)的可能值为\(x_i(i=1,2,\cdots)\),其概率分布为\[P\{X=x_i\}=p_i,\quadi=1,2,\cdots,\]若\(\sum\limits_{i=1}^\inftyx_ip_i\)绝对收敛,则记\(E(X)=\sum\limits_{i=1}^\inftyx_ip_i\)为随机变量\(X\)的数学期望。连续型随机变量的数学期望推导过程设\(X\)是连续型随机变量,密度函数为\(f(x)\).根据密度函数的特点,有:\[P\{x_i其中,\(\Deltax_i=x_{i+1}-x_i\)趋向于
第二章随机变量的分布与数字特征2.1随机变量及其分布随机变量的概念定义定义在概念空间\((\Omega,P)\)上,取值为实数的函数\(X=X(\omega)(\omega\in\Omega)\)称为\((\Omega,P)\)上的一个随机变量.理解随机变量的作用在于将样本的文字描述转换为实数,是一个具体到抽象的过程。举例:投掷一枚硬币,记正面朝上次数为随机变量\(X\),则\(X\)作为样本空间\(\Omega=\{正面,反面\}\)上的函数定义为\[X(\omega)=\left\{\begin{align*}{}&1,\quad\omega=正面,\\&0,\quad\omega=反面.
1.5事件的独立性两个事件的独立性定义如果一个事件\(B\)发生与否对另一个事件\(A\)发生的概率没有任何影响,则\[P(A|B)=P(A)\]其中,\(P(B)>0\),称\(A\)独立于\(B\).对称的,如果\(P(B|A)=P(B),P(A)>0\)则称\(B\)独立于\(A\).综合起来,如果:\[P(AB)=P(A)P(B)\](其中\(P(A)>0,P(B)>0\)),则称\(A\)与\(B\)相互独立,简称\(A\)与\(B\)独立。推论\(\varnothing\)和\(\Omega\)与任意事件\(A\)独立。若\(A,B\)独立,则\(A,\overline{B}\)独
1.4条件概率条件概率样本空间\(\Omega\)事件\(A,B\)\(P(B)>0\)在事件\(B\)已经发生的前提条件下,事件\(A\)发生的概率称为A对B的条件概率:\(P(A|B)\).通常,\(P(A)\)为无条件概率,对应的样本空间为\(\Omega\)。而条件概率\(P(A|B)\)对应的样本空间为\(B\),或者记为\(\Omega_B\).所以:\[P(A|B)=\frac{n_{AB}}{n_B}=\frac{\frac{n_{AB}}{n}}{\frac{n_B}{n}}=\frac{P(AB)}{P(B)}\]乘法公式根据\(P(A|B)=\frac{P(AB)}{P(
1.2随机事件的概率定义简单定义概率是随机事件发生的可能性大小的度量(数值)。频率可以作为概率的估计,但频率的稳定值不能作为概率的定义。一个事件的概率是由事件本身特征决定的客观存在。频率的稳定值是概率的外在的必然表现。公理化定义设\(\Omega\)是一个样本空间,定义在\(\Omega\)的事件域\(\mathscr{F}\)上的一个实值函数\(P(\cdot)\)称为\(\Omega\)上的一个概率测度,如果它满足下列三条公理: 公理1 \(P(\Omega)=1\); 公理2 对任意事件\(A\),有\(P(A)\ge0\); 公理3 对任意可数个两两互不相容的事件\(A_1,A_
第一章随机事件与概率1.1随机事件基本概念随机现象确定性现象:在一定条件下必然出现的现象。随机现象:无法事先准确预知其结果的现象。统计规律性:随机现象在大量重复观察时所表现出来的量的规律性。随机试验:对随机现象的观察。简称:试验。随机试验的特点:一定条件下可重复试验结果不止一个试验结果不可预测样本空间样本点:随机试验的每一个可能结果。通常用\(\omega\)表示。样本空间:一个随机事件所有样本点的集合。通常用\(\Omega\)表示。一个随机试验将要出现的结果是不确定的,但其所有可能结果是明确的。\[\Omega=\{\omega_1,\omega_2,\cdots,\omega_n\}\]
题意:费用流,其实bushi给你长为\(n\)的序列\(a\),\(b\)。\(a\)单增,\(b\)有正有负。\(q\)次询问\([l,r]\),保证\(\sum\limits_{i=l}^rb_i=0\),将区间\([l,r]\)中每个值当节点,\(b_i的连S,\(b_i>0\)的连T,容量为\(abs(b_i)\)。两两点连边,容量为inf,费用为\(abs(a_i-a_j)\)。问最小费用最大流。思路:显然有一个感性的贪心思路:每次尽量会去抵消前面最近的需要抵消的流量,抵消后自己剩余的留量就留给后面抵消。这样就可以从前枚举\(l~r\),考虑每个点贡献对前面流单位流量贡献\(a_i\
图解分析对于一个单向链表来说,即使链表中存储的是有序的数据,但如果想要从中查找某个数据时,也只能从头到尾遍历链表,其时间复杂度是\(O(n)\)。为了提高链表的查询效率,使其支持类似“二分查找”的方法,对链表进行多层次扩展,这样的数据结构就是跳表。跳表对标的是平衡树,是一种提升链表插入、删除、搜索效率的数据结构。首先,跳表处理的是有序的链表,一般使用双向链表更加方便。然后,每两个结点提取一个结点到上一级,提取的这一层被称作为索引层。这时候,当想要查找19这个数字,可以先从索引层开始查找;当到达17时,发现下一个结点存储21这个数字,则可以确定,想要查找的19肯定是在17到21之间;这时候可以转
柱状图中最大的矩形原题:84.LargestRectangleinHistogram题目描述:给定\(n\)个非负整数,用来表示柱状图中每个柱子的高度。每个柱子相邻且宽度为1。求这个柱状图中能容纳的最大矩形的面积。思路:对于一个柱状图中的最大矩形,我们可以观察出如下性质:矩形的高必等于某个柱子的高度,也就是矩形的上边与某个柱子的上边在同一条直线上。证明:假设上述不成立。那对于每个柱子,它们的高都比这个最大矩形的高至少大1。因此我们可以增加这个矩形的高,得到一个更大的矩形,并且这个矩形还在柱状图中。因此这个矩形不是最大的矩形,得出悖论。因此此条性质成立。矩形的左边柱子的高度小于矩形高度,矩形的右
Q-Learning算法理论Q-Learning是一种强化学习算法,用于学习在给定状态下采取不同行动的最佳策略。其公式如下:\(Q(s,a)\leftarrow(1-\alpha)\cdotQ(s,a)+\alpha\cdot(r+\gamma\cdot\max_{a'}Q(s',a'))\)其中,\(Q(s,a)\)是在状态\(s\)下采取行动\(a\)的预期回报,\(\alpha\)是学习率,\(r\)是在状态\(s\)下采取行动\(a\)的即时回报,\(\gamma\)是折扣因子,\(s'\)是采取行动\(a\)后得到的新状态。\(\max_{a'}Q(s',a')\)是在新状态\(s'