6._大数定律

大数定律这个名字看起来有点唬人哟,什么叫做“大数”?就是重复次数很多的数据。 本文介绍的几个大数定理其实都差不多,一句话:可以用 用频率估计概率 , 阅读本文前,建议已经了解了依概率收敛

独立同分布名词解释,独立同分布包含“独立”和“同分布”两个意思,所谓独立是值每次测试结果互不影响,同分布是指数据服从同一个分布。例如 分两个批次每次各测量100个学生的身高。这里“第一次测量”的结果不影响“第二次”测量的结果,所以是“独立的”。 而身高都是服从正态分布的,因此,这就是独立同分布的意思。再例如测量一批次产品是否合格等,都是“独立同分布”

弱大数定律与强大数定律

大数定理严格的数学定义分为两种,一是弱大数定理,一种是强大数定律。

弱大数定律X1,X2,X3,X_1, X_2, X_3, \dots 是独立同分布的随机变量序列,期望 μ=E[Xi]\mu = \mathbb{E}[X_i] 存在且有限。弱大数定律指出,样本均值依概率收敛于期望值

X1+X2++XnnPμn\frac{X_1 + X_2 + \dots + X_n}{n} \xrightarrow{\text{P}} \mu \quad \text{当} \quad n \to \infty

其中,“P \xrightarrow{\text{P}}”表示依概率收敛。

强大数定律X1,X2,X3,X_1, X_2, X_3, \dots 是独立同分布的随机变量序列,期望μ=E[Xi]\mu = \mathbb{E}[X_i] 存在且有限。强大数定律指出,样本均值几乎必然收敛于期望值

X1+X2++Xnna.s.μn\frac{X_1 + X_2 + \dots + X_n}{n} \xrightarrow{\text{a.s.}} \mu \quad \text{当} \quad n \to \infty

其中,“a.s.”表示几乎必然收敛。

不管是弱大数定律还是强大数定理,本质上没太大区别,一句话就是:当样本数量很大的时候,样本均值和真实期望值充分接近。

切比雪夫Chebyshev大数定律

设随机变量序列 X1,X2,,Xn,X_1, X_2, \cdots, X_n, \cdots 两两不相关,若 E(Xi)<D(Xi)<E\left(X_i\right)<\infty , D\left(X_i\right)<\inftyi=1,2,i=1,2, \cdots 。则对任意 ε>0\varepsilon>0

P(1ni=1nXi1ni=1nE(Xi)ε)1 。 \begin{gathered} P\left(\left|\frac{1}{n} \sum_{i=1}^n X_i-\frac{1}{n} \sum_{i=1}^n E\left(X_i\right)\right| \leq \varepsilon\right) \rightarrow 1 \text { 。 } \end{gathered}

证明 因为随机变量 X1,X2,,XnX_1, X_2, \cdots, X_n 两两不相关,根据期望和方差的性质得

E(1ni=1nXi)=1ni=1nE(Xi),D(1ni=1nXi)=1n2i=1nD(Xi)cnE\left(\frac{1}{n} \sum_{i=1}^n X_i\right)=\frac{1}{n} \sum_{i=1}^n E\left(X_i\right), \quad D\left(\frac{1}{n} \sum_{i=1}^n X_i\right)=\frac{1}{n^2} \sum_{i=1}^n D\left(X_i\right) \leq \frac{c}{n}

由切比雪夫不等式知,对任意 ε>0\varepsilon>0 , 当 nn \rightarrow \infty 时,

P(1ni=1nXi1ni=1nE(Xi)ε)1ε2D(1ni=1nXi)cnε20 。 P\left(\left|\frac{1}{n} \sum_{i=1}^n X_i-\frac{1}{n} \sum_{i=1}^n E\left(X_i\right)\right| \geq \varepsilon\right) \leq \frac{1}{\varepsilon^2} D\left(\frac{1}{n} \sum_{i=1}^n X_i\right) \leq \frac{c}{n \varepsilon^2} \rightarrow 0 \text { 。 }

这里随机变量序列 X1,X2,,Xn,X_1, X_2, \cdots, X_n, \cdots 两两不相关指序列中的任意两个随机变量线性无关。

切比雪夫大数定律的通俗解释清参考切比雪夫不等式

如果我们把切比雪夫大数定律拆分来看: ① 1ni=1nXi \dfrac{1}{n} \sum_{i=1}^n X_i ... 这个是nn次取样的平均值。

1ni=1nE(Xi)\dfrac{1}{n} \sum_{i=1}^n E\left(X_i\right) ... 这个是nn次取样的期望的平均值。

③ 在《高等数学》例已经学过,ε\varepsilon表示任意一个小的数。

所以,切比雪夫大数定律的意思是,当采样次数足够多时,均值趋向期望值。

它表明,当试验次数nn足够大的时候,随机变量序列的算数平均值具有稳定性。

已知正常男性成人血液中,每一毫升白细胞数平均是 7300 ,均方差是 700 .利用切比雪夫不等式估计每毫升白细胞数在 520094005200 \sim 9400 范围内的概率.

解 设每毫升白细胞数为 XX ,依题意,μ=7300,σ2=7002\mu=7300, \sigma^2=700^2 ,所求概率为

P(5200X9400)=P(52007300X730094007300)=P(2100Xμ2100)=P(Xμ2100).\begin{aligned} P(5200 \leqslant X \leqslant 9400) & =P(5200-7300 \leqslant X-7300 \leqslant 9400-7300) \\ & =P(-2100 \leqslant X-\mu \leqslant 2100)=P(|X-\mu| \leqslant 2100) . \end{aligned}

由切比雪夫不等式

P(Xμ2100)1σ2/(2100)2=1(700/2100)2=11/9=8/9,P(|X-\mu| \leqslant 2100) \geqslant 1-\sigma^2 /(2100)^2=1-(700 / 2100)^2=1-1 / 9=8 / 9,

即每毫升白细胞数在 520094005200 \sim 9400 范围内的概率不小于 8/98 / 9

推论X1,X2,,Xn,X_1, X_2, \cdots, X_n, \cdots 是相互独立的随机变量序列,且 EXi=E X_i= μ,DXi=σ2,i=1,2,\mu, D X_i=\sigma^2, i=1,2, \cdots ,则对任意的 ε>0\varepsilon>0 ,有 limnP{1ni=1nXiμ<ε}=\lim _{n \rightarrow \infty} P\left\{\left|\frac{1}{n} \sum_{i=1}^n X_i-\mu\right|<\varepsilon\right\}= 1 ,即

limn1ni=1nXi=Pμ\boxed{ \lim _{n \rightarrow \infty} \frac{1}{n} \sum_{i=1}^n X_i \stackrel{P}{=} \mu }

切比雪夫不等式推论,特别强调了一种特殊情况:在期望值一样的情况下,该公式可以进一步化简,均值就是期望值。

现有一大批种子,其中良种占 16\frac{1}{6} ,现从中任取 6000 粒.试分别(1)用切比雪夫不等式估计;(2)用中心极限定理计算:这 6000 粒中良种所占的比例与 16\frac{1}{6} 之差的绝对值不超过 0.01的概率.

解 设 6000 粒中的良种数量为 XX ,则 XB(6000,16)X \sim B\left(6000, \frac{1}{6}\right) . (1)要估计的概率为

P{X600016<1100}=P{X1000<60}P\left\{\left|\frac{X}{6000}-\frac{1}{6}\right|<\frac{1}{100}\right\}=P\{|X-1000|<60\}

相当于在切比雪夫不等式中取 ε=60\varepsilon=60 ,于是由切比雪夫不等式可得

P{X600016<1100}=P{X1000<60}1D(X)602=156×1000×13600, =10.2315=0.7685, $\begin{aligned} P\left\{\left|\frac{X}{6000}-\frac{1}{6}\right|<\frac{1}{100}\right\} & =P\{|X-1000|<60\} \\ & \geqslant 1-\frac{D(X)}{60^2} \end{aligned}=1-\frac{5}{6} \times 1000 \times \frac{1}{3600}, ~=1-0.2315=0.7685, ~ \$

即用切比雪夫不等式估计此概率值不小于 0.7685 。 (2)由拉普拉斯中心极限定理,二项分布 B(6000,16)B\left(6000, \frac{1}{6}\right) 可用正态分布 N(1000,56×1000)N\left(1000, \frac{5}{6} \times 1000\right)近似,于是,所求概率为

P{X600016<1100}=P{X1000<60}=P{X100056×1000<6056×1000}2Φ(2.0784)1=2×0.9812410.9625\begin{aligned} P\left\{\left|\frac{X}{6000}-\frac{1}{6}\right|<\frac{1}{100}\right\} & =P\{|X-1000|<60\}=P\left\{\left|\frac{X-1000}{\sqrt{\frac{5}{6} \times 1000}}\right|<\frac{60}{\sqrt{\frac{5}{6} \times 1000}}\right\} \\ & \approx 2 \Phi(2.0784)-1=2 \times 0.98124-1 \approx 0.9625 \end{aligned}

比较两个结果,用切比雪夫不等式估计是比较粗略的.

伯努利Bernoulli大数定律

假设 μn\mu_nnn 重伯努利试验中事件 AA 发生的次数,在每次试验中事件 AA 发生的概率为 p(0<p<1)p(0<p<1) ,则 μnnpp\frac{\mu_n}{n} \xrightarrow{p} p ,即对任意 ε>0\varepsilon>0 ,有

limnP{μnnp<ε}=1\boxed{ \lim _{n \rightarrow \infty} P\left\{\left|\frac{\mu_n}{n}-p\right|<\varepsilon\right\}=1 }

证 引人随机变量

Xk={0, 第 k 次试验中 A 不发生, 1, 第 k 次试验中 A 发生 X_k=\left\{\begin{array}{ll} 0, & \text { 第 } k \text { 次试验中 } A \text { 不发生, } \\ 1, & \text { 第 } k \text { 次试验中 } A \text { 发生 } \end{array}\right.

显然

nA=k=1nXkn_A=\sum_{k=1}^n X_k

由于 XkX_k 只依赖于第 kk 次试验,而各次试验是独立的,于是 X1,X2,X_1, X_2, \cdots 是相互独立的.由于 XkX_k 服从 (01)(0-1) 分布,因此

E(Xk)=p,D(Xk)=p(1p)(k=1,2,)E\left(X_k\right)=p, \quad D\left(X_k\right)=p(1-p)(k=1,2, \cdots)

由推论 ,有

limnP{1nk=1nXkp<ε}=1\lim _{n \rightarrow \infty} P\left\{\left|\frac{1}{n} \sum_{k=1}^n X_k-p\right|<\varepsilon\right\}=1

limnP{nAnp<ε}=1\lim _{n \rightarrow \infty} P\left\{\left|\frac{n_A}{n}-p\right|<\varepsilon\right\}=1

伯努利大数定律的通俗解释就是 用频率估计概率

它表明,当样本容量足够大的时候,随机事件发生的频率依概率收敛于其发生的概率。这就说明了频率具有稳定性了,稳定于其发生的概率。

伯努利大数定律表明:当重复试验次数 nn 充分大时,事件 AA 发生的频率 nAn\frac{n_A}{n} 依概率收敛于事件 AA 发生的概率 pp 。此定理以严格的数学形式表达了频率的稳定性.在实际应用中,当试验次数很大时,便可以用事件发生的频率来近似代替事件的概率

此外,如果事件 AA 的概率很小,则由伯努利大数定律知事件 AA 发生的频率也是很小的,或者说事件 AA 很少发生.即"概率很小的随机事件在个别试验中几乎不会发生",这一原理称为小概率原理,它的实际应用很广泛.

伯努利大数定律要求随机变量Xi(i=1,2,)X_i(i=1,2,…)的方差存在,但在随机变量服从同一分布的场合,并不需要这一要求,于是又给出了辛钦大数定律

辛钦Khinchin大数定律

设随机变量 X1,X2,,Xn,X_1, X_2, \cdots, X_n, \cdots 相互独立,服从同一分布,且具有数学期望 E(Xi)=μ,i=1,2,E\left(X_i\right)=\mu, i=1,2, \cdots ,则对任意 ε>0\varepsilon>0 ,有

limnP{1ni=1nXiμ<ε}=1\lim _{n \rightarrow \infty} P\left\{\left|\frac{1}{n} \sum_{i=1}^n X_i-\mu\right|<\varepsilon\right\}=1

辛钦大数定律不要求随机变量的方差存在,伯努利大数定律是辛钦大数定律的特殊情况。辛钦大数定律为寻找随机变量的期望值提供了一条实际可行的途径。例如,要估计某地区的平均亩产量,可收割某些有代表性的地块,如 nn 块,计算其平均亩产量,则当 nn 较大时,可用它作为整个地区平均亩产量的一个估计。此类做法在实际应用中具有重要意义。

它表明,对X的n次观测的结果依概率收敛于X的期望值。这就提供一个估计随机变量期望的一个方法,利用n个随机变量序列的均值来进行估计随机变量的真实期望。

{Xn}\left\{X_n\right\} 为独立同分布的随机变量序列,其共同分布

P(Xn=2kk2)=12k,k=1,2,P\left(X_n=\frac{2^k}{k^2}\right)=\frac{1}{2^k}, k=1,2, \cdots

试问 {Xn}\left\{X_n\right\} 是否服从大数定律?

解 因为 E(Xn)=k=12kk212k=k=1+1k2=π26<+E\left(X_n\right)=\sum_{k=1}^{\infty} \frac{2^k}{k^2} \cdot \frac{1}{2^k}=\sum_{k=1}^{+\infty} \frac{1}{k^2}=\frac{\pi^2}{6}<+\infty ,即 E(Xn)E\left(X_n\right) 存在,由辛钦大数定律可知 {Xn}\left\{X_n\right\}服从大数定律.

设总体 XX 服从参数为 2 的指数分布,X1,X2,,XnX_1, X_2, \cdots, X_n 为来自总体 XX 的简单随机样本,则当 nn \rightarrow \infty 时,Yn=1ni=1nXi2Y_n=\frac{1}{n} \sum_{i=1}^n X_i^2 依概率收敛于 \qquad . 解: 12\frac{1}{2} . 本题主要考查辛钦大数定律.由题设,Xi(i=1,2,,n)X_i(i=1,2, \cdots, n) 均服从参数为 2 的指数分布,因此,

E(Xi2)=DXi+(EXi)2=2λ2=12E\left(X_i^2\right)=D X_i+\left(E X_i\right)^2=\frac{2}{\lambda^2}=\frac{1}{2}

根据辛钦大数定律,若 X1,X2,,XnX_1, X_2, \cdots, X_n 独立同分布且具有相同的数学期望,即 EXi=μE X_i=\mu ,则对任意的正数 ε\varepsilon ,有

limnP{1ni=1nXiμ<ε}=1\lim _{n \rightarrow \infty} P\left\{\left|\frac{1}{n} \sum_{i=1}^n X_i-\mu\right|<\varepsilon\right\}=1

从而,本题有

limnP{1ni=1nXi212<ε}=1\lim _{n \rightarrow \infty} P\left\{\left|\frac{1}{n} \sum_{i=1}^n X_i^2-\frac{1}{2}\right|<\varepsilon\right\}=1

即当 nn \rightarrow \infty 时,Yn=1ni=1nXi2Y_n=\frac{1}{n} \sum_{i=1}^n X_i^2 依概率收玫于 12\frac{1}{2}

马尔可夫Markov大数定律

对随机变量序列 {Xn}\left\{X_n\right\} ,若有 1n2D(i=1nXi)0\frac{1}{n^2} D\left(\sum_{i=1}^n X_i\right) \rightarrow 0 成立,则 {Xn}\left\{X_n\right\} 服从大数定律,即对任意的 ε>0\varepsilon>0 ,有

limnP{1ni=1nXi1ni=1nE(Xi)<ε}=1\lim _{n \rightarrow \infty} P\left\{\left|\frac{1}{n} \sum_{i=1}^n X_i-\frac{1}{n} \sum_{i=1}^n E\left(X_i\right)\right|<\varepsilon\right\}=1

它表明,随机序列的均值方差趋于0的时候,说明随机变量列的算数平均值是稳定的,稳定于其期望的平均值。

例题

{Xn}\left\{X_n\right\} 为独立随机变量序列,证明:若 XnX_n 的方差 σn2\sigma_n^2 一致有界,即存在常数 cc ,使得 σn2c,n=1,2,\sigma_n^2 \leqslant c, n=1,2, \cdots ,则 {Xn}\left\{X_n\right\} 服从大数定律.

证明 因为

1n2D(i=1nXi)=1n2i=1nσi2cn0(n)\frac{1}{n^2} D\left(\sum_{i=1}^n X_i\right)=\frac{1}{n^2} \sum_{i=1}^n \sigma_i^2 \leqslant \frac{c}{n} \rightarrow 0(n \rightarrow \infty)

所以,由马尔可夫大数定律知 {Xn}\left\{X_n\right\} 服从大数定律.

X1,X2,X_1, X_2, \cdots 是独立同分布的随机变量序列,在下列三种情况下,当 nn \rightarrow \infty 时试问 Xˉ,1ni=1nXi2\bar{X}, \frac{1}{n} \sum_{i=1}^n X_i^2 分别依概率收玫于什么值?

(1)XiB(m,p),i=1,2,X_i \sim B(m, p), i=1,2, \cdots ; (2)XiE(λ),i=1,2, X_i \sim E(\lambda), i=1,2, \cdots ; (3)XiN(μ,σ2),i=1,2,X_i \sim N\left(\mu, \sigma^2\right), i=1,2, \cdots

解:三种情况下,X1,X2,X_1, X_2, \cdots 均是独立同分布的随机序列,且 XiX_iXi2X_i^2 具有有限的数学期望和方差,对 X1,X2,X_1, X_2, \cdotsX12,X22,X_1^2, X_2^2, \cdots 分别使用独立同分布大数定律,得

Xˉ=1ni=1nXiP1ni=1nE(Xi)=E(Xi)1ni=1nXi2P1ni=1nE(Xi2)=E(Xi2)=D(Xi)+E2(Xi)\begin{aligned} \bar{X} & =\frac{1}{n} \sum_{i=1}^n X_i \xrightarrow{P} \frac{1}{n} \sum_{i=1}^n E\left(X_i\right)=E\left(X_i\right) \\ & \frac{1}{n} \sum_{i=1}^n X_i^2 \xrightarrow{P} \frac{1}{n} \sum_{i=1}^n E\left(X_i^2\right)=E\left(X_i^2\right)=D\left(X_i\right)+E^2\left(X_i\right) \end{aligned}

① 当 XiB(m,p)X_i \sim B(m, p) 时,E(Xi)=mp,E(Xi2)=mp(1p)+m2p2E\left(X_i\right)=m p, E\left(X_i^2\right)=m p(1-p)+m^2 p^2 ,有

XˉPmp,1ni=1nXi2Pmp(1p)+m2p2\bar{X} \xrightarrow{P} m p, \quad \frac{1}{n} \sum_{i=1}^n X_i^2 \xrightarrow{P} m p(1-p)+m^2 p^2

② 当 XiE(λ)X_i \sim E(\lambda) 时,E(Xi)=1λ,E(Xi2)=2λ2E\left(X_i\right)=\frac{1}{\lambda}, E\left(X_i^2\right)=\frac{2}{\lambda^2} ,有

XˉP1λ,1ni=1nXi2P2λ2\bar{X} \xrightarrow{P} \frac{1}{\lambda}, \frac{1}{n} \sum_{i=1}^n X_i^2 \xrightarrow{P} \frac{2}{\lambda^2}

③ 当 XiN(μ,σ2)X_i \sim N\left(\mu, \sigma^2\right) 时,E(Xi)=μ,E(Xi2)=σ2+μ2E\left(X_i\right)=\mu, E\left(X_i^2\right)=\sigma^2+\mu_{\text {,}}^2

XˉPμ,1ni=1nXi2Pσ2+μ2\bar{X} \xrightarrow{P} \mu, \frac{1}{n} \sum_{i=1}^n X_i^2 \xrightarrow{P} \sigma^2+\mu^2

(考研例题)设 X1,X2,,Xn,X_1, X_2, \cdots, X_n, \cdots 是相互独立的随机变量序列,XnX_n 服从参数为 n(n1)n(n \geqslant 1) 的指数分布,则下列随机变量序列中不服从切比雪夫大数定律的是( )。 (A)X1,12X2,,1nXn,X_1, \frac{1}{2} X_2, \cdots, \frac{1}{n} X_n, \cdots (B)X1,X2,,Xn,X_1, X_2, \cdots, X_n, \cdots (C)X1,2X2,,nXn,X_1, 2 X_2, \cdots, n X_n, \cdots (D)X1,22X2,,n2Xn,X_1, 2^2 X_2, \cdots, n^2 X_n, \cdots 解 应选(D). 切比雪夫大数定律要求 {Xn}\left\{X_n\right\} 相互独立,方差存在且一致有界,即 DXnCD X_n \leqslant C .逐一验证各选项是否满足这一条件,从而确定正确选项.

由题设知 {Xn}\left\{X_n\right\} 相互独立,且 DXn=1n21D X_n=\frac{1}{n^2} \leqslant 1 ,所以选项(B)满足切比雪夫大数定律的条件. 又

D(1nXn)=1n2DXn=1n41,D(nXn)=n2DXn=12,D\left(\frac{1}{n} X_n\right)=\frac{1}{n^2} D X_n=\frac{1}{n^4} \leqslant 1, D\left(n X_n\right)=n^2 D X_n=1 \leqslant 2,

由此可知,选项(A),(B),(C)均满足切比雪夫大数定律的条件,然而 D(n2Xn)=n4DXn=n2D\left(n^2 X_n\right)=n^4 D X_n=n^2 ,选项(D)不满足切比雪夫大数定律的条件,故选择(D).

总结

注意这些大数定理的细微区别。

切比雪夫大数定律

limnP{P1ni=1nXi1ni=1nE(Xi)<ε}=1\lim _{n \rightarrow \infty} P\left\{P\left|\frac{1}{n} \sum_{i=1}^n X_i-\frac{1}{n} \sum_{i=1}^n E\left(X_i\right)\right|<\varepsilon\right\}=1

切比雪夫大数定律表明:在定理所给条件下,随机变量序列 {Xn}\left\{X_n\right\} 的算术平均值 1i=1nXi1 \sum_{i=1}^n X_i 序列依概率收敛于他们的数学期望的算术平均值。

推论:(切比雪夫大数定律的特殊情形) 设随机变量 X1,X2,,Xn,X_1, X_2, \cdots, X_n, \cdots 相互独立,且具有相同的数学期望和方差: E(Xi)=μ,D(Xi)=σ2(i=1,2,)E\left(X_i\right)=\mu, D\left(X_i\right)=\sigma^2 \quad(i=1,2, \cdots) 则对于任意正数 ε\varepsilon ,有 limnP{1ni=1nXiμ<ε}=1\lim _{n \rightarrow \infty} P\left\{\frac{1}{n} \sum_{i=1}^n X_i-\mu<\varepsilon\right\}=1 推论表明:在独立同分布的条件下,随机变量的算数平均依概率收玫于它们的数学期望.

这一推论是实际问题中使用算术平均值的依据,当我们要测量某一个量 aa 时,可以在不变的条件下重复测量 nn 次,得到 nn 个结果,X1,X2,,XnX_1, X_2, \cdots, X_n 可以认为 X1,X2,,XnX_1, X_2, \cdots, X_n 分别是服从同一分布,有相同的数学期望 μ\mu 和方差 σ2\sigma^2 的随机变量 X1,X2,,XnX_1, X_2, \cdots, X_n 的试验数值,由推论可知,当 nn 充分大时,取 nn 次测量结果 X1,X2,,XnX_1, X_2, \cdots, X_n 的算术平均值作为 aa 的近似值,发生的误差很小.

伯努利大数定律

limnP{nAnp<ε}=1\lim _{n \rightarrow \infty} P\left\{\left|\frac{n_A}{n}-p\right|<\varepsilon\right\}=1

伯努利大数定律表明:一个事件 AAnn 次独立重复试验中发生的频率 nAn\frac{n_A}{n} 依概率收玫于事件 AA 发生的概率 pp ,伯努利大数定律以严格的数学形式表达了频率的稳定性.从伯努利大数定律的等价形式 limnP{nA/npε}=0\lim _{n \rightarrow \infty} P\left\{ n_A/n -p \ge \varepsilon\right\}=0 可以看到当 nn 很大时,事件 AAnn 次独立重复试验中发生的频率 nAn_AAA 在试验中发生的概率有较大偏差的可能性很小,在实际应用中,当试验次数 nn 很大时,便可以利用事件 AA 发生的频率来近似代替事件 AA 发生的概率。

切比雪夫大数定律推论中要求随机变量 X1,X2,,XnX_1, X_2, \cdots, X_n 的方差存在,但在这些随机变量服从同一分布的情况下,并不需要这些要求,有如下辛钦大数定律。

辛钦大数定律

limnP{1ni=1nXiμ<ε}=1\lim _{n \rightarrow \infty} P\left\{\left|\frac{1}{n} \sum_{i=1}^n X_i-\mu\right|<\varepsilon\right\}=1

注: (1) 定理不要求随机变量的方差存在; (2) 伯努利大数定律是辛钦大数定律的特殊情况; (3) 辛钦大数定律为寻找随机变量的期望值提供了一条实际可行的途径.

总结

定律分布情况期望方差结论
辛钦大数定律相互独立且同分布存在估算期望
切比雪夫大数定律相互独立相同相同估算期望
伯努利大数定律二项分布相同相同频率=概率

切比雪夫定律适用于任意独立变量(如不同分布的测量误差),强调方差控制,条件最宽松,仅需独立性和方差有界,适用非同分布但方差有界的情况。

伯努利定律专用于二元事件频率(如成功/失败),最经典,结论直接对应概率的稳定性,强调频率稳定性

辛钦定律针对同分布变量(如多次测量同一物理量),无需方差存在,最贴近实际统计,更贴近实际统计需求,可以没有方差但要求同分布,是切比雪夫的进一步推广