Неравенство Колмогорова — обобщение теоретико-вероятностного варианта неравенства Чебышёва , ограничивающее вероятность того, что частичная сумма конечной совокупности независимых случайных величин не превышает некоторого фиксированного числа. Установлено Андреем Колмогоровым в середине 1920-х годов и применено им для доказательства усиленного закона больших чисел .
Формулировка[1] : для определённых на общем вероятностном пространстве
(
Ω
,
F
,
P
r
)
{\displaystyle (\Omega ,\ F,\ Pr)}
независимых случайных величин
X
1
,
…
,
X
n
:
Ω
→
R
{\displaystyle X_{1},\dots ,X_{n}\ :\Omega \to R}
с математическими ожиданиями
M
X
i
=
0
,
i
⩽
n
{\displaystyle MX_{i}=0,i\leqslant n}
и дисперсиями
V
a
r
[
X
i
]
<
+
∞
{\displaystyle Var[X_{i}]<+\infty }
и произвольной величины
λ
>
0
{\displaystyle \lambda >0}
выполнено:
Pr
(
max
1
⩽
k
⩽
n
|
S
k
|
⩾
λ
)
⩽
1
λ
2
Var
[
S
n
]
≡
1
λ
2
∑
k
=
1
n
Var
[
X
i
]
{\displaystyle \Pr \left(\max _{1\leqslant k\leqslant n}|S_{k}|\geqslant \lambda \right)\leqslant {\frac {1}{\lambda ^{2}}}\operatorname {Var} [S_{n}]\equiv {\frac {1}{\lambda ^{2}}}\sum _{k=1}^{n}\operatorname {Var} [X_{i}]}
(1)
гдe
S
k
=
X
1
+
⋯
+
X
k
{\displaystyle S_{k}=X_{1}+\dots +X_{k}}
.
Если к тому же
Pr
(
|
X
i
|
⩽
c
)
=
1
,
i
⩽
n
{\displaystyle \Pr(|X_{i}|\leqslant c)=1,i\leqslant n}
, то
Pr
(
max
1
⩽
k
⩽
n
|
S
k
|
⩾
λ
)
⩾
1
−
(
λ
+
c
)
2
Var
[
S
n
]
{\displaystyle \Pr \left(\max _{1\leqslant k\leqslant n}|S_{k}|\geqslant \lambda \right)\geqslant 1-{\frac {(\lambda +c)^{2}}{\operatorname {Var} [S_{n}]}}}
(2)
Доказательство
править
Обозначим
A
=
{
max
1
⩽
k
⩽
n
|
S
k
|
⩾
λ
}
{\displaystyle A=\{\max _{1\leqslant k\leqslant n}|S_{k}|\geqslant \lambda \}}
A
k
=
{
|
S
i
|
<
λ
,
i
=
1
,
.
.
.
,
k
−
1
,
|
S
k
|
⩾
λ
}
,
1
⩽
k
⩽
n
{\displaystyle A_{k}=\{|S_{i}|<\lambda ,i=1,...,k-1,|S_{k}|\geqslant \lambda \},1\leqslant k\leqslant n}
Тогда
A
=
∑
A
k
{\displaystyle A=\sum A_{k}}
и
M
S
n
2
⩾
M
S
n
2
I
A
=
∑
k
=
1
n
M
S
n
2
I
A
k
{\displaystyle MS_{n}^{2}\geqslant MS_{n}^{2}I_{A}=\sum _{k=1}^{n}{MS_{n}^{2}I_{A_{k}}}}
(Где
I
{\displaystyle I}
— индикатор )
Но
M
S
n
2
I
A
k
=
M
(
S
k
+
(
X
k
+
1
+
.
.
.
+
X
n
)
)
2
I
A
k
=
{\displaystyle MS_{n}^{2}I_{A_{k}}=M\left(S_{k}+\left(X_{k+1}+...+X_{n}\right)\right)^{2}I_{A_{k}}=}
=
M
S
k
2
I
A
k
+
2
M
S
k
(
X
k
+
1
+
.
.
.
+
X
n
)
I
A
k
+
M
(
X
k
+
1
+
.
.
.
+
X
n
)
2
I
A
k
⩾
M
S
k
2
I
A
k
,
{\displaystyle =MS_{k}^{2}I_{A_{k}}+2MS_{k}\left(X_{k+1}+...+X_{n}\right)I_{A_{k}}+M\left(X_{k+1}+...+X_{n}\right)^{2}I_{A_{k}}\geqslant MS_{k}^{2}I_{A_{k}},}
поскольку
M
S
k
(
X
k
+
1
+
.
.
.
+
X
n
)
I
A
k
=
M
S
k
I
A
k
M
(
X
k
+
1
+
.
.
.
+
X
n
)
=
0
{\displaystyle MS_{k}\left(X_{k+1}+...+X_{n}\right)I_{A_{k}}=MS_{k}I_{A_{k}}M\left(X_{k+1}+...+X_{n}\right)=0}
в силу предположенной независимости и условий
M
X
i
=
0
,
i
⩽
n
{\displaystyle MX_{i}=0,i\leqslant n}
Поэтому
∑
k
=
1
n
V
a
r
[
X
i
]
=
M
S
n
2
⩾
∑
k
=
1
n
M
S
n
2
I
A
k
⩾
∑
k
=
1
n
M
S
k
2
I
A
k
⩾
λ
2
∑
k
=
1
n
M
I
A
k
=
λ
2
∑
k
=
1
n
Pr
(
A
k
)
=
λ
2
P
r
(
A
)
{\displaystyle \sum _{k=1}^{n}Var[X_{i}]=MS_{n}^{2}\geqslant \sum _{k=1}^{n}MS_{n}^{2}I_{A_{k}}\geqslant \sum _{k=1}^{n}MS_{k}^{2}I_{A_{k}}\geqslant \lambda ^{2}\sum _{k=1}^{n}MI_{A_{k}}=\lambda ^{2}\sum _{k=1}^{n}\Pr(A_{k})=\lambda ^{2}Pr(A)}
что и доказывает неравенство 1 .
Для доказательства неравенства 2 заметим, что
M
S
n
2
I
A
=
M
S
n
2
−
M
S
n
2
I
A
¯
⩾
M
S
n
2
−
λ
2
P
r
(
A
¯
)
=
M
S
n
2
−
λ
2
+
λ
2
P
r
(
A
)
{\displaystyle MS_{n}^{2}I_{A}=MS_{n}^{2}-MS_{n}^{2}I_{\bar {A}}\geqslant MS_{n}^{2}-\lambda ^{2}Pr({\bar {A}})=MS_{n}^{2}-\lambda ^{2}+\lambda ^{2}Pr(A)}
(3)
С другой стороны, на множестве
A
k
{\displaystyle A_{k}}
|
S
k
−
1
|
⩽
λ
,
|
S
k
|
⩽
|
S
k
−
1
|
+
|
X
k
|
⩽
λ
+
c
{\displaystyle |S_{k-1}|\leqslant \lambda ,|S_{k}|\leqslant |S_{k-1}|+|X_{k}|\leqslant \lambda +c}
и, значит,
M
S
n
2
I
A
=
∑
k
M
S
k
2
I
A
k
+
∑
k
M
(
I
A
k
(
S
n
−
S
k
)
2
)
⩽
(
λ
+
c
)
2
∑
k
P
r
(
A
k
)
+
∑
k
=
1
n
P
r
(
A
k
)
∑
j
=
k
+
1
n
M
X
j
2
⩽
{\displaystyle MS_{n}^{2}I_{A}=\sum _{k}MS_{k}^{2}I_{A_{k}}+\sum _{k}M(I_{A_{k}}(S_{n}-S_{k})^{2})\leqslant (\lambda +c)^{2}\sum _{k}Pr(A_{k})+\sum _{k=1}^{n}Pr(A_{k})\sum _{j=k+1}^{n}MX_{j}^{2}\leqslant }
⩽
Pr
(
A
)
[
(
λ
+
c
)
2
+
∑
j
=
1
n
M
X
j
2
]
=
P
r
(
A
)
[
(
λ
+
c
)
2
+
M
S
n
2
]
{\displaystyle \leqslant \Pr(A)\left[(\lambda +c)^{2}+\sum _{j=1}^{n}MX_{j}^{2}\right]=Pr(A)\left[(\lambda +c)^{2}+MS_{n}^{2}\right]}
(4)
Из (3) и (4) находим, что:
P
r
(
A
)
⩾
M
S
n
2
+
λ
2
(
λ
+
c
)
2
+
M
S
n
2
−
λ
2
=
1
−
(
λ
+
c
)
2
(
λ
+
c
)
2
+
M
S
n
2
−
λ
2
⩾
1
−
(
λ
+
c
)
2
M
S
n
2
=
1
−
(
λ
+
c
)
2
Var
[
S
n
]
{\displaystyle Pr(A)\geqslant {\frac {MS_{n}^{2}+\lambda ^{2}}{(\lambda +c)^{2}+MS_{n}^{2}-\lambda ^{2}}}=1-{\frac {(\lambda +c)^{2}}{(\lambda +c)^{2}+MS_{n}^{2}-\lambda ^{2}}}\geqslant 1-{\frac {(\lambda +c)^{2}}{MS_{n}^{2}}}=1-{\frac {(\lambda +c)^{2}}{\operatorname {Var} [S_{n}]}}}
Billingsley, Patrick. Probability and Measure (неопр.) . — New York: John Wiley & Sons, Inc. , 1995. — ISBN 0-471-00710-2 . (Theorem 22.4)
Feller, William . An Introduction to Probability Theory and its Applications, Vol 1 (англ.) . — Third Edition. — New York: John Wiley & Sons, Inc. , 1968. — P. xviii+509. — ISBN 0-471-25708-7 .
Хеннекен П. Л., Тортра А. Теория вероятностей и некоторые её приложения. — М. : Наука, 1974. — 472 с.
Ширяев А. Н. Вероятность. — 3-е изд., перераб. и доп.. — М. : МЦНМО , 2004. (Глава 4 § 2 раздел 1)