Пусть x → = ( x 1 , … , x n ) {\displaystyle {\vec {x}}=\left(x_{1},\ldots ,x_{n}\right)} — выборка из распределения , зависящего от параметра θ ∈ Θ {\displaystyle \theta \in \Theta } . Тогда оценка θ ^ ≡ θ ^ ( x → ) {\displaystyle {\hat {\theta }}\equiv {\hat {\theta }}\left({\vec {x}}\right)} называется несмещённой, если
E [ θ ^ ] = θ , ∀ θ ∈ Θ {\displaystyle \mathbb {E} \left[{\hat {\theta }}\right]=\theta ,\quad \forall \theta \in \Theta } ,где
В противном случае оценка называется смещённой, и случайная величина E θ ^ − θ {\displaystyle \mathbb {E} {\hat {\theta }}-\theta } называется её смеще́нием .
Выборочное среднее X ¯ = 1 n ∑ i = 1 n X i {\displaystyle {\bar {X}}={\frac {1}{n}}\sum \limits _{i=1}^{n}X_{i}} является несмещённой оценкой математического ожидания X i {\displaystyle X_{i}} , так как если E X i = μ < ∞ {\displaystyle \mathbb {E} X_{i}=\mu <\infty } , ∀ i ∈ N {\displaystyle \forall i\in \mathbb {N} } , то E X ¯ = μ {\displaystyle \mathbb {E} {\bar {X}}=\mu } .Пусть независимые случайные величины X i {\displaystyle X_{i}} имеют конечную дисперсию D X i = σ 2 {\displaystyle \mathrm {D} X_{i}=\sigma ^{2}} . Построим оценки S n 2 = 1 n ∑ i = 1 n ( X i − X ¯ ) 2 {\displaystyle S_{n}^{2}={\frac {1}{n}}\sum \limits _{i=1}^{n}\left(X_{i}-{\bar {X}}\right)^{2}} — выборочная дисперсия ,и
S 2 = 1 n − 1 ∑ i = 1 n ( X i − X ¯ ) 2 {\displaystyle S^{2}={\frac {1}{n-1}}\sum \limits _{i=1}^{n}\left(X_{i}-{\bar {X}}\right)^{2}} — исправленная выборочная дисперсия .Тогда S n 2 {\displaystyle S_{n}^{2}} является смещённой, а S 2 {\displaystyle S^{2}} несмещённой оценками параметра σ 2 {\displaystyle \sigma ^{2}} . Смещённость S n 2 {\displaystyle S_{n}^{2}} можно доказать следующим образом.
Пусть μ {\displaystyle \mu } и X ¯ {\displaystyle {\overline {X}}} — среднее и его оценка соответственно, тогда:
E [ S n 2 ] = E [ 1 n ∑ i = 1 n ( X i − X ¯ ) 2 ] . {\displaystyle \operatorname {E} [S_{n}^{2}]=\operatorname {E} {\bigg [}{\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-{\overline {X}})^{2}{\bigg ]}.} Добавив и отняв μ {\displaystyle \mu } , а затем сгрупировав слагаемые, получим:
E [ S n 2 ] = E [ 1 n ∑ i = 1 n ( ( X i − μ ) − ( X ¯ − μ ) ) 2 ] . {\displaystyle \operatorname {E} [S_{n}^{2}]=\operatorname {E} {\bigg [}{\frac {1}{n}}\sum _{i=1}^{n}{\big (}(X_{i}-\mu )-({\overline {X}}-\mu ){\big )}^{2}{\bigg ]}.} Возведём в квадрат и получим:
E [ S n 2 ] = E [ 1 n ∑ i = 1 n ( X i − μ ) 2 − 2 ( X ¯ − μ ) 1 n ∑ i = 1 n ( X i − μ ) + n n ( X ¯ − μ ) 2 ] . {\displaystyle \operatorname {E} [S_{n}^{2}]=\operatorname {E} {\bigg [}{\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-\mu )^{2}-2({\overline {X}}-\mu ){\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-\mu )+{\frac {n}{n}}({\overline {X}}-\mu )^{2}{\bigg ]}.} Заметив, что 1 n ∑ i = 1 n ( X i − μ ) = X ¯ − 1 n ( n μ ) {\displaystyle {\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-\mu )={\overline {X}}-{\frac {1}{n}}(n\mu )} , получим:
E [ S n 2 ] = E [ 1 n ∑ i = 1 n ( X i − μ ) 2 − ( X ¯ − μ ) 2 ] . {\displaystyle \operatorname {E} [S_{n}^{2}]=\operatorname {E} {\bigg [}{\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-\mu )^{2}-({\overline {X}}-\mu )^{2}{\bigg ]}.} Учитывая, что
E [ a + b ] = E [ a ] + E [ b ] {\displaystyle \operatorname {E} [a+b]=\operatorname {E} [a]+\operatorname {E} [b]} (свойство математического ожидания);
E [ 1 n ∑ i = 1 n ( X i − μ ) 2 ] = σ 2 {\displaystyle \operatorname {E} {\bigg [}{\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-\mu )^{2}{\bigg ]}=\sigma ^{2}} — дисперсия ;
E [ ( X ¯ − μ ) 2 ] = 1 n σ 2 {\displaystyle \operatorname {E} {\big [}({\overline {X}}-\mu )^{2}{\big ]}={\frac {1}{n}}\sigma ^{2}} , т.к. E [ ( X ¯ − μ ) 2 ] = E [ ( 1 n ∑ i = 1 n ( X i − μ ) ) 2 ] = E [ 1 n 2 ∑ i = 1 n ( X i − μ ) 2 + 2 n 2 ∑ i = 1 , j = 1 , i < j n ( X i − μ ) ( X j − μ ) ] {\displaystyle \operatorname {E} {\big [}({\overline {X}}-\mu )^{2}{\big ]}=\operatorname {E} {\big [}{\big (}{\frac {1}{n}}\sum _{i=1}^{n}(X_{i}-\mu ){\big )}^{2}{\big ]}=\operatorname {E} {\big [}{\frac {1}{n^{2}}}\sum _{i=1}^{n}(X_{i}-\mu )^{2}+{\frac {2}{n^{2}}}\sum _{i=1,j=1,i<j}^{n}(X_{i}-\mu )(X_{j}-\mu ){\big ]}} , учитывая, что X i {\displaystyle X_{i}} и X j {\displaystyle X_{j}} независимые и E [ ( X i − μ ) ] = 0 {\displaystyle \operatorname {E} {\big [}(X_{i}-\mu ){\big ]}=0} , т.е. E [ ∑ i = 1 , j = 1 , i < j n ( X i − μ ) ( X j − μ ) ] = ∑ i = 1 , j = 1 , i < j n E [ ( X i − μ ) ] E [ ( X j − μ ) ] = 0 {\displaystyle \operatorname {E} {\big [}\sum _{i=1,j=1,i<j}^{n}(X_{i}-\mu )(X_{j}-\mu ){\big ]}=\sum _{i=1,j=1,i<j}^{n}\operatorname {E} {\big [}(X_{i}-\mu ){\big ]}\operatorname {E} {\big [}(X_{j}-\mu ){\big ]}=0} ,получим:
E [ S n 2 ] = σ 2 − E [ ( X ¯ − μ ) 2 ] = = σ 2 − 1 n σ 2 = = n − 1 n σ 2 < σ 2 . {\displaystyle {\begin{aligned}\operatorname {E} [S_{n}^{2}]&=\sigma ^{2}-\operatorname {E} {\big [}({\overline {X}}-\mu )^{2}{\big ]}=\\&=\sigma ^{2}-{\frac {1}{n}}\sigma ^{2}=\\&={\frac {n-1}{n}}\sigma ^{2}<\sigma ^{2}.\end{aligned}}} Литература и некоторые ссылки
править
M. G. Kendall. "The advanced theory of statistics (vol. I). Distribution theory (2nd edition)". Charles Griffin & Company Limited, 1945.
M. G. Kendall and A. Stuart. "The advanced theory of statistics (vol. II). Inference and relationship (2nd edition)". Charles Griffin & Company Limited, 1967.
A. Papoulis. Probability, random variables, and stochastic processes (3rd edition). McGrow-Hill Inc., 1991.
G. Saporta. "Probabilités, analyse des données et statistiques". Éditions Technip, Paris, 1990.
J. F. Kenney and E. S. Keeping. Mathematics of Statistics. Part I & II. D. Van Nostrand Company, Inc., 1961, 1959.
I. V. Blagouchine and E. Moreau: "Unbiased Adaptive Estimations of the Fourth-Order Cumulant for Real Random Zero-Mean Signal", IEEE Transactions on Signal Processing , vol. 57, no. 9, pp. 3330–3346, September 2009.
An Illuminating Counterexample