Primeira vez aqui? Seja bem vindo e cheque o FAQ!
x

Questão 1, Problemas do Capítulo 5 do Livro "Mathematical Statistics and Data Analysis" de John A. Rice (3 Edição)

0 votos
36 visitas
perguntada Abr 13 em Estatística por Vinícius Oliveira (11 pontos)  

Seja \( x_1, ..., x_n \) uma sequência de variáveis aleatórias independentes com \( E(x_i) = \mu \) e \(Var(x_i) = \sigma^{2}_{i} \). Mostre que se \( \lim\limits_{n \to \infty} \dfrac{1}{n^{2}} \displaystyle \sum_{i=1}^{n} \sigma^{2}_{i} = 0 \), então \( \bar{x} \) converge em probabilidade para \( \mu \).

Compartilhe

1 Resposta

0 votos
respondida Abr 14 por Vinícius Oliveira (11 pontos)  
editado Abr 26 por Vinícius Oliveira

Solução

Antes de tudo, será útil calcularmos qual seria o valor esperado e a variância de \( \bar{x}\). Para tanto, usando os dados do enunciado do exercício, note o seguinte:

\( E(\bar{x}) = E\left(\dfrac{1}{n}\displaystyle \sum_{i=1}^{n} x_{i}\right) = \dfrac{1}{n}E\left(\displaystyle \sum_{i=1}^{n} x_{i}\right) = \dfrac{1}{n} \displaystyle \sum_{i=1}^{n} E(x_i) = \dfrac{1}{n} n \mu = \mu \)

\( \Rightarrow E(\bar{x}) = \mu \hspace{0,3cm} (1) \)

\( Var(\bar{x}) = Var\left(\dfrac{1}{n}\displaystyle \sum_{i=1}^{n} x_{i}\right) = \dfrac{1}{n^2}Var\left(\displaystyle \sum_{i=1}^{n} x_{i}\right) = \)

\( =\dfrac{1}{n^2} \displaystyle \sum_{i=1}^{n} Var(x_i) = \dfrac{1}{n^2} \displaystyle \sum_{i=1}^{n} \sigma^{2}_{i} \hspace{0,3cm} (2) \)

\( \Rightarrow Var(\bar{x}) = \dfrac{1}{n^2} \displaystyle \sum_{i=1}^{n} \sigma^{2}_{i} \hspace{0,3cm} (3) \)

Na terceira igualdade em \( (2) \), usamos o fato segundo o qual, para variáveis aleatórias independentes, a variância da soma é a soma das variâncias individuais. Nesse sentido, com base em \( (1) \) e em \( (3) \) e no enunciado da questão, o que buscamos provar relaciona-se a uma ideia intuitiva. Isto é, uma variável aleatória cuja variância tende para zero conforme cresce \(n\) há de degenerar para uma constante e, portanto, para a sua média.

Especificamente, desejamos mostrar que, em função dessas hipóteses, \( \bar{x}\) converge em probabilidade para \( \mu \). Formalmente, essa relação define-se desta forma:

Definição 1: Dizemos que a sequência de variáveis aleatórias \(
{z_n} \) converge em probabilidade para \(z\), denotando \( z_n \stackrel{\rm{p}}{\longrightarrow} z \) , se,

\[ \forall \delta >0, \hspace{0,15cm} \lim\limits_{n \to \infty} P > \left\{ || z_n - z || > \delta \right\} = 0 \]

Ou seja, é como se a probabilidade \(P\) (de \( z_n\) ser diferente de \(z\)) fosse uma sequência que converge para zero quando \(n\) cresce. Na prática, ao invés de usarmos essa definição formal, trabalharemos com 2 resultados que relacionam \( \bar{x}_{n} \stackrel{\rm{p}}{\longrightarrow} \mu \) (o subscrito \(n\) em \(\bar{x}\) não muda nada, só enfatiza que a média amostral depende de \(n\)) a outra forma de convergência, chamada convergência em média quadrática, cuja definição apresentamos a seguir:

Definição 2: Dizemos que a sequência de escalares \( \{z_n\} \) converge em média quadrática para \( z\), denotando \(z_n
\stackrel{\rm{mq}}{\longrightarrow} z \), se

\[ \lim\limits_{n \to \infty} E[( z_n - z)^2] = 0 \]

Desse modo, gostaríamos, a princípio, de provar o seguinte: \(\bar{x}_n \stackrel{\rm{mq}}{\longrightarrow} \mu \). Faremos isso por meio de uma proposição específica. Em seguida, relacionaremos \(\bar{x}_n\stackrel{\rm{mq}}{\longrightarrow} \mu \) com \( \bar{x}_{n} \stackrel{\rm{p}}{\longrightarrow} \mu \). Esses dois resultados, cujas demonstrações estão nos Anexos desta solução, são listados abaixo:

Propriedade 1: Suponha que \( \{z_n\} \) e \( z\) possuem segundo momento finito e seja \(c \in \mathbb{R}\) uma constante qualquer. Então as seguintes afirmações são válidas:

  1. Se \( \lim\limits_{n \to \infty} E(z_n) = c\) e \( \lim\limits_{n \to \infty} Var(z_n) = 0 \), então \( z_n
    \stackrel{\rm{mq}}{\longrightarrow} c \)

  2. Se \( z_n \stackrel{\rm{mq}}{\longrightarrow} z \), então \( z_n \stackrel{\rm{p}}{\longrightarrow} z\)

Nesse contexto, se substituirmos, no item 1 da Propriedade 1, \(z_n = \bar{x}_{n} \) e \( c = \mu\), concluímos que \( \bar{x}_{n}\stackrel{\rm{mq}}{\longrightarrow} \mu \). De fato:

Pela equação \( (1) \), \( E(\bar{x}_{n}) = \mu \). Como uma constante necessariamente converge para ela mesma, então, \( \lim\limits_{n \to \infty} E( \bar{x}_{n} ) = \mu = c\). Por outro lado, segundo a equação \( (3) \), \( Var(\bar{x}_{n})= \dfrac{1}{n^2} \displaystyle \sum_{i=1}^{n} \sigma^{2}_{i}\) e, por hipótese do enunciado do exercício, ocorre \( \lim\limits_{n \to \infty} \dfrac{1}{n^{2}} \displaystyle \sum_{i=1}^{n} \sigma^{2}_{i} = 0 \). Logo, temos \( \lim\limits_{n \to \infty} Var(\bar{x}_{n}) = 0\).
Portanto, vale \( \bar{x}_n \stackrel{\rm{mq}}{\longrightarrow} \mu \).

Uma vez provado \( \bar{x}_{n} \stackrel{\rm{mq}}{\longrightarrow} \mu \), de imediato, aplicando o item 2 da Propriedade 1, concluímos que \( \bar{x}_{n} \stackrel{\rm{p}}{\longrightarrow} \mu\).

Portanto, mostramos que, em função das hipóteses do enunciado da questão, \( \bar{x} \) converge em probabilidade para \( \mu\). Isto é, \( \bar{x} \stackrel{\rm{p}}{\longrightarrow}
\mu\). (recorde que o subscrito \(n\) utilizado anteriormente em \(\bar{x}\) não mudava nada, só enfatizava que a média amostral depende de \(n\)). Isso conclui o exercício.


Anexos

Demonstramos os itens da Propriedade 1, central em nossa resolução

1. Se \( \lim\limits_{n \to \infty} E(z_n) = c\) e \( \lim\limits_{n \to \infty} Var(z_n) = 0 \), então \( z_n \stackrel{\rm{mq}}{\longrightarrow}z \)

Comecemos mostrando um fato auxiliar

Fato 1: Seja \( z\) uma variável aleatória qualquer e \( c \in \mathbb{R}\) uma constante arbitrária. Então vale isto:

\( E[(z-c)^2] = Var(z) + (E(z) - c)^2 \)

De fato, se expandirmos o lado esquerdo da equação acima, temos:

\( E( z^2 - 2cz + c^2) = E(z^2) - 2cE(z) + c^2 \hspace{0,3cm} (4) \)

Some e subtraia \(E(z^2)\) ao lado direito de (4):

\( E( z^2 - 2cz + c^2) = E(z^2) - 2cE(z) + c^2 + E(z)^2 - E(z)^2 = \)

\( = E(z^2) - E(z)^2 +E(z)^2 - 2cE(z) + c^2 = Var(z) + (E(z) -c)^2 \)

\( \Rightarrow E[(z-c)^2] = Var(z) + (E(z) -c)^2 \hspace{0,3cm} (5) \)

De posse do Fato 1, para mostrarmos item 1 deste anexo, podemos substituir \( z = z_n\) e \(c = z\) em \( (5) \)

\( E[(z_n -z )^2] = Var(z_n) + (E(z_n) -z)^2 \hspace{0,3cm} (6) \)

Aplicando o limite quando \( n \to \infty \) em \( (6) \)

\( \lim\limits_{n \to \infty} E[(z_n -z )^2] = \lim\limits_{n \to \infty} \{ Var(z_n) + (E(z_n) -z)^2 \} \hspace{0,3cm} (7) \)

Por hipótese, \( \lim\limits_{n \to \infty} Var(z_n) = 0 \). Substituindo isso no lado direito de \( (7) \), temos:

\( \lim\limits_{n \to \infty} E[(z_n -z )^2] = \lim\limits_{n \to \infty} \{ (E(z_n) -z)^2 \} = \)

\( = \lim\limits_{n \to \infty} \{ E(z_n)^2 - 2E(z_n)z +z^2 \}\)

\( = z^2 + \lim\limits_{n \to \infty} E(z_n) \lim\limits_{n \to \infty} E(z_n) -2z\lim\limits_{n \to \infty} E(z_n) \hspace{0,3cm} (8) \)

Por hipótese, \( \lim\limits_{n \to \infty} E(z_n) = c = z \). Substituindo isso em \( (8) \), temos:

\( z^2 + zz - 2zz = 2z^2 - 2z^2 = 0\)

\( \Rightarrow \lim\limits_{n \to \infty} E[(z_n -z )^2] = 0 \)

Finalmente, se lembramos da definição 2, \( \lim\limits_{n \to \infty} E[(z_n -z )^2] = 0\) significa justamente que \(z_n \stackrel{\rm{mq}}{\longrightarrow} z \), conforme queríamos demonstrar.

2. Se \( z_n \stackrel{\rm{mq}}{\longrightarrow}z \), então \( z_n \stackrel{\rm{p}}{\longrightarrow} z\)

A chave para demonstrar esse resultado é usar a Desigualdade de Chebyshev, segundo a qual, para qualquer variável aleatória \(z\) e para todo \( \delta > 0\), vale isto:

\( P\{ | z | \ge \delta \} \le \dfrac{E(z^2)}{\delta^2} \hspace{0,3cm} (9) \)

Substituindo \( z\) por \( z_n - z\) em \( (9) \), temos:

\( P\{ | z_n - z | \ge \delta \} \le \dfrac{E[(z_n - z)^2]}{\delta^2} \hspace{0,3cm} (10) \)

Usando em \( (10) \) o fato de a função probabilidade \(P\) ser monotônica:

\( P\{ | z_n - z | > \delta\} \le P\{ | z_n - z | \ge \delta \} \le \dfrac{E[(z_n - z)^2]}{\delta^2} \hspace{0,3cm} (11) \)

Aplicando o limite em \( (11) \) quando \( n \to \infty\)

\( \lim\limits_{n \to \infty} P\{ | z_n - z | > \delta\} \le \lim\limits_{n \to \infty} P\{ | z_n - z | \ge \delta \} \le \dfrac{1}{\delta^2} \lim\limits_{n \to \infty} E[(z_n - z)^2] \)
\( = 0 \hspace{0,3cm} (12) \)

A última igualdade em \( (12) \) decorre da hipótese segundo a qual \( z_n\stackrel{\rm{mq}}{\longrightarrow} z \)

\( \Rightarrow \lim\limits_{n \to \infty} P\{ | z_n - z | > \delta\} = 0 \Rightarrow z_n\stackrel{\rm{p}}{\longrightarrow} z \hspace{0,3cm} (13)\)

A segunda implicação em \( (13) \) é a nossa definição 1. Isso conclui a demonstração


...