Primeira vez aqui? Seja bem vindo e cheque o FAQ!
x

1 - Cap.5 - Exercício 2 - John Rice

+1 voto
38 visitas
perguntada Abr 6 em Estatística por João Pedro Heringer (21 pontos)  

Sendo:
\[E(X_i)=\mu_i\]
\[Var(X_i)=\sigma^2_i\]
\[\frac{\sum_{i=1}^{n}\sigma^2_i}{n^2}\rightarrow 0\]
\[\frac{\sum_{i=1}^{n}\mu_i}{n} \rightarrow \mu\]
\[\bar{X}=\frac{\sum_{i=1}^{n}X_i}{n}\]
Prove que \(\bar{X} \rightarrow \mu\) em probabilidade

Compartilhe

1 Resposta

+1 voto
respondida Abr 6 por João Pedro Heringer (21 pontos)  

Em primeiro lugar, como temos que: \(a_n\xrightarrow[]{p}a,b_n\rightarrow b\Rightarrow a_n+b_n\xrightarrow[]{p}a+b\). Se \(a_n=0\), então \(b_n \rightarrow b \Rightarrow b_n\xrightarrow[]{p}b\). Portanto:

\[\frac{\sum_{i=1}^{n}\mu_i}{n} \rightarrow \mu\Rightarrow \frac{\sum_{i=1}^{n}\mu_i}{n} \xrightarrow[]{p} \mu\]

Além disso, como \(c_n\xrightarrow[]{p}c,b_n\xrightarrow[]{p} b\Rightarrow c_n+b_n\xrightarrow[]{p}c+b\). Se definirmos \(c_n=\bar{X}-\frac{\sum\mu_i}{n}\), e caso \(c_n\xrightarrow[]{p}0\), então conseguimos provar que:

\(c_n+\frac{\sum\mu_i}{n}=\bar{X}-\frac{\sum\mu_i}{n}+\frac{\sum\mu_i}{n}=\bar{X}\xrightarrow[]{p}\mu\)

Como a Esperança para \(\bar{X}\) é:

\[E(\bar{X})=E(\frac{1}{n}\sum_{i=1}^{n}X_i)=\frac{1}{n}E(\sum_{i=1}^{n}X_i)=\frac{1}{n}\sum_{i=1}^{n}E(X_i)=\frac{\sum_{i=1}^{n}\mu_i}{n}\]

Temos então que para c_n:

\[E(c_n)=E(\bar{X})-\frac{\sum\mu_i}{n}=0\]

Como \(\mu_i\) é constante, temos que V\(ar(X_i-\mu_i)=Var(X_i)\). Portanto:

\[Var(c_n)=Var(\frac{\sum X_i-\sum\mu_i}{n})=\frac{1}{n^2}\sum Var(X_i-\mu_i)\]
\[=\frac{1}{n^2}\sum Var(X_i)= \frac{\sum \sigma^2_i}{n^2}\]

Pela desigualdade de tchebychev:

\[0 \leq P(|c_n-E(c_n)|\geq k)\leq \frac{Var(c_n)}{k^2} \Rightarrow 0 \leq P(|c_n|\geq k)\leq\frac{\sum\sigma^2_i}{n^2k^2}\]

Como \(\frac{\sum\sigma^2_i}{n^2k^2} \rightarrow 0\), então temos que \(\lim_{n\rightarrow\infty} P(|c_n|\geq k)=0\) e portanto \(c_n \xrightarrow[]{p} 0\). Dessa forma, temos que \(\bar{X} \xrightarrow[]{p} \mu\)

comentou Mai 21 por Ricardo Saldanha (1 ponto)  
Excelente resposta, João Heringer. Parabéns!
Para algum colega leitor que eventualmente não tenha achado tão natural a manipulação (correta) com as propriedades de convergência que conclui que \( b_{n} \to b \implies b_{n} \xrightarrow{p}  b \), pense na definição de convergência em probabilidade: \(P(|b_{n}-b|>k) \xrightarrow{n \to \infty} 0 \). Alguns \(b_n\) podem se distanciar de \(b\) além de \(k\) não importa quão grande seja o \(n\), mas a maior parte do conjunto tende a \(b\). Já a convergência é menos permissiva, após determinado n, esse distanciamento não ocorre para \(b_n\) nenhum. É intuitivo, portanto, que convergência implique convergência em probabilidade.
A sua substituição de \( \bar{X} - \frac{\sum_{i=1}^{n} \mu_{i}}{n} \) por \(c_{n}\) é engenhosa, facilita bastante as operações.
Eu particularmente acho um pouco confusa a notação que explicita \(c_{n}\) como sequência  e não faz o mesmo com \(\bar{X}\), que também depende de \(n\). No entanto, eu sei que Rice apresenta no livro ora \(\bar{X}_n\) ora simplesmente \(\bar{X}\) (e.g., p. 177 e p. 179) e na pergunta do exercício consta \( \bar{X}\). Considero que sua escolha de notação foi correta, portanto.
comentou Mai 24 por danielcajueiro (5,581 pontos)  
Seria interessante evitar colocar a referência a fonte da questão no título, mas sim colocar o enunciado ou um título ou uma manchete para a questão. A referencia para o livro pode vir na caixa de texto abaixo.
...