Primeira vez aqui? Seja bem vindo e cheque o FAQ!
x

1 - Cap.5 - Exercício 2 - John Rice

0 votos
17 visitas
perguntada Abr 6 em Estatística por João Pedro Heringer (11 pontos)  

Sendo:
\[E(X_i)=\mu_i\]
\[Var(X_i)=\sigma^2_i\]
\[\frac{\sum_{i=1}^{n}\sigma^2_i}{n^2}\rightarrow 0\]
\[\frac{\sum_{i=1}^{n}\mu_i}{n} \rightarrow \mu\]
\[\bar{X}=\frac{\sum_{i=1}^{n}X_i}{n}\]
Prove que \(\bar{X} \rightarrow \mu\) em probabilidade

Compartilhe

1 Resposta

0 votos
respondida Abr 6 por João Pedro Heringer (11 pontos)  

Em primeiro lugar, como temos que: \(a_n\xrightarrow[]{p}a,b_n\rightarrow b\Rightarrow a_n+b_n\xrightarrow[]{p}a+b\). Se \(a_n=0\), então \(b_n \rightarrow b \Rightarrow b_n\xrightarrow[]{p}b\). Portanto:

\[\frac{\sum_{i=1}^{n}\mu_i}{n} \rightarrow \mu\Rightarrow \frac{\sum_{i=1}^{n}\mu_i}{n} \xrightarrow[]{p} \mu\]

Além disso, como \(c_n\xrightarrow[]{p}c,b_n\xrightarrow[]{p} b\Rightarrow c_n+b_n\xrightarrow[]{p}c+b\). Se definirmos \(c_n=\bar{X}-\frac{\sum\mu_i}{n}\), e caso \(c_n\xrightarrow[]{p}0\), então conseguimos provar que:

\(c_n+\frac{\sum\mu_i}{n}=\bar{X}-\frac{\sum\mu_i}{n}+\frac{\sum\mu_i}{n}=\bar{X}\xrightarrow[]{p}\mu\)

Como a Esperança para \(\bar{X}\) é:

\[E(\bar{X})=E(\frac{1}{n}\sum_{i=1}^{n}X_i)=\frac{1}{n}E(\sum_{i=1}^{n}X_i)=\frac{1}{n}\sum_{i=1}^{n}E(X_i)=\frac{\sum_{i=1}^{n}\mu_i}{n}\]

Temos então que para c_n:

\[E(c_n)=E(\bar{X})-\frac{\sum\mu_i}{n}=0\]

Como \(\mu_i\) é constante, temos que V\(ar(X_i-\mu_i)=Var(X_i)\). Portanto:

\[Var(c_n)=Var(\frac{\sum X_i-\sum\mu_i}{n})=\frac{1}{n^2}\sum Var(X_i-\mu_i)\]
\[=\frac{1}{n^2}\sum Var(X_i)= \frac{\sum \sigma^2_i}{n^2}\]

Pela desigualdade de tchebychev:

\[0 \leq P(|c_n-E(c_n)|\geq k)\leq \frac{Var(c_n)}{k^2} \Rightarrow 0 \leq P(|c_n|\geq k)\leq\frac{\sum\sigma^2_i}{n^2k^2}\]

Como \(\frac{\sum\sigma^2_i}{n^2k^2} \rightarrow 0\), então temos que \(\lim_{n\rightarrow\infty} P(|c_n|\geq k)=0\) e portanto \(c_n \xrightarrow[]{p} 0\). Dessa forma, temos que \(\bar{X} \xrightarrow[]{p} \mu\)

...