Primeira vez aqui? Seja bem vindo e cheque o FAQ!
x

Suponha que \(X_i\) , onde \( i = 1, . . . , n\), são variáveis aleatórias independentes com \(E(X_i ) = μ \ e \ Var(X_i ) = \sigma^2\). Seja \( \overline{X} = n^{−1} \sum_{ i=1}^{n} X_i \) .

0 votos
43 visitas
perguntada Abr 2 em Estatística por claudiaeirado (66 pontos)  
editado Abr 2 por claudiaeirado

Mostre que \(E(\overline{X}) = μ \ e \ Var(\overline{X}) = \frac{\sigma^2}{n}\).

Exercício 50 do Capítulo 4 do Livo "Mathematical Statistics and Data Analysis" - John Rice.

Compartilhe

1 Resposta

0 votos
respondida Abr 2 por claudiaeirado (66 pontos)  
editado Abr 3 por claudiaeirado

Temos que

\(E(\overline{X}) = E(n^{−1} \sum_{ i=1}^{n} X_i) = \frac{1}{n} E(\sum_{ i=1}^{n} X_i)\)

Note que \(E(\sum_{ i=1}^{n} X_i)=\sum_{ i=1}^{n} E(X_i)\), \( \forall X_i\), e \(E(X_i ) = μ \). Então:

\[E(\overline{X}) =\frac{1}{n} E(\sum_{ i=1}^{n} X_i)= \frac{1}{n} \sum_{ i=1}^{n} E(X_i)=\]
\[=\frac{1}{n} \sum_{ i=1}^{n} \mu=\frac{1}{n} (\underbrace{\mu+ \ldots +\mu}_{n \ vezes})= \frac{1}{n} n\mu=\mu.\]

Temos também que \( Var(\overline{X}) = Var (n^{−1} \sum_{ i=1}^{n} X_i) = \frac{1}{n^2} Var(\sum_{ i=1}^{n} X_i)\).

Sabemos que \(X_i\) são independentes, então vale que:

\(Var(\sum_{ i=1}^{n} X_i)=\sum_{ i=1}^{n} Var(X_i)\), \( \forall X_i\) e \(Var(X_i ) = \sigma^2\). Então:

\[ Var(\overline{X})= \frac{1}{n^2} \sum_{ i=1}^{n} Var(X_i)= \frac{1}{n^2} \sum_{ i=1}^{n} \sigma^2=\frac{1}{n^2} (\underbrace{\sigma^2+ \ldots + \sigma^2}_{n \ vezes})\]
\[= \frac{1}{n^2} n\sigma^2=\frac{\sigma^2}{n}. \]

Logo, \(E(\overline{X}) = μ \ e \ Var(\overline{X}) = \frac{\sigma^2}{n}\).

comentou Abr 10 por Vinícius Oliveira (11 pontos)  
editado Abr 10 por Vinícius Oliveira
Ótima resolução, pois você utilizou adequadamente as propriedades do operador Esperança \( E(X) \) e Variância \(  Var (X) \) .

Em particular,  a princípio, a Cláudia usou explicitamente a propriedade segundo a qual o operador valor esperado, no fundo, é uma transformação linear. Ou seja, a esperança da soma é a soma das esperanças, e uma constante pode "sair para fora da esperança" sem alterar o resultado. Essas propriedades, somadas ao fato de as variáveis aleatórias serem identicamente distribuídas, foram decisivas para se chegar no valor de \( E(\bar{X}) \)

Em seguida, a Cláudia combinou assertivamente a propriedade da variância da soma de variáveis aleatórias com a informação essencial dada pelo exercício: o fato de \( X_1, ..., X_n \) serem independentes, o que torna a covariância entre todos os pares possíveis de \( X_1 \)  a  \( X_n \) igual a zero.

Para entendermos melhor a relevância desse último ponto, vejamos um exemplo simples: suponha \(  X \) e  \(  Y \) duas variáveis aleatórias  identicamente distribuídas com variância finita. Se \(a,b\) são constantes reais, qual seria a \(  Var( aX + bY) \) ? Usando a mesma propriedade usada pela Cláudia, temos:

\(  Var( aX + bY) = a^2Var(X) + b^2Var(Y) + 2abCov(X, Y)  \hspace{0,15cm}  (1)  \)  

Agora suponha que \( X \) e \( Y \) são independentes. Isso implica, por exemplo, que
\( Cov(X, Y) = 0 \) . Substituindo isso em \( (1)  \)  :

\( Var( aX + bY)  = a^2Var(X) + b^2Var(Y) + 2ab0 \)

 \( \Rightarrow  Var( aX + bY) = a^2Var(X) + b^2Var(Y \))
 
Em suma, o exercício em análise requer uma generalização do nosso exemplo, afinal, ao invés de duas, considera-se \( n  \) variáveis aleatórias independentes e identicamente distribuídas
...