Primeira vez aqui? Seja bem vindo e cheque o FAQ!
x

Suponha que \( y_i = \mu + e_i \), em que \( i =1, ...,n \) e \( e_i \) é i.i.d. com média \(0\) e variância \(\sigma^2\). Mostre que \( \bar{y} \) é a estimativa de MQO de \(\mu\).

0 votos
47 visitas
perguntada Abr 20 em Estatística por Thiago Trafane (21 pontos)  

Exercício 3 do Cap. 14 do Livro Mathematical Statistics and Data Analysis, de John A. Rice.

Compartilhe

1 Resposta

0 votos
respondida Abr 20 por Thiago Trafane (21 pontos)  

Podemos fazer essa demonstração de duas maneiras diferentes. Em primeiro lugar, partir do estimador de MQO do caso geral da regressão linear e, então, aplicá-lo para o caso particular aqui tratado. Em segundo lugar, derivar diretamente o estimador de MQO do caso particular.

Demonstração 1: Considere o caso geral da regressão linear: \( y = X\beta + e \), em que \( y \) é o vetor contendo as \(n\) observações do regressando, \( X \) é a matriz \(n \times k \) em que a coluna \(j \) contém as \(n\) observações do \(j\)-ésimo regressor, e \(e\) é o vetor de tamanho \(n\) dos erros. Então, sabemos que a estimativa de MQO de \(\beta\) é dada por

\( \hat{\beta} = (X'X)^{-1}X'y \)

No caso particular aqui tratado, temos apenas um regressor (\( k=1 \)), que é uma constante. Assim, \( X = \boldsymbol{1} \), em que \( \boldsymbol{1} \) é um vetor de tamanho \(n\) em que cada elemento é igual a 1. Então, a estimativa de MQO de \( \mu \) é

\( \hat{\mu} = (\boldsymbol{1}'\boldsymbol{1})^{-1}\boldsymbol{1}'y = (n)^{-1}\sum_{i=1}^{n}y_i\)

\( \hat{\mu} = \frac{\sum_{i=1}^{n}y_i}{n} = \bar{y} \)

Demonstração 2: Como \( y_i = \mu + e_i \), temos que \( e_i = y_i - \mu \). O estimador de MQO de \( \mu \) é aquele que minimiza a soma dos quadrados dos erros (SQE), isto é, é aquele que minimiza a função \( SQE(\mu)\). Formalmente,

\( \hat{\mu} = \arg\min_{\mu} SQE(\mu) = \arg\min_{\mu} \sum_{i=1}^{n} (y_i-\mu)^2 \)

A condição de primeira ordem desse problema é

\( 0 = \sum_{i=1}^{n} 2(y_i-\hat{\mu})(-1) = -2 (\sum_{i=1}^{n}y_i - n\hat{\mu}) = -2n (\bar{y} - \hat{\mu})\)

\( \hat{\mu} = \bar{y} \)

Note que \( SQE'(\mu) = \sum_{i=1}^{n} 2(y_i-\hat{\mu})(-1) \) e \( SQE''(\mu) = \sum_{i=1}^{n} 2 = 2n \gt 0\). Então, \( SQE \) é uma função estritamente convexa de \( \mu \), de modo que o ponto que satisfaz a condição de primeira ordem é de fato a solução do problema de minimização. Isto é, \( \arg\min_{\mu} SQE(\mu) = \bar{y} \) e, pois, o estimador de MQO de \(\mu\) é \( \bar{y} \).

comentou Mai 2 por Alan Antunes Rosendo (26 pontos)  
editado Mai 3 por Alan Antunes Rosendo
As duas demonstrações estão corretas, bem detalhadas, adiciono ainda uma outra forma de fazer a demonstração:
Temos:
\(\sum_{i=1}^{n}(y_i-\mu)^{2}=\sum_{i=1}^{n}(y_i-\bar{y}+\bar{y}-\mu)^{2}=\)
\(\sum_{i=1}^{n}(y_i-\bar{y})^2+2(\bar{y}-\mu)\sum_{i=1}^{n}(y_i-\bar{y})+\sum_{i=1}^{n}(\bar{y}-\mu)^2=\)
\(\sum_{i=1}^{n}(y_i-\bar{y})^2+2(\bar{y}-\mu)(n\bar{y}-n\bar{y})+\sum_{i=1}^{n}(\bar{y}-\mu)^2=\)
\(\sum_{i=1}^{n}(y_i-\bar{y})^2+n(\bar{y}-\mu)^2\)
Minizando, temos:
\(n(\bar{y}-\mu)^2=0\Rightarrow \bar{y}=\mu\)
Logo, o estimador de \(\mu\) é \(\bar{y}\)
comentou Mai 3 por Thiago Trafane (21 pontos)  
Alan, obrigado pelo comentário! Achei bem interessante essa demonstração alternativa que você apresentou. Ela segue a mesma linha da minha demonstração 2, de obter o estimador do caso particular diretamente, mas nessa alternativa você nem precisa saber derivar para obter o estimador. Legal!
...