Você está interessado em estimar o modelo de regressão linear
\[y=\alpha + \beta x +u,\]
onde \(x\) e \(y\) são vetores de tamanho \(n\), \(\alpha\) e \(\beta\) são constantes que definem o modelo regressão linear e \(u\) é o erro de modelagem.
Para o estimador ser não viesado, ele precisa apenas que as estimativas estejam flutuando em torno do valor real. Por outro lado, para ser consistente, ele precisa que as estimativas estejam convergindo para o valor real. Finalmente, para ser eficiente, ele precisa está fazendo a estimação da melhor forma possível. Se tem dúvidas nesses conceitos, dê uma olhada nessa resposta, onde exploramos o estimador de mínimos quadrados.
Considere o seguinte estimador do \(\beta\) que chamo de "Descuidado" que independente do tamanho da amostra, ele usa apenas os 20 primeiros pontos (não necessariamente os menores) da amostra da seguinte forma:
\[\beta_{D}=\frac{y^{\prime\prime}-y^{\prime}}{x^{\prime\prime}-x^{\prime}},\]
onde \(y^{\prime}=\sum_{t=1}^{10}y_t\), \(y^{\prime\prime}=\sum_{t=11}^{20}y_t\), \(x^{\prime}=\sum_{t=1}^{10}x_t\) e \(x^{\prime\prime}=\sum_{t=11}^{20}x_t\)
Note que a idéia por detrás desse estimador é usar a definição de inclinação de uma reta. Entretanto, ele não é interessante, pois ele não utiliza toda a informação disponível. Pode-se mostrar que ele é não viesado (apenas aplique o valor esperado condicional ao valor de x). Entretando, ele não pode ser consistente, pois quando a amostra cresce, ele continua usando apenas o 20 primeiros pontos da amostra e, portanto, não haverá convergência. Por outro lado, ele também não pode ser eficiente, pois ele não usa toda a informação da melhor forma.