Primeira vez aqui? Seja bem vindo e cheque o FAQ!
x

Quais são as propriedades de uma distribuição paramétrica dada por: \(f(x|\sigma)=\frac{e^{-\frac{|x|}{\sigma}}}{2\sigma}\)?

0 votos
42 visitas
perguntada Abr 24 em Matemática por Gustavo Libório (1 ponto)  
editado Mai 13 por Gustavo Libório

Considere uma amostra independente identicamente distribuída de uma variável aleatória com densidade de probabilidade:

\[f(x|\sigma)=\frac{e^{-\frac{|x|}{\sigma}}}{2\sigma}\]

a) Encontre a estimativa de \(\sigma\) pelo método dos momentos.

b) Encontre a estimativa de \(\sigma\) pelo método da máxima verossimilhança.

c) Encontre a variância assintótica do estimador de máxima verossimilhança.

d) Encontre uma estatística suficiente para \(\sigma\).

Exercício 16 do capítulo 8 do livro "Mathematical Statistics and Data Analysis" de John A. Rice

Compartilhe

1 Resposta

0 votos
respondida Abr 24 por Gustavo Libório (1 ponto)  
 
Melhor resposta

a) A questão pede para estimar o parâmetro \(\sigma\) usando o método dos momentos. Esse método consiste em encontrar alguma relação matemática entre o parâmetro e algum dos momentos da distribuição e depois utilizar o momento amostral para estimar o parâmetro.

Nesse caso, \(\sigma\) não tem relação com o primeiro momento, que na verdade é simplesmente 0. Para verificar isso basta calcular diretamente \(\int_{-\infty}^{\infty} xf(x)dx\).

Já o segundo momento pode ser calculado por (usamos a simetria do integrando):

\[E(X^2)=\int_{-\infty}^{\infty} x^2f(x)dx=2\int_{0}^{\infty} x^2\frac{e^{-\frac{|x|}{\sigma}}}{2\sigma}dx=2\sigma^2 \]

Então fica fácil notar que podemos estimar o parâmetro usando o segundo momento amostral:

\[E(X^2)=2\sigma^2\]

Assim, uma vez que o segundo momento amostral é \(\sum_{1}^{N}\frac{X_i^2}{N}\) o estimador dos momentos do nosso parâmetro é:

\[ \hat{\sigma}_{mmo}=\sum_{1}^{N}\frac{X_i^2}{N} \]

b) Agora vamos utilizar o método da máxima verossimilhança. Uma vez que cada realização \(X_i\) é independente, a função de verossimilhança (likelihood) será dada pelo seguinte produtório:

\[l(\sigma)=\prod_1^N f(X_i|\sigma)=\prod_1^N \frac{e^{-\frac{|X_i|}{\sigma}}}{2\sigma}=\frac{exp({\sum_{1}^{N}-\frac{|X_i|}{\sigma})}}{(2\sigma)^N}\]

O estimador de máxima verossimilhança é justamente:

\[ \hat{\sigma}=\mbox{argmax}_\sigma l(\sigma)\]

Nesse caso (e em muitos outros) é mais prático maximizar o logaritmo de \(l(\sigma)\). A condição de primeira ordem então será:

\[ -\frac{N}{\sigma}+\frac{\sum_1^N |X_i|}{\sigma^2} = 0 \Rightarrow \\ \hat{\sigma}_{emv}=\frac{\sum_1^N |X_i|}{N} \]

c) De acordo com o teorema 2 do capítulo 8 do livro do Rice a distribuição assintótica do estimador é normal e sua variância assintótica pode ser calculada com a aproximação:

\[Var(\hat{\sigma}) \approx \frac{1}{-E((log(l(\sigma))\'\')}\]

Note que a segunda derivada de \(log(l(\sigma))\) no nosso caso é:

\[ \frac{N}{\sigma^3}-\frac{2\sum_1^N |X_i|}{\sigma^3}\]

e assim a esperança será:

\[ E(\frac{N}{\sigma^2}+\frac{2\sum_1^N |X_i|}{\sigma^3})= \frac{N}{\sigma^2}+\frac{2E(\sum_1^N |X_i|)}{\sigma^3}\]

É necessário calcular a esperança \(E(|X|)\). A conta é:

\[E(|X|)= \int_{-\infty}^{\infty} |x|f(x)dx = \sigma\]

Assim, temos que:

\[E((log(l(\sigma))\'\')= \frac{N}{\sigma^2}-\frac{2 N \sigma}{\sigma^3} \Rightarrow\\ E((log(l(\sigma))\'\')=\frac{N-2 N}{\sigma^2}=\frac{-N}{\sigma^2}\]

Terminando a conta, concluímos que a variância assintótica do estimador é:

\[Var(\hat{\sigma}) \approx \frac{\sigma^2}{N} \]

d) Uma estatística \(T(X_1,...,X_N)\) é dita suficiente para um parâmetro \(\sigma\) se a distribuição condicional de \((X_1,...,X_N)\) dado \(T=t\) não depende de \(\sigma\) para nenhum \(t\).

Essa definição, porém, não é muito prática, por isso usaremos o chamado Teorema de fatoração. De acordo com esse teorema, para que T seja uma estatística suficiente a função de probabilidade condicional \(f(X_1,...,X_N|\sigma)\) possa ser fatorada como:

\[ f(X_1,...,X_N|\sigma)=g(T|\sigma)h(X_1,...,X_N) \]

Inspirado pela letra b) vamos testar \(T=\sum_1^N |X_i|\). De fato, veja que:

\[ f(X_1,...,X_N|\sigma)=\frac{exp({\sum_{1}^{N}-\frac{|X_i|}{\sigma})}}{(2\sigma)^N}=\frac{exp({-\frac{T}{\sigma})}}{(2\sigma)^N}\]

Assim, se definirmos \(g(T|\sigma)=\frac{exp({-\frac{T}{\sigma})}}{(2\sigma)^N}\) e \(h(X_1,...,X_N)=1\) vale o teorema e, portanto, \(T\) é suficiente.

comentou Mai 18 por João Coutinho (21 pontos)  
Oi Gustavo, está muito interessante a sua resolução, acredito estar correta em sua completude.
Gostaria apenas de pontuar algumas coisas.
No item (a) eu não consegui ver diretamente que o primeiro momento era zero, então calculei da seguinte forma:
\[
E(X)= \int_{-\infty}^{\infty} x\cdot f(x) dx = \int_{-\infty}^{\infty} \frac{1}{2\sigma}\cdot x \cdot e^{\frac{-|x|}{\sigma}}=0
\]
Onde a última igualdade é zero porque a função dentro da integral é ímpar.
Outro ponto que eu acho legal falar é que a expressão usada na letra (c) vem de:
\[
Var(\hat{\sigma})\approx \frac{1}{n\cdot I(\sigma)}
\]
Onde:
\[
I(\sigma)=E([\frac{\partial}{\partial \sigma} \cdot ln f(X | \sigma)]^2)
\]
Que, por sua vez, é igual à expressão que você usou.
No mais, achei interessante também a estatística que usou no item (d) porque utiliza um resultado da letra (b), não tinha pensado nisso.
...