Primeira vez aqui? Seja bem vindo e cheque o FAQ!
x

Quais são as propriedades de uma distribuição paramétrica dada por: \(f(x|\sigma)=\frac{e^{-\frac{|x|}{\sigma}}}{2\sigma}\)?

0 votos
19 visitas
perguntada Abr 24 em Matemática por Gustavo Libório (1 ponto)  
editado 1 dia atrás por Gustavo Libório

Considere uma amostra independente identicamente distribuída de uma variável aleatória com densidade de probabilidade:

\[f(x|\sigma)=\frac{e^{-\frac{|x|}{\sigma}}}{2\sigma}\]

a) Encontre a estimativa de \(\sigma\) pelo método dos momentos.

b) Encontre a estimativa de \(\sigma\) pelo método da máxima verossimilhança.

c) Encontre a variância assintótica do estimador de máxima verossimilhança.

d) Encontre uma estatística suficiente para \(\sigma\).

Exercício 16 do capítulo 8 do livro "Mathematical Statistics and Data Analysis" de John A. Rice

Compartilhe

1 Resposta

0 votos
respondida Abr 24 por Gustavo Libório (1 ponto)  
 
Melhor resposta

a) A questão pede para estimar o parâmetro \(\sigma\) usando o método dos momentos. Esse método consiste em encontrar alguma relação matemática entre o parâmetro e algum dos momentos da distribuição e depois utilizar o momento amostral para estimar o parâmetro.

Nesse caso, \(\sigma\) não tem relação com o primeiro momento, que na verdade é simplesmente 0. Para verificar isso basta calcular diretamente \(\int_{-\infty}^{\infty} xf(x)dx\).

Já o segundo momento pode ser calculado por (usamos a simetria do integrando):

\[E(X^2)=\int_{-\infty}^{\infty} x^2f(x)dx=2\int_{0}^{\infty} x^2\frac{e^{-\frac{|x|}{\sigma}}}{2\sigma}dx=2\sigma^2 \]

Então fica fácil notar que podemos estimar o parâmetro usando o segundo momento amostral:

\[E(X^2)=2\sigma^2\]

Assim, uma vez que o segundo momento amostral é \(\sum_{1}^{N}\frac{X_i^2}{N}\) o estimador dos momentos do nosso parâmetro é:

\[ \hat{\sigma}_{mmo}=\sum_{1}^{N}\frac{X_i^2}{N} \]

b) Agora vamos utilizar o método da máxima verossimilhança. Uma vez que cada realização \(X_i\) é independente, a função de verossimilhança (likelihood) será dada pelo seguinte produtório:

\[l(\sigma)=\prod_1^N f(X_i|\sigma)=\prod_1^N \frac{e^{-\frac{|X_i|}{\sigma}}}{2\sigma}=\frac{exp({\sum_{1}^{N}-\frac{|X_i|}{\sigma})}}{(2\sigma)^N}\]

O estimador de máxima verossimilhança é justamente:

\[ \hat{\sigma}=\mbox{argmax}_\sigma l(\sigma)\]

Nesse caso (e em muitos outros) é mais prático maximizar o logaritmo de \(l(\sigma)\). A condição de primeira ordem então será:

\[ -\frac{N}{\sigma}+\frac{\sum_1^N |X_i|}{\sigma^2} = 0 \Rightarrow \\ \hat{\sigma}_{emv}=\frac{\sum_1^N |X_i|}{N} \]

c) De acordo com o teorema 2 do capítulo 8 do livro do Rice a distribuição assintótica do estimador é normal e sua variância assintótica pode ser calculada com a aproximação:

\[Var(\hat{\sigma}) \approx \frac{1}{-E((log(l(\sigma))\'\')}\]

Note que a segunda derivada de \(log(l(\sigma))\) no nosso caso é:

\[ \frac{N}{\sigma^3}-\frac{2\sum_1^N |X_i|}{\sigma^3}\]

e assim a esperança será:

\[ E(\frac{N}{\sigma^2}+\frac{2\sum_1^N |X_i|}{\sigma^3})= \frac{N}{\sigma^2}+\frac{2E(\sum_1^N |X_i|)}{\sigma^3}\]

É necessário calcular a esperança \(E(|X|)\). A conta é:

\[E(|X|)= \int_{-\infty}^{\infty} |x|f(x)dx = \sigma\]

Assim, temos que:

\[E((log(l(\sigma))\'\')= \frac{N}{\sigma^2}-\frac{2 N \sigma}{\sigma^3} \Rightarrow\\ E((log(l(\sigma))\'\')=\frac{N-2 N}{\sigma^2}=\frac{-N}{\sigma^2}\]

Terminando a conta, concluímos que a variância assintótica do estimador é:

\[Var(\hat{\sigma}) \approx \frac{\sigma^2}{N} \]

d) Uma estatística \(T(X_1,...,X_N)\) é dita suficiente para um parâmetro \(\sigma\) se a distribuição condicional de \((X_1,...,X_N)\) dado \(T=t\) não depende de \(\sigma\) para nenhum \(t\).

Essa definição, porém, não é muito prática, por isso usaremos o chamado Teorema de fatoração. De acordo com esse teorema, para que T seja uma estatística suficiente a função de probabilidade condicional \(f(X_1,...,X_N|\sigma)\) possa ser fatorada como:

\[ f(X_1,...,X_N|\sigma)=g(T|\sigma)h(X_1,...,X_N) \]

Inspirado pela letra b) vamos testar \(T=\sum_1^N |X_i|\). De fato, veja que:

\[ f(X_1,...,X_N|\sigma)=\frac{exp({\sum_{1}^{N}-\frac{|X_i|}{\sigma})}}{(2\sigma)^N}=\frac{exp({-\frac{T}{\sigma})}}{(2\sigma)^N}\]

Assim, se definirmos \(g(T|\sigma)=\frac{exp({-\frac{T}{\sigma})}}{(2\sigma)^N}\) e \(h(X_1,...,X_N)=1\) vale o teorema e, portanto, \(T\) é suficiente.

...