Primeira vez aqui? Seja bem vindo e cheque o FAQ!
x

Exercício 4 do capítulo 4 do livro "Mathematical Statistics and Data Analysis" de John A. Rice

0 votos
19 visitas
perguntada Abr 23 em Matemática por Gustavo Libório (1 ponto)  

Seja \(X\) uma variável aleatória com função de distribuição acumulada descrita por:

\[F(x)= \begin{cases} 1-x^{-\alpha} & \mbox{se } x\geq1 \\ 0, & \mbox{caso contrário.} \end{cases}\]

Encontre:

a) A esperança \(E(X)\) e para quais valores de \(\alpha\) ela existe.

b) A variância \(Var(X)\) e para quais valores de \(\alpha\) ela existe.

Compartilhe

1 Resposta

0 votos
respondida Abr 23 por Gustavo Libório (1 ponto)  
selecionada Abr 23 por Gustavo Libório
 
Melhor resposta

a) Uma vez que a função de distribuição acumulada de \(X\) é \[F(x)= \begin{cases} 1-x^{-\alpha} & \mbox{se } x\geq1 \\ 0, & \mbox{caso contrário.} \end{cases}\]

É importante notar, desde já, que se \(\alpha\leq0\), \(F\) não configura uma função de distribuição, então podemos nos restringir aos \(\alpha\) estritamente positivos.

Podemos agora calcular a função de densidade de probabilidade usando sua derivada, que existe em todos pontos exceto \(x=1\). Uma vez que esse ponto tem medida nula e não interfere, podemos concluir que a função de densidade será dada por \(f(x)=F'(x)\), de forma tal que:
\[f(x)= \begin{cases} \alpha x^{-\alpha-1} & \mbox{se } x>1 \\ 0, & \mbox{caso contrário.} \end{cases}\]

Sendo assim, vamos calcular a esperança usando o primeiro momento da distribuição, que é dado por \(E(X)=\int_{-\infty}^{\infty}xf(x)dx\). Dessa maneira teremos:

\[ \int_{-\infty}^{\infty}xf(x)dx=\int_{1}^{\infty} \alpha x^{-\alpha}dx=\bigg(\frac{\alpha}{1-\alpha}x^{-\alpha+1}\bigg)\bigg\vert_{1}^{\infty} \]

Averiguando o valor final temos:

\[E(X)=\bigg(\frac{\alpha}{1-\alpha}\bigg)\bigg( \lim_{x\to\infty}x^{-\alpha+1}-1\bigg) \]

Podemos perceber que se \(\alpha\) for menor ou igual a \(1\), então o limite diverge ou não está bem definido. Caso contrário, converge para \(0\), e a esperança existe. Como já tínhamos deixado \(\alpha\) restrito ao intervalo \((0,\infty)\), precisamos excluir ainda mais valores para que se defina bem a esperança, exigindo \(\alpha>1\), e nesse caso a esperança estará bem definida e dada por:

\[E(X)=\frac{\alpha}{\alpha-1}\]

b) Seguiremos a mesma lógica para calcular a variância, usando o segundo momento da distribuição, \(\int_{-\infty}^{\infty}x^2f(x)dx\). Então deve valer:

\[ \int_{-\infty}^{\infty}x^2f(x)dx=\int_{1}^{\infty} \alpha x^{-\alpha+1}dx=\bigg(\frac{\alpha}{2-\alpha}x^{-\alpha+2}\bigg)\bigg\vert_{1}^{\infty} \]

e, semelhante ao item anterior:

\[E(X^2)=\bigg(\frac{\alpha}{2-\alpha}\bigg)\bigg( \lim_{x\to\infty}x^{-\alpha+2}-1\bigg)\]

A conclusão aqui é que precisamos exigir \(\alpha>2\) para que esteja bem definido segundo momento, e, consequentemente, a variância. Sob essa hipótese, a variância deve ser:

\[Var(X)=E(X^2)-E(X)^2=\bigg(\frac{\alpha}{\alpha-2}\bigg)-\bigg(\frac{\alpha}{\alpha-1} \bigg)^2 \]

Isso conclui a questão, mas ainda resta uma propriedade interessante para discutir. Essa distribuição exige que, para que exista o \(k-\)ésimo momento, a constante \(\alpha\) seja maior que o inteiro \(k\). Isso pode ser verificado diretamente calculando \(\int_{-\infty}^{\infty}x^kf(x)dx\), e a questão poderia ter sido resolvida usando esse fato.

...