Primeira vez aqui? Seja bem vindo e cheque o FAQ!
x

Uma variável pode seguir duas distribuições possíveis, ambas normais e com mesma variância, mas que diferem na média. Eu preciso encontrar a razão de verossimilhança, o poder do teste e outras medidas.

0 votos
42 visitas
perguntada Abr 26 em Estatística por Ricardo Saldanha (1 ponto)  

[Adaptado de RICE, J, A. Mathematical Statistics and Data Analysis (2006) - cap. 9, exc. 32]
Num experimento, é medida a intensidade de luz refletida por um objeto. Suponha que há dois tipo de objetos possíveis, A e B. Se o objeto for do tipo A, a medida de de luz tem distribuição normal com média 100 e desvio-padrão 25; se o objeto for do tipo B, a medida segue distribuição normal com média 125 e desvio-padrão 25. Uma única medida é observada, com valor X=120.
a) Qual é a razão de verossimilhança?
b) Se as probabilidades a priori de A e B são iguais (1/2 cada), qual é a probabilidade a posteriori do objeto ser do tipo B?
c) Suponha que a regra de decisão é declarar o objeto como do tipo B se X<125. Qual é o nível de significância associado a essa regra?
d) Qual é o poder desse teste?
e) Qual é o p-valor quando X=120?

Compartilhe

1 Resposta

0 votos
respondida Abr 26 por Ricardo Saldanha (1 ponto)  
editado Mai 22 por Ricardo Saldanha

[As referências a Rice são da mesma edição de 2006 mencionada na pergunta. Se você não tem acesso ao livro, não se preocupe. As referências são complementares; todos os conceitos relevantes são apresentados aqui.]

O teste proposto pelo exercício pode ser apresentado da seguinte forma:
\(H_0 = \text{ Objeto é do tipo A}\)
\(H_1 = \text{ Objeto é do tipo B}\)
, em que \(H_0\) e \(H_1\) são, respectivamente, a hipótese nula e a alternativa.

a) Conforme função de verossimilhança \(L\) definida em Rice - p. 267 , temos que a função de verossimilhança da hipótese \( H\) é:
\( L(H)=f(x|H) \), em que \( f\) é uma função de densidade.
O condicional indica que os parâmetros de \(f\) estão de acordo com a hipótese \(H\).
(A verossimilhança foi apresentada em termos de uma densidade de probabilidade porque trabalhamos com um caso absolutamente contínuo. Mas saiba que o conceito também tem sentido em casos discretos, vd. Rice - p. 13, bem como a razão de verossimilhança, vd. Rice - p. 329-330)

Conforme Rice - p. 54, a função de densidade normal univariada é:
\( f(x) = \frac{1}{\sqrt{2\pi}\sigma}exp \bigg[ -\frac{(x-\mu)^2}{2\sigma^2} \bigg] \)
Ilustremos a função de verossimilhança da hipótese nula avaliada num valor observado \(X_0\). Lembre-se que quando estamos interessados em probabilidades, representamos áreas sob a curva correspondentes a intervalos no domínio. Já a verossimilhança é avaliada num ponto. A verossimilhança \(L(X_{0}|H_{0}) \) é a densidade que a linha vermelha encontra.
A imagem será apresentada aqui.

A razão de verossimilhança \( \Lambda\) é:
\( \Lambda \mathrel{\mathop:}= \frac{L(X_{0}|H_{0})}{L(X_{0}|H_{1})} = \frac{f(X_{0}|H_{0})}{f(X_{0}|H_{1})} \)
Nosso cálculo é semelhante ao Exemplo A, de Rice - p. 333. Como o desvio-padrão sob as duas hipótese é igual, o primeiro fator de multiplicação da expressão das densidades será cancelado.
\( \Lambda = \frac{f(120|H_{0})}{f(120|H_{1})} = \frac{exp \bigg[ -\frac{(120-100)^2}{2.25^2} \bigg] }{exp \bigg[ -\frac{(120-125)^2}{2.25^2} \bigg]} = \frac{exp(-0.32)}{exp(-0.02)} = exp(-0.30) \approx 0.7408 \)

b) Avaliemos a probabilidade a posteriori de \(H_{1}\).
\( P(H_{1}|X=120) = \frac{ P(X=120|H_{1}).P(H_{1}) }{ P(X=120)} \kern{7em} \scriptstyle{(def., \space Rice \space - \space p. \space 22-23)}\)
\( \kern{1em} = \frac{ P(X=120|H_{1}).P(H_{1})}{ P(X=120|H_{0}).P(H_{0})+P(X=120|H_{1}).P(H_{1})} \kern{4.8em} \scriptstyle{(Lei \space de \space Prob. \space Totais, \space p. \space 18)} \)
\( \kern{1em} = \frac{ P(X=120|H_{1})}{ P(X=120|H_{0})+P(X=120|H_{1})} \kern{9.5em} \scriptstyle{(prob. \space a \space priori \space são \space iguais)} \)
\( \kern{1em} = \frac{ f(120|H_{1})}{ f(120|H_{0})+f(120|H_{1})} \)
\( \kern{1em} = \frac{1}{ \frac{f(120|H_{0})}{f(120|H_{1})}+1} = \frac{1}{\frac{exp(-0.32)}{exp(-0.02)}+1} = \frac{1}{exp(-0.3)+1} \approx 0.5793 \)

c) De acordo com Rice - p. 331, um Erro do Tipo I consiste em rejeitar uma hipótese nula verdadeira e o Nível de Significância \(\alpha\) é a probabilidade de um Erro do Tipo I.
Declarar o objeto como do tipo B equivale a rejeitar \(H_{0}\). Assim, podemos reescrever a regra de decisão do enunciado como: rejeitar \(H_{0}\) quando o valor observado for maior que 125.
\(\alpha = P(\text{erro do tipo I}) \)
\(\kern{0.9em} = P(\text{rejeitar} \space H_{0}|H_{0}) \)
\(\kern{0.9em} = P(X \gt 125|H_{0}) \)
\(\kern{0.9em} = P(Z_{A} \gt \frac{125-100}{25} ) = P(Z_{A} \gt 1 ) \approx 1 - 0.8413 = 0.1587 \)
, em que \(Z_{A}\) é \(X\) padronizado considerando a distribuição do objeto \(A\).

d) Conforme Rice - p. 331, um Erro do Tipo II ocorre quando não se rejeita uma hipótese nula falsa e o Poder de um teste é a probabilidade de não cometer um Erro do Tipo II, i.e., a probabilidade de corretamente rejeitar \(H_{0}\). O enunciado pede para avaliarmos o Poder do Teste do item c; ou seja, seguindo a mesma regra de decisão. Denotando por \(\beta\) a probabilidade de cometer um Erro do Tipo II, o Poder do Teste é representado por \(1-\beta\).
\(1-\beta = 1 - P(\text{erro do tipo II}) \)
\(1-\beta = 1 - P(\text{não rejeitar} \space H_{0}|H_{1}) \)
\(\kern{2.5em} = 1 - P(X \lt125|H_{1}) \)
\(\kern{2.5em} = 1 - P(Z_{B} \lt \frac{125-125}{25} ) = 1 - P(Z_{B} \lt 0 ) = 1 - 0.5 = 0.5 \)
, em que \(Z_{B}\) é \(X\) padronizado considerando a distribuição do objeto \(B\).

e) Rice, p. 335, define o p-valor como o menor nível de significância sob o qual a hipótese nula seria rejeitada. O autor também a apresenta a visão equivalente do p-valor como a probabilidade de ocorrer um resultado mais extremo do que o observado dada a validade da hipótese nula. No nosso caso, se a hipótese nula for correta, a média é \(100\). Assim, o p-valor é probabilidade de obter um valor maior do que o \(120\) observado, i.e., ainda mais longe da média.
\( p-value = P(\text{resultado mais extremo que o observado}|H_{0}) \)
\( \kern{4.3em} = P(X>120|H_{0}) \)
\( \kern{4.3em} = P(Z_{A}>\frac{120-100}{25}) = P(Z_{A}>0.8) \approx 1-0.7881 = 0.2119 \)

comentou Abr 26 por Ricardo Saldanha (1 ponto)  
Segue código da figura, para caso alguém deseje recriá-la.

    import numpy as np
    import matplotlib.pyplot as plt
    from scipy.stats import norm
    
    if __name__=="__main__":
        mu = 100
        sigma = 25
        x0 = 120 # Valor observado.
        
        domain = np.arange(mu-4*sigma,mu+4*sigma, 0.0001)
        f = norm.pdf(domain,mu,sigma)
        f_A = norm.pdf(x0,mu,sigma) # likelihood avaliada no valor observado.
        
        dotted_horizontal_x = [mu-4*sigma,x0]
        dotted_horizontal_y = [f_A,f_A]
        dotted_vertical_x = [x0,x0]
        dotted_vertical_y = [0,f_A]
        
        plt.plot(domain,f)
        plt.plot(x0,f_A,'r')
        plt.plot(dotted_horizontal_x,dotted_horizontal_y,linestyle='dotted',color='red')
        plt.plot(dotted_vertical_x,dotted_vertical_y,linestyle='dotted',color='black')
        plt.text(x0,f_A,r'$(X_{0},L(X_{0}|H_{0}))$')
        
        plt.title('P.D.F')
        plt.xlabel(r'$\hat{X}_{A}$', loc='right')
        plt.ylabel('Density')
        
        plt.show()
...