Primeira vez aqui? Seja bem vindo e cheque o FAQ!
x

Como a fórmula da distribuição normal foi construída? Por que ela tem essa curva em forma de sino?

+1 voto
187 visitas

1 Resposta

+1 voto
respondida Jul 31, 2015 por danielcajueiro (5,666 pontos)  

Se você não sabe o que é a distribuição normal, vá por aqui.

O desenvolvimento da fórmula para a distribuição normal está relacionado com a busca para descrever erros que apareciam em medições na área de astronomia.

Gauss não foi o primeiro a propor uma fórmula para esses erros de medição. Outros antes dele já haviam feito isso. Um detalhamento dessa história assim como a prova que serviu de base para a apresentação abaixo é apresentada por exemplo em "Saul Stahl - Mathematics Magazine v. 79, p. 96 - 113, 2006".

Para chegar a essa fórmula, Gauss formulou as seguintes hipóteses (umas delas implicitamente e outras explicitamente):

(1) Erros pequenos são mais prováveis que erros grandes.

(2) A probabilidade de ocorrer erros maiores ou menores que a medida "correta" é a mesma.

(3) Medidas diferentes são independentes umas das outras.

(4) A função usada para representar a fórmula desejada é diferenciável.

(5) Na presença de várias medidas, a mais provável de ser a verdadeira é aquela dada por sua média.

(6) Qualquer erro pode ocorrer (embora alguns sejam mais improváveis que outros)

Suponha que \(v\) seja o valor verdadeiro mas desconhecido de uma medida, \(\{\hat v_1,\cdots,\hat v_n\}\) seja um conjunto de medidas e \(\phi(\cdot)\) seja a densidade de probabilidade dos erros de medições dados por \(\epsilon_i=v_i-v\), para \(i=1,\cdots,n\).

Hipótese 1 acima implica que \(\phi(x)\) tem um máximo em \(x=0\), pois erros menores são mais prováveis que erros maiores e o erro nulo é o menor de todos.

Hipótese 2 (simetria) implica que \(\phi(x)=\phi(-x)\).

Hipótese 3 (independência) nos garante que a distribuição conjunta é dada pela produto das distribuições individuais dos erros. Logo, a distribuição conjunta \(f\) dos erros de medição é dada por

\[f(\epsilon_1, \cdots,\epsilon_n)=\phi( \epsilon_1)\times\cdots\times \phi( \epsilon_n)\]
\[=\phi(v_1-v)\times\cdots\times \phi(v_n-v)\]

Hipótese 4 (diferenciabilidade) nos permite diferenciar e igualar a zero para encontrar a melhor estimativa para \(v\) (note que \(v\) é desconhecido, mas cada \(v_i\), para \(i=1,\cdots,n\) são conhecidos. Fazendo esse procedimento, chegamos a

\(\frac{d f}{dv}=\)\[\left(\frac{\phi^{\prime}(v_1-v)}{\phi(v_1-v)}+\cdots+\frac{\phi^{\prime}(v_n-v)}{\phi(v_n-v)}\right)f(v_1-v,\cdots,v_n-v)=0\]

Hipótese (5) nos diz que a solução dessa equação é dada pela média, isto é,

\[\left(\frac{\phi^{\prime}(v_1-\overline v)}{\phi(v_1-\overline v)}+\cdots+\frac{\phi^{\prime}(v_n-\overline v)}{\phi(v_n-\overline v)}\right)f(v_1-\overline v,\cdots,v_n-\overline v)=0\]

Ou seja, hipótese 6 nos garante que

\[\left(\frac{\phi^{\prime}(v_1-\overline v)}{\phi(v_1-\overline v)}+\cdots+\frac{\phi^{\prime}(v_n-\overline v)}{\phi(v_n-\overline v)}\right)=0\]

Sabendo que esse resultado é válido para qualquer valor de medidas \(v_1,\cdots,v_n\) que satisfazem as hipóteses acima. Podemos particularmente assumir que \(v_1=a\) e \(v_2=\cdots =v_n=a-nb\) e, nesse caso,

\[\frac{\phi^{\prime}((n-1)b)}{\phi((n-1)b)}=(n-1)\frac{\phi^{\prime}(b)}{\phi(b)}.\]

Como \(b\) é qualquer, isso implica que a função \(\phi^{\prime}/\phi\) é homogênea de grau 1 e, portanto, temos que

\[\frac{\phi^{\prime}(x)}{\phi(x)}=kx,\]
onde \(k\) é uma constante. A solução dessa equação diferencial trás exatamente a forma funcional desejada:

\[\phi(x)=Ae^{Bx^2},\]

onde \(A\) e \(B\) são constantes de integração. Para chegar a formula exata, precisamos considerar que a integral dessa função é na reta e depois normalizar com média e variância desejadas.

...