Constante de normalização

Estatística
  • v
  • d
  • e

A constante de normalização é um conceito que surge em teoria das probabilidades e em outras áreas da matemática. A constante de normalização é usada para reduzir qualquer função de probabilidade a uma função densidade de probabilidade com probabilidade total igual a 1.[1]

Definição e exemplos

Em teoria das probabilidades, uma constante de normalização é uma constante pela qual uma função não negativa em todo lugar deve ser multiplicada de modo que a área sob sua gráfico seja igual a 1, por exemplo, para tornar a função uma função densidade de probabilidade ou uma função massa de probabilidade. Por exemplo, se definirmos

p ( x ) = e x 2 / 2 , x ( , ) , {\displaystyle p(x)=e^{-x^{2}/2},x\in (-\infty ,\infty ),}

teremos

p ( x ) d x = e x 2 / 2 d x = 2 π {\displaystyle \int _{-\infty }^{\infty }p(x)dx=\int _{-\infty }^{\infty }e^{-x^{2}/2}dx={\sqrt {2\pi }}}

e, se definirmos uma função φ ( x ) {\displaystyle \varphi (x)} como

φ ( x ) = 1 2 π p ( x ) = 1 2 π e x 2 / 2 , {\displaystyle \varphi (x)={\frac {1}{\sqrt {2\pi }}}p(x)={\frac {1}{\sqrt {2\pi }}}e^{-x^{2}/2},}

de modo que

φ ( x ) d x = 1 2 π e x 2 / 2 d x = 1 , {\displaystyle \int _{-\infty }^{\infty }\varphi (x)dx=\int _{-\infty }^{\infty }{\frac {1}{\sqrt {2\pi }}}e^{-x^{2}/2}dx=1,}

então a função φ ( x ) {\displaystyle \varphi (x)} é uma função densidade de probabilidade. Esta é a densidade da distribuição normal padrão, isto é, com valor esperado igual a 0 e variância igual a 1.

A constante 1 2 π {\displaystyle {\frac {1}{\sqrt {2\pi }}}} é a constante de normalização da função p ( x ) {\displaystyle p(x)} .

De forma semelhante,

n = 0 λ n n ! = e λ {\displaystyle \sum _{n=0}^{\infty }{\frac {\lambda ^{n}}{n!}}=e^{\lambda }}

e, consequentemente,

f ( n ) = λ n e λ n ! {\displaystyle f(n)={\frac {\lambda ^{n}e^{-\lambda }}{n!}}}

é a uma função massa de probabilidade no conjunto de todos os números inteiros não negativos. Esta é a função massa de probabilidade da distribuição de Poisson com valor esperado igual a λ {\displaystyle \lambda } .[2]

Se a função densidade de probabilidade for uma função de vários parâmetros, assim também será sua constante de normalização. A constante de normalização parametrizada para a distribuição de Boltzmann desempenha uma papel central na mecânica estatística. Neste contexto, a constante de normalização é chamada de função de partição.[3]

Teorema de Bayes

O teorema de Bayes diz que a medida de probabilidade a posteriori é proporcional ao produto da medida de probabilidade a priori pela função de verossimilhança. "Proporcional ao" implica que se deve multiplicar ou dividir por uma constante de normalização para atribuir medida 1 ao espaço inteiro, isto é, para obter uma medida de probabilidade. No caso discreto simples, temos

P ( H 0 | D ) = P ( D | H 0 ) P ( H 0 ) P ( D ) , {\displaystyle P(H_{0}|D)={\frac {P(D|H_{0})P(H_{0})}{P(D)}},}

em que P ( H 0 ) {\displaystyle P(H_{0})} é a probabilidade a priori de que a hipótese seja verdadeira; P ( D | H 0 ) {\displaystyle P(D|H_{0})} é a probabilidade condicional dos dados, sendo a hipótese verdadeira, mas já que os dados são conhecidos, é a verossimilhança da hipótese (ou seus parâmetros), levando em conta os dados; P ( H 0 | D ) {\displaystyle P(H_{0}|D)} é a probabilidade a posterior de que hipótese seja verdadeira, levando em conta os dados; P ( D ) {\displaystyle P(D)} deve ser a probabilidade de produzir os dados, sendo por si só difícil de calcular, mas havendo uma forma alternativa de descrever esta relação em termos de proporcionalidade

P ( H 0 | D ) P ( D | H 0 ) P ( H 0 ) . {\displaystyle P(H_{0}|D)\propto P(D|H_{0})P(H_{0}).}

Já que P ( H | D ) {\displaystyle P(H|D)} é uma probabilidade, a soma sobre todas as hipóteses possíveis (e mutuamente exclusivas) deve ser igual a 1, o que leva à conclusão que:

P ( H 0 | D ) = P ( D | H 0 ) P ( H 0 ) i P ( D | H i ) P ( H i ) . {\displaystyle P(H_{0}|D)={\frac {P(D|H_{0})P(H_{0})}{\displaystyle \sum _{i}P(D|H_{i})P(H_{i})}}.}

Neste caso, o inverso multiplicativo do valor

P ( D ) = i P ( D | H i ) P ( H i ) {\displaystyle P(D)=\sum _{i}P(D|H_{i})P(H_{i})}

é a constante de normalização. Pode ser estendida de muitas hipóteses contáveis a muitas hipóteses incontáveis ao substituir a soma por uma integral.[4]

Usos não probabilísticos

Os polinômios de Legendre são caracterizados pela ortogonalidade com respeito à medida uniforme no intervalo [ 1 , 1 ] {\displaystyle [-1,1]} e pelo fato de que são normalizados, de modo que seu valor em 1 seja 1. A constante pela qual se multiplica um polinômio de modo que seu valor em 1 seja 1 é uma constante de normalização.

Funções ortonormais são normalizadas, de modo que

f i , f j = δ i , j {\displaystyle \langle f_{i},f_{j}\rangle =\delta _{i,j}}

com respeito a algum produto interior < f , g > {\displaystyle <f,g>} .

A constante 1 / 2 {\displaystyle 1/{\sqrt {2}}} é usada para estabelecer as funções hiperbólicas cos h {\displaystyle \cos h} e o sen h {\displaystyle \operatorname {sen} h} a partir dos comprimentos dos lados adjacentes e opostos de um triângulo hiperbólico.[5]

Referências

  1. Feller, William (1968). An introduction to probability theory and its applications 3 ed. New York: Wiley. ISBN 0471257087. OCLC 555740. Consultado em 7 de março de 2018 
  2. Siegrist, Kyle (12 de agosto de 2017). «Continuous distributions». Random Services. Consultado em 7 de março de 2018 
  3. Huang, Kerson (2008). Statistical Mechanics (em inglês). New Delhi: Wiley India Pvt. Limited. ISBN 9788126518494. Consultado em 7 de março de 2018 
  4. Jaynes, E. T. (2003). Probability Theory: The Logic of Science (em inglês). Cambridge: Cambridge University Press. ISBN 9781139435161. Consultado em 7 de março de 2018 
  5. Abramowitz, Milton; Stegun, Irene (1970). Handbook of mathematical functions: With formulas, graphs, and mathematical tables. New York: Dover Publications. ISBN 9780486612720. OCLC 18003605. Consultado em 7 de março de 2018 
  • Portal de probabilidade e estatística