Esta página cita fontes, mas que não cobrem todo o conteúdo. Ajude a inserir referências. Conteúdo não verificável pode ser removido.—Encontre fontes: ABW • CAPES • Google (N • L • A) (Maio de 2022) |
Esta página ou seção foi marcada para revisão devido a incoerências ou dados de confiabilidade duvidosa. Se tem algum conhecimento sobre o tema, por favor, verifique e melhore a coerência e o rigor deste artigo. Considere colocar uma explicação mais detalhada na discussão. |
Na teoria da probabilidade e na estatística, a distribuição de Poisson é uma distribuição de probabilidade discreta que expressa a probabilidade de um determinado número de eventos ocorrer em um intervalo fixo de tempo ou espaço se esses eventos ocorrerem com uma taxa média constante conhecida e independentemente do tempo desde o último evento.
A distribuição foi descoberta por Siméon Denis Poisson (1781–1840) e publicada, conjuntamente com a sua teoria da probabilidade, em 1838 no seu trabalho Recherches sur la probabilité des jugements en matières criminelles et matière civile ("Pesquisa sobre a probabilidade em julgamentos sobre matérias criminais e civis"). O trabalho focava-se em certas variáveis aleatórias N que contavam, entre outras coisas, o número de ocorrências discretas de um certo fenômeno durante um intervalo de tempo de determinada duração. A probabilidade de que existam exactamente k ocorrências (k sendo um inteiro não negativo, k = 0, 1, 2, ...) é
f ( k ; λ ) = e − λ λ k k ! , {\displaystyle f(k;\lambda )={\frac {e^{-\lambda }\lambda ^{k}}{k!}},\,\!}onde
Como função de k, esta é a função de probabilidade. A distribuição de Poisson pode ser derivada como um caso limite da distribuição binomial.
A distribuição de Poisson aparece em vários problemas físicos, com a seguinte formulação: considerando uma data inicial (t = 0), seja N(t) o número de eventos que ocorrem até uma certa data t. Por exemplo, N(t) pode ser um modelo para o número de impactos de asteroides maiores que um certo tamanho desde uma certa data de referência.
Uma aproximação que pode ser considerada é que a probabilidade de acontecer um evento em qualquer intervalo não depende (no sentido de independência estatística) da probabilidade de acontecer em qualquer outro intervalo disjunto.
Neste caso, a solução para o problema é o processo estocástico chamado de Processo de Poisson, para o qual vale:
P = e − λ t ( λ t ) k k ! , {\displaystyle P={\frac {e^{-\lambda t}(\lambda t)^{k}}{k!}},\,\!}
em que λ é uma constante (de unidade inversa da unidade do tempo).
Ou seja, o número de eventos até uma época qualquer t é uma distribuição de Poisson com parâmetro λ t.
O valor esperado de uma distribuição de Poisson é igual a λ. Esta propriedade pode ser derivada facilmente:
Em linguagem matemática | Em Português | |
---|---|---|
E = ∑ k = 0 ∞ k P {\displaystyle E\left=\sum _{k=0}^{\infty }k\mathbb {P} \left} | Por definição, a esperança de uma variável aleatória X é igual à soma de cada uma das suas possíveis ocorrências ponderadas pela probabilidade de que estas ocorrências aconteçam. | |
E = ∑ k = 0 ∞ k {\displaystyle E\left=\sum _{k=0}^{\infty }k\left} | No caso de variáveis com distribuição, a probabilidade de que determinado evento ocorra é calculado por : f ( k ; λ ) = e − λ λ k k ! {\displaystyle f(k;\lambda )={\frac {e^{-\lambda }\lambda ^{k}}{k!}}} . Portanto, este valor foi substituído na fórmula. | |
E = 0 ⏟ k = 0 + 1 ⏟ k = 1 + 2 ⏟ k = 2 + . . . {\displaystyle E\left={\begin{matrix}\underbrace {0\left} \\k=0\end{matrix}}+{\begin{matrix}\underbrace {1\left} \\k=1\end{matrix}}+{\begin{matrix}\underbrace {2\left} \\k=2\end{matrix}}+...} | Esta expressão equivale à expressão da linha imediatamente superior; apenas se substituiu a expressão de somatório pela soma infinita para melhor compreensão. Note que como o primeiro termo é sempre igual a zero, podemos reescrever E = ∑ k = 0 ∞ k = ∑ k = 1 ∞ k {\displaystyle E\left=\sum _{k=0}^{\infty }k\left=\sum _{k=1}^{\infty }k\left} | |
Como ∑ k = 1 ∞ k = ∑ k = 1 ∞ λ {\displaystyle \sum _{k=1}^{\infty }k\left=\sum _{k=1}^{\infty }\lambda \left} | Fazemos uma substituição para facilitar o cálculo. | |
E = λ ∑ k = 1 ∞ {\displaystyle E\left=\lambda \sum _{k=1}^{\infty }\left} | Tomamos a substituição acima e tiramos a constante λ {\displaystyle \lambda } para fora do somatório (pois o primeiro termo da expressão imediatamente superior é igual à λ ∗ 1 {\displaystyle \lambda *1} . | |
E = λ e − λ ∑ k = 0 ∞ {\displaystyle E\left=\lambda e^{-\lambda }\sum _{k=0}^{\infty }\left} | Nova transformação para facilitar os cálculos... | |
E = λ e − λ {\displaystyle E\left=\lambda e^{-\lambda }} {\displaystyle \left} | Abrindo o somatório, verifica-se que a série converge para e λ {\displaystyle e^{\lambda }} | |
E = λ e − λ e λ {\displaystyle E\left=\lambda e^{-\lambda }e^{\lambda }} | Obtemos e − λ e λ = e 0 = 1 {\displaystyle e^{-\lambda }e^{\lambda }=e^{0}=1} | |
E = λ {\displaystyle E\left=\lambda } | Como queríamos demonstrar |
A variância de uma distribuição de Poisson é igual a λ {\displaystyle \lambda } , como podemos demonstrar.
Sabendo que var ( X ) = E ( X 2 ) − ( E ( X ) ) 2 {\displaystyle \operatorname {var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}} e E ( X ) = λ {\displaystyle {E}(X)=\lambda }
Calculamos o segundo momento E ( X 2 ) {\displaystyle {E}(X^{2})} , para uma variável aleatória discreta:
E = ∑ k = 0 ∞ k 2 {\displaystyle E\left=\sum _{k=0}^{\infty }k^{2}\left} Expandindo o somatório
E = 1 2 + 2 2 + 3 2 + . . . + n 2 + . . . {\displaystyle E\left=1^{2}\left+2^{2}\left+3^{2}\left+...+n^{2}\left+...\!} Simplificando os termos ao quadrado com os fatoriais
E = + 2 + 3 + . . . + n + . . . {\displaystyle E\left=\left+2\left+3\left+...+n\left+...\!} Colocando λ {\displaystyle \lambda } e e − λ {\displaystyle e^{-\lambda }} em evidência
E = e − λ λ {\displaystyle E\left={e^{-\lambda }}{\lambda }{\biggl }}
E = e − λ λ ∑ n = 1 ∞ n {\displaystyle E\left={e^{-\lambda }\lambda }\sum _{n=1}^{\infty }n\left} fazendo n − 1 = k {\displaystyle n-1=k} e n = k + 1 {\displaystyle n=k+1}
E = e − λ λ ∑ k = 0 ∞ {\displaystyle E\left={e^{-\lambda }\lambda }\sum _{k=0}^{\infty }{\left}\left}
E = e − λ λ ∑ k = 0 ∞ {\displaystyle E\left={e^{-\lambda }\lambda }\sum _{k=0}^{\infty }{\left}}
E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left} Série de Taylor Função Exponencial ∑ k = 0 ∞ λ k k ! {\displaystyle \sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}} converge para e λ {\displaystyle e^{\lambda }}
E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left} Expandindo o somatório
E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left} Simplificando os termos ao quadrado com os fatoriais
E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left} Colocando λ {\displaystyle \lambda } em evidência
E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left}
E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left} fazendo k − 1 = n {\displaystyle k-1=n}
E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left} Série de Taylor Função Exponencial ∑ n = 0 ∞ λ n n ! {\displaystyle \sum _{n=0}^{\infty }{\frac {\lambda ^{n}}{n!}}} converge para e λ {\displaystyle e^{\lambda }}
E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }{\biggl }}
E = e − λ λ 2 e λ + e − λ λ e λ {\displaystyle E\left={e^{-\lambda }}{\lambda ^{2}}{e^{\lambda }}+{e^{-\lambda }{\lambda }{e^{\lambda }}}}
E = λ 2 + λ {\displaystyle E\left={\lambda ^{2}}+{\lambda }}
Substituindo E ( X 2 ) {\displaystyle \operatorname {E} (X^{2})} e E ( X ) {\displaystyle {E}(X)} em var ( X ) = E ( X 2 ) − ( E ( X ) ) 2 {\displaystyle \operatorname {var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}}
var ( X ) = λ 2 + λ − λ 2 {\displaystyle \operatorname {var} (X)={\lambda ^{2}}+{\lambda }-{\lambda ^{2}}}
var ( X ) = λ {\displaystyle \operatorname {var} (X)={\lambda }}
A soma de duas variáveis de Poisson independentes é ainda uma variável de Poisson com parâmetro igual à soma dos respectivos parâmetros. Ou seja, se X i ∼ P o i s s o n ( λ i ) {\displaystyle X_{i}\sim \mathrm {Poisson} (\lambda _{i})\,} segue uma distribuição de Poisson com parâmetro λ i {\displaystyle \lambda _{i}\,} e as variáveis aleatórias X i {\displaystyle X_{i}} são estatisticamente independentes, então
Y = ∑ i = 1 N X i ∼ P o i s s o n ( ∑ i = 1 N λ i ) {\displaystyle Y=\sum _{i=1}^{N}X_{i}\sim \mathrm {Poisson} \left(\sum _{i=1}^{N}\lambda _{i}\right)\,} também segue uma distribuição de Poisson cujo parâmetro é igual à soma dos λ i {\displaystyle \lambda _{i}\,} .Por exemplo, X 1 {\displaystyle X_{1}} é uma variável aleatória que representa o número de óbitos por mil nascimentos na cidade "A" (distribuição de Poisson com média 1,2, digamos) e X 2 {\displaystyle X_{2}} é uma variável aleatória que representa o número de óbitos por mil nascimentos na cidade "B" (variável de Poisson com média 3). Ao todo, o número de óbitos por mil nascimentos nas cidades "A" e "B" têm distribuição de Poisson com média ∑ i = 1 2 λ i = 1 , 2 + 3 = 4 , 2 {\displaystyle \sum _{i=1}^{2}\lambda _{i}=1,2+3=4,2} .
Um método rápido e fácil para calcular um intervalo de confiança de aproximada de λ, é proposto na Guerriero (2012). Dado um conjunto de eventos k (pelo menos 15 - 20) ao longo de um período de tempo T, os limites do intervalo confiança para a frequência são dadas por:
F l o w = ( 1 − 1.96 k − 1 ) k T {\displaystyle F_{low}=(1-{\frac {1.96}{\sqrt {k-1}}}){\frac {k}{T}}} F u p p = ( 1 + 1.96 k − 1 ) k T {\displaystyle F_{upp}=(1+{\frac {1.96}{\sqrt {k-1}}}){\frac {k}{T}}}em seguida, os limites do parâmetro λ {\displaystyle \lambda } são dadas por: λ l o w = F l o w T ; λ u p p = F u p p T {\displaystyle \lambda _{low}=F_{low}T;\lambda _{upp}=F_{upp}T} .
A distribuição de Poisson representa um modelo probabilístico adequado para o estudo de um grande número de fenômenos observáveis. Eis alguns exemplos: