Distribuição de Poisson

Aspeto mover para a barra lateral ocultar Função de probabilidade da distribuição de Poisson para vários valores de λ.

Na teoria da probabilidade e na estatística, a distribuição de Poisson é uma distribuição de probabilidade discreta que expressa a probabilidade de um determinado número de eventos ocorrer em um intervalo fixo de tempo ou espaço se esses eventos ocorrerem com uma taxa média constante conhecida e independentemente do tempo desde o último evento.

A distribuição foi descoberta por Siméon Denis Poisson (1781–1840) e publicada, conjuntamente com a sua teoria da probabilidade, em 1838 no seu trabalho Recherches sur la probabilité des jugements en matières criminelles et matière civile ("Pesquisa sobre a probabilidade em julgamentos sobre matérias criminais e civis"). O trabalho focava-se em certas variáveis aleatórias N que contavam, entre outras coisas, o número de ocorrências discretas de um certo fenômeno durante um intervalo de tempo de determinada duração. A probabilidade de que existam exactamente k ocorrências (k sendo um inteiro não negativo, k = 0, 1, 2, ...) é

f ( k ; λ ) = e − λ λ k k ! , {\displaystyle f(k;\lambda )={\frac {e^{-\lambda }\lambda ^{k}}{k!}},\,\!}

onde

Como função de k, esta é a função de probabilidade. A distribuição de Poisson pode ser derivada como um caso limite da distribuição binomial.

Processo de Poisson

A distribuição de Poisson aparece em vários problemas físicos, com a seguinte formulação: considerando uma data inicial (t = 0), seja N(t) o número de eventos que ocorrem até uma certa data t. Por exemplo, N(t) pode ser um modelo para o número de impactos de asteroides maiores que um certo tamanho desde uma certa data de referência.

Uma aproximação que pode ser considerada é que a probabilidade de acontecer um evento em qualquer intervalo não depende (no sentido de independência estatística) da probabilidade de acontecer em qualquer outro intervalo disjunto.

Neste caso, a solução para o problema é o processo estocástico chamado de Processo de Poisson, para o qual vale:

P = e − λ t ( λ t ) k k ! , {\displaystyle P={\frac {e^{-\lambda t}(\lambda t)^{k}}{k!}},\,\!}

em que λ é uma constante (de unidade inversa da unidade do tempo).

Ou seja, o número de eventos até uma época qualquer t é uma distribuição de Poisson com parâmetro λ t.

Propriedades

Média

O valor esperado de uma distribuição de Poisson é igual a λ. Esta propriedade pode ser derivada facilmente:


Em linguagem matemática Em Português
E = ∑ k = 0 ∞ k P {\displaystyle E\left=\sum _{k=0}^{\infty }k\mathbb {P} \left} Por definição, a esperança de uma variável aleatória X é igual à soma de cada uma das suas possíveis ocorrências ponderadas pela probabilidade de que estas ocorrências aconteçam.
E = ∑ k = 0 ∞ k {\displaystyle E\left=\sum _{k=0}^{\infty }k\left} No caso de variáveis com distribuição, a probabilidade de que determinado evento ocorra é calculado por : f ( k ; λ ) = e − λ λ k k ! {\displaystyle f(k;\lambda )={\frac {e^{-\lambda }\lambda ^{k}}{k!}}} . Portanto, este valor foi substituído na fórmula.
E = 0 ⏟ k = 0 + 1 ⏟ k = 1 + 2 ⏟ k = 2 + . . . {\displaystyle E\left={\begin{matrix}\underbrace {0\left} \\k=0\end{matrix}}+{\begin{matrix}\underbrace {1\left} \\k=1\end{matrix}}+{\begin{matrix}\underbrace {2\left} \\k=2\end{matrix}}+...} Esta expressão equivale à expressão da linha imediatamente superior; apenas se substituiu a expressão de somatório pela soma infinita para melhor compreensão. Note que como o primeiro termo é sempre igual a zero, podemos reescrever E = ∑ k = 0 ∞ k = ∑ k = 1 ∞ k {\displaystyle E\left=\sum _{k=0}^{\infty }k\left=\sum _{k=1}^{\infty }k\left}
Como ∑ k = 1 ∞ k = ∑ k = 1 ∞ λ {\displaystyle \sum _{k=1}^{\infty }k\left=\sum _{k=1}^{\infty }\lambda \left} Fazemos uma substituição para facilitar o cálculo.
E = λ ∑ k = 1 ∞ {\displaystyle E\left=\lambda \sum _{k=1}^{\infty }\left} Tomamos a substituição acima e tiramos a constante λ {\displaystyle \lambda } para fora do somatório (pois o primeiro termo da expressão imediatamente superior é igual à λ ∗ 1 {\displaystyle \lambda *1} .
E = λ e − λ ∑ k = 0 ∞ {\displaystyle E\left=\lambda e^{-\lambda }\sum _{k=0}^{\infty }\left} Nova transformação para facilitar os cálculos...
E = λ e − λ {\displaystyle E\left=\lambda e^{-\lambda }} {\displaystyle \left} Abrindo o somatório, verifica-se que a série converge para e λ {\displaystyle e^{\lambda }}
E = λ e − λ e λ {\displaystyle E\left=\lambda e^{-\lambda }e^{\lambda }} Obtemos e − λ e λ = e 0 = 1 {\displaystyle e^{-\lambda }e^{\lambda }=e^{0}=1}
E = λ {\displaystyle E\left=\lambda } Como queríamos demonstrar

Variância ( var ⁡ ( X ) {\displaystyle \operatorname {var} (X)} , σ X 2 {\displaystyle \sigma _{X}^{2}} ou σ 2 {\displaystyle \sigma ^{2}} )

A variância de uma distribuição de Poisson é igual a λ {\displaystyle \lambda } , como podemos demonstrar.

Sabendo que var ⁡ ( X ) = E ⁡ ( X 2 ) − ( E ⁡ ( X ) ) 2 {\displaystyle \operatorname {var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}} e E ( X ) = λ {\displaystyle {E}(X)=\lambda }

Calculamos o segundo momento E ( X 2 ) {\displaystyle {E}(X^{2})} , para uma variável aleatória discreta:

E = ∑ k = 0 ∞ k 2 {\displaystyle E\left=\sum _{k=0}^{\infty }k^{2}\left} Expandindo o somatório

E = 1 2 + 2 2 + 3 2 + . . . + n 2 + . . . {\displaystyle E\left=1^{2}\left+2^{2}\left+3^{2}\left+...+n^{2}\left+...\!} Simplificando os termos ao quadrado com os fatoriais

E = + 2 + 3 + . . . + n + . . . {\displaystyle E\left=\left+2\left+3\left+...+n\left+...\!} Colocando λ {\displaystyle \lambda } e e − λ {\displaystyle e^{-\lambda }} em evidência

E = e − λ λ {\displaystyle E\left={e^{-\lambda }}{\lambda }{\biggl }}

E = e − λ λ ∑ n = 1 ∞ n {\displaystyle E\left={e^{-\lambda }\lambda }\sum _{n=1}^{\infty }n\left} fazendo n − 1 = k {\displaystyle n-1=k} e n = k + 1 {\displaystyle n=k+1}

E = e − λ λ ∑ k = 0 ∞ {\displaystyle E\left={e^{-\lambda }\lambda }\sum _{k=0}^{\infty }{\left}\left}

E = e − λ λ ∑ k = 0 ∞ {\displaystyle E\left={e^{-\lambda }\lambda }\sum _{k=0}^{\infty }{\left}}

E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left} Série de Taylor Função Exponencial ∑ k = 0 ∞ λ k k ! {\displaystyle \sum _{k=0}^{\infty }{\frac {\lambda ^{k}}{k!}}} converge para e λ {\displaystyle e^{\lambda }}

E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left} Expandindo o somatório

E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left} Simplificando os termos ao quadrado com os fatoriais

E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left} Colocando λ {\displaystyle \lambda } em evidência

E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left}

E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left} fazendo k − 1 = n {\displaystyle k-1=n}

E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }\left} Série de Taylor Função Exponencial ∑ n = 0 ∞ λ n n ! {\displaystyle \sum _{n=0}^{\infty }{\frac {\lambda ^{n}}{n!}}} converge para e λ {\displaystyle e^{\lambda }}

E = e − λ λ {\displaystyle E\left={e^{-\lambda }\lambda }{\biggl }}

E = e − λ λ 2 e λ + e − λ λ e λ {\displaystyle E\left={e^{-\lambda }}{\lambda ^{2}}{e^{\lambda }}+{e^{-\lambda }{\lambda }{e^{\lambda }}}}

E = λ 2 + λ {\displaystyle E\left={\lambda ^{2}}+{\lambda }}

Substituindo E ⁡ ( X 2 ) {\displaystyle \operatorname {E} (X^{2})} e E ( X ) {\displaystyle {E}(X)} em var ⁡ ( X ) = E ⁡ ( X 2 ) − ( E ⁡ ( X ) ) 2 {\displaystyle \operatorname {var} (X)=\operatorname {E} (X^{2})-(\operatorname {E} (X))^{2}}

var ⁡ ( X ) = λ 2 + λ − λ 2 {\displaystyle \operatorname {var} (X)={\lambda ^{2}}+{\lambda }-{\lambda ^{2}}}

var ⁡ ( X ) = λ {\displaystyle \operatorname {var} (X)={\lambda }}

Soma de variáveis

A soma de duas variáveis de Poisson independentes é ainda uma variável de Poisson com parâmetro igual à soma dos respectivos parâmetros. Ou seja, se X i ∼ P o i s s o n ( λ i ) {\displaystyle X_{i}\sim \mathrm {Poisson} (\lambda _{i})\,} segue uma distribuição de Poisson com parâmetro λ i {\displaystyle \lambda _{i}\,} e as variáveis aleatórias X i {\displaystyle X_{i}} são estatisticamente independentes, então

Y = ∑ i = 1 N X i ∼ P o i s s o n ( ∑ i = 1 N λ i ) {\displaystyle Y=\sum _{i=1}^{N}X_{i}\sim \mathrm {Poisson} \left(\sum _{i=1}^{N}\lambda _{i}\right)\,} também segue uma distribuição de Poisson cujo parâmetro é igual à soma dos λ i {\displaystyle \lambda _{i}\,} .

Por exemplo, X 1 {\displaystyle X_{1}} é uma variável aleatória que representa o número de óbitos por mil nascimentos na cidade "A" (distribuição de Poisson com média 1,2, digamos) e X 2 {\displaystyle X_{2}} é uma variável aleatória que representa o número de óbitos por mil nascimentos na cidade "B" (variável de Poisson com média 3). Ao todo, o número de óbitos por mil nascimentos nas cidades "A" e "B" têm distribuição de Poisson com média ∑ i = 1 2 λ i = 1 , 2 + 3 = 4 , 2 {\displaystyle \sum _{i=1}^{2}\lambda _{i}=1,2+3=4,2} .

Intervalo de confiança

Um método rápido e fácil para calcular um intervalo de confiança de aproximada de λ, é proposto na Guerriero (2012). Dado um conjunto de eventos k (pelo menos 15 - 20) ao longo de um período de tempo T, os limites do intervalo confiança para a frequência são dadas por:

F l o w = ( 1 − 1.96 k − 1 ) k T {\displaystyle F_{low}=(1-{\frac {1.96}{\sqrt {k-1}}}){\frac {k}{T}}} F u p p = ( 1 + 1.96 k − 1 ) k T {\displaystyle F_{upp}=(1+{\frac {1.96}{\sqrt {k-1}}}){\frac {k}{T}}}

em seguida, os limites do parâmetro λ {\displaystyle \lambda } são dadas por: λ l o w = F l o w T ; λ u p p = F u p p T {\displaystyle \lambda _{low}=F_{low}T;\lambda _{upp}=F_{upp}T} .


Exemplos

A distribuição de Poisson representa um modelo probabilístico adequado para o estudo de um grande número de fenômenos observáveis. Eis alguns exemplos:

Ligações externas

Referências

  1. Haight, Frank A. (1967). Handbook of the Poisson Distribution. : John Wiley & Sons. ISBN 978-0-471-33932-8  A referência emprega parâmetros obsoletos |Título= (ajuda)
  2. Sayan Mukherjee. Lecture 6.5.- Poisson processes. In: PROBABILITY AND STATISTICS IN ENGINEERING. http://www.isds.duke.edu/courses/Fall06/sta113/poisson.pdf
  3. V, Guerriero (2012). «Power Law Distribution: Method of Multi-scale Inferential Statistics». J. Mod. Math. Fr