As regras fundamentais do cálculo de probabilidades do capítulo anterior são a base de toda a Teoria da Probabilidade. No entanto, ainda não temos os meios para lidar com experiências aleatórias para além das mais simples.
Temos, por isso, interesse em abandonar a formalização particular de cada experiência aleatória e levar o cálculo de probabilidades para um campo comum e mais familiar – \(\mathbb{R}\).
\(\implies\) Variáveis aleatórias
Um par de tiragens
Considere uma caixa com 4 peças boas (\(B\)) e 5 peças defeituosas (\(D\)) da qual são retiradas 2 peças ao acaso.
Espaço de resultados: \(\Omega=\left\lbrace BB,BD,DB,DD\right\rbrace\)
\(P(BB)=\frac{4}{9}\times \frac{3}{8}=\frac{1}{6}\)
\(P(BD)=\frac{4}{9}\times \frac{5}{8}=\frac{5}{18}=\frac{5}{9}\times \frac{4}{8}=P(DB)\)
\(P(DD)=\frac{5}{9}\times \frac{4}{8}=\frac{5}{18}\)
(continuação)
Seja \(X\)=“número de peças defeituosas nas 2 extracções”.
\(P(X=0)=P(\{BB\})=\frac{1}{6}\)
\(P(X=1)=P(\{BD,DB\})=\frac{5}{9}\)
\(P(X=2)=P(\{DD\})=\frac{5}{18}\)
Nota
\(P(X=0)+P(X=1)+P(X=2)=P(\Omega)=1\)
Seja \((\Omega,\mathcal{A},P)\) um espaço de probabilidade. Uma função \(X:\Omega\rightarrow\mathbb{R}\) em que \[\{\omega\in\Omega : X(\omega) \leq x\} \in \mathcal{A},\,\forall x\in\mathbb{R},\] diz-se uma variável aleatória.
Com a introdução de variáveis aleatórias o cálculo de probabilidades passa de
\[P(A),\,A\subset \Omega\]
para
\[P(X\in R),\, R\subset \mathbb{R}.\]
Seja \(X\) uma variável aleatória. A função de distribuição de \(X\) é definida por \[F_X(x)=P(X\in ]-\infty, x])=P(X\leq x),\,\forall x\in \mathbb{R}\]
\(\forall (x,y)\in\mathbb{R}^2 : x< y \implies F_X(x)\leq F_X(y)\) (função não decrescente)
\(\lim_\limits{x\rightarrow-\infty}F_X(x)=0\) e \(\lim_\limits{x\rightarrow+\infty}F_X(x)=1\)
\(\lim_\limits{x\rightarrow x_0^+}F_X(x)=F_X\left(x_0\right),\) \(\forall x_0\in\mathbb{R}\) (função contínua à direita nos pontos de descontinuidade)
\[P(X\leq x) = P(X< x) + P(X= x)\] \[\iff\] \[F_X(x) = F_X(x^-) + P(X= x)\]
Temos então
\[P(X=x)=F_X(x)-F_X(x^-),\,\forall x\in \mathbb{R}.\]
Seja \(D\) o conjunto (numerável) dos pontos de descontinuidade de \(F_X\).
\(D=\emptyset \implies\) variável aleatória contínua
\(D\neq\emptyset\) e \(P(X\in D)=1 \implies\) variável aleatória discreta
\(D\neq\emptyset\) e \(P(X\in D)<1 \implies\) variável aleatória mista
A função (massa) de probabilidade de \(X\) é definida por \[f_X(x)=P(X=x),\ x\in \mathbb{R}.\]
(continuação)
Nota
A função de probabilidade descreve a variação da função de distribuição.
Caracterização de uma função de probabilidade
Uma função \(f\) definida em \(\mathbb{R}\), positiva apenas num conjunto \(D\), finito ou infinito numerável, tal que
\(f(x)\geq 0,\,\forall x\in\mathbb{R}\)
\(\sum_\limits{x\in D}{f(x)}=1\)
é uma função de probabilidade.
Notas
\(P(X\in A)=\sum_\limits{x_i\in A}{f_X(x_i)}\), \(\forall A\subset \mathbb{R}\)
\(F_X(x)=P(X\leq x)=\sum_\limits{x_i\leq x}{f_X(x_i)}\), \(\forall x\in\mathbb{R}\)
Já vimos que, quando uma função de distribuição não tem pontos de descontinuidade, a variável aleatória se diz contínua.
A função definida por \[f_X(x)=\frac{dF_X(x)}{dx},\] nos pontos onde \(F_X\) é diferenciável, diz-se a função densidade de probabilidade da variável aleatória \(X\).
Uma variável aleatória contínua simples
Cálculo de probabilidades
Caracterização de uma função densidade de probabilidade
Uma função \(f\) definida em \(\mathbb{R}\) tal que
\(f(x)\geq 0\), \(\forall x\in\mathbb{R}\)
\(\int_\limits{-\infty}^{+\infty}f(x)\,dx=1\)
é uma função densidade de probabilidade.
A função de distribuição ou a função (densidade) de probabilidade são descrições probabilísticas completas de uma variável aleatória.
Frequentemente há interesse em caracterizar aspetos particulares de uma variável aleatória através do cálculo de medidas numéricas que os quantifiquem.
Vários aspetos de uma variável aleatória podem ser caracterizados:
Localização
Dispersão
Assimetria, achatamento, etc.
Valor esperado
O valor esperado ou esperança matemática da variável aleatória \(X\), caso exista, é dado por \[E[X]=\sum_{i}{x_if_X(x_i)}\left(=\int_{\mathbb{R}}{xf_X(x)\, dx}\right).\]
Nota
O valor esperado pode não existir!
Seja \(f_X(x)=\dfrac{1}{\pi(1+x^2)}\), com \(x\in \mathbb{R}\).
Pode mostrar-se que:
\(\int_{\mathbb{R}}f_X(x)\,dx=1\)
\(\int_{\mathbb{R}}xf_X(x)\,dx\) não existe
Nota
O valor esperado de uma variável aleatória não pertence necessariamente ao contradomínio da variável!
Seja \(f_X(x)=\begin{cases} \frac{1}{2}, & x=0 \text{ ou } x=1\\ 0, & \text{caso contrário} \end{cases}\)
\(E[X]=\sum_{i}{x_if_X(x_i)}=\frac{1}{2}\)
Teorema \[E[g(X)]=\sum_{i}{g(x_i)\,f_X(x_i)}\left(=\int_{\mathbb{R}}{g(x)\,f_X(x)\, dx}\right)\]
Corolário \[E[aX+b]=aE[X]+b,\ \forall (a,b)\in \mathbb{R}^2\]
Variância, desvio padrão e coeficiente de variação
A variância da variável aleatória \(X\), caso exista, é definida por \[Var[X]=E\left[(X-E[X])^2\right].\]
O desvio padrão de \(X\) é igual a \(+\sqrt{Var[X]}\).
Algumas propriedades da variância
\(Var[X]=0\iff P(X=c)=1\)
\(Var[X]=E[X^2]-\left(E[X]\right)^2\)
\(Var[aX+b]=a^2Var[X]\), \(\forall (a,b)\in \mathbb{R}^2\)
O coeficiente de variação da variável aleatória \(X\) é definido por \[C_V=\frac{+\sqrt{Var[X]}}{\left|E[X]\right|},\] desde que \(E[X]\neq 0\).
Moda
Para além das medidas anteriores há outras que não se baseiam em valores esperados.
Moda(s) de \(X=\) \(\arg\max_\limits{x\in\mathbb{R}} f_X(x)\)
A moda pode . . .
não existir
\(f_X(x)=\begin{cases} -\log(x), & 0<x<1\\ 0, & \text{caso contrário} \end{cases}\)
ser única (distribuição unimodal)
ser múltipla (distribuição multimodal)
ser . . . inútil
Quantis
Para \(0<p<1\), o valor \(q_p\) diz-se o quantil de ordem \(\mathbf{p}\) se \[\begin{cases}P\left(X\leq q_p\right)\geq p\\[0.2cm] P\left(X\geq q_p\right)\geq 1-p\end{cases}\] ou, equivalentemente, se \[F_X(q_p^-)\leq p \leq F_X(q_p)\]
No caso discreto, as expressões anteriores são necessárias para calcular quantis.
No caso contínuo o cálculo simplifica-se pois \(F_X(x^-)=F_X(x)\).
O quantil \(q_p\) é assim qualquer solução da equação: \[F_X(q_p)=p\]
Alguns quantis notáveis:
\(q_{0.25}\) – primeiro quartil
\(q_{0.50}\) – segundo quartil
\(q_{0.75}\) – terceiro quartil
O segundo quartil é mais conhecido como Mediana e é uma importante medida de localização.
A diferença \(q_{0.75}-q_{0.25}\) é chamada a Amplitude Interquartis que é usada como uma medida de dispersão.
Nenhum quantil é necessariamente único. Na prática usa-se com frequência:
\[q_p = \min_\limits{x\in\mathbb{R}} \left\{F_X(x^-)\leq p \leq F_X(x)\right\}\]
Um joguinho simples
O jogador \(A\) propõe um jogo de dados ao jogador \(B\) com as seguintes regras:
O jogador \(B\) paga €5 de aposta e lança um dado:
se sair 4 ou 5 o jogador \(B\) recebe o valor da aposta;
se sair 6 o jogador \(B\) recebe €20.
Qual o lucro mais provável do jogador \(B\) numa jogada?
Será este um jogo justo?
Medidas de localização
\[f_X(x)=\begin{cases} 1/2, & 0\leq x <1 \\ 1/4, & 1 \leq x \leq 3 \\ 0, & \text{caso contrário} \end{cases}\]
Qual é o valor da mediana? O valor esperado é igual, menor ou maior do que a mediana? Vale a pena falar da moda?