Estatística
Ciência que estuda a
de dados.
Uma população é um conjunto de entidades que têm pelo menos uma característica (variável estatística) em comum.
Uma amostra é um conjunto retirado de uma população com o objetivo de a representar.
Estatística descritiva
Descrição dos dados recorrendo a:
Estatística inferencial
Uso de dados para aprender algo sobre a população que se admite que representam.
Baseia-se na Teoria da Probabilidade.
Objectivo
Estudo de uma variável estatística numa população
\(\Updownarrow\) Estatística paramétrica \(\Updownarrow\)
Estudo de uma variável aleatória \(X\) com distribuição conhecida, \(f_X(x;\theta)\), mas em que \(\theta\in\Theta\subset \mathbb{R}^k\) tem um valor desconhecido.
Nota
\(\theta\) é um vector de parâmetros e \(\Theta\) é o espaço paramétrico (conjunto de valores possíveis para \(\theta\)).
Uma amostra aleatória simples é uma sucessão de variáveis aleatórias \(\mathbf{X}=(X_1,\ldots,X_n)\) independentes e identicamente distribuídas de acordo com a distribuição que se admite para a variável estatística na população.
Nota
Cada amostra observada é uma concretização particular da amostra aleatória!
\(x_1,\ldots,x_n\) – amostra observada de dimensão \(n\)
\(x_{(1)},\ldots,x_{(n)}\) – amostra observada ordenada por ordem crescente
A informação amostral
a distribuição da amostra aleatória:
\[f_{\mathbf{X}}(x_1,\ldots,x_n\mid\theta)=\prod_{i=1}^{n}{f_{X_i}(x_i\mid\theta)}=\prod_{i=1}^{n}{f_{X}(x_i\mid\theta)}\]
A informação amostral é resumida através do uso de estatísticas.
Uma estatística é uma função da amostra aleatória \[T=T(X_1,\ldots,X_n)=T(\mathbf{X})\]
Nota
Se a distribuição de \(T(\mathbf{X})\) depende de \(\theta\) então os valores observados da estatística devem conter informação sobre o valor de \(\theta\) na população.
Algumas estatísticas
\(\bar{X}=\frac{\sum_{i=1}^n{X_i}}{n}\) – média amostral;
\(S_n^2=\frac{\sum_{i=1}^n{(X_i-\bar{X})^2}}{n}\) – variância amostral;
\(S^2=\frac{\sum_{i=1}^n{(X_i-\bar{X})^2}}{n-1}\) – variância amostral (corrigida);
\(X_{(1)}=\min\left\{ X_1,\ldots,X_n\right\}\) – mínimo amostral;
\(X_{(n)}=\max\left\{ X_1,\ldots,X_n\right\}\) – máximo amostral.
Estimação pontual \(\equiv\) cálculo, a partir de uma amostra observada, de valores plausíveis para os parâmetros da distribuição da variável estatística de interesse numa população.
Um estimador pontual de um parâmetro \(\theta\) é uma qualquer função da amostra aleatória que não dependa de parâmetros cujo valor seja desconhecido (estatística).
Uma estimativa pontual de um parâmetro \(\theta\) é um valor observado de um estimador pontual desse parâmetro.
Estimação numa população Normal
Seja \(X_1,\ldots,X_n\) uma amostra aleatória de uma população com distribuição \(N(\mu,\sigma^2)\).
Alguns estimadores possíveis para \(\mu\) são:
\(\bar{X}\) – média amostral
mediana amostral
moda amostral
\(\frac{X_{(1)}+X_{(n)}}{2}\) – centro do intervalo de variação amostral
. . .
Como avaliar estimadores?
Há um grande número de critérios para avaliar e comparar estimadores de acordo com diferentes propriedades desejáveis.
Podemos avaliar a exatidão de um estimador recorrendo ao seu valor esperado.
Um estimador pontual \(T\) de um parâmetro \(\theta\) diz-se centrado se e só se \[E[T]=\theta,\, \forall \theta\in\Theta.\]
Podemos avaliar a precisão de um estimador recorrendo à sua variância.
E podemos avaliar em conjunto as duas caraterísticas usando o erro quadrático médio.
O erro quadrático médio de um estimador pontual \(T\) de um parâmetro \(\theta\) é definido por \[EQM_{\theta}[T]=E\left[(T-\theta)^2\right]=Var[T]+\left(E[T]-\theta\right)^2.\]
Como obter estimadores ou estimativas?
Diversos métodos de estimação estão disponíveis:
Método da máxima verosimilhança
Método dos mínimos quadrados
. . .
Método da máxima verosimilhança
Retomemos a distribuição amostral
\[f_{\mathbf{X}}(x_1,\ldots,x_n\mid\theta)=\prod_{i=1}^{n}{f_{X_i}(x_i\mid\theta)}=\prod_{i=1}^{n}{f_{X}(x_i\mid\theta)}\]
No caso discreto, esta função dá-nos a probabilidade de se observar qualquer ponto amostral \((x_1,\ldots,x_n)\) dado um valor de \(\theta\).
Estimação numa população de Bernoulli
Numa amostra de dimensão 10 de uma população \(X\sim \text{Ber}(p)\) observou-se \(\sum_{i=1}^{10}x_i=3\).
Tendo em conta que \(p\in\{1/4,1/2, 3/4\}\), como podemos estimar o valor desconhecido de \(p\)?
A função \(\mathcal{L}(\theta\mid\mathbf{x})\equiv f_{\mathbf{X}}(\mathbf{x}\mid\theta)\) diz-se uma função de verosimilhança.
O valor \[ \hat{\theta}=\arg\max_{\theta\in\Theta}\mathcal{L}(\theta\mid\mathbf{x})\] diz-se a estimativa de máxima verosimilhança do parâmetro \(\theta\).
Notas
O estimador associado, quando é determinável analiticamente, diz-se o estimador de máxima verosimilhança;
Frequentemente é mais conveniente maximizar \(\log \mathcal{L}(\theta\mid\mathbf{x})\).
Estimação numa população Geométrica
Seja \(X_1,\ldots,X_n\) uma amostra aleatória de uma população com distribuição \(Geo(p)\), com \(0<p<1\).
Determine o estimador de máxima verosimilhança do parâmetro \(p\) e de \(q=P(X>1)\).
Invariância dos estimadores de máxima verosimilhança
Seja \(\hat{\theta}\) o estimador de máxima verosimilhança de um parâmetro \(\theta\in\Theta\subset\mathbb{R}^k\) e \(g\) uma função de \(\mathbb{R}^k\) em \(\mathbb{R}^p\) com \(p\leq k\). Então, o estimador de máxima verosimilhança de \(g(\theta)\) é \(g(\hat{\theta})\).
Seja \(X_1,\ldots,X_n\) uma amostra aleatória de \(X\) com distribuição uniforme contínua num intervalo \((0,\theta)\) em que \(\theta\in\mathbb{R}^+\).
Determine o estimador de máxima verosimilhança de \(\theta\).
Já vimos que
\[E[\bar{X}]=E[X]\]
Temos ainda que
\[Var[\bar{X}]=\frac{Var[X]}{n}\]
Melhor ainda é conhecer a distribuição amostral de um estimador ou estatística!
Teorema (revisão) Seja \(X_1,\ldots,X_n\) uma amostra aleatória de uma população \(N(\mu,\sigma^2)\). Então
\[\bar{X}\sim N\left( \mu,\frac{\sigma^2}{n}\right) \iff \frac{\bar{X}-\mu}{\frac{\sigma}{\sqrt{n}}}\sim N(0,1)\]
Para populações não normais, se a amostra for suficientemente grande, podemos aplicar o Teorema do Limite Central, obtendo-se:
\[ \frac{\bar{X}-E[X]}{\sqrt{\frac{Var[X]}{n}}}\stackrel{a}{\sim} N(0,1) \iff \bar{X}\stackrel{a}{\sim} N\left( E[X],\frac{Var[X]}{n}\right)\]
Estimação numa população de Bernoulli
Seja \(X_1,\ldots,X_n\) uma amostra aleatória de uma população com distribuição \(Ber(p)\). Para \(n\) suficientemente grande tem-se
\[\frac{\bar{X}-p}{\sqrt{\frac{p(1-p)}{n}}}\stackrel{a}{\sim} N(0,1)\iff \bar{X}\stackrel{a}{\sim} N\left( p,\frac{p(1-p)}{n}\right)\]
Teorema
Se \(X\sim N(0,1)\) então \(Y=X^2\sim \chi_{(1)}^2\).
Se \(X_1,\ldots,X_n\) são variáveis aleatórias independentes com \(X_i\sim\chi_{(1)}^2\) então \(Y=\sum_{i=1}^n{X_i}\sim \chi_{(n)}^2\).
Uma variável aleatória \(X\) com função densidade de probabilidade dada por \[f_Y(y)=\frac{(1/2)^{n/2}}{\Gamma\left(n/2\right)}y^{n/2-1}e^{-y/2},\, y>0,\] diz-se que tem uma distribuição do qui-quadrado com \(n\) graus de liberdade, \(X\sim \chi_{(n)}^2\), \(n\in\mathbb{N}\).
Distribuições do qui-quadrado
Aplicações
Sejam \(X_1,\ldots,X_n\) variáveis aleatórias independentes com \(X_i\sim N\left(\mu,\sigma^2\right)\). Então:
\(\dfrac{\sum_{i=1}^n{(X_i-\mu)^2}}{\sigma^2}\sim \chi_{(n)}^2\);
\(\dfrac{\sum_{i=1}^n{(X_i-\bar{X})^2}}{\sigma^2}=\frac{(n-1)S^2}{\sigma^2}\sim \chi_{(n-1)}^2\).
Teorema Se \(X\sim N(0,1)\) e \(Y\sim\chi_{(n)}^2\) são variáveis aleatórias independentes então \[\frac{X}{\sqrt{Y/n}}\sim t_{(n)}.\]
Uma variável aleatória com a função densidade de probabilidade \[f_X(x)=\frac{\Gamma\left(\frac{n+1}{2}\right)}{\sqrt{n\pi}\Gamma\left(\frac{n}{2}\right)}\left(1+\frac{x^2}{n}\right)^{-\frac{n+1}{2}},\, x\in\mathbb{R}\] diz-se que tem uma distribuição t-Student com \(n\) graus de liberdade, \(X\sim t_{(n)}\), \(n\in\mathbb{N}\).
Notas
Distribuições t-Student
Aplicação
Seja \(X_1,\ldots,X_n\) uma amostra aleatória de uma população com distribuição \(N(\mu,\sigma^2)\).
Então, \[ \frac{\bar{X}-\mu}{\frac{S}{\sqrt{n}}}\sim t_{(n-1)}.\]