Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Introdução à Estatística: Estimação e Inferência, Notas de aula de Estatística

Introdução à Inferência Estatística

Tipologia: Notas de aula

2020

Compartilhado em 23/09/2020

gabriella-livio-10
gabriella-livio-10 🇧🇷

5

(2)

5 documentos

1 / 262

Toggle sidebar

Esta página não é visível na pré-visualização

Não perca as partes importantes!

bg1
Universidade Federal Fluminense
Instituto de Matemática e Estatística
Apostila de Estatística II
AnaMariaLimadeFarias
DepartamentodeEstatística
Agosto2017
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d
pf1e
pf1f
pf20
pf21
pf22
pf23
pf24
pf25
pf26
pf27
pf28
pf29
pf2a
pf2b
pf2c
pf2d
pf2e
pf2f
pf30
pf31
pf32
pf33
pf34
pf35
pf36
pf37
pf38
pf39
pf3a
pf3b
pf3c
pf3d
pf3e
pf3f
pf40
pf41
pf42
pf43
pf44
pf45
pf46
pf47
pf48
pf49
pf4a
pf4b
pf4c
pf4d
pf4e
pf4f
pf50
pf51
pf52
pf53
pf54
pf55
pf56
pf57
pf58
pf59
pf5a
pf5b
pf5c
pf5d
pf5e
pf5f
pf60
pf61
pf62
pf63
pf64

Pré-visualização parcial do texto

Baixe Introdução à Estatística: Estimação e Inferência e outras Notas de aula em PDF para Estatística, somente na Docsity!

Universidade Federal Fluminense

Instituto de Matemática e Estatística

Apostila de Estatística II

Ana Maria Lima de Farias

Departamento de Estatística

Agosto 2017

Conteúdo

  • I Inferência para uma população Conteúdo i
  • 1 Inferência estatística – Conceitos básicos
    • 1.1 Introdução
    • 1.2 População
    • 1.3 Amostra aleatória simples
    • 1.4 Estatísticas e parâmetros
    • 1.5 Distribuições amostrais
    • 1.6 Propriedades de estimadores
    • 1.7 Alguns métodos de obtenção de estimadores
      • 1.7.1 Método dos momentos
      • 1.7.2 Método dos mínimos quadrados
    • 1.8 Exercícios propostos
  • 2 Algumas distribuições amostrais
    • 2.1 Distribuição amostral da média amostral X
      • 2.1.1 Média e variância de X
      • 2.1.2 Populações normais
      • 2.1.3 Teorema Limite Central
      • 2.1.4 Aproximação normal da binomial
    • 2.2 Distribuição amostral da proporção
    • 2.3 Estimadores da variância
    • 2.4 Exercícios propostos ii CONTEÚDO
  • 3 Intervalos de confiança baseados na distribuição normal
    • 3.1 Ideias básicas sobre intervalos de confiança
    • 3.2 Intervalo de confiança para a média de uma população normal, σ^2 conhecida
      • 3.2.1 Margem de erro
      • 3.2.2 Determinação do tamanho da amostra
      • 3.2.3 Intervalos de confiança unilaterais
    • 3.3 Intervalo de confiança para uma proporção
      • 3.3.1 Margem de erro
      • 3.3.2 Determinação do tamanho da amostra
    • 3.4 Exercícios propostos
  • 4 Mais sobre intervalos de confiança para parâmetros da N ( μ ; σ^2 )
    • 4.1 Amostragem de populações normais
      • 4.1.1 A distribuição qui-quadrado
      • 4.1.2 A distribuição t− Student
      • 4.1.3 Fórmulas recursivas para cálculo da média e da variância amostrais
      • 4.1.4 Distribuição amostral de S
      • 4.1.5 Distribuição de X
    • 4.2 Intervalo de confiança para a variância σ
    • 4.3 Intervalo de confiança para a média μ
      • 4.3.1 Margem de erro
      • 4.3.2 Amostras grandes
    • 4.4 Exercícios propostos
  • 5 Testes de hipóteses – Conceitos básicos
    • 5.1 Introdução
    • 5.2 Conceitos básicos
      • 5.2.1 Hipóteses nula e alternativa
      • 5.2.2 Estatística de teste, erros e regra de decisão
      • 5.2.3 Região crítica e nível de significância
    • 5.3 Exercícios propostos CONTEÚDO iii
  • 6 Testes de hipóteses baseados na distribuição normal
    • 6.1 Introdução
    • 6.2 Teste de hipótese sobre a média de uma N ( μ ; σ^2 ) – σ^2 conhecida
    • 6.3 Teste de hipótese sobre uma proporção populacional
    • 6.4 Valor P
      • 6.4.1 Procedimento geral para obtenção do valor P
      • 6.4.2 Valor P e nível de significância
    • 6.5 Função Característica de Operação e Poder do Teste
      • 6.5.1 Poder do teste Z bilateral
      • 6.5.2 Poder do teste Z unilateral
      • 6.5.3 Poder do teste Z bilateral para proporções
      • 6.5.4 Poder do teste Z unilateral para proporções
    • 6.6 Intervalo de confiança e teste de hipótese
    • 6.7 Exercícios propostos
  • 7 Mais sobre testes de hipóteses para parâmetros da N ( μ ; σ^2 )
    • 7.1 Teste de hipótese sobre a variância σ
      • 7.1.1 Poder do teste qui-quadrado para σ
    • 7.2 Teste de hipótese sobre a média μ
      • 7.2.1 Poder do teste t para a média μ
    • 7.3 Exercícios propostos
  • 8 Testes para Normalidade
    • 8.1 Função de distribuição empírica e quantis
    • 8.2 Gráfico dos quantis normais
    • 8.3 Testes de normalidade baseados na distribuição empírica
      • 8.3.1 Teste de Lilliefors (Kolmogorov-Smirnov)
      • 8.3.2 Teste de Anderson-Darling
    • 8.4 Teste de Shapiro-Wilk
    • 8.5 Exercícios propostos
  • II Inferência para duas populações iv CONTEÚDO
  • 9 Inferência com Amostras Independentes
    • 9.1 Introdução
    • 9.2 Definições e notação
    • 9.3 Inferência sobre médias de duas populações normais com variâncias conhecidas
      • 9.3.1 Intervalo de confiança para μ 1 − μ
      • 9.3.2 Teste de hipótese sobre μ 1 − μ
      • 9.3.3 Poder do teste e tamanho de amostra
    • 9.4 Inferência sobre duas proporções - amostras grandes
      • 9.4.1 Intervalo de confiança para p 1 − p
      • 9.4.2 Teste de hipótese sobre p 1 − p
    • 9.5 Inferência sobre variâncias de duas populações normais
      • 9.5.1 A Distribuição F
      • 9.5.2 Comparação das variâncias de duas populações normais
      • 9.5.3 Intervalo de confiança para σ 12 /σ
      • 9.5.4 Teste de hipótese sobre σ 12 /σ
    • 9.6 Inferência sobre médias de duas populações normais com variâncias desconhecidas
      • 9.6.1 Variâncias populacionais iguais
      • 9.6.2 Variâncias populacionais diferentes
    • 9.7 Exercícios Propostos
  • 10 Inferência com Amostras Dependentes
    • 10.1 Intervalo de confiança para μ 1 − μ
    • 10.2 Teste de hipótese sobre μ 1 − μ
    • 10.3 Exercícios Propostos
  • III Análise de variância de um fator
  • 11 Análise de variância de um fator
    • 11.1 Conceitos Básicos
      • 11.1.1 Definições e propriedades básicas
      • 11.1.2 Decomposição da soma dos quadrados total CONTEÚDO v
      • 11.1.3 Graus de liberdade
      • 11.1.4 Médias quadráticas
      • 11.1.5 Tabela da ANOVA
      • 11.1.6 Fórmulas computacionais
    • 11.2 O modelo da ANOVA de um fator
      • 11.2.1 O teste da ANOVA
      • 11.2.2 Estimação das médias
    • 11.3 Verificação das hipóteses do modelo
      • 11.3.1 Independência
      • 11.3.2 Normalidade
      • 11.3.3 Homogeneidade de variâncias
    • 11.4 Exercícios propostos
  • 12 Análise de acompanhamento
    • 12.1 Introdução
    • 12.2 Procedimento de comparações múltiplas de Bonferroni
    • 12.3 A diferença mínima significante de Fisher
    • 12.4 A diferença honestamente significante de Tukey
    • 12.5 Teste de Duncan
  • 13 Análise de dados categóricos
    • 13.1 Introdução
    • 13.2 Dados univariados: Teste de aderência
    • 13.3 Dados bivariados
      • 13.3.1 Amostras independentes: Teste de homogeneidade
      • 13.3.2 Amostras dependentes: Teste de independência
    • 13.4 Exercícios propostos
  • A Tabelas
  • B Solução dos Exercícios
    • B.1 Exercícios do capítulo vi CONTEÚDO
    • B.2 Capítulo
    • B.3 Capítulo
    • B.4 Capítulo
    • B.5 Capítulo
    • B.6 Capítulo
    • B.7 Capítulo
    • B.8 Capítulo
    • B.9 Capítulo
    • B.10 Capítulo
    • B.11 Capítulo
  • C Algumas demonstrações
    • C.1 Transformação de variáveis aleatórias contínuas
    • C.2 Demonstração do Teorema 4.1
  • Bibliografia

Parte I

Inferência para uma população

Capítulo 1

Inferência estatística – Conceitos básicos

1.1 Introdução

A análise de um conjunto de dados por meio de técnicas descritivas (numéricas e gráficas) proporciona uma boa ideia da distribuição desses. Em particular, a distribuição de frequências é um instrumento bastante importante para avaliarmos a variabilidade das observações de um fenômeno aleatório. A partir dessas frequências, podemos calcular medidas de posição e variabilidade como, por exemplo, média, mediana, moda, desvio padrão etc. Tais frequências e medidas calculadas a partir dos dados são, em geral, estimativas de quantidades desconhecidas, associadas a populações das quais os dados foram extraídos na forma de amostras. As frequências relativas, por exemplo, são estimativas de probabilidades de ocorrência de certos eventos de interesse.

Quando realizamos uma análise de dados, é bastante razoável buscarmos alguma forma de regularidade/padrão (ou um modelo) presente nas observações. Com suposições adequadas, e sem observarmos diretamente o fenômeno aleatório de interesse, podemos criar modelos (matemáticos) teóricos capazes de reproduzir, de maneira satisfatória, a distribuição de frequências associada a um fenômeno aleatório diretamente observado. Tais modelos teóricos são chamados modelos probabilísticos e são objeto de estudo nas disciplinas de Teoria das Probabilidades.

Os modelos probabilísticos são, então, utilizados para medir a variabilidade de fenômenos aleatórios de acordo com as suas distribuições de probabilidades, que podem ser referentes a variáveis aleatórias discretas ou contínuas. Na prática, é comum o pesquisador ter alguma ideia sobre a forma da distribuição, mas não dos valores exatos dos parâmetros que a especificam. Surge, assim, a necessidade de descobrirmos (ou estimarmos) os parâmetros da distribuição para a sua posterior utilização.

EXEMPLO 1.1 Altura de adultos

Em um estudo antropométrico em nível nacional, uma amostra de 5000 adultos é selecionada dentre os adultos brasileiros e um dos objetivos é estimar a altura média dos adultos brasileiros.

- Neste exemplo, a população é o conjunto de todos os brasileiros adultos. No entanto, o interesse (um deles, pelo menos) está na altura dos brasileiros. Assim, nesse estudo, a cada sujeito da população associamos um número correspondente à sua altura. Como vimos, essa é a definição de variável aleatória: uma função que associa a cada ponto do espaço amostral (conjunto de todos os brasileiros) um número real. Dessa forma, a nossa população pode ser representada pela variável aleatória X = “altura do adulto brasileiro”. Como essa é uma variável aleatória contínua, a ela está associada uma função densidade de probabilidade f e da literatura, sabemos que é razoável supor

4 CAPÍTULO 1. INFERÊNCIA ESTATÍSTICA – CONCEITOS BÁSICOS

que essa seja a densidade normal. Assim, nossa população, nesse caso, é representada por uma variável aleatória X ∼ N

μ ; σ^2

. Conhecendo os valores de μ e σ teremos informações completas sobre a nossa população. - Uma forma de obtermos os valores de μ e σ é medindo as alturas de todos os brasileiros adultos. Mas esse seria um procedimento caro e demorado. Uma solução, então, é retirar uma amostra (subconjunto) da população e estudar essa amostra. Suponhamos que essa amostra seja retirada com reposição e que os sorteios sejam feitos de forma independente, isto é, o resultado de cada extração não altera o resultado das demais extrações. Ao sortearmos o primeiro elemento, estamos realizando um experimento que dá origem à variável aleatória X 1 =“altura do primeiro elemento”; o segundo elemento dá origem à variável aleatória X 2 =“altura do segundo elemento” e assim por diante. Como as extrações são feitas com reposição, todas as variáveis aleatórias X 1 ; X 2 ; : : : têm a mesma distribuição, que reflete a distribuição da altura de todos os brasileiros adultos. Para uma amostra específica, temos os valores observados x 1 ; x 2 ; : : : dessas variáveis aleatórias.



EXEMPLO 1.

Consideremos, agora, uma pesquisa eleitoral, em que estamos interessados no resultado do segundo turno de uma eleição presidencial brasileira. O interesse final é saber a proporção de votos em um e outro candidato (vamos simplificar a situação ignorando votos nulos, indecisos etc.).

- Mais uma vez, nossos sujeitos de pesquisa são pessoas com 16 anos ou mais, aptas a votar. O interesse final é saber a proporção de votos em cada um dos candidatos. Então, cada sujeito de pesquisa dá origem a uma variável aleatória binária, isto é, uma variável aleatória que assume apenas dois valores. Como visto, podemos representar esses valores por 1 (candidato A) e 0 (candidato B), o que define uma variável aleatória de Bernoulli, ou seja, essa população pode ser representada pela variável aleatória X ∼ Bern ( p ) : O parâmetro p representa a probabilidade de um sujeito dessa população votar no candidato A. Uma outra interpretação é que p representa a proporção populacional de votantes no candidato A. - Como não é viável entrevistar todos os eleitores, utiliza-se uma amostra de eleitores para se obter informação sobre p e cada sujeito de pesquisa indica o candidato em que vai votar (A ou B). Como antes, vamos supor que essa amostra seja retirada com reposição. Ao sortearmos o primeiro elemento, estamos realizando um experimento que dá origem à variável aleatória X 1 = “voto do primeiro elemento”; o segundo elemento dá origem à variável aleatória X 2 = “voto do segundo elemento” e assim por diante. Como as extrações são feitas com reposição, todas as variáveis aleatórias X 1 ; X 2 ; : : : têm a mesma distribuição de Bernoulli populacional, isto é, Xi ∼ Bern ( p ) ; i = 1 ; 2 ; : : : e são independentes.



EXEMPLO 1.3 Duração de lâmpadas

Suponha que estejamos interessados em estudar o tempo de vida, medido em horas, das lâmpadas produzidas por uma determinada empresa. Para esse tipo de teste, é necessário deixar as lâmpadas acesas até que se queimem.

- Neste exemplo, a população alvo é formada por todas as lâmpadas fabricadas ou que venham a ser fabricadas pela empresa, o que caracteriza uma população teoricamente infinita. Um modelo teórico (probabilístico) possível para a distribuição da variável populacional “tempo de vida” é a distribuição exponencial com parâmetro λ.

6 CAPÍTULO 1. INFERÊNCIA ESTATÍSTICA – CONCEITOS BÁSICOS

Uma forma de se obter uma amostra aleatória simples é escrever os números ou nomes dos elementos da população em cartões iguais, colocar estes cartões em uma urna misturando-os bem e fazer os sorteios necessários, tendo o cuidado de colocar cada cartão sorteado na urna antes do próximo sorteio. Na prática, em geral são usados programas de computador, uma vez que as populações tendem a ser muito grandes.

Agora vamos formalizar o processo de seleção de uma amostra aleatória simples, de forma a relacioná-lo com os problemas de inferência estatística que iremos estudar.

Seja uma população representada por uma variável aleatória X : De tal população será sorteada uma amostra aleatória simples com reposição de tamanho n. Como visto nos exemplos anteriores, cada sorteio dá origem a uma variável aleatória Xi e, como os sorteios são com reposição, todas essas variáveis são independentes e têm a mesma distribuição de X : Isso nos leva à seguinte definição.

DEFINIÇÃO Amostra aleatória simples

Uma amostra aleatória simples (aas) de tamanho n de uma variável aleatória X (população) com distribuição de probabilidade f é um conjunto de n variáveis aleatórias X 1 ; X 2 ; :::; Xn independentes e identicamente distribuídas (iid) com Xi ∼ f.

É interessante notar a convenção usual: o valor observado de uma variável aleatória X é representado pela letra minúscula correspondente. Assim, depois do sorteio de uma amostra aleatória simples de tamanho n , temos valores observados x 1 ; x 2 ; : : : ; xn das respectivas variáveis aleatórias.

1.4 Estatísticas e parâmetros

Obtida uma amostra aleatória simples, é possível calcular diversas características desta amostra, como, por exemplo, a média, a mediana, a variância etc. Qualquer uma destas características é uma função de X 1 ; X 2 ; :::; Xn e, portanto, é também uma variável aleatória (o seu valor depende da amostra sorteada). Por exemplo, a média amostral é a variável aleatória definida por

X =

X 1 + X 2 + · · · + Xn n

Temos, então, a seguinte definição:

DEFINIÇÃO Estatística amostral

Uma estatística amostral (ou simplesmente estatística) T é qualquer função da amostra X 1 ; X 2 ; :::; Xn que não dependa de parâmetros desconhecidos, isto é,

T = g ( X 1 ; X 2 ; :::; Xn )

em que g é uma função qualquer que não depende de parâmetros desconhecidos.

Algumas estatísticas amostrais são

1.4. ESTATÍSTICAS E PARÂMETROS 7

- média amostral X =

X 1 + X 2 + · · · + Xn n

- variância amostral

S^2 =

n − 1

∑^ n

i =

( Xi − X )^2 (1.2)

- mínimo amostral Y (1) = min {X 1 ; X 2 ; : : : ; Xn} - máximo amostral Y ( n ) = max {X 1 ; X 2 ; : : : ; Xn} - amplitude amostral W = Y ( n ) − Y (1)

Note que nenhuma das funções acima depende de qualquer parâmetro desconhecido. Por exemplo,

a função Z = X − μ σ /

n

não é uma estatística, pois depende dos parâmetros desconhecidos μ e σ.

É comum usar o termo estimador no lugar de estatística. Note que, sendo as estatísticas variáveis aleatórias, elas são representadas por letras maiúsculas: X , Y , Z etc. Para uma amostra específica, o valor obtido para o estimador será denominado estimativa e será representada por letras minúsculas. Por exemplo, temos as seguintes notações correspondentes à média e à variância amostrais:

- Estimadores: X e S^2 - Estimativas: x e s^2

De forma análoga, temos as características de interesse da população. No entanto, para diferenciar entre as duas situações (população e amostra), atribuímos nomes diferentes.

DEFINIÇÃO Parâmetro

Um parâmetro é uma característica da população.

Assim, se a população é representada pela variável aleatória X , alguns parâmetros são a esperança E( X ) (média) e a variância Var( X ) de X.

Com relação às características mais usuais, vamos usar a seguinte notação:

Característica Parâmetro Estatística (população) (amostra)

Média μ X Variância σ^2 S^2 Número de elementos N n

1.5. DISTRIBUIÇÕES AMOSTRAIS 9

Tabela 1.1 – Distribuição amostral da média amostral

Amostra Probabilidade Média amostral x (1 ; 1) (1 / 4) × (1 / 4) = 1 / 16 (1 + 1) / 2 = 1 (1 ; 3) (1 / 4) × (1 / 4) = 1 / 16 (1 + 3) / 2 = 2 (1 ; 4) (1 / 4) × (1 / 4) = 1 / 16 (1 + 4) / 2 = 2 ; 5 (1 ; 8) (1 / 4) × (1 / 4) = 1 / 16 (1 + 8) / 2 = 4 ; 5 (3 ; 1) (1 / 4) × (1 / 4) = 1 / 16 (3 + 1) / 2 = 2 (3 ; 3) (1 / 4) × (1 / 4) = 1 / 16 (3 + 3) / 2 = 3 (3 ; 4) (1 / 4) × (1 / 4) = 1 / 16 (3 + 4) / 2 = 3 ; 5 (3 ; 8) (1 / 4) × (1 / 4) = 1 / 16 (3 + 8) / 2 = 5 ; 5 (4 ; 1) (1 / 4) × (1 / 4) = 1 / 16 (4 + 1) / 2 = 2 ; 5 (4 ; 3) (1 / 4) × (1 / 4) = 1 / 16 (4 + 3) / 2 = 3 ; 5 (4 ; 4) (1 / 4) × (1 / 4) = 1 / 16 (4 + 4) / 2 = 4 (4 ; 8) (1 / 4) × (1 / 4) = 1 / 16 (4 + 8) / 2 = 6 (8 ; 1) (1 / 4) × (1 / 4) = 1 / 16 (8 + 1) / 2 = 4 ; 5 (8 ; 3) (1 / 4) × (1 / 4) = 1 / 16 (8 + 3) / 2 = 5 ; 5 (8 ; 4) (1 / 4) × (1 / 4) = 1 / 16 (8 + 4) / 2 = 6 (8 ; 8) (1 / 4) × (1 / 4) = 1 / 16 (8 + 8) / 2 = 8

Analisando esta tabela, podemos ver que os possíveis valores de X são 1; 2; 2,5; 3; 3,5; 4; 4,5; 5,5; 6; 8 e podemos construir a sua função de de probabilidade, notando, por exemplo, que o valor 2 pode ser obtido através de duas amostras: (1,3) ou (3,1). Como essas amostras correspondem a eventos mutuamente exclusivos, a probabilidade de se obter uma média amostral igual a 2 é

P
X = 2
= P [(1 ; 3) ∪ (3 ; 1)] = P [(1 ; 3)] + P [(3 ; 1)] =

Com o mesmo raciocínio, obtemos a seguinte função de probabilidade para X :

x 1 2 2 ; 5 3 3 ; 5 4 4 ; 5 5 ; 5 6 8 P( X = x ) 1 / 16 2 / 16 2 / 16 1 / 16 2 / 16 1 / 16 2 / 16 2 / 16 2 / 16 1 / 16

Note que a variável aleatória de interesse aqui é X! Daí segue que

E( X ) = 1 ×
+ 2 ×
+ 2 ; 5 ×
+ 3 ×
+ 3 ; 5 ×
4 ×
+ 4 ; 5 ×
+ 5 ; 5 ×
+ 6 ×
+ 8 ×

= 4 ; 0 = μ

E( X

2 ) = 12 ×

+ 2^2 ×
+ 2 ; 52 ×
+ 3^2 ×
+ 3 ; 52 ×
42 ×
+ 4 ; 52 ×
+ 5 ; 52 ×
+ 6^2 ×
+ 8^2 ×

Var( X ) = 19 ; 25 42 = 3 ; 25 =

σ^2 2

σ^2 n

Neste exemplo podemos ver que E( X ) = μ e Var( X ) = σ^2 / 2 , onde 2 é o tamanho da amostra. Esses resultados estão nos dizendo que, em média (esperança), a estatística X é igual à média da população e que sua variância é igual à variância da população dividida pelo tamanho da amostra. Nas Figuras 1.

10 CAPÍTULO 1. INFERÊNCIA ESTATÍSTICA – CONCEITOS BÁSICOS

e 1.2 temos os gráficos da função de probabilidade de X (população) e de X (amostra), respectivamente. Podemos ver que a distribuição de X tem menor dispersão em torno da média μ = 4. Note que essa média e essa variância são calculadas ao longo de todas as possíveis amostras aleatórias simples de tamanho 2.

Figura 1.1 – Distribuição de probabilidade de X (população)

Figura 1.2 – Distribuição de probabilidade de X – ( n = 2)

Consideremos, agora, a mesma situação, só que, em vez de estudarmos a média amostral, uma medida de posição, vamos estudar a dispersão. Como visto, a variância populacional é Var( X ) = 6 ; 5. Para a amostra, vamos trabalhar com dois estimadores. Um deles será S^2 ; definido na Equação (1.2) e o outro,

σ ̂^2 =

n

∑^ n

i =

Xi − X

Da mesma forma que fizemos para a média amostral, vamos calcular o valor dessas estatísticas para cada uma das amostras. Na Tabela 1.2 temos os resultados parciais e globais de interesse.

Tabela 1.2 – Distribuição amostral de 2 estimadores da variância

Amostra x ( x 1 − x )^2 ( x 2 − x )^2

∑^2

i =

( xi − x )^2 S^2 σ ̂^2

(1 ; 1) 1 (1 1)^2 (1 1)^2 0 0 (1 ; 3) 2 (1 2)^2 (3 2)^2 2 2 (1 ; 4) 2 ; 5 (1 2 ; 5)^2 (4 2 ; 5)^2 4 ; 5 4 ; 5 2 ; 25 (1 ; 8) 4 ; 5 (1 4 ; 5)^2 (8 4 ; 5)^2 24 ; 5 24 ; 5 12 ; 25 (3 ; 1) 2 (3 2)^2 (1 2)^2 2 2 (3 ; 3) 3 (3 3)^2 (3 3)^2 0 0 (3 ; 4) 3 ; 5 (3 3 ; 5)^2 (4 3 ; 5)^2 0 ; 5 0 ; 5 0 ; 25 (3 ; 8) 5 ; 5 (3 5 ; 5)^2 (8 5 ; 5)^2 12 ; 5 12 ; 5 6 ; 25 (4 ; 1) 2 ; 5 (4 2 ; 5)^2 (1 2 ; 5)^2 4 ; 5 4 ; 5 2 ; 25 (4 ; 3) 3 ; 5 (4 3 ; 5)^2 (3 3 ; 5)^2 0 ; 5 0 ; 5 0 ; 25 (4 ; 4) 4 (4 4)^2 (4 4)^2 0 0 (4 ; 8) 6 (4 6)^2 (8 6)^2 8 8 (8 ; 1) 4 ; 5 (8 4 ; 5)^2 (1 4 ; 5)^2 24 ; 5 24 ; 5 12 ; 25 (8 ; 3) 5 ; 5 (8 5 ; 5)^2 (3 5 ; 5)^2 12 ; 5 12 ; 5 6 ; 25 (8 ; 4) 6 (8 6)^2 (4 6)^2 8 8 (8 ; 8) 8 (8 8)^2 (8 8)^2 0 0

Podemos ver que a função de probabilidade de S^2 é

s^2 0 0 ; 5 2 4 ; 5 8 12 ; 5 24 ; 5 P( S^2 = s^2 ) 4 / 16 2 / 16 2 / 16 2 / 16 2 / 16 2 / 16 2 / 16

12 CAPÍTULO 1. INFERÊNCIA ESTATÍSTICA – CONCEITOS BÁSICOS

(a) (b)

(c) (d)

Figura 1.3 – Propriedades de estimadores

em torno do alvo, isto é, têm menor dispersão. Isso refletiria uma pontaria mais certeira do atirador em (b). Analogamente, nas partes (c) e (d), embora ambos os atiradores estejam com a mira deslocada, os tiros do atirador (d) estão mais concentrados em torno de um alvo; o deslocamento poderia até ser resultado de um desalinhamento da arma. Já o atirador (c), além de estar com o alvo deslocado, ele tem os tiros mais espalhados, o que reflete menor precisão.

- Nas partes (a) e (b), temos dois estimadores que fornecem estimativas centradas em torno do verdadeiro valor do parâmetro, ou seja, as diferentes amostras fornecem valores distribuídos em torno do verdadeiro valor do parâmetro. A diferença é que em (a) esses valores estão mais dispersos e, assim, temos mais chance de obter uma amostra “infeliz”, ou seja, uma amostra que forneça um resultado muito afastado do valor do parâmetro. Essas duas propriedades estão associadas à esperança e à variância do estimador, que são medidas de centro e dispersão, respectivamente. - Nas partes (c) e (d), as estimativas estão centradas em torno de um valor diferente do parâmetro de interesse e, na parte (c), a dispersão é maior.

Temos, assim, ilustrados os seguintes conceitos.

1.6. PROPRIEDADES DE ESTIMADORES 13

DEFINIÇÃO Viés de um estimador

Seja X 1 ; X 2 ; · · · ; Xn uma amostra aleatória simples de uma população X , cuja lei de probabilidade depende de um parâmetro θ. Se T é um estimador de θ , definimos seu viés ou vício como

B( T ) = E( T ) − θ (1.4) Se B( T ) = 0 então E( T ) = θ e dizemos que T é um estimador não-viesado de θ.

Como nos exemplos vistos, a esperança E( T ) é calculada ao longo de todas as possíveis amostras, ou seja, é a esperança da distribuição amostral de T. Nas partes (a) e (b) da Figura 1.3 os estimadores são não-viesados e nas partes (c) e (d), os estimadores são viesados.

Com relação aos estimadores X ; S^2 e ̂ σ^2 ; provaremos, no próximo capítulo, que os dois primeiros são não-viesados para estimar a média e a variância populacionais, respectivamente, enquanto ̂ σ^2 é viesado para estimar a variância populacional.

DEFINIÇÃO Eficiência de um estimador

Se T 1 e T 2 são dois estimadores não-viesados do parâmetro θ; diz-se que T 1 é mais eficiente que T 2 ; se Var( T 1 ) < Var( T 2 ) :

Na Figura 1.3, o estimador da parte (b) é mais eficiente que o estimador da parte (a).

É interessante observar que o conceito de eficiência, que envolve a variabilidade de um estimador, está associado a estimadores não-viesados. Para analisar estimadores viesados, podemos usar o erro quadrático médio, definido a seguir.

DEFINIÇÃO Erro quadrático médio

Seja X 1 ; X 2 ; · · · ; Xn uma amostra aleatória simples de uma população X , cuja lei de probabilidade depende de um parâmetro θ. Se T é um estimador de θ , definimos seu erro quadrático médio como

EQM( T ) = E ( T − θ )^2 (1.5)