Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Análise de Componentes Principais: Um Estudo de Caso, Notas de aula de Probabilidade

et alii – Multivariate Data Analysis, 5ed., Prentice Hall Inc. Upper Saddle River, N.J. (1998). Hair, Joseph F. Jr. et alii – Análise de Dados Multivariados, ...

Tipologia: Notas de aula

2022

Compartilhado em 07/11/2022

Nazario185
Nazario185 🇧🇷

4.7

(68)

223 documentos

1 / 105

Toggle sidebar

Esta página não é visível na pré-visualização

Não perca as partes importantes!

bg1
CE-704 ANÁLISE MULTIVARIADA APLICADA À
PESQUISA
NOTAS DE AULA
Estas notas de aula seguem de muito perto os livros referenciados na
BIBLIOGRAFIA e que na verdade correspondem aos livros textos deste Curso.
Sugere-se a sua aquisição. A única finalidade destas notas é facilitar o trabalho do
aluno em sala de aula, de modo que não há necessidade de anotar todo o conteúdo
apresentado pelo professor. A leitura, consulta e resolução de exercícios do livro é
dever do aluno.
Prof. Anselmo Chaves Neto
BIBLIOGRAFIA
Johnson, R. A. & Wichern, D.W. Applied Multivariate Statistical Analysis;
4ed. Prentice Hall Inc., Englewood NJ (1998).
Mardia, K. V. Kent, J. T. & Bibby, J.M. Multivariate Analysis; Academic
Press, New York (1978).
Morrison, D.F. Multivariate Statistical Methods - McGraw Hill, N.Y., 1971.
Hair, Joseph F. Jr. et alii Multivariate Data Analysis, 5ed., Prentice Hall Inc.
Upper Saddle River, N.J. (1998).
Hair, Joseph F. Jr. et alii Análise de Dados Multivariados, Prentice Hall Inc.,
Bookman Edt./Artmédia Edt., Porto Alegre, 2005.
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d
pf1e
pf1f
pf20
pf21
pf22
pf23
pf24
pf25
pf26
pf27
pf28
pf29
pf2a
pf2b
pf2c
pf2d
pf2e
pf2f
pf30
pf31
pf32
pf33
pf34
pf35
pf36
pf37
pf38
pf39
pf3a
pf3b
pf3c
pf3d
pf3e
pf3f
pf40
pf41
pf42
pf43
pf44
pf45
pf46
pf47
pf48
pf49
pf4a
pf4b
pf4c
pf4d
pf4e
pf4f
pf50
pf51
pf52
pf53
pf54
pf55
pf56
pf57
pf58
pf59
pf5a
pf5b
pf5c
pf5d
pf5e
pf5f
pf60
pf61
pf62
pf63
pf64

Pré-visualização parcial do texto

Baixe Análise de Componentes Principais: Um Estudo de Caso e outras Notas de aula em PDF para Probabilidade, somente na Docsity!

CE-704 ANÁLISE MULTIVARIADA APLICADA À

PESQUISA

NOTAS DE AULA

Estas notas de aula seguem de muito perto os livros referenciados na BIBLIOGRAFIA e que na verdade correspondem aos livros textos deste Curso. Sugere-se a sua aquisição. A única finalidade destas notas é facilitar o trabalho do aluno em sala de aula, de modo que não há necessidade de anotar todo o conteúdo apresentado pelo professor. A leitura, consulta e resolução de exercícios do livro é dever do aluno.

Prof. Anselmo Chaves Neto

BIBLIOGRAFIA

Johnson, R. A. & Wichern, D.W. – Applied Multivariate Statistical Analysis; 4ed. Prentice Hall Inc., Englewood NJ (1998). Mardia, K. V. Kent, J. T. & Bibby, J.M. – Multivariate Analysis; Academic Press, New York (1978). Morrison, D.F. – Multivariate Statistical Methods - McGraw Hill, N.Y., 1971. Hair, Joseph F. Jr. et alii – Multivariate Data Analysis, 5ed., Prentice Hall Inc. Upper Saddle River, N.J. (1998). Hair, Joseph F. Jr. et alii – Análise de Dados Multivariados, Prentice Hall Inc., Bookman Edt./Artmédia Edt., Porto Alegre, 2005.

ÍNDICE

    1. INTRODUÇÃO
    • 1.1 - Conceitos Básicos
    • 1.2 - Estatísticas Descritivas
    • 1.3 - Distância
      • 1.4.3- Relação entre coeficiente de similaridade e distância
    1. ÁLGEBRA MATRICIAL E VETORES ALEATÓRIOS
    • 2.1 - Álgebra Matricial
    • 2.2 - Matriz e Vetor Aleatório
  • 3 - MATRIZ DE DADOS, VETOR DE MÉDIAS E MATRIZ DE COVARIÂNCIA
    • 3.1- Matriz de Dados
    • 3.2- Vetor de Médias
    • 3.3- Matriz de Covariâncias Amostral e Matriz de Correlação Amostral
    • 3.4- Vetores Aleatórios
  • 4- ANÁLISE DA ESTRUTURA DE COVARIÂNCIA
    • 4.1- Componentes Principais
      • 4.1.1- Introdução
      • 4.1.2- Componentes Principais da População
      • 4.1.3 Componentes principais obtidas de v.a‟s padronizadas
      • 5.1.4 Componentes principais a partir da amostra
    • 5.2- Análise Fatorial
      • 5.2.1- Introdução
      • 5.2.2- Objetivos da Análise Fatorial
      • 5.2.3- Suposições da Análise Fatorial
      • 5.2.4- O Modelo Fatorial Ortogonal
      • 5.2.5- Estimação
      • 5.2.6- Rotação dos Fatores
      • 5.2.7- Escores Fatoriais
        • 5.2.7.1 Método dos Mínimos Quadrados
    • 5.3. Análise de Correlação Canônica
    • 5.3. Análise de Correlação Canônica
      • 5.3.1. Introdução
      • 5.3.2. Variáveis Canônicas e Correlações Canônicas
      • 5.3.3. Escores e Predição
  • PADRÕES 6- DISCRIMINAÇÃO, CLASSIFICAÇÃO E RECONHECIMENTO DE
    • 6.1.Introdução
    • 6.2 Problema geral de reconhecimento e classificação
      • 6.2.1. Introdução
      • 6.2.2. Regiões de classificação para duas populações
      • 6.2.3. Matriz do Custo de Reconhecimento (classif.) Errado e ECM
      • 6.2.4. Critério TPM
      • 6.2.5. Classificação com duas populações Normais Multivariadas
      • 6.2.6. Classificação Quadrática,
    • 6.3- Discriminação e Classificação entre Populações: Método de Fisher
      • 6.3.1- Função Discriminante Linear de Fisher Para duas Populações
      • 6.3.2- Discriminação entre Diversas Populações
    • 6.4 Avaliação de funções de reconhecimento e classificação
      • 6.4.1. Critério TPM
      • 6.4.2. Abordagem de Lachenbruch
    • 6.5. Reconhecimento de padrões envolvendo várias populações (grupos)
      • 6.5.1. Introdução
      • 6.5.2 Método do Mínimo Custo Esperado de Mistura
      • 6.5.3. Regra do mínimo ECM em custos iguais de reconhecimento errado
    • 6.6. RECONHECIMENTO DE PADRÕES COM POPS. GAUSSIANAS
    • BASEADA NA DIST. DE MAHALANOBIS 6.7. REGRA DE RECONHECIMENTO PARA VÁRIAS POPS. COM IGUAL VARIÂNCIA
    1. REGRESSÃO LOGÍSTICA: MODELO PARA VARIÁVEIS DICOTÔMICAS.
    • 7.1. Introdução
    • 7.2. Modelo Linear Geral
    • 7.3. Modelo Logístico Linear Simples
    • 7.4. Modelo Logístico Linear Múltiplo
    1. ANÁLISE DE AGRUPAMENTOS (CLUSTER ANALYSIS)
    • 8.1- Introdução
    • 8.2- Medidas de Similaridades
      • 8.2.1- Distâncias e Coeficientes de Similaridades para Pares de Itens
      • 8.2.2. Relação entre coeficiente de similaridade e distância
    • 8.3- Agrupamento Hierárquico
    • 8.4- Ligações
      • 8.4.1- Ligação Simples (ou vizinho mais próximo)
      • 8.4.2- Ligação Completa (vizinho mais longe)
      • 8.4.3- Ligação Média
      • 8.4.5- Método de Agrupamento Não-hierárquico
    1. DISTRIBUIÇÃO NORMAL MULTIVARIADA
    • 9.1 - Introdução
    • 9.2 - A função densidade de probabilidade da Normal p-variada
    • 9.3 - Contornos (contours) em densidades de probabilidade constante
    • 9.4 - Estatísticas suficientes
    • 9.5 – Distribuição amostral de X e S
    • multivariadas e regiões de confiança 9.6- Testes sobre os parâmetros de locação e de dispersão de distribuições normais
      • 9.6.1- Testes da Razão de Verossimilhança
      • 9.6.2- Seja testar a hipótese H 0 : = 0 quando é conhecida e X ~ Np( , )
      • 9.6.3- Seja testar a hipótese H 0 : = 0 quando é desconhecido e X ~ Np( , )
      • 9.6.4- Seja testar a hipótese H 0 : = 0 quando é desconhecido e X ~Np( , )
      • 9.6.5- Região de Confiança do vetor de médias
      • 9.6.6- Seja testar a hipótese de matrizes de covariâncias iguais, ou seja:
      • 9.6.7- Verificação da Gaussianidade para distribuições bivariadas
    1. COMPARAÇÃO ENTRE VETORES MÉDIOS
    • 10.1- Comparação entre dois vetores médios: teste T^2 de Hotelling
    • 10.2- Comparação entre vários vetores médios: Manova
  • BIBLIOGRAFIA

ANÁLISE MULTIVARIADA

1. INTRODUÇÃO

1.1 - Conceitos Básicos

ANÁLISE MULTIVARIADA: é um conjunto de técnicas estatísticas que tratam dos dados correspondentes às medidas de muitas variáveis simultaneamente. Basicamente, a Análise Multivariada consiste no estudo estatístico dos problemas relacionados com:

Inferências sobre médias multivariadas; Análise da estrutura de covariância de uma matriz de dados; Técnicas de reconhecimento de padrão, classificação e agrupamento.

No estudo de p 1 variáveis, geralmente, toma-se n observações de cada variável para obter informações sobre parâmetros, relacionamentos entre variáveis, comparações, etc. Assim, as medidas registradas são xij com i = 1,2, ... ,n (observações) e j = 1,2, ... ,p (variáveis) que podem ser agrupadas na matriz de dados (^) nXp , com n linhas e p colunas

nXp =

x x x x x x

x x x

p p

n n np

11 12 1 21 22 2

1 2

A matriz de dados (^) nXp contém n observações do vetor aleatório p-dimensional X‟ = [X 1 , X 2 , ..... , XP].

EXEMPLO 1:

Uma amostra aleatória composta por quatro (4) notas de vendas de livros de uma livraria foi obtida a fim de investigar-se a natureza dos livros vendidos. Cada nota fiscal especifica, entre outras coisas, o número de livros vendidos e o valor de cada venda. Seja a 1ª variável o total vendido em reais e a 2ª variável o número de livros vendidos. Assim, seja o vetor aleatório X‟ = [X 1 X 2 ] cujas componentes são as v.a‟s: X 1 (valor da venda) e X 2 (número de livros).

A matriz de dados é (^) nXp =

36 3

b) a matriz de covariância amostral S. Solução: Calcule a variância de cada variável, depois calcule a covariância entre elas usando as fórmulas e a calculadora, ou então, use os resultados da tabela anterior para montar a matriz. Lembre que a covariância s 12 = 12 s 1 s 2. A matriz de covariância é:

S =

  1. 6667 0. 66667

Veja que s^21 = 385 é a variância amostral e estima a verdadeira variância populacional 12 ; s 12 = 14,6667 é a covariância amostral e s^22 = 0,6667 é a estimativa amostral de 22. Finalmente, a matriz S é a estatística que estima o verdadeiro parâmetro (matriz de covariância populacional).

c) a matriz de correlação amostral R. Solução: Calcule o coeficiente de correlação ˆ 12 = r 12 entre as duas variáveis usando as fórmulas e a calculadora, ou então, pegue a matriz diretamente no STATGRAPHICS. A matriz de correlação é:

R = ˆ =

Finalmente, a matriz R é a estatística que estima o verdadeiro parâmetro (matriz de correlação populacional).

  1. Você sabia que a correlação entre as v.a‟s X e Y é igual a covariância entre as v.a‟s X e Y padronizadas? Prove este fato.

Prova : Por definição a covariância entre duas v.a‟s é dada por:

cov(X, Y) = E[(X - (^) X)(Y - (^) Y)] e dividindo pelo produto dos desvios padrões (^) X Y tem-se o quociente:

X Y

cov(X,Y )

X Y

E[(X X^ )(Y Y)]= E[

Y

Y X

(X X^ )(Y )] que é a covariância entre

duas v.a‟s padronizadas. Então o coeficiente de correlação = E[ Y

Y X

(X X^ )(Y )]

é a covariância entre duas v.a‟s padronizadas.

1.3 - Distância

Várias técnicas estatísticas são baseadas no conceito simples de distância. A distância Euclidiana entre os pontos P e O Rp, ou seja, do ponto P(x 1 , x 2 , ..... , xp) até a

origem O(0, 0, .... , 0) é a distância na linha reta d(PO) dada de acordo com o Teorema de Pitágoras:

d(PO) = x 12 x 22 ...... xp^2

e a distância de P(x 1 , x 2 , ..... , xp) ao ponto Q(y 1 , y 2 , ..... , yp) é dada por:

d(PQ) = ( x 1 y 1 ) 2 ....... ( x (^) p yp)^2

Contudo, a distância Euclidiana não é satisfatória em várias propostas estatísticas porque cada coordenada contribui igualmente para o cálculo da distância. Quando as coordenadas são medidas de v.a‟s de diferentes magnitudes (escalas), (p.ex. x 1 é da ordem de 1; 0,5; 2; 0,1; etc e x 2 é da ordem de 1000; 5652; 15314; etc.), variabilidades fortemente diferenciadas, é preferível ponderar as coordenadas de acordo com as variâncias. Isto produz a chamada distância estatística. Na figura a seguir observa-se que a variância da v.a no sentido horizontal é maior que a variância da v.a no sentido vertical V(X 1 ) > V(X 2 )

X 2

X 1

X 1

Assim, pondera-se as v.a‟s dividindo-as pelo seu desvio padrão, ou seja:

x 1 *^ = x 1 / 1 e x 2 *^ = x 2 / (^2)

E a distância Euclidiana entre o ponto P*(X 1 , X 2 ) e a origem O(0,0) é:

d(P*O) = dij = 2 2

2 2 2 1

2 1 s

x s

x que é conhecida como DISTÂNCIA ESTATÍSTICA.

Considerando x 'i e y 'j R^3 , com 1 , 2 e 3 sendo os desvios padrões das v.a‟s

correspondentes às componentes (direções) 1, 2 e 3, a distância Estatística entre os

pontos x 'ie y 'jé dada por:

dij = 2 3

2 i 3 j 3 2 2

2 i 2 j 2 2 1

2 (xi 1 yj 1 ) (x y ) (x y )

1.4- Medidas de Similaridade

1.4.1- Introdução

Muitas vezes as variáveis estudadas só podem ser medidas na escala nominal e, conseqüentemente, não é adequado calcular uma medida de distância. O procedimento adotado, então, é baseado no pareamento de atributo. Assim, tem-se as medidas de similaridade que consideram atributos comuns.

EXEMPLO 1:

Considere quatro refrigerantes e quatro atributos relacionados na tabela a seguir:

ATRIBUTO

REFRIGERANTE Sabor cola

Cafeína Diet Fabricado pela Coca-cola

Coca-cola 1 1 0 1 Pepsi-cola 1 1 0 0 Diet Coca 1 1 1 1 Livre de Cafeína e Diet Coca

Uma medida de similaridade entre Coca-cola e Pepsi-cola corresponde ao número de empates no total de atributos, ou seja, ¾. Pode-se construir a matriz de similaridade entre os quatro produtos com base nessa medida de similaridade. A seguir tem-se essa matriz de similaridade.

CokeP epsiDPepsiCFDCoke

S =

CFDCoke

DCoca

Pepsi

Coke

1.4.2- Coeficientes de Similaridade

O entendimento do conceito de coeficiente de similaridade fica mais claro a partir do próximo exemplo.

EXEMPLO

Seja p = 5 variáveis binárias que indicam a presença (1) ou a ausência (0) de certas características nos objetos A e B, na tabela adiante:

CARACTERÍSTICAS OBJETO C1 C2 C3 C4 C a 1 0 0 1 1 B 1 1 0 1 0

A distância Euclidiana entre A e B ao quadrado d^2 A B a b 2 ( , ) é dada por:

d 2 (A,B) 02 ( 1 )^20202122

E, d^2 (A,B) fornece uma medida do número de não emparelhamentos no par de objetos e é claro que um número grande de não emparelhamentos indica uma menor semelhança. Fica claro que uma ponderação nos empates (emparelhamentos) em (1-1) e (0-

  1. é necessária, pois pode ocorrer da presença de uma característica ser mais forte do que a ausência. Por exemplo: se 1 significa “lê grego antigo” é óbvio que o empate em 1-1 é maior indicador de semelhança que o empate 0-0 (não lê grego antigo). Assim é razoável diminuir o número de igualdades 0-0 ou até desconsiderá-las completamente. Portanto, desse tratamento diferenciado para empates 1-1 e 0-0 surgiram diversos esquemas para definir os coeficientes de similaridades.

Seja a tabela de contingência para os itens i e k:

item k 1 0 TOTAL item i 1 0

a b c d

a + b c + d TOTAL a + c b + d p = a + b + c + d

onde: a é a freqüência de igualdades 1- b é a “ “ desigualdades 1- c é a “ “ “ 0- d é a “ “ igualdades 0-

Assim, os coeficientes usuais de similaridade são dados na tabela adiante:

não-negativa definida e ~ s (i, i) = 1. Desta forma d(i, k) = 2 ( 1 ~s(i,k)) tem as

propriedades de uma distância.

1.4.4- Similaridade e medida de associação para pares de variáveis

Quando as variáveis são binárias, os dados podem ser colocados na forma de uma tabela de contingência. As variáveis, melhor do que os objetos delineiam as categorias. Para cada par de variáveis existem n objetos categorizados na tabela. Assim tem-se:

Variável k Total variável i 1 0

a b c d

a+b c+d Total a + c b + d n

e o coeficiente de correlação amostral, calculado com base na tabela de contingência,

é ( a b )( c d )( a c )( b d )

r ad bc que pode ser tomado como uma medida de

similaridade entre i e k.

EXERCÍCIOS

  1. Um conjunto de pares de medidas de duas v.a‟s tem o vetor médio ‟ = [0, 0] e variâncias 12 = 4 e 22 = 1. Seja o ponto x R^2 com coordenadas (x 1 , x 2 ). Suponha que as v.a‟s X 1 e X 2 não sejam correlacionadas.

a) Calcule a distância estatística do ponto x de coordenadas (x 1 , x 2 ) à origem.

R .: d(P,O) = 1

x 4

x (^1222)

b) Construa o gráfico do lugar geométrico dos pontos cuja distância estatística à origem é 1.

R .: O lugar geométrico especificado é a elipse com equação 1

x 4

x (^1222) = 1.

c) Escreva também a equação deste lugar geométrico para uma distância c e ainda o gráfico nesta situação genérica.

R .: 2 2

2 2 2 1

2 x^1 x = c^2.

d) Faça o gráfico dos pontos cuja distância à origem é 1.

Considerando x 1 = x e x 2 = y.

e) Faça o gráfico dos pontos cuja distância à origem é c. R .: O gráfico é uma elipse e os pontos onde o eixo das abscissas corta a elipse são: (-c 1 , 0) e (c 1 , 0); e os pontos onde o eixo das ordenadas corta a curva são: (0, -c 1 ) e (0, c 1 ), ou melhor, (-2c, 0) e (2c, 0) na horizontal e (0, -c) e (0, c).

  1. Escreva a expressão da distância estatística do ponto P de coordenadas x‟s ao ponto Q de coordenadas y‟s, ambos situados no Rp. Sabe-se que cada coordenada distinta tem variância (^) i^2 i = 1,2, ....,p.

R. : d(P,Q) = 2 p

2 p p 2 2

2 2 2 2 1

2 (x 1 y 1 ) (x y ) ... (x y )

OBS.: O lugar geométrico dos pontos P que têm a mesma distância ao quadrado do ponto Q jazem sobre um hiperelipsóide de centro em Q cujos eixos maior e menor são paralelos aos eixos das coordenadas.

2. ÁLGEBRA MATRICIAL E VETORES ALEATÓRIOS

2.1 - Álgebra Matricial

Um arranjo x de números reais x 1 , x2, ...... , xp é chamado vetor e é escrito como

x =

x x

x (^) p

1 2 ...

ou x‟= [x 1 x 2 ... xp] (vetor transposto).

Um vetor pode ter o seu módulo contraído ou aumentado quando é multiplicado por uma constante c, cx‟= [cx 1 cx 2 ....... cxp] e a adição de vetores é feita somando-se os elementos componentes dos vetores (ordenadamente), ou seja:

EXERCÍCIOS

  1. Verifique se os vetores x‟= [1 2 1], y‟ = [1 0 -1] e z‟= [1 -2 1] são linearmente independentes.

  2. Verifique se os vetores x‟= [1 1 3] e y‟= [4 4 12] são independentes.

  3. Mostre que a matriz A =

admite inversa.

Matriz Ortogonal : uma matriz quadrada A é chamada de ortogonal quando suas linhas consideradas como vetores são mutuamente perpendiculares e têm comprimentos unitários, isto é: A‟A = I e consequentemente A‟ = A-1.

Autovalores e autovetores : uma matriz quadrada A é dita ter um autovalor ( eigenvalue ) com correspondente autovetor e‟ 0 ( eigenvector ) se Ae = e.

RESULTADO 2.

Uma matriz quadrada simétrica A de ordem k x k tem k pares de autovalor e autovetor, ou seja:

( 1 ,e 1 ), ( 2 ,e 2 ), .... ,( (^) k,ek)

OBS. Os autovetores podem ser escolhidos de modo a terem o comprimento igual a 1, ou seja, e‟.e = 1. Isto chama-se “padronizar os autovetores”.

RESULTADO 2.

Seja A uma matriz quadrada de ordem k x k e I a matriz identidade de ordem kxk, então os escalares 1 , 2 , ..... , (^) k satisfazendo a equação A - I = 0 são os autovalores de A.

EXERCÍCIOS:

  1. Determine os autovalores e autovetores da matriz 1 3

R. : Resolva a equação A - I = 0 para achar os autovalores e, com eles, use a definição para achar os autovetores. Como a matriz não é simétrica não é possível usar o STATGRAPHICS para achar os autovalores e autovetores. Contudo isto pode ser feito com o MATLAB ou MAPLE, etc.

  1. Determine os autovalores e autovetores da matriz 1 3

R. : Resolva a A - I = 0 para achar os autovalores e, com eles, use a definição para achar os autovetores. Na prática use o STATGRAPHICS seguindo o seguinte caminho: SPECIAL, MULTIVARIATE METHODS, PRINCIPAL COMP0NENTS.

Os autovalores são: 1 = 3.41421 e 2 = 0.585786, obtidos em Analysis Summary. Já os autovetores são: e ' 1 = [0.382683 0.92388] e e ' 2 = [0.92388 - 0.382683] obtidos em Component Weights.

  1. Dada a matriz A =

verifique se 6 e [ 1 / 2 -1/ 2 ] formam um dos

pares de autovalor/autovetor de A. R. : Aplique a definição de autovalor e autovetor, ou seja, Ae = e.

Formas Quadráticas: uma forma quadrática Q(x) nas p variáveis x 1 , x 2 , ..... ,xp é definida por Q(x ) = x‟Ax , onde x‟= [x 1 , x 2 , .... ,xp] e A é uma matriz quadrada de ordem pxp simétrica. Note que a forma quadrática pode ser escrita como

Q(x) = a x xij j

p i j i

p

1 1

EXERCÍCIO:

Escreva a forma quadrática Q(x) = [x 1 x 2 ] 1 1

1 1 x x

1 2

como um polinômio.

R. : Q(x) = x 21 + 2x 1 x 2 + x 22.

Matriz positiva definida: a matriz A é positiva definida se x‟Ax > 0 x 0.

Matriz positiva semi-definida: a matriz A é positiva semi-definida ou não negativa se x‟Ax 0 x 0.

RESULTADO 2.3 : Teorema da Decomposição Espectral (Decomposição de Jordan)

Qualquer matriz simétrica A de ordem pxp pode ser escrita como

A = P P‟= i i

p

1

eiei‟

onde é uma matriz diagonal formada com os autovalores de A e P é uma matriz ortogonal (P‟P=I) cujas colunas são os autovetores padronizados (normalizados ei‟ei = 1 e ei‟ej = 0 i j) de A.

EXERCÍCIOS:

  1. Escrever a forma quadrática Q(x) = [x 1 x 2 ] 1 1

1 0 x x

1 2

como polinômio.

  1. Explique por que é possível escrever A-1^ = P -1P‟ =

k i 1

' i

e e

R. : Porque a matriz é diagonal e a inversa de uma matriz diagonal tem na sua diagonal principal os inversos dos elementos de e P pode ser considerada como formada por uma linha com os autovetores nessa linha e P‟ formada por uma coluna tendo os autovetores nessa coluna.

  1. Seja uma matriz quadrada A, simétrica de ordem k x k. Determine a matriz raiz quadrada de A, A1/2, dada a matriz dos autovalores e a matriz dos autovetores P (ortogonal). R. : Pelo TDE a matriz A = P P‟ e dado que P é ortogonal tem-se que (P 1/2P‟) (P 1/2P‟) = P P‟ = A e por identidade, já que A1/2A1/2^ = A, tem-se que a matriz raiz quadrada é A1/2^ = P 1/2P‟.

2.2 - Matriz e Vetor Aleatório

Um vetor aleatório é o vetor cujos elementos são v.a‟s e de modo semelhante uma matriz aleatória é a matriz cujas entradas são v.a‟s.

Seja X uma matriz aleatória de ordem nxp, então:

E(X) =

1 2

21 22 2

11 12 1

n n np

p

p

E X E X E X

E X E X E X

E X E X E X

onde E(Xij) = xij fij(xij)dxij

Propriedades : sejam X e Y matrizes aleatórias de mesmas dimensões e sejam A e B matrizes de constantes (não-aleatórias) de dimensões compatíveis com X e Y. Então:

a) E(X+Y) = E(X) + E(Y) b) E(AXB) = AE(X)B

e se é E(X) = [ (^1) 2 ...... p]‟ então (^) i é E(Xi)= (^) i

Matriz de Covariância : de um vetor aleatório X é definida por,

= V(X) = E(X - )(X - )‟

EXERCÍCIOS:

  1. Construir a matriz de covariâncias do vetor aleatório X Rp^ a partir da definição anterior.

R. : V(X) = =

2 1 p 2 p p

2 p

2 12 2

12 1 p

2 1

  1. Construir a matriz de correlação do vetor aleatório X a partir da matriz de covariância

R. : =

1 p 2 p

12 2 p

12 1 p

, com (^) ij = i j

ij

  1. Mostre o resultado V1/2^ V1/2^ =. R. : Monte a matriz desvio padrão V1/2^ que é uma matriz diagonal com os desvios padrões na diagonal principal; monte a matriz de correlação considerando

que em cada entrada tem-se (^) ij = i j

ij

. Agora, multiplique as matrizes.

  1. Dada a matriz de covariância a seguir, determine a matriz raiz quadrada V1/2^ e a matriz de correlação.

1

2 12 1 12 2

2 2

1 2

2

p p

p p p R. : Monte a matriz desvio padrão V1/2^ que é uma matriz diagonal com os desvios padrões na diagonal principal. Já a matriz de correlação é formada

considerando que em cada entrada (^) ij = i j

ij .

  1. Faça um quadro que contenha definição, notação e exemplos triviais de: matriz escalar, vetor coluna, vetor de unidades, matriz retangular, matriz quadrada, matriz diagonal, matriz identidade, matriz simétrica, matriz de unidades, matriz triangular superior, matriz triangular inferior, matriz assimétrica, matriz nula, matriz definida positiva, matriz definida não-negativa e matriz idempotente.

  2. Faça um quadro que contenha as definições das seguintes operações com matrizes: Adição, subtração, multiplicação por escalar, produto interno, multiplicação, traço de uma matriz e determinante.

  3. Dadas as matrizes abaixo determine as operações indicadas em seqüência: