




























































































Estude fácil! Tem muito documento disponível na Docsity
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Prepare-se para as provas
Estude fácil! Tem muito documento disponível na Docsity
Prepare-se para as provas com trabalhos de outros alunos como você, aqui na Docsity
Os melhores documentos à venda: Trabalhos de alunos formados
Prepare-se com as videoaulas e exercícios resolvidos criados a partir da grade da sua Universidade
Responda perguntas de provas passadas e avalie sua preparação.
Ganhe pontos para baixar
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Comunidade
Peça ajuda à comunidade e tire suas dúvidas relacionadas ao estudo
Descubra as melhores universidades em seu país de acordo com os usuários da Docsity
Guias grátis
Baixe gratuitamente nossos guias de estudo, métodos para diminuir a ansiedade, dicas de TCC preparadas pelos professores da Docsity
et alii – Multivariate Data Analysis, 5ed., Prentice Hall Inc. Upper Saddle River, N.J. (1998). Hair, Joseph F. Jr. et alii – Análise de Dados Multivariados, ...
Tipologia: Notas de aula
1 / 105
Esta página não é visível na pré-visualização
Não perca as partes importantes!
Estas notas de aula seguem de muito perto os livros referenciados na BIBLIOGRAFIA e que na verdade correspondem aos livros textos deste Curso. Sugere-se a sua aquisição. A única finalidade destas notas é facilitar o trabalho do aluno em sala de aula, de modo que não há necessidade de anotar todo o conteúdo apresentado pelo professor. A leitura, consulta e resolução de exercícios do livro é dever do aluno.
Prof. Anselmo Chaves Neto
Johnson, R. A. & Wichern, D.W. – Applied Multivariate Statistical Analysis; 4ed. Prentice Hall Inc., Englewood NJ (1998). Mardia, K. V. Kent, J. T. & Bibby, J.M. – Multivariate Analysis; Academic Press, New York (1978). Morrison, D.F. – Multivariate Statistical Methods - McGraw Hill, N.Y., 1971. Hair, Joseph F. Jr. et alii – Multivariate Data Analysis, 5ed., Prentice Hall Inc. Upper Saddle River, N.J. (1998). Hair, Joseph F. Jr. et alii – Análise de Dados Multivariados, Prentice Hall Inc., Bookman Edt./Artmédia Edt., Porto Alegre, 2005.
1.1 - Conceitos Básicos
ANÁLISE MULTIVARIADA: é um conjunto de técnicas estatísticas que tratam dos dados correspondentes às medidas de muitas variáveis simultaneamente. Basicamente, a Análise Multivariada consiste no estudo estatístico dos problemas relacionados com:
Inferências sobre médias multivariadas; Análise da estrutura de covariância de uma matriz de dados; Técnicas de reconhecimento de padrão, classificação e agrupamento.
No estudo de p 1 variáveis, geralmente, toma-se n observações de cada variável para obter informações sobre parâmetros, relacionamentos entre variáveis, comparações, etc. Assim, as medidas registradas são xij com i = 1,2, ... ,n (observações) e j = 1,2, ... ,p (variáveis) que podem ser agrupadas na matriz de dados (^) nXp , com n linhas e p colunas
nXp =
x x x x x x
x x x
p p
n n np
11 12 1 21 22 2
1 2
A matriz de dados (^) nXp contém n observações do vetor aleatório p-dimensional X‟ = [X 1 , X 2 , ..... , XP].
Uma amostra aleatória composta por quatro (4) notas de vendas de livros de uma livraria foi obtida a fim de investigar-se a natureza dos livros vendidos. Cada nota fiscal especifica, entre outras coisas, o número de livros vendidos e o valor de cada venda. Seja a 1ª variável o total vendido em reais e a 2ª variável o número de livros vendidos. Assim, seja o vetor aleatório X‟ = [X 1 X 2 ] cujas componentes são as v.a‟s: X 1 (valor da venda) e X 2 (número de livros).
A matriz de dados é (^) nXp =
36 3
b) a matriz de covariância amostral S. Solução: Calcule a variância de cada variável, depois calcule a covariância entre elas usando as fórmulas e a calculadora, ou então, use os resultados da tabela anterior para montar a matriz. Lembre que a covariância s 12 = 12 s 1 s 2. A matriz de covariância é:
S =
Veja que s^21 = 385 é a variância amostral e estima a verdadeira variância populacional 12 ; s 12 = 14,6667 é a covariância amostral e s^22 = 0,6667 é a estimativa amostral de 22. Finalmente, a matriz S é a estatística que estima o verdadeiro parâmetro (matriz de covariância populacional).
c) a matriz de correlação amostral R. Solução: Calcule o coeficiente de correlação ˆ 12 = r 12 entre as duas variáveis usando as fórmulas e a calculadora, ou então, pegue a matriz diretamente no STATGRAPHICS. A matriz de correlação é:
Finalmente, a matriz R é a estatística que estima o verdadeiro parâmetro (matriz de correlação populacional).
Prova : Por definição a covariância entre duas v.a‟s é dada por:
cov(X, Y) = E[(X - (^) X)(Y - (^) Y)] e dividindo pelo produto dos desvios padrões (^) X Y tem-se o quociente:
X Y
X Y
Y
Y X
(X X^ )(Y )] que é a covariância entre
duas v.a‟s padronizadas. Então o coeficiente de correlação = E[ Y
Y X
é a covariância entre duas v.a‟s padronizadas.
1.3 - Distância
Várias técnicas estatísticas são baseadas no conceito simples de distância. A distância Euclidiana entre os pontos P e O Rp, ou seja, do ponto P(x 1 , x 2 , ..... , xp) até a
origem O(0, 0, .... , 0) é a distância na linha reta d(PO) dada de acordo com o Teorema de Pitágoras:
d(PO) = x 12 x 22 ...... xp^2
e a distância de P(x 1 , x 2 , ..... , xp) ao ponto Q(y 1 , y 2 , ..... , yp) é dada por:
d(PQ) = ( x 1 y 1 ) 2 ....... ( x (^) p yp)^2
Contudo, a distância Euclidiana não é satisfatória em várias propostas estatísticas porque cada coordenada contribui igualmente para o cálculo da distância. Quando as coordenadas são medidas de v.a‟s de diferentes magnitudes (escalas), (p.ex. x 1 é da ordem de 1; 0,5; 2; 0,1; etc e x 2 é da ordem de 1000; 5652; 15314; etc.), variabilidades fortemente diferenciadas, é preferível ponderar as coordenadas de acordo com as variâncias. Isto produz a chamada distância estatística. Na figura a seguir observa-se que a variância da v.a no sentido horizontal é maior que a variância da v.a no sentido vertical V(X 1 ) > V(X 2 )
X 2
Assim, pondera-se as v.a‟s dividindo-as pelo seu desvio padrão, ou seja:
x 1 *^ = x 1 / 1 e x 2 *^ = x 2 / (^2)
E a distância Euclidiana entre o ponto P*(X 1 , X 2 ) e a origem O(0,0) é:
d(P*O) = dij = 2 2
2 2 2 1
2 1 s
x s
x que é conhecida como DISTÂNCIA ESTATÍSTICA.
Considerando x 'i e y 'j R^3 , com 1 , 2 e 3 sendo os desvios padrões das v.a‟s
correspondentes às componentes (direções) 1, 2 e 3, a distância Estatística entre os
pontos x 'ie y 'jé dada por:
dij = 2 3
2 i 3 j 3 2 2
2 i 2 j 2 2 1
2 (xi 1 yj 1 ) (x y ) (x y )
1.4- Medidas de Similaridade
1.4.1- Introdução
Muitas vezes as variáveis estudadas só podem ser medidas na escala nominal e, conseqüentemente, não é adequado calcular uma medida de distância. O procedimento adotado, então, é baseado no pareamento de atributo. Assim, tem-se as medidas de similaridade que consideram atributos comuns.
Considere quatro refrigerantes e quatro atributos relacionados na tabela a seguir:
REFRIGERANTE Sabor cola
Cafeína Diet Fabricado pela Coca-cola
Coca-cola 1 1 0 1 Pepsi-cola 1 1 0 0 Diet Coca 1 1 1 1 Livre de Cafeína e Diet Coca
Uma medida de similaridade entre Coca-cola e Pepsi-cola corresponde ao número de empates no total de atributos, ou seja, ¾. Pode-se construir a matriz de similaridade entre os quatro produtos com base nessa medida de similaridade. A seguir tem-se essa matriz de similaridade.
CokeP epsiDPepsiCFDCoke
CFDCoke
DCoca
Pepsi
Coke
1.4.2- Coeficientes de Similaridade
O entendimento do conceito de coeficiente de similaridade fica mais claro a partir do próximo exemplo.
Seja p = 5 variáveis binárias que indicam a presença (1) ou a ausência (0) de certas características nos objetos A e B, na tabela adiante:
CARACTERÍSTICAS OBJETO C1 C2 C3 C4 C a 1 0 0 1 1 B 1 1 0 1 0
A distância Euclidiana entre A e B ao quadrado d^2 A B a b 2 ( , ) é dada por:
d 2 (A,B) 02 ( 1 )^20202122
E, d^2 (A,B) fornece uma medida do número de não emparelhamentos no par de objetos e é claro que um número grande de não emparelhamentos indica uma menor semelhança. Fica claro que uma ponderação nos empates (emparelhamentos) em (1-1) e (0-
Seja a tabela de contingência para os itens i e k:
item k 1 0 TOTAL item i 1 0
a b c d
a + b c + d TOTAL a + c b + d p = a + b + c + d
onde: a é a freqüência de igualdades 1- b é a “ “ desigualdades 1- c é a “ “ “ 0- d é a “ “ igualdades 0-
Assim, os coeficientes usuais de similaridade são dados na tabela adiante:
não-negativa definida e ~ s (i, i) = 1. Desta forma d(i, k) = 2 ( 1 ~s(i,k)) tem as
propriedades de uma distância.
1.4.4- Similaridade e medida de associação para pares de variáveis
Quando as variáveis são binárias, os dados podem ser colocados na forma de uma tabela de contingência. As variáveis, melhor do que os objetos delineiam as categorias. Para cada par de variáveis existem n objetos categorizados na tabela. Assim tem-se:
Variável k Total variável i 1 0
a b c d
a+b c+d Total a + c b + d n
e o coeficiente de correlação amostral, calculado com base na tabela de contingência,
é ( a b )( c d )( a c )( b d )
r ad bc que pode ser tomado como uma medida de
similaridade entre i e k.
a) Calcule a distância estatística do ponto x de coordenadas (x 1 , x 2 ) à origem.
R .: d(P,O) = 1
x 4
x (^1222)
b) Construa o gráfico do lugar geométrico dos pontos cuja distância estatística à origem é 1.
R .: O lugar geométrico especificado é a elipse com equação 1
x 4
x (^1222) = 1.
c) Escreva também a equação deste lugar geométrico para uma distância c e ainda o gráfico nesta situação genérica.
R .: 2 2
2 2 2 1
2 x^1 x = c^2.
d) Faça o gráfico dos pontos cuja distância à origem é 1.
Considerando x 1 = x e x 2 = y.
e) Faça o gráfico dos pontos cuja distância à origem é c. R .: O gráfico é uma elipse e os pontos onde o eixo das abscissas corta a elipse são: (-c 1 , 0) e (c 1 , 0); e os pontos onde o eixo das ordenadas corta a curva são: (0, -c 1 ) e (0, c 1 ), ou melhor, (-2c, 0) e (2c, 0) na horizontal e (0, -c) e (0, c).
R. : d(P,Q) = 2 p
2 p p 2 2
2 2 2 2 1
2 (x 1 y 1 ) (x y ) ... (x y )
OBS.: O lugar geométrico dos pontos P que têm a mesma distância ao quadrado do ponto Q jazem sobre um hiperelipsóide de centro em Q cujos eixos maior e menor são paralelos aos eixos das coordenadas.
2.1 - Álgebra Matricial
Um arranjo x de números reais x 1 , x2, ...... , xp é chamado vetor e é escrito como
x =
x x
x (^) p
1 2 ...
ou x‟= [x 1 x 2 ... xp] (vetor transposto).
Um vetor pode ter o seu módulo contraído ou aumentado quando é multiplicado por uma constante c, cx‟= [cx 1 cx 2 ....... cxp] e a adição de vetores é feita somando-se os elementos componentes dos vetores (ordenadamente), ou seja:
Verifique se os vetores x‟= [1 2 1], y‟ = [1 0 -1] e z‟= [1 -2 1] são linearmente independentes.
Verifique se os vetores x‟= [1 1 3] e y‟= [4 4 12] são independentes.
Mostre que a matriz A =
admite inversa.
Matriz Ortogonal : uma matriz quadrada A é chamada de ortogonal quando suas linhas consideradas como vetores são mutuamente perpendiculares e têm comprimentos unitários, isto é: A‟A = I e consequentemente A‟ = A-1.
Autovalores e autovetores : uma matriz quadrada A é dita ter um autovalor ( eigenvalue ) com correspondente autovetor e‟ 0 ( eigenvector ) se Ae = e.
Uma matriz quadrada simétrica A de ordem k x k tem k pares de autovalor e autovetor, ou seja:
( 1 ,e 1 ), ( 2 ,e 2 ), .... ,( (^) k,ek)
OBS. Os autovetores podem ser escolhidos de modo a terem o comprimento igual a 1, ou seja, e‟.e = 1. Isto chama-se “padronizar os autovetores”.
Seja A uma matriz quadrada de ordem k x k e I a matriz identidade de ordem kxk, então os escalares 1 , 2 , ..... , (^) k satisfazendo a equação A - I = 0 são os autovalores de A.
R. : Resolva a equação A - I = 0 para achar os autovalores e, com eles, use a definição para achar os autovetores. Como a matriz não é simétrica não é possível usar o STATGRAPHICS para achar os autovalores e autovetores. Contudo isto pode ser feito com o MATLAB ou MAPLE, etc.
R. : Resolva a A - I = 0 para achar os autovalores e, com eles, use a definição para achar os autovetores. Na prática use o STATGRAPHICS seguindo o seguinte caminho: SPECIAL, MULTIVARIATE METHODS, PRINCIPAL COMP0NENTS.
Os autovalores são: 1 = 3.41421 e 2 = 0.585786, obtidos em Analysis Summary. Já os autovetores são: e ' 1 = [0.382683 0.92388] e e ' 2 = [0.92388 - 0.382683] obtidos em Component Weights.
verifique se 6 e [ 1 / 2 -1/ 2 ] formam um dos
pares de autovalor/autovetor de A. R. : Aplique a definição de autovalor e autovetor, ou seja, Ae = e.
Formas Quadráticas: uma forma quadrática Q(x) nas p variáveis x 1 , x 2 , ..... ,xp é definida por Q(x ) = x‟Ax , onde x‟= [x 1 , x 2 , .... ,xp] e A é uma matriz quadrada de ordem pxp simétrica. Note que a forma quadrática pode ser escrita como
Q(x) = a x xij j
p i j i
p
1 1
Escreva a forma quadrática Q(x) = [x 1 x 2 ] 1 1
1 1 x x
1 2
como um polinômio.
R. : Q(x) = x 21 + 2x 1 x 2 + x 22.
Matriz positiva definida: a matriz A é positiva definida se x‟Ax > 0 x 0.
Matriz positiva semi-definida: a matriz A é positiva semi-definida ou não negativa se x‟Ax 0 x 0.
RESULTADO 2.3 : Teorema da Decomposição Espectral (Decomposição de Jordan)
Qualquer matriz simétrica A de ordem pxp pode ser escrita como
A = P P‟= i i
p
1
eiei‟
onde é uma matriz diagonal formada com os autovalores de A e P é uma matriz ortogonal (P‟P=I) cujas colunas são os autovetores padronizados (normalizados ei‟ei = 1 e ei‟ej = 0 i j) de A.
1 0 x x
1 2
como polinômio.
k i 1
' i
e e
R. : Porque a matriz é diagonal e a inversa de uma matriz diagonal tem na sua diagonal principal os inversos dos elementos de e P pode ser considerada como formada por uma linha com os autovetores nessa linha e P‟ formada por uma coluna tendo os autovetores nessa coluna.
2.2 - Matriz e Vetor Aleatório
Um vetor aleatório é o vetor cujos elementos são v.a‟s e de modo semelhante uma matriz aleatória é a matriz cujas entradas são v.a‟s.
Seja X uma matriz aleatória de ordem nxp, então:
1 2
21 22 2
11 12 1
n n np
p
p
onde E(Xij) = xij fij(xij)dxij
Propriedades : sejam X e Y matrizes aleatórias de mesmas dimensões e sejam A e B matrizes de constantes (não-aleatórias) de dimensões compatíveis com X e Y. Então:
a) E(X+Y) = E(X) + E(Y) b) E(AXB) = AE(X)B
e se é E(X) = [ (^1) 2 ...... p]‟ então (^) i é E(Xi)= (^) i
Matriz de Covariância : de um vetor aleatório X é definida por,
= V(X) = E(X - )(X - )‟
2 1 p 2 p p
2 p
2 12 2
12 1 p
2 1
1 p 2 p
12 2 p
12 1 p
, com (^) ij = i j
ij
que em cada entrada tem-se (^) ij = i j
ij
. Agora, multiplique as matrizes.
1
2 12 1 12 2
2 2
1 2
2
p p
p p p R. : Monte a matriz desvio padrão V1/2^ que é uma matriz diagonal com os desvios padrões na diagonal principal. Já a matriz de correlação é formada
considerando que em cada entrada (^) ij = i j
ij .
Faça um quadro que contenha definição, notação e exemplos triviais de: matriz escalar, vetor coluna, vetor de unidades, matriz retangular, matriz quadrada, matriz diagonal, matriz identidade, matriz simétrica, matriz de unidades, matriz triangular superior, matriz triangular inferior, matriz assimétrica, matriz nula, matriz definida positiva, matriz definida não-negativa e matriz idempotente.
Faça um quadro que contenha as definições das seguintes operações com matrizes: Adição, subtração, multiplicação por escalar, produto interno, multiplicação, traço de uma matriz e determinante.
Dadas as matrizes abaixo determine as operações indicadas em seqüência: