

Estude fácil! Tem muito documento disponível na Docsity
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Prepare-se para as provas
Estude fácil! Tem muito documento disponível na Docsity
Prepare-se para as provas com trabalhos de outros alunos como você, aqui na Docsity
Os melhores documentos à venda: Trabalhos de alunos formados
Prepare-se com as videoaulas e exercícios resolvidos criados a partir da grade da sua Universidade
Responda perguntas de provas passadas e avalie sua preparação.
Ganhe pontos para baixar
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Comunidade
Peça ajuda à comunidade e tire suas dúvidas relacionadas ao estudo
Descubra as melhores universidades em seu país de acordo com os usuários da Docsity
Guias grátis
Baixe gratuitamente nossos guias de estudo, métodos para diminuir a ansiedade, dicas de TCC preparadas pelos professores da Docsity
esquema top para estudar p prova
Tipologia: Esquemas
1 / 3
Esta página não é visível na pré-visualização
Não perca as partes importantes!
Yestimado= ^B 0 +^B 1 x1+ Êi ^yi= ^B 0 +^B 1 x 1 ^B 0 = ^yi -^B 1 x 1 ADICIONO SOMATÓRIO ∑ e vejos os resultados que iram dá, primeiro adiciono o somatório substituindo o B0, e depois sem substituir com isso acho que ∑E= 0 e a equação da reta y = ^B 0 +^B 1 x 1 SQT: ∑(yi-ymédia) -> Totais SQE: ∑(yestimado-ymédia) -> ExplicadosREGRESSÃO SQR : ∑ûi² Resíduos SQT = SQR + SQE MOSTRAR MATEMATICAMENTE. R²= SQE/SQT OU R²= 1 – SQR/SQT O R² ele nunca diminui e geralmente aumenta quando outra variável independente é adicionada a regressão e o mesmo conjunto de observações é utilizado em ambas regressões. Todavia, se aumento uma variável e o R² não aumenta ou aumenta muito pouco, pode haver a presença de multicolinearidade. HIPÓTESE DE GAUSS-MARKOV RML.1: Linear nos parâmetros RML.2: Amostragem aleatória, (nº de observações > nº regressores) RML.3: Colinearidade não perfeita, ou seja, variáveis independes podem possuir correlação, só não pode ser perfeita.
Hipotese MCL: Mesmas que Gauss Marvok + RLM. RML.6: Erro ~ Normal ( 0, o²) outra maneira prática de resumir as hipóteses MLC é yI x ~ Normal (B0+B1x1....Bkx , o²) RML.6 é a mais forte de todas as hipóteses anteriores: De fato, como u(erro) é independente de xj sob RML.6 E(uIx1,...xn) E(u)= 0 e Variancia (uIx1,...xn) Var(u)= o² para fazer a Hipotese 6 temos que satisfazer a 4 e a 5 TESTE t sobra Bj 5 PASSOS PARA FELICIDADE --- Geralmente Bicaudal
k) , onde k é número de parâmetros estimados
Modelo restrito: o que assume H0 como verdade Modelo restrito: o que assume H1 como verdade R² Ajustado: R²= 1 – [(SQR/n-k) / (SQT/n-1) Em que, k é o número de parâmetros estimados. R² NUNCA diminui quando uma nova variável independente é incluída em uma equação de regressão: isso ocorre pq o SQR nunca aumenta ( normalmente diminui) quando novas variáveis independentes são adicionadas. A formula de Rajustado² mostra dependência de K, se uma variável independente for adicionada em a uma regressão o SQR diminui , os o grau de liberdade vai diminuir (n-k). Logo o SQR ele pode diminuir ou aumentar quando uma nova variável independente é adicionada. Rajustado² aumenta se, e somente se, a estatística t da nova variável for maior que em valor absoluto Rajustado² = o² / (SQT/(n-1)), em que o² é o erro padrão. Logo, aumentar o R² faz com que SQR diminua, então eles possuem uma função inversa, dessa forma maximizar um é minimizar o outro. Heteroscedasticidade. Precisamos entender o que é
Se consideremos a 4 primeiras hipóteses de Gauus-Markov se sustentam, Se os erros contiverem heterocedasticidade, então: Var (uiIxi) = oi², em que colocamos um subscrito i em o² para indicar que a variância do erro depende do valor particular de xi. E o MQO: ^B 1 = B 1 + ∑(xi-xmédia).ui / SQT, e a Var(^B 1 ) = SQT.o² / STQ²X, todavia se o²i=o²