Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

resumo de econometria, Esquemas de Econometria

esquema top para estudar p prova

Tipologia: Esquemas

2021

Compartilhado em 01/12/2022

rubia-scarpat
rubia-scarpat 🇧🇷

3 documentos

1 / 3

Toggle sidebar

Esta página não é visível na pré-visualização

Não perca as partes importantes!

bg1
Wooldridge cap. 3 e 4
Wooldridge cap. 5, 6.2, 7, 8, 9.1, 10, 12
Resumindo os capítulos.
Capítulo 3.
Yestimado= ^B0+^B1x1+ Êi
^yi= ^B0+^B1x1
^B0= ^yi -^B1x1
ADICIONO SOMATÓRIO ∑ e vejos
os resultados que iram dá, primeiro
adiciono o somatório substituindo o
B0, e depois sem substituir com
isso acho que ∑E= 0 e a equação
da reta y = ^B0+^B1x1
SQT: ∑(yi-ymédia) -> Totais
SQE: ∑(yestimado-ymédia) -> ExplicadosREGRESSÃO
SQR: ∑ûi² Resíduos
SQT = SQR + SQE
MOSTRAR MATEMATICAMENTE.
R²= SQE/SQT OU R²= 1 – SQR/SQT
O ele nunca diminui e geralmente
aumenta quando outra variável
independente é adicionada a regressão
e o mesmo conjunto de observações é
utilizado em ambas regressões. Todavia,
se aumento uma variável e o não
aumenta ou aumenta muito pouco, pode
haver a presença de multicolinearidade.
HIPÓTESE DE GAUSS-MARKOV
RML.1: Linear nos parâmetros
RML.2: Amostragem aleatória, (nº de
observações > nº regressores)
RML.3: Colinearidade não perfeita, ou seja,
variáveis independes podem possuir
correlação, só não pode ser perfeita.
- Nenhuma variável independente é
constante.
- não relação lineares exatas entre as
variáveis independentes.
- Colinearidade perfeita : 1º: Colocar a
mesma variável de medida em unidades
diferentes dentro da equação de regressão.
2º: Variável independente ser função linear
exata de duas ou mais das outras variáveis
independetes.
RML.4: Média condicional Zero, o erro tem
um valor igual a zero, dados quaisquer
valores das variáveis independente. E( u I
x1, ...., xk) = 0 E(u)=0 e Cov(u,x)=0
Inexistência de viés de MQO
Sob as Hipóteses RML.1 a RML.4
E(^Bj) = Bj, j=0,1,2,3....
Os estimadores de MQO são estimadores
não viesados dos parâmetros da
população.
RML.5: Homoscedasticidade, o erro tem a
mesma variância dada a quaisquer valores
explicativas . Var(u I x1, ...., xk) = o² QUE É A
MESMA QUE Var( y I x1, ...., xk) = o²
Sob as hipóteses RML.1 a RML.5
Multicolinariedade: Sabemos que a
variância de ^Bj depende te três fatores.
Variância do erro (o²) = maior significa
mais ruído, e se torna mais difícil de
estimar o efeito parcial das variáveis
independentes Aumenta a variância de
^Bj
STQ ( xi-xmédia)² = maior a variância total
de X, menos é a variância de ^Bj, não
pode ter SQT= 0, pois viola o RLM.3.
R²j = É obtido de uma regressão que
envolve somente as variáveis
independentes do modelo original. Maior o
R² maior o variância de ^Bj. Quanto mais o
mais são correlacionadas x1 e x2, eai
surge a multicolonariedade.
A multicolinariedade não viola nenhuma
hipótese de Gauss Marvok, a não ser que
seja perfeita. Embora o problema da
multicolinariedade não seja claramente
definido, é melhor ter mnos correlação
entre os Xj e as outras variáveis
independentes
Capitulo 4
pf3

Pré-visualização parcial do texto

Baixe resumo de econometria e outras Esquemas em PDF para Econometria, somente na Docsity!

Wooldridge cap. 3 e 4

Wooldridge cap. 5, 6.2, 7, 8, 9.1, 10, 12

Resumindo os capítulos.

Capítulo 3.

Yestimado= ^B 0 +^B 1 x1+ Êi ^yi= ^B 0 +^B 1 x 1 ^B 0 = ^yi -^B 1 x 1ADICIONO SOMATÓRIO ∑ e vejos os resultados que iram dá, primeiro adiciono o somatório substituindo o B0, e depois sem substituir  com isso acho que ∑E= 0 e a equação da reta y = ^B 0 +^B 1 x 1 SQT: ∑(yi-ymédia) -> Totais SQE: ∑(yestimado-ymédia) -> ExplicadosREGRESSÃO SQR : ∑ûi²  Resíduos SQT = SQR + SQEMOSTRAR MATEMATICAMENTE. R²= SQE/SQT OU R²= 1 – SQR/SQT O R² ele nunca diminui e geralmente aumenta quando outra variável independente é adicionada a regressão e o mesmo conjunto de observações é utilizado em ambas regressões. Todavia, se aumento uma variável e o R² não aumenta ou aumenta muito pouco, pode haver a presença de multicolinearidade. HIPÓTESE DE GAUSS-MARKOV RML.1: Linear nos parâmetros RML.2: Amostragem aleatória, (nº de observações > nº regressores) RML.3: Colinearidade não perfeita, ou seja, variáveis independes podem possuir correlação, só não pode ser perfeita.

  • Nenhuma variável independente é constante.
  • não há relação lineares exatas entre as variáveis independentes.
  • Colinearidade perfeita : 1º: Colocar a mesma variável de medida em unidades diferentes dentro da equação de regressão. 2º: Variável independente ser função linear exata de duas ou mais das outras variáveis independetes. RML.4: Média condicional Zero, o erro tem um valor igual a zero, dados quaisquer valores das variáveis independente. E( u I x1, ...., xk) = 0 E(u)=0 e Cov(u,x)= Inexistência de viés de MQO Sob as Hipóteses RML.1 a RML. E(^Bj) = Bj, j=0,1,2,3.... Os estimadores de MQO são estimadores não viesados dos parâmetros da população. RML.5: Homoscedasticidade, o erro tem a mesma variância dada a quaisquer valores explicativas. Var(u I x1, ...., xk) = o² QUE É A MESMA QUE Var( y I x1, ...., xk) = o² Sob as hipóteses RML.1 a RML. Multicolinariedade: Sabemos que a variância de ^Bj depende te três fatores. Variância do erro (o²) = o² maior significa mais ruído, e se torna mais difícil de estimar o efeito parcial das variáveis independentes  Aumenta a variância de ^Bj STQ ( xi-xmédia)² = maior a variância total de X, menos é a variância de ^Bj, Só não pode ter SQT= 0, pois viola o RLM.3. R²j = É obtido de uma regressão que envolve somente as variáveis independentes do modelo original. Maior o R² maior o variância de ^Bj. Quanto mais o R² mais são correlacionadas x1 e x2, eai surge a multicolonariedade. A multicolinariedade não viola nenhuma hipótese de Gauss Marvok, a não ser que seja perfeita. Embora o problema da multicolinariedade não seja claramente definido, é melhor ter mnos correlação entre os Xj e as outras variáveis independentes Capitulo 4

Hipotese MCL: Mesmas que Gauss Marvok + RLM. RML.6: Erro ~ Normal ( 0, o²) outra maneira prática de resumir as hipóteses MLC é yI x ~ Normal (B0+B1x1....Bkx , o²) RML.6 é a mais forte de todas as hipóteses anteriores: De fato, como u(erro) é independente de xj sob RML.6 E(uIx1,...xn)  E(u)= 0 e Variancia (uIx1,...xn)  Var(u)= o²  para fazer a Hipotese 6 temos que satisfazer a 4 e a 5 TESTE t sobra Bj 5 PASSOS PARA FELICIDADE --- Geralmente Bicaudal

1º: Ho: B 1 =0 e H 1 : B 1 ≠ 0

2º: Estatística de teste: t calculado =[ ^B 1

– E (^Bi) ] / Ep(^B1)

E(^Bi) = B 1 -> Assumimos que é não

viesado

Ep(^B1) = o² / ∑(xi-xmédia)²  o² = SQR / (n-

k) , onde k é número de parâmetros estimados

Fórmula final: t calculado =( ^B 1 -B 1 ) / raiz

SQR / (n – k). ∑(xi-xmédia)²

Teste F

a: 1/𝐹(𝑔𝑙 𝑑𝑒𝑛𝑜𝑚𝑖𝑛𝑎𝑑𝑜𝑟 (n-k), 𝑔𝑙

𝑛𝑢𝑚𝑒𝑟𝑎𝑑𝑜𝑟 (g))

b: 𝐹(𝑔𝑙 𝑛𝑢𝑚𝑒𝑟𝑎𝑑𝑜𝑟 (g), 𝑔𝑙

𝑑𝑒𝑛𝑜𝑚𝑖𝑛𝑎𝑑𝑜𝑟 (n-k)

Modelo restrito: o que assume H0 como verdade Modelo restrito: o que assume H1 como verdade R² Ajustado: R²= 1 – [(SQR/n-k) / (SQT/n-1) Em que, k é o número de parâmetros estimados. R² NUNCA diminui quando uma nova variável independente é incluída em uma equação de regressão: isso ocorre pq o SQR nunca aumenta ( normalmente diminui) quando novas variáveis independentes são adicionadas. A formula de Rajustado² mostra dependência de K, se uma variável independente for adicionada em a uma regressão o SQR diminui , os o grau de liberdade vai diminuir (n-k). Logo o SQR ele pode diminuir ou aumentar quando uma nova variável independente é adicionada. Rajustado² aumenta se, e somente se, a estatística t da nova variável for maior que em valor absoluto Rajustado² = o² / (SQT/(n-1)), em que o² é o erro padrão. Logo, aumentar o R² faz com que SQR diminua, então eles possuem uma função inversa, dessa forma maximizar um é minimizar o outro. Heteroscedasticidade. Precisamos entender o que é

heteroscedasticidade: forte dispersão

dos dados em torno de uma reta; uma

dispersão dos dados perante um

modelo econométrico regredido. Ou

seja o² 1 ≠ o² 2 ≠ o²n

 Se consideremos a 4 primeiras hipóteses de Gauus-Markov se sustentam, Se os erros contiverem heterocedasticidade, então: Var (uiIxi) = oi², em que colocamos um subscrito i em o² para indicar que a variância do erro depende do valor particular de xi. E o MQO: ^B 1 = B 1 + ∑(xi-xmédia).ui / SQT, e a Var(^B 1 ) = SQT.o² / STQ²X, todavia se o²i=o²