Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Espacio Euclideo, Apuntes de Álgebra

Matemáticas 2BAT-1º Ingeniería mecánica

Tipo: Apuntes

2018/2019

Subido el 16/10/2019

consuelo-insa
consuelo-insa 🇪🇸

5

(1)

1 documento

1 / 32

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.
MATEMÁTICAS I 1
15
59
9
5. ESPACIOS VECTORIALES EUCLÍDEOS.
PROYECCIONES ORTOGONALES. MÍNIMOS
CUADRADOS.
SUMARIO:
INTRODUCCIÓN
OBJETIVOS
INTRODUCCIÓN TEÓRICA
1.- Espacio vectorial euclídeo.
2.- Ortogonalidad. Propiedades.
3.- Norma. Propiedades.
4.- Proyecciones en espacios euclídeos.
5.- Método de los mínimos cuadrados
6.- Ajuste de datos con el método de los mínimos cuadrados.
PROBLEMAS RESUELTOS.
BILIOGRAFÍA
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12
pf13
pf14
pf15
pf16
pf17
pf18
pf19
pf1a
pf1b
pf1c
pf1d
pf1e
pf1f
pf20

Vista previa parcial del texto

¡Descarga Espacio Euclideo y más Apuntes en PDF de Álgebra solo en Docsity!

Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

5. ESPACIOS VECTORIALES EUCLÍDEOS.

PROYECCIONES ORTOGONALES. M ÍNIMOS

CUADRADOS.

SUMARIO:
INTRODUCCIÓN
OBJETIVOS
INTRODUCCIÓN TEÓRICA

1.- Espacio vectorial euclídeo. 2.- Ortogonalidad. Propiedades. 3.- Norma. Propiedades. 4.- Proyecciones en espacios euclídeos. 5.- Método de los mínimos cuadrados 6.- Ajuste de datos con el método de los mínimos cuadrados.

PROBLEMAS RESUELTOS. BILIOGRAFÍA

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

INTRODUCCION

La estructura de espacio vectorial despliega una gran capacidad operativa cuando incorpora los conceptos de distancia y ángulo entre sus elementos. Para integrar estas dos cualidades métricas en un espacio vectorial es preciso definir en él un producto escalar, el cual otorga a dicho espacio el calificativo de euclídeo, de modo que a todo espacio vectorial dotado de un producto escalar se le denominará espacio vectorial euclídeo. Si se dota al espacio vectorial de un producto escalar se va a poder trasladar, al terreno de lo abstracto, las nociones de longitud y ángulo, en especial el concepto de ortogonalidad, sin que éstas pierdan las propiedades generales que les son inherentes. Antes de comenzar con el estudio de los espacios vectoriales euclídeos es preciso matizar que, en este curso, dicho estudio se limitará únicamente al caso de productos escalares sobre espacios vectoriales reales. Basándonos en la idea de ortogonalidad y proyección ortogonal, estudiaremos el método de los mínimos cuadrados, para resolver de forma aproximada sistemas de ecuaciones lineales incompatibles.

OBJETIVOS

  • Reconocer en una forma bilineal un producto escalar y manejar adecuadamente sus propiedades.
  • Definir la norma asociada a cada producto escalar y demostrar sus propiedades.
  • Obtener para cada vector del espacio su norma, módulo, y para cada par de vectores el ángulo que forman a partir del producto escalar.

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

INTRODUCCION TEORICA

1. Espacio vectorial euclídeo.

Un conjunto E es un espacio vectorial euclídeo n -dimensional si es un espacio vectorial real de dimensión n en el que se ha definido una operación: f : E × E ———— \ , verificando las siguientes propiedades:

  1. f ( x y , ) = f ( y x , ), ∀ x , yE
  2. f (^) ( λ x + μ y z , (^) ) = λ f (^) ( x z , (^) ) + μ f (^) ( y z , (^) ), ∀ ,λ μ ∈\ y ∀ x , y z , ∈ E
  3. f (^) ( x , λ y + μ z (^) ) = λ f (^) ( x y , (^) ) + μ f (^) ( x z , (^) ), ∀ ,λ μ ∈\ y ∀ x , y z , ∈ E
  4. f ( x x , ) > 0 , ∀ x ≠ 0 , xE

Esta operación recibe el nombre de producto escalar y la notación que vamos a utilizar es : f ( x y , )= x D y

1.1 Matriz Asociada al Producto Escalar Si B = (^) { e 1 (^) , e 2 (^) , … e , (^) n } es una base del espacio vectorial euclídeo E ,

entonces la matriz asociada al producto escalar respecto a dicha base viene dada por:

1 1 2 1 1 2 1 2 2 2

1 2

n n

n n n n

e e e e e e A e^ e^ e^ e^ e^ e e e e e e e

= ⎜^ ⎟≡
D D " D
D D " D
D D " D
MATRIZ DE GRAM

como el producto escalar es conmutativo, sucede que e i D e (^) j = e (^) j D ei , ∀ , i j y de ahí se obtiene que la matriz A es simétrica,

es decir:

Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados. 1 1 2 1 1 1 2 2 2 2

1 2

n t n

n n n n

e e e e e e A A e^ e^ e^ e^ e^ e e e e e e e

= = ⎜^ ⎟
D D " D
D D " D
D D " D

2. Ortogonalidad

2.1 Vectores ortogonales. Sea E un espacio vectorial euclídeo. Dos vectores u y v son ortogonales si y sólo si u D v = 0. 2.2 Proposición

El vector 0 es el único vector ortogonal a todos los vectores del espacio. 2.3 Vector ortogonal a un subespacio. Un vector u es ortogonal a un subespacio S de E si y sólo si, ∀ xS ,

u D x = 0. 2.4 Proposición Un vector u es ortogonal a un subespacio S de E si y sólo si es ortogonal a todos los vectores de una base de S. 2.5 Subespacios ortogonales. Dos subespacios V y W de E son ortogonales si ∀ xV , ∀ yWx D y = 0.

2.6 Proposición Para que dos subespacios V y W sean ortogonales es necesario y suficiente que los vectores de una base de V sean ortogonales con los vectores de una base de W. 2.7 Propiedades de la relación de ortogonalidad.

Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados. 3.1 Propiedades de la norma.

  1. u > 0 , ∀ u ≠ 0
  2. u = 0 ⇐⇒ u = 0
3. λ u = λ u , ∀ u ∈ E , ∀λ ∈.
  1. uE u , ≠ 0 , uu , es un vector unitario en la dirección de u.
  2. Desigualdad de Schwarz, ∀ , u vE : − u vu D vu v
  3. Desigualdades triangulares, ∀ u v , ∈ E : a. u + vu + v b. uvuv

3.2 Angulo que forman dos vectores. Sean u v , ∈ \ n , u D v el producto escalar usual, es decir,

1

t^ n u D v = u v = (^) ∑ i = u vi i

El ángulo α que forman dos vectores u y v se define por medio de la expresión:

cos ( α ) = uu^ D vv

3.3 Proposición. Sean u v , ∈ \ n ; u v , ≠ 0

a) u y v son ortogonales ( u ⊥ v ) ⇐⇒ cos ( α ) = 0 ⇐⇒ u vt = 0.

b) u y v son paralelos ( u // v ) ⇐⇒ cos ( α) = 0 ⇐⇒ u vt = ± u v.

3.4 Bases ortogonales y ortonormales. Una base de un espacio vectorial euclídeo es ortogonal si sus vectores

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A. son ortogonales dos a dos. Una base ortonormal es una base ortogonal de vectores unitarios. 3.5 Método de ortogonalización de Gram-Schmidt. Este método nos permite construir una base ortonormal a partir de una base cualquiera del espacio.

Si B = (^) { e 1 (^) , e 2 (^) , … e , (^) n }es una base de E , los vectores que se obtienen de la

forma:

1 2 1 1 1 3 2 3 1 1 2 2

1 2 1 1 1 2 2 1 1

1 1 2 2 1 3 3 1 2

n n n^ 1 n^ 2 .... nn nn n 1

c e c c c e c e c c c c

c e c e c e c c c c c c

c e c e c c e c c

c e c c (^) −− − c

D D D D D D

D D D D D D

constituyen una base ortogonal. Entonces B ∗^ = { cc^11^^ , cc^22^ , , …cc^ nn } es una

base ortonormal.

4. Proyecciones en Espacios Euclídeos.

4.1 Proyección ortogonal de un vector sobre otro.

Sea vE v , ≠ 0. Todo vector uE se descompone como:

u =^ u vv v DD v + w.

siendo el vector w un vector ortogonal a v.

El vector u vv v DD v es la proyección ortogonal de u sobre v.

4.2 Proyección Ortogonal de un vector sobre un subespacio S. Sea S un subespacio de E. Todo vector u de E se descompone de

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A. PS = A A A ( t^ ) −^1 At.

El producto P uS para cualquier vector uE nos proporciona la

proyección ortogonal de u sobre el subespacio S. 4.6 Teorema.

Sea S un subespacio vectorial de E y BS = (^) { a 1 (^) , a 2 , ", ak }una base del

mismo. Sea B una base de E y A la matriz n × k , cuyas columnas son las coordenadas de los vectores ai respecto a la base B.

La matriz proyección:

PS = A A A ( t^ ) −^1 At

es la única matriz con la propiedad de que para todo vector uE , el vector P uS es la proyección de u sobre S.

NOTA: El teorema anterior nos dice que la matriz proyección es única, independiente de la base elegida en el subespacio. 4.7 Propiedades de la matriz proyección. La matriz proyección PS satisface:

  1. ( PS )^2 = PS , es decir, PS es idempotente.
  2. ( PS ) t = PS , es decir, PS es simétrica.

4.8 Caracterización de las matrices proyección. La condición necesaria y suficiente para que una matriz n × n sea una matriz proyección es que sea idempotente y simétrica. En este caso, la matriz es la matriz proyección para el subespacio generado por sus columnas. 4.9 Matriz proyección utilizando bases ortonormales.

Si A es una matriz n × k de columnas ortonormales, A At es la matriz

Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados. identidad. En esta propiedad simplifica en gran medida la expresión de la matriz proyección. Sea E un subespacio vectorial de dimensión n , S un subespacio y

B = (^) { a 1 (^) , a 2 (^) , " , ak }una base ortonormal del mismo. Si A es la matriz

cuyas columnas son los vectores ai , entonces la matriz proyección para

el subespacio S , al ser A At = I , es PS = AAt.

5. Método de los Mínimos Cuadrados

5.1 Planteamiento del Problema. Trataremos de aplicar el estudio realizado sobre las proyecciones a problemas de análisis de datos, que nos conducen a sistemas con mayor número de ecuaciones que de incógnitas (sistemas sobredeterminados) que, normalmente, son incompatibles. A pesar de la no existencia de solución exacta en dichos sistemas. Los sistemas incompatibles surgen en situaciones reales y hay que intentar encontrar la ”mejor” solución posible. El problema será encontrar un vector que minimice el error que cometemos al suponer que dicho vector es la solución del sistema. 5.2 Método de los Mínimos Cuadrados. Sea el sistema Ax = b , siendo A una matriz m × n , con m > n , cuyas

columnas son linealmente independientes, es decir, rang A ( ) = n. Si b

no es combinación lineal de las columnas de A , el sistema lineal anterior

Ax = b es incompatible. Se trata entonces de encontrar un vector x *

que minimice el vector error Axb que para nosotros significará minimizar su norma euclídea:

Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados. en el sentido de mínimos cuadrados. NOTA: Si AM (^) m n × tiene columnas ortonormales, la solución del

sistema Ax = b por el método de los mínimos cuadrados es x *^ = A bt , al

ser A At = I

6. Ajuste de datos con el método de mínimos cuadrados

6.1 Recta de ajuste de datos en el plano. Supongamos que partimos de una colección de datos (^) ( xi , yi ),

i = , ,1 2 … m , , que nos proporcionan un conjunto de puntos en el plano. El

objetivo es hallar una función lineal y = f ( ) x , que represente lo mejor posible dichos valores. Geométricamente, significa que la gráfica de la función y = f ( ) x debe aproximarse lo más posible a la colección de

puntos. El problema será determinar los valores de a y b tales que la recta y = f ( ) x = a + bx , denominada recta de ajuste, se adapte lo mejor posible

a nuestros datos. Sustituyendo (^) ( xi , yi ) en la anterior igualdad se obtiene:

yi = a + bxi , ∀ = , , i 1 2 … m ,.

Salvo en el caso de que los datos estén sobre una recta del plano, se obtiene un sistema sobredeterminado incompatible que se puede expresar matricialmente:

1 1 2 2

4

m^1

y x y x a (^) y Ax Ax y b y x

⎛⎜ ⎞⎟ ⎛⎜ ⎞⎟ ⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟ (^) ⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟ ⎜⎜⎜ ⎟⎟⎟ ⎜⎜⎜ ⎟⎟⎟ ⎝ ⎠ ⎝ ⎠

= ⎛^ ⎞⇔ = ⇔ =
# # # ⎜⎝^ ⎟⎠

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A. La solución que minimiza el error en términos de mínimos cuadrados es

la solución del sistema A Axt^ = A yt , que es: x *^ =( A At^ ) −^1 A yt

NOTA: ( A At ) es invertible siempre que las columnas de A sean

linealmente independientes, que, en este caso, equivale a decir que los

valores xi^ no sean todos iguales, es decir, que los puntos^ ( xi^ ,^ yi ) no estén

todos en una recta vertical.

6.2 Ajuste de datos en \ n +^1 por una función lineal. Cuando los datos tienen más de dos componentes, se obtienen sistemas con más de dos incógnitas por lo general sobredeterminados. Supongamos que tenemos los datos:

( xk^ 1 ,^ xk^ 2 , … x^ ,^ kn^ ;^ yk^ ),^ k^ = , ,1 2^ … m^ ,^^ ,^ m^ >^ n +^1

y se quieren ajustar por la relación lineal y = s 0 (^) + s x 1 1 (^) + " + s xn n.

Se obtiene entonces el sistema: y (^) k = s 0 (^) + s x 1 k (^) 1 + " + s xn kn , k = 1 2, , … m ,.

Matricialmente se expresa como:

1 11 1 0 2 21 2 1

1

n n

m m mn n

y x x s y x x s

y x x s

⎛⎜ ⎞⎟ ⎛⎜ ⎞ ⎛⎟ ⎜ ⎞⎟ ⎜⎜ ⎟⎟ ⎜⎜ ⎟ ⎜⎟ ⎜ ⎟⎟ ⎜⎜ ⎟⎟ ⎜⎜ ⎟ ⎜⎟ ⎜ ⎟⎟ ⎜⎜ ⎟⎟ ⎜⎜ ⎟ ⎜⎟ ⎜ ⎟⎟ ⎜⎜⎜⎝ ⎟⎟⎟⎠ ⎜⎜⎜⎝ ⎟ ⎜⎟ ⎜⎟ ⎜⎠ ⎝ ⎟⎟⎟⎠

de forma abreviada y = AsAs = y.

Si rang A ( ) = n + 1 , estamos ante un problema que se puede resolver con

el método de los mínimos cuadrados, siendo la solución óptima la

solución del sistema A Ast^ = A yt , que es s *^ = (^) ( A At^ ) (^) −^1 A yt.

6.3 Otras funciones de ajuste.

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A.

PROBLEMAS

1. Dado el espacio vectorial V de los polinomios de grado menor o igual que 1 y el producto escalar: 1 p 1 (^) ( ) xp 2 (^) ( ) x = (^0) ∫ p 1 (^) ( ) x p 2 ( ) x dx. Calcular la matriz asociada al

producto escalar respecto de la base B = (^) { 1 , x }

SOLUCIÓN: Un producto escalar es un caso particular de forma bilineal simétrica, por lo tanto existe una matriz simétrica A , asociada al producto escalar,

respecto de cualquier base B = (^) { u v , (^) }de V. Dicha matriz vendrá dada

por: ⎛⎜^ uu^ uv^ uv^ vv ⎞⎟. ⎝ ⎠

D D
D D

En este caso particular tenemos que: u = 1 y que v = x. Tal y como se ha definido el producto escalar, lo que sabemos es que: 1 1 0 0

1 1D = (^) ∫ 1 1. dx = (^) ∫ dx = 1 1 1 0 0

1 D x = (^) ∫ 1. xdx = (^) ∫ xdx = /1 2 (^1 ) 0 0

x D x = (^) ∫ x xdx. = (^) ∫ x dx = /1 3

Luego, la matriz asociada al producto escalar en la base (^) { 1 , x } es:

1 1 2 1 2 1 3

2. De un producto escalar definido en \ 2 respecto de la base

Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados. B = (^) { u v , (^) }, se sabe que: i ) u D u = 2 ii ) u D(3 u + v ) = 5 iii ) v D v =5( u D u )

a) Calcular la matriz asociada al producto escalar. b) Calcular (2 3), D(1 4),

SOLUCIÓN: a)

A u^ u^ u^ v u v v v

=^ ⎛^ ⎞
D D
D D

Tenemos que: u D u = 2 u D (3 u + v ) = 5 ⇒ 3( u D u ) + u D v = 5 ⇒ 6 + u D v = 5 ⇒ u D v = − 1 v D v = 5( u D u ) = 10

La matriz asociada al producto escalar es: A = ⎛⎜^ −^21 10 −^1 ⎞⎟ ⎝ ⎠ b)

(2 3), (1 4), = (^) ( 2 3, (^) ) A ⎛⎜^14 ⎞⎟^ = (^) ( 2 3, (^) ) ⎛⎜^ −^21 10 −^1 ⎞⎛⎟⎜^14 ⎞⎟= 113 ⎝ ⎠ ⎝ ⎠⎝ ⎠

D

3. Sea E un espacio vectorial euclídeo de dimensión n y U un

subespacio vectorial de E , U ⊥^ , el subespacio complemento ortogonal de U , calcular:

a) dim U ( ∩ U ⊥)

b) dim U ( + U ⊥)

SOLUCIÓN:

Espacios vestoriales euclídeos. Proyecciones ortogonales. Mínimos cuadrados.

1 1 1 1

(^25) (^2 2 1 ) (^15)

t v u uv^ t^ ⋅⋅ vvv

= − = ⎜^ ⎟^ − ⎜^ ⎟= ⎜^ ⎟
⎜⎜ ⎟⎟ ⎜⎜ ⎟⎟ ⎜⎜^ ⎟⎟

(^25) 2 (^15)

B
= ⎜^ ⎟,⎜^ ⎟
⎜⎜ ⎟⎟ ⎜⎜^ ⎟⎟

es una base ortogonal de F y normalizando los

vectores de B 2 se obtiene (^3)

1 2 5 30 0 5 2 30 5 1 30

B { }

⎛ ⎞ ⎜^ ⎛^ − ⎞⎟ ⎜⎜ ⎟ ⎜⎟ ⎜ ⎟⎟ ⎜⎜ ⎟ ⎟ ,⎜ ⎟ ⎜⎜ ⎟⎟ ⎜⎜^ ⎟⎟ ⎝ ⎠ ⎜⎝ ⎟⎠

= que es una base ortonormal

de F.

5. Sea F ⊂ ^ n^ , B 1 una base ortonormal de F , B 2 una base

ortonormal de F ⊥^ , demostrar que B = B 1 (^) ∪ B 2 es una base

ortonormal de \ n^. SOLUCIÓN:

Sabemos que FF ⊥= {0}, como el vector nulo no pertenece a ninguna

base, los vectores de B 1 son linealmente independientes con los de B 2. Si

la dim V ( )= k entonces dim V ( ⊥^ )= nk , luego una base de F unida con

una base de F ⊥^ son k + ( nk )= n vectores linealmente independientes

de \ n , por tanto forman una base de \ n^. Por otra parte los vectores de B 1 son ortonormales, es decir, todos tienen

norma igual a 1 y son ortogonales entre si, lo mismo ocurre con los vectores de B 2 y los vectores de B 1 respecto de los de B 2 también son

ortogonales ya que los de B 1 son vectores de F^ y los de B 2 lo son de

Guerra, N.; López, B.; Quintana, M.P.; Suárez, A. F ⊥^. En definitiva los vectores de B están normalizados y son todos

ortogonales entre si, forman una base ortonormal de \ n.

6. Dados los subespacios de ^3

1 (^ )^33 0 F x y z x^ y^ z y z

= ⎧^ , , ∈ /^ −^ −^ = ⎫

⎨⎩ ^ − = ⎬⎭ y

F 2 (^) = (^) { ( x y z , , ) ∈ ^3 / x + y + z = (^0) }

Calcular dim F ( 1 ⊥ ∩ F 2 )

SOLUCIÓN:

1

dim F rango (^) 0 1 1 = − ⎛^ −^ − ⎞= − = ; ⎜⎝ (^) − ⎟⎠

dim F ( 2 ) = 3 − rango ( 1 1 1 ) = 3 − 1 = 2 ; BF (^) 1 = {(4 1 1)}, , ={ w 1 } BF (^) 2 = {( 1 1 0) ( 1 0 1)}− , , , − , , = { v 1 (^) , v 2 } F 1 (^) ⊥^ = { x ∈ ^3 / x t · w 1 = 0} = (^) { ( x y z , , ) ∈ ^3 / 4 x + y + z = (^0) } BF (^) 1 ⊥ = {(1 0, , − 4) (0 1 , , , − 1)} = { u 1 (^) , u 2 }

Sabemos que