Algebra Lineal Avanzada

  • Uploaded by: Hans Müller Santa Cruz
  • 0
  • 0
  • January 2021
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Algebra Lineal Avanzada as PDF for free.

More details

  • Words: 39,557
  • Pages: 101
Loading documents preview...
Universidad Mayor de San Sim´ on Facultad de Ciencias y Tecnolog´ıa

Carrera de Matem´ aticas

Algebra Lineal

Hans C. M¨ uller Santa Cruz

Cochabamba, .

Contenido

Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Espacios Vectoriales y Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.- Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.- Espacios de Generaci´on Finita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.- Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.- Anillo de Homomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.- Matriz de una Aplicaci´on Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.- Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.- Operaciones Elementales sobre Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.- Signo de las Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.- Formas Multilineales Alternadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.- Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.- Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II.- Complemento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.- Espacios Vectoriales Cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.- Dual de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.- Formas Bilineales Sim´etricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.- Espacios Euclidianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.- Formas Herm´ıticas, Espacios Unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III.- Formas Normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.- Vectores y Valores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.- Triangularizaci´on y Diagonalizaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.- Endomorfismos Normales de un Espacio Unitario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.- Descomposic´on Can´ onica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.- Teorema de Hamilton Cayley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.- Endomorfismos Nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.- Descomposici´ on de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I.-

iii 1 1 8 13 20 23 28 33 38 42 47 53 57 57 61 65 71 77 81 81 87 90 98 103 105 112

Prefacio

El Algebra Lineal es una de las ramas fundamentales de las Matem´ aticas; por un lado, porque es herramienta de trabajo imprescindible en otras ´ areas de las matem´aticas como el An´ alisis, la Geom´etr´ıa, el An´ alisis Num´erico, las Estad´ısticas y otras; por otro lado, las aplicaciones del Algebra Lineal en la soluci´on de problemas de otras disciplinas y ciencias es moneda corriente. El texto de Algebra Lineal est´ a inscrito dentro el desarrollo que pretende dar la Carrera de Matem´ aticas en su nueva formulaci´on. Este texto contiene lo m´as importante dentro lo que es el Algebra Lineal, dando el vocabulario y conceptos de base para una buena utilizaci´ on, presentando los razonamientos de manera rigurosa y en lo posible elegante, mostrando ejemplos donde el Algebra Lineal es un instrumento de soluci´on a los problemas presentados. Para un buen asimilaci´ on de los conocimientos y razonamientos de este texto; las definiciones y conceptos m´as significativos est´ an escritos en negrillas, estos deber´ an ser memorizados y manipulados fluidamente. Los resultados mas importantes est´ an expresados en los teoremas, corolarios y proposiciones, estos deber´ an tambi´en ser memorizados para manejarlos de manera fluida. Las demostraciones de este texto deber´ an ser trabajadas, con la finalidad de adquirir las diferentes t´ecnicas de demostraci´on que se emplean en el Algebra Lineal. Con fines ped´agogicos, en algunos paragrafos se presentan los resultados fundamentales que ser´ an tratados en el paragrafo en cuesti´on, estos est´ an escritos en car´ acteres it´ alicos. La pr´ actica del curso, es una fuente para practicar los conocimientos adquiridos y as´ı mismo como un medio de adquirir conocimientos adicionales. Por lo tanto, una resoluci´on en gran n´ umero de estos ejercicios, podr´ a medir el grado de asimilaci´ on del estudiante.

Cap´ıtulo I Espacios Vectoriales y Aplicaciones Lineales

I.1 Preliminares

Cuerpos Conmutativos Tanto en el colegio, como en los primeros cursos universitarios, se ha tenido un contacto directo con: Q el conjunto de los n´ umeros racionales = {n/m|n, m enteros, m 6= 0}; R el conjunto de los n´ umeros reales; C el conjunto de los n´ umeros complejos. Estos tres conjuntos est´ an dotados de: una adici´on: α + β una multiplicaci´on: α · β que verifican las tres familias de axiomas: I. Adici´ on i) la adici´on es conmutativa, α + β = β + α. ii) la adici´on es asociativa, (α + β) + γ = α + (β + γ). iii) existe un elemento cero 0 tal que 0 + α = α + 0 = α, ∀α. iv) ∀α existe un opuesto −α, tal que α + (−α) = 0. II. Multiplicaci´ on i) la multiplicaci´ on es conmutativa, α · β = β · α. ii) la multiplicaci´ on es asociativa, (α · β) · γ = α · (β · γ). iii) existe el elemento uno 1, tal que 1 · α = α, ∀α. iv) ∀β 6= 0, β posee un inverso β −1 = 1/β, tal que β · β −1 = 1. III. Distributividad i) α · (β + γ) = α · β + α · γ. ii) (α + β) · γ = α · γ + β · γ. Un conjunto K, provisto de una adici´on y de una multiplicaci´on se llama cuerpo conmutativo, si satisface los tres grupos de axiomas mencionados m´as arriba. Remarca.- Un conjunto K provisto de una adici´on y de una multiplicaci´on que satisface las tres familias de axiomas, quiz´ as excepto el axioma II.i se llama cuerpo. Proposici´ on I.1.1.- En un cuerpo conmutativo K, se tiene 1) El elemento 0 es u ´nico. 2) El opuesto de α es u ´nico. 3) El elemento 1, as´ı como el inverso de β 6= 0 son u ´nicos. 4) Se tiene α + α = α ⇐⇒ α = 0.

2

I Espacios Vectoriales y Aplicaciones Lineales

5) Se tiene α · 0 = 0, ∀α. Demostraci´ on: 1.- Sup´ongase que 0 y 0′ son ceros, entonces 0′ = 0 + 0′ = 0′ + 0 = 0 ⇒ 0 = 0′ . 2.- Sea α ∈ K, −α y −α′ opuestos de α. Se tiene −α = −α + 0 = −α + (α + (−α′ )) = (−α + α) + (−α′ ) = 0 + α′ = α′ . 3.- Ejercicio. 4.- ⇐ trivial, ⇒

α + α = α, (α + α) + (−α) = α + (−α), α + (α + (−α)) = 0, α + 0 = 0 ⇒ α = 0.

5.- Utilizando el punto 4) de la proposici´ on, se tiene α · 0 = α · (0 + 0), α · 0 = α · 0 + α · 0 ⇒ α · 0 = 0.



En lo que sigue del cap´ıtulo K denotar´ a un cuerpo conmutativo. Se convendr´a α − β = α + (−β) y αβ = α · β.

Espacios Vectoriales Un espacio vectorial sobre K, K-espacio vectorial, es un conjunto V provisto de dos operaciones: adici´on

V ×V →V

multiplicaci´on por escalar

K×V →V

(x, y) 7→ x + y

(α, x) 7→ αx

que verifican los dos sistemas de axiomas: I Adici´ on i) la adici´on es conmutativa x + y = y + x, ∀x, y ∈ V . ii) la adici´on es asociativa (x + y) + z = x + (y + z), ∀x, y, z ∈ V . iii) existe un cero, 0 ∈ V tal que 0 + x = x, ∀x ∈ V . iv) Todo x ∈ V posee un opuesto −x, tal que x + (−x) = 0. II Multiplicaci´ on por escalar i) α(βx) = (αβ)x, ∀α, β ∈ K, ∀x ∈ V . ii) (α + β)x = αx + βx, ∀α, β ∈ K, ∀x ∈ V . iii) α(x + y) = αx + αy, ∀αK, x, y ∈ V . Definici´ on I.1.2.- Un subconjunto U 6= ∅ de V espacio vectorial, es un subespacio vectorial de V , si x, y ∈ U ⇒ αx + βy ∈ U, ∀α, β ∈ K. Ejemplos

3

I.1 Preliminares

1.- K es un espacio vectorial sobre K, para la adici´on y la multiplicaci´on de K. 2.- Sea Kn = {(α1 , α2 , . . . , αn )|αi ∈ K, i = 1, . . . , n}, con la adici´on y la multiplicaci´on por escalar, definidas: (α1 , α2 , . . . , αn ) + (β1 , β2 , . . . , βn ) = (α1 + β1 , α2 + β2 , . . . , αn + βn ), α(α1 , α2 , . . . , αn ) = (αα1 , αα2 , . . . , ααn ), es un espacio vectorial sobre K. 3.- {0} ⊂ V y V son subespacios vectoriales de V , si V es un espacio vectorial. Son conocidos como los subespacios triviales de V. Proposici´ on I.1.3.- En un espacio vectorial V , sobre un cuerpo K, se tiene: 1.- El elemento 0 ∈ V es u ´nico, as´ı como el opuesto −x. 2.- y ∈ V , y + y = y ⇐⇒ y = 0. 3.- α0 = 0, ∀α ∈ K. 4.- 0x = 0, ∀x ∈ V . 5.- Sean α ∈ K, x ∈ V , entonces αx = 0 ⇒ α = 0 o x = 0. Demostraci´ on.- Los incisos 1,2,3,4 ejercicios. El punto 5, si α = 0 est´ a demostrado, sino α 6= 0, por consiguiente α−1 (αx) =α−1 0, 1x = 0, x = 0.



Convenci´ on.- Generalmente el elemento cero 0 de V espacio vectorial se lo denota tambi´en 0. En lo que sigue se utilizar´ a esta notaci´on. Ejemplos 4.- Sea X un conjunto no nulo, se define KX = {f : X → K} el conjunto de las aplicaciones de X en K. KX es un espacio vectorial para (f + g)(x) = f (x) + g(x) (αf )(x) = α(f (x))

(I.1.1)

El cero de KX es la aplicaci´ on 0 : x 7→ 0. En particular RR = {f : R → B} es un espacio vectorial con las operaciones (I.1.1). 5.- C 0 (R, R) = {f : R → R, continua} es un espacio vectorial con las leyes (I.1.1). 6.- Se dice que p : R → R es polinomial si p(t) =

n X i=0

αi ti ,

αi ∈ R, αn 6= 0;

n es el grado de p. Se denota P el conjunto de las funciones polinomiales y Pn el conjunto de las funciones polinomiales de grado ≤ n. Ejercicio.- Mostrar que P es un subespacio vectorial de C 0 (R, R) y Pn es un subespacio vectorial de P. Remarca.- Un subespacio vectorial es en si mismo es un espacio vectorial. 7.- Consideremos el sistema lineal homogeneo de n ecuaciones y m incognitas, dado por    a11 ξ1 + a12 ξ2 + · · · + a1m ξm = 0 .. .. . .   an1 ξ1 + an2 ξ2 + · · · + anm ξm = 0

4

I Espacios Vectoriales y Aplicaciones Lineales donde los aik pertenecen a K. Ejercicio.- Mostrar que las soluciones de este sistema forman un subespacio vectorial de Km .

Proposici´ on I.1.4.- Sean V y W dos espacios vectoriales sobre un cuerpo K. El conjunto producto V × W = {(v, w)|v ∈ V, w ∈ W } es un K-espacio vectorial, para (v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ), α(v, w) = (αv, αw). Demostraci´ on.- Ejercicio. Proposici´ on I.1.5.- Sea {Ui }i∈I una familia de subespacios de V . Entonces de V , donde

\

i∈I

\

Ui es un subespacio vectorial

i∈I

Ui = {x ∈ V |x ∈ Ui , ∀i ∈ I}.

Demostraci´ on.- Ejercicio. [ Remarca.Ui = {x ∈ V |∃i ∈ I, con x ∈ Ui } no es en general un subespacio vectorial de V . i∈I

Definici´ on I.1.6.- Sea A un subconjunto de V . El subespacio engendrado por A es el subespacio vectorial m´as peque˜ no que contiene A, se lo denota por < A >. Se tiene < ∅ >= {0}. Existen subespacios de V que contienen un subconjunto A de V , por ejemplo V mismo. Por consiguiente se tendr´a \ < A >= U. A⊂U subespacio En realidad < A > est´ a formado por el conjunto de las v ∈ V que se escriben bajo la forma X αi ai , v= suma finita

αi ∈ K, ai ∈ A.

Mostrar esta u ´ltima afirmaci´on es un interesante ejercicio, hacerlo. Se dice que A ⊂ V engendra V si y solamente si < A >= V . Por la anterior observaci´on, esta definici´on significa que todo v ∈ V se escribe como X v= αi ai , suma finita

αi ∈ K, ai ∈ A.

Ejemplos 8.- K espacio vectorial sobre K. Sea α 6= 0, entonces < {α} >= K. En efecto, sea β ∈ K, se tiene β = (βα−1 )α. 9.- Kn . Introducimos los elementos e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1). {e1 , e2 , . . . , en } engendra V . En efecto sea (α1 , . . . , αn ) ∈ Kn , se tiene α1 , . . . , αn ) =

n X i=1

αi ei .

5

I.1 Preliminares 10.- Ejercicio.- Mostrar que < {t → ti }i≥0 >= P

y Pn =< {t → ti }ni=0 >

11.- Sean U1 , U2 , . . . , Un subespacios vectoriales de V , se denota U1 + U2 + · · · + Un el subespacio engendrado por

n [

Ui .

i=1

Ejercicio.- Mostrar que los elementos de

n X

son aqu´ellos de V que se escriben bajo la forma

i=1

v=

n X i=1

ui ,

ui ∈ U.

Definici´ on I.1.7.- Se dice que la familia {v1 , . . . , vm } de V es linealmente dependiente si y solamente si existen α1 , α2 , . . . , αn ∈ K no todos nulos, tales que n X

αi vi = 0.

i=1

Si {v1 , . . . , vm } no es linealmente dependiente, se dice que es linealmente independiente; es decir, {v1 , . . . , vm } es linealmente independiente si y solamente si n X i=1

αi vi = 0 ⇒ α1 = α2 = · · · = αm = 0.

Se dice que ∅ = 6 A ⊂ V , no necesariamente finito, es linealmente dependiente, si existe {v1 , . . . , vm } ⊂ A linealmente dependiente. Se dice que ∅ 6= A ⊂ V , no necesariamente finito, es linealmente independiente si toda familia finita {v1 , . . . , vm } ⊂ A es linealmente independiente. Se conviene que ∅ es linealmente independiente. Ejemplos 12.- A = {0}, entonces A es linealmente dependiente. 13.- Los vectores ei , i = 1, . . . , n de Kn definidos en el ejemplo 9, forman una familia linealmente independiente. 14.- Sea V 6= {0} un espacio vectorial, 0 6= x ∈ V , entonces {x} es linealmente independiente. En efecto, utilizando la proposici´ on (I.1.3), punto 5, se tiene αx = 0 ⇒ α = 0. 15.- Sea P el espacio de las funciones polinomiales reales. Ejercicio.-Mostrar que el conjunto A = {t 7→ ti }i≥0 es una familia linealmente independiente de P. Definici´ on I.1.8.- Se dice que B ⊂ V es una base de V espacio vectorial si y solamente si B es linealmente independiente y B engendra V . Ejemplos 16.- V = K, sea α ∈ K, con α 6= 0, entonces {α} es una base de K. 17.- V = Kn . El conjunto {e1 , e2 , . . . , en } es una base de K n . 18.- {t 7→ ti }ni=0 es una base de Pn .

6

I Espacios Vectoriales y Aplicaciones Lineales

Proposici´ on I.1.9.- El subconjunto xii∈I del espacio vectorial V es una base de V , si y solamente si todo elemento v ∈ V se escribe de manera u ´nica bajo la forma v=

X

αi vi ,

sumaf inita

αi ∈ K.

Demostraci´ on.- En los ejercicios propuestos de la pr´ actica. Aplicaci´ on a los Sistemas Lineales    a11 ξ1 Planteando

 

an1 ξ1

+ .. .

a12 ξ2

+ an2 ξ2

+ +

··· +

a1m ξm

··· +

anm ξm

= .. .

0

=

0

(I.1.2)

a1 =(a11 , a21 , . . . , an1 ) ∈ Kn , .. . am =(a1m , a2m , . . . , anm ) ∈ Kn , b =(b1 , b2 , . . . , bn ) ∈ Kn .

El sistema (I.1.2) es equivalente a resolver ξ1 a1 + ξ2 a2 + · · · + ξm am = b. Por consiguiente: i) El sistema (I.1.2) tiene una soluci´on, si y solamente si b ∈< {a1 , . . . , am } >. ii) Si {a1 , . . . , am } es linealmente independiente y (I.1.2) tiene soluci´on, entonces ´esta es u ´nica.

´ n Finita I.2 Espacios de Generacio

7

I.2 Espacios de Generaci´ on Finita

Se dice que el espacio vectorial V es de generaci´ on finita si posee un sistema de generadores finito, es decir si existe v1 , v2 , . . . , vn ∈ V , tales que todo v ∈ V , se escribe como v=

n X i=1

αi vi ,

αi ∈ K.

Ejemplos 1.- Kn es de generaci´on finita, porque es engendrado por {e1 , e2 , . . . , en }. 2.- El espacio P de las funciones polinomiales no es de generaci´on finita. Esto se ver´ a m´as adelante. 3.- Ejercicio.- Si V y W son espacios vectoriales sobre K cuerpo, mostrar que V × W es de generaci´on finita. En este par´ agrafo se ver´ a como resultado principal que los espacios vectoriales de generaci´ on finita tienen bases finitas, adem´ as que todas las bases de un espacio vectorial de generaci´ on finita tienen el mismo n´ umero de elementos. Teorema I.2.1.- Intercambio de Grassmann.- Sea V 6= {0} un espacio de generaci´on finita. Sea Gr = {y1 , y2 , . . . , yr } un sistema de generadores de V . Sea L = {x1 , . . . , xs } un subconjunto linealmente independiente en V . Entonces: i) r ≥ s; ii) Existen (r − s) elementos yis+1 , yis+2 , . . . , yir de Gr tales que {x1 , . . . , xs , yis+1 , yis+2 , . . . , yir } engendra V. Demostraci´ on.- Por inducci´on sobre s, donde s es el n´ umero de elementos de L. Para s = 0, el enunciado es cierto de manera trivial. Supongamos cierto el teorema para s − 1, con s > 0. A demostrar que el teorema es cierto para s. Se utiliza la hip´ otesis de inducci´on para L′ = {x1 , x2 , . . . , xs−1 }, obteniendo: i) r ≥ (s − 1), ii) existen yis , yis+1 , . . . , yir en Gr tales que {x1 , . . . , xs−1 , yis , yis+1 , . . . , yir } engendra V. Si es necesario renumerar los yi , se puede suponer que yij = yj , es decir {x1 , . . . , xs−1 , ys , . . . , yr } engendra V . Por lo tanto, el elemento xs se puede escribir como combinaci´on lineal de x1 , . . . , xs−1 , ys , . . . , yr r s−1 X X βj yj , αi xi + xs = i=1

j=s

los βj no son todos nulos, sino L′ ser´ıa linealmente dependiente. De ah´ı, se deduce que r ≥ s, existe un j, con βj 6= 0. Si es necesario renumerar los yj , se puede suponer que βs 6= 0. De donde s−1 r X X xs = αi xi + βs ys + βj yj . (I.2.1) i=1

j=s+1

El siguiente paso, es mostrar que {x1 , . . . , xs , ys+1 , . . . , yr } engendra V . Sea v ∈ V , por hip´otesis de inducci´on, se puede escribir r s−1 X X δj yj , (I.2.2) γi xi + δs ys + v= i=1

i=s+1

8

I Espacios Vectoriales y Aplicaciones Lineales

por otro lado, se tiene a partir de (I.2.1) ys =

s−1 X −αi i=1

xi +

βs

r X −βj 1 xs + yj , βs βs j=s+1

introduciendo esta u ´ltima expresi´ on en (I.2.2) y efectuando los c´ alculos necesarios se llega a v=

s X

αi′ xi +

r X

δj′ yj .

i=s+1

i=1



Corolario I.2.2.- Sea V un espacio vectorial de generaci´on finita y Gr un sistema de generadores de V . Entonces todo subconjunto linealmente independiente contiene a lo mas #(Gr). Consecuencia.- Sea V un espacio vectorial, se supone que V contiene un subconjunto infinito linealmente independiente, entonces V no es de generaci´on finita. Por lo tanto P, no es de generaci´on finita. Corolario I.2.3.- Sea V espacio vectorial de generaci´on finita y L un subconjunto linealmente independiente de V . Entonces se puede completar L en un sistema finito de generadores de V . Teorema I.2.4.- Un espacio vectorial de generaci´on finita, posee bases finitas. M´ as precisamente, de todo sistema de generaci´on finita, se puede extraer una base; es decir si Gr ⊂ V engendra V , existe una base B de V con B ⊂ Gr. Si el espacio es V = {0}, se conviente que ∅ es la base de V . Demostraci´ on.- Supongamos que V 6= {0}, sino el teorema est´ a mostrado. Sea Gr = {y1 , y2 , . . . , yr } un sistema de generadores de V . Se elige B ⊂ Gr tal que B es linealmente independiente y B es maximal para esta propiedad; es decir, si B & B ′ ⊂ Gr, entonces B’ es linealmente dependiente. La existencia del conjunto B est´ a asegurada por que todo subconjunto linealmente en V cuenta con un n´ umero finito de elementos y adem´ as este numero est´ a acotado por r, el n´ umero de generadores de Gr. Afirmamos que B es una base, con lo que el teorema estar´ıa demostrado. En efecto, B es linealmente independiente por construcci´ on. Solo queda mostrar que B engendra V . Si es necesario renumerar, se puede suponer que B = {y1 , y2 , . . . , ys }. Si s = r, se tiene B = Gr y por consiguiente B es un sistema de generadores. Si s < r, por maximilidad de B, el subconjunto {y1 , y2 , . . . , ys , yi }, para i = s + 1, . . . , r es linealmente dependiente. Por lo tanto para cada i = s + 1, . . . , r, existen α1 , α2 , . . . , αn y β ∈ K no todos nulos, tales que s X

αk yk + βyi = 0.

k=1

Se observa que β 6= 0, por que sino B no ser´ıa linealmente independiente. Por consiguiente s X −αk yi = yk , s < i ≤ r. β

(I.2.3)

k=1

Por otro lado, sea v ∈ V , como Gr es un sistema de generadores, se tiene tambi´en v=

s X

γk yk +

r X

γi yi ,

i=s+1

k=1

γj ∈ K.

Introduciendo (I.2.3), en cada uno de los yi con s < i ≤ r, se tiene finalmente v=

s X

k=1

δk yk .



´ n Finita I.2 Espacios de Generacio

9

Proposici´ on I.2.5.- Sea V un espacio vectorial de generaci´on finita. Entonces, todas las bases de B son finitas y comportan el mismo n´ umero de elementos. Este n´ umero se llama dimensi´ on de V y se escribe dimK V,

dim(V ),

dim V.

Se tiene que dim V es el n´ umero m´aximo, respectivamente m´ınimo, de elementos de un subconjunto linealmente independiente en V , respectivamente que engendra V . Demostraci´ on.- a) Por el corolario I.2.2 del teorema de Grassman, todas las bases de V son finitas. ′ } dos bases de V . Utilizando el teorema de Grassmann con: b) Sean {v1 , v2 , . . . , vn } y {v1′ , v2′ , . . . , vm ′ Gr = {v1 , v2 , . . . , vn }, L = {v1′ , v2′ , . . . , vm } ⇒ m ≤ n, ′ ′ ′ Gr = {v1 , v2 , . . . , vm }, L = {v1 , v2 , . . . , vn } ⇒ m ≤ m.

c) Se denota d la dimensi´on de V . Sea L un subconjunto linealmente independiente de V . Por el teorema de Grassmann, con Gr una base y L, se tiene d = #(Gr) ≥ #(L). d) Sea Gr un subconjunto finito de V que engendra V y B una base de V , por el teorema de Grassmann, se tiene #(GR) ≥ #(B) = d.  Ejemplos 4.- dim(Kn ) = n. 5.- dim(Pn ) = n + 1. 6.- Ejercicio.- Mostrar que si V y W son de generaci´on finita, entonces V × W es de generaci´on finita y adem´ as dim(V × W ) = dim(V ) + dim(W ). Remarca En general un espacio vectoria posee bases y todas sus bases tienen el mismo ”numero“ de elementos, o si V no es de generaci´on finita, se dice que V es de generaci´ on infinita. Proposici´ on I.2.6.- Sea V de dimensi´on d y v1 , v2 , . . . , vn n elementos de V , entonces: i Si n > d, {v1 , v2 , . . . , vn } es linealmente dependiente. ii Si n < d, {v1 , v2 , . . . , vn } no engendra V . iii Si n = d, los enunciados siguientes son equivalentes: a) {v1 , v2 , . . . , vn } es linealmente independiente, b) {v1 , v2 , . . . , vn } engendra V , c) {v1 , v2 , . . . , vn } es una base de V . Demostraci´ on.- Los incisos i,ii como Ejercicio. Mostremos el inciso iii). a)⇒b) Sea B = {x1 , . . . , xd } una base de B, utilizando Grassman con Gr = B y L = {v1 , v2 , . . . , vn }, se tiene que {v1 , v2 , . . . , vn } engendra V . b)⇒c) De todo sistema de generadores se puede extraer una base. c)⇒a) trivial.  Proposici´ on I.2.7.- Sea V un espacio vectorial de generaci´on finita. Entonces, todo conjunto linealmente independiente puede ser completado en una base de V . Demostraci´ on.- Sea L = {x1 , . . . , xs } un subconjunto linealmente independiente. B = {y1 , . . . , yd } una base de V . Por el teorema de Grassmann, si es necesario renumerar los yi , el subconjunto {x1 , . . . , xs , ys+1 , . . . , yd } engendra V . De la proposici´ on I.2.6, se deduce que {x1 , . . . , xs , ys+1 , . . . , yd } es una base de V .



10

I Espacios Vectoriales y Aplicaciones Lineales

Proposici´ on I.2.8.- Sea V de generaci´on finita y U un subespacio de V . Entonces, U es de generaci´on finita y se tiene dim(U ) ≤ dim(V ). Adem´ as dim(U ) = dim(V ) ⇐⇒ U = V. Demostraci´ on.- Se observa que un subconjunto linealmente independiente de U es tambi´en un subconjunto linealmente independiente de V . Los subconjuntos linealmente independientes de V , tienen a lo sumo dim(V ) elementos. Por lo tanto, los subconjuntos linealmente independientes de U son finitos con a lo m´as dim(V ) elementos. Se elige B = {u1 , u2 , . . . , un } un subconjunto linealmente independiente maximal; es decir, si B & B ′ ⊂ U , entonces B ′ es linealmente dependiente. Afirmamos que B es una base de U , con lo que estar´ıa demostrado que U es de generaci´on finita y dim(U ) ≤ dim(V ). En efecto, sea u ∈ U , a demostrar que existe α1 , . . . , αn ∈ K, tales que u=

n X

αi ui .

i=1

Si u ∈ {u1 , u2 , . . . , un } est´ a claro. Si u 6∈ {u1 , u2 , . . . , un }, se considera B ′ = {u1 , u2 , . . . , un , u}, por maximilidad B ′ es linealmente dependiente. Por consiguiente, existen β1 , . . . , βn , β no todos nulos tales que 0=

n X

βi ui + βu.

i=1

beta 6= 0, sino B ser´ıa linealmente dependiente, entonces u=

n X −βi i=1

β

ui .

Falta probar que dim(U ) = dim(V ) ⇒ U = V . Sea B = {u1 , . . . , un } una base de U, es por lo tanto un subconjunto linealmente independiente de U y por consiguiente de V , por la proposicion I.2.6 inciso iii), B es una base de V . La implicaci´ on del otro sentido es trivial  Proposici´ on I.2.9.- (F´ ormula de Dimensi´ on).- Sea V de generaci´on finita. P y Q subespacios de V . Entonces dim(P + Q) = dim(P ) + dim(Q) − dim(P ∩ Q). Demostraci´ on.- En los ejercicios de la Pr´actica. Ejemplo 7.- La intersecci´ on de dos planos vectoriales diferentes en R3 es una recta vectorial. En efecto, se tiene: 3 P + Q = R , porque sino P = Q, aplicando la f´ormula de dimensi´on de subespacios, se deduce que dim(P ∩ Q) = 1.

11

I.3 Aplicaciones Lineales

I.3 Aplicaciones Lineales

Definici´ on I.3.1.- Sean V y W dos espacios vectoriales. Se dice que la aplicaci´ on f :V →W es lineal, o homomorfismo de espacios vectoriales, si f (v1 + v2 ) = f (v1 ) + f (v2 ), ∀v1 , v2 ∈ V ; f (αv) = αf (v), ∀α ∈ K, ∀v ∈ V. Remarca.- f (0) = 0, en efecto f (0) = f (0 + 0) = f (0) + f (0). Se denota por Hom(V, W ) el conjunto de las aplicaciones lineales de V en W . Proposici´ on I.3.2.- Hom(V, W ) es un espacio vectorial para las operaciones definidas por: (f + g)(v) = f (v) + g(v), (αf )(v) = αf (v). Demostraci´ on.- Ejercicio. Definici´ on I.3.3.- Una aplicaci´ on lineal biyectiva se llama isomorfismo, una aplicaci´ on lineal f : V → V se llama endomorfismo, End(V ) = Hom(V, V ). Un endomorfismo biyectivo se llama automorfismo, Gl(V ) = {automorfismos de V }. Ejemplos y/o Ejercicios 1.- Sea U un subespacio de V espacio vectorial, entonces la inclusi´on U →V u 7→ u es lineal. 2.- La aplicaci´ on definida por Kn → Kn (α1 , . . . , αn ) 7→ (α1 , . . . , αp , 0, . . . , 0) p ≤ n es lineal. 3.- V = R2 . Las siguientes aplicaciones, estudiadas en el curso de Geometr´ıa, son lineales: rotaci´on de centro O, simetr´ıa de eje que pasa por 0, homotecia de centro 0. 4.- Si V = P espacio de las funciones polinomiales. Las siguientes aplicaciones son lineales: Dn : P → P

D:P→P p 7→ p′

p 7→ p(n)

5.- Consideremos V = C 0 ([0, 1], R) = {f : [0, 1] → R continua}. Las siguientes aplicaciones son lineales: C 0 ([0, 1], R) → R f 7→ f (a), a ∈ [0, 1] Z 1 f (t)dt. f 7→ 0

12

I Espacios Vectoriales y Aplicaciones Lineales La aplicaci´ on f → max |f (x)| no es lineal. x∈[0,1]

6.- Consideremos el sistema    a11 ξ1 Planteando

 

an1 ξ1

+ .. .

a12 ξ2

+ ··· +

+

an2 ξ2

+ · · · + anm ξm

a1m ξm

= .. .

b1 (I.3.1)

= bn

a1 =(a11 , a21 , . . . , an1 ) ∈ Kn , .. . am =(a1m , a2m , . . . , anm ) ∈ Kn , b =(b1 , b2 , . . . , bn ) ∈ Kn .

La escritura vectorial de (I.3.1) est´ a dada por ξ1 a1 + ξ2 a2 + · · · + ξm am = b. Se asocia a (I.3.1) la aplicaci´ on lineal a : Km → Km (ξ1 , . . . , ξm ) 7→ ξ1 a1 + ξ2 a2 + · · · + ξm am Resolver el sistema (I.3.1) es equivalente a encontrar ξ = (ξ1 , . . . , ξm ) ∈ Km tal que a(ξ) = b. 7.- Sea f : V → W un isomorfismo, entonces f −1 : W → V es lineal. En efecto f −1 (w1 + w2 ) = f −1 (f (v1 ) + f (v2 )) = f −1 (f (v1 + v2 )) = v1 + v2 = f −1 (w1 ) + f −1 (w2 ), f −1 (αw) = f −1 (αf (v)) = f −1 (f (αv)) = αv = αf −1 (w). El resultado principal de este par´ agrafo, est´ a dado por: ”Si V y W son espacios vectoriales, {v1 , . . . , vn } una base de V , entonces para toda sucesi´ on (w1 , w2 , . . . , wn ) de elementos de W , existe exactamente una aplicaci´ on lineal f : V → W tal que f (vi ) = wi , para i = 1, 2, . . . , n. Definici´ on I.3.4.- Sean P y Q dos subespacios de V . Si P ∩ Q = {0}, en lugar de P + Q, se escribe P ⊕ Q suma directa de P y Q. Proposici´ on I.3.5.- Si P ∩ Q = {0}, la aplicaci´ on P ×Q→P ⊕Q⊂V (x, y) 7→ x + y

es un isomorfismo. Demostraci´ on.- Ejercicio. Definici´ on I.3.6.- Sean P y Q dos subespacios de V . Se dice que P y Q son suplementarios, o bien P es suplementario de Q, si V = P ⊕ Q. Ejemplo 8.- Consideremos el espacio de las funciones f : R → R. Sean P = {f |f (t) = f (−t)} Q = {f |f (−t) = −f (t)}

13

I.3 Aplicaciones Lineales subespacios vectoriales del espacio de las funciones reales. Se tiene que V = P ⊕ Q, donde V es el espacio de las funciones reales. En efecto p(t) =

f (t) + f (−t) f (t) − f (−t) + q(t) = 2 2

y f (t) = p(t) + q(t).

se tiene que V = P ⊕ Q.



Proposici´ on I.3.7.- Sea P ⊂ V un subespacio vectorial de V espacio vectorial de dimensi´on finita, entonces existe al menos un suplementario de P . Demostraci´ on.- Sea {v1 , . . . , vn } una base de P , la cual se la prolonga en {v1 , . . . , vn , vn+1 , . . . , vd } base de V . Planteamos Q =< {vn+1 , . . . , vd } >, Definici´ on I.3.8.- (Vocabulario) Sea f : V → W una aplicaci´ on lineal. Sea V1 un subespacio de V , entonces f (V1 ) = {w ∈ W |∃v ∈ V1 tal que f (v) = w}. Si V1 = V , entonces f (V ) se llama la imagen de f y se denota Im(f ). Sea W1 un subespacio de W , entonces f −1 (W1 ) = {v ∈ V |f (v) ∈ W }. Si W1 = {0}, f −1 ({0}) se llama nucleo de f se denota ker(f ).

Proposici´ on I.3.9.- f (V1 ) y f −1 (W1 ) de la definici´on precedente son subespacios vectoriales de V y W respectivamente. Demostraci´ on.- Ejercicio. Proposici´ on I.3.10.- Sea f : V → W lineal, entonces a) b) c)

f es sobreyectiva ⇐⇒ Im(f ) = W, f es inyectiva ⇐⇒ ker(f ) = {0}, f es biyectiva ⇐⇒ ker(f ) = {0} y Im(f ) = W.

Demostraci´ on.- El punto a) es evidente. b)⇒ Sea v ∈ ker(f ), entonces f (v) = 0 = f (0) ⇒ v = 0. ⇐ Sean v1 y v2 tales que f (v1 ) = f (v2 ), por consiguiente f (v1 − v2 ) = 0, v1 − v2 ∈ ker(f ) ⇒ v1 − v2 = 0 ⇒ v1 = v2 . c) Consecuencia directa de a) y b).



Teorema I.3.11.- F´ ormula de Dimensi´ on.- Sea V espacio vectorial de dimensi´on finita y f : V → W lineal. Entonces Im(f ) es de generaci´on finita y se tiene dim V = dim Im(f ) + dim ker(f ).

14

I Espacios Vectoriales y Aplicaciones Lineales

Demostraci´ on.- a) Sea {v1 . . . , vm } una base de V , entonces {f (v1 ), . . . , f (vm )} engendra Im(f ), por lo que Im(f ) es de generaci´on finita. En efecto, sea w ∈ Im(f ), por definici´on existe v ∈ V tal que f (v) = w. Se tiene v=

m X i=1

αi vi ⇒ f (v) =

m X

αi f (vi ).

i=1

b)Sea {v1 , . . . , vn } una base de ker(f ) que se completa a {v1 , . . . , vn , vn+1 , . . . , vm } base de V . Afirmamos que B = {f (vn+ ), . . . , f (vm )} es una base de Im(f ), con lo que quedar´ıa demostrada la f´ormula de dimensi´on. En efecto, B engendra Im(f ), por a) se tiene que {f (v1 ), . . . , f (vm )} engendra Im(f ), ahora bien f (v1 ) = · · · = f (vn ) = 0. B es linealmente independiente, sean αn+1 , . . . , αm ∈ K tales que m X

αi f (vi ) = 0,

i=n+1

por consiguiente 0=f

m X

αi vi

i=n+1

Por lo tanto v ∈ ker(f ), tambi´en se escribe como n X i=1

!



n X

m X

i=n+1

αi vi ∈ ker(f ).

βi vi . De donde

i=1

βi vi =

m X

αi vi ,

i=n+1

por independencia lineal, se tiene necesariamente que los αi = 0.



Corolario I.3.12.- Sea f : V → W lineal con V y W de dimensi´on finita, entonces: a) Si dim V > dim W , entonces f no es inyectiva. b) Si dim V < dim W , entonces f no es sobrectiva. c) Si dim V = dim W , las tres condiciones siguientes son equivalentes: i) f es inyectiva, ii) f es sobreyectiva, iii) f es biyectiva. Demostraci´ on.- Se utiliza la f´ormula de dimensi´on. a) dim ker(f ) = dim V − dim Im(f ) ≥ dim V − dim W > 0, de donde ker(f ) 6= {0}, por consiguiente f no es inyectiva. b)dim Im(f ) = dim V −dim ker(f ) ≤ dim V < dim W , de donde Im(f ) 6= W , por lo tanto f no es sobreyectiva. c) i) ⇐⇒ ii) dim ker(f ) = 0 ⇐⇒ dim W = dim Im(f ) ⇐⇒ f es sobreyectiva. Por lo tanto una funci´ on inyectiva es sobreyectiva y por consiguiente biyectiva, con lo que esta mostrada i)⇒iii).  Remarca.- El corolario I.3.12 es falso si la dimensi´on de los espacios no es finita. Consideremos P el espacio de las funciones polinomiales reales. La aplicaci´ on D:P →P p 7→ p′

15

I.3 Aplicaciones Lineales es sobreyectiva, pero no inyectiva.

Teorema I.3.13.- Fundamental.- Sea {v1 , . . . , vn } una base de V espacio vectorial. Entonces, para toda sucesi´on w1 , . . . , wn de elementos de W , existe exactamente una aplicaci´ on lineal f : V → W , tal que f (vi ) = wi ,

i = 1, . . . , n.

“Una aplicaci´ on lineal es enteramente determinada por el comportamiento de la imagen de su base”. Demostraci´ on.- a) Existencia. n X αi vi , αi ∈ K. Se plantea Para todo v ∈ V , se tiene una escritura u ´nica v = i=1

f (v) =

n X

αi wi ,

i=1

funci´on bien determinada por que los αi son u ´nicos. Por construcci´on se tiene f (vi ) = wi para i = 1, . . . , n. Falta ver que f es lineal, sean v y v ′ dos elementos de V , entonces v=

n X

αi vi ,

v′ =

i=1

Por consiguiente: f (v) =

n X

n X

αi′ vi

i=1

αi wi



f (v ) =

i=1

n X

⇒ v + v′ =

αi′ wi



n X

(αi + αi′ )vi .

i=1

f (v + v ) =

n X

(αi + αi′ )vi .

i=1

i=1

Se constata que f (v + v ′ ) = f (v) + f (v ′ ), lo mismo para f (αv) = αf (v). b) Unicidad. Sean f y g aplicaciones lineales de V en W , tales que f (vi ) = g(vi ) para i = 1, . . . , n. Se tiene f (v) = f (

n X i=1

αi vi ) =

n X

αi f (vi ) =

i=1

n X i=1

αi g(vi ) = g(

n X

αi vi ) = g(v).



i=1

Proposici´ on I.3.14.- Si V y W dos espacios de dimensi´on finita. Entonces, V y W son isomorfos, es decir existe un isomorfismo V → W , si y solamente si dim V = dim W . Demostraci´ on.- Si V y W son isomorfos, entonces dim V = dim W , caracter´ıstica de la f´ormula de dimensi´on. Si dim V = dim W , sean {v1 , . . . , vn } y {w1 , . . . , wn } bases de V y W respectivamente. Por el teorema fundamental existe f : V → W lineal tal que f (vi ) = wi . Utilizando la demostraci´on de la proposici´ on f´ormula de dimensi´on para aplicaciones lineales, se constata que Im f = W , por consiguiente la aplicaci´ on es biyectiva, consecuencia del corolario I.3.12. Proposici´ on I.3.15.- Sea {v1 , . . . , vn } una base de V , entonces la aplicaci´ on ϕ

Hom(V, W ) −→ W × W × · · · × W = W n f 7→ (f (v1 ), f (v2 ), . . . , f (vn )) es un isomorfismo de espacios vectoriales. Demostraci´ on.- ϕ es lineal: ϕ(αf ) = ((αf )(v1 ), . . . , (αf )(vn )) = α(f (v1 ), . . . , f (vn )) = αϕ(f ), ϕ(f + g) = ((f + g)(v1 ), . . . , (f + g)(vn )) = (f (v1 ) + g(v1 ), . . . , f (vn ) + g(vn )) = (f (v1 ), . . . , f (vn )) + (g(v1 ), . . . , g(vn )) = ϕ(f ) + ϕ(g).

16

I Espacios Vectoriales y Aplicaciones Lineales

El teorema fundamental indicar´a que ϕ es biyectiva.



Aplicaci´ on a los Sistemas Lineales Consideremos el sistema de n ecuaciones a n incognitas    a11 ξ1 + a12 ξ2 + · · · + a1n ξn .. .   an1 ξ1 + an2 ξ2 + · · · + ann ξn

= b1 .. .

(I.3.2)

= b2

Proposici´ on I.3.16.- Los enunciados siguientes son equivalentes para el sistema (I.3.2). i) ∀(bi ) ∈ K, existe a lo m´as una soluci´on del sistema (I.3.2). ii) ∀(bi ) ∈ K, existe al menos una soluci´on del sistema (I.3.2). iii) ∀(bi ) ∈ K, existe exactamente una soluci´on del sistema (I.3.2). iv) El sistema homogeneo asociado a (I.3.2) admite (ξi = 0) como u ´nica soluci´on. Demostraci´ on.- Al sistema (I.3.2), se asocia la aplicaci´ on linel a, ver ejemplo 6 de este par´agrafo. Por consiguiente Resolver (I.3.2) ⇐⇒ Encontrar todos los ξ ∈ Kn tal que a(ξ) = b. Es decir encontrar, a−1 ({b}). Los enunciados de la proposici´ on se traducen i) ∀b ∈ Kn , a−1 ({b}) comporta a lo m´as un elemento ⇐⇒ a es inyectiva. ii) ∀b ∈ Kn , a−1 ({b}) comporta al menos un elemento ⇐⇒ a es sobreyectiva. iii) ∀b ∈ Kn , a−1 ({b}) comporta exactamente un elemento ⇐⇒ a es biyectiva. iv) a−1 ({0}) = {0} ⇐⇒ ker a = {0}. Ahora bien, los cuatro puntos han sido ya mostrados en el corolario (I.3.12)



17

I.4 Anillo de Homomorfismos

I.4 Anillo de Homomorfismos

Proposici´ on I.4.1.- Sean f ∈ Hom(U, V ) y g ∈ Hom(V, W ), entonces g ◦ f ∈ Hom(U, W ), donde U, V, W son espacios vectoriales. Demostraci´ on.- Se tiene: g ◦ f (u1 + u2 ) = g(f (u1 + u2 )) = g(f (u1 ) + f (u2 )) = g(f (u1 )) + g((u2 )) = f ◦ g(u1 ) + f ◦ g(u2 ), g ◦ f (αu) = g(f (αu)) = g(α(f (u)) = αg(f (u)) = αg ◦ f (u).



Sobre End(V ), se tiene una adicion (f + g)(v) = f (v) + g(v), y una “ multiplicaci´ on” que es la composici´ on de aplicaciones (g ◦ f )(v) = g(f (v)). Estas dos leyes de composici´ on interna o operaciones verifican los axiomas siguientes: I.- Adici´ on i la adici´on es asociativa; ii la adici´on es conmutativa; iii existe un elemento cero 0 tal que 0 + f = f , para todo f ; iv Para todo f ∈ End(V ), existe un opuesto (−f ), tal que f + (−f ) = 0. II.- Multiplicaci´ on i la multiplicaci´ on es asociativa; ii existe un uno 1, tal que 1 ◦ f = f ◦ 1 = f , para todo f . 1 = id : V → V v 7→ v I.- Distributividad i f ◦ (g + h) = f ◦ g + f ◦ h; ii (f + g) ◦ h = f ◦ h + g ◦ h. Un conjunto A con una adici´on y una multiplicaci´on que satisface los tres sistemas de axiomas descritos, se llama anillo. Se dice que A es una anillo conmutativo, si A es una anillo cuya multiplicaci´on es conmutativa. Por lo tanto, End(V ) con la adici´on y la composici´ on de aplicaciones es un anillo. Ejemplos 1.- Z con la adici´on y la multiplicaci´ on usual es un anillo conmutativo. 2.- Un cuerpo (conmutativo) es un anillo (conmutativo). 3.- End(V ) no es un anillo conmutativo si dim V ≥ 2. En efecto, sea {v1 , . . . , vn } una base de V y consideremos los endomorfismos definidos por: f :V v1 v2 vi

→W 7→ αv1 7→ βv2 7→ vi , i ≥ 3;

g:V v1 v2 vi

→W 7 v1 + v2 → 7→ v2 7→ vi , i ≥ 3;

18

I Espacios Vectoriales y Aplicaciones Lineales entonces

g◦f :V v1 v2 vi

f ◦g :→W v1 7→ α(v1 + v2 ) v2 7→ βv2 vi 7→ vi , i ≥ 3;

→W 7→ αv1 + βv2 7→ βv2 7→ vi , i ≥ 3;

Si α 6= β, se tiene f ◦ g(v1 ) 6= g ◦ f (v1 ) y por consiguiente f ◦ g 6= g ◦ f . Definici´ on I.4.2.- Sea A y B dos anillos. Una aplicaci´ on f : A → B es un homomorfismo de anillos si i f (a1 + a2 ) = f (a1 ) + f (a2 ), ii f (a1 a2 ) = f (a1 )f (a2 ), iii f (1) = 1. Definici´ on I.4.3.- Sea A un anillo, se dice que I ⊂ A diferente del conjunto vacio es un ideal por izquierda (por derecha), si i ∀x, y ∈ I ⇒ x + y ∈ I, ii x ∈ I, a ∈ A ⇒ ax ∈ I (xa ∈ I).

Grupos Un grupo G es un conjunto dotado de una ley de composici´ on interna o operaci´ on G×G→G (g1 , g2 ) 7→ g1 ∗ g2 tal que i (g1 ∗ g2 ) ∗ g3 = g1 ∗ (g2 ∗ g3 ), ∀g1 , g2 , g3 ∈ G (Asociatividad); ii Existe un elemento neutro e tal que e ∗ g = g ∗ e = g, ∀g ∈ G; iii Todo elemento g ∈ G posee un inverso g ′ tal que g ∗ g ′ = g ′ ∗ g = e. Se dice que G un grupo es conmutativo o abeliano si ademas g1 ∗ g2 = g2 ∗ g1 ,

∀g1 , g2 ∈ G.

Notaci´ on Multiplicativa Si G es un grupo y la operaci´ on ∗ se la denota por ·, es decir G×G→G (g1 , g2 ) 7→ g1 · g2 el elemento neutro (uno) se denota por 1 y el inverso se denota por g −1 . Notaci´ on Aditiva (Reservada a los grupos abelianos) Si G es un grupo y la operaci´ on ∗ se la denota por +, es decir G×G→G (g1 , g2 ) 7→ g1 + g2 el elemento neutro (cero) se denota por 0 y el elemento inverso (opuesto) se denota por −g. Ejemplos 4.- (Z, adici´on) es un grupo abeliano. 5.- (Z, multiplicaci´ on) no es grupo. 6.- (V, +) donde V es un espacio vectorial es un grupo abeliano.

19

I.4 Anillo de Homomorfismos 7.- Sea E un conjunto. SE = {f : E → E biyectiva} con la composici´ on de aplicaciones es un grupo no conmutativo si #(E) ≥ 3. 8.- Sea V un espacio vectorial, el grupo lineal Gl(V ) = {f : V → V automorfismo} con la composici´ on de aplicaciones es un grupo no conmutativo.

Definici´ on I.4.4.- Sean (G, ∗) y (H, ⋆) dos grupos. Un homomorfismo de grupos es una aplicaci´ on tal que f (g1 ∗ g2 ) = f (g1 ) ⋆ f (g2 ). Ejemplo 9.- La aplicaci´ on (R, +) → (R − {0}, ·) x 7→ ex es un homorfismo de grupos.

20

I Espacios Vectoriales y Aplicaciones Lineales

I.5 Matriz de una Aplicaci´ on Lineal

Sea V un espacio vectorial y {v1 , . . . , vn } una base de V , entonces existe un isomorfismo natural dado por ϕ : V → Kn vi 7→ ei , i = 1, . . . , n donde {e1 , . . . , en } es la base can´ onica de Kn . Por consiguiente, si v =

n X

αi vi , se tiene

i=1

ϕ(v) = (α1 , α2 , . . . , αn ) ∈ Kn . El elemento de K, αi , se llama la i-sima componente de v respecto a la base {v1 , . . . , vn } y v ∈ V puede escribirse en forma de componentes respecto a la base {v1 , . . . , vn } como

v = ( α1

α2

· · · αn )

 α1  α2   o bien v =   ...  ; 

αn

la segunda escritura en vector columna ser´ a muy util para lo que sigue en el curso. Una matriz A de n × m a coeficientes en K es un tablero de n filas y m columnas de elementos de K 

a11  a21 A=  ...

an1

 a1m a2m  . ..  . 

a12

···

an2

· · · anm

El conjunto de las matrices n × m a coeficientes en K, se lo denota por Mn,m (K). Sean V y W dos espacios de dimensi´on m y n respectivamente, {v1 , . . . , vm } una base de V, {w1 , . . . , wn } una base de W ; sea f : V → W lineal, se tiene para cada uno de los elementos de la base de V   a1j n X   aij wi =  ...  j = 1, . . . , m; f (vj ) = i=1 anj

donde los aij ∈ K. Por consiguiente, se puede asociar a f y a las bases {v1 , . . . , vm } y {w1 , . . . , wn }, la matriz 

a11  a21 Mf =   ...

an1

 a1m a2m  ∈ Mn,m (K) ..  . 

a12

···

an2

· · · anm

que se llama la matriz de f respecto a las bases {v1 , . . . , vm } y {w1 , . . . , wn }. Se observa inmediatamente que el n´ umero de filas es igual a la dimensi´on del espacio destino W para f y el n´ umero de columnas es igual a la dimensi´on del espacio fuente V para f .

´ n Lineal I.5 Matriz de una Aplicacio

21

Receta.- Para construir la matriz de f respecto a las bases {vi } y {wj } disponer en vectores columnas las componentes de f (vj ) respecto a la base {wj }.

Remarca.- Mn,m (K) est´ a en biyecci´on con Knm , pero con las nociones de fila y columna.

n Proposici´ on I.5.1.- Resultado principal.- Sea {vi }m on i=1 una base de V y {wj }i=1 una base de W . La aplicaci´

Hom(V, W ) → Mn,m (K) f 7→ Mf respecto a las bases en cuesti´on, es biyectiva. Demostraci´ on.- Recordamos que Hom(V, W ) → W n f 7→ (f (v1 ), . . . , f (vn )) es un isomorfismo de espacios vectoriales y que W → Kn   α1 n X . w= wi 7→  ..  i=1 αn es otro isomorfismo. De esta manera Hom(V, W ) f

Knm ∼ = Mn,m (K)   a11 a12 · · · a1m a2m   a21 7 (f (v1 ), . . . , f (vn )) 7→  → ..   ... .  an1 an2 · · · anm −→

Wn

−→

es biyectiva.



Ejemplos 1.- Consideremos la proyecci´on del plano R2 sobre el eje x. La matriz de la proyecci´on respecto a la base can´ onica est´ a dada por   e1 → e1 1 0 ⇒ Mf = 0 0 e2 → e2 2.- Ejercicio.- Determinar las matrices respecto a la base can´ onica de las aplicaciones lineales del curso de Geometr´ıa, es decir: rotaciones, homotecias, simetr´ıas, similitudes, etc.

Transcripci´ on de las Operaciones Lineales en T´ erminos de Matriz Una vez determinada la relaci´on existente entre el conjunto de las matrices y el espacio de los homomorfismos es transcribir las operaciones de las aplicaciones lineales en t´erminos de operaciones de matrices. Sean V espacio vectorial de base {v1 , . . . , vm } y W espacio vectorial de base {w1 , . . . , wn }. Consideremos las aplicaciones lineales f, g : V → W, cuyas matrices respecto a las bases en cuesti´on son A = (aij ), matrices pertenecientes a Mnm (K).

B = (bij )

22

I Espacios Vectoriales y Aplicaciones Lineales

Proposici´ on I.5.2.- Sea C = (cij ) la matriz de f + g respecto a las mismas bases en cuesti´on, entonces C =A+B cij = aij + bij . Sea D la matriz de αf respecto a las bases {vi } y {wj }, entonces D = αA dij = αdij Demostraci´ on.- Ejercicio. Corolario I.5.3.- Se tiene Hom(V, W ) → Mn,m (K) f 7→ Mf respecto a las bases {vi } y {wj }, es un isomorfismo de espacios vectoriales, con la adici´on y la multiplicaci´on por escalares. El siguiente paso es determinar la matriz de la composici´ on de aplicaciones lineales. Sean: U espacio vectorial con {u1 , . . . , ul } base; V espacio vectorial con {v1 , . . . , vm } base; W espacio vectorial con {w1 , . . . , wn } base; los homomorfismos: f :U →V g : V → W. ¿Cual es la matriz de g ◦ f : U → W respecto a las bases {ui } y {wj }.? Sean: A = (aik ) la matriz de f respecto a las bases {ui } y {vk }; B = (bkj ) la matriz de g respecto a las bases {vk } y {wj }; C = (cij ) la matriz de g ◦ f respecto a las bases {ui } y {wj }. Por lo tanto n X cji wj g ◦ f (ui ) = i=1

||

g(f (ui )) = g

m X

aki vk

k=1

=

m X

k=1

=⇒ cji =

m X

!

=

m X

aki g(vk )

k=1

  ! m n n X X X bjk aki wj , bjk wj  = aki  j=1

j=1

k=1

bjk aki .

k=1

Por consiguiente C es la matriz obtenida de multiplicar BA, es decir C = BA. Por el uso frecuente de algunas matrices, vale la pena citarlas: 

1 0 0 1 I = Ir =   0

 ··· 0  0  ∈ Mr,r (K) = Mr (K) ..  . 1

´ n Lineal I.5 Matriz de una Aplicacio

23

Se tiene Ir A = A, ∀A ∈ Mr,d (K); y BIr = B, ∀B ∈ Ms,r (K). Ir se llama la matriz identidad. 0 ∈ Mp,q (K) es la matriz cuyos coeficientes son nulos. Corolario I.5.4.- Mn,n (K) con la adici´on y la multiplicaci´on es un anillo (no conmutativo si n ≥ 2). Adem´ as la aplicaci´ on (dim V = n): End(V ) → Mn,n (K) f 7→ Mf es un isomorfismo de anillos. Para el espacio V = Kn con la base can´ onica, se dispone de un isomorfismo can´ onico Gl(Kn ) −→ Gl(n, K) = {A ∈ Mn,n (K)|A es inversible} ∩ End(Kn ) → Mn,n (K) f 7→ Mf matriz de f respecto a la base can´ onica de V. Demostraci´ on.- Ejercicio. Remarca.- Sea f : V → W lineal, A = (aij ) la matriz de f respecto a las bases {vi } y {wj }. Sea v ∈ V , ¿Como calcular f(v)? n X , entonces Se escribe v = i=1

f (v) =

m X

αj f (vj ) =

i=1

m X

αj

j=1

n X

aij wi

i=1

!

=

n X i=1

 

m X j=1



aij αj  wi ,

lo que en notaci´on de componentes se traduce a 

      β1 a11 a1m a11  ..  . . .  .  = α1  ..  + · · · + αm  ..  =  .. βn

an1

anm

an1

···

 a1m ..   .

· · · anm

 α1 ..  . .

αm

24

I Espacios Vectoriales y Aplicaciones Lineales

I.6 Cambio de Base

Sean: ′ V espacio vectorial, {v1 , . . . , vm }, {v1′ , . . . , vm } dos bases de V ; ′ W espacio vectorial, {w1 , . . . , wn }, {w1 , . . . , wn′ } dos bases de W ; Se tiene ∼ Hom(V, W ) −→ Mn,m (K) f 7→ A(f ): matriz de f respecto a {vi } y {wj }, ∼

Hom(V, W ) −→ Mn,m (K) f 7→ A′ (f ): matriz de f respecto a {vi′ } y {wj′ }, Programa.- Explicitar la aplicaci´ on Mn,m (K) → Mn,m (K) A(f ) 7→ A′ (f ).

Noci´ on de Matriz de Pasaje Sean {v1 , . . . , vm } y

′ {v1′ , . . . , vm }

dos bases de V . Se escribe

vj =

m X

mij vi′ ,

M = (mij ) ∈ Mm,m (K),

i=1

se llama la matriz de pasaje de {vi } a {vi′ }. M es tambi´en la matriz de la aplicaci´ on identidad de V respecto a {vi } en la fuente y {vi′ } en el destino. De la misma manera se define N = (nij ) ∈ Mn,n por wj =

n X

nij wi′ ,

i=1

la matriz de pasaje de {wj } a {wj′ }.

Proposici´ on I.6.1.- Sean {vi }, {vi′ } y {vi′′ }, tres bases de V espacio vectorial. Se denota M = (mij ) la matriz de pasaje de {vi } a {vi′ }, M ′ = (m′ij ) la matriz de pasaje de {vi′ } a {vi′′ }. Entonces M ′ M es la matriz de pasaje de {vi } a {vi′′ }.

Demostraci´ on.- Se tiene:

vj =

m X

mkj vk′ ,

vk′ =

vj =

m X

mkj

vj =

m m X X i=1

m X

m′ik vi′′

!

!

vi ,

i=1

k=1

de donde

m′ik vi′′ ,

i=1

k=1

obteniendo as´ı

m X

|

k=1

m′ik mkj {z m′′ij

}

,

I.6 Cambio de Base

25

por lo tanto M ′′ = M ′ M .



Proposici´ on I.6.2.- Sea A ∈ Mm,m (K), si existe B ∈ Mm,m (K) tal que AB = I o BA = I, entonces A es una matriz inversible de inversa B. Demostraci´ on.- Ejercicio. Proposici´ on I.6.3.- Para las matrices de pasaje se tiene: a) Las matrices de pasaje son inversibles. b) N y M como antes, se tiene A(f ) = N −1 A′ (f )M. Demostraci´ on.-a) Se utiliza la proposici´ on I.6.1 con M ′ la matriz de pasaje de {vi′ } a {vi }. obteniendo de ′ esta manera M M = I, por la proposici´ on I.6.2 se tiene que M es inversible. b) recordemos: m X vj = mkj vk′ , k=1

n X

wj′ =

n ˜ ij wi

con (˜ nij ) = N −1 ,

aij wi

con A(f ) = (aij ),

a′ij wi

con A′ (f ) = (a′ij ).

i=1

n X

f (vj ) =

i=1 n X

f (vj′ ) =

i=1

Para mostrar el punto b), es suficiente mostrar que aij = (N −1 A′ M )ij Se tiene: f (vj ) = f

X

mkj vk′

k

=

X

mkj

k

=

X l

Por lo tanto aij = (N −1 A′ M )ij .

X l

clj

!

=

X

a′lk wl′

mkj f (vk′ )

k

!

=

X X l

a′lk mkj

k

!

wl′

| {z } (AM )lj = clj ! ! X X X n ˜ il clj wi . n ˜ il wi = i

i

i

| {z } (N −1 A′ M )ij

′ }. {v1′ , . . . , vm



Para f ∈ End(V ), Corolario I.6.4.- Sea V espacio vectorial con las bases {v1 , . . . , vm } y se denota A(f ), respectivamente A′ (f ), la matriz de f en la base {v1 , . . . , vm }, respectivamente en la base ′ {v1′ , . . . , vm }. Se denota M la matriz de pasaje de {vi } a {vi′ }. Entonces A(f ) = M −1 A′ (f )M.

Aplicaci´ on al Rango de una Matriz Definici´ on I.6.5.- Sea f → W lineal. Se llama rango de f la dimensi´on de Im(f ).

26

I Espacios Vectoriales y Aplicaciones Lineales

Proposici´ on I.6.6.- Sea f : V → W lineal de rango r. Entonces existe una base {v1 , . . . , vm } de V y una base {w1 , . . . , wn } de W tales que f (vi ) = wi f (vi ) = 0

para i = 1, . . . , r; para i = r + 1, . . . , m.

Dicho de otra forma, la matriz de f respecto a {vi } y {wj } es de la forma 

Ir 0

0 0



.

Demostraci´ on.- La f´ormula de dimensi´on para aplicaciones lineales da dim Im(f ) + dim ker(f ) . | {z V} = |dim {z } | {z } m

r

m−r

Se elije una base {vr+1 , . . . , vm } base de ker(f ), se completa en {v1 , . . . , vr , vr+1 , . . . , vm } base de V . Se toma como base de Im(f ) {f (v1 ), . . . , f (vr )} y luego se completa esta base en una base de W .  Corolario I.6.7.- Sea B ∈ Mn,m (K), entonces existe dos matrices N ∈ Gl(n, K) y M ∈ Gl(m, K), tales que N

−1

BM =



Ir 0

0 0



.

Demostraci´ on.- Se aplica la proposici´ on I.6.6 a b : Km → Kn cuya matriz respecto a las bases can´ onicas es B. Por la proposici´ o precedente, existen {v1 , . . . , vm } y {w1 , . . . , wn } bases de Km y Kn respecto a las cuales la matriz asociada a b es   Ir 0 . B′ = 0 0 Sea M la matriz de pasaje de {vi } a la base can´ onica en Km , N la matriz de pasaje de {wi } a la base can´ onica en Kn , entonces por la proposici´ on I.6.3, se tiene B ′ = N −1 BM  Definici´ on I.6.8.- Sea B ∈ Mn,m (K) 

b11 . B =  .. bn1

...

 b1m ..  .

· · · bnm

Se considera las filas de B como elementos de Km y las columnas de B como elementos de Kn El rango fila (columna) de B es la dimensi´on del subespacio de Km (Kn ) engendrado por las filas (columnas) de B. El rango columna de B es igual al rango de la aplicaci´ on b : Km → Kn cuya matriz respecto a las bases can´ onicas es B. En efecto, se tiene que b(ei ) es la i-sima columna de la matriz B, la imagen de b esta engendrada por b(e1 ), . . . , b(em ). Transpuesta de una Matriz Sea B ∈ Mn,m (K). Se llama transpuesta deB y se la denota B t la matriz de Mm,n (K) definida por (B t )ij = Bji .

27

I.6 Cambio de Base

De esta forma el rango fila de B es igual al rango columna de B t . En efecto, el rango fila de B es igual al rango de la aplicaci´ on bt : Kn → Km , cuya matriz respecto a las bases can´ onicas es B t . Proposici´ on I.6.9.- La transpuesta verifica las siguientes propiedades: i) (B t )t = B. ii (AB)t = B t At . iii A ∈ Gl(n, K) ⇒ At ∈ Gl(n, K) y (At )−1 = (A−1 )t . Demostraci´ on.- i) y ii) ejercicio. Para el punto iii), se tiene At (A−1 )t = (A−1 A)t = I t = I ⇒ (At )−1 = (A−1 )t .



Proposici´ on I.6.10.- El rango fila de B es igual al rango columna de B. Demostraci´ on.- Sea r = rango columna de B. Por el corolario 1.6.7, existen N ∈ Gl(n, K) y M ∈ Gl(m, K) tales que   Ir 0 −1 B=N M. 0 0 Se tiene aplicando las propiedades de la matriz transpuesta Bt = M t



Ir 0

0 0



(M −1 )t .

Se interpreta las matrices como aplicaciones lineales (respecto a las bases can´ onicas); Bt bt : Kn → Km t M mt : Km → Km

(N t )−1 (nt )−1 : Kn → Km   Ir 0 ir : Kn → Km 0 0

(x1 , . . . , xn ) 7→ (x1 , . . . , xr , 0, . . . , 0).

Se tiene bt = mt ir (nt )−1 , ver el diagrama Kn (nt)−1 ↓ Kn

bt

Km ↑ mt ir −→ Km −→

por lo tanto se tiene que rango(bt ) = rango(ir ) = r. Definici´ on I.6.11.- Sea B ∈ Mn,m (K), el rango de de B es rang B = rango columna de B = rango fila deB.



28

I Espacios Vectoriales y Aplicaciones Lineales

I.7 Operaciones Elementales sobre las Matrices

Justificaci´ on.- Sea    a11 ξ1  

Se introduce

an1 ξ1

+ .. .

a12 ξ2

+ ··· +

+

an2 ξ2

+ · · · + anm ξm

A = (aij ) ∈ Mn,m ,

a1m ξm



 ξ1  ..   .  ∈ Km = Mm,1 (K), ξm

= .. .

b1

= bn

b=

b1 .. .b

n

!

∈ Kn .

Introduciendo la notaci´on matricial, el sistema de ecuaciones, se convierte en Aξ = b. 

 Ir 0 Se observa que si A = , se encuentra la soluci´on a la vista. 0 0 En el par´ agrafo precedente, se mostr´o que existen M y N inversibles tales que A = N −1





Ir 0

por consiguiente se tiene Aξ = N −1

Ir 0 0 0

0 0





M ξ = b.

M;

Planteando b′ = N b y ζ = M ξ, se obtiene el sistema 

Ir 0

0 0



ζ = b′ .

Por lo tanto, conociendo N se deduce ζ y conociendo M −1 se deduce ξ. Programa.- Explicitar un procedimiento o algoritmo que permita calcular ξ. Se denota Sn el conjunto de las biyecciones o permutaciones de {1, 2, . . . , n}. Es un grupo para la composici´ on de aplicaciones llamado grupo sim´ etrico. Hay n! elementos en Sn . Una permutaci´ on σ de {1, 2, . . . , n} se representa mediante 

1 2 3 ··· n σ(1) σ(2) σ(3) · · · σ(n)



29

I.7 Operaciones Elementales sobre las Matrices Ejemplo 1.- Las 6 permutaciones de  1 id = 1  1 2 3 2

S3 tienen las representaciones siguientes:    2 3 1 2 3 2 3 1 3 2    3 1 2 3 1 3 1 2



 1 2 3 2 1 3   1 2 3 2 3 1

Para evitar una escritura pesada, en lugar denotar σ1 ◦ σ2 la composici´ on de permutaciones, se utilizar´ a la notaci´on σ1 σ2 . A σ ∈ Sm , se asocia una aplicaci´ on lineal mediante ρ(σ) : Km → Km ei 7→ eσ(i) donde {e1 , . . . , en } es la base can´ onica de Km . La matriz M (σ) de ρ(σ) respecto a la base can´ onica es de la forma, M (σ) tiene los coeficientes nulos, excepto que en cada fila y columna el coeficiente no nulo es 1. Esta matriz se llama matriz de permutaci´ on. Proposici´ on I.7.1.- La aplicaci´ on

ρ

Sm → Gl(Km ) σ 7→ ρ(σ) es un homomorfismo de grupo, representaci´on lineal de Sm . La aplicaci´ on Sm → Gl(m, K) σ 7→ M (σ) es un homorfismo de grupos, representaci´on matricial de Sm . Demostraci´ on.- Ejercicio. Una vez conocidas las matrices de permutaci´on, se debe determinar como actua las matrices de permutaci´on sobre una matriz. Esto est´ a dado en la: Proposici´ on I.7.2.- a) Multiplicar a la derecha B por M (σ) es equivalente a efectuar las correspondientes permutaciones de las columnas de B. b) Multiplicar por la izquierda B por M (σ) es equivalenTe a efectuar las correspondientes permutaciones de las filas de B. Demostraci´ on.- Ejercicio Matrices Diagonales Una matriz A diagonal es de la forma 

a11  0 A=  0

0 a22

..

. amm



  = diag(a11 , a22 , . . . , amm ) 

Proposici´ on I.7.3.- a) Multiplicar B por la derecha con diag(d1 , d2 , . . . , dm ) es lo mismo que multiplicar la i-sima columna de B por di , para i = 1, . . . , m. b) Multiplicar B por la izquierda con diag(d1 , d2 , . . . , dm ) es lo mismo que multiplicar la i-sima fila de B por di , para i = 1, . . . , m. Demostraci´ on.- Ejercicio. Resultado Principal

30

I Espacios Vectoriales y Aplicaciones Lineales

Sea B ∈ Mn,m (K) de rango r. Se va encontrar un procedimiento para explicitar las matrices N −1 ∈ Gl(n, K) y M ∈ Gl(m, K) tales que   Ir 0 N −1 BM = . 0 0 Si B = 0, no hay nada que hacer. Si B 6= 0, entonces existe un coeficiente que no es nulo. Por consiguiente: i) Multiplicando a la izquierda y derecha por matrices de permutaci´on, se lleva este coeficiente al lugar (1, 1). ii) Multiplicando por diag(b−1 11 , 1, . . . , 1) se va al caso b11 = 1. iii) Luego      1 b12 · · · b1m 1 0 ··· 0 1 b12 · · · b1m   0  −b21 1 0   b21  = .  .  . .. ′       .. . . B . . . 0 1 bn1 · · · bnm −bn1 0      1 −b12 · · · −b1m 1 0 ··· 0 1 b12 · · · b1m   0  0 0 1 0 .  . = .  . ..   ..   ..  .. B ′′  B′ . 0

0

0

Ejemplo 1.- Consideremos la matriz B= Se tiene



De donde







0 1 1 1

0 1 1 0



4 3

B= 





.

1 1 3 0 1 4



= B (1) ,

−1



  1 −1 −3 1 0 0 0 1 = B (2) , 0 = 0 1 4 0 0 1       1 0 0 1 0 0 1 0 0   . 0 1 −4 = 0 1 0 0 1 4 0 0 1

1 1 3 0 1 4



  1 0 0 1 −1 −3 0   0 1 −4  M = 0 1 0 0 1 0 0 1 

0

1

y N

=

0 1 1 0



.

Corolario I.7.4.- Una matriz A ∈ Gl(m, K) se escribe como producto de: i) matrices de permutaci´ on; ii) matrices diagonales inversibles; iii) matrices del tipo I + Li o I + Rj , donde Li es la matriz cuyos coeficientes son nulos, excepto quiz´as los lki con k > i; Hj es la matriz cuyos coeficientes son nulos, excepto quiz´as los hjk con k > j. Demostraci´ on.- Se aplica el procedimiento de antes a A inversible. Finalmente se obtiene que I = P AQ, donde P es producto de matrices del tipo i), ii), iii); lo mismo Q. Entonces A = P −1 Q−1 . Solo hay que mostrar que las inversas de i) ii) y iii) son del mismo tipo. Para i) y ii) no hay problema. Para iii) ejercicio 32 de la pr´ actica. 

31

I.7 Operaciones Elementales sobre las Matrices Mejora del Resultado Definimos los siguientes subconjuntos de Gl(m, K):   1 U− =  ∗  ∗

0

..

. ∗

1



 ∈ Gl(m, K)

matrices triangulares con 1 sobre la diagonal.

matrices triangulares superiores. Para σ ∈ Sm se plantea

  b11 B+  0  0

∗ .. .



    



∗  ∈ Gl(m, K)

bmm

U− M (σ)B+ = {XM (σ)Y |X ∈ U− , Y ∈ B+ } . Proposici´ on I.7.5.- Descomposici´ on de Bruhat. Gl(m, K) es la reuni´ on disjunta de subconjuntos U− M (σ)B+ , σ ∈ Sm . Demostraci´ on.- i) Sea A ∈ Gl(m, K), se debe mostrar que existe X ∈ U− , Y ∈ B+ y σ ∈ Sm tales que A = XM (σ)Y. La demostraci´ on se la har´ a por inducci´on sobre m. El caso m = 1 es evidente. Supongamos cierto para m − 1, con m > 1. Sea A ∈ Gl(m, K), y sea ai,1 6= 0 el primer coeficiente no nulo de la primera columna de A. Se tiene: 

0

   0  a  i1 

        

1

..

. 1 −˜ ai+1,1 −˜ am,1

..

.

am1

1



0

A12     ;  A22  

  A12   0    −1  diag(ai1 , 1, . . . , 1) =  1 a   ˜i+1,1 A22  

{z A  0 0    0   1  a   ˜i+1,1  |





}

a ˜m1



A12

ai2

· · · aim A22

a ˜m1

  1 −ai2   1     

· · · −aim ..

. 1

   



0 C11 0 = 1 0 C21

 C12 0 . C22

Por hip´otesis de inducci´on existen U ∈ Gl(m−1, K) triangular inferior con 1 en la diagonal y B ∈ Gl(m−1, K) triangular superior, τ ∈ Sm−1 , tales que 

C11 C21

C22 C22



= U M (σ)B

32

I Espacios Vectoriales y Aplicaciones Lineales

o todav´ıa

 C11 C22 B −1 = M (τ ) U C21 C22      0 C11 C22 B11 B21 T11 T12 = . U22 C21 C22 0 B22 T21 T22 −1

 Por consiguiente

U11 U21



 0 C11 C12 ˜ ˜ 1 A=U 0 0 B 0 C21 C22   0 C11 U11 0 0  0 0 1 0 1 0 C21 U21 0 U22   0 T11 T22 0 . = 1 0 0 T21 T22 | {z } 

 1 0 C12 0   0 B11 0 0 C22

 0 B12  B22

M (σ)

ii) A mostrar que si (U− M (σ)B+ ) ∩ (U− M (τ )B+ ) ⇒ σ = τ , en clases.



38

I Espacios Vectoriales y Aplicaciones Lineales

I.8 Signo de las Permutaciones

Recordemos que

 biy. Sm = σ : {1, . . . , m} −→ {1, . . . , m}}

Sean a, b ∈ {1, . . . , m}, a 6= 0, la permutaci´on definida por

a 7→ b; b 7→ a; i 7→ i, i 6= a y i 6= b se llama transposici´ on y se denota (a, b). Por consiguiente, (a, b) =



1 2 ··· a 1 2 ··· b

··· b ··· a

··· m ··· m



.

Proposici´ on I.8.1.- El grupo Sm es engendrado por las transposiciones, es decir para σ ∈ Sm , existen τ1 , τ2 , . . . , τp transposiciones, tales que σ = τ1 τ2 · · · τp . Demostraci´ on.- Por inducci´on sobre m. Para m = 2 el enunciado es cierto. Se supone cierto el enunciado para m − 1. Demostremos que se cumple para m. Sea σ ∈ Sm . Si σ(m) = m, se tiene que la restricci´ on de σ sobre {1, . . . , m − 1} es una permutaci´on que pertenece a Sm−1 y por hip´ otesis de inducci´on σ es el producto de transposiciones. Si σ(m) 6= m, se considera σ ′ = (σ(m), m)σ. Por construcci´on σ ′ (m) = (σ(m), m)σ(m) = m, de donde por el argumento del primer caso σ ′ pertenece a Sm−1 y es producto de transposiciones, digamos σ ′ = τ1 τ2 · · · τp . Por lo tanto σ = (m, σ(m))τ1τ2 · · · τp . Ejemplos 1.-



1 2 ··· m − 1 m 2 3 ··· m 1





= (1, m)(1, m − 1) · · · (1, 3)(1, 2).

2.- La escritura de σ como producto de transposiciones no es u ´nica. id = (a, b)(a, b) = (a, b)(a, b)(a, b)(a, b), Definici´ on de signo de una permutaci´ on  m f Introducimos P = R :−→ R| f polinomial . f : Rm → R es polinomial si f (x1 , . . . , xm ) =

X

finita

(2, 3) = (1, 2)(1, 3)(1, 2).

ai1 ,i2 ,...,im xi11 xi22 · · · ximm .

P es un espacio vectorial sobre R y tambi´en es un anillo conmutativo para la adici´on y multiplicaci´on de polinomios.

39

I.8 Signo de las Permutaciones A σ ∈ Sm se asocia la aplicaci´ on X

finita

ϕ(σ) : P −→ P X 1 2 m ai1 ,i2 ,...,im xiσ(1) xiσ(2) · · · xiσ(m) ai1 ,i2 ,...,im xi11 xi22 · · · ximm 7→ finita

Ejemplo 3.- Consideremos σ= Entonces



1 2 3 4 2 3 4 1



,

3 f (x1 , x2 , x3 , x4 ) = x21 + x1 x3 + x12 4 . 2

3 3 2 12 ϕ(σ)(f (x1 , x2 , x3 , x4 )) = x2σ(1) + xσ(1) xσ(3) + x12 σ(4) = x2 + x2 x4 + x1 . 2 2

Proposici´ on I.8.2.- ϕ(σ) es un automorfismo de (espacios vectoriales y de anillo), es decir: i) ϕ(σ)(f + g) = ϕ(σ)(f ) + ϕ(σ)(g), ii) ϕ(σ)(αf ) = αϕ(σ)(f ), iii) ϕ(σ)(f · g) = ϕ(σ)(f ) · ϕ(σ)(g). Adem´ as ϕ(σ1 σ2 ) = ϕ(σ1 ) ◦ ϕ(σ2 ). Demostraci´ on.- Ejercicio. Ejemplo 4.- Los polinomios sim´etricos elementales a m variables son: f1 (x1 , . . . , xm ) = x1 + x2 + · · · + xm ; X xi xj = x1 x2 + · · · + xm−1 xm ; f2 (x1 , . . . , xm ) = i<j

f3 (x1 , . . . , xm ) =

X

x1 xj xk ;

i<j
.. . fm (x1 , . . . , xm ) = x1 x2 · · · xm . Ejercicio.- Mostrar que ϕ(σ)(fi ) = fi para i = 1, . . . , m y σ ∈ Sm . Definamos el polinomio d ∈ P, como Y d= (xi − xj ) = (x1 − x2 ) · · · (x1 − xm ) · · · (xm−1 − xm ). 1≤i<j≤m

Si σ ∈ Sm , entonces ϕ(σ)(d) = ±d. Se plantea sg(σ) = signo(σ) =

(

1 si ϕ(σ)(d) = d, −1 si ϕ(σ)(d) = −d.

Ejemplo 5.- En el espacio de las funciones polinomiales a 4 variables tenemos d = (x1 − x2 )(x1 − x3 )(x1 − x4 )(x2 − x3 )(x2 − x4 )(x3 − x4 ). Tomando la permutaci´ on del ejemplo 3, se tiene ϕ(σ)(d) = (x2 − x3 )(x2 − x4 )(x2 − x1 )(x3 − x1 )(x3 − x4 )(x4 − x1 ) = −d.

40

I Espacios Vectoriales y Aplicaciones Lineales

Proposici´ on I.8.3.- Se tiene que sg

Sm −→ {±1} es un homomorfismo de grupos. Demostraci´ on.-En efecto: ϕ(σ1 σ2 )(d) = (ϕ(σ1 ) ◦ ϕ(σ2 ))(d) = ϕ(σ1 )(ϕ(σ2 ))(d)) =

ϕ(σ1 )(sg(σ2 )d) = sg(σ2 )ϕ(σ1 )(d) = sg(σ2 ) sg(σ1 ),

Por consiguiente sg(σ1 σ2 ) = sg(σ1 )sg(σ2 ).



Proposici´ on I.8.4.- Sea τ una transposicion, entonces sg(τ ) = −1. Demostracion.- Sea τ = (a, b) con a < b, se tiene Y (xi − xj ) d= i<j

= (xa − xb ) = (xa − xb )

Y

i<j i6=a,b j6=a,b

Y

(xi − xj )

Y Y Y Y (xb − xj ) (xi − xa ) (xi − xb ) (xa − xj ) i<j

a<j j6=b

[(xi − xa )(xi − xb )]

i
Y

i
j rel="nofollow">b

[(xa − xi )(xi − xb )]

a
Y Y [(xa − xi )(xb − xi )] (xi − xj ); b
ϕ(σ)(d) = (xb − xa )

Y

[(xi − xb )(xi − xa )]

i
Y

i<j i6=a,b j6=a,b

[(xb − xi )(xi − xa )]

a
Y Y (xi − xj ); [(xb − xi )(xa − xi )] b
i<j i6=a,b j6=a,b

ϕ(σ)(d) = −d.



Corolario I.8.5.- i) Si σ = τ1 · · · τp , con τi transposicion, entonces sg(σ) = (−1)p . ′

ii) Sea σ = τ1 · · · τp = τ1′ · · · τp′ ′ donde τi y τi′ transposiciones, se tiene por i) sg(σ) = (−1)p = (−1)p , entonces p y p′ tienen la misma paridad. C´ alculo Pr´ actico de sg(σ) Sea σ ∈ Sm , la permutacion cuyo representaci´on es

0 B

1

(1)

i

2

j

(i)

j i

(j )

m m

1 CA

(m)

Para determinar el signo de la permutaci´ on, se debe contar el n´ umero de intersecciones de los segmentos que unen el elemento i en la fila de arriba, con el elemento i en la fila de abajo. Este n´ umero se lo denota por j(σ).

41

I.8 Signo de las Permutaciones Proposici´ on I.8.6.- j(σ) es j(σ) = #{(i, j)| i < j y σ(i) rel="nofollow"> σ(j)}

n´ umero de inversiones. Demostraci´ on Mostraremos que g(i) > g(j) ⇐⇒ hay intersecci´ on de los segmentos de extremidades σ(i) y σ(j). En efecto   σ(i) i σ(j) j .  σ(i) σ(j) Hay interseccion, el diagrama indicar´a que σ(i) > σ(j),  

σ(j)

i

σ(i)

σ(i)

j σ(j)



.



Proposici´ on I.8.7.- Se tiene sg(d) = (−1)j(σ) . Demostraci´ on Se tiene que ϕ(σ)(d) = sg(d). Estudiemos la acci´ on de ϕ(σ) sobre los factores de d, por consiguiente (xi − xj ) 7→ (xσ(i) − xσ(j) ) =



un factor de d si σ(i) < σ(j), (−1) · un factor de d si σ(i) > σ(j).



42

I Espacios Vectoriales y Aplicaciones Lineales

I.9 Formas Multilineales Alternadas

Definici´ on I.9.1.- Sean V y W dos espacios vectoriales y m un entero positivo. Una aplicaci´ on F :V {z· · · × V} → W | ×V × m veces

es mulitilineal, si

F (v1 , v2 , . . . , α′ vi′ + α′′ vi′′ , . . . , vm ) = α′ F (v1 , . . . , vi′ , . . . , vm ) + α′′ F (v1 , . . . , vi′′ , . . . , vm ), ∀i = 1, . . . , m. Dicho de otra manera, se pide que F sea lineal en cada una de las variables separadamente. Ejemplos 1.- La siguiente aplicaci´ on es m-lineal K × ··· × K → K | {z } m

(α1 , . . . , αm ) 7→

m Y

αi .

i=1

2.- Sea A ∈ Mn,n (K) una matriz, la aplicaci´ on definida por K×K→K (x, y) 7→ xt Ay = ( x1



a11 . · · · xn )  .. an1

···

  y1 a1n ..   ..   .  .

· · · ann

es bilineal. En particular R3 × R3 → R

(x, y) 7→ xt Iy = x1 y1 + x2 y2 + x3 y3

producto escalar euclidiano en R3 . 3.- El producto vectorial o cruz en R3 , definido por R3 × R3 → R      x2 y3 − x3 y3 y1 x1  x2  ,  y2  7→  x3 y1 − x1 y3  x1 y2 − x2 y1 y3 x3  es bilineal. 4.- La aplicaci´ on Mn,n (K) × Mn,n (K) × Mn,n (K) → Mn,n (K) (A, B, C) 7→ ABC es trilineal. 5.- La aplicaci´ on End(V ) × End(V ) → End(V ) (f, g) 7→ f ◦ g − g ◦ f es bilineal.

yn

43

I.9 Formas Multilineales Alternadas

Definici´ on I.9.2.- Sea F : V × V × · · · × V → W multilineal. Se dice que F es multilineal alternada, si F (v1 , . . . , vi , . . . , vi , . . . , vn ) = 0; es decir, del momento en que existan vi = vj con i 6= j. F es multilineal sim´ etrica, si F (v1 , . . . , vi , . . . , vj , . . . , vn ) = F (v1 , . . . , vj , . . . , vi , . . . , vn ), ∀i 6= j. F es multilineal antisim´ etrica, si F (v1 , . . . , vi , . . . , vj , . . . , vn ) = −F (v1 , . . . , vj , . . . , vi , . . . , vn ), ∀i 6= j. Ejemplo 6.- La aplicaci´ on multilineal del ejemplo 1) es sim´etrica si K es un cuerpo conmutativo. Definici´ on I.9.3.- Se dice que un cuerpo K es de caracter´ıstica 6= 2 si 1 6= −1 en K. Ejemplos 7.- Los cuerpos Q, R y C son de caracter´ıstica 6= 2. 8.- El cuerpo F2 es de caracter´ıstica = 2. Proposici´ on I.9.4.- Sea F : V × · · · × V → W multilineal. i) F es alternada, entonces F es antisim´etrica. ii) Si la caracter´ıstica de K 6= 2, entonces F antisim´etrica es alternada. Demostraci´ on.- i) Supongamos F alternada. Se tiene 0 = F (v1 , . . . , vi + vj , . . . , vi + vj , . . . vn ) = F (v1 , . . . , vi , . . . , vj , . . . , vn ) + F (v1 , . . . , vj , . . . , vi , . . . , vn ), por consiguiente F es antisim´etrica. ii) Supongamos F antisim´etrica. Se tiene F (v1 , . . . , vi , . . . , vi , . . . , vn ) = −F (v1 , . . . , vi , . . . , vi , . . . , vn ) Por lo tanto (1 + 1)F (v1 , . . . , vi , . . . , vi , . . . , vn ) = 0, F es alternada.



Proposici´ on I.9.5.- Sea F : V × · · · × V → W multilineal alternada. Entonces i) F (vσ(1) , . . . , vσ(n) ) = sg(σ)F (v1 , . . . , vn ), donde vi ∈ V y σ ∈ Sn . ii) F (v1 , . . . , vi + αvj , . . . , vn ) = F (v1 , . . . , vi , . . . , vn ). iii) Si v1 , . . . , vn son linealmente dependientes, entonces F (v1 , . . . , vn ) = 0. Demostraci´ on.- i) σ = τ1 · τp con τi transposicion. Como F es alternada, F es antisim´etrica. De donde F (vτ (1) , . . . , vτ (n) ) = −F (v1 , . . . , vn ). Por consiguiente, por antisimetr´ıa se obtiene i). ii) Verificaci´ on inmediata. iii) Si es necesario efectuar una transposici´ on, se puede suponer que v1 =

n X i=2

αi vi ,

44

I Espacios Vectoriales y Aplicaciones Lineales

de donde F (v1 , . . . , vn ) = F (

n X

n X

αi vi , v2 , . . . , vn ) =

i=2

αi F (vi , v2 , . . . , vn ) = 0.



i=2

Se denota An = {σ ∈ Sm |sg = 1}, llamado grupo alternado de orden n. Proposici´ on I.9.6.- Se tiene Sm = Am donde τ es una transposici´ on.

[ ·

Am τ,

(uni´on disjunta)

Demostraci´ on.- Sea σ ∈ Sm , si sg(σ) = 1, entonces σ ∈ Am . Sino, sg(σ) = −1, se tiene (στ )τ = σ y στ ∈ Am . Veamos que la uni´ on es disjunta. En efecto, supongamos que existe un elemento σ ∈ Am ∩ Am τ , se tendr´ıa que sg(σ) = 1 y sg(σ) = −1, lo que es absurdo.  Teorema I.9.7.- Sea F : V × V × · · · × V → W multilineal alternada, con dim V = m. Sea {e1 , e2 , . . . , em } | {z } m veces una base de V . Sean v1 , . . . , vm elementos de V , que pueden escribirse como vj =

m X

aij ei .

i=1

Entonces F (v1 , . . . , vm ) =

X

σ∈Sm

sg(σ)aσ(1),1 aσ(2),2 · · · aσ(m),m

!

F (e1 , e2 , . . . , em ).

(I.9.1)

Reciprocamente la f´ormula (I.9.1) define F como aplicaci´ on multilineal alternada. Demostraci´ on.- Para facilitar la demostraci´on, utilizemos la notaci´on vj =

m X

aij ,j eij .

ij =1

Por consiguiente, se tiene F (v1 , v2 , . . . , vm ) = F (

X

ai1 ,1 ei1 ,

X

ai2 ,2 ei2 , . . . ,

X

aim ,m eim m X

=

i1 ,...,im =1

ai1 ,1 ai2 ,2 · · · aim ,m F (ei1 , ei2 , . . . , eim ) . | {z } =0 si ik =ij con k6=j

Por lo tanto, en esta suma es suficiente considerar las familias {i1 , . . . , im } con ik 6 il . De esta manera 

1 i1

2 i2

··· m · · · im



es una permutaci´ on σ de {1, 2, . . . , m}. De la proposicion I.9.5 punto i), se tiene el resultado deseado. Sea F : V × V × {z· · · × V} → W definida por (I.9.1) | m veces a) F es multilineal; en efecto, sean vj′

m X i=1

a′i,j ei ,

vj′′

m X i=1

a′′i,j ei ,

45

I.9 Formas Multilineales Alternadas se tiene α′ vj′ + α′′ vj′′ =

m X

(a′i,j + a′′i,j )ej .

i=1

Por lo tanto F (v1 , . . . , α′ vj′ + α′′ vj′′ , . . . , vm ) X

=

σ∈Sm

sg(σ)aσ(1),1 · · · (α′ a′σ(j),j =α

X



σ∈Sm

+α′′

+

α′′ a′′σ(j),j ) · · · aσ(m),m

sg(σ)aσ(1),1 · · · a′σ(j),j

X

σ∈Sm ′

· · · aσ(m),m

!

sg(σ)aσ(1),1 · · · a′′σ(j),j · · · aσ(m),m

!

F (e1 , . . . , em )

F (e1 , . . . , em ) !

F (e1 , . . . , em )

= α F (v1 , . . . , vj′ , . . . , vm ) + α′′ F (v1 , . . . , vj′′ , . . . , vm ).

Mostremos que F es alternada. Sean vi = vj =

m X

ak,i ek =

k=1

F (v1 , . . . , vi , . . . , vj , . . . , vm ) =

m X

ak,j ek . Aplicando la f´ormula (I.9.1), se tiene

k=1

X

σ∈Sm

sg(σ)aσ(1),1 · · · aσ(m),m

!

F (e1 , . . . , em ).

Utilizando la proposici´ on I.9.6 con τ = (i, j), podemos escribir ! ! X X F (v1 , . . . , vi , . . . , vj , . . . , vm ) = ♣ F (e1 , . . . , em ) + ( ♣ F (e1 , . . . , em ) σ∈Am

σ∈Am τ

=

X

σ∈Am



X

σ∈Am

aσ(1),1 · · · aσ(i),i · · · aσ(j),j · · · aσ(m),m

!

aστ (1),1 · · · aστ (i),i · · · aστ (j),j · · · aστ (m)m

F (e1 , . . . , em )

!

F (e1 , . . . , em ), = 0. 

Proposici´ on I.9.8.- Se escribe Altm (V, W ) el conjunto de las aplicaciones multilineales V × V × · · · × V → | {z } m veces W . Entonces Altm (V, W ) es un K-espacio vectorial para (F + G)(v1 , . . . , vm ) = F (v1 , . . . , vm ) + G(v1 , . . . , vm ) (αF )(v1 , . . . , vm ) = α(F (v1 , . . . , vm )) con F, G ∈ Altm (V, W ) y α ∈ K. Demostraci´ on.- Ejercicio. Corolario I.9.9.- Si dim V = m, entonces dim(Altm (V, W )) = dim W . Demostraci´ on.- Por el teorema precedente se tiene Altm (V, W ) → W F 7→ F (e1 , e2 , . . . , em )

46

I Espacios Vectoriales y Aplicaciones Lineales

es un isomorfismo de espacios vectoriales.



Proposici´ on I.9.10.- Sea {x1 , . . . , xm } una familia de elementos V , (dim V = m). Entonces {x1 , . . . , xm } es una base de V ⇐⇒ F (x1 , . . . , xn ) 6= 0, ∀F 6= 0 ∈ Altm (V, W ). Demostraci´ on.- ⇒ {x1 , . . . , xm } es una base de V y F 6= 0. Entonces existen v1 , . . . , vm ∈ V , tales que F (v1 , . . . , vm ) 6= 0. Utilizando la f´ormula (I.9.1) es necesario que F (x1 , . . . , xn ) 6= 0. ⇐ Se procede por contraposici´ on, sea {x1 , . . . , xm } una familia de V que no es base, entonces {x1 , . . . , xm } es linealmente dependiente y por la proposici´ on I.9.5 punto iii), se tiene F (x1 , . . . , xn ) = 0,

∀F ∈ Altm (V, W ).



47

I.10 Determinantes

I.10 Determinantes

Sea f : V1 → V2 lineal. Entonces f induce una aplicaci´ on lineal definida por f ∗ : Altm (V2 , W ) → Altm (V1 , W ) F 7→ ((v1 , . . . , vm ) 7→ F (f (v1 ), . . . , f (vm )). Analisemos el caso particular en el que V1 = V2 = V , con dim V = m y W = K. Por consiguiente f ∈ End(V ) induce f ∗ : Altm (V, K) → Altm (V, K).

Por el teorema del paragrafo precedente, se tiene que dim Altm (V, K) = 1. De esta forma f ∗ es una homotecia de Altm (V, K). La raz´ on de la homotecia se llama determinante de f ∈ End(V ). Es decir f ∗ (D) = (det f )D para D ∈ Altm (V, K) D(f (v1 ), . . . , f (vm )) = (det f )D(v1 , . . . , vm ). Ejemplo 1.- Sea V = Km , recordamos

ρ(σ) : Km → Km ei 7→ eσ(i)

Se tiene que det(ρ(σ)) = sg(σ). En efecto D(ρ(σ)(e1 ), . . . , ρ(σ)(em )) = D(eσ(1) , . . . , eσ(m) ) = sgD(e1 , . . . , em ). Proposici´ on I.10.1.- Se tiene: i) det(idV ) = 1. ii) det(f ◦ g) = det(f ) det(g). iii) f ∈ End(V ), entonces

f ∈ Gl(V ) ⇐⇒ det(f ) 6= 0.

Demostraci´ on.- i) Trivial ii) Se tiene (f ◦ g)∗ D(v1 , . . . , vm ) = D(f ◦ g(v1 ), . . . , f ◦ g(vm )) = D(f (g(v1 )), . . . , f (g(vm ))) (det f )D(g(v1 ), . . . , g(vm )) (det f )(det g)D(v1 , . . . , vm ). iii) Si f es inversible, existe f −1 ∈ End(V ), tal que f ◦ f −1 = idV ; por los puntos ii) y i) se tiene (det f )(det f −1 ) = 1. ⇐ Se supone que det f 6= 0. Se elige una base {e1 , . . . , em } de V . Sea D ∈ Altm (V, K), con D 6= 0; se tiene D(e1 , . . . , em ) 6= 0. Por otro lado D(f (e1 ), . . . , f (em )) = (f ∗ D)(e1 , . . . , em ) = (det f )D(e1 , . . . , em ) 6= 0, de donde {f (e1 ), . . . , f (em )} es una base de V . Por consiguiente f es un isomorfismo.

48

I Espacios Vectoriales y Aplicaciones Lineales 

Determinante de una Matriz Se dispone de un isomorfismo can´ onico ≃

End(Km ) ←→ Mmm (K) f 7→ A(f ) matriz de f respecto a las bases can´ onicas, ϕ

(Ax ← x) ←− A. Se plantea

det A = det(ϕ(A)) =

a11 .. .

· · · ∗ a1m

am1

· · · ∗ amm

Proposici´ on I.10.2.- Para A = (aij ) ∈ Mm,m , se tiene det A =

X

σ∈Sm

.. . .

sg(σ)aσ(1),1 · · · aσ(m),m .

Demostraci´ on.- En efecto; Sean {e1 , . . . , em } la base can´ onica de Km , D ∈ Altm (Km , K) no nula. Se tiene det(ϕ(A) D(e1 , . . . , em ) = ϕ(A)∗ D(e1 , . . . , em ) | {z } det A

= D(ϕ(A)(e1 ), . . . , ϕ(A)em ) X X = D( ai,1 ei , . . . , ai,m ei ) =

X

σ∈Sm

sg(σ)aσ(1),1 · · · aσ(m),m

!

D(e1 , . . . , em ) 

49

I.10 Determinantes Ejemplos 2.- Para m = 1, se tiene det A = a11 . 3.- Para m = 2, utilizando la proposici´ on precedente obtenemos a11 a12 a21 a22 = a11 a22 − a21 a12 .

Proposici´ on I.10.3.- Tenemos: i) det I = 1 ii) det AB = det A det B, donde A, B ∈ Mm,m (K). iii) A es inversible ⇐⇒ det A 6= 0. iv) det(αA) = αm det A, si A ∈ Mm,m (K). v) det A = det At . Demostraci´ on.- Los puntos i), ii) y iii) son consecuencia de la proposici´ on an´aloga para las aplicaciones lineales. iv) Consecuencia de la f´ormula de la proposici´ on I.10.2. Mostremos el punto v). Se tiene aσ(1),1 · · · aσ(m),m = aσ(1),σ−1 σ(1) · · · aσ(m),σ−1 σ(m) = a1,σ−1 (1) · · · am,σ−1 (m)

porque el cuerpo K es conmutativo. De esta manera X det A = sg(σ)aσ(1),1 · · · aσ(m),m σ∈Sm

=

X

σ∈Sm

=

X

τ ∈Sm t

sg(σ)a1,σ−1 (1) · · · am,σ−1 (m) sg(τ )a1,τ (1) · · · am,τ (m)

det A , t

por que (A )τ (i),i) = ai,τ (i) .



Para facilitar la formulaci´on de proposiciones y resultados concernientes los determinantes de matrices, utilizemos la notaci´on A = ( A1 · · · Am ) , donde Ai denota la i-sima columna de la matriz A. Proposici´ on I.10.4.- Se tiene i)

ii)

iii)

det ( A1

det ( A1

· · · α′ A′i + α′′ A′′i

· · · Ai + αAj

det ( Aσ(1)

· · · Am ) = α′ det ( A1

· · · Aj

· · · Am ) + α′′ det ( A1

· · · A′′i

· · · Am ) ;

· · · Ai

· · · Aj

· · · Am ) ;

· · · Am ) =

· · · Aσ(m) ) = sg det ( A1

Demostraci´ on.- Se considera

· · · A′i

· · · Am ) .

m veces z }| { m K × · · · × Km → K (A1 , . . . , Am ) 7→ det A.

det ( A1

50

I Espacios Vectoriales y Aplicaciones Lineales

Esta aplicaci´ on es multilineal, de donde i); la aplicaci´ on es alternada, de donde ii) y iii).  Remarca.- Se tiene un enunciado an´ alogo para filas. Ejemplos 4.- Se considera una matriz de 4 × 4, se calcular´a su determinante utilizando la f´ormula de la proposici´ on I.10.2 y las propiedades de determinante de la proposici´ on precedente 0 1 3 2 −3 4 −4 −5

0 0 −1 1 3 4 7 2 = 5 9 −3 4 −4 −5 6 1

0 0 4 9 . 5 6 6 −3

Se ha sumado una vez la primera columna a la cuarta columna. Aplicando la f´ormula deducimos que 0 1 3 2 −3 4 −4 −5

0 −1 3 4 3 3 4 9 4 7 = 4 5 6 = 3 4 5 2 . 5 9 −5 6 −1 −5 6 −3 6 1

Se ha factorizado 3 de la u ´ltima columna. Luego 3 4 0 3 4 0 3 4 3 3 4 5 2 = 3 4 5 −2 = 6 4 5 −1 −5 6 2 −5 6 4 −5 6 −1 3 4 3 4 0 0 1 1 3 4 = 216. = 6 · 3 · 4 = 6 4 5 −1 = −6 3 16 0 = 6 1 4 3 16 4 5 −1 3 16 0

5.- Determinante de Vandermonde. 1 a1 1 a2 . . . 1 am Ejercicio Mostrar este resultado.

Proposici´ on I.10.5.- Sean vj =

m X i=1

a21 a22 a2m

· · · am−1 1 Y · · · am−1 3 = (ai − aj ) i>j · · · am−1 m

aij ei j = 1, . . . , r; r ≤ m elementos de Km . Entonces, {v1 , . . . , vr } son

linealmente independientes ⇐⇒ existen 1 ≤ i1 < i2 < · · · < ir ≤ m tales que ai1 ,1 · · · ai1 ,r .. .. 6= 0. . . ai ,1 · · · ai ,r r r

Demostraci´ on.- Caso r = m. La proposici´ on afirma que {v1 , . . . , vm } es una base de Km ⇐⇒ si una aplicaci´ on lineal env´ıa una base sobre otra, es un isomorfismo ⇐⇒ la matriz (aij ) es inversible ⇐⇒ det(aij ) 6= 0. Caso general. Se escribe   a11 · · · a1r . . A =  .. am1

· · · amn

51

I.10 Determinantes

{v1 , . . . , vr } linealmente independiente ⇐⇒ rango columna de A es igual a r ⇐⇒ rango fila de A es igual a r; es decir, el subespacio de Kr engendrado por las filas de A es Kr ⇐⇒ de las filas de A se puede extraer una base de Kr ⇐⇒ existe una sucesi´on 1 ≤ i1 < i2 < · · · < ir ≤ m tal que las filas de ´ındice i1 , . . . , ir constituyen una base de Kr ai1 ,1 · · · ai1 ,r .. 6= 0. ⇐⇒ ... . ai ,1 · · · ai ,r r

r



Corolario I.10.6.- Sea A ∈ Mn,m (K). Entonces

  rang(A) = max s existe una submatriz B de A con s filas . y s columnas tal que det B 6= 0.

Demostraci´ on.-Se plantea

r =rang(A), ) ( existe una submatriz B de A con s filas y s columnas . p = max s tal que det B 6= 0.

A de rango r ⇒ Existe r columnas de A que son linealmente independientes, si es necesario permutar las columnas, se puede suponer que son las primeras r columnas. La proposici´ on indica que r ≤ p. Supongamos que existe una submatriz Bp×p de A con det B 6= 0. Si es necesario renumerar (permutar), se supone   B ∗ A= ∗ ∗ lo que implica por la proposici´ on precedente que las primeras p columnas son linealmente independientes, entonces p ≤ r.



52

I Espacios Vectoriales y Aplicaciones Lineales

I.11 Matriz Adjunta

En este paragrafo se formular´a un m´etodo para calcular la inversa de una matriz inversible. Sea   a11 · · · amm . . ..  ∈ Mm,m (K). A = (aij ) =  .. am1 · · · amm

Se plantea



a11  ..  .   ai−1,1 Aij =   ai+1,1   .  .. am1

···

···

a1,j+1 .. .

ai−1,j−1 ai+1,j−1 .. .

ai−1,j+1 ai+1,j+1 .. .

am,j−1,

am,j+1

Aij se obtiene de A suprimiendo la fila i-sima y la Se define  a11 · · · a1,j−1,  ..  .   ai−1,1 ai−1,j−1  0 · · · 0 Sij (A) =    ai+1,1 a i+1,j−1   .  .. am1

···

···

a1,j−1, .. .

am,j−1,

···

 a1m ..  .   ai−1,m   ∈ Mm−1,m−1 (K). ai+1,m   ..  .  amm

columna j-va. 0 .. .

 a1m ..  .   ai−1,m   ··· 0   ∈ Mm,m (K). ai+1,m   ..  .  · · · amm ···

a1,j+1

0 ai−1,j+1 1 0 0 ai+1,j+1 .. . 0

am,j+1

Definici´ on I.11.1.- La matriz adjunta de A, denotada por Adj(A), es la matriz definida por (Adj (A))ij = (−1)i+j det(Aji ). Ejemplo 1.- Veamos el caso de m = 2. Adj



a11 a21

a12 a22



=



a22 −a21

−a12 a11



.

Proposici´ on I.11.2.- det Sij (A) = (−1)i+j Aij . Demostraci´ on.- Para demostrar esta proposicion, desarrollaremos el determinante de Sij utilizando propiedades de determinante, vistas en el paragrafo precedente. α det Sij (A) = 0 γ Proposici´ on I.11.3.-

m X j=1

0 0 β 1 0 = sg(σ) α | {z } 0 δ (−1)i−1 γ

1 0 1 0 i−1+j−1 0 β = (−1) 0 α 0 γ 0 δ

aji det(Sjk ) = δik det A donde δik =



0 si i 6= k, 1 si i = k.

0 β . β



53

I.11 Matriz Adjunta

Demostraci´ on.- Denotando por Aj la j-va columna de A. Substiyendo la i-sima columna a la k-sima columna, es decir planteando A′k = Ai , se tiene δik det A = det ( A1

· · · A′k

· · · Ai

· · · Am )

(I.11.1)

Por otro lado la i-sima columna, es decir A′k se puede desarrollar como        0 0 1 a1i      0 1 0  ...  = a1i  .  + a21  .  + · · · + am1  .  .  ..   ..   ..  ami 1 0 0 

De esta manera el determinante del lado derecho de (I.11.1), se escribe como 1 0 δik det Aa1i α 0 β +a2i α 1 β + · · · + ami α 0 β . 0 1 | | | {z } {z } {z } det S1k (A) det S2k (A) det Smk (A)



Teorema I.11.4.- Laplace. Se tiene: i) Desarrollo del determinante respecto a la i-sima columna. det A =

m X

aji (−1)i+j det Aji .

j=1

ii) Desarrollo del determinante respecta a la j-sima fila. det A =

m X

ajk (−1)j+k det Ajk .

k=1

Demostraci´ on.- i) Utilizamos la proposicion I.11.3 con i = k y la proposici´ on I.11.2. De esta manera det A =

m X

aji det(Sji (A)) =

j=1

X

j = 1m (−1)i+j det Aji .

ii) Se demuestra a partir de i) para At .



Proposici´ on I.11.5.- Se tiene A Adj(A) = Adj(A)A = diag(det A, . . . , det A).

Demostraci´ on.- Por la proposici´ on I.11.3, se tiene

δik det A =

m X j=1

(Adj(A))kj m z }| { X aji det Sjk (A) = (−1)i+k det Ajk aji , j=1

de donde Adj(A)A = diag(det A, . . . , det A).

54

I Espacios Vectoriales y Aplicaciones Lineales

Se tiene tambi´en Adj(At )At = diag(det At , . . . , det At ), transponiendo, se obtiene AAdj(A) = diag(det A, . . . , det A).  Corolario I.11.6.- Si A es inversible, entonces A−1 =

1 Adj(A). det A

Remarca.- Sea R un subanillo de K, por ejemplo Z ⊂ Q, entonces Mn,m (R) ⊂ Mn,m (K). Corolario I.11.7.- A ∈ Mm,m (R). Entonces; A es inversible en Mm,m (R), es decir si existe B ∈ Mm,m (R) con AB = BA = Im , si y solamente si det A es un elemento inversible de R. En particular A ∈ Mm,m (Z) es inversible ⇐⇒ det A = ±1. Demostraci´ on.- ⇒, Se tiene AB = I, por consiguiente det A det B = 1, lo que implica que det A es inversible en R. 1 ⇐ det A inversible en R, entonces tiene sentido la expresi´ on en R. det A  F´ ormula de Cramer Sea A ∈ Mm,m (K). El sistema

Ax = b,

tiene una u ´nica soluci´on, si y solamente si det A 6= 0. Si este es el caso, se tiene x = A−1 b = Por consiguiente, se obtiene

1 Adj(A)b. det A

m

xi = por lo tanto

1 X (Adj(A))ij bj , det A j=1 m

xi =

1 X (−1)i+j det Aji bj det A j=1

Denotando Ak la k-sima columna de A y utilizando la f´ormula de Laplace del c´ alculo de determinante en la versi´on columna, se obtiene xi =

1 det ( A1 det A

· · · Ai−1

b Ai+1

· · · Am ) .

Cap´ıtulo II Complemento

II.1 Espacios Vectoriales Cocientes

Sea a) b) c)

E un conjunto, una relaci´on x ∼ y entre elementos de E es una relaci´ on de equivalencia, si x ∼ x, para todo x ∈ E (reflexividad); x ∼ y ⇒ y ∼ x, (simetr´ıa); x ∼ y, y ∼ z ⇒ x ∼ z, (transitividad). Un conjunto C ⊂ E es una clase de equivalencia si existe x ∈ E tal que C = {y ∈ E|y ∼ x},

C es la clase de x y se denota x ¯. El conjunto de las clases se llama cociente de E respecto a la relaci´on ∼ y se denota E/ ∼ . Por consiguiente, se dispone de una aplicaci´ on can´ onica π

E −→ E/ ∼ x 7→ x ¯ que es sobreyectiva. Sea V un espacio vectorial, U un subespacio vectorial de V . Se introduce una relaci´on ≡ mod(U ), definida por x ≡ y mod(U ) ⇐⇒ x − y ∈ U. Proposici´ on II.1.1.- ≡ mod(U ) es una relaci´on de equivalencia sobre E. Demostraci´ on.- i) Sea x ∈ V , x − x = 0 ∈ U , entoces x ∼ x. ii) x ∼ y ⇒ x − y ∈ U , por consiguiente (−1)(x − y) ∈ U , de donde y − x ∈ U , por lo tanto y ∼ x. iii) La transitividad la dejamos como ejercicio.



Ejemplo 1.- Consideremos V = R2 y U un subespacio de dimensi´on 1. En la figura puede verse las clases de

56

II Complemento equivalencia.

− x+U =x

U

Proposici´ on II.1.2.- Se tiene x1 ≡ y1 mod(U ) x2 ≡ y2 mod(U )



x1 + x2 ≡ y1 + y2 mod(U ) . αx1 ≡ αx1 mod(U )

La adici´on y la multiplicaci´ on por los escalares son compatibles con la relaci´on ≡ mod(U ) Demostraci´ on.- Se tiene xi ≡ y1 mod(U ) ⇐⇒ xi − yi ∈ U i = 1, 2. Por lo tanto (x1 − y1 ) + (x2 − y2 ) ∈ U ⇒ (x1 + x2 ) − (y1 + y2 ) ∈ U,

⇒ x1 + x2 ≡ y1 + y2 mod(U ).

La otra implicaci´ on ejercicio. Introducimos una adici´on en V /U = V / ∼, de la manera siguiente x ¯1 + x ¯ 2 = x1 + x2 . Esta definici´on tiene sentido, si x ¯1 = y¯1 y x ¯2 = y¯2 , por la proposici´ on II.1.2, se obtiene x1 + x2 = y1 + y2 . Se introduce una multiplicaci´ on por los elementos de K. α¯ x = αx. La proposici´ on indica que esta definici´on tiene un sentido. Proposici´ on II.1.3.- El conjunto V /U con estas dos operaciones es un espacio vectorial. Adem´ as π : V → V /U es lineal. Demostraci´ on.- I. Adici´on. Se tiene i)

ii)

x ¯1 + (¯ x2 + x ¯3 ) = x ¯ 1 + x2 + x3 = x1 + (x2 + x3 ) = (x1 + x2 ) + x3 = x 1 + x2 + x ¯3 = (¯ x1 + x ¯2 ) + x ¯3 ; x ¯ + y¯ = x + y = y + x + y¯ + x ¯;



57

II.1 Espacios Vectoriales Cocientes iii) el cero de V /U es ¯ 0; iv) el opuesto de x ¯ es −x. Se tiene π(x + y) = x + y = x ¯ + y¯ = π(x) + π(x). II. Multiplicaci´ on. Lo mismo que para la adici´on, ejercicio.

 Proposici´ on II.1.4.- Sea f : V → W una aplicaci´ on lineal. Sea U un subespacio vectorial de V con U ⊂ ker(f ). Entonces existe una y una sola aplicaci´ on lineal f¯ : V /U → W tal que el diagrama conmuta f

−→

V ց

π

W րf¯

V /U es decir f = f¯ ◦ π. Demostraci´ on.- a) Existencia de f¯. Se plantea f¯(¯ x) = f (x). Hay que verificar que si x ¯ = y¯, entonces f (x) = f (y). En efecto, x ¯ = y¯, se tiene x − y ∈ U ⊂ ker(f ), por consiguiente f (x − y) = 0 y por lo tanto f (x) = f (y). Por construcci´ on f ◦ π = f . f¯ es lineal, en efecto f¯(¯ x + y¯) = f¯(x + y) = f (x + y) = f (x) + f (y) = f¯(¯ x) + f¯(¯ y ). De la misma manera se tiene f¯(α¯ x) = αf¯(¯ x). b) Unicidad. Supongamos que existen f¯1 y f¯2 tales que f¯1 ◦ π = f¯2 ◦ π = f, por lo tanto f¯1 (¯ x) = f (x) = f¯2 (¯ x),

∀¯ x ∈ V /U.



Proposici´ on II.1.5.- Si V es de generaci´on finita, entonces V /U lo es tambi´en. Adem´ as dim V /U = dim V − dim U. Demostraci´ on.- π : V → V /U es sobreyectiva. Si V es de generaci´on finita, entonces π(V ) es de generaci´on finita. La f´ormula de dimensi´on para aplicaciones lineales da dim V = dim V /U + dim U. 

61

II.2 Dual de un Espacio Vectorial

II.2 Dual de un Espacio Vectorial

Sea V un espacio vectorial. Una forma lineal sobre V es una aplicaci´ on lineal ε : V → K. El conjunto de las formas lineales sobre V, Hom(V, K), se llama dual de V y se denota V ∗ . Si V es de dimensi´on finita, V ∗ lo es tambi´en y dim V = dim V ∗ . Sea {x1 , . . . , xn } una base de V , esto induce un isomorfismo ϕ : V ∗ → Kn ε 7→ (ε(x1 ), . . . , ε(xn )). Introduciendo las formas ξi ∈ V ∗ por ξi : V → K xj 7→ δij =

(

0 si i 6= j 1 si i = j.

Esto da ϕ(ξi ) = (0, . . . , 0, 1, 0, . . . , 0) = ei . Se sigue que ϕ es un isomorfismo, que {ξ1 , . . . , ξn } es una base de V ∗ . La base {ξ1 , . . . , ξn } se llama la base de V ∗ dual de {x1 , . . . , xn }. Proposici´ on II.2.1.- Sea V espacio vectorial de dimensi´on finita, i) Sea ε ∈ V ∗ , ε 6= 0, entonces ker(ε) es de dimensi´on dim(V ) − 1. ii) Sea U ⊂ V un subespacio de dimensi´on dim(V ) − 1, entonces existe ε ∈ V ∗ tal que ker(ε) = U . Este ε no es u ´nico, pero si ε′ es otro con la misma propiedad, se tiene ε′ = αε, iii)

\

ε∈V ∗

α 6= 0.

ker(ε) = {0}.

Demostraci´ on.- i) Si ε 6= 0, ε : V → K es sobreyectiva y aplicamos la f´ormula de dimensi´on. ii) Sea {u1 , . . . , un−1 } una base de U , que se completa en {u1 , . . . , un−1 , un } base de V . Se considera la forma ε:V →K ui 7→ 0 si i = 1, . . . , n − 1 un 7→ 1, que es una forma lineal de n´ ucleo U . La \ segunda parte de este enunciado, ejercicio. iii) Se tiene de manera trivial {0} ⊂ ker(ε). Sea v ∈ V , v 6= 0; vamos a mostrar que existe ε ∈ V ∗ tal ε∈V ∗

que ε(v) 6= 0, es decir que v 6∈ ker ε. Elegimos una base de la forma {v, v2 , . . . , vn } y se considera

ε:V →K v 7→ 1 vi 7→ 0 para i = 2, . . . , m

Transpuesta de una Aplicaci´ on Lineal



62

II Complemento

Consideremos el diagrama V

Se obtiene entonces

f

−→ W η◦fց ↓η K

ft : W ∗ → V ∗

η 7→ η ◦ f

que es lineal y se llama la transpuesta de f . As´ı f t (η)(v) = η ◦ f (v) para η ∈ W ∗ , v ∈ V. Ejemplo 1.- Sea V = C ∞ ([0, 1], R) espacio vectorial real de las funciones indefinidamente derivables. Se denota D : C ∞ ([0, 1], R) → C ∞ ([0, 1], R) f 7→ f ′ , derivada de f. Sea g ∈ C ∞ ([0, 1], R), se define εg : C ∞ ([0, 1], R) → R Z 1 f (t)g(t)dt. f 7→ 0

Por consiguiente Dt (εg ) = ε ◦ D : V → R. Se tiene ′

t

D (εg )(f ) = varepsilon ◦ D(f ) = εg f = = f (1)g(1) − f (0)g(0) −

Z

1

Z

1

f ′ (t)g(t)dt

0

f (t)g ′ (t)dt

0

= g(1)δ1 (f ) − g(0)δ0 (f ) − εg′ (f ). donde

δa : C ∞ ([0, 1], R) → R f 7→ f (a).

Proposici´ on II.2.2.- Sean V y W espacios vectoriales de dimensi´on finita. Entonces, la aplicaci´ on Hom(V, W ) → Hom(W ∗ , V ∗ ) f 7→ f t es un isomorfismo. Demostraci´ on.- Veamos que la aplicaci´ on f 7→ f t es lineal. Sean f, g ∈ Hom(V, W ), se tiene (f + g)t (η) = η ◦ (f + g) = η ◦ f + η ◦ g = f t (η) + g t (η) = (f t + g t )(η). Lo mismo para (αf )t = αf t . Utilizando resultados sobre dimensiones, se observa que dim Hom(V, W ) = dim Hom(W ∗ , V ∗ ).

63

II.2 Dual de un Espacio Vectorial Por consiguiente, es suficiente mostrar que f 7→ f t es inyectiva. Supongamos que f t = 0, entonces ft : W ∗ → V ∗ η 7→ 0. Esto significa que f t (η) = η ◦ f = 0 ∀η ∈ W ∗ , entonces Im(f ) ⊂ ker(eta) ∀η ∈ W ∗ . Utilizando el inciso iii) de la proposici´ on II.2.1, se tiene que Im(f ) = {0}, por consiguiente f = 0.



Proposici´ on II.2.3.- Sean f : U → V y g : V → W lineales, entonces (g ◦ f )t = f t ◦ g t . En diagrama g

U

−→

f

V

−→

U∗

←−

ft

V∗

←− W ∗ .

W

gt

Demostraci´ on.- Sea η ∈ W ∗ , se tiene (g ◦ f )t (η) = η ◦ (g ◦ f ) = (η ◦ g) ◦ f = g t (η) ◦ f = f t (g t (η)) = f t ◦ g t (η).



Proposici´ on II.2.4.- Si V y W son de dimensi´on finita. Entonces, se tiene rang(f ) = rang(f t ), donde f : V → W lineal. Demostraci´ on.- Recordemos que rang(f ) = dim Im(f ). Elegimos una base {v1 , . . . , vm } de V y otra {w1 , . . . , wn } de W de tal manera que la matriz de f respecto a {vi } y {wj } sea 

Ir 0

0 0



,

rang(f ) = r.

Por otro lado, Im(f t ) = {ε ∈ V ∗ |∃η ∈ W ∗ con ε = η ◦ f }.

La matriz de η : W → K respecto a {wj } y {1} es de la forma ( η1

· · · ηn ) .

La matriz de η ◦ f : V → K respecto a {vi } y {1} es   Ir 0 ( η1 · · · ηn ) = ( η1 0 0

· · · ηr

0 ··· 0),

de donde Im(f t ) = {( η1

· · · ηr

0 · · · 0 )}

es de dimensi´on r. 

64

II Complemento

Proposici´ on II.2.5.- Sean {x1 , . . . , xm } una base de V y {y1 , . . . , yn } una base de W . {ξ1 , . . . , ξm } base de V ∗ dual de {x1 , . . . , xm } y {η1 , . . . , ηn } base de W ∗ dual de {y1 , . . . , yn }. Sea f : V → W lineal, se donota A la matriz de f respecto a las bases {xi } y {yj }. f t : W ∗ → V ∗ , A∗ la matriz de f t respecto a las bases {ηj } y {ξi }, entonces A∗ = At .

Demostraci´ on.- Se tiene A = (aij ) con

n X

aij yi . A∗ = (a∗kl ) con f t (ηl ) =

i=1

un lado se obtiene

f (ηl )(xj ) =

m X

a∗kl ξk . Por consiguiente, de

k=1 m X

a∗kl ξk

k=1

!

(xj ) = a∗jl ;

del otro lado f (ηl )(xj ) = ηl ◦ f (xj ) = ηl

n X i=1

aij yi

!

=

n X

ηl (yj ) = alj .

i=1

Corolario II.2.6.- Sea A ∈ Mm,n (K), entonces rango fila de A = rango columna de A.



II.3 Formas Bilineales Sim´ etricas

65

II.3 Formas Bilineales Sim´ etricas

Sea V un espacio vectorial. Una forma bilineal sim´ etrica sobre V es una aplicaci´ on f :V ×V →K tal que f es bilineal y adem´ as f es sim´etrica. Se denota Sym2 (V, K) el conjunto de las formas bilineales sim´etricas sobre V . En el ejercicio 50 de la practica se muestra que Sym2 (V, K) es un espacio vectorial para las operaciones (f + g)(v1 , v2 ) = f (v1 , v2 ) + g(v1 , v2 ) (αf )(v1 , v2 ) = αf (v1 , v2 ). Sea {e1 , . . . , em } una base de V . La matriz de f respecto a la base {e1 , . . . , em } es la matriz A(f ) = (f (ei , ej ))i,j

con i, j = 1, . . . , m;

A(f ) es una matriz sim´etrica; es decir A(f ) = At (f ). Proposici´ on II.3.1.- La aplicaci´ on n o sim´etricas m × m a coeϕ : Sym2 (V, K) → Matrices ficientes en K. f 7→ A(f ) es un isomorfismo de espacios vectoriales. Demostraci´ on.- i) ϕ es lineal, ejercicio. ii) ϕ es inyectiva, si A(f ) = 0, se tiene f (ei , ej ) = 0, de donde f (x, y) = f (

X

xi ei ,

X

yj ej ) =

X

xi yj f (ei , ej ) = 0,

ij

por lo tanto f = 0. iii) ϕ es sobreyectiva. Sea A = (aij ) una matriz sim´etrica. Planteamos f (x, y) =

X

xi yj aij ,

i,j

se puede ver que f es bilineal y sim´etrica, de matriz A.  Corolario II.3.2.- Si dim V = m, se tiene dim Sym2 (V, K) =

m(m + 1) . 2

Demostraci´ on.- Ejercicio Proposici´ on II.3.3.- Resultado Principal.- Sea f ∈ Sym2 (V, K), supongamos que la caracter´ıstica de K es diferente a 2. Entonces existe una base de V respecto a la cual, la matriz de f es diagonal.

66

II Complemento

Demostraci´ on.- Se elige una base {e1 , . . . , em } de V . Caso 1.- Existe un ´ındice i tal que f (ei , ei ) 6= 0. Si es necesario renumerar los elementos de esta base, se puede suponer que i = 1; por consiguiente f (e1 , e1 ) 6= 0. Introducimos una nueva base definida por e′1 = e1 , e′2 = e2 −

f (e1 , e2 ) e1 , f (e1 , e1 )

.. . e′m = em −

f (e1 , em ) e1 . f (e1 , e1 )

Se tiene por consiguiente f (e′1 , e′j ) = f (e1 , ej −

f (e1 , ej ) f (e1 , ej ) e1 ) = f (e1 , ej ) − f (e1 , e1 ) = 0. f (e1 , e1 ) f (e1 , e1 )

De esta manera, respecto a la base {e′1 , . . . , e′m }, la matriz de f es de la forma   f (e1 , e1 ) 0 0 B′ con B ′ matriz de m − 1 × m − 1 sim´etrica. Caso 2.- Para todo i, f (ei , ei ) = 0. Si f (ei , ej ) = 0 para todo i, j, se tiene que A(f ) = 0 y por lo tanto la matriz es diagonal. En la otra situaci´on, existen i, j tales que f (ei , ej ) 6= 0. Si es necesario renumerar los elementos de la base, se puede suponer que f (e1 , e2 ) 6= 0. Introducimos la base e′1 = e1 + e2 , e′2 = e2 , .. . e′m = em . Se tiene f (e′1 , e′1 ) = f (e1 + e2 , e1 + e2 ) = f (e1 , e1 ) + 2f (e1 , e2 ) + f (e2 , e2 ) = 2f (e1 , e2 ) 6= 0,

si la caracter´ıstica de K es diferente a 2. Por lo tanto nos encontramos en el primer caso. Iteramos la construcci´ on de la base, con B ′ y las subsiguientes matrices que obtengamos.

 Ejemplo 1.- Cuando V = R2 , se tiene que una forma bilineal sim´etrica es de la forma f : R2 × R2 → R    x y1 ( 1 , ) 7→ a11 x1 y1 + a12 (x1 y2 + x2 y1 ) + a22 x2 y2 . x2 y2 

Por consiguiente la matriz de f respecto a la base can´ onica es   a11 a12 A(f ) = . a12 a22 Esta forma bilineal induce la forma cuadr´ atica definida por ϕ : R2 → R

x 7→ f (x, x) = a11 x21 + 2a12 x1 x2 + a22 x22 .

II.3 Formas Bilineales Sim´ etricas

67

Esta forma cuadr´atica define una curva llamada c´ onica por Cϕ = {x ∈ R2 |ϕ(x) = 1}. La proposicion II.3.3 nos indica que existe un sistema de coordenadas (ξ, ζ), sobre R2 tal que la ecuaci´on de Cϕ es de la forma αξ 2 + βζ 2 = 1.

ζ

y

ξ x

Corolario II.3.4.- Se supone K = C, entonces existe una base de V respecto a la cual la matriz de f ∈ Sym2 (V, C) es de la forma diag(1, . . . , 1, 0, . . . , 0). | {z } | {z } p

q

Adem´ as los enteros p y q est´ an enteramente definidos por f . Demostraci´ on.- De la proposici´ on II.3.3, existe una base {e1 , . . . , em } de V respecto a la cual, la matriz de f es diag(a1 , . . . , am ), ai ∈ C. Consideramos la base {e′1 , . . . , e′m } definida por e′i =

 

ei si ai = 0, ei  √ si ai 6= 0. ai

No debe olvidarse que los n´ umeros complejos poseen raiz cuadrada. Calculamos  si i 6= j,   0 ei e1 ′ ′ √ √ , ) = 1 si ai 6= 0, f ( f (ei , ej ) = ai ai   f (ei , ei ) = 0 si ai = 0.

Para la segunda parte del corolario, consideramos las bases {e1 , . . . , em } y {e′1 , . . . , e′m } respecto a las cuales A(f ) = diag(1, . . . , 1, 0, . . . , 0) | {z } | {z } p

q

A′ (f ) = diag(1, . . . , 1, 0, . . . , 0) | {z } | {z } p′

q′

Mostraremos que p = p′ y q = q ′ . Sea V0 = {x ∈ V |f (x, y) = 0, ∀y ∈ V }, se puede verificar facilmente que V0 es un subespacio vectorial de V .

68

II Complemento Se observa que ei ∈ V0 para i > p; en efecto, para i > p se tiene f (ei , ek ) = 0 ∀k.

Sea x =

m X i=1

xi ei ∈ V0 , por definici´on f (x, ek ) = 0, para todo k. Ahora bien m X

xi f (ei , ek ) =

i=1



xk 0

para k ≤ p, para k > p.

Por lo tanto, x pertenece al subespacio generado por ep+1 , . . . , em . Por consiguiente dim V0 = q = m − p. De la misma manera se hace el mismo razonamiento con la base {e′1 , . . . , e′m } obteniendo dim V0 = q ′ . De donde p = p′ y q = q ′ .  Corolario II.3.5.- Supongamos K = R, entonces existe una base de V respecto a la cual la matriz de f es diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0). | {z } | {z } | {z } r

s

t

Adem´ as los enteros r, s y t est´ an u ´nicamente determinados por f .

Demostraci´ on.- De la proposici´ on II.3.3, existe una base {e1 , . . . , em } de V respecto a la cual, la matriz de f es diag(a1 , . . . , am ), ai ∈ R. Se introduce la base

     

ei si ai = 0, ei √ si ai > 0, e′i = ai   e  i  √ si ai < 0. −ai

Como en la demostraci´ on del corolario precedente, se muestra   0 si ai = 0, f (e′i , e′i ) = 1 si ai > 0,  −1 si ai < 0,

y f (e′i , e′j ) = 0 si i 6= j. Para la segunda parte del corolario consideramos las bases {ei } y {e′i } respecto a las cuales, la matriz de f es A(f ) = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0), | {z } | {z } | {z } r

s

t

A′ (f ) = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0). | {z } | {z } | {z } r′

s′

t′

Introduciendo V0 = {x ∈ V |f (x, y) = 0 ∀y ∈ V }, mostramos al igual que en el corolario II.3.4 que t = t′ . s′ +t

z }| { Afirmamos que e1 , . . . , er , er′ +1 , . . . , e′m es una familia de elementos de V linealmente independiente. Si esto es cierto, se tiene r + s′ + t ≤ m = r ′ + s′ + t′ , de donde r ≤ r ′ . Pro razonamiento sim´etrico, se tiene r ′ ≤ r, por lo tanto r ′ = r y s′ = s.

II.3 Formas Bilineales Sim´ etricas

69

Mostremos la afirmaci´on, elegimos una combinaci´on lineal tal que 0=

r X

xi ei +

r X

m X

yj e′j +

j=r ′ +1

i=1

Plantemos v =

′ rX +s′

zk e′k .

k=r ′ +s′ +1

xi ei , de donde por un lado

i=1

r X

f (v, v) = f

xi ei ,

r X

xi ei

i=1

i=1

!

=

2 X

x2i ,

i=1

y del otro 

f (v, v) = f −

′ rX +s′

j=r ′ +1

yj e′j −

m X

k=r ′ +s′ +1

zk e′k , −

′ rX +s′

j=r ′ +1

yj e′j −

m X

k=r ′ +s′ +1



zk e′k  = −

′ rX +s′

yj2 .

j=r ′ +1

Deducimos inmediatamente que xi = 0 para i = 1, . . . , r; yj = 0 para j = r ′ + 1, . . . , r′ + s′ . Puesto que {e′j } es una base, se tiene que zk = 0 para k = r ′ + s′ + 1, . . . , m.  Proposici´ on II.3.6.- Sea f ∈ Sym2 (V, K). Sean {e1 , . . . , em } y {e′1 , . . . , e′m } dos bases de V . Se denota por A la matriz de f respecto a la base {e1 , . . . , em } y A′ la matriz de f respecto a la base {e′1 , . . . , e′m }. Entonces A = P t A′ P, donde P es la matriz de pasaje de {e1 , . . . , em } a {e′1 , . . . , e′m }. Demostraci´ on.- Se tiene por definici´on (A)ij = f (ei , ej ), (A′ )ij = f (e′i , e′j ), m X pij e′i . ej = i=1

Por consiguiente f (ei , ej ) = f

m X

k=1

= =

m X

pkj e′k ,

m X

plj e′l

l=1

!

pki f (e′k , e′l )plj

k,l=1 m X

(P t )ik (A′ )kl (P )lj = (P t A′ P )ij .

k,l=1



Corolario II.3.7.- Supongamos K de caracter´ıstica diferente a 2. Sea A′ una matriz sim´etrica de orden m, entonces existe P ∈ Gl(m, K) tal que P t AP es una matriz diagonal. Demostraci´ on.- Ejercicio.

70

II Complemento

II.4 Espacios Euclidianos

En este paragrafo el cuerpo de base es R. Sea E un espacio vectorial. Un producto escalar sobre E es una forma bilineal E×E →R (x, y) 7→ hx, yi que es definida positiva; es decir hx, xi ≥ 0 ∀x ∈ E, hx, xi = 0 ⇐⇒ x = 0. Definimos la norma de x, como kxk =

p hx, xi.

Un espacio vectorial provisto de un producto escalar se llama espacio euclidiano. Ejemplos 1.- E = Rn es un espacio euclidiano provisto de hx, yi =

n X

xi yi

i=1

producto escalar estandar. 2.- El espacio de las funciones reales indefinidamente derivables definidas sobre el intervalo [a, b], C ∞ ([a, b], R), es un espacio euclidiano con el producto escalar hf, gi =

Z

b

f (t)g(t)dt.

a

Noci´ on de Isomorfismo de Espacios Vectoriales Sean E1 , h , i1 y E2 , h , i2 dos espacios euclidianos. Se dice que E1 y E2 son isomorfos, si existe ϕ : E → E lineal biyectiva, tal que hϕ(x), ϕ(y)i2 = hx, yi1 ,

∀x, y ∈ E.

El resultado principal de este paragrafo es, Si E es un espacio euclidiano de dimensi´ on n. Entonces E es isomorfo a Rn dotado del producto escalar estandar. En lo que sigue E es de dimensi´on finita. Se dice que x, y ∈ E son ortogonales si hx, yi = 0. Se dice que la familia {v1 , . . . , vm } es ortogonal si hvi , vj i cuando i 6= j. Se dice que {v1 , . . . , vm } es ortonormal si {v1 , . . . , vm } es una familia ortogonal y hvi , vi i = 1 para i = 1, . . . , m. Proposici´ on II.4.1.- Sea E un espacio euclidiano, entonces existen bases ortonormales; es decir, existen bases respecto a las cuales, la matriz del producto escalar es I. Demostraci´ on.- Una demostraci´ on de esta proposici´ on, puede realizarse utilizando el corolario II.3.5, el cual asegura que existe una base respecto a la cual, la matriz del producto escalar es de la forma diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0). | {z } | {z } | {z } r

s

t

71

II.4 Espacios Euclidianos

Puesto que h , i es definido positivo, se tiene s = t = 0. Esta demostraci´ on muestra la existencia de una tal base, pero no nos da la forma de encontrar esta base. Una segunda demostraci´ on est´ a dada por el procedimiento de ortogonalizaci´ on de GrammSchmidt. Sea {e1 , . . . , em } una base cualquiera de E. Se plantea f1 = e1 y buscamos f2 con hf1 , f2 i = 0 y f2 = e2 + αf1 . Se tiene hf1 , e2 + αf1 i = hf1 , e2 i + αhf1 , f1 i = 0, de donde α=−

hf1 , e2 i ; hf1 , f1 i

α existe y es u ´nico. Se busca f3 con hf1 , f3 i = hf2 , f3 i = 0, f3 = e3 + β1 f1 + β2 f2 . Obtenemos, hf1 , f3 = e3 + β1 f1 + β2 f2 i = hf1 , e3 i + β1 hf1 , f1 i = 0, hf2 , f3 = e3 + β1 f1 + β2 f2 i = hf2 , e3 i + β2 hf2 , f2 i = 0. β1 y β2 existen y son u ´nicos Se procede de la misma manera, se construye f1 , . . . , fm satisfaciendo hfi , fj i, fi = ei +

j < i; i−1 X

pji ej

j=1

De donde {f1 , . . . , fm } es una base ortonormal y 

fm f1 ,..., kf1 k kfm k



es una base ortonormal.  Ejemplos 3.- Rn con el producto escalar estandar, la base can´ onica es ortonormal. ∞ 4.- Sea E el subespacio de C (R, R) engendrado por {1, cos t, sin t, cos 2t, sin 2t, . . . cos nt, sin nt} polinomios trigonom´etricos de grado menor o igual a n con el producto escalar Z 2π

hf, gi =

f (t)g(t)dt.

0

La base {1, cos t, sin t, . . . , cos nt, sin nt} es una base ortogonal.



1 cos t cos nt sin nt √ , √ ,..., √ , √ π π π 2π



es una base ortonormal Proposici´ on II.4.2.- Sea E un espacio euclidiano de dimensi´on n. Entonces E es isomorfo a Rn dotado del producto escalar estandar.

72

II Complemento

Demostraci´ on.- Sea {f1 , . . . , fn } una base ortonormal de E. Definimos ϕ : E → Rn fi 7→ ei , donde los ei son los elementos de la base can´ onica de Rn . ϕ es biyectiva, porque envia base sobre base. Todo x, y ∈ E se escriben de manera u ´nica, como x=

n X

xi ei ,

y=

i=1

n X

yi ei ,

i=1

de donde hϕ(x), ϕ(y)i =

*

n X

xi ei ,

i=1

n X

yi ei

i=1

+

=

n X

xi yi .

i=1



El Grupo Ortogonal de un Espacio Euclidiano Definici´ on II.4.3.- Sea (G, ∗) un grupo, se dice que H es un subgrupo de G, si ∅ = 6 H⊂Gy g1 , g2 ∈ H ⇒ g1 ∗ g2 ∈ H, g ∈ H ⇒ g −1 ∈ H.

Remarca Se puede probar que un subgrupo H de un grupo G es un grupo para la operaci´ on heredada de G. Definici´ on II.4.4.- Un endomorfismo a : E → E, E espacio euclidiano, es una transformaci´ on ortogonal o una isometr´ıa si ha(x), a(y)i = hx, yi, ∀x, y ∈ E. Se denota O(E) el conjunto de las transformaciones de E. Proposici´ on II.4.5.- Se tiene: i) a ∈ O(E), entonces a es un automorfismo de espacio euclidiano. ii) O(E) es un subgrupo de Gl(E).

Demostraci´ on.- Ejercicio.

Proposici´ on II.4.6.- Sea a ∈ Gl(E), se denota A la matriz de a respecto a una base ortonormal. Entonces a ∈ O(E) ⇐⇒ At A = I. Demostraci´ on.- Se tiene, primero a ∈ O(E) ⇐⇒ ha(x), a(y)i = hx, yi x, y ∈ E; |⇐⇒ {z } ha(ei ), a(ej )i 1 ≤ i, j ≤ n. ejercicio

segundo, por definicion A = (aij ) y

a(ej ) =

n X i=1

aij ei .

73

II.4 Espacios Euclidianos Por lo tanto a ∈ O(E) ⇐⇒

n X

k=1

aki akj = δij ⇐⇒ (At A)ij = Iij . 

Definici´ on II.4.7.- Una matriz A ∈ Mn,n (R) es ortogonal si At A = I.

Corolario II.4.8.- El conjunto O(n, R) de las matrices ortogonales es un subgrupo de Gl(n, R) isomorfo a O(E). Proposici´ on II.4.9.- Descomposicion de Iwasawa de Gl(m, R).- Sea A ∈ Gl(m, R). Entonces A se escribe de manera u ´nica bajo la forma A = QT donde Q ∈ O(m, R), T ∈ T+ (m, R) con  t11    T+ (m, R) =      0

t22

∗ .. .

∗ tnn

       tii > 0 .    

Demostraci´ on.- a) Existencia. Se considera Rm con el producto escalar estandar, {e1 , . . . , em } la base can´ onica de Rm . Se tiene que {Ae1 , . . . , Aem } es una base de Rm . Sea {f1 , . . . , fm } la base ortonormal obtenida de {Ae1 , . . . , Aem } por el procedimiento de Gramm-Schmidt. La matriz de pasaje de {Ae1 , . . . , Aem } a {e1 , . . . , em } es A. La matriz de pasaje de {f1 , . . . , fm } a {Ae1 , . . . , Aem } es T ∈ T+ (m, R), repasar la demostraci´on donde se utiliza el procedimiento de Gramm-Schmidt. La matriz de pasaje de {f1 , . . . , fm } a {e1 , . . . , em } es Q ∈ O(m, R). Por consiguiente, se tiene que A = QR. b) Unicidad. Se supone que A = Q1 T1 = Q2 T2 con Qi ∈ O(m, R) y Ti ∈ T+ (m, R) para i = 1, 2. Ahora bien, como ejercicio mostrar que T+ (m, R) es un subgrupo de Gl(m, R). De donde −1 Q2 Q−1 ∈ O(m, R) ∩ T+ (m, R). 1 = T2 T1 −1 Afirmamos que O(m, R) ∩ T+ (m, R) = {I}. Si esto es cierto, se tiene que Q2 Q−1 = I, de donde 1 = T2 T1 Q1 = Q2 y T1 = T2 . Probemos la afirmaci´on; sea T ∈ O(m, R) ∩ T+ (m, R), entonces



 T = 

t11 t22

∗ .. .

0

∗ tnn

   

y T t T = I.

Una verificaci´ on dar´ a que T = I.  Sea F ⊂ E un subespacio vectorial, se plantea F ⊥ = {x ∈ E|hx, yi = 0, ∀y ∈ F } . Se prueba que F ⊥ es un subespacio vectorial y se llama el subespacio ortogonal de E. Proposici´ on II.4.10.- Se tiene i) E = F ⊕ F ⊥ ;

74

II Complemento

⊥ ii) F ⊥ = F . Demostraci´ on.- i) Se elige una base ortonormal {f1 , . . . , fm } de F . Se considera la aplicaci´ on ϕ:E→F m X hx, fi ifi . x 7→ i=1

Esta aplicaci´ on es lineal y sobreyectiva, por que los fk pertenecen a la imagen. Se tiene F ⊥ = ker ϕ; en efecto, x ∈ F ⊥ , se tiene ϕ(x) = 0; x ∈ ker ϕ, hx, fk i para k = 1, . . . , k, por lo tanto x ∈ F ⊥ . La formula de dimensi´on da dim E = dim F + dim F ⊥ , por consiguiente solo falta mostrar que F ∩ F ⊥ = {0}. Esto es cierto, por que x ∈ F ∩ F ⊥ , implica que hx, xi = 0 y por lo tanto x = 0. ii) Ejercicio.  Proposici´ on II.4.11.- La aplicaci´ on ϕ : E → E ∗ = Hom(E, R) y 7→ ϕ(y) : E → R x 7→ hx, yi. es un isomorfismo Demostraci´ on.- Como dim E = dim E ∗ , es suficiente ver que ker ϕ = {0}. Sea y ∈ ker ϕ, se tiene hx, yi = 0, para todo x ∈ E, en particular para x = y, por lo tanto hy, yi = 0 implica que y = 0.  Comentario.- En el caso euclidiano, se acaba de mostrar que se tiene un isomorfismo can´ onico entre E y E ∗.

II.5 Formas Herm´ıticas, Espacios Unitarios

75

II.5 Formas Herm´ıticas, Espacios Unitarios

El cuerpo de base en este paragrafo es C. Recordemos, la conjugaci´on de n´ umeros complejos es la aplicaci´ on definida por C→C z 7→ z¯ x + iy 7→ x − iy. f

Sea V un espacio vectorial. Una forma sesquilineal sobre V es una aplicaci´ on V × V −→ C, tal que f (α1 x1 + α2 x2 , y) = α1 f (x1 , y) + α2 f (x2 , y), f (x, β1 y1 + β2 y2 ) = β¯1 f (x, y1 ) + β2 f (x, y2 ). Se dice que f sesquilineal es herm´ıtica si ∀x, y ∈ V.

f (x, y) = f (y, x),

Proposici´ on II.5.1.- Herm(V, C), el conjunto de los f herm´ıticas sobre V es un espacio vectorial sobre R. Demostraci´ on.- Ejercicio. Sea f ∈ Herm(V, C) y {e1 , . . . , em } una base de V , la matriz de f respecto a {e1 , . . . , em } es la matriz (A(f ))ij = f (ei , ej ). Si f es herm´ıtica, se tiene f (ei , ej ) = f (ej , ei ), obteniendo t

A(f ) = A(f ). ¯ t = B y el conjunto de tales matrices, se denota Se dice que la matriz B ∈ Mm,m (C) es herm´ıtica si B Herm(m, C) y es un espacio vectorial real. Proposici´ on II.5.2.- La aplicaciones Herm(V, C) → Herm(m, C) f 7→ A(f ) g←B donde g(x, y) =

m X

xi bij y¯j .

i,j=1

son isomorfismos de espacios vectoriales reales y son inversas entre si. Adem´ as Herm(m, C) es de dimensi´on m2 . Demostraci´ on.- Ejercicio. Ejemplo 1.- La aplicaci´ on dada por

Cm × Cm → C m X (x, y) 7→ xi y¯i i=1

es una forma herm´ıtica.

76

II Complemento

Ejercicio.- Hallar una base de Herm(V, C). Proposici´ on II.5.3.- Sea f ∈ Herm(V, C). Existe una base de V respecto a la cual, la matriz de f es diagonal con coeficientes iguales a 0, 1 o −1. Demostraci´ on.- Ejercicio. Existe una proposici´ on similar para las formas bilineales sim´etricas. Corolario II.5.4.- Sea B ∈ Herm(m, C), entonces existe P ∈ Gl(m, C), tal que P¯ t BP = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0). Demostraci´ on.- Ejercicio. Existe una proposici´ on similar para las matrices sim´etricas. Si f es herm´ıtica, se tiene f (x, x) = f (x, x) ∈ R. Se dice que f herm´ıtica es definida positiva, (producto escalar herm´ıtico), si f (x, x) ≥ 0, ∀x ∈ V ; f (x, x) = 0 ⇐⇒ x = 0. Una forma herm´i tica definida positiva se la denota h , i al igual que el producto escalar euclidiano. E es un espacio unitario, si es un espacio vectorial sobre C provisto de un producto escalar herm´ıtico. Las definiciones de ortogonalidad y ortonormalidad en espacios unitatios es la misma que en espacios euclidianos. Por lo tanto se tiene los siguientes resultados an´alogos: i) Existen bases ortonormales, el procedimiento de Gramm-Schmidt funciona. ii) E espacio unitario de dimensi´on n es isomorfo a Cn provisto del producto escalar herm´ıtico estandar hx, yi =

n X

xi y¯i .

i=1

iii) Se dice que a ∈ Gl(E) es unitaria si ha(x), a(y)i = hx, yi,

∀x, y ∈ E.

El conjunto de las transformaciones unitarias de E forman un subgrupo de Gl(E), es el grupo unitario notado U(E). iv) Sea {e1 , . . . , em } una base ortonormal de E. Sea a ∈ Gl(E), se denota A la matriz de a respecto a {e1 , . . . , em }. Entonces a ∈ U(E) ⇐⇒ A¯t A = I. Una matriz A ∈ Mm,m (C) es unitaria si A¯t A = I. v) El conjunto U(m, C) de las matrices unitarias es un subgrupo de Gl(m, C) isomorfo a U(E). Ejercicio.- Mostrar las afirmaciones de arriba. Ejemplos 1.- diag(a1 , . . . , am ) ∈ U(m, C) ⇐⇒ ai a ¯i = 1, ∀i = 1, . . . , m. 2.- La matriz de la forma   a ib ib a con a, b ∈ R, a2 + b2 = 1 es una matriz unitaria.

Proposici´ on II.5.5.- Descomposicion de Iwasawa para Gl(m, C). Sea A ∈ Gl(m, C). Entonces A se escribe de manera u ´nica como A = U T , donde U ∈ U(m, C) y T ∈ T+ (m, C), con    t11 ∗       t22 ∗    . t ∈ R y t > 0 T+ (m, C) =  ii ii .  ..       0 tnn

80

II Complemento

Demostraci´ on.- Ejercicio. Sea F ⊂ E un subespacio de E unitario. Se define el subespacio ortogonal de F como F ⊥ = {x ∈ E|hx, yi = 0, ∀y ∈ E}. Proposici´ on II.5.6.- La aplicaci´ on ϕ : E → E ∗ = Hom(E, C) y 7→ ϕ(y) : E → C x 7→ hx, yi. es biyectiva, pero ϕ es solamente semilineal, es decir ¯ ϕ(βy) = βϕ(y). Demostraci´ on.- Ejercicio Remarcas P 1.- Rn hx, yi = xi yi espacio euclidiano estandar. Ser´ıa natural de generalizar esta situaci´on a los espacios P complejos, as´ı: Cn hx, yi = xi yi . Pero sucede un f´enomeno nuevo, existe x 6= 0 tal que hx, xi = 0. Por ejemplo para n = 2 x = (1, i). 2.- E unitario, sea {e1 , . . . , en } una base ortonormal de E. Se introduce ER = {x ∈ E|x =

X

xi ei , xi ∈ R}.

ER es un espacio vectorial sobre R de misma dimensi´on que E. La restricci´ on a ER del producto escalar herm´ıtico sobre E es un producto escalar euclidiano.

Cap´ıtulo III Formas Normales

III.1 Vectores y Valores Propios

Sea V un espacio vectorial de dimensi´on n. Sea f ∈ End(V ) y {v1 , . . . , vn }, {v1′ , . . . , vn′ } dos bases de V . Recordando el primer cap´ıtulo, se denota A la matriz de f respecto a {vi }, A′ la matriz de f respecto a {vi′ }, M la matriz de pasaje de {vi } a {vi′ }. Se tiene A′ = M AM −1 . Definici´ on III.1.1.- Sean A, B ∈ Mn,n (K). Se dice que A y B son conjugadas o semejantes, si existe M ∈ Gl(n, K) tal que B = M AM −1 . Ejercicio.- Mostrar que la semejanza de matrices es una relaci´on de equivalencia sobre Mn,n (K). La interpretaci´on geom´etrica que se puede dar: Si A es la matriz de f respecto a la base {vi }, la clase de conjugaci´ on de A, es decir el conjunto de las matrices M AM −1 , coincide con el conjunto de las matrices de f respecto a las bases de V . Definici´ on III.1.2.- Se dice que f, g ∈ End(V ) son semejantes o conjugados si existe h ∈ Gl(V ) tal que g = h ◦ f ◦ h−1 .

Definici´ on III.1.3.- Sea f ∈ End(V ), se considera ker(f − λid) con λ ∈ K. Si ker(f − λid) 6= {0}, se dice que λ ∈ K es un valor propio de f . El subespacio ker(f − λid) 6= {0} se llama subespacio propio de f respecto al valor propio λ. dim ker(f − λid) se la llama la multiplicidad geom´ etrica del valor propio λ. Un elemento no nulo de ker(f − λid) se llama vector propio de f respecto a λ. Por consiguiente, dicho de otra manera λ ∈ K valor propio de f ⇐⇒ existe x ∈ V, x 6= 0 tal que f (x) = λx; x ∈ V es vector propio de f ⇐⇒ x 6= 0 y existe λ ∈ K tal que f (x) = λx. Sea A ∈ Mn,n (K), se denota por ρ(A) : Kn → Kn la aplicaci´ on lineal cuya matriz respecto a la base canonica es A. Definici´ on III.1.4.- Se dice que λ es un valor propio de A, si λ es valor propio de ρ(A). Se dice que x ∈ Kn es un vector propio de A, si x es valor propio de ρ(A). Ejemplo 1.- Consideremos la matriz identidad I, entonces todo x 6= 0 ∈ Kn es vector propio respecto a λ = 1. Proposici´ on III.1.5.- Sean f, g ∈ End(V ), se supone que f y g son conjugados; entonces: i) λ es un valor propio de f ⇐⇒ λ es un valor propio de f .

82

III Formas Normales

ii) Si g = hf h−1 , se tiene x es vector propio de f ⇐⇒ h(x) es vector propio de g. Demostraci´ on. Se tiene que λ es valor propio de f , si y solamente si existe x 6= 0 ∈ V tal que f (x) = λx, si y solamente si existe y = h(x) 6= 0 ∈ V tal que g(y) = hf (x) = λh(x) = λy.  Proposici´ on III.1.6.- Sean λ1 , . . . , λp valores propios distintos de f . Se plantea Kj = ker(f − λj id). Entonces los Kj son linealmente independientes. (Se dice que los Kj son son linealmente independientes, p X xj = 0 ⇒ xj = 0 para j = 1, . . . , p). si xj ∈ Kj y j=1

Demostraci´ on.- Por inducci´on sobre p. Para p = 1 evidente. Se supone cierto la proposici´ on para p − 1 con p > 1. Mostremos que la proposici´ on es cierta para p. Sea p X j=1

se tiene f(

xj = 0 con xj ∈ Kj ,

p X

xj ) = 0 =

p X j=1

λ 1 xj −

p X

λ j xj ,

i=1

i=1

ahora bien,

p X

λ j xj =

p X j=2

j=1

(λ1 − λj )xj = 0,

por hip´otesis de inducci´on (λ1 − λj )xj = 0 para j = 2, . . . , p, por lo tanto xj = 0 para j = 2, . . . , p y por consiguiente x1 = 0.  Corolario III.1.7.- Mismas hip´ otesis que la proposici´ on precedente. Entonces la aplicaci´ on ϕ

K1 × K2 × · · · Kp −→ V

(x1 , x2 , . . . , xp ) 7→ x1 + x2 + · · · + xp

es inyectiva. En este caso la imagen de ϕ es

p M

Kj .

j=1

Demostraci´ on.- Ejercicio.

Proposici´ on III.1.8.- Sea f ∈ End(V ). Se supone que f posee m = dim V valores propios diferentes λ1 , . . . , λm . Se elige vi un vector propio respecto a λi para i = 1, . . . , m. Entonces: i) ker(f − λj id) es de dimensi´on igual a 1, para j = 1, . . . , m. ii) {v1 , . . . , vm } es una base de V . iii) La matriz de f respecto a {v1 , . . . , vm } es diag(λ1 , . . . , λm ). Demostraci´ on.- Utilizando la notaci´on de la proposici´ on III.1.6, Kj = ker(f − λj id) 6= {0}, j = 1, . . . , m. Por el corolario III.1.7, la aplicaci´ on ϕ

K1 × K2 × · · · Km −→ V (x1 , x2 , . . . , xm ) 7→ x1 + x2 + · · · + xm es inyectiva. Por lo tanto se tiene m≤

X

dim(Kj ) ≤ dim V = m; | {z } ≥1

83

III.1 Vectores y Valores Propios ϕ es por consiguiente un isomorfismo, V =

p M

Kj .

j=1

Sea vj ∈ Kj con vj 6= 0, entonces

{(v1 , 0, . . . , 0), . . . , (0, . . . , 0, vm )} es una base de K1 × K2 × · · · Km , de donde via el isomorfismo {v1 , . . . , vm } es una base de V . La matriz de f respecto a {v} es una matriz diagonal. 

Polinomio Caracter´ıstico de una Matriz Sea A ∈ Mm,m (K), se plantea x − a11 −a21 PA (x) = det(xI − A) = .. . −am1

−a12 x − a22 ···

polinomio de grado n y coeficiente dominante igual a 1. PA (x) es el polinomio caracter´ıstico de A.

··· ..

. −am,m−1

−a1m ∈ K[x] x − amm

Proposici´ on III.1.9.- Si A y B son semejantes, entonces PA (x) = PB (x). Demostraci´ on.- Por hip´ otesis, existe M ∈ Gl(m, K) tal que A = M BM −1 , calculando los polinomios caracter´ısticos se tiene PA (x) = det(xI − A) = det(xM IM −1 − M BM −1 ) = det(M (xI − B)M −1 ) = det M det(xI − B) det M −1 = det(xI − B) = PB (x).



Sea f ∈ End(V ). Sea {v1 , . . . , vm } una base de V . Se nota A la matriz de f respecto a {vi }. Por la proposici´ on precedente, el polinomio PA no depende de la elecci´on de la base, solamente de f . Se plantea Pf (x) = PA (x) el polinomio caracter´ıstico de f . Definici´ on III.1.10.- Se dice que un cuerpo K es algebraicamente cerrado si todo polinomio p(x) ∈ K[x] no constante posee al menos una raiz. Es decir, si todo polinomio no constante a coeficientes en K se puede factorizar en polinomios de grado igual a 1. Ejemplo 2.- C es un cuerpo algebraicamente cerrado. Teorema III.1.11.- Sea f ∈ End(V ), las raices del polinomio caracter´ıstico de f son exactamente los valores propios de f . En particular, si K es algebraicamente cerrado, el endomorfismo f posee al menos un valor propio y un vector propio. Demostraci´ on.- Sea λ ∈ K, A matriz de f respecto a una base de V . Se tiene Pf (λ) = 0 ⇐⇒ PA (λI − A) = 0 ⇐⇒ ker(λI − f ) 6= {0} ⇐⇒ λ es un valor propio de f.



Definici´ on III.1.12.- Sea λ un valor propio de f , la multiplicidad algebraica de λ es la multiplicidad de la raiz de Pf .

84

III Formas Normales

Ejemplos 3.- La sucesi´on de Fibonacci (Fn )n≥0 definida por Fn+1 = Fn + Fn−1 , F0 = 0, F1 = 1. Puede escribirse de manera matricial como        Fn 1 1 Fn Fn+1 A = = . Fn−1 0 1 Fn−1 Fn Se puede observar que



Fn+1 Fn

  1 =A . 0



n

Utilizando la proposici´ on III.1.8, la matriz A es semejante a la matriz diag(λ1 , λ2 ), donde λ1 y λ2 son valores propios de A. Calculando estos por medio del polinomio caracter´ıstico de A, se obtiene √ √ 1− 5 1+ 5 , λ2 = . λ1 = 2 2 Despu´es se obtiene A=



de donde n

A =

λ1 1



λ1 1

λ2 1



λ2 1

λ1 0



0 λ2

λ1 0



0 λ2

λ1 1

n 

λ2 1

λ1 1

−1

λ2 1

,

−1

Efectuando los c´ alculos necesarios, se obtiene  n+1    1 λ1 − λn+1 Fn+1 2 , =√ λn1 − λn2 Fn 5 por lo tanto

√ !n 1+ 5 − 2

1 1 Fn = √ (λn1 − λn2 ) = √ 5 5 4.- Una matriz triangular superior

tiene como polinomio caracter´ıstico



 A= 

a11

an1 a22

..

0

PA (x) =

. ann

n Y

√ !n ! 1− 5 . 2

   

(x − aii ).

i=1

5.- Ejercicio.- Mostrar que Pf (x) = Pf t (x) o bien PA (x) = PAt (x). 6.- Si A y B son conjugadas, se tiene PA (x) = PB (x); la rec´ıproca es falsa. En efecto, sean     0 1 0 0 ; A= , B= 0 0 0 0 se tiene PA (x) = x2 ,

PB (x) = x2 .

85

III.1 Vectores y Valores Propios 6.- Sea f ∈ End(V ), sea W ⊂ V un subespacio invariante por f ; es decir, f (W ) ⊂ W . Se denota f|W : W → W el endomorfismo restringido a W . Se tiene Pf|W (x) divide Pf (x).

En efecto, se elige una base {v1 , . . . , vp } de W que es completada en la base {v1 , . . . , vp , vp+1 , . . . , vm } de V . La matriz de f respecto a esta base es de la forma A=



A11 0

A12 A22



,

donde A11 es la matriz de f|W respecto a {v1 , . . . , vp }. Se tiene xI − A11 PA (x) = 0

−A12 = det(xI − A11 ) det(xI − A22 ). xI − A22

Proposici´ on III.1.13.- Sea A ∈ Mm,m (K), entonces i) El polinomio caracter´ıstico puede escribirse bajo la forma

PA (x) = xm − C1 (A)X m−1 + C2 (A)X m−2 + · · · + (−1)m Cm (A). Los Ci (A) son funciones polinomiales de los coeficientes de A de grado i; en particular, C1 (A) es lineal, Cm (A) es de grado m. ii) Ci (M AM −1 ) = Ci (A) para i = 1, . . . , m y M ∈ GL(m, K). m X es la traza de A denotada por tr(A). iii) C1 (A) = i=1

iv) Cm (A) = det(A). v) f, g ∈ End(V ) ⇒ Pf ◦g (x) = Pg◦f (x). vi) A, B ∈ Mm,m (K) ⇒ PAB (x) = PBA (x). vii) A, B ∈ Mm,m (K) ⇒ Ci (AB) = Ci (BA) i = 1, . . . , m. Demostraci´ on.- Ejercicio. Debe observarse que v), vi) y vii) son equivalentes. Ejemplo 7.- Consideremos el caso m = 2, A=



a11 a21

a12 a22



,

PA (x) = x2 − (a11 + a22 ) x + (a11 a22 − a12 a21 ) . | {z } | {z } C1 (A)

C2 (A)

86

III Formas Normales

III.2 Triangularizaci´ on y Diagonalizaci´ on

Sea A = (aij ) ∈ Mm,m (K), se dice que A es triangular superior si aij = 0 para i > j.   a11 an1 a22    A= ..   . 0 ann

Sea f ∈ End(V ). Se dice que f es triangularizable si existe una base de V respecto a la cual la matriz de f es triangular superior. Remarca.- Se A es la matriz respecto a {v1 , . . . , vm }, la matriz de f respecto a {vm , . . . , v1 } es   amm · · · am1 . ..  . A′ =  .. . a1m · · · a11

Si A es triangular superior, A′ es triangular inferior o viceversa. Por consiguiente la definici´on de triangularizable puede remplazarse por inferior o superior. Sea A ∈ Mm,m (K). Se dice que A estriangularizable si existe M ∈ Gl(m, K) tal que M AM −1 sea triangular superior o inferior. Proposici´ on III.2.1.- Sea f ∈ End(V ), entonces f es triangularizable

el polinomio caracter´ıstico de f ⇐⇒ es producto de polinomios de grado 1.

Demostraci´ on.-⇒ B es triangularizable, existe M inversible tal que   a11 an1 a22    M BM −1 =  ..   . 0 ann y por lo tanto PB (x) = PA (x) =

m Y

i=1

(x − a11 ).

⇐ por inducci´on sobre m. m = 1 nada que hacer. Supongamos cierta la proposici´ on para m − 1, con m > 1. Sea λ1 valor propio de f y v1 un vector propio asociado a λ1 , se tiene f (v1 ) = λ1 v1 y v1 6= 0. Se elige v2 , . . . , vm de manera que {v1 , . . . , vm } sea una base de V . La matriz de f respecto a {v1 , . . . , vm } es de la forma   λ1 ∗ ∗ ∗∗ ; A= 0 A′

se tiene PA (x) = (x − λ1 )PA′ (x). Aplicando la hip´ otesis de inducci´on a A′ . Por consiguiente, existe M ′ ∈ Gl(m − 1, K) tal que M ′ AM ′−1 es triangular. Se tiene   λ1 ∗ ∗     λ2   1 0 λ1 ∗ ∗ ∗∗ 1 0  = . ′−1 ′ ′   . 0 M 0 A 0 M . 0 λn 

´ n y Diagonalizacio ´n III.2 Triangularizacio

87

Proposici´ on III.2.2.- Si K es algebraicamente cerrado, entonces todo endomorfismo es triangularizable. Ejemplo 1.- Una rotaci´on de R2 no es triangularizable. Definici´ on III.2.3.- f ∈ End(V ) es diagonalizable si existe una base {v1 , . . . , vm } de V respecto a la cual la matriz de f es una matriz diagonal. Dicho de otra manera: f es diagonalizable si existe una base de V formada de vectores propios de f . A ∈ Mm,m (K) es diagonalizable, si existe M ∈ Gl(m, K) tal que M AM −1 es una matriz diagonal. Ejemplo   0 1 2.- A = no es diagonalizable, sino existir´ıa una base v1 y v2 de K2 respecto a la cual, la matriz de 0 0 ρ(A) es la matriz nula, pero esto es imposible. Proposici´ on III.2.4.- Sea f ∈ End(V ). Entonces

 Y  (x − λj )mj 1) Pf =     j=1,...,r X f es diagonalizable ⇐⇒ λ = 6 λ mj = m = dim V . i j para i 6= j y    1,...,r   2) dim ker(f − λj id) = mj para j = 1, . . . , r.

Demostraci´ on.- ⇒ Supongamos que existe una base {v1 , . . . , vm } con f (v1 ) = ai vi , por lo tanto Pf (x) =

m Y

(x − ai ) =

i=1

m Y

(x − λj )mj .

i=1

Si es necesario renumerar los vi , la matriz de f respecto a {vi } es diag(λ1 , . . . , λ1 , . . . , λr , . . . , λr ). | {z } | {z } m1

mr

Por lo tanto ker(f − λ1 id) admite como base {v1 , . . . , vm1 y as´ı sucesivamente. Se plantea Kj = ker(f − λj id). Por la proposici´ on III.1.6, los Kj son linealmente independientes y por el corolario III.1.7 ϕ K1 × K2 × · · · Kr −→ V (v1 , v2 , . . . , vr ) 7→ v1 + v2 + · · · + vr L es un isomorfismo, consiguientemente V = Kj . Sea Bj una base de KJ , de donde B = ∪rj=1 es una base de V.

La matriz de f respecto a B es diagonal.



88

III Formas Normales

III.3 Endomorfismos Normales de un Espacio Unitario

Recordemos que E es un espacio unitario de dimensi´on m sobre el cuerpo C, si est´ a provisto de un producto escalar herm´ıtico. E×E →C (x, y) 7→ hx, yi sesquilineal y definido positivo. As´ı mismo se dispone de una biyecci´on ϕ : E → E ∗ = Hom(E, C) y 7→ ϕ(y) : E → C x 7→ hx, yi. Esta aplicaci´ on es semilineal en el sentido que sigue ϕ(y1 + y2 ) = ϕ(y1 ) + ϕ(y2 ), ϕ(αy) = α ¯ ϕ(y). Sea a ∈ End(E). Porque ϕ es biyectiva, entonces existe una u ´nica aplicaci´ on a ˜ : E → E que vuelve el siguiente diagrama conmutativo a ←− E E 99K a ˜ ϕ↓ ↑ ϕ−1 −→ E∗ at E∗ es decir, a ˜ = ϕ−1 at ϕ. Proposici´ on III.3.1.- a ˜ es lineal y se llama la adjunta de a. Remarca.- No confundir con la matriz adjunta, diferente contexto. Demostraci´ on.- Por la adici´on no hay problema; en efecto, ϕ, at y ϕ−1 son isomorfismos de grupo para la adici´on. Para la multiplicaci´ on, tenemos ¯ ϕ−1 (at ϕ(x)) = α˜ a ˜(x) = ϕ−1 (at ϕ(αx)) = ϕ−1 (αa ¯ t ϕ(x)) = α a(x).  Proposici´ on III.3.2.- Sea a ∈ End(E), para todo x, y ∈ E se tiene la siguiente f´ormula ha(x), yi = hx, a ˜(y)i. Es decir, el producto escalar de la imagen de x con y es el mismo que producto escalar de x con la imagen de la adjunta de y. Demostraci´ on.- Por definici´on de a ˜, se tiene at ◦ ϕ = ϕ ◦ a ˜. Por lo tanto: ha(x), yi = ϕ(y)(a(x)) = at ◦ ϕ(y)(x) = ϕ(˜ a(y))(x) = hx, a ˜(y)i.



89

III.3 Endomorfismos Normales de un Espacio Unitario

Proposici´ on III.3.3.- Sea {f1 , . . . , fm } una base ortonormal de E. Sea a ∈ End(E). Se denota A la matriz de a respecto a {f1 , . . . , fm }. Sea A˜ la matriz de a ˜ respecto a i = 1, . . . , m. Entonces A˜ = A¯t = At .

Demostraci´ on.- Sean x =

P

xi fi y y =

P

yj fj . Se tiene 

ha(x), yi = ( x1

 y¯1   · · · xm ) At  ...  . y¯m

hx, a ˜(y)i = ( x1

 y¯1 ¯˜  ..  . · · · xm ) A  .  y¯m

Tambi´en



Deducimos por consiguiente

¯˜ At = A.  Proposici´ on III.3.4.- Sean a, b ∈ End(E). Entonces: g i) (ab) = ˜b˜ a; ˜˜ = a; ii) a ^ iii) (a + b) = a ˜ + ˜b; g = α˜ iv) (αa) ¯ a.

Demostraci´ on.- Consecuencia directa de A˜ = A¯t .



Definici´ on III.3.5.- Sea a ∈ End(E), se dice que a es autoadjunto si a = a ˜. Sea {f1 , . . . , fm } una base ortonormal de E. Sea a ∈ End(E) y A la matriz de a respecto a la base {fi }. Si a es un endomorfismo autoadjunto se tiene A = A˜ = A¯t lo que implica que A es una matriz herm´ıtica. Proposici´ on III.3.6.- Sea a ∈ End(E), {f1 , . . . , fm } una base ortonormal y A la matriz de a respecto a {f1 , . . . , fm }; entonces a es autoadjunto ⇐⇒ A ∈ Herm(m, C). Si a es un endomorfismo autoadjunto, se tiene ha(x), yi = hx, a(y)i, por lo tanto hx, a(x)i = ha(x), xi ∈ R. Se dice que a es positivo ai a es autoadjunto y si ha(x), xi ≥ 0,

∀x ∈ E.

90

III Formas Normales

Se dice que a es antiautoadjunto si −a = a ˜ y en forma matricial si la matriz de a respecto a una base ortonormal verifica A¯t = −A.

Se dice que a es unitario si a˜ a = id o a ˜ = a−1 . En forma matricial AA¯t = I, A es unitaria. Se dice que a es normal si a˜ a=a ˜a y A es una matriz normal si AA¯t = A¯t A. En este paragrafo el resultado principal es: a es un endomorfismo normal, si y solamente si existe una base ortonormal de E formada de vectores propios de a. Caso Particular Consideremos el caso en que E es de dimensi´on igual a 1. En este caso E = C. Tenemos por lo tanto hz, wi = z w. ¯ Puesto que dim End(C) = 1, se puede decir que End(C) = C. El endomorfismo adjunto de a es a ¯. Las definiciones dadas m´as arriba tendr´an las siguientes equivalencias: a es autoadjunto ⇐⇒ a ∈ R. es positivo ⇐⇒ a ∈ R y a > 0. antiautoadjunto ⇐⇒ a ∈ iR. unitario ⇐⇒ |a| = 1. Todo endomorfismo a es normal, en efecto a¯ a=a ¯a. Caso General Volvamos al caso general donde E es un espacio unitario de dimensi´on finita. Remarcas 1.- El conjunto H = {a ∈ End(E)|a = a ˜} es un subespacio real de End(E), es decir a, b ∈ H ⇒ αa + βb ∈ H, ∀α, β ∈ R. 2.- En conjunto de los endomorfismos positivos de E es un cono convexo de H. Se dice que un subconjunto C de H es un cono convexo si a, b ∈ C ⇒ αa + βb ∈ C, ∀α, β ≥ 0. 3.- {a ∈ End(E)| − a = a ˜} = iH = {ib|b ∈ H} es un subespacio real de End(E). Se tiene End(E) = H ⊕ iH suma directa de subespacios vectoriales reales. 4.- El conjunto de los endomorfirmos unitarioses un grupo para la composici´ on de aplicaciones, se lo denota U(E). Proposici´ on III.3.7.- Sean a, b ∈ H, entonces ab ∈ H ⇐⇒ ab = ba. Demostraci´ on.- ⇒ ab ∈ H, se tiene ⇐ Se supone ab = ba, entonces

e = ˜b˜ ab = ab a = ba. e = ˜b˜ ab a = ba = ab.



III.3 Endomorfismos Normales de un Espacio Unitario

91

Proposici´ on III.3.8.- Sea F un subespacio de E invariante por a. Entonces F ⊥ = {x ∈ E|hx, yi = 0 ∀y ∈ F } es invariante por a ˜. Demostraci´ on.- Sea x ∈ F ⊥ e y ∈ F , se tiene h˜ a(x), yi = hx, a ˜(y)i = 0.



Proposici´ on III.3.9.- Sea V un espacio vectorial sobre un cuerpo K algebraicamente cerrado. Sean ϕ, ψ ∈ End(V ) tales que ϕψ = ψϕ. Entonces existe un vector propio com´ un a ϕ y ψ. Demostraci´ on.- Sea λ valor propio de ϕ. Esto significa que W = ker(ϕ − λid) 6= {0}. Se observa que W es invariante por ψ. En efecto, ψ(w) ∈ W ⇐⇒ ϕ(ψ(w)) = λ(ψ(w)). Esto sucede por que ϕ(ψ(w)) = ψ(ϕ(w)) = ψ(λw) = λψ(w). Por que K es algebraicamente cerrado, el endomorfismo ψ|W de W posee un vector propio, es decir existe v ∈ W con ψ(v) = µv. Por otro lado, por definici´on de W , se tiene ϕ(v) = λv.  Proposici´ on III.3.10.- Se tiene: i) a ∈ End(E) es normal ⇐⇒ existe una base ortonormal de E dada de vectores propios de a. ii) Sea {f1 , . . . , fm } una base ortonormal de E tal que a(fj ) = λj fj , λj ∈ C. Entonces 1) 2) 3)

¯ j fj ; a ˜(fj ) = λ a es autoadjunto ⇐⇒ λj ∈ R; a es positivo ⇐⇒ λj ∈ R y λj > 0; a es antiautoadjunto ⇐⇒ λj ∈ iR; 4) a es unitario ⇐⇒ |λj | = 1.5)

Demostraci´ on.- i) ⇐ Sea {f1 , . . . , fm } una base ortonormal formada de vectores propios para a. Se tiene a(fj ) = λj fj . La matriz A de a respecto a esta base es diag(λ1 , . . . , λm ). ¯1, . . . , λ ¯ m ). La matriz A˜ de a ˜ respecto a esta base es diag(λ ˜ ˜ Se tiene AA = AA, es decir a˜ a=a ˜a, a es normal. Observar que ii) 1) ha sido demostrado. ⇒ Se demuestra por inducci´on sobre m = dim E que existe una base ortonormal de E formada de vectores propios comunes a a y a ˜. Para m = 1, trivial. Suponemos cierto para dimE < m. Por la proposicion III.3.9 existe f1 ∈ E con hf1 , f1 i = 1 y f1 vector propio de a y a ˜. Se denota F1 el espacio engendrado por f1 . Por la proposicion III.3.8, se tiene a(F1 ) ⊂ F1 → a ˜(F1⊥ ) ⊂ F1⊥

a ˜(F1 ) ⊂ F1 → a(F1⊥ ) ⊂ F1⊥

˜. lo que implica que F1⊥ es invariante por a y a

92

III Formas Normales

Por hip´otesis de inducci´on, existe una base ortonormal {f2 , . . . , fm } de F1⊥ , de vectores propios de a y a ˜. Entonces {f1 , f2 , . . . , fm } es una base ortonormal de E formada de vectores propios para a y a ˜. ii) 2,3,4 ejercicio.  Corolario III.3.11.- Sea A ∈ Mm,m (C) una matriz normal, respectivamente unitaria, herm´ıtica, antiherm´ıtica, positiva. Entonces existe U ∈ U(m, C) tal que U AU −1 = diag(λ1 , . . . , λm ) donde λj ∈ C, respectivamente |λj | = 1, λj ∈ R, λj ∈ iR, λj ≥ 0.

Demostraci´ on.- Se interpreta A como la matriz de un endomorfismo normal de Cm , la proposici´ on III.3.10 indica que existe una base ortonormal {f1 , . . . , fm } de Cm formada de vectores propios de A. Se introduce la matriz de pasaje U de {e1 , . . . , em } a {f1 , . . . , fm }, entonces U ∈ U(m, C) y U AU −1 = diag(λ1 , . . . , λm ) 

Dos Aplicaciones a las Matrices a Coeficientes Reales Proposici´ on III.3.12.- Sea A ∈ Mm,m (R) una matriz sim´etrica. Los valores propios de A son reales. Adem´ as existe Q ∈ O(m, R) tal que QAQt = diag(λ1 , . . . , λm ).

Demostraci´ on.- Se tiene Mm,m (R) ⊂ Mm,m (C), A es por consiguiente herm´ıtica. Por el corolario precedente, los valores propios de A son reales. As´ı mismo A es diagonalizable en Mm,m (C). M Se tiene que C = ker(A − λI), suma sobre los diferentes subespacios propios. Afirmamos que para la λ

estructura estandar de espacio unitario los subespacios Vλ son ortogonales dos a dos, donde Vλ = ker(A−λI). En efecto, se tiene λhvλ , vµ i = hλvλ , vµ i = hAvλ , vµ i = hvλ , Avµ i = µ ¯hvλ , vµ i = µhvλ , vµ i. de donde hvλ , vµ i = 0 si λ 6= µ. Sea w = (w1 , . . . , wm ) ∈ Cm , se plantea w ¯ = (w ¯1 , . . . , w ¯m ). Sea W ⊂ Cm un subespacio vectorial, se ¯ plante W = {w|w ¯ ∈ W }. ¯ , existe una base ortonormal de W compuesta de elementos de Rm ⊂ Cm . Ejercicio.- Si W = W Se tiene Vλ = V¯λ . En efecto v ∈ Vλ ⇐⇒ Av = λv ⇐⇒ Av = λv ⇐⇒ A¯ v = λ¯ v ⇐⇒ v¯ ∈ Vλ . Utilizando el ejercicio, se elige una base ortonormal de Vλ constituida de elementos de Rm que la denotamos Bλ . Planteamos B = ∪Bλ , B es una base ortonormal de Cm formada de elementos de Rm , por consiguiente B tambi´en es una base ortonormal de Rm formada de vectores propios de A. Se introduce Q la matriz de pasaje de la base can´ onica a B. Se tiene QAQt = diag(λ1 , . . . , λm ).

 Ejercicio.-Estudiar en R2 la ecuaci´on ax2 + 2bxy + cy 2 = 1.

III.3 Endomorfismos Normales de un Espacio Unitario

93

Sea E = Rm , el espacio euclidiano estandar. Sea ϕ ∈ O(E). Entonces existe una base ortonormal de E respecto a la cual la matriz de ϕ es de la forma   cos α − sin α 0 ··· 0   sin α cos α   cos β − sin β   0   sin β cos β     ..   .  Θ=   cos ω − sin ω   0 · · · 0   sin ω cos ω   ±1     ..   . ±1 La versi´on matricial: Sea Φ ∈ O(m, R), entonces existe Q ∈ O(m, R) tal que QΦQt = Θ.

Demostraci´ on.- Consideremos el diagrama siguiente

E = Rm    ϕ y

Rm

֒→

Cm     ϕC y

֒→ CM

Sea Φ la matriz de ϕ respecto a la base can´ onica. ϕC la aplicaci´ on lineal de Φ respecto a la base can´ onica. Por consiguiente ϕC es una transformaci´ on unitaria de Cm . Dicho de otra manera Φ ∈ O(m, R) ⊂ U(m, C). Por la proposici´ on III.3.10 ϕC es diagonalizable y sus valores propios son m´odulo igual a 1. Por consiguiente M Cm = Kλ Kλ = ker(ϕC − λid). Se observa que los Kλ son ortogonales dos a dos; en efecto

λhvλ , vµ i = hϕC vλ , vµ i = hvλ , ϕ˜C vµ i = vλ , ϕ−1 ¯−1 hvλ , vµ i = µhvλ , vµ i = 0. C vµ = µ

lo que implica que vλ ⊥ vµ si λ 6= µ. ¯ λ = Kλ¯ . Verificar como ejercicio. Se observa que K ¯λ = K ¯ λ¯ = Kλ , por lo tanto exist una Ahora bien, si λ ∈ R, se tiene que λ = 1 o λ = −1, por lo tanto K base Bλ de Kλ ortogonal y formada de elementos de Rm . Si λ 6∈ R, se considera Kλ ⊕ Kλ¯ = Kλ ⊕ Kλ¯ .

Sea {v1 , . . . , vmλ } una base ortonormal de Kλ , entonces {¯ v1 , . . . , v¯mλ } es una base ortonormal de Kλ¯ . Mostrar esta afirmaci´on como ejercicio. Se plantea: 1 b2j−1 = √ (vj + v¯j ) ∈ Rm , j = 1, . . . , mλ ; 2 1 b2j = √ i(vj − v¯j ) ∈ Rm m, j = 1, . . . , mλ . 2 Ahora bien {b1 , . . . , b2mλ } = Bλ es una base ortonormal de Kλ ⊕ Kλ¯ formada de vectores de Rm . La verificaci´ on de esta afirmaci´on la dejamos como ejercicio. Se considera B = ∪Bλ es una base ortonormal de Cm formada de elementos de Rm , entonces base de Rm . El ultimo paso es verificar que la matriz de ϕC es de la forma de Φ. 

94

III Formas Normales

III.4 Descomposici´ on Can´ onica

Definici´ on III.4.1.- Se dice que g ∈ End(V ) es nilpotente, si existe n > 0 tal que g n = 0. Proposici´ on III.4.2.- Sea f ∈ End(V ). Entonces existe una u ´nica descomposici´ on V = N ⊕ R tal que a) f (N ) ⊂ N y f|N es nilpotente. b) f (R) ⊂ R y f|R es inversible. Demostraci´ on.- Para la existencia, se considera la sucesi´on {0} ⊂ ker(f ) ⊂ ker(f 2 ) ⊂ · · · ⊂ ker(f n ) ⊂ ker(f n+1 ) ⊂ · · · . Se observa que si ker(f n ) = ker(f n+1 ), entonces ker(f n ) = ker(f n+p ) para p > 0. En efecto, sea x ∈ ker(f n+p ), se tiene f n+p (x) = 0 y f n+1 (f p−1 (x)) = 0 ⇒ f p−1 (x) ∈ ker(f n+1 ) = ker(f n ), de donde f n+p−1 (x) = 0 ⇒ x ∈ ker(f n+p−1 ), iterando las veces que sea necesario obtenemos x ∈ ker(f n ). Tambi´en se puede observar que existe q > 0 tal que {0} & ker(f ) & · · · & ker(f q ) = ker(f p+q ). Se plantea

N = ker(f q ), R = Im(f q ).

Estos dos subespacios verifican las condiciones a) y b) y V = N ⊕ R. Se tiene N ∩ R = {0}, sea x ∈ N ∩ R ,se tiene f q (x) = 0 y x = f q (y) para cierto y ∈ V . As´ı q f (x) = f 2q (y), se tiene y ∈ ker(f 2q ) = ker(f q ). Se tiene V = N + R, esto sigue de la f´ormula de dimensi´on para aplicaciones lineales dim V = dim ker(f q ) + dim Im(f q ). La condici´ on a) se verifica porque f (ker(f q )) ⊂ ker(f q ) y (f| ker(f q ) )q = 0. f| ker(f q ) es nilpotente. La condici´ on b) se cumple, por que f (Im(f q )) ⊂ Im(f q ). Se tiene fIm(f q ) es inversible, es suficiente ver que ker(f ) ∩ R = {0}, en efecto se tiene ker(f ) ∩ R ⊂ N ∩ R = {0}.

Unicidad. Se supone que V = ker(f q ) ⊕ Im(f q ) = N ′ ⊕ R′ con N ′ y R′ que verifican las condiciones a) y b). q q Se tiene f|N ′ nilpotente, N ′ ⊂ ker(f|N ′ ⊂ ker(f ) = N . q f|R′ inversible, entonces f|R′ inversible, entonces R′ ⊂ Im(f q ) = R. Por que V = N ⊕ R = N ′ ⊕ R′ , se tiene necesariamente N ′ = N y R′ = R.

´ n Cano ´ nica III.4 Descomposicio

95 

Ejercicio.- Mostrar que si g ∈ End(V ) es nilpotente, entonces Pg (x) = xdim V .

Teorema III.4.3.- Se supone K algebraicamente cerrado. Sea f ∈ End(V ). Pf (x) =

p Y

(x − λj )mj

j=1

con λi 6= λj para i 6= j y

P

mj = m. Se tiene entonces V =

p M

ker((f − λj id)mj ) . | {z } j=1 Vj

Es la descomposicion can´ onica de V en subespacios invariantes de f . Ademas dim Vj = mj , (f − λj id)|Vj es nilpotente y Pf|Vj (x) = (x − λj )mj .

Demostraci´ on.- Sea λ1 un valor propio de f , sea m1 la multiplicidad algebraica de este valor propio. Se aplica la proposici´ on III.4.2 al endomorfismo f1 = f − λ1 id, entonces se tiene V = N1 ⊕ R1 , con a) f1 (N1 ) ⊂ N1 y f1 |N1 nilpotente, b) f1 (R1 ) ⊂ R1 y f1 |R1 inversible. Deducimos por consiguiente que f (N1 ) ⊂ N y f (R1 ) ⊂ R1 . Ahora bien, se tiene Pf1 (x) = det(x id − f1 ) = det(x id − f + λ1 id) = det((x + λ1 )id − f ) = Pf (x + λ1 ).

De donde Pf1 (x) = xm1

Y

(x + λ1 − λj )mj ,

j≥2

aplicando el ejercicio anterior al teorema y denotando n1 = dim N1 , se tiene Pf1 |N1 (x) = xn1 , por lo tanto n1 = m1 y Pf|R1 (x) =

Y

(x − λj )mj .

j≥2

El siguiente paso es mostrar que N1 = ker(f1m1 ). Se tiene {0} & ker(f ) & · · · & ker(f q ) = ker(f p+q ) = N1 . Observamos inmediatamente que q ≤ m1 , por consiguiente V = ker(f − λ1 id)m1 ⊕R1 , | {z } V1

con f (R1 ) ⊂ R1 , dim V1 = m1 , Pf|V1 (x) = (x − λ1 )m1 y f|V1 nilpotente. Se recomienza el razonamiento con R1 .  Ejemplo 1.- Consideremos la situaci´on en que dim V = 2. Se tiene dos casos: i) Pf (x) = (x − λ1 )(x − λ2 ) con λ1 6= λ2 . Se tiene V = ker(f − λ1 id) ⊕ ker(f − λ2 id)

96

III Formas Normales y f es diagonalizable. ii) Pf (x) = (x − λ)2 , se tiene

V = ker(f − λid)2 ,

lo que implica que f = |{z} λid + (f − λid) . | {z } homotecia

nilpotente

Conservando la notaci´on y las hip´ otesis del teorema, se introduce fd : ⊕Vj = V → V X X vj 7→ λj vj . vj ∈Vj

Dicho de otra manera fd (Vj ) ⊂ Vj y fd |Vj es una homotecia de razon λj . Por construcci´on fd es diagonalizable y adem´ as Y Pfd (x) = (x − λj )mj = Pf (x).

Se puede observar que V = ⊕Vj es la descomposici´ on de V en suma directa de subespacios propios para fd . Se plantea fn = f − dd . Proposici´ on III.4.4.- Mismas hip´ otesis y notaci´on del teorema III.4.3. Entonces se tiene: i) f = fd + fn donde fd es diagonalizable, fn es nilpotente y que satisfacen fn fd = fd fn . Adem´ as Pf (x) = ffd (x). ii) Si fd′ diagonalizable y fn′ nilpotente como en i), entonces fd′ = fd y fn′ = fn ¿ Demostraci´ on i) Se tiene f = fd + fn por definici´on. Sea vj ∈ Vj , entonces fd (vj ) = λj vj ∈ Vj . Ahora bien, fd (f (vj ) = λj f (vj ), | {z } ∈Vj

f (fd (vj )) = f (λvj ) = λj f (vj ),

de donde f fd = fd f , lo que un c´ alculo simple dar´a fn fd = fd fn . fd es diagonalizable por construcci´ on. Veamos que fn es nilpotente, sea vj ∈ Vj , se tiene fnmj (vj ) = (f − fd )mj (vj ) = (f − λj id)mj (vj ) = 0, porque Vj = ker(f − λj id)mj . Sea M = max{mj }, entonces se tiene X X vj ) = fnM (vj ) = 0 fnM ( y fn es nilpotente. Pf = Pfd por construcci´ on. ii) Sean fd′ diagonalizable y fn′ nilpotentes, tales que f = fd′ + fn′ , Por el teorema III.4.3 aplicado a fd′ , se tiene que Y M (x − λ′j )nj , V = Vj′ , Pfd′ (x) =

fd′ fn′ = fn′ fd′ .

Vj′ = ker(fd′ − λ′j id)nj y fd′ (Vj′ ) ⊂ Vj′ .

Deber observarse que Vj′ = ker(fd′ − λ′j id) por que fd′ es diagonalizable. Mostremos que fn′ (Vj ) ⊂ Vj ; en efecto, se tiene vj′ ∈ Vj ⇐⇒ fd′ (vj ) = λ′j (vj′ ). Ahora bien fn′ (fd′ − λ′j id)(vj′ ) = fn′ fd′ (vj ) − λ′j fn′ (vj′ ) = 0, ⇒ fd′ (fn′ ) = λ′j fn (vj′ ).

´ n Cano ´ nica III.4 Descomposicio

97

De la misma manera se muestra que f (Vj′ ) ⊂ Vj′ . Utilizando la proposici´ on III.3.9 para f , fn′ y fd′ restringidos ′ ′ en Vj , deducimos que λj = λk , para alg´ un k, la verificaci´ on la dejamos como un simple ejercicio. En resumen todo valor propio de fd′ es valor propio de f . El siguiente paso es mostrar que fn′ (Vj ) ⊂ Vj , para todo j. Se tiene que fn′ (vj ) = (fn + fd − fd′ )(vj ) = fn (vj ) + (λj − βj )vj ∈ Vj , por que vj ∈ Vk′ para alg´ un k. Adem´ as fd (fn′ (vj )) = λj fn′ (vj ) = fn′ (λj vj ) = fn′ (fd (vj )), de donde fd fn′ = fn′ fd sobre Vj y por consiguiente sobre V . Por simples c´ alculos es facil ver tambi´en que fn′ fn = fn fn′ . Ejercicio.-Mostrar que fn − fn′ es nilpotente. Por u ´ltimo mostremos que fd′ = fd , sea 0 6= v ∈ V , αv = fd (v) = fd′ (v) + (fn′ − fn )(v) = βv + (fn′ − fn )(v), de donde v es vector propio de fn′ − fn y como este endomorfismo es nilpotente deducimos que fn′ (v) = fn (v) y fd′ (v) = fd (v). 

98

III Formas Normales

III.5 Teorema de Hamilton Cayley

Teorema III.5.1.- Hamilton-Cayley. Se tiene: i) Sea f ∈ End(V ), entonces Pf (f ) = 0. ii) Sea A ∈ Mm,m (K), entonces PA (A) = 0. Demostraci´ on.- Debe constatarse que i) y ii) son enunciados equivalentes. Como preliminar a la de¯ algebraicamente cerrado. Por mostraci´ on debe recordarse que todo cuerpo K es subcuerpo de un cuerpo K ejemplo R ⊂ C. La demostraci´ on se la realiza en dos etapas. 1.-K cuerpo de base arbitrario. Ejercicios de la Pr´actica. 2.-K cuerpo de base algebraicamente cerrado. Se tiene por consiguiente Y M Pf (x) = (x − λj )mj , V = Vj , donde Vj = ker(f − λj id)mj . Se tiene

Pf (f ) =

Y (f − λj id)mj , j

producto en cualquier orden. Sea vk ∈ Vk , se tiene por consiguiente Y Y Pf (f )(vk ) = Pf (f ) = (f − λj id)mj (vk ) = (f − λj id)mj (f − λk id)mk (vk ) . | {z } j6=k

j

=0

De donde Pf (f ) = 0.

 Consideremos la aplicaci´ on

ϕf K[x] → End(V ) P 7→ P (f )

Se puede ver que ϕf es un homorfismo de espacios vectoriales y de anillos. Si la dimensi´on de V es m, se tiene dim End(V ) = m2 y por otro lado dim K[x] es infinita. Por lo tanto ϕf no es inyectiva, lo que significa que ker ϕf 6= {0}. Como ϕf es un homomorfismo de anillos, se tiene que ker ϕf es un ideal, resultado que ser´ a visto en otro curso. El teorema de Hamilton Cayley afirma que Pf ∈ ker ϕf y se mostrar´ a en otro curso de Algebra que ker ϕf = Mf K[x] = {Mf P |P ∈ K[x]}. Mf es un polinomio de coeficiente dominante 1 y se conoce como el polinomio minimal de f ∈ End(V ). Por consiguiente se tiene que Mf divide Pf . Ejemplos 1.- Sea A=



a11 a21

a12 a22



,

el polinomio caracter´ıstico de A est´ a dado por PA (x) = x2 − (a11 + a22 )x + (a11 a22 − a12 a21 ), de donde PA (A) = A2 − (a11 + a22 )A + (a11 a22 − a12 a21 )I =



0 0 0 0



.

99

III.5 Teorema de Hamilton Cayley

2.- Sea A ∈ Mm,m (K). Se pide calcular A100 . Sea PA el polinomio caracter´ıstico de A, este polinomio es de grado m. Efectuando la divisi´on con resto, se tiene x100 = PA (x)Q(x) + RA (x), donde el grado de RA (x) es menor a m. Remplazando A en los polinomios, se obtiene A100 = PA (A) Q(A) + R(A). | {z } =0

El c´ alculo de A100 se lleva al c´ alculo de RA (A). Consideremos el caso en que PA (x) tiene raices simples, entonces A es diagonalizable, por lo tanto existe M ∈ Gl(m, K) tal que M AM −1 = diag(λ1 , . . . , λm ), 100 M A100 M −1 = diag(λ100 1 , . . . , λm ).

Entonces RA (λi ) = λ100 i . En efecto (x100 − RA )(λi ) = 0,

i = 1, . . . , m.

Por lo tanto x100 − RA es divisible por (x − λ1 ) · · · (x − λm ). Veamos esto num´ericamente, sea   1 1 A= 1 0 la matriz de la serie de Fibonacci. Se tiene √ √ 1+ 5 1− 5 PA (x) = x − x − 1 = (x − λ1 )(x − λ2 ), con λ1 = , λ2 = , 2 2 2

de donde RA (x) = por lo tanto



1 A100 = √ λ100 1 5

λ100 λ100 2 1 (x − λ2 ) + (λ1 − x), λ1 − λ2 λ1 − λ2 

1 − λ2 1

1 −λ2



 λ1 − 1 −1  .  −1 + λ100 2 λ1 

100

III Formas Normales

III.6 Endomorfismos Nilpotentes

Se dice que g ∈ End(V ) es nilpotente, si existe n > 0 tal que g n = 0. Resultado Principal.- Existe una base de normal de Jordan siguiente  0 ν1 0 ν2   ..  .  

V respecto a la cual la matriz de g nilpotente, tiene la forma

..



.

0

νn−1 0

   con νi = 0 o νi = 1.  

Se dice que A ∈ Mm,m (K) es nilpotente si existe n > 0, tal que An = 0. Resultado.- Existe M ∈ Gl(m, K) tal que M AM −1 es de la forma normal.

Definici´ on III.6.1.- Sea g ∈ End(V ) nilpotente, el entero m´as peque˜ no q > 0 tal que g q = 0 se llama ´ındice de g. Proposici´ on III.6.2.- Sea g nilpotente de ´ındice q. Sea v1 ∈ V tal que g q−1 (v1 ) 6= 0; entonces: i) los vectores v1 , g(v1 ), . . . , g q−1 (v1 ) son linealmente independientes. Se denota V1 el subespacio de V engendrado por {v1 , g(v1 ), . . . , g q−1 (v1 )}. Se tiene g(V1 ) ⊂ V1 . ii) Existe un subespacio W de V tal que a) V = V1 ⊕ W , b) g(W ) ⊂ W . Si se toma como base de V {v1 , g(v1 ), . . . , g q−1 (v1 ), w1 , . . . , wp } la matriz de g respecto a esta base es | {z } | {z } base de V1 base de W de la forma   0 1 .. .. 0   . . .    0 0 ∗

Demostraci´ on.- i) Por el absurdo, suponemos que {v1 , g(v1 ), . . . , g q−1 (v1 )} es una familia linealmente dependiente, por consiguiente existen αi ∈ K no todos nulos tales que q−1 X

αi g i (v1 ) = 0,

i=0

se denota p el ´ındice m´as peque˜ no tal que αp 6= 0. Se tiene   X αi X αi g p (vi ) = − g i (v1 ) = g p+1 − g i−p−1 (v1 ) = g p+1 (w). α α p p i>p i>p {z } | w

Entonces

g q−1 (v1 ) = g q−p−1 (g p (v1 )) = g q−p−1 (g p+1 (w)) = 0.

Lo que contradice con la hip´ otesis que g q−1 (v1 ) = 0. Por consiguiente q−1 {v1 , g(v1 ), . . . , g (v1 )} es linealmente independiente.P Mostremos que g(V1 ) ⊂ V1 , sea w ∈ V1 , se tiene w = αi g i (v1 ) y X g(w) = αi g i+1 (vi ) ∈ V1 ⇒ g(V1 ) ⊂ V1 .

101

III.6 Endomorfismos Nilpotentes

ii) Se mostrar´ a por inducci´on sobre el ´ındice q de g la existencia de un suplementario W de V1 que es estable por g. Si q = 1, entonces g = 0 y no hay nada que hacer. Se supone cierta la aserci´ on para los endomorfismos nilpotentes de ´ındice < q. Se introduce R = Im(g) ⊂ V , R es un subespacio de V y se tiene que g(R) ⊂ R y el ´ındice de g|R es q − 1. La verificaci´ on de que el ´ındice de g|R la dejamos como ejercicio. Se puede aplicar la hip´ otesis de inducci´on a R, g|R , g(v1 ) y R1 , donde R1 es el subespacio de R engendrado por {g(v1 ), . . . , g q−1 (v1 )}. Entonces existe un subespacio S de R tal que R = R1 ⊕ S y g(S) ⊂ S. Via V → R = Img v 7→ g(v) se introduce S ′ = {v ∈ V |g(v) ∈ S}. Afirmamos que V = V1 + S ′ . En efecto, sea v ∈ V , se escribe g(v) = r1 + s, existe x1 ∈ V1 tal que g(x1 ) = r1 . Ahora bien g(v − x1 ) = g(v) − g(s1 ) = s ∈ S, por lo tanto v − x1 ∈ S ′ y m´as todav´ıa v = x1 + s′ con x1 ∈ V1 y s′ ∈ S ′ . Observamos que g(S ′ ) ⊂ S ′ , en efecto, sea s′ ∈ S ′ g(s′ ) ∈ S ′ ⇐⇒ g(g(s′ )) ∈ S, esto es cierto por que g(S) ⊂ S por hip´ otesis de inducci´on. V1 ∩ S ′ 6= {0}. En realidad V1 ∩ S ′ es de dimensi´on 1 engendrado por g p−1 (v1 ). En efecto, 0 6= g p−1 (v1 ) ∈ V1 por definici´on, 0 6= g p−1 (v1 ) ∈ S ′ por que g(g p−1 (v1 )) = 0 ∈ S. Rec´ıprocamente, sea v ∈ V1 ∩ S ′ , se tiene ) g(v) ∈ V1 ∩ Im(g) = R1 ⇒ g(v) ∈ S ∩ R1 = {0}; g(v) ∈ S g(v) = 0, de donde v ∈ V1 ∩ ker(g). Se utiliza finalmente que V1 ∩ ker(g) es engendrado por g p−1 (v1 ). V1 ∩ S = {0}; en efecto V1 ∩ S = V1 ∩ (S ∩ R) = V1 ∩ R ∩ S = R1 ∩ S = {0}. Se considera por consiguiente el subespacio de S ′ dado por S ⊕ (S ′ ∩ V1 ), se elige un suplementario S ′ = S ⊕ (S ′ ∩ V1 ) ⊕ S ′′ , se plantea W = S ⊕ S ′′ . El subespacio W satisface las condiciones de la proposici´ on, es decir: a) g(W ) ⊂ W ; en efecto, w ∈ W , se tiene g(w) ∈ S ⊂ W . b) V1 ∩ W = {0}; en efecto, V1 ∩ W = V1 ∩ (W ∩ S ′ ) = (V1 ∩ S ′ ) ∩ W = {0}, por construcci´ on de W . c) V1 + W = V ; en efecto, V = V1 + S ′ = V1 + (W + V1 ∩ S ′ ) = V1 + W.



102

III Formas Normales

Sea g ∈ End(V ) un endomorfismo nilpotente. Se dice que un subespacio V1 de V es un subespacio c´ıclico respecto a g, si existe v1 ∈ V y n > 0 tal que v1 , g(v1 ), . . . , g n−1 (v1 ) es una base de V1 y g n (v1 ) = 0. En la proposici´ on precedente se ha mostrado la existencia de subespacios c´ıclicos. Teorema III.6.3.- Sea g ∈ End(V ) nilpotente. Entonces existe una descomposici´ on V =

k M

Vj ,

(III.6.1)

j=1

donde cada uno de los Vj es c´ıclico respecto a g. El entero k y los enteros qj = dim Vj dependen solamente de g y no as´ı de la descomposici´ on particular (III.6.1). Demostraci´ on.- Se elige v1 ∈ V como en la proposici´ on (III.6.2), despu´es V1 el subespacio engendrado por {v1 , g(v1 ), . . . , g q−1 (v1 )}. El subespacio V1 es c´ıclico respecto a g. Adem´ as existe una descomposici´ on V = V1 ⊕ W donde g(W ) ⊂ W . Se recomienza el razonamiento sobre W y se llega paso a paso a la existencia de la descomposici´ on (III.6.1). Mostremos la unicidad de k y los qj . Para un entero n, se plantea e(n) = #{j| dim Vj = n}. e(n) depende solamente de g y no de la descomposici´ on particular en subespacios c´ıclicos. En efecto la f´ormula e(n) = rang(g n−1 ) − 2rang(g n ) + rang(g n+1 )

depende solamente de g. Mostremos esta u ´ltima f´ormula. Consideremos Vj , la base es vj , g(vj ), . . . , g qj −1 (vj ) qj y g (vj ) = 0. Se tiene

entonces

 rang(g|Vj ) = qj − 1    2 rang(g|V ) = qj − 2 ⇒ rang(g n ) = max{0, q − n}, j j |Vj   ..  . rang(g n ) =

k X

n rang(g|V ). j

j=1

Por lo tanto rang(g n−1 ) = e(n) + 2e(n + 1) + 3e(n + 2) + · · · + (l + 1)e(n + l) rang(g n ) = e(n + 1) + 2e(n + 2) + · · · + l e(n) n+1 rang(g )= e(n + 2) + · · · + (l − 1)e(n + l)



Proposici´ on III.6.4.- i) Sea g ∈ End(V ) un endomorfismo nilpotente. Entonces existe una base de V respecto a la cual la matriz es de la forma normal de Jordan   0 ν1 0 ν2     .. ..  con νi = 0 o νi = 1.  . .     0 ν n−1

0

103

III.6 Endomorfismos Nilpotentes

ii) Sea A ∈ Mm,m (K) nilpotente. Entonces existe M ∈ Gl(m, K) tal que M AM −1 sea de la forma de Jordan. Demostraci´ on.- Se recuerda el teorema precedente. Existe V =

k M

Vj

j=1

donde los Vj son c´ıclicos respecto a g. Es decir existe vj ∈ Vj tal que {vj , g(vj ), . . . , g qj −1 (vj )} es una base de Vj y g qj (vj ) = 0, con qj = dim Vj . Se toma por base de Vj , Bj = {g qj −1 (vj ), . . . , g(vj ), vj }, la matriz de g|Vj respecto a Bj es

   

0

1 .. .

..

. 0

La descomposici´ on V =

 . 1 0

Juntando los Bj se obtiene la base buscada. k M



 Vj respecto a g no es u ´nica, pero si son enteramente determinados por g los

j=1

enteros k y qj . Se llama partici´ on del entero m ≥ 1, una descomposici´ on de m en m = q1 + q2 + · · · + qk , con q1 ≥ q2 ≥ · · · ≥ qk > 0. Ejemplo 1.- Las particiones del entero 4 son: 4 = 4, 4 = 3 + 1, 4 = 2 + 2, 4 = 2 + 1 + 1, 4 = 1 + 1 + 1 + 1; en total 5 particiones de 4. A g ∈ End(V ) nilpotente se le asocia la partici´on m=

k X

qj .

j=1

Proposici´ on III.6.5.- Sean g, g ′ ∈ End(V ) nilpotentes. Entonces ′ g y g ′ son conjugados ⇐⇒ las particiones asociadas a g y g son las mismas.

Demostraci´ on.- ⇒ Por hip´ otesis, existe un automorfismo h de V , h ∈ Gl(V ), tal que g ′ = hgh−1 . Se toma una descomposici´ on en espacios c´ıclicos respecto a g V = ⊕Vj . Afirmamos que V = ⊕h(Vj ) es una descomposici´ on en subespacios c´ıclicos respecto a g ′ , con lo que la primera implicaci´ on estar´ıa demostrada. En efecto, por hip´otesis existe vj ∈ Vj tal que {vj , g(vj ), . . . , g qj −1 (vj )} es base de Vj ,

g qj (vj ) = 0, qj = dim Vj .

104

III Formas Normales

Una simple verificaci´ on dar´ a {h(vj ), g ′ (h(vj )), . . . , g ′

qj −1

q

g ′ j (h(vj )) = 0, qj = dim h(Vj ).

(h(vj ))} es base de h(Vj ),

⇐ Se supone que las particiones son las mismas; es decir: k M V = Vj descomposic´on en subespacios c´ıclicos respecto a g, j=1

V =

k M

Vj′ descomposic´on en subespacios c´ıclicos respecto a g ′ ,

j=1

con la condici´ on dim Vj = dim Vj′ . Consideremos. vj ∈ Vj tal que vj′ ∈ Vj′ tal que

(

{vj , g(vj ), . . . , g qj −1 (vj )} es base de Vj ,

(

g qj (vj ) = 0;

{vj′ , g ′ (vj′ ), . . . , g ′

qj −1

(vj′ )} es base de Vj′ ,

q

g ′ j (vj′ ) = 0.

Se plantea h : V → V la aplicaci´ on lineal definida por l

g l vj 7→ g ′ (vj′ ),

0 ≤ l ≤ qj − 1, j = 1, . . . , k.

Esta aplicaci´ on es un isomorfismo por que env´ıa base sobre base. Afirmamos que hgh−1 = g ′ , con lo que la proposici´ on estar´ıa demostrada. En efecto, para verificar que 2 aplicaciones lineales coinciden, es suficiente verificar que coinciden sobre los elementos de una base; l

hgh−1 (g ′ (vj′ )) = hgg l (vj ) = hg l+1 (vj ) = g ′

l+1

l

= g ′ (g ′ (vj′ )). 

Corolario III.6.6.- Existe un n´ umero finito de clases de conjugaci´on de endomorfismos (de matrices) nilpotentes. Este n´ umro es igual al n´ umero de particiones del entero m = dim V . Demostraci´ on.- Consecuencia de la proposici´ on III.6.5, se ha obtenido una aplicaci´ on inyectiva   clases de conjugaci´on de matrices (en- → {particiones de m} . domorfismos) nilpotentes m × m Esta aplicaci´ on tambi´en es sobreyectiva. En efecto, sea m = q1 + q2 + · · · + qk una partici´on de m. Se plantea 

z

0           A=           

q1

}|

1

..

.

..



{

.

0

z

0

q2

}|

1

..

.

..

{

.

0

..

. z

0

            ∈ Mm,m (K);       qk }| {   1 .. ..  . . 0

105

III.6 Endomorfismos Nilpotentes sea {e1 , . . . , em } la base can´ onica de Km . Se tiene Km =

V1 |{z}

dim V1 =q1

⊕···⊕

Vk |{z}

dim Vk =qk

con {e1 , . . . , eq1 } base de V1 , {eq1 +1 , . . . , eq1 +q2 } base de V2 , etc. Esta es una descomposici´ on en subespacios c´ıclicos respecto a A. En efecto A(eq1 ) = eq1 −1 , A2 (eq1 ) = eq1 −2 , etc.  Ejemplo 2.- Las matrices nilpotentes de 4 × 4 son conjugadas a una de las siguientes matrices de Jordan 

0 0  0 0  0 0  0 0

1 0 0 0 1 0 0 0

0 1 0 0 0 0 0 0

 0 0 , 1 0  0 0 , 1 0



0 0  0 0  0 0  0 0

1 0 0 0 1 0 0 0

0 1 0 0 0 0 0 0

 0 0 , 0 0  0 0 , 0 0

106

III Formas Normales

III.7 Descomposici´ on de Jordan

Se plantea



a

  J(m, a) =   



sc1

   ∈ Mm,m (K).   1

1

a

..

..

.

.

a

a

Una matriz de la forma normal de Jordan es  J(m , a ) 0 1 1 0 J(m2 , a2 )   

..



. J(mk , ak )

  

no es necesario que ai 6= aj si i 6= j.

Teorema III.7.1.- Jordan. Se supone K algebraicamente cerrado, por ejemplo K = C. Entonces: i) Sea f ∈ End(V), entonces existe una base de V respecto a la cual la matriz de f tiene la forma normal de Jordan. ii) Sea A ∈ Mm,m (K), entonces existe M ∈ Gl(m, K) tal que M AM −1 es de la forma de Jordan. r Y (x − λj )mj . Se plantea Vj = ker(f − λj id)mj . Se tiene Demostraci´ on.- Se escribe Pf (x) = j=1

V =

r M

Vj ,

j=1

descomposici´ on can´ onica en espacios invariantes respecto a f . Se introduce f = fd + fn , la descomposici´ on de Jordan de f , donde fd es diagonalizable, fd (Vj ) ⊂ Vj y fd |Vj = λj id; fn es nilpotente, fn (Vj ) ⊂ Vj y por lo tanto fn |Vj es nilpotente. Resultado del paragrafo precedente, existe una base Bj de Vj respecto a la cual la matriz de fn |Vj es de la forma   0 ν1   0 ν2       .. ..   . .  mj = dim Vj con νi = 0 o νi = 1.    0 νmj −1    0 La matriz de f|Vj = (fd + fn )|Vj respecto a Bj es      

λj

ν1 0

ν2 .. .



..

. λj

νmj −1 λj

    

de tipo Jordan. Ensamblando y superponiendo las bases Bj , se obtiene una base B de V con la propiedad requerida. 

´ n de Jordan III.7 Descomposicio

107

Proposici´ on III.7.2.- Sean  J(m , a ) 1 1 0  J = 

 J(m′ , a′ ) 1

 J′ =  

0

1



0 J(m2 , a2 ) ..

. J(mp , ap )

0 J(m′2 , a′2 )

..

. J(m′q , a′q )

 ,  

 . 

Entonces J y J ′ son conjugadas, si y solamente si p = q y existe una permutaci´on σ de {1, . . . , p} tal que mσ(i) = m′i ,

aσ(i) = a′i .

Ejemplos 1.- Si A = M JM −1 , entonces An = M J n M −1 . Te´ oricamente para calcular An es suficiente saber calcular la potencia de una matriz de Jordan. Se tiene J(m, a) = aI + N, y (J(m, a))n =

n   X n i=1

0

i

ap−1 N i ,

con la convenci´on que N = I. Puede observarse que N p = 0 si p ≥ m. Por otro lado a cada potencia de N la subdiagonal de 1’s se desplaza a la derecha de una subdiagonal. 2.- Colocar A bajo la forma de Jordan, donde   0 1 0 A =  0 0 1. −1 1 1 Se tiene

PA (x) = (x − 1)2 (x + 1), por consiguiente C3 = ker(A + I) ⊕ ker(A − I)2 . | {z } | {z } V1

V2

Realizando c´ alculos elementales, se tiene que V1 =< {(1, 1, 1)} >,

V2 =< {(2, 1, 0), (−1, 0, 1)} > .

Elegimos v2 = (2, 1, 0), entonces (A − I)v2 = (−1, −1, −1). Por consiguiente, la matriz de Jordan conjugada a A es   −1 0 0 J =  0 1 1 0 0 1

y si J = M −1 AM , se tiene



 1 −1 2 M =  1 −1 1  . 1 0 −1

Related Documents

Algebra Lineal Avanzada
January 2021 0
Algebra Lineal
February 2021 0
Algebra Lineal
January 2021 0
Algebra Lineal - Abril 2010
February 2021 0

More Documents from "Algebra Lineal(gr5)"