Universidad Mayor de San Sim´ on Facultad de Ciencias y Tecnolog´ıa
Carrera de Matem´ aticas
Algebra Lineal
Hans C. M¨ uller Santa Cruz
Cochabamba, .
Contenido
Prefacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Espacios Vectoriales y Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.- Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.- Espacios de Generaci´on Finita . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.- Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.- Anillo de Homomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.- Matriz de una Aplicaci´on Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.- Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.- Operaciones Elementales sobre Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8.- Signo de las Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9.- Formas Multilineales Alternadas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10.- Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.- Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . II.- Complemento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.- Espacios Vectoriales Cocientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.- Dual de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.- Formas Bilineales Sim´etricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.- Espacios Euclidianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.- Formas Herm´ıticas, Espacios Unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . III.- Formas Normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.- Vectores y Valores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.- Triangularizaci´on y Diagonalizaci´on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.- Endomorfismos Normales de un Espacio Unitario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.- Descomposic´on Can´ onica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.- Teorema de Hamilton Cayley . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.- Endomorfismos Nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7.- Descomposici´ on de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . I.-
iii 1 1 8 13 20 23 28 33 38 42 47 53 57 57 61 65 71 77 81 81 87 90 98 103 105 112
Prefacio
El Algebra Lineal es una de las ramas fundamentales de las Matem´ aticas; por un lado, porque es herramienta de trabajo imprescindible en otras ´ areas de las matem´aticas como el An´ alisis, la Geom´etr´ıa, el An´ alisis Num´erico, las Estad´ısticas y otras; por otro lado, las aplicaciones del Algebra Lineal en la soluci´on de problemas de otras disciplinas y ciencias es moneda corriente. El texto de Algebra Lineal est´ a inscrito dentro el desarrollo que pretende dar la Carrera de Matem´ aticas en su nueva formulaci´on. Este texto contiene lo m´as importante dentro lo que es el Algebra Lineal, dando el vocabulario y conceptos de base para una buena utilizaci´ on, presentando los razonamientos de manera rigurosa y en lo posible elegante, mostrando ejemplos donde el Algebra Lineal es un instrumento de soluci´on a los problemas presentados. Para un buen asimilaci´ on de los conocimientos y razonamientos de este texto; las definiciones y conceptos m´as significativos est´ an escritos en negrillas, estos deber´ an ser memorizados y manipulados fluidamente. Los resultados mas importantes est´ an expresados en los teoremas, corolarios y proposiciones, estos deber´ an tambi´en ser memorizados para manejarlos de manera fluida. Las demostraciones de este texto deber´ an ser trabajadas, con la finalidad de adquirir las diferentes t´ecnicas de demostraci´on que se emplean en el Algebra Lineal. Con fines ped´agogicos, en algunos paragrafos se presentan los resultados fundamentales que ser´ an tratados en el paragrafo en cuesti´on, estos est´ an escritos en car´ acteres it´ alicos. La pr´ actica del curso, es una fuente para practicar los conocimientos adquiridos y as´ı mismo como un medio de adquirir conocimientos adicionales. Por lo tanto, una resoluci´on en gran n´ umero de estos ejercicios, podr´ a medir el grado de asimilaci´ on del estudiante.
Cap´ıtulo I Espacios Vectoriales y Aplicaciones Lineales
I.1 Preliminares
Cuerpos Conmutativos Tanto en el colegio, como en los primeros cursos universitarios, se ha tenido un contacto directo con: Q el conjunto de los n´ umeros racionales = {n/m|n, m enteros, m 6= 0}; R el conjunto de los n´ umeros reales; C el conjunto de los n´ umeros complejos. Estos tres conjuntos est´ an dotados de: una adici´on: α + β una multiplicaci´on: α · β que verifican las tres familias de axiomas: I. Adici´ on i) la adici´on es conmutativa, α + β = β + α. ii) la adici´on es asociativa, (α + β) + γ = α + (β + γ). iii) existe un elemento cero 0 tal que 0 + α = α + 0 = α, ∀α. iv) ∀α existe un opuesto −α, tal que α + (−α) = 0. II. Multiplicaci´ on i) la multiplicaci´ on es conmutativa, α · β = β · α. ii) la multiplicaci´ on es asociativa, (α · β) · γ = α · (β · γ). iii) existe el elemento uno 1, tal que 1 · α = α, ∀α. iv) ∀β 6= 0, β posee un inverso β −1 = 1/β, tal que β · β −1 = 1. III. Distributividad i) α · (β + γ) = α · β + α · γ. ii) (α + β) · γ = α · γ + β · γ. Un conjunto K, provisto de una adici´on y de una multiplicaci´on se llama cuerpo conmutativo, si satisface los tres grupos de axiomas mencionados m´as arriba. Remarca.- Un conjunto K provisto de una adici´on y de una multiplicaci´on que satisface las tres familias de axiomas, quiz´ as excepto el axioma II.i se llama cuerpo. Proposici´ on I.1.1.- En un cuerpo conmutativo K, se tiene 1) El elemento 0 es u ´nico. 2) El opuesto de α es u ´nico. 3) El elemento 1, as´ı como el inverso de β 6= 0 son u ´nicos. 4) Se tiene α + α = α ⇐⇒ α = 0.
2
I Espacios Vectoriales y Aplicaciones Lineales
5) Se tiene α · 0 = 0, ∀α. Demostraci´ on: 1.- Sup´ongase que 0 y 0′ son ceros, entonces 0′ = 0 + 0′ = 0′ + 0 = 0 ⇒ 0 = 0′ . 2.- Sea α ∈ K, −α y −α′ opuestos de α. Se tiene −α = −α + 0 = −α + (α + (−α′ )) = (−α + α) + (−α′ ) = 0 + α′ = α′ . 3.- Ejercicio. 4.- ⇐ trivial, ⇒
α + α = α, (α + α) + (−α) = α + (−α), α + (α + (−α)) = 0, α + 0 = 0 ⇒ α = 0.
5.- Utilizando el punto 4) de la proposici´ on, se tiene α · 0 = α · (0 + 0), α · 0 = α · 0 + α · 0 ⇒ α · 0 = 0.
En lo que sigue del cap´ıtulo K denotar´ a un cuerpo conmutativo. Se convendr´a α − β = α + (−β) y αβ = α · β.
Espacios Vectoriales Un espacio vectorial sobre K, K-espacio vectorial, es un conjunto V provisto de dos operaciones: adici´on
V ×V →V
multiplicaci´on por escalar
K×V →V
(x, y) 7→ x + y
(α, x) 7→ αx
que verifican los dos sistemas de axiomas: I Adici´ on i) la adici´on es conmutativa x + y = y + x, ∀x, y ∈ V . ii) la adici´on es asociativa (x + y) + z = x + (y + z), ∀x, y, z ∈ V . iii) existe un cero, 0 ∈ V tal que 0 + x = x, ∀x ∈ V . iv) Todo x ∈ V posee un opuesto −x, tal que x + (−x) = 0. II Multiplicaci´ on por escalar i) α(βx) = (αβ)x, ∀α, β ∈ K, ∀x ∈ V . ii) (α + β)x = αx + βx, ∀α, β ∈ K, ∀x ∈ V . iii) α(x + y) = αx + αy, ∀αK, x, y ∈ V . Definici´ on I.1.2.- Un subconjunto U 6= ∅ de V espacio vectorial, es un subespacio vectorial de V , si x, y ∈ U ⇒ αx + βy ∈ U, ∀α, β ∈ K. Ejemplos
3
I.1 Preliminares
1.- K es un espacio vectorial sobre K, para la adici´on y la multiplicaci´on de K. 2.- Sea Kn = {(α1 , α2 , . . . , αn )|αi ∈ K, i = 1, . . . , n}, con la adici´on y la multiplicaci´on por escalar, definidas: (α1 , α2 , . . . , αn ) + (β1 , β2 , . . . , βn ) = (α1 + β1 , α2 + β2 , . . . , αn + βn ), α(α1 , α2 , . . . , αn ) = (αα1 , αα2 , . . . , ααn ), es un espacio vectorial sobre K. 3.- {0} ⊂ V y V son subespacios vectoriales de V , si V es un espacio vectorial. Son conocidos como los subespacios triviales de V. Proposici´ on I.1.3.- En un espacio vectorial V , sobre un cuerpo K, se tiene: 1.- El elemento 0 ∈ V es u ´nico, as´ı como el opuesto −x. 2.- y ∈ V , y + y = y ⇐⇒ y = 0. 3.- α0 = 0, ∀α ∈ K. 4.- 0x = 0, ∀x ∈ V . 5.- Sean α ∈ K, x ∈ V , entonces αx = 0 ⇒ α = 0 o x = 0. Demostraci´ on.- Los incisos 1,2,3,4 ejercicios. El punto 5, si α = 0 est´ a demostrado, sino α 6= 0, por consiguiente α−1 (αx) =α−1 0, 1x = 0, x = 0.
Convenci´ on.- Generalmente el elemento cero 0 de V espacio vectorial se lo denota tambi´en 0. En lo que sigue se utilizar´ a esta notaci´on. Ejemplos 4.- Sea X un conjunto no nulo, se define KX = {f : X → K} el conjunto de las aplicaciones de X en K. KX es un espacio vectorial para (f + g)(x) = f (x) + g(x) (αf )(x) = α(f (x))
(I.1.1)
El cero de KX es la aplicaci´ on 0 : x 7→ 0. En particular RR = {f : R → B} es un espacio vectorial con las operaciones (I.1.1). 5.- C 0 (R, R) = {f : R → R, continua} es un espacio vectorial con las leyes (I.1.1). 6.- Se dice que p : R → R es polinomial si p(t) =
n X i=0
αi ti ,
αi ∈ R, αn 6= 0;
n es el grado de p. Se denota P el conjunto de las funciones polinomiales y Pn el conjunto de las funciones polinomiales de grado ≤ n. Ejercicio.- Mostrar que P es un subespacio vectorial de C 0 (R, R) y Pn es un subespacio vectorial de P. Remarca.- Un subespacio vectorial es en si mismo es un espacio vectorial. 7.- Consideremos el sistema lineal homogeneo de n ecuaciones y m incognitas, dado por a11 ξ1 + a12 ξ2 + · · · + a1m ξm = 0 .. .. . . an1 ξ1 + an2 ξ2 + · · · + anm ξm = 0
4
I Espacios Vectoriales y Aplicaciones Lineales donde los aik pertenecen a K. Ejercicio.- Mostrar que las soluciones de este sistema forman un subespacio vectorial de Km .
Proposici´ on I.1.4.- Sean V y W dos espacios vectoriales sobre un cuerpo K. El conjunto producto V × W = {(v, w)|v ∈ V, w ∈ W } es un K-espacio vectorial, para (v1 , w1 ) + (v2 , w2 ) = (v1 + v2 , w1 + w2 ), α(v, w) = (αv, αw). Demostraci´ on.- Ejercicio. Proposici´ on I.1.5.- Sea {Ui }i∈I una familia de subespacios de V . Entonces de V , donde
\
i∈I
\
Ui es un subespacio vectorial
i∈I
Ui = {x ∈ V |x ∈ Ui , ∀i ∈ I}.
Demostraci´ on.- Ejercicio. [ Remarca.Ui = {x ∈ V |∃i ∈ I, con x ∈ Ui } no es en general un subespacio vectorial de V . i∈I
Definici´ on I.1.6.- Sea A un subconjunto de V . El subespacio engendrado por A es el subespacio vectorial m´as peque˜ no que contiene A, se lo denota por < A >. Se tiene < ∅ >= {0}. Existen subespacios de V que contienen un subconjunto A de V , por ejemplo V mismo. Por consiguiente se tendr´a \ < A >= U. A⊂U subespacio En realidad < A > est´ a formado por el conjunto de las v ∈ V que se escriben bajo la forma X αi ai , v= suma finita
αi ∈ K, ai ∈ A.
Mostrar esta u ´ltima afirmaci´on es un interesante ejercicio, hacerlo. Se dice que A ⊂ V engendra V si y solamente si < A >= V . Por la anterior observaci´on, esta definici´on significa que todo v ∈ V se escribe como X v= αi ai , suma finita
αi ∈ K, ai ∈ A.
Ejemplos 8.- K espacio vectorial sobre K. Sea α 6= 0, entonces < {α} >= K. En efecto, sea β ∈ K, se tiene β = (βα−1 )α. 9.- Kn . Introducimos los elementos e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1). {e1 , e2 , . . . , en } engendra V . En efecto sea (α1 , . . . , αn ) ∈ Kn , se tiene α1 , . . . , αn ) =
n X i=1
αi ei .
5
I.1 Preliminares 10.- Ejercicio.- Mostrar que < {t → ti }i≥0 >= P
y Pn =< {t → ti }ni=0 >
11.- Sean U1 , U2 , . . . , Un subespacios vectoriales de V , se denota U1 + U2 + · · · + Un el subespacio engendrado por
n [
Ui .
i=1
Ejercicio.- Mostrar que los elementos de
n X
son aqu´ellos de V que se escriben bajo la forma
i=1
v=
n X i=1
ui ,
ui ∈ U.
Definici´ on I.1.7.- Se dice que la familia {v1 , . . . , vm } de V es linealmente dependiente si y solamente si existen α1 , α2 , . . . , αn ∈ K no todos nulos, tales que n X
αi vi = 0.
i=1
Si {v1 , . . . , vm } no es linealmente dependiente, se dice que es linealmente independiente; es decir, {v1 , . . . , vm } es linealmente independiente si y solamente si n X i=1
αi vi = 0 ⇒ α1 = α2 = · · · = αm = 0.
Se dice que ∅ = 6 A ⊂ V , no necesariamente finito, es linealmente dependiente, si existe {v1 , . . . , vm } ⊂ A linealmente dependiente. Se dice que ∅ 6= A ⊂ V , no necesariamente finito, es linealmente independiente si toda familia finita {v1 , . . . , vm } ⊂ A es linealmente independiente. Se conviene que ∅ es linealmente independiente. Ejemplos 12.- A = {0}, entonces A es linealmente dependiente. 13.- Los vectores ei , i = 1, . . . , n de Kn definidos en el ejemplo 9, forman una familia linealmente independiente. 14.- Sea V 6= {0} un espacio vectorial, 0 6= x ∈ V , entonces {x} es linealmente independiente. En efecto, utilizando la proposici´ on (I.1.3), punto 5, se tiene αx = 0 ⇒ α = 0. 15.- Sea P el espacio de las funciones polinomiales reales. Ejercicio.-Mostrar que el conjunto A = {t 7→ ti }i≥0 es una familia linealmente independiente de P. Definici´ on I.1.8.- Se dice que B ⊂ V es una base de V espacio vectorial si y solamente si B es linealmente independiente y B engendra V . Ejemplos 16.- V = K, sea α ∈ K, con α 6= 0, entonces {α} es una base de K. 17.- V = Kn . El conjunto {e1 , e2 , . . . , en } es una base de K n . 18.- {t 7→ ti }ni=0 es una base de Pn .
6
I Espacios Vectoriales y Aplicaciones Lineales
Proposici´ on I.1.9.- El subconjunto xii∈I del espacio vectorial V es una base de V , si y solamente si todo elemento v ∈ V se escribe de manera u ´nica bajo la forma v=
X
αi vi ,
sumaf inita
αi ∈ K.
Demostraci´ on.- En los ejercicios propuestos de la pr´ actica. Aplicaci´ on a los Sistemas Lineales a11 ξ1 Planteando
an1 ξ1
+ .. .
a12 ξ2
+ an2 ξ2
+ +
··· +
a1m ξm
··· +
anm ξm
= .. .
0
=
0
(I.1.2)
a1 =(a11 , a21 , . . . , an1 ) ∈ Kn , .. . am =(a1m , a2m , . . . , anm ) ∈ Kn , b =(b1 , b2 , . . . , bn ) ∈ Kn .
El sistema (I.1.2) es equivalente a resolver ξ1 a1 + ξ2 a2 + · · · + ξm am = b. Por consiguiente: i) El sistema (I.1.2) tiene una soluci´on, si y solamente si b ∈< {a1 , . . . , am } >. ii) Si {a1 , . . . , am } es linealmente independiente y (I.1.2) tiene soluci´on, entonces ´esta es u ´nica.
´ n Finita I.2 Espacios de Generacio
7
I.2 Espacios de Generaci´ on Finita
Se dice que el espacio vectorial V es de generaci´ on finita si posee un sistema de generadores finito, es decir si existe v1 , v2 , . . . , vn ∈ V , tales que todo v ∈ V , se escribe como v=
n X i=1
αi vi ,
αi ∈ K.
Ejemplos 1.- Kn es de generaci´on finita, porque es engendrado por {e1 , e2 , . . . , en }. 2.- El espacio P de las funciones polinomiales no es de generaci´on finita. Esto se ver´ a m´as adelante. 3.- Ejercicio.- Si V y W son espacios vectoriales sobre K cuerpo, mostrar que V × W es de generaci´on finita. En este par´ agrafo se ver´ a como resultado principal que los espacios vectoriales de generaci´ on finita tienen bases finitas, adem´ as que todas las bases de un espacio vectorial de generaci´ on finita tienen el mismo n´ umero de elementos. Teorema I.2.1.- Intercambio de Grassmann.- Sea V 6= {0} un espacio de generaci´on finita. Sea Gr = {y1 , y2 , . . . , yr } un sistema de generadores de V . Sea L = {x1 , . . . , xs } un subconjunto linealmente independiente en V . Entonces: i) r ≥ s; ii) Existen (r − s) elementos yis+1 , yis+2 , . . . , yir de Gr tales que {x1 , . . . , xs , yis+1 , yis+2 , . . . , yir } engendra V. Demostraci´ on.- Por inducci´on sobre s, donde s es el n´ umero de elementos de L. Para s = 0, el enunciado es cierto de manera trivial. Supongamos cierto el teorema para s − 1, con s > 0. A demostrar que el teorema es cierto para s. Se utiliza la hip´ otesis de inducci´on para L′ = {x1 , x2 , . . . , xs−1 }, obteniendo: i) r ≥ (s − 1), ii) existen yis , yis+1 , . . . , yir en Gr tales que {x1 , . . . , xs−1 , yis , yis+1 , . . . , yir } engendra V. Si es necesario renumerar los yi , se puede suponer que yij = yj , es decir {x1 , . . . , xs−1 , ys , . . . , yr } engendra V . Por lo tanto, el elemento xs se puede escribir como combinaci´on lineal de x1 , . . . , xs−1 , ys , . . . , yr r s−1 X X βj yj , αi xi + xs = i=1
j=s
los βj no son todos nulos, sino L′ ser´ıa linealmente dependiente. De ah´ı, se deduce que r ≥ s, existe un j, con βj 6= 0. Si es necesario renumerar los yj , se puede suponer que βs 6= 0. De donde s−1 r X X xs = αi xi + βs ys + βj yj . (I.2.1) i=1
j=s+1
El siguiente paso, es mostrar que {x1 , . . . , xs , ys+1 , . . . , yr } engendra V . Sea v ∈ V , por hip´otesis de inducci´on, se puede escribir r s−1 X X δj yj , (I.2.2) γi xi + δs ys + v= i=1
i=s+1
8
I Espacios Vectoriales y Aplicaciones Lineales
por otro lado, se tiene a partir de (I.2.1) ys =
s−1 X −αi i=1
xi +
βs
r X −βj 1 xs + yj , βs βs j=s+1
introduciendo esta u ´ltima expresi´ on en (I.2.2) y efectuando los c´ alculos necesarios se llega a v=
s X
αi′ xi +
r X
δj′ yj .
i=s+1
i=1
Corolario I.2.2.- Sea V un espacio vectorial de generaci´on finita y Gr un sistema de generadores de V . Entonces todo subconjunto linealmente independiente contiene a lo mas #(Gr). Consecuencia.- Sea V un espacio vectorial, se supone que V contiene un subconjunto infinito linealmente independiente, entonces V no es de generaci´on finita. Por lo tanto P, no es de generaci´on finita. Corolario I.2.3.- Sea V espacio vectorial de generaci´on finita y L un subconjunto linealmente independiente de V . Entonces se puede completar L en un sistema finito de generadores de V . Teorema I.2.4.- Un espacio vectorial de generaci´on finita, posee bases finitas. M´ as precisamente, de todo sistema de generaci´on finita, se puede extraer una base; es decir si Gr ⊂ V engendra V , existe una base B de V con B ⊂ Gr. Si el espacio es V = {0}, se conviente que ∅ es la base de V . Demostraci´ on.- Supongamos que V 6= {0}, sino el teorema est´ a mostrado. Sea Gr = {y1 , y2 , . . . , yr } un sistema de generadores de V . Se elige B ⊂ Gr tal que B es linealmente independiente y B es maximal para esta propiedad; es decir, si B & B ′ ⊂ Gr, entonces B’ es linealmente dependiente. La existencia del conjunto B est´ a asegurada por que todo subconjunto linealmente en V cuenta con un n´ umero finito de elementos y adem´ as este numero est´ a acotado por r, el n´ umero de generadores de Gr. Afirmamos que B es una base, con lo que el teorema estar´ıa demostrado. En efecto, B es linealmente independiente por construcci´ on. Solo queda mostrar que B engendra V . Si es necesario renumerar, se puede suponer que B = {y1 , y2 , . . . , ys }. Si s = r, se tiene B = Gr y por consiguiente B es un sistema de generadores. Si s < r, por maximilidad de B, el subconjunto {y1 , y2 , . . . , ys , yi }, para i = s + 1, . . . , r es linealmente dependiente. Por lo tanto para cada i = s + 1, . . . , r, existen α1 , α2 , . . . , αn y β ∈ K no todos nulos, tales que s X
αk yk + βyi = 0.
k=1
Se observa que β 6= 0, por que sino B no ser´ıa linealmente independiente. Por consiguiente s X −αk yi = yk , s < i ≤ r. β
(I.2.3)
k=1
Por otro lado, sea v ∈ V , como Gr es un sistema de generadores, se tiene tambi´en v=
s X
γk yk +
r X
γi yi ,
i=s+1
k=1
γj ∈ K.
Introduciendo (I.2.3), en cada uno de los yi con s < i ≤ r, se tiene finalmente v=
s X
k=1
δk yk .
´ n Finita I.2 Espacios de Generacio
9
Proposici´ on I.2.5.- Sea V un espacio vectorial de generaci´on finita. Entonces, todas las bases de B son finitas y comportan el mismo n´ umero de elementos. Este n´ umero se llama dimensi´ on de V y se escribe dimK V,
dim(V ),
dim V.
Se tiene que dim V es el n´ umero m´aximo, respectivamente m´ınimo, de elementos de un subconjunto linealmente independiente en V , respectivamente que engendra V . Demostraci´ on.- a) Por el corolario I.2.2 del teorema de Grassman, todas las bases de V son finitas. ′ } dos bases de V . Utilizando el teorema de Grassmann con: b) Sean {v1 , v2 , . . . , vn } y {v1′ , v2′ , . . . , vm ′ Gr = {v1 , v2 , . . . , vn }, L = {v1′ , v2′ , . . . , vm } ⇒ m ≤ n, ′ ′ ′ Gr = {v1 , v2 , . . . , vm }, L = {v1 , v2 , . . . , vn } ⇒ m ≤ m.
c) Se denota d la dimensi´on de V . Sea L un subconjunto linealmente independiente de V . Por el teorema de Grassmann, con Gr una base y L, se tiene d = #(Gr) ≥ #(L). d) Sea Gr un subconjunto finito de V que engendra V y B una base de V , por el teorema de Grassmann, se tiene #(GR) ≥ #(B) = d. Ejemplos 4.- dim(Kn ) = n. 5.- dim(Pn ) = n + 1. 6.- Ejercicio.- Mostrar que si V y W son de generaci´on finita, entonces V × W es de generaci´on finita y adem´ as dim(V × W ) = dim(V ) + dim(W ). Remarca En general un espacio vectoria posee bases y todas sus bases tienen el mismo ”numero“ de elementos, o si V no es de generaci´on finita, se dice que V es de generaci´ on infinita. Proposici´ on I.2.6.- Sea V de dimensi´on d y v1 , v2 , . . . , vn n elementos de V , entonces: i Si n > d, {v1 , v2 , . . . , vn } es linealmente dependiente. ii Si n < d, {v1 , v2 , . . . , vn } no engendra V . iii Si n = d, los enunciados siguientes son equivalentes: a) {v1 , v2 , . . . , vn } es linealmente independiente, b) {v1 , v2 , . . . , vn } engendra V , c) {v1 , v2 , . . . , vn } es una base de V . Demostraci´ on.- Los incisos i,ii como Ejercicio. Mostremos el inciso iii). a)⇒b) Sea B = {x1 , . . . , xd } una base de B, utilizando Grassman con Gr = B y L = {v1 , v2 , . . . , vn }, se tiene que {v1 , v2 , . . . , vn } engendra V . b)⇒c) De todo sistema de generadores se puede extraer una base. c)⇒a) trivial. Proposici´ on I.2.7.- Sea V un espacio vectorial de generaci´on finita. Entonces, todo conjunto linealmente independiente puede ser completado en una base de V . Demostraci´ on.- Sea L = {x1 , . . . , xs } un subconjunto linealmente independiente. B = {y1 , . . . , yd } una base de V . Por el teorema de Grassmann, si es necesario renumerar los yi , el subconjunto {x1 , . . . , xs , ys+1 , . . . , yd } engendra V . De la proposici´ on I.2.6, se deduce que {x1 , . . . , xs , ys+1 , . . . , yd } es una base de V .
10
I Espacios Vectoriales y Aplicaciones Lineales
Proposici´ on I.2.8.- Sea V de generaci´on finita y U un subespacio de V . Entonces, U es de generaci´on finita y se tiene dim(U ) ≤ dim(V ). Adem´ as dim(U ) = dim(V ) ⇐⇒ U = V. Demostraci´ on.- Se observa que un subconjunto linealmente independiente de U es tambi´en un subconjunto linealmente independiente de V . Los subconjuntos linealmente independientes de V , tienen a lo sumo dim(V ) elementos. Por lo tanto, los subconjuntos linealmente independientes de U son finitos con a lo m´as dim(V ) elementos. Se elige B = {u1 , u2 , . . . , un } un subconjunto linealmente independiente maximal; es decir, si B & B ′ ⊂ U , entonces B ′ es linealmente dependiente. Afirmamos que B es una base de U , con lo que estar´ıa demostrado que U es de generaci´on finita y dim(U ) ≤ dim(V ). En efecto, sea u ∈ U , a demostrar que existe α1 , . . . , αn ∈ K, tales que u=
n X
αi ui .
i=1
Si u ∈ {u1 , u2 , . . . , un } est´ a claro. Si u 6∈ {u1 , u2 , . . . , un }, se considera B ′ = {u1 , u2 , . . . , un , u}, por maximilidad B ′ es linealmente dependiente. Por consiguiente, existen β1 , . . . , βn , β no todos nulos tales que 0=
n X
βi ui + βu.
i=1
beta 6= 0, sino B ser´ıa linealmente dependiente, entonces u=
n X −βi i=1
β
ui .
Falta probar que dim(U ) = dim(V ) ⇒ U = V . Sea B = {u1 , . . . , un } una base de U, es por lo tanto un subconjunto linealmente independiente de U y por consiguiente de V , por la proposicion I.2.6 inciso iii), B es una base de V . La implicaci´ on del otro sentido es trivial Proposici´ on I.2.9.- (F´ ormula de Dimensi´ on).- Sea V de generaci´on finita. P y Q subespacios de V . Entonces dim(P + Q) = dim(P ) + dim(Q) − dim(P ∩ Q). Demostraci´ on.- En los ejercicios de la Pr´actica. Ejemplo 7.- La intersecci´ on de dos planos vectoriales diferentes en R3 es una recta vectorial. En efecto, se tiene: 3 P + Q = R , porque sino P = Q, aplicando la f´ormula de dimensi´on de subespacios, se deduce que dim(P ∩ Q) = 1.
11
I.3 Aplicaciones Lineales
I.3 Aplicaciones Lineales
Definici´ on I.3.1.- Sean V y W dos espacios vectoriales. Se dice que la aplicaci´ on f :V →W es lineal, o homomorfismo de espacios vectoriales, si f (v1 + v2 ) = f (v1 ) + f (v2 ), ∀v1 , v2 ∈ V ; f (αv) = αf (v), ∀α ∈ K, ∀v ∈ V. Remarca.- f (0) = 0, en efecto f (0) = f (0 + 0) = f (0) + f (0). Se denota por Hom(V, W ) el conjunto de las aplicaciones lineales de V en W . Proposici´ on I.3.2.- Hom(V, W ) es un espacio vectorial para las operaciones definidas por: (f + g)(v) = f (v) + g(v), (αf )(v) = αf (v). Demostraci´ on.- Ejercicio. Definici´ on I.3.3.- Una aplicaci´ on lineal biyectiva se llama isomorfismo, una aplicaci´ on lineal f : V → V se llama endomorfismo, End(V ) = Hom(V, V ). Un endomorfismo biyectivo se llama automorfismo, Gl(V ) = {automorfismos de V }. Ejemplos y/o Ejercicios 1.- Sea U un subespacio de V espacio vectorial, entonces la inclusi´on U →V u 7→ u es lineal. 2.- La aplicaci´ on definida por Kn → Kn (α1 , . . . , αn ) 7→ (α1 , . . . , αp , 0, . . . , 0) p ≤ n es lineal. 3.- V = R2 . Las siguientes aplicaciones, estudiadas en el curso de Geometr´ıa, son lineales: rotaci´on de centro O, simetr´ıa de eje que pasa por 0, homotecia de centro 0. 4.- Si V = P espacio de las funciones polinomiales. Las siguientes aplicaciones son lineales: Dn : P → P
D:P→P p 7→ p′
p 7→ p(n)
5.- Consideremos V = C 0 ([0, 1], R) = {f : [0, 1] → R continua}. Las siguientes aplicaciones son lineales: C 0 ([0, 1], R) → R f 7→ f (a), a ∈ [0, 1] Z 1 f (t)dt. f 7→ 0
12
I Espacios Vectoriales y Aplicaciones Lineales La aplicaci´ on f → max |f (x)| no es lineal. x∈[0,1]
6.- Consideremos el sistema a11 ξ1 Planteando
an1 ξ1
+ .. .
a12 ξ2
+ ··· +
+
an2 ξ2
+ · · · + anm ξm
a1m ξm
= .. .
b1 (I.3.1)
= bn
a1 =(a11 , a21 , . . . , an1 ) ∈ Kn , .. . am =(a1m , a2m , . . . , anm ) ∈ Kn , b =(b1 , b2 , . . . , bn ) ∈ Kn .
La escritura vectorial de (I.3.1) est´ a dada por ξ1 a1 + ξ2 a2 + · · · + ξm am = b. Se asocia a (I.3.1) la aplicaci´ on lineal a : Km → Km (ξ1 , . . . , ξm ) 7→ ξ1 a1 + ξ2 a2 + · · · + ξm am Resolver el sistema (I.3.1) es equivalente a encontrar ξ = (ξ1 , . . . , ξm ) ∈ Km tal que a(ξ) = b. 7.- Sea f : V → W un isomorfismo, entonces f −1 : W → V es lineal. En efecto f −1 (w1 + w2 ) = f −1 (f (v1 ) + f (v2 )) = f −1 (f (v1 + v2 )) = v1 + v2 = f −1 (w1 ) + f −1 (w2 ), f −1 (αw) = f −1 (αf (v)) = f −1 (f (αv)) = αv = αf −1 (w). El resultado principal de este par´ agrafo, est´ a dado por: ”Si V y W son espacios vectoriales, {v1 , . . . , vn } una base de V , entonces para toda sucesi´ on (w1 , w2 , . . . , wn ) de elementos de W , existe exactamente una aplicaci´ on lineal f : V → W tal que f (vi ) = wi , para i = 1, 2, . . . , n. Definici´ on I.3.4.- Sean P y Q dos subespacios de V . Si P ∩ Q = {0}, en lugar de P + Q, se escribe P ⊕ Q suma directa de P y Q. Proposici´ on I.3.5.- Si P ∩ Q = {0}, la aplicaci´ on P ×Q→P ⊕Q⊂V (x, y) 7→ x + y
es un isomorfismo. Demostraci´ on.- Ejercicio. Definici´ on I.3.6.- Sean P y Q dos subespacios de V . Se dice que P y Q son suplementarios, o bien P es suplementario de Q, si V = P ⊕ Q. Ejemplo 8.- Consideremos el espacio de las funciones f : R → R. Sean P = {f |f (t) = f (−t)} Q = {f |f (−t) = −f (t)}
13
I.3 Aplicaciones Lineales subespacios vectoriales del espacio de las funciones reales. Se tiene que V = P ⊕ Q, donde V es el espacio de las funciones reales. En efecto p(t) =
f (t) + f (−t) f (t) − f (−t) + q(t) = 2 2
y f (t) = p(t) + q(t).
se tiene que V = P ⊕ Q.
Proposici´ on I.3.7.- Sea P ⊂ V un subespacio vectorial de V espacio vectorial de dimensi´on finita, entonces existe al menos un suplementario de P . Demostraci´ on.- Sea {v1 , . . . , vn } una base de P , la cual se la prolonga en {v1 , . . . , vn , vn+1 , . . . , vd } base de V . Planteamos Q =< {vn+1 , . . . , vd } >, Definici´ on I.3.8.- (Vocabulario) Sea f : V → W una aplicaci´ on lineal. Sea V1 un subespacio de V , entonces f (V1 ) = {w ∈ W |∃v ∈ V1 tal que f (v) = w}. Si V1 = V , entonces f (V ) se llama la imagen de f y se denota Im(f ). Sea W1 un subespacio de W , entonces f −1 (W1 ) = {v ∈ V |f (v) ∈ W }. Si W1 = {0}, f −1 ({0}) se llama nucleo de f se denota ker(f ).
Proposici´ on I.3.9.- f (V1 ) y f −1 (W1 ) de la definici´on precedente son subespacios vectoriales de V y W respectivamente. Demostraci´ on.- Ejercicio. Proposici´ on I.3.10.- Sea f : V → W lineal, entonces a) b) c)
f es sobreyectiva ⇐⇒ Im(f ) = W, f es inyectiva ⇐⇒ ker(f ) = {0}, f es biyectiva ⇐⇒ ker(f ) = {0} y Im(f ) = W.
Demostraci´ on.- El punto a) es evidente. b)⇒ Sea v ∈ ker(f ), entonces f (v) = 0 = f (0) ⇒ v = 0. ⇐ Sean v1 y v2 tales que f (v1 ) = f (v2 ), por consiguiente f (v1 − v2 ) = 0, v1 − v2 ∈ ker(f ) ⇒ v1 − v2 = 0 ⇒ v1 = v2 . c) Consecuencia directa de a) y b).
Teorema I.3.11.- F´ ormula de Dimensi´ on.- Sea V espacio vectorial de dimensi´on finita y f : V → W lineal. Entonces Im(f ) es de generaci´on finita y se tiene dim V = dim Im(f ) + dim ker(f ).
14
I Espacios Vectoriales y Aplicaciones Lineales
Demostraci´ on.- a) Sea {v1 . . . , vm } una base de V , entonces {f (v1 ), . . . , f (vm )} engendra Im(f ), por lo que Im(f ) es de generaci´on finita. En efecto, sea w ∈ Im(f ), por definici´on existe v ∈ V tal que f (v) = w. Se tiene v=
m X i=1
αi vi ⇒ f (v) =
m X
αi f (vi ).
i=1
b)Sea {v1 , . . . , vn } una base de ker(f ) que se completa a {v1 , . . . , vn , vn+1 , . . . , vm } base de V . Afirmamos que B = {f (vn+ ), . . . , f (vm )} es una base de Im(f ), con lo que quedar´ıa demostrada la f´ormula de dimensi´on. En efecto, B engendra Im(f ), por a) se tiene que {f (v1 ), . . . , f (vm )} engendra Im(f ), ahora bien f (v1 ) = · · · = f (vn ) = 0. B es linealmente independiente, sean αn+1 , . . . , αm ∈ K tales que m X
αi f (vi ) = 0,
i=n+1
por consiguiente 0=f
m X
αi vi
i=n+1
Por lo tanto v ∈ ker(f ), tambi´en se escribe como n X i=1
!
⇒
n X
m X
i=n+1
αi vi ∈ ker(f ).
βi vi . De donde
i=1
βi vi =
m X
αi vi ,
i=n+1
por independencia lineal, se tiene necesariamente que los αi = 0.
Corolario I.3.12.- Sea f : V → W lineal con V y W de dimensi´on finita, entonces: a) Si dim V > dim W , entonces f no es inyectiva. b) Si dim V < dim W , entonces f no es sobrectiva. c) Si dim V = dim W , las tres condiciones siguientes son equivalentes: i) f es inyectiva, ii) f es sobreyectiva, iii) f es biyectiva. Demostraci´ on.- Se utiliza la f´ormula de dimensi´on. a) dim ker(f ) = dim V − dim Im(f ) ≥ dim V − dim W > 0, de donde ker(f ) 6= {0}, por consiguiente f no es inyectiva. b)dim Im(f ) = dim V −dim ker(f ) ≤ dim V < dim W , de donde Im(f ) 6= W , por lo tanto f no es sobreyectiva. c) i) ⇐⇒ ii) dim ker(f ) = 0 ⇐⇒ dim W = dim Im(f ) ⇐⇒ f es sobreyectiva. Por lo tanto una funci´ on inyectiva es sobreyectiva y por consiguiente biyectiva, con lo que esta mostrada i)⇒iii). Remarca.- El corolario I.3.12 es falso si la dimensi´on de los espacios no es finita. Consideremos P el espacio de las funciones polinomiales reales. La aplicaci´ on D:P →P p 7→ p′
15
I.3 Aplicaciones Lineales es sobreyectiva, pero no inyectiva.
Teorema I.3.13.- Fundamental.- Sea {v1 , . . . , vn } una base de V espacio vectorial. Entonces, para toda sucesi´on w1 , . . . , wn de elementos de W , existe exactamente una aplicaci´ on lineal f : V → W , tal que f (vi ) = wi ,
i = 1, . . . , n.
“Una aplicaci´ on lineal es enteramente determinada por el comportamiento de la imagen de su base”. Demostraci´ on.- a) Existencia. n X αi vi , αi ∈ K. Se plantea Para todo v ∈ V , se tiene una escritura u ´nica v = i=1
f (v) =
n X
αi wi ,
i=1
funci´on bien determinada por que los αi son u ´nicos. Por construcci´on se tiene f (vi ) = wi para i = 1, . . . , n. Falta ver que f es lineal, sean v y v ′ dos elementos de V , entonces v=
n X
αi vi ,
v′ =
i=1
Por consiguiente: f (v) =
n X
n X
αi′ vi
i=1
αi wi
′
f (v ) =
i=1
n X
⇒ v + v′ =
αi′ wi
′
n X
(αi + αi′ )vi .
i=1
f (v + v ) =
n X
(αi + αi′ )vi .
i=1
i=1
Se constata que f (v + v ′ ) = f (v) + f (v ′ ), lo mismo para f (αv) = αf (v). b) Unicidad. Sean f y g aplicaciones lineales de V en W , tales que f (vi ) = g(vi ) para i = 1, . . . , n. Se tiene f (v) = f (
n X i=1
αi vi ) =
n X
αi f (vi ) =
i=1
n X i=1
αi g(vi ) = g(
n X
αi vi ) = g(v).
i=1
Proposici´ on I.3.14.- Si V y W dos espacios de dimensi´on finita. Entonces, V y W son isomorfos, es decir existe un isomorfismo V → W , si y solamente si dim V = dim W . Demostraci´ on.- Si V y W son isomorfos, entonces dim V = dim W , caracter´ıstica de la f´ormula de dimensi´on. Si dim V = dim W , sean {v1 , . . . , vn } y {w1 , . . . , wn } bases de V y W respectivamente. Por el teorema fundamental existe f : V → W lineal tal que f (vi ) = wi . Utilizando la demostraci´on de la proposici´ on f´ormula de dimensi´on para aplicaciones lineales, se constata que Im f = W , por consiguiente la aplicaci´ on es biyectiva, consecuencia del corolario I.3.12. Proposici´ on I.3.15.- Sea {v1 , . . . , vn } una base de V , entonces la aplicaci´ on ϕ
Hom(V, W ) −→ W × W × · · · × W = W n f 7→ (f (v1 ), f (v2 ), . . . , f (vn )) es un isomorfismo de espacios vectoriales. Demostraci´ on.- ϕ es lineal: ϕ(αf ) = ((αf )(v1 ), . . . , (αf )(vn )) = α(f (v1 ), . . . , f (vn )) = αϕ(f ), ϕ(f + g) = ((f + g)(v1 ), . . . , (f + g)(vn )) = (f (v1 ) + g(v1 ), . . . , f (vn ) + g(vn )) = (f (v1 ), . . . , f (vn )) + (g(v1 ), . . . , g(vn )) = ϕ(f ) + ϕ(g).
16
I Espacios Vectoriales y Aplicaciones Lineales
El teorema fundamental indicar´a que ϕ es biyectiva.
Aplicaci´ on a los Sistemas Lineales Consideremos el sistema de n ecuaciones a n incognitas a11 ξ1 + a12 ξ2 + · · · + a1n ξn .. . an1 ξ1 + an2 ξ2 + · · · + ann ξn
= b1 .. .
(I.3.2)
= b2
Proposici´ on I.3.16.- Los enunciados siguientes son equivalentes para el sistema (I.3.2). i) ∀(bi ) ∈ K, existe a lo m´as una soluci´on del sistema (I.3.2). ii) ∀(bi ) ∈ K, existe al menos una soluci´on del sistema (I.3.2). iii) ∀(bi ) ∈ K, existe exactamente una soluci´on del sistema (I.3.2). iv) El sistema homogeneo asociado a (I.3.2) admite (ξi = 0) como u ´nica soluci´on. Demostraci´ on.- Al sistema (I.3.2), se asocia la aplicaci´ on linel a, ver ejemplo 6 de este par´agrafo. Por consiguiente Resolver (I.3.2) ⇐⇒ Encontrar todos los ξ ∈ Kn tal que a(ξ) = b. Es decir encontrar, a−1 ({b}). Los enunciados de la proposici´ on se traducen i) ∀b ∈ Kn , a−1 ({b}) comporta a lo m´as un elemento ⇐⇒ a es inyectiva. ii) ∀b ∈ Kn , a−1 ({b}) comporta al menos un elemento ⇐⇒ a es sobreyectiva. iii) ∀b ∈ Kn , a−1 ({b}) comporta exactamente un elemento ⇐⇒ a es biyectiva. iv) a−1 ({0}) = {0} ⇐⇒ ker a = {0}. Ahora bien, los cuatro puntos han sido ya mostrados en el corolario (I.3.12)
17
I.4 Anillo de Homomorfismos
I.4 Anillo de Homomorfismos
Proposici´ on I.4.1.- Sean f ∈ Hom(U, V ) y g ∈ Hom(V, W ), entonces g ◦ f ∈ Hom(U, W ), donde U, V, W son espacios vectoriales. Demostraci´ on.- Se tiene: g ◦ f (u1 + u2 ) = g(f (u1 + u2 )) = g(f (u1 ) + f (u2 )) = g(f (u1 )) + g((u2 )) = f ◦ g(u1 ) + f ◦ g(u2 ), g ◦ f (αu) = g(f (αu)) = g(α(f (u)) = αg(f (u)) = αg ◦ f (u).
Sobre End(V ), se tiene una adicion (f + g)(v) = f (v) + g(v), y una “ multiplicaci´ on” que es la composici´ on de aplicaciones (g ◦ f )(v) = g(f (v)). Estas dos leyes de composici´ on interna o operaciones verifican los axiomas siguientes: I.- Adici´ on i la adici´on es asociativa; ii la adici´on es conmutativa; iii existe un elemento cero 0 tal que 0 + f = f , para todo f ; iv Para todo f ∈ End(V ), existe un opuesto (−f ), tal que f + (−f ) = 0. II.- Multiplicaci´ on i la multiplicaci´ on es asociativa; ii existe un uno 1, tal que 1 ◦ f = f ◦ 1 = f , para todo f . 1 = id : V → V v 7→ v I.- Distributividad i f ◦ (g + h) = f ◦ g + f ◦ h; ii (f + g) ◦ h = f ◦ h + g ◦ h. Un conjunto A con una adici´on y una multiplicaci´on que satisface los tres sistemas de axiomas descritos, se llama anillo. Se dice que A es una anillo conmutativo, si A es una anillo cuya multiplicaci´on es conmutativa. Por lo tanto, End(V ) con la adici´on y la composici´ on de aplicaciones es un anillo. Ejemplos 1.- Z con la adici´on y la multiplicaci´ on usual es un anillo conmutativo. 2.- Un cuerpo (conmutativo) es un anillo (conmutativo). 3.- End(V ) no es un anillo conmutativo si dim V ≥ 2. En efecto, sea {v1 , . . . , vn } una base de V y consideremos los endomorfismos definidos por: f :V v1 v2 vi
→W 7→ αv1 7→ βv2 7→ vi , i ≥ 3;
g:V v1 v2 vi
→W 7 v1 + v2 → 7→ v2 7→ vi , i ≥ 3;
18
I Espacios Vectoriales y Aplicaciones Lineales entonces
g◦f :V v1 v2 vi
f ◦g :→W v1 7→ α(v1 + v2 ) v2 7→ βv2 vi 7→ vi , i ≥ 3;
→W 7→ αv1 + βv2 7→ βv2 7→ vi , i ≥ 3;
Si α 6= β, se tiene f ◦ g(v1 ) 6= g ◦ f (v1 ) y por consiguiente f ◦ g 6= g ◦ f . Definici´ on I.4.2.- Sea A y B dos anillos. Una aplicaci´ on f : A → B es un homomorfismo de anillos si i f (a1 + a2 ) = f (a1 ) + f (a2 ), ii f (a1 a2 ) = f (a1 )f (a2 ), iii f (1) = 1. Definici´ on I.4.3.- Sea A un anillo, se dice que I ⊂ A diferente del conjunto vacio es un ideal por izquierda (por derecha), si i ∀x, y ∈ I ⇒ x + y ∈ I, ii x ∈ I, a ∈ A ⇒ ax ∈ I (xa ∈ I).
Grupos Un grupo G es un conjunto dotado de una ley de composici´ on interna o operaci´ on G×G→G (g1 , g2 ) 7→ g1 ∗ g2 tal que i (g1 ∗ g2 ) ∗ g3 = g1 ∗ (g2 ∗ g3 ), ∀g1 , g2 , g3 ∈ G (Asociatividad); ii Existe un elemento neutro e tal que e ∗ g = g ∗ e = g, ∀g ∈ G; iii Todo elemento g ∈ G posee un inverso g ′ tal que g ∗ g ′ = g ′ ∗ g = e. Se dice que G un grupo es conmutativo o abeliano si ademas g1 ∗ g2 = g2 ∗ g1 ,
∀g1 , g2 ∈ G.
Notaci´ on Multiplicativa Si G es un grupo y la operaci´ on ∗ se la denota por ·, es decir G×G→G (g1 , g2 ) 7→ g1 · g2 el elemento neutro (uno) se denota por 1 y el inverso se denota por g −1 . Notaci´ on Aditiva (Reservada a los grupos abelianos) Si G es un grupo y la operaci´ on ∗ se la denota por +, es decir G×G→G (g1 , g2 ) 7→ g1 + g2 el elemento neutro (cero) se denota por 0 y el elemento inverso (opuesto) se denota por −g. Ejemplos 4.- (Z, adici´on) es un grupo abeliano. 5.- (Z, multiplicaci´ on) no es grupo. 6.- (V, +) donde V es un espacio vectorial es un grupo abeliano.
19
I.4 Anillo de Homomorfismos 7.- Sea E un conjunto. SE = {f : E → E biyectiva} con la composici´ on de aplicaciones es un grupo no conmutativo si #(E) ≥ 3. 8.- Sea V un espacio vectorial, el grupo lineal Gl(V ) = {f : V → V automorfismo} con la composici´ on de aplicaciones es un grupo no conmutativo.
Definici´ on I.4.4.- Sean (G, ∗) y (H, ⋆) dos grupos. Un homomorfismo de grupos es una aplicaci´ on tal que f (g1 ∗ g2 ) = f (g1 ) ⋆ f (g2 ). Ejemplo 9.- La aplicaci´ on (R, +) → (R − {0}, ·) x 7→ ex es un homorfismo de grupos.
20
I Espacios Vectoriales y Aplicaciones Lineales
I.5 Matriz de una Aplicaci´ on Lineal
Sea V un espacio vectorial y {v1 , . . . , vn } una base de V , entonces existe un isomorfismo natural dado por ϕ : V → Kn vi 7→ ei , i = 1, . . . , n donde {e1 , . . . , en } es la base can´ onica de Kn . Por consiguiente, si v =
n X
αi vi , se tiene
i=1
ϕ(v) = (α1 , α2 , . . . , αn ) ∈ Kn . El elemento de K, αi , se llama la i-sima componente de v respecto a la base {v1 , . . . , vn } y v ∈ V puede escribirse en forma de componentes respecto a la base {v1 , . . . , vn } como
v = ( α1
α2
· · · αn )
α1 α2 o bien v = ... ;
αn
la segunda escritura en vector columna ser´ a muy util para lo que sigue en el curso. Una matriz A de n × m a coeficientes en K es un tablero de n filas y m columnas de elementos de K
a11 a21 A= ...
an1
a1m a2m . .. .
a12
···
an2
· · · anm
El conjunto de las matrices n × m a coeficientes en K, se lo denota por Mn,m (K). Sean V y W dos espacios de dimensi´on m y n respectivamente, {v1 , . . . , vm } una base de V, {w1 , . . . , wn } una base de W ; sea f : V → W lineal, se tiene para cada uno de los elementos de la base de V a1j n X aij wi = ... j = 1, . . . , m; f (vj ) = i=1 anj
donde los aij ∈ K. Por consiguiente, se puede asociar a f y a las bases {v1 , . . . , vm } y {w1 , . . . , wn }, la matriz
a11 a21 Mf = ...
an1
a1m a2m ∈ Mn,m (K) .. .
a12
···
an2
· · · anm
que se llama la matriz de f respecto a las bases {v1 , . . . , vm } y {w1 , . . . , wn }. Se observa inmediatamente que el n´ umero de filas es igual a la dimensi´on del espacio destino W para f y el n´ umero de columnas es igual a la dimensi´on del espacio fuente V para f .
´ n Lineal I.5 Matriz de una Aplicacio
21
Receta.- Para construir la matriz de f respecto a las bases {vi } y {wj } disponer en vectores columnas las componentes de f (vj ) respecto a la base {wj }.
Remarca.- Mn,m (K) est´ a en biyecci´on con Knm , pero con las nociones de fila y columna.
n Proposici´ on I.5.1.- Resultado principal.- Sea {vi }m on i=1 una base de V y {wj }i=1 una base de W . La aplicaci´
Hom(V, W ) → Mn,m (K) f 7→ Mf respecto a las bases en cuesti´on, es biyectiva. Demostraci´ on.- Recordamos que Hom(V, W ) → W n f 7→ (f (v1 ), . . . , f (vn )) es un isomorfismo de espacios vectoriales y que W → Kn α1 n X . w= wi 7→ .. i=1 αn es otro isomorfismo. De esta manera Hom(V, W ) f
Knm ∼ = Mn,m (K) a11 a12 · · · a1m a2m a21 7 (f (v1 ), . . . , f (vn )) 7→ → .. ... . an1 an2 · · · anm −→
Wn
−→
es biyectiva.
Ejemplos 1.- Consideremos la proyecci´on del plano R2 sobre el eje x. La matriz de la proyecci´on respecto a la base can´ onica est´ a dada por e1 → e1 1 0 ⇒ Mf = 0 0 e2 → e2 2.- Ejercicio.- Determinar las matrices respecto a la base can´ onica de las aplicaciones lineales del curso de Geometr´ıa, es decir: rotaciones, homotecias, simetr´ıas, similitudes, etc.
Transcripci´ on de las Operaciones Lineales en T´ erminos de Matriz Una vez determinada la relaci´on existente entre el conjunto de las matrices y el espacio de los homomorfismos es transcribir las operaciones de las aplicaciones lineales en t´erminos de operaciones de matrices. Sean V espacio vectorial de base {v1 , . . . , vm } y W espacio vectorial de base {w1 , . . . , wn }. Consideremos las aplicaciones lineales f, g : V → W, cuyas matrices respecto a las bases en cuesti´on son A = (aij ), matrices pertenecientes a Mnm (K).
B = (bij )
22
I Espacios Vectoriales y Aplicaciones Lineales
Proposici´ on I.5.2.- Sea C = (cij ) la matriz de f + g respecto a las mismas bases en cuesti´on, entonces C =A+B cij = aij + bij . Sea D la matriz de αf respecto a las bases {vi } y {wj }, entonces D = αA dij = αdij Demostraci´ on.- Ejercicio. Corolario I.5.3.- Se tiene Hom(V, W ) → Mn,m (K) f 7→ Mf respecto a las bases {vi } y {wj }, es un isomorfismo de espacios vectoriales, con la adici´on y la multiplicaci´on por escalares. El siguiente paso es determinar la matriz de la composici´ on de aplicaciones lineales. Sean: U espacio vectorial con {u1 , . . . , ul } base; V espacio vectorial con {v1 , . . . , vm } base; W espacio vectorial con {w1 , . . . , wn } base; los homomorfismos: f :U →V g : V → W. ¿Cual es la matriz de g ◦ f : U → W respecto a las bases {ui } y {wj }.? Sean: A = (aik ) la matriz de f respecto a las bases {ui } y {vk }; B = (bkj ) la matriz de g respecto a las bases {vk } y {wj }; C = (cij ) la matriz de g ◦ f respecto a las bases {ui } y {wj }. Por lo tanto n X cji wj g ◦ f (ui ) = i=1
||
g(f (ui )) = g
m X
aki vk
k=1
=
m X
k=1
=⇒ cji =
m X
!
=
m X
aki g(vk )
k=1
! m n n X X X bjk aki wj , bjk wj = aki j=1
j=1
k=1
bjk aki .
k=1
Por consiguiente C es la matriz obtenida de multiplicar BA, es decir C = BA. Por el uso frecuente de algunas matrices, vale la pena citarlas:
1 0 0 1 I = Ir = 0
··· 0 0 ∈ Mr,r (K) = Mr (K) .. . 1
´ n Lineal I.5 Matriz de una Aplicacio
23
Se tiene Ir A = A, ∀A ∈ Mr,d (K); y BIr = B, ∀B ∈ Ms,r (K). Ir se llama la matriz identidad. 0 ∈ Mp,q (K) es la matriz cuyos coeficientes son nulos. Corolario I.5.4.- Mn,n (K) con la adici´on y la multiplicaci´on es un anillo (no conmutativo si n ≥ 2). Adem´ as la aplicaci´ on (dim V = n): End(V ) → Mn,n (K) f 7→ Mf es un isomorfismo de anillos. Para el espacio V = Kn con la base can´ onica, se dispone de un isomorfismo can´ onico Gl(Kn ) −→ Gl(n, K) = {A ∈ Mn,n (K)|A es inversible} ∩ End(Kn ) → Mn,n (K) f 7→ Mf matriz de f respecto a la base can´ onica de V. Demostraci´ on.- Ejercicio. Remarca.- Sea f : V → W lineal, A = (aij ) la matriz de f respecto a las bases {vi } y {wj }. Sea v ∈ V , ¿Como calcular f(v)? n X , entonces Se escribe v = i=1
f (v) =
m X
αj f (vj ) =
i=1
m X
αj
j=1
n X
aij wi
i=1
!
=
n X i=1
m X j=1
aij αj wi ,
lo que en notaci´on de componentes se traduce a
β1 a11 a1m a11 .. . . . . = α1 .. + · · · + αm .. = .. βn
an1
anm
an1
···
a1m .. .
· · · anm
α1 .. . .
αm
24
I Espacios Vectoriales y Aplicaciones Lineales
I.6 Cambio de Base
Sean: ′ V espacio vectorial, {v1 , . . . , vm }, {v1′ , . . . , vm } dos bases de V ; ′ W espacio vectorial, {w1 , . . . , wn }, {w1 , . . . , wn′ } dos bases de W ; Se tiene ∼ Hom(V, W ) −→ Mn,m (K) f 7→ A(f ): matriz de f respecto a {vi } y {wj }, ∼
Hom(V, W ) −→ Mn,m (K) f 7→ A′ (f ): matriz de f respecto a {vi′ } y {wj′ }, Programa.- Explicitar la aplicaci´ on Mn,m (K) → Mn,m (K) A(f ) 7→ A′ (f ).
Noci´ on de Matriz de Pasaje Sean {v1 , . . . , vm } y
′ {v1′ , . . . , vm }
dos bases de V . Se escribe
vj =
m X
mij vi′ ,
M = (mij ) ∈ Mm,m (K),
i=1
se llama la matriz de pasaje de {vi } a {vi′ }. M es tambi´en la matriz de la aplicaci´ on identidad de V respecto a {vi } en la fuente y {vi′ } en el destino. De la misma manera se define N = (nij ) ∈ Mn,n por wj =
n X
nij wi′ ,
i=1
la matriz de pasaje de {wj } a {wj′ }.
Proposici´ on I.6.1.- Sean {vi }, {vi′ } y {vi′′ }, tres bases de V espacio vectorial. Se denota M = (mij ) la matriz de pasaje de {vi } a {vi′ }, M ′ = (m′ij ) la matriz de pasaje de {vi′ } a {vi′′ }. Entonces M ′ M es la matriz de pasaje de {vi } a {vi′′ }.
Demostraci´ on.- Se tiene:
vj =
m X
mkj vk′ ,
vk′ =
vj =
m X
mkj
vj =
m m X X i=1
m X
m′ik vi′′
!
!
vi ,
i=1
k=1
de donde
m′ik vi′′ ,
i=1
k=1
obteniendo as´ı
m X
|
k=1
m′ik mkj {z m′′ij
}
,
I.6 Cambio de Base
25
por lo tanto M ′′ = M ′ M .
Proposici´ on I.6.2.- Sea A ∈ Mm,m (K), si existe B ∈ Mm,m (K) tal que AB = I o BA = I, entonces A es una matriz inversible de inversa B. Demostraci´ on.- Ejercicio. Proposici´ on I.6.3.- Para las matrices de pasaje se tiene: a) Las matrices de pasaje son inversibles. b) N y M como antes, se tiene A(f ) = N −1 A′ (f )M. Demostraci´ on.-a) Se utiliza la proposici´ on I.6.1 con M ′ la matriz de pasaje de {vi′ } a {vi }. obteniendo de ′ esta manera M M = I, por la proposici´ on I.6.2 se tiene que M es inversible. b) recordemos: m X vj = mkj vk′ , k=1
n X
wj′ =
n ˜ ij wi
con (˜ nij ) = N −1 ,
aij wi
con A(f ) = (aij ),
a′ij wi
con A′ (f ) = (a′ij ).
i=1
n X
f (vj ) =
i=1 n X
f (vj′ ) =
i=1
Para mostrar el punto b), es suficiente mostrar que aij = (N −1 A′ M )ij Se tiene: f (vj ) = f
X
mkj vk′
k
=
X
mkj
k
=
X l
Por lo tanto aij = (N −1 A′ M )ij .
X l
clj
!
=
X
a′lk wl′
mkj f (vk′ )
k
!
=
X X l
a′lk mkj
k
!
wl′
| {z } (AM )lj = clj ! ! X X X n ˜ il clj wi . n ˜ il wi = i
i
i
| {z } (N −1 A′ M )ij
′ }. {v1′ , . . . , vm
Para f ∈ End(V ), Corolario I.6.4.- Sea V espacio vectorial con las bases {v1 , . . . , vm } y se denota A(f ), respectivamente A′ (f ), la matriz de f en la base {v1 , . . . , vm }, respectivamente en la base ′ {v1′ , . . . , vm }. Se denota M la matriz de pasaje de {vi } a {vi′ }. Entonces A(f ) = M −1 A′ (f )M.
Aplicaci´ on al Rango de una Matriz Definici´ on I.6.5.- Sea f → W lineal. Se llama rango de f la dimensi´on de Im(f ).
26
I Espacios Vectoriales y Aplicaciones Lineales
Proposici´ on I.6.6.- Sea f : V → W lineal de rango r. Entonces existe una base {v1 , . . . , vm } de V y una base {w1 , . . . , wn } de W tales que f (vi ) = wi f (vi ) = 0
para i = 1, . . . , r; para i = r + 1, . . . , m.
Dicho de otra forma, la matriz de f respecto a {vi } y {wj } es de la forma
Ir 0
0 0
.
Demostraci´ on.- La f´ormula de dimensi´on para aplicaciones lineales da dim Im(f ) + dim ker(f ) . | {z V} = |dim {z } | {z } m
r
m−r
Se elije una base {vr+1 , . . . , vm } base de ker(f ), se completa en {v1 , . . . , vr , vr+1 , . . . , vm } base de V . Se toma como base de Im(f ) {f (v1 ), . . . , f (vr )} y luego se completa esta base en una base de W . Corolario I.6.7.- Sea B ∈ Mn,m (K), entonces existe dos matrices N ∈ Gl(n, K) y M ∈ Gl(m, K), tales que N
−1
BM =
Ir 0
0 0
.
Demostraci´ on.- Se aplica la proposici´ on I.6.6 a b : Km → Kn cuya matriz respecto a las bases can´ onicas es B. Por la proposici´ o precedente, existen {v1 , . . . , vm } y {w1 , . . . , wn } bases de Km y Kn respecto a las cuales la matriz asociada a b es Ir 0 . B′ = 0 0 Sea M la matriz de pasaje de {vi } a la base can´ onica en Km , N la matriz de pasaje de {wi } a la base can´ onica en Kn , entonces por la proposici´ on I.6.3, se tiene B ′ = N −1 BM Definici´ on I.6.8.- Sea B ∈ Mn,m (K)
b11 . B = .. bn1
...
b1m .. .
· · · bnm
Se considera las filas de B como elementos de Km y las columnas de B como elementos de Kn El rango fila (columna) de B es la dimensi´on del subespacio de Km (Kn ) engendrado por las filas (columnas) de B. El rango columna de B es igual al rango de la aplicaci´ on b : Km → Kn cuya matriz respecto a las bases can´ onicas es B. En efecto, se tiene que b(ei ) es la i-sima columna de la matriz B, la imagen de b esta engendrada por b(e1 ), . . . , b(em ). Transpuesta de una Matriz Sea B ∈ Mn,m (K). Se llama transpuesta deB y se la denota B t la matriz de Mm,n (K) definida por (B t )ij = Bji .
27
I.6 Cambio de Base
De esta forma el rango fila de B es igual al rango columna de B t . En efecto, el rango fila de B es igual al rango de la aplicaci´ on bt : Kn → Km , cuya matriz respecto a las bases can´ onicas es B t . Proposici´ on I.6.9.- La transpuesta verifica las siguientes propiedades: i) (B t )t = B. ii (AB)t = B t At . iii A ∈ Gl(n, K) ⇒ At ∈ Gl(n, K) y (At )−1 = (A−1 )t . Demostraci´ on.- i) y ii) ejercicio. Para el punto iii), se tiene At (A−1 )t = (A−1 A)t = I t = I ⇒ (At )−1 = (A−1 )t .
Proposici´ on I.6.10.- El rango fila de B es igual al rango columna de B. Demostraci´ on.- Sea r = rango columna de B. Por el corolario 1.6.7, existen N ∈ Gl(n, K) y M ∈ Gl(m, K) tales que Ir 0 −1 B=N M. 0 0 Se tiene aplicando las propiedades de la matriz transpuesta Bt = M t
Ir 0
0 0
(M −1 )t .
Se interpreta las matrices como aplicaciones lineales (respecto a las bases can´ onicas); Bt bt : Kn → Km t M mt : Km → Km
(N t )−1 (nt )−1 : Kn → Km Ir 0 ir : Kn → Km 0 0
(x1 , . . . , xn ) 7→ (x1 , . . . , xr , 0, . . . , 0).
Se tiene bt = mt ir (nt )−1 , ver el diagrama Kn (nt)−1 ↓ Kn
bt
Km ↑ mt ir −→ Km −→
por lo tanto se tiene que rango(bt ) = rango(ir ) = r. Definici´ on I.6.11.- Sea B ∈ Mn,m (K), el rango de de B es rang B = rango columna de B = rango fila deB.
28
I Espacios Vectoriales y Aplicaciones Lineales
I.7 Operaciones Elementales sobre las Matrices
Justificaci´ on.- Sea a11 ξ1
Se introduce
an1 ξ1
+ .. .
a12 ξ2
+ ··· +
+
an2 ξ2
+ · · · + anm ξm
A = (aij ) ∈ Mn,m ,
a1m ξm
ξ1 .. . ∈ Km = Mm,1 (K), ξm
= .. .
b1
= bn
b=
b1 .. .b
n
!
∈ Kn .
Introduciendo la notaci´on matricial, el sistema de ecuaciones, se convierte en Aξ = b.
Ir 0 Se observa que si A = , se encuentra la soluci´on a la vista. 0 0 En el par´ agrafo precedente, se mostr´o que existen M y N inversibles tales que A = N −1
Ir 0
por consiguiente se tiene Aξ = N −1
Ir 0 0 0
0 0
M ξ = b.
M;
Planteando b′ = N b y ζ = M ξ, se obtiene el sistema
Ir 0
0 0
ζ = b′ .
Por lo tanto, conociendo N se deduce ζ y conociendo M −1 se deduce ξ. Programa.- Explicitar un procedimiento o algoritmo que permita calcular ξ. Se denota Sn el conjunto de las biyecciones o permutaciones de {1, 2, . . . , n}. Es un grupo para la composici´ on de aplicaciones llamado grupo sim´ etrico. Hay n! elementos en Sn . Una permutaci´ on σ de {1, 2, . . . , n} se representa mediante
1 2 3 ··· n σ(1) σ(2) σ(3) · · · σ(n)
29
I.7 Operaciones Elementales sobre las Matrices Ejemplo 1.- Las 6 permutaciones de 1 id = 1 1 2 3 2
S3 tienen las representaciones siguientes: 2 3 1 2 3 2 3 1 3 2 3 1 2 3 1 3 1 2
1 2 3 2 1 3 1 2 3 2 3 1
Para evitar una escritura pesada, en lugar denotar σ1 ◦ σ2 la composici´ on de permutaciones, se utilizar´ a la notaci´on σ1 σ2 . A σ ∈ Sm , se asocia una aplicaci´ on lineal mediante ρ(σ) : Km → Km ei 7→ eσ(i) donde {e1 , . . . , en } es la base can´ onica de Km . La matriz M (σ) de ρ(σ) respecto a la base can´ onica es de la forma, M (σ) tiene los coeficientes nulos, excepto que en cada fila y columna el coeficiente no nulo es 1. Esta matriz se llama matriz de permutaci´ on. Proposici´ on I.7.1.- La aplicaci´ on
ρ
Sm → Gl(Km ) σ 7→ ρ(σ) es un homomorfismo de grupo, representaci´on lineal de Sm . La aplicaci´ on Sm → Gl(m, K) σ 7→ M (σ) es un homorfismo de grupos, representaci´on matricial de Sm . Demostraci´ on.- Ejercicio. Una vez conocidas las matrices de permutaci´on, se debe determinar como actua las matrices de permutaci´on sobre una matriz. Esto est´ a dado en la: Proposici´ on I.7.2.- a) Multiplicar a la derecha B por M (σ) es equivalente a efectuar las correspondientes permutaciones de las columnas de B. b) Multiplicar por la izquierda B por M (σ) es equivalenTe a efectuar las correspondientes permutaciones de las filas de B. Demostraci´ on.- Ejercicio Matrices Diagonales Una matriz A diagonal es de la forma
a11 0 A= 0
0 a22
..
. amm
= diag(a11 , a22 , . . . , amm )
Proposici´ on I.7.3.- a) Multiplicar B por la derecha con diag(d1 , d2 , . . . , dm ) es lo mismo que multiplicar la i-sima columna de B por di , para i = 1, . . . , m. b) Multiplicar B por la izquierda con diag(d1 , d2 , . . . , dm ) es lo mismo que multiplicar la i-sima fila de B por di , para i = 1, . . . , m. Demostraci´ on.- Ejercicio. Resultado Principal
30
I Espacios Vectoriales y Aplicaciones Lineales
Sea B ∈ Mn,m (K) de rango r. Se va encontrar un procedimiento para explicitar las matrices N −1 ∈ Gl(n, K) y M ∈ Gl(m, K) tales que Ir 0 N −1 BM = . 0 0 Si B = 0, no hay nada que hacer. Si B 6= 0, entonces existe un coeficiente que no es nulo. Por consiguiente: i) Multiplicando a la izquierda y derecha por matrices de permutaci´on, se lleva este coeficiente al lugar (1, 1). ii) Multiplicando por diag(b−1 11 , 1, . . . , 1) se va al caso b11 = 1. iii) Luego 1 b12 · · · b1m 1 0 ··· 0 1 b12 · · · b1m 0 −b21 1 0 b21 = . . . .. ′ .. . . B . . . 0 1 bn1 · · · bnm −bn1 0 1 −b12 · · · −b1m 1 0 ··· 0 1 b12 · · · b1m 0 0 0 1 0 . . = . . .. .. .. .. B ′′ B′ . 0
0
0
Ejemplo 1.- Consideremos la matriz B= Se tiene
De donde
0 1 1 1
0 1 1 0
4 3
B=
.
1 1 3 0 1 4
= B (1) ,
−1
1 −1 −3 1 0 0 0 1 = B (2) , 0 = 0 1 4 0 0 1 1 0 0 1 0 0 1 0 0 . 0 1 −4 = 0 1 0 0 1 4 0 0 1
1 1 3 0 1 4
1 0 0 1 −1 −3 0 0 1 −4 M = 0 1 0 0 1 0 0 1
0
1
y N
=
0 1 1 0
.
Corolario I.7.4.- Una matriz A ∈ Gl(m, K) se escribe como producto de: i) matrices de permutaci´ on; ii) matrices diagonales inversibles; iii) matrices del tipo I + Li o I + Rj , donde Li es la matriz cuyos coeficientes son nulos, excepto quiz´as los lki con k > i; Hj es la matriz cuyos coeficientes son nulos, excepto quiz´as los hjk con k > j. Demostraci´ on.- Se aplica el procedimiento de antes a A inversible. Finalmente se obtiene que I = P AQ, donde P es producto de matrices del tipo i), ii), iii); lo mismo Q. Entonces A = P −1 Q−1 . Solo hay que mostrar que las inversas de i) ii) y iii) son del mismo tipo. Para i) y ii) no hay problema. Para iii) ejercicio 32 de la pr´ actica.
31
I.7 Operaciones Elementales sobre las Matrices Mejora del Resultado Definimos los siguientes subconjuntos de Gl(m, K): 1 U− = ∗ ∗
0
..
. ∗
1
∈ Gl(m, K)
matrices triangulares con 1 sobre la diagonal.
matrices triangulares superiores. Para σ ∈ Sm se plantea
b11 B+ 0 0
∗ .. .
∗
∗ ∈ Gl(m, K)
bmm
U− M (σ)B+ = {XM (σ)Y |X ∈ U− , Y ∈ B+ } . Proposici´ on I.7.5.- Descomposici´ on de Bruhat. Gl(m, K) es la reuni´ on disjunta de subconjuntos U− M (σ)B+ , σ ∈ Sm . Demostraci´ on.- i) Sea A ∈ Gl(m, K), se debe mostrar que existe X ∈ U− , Y ∈ B+ y σ ∈ Sm tales que A = XM (σ)Y. La demostraci´ on se la har´ a por inducci´on sobre m. El caso m = 1 es evidente. Supongamos cierto para m − 1, con m > 1. Sea A ∈ Gl(m, K), y sea ai,1 6= 0 el primer coeficiente no nulo de la primera columna de A. Se tiene:
0
0 a i1
1
..
. 1 −˜ ai+1,1 −˜ am,1
..
.
am1
1
0
A12 ; A22
A12 0 −1 diag(ai1 , 1, . . . , 1) = 1 a ˜i+1,1 A22
{z A 0 0 0 1 a ˜i+1,1 |
}
a ˜m1
A12
ai2
· · · aim A22
a ˜m1
1 −ai2 1
· · · −aim ..
. 1
0 C11 0 = 1 0 C21
C12 0 . C22
Por hip´otesis de inducci´on existen U ∈ Gl(m−1, K) triangular inferior con 1 en la diagonal y B ∈ Gl(m−1, K) triangular superior, τ ∈ Sm−1 , tales que
C11 C21
C22 C22
= U M (σ)B
32
I Espacios Vectoriales y Aplicaciones Lineales
o todav´ıa
C11 C22 B −1 = M (τ ) U C21 C22 0 C11 C22 B11 B21 T11 T12 = . U22 C21 C22 0 B22 T21 T22 −1
Por consiguiente
U11 U21
0 C11 C12 ˜ ˜ 1 A=U 0 0 B 0 C21 C22 0 C11 U11 0 0 0 0 1 0 1 0 C21 U21 0 U22 0 T11 T22 0 . = 1 0 0 T21 T22 | {z }
1 0 C12 0 0 B11 0 0 C22
0 B12 B22
M (σ)
ii) A mostrar que si (U− M (σ)B+ ) ∩ (U− M (τ )B+ ) ⇒ σ = τ , en clases.
38
I Espacios Vectoriales y Aplicaciones Lineales
I.8 Signo de las Permutaciones
Recordemos que
biy. Sm = σ : {1, . . . , m} −→ {1, . . . , m}}
Sean a, b ∈ {1, . . . , m}, a 6= 0, la permutaci´on definida por
a 7→ b; b 7→ a; i 7→ i, i 6= a y i 6= b se llama transposici´ on y se denota (a, b). Por consiguiente, (a, b) =
1 2 ··· a 1 2 ··· b
··· b ··· a
··· m ··· m
.
Proposici´ on I.8.1.- El grupo Sm es engendrado por las transposiciones, es decir para σ ∈ Sm , existen τ1 , τ2 , . . . , τp transposiciones, tales que σ = τ1 τ2 · · · τp . Demostraci´ on.- Por inducci´on sobre m. Para m = 2 el enunciado es cierto. Se supone cierto el enunciado para m − 1. Demostremos que se cumple para m. Sea σ ∈ Sm . Si σ(m) = m, se tiene que la restricci´ on de σ sobre {1, . . . , m − 1} es una permutaci´on que pertenece a Sm−1 y por hip´ otesis de inducci´on σ es el producto de transposiciones. Si σ(m) 6= m, se considera σ ′ = (σ(m), m)σ. Por construcci´on σ ′ (m) = (σ(m), m)σ(m) = m, de donde por el argumento del primer caso σ ′ pertenece a Sm−1 y es producto de transposiciones, digamos σ ′ = τ1 τ2 · · · τp . Por lo tanto σ = (m, σ(m))τ1τ2 · · · τp . Ejemplos 1.-
1 2 ··· m − 1 m 2 3 ··· m 1
= (1, m)(1, m − 1) · · · (1, 3)(1, 2).
2.- La escritura de σ como producto de transposiciones no es u ´nica. id = (a, b)(a, b) = (a, b)(a, b)(a, b)(a, b), Definici´ on de signo de una permutaci´ on m f Introducimos P = R :−→ R| f polinomial . f : Rm → R es polinomial si f (x1 , . . . , xm ) =
X
finita
(2, 3) = (1, 2)(1, 3)(1, 2).
ai1 ,i2 ,...,im xi11 xi22 · · · ximm .
P es un espacio vectorial sobre R y tambi´en es un anillo conmutativo para la adici´on y multiplicaci´on de polinomios.
39
I.8 Signo de las Permutaciones A σ ∈ Sm se asocia la aplicaci´ on X
finita
ϕ(σ) : P −→ P X 1 2 m ai1 ,i2 ,...,im xiσ(1) xiσ(2) · · · xiσ(m) ai1 ,i2 ,...,im xi11 xi22 · · · ximm 7→ finita
Ejemplo 3.- Consideremos σ= Entonces
1 2 3 4 2 3 4 1
,
3 f (x1 , x2 , x3 , x4 ) = x21 + x1 x3 + x12 4 . 2
3 3 2 12 ϕ(σ)(f (x1 , x2 , x3 , x4 )) = x2σ(1) + xσ(1) xσ(3) + x12 σ(4) = x2 + x2 x4 + x1 . 2 2
Proposici´ on I.8.2.- ϕ(σ) es un automorfismo de (espacios vectoriales y de anillo), es decir: i) ϕ(σ)(f + g) = ϕ(σ)(f ) + ϕ(σ)(g), ii) ϕ(σ)(αf ) = αϕ(σ)(f ), iii) ϕ(σ)(f · g) = ϕ(σ)(f ) · ϕ(σ)(g). Adem´ as ϕ(σ1 σ2 ) = ϕ(σ1 ) ◦ ϕ(σ2 ). Demostraci´ on.- Ejercicio. Ejemplo 4.- Los polinomios sim´etricos elementales a m variables son: f1 (x1 , . . . , xm ) = x1 + x2 + · · · + xm ; X xi xj = x1 x2 + · · · + xm−1 xm ; f2 (x1 , . . . , xm ) = i<j
f3 (x1 , . . . , xm ) =
X
x1 xj xk ;
i<j
.. . fm (x1 , . . . , xm ) = x1 x2 · · · xm . Ejercicio.- Mostrar que ϕ(σ)(fi ) = fi para i = 1, . . . , m y σ ∈ Sm . Definamos el polinomio d ∈ P, como Y d= (xi − xj ) = (x1 − x2 ) · · · (x1 − xm ) · · · (xm−1 − xm ). 1≤i<j≤m
Si σ ∈ Sm , entonces ϕ(σ)(d) = ±d. Se plantea sg(σ) = signo(σ) =
(
1 si ϕ(σ)(d) = d, −1 si ϕ(σ)(d) = −d.
Ejemplo 5.- En el espacio de las funciones polinomiales a 4 variables tenemos d = (x1 − x2 )(x1 − x3 )(x1 − x4 )(x2 − x3 )(x2 − x4 )(x3 − x4 ). Tomando la permutaci´ on del ejemplo 3, se tiene ϕ(σ)(d) = (x2 − x3 )(x2 − x4 )(x2 − x1 )(x3 − x1 )(x3 − x4 )(x4 − x1 ) = −d.
40
I Espacios Vectoriales y Aplicaciones Lineales
Proposici´ on I.8.3.- Se tiene que sg
Sm −→ {±1} es un homomorfismo de grupos. Demostraci´ on.-En efecto: ϕ(σ1 σ2 )(d) = (ϕ(σ1 ) ◦ ϕ(σ2 ))(d) = ϕ(σ1 )(ϕ(σ2 ))(d)) =
ϕ(σ1 )(sg(σ2 )d) = sg(σ2 )ϕ(σ1 )(d) = sg(σ2 ) sg(σ1 ),
Por consiguiente sg(σ1 σ2 ) = sg(σ1 )sg(σ2 ).
Proposici´ on I.8.4.- Sea τ una transposicion, entonces sg(τ ) = −1. Demostracion.- Sea τ = (a, b) con a < b, se tiene Y (xi − xj ) d= i<j
= (xa − xb ) = (xa − xb )
Y
i<j i6=a,b j6=a,b
Y
(xi − xj )
Y Y Y Y (xb − xj ) (xi − xa ) (xi − xb ) (xa − xj ) i<j
a<j j6=b
[(xi − xa )(xi − xb )]
i
Y
i
j rel="nofollow">b
[(xa − xi )(xi − xb )]
a
Y Y [(xa − xi )(xb − xi )] (xi − xj ); b
ϕ(σ)(d) = (xb − xa )
Y
[(xi − xb )(xi − xa )]
i
Y
i<j i6=a,b j6=a,b
[(xb − xi )(xi − xa )]
a
Y Y (xi − xj ); [(xb − xi )(xa − xi )] b
i<j i6=a,b j6=a,b
ϕ(σ)(d) = −d.
Corolario I.8.5.- i) Si σ = τ1 · · · τp , con τi transposicion, entonces sg(σ) = (−1)p . ′
ii) Sea σ = τ1 · · · τp = τ1′ · · · τp′ ′ donde τi y τi′ transposiciones, se tiene por i) sg(σ) = (−1)p = (−1)p , entonces p y p′ tienen la misma paridad. C´ alculo Pr´ actico de sg(σ) Sea σ ∈ Sm , la permutacion cuyo representaci´on es
0 B
1
(1)
i
2
j
(i)
j i
(j )
m m
1 CA
(m)
Para determinar el signo de la permutaci´ on, se debe contar el n´ umero de intersecciones de los segmentos que unen el elemento i en la fila de arriba, con el elemento i en la fila de abajo. Este n´ umero se lo denota por j(σ).
41
I.8 Signo de las Permutaciones Proposici´ on I.8.6.- j(σ) es j(σ) = #{(i, j)| i < j y σ(i) rel="nofollow"> σ(j)}
n´ umero de inversiones. Demostraci´ on Mostraremos que g(i) > g(j) ⇐⇒ hay intersecci´ on de los segmentos de extremidades σ(i) y σ(j). En efecto σ(i) i σ(j) j . σ(i) σ(j) Hay interseccion, el diagrama indicar´a que σ(i) > σ(j),
σ(j)
i
σ(i)
σ(i)
j σ(j)
.
Proposici´ on I.8.7.- Se tiene sg(d) = (−1)j(σ) . Demostraci´ on Se tiene que ϕ(σ)(d) = sg(d). Estudiemos la acci´ on de ϕ(σ) sobre los factores de d, por consiguiente (xi − xj ) 7→ (xσ(i) − xσ(j) ) =
un factor de d si σ(i) < σ(j), (−1) · un factor de d si σ(i) > σ(j).
42
I Espacios Vectoriales y Aplicaciones Lineales
I.9 Formas Multilineales Alternadas
Definici´ on I.9.1.- Sean V y W dos espacios vectoriales y m un entero positivo. Una aplicaci´ on F :V {z· · · × V} → W | ×V × m veces
es mulitilineal, si
F (v1 , v2 , . . . , α′ vi′ + α′′ vi′′ , . . . , vm ) = α′ F (v1 , . . . , vi′ , . . . , vm ) + α′′ F (v1 , . . . , vi′′ , . . . , vm ), ∀i = 1, . . . , m. Dicho de otra manera, se pide que F sea lineal en cada una de las variables separadamente. Ejemplos 1.- La siguiente aplicaci´ on es m-lineal K × ··· × K → K | {z } m
(α1 , . . . , αm ) 7→
m Y
αi .
i=1
2.- Sea A ∈ Mn,n (K) una matriz, la aplicaci´ on definida por K×K→K (x, y) 7→ xt Ay = ( x1
a11 . · · · xn ) .. an1
···
y1 a1n .. .. . .
· · · ann
es bilineal. En particular R3 × R3 → R
(x, y) 7→ xt Iy = x1 y1 + x2 y2 + x3 y3
producto escalar euclidiano en R3 . 3.- El producto vectorial o cruz en R3 , definido por R3 × R3 → R x2 y3 − x3 y3 y1 x1 x2 , y2 7→ x3 y1 − x1 y3 x1 y2 − x2 y1 y3 x3 es bilineal. 4.- La aplicaci´ on Mn,n (K) × Mn,n (K) × Mn,n (K) → Mn,n (K) (A, B, C) 7→ ABC es trilineal. 5.- La aplicaci´ on End(V ) × End(V ) → End(V ) (f, g) 7→ f ◦ g − g ◦ f es bilineal.
yn
43
I.9 Formas Multilineales Alternadas
Definici´ on I.9.2.- Sea F : V × V × · · · × V → W multilineal. Se dice que F es multilineal alternada, si F (v1 , . . . , vi , . . . , vi , . . . , vn ) = 0; es decir, del momento en que existan vi = vj con i 6= j. F es multilineal sim´ etrica, si F (v1 , . . . , vi , . . . , vj , . . . , vn ) = F (v1 , . . . , vj , . . . , vi , . . . , vn ), ∀i 6= j. F es multilineal antisim´ etrica, si F (v1 , . . . , vi , . . . , vj , . . . , vn ) = −F (v1 , . . . , vj , . . . , vi , . . . , vn ), ∀i 6= j. Ejemplo 6.- La aplicaci´ on multilineal del ejemplo 1) es sim´etrica si K es un cuerpo conmutativo. Definici´ on I.9.3.- Se dice que un cuerpo K es de caracter´ıstica 6= 2 si 1 6= −1 en K. Ejemplos 7.- Los cuerpos Q, R y C son de caracter´ıstica 6= 2. 8.- El cuerpo F2 es de caracter´ıstica = 2. Proposici´ on I.9.4.- Sea F : V × · · · × V → W multilineal. i) F es alternada, entonces F es antisim´etrica. ii) Si la caracter´ıstica de K 6= 2, entonces F antisim´etrica es alternada. Demostraci´ on.- i) Supongamos F alternada. Se tiene 0 = F (v1 , . . . , vi + vj , . . . , vi + vj , . . . vn ) = F (v1 , . . . , vi , . . . , vj , . . . , vn ) + F (v1 , . . . , vj , . . . , vi , . . . , vn ), por consiguiente F es antisim´etrica. ii) Supongamos F antisim´etrica. Se tiene F (v1 , . . . , vi , . . . , vi , . . . , vn ) = −F (v1 , . . . , vi , . . . , vi , . . . , vn ) Por lo tanto (1 + 1)F (v1 , . . . , vi , . . . , vi , . . . , vn ) = 0, F es alternada.
Proposici´ on I.9.5.- Sea F : V × · · · × V → W multilineal alternada. Entonces i) F (vσ(1) , . . . , vσ(n) ) = sg(σ)F (v1 , . . . , vn ), donde vi ∈ V y σ ∈ Sn . ii) F (v1 , . . . , vi + αvj , . . . , vn ) = F (v1 , . . . , vi , . . . , vn ). iii) Si v1 , . . . , vn son linealmente dependientes, entonces F (v1 , . . . , vn ) = 0. Demostraci´ on.- i) σ = τ1 · τp con τi transposicion. Como F es alternada, F es antisim´etrica. De donde F (vτ (1) , . . . , vτ (n) ) = −F (v1 , . . . , vn ). Por consiguiente, por antisimetr´ıa se obtiene i). ii) Verificaci´ on inmediata. iii) Si es necesario efectuar una transposici´ on, se puede suponer que v1 =
n X i=2
αi vi ,
44
I Espacios Vectoriales y Aplicaciones Lineales
de donde F (v1 , . . . , vn ) = F (
n X
n X
αi vi , v2 , . . . , vn ) =
i=2
αi F (vi , v2 , . . . , vn ) = 0.
i=2
Se denota An = {σ ∈ Sm |sg = 1}, llamado grupo alternado de orden n. Proposici´ on I.9.6.- Se tiene Sm = Am donde τ es una transposici´ on.
[ ·
Am τ,
(uni´on disjunta)
Demostraci´ on.- Sea σ ∈ Sm , si sg(σ) = 1, entonces σ ∈ Am . Sino, sg(σ) = −1, se tiene (στ )τ = σ y στ ∈ Am . Veamos que la uni´ on es disjunta. En efecto, supongamos que existe un elemento σ ∈ Am ∩ Am τ , se tendr´ıa que sg(σ) = 1 y sg(σ) = −1, lo que es absurdo. Teorema I.9.7.- Sea F : V × V × · · · × V → W multilineal alternada, con dim V = m. Sea {e1 , e2 , . . . , em } | {z } m veces una base de V . Sean v1 , . . . , vm elementos de V , que pueden escribirse como vj =
m X
aij ei .
i=1
Entonces F (v1 , . . . , vm ) =
X
σ∈Sm
sg(σ)aσ(1),1 aσ(2),2 · · · aσ(m),m
!
F (e1 , e2 , . . . , em ).
(I.9.1)
Reciprocamente la f´ormula (I.9.1) define F como aplicaci´ on multilineal alternada. Demostraci´ on.- Para facilitar la demostraci´on, utilizemos la notaci´on vj =
m X
aij ,j eij .
ij =1
Por consiguiente, se tiene F (v1 , v2 , . . . , vm ) = F (
X
ai1 ,1 ei1 ,
X
ai2 ,2 ei2 , . . . ,
X
aim ,m eim m X
=
i1 ,...,im =1
ai1 ,1 ai2 ,2 · · · aim ,m F (ei1 , ei2 , . . . , eim ) . | {z } =0 si ik =ij con k6=j
Por lo tanto, en esta suma es suficiente considerar las familias {i1 , . . . , im } con ik 6 il . De esta manera
1 i1
2 i2
··· m · · · im
es una permutaci´ on σ de {1, 2, . . . , m}. De la proposicion I.9.5 punto i), se tiene el resultado deseado. Sea F : V × V × {z· · · × V} → W definida por (I.9.1) | m veces a) F es multilineal; en efecto, sean vj′
m X i=1
a′i,j ei ,
vj′′
m X i=1
a′′i,j ei ,
45
I.9 Formas Multilineales Alternadas se tiene α′ vj′ + α′′ vj′′ =
m X
(a′i,j + a′′i,j )ej .
i=1
Por lo tanto F (v1 , . . . , α′ vj′ + α′′ vj′′ , . . . , vm ) X
=
σ∈Sm
sg(σ)aσ(1),1 · · · (α′ a′σ(j),j =α
X
′
σ∈Sm
+α′′
+
α′′ a′′σ(j),j ) · · · aσ(m),m
sg(σ)aσ(1),1 · · · a′σ(j),j
X
σ∈Sm ′
· · · aσ(m),m
!
sg(σ)aσ(1),1 · · · a′′σ(j),j · · · aσ(m),m
!
F (e1 , . . . , em )
F (e1 , . . . , em ) !
F (e1 , . . . , em )
= α F (v1 , . . . , vj′ , . . . , vm ) + α′′ F (v1 , . . . , vj′′ , . . . , vm ).
Mostremos que F es alternada. Sean vi = vj =
m X
ak,i ek =
k=1
F (v1 , . . . , vi , . . . , vj , . . . , vm ) =
m X
ak,j ek . Aplicando la f´ormula (I.9.1), se tiene
k=1
X
σ∈Sm
sg(σ)aσ(1),1 · · · aσ(m),m
!
F (e1 , . . . , em ).
Utilizando la proposici´ on I.9.6 con τ = (i, j), podemos escribir ! ! X X F (v1 , . . . , vi , . . . , vj , . . . , vm ) = ♣ F (e1 , . . . , em ) + ( ♣ F (e1 , . . . , em ) σ∈Am
σ∈Am τ
=
X
σ∈Am
−
X
σ∈Am
aσ(1),1 · · · aσ(i),i · · · aσ(j),j · · · aσ(m),m
!
aστ (1),1 · · · aστ (i),i · · · aστ (j),j · · · aστ (m)m
F (e1 , . . . , em )
!
F (e1 , . . . , em ), = 0.
Proposici´ on I.9.8.- Se escribe Altm (V, W ) el conjunto de las aplicaciones multilineales V × V × · · · × V → | {z } m veces W . Entonces Altm (V, W ) es un K-espacio vectorial para (F + G)(v1 , . . . , vm ) = F (v1 , . . . , vm ) + G(v1 , . . . , vm ) (αF )(v1 , . . . , vm ) = α(F (v1 , . . . , vm )) con F, G ∈ Altm (V, W ) y α ∈ K. Demostraci´ on.- Ejercicio. Corolario I.9.9.- Si dim V = m, entonces dim(Altm (V, W )) = dim W . Demostraci´ on.- Por el teorema precedente se tiene Altm (V, W ) → W F 7→ F (e1 , e2 , . . . , em )
46
I Espacios Vectoriales y Aplicaciones Lineales
es un isomorfismo de espacios vectoriales.
Proposici´ on I.9.10.- Sea {x1 , . . . , xm } una familia de elementos V , (dim V = m). Entonces {x1 , . . . , xm } es una base de V ⇐⇒ F (x1 , . . . , xn ) 6= 0, ∀F 6= 0 ∈ Altm (V, W ). Demostraci´ on.- ⇒ {x1 , . . . , xm } es una base de V y F 6= 0. Entonces existen v1 , . . . , vm ∈ V , tales que F (v1 , . . . , vm ) 6= 0. Utilizando la f´ormula (I.9.1) es necesario que F (x1 , . . . , xn ) 6= 0. ⇐ Se procede por contraposici´ on, sea {x1 , . . . , xm } una familia de V que no es base, entonces {x1 , . . . , xm } es linealmente dependiente y por la proposici´ on I.9.5 punto iii), se tiene F (x1 , . . . , xn ) = 0,
∀F ∈ Altm (V, W ).
47
I.10 Determinantes
I.10 Determinantes
Sea f : V1 → V2 lineal. Entonces f induce una aplicaci´ on lineal definida por f ∗ : Altm (V2 , W ) → Altm (V1 , W ) F 7→ ((v1 , . . . , vm ) 7→ F (f (v1 ), . . . , f (vm )). Analisemos el caso particular en el que V1 = V2 = V , con dim V = m y W = K. Por consiguiente f ∈ End(V ) induce f ∗ : Altm (V, K) → Altm (V, K).
Por el teorema del paragrafo precedente, se tiene que dim Altm (V, K) = 1. De esta forma f ∗ es una homotecia de Altm (V, K). La raz´ on de la homotecia se llama determinante de f ∈ End(V ). Es decir f ∗ (D) = (det f )D para D ∈ Altm (V, K) D(f (v1 ), . . . , f (vm )) = (det f )D(v1 , . . . , vm ). Ejemplo 1.- Sea V = Km , recordamos
ρ(σ) : Km → Km ei 7→ eσ(i)
Se tiene que det(ρ(σ)) = sg(σ). En efecto D(ρ(σ)(e1 ), . . . , ρ(σ)(em )) = D(eσ(1) , . . . , eσ(m) ) = sgD(e1 , . . . , em ). Proposici´ on I.10.1.- Se tiene: i) det(idV ) = 1. ii) det(f ◦ g) = det(f ) det(g). iii) f ∈ End(V ), entonces
f ∈ Gl(V ) ⇐⇒ det(f ) 6= 0.
Demostraci´ on.- i) Trivial ii) Se tiene (f ◦ g)∗ D(v1 , . . . , vm ) = D(f ◦ g(v1 ), . . . , f ◦ g(vm )) = D(f (g(v1 )), . . . , f (g(vm ))) (det f )D(g(v1 ), . . . , g(vm )) (det f )(det g)D(v1 , . . . , vm ). iii) Si f es inversible, existe f −1 ∈ End(V ), tal que f ◦ f −1 = idV ; por los puntos ii) y i) se tiene (det f )(det f −1 ) = 1. ⇐ Se supone que det f 6= 0. Se elige una base {e1 , . . . , em } de V . Sea D ∈ Altm (V, K), con D 6= 0; se tiene D(e1 , . . . , em ) 6= 0. Por otro lado D(f (e1 ), . . . , f (em )) = (f ∗ D)(e1 , . . . , em ) = (det f )D(e1 , . . . , em ) 6= 0, de donde {f (e1 ), . . . , f (em )} es una base de V . Por consiguiente f es un isomorfismo.
48
I Espacios Vectoriales y Aplicaciones Lineales
Determinante de una Matriz Se dispone de un isomorfismo can´ onico ≃
End(Km ) ←→ Mmm (K) f 7→ A(f ) matriz de f respecto a las bases can´ onicas, ϕ
(Ax ← x) ←− A. Se plantea
det A = det(ϕ(A)) =
a11 .. .
· · · ∗ a1m
am1
· · · ∗ amm
Proposici´ on I.10.2.- Para A = (aij ) ∈ Mm,m , se tiene det A =
X
σ∈Sm
.. . .
sg(σ)aσ(1),1 · · · aσ(m),m .
Demostraci´ on.- En efecto; Sean {e1 , . . . , em } la base can´ onica de Km , D ∈ Altm (Km , K) no nula. Se tiene det(ϕ(A) D(e1 , . . . , em ) = ϕ(A)∗ D(e1 , . . . , em ) | {z } det A
= D(ϕ(A)(e1 ), . . . , ϕ(A)em ) X X = D( ai,1 ei , . . . , ai,m ei ) =
X
σ∈Sm
sg(σ)aσ(1),1 · · · aσ(m),m
!
D(e1 , . . . , em )
49
I.10 Determinantes Ejemplos 2.- Para m = 1, se tiene det A = a11 . 3.- Para m = 2, utilizando la proposici´ on precedente obtenemos a11 a12 a21 a22 = a11 a22 − a21 a12 .
Proposici´ on I.10.3.- Tenemos: i) det I = 1 ii) det AB = det A det B, donde A, B ∈ Mm,m (K). iii) A es inversible ⇐⇒ det A 6= 0. iv) det(αA) = αm det A, si A ∈ Mm,m (K). v) det A = det At . Demostraci´ on.- Los puntos i), ii) y iii) son consecuencia de la proposici´ on an´aloga para las aplicaciones lineales. iv) Consecuencia de la f´ormula de la proposici´ on I.10.2. Mostremos el punto v). Se tiene aσ(1),1 · · · aσ(m),m = aσ(1),σ−1 σ(1) · · · aσ(m),σ−1 σ(m) = a1,σ−1 (1) · · · am,σ−1 (m)
porque el cuerpo K es conmutativo. De esta manera X det A = sg(σ)aσ(1),1 · · · aσ(m),m σ∈Sm
=
X
σ∈Sm
=
X
τ ∈Sm t
sg(σ)a1,σ−1 (1) · · · am,σ−1 (m) sg(τ )a1,τ (1) · · · am,τ (m)
det A , t
por que (A )τ (i),i) = ai,τ (i) .
Para facilitar la formulaci´on de proposiciones y resultados concernientes los determinantes de matrices, utilizemos la notaci´on A = ( A1 · · · Am ) , donde Ai denota la i-sima columna de la matriz A. Proposici´ on I.10.4.- Se tiene i)
ii)
iii)
det ( A1
det ( A1
· · · α′ A′i + α′′ A′′i
· · · Ai + αAj
det ( Aσ(1)
· · · Am ) = α′ det ( A1
· · · Aj
· · · Am ) + α′′ det ( A1
· · · A′′i
· · · Am ) ;
· · · Ai
· · · Aj
· · · Am ) ;
· · · Am ) =
· · · Aσ(m) ) = sg det ( A1
Demostraci´ on.- Se considera
· · · A′i
· · · Am ) .
m veces z }| { m K × · · · × Km → K (A1 , . . . , Am ) 7→ det A.
det ( A1
50
I Espacios Vectoriales y Aplicaciones Lineales
Esta aplicaci´ on es multilineal, de donde i); la aplicaci´ on es alternada, de donde ii) y iii). Remarca.- Se tiene un enunciado an´ alogo para filas. Ejemplos 4.- Se considera una matriz de 4 × 4, se calcular´a su determinante utilizando la f´ormula de la proposici´ on I.10.2 y las propiedades de determinante de la proposici´ on precedente 0 1 3 2 −3 4 −4 −5
0 0 −1 1 3 4 7 2 = 5 9 −3 4 −4 −5 6 1
0 0 4 9 . 5 6 6 −3
Se ha sumado una vez la primera columna a la cuarta columna. Aplicando la f´ormula deducimos que 0 1 3 2 −3 4 −4 −5
0 −1 3 4 3 3 4 9 4 7 = 4 5 6 = 3 4 5 2 . 5 9 −5 6 −1 −5 6 −3 6 1
Se ha factorizado 3 de la u ´ltima columna. Luego 3 4 0 3 4 0 3 4 3 3 4 5 2 = 3 4 5 −2 = 6 4 5 −1 −5 6 2 −5 6 4 −5 6 −1 3 4 3 4 0 0 1 1 3 4 = 216. = 6 · 3 · 4 = 6 4 5 −1 = −6 3 16 0 = 6 1 4 3 16 4 5 −1 3 16 0
5.- Determinante de Vandermonde. 1 a1 1 a2 . . . 1 am Ejercicio Mostrar este resultado.
Proposici´ on I.10.5.- Sean vj =
m X i=1
a21 a22 a2m
· · · am−1 1 Y · · · am−1 3 = (ai − aj ) i>j · · · am−1 m
aij ei j = 1, . . . , r; r ≤ m elementos de Km . Entonces, {v1 , . . . , vr } son
linealmente independientes ⇐⇒ existen 1 ≤ i1 < i2 < · · · < ir ≤ m tales que ai1 ,1 · · · ai1 ,r .. .. 6= 0. . . ai ,1 · · · ai ,r r r
Demostraci´ on.- Caso r = m. La proposici´ on afirma que {v1 , . . . , vm } es una base de Km ⇐⇒ si una aplicaci´ on lineal env´ıa una base sobre otra, es un isomorfismo ⇐⇒ la matriz (aij ) es inversible ⇐⇒ det(aij ) 6= 0. Caso general. Se escribe a11 · · · a1r . . A = .. am1
· · · amn
51
I.10 Determinantes
{v1 , . . . , vr } linealmente independiente ⇐⇒ rango columna de A es igual a r ⇐⇒ rango fila de A es igual a r; es decir, el subespacio de Kr engendrado por las filas de A es Kr ⇐⇒ de las filas de A se puede extraer una base de Kr ⇐⇒ existe una sucesi´on 1 ≤ i1 < i2 < · · · < ir ≤ m tal que las filas de ´ındice i1 , . . . , ir constituyen una base de Kr ai1 ,1 · · · ai1 ,r .. 6= 0. ⇐⇒ ... . ai ,1 · · · ai ,r r
r
Corolario I.10.6.- Sea A ∈ Mn,m (K). Entonces
rang(A) = max s existe una submatriz B de A con s filas . y s columnas tal que det B 6= 0.
Demostraci´ on.-Se plantea
r =rang(A), ) ( existe una submatriz B de A con s filas y s columnas . p = max s tal que det B 6= 0.
A de rango r ⇒ Existe r columnas de A que son linealmente independientes, si es necesario permutar las columnas, se puede suponer que son las primeras r columnas. La proposici´ on indica que r ≤ p. Supongamos que existe una submatriz Bp×p de A con det B 6= 0. Si es necesario renumerar (permutar), se supone B ∗ A= ∗ ∗ lo que implica por la proposici´ on precedente que las primeras p columnas son linealmente independientes, entonces p ≤ r.
52
I Espacios Vectoriales y Aplicaciones Lineales
I.11 Matriz Adjunta
En este paragrafo se formular´a un m´etodo para calcular la inversa de una matriz inversible. Sea a11 · · · amm . . .. ∈ Mm,m (K). A = (aij ) = .. am1 · · · amm
Se plantea
a11 .. . ai−1,1 Aij = ai+1,1 . .. am1
···
···
a1,j+1 .. .
ai−1,j−1 ai+1,j−1 .. .
ai−1,j+1 ai+1,j+1 .. .
am,j−1,
am,j+1
Aij se obtiene de A suprimiendo la fila i-sima y la Se define a11 · · · a1,j−1, .. . ai−1,1 ai−1,j−1 0 · · · 0 Sij (A) = ai+1,1 a i+1,j−1 . .. am1
···
···
a1,j−1, .. .
am,j−1,
···
a1m .. . ai−1,m ∈ Mm−1,m−1 (K). ai+1,m .. . amm
columna j-va. 0 .. .
a1m .. . ai−1,m ··· 0 ∈ Mm,m (K). ai+1,m .. . · · · amm ···
a1,j+1
0 ai−1,j+1 1 0 0 ai+1,j+1 .. . 0
am,j+1
Definici´ on I.11.1.- La matriz adjunta de A, denotada por Adj(A), es la matriz definida por (Adj (A))ij = (−1)i+j det(Aji ). Ejemplo 1.- Veamos el caso de m = 2. Adj
a11 a21
a12 a22
=
a22 −a21
−a12 a11
.
Proposici´ on I.11.2.- det Sij (A) = (−1)i+j Aij . Demostraci´ on.- Para demostrar esta proposicion, desarrollaremos el determinante de Sij utilizando propiedades de determinante, vistas en el paragrafo precedente. α det Sij (A) = 0 γ Proposici´ on I.11.3.-
m X j=1
0 0 β 1 0 = sg(σ) α | {z } 0 δ (−1)i−1 γ
1 0 1 0 i−1+j−1 0 β = (−1) 0 α 0 γ 0 δ
aji det(Sjk ) = δik det A donde δik =
0 si i 6= k, 1 si i = k.
0 β . β
53
I.11 Matriz Adjunta
Demostraci´ on.- Denotando por Aj la j-va columna de A. Substiyendo la i-sima columna a la k-sima columna, es decir planteando A′k = Ai , se tiene δik det A = det ( A1
· · · A′k
· · · Ai
· · · Am )
(I.11.1)
Por otro lado la i-sima columna, es decir A′k se puede desarrollar como 0 0 1 a1i 0 1 0 ... = a1i . + a21 . + · · · + am1 . . .. .. .. ami 1 0 0
De esta manera el determinante del lado derecho de (I.11.1), se escribe como 1 0 δik det Aa1i α 0 β +a2i α 1 β + · · · + ami α 0 β . 0 1 | | | {z } {z } {z } det S1k (A) det S2k (A) det Smk (A)
Teorema I.11.4.- Laplace. Se tiene: i) Desarrollo del determinante respecto a la i-sima columna. det A =
m X
aji (−1)i+j det Aji .
j=1
ii) Desarrollo del determinante respecta a la j-sima fila. det A =
m X
ajk (−1)j+k det Ajk .
k=1
Demostraci´ on.- i) Utilizamos la proposicion I.11.3 con i = k y la proposici´ on I.11.2. De esta manera det A =
m X
aji det(Sji (A)) =
j=1
X
j = 1m (−1)i+j det Aji .
ii) Se demuestra a partir de i) para At .
Proposici´ on I.11.5.- Se tiene A Adj(A) = Adj(A)A = diag(det A, . . . , det A).
Demostraci´ on.- Por la proposici´ on I.11.3, se tiene
δik det A =
m X j=1
(Adj(A))kj m z }| { X aji det Sjk (A) = (−1)i+k det Ajk aji , j=1
de donde Adj(A)A = diag(det A, . . . , det A).
54
I Espacios Vectoriales y Aplicaciones Lineales
Se tiene tambi´en Adj(At )At = diag(det At , . . . , det At ), transponiendo, se obtiene AAdj(A) = diag(det A, . . . , det A). Corolario I.11.6.- Si A es inversible, entonces A−1 =
1 Adj(A). det A
Remarca.- Sea R un subanillo de K, por ejemplo Z ⊂ Q, entonces Mn,m (R) ⊂ Mn,m (K). Corolario I.11.7.- A ∈ Mm,m (R). Entonces; A es inversible en Mm,m (R), es decir si existe B ∈ Mm,m (R) con AB = BA = Im , si y solamente si det A es un elemento inversible de R. En particular A ∈ Mm,m (Z) es inversible ⇐⇒ det A = ±1. Demostraci´ on.- ⇒, Se tiene AB = I, por consiguiente det A det B = 1, lo que implica que det A es inversible en R. 1 ⇐ det A inversible en R, entonces tiene sentido la expresi´ on en R. det A F´ ormula de Cramer Sea A ∈ Mm,m (K). El sistema
Ax = b,
tiene una u ´nica soluci´on, si y solamente si det A 6= 0. Si este es el caso, se tiene x = A−1 b = Por consiguiente, se obtiene
1 Adj(A)b. det A
m
xi = por lo tanto
1 X (Adj(A))ij bj , det A j=1 m
xi =
1 X (−1)i+j det Aji bj det A j=1
Denotando Ak la k-sima columna de A y utilizando la f´ormula de Laplace del c´ alculo de determinante en la versi´on columna, se obtiene xi =
1 det ( A1 det A
· · · Ai−1
b Ai+1
· · · Am ) .
Cap´ıtulo II Complemento
II.1 Espacios Vectoriales Cocientes
Sea a) b) c)
E un conjunto, una relaci´on x ∼ y entre elementos de E es una relaci´ on de equivalencia, si x ∼ x, para todo x ∈ E (reflexividad); x ∼ y ⇒ y ∼ x, (simetr´ıa); x ∼ y, y ∼ z ⇒ x ∼ z, (transitividad). Un conjunto C ⊂ E es una clase de equivalencia si existe x ∈ E tal que C = {y ∈ E|y ∼ x},
C es la clase de x y se denota x ¯. El conjunto de las clases se llama cociente de E respecto a la relaci´on ∼ y se denota E/ ∼ . Por consiguiente, se dispone de una aplicaci´ on can´ onica π
E −→ E/ ∼ x 7→ x ¯ que es sobreyectiva. Sea V un espacio vectorial, U un subespacio vectorial de V . Se introduce una relaci´on ≡ mod(U ), definida por x ≡ y mod(U ) ⇐⇒ x − y ∈ U. Proposici´ on II.1.1.- ≡ mod(U ) es una relaci´on de equivalencia sobre E. Demostraci´ on.- i) Sea x ∈ V , x − x = 0 ∈ U , entoces x ∼ x. ii) x ∼ y ⇒ x − y ∈ U , por consiguiente (−1)(x − y) ∈ U , de donde y − x ∈ U , por lo tanto y ∼ x. iii) La transitividad la dejamos como ejercicio.
Ejemplo 1.- Consideremos V = R2 y U un subespacio de dimensi´on 1. En la figura puede verse las clases de
56
II Complemento equivalencia.
− x+U =x
U
Proposici´ on II.1.2.- Se tiene x1 ≡ y1 mod(U ) x2 ≡ y2 mod(U )
⇒
x1 + x2 ≡ y1 + y2 mod(U ) . αx1 ≡ αx1 mod(U )
La adici´on y la multiplicaci´ on por los escalares son compatibles con la relaci´on ≡ mod(U ) Demostraci´ on.- Se tiene xi ≡ y1 mod(U ) ⇐⇒ xi − yi ∈ U i = 1, 2. Por lo tanto (x1 − y1 ) + (x2 − y2 ) ∈ U ⇒ (x1 + x2 ) − (y1 + y2 ) ∈ U,
⇒ x1 + x2 ≡ y1 + y2 mod(U ).
La otra implicaci´ on ejercicio. Introducimos una adici´on en V /U = V / ∼, de la manera siguiente x ¯1 + x ¯ 2 = x1 + x2 . Esta definici´on tiene sentido, si x ¯1 = y¯1 y x ¯2 = y¯2 , por la proposici´ on II.1.2, se obtiene x1 + x2 = y1 + y2 . Se introduce una multiplicaci´ on por los elementos de K. α¯ x = αx. La proposici´ on indica que esta definici´on tiene un sentido. Proposici´ on II.1.3.- El conjunto V /U con estas dos operaciones es un espacio vectorial. Adem´ as π : V → V /U es lineal. Demostraci´ on.- I. Adici´on. Se tiene i)
ii)
x ¯1 + (¯ x2 + x ¯3 ) = x ¯ 1 + x2 + x3 = x1 + (x2 + x3 ) = (x1 + x2 ) + x3 = x 1 + x2 + x ¯3 = (¯ x1 + x ¯2 ) + x ¯3 ; x ¯ + y¯ = x + y = y + x + y¯ + x ¯;
57
II.1 Espacios Vectoriales Cocientes iii) el cero de V /U es ¯ 0; iv) el opuesto de x ¯ es −x. Se tiene π(x + y) = x + y = x ¯ + y¯ = π(x) + π(x). II. Multiplicaci´ on. Lo mismo que para la adici´on, ejercicio.
Proposici´ on II.1.4.- Sea f : V → W una aplicaci´ on lineal. Sea U un subespacio vectorial de V con U ⊂ ker(f ). Entonces existe una y una sola aplicaci´ on lineal f¯ : V /U → W tal que el diagrama conmuta f
−→
V ց
π
W րf¯
V /U es decir f = f¯ ◦ π. Demostraci´ on.- a) Existencia de f¯. Se plantea f¯(¯ x) = f (x). Hay que verificar que si x ¯ = y¯, entonces f (x) = f (y). En efecto, x ¯ = y¯, se tiene x − y ∈ U ⊂ ker(f ), por consiguiente f (x − y) = 0 y por lo tanto f (x) = f (y). Por construcci´ on f ◦ π = f . f¯ es lineal, en efecto f¯(¯ x + y¯) = f¯(x + y) = f (x + y) = f (x) + f (y) = f¯(¯ x) + f¯(¯ y ). De la misma manera se tiene f¯(α¯ x) = αf¯(¯ x). b) Unicidad. Supongamos que existen f¯1 y f¯2 tales que f¯1 ◦ π = f¯2 ◦ π = f, por lo tanto f¯1 (¯ x) = f (x) = f¯2 (¯ x),
∀¯ x ∈ V /U.
Proposici´ on II.1.5.- Si V es de generaci´on finita, entonces V /U lo es tambi´en. Adem´ as dim V /U = dim V − dim U. Demostraci´ on.- π : V → V /U es sobreyectiva. Si V es de generaci´on finita, entonces π(V ) es de generaci´on finita. La f´ormula de dimensi´on para aplicaciones lineales da dim V = dim V /U + dim U.
61
II.2 Dual de un Espacio Vectorial
II.2 Dual de un Espacio Vectorial
Sea V un espacio vectorial. Una forma lineal sobre V es una aplicaci´ on lineal ε : V → K. El conjunto de las formas lineales sobre V, Hom(V, K), se llama dual de V y se denota V ∗ . Si V es de dimensi´on finita, V ∗ lo es tambi´en y dim V = dim V ∗ . Sea {x1 , . . . , xn } una base de V , esto induce un isomorfismo ϕ : V ∗ → Kn ε 7→ (ε(x1 ), . . . , ε(xn )). Introduciendo las formas ξi ∈ V ∗ por ξi : V → K xj 7→ δij =
(
0 si i 6= j 1 si i = j.
Esto da ϕ(ξi ) = (0, . . . , 0, 1, 0, . . . , 0) = ei . Se sigue que ϕ es un isomorfismo, que {ξ1 , . . . , ξn } es una base de V ∗ . La base {ξ1 , . . . , ξn } se llama la base de V ∗ dual de {x1 , . . . , xn }. Proposici´ on II.2.1.- Sea V espacio vectorial de dimensi´on finita, i) Sea ε ∈ V ∗ , ε 6= 0, entonces ker(ε) es de dimensi´on dim(V ) − 1. ii) Sea U ⊂ V un subespacio de dimensi´on dim(V ) − 1, entonces existe ε ∈ V ∗ tal que ker(ε) = U . Este ε no es u ´nico, pero si ε′ es otro con la misma propiedad, se tiene ε′ = αε, iii)
\
ε∈V ∗
α 6= 0.
ker(ε) = {0}.
Demostraci´ on.- i) Si ε 6= 0, ε : V → K es sobreyectiva y aplicamos la f´ormula de dimensi´on. ii) Sea {u1 , . . . , un−1 } una base de U , que se completa en {u1 , . . . , un−1 , un } base de V . Se considera la forma ε:V →K ui 7→ 0 si i = 1, . . . , n − 1 un 7→ 1, que es una forma lineal de n´ ucleo U . La \ segunda parte de este enunciado, ejercicio. iii) Se tiene de manera trivial {0} ⊂ ker(ε). Sea v ∈ V , v 6= 0; vamos a mostrar que existe ε ∈ V ∗ tal ε∈V ∗
que ε(v) 6= 0, es decir que v 6∈ ker ε. Elegimos una base de la forma {v, v2 , . . . , vn } y se considera
ε:V →K v 7→ 1 vi 7→ 0 para i = 2, . . . , m
Transpuesta de una Aplicaci´ on Lineal
62
II Complemento
Consideremos el diagrama V
Se obtiene entonces
f
−→ W η◦fց ↓η K
ft : W ∗ → V ∗
η 7→ η ◦ f
que es lineal y se llama la transpuesta de f . As´ı f t (η)(v) = η ◦ f (v) para η ∈ W ∗ , v ∈ V. Ejemplo 1.- Sea V = C ∞ ([0, 1], R) espacio vectorial real de las funciones indefinidamente derivables. Se denota D : C ∞ ([0, 1], R) → C ∞ ([0, 1], R) f 7→ f ′ , derivada de f. Sea g ∈ C ∞ ([0, 1], R), se define εg : C ∞ ([0, 1], R) → R Z 1 f (t)g(t)dt. f 7→ 0
Por consiguiente Dt (εg ) = ε ◦ D : V → R. Se tiene ′
t
D (εg )(f ) = varepsilon ◦ D(f ) = εg f = = f (1)g(1) − f (0)g(0) −
Z
1
Z
1
f ′ (t)g(t)dt
0
f (t)g ′ (t)dt
0
= g(1)δ1 (f ) − g(0)δ0 (f ) − εg′ (f ). donde
δa : C ∞ ([0, 1], R) → R f 7→ f (a).
Proposici´ on II.2.2.- Sean V y W espacios vectoriales de dimensi´on finita. Entonces, la aplicaci´ on Hom(V, W ) → Hom(W ∗ , V ∗ ) f 7→ f t es un isomorfismo. Demostraci´ on.- Veamos que la aplicaci´ on f 7→ f t es lineal. Sean f, g ∈ Hom(V, W ), se tiene (f + g)t (η) = η ◦ (f + g) = η ◦ f + η ◦ g = f t (η) + g t (η) = (f t + g t )(η). Lo mismo para (αf )t = αf t . Utilizando resultados sobre dimensiones, se observa que dim Hom(V, W ) = dim Hom(W ∗ , V ∗ ).
63
II.2 Dual de un Espacio Vectorial Por consiguiente, es suficiente mostrar que f 7→ f t es inyectiva. Supongamos que f t = 0, entonces ft : W ∗ → V ∗ η 7→ 0. Esto significa que f t (η) = η ◦ f = 0 ∀η ∈ W ∗ , entonces Im(f ) ⊂ ker(eta) ∀η ∈ W ∗ . Utilizando el inciso iii) de la proposici´ on II.2.1, se tiene que Im(f ) = {0}, por consiguiente f = 0.
Proposici´ on II.2.3.- Sean f : U → V y g : V → W lineales, entonces (g ◦ f )t = f t ◦ g t . En diagrama g
U
−→
f
V
−→
U∗
←−
ft
V∗
←− W ∗ .
W
gt
Demostraci´ on.- Sea η ∈ W ∗ , se tiene (g ◦ f )t (η) = η ◦ (g ◦ f ) = (η ◦ g) ◦ f = g t (η) ◦ f = f t (g t (η)) = f t ◦ g t (η).
Proposici´ on II.2.4.- Si V y W son de dimensi´on finita. Entonces, se tiene rang(f ) = rang(f t ), donde f : V → W lineal. Demostraci´ on.- Recordemos que rang(f ) = dim Im(f ). Elegimos una base {v1 , . . . , vm } de V y otra {w1 , . . . , wn } de W de tal manera que la matriz de f respecto a {vi } y {wj } sea
Ir 0
0 0
,
rang(f ) = r.
Por otro lado, Im(f t ) = {ε ∈ V ∗ |∃η ∈ W ∗ con ε = η ◦ f }.
La matriz de η : W → K respecto a {wj } y {1} es de la forma ( η1
· · · ηn ) .
La matriz de η ◦ f : V → K respecto a {vi } y {1} es Ir 0 ( η1 · · · ηn ) = ( η1 0 0
· · · ηr
0 ··· 0),
de donde Im(f t ) = {( η1
· · · ηr
0 · · · 0 )}
es de dimensi´on r.
64
II Complemento
Proposici´ on II.2.5.- Sean {x1 , . . . , xm } una base de V y {y1 , . . . , yn } una base de W . {ξ1 , . . . , ξm } base de V ∗ dual de {x1 , . . . , xm } y {η1 , . . . , ηn } base de W ∗ dual de {y1 , . . . , yn }. Sea f : V → W lineal, se donota A la matriz de f respecto a las bases {xi } y {yj }. f t : W ∗ → V ∗ , A∗ la matriz de f t respecto a las bases {ηj } y {ξi }, entonces A∗ = At .
Demostraci´ on.- Se tiene A = (aij ) con
n X
aij yi . A∗ = (a∗kl ) con f t (ηl ) =
i=1
un lado se obtiene
f (ηl )(xj ) =
m X
a∗kl ξk . Por consiguiente, de
k=1 m X
a∗kl ξk
k=1
!
(xj ) = a∗jl ;
del otro lado f (ηl )(xj ) = ηl ◦ f (xj ) = ηl
n X i=1
aij yi
!
=
n X
ηl (yj ) = alj .
i=1
Corolario II.2.6.- Sea A ∈ Mm,n (K), entonces rango fila de A = rango columna de A.
II.3 Formas Bilineales Sim´ etricas
65
II.3 Formas Bilineales Sim´ etricas
Sea V un espacio vectorial. Una forma bilineal sim´ etrica sobre V es una aplicaci´ on f :V ×V →K tal que f es bilineal y adem´ as f es sim´etrica. Se denota Sym2 (V, K) el conjunto de las formas bilineales sim´etricas sobre V . En el ejercicio 50 de la practica se muestra que Sym2 (V, K) es un espacio vectorial para las operaciones (f + g)(v1 , v2 ) = f (v1 , v2 ) + g(v1 , v2 ) (αf )(v1 , v2 ) = αf (v1 , v2 ). Sea {e1 , . . . , em } una base de V . La matriz de f respecto a la base {e1 , . . . , em } es la matriz A(f ) = (f (ei , ej ))i,j
con i, j = 1, . . . , m;
A(f ) es una matriz sim´etrica; es decir A(f ) = At (f ). Proposici´ on II.3.1.- La aplicaci´ on n o sim´etricas m × m a coeϕ : Sym2 (V, K) → Matrices ficientes en K. f 7→ A(f ) es un isomorfismo de espacios vectoriales. Demostraci´ on.- i) ϕ es lineal, ejercicio. ii) ϕ es inyectiva, si A(f ) = 0, se tiene f (ei , ej ) = 0, de donde f (x, y) = f (
X
xi ei ,
X
yj ej ) =
X
xi yj f (ei , ej ) = 0,
ij
por lo tanto f = 0. iii) ϕ es sobreyectiva. Sea A = (aij ) una matriz sim´etrica. Planteamos f (x, y) =
X
xi yj aij ,
i,j
se puede ver que f es bilineal y sim´etrica, de matriz A. Corolario II.3.2.- Si dim V = m, se tiene dim Sym2 (V, K) =
m(m + 1) . 2
Demostraci´ on.- Ejercicio Proposici´ on II.3.3.- Resultado Principal.- Sea f ∈ Sym2 (V, K), supongamos que la caracter´ıstica de K es diferente a 2. Entonces existe una base de V respecto a la cual, la matriz de f es diagonal.
66
II Complemento
Demostraci´ on.- Se elige una base {e1 , . . . , em } de V . Caso 1.- Existe un ´ındice i tal que f (ei , ei ) 6= 0. Si es necesario renumerar los elementos de esta base, se puede suponer que i = 1; por consiguiente f (e1 , e1 ) 6= 0. Introducimos una nueva base definida por e′1 = e1 , e′2 = e2 −
f (e1 , e2 ) e1 , f (e1 , e1 )
.. . e′m = em −
f (e1 , em ) e1 . f (e1 , e1 )
Se tiene por consiguiente f (e′1 , e′j ) = f (e1 , ej −
f (e1 , ej ) f (e1 , ej ) e1 ) = f (e1 , ej ) − f (e1 , e1 ) = 0. f (e1 , e1 ) f (e1 , e1 )
De esta manera, respecto a la base {e′1 , . . . , e′m }, la matriz de f es de la forma f (e1 , e1 ) 0 0 B′ con B ′ matriz de m − 1 × m − 1 sim´etrica. Caso 2.- Para todo i, f (ei , ei ) = 0. Si f (ei , ej ) = 0 para todo i, j, se tiene que A(f ) = 0 y por lo tanto la matriz es diagonal. En la otra situaci´on, existen i, j tales que f (ei , ej ) 6= 0. Si es necesario renumerar los elementos de la base, se puede suponer que f (e1 , e2 ) 6= 0. Introducimos la base e′1 = e1 + e2 , e′2 = e2 , .. . e′m = em . Se tiene f (e′1 , e′1 ) = f (e1 + e2 , e1 + e2 ) = f (e1 , e1 ) + 2f (e1 , e2 ) + f (e2 , e2 ) = 2f (e1 , e2 ) 6= 0,
si la caracter´ıstica de K es diferente a 2. Por lo tanto nos encontramos en el primer caso. Iteramos la construcci´ on de la base, con B ′ y las subsiguientes matrices que obtengamos.
Ejemplo 1.- Cuando V = R2 , se tiene que una forma bilineal sim´etrica es de la forma f : R2 × R2 → R x y1 ( 1 , ) 7→ a11 x1 y1 + a12 (x1 y2 + x2 y1 ) + a22 x2 y2 . x2 y2
Por consiguiente la matriz de f respecto a la base can´ onica es a11 a12 A(f ) = . a12 a22 Esta forma bilineal induce la forma cuadr´ atica definida por ϕ : R2 → R
x 7→ f (x, x) = a11 x21 + 2a12 x1 x2 + a22 x22 .
II.3 Formas Bilineales Sim´ etricas
67
Esta forma cuadr´atica define una curva llamada c´ onica por Cϕ = {x ∈ R2 |ϕ(x) = 1}. La proposicion II.3.3 nos indica que existe un sistema de coordenadas (ξ, ζ), sobre R2 tal que la ecuaci´on de Cϕ es de la forma αξ 2 + βζ 2 = 1.
ζ
y
ξ x
Corolario II.3.4.- Se supone K = C, entonces existe una base de V respecto a la cual la matriz de f ∈ Sym2 (V, C) es de la forma diag(1, . . . , 1, 0, . . . , 0). | {z } | {z } p
q
Adem´ as los enteros p y q est´ an enteramente definidos por f . Demostraci´ on.- De la proposici´ on II.3.3, existe una base {e1 , . . . , em } de V respecto a la cual, la matriz de f es diag(a1 , . . . , am ), ai ∈ C. Consideramos la base {e′1 , . . . , e′m } definida por e′i =
ei si ai = 0, ei √ si ai 6= 0. ai
No debe olvidarse que los n´ umeros complejos poseen raiz cuadrada. Calculamos si i 6= j, 0 ei e1 ′ ′ √ √ , ) = 1 si ai 6= 0, f ( f (ei , ej ) = ai ai f (ei , ei ) = 0 si ai = 0.
Para la segunda parte del corolario, consideramos las bases {e1 , . . . , em } y {e′1 , . . . , e′m } respecto a las cuales A(f ) = diag(1, . . . , 1, 0, . . . , 0) | {z } | {z } p
q
A′ (f ) = diag(1, . . . , 1, 0, . . . , 0) | {z } | {z } p′
q′
Mostraremos que p = p′ y q = q ′ . Sea V0 = {x ∈ V |f (x, y) = 0, ∀y ∈ V }, se puede verificar facilmente que V0 es un subespacio vectorial de V .
68
II Complemento Se observa que ei ∈ V0 para i > p; en efecto, para i > p se tiene f (ei , ek ) = 0 ∀k.
Sea x =
m X i=1
xi ei ∈ V0 , por definici´on f (x, ek ) = 0, para todo k. Ahora bien m X
xi f (ei , ek ) =
i=1
xk 0
para k ≤ p, para k > p.
Por lo tanto, x pertenece al subespacio generado por ep+1 , . . . , em . Por consiguiente dim V0 = q = m − p. De la misma manera se hace el mismo razonamiento con la base {e′1 , . . . , e′m } obteniendo dim V0 = q ′ . De donde p = p′ y q = q ′ . Corolario II.3.5.- Supongamos K = R, entonces existe una base de V respecto a la cual la matriz de f es diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0). | {z } | {z } | {z } r
s
t
Adem´ as los enteros r, s y t est´ an u ´nicamente determinados por f .
Demostraci´ on.- De la proposici´ on II.3.3, existe una base {e1 , . . . , em } de V respecto a la cual, la matriz de f es diag(a1 , . . . , am ), ai ∈ R. Se introduce la base
ei si ai = 0, ei √ si ai > 0, e′i = ai e i √ si ai < 0. −ai
Como en la demostraci´ on del corolario precedente, se muestra 0 si ai = 0, f (e′i , e′i ) = 1 si ai > 0, −1 si ai < 0,
y f (e′i , e′j ) = 0 si i 6= j. Para la segunda parte del corolario consideramos las bases {ei } y {e′i } respecto a las cuales, la matriz de f es A(f ) = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0), | {z } | {z } | {z } r
s
t
A′ (f ) = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0). | {z } | {z } | {z } r′
s′
t′
Introduciendo V0 = {x ∈ V |f (x, y) = 0 ∀y ∈ V }, mostramos al igual que en el corolario II.3.4 que t = t′ . s′ +t
z }| { Afirmamos que e1 , . . . , er , er′ +1 , . . . , e′m es una familia de elementos de V linealmente independiente. Si esto es cierto, se tiene r + s′ + t ≤ m = r ′ + s′ + t′ , de donde r ≤ r ′ . Pro razonamiento sim´etrico, se tiene r ′ ≤ r, por lo tanto r ′ = r y s′ = s.
II.3 Formas Bilineales Sim´ etricas
69
Mostremos la afirmaci´on, elegimos una combinaci´on lineal tal que 0=
r X
xi ei +
r X
m X
yj e′j +
j=r ′ +1
i=1
Plantemos v =
′ rX +s′
zk e′k .
k=r ′ +s′ +1
xi ei , de donde por un lado
i=1
r X
f (v, v) = f
xi ei ,
r X
xi ei
i=1
i=1
!
=
2 X
x2i ,
i=1
y del otro
f (v, v) = f −
′ rX +s′
j=r ′ +1
yj e′j −
m X
k=r ′ +s′ +1
zk e′k , −
′ rX +s′
j=r ′ +1
yj e′j −
m X
k=r ′ +s′ +1
zk e′k = −
′ rX +s′
yj2 .
j=r ′ +1
Deducimos inmediatamente que xi = 0 para i = 1, . . . , r; yj = 0 para j = r ′ + 1, . . . , r′ + s′ . Puesto que {e′j } es una base, se tiene que zk = 0 para k = r ′ + s′ + 1, . . . , m. Proposici´ on II.3.6.- Sea f ∈ Sym2 (V, K). Sean {e1 , . . . , em } y {e′1 , . . . , e′m } dos bases de V . Se denota por A la matriz de f respecto a la base {e1 , . . . , em } y A′ la matriz de f respecto a la base {e′1 , . . . , e′m }. Entonces A = P t A′ P, donde P es la matriz de pasaje de {e1 , . . . , em } a {e′1 , . . . , e′m }. Demostraci´ on.- Se tiene por definici´on (A)ij = f (ei , ej ), (A′ )ij = f (e′i , e′j ), m X pij e′i . ej = i=1
Por consiguiente f (ei , ej ) = f
m X
k=1
= =
m X
pkj e′k ,
m X
plj e′l
l=1
!
pki f (e′k , e′l )plj
k,l=1 m X
(P t )ik (A′ )kl (P )lj = (P t A′ P )ij .
k,l=1
Corolario II.3.7.- Supongamos K de caracter´ıstica diferente a 2. Sea A′ una matriz sim´etrica de orden m, entonces existe P ∈ Gl(m, K) tal que P t AP es una matriz diagonal. Demostraci´ on.- Ejercicio.
70
II Complemento
II.4 Espacios Euclidianos
En este paragrafo el cuerpo de base es R. Sea E un espacio vectorial. Un producto escalar sobre E es una forma bilineal E×E →R (x, y) 7→ hx, yi que es definida positiva; es decir hx, xi ≥ 0 ∀x ∈ E, hx, xi = 0 ⇐⇒ x = 0. Definimos la norma de x, como kxk =
p hx, xi.
Un espacio vectorial provisto de un producto escalar se llama espacio euclidiano. Ejemplos 1.- E = Rn es un espacio euclidiano provisto de hx, yi =
n X
xi yi
i=1
producto escalar estandar. 2.- El espacio de las funciones reales indefinidamente derivables definidas sobre el intervalo [a, b], C ∞ ([a, b], R), es un espacio euclidiano con el producto escalar hf, gi =
Z
b
f (t)g(t)dt.
a
Noci´ on de Isomorfismo de Espacios Vectoriales Sean E1 , h , i1 y E2 , h , i2 dos espacios euclidianos. Se dice que E1 y E2 son isomorfos, si existe ϕ : E → E lineal biyectiva, tal que hϕ(x), ϕ(y)i2 = hx, yi1 ,
∀x, y ∈ E.
El resultado principal de este paragrafo es, Si E es un espacio euclidiano de dimensi´ on n. Entonces E es isomorfo a Rn dotado del producto escalar estandar. En lo que sigue E es de dimensi´on finita. Se dice que x, y ∈ E son ortogonales si hx, yi = 0. Se dice que la familia {v1 , . . . , vm } es ortogonal si hvi , vj i cuando i 6= j. Se dice que {v1 , . . . , vm } es ortonormal si {v1 , . . . , vm } es una familia ortogonal y hvi , vi i = 1 para i = 1, . . . , m. Proposici´ on II.4.1.- Sea E un espacio euclidiano, entonces existen bases ortonormales; es decir, existen bases respecto a las cuales, la matriz del producto escalar es I. Demostraci´ on.- Una demostraci´ on de esta proposici´ on, puede realizarse utilizando el corolario II.3.5, el cual asegura que existe una base respecto a la cual, la matriz del producto escalar es de la forma diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0). | {z } | {z } | {z } r
s
t
71
II.4 Espacios Euclidianos
Puesto que h , i es definido positivo, se tiene s = t = 0. Esta demostraci´ on muestra la existencia de una tal base, pero no nos da la forma de encontrar esta base. Una segunda demostraci´ on est´ a dada por el procedimiento de ortogonalizaci´ on de GrammSchmidt. Sea {e1 , . . . , em } una base cualquiera de E. Se plantea f1 = e1 y buscamos f2 con hf1 , f2 i = 0 y f2 = e2 + αf1 . Se tiene hf1 , e2 + αf1 i = hf1 , e2 i + αhf1 , f1 i = 0, de donde α=−
hf1 , e2 i ; hf1 , f1 i
α existe y es u ´nico. Se busca f3 con hf1 , f3 i = hf2 , f3 i = 0, f3 = e3 + β1 f1 + β2 f2 . Obtenemos, hf1 , f3 = e3 + β1 f1 + β2 f2 i = hf1 , e3 i + β1 hf1 , f1 i = 0, hf2 , f3 = e3 + β1 f1 + β2 f2 i = hf2 , e3 i + β2 hf2 , f2 i = 0. β1 y β2 existen y son u ´nicos Se procede de la misma manera, se construye f1 , . . . , fm satisfaciendo hfi , fj i, fi = ei +
j < i; i−1 X
pji ej
j=1
De donde {f1 , . . . , fm } es una base ortonormal y
fm f1 ,..., kf1 k kfm k
es una base ortonormal. Ejemplos 3.- Rn con el producto escalar estandar, la base can´ onica es ortonormal. ∞ 4.- Sea E el subespacio de C (R, R) engendrado por {1, cos t, sin t, cos 2t, sin 2t, . . . cos nt, sin nt} polinomios trigonom´etricos de grado menor o igual a n con el producto escalar Z 2π
hf, gi =
f (t)g(t)dt.
0
La base {1, cos t, sin t, . . . , cos nt, sin nt} es una base ortogonal.
1 cos t cos nt sin nt √ , √ ,..., √ , √ π π π 2π
es una base ortonormal Proposici´ on II.4.2.- Sea E un espacio euclidiano de dimensi´on n. Entonces E es isomorfo a Rn dotado del producto escalar estandar.
72
II Complemento
Demostraci´ on.- Sea {f1 , . . . , fn } una base ortonormal de E. Definimos ϕ : E → Rn fi 7→ ei , donde los ei son los elementos de la base can´ onica de Rn . ϕ es biyectiva, porque envia base sobre base. Todo x, y ∈ E se escriben de manera u ´nica, como x=
n X
xi ei ,
y=
i=1
n X
yi ei ,
i=1
de donde hϕ(x), ϕ(y)i =
*
n X
xi ei ,
i=1
n X
yi ei
i=1
+
=
n X
xi yi .
i=1
El Grupo Ortogonal de un Espacio Euclidiano Definici´ on II.4.3.- Sea (G, ∗) un grupo, se dice que H es un subgrupo de G, si ∅ = 6 H⊂Gy g1 , g2 ∈ H ⇒ g1 ∗ g2 ∈ H, g ∈ H ⇒ g −1 ∈ H.
Remarca Se puede probar que un subgrupo H de un grupo G es un grupo para la operaci´ on heredada de G. Definici´ on II.4.4.- Un endomorfismo a : E → E, E espacio euclidiano, es una transformaci´ on ortogonal o una isometr´ıa si ha(x), a(y)i = hx, yi, ∀x, y ∈ E. Se denota O(E) el conjunto de las transformaciones de E. Proposici´ on II.4.5.- Se tiene: i) a ∈ O(E), entonces a es un automorfismo de espacio euclidiano. ii) O(E) es un subgrupo de Gl(E).
Demostraci´ on.- Ejercicio.
Proposici´ on II.4.6.- Sea a ∈ Gl(E), se denota A la matriz de a respecto a una base ortonormal. Entonces a ∈ O(E) ⇐⇒ At A = I. Demostraci´ on.- Se tiene, primero a ∈ O(E) ⇐⇒ ha(x), a(y)i = hx, yi x, y ∈ E; |⇐⇒ {z } ha(ei ), a(ej )i 1 ≤ i, j ≤ n. ejercicio
segundo, por definicion A = (aij ) y
a(ej ) =
n X i=1
aij ei .
73
II.4 Espacios Euclidianos Por lo tanto a ∈ O(E) ⇐⇒
n X
k=1
aki akj = δij ⇐⇒ (At A)ij = Iij .
Definici´ on II.4.7.- Una matriz A ∈ Mn,n (R) es ortogonal si At A = I.
Corolario II.4.8.- El conjunto O(n, R) de las matrices ortogonales es un subgrupo de Gl(n, R) isomorfo a O(E). Proposici´ on II.4.9.- Descomposicion de Iwasawa de Gl(m, R).- Sea A ∈ Gl(m, R). Entonces A se escribe de manera u ´nica bajo la forma A = QT donde Q ∈ O(m, R), T ∈ T+ (m, R) con t11 T+ (m, R) = 0
t22
∗ .. .
∗ tnn
tii > 0 .
Demostraci´ on.- a) Existencia. Se considera Rm con el producto escalar estandar, {e1 , . . . , em } la base can´ onica de Rm . Se tiene que {Ae1 , . . . , Aem } es una base de Rm . Sea {f1 , . . . , fm } la base ortonormal obtenida de {Ae1 , . . . , Aem } por el procedimiento de Gramm-Schmidt. La matriz de pasaje de {Ae1 , . . . , Aem } a {e1 , . . . , em } es A. La matriz de pasaje de {f1 , . . . , fm } a {Ae1 , . . . , Aem } es T ∈ T+ (m, R), repasar la demostraci´on donde se utiliza el procedimiento de Gramm-Schmidt. La matriz de pasaje de {f1 , . . . , fm } a {e1 , . . . , em } es Q ∈ O(m, R). Por consiguiente, se tiene que A = QR. b) Unicidad. Se supone que A = Q1 T1 = Q2 T2 con Qi ∈ O(m, R) y Ti ∈ T+ (m, R) para i = 1, 2. Ahora bien, como ejercicio mostrar que T+ (m, R) es un subgrupo de Gl(m, R). De donde −1 Q2 Q−1 ∈ O(m, R) ∩ T+ (m, R). 1 = T2 T1 −1 Afirmamos que O(m, R) ∩ T+ (m, R) = {I}. Si esto es cierto, se tiene que Q2 Q−1 = I, de donde 1 = T2 T1 Q1 = Q2 y T1 = T2 . Probemos la afirmaci´on; sea T ∈ O(m, R) ∩ T+ (m, R), entonces
T =
t11 t22
∗ .. .
0
∗ tnn
y T t T = I.
Una verificaci´ on dar´ a que T = I. Sea F ⊂ E un subespacio vectorial, se plantea F ⊥ = {x ∈ E|hx, yi = 0, ∀y ∈ F } . Se prueba que F ⊥ es un subespacio vectorial y se llama el subespacio ortogonal de E. Proposici´ on II.4.10.- Se tiene i) E = F ⊕ F ⊥ ;
74
II Complemento
⊥ ii) F ⊥ = F . Demostraci´ on.- i) Se elige una base ortonormal {f1 , . . . , fm } de F . Se considera la aplicaci´ on ϕ:E→F m X hx, fi ifi . x 7→ i=1
Esta aplicaci´ on es lineal y sobreyectiva, por que los fk pertenecen a la imagen. Se tiene F ⊥ = ker ϕ; en efecto, x ∈ F ⊥ , se tiene ϕ(x) = 0; x ∈ ker ϕ, hx, fk i para k = 1, . . . , k, por lo tanto x ∈ F ⊥ . La formula de dimensi´on da dim E = dim F + dim F ⊥ , por consiguiente solo falta mostrar que F ∩ F ⊥ = {0}. Esto es cierto, por que x ∈ F ∩ F ⊥ , implica que hx, xi = 0 y por lo tanto x = 0. ii) Ejercicio. Proposici´ on II.4.11.- La aplicaci´ on ϕ : E → E ∗ = Hom(E, R) y 7→ ϕ(y) : E → R x 7→ hx, yi. es un isomorfismo Demostraci´ on.- Como dim E = dim E ∗ , es suficiente ver que ker ϕ = {0}. Sea y ∈ ker ϕ, se tiene hx, yi = 0, para todo x ∈ E, en particular para x = y, por lo tanto hy, yi = 0 implica que y = 0. Comentario.- En el caso euclidiano, se acaba de mostrar que se tiene un isomorfismo can´ onico entre E y E ∗.
II.5 Formas Herm´ıticas, Espacios Unitarios
75
II.5 Formas Herm´ıticas, Espacios Unitarios
El cuerpo de base en este paragrafo es C. Recordemos, la conjugaci´on de n´ umeros complejos es la aplicaci´ on definida por C→C z 7→ z¯ x + iy 7→ x − iy. f
Sea V un espacio vectorial. Una forma sesquilineal sobre V es una aplicaci´ on V × V −→ C, tal que f (α1 x1 + α2 x2 , y) = α1 f (x1 , y) + α2 f (x2 , y), f (x, β1 y1 + β2 y2 ) = β¯1 f (x, y1 ) + β2 f (x, y2 ). Se dice que f sesquilineal es herm´ıtica si ∀x, y ∈ V.
f (x, y) = f (y, x),
Proposici´ on II.5.1.- Herm(V, C), el conjunto de los f herm´ıticas sobre V es un espacio vectorial sobre R. Demostraci´ on.- Ejercicio. Sea f ∈ Herm(V, C) y {e1 , . . . , em } una base de V , la matriz de f respecto a {e1 , . . . , em } es la matriz (A(f ))ij = f (ei , ej ). Si f es herm´ıtica, se tiene f (ei , ej ) = f (ej , ei ), obteniendo t
A(f ) = A(f ). ¯ t = B y el conjunto de tales matrices, se denota Se dice que la matriz B ∈ Mm,m (C) es herm´ıtica si B Herm(m, C) y es un espacio vectorial real. Proposici´ on II.5.2.- La aplicaciones Herm(V, C) → Herm(m, C) f 7→ A(f ) g←B donde g(x, y) =
m X
xi bij y¯j .
i,j=1
son isomorfismos de espacios vectoriales reales y son inversas entre si. Adem´ as Herm(m, C) es de dimensi´on m2 . Demostraci´ on.- Ejercicio. Ejemplo 1.- La aplicaci´ on dada por
Cm × Cm → C m X (x, y) 7→ xi y¯i i=1
es una forma herm´ıtica.
76
II Complemento
Ejercicio.- Hallar una base de Herm(V, C). Proposici´ on II.5.3.- Sea f ∈ Herm(V, C). Existe una base de V respecto a la cual, la matriz de f es diagonal con coeficientes iguales a 0, 1 o −1. Demostraci´ on.- Ejercicio. Existe una proposici´ on similar para las formas bilineales sim´etricas. Corolario II.5.4.- Sea B ∈ Herm(m, C), entonces existe P ∈ Gl(m, C), tal que P¯ t BP = diag(1, . . . , 1, −1, . . . , −1, 0, . . . , 0). Demostraci´ on.- Ejercicio. Existe una proposici´ on similar para las matrices sim´etricas. Si f es herm´ıtica, se tiene f (x, x) = f (x, x) ∈ R. Se dice que f herm´ıtica es definida positiva, (producto escalar herm´ıtico), si f (x, x) ≥ 0, ∀x ∈ V ; f (x, x) = 0 ⇐⇒ x = 0. Una forma herm´i tica definida positiva se la denota h , i al igual que el producto escalar euclidiano. E es un espacio unitario, si es un espacio vectorial sobre C provisto de un producto escalar herm´ıtico. Las definiciones de ortogonalidad y ortonormalidad en espacios unitatios es la misma que en espacios euclidianos. Por lo tanto se tiene los siguientes resultados an´alogos: i) Existen bases ortonormales, el procedimiento de Gramm-Schmidt funciona. ii) E espacio unitario de dimensi´on n es isomorfo a Cn provisto del producto escalar herm´ıtico estandar hx, yi =
n X
xi y¯i .
i=1
iii) Se dice que a ∈ Gl(E) es unitaria si ha(x), a(y)i = hx, yi,
∀x, y ∈ E.
El conjunto de las transformaciones unitarias de E forman un subgrupo de Gl(E), es el grupo unitario notado U(E). iv) Sea {e1 , . . . , em } una base ortonormal de E. Sea a ∈ Gl(E), se denota A la matriz de a respecto a {e1 , . . . , em }. Entonces a ∈ U(E) ⇐⇒ A¯t A = I. Una matriz A ∈ Mm,m (C) es unitaria si A¯t A = I. v) El conjunto U(m, C) de las matrices unitarias es un subgrupo de Gl(m, C) isomorfo a U(E). Ejercicio.- Mostrar las afirmaciones de arriba. Ejemplos 1.- diag(a1 , . . . , am ) ∈ U(m, C) ⇐⇒ ai a ¯i = 1, ∀i = 1, . . . , m. 2.- La matriz de la forma a ib ib a con a, b ∈ R, a2 + b2 = 1 es una matriz unitaria.
Proposici´ on II.5.5.- Descomposicion de Iwasawa para Gl(m, C). Sea A ∈ Gl(m, C). Entonces A se escribe de manera u ´nica como A = U T , donde U ∈ U(m, C) y T ∈ T+ (m, C), con t11 ∗ t22 ∗ . t ∈ R y t > 0 T+ (m, C) = ii ii . .. 0 tnn
80
II Complemento
Demostraci´ on.- Ejercicio. Sea F ⊂ E un subespacio de E unitario. Se define el subespacio ortogonal de F como F ⊥ = {x ∈ E|hx, yi = 0, ∀y ∈ E}. Proposici´ on II.5.6.- La aplicaci´ on ϕ : E → E ∗ = Hom(E, C) y 7→ ϕ(y) : E → C x 7→ hx, yi. es biyectiva, pero ϕ es solamente semilineal, es decir ¯ ϕ(βy) = βϕ(y). Demostraci´ on.- Ejercicio Remarcas P 1.- Rn hx, yi = xi yi espacio euclidiano estandar. Ser´ıa natural de generalizar esta situaci´on a los espacios P complejos, as´ı: Cn hx, yi = xi yi . Pero sucede un f´enomeno nuevo, existe x 6= 0 tal que hx, xi = 0. Por ejemplo para n = 2 x = (1, i). 2.- E unitario, sea {e1 , . . . , en } una base ortonormal de E. Se introduce ER = {x ∈ E|x =
X
xi ei , xi ∈ R}.
ER es un espacio vectorial sobre R de misma dimensi´on que E. La restricci´ on a ER del producto escalar herm´ıtico sobre E es un producto escalar euclidiano.
Cap´ıtulo III Formas Normales
III.1 Vectores y Valores Propios
Sea V un espacio vectorial de dimensi´on n. Sea f ∈ End(V ) y {v1 , . . . , vn }, {v1′ , . . . , vn′ } dos bases de V . Recordando el primer cap´ıtulo, se denota A la matriz de f respecto a {vi }, A′ la matriz de f respecto a {vi′ }, M la matriz de pasaje de {vi } a {vi′ }. Se tiene A′ = M AM −1 . Definici´ on III.1.1.- Sean A, B ∈ Mn,n (K). Se dice que A y B son conjugadas o semejantes, si existe M ∈ Gl(n, K) tal que B = M AM −1 . Ejercicio.- Mostrar que la semejanza de matrices es una relaci´on de equivalencia sobre Mn,n (K). La interpretaci´on geom´etrica que se puede dar: Si A es la matriz de f respecto a la base {vi }, la clase de conjugaci´ on de A, es decir el conjunto de las matrices M AM −1 , coincide con el conjunto de las matrices de f respecto a las bases de V . Definici´ on III.1.2.- Se dice que f, g ∈ End(V ) son semejantes o conjugados si existe h ∈ Gl(V ) tal que g = h ◦ f ◦ h−1 .
Definici´ on III.1.3.- Sea f ∈ End(V ), se considera ker(f − λid) con λ ∈ K. Si ker(f − λid) 6= {0}, se dice que λ ∈ K es un valor propio de f . El subespacio ker(f − λid) 6= {0} se llama subespacio propio de f respecto al valor propio λ. dim ker(f − λid) se la llama la multiplicidad geom´ etrica del valor propio λ. Un elemento no nulo de ker(f − λid) se llama vector propio de f respecto a λ. Por consiguiente, dicho de otra manera λ ∈ K valor propio de f ⇐⇒ existe x ∈ V, x 6= 0 tal que f (x) = λx; x ∈ V es vector propio de f ⇐⇒ x 6= 0 y existe λ ∈ K tal que f (x) = λx. Sea A ∈ Mn,n (K), se denota por ρ(A) : Kn → Kn la aplicaci´ on lineal cuya matriz respecto a la base canonica es A. Definici´ on III.1.4.- Se dice que λ es un valor propio de A, si λ es valor propio de ρ(A). Se dice que x ∈ Kn es un vector propio de A, si x es valor propio de ρ(A). Ejemplo 1.- Consideremos la matriz identidad I, entonces todo x 6= 0 ∈ Kn es vector propio respecto a λ = 1. Proposici´ on III.1.5.- Sean f, g ∈ End(V ), se supone que f y g son conjugados; entonces: i) λ es un valor propio de f ⇐⇒ λ es un valor propio de f .
82
III Formas Normales
ii) Si g = hf h−1 , se tiene x es vector propio de f ⇐⇒ h(x) es vector propio de g. Demostraci´ on. Se tiene que λ es valor propio de f , si y solamente si existe x 6= 0 ∈ V tal que f (x) = λx, si y solamente si existe y = h(x) 6= 0 ∈ V tal que g(y) = hf (x) = λh(x) = λy. Proposici´ on III.1.6.- Sean λ1 , . . . , λp valores propios distintos de f . Se plantea Kj = ker(f − λj id). Entonces los Kj son linealmente independientes. (Se dice que los Kj son son linealmente independientes, p X xj = 0 ⇒ xj = 0 para j = 1, . . . , p). si xj ∈ Kj y j=1
Demostraci´ on.- Por inducci´on sobre p. Para p = 1 evidente. Se supone cierto la proposici´ on para p − 1 con p > 1. Mostremos que la proposici´ on es cierta para p. Sea p X j=1
se tiene f(
xj = 0 con xj ∈ Kj ,
p X
xj ) = 0 =
p X j=1
λ 1 xj −
p X
λ j xj ,
i=1
i=1
ahora bien,
p X
λ j xj =
p X j=2
j=1
(λ1 − λj )xj = 0,
por hip´otesis de inducci´on (λ1 − λj )xj = 0 para j = 2, . . . , p, por lo tanto xj = 0 para j = 2, . . . , p y por consiguiente x1 = 0. Corolario III.1.7.- Mismas hip´ otesis que la proposici´ on precedente. Entonces la aplicaci´ on ϕ
K1 × K2 × · · · Kp −→ V
(x1 , x2 , . . . , xp ) 7→ x1 + x2 + · · · + xp
es inyectiva. En este caso la imagen de ϕ es
p M
Kj .
j=1
Demostraci´ on.- Ejercicio.
Proposici´ on III.1.8.- Sea f ∈ End(V ). Se supone que f posee m = dim V valores propios diferentes λ1 , . . . , λm . Se elige vi un vector propio respecto a λi para i = 1, . . . , m. Entonces: i) ker(f − λj id) es de dimensi´on igual a 1, para j = 1, . . . , m. ii) {v1 , . . . , vm } es una base de V . iii) La matriz de f respecto a {v1 , . . . , vm } es diag(λ1 , . . . , λm ). Demostraci´ on.- Utilizando la notaci´on de la proposici´ on III.1.6, Kj = ker(f − λj id) 6= {0}, j = 1, . . . , m. Por el corolario III.1.7, la aplicaci´ on ϕ
K1 × K2 × · · · Km −→ V (x1 , x2 , . . . , xm ) 7→ x1 + x2 + · · · + xm es inyectiva. Por lo tanto se tiene m≤
X
dim(Kj ) ≤ dim V = m; | {z } ≥1
83
III.1 Vectores y Valores Propios ϕ es por consiguiente un isomorfismo, V =
p M
Kj .
j=1
Sea vj ∈ Kj con vj 6= 0, entonces
{(v1 , 0, . . . , 0), . . . , (0, . . . , 0, vm )} es una base de K1 × K2 × · · · Km , de donde via el isomorfismo {v1 , . . . , vm } es una base de V . La matriz de f respecto a {v} es una matriz diagonal.
Polinomio Caracter´ıstico de una Matriz Sea A ∈ Mm,m (K), se plantea x − a11 −a21 PA (x) = det(xI − A) = .. . −am1
−a12 x − a22 ···
polinomio de grado n y coeficiente dominante igual a 1. PA (x) es el polinomio caracter´ıstico de A.
··· ..
. −am,m−1
−a1m ∈ K[x] x − amm
Proposici´ on III.1.9.- Si A y B son semejantes, entonces PA (x) = PB (x). Demostraci´ on.- Por hip´ otesis, existe M ∈ Gl(m, K) tal que A = M BM −1 , calculando los polinomios caracter´ısticos se tiene PA (x) = det(xI − A) = det(xM IM −1 − M BM −1 ) = det(M (xI − B)M −1 ) = det M det(xI − B) det M −1 = det(xI − B) = PB (x).
Sea f ∈ End(V ). Sea {v1 , . . . , vm } una base de V . Se nota A la matriz de f respecto a {vi }. Por la proposici´ on precedente, el polinomio PA no depende de la elecci´on de la base, solamente de f . Se plantea Pf (x) = PA (x) el polinomio caracter´ıstico de f . Definici´ on III.1.10.- Se dice que un cuerpo K es algebraicamente cerrado si todo polinomio p(x) ∈ K[x] no constante posee al menos una raiz. Es decir, si todo polinomio no constante a coeficientes en K se puede factorizar en polinomios de grado igual a 1. Ejemplo 2.- C es un cuerpo algebraicamente cerrado. Teorema III.1.11.- Sea f ∈ End(V ), las raices del polinomio caracter´ıstico de f son exactamente los valores propios de f . En particular, si K es algebraicamente cerrado, el endomorfismo f posee al menos un valor propio y un vector propio. Demostraci´ on.- Sea λ ∈ K, A matriz de f respecto a una base de V . Se tiene Pf (λ) = 0 ⇐⇒ PA (λI − A) = 0 ⇐⇒ ker(λI − f ) 6= {0} ⇐⇒ λ es un valor propio de f.
Definici´ on III.1.12.- Sea λ un valor propio de f , la multiplicidad algebraica de λ es la multiplicidad de la raiz de Pf .
84
III Formas Normales
Ejemplos 3.- La sucesi´on de Fibonacci (Fn )n≥0 definida por Fn+1 = Fn + Fn−1 , F0 = 0, F1 = 1. Puede escribirse de manera matricial como Fn 1 1 Fn Fn+1 A = = . Fn−1 0 1 Fn−1 Fn Se puede observar que
Fn+1 Fn
1 =A . 0
n
Utilizando la proposici´ on III.1.8, la matriz A es semejante a la matriz diag(λ1 , λ2 ), donde λ1 y λ2 son valores propios de A. Calculando estos por medio del polinomio caracter´ıstico de A, se obtiene √ √ 1− 5 1+ 5 , λ2 = . λ1 = 2 2 Despu´es se obtiene A=
de donde n
A =
λ1 1
λ1 1
λ2 1
λ2 1
λ1 0
0 λ2
λ1 0
0 λ2
λ1 1
n
λ2 1
λ1 1
−1
λ2 1
,
−1
Efectuando los c´ alculos necesarios, se obtiene n+1 1 λ1 − λn+1 Fn+1 2 , =√ λn1 − λn2 Fn 5 por lo tanto
√ !n 1+ 5 − 2
1 1 Fn = √ (λn1 − λn2 ) = √ 5 5 4.- Una matriz triangular superior
tiene como polinomio caracter´ıstico
A=
a11
an1 a22
..
0
PA (x) =
. ann
n Y
√ !n ! 1− 5 . 2
(x − aii ).
i=1
5.- Ejercicio.- Mostrar que Pf (x) = Pf t (x) o bien PA (x) = PAt (x). 6.- Si A y B son conjugadas, se tiene PA (x) = PB (x); la rec´ıproca es falsa. En efecto, sean 0 1 0 0 ; A= , B= 0 0 0 0 se tiene PA (x) = x2 ,
PB (x) = x2 .
85
III.1 Vectores y Valores Propios 6.- Sea f ∈ End(V ), sea W ⊂ V un subespacio invariante por f ; es decir, f (W ) ⊂ W . Se denota f|W : W → W el endomorfismo restringido a W . Se tiene Pf|W (x) divide Pf (x).
En efecto, se elige una base {v1 , . . . , vp } de W que es completada en la base {v1 , . . . , vp , vp+1 , . . . , vm } de V . La matriz de f respecto a esta base es de la forma A=
A11 0
A12 A22
,
donde A11 es la matriz de f|W respecto a {v1 , . . . , vp }. Se tiene xI − A11 PA (x) = 0
−A12 = det(xI − A11 ) det(xI − A22 ). xI − A22
Proposici´ on III.1.13.- Sea A ∈ Mm,m (K), entonces i) El polinomio caracter´ıstico puede escribirse bajo la forma
PA (x) = xm − C1 (A)X m−1 + C2 (A)X m−2 + · · · + (−1)m Cm (A). Los Ci (A) son funciones polinomiales de los coeficientes de A de grado i; en particular, C1 (A) es lineal, Cm (A) es de grado m. ii) Ci (M AM −1 ) = Ci (A) para i = 1, . . . , m y M ∈ GL(m, K). m X es la traza de A denotada por tr(A). iii) C1 (A) = i=1
iv) Cm (A) = det(A). v) f, g ∈ End(V ) ⇒ Pf ◦g (x) = Pg◦f (x). vi) A, B ∈ Mm,m (K) ⇒ PAB (x) = PBA (x). vii) A, B ∈ Mm,m (K) ⇒ Ci (AB) = Ci (BA) i = 1, . . . , m. Demostraci´ on.- Ejercicio. Debe observarse que v), vi) y vii) son equivalentes. Ejemplo 7.- Consideremos el caso m = 2, A=
a11 a21
a12 a22
,
PA (x) = x2 − (a11 + a22 ) x + (a11 a22 − a12 a21 ) . | {z } | {z } C1 (A)
C2 (A)
86
III Formas Normales
III.2 Triangularizaci´ on y Diagonalizaci´ on
Sea A = (aij ) ∈ Mm,m (K), se dice que A es triangular superior si aij = 0 para i > j. a11 an1 a22 A= .. . 0 ann
Sea f ∈ End(V ). Se dice que f es triangularizable si existe una base de V respecto a la cual la matriz de f es triangular superior. Remarca.- Se A es la matriz respecto a {v1 , . . . , vm }, la matriz de f respecto a {vm , . . . , v1 } es amm · · · am1 . .. . A′ = .. . a1m · · · a11
Si A es triangular superior, A′ es triangular inferior o viceversa. Por consiguiente la definici´on de triangularizable puede remplazarse por inferior o superior. Sea A ∈ Mm,m (K). Se dice que A estriangularizable si existe M ∈ Gl(m, K) tal que M AM −1 sea triangular superior o inferior. Proposici´ on III.2.1.- Sea f ∈ End(V ), entonces f es triangularizable
el polinomio caracter´ıstico de f ⇐⇒ es producto de polinomios de grado 1.
Demostraci´ on.-⇒ B es triangularizable, existe M inversible tal que a11 an1 a22 M BM −1 = .. . 0 ann y por lo tanto PB (x) = PA (x) =
m Y
i=1
(x − a11 ).
⇐ por inducci´on sobre m. m = 1 nada que hacer. Supongamos cierta la proposici´ on para m − 1, con m > 1. Sea λ1 valor propio de f y v1 un vector propio asociado a λ1 , se tiene f (v1 ) = λ1 v1 y v1 6= 0. Se elige v2 , . . . , vm de manera que {v1 , . . . , vm } sea una base de V . La matriz de f respecto a {v1 , . . . , vm } es de la forma λ1 ∗ ∗ ∗∗ ; A= 0 A′
se tiene PA (x) = (x − λ1 )PA′ (x). Aplicando la hip´ otesis de inducci´on a A′ . Por consiguiente, existe M ′ ∈ Gl(m − 1, K) tal que M ′ AM ′−1 es triangular. Se tiene λ1 ∗ ∗ λ2 1 0 λ1 ∗ ∗ ∗∗ 1 0 = . ′−1 ′ ′ . 0 M 0 A 0 M . 0 λn
´ n y Diagonalizacio ´n III.2 Triangularizacio
87
Proposici´ on III.2.2.- Si K es algebraicamente cerrado, entonces todo endomorfismo es triangularizable. Ejemplo 1.- Una rotaci´on de R2 no es triangularizable. Definici´ on III.2.3.- f ∈ End(V ) es diagonalizable si existe una base {v1 , . . . , vm } de V respecto a la cual la matriz de f es una matriz diagonal. Dicho de otra manera: f es diagonalizable si existe una base de V formada de vectores propios de f . A ∈ Mm,m (K) es diagonalizable, si existe M ∈ Gl(m, K) tal que M AM −1 es una matriz diagonal. Ejemplo 0 1 2.- A = no es diagonalizable, sino existir´ıa una base v1 y v2 de K2 respecto a la cual, la matriz de 0 0 ρ(A) es la matriz nula, pero esto es imposible. Proposici´ on III.2.4.- Sea f ∈ End(V ). Entonces
Y (x − λj )mj 1) Pf = j=1,...,r X f es diagonalizable ⇐⇒ λ = 6 λ mj = m = dim V . i j para i 6= j y 1,...,r 2) dim ker(f − λj id) = mj para j = 1, . . . , r.
Demostraci´ on.- ⇒ Supongamos que existe una base {v1 , . . . , vm } con f (v1 ) = ai vi , por lo tanto Pf (x) =
m Y
(x − ai ) =
i=1
m Y
(x − λj )mj .
i=1
Si es necesario renumerar los vi , la matriz de f respecto a {vi } es diag(λ1 , . . . , λ1 , . . . , λr , . . . , λr ). | {z } | {z } m1
mr
Por lo tanto ker(f − λ1 id) admite como base {v1 , . . . , vm1 y as´ı sucesivamente. Se plantea Kj = ker(f − λj id). Por la proposici´ on III.1.6, los Kj son linealmente independientes y por el corolario III.1.7 ϕ K1 × K2 × · · · Kr −→ V (v1 , v2 , . . . , vr ) 7→ v1 + v2 + · · · + vr L es un isomorfismo, consiguientemente V = Kj . Sea Bj una base de KJ , de donde B = ∪rj=1 es una base de V.
La matriz de f respecto a B es diagonal.
88
III Formas Normales
III.3 Endomorfismos Normales de un Espacio Unitario
Recordemos que E es un espacio unitario de dimensi´on m sobre el cuerpo C, si est´ a provisto de un producto escalar herm´ıtico. E×E →C (x, y) 7→ hx, yi sesquilineal y definido positivo. As´ı mismo se dispone de una biyecci´on ϕ : E → E ∗ = Hom(E, C) y 7→ ϕ(y) : E → C x 7→ hx, yi. Esta aplicaci´ on es semilineal en el sentido que sigue ϕ(y1 + y2 ) = ϕ(y1 ) + ϕ(y2 ), ϕ(αy) = α ¯ ϕ(y). Sea a ∈ End(E). Porque ϕ es biyectiva, entonces existe una u ´nica aplicaci´ on a ˜ : E → E que vuelve el siguiente diagrama conmutativo a ←− E E 99K a ˜ ϕ↓ ↑ ϕ−1 −→ E∗ at E∗ es decir, a ˜ = ϕ−1 at ϕ. Proposici´ on III.3.1.- a ˜ es lineal y se llama la adjunta de a. Remarca.- No confundir con la matriz adjunta, diferente contexto. Demostraci´ on.- Por la adici´on no hay problema; en efecto, ϕ, at y ϕ−1 son isomorfismos de grupo para la adici´on. Para la multiplicaci´ on, tenemos ¯ ϕ−1 (at ϕ(x)) = α˜ a ˜(x) = ϕ−1 (at ϕ(αx)) = ϕ−1 (αa ¯ t ϕ(x)) = α a(x). Proposici´ on III.3.2.- Sea a ∈ End(E), para todo x, y ∈ E se tiene la siguiente f´ormula ha(x), yi = hx, a ˜(y)i. Es decir, el producto escalar de la imagen de x con y es el mismo que producto escalar de x con la imagen de la adjunta de y. Demostraci´ on.- Por definici´on de a ˜, se tiene at ◦ ϕ = ϕ ◦ a ˜. Por lo tanto: ha(x), yi = ϕ(y)(a(x)) = at ◦ ϕ(y)(x) = ϕ(˜ a(y))(x) = hx, a ˜(y)i.
89
III.3 Endomorfismos Normales de un Espacio Unitario
Proposici´ on III.3.3.- Sea {f1 , . . . , fm } una base ortonormal de E. Sea a ∈ End(E). Se denota A la matriz de a respecto a {f1 , . . . , fm }. Sea A˜ la matriz de a ˜ respecto a i = 1, . . . , m. Entonces A˜ = A¯t = At .
Demostraci´ on.- Sean x =
P
xi fi y y =
P
yj fj . Se tiene
ha(x), yi = ( x1
y¯1 · · · xm ) At ... . y¯m
hx, a ˜(y)i = ( x1
y¯1 ¯˜ .. . · · · xm ) A . y¯m
Tambi´en
Deducimos por consiguiente
¯˜ At = A. Proposici´ on III.3.4.- Sean a, b ∈ End(E). Entonces: g i) (ab) = ˜b˜ a; ˜˜ = a; ii) a ^ iii) (a + b) = a ˜ + ˜b; g = α˜ iv) (αa) ¯ a.
Demostraci´ on.- Consecuencia directa de A˜ = A¯t .
Definici´ on III.3.5.- Sea a ∈ End(E), se dice que a es autoadjunto si a = a ˜. Sea {f1 , . . . , fm } una base ortonormal de E. Sea a ∈ End(E) y A la matriz de a respecto a la base {fi }. Si a es un endomorfismo autoadjunto se tiene A = A˜ = A¯t lo que implica que A es una matriz herm´ıtica. Proposici´ on III.3.6.- Sea a ∈ End(E), {f1 , . . . , fm } una base ortonormal y A la matriz de a respecto a {f1 , . . . , fm }; entonces a es autoadjunto ⇐⇒ A ∈ Herm(m, C). Si a es un endomorfismo autoadjunto, se tiene ha(x), yi = hx, a(y)i, por lo tanto hx, a(x)i = ha(x), xi ∈ R. Se dice que a es positivo ai a es autoadjunto y si ha(x), xi ≥ 0,
∀x ∈ E.
90
III Formas Normales
Se dice que a es antiautoadjunto si −a = a ˜ y en forma matricial si la matriz de a respecto a una base ortonormal verifica A¯t = −A.
Se dice que a es unitario si a˜ a = id o a ˜ = a−1 . En forma matricial AA¯t = I, A es unitaria. Se dice que a es normal si a˜ a=a ˜a y A es una matriz normal si AA¯t = A¯t A. En este paragrafo el resultado principal es: a es un endomorfismo normal, si y solamente si existe una base ortonormal de E formada de vectores propios de a. Caso Particular Consideremos el caso en que E es de dimensi´on igual a 1. En este caso E = C. Tenemos por lo tanto hz, wi = z w. ¯ Puesto que dim End(C) = 1, se puede decir que End(C) = C. El endomorfismo adjunto de a es a ¯. Las definiciones dadas m´as arriba tendr´an las siguientes equivalencias: a es autoadjunto ⇐⇒ a ∈ R. es positivo ⇐⇒ a ∈ R y a > 0. antiautoadjunto ⇐⇒ a ∈ iR. unitario ⇐⇒ |a| = 1. Todo endomorfismo a es normal, en efecto a¯ a=a ¯a. Caso General Volvamos al caso general donde E es un espacio unitario de dimensi´on finita. Remarcas 1.- El conjunto H = {a ∈ End(E)|a = a ˜} es un subespacio real de End(E), es decir a, b ∈ H ⇒ αa + βb ∈ H, ∀α, β ∈ R. 2.- En conjunto de los endomorfismos positivos de E es un cono convexo de H. Se dice que un subconjunto C de H es un cono convexo si a, b ∈ C ⇒ αa + βb ∈ C, ∀α, β ≥ 0. 3.- {a ∈ End(E)| − a = a ˜} = iH = {ib|b ∈ H} es un subespacio real de End(E). Se tiene End(E) = H ⊕ iH suma directa de subespacios vectoriales reales. 4.- El conjunto de los endomorfirmos unitarioses un grupo para la composici´ on de aplicaciones, se lo denota U(E). Proposici´ on III.3.7.- Sean a, b ∈ H, entonces ab ∈ H ⇐⇒ ab = ba. Demostraci´ on.- ⇒ ab ∈ H, se tiene ⇐ Se supone ab = ba, entonces
e = ˜b˜ ab = ab a = ba. e = ˜b˜ ab a = ba = ab.
III.3 Endomorfismos Normales de un Espacio Unitario
91
Proposici´ on III.3.8.- Sea F un subespacio de E invariante por a. Entonces F ⊥ = {x ∈ E|hx, yi = 0 ∀y ∈ F } es invariante por a ˜. Demostraci´ on.- Sea x ∈ F ⊥ e y ∈ F , se tiene h˜ a(x), yi = hx, a ˜(y)i = 0.
Proposici´ on III.3.9.- Sea V un espacio vectorial sobre un cuerpo K algebraicamente cerrado. Sean ϕ, ψ ∈ End(V ) tales que ϕψ = ψϕ. Entonces existe un vector propio com´ un a ϕ y ψ. Demostraci´ on.- Sea λ valor propio de ϕ. Esto significa que W = ker(ϕ − λid) 6= {0}. Se observa que W es invariante por ψ. En efecto, ψ(w) ∈ W ⇐⇒ ϕ(ψ(w)) = λ(ψ(w)). Esto sucede por que ϕ(ψ(w)) = ψ(ϕ(w)) = ψ(λw) = λψ(w). Por que K es algebraicamente cerrado, el endomorfismo ψ|W de W posee un vector propio, es decir existe v ∈ W con ψ(v) = µv. Por otro lado, por definici´on de W , se tiene ϕ(v) = λv. Proposici´ on III.3.10.- Se tiene: i) a ∈ End(E) es normal ⇐⇒ existe una base ortonormal de E dada de vectores propios de a. ii) Sea {f1 , . . . , fm } una base ortonormal de E tal que a(fj ) = λj fj , λj ∈ C. Entonces 1) 2) 3)
¯ j fj ; a ˜(fj ) = λ a es autoadjunto ⇐⇒ λj ∈ R; a es positivo ⇐⇒ λj ∈ R y λj > 0; a es antiautoadjunto ⇐⇒ λj ∈ iR; 4) a es unitario ⇐⇒ |λj | = 1.5)
Demostraci´ on.- i) ⇐ Sea {f1 , . . . , fm } una base ortonormal formada de vectores propios para a. Se tiene a(fj ) = λj fj . La matriz A de a respecto a esta base es diag(λ1 , . . . , λm ). ¯1, . . . , λ ¯ m ). La matriz A˜ de a ˜ respecto a esta base es diag(λ ˜ ˜ Se tiene AA = AA, es decir a˜ a=a ˜a, a es normal. Observar que ii) 1) ha sido demostrado. ⇒ Se demuestra por inducci´on sobre m = dim E que existe una base ortonormal de E formada de vectores propios comunes a a y a ˜. Para m = 1, trivial. Suponemos cierto para dimE < m. Por la proposicion III.3.9 existe f1 ∈ E con hf1 , f1 i = 1 y f1 vector propio de a y a ˜. Se denota F1 el espacio engendrado por f1 . Por la proposicion III.3.8, se tiene a(F1 ) ⊂ F1 → a ˜(F1⊥ ) ⊂ F1⊥
a ˜(F1 ) ⊂ F1 → a(F1⊥ ) ⊂ F1⊥
˜. lo que implica que F1⊥ es invariante por a y a
92
III Formas Normales
Por hip´otesis de inducci´on, existe una base ortonormal {f2 , . . . , fm } de F1⊥ , de vectores propios de a y a ˜. Entonces {f1 , f2 , . . . , fm } es una base ortonormal de E formada de vectores propios para a y a ˜. ii) 2,3,4 ejercicio. Corolario III.3.11.- Sea A ∈ Mm,m (C) una matriz normal, respectivamente unitaria, herm´ıtica, antiherm´ıtica, positiva. Entonces existe U ∈ U(m, C) tal que U AU −1 = diag(λ1 , . . . , λm ) donde λj ∈ C, respectivamente |λj | = 1, λj ∈ R, λj ∈ iR, λj ≥ 0.
Demostraci´ on.- Se interpreta A como la matriz de un endomorfismo normal de Cm , la proposici´ on III.3.10 indica que existe una base ortonormal {f1 , . . . , fm } de Cm formada de vectores propios de A. Se introduce la matriz de pasaje U de {e1 , . . . , em } a {f1 , . . . , fm }, entonces U ∈ U(m, C) y U AU −1 = diag(λ1 , . . . , λm )
Dos Aplicaciones a las Matrices a Coeficientes Reales Proposici´ on III.3.12.- Sea A ∈ Mm,m (R) una matriz sim´etrica. Los valores propios de A son reales. Adem´ as existe Q ∈ O(m, R) tal que QAQt = diag(λ1 , . . . , λm ).
Demostraci´ on.- Se tiene Mm,m (R) ⊂ Mm,m (C), A es por consiguiente herm´ıtica. Por el corolario precedente, los valores propios de A son reales. As´ı mismo A es diagonalizable en Mm,m (C). M Se tiene que C = ker(A − λI), suma sobre los diferentes subespacios propios. Afirmamos que para la λ
estructura estandar de espacio unitario los subespacios Vλ son ortogonales dos a dos, donde Vλ = ker(A−λI). En efecto, se tiene λhvλ , vµ i = hλvλ , vµ i = hAvλ , vµ i = hvλ , Avµ i = µ ¯hvλ , vµ i = µhvλ , vµ i. de donde hvλ , vµ i = 0 si λ 6= µ. Sea w = (w1 , . . . , wm ) ∈ Cm , se plantea w ¯ = (w ¯1 , . . . , w ¯m ). Sea W ⊂ Cm un subespacio vectorial, se ¯ plante W = {w|w ¯ ∈ W }. ¯ , existe una base ortonormal de W compuesta de elementos de Rm ⊂ Cm . Ejercicio.- Si W = W Se tiene Vλ = V¯λ . En efecto v ∈ Vλ ⇐⇒ Av = λv ⇐⇒ Av = λv ⇐⇒ A¯ v = λ¯ v ⇐⇒ v¯ ∈ Vλ . Utilizando el ejercicio, se elige una base ortonormal de Vλ constituida de elementos de Rm que la denotamos Bλ . Planteamos B = ∪Bλ , B es una base ortonormal de Cm formada de elementos de Rm , por consiguiente B tambi´en es una base ortonormal de Rm formada de vectores propios de A. Se introduce Q la matriz de pasaje de la base can´ onica a B. Se tiene QAQt = diag(λ1 , . . . , λm ).
Ejercicio.-Estudiar en R2 la ecuaci´on ax2 + 2bxy + cy 2 = 1.
III.3 Endomorfismos Normales de un Espacio Unitario
93
Sea E = Rm , el espacio euclidiano estandar. Sea ϕ ∈ O(E). Entonces existe una base ortonormal de E respecto a la cual la matriz de ϕ es de la forma cos α − sin α 0 ··· 0 sin α cos α cos β − sin β 0 sin β cos β .. . Θ= cos ω − sin ω 0 · · · 0 sin ω cos ω ±1 .. . ±1 La versi´on matricial: Sea Φ ∈ O(m, R), entonces existe Q ∈ O(m, R) tal que QΦQt = Θ.
Demostraci´ on.- Consideremos el diagrama siguiente
E = Rm ϕ y
Rm
֒→
Cm ϕC y
֒→ CM
Sea Φ la matriz de ϕ respecto a la base can´ onica. ϕC la aplicaci´ on lineal de Φ respecto a la base can´ onica. Por consiguiente ϕC es una transformaci´ on unitaria de Cm . Dicho de otra manera Φ ∈ O(m, R) ⊂ U(m, C). Por la proposici´ on III.3.10 ϕC es diagonalizable y sus valores propios son m´odulo igual a 1. Por consiguiente M Cm = Kλ Kλ = ker(ϕC − λid). Se observa que los Kλ son ortogonales dos a dos; en efecto
λhvλ , vµ i = hϕC vλ , vµ i = hvλ , ϕ˜C vµ i = vλ , ϕ−1 ¯−1 hvλ , vµ i = µhvλ , vµ i = 0. C vµ = µ
lo que implica que vλ ⊥ vµ si λ 6= µ. ¯ λ = Kλ¯ . Verificar como ejercicio. Se observa que K ¯λ = K ¯ λ¯ = Kλ , por lo tanto exist una Ahora bien, si λ ∈ R, se tiene que λ = 1 o λ = −1, por lo tanto K base Bλ de Kλ ortogonal y formada de elementos de Rm . Si λ 6∈ R, se considera Kλ ⊕ Kλ¯ = Kλ ⊕ Kλ¯ .
Sea {v1 , . . . , vmλ } una base ortonormal de Kλ , entonces {¯ v1 , . . . , v¯mλ } es una base ortonormal de Kλ¯ . Mostrar esta afirmaci´on como ejercicio. Se plantea: 1 b2j−1 = √ (vj + v¯j ) ∈ Rm , j = 1, . . . , mλ ; 2 1 b2j = √ i(vj − v¯j ) ∈ Rm m, j = 1, . . . , mλ . 2 Ahora bien {b1 , . . . , b2mλ } = Bλ es una base ortonormal de Kλ ⊕ Kλ¯ formada de vectores de Rm . La verificaci´ on de esta afirmaci´on la dejamos como ejercicio. Se considera B = ∪Bλ es una base ortonormal de Cm formada de elementos de Rm , entonces base de Rm . El ultimo paso es verificar que la matriz de ϕC es de la forma de Φ.
94
III Formas Normales
III.4 Descomposici´ on Can´ onica
Definici´ on III.4.1.- Se dice que g ∈ End(V ) es nilpotente, si existe n > 0 tal que g n = 0. Proposici´ on III.4.2.- Sea f ∈ End(V ). Entonces existe una u ´nica descomposici´ on V = N ⊕ R tal que a) f (N ) ⊂ N y f|N es nilpotente. b) f (R) ⊂ R y f|R es inversible. Demostraci´ on.- Para la existencia, se considera la sucesi´on {0} ⊂ ker(f ) ⊂ ker(f 2 ) ⊂ · · · ⊂ ker(f n ) ⊂ ker(f n+1 ) ⊂ · · · . Se observa que si ker(f n ) = ker(f n+1 ), entonces ker(f n ) = ker(f n+p ) para p > 0. En efecto, sea x ∈ ker(f n+p ), se tiene f n+p (x) = 0 y f n+1 (f p−1 (x)) = 0 ⇒ f p−1 (x) ∈ ker(f n+1 ) = ker(f n ), de donde f n+p−1 (x) = 0 ⇒ x ∈ ker(f n+p−1 ), iterando las veces que sea necesario obtenemos x ∈ ker(f n ). Tambi´en se puede observar que existe q > 0 tal que {0} & ker(f ) & · · · & ker(f q ) = ker(f p+q ). Se plantea
N = ker(f q ), R = Im(f q ).
Estos dos subespacios verifican las condiciones a) y b) y V = N ⊕ R. Se tiene N ∩ R = {0}, sea x ∈ N ∩ R ,se tiene f q (x) = 0 y x = f q (y) para cierto y ∈ V . As´ı q f (x) = f 2q (y), se tiene y ∈ ker(f 2q ) = ker(f q ). Se tiene V = N + R, esto sigue de la f´ormula de dimensi´on para aplicaciones lineales dim V = dim ker(f q ) + dim Im(f q ). La condici´ on a) se verifica porque f (ker(f q )) ⊂ ker(f q ) y (f| ker(f q ) )q = 0. f| ker(f q ) es nilpotente. La condici´ on b) se cumple, por que f (Im(f q )) ⊂ Im(f q ). Se tiene fIm(f q ) es inversible, es suficiente ver que ker(f ) ∩ R = {0}, en efecto se tiene ker(f ) ∩ R ⊂ N ∩ R = {0}.
Unicidad. Se supone que V = ker(f q ) ⊕ Im(f q ) = N ′ ⊕ R′ con N ′ y R′ que verifican las condiciones a) y b). q q Se tiene f|N ′ nilpotente, N ′ ⊂ ker(f|N ′ ⊂ ker(f ) = N . q f|R′ inversible, entonces f|R′ inversible, entonces R′ ⊂ Im(f q ) = R. Por que V = N ⊕ R = N ′ ⊕ R′ , se tiene necesariamente N ′ = N y R′ = R.
´ n Cano ´ nica III.4 Descomposicio
95
Ejercicio.- Mostrar que si g ∈ End(V ) es nilpotente, entonces Pg (x) = xdim V .
Teorema III.4.3.- Se supone K algebraicamente cerrado. Sea f ∈ End(V ). Pf (x) =
p Y
(x − λj )mj
j=1
con λi 6= λj para i 6= j y
P
mj = m. Se tiene entonces V =
p M
ker((f − λj id)mj ) . | {z } j=1 Vj
Es la descomposicion can´ onica de V en subespacios invariantes de f . Ademas dim Vj = mj , (f − λj id)|Vj es nilpotente y Pf|Vj (x) = (x − λj )mj .
Demostraci´ on.- Sea λ1 un valor propio de f , sea m1 la multiplicidad algebraica de este valor propio. Se aplica la proposici´ on III.4.2 al endomorfismo f1 = f − λ1 id, entonces se tiene V = N1 ⊕ R1 , con a) f1 (N1 ) ⊂ N1 y f1 |N1 nilpotente, b) f1 (R1 ) ⊂ R1 y f1 |R1 inversible. Deducimos por consiguiente que f (N1 ) ⊂ N y f (R1 ) ⊂ R1 . Ahora bien, se tiene Pf1 (x) = det(x id − f1 ) = det(x id − f + λ1 id) = det((x + λ1 )id − f ) = Pf (x + λ1 ).
De donde Pf1 (x) = xm1
Y
(x + λ1 − λj )mj ,
j≥2
aplicando el ejercicio anterior al teorema y denotando n1 = dim N1 , se tiene Pf1 |N1 (x) = xn1 , por lo tanto n1 = m1 y Pf|R1 (x) =
Y
(x − λj )mj .
j≥2
El siguiente paso es mostrar que N1 = ker(f1m1 ). Se tiene {0} & ker(f ) & · · · & ker(f q ) = ker(f p+q ) = N1 . Observamos inmediatamente que q ≤ m1 , por consiguiente V = ker(f − λ1 id)m1 ⊕R1 , | {z } V1
con f (R1 ) ⊂ R1 , dim V1 = m1 , Pf|V1 (x) = (x − λ1 )m1 y f|V1 nilpotente. Se recomienza el razonamiento con R1 . Ejemplo 1.- Consideremos la situaci´on en que dim V = 2. Se tiene dos casos: i) Pf (x) = (x − λ1 )(x − λ2 ) con λ1 6= λ2 . Se tiene V = ker(f − λ1 id) ⊕ ker(f − λ2 id)
96
III Formas Normales y f es diagonalizable. ii) Pf (x) = (x − λ)2 , se tiene
V = ker(f − λid)2 ,
lo que implica que f = |{z} λid + (f − λid) . | {z } homotecia
nilpotente
Conservando la notaci´on y las hip´ otesis del teorema, se introduce fd : ⊕Vj = V → V X X vj 7→ λj vj . vj ∈Vj
Dicho de otra manera fd (Vj ) ⊂ Vj y fd |Vj es una homotecia de razon λj . Por construcci´on fd es diagonalizable y adem´ as Y Pfd (x) = (x − λj )mj = Pf (x).
Se puede observar que V = ⊕Vj es la descomposici´ on de V en suma directa de subespacios propios para fd . Se plantea fn = f − dd . Proposici´ on III.4.4.- Mismas hip´ otesis y notaci´on del teorema III.4.3. Entonces se tiene: i) f = fd + fn donde fd es diagonalizable, fn es nilpotente y que satisfacen fn fd = fd fn . Adem´ as Pf (x) = ffd (x). ii) Si fd′ diagonalizable y fn′ nilpotente como en i), entonces fd′ = fd y fn′ = fn ¿ Demostraci´ on i) Se tiene f = fd + fn por definici´on. Sea vj ∈ Vj , entonces fd (vj ) = λj vj ∈ Vj . Ahora bien, fd (f (vj ) = λj f (vj ), | {z } ∈Vj
f (fd (vj )) = f (λvj ) = λj f (vj ),
de donde f fd = fd f , lo que un c´ alculo simple dar´a fn fd = fd fn . fd es diagonalizable por construcci´ on. Veamos que fn es nilpotente, sea vj ∈ Vj , se tiene fnmj (vj ) = (f − fd )mj (vj ) = (f − λj id)mj (vj ) = 0, porque Vj = ker(f − λj id)mj . Sea M = max{mj }, entonces se tiene X X vj ) = fnM (vj ) = 0 fnM ( y fn es nilpotente. Pf = Pfd por construcci´ on. ii) Sean fd′ diagonalizable y fn′ nilpotentes, tales que f = fd′ + fn′ , Por el teorema III.4.3 aplicado a fd′ , se tiene que Y M (x − λ′j )nj , V = Vj′ , Pfd′ (x) =
fd′ fn′ = fn′ fd′ .
Vj′ = ker(fd′ − λ′j id)nj y fd′ (Vj′ ) ⊂ Vj′ .
Deber observarse que Vj′ = ker(fd′ − λ′j id) por que fd′ es diagonalizable. Mostremos que fn′ (Vj ) ⊂ Vj ; en efecto, se tiene vj′ ∈ Vj ⇐⇒ fd′ (vj ) = λ′j (vj′ ). Ahora bien fn′ (fd′ − λ′j id)(vj′ ) = fn′ fd′ (vj ) − λ′j fn′ (vj′ ) = 0, ⇒ fd′ (fn′ ) = λ′j fn (vj′ ).
´ n Cano ´ nica III.4 Descomposicio
97
De la misma manera se muestra que f (Vj′ ) ⊂ Vj′ . Utilizando la proposici´ on III.3.9 para f , fn′ y fd′ restringidos ′ ′ en Vj , deducimos que λj = λk , para alg´ un k, la verificaci´ on la dejamos como un simple ejercicio. En resumen todo valor propio de fd′ es valor propio de f . El siguiente paso es mostrar que fn′ (Vj ) ⊂ Vj , para todo j. Se tiene que fn′ (vj ) = (fn + fd − fd′ )(vj ) = fn (vj ) + (λj − βj )vj ∈ Vj , por que vj ∈ Vk′ para alg´ un k. Adem´ as fd (fn′ (vj )) = λj fn′ (vj ) = fn′ (λj vj ) = fn′ (fd (vj )), de donde fd fn′ = fn′ fd sobre Vj y por consiguiente sobre V . Por simples c´ alculos es facil ver tambi´en que fn′ fn = fn fn′ . Ejercicio.-Mostrar que fn − fn′ es nilpotente. Por u ´ltimo mostremos que fd′ = fd , sea 0 6= v ∈ V , αv = fd (v) = fd′ (v) + (fn′ − fn )(v) = βv + (fn′ − fn )(v), de donde v es vector propio de fn′ − fn y como este endomorfismo es nilpotente deducimos que fn′ (v) = fn (v) y fd′ (v) = fd (v).
98
III Formas Normales
III.5 Teorema de Hamilton Cayley
Teorema III.5.1.- Hamilton-Cayley. Se tiene: i) Sea f ∈ End(V ), entonces Pf (f ) = 0. ii) Sea A ∈ Mm,m (K), entonces PA (A) = 0. Demostraci´ on.- Debe constatarse que i) y ii) son enunciados equivalentes. Como preliminar a la de¯ algebraicamente cerrado. Por mostraci´ on debe recordarse que todo cuerpo K es subcuerpo de un cuerpo K ejemplo R ⊂ C. La demostraci´ on se la realiza en dos etapas. 1.-K cuerpo de base arbitrario. Ejercicios de la Pr´actica. 2.-K cuerpo de base algebraicamente cerrado. Se tiene por consiguiente Y M Pf (x) = (x − λj )mj , V = Vj , donde Vj = ker(f − λj id)mj . Se tiene
Pf (f ) =
Y (f − λj id)mj , j
producto en cualquier orden. Sea vk ∈ Vk , se tiene por consiguiente Y Y Pf (f )(vk ) = Pf (f ) = (f − λj id)mj (vk ) = (f − λj id)mj (f − λk id)mk (vk ) . | {z } j6=k
j
=0
De donde Pf (f ) = 0.
Consideremos la aplicaci´ on
ϕf K[x] → End(V ) P 7→ P (f )
Se puede ver que ϕf es un homorfismo de espacios vectoriales y de anillos. Si la dimensi´on de V es m, se tiene dim End(V ) = m2 y por otro lado dim K[x] es infinita. Por lo tanto ϕf no es inyectiva, lo que significa que ker ϕf 6= {0}. Como ϕf es un homomorfismo de anillos, se tiene que ker ϕf es un ideal, resultado que ser´ a visto en otro curso. El teorema de Hamilton Cayley afirma que Pf ∈ ker ϕf y se mostrar´ a en otro curso de Algebra que ker ϕf = Mf K[x] = {Mf P |P ∈ K[x]}. Mf es un polinomio de coeficiente dominante 1 y se conoce como el polinomio minimal de f ∈ End(V ). Por consiguiente se tiene que Mf divide Pf . Ejemplos 1.- Sea A=
a11 a21
a12 a22
,
el polinomio caracter´ıstico de A est´ a dado por PA (x) = x2 − (a11 + a22 )x + (a11 a22 − a12 a21 ), de donde PA (A) = A2 − (a11 + a22 )A + (a11 a22 − a12 a21 )I =
0 0 0 0
.
99
III.5 Teorema de Hamilton Cayley
2.- Sea A ∈ Mm,m (K). Se pide calcular A100 . Sea PA el polinomio caracter´ıstico de A, este polinomio es de grado m. Efectuando la divisi´on con resto, se tiene x100 = PA (x)Q(x) + RA (x), donde el grado de RA (x) es menor a m. Remplazando A en los polinomios, se obtiene A100 = PA (A) Q(A) + R(A). | {z } =0
El c´ alculo de A100 se lleva al c´ alculo de RA (A). Consideremos el caso en que PA (x) tiene raices simples, entonces A es diagonalizable, por lo tanto existe M ∈ Gl(m, K) tal que M AM −1 = diag(λ1 , . . . , λm ), 100 M A100 M −1 = diag(λ100 1 , . . . , λm ).
Entonces RA (λi ) = λ100 i . En efecto (x100 − RA )(λi ) = 0,
i = 1, . . . , m.
Por lo tanto x100 − RA es divisible por (x − λ1 ) · · · (x − λm ). Veamos esto num´ericamente, sea 1 1 A= 1 0 la matriz de la serie de Fibonacci. Se tiene √ √ 1+ 5 1− 5 PA (x) = x − x − 1 = (x − λ1 )(x − λ2 ), con λ1 = , λ2 = , 2 2 2
de donde RA (x) = por lo tanto
1 A100 = √ λ100 1 5
λ100 λ100 2 1 (x − λ2 ) + (λ1 − x), λ1 − λ2 λ1 − λ2
1 − λ2 1
1 −λ2
λ1 − 1 −1 . −1 + λ100 2 λ1
100
III Formas Normales
III.6 Endomorfismos Nilpotentes
Se dice que g ∈ End(V ) es nilpotente, si existe n > 0 tal que g n = 0. Resultado Principal.- Existe una base de normal de Jordan siguiente 0 ν1 0 ν2 .. .
V respecto a la cual la matriz de g nilpotente, tiene la forma
..
.
0
νn−1 0
con νi = 0 o νi = 1.
Se dice que A ∈ Mm,m (K) es nilpotente si existe n > 0, tal que An = 0. Resultado.- Existe M ∈ Gl(m, K) tal que M AM −1 es de la forma normal.
Definici´ on III.6.1.- Sea g ∈ End(V ) nilpotente, el entero m´as peque˜ no q > 0 tal que g q = 0 se llama ´ındice de g. Proposici´ on III.6.2.- Sea g nilpotente de ´ındice q. Sea v1 ∈ V tal que g q−1 (v1 ) 6= 0; entonces: i) los vectores v1 , g(v1 ), . . . , g q−1 (v1 ) son linealmente independientes. Se denota V1 el subespacio de V engendrado por {v1 , g(v1 ), . . . , g q−1 (v1 )}. Se tiene g(V1 ) ⊂ V1 . ii) Existe un subespacio W de V tal que a) V = V1 ⊕ W , b) g(W ) ⊂ W . Si se toma como base de V {v1 , g(v1 ), . . . , g q−1 (v1 ), w1 , . . . , wp } la matriz de g respecto a esta base es | {z } | {z } base de V1 base de W de la forma 0 1 .. .. 0 . . . 0 0 ∗
Demostraci´ on.- i) Por el absurdo, suponemos que {v1 , g(v1 ), . . . , g q−1 (v1 )} es una familia linealmente dependiente, por consiguiente existen αi ∈ K no todos nulos tales que q−1 X
αi g i (v1 ) = 0,
i=0
se denota p el ´ındice m´as peque˜ no tal que αp 6= 0. Se tiene X αi X αi g p (vi ) = − g i (v1 ) = g p+1 − g i−p−1 (v1 ) = g p+1 (w). α α p p i>p i>p {z } | w
Entonces
g q−1 (v1 ) = g q−p−1 (g p (v1 )) = g q−p−1 (g p+1 (w)) = 0.
Lo que contradice con la hip´ otesis que g q−1 (v1 ) = 0. Por consiguiente q−1 {v1 , g(v1 ), . . . , g (v1 )} es linealmente independiente.P Mostremos que g(V1 ) ⊂ V1 , sea w ∈ V1 , se tiene w = αi g i (v1 ) y X g(w) = αi g i+1 (vi ) ∈ V1 ⇒ g(V1 ) ⊂ V1 .
101
III.6 Endomorfismos Nilpotentes
ii) Se mostrar´ a por inducci´on sobre el ´ındice q de g la existencia de un suplementario W de V1 que es estable por g. Si q = 1, entonces g = 0 y no hay nada que hacer. Se supone cierta la aserci´ on para los endomorfismos nilpotentes de ´ındice < q. Se introduce R = Im(g) ⊂ V , R es un subespacio de V y se tiene que g(R) ⊂ R y el ´ındice de g|R es q − 1. La verificaci´ on de que el ´ındice de g|R la dejamos como ejercicio. Se puede aplicar la hip´ otesis de inducci´on a R, g|R , g(v1 ) y R1 , donde R1 es el subespacio de R engendrado por {g(v1 ), . . . , g q−1 (v1 )}. Entonces existe un subespacio S de R tal que R = R1 ⊕ S y g(S) ⊂ S. Via V → R = Img v 7→ g(v) se introduce S ′ = {v ∈ V |g(v) ∈ S}. Afirmamos que V = V1 + S ′ . En efecto, sea v ∈ V , se escribe g(v) = r1 + s, existe x1 ∈ V1 tal que g(x1 ) = r1 . Ahora bien g(v − x1 ) = g(v) − g(s1 ) = s ∈ S, por lo tanto v − x1 ∈ S ′ y m´as todav´ıa v = x1 + s′ con x1 ∈ V1 y s′ ∈ S ′ . Observamos que g(S ′ ) ⊂ S ′ , en efecto, sea s′ ∈ S ′ g(s′ ) ∈ S ′ ⇐⇒ g(g(s′ )) ∈ S, esto es cierto por que g(S) ⊂ S por hip´ otesis de inducci´on. V1 ∩ S ′ 6= {0}. En realidad V1 ∩ S ′ es de dimensi´on 1 engendrado por g p−1 (v1 ). En efecto, 0 6= g p−1 (v1 ) ∈ V1 por definici´on, 0 6= g p−1 (v1 ) ∈ S ′ por que g(g p−1 (v1 )) = 0 ∈ S. Rec´ıprocamente, sea v ∈ V1 ∩ S ′ , se tiene ) g(v) ∈ V1 ∩ Im(g) = R1 ⇒ g(v) ∈ S ∩ R1 = {0}; g(v) ∈ S g(v) = 0, de donde v ∈ V1 ∩ ker(g). Se utiliza finalmente que V1 ∩ ker(g) es engendrado por g p−1 (v1 ). V1 ∩ S = {0}; en efecto V1 ∩ S = V1 ∩ (S ∩ R) = V1 ∩ R ∩ S = R1 ∩ S = {0}. Se considera por consiguiente el subespacio de S ′ dado por S ⊕ (S ′ ∩ V1 ), se elige un suplementario S ′ = S ⊕ (S ′ ∩ V1 ) ⊕ S ′′ , se plantea W = S ⊕ S ′′ . El subespacio W satisface las condiciones de la proposici´ on, es decir: a) g(W ) ⊂ W ; en efecto, w ∈ W , se tiene g(w) ∈ S ⊂ W . b) V1 ∩ W = {0}; en efecto, V1 ∩ W = V1 ∩ (W ∩ S ′ ) = (V1 ∩ S ′ ) ∩ W = {0}, por construcci´ on de W . c) V1 + W = V ; en efecto, V = V1 + S ′ = V1 + (W + V1 ∩ S ′ ) = V1 + W.
102
III Formas Normales
Sea g ∈ End(V ) un endomorfismo nilpotente. Se dice que un subespacio V1 de V es un subespacio c´ıclico respecto a g, si existe v1 ∈ V y n > 0 tal que v1 , g(v1 ), . . . , g n−1 (v1 ) es una base de V1 y g n (v1 ) = 0. En la proposici´ on precedente se ha mostrado la existencia de subespacios c´ıclicos. Teorema III.6.3.- Sea g ∈ End(V ) nilpotente. Entonces existe una descomposici´ on V =
k M
Vj ,
(III.6.1)
j=1
donde cada uno de los Vj es c´ıclico respecto a g. El entero k y los enteros qj = dim Vj dependen solamente de g y no as´ı de la descomposici´ on particular (III.6.1). Demostraci´ on.- Se elige v1 ∈ V como en la proposici´ on (III.6.2), despu´es V1 el subespacio engendrado por {v1 , g(v1 ), . . . , g q−1 (v1 )}. El subespacio V1 es c´ıclico respecto a g. Adem´ as existe una descomposici´ on V = V1 ⊕ W donde g(W ) ⊂ W . Se recomienza el razonamiento sobre W y se llega paso a paso a la existencia de la descomposici´ on (III.6.1). Mostremos la unicidad de k y los qj . Para un entero n, se plantea e(n) = #{j| dim Vj = n}. e(n) depende solamente de g y no de la descomposici´ on particular en subespacios c´ıclicos. En efecto la f´ormula e(n) = rang(g n−1 ) − 2rang(g n ) + rang(g n+1 )
depende solamente de g. Mostremos esta u ´ltima f´ormula. Consideremos Vj , la base es vj , g(vj ), . . . , g qj −1 (vj ) qj y g (vj ) = 0. Se tiene
entonces
rang(g|Vj ) = qj − 1 2 rang(g|V ) = qj − 2 ⇒ rang(g n ) = max{0, q − n}, j j |Vj .. . rang(g n ) =
k X
n rang(g|V ). j
j=1
Por lo tanto rang(g n−1 ) = e(n) + 2e(n + 1) + 3e(n + 2) + · · · + (l + 1)e(n + l) rang(g n ) = e(n + 1) + 2e(n + 2) + · · · + l e(n) n+1 rang(g )= e(n + 2) + · · · + (l − 1)e(n + l)
Proposici´ on III.6.4.- i) Sea g ∈ End(V ) un endomorfismo nilpotente. Entonces existe una base de V respecto a la cual la matriz es de la forma normal de Jordan 0 ν1 0 ν2 .. .. con νi = 0 o νi = 1. . . 0 ν n−1
0
103
III.6 Endomorfismos Nilpotentes
ii) Sea A ∈ Mm,m (K) nilpotente. Entonces existe M ∈ Gl(m, K) tal que M AM −1 sea de la forma de Jordan. Demostraci´ on.- Se recuerda el teorema precedente. Existe V =
k M
Vj
j=1
donde los Vj son c´ıclicos respecto a g. Es decir existe vj ∈ Vj tal que {vj , g(vj ), . . . , g qj −1 (vj )} es una base de Vj y g qj (vj ) = 0, con qj = dim Vj . Se toma por base de Vj , Bj = {g qj −1 (vj ), . . . , g(vj ), vj }, la matriz de g|Vj respecto a Bj es
0
1 .. .
..
. 0
La descomposici´ on V =
. 1 0
Juntando los Bj se obtiene la base buscada. k M
Vj respecto a g no es u ´nica, pero si son enteramente determinados por g los
j=1
enteros k y qj . Se llama partici´ on del entero m ≥ 1, una descomposici´ on de m en m = q1 + q2 + · · · + qk , con q1 ≥ q2 ≥ · · · ≥ qk > 0. Ejemplo 1.- Las particiones del entero 4 son: 4 = 4, 4 = 3 + 1, 4 = 2 + 2, 4 = 2 + 1 + 1, 4 = 1 + 1 + 1 + 1; en total 5 particiones de 4. A g ∈ End(V ) nilpotente se le asocia la partici´on m=
k X
qj .
j=1
Proposici´ on III.6.5.- Sean g, g ′ ∈ End(V ) nilpotentes. Entonces ′ g y g ′ son conjugados ⇐⇒ las particiones asociadas a g y g son las mismas.
Demostraci´ on.- ⇒ Por hip´ otesis, existe un automorfismo h de V , h ∈ Gl(V ), tal que g ′ = hgh−1 . Se toma una descomposici´ on en espacios c´ıclicos respecto a g V = ⊕Vj . Afirmamos que V = ⊕h(Vj ) es una descomposici´ on en subespacios c´ıclicos respecto a g ′ , con lo que la primera implicaci´ on estar´ıa demostrada. En efecto, por hip´otesis existe vj ∈ Vj tal que {vj , g(vj ), . . . , g qj −1 (vj )} es base de Vj ,
g qj (vj ) = 0, qj = dim Vj .
104
III Formas Normales
Una simple verificaci´ on dar´ a {h(vj ), g ′ (h(vj )), . . . , g ′
qj −1
q
g ′ j (h(vj )) = 0, qj = dim h(Vj ).
(h(vj ))} es base de h(Vj ),
⇐ Se supone que las particiones son las mismas; es decir: k M V = Vj descomposic´on en subespacios c´ıclicos respecto a g, j=1
V =
k M
Vj′ descomposic´on en subespacios c´ıclicos respecto a g ′ ,
j=1
con la condici´ on dim Vj = dim Vj′ . Consideremos. vj ∈ Vj tal que vj′ ∈ Vj′ tal que
(
{vj , g(vj ), . . . , g qj −1 (vj )} es base de Vj ,
(
g qj (vj ) = 0;
{vj′ , g ′ (vj′ ), . . . , g ′
qj −1
(vj′ )} es base de Vj′ ,
q
g ′ j (vj′ ) = 0.
Se plantea h : V → V la aplicaci´ on lineal definida por l
g l vj 7→ g ′ (vj′ ),
0 ≤ l ≤ qj − 1, j = 1, . . . , k.
Esta aplicaci´ on es un isomorfismo por que env´ıa base sobre base. Afirmamos que hgh−1 = g ′ , con lo que la proposici´ on estar´ıa demostrada. En efecto, para verificar que 2 aplicaciones lineales coinciden, es suficiente verificar que coinciden sobre los elementos de una base; l
hgh−1 (g ′ (vj′ )) = hgg l (vj ) = hg l+1 (vj ) = g ′
l+1
l
= g ′ (g ′ (vj′ )).
Corolario III.6.6.- Existe un n´ umero finito de clases de conjugaci´on de endomorfismos (de matrices) nilpotentes. Este n´ umro es igual al n´ umero de particiones del entero m = dim V . Demostraci´ on.- Consecuencia de la proposici´ on III.6.5, se ha obtenido una aplicaci´ on inyectiva clases de conjugaci´on de matrices (en- → {particiones de m} . domorfismos) nilpotentes m × m Esta aplicaci´ on tambi´en es sobreyectiva. En efecto, sea m = q1 + q2 + · · · + qk una partici´on de m. Se plantea
z
0 A=
q1
}|
1
..
.
..
{
.
0
z
0
q2
}|
1
..
.
..
{
.
0
..
. z
0
∈ Mm,m (K); qk }| { 1 .. .. . . 0
105
III.6 Endomorfismos Nilpotentes sea {e1 , . . . , em } la base can´ onica de Km . Se tiene Km =
V1 |{z}
dim V1 =q1
⊕···⊕
Vk |{z}
dim Vk =qk
con {e1 , . . . , eq1 } base de V1 , {eq1 +1 , . . . , eq1 +q2 } base de V2 , etc. Esta es una descomposici´ on en subespacios c´ıclicos respecto a A. En efecto A(eq1 ) = eq1 −1 , A2 (eq1 ) = eq1 −2 , etc. Ejemplo 2.- Las matrices nilpotentes de 4 × 4 son conjugadas a una de las siguientes matrices de Jordan
0 0 0 0 0 0 0 0
1 0 0 0 1 0 0 0
0 1 0 0 0 0 0 0
0 0 , 1 0 0 0 , 1 0
0 0 0 0 0 0 0 0
1 0 0 0 1 0 0 0
0 1 0 0 0 0 0 0
0 0 , 0 0 0 0 , 0 0
106
III Formas Normales
III.7 Descomposici´ on de Jordan
Se plantea
a
J(m, a) =
sc1
∈ Mm,m (K). 1
1
a
..
..
.
.
a
a
Una matriz de la forma normal de Jordan es J(m , a ) 0 1 1 0 J(m2 , a2 )
..
. J(mk , ak )
no es necesario que ai 6= aj si i 6= j.
Teorema III.7.1.- Jordan. Se supone K algebraicamente cerrado, por ejemplo K = C. Entonces: i) Sea f ∈ End(V), entonces existe una base de V respecto a la cual la matriz de f tiene la forma normal de Jordan. ii) Sea A ∈ Mm,m (K), entonces existe M ∈ Gl(m, K) tal que M AM −1 es de la forma de Jordan. r Y (x − λj )mj . Se plantea Vj = ker(f − λj id)mj . Se tiene Demostraci´ on.- Se escribe Pf (x) = j=1
V =
r M
Vj ,
j=1
descomposici´ on can´ onica en espacios invariantes respecto a f . Se introduce f = fd + fn , la descomposici´ on de Jordan de f , donde fd es diagonalizable, fd (Vj ) ⊂ Vj y fd |Vj = λj id; fn es nilpotente, fn (Vj ) ⊂ Vj y por lo tanto fn |Vj es nilpotente. Resultado del paragrafo precedente, existe una base Bj de Vj respecto a la cual la matriz de fn |Vj es de la forma 0 ν1 0 ν2 .. .. . . mj = dim Vj con νi = 0 o νi = 1. 0 νmj −1 0 La matriz de f|Vj = (fd + fn )|Vj respecto a Bj es
λj
ν1 0
ν2 .. .
..
. λj
νmj −1 λj
de tipo Jordan. Ensamblando y superponiendo las bases Bj , se obtiene una base B de V con la propiedad requerida.
´ n de Jordan III.7 Descomposicio
107
Proposici´ on III.7.2.- Sean J(m , a ) 1 1 0 J =
J(m′ , a′ ) 1
J′ =
0
1
0 J(m2 , a2 ) ..
. J(mp , ap )
0 J(m′2 , a′2 )
..
. J(m′q , a′q )
,
.
Entonces J y J ′ son conjugadas, si y solamente si p = q y existe una permutaci´on σ de {1, . . . , p} tal que mσ(i) = m′i ,
aσ(i) = a′i .
Ejemplos 1.- Si A = M JM −1 , entonces An = M J n M −1 . Te´ oricamente para calcular An es suficiente saber calcular la potencia de una matriz de Jordan. Se tiene J(m, a) = aI + N, y (J(m, a))n =
n X n i=1
0
i
ap−1 N i ,
con la convenci´on que N = I. Puede observarse que N p = 0 si p ≥ m. Por otro lado a cada potencia de N la subdiagonal de 1’s se desplaza a la derecha de una subdiagonal. 2.- Colocar A bajo la forma de Jordan, donde 0 1 0 A = 0 0 1. −1 1 1 Se tiene
PA (x) = (x − 1)2 (x + 1), por consiguiente C3 = ker(A + I) ⊕ ker(A − I)2 . | {z } | {z } V1
V2
Realizando c´ alculos elementales, se tiene que V1 =< {(1, 1, 1)} >,
V2 =< {(2, 1, 0), (−1, 0, 1)} > .
Elegimos v2 = (2, 1, 0), entonces (A − I)v2 = (−1, −1, −1). Por consiguiente, la matriz de Jordan conjugada a A es −1 0 0 J = 0 1 1 0 0 1
y si J = M −1 AM , se tiene
1 −1 2 M = 1 −1 1 . 1 0 −1