Algebra Lineal: Seymour Lipschutz

  • Uploaded by: deibidd
  • 0
  • 0
  • January 2021
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Algebra Lineal: Seymour Lipschutz as PDF for free.

More details

  • Words: 220,996
  • Pages: 562
Loading documents preview...
ALGEBRA LinEAL SEGUNDA EOICION

Seymour Lipschutz

'

ALGEBRA LINEAL Segunda edici6n

SEYMOUR LIPSCHUTZ, Ph. D. Temple University

Traducci6n: CELIA MARTINEZ ONTALBA Revision: LORENZO ABELLANAS Catedratico Metodos Matematicos de Ia Fisica Universidad Complutense de Madrid

McGraw-Hill MADRID • BUENOS AIRES • CARACAS • GUATEMALA • LISBOA • MEXICO NUEVA YORK • PANAMA • SAN JUAN • SANTAFE DE BOGOTA • SANTIAGO • SAO PAULO AUCKLAND • HAMBURGO • LONDRES • MILAN • MONTREAL • NUEVA DELHI • PARIS SAN FRANCISCO • SIDNEY • SINGAPUR • ST. LOUIS • TOKIO • TORONTO

ALGEBRA LINEAL. Segunda edicion

No esta permitida Ia reproduccion total o parcial de este libro, ni su tratamiento informatico, ni Ia transmisi6n de ninguna forma o por cualquier medio, ya sea electr6nico, mecanico, por fotocopia, por registro u otros metodos, sin el permiso previo y por escrito de los titulares del Copyright. DERECHOS RESER VADOS © 1991, respecto a Ia segunda edicion en espaiiol, por McGRA W-HILL/INTERAMERICANA DE ESPANA, S. A. Edificio Oasis-A, 1." planta Basauri, s/n 28023 Aravaca (Madrid) Traducido de Ia segunda edicion en ingles de LINEAR ALGEBRA

Copyright

© MCMXCI, por McGraw-Hill, Inc.

ISBN: 0-07-038007-4 ISBN: 84-7615-758-4 Deposito legal: M. 119 J 1993 Cubierta: Juan Garcia Compuesto e impreso en: Fernandez Ciudad, S. L. PRINTED IN SPAIN- IMPRESO EN ESPANA

Contenido --~------~----·~---------------------~--------·.-----~-----------------

Pr6logo ............ ..... .. .... .. .. . ... . ..... ..... . . . . . . . . . . . . . . . . . . .. . . . . . . .

1x

Capitulo 1.

SISTEMAS DE ECUACIONES LINEALES .. . .............. . .... . ..... . 1.1. Introduccion.- 1.2. Ecuaciones lineales. Soluciones.- 1.3. Ecuaciones lineales con dos incognitas.- 1.4. Sistemas de ecuaciones lineales. Sistemas equivalentes. Operaciones elementales.- 1.5. Sistemas en forma triangular y escalonada.- 1.6. Algoritmo de reduccion.- 1.7. Matrices.- 1.8. Equivalencia por lilas. Operaciones elementales entre lilas.- 1.9. Sistemas de ecuaciones lineales y matrices.- 1.10. Sistemas de ecuaciones · lineales homogeneos.

Cap_itulo 2.

VECTORES EN R" Y C". VECTORES ESPACIALES.. . . . . . . . . . . . . . . . . . . . . 2.1. Introduccion.- 2.2. Vectores en R".- 2.3. Suma de vectores y producto por un escalar.- 2.4. Vectores y ecuaciones lineales.- 2.5. Producto escalar.- 2.6. Norma de un vector.-2.7. Vectores localizados, hiperplanos y rectas en R".-2.8. Vectores espaciales. Notaci6n ijk en R3 .- 2.9. Numeros complejos.- 2.10. Vectores en C".

45

Capitulo 3.

MATRICES. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1. Jntroduccion.- 3.2. Matrices.-3.3. Suma de matrices y producto por un escalar.- 3.4. Producto de matrices.- 3.5. Traspuesta de una matriz.- 3.6. Matrices y sistemas de ecuaciones lineales.- 3.7. Matrices por b1oques.

87

Capitulo 4.

MATRICES CUADRADAS. MATRICES ELEMENTALES.......... . ....... 4.1. Introduccion.-4.2. Matrices cuadradas.-4.3. Diagonal y traza. Matriz identidad.-4.4. Potencias de matrices. Polinomios de matrices.-4.5. Matrices invertibles (no singulares).-4.6. Tipos especiales de matrices cuadradas.-4.7. Matrices complejas.-4.8. Matrices cuadradas por bloques.- 4.9. Matrices elementales. Aplicaciones. 4.10. Operaciones elementales entre columnas. Equivalencia de matrices.-4.1 1. Matrices simetricas congruentes. Ley de inercia.-4.12. Fo rmas cuadniticas.-4. 13. Similaridad.-4. 14. Factorizacion LU.

105

Capitulo 5.

ESPACIOS VECTORIALES . . ....... . .. ..... ... . . . .. . .. ...... . . . . . . . 5.1. Introduccion.-5.2. Espacios vectoriales.-5.3. Ejemplos de espacios vectoriales. 5.4. Subespacios.- 5.5. Combinaciones lineales. Envo1ventes 1inea1es.-5.6. Dependen-

167

VI

CON TENIDO

cia e independencia lineal.- 5.7. Bases y dimension.-5.8. Ecuaciones lineales y espacios vectoriales.- 5.9. Sumas y sumas directas.- 5. 10. Coordenadas.-5.11. Cambio de base. Capitulo 6.

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD . . . . . . . . . . . . . 6.1. Introduccion.- 6.2. Espacios con producto interno.- 6.3. Desigualdad de CauchySchwarz. Aplicaciones.-6.4. Ortogonalidad.-6.5. Conjuntos ortogonales y bases. Proyecciones.-6.6. Proceso de ortogonalizaci6n de Gram-Schmidt.-6.7. Productos internos y matrices.- 6.8. Espacios complejos con producto interno.-6.9. Espacios vectoriales normados.

239

Capitulo 7.

DETER MIN ANTES 7.1. Introduccion.-7.2. Determinantes de 6rdenes uno y dos.-7.3. Determinantes de orden tres.- 7.4. Permutaciones.-7.5. Determinantes de orden arbitrario.- 7.6. P ropiedades de los d~terminantes.-7.7. Menores y cofactores.-7.8. Adjunto clasico. 7.9. Aplicaciones a las ecuaciones lineales. Regia de Cramer.-7. 10. Submatrices. Menores generales. Menores principales.-7.11. Matrices por bloques y determinantes.-7.12: Determinantes y volumen.- 7.13. Multilinealidad y determinantes.

290

Capitulo 8.

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION. .... ... 8. 1. Introduccion.-8.2. Polinomios de matrices.- 8.3. Polinomio canlcteristico. Teorema de Cayley-Hamilton.-8.4. Valores propios y vectores propios.- 8.5. Calculo de valores propios y vectores propios. Diagonalizaci6n de matrices.- 8.6. Diagonalizacion de matrices reales simetricas.- 8. 7. Polinomio minimo.

330

Capi~ulo



9.

I"\

APLICACIONES LINEALES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369 9.1. Introduccion.- 9.2. Aplicaciones.-9.3. Aplicaciones lineales.- 9.4. Nucleo e imagen de una aplicaci6n lineal.- 9.5. Aplicaciones lineales singulares y no singulares. Isomorfismos.-9.6. Operaciones con aplicaciones lineales.- 9,7. Algebra de operado- 1 res lineales A(V). -9.8. Operadores invertibles. "

Capitulo 10. MATRICES Y APLICACIONES LIN EALES..... . ... . .... . ........ . ..... 10.1. Introduccion.- 10.2. Representaci6n matricial de un operador Iineal.- 10.3. Cambio de base y operadores lineales.- 10.4. Diagonalizaci6n de operadores lineales.- 10.5. Matrices y aplicaciones lineales generales.

406

Capitulo 11. FORMAS CANONICAS .. .. .'. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1. Introduccion.- 11.2. Forma triangular.- 11.3. lnvariancia.- 11.4. Descomposiciones en suma directa invariante.- 11 .5. Descomposici6n primaria. -11 .6. Operadores nilpotentes.- 11.7. Forma can6nica de Jordan.- 11.8. Subespacios ciclicos.-11.9. Forma canonica racional.- 11.10. Espacios cociente.

436

Capitulo 12. FUNCIONALES LINEALES Y ESPACIO DUAL . . . . . . . . . . . . . . . . . . . . . . . . . 12.1. Introducci6n.- 12.2. Funcionales lineales y espacio dual.- 12.3. Base dual. 12.4. Espacio segundo dual.-12.5. Aniquiladores.-12.6. Trasp uesta de una aplicacion · lineal. ·

470

Capitulo 13. FORMAS BIUNEALES, CUADRATICAS Y HERMITICAS .. ........ . . ·..... 13.1. Introduccion.- 13.2. Formas bilineales.- 13.3. Formas bilineales y matrices. 13.4. Formas bilineales alternadas.-13.5. Formas bilineales simetricas. Formas cuadraticas.- 13.6. Fonrtas bilineales simetricas reales. Ley de inercia. -13.7. Formas hermiticas.

484

CONTENIDO

vii

Capitulo 14. OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO.... . 14. I. Intro~uccion.- 14.2. Operadores adjuntos.-14.3. Analogia entre A(V) y C. Operadores especia1es.-14.4. Operadores autoadjuntos.-14.5. Operadores ortogonales y unitarios.-14.6. Matrices ortogonales y unitarias.-14.7. Cambio de base ortonormaL- 14.8. Operadores positivos.-14.9. Diagonalizacion y formas can6nicas en espacios euclideos.- 14.10. Diagonalizacion y formas can6nicas en espacios unitarios.- 14.11. Teorema espectraL

503

Apimdice

CONJUNTOS Y RELACIONES . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Conjuntos, elementos.-Operaciones entre conjuntos.- Producto cartesiano de conjuntos.- Relaciones.- Relaciones de eq uivalencia.

528

ESTRUCTURAS ALGEBRAICAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Introducci6n.-Grupos.-Anillos, dominios de integridad y cuerpos.- M6dulos.

535

POLINOMIOS SOBRE UN CUERPO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Introduccion.-Divisibilidad. Maximo comun divisor.- Factorizaci6n.

545

Indice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

549

Pr61ogo

El algebra lineal se ha convertido en los ultimos afios en una parte esencial de los conocimientos matematicos requeridos a matematicos, ingenieros, fisicos y otros cientificos. Este requerimiento refleja Ia importancia y Ia amplitud de sus aplicaciones. Este libro se ha proyectado como libro de texto en un curso regular de algebra lineal o como suplemento a los textos clasicos en uso. Su prop6sito es presentar una introducci6n al algebra lineal que todos los lectores encuentren provechosa, cualquiera que sea su campo de especializaci6n. Se ha incluido mas material del que puede abarcarse en muchos primeros cursos, con objeto de hacer el texto mas flexible, proporcionar un libro de referenda uti] y estimular el interes futuro en el tema. Cada capitulo comienza con enunciados claros de las definiciones, principios y teoremas pertinentes, junto con ejemplos y otro material descriptivo. A esto siguen colecciones graduadas de problemas resueltos y problemas suplementarios. Los problemas resueltos sirven para ilustrar y ampliar Ia teoria, concretan aquellos puntos sutiles cuyo desconocimiento !leva al estudiante a sentirse continuamente en un terreno inseguro, y suministran la repetici6n de los principios basicos tan vital para un aprendizaje efectivo. Entre los problemas resueltos se incluyen numerosas demostraciones de teoremas. Los problemas suplementarios sirven como revision completa del material de cada capitulo. El primer capitulo trata los sistemas de ecuaciones lineales. Esto proporciona la motivaci6n y las herramientas de calculo basicas para el material subsiguiente. Tras haber introducido los vectores y las matrices, aparecen capitulos sobre espacios vectoriales y subespacios, y sobre productos internos. Siguen capitulos que cubren determinantes, valores propios y vectores propios, y diagonalizaci6n de matrices (bajo similaridad) y formas cuadraticas (bajo congruencia). Los capitulos posteriores abarcan las aplicaciones lineales abstractas y sus formas can6nicas, especificamente las formas can6nicas triangular, de Jordan y racional. El ultimo capitulo trata las aplicaciones lineales abstractas en espacios con producto interno. Los principales cambios en Ia segunda edici6n han sido por razones pedag6gicas (de forma) mas que de contenido. Aqui la noci6n de aplicaci6n matricial se introduce al principia del texto.

X

PROLOGO

y los productos internes justo despues del capitulo sobre espacios vectoriales y subespacios.

Asimismo, se presentan los algoritmos de reduccion por filas, inversion de matrices, calculo de determinantes y diagonalizacion de matrices y formas cuadraticas, usando notacion algoritmica. Ademas, temas tales como matrices elementales, factorizacion LU, coeficientes de Fo urier y varias normas en R" se introducen directamente en el texto, en Iugar de hacerlo en las secciones de problemas. Por ultimo, al tratar los aspectos abstractos mas avanzados en Ia parte final del texto, facilitamos el uso de este en un curso elemental o en uno de dos semestres de algebra lineal. Deseo dar las gracias a! personal de McGraw-Hill Schaum Series, especialmente a John Aliano, David Beckwith y Margaret Tobin, por sus inestimables sugerencias y su cooperacion, verdaderamente uti!.. Por ultimo, quiero expresar mi gratitud a Wilhelm Magnus, mi maestro, consejero y amigo, que me introdujo en Ia belleza de las matematicas. Temple U niuersit y Enero de 1991

..

SEYMOUR LIPSCH UTZ

CAPITULO

1

Sistemas de ecuaciones lineales

1.1. INTRODUCCION La teoria de las ecuaciones lineales juega un papel irnportante y motivador en el aq1bito del algebra lineal. De hecho, muchos problemas de algebra lineal son equivalentes a! estudio de un sistema de ecuaciones lineales, como hallar el nucleo de una aplicaci6n lineal o caracterizar el subespacio generado por un conjunto de vectores. Por ello, las tecnicas introducidas en este capitulo seran aplicables al tratamiento mas abstracto dado posteriormente. Por otra parte, algunos de los resultados del tratamiento abstracto arrojaran nueva luz sobre Ia estructura de los sistemas de ecuaciones lineales «concretos». Este capitulo investiga sistemas de ecuaciones lineales y describe detalladamente el algoritmo de eliminaci6n gaussiano, que se utiliza para hallar su soluci6n. Aunque senin estudiadas en detalle en el Capitulo 3, las matrices, junto con ciertas operaciones entre elias, se introducen tambien aqui, puesto que estan estrechamente relacionadas con los sistemas de ecuaciones lineales y su soluci6n. Todas nuestras ecuaciones involucraran numeros especificos denominados constantes o escalares. Para simplificar, en este capitulo asumimos que todos nuestros escalares pertenecen at cuerpo de los numeros reales R. Las soluciones de nuestras ecuaciones tambien involucraran n-plas u = (k 1 , k 2 , •. . , k") de numeros reales llamadas vectores. El conjunto de tales n-plas se denota por R". Apuntamos que los resultados de este capitulo son validos asimismo para ecuaciones sobre el cuerpo complejo C, o sobre cualquier cuerpo arbitrario K.

1.2.

ECUACIONES LINEALES. SOLUCIONES

Por una ecuaci6n lineal con incognitas x 1 , x 2 , escribirse en Ia forma convencional:

••• ,

x" entendemos una ecuaci6n que puede [1.1]

1 /

2

ALGEBRA LINEAL

donde a 1 , a 2 , • . • , an, b son constantes. La constante ak se denomina el coeficiente de x k y b se denomina Ia constante de Ia ecuaci6n. Una soluci6n de Ia ecuaci6n lineal anterior es un conjunto de valores de las incognitas, digamos x 1 = k 1 , x 2 = k 2 , ••• , xn = kn, o simplemente una n-pla u = (k 1 , k 2 , ... , kn) de constantes, con Ia propiedad de que es cierta Ia siguiente expresion (obtenida sustituyendo cada X ; por k; en Ia ecuacion):

Se dice entonces que este conjunto de valores satisface Ia ecuacion. El conjunto de todas las soluciones se llama conjunto solucion, solucion general o, simplemente, Ia soluci6n de Ia ecuacion. Nota: Las nociones anteriores presuponen implicitamente que existe un orden entre las incognitas. Con el fin de evitar los subindices, normalmente utilizaremos variables x , y , z para denotar tres incognitas, x , y, z, t para denotar cuatro incognitas y x, y , z, s, t para denotar cinco incognitas, considerimdolas ordenadas. EJEMPLO 1.1

a)

La ecuacion 2x -5y+ 3xz=4 no es lineal, porque el producto de dos incognitas es de segundo grado.

b)

La ecuaci6n x + 2y - 4z + t = 3 es lineal en las cuatro incognitas x, y, x , t. La 4-pla u = (3, 2, I, 0) es una solucion de Ia ecuaci6n porque

3

+ 2(2)- 4(1 ) + 0 =

3

0

3= 3

es una expresi6n cierta. Sin embargo, Ia 4-pla v = (1, 2, 4, 5) no es una soluci6n de Ia ecuacion porque I

+ 2(2)- 4(4) + 5 =

3

0

-6=3

no es cierto.

ECUACIONES LINEALES CON UNA INCOGNITA El siguiente resultado basico esta probado en el Problema 1.5. 'I

Teorema 1.1: i)

Consideremos Ia ecuacion lineal ax = b.

Si a -:f. 0, x

= b/a es solucion {mica de ax = b.

ii)

Si a = 0, pero b -:f. 0, ax = b no tiene soluci6n.

iii)

Si a = 0 y b = 0, todo escalar k es soluci6n de ax = b.

EJEMPLO 1.2

a)

Resolvamos 4x - I = x + 6. Trasponemos para o btener Ia ecuaci6n en forma convencional: 4x - x = 6 + 1 6 3x = 7. Multiplicamos por 1/3 para obtener Ia soluci6n t.'mica x = ~ [Teorema 1.1 i)].

SISTEMAS DE ECUACIONES LINEALES

b) Reso1vamos 2x - 5 - x = x + 3. Reescribimos Ia ecuaci6n en forma convenciona1: x - 5 = x ecuaci6n no tiene soluci6n [Teorema 1.1 ii)]. c)

Reso1vamos 4 + x - 3 = 2x + 1 - x. Reescribimos Ia ecuaci6n en forma convencional: x escalar k es una so1uci6n [Teorema 1.1 iii)].

+ 3, o x - x = 3 + 8, o Ox

+ I = x + 1, o x -

3

= 8. La

x = I - 1, o Ox= 0. Todo

ECUACIONES LINEALES DEGENERADAS Una ecuaci6n lineal se dice degenerada si tiene Ia forma

esto es, si cada coeficiente es igual a cero. La soluci6n de tal ecuaci6n se halla como sigue: Teorema 1.2: Consideremos Ia ecuaci6n lineal degenerada Ox 1 i)

Si b # 0, Ia ecuaci6n no tiene soluci6n.

ii)

Si b = 0, todo vector u = (k 1 , k 2 ,

Demostraci6n. i) Sea u = (k 1 , k 2 , do u en Ia ecuaci6n o btenemos:

Ok 1

+ Ok2 + .. · + Ok,. =

... ,

b

... ,

+ Ox 2 + ... + Ox ,= b.

k,.) es una soluci6n.

k,.) un vector cualquiera. Supongamos b¥ 0. Sustituyen-

0

0 + 0 + .. ·+ 0 = b

0

O= b

No es una expresi6n cierta porque b # 0. P or tanto, ningun vector u es soluci6tt. ii) Suponga mos b = 0. Sustituyendo u en Ia ecuaci6n obtenemos: 0

0 + 0+ · .. +0 =0

0

que es una expresi6n cierta. Por consiguiente, todo vector u en R" es una soluci6n, como se pretendia. EJEMPLO 1 .3. Describir Ia soluci6n de 4y - x- 3y + 3 = 2 + x - 2x + y + l. La reescribimos en forma convencional agrupa ndo terminos y trasponiendo:

y - x+ 3 = y - x + 3

0

y- x - y+ x =3- 3

0

Ox + Oy = 0

La ecuacion es degenerada con constante nnla; por tanto, todo vector u = (a, b) en R 2 es una soluci6n.

ECUACIONES LINEALES NO DEGENERADAS. PRIMERA INCOGNITA Esta subsecci6n trata Ia soluci6n de una sola ecuaci6n lineal no degenerada con una o mas incognitas, digamos

4

ALGEBRA LINEAL

Por Ia primera incognita en tal ecuacion entendemos Ia primera con coeficiente no nulo. Su posicion p en Ia ecuacion es entonces el menor valor entero de j para el cual aj ¥= 0. En otras palabras, xP es Ia primera incognita si ai = 0 para j < p, perc aP ¥= 0. EJ EM PLO 1.4. Consideremos Ia ecuacion lineal 5y- 2z = 3. Aqui y es Ia primera incognita. Si las incognitas son ;~, y y z, entonces p = 2 es su posicion, pero si y y z son las (:micas incognitas, es p = I.

El siguiente teorema, probado en el Problema 1.9, es aplicable. Teorema 1.3: Consideremos una ecuacion lineal no degenerada a 1 x con primera incognita xP.

1

+ a 2 x 2 + ... + a"x" =

b

Cualquier conjunto de valores de las incognitas xi co n j =F p dara una unica solucion de Ia ecuacion. (Las incognitas xj se Haman variables libres porque se les puede asignar cualq uier valor.) ii) Toda solucion de Ia ecuacion se obtiene en i). i)

(EI conjunto de todas las soluciones se llama solucion general de Ia ecuacion.) EJEMPLO 1.5 a)

Hallar tres soluciones particulares de Ia ecuacion 2x - 4y

+z=

8.

Aqui x es Ia primera incognita. De acuerdo con ello, asignamos valores cualesquiera a las variables libres y y z y entonces despejamos x para obtener una solucion. Por ejemplo: I.

T omemos y

= I y z = I. La sustitucion en Ia ecuacion proporciona

2x - 4( I)

2. 3. b)

+I

= 0

2x-4+1 = 0

0

2x = II

0

0

X -- .ll 2

Entonces u 1 = (lj-, I, I) es una solucion. Tomemos y = I, z = 0. La sustituci6n proporciona x = 6. Por consiguiente, u2 = (6, I, 0) es una soluci6n. Tomemos y = 0, z = l. La sustitucion proporciona x = 1. Por tanto , u3 = ('i, 0, I) es una soluci6n.

La soluci6n general de Ia ecuaci6n an terior, 2x - 4y

+z=

8, se obtiene como sigue:

En primer Iugar, asignamos valores arbitrarios (llamados parametros) a las variables libres, digamos y = a y z = b. A continuaci6n sustituimos en Ia ecuaci6n para obtener 0

2x

=

8 + 4a- b

0

x

=

4

+ 2a- Jb

Entonces t t'

!

I: I

x

!

I ~~

= 4 + 2a - !b. y = a, z = b

0

u = (4

+ 2a - !b, a, b)

es Ia soluci6n general.

II

~·.

I,, . I. I

lu

1.3.

ECUACIONES LINEALES CON DOS INCOGNITAS

Esta secci6n considera el caso especial de las ecuaciones lineales con dos incognitas, x e y, esto es, ecuaciones que se pueden escribir en Ia forma convencional ax+ by = c

SISTEMAS DE ECUACJONES LINEALES

5

donde a, b y c son numeros reales. (Supondremos tambien que Ia ecuaci6n es no degenerada, esto es, que a y b no son ambos nulos.) Cada soluci6n de Ia ecuaci6n es un par de numeros reales, u = (k 1 , k 2 ), que puede hallarse asignando un valor arbitrario a x y despejando y , o viceversa. Toda soluci6n u = (k 1 , k2 ) de Ia ecuaci6n anterior determina un punto en el plano cartesiano R2 . Como a y b no son ambos nulos, todas las soluciones tales corresponden precisamente a los puntos de una linea recta (de ahi el nombre de «ecuaci6n lineal»). Esta linea se denomina el grafico de Ia ecuaci6n. EJ EM PLO 1.6. Consideremos la ecuaci6n lineal 2x + y = 4. Encontramos tres soluciones de Ia ecuaci6n como sigue. Primero escogemos un valor arbitrario para cualquiera de las incognitas, digamos x = - 2. Sustituimos x = -2 en Ia ecuacion y obtenemos 2( - 2)

+y

=

4

- 4

0

+ y=4

0

y= 8

Entonces x = -2, y = 8, o sea, el punto ( -2, 8) en R 2 es una soluci6n. Ahora hallamos el corte con el eje y, esto es, sustituimos x = 0 en la ecuaci6n para obtener y = 4. Por consiguiente, el punto (0, 4) en el eje y es una soluci6n. A continuacion encontramos el corte con el eje x , esto es, sustituimos y = 0 en la · ecuaci6 n para obtener x = 2. Por tanto, (2, 0) en el eje x es una soluci6n. Para dibujar el gnifico de Ia ecuaci6n, primero dibujamos las tres soluciones, ( - 2, 8), (0, 4) y (2, 0), ~ el plano R 2 como se muestra en Ia Figura 1-1. Despues trazamos Ia linea L determinada por dos de ~ soluciones y constatamos que Ia tercera yace en L tambicn. (De hecho, L es el conjunto de todas las soluciones de Ia ecuaci6n.) La linea L es el grafico de Ia ecuaci6n. y

Gralico de

2x+ y

=4

Figura 1-1.

~~1£\IA

=~

DE DOS ECUACIONES CON DOS INCOGNITAS

subsecci6n considera un sistema de dos ecuaciones lineales (no degeneradas) con las dos

~t~x e y:

a 1 x+b 1 y=c 1 a2 x

+ b2 y =

c2

[1.2]

6

ALGEBRA LINEAL

(Por tanto, a 1 y b 1 no son simultaneamente nulos, ni tampoco lo son a 2 y b 2 .) Este sistema simple se trata por separado porque tiene una interpretacion geometrica, y porque sus propiedades motivan el caso general. Un par de numeros reales u = (k 1 , k 2 ) que satisface ambas ecuaciones se llama una soluci6n simultanea de las ecuaciones dadas, o una soluci6n del sistema de ecuaciones. Existen tres casos, que pueden describirse geometricamente. l.

2. · 3.

El sistema tiene exactamente una soluci6n. Aqui los graticos de las ecuaciones lineales se cortan en un punto, como en Ia Figura l-2(a). El sistema no tiene soluciones. Aqui los graficos de las ecuaciones lineales son paralelos, como en la Figura l-2(b). El sistema tiene un numero infinito de soluciones. Aqui los graficos de las ecuaciones lineales coinciden, como en Ia Figura l-2(c). y

y

y

(a)

(b)

(c)

Figura 1-2. Los casos especiales 2 y 3 solo pueden ocurrir cuando los coeficientes de x e y en las dos ecuaciones lineales son proporcionales, es decir, 0

En concreto, el caso 2 o el 3 ocurre si 0

al a2

= bl = cl b2

c2

respectivamente. A menos que se establezca o sobrentienda otra cosa, suponemos que se trata con el cas·o general 1. Nota:

. , laa La expres10n

1

2

1 bh 1, que vale a 1 b 2

-

a 2 b 1 , se denomina determinante de orden dos.

2

Los determinantes se estudiaran en el Capitulo 7. El sistema tiene una soluci0n unica cuando el determinante de los coeficientes es no nulo.

SISTEMAS DE ECUACIONES LINEALES

7

ALGORITMO DE ELIMINACION La soluci6n del sistema [1.2] puede obtenerse mediante el proceso conocido como eliminaci6n, por medio del cual reducimos el sistema a una ecuaci6n sencilla con solo una incognita. Aceptando que el sistema tiene soluci6n {mica, este algoritmo de eliminaci6n consiste en los dos pasos siguientes:

Paso I. Sumar un multiplo de una de las ecuaciones a Ia otra (o a un multiplo no nulo de Ia otra) de forma que una de las incognitas se elimina en Ia nueva ecuacion. Paso 2. Resolver Ia nueva ecuaci6n para Ia incognita dada y sustituir su valor en una de las ecuaciones originates para obtener el valor de Ia otra incognita. EJEMPLO 1.7 a)

Consideremos el sistema L1 : L2:

2x+5y= 8 3x- 2y =-7

Eliminamos x construyendo Ia nueva ecuacion L por -2 y sumando las ecuaciones resultantes: 3L 1 :

-2L2 : Suma:

6x -6x

=

3L 1

-

+ 15y = + 4y =

2L 2 ; esto es, multiplicando L 1 por 3 y L 2 24

14

l9y = 38

Resolviendo Ia nueva ecuacion para y se obtiene y = 2. Sustituyendo y originales, digamos en L 1 , se obtiene 2x Entonces x b)

=

+ 5(2) =

0

0

2x

+

10 = 8

0

2x

=

- 2

2 en una de las ecuaciones

=

0

X =

-J

-I e y = 2, o sea, el par (-I, 2) es Ia solucion unica del sistema.

Consideremos el sistema Ll: L2:

3y = 4 -2x+6y=5 X-

Eliminamos x de las ecuaciones multiplicando L 1 por 2 y sumando la a L 2 ; es decir, formando Ia ecuaci6n L = 2L 1 + L 2 . Esto nos conduce a Ia nueva ecuaci6n Ox+ Oy = 13. Es una ecuaci6n degenerada, con constante no nula; en consecuencia, el sistema no tiene soluci6n. (Geomi:tricamente hablando, las lineas son paralelas.) c)

Consideremos el sistema

L1 : L2 :

x-3y= 4 -2x+6y= -8

Eliminamos x multiplicando L 1 por 2 y sumandola a L 2 . Esto nos proporciona Ia nueva ecuaci6n Ox + Oy = 0, que es una ecuaci6 n degenerada en Ia que el termino constante es nulo tambien. Por tanto, el sistema tiene un numero infinito de soluciones, que corresponden a soluciones de cada ecuaci6n. (Geometricamente hablando , las lineas coinciden.) Pa ra encontrar Ia soluci6n general

8

ALGEBRA LINEAL

hacemos y =a y sustituimos en L 1 obteniendo x - 3a soluci6n general del sistema es (3a

=

4 o x

3a

=

+ 4. De acuerdo con esto, Ia

+ 4, a)

donde a es un numero real arbitrario.

1.4.

SISTEMAS DE ECUACIONES LINEALES. SISTEMAS EQUIVALENTES. OPERACIONES ELEMENTALES

Esta seccion considera un sistema de m ecuaciones lineales, digamos L 1 , L 2 , incognitas x 1 , x 2 , ••• , x., que puede ponerse en Ia forma convencional

+ a 12 x 2 + · · · + ahx, = a 21 x 1 + a 22 x 2 + · · · + a 2,x, = a 11 x 1

••• ,

L,, con n

b1

b2

[1.3]

donde las aii, b; son constantes. Una. solucibn (o solucibn particular) del sistema anterior es un conjunto de valores de las incognitas, digamos x 1 = k 1 , x 2 = k 2 , ••• , x. = k., o una n-pla u = (k 1 , k 2 , ••• , k,) de constantes, que es solucion de cada una de las ecuaciones del sistema. El conjunto de todas las solucio nes tales se denomina el conjunto solucibn o Ia solucion general del sistema. EJEMPLO 1.8.

Considerese el sistema x1

2x 1

+ 2x2 - 5x 3 + 4x 4 = 3 + 3x2 + x 3 - 2x4 = I

Determinar si x 1 = -8, x 2 = 4, x 3 = l, x 4 = 2 es una soluci6n del sistema. Sustituimos en cada ecuaci6n para obtener I. 2.

-8 + 2(4) - 5(1) + 4(2) 2( -8) + 3(4) + I - 2(2)

= =

3 l

0

-8+8 - 5 + 8=3

0

- 16+12+1-4= 1

3=3

0 0

-7=3

No, no es una soluci6n del sistema porque no es soluci6n de Ia segunda ecuaci6n.

SISTEMAS EQUIVALENTES. OPERACJONES ELEMENTALES Se dice que dos sistemas de ecuaciones lineales con. las mismas incognitas son equivalentes si tienen el mismo conjunto solucion. Una forma de producir un sistema que sea equivalente a uno dado, con ecuaciones lineales L 1 , L 2 , ... , L.,., es efectuar una sucesion de las siguientes operaciones, llamadas operaciones elementa.les: [E tl

Intercambiar las ecuaciones i-esima y j-esima: L; +-+ L j·

[£2 ]

Multiplicar la ecuaci6n i-esima po r un escalar no nulo k: kL;-+ L;, k =fo 0.

[£ 3]

Sustituir Ia ecuaci6n i-esima por ella misma mas k veces Ia j-esima: (kLi + L ;) -+ L;.

SISTEMAS DE ECUACIONES LINEALES

9

En Ia pnktica efectuamos (£2 ] y (£ 3] en un solo paso, o sea, Ia operaci6n [E)

Sustituir Ia ecuaci6n i-esima por k (no nulo) veces ella misma mas k' veces Ia j-esima:

Lo anterior se enuncia formalmente en el siguiente teorema, probado en el Problema 1.46. Teorema 1.4: Supongamos que un sistema de ecuaciones lineales ( #) se obtiene de otro (*) mediante una sucesi6n finita de operaciones elementales. Entonces ( #) y (*) tienen el mismo conjunto soluci6n. N uestro metodo para resolver el sistema de ecuaciones lineales (1.3) consta de dos pasos: Paso 1. Usar las operaciones elementales anteriores para reducir el sistema a uno equivalente mas simple (en forma triangular 0 escalonada). Paso 2. Usar Ia sustituci6n hacia atn\s para hallar Ia soluci6n del sistema mas simple. Los dos pasos se ilustran en el Ejemplo 1.9. En cualquier caso, por razones pedag6gicas, discutimos en detalle primero el Paso 2 en Ia Secci6n 1.5 y luego el Paso 1 en Ia Secci6n 1.6. EJEMPLO 1.9.

La soluci6n del sistema x + 2y- 4z = -4 5x + lly - 21z = -22

3x -

2y + 3z =

11

se obtiene como sigue: Paso 1: Primero eliminamos x de Ia segunda ecuaci6n mediante Ia operaci6n elemental ( - 5L 1 + L 2 ) --t L 2 , esto es, multiplicando L 1 por -5 y sumandola a L 2 ; entonces eliminamos x de Ia tercera ecuaci6n efectuando Ia operaci6n elemental (- 3L1 + L 3 )-> L 3 , es decir, multiplicando L 1 por -3 y suma ndola a L 3 :

-5 x L 1 : L2 :

-

5x - lOy + 20z = 20 5x + lly- 2lz = -22

-3xL 1 :

z = -2

nueva L3 :

y-

/. 3 :

-3x-6y+12z=l2 3x - 2y + 3z = 11 - 8y + 15z = 23

Por tanto, el sistema original es equivalente al sistema

x + 2y- 4z = -4 yz = -2 -8y + 15z = 23 A continuaci6n eliminamos y de Ia tercera ecuaci6n aplicando (8L 2 + L 3 ) por 8 y sum{tndola a L 3 : 8xL2 : L3 :

8y- 8z=-16 -8y + 15z = 23 7 7z =

--t

L 3 , esto es, multiplicando L 2

10

ALGEBRA LINEAL

Por consiguiente, obtenemos el siguiente sistema triangular equivalente: x

+ 2y- 4z = =

-4 -2

7z =

7

y- z

Paso 2. Ahora resolvemos el sistema triangular mas simple mediante sustituci6n hacia atnis. La tercera ecuaci6n da z = I. Sustituimos z = I en Ia segunda ecuaci6n obteniendo y - I= - 2

0

y = -1

Ahora sustituimos z = I e y = -I en Ia primera ecuaci6n para obtener x+2( - l) - 4(1) = - 4

0

X-

2-4 = - 4

0

X -

6 = -4

0

x = 2

Entonces x = 2, y = - I, z = I, o, en otras palabras, Ia terna ordenada (2, -I, I) es !a soluci6n (mica del sistema dado.

El anterior algoritmo de dos pasos para resolver un sistema de ecuaciones lineales se denomina eliminaci6n gaussiana. EJ siguiente teorema se utilizan1 en el Paso I del algoritmo. Teorema 1.5:

a) b)

Supongamos que un sistema de ecuaciones lineales contiene Ia ecuacion degenerada

Si b = 0, L puede suprimirse del sistema sin alterar el conjunto solucion. Si b i' 0, el sistema no tiene solucion.

Demostraci6n. Se obtiene directamente del Teorema 1.2. Esto es, Ia parte a) se obtiene del hecho de que todo vector en R" es solucion de Lt> y Ia parte b) del hecho de que L no tiene solucion y por tanto tampoco Ia tiene el sistema.

1.5.

SISTEMAS EN FORMA TRIANGULAR Y ESCALONADA

Esta secci6n considera dos tipos simples de sistemas de ecuaciones lineales: sistemas en forma triangular y el caso mas general de sistemas en forma escalonada.

FORMA TRIANGULAR Un sistema de ecuaciones lineales esta en forma triangular si el numero de ecuaciones es igual al numero de incognitas y si xk es Ia primera incognita de Ia k-esima ecuacion. Por ta nto, un sistema de ecuaciones lineales triangular tiene Ia forma siguiente: auXt

+ a12X2 + ··· +

a1,n :... 1x~ - 1

+ ·· · +

a 2 , , _ 1 x, _ 1

a 22 x 2

+ +

ahx, = b 1

a2 ,x, = b 2 [1.4]

a,- 1,,.- 1x, _ 1 + a,-J.,x, = b, _ 1 a,.x, b,

=

donde a 11 =I= 0, a 22 i' 0, . .. , a•• i' 0.

SISTEMAS DE ECUACIONES LINEALES

11

El sistema de ecuaciones lineales triangular anterior tiene una soluci6n unica, que puede tenerse mediante el siguiente procedimiento, conocido como sustitucion bacia atras. Primero, resolvemos Ia ultima ecuacion para Ia ultima incognita, x.:

Segundo, sustituimos este valor de x" en la penultima ecuaci6n y Ia resolvemos para Ia penultima incognita, x" _ 1 :

Tercero, sustituimos estos valores de x" y x" _ 1 en Ia antepenultima ecuaci6n y Ia resolvemos para Ia antepenultima incognita, x" _ 2 : X n -2 -

bn- 2- (a.. - 2. n-tfan - l,n - l)[bn- 1- an-l,n(bJann)] - (an-2 , JanJbn an-2, .. - 2

En general, determinamos xk sustituyendo los valores previamente obtenidos de x", x" _ 1 , en Ia ecuaci6n k-esima ecuacion:

. . •,

xk+ 1

n

bk-

xt = _ _

L

akn,x,..

'" = k+l= - -.:.;:_..:;....;-

au

El proceso finaliza cuando hemos determinado x 1 • La soluci6n es unica puesto que, en cada paso del algoritmo, el valor de xk esta, por el Teorema 1.1 i), univocamente ·determinado. EJEMPLO 1.10.

Consideremos el sistema 2x + 4y- z = 11 5y + z = 2 3z = -9

Como el sistema esta en forma triangular, puede resolverse mediante sustituci6n hacia atras. i)

La ultima ecuaci6n propo rciona z = - 3.

ii)

Sustituimos en Ia segunda ecuaci6n para obtener 5y - 3 = 2 6 5y = 5 6 y = I.

iii)

Sustituimos z =

2x

+ 4( I ) -

-

3 e y

=I

( - 3) = II

en Ia primera ecuaci6n para obtener 0

2x

+ 4 + 3 =I I

0

Entonces el vector u = (2, I, - 3) es Ia soluci6n unica del sistema.

2x = 4

0

x =2

12

ALGEBRA LINEAL

FORMA ESCALONADA. VARIABLES LIBRES Un sistema de ecuaciones lineales esta en forma escalonada si ninguna ecuacion es degenerada y Ia primera incognita de cada ecuacion esta a Ia derecha de Ia primera incognita de Ia ecuaci6n

anterior. El paradigma es: a 11 x 1

+ a 12 x 2 + a 13 x 3 + a 14 X 4 + · ·· + a~nx" = b1 a 212 x 12 + a 2 , 12 + 1 x 12 + 1 + · · · + a 2 " x" = b 2

[1.5]

donde 1 <j2 < ... <j, y donde a 11 # 0, a 2 i , # 0, ... , a,ir # 0. Notese que r ~ n. Una incognita xk en el sistema escalonado anterior [1.5] se denomina variable libre si xk no es Ia primera incognita de ninguna ecuaci6n, esto es, si xk # x 1 , xk i= xi,• ... , xk i= xi.· El siguiente teorema, demostrado en el Problema 1.13, describe el conjunto solucion de un sistema escalonado. Teorema 1.6: Consideremos el sistema de ecuaciones lineales en forma escalonada [1 .5]. Existen dos casas:

= n. Hay tantas ecuaciones 'c omo incognitas. Entonces el sistema tiene solucion (mica. ii) r < n. Hay menos ecuaciones que incognitas. Entonces podemos asignar arbitrariamente i)

r

valores a las n - r variables libres y obtener una solucion del sistema. Supongamos que el sistema escalonado [1.5] contiene mas incognitas que ecuaciones. Entonces el sistema tiene un numero infinito de soluciones, porque a cada una de las n - r variables libres se le puede asignar cualquier numero real. La solucion general del sistema se obtiene como sigue. Se asignan valores arbitrarios, digamos t 1 , t 2 , ... , tn-r• llamados parametros, a Ia~ variables libres y entonces se emplea Ia sustituci6n bacia atras para obtener los valores de las variables no libres en terminos de los panimetros. Alternativamente se puede utilizar Ia sustituci6n hacia atnis para despejar directamente las variables no lib res x 1 , xi.' ... , x ir en terminos de las libres. EJEMPLO 1 .11 .

Consideremos el sistema x

+ 4y - 3z + 2t =

5

z- 4t = 2 El sistema esta en forma escalonada. Las primeras incognitas son x y z; en consecuencia, las variables libres son las otras incognitas, y y t . Para encontrar Ia soluci6n general del sistema, asignamos valores arbitrarios a las variables libres y y t, digamos y = a y t = b, y a continuaci6n utilizamos Ia sustituci6n hacia atras para despejar las variables no libres x y z. Sustituyendo en Ia ultima ecuacion se obtiene z- 4b = 2 o z = 2 + 4b. Sustituimos en Ia primera ecuaci6n para llegar a x

+ 4a -

3(2 + 4b)

+ 2b =

5

0

X+ 4a - 6 - J2b + 2b = 5

0

x = II - 4a

Entonces

x = II - 4a + IOb, y = a, z = 2

+ 4h, t = b

0

(II - 4a

+

lOb, a, 2 + 4b, b)

+ I Ob

SISTEMAS DE ECUACIONES LINEALES

13

es Ia soluci6n general en forma para metrica. Altemativamente podemos usar la sustituci6n bacia atnis para despejar las variables no libres x y z, directamente, en terminos de las variables libres y y t. La ultima ecuaci6n da z = 2 + 4t. Sustituimos en Ia primera para obtener

x

+ 4y -

3(2

+ 4t) + 2r =

5

0

X

+ 4y - 6 -

12l

+ 2l = 5

0

X=

11 - 4y + JOt

De acuerdo con esto, X = Z=

11 - 4y 2+4t

+ lOt

es otra forma para Ia soluci6n general del sistema.

1.6. ALGORITMO DE REDUCCION El siguiente algoritmo (a veces llamado reducci6n por filas) reduce el sistema [1.3] de m ecuaciones lineales con n incognitas a forma escalonada (posiblemente triangular), o bien determina que el sistema no tiene soluci6n.

ALGORITMO DE REDUCCION

Paso 1. Intercambiar las ecuaciones de forma que x 1 aparezca con un coeficiente no nulo en Ia primera ecuaci6n; es decir, conseguir que all # 0. Paso 2. Utilizar all como pivote para eliminar x 1 de todas las ecuaciones excepto de Ia primera. Esto es, para cada i > 1, efectuar Ia operaci6n (Secci6n 1.4) 0

Paso 3.

Examinar cada nueva ecuaci6n L:

a) Si L tiene Ia forma Ox 1 + Ox 2 suprimirla del sistema. b) Si L tiene Ia forma Ox 1 + Ox 2 sistema no tiene soluci6n.

+ ··· + Oxn = 0

o si es un multiple de otra ecuaci6n,

+ ... +Ox"= b

con b # 0, abandonar el algoritmo. El

Paso 4. Repetir los Pasos l, 2 y 3 con el subsistema formado por todas las ecuac10nes, excluyendo Ia primera. Paso 5. Continuar el proceso anterior hasta que el sistema este en forma escalonada, o hasta que se obtenga una ecuaci6n degenerada en el Paso 3 b).

La justificaci6n del Paso 3 esta eu el Teorema 1.5 y en el hecho de que si L = kL ' para alguna otra ecuaci6n L' en el sistema, Ia operaci6n - kL' + L ____. L sustituye L por Ox 1 + Ox 2 + · · · + Ox"= 0. que podni ser de nuevo eliminada segun el Teorema 1.5.

14

ALGEBRA LINEAL

EJEMPLO 1.12 a)

El sistema·

+ y- 2z = 10 3x + ly + 2z = I 5x + 4 y + 3z = 4

2x

se resuelve reduciendolo primero a forma escalonada. Para eliminar x de las ecuaciones segunda y tercera efectuamos las operaciones - 3L 1 + 2L 2 ..... L 2 y ::. SL1 + 2L 3 ..... L 3 : -6x- 3y + 6z=-30

-5L 1 :

+ 4y + 4z = 2 y + lOz = -28

2L3 :

6x

-lOx- 5y + lOz =-50 lOx + 8y + 6z = 8

Esto proporciona el siguiente sistema, en el que y se elimina de Ia tercera ecuaci6n mediante Ia operaci6n - 3L 2 + L 3 ..... L 3 : 2x 2x + y - 2z = 10} y + lOz = -28 ..... { 3y + 16z = -42

+ y - 2z = 10 y + lOz = -28 -14z =

42

El sistema esta ahora en forma triangular. Por consiguiente, podemos utilizar Ia sustituci6n hacia atras para obtener Ia soluci6n (mica u = (1, 2, -3). b)

El sistema x + 2y- 3z = 1 2x + 5y- 8z = 4 3x + 8y - 13z = 7 se resuelve reduciendolo primero a forma escalonada. Para eliminar x de las ecuaciones segunda y tercera efectua mos - 2L 1 + L 2 ..... L 2 y - 3L 1 + L 3 -> L 3 para obtener

x

+ 2y- 3z =

1 y-2z =2 2y - 4z = 4

x 0

+ 2y- 3z =

1 y-2z=2

(La tercera ecuaci6n se suprime puesto que es un multiplo de Ia segunda.) El sistema esta ahora en forma escalonada con variable libre z. Para obtener Ia soluci6n general hacemos z =a y resolvemos por sustituci6n hacia atras. Sustituimos z = a en Ia segunda ecuaci6n para obtener y = 2 + 2a. A continuaci6n su stituimos z = a e y = 2 + 2a en Ia prime ra ecuaci6n para o btener x + 2(2 + 2a) - 3a = I o x = - 3 - a. Entonces Ia soluci6n generales

x = -3 -a, y = 2 + 2a, z =a

0

donde a es el parametro. c)

El sistema x + ly- 3z = -1 3x- y + 2z = 7 Sx + 3y- 4z = 2

( -3 - a, 2

+ 2a, a)

SISTEMAS DE ECUACIONES LINEALES

15

se resuelve reduciendolo primero a forma escalonada: Para eliminar x de las ecuaciones segunda y tercera efectuamos las operaciones - 3L 1 + L 2 --. L 2 y - 5L 1 + L 3 --. L 3 para obtener el sistema equivalente x+2y- 3z= -l -7y + llz = 10 - 1y + llz = 7

La operaci6n - L 2

+ L 3 --. L 3

conduce a Ia ecuaci6n degenerada Ox+Oy+Oz= - 3

Entonces el sistema no tiene soluci6n.

El siguiente resultado basico se mencion6 previamente. Teorema 1.7: Cualquier sistema de ecuaciones lineales tiene: i) una (mica soluci6n, ii) ninguna soluci6n, o iii) un numero infinito d e soluciones.

Demostracion. Aplicando el algoritmo anterior al sistema podemos bien reducirlo a forma escalonada, o bien determinar que no tiene soluci6n. Si Ia forma escalonada tiene variables libres, entonces el sistema tiene un numero infinito de soluciones. Nota: Se dice que un sistema es compatible si tiene una o mas soluciones [Casos i) o iii) en el Teorema 1.7], y se dice que es incompatible si no tiene soluci6n [Caso ii) en el Teerema 1.7]. La Figura 1-3 ilustra esta situaci6n.

I

l

J Incompatible

I

Sistema de ecuaciones lineales

I I

I

l I

Ninguna soluci6n

Compatible

I

Soluci6n imica

MATRICES

Sea A una tabla ordenada de numeros como sigue:

A

=

(=::..::: .. ::..:::l a,. 1

a, 2

l Numero infinito de soluciones

Figura 1-3.

1.7.

I

•• .

a,)

16

ALGEBRA LINEAL

La tabla A se denomina matriz. Tal matriz se denota por A= (aii), i = 1, . .. , m, j = 1, ... , n, o simplemente A = (aii). Las m n-plas horizontales

son las filas de Ia matriz, y las n m-plas verticales

(au) a .. (a1J ( 11

a11 )

4..

a, 1

'

a22

...

,

a.,. 2

~

,

a1.

. .. a,

con sus columnas. N6tese que el elemento a,i, llamado Ia entrada ij o Ia componente ij, aparece en Ia fila i-esima y en Ia columna j-esima. Una matriz con m filas y n columnas se llama matriz m por n, o matriz m x n; el par de numeros (m, n) se llama su tamaiio.

EJEMPlO 1.13. Sea A= (0, S, -2); sus columnas son

(1 -3 4) G), (-!) -~). 0

5

-2

. Entonces A es una matriz 2 x 3. Sus filas son (1, -3, 4) y

Y(

La, primera entrada no nula en una fila R de una matriz A se llama Ia entrada principal no nula de R. Si R no tiene entrada principal no nula, es decir, si toda entrada en R es 0, R se denomina una fila nula. Si todas las filas de A son nulas, es decir, si toda entrada en A es 0, A se llama Ia matriz cero, denotada por 0.

MATRICES ESCALONADAS

Una matriz A se denomina matriz escalonada, o se dice que esta en forma escalonada, st se cumplen las dos condiciones siguientes: i) Todas las filas nulas, si las hay, estan en Ia parte inferior de Ia matriz. ii) Cada entrada principal no nula esta a Ia derecha de Ia entrada principal no nula de Ia fila precedente. Esto es, A

= (a,)

es una matriz escalonada si existen entradas distintas de cero donde

con Ia propiedad de que para

y para

i> r

En este caso, a 1i,• . .. , a.i, son las entradas principales no nulas de A.

SISTEMAS DE ECUACIONES LINEALES

17

EJEMPLO 1.14. Las siguientes son matrices escalonadas cuyas entradas principales no nulas se han rodeado co n un circulo:

(~

3 0

o· 0

2

0

CD

I

0

0

0

4 - 3 0

5

®

0

0

0

2

-~i) (!

2 0 0

i)(~

CD

3

0

0 0

0 0

CD

0 0

0

CD

-D

Se dice que una matriz escalonada A se ha puesto en forma can6nica por filas si tiene las dos propiedades adicionales siguientes: iii) Cada entrada principal no nula es 1. iv) Cada entrada principal no nula es Ia unica entrada distinta de cero en su columna. La tercera matriz de arriba es un ejemplo de matriz en forma can6nica por filas. La segunda no esta en dicha forma porque Ia entrada principal no nula en Ia segunda fila no es la unica entrada distinta de cero en su columna; hay un 3 sobre ella. La primera matriz tampoco esta en forma can6nica por filas puesto que algunas de las entradas principales no nulas no valen 1. La matriz cero, 0, con cualquier numero de filas y de columnas, es otro ejemplo de matriz en forma can6nica por filas.

1.8.

EQUIV ALENCIA POR FILAS. OPERACIONES ELEMENTALES ENTRE FILAS

Se dice que una matriz A es equivalente por filas a otra B , escrito A "' B , si B puede obtenerse a partir de A mediante una sucesi6n finita de las siguientes operaciones, llamadas operaciones elementales entre filas:

[Ed [£ 2 ] [£ 3 )

Intercambiar las filas i-esima y j-esima: R; <-+ R i' Multiplicar Ia fila i-esima por un escalar no nulo k: kR; ~ R;, k =I= 0. Sustituir Ia fila i-esima por ella misma mas k veces Ia j-esima: kRj + R; ~ R 1•

En Ia pni.ctica efectuamos [E2 ] y [£ 3 ) en un solo paso, es decir, Ia operaci6n [E]

Sustituir Ia fila i-esima por k (no nulo) veces ella misma mas k' veces Ia j-esima: k' Rj

+ kR; ~ R;, k =!=0

Sin duda, el lector reconocera Ia similitud entre las operaciones anteriores y las utilizadas para resolver sistemas de ecuaciones lineales. El siguiente algoritmo reduce por filas una matriz A a forma escalonada. (La expresi6n «reducir por filas» o, simplemente, «reducir» significara transformar una matriz mediante operaciones elementales entre filas.) Algoritmo l.SA

Aqui A

= (a;)

es una matriz arbitraria.

Paso 1. Encontrar Ia primera columna con una entrada no nula. Supongamos que es Ia columnaj 1 .

18

ALGEBRA LINEAL

Paso 2. Intercambiar las filas de forma que aparezca una entrada no nula en la primera fila de Ia columna j 1, esto es, conseguir que a 1 i, ¥- 0. Paso 3. Utilizar a 1i. como pivote para obtener cero bajo ei; esto es, para cada i > 1 efectuar Ia operaci6n entre filas - aii,R 1 + a 1i . Ri -+Rio (-aii ) a1 J)R 1 + R;-+ R;. Paso 4. Repetir los Pasos 1, 2 y 3 con Ia submatriz formada por todas las filas, excluyendo Ia primera. Paso 5. Continuar el proceso anterior hasta que la matriz quede en forma escalonada.

EJEMPLO 1.15.

L• motel'

ritmo I.&A como sigue:

A~(; 3

2 4 6

D"

- 3 -2 -4

"dure ' fonn• " "lo"'da medi•nte ol Algo-

Utilizamos a 11 = 1 como pivote para obtener ceros bajo a 11 , esto es, efectuamos las operaciones entre filas -2R 1 + R 2 -+R 2 Y -3R 1 + R 3 -> R 3 para obtener Ia matriz

(~

2

-3

0 0

4 5

Ahora utilizamos a 23 = 4 como pivote para obtener un cero bajo a 2 3 , esto es, efectuamos Ia operaci6n entre lilas - 5R 2 + 4R 3 -> R 3 , obteniendo Ia matriz

(~

2 -3 0 4 0 0

~)

La matriz esta ahora en forma escalonada.

El siguiente algoritmo reduce por filas una matriz escalonada a su forma can6nica por filas. Algoritmo 1.8B

Aqui A

= (aii) esta en forma escalonada, digamos con entradas principales no nulas

Paso 1. Multiplicar Ia ultima fila no nula R, por 1/a,i, de forma que la entrada principal no nula sea 1. Paso 2. Utili~ar a,i, = 1 como pivote para obtener ceros sobre el; esto es, para i = r- 1, r - 2, ... , 1, efectuar la operaci6n

Paso 3.

Repetir los Pasos 1 y 2 para las filas R, _ 1 , R, _ 2 ,

Paso 4.

Multiplicar R 1 por 1/a 1j ,·

... ,

R2 .

SISTEMAS DE ECUACIONES LINEALES

EJ EM PLO 1 .16.

19

Utilizando el Algoritmo 1.8B, Ia matriz escalonada 3 4 0 3

6)

5 2 5

0 0 0 4 se reduce a forma canonica por filas como sigue: Multiplicamos R 3 por ±de forma que su entrada principal no nula sea I; entonces utiliza mos a 35 = 1 como pivote para obtener ceros sobre ei efectuand o las operaciones - 5R3 + R 2 --> R 2 Y - 6R3 + R1--> Rt :

2 3 4 5 6) (20 03 43 25 0)0 . (0 0 0 0 l 0 0 0 0 1

A- 0 0 3 2 5 -

Multiplicamos R 2 por ~ de modo que su entrada principal no nula sea 1; entonces utilizamos a 2 3 pivote para conseguir un 0 encima, con Ia operacion -4R 2 + R 1 -+ R 1 :

2 3 4 5 A- 0 0 l j ( 0 0 0 0

:

=

I como

~)-(~ ~ ~ ~) l

0 0 0

0

l

Finalmente, multiplicamos R 1 por i obteniendo

Esta matriz es Ia for ma canonica por filas de A.

Los Algoritmos 1.8A y 1.88 muestran que cualquier matriz es equivalente por filas a a! menos una matriz en forma can6nica por filas. En el Capitulo 5 demostraremos que tal matriz es 1mica, esto es: Teorema 1.8: Cualquier matriz A es equivalente por filas a una {mica matriz en forma can6nica por filas (Hamada Ia forma canonica por filas de A). Nota: Si una matriz A esta en forma escalonada, sus entradas principales no nulas se denominaran entradas pivote. El termino proviene del algoritmo anterior que reduce por filas una matriz a forma escalonada.

1.9. SISTEMAS DE ECUACTONES LINEALES Y MATRICES La matriz ampliada M del sistema [1.3] de m ecuaciones lineales con n incognitas es Ia siguiente:

M

=

(=:: ._:::.. :.. :::. :.:) a,. 1

a.,2

•••

a.... b.,.

20

ALGEBRA LINEAL

Observese que cada fila de M corresponde a una ecuacion del sistema y cada columna a los coeficientes de una incognita, excepto Ia ultima, que corresponde a las constantes del sistema. La matriz de coeficientes A del sistema [1.3] es

A

= (:.:_:_ . ::: . ::: . :::) a,. 1 a..,2

a...,

• ••

Notese que la matriz de coeficientes A puede obtenerse de Ia ampliada M omitiendo su ultima columna. Un sistema de ecuaciones lineales puede resolverse trabajando con su matriz ampliada. Especificamente, reduciendola a forma escalonada (lo que nos dice si el sistema es compa tible) y luego a su forma canonica por filas. La justificacion de este proceso proviene de los siguientes hechos: l.

Cualquier operacion elemental entre filas en Ia matriz ampliada M del sistema es equivalente a efectuar Ia operacion correspondiente en el sistema mismo.

2.

El sistema tiene solucion si y solo si la forma escalonada de la matriz ampliada no tiene una fila de Ia forma (0, 0, ... , 0, b) con b '# 0.

3.

En la forma can6nica por filas de Ia matriz ampliada M (excluyendo filas nulas) el coeficiente de cada variable no libre es una entrada principal no nula igual a uno y es Ia unica entrada distinta de cero en su columna; de aqui Ia solucion en forma de variables libres se obtiene simplemente transfiriendo los terminos de variable no libre a! otro miembro. ·

Este proceso se ilustra en el siguiente ejemplo. EJEMPLO 1.17 a)

El sistema

x + y - 2z + 4t = 5 2x + 2y - 3z + t = 3 3x + 3y - 4z - 2t = l se resuelve reduciendo su matriz ampliada M a forma escalonada y despues a forma can6nica por filas como sigue:

'M =

r

-2

4

1

-2

4

-3 3 . 3 -4 -2

0

1 2

-7

2

2

0

- 14

-~)-G

-14

0

0 -10 -9) 1

-7

-7

[La tercera fila (en Ia segunda matriz) se suprime, puesto que es un multiplo de Ia segunda y resultara una fila nula.] Asi Ia soluci6n general en forma de variables libres del sistema es como se indica a continuaci6n:

x+y

-lOt= -9 z - 7t = -7

0

X= -9 - y +lOt z = -7 + 1t

Aqui las variables libres son y y r, y las no libres x y z.

SISTEMAS DE ECUACIONES LINEALES

b)

21

El sistema

x1 2x 1 5x 1

+ x 1 - 2x 3 + 3x4

+ 3x1 + 3x 3 + 7x 2 + 4x 3 +

= 4 x4 = 3 x4 = 5

se resuelve como sigue. Para empezar, reducimos su matriz ampliada a forma escalonada:

M~(i

3 7

-2 3 4

:)-(~

3 -1 1

2

-2 7 14

3 -7 -14

-~)- (: 15

1 0

0

-2 7 0

3 -7 0

-~)

-5

No hay necesidad de continuar pa ra hallar Ia forma can6nica por filas de Ia matriz, puesto que Ia matriz escalonada ya nos indica que el sistema no tiene soluci6 n. Especificamente, Ia tercera fila en Ia matriz escalonada corresponde a Ia ecuaci6n degenerada

q ue no tiene soluci6 n. c)

El sistema X+ 2y + Z = 3 2x + 5y- z = -4 3x - 2y - ·z = 5

se resuelve reduciendo su matriz ampliada a forma escalonada y luego a forma can6nica por filas como sigue: 2

5 -2

3) (1 2 -1~)- (~ 0 0) (1 -1~)-(~ 1

-1 -1 2

-4 5

1

-3 0

0 0

1 -8

-3 -4

-4

0

2 1

0

0 -1 1 3

0 0

2

0

-~ -1~) ~

-28

-84

! ~ -:)

De este modo, el sistema tiene Ia soluci6n (mica x = 2, y = - 1, z = 3 o u = (2, -1 , 3). (N6tese que Ia forma escalonada de M ya indicaba que Ia soluci6n era (mica, puesto que correspondia a un sistema triangular.)

1.10.

SISTEMAS DE ECUACIONES LINEALES HOMOGENEOS

Se dice que el sistema de ecuaciones lineales [1.3] es homogeneo si todas las constantes son iguales a cero, esto es, si tiene Ia forma a 11 x 1 + a 12 x 2 + · · · + a 1 ,.x,. = 0 a 21 x 1 + a 22 x 2 + · · · + a 2 ,.x,. = 0

De becho, [1.6] se denomina el sistema homogeneo asociado con el sistema [1.3].

[1.6]

22

ALGEBRA LINEAL

El sistema homogimeo (1 .6) siempre tiene una solucion, a saber, la n-pla nula 0 = (0, 0, ... , 0) Hamada Ia solucion nula o trivial. (Cualquier otra solucion, si existe, se denomina solucion no nula o no trivial.) Siendo asi, el sistema siempre puede reducirse a uno homogeneo equivalente en forma escalonada:

+ · · · + a 1,.xft = 0 a2hxh + al.h+lxh+l + ... + al,.xft = 0

a 11x 1 + a 12 x 2 + a 13 x 3

a,i.xi,

[1.7)

+ a,, 1,+ 1x,;..+t + · ·· + a,,.x,. = 0

Existen dos posibilidades: i) r = n. En tal caso, el sistema tiene solo la solucion nula. ii) r < n. Entonces el sistema tiene una solucion no nula. De acuerdo con esto, si empezamos con menos ecuaciones que incognitas, tendremos, en forma escalonada, r < n y por consiguiente el sistema tendra una solucion no nula. Esto prueba el importante teorema siguiente. Teorema 1.9: Un sistema de ecuaciones lineales homogeneo con mas incognitas que ecuaciones tiene solucion no nula. EJEM PLO 1 .18 a) 'El sistema homogeneo

+ 2y - 3z + w = 0 x - 3y + z- 2w = 0 2x + y - 3z + 5w = 0 x

tiene una soluci6n no nula porque hay cuatro incognitas pero solo tres ecuaciones. b)

Reducimos el siguiente sistema a forma escalonada: x+ y- z=O 2x - 3y + z = 0 x- 4y + 2z = 0

x+y- z=O -5y+3z=O -5y + 3z = 0

x+y- z=O -5y + 3z = 0

El sistema tiene una solucion no nula, puesto que hemos obtenido solo dos ecuaciones para las tres inc6gnitas en forma escalonada. Por ejemplo, sea z = 5; entonces y = 3 y x = 2. Dicho de otro modo, Ia terna (2, 3, 5) es una solucion particular no nula. c)

Reducimos el siguiente sistema a forma escalonada: x+ y- z=O 2x + 4y- z = 0 3x + 2y + 2z = 0

x+y- z = O 2y + z = 0 -y+ 5z = 0

x+y-z=O 2y + z = 0 llz = 0

Como en forma escalonada hay tres ecuaciones y tres incognitas, el sistema dado tiene solo Ia soluci6n nula {0, 0, 0).

SISTEMAS DE ECUACIONES LINEALES

23

BASE PARA LA SOLUCION GENERAL DE UN SISTEMA HOMOGENEO Denotemos po r W Ia soluci6n general de un sistema homogeneo. Se dice que los vectores soluci6n no nulos u 1 , u2 , ... , u. forman una base de W si todo vector soluci6n w en W puede expresarse d e forma (mica como combinaci6n lineal de u 1 , u 2 , ... , u•. El numero s d e tales vectores base se denomina Ia dimension de W, escrito dim W = s. (Si W = {0}, dim W = 0, por definicion.) El siguiente teorema, probado en el Capitulo 5, nos dice como hallar tal base. Teorema 1.10: Sea W Ia soluci6n general d e un sistema homogeneo y supongamos que Ia fo rma escalonada del sistema tiene s variables libres. Sean u 1, u 2 , . .. , u. las soluciones obtenidas haciendo una de las variables libres igual a uno (o a cualquier constante distinta de cero) y las rest antes varia bles libres iguales a cero. Entonces dim W = s y u 1 , u2 , ... , us fo rman una base deW No ta: La expresi6n combinacion lineal utilizada anteriormente se refiere a suma de productos de un vector por un escalar , donde tales operaciones se d efinen segun (al, al , ... , an)+ (b l, b2, ... ,b.)= (al + bl, a2 + bl, ... ,an+ b.)

k(a 1, a 2 ,

• ••

,a.)= (ka 1, ka 2 ,

••• ,

ka.)

Estas operaciones se estudiaran en detalle en el Capitulo 2. EJEMPLO 1 .19. Su pongamos que queremos encontrar Ia dimension y una base para Ia soluci6n general W del sistema homogeneo x + 2y - 3z + 2s - 4t = 0 2x + 4y - 5z + s - 6t = 0 5x +lOy- l3z + 4s- 16t = 0 Para empezar reducimos el sistema a forma escalonada . Efectuando las operaciones - 2L 1 - 5L2 + L 3 .... L 3 y despues - 2L2 + L 3 --> L 3 se obtiene:

x

+ 2y -

3z

+ 2s -

4t = 0

z - 3s + 2t 2z- 6s + 4t

=

0

=

0

x

y

+ 2y- 3z + 2s- 4t =

+ L 2 .... L 2

y

0

z-3s+2t = O

En forma escalonada, el sistema tiene t res variables libres, y, s y t; de a qui dim W = 3. Se obticnen trcs vectores sol ucion que forman base de W como sigue: I.

Hacemos y = I, s = 0, t = 0. La sustituci 6n hacia atras proporciona Ia soluci6n u 1 = (- 2, I, 0, 0, 0).

2.

Hacemos y = 0. s = I, t = 0 . La sustituci6n hacia atras proporciona Ia soluci6 n u 2 = (7, 0, 3. I, 0).

3.

Hacemos y = 0, s = 0. t = I. La sustitucion hacia a tnis proporciona Ia sol ucion u 3 = ( - 2, 0, -2, 0, I).

El conjunto {u 1 , u2 , u 3 ] cs una base de W. Ahora bien, cualquier soluci6n del siste ma puede escribirse de Ia form a au 1

+ bu 2 + cu 3 =a(- 2,

I, 0. 0, 0)

+ b(7, 0, 3,

I, 0) + c( -2, 0, - 2, 0, I) = ( - 2a + 7b - 2c, a, 3b - 2c. b. c )

donde a, b y c son constantes arbitrarias. Observese que esto no es mas que Ia forma parametrica de Ia so luci6n general con Ia elecci6n de parametros y = a, s = b y r = c.

24

ALGEBRA LINEAL

SISTEMAS INHOMOGENEOS Y SUS SISTEMAS HOMOGENEOS ASOCIADOS

La relaci6n entre el sistema inhomogeneo [1.3] y su sistema homogeneo asociado [1.6] esta contenida en el siguiente teorema, cuya demostraci6n se pospone hasta el Capitulo 3 (Teorema 3.5). Teorema 1.11: Sean v una soluci6n particular y U la soluci6n general de un sistema inhomogeneo de ecuaciones lineales. En tal caso, U

= v0 + W

=

{v 0 + w : W E W}

donde W es la soluci6n general del sistema homogeneo asociado. Esto es, U = v0 + W puede obtenerse sumando v0 a cada elemento de W. EI teo rema anterior tiene una interpretacion geometrica en el espacio R 3 • De forma especifica, si W es una recta que pasa por el origen, como se muestra en Ia Figura 1-4, U = v0 + W es Ia recta paralela a W que puede obtenerse sumando v0 a cada elemento de W. Analogamente, siempre que W sea un plano por el origen, entonces U = v0 + W es un plano paralelo a W . z

v0

+

W

X

Figura 1-4.

PROBLEMAS · RESUELTOS

ECUACIONES LINEALES. SOLUCIONES 1.1.

Determinar si cada una de las siguientes ecuaciones es lineal: a)

5x

+ 7y - 8yz = 16

b)

x

+ ny + ez =

log 5

c)

a)

No, porque el producto yz de dos incognitas es de segundo grado.

b)

Si, puesto que rc, e y log 5 son constantes.

3x

+ ky -

8z = 16

SISTEMAS DE ECUACIONES LINEALES

c)

1.2.

25

Tal y como aparece, hay cuatro incognitas: x, y, z, k. Debido a! termino ky, noes una ecuacion lineal. No obstante, supuesto que k sea una constante, Ia ecuacion es lineal en las incognitas X, y, Z.

Considerese Ia ecuaci6n lineal x

+ 2y -

3z = 4. D eterminar si u

= (8,

1, 2) es soluci6n.

Co mo el o rden de las incognitas es x, y, z, u = (8, I, 2) es una abreviatura de x = 8, y = I, z = 2. Sustituimos en Ia ecuacio n para obtener 8

+ 2(1)- 3(2) =

4

8+2 - 6=4

0

4= 4

0

Si, es una solucion.

1.3.

Determinar si a) u = (3, 2, 1, 0) y b) v x 1 + 2x 2 - 4x 3 + x 4 = 3. a)

b)

1.4.

=

(1 , 2, 4, 5) son soluciones de Ia ecuaci6n

Sustituimos para obtener 3 + 2(2)- 4{1)

+ 0 = 3, o 3 = 3; si, es una solucion. Sustituimos para obtener I + 2(2)- 4 (4) + 5 = 3, o - 6 = 3; no es solucion.

(,Es u = (6, 4, -2) una solucion de Ia ecuaci6n 3x 2

+ x3

-

x 1 = 4?

Por convenio, las componentes de u est{m o rdcnadas de acuerdo con los subindices de las incognitas. Esto es, u = (6, 4, - 2) es una abreviatura de x 1 = 6, x 2 = 4, x 3 = - 2. Sustituyendo en Ia ecuacion obtenemos 3(4)- 2- 6 = 4, o 4 = 4. Si, es una solucion.

1.5.

Probar el Teorema 1.1. Supongamos a f. 0. Entonces existe el escalar bia, Sustituyendo bfa en ax = b se obtiene a(bja) = b, o b = b; por consiguiente, hja es una solucion. Por otra parte, supongamos que x 0 es solucio n de ax = b, de forma que ax0 = b. Multiplicando ambos miembros por l ja se obtiene Xo = bja. De aqui b/a es Ia unica soluci6n de ax = h. Po r tanto, i) q ueda demostrado. . Sea ahora, por el contra rio, a = 0. Entonces, para todo escalar k, tenemos ak = Ok = 0. Si h # 0, ax # b. De acuerdo con esto, k no es soluci6n de ax = b y queda asi demostrado ii). Si b = 0, ak = b. Esto es, cualquier escalar k es una soluci6n de ax = b y queda demostrado iii).

1.6.

Resolver cada una de las siguientes ecuaciones:

+3

a) ex = log 5

c) 3x - 4 - x

b) ex= 0

d) 7 + 2x - 4 = 3x + 3 - x

=

2x

Como e t- 0, multiplicamos por 1/e obteniendo x = (log 5)/e. b) Si c # 0, 0/c = 0 es Ia unica solucion. Si c = 0, todo escalar k es soluci6 n [Teorema I. I iii)).

a)

c) La reescribimos en forma convencional, 2x- 4 = 2x + 3 6 Ox = 7. La ecuaci6 n no tiene solucion [Teorema 1.1 ii)]. d)

1.7.

La reescribimos en forma convencional, 3 + 2x = 2x + 3 6 Ox solucion [Teorema 1. 1 iii)].

Describir las soluciones de Ia ecuaci6n 2x

+y+x

- 5 = 2y

=

0. Todo escalar k es una

+ 3x -

y

+ 4.

La reescribimos en forma convenciona l, agrupando terminos y trasponiendo: 3x

+y-

5= y

+ 3x + 4

0

Ox+ Oy = 9

La ecuacion es degencrada con una constante no nula. Sicndo asi, Ia ecuacion no tiene solucion.

26 1.8.

ALGEBRA LINEAL

Describir las soluciones de Ia ecuaci6n 2y

+ 3x - y + 4 =

x

+ 3 + y + 1 + 2x.

La reescribimos en forma con vencional. agrupando terminos y trasponiendo:

y + 3x + 4 = 3x + 4 + y

Ox + Oy = 0

0

La ecuacion es degenerada con constante nula; en consecuencia, todo vector u una solucion.

1.9.

= (a,

b) en R 2 es

Probar el Teorema 1.3. Probemos primero i). Tomamos xi= k1 para j i= p. Como a1 = 0 para j < p. Ia sustitucion en Ia ecuacion nos conduce a 0

con aP "' 0. Por el Teorema 1.1 i), xp esta univocamente determinado como:

Por tanto, queda probado i). Probemos ahora ii). Supongamos que u = (k 1 , k 2 ,

••• ,

k.) es una solucion. Entonces

0

De cualquier modo, esta es precisamente Ia solucion

-(k

u-

1• ••• ,

kp-1•

b-ap+lkp+l-···-a.k.

aP

) 'ke+l• ... , k.

obtenida en i). Queda asi probado ii).

1.10.

Considerese Ia ecuaci6n lineal x - 2y + 3z = 4. Hallar: a) tres soluciones particulares, b) Ia soluci6n general. a)

Aqui x es Ia primera incognita. De acuerdo con ello, asignamos valores cualesquiera a las variables libres y y z y luego despejamos x para obtener una solucion. Por ejemplo: I . Tomamos y

= 1 y z = 1. La sustitucion en Ia ecuacion nos conduce a x-2(1}+3{1) = 4

Por consiguiente, u 1

b)

=

x-2+3 =4

0

x=3

(3, I, I} es una solucion.

2.

Tomamos y = I, z = 0. La sustituci6n proporciona x soluci6n.

3.

Tomamos y soluci6n.

=

0

=

6; por tanto, u 2

=

{6, I, 0) es una

0, z = I. La sustituci6n proporciona x = I; por tanto, u 3 = (1, 0, l) es una

Para hallar Ia soluci6n general asignamos valores arbitrarios a las variables libres, digamos = a y z = b. (Llamamos a a y b panimctros de Ia soluci6n.) Despues sustituimos en Ia ecuaci6n para obtener

y

x- 2o + 3b = 4 Asi u = (4

+ 2a- 3b, a,

0

b) es Ia soluci6n generaL

x

=

4

+ 2a- 3b

SISTEMAS DE ECUACIONES LINEALES

27

SISTEMAS EN FORMA TRIANGULAR Y ESCALONADA

1.11.

Resolver el sistema 2x - 3y + Sz - 2t = 9 5y- z + 3t = 1 7z- t = 3 2t = 8 i)

El sistema esta en forma triangular; por tanto, resolvemos por sustitucion hacia atras. La ultima ecuacion proporciona t = 4.

ii)

Sustituyendo en Ia tercera sc obtiene 7z - 4 = 3, 7z = 7 o z = I.

iii)

Sustituyendo z

=

I y t

=4

5y- I + 3(4) = I iv)

Sustituyendo y

2x- 3( - 2) Asi x =:' 3, y

=

en Ia segunda ecuacion obtenemos

5y- 1 + 12 =I

0

= -2, z = I,

+ 5(1) -

0

5y = -10

0

y= - 2

t = 4 en Ia primera ecuacion tendremos

2(4) = 9

0

2x+6+5-8 = 9

0

2x = 6

0

x= 3

-2, z = I, t = 4 es Ia soluci6n \mica del sistema.

1.12. Determinar las variables libres en cada uno de los sistemas: 3x + 2y- Sz- 6s z

+ 2t = 4 + Ss- 3t = 6 s - St= 5 a)

5x- 3y + 7z = 1 4y + Sz = 6 4z = 9

x+2y-3z= ,2 2x- 3y + z = 1 Sx - 4y- z = 4

b)

c)

a)

En forma escalonada, cualquier incognita que no sea primera es variable fibre. Aqui y y t son las variables libres.

b)

Las primeras incognitas son x , y, z. Por consiguientc, no hay variables libres (como en cualquier sistema triangular).

c)

La nocion de variable libre se aplica solo a sistemas en forma escalonada.

1.13. Probar el Teorema 1.6. Existen dos casos: i) r = n. Esto es, hay tantas ecuaciones como incognitas. En tal caso, el sistema tiene solucion unica. ii) r < n. Esto es, hay menos ecuaciones que incognitas. Entonces podemos asignar valores a las n - r variables libres arbitrariamente y obtener una soluci6n del sistema. Se demuestra por induccion en el numero de ecuaciones del sistema, r. Si r = I, tenemos una sola ecuaci6n lineal, no degenerada, a Ia que se aplica el Teorema 1.3 cuando n > ,. = 1, y el Teorema 1.1 cuando n = r = I. De este modo, el teorema es valido para r = I. Ahora supongamos que r > 1 y que el teorema es vatido para un sistema con r - I ecuaciones. Podemos ver las r - I ecuaciones

28

ALGEBRA LINEAL

como un sistema con incognitas xi~· ... , x". Notese que el sistema esta en forma escalonada. Por Ia hipotesis de induccion, podemos asignar arbitrariamente valores a las (n - } 2 + I) - (r - 1) variables libres en el sistema reducido para obtener una solucion (digamos xi,= ki,• . .. , x" = k"). Como en el caso r = I, estos valores, junto con valores arbitrarios de las } 2 - 2 variables libres adicionales (digamos x 2 = k 2 , ... , xi, _ 1 = ki, _ 1 ), conducen a una solucion de Ia primera ecuaci6n con

(Observese que hay (n - } 2 + I) - (r - I) + (}2 - 2) = n - r variables libres.] Ademas, estos valores para x 1, •.. , x" tam bien satisfacen las otras ecuaciones ya que, en estas, los coeficientes de x 1 , •••. xi,-l son nulos. Ahara, si r = n, entonces }2 = 2. Asi obtenemos, por induccion, una solucion \mica del subsistema y por ende una solucion Cmica del sistema completo. De acuerdo con esto, el teorema queda demostrado.

1.14.

Hallar Ia soluci6n general del sistema escalonado

x- 2y - 3z + 5s - 2t = 4 2z - 6s + 3t = 2 5t = 10 Como las ecuaciones empiezan con las incognitas x, z y t, respectivamente, las restantes, y y s, son las variables libres. Para encontrar Ia solucion general asignamos parametros a las variables libres, digamos y = a y s = b, y utilizar sustitucion hacia atras para despejar las variables no libres x, z y t. i)

La ultima ecuacion conduce a t

·• ii) Sustituimos t

2z - 6b

= 2, s = b en

+ 3(2) =

2

= 2.

Ia segunda ecuacion para obtener

2z - 6b + 6 = 2

0

0

2z = 6b - 4

0

z

=

3b- 2

iii) Sustituimos t = 2, s = b, z = 3b - 2, y = a en Ia primera ecuacion para obtener

x- 2a- 3(3b - 2) + 5b- 2(2) = 4

o

x - 2a - 9b + 6 + 5b- 4 = 4

o

x = 2a + 4b + 2

Asi

x

=

2a + 4b

+2

y=a

z

=

3b- 2

s= h

t=2

o. equivalentemente,

u = (2a

+ 4b + 2,

a, 3b - 2, b, 2)

es Ia forma parametrica de Ia soluci6n general. Alternativamente, despejar x, z y ten funci6n de las variables libres y y s proporciona Ia solucion general en forma de variables libres:

x = 2y + 4s

+2

z

=

3s - 2

t=2

SISTEMAS DE ECUACIONES LINEALES. ELIMINACION GAUSSIANA 1.15.

Resolver el sistema X - 2y + Z = 7 2x- y + 4z = 17 3x - 2y + 2z = 14

1 SISTEMAS DE ECUACIONES LINEALES

29

Lo reducimos a forma escalonada. Efectuamos - 2L 1 + L 2 ~L 2 y - 3L 1 +L 3 ~ L 3 para eliminar x de las ecuaciones segunda y tercera y a continuaci6n efectua mos -4L 2 + 3L 3 -+ L 3 pa ra eliminar y de Ia tercera ecuaci6n. Estas operaciones conducen a x - 2y+ z= 7 3y + 2z = 3 4y- z= ·-1

X -

y

2y + Z= 7 3 3y + 2z = - llz = -33

El sistema esta en forma triangular y por tanto tras Ia sustituci6n hacia atnis, tiene Ia soluci6n tinica u = (2, - 1, 3).

1.16

Resolver el sistema

2x - 5y + 3z - 4s + 2t = 4 3x - 7y + 2z - Ss + 4t = 9 Sx - lOy - 5z - 4s + 1t = 22 Lo reducimos a forma escalonada. Efectuamos las operaciones - 3L 1 + 2~-> L 2 y - 5L 1 + 2L 3 -> L 3 y luego - 5L 2 + L 3 -> L 3 para obtener 2x - 5y + 3z - 4s + 2t = 4 y - 5z + 2s + 2t = 6 5y- 25z + l2s + 4t = 24

y

2x - 5y + 3z - 4s + 2t = 4 y - Sz + 2s + 2t = 6 2s- 6t = - 6

El sistema esta ahora en forma escalonada. Despejando las primeras incognitas, x , y y s, en terminos de las variables libres, z y r, obtencmos Ia soluci6n general en forma de variables libres: •

x = 26

+ 11 z -

15r

y = 12 + 5z- 8t

s

=

- 3 + 3t

De esta se obtiene de una vez Ia forma parametrica de Ia soluci6n general (con z = a, t = b):

x = 26 + 11 a - i5b

1.17.

y = 12 + 5a- 8b

z=a

s = - 3 + 3b

t=b

Resolver el sistema

2y - 3z + 4t = 2 2x + 5y - 2z + t = l Sx + 12y - 7z + 6r = 7 x

+

Reducimos el sistema a forma escalonada. Eliminamos x de las ecuacio nes segunda y tercera mediante las operaciones - 2L 1 + L 1 -> L 1 y - 5L 1 + L 3 --+ L 3 ; esto proporciona e1 sistema x

+ 2y -

3z + 4t = 2 y+ 4z - 1t =- 3 2y+8z-14t= - 3

La operaci6n - 2L 2 + 1. 3 -+ L 3 proporciona Ia ecuaci6n degenerada 0 = 3. Siendo asi, el sistema no tiene solucion (incluso a pesar de tener mas incognitas que ecuaciones).

1.18.

Determinar los valores de k para que el siguiente sistema, con incognitas x, y, z, tenga: i) una solucion (mica, ii) ninguna solucion, iii) infinitas soluciones.

x+ y- z= l + 3y + kz = 3 X+ ky + 3y = 2

2x

r

==

30

1

ALGEBRA LINEAL

Reducimos el sistema a forma escalonada. Eliminamos x de las ecuaciones segunda y tercera mediante las operaciones - 2L 1 + L 2 -+ L 2 y - L 1 + L 3 -+ L 3 para obtener

x+

yy + (k (k - l)y +

z=i

+ 2)z =

1

4z = 1

Para eliminar y de Ia tercera ecuacion efectuamos Ia operacion - (k- 1) L 2

x+yy+

+ L 3 -+ L 3

para obtener

z=1 (k + 2)z = 1 (3 + k)(2 - k)z = 2 - k

El sistema tiene solucion unica si el coeficiente de z en Ia tcrccra ccuaci6n es distinto de cero; esto es, si k '# 2 y k ,;, -3. En el caso k = 2, Ia tercera ecuaci6n se reduce a 0 = 0 y el sistema tiene un numero infinito de soluciones (una para cada valor de z). En el caso k = -3, Ia tercera eeuaci6n se reduce a 0 = 5 y el sistema no tiene soluci6n. Resumiendo: i) k =ft 2 y k =ft 3, ii) k = -3, iii) k = 2.

1.19.

~Que condicion debe imponerse a a, b y c para que el siguiente sistema, con incognitas ~· y y z, tenga soluci6n? .! x +2y- 3z =a 2x + 6y - llz = b x- 2y + 7z = c Reducimos el sistema a forma escalonada. Eliminando x de las ecuaciones segunda y tercera mediante las operaciones - 2L 1 + L 2 -+ L 2 y - L 1 + L 3 -+ L 3 obtenemos el sistema equivalente:

x

+ 2y- ' Jz =a 2y..:... Sz = b- 2a - 4y + lOz = c- a

Eliminando y de Ia tercera ecuaci6n mediante Ia operacion 2L2 el sistema equivalente

x

+ L 3 -+ L 3

obtenemos finalmente

+ 2y- Jz =a 2y- Sz = b- 2a 0 = c + 2b- Sa

El sistema no tendra soluci6n si c + lb - Sa =ft 0. Asi el sistema tendra al menos una soluci6n si c + lb- Sa= 0, o Sa= lb +c. Observese que en este caso el sistema tendra infinitas soluciones. En otras palabras, el sistema no puede tener soluci6n U.nica.

MATRICES. MATRICES ESCALONADAS. REDUCCION POR FILAS 1.20.

Intercambiar las filas en cada una de las rria trices siguientes para obtener una matriz escalonada:

(~

1 .-3 0 2 0 7

a)

4

5 -2

-~) (!

0 2 0

0 3 5 b)

0

4 -4

~) G

2 3

2 1



0 c)

2 0 0

~)

SISTEMAS DE ECUACIONES LINEALES

31

a)

Intercambiamos las filas primera y segunda, es decir, efectuamos Ia operaci6n elemental entre filas R 1 <---> R 2 •

h)

Llevamos Ia fila nula a Ia parte inferior de Ia matriz. es decir, efectuamos Ia operaci6n R 1 +-+ R 2 y luego R 2 ...... R 3 .

c) Ningun numero de intercambios de filas puede producir una matriz escalonada.

1.21.

Reducir por filas la siguiente matriz a forma escalonada:

2 4 6

~)

-3 -2 -4

Utilizamos a 11 = I como pivote para obtener ceros bajo el; esto es, efectuamos las operaciones · entre filas - 2R 1 + R 2 -> R 2 y - 3R 1 + R 3 -> R 3 para obtener Ia matriz

(~

2 -3 0 4 0 5

~)

Ahora utilizamos a 23 = 4 como pivote para obtener un cero bajo el; esto es, efectuamos Ia operaci6n entre filas -5R 2 + 4R 3 .... R 3 para o btener Ia matriz

(~

2

- 3

0

4

0

0

~)

que esta en forma escalonada.

1.22.

Reducir por filas Ia siguiente matriz a forma escalonada:

B

~ -~ ~ =!) (

Los calculos manuales suelen ser mas simples si el elemento pi vote es igual a I. Por consiguiente, primero intercambiamos R 1 y R 2 ; luego efectuamos 4R 1 + R 2 ---> R 2 y -6 R 1 + R 3 -> R 3 ; y entonces efectuamos R 2 + R 3 -> R 3 :

-5) ~ =~)~(~ ~ -5) (1 2 0 0 3

- 4

0

- 9

-26 26

~

0 0

9

-26

La matriz esta ahora en forma escalonada.

1.23.

Describir el algoritmo de reducci6n p or filas pivotando. Ademas, describir las ventajas, si las hay, de utilizar este algoritmo. El algoritmo de reducci6n por filas se convierte en un algoritmo de pivotar si la entrada de mayor valor absoluto en Ia columna j se elige como el pivote a 11 , y si se utiliza Ia operaci6n entre filas

32

ALGEBRA LINEAL

La principal ventaja del algoritmo de pivotar cs que Ia operaci6n e ntre filas anterior solo implica division por el pi vote a tj, y en las computadoras los errores de redondeo pueden ser sustancialmente reducidos cuando se divide por un numero tan grande en valor absoluto como sea posible.

1.24.

Usar el algoritmo de pivotar para reducir Ia siguiente matriz A a forma escalonada:

- 2 6

-7

2 0 10

Primero intercambiamos R 1 y R2 de modo que -3 pueda ser utilizado como el pivote y entonces efectuamos (1)R 1 + R 2 -+ R 2 y (i) R 1 + R 3 _, R 3 :

A-

-3

6

~

-2 -7

(

0-1) (-3 2

10

0

6

1 -

0

2

2

2

0

- 5

10

Ahora intercambiamos R 2 y R 3 de modo que - 5 pueda ser utilizado como el pivote y efectuamos + R3 _, R3:

WRz

- 3

6

6

0

~

-5

-5

10

2

0

6

A~ (

Se ha llevado Ia matriz a forma escalonad a.

FORMA CANONICA POR FILAS 1.25.

~Cmiles

(~

de las siguientes matrices estl'm en forma can6nica por filas? 2

0 0

-3 5 0

0 2 7

-~) (~

1

7

-5

0 0

0 0

0 0

r) (~

0 1 0

5 2 0

0 0

~)

La primera matriz no esta en forma can6nica por filas puesto que, por ejemplo, dos de las entradas principales no nulas son 5 y 7 en Iugar de 1. Ademas, hay entradas distintas de cero sobre las entradas principales no nulas 5 y 7. Las matrices segunda y tercera estan en forma can6nica por filas.

1.26.

Reducir Ia siguiente matriz a forma canonica por filas:

B~(:

2 4 6

-1 1

6 10

0

20

~~)

19

SISTEMAS DE ECUAC IONES LINEALES

33

Primero red ucimos B a forma escalona da efectu ando -2R 1 +R2 --+R 2 y -3R 1 +R 3 --.R 3 y e ntonces -R 2 + R 3 -> R 3 :

2 0 0

-1 3 3

6 -2 2

2 -1 0 3 0 0

~)

6 - 2 4

A continuaci6n reducimos Ia matriz escalonada a forma ca n6nica po r lilas. Especificamente. de modo que el pivote sea b 34 = l , y entonces efectuamos multiplicamos primero R 3 por 2R 3 + R 2 - . R 1 y - 6R 3 + R 1 --+ R 1 :

±.

2 0 0

-1

6

3

-2

0

2 0

-1 3

0

0

0

Ahora multiplicamos R 2 por }. hacienda el pivote b 23 = I. y efectuamos R 2

2

-1

0

0

1

0

0

0

Fi nalmente. multiplicamos R 1 por

1.27.

t

2 0 0



0

0

0

1

0

0

+

R 1 -. R 1:

~)

para obtener Ia forma can6nica por lilas

1 0

0 1

0 0

0

0

1

~)

Red ucir la siguiente matriz a form a can6nica por filas:

A~ (i

-2

3

1

1

4

-1

5

9

-2

~)

Primero reducimos A a forma escalonada efectuando - R 1 entonces efectua ndo -3R 2 + R 3 --. R 3 :

1 -2 A- 0 3 ( 0 9

3 1 -2 3 -4

2) (1 -2 1 -

0

3

4

0

0

+ R 2 -+ R 2 3

y - 2R 1

+ R 3 --. R 3

y

1

1 -2 0 2

Ahora utilizamos sustituci6n hacia atras. Multiplicamos R 3 po r t para obtener el pivote a 34 = l y entonces efectuamos 2R 3 + R 2 -+ R 2 y - R 3 + R 1 --. R ,:

A-(~

-2 3

0

3 1 0

1

-2

1)- (~

-2

3

3 0

1

0 0

0

1

:)

34

ALGEBRA LINEAL

Ahora multiplicamos R 1 pori para obtener el pivote a 22 = l y entonces efectuamos 2R 2

A-(~

-2

3

0

1

1

!

0

0

0

!)-(~

0

¥

1

1

0

0

0 0

+ R 1 ~ R 1:

!)

Como a 11 = I. Ia ultima matriz es Ia forma canonica po r filas deseada.

1.28.

Describir el algoritmo de eliminaci6n de Gauss-Jordan, que reduce una ma triz arbitraria A a su forma can6nica por filas. El algoritmo de Gauss-Jorda n es simila r a! de eliminacio n gaussiana. salvo que aqui primero se normaliza una lila para obte ner un pivote unidad y a continuacion se utiliza el pivote para situar ceros tanto debajo como encima de el antes de obtener el pivote siguiente.

1.29.

Utilizar Ia eliminaci6 n de Gauss-Jordan para obtener Ia forma can6nica por filas de la matriz del Problema 1.27. Usamos Ia entrada principal no n ula a 11 = I como pivote para poner ceros debajo. efectuando ~ R 2 y -2R 1 + R 3 -+ R 3 ; esto proporciona

-R 1 + R 2

-2 3

1 A- 0 (

0

9

~)

3 1 1 -2 3 -4

Multiplicamos R2 por i para consegui r el pivote a22 = I y obtenemos ceros encima y debajo de a22 efectuando -9R 2 + R 3 ~ R 3 y 2R 2 + R 1 ~ R 1 :

A-G

-2 1 9

3

1

t -1 3

- 4

!)-(~

0 1 0

¥ -t

1 -1 0

2

;)

Por ultimo. multiplicamos R 3 por 1 para consegui r el pivote a 3 4 = I y o btenemos ceros sobre a 34 efectua ndo (~) R 3 + R 2 ~ R 1 y {1)R 3 + R 1 ~ R 1 :

A-G 1.30.

0 0

_,

¥ -t t 0

!)-(~

1

¥ t

0

0

0

0 0

!)

Se habla de «una» forma escalonada de una ma triz A y de «Ia» forma can6nica por filas de A . <.Por que? Una matriz arbitraria A puede ser equivalente por filas a muchas matrices escalo nadas. Por el contra rio, con independencia del algoritmo utilizado, una matriz A es equivalente por filas a una unica matriz en forma canonica por filas. (El termino «ca n6nico» usua lmente connota unicidad .) Por ejemplo, las formas ca nonicas por lilas de los Problemas 1.27 y 1.29 son iguales.

35

SISTEMAS DE ECUACIONES LINEALES

1.31.

Dada una matriz escalonada n x n en forma triangular, au 0 A= 0 9 o • "• •

au

a13

at, •-1

a22

a23

al,n - 1

0

a3J

0 3,,-1

o•

0

o. o

o• ••

o

oo

0

0

o••

••

0

0

00 0

ah

00 • • • •

0

a""

con todos los a;; i= 0, hallar Ia forma can6nica por filas de A.

a,.. =

Multiplicando R. por 1/a.,. y utilizando el nuevo

all 0 0 ••



0

all an a23 U22 0 a33 •••

••••





0

al.n - 1

a2. n -

1

a3,n-l ••••••

•••

0

0

1 como pivote obtenemos Ia matriz

•••

0

0

••

1

Observese que Ia ultima columna de A lie ha convertido en un vector unitario. Cada sustitucion hacia atras subsiguiente proporciona un nuevo vector columna unitario y el resultado final es

A~(~ ~. ..~) 0 0 ...

1

es decir, A tiene Ia matriz identidad, I , n ~ n, como su forma can6nica por lilas.

1.32.

Reducir Ia siguiente matriz triangular con elementos diagonales no nulos a forma can6nica por filas:

c~(~

-9

;)

2

0

Por el Problema 1.31, C es equivalente por lilas a Ia matriz identidad. D e forma a lternativa, por sustituci6n hacia atfas,

c-(~

- 9 2 0

;)-(~

- 9 2 0

;)-G

- 9 1 0

;)-(~

0 1 0

;)-(~

0 1 0

SISTEMAS DE ECUACIONES LINEALES EN FORMA MATRICIAL

1.33.

Hallar Ia matriz ampliada M y Ia matriz de coeficientes A del siguiente sistema: x + 2y - 3z = 4 3y- 4z + 7x = 5 6z + Sx- 9y = 1

;)

36

ALGEBRA LINEAL

Empezaremos alineando las incognitas del sistema para obtener

x + 2y- 3z = 4 7x + 3y- 4z = 5 8x - 9y + 6z =I Entonces

1.34.

2 3

-3 -4

-9

6

y

Resolver, utilizand o Ia matriz ampliada,

x - 2y + 4z = 2 2x- 3y + 5z = 3 3x- 4y + 6z = 7 Reducimos Ia matriz ampliada a forma escalonada:

1 -2 2 -3 ( 3 -4

2) (1 -2 4

4

5 6

3 7

0 0

I 2

-2 l

-3 -6

0

La te rcera fila de Ia matriz escalonada corresponde a Ia ecuacion degenerada 0 = 3; en consecuencia. el ·s istema no tiene soluci6n.

1.35.

Resolver, utilizando Ia matriz ampliad a ,

x + 2y - 3z - 2s + 4t = 1 + 5y- 8z- s + 6t = 4 x + 4y - 7z + 5s + 2t = 8

2x

Reducimos Ia matriz ampliada a fo rma escalo nad a y luego a form a canonica por filas:

(~

2. - 3 - 2 - 8 - 1 5 -7

5 4

4 6

2

-(~

;)-(~

2 - 3 -2 3 - 2 2 - 4 7

2 -3 -2 0

0

0 I

0

8 - 8 2

4

- 2 - 2

-;)-(~

~)-(~

4 2 -3 -2 3 - 2 -2

0

0 1

- 2

0

0

X=

21 -

0 0

0

24 - 8 - 7 2 3

21)

Asi Ia soluci6n en forma de variables libres es X+

Z

+ 24t = 21

y - 2z- 8t = - 7

s+ 2t = donde z y t son las variables libres.

3

0

y = -7

s=

Z -

+ 2z +

3 - 2t

2

24t 8t

~)-

SISTEMAS DE ECUACIONES LINEALES

1.36.

37

Resolver, utilizando Ia matriz ampliada,

+2y- z=3 X+ 3y + Z = 5 3x + 8y + 4z = 17 X

Reducimos Ia ma triz ampliada a forma escalonada y luego a fo rma canonica por filas: 2

(i

- 1

3 8

!) -(~

2

-1

0

2

7

-(~

2

0

1 0

0 1

17

4

~)-(~

2

. · Ia soIuc10n " ·umca · x t1ene El Sistema

~1)-(~

= l.13 ,

y

=-

l , 3

2

-1

1

2

0

3

0

0

1

0

~)-(~

= !i3 o

-1

1

2

0

~)-

~1)

0

z

2

u = (ll 3 ,

-

14) 3, 3 .

SISTEMAS HOMOGENEOS 1.37. Determinar si cada uno de los sistemas siguientes tiene una soluci6n no nula.

2y- Z = 0 2x + Sy + 2z = 0 x + 4y + 7z = 0 x + 3y + 3z = 0 X+

x - 2y + 3z - 2w = 0 3x - 7y - 2z + 4w = 0 4x + 3y + Sz + 2w = 0

x + 2y- 3z = 0 2x + Sy + 2z = 0 3x- y- 4z = 0

a)

b)

c)

a)

El sistema debe tener una solucion no nula puesto que hay mas incognitas que ecuaciones.

b)

Reducimos a fo rma escalonada:

+ 2y- 3z = 2x + Sy + 2z = x

3x -

x

0

a

0 y- 4z = 0

+ 2y - Jz = 0 y + 8z = 0 - 1y + Sz = 0

x + 2y- 3z = 0 a

y

+ 8z =

0 61z = 0

En forma escalonada hay exactamente tres ecuaciones con tres incognitas; por tanto, el sistema tiene una solucion unica, Ia solucion nula. c)

Reducimos a forma escalonada: X+

2y-

Z

= 0

+ 5y + 2z = 0 + 4y + 1z = 0 x + 3y + 3z = 0

2x x

X+

a

2y- Z = 0 y + 4z = 0 2y + 8z = 0 y + 4z = 0

a

X+

2y- Z = 0 y + 4z = 0

En fo rma escalonada hay solo dos ecuaciones con tres incognitas; por consiguiente, el sis tema tiene una solucion no nula.

38 1.38.

ALGEBRA LINEAL

Encontrar Ia dimension y una base para Ia soluci6n general W del sistema homogeneo

+ 3y 2x + 1y 3x + lly x

2z + 5s - 3t = 0 3z + 1s- 5t = 0 4z + lOs - 9t = 0

Mostrar como Ia base da Ia forma parametrica de Ia soluci6n genera l del sistema. Reducimos el sistema a forma escalonada. Efectuamos las operaciones -2L 1 + L2 -L 2 Y - 3L 1 + L 3 -> L 3 y entonces - 2L 2 + L 3 - L 3 para obtener x

x + 3y - 2z + 5s - 3t

+ 3y- 2z + 5s- 3t =

0 y+ z - 3s+ t = O 2y + 2z- 5s =0

= 0 y + z- 3s + t = 0 s-2t =0

y

En forma escalonada, el sistema tiene dos variables libres, z y r; por ende, dim W = 2. Puede o btenerse una base [u 1 , u2 ] para W como sigue: I.

Hacemos z

= I, t = 0. La sustitucion hacia atras proporciona s = 0, luego y = -1 y despues

x = 5. Por tanto, u 1 = (5, - I, 1, 0, 0).

2.

Hacemos z = 0, t = I. La sustitucion hacia a tnis proporciona s = 2, luego y = 5 y despues x = -22. Por consiguiente, 11 2 = ( - 22, 5, 0, 2, 1).

Multiplicando los vectores de Ia base por los parametros a y b, respectivamente, obtenemos

au 1

+ bu2

= a(5, -1, 1, 0, 0)

+ b( - 22, 5, 0, 2, I)= (Sa - 22b, -a+ 5b, a, 2b, b)

Esta es Ia forma parametrica de Ia solucion general.

1.39.

.

Hallar Ia dimension y una base para Ia solucion general W del sistema homogeneo

x + 2y- 3z = 0 2x

+ 5y + 2z =

3x -

0 y- 4z = 0

Reducimos el sistema a forma escalonada. Del Problema 1.37 b) tenemos

x + 2y- 3z = 0 y + 8z = 0 61z = 0 No hay variables libres (el sistema esta en fo rma triangular). Luego dim W = 0 y W no tiene base. Especificamente, W consiste solo en Ia soluci6n nula, W = {0}.

1.40.

Encontra r Ia dimension y una base para Ia soluci6n general W del sistema homogeneo

+ 4y- 5z + 3t = 0 3x + 6y - 7z + 4t = 0 5x + lOy - llz + 6t = 0

2x

39

SISTEMAS DE ECUACIONES LINEALES

Reducimos el sistema a forma escalonada. Efectuamos -3L 1 entonces - 3L 2 + L 3 -+ L 3 para obtener

2x + 4y- 5z + 3t = 0 z- l = 0 3z - 3t = 0

2x

y

+ 2L2

.....

L 2 y - 5L 1

+ 4y- 5z + 3t = z- t

=

+ 2L 3 -+ L 3

y

0 0

En forma escalonada, el sistema tiene dos variables libres. )' y t; por consiguiente. dim W = 2. Una base {u 1 , u2 } de W puede obtenerse como sigue:

1.41.

I.

Tomamos y

= I.

2.

Tom amos y

= 0, t =

t = 0. La sustituci6n hacia atras proporciona Ia soluci6n u 1

= (-

2, I. 0. 0).

I. La sustituci6n hacia atnis proporciona Ia soluci6n u2 = ( 1, 0. I. I).

Considerese el sistema x - 3y - 2z

+ 4t = 5

3x - 8 y - Jz

+ 8t = 18

2x - 3y + 5z - 4t

= 19

a)

Hallar la forma parametrica de la soluci6n general del sistema.

b)

Mostrar que el resultado de a) puede reescribirse en Ia forma dada por el Teorema 1.11.

a)

+

Reducimos el sistema a forma escalonada. Efectuamos -3L 1 entonccs - 3L 2 + L 3 -+ L 3 . para obtener x - 3y- 2z + 4t = 5 y + 3z- 4t = 3 3y

+ 9z-

y

L2

-+

L 2 y -2L 1

+ L.l ...... L 3 y

x- 3y- 2z + 4t = 5 y

12t = 9

+ 3z- 4t = 3

En forma escalonada, las variables libres son ;; y 1. Tomamos z = a y t = h, donde a y h son parametres. La sustituci6n hacia atras proporciona y = 3 - 3a + 4h y entonces x = 14- 7a + 8h. De este modo, Ia forma pammctrica de Ia soluci6n es x = 14- 7a h)

+ 8h

y

=

3 - 3a + 4b

z = a

t=b

Sea v0 = (14, 3, 0, 0) el vector de terminos constantes en (•); sea 11 1 = ( -7, - 3, I, 0) el vector de coeficientes de a en..(•), y sea u2 = (8, 4, 0, I) el vector de weficientes deb en (•-). Entonces Ia soluci6n general ( •) puede reescribirse en forma vectorial como (x, y, z, t) = v 0

+ au 1 + hu 2

(u)

A continuaci6n probamos que (*"') es Ia soluci6n general del Teorema I. II. En primer Iugar, n6tese que v0 cs Ia soluci6n del sistema inhomogcneo obtenido haciendo a = 0 y h = 0. Consideremos el sistema homogeneo asociado, en forma esca lonada:

x - 3y - 2z + 4t y + 3z- 4t

= =

0 0

Las variables librcs son;; y t. Hacemos z = 1 y t = 0 para obtcner Ia soluci6n u 1 = ( - 7, - 3, I, 0). Hacemos ahora == 0 y r =I para obtener Ia soluci6 n u2 = (8. 4, 0. 1). Por el Teorema 1.10. { 11 1 , u 2 } es una base del espacio soluci6n del sistema homogeneo asociado. Entonces (*"') tiene Ia forma deseada.

40

ALGEBRA LINEAL

PROBLEMAS VARIOS 1.42.

Demostrar que cada una de las operaciones elementales [£ 1]. [£2 ), [£ 3 ) tiene una operacion inversa del mismo tipoo [E ,] Intercambiar las ecuaciones i-esima y j-esima: L;.-.Lio

[£2 ] [£ 3 ) a) b)

Multiplicar la ecuaci6n i-esima por un escalar no nulo k: kL; - t L;. k =1= Oo Sustituir Ia ecuaci6n i-esima por ella misma mas k veces Ia j-esima: kLi + L; - t L;o Intercambiando el mismo par de ecuaciones dos veces obtenemos el sistema original. Esto es, L i ...... Li es su pro pia inversao Multiplicando Ia i-esima ecuacion porky luego por k- 1 • o por k- 1 y luego pork, obtcnemos

eJ sistema original. En otras palabras, las operaciones kL;-+ L; y k - 1 L 1 -+ L; son inversaso

c)

1.43.

Efectuando Ia operacion kLi + L;---> L 1 y luego Ia - kLi + L;---> L;. o viceversa, obtenemos el sistema original. En otras palabras, las operaciones kLi + L;-+ L, y - kLi + L;-+ L; son inversaso

Demostrar que el efecto de ejecutar Ia siguiente operaci6n [E] puede obtenerse efectuando [£2 ] y luego [£3]. [E] Sustituir Ia ecuaci6n i-esima por k (no nulo) veces ella misma mas k' veces Ia j-esima: k' Li + kL; -tL;, k =I= Oo Efectuar kL; --+ L; y fuego k' L1 + L; -+ L; conduce al mismo resultado que efectuar Ia operaci6n k' L 1 + kL,-+ L 1 o

1.44.

Supongamos que cada ecuaci6n L; en el sistema [103) se multiplica por una constante c; y que las ecuaciones resultantes se suman para dar (c 1 a 11

+ ooo + c,.a,. 1 )x 1 +

00

0

+ (c 1 a 1 , +

0

0

0

+ c,.a,.,)x, =

+ ·· · + c,b'"

c1 b1

[l]

Tal ecuaci6n se denomina una combinaci6n lineal de las ecuaciones L;o Demostrar que cualquier soluci6n del sistema [l.3) es tambien soluci6n de Ia combinaci6n lineal [1]. Supongamos que u

=

(k 1, k 2 ,

..

o, k.) es una soluci6n de [1.3]: (i = I, .. 0, m)

[2]

Para probar que u es una soluci6n de [1] debemos verificar Ia ecuacion

(c 1 a 11

+ .. + c.,a..1)k 1 + .. + (c 1 a 1• + o

+ c..a,..)k. =

000

o

c1 b 1

+

000

+ c,.b,.

Pero esta puede arreglarse de Ia forma c 1 (a 11 k 1

+ .. + a 1.k.) + 0

00 0

+ c,.(a,. 1 +

00

0

+ a.,.k.) =

c1b1

+

000

+ c.,b,.

o por [2] c 1b 1

+

ooo

+ c.,b,. =

c 1 b1

+

OOo

+ c,.b.,

que es claramente una expresi6n ciertao 1.45.

Sup6ngase que un sistema de ecuaciones lineales ( #) se obtiene a partir de otro (*) mediante 1a ejecuci6n de una sola operaci6n elemental - [£ 1 ], [£ 2], o [£ 3 )- o Demostrar que ( #) y (*) tienen todas las soluciones en cornu no

SISTEMAS DE ECUACIONES LINEALES

41

Cada ecuaci6n de ( #) es una combinacion lineal de ecuaciones de ( *). Por tanto, por el Problema. 1.44. cualquier solucion de (•) sera solucion de todas las ecuaciones de ( # ). Dich o de otro modo, el conjunto solucion de (•) esta contenido en el de(#). Por otra parte, como las operaciones [£ 1], [£ 2 ] y [£3 ] tienen operaciones elementales inversas. el sistema (•) puede obtenerse del ( #) por medio de una sola operacio n elemental. De acuerdo con ello, el conjunto soluci6n de ( #) esta contenido en el de ( *). Siendo asi, ( #) y ( *) tienen las mismas soluciones. ·

1.46.

Demostrar el Teorema 1.4. Por el Problema 1.45, cada paso deja inalterado el conjunto soluci6n. Por tanto, el sistema original ( #) y el final (•) tienen el mismo conjun to solucion.

1.47.

Probar que las tres afirmaciones siguientes, relativas a un sistema de ecuaciones lineales, son equivalentes: i) El sistema es compatible (tiene solucion). ii) Ninguna combinaci6n lineal de las ecuaciones es Ia ecuaci6n

Ox 1

+ Ox 2 + ·· · +Ox" = b =I= 0

iii) El sistema es reducible a forma escalonada. Si el sistema es reducible a fo rma escalonada, dicha forma tiene una solucion y por endc Ia tiene el sistema original. Asi iii) implica i). Si el sistema tiene una solucion, por el Problema 1.44 cualquier combinacion lineal de las ecuaciones tiene tambien una solucion. Pero (•) no tiene solucion , luego noes combinacion lineal de las ecuaciones. Asi i) implica ii). Finalmente, supongamos que el sistema no es reducible a forma escalo nada. Entonces en el algoritmo gaussiano debe dar una ecuacion de Ia forma (•). Por consiguiente, (•) es una combinacion lineal de las ecuaciones. Asi no- iii) implica no- ii) o, equivalentemente. ii) implica iii).

PROBLEMAS SUPLEMENTARIOS

RESOLUCION DE ECUACIONES LINEALES 1.48.

Resolver: a)

1.49.

b)

2x + 4y

= 10

c)

3x + 6y = 15

4x - 2y = 5 - 6x + 3y = 1

Resolver:

a)

1.50.

2x + 3y = 1 5x + 7y = 3

2x- y- 3z = 5 3x- 2y + 2z = 5 5x - 3y- z = 16

2x b)

+ 3y- 2z =

X+ 2y + 3z = 3 c) 2x + 3y + 8z = 4 3x + 2y + 17z = 1

5

x- 2y + 3z = 2 4x -

y +.4z = l

Reso lve r:

a)

2x + 3y = 3 X - 2y = 5 3x + 2y = 7

b)

x + 2y - 3z + 2t = 2 2x + 5y - 8z + 6t = 5 3x + 4 y - 5z + 2t = 4

c)

X +2y- z + 3t = 3 2x + 4y + 4z + 3t = 9 3x + 6y- z + St = to

42 1.51.

ALGEBRA LINEAL

Resolver: x a)

+ 2y + 2z =

2

+ 5y + 4z - 13t = 3x - y + 2z + 5t = 2x + 2y + 3z- 4t = x

3x - 2y - z = 5 2x- 5y + 3z = -4 x + 4y + 6z = 0

b)

3 2 l

SISTEMAS HOMOGENEOS 1.52.

Determinar si cada uno de los siguientes sistemas tiene una soluci6n no nula:

+ 3y - 2z = x- 8y + 8z = 3x- 2y + 4z = x

a)

1.53.

x + 3y- 2z = 0 b) 2x - 3y + z = 0 3x - 2y + 2z = 0

0

0 0

+ 2y - 5z + 4t = 0 · 2x - 3y + 2z + 3t = 0 4x - 7y + z- 6t = 0 x

c)

Hallar Ia dimension y una base para Ia soluci6n general W de cada uno de los sistemas siguientes.

+ 2x + x

a)

5x

+

3y + 2z - s -

t = 0

6y + 5z + s - t l5y + 12z + s- 3t

=0 =0

b)

2x 3x -

4y + 3z - s + 2t = 0 6y + 5z - 2s + 4t = 0

5x- lOy+ 7z- 3s + t = 0

MATRICES ESCALONADAS Y OPERACIONES ELEMENTALES ENTRE FlLAS 1.54.

Reducir A a forma escalonada y luego a su forma can6nica por lilas, siendo

a)

1.55.

A~(;

2 -2

-1

1 2

:)

-6

A~(!

b)

5 0

-2

3 -1 -5

2 6

- 5

;)

Reducir A a forma escalonada y luego a su fo rma can6nica por lilas, siendo

a)

1.56.

2 4 6

A~(;

3

-1

11

-5

-5

3

1

!)

b)

A=(~

4

3 - 1

0

1

5 -3

-!)

Describir todas las matrices 2 x 2 posibles que estim en forma escalonada reducida por filas.

1.57. Sup6ngase que A es una matriz cuadrada escalonada reducida por filas. Demostrar que si A · matri z identidad, A tiene una fila nula. 1.58.

~ I,

Ia

Demostrar que cada una de las operaciones elementales entre filas siguientes tiene una operaci6n inversa del mismo tipo. [£ 1 ) [£ 2 )

Multiplicar Ia fila i-esima por un escalar no nulo k: kR;-+ R;, k

[£ 3)

Sustituir Ia fila i-esima por ella misma mas k veces Ia j-esima: kR1 + R1 -+ R 1•

lntercambiar las filas i-esima y j-esima: R;..-. Ri. ~

0.

SISTEMAS DE ECUACIONES LINEALES

1.59.

43

Demostra r que Ia equivalencia por filas es una relaci6n de equivalencia: i)

A es equivalente por filas a A.

ii)

Si A es equivalente por filas a B, entonces B es equivalente por filas a A.

iii)

Si A es equivalente por filas a B y B es equivalente por filas a C, entonces A es equivalente por filas a C.

PROBLEMAS VARIOS Considerense dos ecuacio nes lineales generales con dos incognitas x e y sobre el cuerpo real R:

ax+ by= e ex + dy = f Demostrar que: i)

b . a , . de- bf s1 ~ # d' es decir, si ad - be # 0, entonces el sistema tiene Ia solucio n umca x = - - -

ad - be'

af- ee

y= -

- -·

. a

d # J'

ad - be'

ii)

iii) 1.61.

s1 ~ = si

a

-

~ -

b

e

b

e

d~·

entonces el sistema no tiene solucio n; entonces el sistema tiene mas de una solucion.

Considerese el sistema

ax+ by= I ex + dy = 0 D emostra r que si ad- be# 0, entonces el sistema tiene Ia solucio n unica X = df(ad- be), y = - ef(ad - be). D emostrar tambien que si ad - be= 0, c # 0 o d # 0, entonces el sistema no tiene solucion. 1.62.

Demostrar que una ecuacion de Ia forma Ox 1 de un sistema sin alterar el conjunto soluci6n.

+ Ox 2 + ... + Ox.= 0 puede anadirse a o suprimirse

1.63. Considerese un sistema de ecuaciones lineales con el mismo numero de ecuaeiones que de incognitas: a 11x 1

a 21x 1

+ a ux 2 + ·· · + a 1.x. = + a 22 x 2 + · · · + a2ox. =

b1 b2 [1]

i)

Suponiendo que el sistema homogeneo asociado tiene solo Ia solucion nula, probar que [1] tiene una solucion unica para cada elecci6n de las constantes b;.

ii)

Suponiendo que el sistema homogeneo asociado tiene una solucion no nula, probar que existen co nstantes b; para las que [I] no tiene soluci6n. Demostrar tambien que si [I] tiene una soluci6n, entonces tiene mas de una.

1.64. Suponiendo que en un sistema de ecuaciones lineales homogeneo los coeficientes de una de las incognitas son todos nulos, demostrar que el sistema tiene solucion no nula.

44

ALGEBRA LIN EAL

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS 1.48. a) x = 2, y = - I; (1. -3, -2);

1.49.

a)

1.50.

a) :..:= 3,y= - l; c)

b)

x = 5 - 2a, y =a;

sin soluci6n;

b)

1.52. a ) si;

b)

o

i- 5t/ 2 ;; = t + t/ 2

X {

o

=

o

x = - I - 7z { y=2+2z

x = - z + 2t { y = I + 2z - 2r

2y

sin solucio n.

b)

no;

(-1 - 7a, 2 + 2a, a)

c)

b) (-a + 2b, l +2a - 2b, a, b)

(!- 5bf2 - 2a, a, ! + b/2, b)

1.51. a) (2, I , - I );

c) sin soluci6n.

c) si, por el Teorema 1.8.

1.53. a ) dim W = 3; u 1 = ( - 3, I, 0. 0, 0), u 2 = (7, 0, - 3, I. 0), u 3 = (3, 0, - I, 0, 1). b) dim W = 2; u 1 = ( - 2, I, 0. 0, 0), u2 = (5, 0. -5, -3, 1).

I

1.54.

a)

b)

1.55.

a)

(~

0

3

-6

0

0

- 6

(~

3 - II 0

-2 10

01~

3

- 1

II

-5

0 0

0 0

1 0

3 - 13

0 0

0 0

(

2

- 1 . 2

0

y

5 - 15 0

~)

~~) 35

0

y

y

y

(~ (~

(~ (~ o

2

0

0

I

0

0

o

-rr

1

-w

0

0

-rr

l

- fi

0

0

~)

0

0

0

I I

.

0

,

0

0

0

0

0

0

r)

CAPITULO

2

Vectores en Rn y Cn. Vectores espacia les

2.1.

INTRODUCCION

En varias aplicaciones fisicas aparecen ciertas cantidades, tales como temperatura y rapidez (mod ulo de Ia velocidad), que poseen solo «magnitud». Estas pueden representa rse por numeros reales y se de nominan escalares. Por otra parte, tarobien existen cantidades, tales como fuerza y velocidad, que poseen tanto «magnitud» como «direcci6n». Estas p ueden representarse por flechas (que tienen longitudes y direcciones apropiadas y parten de algun punto de referenda dado, 0) y se denominan vectores. Comenzamos considerando las siguientes operaciones con vectores. i)

ii)

Sumo: La resultante u + v de dos vectores u y v se obtiene por Ia Hamada ley del paralelogramo; esto es, u + v es Ia diagonal del paralelogramo determinado por u y v, como se muestra en Ia Figura 2-l(a). Producto por un esca/ar: El producto ku de un numero real k por un vector u se obtiene multiplicando Ia magnitud de u por k y manteniendo Ia misma direcci6n si k ;;?:: 0, o Ia direcci6n opuesta si k < 0, tal y como se muestra en Ia Figura 2- l (b).

Suponemos que el lector esta fa miliarizado con Ia representaci6n de puntos en el plano mediante pares ordenados de numeros reales. Si se elige el origen de los ejes como el punta de referencia 0 mencio nado mas arriba, todo vector queda univocamente determinado por las coordenadas de su extrema. La relaci6n entre las operaciones anteriores y los extremos es Ia siguiente. i)

ii)

Suma: Si (a, b) y (c , d) son los extremos de los vectores u y v, entonces (a+ c, b +d) sera el extrema de u + v, como se muestra en Ia Figura 2-2(a). Producto por un escalar: Si (a, b) es el extremo del vector u, entonces (ka, kb) sera el del vector ku, como se rouestra en Ia Figura 2-2(b).

46

ALGEBRA LINEAL

0 (a)

(b)

Figura 2-1.

-

Matematicamente, identificamos el vector u con su extrema (a, b) y escribimos u = (a, b). Ademas llamamos al par ordenado de numeros reales (a, b) punta o vector, dependiendo de su interpretacion. Generalizando esta noci6n, llamaremos vector a una n-pla (a 1 , a 2 , ... , an) de numeros reales. En cualquier caso, puede utilizarse una notaci6n particular para los vectores espaciales en R3 (Secci6n 2.8). Presumimos al lector familiarizado con las propiedades elementales del cuerpo de los numeros reales que denotamos por R.

2.2. VECTORES EN Rn El conjunto de todas las n-plas de numeros reales, denotado por R", recibe el nombre de n-espacio. Una n-pla particular en R", digamos

se denomina punta o vector; los ~funeros reales u1 son las componentes (o coordenadas) del vector u. Ademas, a l discutir el espacio R", utilizamos el termino escalar para designar a los elementos de R.

(a + c, b +d)

(ka, kb)

(b)

(a)

Figura 2-2.

VECTORES EN Rn Yen. VECTORES ESPACIALES

47

Dos vectores u y v son iguales, escrito u = v, si tienen el mismo numero de componentes, es decir, pertenecen al mismo espacio, y si las componentes correspondientes son iguales. Los vectores (1, 2, 3) y (2, 3, 1) no son iguales, puesto que no lo son las componentes correspondientes. EJEMPLO 2.1 a) · Considerense los siguientes vectores

(0, I)

(1 , - 3) . (1 , 2,

.fi, 4)

( - 5,

1, 0,

rr)

Los dos primeros tienen dos componentes y por tanto son puntas en R2 ; los dos ullimos tienen cuatro componentes y por tanto son puntas en R4 . b)

Supongase (x-

y, x + y,

i - I) = (4, 2, 3). Entonces, por definicion de igualdad de vectores,

x- y=4 x + y=2 z- 1= 3 Resolviendo el sistema de ecuaciones anterior se obtiene x = 3. y = - I y z = 4.

A veces los vectores de un n-espacio se escriben como columnas en Iugar de como se hizo anteriormente, como filas. Ta les vectores se denomina n vectores columna. Por ejemplo,

U)

(

1,2)

- 35 28

son vecto res columna con 2, 2, 3 y 3 componentes, respectivamente.

2.3.

SUMA DE VECTORES Y PRODUCTO POR UN ESCALAR

Sean u y v vectores en Rn:

y La suma de u y v, escrito u + v, es el vector obtenido sumando las componentes correspondientes de estos:

El producto de un numero real k por el vector u, escrito ku, es el vector obtenido multiplicando cada componente de u por k: ku = (ku 1 , ku 2 , ... , kun) Observese que u

+v

y ku son tambien vectores en Rn. Definimos, ademas,

-u = - lu

y

u- v

= u + (-

v)

La suma de vectores con diferente numero de componentes no esta definida.

48

ALGEBRA LINEAL

Las propiedades basicas de los vectores de R" bajo las operaciones de suma vectorial y producto por un escalar se enuncian en el siguiente teorema (demostrado en el Problema 2.4). En el teorema, 0 = (0, 0, ... , 0), el vector nulo de R" (o vector cera).

Teorema 2.1: i) (u ii)

Para vectores arbitrarios u, v,

+ v) + w = u + (v + w)

u+O = u

+ (-u) = 0

iii)

u

iv)

u+v= v +u

w E Rn

y escalares arbitrarios k, k' E R,

+ v) = ku + k v + k')u = ku + k'u

v)

k(u

vi)

(k

vii) (kk')u = k(k'u) viii)

lu

=u

Supongamos que u y v son vectores en R" y que u = kv para algun escalar no nulo k E R. Entonces u se llama un mriltiplo de v. Se dice que u esta en Ia misma direccion que v si k > 0, y en Ia direcci6n opuesta si k < 0.

2.4. VECTORES Y ECUACIONES LINEALES Dos importantes conceptos relativos a vectores, las combinaciones lineales y Ia dependencia lineal, estan ·estrechamente relacionados con los sistemas de ecuaciones lineales, como se vera a continuaci6n.

COMBINACIONES LINEALES Consideremos un sistema inhomogeneo de m ecuaciones con n incognitas:

a 11 x1 + a12 x2 + · · · +

ahx.

= b1

a21 x 1 + a22 x 2 + · · · + a2 ,.x. = b 2 a, 1 x 1

+ a,2 x2 + ·· ·+a,,. X,=

b,..

Este sistema es equivalente a Ia siguiente ecuaci6n vectorial: 11

x1

a (a,....

a zt ) •

1

(a

12

a22 )

+ x 2 .• .

a,. 2

1

+ · .. +

1

(a. = (b...

az, x ,. .. ,.) a,,.

b2)

b,.

esto es, _la ecuaci6n vecto rial

donde u 1 , u2 , ••• , u., v son los vectores columna ante riores, respectivamente. Si el sistema en cuesti6n tiene una soluci6 n, se dice que v es una combinaci6n lineal de los vecto res u;. Establezcamos formalmente este importante concepto.

VECTORES EN Rn Yen VECTORES ESPACIALES

Definicion: Un vector v es una combinaci6n lineal de vectores u 1 , u 2 , k 1 , k 1 , ••. , k. tales que

••. ,

49

u. si existen escalares

esto es, si Ia ecuaci6n vectorial

tiene una solucion cuando los x ,. son escalares por determinar. La definicion anterior se aplica tanto a vectores columna como a vectores fila , a unque se haya ilustrado en terminos de vectores columna. EJEMPLO 2.2.

Sean

y

Entonces v es una combinaci6n lineal de u 1 ,

11 1

y u 3 ya que Ia ecuaci6n vectorial (o sistema)

2=x+y+z 3=x+y { -4 =X

0

tiene una soluci6n x = -4, y = 7, z = - I. En otras palabras,

DEPENDENCIA LINEAL Consideremos un sistema homogeneo de m ecuaciones con n incognitas:

a 21 x 1

+ a 12 x 2 + · · · + a1 ~x~ = 0 + a 22 x 2 + · · · + a 2 .x. = 0

a,.lxl

+ am2x2 + ... +

a 11 x 1

a'"~x.

=0

Este sistema es equivalente a Ia siguiente ecuacion vectorial: 11

x1

a (

a 21 ) ;

~~

+ x2

(a

12

a 22 ) :

~2

+ · ·· + x .

a 0 (atn) : = (0) ; 2•

a~

0

50

ALGEBRA LINEAL

esto es,

donde u 1 , u 2 , ... , un son los vectores columna anteriores, respectivamente. Si el sistema homogeneo anterio r tiene una solucion no nula, se dice que los vectores u I, Uz, ... ' un son linealmente dependientes. Por el contrario, si el sistema tiene solo Ia solucion nula, se dice que los vectores son linealmente independientes. Enunciemos formalmente este importante concepto.

Definicion: Los vectores u 1 , tl 2 , ... , un en R" sou linea/mente dependientes si existen escalares k 1 , k 2 , ... , k", no todos nulos, tales que

esto es, si Ia ecuacion vectorial

tiene una solucion no nula donde los xi son escalares por determinar. En caso contrario, se dice que los vecto res son linea/mente independientes. La definicion anterior se aplica tauto a vectores fila como a vectores columna, aunque se haya ilustrado en terminos de vectores columna. EJEMPLO 2.3 a)

La t'mica soluci6n de

X+ y + Z = 0 x+ y =0 { X =0

0

es Ia soluci6n nula x = 0, y = 0, z = 0. De aqui los tres vectores son linealmente independientes. b)

La ecuaci6 n vectoria l (o sistema de ecuaciones lineales)

X+ 2y + Z= 0 0

tiene una soluci6n no nula (3, -2, 1), esto es, x son linealmente dependientes.

{

= 3, y =

x - y- 5z = 0 x + 3y + 3z = 0

-2, z = I. De este modo, los tres vectores

2.5. PRODUCTO ESCALAR Sean u y v vectores de R": y

V

= (v 1 ,

V 2 , ... , Vn)

VECTORES EN Rn Y

en. VECTORES ESPACIALES

51

El producto escalar o interno de u y v, denotado por u · v, es el escalar obtenido multiplicando las componentes correspondientes de los vectores y sumando los productos resultantes:

Se dice que los vectores u y v son ortogonales (o perpendiculares) si su producto escalar es cero, esto es, si u · v = 0. EJEMPLO 2.4.

Sean u = ( 1, - 2, 3, - 4), v = (6, 7, I, -2) y w

= (5,

- 4, 5, 7). Entonces

+ (- 2) . 7 + 3 • l + (- 4) . (- 2) = 6 - 14 + 3 + 8 = 3 1 . 5 + (- 2) . ( - 4) + 3 . 5 + ( -4). 7 = 5 + 8 + 15- 28 = 0

u•v= 1•6 u. w =

Entonces u y w son ortogonales.

Las propiedades basicas del producto escalar en Rn (d~mostradas en el Problema 2.17) son las siguientes. Teorema 2.2: i)

ii)

Para vectores arbitrarios u, v,

(u + v) · w

= u·w+ v·w

(ku) · v = k(u · v)

wE R"

y cualquier escalar k E R,

v = v.u

iii)

U"

iv)

u. u ?: 0, y u. u = 0 si y solo si u

=0

Nota: El espacio Rn, con las operaciones anteriores de suma vectorial, producto por un escalar y producto interno, se suele Hamar n-espacio euclideo.

2.6.

NORMA DE UN VECTOR

Sea u = (u 1 , u2 , ... , un) un vector en R". La norma (o longitud) del vector u, escrito como Ia raiz cuadrada no negativa de u · u:

Hu ll = ~ =

1\uii, se define

J ui + u~ + ... + u;

Como u · u ~ 0, Ia raiz cuadrada existe. Ademas, si u # 0, entonces llull > 0; y 110 11 = 0. La definicion anterior de norma de un vector se ajusta a la de longitud de un vector (flecha) en geometria (euclidea). Concretamente, supongamos que u es un vector (flecha) en el plano R 2 con extremo P(a, b), como se indica en la Figura 2-3. E ntonces IaI y lbl son las lo ngitudes de los !ados del triangulo rectangulo determina do por u y las direcciones horizontal y vertical. Por el Teorema de Pitagoras, la longitud lui de u es

Este valor es. igual a la norma de u anteriormente definida.

52

ALGEBRA -LINEAL

P(a, b)

I I I l lbl

I I

Figura 2-3. EJEMPLO 2.5. Supongarnos u = (3, -1 2, - 4). Para hallar !lull, calculamos p rimero llu11 2 = u · u elcvando a l cuadrad o las componentes de u y sumimdolas:

Jlull 2 = 32 + (- 12)2 + ( - 4? = 9 + 144 + 16 = 169 Entonces !lull =

ji69 = 13.

U n vector u es unitario si llull cualquier vecto r no nulo, entonces

=

1 o, equivalentemente, si u · u = l. Ahora bien, s1 v es

1 v v=-v=A

ll vll

llvll

es un vector unitario en Ia misma direcci6n que v. (El proceso de hallar Por ejemplo,

v se lla ma normalizar v.)

5 ) v- -v - ( -2- --3- -8- -- -

- llvll -

Jl02' Ji02' jlo2' J1o2

es el vector unitario en Ia direcci6n del vector v = (2, -3, 8, - 5). Establecemos a hora una relaci6 n fundamental (demostrada en el Problema 2.22) conocida como desigualdad de Cauchy-Schwarz. Teorema 2.3 (Cauchy-Schwarz):

Para vectores cualesquiera tt, v en R", Ju · vi

~

llu ll II vii .

Utilizando Ia desigualdild anterior probaremos (Problema 2.33) el siguiente resultado, conocido como desigualdad triangular o de Minkowski. Teorema 2.4 (Minkowski):

Para vectores arbitrarios u, v en Rn,

llu + vii ~ llu ll + llvll .

DISTANCIA. ANGULOS. PROYECCIONES

Sean u = (u 1 , U 2 , ... , u.) y v = (v 1 , v2 , por d(u, v), se define como

... ,

v.) vectores en R ". La distancia entre u y v, denotada

VECTORES EN Rn Y en VECTORES ESPACIALES

53

Probamos que esta definicio n corresponde ala nocion usual de dista ncia euclidea en el plano R 2 . Consideremos u = (a, b) y v = (c, d) en R 2 . Como se muestra en Ia Figura 2-4, la distancia entre los puntos P(a, b) y Q(c, d) es

d=

Jca- c)

2

+ (b- d) 2

Por otra parte, utilizando Ia definicion anterior,

d(u,

v) = llu - vii = ll(a - c, b - d)ll = j(a -

c)2

+ (b

- d) 2

Ambas definiciones conducen al mismo valor.

..-/

P(a, b) I I I

- - -------,

I Q(c, d) I

I I

~Ia - cf--+1

0

Figura 2-4.

Usando Ia desigualdad de Cauchy-Schwarz podemos definir el ang ulo 0 entre dos vectores no nulos u, v en Rn segun

u·v cos () = Kotese que si u · v = 0, entonces 0 = 90° (o () previa de ortogonalidad. EJ EMPLO 2.6.

llull llvll

= n /2).

Esto esta de acuerdo con nuestra definicion

Supongamos u =(I , -2, 3) y v = (3, -5, - 7). Entonces d(u, v) =

jo-

w + (-2 + 5)

1

+ (3 + w = j 4 + 9 + 100 =jill

Para hallar cos 8, d onde 8 es el angulo entre u y v, calculamos primero u. v = 3 + 10 .;... 21 = -8

Uull 2

=

I

+4 +9 =

14

llvll 2

= 9

+ 25 + 49 =

83

En tal caso

u· v llull llvll

cos (} = -

-8

= - ---==-~

jl4j83

Sean u y v # 0 vectores en Rn. La proyeccion (vectorial) de u sabre v es el vector

u·v

proy (u, v) =

llvll2

v

54

ALGEBRA LINEAL

Probamos ahara que esta definicion se ajusta a Ia noci6n de proyeccion vectorial utilizada ec fisica. Consideremos los vectores u y v de Ia Figura 2-5. La proyecci6n (perpendicular) de sabre v es el vector u*, de magnitud

u. v

u. v

lu*l = lui cos e = l u l - - = 1u llv I . I vI Para obtener u* multiplicamos su magnitud por el vector unitario en Ia direcci6n v: v

u* = I u*l I vi

u. v = -2

Ivl

v

Esto concuerda con Ia definicion anterior de proy (u, v).

0

Figura 2-5. EJEMPLO 2.7.

Supongamos u = (l, -2, 3) y v = (2, 5, 4). Para encontrar proy (u, v), primero hallamos

u·v=2 - IO+ 12 = 4

y

Entonces

u.v 4 ( 8 20 16) ( 8 4 16) proy (u, v) = ll vll 2 v = 45 (2 , 5' 4) = 45' 45' 45 = 45 ' 9' 45



2.7. VECTORES LOCALIZADOS, HIPERPLANOS Y RECTAS EN Rn Esta secci6n distingue entre una n-pla P(a 1 , a 2 , •.. , an) = P(aJ vista como un pun to de Rn y una n-pla v = [c 1 , c2 , ... ,c.] vista como un vector (flecha) desde el origen 0 basta el punto C(c 1 , c 2 , ... , c"). Cualquier par de puntas P = (ai) y Q = (bi) en R" define el veccor localizado o segmento dirigido de P a Q, escrito PQ . Identificamos PQ con el vector

ya que PQ y v tienen Ia misma magnitud y direcci6n, tal y como se muestra en Ia Figura 2-6. Un hiperplano H en R" es el conjunto de puntas (x 1 , x 2 , ••• , x") que satisfacen una ecuaci6n lineal no degenerada

VECTORES EN Rn Yen. VECTORES ESPACIALES

55

Figura 2-6.

En particular, un hiperplano H en R 2 es una recta, y un hiperpla no Hen R 3 es un plano. El ·.ector u = [a 1 , a 2 , ... , an] ;f 0 recibe el no mbre de normal a H . El termino esta justificado por el hecho (Problema 2.33) de que cualquier segmento dirigido PQ, en el que P y Q pertenecen a H , es ortogonal al vector normal u. Esta propiedad, en el caso de R 3 , se muestra en Ia Figura 2-7.

Q

p

Figura 2-7.

u

La rectaL en R" que pasa po r.el punto P(a 1 , a 2 , ... ,an), en Ia direcci6n del vector no nulo ... , u.], esta constituida por los puntos X(x 1 , x 2 , ... , x .) que satisfacen

= [u 1 , u 2 ,

x1 = a1 X = P

+ tu . o {

+ u1t

x, ~ ~' ~ .~'.' x.- a.+ u.t

donde el parametro

t

toma todos los valores reales. (Yease Ia Figura 2-8.)

56

ALGEBRA LINEAL

Figura 2-8. EJEMPLO 2.8 a)

Consideremos el hiperplano H en R" que pasa por el punto P(l, 3, -4, 2) y es normal a! vector u = [4, -2, 5, 6]. Su ecuaci6n tiene Ia forma 4x - 2y

+ 5z + 6t =

k

Sustituyendo P en esta ecuacion obtenemos 4(1)- 2(3)

Asi 4x- 2y + 5z b)

+ 5( -4) + 6(2) =

+ 61 = -

k

4 - 6 - 20

0

+ 12 =

k

0

k

=

- 10

10 es Ia ecuaci6n de H.

Consideremos Ia rectaL en R4 que pasa por el punto P(l, 2, 3, -4), en 1a direcci6n de u = [5, 6, -7, 8]. Una representacion parametrica de L es Ia siguiente: x1

= 1 + 5t

x 2 = 2 + 6t x 3 = 3 -7t x 4 = -4 + 8t N6tese que t

=

0

(1

+ 5t, 2 + 6t, 3- 7t,

-4

+ 8t)

0 proporciona el punto _P en L.

CURVAS EN R"

Sea D un intervalo (finito o infinito) en la recta real R. Una funci6n continua F: D ~ R" es una curva en R". De este modo, a cada tED se le asigna el siguiente punto (vector) en R": F(t) = [F 1(t), Fit), ... , F .(t)]

Alm mas, Ia derivada de F(t) (si existe) proporciona el vector V(t) = dF(t)/dt = [dF 1 (t)/dt, dF 2 (t)fdt, . .. , dF.(t)/dt]

-VECTORES EN Rn Y

en. V ECTOR ES

ESPACIALES

57

que es tangente a Ia cu rva, y Ia normalizacion de V(t ) conduce a V(t) T(t) =

II V(t) ll

que es el vector unitario tangente a Ia curva. [Los vecto res unitarios se denotan a menudo en negrita. Vease Ia Seccion 2.8.] EJ EM PLO 2 .9 .

Consideremos Ia siguiente curva C en R 3 : F(t) = [sent, cos r, t]

Tomando Ia derivada de F(t) [o de cada componente de F(r)] se obtiene V(t) =(cos 1, - sent, I)

que es un vector tangente a Ia curva. Normalizamos V(t). Primero o btenemos 11 V(t)ll 2 = cos 2 t

+ sen 1 t + I = I + I =

Entonces [cos r

V(r)

T (t) = II V(t)ll

=

- sent

I

fi ' J2 ' fi

2

J

que es el vector unitario tangente a Ia curva.

2.8. VECTORES ESPACIALES. NOTACION ijk EN R 3 Los vectores en R 3 , denominados vectores espaciales, aparecen en numerosas aplicaciones, especialmente en fisica. De hecho, frecuentemente se utiliza una notaci6n especial para tales vectores, que es Ia que se da a continuaci6n:

= (I , 0, 0) j = (0, 1, 0) i

denota el vector unitario en Ia direcci6n x de nota el vector unitario en Ia direcci6n y

k = (0, 0, I) de nota el vector unitario en Ia direcci6n z En consecuencia, cualquier vector u = (a, h, c) en R 3 puede expresa rse de forma imica como sigue:

u

= (a, h, c) = ai + bj + ck

Como i, j, k son vectores unitarios y son mutuamente ortogonales, tenemos

i ·i

= I,

j · j = l,

k ·k = I

e

i·j = 0,

i·k = 0,

j·k

=

0

Las diversas operaciones vectoriales discutidas previamente pueden expresarse en Ia presente notaci6n como sigue. Supongamos u = a 1 i + a 2 j + a 3 k y v = h 1 i + b 2 j + b 3 k. Entonces

u

+ v=

+ btli + (a 2 + b2 )j + (a 3 + b 3 )k cu = ca1 i + ca2 j + ca3 k llull = (a,

donde c es un escalar.

u · v = a 1b1 .;;;:-;; =

+ a2 b 2 + a 3 b 3

J a~ + ai +a~

58

ALGEBRA LINEAL

Considerense los vectores u

EJ EM PLO 2.1 0. a)

Para hallar u

+ v sumamos

= 3i + 5j- 2k

y v = 4i- 3j

+ 7k.

las componentes correspondientes obteniendo

u + v = 7i + 2j + Sk b)

Para hallar 3u - 1v, primero multiplicamos los vectores por los escalares y despues los sumamos: 3u ·- 2t•

c)

=

(9i

+ 15j- 6k) + (- 8i + 6j- 14k) = 4i + 21j- 20k

Para hallar u · v multiplicamos las componentes correspondientes sumandolas despues:

u-v= 12-15-14= -17 d)

Para hallar llu[[ elevamos al cuadrado cada componente y despues las sumamos obteniendo lluf. Esto es. II

u 11 2 = 9 + 25

+4=

y por tanto

38

ll ull

=

.j38

PRODUCTO VECTORIAL

Existe una operaci6n especial para vectores u, v en R 3 , Hamada producto vectorial y denotada por u x v. Especificamente, supongamos

y Entonces

N6tese que u x v es un vector (de ahi su nombre). u x v tambien se denomina producto ex terno de u y v. En notaci6n de determinantes (Capitulo 7), con \:

~~ =

ad - be, el producto vectorial puede

expresarse tambien como sigue:

o, equivalentemente, j

k

Dos importantes propiedades del producto vectorial son las siguientes (vease el Problema 2.56): Teorema 2.5: i)

Sean u, v y w vectores en R 3 .

El vector

w =

u x v es ortogonal a u y a v.

VECTORES ·EN Rn Y en. VECTORES ESPACIALES

59

X

Figura 2-9.

ii) El valo r absolute del «producto triple» u · v x w representa el volumen del paralelepipedo determinado por los tres vectores (como se muestra en Ia Figura 2-9). EJEMPLO 2.11 a)

Supongamos u = 4i

+ 3j + 6k

u

X

(~ - 1, 5)

b)

v=

X

y v = 2i

+ 5j - 3k. Entonces

I! -~I -I ~

(3, 7, 6)

i

= (j-~

I !I

-~I j + ~

k = - 39i + 24j

+ 14k

~I· -I~ ~I·~~ -~1) = (-41, 3, 17)

(Aqui hallamos el producto vectorial sin utilizar Ia notaci6n ijk.) c)

Los productos vectoriales de i. j, k son los siguientes: i

X

j = k,

j

X

k = i,

k Xi = j

y

j X i= - k,

k

X

j = - i,

j X

k = - j

Dicho de otro modo, si vemos !a terna (i, j, k) como una permutaci6n ciclica, esto es, colocada sobre un circulo en el sentido contrario al de las agujas del reloj como en Ia Figura 2-10, entonces el producto de dos de los vectores en el sentido dado es el tercero, pero el producto de dos de ellos en el sentido contrario es el tercero con signo opuesto.

j

k

"-..__/ Figura 2-10.

60

ALGEBRA LIN EAL

i.9. NUMEROS COMPLEJOS El conjunto de los numeros complejos se denota por C. Formalmente, un numero complejo es un par ordenado (a, b) de numeros reales. La igualdad, suma y producto de numeros complejos se definen como sigue: siys6losi a= c y (a, b)+ (c, d)= (a+ c, b +d)

(a, b)=(c,d)

b=d

(a, b)(c, d)= (ac - bd, ad+ be)

Identificamos cada numero real a con el numero complejo (a, 0): a~(a,

0) ·

Esto es factible debido a que las operaciones de suma y producto de numeros reales se conservan bajo dicha correspondencia (a, 0)

+ (b,

0) = (a

+ b,

y

0)

(a, 0) (b, 0)

=

(ab , 0)

Asi vemos R como un subconjunto de C y reemplazamos (a, 0) por a cuando quiera que sea conveniente y posible. El numero complejo (0, 1}, denotado por i, tiene Ia importante propiedad de que

e =;;=co. t)(o, t) =

c-

t , o)

b)

y

= _,

0

i=J=l

Aun mas, utilizando el hecho de que (a, b)= (a, 0)

+ (0,

(0, b) = (b, 0)(0, l)

tenemos (a, b)= (a, 0)

=

+ (b, 0)(0,

1) = a+ bi

=

La notaci6n z = a + bi, donde a Re z y b Im z se denominan, respectivamente, las partes real e imaginaria del numero complejo z, es mas conveniente que (a, b). Por ejemplo, Ia suma y el producto de dos numeros complejos z = a + hi y w = c + di puede obtenerse simplemente utilizando las propiedades conmutativa y distributiva, adem as de i 2 = -: 1:

+ w = (a + bi) + (c + di) = a + c + bi + di = (a + c) + (b + d)i zw =(a + bi)(c + di) = ac + bci + adi + bdi 2 = (ac - bd) +(be + ad)i z

J=l

Advertencia: El uso anterior de Ia letra i para denotar no tiene, en ningun caso, relaci6n con Ia notaci6n vectorial i = ( l, 0. 0) introd)Jcida en Ia Secci6n 2.8. EI conjugado del numero complejo z

= (a,

b) = a+ bi se denota y define por

z = a + bi = a - bi

--

l VECTORES EN Rn Y

en

VECTORES ESPACIALES

61

Entonces zz =(a+ bi) (a~ bi) = a 1 - b 2 i 2 = a 2 + b 2 . Si, ademas, z #- 0, entonces el inverso z'- 1 de z y !a division de w por z vienen dados, respectivamente, por w z

~ =

y

donde

wE

wz- 1

C. Tambien definimos ~z

=

~

lz

y

w

~

z = w + ( -z)

Asi como los numeros reales pueden representarse por los puntos de una recta, los numeros complejos pueden representarse por los puntos del plano. Concretamente, el punto (a, b) del plano representani el numero complejo z = a + bi, es decir, el numero cuya parte ·real es a y cuya parte imaginaria es b. (Vease Ia Figura 2-11.) El valor absoluto de z, escrito izl, se define como Ia distancia de z a[ origen:

N6tese que lzl es igual a Ia norma del vector (a, b). Ademas, lzl =

b I I I

1;;:1

z

Fz.

=a+ bi

I

a

. Figura 2-11.

EJ EM PLO 2.12.

Considerense los vectonis z = 2 + 3i y w = 5 - 2i. Entonces z + w = (2 + 3i) + (5 - 2i) = 2 + 5 + 3i - 2i = 7 + i zw = (2 + 3i)(S- 2i) = 10 + lSi- 4i- 6i2 = 16 i = 2+~ = 2-~

w z

5 - 2i 2 + 3i

-=--·=

lzl =J4+9 =

y

+ lli

~=5-U=S+U

(5 - 2i)(2 - 3i) 4 - l9i 4 19 . =---=---r (2 + 3i)(2 - 3i) 13 13 13

Ji3

y

lwl

=

J25 + 4

=

}29

Nota: En el Apendice definimos Ia estructura algebraica denominada cuerpo. Es oportuno enfatizar que el conjunto C de los numeros complejos, con las operaciones de suma y producto anteriores, es un cuerpo.

62

ALGEBRA LINEAL

2.10.

VECTORES EN

en

El conjunto de todas las n-plas de numeros complejos, denotado por C", se llama n-espacio complejo. Tal como en el caso real, los elementos de C" se Haman puntos o vectores y los de C, escalares. La suma vectorial y el producto por un escalar en C" vienen dados por (z 1 , z 2 ,

••• ,

z,.) + (w 1, w2 , z(z 1, z 2 ,

•.• ,

... ,

w") = (z 1

zJ

+ w1 ,

= (zz 1, zz 2 ,

z2

+ w2 ,

.•• ,

.•. ,

z"

+ w,)

zzJ

donde z;, w;, z E C. EJEMPLO 2.13 a)

(2 + 3i, 4 - i, 3) + (3 - 2i, 5i, 4 - 6i) = (5 + i, 4 + 4i, 7 - 6i).

b)

2i(2

+ 3i, 4- i, 3) = ( -6 + 4i, 2 + 8i, 6i).

Ahora sean u y v vectores arbitrarios en C": Z;, W; E

C

El producto escalar o interno de u y v se define como sigue:

u. v = z 1wl

+ z2 w2 + ... + z,. w,

N6tese que esta definicion se reduce a la dada previamente en el caso real, puesto que w 1 = cuando w1 es real. La norma de u se define como

Observese que u · u y por tanto EJ EM PLO 2.14.

llull son reales

y positives cuando u =F 0 y 0 cuando u

w;

= 0.

Sean u = (2 + 3i, 4 - i, 2i) y v = (3 - 2i, 5, 4 - 6i). Entonces

u . v = (2 + 31)(3 - 2i) =

+ (4- i)(5) + (2i)(4 - 6i) = (2 + 3i)(3 + 2i) + (4 - i)(5) + (2i)(4 + 61) =

= l3i + 20- 5i- 12 + 8i = 8 + 16i u .u

= =

+ 3i)(2 + 31) + (4 (2 + 3i)(2 - 3i) + (4 -

(2

1)(4- l) + (2i)(2i) = i)(4

+ I} + (21)(- 2i) =

= 13+17+4=34

llull = .;;;:; = j34 El espacio C", con las operaciones anteriores de suma vectorial, producto por un escalar y producto escalar, se denomina n-espacio euc/ideo complejo. Nota: Si u · u estuviera definido por u · v = z 1 w 1 + ··· + zn wn, pod ria darse u · u = 0 incluso a pesar de ser u =F 0, como sucederia, por ejemplo, si fuera u = (1, i, 0). De hecho, u · u podria no ser siquiera real.

V ECTO RES EN Rn Y

en. V ECTO RES

ESPA CIALES

63

PROBLEMAS RESUELTOS

VECTORES EN R"

2.1.

Sean u = (2, - 7, 1), v

= ( - 3, 0, 4), w = (0, 5. - 8). Hallar a)

3u- 4v, b) 2u

+ 3v -

5w.

Primero efectua mos el prod ucto por los escalares y fuego Ia suma de vectores.

= 3(2,

-7, 1) - 4(- 3, 0, 4) = (6, - 21, 3) + (12, 0, -16) = (18, - 21, -13).

a)

3u - 4v

b)

2u + 3v - 5w = 2(2, - 7, I) + 3(-3, 0, 4)- 5(0, 5, -8) = = (4, - 14, 2) + ( -9, 0, 12) + (0, -25, 40) = = (4- 9 + 0, -14 + 0 - 25, 2 + 12 + 40) = (- 5, -39, 54).

2.2. Calcular:

Primero efectuamos el prod ucto por los escalares y luego Ia suma de vectores.

2.3.

Ha llar x e y si a) (x, 3) a)

= (2, x + y);

b) (4, y ) = x(2, 3).

Siendo iguales los dos vecto res, las componentes correspondientes son iguales entre si: x =2

3=x+y

Sustituimos x = 2 en Ia segunda ecuacion obteniendo y = I. Asi x = 2 e y = I. Multiplicamos por el escalar x para obtener (4, y) componentes correspondientes:

b)

4 = 2x

=

x(2, 3)

3x). lgualamos entre si las

y = 3x

Resolvemos ahora las ecuacio nes lineales para x e y: x

2.4.

= (2x,

=

2 e y = 6.

Probar el Teorema 2.1. Sean u1, v1 y w1 las componentes i-esimas de u, v y w, respectivamen te. i)

Por definicion. u1 + v1 es Ia componente i-esima de u + v y por tanto (u, + v;) + w1 es Ia de (u + v) + w. Por otra parte, v1 + w1 cs Ia compo nente i-esima de v + w y en consecuencia

64

ALGEBRA LINEAL

u; + (v1 + w;) es Ia de u + (v Ia ley asociativa, esto es, (u;

+ w).

Pero u;, v; y w; son numeros reales para los que se verifica

+ v;) + W; = u; + (v; + w;) + v) + w = u + (v + w)

De acuerdo con esto, (u son iguales. ii)

Aqui 0

= (0, 0, ... , 0); por u+0=

tanto. , ••. , u.) + (0, 0, ... , 0) = + 0, u 2 + 0, ... , u. + 0) = (u 1 ,

(u 1 , u 1

= (u 1

iii)

para i = 1, ... , n ya que sus componentes correspondientes

Dado que -u = -I (u 1 , u 2 ,

....

u.) = ( -u 1 , -u 2 ,

..• ,

u1 ,

.•• ,

u.) = u

-u.),

u+(-u)=(u 1,u1 , •.. ,u.) +( -u" -u1 , .•. , -u.) = = (u 1 - U 1 , u 2 - u1 , .. . , u.- u.) = (0, 0, ... , 0) = 0

iv)

Por definicion, u; + v; es Ia componente i-esima de u + v y vi+ ui es Ia de v + u. Pero u; y v; son numeros reales para los que se verifica Ia ley conmutativa, esto es, u1 +v; =vi+ u;

i = l , ... , n

Por tanto, u + v = v + u, puesto que sus componentes correspondientes son iguales. v)

Dado que u; + v; es Ia componente i-esima de u + v, k(u; + v;) es Ia de k(u + v). Como ku; y kv1 son las componentes i-esimas de ku y kv, respectivamente, ku; + kv; es Ia de ku + kv. Pero k, u; y V; son numeros reales. Por tanto, i = I, ... , n

Asi k(u vi)

+ v) =

ku

+ kv,

porque sus componentes correspondientes son iguales.

Observe.se que el primer signo mas se refiere a Ia suma de dos escalares k y k', mientras que el segundo se refiere a Ia suma de dos vectores ku y k'u. Por definicion, (k + k')u; es Ia componente i-esirna del vector (k + k' )u. Dado que ku; y k'u; son las componentes i-esirnas de ku y k' u, respectivamente, k11; + k' u; es Ia del vector ku + k'u. Pero k, k' y u; son numeros reales. Entonces

+ k')u; = ktt; + k'u; i = I , ... , n ku + k' u ya que sus componentes correspondicntes

(k

De este modo, (k vii)

+ k')u =

(kk' )u;

Por consiguiente, (kk')u viii)

son iguales.

Como k' u1 es Ia cornponente i-t!sima de k' u, k(k' u;) es Ia de k(k'u). Pero (kk' )u 1 es Ia componente i-esirna de (kk')u y, debido a que k, k' y u; son numeros reales,

J·u = l(u 1 , u 2 ,

. .. ,

=

=

k(k'tt;)

i = I , ... , n

k(k' u), puesto que s us componentes correspondientes son iguales.

u.) = {lu 1 , lu 2 ,

... ,

Iu. ) = (u 1 , u 2 ,

.. • ,

u.) = u.

VECTORES Y ECUACIONES LINEALES 2.5.

Convertir Ia siguiente ecuacion vectorial en un sistema de ecuaciones lineales equivalente y resolverlo:

VECTORES EN Rn Y

en. VECTORES

ESPACIALES

65

Multiplicamos los vectores de Ia d erecha por los escalares desconocidos y luego los su mamos:

(

x) + (2y) + (3z)

1) = ( 2x -6 5 h

2y ++ 3z) 2z

5y

x+ + 5y 2z = ( 2x

~

~

h+~+~

Igualamos entre si las componentes co rrespondientes de los vectores y reducimos el sistema a forma escalonada:

x + 2y + 3z = 2x + 5y + 2z = -6 3x + 8y + 3z = 5

x

x + 2y + 3z = y - 4z = -8

+ 2y + 3z = y- 4z = - 8

2y- 6z

=

2

2z =

18

El sistema es triangula r, y por sustituci6n hacia atni.s se o btiene Ia soluci6 n (mica: x = - 82, y = 28, z = 9.

2.6.

Escribir el vector v = (I , - 2, 5) como combinaci6n lineal de los vectores u 1 = (I, I, I), u 2 = (1 , 2, 3) y u 3 = (2, - 1, 1). Queremos expresa r venIa fo rma asi tenemos

~; =

x u1

+ yu2 + zu 3 ,

con x, y y z aun por detcrminar. Siendo

(P a ra fo rmar combinaciones lineales, resu lta mas convenient e escribir los vectores como columnas que como filas.) Igua la ndo las componentes correspondientes entre si obtenemos:

x + y + 2z = 1 X+ 2y- Z= - 2 X+ 3y + z= 5

0

x + y + 2z =

x+y.+2z= y- 3z = - 3 2y- z= 4

1 y- 3z = - 3 5z = 10

0

La soluci6 n U.nica del sistema en forma triangular es x = - 6, y = 3, z = 2; asi v = - 6u 1 + 3u 2

.2.7.

+ 2u3 •

Escribir el vector v=(2, 3, -5) como combinaci6n lineal de u1 = (1 , 2, -3), u2 =(2, - I, - 4) y u3 = (1, 7, -5). H allamos el sistema de ecuaciones equivale ntes y luego lo resolvemos. En primer Iugar tomamos:

(

1) + ~ - 2)1 + ~ 11) = (

2) 3 = x( 2 - 5 - 3

- 4

z)

x+ 2x - 2y y+ + 1z

-3x - 4y-5z

-5

Igualando entre si las comporientes correspondientes obtenemos

X+ 2y + Z = 2 2x - y + 1z = 3 -3x - 4y-5z =-5

2y

0

2

X+ + Z= - 5y +5z =-l 2y- 2z = 1

0

X+ 2y + Z = 2 - 5y+5z= - 1 0= 3

La tercera ecuaci6n, 0 = 3, indica que el sistem a no tiene soluci6n. Entonces v no puede escribirse como combinaci6n lineal de los vectores u 1 , u 2 y u 3 .

66 2.8.

ALGEBRA LINEAL

Determinar silos vectores u 1 = (1, 1, 1), u2 = (2, -1, 3) y u 3 = (1, -5, 3) son linealmente dependientes o Iinealmente independientes. Recuerdese que u 1 , u2 , u 3 son linealmente dependientes o linealmente independientes segun que Ia ecuaci6n vectorial x u 1 + yu 2 + zu 3 tenga o no una soluci6n no nula. Asi pues, para empezar igualamos una combinaci6n lineal de los vectores al vector nulo:

(i)

(00)0

=X

1 1

+

~ -J2) + (-5I) = (x + 2yy-+ 5zz) 3 3 x + 3y + 3z Z

X-

Igualamos las componentes correspondientes entre si y reducim os el sistema resultante a forma escalonada:

X+ 2y +

Z

x - · y- 5z

=

X+ 2y +

0

=0

0

Z

=

X+ 2y +

0

-3y -6z = O

Z = 0 y+2z=0

0

y + 2z = 0 x + 3y + 3z = 0 El sistema en forma escalonada tiene una variable libre; po r consiguiente, el sistema tiene una soluci6n no trivial. Siendo asi, los vectores originales son linealmente dependientes. (No necesitamos resolver el sistema para determinar Ia dependencia o independencia lineal; basta conocer si existe una soluci6n no nula.)

2.9.

Determinar silos vectores (1, - 2, - 3), (2, 3, - 1) y (3, 2, 1) son linealmente dependientes. lgualamos al vector cero una combinaci6n lineal (con coelicientes x , y, z) de los vectores:

2) + \3)2 ( 2xx ++ 32yy ++ 3z) 0 x( -21) + ~ 3 2z (0) 0 - 3 -1 I - 3x - y + z =

=

-

lgualamos las componentes correspondientes entre si y reducimos el sistema resultante a forma escalonada:

+ 2y + 3z = 0 + 3y _+ 2z = 0 -3x - y + z = 0

x

x

--2x

0

+ 2y + 3z = 0 7y + Sz = 0

x

+ 2y +

3z = 0

+ 2z = 0 5y + lOz = 0 ~1y + 8z = 0 o

y

x

+ 2y + 3z =

0

0

y+2z=0 -6z =- 0

El sistema homogeneo esta en forma triangular, sin variables libres; por tanto, solo tiene Ia soluci6n trivial. Asi que los vectores originales son linealmente independientes.

2.10.

Demostrar la siguiente afirmaci6n: n + 1 o mas vectores arbitrarios en Rn son linea lmente dependientes. Supongamos que u 1, u 1 ,

... ,

uq son vectores en R" con q > n. La ecuaci6n vectorial x 1 u 1 +x2 u 2

+ ··· +xquq = O

es equivalente a un sistema homog(meo de n ecuaciones con q > n incognitas. De acuerdo con el Teorema 1.9, este sistema tiene solucion no trivial. Consecuentemente, u 1 , u 2 , •• • , ttq son linealmente dependientes.

2.11.

Demostrar que cualquier conjunto de q vectores que contenga el vector cero es linealmente dependiente. Denotando los vectores por 0, u2 ,

11 3, ... , u9 tenemos I (0) + Ou2 + Ou 3 + · ·· + Ouq = 0.

·. VECTORES EN AnY

en VECTORES

ESPACIALES

67

PRODUCTOINTERNO.ORTOGONALIDAD 2.12. Calcular u · v, donde u = (1 , - 2, 3, -4) y v = (6, 7, 1, - 2). Multiplicamos las componentes correspondientes y sumamos: u . v = (1)(6) + ( - 2)(7) + (3)(1) + ( - 4)( - 2) = 3

2.13.

Sean u a)

=

(3, 2, 1), v = (5, -3, 4), w = (1, 6, -7). Hallar: a) (u + v) · w, b) u · w + v · w.

Primero calculamos u + v sumando las componentes correspondientes: u + v = (3 + 5, 2- 3, 1 + 4) = (8, -I, 5)

Luego calculamos (u + v) · w = (8)(1) + ( -1)(6) + (5)( -7) = 8 - 6 - 35 = -33 b)

2.14.

Primero hall amos u · w = 3 + 12 - 7 = 8 y u · w = 5 - 18 - 28 = -41. Entonces u · w + v · w = = 8 -41 = - 33. [Tal y como cabia esperar, por el Teorema 2.2 i), ambos valores son iguales.]

Sean u = (1, 2, 3, -4), v = (5, -6, 7, 8) y k

=

3. Hallar: a) k(u ·v), b) (ku)· v, c) u·(kv).

a ) Primero determinamos u · v = 5- 12 + 21 - 32 = -18. Entonces k(u · v) = 3( - 18) = -54. b) Primero determinamos ku = (3(1 ), 3(2), 3(3), 3( - 4)) = (3, 6, 9, -12). Entonces (ku) • v = (3)(5)

+ (6)(-

6)

+ (9)(7) +

( - 12)(8) = 15 - 36 + 63 - 96 = -54

c) Primero determinamos kv = ( 15, - 18, 21, 24). Entonces u • (kv) = (1)(15) + (2)( -18) + (3)(21)

2.15.

+ (-4)(24) = 15 - 36 + 63 - 96 = -54

Sean u = (5, 4, 1), v = (3, - 4, 1) y w = (1 , -2, 3). j,Que pares de dichos vectores son perpendicu1ares? Hallamos el producto escalar de cada pa r de vectores: u·v = l5-16+1 = 0

v •w

= 3 + 8 + 3 = 14

u·w=S-8+3 = 0

Por consiguiente, ta nto u y v como u y w son ortogonales, pero u y w no lo son.

2.16.

Determinar e1 valor de k para que los vectores u y v sean ortogonales, siendo u = (1, k, - 3) y v = (2, - 5, 4). Calculamos u · v, !o igualamos a 0 y resolvemos para k. u · v = - 2.

=

(1)(2) + (k) (- 5)

+ (- 3)(4) =

= 2 - 5k - 12 = 0 o - 5k - 10 = 0. Resolviendo, k 2.17. Demostrar e1 Teorema 2.2.

(u

+ v) • w = (u 1 + v 1 )w1 + (u 1 + v2)w 2 + · · · + (uft + v.)w~ = = U 1 W 1 + V 1 W 1 + Uz Wz + Vz Wz + · · · + U• w. + V• W• = = (u 1 w1 + u 2 w 1 + ··· + u.w.) + (v 1 w 1 + v 2 w 2 + ··· + v.w.) = = u·w+v·w

68

ALGEBRA LINEAL

ii) Como ku

= (ku 1 , (ku) •

iii)

U ' II= U 1 11 1

+

11

ku 2 ,

•. . ,

ku.),

= ku 1 11 1 + ku 2 v 2 + · · · + ku. v. = k(u 1 v 1 + u 2 v 2 + · · · + u. v.) = k(u • v)

U 2 11 2

+ •. . +

U" V"

=

V 1U 1

+

V 2 Uz

+ · .. +

V" U" =

V ' II .

iv) Como uf es no negativo para cada i, y dado que Ia suma de numeros reales no negativos es no nega tiva, u · u = ui +

Ademas, u. u = 0 si y solo si

U;

ui +

· · · + u;;::: 0

= 0 para todo i, esto es, si y solo si

II

= 0.

NORMA (LONGITUD) EN R"

2.18.

Hallar

ll w\1 si w = ( -3, 1, - 2, 4, - 5).

llwl\ 2 = (-W + 12 + ( - 2)2 + 42 + (-W = 9 +I + 4 + 16 + 25 = 55: de aqui ll wll = fl. 2.19.

Determina r el valor de k para que \lull

iiul\ 2 = 12 + 2.20.

e + ( -2)

2

+5 2 =

= fo,

donde u

e + 30. Ahora resolvemos k

2

= (1 , k,

-2, 5).

+ 30 = 39 y obtenemos k = 3, - 3.

Normalizar w = (4, -2, -3, 8). Primero hallamos ll w11 2 = w· w = 4 2 + ( -2)2 + ( -3)2 + 82 = 16 + 4 + 9 + 64 = 93. Dividimos cada componente de w por llwll = j93 obteniendo w ( 4 w--- - --2- --3- -8-) - llwll - fo' fo' fo' fo

2 .21 .

. N orma I1zar v --

!.)

(1 , 1 , 2 3 4 •

Notese que tanto v como cua lquiera de sus multiplos posJtJvos tendrim Ia misma forma normalizada. En tal caso, podemos multiplicar primero v por 12 para eliminar los denominadores: 12v = (6, 8, - 3). Entonces 1112vll 2 = 36 + 64

2.22.

+9 =

109

y

v=

..---...

1211

12v

= ll12vll =

(

6

8

-3 )

ji09' _Ji09 ' JW9

Demostrar el Teorema 2.3 (Cauchy-Schwarz). En su Iugar probaremos el siguiente resultado, mas potente: iu · vl::;;

I•

iu1v11::;; UuiJ IIvll. Para

i= 1

empezar, si u = 0 o v = 0. Ia desigualdad se reduce a 0 S: 0 S: 0 y es, por tanto. cierta. En consecuencia, solo necesitamos considerar el caso en el que u i' 0 y v i' 0, esto es, en el que llull i' 0 y llvll -# 0. Adem
iu· vi =

II

u1v;\ S:

I

lu 1V1\

solo es necesario probar !a segunda desigualdad. Ahora bien, para dos numeros reales cualesquiea x. y E R, 0 s; (x - y) 1 = x 2 equivalentemente,

-

2xy

+ y2

o, [I]

VECTORES EN Rn Y

Tomamos x = iuMilull e y

= jv11/llvll en [I) para

en. V ECTORES ESPACIALES

obtener, para cualquier i,

2 ~ ~ < I ud 2 2

llull llvll - 11ull

+ I vd

2

llvll 2

[2]

=I =I

Pero, por definicion de norma de un vector, llull uf lu,l 2 y llvll sumando en (2] respecto a i y utilizando lu;v;l = ju1jjv1j, tenemos 2I

69

2

=I vf =I lv j

2 1 •

Asi,

2

I u;v;l <~+I I vd = llull + llvll = 2 llull llvll - llullz llvl\ 1 llull 1 llvll 2 2

esto es,

Multiplicando a ambos !ados por llull llvll obtenemos Ia desigualdad pedida .

2.23.

Probar el Teorema 2.4 (Minkowski). Por Ia desigualdad de Cauchy·Schwarz (Problema 2.22) y el resto de las propiedades del producto interno, llu

+ vll 2 = (u + v) · (u + v) = u · u + 2(u · v) + v • v ~ 2 2 2 ~ 11ull + 21iull llvll + llvll = (jju ll + llvll)

Tomand o las raices cuadradas de ambos miembros se obtiene Ia desigualdad buscada.

2.24.

P robar que Ia norma en R" satisface las siguientes leyes:

a) [N d Para cualquier vector u, II uII ~ 0; y II u II =:: 0 si y solo si u = 0. b) [N 2 ] Para cualquier vector u y cualquier escalar k, llkull = Jkl lluJJ . c) [N 3 ] Para dos vectores cualesquiera u y v, ll u + vii 5: llull + ll vJI. a) Segun el Teorema 2.2, u · u 2:: 0 y u · u = 0 si y solo si u = 0. Como llull = ~. resulta (N.J. b) Supo ngamos u = (u 1 , u 2 , ... , u.) y por tanto ku = (kut> k u 2 , ... , ku.). Entonces

Tomando raices cuadradas se obtiene [N 2 ] . c)

2.25.

(N 3 ] se ha demostrado en el Problema 2.23.

Sean u = (1 , 2, - 2), v = (3, - 12, 4) y k = -3. a) Encontrar Jlull. llvll y llkuiJ . b) Comprobar que ll kull = lki Jiull y llu + vii 5: ll ull + llviJ . a)

llull = 1+4 +4 = J9= 3,J:vii= J9+144+16 = Ji69 =1 3,ku=(- 3, ~ 6,6)y llkujj = = 9 + 36 + 36 = fo = 9.

b)

Dado que lkl = 1- 31 = 3, tenemos lklllull

llu + vii

==;

= 3 · 3 = 9 = llkuj•.

/ 16 + 100 + 4 =

.j'i2o ~ 16 = 3 +

Ademas u + v = (4, - 10, 2). Asi 13 = llul! + I! vii

70

ALGEBRA LINEAL

DISTANCIA. ANGULOS. PROYECCIONES

2.26.

Hallar Ia distancia d(u, v) entre los vectores u y v, donde a) u = (1, 7), v = (6, - 5). b) c)

u = (3, - 5, 4), v = (6, 2, - 1). u = (5, 3, -2, - 4, -1), v = (2, -1, 0, -7, 2). En cada caso utilizamos Ia formula d(u , v) =

a)

b) c)

2.27.

llu -

vii = j(u 1

-

v1 ) 2

+ ... + (u.-

j(l- W + (7 + W = )25 + 144 = .jl69 = 13. d(u, v) = j(3 - W + (- 5 - 2)2 + (4 + 1)2 = )9 + 49 + 25 = fo. d(u, v) = j(5- 2)2 + (3 + W + ( - 2 + W + ( - 4 + 7)2 + (-I - 2)2 =

v.) 2 .

d(u, v) =

Encontrar un numero k tal que d(u, v)

) 47.

6, siendo u = (2, k, 1, - 4) y v = (3, - 1, 6, - 3).

=

Primero hallamos

= (2- W + (k + 1)2 +(I ·- 6) 2 + (k 2 + 2k + 28 = 62 obteniendo k = 2, - 4.

4 + 3)2

[d(u, v>]Z

Ahora resolvemos

2.28.

= k2 + 2k + 28

A partir del Problema 2.24, demostrar que Ia funci6n distancia satisface: [M 1] [M 2] [M 3 ]

d(u, v) ;;;:>: 0; y d(u, v) = 0 si y solo si u = v. d(u,v)=d(v,u). d(u, v) s d(u, w) + d(w, v) (desigualdad triangular).

[M 1] es consecuencia directa de [N d- Segun [N 2 ], d(u, v) = l!u- vii

= II(-l)(v- u)ll = 1- ll llv- ull = llv - ull = d(v, u)

que es [M 2 ]. Segun [N 3 ],

d(u, v) = Uu - vU = ll(u- w)

+ (w- v)ll ~ llu- w!/ +

llw -vii = d(u, w) + d(w, v)

que es [M3].

2.29.

Determinar cos 8, donde 0 es el angulo entre u = (1, 2, - 5) y v = (2, 4, 3). Primero hallamos u •v =

2 + 8 - 15 = - 5

llull 2

=

1 -1 4

+ 25 =

30

llvll 2

=

4

+

16 + 9 = 29

Luego cos

2.30.

Determinar proy (u, v ), donde u

u.v

= (1,

.j30Ji9

llullllvll

- 3, 4) y v = (3, 4, 7).

Primero hallamos u · v = 3 - 12 + 28 = 19 y ll vll 2 proy (u, v)

5 --==--=

e= - - = -

=

9

+

16 + 49

(57 76

=

74. Luego

(57

u. v !9 133) 38 133) = llv11 2 v = 74 (3, 4' 7) = 74' 74 ' 74 = 74 ' 37 ' 74

VECTORES EN Rn Y

en. VECTORES

ESPACIALES

71

PUNTOS, RECTAS E HIPERPLANOS

=

En esta secci6n se distingue entre una n-pla P(a 1 , a 2 , ... , an) P(aJ vista como un punto en R" y una n-pla v = [c 1 , c2 , ... , c.] vista como un vector (flecha) desde el origen 0 hasta el punta C(cl, c2, ... , en). 2.31.

2.32.

Hallar el vector v que se identifica con el segmento dirigido PQ para los puntas a) P(2, 5) y Q(-3, 4) en R 2 , h) P(l, -2, 4) y Q(6, 0. -3) en R 3 . a)

v = Q- P = [ -3- 2, 4- 5] = [- 5, -1].

b)

v = Q- p = [6- l, 0 + 2, -3- 4] = [5, 2, -7].

Considerense los puntas P(3, k, -2) y Q(5, 3, 4) en R 3 . Encontrar un valor de k para el que PQ sea ortogonal a! vector u = [4, -3, 2]. Primero hallamos v = Q- P = [5-3, 3- k, 4

+ 2] = [2,

u • v = 4 : 2 - 3(3 - k) + 2 . 6 = 8 - 9 Por ultimo, imponemos u · v = 0 6 3k

2.33.

3- k, 6]. A continuacion calculamos

+ 3k + 12 = 3k + 11

+ II = 0, de donde k = -I 1/3.

Considerese el hiperplano H en R" identificable con el conjunto soluci6n de Ia ecuaci6n lineal · [1] donde u = [a 1 , a2 , ... , an] i= 0. Demostrar que el segmento dirigido PQ para cualquier par de puntas P, Q E H es ortogonal al vector de coeficientes u. Se dice que el vector u es normal al hiperplano H. Sean w 1 = OP y w 2 = OQ; por consiguiente, v = w2 Pero entonces u • v = u · (w 2

-

w 1)

-

= u •w2 -

w 1 = PQ. Por [1], u · w 1 = b y u · w2 =h.

u • w 1 = b- b = 0

De este modo, v = PQ es ortogonal al vector normal u.

2.34.

Encontrar una ecuaci6n del hiperplano Hen R 4 que pasa por el punto P(3, -2, 1, -4) y es normal al vector u = (2, 5, -6, - 2). La ecuaci6n de H es de la forma 2x + 5y- 6z- 2w = k, puesto que es normal au. Sustituyendo P en esta ecuaci6n obtenemos k = -2. Por consiguiente, una ecuaci6n de H es 2x + 5y- 6z- 2w = -2.

2.35.

Hallar una ecuaci6n del plano Hen R 3 que contiene P(l, -5, 2) yes paralelo al plano H' determinado por 3x- 7y + 4z = 5. H y H' son paralelos si y solo si sus normales son paralclas o antiparalelas. Por tanto, una ecuaci6n de H sen\. de Ia forma 3x- 7y + 4z = k. Sustituyendo P(l, -5, 2) en Ia ecuaci6n obtenemos k = 46. En consecuencia, Ia ecuaci6n requerida es 3x - 7y + 4z = 46.

2.36.

Hallar una representaci6n parametrica de Ia recta en R4 que pasa por el punta P(4, -2, 3, 1). en Ia direcci6n de u = [2, 5, -7, 11].

72

ALGEBRA LINEAL

La recta L en R" que pasa por el punto P(a;), en Ia direcci6n del vector no nulo u = [u;] consta de los puntos X = (x;) que satisfacen Ia ecuaci6n

X= P + tu

(para i = I, 2, .. , 11)

0

[I]

donde el parametro t toma todos los valores reales. Asi obtenemos

4 + 2t -2 + 5t z = 3- 7t

X=

y = {

w

2.37.

=

l

+ 5t, 3- 7t, l + llt)

+ llt

Hallar una representaci6n parametrica de Ia recta en R 3 que pasa por los puntos P(5, 4, -3) y Q(l, - 3, 2). Primero calculamos u = PQ Problema 2.36 para obtener X =

2.38.

(4 + 2t, -2

0

= [I

- 5, - 3 - 4, 2 - (- 3))

5 - 4t

y = 4 - 7t

= [ -4,

- 3 + 5t

=

Z

- 7, 5]. Entonces utilizamos el

Dar una representaci6n no parametrica para Ia recta del Problema 2.37. Despejamos t de Ia ecuaci6n de cada coordenada e igualamos los resultados llegando a

x- 5 - 4

z+3 5

y -4

- - =-- = - -

oat par de ecuaciones lineales 7x- 4y

2.39.

19 y 5x

+ 4z =

13.

Encontrar una ecuaci6n parametrica de Ia recta en R 3 perpendicular al plano 2x - 3y+ 7z =4, que intersecta a! mismo en el punto P(6, 5, 1). tl

Como Ia recta es perpendicular al p lano, debe estar en Ia direcci6n de su vector normal = [2, - 3, 7]. De don de X=

2.40.

=

- 7

6 + 2t

y = 5 - 3t

z

Considerese Ia siguiente curva C en R 4 , donde 0 ~ t F(t)

=

~

(t 2 , 3t- 2, t 3 , t 2

Determinar el vector tangente unitario T para t

=

I + 7t

=

4:

+ 5)

2.

Tomamos Ia derivada de (cada componente de) F(t) para obtener un vector V que sea tangente a Ia curva: dF(t) V(t) = dt = (2t, 3, 3t 2 , 2t) Ahora hallamos el valor de V para t = 2. Esto conduce a V = (4, 3, 12, 4). Normalizamos V para obtener el vector unitario T tangente a Ia curva cuando t = 2. Tenemos

II Vll 2

=

16 + 9 + 144 + 16 = 185

II VII

0

Asi

4

T = [ .ji85,

3

12

4

J

.ji85, j185' j185

=Ji85

l en. VECTORES

VECTORES EN Rn Y

2.41.

73

ESPACIALES

Sea T(t) el vector unitario tangente a una curva C en R". Demostrar que dT(t) /dt es ortogonal a T(t). Tenemos T(t) · T(t)

=

1. Utilizando Ia regia de derivaci6n del producto cscalar, junto con

d( I )/dt = 0, llegamos a

d[T(t) · T(t)]jdt = T(t) · dT(t)fdt

+ dT(t)/dt · T(t) = 2T(t) • dT(t)/dt = 0

De este modo. dT(t)/dt es ortogonal a T(t).

VECTORES ESPACIALES (EN R 3 ). PLANOS, RECTAS, CURVAS Y SUPERFICIES EN R 3

Las siguientes formulas se utilizanin en los Problemas 2.42-2.53. La ecuacion de un plano que pasa por el punto P 0 (x 0 , y 0 , z 0 ) con direcci6n normal N = ai + bj + ck es a(x -

x0 )

+ b(y -

y0 )

+ c(z -

z0 ) = 0

[2.1]

La ecuaci6n parametrica de una recta L que pasa por el punta P 0 (x 0 , y 0 , z 0 ) en Ia direcci6n del vector v = ai + bj + ck es x =at+ x 0

z

Y = bt +Yo

= ct + z0

o, equivalenteniente, L(t) = (at

+ x 0 )i + (bt + y0 )j + (ct + z 0 )k

[2.2]

La ecuaci6n de un vector N normal a una superficie F(x, y, z) = 0 es N 2.42.

= F) + F Yj + F ,k

[2.3]

Ha1lar Ia ecuaci6n del plano con direcci6n normal N = 5i - 6j P(3, 4, -2).

+ 7k que contiene el punta

Sustituyendo P y N en Ia ecuaci6n [2.l)llegamos a 5(x- 3)- 6(y- 4)

2.43.

+ 7(z + 2) =

Hallar un vector N normal al plano 4x

0

0

+ 7y -

12z

Sx - 6y =

3.

Los coeficientes de x, y, z ·dan una direcci6n normal, luego N multiplo de N es tambien normal al plano.)

2.44.

Encontrar el plano H paralelo a 4x

+ 7y-

2.45.

+ 1) =

Sean H y K, respectivamente, los pianos x siendo 0 el fmgulo entre ambos pianos.

=

4i

+ 7j- 12k.

(Cualquier

12z = 3 que contiene el punta P(2, 3, -1).

El plano dado y H tienen Ia misma direcci6n normaL es decir, N Sustituyendo P y N en Ia ecuaci6n a) se tiene:

4(x - 2) + 7(y- 3)- l2(z

+ 7z = -23

0

0

+ 2y- 4z =

=

4i

+ 7j - 12k es normal a H.

4x + 7y- 12z = 41 5 y 2x- y

+ 3z =

7. Hallar cos 0

74

A LGEBRA LINEAL

El imgulo Tenemos

e entre los pianos H y N

K es el a ngulo ent re Ia normal a H . N. y Ia normal a K. N'.

= i + 2j -

N' = 2i - j

4k

y

IINII 2

= 1+4

+ 3k

Ento nces N·N' =2-2- 12 = - 12

IIN'II 2

+ 16 ~ 21

= 4

+ 1+ 9 =

14

Asi

N • N' cos 9 = IINIIIIN'II

2.46.

12

12

j2l ,/14 = -7-ft

= -

Deducir Ia ecuaci6n [2. 1]. Sea P(x , y, z ) un punto a rbitrario. El vecto r v

Como v es ortogonal a N

=P ai

=

P 0 = (x - x 0 )i

+ bj + ck

a(x - x 0 )

de P 0 a P es

t'

+ (y -

y 0 )j

+ (z - z0 )k

(Fig. 2- I 2), llegamos a Ia formula requerida

+ b(y -

Yo)

+ c(z -

z0 ) = 0

- y

,.

/

Figura 2-12.

2.47.

Deducir Ia ecuaci6n [2.2]. Sea P(x , y, z) un punto a rbitrario en Ia recta L. El vector w de P0 a Pes w

= P-

Po = (x -

X 0 )i

+ (y -

y 0 )j

+ (z -

z0 )k

[I)

Dado q ue w y v tienen Ia misma direcci6n (Fig. 2- 13),

w = tv = t(ai + bj

+ ck) =

ati

+ btj + ctk

Las ecuaciones (! ] y (2] nos cond ucen al resultado buscado.

(2]

VECTORES EN

Rn Yen VECTORES ESPACIALES

75

L

I I

X

I I

Figura 2-13.

2.48.

Hallar Ia ecuaci6n (parametrica) de Ia recta L que pasa por: a) b)

El punto P(3, 4, -2) en Ia direcci6n de v = 5i - j Los puntos P(l, 3, 2) y Q(2, 5, -6).

a)

Sustituimos en Ia ecuaci6n [2.2] llegando a L(t) = (5t

b)

+ 3)i + (- t + 4)j + (3t -

2)k

Determinamos, en primer lugar, el vector v de P a Q: v = Q- P = i + 2j- 8k. A continuaci6n utilizamos [2.2] con v y uno de los puntos dados, digamos P, obteniendo L(t) = (t

2.49.

+ 3k.

+ l)i + (2t + 3)j + (- 8t + 2)k

Sea H el plano 3x + 5y + 7z = 15. Encontrar Ia ecuaci6n de Ia recta L que, siendo perpendicular a H, contiene el punto P{l, -2, 4). Dado que L es perpendicular a H, debe tener Ia misma direcci6n que Ia normal N a H. Asi utilizando [2.2] con N y P se llega a L(t) = (3t

2.50.

+ l)i + (5t -

2)j

=

3i + 5j

+ 7k

+ (7t + 4)k

Considerese un movil B cuya posicion en el instante t viene dada por R(t) = t 3 i + 2t2 j + 3tk. [Entonces V(t) = dR(t)/dt denota Ia velocidad de By A(t) = dV(t)/dt su ace1eracion.]

c) d) a)

Sustituimos t = 1 en R(t) y llegamos a R(l) = i

b)

la Ia la la

posicion de B cuando t = l. ve1ocidad, v, de B cuando t = 1. rapidez, s, de B cuando t = 1. aceleracion, a, de B cuando t = 1.

Determinar Determinar Determinar Determinar

a)

+ 2j + 3k.

76

ALGEBRA LINEAL b)

T omamos Ia derivada de R(t) obteniendo

dR(t) dt

V(t) = -

Susti tuyendo t c)

= I en

.

.

3t 2 a + 4tJ

+ 4j + 3k .

V(t), v = V(l ) = 3i

=

llvll 2

=

9

+ 16 + 9 = 34

y, de aqui,

s=fo

T o mamos Ia derivada segunda de R (t) o, en otras palabras, Ia derivada de V(t ) llegando a dV(r) A(t) = - - = 6ti

dt

Sustituimos t

2.51.

+ 3k

La rapidez, s, es Ia magnitud de Ia velocida d v. D e modo que

s2 d)

=

= t en

A(t ) para obtener a

=

+ 4j + 4j.

A( I) = 6i

Considerese Ia superficie xy 2 + 2yz = 16 en R 3 . Encontrar: a) el vector N(x, y, z) normal a Ia superficie, b) el plano H tangente a Ia superficie en el punto P(l. 2, 3). a)

Calcuta mos las derivadas parciales Fx, F)'' F=, donde F(x, y. z) = xy2

Fx

=y

2

16. Te nemos

+ 2z F= = 2y i + (2xy + 2z)j + 2yk.

F Y = 2x y

Asi, segim Ia ecuaci6n [2.3], N(x, y, z) = y b)

+ 2yz-

2

La norma l a Ia superficie en cl punto P es N(P) = N(l, 2, 3) = 4i

+

IOj

+ 4k

Siendo asi, N = 2i + 5j + 2k es tambien un vector normal en P. Sustituyendo P y N en Ia ecuaci6n [2.1] se obtiene 2(x - I)

2.52.

+ 5(y- 2) + 2(z

Considerese el elipsoide x 2 punto P(2, 2, 1).

- 3) = 0

+ 2y2 + 3z2 =

2x+5y+2z= 18

0

15. Determinar el plano H, tangente en el

Primero hallamos el vector norma l (a partir de Ia ecuaci6n [2.3]) N(x, y, z) = F)+ FYj

+ F=k = 2xi + 4yj + 6zk

Eva lua mos el vector normal N(x, y, z) en el punto P llegando a N(P) = N(2. 2, I) = 4i Asi N = 2i + 4j ecuaci6n de H :

+ 3k

es normal a! elipsoide en P. Sustituyendo P y N en [2. 1] obtendremos Ia

2(x - 2)

2.53.

+ 8j + 6k

+ 4(y -

2)

+ 3(z -

I)

=

0

2x

0

+ 4y + 3z =

15

Considerese Ia funci6n f(x , y) = x 2 + / para Ia que z ~ x 2 + y 2 representa una superficie S en R 3 . Determinar: a) el vector N normal a Ia superficie para x = 2, y = 3, b) el plano H tangente a Ia superficie S para x = 2, y = 3. a) Utilicemos el hecho de que, si F(x, y, z) = f(x, y) - z, tenemos F x = fx, FY = J;. y F= = - I. Ento nccs N " ' tfx- -~·· - I) = 2xi

+ 2yj -

k

=

4i

+ 6j -

k

VECTORES EN Rn Yen VECTORES ESPACIALES

77

b) Si x = 2 e y = 3, entonces z = 4 + 9 = 13; por consiguiente, P(2. 3, 13) es el punto en Ia superficie S. Sustituimos P y N = 4i + 6j- k en Ia ecuaci6n [2.1] para obtener H. 4(x- 2)

+ 6(y-

3) - (z- 13) = 0

4x+6y-z=l3

0

PRODUCTO VECTORIAL El producto vectorial esta definido unicamente para vectores en R 3 . 2.54.

Calcular u x v, donde a) u = (1, 2, 3) y v = (4, 5, 6), b) u = (7, 3, 1) y v = (1, 1, 1), c) u = ( - 4, 12, 2) y v = (6, -18, 3). El producto vectorial de u = (a 1 , a 2 , a 3 ) y v = (b 1 , b 2 , b3 ) puede obtenerse como sigue. Situamos el vector v = (b 1 , b 2 , b 3 ) bajo el u = (a 1 , a 2 , a 3 ) construyendo Ia matriz

Entonces

Esto es: tapamos Ia primera columna de Ia matriz y tomamos el determinante para obtener Ia primera componente de u x v; tapamos Ia segunda columna y tomamos el negative del determinante para obtener Ia segunda componente. y tapamos Ia tercera columna y tomamos el determinante para obtener La tercera componente. a)

b) c)

uxv=(lm ux v= (IQ u

2

5 3

xv=(IU

!I· -I~ ~ !I· I: ~ I· -I ~ 12 -18

w~ I·I~

2

5 3

~I)= (12 -15, 12-6,5- 8) =

(-3, 6, - 3).

~I)= (3- 1, 1- 7, 7- 3) =(2, -6, 4).

21 ,- 64 [d -18 211-4 3, 6

3, -

- 12 18

CJI) = - 3

= (36 + 36, 12 + 12, 72- 72) = (72, 24, 0). 2.55.

Considerense los vectores u = 2i - 3j a) U XV, b) U X W , C) V X W.

+ 4k,

v = 3i

+j

- 2k, w = i

+ 5j + 3k.

Utilizamos

a) u x

V

=

2

3

j -3

k

4 = (6- 4)i + (12 + 4)j + (2 + 9)k = 2i

-2

+ l6j +

Ilk.

Encontrar:

78

ALGEBRA LINEAL

(Nota: Observese que Ia componente j se o btiene tomando el determina nte cambiado de signo. Vease el Problema 2.54.)

b)

U X W= 2

I

c)

j

k

- 3 5

4

j 1 5

k -2 3

VX W= 3

l

= (--9- 20)i + (4- 6)j + (10 + 3)k =

-29i - 2j + 13k.

3

= (3 + !O)i + (- 2 -

9)j + (15 - l)k

= l3i- llj + 14k .

2.56. Demostrar el Teorema 2.5 i): El vector u x v es ortogonal a u y a v. Supongamos u = (a 1 • a 2 , a 3 ) y v = (b 1 , b2 • b 3 ). Entonces u • (u x v)

= a 1(a 2 b 3 = a 1 a2 b 3

-

a 3 b 2 ) + a 2 (a 3 b 1 - a 1 b 3 ) + aia 1 b 2 - a 2 b 1) = a 1 a 3 b2 + a 2 a 3 b 1 - a 1 a 2 b3 + a 1 a 3 b2 - a 2 a 3 b 1

=0

De este modo, u x v es ortogonal a u. Analogamentc se demuestra que es ortogonal a v.

2.57.

Encontrar un vector unitario u ortogonal a v = (l, 3, 4) y a w = (2, - 6, 5). Comcnzamos calcula ndo v x w que es ortogonal a ambos vectores. La matriz

(~

3

-6

conduce a V X W

+ 24, 8 + 5,

= ( -15

Ahara norma lizamos u x w ob teniendo u

2.58.

- 6- 6) = (9, 13, - 12)

= (9/J394,

13/fl94, -12/J39'4).

Demostrar la identidad de Lagrange: llu x vll 2 = (u·u)(u · v)- (u·v) 2 • Si u

=

(a 1 , a2 , a 3 ) y v = (b 1 , b2 , b 3 ) , entonces llu x vll 2

= (a 2 b3 1

(u • u)(v • v) - (u • v) = (af

a3 b 2 ) 2

+ (a3 b 1 -

a 1 b3 ) 2

+ (a 1 b 2

-

a2 b1)

2

+ a~ + a~)(b~ + bi + b~) - (a 1 b 1 + a 2 b 2 + a3 b 3 )

[I] 2

[2]

Desarrollando Ia parte derecha de [l] y [2] se llega a Ia identidad.

NUMEROS COMPLEJOS

2.59.

Sup6ngase que z

= 5 + 3i y w = 2- 4i. Calcular:

a) z

+ w,

b) z - w, c) zw.

Utilizamos las reglas algebraicas ordinari as, junto con Ia igualdad i 2 = - I, para llegar a un resultado en la forma convencional a + bi. a)

z + w = (5 + 3i) + (2 - 4i) = 7 - i.

b)

z- w = (5 + 3i)- (2 - 4i) = 5 + 3i - 2 + 4i = 3 + 7i.

c) zw

= (S + 3i)(2 -

4i) = 10- l4i- l2i2

=

10 - l4i

+ 12 =

22 - l4i.

VECTORES EN Rn Y

2.60.

Simplificar: a) (5

79

7i)

2

b)

c)

2.61.

ESPACIALES

+ 2i) 3 .

7i), b) (4- 3i) 2 , c) (1

= 10 + 6i- 35i- 21i 2 = 31 - 29i. (4 - 3i) = 16- 24i + 9i2 = 7 - 24i. (1 + 2i)3 = 1 + 6i + 12i2 + 8i3 = 1 + 6i - 12- 8i = (5

a)

+ 3i)(2 -

+ 3i)(2 -

en. VECTORES

-11 - 2i .

Simplificar: a) i0 , i 3 , i 4 , b) i5 , i6 , i 7 , i 8 , c) i 39 , i 174 , i 252 , j3 17 , i 0 = 1, i 3 = i2(i) = ( -t)(i) = - i, i 4 = (i 2 )(i2 ) = ( -1)( -1)

a)

= 1.

;s = (i4)(1) = (l)(i) = i, ;6 = (i4)(il) = (l)(i2) = ;2 = - 1, ;7 = ;3 = -i, ;s = ;4 = 1. c) Usando i4 = I e ;n = i 4 q+r = (i4 )qir = lqi' = i' dividimos el exponente n por 4 obteniendo el b)

resto r:

2.62.

Determina r el complejo conjugado de cada uno de los siguientes numeros:

+ 4i, 7 - Si, 4 + i, -3 - i ; b) 6, -3, 4i, - 9i. a) 6 + 4i = 6 - 4i, 7 - Si = 7 + 5i, 4 + i = 4 - i, b) 6 = 6, -· 3 = -3, 4i = - 4i, -9i = 9i. a) 6

3- i= - 3

+ i.

(N6tese.que el conjugado de un numero real es el numero original, pero el co njugado de un numero imaginario puro es el opuesto del numero o riginal.)

2.63.

H alla r zz y

lzl, donde z = 3 + 4i.

Para z =a+ bi utilizamos zi = a2

2.64.

+ b2

y

z=

zz = 9 + 16 =

25

Jti = lzl

=

J a2 + b 2 .

J25

=

5

2- 7i Simplificar - -. 5 + 3i Para simplifica r una fracci6 n zf w de numeros complejos, multiplicamos tanto el numerador como el denominador por 1v, el conjugado del denominador. (2 - 7iXS - 3i)

2 - 7i 5 + Jj

2.65.

(5

+ 3i)(5 -

3i)

- ll-41i

11

41

34

34

34

- -- - = - - - -

i

Demostrar las siguientes afirmaciones: Para dos numeros complejos cualesquiera z, + w = + w, ii) zw = z)\•, iii) = z.

z

i) z

z

=

c

+ di,

+ bi) + (c + di) =

(a

+ c) + (b + d)i

Supongamos z =a+ bi y w i) z

+w=

(a

donde a, b, c, dE R. =

= ~+~-~+~ = a+c-~-~ =

= (a - b1) + (c - d1) =

ii)

zw = (a

z + w.

+ bi)(c + di) = (ac - bd) + (ad + bc)i = + bc)i = (a - biXc - d1) = zw

= (ac - bd) - (ad

iii)

! = a+ bi = a - bi =a- ( - b)i =a+ hi =

z.

wE C,

80 2.66.

ALGEBRA LINEAL

Demostrar Ia siguiente afirmacion: Para dos numeros complejos cualesquiera z,

wE C,

lzwl = lzllwl. Supongamos z

= a + bi y

lz! = a + b 2

2

w

= c + di, donde a, lwl

2

2

c +d 2

=

2

b, c. dE R. Entonces

y

zw

= (ac- bd) + (ad + bc)i

Asi

I zw 12 =

(ac- btf}1 +(ad+ bc)1 =

+ 2abcd + b 2 c 1 = = az(cz + dl) + bz(cz + dz) = (az + bz)(cz + dz) = I z 121 w lz

= a 2 c2 -

2abcd + b 2 d 2 + a 2 d 2

La raiz cuadrada de ambos miembros proporciona el resultado deseado.

2.67.

Demostrar Ia siguiente afirmacion: Para dos numeros complejos cualesquiera z, ~ lzl + jwj .

wE C,

lz + wl

Supongamos z =a+ bi y w = c + di, con a, b, c. dE R. Consideremos los vectores u = (a. b) y v = (c, d) en R 2 • Notese que

lzl = Ja1 + b 2 = !lull

lwl =

Jc

2

+ d 2 = llvll

y

lz + wl = l(a +c)+ (b + ti}il

2

= j (a + c) + (b + ti} 2 =

ll(a + c, b + ti}ll = llu +vii

Segun Ia desigualdad de Minkowski (Problema 2.23). llu + vii :S: 1\ull

lz+wl= llu +vll 2.68.

:S:

+ llvll

y por tanto.

1\ull + llvll =lzl+lwl

Hallar los productos escalares u · v y u · u, donde: a) u = (1 - 2i, 3 = (3- 2i, 4i, I + 6i), v = (5 + i, 2 - 3i, 7 + 2i).

+ i), u = (4 + 2i, 5 -

6i);

b) u

Recuerdese que los conjugados de las componentes del segundo vector aparecen en el producto escalar (z 1, a)

•.. ,

+ 21) + (3 + i)(5 2i)(4- 2i) + (3 + i)(5 +

u · v = (1 - 2i)(4 = (1 -

v • u = (4 + =

(4

z.) · {w 1 ,

- 21)(1 - 2i) + (5 -

+ 2i)(l

.•• ,

w.) =

z 1 w1 + · · · + z. w.

6i) = 6i) = -lOi + 9 + 23i = 9 + 13i

- 6i)(3 + i) =

+ 2i) + (5 - 6i)(3 - i)

b) u . v = (3 - 2i)(5 + i) + (4i)(2- 3i) + (1

=

lOi + 9- 23i = 9- 13i

+ 6i)(7 +

21) =

= (3 - 2i)(5 - i) + (4i)(2 + 3i) + (1 + 6i)(7 - 2i) = 20 + 35i

v. u = (5 + i)(3 - 2i) + (2 - 3i)(4i) + (7 + 2i)(l + 6i) = = (5 + i)(3 + 21) + {2- 3i)( - 4i) + (7 + 2i)(l - 6i) = 20- 35i

En ambos casos, v · u =u-ti. Esto es cierto en general, como se vera en el Problema 2. 70.

VECTORES EN Rn Y

2.69.

Sean u = (7- 2i. 2 + 5i) y v = (1 a) u

+ v;

d) u • v;

b) 2iu; c)(3- i)v;

a)

u+v

b)

2iu = (l4i - 4i2 , 4i + 10i2 ) = (4

=

(7 - 2i + 1

+ i,

+ i, 2 + Si -

en

VECTORES ESPACIALES

81

-3- 6i). Calcular: e)

!l ull Y II vii.

3 - 6i) = (8 - i, - 1 - i) .

+

14i, - 10 + 4i) .

+ 3i- i - i , -9 - l8i + 3i + 6i2) = (4 + 2i, -15- lSi). d) u · v = (7 - 2i)(l + i) + (2 + Si)( - 3 - 6i) = = (7 - 2i)( 1 - i) + (2 + Si)(- 3 + 6i) = 5 - 9i - 36 - 3i = - 31 - 12i . e) !lull= J1z + (-2)2 -f- 22 +52= JBz, llvll = J12 + 12 + ( - 3)2 + ( -6)2 = fo. 2

c) (3 - i)v = (3

2.70.

Demostrar las siguientes afirmaciones: Para dos vectores cualesquiera u, v E C" y cualquier tl· v = v · u, ii) (zu) · v = z(u· v), iii) u· (zv) = i(u · v).

escalar z E C, i)

Supongamos u . i)

= (z 1 ,

z2 ,

z.) y v

=

(w 1 , w2 ,

... ,

w.) .

Usando las propiedades de Ia conjugaci6n,

v·u=

w1 z1 + w2 z2 + .. · + w.z. = w1 z1 + w2 z2 + ... + w.z. =

= wlzl

ii)

... ,

Cc;:>mo zu = (zz 1, zz 2 , (zu) • v= zz 1 w1

+ WzZz + ... + w. z. ... ,

= zlwl

+ Zz Wz + .. . + z.w. =

u. v

zz.),

+ zz 2 w2 + ··· + zz.w. = z(z 1 w 1 + z 2 w2 + ··· + z .w.)= z(u · v)

(Comparese con el Teorema 2.2, referente a vectores en R".) iii)

Metodo I.

Dado que zv

=

(zw 1 , zw 2 ,

... ,

zw.),

u • (zv) = z 1 zw, + z 2 zw 2 + · ·· + z.zw. = z 1 zw 1 + z 2 zw2 + · · · + z.iw. = =

Metodo 2.

Z(zl Wt

+ Zz Wz + .. . + z. wJ = z(u. v)

Utilizando i) y ii), u • (zv) = (zv) • u = z(v • u) = z(v • u) = z(u • v)

PROB LEMAS SUPLEMENTARIOS

VECTORES EN R" 2.71.

Sean u = (2, -I, 0, -3), v = ( I, - I, -1, 3), w = ( 1, 3. - 2, 2). Hallar: a) lu- 3v; b) 5u- 3v- 4w; c) - u + 2v - 2w; d) u·v, u· w y v ·w; e) llull. ll vll y Uwl! .

2.72.

Dcterminar x e y si: a) x (3, 2) = 2(y, -1 ); b) x(2, y) = y(l , -2).

2.73. Hallar d(u, v) y proy (11. v) cuando: a) u = (I. - 3), r; = (4, I); b) u = (2, -1 , 0, 1). v = (I. - I. 1.1).

82

ALGEBRA LINEAL

COMBINACIONES LINEALES. INDEPENDENCIA LINEAL 2.74.

Sean

Expresamos v como cornbinaci6 n lineal de u 1 ,

2.75.

112 •

u3 , donde

Determinar si los siguientes vectores u, v, w son linealmente independieotes y, en caso de no serlo. expresar uno de ellos como combinaci6n lineal de los otros. a)

u = (1, 0, 1), v = (1, 2, 3), w = (3, 2, 5) .

b)

u = (1 , 0, 1), v = (1, 1, 1), w = (0, 1, 1).

c)

u = (1, 2), v = (1, - 1), w = (2, 5).

d)

U

e)

u = (1, 0, 0, 1), v = (0, 1, 2, 1), w = (1, 2, 4, 3).

= (1, 0, 0, 1),

I'

= (0, 1, 2, 1), W = (1, 2, 3, 4) .

VECfORES LOCALIZADOS. HIPERPLANOS, RECTAS, CURVAS 2.76.

Encontrar el vector (localizado) v de a) P(2. 3, -7) a Q( l , - 6, - 5); b) P ( l , - 8, - 4. 6) a Q(3. -5, 2, -4).

2.77.

Hallar una ecuaci6n del hiperplano en R 3 que: a)

Pasa por (2, -7, I) yes normal a (3, 1, - II).

b) Contienc (1, -2, 2). (0. 1, 3) y (0, 2, -1). c) 2.78.

Contiene (1, - 5, 2) yes paralelo a 3x- 7y + 4== 5.

Encontrar una representaci6 n parametrica de Ia recta que: a)

Pasa por (7, - I, 8) en Ia direcci6n de (1, 3, - 5).

b)

Pasa por (1, 9, -4, 5) y (2, -3, 0, 4).

c)

Pasa por (4, - I, 9) yes perpendicular al plano 3x - 2y

+z =

18.

VECTORES ESPACIALES (EN R 3 ) . PLANOS, RECTAS, CURVAS Y SUPERFICIES EN R 3 2.79.

Hallar Ia ecuaci6n del plano H:

+ 5k, que

a)

Con normal N = 3i - 4j

b)

Paralelo a 4x - 3y + 2z = 11, que contiene el pun to P( 1, 2, - 3).

contiene el punta P(i, 2, - 3).

VECTORES EN Rn Y

2.80.

3x-4y-12z= II;

Hallar cos 8, siendo

a)

2.83.

(I

b)

2x - y - 2z

+ 2y- 6z = 4. 4x + 3y + 2z = I.

Determinar Ia ecuaci6n (parametrica) de Ia recta L: a)

Que pasa por el punto P(2, 5, - 3 ), en Ia direcci6n de v = 4i - 5j

b)

Que pasa por los puntos P(l, 2. -4) y Q(3, -7, 2).

c)

Perpendicular al plano 2x- 3y + 7z

=

Co nsiderese Ia siguiente curva, donde 0 ::; t ::; 5: t 3i- t2j

+ (2t-

3)k

a)

HaJJar F(t) cuando t = 2.

b)

Determinar los extremos de Ia curva.

c)

Encontrar el vector unitario T tangente a Ia curva cuando t = 2.

a)

2.87.

+ 7k.

4 y que contiene el punto P(l, -5, 7).

2.84. Considerese Ia curva F(r) =(cos t)i +(sen r)j

2.86.

7.

=

el angulo entre los pianos:

F(t) =

2.85.

83

3x- 2y- 4z = 5 y x

b) 2x + 5y - 4z = I y 2.82.

ESPACIALES

Encontrar un vector unitario u que sea normal al plano:

a) 2.81.

co VECTORES

+ tk.

DeteFminar el vector unitario T(t) tangente a Ia curva.

b)

Hallar el vector unitario N(t) normal a Ia curva normalizando U(t) = dT(t)/dt.

c)

Encontrar el vector unitario B(t) binormal a Ia curva utilizando B = T x N.

Considerese un m6vil B cuya posicion en el instante t viene dada por R(t) = r2 i [Entonces V(t) = dR(t)jdt denota Ia velocidad de B y A(t) = dV(t )/dt su aceleraci6n.] a)

Determinar Ia posicion de B cuando t

b)

Determinar Ia velocidad, v, de B cuando t

c)

Determinar Ia rapidez. s. de B cuando t = I.

d)

Determinar Ia aceleraci6n, a, de B cuando t = I.

+ t 3 j + 2tk.

= I. =

I.

Hallar el vector normal N y el plano tangente H a Ia superficie en el punto dado:

+ 3yz = 20 y punto P( I, 3, 2). + 3y2 - 5z2 = 16 y punto P(3, -2,

a)

Superficie x 2 y

b)

Superficie x 2

Dada z = f(x, y) = x 2

+ 2xy, encontrar el

l ).

vector normal N y el plano tangente H para x = 3, y = I.

PRODUCTO VECTORIAL El producto vectorial solo esta definido para vectores en R 3 . 2.88. Dados u = 3i- 4j d)

+ 2k, v = 2i + 5j- 3k,

w

= 4i + 7j + 2k.

Hallar: a) u x v, b) u x w, c) v x w,

V X U.

2.89. Hatlar un vector unitario w ortogonal a a) u v = 4i- 2j- k.

=

(1 , 2, 3) y v =(I, -I , 2); b) u

=

3i- j + 2k y

l

84 2.90.

ALGEBRA LINEAL

Demostrar las siguientes propiedades del producto vectorial: a)

uxv= - (vxu)

b)

u x u

c)

(ku ) x v = k(u x v) = u x (kv)

=

0 para todo vector

11

+ w) =

+ (u x w) + (w x u)

d)

u x (v

e)

(v + w) x u = (v x u)

f)

(u x v) x w = (u · w)v- (v · w)u

(u x v)

NUMEROS COMPLEJ OS 2.91. Simplilicar: a) (4 - 7i)(9

I

+ 2i);

9

+ 2i

h) (3 - 5i) 2 : c) - - .; d ) -- .; e) ( I - i) 3 . 4- 7l 3- 51 2

2.92.

2 -+ 3i : c) ; 15 S1mplificar: a) -I ; b ) 2i 7 - 31 ,

2.93.

Sean z = 2 - Si y w = 7 + 3i. Calcular: a) z + w; b) zw; c) zfw: d)::, 1<:>;

2.94.

Sean z = 2

2.95.

Demostrar que a) Re z = 3(z

2.96.

Demostrar que zw = 0 implica z = 0 o w := 0.

VECTO RES EN 2.97.

,

I ) d) ( __ , 3- i

; 34 -

y w = 6 - 5i. Calcular: a) z(w; b) ::, 1<:>:

+ z);

(u

e) lzl. JwJ.

c) Jzl, lwJ.

b) l m z = (z- ::)(2i.

en

Demostra r las siguientes afirmaciones: P a ra vectores a rbitrarios u. v, i)

2.98.

+i

;2 5

+ v) • w

= u•w

+ v • w;

ii) w • (u

+ v} = w • u + w

11• E

C":

• v.

Pro bar que Ia norma en C" satisface:

!lull

[N 1]

P a ra cualquier vector u.

[N 2 ]

Para cualquier vector

[N 3]

Para veclores cualesquie ra

2: 0: y

Jlull

=

0 si y solo si u = 0.

u y cualquier numero complejo z, ll:ull 11 y v, ll u + vii :;; !lull + II vii .

=

Jzlll ull.

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS 2.71.

2.72.

a) 2u-3v=(l,l,3,-15) h)

5u- 3v- 4w = (3, -14, 11, - 32)

c)

- u

a)

x

+ 2v -

= - I.

y

u. v = -6, u. w

d)

e) Jlull

=

= -7, v. w = 6

Ji4, llvl! = 2.}3, ll wll = 3.j2

2w = (-2, -7, 2, 5)

=

-!:

2.73. a) d = 5, proy (u, v) =

h)

X

(n. -0):

= 0, _v = 0 b)

d

0

X

= - 2,

_II

= J ll. proy (u.

= - 4. v)

= (~ . - ~ . 9 .if).

VECTORES EN Rn Y

2.74. u) v = (!)u 1 h)

v =u 2 +2u 3 .

c)

v = [(a - 2b + c)/ 2]u 1 +(a+ b - c)u2

2.75.

a) dependientes;

2.76.

u)

v = ( -1, -9, 2);

2.77.

a)

3x+ y -l1z = -12;

2.78.

u)

x

= 7 + t, y

h) x 1 c)

4

=

X

b)

-I

=

-

l3x + 4y

b)

+ 3y- 2:z =

a) 3x- 4y + 5z

2.80.

a)

u

2.81.

a)

23/(.j29 j4t);

2.82.

a)

X

b)

X=

=

2- 9t, Z = -4 + 6t.

c)

X

=

-5 -

2.83.

a)

8i - 4j + k;

2.84.

a)

b) 4x

4j- 12k)/ l3;

b)

b)

u

15/(fo

b)

= 2 + 4t, y = 5 - 5£, Z 1 + 2t, y = 1 + 2t, y

+z=

= -

)t, Z =

= (2i -

3x - 7y

c)

7;

+ 3t, z = 8- 5t . + 4t, x 4 = 5 1 - 2t, :Z = 9 + t .

= -20;

d ) independientes;

e) dependientes.

v = (2, 3, 6, - 10) .

2.79.

= (Ji -

a)/2]u 3 .

9 - 12t, x 3 = - 4

=

+ 3t, y =

+ [(c -

c) dependientes;

b) independientes;

1 + t, x 2

=

ESPACIALES

+ 3u 3 .

5u 1

-

en. V ECTORES

+ 4z =

46.

t.

16.

j - 2k)/3.

fo>.

3 + 7t. 7 + 7t.

- 3k y 125i - 25j + 7k;

T = (6i - 2j

c)

+ k)/ J4t.

= ( -sen t) i + (cos t)j + k)/.j2. N (t) = ( - cos t)i - (sen t)j. c) B(t) = (sen t)i - (cos t)j + k)/.j2. T (c)

b)

b)

2i+3j+2k;

c)

2.85.

a)

i + j+2k;

2.86.

a)

N = 6i + 7j + 9k, 6x + 7y + 9z = 45 .

h)

N

= 6i -

l2j - 10k, 3x - 6y - 5z

2.87.

N = 8i + 6j- k, 8x + 6y -. .z = 15 .

2.88.

a) 2i b)

+ 13j + 23k + 2j + 37k

-22i

2.89.

a) (7, 1, - 3)/ J59;

2.91.

a)

2.92. a)

50 - 55i; -

y;

b) b) (5

fo;

d)

2i + 6j.

= 16 .

c) 3li-16j-6k d)

- 2i - 13j - 23k

h) (Si

+

llj - 2k)jjl5o .

-16 - 30i ;

+ 27i)/ 58;

c) c)

(4

+ 7i)/65;

- i, i, -1 ;

d) d)

(4

(1

+ 3i)/ 2 ;

+ 3i)/50 .

e)

-2- 2i.

85

86 2.93.

2.94.

ALGEBRA LINEAL

a) b)

: -r w=9-2i :1\ = 29- 29i

.:)

: .•; = (-1 - 41 i)/58

a)

=,,. = (7 + 16i)/61;

d) e)

b)

z = 2 + 5i, w = 7 - 3i I z I = J29, I w I = J58

z=

2 - i,

w= 6 + 5i;

2.96. Si zw = 0, entonces lzwl = lzllwl = 101 = 0. De aqui Jzl = 0 o lwl = 0; y por tanto z = 0 o w = 0.

CAPITULO

3

Matrices

3.1.

INTRODUCCION

Las matrices ya se trataron en el Capitulo 1, y sus elementos se relacionaron con los coeficientes de sistemas de ecuaciones lineales. Aqui introduciremos nuevamente esas matrices y estudiaremos ciertas operaciones algebraicas definidas sobre elias. El material aqui expuesto esta destinado principalmente a! calculo. No obstante, tal y como ocurria con las ecuaciones lineales, el tratamiento abstracto presentado posteriormente nos ayudara a profundizar en Ia estructura de las matrices. Las entradas de nuestras matrices procederan de un cuerpo K arbitrario, pero fijo . (Vease el Apendice.) Los elementos de K reciben el nombre de escalares. No se perdera nada esencial si el lector supone que K es eJ cuerpo real, R, o el complejo, C. · Por ultimo, advertimos que los elementos de Rn o C" se representaran convenientemente por «vectores fila» o «vectores columna», que son casos particulates de matrices.

3.2.

MATRICES

Una matriz sobre un cuerpo K (o simplemente una matriz, si K viene dado implicitamente) es una tabla ordenada de escalares ail de Ia forma

(~:_:_ ::: : :::) .

. ..

a.., 1 a..,2

•••

La matriz ante rior se denota tam bien por (ail), i Las m n-plas horizontales

=

a...,

l , ... , m,j = I, ... , n, o simplemente por (a;J

87

88

ALGEBRA LINEAL

son las filas de Ia matriz, y las n m-plas verticales 12

11

.

a~~~ , (a~~~ ( )

a.,l

)

, : .. ,

(at.) ~~~

a,.2

a""'

son sus columnas. N6tese que el elemento aii• llamado entrada ij o componente ij, aparece en Ia fila i-esima y en Ia columna j-esima. Una matr1z con m filas y n columnas se denomina matriz m por n, o matriz m x n; el par de numeros (m, n) se llama su tama.no o forma. Las matrices se denotanin usualmente por letras mayusculas, A, B, ... , y los elementos del cuerpo K por minusculas, a, b, .... Dos matrices A y B son iguales, escrito A = B, si tienen Ia misma forma y si sus elementos correspondientes coinciden. Asi Ia igualdad de dos matrices m x n equivale a un sistema de mn igualdades, una por cada par de componentes. EJEMPLO 3.1 a)

La siguiente es una matriz 2 x 3:

(I -3 4)· 5

0

- 2

Sus filas son (1, - 3, 4) y (0, 5, - 2); sus columnas son b)

La aserci6n

(x +

y x-y

2 z+

z-

w) w

= (

G). (-D

y (

-~}

3 5 ) es equivalente al siguiente sistema de ecuaciones: 1 4

{

x+y=3 x-y=l 2z+w=5

z-w=4

La soluci6n del sistema es x = 2, y = I , z = 3, w = - 1.

Para referirse a una matriz con una sola fila se utiliza tambien Ia expresi6n vector fila; y para referirse a una con una columna, Ia expresi6n vector columna. En particular, un elemento del cuerpo K puede verse como una matriz I x I. Nota:

3.3. SUMA DE MATRICES Y PRODUCTO POR UN ESCALAR Sean A y B dos matrices con el mismo tamaiio (esto es, con el mismo numero de filas y de columnas), digamos dos matrices m x n:

A=(:::__::: . ••• ~::) a.,l

a,.2

. ..

alftft

y

MATRICES

La suma de A y B, escrito A de ambas:

+ B, es

89

Ia matriz obtenida sumando las entradas correspondientes

El producto de un escalar k por Ia matriz A , escrito k ·A o simplemente kA, es Ia matriz obtenida multiplicando cada entrada de A por k:

Observese que A

+B

y kA son matrices m x n tambien. Ademas definimos

- A= - l ·A

A- B =A+ ( - B)

y

La suma de matrices con tamanos diferentes no esta definida.

EJEM PLO 3.2. Sean A=

A+B= 3A =

2A -

G -2 3) -6

5

c

+3 4-7

c

·1

(- 37

3. (-

2)

3.5

-4 10

3·3)

3. (-6)

21

6) ( -9 -12 +

=

!).

0

-2 + 0 3 + 2) ( 5 + 1 -6+8 =

3·4

3B=G

yB-

Entonces

4

-3

(3

12

0

-3

-2

6 -6 15

D -1:)

-6) ( -7 - 24 = 29

-4 7

-3~)

La matriz m x n cuyas entradas son todas nulas se conoce como matriz cero y se denotani por 0,.,.• o simplemente por 0. Por ejemplo, Ia matriz cero 2 x 3 es

(00 00 0)0 La matriz cero es similar al escalar 0, y se utilizani el mismo simbolo para ambos. Para cualquier matriz A,

A+O = O+A= A Las propiedades basicas de las matrices, bajo las operaciones de suma matricial y producto por un escalar, se enuncian a continuaci6n.

90

ALGEBRA LINEA L

Teor~ma

3.1: Sea Vel conjunto de todas las matrices m x n sabre un cuerpo K. E n tal caso, para matrices arbitrarias A , B , Ce V y escalares cualesquiera k 1 , k 2 eK.

+ B) + C =

iii)

A+ ( - A)= 0

v) k 1(A + B) = k 1 A + k 1 B vi) (k 1 + k 2 )A = k 1 A + k 2 A vii) (k 1 k 2 )A = k 1(k 2 A)

iv)

A+B=B+A

viii)

i)

(A

ii)

A +O=A

A

+ (B + C)

1 ·A= A y OA = 0

Utilizando las propiedades vi) y vii) se puede ver tambien que A+ A

= 2A, A+ A+ A= 3A, . ..

Nota: Supongamos que los vectores en R" se representan por vectores fila (o vectores columna). es decir,

y Entonces, vistos como m atrices, la suma u

+v

y el producto ku son los siguientes:

y

ku =(kat> ka 2 ,

•. • ,

kaJ

Pero esto corresponde precisamente a Ia suma y el producto por un escalar, tal y como se delinieron en el Capitulo 2. Dicho de otro modo, las operaciones sabre matrices anteriores pueden verse como una generalizaci6n de las operaciones correspondientes introducidas en el Capitulo 2.

3.4. PRODUCTO DE MATRICES El producto de dos matrices A y B, escrito AB, es algo complicado. Por esta raz6n, comenzaremos con un caso particular. · El producto A· B de una matriz fila A = (a;) y una matriz c~lumna B = (b;), con· el mismo numero de elementos, se define como sigue:

(a,,

a,,, ,

a{:) ~

a,b, +a, b,

+ · · · +a.

b.~ .t:•

b,

N6tese que A· B es un escalar (o matriz I x 1). El producto A· B no esta definido si A y B tienen numeros diferentes de elementos. EJEMPLO 3 .3

(8,

-~. ~-~) ~

8. 3 +(-4) ·2 + 5

·(-1)~24-8-

h

11

Hacienda uso de Io anterior, definimos ahara el producto de matrices en general. Definicion: Supongamos que A = (ai) y B = (bu) son m atrices tales que el numero de columnas de A coincide con el numero de filas de B ; es decir, A es una matriz m x p y B una

MATRICES

91

mat riz p x n. Entonces el producto AB es Ia matriz m x n cuya entrada ij se obtiene multiplicand o Ia lila i-esima A 1 de A por Ia columna j -esima Bi de B:

Esto es, a11

alp

a;1

a,P

a ...

amp

bll

blj

blw

ell

c'" C;J

bpl

bpj . ...

b,..

c,J

c,~

p

donde c 1i = ail b 1i

+ a;2 b 2 i + ··· + a1PbPi =

l:

a;kbki"

k=l

Subrayamo~ el hecho de que el producto AB no esta definido si A es una matriz m x p y B una matriz q x n con p -1: q.

EJEMPLO 3.4 a)

b)

(r s)(a 1 t u bl

G~)(~ C0 2~x~3

a2 a3) = ca, + sb, b3

b2

ta 1 + ub 1

ra 2 + sb 2 ta 2 + ub 2

l)=C ·I +2·o 1·1+ 2·2) = C 3 ·1 + 4·0 3·1+4·2 3

2

2) 4

=c.

3)

ra 3 + sb ta 3 + ub3

1 + 1. 3 l· 2+ 1 · 4 )=e 0· 1+2 · 3 0·2+2·4 6

~~)

!)

EI ejemplo anterior muestra qu~ el producto de matrices no es conmutativo, es decir, los _ productos AB y BA de matrices no son necesariamente iguales. El producto de matrices satisface, sin embargo, las siguientes propiedades: Teorema 3.2:

i)

(AB)C = A(BC) (ley asociativa).

ii)

+ C) = AB + AC (ley distributiva por Ia izquierda). (B + C)A = BA + CA (ley distributiva por Ia derecha). k(AB) = (kA)B = A(kB), si k es un escalar.

iii) iv)

A(B

Se supone q ue las sumas y productos del teorema estan delinidos. Hacemos notar q ue OA = 0 y BO = 0, donde 0 es la matriz cero.

92

ALGEBRA LINEAL

3.5. TRASPUESTA DE UNA MATRIZ La traspuesta de una matriz A , denotada par AT, es Ia ma triz obtenida escribiendo las filas de A, por arden, como columnas:

. :: . :::)T = (::: . _::.:.... ·... ~:) (:.am1:_: . :::. amz . . . a,.,. aln az,. . . . a..,,. En otras palabras, si A = (a;) es una matriz m x n, entonces AT = (a~) es Ia matriz n x m con a ji para todos los valores de i y j. Ad viertase que Ia traspuesta de un vector fila es un vector columna y viceversa. La operaci6n de trasposicion definida sabre ma trices satisface las siguientes pro piedades:

a~ =

Teorema 3.3:

i) ii)

iii) iv)

(A

+ B)T =AT+ BT.

(A 1')1' = A.

(kA? =kAT (si k es un escalar). (ABf = BT AT.

Observamos en iv) qne Ia traspuesta de un producto es el producto de .las traspuestas, pero en arden inverso.

3.6. MATRICES Y SISTEMAS DE ECUACIONES LINEALES · Consideremos nuevamente un sistema de m ecuaciones lineales con n incognitas: a 11 x 1 a 21 x 1

+ a 11 x 2 + · · · + ahx,. = + anx2 + · · · + a 2,.x,. =

b1 b2

[3. 1]

El sistema es equivalente a Ia ecuaci6n matricial:

o simplemente

AX=B

donde A = (a;) es Ia Hamada matriz de los coeflcientes, X = (x) la columna de incognitas y B = (b;) Ia columna de constantes. La a firmacion de que son equivalentes significa que toda solucio n del sistema [3.1] es soluci6n de Ia ecuacion matricial. y viceversa.

MATRICES

93

La matriz ampliada del sistema [3.1] es Ia matriz:

(::: :::_.........:_::_. _::bj\ ..

a, 1

a.,2

•••

a,n

Esto es, Ia matriz ampliada del sistema AX = B consiste en Ia matriz A de coeficientes, seguida por Ia columna B de constantes. Observemos que el sistema [3.1] esta completamente determinado por su matriz ampliada. EJ EM PLO 3.5. A continuaci6n se dan, respectivamente, un sistema de ecuaciones lineales y su ecuaci6n matricial equivalente. 2x + 3y- 4z = 7 x- 2y- 5z = 3

y

(N6tese que el tamano de Ia columna de incognitas no es igual a t tamano de Ia columna de constantes.) -La matriz ampliada del sistema es

2 3 ( 1 -2

-4

73)

-5

AI estudiar ecuaciones lineales, suele ser mas sencillo emplear el lenguaje y Ia teoria de matrices, como sugieren los siguientes teoremas. Teorema 3.4: Supongamos que u 1 , u 2 , ••• , u" son soluciones de un sistema de ecuac\ones lineales homogeneo AX = 0. Entonces toda combinaci6n lineal de los u, de Ia forma k1 u 1 + k 2 u 2 + ··· + k"u", donde los k; son escala res, es tambien una soluci6n de AX= 0. En particular, todo multiplo ku de cualquier soluci6n u de AX= 0 es tambien soluci6n del sistema homogeneo.

Demostracion.

Se nos dice que Au 1

= 0, Au 2 = 0, . .. ,Au" = 0. P or consiguiente,

A(ku 1 + ku 2 + · · · + ku,J

= k 1 Au1 + k 2 Au2 + · · · + kn Au" = = k 10 + k 2 0 + · · · + k"O =

0

De acuerd o con ello, k1 u 1 + ··· + k"u" es una soluci6n del sistema homogeneo AX= 0. Teorema 3.5: La soluci6n genera.! de un sistema inhomogeneo AX = B puede obtenerse sumando el espacio soluci6n W del sistema homogeneo AX = 0 a una soluci6n particular v0 del sistema inhomogeneo. (Esto es, v0 + W es Ia soluci6n general de AX= B.)

Demostracion.

Sea w cualquier soluci6n de AX= 0. En tal caso, A(v0

Es decir, Ia suma v0

+ w) =

+ w es soluci6n

A(v0 )

+

A(w) = B

de AX = B.

+

0

=B

94

ALGEBRA LINEAL

Por otra parte, supongamos que v es cualquier solucion de AX = B (que puede ser distinta de v0 ). Entonces A(v - v0 ) = Av - Av0

=B-

B =0

Esto es, Ia diferencia v - v0 es soluci6n del sistema homogeneo AX

v = v0

= 0.

Pero

+ (v - v0 )

De este modo, cualquier solucion de AX = B puede obtenerse sumando una solucion de AX = 0 a Ia solucion particular v0 de AX = B. Teorema 3.6: Supongamos que el cuerpo K es infinite (por ejemplo, si K es el cuerpo real R o el complejo C). En tal caso, el sistema AX = B no tiene solucion, tiene una (mica soluci6n, o tiene infinitas. Demostraci6n. Basta probar que si AX = B tiene mas de una solucion, necesariamente tiene infinitas. Supongamos que u y v son soluciones distintas de AX = B; es decir, Au = B y Av =B. Entonces, para todo kEK,

A[u + k(u - v)]

= Au + k(Au -

Av) = B

+ k(B -

B)

=B

En otras palabras, para todo kEK, u + k(u- v) es soluci6n de AX= B. Dado que todas las soluciones tales son distintas (Problema 3.21), AX = B tiene un numero infinite de soluciones. como se pretendia.

3.7.

MATRICES POR BLOQUES

Utilizando un sistema de lineas (discontinuas) horizontales y verticales podemos partir una matriz A en otras mas pequenas llamadas bloques (o celdas) de A. La matriz A se denomina entonces una matriz por bloques. Obviamente, una matriz dada puede dividirse en bloques de diversas maneras; por ejemplo,

(~

-2 3

0 5

1

4

I

7 5

La conveniencia de Ia division en bloques reside en el hecho de que el resultado de las operaciones entre matrices por bloques puede obtenerse llevando a cabo el calculo con estos. como si rea lmente fueran los elementos de las matrices. Esto se ilustra a continuaci6n. Supongamos que A se ha partido en bloques; digamos

A

=

(~:: ~::.. ~::) .

A, 1

.•..

A.., 2

•••

A...,

.....

MATRICES

95

Multiplicar cada bloque par un escalar k equivale a hacerlo con cada elemento de A; asi

kA 12

kA 11

kA

=

.~~·2·1· ~~~~ ..

(

kA, 1

kA, 2

kA1oo)

~~~~

•• ••••• .•• •••

kA..,,.

Supongamos ahara que B es una matriz dividida en el mismo numero de bloques que A; digamos

B = (.:::

~::

B, 1 B,2

.. :·... :::) ...

B,..

Aun mas, supongamos que los bloques correspondientes de A y B tienen el mismo tamafio. Sumar dichos bloques equivale a hacerlo con los elementos correspondientes de A y B, de acuerdo con lo cual,

El caso del producto de matrices es menos obvio, pero aun cierto. Supongamos que dos matrices U y V se dividen en bloques como sigue

u=

(~:: ~:: ~::) ..

...••..

u,1 u,2

•••

y

u,p

de forma que el numero de columnas en cada bloque bloque Vkj· En tal caso,

uik

es igual a! numero de filas en cada

donde

W;1 = uitl-'1 1 + ui2 V21 + · · · + uip ~' La demostracion de Ia formula anterior es directa, aunque detallada y larga. Se deja como problema suplementario.

96

ALGEBRA LINEAL

/

PROBLEMAS RESUELTOS SUMA DE MATRICES Y PRODUCTO POR UN ESCALAR 3.1.

Calcular: a)

b)

2

A+ B para A=G

5

3A y -5A, donde· A=

!)

G -D· -I

y B =

G s -!)· -2

3

a) Sumamos los elementos correspondientes:

1+1 A+ B = ( 4 + 0 b)

Multiplicamos cada entrada por el escalar dado: 3

A

=

3 . 1 3 . (-2) (3·4 3·5

-5·1 -5A = ( - 5 •4

3.2.

2+(-l) 3+2) (2 1 51) 5+ 3 6 + ( - 5) = 4 8

Hallar 2A - 3B, don de A = (

3.3 ) 3 · ( -6)

-5·(-2) - 5 •5

~

=

( 3 12

- 6 15

9) - 18

- 5·3 ) ' ( -5 - 5 • ( - 6) - -20

3) yB - (-73. - 6

-2 5

10

-25

0

-15) 30

2)

8 .

Primero efectuamos los productos por los escalares y luego Ia suma de matrices:

2A-3B=G

~~ _ 1 ~)+(~~ -~ -~:)~(~~ -~ _ 3~)

(Adviertase que multiplicamos B por - 3 y despues suinamos, en Iugar de multiplicar B por 3 : restar. Esto suele evitar errores.)

3.3.

Hallar x, y, z y

. 3 (Xz y) = (-1 lw6) + (z +4w

w s1

X+

X

3

w

y). ·

Comenzamos escribiendo cada miembro como una sola matriz:

3y) ( X+ 4 (3X3z 3w z+ 1 =

w - ·

X+ y + 2w

+3

6)

lgualamos las entradas correspondientes entre si obteniendo el sistema de cuatro ecuaciones 3x = x + 4 3y =X+ y + 6 3z = z + w- 1 3w = 2w + 3

La solucion es: x

=

2. y = 4, z = I, w = 3.

0

2x = 2y = 2z = w=

4 6 +X

w- 1 3

MATRICES

3.4.

97

Demostrar el Teorema 3.1 v): Sean A y B dos matrices m x n y k un escalar. Entonces k(A

+ B) =

kA

+ kB.

Supongamos A = (a;i) y B = (bu)· En tal caso, a;i + bii es Ia entrada ij de A+ B, y por tanto k(a;j + b) es Ia de k(A + B). Por otra parte, ka,j y kbii son las entradas ij de kA y kB, respectivamente, y en consecuencia kau + kb;j es Ia de kA + kB. Pero k, a;i y b,i son escalares en un cuerpo, de donde para todos los i, j Asi k(A

+ B)

= kA

+ kB, ya que sus entradas correspondientes son iguales.

PRODUCTO DE MATRICES

3.5. Cakulac: a) (3, 8, -2, 4{-

~)·

(1, 8, 3, 4X6, I, -3, 5).

b)

a)

El producto no esta definido cuando las matrices fila y columna tienen numeros diferentes de elementos.

b)

El producto de dos matrices fila no esta definido.

3.6. Sean a)

A=(~

3)

-1

y B

=

(2

3

0

-2

-4) 6

. Hallar a) AB, b) BA.

Dado que A es 2 x 2 y B es 2 x 3, el producto AB esta definido y es una matriz 2 x 3. Para obtener las entradas en Ia primera fila de AB, rnultiplicamos Ia primera fila (1, 3) de A por las colurnnas

G), (-~)

y ( -:) de B, respectivamente:

0 -4)=(1·2+3·3 (2I - 3)(2 1 3 -2 6 =

1·0+3·(-2)

c

+ 9 0- 6 -4 + 18) =

1·( ---4)+3·6) =

c I

- 6

Para obtener las entradas en Ia segunda fila d e AB, rnultiplicamos Ia segunda fila (2, - 1) de A por las columnas de B, respectivarnente:

14 ) - 8- 6

· (II AB= 1

Asi b)

-6 2

14) -14

N6tese que B es 2 x 3 y A es 2 x 2. Como los nurneros interiores 3 y 2 no son iguales, el producto BA no esta definido.

3.7. Dadas A = (

~ ~) -

- 3

4 .

y B=

(~

-2 4

-5) 0.

, hallar a) AB, b) BA. '

98

ALGEBRA LINEAL

a)

Como A es 3 x 2 y B es 2 x 3, el producto A B esta definido y es una matriz 3 x 3. Pan obtener Ia primera fila de AB, multiplicamos .(a prime ra de A por cada columna de 8 : - 4- 4

Para obtener Ia segunda fila de A8, multiplicamos Ia segunda de A p or cada columna de 8:

P a ra o btener Ia tercera fila de AB, multiplicamos Ia tercera de A por cada columna de 8 :

( : -~)G -3

4

-~)

-2 4

Asi

b)

( -1 -8 -10) (-1 -tO) =

AB =

6=~6

-3; 12

15-:0

=

~

- 8 - 2 22

- S IS

(-1 -10) - 8 -2 22

~

-5

15

D ado que 8 es 2 x 3 y A es 3 x 2, el producto 8A esta definido yes una matriz 2 x 2. Para obtener su primera fila, multiplicamos Ia primera de B por cada columna de.A:

Para obte ne r su segunda fila, multiplicamos Ia segunda de B por cada columna d e A:

-21)

-3

Asi

8 A = ( 15

10

-21) - 3

Nota: Observese que en este problema tanto AB como BA estim definidos, pero no son iguales; de hecho, ni siquiera tienen la misma forma.

3.8.

Determinar AB, siendo 3

A=G - 2

8

=

(!

- I

0

3

- 5 -2

!)

MATRICES

99

Como A es 2 x 3 y B es 3 x 4, el producto esta definid o y es una matriz 2 x 4. Multiplicamos las filas de A por las columnas de B para llegar a: 4+3-4 AB- ( - 8 - 2 + 20

3.9.

- 2+9 - 1 0-15+2 - 4 - 6 + 5 0 + I0 - I0

12+3-2) ( 3 = 24 - 2 + 10 26

6 - 5

- 13 0

13)

32

Refinimonos at Problema 3.8. Suponiendo que solo Ia tercera columna del producto AB fuera de interes, {,como podria calcularse de fo rma independiente? Segun Ia regia del producto de matrices, Ia columna j-esima de un producto es igual al primer factor por el j·esimo vector col umna del segundo. Siendo asi, 2 (4

3 - 2

- 1)(5

~)

-2

+ 2 ) = ( - 13) 0+10 - 10 0

= ( 0 - 15

De forma similar, Ia fila i-esima de un producto es igual a l i-esimo vector fila del primer factor por el segundo factor.

3.10.

Sea A una matriz m x n, con m > I y n > I. Suponiendo que u y v sean vectores, discutir las condiciones bajo las cuales a) Au, b) vA esta definido. a)

El producto Au esta definido unicamente cuando u es un vector columna con n componentes, es d ~cir, una matriz n x I. En tal caso. Au es un vector columna con m componentes.

b)

El producto vA esta definido solo cuando v es un vector fila con m componentes, en cuyo caso vA es otro vector fila, con n componentes.

3.11. Calcular: a) ( _ a)

~}6

5) =

(2)(6) (2)( -4) (2)(5) ) (3)(6) (3)( -4) (3)(5) ( (-1)(6) (-1)(-4) (-1)(5)

=

( 12 18 -6

-8 -12 4

~~)

-5

El primer factor es I x 3 y el segund o 3 x I, de modo que el producto esta definido como una matriz 1 x 1, que escribimos frecuentemente como un escalar.

(6

3.12.

-.4

b) (6

El primer factor es 3 x I y el segundo I x 3, por lo que el producto esta definido como una matriz 3 x 3:

U}· -· b)

y

5)

- 4

-4

~-:)-

Demostrar el Teorema 3.2 i): (AB)C Sean A= (a;), B

= (bik) y sl.t

C

= (ck 1).

(12- 12- 5)- (-5)- _,

= A(BC).

Ademas, sean AB = S

= (s;k) y

.. L

= a 11 b1t + a12 blt + · · · + a 1.,.b..t =

a11 b./C

J= l w

t11 = b11 c 11 + b12 c.,

+ · ·· + b1.c.1 =

L b.~tct1 t=l

BC

=

T= (ti 1). Entonces

100

ALGEBRA LINEAL

Ahora, multiplicando S por C, esto es, AB por C, el elemento en Ia fila i-esima y en Ia columna 1-esima de Ia matriz (AB)C es

s11 c11 +s12 c11 +···+su.c.1 =

• •



Es c

11 11

L

=

L(a11 b11)c11

t=l J•l

· - ·

Por otra parte, multiplicando A por T, es decir, A por ·Be, el elemento en Ia lila i-esima y en Ia columna /-esima de Ia matriz A(BC) es

.

.

"'

L

autu+a,ltl,+···+a;.,.t..u = :Laijtj,= J• l

ra,jb;tCt,)

)= l · - ·

Siendo iguales las sumas anteriores, el teorema queda pro bado.

3.13.

Demostrar el Teorema 3.2 ii): A(B + C)=A B + AC. Sean A= (aiJ), B =(bid y C = (ci<). Ademas, sean D = B + C = (dJk), E = AB = (eil<) y F = AC = (};.). Entonces

e11

.. ..

= a 11 b 11 + a12 bu + ·· · + a 1.,b.,~; = L aubJl J= 1

fu.=aucu+a,2c2t+ ··· +a,,.,c...,= Eaucit j= 1

.

Por tanto, el elemento en Ia fila i-esima y en Ia columna k-esima de Ia matriz AB + AC es

..

.

e11 +fu.= Ea 11 b1.+ Ea11 c11 = EaJbJl+cJl) j= l

J~ t

)•l

Por otro !ado, el elemento en Ia fila i-esima yen Ia columna k-esima de Ia matriz AD = A(B + C) es

"' a11da + a11 d 21 + · · · + a 1.,dm~; = L a11 d1•

=

j= I

'"

L a1jb11 + c11) J= I

Asi A (B + C) = AB + AC debido a que los elementos correspondientes son iguales.

TRASPUESTA

3.14.

Dada A =

G -7

3

Reescribimos las filas de A como column·as para obtener AT y a continuaci6n reescribimos las filas de AT como columnas para obtener (AT)T:

[Ta l y como cabia csperar por el Teorema 3.3 ii), (ATl = A.]

MATRICES

3.15.

101

Probar que las matrices AAr y A r A estan definidas para cualquier ma triz A. Si A es una matriz m x n, AT sera una matriz n x m. Por consiguiente, AAT estani delinida como una matriz m x m y AT A lo estan'l como una matriz n x n.

3.16.

Encontrar AAT y Ar A, donde A =

G

0)4 .

2 -I

Obtenemos AT reescribiendo las filas de A como columnas:

AT~ G-!)

de donde

ATA~(~ -!)G 3.17.

2

AAT=

0 ) = 4

-1

c ~)(~ -}e 2~)

c9

3

2 - 1

0 12) ('0 -1 12)

2-3 + 2-3 4 + 1 0 - 4 = 0 + 12 0-4 0 + 16

-I 12

5 -4

-4 16

Demostrar el Teorema 3.3. iv): (ABl = Br A r . Si A = (a 1) y B = (bki), Ia entrada ij de AB es ail b 1i

+ a12 b2 i + .. · + a;mbmi

[I]

De este modo, [I] es Ia entrada ji (orden inverso) de (ABf. Por otra parte, Ia columna j de B se co nvierte en Ia fila j de BT y Ia lila Ia columna i de AT. Consecuentemente, Ia entrada ji de BT AT es

(b,;,

b",

, . ):::) =

\a;,.

b 1iai1

de A en

+ b 21 a,2 + ·· · + b,.ia,,.

Asi (AB)T = BTAT, puesto que las entradas correspondientes son iguales.

MATRICES POR BLOQUES 3.18.

Calcular AB empleando multiplicaci6n por bloques, donde

y

Aqui A = ( tanto,

E F) y B = 0Jx2 G

AB = ( ER

o,xJ

(

R o! X3

~). do nde £ , F, G, R, S y T son los bloques dados. Por

;;r) ~ (C:

ES

(0

12 15) 26 33 0

0)

(~)+(~)) -(1: (2)

0

12 15 26 33 0 0

~)

102

ALGEBRA LINEAL

3.19.

Evaluar CD mediante multiplicaci6n por bloques, sieudo

~ i --~- +-~- ---~ ---~)

c (

0

0 : 3

CD{: =

((3+4

9+ 8

4

y

1

-~)

2x3 4 2

0 3 -2 2 4 ---- -- 0 D= 0 0 1 2 0 0 0 0 -4

~D) ~

01 • 2

G

02 . 2

~2+8)

~(:

4

6 17 10 0 ) ( '0 0 e+2-8 10-3 + 2) = 3+8-4 6- 12 + 1 0 0 2• 2

-6 + 16 Ol x2

0 0 2 - 1

0 0 -1 7

j)

PROBLEMAS VARIOS

3.20.

Oemostrar las siguientes afirmaciones: a) Si A tiene una fila nula, entoaces AB Ia tiene tam bien. b) Si B tiene una columna oula, tam bien Ia tiene AB. a)

Sean R 1 Ia fila nula de A y B 1 , (R; • 8

1

••• ,

,

R; · 8

b) Sean Ci Ia columna nula deB y A 1 , AB es

3.21.

B" las columnas de B. Entonces Ia fila i-esima de AB es 2

...

, ••• ,

R; • B") = (0, 0, ... , 0)

,A, las filas de A. En tal caso, Ia columna j-esima de

Sean u y v dos vectores distiotos. Pro bar que, para cada escalar k E K, los vectores u + k(u - v) son distintos. Es suficiente probar que si u

+ k 1 (u-

v) = u

+ k 2 (u- v)

[1)

entonces k 1 = k 2 • Supongamos que se verifica [1]. En tal caso, 0

Como u y v son distintos, u - v =I= 0. P or consiguiente; k 1

-

k2

=

0 y k 1 = k2 •

M A TRI CES

103

PROBLEMAS SUPLEMENTARIOS

OPERACIONES MATRIClALES Los Pro blemas 3.22-3.25 estan referidos a las siguientes matrices:

B

=( -6 ~) 5

+ 3B .

3.22.

Ha llar SA- 2B y 2A

.!..23.

Hallar: a ) AB y (AB)C, b) BC y A ( BC). [N 6tese que ( A B )C = A (BC).]

'l ' "·

Hallar AA = A. 2 y AC.

~-

Supongase que e 1

=

(1, 0, 0), e 2

=

(0, 0, 1), e 3

el A y eJ A .

=

(0, 0, I) y A = (:: :: : : c 1 c 2 c3

::). Hallar e 1 A , c4

J.r. Sea e; = (0, ... , 0, I, 0, .. . , 0), donde 1 es Ia componente i-esima. Demostrar las sigu ientes afirmaciones: a)

e; A = A;. Ia i-esima fila de una matriz A.

b)

BeJ = Bi, Ia j -esima columna de B.

c)

Si e;A = e;B para todo i, entonces A= B.

d)

Si A eJ = BeJ para tod o j , entonces A = B.

3..28. Sea A

= (~

~). Encontrar una matriz 2 x 3 B con entradas distintas tal que A B = 0.

:..3. Demostrar el Teorema 3.2: iii) (B + C) A = B A + CA; iv) k(A B ) = (kA )B = A (kB), donde k es un escalar. [Las partes i) y ii) se pro baron en los Problemas 3.12 y 3. 13, respectivamente.] 3.30.

Demostrar el Teorema 3.3: i) (A+ B)T = AT + BT; ii) (A Tf = A ; iii) (kAf = kAT, siendo k un esca lar. [La parte iv) se demostr6 en el Problema 3. 17.]

3.31.

Sup6ngase que A = (A,.) y B = ( B.) son matrices por bloques para las q ue AB esta definida y que el numero de columnas de cad a bloque A;• es igual al numero de filas de C?da bloque B ki· Demostrar q ue A B = ( C;). donde

cij =

L A ik Bkj k

104

ALG EBRA LINEAL

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS

3.22.

(-5 27

3.23.

a)

10) ( 17 4) -36 ' -12 13

(-7 39

14) ( 21 -28 , - 17

c

3.24.

G

3.25.

( 7 \- 9

3.28.

(-12 - 42 - 6)3

3) -4 , 0

- 6) ( :?2 ,

105 - 285

-6) ( 5 7 ' to

15) -40

9 -33

-6) 32

5 -5

c

-98) 296 ; b) 8

- 15 60

20) ( 21 -59 ' -17

105 -285

-98) 296

CAPITULO

4

Matrices cuadradas. Matrices elementales

4.1.

INTROD.UCCION

Las matrices con el mismo numero de filas que de columnas se denominan matrices cuadradas. Son de importancia capital dentro del algebra lineal y se emplearan a lo largo de todo el texto. Este capitulo introduce dichas matrices junto a un cierto numero de sus propiedades basicas. Ademas, el capitulo nos presenta las matrices e\ementales, que estim estrechamente Jigadas a las operaciones elementales entre filas del Capitulo 1. Las utilizaremos para justificar dos algoritmos: uno que determina Ia inversa de una matriz, y otro que diagonaliza una forma cuadnitica. A menos que se establezca o sobrentienda Jo contrario, los escalares senin numeros reales en este capitulo. No obstante, discutiremos el caso especial de las matrices complejas y algunas · de sus propiedades.

4.2.

MATRICES CUADRADAS

Una matriz cuadrada es Ia que tiene el mismo numero de filas que de columnas. Se dice que una matriz cuadrada n x n es de arden n y se le asigna el nombre de matriz n-cuadrada. Recuerdese que no todo par de matrices puede sumarse o multiplicarse. Sin embargo, cuando nos Iimitamos a considerar las de un orden dado, n, este inconveniente desaparece. Especificando, las operaciones de suma, producto, producto por un escalar y trasposici6n pueden efectuarse · sobre todas las matrices n x n y el resultado es nuevamente una matriz n x n.

EJEMPlO 4.1.

Sean A =

(-~ -! -!) (~ -~ -~)· y B=

5

cuadradas de orden 3. Ademas,

6

7

I

2

Entonces A y B son matrices

-4

'

105

106

ALGEBRA LINEAL

2A

=

(

2 4 6)

- 8 10

-8 12

-4 - 4 - 4

- 8 14

~)

y

12) (-12 ~ -~~)

2+0+3

- 5+6+6

AB= -8+0 - 4

20 - 12-8

-4 + 8 + 16

-25+18+14

5-12 - 28

(

10 + 0

+7

1-4-

5

=

17

7

-35

son matrices de arden 3.

Nota: Una coleccion no vacia A de matrices se denomina un algebra (de matrices) si es cerrada bajo las operaciones de suma, producto por un escalar y producto. Asi Ia colecci6n Mn de todas las matrices n-cuadradas constituye un algebra de matrices.

MATRICES CUADRADAS COMO FUNCIONES Sea A cualquier matriz n-cuadrada. A puede .verse como una funci6 n A : Rn __. Rn de dos formas diferentes: ·

1.

A(u) = Au, donde u es un vector columna.

2.

A(u )

= uA, do.nde

u es un vector lila.

,.

En este texto se adopta el primer signilicado de A(u), esto es, Ia funci6n definida por Ia matriz A sera A(u) = Au. De acuerdo con esto, a menos que se establezca o sobrentienaa lo contrario, se supondra que los vectores u en Rn son vectores columna (no vecto res fila). Por conveniencia tipografica, tales vectores columna u se presentaran a menudo como .vectores fila tr~spuestos.

EJEMPLO 4.2.

&.A~(;

-2 5 0

('

A(u) =Au = ;

')

-6 . Si u = (1,. - 3, 7V, entonces - 1

-2 5 0

'X ') c·+2l) ( ")

-6 - 1

-3 7

= 4-15 - 42 = - 53 2+0-7

-5

Si w = (2, -I , 4)T, entonces

A(w)

Advertencia:

~ ~ Aw

(:

- 2 5 0

16)

- ')( 6 -1') = (' 8 -5-24 + 2+ ") = ( - 21 - 1 4 . 4+ 0-4 0

En algunos textos se define Ia funci6n A anterior como A(u)

= uA

donde se supone que los vectores u en Rn son vectores lila. Evidentemente, si uno solo trabaja con vectores en Rn y no con ma trices, carece de importancia Ia forma en que se delinan estos.

MATRICES CUADRADAS. MATRICES ELEMENTALES

107

MATRICES QUE CONMUT AN Se dice que las matrices A y B conmutan si AB = BA , condicion solo verificable por matrices cuadradas del mismo arden. Por ejemplo, supongamos

A=G

!)

y

B =

Gl~)

Entonces

5 + 12 . AB = ( 15 + 24 Como AB

4.3.

= BA, las

4 + 22)=(17 26)

12 + 44

39

y

56

BA

matrices conmutan.

5 + 12 l 0 + 16) = ( 17 26) = ( 6 + 33 12 + 44 \ 39 56 \

DIAGONAL. Y TRAZA. MATRIZ IDENTIDAD

Sea A = (cz;j) una matriz n-cuadrada. La diagonal (o diagonal principal) de A consiste en los elementos a 11 , a 22 , ... , a••. La traz a de A, escrito tr A, es Ia suma de los elementos diagonales, es decir, n

tr A = a 11

+ a 22 + · · · + ann

= La;; i= l

La matriz n-cuadrada con unos en Ia diagonal y ceros en cualquier otra posicion, denotada por I. o simplemente por I, -se conoce como matriz identidad (o unidad). La matriz I se asemeja al escalar l en que, para cualquier matriz A (del mismo orden),

AI= IA =A Con mayor generalidad, si B es una matriz m x n, BI. == B e ImB = B (Problema 4.9). Para un escalar arbitrario keK, Ia matriz kl, que contiene k en las posiciones diagonales y 0 en cualquier otro Iugar, se denomina Ia matriz escalar correspondiente al escalar k. EJEMPLO 4.3 a)

La delta de Kronecker

(jij

se define como () .. = '

1

{0 I

si i #- j si i = j

Siendo asi, Ia matriz identidad puede definirse como I b)

=

(b;)·

Las matrices escalares de 6rdenes 2, 3 y 4 correspondientes al escalar k

=

5 son, .respectivamente,

(Es pnictica comun el omitir bloques o disposiciones de ceros como se ha hecho en Ia tercera matriz.)

El siguiente teorema se demostrani en el Problema 4.1 0.

108

ALGEBRA LINEAL

Teorema 4.1: Supongamos que A = (aii) y B = (bii) son matrices n-cuadradas y que k es un escalar. En tal caso, i)

4.4.

+ B) = tr

tr (A

+ tr

A

B,

ii) tr kA

=k

• tr A,

iii) tr AB = tr BA.

POTENCIAS DE MATRICES. POLINOMIOS DE MATRICES

Sea A una matriz n-cuadrada sobre un cuerpo K. Las potencias de A se definen como sigue: y

Tambien se definen polinomios en Ia matriz A. Concretamente, para cualquier polinomio, f(x)

= a 0 + a 1 x + a 2 x 2 + ··· + a,.x"

donde los a; son escalares, f(A) se define como Ia matriz f(A)

= a 0 / + a 1 A + a2 A 2 + ··· +a,. A"

[Notese que f(A) se obtiene de f(x) sustituyendo Ia variable x por Ia matriz A y el escalar a 0 por Ia matriz escalar a 0 /.] En caso de que j(A) sea la matriz cero, A recibe el nombre de cero o raiz del polinomio f(x). · EJEMPLO 4.4.

A2 =

Sea A=

G-~X~

Si f(x) = 2x2

-

3x

G -~}

Entonces

-~) -~ ~~) = (

+ 5,

y

entonces

f=~-~ ~~) - JG -~)+sG ~)=(_~~ -~~) Si g(x) = x 2

+ 3x -

10, entonces

Asi A es un cero del polinomio g(x).

La aplicacion anterior del anillo K [x] de los polinomios sobre K en el algebra M. de las matrices n-cuad radas definida por f(x) -+ f(A)

se llama aplicacion de evaluacion en A. Es aplicable el teorema enunciado a continuaci6n (y probado en el Problema 4.11).

MATRICES CUADRADAS. MATRICES ELEMENTALES

Teorema 4.2: cum pie:

109

Sean j(x) y g(x) dos polinomios y A una matriz n-cuadrada (todos sobre K). Se

i) (f + g)(A) = f(A)

+ g(A).

ii) (fg)(A) = f(A)g(A). iii) f(A)g(A)

= g(A)f(A).

Dicho de otro modo, i) y ii) establecen que si primero surnames (multiplicamos) los polinomios f(x) y g(x) y luego evaluamos Ia suma (producto) en A, el resultado coincide con el que obtendriamos si primero evalmiramos f(x) y g(x) en A y despues sumaramos (multiplicaramos) las matrices f(A) y g(A). La parte iii) establece que dos polinomios cualesquiera en A conmutan.

4.5.

MATRICES INVERTIBLES (NO SINGULARES)

Se dice que una matriz cuadrada A es invertible (o no singular) si existe una matriz B con Ia propiedad de que

AB = BA =I siendo I Ia matrlz identidad. Tal matriz B es (mica, puesto que implica Denominamos a Ia matriz B Ia inversa de A y Ia de no tamos por A - l . Observemos que Ia relaci6n anterior es siinetrica, o sea, si B es Ia inversa de A, necesariamente A es Ia inversa de B. EJEMPLO 4.5 a)

Supongamos A

=

GD

y B = ( _

AB=(2 5x 3

1 3

BA =

-1

~

-

~). Entonces

-5)=(6-5 -10+10)=(1 o)=l 2 3-3 -5 + 6 0 1

5) ( 6-5 ( 3 -5)(2 2 1 3 = -2 + 2 -1

15 - 15) = (1 0) -5

+6

0

= I

1

De este modo, A y B son invertibles, siendo cada una Ia inversa de Ia otra. b)

Supongamos A= (

~ ~ 32) -

4

AB =

1

(

( - II -4 6

y B=

8

-11+0+12 2+0-2 - 22 + 4 + 18 4 + 0 - 3 -44 - 4

+ 48

8

2 0 -1

2)

1 . Entonces

- 1

!~~=~)=(~ ~ ~~)=!

+ 0 ·- 8 8+1-8

0 0

11 0

ALGEBRA LINEAL

Por el Problema 4.21, AB =I si y solo si BA =I; por consiguiente, no necesitamos comprobar si BA = I. Siendo asi, A y B son cada una inversa de Ia otra.

Consideremos ahora una matriz 2 x 2 general

Podemos determinar cuando es A invertible y, en caso de serlo, dar una formula para su inversa. Para empezar buscamos escalares x, y, z, t tales que 0

ax+ bz ay + bt) ( ex+ dz cy+dt

=

(10 01)

lo cual se reduce a resolver los dos sistemas:

ax+ bz = 1 { ex+ dz = 0

ay + bt = 0 { cy + dt = 1

donde Ia matriz original A es Ia matriz de los coeficientes de cada sistema. Tomemos !AI = ad- be (el determinante de A). Segun los Problemas 1.60 y 1.61, los dos sistemas son .resolubles y por ende A es invertible si y solo si !AI #= 0. En ese caso, el primer sistema tiene Ia solucion (mica x = d/I AI, z = - e/IAI y el segundo Ia solucion unica y = - b/IAI, t = afiAI. De acuerdo con esto,

A_ 1 = (

1)

1 ( d/IA I -b/1A a/1 A I = fAi - c/IAI

d

-c

Expresado en palabras: Cuando !AI #= 0, Ia inversa de una matriz 2 x 2 A se obtiene: i) intercambiando los elementos de Ia diagonal principal, ii) tomando los opuestos de los otros elementos, iii) multiplicando Ia matriz resultante por 1/IAI. Nota 1: La propiedad de que A es invertible si y solo si su determinante !AI #= 0 es cierta para matrices cuadradas de cualquier orden. (Vease Capitulo 7.) Nota 2: Supongase que A y B son invertibles. En tal caso, AB es invertible y (AB) - 1 = s- 1 A - 1 . Con mayor generalidad, si A 1 , A 2 , .. . , Ak son invertibles, entonces su producto tambien lo es y

que es el p.roducto de las inversas en orden inverso.

4.6.

'

TIPOS ESPECIALES DE MATRICES CUADRADAS

Esta seccion describe un cierto numero de clases especiales de matrices que desempefian un papel importante en el algebra lineal.

MATRICES CUADRADAS. MATRICES ELEMENTALES

111

MATRICES DIAGONALES Una matriz cuadrada D = (d;) es diagonal si todas sus entradas no diagonales son nulas. Tal matriz se denota frecuentemente por D = diag (d 11 , d 22 , •.. , d""), donde algunos o todos los d,, pueden ser nulos. Por ejemplo,

(~

0 -7 0

~)

son matrices diagonales que pueden representarse, respectivamente, por diag(3, -7, 2)

diag(4, -5)

y

diag(6, 0, -9, I)

(Observese que se han omitido disposiciones de ceros en Ia tercera matriz.) Claramente, Ia suma, producto por un escalar y producto de matrices diagonales son nuevamente diagonales. De esto modo, todas las matrices diagonales n x n forman un algebra de matrices. De hecho, las matrices diagonales forman un algebra conmutativa, porque dos matrices diagonales n x n cualesquiera conmutan.

:\lATRICES TRIANGULARES l;na matriz cuadrada A = (a,) es una matriz triangular superior o simplemente una matriz :riangular si todas las entradas bajo Ia diagonal principal son iguales a cero, esto es, si sii = 0 ~ra i > j. Las matrices triangulares superiores genericas de 6rdenes 2, 3 y 4 son, respectivamente, ell

C12

C13

C14)

Czz

C23

Cz4

C33

(

C34 C44

G.:uno con las matrices diagonales, es pnictica comun el omitir disposiciones de ceros.) Las matrices triangulares superiores tambieh forman un algebra de matrices. De hecho, -.:-:..;Rma 4.3:

:::=:.1:1ces

Supongamos que A = (aii) y B

=

(b,) son matrices triangulares supenores.

i) A + B es triangular superior, con diag (a 11 + b 11 , a 22 + b 22 , ... , a"" + b""). ii) kA es triangular superior, con diag (ka 11 , ka 2 2 , ... , ka""). AB es triangular superior, con diag (a 11 b 11 , a 12 b 22 , ... , annbnn). Para cualquier polinomio j(x), Ia matriz f(A) es triangular superior, con

A es invertible si y solo si cada elernento diagonal

a;; ::/:-

0.

112

ALGEBRA LINEAL

Analogamente, una matriz triangular inferior es una matriz cuadrada cuyas entradas sobre Ia diagonal principal son todas nulas, y un teorema analogo al 4.3 rige para tales matrices.

MATRICES SIMETRICAS Una matriz real es simetrica si AT= A. Equivalentemente, A= (a;i) es simetrica si los elementos simetricos (imagenes especulares respecto a Ia diagonal) son iguales, es decir, si cada aii = ait· (N6tese que A debe ser cuadrada para que pueda ser AT= A.) Una matriz real A es antisimetrica si AT= -A. Equivalentemente, una matriz A =(a;) es antisimetrica si cada aii = -a11 • Claramente, los elementos diagonales de una matriz antisimetrica deben ser nulos, ya que a;; = - a ;; implica ail = 0. EJ EM PLO 4.6.

Consideremos las siguientes matrices:

A=(-~ -! ~) 5

7

B=

-8

(-~ ~ -~) 4

-5

0

a) Por simple inspecci6n, vemos que los elementos simetricos de asi, A es simetrica. b)

0 0

~)

Ason iguales, o que AT= A. Siendo

Por inspecci6n, vemos que los elementos diagonales deB son 0 y que los elementos simetricos son · opuestos entre si. De este modo, B es antisimetrica.

c) Como C no es cuadrada, no es simetrica ni antisimetrica. Si A y B son matrices simetrica s, A necesariamente simetrica. Por ejemplo,

A

=GD

y B = (;

+B

y kA tambien to son. Sin embargo, AB no es

D

son simetricas, pero AB =

G:

~~) noes simetrica

Asi las matrices simetricas no forman un algebra de matrices. El siguiente teorema se demostrani en el Problema 4.29. Teorema 4.4: Si A es una matriz cuadrada, entonces i) A+ AT es simetrica; ii) A - AT es antisimetrica; iii) A = B + C para alguna matriz simetrica B y alguna antisimetrica C.

MATRICES ORTOGONALES Se dice que una matriz real A es ortogonal si AAT = AT A =I. Observemos que una matriz ortogonal A es necesariamente cuadrada e invertible, con inversa A - l = AT.

r MATRICES CUADRADAS. MATRICES ELEMENTALES

A~ (i -:8 -!4) . ~

EJEMPLO 4.7.

AAT~(i

S
-!~

8

~

4

-1J

4

= _!_ ("0 810

-9 7

-1J

-~

~)~(:

0 81

! ~

4

4

1J

J) _!_ (l+M+16 +

4

~

!J

- 9

1

0

-~

Entonces

~

81

113

4- 32 + 28 16 + 16 + 49 32- 4-28

4 - 32 28 81 8 + 8- 16

8+8-16) =

32-4-28 64 + 1 + 16

~)~I

0

1 0

0

=

Esto significa que AT = A - l y por tanto AT A = I. Asi A es ortogonaL Consideremos ahora una matriz 3 x 3 arbitraria

Si A es ortogonal, AAT =

(.,

az

bl

b2

Ct

c2

Esto proporciona

(••

az bz

.,)

Ct

Cz

cJ

·x· b3 c3

az a3

bl

b2 bJ

b3

c,) ( ~) ~J 0 0 1 0 0

c2 = c3

+ a2 b 2 + a 3 b 3 = 0 bi + bi + b~ = 1 c~b 1 + c 2 b 2 + c 3 b 3 = 0

ai +a~+ a~= 1 b 1a 1 + b 2 a 2 + b 3 a3 = 0

c1 a 1

A= b 1

a 1c1 b1c 1

a 1 b1

+ c 2 a2 + c3 a 3 = 0

+ a2 c 2 + a 3 c3 = 0 + b 2 c 2 + b3 c 3 = 0 d+d+d=1

o. en otras palabras,

u•• u. u2 u3

=1

U1 •



u1 = 0

u2





u1 = 0

u3



u2 = 0 u2 = 1 u2 = 0

u1



u2



u3



u3

=0

u3 = 0 u3 = 1

Uz, aJ), Uz = (b.' bz, b3), u3 = (c.' Cz, c3) son las filas de A. Asi las lilas u.' Uz y u3 son ortogonales entre si y tienen longitudes unidad, o, dicho de otro modo, forman un conjunto ortonormal de vectores. La condici6n AT A = I muestra, similarmente, que las colum::!aS de A constituyen un conjunto ortonormal de vectores. Aim mas, dado que cada paso es

donde u. = (a.,

re\·ersible, el reciproco es cierto. El resultado relative a matrices 3 x 3 anterior es valido en general. Esto es, 'J;eorema 4.5: Sea A una matriz real. Son equivalentes las afirmaciones: a) A es ortogonal; ~l las filas de A forman un conjunto ortonormal; c) las columnas de A forman un conjunto :-tonormal. Para n = 2 tenemos el resultado siguiente, probado en el Problema _4.33.

114

ALGEBRA LINEAL

cos 0 sen Toda matriz octagonal 2 x 2 tiene Ia forma ( - sen e cos pa ra algun numero real 0.

Teorema 4.6:

0) e

0

(cos sen 0

0

sen - cos

0) e

Nota: La condici6n de que los vectores u 1 , u 2 , ... , um formen un conjunto o rtonormal puede describirse sencillamente como u; · ui = bij• d o nde bii es Ia del ta de Kronecker [Ejemplo 4.3 a)).

MATRICES NORMALES

Una matriz real A es normal si conmuta con su traspuesta, esto es, si AAT =AT A. Obviamente, si A es simetrica, ortogonal o antisimetrica, es necesariamente normal. No obstante, estas no son las unicas matrices normales. EJEMPLO 4 .8 . Sea A=

(6 -3) 3

6

. Ento nces

(6 -3)( 6 63) = (450 450) 6 - 3

T

Como AA r

=

ATA = (

y

AA = 3

6

-3

3x6 -3) (45 4~) =

6

3

6

0

A r A, Ia matriz A es normal.

El teo rema que sigue, demostrado en el Problema 4.35, caracteriza completamente las matrices reales no rmales 2 x 2. Teorema 4.7: Sea A una matriz real normal 2 x 2. En tal caso, A es bien simetrica o bien Ia suma ·de una matriz escalar y otra antisimetrica.

4.7.

MATRICES COMPLEJAS

Sea A una matriz compleja, es decir, una matriz cuyas entradas son numeros complejos. Recordemos (Secci6n 2.9) que si z = a + bi es un nume ro complejo, z = a - bi es su conjugado. La conjugada de Ia matriz compleja A , escrito A, es Ia que se obtiene de A tomando el conjugado de cada una de sus entradas, esto es, si A = (a;j), entonces.A = (b;), donde bii = aii. [Denotamos este hecho escribiendo A = (a;J) Las ope racion~de trasposici6n y conjugaci6n conmutan para cualquier ma triz compleja A , es decir, (Al = (AT). De hecho, para Ia traspuesta conjugada de A , se utiliza Ia no taci6n especial A H. (N6tese que si A es real, AH =AT.) EJ EM PLO 4.9. Sea A = (

. 2 + 8i 5 - 3i 4 - 7i) . En-tonces 6i I - 4i 3 + 2i · · 6i )

1- 4i 3 + 2i

=

(2-8i -6i) + + 5 3i 1 4i 4 + ?i 3 - 2i

MATRICES CUADRADAS. MATRICES ELEMENTALES

115

MATRICES COMPLEJAS HERMITICAS, UNITARIAS Y NORMALES

Se dice que una matriz cuadrada compleja A es hermitica o antihermitica segun sea 0

Si A = (aij) es hermitica, aii = aii y por tanto cada elemento diagonal aa debe ser real. De forma similar, si A es antihermitica, cada elemento diagonal au = 0. Se dice que una matriz cuadrada compleja A es unitaria si AH =A -1

Una matriz compleja A es unitaria si y solo si sus filas (columnas) forman un conjunto ortonormal de vectores respecto al producto interno de vectores complejos. (Vease el Problema 4.39.) Notese que cuando A es real, hermitica es lo mismo que simetrica y unitaria es lo mismo que ortogonal. Se dice que una matriz cuadrada compleja A es normal si

Esta definicion se reduce a la dada para matrices reales cuando A es real. EJEMPLO 4.10:

A~!( : 2

a)

1+ i

Consideremos las siguientes matrices:

-l+i)

-i 1

B~(l~2i

1- 2i -4 4- 7i 2i

1+ i

-1+i

0

A es unitaria si A H = A- 1 o si AAH probar que AAn =I: -j

-1

· ( 1+1+2 i + i - 2i 4 1+i-i - 1+0

=-

C=e ~3i

-2i 2

1

~ 2)

AHA = I. Tal y como se indic6 previamente, solo es necesario

=

-1+i

4+")

+

j)(

1+ j 0

l

1-

-j

1 -1-i 1-i j

-i-i+2i 1+ 1+ 2 -i+1 - 1+i+0

-10

1~

i

i) j

+i -

=

1~ 0) (1

0

0

0

z+l-1-l 2+2+0

=

0

De acuerdo con esto, A es unitaria. b)

B es hermitica, puesto que sus elementos diagonales 3, -4 y 2 son reales, y los elementos simetricos

1 - 2i y 1 + 2i, 4 c)

Para probar que

+ 7i y 4 - 7i, y - 2i y 2i son conjugados. c es normal, evaluamos ccn y C 8 C:

(2 + 3i 1")(2-3i i 1 + 2i 1 (2 -1 3i 1-2i - i )(2 +i 3i CC-

-i )

-r

CC8 =CC = 8

_

CC -

Como

-r

ccn = en C, Ia

_

1- 2i =

(

14

4

+ 4i

4 -6

4i)

1 ) ( 14 4 -6 4i) 1 + 2i = 4 + 4i

matriz compleja C es normal.

116

ALGEBRA LINEAL

4.8.

MATRICES CUADRADAS POR BLOQUES

Una matriz por bloques A se llama matriz cuadrada por bloques si: i) A es cuadrada, ii) los bloques forman una matriz cuadrada, iii) los bloques diagonales son tambien matrices cuadradas. Las dos ultimas condiciones se daran si y solo si hay el mismo numero de lineas horizontales y verticales y estan situadas simetricamente. Consideremos las dos matrices por bloques: .1/

2

: 3

1

I

I

I

2 : 3

1

I

l

I

- - - - - - - L - - - - - - - -'- - ..

A= 9

s:1

6:5

-4- --4- :- -4-- -4- -:--43

5

1 I I

4 : 5

I

1

1

1

1

I

1

1

1

1

- - - ·-.- - - l - - - - - - - _I_ - -

B= 9 4

s:1 6:5 4 ; 4 3- --_5.. ; - 3- -- -5- -; -3-

3

1

I

A noes una matriz cuadrada por bloques debido a que los bloques diagonales segundo y tercero no son matrices cuadradas. Por el contrario, B es una matriz cuadrada por bloques. Una matriz diagonal por bloques M es una matriz cuadrada por bloques en Ia que todos los no diagonales son matrices cero. La importancia de estas matrices radica en el hecho de que el algebra de las matrices por bloques se reduce frecuentemente a Ia de los bloques individuates. Especificamente, supongamos queM es una matriz diagonal por bloques y que f(x) es cualquier polinomio. En tal caso, M y f(M) tienen Ia siguiente forma: :f(A

M=(A"

A,

...

)

f(M) =

11

)

)

j(A22) . . .

.

(

f(A ..)

A,.

(Como de costumbre, empleamos espacios en blanco para disposiciones o bloques de ceros.) Analogamente, una matriz cuadrada por bloques recibe el nombre de matriz triangular superior par bloques si los bloques bajo Ia diagonal son matrices cero, y el de matriz triangular inferior por bloques si lo son los bloques sobre Ia diagonal.

4.9.

MATRICES ELEMENTALES. APLICACIONES

Comencemos recordando (Seccion 1.8) las llamadas operaciones elementales entre filas en una matriz A: · [Ed

(Intercambio de filas)

Intercambiadas filas i-esima y j -esima:

[£ 2 ]

(Cambio de escala de filas)

Multiplicar Ia fila i-esima por un escalar no nulo k: k:; rel="nofollow">60

[£3 ]

(Adici6n de filas)

Sustituir Ia fila i-esima por ella misma mas k veces Ia j-esima:

MATRICES CUADRADAS. MATRICES ELEMENTALES

117

Cada una de las operaciones anteriores tiene una inversa del mismo tipo. De forma ·especifica (Problema 4.19): 1.

Ri ~ R; es su propia inversa.

2.

kR;-... R; y k- 1 R; ~ R; son inversas.

3.

kRi

+ R; ~ R; y

- kRi

+ R;-... R;

son inversas.

Recordemos tambien (Seccion 1.8) que se dice que una matriz B es equivalente por ji.las a otra A, escrito A ....... B, si B puede obtenerse de A mediante una sucesi6n finita de operaciones elementales entre filas. Dado que estas son invertibles, Ia equivalencia por filas es una relaci6n de equivalencia; es decir: a) A ....... A; b) si A ....... B, entonces B ....... A; c) si A ....... B y B ....... C, necesariamente A ....... C. Asimismo, establecemos de nuevo el siguiente resultado basico, relativo a Ia equivalencia por filas: Teorema 4.8: filas.

Toda matriz A es equivalente por filas a una {mica matriz en forma can6nica por

MATRICES ELEMENTALES Denotemos por e u na operaci6n elemental entre filas y por e(A) el resultado de efectuarla sobre una matr1z A. La matriz E obtenida efectuando e sobre Ia matriz identidad,

E = e(I) se llama Ia matriz elemental correspondiente a Ia operaci6n elemental entre filas e. EJEMPLO 4.11. Las matrices 3-cuadradas elementales correspondientes a las operaciones elementales entre filas R 2 ....., R 3 , - 6R 2 -> R 2 y -4R 1 + R 3 -+ R 3 son, respectivamente, 0 0

~)

0 l

0

El siguiente teorema, probado en el Problema 4.18, muestra Ia relaci6n fundamental entre las operaciones elementales entre filas y sus matrices elementales correspondientes. Teorema 4.9: Sean e una operaci6n elemental entre filas y E Ia matriz m-cuadrada elemental correspondiente, .es decir, E = e(lm). En tal caso, para cualquier matriz m x nA, e(A) =EA. Esto es, el resultado de efectuar una operaci6n elemental entre filas e sobre una matriz A puede obtenerse multiplicando por ·ra izquierda A por Ia matriz elemental correspondiente E. Ahora supongamos que e' es Ia inversa de una operaci6n elemental entre filas e. Sean E y E' las matrices correspondientes. Probaremos en el Problema 4.19 que E es invertible y que E' es su inversa. Esto quiere decir, en particular, que cualquier producto

de matrices elementales es no singular.

118

ALGEBRA LINEAL

Haciendo uso del Teorema 4.9 podemos, asimismo, demostrar (Problema 4.20) el resultado fundamental, referente a matrices invertibles, que sigue: Teorema 4.10:

Sea A una matriz cuadrada. Entonces son equivalentes las aserciones:

i)

A es invertible (no singular).

ii)

A es equivalente por filas a Ia matriz identidad I.

iii)

A es producto de matrices elementales.

Tambien utilizaremos el Teorema 4.9 para probar los que se enuncian a continuaci6n:

= A- 1 .

Teorema 4.11:

Si AB =I, necesariamente BA = I y por consiguiente B

Teorema 4.12: que B = PA.

B es equivalente por filas a A si y solo si existe una matriz no singular P tal

APLICACION AL CALCULO DE INVERSAS Supongamos que una matriz A es invertible y, digamos, es reducible por filas a la matriz identidad I mediante la sucesi6n de operaciones elementales e 1 , e 2 , ... , eq. Sea E; la matriz elemental correspondiente a la operaci6n ei. Segun el Teorema 4.9,

y

por Jo que

En otras palabras, A - I puede obtenerse efectuando las operaciones elementales entre filas e 1, e 1 , .... , eq sobre Ia matriz identidad I. La discusi6n anterior nos conduce al siguiente algoritmo (eliminaci6n gaussiana) que bien halla Ia inversa de una matriz n-cuadrada A, o bien determina que A no es invertible.

Algoritmo 4.9:

Inversa de una matriz A

Paso ]. Construir la matriz [por bloques) n x 2n M = (A i I); esto es, A esta en la mitad izquierda de M y Ia matriz identidad I en la derecha. Paso 2. Reducir por filas M a forma escalonada. Si el proceso genera una fila nula en Ia mitad A de M, terminar (A no es invertible). En caso contrario, Ia mitad A adoptani forma triangular. Paso 3. Mas aun, reducir M ala forma can6nica por filas (I i B), donde I ha reemplazado a A en Ia mitad izquierda de Ia matriz. Paso 4.

Tomar A - t =B.

119

MATRICES CUADRADAS. MATRICES ELEMENTALES

EJEMPLO 4 .12.

S"pong•mo• q"' q"'remoo enoont'" I• '"""" de A

~

~)

0 -1 1

(:

Pdmew

construimos Ia matriz por bloques M = (A! I) y Ia rcducimos a forma cscalonada:

M = ('2 -10 4

1

2 3 8

I

1 0 0

0 1 0

~)-(:

0 -1 1

2

I

I

:)- (:

0 1 0

1

-1 : -2 0 : -4

0

2

I

-1

-1

I

0

-1

0

-2

-6

1

:)

En forma escalonada, Ia mitad izquierda de M esta en forma triangular; por consiguiente, A cs invertible. A continuaci6n reducimos M a su forma can6nica por filas:

1 M- 0 (0

0 - 1

0

0: -11 2 2) (1 0 : I :

4 6

0 -1

-1 -1

0 I

0 0

0

0 -ll 2 2) I

0 1

1

- 4 6

0 -1

1 -1

La matriz identidad ocupa Ia mitad izquierda de Ia matriz final; de aqui, Ia m itad derecha es A de otro modo, A- 1 =

4.10.

1

.

Dicho

-11 2 2) ( -4 6

0

1

- 1

- 1

OPERACIONES ELEMENTALES ENTRE COLUMNAS. EQUIV ALENCIA DE MATRICES

Esta seccion repite parte de Ia discusion de Ia precedente, utilizando las columnas de una ma triz vez de sus filas. (La eleccion de utilizar primero las filas proviene del hecho de que las ~peraciones entre filas estfm fuertemente ligadas a las operaciones con ecuaciones lineales.) ~lostramos tambien Ia relacio n existente entre las operacio nes entre filas y columnas y sus ::aatrices elementales. Las operaciones e lementales entre columnas ~malogas a las operaciones elementales entre filas son las sig uientes:

~n

[F 1 ]

(Intercambio de columnas)

[F 2 ]

(Cambio de escala de columnas) nulo k:

lntercambiar las columnas i-esima y j -esima:

Multiplicar Ia columna i-esima por un escalar no

(k (F3 ]

(Adicion de colum nas) j -esima:

~

O)

Sustituir Ia columna i-esima por ella misma mas k veces Ia

120

ALGEBRA LINEAL

Cada una de las operaciones a nteriores tiene una inversa del mismo tipo, tal y como sucedia con las operaciones entre filas correspondientes. Denotemos por f una operaci6n elemental entre columnas. La matriz F , obtenida efectuando f sobre Ia matriz identidad I , es decir,

F = f(I) se conoce como Ia macriz elemental correspondiente a Ia operaci6n elemental entre columnas f. EJ EM PLO 4.13. Las matrices 3-cuad radas elementales correspondientes a las operaciones elementales . entre colu mnas C 3 ---> C 1 , -2C3 ..... C 3 y -5C2 + C3 ---> C 3 son, respectivamente,

0 0

~)

1)

0 1 -5 0 1

A Io largo de toda la discusi6n posterior, e y f denotanin, respectivamente, operaciones elementales entre fil as y columnas correspondientes y E y F sus matrices elementales asociadas. Lema 4.13:

Supongamos que A es cualquier matriz. Entonces

esto es, efectuar Ia operaci6n entre columnas f sabre una matriz A cond uce al mismo resultado que efectuar Ia operaci6n entre filas correspondientes e sabre A'~' y luego tamar la traspuesta. La demostraci6n del lema se obtiene directamente del hecho de que las columnas de A. son las filas de AT, y viceversa. El lema anterior muestra que

En o tras palabras, Corolario 4.14: F es la traspuesta de E. (De este modo, F es invertible porque E lo es.) Ademas, de acuerdo con ellema precedente.

lo que prueba el siguiente teorema (que es analogo a! Teorema 4.9 rela tivo a las operaciones elementales entre filas): Teorema 4.15:

Para cualquier matriz A , f(A) = AF.

Es decir, el resultado de efectuar una operaci6n elemental entre columnas f sabre una matriz A puede obtenerse multiplicando porIa derecha A par Ia matriz elemental correspondiente F. Se dice que una matriz B es equivalente por columnas a otra A si B puede obtenerse de A

MATRICES CUADRADAS. MATRICES ELEMENTALES

121

mediante una sucesion finita d~ operaciones elementales entre columnas. Usando el argumento ana.logo al dado para el Teorema 4.12 llegamos a!: Teorema 4.16: B es equivalente por columnas a A si y solo si existe una matriz no singular Q tal que B = AQ.

EQUIV ALENCIA DE MATRICES Se dice que una matriz B es equivalence a otra A si B puede obtenerse de A mediante una sucesion finita de operaciones elementales entre filas y columnas. Alternativamente (Problema 4.23), B es equivalente a A si existen matrices no singulares P y Q tales que B = PAQ. AI igual que Ia equivalencia por filas o por columnas, la equivalencia de matrices es una relacion de equivalencia. El principal resultado de esta subseccion, demostrado en el Problema 4.25, se en uncia a continuacion: Teorema 4.17:

Toda matriz m x n A es equivalente a una (mica matriz por bloques de Ia forma

donde I, es Ia. matriz identidad r x r. (El entero no negativo r se llama el rango de A.)

4.11.

MATRICES SIMETRICAS CONGRUENTES. LEY DE INERCIA

Se dice que una matriz B es congruente a otra A si existe una matriz no singular (invertible) P tal ql]e B

= pT AP

Por el Problema 4.123, Ia congruencia es nna relacion de equivalencia. Supongamos que A es simetrica, o sea, AT= A. En tal caso,

y por tanto B es simetrica tambien. Dado que las matrices diagonales son simetricas, se deduce que unicamente matrices simetricas son congruentes a matrices diagonales. El siguiente teorema juega un importante papel en el algebra lineaL

Teorema 4.18 (ley de inercia): Sea A una matriz real simetrica. Entonces existe una matriz no singular P tal que B = PrAP es diagonal. Aun mas, to das las matrices diagonales B que cumplan la condicion anterior tienen el mismo numero p de entradas positivas y el mismo numero n de entradas negativas. El rango y Ia signatura de Ia matriz anterior A se denotan y definen, respectivamente, por rango A= p + n

y

sig A= p - n

122

ALGEBRA LINEAL

Estos estim univocamente definidos, segun el Teorema 4.19. [La nocion de rango se define en realidad para cualquier matriz (Seccio n 5. 7), y Ia definicion precedente concuerda con Ia general.]

ALGORITMO DE DIAGONALIZACION El algoritmo expuesto a continuacion diagonaliza (bajo congruencia) una matriz real simetrica A= (a;)· Algoritmo 4.11:

Paso I.

Diagonalizacion bajo congruencia de una matriz simetrica

Construir Ia matriz [po r bloques] n x 2n M = (A i I); esto es, A es Ia mitad izquierda

de M y Ia matriz identidad I, Ia derecha.

Paso 2.

Examinar Ia entrada

a11 .

Caso I: a 11 # 0. Efectuar las operaciones entre filas - a; 1 R 1 + a 11 R; ~ R ;, i = 2, ... , n, y despues las operaciones entre columnas correspondientes - a; 1 C 1 + a 11 C; ~ C; para reducir Ia matriz M a Ia forma

0 B

.. I

..

:)

[I]

Caso II: a 11 = 0, pero a;;# 0 para algu n i > I. Efectuar Ia operacion entre filas R 1 - R, y luego Ia operacion entre columnas correspondientes C 1 +-+ C; para llevar a;; a Ia primera posicion diagonal. Esto reduce Ia matriz a Ia del Caso I. Caso III. Todas las entradas diagonales cumplen a;; = 0. Elegir i, j tales que aij # Q y efectuar Ia operacion entre filas Ri + R;....., R; junto a Ia operacion entre columnas correspondiente Ci + C; ~ C; para llevar 2a;i # 0 a Ia i-esima posicion diagonal. Con esto se reduce Ia matriz a Ia del Caso II. En cada uno de los casas reducimos finalmente M a Ia forma [I] en Ia que B es una matriz simetrica de orden menor que el de A. Nota: Las operaciones entre filas varianin las dos mitades de M, pero las operaciones entre columnas solo cambiaran s u mitad izquierda.

Paso 3. Repetir el Paso 2 con cada nueva matriz (despreciando las primeras fila y columna de Ia precedente) hasta que A este diagonalizada, esto es, hasta que M se transforme en una M ' = (D, Q). donde D es diagonal. Paso 4. Tomar P = Qr. Ento nces D

= pr AP.

La justificaci6n del algoritmo anterio r se da a continuaci6n. Sean e 1 , e2 , ... , ek todas las operaciones elementales entre filas en el algo ritmo y j 1, f 2 , ••• , fk las correspondientes operaciones elementales entre columnas. Supongamos que E; y F; son las matrices elementales asociadas. Segun el Corolario 4.14,

MATRICES CUADRADAS. MATRICES ELEMENTALES

123

Por el algoritmo anterior,

ya que Ia mitad derecha I de M solo es alterada por las operaciones entre filas. Por otra parte, Ia mitad izquierda A de M es transformada por las operaciones tanto entre filas como entre columnas; por consiguiente,

D = Ek ·· · E 2 E 1 AF 1 F 2 ••• Fk = = (Elt · · · E2 E 1 )A(Et · · · E2 E 1)T = QAQT = PTAP

EJEMPLO 4.14.

Supo,gamo• A

~ -~ (

=

=;),una mat
_:

no singular P tal que B = pT AP sea diagonal , empezamos construyendo la matriz por bloques (A i I)

(A

~

i I)= (

~3

2 5

~3

~4

8

I

Efectuamos las operaciones - 2R 1 + R 2 --> R2 y 3R 1 + R 3 ~2C 1 + C 2 ---> C 2 y 3C 1 + C 3 --> C 3 sobre A obteniendo

(~

2

-3

1

2

2

-1

:-2 I

1

3

A continuacion efectuamos - 2R 2

(:

0

I I

0

01

0

1

2: - 2

1

I

-

5'I

7

--->

0 0

1

0

R 3 para (A i 1) y despues las mrrespondientes

(~

0 2

-2

~)

y Iuego

(:

I I

0

1

0 :-2

-5

0

+ C 3 --> C 3

- 2C 2

0 0

0

0 : 2 :-2 -1 1 3

+ R 3 ---+ R 3 y entonces Ia correspondiente

0 0

~)

y luego

~)

0

~4

7

I

0 1

-2

para obtener

~)

Se ha diagonalizado A. Tomemos

P~(: ~6tese

4.12.

que B ticne p

=

-2 1 0

-~)

B~ P'AP~(:

y entonces

2 entradas positivas y n

=

0 1 0

-~)

I entrada negativa.

FORMAS CUADRATICAS

Una forma cuadratica q en las variables x 1 , x 2 ,

... ,

q(xl, x2, ... , xn)

=

xn es un polinomio LC;jX;Xj i<j

[4.1]

124

ALG EBRA LINEAL

(donde cada termino es de grado dos). Se dice que Ia forma cuadnitica esta diagonalizada si

esto es, si q carece de terminos con productos cruzados x;xi (con i ¥ j). La forma cuadratica [4. I] puede expresarse de modo (mico en Ia forma matricial q(X) =

xr AX

. [4.2]

donde X= (x 1 , x 2 , ... , x.)r y A= (a;) es una matriz simetrica. Las entradas de A pueden obtenerse a partir de [4.1] tomando

y

(para i ¥ j)

es decir, A tiene entrada diagonal a;; igual al coeficiente de xt y entradas aii y aii iguales a Ia mitad del coeficiente de x;xi. De este modo,

q(X) = ( XI,

... , X,)(:::

:::

:::)(=:)

.. .



. . . . . .. .. .. . .. . . . . a,. 1 a,1 . . . a,.

= I.al1 x;x1 = auxr i.j

:

=

x.

+ a22 x~ + ... + a,.,.x; + 2 I au x 1 x 1 i<j

La matriz simetrica a nterior A se denomina Ia representacion matricial de Ia fo(ma cuadnitica q. Aunque muchas matrices A en [4.2] conducirim a Ia misma forma cuaddttica q, solo una de elias es simetrica. Reciprocamente, toda matriz simetrica A define una forma cuadratica q mediante [4.2]. Siendo asi, existe una correspondencia u no-a-uno entre las fo rmas cuadraticas q y las matrices simetricas A. Aun mas, una forma cuadratica q esta diagonalizada si y solo si Ia matriz simetrica asociada A es diagonal. EJEMPLO 4.15 a)

La forma cuad ratica q(x, y, z) = x 2

-

6xy

+ 8y2 -

4xz

+ 5yz + 7:2

puede expresarse en Ia forma matriciat

q(x, y, z) = (x, y, zj

-~

\-2

-3 8

1

donde Ia matriz definidora es simetrica. Tambien puede expresarse en Ia forma matricial

q(x, y, ')- (x, y,

'{~

en Ia que Ia matriz definidora es triangular superior.

MATRICES CUADRADAS. MATRICES ELEMENTA LES

b)

La matriz simetrica

125

. Ia orma cuadrat1 ' .ca (23 3) determma f

5

q(x,

y) =

(x,

y{~

!)(;)

= 2x

2

+ 6xy + 5y 2

Nota: P or razones de indole te6rica, supondremos siempre que una forma cuadnitica q esta representada por una matriz simetrica A, Dado que A se obtiene de q mediante division por 2, tendremos que suponer tambien que l + l i= 0 en nuestro cuerpo K. Esto es siempre cierto si K es el cuerpo real R o el complejo C.

MATRIZ DE CAMBIO DE VARIABLES

Consideremos un cambio de variables, digamos de x 1 , x 2 , una sustitucion lineal invertible de Ia forma

--··

x. a fl, Yl· .. . , Yn• por medio de

(i = l, 2, ... , n) (Aqui invertible significa que se puede despejar cada una de las va riables y de forma {mica en terminos de las x.) Tal sustituci6n lineal puede expresarse en Ia forma matricial

[4.3]

X = PY don de

y La matriz P recibe el nombre de matriz de cambio de variables; es no singular, puesto que Ia sustituci6n lineal es invertible. Reciprocamente, cualquier matriz no singular P define una sustituci6n lineal invertible de varia bles, X = PY. Ademas,

proporciona Ia formula que expresa las variables y en terminos de las x. Existe una interpretacion geometrica de Ia matriz de cambio de variables P, que se ilustra en el proximo ejemplo. EJ EM P LO 4, 16.

Consideremos el plano cartesian a R 2 con los ejes x e y usuales y Ia matriz no sin-

gular 2 x 2

Las columnas u 1 = (2, 1) 7. y u 2 = ( - 1, 1)T de P determinan un nuevo sistema de coordenadas en el plano. digamos con ejes s y t, como se muestra en Ia Figura 4-1. Esto es: 1.

El eje s esta en Ia direcci6n de u 1 y su unidad de longitud es Ia longitud de u 1 •

2. El eje t esta en Ia direcci6n de u2 y su unidad de longitud es Ia longitud de u2 .

126

ALGEBRA LINEAL y

Figura 4-L Un punto cualquiera Q en el plano tendra unas coordenadas respecto a cada sistema, d igamos Q(a, b) respecto a los ejes _x e y y Q(a', b') respecto a los s y t. Estos vectores de coordenadas estan relacionados mediante Ia matriz P. Concretamente, 0

donde X = (a. bf e Y =(a', h'V

DIAGONALIZACION DE UNA FORMA CUADRATICA

Consideremos una forma cuadratica q en las variables x 1 , x 2 , ..• , xn, es decir, q(X) = xr AX (donde A es una matriz simetrica). Supongamos que se efectua un cambia de variables en q empleando Ia sustitucion lineal [4.3]. Tomando X = PY en q se llega a Ia forma cuadratica q(Y)

=

(PY)T A(PY)

=

YT(pT AP) Y

Asi B = pT AP es Ia representacion matricial de Ia forma cuadn'l.tica en las nuevas variables y 1 , y 2 , ... , Yn· Observemos que la nueva matriz B es congruente a Ia inicial A, que representaba q. Se dice que Ia sustitucion lineal anterior Y = P X diagonaliza la forma cuadnitica q(X) si q( Y) es diagonal, esto es, si B = pT AP es una matriz diagonal. Como B es congruente a A y A es una matriz simetrica, podemos enunciar otra vez el Teorema 4.18 como sigue. Teorema 4. 19 (ley de inercia): Sea q(X) = xr AX una forma cuadr;itica real. Entonces existe una sustituci6n lineal invertible Y = P X que diagonaliza q. Aim mas, cualquier otra representacion diagonal de q tiene el mismo numero p de entradas positivas y el mismo numero n de entradas negativas. El rango y Ia signatura de una forma cuadratica q se denotan y definen por rango q

=p+n

y

stg q

=

p- n

Est{m univocamente definidos, de acuerdo con el Teorema 4.19.

MATRICES CUADRADAS. MATRICES ELEMENTALES

127

Dado que diagonalizar una forma cuadratica q equivale a diagonalizar bajo congruencia una matriz simetrica, el Algoritmo 4.11 puede utilizarse tambien aqui. EJ EM PLO 4.17.

Consideremos Ia forma cuadnitica q(x, y, z) = x 1

+ 4xy + sy2 -

6xz - 8yz

+ 8z 2

[I]

La matriz simetrica A que representa q es:

~ ~ =!)

A= (

-3

8

- 4

Segun el Ejemp!o 4.14, Ia matriz no singular P siguiente diagonaliza A bajo congruencia:

p

1 -2 7.) (

= 0

1

0

0

-2 1

y

De acuerdo con esto, q puede diagonalizarse mediante Ia sustituci6n lineal: x = r- 2s + 7t y= s- 2t z=

De forma especifica, sustituyendo x, y y z en [I] se llega a Ia forma cuadn'ttica: [2) Aqui p = 2 y n =I; por tanto,

rango q = 3

sig q =I

y

~ota:

Existe una interpretacion geometrica de Ia ley de inercia (Teorema 4.19) que damos aqui utilizando Ia forma cuadratica del Ejemplo 4.17. Consideremos Ia siguiente superficie S en R 3 : q(x, y, z)

= x 2 + 4xy + 5y2

-

6xz- Syz

+ 8z 2

=

25

Baja el cambio de variables

x = r- 2s + ?t

y=s - 2t

z=t

o. equivalentemente, relativa a un nuevo sistema de coordenadas con ejes r, s y t, Ia ecuaci6n de S se convierte en q(r, s, t) = r

2

+ s2

-

5t2 = 25

De acuerdo con ello, S es un hiperboloide de una hoja, ya que hay dos entradas positivas y una !:.egativa en Ia diagonal. Alin mas, S sera siempre un hiperboloide de una hoja, con independencia del sistema de coordenadas. Siendo asi, cualquier representaci6n diagonal de Ia forma cuadratica qt'<. y, z) contendra dos entradas positivas y una negativa en Ia diagonal.

128

ALGEBRA LINEAL

MATRICES SIMETRICAS Y FORMAS CUADRATICAS DEFINIDAS POSITIVAS Se dice que una matriz real simetrica A es definida positiva si xrAX > 0

para todo vector (columna) no nulo X en R". Anatogamente, se dice que una forma cuadn1tica q es definida positiva si q(v) > 0 para todo vector no nulo en R". De forma alternativa, una matriz real simetrica A o su forma cuadratica q es definida positiva si cualquier representaci6n diagonal tiene solo entradas positivas. Tales matrices y formas cuadraticas desempenan un papel muy importante dentro del algebra lineal. Se estudiaran en los Problemas 4.54-4.60.

4.13.

SIMILARIDAD

Una funci6n f: R"--+ R" puede verse georrietricamente como «enviando» o «aplicando» cada punto Q sobre un punto f(Q) en el espacio R". Supongamos que Ia funci6n f puede representarse de Ia forma

/(Q)

=

AQ

donde A es una matriz n x n y las coordenadas de Q se escriben como un vector columna. Aim mas, supongamos que P es una matriz no singular que puede verse como introduciendo un nuevo sistema de coordenadas en el espacio R". (Vease Ejemplo 4.16.) Probamos que, referida a este nuevo sistema de coordenadas, f esta representada por Ia matriz

esto es,

f(Q' ) = BQ' donde Q' denota el vector columna de las coordenadas de Q respecto al nuevo sistema de coordenadas. EJ EM PLO 4.18.

Considerernos Ia funci6n

f: R 2 -+ R2

definida por

f(x , y) = (3x- 4y, 5x + 2y )

o, equivalenternente, don de

A=

G-;)

Supongamos que se introduce en R 2 un nuevo sistema de coordenadas con ejes s y t por medio de Ia matriz no singular

P=G -:)

y por tanto

p - 1= (

~

-~

MATRICES CUADRADAS. MATRICES ELEMENTALES

129

(Vease Ia Figura 4-l.) Res pee to a este nuevo sistema de coordenadas de R 2 , Ia funci6n f puede representarse como

don de

l)(3 -4)(2 -1) (¥¥ =

j5

211

-~) t

En otras palabras,

f(s, t) = (1s - .1ft, fs

+ ±t)

La discusi6n precedente nos conduce a Ia siguiente: Definicion:

Una matriz B es similar a otra A si existe una matriz no singular P tal que

La similaridad, como Ia congruencia, es una relaci6n de equivalencia (Problema 4.125); por consiguiente, podemos decir que A y B son matrices similares cuando B = P- 1 AP. Se dice que una matriz A es diayonalizable si existe una matriz no singular P tal que B = P - 1 APes una matriz diagonal. La cuesti6n de si una matriz dada A es o no diagonalizable y el hallar Ia matriz P en caso de serlo juegan un papel importante en el algebra lineaL Estas cuestiones se acometen\.n en el Capitulo 8.

4.14.

FACTORIZACION LU

Supongamos que A es una matriz no singular que puede llevarse a forma triangular (superior) U mediante el uso de operaciones de adici6n de filas exclusivamente, esto es, supongamos que A puede triangularizarse por medio del siguiente algoritmo, que escribimos empleando Ia no taci6n caracteristica de los ordenadores. Algoritmo 4.14.

Triangularizacion de Ia matriz A = (aij)

Paso 1.

Repetir para i = l, 2, ... , n- 1;

Paso 2.

Repetir para j = i + I, ... , n: a) Tomar mii: =a;)a;;· b) Tomar Ri: = miiRi + Ri. [Fin del bucle interno Paso 2.] [Fin del bucle externo Paso 1.]

Paso 3.

Salir.

130

ALGEBRA LINEAL

Los numeros m;i se denominan multiplicadore$. A veces seguimos Ia pista de dichos multiplicadores a traves de Ia siguiente matriz triangular inferior L:

0 1.

0 0 1

0 sea, L tiene unos en Ia diagonal, ceros sobre esta y los opuestos de los mii como entradas ij bajo Ia misma. La matriz triangular inferior precedente L puede describirse alternativamente como se hace a continuaci6n. Denotemos por e 1, e2, ... , ek Ia sucesi6n de operaciones elementales ente filas en el algoritmo anterior. Las inversas de dichas operaciones son las siguientes. Para i = 1. 2, ... , n- I tenemos (j = i + 1, ... , n) Efectuar estas operaciones en orden inverso sobre Ia matriz identidad I proporciona Ia matriz L. Asi pues,

donde E 1 , ... , Ek son las matrices elementales asociadas a las operaciones e 1 , ... , ek. Por otra parte, las operaciones elementales e 1 , ... , ek transforman Ia matriz original A en Ia matriz triangular superior U. Siendo asi, Ek ... E 2 E 1 A = U. De acuerdo con esto, ·

A= (E1 1 E2 1

.. ·

Et" 1 )U = (E1 1 E2 1

.. ·

Et" 1 l)U = LU

Esto nos da Ia factorizaci6n LU clasica de una matriz A. Establezcamos formalmente este resultado como un teorema. Teorema 4.20: Sea A una matriz como Ia precedente. Entonces A = LU, donde L es una matriz triangular inferior con unos en Ia diagonal y U una matriz triangular superior sin ceros en Ia diagonal. Nota: Subrayamos el hecho de que el teorema anterior solo se aplica a matrices no singulares A que pueden llevarse a forma triangular sin ningun intercambio de filas. Se dice que tales matrices son factorizables L U o que tienen una factorizaci6n L U.

EJ EM PLO 4.19. Sea A de las operaciones 3R 1

+

(

1 2 -3)

-3 -4 13 . Entonces A puede reducirse a forma triangular por medio 2 1 - 5 R 2 ---> R 2 y - 2R 1 + R 3 ---> R 3 , y luego (1)R2 + R 3 ---> R 3 : · =

1 A- 0 (0

2 2 -3

-3) (1 4 1

~

0 0

MATRICES CUADRADAS. MATRICES ELEMENTALES

131

Esto nos da Ia factorizaci6n A =LV, donde 0

-!

~)

-1 de L provienen de las operaciones elementales entre filas anteriores

Adviertase que las entradas -3. 2 y y que U es Ia forma triangular de A.

APLICACIONES A LAS ECUACIONES LINEALES

Consideremos un algoritmo de ordenador, M. Denotemos por C(n) el tiempo de ejecuci6n del algoritmo en funci6n del tamano n de Ia entrada de datos. [La funci6n C(n) se llama a veces Ia complejidad temporal o, simplemente, Ia complejidad del algoritmo.] Con frecuencia, C(n) simplemente cuenta el numero de multiplicaciones y divisiones efectuadas por M, pero no el numero de adiciones y sustracciones debido a que se invierte mucho menos tiempo en su ejecuci6n. Consideremos ahara un sistema de ecuaciones lineales AX= B

donde A = (aij) tiene factorizaci6n LV y

y Entonces el sistema puede llevarse a forma triangular (para poder efectuar Ia sustituci6n hacia atras) aplicando el algoritmo anterior a Ia matriz ampliada M = (A, B) del mismo. La complejidad temporal del algoritmo y de Ia sustituci6n hacia atras son, respectivamente,

y siendo n el numero de ecuaciones. Por otra parte, supongamos qne disponemos ya de Ia factorizaci6n A= LU. En tal caso, para triangularizar el sistema solo es necesario efectuar las operaciones entre filas del algoritmo (retenidas en Ia matriz L) sobre el vector columna B , con lo que Ia complejidad temporal es

Por supuesto, obtener Ia factorizaci6n LV requiere el uso del algoritmo original, donde C(n) ~ n 3 j2. De este modo, podria no ganarse na da encontrando primero Ia factorizaci6n LV

cuando se halla implicado un s.olo sistema. No obstante, existen situaciones, ilustradas mas adelante, en las que Ia factorizaci6n LV resulta uti!. Supongamos que para una matriz dada A necesitamos resolver el sistema AX= B

repetidamente, para una sucesi6n de vectores constantes diferentes, digamos B 1 , B2 , •••• BtSupongamos ademas que algunos de los B; dependen de Ia soluci6n del sistema obtenida al

132

ALGEB RA LINEAL

utilizar los vectores precedentes Bj. En tal caso, resulta mas eficaz hallar primero Ia factorizacion LU de A y despues emplearla para resolver el sistema para cada nuevo B. EJ EM PLO 4 .20.

Consideremos el sistema X-

2y -

: =k 1

2x- 5y- :: = k 2 -3x + lOy- 3:: = k 3

,0,,,

A

o

AX = 8

[I]

~U ~~ =:) B~(D y

Supongamos que queremos resolverlo para 8 1 , 8 2 , 8 3 , 8 4 , donde 8 1 = ( I, 2, 3)T y (para j > I) siendo X i Ia soluci6 n de [I] usando 8i. Aqui es mas eficaz empczar por o btener Ia factorizaci6n LU de A y luego utilizarla para resolver el sistema con cada uno de los vectores B. (Vease el Problema 4.73.)

PROBLEMAS RESUELTOS

ALGEBRA DE MATRICES CUADRADAS

4.1. Sea A

~ G=~ ~) .

Dete<mina c o) Ia diagonal y Ia ''""' de A; b) A ("). donde

u = (2, - 3, S)r; c) A(v), siendo v = (1 , 7, -2). a)

La d iago nal consiste en los elementos situados desde Ia esquina s uperior izqu ierda hasta Ia inferior derecha de Ia matriz, esto es. los elementos a 11 • a 22 • a 33 . De este modo. Ia diagonal de A consiste en los escalares 1, - 5 y 7. La traza de A es Ia suma de los elementos diagonales; por consiguiente, tr A = I - 5 + 7 = 3.

b)

c)

4.2.

A(u) = Au =

1 2 ( 4

3 -5

6)( 2) ( 2-9+ 30 ) (23) 8 - 3 = 4 + 15 + 40 59

- 2

7

=

5

8+6

+ 35

49

Segun nuestro convenio. A(v) no esta definid o para un vector fila v.

Sea A =

G

2 ). a) Hallar A 2 y A 3 . b) Hallar f(A), d o nde f(x) = 2x 3

- 3

-

4x

+ 5.

MATRICES CUADRADAS. MATRICES ELEMENTALES

2

A =AA=G

a)

2

A3=AA =(! b)

133

-~X! -~) = (!~~2 ~:!)=(_: ~~)

-D(_: ~;)=(3::~:

-~:~~)=(-~ -!~)

Para encontrar f( A), primero sustituimos x por A y Ia constante 5 por 51 en el polinomio dado, f(x) = 2x 3 - 4x + 5:

f(A) = 2A 3 - 4A+5I=2(-~ -!~)-~! -~)+sG ~) Despues multiplicamos cada matriz por su respective escalar:

Por ultimo, sumamos los elementos correspondientes de las matrices:

- 14-4+5 f(A)= ( 120-16+0

4.3.

. A= . (2 2) Sea

3

_

1

60 - 8+0 ) (-13 -134+12+5 = 104

.

. Hallar g(A), s1endo g(x) = _x 1

-

52) -117

x - 8.

Al=G -~)G - -~)=(:~: ::D=C~ ~) Al - 8/ c~ ~) ~ G -D 8G ~) -

g(A)

=

A -

=

=C~ ~)+(=~ -~)+(-~ -~)=(~ ~) Asi A es un cero de g(x).

4.4.

Se da Ia matriz

A=(: -~} Encontrar un vector columna no nulo u

= (:)

A(u) = 3u. Comenzamos por establecer Ia ecuacion matricial Au = 3u:

Escribimos cada miembro como una sola matriz {vector columna):

3y) = (3.x:) 3y

.X:+ ( 4x - 3y

tal que

134

ALGEBRA LINEAL

lgualamos entre si los elementos correspondientes para llegar a un sistema de ccuaciones y lo red ucimos a forma escalonada:

X+ 3y =

3.x}--+ {2.x - 3y = 0}--* {2.x - 3y = 0}--* l.x _ 3y= O 4.x- 6y = 0 0 =0

4x- 3y = 3y

El sistema se reduce a una ecuaci6n homogenea con dos incognitas y por tanto tiene un numero infinito de soluciones. Para obtener una soluci6n no nula, tomemos, por ejemplo, y = 2; entonces x = 3. Esto es, u = (3. 2f tiene Ia propiedad deseada.

4.5. Sea

A~(~

2 5 12

-3)

-1 . Hallar todos los vectores u

=

(x, y, z)T tales que A (u)

= 0.

-5

Establecemos Ia ecuaci6n Au

=

0 y luego escribimos cada miembro como una sola matriz:

.x +

0

(

2y - 3z) = (0) 0

h + 5y- z 5x + 5z

12y -

0

lgualamos entre si los elementos correspondientes para conseguir un sistema homogenco y reducimos este a forma escalonada:

.x

2y-

0}

+ 3z = h + 5y - z = 0 5x + 12y- 5z = 0

{.x + 2y- .3z = y

-+

2y

0} {x+ 2y- 3z= 0

+ 5z = 0 + lOz =

0

-+

y

+ 5z =

0

En Ia forma escalonada, z es Ia variable libre. Para llegar a Ia soluci6n general, tomamos z =.a, siendo a un panimetro. La sustituci6n hacia atnis conduce a y = -Sa y despues a x = 13a. Siendo asi, u = (13a. - 5a, a)T representa todos los vectores tales que Au = 0.

4.6.

Demostrar que Ia colecci6n M de todas las matrices 2 x 2 de Ia forma (; :) es un algebra conmutativa de matrices. Claramente, M es no vacia. Si A = (: A+B= ( a+ c d +b) b+d a+c

:) y B =

kA

=

(~

:) pertenecen a M, entonces

(ka kb) kb ka

ac + bd ad + be) AB= ( be+ ad bd + ac

tambien pertenecen a M. Asi M es un algebra de matrices. Ademas, BA= (

ca+db cb +da) da

+ cb

db+ ca

De este modo, AB = BA y en consecuencia M es un algebra conmutativa de matrices.

4.7.

Encontrar todas las matrices M = (:

~)que conmutan con A=(~ ~).

MATRICES CUADRADAS. MATRICES ELEMENTALES

135

Primero hallamos

AM= (

X+

y+

Z

z

t)

y

t

::~)

MA = G

Luego imponemos AM = M A para llegar a las cuatro ecuaciones

x + z=x

4.8.

y+r =x +y

r= z+ t

z= z

De Ia primera ecua(ci-~n,

yo) de Ia ultima, .z = 0; de Ia segunda, x =c. En esc caso. M es cualquier

matriz de Ia fo rm a

x .

0

Sea e; = (0, . .. , 1, ... , Ol, donde i = 1, ... , n, el vector (columna) en R" con 1 en Ia posicion i-esima y 0 en cualquier otra, y sean A y B dos matrices m x n.

a)

Probar que Ae, es Ia i-esima columna de A.

b)

Supongase Ae, =Be; p ara cada i. Probar que A = B.

c)

Sup6ngase Au= Bu para todo vector u en R". Demostrar que A = B.

a)

Sean A= (aij) y Ae; = (b 1 ,

•.• ,

b.f. Entonces

bk = Rk ei =(au, ... , a•• )(O, ... , I, ... , O)T = aki

donde R k es Ia lila k-esima de A. Asi

que es Ia columna i-esima de A.

4.9.

b)

Ae, = Be; significa que A y B tienen Ia misma columna i-esima pa ra todo i. Por tanto , A = B.

c)

Si Au = Bu para todo vector u en R", necesariamente Ae, = Be; para cada i, con lo que A

B.

Sup6ngase que A es una matriz m x 11 . Mostrar que: a) l mA = A, b) AI"= A. (De este modo, AI= IA =A cuando A es una matriz cuadrada.) Utilizamos el hecho de que I a)

Suponga mos f ,A

=

(bii), donde l>ii es Ia delta de Kronecker (Ejemplo 4.3).

Entonces

= (};).

hJ =

L hu.atJ =

hua1i = a11

t=l

Siendo asi, I ,A = A, ya que las entradas correspondientes coinciden.

b)

Supongamos AI.= (g;J En tonces g,i =

.

L a,th i = 1

a,JoJJ

=au

1= 1

De este modo, A I . = A, jmesto que las entradas correspondientes son iguales.

4.10.

=

Demostrar el Teorema 4.1. i)

Sea A+ B =

(c,J

tr (A

Entonces cii = aij + bii• por lo que

+ B) =

.

L cu k=1

=

.

.

L (au + bu) = L au + I 1= 1

1=1

k•t

bu

= tr A + tr B

136

ALGEBRA LINEAL

.

Sea kA = (ciJ). Entonces ciJ = ka;1, y

ii)

tr kA =

~

L ka11 = k L a11 =

k • tr A

n

Sean AB = (c;) y BA = (dii). Entonces

iii)

n

If

fe;J

4.11.

L.

=

1r

i~l

11

b1 ;

n

aikb11 y

L.

diJ =

k=l

II

L cu = L L 0

tr AB =

c;1

It



L L b1; a = L du = tr BA

=

l=l

b;1 a 11, de donde

k ~l

11

k = l i :m: J

i: • l

Demostra r el Teorema 4.2. r

L.

Supongamos j(x) =

a;xi y g(x)

=



L b1xi.

i= 1

i)

Podemos tomar r = s = n sumando potencias de x con coeficien tes nulos. En tal caso, f(x)



L (a; + b;)x

+ g(x) =

1

f= 1

De aqui (f + g)(A)

=

.

"

L. (a + b;)Ai = L. a 1

i= l

ii)

Tenemos f(x)g(x)

=

1

Ai +

.

Lb A 1

1

= /(A)+ g(A)

i=l

L a,b1x'+ i. Entonces

iii) Usando .f(x)g(x) = g(x)f(x) tenemos f(A)g(A) = (fg)(A) = (gf)(A) = g(A)f(A)

4.12.

Sea Dk = kl Ia matriz escalar asociada al escalar k. Probar que: a) DkA BDk = kB, c) Dk + Dk. = Dk +k'• d) DkDk. = Da·· a)

b) c) d)

= k(I A) = kA. = k(BI) = kB . D. + D1 • = ki + k' I = (k + k')l = D1 A = (ki)A BDk = B(ki)

DHa' . D1 D1 • = (kl)(k' /) = kk'(ll) = kk' I = Du·.

:viATRlCES INVERTIBLES. INVERSAS

4.13.

Hallar Ia inversa de

G~).

= kA, b)

MATRICES CUADRADAS. MATRICES ELEMENTALES

137

Buscamos escalares x, y, z y w para los que

Metodo 1.

3x + 5z 3y ( 2x + 3z 2y

0

+ 5w) = (1 0) + 3w 0 1

o que satisfagan 3x { 2x

+ 5z =

1

+ 3z =

0

Metodo 2.

_ 1

(

=

G~}

d/IAI -b/IAI) 1 ( d - b) -ell A I a/1 A I = jAj - c a IAI

primero hallamos

-3. En ese caso, Ia

w =

.

- 3

La formula general para Ia inversa de Ia matriz 2 x 2 A

A

Asi, si A =

2

0 1

+ 3w =

;)3, z = 2, y Ia del segundo y = 5,

La soluci6n del primer sistem(a ~~ x = inversa de Ia matriz dada es

+ 5w =

3y { 2y

y

IAI =ad - be

donde

=-(3)(3)- (5)(2)

-I

=

=1=

~) cs

= (:

0. A continuaci6n intercambia-

mos los elementos diagonales, tomamos los opuestos de los otros elementos y multiplicamos por 1/IAI: A-

a)

--1 (

. -2

~ (-

4.14. Calcula< las inversas de a) A

3 -5) _(-3 5)

1 _

i

3

2

-1 7

-

2

-4)

5 y b) B

-3

=

(l 3 -4) 1

- 3

3

5 l3

-1 . -6

Construimos Ia matriz por bloques M = (A; J) y Ia reducimos por filas a forma cscalonada:

M~H

2 -1 7

-4

-(~

2

-4

5

I

1 0

-3

I

0

l 0

0

I 0

0

I

1

:-5

-3

D-(~ ~)

2 1 3

-4 1

0 I

5 :-2

0

~)-

· La mitad izquierda de M esta ahora en forma triangular; por consiguiente, A tiene inversa. Vamos mas alia, reducicndo por filas lVI a su forma can6nica por filas:

M-(~ Asi

A-t=

2

01 -9 I 0 1I 27

0

5

(-16

1 : -2

-11 s 2 3

-2

-:) I

2

-6

-!)- (~

0

0

01 -16 I 0'I l :

-11 s

2

-1

-~)~u !r') I

2

.

138

ALGEBRA LINEAL

b)

Formamos Ia matriz por bloques M

(:

3 - 4 5 -1

-6

13

I

1

I

0 0

-(~

=

(B ! I ) y Ia reducimos por filas a forma esc~Ionada:

~)-(~

0 0

3 2 0

-4 II 3 :- 1 6 : -3

3

2 4

-4 II 1 3 : -1

0

0 : -1

-2

~) -

0 1

0

;)

En forma escalonada. M tiene una fila nula en su mitad izquierda; es decir, B no es reducible po r filas a forma triangular. De acuerdo con ello. B no es invertible.

4.15.

Demostrar las siguientes proposiciones: a)

Si A y B son invertibles, entonces AB tam bien lo es y (A B) -

I

=

n- 1 A- 1 .

b) Si A 1 , A 2 , ... , A" son invertibles, entonces (A 1 A 2 ·· · An) - 1 =A; 1 ··· A2 1 A~ 1 . c) A es invertible si y solo si lo es AT. d) Las operaciones de inversion y trasposicion conmutan: (A-r)- 1 = (A- 1 )T_ a) Tenemos (AB)(B- 1 A - 1) = A(BB- 1 )A- 1 = A/A - 1 = AA - 1 =I (B- 1A - 1 )(AB) = B- 1(A - 1 A)B = B - 1 IB = B - 1 B =I Por tanto, B- 1 A - t es Ia in versa de AB. b)

Por inducci6n en n y utilizando Ia p arte a), 1 1 = [(A ··· A 1 (A · ·· A )AJ- 1 =A)- 1 =A···A2- 1 A 1(A 1 ··· A ,. - 1 A), 1 ... - . " 1 ... - t •

c)

Si A es invertible, existe una matriz B tal que A B = BA

(AB)T = (BA)T = IT

d)

4.16.

por lo que

=

1

1. En tal caso , BT AT = AT BT = I

Por consiguiente, Ar es in vertible, con inversa B 1·. El reciproco deriva del hecho de que (ATf =A. Segun Ia parte c), BT es Ia inversa de AT, esto es, Br = (AT) - 1 • Pero B = A- 1 ; de aqu i (A - ll= (AT) - I_

Probar que, si tiene una fila o columna nula, A no es invertible. De acuerdo con el P ro blema 3.20, si A tiene una fila nula, AB tambien Ia tendriL Asi. si A fuera invertible, AA - 1 = I implicaria que I tiene una lila nula. Por esta raz6n, A no es invertible. Por otra parte, si A tiene una columna nula, AT debe tener una lila nula. por Io que AT no sera invertible. D e este modo, A tampoco es invertible.

MATRICES ELEMENTALES

4.17.

Encontrar las matrices 3-cuadradas elementales £ 1 , E2 , £ 3 que corresponden, respectivamente, a las operaciones entre filas R 1 <--+ R 2 , - 7 R 3 -> R 3 y - 3R 1 + R 2 -> R 2 .

MATRICES CUAD RA DAS. MATRI CES ELEM ENTAL ES

(1 00)

f

Efectuamos las o peraciones sob re Ia ma triz iden tidad I 3 =

E1 =

4.18.

0 1 0) ( 1 0

0

0 0

1

~)

0

0

139

0

1

0

0

0 para obtener 1

E3 = (-~

-7

0

0

0

~)

Demostrar el Teorema 4.9. Sea R 1 Ia fila i-esima de A. lo que denotamos escribiend o A= ( R 1 , ••• , R,). Si B es una matriz pa ra Ia que AB esta delinida, se sigue directa mente de Ia definicio n de producto matricial que AB = (R 1 B, ... . RmB). To mamos adema s e1 = (0, ... , 0 , 1, 0, . . . , 0),

= i

Aqui " = i significa que I es Ia componente i-esima. Por el Problema 4.8 sabemos que e1 A Hacemos no ta r tam bien que 1 = (e 1 • ..• • e.. ) es Ia matriz identid ad. i)

=i y

Sea e Ia ope ra cion elemental entre lilas R 1 +-+ R i. Ento nces. para " E

R

= R1•

=j,

= e(I ) = (e 1 , ••• , e;, ... ,~...., e...)

y e(A) = (R 1,

••• ,

-" ~ R1 , ... , R 1 , ••• ,

R,J

De estc modo, ~

,.........,_

EA = (e 1A , . .. , e1 A, ... , e1 A , ... ,e., A) = (R 1,

ii)

~

............

•.• ,

R1 ,

.. . ,

R 1,

•• • ,

R..J = e(A)

Aho ra sea e Ia operacio n elemental entre filas kR1 - R1, k # 0 . En ta l caso , para " = i,

E = e(I) = (e 1,

/'..

••• ,

ke1 ,

•• • ,e.,)

/'..

y

e(A ) = (R" . . . , kR, .. . , R.,)

Asi /'..

EA = (e 1 A, ... , ke1 A , ... ,e.. A) = (R 1 ,

iii)

/'..

... ,

kR;. ... , R..J = e(A)

Finalmcnte, sea e Ia operacion elemental entre filas kR1

E = e(I) = (e 1,

• •• ,

~ •••• , e...)

Usando (ke1 + e1) A = k(ei A) EA

+ R1 --+ R 1•

Entonces, para "

= i,

y

+ e1 A + k Ri + R 1 tenemos

.......--......

...............

= (e 1A, .. . , (ke1 ~ e1)A, . .. , e., A) = (R ~o ... , kR1 + R 1 , • •• ,

R..J = e(A)

Po r tanto, el teorema queda dcmostrado. ~. 1 9.

Pro ba r las siguientes aserciones: a)

Cada una de las o peraciones elementales entre filas expuestas a continuaci6n tiene una operaci6 n inve rsa del mismo ti po. [£ t1

Intercambiar las filas i-esima y j -esima: R 1 +-+ R1.

140

ALGEBRA LINEAL

[£ 2 ]

Multiplicar Ia fila i-esima por un escala r no nulo k: kR;-+ R h k =I= 0.

(£3 ]

Sustituir la fila i-esima por ella misma mas k veces Ia j -esima: kRi

+ R;-+ R;.

b)

Toda matriz elemental E es invertible y su in versa es una matriz elemental.

a)

Se trata cada operaci6n por separado . I . Intercambiando dos veces el rnismo par de filas obtenemos Ia rnatriz o riginal; esto es. esta operacion es su propia inversa.

b)

2.

Multiplicando Ia fila i-esirna por k y despues p or k - 1 , o por k - 1 y luego por k , obtenemos Ia matriz original. En otras palabras, las operaciones kR;-> R , y k- 1 R; -> R 1 son inversas.

3.

Efectuando Ia operacion kRi + R 1 -> R 1 y a continuacion Ia - kRi + R; ..... R 1, o prirne ro Ia -kRi + R; ..... R; y despues Ia kRi + R; ...... R ., tendremos Ia matriz o riginal. Dicho de otro modo, las operaciones kRi + R 1 -> R; y - kRi + R; ...... R 1 son inversas.

Sea E Ia matriz elemental asociada a Ia operacion elemental entre filas e: e(/) = E. Sea e' Ia operacion inversa de e y £ ' su matriz elemental co rrespondiente. Entonccs

1 = e' (e(I)) = e'(£) = E' E

e

I

= e(e'(l)) = e(E') =

EE'

Por consiguientc, E' es Ia inversa de £.

4.20.

Demostra r el Teorema 4.1 0. Supongamos que A es invertible y equivalente por filas a una matriz B, en forma canonica por filas. En tal caso, existen matrices elemcntales £ 1 , £ 2 , ••• ,£,tales que E, :·· E2 E 1 A = B. Dado que tanto A como cada E; son invert ibles, nccesariamente lo es B. Pero si 8 f:. I, B tiene una fila nula y por ende no es inve rtible. En consecuencia, B = I y a) implica b). Si se verifica b) , existen matrices elementales £ 1 , £ 2 • ••• , E, tales que E, · ·· E 2 E 1 A =I y por tanto A = (E, · · · E2 E 1 ) - 1 = E ~ 1 £2 1 • · · E; 1 • Pero las E;- 1 son tambien matrices elernentales. De este modo, b) implica c). Si se cumple c), A = E 1 £ 2 · • • £, . Las E; son matrices invertibles; de aqui que tam bien lo sea su producto, A. Asi c) implica a). De acuerdo con ello, el teorema queda demostrado .

4.21.

Demostrar el Teorema 4.11. Supongamos que A no es invertible, de forma que no es equivalente por filas a Ia matriz identidad, sino que lo es a una matriz con una fila nula. Dicho de otro modo, existen matrices elementales £ 1 , ••• , E, tales que E, ··· E 2 E 1 A tiene una fila nula . P or consiguiente, E, ··· E 2 E 1 A B = = E, ··· £ 2 £ 1 , q ue es una matriz invertible, tiene a simismo una fila nula. Pero las matrices invertibles no pueden tener filas nulas; por tanto, A es invertible, con inversa A - 1 . Ademas, B

4.22.

= 1B = (r

1

A) 8

=

A- 1 (A B)

= A - 1I = A - 1

Demostrar el Teorema 4.12. SiB .~ A , ento nces 8 = e,( ... (e 2 (e 1 (A))) ... ) = E, ··· E 2 E 1 A = PA , donde P = E, ··· E 2 E 1 es no singul ar. Reciprocamente, supongamos que B = P A con P no singular. Segun el Teorema 4. 10, P es un producto de matrices elementales y en consecuencia 8 puede obtenerse a partir de A mediante una sucesi6n de operaciones elernentales entre filas, es decir, B ~ A. Queda asi probado el teorema.

4.23.

Probar que B es equivalente a A si y solo si existen m a trices invertibles P y Q tales que B = PAQ . Si 8 es equivalente a A, e nto nces B = E, ··· E 2 E 1 AF 1 F 2 ··· F, = PAQ, donde P = E, ··· E 2 E 1 y Q = F 1 F 2 ••• F, so n invertibles. El reciproco deriva del hecho de que cada paso es reversible.

MATRICES CUADRADAS. MATRICES ELEMENTAL ES

4.24.

141

Pro b a r que la equivalencia de matrices, escrita ::::: , es una relaci6n de equivalencia: a) A::::: A. b) Si A ::::: B, entonces B ::::: A. c) Si A ::::: 8 y B::::: C, entonces A :::::C. a)

A= /AI , donde I es no singular; de aqui A::::: A.

b)

Si A ;:::: B, necesariamente A = P BQ , siendo P y Q no singulares. En ese caso, B = P- 1 AQ - 1, do n de P - l y Q- 1 son no singulares. Po r consiguiente, B ~ A. Si A~ By B;:::: C, entonces A = PBQ y B = P'CQ' , donde P, Q, P', Q' son no singulares. En consecuencia,

c)

A= P(P'CQ')Q = (PP')C(QQ') siendo PP' y QQ' no singula res. De aqui se Jlega a A:::::: C.

4.25.

Demostrar el Teorema 4.17. La demostracion es constructiva, en forma dt; algoritmo.

Paso I.

Reducir A a forma canonica por filas, con entradas principales no nulas a 11 , a 2i,• ... , a,i,·

Paso 2.

lntercambiar C 2 y C1,. C 3 y Ci,· .... y C, y Cj,· Esto proporciona una matriz de Ia forma

B)

J,; d . . ·I ( -0- ,1- 0- , con entra as pnnc1pa es no nul as a 1 1> a 2 2 ,

.•. ,

a,.

Paso 3. Utilizar operacio nes entre columnas. con los a11 como pivotes, para sustituir cada ent rada de B por un cero: csto es. para i = I , 2, . .. , r

efectuar Ia operacion -biiC,

y

j = r

+

I, r + 2, ... , n

+ Ci --+ Cr 1

I 0). La matriz fin al tiene Ia forma deseada: ( -~-:0

TIPOS ESPECIALES DE MATRICES 4.26.

Encontrar una matriz triangular superior A tal que A3 = Tomemos A

=

(0x zy) . E ntonces A

z 3 = 27, por Io que z

Al =

=

Por tanto,

4.27.

19y

=

tiene Ia forma

*)

(x30

13

3. Seguidamente, calculamos A3 usando x

(2 yx2 0 3

3

y)

0 "3

-57, o y

=

(4

= -;- 3.

0

Sy) 9

y

Al =

(20

De acuerdo con esto, A =

2 (0

-57)·

(~ .

27

Asi x 3 = 8, por lo que x = 2;

=

yx4

3

0

- 33)·

Demostrar el Teorema 4.3 iii). Sea AB = (cii). Entonces

.

y

Cu

= Lark bu t=l

2 y z

=

3:

Sy) = (8 19y) 9

0

27

142

ALGEBRA LINEAL

Supongamos que i > j. En tal caso. para cua lquier k, es i > k o k > j, de modo que bien a;k = 0 o bien hki = 0. Siendo asi, c;i = 0 y AB es triangular superior. Supongamos ahora que i = j . Entonces. para k < i, a;k = 0; y para k > i. bk; = 0. Por consiguientc. C;; = aiib;;, como se pretendia.

4.28.

j,Que matrices son simultaneamente triangulares superiores e inferiores? Si A es tanto triangular s uperior como triangular inferior, 'toda entrada fuera de Ia diagonal principal debe scr nula. Por tanto. A es diagonal.

4.29.

Demostrar el Teorema 4.4. i)

(A+ A 1 Y

ii)

(A- A 1 ) 1 = A 1 -(A 1 l=A" - A=-(A-A 1 ).

iii)

Elegimos B

=

A 1 + (A 1 ) 1 =A'/' + A= A+ AT

= i(A + Ar) y C =1

N6tese que no hay otra elccci6n posible.

4.30.

Escribir A =

G~)como

CalculamosA 1 =

(2 7) 3

8

Ia suma de una ma triz simetrica By una antisimetrica C.

.A +A 1 =

l

B =-(A+ A 1 ) =

2

4.31.

Detcrmina. x. y. '· '· t si A

( 4 10) 10

16

yA-AT=

(25 5)8

~ (!

; t)

(0 -4) 4

0

1 C =-(AA1) = 2

. Entonces

(0 -2) 2

0

es ortogonal.

Denotemos por R 1 • R 2 , R 3 las filas de A y por C~' C 2 • C 3 sus columnas. Como R 1 es un vector unitario. x 2 + ~ + %= I ox = ± !.Como R 2 es un vector unitario, ~ + ~ + y 1 = I o y = ±}. Dado que R 1 • R 2 = 0, llegamos a 2x/ 3 + ~ + 2y/3 = 0 o 3x + 3y = -I. La tmica posibilidad es x = t e y = -i. Asi

Como las columnas son vectores unitarios, ~

Por tanto. z = ±~. s = ~.

=

+ l + zl =

1

±3 y r = ±t.

Como C 1 y C 2 son ortogonales. s =

-i; como C

y C 3 son ortogonales, c =

Caso i):

:

Caso ii):

z = -~.Como C 1 y C 2 son ortogo nales, s = ! ;como C 1 y C 3 son ortogonales. c =

1

Por consiguiente. hay exactamente dos soluciones posibles:

A ~(!

i .l 3

2

-3

-!)

u -l) t

y

I

J

2

J

-t

±.

-}.

MATRICES CUADRADAS. MATRICES ELEMENTALES

4.32.

Supongamos que A=(:

143

b) es ortogonal. Probar que a + b = 1 y d 2

2

r

0

Dado que A es ortogonal, sus filas constituyen un conjunto ortonormal. De aqui

ac + bd = 0 Similarmente, las columnas forman un conjunto ortonormal. de modo que ab+cd=O

Por este motive, c 2 = l - a2 = b 2 , de donde c = ±b.

4.33.

Case i):

c = +b. Entonccs b(a +d)= 0 o d = -a; Ia matriz correspondiente es (:

Caso ii):

c = - b. Entonces b = (d - a)= 0 o d = a; Ia matriz correspondiente cs (

_:).

a b)· - b a

Demostrar el Teorema 4.6. Se~n a y h cualesquiera numeros reales tales que a2 + b2 = I. En cse case, existe un numero real (} tal que a = cos (} y b = sen 8. El resultado se obtiene ahara del Problema 4.32.

4.34.

Encontrar una matriz ortogonal 3 x 3, P, cuya primera fila sea un multiplo de u1 = (1, 1, 1) y cuya segunda fila lo sea de u 2 = (0, - 1, 1). Primero hallamos un vector ll3 ortogonal a u 1 y a u2 , como puede ser (el producto vectorial) u 3 = ll 1 x u 2 = (2, - I, - 1). Sea A Ia matriz con filas ll 1 , u 2 y u3 y PIa que se obtiene de A normalizando sus filas. De este modo.

1 A= 0 (2

4.35.

1 -1 -1

y

1/-/3

1/-/3

p =

1/fi)

( 0 -1/fi. 1/fi. 2/fi - 1/Ji rel="nofollow"> - 1/Jf>

Demostrar el Teorema 4.7. Supongamos A=(;

~). Entonces AAT = (:

~)(~

ATA = (:

~)(:

c) (a ++ 2

d =

ac

1

b

ac + bd)

bd

c2

+ d2

Dado que AAr = Ar A , llegamos a

ac + bd = ab + cd

144

A LGEBRA LINEA L

La primera ecuacion conduce a b2 = c 2 ; por tanto, b = c o b

= c (que incluye e1

=

-c.

caso b = -c = 0). Obtenemos Ia matriz simetrica

A=(: :).

Caso i):

b

Caso ii):

b = - c ~ 0. Entonces ac + bd = b(d - a) y ah + cd = b(a- d). Asi b(d- a)= b(a- d) y por tanto 2b(d- a) = 0. Como b ;1: 0, obtenemos a = d. Asi A tiene Ia fo rma ·

que es Ia suma de una matriz escalar y una a ntisimetrica.

MATRICES COMPLEJAS 4.36.

Ia conjugada . . A = (2 +_i. 3 - 5i 4 + 8i) _ . D etermmar de la matnz 6 - 1 2 - 9i 5 + 6i Tomamos cl conjugado de cada elcmento (siendo a

(2 + i 3 - 5i 4 + Si) (2 - i 3 + 5i 4 - Si) 6 - i 2 - 9i 5 + 6i = 6 + i 2 + 9i 5 - 6i

_ A=

4.37.

=

..:F,

Ia traspuesta conjugada de A. Po r tanto, H _

A -

4.38.

2- 3i 5 + 8i) -4 3- 1i . ( -6 - i Si

Hallar A 11 cuando A = AH

+ bi = a - bi):

..

Escnbu A=

(2 - 3i

-4

-6 -

-----

5

+ Si 3 -

5i

7i

j) -_(2 + 3i 5 - Si

- 4 3 + 7i

-6 + -5i

i)

(2 + 6i 5+ 3i) en la forma A = B + C, donde B es hermitica y C anti9-i

4- 2i

hermitica. Comenzamos calculando AH =

(2- 6i 9++ i) 5 - 3i 4

A+AH= (

2i

4 14 +8 4i) 14 - 4i

H

A -A =

l2i

(

4

+ 2i

En consecuencia, las matrices requeridas son B =!(A

2

4.39.

+ AH) =

(

2

7-2i

7

+ 2i) 4

y

I c = -(A 2

AH)

= ( 6i . - 2 +. 2+I

-21

-4 +

-4i

2i)

i)

Definir un conjunto ortonormal de vectores en C" y demostrar el analogo complejo al Teorema 4.5:

Teorema: Sea A una matriz compleja. Las siguientes afirmaciones son equivalentes: a) A es unitaria. b) Las filas de A forman un conjunto ortonormal. c) Las columnas de A forman un conjunto ortonormal.

MATRICES CUADRADAS. MATRICES ELEMENTALES

Los vectores u 1 , u1 , . .. , u, de C" constituyen un conjunto ortonormal si u, ·ui = producto escalar en C" se define segun {a 1 ,

a2, ...

,a..)· (b 1 , b 2 ,

•..

,b..)= a 1 ~ + a 2 b2

oii,

145

don de cl

+ · · · + a.b.

y bij es Ia delta de Kronecker. [Vease Ejemplo 4.3 a).] Denotemos por R 1 , ... , R. las filas de A; entonces .R[, ... , R~· son las column as de A H. Sea AAH = (cij). De acuerdo con Ia definicion de producto matricial, cii = R,RJ' = R,· Ri. En ese caso. AA u = 1 si y solo si R, · R i = lo que se verifica si y solo si R 1 , R 2 , . .. , R. forman un conj unto ortonormal. Asia) y b) son equivalentes. De forma similar, A es unitaria si y solo si A 11 es unitaria, lo que se veri fica si y solo si las filas de A H son ortonormales. para lo que es necesario y suficiente que lo sean las conjugadas de las columnas de A, lo que se da, finalmente, si y solo si las columnas de A son ortonormales. De este modo, a) y c) son equivalentes y queda probado el teorema.

o,i,

4.40.

Mostrar que A

=

l· .l. 2 - 31 (

-fi

)I 2·

_ 1 _ li 3

.

)

.

es umtana.

3

Las filas constituyen un conjunto ortonormal:

(j - ji, ji) . ( t

- ji, ji) = (~ + ~) + &= 1 H - ti, ji) · <- j;, - t - fi) = (~i + ~) + (- ~i- t) = o (- fi, - t- ti) . (- ji, - t - ji) = ~ +
MATRICES CUADRADAS POR BLOQCES 4.41.

Determinar cual de las siguientes matrices es cuadrada por bloques:

A=

2 I' 3 I 4 5 I I 1 I 1I 1 r .. 9 8 I 7 I 6 5 -. .• - .J -· -· I_ - -· -· 3 3 II 3: 3 3 3: 5 : 7 9

2 -

1

I I I I

3 1

4

5

1

1

:6

5

I

I

I I

-· --,-- - r .. - . -

B= 9 8 1 7 I

3 L ........ 3 3 _3__ 3 _ J' .... I I 1 3 I 5 1 7 9 1

Aunque A cs una matriz cuadrada 5 x 5 y una matriz por bloques 3 x 3, los bloqucs diagonalcs segundo y tercero no son matrices cuadradas. Por consiguiente, A no es una matriz cuadra da por bloques B es una matriz cuadrada por bloques.

3 4 5 1 1 1 1 -----------Completar Ia partici6n de C= 9 8 7 6 5 3 3 3 3 3 3 5 7 9 2

4.42.

en una matriz cuadrada por bloques.

----------~

Una de las lineas horizontalcs esta entre las filas segunda y tercera; por tanto, aiiadimos una linea vertical entre las columnas segunda y tercera. La otra linea horizontal esta entre las filas cuan::. y quinta; por consiguiente, aiiadimos una linea vertical entre las columnas cuarta y quinta. (l.ls

146

ALGEBRA LINEAL

lineas horizontales y verticales deben situarse simetricamente para obtener una matriz cuadrada por bloques.] Esto nos conduce a Ia matriz cuadrada por bloqucs

1 2

1 I

3

I I_ ___

!I

_I .JI _I __ I_

1 I

4

5

C= 9 s : 1 : 6 5

-3--3:3: -3--3-

4.43.

Determinar cuales de las matrices cuadradas por bloques siguientes son triangulares inferiores, triangulares superiores o diagonales:

2:0\ ( -~-- 6~ !j 1

A= A

c=

({-f-i- -~\

o: 4 s}.

es triangular superior porque el bloque bajo Ia diagonal es nulo.

B es triangular inferior porq ue todos los bloques sobre Ia diagonal son nulos. C es diagonal porque los bloques sobre y bajo Ia diagonal son nulos. D no es triangular superior ni inferior. Aun mas. ninguna ot ra partici6n de D hara de ella una matriz triangular superior o inferior por bloques.

4.44. Considerense las siguientes matrices diagonales por bloques, ·de las cuales los bloques diagonales correspondientes tienen el mismo tamaiio: y

Hallar: a) M + N, b) kM , c) MN , d) f(M) para un polinomio dado .f(x).

+N =

diag(A 1 + 8 1 , A 2 + 8 2 ,

a)

Nos limitamos a sumar los bloques diagonales: M

b)

Simplemente multiplicamos los bloques diagonales pork: kM = diag(kA 1 , kA 2 ,

c)

Simplemente multiplicamos los bloques diagonales correspondientes: M N = diag(A 1 B 1 , A 2 B 2 •

d)

•.. ,

••• ,

A,+ B,).

kA,).

A,B,)

Determinamos f(A;) para cada bloque diagonal A;. Entonccs f(M ) =diag ({(A 1). f(A 2 } •••. ,f(A,)).

1 2:

4.45.

... ,

Enc6ntrar M 2 , siendo M

=

3 4: ---.... I

-~

5

l.-

I -1- -

: 1

:s

-- -

3

7

Dado que M es diagonal por bloques, elevamos at cuadrado cada bloque:

G~)G !)=C~

10)

22

(5)(5) = (25)

G~)G

~)=(~ ~)

147

MATRICES CUADRA DAS. MATRICES ELEMENTALES

7 10: 15 22:

Entonces M 2

=

- - -- - , 25-

1

-L- -- -: 16 24

I_-

: 40 64

MATRICES SIMETRICAS CONGRUENTES. FORMAS CUADRATICAS

4.46.

Sea A

~ -~ ~~ -~) (

una matriz simitrica. Hallac a) una matdz no singular P tal

que PTAP sea diagonal, esto es, Ia matriz diagonal B a)

= pT AP,

b) Ia signatura de A.

Construimos primero Ia matriz por bloques (A l I):

1 - 3 (A i /) =

(

-

3 2

7 -5

2

0

I

i0

- 5 8

I

1 0

0

Efectuamos las operaciones entre filas 3R 1 + R 2 -+ R 2 y - 2R 1 + R 3 -+ R 3 sobre (A l /) y luego las correspondientes operaciones entre columnas 3C 1 + C 2 -+ C 2 y -2C 1 + C 3 -+ C3 so bre A para obtener 0 I 1 0 1 0 0 1 -3 2 : 1 I

(

0 0

-2 1

y despues

1

1 : 3 4 : -2

(

0

0 0

- 2 1

.A continuacion efcctuamos Ia operacion entre filas R 2 + 2R 3 diente operacion entre columnas C 2 + 2C 3 -+ C 3 o bten iendo

(~ -~ ~ ! -:

~)

0

1 : 3 4:-2 -+

0

R 3 , seguida de Ia correspon-

(~ -~ ~~ !_:

ydo.pui s

~)

0

~)

Se ha diagonalizado A. Tomamos

3-1)

b) B tiene p

=

1

1

0

2

0

-2

y entonces

0

2 elementos diagonales positives y n

=

,~)

l negative, de donde sig A = 2 - I

=

I.

fO RMAS CUADRATICAS

4.47.

Deterrninar Ia forma cuadratica q(x, y) correspondiente a Ia rnatriz simetrica A = q(x,

y) = (x, y{ -~ = 5x 2 -

-~)(;) = (5x- 3y, -3x + 8y{;) =

3xy - 3xy +

8y

2

= 5x 2 -

6xy

+

8y

2

( 5 -38). - 3

148

ALGEBRA LINEAL

4.48.

Hallar Ia matriz simetrica A que corresponde a Ia forma cuadnitica q(x, y, z)

=

3x2

+ 4xy - y2 + 8xz -

6yz

+ z2

La matriz simetrica A = (a;) que representa q(x 1 • •.. , x") tiene Ia entrada diagonal aii igual al coeficiente de xf y las cntradas aii y aii iguales a Ia mitad del coeficiente de x; xi. Por tanto,

A~G =: -:) 4.49.

Encontrar Ia matriz simetrica B, asociada a Ia forma cuadratica: a) q(x, y) a)

= 4x 2 + Sxy -

7y 2

b) q(x, y, z)

y

= 4xy + 5y2

1 ) . (La division por 2 puede introducir fracciones incluso aunque los coefi(~ -7

Aqu; B =

2

cientes en q sean enteros.) b)

A pesar de que solo X e y aparecen en el polinomio , Ia ex presion q(x, )', z) indica que hay tres varia bles. En otras palabras, q(x, y, z) = Ox2

+ 4xy + 5y 2 + Oxz + Oyz + Oz2

Asi

4.50.

Considerense Ia forma cuadra tica q(x, y) = 3x 1 + 2xy - y 1 y Ia sustituci6n lineal x = s - 3t. y = 2s + t. Reescribir q(x, y) en notaci6n matricial y hallar Ia matriz A que representa Ia forma cuadnitica. b) Reescribir Ia sustituci6n lineal empleando notaci6n matricial y encontrar Ia matriz P correspondiente a Ia sustituci6n. c) Hallar q(s, t) utilizando sustitucion directa.

a)

d)

Hallar q(s, t ) usando notacion matricial.

a)

Aqui q(x, y) = (x,

e Y

= (s,

)(x)·

1

- 1

Por tanto, A = (

y

G) =G-~)(;}

b) Tenemos

c)

y)(3I

3 I

De este modo, P =

1 ) - 1

yq(X) = XT AX, dondc X = (x, yl.

C -3) 1

y X= PY, donde X= (x, y)T

t)T.

Sustituimos x e y en q obteniendo q(s, t)

= 3(s =

3(s

2

+ 2(s - 3tX2s + t) - (2s + t)1 6st + 9t2 ) + 2(2s2 - Sst - 3t 2 ) - (s 2 + 4st + e) = 3s2

3t)2 -

-

31st + 20t 2

MATRICES CUADRADAS. MATRICES ELEMENTALES

d)

Aqui q(X) = XT AX y X = PY. Siendo asi,

xr =

yTpTAPY = (s,

t{ _!

q(s, t)

= q(Y) =

= (s,

t{ _! -~~)(;) 1

1

= 3s

149

yT pT_ Por consiguiente,

~)G _:X~ -~X;)= 32st

-

+ 20t 2

[Tal y como cabia esperar, los resultados en c) y d) son iguales.)

4.51.

Sea L una sustituci6n lineal X = PY, como en el Problema 4.50. a)

~Cuando

b)

Describir una ventaja esencial de una sustituci6n ortogonal sobre una no singular.

c)

~Es

a)

Se dice que L es singular u ortogonal segun lo sea Ia matriz P que Ia representa.

b)

Recordemos que las columnas de Ia matriz P, que representa Ia sustituci6n lineal, introduccn un nuevo sistema de referencia. Si P es ortogonal, los nuevos ejes son perpendiculares y tienen las mismas unidades de longitud que los originales.

c)

4.52.

es L no singular?, i.S ortogonal?

Ia sustituci6n lineal del Problema 4.50 no singular?, ~y ortogonal?

3 ) cs no singular, pero noes ortogonal; en consecuencia, Ia sustituci6n 2 1 lineal es no singular, pero no es ortogonal. La matriz P

= (

1

-

Sxz- 12yz + 9z 2 . Encontrar una sustituci6n lineal no singular que exprese las variables x, y, z en terminos de las r, s, t, de forma que q(r, s, t) Sea q(x, y, z) = x 2

+ 4xy +

3y 2

-

sea diagonal. Asimismo, hallar la signatura de q. Formamos Ia matriz por bloques (A i I), siendo A Ia matriz que reprcscnta Ia forma cuadratica:

(A

i /) =

(

~

2

-4

3

-6

1 0

-4 -6

9

0

I

~)

0

1 0

Efectuamos -2R 1 + R 2 -+ R 2 y 4R 1 + R 4 --> R 3 y las correspondientes operaciones entre columnas y a continuaci6n 2R 2 + R 3 "-> R 3 y Ia operacion entre columnas asociada para llegar a 0

(:

-1 2

o: 2: - 2 -7: 4

0

0

0 -1

0

0

1 y luego

(

0

01

0

0:-2 -3

1

0

2

~)

De este modo, Ia sustitucion lineal x = r - 2s, y = s + 1t, z = t proporcionara Ia forma cuadratica q(r, s, t) = r 2

Ademas, sig q

4.53.

=

1- 2=

-

-

s2

-

3t 2

1.

Diagonalizar Ia siguiente forma cuadn\.tica q mediante el metoda conocido como «completar el cuadrado»: q(x, y)

= 2x 2

12xy

-

+ 5y2

Comenzamos sacando como factor comun de los terminos en x 2 y xy el coef:iciente de x 2 : q(x, y)

=

2(x2

-

6xy)

+ Syl

150

ALGEBRA LINEAL

Acto seguido, completamos el cuadrado entre pan!ntesis s umando un multiple apropiado de y 2 • restando despues Ia cantidad correspondicntc fuera de los parentesis. Con esto conseguimos q{x, y) = 2(x 1

6xy

-

+ 9y1 ) + 5y1

l8y 2 = 2(x - 3y)2

-

13y2

-

(El - 18 proviene del hecho d e que el 9y 2 dentro de los parentesis se multiplica por 2.) Sean s = x- 3y, t = y. En tal caso, x = s + 3t, y = t. La sustituci6n li.neal conduce a Ia forma cuadratica q(s, t) = 2s2 - 13t 2 .

FOR\1AS CUADRATICAS DEFINIDAS POSITIVAS

4.54.

Sea q(x, y. z) = x 2

+ 2y2

4xz- 4yz

-

+ 7z 2 • i,Es

q definida p ositiva?

Diagonalizamos (bajo congruencia) Ia matriz simetrica A asociada a q (efectuando 2R 1 + R 3 -+ R 3 y 2C 1 + C 3 --> C 3 y luego R 2 + R 3 -+ R 3 y C 2 + C 3 ....,. C 3 ):

A

=(

~ ~ =~)-+ (~ ~ -~)-+ (~

-2

-2

7

0

-2

3

~)

0 2 0

0

La representacion diagonal de q solo contiene entradas positivas. I, 2 y I, en Ia diagonal, luego q es definida positiva.

4.55.

Sea q(x, y, z) = x 2

+ l + 2xz + 4yz + 3z 2 .

(,Es q definida .positiva?

Diagona lizamos (bajo congruencia) Ia matriz simctrica A correspondiente a q:

0

~)-+(~ ~ ~)

0 1 2

1

2

2

0

0

-2

Hay una entrada negativa, - 2, en Ia representaci6n diagonal de q. por lo que q no es dcfinida positiva.

4.56.

Probar que q(x. y)

D=b

1

-

=

ax2

+ bxy + cy2

es definida positiva si y solo si el discriminante

4ac < 0.

Supongamos v = (x. y) i= 0, digamos y i= 0. Sea t = x ;y. Entonces

De cualquier modo, s = at 2 + bt + c esta par encima del eje x. es decir, es positivo para cualquier valor de t si y solo si D = b 2 - 4ac < 0. Sicndo asi, q es definida positiva si y solo si D < 0.

-t57.

Determinar que fo rma c_u adratica es definida positiva: a) a)

Metodo 1.

q(x, y)

= x2 -

=

+ 5y2

b)

q(x, y)

= .x 2 + 6xy + 3y2

Diagonalizamos completando el cuadrado: q(x, y) = x 2

donde s

4xy

x - 2y, t

=

-

4xy

+ 4y1 + 5y1

-

4y1 = (x - 2y) 2

y . Asi q es definida positiva.

+ y2

=

s2

+ t2

MATRICES CUADRADAS. MATRICES ELEMENTALES

Metodo 2. Calculamos el discriminante D = b 2 defi nida positiva. b)

Metodo L

-

4ac = 16 - 20

=

151

-4. Siendo D < 0, q es

Oiagonalizamos completando el cuadrado: q(x, y) = x 2 + 6xy + 9y 2 + 3y2

-

9y 2 = (x + 3y)2

-

6y 2

= s2 -

6t 2

donde s = x + 3y, t = y. Como - 6 es negativo. q no es definida positiva. Metodo 2. Cafculamos D = b 2 - 4ac = 36 - I 2 = 24. Siendo D > 0, no es definida positiva.

4.58.

Sea B una matriz no singular arbitra ria y sea M = BT B. Demostrar que: a) M es simetrica, b) M es defin ida positiva.

= BT B "~' = 1

= M;

a)

Mr = (BT Bf

b)

Dado que B es no singular, BX '# 0 para todo X E R" no nulo. En consecuencia, el producto escalar de BX por el mismo, BX · BX = (BX)r (BX ), es positivo. Asi q(X)

=

Br B

XTMX

=

por consiguiente, M es simetrica.

Xr(BTB)X = (XTBTXBX) = (BX)r(BX) > 0

De este modo, M es definida positiva.

4.59.

Demostrar que q(X) = II XII 2 , el cuadrado de Ia norma de un vector X , es una forma cuadratica definida p ositiva. Para X = (x 1, x 2 , ... , x,) tenemos q(X) =xi+ x~ + ... + x;. Ahora bien, q es un polinomio con todos los terminos de grado dos y esta en forma diagonal con todas sus entradas positivas. Por tanto, q es una forma cuadratica definida positiva.

4.60.

Demostrar que las dos definiciones siguientes de forma cuadratica d efinida positiva son equivalentes: a)

Las entradas diagonales son todas positivas en cualquier representaci6n diagonal de q.

b)

q(Y) > 0 para todo vector no nulo Yen R".

yi

Supongamos q(Y) = a 1 yi + a 2 + ... + a.x~. Si todos los coeficientes a; son positivos, ciara· mente q(Y) > 0 para todo vector no nulo Yen R", de modo que a) implica b). Reciprocamente, supongamos ak < 0. Sea ek = (0, ... , I, .. . , 0) el vector cuyas entradas son todas 0 exceptuando un 1 en Ia k-esima posicion. En tal caso, q(ek) = ak < 0 para ek '# 0. Asi b) implica a). De acuerdo con esto, a) y b) son equivalentes.

SIMILARIDAD DE MATRICES 4.61.

Considerese el plano R 2 con los ejes usuales x e y. La matriz 2 x 2 no singular

P=(_;

D

determina un nuevo sistema de coordenadas en el plano, digamos con ejes s y t. (Vease Ejemplo 4.16.)

a)

Trazar los nuevos ejes s y r en el pla no R 2 •

b)

Hallar las coordenadas de Q( 1, 5) en el nuevo sistema.

152

ALGEBRA LINEAL y

4

s

Figura 4-2. a)

Trazamos el eje s en Ia direccion de Ia primera columna u 1 = {1, -J)T de P con unidad de longitud igual a Ia longitud de u 1 • De forma similar, trazamos el eje t en Ia direccion de Ia segunda columna u2 = (3, 2)T de P con unidad de longitud igual a Ia lo ngitud de u2 . Vease Ia Figura 4-2.

b)

Encontramos

p-I =(! -;)

usando, por ejemplo, Ia formula para Ia inversa-de una ma-

triz 2 x 2. Luego m ultiplicamos eJ vector (columna) de coordenadas de Q por P- 1 :

Asi Q'(-.If,

4.62.

Definase f: R 2

1) representa Q en el -+



nuevo sistema

R 2 segun f(x , y) = (2x - 5y, 3x

f

+ 4y).

a)

Utilizando X = (x, y)r, escribir tal que f(X) = AX.

b)

Refiriendose a los nuevos ejes coordenados s y t de R 2 introducidos en el Problema 4.61 y usando Y = (s, t)T, hallar f(s , t) encontrando primero la matriz B tal que f(Y) = BY.

a)

Aqui

b)

Calculamos B =p-I AP

1(:) G -5)(x) (!

Asi f(s, t)

=

y ; por consiguiente, A

4

= (l'fs- ¥-c.

en uotaci6n matricial, esto es, hallar la matriz A

=

~s

+ .1ft).

=

(2

3

-~). E ntonces

MATRICES CUADR ADAS. M ATR ICES ELEM ENTALES ·

4.63.

153

Considerese el espacio R 3 con los ejes x, y, z usuales. La matriz 3 x 3 no singular

P~H -~

-;)

determina un nuevo sistema de coordenadas para R\ digamos con ejes r, s, 1. [Aiternativamente, P define Ia sustituci6 n lineal X= PY, donde X = (x, y, z)r e Y = (r, s, tf.] Hallar las coordenadas del punto Q(l, 2, 3) en el nuevo sistema . Empezamos calculando P forma can6 nica por lilas:

M ~H

1

Construimos Ia mat riz por bloques M = (P i I) y Ia reducimos a



-2 2 - 5 2 3

-(~ -(~

I

l

0

0 0

l

-2 II 1 -2 : 2 I 0 l I I

0

0 II -9 01I 4

-7

I

0

1 :

-7

-~)

3

0

~)-(~ ~)- (~

0

3

1

3

-2:

2

I

3: - 1

0

I

0 0

2 3

0

1

- I

3

~) :) -

0

- 2: I I

3 4

I

~:)

De acuerdo con esto,

p-1 =

(-9

~

3 1

Siendo asi, Q'(

4.64.

-47.

-7 y

3

-4)(1) (-47) 2

2 =

1

3

16 6

16, 6) representa Q en el nuevo sistema.

Definase f: R 3 --+ R 3 segun f(x, y, z)

= (x + 2y -

3z, 2x + z, x - 3y + z)

• y sea P Ia matriz no singular de cambio de variables del Problema 4.63. [De este modo, X = PY, siendo X = (x, y, z)T e Y = (r, s, tf.] E ncontra r: a) Ia matriz A tal que f(X) =AX, b) Ia matriz B tal que f(Y) =B Y, c) f(r, s, £). a)

Los coelicientcs de x, y y : proporcio nan Ia matriz A:

{)~(i b)

2 0

- 3

-:)(;)

y po r tanto

A ~(:

2 0

-3

-:)

B es similar a A con respecto a P, esto es,

-~~ -~~) 15

-11

154

ALGEBRA LINEAL c)

Utilizamos Ia matriz B para llegar a

f(r, s, t) = (r- 19s + 58t, r

4.65.

12s - 27t, 5r + l5s- llt)

+

Sup6ngase que B es similar a A. Mostrar que tr B

= tr A.

Siendo B similar a A, existe una matriz no singular P tal que B rema 4.1, tr 8

=

p - t AP. Utilizando el Teo-

tr p - 1 AP = tr PP- 1 A = tr A

=

FACTORIZACION LV

4.66.

~

=(

Encontrar Ia factorizaci6n LU de A

3

5 -2

-3

Reducimos A a forma triangular por medio de las operaciones - 2R 1 + R 2 ->R 2 y 3R, + R 3 -+ R 3 :

+ R 3 ->R 3

y luego 7R 2

1 A- 0 (

.

0

3 -1 7

2) (1 3

2 13

0 0

-1 0

Empleamos los opuestos de los multiplicadores -2, 3 y 7 de las operaciones entre filas precedentes para construir Ia matriz L, y Ia forma triangular de A para conseguir Ia matriz U: esto es,

L=( -3~

~)

0

1

-7

y

1

3

U= 0

-1

(0

0

(Como comprobaci6n, multipliquense L y U para verificar que A

4.67.

=

LU.)

Hallar Ia factorizaci6n LDU de Ia matriz A del Problema 4.66. La factorizaci6n A = LDU sc refiere a Ia situacion en Ia que L cs una matriz triangular inferior con unos en Ia diagonal (como en Ia factorizad6n LU de A), D una matriz diagonal y U una matriz triangular superior con unos en Ia diagonal. De este mod o, bastara sacar com o factores las entradas diagonales de Ia matriz U en Ia factorizaci6n LU anterior para obtener las matrices D y U. Por consiguiente,

L~( 4.68.

:

-3

0 1

-7

;)

Hallar Ia ractorizaci6n L U de B

D~(~ ~ ~ (

-5

0 -1

0

4 8

-9

~)

-/,

-3)

1 .

7

u~(~

3 1

0

-~)

MATRICES CUADRADAS. MAT RICES ELEMENTA LES

Red ucimos B a fo rma triangular efectuand o primero las operacioncs - 2R 1 5R 1 + R 3 --+ R 3 :

155

+ R 2 --+ R 2

y

4-3) 0

7

11 -8 Obscrvese que Ia segunda entrada diagonal es 0. Siendo asi, B no podni llevarse a forma triangular sin operaciones de intercambio de filas. Dicho de otro modo. B no es factorizablc L V.

4.69.

Enconuar Ia factorizaci6n LU de

A ~ (f

~)

2 -3 3 -8 3 8

1 -I

por un mttodo directo.

13

Comenzamos por construir las siguientes matrices L y V:

0

L+' La

p~rte

131

Ill

/41

l.n

0 0 0 l 0 1,3 1

")

V=

y

r~·

uu uu u22 un 0 u3J 0 0

0 0

"") Uz•

U34

u,.

del producto L V que determina Ia primera fila de A conduce a las cuatro ecuaciones

u13 = -3 y Ia que determina Ia primera columna a las ecuaciones 0

Llegando a este punto, las matrices L y V presentan Ia fo rma

L~(i

0 0

0 0

132 142

143

~)

U

y

=

("

-3 Uz3

0 Uzz 0 0 0 0

U33

0

.:.) U34 U44

La parte del producto LV que determina el resto de las entradas en Ia segunda fila de A proporciona las ecuaciones 0

4 + u21 Uzz

= 3 = -1

- 6 + u23 = -8 Uz3

8 + u 24 =

= -2

U 24

5

= -3

y Ia que determina el resto de las entradas de Ia segunda columna nos !leva a

2 + l32 u22 = 3,

6 + 142 Uzz = 8

0

131 =-1,

142

= -2

De este modo, L y V tiencn ahora Ia forma

L~(i

0 1

0 0

-1

-2

l.,

;)

y

u~(~

2 -1

0 0

-3 -2 u33 0

4)

-3

u34

U44

156

ALGEBRA LINEAL

Continuando con Ia tercera fila, tercera columna y cuarta fila de A obtenemos t/33

= 2,

despues

t/34 = - 1,

/43

= 2,

y, por ultimo,

t/44

=3

Asi

L~(i 4.70.

0

0

1

0

-1

1

-2

2

~)

-3

_;)

- ( 0 . -12 -2 u- 0 0 2 - 1 0 3 0 0

y

Hallar Ia factorizaci6n LDU de Ia matriz A del Problema 4.69. Aqui U debe tener unos en Ia diagonal y D ser una matriz diagonal. Asi, usando Ia factorizaci6n LU precedente, sacamos como factores las entradas diagonales de aquella U llegando a

D{

-1 2

J

u{

y

2

-3 2

-;)

La matriz L coincide con Ia del Problema 4.69.

4.71.

Se da Ia factorizaci6n A = LU, donde L = Clu) y U = (uii). Considerese el sistema AX= B. Se pide determinar: a) ei algoritmo para encontrar L - t B, b) el _algoritmo que resuelve UX = B via sustituci6n hacia atnis. a)

La entrada lij de Ia matriz L corresponde a Ia operaci6n elemental entre filas - lijRi + Ri-+ Ri. Por e!lo, el algoritmo que transforma B en B' es: Afgoritmo P4.88A: Eva/uaci611 de L -lB. Paso I.

Repetir para j

Paso 2.

=

I a

11 -

Repetir para i = j

I:

+

I a

11:

b/= -lub; + bi [Fin del bucle interne Paso 2.] [Fin del bucle externo Paso 1.] Paso 3.

Salir.

[La complejidad de este algoritmo es C(n) ~ b)

11

2

/ 2.]

El algoritmo de sustitucion hacia atnl.s es el que se ex pone a continuaci6n: Afgoritmo P4.88B: Sustituci6n hacia atras para el sistema U X =B. Paso I. Paso 2.

x.

= b.fu••. Repetir para j

Paso 3.

Salir.

= 11-

I, n - 2, ... , I

xi= (bi - uj.j + lxi+ 1

-

[Tambien aqui Ia complejidad es C(n);::;

... -

1!

2

uinx.)fuii

/2.]

MATRICES CUADRADAS. MATRICES ELEMENTALES

4.72. Encontm Ia factorizaci6n

L U de Ia matriz A

~(

~)·

2 3 -10

;

-3

157

Reducimos A a forma triangular mediante las operaciones I.

2.

-2R 1 +R 2 -+R 2 ,

A-(~ L~( ~

Por tanto.

- 3

0

1

4

2 -1

-4

~)

3R1

+ R 3 -+ R3 ,

!)-(~ y

3.

2 -1 0

u~(~

-4R 2 + R 3 -+ R 3

;) 2 -1

0

;)

Las entradas 2, - 3 y 4 de L son los opuestos de los multiplicadores en las operaciones entre filas precedentes.

4.73.

Resolver el sistema AX= B para B 1 , B2 y B 3 , donde A es Ia matriz del P roblema 4.72 B 2 = B 1 + X 1 , B3 = B 2 + X 2 (aqui Xi es Ia soluci6n cuando B =B).

y B 1 = (1, 1, 1),

a)

Calculamos L - t 8 1 o, equivalentemente. efectuamos las operaciones entre lilas (I), (2) y (3) sobre B 1 , Io que nos conduce a

Resolvemos U X= 8 para 8 = (1 , - I, 8)r por sustituci6n hacia atras obteniendo X 1 =

(-

25, 9, 8l.

b)

Hallamos 8 2 = 8 1 +X 1 = (1, I, 1) + ( - 25, 9, 8) = ( - 24, 10, 9). Efectuamos las operaciones (I), (2) y (3) sobre 8 2 llegando a ( - 24, 58, -63)r y luego a B = (-24, 58, - 295)r. Resolvemos U X = B por sustituci6n hacia atnis obteniendo X 2 = (943, -353, - 295).

c)

Calculamos 8 3 = 8 2 + X 2 = (-24, 10, 9) + (943, - 353, - 295) = (9 19, - 343, - 286). Efectuamos las operaciones (1), (2) y (3) sobre 8 3 llegando a (919, -2 187, 267l)r y despues a B = (9 19, - 2181, 11 .395)T. Resolvemos UX = B por sustituci6n hacia atnis obteniendo X 3 = ( - 37.628, 13.576, 11.395).

PROBLEMAS SUPLEMENTARIOS ALGEBRA DE MATRICES 4..:"4.

-s.

..&...

Sea A =

G~}

Calcular A" .

Sup6ngase que Ia matriz 2 x 2 B conmuta con cualquier matriz 2 x 2 A. Probar que B = para algun escalar k, es decir, 8 cs una matriz escalar.

(~ ~)

158

ALGEBRA LINEAL

~.76.

Sea A a)

4.77.

~.78.

=(5

2) , , d eI po ,.momw . k . Encontrar todos los numeros k para los que A es una ratz

0

f(x) = x 2

Sea B = ( I 26

+ 10,

7x

-

0 ). Hallar una matriz 27

(

0

0

0

-

25,

~ tal que A

3

c)

h(x ) = x 2

-

4

= B.

110

0 l 0 0) 0010

Sean A =

g(x) = x 2

b)

y (o B =

1

1). Calcular: a) A" para todos los enteros positives n.

1

° n.

01

0000

b) B" para todos los enteros positivos 4.79.

Imponer sobre las matrices A y B las condiciones necesarias para que A 2

:\'~ATRICES

4.80.

Hallar Ia inversa de cada una de las matrices:

3 8 7

-~

' b)

1

~

2 2

-1) ('

-~

' c)

-2 -3

~

!)

2

1 0

1

0

0

1

i)·b)(t

-1

3 4

1

-2

-~)

Expresar cada una de las siguientes matrices como producto de matrices elementales: a)

b) (

4.83.

-2) (2

Hallar Ia inversa de cada una de las matrices:

a)(~ 4.82.

B 2 = (A+ B )(A - B).

INVERTIBLES. INVERSAS. MATRICES ELEMENTALES

a)(: 4.81.

-

-~

(~

!).

- :).

2 0) 1 3 8 1

como producto de matrices elementales.

4.84.

Sup6ngase que A es invertible. Demostrar que si A B = AC, necesariamentc B de una m at riz no nula A tal que AB = AC pero B =f. C.

4.85.

Si A es invertible, demostrar que k A es in vertible para k =f. 0. con in versa k - 1 A -

4.86.

Sup6ngase qne A y B son invertibles y que A necesariamente invertible.

+ B =f. 0.

= C.

Dar un ejemplo

1.

Probar, con un ejemp lo, que A

+B

no es

159

MATRICES CUADRADAS. MATRICES ELEMENTALES

TIPOS ESPECIALES DE MATRICES CUADRADAS 4.87.

Utilizando solo los elementos 0 y I, hallar todas las matrices triangulares superiores 3 x 3 no singulares.

4.88.

Utilizando solo los elementos 0 y I, determinar el numero de: a) matrices diagonales 4 X 4, b) matrices triangulares superiores 4 x 4, c) matrices triangulares superiores 4 x 4 no singulares. Generalizar el resultado a matrices n x n.

4.89.

4.90.

=(~

Encontrar todas las matrices reales A tales que A 2 = B, donde: a) 8

Sea 8

=

(~

:

~).

~~), b) 8 = ( ~

_ ;) .

Hallar una matriz A con entradas diagonales positivas tal que A 2 = B .

0 0 4 4.91.

Supo ngase A8 = C, siendo A y C triangulares superiores. a)

Demostrar, con un ejemplo, que B noes necesariamente triangular superior, ni siquiera cuando A y C son matrices no nulas.

b)

Demostrar que B es triangular superior cuando A es invertible.

4.92.

Probar que AB no es necesariamente simetrica incluso en el caso de que A y 8 io sean.

4.93.

Sean A y B matrices simetricas. Demostrar que A8 es simetrica si y solo si A y B conmutan.

4.94.

Supongase que A es una matriz simetrica. Pro bar que: a) A 2 y, en general, A" son simetricas; b) .f(A) es simetrica para cualquier polinomio f(x); c) pr APes simetrica.

4.95.

Encontrar una matriz ortogonal 2 x 2 P cuya primera fila sea a) (2/f o, 5/}29), b) un multiplo de (3, 4).

4.96.

Hallar una matriz ortogonal 3 x 3 P cuyas dos primeras lilas sean multiplos de a) (1 1 2, 3) y (0, - 2, 3), respectivamente; b) (I, 3, I) y (2, 0 , - I), respectivamente.

4.97.

Supongase que A y 8 son ortogonales. Probar que AT, A - 1 y AB tambien lo son.

4.98.

(.Cmiles de las siguientes matrices son normales?

A=(!

4.99.

3 ,

3 ,

1 1 0

:).v~(: 2 -1

1

-3

-1

~)

Supongase que A cs una inatriz normal. Demostrar que: a) AT, b) A 2 y, en general, A", c) B = kl +A tambien lo son.

.1.100. Unz m"dz ~101.

-4) . B=G -2) c~G

E" ;d''"P"""" •i E'

~

E. Pwb" qo'

~

E (-:

-2 3

-4) 4

- 2 - 3

Demostrar que si AB = A y BA = B, entonces A y B son idempotentes.

es idempotente.

160

ALGEBRA LINEAL

4. 102.

U na matriz A es nilpotence de clase p si AP = 0 pero AP- I

~ 0.

~

Pro bar que A = (

1 2

-2 -1 es nilpotente de clase 3.

4.103.

Sup6ngase que A es nilpotente de clase p. Probar que Aq = 0 para q > p pero A q ~ 0 para q < p.

4. 104.

U na matriz cuadrada es tridiagonal si las entradas no nulas aparecen unicamente en Ia diagonal situada directa mente sabre Ia d iagonal principal (en Ia superdiagonal), o directamcnte bajo Ia diagonal principal (en Ia subdiagonal). Exhibir las matrices tridiagonales genericas de ordenes 4 y 5.

4. 105.

Pro bar que el producto de matrices trid iagonales no es necesariamente tridiago nal.

MATRICES COMPLEJAS 4.106.

Encontrar tres nLlmeros reales x, y y z tales que A sea hermitica, siendo a)

X+ yi ))

A =

b)

( 3 + zi 0 '

A = (3

~ 2i ~

2

X

1:

j

1- xi

yi

zi)

-1

4.107.

Supongase que· A es una matriz compleja arbitraria. Demostrar que A AH y AH A son ambas hermiticas.

4.108.

Sup6ngase que A es cualquier matriz compleja. Demostrar que A + An es hermitica y que A - AH es antihermitica.

4.109. l,Cuales de las siguientes matrices son unitarias?

A- (

i/2

- j3;2

4.110.

4.11 1.

-J3f2) - i/2 '

B

=

(1 + i 1- i) 2 l - i I +i '

~

1 C= 2(

- i

1 . I

1+ i

- 1+i

i)

-1 + l+i 0

Sup6ngase que A y B son matrices unitarias. Proba r que: a) AH es unita ria, b) A c) AB es unitaria.

L

es unita ria ,

l .) , B = ( 1 . 0) Determinar cmi les de las siguientes matrices son normales: A = ( 3 +. 4i . . I 2 + )J I- I !

4.112.

Sup6ngase que A es una matriz no rmal y U una unitaria. Probar que B = normal.

4.113.

Recuerdense las siguientes operaciones elem entales entre filas:

[E 1 ]

R 1 +-> R1 , [E 2 ]

kR1 --> R 1 ,

k

~

0, [E 3 ]

uuAU

es tambien

kR1 + R1 --> R1

Para matrices complejas, las respectivas operaciones entre columnas hermiticas correspond ientes son: [GtJ C 1 +-> C1 , [G 2] kC1 --> C 1, k # 0, [G3] kC1 + C1 -> C, Demostrar que Ia matriz elemental correspondiente a [G1] es Ia traspuesta conjugada de Ia ma triz elemental asociada a [E1].

MATRICES CUADRADAS. M ATR ICES ELEMENTALES

161

MATRICES CUADRADAS POR BLOQUES 4.114.

Usando lineas verticales, completar Ia partici6n de cada una de las siguientes matrices pa ra que sea una matriz cuadrada por bloques:

-~ . -}-i -{--~-)

(

A= 9 8 2 2 3 3

7 6 2 2 3 3

5 , 2 3

B

=

-- -- ~-- ----

4.1 15.

(

~--~- ~-;- -:_

9 8 7 6 5

- -- -- -- -- -i

2 2 2 2 3 3 3 3 3

Partir cada una de las siguientes matrices para convertirla en una matriz d iagonal por bloques. con Iantos bloques diagonales como sea posible:

A~(~

0 0 0

1 3 B= 0 0 0

~)·

2 0 0 0 0 0 0 4 0 0 5 0 0 0 0

0 0 0 0 6

c -(~ ~) 1

0 2

Calcular M 2 y M 3 para cada matriz M:

4.JI6.

a}

0'0) M~ (''0 m~D.

M

b)

~ ;_;_!_~_ -~) (

0 0 :1 2 o o:4 5

o . o 0,3

Sean M = diag(A 1, •••• Ak) y N = diag(B 1, ••• , Bk) matrices diagonales por bloques, donde cada par de bloques A;, B; tienen el mismo tamaiio. Pro bar que M N es d iagonai po r bloques y que

4.117.

MN = d iag (A 1 8 1 , A 2 B 2 ,

••• ,

AkBd

VIATRICES REALES SIMETRICAS Y FORMAS CUADRATICAS

4.1 18.

Sea A = (

.

~ ~ =~ =:).

-2 -3

- 5 - 1

6 9

9 11

Hallar una matriz no si ngular P tal que B

=

p-r AP sea diagonal.

.

Asimismo, determinar B y sig· A. 4.119.

Para cada forma cuad ratica q(x, y, z). encontrar una sustitucio n lineal no sin gular que exprese las variables x, y, z en lerminos de variables r. s. t tales que q(r, s, r) sea diagonal. a)

q(x, y, z) = x 2

+ 6xy + 8y2 -

b)

q(x, y, z) = 2x

2

-

3y2

4xz

+ 2yz -

9z 2 .

+ Sxz + 12yz + 25z2 .

162

ALGEBRA LINEAL

4.120.

Encontra r aquellos valo res de k para los que Ia fo rma cuadra tica dada es definida positiva:

a)

b) c)

+ ky 2 • 2 q(x, y) = 3x2 - kxy + l2y • 2 2 2 q(x, y, z) = x + 2xy + 2y + 2xz + 6yz + kz . q(x, y) = 2x

2

-

5xy

=0y

= 0 pero q(u + v) =I 0.

4.121.

Dar un ejemplo de un a forma cuad nitica q( x, y) tal que q(u)

4.122.

Demostrar que cualquier matriz real simetrica A es congrue nte a una matriz diagonal en Ia q ue cada ent rada diagonal es 1, ~ I 6 0.

4.123.

Demostra r que Ia congruencia de matrices es una relaci6 n de equivalencia.

q(v )

SIMILARIDA[) DE MATRICES

4.124.

Considerese el espacio R 3 con los ejes x, y, z usuales. La ma triz no singular P =

(~ =~ =~) 1

dett!rmina un nuevo sistema de coordenadas pa ra R3 , digamos con ejes r. s.

4.125.

a)

Las coordenadas del punto Q (l, I , I ) en el nuevo sistema.

b)

f( r. s, t) c uando f (x, y, z) = (x

z).

c)

g(r, s, t) cuando g(x, y, z)

2x

=

+ y, y + 2z. x (x + y- z. x- 3z.

t.

1

-7

Hallar:

+ y ).

Demostr a r qut: Ia similaridad de matrices es una relaci6 n de equivalencia.

FACTORIZACION LV 4.126.

Hallar las factorizaciones L V y LDU de cada matriz:

a)

4.127.

A~(i

3

5 4

-1)

1 ' 2

b)

·~(~

A ~ (~

a)

Encontrar Ia factorizaci6 n L U de A.

b) Den6tese por Bt - 1 = Bt

:)

-1)

s"

- 1

- 4 -3

3 7 5

-2 . -2

xk Ia soluci6n de

+ Xt

para k > 0.

AX= Bk. Calcular XI, X 2, X J,

x4

cuando Bl = (1, I,

ll

y

MATRICES CUADRADAS. MATRICES ELEMENTALES

163

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS

4.74.

G~)

4.76.

\a) k = 2,

4.77.

G~)

b) k

=

-5,

c)

ninguno.

A'~(~ ~ H°) ' ~ (HH' A' ~ 0

4.78.

a)

b)

~~ ~

5

-I)

0 0 1)

0 1

A'

(

0 pa" k> 3;

n n(n

10

-~ 1)/ 2)

4.79. . AB = BA.

4.80.

4.81.

4.82.

!.1 l

a)

(-1 -!)·

.a)

(~

-

~ -2

-1 0 1 - 1 0 0

a) ( • 0)(1 3 1 0

0

_

( 8-3 -5 10

2 -4

r-IO-

-~}

- 1)(1 1 0

tiene inversa.

b)

o) 2

-I)

1 ' -1

o) I

.

- 21l 6 8

\

2

3

0

(1 Oxl 3 0 0

4 -1 - 2

c)

(-8-i

t -! -t t

') -2 -3

- 1 - 1

_ Oxl 2 0

2)1 .

b)

No hay tal producto: Ia matriz no

164

ALGEBRA LINEAL

4.87.

Todas las entradas diagonales deben ser I para que sean no singulares. Hay ocho elecciones posibles para las entradas sobre Ia diagonal:

b)

-4.90.

r ~)

4.91.

a)

4.91.

3) ( 9 5) 2 3 1 = 12 8 G2x3

4.95.

a)

4.96.

4.98.

4.104.

4.105.

ninguna.

2 3

a)

~ = (~ ~).B = G !).c=(~ ~)

( 2/./29 5/fo)

-51./29 2/fo.

b)

(

! !!)

-!

3/fo )

2/fo - 2/fo 3/.jlj ' 12/Jm -3/fo -2/.jm

(''fo

A, C.

all all a 32

all

(""

all a 33 a43

c ...)

b)

("fil t;J2

b2l b23 b,

bll

bJl

a••

b33 b43

b34

bu b., b,. b,

2 3 2

x

= a(pariunetro), y

4..109. A, B, C . .(.111. A .

0

3/.fii -2/.fii

(~ :x~ :) ~(: ~)

4.106. a)

3/JTi

=

0, z

=

0;

b)

x = 3, y

= = 0, z

3.

•tfo)

-t;J2

3/.fii

M A TRI CES CUADRA DAS. M ATRIC ES ELEM ENTA LE S

165

4.114.

4.115.

A = ~~+~--i). B =

\o :o 3

(C ya es una matriz diagonal por bloques; no es p osible ninguna particion ulterior de C.)

M '{ b) M'{

8 4 9

9

4.116. a)

)M'{

25 44 22 25

)M'-(~

4 11

15 41

J 51 18)

12 •

9

24 33

4.118. p =

4.119. a)

(' 0 0

-11 0

0

0

~:)

-1 3 1 0

9 ,B --

('

156 213

). ,;g A- 2

-7

7

469

x =r - 3s + 19t,y =s + 1t,z = t, = r2 - s 2 + 36t2 , rango q = 3, sig q

q(r, s, t)

b) x

=r-

2t, y

= I.

= s + 2t, z = t, 2 1 - 3s + 29t , rango q = 3, sig q = I.

q(r, s, t ) = 2r 2

c)

x = r - 2s +l8t, y=s - 1t,z= t , = r 2 + s 2 - 62t2 , rango q = 3, sig q

q(r, s, t) d)

x

=

r - s - t , y = s - t, z = t, = r 2 + 1s2 , rango q = 2, sig q

= 2.

lf;

c)

q(x, y, z)

4.120. a ) k > 4.121.

q(x, y)

= x2 -

b) k < - 12 0 k > 12;

= 1.

k > 5.

yl , u = ( 1, 1), v = ( 1, -1).

4.122. Supongamos que A se ha diagonalizado a pr A P = diag (a;) . Oefi nase Q = diag (b 1) por s~ a; 0 . Entonces B = Qr p r APQ = (PQ)r A(PQ) tiene Ia forma requerida. I I s1 a 1 = 0

b-={'IM

"*

166

ALGEBRA LINEAL

4.124. a) Q(17, 5, 3~ (b) f(r, s, t) = (17r- 61s + 134l, 4r- 41s + 46t, 3r- 25s + 2St), c) g(r, s, t) = (61r + s - 330t, 16r + 3s- 91t, 9r - 4s - 4t).

4.126. .a)

A =(~

3

b)

8

4.127. a)

A

s

X

~ G~ =

l

1 )( -l

1

x ~ =~)

-10

-!

I

1

)C

!

::)

(~ ~ ~)(~ =~ - ~) 2

b) X, =

1

(J.

1

B,

0

0

- 1

~m. X,~(~)· =(:).X, =(i~)· B,-(_~).x.~(~) B,

CAPITULO

5

Espacios vectoriales

5.1.

INTRODUCCION

Este capitulo introduce la estructura algebraica subyacente al algebra lineal, Ia de espacio vectorial de dimension finita. La definicion de espacio vectorial involucra un cuerpo arbitrario (vease el Apendice) cuyos elementos se denominan escalares. Se utilizani Ia siguiente notaci6n (a menos que se establezca o implique otra cosa): K

a, b, co k

v u, v, w

el cueq)o -9e escalares los elemetitos de K el espacio vectorial dado los elementos de V

No se perdeni nada esencial si el lector supone que K es el cuerpo real R o el complejo C. El capitulo no abarca conceptos como lo ngitud y o rtogonalidad, ~:mesto que no se consideran parte de Ia estructura·fundamental de un espacio vectorial. Se incluiran como estructura adicional en el Capitulo 6.

5.2.

ESP ACIOS VECTORIALES

A continuaci6n se define la noci6n de espacio vectorial o lineal.

Definicion: Sean K un cuerpo dado y V un conjunto no vacio, con reglas de suma y producto por un escalar que asignan a cad a par u, v e V · una suma u + v e V y a cada par u e V, k E K un producto ku E V. V recibe el nombre de espacio vectorial sabre K (y los elementos de V se Haman vectores) si se satisfacen los siguientes axiomas (vease el Problema 5.3). 167

168

ALGEBRA LINEAL

[A 1] [A 2] [A 3 ]

Para toda terna de vectores u, v, w E V, (u + v) + w = u + ( v + w). Existe un vector en V, denotado por 0 y denorninado el vector cero, tal que u + 0 = u para to do vector u E V. Para todo vector u e V existe un unico vector en V, denotado por -u, tal que u+( - u)=O.

[A 4] [M 1 ] [M 2 ] [M 3 ]

[M 4 ]

Para todo par de vectores u, v e V, u + v = v + u. Para todo escalar k e K y todo par de vectores u, ve V, k(u + v) = ku + kv. Para todo par de escalares a, bEK y todo vector U E V, (a+ b)u =au+ bu. Para todo par de escalares a, be K y todo vector u e V, (ab) u = a(bu ). EI escalar unidad I e K curnple I u = u para todo vector u e V.

Los axiomas precedentes se desdoblan de forma natural en dos categorias. · Los cuatro primeros atanen unicamente a Ia estructura aditiva de V y pueden resumirse diciendo que V es un grupo conmutativo (vease el Apendice) bajo Ia surna. De ello se deriva que cualquier suma de vectores de Ia forma

no requiete parentesis y no depende del orden de los sumandos, que el vector cero, 0, es (mico, que el opuesto - u de u es unico y que se verifica Ia ley de cancelacion;· esto es, para tres vectores cualesquiera u, v, we V. u+w=v+w

implica

u=v

Asimismo, la resta se define segun u - v = u + ( - v)

..

·

· Por otra parte, los cuatro axiomas restantes se refieren a Ia «acci6n» del cuerpo K sobre V. Observese que la rotulaci6n de los axiomas refleja · este desdoblamiento. Empleando estos axiomas adicionales probarernos (Problema 5.1) las siguientes propiedades elementales de un · espacio vectorial. Teorema 5.1:

Sea V un espacio vectorial sobre un cuerpo K.

Para todo escalar k EK y Oe V, kO = 0. ii) Para 0 E K y todo vector u e V, Ou = 0. iii) Si ku = 0, donde k E K y u E V, entonces k = 0 o u = 0. iv) Para todo keK y todo ue V, ( - k)u = k(-u) = -ku. i)

5.3.

EJEMPLOS DE ESPACIOS VECTORIALES

Esta secci6n enumera una serie de ejernplos importantes de espacios vectoriales que se utilizarim a to largo de todo el texto.

ESPACIOS VECTORIALES ·

169

ESPACIO K" Sea K un cuerpo arbitrario. La notaci6n K" se usa frecuentemente para designar el conjunto de todas las n-plas de elementos de K. Aqui K" se ve como un espacio vectorial sobre K, en el que Ia suma vectorial y el producto por un escalar se definen segun

y

El vector cero en K" es Ia .n-pla de ceros 0 = (0, 0, .:., 0)

y el opuesto de un vector se define por

La demostraci6n de que K" es un espacio vectorial es identica a Ia del Teorema 2.1, que ahora puede considerarse como Ia afirmaci6n de que R", con las operaciones alii definidas, es un espacio · vectorial sob~e R.

ESPACIO DE MATRICES M,,,. La notaci6n Mm."n• o simplemente M, se utilizani para designar el conjunto de todas las matrices m x n sobre un cuerpo arbitrario K. Mm.n es un espacio vectorial sobre K con respecto a las operaciones usuales de suma matricial y producto por un escalar. (Vease el Teorema 3.1.)

ESPACIO DE POLINOMIOS P(t) Denoteinos por P(t) el conjunto de todos los polinomios

con coeficientes a; en algun cuerpo K. (Vease el Apendice.) P(t) es un espacio vectorial sobre K con respecto a las operaciones usuales de suma de polinomios y producto de un polinomio por una constante.

F.SPACIO DE FUNCIONES F(X) Sean X un conjunto no vacio y K un cuerpo arbitrario. Consideremos el conjunto F(X) de lodas las funciones de X en K. [N6tese que F(X) es no vacio por serlo X.] La suma de dos funciones f, g E F(X) es Ia funci6n f + g E F(X) definida por

. (f + g)(x) = f(x)

+ g(x)

VxeX

170

ALGEBRA LINEAL

y ei producto de un escalar k E K por una funci6n

f E F(X)

es Ia funci6n kf E F(X) definida por

(kf)(x) = kf(x)

.

(EI simbolo '
O(x) = 0

'
Asimismo, para cualquier furici6n jE F(X), Ia funci6n ( - f)(x)

es Ia opuesta de Ia funci6n

=-

f(x)

f

definida por

'
f.

CUERPOS Y SUBCUERPOS

Supongamos que E es un cuerpo que contiene un subcuerpo K. E puede verse como un espacio Yectorial sobre K como sigue. Tomemos como suma vectorial la suma usual en E, y como producto kv del escalar k E K por el vector vEE el producto de k y v como elementos del cuerpo E. En tal caso, E es un espacio vectorial sobre K , esto es, E y K satisfacen los ocho axiomas de espacio vectorial precedentes.

5.4.

SUBESPACIOS

Sea W un subconjunto de un espacio vectorial V sobre un cuerpo K. W se denomina un subespacio de V si es a su vez un espacio vectorial sobre K con respecto a las operaciones de V, suma vectorial y producto por un escalar. Un criteria simple para identificar subespacios es el siguiente (vease el Problema 5.4 para su demostraci6n). Teorema 5.2: Supongamos que W es un subconjunto de un espacio vectorial V. Entonces W es un subespacio de V si y solo si se cumple: i) . OE w ii)

iii)

W es cerrado bajo Ia suma de vectores, es decir: Para todo par de vectores u, v E W, la suma· u + v E W. W es cerrado bajo el producto por un escalar, esto es: Para todo u E w y para todo k E K el multiplo ku E w.

Las condiciones ii) y iii) pueden combinarse en una sola, como se · hace, mas abajo, en ii) (vease Ia demostraci6n en el Problema 5.5). Corolario 5.3: i) ii)

W es un subespacio de V si y solo si:

OE w au+ br E W para todos los u,

vE

W y a, bE K.

ESPACIOS VECTORIALES

171

EJEMPLO 5.1 a)

Sea V cualquier espacio vectorial. Eo tonces, tanto el conjunto {0}, que consiste en el vector cero solo, como el espacio V entero son subespacios de V.

h)

Sea W el plano xy en R 3 consistente en aquellos vectores cuya tercera componente es 0; o, en otras palabras, W = {(a, b, 0): a, bE R}. N6tese que 0 = (0, 0, 0) E W ya que Ia tercera componente de 0 es 0. Para todo par de vectores u = (a, b, 0) y v = (c, d, 0) en W y todo escalar k E R tenemos que u + v = (a

c)

d)

+ c, b + d,

0)

y

ku = (ka, kb, 0)

pertenecen a W, luego W es un subespacio de R 3 . Sea V = M •.• el espacio de las matrices n x 11. El subconjunto W1 de las matrices triangulares (superiores) y el W2 de las matrices simetricas son subespacios de V puesto que son no vacios y cerrados bajo Ia suma de matrices y el producto por un escalar. Recordemos que P (t) denota el espacio vectorial de los polinomios. Denotemos por P.(c) el subconjunto de P(t) que consiste en todos los polinomios de grade 5: n, pa ra un n fijo. En ese caso, P.(t) es un subespacio de P(t). El espacio vectorial P .(r) aparecen\. muy a menudo en nuestros ejemplos.

EJ EM PLO 5.2. Sean U y W su bespacios de un espacio vectorial V. Probemos que Ia interseccion U n W es tam bien subespacio de V. C laramente, 0 E U y 0 E W, porque U y W son subespacios, de donde 0 E U n W. Supongamos· ahara que u, vE U n W. Entonces u, v E U y u, vE E y, dado que U y W son subespacios, u + v,

kuEU

y

. u + v,

kuE W

para cualquier escalar k. Asi u + v, ku E U n W y por consiguiente U n W es subespacio de V

El resultado del ejemplo precedente se genera liza como sigue. Teorema 5.4: La intersecci6n de cualquier numero de subespacios de un espacio vectorial V es un subespacio de V. ·

Recuerdese que toda soluci6n de un sistema de ecuaciones linea les con n incognitas AX = B puede verse como un punta en K" y por tanto el conjunto so lucia n de tal sistema es un subconjunto de Kn. Supongamos que el sistema es homogeneo, es decir, supongamos que el sistema tiene Ia forma AX = 0. Denotemos por W su conjunto soluci6n. Como AO = 0, el vector cera 0 E W. Ademas, si u y v pertenecen a W, esto es, si u y v son soluciones de AX = 0, . necesariamente Au = 0 y Av = 0. Par esta raz6n, para todo par de escalares a y b en K, tendremos A(au

+ bv) = aAu + bAv =

aO + bO

=0+0 =

0

De esta' manera, au + bv es tam bien una soluci6n de AX = 0 o, dicho de otro modo, au . En consecuencia, segun el Corola rio '5.3, hemos demostrado:

+ bv E w.

Teorema 5.5: El conjunto soluci6n W de un sistema homogeneo con n incognitas AX un subespacio de K" .

=0

es

Hacemos enfasis en que el conjunto soluci6n de un sistema inhomogeueo AX = B no es subespacio de K". De hecho, el vector cero, 0, no pertenece a dicho conjunto soluci6n.

1

-

172

ALGEBRA LINEAL

5.5.

COMBINACIONES LINEALES. ENVOLVENTES LINEALES

Sean V un espacio vectorial sabre un cuerpo K y v1, v2 , forma

•.• , vmE

V. Cualquier vector en V de Ia

donde los a;E K, recibe e) nombre de combinacion lineal de v1 , v1 , las combinaciones lineales semejantes, denotado por

... ,

vm. El conjunto de todas

se denomina envolvente lineal de v1 , v2 , ... , v,. En general, para cualquier subconjunto S de V, lin S = {0} si S es vacio y lin S consiste en todas las combinaciones lineales de vectores de S. El siguiente teorema se demostrani en el Problema 5. 16. Teorema 5.6:

Sea S un subconjunto de un espacio vectorial V.

i) Entonces lin S es un subespacio de V que contiene a S. ii) Si W es un subespacio de V que contiene a S, necesariamente lin S s;; W Por otra parte, dado un espacio vectorial V, se dice que los vectores u 1 , u 2 , o forman un conjunto generador de V si

En otras pala bras, u 1, u2 , tales que

... ,

.. . ,

u, generan

u, generan V si, para todo vE V, existen escalares a 1 , a 2 ,

esto es, si v es una combinaci6n lineal de u1 , u 2 ,

... ,

... ,

a,

u,.

EJEMPLO 5.3

Consideremos el espacio vectorial R 3 . La envolvente lineal de cualquier vector no nulo uE R 3 consiste en todos los multiplos escalares de u; geometricamente, lin u es Ia recta que pasa por el origen y por el extremo de u, tal y como se muestra en Ia Figura 5-l(a). Asimismo, para todo par de vectores u, v E R 3 que no sean uno multiplo del otro, lin (u, v) es el plano que pasa por el origen ,y los extremos de u y v, como se muestra en Ia Figura 5-1 (b). b) Los vectores e1 = ( 1, 0, 0), e2 = (0, I, 0) y e 3 = (0, 0, I) generan el espacio vectorial R3 . Concretamente, para todo vector 11 = (a, b, c) en R 3 , tenemos

a)

u = (a, b, c) = a(1, 0, 0)

0 sea,

11

+ b(O,

es una combinaci6 n line:11. de e 1 , e 2 , e 3 .

1, 0)

+ c(O, 0,

1) = ae 1

+ be2 + ce 3

ESPACIOS VECTORIALES

173

(b) .

(a)

Figura 5-l. c)

Los polinomios 1, t, t 2 , t 3 ,

•••

generan el espacio vectorial P (t) de todos los polinomios, es decir, P (t) =lin(!, t , t 2 ,

t 3, • • .)

Dicho de otro modo, todo polinomio es una combioaci6n lineal de I y poteocias de r. Similarmente, los polinomios I, t, t 2 , .•• , t" geoeran el espacio vectorial P.(c) de los polioomios de grado ~n.

ESPACIO FILA DE UNA MATRIZ

Sea A una matriz m x n sobre un cuerpo K arbitraria:

A=(~:.:_._::: .. ::·.. _:::\ aj a,. 1

a, 2

••.

Las filas de A ,

pueden verse como vectores en K n y por tanto generan un subespacio de K" llamado el espacio fila de A y denotado por f-lin A. Esto es, f-lin A = lin (R 1 , . R 2 ,

...,

Rm)

Analogamente, las columnas de A pueden verse como vectores en K'" y por consiguiente generan .. un subespacio de K'" denominado ei espacio columna de A y denotado por c-lin A. Alternativamente, c-lin A = f-lin AT. Supongamos ahora que efectuamos una operaci6n elemental entre lilas sabre A, 0

y obtenemos una matriz B. En ese caso, cada fila deB es, claramente, bien una fila de A;o bien :ma combinaci6n lineal, de filas de A , por lo que el espacio fila de B esta contenido en el de A.

174

ALGEBRA LINEAL

Por otra parte, podemos efectuar Ia operacion elemental entre filas inversa sabre B y obtener A. Juego eJ espacio fila de A esta contenido en el de B. De acuerdo con esto, A y B tienen el mismo espacio fila, lo que nos conduce al teorema enunciado a continuacion. Las matrices equivalentes por filas tienen el mismo espacio fila .

Teorema 5.7:

. En particular, demostraremos (Problemas 5.51 y 5.52, respectivamente) los siguientes resultados fundamentales, referentes a matrices equivalentes por filas. Teorema 5.8: Dos matrices en forma canonica por filas tienen el mismo espacio fila si y solo si tienen las mismas filas no nulas. Toda matriz es equivalente por filas a una unica matriz en forma canonica por

Teorema 5.9: filas.

En el proximo ejemplo aplicamos los resultados anteriores. EJEMPLO 5.4.

Demostremos que el subespacio U de R 4 generado por los vectores uI

=

u 2 = (2, 4, I, -2)

(I' 2, - I. 3)

y

u 3 = (3, 6, 3, -7)

y el subespacio W de -R 4 generado por los vectores t• 1 = (1, 2, -4,

II)

y

V2

= (2, 4, -5, 14)

son iguales, esto es, que U = W. Metodo 1. Demostramos que cada u; es combinacion lineal de v 1 y v2 y que cada v; lo es de Observese que debemos probar Ia compatibilidad de seis sistemas de ecuaciones lineales. Metodo 2.

11 1 ,

u2 y u3 .

Construimos Ia matriz A, cuyas filas son los ui, y Ia reducimos a forma canonica por filas:

·~(:

2 4

-1

6

3

Ahora construimos Ia matriz

B=G

2

1

-~)- (:

-7

0

0

B, cuyas filas son v

1

-4

4 -5

11)-C

14

0

-:)- (:

-1 3 6

2 0

-16

0

2 0

0

0

0

I

-!)

y vl, y [a reducimos a forma canonica por filas:

2 -4 0

3

11)-C

-8

0

2 0

0 1

-D

Como las filas no nulas de las matrices reducidas son identicas, los espacios fila de A y B son iguales, de modo que U = W.

5.6.

DEPENDENCIA E INDEPENDENCIA LINEAL

A continuacion se definen las nociones de dependencia e independencia lineal. Estos conceptos juegan un papel esencial dentro de Ia teoria del algebra lineal y de las matematicas en general.

ESPACIOS VECTORIALES

175

Definicion: Sea V un espacio vectorial sabre un cuerpo K. Se dice que los vectores v 1 , ... , v, E V son linea/mente dependientes sobre K, o simplemente dependientes, si existen escalares at> ... , a., E K , no todos 0, tales que

En caso contrario se dice que los vectores son linealmente independientes sobre K , o simplemente

independientes. Observemos que Ia relaci6n ( *) se verificani siempre si los a; son todos 0. Si Ia relaci6n solo se verifica en este caso, es decir, · · implica

a 1 = 0, ... , a,= 0

los vectores senin linealmente independientes. Sin embargo, si (*) tambien es valida cuando uno de los a; no es 0, los vectores seran linealmente dependientes. Se dice que un conjunto {v 1 , v2 , ... , v,} de vee to res es linealmente dependiente o independiente segun lo sean los veeto res v 1 , v2 , ... , v,. Un conjunto infinito S de vecto res es lineal mente dependiente si existen vectores u 1 , •.. , uk en S que lo son ; en caso contrario, S es linealmente independiente. Las siguientes observaciones derivan de las definiciones precedentes. Nota 1: Si 0 es uno d e los vectores v 1 , dependientes, ya que

lv 1 + Ov2

••• ,

v,, digam os v 1 = 0, los vectores deben ser lineal mente

+ ... + Ov, = I· 0 + 0 + ... + 0 = 0

y el coeficiente de v 1 es distinto de 0. Nota 2:

Cualquier vector no nulo v es por si solo linealmente independiente, debido a que

kv

= 0, v =I= 0

implica

k=O

:'-Iota 3: Si dos de los vectores v 1 , v2 , ..• , v, son iguales, o si uno es un multiplo escalar de otro, digamos v 1 = kv 2 , los vectores son linealmente dependientes, puesto que

y el coeficiente de v1 no es 0. .'\ota 4: Dos vectores del otro .

VI

y

v2 son linealmente dependientes si y solo si uno de ellos es multiplo

.'\ota 5: Si el conjunto {v1 , ... , v,} es linealmente independiente, cualquier reorden aci6n de los •.ectores {v;,, v;..... , v;,.} tambien lo es. ~ota 6: Si un conjunto S de vectores es linealmente independiente, necesariamente lo es cualquier su bconj unto deS. Alternativamente, si S contiene un subconjunto Iinealmente dependiente. S es Iinealmente dependiente.

176

ALGEBRA LINEAL

Nota 7: En el espacio real R 3 , Ia dependencia lineal de vectores puede describirse geometricamente en los siguientes terminos: a) Dos vectores cualesquiera tl y v son linealmente dependientes si y solo si yacen en Ia misma recta que pasa por el origen, como se ilustra en Ia Figura 5-2(a). b) Tres vectores cualesquiera u, v y w son linealmente dependientes si y solo si yacen en el mismo plano que pasa por el origen, como se muestra en Ia Figura 5-2(b).

(a) u y v son linealmente dependientes

(b) u, v y

IV

son linealmente dependientes

Figura S-2.

A continuacion se dan otros ejemplos de vectores linealmente dependientes e independientes. EJEMPLO 5.5

a)

Los vectores u = (1, - 1, 0), v = (1, 3, - I) y w = (5, 3, -2) son linealmente dependientes porque 3(1, - I, 0) Esto es, 3u

b)

+ 2v -

+ 2(1,

3, - 1)- (5, 3, - 2)

=

(0, 0, 0)

w = 0.

Probamos que los vectores u = (6, 2, 3, 4), v = (0, 5, - 3, 1) y w = (0, 0, 7, -2) son linealmente independientes. Supongamos que x u + yv + Z IV = 0, donde x, y y z son escalares desconocidos. En tal caso, (0, 0, 0, 0) = x(6, 2, 3, 4) + y(O, 5, -3, l) + z(O, 0, 7, -2) = = (6x, 2x + 5y, 3x - 3y + 1z, 4x + y - 2z) y asi, por Ia igualdad de las componentes correspondientes,

=0

6x 2x

+ 5y

= 0

3x- 3y + 1z = 0 4x+ y - 2z=0 La primera ecuaci6n conduce a x = 0; la segunda, con x = 0, proporciona y = 0, y Ia tercera, con x = 0 e y = 0, !leva a z = 0. De este modo, XU

E n consecuencia , u, v y

IV

+ )IV + Z IV =

0

implica

son Iinealmente independ ientes.

X

= 0, y = 0,

Z

=0

ESPACIOS VECTORI ALES

177

COMBINACIONES LINEALES Y DEPENDENCIA LINEAL

Las nociones de combinaci6n lineal y dependencia lineal estan estrechamente relacio nadas. De forma especifica, demostraremos que los vectores v1 , v2 , ••. , vm, cuando hay mas de uno, son linealmente dependientes si y solo si uno de ellos es una combinaci6n lineal de los otros. Supongamos, por ejemplo, que V; es una combinaci6n lineal de los otros:

Entonces, sumando - v; a ambos miembros, obtenemos

donde el coeficiente de v; no es 0; por consiguiente, los vectores son linealmente dependientes. Reciprocamente, supongamos que los vectores son linealmente dependientes, digamos dondt:4 En ese caso,

v;

de modo que es una combinaci6 n lineal del resto de los vectores. Establecemos ahara un resultado algo mas potente que el anterior (vease el Problema 5.36 para su demostraci6n), que tiene numerosas consecuencias importantes. Lema 5.10: Supongamos que dos o mas vectores no nulos v1 , v2 , ••• , vm son linealmente dependientes. Entonces uno de los vectores es una combinaci6n lineal de los precedentes, esto es, existe un k > 1 tal que · vk

EJEMPLO 5.6.

= clvl + CzVz + ··· + ck -

lvk-1

Consideremos Ia siguiente matriz en forma escalonada:

0 0

2

A= 0

0

3 4 0

0 0

0 0

0 0

0

4 -4 0 0 0

5 4 7 0 0

6

7

-4

4

8 6

9 -6 0

0

Observemos que las filas R 2 , R 3 y R4 tie_nen ceros en Ia segunda columna (bajo el elemento pivote de R 1 ) y que, por tanto, cualquier combinaci6 n lineal de R 2 , R 3 y R 4 debe tener un cero como segunda componente. Siendo asi, R 1 no puede ser una combinaci6n lineal de las filas no nulas si tuadas bajo ella. De forma similar, las filas R 3 y R~ tienen ceros en Ia tercera columna, bajo el elemento pivote de R 2 ; por consiguiente, R 2 no puede ser una combinaci6 n lineal de las filas no nulas situadas bajo ella. F inalmente, R3 no puede ser un multiplo de R 4 , puesto que esta tiene un cero en Ia quinta columna, bajo el elemento pivote de aquella. Mirando las filas no nulas de abajo a arriba, R 4 , R 3 , R 2 , R 1 , constatamos que ninguna de elias es combinaci6n lineal de las precedentes. De este modo, las filas no nulas son linealmente independientes, de acuerdo con el Lema 5. 10.

178

ALGEBRA LINEAL

El argumento del ejemplo anterior puede aplicarse a las fil:- 5 no nulas de cualquier matriz escalonada. Asi pues, tenemos el siguiente resultado (demostrado en el Problema 5.37), muy util. Teorema 5.11: pendientes.

5.7.

Las lilas no nulas de una matriz en forma escalonada son linealmente inde-

BASES Y DIMENSION

Comenzamos estableciendo dos caminos equivalentes (Problema 5.30) para delinir una base de un espacio vectorial V. Definicion A: Un conjunto S = { u1 , u2 , dos condiciones: 1.

u 1 , u2 ,

••• ,

2.

u 1, u2 ,

•• • ,

••• ,

u"} de vectores es una base de V si se verifican las

u. son linealmente independientes. u. generan V.

Definicion B: Un conjunto S = {u 1 , u 2 , ... , u"} de vectores es una base de V si todo vector v E V puede escribirse de forma unica como combinacion lineal de sus vectores. Se dice que un espacio vectorial V es de dimension .finita n o que es n-dimensional, escrito dim V

=n

si V tiene una base como Ia anterior, con n elementos. La dimension esta bien definida; ··a Ia vista del siguiente teorema (demostrado en el Problema 5.40). Teorema 5.12: Sea V un espacio vectorial de dimension finita. Entonces todas las bases de V tienen el mismo numero de elementos. El espacio vectorial {0} tiene dimension 0, por definicion. Cuando un espacio vectorial no es de dimension finita, se dice que es de dimension infinita. EJEMPLO 5.7 a)

Consideremos el espacio vectorial M 2 • 3 de todas las matrices 2 x 3 sobre un cuerpo K. Las seis matrices siguientes forman una base de M 2 • 3 :

(01 00 0)0

(00 01 0)0

(00 00 01)

0 0 0) (1 0 0

0 0 0) (0 1 0

(0 0 0) 0

0

1

Con mayor gencralidad, en el espacio vectorial M,,, de las matrices r x s, sea Eij Ia matriz cuya entrada ij es I, siendo 0 las restantes. Todas las matrices Eij tales constituyen una base de M,.,, denominada su base usual. Consecuenteme nte, dim M,.., = rs. En particular, e 1 = (1, 0, ... , 0), e 2 = (0, I, 0 , ... , 0),

... , e. b)

=

(0, 0, ... , 0, I) forman Ia base usual de K".

Consideremos el espacio vectorial P.(t) de los polinomios de grado 5.n. Los polinomios 1, t, t 2 , fo rman una base de P.(t) y por tanto dim P.(t) = n + I.

•.. ,

t"

ESPACIOS VECTORIALES

179

El teorema fundamental anterior sobre dimension es una consecuencia del importa nte «lema de sustituci6n» (demostrado en el Problema 5.39) que sigue: Lema 5.13: Supongamos que {v1 , v2 , ... , u.} genera V y que {w 1 , w 2 , ••. , wm} ~s linealmente independiente. En ese caso, m ~ n y Vesta g'erierado por un conjunto de Ia fotni.a '..:

"

. Asi, en particular, n

+ 1o

mas vectores en V son linealmente dependientes.

Observemos, en el lema precedente, que hemos sustituido m vectores del conjunto generador po r los m vectores independientes y aun conservamos un conjunto geuerador. Los teoremas enunciados a continuaci6n (y demostrados en los Problemas 5.41, 5.42 y 5.43, respectivamente) se utilizaran con frecuencia . Teorema 5.14: i) ii)

iii)

Sea V un espacio vectorial de dimension finita n.

n + 1 0 mas vectores en v son linealmente dependientes. Todo conjunto linealmente independiente S = {u 1 , u 2 , ••• , u.}, conn elementos. es una base de V. T odo.conjunto generador T = {u1 , u2 , .. . , v.} de V, con n elementos, es una base de V.

Teorema 5.15:

Supongamos que S genera un espacio vectorial V.

i)

Cualquier numero maximo de vectores linealmente independientes en S es una base de V.

ii)

Si se suprime deS todo vector que sea combinaci6n lineal de los precedentes, los vectores que quedan constituyen una base de V.

Teorema 5.16: Sean V un espacio vectorial de dimension finita y S = {u 1 , u2 , ... , u,} un conjunto de vectores linealmente independientes en V. En ese caso, S es parte de una base de V, es decir, S puede extenderse a una base de V. EJEMPLO 5.8 a) Consideremos en R 4 los cuatro vectores: (1, I, I, I)

(0, 1, I , I)

(0, 0, 1, I)

(0, 0, 0, I)

N6tesc que los vecto res formaran ·una matriz escalonada, por lo que son linealmente independientes. Mas aun, dado que dim R 4 = 4, los vectores constituyen una base de R 4 b)

Consideremos los

11

+

I polinomios en P.(t): I, r- I , (t - 1)1 ,

... ,

(t- I}"

El grado de (t - I )k es k, luego ningun polinomio puede ser combinaci6n lineal de los precedentes. Ademas, constituyen una base de P~(t ) porque dim P .(t) = 11 + I.

180

ALGEBRA LINEAL

DIMENSION Y SUBESPACIOS

El siguiente teorema (demostrado en el Problema 5.44) nos da Ia relaci6n basica entre Ia dimension de un espacio vectorial y Ia de un subespacio. Teorema 5.17: Sea W un subespacio de un espacio n-dimensional V. Entonces dim W en particular, dim W = n, necesariamente W = V.

$: n.

Si.

EJEMPLO 5.9. Sea W un subespacio del espacio real R 3 . Tenemos dim R 3 = 3; por consiguiente, segtin el Teorema 5.17, Ia dimension deW solo puede ser 0, 1, 2 6 3. Podemos distinguir los casos: i) dim W = 0, con lo que W = {0}, un punto.

ii) dim W

=

1, con lo que W es una recta por el origen.

iii) dim W

=

2, con lo que W es un plano por el origen.

iv)

=

3, con lo que W es el espacio R 3 entero.

dim W

RANGO DE UNA MATRIZ

Sea A una matriz m x n arbitraria sobre un cuerpo K. Recordemos que el espacio fila de A es el subespacio de K" generado por sus filas y que el espacio columna de A es el subespacio de K"' generado por sus columnas. El ranga par filas de una matriz A es igual al numero maximo de filas linealmente independientes o, equivalentemente, a Ia dimension del espacio fila de A. Analogamente, el ranga par calumnas de A es igual al numero m
Los rangos por filas y por columnas de cualquier matriz A son iguales.

Definicion: El ranga de Ia matriz A, escrito rango A , es el valor comun de su rango por filas y su rango por columnas. El rango de una matriz puede calcularse facilmente usando reducci6n por filas, como se ilustra en el siguiente ejemplo. EJ EM PLO 5.1 0.

Supongamos que queremos hallar una base y Ia dimension del espacio fila de

2 0.-1)

6 10

-3 - 6

-3 -5

Reducimos A a forma escalonada utilizando las operaciones elementales entre filas:.

~ -~ =~) ~ (~ ~0 -~0 =~)0

4

-6

-2

0

ESPACIOS VECTORIALES

181

Recordemos que las matrices equivalentes por filas tienen el mismo espacio fila. De este modo, las filas no nul as de Ia matriz escalonada, que son independientes de acuerdo con el Teorema 5.11 , forman una base del espacio fila de A. Siendo asi, dim f-lin A = 2 y po r tanto rango A = 2.

5.8.

ECUACIONES LINEALES Y ESPACIOS VECTORIALES

Consideremos un sistema de m ecuaciones lineales conn incognitas x 1 ,

a 11 x 1 a 21 x 1

... ,

x. sobre un cuerpo K:

+ a 12 x 2 + · · · + a ... x, = b1 + a22 x 2 + · · · + a 2 .x, = b 2

[5.1)

o la ecuacion matricial equivalente AX=B

donde A = (aii) es Ia m atriz de los coeficientes y X = (xi) y B = (hi) los vectores columna constituidos par las incognitas y las constantes, respectivamente. Recordemos que Ia matriz ampliada del sistema se define como Ia matriz all

(A, B)= (

alii

at2

b1 )

.~~~.. -~~~ .. ::: .. ~~~ .. ~~a,.1

a,.2

•.•

a..,, b,

:'lolota l: Se dice que las ecuaciones lineales [5.1] son dependientes o independientes segun lo sean los vectores correspondientes, esto es, las filas de Ia matriz ampliada. ~ota 2: Dos sistemas de ecuaciones lineales son equivalentes si y solo si las matrices am pliadas correspondientes son equivalentes por filas, es decir, tienen el mismo espacio fila.

:"Jota 3: Siempre podemos reemplazar un sistema de ecuacio nes par uno de ecuaciones independientes, como por ejemplo un sistema en forma escalonada. El numero de ecuaciones independientes sera siempre igual al rango de Ia matriz a mpliada. Observemos que el sistema [5.1] es tambien equivalente a Ia ecuacion vectorial

El comentario anterior nos conduce al teorema de existencia basico, enunciado a conti:::;uacion.

182

ALGEBRA LINEAL

Teorema 5.19:

Las t res afirmaciones siguientes son equivalentes.

a} El sistema de ecuaciones lineales AX = B tiene alguna solucion. b} B es combinacion lineal de las columnas de A_ ·----c) La matriz de coeficientes A y Ia ampliada (A, B) tienen el mismo rango. Recuerdese que una matriz m x n A puede verse como una funcion A: Kn--. K"'. Asi ut:. vector B perteneceni a Ia imagen de A si y solo si Ia ecuaci6n AX = B tiene una solucion. Esto significa q_ue Ia imageo_{Lecorridoj de Ia funcion A, escrito Im A, . es precisamente el espacio columna de A. En consecuencia, dim (lm A)= dim (c-Iin A} = rango A Utilizaremos este hecho para probar (Problema 5.59) el siguiente resultado basico relativo a sistemas de ecuaciones lineales homogeneos. Teorema 5.20: La dimension del espacio solucion W del sistema de ecuaciones lineales homogeneo AX = 0 es n - r, do nde n es el numero de incognitas y r el rango de Ia matriz de los coeficientes A. En caso de que el sistema AX = 0 este en forma escalonada, este tend ra precisamente n - r Yariables libres, digamos x;,, x;, •... , x;._, Sea vi Ia solucion obtenida haciendo x;i = l (o cualquier constante no nula) y el resto de las variables libres iguales a 0. Entonces las soluciones r 1, .. . , v._, seran linealmente independientes (Problema 5.58) y formaran una base del espacio soluci6n. EJ EM PLO 5.11. sistema:

Supongamos que queremos hallar Ia dimension y una base del espacio soluci6n, W, del

+ 2y + 2z - s + 3t = 0 x + 2y + 3z + s + t = 0 3x + 6y + 8z + s + 5t = 0 x

Primero reducimos el sistema a forma escalonada: x

+ 2y + 2z -

s

+ 3t = 0

z+2s-2t = O 2z + 4s - 4t = 0

0

x + 2y + 2z - s + 3t = 0 z+2s- 2t = 0

El sistema en forma escalonada tiene dos ecuaciones (no nulas) y cinco incognitas y por tanto tiene 5 - 2 = 3 variables libres, que sony, s y t. De cstc modo, dim W = 3. Para obtener una base de W tomemos: i) y

= I, s = 0, t = 0 para llegar a Ia soluci6n v1 = ( - 2, I, 0, 0, 0).

iil y = 0, s iii I y = 0. s

= =

I, t = 0 para llegar a Ia soluci6n v2 = (5, 0, -2, I, 0). 0. t = 1 para llegar a Ia soluci6n v3 = ( -7, 0, 2, 0, 1).

E. ~to ~r 1 • r 1 . r 3 } es una base del espacio soluci6n W.

ESPACIOS VECTORtALES

183

DOS ALGORITMOS PARA HALLAR BASES Supongamos que se nos dan los vectores u 1 , u 2 ,

... ,

W = lin (u 1 , u 2 ,

u, en K". Sea .• • ,

u,)

el subespacio de K" generado por dichos vectores. Cada uno de los algoritmos expuestos abajo determinan una base (y por ende Ia dimension) de W. Algoritmo 5.8A (algoritmo del espacio fila)

Paso 1.

Construir una matriz A cuyas fl./as sean los vectores dados.

Paso 2.

Reducir por filas A a forma escalonada.

Paso 3.

Extraer las filas no nulas de Ia matriz escalonada.

El algoritmo precedente ya apareci6 en esencia en el Ejemplo 5.10. El proximo se ilustrani en el Ejemplo 5.12 y utiliza el resultado referente a sistemas de ecuaciones lineales inhomogeneos que se dio con anterioridad. Algoritmo 5.8B (algoritmo de expulsion)

Paso 1.

Construir una matriz M cuyas columnas sean los ,vectores dados.

Paso 2.

Reducir por filas M a forma escalonada.

Paso 3. P a ra cada columna Ck sin pivote en Ia matriz escalonada, suprimir (expulsar) el vector vk del conjunto . Paso 4:

Extraer los restantes vectores (correspondientes a columnas con pivote).

EJEMPLO 5 .12. Sea W el subespacio de R 5 generado por los vectores: v1

= (1, 2, 1,

-2, 3) v4 =

v2

= (2, 5,

v3

- 1, 3, - 2)

(3, 1, 2, -4, 1)

= (1, 3, -2, 5, -

5)

v 5 = (5, 6, 1, -1, - 1)

Usamos el Algoritmo 5.8B para hallar Ia dimension y una base de W. Comenzamos por construir Ia matriz M , cuyas columnas son los vectores dados, y reducirla a forma escalonada: l 2

M= 3

2 5 -1 3 -2 2 1 0 0 0

5 6

2

I

-3

5 · -4 -1 1 -1 -5

7

1

3 -2

3 1 2

3 7 1 0 ' -16 0 37 0 - 48

5 - 4 -16 37

- 48

1 1 - 3 7

- 1 2

-8 -8 - 8 2 1 0 0 0

5 -4 - 4

3

- 5

9 -16

3 1 0 0 0

5

7 -4 1 1

0 0

0 0

184

ALGEBRA LINEAL

Observemos que los pivotes de Ia matriz escalonada aparecen en las columnas C 1 , C 2 y C4 • El hecho de que Ia columna C 3 no tenga pivote significa que el sistema xv 1 + yv2 = v3 tiene una soluci6n y po' consiguiente v3 es combinaci6n lineal de v1 y v2 • De forma similar, el hecho de que C 5 no tenga pivot~ significa que v 5 es combinaci6n lineal de los vectores precedentes. De acuerdo con esto, los vectores v1 • r: y v4 , correspondientes a las columnas con pi vote en Ia matriz, constituyen una base de W y dim W = 3.

5.9.

SUMAS Y SUMAS DIRECT AS

Sean U y W subconjuntos de un espacio vectorial V. La suma de U y W, escrito U + W, consiste en todas las sumas u +wen las queuE U y wE W. Esto es, U

+W=

{u

+ w:

u E U,

WE

W}

Supongamos ahara que U y W son subespacios de V. N6tese que 0 = 0 + OE U + W, ya que 0 E U y 0 E W. Supongamos, ademas, que u + w y u' + w' pertenecen a U + W, con u, u' E U y w, w' E W. Entonces (u + w) + (u' + w') = (u + u') + (w +•w')E U + W

y, para todo escalar k, k(u + w) = ku + kwE U + W

Asi hemos demostrado el siguiente teorema. Teorema 5.21:

La suma U

+ W de los subespacios U

y W de V es tam bien un subespacio de V.

Recordemos que Ia intersecci6n U n W es subespacio de V. El teorema enunciado a continuaci6n, y demostrado en el Problema 5.69, relaciona las dimensiones de estos subespacios. Teorema 5.22: Sean U y W subespacios de dimension linita de un espacio vectorial V. En ese caso, U + W tiene dimension linita y dim (U + W) =dim U +dim W- dim (U n W)

EJEMPLO 5.13.

Supongamos que U y W son los pianos xy e yz en R 3 , respectivamente. Es decir, U = {(a, b, 0)}

N6tese que R 3 = U el Teorema 5.22,

+ ·w;

por consiguiente, dim (U 3

=

W= {(0, b, c)}

y

+ W) =

2 + 2 - dim ( U n W)

0

3. Asimismo, dim U = 2 y dim W = 2. Segun dim (U n W) = I

Esto concuerda con los hechos de que U n W es el eje y (Fig. 5-3) y que dicho eje ticne dimension I.

ESPACIOS VECTORIALES

185

z

Figura 5-3.

SUMAS DIRECTAS Se dice que el espacio vectorial V es Ia suma directa de sus subespacios U y W, denotado por

ve

si todo vector V puede escribirse de una y solo una forma como v = u + w, con u E U y we W. El teorema que sigue, demostrado en el Problema 5. 70, car acteriza tal descomposicion. Teorema 5.23: EJ espacio vectorial V es la suma directa de sus subespacios V y W si y solo si i) V = U + W y ii) U n W = {0}. EJEMPLO 5.14 a)

En el espacio vectorial R 3 , sean U el plano xy y W el yz: U ={(a, b, 0): a, be R}

W = {(0, b, c): b, ce R}

y

Entonces R 3 = U + W, puesto que todo vector en R 3 es Ia suma de un vector de U y uno de W. Sin embargo, R 3 no es Ia suma directa de U y W, ya que dichas sumas no son (micas; por ejemplo, (3, 5, 7) = (3, I, 0) b)

+ (0, 4,

7)

y tambien

(3, 5, 7} = (3, -4, 0) + (0, 9, 7)

En R 3 , sean U el plano xy y W el eje z: U = {ta, b, 0): a, b e R}

y

W = { (0, 0, c): c E R}

Ahora cualquier vector (a , b, c) E R 3 puede escribirse como la suma de un vector de U y uno de W de .. una y solo una forma: . (a, b, c) = (a , b, 0)

+ (0,

En consecuencia, R 3 es Ja ·suma directa de U y W, o sea, R 3 puesto que R 3 = U + W y U n W = {0}.

0, c)

= U EB W.

Alternativamente, R 3

= U EB W

186

ALGEBRA LINEAL

SUMAS DIRECTAS GENERALES

La nocion de suma directa .se extiende a mas de un sumando de Ia manera obvia. Esto es, V es Ia suma directa de los subespacios W1 , W2 , •.• , W,, escrito

si todo vector

vE

V puede escribirse de una y solo una forma como

v = w1 + w2 + ... + w, donde w1 E W1 , w 2 E W2 , ... , w,E W,. Son aplicables los siguientes teoremas. Teorema 5.24: Sea V = W1 EB W2 EB · · · EB W,. Adem as, para cada i, supongamos que S;. es un subconjunto linealmente independiente de W;. En tal caso, a) b)

La unionS = U;S; es linealmente independiente en V Si S; es una base de W;, entonces S = U; S; es una base de V.

c) dim v =dim WI +dim Teorema 5.25: que

w2 +

Supongamos que dim

v=

... +dim

v=

w,.

w2+

... +

w,

dim WI + dim

w2+

.. . + dim

WI +

(donde

v tiene

dimension finita) y

w,

Eutonces V = W1 EB W2 EB · ·· EB 1¥,..

5.10.

COORDENADAS

Sean V un espacio vectorial n-dimensional sabre un cuerpo K y

una b as~ de V. Cualquier vector v E V puede expresarse de forma unica como combinacion lineal de los vectores de Ia base en S, digamos

Estos n escalares a 1 , a 2 , . .. , an se denominan las coordenadas de v relativas a la base S, y forman ·la n-pla [a 1 , a 2 , ... , an] en K", Hamada el vector coordenado de v relativo aS. Denotamos este vector por [v]5 , o simplemente [v], cuando S viene dada implicitamente. Asi

Observese que se utilizan corchetes [.. .], y no parentesis ( ... ), para designar el vector coordenado.

ESPACIOS VECTORIALES

187

EJEMPLO 5.15 a)

Consideremos el espacio vectorial P 2 (t) de los polinomios de grado p 2 = t- 1

P3

= (t -

1)2

~2.

= t1

-

Los polinomios

2t

+1

forman una base S de P 2 (t ). Sea v = 2t 2 - 5t + 6. El vector coordenado de v relativo a Ia base S se obtiene como sigue. Tomemos v = xp 1 + yp 2 + zp 3 usando los escalares desconocidos x, y, z y simplifiquemos:

2t 1

-

5t + 6 = x(1) + y(t-:- 1) + z(t 2 - 2t + 1) = = x + yt - y + zt2 - 2zt + z = = zt 2 + (y - 2z)t + (x - y + z)

A continuaci6n igualemos entre si los coeficientes de las mismas potencias de t:

x-y+ z= 6 y-2z= -5 z= 2 La soluci6n del sistema anterior es: x

= 3, y =

-I, z

= 2.

De este modo,

y por tanto b)

[v]

=

[3, -I , 2]

Consideremos el espacio real R 3 • Los vectores u 1 = (1, - I , 0)

u 2 = (1 , 1,0)

u 3 = (0. I , 1)

forman una base S de R 3 • Sea v = (5, 3, 4). Las coordenadas de v rclativas a Ia base S se obtienen como sigue . . Torriemos v = xu 1 + yu 2 + zu 3 , es decir, expresemos v como una combinaci6n lineal de los vectorcs de Ia base usando escalares desconocidos x, y, z: (5, 3, 4) = x(1, -1, 0)

+ y(1,

1, 0) + z(O, 1, 1) =

-x, 0) + (y, y, 0) + (0, z, z) = (x + y, - x + y +. z, z)

= (x, =

Despues igualemos entre si las componentes correspondientes para llegar al sistema de ecuaciones lineales equivalentes:

x+y=5 . La soluci6n del sistema es x .

-x + y + z = 3

= 3, y = 2, z = 4.

z=4

Asi

y por tanto

[v)5

=

[3, 2, 4]

~ota: ~e S

Existe una interpretacion geometrica de las coordenadas de un vector v relativas a una del espacio real Rn. Ilustramos esto utilizando Ia base de R 3 , que aparece en el Ejemplo 5.15: S=

{ut = (1, -1, 0), u2

= (1, 1, 0), u3 = (0, 1, 1)}

188

ALGEBRA LINEAL

Consideremos primero el espacio R 3 con los ejes x, y, z usuales. En ese caso, los vectores de la base determinan un nuevo sistema de coordenadas de R 3 , digamos con ejes x', y', z', tal y como se muestra en Ia Figura 5-4. 0 sea: ·

2.

El eje x' esta en la direcci6n de u 1 . El eje y' esta en la direcci6n de u 2 .

3.

El eje z' esta en Ia direcci6n de u3 .

1.

Ademas, la unidad de longitud de cada uno de los ejes sera. igual, respectivamente, a la longitud del vector de Ia base correspondiente. Asi pues, cada vector v = (a, b, c) o, equivalentemente. cada punto P(a, b, c) en R 3 tendra unas nuevas coordenadas con respecto a los nuevos ejes x'. y', z'. Dichas coordenadas son precisamente las de v con respecto a Ia base S.

z z'

6 6 /

/

4

/

4

/

/ / /

y 4

6

8

x'

6 X

6

8 }''

v = (5, 3, 4) = [3, 2, 4] Figura 5-4.

ISOMORFISMO ENTRE VY K"

Consideremos una baseS= {u1 , u 1 , ... , u.} de un espacio vectorial V sobre un cuerpo K. Hemos probado con anterioridad que a cada vector ve V le corresponde una tmica n-pla [v]5 en K". Por otra parte, a cada n-pla [c 1 , c2 , ... , c.]eK" le correspondera el vector c 1 u 1 + c 2 u 2 + --·+ c.u.

ESPACIOS V ECTORI A LES

189

en V. Siendo asi, Ia base S induce una correspondencia uno-a-uno entre los vectores de V y las n~plas de K ". Mas aun, supongamos y

Entonces v + w = (a1 + b1 )u 1 + (a 2 + b2 )u 2 + · · · +(a,. + b,.)u,.

kv = (ka 1)u 1

+ (ka 2 )u 2 + · · · + (ka,.)u,.

siendo k un escalar. De acuerdo con ello, [v

+ w]s =

[a 1

+ bl> ... , a,.+ b.,]= [a 1 ,

... ,

a,]+ [bl> .. . ,

bJ =

[v] 5

+ [w]5

y [kv] 5 = [kal> ka 2 ,

... ,

ka,.]

= k[a 1 , a2 , ... ,

ka,.]

= k[v] 5

. De este modo, Ia correspondencia uno-a-uno anterior, entre V y K", conserva las operaciories de suma y producto por un escalar del espacio vectorial. Decimos, en tal caso, que V y Kn son isomorfos, escrito V ~ Kn. Establezcamos formalmente este resultado. Teorema 5.26. Sea V un espacio vectorial n-dimensional sobre un cuerpo K. Entonces V y K " son isomorfos. El proximo ejemplo muestra una aplicaci6n practica de dicho resultado. EJ EM PlO 5.16. independientes:

Supongamos que queremos determinar si las siguientes matrices son o no Iinealmente

A=(! 2 -3) 0

3 -4)

1

5

C=(3 8 -11)

4

16

10

9

Los vectores coordenados de las matrices a nteriores respecto a Ia base usual [Ejemplo 5.7 a)] de M 2 . 3 son:

[A]= (1, 2, -3, 4, 0, 1)

[B] = (1, 3, - 4, 6, 5, 4)

[C] = (3, 8, -11, 16, 10, 9)

Construirnos Ia matriz M cuyas filas son los vectores coordenados precedentes:

('

M= 1 . 3

2

-3

4

3

-4

8

- 11

6 16

0 5 10

:)

Reducimos por filas M a forma escalonada:

M-(~

2

-3

4

2

-1 -2

2 4

0 5 10

!)-(~

2

- 3

4

0

1

- 1 0

2 0

0

0

5

i)

Como la forma escalonada solo tiene dos filas no nulas, los vectores coordenados [A], (B] y [C] generan un "::bespacio de dimension 2, de modo que son linealmente dependientes. E n consecuencia, las matrices :=:::iales A, B y C son linealmente dependientes.

190

5.11.

ALGEBRA LINEAL

CAMBIO DE BASE

En Ia Secci6n 5.10 se demostr6 que es posible representar cada vector de un espacio vectorial r mediante una n-pla, una vez que se ha seleccionado una base S de V. Surge de forma natural Ia siguiente preg.u nta: ~Como varian! nuestra representaci6n si elegimos otra base? Para responder debemos redefinir algunos terminos. Concretamente, supongamos que a1 , a2 , •• • ,a,. son las coordenadas de un vector v, relativas a una base S de V. En ese caso representaremos v por su vector columna coordenado, denotado y definido por

Subrayamos el hecho de que en esta secci6n [v]s es una matriz n x 1 y no simplemente un elemento de K". (El significado de [v]s estani siempre claro en este contexto.) Supongamos que S = {u 1 , u2 , ••• , un} es una base de un espacio vectorial V y que S' = {v1 , v2 , .. • , vn} es otra. Por ser S base, cada vector de S' puede escribirse de forma 1mica como combinaci6n lineal de los elementos de S. Por ejemplo,

v1 = c 11 u 1 + c 12 u2 V2

+ · · · + ct. u"

= C21u1 + C22U2 + · · · + c2,uN

Denotemos por P Ia traspuesta de Ia matriz de coeficientes anterior:

= (pii), donde Pii = cji· Esta P recibe el nombre de matriz de cambia de base (o el de matriz de transicibn) desde Ia «antigua base» S hasta Ia «nueva base» S'.

0 sea, P

Nota: Como los vectores v 1 , v2 , ••. , v" de S' son linealmente independientes, Ia matriz P es invertible (Problema 5.84). De hecho (Problema 5.80), su inversa p- 1 es Ia matriz de cambio de base desde Ia S', volviendo a Ia S. EJEMPLO 5.17.

Consideremos las dos bases de R1 : S

= {u 1 = (1, 2), u 2 = (3,

5)}

E = {e 1 = (1, 0), e2 = (0, 1)}

e 1 = -Su 1 + 2u2 e2 = 3u 1 - u2

ESPACIOS V ECTORIALES

191

Escribir los coelicientes de u 1 y u2 como columnas proporciona Ia matriz de cambio de base P desde Ia base S hasta Ia base usual E:

P=(-52 - 3)1 Ademas, como E es Ia base usual, u 1 = (1, 2) =

u2 = (3, 5) =

+ 2e 2 3e 1 + 5e2 e1

Escribir los coe!icientes de e1 y e 2 como columnas proporciona Ia matriz de cambio de base Q desde Ia base E, regresando a Ia base S:

Q=G D Observemos que P y Q son inversas:

~)=I El siguiente teorema (demostrado en el Problema 5. 19) nos describe como son afectados los vectores (columna) coordenad.os por un cambia de base. T eorema 5.27: Sea P Ia matriz de cambia de base des de una base S hasta otra S' en un espacio vectorial V. En ese caso, para todo vecto r v E V, tenemos P[v]s· = [v]s

y, por consiguiente,

Nota: - A pesar de Ilamarse P Ia matriz de cambio de base desde Ia antigua base S hasta Ia nueva S', es p - 1 la que transforma las coordenadas de v relativas a S en las coordenadas de v relativas a S'. Ilustramos el teorema precedente en el caso dim V = 3. Supongamos que P es Ia matriz de cambio de base desde Ia base S = {u 1 , u 2 , u 3 } hasta Ia S' = {v1 , v2 , v3 } ; es decir, v1 =

v2

a1 u 1

= b 1u 1

+ a 2 u2 + a 3 u 3 + b2 u~ + b3 u3

v3 =.c 1 u1 +c 2 u2 +c 3 U3 Por tanto,

S-pongamos ahora que vE V y digamos v = k 1 v1 :..."rnlinos de v1, v2 y v 2 obtenemos V

= k1(a1U 1 + = (a 1k 1 +

Expresando lo anterior en·

+ a3 U3) + k2(b1U1 + b2 Uz + b~ U3) + k3(C1U1 + C2 Uz + C3 U3) = + c 1 k 3)u 1 + (a2 k 1 + b2 k 2 + c 2 k 3)u2 + (a 3 k 1 + b 3 k 2 + c 3 k 3)u3

a2 U z

b 1k 2

+ k 2 v2 + k 3 v3 •

192

A LGEBRA LINEAL

Asi

y

De acuerdo con esto,

Asimismo, multiplicando Ia ecuacion precedente por p-t, p - 1 [v]s = p- 1 P[v]s· = I[v]s· = [v]s·

Nota: Supongamos que S = {u 1 , u2 , ••• , u,.} es una base de un espacio vectorial V sobre un cuerpo K y que P = (pii) es una matriz no singular arbitraria sobre K . Entonces los n vectores i=l,2, ... , n

son linealmente independientes (Problema 5.84) y por ende forman otra base S' de V. Mas aun, P sera Ia matriz de cambio de base desde S hasta Ia nueva base S'.

PROBLEMAS RESUELTOS

ESPACIOS VECIORIALES

5.1.

Demostrar el Teorema 5.1. i) Por el axioma (A 2 ] , con u = 0, sabemos que 0 + 0 = 0. Por tanto, segun el axioma [M tJ, kO = k(O

+ 0) =

kO

+ kO

Sumando -kO a ambos miembros conseguimos el resultado deseado. ii) Una propiedad de K es qne 0 + 0 = 0. Por consiguiente, de acuerdo con el axioma [M 2 ] , Ou = (0 + O)u = Ou + Ou. Sumando - Ou a ambos miem bros llegamos a! resultado requerido. iii) Supongamos que ku = 0 y k c# 0. Entonces existe un escalar ku

iv)

= !u = (k - k)u 1

=

1

k- (ku)

1

tal que k - 1 k = I , luego

1

= k- 0 = 0

Utilizando u + (-u) = 0 obtenemos 0 = kO = k(u + ( -u)) = ku + k( -u). Sumando - ku a ambos miembros, -ku = k( -u). Usando k + (-k) = 0 obtenemos 0 = Ou = (k + ( -k))u = ku + ( - k)u. Sumando - ku a ambos miembros, -ku = ( - k)u. De este modo, ( -k)u = k( - u) = - ku.

ESPACIOS VECTO RIALES

5.2.

Probar que para todo escalar k y todo par de vectores u y v, k(u- v) = ku- kv. Utilizamos Ia definicion de resta u- v Jd.u- v)

5.3.

193

=u +

(-v) y el resultado k( - v)

= -kv para obtener:

= k(u + {-v)) = ku + Jd.-v) = ku + (-kv) = ku- kv

Sea Vel conjunto de todas las fuociones de un conjunto no vacio X en un cuerpo K. Para to do par de funciones f, g E V y todo escalar k E K, sean f + g y kf las funciones en V definidas como sigue: (f + g)(x) =f(x) + g(x) y (kfXx) = kf(x) '
[A 1 ]

Sean f, g, he V. Para demostrar que (f + g) + h = f + (g + h) es necesario comprobar que las dos funciones asignan el mismo valor a cada x eX. Ahora bien, ((f + g) + h)(x) = (f + g)(x) + h(x) = (f(x) + g(x)) + h(x) (f + (g + h))(x) = f(x) + (g + h)(x) = f(x) + (g(x) + h(x))

'
Pero j(x), g(x) y h(x) son escalares en el cuerpo K , donde Ia suma de escalares es asociativa; de aqui (f(x) + g{x)) + h(x) = f(x) + (g(x) + h(x)) De acuerdo con esto, (f +g)+ h [A 2 ]

=

f +

Denotemos por 0 Ia funci6n cera: 0 (x)

(g +h). =

0, 'h e X . Para cada funci6n

(f + O)(x) = f(x) + O(x) = f(x) + 0 Asi pues, f + 0 =

·

[A3 ]

f

Vx e X

V. Para cada fnnci6n je V, sea - f Ia funci6n defi nida por ( - f)(x) y 0 es el vector cero en

(f + ( -f))(x) = f(x) + ( - f)(x)

[A4 ]

= f(x)

f e V,

=

f(x)- f(x)

= 0 = O(x)

= -

f(x). Entonces Vx eX

De aqui f + (-f) = 0. Sean f, g e V En tal caso, (f + g)(x)

= f(x) + g(x) = g(x) + f(x)

= (g + j)(x)

VxeX

P or tanto,/+ g = g + f [N6tese quef(x) + g(x) = g(x) + j(x) deriva del hecho de quef(x) y g(x) son escalares en el cuerpo K , en el que Ia suma es conmutativa.] [Md Seanf, geK. Tendremos (k(f + g))(x) = Jd.(f + g)(x)) = k(f(x) + g(x)) = kf(x) + kg(x) = = (kj)(x) + kg)(x) = (kf + kg)(x) Vx e X En consecuencia, k(f +g)= kf +kg. [N6tese que k(f(x) + g(x)) = kf{x) + kg(x) se sigue del hecho de que k, j(x) y g(x) son escalares en el cuerpo K, donde el prod ucto es distributivo respecto a Ia suma.] [M 2]

Sean je Vy a, beK. Entonces ((a + b)f)(x) = (a + b)f(x) = af(x) + bj(x) = (tif)(x) + bj(x) = = (af + bf)(x), Vx e X Por consiguiente, (a + b)f = af + bf

194

ALGEBRA LINEAL

[M 3]

Scan fe V y a, beK. Entonces VxeX

((ab)j)(x) = (ab)/(x) ,.. a(bf(x)) = a(bj)(x) = (a(bf))(x)

[M4 ]

Por tanto, (ab )/ = a(bf). ScafeJI. Para Ia unidad leK, {lf}(x) = !f(x))=f(x), VxeX. Asi lf = .f

Como se satisfacen todos los axiomas, V es un espacio vectorial sobre K.

SUBESPACIOS 5.4.

Demostrar el Teorema 5.2. Supongarnos que W satisface i), ii) y iii). Por i), W es no vacio, rnientras que por ii) y iii), las operaciones de surna vectorial y producto por un escalar estan bien definidas sobre W. Ademas, los axiomas [A 1] , [A 4 ], [Md, [M 2 ), [M 3 ] y [M 4 ] se verifican en W, puesto que los vectores deW pertenecen a V. Por tanto, solo necesitamos probar que [A 2 ] y [A 3] tambien se verifican en W Poe i), W es no vacio, digamos u e W Entonces, por iii), Ou = 0 e W y v + 0 = v para todo L' e W, luego W satisface [A 2 ]. Finalmente, si ve W, necesariamente ( - l)v = - ve W y v + (- v) = 0; por consiguiente, W es un subespacio de V. Reciprocarnente, si W es un subespacio de V, es claro que se verifica n i), ii) y iii).

5.5.

Dernostrar el Corolario 5.3. Supongamos que W satisface i) y ii). De acuerdo con i), W es no vacio. Ademas, si v, we W, entonces, por ii), v + w =tv+ I we W; y si ve W y keK , por ii), kv = kv + Ove W. Asi, segun el Tcorema 5.2, W es un subespacio de V. Reciprocamente, si W es un subespacio de V, clararnente se vcrifican i) y ii) en W.

5.6.

Proba r que Wes un subespacio de R 3 , donde W= {(a, b, c): a+ b + c = 0}, esto es, W consiste en aquellos vectores con la propiedad de que la suma de sus componentes es cero. 0 = (0, 0, 0) e W porque 0 + 0 + 0 = 0. Supongamos que v = (a, ·b, c), w = (a', b', c') pertenecen a W, es decir, a + b + c = 0 y a' + b' + c' = 0. Entonces, para dos c~calares cualesq_uiera k y k', kv

+ k'w = k(a, b, c)+ k'(a', b', c') =

(ka, kb, kc)

+ (k'a', k'b', k'c') =

(ka

+ f
y, ademas, (ka

+ k'a') +

De este modo, k v

(kb

+

k'b')

+ (kc +

+ k'we W y por tanto

k'c') W

= k(a + b +c)+ k'(a' + b' + c') = kO + k'O = 0 es un subespacio de R3 .

. 5.7.

Sea V el espacio vectorial de todas las matrices cuadradas n x n sobre un cuerpo K. M ostra r que W es un subespacio de V, donde:

= (aii)

a)

W consiste en las matrices simetricas, es decir, todas las matrices A

b)

que ai; = all" W consiste en todas las matrices que conmutan con una matriz dada T; esto es,

para las

W ={A e V : AT= T A} a) 0 e W, ya que todas las entradas de 0 son 0 y por tanto iguales. Supongamos ahora que A = (a;i) y B = (h;) per'tenecen a W, o sea, a11 = ail y bii = b;1. Para todo par de escalares a,

ESPACIOS VECTORIALES

+ bB es Ia matriz cuya entrada ij es aaii + bbiJ. Pero aaii + bbJI = + bB es tam bien simetrica, de modo que W es un subespacio de V.

bE K, a A

asi, aA b)

aa,i

+ bbii.

195 Siendo

Oe W. puesto que OT = 0 = TO. Suponga mos ahora que A , Be W, es decir, AT= TA y BT = TB. Para todo par de escalares a, b e K , (aA

+ bB)T =

(aA)T

+ (bB)T =

a(AT) + b(BT) = a(TA)

+ b(TB)=

= T(aA) + T(bB) = T(aA + bB) De este modo. aA subespacio de V.

5.8.

+ bB

cone1uta con T, o sea, pertenece a W ; por consiguiente, W es un

Sea Vel espacio vectorial de todas las matrices 2 x 2 sobre el cuerpo real R. Probar que W no es un subespacio de V si: a)

W consiste en todas las matrices con determinante nulo.

b)

W consiste en todas las matrices A para las que A 2 = A.

a) [ Recuerdese que det(;

~) = ad - be.]

Las matrices A=

a W, pues det (A)= 0 y det (B) = 0. Sin embargo, A+ B = a que det (A b)

La

+ B) =

G~) G~)

y B

=

G~)

pertenecen

no pertenece a W debido

1. Por tanto, W no es un subespacio de V.

~atriz unidad I = (~ ~) ~ertenece a W, ya que Il =

Pero 2I =

G~)(~

~)

=

G~)=I

(~ ~) no pertenece a W porque 1

(2/) =

G~)(~

~) = G~) * 21

En consecuencia, W no es un subespacio de V.

5.9.

Sea Vel espacio vectorial de todas las funci ones del cuerpo real R en R. Probar que W es un subespacio de V, donde W consiste en todas las funciones impares, esto es, aquellas funciones f para las que f( -x) = - f(x). Denotemos por 0 Ia funci6n cero: O(x)=O para todo xE R. Oe Wpuesto que 0( - x)= O= - 0 = -O(x). Supongamos f, gE W, o sea, f( - x) = - f(x) y g( -x) = -g(x). · Para dos numeros reales cualesquiera a y b, (af + bgX -x) = af( -x) + bg( -x) = -af(x) - bg(x) = -(af(x) + bg(x)) = -(af + bgXx)

Asi pues, af + bg E W y por consiguiente W es un subespacio de V.

5.10.

Sea Vel espacio vectorial de los polinomios a 0 + a 1 t + a 2 t 2 + --- +ant" con coeficientes reales, es decir, a; E R. Determinar si W es o no un subespacio de V, donde:

a)

W consiste en todos los polinomios con coeficientes enteros.

196

ALGEBRA LINEAL

b)

W consiste en todos los polinomios de grade ~3.

c)

W consiste en todos los polinomios en los que solo aparecen potencias pares de r.

d)

W consiste en todos los polinomios que tienen por raiz a

a)

j=l.

No, porque los multiplos escalares de los vectores en W no siempre pertenecen a W. Po::ejemplo, 2 pero V = 3 + 5t + 7t E W (Observese q ue W es «cerradm rel="nofollow"> bajo Ia suma vectorial, esto es, las sum as de elementos de W pertenecen a W.) ·

b), c) y d)

Si, puesto que, en cada caso, W es no vacio, Ia suma de elementos de W pertenccc a W y los multiplos escalares de cualquier elemento de W pertenecen a W.

5.11.

Demostrar el Teorema 5.4.

n

Sean { W;: i E J} una coleccion de subespacios de v y w = (I¥;: i E 1). Dado que cada W; es un subespacio, 0 E W. para todo i E I. Por tanto, 0 E W Supongamos que tl, v e W. En ese caso, u, v E ~' ; para todo i E 1. Como cad a W; es un subespacio, au + bv E W; para cada i E 1. Por consiguiente. - au+ bvE W. De este modo, W es un subespacio de V.

COMBINACIONES LINEALES. ENVOLVENTES LINEALES 5.12.

Expresar v = (1, -2, 5) en R 3 como combinacion lineal de los vectores u 1 , u2 , u3 , siendo u 1 = (1, - 3, 2), u 2 = (2, -4, -1), u 3 = (1 , - 5, 7). Primero tomamos

(1, -2, 5) = x(1, - 3, 2) + y(2, - 4, -1) + z(l, -5, 7) = (x + 2y + z, -3x- 4y- 5z, 2x- y + 7z) Foimamos el sistema de ecuaciones cquiva len te y Jo reducimos a fo rma escalonada:

+ 2y + Z = l - 3x - 4y - 5z = -2 2x - y+7z= 5 X

X

o

+ 2y +

Z

=1

2y - 2z = 1

X

o

+ 2y +

Z

= 1

2y - 2z = 1

-5y+5z = 3

0 =11

El sistema no tienc solucion. De aqui que v no sea combinacion lineal de u 1 , u2 , u3 •

5.13.

Expresar el polinomio sobre R v = t 2 + 4t- 3 como combinacion lineal de los polinomios p 1 = t 2 - 2t + 5, p 2 = 2t2 - 3t, p 3 = t + 3. Tomamos v como combinacion lineal de p 1 , p 2 , p 3 utilizando incognitas x, y, z: 2t + 5) + y(2t 2 - 3t) + z(t + 3) = = xt - 2xt + 5x + 2yt2 - 3yt + zt + 3z = = (x + 2y)t 2 + (- 2x - 3y + z)t + (Sx + 3z)

t 1 + 4t - 3 = x(t 2

-

1

lgualamos entre si los coeficientes de las mismas potencias de c y reducimos el sistema a forma escalonada: X+ 2y X+ 2y 1 X+ 2y = 1 -2x-3y+ z= 4 y+ z = 6 0 y +z= 6 0 5x + 3z = -3 - 10y+3z = -8 13z =52 El sistema esta en fo rma triangular y tiene solucion. R~solver por sustitucion hacia atr:.'ls conduce ax= -3, y = 2, z = 4. Asi pues, v = -3p 1 + 2p 2 + 4p3 .

ES PACIOS VECTORIALES

5.14.

Escribir Ia matriz E =

G

1 ) como

-1

A=G ~)

197

combina~i6n lineal de las matrices

B= (

~)

0· l

y

Tomamos E como combinaci6n lineal de A, B, C usando las incognitas x, y, z: E = xA

~)+~~ -D= 0)y + (00 -z2z) (x +x y

x

+

+ yB + zC.

2z)

y-z

=

Construimos el sistema de ecuaciones equivalente igualando entre si las entradas correspondientes:

x+y=1

x =3

x + 2z = I

y- z

=

-1

Sustituimos x = 3 en las ecuaciones segunda y tercera para obtener y = - 2 y z = - I. Como estos valores tambien satisfacen Ia ultima ecuaci6n, forman una soluci6n del sistema. Por tanto, E = 3A - 28- C.

5.15. . Encontrar una condici6 n a imponer sabre a, b, c para que w =(a, b, c) sea combinaci6n lineal de u = (1 , - 3, 2) y v = (2, - 1, 1), esto es, para que w pertenezca a lin (u, v). Tomamos w = xu

+ yv utilizando

incognitas x e y:

(a, b, c)= x(l, -3, 2) + y(2, -1, 1) = (x + 2y, -3x - y, 2x + y) Construimos el sistema equivalente y lo reducimos a forma escalonada:

x + 2y =

x + 2y =a - 3x- y = b 2x+ y =c

0

Sy

=

a 3a + b

x 0

-3y = -2a + c

+ 2y =

a Sy = 3a + b 0= -a+ 3b

+ Sc

El sistema es compatible si y solo si a - 3b - 5c = 0, luego w es combinacional lineal de u y v cuando a - 3b - 5c = 0.

5.16.

Demostrar el Teorema 5.6. Supongamos que S es vacio. Por definicion, lin S = {0}. Por consiguiente, lin S = {0} es un subespacio y S,;;;; lin S. Supongamos que S es no vado y que veS. En ese caso, lv = vE iin S; por tanto, S es un subconjunto de lin S. Siendo asi, lin S es no vacio porque S es no vacio. Supongamos ahora que v, we lin S, por ejemplo y

donde

V;, wiE S

y ai, b1 son escalares. Entonces V

+ W = a1V 1 + ' ' ' + a,. V,. + b1 WI + ' '. + b. W

0

y, para cualquier escalar k, kv = k(a 1 v 1

+ · ·· + a.,v..) =

ka 1 v 1

+ · ·· + ka,.v.,.

pertenecen a lin S, puesto que cada uno es combinacion lineal de vectores en S. Asi lin S es un subespacio de V. ; ·

198

ALGEBRA LINEAL Ahora supongamos que W es un subespacio de V que contiene S y que v 1 , ••• , v.. e S c;; W. En tal caso, todos los multiplos a 1 v1 , ••. , a .. v.,e W, donde a;EK, y Ia suma a 1 v 1 + ··· + a .. v.. e W. Esto es, W contiene todas las combinaciones lineales de elementos de S. En consecuencia, lin S es un subespacio de W, como se pretendia.

DEPENDENCIA LINEAL 5.17.

Determinar si u = I - 3t dientes.

+ 2t 2 -

3t 3 y v = - 3

+ 9t -

6t 2

+ 9t 3

son linealmente depen-

Dos vectores son linealrnente dependientes si y solo si uno es un multiplo del o tro. En este caso, v = -3u.

5.18.

Determinar si los siguientes vectores en R 3 son o no linealmente dependientes:

u = (1, -2, 1), v = (2, 1, -1), w = (7, -4, 1). Metodo l. y y z:

lgualamos a cero una combinaci6n lineal de los vectores con escalares desconocidos x,

x(l, -2, 1) + }(2, 1, -1) + z(7, -4, 1) = (0, 0, 0) Entonces (x, -2x, x) + (2y, y, - y) + (7z, -4z, z)

= (0, 0, 0)

o sea,

(x

+ 2y + 7z,

- 2x + y - 4z, x - y

+ z) = (0, 0, 0)

lgu alarnos en tre si las componentes correspondientes para llegar al sistema homogeneo equivalente · y lo reducimos a forma escalonada: x + 2y + 7z = 0 -2x+ y -4z =0 x- y+ z=O

x 0

+ 2y + 5y +

7z = 0 lOz = 0

x

0

+ 2y + 7z =

0

y+2z=O

-3y- 6z=0

El sistema, en fo rma escalonada, tiene unicarnente dos ecuaciones no nulas en las tres incognitas, de aqui que el sistema tenga una solucion no nula. Asi que los vectores originales son linealmente dependientes. Metodo 2. Construimos Ia matriz cuyas filas son los vectores dados y Ia reducimos a form a escalonada utiliza ndo las operaciones elementa les entre filas:

(~

7

-~ ~!)- (~ -! -~)- (~ -~ -~)

- 4

1

0

10

-6

0

0

0

Dado que Ia matriz escalonada tiene una fila nula, los vectores son linealmente dependientes. (Los tres vectores dados generan un espacio de dimension 2.)

5. 19.

Considerese el espacio vectorial P(t) de los polinomios sabre R . Determinar si los polinomios u, v y w son linealmente dependientes, siendo u = t 3 + 4t 2 - 2t + 3, v = t 3 + 6t 2 - t + 4, w = 3t 3 + 8t 2 - 8t + 7.

199

ESPACIOS VECTORIA LES

Igualamos al polinomio cero una combinacion lineal de u, v y w con escalares desconocidos x , y y z; esto es, tomamos xu + yv + zw = 0. Entonces

+ 4t 2 - 2t + 3) + ~t + 6t2 - t + 4) + z(3t 3 + 8t2 - 8t + 7) = 0 xt 3 + 4xt2 - 2xt + 3x + yt3 + 6yt 1 - yt + 4y + 3zt3 + 8zt 2 - 8zt + 7z = 0 (x + y + 3z)t 3 + (4x + 6y + 8z)t2 + (-2x- y- 8z)t + (3x + 4y + 7z) = 0 3

x(t 3

0

0

Igualamos a cero los coeficientes de cada potencia del y reducimos el sistema a forma escalonada: x 4x

+ y + 3z = + 6y + 8z =

-2x -

x

0 0 0

y- 8z = 0

3x + 4y

+ 7z = 0

+

y + 3z = 0 2y- 4z = 0 y - 2z = 0

o finalmente

x

+ y + 3z =

0

y- 2z

0

=

y- 2z = 0

El sistema en forma escalonada tiene una variable libre y por tanto alguna soluci6n no nula. Hemos probado que xu + yv + zw = 0 no implica x = 0, y = 0, z = 0, luego los polinomios son linealmente independientes.

5.20.

Sea V el espacio vectorial de las funciones de R en R. Pro bar que j, g, h E V so n linealmente independientes, donde f(t) = sen t, g(t) = co~ t, h(t) = t. Igualamos a Ia funci6n cero, 0, una combinaci6n lineal de las funciones con escalares desconocidos x. y y z: xf + yg + zh = 0, para luego demostrar que, necesariamente, x = 0, y = 0, z = 0. Hacemos enfasis en que xf + yg + xh = 0 quiere decir que, para coda valor de t, xf(t) + yg(t) + xh(t) = 0. En Ia ecuaci6n x sen t + y cos t + zt = 0 sustituimos

t=O t

= n/2

t=n

Resolvemos el sistema

para obtener

x ·0 + y · I + z ·0 = 0 x · I + y · 0 + zn/2 = 0

para obtener

x ·0

para obtener

+ y( -

1) + z · rr = 0

y= 0

o sea

o sea

x

o sea

-

+ nz/2 = 0 y + nz = 0

y=O x + nz/2 = 0 y conseguimos Ia soluci6n unica: x = 0, y { -y+nz=O

= 0, z =

0.

Por consiguiente, f, g y h son linealmente independientes.

5.21.

Sea Vel espacio vectorial de las matrices 2 x 2 sabre R. Deterrninar si las matrices A, B, C E V son linealmente dependientes, siendo:

A=G ~)

B=G ~)

Igualamos a Ia matriz cero una combinaci6n lineal de A. B y C con escalares desconocidos x, y y z; es decir, tomamos xA + yB + zC = 0. 1 X( 1

es decir,

200

ALGEBRA LINEA L

lgualamos entre si las componentes correspondientes para llegar al sistema de ecuaciones lineales equivalente:

x+ y + z= O

x+ z= O

x + y=O

x=O

Resolviendo el sistema obtenemos unicamente Ia solucion nula: x = 0, y = 0, z = 0. Hemos demostrade q ue xA + yB + zC = 0 implica x = 0, y = 0, z = 0; por tanto, las matrices A, B y C son linealmente independientes.

5.22.

Sup6ngase que u, v y w son vectores linealmente independientes. Probar que tambien lo son u + v, u - v y u - 2v + w. Supongamos x(u

+ v ) + y (u xu

o sea,

+ z(u -

2v

+ w) =

+ x v + yu -

yv

+ zu -

(x

v)

+ y + z)u + (x -

y-

0, donde x, y y z son escalares. Entonces

+ zw = 0 2z)v + zw = 0 2zv

Pero u, v y w son linealmente independientes, por lo que los coe!icientes en Ia relacion anterior son tod os 0:

x+y+ z =O x - y - 2z = 0

z=O La (mica solucion del sistema precedente es x + w son linealmente independientes. ·

= 0, y = 0, z = 0. En consecuencia, u + v, u - v y

u - 2v

5.23. Demostrar que los vectores v = (1 + i, 2i) y w = (l , 1 + i) en C 2 son linealmente dependientes sobre el cuerpo complejo C, pero 1inealmente independientes sobre el cuerpo real R. Recordemos que dos vectores son linealmente dependientes (sobre un cuerpo K) si y solo si uno de ellos es multiplo de otro (por un elemento de K). Como (1

+ i)w = (1 + iXl, 1 + i) = (1 + i, 2i) = v

v y w son linealmente dependientes sobre C. Por el contrario, v y w son linealmente independientes sobre R, ya que ningun multiplo real de w puede ser igual a v. Concretamente, cuando k es real, Ia primera componente de k w = (k, k + ki) es real y nunca puede ser igual a Ia primera componente I + i de v, que es compleja.

BASES Y DIMENSION

5.24.

D eterminar si (1, 1, 1), (1, 2, 3) y (2, -1, 1) constituyen una base del espacio vectorial R 3 _ Los tres vectores Forman una base si y solo si son linealmente independientes. Construimos Ia matriz A cuyas filas son los vectores da dos y Ia reducimos por !ilas a forma escalonada:

1 2 -1

~) - (~ 1

0

1

- 3

~)-(~

-1

0

1 .

0

~) 5

La matriz escalonada no tiene filas nulas, luego los tres vectores son linealmente independientes y en consecuencia forman una base de R 3 .

ESPACIOS VECTORIALES

5.25.

201

Determinar si (1 , l, I, 1), (1 , 2, 3, 2), (2, 5, 6, 4) y (2, 6, 8, 5) forman una base de R 4 . Construimos La matriz A cuyas filas son los vectores dados y Ia reducim os por filas a fo rma escalonada:

·~(~

1 2

1

5 6

6 8

3

~) ~(~

1 1 3 4

2 4 6

~)-(~

-}(~

1 1

0 0

2 - 2 -2 -1

0

1 1

2 2 0

0

0

i)

La ma triz escalonada tiene una fila nula; por consiguiente, los cuatro vectores son linealme nte dependientes y no constituyen una base de R 4 .

5.26.

Considerese el espacio vectorial P"(t) de los polinomios en t de grado S.n. Determina r si l + t, t + t 2 , t 2 + t 3 , ••• , tn - t+ tn forman o no una base de Pn(t ). Los polinomios son linealmente independientes, pues cada uno de ellos es de grado mayor que los precedentes. Sin embargo, hay solo n polinomios y dim P,(t) = I I + I. P or tanto, los polinomios no constituyen una base de P,(t).

5.27.

Sea Vel espacio vectorial de las matrices reales 2 x 2. Determinar si

A=(~ ~)

D=

(~ ~)

constituyen una base de V. Los vectores coordenados (vease Ia Seccion 5.10) de las matrices respecto a Ia base usual son, respectivamente, [A]

= (1,

1, 0, 0)

[B] = (0, 1, 1, 0)

[C] = (0, 0, 1, 1)

[D] = (0, 0, 0, 1)

Estos vec tores coordenados forman una matriz en forma escalonada y por consiguiente son linea~ . mente independientes. De este modo, las cuatro matrices co rrespondientes son linealmente independientes. Mas a \m , como dim V = 4, forman una base de V

5.28.

Sea Vel espacio vectorial de las matrices simetricas 2 x 2 sobre K. M ostrar que dim V = 3. [Recuerdese que A = (ai) es simetrica si y solo si A =AT o, equivalentemente, aij = aji·l Una m atriz simetrica 2 x 2 a rbitraria es de Ia forma A = ( :

b), donde a, b , cE K. (Notese c .

que hay tres «variables».) Tomando "i) a

= 1, b = 0, c = 0,

.

ii) a = 0, b = 1, c = 0,

iii) a = 0, b = 0, c

=1

obtenemos las respectivas matrices

Demostremos que {E 1 , E 2 , E 3 } es una base de V, o sea, que a) genera V y b) es linealmente independiente.

202

ALGEBRA LINEAL a)

Para Ia matriz ar bitraria anterior A en V tenemos

A=(: !)

= a£ 1

+ bE2 +

cE

3

Asi pues, {E 1 , £ 2 , £ 3 } genera V. b)

Supongamos que x£ 1 supongamos que

+ y£2 + z£3

= 0, donde

x, y, z son escalares desconocidos. Esto es.

Igualand o entre si las componentes correspondientes obtenemos x palabras, implica

X

=

= 0, y = 0,

0 , y = 0, z = 0. En otras Z

=0

De acuerdo con ello, {£ 1 , £ 2 , £ 3 } es linealmente independiente. De este modo, {£ 1 , £ 2 , £ 3 } es una base de V y por tanto Ia dimension de V es 3.

5.29.

5.30.

Considerese el cuerpo complejo C que contiene el cuerpo real R que, a su vez, contiene e_I cuerpo racional Q . (C es un espacio vectorial sobre R y R un espacio vectorial sabre Q .) a)

Probar que C es un espacio de dimension 2 sabre R.

b)

Pro ba r que R es un espacio de dimension infinita sobre Q.

a)

Afirmamos que {I, i} es una base deC sobre R. Ello se debe a que si veC, v =a + bi =a· I+ b · i con a, b E R; es decir, {I, i} genera C sobre R. Ademas, si x · l + y · i = 0 o x + yi""' 0, donde x , ye R, necesariamente x = 0 e y = 0; esto es, {I, i} es linealmente independiente sobre R. De este modo, {I , i} es base de C sobre R y C es de dimension 2 sobre R.

b)

Afirma mos q ue, para todo 11, {1, n , n 2 , ... , n"} es linealmente independiente sobre Q. Supo ngamos a 0 l +a 1 n+a2 n 2 + .. ·+a.n"=0, d onde los ai E Q y no todos los ai son 0. En tal caso, n es una raiz d el siguiente polinomio no nulo sobre Q : a0 + a 1 x + a 2 x 2 + ... + a.x". Pero puede demostrarse que rr es un numero trascendente, o sea, que no es raiz de ningun polinomio no nulo so bre Q. En consecuencia, los 11 + I numeros rea les I , rr, n 2 , ••• • n" son linealmente independientes sobre Q. Asi, para cua lquier 11 finito, R no puede ser de dimension 11 sobre Q ; R es de dimension infinita sobre Q .

Sea S = { u 1 , u2 , ... , u.} un subconjunto de un espacio vectorial V. Demostrar que las dos condiciones siguientes son equivalentes: a) S es linealmente independiente y genera V, b) to do vecto r v E V puede escribirse de forma unica como combinacion lineal de vectores deS. Supongamos que se verifica a). Como S genera V, el vector v sera combinaci6n lineal de los u,; digamos

Supo ngamos que tenemos tambien

Restando llegamos a

ESPACIOS VECTORIALES

203

Ahora bien, los ui son linealmente independientes; por tanto. los coeficientes en Ia relaci6n anterior son todos 0:

Por consiguiente, a 1 = b 1 , a 2 = b2 , ••• ,a"= b"; Iuego Ia representaci6n de v como combinaci6n · lineal de los ui cs (mica. Siendo asi, a) implica b). Supongamos que se verifica b). Entonces S genera V. Supongamos

No obstante, tenemos 0 = Ou 1

+ Ou2 + ... + Ou"

Por hip6tesis, Ia representaci6n de 0 como combinaci6n lineal de los ui es unica, por lo que cada ci = 0 y los u1 son linealmente independientes. Asi b) implica a).

DIMENSION Y SUBESPACIOS 5.31.

Hallar una base y Ia dimension del subespacio W de R 3 , donde: a)

W = {(a, b, c): a

+ b + c = 0}, c)

5.32.

W

b)

= {(a, b, c): a= b = c},

W =(a, b, c): c = 3a}

a)

N6tese que W #- R 3 , dado que, por ejemplo, (I, 2, 3)¢ W. Por tanto, dim W < 3. N6tese, asimismo, que u 1 = (1, 0, -I) y u2 = (0, 1, -I) son dos vectores linealmente independientes en W. De este modo, dim W = 2 y 11 1 y u 2 forman una base de W.

b)

El vector u = (I, I, l)E W. Todo vector wE W es de Ia forma w = (k, k, k), luego w u genera W y dim W = I.

i:)

W #- R 3 porque, por ejemplo, (I, I, 1)¢ W. Entonces dim W < 3. Los. vectores u 1 = (1 , 0, 3) y 11 2 = (0, I, O) pertenecen a W y son linealmente independientes. Por tanto, dim W = 2 y u 1 y u 2 constituyen una base de W.

=

ku. Asi

Encontrar una base y Ia dimension del subespacio W de R 4 generado por u 1 =(I, -4, -2, I),

u 2 =(I, - 3, -I, 2),

u 3 = (3, -8, -2, 7)

Aplicamos el Algoritmo 5.8A del espacio fila. Construimos una matriz en Ia que las filas son los vectores dados y Ia reducimos por filas a forma escalonada:

1 -4 -2 1) (1 -4 -2 1) (l -4 -2

(3

-3

-1

2 -

0

1

1

1 -

0

1

l

-8

-2

7

0

4

4

4

0

0

0

i)

Las lilas no nulas de Ia matriz escalonada forman una base de W, de modo que dim W = 2. En particular, esto significa que los tres vectores originales son linealmente dependientes.

5.33.

Sea W el subespacio de R 4 generado por los vectores

u1 =(I, -2, 5, -3),

u2 = (2, 3, I, -4) u3 = (3, 8, -3, -5)

a) Hallar una base y Ia dimension de W. b) Extender Ia base de W a una del espacio R 4 completo.

204

ALGEBRA LINEAL

a)

Construimos Ia matriz A cuyas filas son los vectores dados y Ia reducimos por filas a forn:z escalon ada:

1 - 2 3 ( 3 8

A= 2

5 1 -3

-3) (1 -4 -5

-~ -~)- (~ -~ -~ -~)

-2 7 14

0 0

-18

4 .

0

0

0

0

Las filas no nulas ( I, -2, 5, - 3) y (0, 7, - 9, 2) de Ia matriz escalonada forman una base del espacio fila de A y por ende W. Asi, en particular, dim W = 2. b)

5.34.

Buscamos cuatro vectores linealmente independientes que incluyan los dos anteriores. Los vectores (1 , - 2, 5, -3), (0, 7, - 9. 2), (0, 0, 1, 0) y (0, 0, 0. 1) son linealmente independientes (porque forman una matriz escalonada) y constituyen, pues, una base de R 4 que es una extension de Ia de W.

Sea W el subespacio de R 5 generado por los vectores 11 1 = (1, 2, - 1, 3, 4), u 2 = (2, 4, -2, 6, 8). u3 = (1, 3, 2, 2, 6), u4 = ( 1, 4, 5, 1, 8) y u 5 = (2, 7, 3, 3, 9). Hallar un subconjunto de los vectores que sea base de W. Metodo 1. Aqui empleamos el Algoritmo 5.88 de expulsion. Construimos !a matriz cuyas columnas son los vectores dados y Ia reducimos a forma escalonada:

2

1 2

4

4

- 2 6 8

1 3 2 2 6

4 5 1 8

2 7 3 3 9

1 0 0 0 0

2 0 0 0 0

0 0 0 0

2 0 0 0 0

1 2

2 3

3

6

5

-1

-2

-3

2

4

1

1 2 0 0 0

1 0

0 0

2 0 0 0 0

0 0 0

1 2 2 3 0 -4 0 0· 0 -5

2 3

-4 0 0

Las posiciones de los pivotes estan en las columnas C 1, C 3 y C 5 • Por consiguiente, los vectores correspondientes 11 1 , 113 y u5 forma n una base de W y dim W = 3. Metodo 2. Aqui utilizamos una ligera modificacio n del Algoritmo 5.8A del espacio fila. Construimos Ia matriz cuyas filas son los vectores dados y Ia reducimos a forma «escalo nada» pero sin intercambiar ninguna fila nula:

2

2 4

1 2

3 4 7

1

- 1 -2 2

5 3

3

2 0

6

2 1 3

8

0

2 3

-1

0 3

6

5

3 0 -1

-2 -3

0 0 0

2 0 1 0 0

-1

0 3 0

- 4

3 0 -1

0 0

4 0 2 0

-5

Las filas no nul as son Ia primera, tercera y quinta; lucgo u 1 , u 3 y u 5 forman una base de W. De este modo , en particular. dim W = 3.

ESPACIOS VECTORIALES

5.35.

205

Sea Vel espacio vectorial de las matrices reales 2 x 2. Encontrar Ia dimension y una base del subespacio W de V generado por A= (

C=G

1

-1

~~)

D= (

3

-2

Los vectores coordenados (vease Ia Secci6n 5.10) de las matrices dadas respecto a Ia base usual de V son los siguientes:

[A}= [1, 2, -1, 3]

[B]

= [2, 5, 1, -1]

[C] = [5, 12, 1, 1]

[D] = [3, 4, - 2, 5]

-Formamos una matriz cuyas filas sean los vectores coordenados y Ia reducimos a forma escalonada:

(j

2

-1

5 12 4 - 2

-}(~

~ -~ -~)

0

0

0

0

7

-18

Las lilas no nulas son linealmente independientes, por lo que las matrices asociadas (

1

2

- 1

3

).

1 0 0 ) y ( ) constituyen una base de W y dim W = 3. (N 6tese tambien que A, B y D 3 -7 7 -18 forman un·a base de W.)

.(

0

TEOREMAS SOBRE DEPENDENCIA LINEAL, BASES Y DIMENSION 5.36.

Demostrar el Lema 5.10. · Como los vi son linealmente dependientes, existen escalares a 1 , ... , a..,, no todos 0, tales que a 1 v1 + -- - + a... v... = 0. Sea k el mayor entero tal que ak c# 0. En ese caso, 0

Supongamos que k = I ; entonces a 1 v1 = 0 , a 1 c# 0, luego v 1 = 0. Pero los vi son vectores no nulos; po r tanto, k > I y

Esto es, vk es una combinaci6n lineal de los vectores precedentes.

5.37.

Demostrar el Teorema 5.11. Supongamos que R., R._ 1 , .. . , R 1 son linealmente dependientes. Una de las lilas, digamos R ... , debe ser combinaci6n lineal de las precedentes:

Sea aho ra Ia k-esima componente de R., su primera entrada no nula. En tal caso, dado que Ia matriz esta en fo rma escalonada, las componentes k-esimas de R,. + 1 , ... , R. son todas 0 y Ia componente k-esima de ("') es, pues, a,.,+ 1



0+

a, + 2



0 +--·+a.· 0 = 0

Pero esto contradice Ia suposici6n de que Ia componente k-esima de R,. no es 0. Por consiguien te. R 10 ... , R,. son Jinealmente independientes.

206

ALGEBRA LINEAL

5.38.

Sup6ngase que {v1,

... ,

v,} genera un espacio vectorial V. Se pide demostrar:

V, entonces {w, v1,

v,} es linealmente dependiente y genera V.

a)

Si

b)

Si v1 es una combinaci6n lineal de los vectores (v 1 , v 2 , {v1 , ... , v1_ 1 , v1 + 1 , ... , v,} genera V.

a)

wE

... ,

•. • ,

v1 _ 1 ), ento nces

El vector w es una combinacio n lineal de los v1 ya que · {v1} genera V. De acuerdo con ello. ••• , v,} es linealmente d ependiente. Obviamente, w y los v1 generan V, puesto que ya lo hacian los v1 por si mismos. 0 sea, {w, v1 , • •• , v, } genera V.

{w, v 1, b)

Supo ngamos v1 = k 1 v1 + ··· + k1_ 1 v,_,. Sea u e V. Como {vJ genera V, u es una combinacion lineal de los V;, por ejemplo, u =a, v, + ... + amv,. Sustituyendo V; obtenemos

+ · · · + a 1_ 1 v1_ 1 + a,{k 1 v1 + · ·· + k 1_ 1v1_ 1) + ai+ 1 vl+ 1 + ·· · + a,.v., = + a1 k 1 )v1 + · ·· + (a1 _ 1 + a1 k1_ 1)v1_ 1 + a;+ 1 v1 + 1 + · · · + a.,v,.

u = a1v 1 = (a 1

Asi {v 1 , • •• , v1_ 1 , v1+ 1 , ••• , v,} genera V. En otras palabras, podemos suprimir v1 del conjunto generador y tener todavia un conjunto generador.

5.39.

Demostrar el Lema 5.13. Basta demostrarlo en el caso de que los v1 no sean todos 0. (Pruebese.) Como los v, generan V, tenemos, de acuerdo con el Problema 5.38, que

(1) es linealmente d ependicnte y genera V. Por el Lema 5.10 sabemos que uno de los vectores en (I] es una combinaci6n lineal de los precedentes. Este vector no puede ser w1 , luego debe ser uno de los v, digamos vi. De este modo, segun el Problema 5.38, podemos suprimir vi del conjunto generad o r [I] obteniendo el conjunto generador

[2] Ahora repetimos el argumento con el vector w2 • Es decir, como [2] genera V, el conjunto

[3] es linealmente dependiente y tam bien genera V. De nuevo por el Lema 5.10 uno de los vectores es combinacion lineal de los p recedentes. Subrayamos el hecho de que este vector no puede ser w 1 ni w 2 , porque {w1 , .•. , w, } es independiente; por consiguiente, debe ser uno d e los v, por ejemplo , v k. En ese caso, segu n el problema precedente, podemos suprimir vk del conjunto generad or (3] obteniendo

Repetimos el argumento con w3 , y asi sucesivamente. En cada paso somos capaces de anadir uno de los w y suprimir uno de los v en el conjunto generado r. Si m :::;; n, conseguiremos fin almente un conjunto generador d e Ia forma requerida:

Por ultimo, probemos que m > n no es posible. En caso contrario, tras n de los pasos anteriores, obtendriamos el conjunto generador {w1 , ... , w.}. Esto implicaria que w.+, es combinacion lineal de w 1 , .•. , w•• Io que contradice Ia hipotesis de q ue {w,} es linealmente independiente.

5.40.

Demostrar el Teorema 5.12. Supongamos que {u 1 , u2 , .•• , u.} y {v 1 , v2 , ••• } son dos bases de V. Dado que {u;} genera V, Ia base {v1 , v2 , ••. } debe contener n o me nos vectores, o bien ser lineal mente dependiente. de acuerdo

--------------~~----------------------------

ESPACIOS VECTORIALES

207

con el Problema 5.39 (Lema 5.13). Por otra parte, si Ia base {v 1 , v2 , .•. } tiene menos de 11 elementos, {u 1 , u2 , ••. , u.} es linealmente dependiente, segun el Problema 5.39. Sicndo asi, Ia base {v 1 , v2 , .•• } contiene exactamente n vectorcs y el teorema es, pues, cierto. ·

5.41. · Demostrar el Teorema 5.14. Supongamos que B = {w1, w2 , i)

5.42.

Como B genera V, Lema 5.13.

11

+

.•• ,

w.} es una base de V.

I o mas vectores arbitrarios son linealmente dependientes por el

ii)

Segun el Lema 5.13, puedcn anadirse elementos de B a S para formar un conjunto generador de V con 11 elementos. Dado que S ya tiene n elementos, S es, en si mismo, un conjunto generador de V. Por tanto, S es una base de V.

iii)

Supongamos que T es linealmente dependiente. En esc caso, algun v, es combinaci6n lineal de los vectores precedentes. Por el Problema 5.38, V estara generado por los vectores de T sin v;. que son n - I. De acuerdo con el Lema 5.13, cl conjunto independiente B no puede tener mas de 11- I elementos. Esto contradice el hecho de que 8 tiene n elementos, luego T es linealmente independiente y por ende es una base de V.

Demostrar el Teorema 5.15. i)

Sup
l' i

s; V

Asi pues. {v1} genera V y, como es Iinealmente independiente, es una base de V. li)

5.43.

Los restantes vectores forman un subconjunto linealmente independiente maximal de S y por Ia parte i) es una base de V.

Demostrar el Teorema 5. 16. Supongamos que B = {w 1 , w2 , esta generado por

....

w.} es una base de V. Entonces

B genera V y por tanto V

De acuerdo con el Teorema 5.15, podemos suprimir de SuB todo vector que sea combinaci6n lineal de los precedentes para obtencr una base 8' de V. Como S es linealmente independiente, ningun uk es combinacion lineal de los vectores precedentes. por lo que 8' contiene todos los vectores de S. Siendo asi, S es parte de Ia base B' de V.

5.44.

Demostrar el Teorema 5.17. Dado que V es de dimension n. 11 + I o mas vectores son linealmente dependientes. Ademas. como toda base de W consiste en vectores linealmente independientes, no puede contener mas de n elementos. De acuerdo con esto. dim W s; 11. En particular, si {w 1 , ... , w.} es una base de W, por ser un conjunto independiente con n elementos, es tambii:n base de V. De este modo, W = V cuando dim W = n.

208

ALGEBRA LINEA L

ESPACIO FILA Y RANGO DE UNA MATRIZ

5.45.

Determioar si las siguientes matrices tienen el mismo espacio fila: 1 3

A=G

-2)

-1

1D

-2

-3

-1)

-1

3

-1

-3

-1

Dos m atrices tienen el mismo espacio fila si y solo si sus form as can6nicas por filas tienen las mismas filas no nulas; por consiguiente, reducimos cada matriz a forma can6nica por filas:

1 3

A=G B=G

.D-G

-1

-2 --32)-C0

!)-G

0

~)

-~)~G

0

~)

1

1 -1 1

(1 -1) (1 -!) c~(~ -1) -~ - ~ 2 - 1

-1

-1

-3

3 6

-1

l 0

0 0

a

(~

0 1

0

~)

Dado que las filas no nulas de las formas reducidas de A y C son las mismas, A y C tienen el mismo espacio fila. Por el contrario, las filas no nulas de Ia forma reducida de B no coinciden con las de las otras, por lo que B tiene un espacio fila diferente.

5.46.

Probar que A

~

(:

3

2

4 1

-3 12

3)

.

-4 tienen el mismo espacio columna. 17

Observemos que A y B ticnen el mismo espacio columna si y so lo si las traspuestas AT y BT tienen el mismo espacio fila. Siendo asi, reducimos AT y BT a forma can6nica por filas:

A'

B'

~(i ~ (~

1

4 3

-2 - 3 - 4

i) -(~ 1~)-(~

17

0

1

-2 -2 2

-!)- (~ -~) -(~

- 4

0

1

0

-2 1

0

-~)

a

-~)

a

(~ -!) (~ -~) 0 l

0

0 1 0

Como AT y BT tienen el mismo espacio fila, A y B tienen el mismo espacio columna.

5.47.

Considerense los subespacios U = lin (u 1 , u 2 , u3 ) y W = lin (w 1 , w2 , w3 ) de R \ donde:

WI

u 1 = (1, 1, -1),

u 2 = (2, 3, - 1),

= (1, -1, -3),

w2

= (3, -2, -8),

u 3 = (3; 1, -5) W3

= (2, 1, -3)

ESPACIOS VECTORIA LES

P robar q ue U

=

209

W.

Construimos Ia matriz A cuyas filas son los ui y Ia reducimos a forma can6nica por filas:

0-2) 1

1

0

0

A continuaci6n construimos Ia matriz B cuyas filas son los wi y Ia reducimos a forma can6nica por filas:

B=

(1-1-3) (1 -1-3) (1 0-2) 3 - 2 2 1

-8 -3

0 0

1 3

1 3

1 0

0 0

1 0

Dado que A y B ticncn Ia misma forma ca n6nica por filas, sus espacios fila son iguales y en consecuencia U = W.

5.48.

Hallar el rango de Ia ma triz A, donde:

a)

a)

Asi rango A

5.49.

-1

4

1

-2 - 1

-~)

b)

3 '

A~( ~ -~) - 1 3

-2

-2

Como los rangos por filas y columnas son iguales, es mas facil tomar Ia traspuesta de A y despues reducirla po r lilas a forma escalonada:

A'~( b)

A~( ~

2

:

2 -2

- 3

1

-1

0

3

-1) (1

4 - 2

0 0

2

- 3

6

- 2

3 -3

-1) (' 6 -5

2

- 2

0

-3

0

0

3 3

-~)

= 3.

Las dos columnas son linealmente independientes porque no son una multiplo de Ia otra. Por tanto, rango A = 2.

Considerese una m atriz ar bitraria A = (aiJ Sup6ngase que u = (b 1 , ••• , b") es una combinaci6n li neal de las filas R 1 , ... , R, de A; por ejemplo, u = k 1 R 1 + ... + k, R,. Dem ostrar que (i

d onde

a 11,

••• , a mi

=

l, 2, . .. , n)

so n las entrad as de Ia i-esima columna de A.

Sc nos da u = k 1 R 1 + (b 1,

··· + kmRm;

.. . ,

por tanto,

bJ = k 1 (a 1 h = (k 1 a 11

...

,at.)+· .. + k,..(a,.. 1 ,

+ · · · + k.,.a,., 1 ,

• •• ,

... ,

a_) =

k 1a. 1 + · ·· + k,..a_}

Igualando entre si las componentes correspondientes, obtenemos el resultado deseado.

210

ALGEBRA LINEAL

5.50.

Sup6ngase que A = (au) y B = (bu) son matrices escalonadas con entradas pivote: y bll, • • • • • • •

alit • • • • • •

bn, • • • • •

ali> • • • •

A=

B= b,., • •

Sup6ngase, asimismo, que A y B tienen el mismo espacio fila. Demostrar que las entradas pivote de A y B estan en las mismas posiciones, esto es, demostrar que j 1 = k 1 , j2 = k2, ... , jr = k, y r = s. Claramente, A = 0 si y solo si B

0, de manera que solo es necesario probar el teorema cuando = k 1 • Supongamos que j 1 < k 1 • En tal caso, Ia columna j 1 -esima de B es cero. Como la primera lila de A est a en el espacio fila de B, tenemos, por el problema precedente =

r ~ l y s ~ l. Mostramos primero que j 1

a 1il = c 10 + c2 0

+ · · · + c.,O =

0

para ciertos escalares c;. Pero esto contradice el hecho de que el elemento pivote a 1i, # 0. Por consiguiente, j 1 ~ k 1 y, de forma similar, k 1 ~j 1 . Asi pues, j 1 = k 1 . Sean ahora A' Ia submatriz de A obtenida suprimiendo su primera fila y B' Ia obtenida de B mediante el mismo procedimiento. Probamos que los espacios lila de A' y B' coinciden. El teorema se deducira entonces por inducci6n, puesto que A' y B' son tam bien matrices escalonad~s. · Sean R = (a 1 , a 2 , ••. ,a.) cualquier fila de A' y R 1 , • . • , R'" las filas de B. Dado que R esta en el espacio fila de B, existen escalares d1 , ••• , d,., tales que R = d 1 R 1 + d 2 R 2 + ··· + d'"R,.,. Puesto que A esta en forma escalonada y R noes su primera fila, Ia jcesima entrada de R es cero: a;= 0 para i = j 1 = k 1 . Ademas, como B esta en forma escalonada, todas las e ntradas en su k 1 -esima columna son 0 salvo Ia primera: ba, 0, pero b 2 k, = 0, ... , bmk, = 0. Siendo asi,

*

0 =a.,= d 1 ba,

+ d2 0 + ·· · + d,.O =

d 1b 11 ,

Ahora ba, # 0 y entonces d 1 = 0. De este modo, Res una combinaci6n lineal de R 2 , ... , R, y por tanto esta en el espacio fila de B' . Como R era cualquier fila de A', el espacio fila de A' esta contenido en el de B'. Similarmente, el espacio fila de B' esta contenido en el de A'. Asi A' y B' tienen el mismo espacio fila y queda demostrado el teorema.

5.51.

Demostrar el Teorema 5.8. Obviamente, si A y B tienen las mismas lilas no nulas, necesariamente tienen el mismo espacio fila, de modo que solo tenemos que demostrar el reciproco. Supongamos que A y B tienen el mismo espacio fila y que R ¥ 0 es Ia i-esima fila de A. En ese caso existen escalares c 1 , •.. , c, tales que

(I] donde las R; son las filas no nulas de B. El teorema quedara demostrado si probamos que R == R 1, o c1 = l pero ck = 0 para k i. Sea ail; Ia entrada pivote de R, o sea, Ia primera entrada no nula de R . Segun [!] y el Problema 5.49, [2)

*

ESPACIOS VECTORIALES

211

P ero por el problema precedente, b;1,·es una entrada pivote de B y, como B esta reducida por lilas, es Ia unica entrada distinta de cero en su columna j;-esima. Asi pues, de [2] o btenemos a;1, = c;bii, De cualquier modo, a;it = I y b;1, = I porque A y B est~m red ucidas por lilas; por consiguiente, C; = I. Supongamos que k #- i y que bki• es Ia entrada pivote de R •. De acuerdo con [I ] y con el Problema 5.49,

[3] Puesto que B esta reducida por filas, bkJ• es Ia unica entrada distinta de cero en Ia columna jk·esima de B; por tanto, segun [3], aii• = ckbk1, . Ademas, por el problema precede nte, akJ• es una entrada pivote de A y, como A esta reducida por filas, a;1, = 0. Siendo asi, ckbkJ• = 0 y, dado que b ki• = l, ck = 0. En consecuencia, R = R; y el teorema queda demostrado.

5.52.

Demostrar el Teorema 5.9. Supongamos que A es equivalente por Iii as a dos matrices A 1 y A 2 en forma can6nica por lilas. Entonces f-lin A= f-Iin A 1 y f-lin A= f-lin A 2 • Por consiguiente, f-lin A 1 = f-lin A 2 . Como A 1 y A 2 estim en forma can6nica por filas, A 1 = A 2 segun el Teorema 5.8. Queda asi demostrado e l teorema.

5.53.

Demostrar el Teorema 5. 18. Sea A una matriz m x n arbitraria:

A = (:::

:::_ : : . _::_:)

a.,l D enotemos sus filas por R 1, R 2 ,

••• ,

am2 . .. a..,.

R'":

R 1 = (a 11 , a 12 , ... , a 1.), . . . , R,. = (a., 1, a., 2 , ... ,a..,) Supongamos que el rango por filas es r y que los r vectores que siguen forman una base del espacio fila:

En tal caso, cada uno de los vectorcs fila es u na combinaci6n lineal de los S;:

R 1 = k 11 S 1 R 2 = k 21 S 1

+ knS 2 + · .. + k 1,S, + k 22 S 2 + ··· + kz,S,

donde los kii son escalares. Igua lando e ntre si las componentes J·es1mas en cada una de las ecuaciones vectoriales antcriores llegamos al siguiente sistema de ecuaciones. cada una valida para i = I , ... , n: ali= kubu au= k21 bli

+ k1 2 b2; + · · · + k~rb,; + k 12 b2i + · · · + kz,b,;

21 2

ALGEB RA LINEAL

Asi, para i = I, ... ,

11,

En otras palabras, cada una de las columnas de A es combinaci6n lineal de los r vectores

kk21 (k12) (k1,) kll kl, · ' ... , ... ... ... (k,., k..,, k,.,, 11

)

'

De este modo, Ia dimension del espacio columna de A es a lo su mo r, esto es, el rango por columnas es menor o igual que r y por ende menor o igual que el rango por filas. De forma similar (o considerando Ia matriz traspuesta Ar) obtenemos que el rango por filas es menor o igual que el rango por columnas. Siendo asi. los rangos por filas y columnas son iguales.

5.54.

Sup6ngase que R es un vector fila y que A y B son matrices tales que RA y RB. estan definidos. Demostrar: a)

RB es una combinaci6n lineal de las filas de B.

b) El espacio fila de AB esta contenido en el de B. c) El espacio columna de AB esta contenido en el de A. d) rango AB ~ rango By rango AB ~ rango A. a)

Supongamos R = (a 1 , a 2 , ... ,am) y B = (bu)- Denotemos por B 1 , ••• , B" sus columnas. Entonces

... ,

B,.. las filas deB ·y por

B1 ,

RB = (R ·B 1 , R · 8 2 ,

••• ,

R· 8")=

(a 1 b 11 +a 2 b21 + ··· + a,.b.,. 1 , a 1 b 12 +a 2 b 22 + · · · + a.,.bm 2 , ..• , a 1 b 1n + a 2 b2 • + ··· +a.,bm.) = =a 1 {b 11 , b12 , •.. , b 1.) + a 2 (b 21 , b22 , •• . , b2 .)+··· + a.,(bml• b.,.2 , ••• ,b.,,) = =alB I + a2 B2 + ... +amB.,. =

y RB es combinacion lineal de las filas de B, como se pretendia. b)

Las filas de AB so n R 1 B, donde R 1 es Ia fila i-esima de A. De acuerdo con Ia parte a), cada lila de AB esta en el espacio fila de B. De este modo, f-lin AB o;:::: f-lin B, como se pretendia.

c)

Usando Ia parte b), c-lin AB = f-lin (AB)r = f-lin Br A 1.

d)

5.55.

Sea

o;::::

f-lin Ar = c-lin A

El espacio fila de AB esta 1:ontenido en el de B; por tanto, rango AB::; rango B. Ademas, el espacio columna de AB est:i co ntenido en el de A; por consiguiente, rango AB ::; rango A. A

una matriz n-cuadrada. Probar que A es invertible si y solo si rango

A =

n..

Notese q ue las lilas de Ia matriz identidad n-cuadrada I. son linealmente independientes ya que 1. esta en forma escalon ada; por tanto, rango 1. = n. Ahora bien, si A es invertible, es equivalente por Iii as a l .; de a qui ran go A = n. Pero si A no es invertible, es equ ivalente por filas a una matriz con una fila nula, con lo que ran go A < n. Esto es, A es invertible si y solo si rango A = 11 .

ESPACIOS VECTORIALES

213

APLICACIONES A LAS ECUACIONES LINEALES

5.56.

Hallar Ia dimension y una base del espacio soluci6n W del sistema

+ 2y + Z - 3t = 0 2x + 4y + 4z- t = 0 X

3x + 6y + 7z +

t

=0

X

+ 2y +

Reducimos el sistema a forma escalonada: X

+ 2y +

Z -

2z

+

Jt = 0 St = 0

2z

0

Jt = 0 5t = 0

Z -

+

4z +lOt= 0 Las variables libres son y y t y dim W i) ii)

2. Tomamos:

=

y = l, z = 0 para obtener Ia solucion

= (- 2, I, 0, 0).

11 1

y = 0, t = 2 para obtener Ia solucion u2 = (I I, 0, -5, 2).

Entonces {u 1 , u2 } es una base de W. [La eleccion y = 0, t = 1 en ii) introduciria fracciones en Ia solucion.]

5.57 . . Encontrar un sistema homogeneo cuyo conjunto soluci6n W este generado por

{(1, -2, 0, 3), {1, -1, -1, 4), (1, 0, -2, 5)} Sea v = (x, y, x, t). Construimos Ia matriz M cuyas primeras filas son los vectores dados y cuya fila es v y Ia reducimos a forma escalonada:

.M

=(!

-2

0

3) (1 -2

-1

-1

1

0

- 2

4 5

X

y

z

t

a

0

0 0

0

-1

1

.2 2x+y

~ )a(~ -~

2 -2 z -3x+t

0 0

0 -1

0 2x+ y +z 0 0

Las tres primeras filas originales muestra n que w tiene dimension 2, de modo que v E w si y solo si Ia fila adicional no incrementa Ia dimension del espacio fila . De acuerdo con ello, igualamos a 0 las dos ultimas entradas de Ia tcrcera fila a Ia derecha para conseguir el sistema homogimeo requerido 2x+y+z =0 Sx + y -t = 0

5.58.

Sean xi , xi , ... , xik las va riables libres de un sistema de ecuacioues lineales con n vi la soluci6n para Ia que xi,. = 1, siendo todas las demas variables libres iguales a 0. Pro bar que las soluciones v1 , v2 , ••• , vk son linealmente independientes.

inc6gnit~s h~mogeneo. Sea

Sea A Ia matriz cuyas filas son los vi, respectivamente. Intercambiamos las columnas I e i 1, luego las 2 e i 1, •.• , y despues las k e ik, obteniendo Ia matriz k x n

B

={I, C)=(~..~.. ~ ..· :..~ .~. ::::::. . .:::) 0

0

0

... 0

1

Ct, H 1

···

C1uo

214

I

ALGEBRA LINEAL

La matriz anterior 8 esta en forma escalonada y por tanto sus filas son independientes; de aqm rango 8 = k. Como A y 8 son equivalentes por columnas, tienen el mismo rango, o sea, rango A= C.. Pero A tiene k filas; por consiguiente, estas filas, es decir, los v1, son linealmente independientes.. como se pretendia.

5.59. Demostrar el Teorema 5.20. Supongamos que u 1 , u2 , .... u, forman una base del espacio columna de A. (Existen r vecto~ tales, porq ue rango A = r.) Segun el Teorema 5.19, cada sistema AX = u1 tiene una solucion.. digamos v1• De aqui

[11 Supongamos que dim W = s y que w1 ,

w, forman un a base de W. Sea

w 2 , ... ,

Afirmamos que 8 es una base de K". Para poder hacerlo debemos probar que B genera K" y es linea lmente independiente. a)

Demostracilm de que B genera K". Supongamos que ve K" y Av = u. En tal caso, u = Av pertenece al espacio columna de A y necesariamente es una combinacion lineal de los u1• Por ejemplo.

+ k 2 u2 + ... + k,u,

Av = k 1 u 1

Sea v' = v - k 1 v 1

-

k 2 v2

-

A(v')

(2]

k,v,. Usando [11 y [2],

... -

= A(v -

k 1 v1

= Av- k 1 u 1

k1 v2

-

= Av- k 1 Av1

-

k1 u1

-

-

k, v,) = k,Av, = · · · - k,u, = Av- Av = 0 ••• -

k 2 Av1

-

-

• • ·-

Asi v' pcrtencce a Ia solucion W, po r lo que es combinacion lineal de los w1• Por ejemplo. C 1 W 1 + c2 w2 + ... + c5 w,. Entonces

v' =

v = v'

'

+ 2,k1 v1 = 1~1

.

.

i•l

)=I

2,k1v1 + 2,cJwJ

De este modo, v es combinacion lineal de los elementos de 8 y por ende B genera K ". b)

Demostracion de que B es linea/mente independience. Supongamos

[3) Como w1 e W, cada Aw1 = 0. Usando este hecho, junto a [I) y [3],

r

=

I

2,a1 u1 + 1•1

Dado que u 1 , llegamos a

... ,

L bJO =

a 1u1

+ a 1 u1 + · ·· + a,u,

j= 1

u, son linealmente independientcs, cada a,= 0. Sustituyend o esto en [3]

b1 w 1

+ b2 w 2 + ... + b,w, =

0

No obstante, w 1 , ... , w, son linealmente indcpendientes, porto que cada bJ = 0. Por esta razon. 8 es linealmente independiente.

ESPACIOS VECTORIALES

215

De acuerdo con esto, B es una base de K". Dado que B tiene r + s elementos, tenemos que r + s = n. En consecuencia, dim W = s = n - r, como se pretendia.

SUMAS. SUMAS DIRECTAS. INTERSECCIONES 5.60.

Sean U y W subespacios de un espacio vectorial V. Probar que: a) U y W estan contenidos en U + W ; b) U + W es el menor subespacio de V que contiene U y W, esto es, U + W =lin (U, W), envolvente lineal de U y W ; c) W + W = W. a)

Sea uE U. P or hip6tesis, W es un subespacio de V, por lo que OE W. Por consiguiente, u ~ u + OE U + W. Segun esto, U estit contenido en U + W . De forma similar, W estit contenido en U + W.

b)

Dado que U + W es un subespacio de V que contiene tanto U como W, debe contener tam bien Ia envolvente lineal de U y W, o sea, lin (U, W) <;; U + W. Por otra parte, si veU + W , necesariamente v=u +w= lu + lw, donde ueU y weW; de aqui que v sea combinaci6n lineal de elementos en U v W y por tanto pertenezca a lin (U, W). En consecuencia, U + W <;; lin (U, W).

c ) Como W es un subespacio de V, tenemos que W es cerrado bajo Ia suma vectorial; por este motivo, W + W <;; W. Por Ia parte a), W <;; W + W. Entonces W + W = W .

5.61.

Dar un ejemplo de un subconjunto S de R 1 tal que: a) S + S c S (contenido propiamerite); b) S c S + S (contenido propiamente); c) S + S =SperoS no es un subespacio de R 2 a)

Sea S = {(0, 5), {0, 6), (0. 7), ... }. En tal caso S + S c S.

b)

Sea S = {(0. 0), (0, 1)}. En tal caso S

c S

+ S.

c) Sea S = {(0, 0), (0, I), (0, 2), (0, 3), ... }. En tal caso S + S = S.

5.62.

Sup6ngase que U y W son subespacios 4-dimensionales distintos de un espacio vectorial V con dim V = 6. Hallar todas las dimensiones posibles de U n W. Como U y W son distintos, U + W contiene propiamente U y W ; consecuentemente, dim (U + W) > 4. Pero dim (U + W) no puede ser mayor que 6, ya que dim V = 6. Por tanto, tenemos dos posibilidades: i) dim (U + W) = 5, o ii) dim (U + W) = 6. Por el Teorema 5.22, dim (U

11

W) = dim U

+ dim

W - dim (U

+ W) = 8 - dim (U + W)

Asi, i) dim (U 11 W) = 3, o ii) dim (U 11 W) = 2.

5.63.

Considerense los siguientes subespacios de R 4 : U = lin {(1, l , 0, - 1), (1, 2, 3, 0), (2, 3, 3, -1)} W = lin {(1, 2, 2, - 2), (2, 3, 2, - 3), (1, 3, 4, -3)}

Hallar: a) dim(U a)

+ W), b)

dim(U n W) .

U + W es el espacio generado por los seis vectores. Construimos, pues, Ia ma triz cuyas filas son los seis vectores dados y Ia reducimos por filas a forma escalonada:

216

ALGEBRA LINEAL

1

2

2

3

0

-1

3 3

0

0

- 1 1 3

-1

0

3

1

2

2

-2

0

2

3

2 4

-3 -3

0

3

1 0 0 0

0

0 0 0

1 0 0 0

-1 0 0

0

0

0

2

0

0 0 0

0 0

+

W) = 3.

-1 0 0 0

-1

Como Ia matriz escalo nada tiene tres fil as no nulas, dim ( U b)

1

0

0

-2 0 3

1

0

- 1 -1

2 2 4

2

0

1

- 1 1 3

0

Ha llamos pri mero dim U y dim W. Formamos las dos matrices cuyas filas son los generadores de U y W. respectivamente, y las reducimos por filas a fo rma escalonada:

(!

1 2

0 3

3

3

2

2 2 4

y

(i

3 3

-1) (I -2) (I -3 "' 0 -3 0

-1) (I -2) (I

0 3 3

0 "' 0 - 1 0 2

2

- 1

-2

1 "' 0 1 0

1 "' 0 -1 0

2

0 3 0

-l)

2

2

-1 0

-2

-~)

1 0

0

Dado que cada una de las matrices escalonadas tiene dos filas no nulas, dim U .= 2 y dim W = 2. Usand o el Teorema 5.22, esto es, dim ( U + W) = dim U + dim W - dim (U n W). tenemos 3 = 2 + 2- dim (U n W)

5.64.

dim (U n W) = I

0

Sean U y W los siguientes subespacios de R 4 : U = {(a, b, c, d): b + c + d = 0}, W

= {(a, b, c, d): a+ b = 0, c = 2d}

Encontrar una base y la dimension de: a) U, b) W, c) U n W, d) U a)

Buscamos una base del conjunto de soluciones (a, b, c, d) de Ia ecuacion

b+c+d= O

O·a+ b +c+d =O

0

Las variables libres son a, c y d. T omemos:

a= I, c = 0, d = 0 para obtener Ia solucio n v1 = ( I, 0, 0, 0). 2. a= 0, c =I , d = 0 para obtener Ia soluci6n v2 = (0, - I, 1, 0 ). 3. a = 0, c = 0, d = I para o btener Ia solucio n v3 = (0. - I, 0, 1). I.

El conjunto {v 1 , v2 , v3 } es una base de U y dim U b)

+ W.

=

3.

Buscamos una base del conjunto de soluciones (a, b, c, d) del sistema

a+b=O c = 2d

0

a+ b =0 c -2d=0

217

ESPACIOS VECTORIALES

Las variables libres son b y d. Tomemos: I. 2.

b = 1, d = 0 para obtener Ia soluci6n v1 = ( - 1, 1, 0, 0) b = 0, d = I para obtener Ia soluci6n v2 = (0, 0, 2, I)

El conjunto {v1 , v2 } cs una base de W y dim W = 2. c)

U n W consiste en aquellos vcctores (a, b, c, d) que satisfacen las condiciones que definen U y las que delinen W, es decir, las tres ecuaciones

b+c+d=O a+b =0

a+b =0 b+c+ d=O c-2d=0

0

= 2d

c

La variable libre es d. Tomemos d = I para obtener Ia soluci6n v = (3, -3, 2, 1). De este modo, {v} es una base de U n W y dim (U n W) = 1. d)

Segun el Teorema 5.22, dim (U

+ W) =

dim U

+ dim

W - dim (U n W)

= 3+ 2- 1= 4

Asi U + W = R 4 . De acuerdo con esto, cualquier base de R\ por ejemplo Ia base usual, sera una base de U + W.

5.65. Considerense los siguientes subespacios de R 5 : U = lin {(1, 3, -2, 2, 3), (1, 4, -3, 4, 2), (2, 3, -1, - 2, 9)} W = lin {(I, 3, 0, 2, 1), (I, 5, -6, 6, 3), (2, 5, 3, 2, l)}

Hallar una base y la dimension de a) U a)

+ W, b)

U n W.

U + W es el espacio generado por los seis vectores. Por tanto, formamos Ia matriz cuyas filas son los seis vectores dados y despues Ia reducimos por filas a fo rma escalonada:

1 2 1

2

3 -2 1 -1 -3 3 0 2 2 -4 7 -1

l 0 0 0

2 3 -2 4 4 -3 3 -1 -2 2 0 3 6 5 - 6 2 3 5

0

0

-6 0 4

-2

- 2 1 -1 2 0

2 2

0

0 0 0

3

0

0 0

3

2 2

0 0

0

0 0

1

2 2

3 -1

0

0

0

0

-2 - 1 0 2 -2

0

- 2 2

0

6

0

-6

3 1

-1

o.

3 -2

0 0

0

0

0

- 5

0

0

3 -1

0

El conjunto de filas no nulas de Ia mat riz escalonada,

{(1, 3, -2, 2, 3), (0, 1, -1, 2, -1), (0, 0, 2, 0, -2)} es una base de U b)

+ W, de

modo que dim ( U

+ W) = 3.

Hallamos primero los sistemas homogeneos cuyos conjuntos soluci6n sean U y W, respectivamente. Construimos Ia matriz cuyas tres primeras lilas generen U y cuya ultima fila sea (x, y, z, s, t). Luego Ia reducimos por filas a forma escalonada:

218

ALGEBRA LINEAL

3

(i

-2

2

4 -3

4

3 y

-1

-2

z

s

~)-(~ -(~

-2 -1

3 1 - 3

2 2

3 -3x + y 2x + z 3

-2 -1

-X+ y + 0

0 0

Z

- 31 )

-6

3 -3x + t

-2x+s

2 2 4x- 2y + s 0

~

-13

) -6x +; + t .

Igualamos a cero las entradas de Ia tercera fila para conseguir el sistema homogeneo cuyo espacio soluci6n es U:

-x+y+z=O

-6x + y

4x- 2y + s = 0

+t= 0

Ahora formamos Ia matriz cuyas primeras filas generen W, siendo Ia ultima (x, y, z, s, r). Acto seguido, Ia reducimos por filas a forma escalonada:

(i

3 5 5 y

0

2

- 6 3 z

6 2

s

}(~ -(~

3 2 -1

2

0

-3x+ y

4 -6 -2 3 z - 2x + s

-12 ) -

-x +t

2 3 0 2 -3 1 4x2y + s 0 -9x + 3y + z 0 0 0

2x-:y+l) 9 .

Igualamos a cero las entradas de Ia tercera fila para conseguir el sistema homogeneo .cuyo espacio soluci6n es W:

-9x + 3y + z = 0

4x- 2y + s

= 0

2x -y+ t = O

Combina mos los dos sistemas precedentes para obtener un sistema homogeneo cuyo espacio solucion es U n W y to resolvemos:

-x+ y+z =0 4x- 2y +s = 0 -6x+ y +t = O -9x + 3y + z =0 4x- 2y +s =0 2x- y +t=O

0

-x +y+ z = 0 2y + 4z + s = 0 8z + 5s + 2t = 0 4z + 3s =0 s-2t=O

-x+ y+ z =0 2y + 4z + s =0 -5y- 6z +t=O -6y- 8z =0 2y + 4z + s =0 y + 2z +t=O

0

{-x+ 0

y+,

-o

2y + 4z + s = 0 8z + 5s + 2t = 0 s - 2t=O

Hay una va riable libre, que es t; por consiguiente, dim (U n W) = 1. Hacienda t = 2 llegamos a Ia soluci6n x =I , y = 4, z = - 3, s = 4, t = 2. Siendo asi, {(1, 4, -3, 4, 2)} es una base ~UnW

.

ESPACIOS VECTO RIALES

5.66.

219

Sean U y W los subespacios de }l 3 definidos segun

U ={(a, b, c): a= b = c}

W= {(0, b, c)}

y

(N6tese que W es el plano yz.) Probar que R 3 = U EB W. Adviertase primero que U

a= b= c

{0}, para v =(a, b, c)e U

r1 W =

y

a= 0 3

Alirmamos tambien que R = U

+

v = (a, a, a)+ (0, b- a, c - a)

Am bas condiciones, U

5.67.

r1

lo que implica que

r1 W

implica que

a = 0, b = 0, c = 0

W. Ello es debido a que si v = (a , b, c)eR 3 ,

donde

(a, a, a)e U

+ W, implican

3

W = {0} y R = U

y

(0, b - a, c - a) E W

3

R = U (3J W.

Sea Vel espacio vectorial de las matrices n-cuadradas sobre un cuerpo K. a)

Probar que V = U EB W, d onde U y W son los subespacios de las matrices simetricas y antisimetricas, respectivamente. (Recuerdese queM es simetrica si y s6lo si M = M r, y antisimetrica si y s61o si Mr = -M.)

b)

Pro bar que V "# U EB W, donde U y W son los subespacios de las matrices triangulares superiores e inferiores, respectivamente. (N6tese que V = U + W.)

a)

Comencemos por demostrar que V = U tase que

+

W. Sea A una matriz 11-cuadrada arbitraria. Advier-

+ Al) +!(A -A')

A= t(A

Afirmamos que !(A+ Ar) e U y que i(A - AT)eW. Esto se debe a que

o sea, !(A

+ A r)

es simetrica. Ademas, (t(A- AT))T =!(A- A')T =!(AT- A)= -!(A- AT)

esto es, -i{A - AT) es an tisimetrica. A continuaci6n mostremos que U n W = {0}. Supongamos que Me U r1 W. En ese caso, M = MT y M r = -M, lo que implica M = - M y por tanto M = 0. Asi U'n W = {0}. En consecuencia , V = U (3J W.

b)

5.68.

U n W #- {0} porque U n W esta constituido por todas las matrices diagonales. La suma no puede. pues, ser directa.

Sup6ngase que U y W son subespacios de un espacio vectorial V, que S = { u;} genera U y q ue T = {wi} genera W. Demostra r que S u T genera U + W. (De acuerdo con ella, por inducci6n, si S; genera W; pa ra i = I, 2, ... , n, S 1 u · · · uSn genera W1 + ··· + W,.) Sea ve U + W. Entonces v = u + w, donde u e U y we W. Puesto que S genera U, ci6n lineal de los ui, y dado que T genera W, IV es combinaci6n lineal de los IV/ u

= a 1u 11 + a 2 u;, + · · · + a.u1• + b1 w h + ··· + b.,wJ.

w = b 1 wJ 1

De este modo,

En consecuencia, S u T = {u1, vJ} genera U

+

W.

11

es combina-

220

ALGEBRA LINEAL

5.69.

Demostra r el Teorema 5.22. Observemos que U n W es subespacio tanto de U como de W. Suponga mos que dim- U = m. dim W = n y dim U n W= r. Supongamos. asimismo. que {v1 , . •. , v,} es una base de U n W. Segun el Teorema 5.6, podemos extender {v;} a una base de U y a una de W; por ejemplo, . y

son bases de U y W, respectivamente. Sea

N6tese que B tiene exactamente .111 + n - r elementos. El teorema quedani demostrado si somos capaces de pro bar que B es una base de U + W. Como {V;, ui} genera U y { V;, wd genera W, Ia union B = {v;, ui, wk) generani. U + W. P or tanto, basta demostrar que B es independiente. Supongamos que [I]

donde

a;, bi, ck son escalares. Sea 11

= a 1 v1

+ · · · + a,11, + b 1u 1 + ··· + b, _,u.,_,

[2)

Por [I] tenemos tambien que [3]

Como {II;, ui} £ U, v E U por [2]; y como {wk} ~ W , v E W por [3]. En consecuencia, v E U n W. Ahora bien, {II;} es una base de U n W, por lo que existen escalarcs d 1, . .. ; d" para los que v = d 1 v1 + ··· + d, 11,. Asi por [3] tenemos

Pero {v;, wk} es una base de W y necesariamente es independiente. De aqui que Ia ecuaci6n anterior haga forzoso c1 = 0, . .. ,c. -. = 0. Sustituyendolo en [11, ·

Pero {v;, u1} es una base de U y por tanto es independiente. De aqui que Ia ecuaci6n a nterior haga forzoso a 1 = 0, .. . , a, = 0, b1 = 0, . .. , b,_, = 0. Dado que Ia ecuaci6n [1] implica que los a;, bi y ck son todos 0, B = {u;, ui , wk} es independiente y qneda probado el teorema.

5.70.

Demostrar el Teorema 5.23. Supongamos V = U EJj W. Cualquier vector v E V puede, pues, escribirse de forma unica como v = u+w, con u e U y weW. Asi, en particular, V = U + W. Supongamos ahora que II E Un W. Entonces: 1.

v =v +O,donde ii E U, OE W.

2.

11

= 0 + 11; donde Oe U,

VE

W.

Como ta l suma para v debe ser unica, 11 = 0. De acuerdo con ello, U n W = {0}. Por otra parte, supongamos que V = U + W y U n W = {0}. Sea li E V. Dado que V = U + W, existen ue U y wE W tales que 11 = u + w. Debemos probar que Ia suma es nnica.- P a ra ello , supongamos que 11 = u' + w' tam bien, donde u' E U y w' E W. En tal caso, u+w = u' + w'

y por tanto

u-u' = w'- w

ESPACIOS VECTORIALES

Pero

u- u' E U y w'- wE W; por consiguiente, como U n W u - u' = 0, w' - w = 0

De este modo, tal suma para

vE

y

=

221

{0},

u = u' , w = w'

V es imica y V = U ~ W.

5.71. Demostrar el Teorema 5.24 (para dos sumandos): Supongamos que V = U EEl W. Supongamos que S =.{u 1 , •.• , um} y S' = {w 1, •.. , w"} son subconjuntos linealmente independientes de U y W, respectivamente. En tal caso: a) S uS' es linealmente independiente en V; b) si S es una base de U y S' una de W , SuS' es base de V; c) dim V = dim U + dim W. a) Supongamos a 1 u 1

+ ··· +' amu, + b1 w1 + ··· + b.w. =

0, donde a1, bison escalares. Entonces

+ · · · + a,.u.J + (b 1 w1 +···+b. w.) = 0 + 0 donde 0, a 1 u 1 + ··· + a,u, E U y 0, b 1 w1 + ·· · +b. w.e W. Puesto que tal suma para 0 es \mica, 0 = (a 1 u1

esto nos conduce a

Como S es linealmente independiente, cada a1 = 0, y como S' es linealmente independiente, cada b1 = 0. Siendo asi, S v S' es lineal mente independiente. b)

c)

P o rIa parte a) sabemos que S v S' es linealmente independiente, y por el Problema 5.68 que S v S' genera V. Por ta nto, S v S' es una base de V. Se obtiene directamente de Ia parte b).

VECTORES COORDENADOS

5.72.

Sea S Ia base de R 2 consistente en u 1 = (2, 1) y u 2 nado [u] de v relativo aS, siendo v =(a, b).

= {1 ,

- 1). Hallar el vector coorde-

Tomamos v = xu 1 + yu 2 para obtener (a, b)= (lx + y, x - y). Resolvemos 2x + y =a y x - y = b para obtener x = (a+ b)/3, y = (a - lb)/3. Asi (v] = [(a+ b)/3, (a - 2b)/3].

5.73. Considerese el espacio vectorial P 3 (t ) de los polinomios reales en r de grado ::;;; 3. Probar que S = {1, 1 - .r, ( l - t) 2 , (1 - t) 3 } es una base de P 3 (t). b) Hallar el vector coordenado [u] de u = 2 - 3t + 3£ 2 + 2t 3 respecto a S.

a) a)

El grado de ( I - t )k es k , luego ningun polinomio enS es combinaci6n lineal de los precedentes. Los polinomios son, pues, linealmente independientes y, dado que dim P 3 (t) = 4, forma n una base de P 3 (t).

b)

Tomemos u como c0mbinaci6n linea l de los vectores de Ia base utilizando incognitas x, y, z, s: u = 2 - 3t + t 2

+ y(l - t) + z(l - t)2 + s(l - t)3 = ~ x(l) + y(l - t) .f. z(l - 2t + t2) + s(l - 3t + 3t2 - t 3 ) = 2 2 3 = x + y - yt + z - 2zt + zt + s - 3st + 3st - st = 2 = (x + y + z + s) + (- y - 2z - 3s)t + (z + 3s)t + ( -s)t3

+ 2t3 =

x(l)

A_continuaci6n igualamos entre si los coeficientes de las mismas potencias de t:

.x+y+z+s = 2 Resolviendo, x

= 2, y =

- y - 2z - 3s =

-

3

- 5, z = 7, s = - 2. Asi [u]

z+3s=l =

[2, - 5, 7, - 2].

- s=2

222

ALGEBRA LINEAL

5.74.

Considerese Ia matriz A = (

2 3 ) en el espacio vectorial V de las matrices reales 2 x :. 4 - 7 Determinar el vector coordenado [A] de Ia ma:triz A respecto a

la base usual de V. Tenemos

De este modo, x = 2, y = 3, z = 4, t = - 7. Por tanto, [A] los elementos de A escritos fila a fila.

= [2, 3, 4, - 7], cuyas componentes sa=

Nota: El resultado anterior es va.lido en general, es decir, si A es cu alquier matriz en el espacic vectorial de las matrices m x n sobre un cuerpo K, el vector coordenado [A] de A rela tivo a Ia base usual de V es el vector coordenado mn de K'"n cuyas componentes son los elementos de .-t escritos fila por fila.

CAMBIO DE BASE

En esta secci6n se representani un vector v e V respecto a una base S de V por su vector columna coordenado,

(que es una matriz n x 1). 5.75.

Considerense las siguientes bases de R 2 :

sl = a)

b) c)

{ul

= (1, -2), u2 = (3, . .:. . 4)}

y

S2

=

{vl

= (1, 3), Vz = (3, 8)}

Encontrar las coordenadas de un vector a rbitrario v = (a, b) relativas a Ia base sl = {ul , u2}. Hallar Ia matriz de cambio de base P desde S 1 basta S 2 • Encontrar las coordenadas de un vector arbitrario v = (a, b) relativas a Ia base

s2 ={vi, v2}. d)

. e) f) g)

Determinar la matriz de cambio de base Q desde S 2 basta S 1 • Comprobar que Q = p - 1 • Mostrar que P[v] 5 > = [v]s ' para todo vector v =(a, b). (Vease el Teorema 5.27.) Mostrar que p-t [v]s, = [v]s, para todo vector v =(a, b). (Vease el Teorema 5.27.)

ESPACIOS VECTORIALES

a) Sea v = x u 1

+ yu 2

para incognitas x e y:

x + 3y =a -2x-4y=b

0

Despejamos x e y en terminos de a y

b para llegar a

(a, b)= ( -2a- jb)u 1 +(a+ fb)ul b)

223

2y = 2a

x = - 2a

-"ib, y

= a

= [-2a-

[(a, b)]5 ,

0

x + 3y =a

0

+b

+ !b.

Asi pues,

jb, a+ !bY

Usamos a) para escribir cada uno de los vectores v1 y v2 de la base S 2 como combinaci6n lineal de los vectores u 1 y u 2 de S 1 :

(1, 3) = (-2- J)u 1 + (1 + f)u 2 = (-.lf-)u 1 + (t)u 2

111

=

112

= (3, S) = (-6 -12)u 1 + (3 + 4)u2 =

-18u 1 + 7u1

Entonces P es Ia matriz cuyas columnas son las coordenadas de v 1 y v2 respecto a Ia base S1 , o sea,

c) Sea v = xv 1

+ yv 2

para escalares desconocidos x e y:

x + 3y =a 3x + Sy = b

0

Resolvemos para x e y llegando ax= -8a (a, b) = (-Sa

d)

+ 3b)v1 + (3a - b)v2

+ 3b, y =

x + 3y =a

0

-y=b-3a

3a- b. Asi

[(a, b)]S1

0

= [-Sa+ 3b, 3a -

Usamos c) para escribir cada uno de los vectores u 1 y u 2 de Ia base S 1 como combinaci6n lineal · de los vectores v1 y v2 de S 2 :

u 1 = (1, -2) = ( -S- 6)v 1 u2 = (3, -4)

+ (3 + 2)v1 =

-14v 1

= (-24- 12)v1 + .(9 + 4)v2 .=

+ 5v2

-36111 + 13v1

.

Escribimos las coordenadas de u1 y u2 respecto a S 2 como columnas obteniendo Q=

(-14

~)=I

e) f)

bY

Utilizamos a), b) y c) para obtener

P[v]sl

=(

-Y

t

-1s)(-8a + 3b) (-2a - ib) = 7

3a- b

=

a+ !b

[v]s,

g) Utilizamos a), c) y d) para obtener 1

p - [v]s, = Q[v]s, =

(-14 5

-36x-2a- ib) 13

a+ !b

3") _

_(-sa+ 3a- b

- [v]sl

5

-36)· 13

224

ALGEBRA LINEAL

5.76.

Sup6ngase que los siguientes vectores constituyen una base S de Kn:

... , Pro bar que la matriz de cambio de base desde la base usual E = {e;} de Kn hasta la base S es la matriz P cuyas columnas son los vectores v 1, v2 , ••• , vn, respectivamente. Como e 1 , e 2 ,

... ,

e. fo rman Ia base usual E de K ", v1 = (a 1, a2 , = (b 1, b1 ,

\

v1

.1

.. . ,

a,.)= a 1 e 1 + a 2 e1 +·· · +a. e.

.. . ,

b,.) = b 1 e1

+ b1 e1 + · .. + b.e•

Escribiendo las coordenadas como columnas tendremos

p

~

{ :: . :: . . : . ::)

\a.

c.

b. .. .

como se pretendia.

5.77.

Considerese Ia baseS = {u 1 = (1, 2, 0), u 2 = (1, 3,' 2), u 3

=

(0, 1, 3)} de R 3 . Hallar:

a)

La matriz de cambio de base P desde Ia base usual E = {e 1 , e2 , e3 } de R 3 hasta Ia · baseS.

b)

La matriz de cambio de base Q desde Ia base a nterior S regresando hasta Ia base usual E de R3 .

a)

Dado que E es Ia base usual, escribimos sencilla mente los vecto res de Ia baseS como columnas:

P=(~ ~ ~) 0

b)

2

3

Metodo I. Expresamos cada vector de Ia base E como combinacion lineal de los vectores de Ia baseS, calculando primero las coordenadas de un vector arbitrario v = (a, b, c) relativas a Ia base S. Tenemos:

x+ y

.= a

2x + 3y + z 2y 3z

0

=b

+ =c

Despejamos x , y, z. llegando a x = 7a - 3b + c. y = -6a + 3b - c, z = 4a - 2b +c. Entonces

+ (-6a + 3b - c)u 1 + (4a - 2b + c)u 3 3b + c, -6a + 3b- c, 4a - 2b + c]T

v =(a, b, c) = (7a- 3b + c)u 1 [v]s = [(a, b, c)]s = (7a -

0

E mplea ndo Ia formula para [v]s precedente y escribiendo despues las coordenadas de los e1 como columnas, e 1 = (l, 0, 0) =

7u 1

-

6u 1

(0, l, 0) = -3u 1 + 3u1 e3 = (0, 0, l) = u 1 ·- u 2

e1

=

+ 4u3 -

+

2u 3 u3

y

ESPACIOS VECTORIALES

Metodo

2.

Calculamos p -I reduciendo por lilas M

M ~(~

0 1 1 1 1 0 3 1 0

1 3

2

-(~ -(~

1 0

0 0

0 1' 7 0:-6 1 : 4

De"" modo, Q ~ r' ~ ( -: 5.78.

~)-(~ 2 -2 ~) -(~

0 1 0

0 1 1 1 : -2 1 : 4

= (P !I) a

Ia forma (I! p-l ):

011

1 1

1 : -2 3 : 0

0

1 0

225

0 11 0 : -6 1 : 4

~)-

0 1 0 0 3

-2

-:)-

- 3

3

:)

-2

-3 3

-2

-:)

Sup6ngase que los ejes x e y en el plano R 2 se giran 45• en el sentido contrario at de las agujas de un reloj, de forma que el nuevo eje x' este a lo largo de Ia recta x = y y el nuevo eje y' a lo largo de Ia recta x = - y. Encontrar: a) Ia matriz de cambio de base P; b) las nuevas coordenadas del punto A (5, 6) bajo Ia rotaci6n dada. a)

Los vectores unitarios en las direcciones de los nuevos ejes x' .e y' son, respectivamente, y

(Los vectores unitarios en las direcciones de los ejes originates x e y son los vectores de Ia base usual de R 2 .) Escribimos, pues, las coordenadas de u 1 y u2 como coiumnas para obtener p

= (-fi/2 - -fi./2) J212

b)

Multiplicamos las coordenadas del punto por p -

fil2 1

:

-fi./2X5) = ( - -fi./2 -fi./2 _fi.t2 6

(llfi/2) fif 2

[Dado que Pes ortogonaJ; p-l es simplemente Ia traspuesta de P.]

5. 79.

Considerense las bases S = { l, i} y S' = { l + i, l + 2i} del cuerpo complejo C sobre el cuerpo real R. Hallar: a) Ia matriz de cambio de base P desde Ia base Shasta Ia S'; b) Ia matriz del cambio de base Q desde Ia base S' volviendo hasta Ia S. a)

Tenemos I

+

i = I (I)

+ I (i)

I +2i= 1(1)+2(i) b)

y por tanto

Utilizamos Ia formula para Ia inversa de una matriz 2 x 2 para conseguir Q =p - I = ·

( 2 -1)· -1

· I

226

ALGEBRA LINEAL

5.80.

Supongase que P es Ia matriz de cambio de base desde una base {u;} hasta otra {w1} y que Q es Ia matriz de cambio de base desde Ia {wi} hasta Ia {u;}. Probar que P es invertible y que Q = P- 1 • Supongamos, para i

= I, 2, ... , n, w1 = ailu 1

+ a 12 u 2 + · · · + a 1.u" =

I" a iui

[I]

I"

[2]

1

J=l

y, para j = l, 2, ... , n,

u1 = b11 w1 + b12 w2 + · · · + b i• w. =

b11 w1

t=l

Sean A = {a11 ) y B = (b1.). En ese caso, P = Ar y Q = Br. Sustituyendo [2] en [!] W1

=

I aii( I b w•) = I l•l

jv J

1t

l=J

('£. a .)w ~1

11 b1

1

Puesto que {w1} es una base, I aiibiA = b11, donde b;k es Ia delta de Kronecker, esto es, O;k = 1 si i = k pero b;k = 0 si i # k. Supongamos que AB = (c1.). Entonces c11 = o1• • De acuerdo con ello, AB =I, luego

Asi pues, Q = p - t.

5.81.

Demostrar el Teorema 5.27. Supongamos que S = {u1 ,

... ,

u.} y S' = {w 1,

w1 = ailu 1

... ,

w.}.

y que, para i =I , ... , n,

.

+ a 12 u 2 + · · · + a 1"u" = Iauu1 )"'I

Por consiguiente, P es Ia matriz n-cuadrada cuya fila j-esima es (a 11, a21, ... , a.1)

[I] n

Asimismo, supongamos v = k1 w 1

+ k 2 w2 + ... + k.w. = I k1 w1• Entonces i= 1

[vls· = [klj• kzj• ... ,

k.ir

[2]

Sustituyendo los w1 en Ia ecuaci6n para v obtenemos

=

I"

(a 11 k 1

+ a 21 k 2 + · · · + a"1 k")u1

)=J

En consecuencia, [u]5 es el vector columna cuya entrada j-esima es a 11k 1

+ a21 k 2 + ... + a.1 k.

[3]

Por otra parte, Ia entrada j-esima de P[v]8 • se obtiene multiplicando Ia j -esima fila de P por [v]5 ., o sea, [I] por [2). Pero e1 producto de [I] y [2] es [3]; de aqui que P[v] 5 . y [v]s tengan las mismas entradas. Asi P[v]5 . = [v]5 , como se pretendia. · Alm m~s, multiplicar lo anterior por p-t conduce a P - t [v] 5 = p - t P[vJ5 • = [v]5 •.

ESPACIOS VECTORIALES

227

PROBLEMAS VARIOS 5.82.

Considerese una suceswn fin ita de vectores S = {v1 , v2 , ... , v.}. Sea T la suceswn de vectores que se obtiene de S mediante una de las siguientes «operaciones elementales»: i) intercambiar dos vectores, ii) multiplicar un vector por un escalar no nulo, iii) sumar a un vector un multiple de otro. Probar que S y T generan el mismo espacio W. Probar tambien que T es independiente si y solo si lo es S . Observemos que, pa ra cad a opt·racion, los vectores de T son combinaciones lineales de los de S. Por otra parte, cada operaci6n tiene una inversa del mismo tipo. (Demuestrese.) En consecuencia, los vectores de S son combinaciones lineales de los de T. De este modo, S y T generan el mismo espacio W. Ademas, T es independicnte si y solo si dim W = n, lo que es cierto si y solo si S tam bien es independiente.

5.83.

Sean A = (a;) y B = (b;) matrices m x n sobre un cuerpo K equivalentes por fitas y v1 , ... , vn vectores cualesquiera en un espacio vectorial V sobre K. Sean Ut

=

u2 =

+ allv2 + ... + alnv• a21 v 1 + a22 v2 + · · · + a 2,.v.

allvt

w1 = b 11 v 1 + b 12 v 2 + · · · + b 111 v,. w2 = b21 v 1 + b 22 v 2 + ··· + b 2,.vn

Probar que {u;} y {w;} generan el mismo espacio. Efectuar una «operacion elemental» de las del Problema 5.82 sobre {u;} equivale a efectuar una operacion elemental entre lilas sabre Ia matriz A. Como A y B son equivalentes por lilas, 8 puede obtenerse de A por medio de una sucesi6n de operaciones elementales entre filas; por tanto, {w;} puede obtenerse de {u;} mediante la sucesion de operaciones correspondiente. De acuerdo con esto, {u;} y {w;} generan el mismo espacio.

5.84.

Sup6ngase q ue v 1 ,

... ,

vn pertenecen a un espacio vectorial V sobre un cuerpo K . Sean w1 = a 11 t• 1

+ a 12 v2 + ··· + ahv•

= a 21 v 1

+ a 22 v2 + · · · + a 2 ,.v.

w2

donde

aij E K.

Sea P Ia matriz n-cuadrada de los coeficientes, esto es, sea P = (a;)·

Sup6ngase que P es invertible. Mostrar que {w;} y { v;} generan el mismo espacio y por ende {w;} es independiente si y solo si lo es {v;}. b) · Sup6ngase que P no es in vertible. Mostrar que {w;} es dependiente. c) Sup6ngase que {w;} es independiente. Mostra r que P es invertible.

a)

a)

Como P es invertible, es equivalente por filas a la matriz identidad J. Por tanto, segim el problema precedente, {w;} y { v;} generan el mismo espacio. Asi uno es independiente si y solo si lo es el otro.

b)

Dado que P no es invertible, es equivalente por filas a una ma triz con una fila nula. Esto quiere decir que {w;} genera un espacio que tiene un conjunto generador con menos de n elementos. Siendo asi, {w;} es dependiente.

c)

Esta es Ia contrarreciproca de la afirmacion b), luego se deduce de b).

228

ALGEBRA LINEAL

5.85.

Supongase que A 1 , A 2 , ••• son conjuntos linealmente independientes de vectores y que A 1 s A 2 s ···. Probar que Ia union A = A 1 u A 2 u ·· · tambien es linealmente independiente. Supongamos que A es linealmente dependiente. En ese caso existen vectores v1 , escalares a 1 , ••. , a. E K , no todos 0, tales que aJ vi

•. . ,

v" E A y

+ azvz + ... + anvn = 0

[1]

Como A= u A1 y los V;EA, existen conjuntos A;, ... , A 1" tales que Sea k el maximo indice de los conjuntos A;J:k = rmh (i 1 , ... ,in). Se sigue entonces, dado que A 1 <:; A 2 £···,que cada A 1j esta contenido en Ak. Por consiguiente, v 1, v2 , ••• , v. eAk y asi, de acuerdo con [1], Ak es linealrnente dependicnte. lo que contradice nuestra hipotesis. De este modo. A es linealmente independiente.

5.86. Sea K un subcuerpo de un cuerpo L que a su vez es subcuerpo de un cuerpo E; es decir, K s L s E. (Por tanto, K es subcuerpo de £.) Sup6ngase que E es de dimension n sobre L y L de dimension m sobre K . Demostrar que E es de dimension mn sobre K. Suponga rnos q ue {v 1 •••• , v.} es una base deE sobre L y {a 1 , • •• , a.,} una deL sobre K. Afirmamos que {a 1vi: i = I , ... , m. j = I, ... , n} es una base de E sobre K. Advierlase que {a 1v1} contiene mn elementos. Sea·w un elemento arbitrario de E. Como {v 1 , .•• , vn} genera E sobre L, Wes una combinacion lineal de los v1 con coeficientes en L:

(I] Como {a 1 , en K:

... ,

a.,} genera L sobre K, cada b1 e L es combinacion lineal de los

ai

con coeficientes

b 1 = k 11 a 1 + k 12 a 2 + · ·· + k 1 .,a., b2 = k21at + k22a2 + ... + k2,a.,

donde

kiJ E

w

K. Sustituyendo en [I] obtenemos

= (k 11 a 1 + · · · + k~o.a.Jv 1 + (k21 a 1 + · · · + k 2,.a.,)v2 + · .. + (k,. 1 a 1 + .. · + k_a.,)v. =

= L ki,{a1 v1) i,j

donde ki;E K. Siendo asi, w es una combinacion lineal de los a 1vi con coeficientes en K, por lo que {a1vi} genera E sobre K . La dern ostraci6n sera completa si probarnos que {a 1vJ es linealmente independiente sobre K. Supongamos que, para escalares xi1E K , I xi1(a1vi) = 0; esto es, l.j

ESPACIOS VECTORIALES

229

Dado que {v1 , ••. , v.} es linealmente independiente sobre L y que los anteriores coeficientes de los pertenecen a L , cada uno de los coeficientes debe ser 0:

Pero {a 1 ,

...

V;

,a,.} es linealmente independiente sobre K ; por consiguiente, como los xi;EK,

x 11 = 0, xu= 0, ... , x1 • = 0, ... , X.t = 0, x.2 = 0, ... , x_ = 0 En consecuencia, {a,v1} es linealmente independiente sobre K y queda demostrado el teorema.

PROBLEMAS SUPLEMENTARIOS

'\.

ESPACIOS VECTORIALES 5.87.

Sea V el conjunto de los pares ordenados (a, b) de numeros reales con suma en V y producto por · un escalar en V definidos segim (a, b) + (c, d) = (a + c, b + d)

y

k{a, b) = (lea, 0)

Demostrar que V satisface todos los axiomas de un espacio vectorial excepto [M4 ] : lu = u. Por tanto, (M 4 ] no es consecuencia de los otros axiomas. 5.88.

Probar que el siguiente axioma [A4 ] puede derivarse de los otros axiomas de un espacio vectorial. (A4)

5.89.

Para todo par de vectores u,

vE V,

u + v = v + u.

Sea Vel conjunto de sucesiones infinitas (a1 , a 2 , por un escalar en V definidos por (a" a 2 ,

•••)

+ (b 1,

• .. )

en un cuerpo K con suma en V y producto

+ b1, a 2 + b 2 , ...)

b2 ,

...)

= (a 1

k(a 1 , a 2 ,

•••)

= (lea1 , lea 2 ,

...)

donde a;, b1, k E K. Probar que V es un espacio vectorial sobre K.

SUBESPACIOS 5.90.

Determinar si W es o noun subespacio de R 3 , donde W consiste en aquellos vectores (a, b, c) ER 3 para los que a) a= 2b; b) a ~-b ~ c; c) ab = 0; d) a= b = c; e) a= b2 •

5.91.

Sea V el espacio vectorial de las matrices n-cuadradas sobre un cuerpo K. Demostrar que W es un subespacio de V si W consiste en todas las matrices que son a) autisimetricas (AT= -A), b) triangulares (superiores), c) diagonales, d) escalares.

5.92.

Sea AX = B un sistema inhomogeneo de ecuaciones lineales con n incognitas sobre un cuerpo K. Demostrar que el conjunto soluci6n del sistema no es un subespacio de K .~

230

ALGEBRA LINEAL

5.93.

Discutir si R 2 es o no subespacio de R 3 .

5.94.

Supongase que U y W son subespacios de V para los que U v W es tam bien subespacio. Probar que bien U £ W o bien W £ U .

5.95.

Sea V el espacio vectorial de tod as las funciones del cuerpo real R en R. Mostrar que W es un subespacio d e V en cada uno de los siguientes casos.

b)

W consiste en todas las funciones acotadas. [Aqui f: R _. R es acotada si existe ME R ta l que lf(x) l ~ M . 'v'xE R.) · W consiste en todas las fu nciones pares. [Aqui f: R --. R es pa r si f(- x) = j(x). Vx E R.]

a)

c)

W consiste en tod as las funciones co ntinuas.

d)

W consiste en todas las funciones d iferenciables.

e)

W consiste en todas las funciones integrables en, por ejemplo, el intervalo 0

~ x ~

I.

(Los tres ultimos casos requieren ciertos conocimientos de anatisis.) 5.96.

Sea Ve l espacio vecto rial (Problema 5.89) de las sucesiones inlinitas (a 1 , a 2 , .. . ) en un cuerpo K. Demostrar q ue W es un subespacio de V. donde: a ) W consiste en todas las sucesiones con 0 como primera co mponente, b) W consiste en todas las sucesiones con solo un numero finito de com ponentes no n ulas.

COMBINACIONES LINEALES. ENVO LVENTES LINEALES 5.97.

Demostra r que los numeros complejos w = 2 + 3i espacio vecto rial sobre e) cuerpo real R.

5.98.

Pr'obar q ue los polino mios (I - t) 3 , (1- r/, 1 - t y I generan el espacio P 3 (t) de los polinomios de grado ~3.

5.99.

Ha llar un vector en R 3 que gcnere Ia interseccion de U y W, siendo U el plano xy: U ={(a, b, 0)} y W el espacio generado por los vectorcs (I, 2, 3) y ( I, - I, I).

yz=

I - 2i generan el cuerpo complejo C como

5. 100.

Demostrar q ue lin S es Ia intersecci6n de todos los subespacios de V que contienen S.

5.101.

Probar q ue lin S = lin (Sv {0}). Esto es, anadir o suprimir el vecto r cero de un conjunto no altera el espacio generado por este.

5.102.

Probar que si S £ T, necesariamente lin S £ lin T.

5.103.

Probar que lin (lin S) = lin S.

5.104.

Sean W1 , W 2 , ... subespacios de un espacio vectorial Vtales que W1 £ W2 £ .... Sea W = W1 v W2 v ... . Demostrar q ue W es un subespacio de v. b) Supongase que S; genera 1-t; para i = I. 2, .. . Mostrar que S = S 1 v S2 v .. . genera W.

a)

DEPENDENCIA E INDEPENDENCIA LINEAL 5.105.

Determinar si los siguientes vecto res en R4 son linealmente dependientes o independientes: a)

(1, 3, - l , 4), (3, 8, -5, 7), (2, 9, 4, 23)

b) (1, -2, 4, 1), (2, 1, 0, -3), (3, -6, 1, 4)

ESPACIOS VECTORIALES

5.106.

Sea Vel espacio vectorial de los polinomios de grado s3 sobrc R. Determinar si u, v, linealmente dependientes o independientes. donde: a)

b)

u = t

3

u=

3

t

-

-

4t 2 5t

2

+ 2t + 3, v = t 3 + 2t 2 + 4t - 1, w = 2t3 3 2 3 - 2t + 3, v = t - 4r - 3t + 4, w = 2t -

t

2

3t

-

7t2

-

wE

231 V son

+ 5. + 9.

?t

5.107.

Proba r que a) los vectores (I - i. i) y (2, -I+ i) en C 2 son linealmente dependientes sobre el cuerpo complejo C pero son linealmente independientes sobre el cuerpo real R; b) los vectores (3 + fi , I + .j2) y (7, l + 2.j2) en R 2 son linealmente dependientes sobre el cuerpo real R pero so n linealmente independientes sobre el cuerpo racional Q.

5.108.

Sup6ngase que {u 1 •... , 11,, w1 , . .. , \1' 5 } es un subconjunto linealmente independiente de V. Demostrar que lin II; n lin ll'i = {0}. (Recuerdese que lin u; es el subespacio de V generado por los u;.)

5.109.

Sup6ngase que v1 , v2 , afirmaciones: a) b)

{a 1 v 1 , a 2 v2 , {v 1 ,

... ,

v. son vectorcs lineal mente independientes. Demostrar las siguientes

a. v.}, donde cada a;·# 0 es linealmente independiente. w, vi+I• ••. , v.}. donde w = b 1 v1 + ... + b;v; +. ·· · + b.v. y b; # 0 es linealmente /

• •• ,

... , V; _ 1 ,

independiente. 5.110.

•'

Supongas/ que (a 11 , . . . , a 1 .), ... ,(ami· .. . , am.) son vectores linealmente independientes en K" y que v1 , .. . , c. son vectores linealmente indcpendientes en un espacio vectorial V sobre K . Pro bar que los vectores

tambien son linealmente independientes . 5.111.

Supongase que A es cualquier matriz n-cuadrada y que u 1 , u2 , ... , u, son vectores columna 11 x I. ·Probar que si Au 1 , Au 2 , ... , Au, son vectores (columna) linealmente independie ntes, entonces u 1 • u2 , .. . , u, so n linealmente independientes.

BASES Y DIMENSION 5.112.

Encontrar un subco njunto de u 1 , u2 , u 3 , u 4 que sea base de W =lin (u 1 , a)

u 1 = (1, 1, 1, 2, 3),

b) u 1

5.113.

U2

= (1, 2, -1, -2, 1),

11 3

=· (3, 5,

112 ,

u 3 , u4 ) de R 5 , donde:

-1, -2, 5), 114 = (1, 2, 1, -1, 4).

= (1, -2, 1, 3, -1), u 2 = (-2, 4, -2, -6, 2), u 3 = (1, -3, 1, 2, !), u4

c)

u 1 = (1 , 0, 1, 0,1), u 2 = (1, l, 2, 1, 0), u 3 = (1, 2, 3, 1, 1),

d)

11 1

114

= (1, 2,

1,

=

(3, - 7, 3, 8, -1).

l, 1).

= (1, 0, 1, 1, 1), u 2 = (2, 1, 2, 0, 1), u 3 = (1, l, 2, 3, 4), u4 = (4, 2, 5, 4, 6).

Sean U y W los siguientes subespacios de R 4 :

U = {(a, b, c, d): b- 2c + d = 0}

W = {(a, b, c, c/): a= d, b = 2c}

Hallar una base y Ia dimension de a) U, b) W, c) U n W. 5.114.

Hallar una base y Ia dimension del espacio soluci6n W de cada uno de los sistemas homogeneos: x

+ 2y -

x + 2y -

2z +

2~ t= 0 z + 3s - 2t = 0

2x + 4y - 7z + s a)

+

t= 0

+ 2y - z + 3s - 4t = 0 2x + 4y- 2z- s + 5t =:' 0 2x + 4y- 2z + 4s- 21 = 0 x

b)

232

ALGEBRA LINEAL

5.115.

Encontrar un sistema homogeneo cuyo conjunto solucion W este generado por los tres vectores: (1, -2,0,3, -1)

5.116.

5.117.

5.118.

(1, - 2, 1, 2, -2)

(2, -3, 2, 5, - 3)

Sea Vel espacio vectorial de los polinomios en t de grado siguientes conjuntos es o no una base de V:

~n.

Determinar si cada uno de los

+ L, 1 + t + t 2 , 1 + t + t 2 + t 3 , •.. , 1 + t + t 2 + · · · + t• - 1 + tn}. + t, t + t 2, t 2 + t 3 , ... , r•-l + t"- 1 , t• - 1 + t"}.

a)

{1, l

b)

{1

Hallar una base y Ia dimension del subespacio W de P(t) generado por los polinomios a)

u = t3

b)

3

u=

t

+ 2t2 + t2 -

+ 1, v = t 3 + 3t2 - t + 4 3t + 2, v = 2t3 + t 2 + t - 4 2t

+ t2 + 3t2 -

. y w = 2t3

y w = 4t

3

1t - 7.

5t

+ 2.

Sea Vel espacio de las matrices 2 x 2 sobre R. Encontrar una base y !a dimension del subespacio W de V generado por las matrices

( 1 -5) -4

2

(_~

(- 25 -4)7

!)

(-51 -7)

y

1

ESPACIO FILA Y RANGO DE UNA MATRIZ 5.119.

Considerense los siguientes subespacios de R 3 : U 1 = lin [( 1, I, -I), (2, 3, - 1), (3, l, - 5)]

u2 =lin [(1, -

1, - 3), (3, -2, -8), (2, 1, - 3)]

U 3 =lin [(1, I, 1), (I , -1, 3), (3, - 1, 7)]

Determinar los que son identicos entre si. 5.120.

Calcular el rango de cada matriz:

(i

3 4

-2

5

1

4

2

3 4

7

-3

6

[~) (i

~3)

2 -3 -2 0 -4 3 -2 8 -7 -2 -11 -9 -10 -3

a)

b)

(~:

1

5 8

-2

l)

(~ ~~) -6 5

c)

1 -8

d)

5.121.

Demostrar que si se suprime una fila cualquiera de una matriz en forma escalonada (can6nica por filas), Ia matriz resultante sigue estando en forma escalonada (can6nica por filas).

5.122.

Sean A y B matrices m x n arbitrarias. Probar que: rango (A +B) 5 rango A + rango B.

5.123.

Dar ejemplos de matrices 2 x 2 A y B tales que:

+ B) <

a)

rango (A

b)

rango (A + B)= rango A= rango B

rango A , rango B

c)

rango (A+ B)> rango A , rango B

ESPACIOS VECTORIALES

SUMAS. SUMAS

DI~ECTAS.

233

INTERSECCIONES

* {0}.

5.124.

Supongase que U y W son subespacios bidimcnsionales de R 3 . Demostrar que U

5.125.

Supongasc que U y W son subespacios de V y que dim U todas las dimensiones posibles de U !"\ W.

5.126.

Scan U y W subespacios de R3 para los que dim U = I. dim W = 2 y U ~ W. Probar que R3 = U $ W.

5.127.

Sean U el subespacio de R 5 generado por

{(1,3, -3, -1, -4)

= 4,

=5y

dim W

!"\

dim V

W

= 7. Enco ntrar

(2, 9, 0, -5, -2)}

(1, 4, - 1, - 2, - 2)

y W el generado por

{(1, 6, 2, -2, 3)

(1, 3, - 1, -5, -6)}

(2, 8, - 1' - 6, - 5)

Hallar: a) dim( U + W ). b) dim (U !"\ W). 5.128.

Sea Vel espacio vectoria l de los polin omios sobre R. Hallar: a) dim( U + W), b) dim (U !"\ W) , donde

U = lin (t 3 + 4t 2 3

-

t + 3, t 3 + 5t 2 + 5. 3t 3 + l0t 2

W = lin (t + 4t + 6, t 3 + 2r2 5.129.

2

-

t + 5, 2t 3 + 2t 2

-

-

St + 5) 3t + 9)

Sean U el subespacio de R 5 generado por (1, - 1, - 1, -2, 0)

(1, -2, -2, 0, - 3)

y

(1, -1, -2, -2, l)

(1, -1, - 3, 2, -4)

y

(1, -1, -2, 2, -5)

y W el generado por

(l, - 2, -3, 0, -2)

5.130.

a)

Encontrar dos sistemas homogeneos cuyos espacios solucio n sean U y W, respectivamente.

b)

Encontra r una base y Ia dimension de U !"\ W.

Sean U 1 • U2 y U 3 los siguientes su hespacios de R 3 :

U 1 = {(a, b, c): a + b + c = 0}

5.131.

V 2 = {(a,b,c): a=c}

U3

=

{(0, 0, t): c E R }

Supongase que U. V y W son subespacios de un espacio vectorial. Demostrar que . (U

!"\

V)

+ (U

!"\

W)!:;;; U

!"\

(V + W)

Encontrar subespacios de R 2 para los que Ia igualdad no sea cierta. 5. 132.

5.133.

La suma de dos subconjuntos. (no necesariamen te subespacios) no vacios arbitrarios S y T de un espacio vectorial V se define como S + T = {s + r: s E S, t e T}. Pro bar que csta operaci6n satisface: a)

Ley conmutativa_: S + T= T + S

c)

S + {0} = {0} + S = S

b)

Ley asociativa: (S 1 +S2 )+S 3 =S 1 +(S2 +S 3 )

d)

S+V=V+S=V

Sup6ngase que W,. W2 ,

.. . ,

W, son subespacios de un espacio vectorial V. Pro bar que:

W,) = W1 + W2 + ... + W,.

a)

lin (W1 • W2 •

b)

SiS; genera W; para i = I .. . .. r. entonces S 1 u S 2 u ... u S, genera W1

... ,

+

W2 + ... + W,.

234

ALGEBRA LINEAL

5.134.

Demostrar el Teorema 5.24.

5. 135.

Demostrar el Teorema 5.25.

5.136.

Sean U y W espacios vectoriales sobre un cuerpo K. Sea Vel conjunto de pares ordenados (u, w). donde u pertenece aU y w a W: V~ {(u, w): u eU, weW}. Probar que Ves un espacio vectorial sobre K con suma en V y producto por un escalar en V delinldos segun

(u, w) + (u', w') = (u

+ u', w + w')

y

k(u, w) = (ku, kw)

donde u, u' e U, w, w' e W y k E K. (Este espacio V se denomina Ia suma directa externa de U y W.) 5.137. Sea V Ia suma directa externa de los espacios vectoriales U y W sobre un cuerpo K. (Vease el Problema 5.136.) Sean 0 = {(u, 0): ue U}, W = {(0. w): we W}. Probar que a)

b)

0 U

W son subespacios de V y que V = 0 Ef> W. es isomorfo a 0 bajo Ia correspondencia u+-> (u,

y

0) y que W es isomorfo a

W bajo Ia

correspondencia w +-+ (0, w). c) dim V =dim U +dim W. 5.138.

Supc:ingase V = U EB W. Sea VIa suma directa externa de U y W. Probar que V es isomorfo a V bajo Ia correspondencia v = u + w ...... (u, w ).

VECTORES COORDENADOS 5.139.

Considerese Ia baseS= {u 1 = (1, - 2), u2 = (4, -7)} de R2 . Hallar el vector coordenado [v] de v relativo a S, siendo a) v = (3, 5), b) v = (l , 1), c) v = (a, b). ·

5.140.

Considerense el espacio vectorial P 3 (t) de los polinomios de grado :S:3 y Ia baseS= {I, t +I, t 2 + r, t 3 + t 2 } de P 3 (t). Encontrar el vector coordenado de v respecto aS, donde: a) v = 2- 3t + t 2 + 2t 3 ; b) v = 3- 2t- t 2 ; c) v =a+ bt + ct 2 + dt 3 •

5. 141. Sea S Ia siguiente base del espacio vectorial W de las matrices 2 x 2 reales simetricas:

Encontrar el vector coordenado de Ia matriz A E W relativo a Ia base anterior S, d onde: a) A = (

I

-5

-5)

(I 2)

5 'b) A= 2

4 .

CAMBIO DE BASE 5.142.

Calcular Ia matriz de cambia de base P desde Ia base usual E = {(1 , 0), (0, I)} de R 2 hasta Ia baseS. Ia matriz de cambio de base Q desde Ia base S regresando hasta Ia base E y el vector coordenado de 11 = (a, b) relativo a S, donde

= {(1, 2), (3, 5)}

a)

S

b)

s=

{(1, - 3), (3, - 8)}

c)

S = {(2, 5), (3, 7)}

d)

s=

{(2, 3), (4, 5)}

ESPACIOS VECTORIALES

235

5.143.

Considerense las siguientes bases de R 2 : S = {u 1 = (1 , 2), u2 = (2, 3)} y S' = {v 1 = (1 , 3), v 2 = (1, 4)}. Hallar: a) Ia matriz de cambio de base P de S a S', b) Ia matriz de cambio de base Q desde S' volviendo a S.

5.144.

Supongase que los ejes x e y en el plano R 2 se giran 30" en el sentido contrario al de las agujas de un reloj proporcionando unos nuevos ejes x' e y' para el plano. Hallar: a) los vectores unitarios en las direcciones de los nuevos ejes, b) Ia matriz de cambio de base P para el nuevo sistema de coordenadas, c) las nuevas coordenadas de cada uno de los siguientes puntos respecto al nuevo sistema: A(l, 3), 8(2, -5), C(a, b).

5.145.

Calcular Ia matriz de cambio de base P desde Ia base usual E de R 3 hasta Ia base S, Ia matriz de cambio de base Q desde S hasta E y el vector coordenado de v = (a , b, c) relativo a S, estando S constituida por los vectores:

5.146.

(1, 1, 0), u 2 = (0, 1, 2), u 3 = (0, 1, 1)

a)

U1 =

b)

u 1 =(I, 0, 1), u2 = (1, 1, 2), u3 = (1, 2, 4)

c)

u 1 = (1, 2, 1), u2 = (1, 3, 4), u 3 = (2, 5, 6)

Supongase que S 1 , S 2 y S 3 son bases de un espacio vectorial V y que P y Q son las matrices de cambio de base desde S 1 hasta S 2 y desde S 2 basta S3 , respectivamente. Demostrar que el pr9ducto PQ es Ia matriz de cambio de base desde S 1 hasta S 3 .

PROBLEMAS VARIOS 5.147.

Determinar Ia dimension del espacio vectorial W de las matrices n-cuadradas sobre un cuerpo K: a) simetricas, b) antisimetricas.

5.148.

Sean V un espacio vectorial de dimension n sobre un cuerpo K y K uno de dimension m sobre un subcuerpo F. (Por tanto, V puede verse tambien como un espacio vectorial sobre el subcuerpo F.) Demostrar que Ia dimension de V sobre F es mn.

5.149.

Sean t 1 , t 2 ,

... ,

t. simbolos y K cualquier cuerpo. Sea Vel conjunto de expresiones

a 1 t 1 + a2 t 2

+ ... + a.t.

donde

Definase Ia suma en V segun

(a ttl + a2 t2 + · .. +a. t.) + (b,t 1 + b 1 t 2 + · .. +b. t.)

=(a

1

+ b1}t 1 + (a2

+ b2)t2 + · .. +(a. + b.)t.

Definase el producto por un escalar en V segun k(a 1 t 1

+a2 t 2 + ··' +a. t.) = ka t

1 1

+ ka 2 t 2 + · · · + ka. t.

Probar que V es un espacio vectorial sobre K con las operaciones anteriores. Probar, asimismo, que {t 1 , ... , t.} es una base de V; donde, para i = 1, ... , n,

t 1 = Ot 1

+ · · · + Ot 1 _ 1 + It1 + Ot1+ 1 + · · · + Ot"

236

ALGEBRA LINEAL

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS 5.90.

a)

Si.

b)

No; por ejemplo, (1, 2, 3) E W pero - 2(1, 2, 3) ¢ W.

c)

No; por ejemplo, ( 1, 0, 0), (0, 1, 0) E W, pero no su suma.

d)

Si.

e)

No; por ejemplo , (9, 3, O) E W pero 2(9, 3, 0)¢ W.

= 0 no es soluci6n de

AX

=

5.92.

X

B.

5.93.

No. Aunque uno pueda «identifican> eJ vector (a, b) E R 2 con, digamos (a, b, 0) en el plano xy de R3 • son elementos distintos pertenecientes a conjuntos distintos, disjuntos.

5.95.

a)

Sean/, gEWcon cotas M 1 y M", respectivamente. En tal caso , para todo par de escalares a. h e R,

l(af + bgXx)l =I af(x) + bg(x)l Esto es,

lal M 1 + lbl M g

~

laf(x) I+ Ibg(x)l =I a II J(x) I+ I b II g(x)l :S I aIM;+ Ibl M,

es una cota para Ia funci6n af + bg.

b) (af + bgX -x) = af( -x) + bg( -x) = af(x) + bg(x) = (af + bgXx). 5.99.

(2, - 5, 0).

5.105.

a)

D ependientes,

5.106.

a)

Independientes,

5.107.

a)

(2, -1

5.113.

a)

Base, {(1, 0, 0, 0), (0, 2, I, 0), (0, - I , 0, I)}; dim U = 3.

b)

Base,

c)

Base, {(0, 2, I, 0)}; dim (U n W) = I. Indicaci6n: U n W debe satisfacer las tres condiciones sobre a, b, c y d.

a)

Base, {(2, - I, 0, 0, 0), (4, 0, 1, -1, 0), (3, 0, 1, 0, I)}; dim W = 3.

b)

Base, {(2, -I , 0, 0, 0), (I, 0, 1, 0, 0)}; dim W = 2.

5.114.

b)

b)

+ i) =(I + iXl -

Independientes. Dependientes. i, i);

b) (7, 1 + 2.j2) = (3-

J2X3 + J2, 1 + j2).

{(1, 0, 0, \), (0, 2, 1, 0)}; dim W = 2.

5.115.

5x + y - z - s = 0 { x+y-z-t= O

5.116.

a)

Si.

5.117.

a)

dim W = 2,

5.118.

dim W = 2.

b)

No, porque dim V = n

b) dim W = 3.

+

I , pero el conjunto contiene solo n elementos.

ESPACIOS VECTORIALES

5.119.

Ut y Uz .

5.120.

a)

5.123.

a)

'b)

3.

b)

2.

A=G 1) A=G ~).

0 'B

c)

3.

=(

-1

B=

d)

2.

-~)

0

~). B = (~

A=G

c)

~)

~)

(~

5.125.

dim (U n W) = 2. 3 6 4.

5.127.

a) dim (U

+ W) = 3,

b) dim (U n W) = 2.

5.128.

a) dim (U

+ W) = 3,

dim (U n W) = 1.

5.129.

a)

- t =0 3x + 4y- z { 4x + 2y +s = 0'

{4x + 1y - s = 0 9x + 2y + z +r= 0

b) {(1, - 2, - 5, 0, 0), (0, 0, I, 0, -1)}. dim (U n W) = 2. 5.130.

La suma es directa en b) y c).

5. 131.

En R 2 , sean U , V y W, respectivamente, Ia recta y = x y los ejes x e y .

5.139.

a)

[ - 41, 11],

5.140.

a)

[4, -2, - 1, 2],

5.141.

a)

[2-, - 1, 1],

5.142.

a)

P=

b)

5.143.

p

b) [ -11, 3],

c)

P=G

d)

p

a)

P= ( _

b) [4, - 1,-1,0],

Q= (

3) - 8 'Q

-~

p =

~). [v] = ( -~ ~ !) - 3) v = ( - 8a - 3b) 1 ' [] 3a- b

2), [v]

- 1

_

(fi/2 t

[a- b + c- d, b- c + d, c - d, d].

3\ [v] = (-1a+3b) - 2/ 5a- 2b

~).

5.144. a) (j3/2, t). (-!. j3;2).

b)

_

= (- 83

=G ~

c)

b) [3, 1, -2].

G !}

= ( -31

[-1a- 4b, 2a+b] .

c)

-t) j3;2

b)

Q=(_~

=

((- f)a + 2b) (t)a-b

-D

237

238

ALGEBRA LINEAL

= [(j3 - 3)/2, {1 + 3}3)/2], [B] = [{2j3 + 5)/2, {2 - 5}3)/2], [C) = [(j3a- b)/2, (a + j3b)/2].

c) [A]

5.145. C omo E es Ia base usual, sea P sencillamente Ia m atriz cuyas columnas son u 1, Q = p - ly (v] = r 1v = Qv. a)

b)

c)

P-(~

P-(~

P-(:

5.147. a ) n(n + I )/2,

~).

0

1 2

-1 2

- 1

- 2a+2b-c

~).Q-( ~

- 2 3 -1

- 2 • [ v] 1

2a + 3b - 2c -a - b + c

3

~ •Q = - ;

4

4

') c 4

h)

-1

n(n -

2

-3

u3•

En tal caso.

~). [•] -( a-:+< ) ') = ( -2b+')

: -2

Q- (

1

1 2

0

11 2 •

-1)

-1 , [v] 1

= (-~U- ?a+ 4b- c') Sa- 3b + c

I )/2.

5.148. Indicacion: La demostracio n es casi identica a Ia dada en el P roblema 5.86 para el caso especial en el que V es una extensio n del cuerpo K .

CAPITULO

6

Espacios con producto ·interno. Ortogonalidad

6.1.

INTRODUCCION

La definicion de un espacio vectorial V involucra un cuerpo arbitrario K. En este capitulo nos restringiremos a los cases en que K es el cuerpo real R o el complejo C. En concreto, supondremos primero, a menos que se establezca o sobrentienda lo contrario, K = R, en cuyo caso V se denomina espacio vectorial real, y en las ultimas secciones extenderemos nuestros resultados al caso K = C, en cuyo caso V recibe el nombre de espacio vectorial complejo. Recordemos que los conceptos de «longitud» y «ortogonalidad» no aparecian en Ia investigacion de. los espacios vectoriales arbitrarios (aunque lo hicieran en el Capitulo 2, referente a los espacios Rn y en). En este capitulo establecemos una estructura adicional en un espacio vectorial V para obtener un espacio con producto interno. Es en este contexto en el que se definen los conceptos citados. Como en el Capitulo 5, adoptamos Ia siguiente notacion (a menos que se especifique o venga implicita otra cosa): V

u, v, w K

a, b, c o k

el espacio vectorial dado vectores en V el cuerpo de escalares escalares en K

Subrayamos que V denotara un ·espacio vectorial de dimension finita salvo que se establezca o sobrentienda lo contrario. De hecho, muchos de los teoremas del capitulo no son validos para espacios de dimension infinita. Esto se ilustrari en algunos de los ejemplos y problemas.

6.2. ESPACIOS CON PRODUCTO INTERNO Comenzamos con una definicion. 239

240

ALGEBRA LINEAL

Definicion: Sea V un espacio vectorial real. Supongamos que a cada par de vectores u, v E V se le asigna un numero real, denotado por ( u, v). Esta funci6n se llama un producto interno (real) en V si satisface los axiomas: [I .J

[I 2 ] [I 3 ]

(Propiedad lineal) (au 1 + bu 2 , v) = a(u 1 , v) (Propiedad simetrica) (u, v) = (v, u). (Propiedad definida positiva) (u, u)

~

+ b(u 2 ,

0; y (u, u)

v).

=0

si y solo si u

= 0.

El espacio vectorial V se denomina entonces espacio (real) con producto interno. El axioma [I r1 es equivalente a las dos condiciones: y

b)

(ku, v) = k( u, w)

Usando [I 1] y el axioma de simetria [I 2 ] llegamos a (u,

cvl

+ dv2 ) = (cv 1 + dv 2 ,

u) = c(vl> u)

+ d(v 2 , u) = c(u, v1 ) + d(u, v2 )

o, equivalentemente, a las dos condiciones a)

(u, v 1 + v2 )

= (u, v1 ) + (u, v2 )

y

b)

(u, kv)

= k ( u, v)

Esto es, Ia funcion producto interno es tambien lineal en su segunda posicion (variable). Por inducci6n, tendremos (a 1 u 1

+ · · · + a,u,, v) = a 1 (u 1 , v) + a 2 (u 2 ,

v)

+ · · · + a,(u.,

v)

y

Combinar estas dos propiedades nos conduce a Ia formula general escrita a continuacion:

Podemos hacer, por orden, las siguientes observaciones: Nota 1:

El axioma [I 1 ] por si mismo implica (0, 0)

= ( Ov, 0) = O(v, 0) = 0

En consecuencia, [I .J, [I 2 ] e [I 3 ] son equivalentes a [I 1 ] , [I 2 ] y el axioma: [I~]

Si u # 0, necesariamente (u, u) > 0

0 sea, una funci6n que satisface [I 1 ] , [I 2 ] e

[I~]

es un producto interno.

Nota 2: De acuerdo con [I 3 ] , ( u, u) es no negativo y por tanto existe su raiz cuadrada real positiva. Utilizamos Ia notaci6n

llull=~

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

241

El numero real no negativo llull se denomina Ia norma o longitud de u. Esta funci6n satisface los axiomas de una norma para un espacio vectorial. (Veanse el Teorema 6.25 y Ia Secci6n 6.9.) Hacemos notar que Ia relaci6n lluf = (u, u) se empleari con frecuencia. EJ EM PLO 6.1.

Consideremos el espacio vectorial R". El producto escalar en R" se define segun

u·v=a 1 b1 +a2 b2 +···+a"b" donde u = (a;) y v = (b;). Esta funci6n define un producto interno en R". La norma !lull del vector u = (a;) en este espacio es:

II u II=~ = Jaf +a~+···+ a; Por otra parte, por el teorema de Pitagoras sabemos que Ia distancia del origen 0 en R 3 al punta P(a, b, c), mostrado en Ia Figura 6-1, viene dada por a2 + b2 + c 2 • Esta coincide precisamente con Ia norma del vector v = (a, b, c) en R 3 definida anteriormente. Dado que el teorema de Pitagoras es una consecuencia de los axiomas de Ia Geometria Euclidea, e1 espacio ''ectorial R" con el producto interno y norma precedentes se conoce como n-espacio euclideo. A pesar de haber muchos otros posibles, supondremos que este es el producta interno de R", a no ser que se establezca o sobrentienda lo contrario. Se llama el producta interno usual de R".

J

P(a, b, c) I

I I I I ~~-/-/ ~~------------~----~

//

y

b

// / / / /

a

Figura 6-1.

Nota: Los vectores en R" se representan frecuentemente por matrices columna n x 1. En tal caso, el producto interno usual (Ejemplo 6.1) puede definirse segun (u, V) =

UTV

EJEMPLO 6.2 a)

Sea V el espacio vectorial de las funciones reales continuas en el intervalo a un producto int~rno en V: (/,g)= ft(t)g(t) dt

donde f(t) y g(t) son ahara funciones continuas cualesquiera en fa, b].

~

t

~

b. El siguiente es

242 b)

ALGEBRA LINEAL

Sea V nuevamente el espacio vectorial de las funciones reales continuas en el intervale w(t) es una funcion continua dada, positiva en [a, b], otro producto interne en V es:

(J, g) =

a~ l ~ b.

Si

r

w(t)J(r)g(t) dt

En este caso, w(t) se denomina una Juneion peso para el producto interne.

EJEMPLO 6.3 a)

Denotemos por Vel espacio vectorial de las matrices m x n sobre R. Un producto interne en V es: (A, B) = tr (BTA)

donde tr quiere decir traza o suma de los elementos diagonales. Si A m

(A, B ) = tr (BTA)=

= (ai)

y B ;;;; (bu),



L L aiibli i= t J•t

que es Ia suma de los productos de las entradas correspondientes. En particular, II

A

11

2

.

"'

=(A, A )=

L L afJ l• t J=l

que es Ia suma de los cuadrados de los elementos de A. b)

Sea Vel espacio vectorial de las sucesiones infinitas de numeros reales (at, a 2 ,

•• . )

que cumplen


L af =

af + a~ + ·· · < oo

i= l

esto es, Ia suma converge. La suma y el producte por un escalar se definen por compenentes: (at. a 1 ,

+ (b 1 , b2 , •••)

..•)

k(at, a 2 ,

...)

= (a 1

+ bt, a 2 + b2 , ...)

= (kat, lw2 ,

...)

·-

Puede definirse un preducto interno en V segun

((a 1, a 2 ,

•••),

(bt, b2 ,

•••) )

= a1 b1

+ a 2 b2 + · · ·

La suma anterior converge absolutamen te para todo . par de vectores en V (Problema 6.12); por consiguiente, el producto interne esta bien definido. Este espacio con producto interne recibe el nombre de espacio 12 (o espacio de Hilbert).

6.3.

DESIGUALDAD DE CAUCHY-SCHWARZ. APLICACIONES

La formula escrita abajo (demostrada en el Problema 6.10) se conoce como desigualdad de Cauchy-Schwarz, y se emplea en numerosas ramas de las matematicas. Teorema 6.1 (Cauchy-Schwarz):

Para todo par de vectores u, v E V,

(u, v) 2 ~ (u, u)(v, v)

o, equivalentemente,

I ( u, v) I~ II u II II vII

A continuaci6n examinamos Ia desigualdad en casos especificos.

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

243

EJEMPLO 6.4 a)

Consideremos reales arbitrarios a 1 ,

(a 1 b 1

... ,

an, b1 ,

+ a 2 b2 + · .. + a.b.)

.. . ,

2

b•. PorIa desigualdad de Cauchy-Schwarz,

~(a:+···+ a;)(b:

+ ·· · + b;)

es decir, (u·v) 1 ~ ll ull 2 11vll 2 , donde u = (a;) y v = (b;). b)

Sean f y g funciones reales continuas arbitrarias definidas en el intervalo unidad 0 desigualdad de Cauchy-Schwarz,

~ t ~

1. Segun Ia

Aqui V es el espacio con producto interno del Ejemplo 6.2 a).

El teorema que sigue (demostrado en el Problema 6.11) nos da las propiedades basicas de una norma; Ia demostraci6n de Ia tercera requiere el uso de Ia desigualdad de Cauchy-Schwarz. Teorema 6.2:· Sea V un espacio con producto interno. La norma en V satisface las propiedades: (N 1 ] [N2] [N3]

llvll ~ 0; y llvll = 0 si y solo si v = 0. l kvll = lkl l!vll. l u :t- vii ~ ll ull + llvll.

Las propiedades [N d, [N 2 ] y [N 3 ] precedentes son las que se han elegido como axiomas de una norma abstracta en un espacio vectorial (vease Ia Secci6n 6.9). El teorema anterior. · dice, pues, que Ia definida por un producto interno es realmente una norma. La propiedad [N 3 ] ,se llama a menudo desigualdad triangular porque, si vemos u + v como el lado del triangulo formado con u y v (como se muestra en Ia Figura 6-2), [N 3 ] establece que Ia longitud de un Jado de un triangulo es menor o igual que Ia suma de las longitudes de los otros dos.

tL

Figura 6-2.

Podemos hacer, por orden. una serie de observaciones. ~ota I: Si Jl ull = 1, o, equivalentemente, si ( u, u) = l , u se denomina un vector unitario y 'se dice que esta normalizado. Todo vector no nulo vE V puede multiplicarse por el inverso de su longitud para obtener el vector unitario

que es un multiplo positivo de v. Este proceso se conoce como normalizaci6n de v.

244

ALGEBRA LINEAL

Nota 2: El numero real no negativo d(u, v)= llu- vii recibe el nombre de distancia entre u y v; esta funci6n satisface los axiomas de un espacio metrico (vease el Teorema 6.19). Nota 3: Para todo par de vectores no nulos u, v E V, el angulo entre u y v se define como el angulo (J tal que 0 ~ (} ~ n y (u, v)

cos 0 = II u II II v II. Segun Ia desigualdad de Cauchy-Schwarz, - 1 unico.

6.4.

~

cos 0 ~ 1 y asi el angulo (J siempre existe y es

ORTOGONALIDAD

Sea V un espacio con producto interno. Se dice que los vectores u, u es ortogonal a v si

vE

V son ortogonales y que

(u, v) = 0

La relaci6n es claramente simetrica; es decir, si u es ortogonal a v, necesariamente (v, u) = 0 y por tanto v es ortogonal a u. Hacemos no tar que 0 E V es ortogonal a todo v E V, ya que

(0, v) = (Ov, v) =O(v, v) =0 Reciprocamente, si u es ortogonal a todo v E V, entonces ( u, u) ·= 0, luego u = 0 por [I 3 ]. Observemos que u y v son ortogonales si y solo si cos 8 = 0, siendo 0 el angulo entre u y v, lo que es cierto si y solo si u y v son «perpendiculares», esto es, si (} = n/2 (o (} = 90.). EJEMPLO 6.5 a) .Consideremos un vector arbitrario u = (a 1 , a 2 , gonal au si

••• ,a,)

en R". U n vector v = (x 1 , x 2 ,

.. • ,

x.) es orto-

Dicho de otro modo, v es ortogonal a u si satisface una ecuacion homogenea en Ia que los coeficientes son los elementos de 11. b)

Supongamos que buscamos un vector no nulo que sea ortogonal a v1 = (1, 3, 5) y v2 = (0, I, Sea w = (x, y, z). Queremos que 0 = (v 1, w) = x

+ 3y + 5z

0 = (v2 , w)

y

4) en R 3 .

= y + 4z

Asi obtenemos el sistema homogen<:o

x Tomamos z = l llegando a y Normalizando w conseguimos

=

+ 3y + 5z = -4 y x

=

0

y

+ 4z =

0

7; por tanto, w = (7, .-4, I) es ortogonal a v1 y v2 .

.

.

w= w/11 wII = (7/./66, - 4/./66, 1/j66) que es un vector unitario ortogonal a v1 y v2 •

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

245

COMPLEMENTOS ORTOGONALES Sea S un subconjunto de un espacio con producto interno V. El complemento ortogonal de S, denotado por Sj_ (leido «S perp» ), consiste en aquellos vectores de V que son ortogonales a todo vector uES: S_l_ = {v

E

V: (v, u) = 0 para todo u

E

S}

En particular, para un vector dado u en V, tendremos u.l =

{v

E

V: (v, u)

= 0}

Es decir, u_l_ consiste en todos los vectores que son ortogonales al vector dado u. Probemos que Sj_ es un subespacio de V. Obviamente, OESl., puesto que 0 es ortogonal a todo vector en V. Supongamos ahora que v, wE S1.. En tal caso , para todo par de escalares a y b y . todo vector u E S, ·

( av + bw, u)

= a( v, u) + b(w, u) =a· 0 + b • 0 = 0

. De este modo, av + bw E sj_ y sl. es un subespacio de · Establezcamos formalmente este resultado.

v.

Propc)sicion 6.3: Sea S un subconjunto de un espacio con producto interno V. Entonces s1. es un subespacio de V. Nota 1: Supongamos que u es un vector no nulo en R 3 : En este caso existe una interpretacion geometrica de u_l_. De forma especifica, ul. es el plano en R 3 que, pasando por el ongen, es perpendicular a! vector u, tal y como se muestra en Ia Figura 6-3. z

• X

Figura 6-3. Nota 2:

Consideremos un sistema de ecuaciones lineales homogeneo sobre R:

a11 x 1 a21 x 1

+ a 12 x 2 + · ·' + atoox.. = 0 + a 22 x 2 + ·: · + a2 ,.x,. = 0

246

ALGEBRA LINEAL

Recordemos que el espacio soluci6n W puede verse como la soluci6n de Ia ecuaci6n matricial equivalente AX = 0, donde A = (a;) y X = (x;). Esto suministra otra interpretacion de W, en Ia que se usa Ia noci6n de ortogonalidad. Concretamente, cada vector soluci6n v = (x 1, x 2 , ... , xn) es ortogonal a todas las filas de A; y, en consecuencia, W es el complemento ortogonal del espacio fila de A. EJEMPLO 6 .6 . Supongamos que queremos hallar una base del subespacio u1 en R 3 , siendo u = (1, 3, - 4). N6tese que u.l_ esta formado por todos los vectores (x, y, z) tales que ((x, y, z), (l, 3, -4)) = 0

0

x

+ 3y-4z=0

Las variables libres son y y z. Tomemos:

= -I , z = 0 para obtener la soluci6n

l.

y

2.

y = 0, z = I para obtener Ia soluci6n

w1 = (3, - I, 0).

w2 =

(4, 0, 1).

Los vectores w 1 y w2 constituyen una base del espacio soluci6n de Ia ecuaci6n y por ende una base de u1 .

Supongamos que W es un subespacio de V. Wy w.t son ambos subespacios de V. El teorema enunciado a continuaci6n, cuya demostraci6n (Problema 6.35) requiere el uso de resultados de las secciones posteriores, es basico dentro del algebra lineal. Teorema 6.4: Sea W un subespacio de V. Entonces V es Ia suma directa de W y V= WEB w.t.

w.t,

o sea,

EJE.MPLO 6.7. Sea Wel eje zen R 3 , esto es, W= {(0, 0, c): ce R}. En ese caso, W 1 es el plano xy o, en otras palabras, W 1 ={(a, b, 0): a, beR}, tal y como se ilustra en Ia Figura 6-4. Como se seiial6 previamente, R 3 = WE£) w.t.

w y

· Figura 6-4.

·-

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

6.5.

247

CONJUNTOS ORTOGONALES Y BASES. PROYECCIONES

Un conjunto de vectores S en V se dice ortogonal si cada par de vectores en S lo son, y S se dice ortonormal si es ortogonal y cada vector de S tiene longitud unidad. Dicho de otro modo, S = {u 1 ,' u 2 , .•• , u,} es ortogonal si y ortonormal si

_ ~ _ {0

< UJ>U1

'

U1· · '

para i -:1= j 1 para i = j

La expresi6n norma/izar un conjunto ortogonal S de vectores se refiere al proceso de multiplicar cada vector de S por el inverso de su longitud con el fin de transformar S en un conjunto ortonormal de vectores. Una base S de un espacio vectorial V se llama base ortogonal u ortonormal segun lo sea como ' conjunto de vectores. Son aplicables los siguientes teoremas, demostrados en los Problemas 6.20 y 6.21 , respecti·vamente. Teorema 6.5: Supongamos que S es un conjunto ortogonal de vectores no nulos. En tal caso, · S es linealmente independiente. Teorema 6.6 (Pitagoras): Entonces

Supongamos que {u 1 , u 2 ,

II U1 +

U2

••• ,

u,} es un conjunto ortogonal de vectores.

+ · · · + u, 11 2 = II U1 11 2 +II u2 11 2 + .. · + li u, 11 2

Probemos aqui el teorema de Pitagoras en el caso especial y familiar de dos vectores. Especificamente, supongamos (u, v) = 0. Tenemos

II u + v 11 2 = (u + v, u + v) = ( u, u) + 2(u, v) + (v, v) = (u, u) + (v, v) = II u 112 +II v li 2 lo que nos lleva a nuestro resultado. EJEMPLO 6 .8

a) Consideremos Ia base usual E del 3-espacio euclideo R3 :

E = {e 1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1)} Es claro que

(e 1 , e 2 )

=

( e 1, e 3 ) = (e2 , e 3 )

=0

Asi pues, E es una base ortonormal de R para todo n. b)

3



y Con mayor generalidad, Ia base usual de R" es ortonormal

Sea Vel espacio vectorial de las funciones reales continuas sobre el intervalo -rr.::;; t .::;; n con producto interno definido por (/, g) = J~J(t)g(t)dl. Un ej emplo clasico de subconjunto ortogonal de Ves:

{1_. cos t, cos 2t, ... , sen t, sen 2t, ... } El conjunto ortogonal p recedente juega un papel fundamental en Ia teoria de las series de Fourier.

..

248

ALGEBRA LINEAL

c ) Consideremos el conjunto S de vectores en R4 : S = {u = (1, 2, -3, 4), v

= (3, 4,

l , -2), w

= (3,

-2, l , l }

N6tese que (u, v) = 3 + 8 - 3 + 8 = 0 .

( u, w)

= 3- 4- 3 + 4 = 0

(v, w)

= 9- 8+ 1- 2 = 0

De este modo, S es ortogonal. Normalizamos S para conseguir un conjunto ortonormal, calculando primero

=1+4+ 9+

II u 11 2

16 = 30

11

v 11 2

=

ll wll 2 =9+4+1+1 = 15

9 + 16 + 1 + 4 = 30

El que sigue es, pues, el conjunto ortonormal de vectores deseado:

u= (l/j30, 2/fo. i)

=

(3!j30, 4/fo, 1/ fo, -2/J3Q)

w= (3/fo, Tenemos tambien u + u + w

=

-3/fo, 4/j30)

-2/fo,

lifo, lifo>

(7, 4, - 1, 3) y lltt + u + wll 2 = 49 + 16 +I + 9 = 75. Siendo asi,

II u 11 2 +II v 11 2 +

II

w 11 2 = 30 + 30 + 15

= 75 =

II u + v + w

11

2

con lo que se verifica el teorema de Pitagoras para el conjunto ortogonal S. EJEMPLO 6.9. Consideremos el vector u = (1, I, I, I) en R 4 . Supongamos que queremos encontrar una base ortogonal de u\ el complemento ortogonal de u. Observemos que u.l. es el espacio soluci6n de Ia ecuaci6n lineal.

x+y+z+t=O

[I]

Hailamos una soluci6n no nula v 1 de [1], digamos v 1 = (0, 0, l , -1 ). Queremos que nuestro segundo vector de Ia base v2 sea solucion de [I ) y ademas ortogona l a v 1 , esto es, que sea una soluci6n del sistema X

+ y+

Z

+

l =

0

Z -

t= 0

(2) . 1, I). Queremos que nuestro tercer vector )(,

Hallamos una soluci6n no nula v2 de [2], digamos v2 = (0, 2, de Ia base v3 sea soluci6n de [I] y ademas ortogonal a v1 y v 2 , es decir, que sea una soluci6 n del sistema

X+ y + Z + t. = 0

2y- Z

-

t

=0

Z

y_·

-~ 0

(3)

Ha ll amos una soluci6n no nul a de [3), por ejemplo v3 = ( - 3, I, I, I ). Entonces {u1 , v2 , v3 } es una base ortogonal de u.l. . (Observese que hemos eleg1do las soluciorles intermedias v1 y v2 de manera ta l que cada nuevo sistema este ya en forma escalonada. Esto hace los calculos mas sencillos.) Podemos deterrninar una base ortonormal de ul. normalizando Ia base ortogonal de u.L ante"rior. Tenemos

II VI

11

2

=0 + 0+

II v3 11 2 = 9 + 1 + 1 + 1 = 12

1+ l = 2

De modo que !a siguiente es una base ortonormal de

v1 = (0,'0, 1/.fi., -1/./i) EJEMPLO 6 .10.

u.L.

u2 = (0, 2/fi, - 1/.,fi, -l/j6)·

Supongamos que S consiste en los vectores de R 3 : u 1 = (1, 2, 1)

u 2 = (2, 1, -4)

u3

=

(3, -2, 1)

249

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

En tal caso. S es ortogonal, pues u 1 • u2 y u 3 son ortogonales entre si:

Asi S es linealmente independiente y, dado que tiene tres elementos, es una base ortogonal de R 3 . Supongamos ahora que queremos escribir v = (4, I, 18) como combinacion lineal de u 1 , u2 y tt3 . Comenzamos tomando v como combinacion lineal de u1 , u 2 y u3 usando incognitas x, y, z como se hace a continuacion:

[I] Metodo 1.

Desarrollamos [I] obteniendo x

= 4, y =

de donde x '

+ 2y + 3z =

- 3, z

= 2.

2x + y- 2z

4

De este mo do, v

1

=

= 4u 1 -

3u 2

X -

4y +

Z =

18

+ 2tt3 •

Metodo 2. (Este metodo utiliza el hecho de que los vectores de Ia base son ortogonales, y Ia aritmetica es mucho mas simple.) Tomamos el producto internode [I] y u 1 para conseguir

. (4, 1, 18) • (1, 2, 1) = x(l, 2, 1) · (1, 2, 1)

24 = 6x

0

x=4

0

(Los dos ultimos terf!~inos desaparecen porque u 1 es ortogonal a u 2 y a u3 .) Tomamos el producto interno de [I] y u2 llegando a

(4, 1, 18). (2, 1, -4) = y(2, 1, -4). (2, 1, -4)

0

-63 = 21y

0

y= -3

28 = 14z

0

z=2

Finalmente,. tomamos el producto interno de [I] y u3 para obtener

(4, 1, 18). (3, -2, 1) = z(3, -2, 1). (3, -2, 1) Asi pues, v

=

4u 1

-

3u 2

0

+ 2u 3 •

El procedimiento del Metodo 2 del Ejemplo 6.10 es valido en general; esto es, Teorema 6.7:

Supongamos que {u 1, u2 ,

v=

( v, u 1 ) u (u 1 , u 1 ) 1

... ,

u,.} es una base ortogonal de V Para todo

(v, u 2 ) u2 2 , u2 )

+ (u

+ ··· +

vE

V,

(v, u,.) u,. (u,., u,.)

(Vease el Problema 6.4 para su demostraci6n.) Nota:

Cada escalar k

= 1

-

(v, u;) _ (v, u;) (ui, u;)-

II

ui 112

se denomina coeficiente de Fourier de v con respecto a los u1, debido a que es analogo a un coeficiente en Ia serie de Fourie( de una funci6n . Este escalar tiene tambien una interpretacion geometrica, que se discute mas adelante.

250

ALGEBRA LINEAL

PROYECCIONES

Consideremos un vector no nulo w en un espacio vectorial con producto interno V. Para todo vE V demostran!mos (Problema 6.24) que (v, w) (v, w) c=---=--2 ( w, w) II w 11 .

es el unico escalar tal que v' = v - cw es ortogonal a w. La proyecci6n de v a lo largo de w, como se indica en la Figura 6-5, se denota y define por (v, w) ( w,w)

(v, w)

proy (v, w) = cw = - - - w = - - w 2

llwll

El escalar c tambien se llama el coeficiente de Fourier de v con respecto a w o Ia componente de v a lo largo de~ \

\

\ \'-CII'

Figura 6-5. EJEMPLO 6.11

a)

Hallemos la comp6nente c y Ia proyecci6n cw de v = (l, 2, 3, 4) a lo largo de w = (l , .:...3, 4, 2) en R 4 • Para ello comenzamos por calcular (v, w)

= 1 - 6 + 12 - 8 = -1

Entonces c =-fay proy (v, w) b)

y

Uwll 2

= cw = (-fa , fo ,

- fs, fa).

= 1+9

+ 16 + 4 =

30

Sea Vel espacio vectorial de los polinomios con producto interno ( f, g) = Jci f(t)g(t)dt. Hallemos Ia componente (coeficiente de Fourier) c y La proyecci6n cg de f(t) = 2t- I a lo largo de g(t) = t 2 • Empezamos calculando

a

Jor (2t

1

1

g)=

3

_

t 2 ) dt

= [~ - ~] = ~ 2

3

0

6

(g, g) =

1 [tS]l

1 t

0

4

dt =

-

5

0

1

=-

5

E ntonces c = ~ y proy (f, g)= cg = 5t f6. 2

La noci6n precedente puede generalizarse como sigue. Teorema 6.8: Supongamos que w1 , w2 , . • • , w, constituyen un conjunto ortogonal de vectores no nulos en V. Sea v un vector arbitrario en v.· Definamos v'' = v - c 1 w1 - c2 w2 - .. · - c, w, siendo

..., En ese caso, v' es ortogonal a w1 , w 2

... ,

w,.·

(v, w,) c,=~

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

251

N6tese que los c1 en el teorema anterior son, respectivamente, las componentes (coeficientes de Fourier) de v a lo largo de los w 1• Ademas, el teorema enunciado a continuaci6n (probado en el Problema 6.31) muestra que c 1 w1 + ... + c,w, es la aproximaci6n mas cercana a v por combinaci6n lineal de w1 , ... , w,. Teorema 6.9: Supongamos que w1 , w2 , ... , w, forman un conjunto ortogonal de vectores no nulos en V. Sean v cualquier vector en V y C; la componente de v a lo largo de w1• Para escalares cualesquiera a 1, ... , a,,

El siguiente teorema (demostrado en el Problema 6.32) se conoce como !a desigualdad de Bessel. ·,

Teorema 6.10: Supongamos que {e 1 , e2 , ... , e,} es un conjunto ortonormal de vectores en V. Sean v cualquier vector de Vy c; el coeficiente de Fourier de v con respecto a e1• Entonces r

~>~~II v 11

2

1< =1

Nota: La noci6n de proyecci6n incluye Ia de un vector a lo largo de un subespacio como se explica a continuaci6n. Supongamos que W es un subespacio de V y que v E V. Por el Teorema 6.4, V = WEB W.L; por consiguiente, v puede expresarse de forma unica como v=

w

+ w'

con

w E W,

w' E w.L.

Llamamos a .w Ia proyecci6n de v a lo largo de W, Io que denotamos por w = proy (v, W). (Vease !a Figura 6-6). En particular, si W =lin (w 1, ... , w,), dond~ los w1 forman un conjunto ortogonal.

siendo c1 la componente de v a lo largo de w1, como antes.

p

v- proy (v, W)

proy (v, W)

Figura 6-6.

Q

252

ALGEBRA LINEAL

6.6.

PROCESO DE ORTOGONALIZACION DE GRAM-SCHMIDT

Supongamos que {v1 , v2 , ... , v"} es una base de un espacio con producto interno V. Podemos construir una base ortogonal {w 1 , w2 , ... , wn} de Vcomo sigue. Tomemos

Dicho de otro modo, para k = 2, 3, ... , n, definamos

donde cki = (vk, wi)/ll will 2 es Ia componente de vk a lo largo de wi. De acuerdo con el Teorema 6.8, cada wk es ortogonal a los precedentes, de modo que w 1 , w2, ... , w" forman una base ortogonal de V, c·o mo se pretendia. La normalizaci6n de cada wk proporci.onani una base ortonormal de V. La construcci6n anterior se conoce como el proceso de ortogonalizaci6n de Gram-Schmidt. A continuaci6n hacemos una serie
Los siguientes teoremas, demostrados en los Problemas 6.32 y 6.33, respectivamente, hacen uso del algoritmo y las notas que acabamos de ver. Teorema 6.11: Sea {v 1 , v2 , ... , v"} cualquier base de un espacio con producto interno V. Existe · una base ortonormal {u 1 , u2 , ... , u"} de V tal que Ia matriz de cambio de base desde {v;} hasta {u;} es triangular; es decir, para k = I, ... , n,

253

ESPACIOS CON PRODUCTO INTE RNO. ORTOGO NALIDAD

Teorema 6.12: Supongamos que S = {w1 , w2 , •.• , w,} es una base ortogonal de un subespacio W de V. Entonces es posible extender S a una base ortogonal de V, o sea, pueden encontrarse vectores wr+ 1 , .. . , wn, tales que {w 1 , w2 , .. . , wn} sea una base de V. EJ EM PLO 6.12.

Consideremos el subespacio U de R 4 generado por V1

v1

= (1, 1, l, 1)

= (1, 2, 4, 5}

v3 = (1, - 3, -4, -2)

H allemos una base orto norma l de U , encontra ndo primero una base ortogonal mediante el a lgoritmo de G ra m-Schmidt. Primero tomamos w 1 = v1 = (1 , I , I, 1). D espues calculamos (v1 , w 1 )

V2 -

llwtll

l

W1

12 4

= (1, 2, 4, 5) - - (1, 1, 1, 1) = (- 2, - 1, 1, 2)

Tomamos w2 = ( -2, - I , 1, 2). Luego hallamos ( v3 , w1 )

-.

v3-

ll w,ll 1

( v3 , w2 )

Uw ll 2

W1 -

-8

w1 = (1,- 3, -4, -2) - 4

1

=

(~. - ~~· - ~~· ~)

Elimina mos los denominad ores obteniend o w3 ortogonal WI

- 7 · (1, 1, 1, 1) - l0(-2, -1, 1, 2) =

= (16,

- 17, - 13, 14). P or ultimo, normalizamos Ia base w3 = (16, - 17, - 13, 14)

w 2 = (-2, -1, 1, 2)

= (1, 1, 1, 1)

1 u2 =

.•

.

r.i\ ( - 2, -1, 1, 2)

u3 =

....; 10

1 ,lil";"i\ (16, - 17,- 13, 14) v' 910

J:

EJEMPLO 6.13. Sea Vel espacio vectorial de los polinomiosf(t) con producto intemo (f, g) = 1 f(c)g(c)dt. Aplicamos el algoritmo de G ra m-Schmidt al conj unto { I, c, t 2 , r3 } pa ra obtener una base o rtogonal {!0 ,f1,f2 ,f3 } , con coeficientes enteros, del subespacio U de los polinomios de grad o ~3. Aqui utilizamos el hecho de que si r + s = n,


'

t') =

I

I

- I

t" dt

[c•+t]t

= --

n + 1 _1

{2/(n + l)

=

0

s1 n es pa r

si 11 es impa r

Empezamos toma ndo fo = I . Luego halla mos ( t, 1) 0 c - - - ·1 = t - - · 1 = t

<1, 1>

2

Sea f 1 = t. Entonces calcula mos

c1 -

( t1 , 1) ( c1 ,c) t 0 . 1 - · 1 - - - t= t 1 - - · 1 - - t =l2 - ( 1, 1) ( c, t ) 2 t 3

-

~ultiplicamos por 3 para llegar ~f2 = 3t 2

r3

( t3, l ) -

-- •

( 1, 1)

-

I. D esp ues calcula mos

( c3 ,t)

( t 3 , 3t 1 - l )

( t,t)

(3t 1 - 1, 3t 2 - 1)

1- --t -

..

(3t2

-

1) =

t3 -

t i

0 · I - - t - 0(3c2

-

1)

= c3 -

3 -

5

t

254

ALGEBRA LINEAL

Multiplicamos por 5 para llegar a f 3 = 5t3 requerida.

-

3t. Esto es, {I, t, 3t 2

I, 5t3

-

-

3t} es Ia base ortogonal de U

Nota: La normalizaci6n de los polinomios del Ejemplo 6.13 de forma que p (l)"= 1 para todo polinomio p(t) conduce a los 1, t, !(3t 2

1), t(5t 3

-

-

3t)

Estos son los cuatro primeros polinomios de L egendre (importantes en el estudio de ecuaciones d iferenciales).

6.7.

PRODUCTOS INTERNOS Y MATRICES

Esta secci6n investiga dos tipos de· matrices que desempefian un papel especial en Ia teoria de espacios reales con producto interne .V: las matrices definidas positivas y las ortogonales. En este contexte, los vectores en R" se representan'tn por vectores columna (de modo que ( u, v) = uT v denotani el producto interno usual en R"). MATRICES DEFINIDAS POSITIVAS Sea A una matriz real simetrica. Recordemos (Secci6n 4.11) que A es congruente a una matriz diagonal B, es decir, existe una matriz no singular P tal que B = pT AP es diagonal, asi como que el numero de entradas positivas de B es un invariante de A (Teorema 4.18, ley de inercia). Se dice que Ia matriz A es definida positiva si todas las entradas diagonales de. B son positivas. Alternativamente· se dice que A es definida positiva si XT AX> 0 para todo vector no nulo X en R". - - --· ·-

.

( 1 0 -1)

.

Sea A= 0 1 - 2 . Reducimos A a una matriz (congruente) diagonal (vease Ia . -1 -2 8 Secci6n 4.11) efectuando R1 + R3 --+ R 3 y Ia operaci6n entre columnas correspondiente C 1 + C 3 -+ C3 , y despues 2R 2 + R 3 --+ R 3 y 2C 2 + C 3 --+ C 3 : EJEMPLO 6.14.

. (1 0 0) (1 A- 0 0

1

- 2

-2 7

~)

0 1 0

0 0

Como Ia matriz diagonal tiene solo entradas positivas, A es una matriz definida positiva.

N ota:

. , . 2 x 2A = U na matn.z s1metnca

.

.

(ac b) (a b) es definida positiva si y solo si las end

=

b

d

.

tradas ?iagonales a y d son positivas y el determinante det (A) =ad - be = ad - b 2 es positive. El teorema que sigue, demostrad o en el Problema 6.40, es aplicable. Teorema 6.13: Sea A una matriz real de.finida positiva. La funci6n ( u, v) ducto interne ·e n Rn.

= uT Av

es un pro-

·.

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

255

El Teorema 6. 13 dice que toda matriz delinida positiva A determina un producto interno. La discusion que a hora se inicia y el Teorema 6.15 pueden verse como el reciproco de este · resultado. Sean V un espacio con producto interno y S = { u 1 , u 2 , ... , u"} una base de V. La matriz A escrita a continuacion se denomina representaci6n m.atricial del producto interno en V relativa a Ia baseS:

(u 1, U 1 ) (u 2 ,u 1 ) A=

(

(u 1, Uz ) (u2 ,u2 )

. ..

(ut, u") ) ( u2 ,u")

............ ....... : ............. .

(u,., u 1 )

(u", u2 )

...

(u,., u,)

0 sea, A = (aij), donde au= (u;, ui>·

-.

. Observese que A es simetrica por serlo el producto interno, esto es, (u;, u) = (ui, u 1). Asimismo, A depende tanto del producto interno en V como de Ia base S de V. Aun mas, si S es una base ortogonal, A es necesariamente diagonal, y si S es ·una base ortonormal, A es Ia matriz identidad. EJEMPLO 6.15.

Los tres vectores siguientes forman una baseS del espacio euclideo R3 : "• =

El calculo de los

~ U;,

u2 = (l, 2, 3)

(l, l, 0)

u 3 = (l, 3, 5)

uj) =
( u 1 , u1 )

= 1 + l + 0= 2

(u 1 , u 2 ) = 1 + 2 + 0 = 3

(u2 , u2 )

= l + 4 + 9 = 14

(u2 , u 3 )

De este modo ,

= 1 + 6 + 15 = 22

( u 1 , u3 ) = l

+3+0 = 4

(u3 , u 3 ) = l

+ 9 + 25 = 35

A=(~4 1!22 2;) 35

es Ia representaci6n matricial del producto interno usual en R 3 relativa a Ia base S.

Son a plicables los teoremas enunciados a continuaci6n y demostrados en los Problemas 6.41 y 6.42, respectivamente. · Teorema 6.14: Sea A Ia representaci6n matricial de un producto interno relativa a una base S de V. Para todo par de vectores u, v E V tenemos (u, v) = [uY A[v]

donde [u] y [v] denotan los vectores (columna) coordenados respecto a Ia base S. Teorema 6.15: Sea A Ia representacion matricial de cualquier producto interno en V. Entonces A es una matriz definida positiva.

MATRICES ORTOGONALES Recordemos (Seccion 4.6) que una matriz P es ortogonal ~i es no singular y p- 1 = pT, esto es. si p pT = pT p = I. Esta subsecci6n lleva mas lejos ·[a investigaci6n de dichas matrices. Empezamos recordando (Teorema 4.5) una importante caracterizaci6n de las matrices ortogonales.

256

ALGEBRA LINEAL

Teorema 6.16: i)

Sea P una matriz real. Son equivalentes las tres propiedades:

P es ortogonal, es decir, pr = P- 1 .

.ii)

Las filas de P forman un conjunto ortonormal de vectores.

iii)

Las columnas de P forman un conjunto ortonormal de vectores.

(El teorema precedente solo es cierto cuando se utiliza el producto interno usual de R", no cuando R" esta dotado de cualquier otro producto interno.) Nota:

Toda matriz ortogonal 2 x 2 presenta las formas

e

cos . ( -sen e

sen cos

0) e

0

(cos tJ sen 0

sen -cos

e)

e

para algun numero real 8 (Teorema 4.6). EJEMPLO 6.16

Se~

/f

1 P= (

:~1 -~~~).

Las filas son ortogonales ent re si y son vectores

~nitarios.

2/}6 - 1/./6 -1/.fi

o sea,

.

constituyen un conjunto ortonormal de vectores. Podemos decir, pues, que P es ortogonal.

Los dos teoremas siguientes, demostrados en los Problemas 6.48 y 6.49, respectivamente, muestran algunas relaciones importantes entre ma trices ortogona les y bases ortonormales de un espacio con producto interno V. Teorema 6.17: Supongamos que E = {eJ y E' = {e;} son bases ortonormales en un espacio con producto interno V. Sea P Ia matriz de cambio de base desde E hasta £ '. En ese caso, P es ortogonal. Teorema 6.18: Sean {e 1, ••• , e"} una base ortonormal de un espacio con producto interno Vy P = (ai) una matriz ortogonal. Entonces los n vectores que siguen forman una base ortonormal de V:

(i

= 1, 2, ... , n)

6.8. ESPACIOS COMPLEJOS CON PRODUCTO INTERNO Esta secci6n considera espacios vectoriales sabre el cuerpo complejo C. Recordemos primero algunas de las propiedades de los numeros complejos (Secci6n 2.9). Supongamos que z E C, es decir, z = a + bi, donde a, bE R. En tal caso, ·

z =a- bi

y

Asimismo, para z, z 1 , z 2 eC, Zt

. y z es real si y solo si

+ z2 = Zt + zl

z=

z.

Z=Z

·.

ESPACIOS CON PR ODU CTO INTERNO. ORTOGONALIDAD

257

Definicion: Sea V un espacio vectorial sobre C. Supongamos que a cada par de vectores u, v E V se le asigna un numero complejo, denotado por (u, v) . Esta funci6n se denomina un producto interno (complejo) en V si satisface los axiomas:

[Jj] (Propiedad lineal) ( au 1 + bu 2 , v) = a ( u 1 , v) + b(u 2 , v). [Ii) (Propiedad simetrica conjugada) ( u, v) = (v, u) . [J j] (Propiedad definida positiva) ( u, u) ~ 0; y ( u, u) = 0 si y solo si u = 0. El espacio V sobre C recibe entonces el nombre de espacio (complejo) con producto interno. Observemos que un producto interno complejo difiere solo ligeramente de un producto interne real (unicamente [I!] difiere de [/ 2 ]). De hecho, muchas de las definiciones y propiedades de un espacio complejo con producto interne coinciden con las de un espacio con producto interne real. Sin embargo, algunas de las demostraciones deben adaptarse at caso complejo. El axioma [/i] es tambien equivalente a las dos condiciones: ~.

· a)

( u1

+ u2 ,

v)

= (u 1 ,

v)

+ ( u2 ,

v)

b)

y

( ku, v)

= k(u,

v)

En cambio, ( u, kv) = ( kv, u) = k( v, u) =k(v, u) = k( u, v)

(En otras palab~:as , debemos tomar el conjugado de un escalar complejo cuando este se saca de Ia segunda posicion del producto interne.) Demostra remos (Problema 6.50) que, de hecho, el producto interno es antilinea/ en Ia segunda posicion, esto es, · ( u, av 1

+ bv2 )

=

a(u, v1 ) + b( u, v2 )

Puede proba rse (Pro blema 6.95), a milogamente, que ( a 1u 1

+. a 2 u2 , b 1 v 1 + b 2 v2 )

= a 1 b1 (u 1 , v 1 )

+ a 1 b2 ( u 1,

v2 )

+ a 2 b1 (u 2 ,

v1 )

+ a 2 b2 (u1 , v 1 )

y, por ind uccion,

Podemos hacer, por orden, las observaciones similares: Nota 1: El axioma [IiJ por si mismo implica ( 0, 0) = (Ov, 0) = O( v, 0) [Ii], [!!] e [I! ] son equivale ntes a [Jj], [I!] y el axioma:

[IrJ

Si u =;t:·O,

necesariamente

= 0. En consecuencia,

( u, u) > 0

0 sea, una funcion que satisface [/j], (li ] e [/j'] es un producto interno (complejo) en V. :'IJota 2: De acuerdo con [Ii], ( u, u) = ( u, u). Asi (u, u) debe ser real. Por [Jj], ( u, u) debe ser. no negati ve y por tanto existira su raiz cuadrada. Como haciamos con los espacios con producto interno reales, definimos Ia norma o longitud de u como llull = ~·

258

ALGEBRA LIN EAL

Nota 3: Junto a Ia norma, definimos las nociones de ortogonalidad, complemento ortogonal, y conjuntos ortogonales y ortonormales como antes. D e hecho, las definiciones de distancia, coeficiente de F ourier y proyeccion son las mismas que en ~I caso real. EJEMPLO 6.17.

Sean u = (z1) y v = (w1) vectores en C". Entonces



( u, v) = 2:ztwt=z 1 w1 +z2 w2 +···+z.w. t a l

es un producto interno en C" llamado el producto usual o convencional en C". {Supondremos este producto interno en C" a menos que se establezca· o sobrentienda otra cosa.) En caso de que u y _v sean reales. tenemos k'; = w1 y

Dicho de otro mod o, este producto interno se reduce a su analogo en R" cuando las entradas son reales.

Nota: Aceptando que u y v son vectores columna, el producto interno precedente p uede definirse segun u, v) = ur v.

<

EJEMPLO 6.18 a)

Sea V el espacio vectorial de las funciones complejas continuas defiuidas sobre el intervalo {real) a ~ t ~ b . El producto interno usual en V es:

(.f, g) b)

=

f

f(t )g(t) dt

Sea U el espacio vectorial de las matrices m x n sobre C. Supongamos que A = (z1) y B elementos de U. El p roducto interno usual en U es:

(A, B )= tr BHA

..

=

=

(wli) son

.

I I wjzij 1

i= 1 } = 1

Como de costumbre, BH

=

liT, o sea,

BH es Ia traspuesta conjugada de B.

A continuacion se presenta una Iista de teoremas para espacios complejos con producto interno, an alogos a los dados para el caso real (el Teorema 6.19 se demuestra en el Problema 6.53). Teorema 6.19 (Cauchy-Schwarz):

Sea V un espacio complejo con· producto interno. Entonces

l( u, v)l :s; II u 1111 vII Teorema 6.20: Sea W un subespacio de un espacio complejo con producto interno V En tal caso, V ,;, WEB W .L Teorema 6.21: Supongamos que {u 1 , u 2 , complejo V Para todo v E V,

v=

( v, u 1 )

••• ,

un} es una base ortogonal de un espacio vectorial

(v, u2 )

WZ ul + ~ u2 + ... +

(v,

u~>

II u.ll2 u.

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

259

Teorema 6.22: Supongamos que {u 1 , u 2 , .. • , u"} es una base de un espacio complejo con producto interno V. Sea A = (aii) Ia matriz compleja definida por aij = (u i, ui). Para todo par de vectores u, v E V,

( u, v) = [uYA[v] donde [u] y [v] son los vectores columna coordenados en Ia base {u.} dada. (Nota: Se dice que esta matriz A representa el producto interno en V.) Teorema 6.23: Sea A una matriz hermitica (esto es, An = .IF= A) tal que xr AX es real y positivo para todo vector no nulo X E En tal caso, ( u, v) = UT A v es un producto interno en C". ·

en.

Teorema 6.24: Sea A Ia matriz que representa un producto interno en V. Entonces A es hermitica y xr AX es real y positivo pa ra cualquier vector no nulo en

en.

,/

6.9.

ESPACIOS VECTORIALES NORMADOS

Empecemos con una definicion. Definicion: Sea·vun espacio vectorial real o complejo. Supongamos que a cada vE Vse le asigna . un numero rea l, denotado por II vii - Esta funcion II · II se llama una norma en V si satisface los axiomas: [N d [N 2 ]

[N 3]

IIvii ~ 0; y II vii = 0 si y solo si v = 0. llkvll = lklllvll. llu +v ii~ !lull + IJ vll .

El espacio vectorial V con una norma se denomina espacio vectorial normado. Se pueden hacer, por orden, una serie de observaciones. Nota 1: El axioma [N 2 ] por si mismo implica 11011 = IIOvll = 0 II vii [N Jl, [N 2 ] y [N 3 ] son equivalentes a [N 2 ], [N 3 ] y el axioma: [N'd

Es decir, una funci6n

Si v # 0,

11· 11 que satisfaga

[N~ ,

necesariamente

= 0.

De acuerdo con esto,

J vll > 0

[N 2 ] y [N 3 ] es una norma en un espacio vectorial V.

~ota 2:

Supongamos que V es un espacio con producto interno. La norma en V definida por vii = ~ satisface [N 1], [N 2 ] y [N 3 ]. Asi todo espacio con producto interno Ves un espacio vectorial normado. No obstante, puede haber normas en un espacio vectorial V que no provengao de un producto interno. ~ota 3: Sea V un espacio vectorial normado. La distancia entre los vectores u, y define por d(u, v) = llu - vii.

VE

V se denota

/ 260

ALGEB RA LINEAL

El teorema enunciado a continuaci6n reve la Ia raz6n principal por la que d(u, v) recibe el nombre de distancia entre u y v. Teorema 6.25: Sea V un espacio vectorial normad o. La funci6n d(u, v ) = tres axiomas de un espacio metrico: . [MtJ

d(u, v) ~ 0; y d(u , v) = 0 si y solo si u = v.

[M 2 ]

d(u, v) = d(v, u).

[M 3 ]

d(u, v) ~ d(u. w)

+ d(w,

llu- vii satisface los

v).

NORMAS EN R" Y C" Las siguientes definicio nes corresponden a tres importantes normas en R" y C":

ll(al , ... , a.)lloc =max (Ia;!) ll(al, ... , a.)ll 1=lad+ lazl + ... + la,l ll (ap ... , a,)llz = ) lad 2 + la 2 12 + ··· + la.l 2 (N6tese que se utilizan subindices para distinguir las tres normas.) Las normas II · II ""' II · 11 1 y II · 11 2 se denominan norma unifo rme ( o del supremo), !-norma y 2-norma, respectivamente. Observemos que II · 11 2 es Ia norma en R" (C") inducida por el producto interno usual. (Denotaremos por d co• d 1 y d 2 las correspondientes funciones distancia.) Consideremos los vectores u = (1, -5, 3) y v = (4, 2. -3) en R 3 .

EJEMPLO 6.19. a)

La norma uniforme elige el maximo de los valores absolutos de las componentes, fuego

Jlu Jic., = 5 b)

Y

y

ll vll 1 = 4 + 2 + 3 = 9

La 2-norma es igual a Ia raiz cuadrada de Ia suma de los cuadrados de las componentes (o sea, Ia norma inducida par el producto interne usual en R 3 ). Asi pues, II

d)

4

La 1-norma suma los valores absolutes de las componentes. De cste modo,

Jlu JI I .= I + 5 + 3 = 9 c)

ll vlloo =

u liz= JT+

25

+9=

J35

Dado que u- v = (I - 4, - 5-2, 3 + 3)

d..,(u, v) = 7

=

y

II

v 11 2 = Jt6 + 4

+9 =

J29

( - 3, -7, 6), tenemos

d 2(u, v) = j9

+ 49 + 36 =

.J94

EJEMPLO 6.20 . . Consideremos el plano cartesiano R 2 mostrado en Ia Figura 6-7. a)

Sea D 1 el conjunto de puntas u = (x, y) en R 2 tales que JluJI 1 = I. D 1 consiste, pues, en los puntas (x, y) tales que !lu ll ~ = x 1 + y 2 = I. Siendo asi, D 1 es el circulo unidad , como se muestra en Ia Figura 6-7.

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

b)

c)

261

Sea D 2 el conjunto de puntos u = (x, y) en R 2 tales que ll ull 1 = l. Entonces D 2 consiste en los puntos (x, y) tales que ll ull 1 = lxl + IYI = I. De este modo, D 2 es el rombo inscrito en el circulo unidad, como se ilustra en La Figura 6-7. Sea D 3 el conjunto de puntos u = (x, y) en R 2 tales que Hull.,= l. En ese caso, D 3 consiste en los puntos (x, y) tales que llull oo =max (lxl. IYI) = 1. Asi pues, DJ es el Cuadrado circunscrito a \ circulo unidad, como se indica en Ia Figura 6-7.

y

-I

Figura 6-7.

NORMAS EN C[a, bl Consideremos el espacio vectorial V= C[a, b) de las funciones continuas en el intervalo a~ t ~b. Recordemos que un producto interno en V es:

<J. g) =

r

f(t)g(t) dt

El producto interno anterior define Ia norma en V = C [a, b] (analoga a Ia

. llf ll 2 = r[f(t)] 2

II · 112

en Rn):

dt

El ejemplo que sigue define o tras dos normas en V = C[a, b]. EJ EM PLO 6.21 · a)

11!11 1 = J~ lf(t)l dt. (Esta norma es a naloga a Ia 11 · 11 1 en R".) Existe una descripci6n geometrica de 11!11 1 y Ia distancia d 1 (J, g). Como se ilustra en Ia Figura 6-8, 11!11 1 es el a rea entre la funci6n 1!1 y el eje t, mientras que d 1 (f, g) es el area entre las funciones J y g.

Sea

262

ALGEBRA LINEAL

a

(a)

b

a

b

II f 11 1 esta som breada

(b) d 1 (f, g) esta sombreada

Figura 6-8. b)

Sea 11/ll oo = max (1/(t)l). (Esta norma es amiloga a Ia 1·11., en R".) Existe una descripci6n geometrica de 11/lloo y Ia funci6n distancia d00 (f, g). Como se muestra en Ia Figura 6-9, 11/ lloo es Ia distancia maxima entre f y el eje t y doo (f, g) Ia distancia maxima entre f y g.

a

b

b

(a)

II f II..,

(b) d,.,(J, g)

Figura 6-9.

PROBlEMAS RESUELTOS

PRODUCTOSINTERNOS 6.1.

Desarrollar ( 5u 1

+ 8u 2 ,

6v 1· - 7v 2 ).

Usando Ia linealidad en las dos posiciones, ( Su 1

+ 8u1 , 6v 1 -

7v 1 ) = (Su 1, 6v 1 ) = 30( u 1• v1 )

+ ( 5u 1, -

-

7v1 )

35(u 1, v 2 )

+ (8u2 ,

6v 1 )

+ 48(u2 , v1 )

[Nota: Observese Ia similitud entre el desarrollo a nterior y el de (5a ordinaria.)

-

+ ( 8u1 ,

-7v2 ) =

56(u2 , v2 )

+ Sb)(6c- ?d)

en el algeb ra

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

6.2.

263

Considerense los vectores en R 3 : u = (1, 2, 4), v = (2, -3, 5), w = (4, 2, -3). Hallar: a) u·v, b) u·w, c) v·w, d) (u + v)· W, e) llull, f) llvll, g) li u +vii. a)

Multiplicamos las componentes correspondientes y las sumamos obteniendo u · v=2-6+ 20 = 16.

b) u. w = 4

+ 4- 12 = -4.

c) v·w = 8-6-15= -13. d)

Calculamos primero u + v = (3, -1, 9). En ese caso, (u + v) · w = 12- 2-27 = -17. Alternativamente, usando [ld, (u + v) · w = u· w + v· w = -4- 13 = - 17.

e) Calculamos primero llull2 elevando at cuadrado las componentes de u

y sumando:

y asi

f) llvll 2 = 4 + 9 + 25 = g)

6.3.

38 y asi

fo.

ll vll =

Segun d), u + v = (3, -1, 9). De aqui

llu + vl! 2 = 9 + I + 81 = 91 y

l! u +vii

=

fo.

Verificar que el siguiente es un producto interno en R 2 : donde Metodo 1. Comprobamos que se satisfacen los tres axiomas de un producto interno. Tomando w = (z 1, z 2 ) encontramos

au+ bw = a(x 1, x 2) + b(z 1 , z 2 )

=

(ax 1 + bz 1, ax 2 + bz 2)

Asi pues,

(au+ bw, v) = ((ax 1 , ax 2

+ bz2 ), (y 1 , y 2 ))=

= (ax 1 + bz 1 )y 1

-

(ax 1 + bz 1 )y 2

-

(ax 2 + bz2)y1 + 3(ax 2 + bz2 )y2

=

= a(XtYt- X1Y2- X2Y1 + 3XzY2) + b(ZtYt- Z1Y2- ZzYt + 3z2y2) =

= a(u, v)

+ b(w, v)

y por tanto se satisface el axiom a [I Jl. Asimismo,

y se satisface [! 2 ]. Finalmente,

Ademas, (u, u) = 0 si y solo si x 1 ultimo axioma [I 3]. Metodo 2.

= 0,

x2

=

0, es decir, u = 0. ~or consiguiente, se satisface el

Razonamos con matrices. Esto es, escribimos (u, v) en notaci6n matricial: .

T

( u,v) = u Av=(x1 ,x2 )

(

·

I

- 1

Como A es real y simetrica, solo necesitamos probar que es delinida pOSJtJva. Efectuando Ia operaci6n elemental entre filas R 1 + R 2 -+ R 2 , seguida de Ia correspondiente operaci6n elemental entre column_a s C 1

+ C 2 -+ C 2 , llevamos A a Ia forma diagonal(~ ~).De este modo, A es definida

positiva, de acuerdo con lo cual, (u, v) es un producto interno.

264 6.4.

ALGEBRA LINEAL

= (1 ,

Considerense los vectores u

5) y v

= (3,

4) en R 2 . Hallar:

a)

( u, v) con respecto al producto interne usual en R 2 .

b)

(u, v) con respecto al producto interne en R 2 del Problema 6.3.

c)

!lvll empleando el producto interne usual en R 2 •

d)

llvll empleando el producto interne en

a)

(u, v)

R 2 del Problema 6.3.

= 3 + 20 = 23.

b) (u, v) = 1 • 3 - 1 • 4 - 5 • 3 + 3 • 5 • 4 = 3- 4- 15 + 60 = 44. II v 11 1 = (v, v) = ((3, 4), (3, 4)) = 9 + 16 = 25, Iuego II vII= 5.

c)

d)

6.5.

1

II v 11 =

(v, v)

= ((3, 4~ (3, 4)) = 9- 12- 12 + 48 =

33; Juego II vII =

fo.

Considerense el espacio vectorial V de los polinomios con producto interne definido por J~ f(t)g(t)dt y los polinomios f(t) = t + 2, g(t) = 3t- 2 y h(t) = t 2 - 2t- 3. Hallar: a) (f, g) Y ( f , h) , b) ll.fll y 11911 - c) Normalizar .f y g. a) Integramos como sigue:


<J. h)

=

i l

(t

+ 2Xt1 -

2) dt

= r(3t 1 + 4t _

2t- 3) dt =

0

<J.J> =

b)

(g, g)=

c) Siendo

llgII 6.6.

11/11

e(t + 2Xt + 2) dt =

Jo

f(3t-

.j57

= -, 3

19

y

3

[t4 4

I

3

11/11

J57

= I; por consiguiente,

g=

(t

4t]~ =

-1

]1 = - 37-

7tl 2

- - - - 6t

4

0

II f II= J<j]) + Ji9;3 = ..fi7 3

2X3t- 2) = 1; por tanto, llgll =

]= - != ··-

= [t 3 + 2t 1 -

4) dt

+ 2).

jl =

I

N6tese que g ya cs un vector unitario, pues

g = 3t - 2.

Sea V el espacio vectorial de las matrices reales 2 x 3 con el producto interne ( A , B) = tr BrA y considerense las matrices

~)

2 5

!)

Calcular: a) (A, B), (A, C) y ( B, C); b) (2A lizar A y B.

+ 38,

8 5

a)

[ Usamos (A, B) = tr BrA =

pondientes.J

itl Jt

c= 4C); c)

(3

1

II All

y

2)

-5 0

-4

IIBII.

d) Norma-

ai)biJ• Ia suma de los productos de las entradas corres-

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

265

( A, B) = 9 + 16 + 21 + 24 + 25 + 24 = 119 ( A, C) = 27 - 40 + 14 + 6 + 0- 16

-9

=

( B, C)= 3 - 10 + 6 + 4 + 0-24 = - 21

b)

Hallamos 2A

+ 3B =

22 25

21 (

24

23) y 4C = ( 12 26 4

- 20 ()

8) . Entonces - 16

(2A + 3B, 4C) = 252- 440 + 184 + 96 + 0 - 416 = -324 Alternativamente, usando Ia propiedad lineal de los productos internes.

(2A + 3B, 4C) = 8( A, C) + 12(B, C) = 8(-9) + 12( - 21) = - 324

c) [ Utilizamos II AII 2 = ( A, A) =

JJ 1

II

A

11

2

a0, Ia suma de los cuad rados de los elementos de A.]

1

= ( A, A)= 91 + 82 + 72 + 61 +52 + 4 2 = 271

2

2

2

2

2

2

II B 11 = ( B, B ) = 1 + 2 + 3 + 4 + 5 + 6

2

=

y

91

asi

II A II =fol

y asi

II B II =fo

1 1 (9/fol 8/fi71 ·1;.jm) A= II Ali A = .jlli A= 6/./271 5/.jm 4/.jm fj =

6.7.

_1_ B = _1_ B = (1/fo 2/j9i 3/fo) II B II fo 4/fo 5/fo 6Jfo

Determinar Ia distancia d(u, v) entre los vectores: a) h)

u= (1 , 3, 5, 7) y v= (4, - 2, 8, I) en R4 • u = t + 2 y v = 3t - 2, donde ( u, v) = Jci u(t)v(t)dt. Usamos d ( u, v)

a)

=

ll u - vii.

u ..:... v = (-3, 5, - 3, 6). De este modo,

ltu- v 11 2 = 9 + 25 + 9 + 36 = 79 b) u - v= - 2t+4. De aqui II u - v 11 2 = = =

Asi pues, d(u, v) =

1

01(4t 2 -

16t

por lo que d(u,

f (-

2t

6.8. Hallar cos B, siendo 0 el imgulo entre:

= (1,

-3, 2) y v = (2, 1, 5) en R 3 .

u

b)

u = (1, 3, -5, 4) y v

= (2,

[4

+ 16) dt = 3 t 3

J1f = jfo.

a)

+ 4)(-

- 3, 4, 1) en R 4 .

-

2t 1

8t

v) = II u- vII

=

+ 4) dt =

]' 328

+ 161

0

=

fi9

266

ALGEBRA LINEAL

c)

f(t)

d)

A

=

(2 1) 3

_

·

Usamos cos a)

y g(t) = t 2 , donde (f, g) ~ Jbf(t)g(t)dt.

= 2t - I

1

=

(0 -1) 2

3

- -.

( 11,

llullll vll v) = 2- 3 + 10 = 9, ll ull 2 =I+ 9 + 4 = 14, llvl\ 2 = 4 +I + 25 = 30. Siendo cos 8=

b)

..

, donde (A, B ) = tr B 1 A.

(u, v)

e=

Calculamos asi,

yB

9

fo J30

9

= -

-

2.Jl05

Aqui (u, v) = 2 - 9- 20 + 4 = - 23, llull 2 = I+ 9 + 25 + 16 =51 , 1\vl\ 2 = 4 + 9 + 16 + I =30. De este modo,

-23

cos8=

J5tfo

-23

=--

3ji70

c) Calculamos

Por tanto, (}

= . ;:;i

fi

O/v3Xl/v 5) d)

__ fo 6

Calculamos ( A , B) = 0 -I+ 6 - 3 = 2, IIAII 2 = 4 + I + 9 + I = 15, 1\811 2 = 0 + I + 4 + 9 = 14. Asi cosO=

6.9.

2

2

=--



Ji5Ji4 fiiO

Comprobar: Ley del paralelogramo (Fig. 6-10): Uu + vll 2 + llu- vll 2 = 211ull 2 + 211vll2 . b) Forma polar de ( u, v) (que muestra que el producto interno puede obtenerse de la funci6n norma): ( u, v) = ±CIIu + vll 2 - llu- vll 2 ) .

a)

Desarrollamos cada una de las expresiones que siguen para obtener: II

u + v il 2

II u- vll

2

=: ( u + v, u + v) = II u 11 2 + 2(u, v) + II v 11 2 = (u- v, u -

v) =II u 11

2

-

2(u,

v) +II v 11

2

(I]

[2]

Sumando [IJ y [2]1legamos a Ia ley del paralelogramo a). Restando [2] a (1],

II u + v H2

-

II u- v 11 2

=

4( u, v)

Dividimos por 4 para conseguir Ia forma polar (real) b). (La form a polar en el caso complejo es diferente.)

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

267

u

u

Figura 6-10.

6.10.

Demostrar el Teorema 6.1 (Cauchy-Schwarz). Para cualquier numero real t , ( tu

+ v, tu +c) = t 2 ( u, u) + 2t(u, v) + (v, v) = t 2 11 u 112 + 2t( u, u) + II v 11 2

Sean a= llull 2 , b = 2(u, v) y c = llvV Como ll tu at

2

+ vll 2

~ 0, tenemos

+ bt + c ~ 0

para todo valor de t. Esto significa que el polinomio cuadnitico no puede tener dos raices reales. lo que implica b 2 - 4ac ~ 0 o b2 ~ 4ac. De este modo,

Dividir por 4 nos conduce a nuestro resultado. (Nota: La desigualdad de Cauchy-Schwarz para espacios compLejos con producto interno se trata en el Problema 6.53.)

6.11.

Demostrar el Teorema · 6.2. Si v '# 0, necesariamente (v, v) > 0 y por ende II vii = J<_;;:;;) > 0. Si v = 0, entonces ( 0, 0) = 0. . En consecuencia, 11011 = = 0. Siendo asi, [N 1) es cierto. Tenemos llkvll 2 = (kv, kv) = k 2 (v, v) = k 2 ll vll 2 • Tomando Ia raiz cuadrada de ambos miembros llegamos a [N2 ). Empleando Ia desigualdad de Cauchy-Schwarz,

Jo

II u

+ v 11 2

= (u

+ v, u + v) = (u, u) + (u, v) + (u, v) + (v, v)

~ II u 11 2

+ 2 11 u 1111 vII + II v 11 1

=(II u II

~

+ II v 11)2

Tomando La raiz cuadrada de ambos miembros obtenemos [N 3).

6.12.

Sean (a 1 , a2 , ••• ) y (b 1 , b2 , ... ) cualquier par de vectores en el espacio 12 del Ejemplo 6.3 b). Mostrar que el producto interno esta bien definido, es decir, probar que Ia 00

suma

I j:

a;b; = a 1 b 1 + a2 b2 + .. · converge absolutamente. 1

Segun el Ejemplo 6.4 a) (desiguaLdad de Cauchy-Schwarz),

latbt l +· ..

+la.b~l~m

m:s;m m

Io que se verifica para todo n. Asi La sucesi6n (mon6tona) de sumas s. = la 1 bd + ... + la. b.l es acotada y por tanto converge. Podemos decir, pues, que Ia suma infinita converge absolutamente.

268

ALGEBRA LINEAL

ORTOGONALIDAO. COMPLEMENTOS ORTOGONALES. CONJUNTOS ORTOGONALES 6.13.

Determinar k para que los pares que se citan a continuaci6n sean ortogonales:

= (1 , 2, k, 3) y v = (3, k, 7, -5) en R 4 . b) f(t) = t + k y g(t) = t 2 , donde
a)

u

a)

Primero hallamos ( u, v) = (1, 2, k, 3) · (3, k, 7, - 5) = 3 + 2k + 7k- 15 = 9k- 12: Despues tomamos ( u, v) = 9k- 12 = 0 para encontrar k = }.

b)

Primero hallamos

<J. g) = I Tomamos ( f, g) = 4 6.14.

il o

k 3

(t

+- =

+ k)t 2 dt =

ll o

(t 3

+ kt 2 ) dt =

[t4 +-

kt3]1

-

4

3

1 k =- +-

0

43

3 0 obteniendo k = - - . 4

Considerese u = (0, 1, -2, 5) en R 4 . Hallar una base para el complemento ortogonal u.l de u. Buscamos todos los vectores (x, y, z, t) de R 4 tales que ((x, y, z, t), (0, 1, -2, 5))

=

0

0

Ox

+y

- 2z

+ 5t =

0

Las variables libres son x, z y t. De acuerdo con ello: 2.

Tomamos x = I, z = 0, t = 0 para obtener Ia soluci6n w 1 = (1, 0, 0, 0). Tomamos x = 0, z = 1, t = 0 para obtener Ia solucion w2 = (0, 2, 1, 0).

3.

Tomamos x

1.

=

0, z = 0, t = I para obtener Ia solucion w3 = (0, -5, 0, 1).

Los vectores w1 , w2 , w3 constituyen una base del espacio soluci6n de Ia ecuacion y por ende una base de 111 .

6.15.

Sea W el subespacio de R 5 generad o por u = (1 , 2, 3, - 1, 2) y v = (2, 4, 7, 2, - 1). H allar una base pa ra el complemento ortogonal w.1 de W Buscamos todos los vectores w = (x, y, z, s, t) tales que ( w, u) =

x + 2y + 3z -

( w, v) = 2x

s + 2t = 0

+ 4y + 7z + 2s-

t= 0

Despejando x de la segunda ecuacion encontramos el sistema equivalente x

+ 2y + 3z - s + 2t = z + 4s- 5t =

0 0

Las variables libres son y, s y t . Por eso: I.

Tomamos y = - 1, s = 0, t = 0 para obtener Ia solucion w1

=

(2, - I, 0, 0, 0).

2. Tomamos y = 0, s = 1, t = 0 para obtener Ia soluci6n w2 = (13, 0, - 4, I, 0). 3. Tomamos y = 0, s = 0, t = I para obtener Ia solucion w3 = ( - 17, 0, 5, 0, 1). El conjunto {w1 , w2 , w3 } es una base de W 1 .

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

6.16.

Sea w

= (1,

2, 3, 1) un vector en R 4 . Encontrar una base ortogonal de

Hallamos una solucion no nula de x + 2y + 3z + t hallamos una soluci6n no nula del sistema

269

w j_.

= 0; por ejemplo, v 1 = (0, 0, I,

-3). Ahora

z- 3t = 0

x + 2y + 3z + l = 0

digamos v2 = (0, -5, 3, I). Por ultim o, hallamos una solucion no nula del sistema

x + 2y + 3z + t

=

-5y + 3z + t

0

=0

z- 3t = 0

como puede ser v3 = ( - 14, 2, 3, I). De este modo, v1 , v2 , v3 forman una base o rtogonal de wj_. (Comparese con el Problema 6.14, do nde Ia base no tenia que ser ortogonal.) ·

6.17.

Sup6ngase que S consiste en los vectores de R 3 :

u,

= (l,

l, 1)

u2

= (1, 2, -3)

IJ3

= (5,

-4, - 1)

a)

Probar que S es ortogonal y es una base de R 3 .

b)

Escribir v = (1 , 5, -7) como combinaci6n lineal de u 1 , u 2 , u 3 .

a)

Calculamos (u 1 , u 2 ) = l

+2-

3= 0

Dado que cada producto interno es igual a 0, S es ortogonal y debido a ello es linealmente independiente. Asi S es una base de R 3 , pues tres vecto res linealmente independientes cualesquiera en R 3 constituyen una base del espa cio. b)

Sea v = xu 1

+ yu 2 + zu3

para escalares desconocidos x, y, z. esto es,

(1, 5, -7) = x(l , 1, I)+ y(l, 2, -3) + z(5, -4, -1) Metodo l.

[I]

Desarrollamos (I] obteniendo el sistema x

+ y + 5z =

Lo resol vemos llegando a x =

1

x

+ 2y- 4z =

- 1, y = .if. z =

5

X-

3y- Z = -7

- -fi .

Metodo 2. (Este metodo utiliza el hecho de que los vectores de Ia base son ortogonales, con lo que Ia aritmetica es mas sencilla.) T omamos el producto interno de [I) y u 1 para conseguir (1, 5, -7) · ( I, 1, 1) = x(l, 1, 1) · (1 , 1, 1)

(Los dos ultimos terminos desaparecen porque ducto internode [I] y u2 obteniendo

- 1 = 3x

0 Ill

0

es ortogo nal a u2 y

(1, 5, - 7)·(1,2, - 3) = y(l,2, -3)·(1,2, -3)

UJ .)

32 = 14y

0

X =

-

t

Tomamos el pro-

y

0

=.If

Tomamos el producto interno de (1] y u3 llegando a (1, 5, - 7) · (5, -4, - 1) = z(5, - 4, -1) · (5, -4, -1)

En cualquiera de los casos conseguimos v =

( - ~)u 1

0

-8 = 42z

+ (lf)u 2

-

(-fi) u 3 .

0

z=

-n

270

A LGEBRA LINEAL

6.18.

Supongase que S consiste en los vectores de R 4 : u 1 = (1, 1, 0, -1)

u3

u 2 = (1, 2, 1, 3)

=

(1, 1, -9, 2)

U4

= (16,

-13, 1, 3)

Probar que S es ortogonal y es una base de R 4 . b) Determinar las coordenadas de un vector arbitrario v = (a, b, c, d) en R 4 relativas a la base S.

a)

a)

Calculamos

u 1 · u 1 =1+2 + 0-3=0 u 1 ·u 3 =1 + 1+0-2 = 0

"• . "• = 16- 13 + 0- 3 = 0

u2 • u 3 = 1 + 2 -9 + 6 = 0 u2 • u 4 = 16-26 + 1 + 9 = 0

u3



16- 13- 9 + 6 = 0

u4 =

Siendo asi, S es ortogonal y por tanto linealmente independiente. En consecuencia, S es una base de R 4 , puesto que cuatro vectores linealmente independientes arbitrarios en R 4 deben serlo. b) Dado que S es ortogonal, solo es necesario encontrar los coeficientes de Fourier de v respecto a los vcctores de Ia base, como en el Teorema 6.7. De este modo,

k

= 1

(v, u 1 ) =a + b - d (u 1, u 1 ) 3

k = (v, u 3 ) = a 3

kz = (v, u2 ) =a + 2b + c + 3d (u 2 , u 1 ) 15

k4

(1.1, u

+b-

9c

+ 2d

87

(u 3 , u3 )

.

16a- 13b + c +3d

)

4 =
son las coordenadas de v respecto a Ia base S.

6.19. Sup6ngase que S, S 1 y S 2 son subconjuntos de V. Probar las b) a)

Si S 1 s;;; S 2 , necesariamente

st s;;; Sf

siguient~s

c)

aserciones:

s.J.. =lin s.J.. .

Sea weS. Entonces (w, v) = 0 para todo veSJ.; por tanto, wESJ..J... De acuerdo con esto,

sssu.

b)

Sea wESi. En tal caso, ( w, v) = 0 para todo veS 2 • Como S 1 S S 2 , (w, v) v E S 1 . Luego wESt y por consiguiente Si s; St.

c)

Como S s; lin S , tenemos lin s1. s s .1... Supongamos que ues1. y ve lin SJ.. Existen, pues. vee to res w1 , w 2 , ... , wk en S tales que

=

0 para todo •.

Utilizando ueS\ (u, v)

= (u, a 1 w1 + a 2 w2 + · · · +at wt) = a 1 (u, w1 ) + a 1 (u, w2 ) + · · · + at(u, wt) = =a, · 0 + a 2 • 0 +···+at · 0

=

0

Asi u E lin S \ y en qmsecuencia S.J.. s; lin SJ.. Ambas inclusiones conducen a S.J..

6.20.

=

lin SJ..

Demostrar el Teorema 6.5. Supongamos S = {u,, u2 ,

... ,

u,} y (1]

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

271

Tomando el producto interno de [I) y u 1, 0 = ( 0, u 1 ) = ( a 1u 1 + a 2 u 2 = a 1 (u 1 , u 1 ) + a 2 (u2 , u 1 ) = a 1 ( u 1, u 1 )

+ a2

+ · ·· + a,u,, u 1) = + · · · + a,( u,, 11 1 ) = • 0 + · · · + a , • 0 = a 1( u 1, u 1 )

Puesto que u 1 #- 0, ( u 1 , u1 ) #- 0, de forma que a 1 producto interno de [I] y u1, 0 = (0, u1) = ( a 1u 1

+ · · · + a,u,, u1)

=

0. Similarmente, para i = 2, ... , r, tomando el

=

= a 1 ( u 1, u1) + · · · + a 1( u1 ,

u1)

+ · · · + a,( u,, u1) = a;( u1 , u1)

Pero (u1, u;) #- 0 y por tanto a;= 0. Asi pues, S es linealmente independiente.

6.21.

Demostrar el Teorema 6.6 (Pitagoras). Desarrollando el producto interno, II

u1

+ u2 + · · · + u, 11 2 = ( u 1 + u 2 + · · · + u,, 111 + u2 + · · · + u,) = = (u 1, u 1 ) + ( u2 , u 2 ) + · .. + ( u, u,) + L:
u1)

El teorema se deduce del hecho de que ( u;, u;) = _ju111 2 y ( u1, ui) = 0 para i =F j.

6.22.

Demostrar el Teorema 6.7. Supongamos v = k1 u 1 con u 1

+ k 2 u2 + .. · + k.u•. Tomando cl producto interno de ambos micmbros

(v, u1 )

= ( k 1u 1 + k 2 u2 + · · · + kwu. , u 1 ) = = k 1 ( u 1, u 1 ) + k 2 ( u2 , u 1 ) + · · · + kw( u. , u 1 ) = = k 1 ( 11 1, u,) + k2.0 + · · · + k •. O = kt ( llt, llt)

De este modo, k 1 = ( v, u 1 ) / (u 1 , u1 ) . Amilogamente, para i = 2, .. . . n.

+ k 2 u 2 + · · · + k.u., u1) = k 1( u 1, u1) + k 2 ( u2 , u1) + · · · + k.(u., u1)

(v, u;) = (k 1 u1 =

= k 1 .0 + · · · + k,(u1 ,

u1)

=

+ · · · + k,..o = k 1( u1 ,

u1)

De este mod o, k1 = ( v, u;) f( u 1, u;) . Sustit uyendo Ia expresion de cada k 1 en Ia ecuaci6n v = k 1 u1 + .. . + k.u. conseguimos el resultado deseado. 6.23.

Sup6ngase que E = {e 1 , e 2 , macwnes:

... ,

e.} es una base ortonormal de V. Demostrar las afir-

a) Para todo U E V tenemos u = ( u, e 1 )e 1 + (u, e2 )e 2 + ... + ( u, e.) e•. b) ( a 1 e 1 + ... + a.e. , b1 e 1 + ... + b.e. ) = a 1 b1 + a2 b2 + ... + a.b•. c) Para todo par de vectores u, vE V tenemos ( u, v) = ( u, e1) ( v, e 1) + .. . + ( u, e.) ( v, e.). a)

Sea u = k 1 e1

+ k 2 e2 + ... + k. e• . Tomando el producto internode

u y e 1,

(u, e 1 ) = (k 1e 1 + k2 e2 + .. · + k.e., e 1 ) = = k 1 (e 1 , e1 ) + k 2 (e 2 , e 1 ) + · · · + k.(e., e 1 ) = kl '1 + k2 '0 + ''' + k 0 '0 = k 1

=

272

ALGEBRA LINEAL

De forma similar, para i

2, ... ,

=

11,

+ ·· · + k 1 e1 + · · · + k,.e,., e 1) = = k 1 (e 1 , e1) + · · · + k 1( e1 , e;) + · · · + k.(e., e,) =

( u, e1) = ( k 1e 1

= k 1 ·0+ ···+k 1 ·1 +·· · +k.·O=k 1

b)

Sustituyendo k1 por ( u, e1) en Ia ecuacion u Tenemos

(,t t/

1 e1)

a 1e 1,

1

Pero (e1, e1)

=

0 para i ¥- j y

j

;,~ 1 a1 b1(e1, e1) (e~o

eJ)

=

=

t

1

1,

j=l

1 1)

+ k.e. llegamos al

a 1 b1(e 1 , e;)

1

+

resultado buscado.

1~1 a1b1(e1 ,

e)

I para i = j ; por tanto, como se pedia,

Ia:e Ib e Ia b

\1~ 1 c)

=

1

k 1 e 1 + ·...

=

=

1 1

= a 1b 1

+

t= I

ab 2

2

+ ··· +

a.b.

De acuerdo con Ia pa rte a), u = ( u, e 1 )e 1

+ · · · + ( u, e,.)e.

y

Y por b),

PROYECCIONES. ALGORITMO DE GRAM-SCHMIDT. APLICACTONES

6.24. Sup6ngase

w

=I: 0. Sea v cualquier vecto r en V Mostrar que (v, w)

(v, w) 2 II w 11

C = - - - = --

(w, w)

es el unico escalar tal que v' = v- cw es ortogonal a w. Pa ra que v' sea ortogonal a w debe cumplirse (v- cw, w) = 0

0

(v, w) - c(w, w) = 0

0

(v, w) = c(w, w)

Siend o asi, c = (v, w) / ( w, w). Reeiprocamente, supongamos c = (v, w)/(w, w). En tal caso, ( v- cw, w)

6.25.

= (v, w)

( v, w) - c(w, w) = ( v, w) - -< ) (w, w) = 0 w,w

Hallar el coeficieute de Fourier c y Ia proyecci6n de v = (1 , -2, 3, - 4) a to largo de w =(I, 2, 1, 2) en R 4 . Calculamos ( v, w) = I - 4 + 3 - 8 = -8 y llwll 2 y proy (v, w) = cw = (- ~, - ~ , -!, - t).

6.26.

= I + 4 + I + 4 = 10. Entonces c = -

fo = - !

Encontrar una base ortonormal para el subespacio U de R 4 generado por los vectores v1

= (l,

I , 1, I)

v1 = (1. l , 2, 4)

v3

= (1, 2, -4, - 3)

273

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDA D

Primero halla mos una base o rtogonal de U empleando el algoritmo de Gram-Schmidt. lniciamos el algoritmo tomando w 1 = u 1 = (1. l. I, 1). A continuaci6n calculamos v2

-

( v2 , w 1 )

nw.ll

8

w 1 = (1,1,2, 4) - - (1 , 1, 1, 1) = ( - 1, - 1, 0,2)

2

4

Toma mos w2 = (-I, - I, 0. 2). Despues calcula mos

v3

-

(v3 , w 1 ) II

w 1 1J

2

w1 -

( v3 , w2 ) II

w2

11

2

- 4 4

-9 6

w 2 = (1, 2, -4, -3) - - ( 1, I , I, 1)--(-1, - 1, 0, 2)= =

f,

(t,

-3, I )

Eliminamos los deno minadores para obtener w 3 = ( 1. 3, - 6, 2). Por ultimo. normaliz.amos !a base _o rtogonal constituida por w 1 , w2 , w3 . Como llw 1 ll 2 = 4, ll w2 ll 2 = 6 y ll w3 ll 2 =50, los siguientes vectores forman una base ortono rmal de U: u3 =

6.27.

I

0. (1 , 3, -6, 2)

5..,; 2

Sea Vel espacio vectorial de los polinomiosf(t) con producto interno (j, g) = g f(t)g(t) dt. Aplicar el algoritmo de Gram-Schmidt al conjunto {1, t, t 2 } para conseguir un conjunto ortogonal {!0 , / 1 , f~}, con coeficientes enteros. P rimero to mamos f o = I . A continuaci6n ha llamos ( t, 1)

t - --

t

· 1 = t- - · 1 =

<1, 1>

Eliminamos los denominadores obteniendo 2

(t , 1) e- - ·1( 1, 1)

f 1 = 2t -

6.28.

=

6t 2

-

I

-

2

I. Despues hallamos

( t\ 2t-1 ) · (2t - I) = t 2 ( 21 -- I, 2t - I )

Eliminamos los deno minado res para llegar a f 2 es el conjunto ortogona l requerido.

t -

1

6t

-

+

t

-

1

i

2

·I - -· (2t - 1) = t - t

i

1 6

+-

I. De este modo, {I, 2t - I, 6t 2

-

6t

+

I}

Sup6ngase v = (1 , 3, 5, 7). Reterminar Ia proyecci6n de v sabre W (o encontrar un vector we W que minimice !lv- \f¥,), siendo W el espacio de R4 generador por: a)

u1

= (1 ,

b)

V1

= {1, 1, 1, 1) y v2 = ( l , 2, 3, 2).

a)

Dado que u 1 y u 2 so n o rto gonales, solo necesitamos calcula r los coeficientes de Fourier:

1, 1, 1) y u 2

= (1,

- 3, 4, -2).

c = ( v, u 1 ) = 1 + 3 + 5 + 7 = 16 = 4 1 2 II u 1 11 1+ 1+ 1+ 1 4 (v, u ) 1 - 9 + 20 - 14 - 2 -1 c - - - 1- --1 - II u 11 2 1 + 9 + 16 + 4 - 30 - 15 2

Entonces w = proy (v, W) = c 1 u 1

+ c2 u 2

= 4( 1, 1, I, I ) - fs- (1 , - 3, 4, - 2) = ('fl , !f, ~.

fi>

274

ALGEBRA LINEAL

Como v1 y v2 no son ortogona les, comenzamos por aplicar el algo ritmo de Gra m-Schmidt para hallar una base o rtogonal deW Tomemos w1 = v 1 = (1, I, 1, 1). Despues ha llamos

b)

D2 -

( 112 ,

w1)

2 W1

8

WI

= (1, 2, 3, 2)- -

4

(1, 1, 1, 1) = (-1, 0, 1, 0)

Tomemos w 2 = ( -1, 0, I, 0). Ahora calculamos (v, w

)

c = - -12 = II WI 11

I

1 + 3 + 5 + 7 16 = -= 4 1 + 1 +I+ 1 4

Por tanto, w = proy (v, W) = c 1 w1

6.29.

+ 0 + 5 + 0 -6 = = -3 I + 0 + 1+ 0 2

(v, w ) -1 c 2 = - -2=2

y

II w 2 11

+ c 2 w2

= 4(1 , !, I, I)- 3( - 1, 0, !, 0) = (7, 4, 1, 4).

Sup6ngase que w1 y w2 son vectores ortogonales no nulos. Sea v cualquier vector en V. Encontrar c 1 y c 2 de forma que v' sea ortogonal a w1 y w2 , donde v' = v - cw1 - cw 2 • Si v' es ortogonal a w 1 , 0 = (v- c 1w1 =

(v, w 1 )

-

c2 w 2 , w1 ) = (v, w1 ) - c 1 (w 1, w1 ) - c 2 (w2 , w1 ) = c 1 ( w1, w1 ) - c 2 0 = ( v, w1 ) - c 1 (w 1, w1 ) -

Siendo asi, c 1 = ( v, w 1 ) / ( w 1, w1 ). (Esto es, c 1 es Ia componente de v a lo largo de w 1 . ) Analogamente, si v' es ortogonal a w2 ,

Asi pues, c 2

6.30.

= (v,

w2 )/(w 2 , w2 )

.

(Esto es, c 2 es Ia componcnte de v a lo largo de w2 .)

Demostrar el Teorema 6.8. Pa ra

i = I, 2, ... , r y usando ( w1, wi) = 0 para i =I j ,

(v- c 1 w1

-

c2 w 2 -

· · · -

c, w, w)

=

(v, w1) - c 1 ( w1 , w1) -

= (v, w;)-

· ·· -

c 1( w1 w;)- · · · - c,( w,, w1)

=

c 1 • 0- · · · - c 1( w1 , w1) - • • · - c, • 0 =

= ( v, w;) - c/w1 , w1) = ( v, w1)

-

(

( v, w1) ( w1 , w1) = wt, wi)

=0 De este m odo queda probad o el teorema.

6.31.

Demostrar el Teorema 6.9. Por el Teorema 6.8, v - l:ct w* es ortogonal a todo w 1 y po r ende ortogonal a cualquier combinaci6 n lineal de w 1, w 2 , ... , w,. Por tanto, us ando el teo rema de Pitago ras y s umando desde k = I hasta r ,

v- La~ w~ 11 = II v- L c•w• + L (ca 2

II

~

II II -

L Ct wt

r

2

a.)w. 11 =

2

II

v- L c•wt 11

La raiz cuad rada de ambos miembros nos proporciona nuestro teorema.

+ II L (c~ -

2

at)wt 11

~

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

6.32.

275

Demostrar el Teorema 6.10 (desigualdad de Bessel). Notese que c1 = (v, e1) puesto que mando desde k = 1 hasta r,

0

lid =

~ (v- L c e v- L c 1 1,

e1 ) = (v, v)- 2(v, L

L 2c (v, e.) + L c; = (v, v)- L c;

= (v, v)=

1,

l. Entonces, utilizando (e1, e1)

1

(v, v)- L

C1 e1 )

=0

para i # j y su-

+ L c; =

2c; + L c; =

Esto nos conduce a nuestra desigualdad.

6.33.

Demostrar el Teorema 6.11. La demostracion hace uso del algoritmo de G ram-Schmidt y de las Notas I y 2 que le siguen (Seccion 6.6). Concretamente, aplicamos el algoritmo a {v1} para conseguir una base ortogonal {w1, ••• , wn}, y despues normalizamos {w1} para obtener una base ortonormal {u;} de V. El algoritmo · garantiza que cada wk es combinacion lineal de v 1, ... , vk y por consiguiente tam bien lo es cad a uk.

6.34.

Demostrar el Teorema 6.12. Extendemos S a una base S' = {w 1 , ... , w, v, + 1 ••• , v.} de V. Aplicando el algoritmo de Gram-Schmidt a S' obtenemos primero w, , w2 , .•• , w, porque S es ortogonal, y luego vectores w,+ 1 , ... , wn, siendo {w 1 , w 2 , ... , w.} una base ortogonal de V. Queda asi probado el teorema.

6.35.

Demostrar el Teorema 6.4. Segun el Teorema 6.11, existe una base ortogonal {u 1 , ... , u,} de W que, de acuerdo con el Teorema 6.12, podemos.extender a una base ortogonal {ul> u 2 , ... , u.} de V. Por tanto, u, + 1 , ... , u,E W .L. Si VE V, don de De acuerdo con ello, V = W + W .L. Por otra parte, si wE W n W l, necesariamente (w, w) = 0. Esto nos conduce a w = 0; de aqu1 que sea Wn W.L = {0}. Las dos co ndiciones, V= W+ W .L y Wn W.L = {0}, llevan al resultado deseado V = WEBW.l. Adviertase que hemos demostrado el teorema unica mente en el caso en que V tiene dimension finita. Hacemos notar que el teorema es igualmente valido para espacios de dimension arbitraria.

6.36.

Supongase que W es un subespacio de un espacio de dimension finita V. Probar que W= W 11 . Segun el Teorema 6.4, V = WEB W .L y tam bien V = W.L EB W.Ll_. Por este motivo, dim

w=

dim

v -dim w.l

Esto proporciona dim W= dim wu . Pero requeria.

y W~

dim W.l.l =dim V- dim WJ_

W.l.l [Problema 6.19a)], luego W= WH, como se

276

...

ALG EBRA LINEAL

PRODUCTOS INTERNOS Y MATRICES DEFINIDAS POSITIVAS

6.37.

=

Determinar si A es o no definida positiva, donde A

1 0 0 1

(1 2

Empleamos el algoritmo de diagonalizaci6 n de Ia Secci6n 4.11 para transformar A en una matriz (congruente) diagonal. Efectuamos -R 1 + R 3 -+ R 3 y -C1 + C 3 -+ C 3 y despues - 2R 2 + R 3 -> R 3 y -2C 2 + C 3 -> C 3 para obtener

~) -(~ ~ ~)

0

1 2

2

0

0

-2

Hay una entrada negativa, - 2, en Ia matriz diagonal, luego A no es delinida positiva.

6.38.

Hallar Ia matriz A que representa el producto interno usual en R 2 respecto a cada una de las siguientes bases:

= (1, 3), v2 = (2, 5)} ,

a)

{v 1

a)

Calcula mos ( v1 , v1 ) A =

(10 17). 17

b)

{w1 = (1, 2), w2 = (4, -2)}. =I+ 9 = 10, (v 1 , v2 ) = 2 + 15 = 17, b)

(v2 , v2 ) = 4 + 25 = 29. Asi

29

= I + 4 = 5,

Calculamos (w 1 , w 1 ) modo, A =

G.2~)

=4-

(w 1 , w2 )

4

= 0,

(w2 , w2 )

=

16 + 4 = 20. De este

.

(Siendo ortogonales los vectores de Ia base, Ia matriz A es diagonal.)

6.39.

Considerese el espacio vectorial V de los polinomios f(t) de grado internO (j, g)= s~If(t)g (t)dt. .

~2

con producto

Calcular ( f, g) para f(t) = t + 2 y g(t) = t 2 - 3t + 4. b) Hallar Ia matriz A del producto interno respecta a Ia base {1, t, t 2 } de V. c) Comprobar el Teorema 6.14 mostrando que (f, g) = UY A[g] respecto a la base {1, t, t 2 } .

a)

a) (/,g)=

f'

(t + 2)(t

2

3t + 4) dt =

-

-1

b)

J'

(t3

2

[~~t 4 3

2t + 8) dt =

-

-1

Aqui utilizamos el hecho de que, sir+ s ( t', t')

=

j''

- 1

Entonces ( 1, 1)

t

-

= 2,

(1, t )

(1, t 2 )

+ 8t]

= - 1

46

3

.

= n,

t" dt = [ t"+ 1 ] ' = {2/(n n+l_ 1 0

= 0,

1 2

= t.

( t, t)

= t . (t, 2

2 0

A= 0

i

~

t

0

i

(

+ 1) si nes par

)

sines impar t

2

)

= 0,

(t2 , t 2 )

= t.

Siendoasi,

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

c) Tenemos

lff =

(2, 1, 0) y (gf. = (4, - 3, 1) respecto a Ia base dada. En tal caso,

UJ'AWl 6.40.

277

!

~(41, ~: ~)(-:) ~(4, t.l{-:) ~ ¥ ~

(f, g)

Demostrar el Teorema 6.13. Para vectores arbitrarios u 1 , u2 y v, (v 1

+ u2 ,

v)

= (u 1 + u2 VAv = (uf + u[}Av = ufAv + uiAv =

(u 1 , v)

+ (u 2 , v)

y, para un escalar k y dos vectores u, v cualesquiera, (ku, v) = (kuf Av = kuTAv = k( u, v)

De este modo se verifica (1 1]. Como uT Au es un escalar, (ur Av )1 ( u, v) =

= u"~"Av. Ademas, A 1 =A, ya que A es simetrica. uTAv = (u 1 Avf = vTATtTT = vTAu= (v, u)

Por tanto,

Asi pues, se satisface [1 2 ]. Final mente, al ser A definida positiva, X 1 AX > 0 para todo X E R" no nulo. Para todo vector no nulo tendremos, pues, (v, v) = v1 Au> 0. Ademas, (0, 0) = 0 1 AO = 0. Siendo asi, se verifica [1 3 ]. Con todo ello, Ia funci6n (u, u) = uT Av es un producto interno.

6.41.

Demostrar el Teorema 6.14. Supongamos S

=

{w 1, w 2 ,

... ,

w.} y A= (k;). En consecuencia, kiJ = (w;, wi) . Supongamos y

Entonces ( u, v) =

• •

L L a b1(w;, w1) 1

[I]

fz I j= 1

Por otra parte,

[2]

Dado que kii

6.42.

=

(w;. wi), las sumas finales de [I] y [2] son iguales, de donde ( u, u) = [uf A[v].

Demostrar el Teorema 6.15. Puesto que (w,, w1) = (w1, IV;) para todo par de vectores de Ia base IV; y IVi, Ia matriz A es simetrica. Sea X cualquier vector no nulo en R". Entonces (u] =X para algun vector no nulo liE V. Haciendo uso del Teorema 6.14 tenemos X 1 AX = [ufA [u) = ( u, u) > 0, de modo que A es definida positiva.

278

ALGEBRA LINEAL

PRODUCTOS INTERNOS Y MATRICES ORTOGONALES 6.43.

Encontrar una matriz ortogonal P cuya primera fila sea u 1 = (!,

f, ~).

Empezamos por hallar un vector no nulo w 2 = (x, y, z) que sea ortogonal a u 1 , es decir, para el que

+ 2y + 2z = 0

x

0

Una de estas soluciones es w 2 = (0, l, - I). Normalizamos w 2 para conseguir Ia segunda fila de P, esto es, u 2 = (0, 1/fi, - ljj2). Seguidamente hallamos un vector no nulo w3 = (x, y, z) que sea ortogonal tanto a u 1 como a u 2 , o sea, para el que

x

0 = (u 1 w 3 ) = ' 3

2y

2z

3

3

+- +-

=0

x

0

__z_=O

+ 2y + 2z =

y- z =0

0

J2

()

Tomamos z = -1 y encontramos Ia solucion w 3 = (4, -1, -1 ). Norma1izando w 3 obtenemos Ia tercera fila de P, esto es, u 3 = (4/Ji8, -Jjji8, - l/ji8). Por tanto,

i ) -1/fl -1/3}2 Subrayamos que Ia matriz anterior no es tmica.

6.44.

Sea A

~~ (

j -~).

Determinar si: a) las fit as de A son ortogonates. b) A es una

matriz ortogonal, c) las columnas de A son ortogonales. a)

Si, porque (1, 1, -1). (1, 3, 4) = 1 + 3- 4 = 0

(1, 1, -1)·(7, -5,2)=7-5-2=0

(1, 3, 4). (7, -5, 2) = 7- 15

6.45.

+8=

0

b)

No, pues las filas de A no son vectores unitarios, por ejemplo, (I, 1. -I ) 2 = I

c)

No, por ejemplo, (1, 1, 7)·(1, 3, -5) =I+ 3-35 = -31 -=I 0.

+ 1+ 1=

3.

Sea B Ia matriz obtenida normalizando cada fila de Ia matriz A del Problema 6.44. a) Hallar B. b) ~Es B una matriz ortogonal? c) ~Son las columnas de B ortogonales? a)

Tenemos

II (1, 1, -1)11 2

1+ 1+ 1 = 3 2 II (7, -5, 2) 11 = 49

=

II (1, 3, 4) 11 2

+ 25 + 4 =

78

= 1

+ 9 + 16 =

26

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

279

Asi pues,

t;j3 B= 1/fo ( 7/fo

1/.fi -1/.fi)

3/fi

4/fo

-s;fo

2/fo

Si, puesto que las filas de B continuan siendo ortogonales y ahora son vectores unitarios. c) Si, ya que silas fi!as deB forman un conjunto ortonormal de vectores, por el Teorema 6.15, sus columnas deben formar, automaticamente, un conjunto ortonormal.

b)

6.46.

Demostrar las afirmaciones que se hacen a continuacion: a)

P es ortogonal si y solo si Io es Pr.

Si Pes ortogonal, necesariamente lo es p- 1 • c) Si P y Q son ortogonales, PQ es ortogonal.

b) a)

Sabemos que (PT)T = P. De este modo, p es ortogonal si y solo si ppT =I, si y solo si pTT pT = I, si y solo si pT es ortogonal.

b) Tenemos pT = P- 1 , por ser P ortogonal. Asi, de acuerdo con a), p- 1 es ortogonal. c) Tenemos pT = p-t y Qr = Q- 1, de modo que (PQ)(PQ)T = PQQTpT = PQQ-tp- t = 1

Siendo asi, (PQf = (PQ) - 1 y PQ es, pues, ortogonal.

6.47.

Sup6ngase que P es una matriz ortogonal. Mostrar· que: a) (Pu, Pv) = (u, v) para vectores cualesquiera u, vE V; b) jjPuJI = IJuJI para todo uE V. a)

Usando pr P =I,

b)

Usando prp =I,

Tomar Ia raiz cuadrada de ambos miembros nos conduce a nuestro resultado.

6.48.

Demostrar el Teorema 6.17. Supongamos i

= 1, ... , n

[1]

Utilizando el Problema 6.23 b) y el hecho de que E' es ortonormal, ~~i = {e;, ej)

= b11b11 + b12 b12 + .. · + b 111 b1•

Sea B = (b;j) Ia matriz de coeficientes en [1]. (Entonces P c11 = bub11

=

[2]

Br.) Supongamos BBr = (c;),

+ b12 b12 + · ·: + b 1• b1•

(3]

Por [2] y [3), c,1 = lJu. De este modo, BBT =I. En consecuencia, B es ortogonal y por consiguiente P = Br lo es tambien.

280

ALGEBRA LINEAL

6.49.

Demostrar el Teorema 6. 18. Como {e;} es ortonormal, obtenemos, segun el Problema 6.23 b), (e~,

ej)

= a 11 a1 i + a2 ;a2 j +: · · + a.,a.J = (C1,

CJ)

donde C 1 denota Ia columna i-esima de Ia matriz ortogonal P = (a 1) . Siendo P ortogonal, sus columnas constituyen un conjunto ortonormal, lo que implica ( e;, ej) = ( C 1, Ci) = b1t Por tanto. {e;} es una base ortonormal. ·

ESPACIOS COMPLEJOS CON PRODUCTO INTERNO 6.50.

Sea V un espacio complejo con producto interna. Co mprobar que se verifica Ia relaci6n (u, av 1

+ bv2 )

= a(u, v1 )

+ b(u, v2 )

Utihzando [I! ], [I!] y luego [/!] encontramos ( U, QV 1 + bv2)

6.51.

6.52.

= (av 1 + bVz, U) = a ( vl, U) + b(Vz , U) =

a(vt, U)

+ b(Vz, U) = a(U, Vt) + b(u, Vz)

Sup6ngase que (u, v) = 3 + 2i en un espacio complejo con producto interno V C<:~lcular: a)

((2- 4i)u, v);

a)

((2- 4i)u, v)

.b)

( u,(4+3i)v);

c) ((3 - 6i)u, (5 - 2i)v)

= (2- 4i)( u, v) = (2- 4i)(3 + 21) = = (4 + 3i)( u, v) = (4 - 3i)(3 + 2i) =

14 - lSi.

b)

(u, (4 + 3i)v)

c)

((3- 6i)u, (5- 2i)v) = (3 - 6i)(5- 2i)( u, v) = (3 - 6i)(5 + 21)(3 + 2i) = 137 - 30i.

18- i .

Hallar el coeficiente de Fourier (o componente) c y Ia proyecci6n cw de v a lo largo de w = (5 + i, 2i) en C 2 .

= (3. + 4i, 2 -

3i)

Recuerdese que c = (v, w)/(w, w) . Calculamos ( v, w) = (3 + 4i)(5 + i) + (2 - 3i)(2i) = (3 = 19 + 17i- 6- 4i = 13 + 13i ( w, w) = 25

Asi c = (13

+ 1+4=

+ 13i)f30 = t1 +

3i)(- 2i)=

30

13i/30. En consecuencia,

proy (v, w) = cw =

6.53.

+ 4i)(5- i) + (2 -

(f! + 39i/15, -H + i/ 15)

Demostrar el Teorema 6.19 (Cauchy-Schwarz). Si v = 0, Ia desigualdad se reduce a 0 ~ 0 y es valida. Supongamos ahora v # 0. Empleando zz = lzl2 (para cualquier numero complejo z) y (v, u) = (u, v) desarrolla mos llu- ( 11, v)tv ll 2 ;::. 0, donde t es cualquier numero real: 0 ~ II u - ( u, v) tv 11 2 = ( u- ( u, v)tv, u- (u, v)tv) = = ( u, u) - (u, v) t( u, v)- ( u, v)t(v, u) + ( u, v)(u, v) t 2 ( v, v) = =

Tomamos t

= l fll vll 2 ,

II

u 11 2

-

2tl(u, vW

+ j( u, v)j 2 t 2 1l v 11 2

encontra ndo que 0 ~ llull 2

i(u,vW -

llvll 2

,

de donde j(u, v)l 2 ~ ll v ll 1 llvll 2 . To-

mando Ia raiz cuadrada de ambos miembros obtenemos Ia desigualdad requerida.

-~

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

6.54.

281

Encontrar una base ortogonal para ul. en C 3 , siendo u = (1, i, 1 + i). Aqui ul. consiste en todos los vectores w = (x, y, z) tales que (w, U)

=X-

iy + (J -

IJZ

= 0

Hallamos una soluci6n, digamos w 1 = · (0, I - i, i). Despues hallamos una soluci6n del sistema

=0

+ i)y- iz = 0 Aqui z es una variable libre. Tomamos z = i para obtener y = i/ (1 + i) = Multiplicando por 2 llegamos a Ia soluci6n w2 = (3i- 3, I + i, 2). Los x - iy

+ (1

- i)z

(1

(I + i)/2 y x = (3i - 3)2. vectores w~ y w 2 forman

una base de u.L.

6.55.

Encontrar una base ortonormal del subespacio W de C 3 generado por v 1 = (1, i, 0) y v2

'

= (1, 2,

Aplicamos el algoritmo de Gram-Schmidt. Tomamos w1

.

V2-

(v2 , w1 )

llw 1

ll 2

W1

1- 2i

1 - i).

=

= (1, 2, 1 - i)- - - (1, i, 0) =

2

v1

=

(1, i, 0). Calculamos

(1 + -

2

1 )

i, 1 - -i, 1 - i

2

Multiplicamos por 2 para eliminar los dcnominadores obteniendo w2 = (1 + 2i, 2 - i, 2 - 2i). Acto Normalizando {w1 , w 2 } conseguimos Ia base seguido halla mos ll w1 11 = j2 y entonces llw2 ll = ortonormal de W requerida:

Jl&.

ESPACIOS VECTORIALES NORMADOS 6.56.

Considerense los vectores u = (1, 3, -6, 4) y v

a) llull co Y ll vll,., b) llull 1 Y llvll 1 a)

c) llull 2 Y llvll2 d)

dro(u, v), d 1 (u. v) y d 2 (u, v)

La norma del supremo elige el maximo de los valores absolutos de las componentes, luego

ll vlloo= 5

y b)

La 1-norma suma los valores absolutos de las componentes. Por tanto,

II u lit= 1 + 3 + 6 + 4 = 14 c)

= (3, -5, 1, - .2) en R 4 • Hallar:

II v li t = 3 + 5 + 1 + 2 = 11

La 2-norma es igual a Ia raiz cuadrada de Ia suma de los cuadrados de las compm,entes (o sea, Ia norma inducida por el producto interno usual en R 3 ). Asi pues, y

d)

Primero hallamos u- v = ( -2, 8, - 7, 6). En ese caso, d,.,(u, v) = II u- vII..,= 8

d 1(u, v) = II u- v lit= 2 + 8

+ 7 + 6 = 23 d2 (u, v) =II u- v 11 2 = J4 + 64 + 49 + 36 =Jill

282

ALGEBRA LINEAL

6.57.

Considerese Ia funci6n f(t ) = c2 - 4t en C[O, 3]. a) H allar plano R 2 . c) Hallar 1 1!11 1 • d) Hallar 11/11 2 .

11/11..,.

b) Trazar f(c) en el

a) Buscamos llflloo =max (lf(r)l). Como f(t) es diferenciable en [0, 3], lf(t)J alcanza un maximo en un punto critico de f(t), esto es, bien cuando Ia derivada f' (t) = 0, o bien en un extremo de [0, 3]. Siendo f' (t) = 2t - 4 hacemos 2t - 4 = 0 y obtenemos t = 2 como punto critico. Calcula mos

f(2) = 4 - 8 = -4 Asi b)

[(3) = 9- 12 = -3

f(O) = 0-0 = 0

11! 11,.., = 1[(2)1= l-41 = 4.

Calculamos f(r) para varios valo res de r en [0, 3], por ejemplo.

t /(t)

Io 0



2

3

-3

-4

- 3

Marcamos los puntos en R 2 y luego dibujamos una curva continua entre ellos, como se muestra en Ia Figura 6·11 .

c)

d)

6.58.

Buscamos 11! 11 1 = Wf(t)Jdt. Com o se indica en Ia Figu ra 6·11, f(t) es negativa en [0. aqui J/(t)J = - (r2 - 4r) = 4r - t 2 • De este modo,

Bf

II~ =

Asi pues,

11[ 11 2

r

II f H1 =

r

(4t - t

2

)

dt = [ 2t

-

~J: = 18 -

9= 9

~- 2t" + 1 ~t J: = 1 ~3 3

[f(t)] 2 dt = f
=

2

3]; de

+ l6r 2)

dt ·= [

Ji¥.

Demostra r el Teorema 6.25. Si u ~ v, necesariamente u - v ~ 0, luego d(u. v) Siendo asi, se satisface [M Jl. Asimismo tenemos

= llu- vii > 0. Ademas, d(u, u) = llu- ull = 11011 = 0.

d(u, v) = II u - v II = II - l(v - u) II = I -11 11 v - u II = II v - u II

=

d(v, u)

y

d(u, v) = II u -

vII = II (u - w) + (w - v) II

~

II u - w II + II w - vII = d(u,

De este modo se satisfacen [M 2 ] y [M 3 ] .

f(t)

-1

4 -I·

-2

-3 -4

-5

Figura 6-ll.

w)

+ d(w, v)

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

283

PROBLEMAS SUPLEMENTARIOS

PRODUCTOSINTERNOS 6.59.

Verificar que el siguiente es un producto interno en R2 , donde u f(u, v) = XtYt - 2xtYl- 2xlYt

6.60.

= (x 1 , x 2 ) y v = (y 1 , Y2):

+ Sxlyz

Determinar los valores de k para que el que sigue sea un producto interno en R 2 , donde u = (x 1 , x 2 ) Y v = (y 1 , Yz):

6.61. Considerense los vectores u = (1, -3) y v = (2, 5) en R 2 . Hallar:

a)

( u, v) con respecto al producto interno usual en R 2 .

b)

( u, v) con respecto al producto interno en R 2 del Problema 6.59.

c)

llvll utilizando el producto interno usual en R 2 . llvll utilizando el producto interno en R 2 del Problema 6.59.

d)

6.62.

Probar que cada uno de los siguientes noes un producto interno en R 2 , siendo u = (x 1 , x 2 , x3 ) y v = (Yt• Y2• Y3): a)

(u,v ) =XtYt+X2Yz Y b)

(u,v)=XtYzX3+YtXzY3 ·

6.63.

Sea Vel espacio vectorial de las matrices m x n sobre R. Mostrar que (A, B ) = tr BrA define un producto interno en V.

6.64.

Sea Vel espacio vectorial de los polinomios sobre R. Probar que (f, g ) = J~ f(t)g(t)dt define un producto interno en V

6.65.

Sup6ngase l(u, v)l = llullllvll. (0 sea, Ia desigualdad de Cauchy-Schwarz se reduce a una igualdad.) Probar que u y v son linealmente dependientes.

6.66. Sup6ngase que f(u , v) y g(u, v) son productos internos en un espacio vectorial V. Demostrar las siguientes aserciones:

+ g es un

producto interno en V, donde (f + g)(u, v) = f(u, v)

+ g(u, v).

a)

La suma f

b)

El producto por un escalar kf, para k > 0, es un producto interno en V, siendo (kf)(u, v) = kf(u, v).

ORTOGONALIDAD. COMPLEMENTOS ORTOGONALES. CONJUNTOS ORTOGONALES 6.67.

Sea V el espacio vectorial de los polinomios sobre R de grado ~ 2 con producto interno (f, g) = JJ f(t)g(t)dt. Encontrar una base del subespacio W ortogonal a h(t) = 2t + l.

6.68.

Determinar una base del subespacio Wde R4 ortogonal a u 1

=

(1, -2, 3, 4) y u2 = (3, -5, 7, 8).

284

ALGEBRA LINEAL

6.69.

Hallar una base para el subespacio W de R 5 ortogonal a los vectores u 1 = (I, I, 3, 4, I) y u1 = (1, 2, I, 2, 1).

6.70.

Sea w = (1, - 2, -I , 3) un vector en R 4 • Hallar una base: a) ortogonal, b) ortonormal de w1..

6.71.

Sea We! subespacio de R4 ortogonal a u1 = (1, 1, 2, 2) y u2 = (0, 1, 2, -1). Encontrar una base: a) ortogonal, b) ortonormal de W (Comparese con el Problema 6.68.)

6.72.

Sup6ngase que S consiste en los vectores de R4 : u 1 = (1, 1, 1, 1)

u1 =(1, 1, -1. -1)

u3 = (1; -1, 1, -1)

u4 = (1, -1, -1, 1)

4

Probar que S es ortogonal y es una base de R . b) Escribir v = (1, 3, - 5, 6) como combinaci6n lineal de u 1 , u 2 , u 3 , u4 .

a)

c) Encontrar las coordenadas de un vector arbitrario v = (a, b, c, d) de R4 relativas a Ia base S. d)

6.73.

Normaliza r S para conseguir una base ortonormal de R4 .

Sea Vel espacio vectorial de las matrices 2 x 2 sabre R con producto interno (A, B ) = tr (BrA ). Mostrar que Ia que se da a continuaci6n es una base ortonormal de V:

{(~ ~).(~ ~). (~ ~).(~ ~)} 6.74.

Sea Vel espacio vectorial de las matrices 2 x 2 sobre R con producto interno ( A, B )= tr BrA. Hallar una base ortogo nal para el complemento ortogonal de las matrices a) diagonales y b) simetricas.

6.75.

Sup6ngase que {u1 , u2 , ••• , 11,} es un conjunto ortogona1 de vectores. Probar que {k 1 u1 , k2 u2 , k,u,} es ortogonal para todo conjunto de escalares k 1 , k 2 , ••• , k,.

6.76.

Sean U y W subespacios de un espacio con producto interno V de dimension linita. Mostrar que: a) (U + W)l. = u1. n w1., b) (U n W)l. = u1. + w1..

... ,

•,

PROYECCIONES. ALGORITMO DE GRAM-SCHMIDT. APLICACIONES 6.77.

Hallar una base ortogonal y una ortonormal para el subespacio U de R4 generado por los vectores u1 = (1, 1, 1, 1), v 2 = (1, -I , 2, 2), v3 = (1, 2, -3, -4).

6.78.

Sea Vel espacio vectorial de los polinomios f(t) con producto interne ( J, g) = JJf(t)g(t)dt. Aplicar el algoritmo de Gram-Schmidt al conjunto {I, t, t 2 } para obtener un conjunto ortogonal {!0 , j~ . f 1 } con coeficientes enteros.

6.79. Sup6ngase v = (1, 2, 3, 4, 6). Hallar Ia proyecci6 n de v sobre W(o encontrar un llu-wll), siendo W el subespacio de R 5 generado por: a)

6.80.

u 1 = (1, 2, 1, 2, 1) y u1 = (1, -1, 2, -1, 1);

b)

v1

=

(1, 2, 1, 2, 1)

wE

Wque minimice

y v1 = (1, 0, 1, 5, - 1).

Sean V=C[-1, 1] con producto interne (/, g)=J~J(t)g(t)dt y We! subespacio de Vde los polinomios de grado ~3. Encontrar Ia proyecci6n de f(t) = t 5 sabre W [Indicacion: Utilicense los polinomios (de Legendre) 1, t, 3t2 - 1, 5t 3 - 3t del Ejemplo 6.13.]

.,

ESPACJOS CON PRODUCTO INTERNO. ORTOGONALIDAD

285

6.81. Sean V = C[O, I] con producto interne (f, g)= J~f(t)g(t)dt y W el subespacio de V formado por los polinomios de grado ~2. Encontrar Ia proyecci6n de f( t) = t 3 sabre W (Indicaciim: Utilicense los polinomios I, 2t - 1, 6t 2 - 6t + I del Problema 6.27.) 6.82.

Sea U el subespacio de R4 generado por los vectores v1

=

(1, 1, 1, 1)

v2 = (1, -1, 2, 2)

v3 = (1, 2, -3, -4)

Hallar Ia proyecci6n de v =(I, 2, -3, 4) sobre U. (Indicacion: Hagase uso del Problema 6.77.)

PRODUCTOS INTERNOS Y MATRICES DEFINIDAS POSITIVAS. MATRICES ORTOGONALES 6.83.

Determinar Ia matriz A que representa el producto interno usual en R 2 respecto a cada una de las bases de R 2 : a) {v 1 = (1, 4), v2 = (2, -3)}, b) {w 1 = (1, - 3), w2 = (6, 2)}.

6.84.

Considerese el producto interno en R 2 :

f(u, v) = XtYt - 2x1Y2 - 2x2 Yt

+ 5x2 Y2

Determina r Ia matriz B que representa este producto interno respecto a cada una de las bases del Problema 6.83. 6.85.

Encontrar Ia matriz C que representa el producto interno usual en R 3 respecto a Ia base S constituida por·Jos vectores: u 1 = (1, I, 1), u2 = (1, 2, 1), u3 = (1, - I , 3).

6.86.

Considerese el espacio vectorial V de los polinomios /(t) de grado Y> = SJ f(c)g(t)dt.


+ 2 y g(t) =

3t + 4.

Calcular (f, g), siendo f(t)

b)

Hallar Ia matriz A del producto interno respecto a Ia base (1, t, t 2 ) de V

=

t

(l.-


Determinar cuales entre las matrices escritas a continuaci6n so n definidas positivas: a)

6.88.

con producto interno

a)

c) .Comprobar que se verifica el Teorema 6.14, que dice que {1, t, t 2 }. 6.87.

~2

G D·

bl

(!

~).

c)

G ~).

~ (_~ -~)

Deci?ir si A es o no defin ida positi va, donde

a)

A+:

-2 3

-2

-~)

b)

A-(~

2 6

:)

6.89.

Sup6ngase que A y B son matrices definidas positivas. Probar que: a) A+ B es definida positiva; b) kA es definida positiva para k > 0. ·

6.90.

Sup6ngase que B es una matriz real no singular. Probar que: a) Br B es simetrica; b) BrB es definida positiva.

6.91.

Hallar el numero de matrices ortogonales 2 x 2 de Ia forma

y (1

X) . 2

286

ALGEBRA LINEAL

6.92.

Encontrar una matriz ortogonal 3 x 3 P cuyas dos primeras filas sean multiplos de u = (1 , I, 1) y v = (1, -2, 3), respectivamente.

6.93.

Encontrar una matriz ortogonal simetrica P cuya primera lila sea Problema 6.43.)

6.94.

Se dice que dos matrices reales A y B son ortogonalme1ite equivalences si existe una matriz ortogona: P tal que B = pr AP. Mostrar que esta es una relaci6n de equivalencia.

Ct, ! , !).

(Comparese con el

ESPACIOS COMPLEJOS CON PRODUCTO INTERNO 6.95.

Comprobar que se verifica ( a 1u 1

+ a 2 u 2 , b1 v1 + b2 v 2 )

= a 1 b1 (u 1 , v1 )

Con mayor generalidad: probar que/

+ a 1b2 (u 1, v2 ) + a 2 b1 (u2 , v1 ) + a 2 b2 (u2 , v2 )

I a,u,, J~tI bJvJ)

=

6.96. Considerense u =(I a)

6.97.

(u, v),

b)

+ i,

3, 4- i) y v = (3 - 4i, I + i, 2i) en C 3 . Calcular:

(v, u),

c)

II u Jl,

Hallar el coeficiente de Fourier c y Ia proyecci6n a)

L a,bi(u,,' v;). I,J

\1=1

d) cw

II v 11.

e)

d(u, v).

de:

u = (3 + i, 5- 2i) a Io largo dew= (5 + i, I + i) en C 2 •

b) u = (1 - i, 3i, 1 + i) a to largo de w = (1' 2 - i, 3 + 2i) en C 3 . 6.98. Sean u = (z 1, z2 ) y v = (w 1, w2) vectores pertenecientes a C 2 • Veri!icar que el siguiente es un producto interno en C 2 :

6.99. Encontrar una base ortogonal y una ortonormal para el subespacio W de C3 generado por u 1 = (1 , i, 1) y u 2

= (1 + i,

0, 2).

6.100. Scan u = (z 1 , z2 ) y v = (w 1 , w2 ) vectores pertenecientes a C 2 • ,;,Para que valores de a, b, c, deC es el que sigue un producto interno? f(u, v) = azlwl

6.101.

+ bzlwl + czl wl + dzl wl

Demostrar Ia forma polar para un espacio complejo con producto interno: ( u, v)

=ill u + v 12 - ill u- v 11 2 +ill u + iv 11 2 - i ll u - iv 11 2

[Comparese con el Problema 6.9 a).J 6.102.

Sea V un espacio real con producto interno. Mostrar que: i) ii)

llull = II vii si y s6lo si (u + v, u- v) = 0. llu + vJ1 2 = llull 2 + llvll 2 si y s6lo si (u, v) = 0.

Probar, por medio de contraejemplos, que las alirmaciones anteriores no son ciertas para, por ejemplo, C 2 •

.,

•,

ESPACIOS CON PRODUCTO INTERNO. ORTOGONALIDAD

6.103.

287

Una matriz compleja A es unitaria si es invertible y A- t =An. Alternativamente, A es unitaria si sus filas (columnas) constituyen un conjunto ortonormal de vectores (con respecto al producto interno usual de C"). Encontrar una matriz unitaria cuya primera lila sea: a) un multiplo de (1, I, - i); b) (f , !i, f - !i).

ESPACIOS VECTORIALES NORMADOS 6.104. Considerense los vectores u = (1, -3, 4, 1, -2) y v = (3, 1, -2, -3, 1) en R 5 . Calcu1ar:

a) llu II.., ll u lit

b)

6.105.

II vII.., II v lit

y y

Considerense los vectores

11

a) llull.., y llvll.., b) llullt y- llv ll t 6.106.

c)

II u ll2 y II v liz

d)

d..,(u, v), d 1(u, v) y d 2(u, v)

= (I

+ i,

2- 4i) y v = (1 - i, 2 + 3i) en C 2 • Calcular:

c) llullz Y llvliz d)

d 1(u, v), d 00(U, v) y

Considerense las funciones f(t) = St - t 2 y g(t)

d2(u, v)

= 3t -

t 2 en C[O, 4]. Calcular: a) d"" (f, g),

b) d 1 (f, g), c) d 2 (f, g).

6.107. Demostrar que: a) 11·11 1 es una norma en R"; b) 11·11.., es una norma en R". 6.108.

Demostrar que: a) 11 ·11 1 es una norma en C[a, b]; b) 11·11"' es una norma en C[a, b].

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS

6.60.

k > 9. 'b)

.j29,

6.61. a)

- 13,

6.62.

Sea

u=

6.67.

{1t2

-

6.68.

{(1, 2, 1, 0), (4, 4, 0, 1)}.

6.69.

( -1, 0, 0, 0, 1), ( -6, 2, 0, 1, 0), ( -5, 2, 1, 0, 0).

6.70.

a) (0, 0. 3, 1), (0, 3, -3, 1), (2, 10, -9, 3);

6.71.

a) (0, 2, -1, 0), ( -15, 1, 2, 5);

6.72.

b)

c)

-71,

(0, 0, 1). Entonces

5t, 12t1

-

c)


ambos casos.

5}.

b) (0, 0, 3, 1)/Jlo, (0, 3, -3, l)/ji9, (2, 10, -9, 3)jji94.

b) (0, 2, -1, 0)/JS, ( -15, 1, 2, 5)/.j2s5.

v = (5u 1 + 3u2 - 13u 3 + 9u4 )/4. [v] =[a+ b + c + d, a+ b- c- d, a- b + c- d, a -b -c+ d]/4.

288

ALGEBRA LINEAL

(~

~). (~

6.74.

.a)

6.77.

w, = (1, 1, 1, 1),

6.78. / 0 6.79.

~)

\412

y

= (0, -2, 1, 1), \413 =

= l,f1 = t - 1,/3

= 3t 2

-

6t

0

(12, -4, -1, -7).

a)

proy (v, W) = (21 , 27, 26, 27, 21)/8.

b)

Primero hallamos una base ortogona1 de W: w1 = {1, 2, 1, 2, 1), w 2 Entonces proy (v, W) = (34, 76, 34, 56, 42)/ 17.

6.81.

proy {f, W) = 3t 2 /2 - 3t/ 5 + -:Jo.

6.82.

proy (v, U) = ( -14, 158, 47, 89)/70.

6.83.

a)

(

6.84.

a)

(

17

=

-10)

b)

- 68) 73 ,

b)

13 '

-10 65 -68

= (0, 2, 0,

10t3 /9 - 5tf 21.

proy {f, W)

6.85.

(:

4 6 2

6.86.

a)

H.

b)

No,

b)

c~ ~)

cs

2~)

no,

d)

23

,;)

6.87.

a)

6.88.

a) Si,

6.91.

Cua tro:

(' i. '*) t

1 i t

si,

(}s/ 3

c~

c)

.j8;3) ( -i ,

1/./3

P = 1/ji4 -2/fo

t

! JS/3) ( t -.fi/3) ( i -.fi/3) -JS/3 -i , j8;3 i , -Js/3 -1

1/~)

3/fo -2/fo -3/fo

(! _i) !

- j

si.

no.

b)

s;fi

693.

1

+ 2.

6.80.

6.92.

(0 -1)

b)

- 3, 2).

ESPACIOS CON PR O D UCTO INTERN O. ORTOGONALIDAD

J3t,

a)

-4i,

6.97.

a)

c = (19- 5i)/ 28,

6.99.

{v 1 = (1, i, 1)/J3, v 2 = (2i, 1 - 3i, 3- z)J.j24} .

6.100.

b) 4i,

fo,

6.96.

c)

d)

e)

.}59.

b) c = (3 + 6i)/ 19.

a y d rea les y positivos, c = b y ad- be positivo.

6.102. u = (1 , 2), v = (i, 2i).

6.103. a) ( (1

1/.fi

(1 -

_ 1/.fi

+ i)/J3

6.104. a)

4 y 3,

6.105. a)

j20 y ji3,

6.106. a) 8,

b)

i)Jfi)

b)

16,

,

t ;;fi ( t2

ti

c) ~·

c)

t-

-1/f i

- ti

J3l y .j24, j2 + J20 y J2 + fo ,

II y 13, b)

b)

0

fi)

- t + li d)

6, 19 y 9. c)

fi2 Y fo,

d)

7, 9 Y

fi.

289

CAPITULO

7

Determinantes

7.1.

INTRODUCCION

A cada matriz n-cuadrada A = (aii) se le asigna un escalar particular denominado el determinante de A, denotado por det (A), IAI o au

a12

•· •

a 21

a:u

...

at.. a 2,

ad

a.,2 .. . a,.

Seiialamos que una tabla ordenada n x n de escalares situada entre dos Iineas verticales, Hamada un determinante de arden n, no es una matriz. Es una forma de escribir el determinante de dicha tabla de escalares o, si se prefiere, de Ia matriz encerrada. La funcion determinante aparecio por primera vez en la investigacion de · los sistemas de ecuaciones lineales. Veremos que es una herramienta indispensable en el estudio y obtencion de propiedades de las matrices cuadradas. La definicion de determinante y muchas de sus propiedades siguen siendo validas cuando las entradas de Ia matriz proceden de un anillo. Comenzaremos con el caso especial de los determinantes de 6rdenes uno, dos y tres. Posteriormente, definiremos un determinante de orden arbitrario. Esta definicion general vendra precedida por una discusion de las permutaciones, necesaria para Ia misma.

7.2. DETERMINANTES DE ORDENES UNO Y DOS Los determinantes de ordenes uno y dos se definen como sigue:

laul =au au

I

a21

290

al2 1=

an

aua22- a12 all

DETERMINANTES

291

Asi el determinante de una mat riz I x l A= (a 11 ) es el propio escalar a 11 , es decir, det (A) = la11 1= a 11 . El determinante de orden dos puede recordarse facilmente usando el diagrama:

Esto es, e1 determinante es igual al producto de los elementos situados en Ia flecha marcada con un signo mas menos el producto de los elementos situados en Ia flecha marcada con un signo menos. (Existen un diagrama analogo para determinantes de orden tres, pero no para determinantes de ordenes superiores.) EJEMPLO 7.1 a)

Dado que el determinante de orden uno es el mismo escalar, tenemos det (24) = 24, det ( - 6) = -6 + 2) = t + 2.

y det (t

b)

52 41 . 3 = (5)(3)- (4)(2) = 15 - 8 = 7

y

1

1-! ~ 1=

(2)(6) _ (1)( -4)

=

12 + 4 = 16.

Consideremos dos ecuaciones lineales con dos incognitas:

a 1 x+b 1y=c 1 a2 x

+ b2 y = c2

Recordemos (Problema 1.60) que el sistema tiene solucion {mica si y solo si D =a 1 b2 y Ia solut ion es

-

a 2 b1

=1=

0;

Esta puede expresarse completamente en terminos de determinantes:

Aqui D, el determina nte de Ia matriz de los coeficientes, aparece en el denominado r de ambos cocientes. Los numeradores N-" y N Y de los cocientes para x e y , respectivamente, pueden obtenerse sustituyendo Ia columna de coe{icientes de Ia incognita en cuesti6n, en Ia matriz de los coeficientes, por Ia columna de terminos constantes. EJ EM PLO 7 .2 .

2x - 3y = 7. Resolvamos por medio de determinantes: { 3x + 5y = I

El determinante D de Ia matriz de los coeficientes es D= 2 13

-31 5

= (2)(5)-(3)(-3)= 10+9= 19

292

ALGEBRA LINEAL

Siendo D #- 0, el sistema tiene soluci6n unica. Para obtener el numerador N" sustituyamos, en Ia matriz de los coeficientes, los de x por los terminos constantes:

-315 =(7)(5)-(1)(-3) = 35+3 = 38

Nx= 7

11

Para obtener el numerador N y sustituyamos, en Ia matriz de los coeficientes, los de y por los terminos constantes: NY=

1~

n

= (2)(1) _ (3)(7)

=2 _

21 = -19

De este modo, Ia soluci6n unica del sistema es N,. 38 x=-=-=2 D 19

e

-19

Nr

y = - = - = -1 D 19

Nota: El resultado del Ejemplo 7.2 es en realidad valido para cualquier sistema de n ecuaciones con n incognitas, como se discutira en Ia Secci6n 7.5. Subrayamos que Ia importancia de este resultado es de naturaleza te6rica; esto es, en Ia practica, se suele utilizar Ia eli.m inaci6n gaussiana, y no los deter minantes, para hallar Ia soluci6n de un sistema de ecuaciones lineales. I

7.3.

DETERMINANTES DE OR:QEN TRES

Consideremos t.)!)a matriz 3 x 3 arbitraria A = (aiJ). El determinante de A se define. como sigue:

det (A)

=

au

a12

au

Dzl

a22

a23

= all a 22 a33 + all a23 a31 + al 3 a21 a32

Observese que hay seis productos, cada uno de tres elementos de Ia ma triz original. T res de los productos aparecen con signa mas ·(conservan su signa), y tres con signa menos (cambian su signo). Los diagramas de Ia Figura 7-1 pueden ayudar a recordar los seis productos en det (A). 0 sea, el determinante es igual a Ia suma de los productos de los elementos en las flechas marcadas con un signo mas de Ia Figura 7-1 mas Ia suma de los opuestos de los productos de los elementos en las flechas marcadas con un signo menos. Hacemos hincapie en que no existen tales construcciones esquematicas para recordar los determinantes de orden superior. EJEMPLO 7 .3 2 0

5 -3

-2 = (2)(5)(4) + (1)(- 2)(1) 4

+ (1)(- 3)(0) -

= 40 - 2 + 0- 5 - 12- 0 = 21

(1)(5)(1)- (- 3)( - 2)(2)- (4)(1)(0) =

DETERMINANTES

+

293

+

+

Figura 7-1.

(

El determinante de Ia ma triz 3 x 3 A = (a;i) puede reescribirse c'o mo:

que es una combinaci6n lineal de tres determinantes de o rden dos, cu yos coeficientes (con signos alternantes) constitu yen Ia primera fila de Ia matriz dada. Esta combinaci6n lineal puede indicarse de Ia forma

N6tese que cada ma triz 2 x 2 se o btiene suprimiendo en Ia matriz inicial Ia fila y Ia columna q ue contienen su coeficiente. EJEMPLO 7.4

4 0

7.4.

2 - 2 5

3

2

3 = I 4

- 1

0

3

- 2

3 - 2 4

5 - 1

0

2 3 -2 3 +3 4 5 - 1 0

= 11 - 2 31- 214 31+31 4 5 - 1 0 -1 0

-21 = 5

= 1(2 - 15) - 2(- 4 + 0) + 3(20 + 0)

=

2 -2

3 3

5

-1

-13 + 8 + 60 = 55

PERMUTACIONES

Una permutaci6n u del conjunto {I . 2, ... , n} es una aplicaci6n uno-a- uno del conjunto en si mismo o, equivalentemente, una redistribuci6n de los numeros I, 2 .... , n. Tal permutaci6n a se denota por

a=

l

G

2

.1 j 2

... ...

")

j,

0

donde j;

= a(i)

294

ALGEBRA LINEAL M

El conjunto de todas las permutaciones semejantes se denota por sn, y su nurnero es n!. Si a E sn, Ia aplicaci6n inversa a - 1 E S,; y si a, -rES n> Ia aplicaci6n cornpuesta a o 1: E S,. Asimisrno, Ia aplicaci6n identidad e = a o a- 1 pertenece a S". (De hecho, e = 12 .. . n.) EJEMPLO 7.5 a)

Hay 2!

=

2 ·I

b)

Hay 3!

=

3·2·1

=

2 permutaciones en S2 : las permutaciones 12 y 21. = 6

permutaciones en S3 :las permutaciones 123, 132,213,231,312,321. 1

Consideremos una permutaci6n arbitraria a en Sn, por ejernplo, a= } 1} 2 ••• Jn· Diremos que a es· una perrnutaci6n par o impar segun suponga un numero par o irnpar de inversiones. Por una inversion en a entendemos un par de enteros (i, k) tal que i > k pero i precede a ken a. Definirnos entonces el signo o paridad de a, escrito sgn a, por sgn a= {

1 st a es par - 1 si a es impar

EJEMPLO 7.6 a)

Consideremos Ia permutaci6n a= 35142 en S5 . Para cada elemento contamos el numero de elementos menores situados a su derecha. Asi pues, 3 da Iugar a Ia inversiones (3, 1) y (3, 2); 5 da Iugar a las inversiones (5, 1), (5, 4), (5, 2); 4 da Iugar a Ia invesi6n (4, 2).

(Adviertase que I y 2 no ocasionan inversiones.) Como hay, en total, seis in\'ersiones,

sgn a

=

O"

es par y

1.

b) La permutaci6n identidad s = 12 ... n es par par carecer de inversiones. c)

En S 2 Ia permutaci6n 12 es par y Ia 21 impar. En S3 las permutaciones 123, 231 y 312 son pares, mientras que las 132, 213 y 321 son impares.

d)

Sea r Ia permutaci6n que intercarnbia dos nurneros i y j dejando el resto de los nurneros fijos, es decir, r(i) = j

r(j) = i

r(k)

=

k

k # i,j

Llamamos a r trasposici6n. Si i < j, r = 12 ... (i- 1)j(i

+ 1) ... (j-

l)i(j

+

1) ... n

Existen 2(j - i - 1) + I inversiones en r, indicadas a continuaci6n: (j, i), (j, x), (x, i)

don de x

=

i

+

1, ... , j - I

La trasposici6n r es, pues, impar.

"!

DETERMINANTES

295

7.5. DETERMINANTES DE ORDEN ARBITRARIO Sea A = (a;) una matriz n-cuadrada sobre un cuerpo K:

A=(::: ::: .:.:::1 a., 1

a,

•••

2

a.,}

Consideremos un producto den elementos de A tal que uno y solo uno de los elementos proviene de cada fila y uno y solo uno proviene de cada columna. Tal producto puede escribirse:

donde los factores proceden de filas sucesivas, de modo que los primeros subindices mantienen el orden natural 1, 2, ... , n. Ahora, como los factores provienen de columnas diferentes, Ia sucesion de los segundos subindices constituye una permutaci6n (J = j 1j 2 .. · j. de s•. Reciprocamente, cada permutacion de s. determina un producto de Ia forma anterior. Asi pues, Ia matriz A origina n! productos semejantes.

Definicion: El determinante de A = (aii), denotado por det (A) o productos precedentes, multiplicado cada uno por sgn (1. Es decir,

IA I =

L (sgn (1)a ita h 1

2

···

IAI, es Ia suma de los n!

a,i.

tl

IA I =

0

L (sgn u)ala(t)a2a(2l ••. a...,(.,l trESa

Se dice que el determinante de Ia matriz n-cuadrada A es de arden n. El siguiente ejemplo muestra que esta definicion concuerda con las definiciones anteriores de de ordenes uno, dos y tres.

~terminantes

EJEMPLO 7.7

a)

Sea A= (a 11 ) una matriz I x I. Puesto que S 1 solo tiene una permutaci6n, que es par, det (A) = a 11 , el propio numero. J

b) Sea A= (aiJ) una matriz 2 x 2. En S 2 Ia permutacion 12 es par y !a 21 impar. Par tanto,

c)

Sea A = (a;) una matriz 3 x 3. En S 3 las permutaciones 123, 231 y 312 son pares y las 321, 213 y 132 impares. Par consiguiente,

a 11 det(A)= a 11

a 11

a 11

a 13 a13 =a 11a11 a 33 +a 12 a 23 a 31 +a 13 a11 a 32 -a13 a 21 a 31 - a 12 a 11a 33 -a 11 a13 a 32

a31

a32

a33

296

ALGEBRA LINEAL

A medida que 11 crece, el numero de terminos se hace astronomico. Por ella emplearemos metodos indirectos para evaluar los determinantes mas que su definicion. De hecho demostraremos una serie de propiedades de los determinantes que nos permitinin abreviar los calculos considerablemente. En pa rticular probaremos que un determinante de arden n es igual a una combinacion lineal de determinantes de arden n - I, como ocurria en el caso n = 3.

7.6.

PROPIEDADES DE LOS DETERMINANTES

Enumeramos a continuacion las propiedades basicas del determinante. El determinante de una matriz A y el de su traspuesta Ar son iguales; o sea,

Teorema 7.1: [A[ = [Ar[.

De acuerdo con este resultado, demostrado en el Problema 7.21, cualquier teorema relative a una matriz A que concierna a sus filas tendra un analogo concerniente a sus columnas. El proximo teorema, demostrado en el Problema 7.23, nos descubre ciertas situaciones en las que el determinante puede obtenerse de manera inmediata. Teorema 7.2:

Sea A una matriz cuadrada.

a)

Si A posee una fila (columna) de ceros, necesariamente [A[ = 0.

b)

Si A posee dos filas (columnas) iguales, necesariamente [AI = 0. Si A es triangular, esto es, A tiene solo ceros por encima o por debajo de Ia diagonal, entonces [A[ es igual al producto de los elementos diagonales. De este m~do, en particular, [/[ = I, siendo I la matriz identidad.

c)

El siguiente teorema, demostrado en el Problema 7.22, muestra como se ve afectado el determinante de una matriz por las operaciones elementales entre filas o entre columnas. Teorema 7.3: Supongamos que B se ha obtenido de A mediante una operacion elemental entre filas (columnas). a)

Si se han intercambiado dos filas (columnas) de A, [B[ = - [A[.

b)

Si se ha multiplicado una fila (columna) de A par un escalar k, [B[

c)

Si se ha sumado un multiplo de una fila (columna) a o tra, [BI = [A[.

=

k[A[.

Ahara enunciamos dos de los teoremas mas importantes y utiles referentes a determinantes. Teorema 7.4:

Sea A cualquier matriz n-cuadrada. Son equivalentes las siguientes aserciones:

i)

A es invertible, es decir, A tiene una in versa A -

ii)

AX

iii)

El determinante de A es no nulo: [AI '# 0.

=0

1

.

tiene unicamente la solucion trivial.

Nota: Dependiendo del autor y del texto, una matriz no singular A se define como una matriz invertible, como una para Ia que [AI #- 0, o como una para Ia que AX= 0 solo tiene Ia solucion nula. El teorema anterior muestra que las tres definiciones son equivalentes.

DETERMINANTES

297

Teorema 7.5: El determinante es una funci6n multiplicativa. 0 sea, el determinante del producto de dos matrices A y B es el producto de los determina ntes: IABI = IAI IBI. Demostraremos los dos teoremas precedentes (Problemas 7.27 y 7.28, respectivamente) utilizando Ia teoria de las matrices elementales, junto al lema que sigue {demostrado a su vez en el Problema 7.25). Lema 7.6:

Sea

E una matriz elemental. En tal caso, para toda ma triz A, lEAl = IEIIAI.

Cabe comentar que es posible probar los dos teoremas directamente, sin necesidad de recurrir a Ia teoria de las matrices elementales. Recordemos que dos matrices A y B son similares si existe una matriz no singular P tal que B = p - t AP. Hacienda uso de la propiedad multiplicativa del determinante (Teorema 7.5) seremas capaces de demostrar (Problema 7.30): Teorema 7.7:

Supongamos que A y B son mat rices similares. Entonces IAI = IBJ.

7.7. MENORES Y COFACTORES Consideremos una matriz n-cuadrada A= (a;). Denotemos por Mii Ia submatriz (n - 1)-cuadrada de A que se obtiene suprimiendo su i-esima fila y su j-esima columna. El determinante IM;il recibe el nombre de menor del elemento a;j de A, y definimos el cofactor de aii• denotado por A;i• como el meno r «con signa»: A;i

= (-

1);+ iJMiil

N6tese que los «signos» ( -lY+i que acompaii.an a los menores se disponen en forma de tablero de ajedrez,_con signos + en Ia diagonal principal:

··)

. ..

Subrayamos el hecho de que Mu denota una matriz, mientras que Aii denota un escalar. Nota: El signa ( - tY+i del cofacto r Au se obtiene frecuenteme nte utilizando Ia configuraci6n de tablero de ajedrez citada. Concretamente, empezando con « + >> y alternando los signos, esto es, +, - , +, -, ... , se cuenta desde Ia diagonal principal hasta Ia casilla apropiada. ·

EJEMPLO 7 .8. Consideremos Ia matriz A

2 3 4 I M 2JI = 56

1

8 9

J

=:I

=

2 3 4) (85 96 7I .

3 1= 18 -24= -6yportanto A 23 = ( - J) 2+ 3 IM 231= (-I) · ( - 6)=6. 9

Es aplicable el teorema enunciado a continuaci6n, demostrado en el Problema 7.31.

298

ALGEBRA LINEAL

Teorema 7.8. El determinante de Ia matriz A = (aii) es igual a Ia suma de los productos obtenidos multiplicando los elementos de cualquier fila (columna) por sus correspondientes cofactores: ~

1A 1 =au Au

+ a;2 A; 2 +···+a;~ A;~= I, a;iAii j = I ~

I A I= a 1 jAii + a 2 j

y

A 2i

+ · · · + a~iAni = I, aljAii i= I

Estas formulas para IAI se conocen como desarrollos de Laplace del determinante de A por la i-esima fila y la j-esima columna, respectivamente. Junto con las operaciones elementales entre filas, ofrecen un metodo de simplificaci6n del calculo de IAI, como se describe mas abajo.

EVALUACION DE DETERMINANTES El siguiente algoritmo reduce Ia evaluaci6n de un determinante de orden n a Ia de uno de orden n- I. Algoritmo 7.7 (Reduccion del orden de un determinante) Aqui A

Paso 1.

= (a;) es

una matriz n-cuadrada no nula, con n > 1.

Elegir un elemento a;i

=

I o, en su defecto, un aii =1= 0.

Paso 2. Usando aii como pivote, efectuar las operaciones elementales entre filas [columnas] necesarias para colocar ceros en el resto de las posiciones de Ia columna [fila] que contiene aii. Paso 3.

Desarrolla r el determinante por la columna [fila] que contiene

aijo

Podemos hacer, por orden, las siguientes o bservaciones. Nota 1: El Algoritmo 7.7 suele emplearse para determinantes de orden cuatro o mayor. Con determinantes de orden menor que cuatro se utilizan las formulas del determinante especificaso Nota 2: La eliminaci6n gaussiana o , equivalentemente, el uso repetido del Algo ritmo 707 acompaiiado de in tercambios de filas puede servir para transformar una matriz A en otra triangular superior, cuyo determinante es el producto de las entradas diagonaleso No obstante, no debe perderse de vista el numero de intercambios de filas, pues cada uno de ellos varia el signo del determinanteo (Vease el P roblema 7o ll.)

EJEMPLO 709.

Calculemos el determinante de A= (

~

4

3

21 - 2I) por medio del Algoritmo 7 7

-7 -3 1 - 2 -1

- 5

°

°

9

4

Utilizamos a23 = I como pivote para situar ceros en el resto de las posiciones de Ia tercera columna, esto es, efectuamos las operaciones entre filas -2R2 + R 1 -> R 1 , 3R 2 + R 3 ---> R 3 y R 2 + R4 -> R4 Segun el Teorema 7°3 c), el valor del determinante no se altera con estas operaciones, es decir, °

DETERMINANTES

IAI =

2 - 5

2

4

5

- 2

3

- 7 -3 -2 - 1

I

-2

2

9

0

5

3

I

- 2

2

0

3

0

2

3

4

299

Si ahora desarrollamos por Ia tercera columna, podemos despreciar todos los terminos que contienen 0. Asi

2

- 2 3

0 l

-2

I

2

0 0

3 2

I

IA I

=1- 1)

1

<3

3

5 -

I

-2

5

I

2

3 2

3

=- (4- 18 +5-30 - 3 +4) =-( - 38) =38

7 .8. ADJUNTO CLASICO Consideremos una matriz n-cuadrada A = (aii) sobre un cuerpo K. El adjunto clasico (tradicionalmente llamado «adjunto») de A, denotado por adj A , es Ia traspuesta de Ia matriz de cofactores de A:

Decimos < debido a que este ultimo termino se suele usar para un concepto completamente diferente.

EJEMPLO 7.10.

s~ • ~(:

3

- 4

=+1-4 ~I= - 18 - I -415 =-II A21 =-1- ~ - 4, 2

~

. Los cofactores de los nueve elementos de A son

-I

A11

A3t =+l -43

-4)

=- 10

A12

A 22

=-~~ ~I = 2 =+~~ -:1 = 14

AJl = -1 ~

-42 1 -4 =

A13 = +l~

=~I =

A23=-1~ -~1 = 5 AJJ =+I~ - 431 = - 8

La traspuesta de Ia matriz de los cofactores anteriores proporciona el adjunto clasico de A:

- 18 adj A=

(

2 4

- 11.

14 5

4

-10) -4 - 8

Es aplicable el siguiente teorema, demostrado en el Problema 7.33.

300

ALGEBRA LINEAL

Teorema 7.9:

Para toda matriz cuadrada A,

A· (adj A)= (adj A)· A = !All donde I es Ia matriz identidad. De este modo, si

IAI 'I= 0,

I A- 1 = - (adj A)

IAI

Observemos que este teorema pone en nuestras manos otro metodo para halla r la inversa de una matriz no singular dada. EJEMPLO 7.11. Consideremos Ia matriz A del Ejemplo 7.10 para Ia cual IAI

=

- 46. Tenemos

~· (adjA)=(~ -! -~)(-!~ -~! -~~) = (- ~ -4~ ~)= -4j~ 4

1

-I

4

5

5

-8

o o

'\o

-46

0

I 0

= - 461 = I A II Ademas, de acuerdo con el Teorerna 7.9,

1

A - • = - - (adj A) lA I

=

(

- 18/(-46) 2/( -46) 4/( -46)

- 11/( -46) 14/( -46) 5/( - 46)

- 10/(- 46)) '( - 4/(-46) =

-fs -A

--is

-8/( -46)

7.9. APLICACIONES A LAS ECUACIONES LINEALES. REGLA DE CRAMER Consideremos un sistema de n ecuaciones lineales con n incognitas:

allxl + auxz +

+ahx,. = b 1

+ all X 1 +

+ a 2 ,.x. = b2

az1X1

El sistema puede escribirse en Ia forma AX = B, donde A = (a;) es Ia matriz (cuadrada) de coelicientes y B = (bJ el vector columna de constantes. Sea A; Ia matriz obtenida a partir de A sustituyendo su columna i-esima por B. Sean D = det (A) y N; = det (AJ para i = 1, 2, ... , n. La relaci6n fundamental entre los determinantes y Ia soluci6n del sistema es Ia siguiente. Teorema 7.10: El sistema precedente tiene soluci6n (mica si y solo si D 'I= 0, en cuyo caso Ia soluci6n viene dada por

x. = N,jD

DETERMINAN TES

301

Este teorema, demostrad o en el Problema 7.34, se conoce como «regia de C ramer>> para Ia resolucio n de sistemas de ecuaciones lineales. Hacemos enfasis en q ue el teorema solo se refiere a sistemas con el mismo numero de ecuaciones que de incognitas, y que unicamente da Ia solucion cuando D =1= 0. D e hecho , si D = 0, el teorema no nos dice si el sistema es o no compa tible. A pesar de ello, en el caso de un sistema ho mogeneo, dispo nemos del resultado, de gran utilidad, que se escribe a continuacion (y se demuestra en el Problema 7.65). Teorema 7.11:

EJ EM PLO 7.12.

El sistema homogeneo AX = 0 tiene solucion no nula si y solo si D =

Resolvemos, empleando determinantes:

JAI

= 0.

2x+ y - z=3 x + y+ z= l. { x - 2y - 3z = 4

Comenzamos calculand o el determinante D de Ia mat riz de los coeficientes:

2 D=

- 1 l l = - 6+ 1+ 2 + l + 4 + 3= 5 - 2 -3

Como D ¥< 0, el sistema tiene soluci6n unica. Para encont rar x , y y z en Ia matriz por los terminos consta ntes:

3 Nx = 1 4 -2 2

Ny

3

=

4

.

2

N= 1 La soluci6n unica es, pues,

X=

l

-2

-1 l - 3

N~,

NY y N= sustituimos los coeficientes de

= -9 + 4 + 2 + 4 + 6 + 3 =

10

-1 1 = -6+3-4+1-8+9= - 5 -3

3 1 =8+1 - 6-3+4 - 4=0 4

N xfD = 2, y = N ,/D = -I , z

= N=JD =

0.

7.10. SUBMATRICES. MENORES GENERALES. MENORES PRINCIPALES Sea A= (a;) una m a triz n-cuadrad a. Cada par de conj untos o rdenados i 1 , i 2 , ..• , i, de t indices de fila y j 1 , j 2 , .. . , j, de r indices de columna define Ia subma triz de A de o rden r :

302

ALGEBRA LINEAL

El determinante jAf•.f•· ···•!rJ se denomina un menor de A de orden r, y '• • ' :z• .. ·•'r ( -l)it +h+ ··· +i.+ h

I

+)2+ ···+ j, Ah· j2. ···· i• it. 12•

•• • , .,.

I

es el menor con signo correspondiente. (N6tese que un menor de orden n - 1 es un menor en el sentido de Ia Seccion 7.7, siendo el correspondiente menor con signo un cofactor.) Ademas, si i~ y j~ denotan, respectivamente, los indices de fila y columna restantes, ···· ~~-·I I Aij. it. •••• '•-r

es el menor complementario. EJEMPLO 7.13. Supongamos que A = (aii) es una matriz 5-cuadrada. Los subindices de fila 3 y 5 y los de columna I y 4 definen Ia submatriz

y el menor y menor con signo son, respectivamente, y

Los subindices de fila restantes son I , 2 y 4 y los de columna 2, 3 y 5, luego el meno r complementario de IAj:~l es

IAi:~:.il

=

all

an

ats

an

a23

a35

a42

a43

a4s

MENORES PRINCIPALES Un menor es principal si los indices de fila y de columna coinciden o, en otras palabras, si los elementos diagonales del menor proceden de Ia diagonal de Ia matriz. EJ EM PLO 7.14. Consideremos los men ores de una matriz 5-cuadrada A = (au):

Mt

=

al2

al4

azs

a4l

a44

a4s

as2

as4

ass

au

M2 =

au

au

all

a23

a2s

as1

a s3 ass

M3

=ian

as2

a2 s l ass

Aqui M 1 y M 3 son menores principales, porque todos sus elementos diagonales pertenecen a Ia diagonal de A. Sin embargo, M 2 no es principal, ya que a 23 pertenece a Ia diagonal de M 2 pero no a Ia de A.

Se pueden hacer, por orden, las siguientes observaciones. Nota 1: El signo de un menor principal es siempre fila y los identicos de columna es par.

+ 1,

puesto que Ia suma de los indices de

DETERMINANTES

Nota 2:

303

Un menor es principal si y solo si su menor complementario es tambien principal.

Nota 3: Una matriz real simetrica A es definida positiva si y solo si todos sus menores principales son positivos. -

7.11.

MATRICES POR BLOQUES Y DETERMINANTES

A continuaci6n se expone el resultado fundamental de esta secci6n. Teorema 7.12: Supongamos que M es una matriz triangular superior (inferior) por bloques, con bloques diagonales A1 , A 2 , .••• A~. Entonces

La demostraci6n aparece en el Problema 7.35.

EJEMPLO 7.15.

Hallemos IMI, siendo M =

2 3 : 4 7 8 I -1 5 I 3 2 1 -- - -- -- +----- -- --0 0 II 2 1 5 0 0

. 0 : 3 -1 0 : 5 2

Notese que M es una matriz triangula r superior por bloques. Evaluamos el determinante de cada bloque diagonal:

!= 1

10 + 3 = 13

2

5

3 -1 5 2

4 6

=

- 12 + 20

+ 30 + 25 -

16 - 18

=

29

Por tanto, IMI = (13)(29) = 377.

Nota:

Supongamos M = (

~ ~). donde A , B, C, D son matrices cuadradas. En general no

sera cierto IMI = IAIIDI - IBIICI- (Vease el Problema 7.77.)

7.12. . DETERMINANTES Y VOLUMEN Los determinantes estim ligados a las nociones de a rea y volumen como sigue. Sean u 1 , u2 , vectores en R" y S el paralelepipedo que determinan; esto es,

••. ,

u.

304

ALGEBRA LINEAL

(Cuando n = 2, S es un paralelogramo.) Denotemos par V(S) el volumen (o area, sin= 2) deS. En tal caso, V(S)

= valor absolute

de det (A)

donde A es la rna triz con filas u u u 2 , ... , u•. En general, V(S) = 0 si y solo si los vectores u 1 , u 2 , .. . , u. no constituyen un sistema de coordenadas de Rn, es decir, si y solo silos vectores son linealmente dependientes.

7.13.

MULTILINEALIDAD Y DETERMINANTES

Sean V un espacio vectorial sabre un cuerpo K y sf = V", esto es, d consiste en todas las n-plas

en las que los A; son vectores de V. Son pertinentes las definiciones: Definicion: Se dice que una funcion D: s1 ~ K es multilineal si es lineal en cada uno de sus argumentos; o sea: i)

Si A; = B

+ C, D(A) = D(... , B

ii)

+ C, ...) =

D(... , B, ...)

+ D(... , C, ...)

Si A; = kB con kEK, D(A) = D(... , kB, ...) = kD( ... , B, ...)

Tambien se utiliza Ia expresion n-lineal en Iugar de multilineal cuando hay n argumentos. Definicion: Se dice que una funcion D: dos elementos iguales; es decir,

sf~

K es alternada si D(A) = 0 siempre que A tenga

stempre que

A;= Ai, i -:f.j

Denotemos ahara por Mel conjunto de todas las matrices n-cuadradas A sabre un cuerpo K. Podemos ver A como una n-pla constituida por sus vectores fila A 1 , A 2 , ••. , An; esto es, podemos ver A de Ia forma A = (A 1 , A2 , ••• , A.). El siguiente resultado basico (demostrado en el Problema 7.36) es aplicable. (I denota Ia matriz identidad.) Teorema 7.13:

Existe una (mica funcion D: M i)

D es multilineal,

ii)

~

K tal que

D es alternada,

iii)

D(I) = 1

Esta funcion D no es otra que Ia funcion determinante; es decir, para toda matriz A EM, D(A) =

IAI.

DETERMINANTES

305

PROBLEMAS RESUELTOS

CALCULO DE DETERMINANTES DE ORDENES DOS Y TRES 7.1.

Evaluar el determinante de cada una de las matrices:

(3 -2) 4

1

.7.2.

~

!

1=

Hallar el determinante de

l _

5

l - 1

7.3.

7

t

+3

(t I=

5 -1

-215

3

(6)(3) _ (5)(2) = 18 _ 10 = 8,

14 7

4 ( -1

5 '

=

15 + 8

7.4.

1-~ =~1=-8-5=-13

23,

)

(t- 5)(c

+ 3) + 7 =

~~

t2

;kl

-

=

2t- 15 + 7 = t 2

2t- 8

-

0.

I

k = 2k2 - 4k = 0 o 2k(k - 2) = 0. De aqui k 2k k = 2, el determinante es nulo.

. Hacemos

- 2

t+3.

Determinar los valores de k para los que

lk4

=

.

-5)

=0

y k

= 2. 0 sea, si

k= 0 o

Evaluar los determinantes de las siguientes matrices:

a)

1 -2 3) ( 2

4 5

1

-1 ,

-2

Utilicense los diagramas de Ia Figura 7-1.

-2 a)

2

4 5

a1

b1

b)

a2 a3

b2 b3

3 -1 =(1)(4)(-2) +(-2)( -1)(1) +(3)(5)(2)-(1)(4)(3) - (5)(-1)(1)-(-2)( - 2)(2)= -2 = - 8 + 2 + 30 - 12 + 5 - 8 = 9

c1 c2 =a 1b 2 c 3 +b 1 c 2 a 3 +c 1 b3 a 2 -a3 b 2 c 1 -b3 c 2 a 1 - c 3 b 1 a 2 c3

306

7.5.

ALGEBRA LINEAL

Calcular el determinante

4) 6 7 . de(~ 3 9

1

Comenzamos por simplificar las entradas restando dos veces Ia primera fila a Ia segunda , esto es, efectuando -2R 1 + R1 --> R1 : 2

5 8

7.6.

3 6 9

4 7

2 1

3 0

8

9

4 -1

= 0- 24 + 36- 0 + 18 -

3 = 27

Hallar el determinante de A, donde: -1

-l

.l

c- 3

2

-6

-4 a)

Primero multiplicamos Ia primera fila por 6 y Ia segunda p or 4. Entonces

3

6 · 41 A I = 241 A I = 3

-6 2

-2 - 4 = 6 + 24

+ 24 + 4 - 48 + 18 = 28

- 4

*

Por tanto, IAI = = ~· (Observese que las multiplicaciones iniciales eliminaro n los denominad ores, simplificando Ia aritmetica.) b)

Sumamos Ia segunda columna a Ia primera, y despues Ia tercera a Ia segunda para conseguir ceros; es decir, efectuamos Cz + c l-+ c I y c3 + c2 - t c 2: l +2 0 IAI = t+2 t - 2

0 Ahora sacamos el factor t

1 1 t+4

t- 2

+ 2 d e Ia primera columna y el t - 2 de Ia segunda para llegar a 0

IAI =

(t

+ 2)(t -

2) 1

0

t

+4

Finalmente, restamos Ia primera columna a Ia tercera obteniendo

0

I A I = (t + 2)(t -

0 0

2) l

0

t

+4

= (t

+ 2)(t -

2)(t + 4)

DETERMINANTES

307

CALCULO DE DETERMINANTES DE ORDENES ARBITRARIOS

7.7. Calcular el determinante de

A

=

( - 22 1 - I

2R 3

5 - 3 2 -3 3 -2 4 -6

-2)

-5 2 . 3

Usamos a 31 = I como pivote y efectuamos las operaciones entre fi las -2R 3 + R 1 - R 2 y R 3 + R 4 - R4 :

IAI =

2 -2 I

- I

5 -3

·- 2

2

-5

- 2

2

- 3 3 - 6

4

0 0

- 1 .3 3 - 3

0

3

- 6 - 1

I - 2

- I 3 =+ 2 - 3 5

- 2 2

I -2

- 6 - I

2

5

+ R 1 --.

R1•

= I0 + 3 - 36 + 36 - 2 - 15 = - 4

A -(~

7.8. E'31uar el dete,m;nante de

- 1

l

- 3

0

Usamos a 2 1 = I como pi vote y efectuamos 2C 1

2 IAI =

1 3 4

- 1 - 3

4 0 7 6

.3 .

2 -1

0

- 2

-3

2

7.9. Ha lla r el determinante de C

=

-~)

2 -2

2 0

4 7 8

+ C 3 ..... C 3 :

3 - 2 = - (28 + 24 ·- 24 + 63 + 32 + 8) = -13 1 2

6 2

2

I

I

I

2 2

0 3 --- 1 - I

- 3

0 -- 2 --2

3

3 4

- I

2

Empezamos reduciend o ICI a un determinante de orden cuatro y luego a uno de o rden tres. Empleamos c 22 =I co mo pivote y efectuamos - 2R 2 + R 1 -+ R 1 • - R 2 + R 3 -. R 3 y R 2 + R 5 ..... R 5 :

ICJ =

2

0

-I

3

2 - 1

I

I

0

I 2

3

0

2

3

-· I

0

- 2

2

6

4

- I

5

3

- 5

- I

2

7

= 2I

2

·- I

- I

3 I

2 --2

0

3 2

0

3

- I

5

2

3

- I

4

+ 20 - I0 - 3 + 10 - 140 =

- I02

I

2 -2

4

- I

0

0 ·- 5 7

3 2

308

ALGEBRA LINEAL

7.10.

Hallar el determinante de cada una de las siguientes matrices:

a)

c)

a) b)

c)

7.11.

A~(! c~(~

6 0

-3 4

3 -3 0 0

7 0 5 2 4

7 5 0

-~).

b)

B~(~

6

-3 9 7

7 5

-3

_:)

9 , 7

8

-;)

Como A tiene una fila de ceros, det (A) = 0. Siendo iguales las columnas segunda y cuarta de 8, det (8) = 0. Dado que C es triangular, det (C) es igual al producto de las entradas diagonales. Por consiguiente, det (C)= - 120.

Describir e1 algoritmo de eliminaci6n gaussian a para el calculo del determinante de una matriz n-cuadrada A = (a;)· El algoritmo utiliza Ia eliminaci6n gaussiana para transformar A en una matriz triangular superior (cuyo determinante es el producto de las entradas diagonales). Como el algoritmo implica intercambios de lilas, con los consiguientes cambios de signo del determinante, debe seguirse Ia pista de tales cambios empleando para ello alguna variable, digamos SGN. El algoritmo tambien hace uso del mecanismo de «pivotam; esto es, el elemento de mayor valor absoluto sera el que se utilice como pivote. Exponemos el algoritmo a continuaci6n. · Paso 1.

Tomar SGN

Paso 2.

Hallar Ia entrada de Ia primera columna

=

0 [Con esto se inicializa Ia variable SGN.] ail

de mayor valor absoluto.

a)

Si a; 1 = 0, hacer det (A) = 0 y SALIR. b) Si i ¥- I, intercambiar las filas primea e i-esima y hacer SGN

=

SGN

+ I.

Paso 3. Usar a 11 como pivote y efectuar operaciones elementales entre filas de Ia forma kRq + RP __, RP para situar ceros bajo a 11 . Paso 4.

Repetir los Pasos 2 y 3 con Ia submatriz obtenida omitiendo Ia primera fila y columna.

Paso 5.

Continuar el proceso anterior hasta que A sea una matriz triangular superior.

Paso 6.

Hacer det (A)= ( -l)sGNa 11 a 22 ···a•• y SALIR.

N6tese que Ia operaci6n elemental entre filas de La forma kRP-> RP (que multiplica una fila por un escalar), permitida en el algoritmo de eliminaci6n gaussiana para un sistema de ecuaciones lineales, esta prohibida aqui, ya que modifica el valor del determinante.

7.12.

Utilizando el algoritmo de eliminaci6n gaussiana del Problema 7.11, hallar el determinante de

8 -3 10

DETERMINANTES

309

Primero reducimos Ia matriz A a una triangular superior sin perder de vista el numero de intercambios de filas:

15) (5

10 - 3

I

-

6

8

0 =

0.476

0.614

0 _872

0.157 0 _484

0.527 0.637

0.138 0. 799 .

0.312

0.555

0.841

0.448

I0.782

=I

15) (5

10

-~

2

0

10 2 0

~

-

15) -3 17

T

2 porque ha habid o dos intercambios de filas. Por tanto.

0.185

0.921

Evaluar I B I

-3

2

Ahora A esta forma triangular y SGN A= ( - I)SGN.5 ·2· (1f) = 85.

7.13.

\5)7 - (50

10

0

Multiplicamos Ia fila que contiene e1 pivote aij por l{a;i' de forma que el pivote sea igual a 1:

I B I = 0.921

0.782 0.872 0.312

0.201 0.157

0.517 0.527

0.484 0.555

0.637 0.841

0.123 0.196 0.680

0 = 0.921 0.309 0.492

0

0.667 0.138 0.799 0.448

I 0 0.921 0 0

=

0.201 0 0.309 0.492

I

0.6(J, -0.384 0.217 0.240

- 0.320 0.196 0.680

-0 3841 0 0.217 = 0.921(-·-0.384) 0.309 o.24o 1 , o.492 0

0.571 0.123 0.196 0.680

°·

309 0 265 · = 0.92 1( -0.384) 0.309 0.265 0.217 = 0.921( - 0 J84) 1 1= 0.492 0.751 0.240 °• 49 ~ 0·757 = 0.921(-0.384WO.I04) = - 0.037

COFACTORES. ADJUNTOS CLASICOS

7.14.

Considicese Ia matri' A

~ (~

l

- 3

- 4 0

7 6

3

--2

5

-~) -~

Determinar el cofactor del 7 en A, o .

sea, A 23 • Tenemos

- 3

2 A2 3= (-l)l+ 3

5

-4

4

0

3

-2

4

-2 6 - 3 7

5

2

,.., ,

..

=-I:

I

0

-2

4!I

--31= 21

"' - (0·-9 - 32-0 - 12 -8) = - (-61) = 61 El exponente 2 + 3 proviene de que 7 ocupa Ia segunda fila y Ia tercera columna.

310

ALGEBRA LINEAL

7.IS. Con,idire" Ia matriz B a) b)

Halla" a) IBl, b) adj B, c) B- ' u.ando adj B

IBI = 27 + 20 + 16 - 15 - 32 - 18 = -2. Tomamos Ia traspuesta de Ia matriz de cofactores.

3 41

12 41

12 31

9

5 9

5 8

18

I~

!I

= - 11

Como IBI #- 0,

1

.

1 -2 (

IBI

! -~)T

(-5

!I

-1~ ~I I~

-5

-2

2

=

~ ~ -~)

(

-

1

1 -3

1

-1 1) ( t t -t)

4 -2 = 1 - 3 1

B - 1 =-(adJ B)=-

7.16.

T

- I~ ~I I~ ~I -1~ ~I

adj B =

c)

!:).

~(~

-1

A=(: :).

Considerese una matriz 2-cuadrada arbitraria

-2

1

i -!

-!

a) Hallar adj

A. b) Mostrar

que adj (adj A) = A. a)

b)

=( d -c)T =( d -b)· d -b) -1-bl + IaI c I)T = (a ')T = (a b) = A . -c + ldl c

-lci)T -lbl +tal

adjA=(+Idl

adj (adj A) = adj (

a

-b

-c

= (

-

a

1-

a

b

d

d

DETERMINANTES Y ECUACIONES LINEALES. REGLA DE CRAMER 7.17.

Resolver el sistema que sigue empleando determinantes.

ax - 2by = c

donde ab #- 0

{ 3ax - 5by = 2c Comenzamos por calcular D =

a

-2bl

= -

I3a -5b tiene soluci6n (mica. A continuaci6n calculamos N

"

=

Entonces x

I

=

c 2c

-2bi = -

- 5b

Sbc

+ 4bc =

-be

5ab

y

+ 6ab = ab. Dado que D =

N

Y

-I

'1=.2m:·-3ac= -ac

a 2c 3a

N "/D = -bcjab = - cfa e y = N,/ D = -acfab = -cjb.

ab t= 0, el sistema

DETERM INANTES

7.18.

311

3y + 2x = z + 1 Resolver, utilizando determinantes: 3x + 2z = 8 - 5y . { 3z- 1 = x- 2y Primero colocamos las ecuaciones en Ia forma convencional:

2x + 3y - z = 1 3x + 5y + 2z = 8 x-2y-3z=-1 Calculamos el determinante D de Ia matriz de los coeficientes:

3 5 -2

2 D= 3

-1

2

= - 30 + 6 + 6 + 5 + 8 + 27 =

22

-3

Siendo D # 0 el sistema tiene solucion unica. Para calcular Nx, N , y N z sustituimos los coeficientes de cada incognita en Ia matriz de los coeficientes por los terminos constantes:

3 -1 2 5 -2 -J

1

N =

"

8 -1

2 N = 3

,

2 N• = 3

1 8

=-

15- 6

+ 16 - 5 + 4 + 72 = 66

- 1

=-

48 + 2 + 3 + 8 + 4 + 9 =

- 1

2 -3

3 5 -2

1 8 = -10 + 24 - 6 - 5 + 32 -1

-

22

+ 9 = 44

Por tanto,

N

N.. 66 X=- = -=3 D

7.19.

-22 22

N,

y=:.:.Z.=-- = - 1

D

22

44

z= - =-=2 D 22

Resolver el siguiente sistema mediante Ia regia de Cramer: 2x 1 x1 3x 1 2x 1

+ x 2 + 5x 3 + x 4 + x 2 - 3x 3 - 4x4 + 6x 2 - 2x 3 + x 4 + 2x 2 + 2x 3 - 3x4

=

5

= -1 = =

8 2

Calculamos

2 1 D= 3 2

1

6 2

5 -3

5 -4

- 2 2

-3

= - 120

-1 Nt= 8 2

5 1 6 2

- 3

-4

- 2

l

2

-3

= -240

7.20.

Utilizar determinantes para encontrar los valores de k para los que el sistema escrito a continuaci6n tiene soluci6n unica: kx + y+ z = 1 X+ ky + Z = 1 x+ y+kz=1 El sistema tiene soluci6 n (mica cuando D if. 0, donde D es el determinante de Ia matriz de los coeficientes. Calculamos k

D ""

1

1

k

1 k

= P + 1 + 1 - k - k - k = k 3 - 3k + 2 = (k - 1)2(k + 2)

Asi el sistema tiene soluci6n imica cuando (k - I)l(k + 2) if. 0, es decir, cuando k if. I y kif. - 2. (La eliminaci6n gaussiana indica que el sistema no tiene solucion para k = - 2, mientras que para k = 1 tiene un numero infinito de elias.)

DEMOSTRACION DE LOS TEOREMAS

7.21.

Demostrar el Teorema 7.1. Si A= (a;i), Ar = (b;i ), con bii = ai;· Poe consiguiente,

IAT I =

L (sgn a)blo(l)b2.,(2) · · · b..,(•l = L (sgn a)a.,(l ). la.,(2J, 2 · · · a.,<•l. • . ~ s..

~ E' s,.

Sea t = a- 1 • Segun el Problema 7.43, sgn De aqui

IATI =

1"

= sgn

a y

a.,111• 1a.,< 21• 2 ···

a.,<•>·•

= altll)a z, 121 .. . an<(n)·

L (sgn t)ahUlalrlll ... a.,,., tiES.

No obstante, al recorrer a todos los elementos de

IATI

=

litl.

s.,

tambien lo hace

T

= a - 1 • De este modo,

DETERMINANTES

7.22.

313

Demostrar el Teorema 7.3 a). Lo demostramos en el caso en que se intercambian dos columnas. Sea -r Ia trasposicion que intercambia los numeros correspondientes a las dos columnas de A en cuestion. Si A = (a;j) y B = (biJ), necesariamente biJ = a;,111• Para cualquier permutacion a tendremos, pues,

Asi pues,

L (sgn tr)btor = L (sgn a)ah~Uiaz,..cll · · · a.,..t•>

IBI = (J

•S,.

a t= Sa

Dado que Ia trasposicion -r es una permutacion impar, sgn ra que sgn tr = - sgn -ra, y

IBI =

- L

(sgn ra)att..(lla2,..121 · · ·

=

sgn r · sgn a= - sgn

tr,

de modo

a.,..1• 1

tsES,.

Pero al ir recorriendo

7.23.

a

todos los elementos de

s., tambien lo hace uJ, por lo que IBI =

-IAI.

Demostrar el Teorema 7.2. a) Cada termino en IAI contiene un factor de cada fila y por tanto uno de Ia fila de ceros. Siendo asi, cada termino de IAI es cero y por ende IAI = 0. b)

Supongamos que I + I I' 0 en K. Si intercambiamos dos lilas identicas de A, seguiremos teniendo Ia matriz A, luego, de acuerdo con el Problema 7.22, IAI = -IAI y por tanto IAI = 0. Supongamos a hora que I + I = 0 en K. En tal caso, sgn a= I para toda trES•. Como A tiene dos filas identicas, podemos agrupar los ti:rminos de A en pares de terminos iguales. Siendo nulo cada par, el determinante de A es cero.

c) Supongamos que A = (ail) es triangular inferior, o sea, que las entradas situadas sobre la diagonal son todas cero: au= 0 siempre que i <j. Consideremos un termino t del determinante de A: t = (sgn tr)a li, a 2;, ·· ·

a.;.

Supongamos i 1 I' I. Entonces I < i 1, de modo que ali, = 0; por consiguiente, t = 0. Esto es, todo termino para el que i 1 # I es nulo. Supongamos ahora i 1 = I pero i2 I' 2. En ese caso, 2 < i 2 y ali,= 0; por tanto, t = 0. Todo termino para el que i 1 t:- I o i 2 I' 2 es, pues, nulo. Similarmente, obtenemos que todo termino para el que i 1 t:- I o i 2 f' 2 o ··· o i. t:- n es nulo. En consecuencia, IAI = a 11 a22 · · · a•• = producto de los elementos diagonales.

7.24.

Demostrar el Teorema 7.3. a)

Demostrado en el Problema 7.22.

b) Si se multiplica por k Ia fila j-esima de A, todo termino en IAI aparecera multiplicado por k, de donde IBI = kiAI. Es decir, IB I

=

L (sgn a)a11,au

..

1 • • •

(ka Jl)

.. · a.~,= k L (sgn a)au,a 211

..

• • •

a.;.= k 1A

I

314

ALGEBRA LINEAL

c) Supongamos que se suma a Ia fila j-esima de A c veces Ia k-esima. Usando el simbolo A para denotar Ia j-esima posicion en un termino del determinante.

1B I =

L (sgn o)au,a

21, • • •

"

=

c L (sgn o-)ali,a212

"

----

(cat1,

+ a11)

• • •

···a;;: ··· a.

1•

a.1•

+ L (sgn a)a 11,a212 • • • ~ • • • s.1• "

La primera suma es e1 determinante de una ma triz cuyas filas k-
7.25. Demostrar el Lema 7.6. Consideremos las operaciones elementales entre las filas siguientes: i) multiplicar una fila por una constante k -I= 0; ii) intercambiar dos filas; iii) sumac a una fila un multiplo de o tra. Sean E 1 , E 2 y E 3 las matrices elementales asociadas, esto es, las obtenidas efectuando las operaciones precedentes, respectivamente, sobre Ia matriz identidad / . Poe el Problema 7.24, ~-

IEtl =kill = k Recordemos (Teorema 4.12) que E,A es identica a la matriz obtenida efectuando sobre A Ia operacion correspondiente. Asi, segun el Teorema 7.3,

y queda demostrado el lema.

7.26. Sup6ngase que B es equivalente por filas a una matriz cuadrada A. Prot;ar que IBI = 0 si y solo si IAI = 0. De acuerdo con el Teorema 7.3, el efecto de una operaci6n elemental entre filas es cambiar el signo del determinante o multiplicar este por un escalar no nulo. Por consiguiente, IBI = 0 si y solo si IAI = 0.

7.27.

Demostrar el Teorema 7.4. La demostraci6n se basa en el algoritmo de eliminaci6n gaussiana. Si A es invertible, es equiva lente por filas a I. Pero Ill -I= 0, luego, segun el Problema 7.26, IAI -I= 0. Si A no es invertible, es equivalente por filas a una matriz con una fila nula, por lo que det (A)= 0. Entonces i) y iii) son equivalentes. Si AX = 0 solo tiene Ia solucion X = 0, A es necesariamente equivalente por filas a I y por ende invertible. Reciprocamente, si A es inver tible con in versa A- 1 ,

es Ia tmica soluci6n de A X = 0. De este modo, i) y ii) son equivalentes.

7.28. Demostrar el Teorema 7.5. Si A es singular, AB tambien lo es y IABI = 0 = IAIIBI. Por otra parte, si A es no singular, A = E • ... E 2 E 1 , producto de matrices elementales. Haciendo uso del Lema 7.6 y de Ia ind ucci6n obtenemos

DETERMINANTES

315

7.29. Sup6ngase que P es invertible. Probar que IP- 1 1= IPI- 1 • p- 1 p =I. De aqui I=

III = IP- 1 PI = IP- 1IIPI y asi IP- 1 1= IPI- 1 .

7.30. Demostrar el Teorema 7.7. Dado que A y B son similares, existe una matriz invertible P tal que B = p - 1 AP. Por el problema precedente, IBI = IP- 1 API = IP- 1 11AIIPI = IAIIP-'IIPI = IAI. Hacemos notar que aunque las matrices p - 1 y A pueden no conmutar, sus determinantes IP- 1 1 y IAI si lo hacen, por ser escalares en el cuerpo K.

7.31. Si A= (au), demostrar que de aii.

IAI = aaAa + ai2 A;2 + ... + a;.A;•• donde

A;j es el cofactor

Cada termino en IAI contiene una y solo una entrada de Ia i-6sima fila (ail, a; 2 , Por tanto, podemos escribir IAI de Ia forma

•••

,a;.) de A.

(N6tese que A;j es una suma de terminos sin entradas de Ia i-esima fila de A.) El teorema quedara demostrado si probamos que

siendo M ij Ia matriz obtenida suprimiendo Ia fila y Ia columna que contienen Ia entrada aii · (Historicamente, Ia expresi6n A;j se definia como el cofactor de aii• por lo que el teorema se reduce a mostrar que ambas definiciones de cofactor son equivalentes.) Empecemos considerando e1 caso i = n, j = n. Entonces Ia suma de terminos en IAI que contienen a•• es

a••

A:. =a•• L (sgn

a)ala(l)ala(l) .••

a. - 1. a(n -

1)

" donde se sum a sobre todas las permutaciones a e s. para las que a(n) = n. No obstante, esto es eqU:ivalente (demuestrese) a sumar sobre todas las permutaciones de {1, ... , n- 1}. De este modo,

A:.= IM••I = ( -

I)"+niM.J

Consideremos ahora unos i y j cualesquiera. Intercambiamos Ia fila i-esima con cada una de las subsiguientes hasta llevarla a Ia ultima posicion y hacemos to mismo con Ia columna j-esima y las subsiguientes. Adviertase que el determinante IMul no se ve afectado, puesto que los intercambios no alteran Ia posicion relativa de las filas y columnas restantes. Sin embargo, e1 «signo» de IAI y de At varia n- i y despues n- j veces. En consecuencia,

7.32.

= (a;) y B Ia matriz obtenida de A sustituyendo su fila i-esima por el vector fila (bit• ... , b;.). Probar que

Sean A

Probar ademas que para j # i, y

316

ALGEBRA LINEAL

Sea B

=

(bii). De acuerdo con el Teorema 7.8,

Como Bij no depende de Ia fila i-esima de B, Bii

= Aii para j = 1, ... , n. Por consiguiente,

Sea ahora A' Ia matriz obtenida de A sustituyendo su fila i-esima por Ia j-esima. Como A' tiene dos filas identicas, IA'I = 0. Asi, segun el resultado anterior,

7.33.

Demostrar el Teorema 7.9. Sean A

=

(a;) y A· (adj A)

=

(bii). La i-esima fila de A es

[I] Siendo adj A Ia traspuesta de Ia matriz de cofactores, su j-esima columna es Ia traspuesta de los cofactores de Ia j-esima fila de A: (2)

(Ail• Ail• ... , Ajn)T

Ahora bien, b;i, Ia entrada ij de A· (adj A), se obtiene multiplicando [l] y [2]:

Por el Teorema 7.8 y el Problema 7.32, b .. = '1

{IAI 0

si i =j si if=. j

De acuerdo con esto, A· (adj A) es Ia matriz diagonal con cada elemento diagonal igual a IAI. Dicho de otro modo, A· (adj A)= !All. De forma similar, (adj A)· A = !All.

7.34.

Demostrar el Teorema 7.10. Por resultados previos sabemos que AX = B tiene solucion (mica si y solo si A es invertible, lo que se da, a su vez, si y solo si D = IAI f=. 0. Supongamos D f=. 0. Segun el Teorema 7.9, A-t = (1/D)(adj A). Multiplicando AX = B por A- 1 conseguimos X= A- 1 AX = (1/D)(adj A)B

Notese que Ia i-esima fila de (l /D)(adj A) es (1/D)(A 1 ;, A 2 ;, tendremos, por [I],

[I) ... ,

A.;). Si B = (b 1 , b 2 ,

... ,

b.f,

No obstante, como en el Problema 7.32, b 1 Au + b2 Al; + ... + b.A.; = N;, que es el determinante de Ia matriz obtenida sustituyendo Ia i-esima fila de A por el vector columna B. Asi X;= (1 / D)N;, como se pedia.

DETERMINANTES

317

7.35. Demostrar el Teorema 7.12. Solo es necesario probar el teorema para n = 2, esto es, cuando M es una matriz cuadrada por

= (~

bloques de Ia forma M

~). La demostraci6n general se deriva facilmente por inducci6n.

Supongamos que A= (aiJ) es r-cuadrada, B = (b;1), s-cuadrada y M = (mij), n-cuadrada, con + s. Por definicion,

n= r

det M

I

=

(sgn a)m 1.,111 m2.,121 · · · m•.,1• 1

tiES,. .

Si i > r y j ~ r, entonces m11 = 0, de modo que solo es necesario considerar aquellas permutaciones a tales que

a{r + 1, r

+ 2, ... , r + s} =

Sean a 1 (k) = a(k) para k :S r (sgn a)m 1.,111 m2.,121

···

+ 1, r + 2, ... , r + s} y u 2 (k) = a(r + k)- r para

y

{r

a{l, 2, ... , r}

=

{l, 2, ... , r}

k :S s. Entonces

mii<J(•l = (sgn a 1)a1.,111 )a:z.,,(:z) · · · a...,1(r)(sgn O':z)bt.,1(t)b:z.,1(l)

·• •

b...•<•l

lo que implica det M = (det A) (det B).

7.36. Demostrar el Teorema 7.13. Sea D Ia funcion determinante: D(A) = IAI. Debemos pro bar que D satisface i), ii) y iii) y que es Ia uniC!l funci6n que lo hace. De acuerdo con el Teorem a 7 .2, D satisface ii) y iii); por consiguiente, solo necesitamos mostrar que es multilineal. Supongamos que Ia fila i-esima de A = (a;) es de Ia forma (bu + C11 , b, 2 + c,2 , ••• , b,. + c,.). En tal caso, D(A) = D(A~t ... , B, =

I

s.

+ C 1,

(sgn a)al.,llJ •..

••• ,

a,_

=I (sgn a)al
AJ = I, a(l-l~b,,
n · · · "-<•> +I (sgn a)a 1 ~ 11

1.,1

s.

+ c,.,,,J ... "-<•> = ·••

s.

= D(A~t . .. , Bi> . .. , AJ + D(A 1 ,

•.• ,

c 1.,111

···

a..,1,.1 =

C;. ... , AJ

Asimismo, segun el Teorema 7.3 b), D(A1 ,

.• .,

kAi> ... , AJ

= kD(A 1, ••• , A,, ... , A.)

Asi pues, D es multilineal, es decir, satisface i). Probemos ahora Ia unicidad de D. Supongamos que D satisface i), ii) y iii). Si {e 1 , base usual de K", por iii}, D(e 1 , e 2 , ••• , e.)= D(I) = I. Usando ii) tenemos tam bien D(e;,, e1,,

••• ,

e1.) = sgn a

.••

, e.} es Ia [I]

Supongamos ahora A= (a 1) . Observamos que Ia fila k-esima Ak de A es de modo que D(A) = D(a11e 1

+ · · · + a~oe., a 21 e 1 + · · · + a:z,.e,., ... , a,.se 1 + ···+ a .. e.)

Utilizando Ia multilinealidad de D podemos escribir D(A) como una suma de terminos de Ia forma D(A) =

I

=I

D(a 11,e1,, a212 e12 , (ali,a 211 · • •

••• ,

a.1• eJ =

a,.JD(e1,, e;,, ... , e1J

[2]

318

ALGEBRA LINEAL

donde Ia suma se extiende a todas las sucesiones i 1i 2 ··· i. con ikE { ! , .. . , n}. Si dos de los indices son iguales. digamos ii = ik pero j -:1- k, por ii),

En consecuencia, solo es necesario efectuar Ia suma en (2] sobre todas las permutaciones Haciendo uso de [I] tenemos, fina lmente,

11

= i 1i2

• ..

i•.

=I (sgn u)aH,ali, · · · a.i. " Por tanto, D es Ia funcion determina nte y queda asi demos trado el teorema.

PERMUTAClONES

7.37.

Determinar Ia paridad de Metodo 1.

(J

= 542163.

Queremos obtener el numero de pares (i, j) para los que i > j e i precede a j en a. Hay: 3 2 3 I 0 0

numeros (5, 4 y 2) mayores que I y precediendolo, numeros (5 y 4) mayores que 2 y precediendolo, numeros (5, 4 y 6) mayores que 3 y precediendolo, numero (5) mayor que 4 y precediendo lo, numeros mayores que 5 y precediendolo, numeros mayores que 6 y precediendolo.

Como 3 + 2

+3+ I + 0+0=

Metodo 2.

Llevamos I 'a Ia primera posicion como sigue:

9 es impar, a es una permutacion impar y asi sgn

~63

a

5 4 2 6 3

a

125463

CJ

=

- I.

Llevamos 2 a Ia segunda posicion:

.q6 3 Llevamos 3· a Ia tercera posicion:

12~

a

2 3

5 4 6

a

2

4

Llevamos 4 a Ia cuarta posicion:

1 2 3fs®6

3

5

6

Notese que 5 y 6 estan en las posiciones «correctas». Contamos los numeros sobre los que se ha «saltado»: 3 + 2 + 3 + I = 9. Dado que 9 es impa r, 11 es una permutaci6 n impar. (N ota: Este metodo eoincide esencialmente con eJ anterior.)

DETERMINANTES

319

Metodo 3. Un intercambio de dos numeros en una permutaci6n es equivalente a muti plicar esta por una trasposici6n. Transformemos, pues, a en Ia permutaci6n identidad por medio de trasposiciones, tales como,

Habiendose empleado un numero impar, 5, de trasposiciones (y puesto que impar x impar = impar), es una permutaci6n impar.

<J

7.38.

Sean

(J

= 24513

y -r = 41352 permutaciones en S 5 . Hallar:

a) La permutaci6n compuesta

b)

t•(J,

Recordemos que a = 24513 y r

=

(Jo<:,

(J -

1

.

41352 son abreviaturas de

(1 2 3 4 5)

=

a

c)

y

24513

lo q ue significa a(l) = 2

a(2) = 4

u(3) = 5

=4

r(2) = 1

•(3)

u(4)

=3

1

y

u(5)

r(4) = 5

y

t (5) = 2

=

y r(l)

=3

a) · El efecto de a seguida de r sobre I, 2, ... , 5 es: a

I

2

~

~

2

1

t

Siendo asi, r • a = ( b)

~

2

3 4 2 4

5

El efecto de r seguida de

<J

~} 0

3 4 ~ ~ 4 5 1 ~ l ~ 5 2 4

f o(J

a

r = 12534.

~

3

= 15243.

3 4

5

~ 4

~

~

l

l

t

5 2

l

l

3 ~

1 2 5

3 4

1 2

<J.

~

3

so·bre I, 2, ... , 5 es:

t

Por tanto,

5

~

~

320

ALGEBRA LINEAL

c)

Por definicion, a- 1 (j) = k si y solo si a(k) =j, luego - 1

=

u 7.39.

(2 4 5 1 53) = (1 2 35 4 5) 1 2 3 4

4

1

2

0

3

(J-l

= 41523

Considerese cualquier permutaci6n a =j 1 j 2 -~- jn. Probar que para cada inversion (i, k) en a existe una pareja (i*, k*) tal que i* < k*

a(i*) > a(k*)

y

[1]

y vicev~rsa. De este modo, a es par o impar segun haya un numero par o impar de parejas que satisfagan [1]. Elegimos i* y k* de forma que cr(f•) = i y cr(k*) = k. En tal caso, i > k si y solo si a(i*) > (J(k* ), e i precede a ken (J si y solo si i* < k*.

7.40.

Considerese el polinomio g = g(x 1 ,

... ,

xn) =

n

(x; -

X j).

Escribir explicitamente

i<j

El simboto

IT se ernplea para un producto de terminos de Ia misma manera que et simbolo I

se usa para una suma de terminos. Esto es,

n (X; -

xj)

significa el producto de todos los terminos

i<.j

(x;- x) para lqs que i <j. Por consiguiente,

7.41.

Sea a una permutaci6n arbitraria.. Para el polinomio precedente g del Problema 7.40, (xa(i)- Xa(j)). Probar que definase a(g) =

n

i<j

a(g)

={

g

si a es par

- g si a es impar

De acuerdo con ello, a(g) = (sgn a)g. Como a es biyectiva, a(g)

=IT

(x"(i) -

xo(jl) =

i <j

IT

(x; -

x)

i<j gi> j

Siendo asi, a(g) = g o a(g) = -g segun haya un numero par o impar de terminos de Ia forma (x1 - x 1) con i > j . Notese que por cada pareja (i, j) para Ia que i<j

y

a(i) > a(j)

[I)

hay un termino (xa!i)- xa<Jl) en a(g) para el cual a(i) > a(j). Dado que a es par si y solo si existe un numero par de parejas que satisfacen [1], tenemos a(g) = g si y solo si (J es par; de aqui a(g) = - g si y solo si a es impar.

7.42.

Sean a, r E Sn. Pro bar que sgn (r • a) = (sgn r)(sgn o-). De este modo, el producto ·de dos permutaciones pares o dos impares es par, mientras que el producto de una permutaci6n par y una impar es impar.

DETERMINANTES

321

Haciendo uso del Problema 7.41 tenemos sgn (t

o

a)g

= (t o a)(g) = t(q(g)) = t((sgn a)g) = (sgn T)(sgn

a)g

De acuerdo con esto, sgn (-r • a)= (sgn -r)(sgn a).

7.43.

Considerese Ia perrnutaci6n a =j 1j 2 Iares aii, donde a- 1 = k 1 k 2

· ·•

·•·

j". Probar que sgn a- 1

= sgn a y que, para esca-

k".

Sabemos que a= e, Ia permutaci6n identidad. Siendo e par, a - 1 y a son ambas pares o ambas impares. Por consiguiente, sgn a- 1 = sgn a. Como <J = j d 1 · · · j. es una permutaci6n, a j,t ai,2 · · · ai•• = au, a 1k, · · · a.k.· Entonces k1 , k 1 , .. . , k. tienen Ia propiedad de que 1 •<J

Sea-r= k 1 k 1

·••

k•. Entonces para i = I, ... , n, (a

Asi

<J • t

= c:,

o

T)(i) = a(t(i)) = a(k1) = i

Ia permutaci6n identidad, luego

t

= a- 1 .

PROBLEMAS VA.RIOS

+c 7.44. Sin desarrollar el deterrninante, mostrar que 1 b c + a 1 a b 1

c

= 0.

a+ b

Sumamos Ia segunda columna a Ia tercera y sacamos el factor comun de esta ultima, lo que nos conduce a a b+c b c +a

1

c a+ b

a a+b+c 1 a 1 b a + b + c "" (a + b + c) l b 1 = c a+b+c 1 c 1

(a + b

+ c)(O) =

0

(Utilizamos el hecho de que el determinante de una matriz con dos columnas identicas es nulo.)

7.45.

Pro bar que el producto de diferencias g(xp ... , xn) del Problema 7.40 puede representarse mediante el determinance de Vandermonde de x 1 , x 2 , ... , Xn - t • x definido segun: 1

1

Xt

V..- 1 (x) =

x~

x:1 I

•-I x.-t

Este es un polinomio en x de grado n - I, cuyas raices son x 1, x 1 , ... , x. _,; mas aim, el coeliciente dominante (el cofactor de x"- 1 ) es igual a V, _2 (x._ 1). Tendremos, pues, segim un resultado del algebra,

322

ALGEBRA LINEAL

de modo que, por recurrencia,

De lo anterior se sigue que

n

V..-l(x.) =

n

(x,- x) = ( -1)"1"- l)/l

(x, - x)

1 :S; i <.js_ PI

Asi pues, g(x I•

7.46.

... ,

x.) = ( - l)•(n- 1 )12 v.-1 (x.).

Hallar el volumen V(S) del paralelepipedo S e n R 3 determinado por los vectores u 1 = (1, 2, 4), u2 = (2, 1, -3) y u 3 = (5, 7, 9). 2

4

- 3 = 9 - 30 + 56 - 20 + 21 - 36 7 9 5 V(S) = 0 o, en otras palabras, u 1 , u2 y u 3 yacen en un plano. Evaluamos el determinante 2

7.47.

=

0. De este modo.

Hallar el volumen V(S) del paralelepipedo S en R4 determinado por los vectores = ( -1 , 1, 0, 2), u 3 = (3, 2, 3, - 1) y u4 = (1 , -2, 2, 3).

u1 = (2, -1, 4, -3), u2

Evaluamos el siguiente determinante, usando u22 como pivote y efectuando C 2 -2C2 + C4--> C4: 2

-I

4

2

0 3 2

-I

3

-2

-3 2

-1 5 -I

-I

3 =

De aqui V(S)

=

2 -2

4

-I

0 3

0

-5

2

7

4

-I

5

3

-5

-I

2

7

21 + 20 - I0 - 3 + 10 - 140 =

- I 02

102.

3 4

0

0

2 5 0 0 7.48.

Calcular det (M), donde M =

0 9 2 0 0 5 0 6 0 0 4 3

Partirnos M en una matriz triangular (inferior) por bloques como sigue: 3 4 M =

1 I

0

1 I

0

0

2 s:o:o 0 -0 -9: l -:-0--0

-o--s:o-:_6__7 I

I

0 01413 4

+ C 1 --> C 1 y

DETERMINANTES

323

Evaluamos el determinante de cada bloque diagonal:

1 ~ :1=15-8=7 Por consiguiente, IMI

7.49.

121 = 2

=7 · 2 · 3 = 42.

Encontrar el menor, menor con signo y menor complementario de 0 2

-4

Ai: ~. siendo

-~)

4

-2 -3 - 5 - 1

Los subindices de fila son I y 3, y los de columna, 2 y 3; por tanto, e1 menor es

y el menor con signo, ( -1) 1 +3+2+l I

AU I = -( -4) = 4

Los subindices de fila que faltan son 2 y 4, y los de columna, I y 4. El menor complementario es, pues,

7.50.

Sea. A = (a;) una matriz 3-cuadrada. Describir Ia suma Sk de los menores principales de 6rdenes a) k = l , b) k = 2, c) k = 3. a) Los menores principales de orden uno son los elementos diagonales, luego S1 =a 11 +a22 +a33 =tr A, Ia traza de A. b)

Los menores principales de orden dos son los cofactores de los elementos diagonales. Asi pues, S 2 = A 11 + A 22 + A 33 , siendo Aii el cofactor de aii. c) Hay unicame nte un menor principal de orden tres, el determinante de A. De este modo, S 3 = det (A).

7.51.

Hallar el numero Nk y Ia suma Sk de todos los menores principales de orden a) k = 1, b)k = 2, c) k = 3 y d) k = 4 de Ia matriz

. (-!

1

0

0 5 3

3

- 2

1

A=

3 2

-~) -2 4

Cada subconjunto (no vacio) de Ia diagonal (o, equivalentemente, cada subconjunto no vacio de {1, 2, 3, 4}) determina un menor principal de A , y Nk

=

(kn) = k!(n n!- k)! de ellos son de orden k.

324

ALGEBRA LINEAL

st = 111 + 121 + 131 + 141 = 1 + 2 + 3 + 4 = 10

sl

=I

1113 + 1 -21= 4

-41

4

= 14 + 3 + 7 + 6 + 10 + 14 = 54 c)

NJ = G) = 4 y 3

sl =

2

-4

·0

0

3 -1 5 + -4 2 1 + 1 3 3 -2 4 3

0

-1

3

-2

2

+

4

0

5 1 3 -2

-2

4

=57+ 65 + 22 +54= 198 d) N 4

7.52.

=

1 y S4 = det(A) = 378.

Sea Vel espacio vectorial de las matrices 2 por 2

M= (ac b) sobre R. D eterminar si d -

D : V--. R es o no 2-lineal (con respecta a las filas), donde: a) D(M) =a + d, b) D(M) = ad. a) N o. Por ejemplo, supongamos A D(A, B)=

DG

~) = 4

=

(l , l) y B = (3, 3). Entonces

y

D(ZA, B) =

y

Por ta nto, para todo par de escalares s, t e R,

0 sea, D es lineal con respecto a Ia primera fila.

Ademas, y

~~ ~) =

5 "# 2D(A, B)

DETERMINANTES

325

luego para todo par de escalares s, t E R ,

Es decir, D es lineal con respecto a Ia segunda fila. Las dos condiciones de linealidad implican que D es 2-lineal.

7.53. Sea D una funci6n 2-lineal, alternada. Mostrar que D(A, B) = -D(B, A). Con mayor generalidad, probar que si D es multilineal y alternada, D(... , A, ... , B, ...) = -D(... , B, . .. , A, . ..)

esto es, el signo varia cada vez que se intercambian dos variables.

+ B, A + B) = 0. Ademas, como D es multilineal, 0 = D(A + B, A + B) = D(A, A + B) + D(B, A + B) = = D(A, A) + D(A, B) + D(B, A) + D(B, B)

Siendo D alternada, D(A

Pero D(A, A) = 0 y D(B, B)

= 0. De aqui

0 = D(A, B) + D(B, A)

D(A, B) = - D(B, A)

0

De forma similar, 0

= D(... , A + B, ... , A + B, ...) = = D(... , A, ... , A, ...)+ D(... , A, ... , B, ...) + D(.•. , B, ... ,A, ...)+ D(... , B, ... , B, ...)= = D(... , A, ... , B, ....)

+ D(... , B, ... , A, ...)

y asi D ( ... , A, ... , B, ... } = -D(.. . , B, ... , A, ... ).

PROBLEMAS SUPLEMENTARIOS

CALCULO DE DETERMINANTES 7.54. Calcular el determinante de cada matriz:

a)

7.55.

(2 I5 0 1

-3

-!).

b)

(' -25 -4) 2 . 0 6

c)

-1 • 1

-1 6 -3 4" 1

(-2

-~)·

~>1

(:

Evaluar el deterrninante de cada matriz:

a)

r-2 1

0

4 t

+1 0

')

-2 t- 4 •

b)

c· -3

-6

3 t

+s 6

-3)

-3 y-4 '

c)

C'

- 1

7

t-5

6

- 6

6 2 -2

.u

:)

326 7.56.

7.57.

7.58.

ALGEBRA LINEA L

Pa ra cada una de las mat rices del P roblema 7.55, dcterminar aquellos valores de t para los que el determina nte es nulo.

Evol"" ol dot"m;"'"'' de "d' ma";"

a)(~

2

2

0

- 2

- 1

l

- 3

0

3

-i}

b)

(1

l

0 - 1

2

4 - 1

-~)

3 . 1

E valuar cada uno de los determina ntes:

1 2 - 1 2 - 1 a)

1 1 3

3 5 - 2

0 2

-2

3

2 -3

-1' 4

b)

2 0

0

0

0 0

0

-2

-1

5 2

3 4

1

3

9

7

5 2

4

2

2

3 '

6 3

2

c)

2

3

5

4

0

0 0 0

3 6 0

0

0

0

4 2 5

5

7 2

4 3

COFACTORES. ADJUNTOS CLASICOS. INVERSAS

7.59.

Sea

A=(~ ~ ~)· l

H alla r: a) adj A. b) A -

1

.

1 1

7.60.

H a lla r el adjunto chisico de cada una de las matrices del Pro blema 7.57.

7.61.

Dete rminar !a matriz 2 por 2 ge nera l A para Ia q ue A = adj A.

7.62.

Supo ngase que A es diagonal y B tria ngular; por ejem plo,

A =(~ ; ~) 0

0

y

... a,.

B=

(~ ~: ..

0

0



...

:::)

b.

a)

Probar que a dj A es diagonal y adj B triangula r.

b)

M ostra r q ue B es in vertible si y solo si todos los b1 'I 0, de modo que A es inverti ble si y solo si todos los a1 'I 0. P ro ba r que las inversas de A y B (si existen) son de Ia forma

c)

A- •

=(a~' •~'....•....~..)·, 0

0

...

a;; •

0 sea, los elementos diagonales de A - • y 8- 1 son los inversos de los elementos diagonales correspondientes de A y B .

DETERMINANTES

327

DETERMINANTES Y ECUACIONES LINEALES 7.6.3.

Resolver por determinantes:

a)

3x + Sy = 8' { 4x - 2y = 1

7.64.

Resolver por determinantes:

a)

2x - 5y + 2z = 7 x+2y-4z=3, { 3x -4y - 6z = 5

b) {2x- 3y

=

- I_

4x

+ 7y =-I

b)

+ 3 = y + 3x x - 3z = 2y + 1 . { 3y + z = 2 -2x 2z

7.65. Demostrar el Teorema 7.11.

PERMUTAClONES 7.66.

Determinar Ia paridad de las permutaciones de S 5 : a) a = 32154, b) r = 13524, c) n = 42531.

7.67.

Para las permutaciones u, r y rr del Problema 7.66,hallar:a) r•u, b) rr•u, c) u- 1 , d) r- 1 .

7.68.

Sea rES•. Probar que r•a recorre

7.69.

Sup6ngase que aES. tiene Ia propiedad de que a(n)=n. Definase a*ES, _ 1 por a*(x) = a(x). a) Probar que sgn (J* = sgn a. b) Probar que a! recorrer lJ s•. con lJ(n) = n, u* recorre s._1 ; esto es, Sn-l = {cr*:a ES11, a(n) = n}.

7.70.

Considerese una permutaci6n (J = j 1 j 2 •·· j •. Sean {e;} Ia base usual de K" y A Ia matriz cuya lila i-esima es ej,• por ejemplo, A= (ei.• ei,• ... , eiJ. Mostrar que IAI = sgn a.

s. a

medida que lo hace a; es decir,

s. =

{r•a:aES.}.

PROBLEMAS VARIOS 7.71.

Hallar el volumen V(S) del paralelepipedo S en R 3 determinado por los vectores: a) U1 = (1, 2, - 3), u 2 = (3, 4, -1), u3

7.72.

= (2, -1, 5);

= (1, 1, 3), u 2

= (1,

-2, -4), u 3 = (4, 1, 2).

Hallar el volumen V(S) del paralelepipedo S en R 4 determinado por los vectores: u1

=(1, -2, 5, -1)

u,

=

(2, 1, -2, 1)

7.73. Encontrar el menor M 1 , el menor con signo

a)

7.74.

b) u 1

1 1 A= 3 ( 4

Para k

a)

=

2 0 -1 -3

M2

3 -2 2 0

:) ,

b)

A=

-1

u 3 = (3, 0, 1, -2)

u4

= (1, -1, 4, -l)

y el menor complementario M 3 de A~::. donde:

(~ =: -~ :) 3

0

5 -2

1, 2, 3, hallar Ia suma Sk de los menores principales de orden k de:

1 A= 2 (

3 -4

5 - 2

b)

B

=

1

5

2

6

(3

- 2

-4)

1 • 0

c)

C =

l

-4

2

1

( 4 -7

328 7.75.

ALGEBRA LINEAL

Para k = I, 2, 3, 4, hallar Ia suma Sk de los menores principales de orden k de:

-~ -~

A=(i 4 7.76.

0

Sea A una matriz n-cuadrada. Demostrar que lkAI

-:)

-1 . -3 =

k"IA[.

7.77. Sean A, B, C y D matrices n-cuadradas que conmutan. Considerese Ia matriz por bloques 2n-cuadrada M

= (~

~). Demostrar que [M[ = IAIIDI -

IBIICI- Pro bar que el resultado puede no

ser cierto si las matrices no conmutan.

±I.

7.78.

Supongase que A es ortogonal, es decir, AT A= I. Probar que det (A)=

7.79.

Sea Vel espacio de las matrices 2 x 2 M = (: : ) sabre R. Determinar si D : V _, R es o no 2-lineal (con respecto a las filas), donde: a) D(M) = ac - bd, b) D(M) = ab- cd, c) D(M) = 0, d) D(M) = I.

7.80.

Sea Vel espacio de las matrices m-cuadradas vistas como m-plas de vectores fila. Supongase que D: v .... K es m-lineal y alternada. Mostrar que si A 1 , A 2 , ••• ,A.. son linealmente dependientes, necesariamente D(A 1 , ••. , A.,)= 0.

7.81. Sea Vel espacio de las matrices m-cuadradas (como arriba) y supongase D: V -. K. Probar que Ia siguiente condici6n mas debit equivale a que D sea alternada:

D(A 1, 7.82.

A2 ,

•.. ,A.)=

0

siempre que A;=

A1+ 1 para algun

I

Sea Vel espacio de las matrices n-cuadradas so bre K. Supongase que BE Ves invertible y -por tanto det (B) #- 0. Delinase D: V .... K por D(A) = det (AB)f det (B), donde A E V, de modo que

D(A 1 , A 2 , •• , A.)= det (A 1B,

A2 B, ... , A.B)fdet (B)

donde A1 es Ia fila i-esima de A y asi A 1B es Ia de AB. Probar que D es multilineal y alternada y que D(J) = 1. (Este metoda se utiliza en algunos textos para demostrar que lAB! = IAIIB[.) 7.83.

Sea A una matriz n-cuadrada. El rango par determinantes de A es el orden de Ia mayor submatriz de A (obtenida suprimiendo filas y columnas de Ia misma) cuyo determinante no es nulo. Mostrar que el rango por determinantes de A es igual a su rango, o sea, al numero maximo de filas (o columnas) linealmente independientes.

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS 7.54. a) 21,

7.55. .a) (t 7.56. a)

b)

-11,

+ 2Xt - 3Xt - 4),

3, 4, - 2;

c)

100, b) (l

b) 4, - 2;

d)

+ 2)2 (t -

o. 4),

c) 4, -2.

c)

(l

+ 2)2(t- 4).

DETERMINA NTES

7.57. a)

- 131,

7..58.. a)

-12,

7.59.

•djA+~

-42,

0 -1 1

-29 -38 51 1

( - 16 -30 7.60. a) -8 -13

7.61.

- 55.

b) b)

-2)

A-

6 ' -5

-26 -16 - 13 28

r,

- 468 .

c)

1

=

-2)

29 1 •

-1

-~)

( -44 21

-14 11

-29 17

7

0

3 -2

b)

- 18

-17 33 13 -19

-to) 11 21 - 18

A = (~ ~)

7.63. a)

X=*' y =it ;

7.64.

x = 5, y = I, z = I.

a)

b)

X= -fJ, Y = n. b)

Como D

=

0, el sistema no puede resolverse por determinantes.

7.66. sgn u = 1, sgn t = - I, sgn 1t = -1 . 7.67. a)

"t

0

(]

7.71. a) 30, 7.72.

329

= 53142,

b)

b)

1[ 0

0"

c) u - 1 = 32154,

= 52413,

o.

17 . .

7.73. a)

- 3, -3, - 1;

b)

-23, - 23, -10.

7.74. a)

-2, -17, 73 ;

b)

7, 10, 105;

c)

7.75. S 1 = -6, S2 = 13, S 3 = 62, S4 = -219. 7.79. a)

Si,

b)

no,

c) si,

d)

no.

13, 54, 0 .

d)

,-l =

14253.

CAPITULO

8

Valores propios y vectores propios. Diagonalizaci6n

8.1.

INTRODUCCION

Consideremos una matriz n-cuadrada A sabre un cuerpo K . Recordemos (Secci6n 4.13) que A induce una funci6n f: K"-+ K" definida segun /(X)= AX

donde X es cualquier punta (vector columna) en K". (Vemos entonces A como la matriz que representa Ia funci6n f respecto a Ia base usual E de K".) Supongamos que se elige una nueva base de K", digamos S

= {u1 , u2 ,

••• ,

u~}

(Geometricamente, S determina un nuevo sistema de coordenadas para K".) Sea P Ia matriz -cuyas columnas son los Vectores u 1 , u 2 , . .• , u•. En ese caso (Secci6n 5. 11 ), Pes Ia matriz de cambia de base desde Ia usual E basta Ia S. Ademas, en virtud del Teorema 5.27,

x

= p - lx

proporcio na las coordenadas de X en Ia n ueva base S. Asimismo, Ia matriz B

··~·

=

P - 1 AP

representa Ia funci6n fen S; esto es, f(X' ) = BX'. En este capitulo se tratara de contestar a las dos preguntas l.

siguientes~

Dada una matriz A , ~podemos encontrar una matriz no singula r P (que represente un nuevo sistema de coordenadas S) de forma que B = p- 1 AP

sea una matriz diagonal? Si Ia respuesta es afirmativa, diremos que A es diagonalizable.

330

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION

2.

331

Dada una rnatriz real A , wodemos hallar una matriz o rtogonal P (que represente un nuevo sistema ortonormal S) de forma que B

=

P - 1 AP

sea una matriz diagonal? Si Ia respuesta es afirmativa, diremos que A es ortogonalmente

diagonalizable. Recordemos que se dice que dos matrices A y B son similares (ortogonalmente similares) si existe una matriz no singular (ortogonal) P tal que B = p- 1 AP. Lo que esta en cuestion es si una matriz dada A es similar (ortogonalmente similar) a una matriz diagonal. · Las respuestas estan estrechamente relacionadas con las raices de ciertos polinomios asociadas a A. EI cuerpo particular subyacente K juega tambien un papel importante en esta teoria, puesto que Ia existencia de raices de los polinomios d epende de K.

8.2.

POLINOMIOS DE MATRICES

Consideremos un polinomio f(t) sobre K ; por ejemplo, f(t) = a. t"

+ · · · + a 1 t + ao

Recuerdese que si A es una matriz cuadrada sobre K, definimos

donde I es Ia matriz identidad. En particular decirnos que A es una raiz o cero del polinomio f(t) si f(A) = 0. EJEMPLO 8.1.

Sea. A=

G~) f(A) =

y

g(A) =

y sean f(t)

= 2t 2

-

3t

+ 7, g(r) = t 2 -

5t- 2. Entonces

G~r -G~) -zG ~) (~ ~)

~~ ~r 3G ~) + 7G ~) = G~ ~:) 5

=

De este modo, A es un cero de g(t).

Es aplicable el teorema que ahora enunciamos, demostrado en el Problema 8.26.

Teorema 8.1:

Seanfy g polinomios sabre K y A una matriz n-cuadrada sobre K. Se cumple:

i) (f + g)(A) = f(A)

+ g(A),

ii) (fg)(A) = f(A)g(A}, y, para todo escalar k EK , iii) (kf)(A) = kf(A) .

332

ALGEBRA LINEA L

Mas a1m, como f(t)g(t) = g(t)f(t) para todo par de polinomios f(t) y g(t), f(A}g(A}

= g(A)f(A)

Es decir, dos polinomios cualesquiera en Ia matriz A conmutan.

8.3.

POLINOMIO CARACTERISTICO. TEOREMA DE CAYLEY-HAMILTON

Consideremos una matriz n-cuadrada sobre un cuerpo K:

La matriz tin - A , donde I. es Ia matriz identidad n-cuadrada y t un escalar indeterminado, se denomina Ia matriz caracteristica de A: t -

tl,.- A= .. (

au -

a 12

-

at.)

~.~~~ ... ~.~.~~.~ ...·.·.·... .. ~.~.~~ - a,. 1

-

a,. 2

•, •

t -

a,.,.

Su determinante -~..(t)

= det (tl,. -

A)

que es un polinomio en t, recibe el nombre de polinomio caracteristico de A. Asimismo, llamamos a ~it}=

det (tl,. - A}= 0

Ia ecuaci6n caracteristica de A. Cada termino en el determinante contiene una y solo una entrada de cada fila y de cada columna, luego el polinomio caracteristico precedente es de Ia forma ~A(t) =

(t - a 11 )(t - an) · · · (t - a,.,.)+

+ terminos

con a lo sumo n - 2 factores de la fo'r ma t - aii .

En consecuencia, ~it)= t"- (a 11

+ a 22 + · · · + a,.,.)t"- 1 + terminos de grado menor

Recordemos que Ia traza de A es Ia suma de sus elementos diagonales. Siendo asi, el polinomio caracteristico ~A (t) = det (tJ. -A) de A es un polinomio normalizado de grado n y el coeficiente de t" - 1 es el opuesto de Ia traza de A. (Un polinomio esta normalizado si su coeficiente dominante es 1.)

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION

333

Ademas, si tomamos t = 0 en LlA (t), obtenemos LlA(O)

= I -A I =

( -1)" I A I

Pero LlA (0) es el termino constante del polinomio LlA (t), de modo que el termino constante del polinomio caracteristico de Ia ma triz A es ( -l)"IAI, siendo n el orden de A . Establecemos ahora uno de los teoremas mas importantes del algebra lineal (demostrado en el Problema 8.27): Teorema 8.2 (Cayley-Hamilton): Toda ma triz es un cero de su polinomio caracteristico. EJEMPLO 8.2.

G~).

Sea B =

1\(t) =I tf -

Su polinomio caracteristico es

Bl = t - 1

l- 3

-21

t- 2

= (t - l)(t- 2)- 6

= tz -

3t- 4

Como cabia esperar por el teorema de Cayley-Hamilton, B es un cero de 1\(t):

Supongamos ahora que A y B son matrices similares, digamos B = P - 1 A P, donde P es invertible. Probemos que A y B tienen el mismo polinomio caracteristico. Utilizando tl = p - ! tiP,

I tl -

B I = Itl - p - 1 AP I = I p- 1 tl p - p - 1 API =

=

IP- 1 (t/- A)PI = IP- 1IIt1- All PI

Dado que los determinantes son escala res y conmutan y que jP- 1IIPI = 1, obtenemos finalmente,

I tl -

B I = Itl - A I

Asi hemos demostrado Teorema 8.3:

Las matrices similares tienen el mismo polinomio caracteristico.

POLINOMIOS CARACTERISTICOS DE ORDENES DOS Y TRES

Sea A una matriz de orden dos o tres. En tal caso existe una formula sencilla para su polinornio caracteristico Ll(t ). Concretamente: 1.

Supongamos A =

(a

11

a2!

a 12 ) . Entonces a22

aul = a22

t2 -

(tr A)t + det (A) ·

(Aqui tr A denota Ia traza de A , esto es, Ia suma de sus elementos 'diagonales.)

334

ALGEBRA LINEAL

au

atz

2. Supongamos A = all au (

all

all

a 11 au

a 12

all

au

a2l

a31

a32

a33

a13) a 2l

.

Entonces

all

= t3

-

(tr A)t2

+ (A 11 + A22 + A 33 )t- det (A)

(Aqui A 11 , A 2 2 , A 33 denotan, respectivamente, los cofactores de los elementos diagonales all• a22 • a33·) Consideremos de nuevo una matriz 3-cuadrada A = (a;)· Como se indica anterio rmente,

S 1 = tr A

S3 = det (A)

son los coeficientes de su polinomio caracteristico, con signos alterriantes. Por otra parte, cada Sk es Ia suma de los menores principales de orden k de A. El siguiente teorema, cuya demostracion escapa al alcance de este texto, nos dice que este resultado es cierto en general. Teorema 8.4:

Sea A una matriz n-cuadrada. Su polinomio caracteristico es

donde Sk es Ia suma de los menores principales de orden. k.

POLINOMIO CARACTERISTICO Y MATRICES TRIANGULARES POR BLOQUES

Supongamos que M es una matriz triangular

po~ b~oqnes, por ejemplo, M

= (

~1

B) , s1endo .

Az

A 1 y A 2 matrices cnadradas. La matriz ca racteristica de M, -B ) tl- A 2

es tambien una matriz triangular po r bloques, con bloques diagonales tl - A1 y tl - A 2 • D e este modo, segun el Teorema 7. 12, ltl - Ml =

t/- A 1

I

O

Es decir, el polinomio caracteristico de M es el producto de los polinomios caracteristicos de los bloques diagonales A 1 y A 2 • Por induccion puede obtenerse el uti! resultado .

VA LORES PR O PIOS

Y VECTORES PR O PI OS. DIAGONA LIZACION

335 .

Teorema 8.5: Supongamos que M es una matriz triangula r por bloques, con bloques diagonales A1 , A 2 , ••• , A,. EI polinomio caracteristico de M es el producto de los polinomios caracteristicos de los bloques dia gonales Ai, esto es,

EJEMPLO 8 .3 .

Consideremos Ia matriz

M =

(~--~i-H--~i) o

o ,- t

s

M es una matriz tria ngular por bloques, con bloques diagonales A =

27 + 8 = 35

trA =9 +3 = 12

det (A)

trB = 3+8 = 11

det (B) = 24 + 6 = 30

=

(9 -1) 8

3

y asi

,1A(t) = t 2

y asi

1

6,(t) = t

yB=

( 3 6)8 . . - 1

Aqut

-

12t + 35 = (t - 5)(t - 7)

-

llt

+ 30 =

(t - 5)(t - 6)

De acuerdo con ello, el polinomio caracteristico de M es el producto -1AAt) = -1.c(t).6Jt) = (t- 5)1(t - 6)(t -7)

8.4. VALORES PROPIOS Y VECTORES PROPIOS Sea A una ma triz n-cuadrada sobre un cuerpo K . Un escalar AE K se denomina un valor propio de A si existe un vector (columna) no nulo v E K" para el que

Av = A.v T odo vector que satisfaga esta relacion se llama un vector propio de A perteneciente al valor propio .A.. Notese que cada multiplo escala r kv es a su vez un vector propio, puesto q ue A(kv)

= k(Av) = k(J.v) = .A.(kv)

El conjunto E._ de todos los vectores propios pertenecientes a A. es un subespacio de K " (Problema 8. 16), conocido como espacio propio de A.. (Si dim E._= 1, E._ recibe el nombre de recta pro pia y A se llama factor de escala.) Los terminos valor caracteristico y vector caracteristico (o aut ova/or y autovector) se utilizan · · con frecuencia en Iugar de valor pro pio y vector propio. ·

EJEMPLO 8.4 .

S~a A =

GD

y sean v1 = (2, 3)T y v2 = ( 1, -l )T. Entonces .

336

ALGEBRA LINEAL

y

Asi pues, v1 y v2 son vectores propios de A pertenecientes, respectivamente, a los valores propios i. 1 = 4 y i.2 = - 1 de A.

El teorema enunciado a continuaci6n, demostrado en el Problema 8.28, es Ia herramienta principal para el calculo de valores propios y vectores propios (Secci6n 8.5). Teorema 8.6: equivalentes:

Sea A una matriz n-cuadrada sobre un cuerpo K. Las siguientes afirmaciones son

i)

Un escalar }. e K es un valor propio de A.

ii)

La matriz M =

iii)

El escalar A es una raiz del polinomio caracteristico .1(t) de A.

}.J

- A es singular.

El espacio propio E;.. de}. sera el espacio soluci6n del sistema homogeneo MX = (}./ - A)X = 0._ A veces resulta mas conveniente resolver el sistema (A - A.I )X = 0 que el (),J - A)X = 0, cuando se calculan vectores propios. Por supuesto, ambos sistemas conducen al mismo espacio soluci6n. Algunas matrices pueden no tener valores propios ni, por tanto, vectores propios. No obstante, haciendo uso del teorema fundamental del algebra (todo polinomio sobre tiene una raiz) y del Teorema 8.6, llegamcis al siguiente resultado.

c

Teorema 8.7. Sea A una matriz n-cuadrada sobre el cuerpo complejo C. Entonces A tiene at menos un valor propio. Supongamos ahora que A es un valor propio de Ia matriz A. La multiplicidad algebraica de }. es Ia multiplicidad de }. como raiz del polinomio caracteristico de A. La multiplicidad geometrica de }. es Ia dimension de su espacio propio. Es valido el teorema enunciado a continuaci6n, demostrado en el Problema 10.27. Teorema· 8.8: Sea 2 un valor propio de una matriz A. La multiplicidad geometrica de ). no excede su multiplicidad algebraica.

MATRICES DIAGONALIZABLES Se dice que una matriz A es diagonalizable (bajo similaridad) si existe una matriz no singular P tal que D = P - 1 AP es una matriz diagonal, o sea, si A es simila r a una matriz diagonal D. El teorema que sigue, demostrado en el Problema 8:29, caracteriza tales ma trices. Teorema 8.9: Una matriz n-cuadrada A es similar a una matriz diagonal D si y solo si A tiene n vectores propios linealmente independientes. En tal caso, los elementos diagonales de D son _los valores propios ~orrespondientes y D = p- 1 AP, siendo P Ia matriz cuyas columnas son los vectores propios.

,...

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION

337

Supongamos que una matriz A puede diagonalizarse como antes, digamos D = p - 1 AP con D diagonal. Entonces A tiene Ia factorizaci(m diagonal, extremadamente util. 1

A= PDP -

Empleando esta factorizaci6n, el algebra de A se reduce a Ia de Ia matriz diagonal D, facilmente manejable. Especificamente, supongamos D = diag (k 1 , k 2 , ••. , k"). En ese caso, A"'= (PDP-

1

)"'

= PD"'P - 1

= P diag

(lei, ... , k':)P- 1

y, con mayor generalidad, para todo polinomio f(t), j(A) =f(PDP- 1) = Pf(D)P - 1 = P diag (j(k 1),

••. .J(k,.))P-

1

Mas a(m, si las entradas diagonales de D son no negativas, Ia matriz B escrita a continuaci6n es una «raiz cuadrada» de A:

B = P diag

(A, ... , .jk,.)p - •

·

esto es; B2 = A. EJEMPLO 8 .5.

Consideremos Ia matriz A= (

valores propios· linealmente indepen.dientes p- 1 =

(~ 5

_1).

1 3

(~)

2 ). De acuerdo con el Ejemplo 8.4, A tiene dos 2 . y ( _ :) . Tomemos P =

(~ . _ ~)

y, por tanto,

Entonces A es similar a Ia matriz diagonal .

5

.

B = p- 1 AP

=

(*t -!t)(l3

Tal y como cabia esperar, los elementos diagonales 4 y -1 de Ia matriz diagonal B son los valores propios correspondientes a los vectores propios dados. En particular, A tiene Ia factorizaci6n A. = pop-1

=

(23 -11x40

oxti - i*)

- 1

En consecuencia,

102)

154

Ademas, si f(t) = t 3

Nota:

-

7t 2

+ 9t -

2,

A lo largo de todo este capitulo utilizamos el hecho de que Ia inversa .de Ia matriz

!)

es

'!a matriz

p- 1 = (

d/IPI -b/IPI) -c/IPI afiPI

338

ALGEBRA LINEAL

Esto es, p - l se obtiene intercambiando los elementos diagonales a y d de P, tomando los opuestos de los· elementos no diagonales b y c y dividiendo cada elemento por el determinante !Pl. Los dos teoremas siguientes, demostrados en los Problemas 8.30 y 8.31, respectivamente, se utilizanin en lo sucesivo. Teorema 8.10: Sean v1, ... , v. vectores propios no nulos de una matriz A, pertenecientes a val ores propios distintos ). 1 , ... , J.•. Entonces v1 , ... , v. son linealmente independientes.

'feorema 8.11~ Su~ongamos que et ~olinomio · caracteri.stico de una matriz n-cuadrada A es un ~roducto de n factores distintos, digamos ~~t) = (t - a 1) ~t - a 2) • .. (t - a.). En ese caso, A es similar a una matriz diagonai cuyos elementos diagonales son los a;.

8.5. . CALCULO DE V ALORES PRO PIOS Y VECTORES PROPI OS. DIAGONALIZACION DE MATRICES En esta secci6n se calculan los valores propios · y vectores propios de una matriz cuadrada dada A y se determina si existe o no una matriz no singular P tal que p-l AP sea diagonal. En concreto, se. aplicara a Ia matriz A el algoritmo que enseguida exponemos.

Algoritmo 8.5 (Diagonalizaci6n} La entrada es una matriz n-cuadrada A . . Paso 1.

Hallar el polinomio caracteristico

~(t)

de A.

Paso 2.

Hallar las raices de Ll(t) para obtener los valores propios de A.

Paso 3.

Repetir a) y b) para cada valor propio ). de A:

= ).[ -

a)

Construir M =A - U restando ). a los elementos diagonales de A, o M' sustituyendo t = A. en ti - A.

b)

Encontrar una base para el espacio solucion de MX = 0. (Los vectores de Ia base son vectores propios linealmente independientes de A pertenecientes a J..)

Paso 4. Considerar Ia colecci6n S e1 Paso 3:

= {v1 ,

v2 ,

... ,

A

v'"} de todos los vectores propios obtenidos en

·

a)

Si m "=P n, A no es diagonalizable.

b)

Si m = n, sea P Ia matriz cuyas columnas son los vectores propios v1 , v2 , Entonces

donde A; es el valor propio correspondiente at vector propio

V;.

.•• ,

v•.

VALO RES PROPI OS Y VECTORES PROPI OS. DIAG ONALIZACION

EJEMPLO 8 .6. I.

Apliquemos el algoritmo de diagonalizacion a

A = (~

_

339

~).

El polinomio caracteristico 6(t) de A es el determinante 6(t) = I tl - A I =

Alternativamente, tr A= 4 - I

It -3 -4

-

1

t+l

I= t

2

-

3t- 10 = (t - 5)(t

.

= 3 y IAI = -4 - 6 = -10, de modo que

+ 2) = 0.

2)

6(t) = t 2

2.

Hacemos &(t) = (t - 5)(r

3.

i) H allemos un vector propio v1 de A perteneciente a! valor propio ), 1 = 5.

Las raices ), 1 =: 5 y ).2

+

-

= -2 son los valores propios de

Restamos 1. 1 = 5 a los elementos diagonales de A para conseguir Ia matriz M Los vectores propios pertenecientes a i. 1 es decir,

=

3t- 10.

=

A.

(-1 2)

.

3 - 6 5 forman Ia solucion del sistema homogimeo MX = 0, -x+2y=O { 3x - 6y = 0

0

-x + 2y = 0

0

E l sistema tiene solo una soluci6n independiente; por ejemplo, x = 2, y = 1. Asi v 1 = (2, 1) es un vector propio que genera el espacio propio de A. 1 = 5. ii) H allemos un vector propio v2 de A perteneciente al valor propio 1 1 = - 2 . . Restamos -2 (o sumamos 2) a los elementos diagonales de A pa ra conseguir M

=

(~

~)

que conduce a! sistema homogeneo 6x { 3x

+ 2y = + y=

0 0

3x

0

+y=

0

El sistema tiene solo una soluci6n independiente, digamos x = - I, y = 3. De este modo, v2 es un vector propio que genera el espacio propio de l 2 = - 2. 4.

Sea P Ia matriz cuyas columnas son los vectores propios precedentes: P -- ( p- l = (

-! !)

..

_, 'tX4 2)(2 -1) (5 0)

D = P - 1 AP=( ;

3

- 1

1

3

=

0

-2

De acuerdo con ello, A posee Ia «factorizacion diagonal»:

-

4t3

1

( - I, 3)

1 - ). Entonces 3

y D = P - l AP es Ia matriz diagonal que tiene por entradas diagonales los respectivos

valores propios:

Si f(t) = t 4

2

=

-

-1)(5 0)( ~ 3 0 -2 - ; 3t + 5 , podemos calcular f(5) =55 y f( -2) 41 , luego f(A) = Pf(D)r (21 -31)(550 2

=

1

=

340

ALGEBRA LINEAL

EJEMPLO 8.7.

Consideremos Ia matriz B = (

tanto, 8(t) = t - t + 9 valor propio de B. 2

= (t- 3)

2

5

1 ) . Aqui tr B = 5 +I= 6 y IBI

-4

1

=

5 + 4 = 9. Por

es el polinomio caracteristico de B. En consecuencia, A.= 3 es el {mico

Restamos ..l = 3 a los elementos diagonales de B obteniendo _Ia matriz M = ( _

~

1 ) que corresponde - 2

al sistema homogeneo 2x+ y=O { -4x - 2y = 0

0

2x+y=0

El sistema tiene unicamente una soluci6n independiente; por ejemplo, X= 1, y = - 2. Siendo asi, v = (1, -2) es el unico vector propio de Ia matriz B. Podemos decir, pues, que B no es diagonalizable, por no existir una base constituida por vectores propios de B .

.

consiguiente, 8(r)

=

(2 -5)

. Aqui tr A= 2 - 2 = 0 y IAI l -2 . t 2 + I es el polinomio caracteristico de A. Estudiamos dos casos:

EJEMPLO 8.8. Consideremos Ia matriz A=

= -4 +

5

= 1. Por

a)

A es una matriz sobre el cuerpo real R . Entonces 8(t) no tiene raices (reales), de modo que A no tiene valores propios ni vectores propios y por ende no es diagonalizable.

b)

A es una matriz sobre el cuerpo complejo C. En ese caso, 8(t) = (t - i)(t + i) tiene dos raices, i y - i. Asi pues, A tiene dos valores propios diferentes, i y - i, y dos vectores propios independientes. En consecuencia, existe una matriz no singular P sabre el cuerpo complejo para Ia cual

Por esta raz6n, A es diagonalizable (sobre C).

8.6.

DJAGONALIZACION DE MATRICES REALES SIMETRICAS

Hay muchas matrices reales A que no son diagonalizables. De hecho, algunas de elias pueden no tener ningun valor propio (real). No obstante, si A es una matriz real simetrica, estos problemas desaparecen. A saber: Teorema 8.12: real.

Sea A una matriz real simetrica. Toda raiz A. de su polinomio caracteristico es

Teorema 8.13: Sea A una matriz real simetrica. Supongamos que u y v son vectores propios no nulos de A pertenecientes a valores propios distintos 2 1 y 22 . Entonces u y v son ortogonales, o sea, ( u, v) = 0. Los dos teoremas anteriores nos Bevan al resultado fundamental: Teorema 8.14: Sea A una matriz real simetrica. Existe una matriz ortogonal P tal que . D = p- 1 AP es diagonal.

VALOAES PAOPIOS Y VECTORES PROPIOS. DIAGONALIZACION

341

P odemos elegir las columnas de la matriz P precedente como vectores propios ortogonales normalizados de A, en cuyo caso las entradas diagonales de D serim los valores propios correspondientes.

( 2 -2)

. Hallemos una matriz ortogonal P tal que p - t AP sea diagonal. -2 5 Aqui tr A = 2 + 5 = 7 y IAI = 10 - 4 = 6. Por tanto, A(t ) = t 2 - 1t + 6 = (t - 6)(t - I) es el polinomio de A. Los valores propios de A son 6 y I. Restando A.= 6 de Ia diagonal de A obtenemos el sistema de ecuaciones lineales homogeneo asociado

EJEM PLO 8.9.

Sea A=

-4x- 2y = 0

-2x - y

=

0

Una solucion no nula es v 1 = (1, - 2). Acto seguido restamos A.= 1 de Ia diagonal de Ia matriz A para llegar al sistema homogeneo asociado X-

2y = 0

-2x + 4y=O

Una soluci6n no nula es v2 = (2, I). Como podia esperarse por el Teorema 8.13, v1 y Los normalizamos pa ra conseguir los vectores ortonormales u, = {1/.fi,

-2/.fi)

Uz

v~

son ortogonales.

= (2/jS, 1/jS)

Finalmente, sea P Ia matriz cuyas columnas son u 1 y u 2 , respectivamente. Entonces

P= (

1/~ 2/~)

-2/~

1/jS

y

p-'AP =

(~ ~)

Como era de esperar, las entradas diagonales de p - 1 A P son los valores propios correspondientes a las columnas de P.

APLICACION A LAS FORMAS CUADRATICAS

Recordemos (Seccion 4.12) que una forma cuadnitica real q(x 1 , x 2 , la forma matricial ·

... ,

xn) puede expresarse en

q(X) = xrAX donde X= (x 1 , ... , xnl y A es una matriz real simetrica. Recordemos, asimismo, que bajo un cambio de variables X = PY, conY= (y 1 , ... , Yn) y Puna matriz no singular, Ia forma cuadnitica adopta la forma

siendo B = P 7 AP. (Asi B es congruente a A.) Ahora bien, si Pes una matriz ortogonal, P 7 = p- 1 • En tal caso, B = P 7 AP = p - l AP, con lo que B es ortogonalmente similar a A. En consecuencia, el metodo precedente para diagonalizar una matriz real simetrica A puede emplearse para diagonalizar una fo rma cuadnitica q bajo un cambio de coordenadas ortogonal, como se indica a continuacion.

342

ALGEBRA LINEAL

Algoritmo 8.6 (Diagonalizacion ortogonal) La entrada es una forma cuadnitica q(X). Paso 1. Hallar Ia matriz simetrica A que represente q y calcular su polinomio caracteristico ~(t). Paso 2.

Hallar los valores propios de A, que son las raices de

~(t).

Paso 3. Encontrar una base ortogonal del espacio propio de cada uno de los valores propies A del Paso 2. Paso 4. Normalizar todos los vectores propios del Paso 3, que pasaran asi a formar una base ortonormal de Rn. Paso 5.

Sea P Ia matriz cuyas columnas son los vectores propios normalizados del Paso 4.

Entonces X= PYes el cambio de coordenadas ortogonal requerido. Las entradas diagonales de prAP senin los valores propios A1 , ••. , .-ln asociadas a las columnas de P.

8.7.

POLINOMIO MINIMO

Sea A una matriz n-cuadrada sobre un cuerpo K y denotemos por J(A) Ia colecci6n de todos los polinomios f(t) para los cuales f(A) = 0. [N6tese que J(A) noes vacio, ya que el polinomio caracteristico ~(t) de A pertenece a J(A).] Sea m(t) el polinomio normalizado de grado minimo ·en J(A). Entonces m(t) recibe el nombre de polinomio minima de A. [Tal p.olinomio m(t) existe y es unico (Problema 8.25).] Teorema 8.15: El polinomio minimo m(t) de A es divisor de todo polinomio que tenga A como cero. En particular, m(t) es divisor del polinomio caracteristico ~(t) de A. (La demostraci6n se da en el Problema 8.32.) Existe una relacion mas fuerte incluso entre m(t) y d(t). Teorema 8.16: Los polinomios caracteristico y minimo de una matriz A tienen los mismos factores irreducibles. Este teorema, demostrado en el Problema 8.33 b), no dice que m(t) = ~(t), sino, unicamente, que todo factor irreducible de uno debe ser divisor del otro. En particular, como todo factor lineal es irreducible, m(t) y ~(t) tienen los mismos factores lineales y por ende las mismas raices. Asi tenemos: Teorema 8.17: Un escalar ). es un valor propio de una matriz A si y solo si es una raiz de su polinomio minimo. EJEMPLO 8.10. Hallemo< d polinomio minimo m(t) de

A~(:

2 -5) 7

- 15 .

2

-4

VALO RES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION

343

Primero calculamos el polinomio caracteristico 6-(t) de A:

t-2 6-(t) = I tl - A I =

-3 -l

- 2 5 t- 7 15 = -2 t + 4·

t

3

-

5t2

+ 7t- 3 =

(t - l)2(t- 3)

Alternativamente, 6-(t) = t 3 - (tr A)t2 + (A 11 + A 22 + A33)t - lAI = t 3 - 5t2 + 7t- 3 = (t - I ) 2 (t- 3) (donde Aii es el cofactor de aii en A). El polinomio minimo m(t) debe ser divisor de 6-(t). Ademas, todo factor irreducible de 6-(t), esto es, t - I y t - 3, debe sera su vez un factor de m(t). De este modo, m(t) es exactamente uno de los siguientes polinomios:

f(t) = (t - 3)(t - 1)

g(t) = (t - 3)(t - 1)2

0

Sabemos, por el Teorema de Cayley-Hamilton, que g(A) = 6-(A) = 0, luego solo necesitamos comprobar f(t). Tenemos

! -~~)(-~ ~ -~~) (~ =

2

Asi pues, f(t)

= m(t) =

EJEMPLO 8 .11 .

(t- l)(t- 3) = t 2

-

1

-5

2

-7

0

0 0 0

~)

4t + 3) es el polinomio minimo de A.

Consideremos Ia matriz n-cuadrada, con a# 0:

0 ). a

).

0 0

a

0

M=

N6 tese que los elementos de M son ). en Ia diagonal, a en Ia superdiagonal y 0 en cualquier otra posicion . Esta matriz es importante en algebra lineal, especialmente cuando a = I. Puede probarse que

' f

= cr- A.r

es tanto el polinomio caracteristico como el polinomio minimo de M. EJEMPLO 8.12. Consideremos un polinomio normalizado arbitrario f(t) = t" + a. _ 1 t" - 1 + ·· · + a 1 t + a 0 • Sea A Ia matriz n-cuadrada con I en Ia subdiagonal, los opuestos de los coeficientes en Ia ultima columna y 0 en cualquier otro Iugar:

0 0 0

0 0

A= 0 0

...

-ao

-a. - a2

1

Se dice que A es Ia matriz acompafiante del polinomio f(t). El polinomio minimo m(t) y el polinomio caracteristico 6-(t) de esta matriz acompaiiante A son ambos iguales a f(t).

344

ALGEBRA LINEAL

POLINOMIO MINIMO Y MATRICES DIAGONALES POR BLOQUES

Puede utilizarse el siguiente teorema, demostrado en el Problema 8.34. Supongamos queM es una matriz diagonal por bloques, con bloques diagonales A1 , A 2 , .•. , A,. El polinomio minimo de M es igual al m.inimo comun multiplo (MCM) de los polinomios minimos de los bloques diagonales Ai.

Teorema 8.18.

Nota: Subrayamos que este teorema se aplica a matrices diagonales por bloques, mientras que el Teorema 8.5, su analogo para polinomios caracteristicos, se aplica a matrices triangulares por bloques. EJEMPLO 8.13.

Hallemos el polinomio caracteristico .1-(t) y el polinomio minimo m(t) de Ia matriz

2 5 0 0 0 2 0 0 A=

0 0

0 4 2 0 3 5

0 0 0 0 N6tese que A es una matriz diagonal por bloques, con bloques diagonales

Por esta raz6n, .1-(t) es el producto de los polinomios caracteristicos .1. 1 (t), .1.2 (t) y .1.3 (t) de A 1 , A2 y A3 , respectivamente. Siendo triangulares A 1 y A 3 , .1. 1 (t) = (t - 2) 2 e .1. 3 (t) = (t- 7). Ademas, 112 (t) = t 2

-

(tr A 2 )t + IA2 1 = t 2

-

9t + 14 = (t - 2)(t -7)

Por tanto, .1-(t) = (t - 2? (t - 7)2 • [Como cabia esperar, grado .1-(t) = 5.] Los polinomios minimos m1 (t), m2 (t) y m3 (t) de los bloques diagonales A 1 , A 2 y A3 , respectivamente, coinciden con los polino mios caracteristicos; esto es, m2 (t) = (t - 2)(t - 7)

Pero m(t) es igual a! minimo comun multiplo de m 1 (t), m 2 (t), m 3 (t). De este modo, m(t) = (t - 2)2 (t - 7).

PROBLEMAS RESUELTOS

POLINOMIOS DE MATRICES. POLINOMIO CARACTERISTICO 8.1.

Sea

A~

G·-D.Hall~r

f(A), donde: a) f(t)

= t2

-

3t

+ 7, b) f(t) = t 2

-

6t

+ 13.

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION

a) /(A)= A

=

2 -

(-7

b) f(A)=A

24

1 -

3A

+ 11 =

-D

G -~r- 3G

345

7(! ~) = -3 6) + (7 0) = (-3 -6)

-12) ( 17 + -12

- 15

0

+

7

-12)+( - 6 17 -24

7 6 A+l3l= ( - 24

12

9

~~) = (~ ~)

12)+(13 -30 0

[Asi A es una raiz de f(t).] 8.2.

Encontrar el polinomio caracteristico

~(t)

de Ia matriz A

=

(2 -31). 5

Construyamos Ia matriz caracteristica cl - A:

El polinomio caracteristico

~(t)

de A es el determinante:

l

A(t)=ltl-AI= t-2 -5

Alternativamente, tr A= 2 + I

8.3.

3

I

t- 1

=(t - 2)(t-1)+15=r2 -3t+17

3 y IAI = 2 + 15 = 17, luego 6(t) = t 2

=

Hallar el polinomio caracteristico Mt) de Ia matriz

.

A(t) =I tl- A I =

t- 1

-6

3 0

t- 2

2 0

-3

t +4

= (t- l)(t -

3t + 17.

-

6-2)

A=(-~0

2 3

0 . -4

2)(t + 4) - 18 + 18(t + 4) = t 3 + t 2

-

8t + 62

2 0 1 2 1 6 Alternativamente, trA=l+2 - 4 =- l,A 11 = 1 1= - 8,A 22 = 1 - 1= -4,A 3 3 = 1 1= . 3 - 4 0 - 4 - 3 2 =2 + 18 = 20, A 11 + A 22 + A 33 = - 8- 4 + 20 = 8 y IAI = -8 + 18 - 72 = - 62. Asi pues,

A(t) = tl- (tr A)t2 + (A 11 + A22 + A33)t - IA I = t 3 + t 1 8.4.

Hallar el polinomio caracteristico

a)

a)

R~(~

2 2

0 0

3 8 3

0

~(t)

-

8t + 62

de cada una de las siguientes matrices:

_:)

-5' 4

b)

s{ .

Como R es triangular, tl(t) = (t - I )(t- 2)(t- 3)(t- 4).

0

0

5

7

4

-6

0 0

6 2

-:)

-5

3

346

ALGEBRA LINEAL

b)

Notese que S es triangular por bloques, con bloques diagonales A1

(~

=

Por tanto,

VALORES PROPIOS Y VECTORES PROPIOS

8.5. Sea

A = (~

;). Encontrar: a) todos los valores propios de A y los espacios propios

correspondientes, b) una matriz invertible P tal que D = P - 1 AP sea diagonal, c) A 5 y f(A) para f(t) = £4 - 3t 3 - 7t 2 + 6t - 15. a)

Formemos Ia matriz caracteristica tl - A de A:

0) (1 4) -(t-1 -4)

t/ -A= ( t 0

t

-

2

3

-

-2

t- 3

El polinomio caracteristico .&(t) de A es su determinante: .&(t) =I tl - A I = t I

1 -4,

- 2

t- 3

= t1

4t - 5 = (t - 5)(t

-

+ 1)

Alternativamente, tr A = I + 3 = 4 y lA I = 3 - 8 = -5, Juego .&(t) = t 2 - 4t - 5. Las raices A1 = 5 y A2 = - I del polinomio caracteristico .&(t) so n los valores propios de A.

sust~:;:n~a7:s51:: ~:c:::;i:::;~::e::ti:a ~;;,t~~ee;~::t:s aa~av:::ri:r:i: (AI ~ 5. !:)r~ ::: - 2

2

vectores propios pertenecientes a ,1. 1 = 5 constituyen Ia solucion del sistema homogeneo MX = 0, o sea, 0

4x -4y = 0 { -2x + 2y = 0

0

x-y=O

El sistema solo tiene una solucion independiente; por ejemplo, x = 1, y = 1. De este modo, v1 = (1, 1) es un vector propio que genera el espacio propio de }.1 = 5. Obtengamos los vectores propios de A pertenccie_ntes at valor propio }. 2 = -I. Sustituimos t = -1 en tl - A , llegando a la matriz M,;, ( -2x- 4y=0 { -2x - 4y =0

=·:)

=~

0

que.proporciona el

sistem~ homogeneo

X+ 2y = 0

El sistema solo tiene una solucion independiente; por ejemplo, X = 2, y = - 1. Asi v2 = (2, - 1) es un vector propio que genera el espacio propio de A2 = -I. , ( ) 1 2 b) Sea P Ia matriz cuyas columnas son los vectores propios anteriores: P = . Enton1 - 1 ces D = p-t AP es Ia matriz diagonal cuyas entradas diagonales son los respectivos valores propios:

347

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION

(Nota: Aqui P es Ia matriz de cambio de base desde Ia usual E de R 2 hasta Ia baseS= (v 1 , v2 ). Por tanto. B es Ia representacion matricial de Ia funcion determinada por A en esta nueva base.] c)

Usemos Ia factorizacion diagonal de A,

Ox11 - !')

2)(50

A = PDP - 1 =C

-1

-1

para obtener (5 5 = 3125 y ( -1) 5 = 1):

oxt!

2)(3125

-1 Asimismo, como /(5) f(A) =

8.6.

0

') (1041 1042

-! =

-1

2084) 2083

= 90 y f( - I) = -24:

P/(D)P- t

(1

=

1

OX'~ -1t) (1438 76) 52

2x 90

-1

0

-24

=

Hallar todos los valores propios y un conjunto maximo de vectores propios linealmente independientes para las matrices: b)

C

(5 -31)

= I

(,Cmiles de elias pueden diagonalizarse? En su caso, determinar la matriz no singular P requerida para ello. a)

Calculamos el polinomio caracteristico ~(t) = t 2 pios de A son, pues, A1 = 7 y i..2 = - 4. i)

-

3t - 28 = (t- 7)(t

+ 4).

Restamos i.. 1 = 7 a los elementos diagonales de A obteniendo M = (

Los valores pro-

-~

' 6) -9

, corres-

pondiente al sistema {

-2x+6y=O 3x - 9y = 0

0

X-

3y = 0

A qui v1 = (3, 1) es un'!- solucion no nula (que genera el espacio solucio n) y por ende es el vector propio de 2·,· = 1. ii)

.

Restamos A. 2 = -4 a los elementos diagonales de · A consiguiendo M =

.

(9 6) 3 2

, que

corresponde al sistema 3x + 2y = 0. Aqui v 2 = (2, - 3) es una solucion y por consiguiehte un vector propio de ).2 = - 4. Entonces S = {v 1 = (3, 1), v2 = (2, - 3)} es un conjunto maximo de vectores propios linealmente independientes de A . Dado que S es una base de R2 , A es diagonalizable. Sea P Ia matriz cuyas columnas soh v 1 y v2 • En tal caso, y

b) Hallamos .1(t) = t 2

-

St

+

16

=

p - 'AP =

(7 0) 0

-4

(t- 4) 2 . El unico valor propio es, asi , i.. = 4. Restamos ;, = 4 a

los elementos diagonales deC para obtener M

= ('1

-I), correspondiente a l sistema homoge-1

348

ALGEBRA LINEAL

neo x- y = 0. Una soluci6 n no nula del sistema es v = (1 , I), por lo que v es un vector propio deC perteneciente a i. = 4. AI no haber otros valores propios, el conjunto de un solo elemento S = {v = (1, I)} es un conjunto maximo de vectores propios linealmente independientes. Ademii.s, C n o es diagonalizable, porque el numero de vectores propios linealmente independientes no es igual a Ia dimension del espacio vectorial R 2 . En particular, no existe Ia matriz no singular P citada.

8.7. Sea

A=(~ ~).

Encontrar: a) todos los valores propios de A y los vectores propios

asociadas; b) una matriz no singular P tal que D = P-I AP sea diagonal; c) A 6 ; d) una «raiz cuadrada» positiva de A, es decir, una matriz B con autovalores no negativos tal que B2 =A. a)

Aqui ~(t) = t 1 - tr A+ IAI = t 2 - 5t + 4 = (t- l)(t - 4). Por consiguiente, ), 1 = I y i.2 son valores propios de A. Hallemos los vectores propios correspondientes: i)

Restamos i. 1 = I a los elementos diagonales de A llegando a M =

C~),

=4

que nos !leva

al sistema homogeneo x + 2y = 0. Como v1 = (2. -I) es una soluci6n no nula del sis tema, sera un vector propio de A perteneciente a i. 1 = I. ii)

corresponde al sistema homogeneo x - y = 0. A qui v1 = y por tanto un valor propio de A perteneciente a A. 2 = 4. b)

2

Sea P la matriz cuyas columnas son v1 y v2 • Entonces p = (

c)

2 ), que I -1 (I , I) es una soluci6n no nula

Restamos 1.2 = 4 a los elementos diagonales de A obteniendo M = ( -

2 -1

•) 1

y

Utilicemos Ia factorizaci6n diagonal de A,

A= PDp- 1 = (

~)(~

2

·- I

oxt! 4

-n

para o btener A 6 = p D6p- I = (

d)

+I

Aqui ( ~

0

±2

·x~0 409~)(t

2 -I

I

-t)(1366 t -

.1365

2730) 2731

) son raices cuadradas de D, luego

. B = p.jDp-t = (

2 -1

1x1 1 0

es Ia ra iz cuadrada positiva de A (similar a una matriz diagonal con elementos no negatives).

8.8. Sup6nga"'

A-(~ ~ =~). Calculac

a) el polinomio caracteristico Ll.(t) de A, b) los

valores propios de A , c) un conjunto maximo de vectores propios linealmente indepen-

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION

349

dientes de A . d) i,ES diagonalizable A? En caso afirmativo, encontrar P tal que P -lAP sea diagonal. a)

Tenemos

4 -1 -2 t - 5

t-

.6(t)=ltl-AI =

-1

-1

Alternativamente, .6(t) = t 3 - (tr A)t2 + (A 11 Aii es el cofactor de a;; en Ia matriz A.)

= t3 -

2 t-2

llt2

+ 39t -

+ A 22 + A33)t- !AI= t 3

b) Suponiendo' que .6(t) tenga una raiz racional, esta debe estar entre ±45. Probando conseguimos 3 1 - 11 + 39 - 45 3-24 + 45 1- 8 + 15 + 0

45

11t2

-

± 1,

+ 39t- 45. (Aqui

±3, ±5, ±9,

± 15,

Asi t = 3 es una raiz de .6(t) y t - 3 un factor que da .6(t) = (t- 3)(t2

-

St

+ 15) =

(t - 3)(t- 5)(t- 3) = (t- 3)1 (t- 5)

En consecuencia, }. 1 = 3 y A2 = 5 son los valores propios de A. c)

Hallemos vectores propios linealmente independientes para cada valor propio. i) .Restamos A. 1

=

3 a los elementos diagonales de A llegando a M =

pondiente at" sistema homogeneo x dos soluciones independientes.

+y- z=

(~

2

=~)·, corres-

1

l

-1

0. Aqui u =(I, -1 , 0) y v = (1, 0, 1) son -1

. ii)

Restamos A.2

=

5 a los elementos diagonales para obtener M

=

(

~

0

=~) ,que

- 3

lleva asociado el sistema homogeneo -X +

2x {

x

+

Z =0 - 2z = O y- 3z = 0

y -

0

x{

z=O y-2z=O

La (mica variable libre es z. Una solucion es w = (1, 2, I). De este modo, {u = (1, -1, 0), v = (1, 0, 1), w = (1, 2, I)} es un conjunto maximo de vectores propios linealmente independientes de A.

Nota: Se han elegido los vectores u y v de forma que fueran soluciones independientes del sistema homogeneo x + y - z = 0. Por otra parte, w es automaticamente independiente de u y v, por pertenecer a un valor propio diferente de A. Los tres vectores son, pues, linealmente independientes. d)

A es diagonalizable, ya que tiene tres vectores propios linealmente independientes. Sea P Ia matriz con columnas u, v, w. En ese caso,

P=(-: ~ ~) 0

1

1

y

350

8.9.

A LGEBRA LINEAL

Sup6 ngase B =

(= ~

=~)-

5 Hallar: a) el polinomio caracteristico ..1(t) y los va-6 6 - 2 Iores propios de B, b) un conjunto maximo de vectores propios linealrnente independientes de B . (c) i,Es. diagonalizable B? En caso afirrnativo, encontrar P tal que p - t BP sea d iagonal. a)

Tenemos .O.(t) = I t1 - B I =

Por consiguiente, .l(t) = (t b)

+ 2)1 (t -

I+ 3 - 1 7 t- 5 = 6 - 6 t+2

t3 -

12t- 16

4). Asi A. 1 = - 2 y A.2 = 4 son los valores propios de B.

Ha llemos una base para ei espacio p ro pio de cada valor propio. i)

Sustituimos t = -2 en tl - 8 obteniendo el sistema homogeneo

0

ii)

x- y+ z=O 7x - 7y + z = 0 { 6x- 6y = 0

y + Z.= 0 x-y =0

X-

0

{

El sistema tiene unicamente una soluci6n linealmente independiente, po r ejemp lo, X= I ' y =I, z = 0. Siendo asi, u = (1, I , O) fo rma una base del espacio propio de A. 1 = -2. Sustituimos t = 4 en ll - 8 para llegar al sistema homogeneo -1 - 1

- 6

0

7x - y + z = 0 7x- y + z = 0 { 6x- 6y + 6z = 0

7x ·_ y + z 0

{

=

0

x= O

El sistema tiene solo una solucio n Iinealmente independiente, digamos X = 0, y = I' z = I. Po r tanto, v = (0, I, I) constituye una base del espacio propio de A.2 = 4. De este modo, S = {u, v} es un conjunto maximo de vectores propios linealmente independientes de B. t)

8.10.

Dado que B tiene un maximo de dos vecto res propios linealmente independ ientes, no es similar a una ma triz diagonal, o sea , 8 no es diagona lizable.

Halla r las multiplicidades algebraica y geometrica del valor propio .A.1 = -2 de Ia ma triz B del Problema 8.9. La multiplicidad algebraica de A. 1 es d os. Sin embargo, Ia multiplicidad geometrica de }. 1 es uno, p uesto que dim E;. , = I.

8.11.

1 - l)· Encontrar todos los valores propios y los correspondientes vectores 2 - 1 propios de A suponiendo que A es una matriz real. i,Es diagonalizable A? En caso afirmativo, hallar P tal que p - t AP sea diagonal.

Sea A = (

El polinomio caracteristico de A es .1(t) = t 2 + I, q ue no tiene raices en R. Asi A, vista como una matriz real. no tiene valores propios ni vectores propios y por ende A no es diagonalizable sobre R.

.1

351

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION

8.12.

Repetir el Problema 8. I I suponiendo ahora que A es una matriz sobre el cuerpo complejo C. E1 polinomio caracterlstico de A sigue siendo 6(1) = t 2 + l. (No depende del cuerpo K.) Sobre C , 6(t) es factorizable; concretamente, 6(r) = r2 + 1 = (t - i} (t + i}. Por tanto, 1 1 = i y 1..2 = - i son valores propios de A. i) Sustituimos t = i en tl - A para obtener el sistema homogeneo

(i-1 +1XX) (0) -2

1

j

y =

(i - 1)x + y = 0 { - 2x + (i + l)y = 0

0

0

(i- l)x

0

+y=

0

El sistema tiene solo una soluci6n linealmente independiente, por ejemplo, X= I, y = I - i. De este modo, v1 = (1, I - i) es un vector propio que genera el espacio propio de 11 = i. ii) Sustituimos t = - i en c{- A para obtener el sistema homogeneo - j (

-2

I 1 XX) = (0) -i- 1

y

(-i - l)x+y=O { -2x + ( - i - l)y = 0

0

0

(-i-l)x+y=O

0

El sistema tiene solo una solucion Iinealmente independiente, por ejemplo, X = 1, y Asi 112 = ( 1, 1 + i) es un vector propio que genera el espacio propio de 12 = - i.

= I + i.

Como matriz compleja, A es diagonalizable. Sea P Ia matriz cuyas columnas son v 1 y u2 . Entonces

P= ( 1

1 )

y

1-i l+i

8.13.

Sea B =

G~). H~llar: ~)

todos los valores propios de By los vectores propios asocia-

das; b) una matriz invertible P tal que D = p-l BP sea diagonal; c) B 6 . a)

Aqui 6(r) = t 2 - tr B + IBI = t 2 los va1ores propios de B. i)

Restamos l

-

3t - 10 = (t - 5)(r + 2}. Por tanto, l

1

= 5 y l 2 = -2 son

= 5 a todos los elementos diagonales deB llegando a M = ( -

1

3

4

), que

3 - 4

= (4, 3f. B para conseguir

corresponde al sistema homogeneo 3x - 4y = 0. Una soluci6n no nula es u1 ii)

Restamos l

2

= - 2 (o sumamos 2) a los elementos diagonales de

M = (; ;). que corresponde a[ sistema homogeneo x

nula

112

+y =

0 que tiene una solucion no

= ( 1, -l)r.

(Como B tiene dos vectores propios independientes, es diagonalizable.) b)

Sea PIa matriz cuyas columnas son u1 y v2 • En tal caso, p _

(4 I) 3

c)

-1

y

Empleamos Ia factorizacion diagonal de B,

352

ALGEBRA LINEAL

para obtener (5 6

= 15625, (- 2)6

B6 = PD6p-l = (;

8.14.

=

64):

-~)(15,62~ ~)(~ - 4~) =

Determinar si A es o no diagonalizable, donde A =

(8956 6669

8892) 6733

(~ ~ ~)0 0

3

Siendo A triangular, los valores propios de A son sus elementos diagonales 1, 2 y 3. Dado que son distintos, A tiene tres vectores propios independientes, de modo que es similar a una matriz diagonal (Teorema 8.11). (Senalamos que aqui no hay necesidad de calcular vectores propios para poder afirmar que A es diagonalizable. Si quisieramos hallar P tal que p - l AP fuera diagonal, tendriamos que calcular vectores propios.)

8.15. Sup6ngase que A y B son matrices n-cuadradas. a)

b)

c) d)

Probar que 0 es un valor propio de A si y solo si A es singular. Probar que AB y BA tienen los mismos valores propios. Sup6ngase que A es no singular (invertible) y que A es un valor propio de A. Probar que J.. - l es un valor propio de A- 1. Probar que A y su traspuesta AT tienen el mismo polinomio caraderistico.

a)

Tenemos que 0 es un valor propio de A si y solo si existe un vector no nulo v tal que A(v) = Ov = 0, esto es, si y solo si A es singular.

b)

Segun Ia parte a) y el hecho de que el producto de matrices no singulaies es no singular, las siguientes afirmaciones son equivalentes: i) 0 es un valor propio de AB, ii) AB es singular, iii) A o B es singular, iv) BA es singular, v) 0 es un valor propio de BA. Supongamos ahora que A. es un valor propio distinto de cero de AB. Entonces existe un vector no nulo v tal que ABv = A.v. Tomemos w = Bv. Siendo A. :F 0 y v # 0,

Aw = ABv = A.v :F 0

y asi

Pero w es un vector propio de BA perteneciente a! valor propio A., ya que

BAw = BABv = BA.v = A.Bv = A.w Por consiguiente, l es un valor propio de BA. De forma similar, todo valor propio no nulo de BA es tambien un valor propio de AB. Asi pues, AB y BA tienen los mismos valores propios.

8.16.

c)

De acuerdo con Ia parte a), l :F 0. Por definicion de valor propio, existe un vector no nulo v para el que A(v) = A.v. Aplicando A - l a ambos miembros obtenemos v =A - t (A.v) = A.A - I (v). Por tanto, A - 1 (v) = ;. - 1 v; es decir, r' es un valor propio de A- 1 •

d)

Como una matriz y su traspuesta tienen el mismo determinante, Jt/ - AI De este modo, A y AT tienen el mismo polinomio caracteristico.

= J(t/ - A)rl = Jtl - ArJ.

Sea A un valor propio de una matriz n-cuadrada A sabre K. Sea E;. el espacio propio de J.., o sea, el conjunto de todos los vectores propios de A pertenecientes a .A.. Mostrar que E;. es un subespacio de K", esto es, mostrar que: a) si vE E;., necesariamente kveE;. para todo escalar kEK, b) si u, vEE;., necesariamente u +v EE;..

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION

353

a) Como vE El, tenemos A(v) = Jv. Entonces A(kv) = kA(v)

= k(lv) =

A.(kv)

Por tanto, kvE E2 . [Hemos de admitir el vector nulo de K" como «vector propio» asociado a k = 0 para hacer de El un subespacio.] b) Como u, vEEl, tenemos A(u) A(u

=

+ v) =

lv y A(v) A(u)

= A.v.

+ A(v) =

Entonces

+ A.v = A.(u + v)

A.u

Por tanto, u +vEE;_.

DIAGONALIZACION DE MATRICES REALES SIMETRICAS Y DE FORMAS CUADRATICAS REALES 8.17.

Sea A

=

(3 2) 2

3

.

. Encontrar una matnz (real) ortogonal P para Ia cual pr AP sea

diagonal. El polinomio caracteristico ~t)

= I tl -

~(t)

de A es

AI=

t-

I

3

-2

-21 =

t-3

t

1

-

6t

+ 5 = (t- 5Xt- l)

y asi los valores propios de A son 5 y I. Restamos ). = 5 de Ia diagonal de Ia matriz A para co nseguir el sistema de ecuaciones lineales homogeneo correspondiente . - 2x + 2y = 0

2x - 2y = 0

U na soluci6n no nula es v1 = (1, 1). Normalizamos v1 para hallar Ia soluci6n unitaria « 1 ·= (l /j2, l /j2). A continuaci6n restamos t = I de Ia diagonal de Ia matriz A obteniendo el sistema de ecuaciones lineales homogeneo 2x + 2y = 0

2x + 2y = 0

Una soluci6n no nul a es v 2 = (I, - I). Normalizamos v 1 para hallar Ia soluci6n unitaria u2

= (l /j2, - 1/j?.). Finalmente, sea P Ia matriz cuyas columnas son u 1 y u1 , respectivamente; entonces

p =

1/~ (1/JZ

1/~)

-1/JZ

y

Tal y como cabia espcrar, las entradas diagonales de p r AP son los valores propios de A.

8.18.

Sup6ngase C =

(~~ =~ -~).

~(t)

Hallar: a) el polinomio caracteristico de C ; b) 4 -2 - 4 los valores propios de Co, en otras palabras, las raices de ~(t); c) un conjunto maximo S de vectores propios ortogonales no nulos de C ; d) una matriz ortogonal P tal que p - 1 AP sea diagonaL

354

A LGEBRA LINEAL

a)

Tenemos ~(t) = t 3

[Aqui b)

C;;

+ (C 11 + C 22 + C 33)t -

(tr C)t2

-

es el cofactor de

C;;

en C

=

ICI = t 3

-

6t 2

-

135t- 400

(c;)·l

Si ~(t) tiene una raiz racional, debe ser divisor de 400. Probando con t = - 5,

-5

Po r tanto, t

+ 5 es un

factor de ~(t) = (t

1- 6- 135 - 400 - 5 + 55+ 400 1 - 11 - 80+ 0

~(t)

y

+ 5Xt2 -

t1t-

so) = (t + 5)2(t- 16)

En consecuencia, los valores propios deC son ). = - 5 (con multiplicidad dos) y ). = 16 (con multiplicidad uno). c)

Ha llemos una base ortogonal pa ra cada espacio propio. Resta mos ). = - 5 a todos los elementos diagonales de C para obtener el sistema ho mogeneo 16x - 8y + 4z = 0

-8x

+ 4y- 2z = 0

4x- 2y + z

=

0

Esto es, 4x - 2y + z = 0. El sistema tiene dos soluciones independientes. Una de elias es v 1 = (0, 1, 2). Buscamos una segunda soluci6n v2 =(a, b, c) que sea ortogonal a v1 , es decir, tal que

4a- 2b + c = 0

b - 2c=O

y ademas

Una de estas soluciones es v2 = (- 5, -8, 4)r. Restamos ). = 16 a los elementos diagonales de C llegando al sistema homogeneo.

-5x - 8y + 4z

=

0

-Sx- 17y - 2z = 0

4x - 2y - 20z = 0

Este sistema proporciona una soluci6n no nula v3 = (4, - 2, I). (Como podia esperarse por el Teorema 8. 13, el vector propio v 3 es ortogonal a v1 y v2 .) Entonces v1 , v1 , v3 constituyen un conjunto maximo de vecto res propios ortogonales no nulos de C. d)

N o rmalizamos v1 , v2 , v3 obteniendo Ia base ortonormal u1 =

(0, 1;.j5, 2/.j5)

u2

= (-

5/.jlOS, -8/.jlOS, 4/.jlOs)

u3

= (4/.fii. -2/.fii, 1/J2i)

Sabemos que Pes Ia matriz cuyas columnas son u 1 , u2 , u2 • Por tanto,

P=

8.19.

o -s; jiOs 4/.fii) 11.J5 - s;.jlOs -2;j2i ( 2/.fi 4/f o 1/fo

Sea q(x, y) = 3x 2 diagonalice q.

-

6xy

+ ll y 2 .

- 5 pre P=

y

- 5 (

Encontrar un cambia de coordenadas ortogonal que

IIallamos Ia matriz simetrica que representa q y su polinomio caracteristico ~ (t):

A=(- 33 -3) 11

y

t _

~(t) =

i

3

3

3 t-

11

I=

t2

-

14t + 24 = (t - 2Xt - 12)

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION

355

L()S valores propios son 2 y 12, luego una forma diago nal de q es q(.x', y') = 2x'2

+

12y'1

El cambio de coordenadas asociado se consigue hallando un conjunto correspondiente de vecto res propios de A. Restamos t = 2 d e Ia diagona l de Ia matriz A para obtener el sistema homogeneo

- 9x- 3y = 0 Una soluci6n no nula es v1 al sistema

- 3x - y = 0

= (3, 1). Seguidamente sustituimos t = 12 en Ia matriz tl - A y l!egamos 9x

+ 3y =0

3x

+y=

0

Una soluci6n no nul a es v2 = (-I, 3). Normalizamos v1 y v2 para conseguir Ia base ortonormal

La matriz de cambio de base y el cambio de coordenadas pedido son:

P=(3f f o

1/fo

-lffi)

y

0

3/Jlo

.x = (3x'- y')/JlO {

Y = (x'

+ 3y')ffo

T ambien pued en expresarse x' e y' en ti:rminos de x e y, haciendo uso de p - I = pT, esto es,

x' = (3x + y)f f o

y' = ( - x + 3y)/Ji0

8.20. Considerese Ia forma cuadnitica q(x, y, z) = 3x 2

+ 2xy + 3y2 + 2xz + 2yz + 3z 2 . Hallar:

La matriz simetrica A que representa q y su polinomio caracteristico ~(t). b) Los valores propios de A o, si se prefiere, las raices de ~(t). c) Un conjunto maximo de vectores propios de A o rtogonales no nulos. d) Un cambio de coordenadas ortogonal que diagonalice q. a)

a)

Recordemos que A = (a;) es Ia matriz sime trica en Ia que a;; es el coeficiente de xl y aii = aji es Ia mitad del coeficiente de X ; Xj. Asi pues,

3

1 b)

i)

t-

y

.1(t) =

- 1

3

-1

t- 3

-1

- 1

-1

- 1 = t3

-

9t 2

+ 24t -

20

t-3

Si l'l(t) tiene una raiz racional, debe ser divisor de Ia consta nte 20 o, dicho de otro modo, debe estar entre ± I, ±2, ± 4, ± 5, ± I 0, ±20. Pro bando con t = 2,

2

1- 9

+ 24 -

20

2-14 + 20

1-7+10+ 0 Asi t - 2 es un factor de l'l(t), con l'l(t)

= (t -

2)(t2

-

7t + 10)

= (t -

2)2(t - 5)

Por consiguiente, los valores propios de A son 2 (con multiplicidad dos) y 5 (con multiplicidad uno).

356

ALGEBRA LINEAL

c) Hallernos una base ortogonal de cada espacio propio. Restamos ). = 2 a los elementos diagonales de A obteniendo el sistema hornogt'meo correspondiente

x+y+z=O

x+y+z = O

x+y+z=O

Esto es, x + y + z = 0. El sistema tiene dos soluciones independientes. Una de tales soluciones es v1 = (0, 1, -I). Buscamos una segunda solucion v2 =(a, b, c) que sea ortogonal a v1 , o sea, tal que y ademas

a+b+c= 0

b- c =O

Por ejemplo, v 2 = (2, - 1, - I). De este modo, v1 = (0, I, - I), v 2 = (2, -I, -I) forman una base ortogonal para el espacio propio de Jc = 2. Restamos i. = 5 a los elementos diagonales de A llegando at sistema homogeneo -2x + y

+z=0

X -

2y + Z

=0

x+y - 2z = O

Este sistema proporciona una solucion no nula v3 = (1 , I, 1). (Como podia esperarse por el Teorema 8.13, e1 vector propio v3 es ortogonal a v1 y v2 .) Entonces v1 , v2 , v3 integran un conjunto maximo de vectores propios ortogonales no nulos de A. d)

Normalizamos v1, v2 , "• =

L' 3

(0, 1/./2, -1/.ji)

consiguiendo la base ortonormal u2 =

(2/.fi, - 1/.fi, -lj.j6)

Sea P Ia matriz cuyas columnas son u 1 , u2 , u3 . En tal caso

t;j3) t;.j3

0

p =

(

2/.fi t;fi -1/.fi

y

2

t;.j3

-t;J2 -t;J6

de donde el cambio de coordenadas requerido es 2y'

X=

-

y=

---

z'

+-

J6J3

x'

f

z'

+-

fifi.j3 x'

y'

z'

z=----+-

fiJ6J3

Bajo este cambio de coordenadas, q adopta Ia forma diagonal q(x', y', z') = 2x'2

+ 2y' 2 + 5z'2

.POLINOMIO MINIMO -1

8.21.

Encontrar el polinomio minimo m(t) de Ia matriz

-3

-2

357

VA LORES PROPIOS Y VECTORES PROPIOS. DIA GON A LIZACION ~ (t)

Comenzamos calculando el polinomio caracteristico

~(t) = ltl-AI =

-1 -4

1 t+3 2

t-2

-6

-3

= t3

-

4t2

de A:

+ 5t -

2 = (t- 2)(t - 1)2

t-3

Alternativamente, Ll(t) = t 3 - (tr A)t2 + (A 11 + A 22 + A 3 3 )t - IAI= t 3 - 4t2 + St - 2 = (t- 2) (t ;_ 1) 2 • (Aqui Aii es el cofactor de au en A.) El polinomio minimo m(t) debe ser divisor de ~ (t) . Asimismo, todo facto r irreducible de ~(t), es decir, t - 2 y t - 1, debe serlo tambien de m(t) . De este modo, m(t) es exactamente uno de los siguientes polinomios: f(t) = (t - 2)(t - 1)

g(t) = (t - 2)(t - 1)2

0

Sabemos, por el Teorema de Cayley-Hamilto n, que g(A) comprobar f(t). Tenemos

f(A)

Asi f(t)

8.22.

=

~(A-

21XA - /)

~

m(t) = (t - 2)(t- 1) = t 2

(:

-2 -5 -2

-

3t

+2

~)(:

= ll(A) = 0,

-2 -4 -2

luego solo necesitamos

~)~(~

~)

0 0 0

es el po linomio minimo de A.

Halla< el polinomio minimo m(t) de Ia matriz (donde a# 0): B

~ G 0) a

A.

a .

0 A. · El polinomio caracteristico de B es ll(t) = (t - ).) 3 . [Adviertase que m(t) es exactamente uno de los polinomios t - A., (t- A.) 2 o (t - ..t)3 .) Encontramos que (B - A./) 2 #- 0, luego m(t) = Mt ) = (t - ,l_)l. (Nota:

8.23.

Esta matriz es un caso particular del Ejemplo 8. 11 y el Problema 8.6l.)

Encontrar el polinomio minimo m(t) de la siguiente matriz: M' =

4 0 0 0 0

0 0 0 0 4 0 0 0 4 0 0 0 4

0 0 0 1 4

Aqui M ' es diagonal por bloques con bloques diagonales

4 1 0) (

A'= 0 4 0 0

1 4

y

B' =

(~ ~)

El polinomio caracteristico y minimo de A' es f(t) = (t- 4) 3 , y e1 de B', g(t) = (t - 4)2 . Siendo asi, ~(r) = f( t)g(r) = (t- 4) 5 es el polinomio caracteristico de M', pero m(t) = MCM (f(t), g(t)] = (t - 4) 3 (donde 3 es el tamano del bloque mayor) es el polinomio minimo de M '.

358

ALGEBRA LINEAL

8.24.

Determinar una matriz A cuyo polinomio minima sea: a) f(t) = t 3

-

8t2

+ St + 7,

b) f(t)

=

t

4

3t3

-

+ 5t + 6

4t 2

-

Sea A Ia matriz acompanante (vease el Ejemplo 8.12) de f(t ). En tal caso,

0-7)

-5, 1 8

0

(Nota:

8.25.

(~

0

b) A= O

0 1

0

0

0

0-6) 0

-5

0

4 3

El polinomio f(t) es ta mbien el polinomio caracteristico de A.)

Probar que 'et polinomio minima de una matriz A existe y es unico. De acuerdo con el Teorema de Cayley-Ha milton, A es un cero de algun polinomio no nulo (vease tambien el Pro blema 8.37). Sea n el minimo grado para el que existe un polinomio f( t) con f(A ) = 0. Dividiendo f(t ) por su coeficiente dominante obtenemos un polino mio normalizado m(t) de grado n que tiene A como cero. Supongamos que m' (t) es otro polinomio normalizado de grado n para el cual m' (A)= 0. Entonces Ia diferencia m(t)- m' (t) es un polinomio no nulo de grado menor que 11 que tiene A como cero. Esto contradice Ia suposicio n inicial referente ·a n , luego m(t) es el unico polinomio minimo.

DEMOSTRACION DE LOS TEOREMAS

8.26.

Demostrar el Teorema 8.1. Supongamos f = a.t" +

00 •

+ a 1 t + a0 y g = bmtm +

oo·

+

b1t

+ b0 . Entonces, por definicio n,

y i)

Supongamos m

~

n y sea b; = 0 si i > m. En ese caso,

f + g =(a.+ b.)t" + .. · + (a 1 + b 1)t + (a 0 + b0) luego

(f + g)(A) =(a.+ b.)A" + · · · + (a 1 + b 1 )A + (a0 + b0 )I = =a. A"+ b. A"+···+ a 1 A + b 1A + a0 1 + b0 1 =f(A) + g(A)

ii)

Por definicion, fg = cn+mln+m +

000

+ ci t + Co=

n+m

I ' ckt\ donde

• ~o

k

c1 = a 0 b 1

+ a 1b1-1 + ... + atbo =

l:a;bt-i i =: O

11+m

De aqui ( fg)(A) =

L

k=O

c. A• y

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION

8.27.

+ ·· · + ka 1 t + ka 0 ,

iii)

Por definicion, kf = ka.t"

iv)

Por ii), g(A)f(A) = (gf)(A) = (fg)(A) =f(A)g(A).

359

y asi

Demostrar el Teorema 8.2 (Cayley-Hamilton). Sean A una matriz n-cuadrada arbitraria y .1(t) su polinomio caracteristico; por ejemplo,

+ an_ 1 t"- 1 + ·· · + a 1t + ao

,1(t) = ltl - AI= t"

Ahora · denotemos por B(t) el adjunto clasico de Ia matriz tl - A. Los elementos de B(t) son cofactores de Ia matriz tl - A y por tanto son polinomios en t de grado no superior a n - I. De este modo,

donde las B; son matrices n-cuadradas sobre K, independientes de t. Segun Ia propiedad fundamental del adjunto clasico (Teorema 7.9) (tl - A)B(t) = I t1 - A

(t/- A)(Bn_ 1 t"-

0

Elimin<~:ndo

1

+ · ·· + B 1 t + B 0 ) =

(t"

+a

0

11 _

1 t"-

1

+ ·· · + a 1t + a 0 )/

los parentesis e igualando los coeficientes de las mismas potencias de t,

B._ 1 B.- 2

-

B._ 3

-

B0

=1

AB._ 1 = a._ 11 AB._ 2 = a.-z1

= a11 -AB0 = a0 1 AB 1

-

Multiplicando las ecuaciones matriciales precedentes por A", A"- 1 ,

•.• ,

A, I, respectivamente,

A"B._ 1 =A" A"- 1 B•-2--: A"B•-•=a.-1 A"- 1 A"-lBa- 3- A"-IB•-2 AB0

-

= "• - 2A•-2

A2 B 1 = a 1A -AB0 = a0 1

Sumando las ecuaciones matriciales anteriores,

En otras palabras, .1(A) = 0, que es el Teorema de Cayley-Hamilton.

8.28.

Demostra r el Teorema 8.6. El escalar A. es un valor propio de A si y solo si existe un vector no nulo v tal que Av = ).v

0

().l)v - Av = 0

0

().J- A)v = 0

360

A LGEBRA LINEA L

o M = ).J - A es singular. En tal caso, }, es una raiz de ~(t) = jt l - AI. Asimismo, v esta en el espacio propio E; de A. si y solo si se verifican las relaciones anteriores, luego v es una solucion de (,U - A)X = 0.

8.29.

Demostrar el Teorema 8.9. Supongamos que A tiene n vectores propios lineal mente independientes v1 , v2 , .. . , v. con valores propios correspondientes A. ~> .A. 2 , ... , A.•. Sea P Ia matriz cuyas columnas son v1 , ... , v•. Entonces P es no singular. Las columnas de AP son Av1 , ... , Av•. Pero Av1 = A.kv1 . Por consiguiente, las columnas de AP son .A. 1 u1 , .. . , .A.. v•. Por otra parte, sea D = diag (l.1 , .?. 2 , ... , A..). es decir, Ia matriz diagonal con entradas diagonales A.k. En ese caso, PD es tam bien una matriz con columnas A.k vk. En consecuencia, AP=PD

y por tanto

D

= p - 1 AP

como se pedia. Reciprocamente, supongamos que existe una matriz no singular P para Ia cual p - 1 AP

= diag (l1, l 1 , ... ,

l.) = D

y asi

AP=PD

Sean v1, v 2 , .. . , v. los vectores columna de P. Entonces las columnas de AP son Avk y las de PD A.kvk. De acuerdo con esto , dado que AP = PD, tenemos ·

Ademas, a! ser P no singula r, v1 , v2 , ... , v. son no nulos y por ta nto son vectores propios de A pertenecientes a los valores propios que son los elementos diagonales de D. Mas aun, son linealmente independientes. Q ueda asi demostrado el teorema.

8.30. Demostrar el Teo rem a 8.1 0. Se demuestra por induccion en n. Si n = 1, v1 es necesariamente independiente porque v1 Supongamos n > l y

'f.

0. [I]

donde los a; son escalares. M ultiplicando [I] por A, a 1Av1

Por hip6tesis, Av; =

A;V;.

+ a 2 Av2 + ··· + a.Av. = AO = 0

De este modo, a! sustituir, obteuemos [2]

Por otra parte, multiplicando [1] por J•• llegamos a [3)

Restar [3) a [2] proporciona

Por inducci6n, v 1 , v2 , ... , v. _ 1 son linealmente independientes, luego cada uno de los coeficientes precedentes es 0. Como los 2; son distintos, 2; - J•• 'f. 0 para i 'f. n. De aqui a 1 = .. . = a. _ 1 = 0. Sustituyendo esto en [1] conseguimos a.v. = 0 y por ende a. = 0. Los v; son, pues. linealmente independientes.

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION

8.31.

361

Demostrar el Teorema 8.11. Segun el Teorema 8.6, los a; son va lores propios de A. Sean u; los correspondientes vectores propios. De acuerdo con el Teorema 8.10, los L>; son linealmente independientes, luego forman una base de K". Siendo asi, A es diagonalizable por el Teorema 8.9.

8.32.

Demostrar el Teorema 8.15. Supongamos que f (t) es un polinomio para el que f(A ) = 0. P or el algoritmo de Ia divisio n sabemos que existen polino mios q(t) y r(t ) para los cua les f (c) = m(t)q(t) + r(t) con r(t) = 0 o grado r(t) < grado m(t). Sustituyendo t = A en esta ecuaci6n y utilizando f(A) = 0 y m(A) = 0 o btenemos r ( A) = 0. Si r(t) >F 0, debe ser un polinomio de grado menor que el de m(c) que tiene A como cero. Esto contradice Ia definicion de polinomio minimo. Asi pues, r(t ) = 0 y f(t ) = m(t)q(t), o sea, m (t) es divisor de f (t) .

8.33.

Sea m(t ) el polinomio minima de una matriz n-cuadrada A. b)

Probar que el polinomio caracteristico de A es divisor de (m(t ))". Demostrar el Teorema 8. 16.

a)

Supongamos m(t) = t'

a)

+ c 1 t' - 1 + ··· + c, _ 1 c + c,. Considerem os las

siguientes matrices:

B0 = 1 B 1 =A+ c 1 1 B2

=

A2

+ c 1 A + c2 1

Entonces B1 B2

Adem as,

-

-

B 0 =I AB0 = c 1 1 AB 1 = c 2 /

-AB,_ 1 = c,l - (A'+ c1 A'- 1 = c,l- m(A)= =

+ · · · + c,_ 1 A + c,I) =

c,l

To memos

En ese caso, (tl - A)· B(t) = (t'B0 + t! - 18 1 + · · · + tB, _ 1 ) - (t'- 1 AB0 + t'- 2 AB 1

+ ··· +

= t'B0 + t' - (B 1 - AB0 ) + t' - (B 2 - AB 1) + · · · + t(B,_ 1 + c,t'- 1 / + c 2 t'- 2 1 + ·· · + c, _ 1tl + c,l = 1

2

-

AB,_ 1) =

AB, _ 2 ) - AB, _ 1 =

= t'I

= m(t)I

Toma r el determinante de ambos miembros nos conduce a It!- A I IB(t)l = lm(t)/1 = (m (t ))". Como IB(t)l es un polinomio, itl - AI es divisor de (m(t))"; esto es, el polinomio caracteristico de A es divisor de (m(t))".

362

ALGEBRA LINEAL b)

8.34.

Supongamos que f(t) es un polinomio irreducible. Si f(t) es divisor de m(t), al ser m(t) divisor de ~(t), f(t) debe serlo tambien. Por o tra pa rte, si f(t) es divisor de ~(t), segun a), f(t) es divisor de (m(t))". Pero f(t) es irreducible, de modo que f(t) debe ser tambien divisor de m(t). Por tanto, m(t) y ~(t) tienen los mismos factores irreducibles.

Demostrar el Teorema 8. 18. Demostremoslo para el caso r Supongamos M = ( :

2. El teorema general se deriva facilmente po r inducci6n.

=

~} d onde A y B son matrices cuadradas. Debemos probar que el polinomio

minimo m(t) de M es el minimo comun multiplo de los polinomios m inimos g(t) y h(t ) de A y B, respectivamente. 0 Como m(t) es el polinomio minimo de M, m(M) = (m(A) ) = 0 y por consiguiente 0 m(B) m(A) = 0 y m(B) = 0. Dado que g(t) es el polinomio minimo de A, g(t) es divisor de m(t). De fo rma similar, h(t) es divisor de m(t). Asi m(t) es multiplo de g(t) y Jr(t). Ahora sea f(t) otro multiplo de g(t) y h(t); entonces f(M) = ( .

0) (0 0) ·

f(A)

= = 0. Pero f(B) 0 0 m(t) es el polinomio minimo de M , fuego es divisor de f(c). De este modo, m(t) es el minimo comun multiplo de g(t) y h(t).

8.35.

0

Sup6ngase que A es una matriz real simetrica vista como matriz sobre C. Demostrar que ( Au, v) = ( u, Av) para el producto interno en C". b) Demostrar los Teoremas 8.12 y 8.13 para Ia rna triz A. a)

a)

Usamos el hecho de que el producto interno en C" esta definido po r ( u, v) =·uriJ. Puesto que A es real simetrica, A = Ar = A. Asi pues,

(A u, v)

= (Au)rv = ur Arv = urAii = urAv = ( u, Av)

b) Utilizamos el hec ho de que en C" ( ku, v) 1.

Existe v #- 0 tal que Av

=

k ( u, v) pero ( u, kv)

=

k(u, v).

lv. E n ese caso,

l(v, v) = (A.v, v) Pero (v, v) # 0 porque v # 0. 2.

=

= ( Av, v) = (v, Av) = (v, A.v) = l ( v, v) De este modo, l = 1 y por tanto A es real.

Aqui Au = A1 u y Av = A.1 v. P o r I, A.1 es real. Entonces

A. 1 (u, v) = (A. 1u, v)

=

( Au, v)

=

( u, Av) = ( u, A.2 v) =

I 2 ( u, v)

=

l 2 ( u, v)

Como A. 1 # ). 2 , tene mos ( u, v) = 0.

PROBLEMAS VARIOS

8.36. Supongase que A es una matriz simetrica 2 x 2 con vaiores propios I y 9 y que u = (I, 3f es un vector propio perteneciente al valor propio I. Hallar: a) un vector propio v perteneciente al valor propio 9, b) Ia matriz A, c) una raiz cuadrada de A, es decir, una matriz B tal que B 2 = A. a)

Siendo A simetrica, v debe ser ortogonal a u. Tomemos v = ( - 3, I )r.

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION h)

Sea P la matriz cuyas columnas son los vectores propios u y v. Tenemos, por Ia factorizaci6n diagonal de A,

A =PDr

1

=G

-~)(~

0)( 1:0 9 -n

10 ~) l -

(

Ilf

Au= u y

(Aiternativamente, A es Ia matriz para Ia cual c)

363

Av

=

s -'s;)

&

12

-,-

9v.)

Empleamos Ia factorizaci6n diagonal de A para obtener

B=PJDr'=G

0)(

-~x~

3

3) ( T14

R

-~ I

~

=

-t

-D

8.37. Sea A una matriz n-cuadrada. Sin usar el teorema de Cayley-Hamilton, mostrar que A es una raiz de algun polinomio no nulo. Sea N

=

n 2 • Consideremos las N

+I

matrices siguientes: I, A, A 2 ,

•••

,AN

Recuerdese que el espacio vectorial V de las matrices n x n tiene dimension N = n 2 • Las N + I matrices precedentes son, pues, linealmente dependientes. Siendo asi, existen escalares a0 , a 1 , a1 , ... , a,.,., no todos nulos, para los que aHAN

+ .. · + a 1 A + a 0 l

De este modo , A es una raiz del polinomio f(t) =

8.38.

aNtN

=

0

+ ·.. + a 1 t + a 0 .

Sup6ngase que A es una matriz n-cuadrada. Probar las siguientes afirmaciones: a)

A es no singular si y solo si el termino constante en el polinomio minimo de A es distinto de cero.

b): Si A es no singular, A -

I

es igual a un polinomio en A de grado no superior a n.

1 = t' + a,_ 1 t'- + .. · + a 1 t + a 0 es el polinomio minimo (caracteristico) de A. Entonces son equivalentes: i) A es no singular, ii) 0 no es una raiz de f(t), iii) el termino constante a 0 no es cero. Asi pues, Ia afirmaci6n es cierta.

a) Supongamos f(t)

b) Sea m(t) el polinomio minima de A. En ese caso, m(t) = t' + a, _ 1 t'- 1 r .!( n. Como A es no singular, a 0 '# 0, segun Ia parte a). Tenemos

m(A) =A'+ a,_,A•-l

+ ... + a 1 t + a 0 ,

donde

+ · · · +a 1 A+ a0 I= 0

De este modo,

En consecuencia,

8.39.

Sean F una extension de un cuerpo K y A una matriz n-cuadrada sobre K. N6tese que A puede verse tambien como una matriz A sobre F. Claramente, lti - AI = It/- AI, esto

364

ALGEBRA LINEAL

es, A y A tienen el mismo polinomio caracteristico. Mostrar que A y mismo polinomio minimo.

A tienen

ademas el

Sean m(t) y m' (c) los polinomios minimos de A y A, respectivamente. Ahora m' (c) es divisor de todo polinomio sobre F que tenga A como cero. Dado que m(t) tiene A como cero y puede verse como un polinomio sobre F, m' (c) es divisor de m(t ). Probemos ahora que m(t) es divisor de m' (r). Siendo m' {t) un polinomio sobre F, que es una extension de K , podemos escribir

donde los fi{t) son polinomios sobre K y b 1 , sobre K . Tenemos

... ,

b" pertenecen a F y son linealmente independientes

[I] Denotemos por par (i, j),

al'' Ia entrada ij de fk(A). La ecuacion ma tricial anterior implica que, para todo al]lb, + a!Jlb1 + · · · + alj,b. =

0

Como los b; son Iinealmente independientes sobre K y los al~> e K , todo aj,, = 0. Ento':lces ft(A) = 0, / 1(A) = 0, ... , f..{ A) = 0

AI ser los fi(l) polinomios sobre K que tienen A como cero y puesto que m(t) es el polinomio minimo de A como matriz sobre K , m(c) es divisor de cada uno de los fi(t). En consecuencia. por [1], m(c) debe ser divisor de m' (t). Pero dos polinomios norrnalizados divisores uno del otro son necesariamente iguales. 0 sea, m(t) = m'(t) como se requeria.

PROBLEMAS SUPLEMENTARIOS

POLINOMIOS DE MATRICES 8.40.

Sean f(t)

= 2t2 -

5t

+6y

g(t) =

A=

8.41.

Sea A =

8.42.

s" 8

t3 -

2t2

+ t + 3.

G-~)

y

Hallar f(A), g(A), f( B ) y g(B), donde

B=

G ~)

G 1)

I . Hallar A 2 , A 3 , A".

~ GI~ ~~). Hall" uoa mat
A tat quo B

~

A'

365

VALORES PROPIOS Y V ECTOR ES PROPIOS. DIAGONALIZAC ION

8.43.

Pro bar que, para cualquier matriz n-cuadrada A, (P - 1 AP)" = P- 1 A" P, donde P es invertible. Con mayor generalidad, probar que f(P - 1 AP) = p - 1 f(A)P para todo polinomio /(t).

8.44.

Sea f(r) un polinomio arbitrario. Mostrar que a) /(AT)= (f(A)f, y b) si A es simetrica, entonces f(A) es simetrica.

VALORES PROPIOS Y VECTORES PROPIOS 8.45.

Sea A = (

6 ). Ha llar: a) todos los valores propios y vectores propios linealmente indepen-

5

- 2 -2

dientes; b) P tal q ue D = P - 1 AP sea diagonal; c) A 10 y f(A) , do nde f(t) d) B tal que 8 2 = A. 8.46.

= t4

-

5t 3

+ 7t2 - 2t + 5;

Pa ra cada una de las siguientes matrices, encontrar todos los valores propios y una base cada espacio propio: a)

A~(;

4 1

~).

b) B

~

(

2 2

: -1

I

-!).

c)

C=(i

l l 0

~)

C ua ndo sea posible, hallar matrices invertibles P 1 , P 2 y P 3 tales que P; 1 AP 1, P2 1 BP 2 y P) 1 CP3 sean diagonales. 8.47.

8.48.

2

-I)

-I)·

3 y B = ( Encontrar todos los valo res propios y I 4 13 - 3 vecto res propios linealmente independientes suponiend o que: a) A y B son matrices sobre el cuerpo real R, b) A y B son matrices sobre el cuerpo complejo C.

Considerense las matrices A

= (

Supongase que v es un vector propio no nulo de dos matrices A y B. Mostrar que v es ta mbien propio de Ia matriz kA + k' B , donde k y k' son escalares cualesquiera.

vec~or

8.49.

Supongase que v es un vector propio no nulo de una matriz A perteneciente a l valor pro pio A.. Probar que para n > 0 v es tambien un vector propio de A" perteneciente a A.".

8.50.

Supongase que A. es un valor propio de una matriz A . Probar que f (A.) es un valor propio de f(A) para todo polinomio /(t).

8.51.

Mostrar que dos matrices similares tienen los rnismos valores propios.

8.52.

Probar que las matrices A y AT tienen los mismos valores propios. Dar un ejemplo en el que A y AT tengan diferentes vectores propios.

POLINOMIOS CARACTERISTICO Y MINlMO 8.53.

Hallar los p olinomios caracteristico y minimo de cada una de las matrices: 2

5 0 0

0 A= 0 0 0

2 0 0 0 4 2 0 3 5 0 0 0

0 0 0 0 0 3 l 0 0 0 0 3 l 0 0 0 0 3

3

B=

l 3 0

0

C=

A. 0 0 0 0 0 A. 0 0 0 0 0 A. 0 0 0 0 A. 0 0 0 0

366

ALGEBRA LINEAL

8.54. Sean A =

(~ ~ ~)

(~ ~ ~)·

y B = Mostrar que A y B tienen polinomios caracteristicos 0 0 1 0 0 1 diferentes (y por tanto no son similares) pero tienen el mismo polinomio minimo. Asi matrices no similares pueden tener el mismo polinomio minimo.

8.55. Considerese una matriz cuadrada por bloques M

= (

B)D

~

. Probar que tl - M =

(tl-- CA -B) ti - D

es Ia matriz caracteristica de M. 8.56. Sea A una matriz n-cuadrada tal que Ak

= 0 para

algun k >

11.

Proba r que A"= 0.

8.57.

Mostrar que una matriz A y su traspuesta AT tienen el mismo polinomio minimo.

8.58.

Sup6ngase que f(t) es un polinomio irreducible normalizado tal que f(A) = 0 para una matriz A. Mostrar que f(t) es el polinomio minima de A .

8.59.

Probar que A es una matriz escalar kl si y solo si el polinomio minimo de A es m(t) = t - k.

8.60.

Hallar una matriz A cuyo polinomio minimo sea a) r3

-

5t2

+ 6t + 8,

b) t 4

-

5t 3 - 2t

+7t + 4.

8.61. Considerense las matrices n-cuadradas escritas a continuaci6n (donde a #- 0): 0

1 0

0

0

0

0

..l. a 0 0 ..l. a

N=

M= 0

0

1

0 0 0

.................. 0 0 0

A. a 0 0 0 . .. 0 ..l.

Aqui N tiene I en Ia primera diagonal sobre Ia diagonal principal y 0 en cualquier otro sitio, y M tiene A. en Ia diagonal principal, a en Ia primera diagonal sobre Ia principal y 0 en el resto de las posiciones. Probar que para k < n Nk tiene I en Ia k-esima diagonal sobre Ia principal y 0 en cualquier otra posicion. Probar, asimismo, que N" = 0. b) Mostrar que el polinomio caracteristico y minima de N es f(t) = t".

a)

c)

Mostrar que el polinomio caracteristico y minimo de M es g(t) = (t -l)". (Indicacion: N6tese que M = AI+ aN.)

DIAGONALIZACION 8.62. Sea

A=(; !)

una matriz sobre el cuerpo real R. Determinar las condiciones necesarias y suficien-

tes a imponer sobre a, b, c y d para que A sea diagonalizable, es decir, para que tenga dos vectores propios linealmente independientes. 8.63. Repetir el Problema 8.62 para el caso en el que A es una matriz sobre el cuerpo complejo C. 8.64. Probar que una matriz A es diagonalizable si y solo si su polinomio minimo es producto de factores lineales distintos entre si.

VALORES PROPIOS Y VECTORES PROPIOS. DIAGONALIZACION

8.65.

367

Sup6ngase que E es una matriz tal que £ 2 = E. a)

Encontrar el polinomio minimo m(t) de E.

b)

Probar que E es diagonalizable y, mas aun, E es similar a Ia matriz diagonal

A=(~ ~).

donde r es el rango de E.

DIAGONALIZACION DE MATRICES REALES SIMETRICAS Y DE FORMAS CUADRATICAS 8.66.

Para cada una de las matrices simetricas A siguientes, encontrar una matriz o rtogonal P tal que

p-t AP sea diagonal:

.

(1 2)

8.67.

A=(! _ ;}

b)

A= 2 -2 '

a)

c) A=

(7 3) 3

- 1

Hallar una transformaci6n de coordenadas ortogonal que diagonalice cada forma cuadratica: a) q(x, y) = 2x 1

6xy + 10y1 ,

-

b)

q(x, y) = x 1

+ 8xy- 5y2

8.68.

Hallar una transformaci6n de coordenadas o rtogonal que diagonalice Ia forma cuadnitica q(x, y , z)= = 2xy + ~xz + 2yz.

8.69.

Sea A una ma triz 2 x 2 real simetrica con valores propios 2 y 3. Sea u perteneciente a 2. Encontrar un vector propio v perteneciente a 3 y A .

= (1,

2) un vector propio

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS

8.40. /(A) =

(-26 -3) 5

-27 '

A= (10 3) 1 ' 3

8.42.

lndicacion: Sea

39\ - 27/

- 40 g(A) = ( - 65

A-(~ ; ~)·

A"=

/(B)=(~

g(B)

=G 12) 15

G~)

i-lacer B

=

A 3 y despues obtener condiciones sobre a, by c.

0 0 2

.

8.45. a) ). 1· = 1, u = (3, - 2); ). 1 = 2, v = (2, -1) c)

AIO

= (

4093 6138) ( ) (2 -6)

-2046

- 3066 ,fA

=

2

9

-6+~)

4- 3v'2

li

368

ALGEBRA LINEAL

8.46. a) 1 1 = 2, u = (1, -1, 0), v = (1, 0, -1); 12 = 6, w = (1, 2, l) . b) 11 = 3, ll = (1, 1, 0), v = (1, 0, 1); 12 = 1, w = (2, -1, 1) . c)

1 = 1, u = (1, 0, 0), v = (0, 0, 1).

1 2)

.

1 1 0 -1 . p 3 no existe porque c tiene a lo sumo dos -1 0 ( 1 1 0 -1 vectores propios linealmente independientes y por tanto no puede diagonalizarse.

Sean P 1 =

8.47. a) Para A, l = 3, u = (1, - 1); 8 no tiene valores propios (en R). b) Para A, 1 8.52. Sea A=

(1, -I); para B, 1 1 = 2i, u =(I, 3- 2i); A.2 = -2i, v = (1, 3 + 2i).

= 3,. u =

G~).

Entonces A.= I es el (mico valor propio y u = (1, 0) genera el espacio propio de

A. = I. Por otra parte, para AT = (

~ ~} ). =

1 sigue siendo el unico valor propio, pero w = (0, I)

genera el espacio propio de 2 = 1.

8.53. a) £\(t) = (t- 2)3(t- 7)2 ; m(t) = (t- 2)2 (t- 7). b)

c)

8.60. a)

= (t- W; m(t) = (t- 3)3 . £\(t) = (t -1)~; m(t) = t -1 .

l\(t)

A~(~

0 0 1

-8)

b)

-6. 5

A~(~

0 0

0

1

0 0

0

1

-4) -7

2 5

8.65. a) Si E = I, m(t) = (t - I); si" E = 0, m(t) = t; en cualquier otro caso, m(t) = t(t - 1). b)

I ndicaci6n: Usar a).

8.66. a) p

=(

2/.fi

-1/.fi

- 1/.fi), 2/.fi

8.67. a) x = (3x'- y')/jiO, y = (x' + 3y')/ji0,

c)

-J) 3

3/Jlo - 1/Jlo) ( - 1/Jlo 3/.fiO

b) x = (2x'- y')/.JS, y = (x' + 2y')f.fi.

8.68. x = x'f.fi + y'f.fi. + z'/./6, Y = x'f.fi- y'f.fi. + z'/.j6, z = x'f.fi-

. = ( -¥j 8.69. v = (2, -1), A

P=

2z'IJ6~

CAPITULO

9

-

Aplicaciones lineales

9.1.

INTRODUCCION

El principal objetivo del algebra lineallo constituyen los espacios vectoriales de dimension finita y las aplicaciones lineales entre ellos. Los espacios vectoriales se presentaron en el Capitulo 5. Este capitulo introduce las aplicaciones lineales. No obstante, comenzaremos con una discusion de las aplicaciones en general.

9.2.. APLICACIONES Sea A y B conjuntos no vacios arbitrarios. Supongamos que a cada elemento de A se Ie asigna un unico elemento de B. La colecci6n de tales asignaciones se denomina una aplicaci{m de A en B. El conjunto A se llama el dominio de Ia aplicacion y el conjunto B, su codominio. Una aplicacion f de A en B se denota por f: A-+ B

Escribimos f(a}, leido «f de a», para representar el elemento de B que f asigna al elemento a EA. Recibe el nombre de valor de f en a o imagen de a bajo f . Nota: El termino funcion se usara como sin6nimo de aplicaci6n, aunque en algunos textos se reserva Ia palabra funci6n para designar las aplicaciones de valores reales o complejos, es decir, las que aplican un conjunto en R o C. · ·Consideremos una aplicaci6n f: A-> B. Si A ' es cualquier subconjunto de A , f(A ') denota el conjunto de imagenes de A'; y si B' es cualquier subconjunto de B, f - 1 (B' ) denota el conjunto de elementos de A cuyas imagenes estan en B': f(A1

= {f(a) : a e A'}

y

f - 1 (B') = {a E

A :f(a) E

B'}

369

370

ALGEBRA LINEAL

. Llamamos af(A') Ia imagen de A' y a f - 1 (B') Ia imagen inversa o preimagen deB'. En particular, · el conjunto de todas las imagenes, o sea, f(A), se conoce como Ia imagen (o recorrido) de f. A cada aplicacionf:A--+B le corresponde el subcon]unto de Ax B dado por {(a,f(a)):aEA}. Este conjunto se denomina el grafico de f. Se dice que dos aplicacionesf: A--+ By g: A--+ B son iguales, escrito f = g, si f(a) = g(a) para todo a E A, esto es, si tienen el mismo gratico. Asi pues, no distinguiremos entre una funcion y su grafico. La negacion de f = g se escribe f ¥- g y es Ia proposicion: Existe un aEA para el cual f(a) ¥- g(a) A veces Ia flecha «con barra»

H

se utiliza para denotar Ia imagen de un elemento arbitrario

x E A bajo una aplicacion f: A --+ B, escribiendo

X Hj (x)

Esto se ilustra en el siguiente ejemplo. EJEMPLO 9.1 a)

Sea f : R --> R Ia aplicaci6n que asigna a cada numero real x su cuadrado x 2 : f(x ) = x 2

0

La imagen de -3 es 9, de modo que escribimos f(- 3) b)

1

=

9.

3

5 ·Consideremos Ia matriz 2 x 3 A = ( ). Si expresamos los vectores en R 3 y R 2 como vecto2 4 -l res co lumnas, A determina Ia aplicaci6n F : R 3 --> R2 definida por esto es

V HAV

F(v) = Av

1 ento nces F(v) = Av = ( . 2 c)

Sea Vel espacio vectorial de los polino mios en Ia variable t sobre el cuerpo real R. La derivada define una aplicaci6n D : V -> V, donde para cada polinomio fe V hacemos D(f) = dffdt . Por ejemplo, D(3t2 - St + 2) = 6t - 5.

d)

Sea Vel espacio vectorial de los polinomios en t sobre R [como en c)). La integral, digamos 0 a l , define una aplicaci6n J : V--. R, don de para cada polinomio, fE V, hacemos J(f) = J~ f(t) dt. Por ejemplo, J(3t 2

_

5t + 2) =

r

(3t:2

_ :

5t .+ 2) dt

=t

N6tese que esta aplicaci6~ es del espacio vec torial V en el cuerpo real R, mientras que Ia de c) es de V en si mismo.

Nota: Toda matriz m x n sabre un cuerpo K determina Ia aplicacion F: Kn --+ Km definida por V HAV

donde los vectores en K" y Km se escriben como vectores colum.na. Por razones de conveniencia, denotaremos usualmente Ia aplicacion precedente por A, el mismo simbolo empleado para Ia matriz.

APLICACIONES LINEALES

371

COMPOSICION DE APLICACIONES

Consideremos dos aplicaciones f: A---. B y g: B---. C como se ilustra abajo: f

0

,

®- -©

Sea a eA. Entonces f(a)eB, que es el dominic de g. Por tanto, podemos obtener Ia imagen de f(a) bajo Ia aplicaci6n g, es decir, g(f(a)). Esta aplicaci6n a ~-->g(f(a) )

de A en C se llama Ia composici6n de f y g y se denota por go f. En otras palabras, (g • f) : A ---. C es Ia aplicaci6n definida por (g•f)(a) = g(f(a))

Nuestro primer teorema nos dice que Ia composici6n de aplicaciones satisface Ia ley asociativa. Teorema 9.1: Sean f: A~ B, g: B---. C y h: C-+ D. En tal caso, h o(g of)= (hog) of. Demostremos ahora este teo rema . Si a E A, (h

Y.

((h

o

o

(g of)'!.,a) = h((g o fXa)) g) o fXa)

= h(g(f(a)))

= (h o gXf(a)) = h(g(J(a)))

De este modo, (h •(g • f))(a) =.((h og) of)(a) para todo a e A, luego ho(g of) = (h ·g)•f. Nota: S~a .F: A-+ B. En algunos iextos se escribe aF en Iugar de F(a) para designar Ia imagen de a E A bajo F . Con esta notaci6n, Ia com posicion de las funciones F: A-+ B y G: B ~ C se expresa F oG y no Go F como se hace en este texto.

APLICACIONES INYECTTV AS (UNO-A-UNO) Y SUPRAYECTIVAS (SOBRE)

Introducirnos formalmente algunos tipos especiales de aplicaciones. Definicion: Se dice que una aplicaci6n f: A~ B es inyect iva o uno-a-uno (tambien uno-uno o 1-1) si los elementos diferentes qe A tienen imagenes diferentes; esto es, si

a#a' o, equivalentemente,

f(a)

=

f(a' )

implica

f(a) # f(a')

implica

a= a'

Definicion: Se dice que una aplicaci6n f: A -+ B es suprayectiva o sobre (o que f aplica A sabre B) si todo b e B ·es Ia imagen de, al menos, un a EA.

Se dice que una aplicaci6n f: A-+ B es biyectiva, o que es una correspondencia uno-a-uno entre A y B, si es simultaneamente inyectiva y suprayectiva.

372

ALGEBRA LINEAL

EJEMPLO 9 .2 ~)

Definamos f: R--+ R, g: R --+ R y h : R --+ R segun f(x) = 2"', g(x) = x 3 - x y h(x) = x 2 • Los .gnificos de estas furiciones se muestran en Ia Figura 9-1. La aplicaci6n f es inyectiva. Geometricamente, esto significa que cada recta horizontal no contiene mas de un punto de f . La aplicaci6 n g es suprayectiva. Geometricamente, esto quiere decir que cada recta horizontal contiene al menos un punto de g. La aplicaci6 n h noes ni inyectiva ni suprayectiva; por ejemplo, 2 y - 2 tienen Ia misma imagen, 4 y - 16 no es imagen de ningun elemento de R.

f(x)

= 2"

g(x)

= z.3- x

h(x)

Figura 9-1. b)

Sea A cualquier conjunto. La aplicaci6n f : A--+ A definida por f(a) =a, es decir, Ia que asigna a cada elemento de A el propio elemento, se denomina aplicaci6n identidad en A y se d en ot~{ por I A• I o I.

c)

Sea f: A--+ B. Llamamos a g: B-+ A Ia inversa de f , escrito f - 1 , si

f•g = Ia

y

g•f =IA

Seiialamos que f tiene una inversa si y solo si es ta nto inyectiva como suprayectiva (Problema 9.11). Ademas, si bEB, f- 1 (b) =a, siendo a el unico elemento de A para el que f(a) =b.

9.3. . APLICACIONES LINEALES Sea U y V espacios vectoriales sobre el mismo cuerpo K. Una aplicacion F: V--+ U se llama aplicaCion lineal (o transformacion lineal u homomorfismo entre espacios vectoriales) si satisface las dos condiciones: 1.

2.

Para todo par v, we V, F(v + w) = F(v) + F(w). Para todo keK y todo ve V, F(kv) = kF(v).

Dicho de otro modo, F: V-+ U es lineal si «preserva» las dos operaciones basicas de un espacio vectorial, la de suma vectorial y Ia de producto por un escalar. Sustituyendo k = 0 en 2 obtenemos F(O) = 0. Esto es, toda aplicaci6n lineal lleva el vector cero al vector cero. · Ahora, para todo pa r de escalares a, b e·k y todo par de vectores v, w E V obtenemos, imponiendo ambas condiciones de linealidad, F(av

+

bw) = F(av)

+

F(bw) = aF(v)

-t: bF(w)

APLICACIONES LINEA LES

Con mayor generalidad, para escalares cualesquiera ai E K y vectores cualesquiera a Ia propiedad basica de las aplicaciones lineales: F(a 1 v1

+ a2 v2 + · · · + a. v,) =

a 1 F(v 1 )

V; E

373

V llegamos

+ a 2 F(v 2 ) + · · · + a" F(v,)

Nota: La condici6n F(av + bw) = aF(v) + bF(w) caracteriza completamente las aplicaciones lineales y se utiliza a veces para definirlas. EJEMPLO 9.3

a)

Sea A cualquier matriz m x n sobre un cuerpo K. Como se seiia\6 previamente, A determina una aplicaci6n F : K"---> Km mediante Ia asignaci6n v~ Av. (Aqui los vectores de K" y Km se escriben como columnas.) Alirmamos que F es lineal. Esto es debido a que, por propiedades de las matrices,

= A(v + w) = Av + Aw = F(v) + F(w) F(kv) = A(kv) = kAv = kF(v)

F(v + w) y

donde v, weK" y keK. b)

Sea F : R 3 -> R 3 Ia aplicaci6n «proyecci6n» en el plano xy: F(x, y, lineal. Sean v = (a , b, c) y w = (a' , b', c'). Entonces F(v

z) = (x,

y, 0). Probemos que F es

+ w) = F(a + a', b + b', c + c') = (a + a', b + b', 0) = = (a, b, 0) + (a', b', 0) = F(v) + F(w)

y, para todo ke R , F(kv) = F(ka, kb, kc) = (ka, kb, 0) = k(a, b, 0) = kF(v)

0 sea, F es linea l. c) Sea F: R 2 ---. R 2 Ia aplicaci6n de «traslaci6n» delinida sagun F(x, y) = (x + I, y + 2). O bservese que F (O)·,; F(O, 0) = ( I, 2) 'f. 0. Es decir, el vector cero nose a plica sobre el vector cero. Por consiguiente, F no es lineal. d)

Sea F: V-+ U Ia a plicaci6n que asigna Oe U a todo · k E K tenemos F(v

+ w) =

0 : 0

+0 =

F(v)

vE

+ F(w)

V. Para todo par de vectores v, we V y todo

y

F(kv) = 0 = kO = kF(v)

Asi F es lineal. Llamamos a F Ia aplicacion cero y Ia denotaremos normalmente por 0. e)

Consideremos Ia aplicaci6 n identidad I : V---> V que aplica cada ve V en si mismo. Para todo par de vectores v, wE V y todo par de escalares a, b E K , J(av + bw) = av

+ bw =

a/(v) + bl(w)

Asi I es lineal. f)

Sea V el espacio vec~orial de los polinomios en Ia variable t sobre el cuerpo real R. La aplicaci6n derivada D: V---> Vy Ia aplicaci6n integral J: V-+ R, delinidas en el Ejemplo 9.1 c) y d), son lineales. La raz6n es que, segun se demuestra en el calculo, para todo par de vectores u, ve V y todo ke R,

+ v) du dv ---=-+-

· d(u

dt

dt

dt

y

d(ku) du -=kdt dt

374

ALGEBRA LINEAL

esto es, D(u

+ v) = D(u) + D(v) y D(ku) = k D(u); y tambien,

r

[u(t)

r

e

· g)

+ v(t)] dt =

ku(t) dt = k

r r u(t) dt

+

v(t) dt

r

u(t~ dt

esto es, J (u + v) = J(u) + J(v) y J( ku) = kJ(u). Sea F: V-+ U una aplicaci6n lineal que es simultaneamente inyectiva y suprayectiva. En tal caso, existe una aplicaci6n inversa F - 1 : U--+ V. Probaremos (Problema 9.15) que esta aplicati6n inversa es tambien lineal. '

'

N uestro proximo teorema (demostrado en el Problema 9.12) nos proporciona abundantes ejemplos de aplicaciones lineales. En particular, nos dice que una aplicacion lineal queda completamente determinada por los valores que asigna a los elementos de una base. · Teorema 9.2: Sean Vy U espacios vectoriales sobre un cuerpo K . Sean (v 1 , v2 , .. ·., v") una base de V y u 1 , u 2 , ... , u. vectores cualesquiera en U. Existe una {mica aplicacion lineal F: V-+ U ta l que F(v 1 ) = u 1, F(v 2 ) = u2 , ... , F(vn) = un. . Subrayamos el hecho de que los vecto res u1 , ••• , u. del Teorema 9.2 son completamente a rbitra rios; pueden ser linealmente dependientes o incluso iguales entre si.

ISOMORFISMOS ENTRE ESPACIOS VECTORIALES La nocion de espacios vectoriales isomorfos se defini6 en el Capitulo 5, cuando estudiabamos · las. coordenadas de un vector relativas a una base. Redefinirnos ahora este concepto. Definicion: D os espacios vectoriales V y U sobre K son isomorfos si existe una aplicacion lineal biyectiva F: V-+ U. La aplicacion F se denornina entonces isomorfismo entre V y U . . EJ EM PLO 9 .4. Sean V un espacio sobre K de dimension n y S una base de V. Como se indica pre~iamente, Ia aplicaci6n v ~-> [v]5 , que aplica cada vE V en su .v ector coordenado respecto a Ia base S, es un isomorfismo entre V y K".

9.4. NUCLEO E IMAGEN DE UNA APLICACION LINEAL Empezam os definiendo dos conceptos. Definicion: Sea F: V--+ U una aplicaci6n lineal. La imagen de F, escrito Im F, es el conjunto . de puntos imagen en U: Im F = {uE U: F(v) = u para algun vE V}

APLICACIONES LINEALES

375

El nuc/eo de F, e4lcrito KerF, es el conjunto de elementos de V que se aplican en Oe U: KerF= {veV:F(v) = 0} Se demuestra facilmente (Problema 9.22) el teorema

en~nciado

a continuaci6n.

Teorema 9.3: Sea F: V --. U una aplicaci6n lineal. La imagen de F es un subespacio de U y el nucleo de F es un subespacio de V.

Supongamos ahora. que los vectores v1 , ... , v, generan V y que F: V--. U es lineal. Probemos que los vectores F(v 1) , ... , F(v,)EV generan Im F. Supongamos que uelm F; en ese caso, F(v) = u para algun vector ve V. Como los vi generan Vy ve V, existen escalares a 1 , ... , a" tales que En consecuencia, u = F(v)

= F(a 1 v 1 + a 2 v2 + ··· + a,v,) =

a 1 F(v 1 )

+ a 2 F(v 2) + ··· + a.F(v..)

y por tanto los vectores F(v 1 ) ,

... , F(vn) generan Im F. Establezcamos formalmente este uti! resultado.

Proposicion 9.4: Supongamos que v 1 , v 2 , ... , v, generan un espacio vectorial Vy que F: V -. U · es lineal. Entonces F(v 1 ), F(v 2 ), ... , F(v,) generan Im F . EJEMPLO 9.5 a)

Sea F: R 3 -+ R 3 la aplicaci6n proyecci6n sobre el plano xy. Esto es, F(x, y, z) = (x, y, 0)

(Vease-la Figura 9-2.) Claramente Ia imagen de F es todo el plano xy. Es decir, lm F ={(a, b, 0): a, hER} N6te.se que el nucleo de F es el eje z. 0 sea,

KerF = {(0, 0, c): cER} ya que estos puntas y solamente estos se aplican en el vector cero 0 = (0, 0, 0). z

11

=(a, b.~)

Figura _9-2.

376 b)

ALGEBRA LINEAL

Sean Vel espacio vectorial de los polinomios so bre R y T : V--+ Vel operador tercera derivada, esto es,

[A veces se emplea Ia notacion T = D 3 , donde D es Ia aplicaci6n derivada del Ejemplo 9.1 c).] T endremos Ker T [porque T(at 2

+ bt +c)= 0

=

{polinomios de grado ~ 2}

pero T(t") i= 0 para

11

> 3]. Por otra parte,

Im T = V puesto que todo polinomio en V es Ia tercera derivada de algun polinomio. c)

Consideremos una matriz 4 x 3 arbitraria A sobre un cuerpo K:

que vemos como aplicaci6n lineal A: K 3 --+ K 4 . La base usual {e 1 , e2 , e 3 } de K 3 genera K 3 , luego sus valores Ae 1 , Ae 2 , Ae 3 bajo A generan Ia imagen de A. Pero los vectores Ae 1 , Ae 2 y A e 3 son las columnas de A: ·

de modo que Ia imagen de A es precisamente e\ espacio columna de A. Por otra parte, el nucleo de A consiste en todos los vectores v para los que A v = 0. Esto significa que el nucleo de A es el espacio soluci6n del sistema homogeneo AX = 0.

Nota: El resultado precedente es cierto en general. Esto es, si A es cualquier matri.z m x n vista como una aplicaci6n lineal A : K" -+ Km y E = { e;} es Ia base usual de K", los vectores Ae 1 , ... , A e. serfm las columnas de A. Por consiguiente, Im A = c-lio A, que quiere decir espacio columna de A (Secci6n 5.5). Asimismo, Ker A coincide con el espacio nulo de A, o sea, con el espacio soluci6n del sistema homogeneo AX = 0.

RANGO Y NULIDAD DE UNA APLICACION Lll'IEAL

Hasta aqui no hemos relacionado Ia noci6n de dimension con la de aplicaci6n lineal F: V-+ U. En los casos en que V es de dimension finita, tenemos Ia relaci6n fundamental que sigue.

APLICACIONES LINEALES

Teorema 9.5:

3T~

Sea V de dimension finita y sea F: V ~ U una aplicacion linea l. Entonces dim V

= dim (Ker F) + dim

[9.1]

(lm F)

Es decir, Ia suma de las dimensiones de Ia imagen y el nucleo de una a plicacion lineal es igual a Ia dimension de su do minio. Se ve facilmente que Ia ecuacion [9.1} rige para Ia aplicacion proyeccion F del Ejemplo 9.5 a). Alii Ia imagen (plano xy) y el nucleo (eje z) de F tienen dimensiones 2 y 1, respectivamente. mientras que el dominio R3 de F tiene dimension 3. Nota: Sea F : V ~ U una aplicacion lineal. Se define el rango de F como la dimension de su imagen y Ia nulidad de F como Ia dimension de su nucleo; esto es, rango F = dim (Im F)

y

nulidad F = dim (KerF)

El Teorema 9.5 proporciona, pues, Ia siguiente fo rmula para F cuando V tiene dimension finita: rango F

+ nulidad

F = dim V

Recordemos que el rango de una matriz se definio en origen como Ia dimension de su espacio columna y- de su espacio fila. Observese que si vemos ahora A como una aplicacion lineal. las dos definiciones se corresponden, porque Ia imagen de A es precisamente su espacio columna. EJEM PLO 9.6.

Sea F: R 4

--+

R 3 Ia aplicaci6n lineal definida por

F(x, y, S, t) = (X - y

a)

+ S + t, X + 2s -

t,

X

+ y + 3s -

3t)

Encontremos una base y Ia dimension de Ia imagen de F. Hallamos Ia imagen de los vectores de Ia base usual de R4 : F(l, 0, 0, 0) ..; (1, 1, 1)

F(O, 0, 1, 0) = (1, 2, 3)

F(O, 1, 0, 0) = ( -1, 0, 1)

F(O, 0, 0, 1) = (1, -l, - 3)

Segun Ia Proposici6n 9.4, los vectores imagen generan Im F; por eso construimos Ia matriz cuyas filas son estos vectores imagen y Ia reducimos por filas a forma escalonada:

De este modo, (I, I, 1) y (0, I, 2) constituyen una base de lm F , luego dim (Im F ) palabras, rango F = 2. h)

Encontremos una base y Ia dimension del nucleo de Ia aplicaci6n F. Hacemos F(v) = 0, donde v = (x, y, z, t): F(x, y, s, t) = (x - y

+ s + t, x + 2s -

t, x

+ y + 3s -

3t) = (0, 0, 0)

=2

o, en otras

378

ALGEBRA LINEAL

Igualamos entre si las componentes correspondientes para formar el siguiente sistema homogeneo cuyo espacio soluci6n es KerF:

x-y+ s+ t=O x +2s- t=O x

+ y + 3s -

0

3t = 0

x-y+ s+ t=O y+ s-2t=O 2y + 2s- 4t= 0

Las variables libres son s y t, luego dim (Ker F)= 2 o nulidad F i)

s = -1,

ii)

s = 0, t

x - y+s+ t=O y+s - 2t = O

0

=

2. Tomamos:

t = 0, para obtener Ia soluci6n (2, l, -I, 0). =

I, para obtener Ia soluci6n (1, 2, 0, 1).

Asi (2, I, -I, 0) y (1, 2, 0, 1) constituyen una base de KerF. (Observese que rango F + 2 = 4, que es Ia dimension del dominio R 4 de F.)

+ nulidad

F = 2

APLICACION A LOS SISTEMAS DE ECUACIONES LINEALES

Consideremos un sistema de m ecuaciones lineales con n incognitas sobre un cuerpo K:

+ a 12 x 1 + · · · + alNx,. = b 1 a 11 x 1 + a11 Xz + ··· + a1 "x" = bz

a 11 x 1



a.., 1 x 1 + a..,:z:Xz + ··· + a,.,.x,. = b,..

que es equivalente a Ia ecuaci6n matricial Ax= b

donde A = (aiJ) es Ia matriz de los coeficientes y x = (xJ y b = (b;) los vectores columna de las incognitas y de las constantes, respectivamente. Ahora Ia matriz A puede verse tambien como Ia aplicacion lineal

Siendo asi, Ia solucion de Ia ecuacion Ax = b puede verse como Ia preimagen de bE Km bajo Ia aplicaci6n lineal A: K" -+ Km. Mas aun, Ia soluci6n de Ia ecuaci6n homogenea asociada Ax = 0 puede verse como el nucleo de Ia aplicaci6n lineal A: K"-+ Km. El Teorema 9.5 relativo a aplicaciones lineales nos conduce a Ia relaci6n: dim (Ker A) = dim K" -dim (Im A) = n - rango A Pero n es exactamente el numero de incognitas en el sistema homogeneo Ax · volvemos a encontrar el Teorema 5.20.

= 0, por lo que

Teorema 9.6: La dimension del espacio soluci6n W del sistema de ecuaciones lineales homogeneo AX = 0 es n - r, donde n es el numero de incognitas y r el rango de Ia matriz de los coeficientes A.

APLI CACIONES LINEALES

9.5.

379

APLICACIONES LINEALES SINGULARES Y NO SINGULARES. ISOMORFISMOS

Se dice que una a plicacion lineal F: V--. U es sirtgular si Ia imagen de algun vector no nulo bajo F es O, es decir, si existe algun v E V tal que v-# 0 pero F(v) = 0. De esta menera, F: V--. U es no singular si unicamente 0 E V Se a plica en 0 E U O, equivalentemente, si SU nucleo COnsiste solamente en el vector cero: KerF= {0}. · Una propiedad fundamental de las aplicaciones no singulares es la que ahora escribimos (vease Ia demostracion. en el Problema 9.29).

Teorema 9.7: Supongamos que una aplicacion lineal F: V -+ U es no singular. En tal caso, la imagen de cualquier conjunto linealmente independiente es linealmente independiente.

ISOMORFISMOS

Supongamos que una aplicacion lineal F: V--. U es inyectiva. Entonces solo 0 E V puede aplicarse en 0 E U y por tanto F es no singular. El reciproco es cierto ta m bien, porque si F es no singular y F(v) = F(w), necesariamente F(v - w) = F(v) - F(w) = 0, luego v- w = 0 o v = w. Asi F(v) = F(w) implica v = w, o sea, F es inyectiva. Hemos demostrado, pues, · · Proposicion 9.8:

Una aplicacion lineal F: V--. U es inyectiva si y solo si ~~ no singular.

Recordemos que una aplicacion F: V--. U recibe el nombre de isomorfismo si es lineal y biyectiva, esto es, si es lineal, inyectiva y suprayectiva. Recordemos, asimismo, que se dice que un espacio vectorial Ves isomorfo a otro U, escrito V ~ U , si existe algun isomorfismo F: V-+ U. Es aplicable el teorema enunciado a continuacion, demostrado en el Problema 9.30.

Teorema 9.9: Supongamos que V tiene dimension finita y que dim V =dim U. Supongamos · tambien que F : V-+ U es lineal. Entonces F es un isomorfismo si y solo si es no singular.

9.6.

OPERACIONES CON APLICACIONES LINEALES

Podemos combinar aplicaciones lineales de varias maneras consiguiendo nuevas aplicaciones lineales. Estas operaciones son de gran importancia y se utilizaran a lo la rgo de todo el texto. Supongamos q ue F : V -+ U y G: V--. U son aplicaciones linea les entre espacios vectoriales sobre un cuerpo K . Definimos Ia suma F + G como Ia aplicaci6n de V en U que asigna

F(v)

+ G(v)

a vE V:

(F + G)(v) = F(v)

+ G(v)

Asimismo, para cualquier escala r kEK, definimos el ·producto kF como Ia aplicacion de V en U que asigna kF(v) a v E V:

(kF)(v) = kF(v)

380

ALGEBRA LINEAL

Probamos ahora que si F_ y G son lineales, tambien lo son F + G y kF. Tenemos, para todo par de vectores v, wE V y todo par de escalares a, bEK, (F + G)(av

+ bw) = F(av + bw) + G(av + bw) = = aF(v) + bF(w) + aG(v) + bG(w) = = a(F(v) + G(v)) + b(F(w) + G(w)) = = a(F + G)(v) + b(F + G)(w) =

y

(kF)(av

+ bw) = kF(av + bw) = k(aF(v) + bF(w)) = = akF(v)

+ bkF(w) =

a(kF)(v)

+ b(kF)(w)

Asi pues, F + G y kF son lineales. Disponemos del siguiente teorema. Teorema 9.10: Sean V y U espacios vectoriales sabre un cuerpo K. La colecci6n de todas las aplicaciones lineales de V en U, con las operaciones de suma y producto por un escalar anteriores, es un espacio vectorial sobre K. El espacio vectorial del Teorema 9.10 suele denotarse por Hom (V, U) Aqui Hom viene de Ia palabra homomorfismo. En caso de ser V y U de dimension finita, se aplica el teorema que enseguida enunciamos, demostrado en el Problema 9.36. Teorema 9.11:

Supongamos dim V =my dim U = n. En tal caso, dim Hom (V, U)

= mn:

COMPOSICION DE APLICACIONES LINEALES

Sean V, U y W espacios vectoriales sobre un mismo cuerpo K y F: V-+ U y G: U-+ W aplicaciones lineales: F

®~

G

®

Recordemos que Ia funci6n compuesta G • F es Ia aplicaci6n de V en W definida por (G·F)(v) = G(F(v)). Probemos que G · F es lineal siempre que lo sean F y G. Tenemos, para todo par de vectores v, WE V y todo par de escalares a, bEK, (G

o

F)(av

+ bw) = G(F(av + bw)) = G(aF(v) + bF(w)) = = aG(F(v))

+ bG(F(w)) =

a(G

o

F)(v)

+ b(G o

F)(w)

Es decir, GoF es lineaL La composici6n de aplicaciones lineales esta relacionada con Ia suma y el producto por un escalar como sigtie (vease Ia demostraci6n en el Problema 9.37): Teorema 9.12: Sean V, U y W espacios vectoriales sobre K, F y F' aplicaciones lineales de V en U, G y G' aplicaciones lineales de U en W y sea k EK. Entonces

APLICACIONES LINEALES

+ F') = G o F + G o F'.

i)

G o (F

ii)

( G + G')

iii)

9.7.

381

o

F= G

o

F + G'

o

F.

k(G oF)= (kG) o F= Go (kF) .

ALGEBRA DE OPERADORES LINEALES A(V)

Sea V un espacio vectorial sabre un cuerpo K. Consideramos ·ahara el caso especial de las aplicaciones lineales .F : V---. V, o sea, de V en si mismo. Estas se Haman tambiim operadores lineales o transformaciones lineales en V. Escribiremos A(V), en Iugar de Hom (V, V), para designar el espacio de tales aplicaciones. De acuerdo con el Teorema 9.10, A(V) es un espacio vectorial sabre K ; es de dimension n 2 si V es de dimension n. Si F , GeA(V), Ia composicion G·F existe yes tambien una aplicacion lineal de V en si mismo, es decir, G • FE A(V). De este modo, tenemos un «producto» definido en A(V). [En el espacio A(V) expresaremos G·F como GF.] Nota: Un algebra A sobre un cuerpo K es un espacio vectorial sobre K en el que se ha definido una operacion de producto que satisface, para todos los F, G, H E A y todo kE K , i)

F(G +H)= FG + FH

ii)

( G + H)F = GF

iii) k{GF)

+ HF

= (kG)F = G(kF)

Si Ia ley asociativa rige para el producto, esto es, si para todos los F , G, HE A, ·iv) (FG)H = F(GH) se dice que el algebra A es asociativa. La definicion precedente de algebra y los Teoremas 9.10, 9.11 y 9.12 nos proporcionan el siguiente resultado basico. Teorema 9.13: Sea V un espacio vectorial sobre K . En ese caso, A(V) es un algebra asociativa sob.re K con respecto a Ia composicion de aplicaciones. Si dim V = n, dim A(V) = n 2 • En vista del teorema anterior, A(V) se denomina frecuentemente el algebra de operadores lineales en V.

POLINOMIOS Y OPERADORES LINEALES Observemos que Ia aplicaci6n identidad I: V---. V pertenece a A(V). Ademas, para todo T E A(V), tenemos TI = IT= T. Hacemos notar que tam bien pueden formarse «potencias» de T ; usamos Ia notacion T 2 = T • T, T 3 = T · T • T, .. .. Mas aun, para todo polinomio

382

ALGEBRA LINEAL

podemos construir el operador p(T) definido segun p(T) =

Go 1

+ al T + Gz T 2 + ... + a~ r~

(Para un escalar k E K, el operador kl se denota con frecuencia por k, simplemente.) En particular, si p(T) = 0, Ia aplicacion cero, se dice que T es un cera del polinomio p(x). EJEMPLO 9.7.

Definamos T: R 3 (T

y

Ve mos, pues, que T 3 polinomio p(x) = xJ

9.8.

=

___,

R 3 por T(x, y, z) = (0, x , y ). Si (a, b, c) es cualquier elemento de R 3 •

+ IXa, b, c)= (0, a, b) + (a, b, c) = (a, a + b, b + c) T 3(a, b, c) = T 2 (0, a, b) = T(O, 0, a) ,;, (0, 0, 0)

0, Ia aplicaci6n cero de V en si mismo. Dicho de otro modo, T es un cero del

OPERADORES INVERTIBLES

Decimos que un operador lineal T: V--. V es invertible si tiene una inversa, es decir, si existe r- 1 EA(V) tal que TT- 1 = T- 1 T=l. Ahora bien, T es invertible si y solo si es inyectivo y suprayectivo. De este modo, en particular, si T es invertible,. solamente 0 E V puede aplicarse en si mismo, esto es, T es no singular. El reciproco no es cierto en general como se ve en el siguiente ejemplo. EJ EM PLO 9.8.

Sean Vel espacio vectorial de los polinomios sobre K y Tel operador en V definido segu n (n=0, 1, 2, . . :)

o sea, T aumenta en una unidad el exponente de t en cad a termino. Tenemos q ue T es una aplicaci6n lineal y es no singular. Sin emba rgo, T no es suprayectivo y por tanto no es in ve rtible.

La situaci6n cambia significativamente cuando V es de dimension linita. En concreto. disponemos del teorema enunciado a continuaci6n. Teorema 9.14: Supongamos que Tes un operador lineal en un espacio vectorial V de dimension finita. Son equivalentes las cuatro condiciones: i) ii)

T es no s~ngular, es decir, Ker

T = {0}.

T es inyectivo.

iii) T es suprayectivo. (iv) T es invertible, esto es, inyectivo y suprayectivo. La Proposici6n 9.8 nos dice que i) y ii) son equivalentes. Siendo asi, para demostrar el teorema, solo necesitamos probar que lo son i) y iii). [Se seguin1 entonces que iv) es equivalente a las otras.] Segun el Teorema 9.6, (

dim V = dim. (Im T)

+ dim (Ker

T)

Si T es no singular, necesariamente dim (Ker T) = 0, con lo cual, dim V = dim (Im T). Esto significa que V = Im T o que T es suprayectivo, de manera que i) implica iii). Reciprocamente,

APLICACIONES LINEALES

383

supongamos que T es suprayectivo. En ese caso, V = Im T, de donde dim V =dim (Im T). Esto quiere decir que dim (Ker T) = 0 y por ende T es no singular. Asi pues, iii) implica i). En consecuencia, el teorema queda demostrado. (La demostraci6n del Teorema 9.9 es identica.) EJEMPLO 9.9. Sea Tel operador en R 2 delinido por T(x , y) = (y, 2x - y). El nucleo de T es {(0. 0)}. luego T es no singular y, en virtud del Teorema 9.14, invertible. Hallemos ahora una formula para T - 1 • Supongamos que (s, r) es Ia imagen de (x, y) bajo T; por consiguiente. (x. y) es Ia imagen de (s, t) bajo T- 1 : T(x , y) = (s, c) y T - 1 (s, t) = (x. y). Tenemos

y asi

T(x, y) = (y, 2x ,.- y) = (s, t)

Despejando X e y en terminos de s y t obtenemos formula T - 1 (s , t) = + s).

Cts tr.

X=

y = s, 2x- y = t

ts+ { t, y = s.

Entonces

r-l

viene dad o por Ia

APLICACIONES A LOS SISTEMAS DE ECUACIONES LINEALES Consideremos un sistema de ecuaciones lineales sabre K y supongamos que el sistema tiene el mismo numero de ecuaciones que de incognitas, digamos n. Podemos representar este sistema por Ia ecuaci6n matricial

Ax =b donde A es una m a triz n-cuadrada sabre K que vemos como un operador lineal en K". Supongamos que Ia matriz A es no singular, esto es, que Ia ecuaci6n matricial Ax = 0 tiene solo Ia soluci6n trivial. La aplicaci6n lineal A es, pues, inyectiva y suprayectiva. Esto significa que el sistema (*) tiene soluci6n (mica para cualquier b EK". Por otra parte, supongamos que Ia matriz A es singular, es decir, que Ia ecuaci6n matricial Ax = 0 tiene una soluci6n no nula. En ese caso, Ia aplicaci6n lineal A noes suprayectiva, lo que significa que existe bEK" para el que(*) no tiene soluci6n. Mas aun, si existe una soluci6n, esta no es {mica. [Vease el Problema 1.63 ii).J Hemos demostrado asi el resultado fundamental: Teorema 9.15; Consideremos el siguiente sistema de ecuaciones lineales con el mismo numero de ecuaciones que de incognitas:

allxl +

a1 2x2

+

GzzX2

G21X1

+ ... + + ... +

alnxn

= bl

a1nXn

= b2

a)

Si el sistema homogeneo asociados61o tiene Ia soluci6 n nula, el sistema precedente tiene soluci6n (mica para todos los valores de los b;.

b)

Si el sistema homogeneo asociado tiene una soluci6n no nula, entonces: i) hay valores de los b; para los que el sistema precedente no tiene soluci6n; ii) siempre que exista una soluci6n del sistema anterior, no sera (mica.

384

ALGEBRA LINEAL

PROBLEMAS RESUELTOS

APLICACJONES

9.1.

Decir si cada diagrama de Ia Figura 9-3 define o no una aplicacion de A= {a, b, c} en B = {x, y, z}. a)

No. AI elemento bE A no se le asigna nada.

b)

No. A c E A se le asignan dos elementos, x y z.

c)

Si.

(a)

(b)

(c)

Figura 9-3.

9.2.

Definanse las aplicaciones f: A-+ B y g: B-+ C segun el diagrama de Ia Figura 9-4. Hallar: a) Ia aplicacion compuesta (g • f): A -+ C, b) las imagenes de las aplicaciones f, g. y g•f. f

A

B

Figura 9-4. a)

Utilizamos Ia definicion de aplicaci6n compuesta para calcular: (g

o

f)(a)

=

g(f(a))

"'=

g(y) = t

(g o fXb) = g(f(b)) = g(x) = s (g o fXc) = g(f(c)) = g(y) = t Observese que llegamos a! mismo resultado si «seguimos las flechas)) en Ia Figura 9-4: a--+y-+t

b)

De acuerdo con Ia Figura 9-4, los valores imagen bajo f son x e y, y los valores imagen bajo g son r, s y t; por tanto,

lmf= {x, y}

y

Im g

= { r,

s, t}

Asimismo, por a), los valores imagen bajo Ia aplicaci6n compuesta g • f son s y t. En consecuencia, Im (g. f) = {s, t}. N6tese que las imagenes de g y g •.f son diferentes.

APLICACIONES LINEALES

9.3.

Considerese Ia aplicaci6n F: R 3

.....

R 2 definida por F(x, y , z) = (yz, x 2 ). Calcular:

a) F(2, 3, 4). b) F(5, -2, 7). c) F- 1 (0, 0), es decir, todos los vectores vE R 3 tales que F(v)

=

0.

a)

Sustituimos en Ia formula para F consiguiendo F(2, 3, 4) = (3 · 4, 2 2 ) = (12, 4).

b)

F(5, -2, 7) = ( - 2 · 7, 52 )= ( - 14, 25).

c)

Hacemos F(v) = 0 con v = (x, y , z) y despejamos x, y, z:

= (0,

F(x, y , z) = (yz, x 2 )

o

0)

yz

Considerese Ia aplicaci6n G: R3 Hallar G- 1 (3 4).

-t

=0

y

x2

= 0, y = 0 o x

Asi x = 0 y bien y = 0 o bien z = 0. En otras palabras, x temente, v yace bien en el eje z o bien en el eje y.

9.4.

385

=0 =

0, z = 0. Consecuen-

R2 definida por G(x, y, z) = (x + 2y- 4z, 2x + 3y + z).

Hacemos G(x, y, z) = (3, 4) para obtener el sistema

x + 2y- 4z = 3 2x + 3y

+

x 0

z= 4

+ 2y- 4z = 3

x

0

-y + 9z = -2

+ 2y- 4z = 3 y- 9z = 2

Aqui z' es una variable libre. Tomamos z = a, a E R, para llegar a Ia soluci6n general x = - 14a- 1

y

1

Dicho de otro modo, G- (3, 4) = { ( -14a - I, 9a

9a + 2

=

z=a

+ 2, a)}.

9.5. Considerese la aplicaci6n F: R 2 -t R2 definida por F(x, y) = (3y, 2x). Sea S ei circulo unidad en R\ esto ·es, el conjunto soluci6n de x 2 + y 2 = 1. a) Describir F(S). b) Hallar p-!(S).

a)

.

Sea (a, b) un elemento de F(S). Existe un (x , y) e S tal que F(x, y ) = (a, b). Por tanto:

(3y, 2x) = (a, b) Como (x, y)eS, es decir, x

3y =a, 2x

0 2

(bf2) 2

+y

2

=

=

b

0

y =

a/3, x

=

b/2

I, tenemos

+ (a/ 3)2 =

1

0

Asi pues, F(S) es una elipse.

b)

9.6.

Sea F(x, y ) = ·(a, b ), donde (a, b)eS. Entonces (3y, 2x ) =(a, b) o 3y = a, 2x =b. Dado que (a, b)e S, tenemos que a 2 + b 2 = 1. De este modo, (3y) 2 + (2x)2 = I. En consecuencia, F - 1 (S) es Ia elipse 4x 2 + 9y2 = I.

Definanse las aplicaciones fy g segimf(x) = 2x + 1 y g(x) = x 2 - 2. Encontrar formulas para las aplicaciones a) g • f , b)f•g, c) g•g (a veces denotada por g 2 ). a)

Calculamos Ia formula para g • f como sigue: (g o!Xx) = g(f(x)) = g(2x

+ 1) = (2x + 1)2

-

2 = 4x2

+ 4x -

1

386

ALGEBRA LINEAL

Observese que puede llegarse a Ia misma respuesta escribiendo

+1

y = j(x) = 2x

z=

y

g(y)

y despues despejando y como se hace a continuaci6n: z = )' b) (j o g)(x) = f (g(x)) = j (x 2 c)

9.7.

(g ., g)(x) = g(g(x )) = g(x

2

-

2) = 2(x2 2) = (x

2

-

2)

-

2)

2

+ 1= -

2x 2

2= x

4

-

-

1

= y1 -

-

2

2 = (2x + 1) 1 - 2 = 4x2 + 4x- 1.

3. 4x

2

+ 2.

Sup6ngan sef: A--+ B y g: B -+ C; existe, pues, Ia composici6n (g of): A--+ C. Demostrar: a)

Si f y g son inyectivas, g of es inyectiva.

b)

Si

f

y g son suprayectivas, go f es suprayectiva.

c)

Si g of es inyectiva, f es inyectiva.

d)

Si go f es suprayectiva, g es suprayectiva.

a)

Supongamos (go f) (x) =(g oj)(y). Entonces g(j(x)) = g(j(y)). Como g es inyectiva, j(x) = j (y). Como j es inyectiva, x = y. Hemos demostrado que (g of)(x) = (g oj)(y) implica x = y, luego g of es inyectiva.

b) Supongamos que cE C. Dado que g es suprayectiva, existe bE B para el que g(b) =c. Siendo f suprayectiva, existe a E A para el que j(a) = b. Asi (go j) (a) = g(f(a)) = g(b) = c; luego go f es suprayectiva.

9.8.

c)

Supongamos que f no es inyectiva. En tal caso, existen elementos distintos x, y EA tales que f(x) = j(y). De este modo, (go j)(x) = g(f(x)) = g(f(y)) =(go j) (y), luego gof no es inyectiva. Po r tanto, si go j es inyectiva, j debe serlo tam bien.

d)

Si aEA , entonces (g of)(a) = g(j(a))eg(B), luego (goj) (A) ~ g( B }. Supongamos que g no e~ suprayectiva. Entonces g(B) estani contenido propiamente en C y por consiguiente (g oj)(A) ta mbien to estani, de donde g•.f no es suprayectiva, En consecuencia si g·.f es suprayectiva, necesariainente lo es g.

Demostrar que una aplicacion f: A--+ B tiene una mversa si y solo si es inyectiva y suprayectiva. Supongamos que j tiene una funci6n inversa j - 1 : B - A y po r tanto j- 1 o .f = lA y j of - 1 = 18 . Por ser I A inyectiva, f es inyectiva, segun el Pro blema 9. 7 c), y como I B es suprayectiva, f es suprayectiva por el Problema 9. 7 d). Esto es. f es simultimeamente inyectiva y suprayectiva. Supongamos a hora que f es ta nt o inyectiva como suprayectiva. En ese caso, cada ·beB es Ia imagen de un unico elemento de A, digamos 6. De cste modo, si f(a) = b, necesariamente a = 6; luego f(6) = b. Denotemos por g Ia aplicacion de B en A defin ida por b f-+ 6. Tenemos:

6 =a. para todo

i)

(g•f)(a) = g(f(a)) = g(b) =

ii)

(f•g)(b )=f(g(b))=J(fi)=b, para todo bEB; porconsiguiente,.fog = 18 •

a e A ; por consiguiente, g•.f = I""

En consecuencia• .f tiene por inversa a Ia aplicaci6n g.

APLICACIONES LINEALES 9.9.

Discutir si Ia siguiente aplicacion es lineal: F: R 3 --+ R definida por F(x, y, z) = 2x - 3y + 4z. Sean v

= (a,

b, c) y w

= (a' ,

b', c'); entonces

v + w = (a + a', b + b', c + c')

y

kv

=

(ka, kb, k.c)

keR

A PLICACIONES LINEALES

Tenemos F(v) = 2a - 3b F(v

+ 4c y

+ w) =

F(w) = 2a' - 3b'

+ 4c'. Asi

+ b', c + c') = 2(a +a')- 3(b + b') + 4(c + c') = + 4c) + (2a' - 3b' + 4c') = F(v) + F(w)

F(a +a', b

= (2a - 3b y

387

F(kv) = F(ka, kb, kc) = 2ka - 3kb

+ 4kc =

k(2a - 3b

+ 4c) =

kF(v)

De acuerdo con ello, F es lineal.

9.10.

Probar que Ia siguiente aplicaci6n noes lineal: F : R 2 --+R3 definida por F(x, y )= (x+l , 2y, x +y) D ado que F(O, 0)

= (1, 0, 0) #

(0, 0, 0), F no puede ser lineal.

9.11. Sean Vel espacio vectorial de las matrices n-cuadradas sobre K y M una matriz arbitraria en V. Defmase T : V-> V mediante T(A) = AM + M A , con A E V. Mostrar que T es lineal. Para t od o par de matrices A, B e V y todo k E K tenemos

T(A +B)= (A+ B)M + M(A + B) = AM+ BM + MA + MB = =(AM+ MA) + (BM + MB) = T(A) + T(B) y

T(kA)

= (kA)M + M(kA) = k(AM) + k(MA) = k(AM + MA) = kT(A)

En con.secuencia, T es lineal.

9.12. Demostrar el Teorema 9.2. La demostraci6 n consta de tres pasos: 1. Defin imos Ia aplicaci6n F : V--+ U tal que F ( v;) = u;, i = 1, ... , n. 2. Probamos que F es lineal. 3. Probamos que F es (mica.

Paso 1. Sea v e V. Como {v1 , . . . , v.} es una base de V, existen escalares unicos a1 , lqs que v = a i v1 + a2 v1 + ··· + a.v•. Definimos F : V--+ U por F(v) = a 1u 1

. .•,

a.E K para

+ a2 u2 + · · · + a.u.

(Siendo unicos los a;, Ia aplicaci6n F esta bien definid a.) Aho ra, para i

=

I , .. . , n,

v, = Ov 1 + · · · + lv 1 + ·· · + Ov. F(vJ = Ou 1 + · · · + lu1 + · · · + Ou. = u1

De aqui

Asi el primer paso de Ia demostraci6n esta complete.

Paso 2. Supongamos v = a 1 v 1 + a2 v2 + ··· + a.v. y v+

w =

(a 1 + b 1)v 1 + (a 2

y, para cualq uier k E K , kv ;,. ka 1 v 1

w =

+b )v 2

2

b1 v1 + b2 v2

+ ... +

b.v•. Entonces

+ · .. +(a. + b.)v.

+ ka 2 v2 + ... + ka.v.·.

Por definicion de Ia aplicaci6 n F,

y Por tanto, F(v + w)

= (a 1 + b 1)u1 + (a 2 + b2)u2 + = (a 1 ut + a2 u2 F(v) + F(w)

=

y De este modo, F es lineal.

+ ···

· · · + (a. + b.)u. =

+ a.u,.) + (b 1 u1 +

b2 u2

+ · ·· +

b.u,.) =

388

ALGEBRA LINEAL

Paso 3.

Supongamos que G: V--> U es lineal y que G(vJ

v = a1 v1 necesariamente

AI ser G(v) = F(v) para todo

Sea F: R 2

i = I, ... , n. Si

+ a2 v2 + ··· + a.v.

+ a 2 v 2 + ··· + a.v.) = a 1 G(v 1 ) + a 2 G(v2 ) + ··· + a.G(v.) = + a 2 u 2 + ··· + a.u. = F(v)

G(v) = G(a 1 v 1 =a 1 u 1

9.13.

= u;,

vE

V, G

= F. Asi pues, F es !mica y queda demostrado el teorema.

R 2 Ia aplicacion lineal para Ia cual

--+

F(l, 2)

=

(2, 3)

F(O, 1) = (1, 4)

y

[Dado que (1, 2) y (0, I) constituyen una base de R 2 , tal aplicacion lineal existe yes (mica en virtud del Teorema 9.2.] Encontrar una ex presion para F, es decir, hallar F(a, b). Escribimos (a, b) como combinaci6n lineal de (1, 2) y (0, I) usando incognitas x e y: (a, b)= x(l, 2)

+ y(O, 1) = (x, 2x + y)

de forma que

a= x, b = 2x

+y

Despejamos x e yen terminos de a y b llegando ax= a, y = -2a +b. Entonces F(a, b)= xF(l, 2)

9.14.

+ yF(O,

1) = a(2, 3) + (- 2a

+ b)(l, 4) =

(b, -Sa

+ 4b)

Sea T: V--+ U lineal y supongase que v1 , ••• , v.e V poseen la propiedad de que sus imagenes T(v 1 ), • .. , T(v.) son linealmente independientes. Mostrar que los vectores v1 , ••. , v. son tambiC:m linealmente independientes. Supongamos que, para ciertos escalares a 1 , 0

•••

,a., a 1 v 1

+ a 2 v2 + ··· + a.v. = 0. En tal caso,

= T(O) = T(a 1 v 1 + a 2 v 2 + · · · + a.v.) = a 1 T(v 1) + a 2 T(v1 ) +·:·+a. T(vJ

Como los T(vJ son linealmente independientes, todo los a1 = 0. Los vectores v 1 , linealmente independientes.

9.15.

••• ,

v. son, pues,

Sup6ngase que la aplicaci6n lineal F: V--+ U es inyectiva y suprayectiva. Probar que Ia aplicaci6n inversa p- 1 : U--+ V es tambien lineal. Supongamos u, u' e U. Por ser F inyectiva y suprayectiva, existen vectores unicos. v, v' e V para los que F(v) = u y F(v') = u'. Como F es lineal, tendremos tambien

F(v + v') = F(v) + F(v1

= u + u'

F(kv) = kF(v)

y

Por definicion de aplicaci6n inversa, F - 1 (u) = v, f - 1 (u') = Entonces F - 1(u

y asi F -

1

+ u') = v + u' =

f- 1 (u)

+ F- 1(u')

= ku v' , F - 1 (u + u') = v + v'

y F - 1 (ku) = k v.

y

es lineal.

IMAGEN Y NUCLEO DE APLICACIONES LINEALES

9.16.

Sea F: R 5

--+

R 3 Ia aplicaci6n lineal definida segun

F(x, y, z, s, t) = (x + 2y + z - 3s + 4t, 2x + Sy + 4z - Ss + 5t, x + 4y + 5z - s - 2t)

Hallar una base y la dimension de Ia imagen de F.

APLI CACION ES LI NEALES

389

Determina mos Ia imagen de los vecto res de Ia base usual de R 5 :

F(1, 0, 0, 0, 0) = (1, 2, 1)

F(O, 0, l, 0, 0) = (1, 4, 5)

F(O, 1, 0, 0, 0) = (2, 5, 4)

F(O, 0, 0, 0, 1) = (4, 5, -2)

F(0, 0, 0,1, 0)=( - 3, -5, - l)

De acuerdo con Ia P roposicio n 9.4. los vectores imagen generan Im F, por lo que co nstruim os Ia matriz cuyas filas son estos vectores imagen y Ia reducimos por filas a fo rma escalonada:

1 0 0 0 0

2

1 2 1 -3 4

5

4

4

5

-5

-1

5

-2

2

2

l

l

1

2 0

0 0 0

2 -3

0 0 0

Asi pues, ( I, 2, I) y (0 , I, 2) fo rman una base de lm F, de modo que dim (lm F ) = 2.

9.17.

Sea G: R 3

-+

R 3 Ia a plicaci6n lineal definida segun G(x, y, z) = (x

+ 2y -

z, y

+ z, x + y -

2z)

Halla r una base y Ia dimension del nucleo de G. Hacemos G(v) = 0, d onde v

= (x,

y. z):

G(x, y, z) = (x + 2y - z, y + z, x + y - 2z) = (0, 0, 0) lgua lamos entre si las componentes correspo nd ientes para fo rma r el sistema homogeneo cuyo espacio soluci6 n es el nucleo W de G:

x + 2y- r = 0 y + z =0 x+ y - 2z = 0

X+ 2y- Z = 0

La unica variable libres es z; po r tanto. dim W (3. - I. I) fo rma una base de Ker G.

9.18.

X+

y+ z= O -y- z = O

0

ConsidOrese Ia aplicaci6n matricial A: R4

~

= I. Sea

0

Z = 0 y+ z =O

2y-

z = I; entonces y

R', donde

A ~ (:

= - I y

2 3

3

8

l3

5

x = 3. Asi

-~).

Hallar

- 3

una base y Ia dimension de a) Ia imagen de A, b) el nucleo de A . a)

El espacio columna de A .es igual a lm A, po r lo q ue reducimos AT a forma escalo nada:

AT =

(~

3 3 5 1 - 2

!) _(~

13 -3

0 0

~) (~

1 2 4 - 3. - 6

0 0

0 0

~)

0 0

De este modo, {( 1, I, 3), (0, I, 2)} es una base de Jm A y dim (lm A) = 2.

390

ALGEBRA LINEAL

b)

Aqui Ker A es el espacio solucion del sistema homogeneo AX= 0, donde X = (x, y, z, t)r. Por eso reducimos Ia matriz A de coelicientes a forma escalonada:

(~

3 1) (1

2

2 4

2

3 1) {x

2

-3 "' 0 -6 0

_

2 0

0

3 ,.., . 0

+ 2y + 3z + t = 0 y + 2z - 3t = 0

Las variables libres so n z y t, luego dim (Ker A)= 2. Tomemos: i) ii)

z = I, t = 0, para conseguir Ia soluci6 n ( l, - 2, I, 0). z = 0, l = I, para conseguir Ia soluci6n ( - 7, 3, 0, I).

Asi pues, (1, -2, l , 0) y ( - 7, 3, 0, I) constituyen una base de Ker A.

9.19.

Considerese Ia aplicaci6n ma tricial B:

R3 -+

~

=(

3

R con B

-2

~~)

2 5. . Encontrar Ia -1 -4

dimension y una base de a) el nucleo de B, b) Ia imagen de B. a)

Reducimos B a forma escalonada para conseguir el sistema homogeneo correspondiente a KerB:

.~ (: -2

2 5 -1

·~)-(~

-4

2 -1

0

3

-!)- (~

Hay una variable libre, z, luego dim (Ker B) ( - I, -2, I) que forma una base de Ker B.

b)

=

~) -

2 0

{' + 2y + ,,

~0

y+2z = 0

0

I. T omamos z = I para llegar a Ia soluci6n

Reducim os Br a forma escalonada:

3-2) (1 3-2) (1

5 13

-1 "' 0 -4 0

-1

-2

3 "' 0 6 0

Asi (1, 3, - 2) y (0, l, -3) constituyen una base de Im B. ·

9.20.

Encontrar una aplicaci6n lineal F: R 3 y (2, 0, -1, -3). Metodo 1.

-+

R 4 cuya imagen este generada por (1, 2, 0, - 4)

Consideremos Ia base usual de R 3 : e 1 = (1, 0, 0), e 2 = (0, I, 0), e3 F(e 2 ) = (2, 0, -1, - 3)

F(e 1 ) = (1, 2, 0, -4)

y

=

(0, 0, I). T omemos

F(e 3 ) = (0, 0, 0, 0)

Segun el Teorema 9.2, tal aplicaci6n lineal F existe yes unica. Ademas, Ia imagen de Festa generada por los F(e;). Por consiguiente, F posee Ia propiedad requerida. Hallemos una formula para F(x, y, z): F(x, y, z) = F(xe 1

+ ye2 +

= x(1, 2, 0, - 4) = (x

ze3)

= xF(e 1) + yF(e 1) + zF(e 3 ) =

+ y(2, 0,

-1, -3) + z(O, 0, 0, 0) =

+ 2y, 2x, -y, -4x - 3y)

l APLICACIONES LINEALES

Metodo 2. es decir,

391

C onstruyamos una matriz 4 x 3 A cuyas columnas consistan solo en los vectores dados;

A=(

~ ~ ~)

0 -4

-1 -3

-1 -3

Recuerdese que A determina una aplicaci6n lineal A : R 3 -+ R 4 con Jmagen generada por las columnas de A. Siendo asi, A satisface Ia condici6n requerida.

9.21. Sean Vel espacio vectorial de las matrices 2 por 2 sabre R y M =

(~ ~).Sea F: V--. V

Ia aplicaci6n lineal definida por F(A) = AM - M A. Hallar una base y Ia dimension del nucleo W de F.

~)tales que F(: ~) = (~ ~).

Buscamos el conjunto de las(:

~: ~)

~)- G~x: ~) =(Xs 2s2X ++ 3y) _ (X+ 2s y +2t) 3t 3s · 3t

=

G~x~

2x

·= (-2s

=

+ 2y- 2t) =

-2s Por ta nto,

{

2x + 2y - 2t = 0 2s = 0

Las variables libres son y y t , luego dim W

y b) y

a)

=

0

(0 0) 0 0

{

x+y-t=O s=O

2. Para conseguir una base de W tomemos

=

- 1, t = 0, para o btener Ia soluci6n x = 1, y = - I, s = 0, t = 0.

=

0, t = I, para obtener Ia soluci6n x = I, y = 0, s = 0, t =I.

Asi pues, {

9.22.

2s

=

G-~). G ~)}

es una base de W.

Demostrar el Teorema 9.3. a)

C omo F(O ) = 0, tenemos que Oelm F. Supongamos a hora q ue u, u'e lm F y a, be K . Dado que u y u' pertenecen a Ia imagen de F , existen vectores v, v' E V tales que F (v) = u y F(v' ) = u'. Entonces

F(av

+ bv') =

aF(v) + bF(v') = au

+ bu' E

lm F

De este modo, Ia imagen de F es un su bespacio de U. b)

Como F(O) = 0, tenemos que 0 e Ker F. Supongam os ahora que v, we Ker F y a, b e K. Dado que v y w pertenecen al nucleo de F, F(v) = 0 y F(w) = 0. Asi

F(av

+ bw) = aF(v) + bF(w) = aO + bO =

El nucleo de F es, pues, un subespacio de V.

0

luego

av

+ bw E

KerF

392

ALGEBRA LINEAL

9.23.

Demostrar el Teorema 9.5. Supongamos que dim (Kerf)= r y que {w 1 , .•. , w,} es una base de KerF . . Supongamos, asimismo, que dim (Im F)= s y que {u 1, •.. , u.} es una base de Im F. (Por Ia Proposici6n 9.4 sabemos que Im F tiene dimension finita.) Dado que los uielm F, existen vectores v 1 , •• • , v. en V tales que F(v 1 ) = u1 , ... , F (v.) = u•. Alirmamos que el conjunto es una base de V, esto es: i) B genera V, ii) B es linealmente independiente. Una vez que hayamos probado i) y ii), tendremos dim V = r + s = dim (Ker f) + dim (Im F). i)

B genera V.

Sea ve V. En tal caso, f(v)e lm F. Como los ui generan Im f, existen escalares a 1 , tales que F(v ) = a 1 u1 + · · · + a.u•. Tomemos i! = a 1 v1 + ·.. + a.v.- v. Entonces

... ,

a.

+ · · · + a,v,- v) = a 1 F(vd + · · · + a, F(v,)- F(v) = a 1u 1 + · · · + a,u,- F(v) = 0

F(v) = f(a 1 v1 =

Por tanto, iJe Ker F. Como los w1 generan Kerf, existen escalares b 1 ,

••• ,

b, tales que

En consecuencia, Siendo asi, B genera V. ii)

B es linea/mente independience. Supongamos que x 1w1 +·· · +x,w,+y 1 v 1 +··· +y,v, = O donde x 1, yie K . Entonces

(I]

0 = f(O) = f(x 1 w1 + · · · + x,w, + y1 v1 + ··· + y,v,) =

= x 1 f(w 1) + · · · + x.f(w,) + y 1 f(v 1) + · · · + yJ(v,)

(2]

Pero f (w1)=0 porque w 1eKer F y F(vi)= ui. La sustituci6n en (2] proporciona y 1 u1 + ... +y,u,=O. Por ser linealmente independientes los ui, cada yi = 0. La sustituci6n en [I] conduce a x 1 w 1 + ··· + x, w, = 0. Siendo lineal mente independientes los w1, cada x, = 0. De modo que B es linealmente independiente.

9.24.

Sup6ngase que F: V-+ U y G: U a) a)

rango (G• F) ::s: rango G.

-+

W son lineales. Demostrar:

b)

rango (G•F) .::S: rango F.

Como F(V) s;;; U, tendremos tam bien G(f(V)) s;;; G(U) y asi dim G(f(V)) ~d im G(U). Entonces rango (G • f) = dim ((G • f)(V)) =dim (G(f(V)))

b)

dim G(U) = rango G

Tenemos dim (G(f(V))) ~ dim F(V). De aqui rango (G·f) = dim ((G• F)(V)) =dim (G(F(V)))

9.25.

~

~dim

F(V) = rango F

Sup6ngase que f: V-+ U es lineal con nucleo Wy que f( v) = u. Mostrar que Ia «variedad afin» v + W = { v + w: wE W} es Ia preimagen de u, es decir, f - 1 (u) = v + W. Debemos demostrar que: i) f- 1 (u) s;;; v + W, ii) v + Ws;;;f - 1 (u). Comenzamos pori). Supongagamos que v' ef - 1 (u). Entonces f(v') = u, de forma que f(v' - v) = f(v1- f(v) = u - u = 0

esto es, v'- ve W. Asi v' = v

+ (v'-

v) e v + W y por tanto

f - 1 (u) s;;; v + W.

A PLI CACIONES LIN EALES

393

Demostremos ahora ii). Supongamos que v' e v + W. Entonces v' = v + w, donde we W. Dado que W es el nucleo de f , f(w) = 0. En consecuencia, f(v1 = f(v + w) + f(v) + f (w) ""'f(v) + 0

Asi v'e r

1

(u),luego v +

= f(v) = u

1

w ~ r (u) .

APLICACIONES LINEALES SINGULARES Y NO SINGULARES. ISOMORFISMOS

9.26. Determinar si cada aplicaci6n lineal es o no singular. Si es singular, encontrar un vector no nulo v cuya imagen sea 0. b)

F: R 2 -+ R 2 definida por F(x, y) = (x - y, x - 2y). G: R 2 -+ R 2 definida por G(x, y) = (2x- 4y, 3x- 6y).

a)

Hallamos KerF haciendo F (v)

a)

= 0, donde v =

(x - y, x - 2y) = (0, 0)

(x, y):

x - y= O { X - 2y = 0

0

0

{

x-y=O -y =O

La imica soluci6n es x = 0, y = 0, luego F es no singular. b) Hacemos G(x, y) = (0, 0) para halla r Ker G: (2x - 4y, 3x - .6y) = (0, 0)

2x- 4y = 0 { 3x - 6y = 0

0

0

X-

2y = 0

El sistema tiene soluciones no triviales porque y es una variable libre; por tanto , G es singnlar. Tomemos y = I para obtener Ia soluci6n v = (2, 1), que es un vector no nulo tal que G(v) = 0.

9.27.

D efinase H : R 3 -+ R 3 por H (x , y, z) = (x + y - 2z, x + 2y + z, 2x + 2y- 3z). a) Probar que H es no singular. b) Hallar una expresi6n para H- 1 . a)

Hacemos H(x, y , z) = (0, 0, 0); es decir, hacemos (x + y - 2z, x + 2y + z, 2x + 2y - 3z) = (0, 0, 0) Esto conduce a! sistema homogeneo

x+ y - 2z=O 2y + Z = 0 { 2x + 2y- 3z = 0

x+ y - 2:z=0 y + 3z = 0 { :z =O

0

X+

El sistema escalonado esta en forma triangular, por lo que Ia unica soluci6n es x = 0, y = 0, z = 0. Siendo asi, H es no singular. · b)

Hacemos H(x, y, z ) =(a, b, c) y despejamos x, y, zen terminos de a, b, c:

x + y - 2z=a 2y + z = b { 2x + 2y- 3z = c X+

x 0

{

+ y - 2z = a y + 3z = b- a z =c- 2o

394

ALGEBRA LIN EAL

Resolviendo para x , y, z, x = - 8a- b + 5c, y = 5a + b- 3c, z = -2a +c. De este modo, H - 1(a, b, c) = (-Sa - b + 5c, 5a + b - 3c, - 2a + c)

o sustituyendo a, b, c por x, y, z, respectivamente, H- 1 (x, y, z) = (- 8x - y

9.28.

+ 5z, 5x + y- 3z,

- 2x + z)

Supongase que F: V--+ U es lineal y que V es de dimension finita. Probar que V y Ia imagen de F tienen Ia misma dimension si y solo si F es no singular. Determinar todas las aplicaciones lineales no singulares T: R 4 --+ R 3 . De acuerdo con el Teorema 9.5, dim V = dim (Im F) + dim (Ker F). Por consiguiente, V e Im F tienen Ia misma dimension si y solo si dim (KerF) = 0 o KerF = {0}, o sea, si y solo si F es no singular. Como dim R 3 es menor que dim R 4 , tendremos que dim (Im T) es menor que Ia dimension del dominio R 4 de T. En consecuencia, ninguna aplicacion lineal T: R 4 --. R 3 puede ser no singular.

9.29.

Demostrar el Teorema 9.7. Supongamos que v1 , v 2 , ••• , v. son vectores linealmente independientes en V, Afirmamos que F(v 1 ), F(v 2 ), ••• , F(v.) son tam bien linealmente independientes. Supongamos a 1 F(vd + + a 2 F(v 2 )+ ··· + aJ(v.) = 0, donde a;EK. Dado que F es lineal, F(a 1 v1 + a2 v2 + ··· + a.v.) = 0; por tanto,

Pero F es no singular, esto es, KerF= {0}, luego a 1 v 1 + a 2 v2 + ··· + a.v. = 0. Siendo linealmente independientes los V;, todos los a; son 0. De acuerdo con esto, los F(v;) son linealmente independientes. Queda asi demostrado el teorema.

9.30.

Demostrar el Teorema 9.9. Si F es un isomorfismo, solo 0 se aplica en 0, de modo que F es no singular. Supongamos que F es no singular. Entonces dim (Ker F) = 0. Segun el Teorema 9.5, dim V =dim (Ker F)+ dim (Im F). Asi pues, dim U = dim V = dim (lm F). Como U tiene dimension finita, Im F = U y por ende F es suprayectiva. Por tanto, F es simultimeamente inyectiva y suprayectiva, es decir, F es un isomorfismo.

OPERACIONES CON APLICACIONES LINEALES 9.31.

Definanse F: R 3 --+ R 2 y G: R 3 --+ R 2 por F(x, y, z) = (2x, y + z) y G(x, y, z) = (x - z, y), respectivamente. Encontrar expresiones que definan las aplicaciones a) F + G, b) 3F , c) 2F- 5G. a)

(F

+ (G(x, y, z) = = (2x, y + z) + (x - z, y) = (3x -

+ G)(x, y, z) =

F(x, y, z)

b) (3F)(x, y, z) = 3F(x, y, z) = 3(2x, y

z, 2y

+ z) = (6x, 3y + 3z).

c) (2F - 5G)(x, y, z) = 2F(x, y, z) - 5G(x, y, z) = 2(2x, y =

(4x, 2y

+ z).

+ z) -

5(x - z, y)

=

+ 2z) + ( -5x + 5z, -5y) = ( -x + 5z, -3y + 2z).

APLICACIONES LINEALES

9.32.

9.33.

395

Definanse F: R 3 -> R 2 y G: R 2 -> R2 por F(x, y, z) = (2x, y + z) y G(x, y) = (y, x), respectivamente. Derivar formulas que detinan las aplicaciones a) Go F, b) FoG.

= G(F(x,

y, z))

= G(2x, y + z) = (y + z, 2x).

a)

(G·F)(x , y, z)

b)

La aplicaci6n F • G no esta definida, ya que Ia imagen de G no est a contenida en el dominio de F.

Demostrar las siguientes aserciones: a) La aplicaci6n cero, 0, definida segun O(v) = 0 para to do v E V es el elemento cero de Hom (V, U). b) El opuesto de FE Hom ( V, U) es Ia aplicaci6n ( -l)F, o sea, - F = ( - l)F. a)

Sea F e Hom (V, U). Para todo v eV, (F + O)(v) = F(v) + O(v) = F(v) + 0 = F(v)

+ O)(v) =

Como (F b)

Para todo

vE

F(v) para todo

VE

+0=

V, F

F.

V,

(F

+ (-1)F)(v) =

Siendo (F + (-I)F)(v) el o puesto de F .

=

F(v)

+ ( -l)F(v) = F(v) -

O(v) para todo v E V, F

+ (-

F(v) = 0

= O(v)

I)F = 0. De esta manera, ( -l)F es

. 9.34. Sup6ngase que F 1 , F 2 , ••. , F n son aplicaciones lineales de V en U. Mostrar que para escalares cualesquiera a1 , a 2 , ... , a, y para todo v E V, (a 1 F 1

+ a 2 F 2 + · · · + a,F,Xv) =

a 1 F 1 (v) + a2 Fiv)

+ .. · + a,F,(v)

P or definicio n de Ia aplicaci6n a 1 F 1 , (a 1 F 1 )(v) = aJ 1 (v), luego el teorema es valido para n Por inducci6n, (a 1F, + a2 F 2 + · · ·

+ a,F-Xv) =

(a 1F 1):v) + (a 2 F 2

+ ... +

= 1.

a,F.)(v) =

= a1 F 1(v) + a 2 F 2 (v) + · · · + a.F.(v)

9.35.

Considerense las aplicaciones lineales F: R 3 F(x, y, z) = (x

+y+

z, x

+ y)

_,

G(x, y, z)

R 2 , G: R 3

->

R 2 , H: R 3

= (2x + z, x + t)

->

R 2 definidas por

H(x, y, z)

= (2y,

x)

Probar que F , G, H son linealmente independientes [como elementos de Hom (V, U)]. Supongamos que, pa ra ciertos escalares a, b, c E K,

aF + bG (Aqui 0 es Ia aplicaci6n cero.) Para e 1

=

+ cH =

[I]

0

(1 , 0, O)eR 3 tenemos

(aF + bG + cH)(h) = aF(O, 1, 0) + bG(O, 1, 0) + cH(O, 1, 0) = = Q{l, 1) + b(O, 1) + c(2, 0) = (a + 2c, a +b) = O(e 2 ) = (0, 0)

y O(e 1 )

=

(0, 0). Asi, por [1], (a+ 2b, a+ b +c) = (0, 0) y por tanto a+2b=0

De forma similar, pa ra e 2 = (0, I,

0) E R 3

y

a+b+ c= O

(2]

tenemos

(aF + bG + cHY..ez) = aF(O, 1, 0) + bG(O, 1, 0) + cH(O, 1, 0) =

= a(l, 1) + b(O, 1) + c(2, 0) =(a+ 2c, a +b) = O(e2)

=

(0, 0)

396

ALGEBRA LINEAL

De este modo,

a + 2c = 0

y

a=O

b=O

Usando [2) y [3) obtenemos

a+b

[3]

0

=

[4]

c=O

Como [1) implica [4), las aplicaciones F, G y H son linealmente independientes.

9.36.

Demostrar el Teorema 9.11. Supongamos que {v 1 ,

... ,

vm} es una base de Vy que {u 1 ,

... ,

un} es una de U. De acuerdo con

e1 Teorema 9.2, una aplicaci6n lineal en Hom (V, U) queda univocamente determinada asignando arbitrariamente elementos de U a los elementos v1 de Ia base de V. Definamos Fil

E

Hom (V, U)

i=1, ... ,m,j=1, ... ,n

como Ia aplicacion lineal para Ia cual Fu{v1) = u1 y F 11(vk) = 0 si k-:/; i . Esto es, F 11 aplica z;1 en u1 y el resto de los v en 0. Obsi:rvese que {Fii} contiene exactamente mn elementos. Por consiguiente, el teorema quedara demostrado si probamos que es una base de Hom (V, U). Demostracion de que {F11} genera Hom (V, U). Consideremos una funci6n arbitraria Fe Hom (V, U). Supongamos F(vd = w1 , F(v 2 ) = w2 , ••• , F(v,.) = w ... Dado que wk E U es una combinacion lineal de los u; es decir, k = 1, ... , m, a1i m

[1]

K

n

I I

Consideremos Ia aplicaci6n lineal G =

E

a11 Fii. Siendo G una combinaci6n lineal de los F11,

i= 1 j= 1

Ia demostraci6n de que {Fu} genera Hom (V, U) se completani en cuanto probemos que F = G. Calculamos ahora G(vk), k = 1, ... , m. Como F11(vk) = 0 para k-:/; i y Fk1(vk) = u 1, M

G(vJ

=

1'1

1'1

1'1

L L a11 F 11{vt) = L. at1Ft {v 1

i = l J=l

= auu 1

1.)

j=l

=

L at1 u1 = j=l

+ at2u 2 + ··· + atou.

Asi, segun [1], G(vd = wt para cada k. Pero F(vt) = wk para cada k. En consecuencia, y en virtud del Teorema 9.2, F = G y {Fii} genera Hom (V, U). Demostracion de que {Fii} es linea/mente independiente. Supongamos, para escalares aij eK,

"'

.

L L. auF11 = 0 i=l } • l

Para vk, k = I, ... , m, "'

0 = O(vt) =



L L a11 F i=l } • I

= auu 1

a

{vt) =

11

II

L at)Ft {vJ = L at1 u1 = 1

}•I

J•l

+ auu2 + ··· + atou.

Pero los u 1 son linealmente independientes, luego para k =I, ... , m tenemos ak 1 = 0, ak2 = 0, ... , akn = 0. Dicho de otro modo, todos los a11 = 0 y por tanto {F 1J es linealmente independiente.

9.37. Demostrar el Teorema 9.12. i)

Para todo v e V, (G o (F

+ F'))(v) =

G((F

+ F')(v)) = G(F(v) + F'(v)) = + G(F'(v)) = (G o F)(v) + (G o

= G(F(v))

Asi G ·(F

+ F') =

G· F

+ G·F'.

F')(v) = (G

o

F

+Go

F')(v)

APLICACIONES LINEALES

ii)

Para todo

V,

vE

((G

+ G') o

F)(v) = (G = (G

Asi ( G + G') oF = G oF iii)

397

+ G')(F(v)) = G(F(v)) + G'(F(v)) = o F)(v) + (G' o F)(v) = (G o F + G' o

F)(v)

+ G' oF.

Para todo v E V, (k(G (k(G

y

o

o

F))(v) = k(G

F))(v) = k(G

o

o

F)(v) = k(G(F(v))) = (kG)(F(v)) =(kG

o

F)(v) = k(G(F(v))) = G(kF(v)) = G((kF)(v)) = (G

F)(v) o

kFX,v)

En consecuencia, k(G oF)= (kG) oF= Go (kF). (Sei'ialamos que se prueba que dos aplicaciones son iguales mostrando que asignan Ia misma imagen a cada punta del dominio.)

ALGEBRA DE OPERADORES LINEALES 9.38.

Sea n S y Tlos operadores lineales en R 2 definidos por S(x, y) = (y, x) y T (x, y) = (0, x). Encontrar las expresiones que definen los operadores a) S + T, b) 2S - 3T, c) ST, d) TS, e) S 2 , f) T 2 • a)

(S + T)(x, y) = S(x, y) + T(x, y) = (y, x) + (0, x) = (y, 2x).

b) (2S- 3T)(x, y) = 2S(x, y) - 3T(x, y) = 2(y, x) - 3(0, x) = (2y, - x). c)

(ST)(x, y) = S(T(x, y)) = S(O, x) = (x, 0).

d) (TSX,x, y) = T(S(x, y)) = T(y, x) = (0, y).

S 2 (x, y) = S(S(x, y)) = S(y, x) = (x, y). N6tese que S1 = 1, Ia aplicaci6n identidad. f) T 2 (x, y) = T( T(x, y)) = T(O, x) = (0, 0). N6tese que T 2 = 0, Ia aplicaci6n cero. e)

9.39.

Considerese el operador lineal Ten R 3 definido por T(x, y, z ) = (2x, 4x- y, 2x + 3y- z). a) Probar que T es invertible. E ncontrar formulas para: b) T - 1 , c) T 1 , d) T- 2 . a) Sea W = Ker T. Solo necesitamos probar que T es no singular, o sea, que W = {0}. Hacemos T(x, y, z) = (0, 0, 0), to que conduce a T(x, y, z) = (2.x, 4x- y, 2x

+ 3y- z) =

(0, 0, 0)

Asi W es el espacio soluci6n del sistema homogeneo 2.x = 0

4x- y

=0

2x + 3y- z = 0

que tiene solo Ia soluci6n trivial (0, 0, 0). De este modo, W por ende invertible. b)

=

{0}, luego T es no singula r y

Hacemos T(x, y, z) = (r, s, t ) [y asi T- 1 (r , s. t) = (x, y , z)]. Tenemos

(2x, 4x- y, 2x + 3y - z) = (r, s, t)

0

2x = r, 4x- y = s, 2.x + 3y - z = t

Despejamos x, y, z en terminos de r, s, t obteniendo x = ir, y = 2r - s, z = 7r - 3s - t. Asi pues, T - 1(r,

S,

t) = (!r, 2r -

S,

7r - 3s - t)

0

T- 1(x, y, z) = (!x, 2x- y, 1x- 3y- z)

398

ALG EB RA LINEAL

c) Aplicamos T dos veces consiguiendo

+ 3y- z) = [4x, 4(2x)- (4x- y), 2(2x) + 3(4x - y)- (2x + 3y- z)] = (4x, 4:c: + y, 14x - 6y + z)

T 2(x, y, z) = T(2x, 4x- y, 2x = =

d)

Aplicamos T - 1 dos veces consiguiendo T- 2 (x, y, z) = T - 2(!x, 2x- y, 1x- 3y - z) =

= [ix, 2(fx)- (2x - y), 7(tx)- 3(2x - y) -x + y, -lf-x -t 6y + z)

(7x - 3y- z)] =

= (ix,

9.40.

Sea V de dimension finita y T un operador lineal en V tal que TS = I para algun operador S en V. (Llamamos a S una inversa por Ia derecha de T.) a) Probar que T es invertible. b) Probar que S = T - 1 . c) Dar un ejemplo que muestre que lo anterior no es necesariamente valido si V es de dimension infinita. Sea dim V = n. Segim el Teorema 9. 14. T es invertible si y solo si es suprayectivo, de donde T es invertible si y solo si rango T = n. Tenemos 11 = rango I = rango TS ::; rango T ::; n. Por consiguiente, ran to T = n y T es invertible b) TT- 1 = T - 1 T = I . Entonces S = IS= (T- 1 T )S = T - 1 (TS) = r- 1 I= T - 1 • a)

c)

Sea Vel espacio de los polinomios sobre K; digamos p(t) = a0 T y S los operadores en V definidos por T(p(t)) = 0

+ a 1 + a2 t + ·· · + a,r-- t

+ a 1 t + a 2 t 2 + ··· + a.t".

Sean

y

Tenemos

de modo que TS = I , Ia aplicaci6n identidad. Por otra parte, si kE K y k =f. 0, entonces (ST)(k) = S(T(k)) = S(O) = 0 # k En consecuencia, ST #-I.

9.41.

Sean S y T operadores lineales en R 2 definidos por S(x, y) = (0, x) y T(x, y) = (x, 0). Pro bar que TS = 0 pero ST =P Pro bar, asimismo, que T 2 = T.

o:

(TS)(x, y) = T(S(x, y)) = T(O, x) = (0, 0). Como TS asigna 0 = (0, 0) a todo (x, y)e R 2 , es Ia aplicaci6n cero: T S = 0. (SD(x, y) = S(T(x, y)) = S(x, 0) = (0, x). Por ejemplo, (ST) (4, 2) = (0, 4). Siendo asi, ST =f. 0, porque no asigna 0 = (0, 0) a todo elemento de R 2 • Para todo (x, y)E R 2, T 2 (x, y) = T(T(x, y)) = T(x , 0) = (x, 0) = T(x , y). De aqui T 2 = T.

9.42.

C onsiderese el operador lineal Ten R 2 definido por T(x, y) = (2x + 4y, 3x + 6y). H allar: 1 1 1 a) una formula para , b) T- (8, 12), c) r - (1, 2). d) <,EsT una aplicaci6n s uprayectiva?

r-

a)

Tes singular; por ejemplo, T(2, I)= (0, 0). Por consiguiente, el operador lineal T - 1 : R 2 no existe.

......

R2

APLICACIONES LINEALES

b)

399

T - 1 (8, 12) quiere decir Ia preimageo de (8, 12) bajo T. Hacemos T(x, y) = (8, 12) obteoieodo el sistema 2x + 4y = 8 { 3x+6y= l2

X+ 2y = 4

0

Aqui y es una variable libre. Tomamos y =a, doode a es un panimetro, pa ra conseguir Ia soluci6n x = -2a + 4, y = a. Siendo asi, T - 1 (8, 12) = {( - 2a + 4, a): aER}. c)

Hacemos T(x, y) = ( I, 2) llegaodo al sistema 2x

+ 4y =

I

3x

+ 6y = 2

1

EI sistema no tiene soluci6n, luego T- (1 , 2) = (j), el conjunto vacio. d)

9.43.

No, ya que, por ejemplo, (I, 2) no tiene preimagen.

Sean B = {v 1, v2 , v3 } una base de V y B' Supongase, ademas,

= a 1 u 1 + a2 u 2 = b 1 u 1 + b2 u 2 T(v 3 ) = c 1 u 1 + c2 u 2

= {u 1 , u2 } una de

U. Sea T: V-> U lineal.

T(v 1 ) T(v 2 )

Mostrar que para cualquier vectores columna). Supongamos v = k 1 v 1 T(v)

vE

y

V, A[v] 8 = [T(v)] 8 . (donde los vectores en K 2 y K 3 son

+ k 2 v2 + k3 v3 ; entonces

[v] 8 = [k 1 , k 2 , k 3 jT. Asimismo,

= k 1 T(v 1 ) + k 2 T(v 2 ) + k 3 T(v3 ) = = k 1(a 1 u 1 + a 2 u 2 ) + k 2 (b 1 u 1 + b1 u 2 ) + k 3 (c 1u 1 + c 2 u 2 ) = (a 1 k 1 + b 1 k 2 + c 1 k 3)u 1 + (a 2 k 1 + b2 k 2 + c 2 k 3 )u2

=

Eri consecuencia,

Efectuando los ciilculos obtenemos

9.44.

Sea k un escalar no nulo. Probar que una aplicaci6n lineal T es singular si y solo si kT es singular. Por tanto, T es singular si y s6Io si lo es - T. Supongamos que T es singular. En ese caso, T(v) = 0 para algun vector v # 0. De aqui (kT)(v) = kT(v) = kO = 0 y k T es, pues, singular.

Supongamos ahora que kT es singular. Entonces (kT)(w) T(kw)

=

0 para algun vector w # 0, luego

= kT(w) = (kTXw) = 0

Pero k # 0 y w #- 0 implica kw #- 0, de manera que T es tam bien singular.

400

ALGEBRA LINEAL

9.45. Sea E un operador lineal en V para el cual E 2 = E. (Se asigna el termino proyeccibn a tal operador.) Sean U Ia imagen de E y W su nucleo. Probar que: a) si u E U, necesariamente E(u) = u, es decir, E es Ia aplicaci6n identidad en U; b) si E =I= I, E debe ser singular, esto es, E(v) = 0 para algun v =1= 0; c) V = U EB W. a)

Si u E u, Ia imagen de E, entonces E(v) = u para algun tenemos

VE

v.

Por consiguiente, utilizando E 2 = E

u = E(v) = E2 (v) = E(E(v)) = E(u) b)

Si E i= I , para algun ve V, E(v) = u con v '# u. Por a), E(u) = u. De esta manera, E(v - u) = E(v) - E(u) = u - u = 0

c)

Probemos primero que V = U

+ W. Sea

donde

ve V. Hacemos u

v - u '# 0

= E(v) y

w = v- E(v). En tal caso,

v = E(v) + v - E(v) = u + w Por definicion, u = E(v)e U, Ia imagen de E. Mostremos ahora que E(w)

=

y asi weW. De aqui V = U

E(v - E(v))

= E(v) -

2

E (v) = E(v) - E(v)

WE

W, el nucleo deE:

=0

+ W.

.

A continuacion demostramos que U n W = {0}. Sea ve U n W. Puesto que ve U, E(v) = v por a). Como ve W, E(v) = 0. De este modo, v = E(v) = 0, luego U n W = {0}. Las dos propiedades precedentes implican que V = U EB W.

9.46.

Hallar Ia dimension d de a) Hom (R 3 , R2 ) , b) Hom (C3 , R2 ) , c) Hom (V, R2 ), donde V = C 3 visto como espacio vectorial sobre R , d) A(R 3 ), e) A(C 3 ) , f) A(V), donde V = C 3 visto como espacio vectorial sobre R. a)

Siendo dim R3 = 3 y dim R2 = 2 tenemos (Teorema 9.11) d = 3 · 2 = 6.

b)

C3 es un espacio vectorial sobre C y R2 , uno sobre R; por tanto, no existe Hom (C3 , R 2 ) .

c)

Como espacio vectorial sobre R, V = C3 tiene dimension 6. Por consiguiente (Teorema 9.1 1), d = 6·2 = 12.

d)

A(R 3 ) =Hom (R 3 , R 3 ) y dim R3 = 3, luego d = 32 = 9.

e)

A(C 3 ) = Hom (C 3 , C 3 ) y dim C 3 = 3, luego d = 32 = 9.

f)

Como dim V = 6, d = dim A(V) = 62 = 36.

PROBLEMAS SU PLEM ENTARIOS

APLICACIONES 9.47.

Deterrninar el numero de aplicaciones distintas de {a, b} en {1, 2, 3}.

9.48.

Considerese Ia aplicaci6n g que asigna a cada nombre en el conjunto {Betty, Martin, David, Alan, Rebecca} el numero de Ietras diferentes necesarias para deletrearlo. Hallar: a) el grafico de g, b) Ia imagen de g.

A PLI CACIONES LINEA LES

9.49.

401

La Figura 9-5 es un diagrama de las aplicaciones f: A -+ B, g: 8--+ A , h: C--+ B, F: B-+ C y G: A-+ C. Determinar si cada una de las siguientes expresiones define una aplicaci6n compuesta y, en caso afirmativo, encontrar su dominio y su codominio: a) g of. b) h of, c) F of, d) Gof. e) go h, f) h • G • g.

Figura 9-5. 9.50.

Sean f: R -+ R y g: R --+ R las aplicaciones definidas por J(x) = x 2 + 3x + 1 y g(x) = 2x - 3. Hallar expresiones para las aplicaciones compuestas a) f og, b) g•f, c) g•g, d) f·f.

9.5 t.

Para cada una de las sigu ientes aplicaciones f: R -+ R, hallar una formula para Ia aplicaci6n inversa: a) f(x) = 3x- 7. b) f(x) = x 3 + 2.

9.52.

Pa ra cualq uier aplicaci6n

f: A-+ B,

pro ba r que I 8 • f =

f = f • l A'

APLICACJONES LINEALES 9.53. Comprobar que los operado res del P roblema 9.40 c) son lineales.

a) S(a0 + a 1 t + ·· · + a.t") = a0 t + a 1 t 2 + ··· + a.t•+•. b) T (a0 + a 1t+··· +a.t")=0+a 1 + a 2 t+ ··· + a.t• -•. 9.54. Sean V eJ espacio vectorial de las matrices n x n sobre K y M una matriz arbit raria en V . .Probar que las dos primeras aplicaciones T: V -+ V son lineales, pero Ia tercera no lo es (a menos que M = 0): a) T(A) = MA, b) T(A) = M A- AM, c) T(A) = M +A. 9.55.

Hallar T(a, b), donde T: R 2

9.56.

Dar un ejemplo de aplicaci6n no lineal F: V ..... U tal que F - 1(0)

9.57.

Mostra r que si F: V-+ U es lineal y aplica conjuntos independientes en conjuntos independientes, F es no singula r.

9.58.

Encontrar una matriz 2 x 2 A que aplique u1 y u2 en v1 y v2 , respectivamente, siendo: a) u 1 = ( I, 3)r, u2 = (1, 4V Y V 1 = ( -2, 5f , v2 = (3, - If; b) u1 = (2, - 4)r, u2 = ( - I, 2)T y v1 = (1, l)T, V 2 = (!, 3l.

9.59.

Encontra r una matriz singular 2 x 2 B que aplique ( 1, J)T en {I, 3)r.

9.60.

Hallar una matriz 2 x 2 C q ue tenga un valor propio ). = 3 y aplique ( I, l )T en (1, 3)r.

9.61.

Sea T: C-+ C Ia aplicaci6n conjugaci6n en el cuerpo complejo C. Esto es, T(z) = z, donde zeC, o T(a + bi) = a - bi, donde a, b e R. a) Pro bar que T no es lineal si C se ve como espacio vectorial sobre si mismo. b) P robar q ue T es lineal si C seve como espacio vectorial sobre el cuerpo real R.

--+

R 3 se defi ne segun T(l, 2) = (3, - I, 5) y T (O, I)= (2, I, - 1).

= {0} sin ser

F inyectiva.

402 9.62.

ALGEBRA LINEAL

Definase F: R 2 -+ R 2, segun F(x, y) = (3x + 5y, 2x + 3y), y sea S el circulo unidad en R 2 . (S consta de todos los puntas que satisfacen x 2 + y 2 = 1.) Hallar: a) Ia imagen F(S), b) Ia preimagen F- 1 (S).

9.63. Considerense Ia aplicacion lineal G: R 3 -> R3 definida por G(x, y, z) = (x + y + z, y- 2z, y- 3z) y Ia esfera unidad S 2 en R 3 que consiste en los puntas que satisfacen x 2 + y 2 + z 2 = I. Hallar: a) G(S 2 ), b) G- 1 (S2 ). 9.64. Sean H el plano x b) G- 1 (H).

+ 2y- 3z

= 4 en R 3 y G Ia aplicacion lineal del Problema 9.63. Hallar: a) G(H),

NUCLEO E IMAGEN DE APLICACIONES LINEALES 9.65.

Para Ia siguiente aplicacion lineal G, encontrar una base y Ia dimension de i) Ia imagen de G, ii) el nucleo de G: G: R 3 -+ R 2 definida por G(x, y, z) = (x + y, y + z).

9.66.

Hallar una aplicacion lineal F: R3

-+

R 3 cuya imagen este generada por (I, 2, 3) y (4, 5, 6).

9.67.

Hallar una aplicacion lineal F: R 4

--->

R3 cuyo nucleo este generado por (1, 2, 3, 4) y (0, 1, 1, 1).

9.68.

Sea F: V-> U lineal. Mostrar que: a) Ia imagen de cualquier subespacio de V es un subespacio de U , b) Ia preimagen de cualquier subespacio de U es un subespacio de V.

9.69. Cada una de las matrices escritas a continuacion determina una aplicacion lineal de R 4 en R 3 :

l a)

2

A= 2 -1 (1 - 3

0 1) 2 -1 2 - 2

b)

B= (

~

-2

2-l)

0

3

-1

.1

0

-5

3

Encontrar una base y Ia dimension de Ia imagen U y el nucleo W de dichas aplicaciones. 9.70. Considerense el espacio vectorial V de los polinomios reales f(t) de grado 10 o menor y Ia aplicacion lineal 0 4 : V -+ V definida por d4 f fdt 4 , o sea, Ia cuarta derivada. Hallar una base y Ia dimension de a) Ia imagen de 0 4 , b) el nucleo de 0 4 .

OPERACIONES CON APLICACIONES LINEALES 9.71.

Difinanse F : R 3 -+ R 2 y G: R 3 -+ R 2 segun F(x, y, z) = (y, x + z) y G(x, y, z) Encontrar expresiones que definan las aplicaciones F + G y 3F - 2G.

9.72.

Definase H: R 2 -+ R 2 por H(x, y) = (y, 2x). Empleando las aplicaciones F y G del Problema 9.71 , hallar expresiones que deli nan: a) H o F y HoG, b) F o H y G oH , c) H o (f + G) y H oF+ H oG.

9.73.

Mostrar que las aplicaciones F, G y H que siguen son linealmente independientes: a) b)

9.74.

=

(2z, x - y).

+ y), H(x, y) = (0, x). F , G, H E Hom (R , R) definidas por F(x, y, z) = x + y + z, G(x, y, z) = y + z, H (x, y, z) = x- z. F , G, H e Hom (R 2 , R 2 ) definidas por F(x, y) = (x, 2y), G(x, y) = (y, x 3

Para F, G E Hom (V, U), probar que rango (F finita.)

+ G)~ rango

F

+ rango G. (Aqui

V tiene dimension

APLICACIONES LINEALES

403

9.75. · Sean F: V-> U y G: U -> V lineales. Pro bar que si F y G son no singulares, G oF es no singula r. Dar un ejemplo e n el que G o F sea no singular siendo G singular. 9.76.

Demostrar que Hom (V. U) sa tisface todos los axiomas que delinen un espacio vectorial. Es decir, demostrar el Teorema 9.10.

ALGEBRA DE OPERADORES LINEALES 9.77.

Supongase que S y T son operadores lineales en V y que S es no singular. Supongase, asimismo, que V tiene dimension linita. Mostrar que rango (ST) = rango (TS) = rango T.

9.78.

Supongase V = U (£) W. Sean £ 1 y £ 2 operadores lineales en V delinidos por £ 1 (v) = 11, E 2 (v) = w, donde v = 11 + w, ue U, w E W. Probar que: a) E~ = £ 1 y E~ = £ 2 , o sea , que £ 1 y £ 2 son «proyecciones>>: b) £ 1 + £ 2 =I, Ia aplicacion identidad; c) £ 1 £ 2 = 0 y £ 2 £ 1 = 0.

9.79.

Sean £ 1 y £ 2 operadores lineales en V que satisfacen las condiciones a), b) y c) del Problema 9.78. Demostrar que £ 2 : V = Im £ 1 $ Im £ 2 .

9.80.

Mostrar que si los operadores lineales S y Tson invertibles, necesariamente lo es STy (ST) - 1 = T- 1 s -

9.81.

Sean V de dimension lini ta y T un operador lineal en V tal que rango T 2 = rango T. Probar que Ker T n Im T = {0}.

9.82.

i,Cuales entre los siguientes enteros pueden ser dimension de un algebra A( V) de aplicaciones lineales: 5, 9, 18, 25, 31, 36, 44, 64, 88, 100?

9.83.

Se dice que un algebra A tiene un elemento identidad I si 1 ·a = a· 1 = a para todo a E A. Mostrar que A ( V) tiene un e lemento identidad.

9.84.

H allar Ia dimension de A(V), donde: a) V = sobre R, d) V = polinomios de grado ~ 10.

R\

1



b) V = C 4 , c) V = C 4 visto como espacio vectorial

PROBLEMAS VARIOS 9.85.

Sup6ngase que T: K"-> Km es una aplicacion lineal. Sea n {e 1, ... ,e.} Ia base usual de K" y A Ia matriz m x n cuyas columnas son los vectores T(e 1 ), • • • • T(e.), respectivamente. Probar que, para tod o vector ve K", T(v) = Av, donde v se escribe como un vector columna .

9.86.

Supongase que F: V-> U es lineal y que k es un escalar no nulo. Pro bar que las aplicaciones F y kF tienen el mismo nucleo y Ia misma imagen.

9.87.

Demostrar que si F: V--. U cs suprayectiva, necesariamente dim U aplicaciones T: R 3 -+ R 4 que sean suprayectivas.

9.88.

Sea n T: V-> U lineal y W un subespacio de V. La restriccion de T a W es Ia aplicacion T w: W -+ U delinida por Tw(w) = T(w) para todo w E W. Demostrar las siguientes afi rmaciones: a) T.v es lineal. b) Ker Tw = Ker T n W. c) Im T.v = T(w).

9.89.

Se dice que d os operadores S, TeA( V) son simi/ares si cxiste un operador invertible PEA ( V) para el que S = p - 1 TP. Demostrar las siguientes a lirmaciones: a) La similaridad de operadores es una relacion de equivalencia. b) Los operadores similares tienen el mismo rango (cuando V es de dimen sion linita).

~dim V.

Determinar todas las

404 9.90.

ALGEBRA LINEAL

Sean v y w elementos de un espacio vectorial real V. El segmento rectilineo L desde v hasta v se define como el conju nto de vectores v + tw para 0 s t s I. (Vease Ia Figura 9-6.)

+w

a) Mostrar que el segmento rectilineo L entre dos vectores v y u consiste en los puntos: i) (I- t)v +ttl para 0 s t s 1, ii) t 1 v + t 2 u para t 1 + t 2 = I, t 1 ~ 0, t 2 ~ 0 . b)

Sea f: V-> U lineal. Mostrar que Ia imagen f(L) de un segmento rectilineo Len V es un segmento rectilineo en U. I' + W

v + lw1 I

I I

I I I

I

I

I

I

__,J w

I I

I

/

1 1

--

0 ·----

9.91.

---------

---

Figura 9-6.

Se dice que un sqbconjunto X de un espacio vectorial V es convexo si el segmento rectilineo L entre . dos puntos (vectores) cualesquiera P, QeX esta contenido en X. a)

Probar que Ia intersecci6n de conjuntos convexos es convexa.

b)

Sup6ngase que F: V-> U es lineal y X convexo. Probar que F(X) es convexo.

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS 9.47.

Nueve.

9.48.

a)

{(Betty, 4), (Martin, 6), (Davi.d, 4), (Alan, 3), (Rebecca, 5)}.

9.49.

a)

(g o

f) (h 9.50.

n: A-> A,

o

G

o

a

f)(x)

f- 1(x) =

c) (F of) : A

no,

-->

C,

d)

no,

Imagen de g e) (g

g) : B -> B.

a) (f o g)(x) = 4x 2 b) (g

b)

b)

-

= 2x + 2

9.51.

a)

9.55.

T(a, b) = (-a

(x

6x + 1 6x - 1

(g

d)

(f o fXx) = x" + 6x 3

+ 7)/3,

+ 2b, -

3a

g)(x) = 4x - 9

c)

+ b, 7a- b).

o

+ l4x 2 + l5x

+5

o

=

{3, 4, 5, 6}.

h) : C __. A,

APLICACIONES LINEALES

9.56. T omar V = U 9.58.

9.59.

9.60.

a)

(

= (x 2 ,

y F(x, y)

5).

- 17 23

G~). -~ !).

= R2

2

).

No existe, pues u 1 , u 2 so n dependientes y v1 , v1 no 1o son.

b)

-6

y

[Indicacion: Enviese (0, i)r a (0, O)r.]

(

9.62. a)

l3x2

-

[Indicacion: Enviese (0, 1f a (0, 3)T.) 42xy + 34y2 = 1,

Sxy + 26yl

+ 6xz -

l3x 2

b)

38yz + 14z2

+ 42xy + 24y2 = 1. = 1,

x2

+ lxy + 3y2 + 2xz- 8yz + 14z 2

9.63.

a) x 2

9.64.

a)

9.65.

i) ( l , 0), (0, l ), ra ngo G = 2;

9.66.

F(x, y, z) = (x

9.67.

F(x, y, z, t) = (x

9.69.

a)

{(1, 2, 1), (0, 1, 1)} es una base de Im A ; dim (lm A )= 2. {(4, -2, - 5, 0), ( 1, -3, 0, 5)} es una base de Ker A ; dim (Ker A)= 2.

b)

Im 8 = R 3 ;

9.70.

a)

I. t , ... , t 6 ; ran go 0 4 =.7;

9.71.

(F

9.72.

a)

(H • F )(x, y, z) = (x

c)

(H ·(F

-

x - y

+ 2z =

b)

4,

+ 4y, 2x +

+y-

{( -

+ G)(x, y , z) = +

(y

ii)

+y-

t, 0).

I, I)} es una base de KerB; dim (K erB)= 1.

+ 2z, 2x- y + z), (3F - 2G)(x, y , z) = (3y- 4z, x + 2y + 3z).

+ y,

2y), (H • G)(x, y, z) = (x- y, 4z).

G))(x, y, z) = (H • F

9.82.

Los cuadrados: 9, 25, 36, 64, 100.

9.84.

a)

16,

b)

16,

(1, - 1, 1), nulidad G = I.

+ 6y).

5y, 3x

f,

= 1.

x- l2z = 4.

z, 3x

1,

b)

c)

64,

+

d)

H • G)(x, y , z) = (2x - y

121.

+

b) z, 2y

No estan definidas.

+ 4z).

405

CAPITULO

10

Matrices y aplicaciones lineales

10.1.

INTRODUCCION

Supongamos que S

= {u 1 , u 2 ,

••• ,

un} es una base de un espacio vectorial V sobre un cuerpo K,

y para v E V supongamos que

Entonces el vector coordenado de v relative a Ia base S, que escribiremos como vector columna a menos que se especifique o sobrentienda lo contrario, se denota y define par

Recuerdese (Ejemplo 9.4) que Ia aplicaci6n v--+ [v]s, determinada por Ia base S, es un isomorfismo entre Vy el espacio Kn. En este capitulo mostraremos que tambien existe un isomorfismo, determinado por Ia base S, entre el algebra A(V) de operadores lineales en V y el algebra M de matrices 11-cuadradas sabre K . Asi todo operador lineal T: V--+ V correspondera a una matriz 11-cuadrada [T]s determinada por Ia base S. En el capitulo se intentara, asimismo, contestar a Ia pregunta de si un operador lineal T puede o no representarse por una matriz diagonal.

406

MATRICES Y APLICACIONES LINEALES

10.2.

407

REPRESENTACION MATRICIAL DE UN OPERADOR LINEAL

Sea T un operador lineal en un espacio vectorial V sobre un cuerpo K y supongamos que S = {u 1 , u2 , ... , u"} es una base de V. Ahora T(u 1 ) , •.. , T(u") son vectores en V y por tanto cada uno de ellos es combinacion lineal de los vectores de Ia base S, digamos T(u 1 ) = a 11 u 1 T(u 2 ) = a 21 u 1

+ a 12 u2 + ··· + a~nu~ + a 22 u2 + · · · + a 2 • u.

Es pertinente Ia siguiente definicion. Definicion: La traspuesta de Ia matriz de los coeficientes anterior, denotada por m5 (T) o [T] 5 , se denomina Ia representaci6n matricial de T relativa a Ia base S o, simplemente, Ia matriz de T en Ia base S; esto es,

(El subindice S puede omitirse si Ia base S viene dada implicitamente.) Nota: Utilizando Ia notacion de vectores (columna) coordenados, Ia representacion matricial de T puede expresarse tambien m(T)

=

[T]

= ([T(u 1 )], [T(u 2 )],

•.•,

[T(u")])

es decir, las columnas de m(T) son los vectores coordenados [T(u 1 )],

... ,

[T(u")].

EJEMPLO 10.1

a) Sea V el espacio vectorial de los polinomios en t sobre R de grado ~ 3 y D : V--. Vel operador de derivaci6n definido por D(p(t)) = d(p(t))/dt. Calculemos Ia ma triz de Den Ia base {1, t, t 2 , t 3 } . · D(l) D(t) D(t 2) D(t 3)

0 - Ot + Ot 1 + Ot 3 2 3 = = 1 + Ot + Ot + Ot 1 3 = = 0 + 2t. + Ot + Ot = 3t 2 = 0 + Ot + 3t 2 + Ot3 =

0 1 2t

=

[D] =

y

0 1 0 0) (00 00 00 03 0 0 2 0

[N6tese que los vectores coordenados de D(I ), D(t), D(t2 ) y D(t3 ) son las columnas, no las filas, de.[D].] b)

Consideremos el operador lineal f .: R 2 S

=

{u 1 = (1, 1), u 1

-->

R 2 definido por F(x, y) = (4x- 2y, 2x + y) y las bases de R 2 :

= (-1, 0)}

y

E

= {e1 = (1, 0), e2 = (0,

1)}

408

ALGEBRA LINEAL

Tenemos F(ud

=

F(l, 1) = (2, 3) = 3(1, 1) + (-1, 0)

F(u 2 )

=

F( -1, 0) = ( -4, -2) = -2(1, 1) + 2( -1, 0) = -2u 1

Por consiguiente, [F]s =

G -2) 2

=

3u 1

+ u2

+ 2u2

es Ia representaci6n rnatricial de F relativa a Ia base S. Tenemos

tam bien

= (4, 2) = 4e 1 + 2e2 I)= ( -2, 1) = -2e 1 + e2

F(e 1 ) = F(l, 0) F(e1 ) = F(O,

En consecuencia, [F]E c)

=

(~ -~) es Ia representaci6n matricial de F relativa a Ia base usual £.

Consideremos cualquier matriz n-cuadrada A sobre K (que-define una aplicaci6n lineal A: K"-> K") y Ia base usual E = {e1} de K". En ese caso, Ae 1 , Ae2 , •.• , Ae. son precisamente las columnas de A (Ejemplo 9.5) y sus coordenadas relativas a Ia base usual E son los propios vectores. De acuerdo con ello,

o sea, respecto a Ia base usual E, Ia representaci6n matricial de una aplicaci6n matricial A es Ia misma matriz A.

El .algoritmo que ahora exponemos se usara para calcular representaciones matriciales.

Algoritmo 10.2 Dados un operador lineal Ten Vy una base S = {u 1 , [T]s que representa T en Ia base S.

Paso 1.

... ,

u.} de V, este algoritmo halla Ia matriz

Repetir para cada vector uk de Ia base S:

a)

Hallar T(uk).

b)

Escribir T(uk) como combinaci6n lineal de los vectores u 1 , coordenadas de T(uk) en Ia base S.

•••,

u. para obtener las

Paso 2. Construir Ia matriz [TJs cuyas columnas son los vectores coordenados [T(uk)]s obtenidos en el Paso 1. Paso 3.

Salir.

Nota: Observese que el Paso I b) se repite para cada vector uk de Ia base. En consecuencia, puede ser uti! efectuar previamente:

Paso 0.

Encontrar una formula para las coordenadas de un vector arbitrario v relativas a Ia

baseS. Nuestro primer teorema, demostrado en el Problema 10.10, nos dice que Ia «acci6n» de un operador T sobre un vector v es preservada por su representaci6n matricial.

MATRICES Y APLICACIONES LINEALES

409

Teorema 10.1: Sean S = {u1 , u 2 , ... , u,} una base de Vy Tun operador lineal en V. Entonces, para todo vector vE V, [T]s[v]s = [T(v)]s. . . Esto es, si multiplicamos el vector coordenado de v por Ia representacion matricial de T , conseguimos el vector coordenado de T(v).

EJEMPLO 10.2.

Consideremos el operador de derivaci6n 0 : V-+ Vdel Ejemplo 10. 1 a). Sea p(t)

= a + bt + ct 2 + dt 3

Por tanto, respecto a Ia base {1, t , t 2 ,

t

3

de modo que D(p(t)) = b + 2ct + 3dt2

},

[p(t)] = [a, b, c, d]r

y

(D(p(r))] = [b, 2c, 3d,

oy

Probemos que el Teorema 10.1 es valido aqui:

0

1

0 0

[D](p(t)] =

0

(

0

~ ~)(:) (:c) 0 3

0 0 0 0

c = 3d = l D(p(t))]

d

0

Hemos asociado una matriz [T] a cada T en A(V), el algebra de los operadores lineales en V. En virtud de nuestro primer teorema, Ia accion de un operador individual T es preservada por esta representacion. Los pr6ximos dos teoremas (demostrados en los Problemas 10.11 y I0.12, respectivamente) nos dicen que las tres operaciones basicas con estos operadores, i)

suma,

ii)

producto por un escalar, composici6n,

iii)

tambiim· se preservan. Teorema 10.2: Sean S = {u 1 , u 2 , ... , u"} una base de un espacio vectorial V sabre K y M el algebra de las matrices n-cuadradas sobre K. En tal caso, Ia aplicaci6n m: A(V)- M definida por m(T) = [T] 5 es un isomorfismo entre espacios vectoriales. Es decir, para todo par de operadares F, GEA(V) y todo kEK tenemos i)

m(F +G) = m(F) + m(G), o sea, [F + GJ = [F] + [G].

ii)

m(kF)

iii)

m es inyectiva y suprayectiva.

Teorema 10.3:

= km(F),

o sea, [kF]

= k[F].

Para todo par de operadores lineales G, F E Q(v),

m(G

o

F)= m(G)m(F)

esto es,

[ G o F]

(Aqui G • F denota Ia composici6n de las aplicaciones G y F .)

= [G][F]

r 410

ALGEBRA LINEAL

Ilustremos los teoremas precedentes en el caso dim V = 2. Supongamos que {u 1, u 2} es una base de V y que F y G son operadores lineales en V para los que

F(u 1 ) = a 1u1 F(u2 ) = b 1 u1

+ a2 u2 + b 2 uz

Entonces

G(u 1 ) = c 1 u 1 + c 2 Uz G(u 2 ) = d1 u 1 + d 2 u 2 y

Tenemos

+ G)(u 1) = F(u 1) + G(u 1) = a 1 U 1 + a 2 Uz + c 1u 1 + Cz Uz = = (a 1 + c 1)u 1 + (a 2 + c 2}uz (F + G)(u 2 ) = F(u 2 ) + G(u2 ) = b 1 u 1 + b 2 u 2 + d1 u 1 + dz Uz = (F

= (bt

Siendo asi,

[F + G]

Asimismo, para k

=(at++ a2

E

c1 c2

b1 +

b2

d1) = (a1a

+ d2

2

+ d1)u1 + (bz + dz}uz b1) +

b2

(c1 d1) = c2

d2

[F) + [G]

K,

(kF)(u 1) = kF(u 1) = k(a 1 u 1 + azu2) = katU1 + kazUz (kF)(uz) = kF(u 2 ) = k(b 1u 1 + bz Uz) = kbtu 1 + kbz Uz De este modo,

Finalmente,

(G o F)(u 1)

= G(F(u 1)) = G(a 1u 1 + a 2 u2 ) = a 1 G(u 1 ) + a 2 G(uz) ~ = a1 (c 1 u1 + c2 u 2) + a2 (d 1 u1 + d2 u 2) =

+ a2 d 1)u 1 + (a 1 c2 + a 2 d 2 )u2 G(F(u 2 ) = G(b 1u 1 + bz U 2 ) = b 1 G(u 1 ) + bz G(uz) = b1 (c 1 u 1 -t- c2 u 2 ) + b 2 (d 1 u 1 + d2 u 2 ) = (b 1c 1 + bz d1)u 1 + (btC 2 + bz dz)Uz

= (a 1c 1

(G

o

F)(u 2 )) = = =

En consecuencia,

10.3.

CAMBIO PE BASE Y OPERADORES LINEALES

La discusion anterior muestra que podemos representar un operador lineal por una matriz una vez hayamos elegido una base. Surge de forma natural Ia siguiente pregunta : t,Como varia

MATRICES Y A PLI CACIONES LINEALES

411

nuestra representaci6n si seleccionamos otra base? Para responder a esta pregunta, empezamos por recorda r una definicion y algunos hechos. Definicion: Sean S = {u 1 , u2 , mos que, para i = 1, 2, ... , n,

••• ,

un} una base de Vy S' = {v 1 , v2 ,

••. ,

v11 } otra base. Suponga-

La traspuesta P de Ia matriz de coeficientes precedente se llama matriz de cambia de base (o matriz de transici6n) desde Ia «antigua» base S hasta Ia nueva «base» S'.

Hecho I. La matriz de cambio de base P es invertible, siendo su inversa p-t Ia matriz de cam bio de base desde Ia S' hasta Ia S. Hecho 2. Sea P Ia matriz de cambia de base desde Ia usual E de K" hasta otra base S. Entonces P es Ia mat riz cuyas columnas con precisamente los elementos de S. H echo 3. Sea P Ia matriz de cambio de base desde una base S hasta otra S' en V. E n tal caso (Teorema 5.27), para todo vector uE V, P[v]s· = [v]s

p -l [v]s = [u]s·

y

(De este modo, p - t transforrna las coordenadas de v en Ia «antigua» base S en las de v en la «nueva» base ~' .) El teorema enunciado a continuaci6n, demostrado en el Problema 10.19, contesta a Ia pregunta que se hizo con anterioridad, o sea, muestra como se ve afectada Ia representaci6n matricial de un o perador lineal por un cambia de base. Teorema 10.4: Sea P Ia matriz de cambio de base desde una base S hasta otra S' en un espacio vectorial V. Para todo operador lineal Ten V,

(TJs· = p - l[TJs P En otras palabras, si A es Ia matriz.que representa T ~n Ia baseS, B = p - tAP es Ia que lo represen ta en una nueva base S', donde P es Ia matriz de cambia de base desde S hasta S' . EJEMPLO 10.3 .

Consideremos las bases de R 2 :

E = {e1 = (1, 0), e1 = (0, 1)}

y

S

= {u1 = (1, -2), u2 = (2. -5)}

Como E es Ia base usual de R 2 , escribimos los vectores de Ia baseS como columnas para obtener Ia matriz de cambio de base P de E a S:

P-( l - 52) - 2

Consideremos el operador lineal F en R2 definido po r F(x: y) F(e 1) F(e2 )

= F(l, 0) = (2. 4) = 2e 1 + 4e2 = F(O, 1) = (-3, 1) = - 3e1 + e 2

= (2x -

..

3y, 4x

+ y).

y por constgmente A =

Se tiene

(2 -3) 4

1

412

ALGEBRA LINEAL

es Ia representaci6n matricial de F relativa a la base usual E. Segun el Teo rem a I 0.4,

B=rlAP=( 5 -2

101) 2X24 -3x 1 2) ( 44 -41 1 -2 -5 = -18

-1

es Ia representaci6n matricial de F relativa a Ia base S.

Nota: Supongamos que P = (a,) es cualquier matriz n-cuadrada invertible sobre un. cuerpo K y que S = { u I> u2 , ... , un} es una base de un espacio vectorial V sobre K. En tal caso, los n vectores

i=l,2, ... ,n son linealmente independientes y por ende constituyen otra base S' de V. Aun mas, P es Ia matriz de cambio de base desde Ia baseS basta Ia S' . En consecuencia, si A es una representacion matricial de un operador lineal T en V, Ia matriz B = P - 1 AP sera tambien una representaci6n matricial de T.

SIMILARJDAD Y OPERADORES LINEALES Supongamos que A y B son matrices cuadradas para las que existe una ma triz invertible P tal que B = p - 1 AP. Entonces (Secci6n 4.13) se dice que B es similar a A, o que se obtiene de A mediante una transformaci6n de similaridad. De acuerdo con el Teorema 10.4 y Ia nota anterior, disponemos del siguiente resultado basico. Teorema 10.5: Dos matrices A y B representan el mismo operador lineal T si y solo si son similares entre si.

~

Esto es, todas las representaciones matriciales de un operador lineal T forman una clase de equivalencia de matrices similares. Supongamos ahora que f es una funci6n definida sobre las matrices cuadradas que asigna el mismo valor a las matrices similares; es decir, f(A) = f(B) siempre que A sea similar a B. Entonces f induce una funcion , que tambien denotaremos por f, definida sobre los operadores lineales T de Ia forma natural: f(T) = f([T]s), donde S es cualquier base. La funci6n esta bien definida, segun el Teorema 10.5. Tres importantes ejemplos de tales funciones son: 1.

El determinante.

2.

La traza.

3.

El polinomio caracteristico.

EI determinante, Ia traza y el polinomio caracteristico de un operador lineal T est{m, pues, bien definidos: EJEMPLO 10.4. Sea F el operador lineal en R 2 definido por F(x , y) = (2x- 3y, 4x Ejemplo 10.3, Ia representaci6n matricial de T relativa a Ia base usual de R 2 es

+ y). Por el

MATRICES Y APLICACIONES LINEALES

413

De acuerdo con esto: i) det (T)

=

det (A) = 2 + 12 = 14 es el determinante de T.

ii) tr T = tr A = 2 + I = 3 es la traza de T. iii) Ar(t) = AA(t) = t 2 - 3t + 14 es el polinomio caracteristico de T. Tambien segun el Ejemplo 10.3, otra representaci6n matricial de T es Ia matriz

44

B = ( -18

101) - 41

Usando esta obtenemos: i) det (T) = det (A) = - 1804 + 1818 = 14 es el determinante de T. ii) tr T = tr A = 44 - 41 = 3 es Ia traza de T. iii) ~r(t) = ,1.8 (t) = t 2 - 3t + 14 es el polinomio caracteristico de T. Como cabia esperar, ambas matrices proporcionan los mismos resultados.

10.4.

DIAGONALIZACION DE OPERADORES LINEALES

U n operador lil)eal T en un espacio vectorial V se dice diagonalizable' si puede representarse por una matriz diagonal D . Asi pues, T es diagonalizable si y solo si existe una baseS = {u 1 , u2 , ••• , un} de V para Ia cual T(u 1) = k 1u 1 k 2 uz

T(u 2 ) = T(u..) =

En tal caso, T se representa por Ia matriz diagonal D

= diag (k 1,

k2 ,

••• ,

k,)

respecto a Ia base S. La observacion precedente nos conduce a las definiciones y teoremas que enseguida escribimos, anafoga a las definiciones y teoremas para matrices que se discutieron en el Capitulo 8. Un escalar A. E K se denomina valor propio de T si existe un vector no nulo v E V para el cual T(v) = A.v

Todo vector que satisfaga esta relaci6n recibe el nombre de vector propio de T perteneciente al valor propio 2. El conjunto E;. de todos los vectores semejantes es un subespacio de V, llamado el espacio propio de A.. (Alternativamente, A. es un valor propio de T si A.! - T es singular y, cuando asi sea, E.1. es el nucleo de AI- T.) Disponemos de los siguientes teoremas. Teorema 10.6: T puede representarse por una matriz diagonal D (o T es diagonalizable) si y solo si existe una base S de V que consiste en vectores propios de T , en cuyo caso los elementos diagonales de D son los valores propios correspondientes.

414

ALGEBRA LINEAL

Teorema 10.7: Vectores propios no nulos. u 1 , u 2 , •.. , u, de T, pertenecientes, respectivamente, a val ores propios distintos .A. 1 , .A.2 , .•. , A.,, son linealmente independientes. (W:ase la demostracion en el Problema 10.26.)

Teorema 10.8: T es una raiz de su polinomio caracteristico

~(t).

Teorema 10.9: El escalar A. es un valor propio de T si y solo si es una raiz del polinomio caracteristico ~(t) de T. Teorema 10.10: La multiplicidad geometrica de un valor propio A. de T no excede su multiplicidad algebraica. (Vease Ia demostracion en· el Problema 10.27.) Teorema 10.11: Supongamos que A es una representaci6n matricial de T. Entonces T es diagonalizable si y solo si lo es A.

Nota: El Teorema 10.11 reduce el estudio de Ia diagonalizacion de un operador lineal T al de Ia diagonalizacion de una matriz A, que se discutio en detalle en el Capitulo 8. · EJEMPLO 10.5 a)

Sean Vel espacio vectorial de las funciones reales, para el que S operador de derivaci6n en V. En tal caso, D(sen 0) = D(cos 0) De aqui que A

0 = (

- I

I)

0

sea Ia

=

cos 0=

{sen 0, cos 6} es una base, y D el

O(sen 8) +!(cos 8)

-sen 8 = - I (sen 0) + O(cos 0)

repres~n taci6n

~(t)

=

= t2

-

.

matricial de D en Ia base S. Por tanto,

(tr A)t + I A I = t 2

+1

es el polinomio caracteristico tanto de A como de D. De esta manera, A y D no tienen valores propios (reales) y en particular D no es diagonalizable. b)

Consideremos las funciones e"•', e">', ... , e"r', donde a 1 , a2 , ..• ,a, son numeros reales diferentes. Sea D el operador de derivacion; por consiguiente, D(e"•') = ake"•' . En consecuencia, las funciones e""' son vectores propios de D pertenecientes a valores propios distintos. Las funciones son, pues, linealmente independientes, de acuerdo con el Teorema 10.7.

c)

Sea T: R2 -> R2 el operador lineal que gira cada vector v E R2 un angulo = 90" (como se muestra en Ia Figura 10-1). N6tese que ningun vector no nulo es transformado en un multiplo de si mismo, por lo que T no tiene valores propios reales ni por ende vectores propios.

e

T(v)

Figura 10-1.

MATRICES Y APLICAC IONES LINEALES

415

Ahora el polinomio minimo m(t) de un operador lineal T se define, con independencia de Ia teoria de matrices, como el polinomio normalizado de menor grado que tenga T como cero. No obstante, para todo polinomio f(t), · f(T) = 0

si y solo si

f(A) = 0

donde A es cualquier representaci6n matricial de T. En consecuencia, T y A tienen el mismo polinomio minimo, por lo que todos los teoremas del Capitulo 8 referentes al polinomio minimo de una matriz rigen tambien para el polinomio minimo de un operador lineal T.

10.5.

MATRICES Y APLICACIONES LINEALES GENERALES

Consideremos, por ultimo, el caso general de las aplicaciones lineales de un espacio vectorial en otro. Sean V y U espacios vectoriales sobre el mismo cuerpo K y, digamos, dim V = m y dim U = n. Sean ademas e = {v1 , v2 , ... , v,.} y f = {u 1 , u 2 , ... , un} bases arbitrarias pero fijas de V y U, respectivamente. Supongamos que F: V--+ U es una aplicaci6n lineal. Entonces los vectores F(v 1 ), ... , F(v,.) pertenecen a U, luego cada uno de ellos es una combinaci6n lineal de los uk; por ejerriplo, F(v 1 )

= a 11 u 1 + auu 2 + ··· + a 1 .u. a 21 u1 + a 22 u 2 + · · · + a 2,.u.

F(v 2 ) =

La traspuesta de Ia matriz de coeficientes anterior, denotada por [F]{, se llama Ia representacion matricial de F relati va a las bases e y f:

a~1)

all a21

[F)~= .~~~ ...~~~ ...........~~·2· (

al•

a2,

. . . a..,.

(Emplearemos Ia notaci6n [F], mas sencilla, cuando las bases vengan dadas implicitamente.) Son aplicables los siguientes teoremas. Teorema 10.12:

Para todo vector vE V, [F]~[v]. = [F(v)]f'

0 sea, multiplicando el vector coordenado ·de v en Ia base e por la matriz [F]~ obtenemos el vector coordenado de F(v) en Ia base f. Teorema 10.13: La aplicaci6n FH[F] es un isomorfismo de Hom (V, U) sobre el espacio vectorial de las matrices m x n sobre K . Esto es, Ia aplicaci6n es inyectiva y suprayectiva y para todo par F, G EHom (V, U) y todo kEK, [F

+ G) =

[F)

+ [G]

y

[kF]

= k[F]

416

ALGEBRA LINEAL

Nota: Recuerdese que toda matri~ n x rn A sobre K puede identificarse con Ia aplicacion lineal de Km en K" dada por v ~-----+Av. Supongamos ahora que V y U son espacios vectoriales sobre K de dimensiones rn y n, respectivamente, y que e es una base de V y f una de U. En vista del teorema precedente, identificaremos tam bien A con ·ta aplicacion lineal F: V-+ U dada por [F(v)1 = A[v] •. Cabe comentar que si se dan otras bases de V y U , A se identificara con otra aplicaci6n lineal de V en U. Teorema 10.14: Sean e, f y g bases de V, U y W, respectivamente. Sean, asimismo, F: V-+ U y G: U -+ W aplicaciones lineales. Entonces ·

[G o F]~

=

[GJHFJ{

Es decir, respecto a las bases apropiadas, Ia representacion matricial de Ia composici6n de . dos aplicaciones lineales es igual al producto de las representaciones matriciales de las aplicaciones individuales. El proximo teorema muestra c6mo se ve afectada Ia representacion matricial de una aplicaci6n lineal F: V-+ U por Ia selecci6n de nuevas bases. Teorema 10.15: Sea P Ia matriz de cambio de base desde una base e hasta otra e' en Vy sea Q Ia matriz de cambio de base desde una base f hasta otra f en U. Para toda aplicaci6n lineal F: V-+ U ,

Dicho de otro modo, si A representa Ia aplicaci6n lineal F respecto a las bases e y f

representa Fen las nuevas bases e' y f'. Nuestro ultimo teorema, demostrado en el Problema 10.34, muestra que toda aplicaci6n lineal de un espacio en otro puede representarse por una matriz muy simple. Teorema 10.16: Sea F: V-+ U lineal y, digamos, rango F = r . Existen bases de V y U en las que Ia representaci6n matricial de F adopta Ia forma

donde I es Ia matriz identidad r-cuadrada. La matriz A anterior se conoce como Ia forma normal o can6nica de Ia a plicaci6n lineal F.

MATRICES Y APLICACIONES LINEALES

417

PROBLEMAS RESUELTOS

REPRESENTACIONES MATRICIALES DE OPERADORES LINEALES 10.1.

Supongase que F: R 2 - . R 2 se define por F(x, y) = (2y, 3x - y). Hallar Ia representaci6n matricial de F relativa a Ia base usual E = {e 1 = (1, 0), e 2 = (0, 1)} . N6tese primero que si (a, b)eR2 , entonces (a, b)= ae 1 F(e 1 ) = F(l, 0) = (0, 3) = Oe 1 F(e 2 ) = F(O; I)= (2, -1) = 2e 1

+ 3e 2 -

+ be 2 :

y

e2

Se ve que las filas de (FJE vienen dadas directamente por los coeficientes en las componentes de F(x, y). Esto se generaliza a cualquier espacio K ".

10.2.

Encontrar la representaci6n matricial del operador lineal F del Problema 10.1 relativa a Ia base S= {u 1 = ( 1, 3), u 2 = (2, 5)}. Empezamos hallando las coordenadas de un vector arbitrario (a , b)e R 1 respecto a Ia base S. Tenemos 0

x + 2y = a 3x + 5y = b

Despejamos x e y en terminos de a y b consiguiendo x = 2b - 5a e y = 3a ..:. b. Asi (a, b)= ( - 5a

Tenemos F(x, y)

= (2y,

+ 2b)u 1 + (3a- b)u2

3x - y). De aqui

F(ud = F(l, 3) = (6, 0) = -30u 1 F(u2 ) = F(2, 5) = (10, 1) = -48u 1

+ 18u 2 + 29u 2

y

[F]s = (

-30

18

- 48) 29

(Nota: Subrayamos que los coeficientes de u 1 y u 2 se escriben como columnas, no como filas, en cada representaci6n matricial.)

10.3. Sea Gel operador lineal en R 3 definido por G(x, y, z) = (2y + z, x- 4y, Jx). a)

Halla r Ia representaci6n matricial de G relativa a Ia base

S b)

= {w 1 = (1,

1, 1), w 2 = (1, 1, 0), w3

= (1, 0, 0)}

Comprobar que [G][v] = [G(v)] para cualquier vector vER 3 •

Primero hallamos las coordenadas de un vector arbitrario (a, b, c) E R 3 respecto a Ia base S. Expresamos (a, b, c) como combinaci6n lineal de w 1 , w2 , w 3 empleando escalares desconocidos X , y y z: (a, b, c)= x(l, 1, 1)

+ y(l,

1, 0) + z(l, 0, 0) = (x· + y

+ z, x + y, x)

Igualamos entre si las componentes correspondientes para obtener el sistema de ecuaciones

x + y+z = a

x+y = b

x=c

418

ALGEBRA LINEA L

Resolvemos el sistema para x , y y z en terminos de a, b y c encontrando x = c, y = b - c, z =a - b. Siendo asi, (a, b, c) = cw1 a)

+ (b -

c)w2 +(a - b)w 3

Puesto que G(x , y, z)

[(a, b, c)] = [c, b - c, a- bY

o, equivalentemente,

= (2y + z, x -

4y, 3x),

G(wd = G(l , 1, 1) = (3, - 3, 3) = 3w 1 G(w 2 ) = G(l , 1, 0) = (2, -3, 3) = 3w 1

-

G(w3 ) = G(1 , 0, 0) = (0, 1, 3) = 3w 1

2w 2

-

-

6w 2 6w2

+ 6w3 + 5w3 w3

-

Escribimos las coordenadas de G(w 1 ), G(w2 ), G(w3 ) como columnas llegando a

[G] =

b)

(

3 - 63 - 3)2

- 6 6

5

- 1

Ex presamos G(v) como combinaci6n lineal de w1 , w2 , w3 , d onde v =(a, b. c) es un vector a rbitrario en R 3 : G(v) = G(a, b, c)= (2b + c, a - 4b, 3a) = 3aw 1

+ (-

2a- 4b)w2 + ( - a + 6b

+ c)w3

o, equivalentemente, [G(v)]= [3a, -2a- 4b, - a+ 6b

+ cY

En co nsecuencia,

-! -~)(b ~ c)= ( -2a ~ 5

10.4.

Sean A =

G!)

- 1

a-b

4b ) -a+6b+c

= [G(v)]

y T el operador lineal en R 2 detinido por T (v)

= A v (donde v se

escribe como vector columna). Encontrar la matriz de T en cada una de las siguientes bases: · a)

E= {e 1 =(1 , 0), e2 =(0, 1)}, es decir, Ia base usual; b)

S ={u 1 =(1 , 3), u2 =(2, 5)}.

a)

Observese que Ia matriz T en Ia base usual es precisamente Ia matriz original A que definia T . Vease Ejemplo 10.1 c).

MATRICES Y APLICACIONES LINEALES

b)

Por el Problema 10.2, (a, b)= ( - Sa+ 2b)u 1 T(ul) =

T(u 2 ) =

10.5.

+ (3a- b)u 2 • Por tanto,

G [T]s

G

=

(-5 -8) 6

10

Cada uno de los conjuntos a) {1 , t, e', te'} y b) {e 31, te 3 ' , t 2 e31 } es una base de un espacio vectorial V de funciones f: R --+ R. Sea D el operador de derivaci6n en V, esto es, D(f) = dffdt. Hallar Ia matriz de D en las bases dadas. ·. a)

D(1) = 0

= 0(1) + O(t) + O(e~ + O(te')

D(t) = 1

+ O(t) + O(e') + O(te') 1(e~ + O(t~ + te' = 0(1) + O(t) + 1(e~ + l(te')

b)

= e 3' + 3te3 '

D(t2 e3 ') = 2te 3'

y asi

= 0(1) + O(t) +

D(e3~ = 3e3'

D(te3~

0

= 1(1)

D(e') = e' D(te') = e'

10.6.

419

: = 3(e3') + O(te3~ 3 3 = 1(e ') + 3(te ')

+ 3t 2 e3 '

=

2

3

0 0 0 0 1

[D)= 0

(

+ O(tle3~ + O(t e ~ 2 3 O(e3') + 2(te3 ') + 3(t e ')

1 0

y asi

0 0 0

[D]

~

(:

Sea V el espacio vectorial de las matrices 2 x 2 con la base usual

2 ) y Tel operador lineal en Vdefinido por T(A) = MA. Hallar la repreSean M = (' . 3 4 sentaci6n matricial de T relativa a Ia base usual de V precedente. Tenemos

. c

~)=G ~) =1£1 + 0£ + 3£3 + 0£ T(£2) =ME2 =G 2Xo ~)=(~ !) =OE + 1£ + 0£3 + 3£4 4 0 0) . T(£3) =M£3 =G ~)(~ ~) = (~ O =2E + 0£ + 4£ + 0£4 T(£ 1) = M£1

T(E.) = M£4

=

2x1 3 4 0

=G

2

2Xo o) = (o 4 0 1 0

!)

=

1

2

1

2

4

3

0£1 + 2£2 + 0£3 + 4£.

Por consiguiente, [71 =

(0 01 20 0)2 3 0 4 0 0 3 0 4

(Como dim V = 4, toda representaci6n matricial de un operador lineal en V debe ser una matriz 4-cuad rada.)

420 10.7.

A LGEBRA LINEAL

Considerese Ia baseS = {(1, 0), (1 , 1)} de R 2 . D efinase L : R 2 ..... R 2 por L (l, 0) = (6, 4) y L (l, l ) = (l , 5). (Recuerdese que una aplicaci6n lineal esta completamente definida por su acci6n sobre una base.) Hallar Ia representaci6n matricial de L respecto a Ia base S. Expresamos (6, 4) y despues (1 , 5) como combinaciones lineales de los vectores de Ia base consiguiendo L(1, 0) = (6, 4) = 2(1, 0) + 4(1, 1) L(1, 1) = (1, 5) = -4(1, 0) + 5(1, 1)

10.8.

y asi

[L]

=(! -:)

Considerese Ia base usual E = {e 1 , e 2 , .•. ,e.} de K". Definase L: K" __. K" por L (e;) = v,. Mostrar que Ia matriz A que representa L rela tiva a Ia base usual E se o btiene escribiendo los vectores imagen v1 , v1 , . . . , v. como columnas. Supongamos modo,

V; =

(ail • ai2• .. . , a,.). Entonces L (el) = v, = ail el

+ a ,2e2 + .. . + a,.e".

De este

a a.t) [L] = ~.~~ .. ~~~ ..·.· .· .. ~~z. ( 11

a21

ah

a 2~

•• •

a,.,.

como se pretend ia.

10.9.

Para cad a uno de los siguientes operadores lineales L en R 2 , encontrar Ia matriz A que representa a L (respecto a la base usual de R 2 ) : a)

L se define por L (l, 0) = (2, 4) y L(O, 1) = (5, 8).

b)

L es la rotaci6n de 90° en el sentido contrario al de las agujas de un reloj , en R 2 .

c)

L es Ia reflexio n en Ia recta y = - x, en R 2 .

a)

Dado que ( I, 0) y (0, I) ro rman Ia base usual en R 2 , escribimos sus imagenes como columnas

(Problema 10.8) para conseguir

10. 10.

=G !)

.

A

=

(0, I ) y L (O, l) = ( -1, 0). Asi pues, A=

b)

Bajo la rotacion L tenemos L ( l , 0)

c)

Bajo Ia reflexion L tenemos L ( I, 0) = (0, - I) y L (O, I )= ( - I, 0). Asi pues, A = .

.

G -~}:

( o,-o'). - 1

Demostrar el Teo rem a I0. 1. Supongamos, para i

=

I, ... , n,

T(uJ = anut

• + a•z Uz + ·· · + a;, "• = L a•i "i j= l

E ntonces [T]s es Ia matriz n-cuad rada cuya fila j -esima es

[l]

MATRICES Y APLICACIONES LINEALES

421

Supongamos ahora



v

= k 1u1 + k 2 u2 + ·· · + k.u. = L k1u1 1= 1

Expresando un vector columna como La traspuesta de un vector lila, [v]s = (k1, k 2 ,

••• ,

[2]

k.)T

Ademas, hacienda uso de La linealidad de T ,

De este modo, [T(v)]s es el vector columna cuya entrada j-esima es

[3]

alik1 + a21 k 2 + · · · + a,.1 k.

Por otra parte, Ia entrada j -esima de [T]5 [v]s se obtiene multiplicando Ia fila j -esima de [T]s por [v]s, es decir, [1] por [2]. Pero el producto de [I] y [2] es [3], luego [T]s[v]s y [T(v)Js tienen las mismas entradas. Siendo asi, [T]5 [v]s = [T(v)] 5 .

10.11.

Demostrar el Teorema 10.2. Supongamos, para i = I, ... , n, F(u;) =

I"

y

a;1 u1

I"

G(u) =

biiui

j= 1

j = l

Consideremos las matrices A= (a;) y B = (b;)· Entonces [F) = AT y [G) = Br. Tenemos, para i =I, ... , n,

(F

+ G)(uJ = F(u1) + G(uJ =



L (a

11

+ biJ~J

}• 1

Siendo A

+ B Ia matriz (aii + bii), [A

+ B] =(A + BV =

AT+ BT = [A]

+ [B]

Asimismo, para i = I, ... , n,

(kFXuJ = kF(u1)

= k I" a;1u1 = I" (ka11)u1 jm 1

J~

1

· Como kA es Ia ma triz (ka;), [k.F] = (kAV =kAT= k[F]

Finalmente, m es inyectiva puesto que una a plicaci6n lineal esta completamente deterrninada por su valores en una base, y es suprayectiva porque cada matriz A= (a;1) en M es Ia imagen del operador lineal II

F(uJ =

I }~ 1

Q ueda, pues, dernostrado el teorema.

a11 u1

i = 1, .. . , n

422 10.12.

ALGEBRA LINEAL

Demostrar el Teorema 10.3. Empleando Ia notaci6n del Problema I0.1 I, (Go

FX.uJ = G(F(uJ) = {ta11 u1) = ta11 G(u1) = 1

=±a/\l=lIbJ.\ut)~ t=tI ("-'-Iai~ .,.\'t r 1 b1

}=I

Recuerdese que AB es la matriz AB = (c;k), donde cu, =

L" aijbik" De acuerdo con ello, j= 1

Queda, pues, demostrado el teorema.

10.13.

Sea A una representaci6n matricial de un operador T. Probar que f(A) es Ia representaci6n matricial de f(T) para todo polinomio f(t). [De esta manera, f(T) = 0 si y solo si f(A) = 0.] Sea


de modo que el teorema es valido para n = 0. Aceptemos ahora que el teorema es valido para polinomios de grado menor que por ser


11.

En tal caso,


a.AA"- 1

+ (a._ 1 A"- 1 + · · · + a 1 A + a0 I) =f(A)

y queda demostrado el teorema.

10.14.

Sea V el espacio vectorial de las funciones que tiene (sen 0, cos 0) como base y sea D el operador de derivacion en V. Mostrar que D es un cero de f(t) = t 2 + 1. Aplicamos f( D) a cada vector de la base: f(D)(sen 0) = (D 2 + I)(sen 0) = D 2 (sen 8) +/(sen lJ) = -sen 8 +sen f) = 0 f(D)(cos lJ)

=

(D 2

+ I )(cos 0) =

D 2 (cos fJ)

+ I (cos fJ) =

-cos 0 + cos 0 = 0

Como cada vector de Ia base se aplica en 0, todo vector vE V seni aplicado tam bien en 0 por f(D). Asi f(D) = 0. [Este resuitado era de esperar ya que, segun el Ejemplo I 0.5 a), f(t) es el polinomio caracteristico de_D.]

MATRICES Y APLICACIONES LINEALES

423

CAMBIO DE BASE. MATRICES SIMILARES 10.15.

= (4x- y,

Definase F: R 2 -+ R 2 como F(x, y)

E = {e1 = (1, 0), e2

= (0,

I)}

y

2x

+ y)

y considerense las bases de R 2 :

S = {u 1 = (1, 3), u 2 = (2, 5)}

a)

Hallar Ia matriz de cambia de base P de E a S, Ia matriz de cambia de base Q de Sa E y comprobar que Q = p - 1 •

b)

Hallar Ia matriz A que representa F en Ia base E, Ia matriz B que representa F en Ia base S y comprobar que B = p- 1 AP.

c)

H allar Ia traza tr F, el determinante det (F) y el polinomio caracteristico A(t) de F.

a)

Dado que E es Ia base usual, escribimos los elementos de S como columrtas y obtenemos Ia matriz de cambio de base

e 1 = -5u 1

e2

=

2u 1

+ 3u2 -

y asi

u2

Q=

(-5 2) 3

-1

Tenemos

2) (l0 PQ =G 52)(-5 3 - 1

~) = 1

=

b)

Escribimos los coeficientes de x e y como lilas ( Problema 10.3) para llegar a

A= Como F(x , y) = (4x-

y, 2x + y)

y (a, b)= (-Sa+ 2b)u 1 + (3a - b)u 2 ,

F(u1 ) = F(1, 3) = (1, 5) = 5u 1

F(u 2 )

G-~)

= F(2, 5) = (3, 9) =

-

3u 1

2u2

B = (_~ ~)

y asi

Tenemos

~)=B c)

Usamos A (o B) obteniendo trF = trA = 4+ I =5 Ll(t) = t 2

10.16.

-

det(F)=det(A) = 4 +2 = 6

(tr A)t + det (A ) = t 2

-

5t + 6

Sea G el operador lineal en R 3 definido por G(x, y , z) = (2y c~nsiderense Ia base usual E de R 3 y las bases S de R 3 : S

= {w1 = (1,

l, 1), w2 = (1, 1, 0), w3 = (1, 0, 0)}

+ z, x -

4y, 3x) y

424

ALGE BRA LINEAL

a)

Encontrar la matriz de cambio de base P de E a S, la matriz de cambio de base Q deS a E y comprobar que Q = p - 1 .

b)

Comprobar que [GJs = p - 1 [G]EP. Hallar la traza, determinante y polinomio caracteristico de G.

c) a)

Siendo E Ia base usual, escribimos los elementos deS como columnas y conseguimos Ia matriz de cam bio de base p =

11 1) ( 1 1 0 1 0 0

Mediante el familiar proceso de inversion (vease el Problema 10.3) obtenemos

e 1 = Ow 1 + Ow2 e 2 = Ow1 + lw2 e3 = lw1 - lw2

0 1)

+ 1w3 1w3 + Ow3

-

y asi

1 -1

-1

0

Tenemos

PQ~(: b)

~)(~ -~) ~(~ 0

1 0

lk lo• Pcobkm" 10.1 y 10.3. [G],

~ (~

1

-1

0

2

-4 0

r'[GJ,•~(~ c)

.I

't

- 1 0

2 1 - 4 3 0

~)(:

~) y[GJ,~(-: 0

~)~(-:

-.~)Do""

3

-6 5

modo,

-1

3

-6 5

-~) ~ [G],

-1

Utilizamos [G)£ (Ia matriz mas simple) para llegar a tr G = 0- 4

10.17.

01 -1

~)~I

0

1

+0=

-4

det (G)= 12

e

~(t)

= t 3 + 4t2 -

5t - 12

Hallar la traza y el determinante del siguiente operador en R 3 : T(x, y, z)

= (a 1 x + a 2 y + a 3 z, b 1 x + b 2 y + b 3 z, c 1 x + c 2 y + c 3 z)

Empezamos por encontrar una representaci6n matricial A de T. Eligiendo la base usual E,

En tal caso, y

MATRICES Y APLICACIONES LINEALES

10.18.

Sean Vel espacio vectorial de las matrices 2 x 2 sobre R y M = operad o r lineal en V definido mediante T(A) de T.

= M A.

G!).

425

Sea T el

H allar Ia traza y el determinante

Debemos encontrar primero una representaci6n matricial de T . Escogemos Ia base usual de V para llegar (Problema 10.6) a Ia representaci6n matricial:

1 0 0 1 0 2 [T] = 3 0 4 0 ( 0 3 0 4

2 0)

Entonces tr T

10.19.

=

+ I+4 +4 =

I

I0 y det (T)

= 4.

Demostrar el Teorema 10.4. Sea v cualquier vector en V. Entonces, en virtud del Teorema 5.27, P[v]5 . = [v]5 . Por consiguiente,

r

1

[T] 5 P[v] 5 • =

r

1

[T] 5 [v]5

=r

1

[T(v)]5

= [T(v)]s·

Pero (.7ls-[v]5 • = (T(v))5 ·, luego

Como Ia aplicaci6n v~ [v) 5 • es sobre K" , tenemos P - 1 (T] 5 PX = [T]5 .X para todo X E K". De este modo, p - t [TJsP = (Tls·, como se pretendia.

DIAGONALIZACION DE OPERADORES LINEALES. VALORES PRO PIOS Y VECTORES PRO PIOS 10.20. · Halla r los valores propios y vectores propios linealmente independientes del siguiente operador lineal en R 2 y, si es diagonalizable, encontrar una representaci6n diagonal D: F(x , y) = (6x - y, 3x + 2y). Comenzamos hallando Ia matriz A que representa F en Ia base usual de R2 escribiendo los coeficientes de x e y como filas:

El polinomio caracteristico .1(t) de F es, pues, L\(t)

= t2 -

(tr A)t + I A I = t 2

-

8t

+ 15 = (t - 3)(t - 5)

Siendo asi, A- 1 = 3 y .A.2 = 5 son valores propios de F. Encontramos los correspondientes vectores propios como sigue: i)

1

-I)

3 que 3 -1 corresponde al sistema homogeneo 3x - y = 0. Aqui v1 = (I , 3) es una soluci6n no nul a y por tanto un vector propio de F perteneciente a ..1. 1 = 3. Restamos

1

=

3 a los elementos diagonales de A para obtener la matriz M = (

426

ALGEBRA LINEAL

ii) Restamos /. 2 = 5 a los elementos diagonales de A llegando a M = ( al sistema homogeneo x - y = 0. Aqui v2 vector propio de F perteneciente a /. 2 = 5.

= (l ,

1

-I)

3 -3

correspondiente

l) es una solucion no nula y por ende un

Entonces S = { v1 , v2 } es una base de R 2 que consiste en vectores propios de F . Asi F es diagonalizable y tiene la representaci6n matricial D =

10.21.

G~).

Sea L el o perador lineal en R 2 que refleja los puntos en Ia recta y Vease Ia Figura 10-2.

= (1 ,

= kx

(con k i= 0).

a)

Probar que v1 = (k, 1) y v2

b)

Pro bar que L es diagonalizable y hallar una representaci6n diagonal D.

- k) son vectores propios deL.

y

G(o, )

\

~

G(P)

'

I

y = kx

\ \ \

I

•p

- - -·- ..x

\ Figura 10-2.

a) El vector v1 = (k, I) yace en Ia recta y = kx y por consiguiente L Jo deja fijo, esto es, L(v 1 ) = v1 • De este modo, v1 es un vector propio de L perteneciente a! valor propio .1. 1 = I . El vector v2 = (1 , - k) es perpendicular a Ia recta y = kx, Juego L refleja v2 en su opuesto, es decir, L(v2 ) = - v2 • Asi v2 es un vector propio de L perteneciente al valor propio ).2 = - 1. b) Aqui S = { v1 , v2 } es una base de R 2 que consiste en vectores propios de L. Por tanto, L es 0 diagonalizable y tiene Ia representaci6n diagonal (relativa a S) D = ). 0 -1

(I

10.22.

Hallar todos los valo res propios y una base para cada espacio propio del operador T: R3 -+ R3 definido por T(x, y, z) = (2x + y, y - z , 2y + 4z). z,Es diagonalizable T? En caso afirmativo, hallar una representaci6n diagonal D. Primero encontramos Ia matriz A que representa T en Ia base usual de R 3 escribiendo los coeficientes de x, y, z como filas:

MATRICES Y APLICACIONES LINEALES

427

El polinomio caracteristico d(t) de T es, pues,

t-2 d(t) = I ti - A I = 0

-1

0

t- 1

-2

0

= (t - 2)l(t - 3)

t-4

Siendo asi, 2 y 3 son los valores propios de T. Hallemos una base del espacio propio £ 2 del valor propio 2. Sustituimos t = 2 en ti - A para llegar al sistema homogeneo.

0

-y =0 y+ z= 0 { -2y- 2z = 0

0

= 0 y { y+z=O

El sistema solo tiene una soluci6n independiente, por ejemplo, x = 1, y = 0, z = 0. De esta manera, u = (I, 0, 0) constituye una base del espacio propio £ 2 . Hallemos una base del espacio propio £ 3 del valor propio 3. Sustituimos t = 3 en ti - A para llegar al sistema homogeneo

0

.x-y=O 2y + z = 0 { -2y -z=0

0

x-y=O { 2y + z = 0

El sistema solo tiene una soluci6n independiente, por ejemplo, x = I, y = I, z = - 2. Asi v =(I, I, -2) forma una base del espacio propio £ 3 . Observese q ue T no es diagonalizable, porque solo tiene dos vectores propios linealmente independientes.

10.23.

Mostrar que 0 es un valor propio de T si y solo si T es singular. · Tenemos que 0 es un valor propio de T si y solo si existe un vector no nulo v tal que T(v) = Ov = 0, o sea, si y solo si T es singular.

10.24.

Sup6ngase que A. es un valor propio de un o perador invertible T. Pro bar que A.- 1 es un valo r propio de y - 1 . Como T es invertible, es tambien no singula r, luego, de acuerdo con el Problema 10.23, l ¥- 0. Por definicion de valor propio, existe un vector no nulo v para el que T(v ) = lv. Aplicando 1 r - l a ambos miembros obtenemos v = r-•().v) = A.r-• (v). De aqui r-•(v) = ..1. - v, esto es r I 1 es "un valor propio de r - •

10.25.

Sup6ngase que dim V = n. Sea T : V --. Vun operador invertible. Probar que y - t es igual a un polinomio en T cuyo grado no excede n. r

~

Sea m(t) el polinomio minimo de T. Entonces m(t) = c• + a, _ 1 t•-l + · ·· + a 1 t + a0 , donde n. Dado que T es invertible, a0 ¥- 0. Tenemos 11(T) = T' + a, _, r·-· + ... + a IT + ao I = 0

Por tanto, 1 - - (T'- 1 + a, .. IT'- 2 + ...

ao

+ a1J)T =

I

y

r-1

1

= - - (T'- 1 +a,:.. I r·- 2 +

ao

... +all)

428 10.26.

ALGEBRA LINEAL

Demostrar el Teorema 10.7. Se demuestra por inducci6n en n. Sin= I, u 1 es linealmente independiente puesto que u 1 of 0. Supongamos que n > I y que a 1u 1

+ a2 u2 + · ·· +a. u. = 0

donde los a; so n escalares. Aplicando T a Ia relaci6.n anterior llegamos, por linealidad, a

Pero, por hip6tesis, T(u;) = A.;u;. luego a 1 A. 1u 1

+ a2 A.1 u 1 + ··· + a.J..u. =

· [2]

0

Por otra parte, multiplicando [I] por J..,

[3] Restando ahora [3] a [2], a 1(J. 1

-

.)u 1

)•

+ a 1(J. 1 -

J..)u 2

+ · · · + a._ 1(A.. _ 1 -

A..)u._ 1

=

0

Por inducci6n, u 1 , u2 , .... u. _ 1 son linealmente independientes, luego cada uno de los coeficientes precedentes es 0. Como los A.; son distintos, A;- A.. of 0 para i of n. De aqui a 1 = ... =· a.-· 1 = 0. Sustituyendo esto en [I] conseguimos a.u. = 0 y por ende a.= 0. Los u; son, pues, linealmente independientes.

10.27.

Demostrar el Teorema 10.10. Supongamos que Ia multiplicidad geometrica de A. es r. En ese caso hay r vectores propios linealmentc independientes v1, . .. , v, pertenecientes a ).. Extendemos el conjunto {v;} a una base de V: {v 1, ... , v,, w1, ... , w,}. T enemos

lv 1

T(v 1 ) =

T(v 1 )

1v 2

=

T (v,) = T(w 1) = a 11 v 1 T(w 2 ) = a 11 v 1

A.v, + · ·· + a .. v. + b 11 w1 + · · · + a 2 ,v, + b 11 W 1

T(w,) = a, 1v1

+ · · · + a.,v, + b.tw 1 + · · · + b.,w,

+ · · · + bts w, + ·· · + b 1 ,w,

La matriz de T en Ia base anterior es

). 0 .. . 0 : a 11 0 A. .. . 0 : a 12

a11 a 12

• ..

• ..

a, 1 a.z

0 0 .. . A. : a 1,

a1 ,

.. .

a.,

. . . 0 : b11

b 11

.. •

b,1

0 0 .. . 0 : b 12

b 22

........... . ·:· ........ ..... .. . M=

___ ___ _ __ l ___ _ _ _ _ ____ _

=

I

0

0

...

b,z

. ........... , ................ . I

0 0 .. . 0 ~ b 11

b1 ,

. ..

b,.

(~~~-~) 0

I I

B

MATRICES Y APLICACIONES LINEALES

429

Siendo M una matriz triangular por bloques, el polinomio caracteristico de J..I,, que es (t- .A.)', debe ser divisor del de M y por consiguiente del de T. De este modo, Ia multiplicidad algebraica de J.. para el operador T es a! menos r, como se pedia. ••. , v,.} una base de V Sea T: v~ V un operador para el cual T(v 1 ) = 0, T(v 2 ) = a 21 v1 , T(v 3 ) = a 3 1 v1 + a 32 v2 , ••• , T(v,.) = an 1 v1 + ·· · + a•.• - 1 v. _ 1 • Probar que T" = 0.

10.28. Sea {v 1 ,

Basta probar que

para j

=

I, ... , n. La raz6n es que entonces se deriva que T"(v) = T"- l(Ti(v1)) =

r•- l(O) = 0

para j

= 1, ... , n

y al ser {v 1 , . . . , v.} una base, T" = 0. Demostramos (•) por inducci6n en j. El caso j = I es cierto por hip6tesis. El paso inductivo se sigue (para j = 2, .. . , n} de Ti(v) = T 1 - 1(T(v1)) = Tl - 1(a11 v 1 + · ·· + a 1, 1 _ 1v1_ 1) = ait Tl- •(v.) + ... + aJ, J-t Ti-t(vJ- t) = = a11 0 + ··· + a1, 1 _ 10 = 0

=

Nota: Observese que Ia representaci6n matricial de T en Ia base precedente es triangular con elementos diagonales 0: 0 0

all

a31

.•.

a..

0

a 32

•••

a,. 2

0 0

0 0

0 0

a•. n-1 0

REPRESENTACIONES MATRICIALES DE APLICACIONES LINEALES

10.29. Sea F : R 3 ~ R 2 la aplicaci6n lineal definida por F(x , y, z) = (3x + 2y- 4z, x- Sy + 3z). a)

Hallar Ia matriz de F en las siguientes bases de R 3 y R 2 : S = {w1 = (1, 1, 1), w 2 = (1, 1, 0), w3 = (1, 0, 0)}

S' = {u 1 = (1, 3), u 2 = (2, 5)}

b)

Comprobar que Ia acci6n de F es preservada por su representaci6n matricial; esto es, para todo vER 3 , [F]f[v] 5 = [F(v)] 5 •

a)

Del Problema 10.2, (a, b) = ( - Sa+ 2b)u 1

+ (3a -

b)u2 • Siendo asi,

F(w 1) = F(l, 1, 1) = (1, -1) = -7u 1 + 4u 2 F(w2 ) = F(1, 1, 0) = (5, -4) = - 33u 1 + 19u 2 F(w3 ) = F(l, 0, 0) = (3, 1) = - 13u 1 + 8u2

430

ALGEBRA LINEAL

Escribimos las coordenadas de F(w 1 ) , F(w2 ) , F(w 3 ) como columnas para conseguir S' _

[FJs -

b)

(-7 4

-33 19

-13) 8

Si v = (x, y, z), segun el Problema 1003, v = zw 1 + (y- z)w 2 F(v) = (3x

+ (x -

y)w 3 Asimismo, o

+ 2y- 4z, x - 5y + 3z) = (-13x- 20y + 26z)u 1 + (8x + lly- 15z)u2

Por tanto, [v]s = (z, y- z, x - y)T

y

_ (-13x- 20y + 26z) [F(v)]s· 8x + lly- 15z

De este modo, [F]so s [v]s =

10.30.

Sea F: K"

~

(-7 4

~ z) _(-13x - 20y + 26z) _ v 8x + lly - 15z - [F{ )]s·

-33 19

- 13) ( 8 y x -y

Km Ia aplicaci6n lineal definida par

Mostrar que Ia representaci6n matricial de F relativa a las bases usuales de Kn y K"' viene dada por

Es decir, las filas de [F) se obtienen de los coeficientes de las F(x 1 , 000 , Xn) o

xi

en las componentes de

Tenemos F(l, 0, 000, 0) = (a11 , a 21 , 00 o, a., 1 ) F(O, 1, 0) = (a 12 , a 22 , ° o, a.,. 2) 0

0

0,

0

y asi

F(O, 0, 00 0, 1) = (a 1,., a 2 . , 00., a ... )

10.31.

Encontrar Ia representaci6n matricial de cada una de las aplicaciones lineales escritas a continuaci6 n respecto a las bases usuales de los R":

F: R 2 ~ R 3 definida como F(x, y) = (3x- y, 2x + 4y, 5x - 6y) F : R4

--+

R 2 definida como F(x, y, s, t) = (3x - 4y

F: R 3 ~ R 4 definida como F(x, y, z) = (2x

+ 3y -

+ 2s - 5t, 5x + 7y - s - 2t) 8z, x

+ y + z, 4x -

5z, 6y)

431

MATRICES Y APLICACIONES LINEALES

De acuerdo con el Problema 10.30, solamente es necesario mirar los coeficientes de las variables en F(x, y, ... ). Asi pues,

[F]

=

-1) 3 ( 2

5

10.32.

4 -6

[F]

=G -~ -~ =D

3 0

6

-~) -5 0

Sea Ia aplicaci6n T: R 2 --+ R 2 definida como T(x, y) = (2x- 3y, x + 4y). Hallar Ia matriz de T relativa, respectivamente, a las siguientes bases de R 2 :

E = {e1

= (1, 0), e 2 =

(0, l)}

S = {u 1 = (1, 3), u2 = (2, 5)}

y

(Podemos ver T como una aplicaci6n lineal de un espacio en otro, teniendo cada uno su propia base.) Del Problema 10.2, (a, b)= ( -5a

+ 2b)u 1 + (3a -

b)u 2 • Por tanto,

T(e 1) = T(l, 0) = (2, 1) = -8u 1 + 5u2 T(e2 ) = T(O, 1) = ( -3, 4) = 23u 1 -13u2

10.33.

Sea

y asi

A=(~ -~ -~). Recuerdese que A determina una aplicacion lineal F: R

3

--+

R

2

definida mediante F(v) = Av, donde v se escribe como vector columna. Encontrar Ia representaci6n matricial de F relativa a las siguientes bases de R3 y R2 .

S = {w 1

= (1,

1, 1), w2

= (1, 1, 0), w3 = (1, 0, 0)}

Del Problema 10.2, (a, b)= ( -5a + 2b)u 1

+ (3a -

S' = {u1 = (1, 3), u2 = (2, 5)} b)u 2 • De esta manera,

Escribir como columnas los coeficientes de F(w 1 ) , F(w2 ), F(w3 ) proporciona S' _

[FJs -

(-12

8

- 41 24

-8) 5

432

ALGEBRA LINEAL

10.34. Demostrar el Teorema 10.16. Supongamos que dim V = m y dim U = n. Sea W el nucleo de F y U', su imagen. Se nos dice que rango F = r, luego Ia dimension del nucleo de F es m- r. Sea {w 1 , ••. , wm - r} una base del nucleo de F. Extendamosla a una base de V:

Tornemos Hacemos notar que {u 1 ,

.. . ,

u,} es una base de U' , Ia imagen de F. Extendernos esta a una base {utt ... , u,, ur+lt ... , u,}

de U. Observese que

= u 1 = lu1 + Ou 2 + · · · + Ou, + Ou,+1 + · · · + Ou.

F(v 1) F(v2) •





••

= u 2 = Ou1 + lu 2 + · · · + Ou, + Ou,+ 1 + · · · + Ou • •

0

••••••••







••

••••••

0

•••

0

••••••••

0

••

0

••••••

0

••••••

u, = Ou1 + Ou2 + · · · + lu, + Ou,+ 1 + · · · + Ou. = 0 = Ou 1 + Ou2 + · ·· + Ou, +Our+ I+···+ Ou•

F(v,) f(w 1) •

'

=



0

••••••••••••••••••••••••

F(w._,) = 0

= Ou 1 + Ou 2 + · · · +





0

..............

.. ..

.

Ou, + Ou,+ 1 + · · · + Ou.

Asi pues, Ia matriz de F en las bases precedentes tiene Ia forma requerida.

PROBlrEMAS SUPLEMENTARIOS

REPRESENTACIONES MATRICIALES DE OPERADORES LINEALES 10.35.

10.36.

Hallar Ia representacion rnatricial de cada uno de los siguientes operado res lineales Ten R 3 , relativa a Ia base usual: a) b)

T(x, y, z) = (x, y, 0). T(x, y, z) = (2x- 7y- 4z, 3x + y + 4z, 6x- 8y + z).

c)

T(x, y, z) = (z, y + z, x

+ y + z).

Hallar Ia matriz de cada operador T del Problema 10.35 respecto a Ia base S = {u 1

= (1, 1, 0), u2 = (1, 2, 3), u3 = (1, 3, 5)}

10.37. Sea D el operador de derivacion, o sea, D(f) = dffdt. Cada uno de los conjuntos que siguen es una base de un espacio vectorial V de funciones f: R -+ R. Encontrar Ia matriz de D en cada base: b)

10.38.

{sen t, cos t},

d)

{I, t, sen 3t, cos 3t}.

Considerese el cuerpo complejo C como espacio vectorial sobre el cuerpo real R . Sea Tel operadar de conjugaci6n en C, esto es, T(z) = z. Hallar Ia matriz de T en cada base: a) {1, i}, b) {1 + i, 1 + 2i}.

MATRICES Y APLICACIONES LINEALES

10.39. Sean Vel espacio vectorial de las matrices 2 x 2 sabre R y M

= (:

; ).

433

Hallar Ia matriz de cada

uno de los operadores lineales T en V escritos a continuaci6n en Ia base usual (vease el Problema 10.18): a)

T(A) = MA,

b)

T(A) = AM,

c)

T(A) = MA- AM.

10.40. Den6tense por lv y Ov los operadores identidad y cera, respectivamente, en un espacio vectorial V. Demostrar que para cualquier baseS de V: a) [Jvls = I, Ia matriz identidad; b) [Ovls = 0, Ia matriz cero.

CAMBIO DE BASE. MATRICES SIMILARES 10.41. Considerense las siguientes bases de R 2 : E = {e 1 = (I, 0), e 2 = (0, I)} y S = {u 1 = (1, 2), u 2 = (2, 3)}. a)

Encontrar las matrices de cambia de base P y Q desde E hasta S y desde Shasta £, respectivamente. Comprobar que Q = p- 1 .

b) Mostrar que [v]£ = P[v] 5 para todo vector VE R 2 • c) Comprobar que [TJs = p - I [T]£P para el operador lineal T(x, y) = (2x - 3y, x

+ y).

10.42. Hallar Ia traza y el determinante de cada una de las aplicaciones lineales en R 3 : a) F(x, y, z)

= (x + 3y, 3x- 2z, x- 4y- 3z),

b) G(x, y, z) = (x + y - z, x

+ 3y, 4y + 3z).

10.43. Sup6ngase que S = {u 1 , u2 } es una base de V y T: V-. V un operador lineal para el que T(u 1 ) = 3u 1 - 2u 2 y T(u 2 ) = u 1 + 4u 2 • Sup6ngase, asimismo, que S' = (w 1 , w2 } es una base de V en Ia que w 1 = u 1 + u 2 y w 2 = 2u 1 + 3u 2 . Hallar Ia matriz de Ten Ia base S'. 10.44. Considerense las bases {I, i} y {I + i, I + 2i} del espacio vectorial C sobre el cuerpo real R. a) Enconfrar las matrices de cambio de base P y Q desde S hasta S' y desde S' hasta S, respectivamente. Comprobar que Q = p - 1 . b) Probar que (TJs· = p- 1 [TJsP para el operador de conjugaci6n T del Problema 10.38.

DIAGONALIZACION DE OPERADORES LINEALES . VALORES PROPIOS Y VECTORES PROPI OS 10.45. Sup6ngase que v es un vector provio de dos operadores S y T. Mostrar que v es tambien un vector propio del operador aS+ bT, donde a y b son escalares cualesquiera. 10.46. Sup6ngase que v es un vector propio de un operador T perteneciente a! valor propio .A.. Probar que, para n > 0, v es tambien un vector propio de T' perteneciente a /,". 10.47. Sup6ngase que A es un valor propio de un operador T y f(t) un polinomio. Pro bar que f(.A.) es un valor propio de f(T). 10.48.

Mostrar que un operador lineal T es diagonalizable si y solo si su polinomio minima es un producto de factores lineales distintos.

10.49. Sean S y T operadores lineales tales que ST = TS. Sean .A. un valor propio de T y W su espacio propio. Probar que W es invariante bajo S, es decir, S(W) s:; W

434

ALGEBRA LINEAL

REPRESENTACIONES MATRICIALES DE APLICACIONES LINEALES 10.50.

Hallar Ia representacion matricial relativa a las bases usuales de los R" de Ia aplicaci6n lineal F: R 3 -> R 2 delinida por F(x, y, z) = (2x- 4y + 9z, Sx + 3y - 2z).

10.51.

Sea F : R 3 -+ R 2 Ia aplicacion lineal delinida por f(x, y, z) = (2x Ia matriz de F e n las siguientes bases de R 3 y R 2 : S

= {w1 = (1, l, 1), w 2 = (1, 1, 0), w3

+ y- z, 3x- 2y + 4z). Encontrar ·

s· ={vi= (1 , 3), vl =

= (1, 0, 0)}

(1,. 4)}

Comprobar que, para cualquier vector vE R 3 , [F]f[v]5 = [F(v))5 •. 10.52.

Sean s y s· bases de Vy I V • Ia aplicaci6n identidad en v. Pro bar que Ia matriz de I v relativa a las bases S y S' es Ia in versa de Ia matriz de cambio de base P desde Shasta S'; esto es, [I vlf = p - 1 •

10.53.

Demostrar el Teorema 10.12.

10.54.

Demostra r el Teorema 10.13.

10.55.

Demostrar el Teorema 10.15.

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS

10.35. a)

10.36. a)

10.37.

a)

10.39. a)

(~

0 b)

6

0

G-: -I~).

(~

b)

2 0

b)

d 0 '

OcOd

b)

0 -:).

-8

1

1

104)• (-~~ -1~! -351 29

0

(~ ~ ~ ~) c 0

(~ -~

116

0

c '

OObd

c)

(-~

!) 0 0

5

~ ~ ~) a

0

1

0 •

(: 0 0

2

c) ( - :

208

(0 -1) 1

1

0

b

-c a-d

0

c

0

d-a

0

c

-b

~ -!)

MATRICES Y APLICACIONES LINEALES

10.41.

P=G ~). Q=(-~

10.42.

a)

10.43.

(

10.44.

P=G ~).

-D

-2, 13, t 3 + 2tl- 20t - 13;

8 -2

10.50.

G

10.51.

(_~

11 ) -1

-~)

- 4 3 11

-8

-~)

Q

=(

2 - 1

-~)

b) 7, 2, t3

-

7t 2

+ 14t- 2.

435

CAPITULO

11

Formas can6nicas

11.1.

INTRODUCCION

Sea T un operador lineal en un espacio vectorial de dimension finita. Como se vio en el Capitulo 10, T puede no tener una representaci6n matricial diagonal. No obstante, todavia es posible «simplificar» !a representaci6n matricial de T de numerosas formas. · Este es el tema principal del capitulo. En particular, obtendremos el teorema de descomposici6n primaria y las formas canonicas triangular, de Jordan y racional. Cabe comentar que las formas can6nicas tdangular y de Jordan para T existen si y solo si el polinomio caracteristico t.(t) de T tiene todas sus raices en el cuerpo base K. Esto siempre se verifica si K es el cuerpo complejo C, perc puede no verificarse si K es el cuerpo real R. Introducimos tambien la idea de espacio cociente. Es una herramienta muy poderosa y se empleara en Ia demostraci6n de Ia existencia de las formas can6nicas triangular y racional.

11.2.

FORMA TRIANGULAR

Sea T un operador lineal en un espacio vectorial n-dimensional V. Supongamos que T admite como representaci6n Ia matriz triangular

A=

C'

au a22

:. :::) a""

Entonces el polinomio caracteristico de T, Ll(t) = I tl -A I = (t- a 11 )(t - a 22)

436

•• •

(t- a".)

FORMAS CANONICAS

437

es producto de factores lineales. El reciproco es cierto tambien y es un importante teorema; a saber (vease Ia demostraci6n en el Problema 11 .28), Teorema 11.1: Sea T: V-+ V un operador lineal cuyo polinomio caracteristico se factoriza en polinomio lineales. Existe una base de V en Ia que T se representa por una matriz triangular. Teorema 11.1 (forma alternativa): Sea A una matriz cuadrada cuyo polinomio caracteristico se factoriza en polinomios lineales. Entonces A es similar a una matriz triangular, es decir, existe una matriz invertible P tal que p -l AP es triangular. Decimos que un operador T puede llevarse a forma triangular si se puede representar por una matriz triangular. N6tese que en este caso los valores propios de T son precisamente aquellas entradas situadas en Ia diagonal principal. Demos una aplicaci6n de esta observaci6n. EJ EM PLO 11 .1. Sea A una matriz cuadrada sobre el cuerpo complejo C. Supongamos que 1 es un valor propio de A 2 • Probemos que fi o -fi es un valor propio de A. Sabemos por el Teorema ILl que A es similar a una matriz triangular

Por tanto, A 2 es similar a Ia matriz

Dado que las matrices similares tienen los mismos valores propios, ). Jl; = o /1; = - fi; esto es, fi o - ·fi es un valor propio de A.

Ji

.11.3.

=

Jlf para algun i. Por consiguiente, .

INVARIANCIA

Sea T : V _. V lineal. Un subespacio W de V se dice invariante bajo To T-invariante si T aplica Wen si mismo, o sea, si ve W implica T(v)e W. En tal caso, T induce un operador lineal T: W-+ W definido por T(w) = T(w) para todo wE W. EJEMPLO 11.2

a) Sea T:R 3 ---+R 3 el operador lineal que gira cada vector a lrededor del eje z un angulo 8 (Fig. II-!); esto es, el definido por 7{x, y, z)

=

(x

COS

8- y sen 0,

X

sen 8 + y

COS (},

z)

Observese que cada vector w = (a, b, 0) del plano xy, W, permanece en W bajo Ia aplicaci6n T, luego W es T-invariante. Observese asimismo que el eje z, U, es invariante bajo T. Ademas, Ia restricci6n de T a W gira cada vector alrededor del origen 0, y Ia de T a U es Ia aplicaci6n identidad de U .

438

ALGEBRA LINEAL

Figura 11-1. b)

Los vectores propios no nulos de un operador lineal T: V-+ V pueden caracterizarse como generadores de subespacios 1-dimensionales T-invariantes. Supongamos T(v) = A.v, v # 0. Entonces, W = {kv, k e K}, . el subespacio !-dimensional generado por v, es invariante bajo T porque T(kv) = kT(v) = k(Av) = kAv

E

W

Reciprocamente, supongamos que dim U = I, que u-/:. 0 genera U y que U es invariante bajo T. En ese caso, T(u)E U y asi T(u) es un multiplo de u, o sea, T (u) = JlU. De aqui que u sea un vector propio de T.

El proximo teorema, demostrado en el Problema 11.3, nos da una clase importante de subespacios invariantes. Teorema 11.2: Sean T : V-+ V un operador lineal y f(t) cualquier polinomio. El nucleo de f(T) es invariante bajo T. · La noci6n de invariancia esta relacionada con las representaciones matriciales (Problema 11.5) como sigue. Teorema 11.3:

Supongamos que W es un subes\acio invariante de T: V-+ V. Entonces T tiene

una representaci6n matricial por blo ques Ia restricci6n

11.4.

T de

(~ ~) , donde A es una representaci6n matricial de

T a W.

DESCOMPOSICIONES EN SUMA DIRECTA INVARIANTE

U n espacio vectorial V es Ia suma directa de sus subespacios W1,

si to do vector

VE

... ,

V puede expresarse de forma unica como

v = w1

+ w 2 + ··· + w,

con

Es aplicable el siguiente teorema, demostrado en el Problema 11.7.

W,., escrito

FORMAS CANONICAS

Teorema 11.4:

Supongamos que W1 ,

... ,

439

W,. son subespacios de V y que

son bases de W1 , ... , W,., respectivamente. En ese caso, V es Ia sum a directa de los W; si y solo si Ia union B = {w 11 , ••• , w1 ,.,, .•. , wrl, .. . , w,,J es una base de V. Supongamos ahora que T: V ~ V es lineal y que V es Ia suma directa de subespacios T-invariantes (no nulos) W1 , ... , W,.: V=W1 $···EElW,

i

y

= 1, ... , r

Denotemos por 7i Ia restricci6n de T a W;. Entonces se dice que T es descomponible en los operadores 7i o que T es Ia suma directa de los T;, escrito T = T1 $ ·· · EB T,.. Asimismo, se dice que los subespacios W1 , ••. , W,. reducen a To que forman una descomposicion en suma directa T-invariante de V. Consideremos Ia situaci6n especial en Ia que dos subespacios U y W reducen a un operador T: V __. V; sea, por ejemplo, dim U = 2 y dim W = 3 y supongamos que {u 1 , u 2 } y {w1 , w2 , w3 } son bases de U y W, respectivamente. Si T1 y T2 denotan las restricciones de T a U y W, tendremos

T1 (u 1) = a 11u 1 T1 (u 2 ) = a 21 u 1

+ a12 u2

+ a 22 u2

T2(wl) = buwt + b12 Wz + b13 w3 Tz(w2) = b21w1 + b22 wl + b23 w3 Tz(w3) = b31W1 + b32 W2 + b33 W3

y

De aqui

son representaciones matriciales de T1 y T2 , respectivamente. Segun el Teorema 11.4,

es una base de V. Dado que T(uJ matriz diagonal por bloques (

= T 1 (u;)

~ ~).

y T(w)

= T 2 (wi) , Ia matriz de

Ten esta base es Ia

Una generalizaci6n del argumento anterior proporciona el teorema enunciado a continuaci6n. Teorema 11.5: Supongamos que T: V __. V es lineal y que V es Ia suma directa de subespacios T-invariantes, digamos W1 , . .. , W,.. Si A; es una representaci6n matricial de Ia restricci6n de T a W;, T puede representarse por Ia matriz diagonal por bloques

La matriz diagonal por bloques M con entradas diagonales A 1, ••• ,A, se denomina a veces Ia suma direct a de las matrices A 1 , •• . , A, y se denota por M = A 1 EB ·· · Ef) A,.

440

ALGEBRA LINEAL

11.5. DESCOMPOSICION PRIMARIA El siguiente teorema muestra que un operador T: V--+ V es descomponible en operadores cuyos polinomios minimos son potencias de polinomios irreducibles. Este es el primer paso hacia Ia obtenci6n de una forma can6nica de T. Teorema de descomposicion primaria 11.6: minimo

Sea T: V--+ V un operador lineal con polinomio

donde los fi(t) son polinomios irreducibles normalizados distintos. Entonces V es Ia suma directa de subespacios T-invariantes W1 , ... , W., donde W; es el nucleo de J;(T)"'. Mas aun, J;(t)"' es el polinomio minimo de Ia restricci6n de T a W;. Siendo los polinomios /;(t)"' primos entre si, el resultado fundamental precedente deriva (Problema 11.11) de los proximos dos teoremas. Teorema 11.7: Supongamos que T : V--+ V es lineal y que f(t) = g(t)h(t) son polinomios tales que f( T) = 0 y g(t) y h(t) son primos entre si. En ese caso, V es Ia suma directa de los subespacios T-invariantes U y W, con U = Ker g(T) y W = Ker h(T). Teorema 11.8:

En el Teorema 11.7, si f(t) es el polinomio minimo de T [y g(t) y h(t) estan y h(t) son los polinomios minimos de las restricciones de T a U y W, respec-

normalizad~s], g(t)

tivamente.

lo

Utilizaremos tambien el teorema de descomposicion primaria para demostrar la uti!' caracterizaci6n de los operadores diagonalizables que ahora escribimos (vease Ia demostracion en el Problema 11.12). · Teorema 11.9: Un operador lineal T: V--+ V es diagonalizable si y solo si su polinomio minimo · es un producto de polinomios lineales diferentes. Teorema 11.9 (forma alternatin): Una matriz A es similar a una matriz diagonal si y solo si su polinomio minima es un producto de polinomios lineales diferentes. EJEMPLO 11.3. Supongamos que A#- I es una rnatriz cuadrada para Ia cual A 3 = I . Deterrninemos si A es o no similar a una rnatriz diagonal, cuando A es una matriz sobre i) el cuerpo real R;, ii) el cuerpo complejo C. Puesto que A3 = I, A es un cero del polinomio f(t) = £3 - I = (r- I )(t2 + t + I). El polinomio minimo m(t) de A no puede ser t - I, ya que A #- I. Por tanto, m(t) = t 2

+t+I

0

m(t) = c2

-

I

Dado que ninguno de los polinomios es producto de polinomios lineales sobre R, A no es diagonalizable sobre R. Por el contrario, cada uno de los polinomios es producto de polinomios lineales distintos sobre C, luego A es diagonalizable sobre C.

FORMAS CANONICAS

11.6.

441

OPERADORES NILPOTENTES

Se dice que un operador lineal T: V---+ V es nilpotente si T" = 0 para algun entero positivo n; llamamos a k el indice de r1ilpotencia de T si Tk = 0 pero T k- t # 0. Amilogamente, una matriz cuadrada A se dice nilpotente si A" = 0 para algun entero positivo n, y de indice k si Ak = 0 pero Ak- 1 # 0. Claramente, el polinomio minimo de un. operador (matriz) nilpotente de indice k es m(t) = t\ por lo que 0 es su unico valor propio. El resultado funda mental sobre operadores nilpotentes es el siguiente. Teorema 11.10: Sea T: V-+ V un operador nilpotente de indice k. En tal caso, T tiene una representaci6n matricial diagonal por bloques cuyas entradas diagonales son de Ia forma

0 l

0

0

0 0

l

0

N= 0

(es decir, todas .las entradas de N son 0 excepto aquellas situadas justo sobre Ia diagonal principal, que son 1). Hay al menos una N de orden k , siendo todas las demas de orden ~k. El numero de las N de cada orden posible esta univocamente determinado por T. Mas aun, el numero total de las N de todos los 6rdenes coincide con Ia nulidad de T. Eo Ia demostraci6n del teorema anterior (Problema 11.16) probaremos que el numero de las N de orden i es igual a 2m; - m; + 1 - m; _ 1 , donde m; es Ia nulidad de T;. Seiialamos que Ia matriz N precedeote es a su vez nilpotente y que su indice de nilpotencia es igual a su orden (Problema 11.13). N6tese qne Ia matriz N de orden l es justameote Ia matriz cero (0) 1 x t.

11.7.

FORMA CANONICA DE JORDAN

.Un operador T puede ponerse en forma can6nica de Jordan si sus polinomios caracteristico y minimo se factorizan en polinomios lineales. Esto siempre se cumple si K es el cuerpo complejo C. En cualquier caso, siempre podemos extender el cuerpo base K a un cuerpo en el que los polinomios caracteristico y minimo se factoricen en polinomios lineales; de modo que, en un sentido amplio, todo operador tiene una forma can6nica de Jordan. Analoga mente, toda matriz A es similar a una matriz en forma canonica de Jordan. Teorema 11.11: Sea T : V-+ V un operador lineal cuyos polinomios minimo y caracteristico son, respecti va mente,

y

m
=
A.,)""



442

ALGEBRA LINEAL

donde los A.i son escalares distintos. Entonces T tiene una representaci6n matricial diagonal por bloques J, con entradas diagonales

Jij

A.j

1

0

A.j

).i,

0 0

0 0

= ....................... 0 0

Por cada

0 1

0 0

0 0

A.t

...

0

1 A.i

los bloques correspondientes Jii tienen las siguientes propiedades:

i) Existe al menos un Jii de orden mi; todos los demas Jii son de orden :;;;,m;. ii) La suma de los 6rdenes de los Jii es ni. iii) El numero de los Jii coincide con Ia multiplicidad geometrica de A.;. iv) El numero de los J,i de cada orden posible esta univocamente determinado por T. La matriz J del teorema anterior recibe el nombre de forma canonica de Jordan del operador T. Cada bloque diagonal Jii se llama bloque de Jordan perteneciente al valor propio 2i. Observese que 0 0

0

A.j

0

0

1 0 A.j 1

0

0

0 0

0 0

A.j

1

A.,

A.j

0 0

0 0

0 0

0 0

0 ... 0

0

Jii

=

0 1 0 0 0 1

0 0

0 0

0

+ 0 0

0

Esto es,

A.J

0

1

+N

donde N es el bloque nilpotente que aparecia en el Teorema 11.10. De hecho, demostraremos el Teorema 11.11 (Problema I I .18) probando que T puede descomponerse en operadores suma, cada uno de ellos, de un operador escalar y un operador nilpotente. EJ EM PLO 11.4. Supongamos que los polinomios caracteristico y minimo de un operador T son, respectivarnen te,

W

A(t) = (t - 2t(t -

y

La forma canonica de Jordan de T es, pues, una de las matrices:

2 1: 0 2:

---- r--., 2 1 I I

I I

10 21

0

- - - --1 - ---.

3 1I I 1 0 1_ _ _31 _ tI I

13

Sera Ia primera si T tiene dos vectores propios independientes pertenecientes a su valor propio 2; y seni Ia segunda si T tiene tres vectores propios independientes correspondientes a 2.

FORMAS CANONICAS

443

11.8. SUBESPACIOS CICLICOS Sea T un ope radar lineal en un espacio V de dimension finita sabre K. Supongamos v E V y v -=1= 0. El conjunto de todos los vectores de Ia forma f(T)(v), donde f(t) recorre todos los polinomios sabre K, es un subespacio T-invariante de V denominado el subespacio T-ciclico de V generado por v. Lo denotaremos par Z(v, T) , y denotaremos Ia restricci6n de T a Z(v, T) por T,. Podriamos definir equivalentemente Z(v, T) como la intersecci6n· de todos l~s subespacios T-invariantes de V que contengan v. Consideremos abora Ia sucesi6n v, T(v), T 2 (v), T 3 (v), ...

de potencias de T actuando sabre v. Sea k el menor entero tal que P(v) es una combinaci6n lineal de los vectores que lo preceden en la sucesi6n, digamos Tk(v)

= - a k - l yk- 1(v)- · · · -

a 1 T(v)-

a0 v

. En tal caso, es el unico polinomio normalizado de grado minima para el que m.(T)(v) = 0. Llamamos a m.(t) el T-aniquilador de v y Z(v, T). Es aplica~le el siguiente teorema (demostrado en el Problema 11.29). Teorema 11.12:

Definamos Z(v, T), T. y m.(t) como antes. Se cumple:

i) ii)

El conjunto {v, T(v), ... , rc - 1 (v)} es una base de Z(v, T), Iuego dim Z(v, T) = k. El polinomio minima de T, es m.,(t).

iii)

La representaci6n matricial de Tv en Ia base anterior es justamente Ia matriz acompanante (Ejemplo 8.12) de m.,(t):

0 0 0 1 0 0 0 1 0

C=

••



•••••

0

0 0 0 0



••

•••••••

-ao -a~

-a2 •

0

•••••

0 0 0 0 - ak - 2 0 0 0 ... 1 -ak - 1

11.9. . FORMA CANONICA RACIONAL En esta secci6n presentamos Ia forma can6nica racional para un operador lineal T: V --. V. Subrayamos que esta forma existe incluso cuando el polinomio minima no puede factorizarse en polinomios lineales. (Recordemos que no es este el caso para Ia forma can6nica de Jordan.) Lema 11.13: Sea T: V --+ V un operador lineal cuyo polinomio minima es f(tt, donde f(t) es un polinomio irreducible normalizado. Entonces V es Ia suma directa.

V = Z(v 1 , T) Ef) • • • E9 Z(v,, T)

444

ALGEBRA LINEAL

de subespacio T-ciclicos Z(v;, T) con correspondientes T-aniquiladores

Cualquier otra descomposi6n de V en subespacios T-ciclicos tiene el mismo numero de componentes y el mismo conjunto de T-aniquiladores. Seiialamos que el lema precedente, demostrado en el Problema 11.31, no dice que los vectores v; o los subespacios T-ciclicos Z(v;, T) esten univocamente determinados por T, sino que el conjunto de T-aniquiladores lo esta. Asi T tiene una (mica representaci6n matricial

c J c, ...

en Ia que las C; son matrices acompaiiantes. De hecho, las C1 son las matrices acompafiantes de los polinomios f(t)"'. Utilizando el teorema de descomposici6n primaria y el Lema 11.13 obtenemos el resultado fundamental que sigue. Teorema 11.14:

Sea T: V-+ V un operador lineal con polinomio minimo m(t) = / 1 (t)"''fz(t)"'2

• • •

f.(t)"'•

donde los /;(t) son polinomios irreducibles normalizados distintos. En ese caso, T tiene una (mica representaci6n matricial diagonal por bloques

Cu

en Ia que las Cii son matrices acompafiantes. En concreto, las Cii son las matrices acompailantes de los polinomios f;(t)"'i, con

La anterior representaci6n matricial de T se llama su forma canonica racional. Los polinomios J;(t)"'i se conocen como divisores elementales de T. EJ EM PLO 11.5. Sea V un espacio vectorial de dimension 6 sobre R y T un operador lineal cuyo polinomio minima es m(t) = (t 2 - t + 3)(t- 2?. La forma can6nica racional de T es una de las sumas directas de matrices acompanantes: i)

C(t2

ii) C(t

2

iii) C(t 2

+ 3) EB C(t2 - t + 3) EB C({t - 2)2 ) 2 2 -_ t + 3) $ C((t - 2) ) EB C((t - 2) ) 2 - t + 3) EB C((t - 2) ) EB C(t - 2) EB C(t - 2) -

t

1 FORMAS CANONICAS

445

donde C(f(t)) es Ia matriz acompanante de f(t); esto es,

0

0

-3: I

0 J

-3 J

--- - --r - - - --1

------.------1

I

I

I

I I

I I --- -- - ~----1 I

0

0 1

-4 4

I

1

I

I

I

I

L-- -- - IL-0 - --4

-4

0 1

-4 4

ii)

I I

2

I I ~--1.-

'2

:1

i)

I

- -- - --~ --,

I

:1

11.10.

0 -3 : 1 1:

1:

1 1: --- -,- - - --1 I

-3:

I

iii)

ESPACIOS COCIENTE

Sean V un espacio vectorial sobre un cuerpo K y W un subespacio de V. Si v es cualquier vector en V, escribimos v + W para representar el conjunto de sumas v + w con we W: v+ W

= {v + w: wE W}

Estos conjuntos se denominan variedades afines de W en V. Probaremos (Problema 11.22) que dichas variedades afines constituyen una partici6n de V en subconjuntos mutuamente disjuntos. EJ EM PLO 11.6.

Sea W el subespacio de R1 definido como W= {(a, b) :a

=

b}

Es decir, W es Ia recta dada por Ia ecuaci6n x- y = 0. Podemos ver v + W como una traslaci6n de Ia recta, oblenida sumando v a cada punto de W. Como se muestra en Ia Figura 11-2, v + W es tambien una recta y es paralela a W. De este modo, las variables a fines de Wen R 1 son precisamente todas las rectas paralelas a W.

Figura 11-2.

En el teorema enunciado a continuaci6n hacemos uso de las variedades afines de un subespacio W de un espacio vectorial V para definir un nuevo espacio vectorial; se llama el espacio cociente de V por W y se denota por V f W.

446

ALGEBRA LINEAL

Teorema 11.15: Sea W un subespacio de un espacio vectorial V sobre un cuerpo K. Las variedades afines de Wen V forman un espacio vectorial sabre K con las siguientes operaciones de suma y producto par un escalar:

i) ii)

(u + W) + (v k(u

+ W) =

+ W) = (u + v) + W. + W, donde keK.

ku

Hacemos notar que en Ia demostraci6n del Teorema 11.15 (Problema 11.24) es necesario probar primero que las operaciones estan bien definidas; o sea, que siempre que u + W = u' + W y v + W = v' + W se cum pie: i)

(u

+ v) + W =

(u'

+ v') + W

y

ii)

ku

+W=

ku'

+W

para cualquier k E K

En el caso de un subespacio invariante, disponemos del uti! resultad o, demostrado en el Problema 11.27, que enseguida escribimos. Teorema 11.16: Supongamos que W es un subespacio invariante bajo un operador lineal T: V-+ V. Entonces T induce un operador lineal 'ten Vf W definido par 't(v + W) = T(v) + W. Mas aun, si T es un cero de algun polinomio, tambien to es T. El polinomio minima de 't es divisor, pues, del de T.

PROBLEMAS RESUELTOS

SUBESPACIOS INVARIANTES 11.1.

Sup6ngase que T: V-+ V es lineal. Probar que cada uno de los siguientes subespacios es invariante bajo T: a) {0}, b) V, c) nucleo de T , d) imagen de T. a) Tenemos T(O) = Oe:{O}, luego {0} es invariante bajo T. b) Para todo vE V, T(v)E V, luego V es invariante bajo T. c) Sea uEKer T. Entonces T(u) = OEKer T porque el nucleo de T es un subespacio de V. Siendo asi, Ker T es invariante bajo T. d)

11.2.

Dado que T(v)Eim T para todo liE V, es claramente cierto cuando liE lm T. Por tanto, la imagen de T es invariante bajo T.

Sup6ngase que { ltj} es una colecci6n de subespacios T-invariantes de un espacio vectorial V. Pro bar que Ia intersecci6n W = n; ltj es tambien T-invariante. Supongamos liE W; en tal caso, VE w; para todo i. Puesto que w; es T-invariante, T(v) E It; para todo i. De este modo, T(li)E W = ''!; U<; y W es, pues, T-invariante

l1.3.

Demostrar el Teorema 11.2.

FORMAS CANONICAS

447

Supongamos veKer f(T), es decir, f(T)(v) = 0. Debemos probar que T(v) tambien pertenece al nucleo de f(T), o sea, f(T)(T(v)) = 0. Dado que f(t)t = tf(t), tenemos f(T)T= Tf(T). Asi pues, f(T)T(v) = .Tf(T)(v) = T(O) = 0

como se pedia.

11.4.

Hallar todos los subespacios invariantes de A =

-5)

(~

-2

vista como un operador en R 2 .

Por el Problema 11.1, R 2 y {0} son invariantes bajo A. Ahora bien, si A tiene cualquier otro subespacio invariante, este debe ser !-dimensional. Sin embargo, e1 polinomio caracteristico de A es ..

6.(t) = I tl - A I =

5

t _ 2

I

-1

t

+2

I

= (l

+J

Por esta raz6n, A no tiene valores propios (en R) ni por tanto vectores propios. Pero los subespacios invariantes 1-dimensionales corresponden a los vectores propios; asi R 2 y {0} son los unicos subespacios invariantes bajo A.

11.5.

Demostrar el Teorema 11.3. Escogemos una base {w 1, Tenemos

... ,

w,} de W y Ia extendemos a una {w 1 ,

... ,

w,, v1 ,

... ,

v,} de V.

+ · · · + a 1 ,w, = a 21 w1 + · · · + a2r w,

f(w 1) = T(w 1) = a 11 w1 f(w 2) = T(wJ

+ · · · + a,.,. w, + .. · + b 1,w, + c11 v1 + ... + C~oV, b21 w 1 + ··· + b 2 ,w, + c 21 v 1 + · .. + c 1 ,v,

f(w,) = T(w,) = a,1 w1

T(v 1) = b11 w 1 T(v 2 ) =

-

Pero Ia matriz de T en esta base es Ia traspuesta de Ia matriz de coeficientes del sistema de ecuaciones anterior. (Vease Ia pagina 407.) Por consiguiente, es de Ia forma (

~ ~), donde

A

es Ia traspuesta de Ia matriz de coeficientes del subsistema obvio. Por el mismo argumento, A es Ia matriz de T relativa a Ia base {w;} de W.

11.6.

Denotemos por Tla restriccion de un operador T a un subespacio invariante W, es decir, T(w) = T(w) para todo we W. Demostrar: i) ii)

Para cualquier polinomio f(t), f(T)(w) = f(T)(w). El polinomio minimo de T es divisor del polinomio minimo de T.

i) Si f(t) es de grado 0 o de grado I, el resultado claramente se cumple. Supongamos que grado f menor que n. Sea

=

n > I y que el resultado se cumple para polinomios de grado

448

ALGEBRA LINEAL

En ese caso, f(T)(w) =(a. t• + a._ 1 t•- 1 + · · · + a 0 I)(w) = =(a. f'•- 1 )(T(w)) + (a._ 1 t • - l + ·· · + a 0 l)(w) = =(a. r-- 1)(T(w)) + (a._ 1 T"- 1 + · · · + a 0 l)(w) = = f(T)(w) ii)

Sea m(t) el polinomio minimo de T. Pori), m(T)(w) = m(T)(w) = O(w) = 0 para todo we W; esto es, T es un cero del polinomio m(t). De aqui que el polinomio minimo de T sea divisor de m(t).

DESCOMPOSICIONES EN SUMA DIRECTA INVARIANTE

11.7.

Demostrar el Teorema 11.4. Supongamos que B es una base de V. Entonces, para todo ve V,

don de w1 = ail wil pongamos

+ · .. + a;., w1., E W,.

A continuacion demostramos que tal suma es {mica. Su-

w;ew; Como {wn, ... , w;.J es una base de 1¥;, w; = bnwn + ... + b,.,w;., y por tanto v = b11 w11 + · ·· + ht.,wt., + · ·· + b, 1 w,1 + · · · + b,,., w,., v=

w'1

+ w~ + ·.. + w~

con

AI ser B una base de V, a,i = bu para cada i y cada j. Por esta raz6n, w; = w; y Ia suma para v es, pues, (mica. En consecuencia, V es Ia suma directa de los 1¥;. Reciprocamente, supongamos que V es Ia suma directa de los 1¥;. En ese caso, para todo ve V, v = w 1 + ·.. + w, donde w1 E 1¥;. Siendo {wii} una base de 1¥;, cada w; es combinaci6n lineal de los W;i' de modo que v es combinaci6n lineal de los elementos de B. Probemos ahora que B es linealmente independiente. Supongamos

N6tese que a; 1 wil + .. · + a;., w;., E 1¥;. Tenemos, asimismo, que 0 Dado que tal suma para 0 es (mica,

=

0

+ 0 + ·.. + 0

con 0 E 1¥;.

para i = 1, ... , r La independencia de las bases {W;i} implica que todas las a son 0. Asi B es linealmente independiente y por ende una base de V.

11.8. Supongase que T: V _. V es lineal y que T = T1 $ T 2 con respecto a una descomposici6n en suma directa T-invariante V = U EB W. Mostrar que: · a)

b)

m(t) es el minimo comun multiple de m 1 (t) y m2 (t), donde m(t), m1 (t) y m 2 (t) son los polinomios minimos de T, T1 y T2 , respectivamente. ~(t) = Ll 1 (t)Ll 2 (t), donde ~(t), ~ 1 (t) y ~it) son los polinomios caracteristicos de T, T1 y T2 , respectivamente.

FORMAS CANONICAS

a)

449

De acuerdo con el Problema 11.6, m 1 (t) y m 2 (t) son divisores de m(t). Supongamos ahora que f(t) es multiplo de m 1 (t) y m 2 (t) simultaneamente; en tal caso, f(T1 )(U) = 0 y f(T2 )(W) = 0. Sea VE V; e nt onces v = u + w con u E U y WE W. Ahora, f(T)v

= f(T)u +f(T)w = f(T1 )u + f(T2 )w = 0 + 0

= 0

Es decir, T es un cero de f(t). Por ello, m(t) es divisor de f(t) y asi m(t) es el minimo comun multiplo de m l (t) y m ~ (t). b)

En virtud del Teorema 11.5, T tiene una representaci6n matricial M = ( :

~) , siendo A y B

las representaciones matriciales de T1 y T2 , respectivamente. Entonces

A(t) = ltf- Ml = tl -A l 0

I

0 =It/- A lltltl-B

Bl = A1(t) A2(t)

como se pedia.

11.9.

Demostrar el Teorema 11.7. Notese primero que U y W son T-invariantes, segun el Teorema 11.2. AI ser g(t) y h(t) primos entre si, existen polinomios r(t) y s(t) tales que r(t) g(t)

+ s(t)h(t ) =

I

Por consiguiente, para el operador T,

+ s(T)h(T) = I r(T)g (T) v + s(T)h(T) v

r(T)g(T)

Sea vEV; por (*),

v=

Pero el primer terrnino en esta suma pertenece a W = Ker h(T). De hecho, puesto que Ia composicion de polinomios en T es conmutativa, h(T)r(ng(T)v = r(T)g(T)h(T)v = r(T)f(nv = r(T)Ov = 0

Similarmente, el segundo termino pertenece a U. Por tanto, V es Ia suma de U y W. Para demostrar que V= U EE> W debemos proba r que Ia suma v = u + w con uE U, WE W, esta univocamente determinada por v. Aplicando el operador r( T)g(T) a v = u + w y utilizando g(T)u = 0 obtenemos

Asimismo, aplicando (*)a w solo y usando h(T)w = 0, w = r(T)g(T)w

+ s(T)h(T)w =

r(T)g(T)w

Las dos ultimas ecuaciones dan, conjuntamente, w = r(T)g(T)v, de modo que w esta univocamente determinado por v. Analogamente, u esta univocamente determinado por v. De aqui V = U E9 W, como se pedia.

11.10.

Demostrar el Teorema 11.8: En el Teorema 11.7 (Problema 11.9), si f(t) es el polinomio minimo de T [y g(t) y h(t) estan normalizados], g(t) es el polinomio minimo de Ia restricci6n T1 de T a U y h(t) el de Ia restricci6n T2 de T a W. Sean m 1 (t) y m2 (t) los polinomios minimos de T1 y 1'2 , respectivamente. N6tesc que = 0 porque U = Ker g(T) y W = K er h(T). De este modo,

g(T1 )

=

0

y h(1'2 )

m 1 (t) divide g(t)

y

m2 (t) divide h(t)

[I]

450

ALGEBRA LINEAL

Segun el Problema 11.9, f(t) es el minimo comun multiplo de m1 (r) y m2 (t). Pero m1 (t) y m2 (t ) son primos ente si, por serlo g(t) y h(t). En consecuencia, f(t) = m 1 (t)m 2 (t). Tenemos tambien que f(t) = g(t)h(t). Estas dos ecuaciones, junto con [I] y el hecho de que todos los polinomios estan normalizados, implican que g(t) = m1 (t) y h (t) = m2 (t), como se deseaba probar.

11.11. Demostrar el Teorema de Descomposici6n Primaria 11.6. Se demuestra por induccion en r. El caso r = I es trivial. Supongamos que se ha demostrado el teorema para r - I. De acuerdo con el Teorema 11.7, podemos escribir V como Ia suma directa de subespacios T-invariantes y v!, donde WI es el nucleo de !I (T)"· y VI el de f2(T)"' ... f,.(T)"'. Por el Teorema 11.8, los polinornios minimos de las restricciones de T a W1 y V1 son, respectivamente, / 1 (t)"· Y f2(t)"• ··· f,(t)"'. Denotemos Ia restricci6n de T a V1 por T1 . Por Ia hipotesis de induccion, V1 es Ia sum a directa de subespacios W2 , ••• , tales que w; es et nucleo de J;(T1 )"' y /;(t)"' el polinomio minimo de Ia restriccion de "t1 a w;. Pero el nucleo de /;(T)"' para i = 2, ... , r esta necesariamente contenido en V1 porque J;(t)"' es divisor ·de f 2 (r)"' ·· · fr(t)"'. El nucleo de .{;(T)"' coincide, pues, con el de J;(T1)"', que es ~· Asimismo, Ia restriccion de T a W; es Ia misma que Ia de t 1 a W; (para i = 2, ... , r), luego J;(t)"' es tam bien el polinomio minimo de Ia restricci6n de T a 14-{. De esta manera, V = W1 Efl W2 Ef:) •• • EB W, es Ia descomposici6n de T deseada.

w.

w,

ll.l2.

Demostrar el Teorema 11.9. Supongamos que m(t) es un producto de polinomios lineales distintos; por ejemplo,

donde los .A.i son escalares diferentes. En virtud del Teorema 11.6, V es Ia suma directa de subespacios W1 , •.• , W,, con w; = Ker (T- ).J ). Asi pues, si ve ~. entonces (T - .A.J)v = 0 o T(v) = A.;v. En otras palabras, todo vector en ~ es un vector propio perteneciente al valor propia A;. Segun el Teorema 11.4, la union de bases de W1 , .. . , W, es una base de V. Esta base esta constituida por vectores propios, por lo que T es diagonalizable. Reciprocamente, supongamos que Tes diagonalizable, es decir, que V tiene una base consistente en vectores propios de T. Sean .A. 1 , . • . , 1.. los valores propios distintos de T. El operador

aplica, pues, cada vector de Ia base en 0. De este modo, f(T) = 0 y por tanto el polinomio minimo m(t) de T es divisor del polinomio

En consecuencia, m(t) es un producto de polinomios lineales distintos.

OPERADORES NILPOTENTES. FORMA CANONICA DE JORDAN

11.13. Sea T: V--+ V lineal. Sup6ngase, para

vE 1

V, T' (v)

=0

pero

yk -

1

(v)

=1=

0. Demostrar:

El conjunto S = {v, T(v), ... , yk- (v)J es Iinealmente independiente. b) El subespacio W generado por S es T-invariante. c) La restricci6n 't de T a W es nilpotente de indice k.

a)

FORMAS CANONICAS

d)

451

Respecto ala base {T"- 1 (v), ... , T(v), v} deW, Ia matriz de Tes de Ia forma

0 1 0 0 0

0 0 0 0

0 0 0 0 1 0 0 0 ... 00

Por consiguiente, Ia matriz k-cuadrada a nterior es nilpotente de indice k. a)

Supongamos

r-

r-

1 1 Aplicando a (•) y usa ndo T"(v) = 0 obtenemos aT' - 1 (v) = 0; como (v) :f. 0, a= 0. 2 1 a (•) y usando Tk(v) = 0 y a= 0, encontramos que a 1 (v) = 0, Ahora, aplicando 3 a (•) y usando T"(v) = 0 y a= a 1 = 0 obtenemos luego a 1 = 0. Aplicando a continuacion 1 a2 (v) = 0, luego a 2 = 0. Continuando este proceso encontramos que todos los a son 0; por tanto, S es independiente.

r-

r-

r-

b)

Sea

vE

W. Entonces v = bv + b 1 T(v)

Empleando T'(v)

=

..

+ b 2 T 2 (v) + · · · + b1 _ 1 r

r-

- (v) 1

0 tenemos que T(v) = bT(v)

+ b 1 T 2 (v) + ·· · + b~- 2 r•- 1(v) e W

Asi W es T-invariante. c) Por hip6tesis, Tk(v) = 0. Por eso, para i = 0, ... , k- I, 'T*(T'(v)) = yt +i(v) = 0

Esto es, aplicando 7* a cada generador de W, obtenemos 0; por este motivo, 1* = 0, de manera que T es nilpotente de indice k a lo sumo. Por otra parte, 1* - 1 (v) = T' - 1 (v) :f. 0; de aqui que T sea nilpotente de indice k exactamente. 2 d) Para Ia base {T'- 1 (v), (v), ... , T(v), v} deW,

r-

T(T1 - 1(v}) = T 1(v) = 0 1{yt-l(v))

yt - l(v)

rt- 2 (v)

f(T1 - 3 (v))

··· ················ ······ ························ ········· T(T(v))

f(v)

T(v)

La matriz de Ten esta base es, pues, 0 1 0 0 0

0 0 0 0

0 0 0 0 1 0 0 0 ... 00

452 11.14.

ALGEBRA LINEAL

Sea T: V-+ V lineal. Sean U = Ker Ti y W = Ker Ti + 1 . Mostrar que: a) U £ W, b) T(W) £ U. a)

b)

11.15.

Supongamos u E u = Ker r. En tal caso, T(u) = 0, por lo que r+ 1 (u) = T(T'(u)) = T(O) = 0. De este modo, u E Ker T 1+ 1 = W. Pero esto es cierto para todo u E U, luego U s; W. De form a similar, si we W = -K er Ti+ 1, T 1+ 1 (w) = 0. Siendo asi, T 1+ 1 (w) = T 1(T(w)) = T 1(0) = 0, por lo que T(W) s; U. ·

SeaT : V-+ V lineal. Sean X = Ker Ti-l, Y = Ker ma 11.14, X£ Y£ Z. Sup6ngase que

{ut> ... , u,}

{u 1,

u., vh ... , v.}

••• ,

yi -t

y Z

= Ker Ti. Por el Proble-

{u 11 .•• , u., v1 ,

... ,

v. w1,

••. ,

w,}

son bases de X, Y y Z, respectivamente. Mostrar que S = {u 1,

... ,

u,, T(w 1), ••• , T(w,)}

esta contenido en Y y es linealmente independiente. Por el Problema 11.4, T(Z) s; Y y por tanto S s; Y. Supongamos ahora que S es linealmente dependiente. Existe entonces una relaci6n a1u 1 +

· · · + a,u, + b 1T(w 1 ) + · · · + b, T(w,) = 0

donde al menos uno de los coeficientes no es cero. Ademas, dado que {uJ es independiente, al menos uno de los bt debe ser no nulo. Trasponiendo hallamos b 1 T(w 1) Por consiguiente, Asi T 1- 1(blwl

+ · ·· + b, T(w,) = T

1

-

2

-a 1 u 1

(bl T(w1 )

+ ... + b,w,) = 0

-

· ··-

a,u, eX= Ker T 1- 1

+ · · · + b, T(w.)) = 0

luego

blwl

+ ... + b,w, E y

= Ker Ti-l

Puesto que {u1, vi} genera Y, obtenemos una relaci6n entre los u;, vi y wk en Ia que uno de los coeficientes, o sea, uno de los bk, no es cero. Esto contradice el hecho de que {u1, vi' wk} es independiente. Por ello, S debe ser tambien independiente.

11.16.

Demostrar el Teorema 11.10. Supongamos dim v = n. Sean WI = Ker T, w2 = Ker T 2 ' ... ' ~ = Ker T'. Tomemos m; =dim H-i para i = I, ... , k . Por ser Tde indice k, Wk = Vy Wk - t #- V, de modo que m k - t < mk = n. Por el Problema 11.14,

Asi, por inducci6n, podemos elegir una base {u1 , ••• , u.} de V tal que {u1 , ••• , umJ es una base dew;. Escogemos ahora una nueva base de V con respecto a Ia cual T tenga Ia forma deseada. Resulta ra conveniente designar los miembros de esta base mediante pares de indices. Comenzamos tomando v(l, k) = u.. _,+ 1 , v(2, k) = u.,._, +l•

... ,

v(mt- mt-t, k) = u,.

y

v(l, k- 1) = Tv(I, k), v(2, k- 1) = Tv(2, k), ... , v(mt- mt-t• k - 1) = Tv(mt- mt - t• k)

FORMAS CANONICAS

453

Por el Problema 11.15, S1

= {u 1 ,

••. ,

u... _,, t(l, k-

1~

... , t(m1

-

m1 _ 1 , k- l)}

es un subconjunto linealmente independiente de J¥,._ 1 • Extendemos S 1 a una base de ai'iadiendo nuevas elemeutos (si fuera necesario) que denotamos por t(m1

-

m1 _

1

+ l, k- 1), t(m1 -

'"•-•

+ 2, k-

1), ... , t(m1 -

m1 -

1 -

2,

Wk - t

k- 1)

A continuacion tomamos v( l, k-2) =Tv(1, k-1), v(2, k-2)=Tv(2, k - 1), ... , v(mt _ 1 - mt _ 2 , k -2)= Tv(mk_ 1 - mk_ 2 , k-1)

De nuevo por el Problema 11.15,

S2

{u 1,

=

... ,

u,.._,, t(l, k- 2), ... , t(m1 _ 1 -

m1 _ 2 , k- 2)}

es un subconjunto linealmente independiente de W,. _2 que podemos extender a una base de J¥,. _ 2 ai'iadiendo elementos t(m1 _ 1

-

m1 _

1

+ 1, k -

2), t(m1 _

1-

m1 _ 2

+ 2, k- 2), ... , t(m1 _ 2 -

m1 _ 3 , k- 2)

Continuando de esta manera conseguimos una nueva base de V que por conveniencia ordenamos como sigue: t(l, k),

... , t(m1

-

m1 _ 1 , k)

t(l, k- 1), . .. , t(m1

-

m1 _

t(1, 2), t(l, 1),

1,

k - 1), ... ,

t(m.~:- 1

-

'"•-z, k -

1)

... , t(m1 - m1 _ 1, 2),

... , t(m1 _ 1

-

m1 _ 2 , 2), ... , t(m2

-

m., 2)

... , t(m1

... , t(m1 _ 1

-

m1 _ 2 , 1), ... , t(m 2

-

'"~>

-

m1 _

1,

1),

1), ... , t(m 1 , 1)

La fila inferior forma una base de W1 , las dos inferiores forman una de W2 , etc. Pero lo que es realmente importante para nosotros es que T aplica cada vector en el situ ado inmediatamente bajo el en Ia tabla, o en 0 si el vector esta en la ultima fila. Esto es,

Tv(i, j) = {

v(i ,. - 1) '

0

paraj > 1 paraj = I

Ahora queda claro [vease el Problema 11.13 a)] que T tendra Ia forma deseada si los v(i, j) estan ordenados lexicograficamente: empezando por v(1, 1) y subiendo por Ia primera columna hasta v( l , k), sa1tando despues a v(2, I) y subiendo porIa segunda columna tanto como sea posible, etc. Mas aim, habra exactamente

(mk-t- m1 _ 2 ) - (m.- m1 -

1)

mk- mk- t 1 - mk- mk - 2

= 2m1 _

entradas diagonales de orden k entradas diagonales de orden k - 1 entradas diagonales de arden 2 entradas diagonales de orden I

como puede leerse directamente de Ia tabla. En particular, al estar los numeros m 1 , ... , ' " • univocamente determinados por T, el numero de entradas diagonales de cada o rden tambien lo esta. Finalmente, Ia identidad

'"• = (mt- '"t-1) + (2mt-t- mk- '"•-z) + ... + (2mz- mt- m3) + (2mt- mz) muestra que Ia nulidad m1 de T es el numero total de entradas diagonales de T.

454

ALGEBRA LINEAL

0 0 11.17. Sea A = 0 0 0 nilpotente de a A.

1

1 0 1

0 1 0 0 0 0 0 0 indice

0 0 0 3.

1 1 0 0 0 0 0 0 0 y A 3 = 0; luego A es . Entonces A 2 = 0 0 0 0 0 0 0 0 0 0 .0 0 Hallar Ia ·matriz nilpotente en forma can6nica M que es similar 1

Siendo A nilpotente de indice 3, M contendra un bloque diagonal de orden 3 y ninguno de orden mayor. N6tese que rango A = 2; por tanto, nulidad A = 5 - 2 = 3. Asi pues, M contiene tres bloques diagonales. En consecuencia, M debe contener un bloque diagonal de orden 3 y dos de orden I; esto es,

0 1 0 0 0 0

M=

o:o

0 l :0 0 o:o 0

------~--

o o Oao:o 0 0 0

11.18.

'-o~o

Demostrar el Teorema 11.11. De acuerdo con el teorema de descomposicion primaria, T es descomponible en operadores T1 , ••• , T,., es decir, T= T1 Ef> ... Ef> R,, donde (t- A.;)'"' es el polinomio minimo de 7;. De este modo, en particular,

(T1 -1 11)"'' = 0, ... , (1; -A., I),..= 0 Tomemos N 1 = 7;-

A.J.

Entonces, para i

=

1, ... , r, donde N'(''

=

0

A.J y un operador nilpotente N,, que es de indice m 1 porque (t - A.;)m' es el polinomio minimo de 7;. Ahora, segun el Teorema II. I0 referente a operadores nilpotentes, podemos escoger una base de manera que N 1 este en forma can6nica. En esta base, 7i = N 1 + 2J se representa por una matriz diagonal por bloques M 1 cuyas entradas diagonales son las matrices J 1,. La suma directa J de las matrices M 1 esta en forma can6nica de Jordan y, por el Teorema 11.5, es una representaci6n matricial de T. Por ultimo, debemos probar que los bloques JiJ satisfacen las propiedades requeridas. La propiedad i) deriva del hecho de que N 1 es de indice m1• La propiedad ii) es cierta, puesto que T y J tienen el mismo polinomio caracteristico. La propiedad iii) es cierta, ya que Ia nulidad de N 1 = 7i- J..J es igual a Ia multiplicidad geometrica del valor propio 21. La propiedad iv) se desprende del hecho de que los 7; y por ende los N 1 estan univocamente determinados por T.

0 sea, 7; es Ia suma del operador escalar

11.19.

Determinar todas las formas can6nicas de Jordan posibles para un operador lineal T: V- V cuyo polinomio caracteristico sea ~(t) = (t - 2) 3 (t - 5) 2 . Dado que r - 2 tiene exponente 3 en li(t), 2 debe aparecer tres veces en Ia diagonal principal. De forma similar. 5 debe aparecer dos veces. Siendo asi. las formas can6nicas de Jordan posibles son

FORMAS CANONICAS

2

2

I

I

2

1I I 2 1

21

1: 21

_ j _ -1

:2

__ .!I __ _ _

5 1

' 5

,__5 ,__ I

1

I

·iv)

I

- -~ -..,

I

5:

'--r,5

5

I

I

_ j - -1

L--i - -

"1- - I

t

2' :2

2: -- - - ... -, 2

1

iii)

2 1: I

2:

1 5

ii)

2 1 1 2 1: I 2t

11.20.

1

~-r -- - -

:5

i)

----- -

:- -2 -,-I

1_ - "'

- -----~---1 I I

455

v)

2

I

,__5::s

'- -~- -

1

iv)

Determinar todas las formas can6nicas de Jordan posibles para una matriz de orden 5 cuyo polinomio minimo sea m(t) = (t- 2)2 . 1 debe tener un bloque de Jordan de orden 2 y los otros deben ser de orden 2 6 1. De este modo, hay solamente dos posibilidades:

2 1:

2:

1=

----r--- ..., I

2 1

I

0

1=

N6tese que todas las entradas diagonales deben ser 2 porque 2 es el unico valor propio.

ESPACIO COCIENTE Y FORMA TRIANGULAR

11.21. Sea W un subespacio de un espacio vectorial V. Probar que son equivalentes: i) u e v + W, ii) U - VE W, iii) VEU + W. Supongamos u e v + W. Entonces existe w0 e W tal que u = v + w0 . P or tanto, u - v = w0 e W. Reciprocamente, supongamos u- ve W. En tal caso, u - v = w 0 , donde w0 e W. P o r tanto, u = v + w 0 E W. Asi pues, i) y ii) son equivalentes. Asimismo tenemos: u - VE w si y solo si - (11 - v) = v- UE w si y solo si V E u + w. De esta manera, ii) y iii) son tambien equivalentes.

11.22. Demostrar Ia siguiente afirmaci6n: Las variedades afines de W en V constituyen una partici6n de V en conjuntos mutuamente disjuntos. Esto es: Dos variedades afines cualesquiera u + W y v + W son identicas o disjuntas. ii) Cada v e V pertenece a una varied ad afin; de hecho, v e v + W. i)

Ademas, u w e W.

+W= v+

W si y s6Io si u- ve W, y asi (v

+ w) + W = v + W

para todo

456

ALGEBRA LINEAL

Sea ve V. Dado que Oe W, tenemos v = v + Oev + W, lo que demuestra ii). Supongamos ahora que las variedades afines u + W y v + W no son disjuntas; digamos que el vector x pertenece simultaneamente a u + W y v + W. En tal caso, u - x e W y x - v e W. La demostraci6n de i) quedara completa si probamos que u + W = v + W. Sea u + w0 un elemento arbitrario en Ia variedad afin u + W. Como u - x, x - v y w0 pertenecen a W, (u

+ w0 ) -

v

= (u -

x)

+ (x -

v)

+ w0

e W

De este modo, u + w0 e v + W y por consiguiente Ia variedad afin u + W esta contenida en Ia variedad alin v + W. Simiiarmente, v + W esta contenida en u + W y asi u + W = v + W. La ultima alirmaci6n se sigue del hecho de que u + w = v + w si y solo si u E v + w, y, de acuerdo con el Problema 11 .21, esto es equivalente a u - v e W.

11.23. Sea W el espacio soluci6n de Ia ecuaci6n homogenea 2x variedades afines de Wen R3 .

+ 3y + 4z = 0.

Describir las

W es un plano por el origen 0 = (0, 0, 0), y sus variedades alines son los pianos paralelos como se muestra en Ia Figura 11-3. Equivalentemente, las variedades alines de W_son los conjuntos soluci6n de Ia familia de ecuaciones 2x

+ 3y + 4z = k

keR

En particular, Ia variedad afin v + W, donde v =(a, b, c), es el conjun~o ..- -~ I .meaI 2x + 3y + 4z = 2a

+ 3b + 4c

o

2(x - a)

+ 3(y -

b)

~oluci6n de Ia ecuaci6n .: /

+ 4(z -

c) = 0

z Figura 11-3.

11.24.

Sup6ngase que W es un subespacio de un espacio vectorial V. Mostrar que las operaciones del Teorema 11.15 estan bien definidas; a saber, mostrar que si u + W = u' + W y v + W = v' + W, se cumple: a) a)

(u + v) + W = (u' + v' ) + W y b)

Dado que u + W = u' entonces (u + v)- (u'

ku + W = ku' + W para cualquier keK.

+ W y v + W = v' + W, tanto tt - u' como v - v' pertenecen a W. Pero + v') = (u- u') + (v - v')e W. Por tanto, (u + v) + W = (u' + v') + W.

FORMAS CANONICAS

b)

11.25.

Asimismo, como u - u' E W implica k(u- u') E W, ku- ku' ku + W = ku' + W.

=

457

k(u - u') E W; en consecuencia,

Sea V un espacio vectorial y W un subespacio de V. Probar que la aplicacion natural '1: V ..... Vf W, definida por 1'/(v) = v + W, es lineal. P ara todo par u, v E V y todo k e K tenemos l](u+ v)=u +v+ W = u + W+v+ W =l](u) +l](v) rJ(kv) = kv + W = k(v

y

+ W) =

k17(v)

En consecuencia, '1 es lineal.

11.26. Sea W un subespacio de un espacio vectorial V. Sup6ngase que {w1 , ... , w,} es una base deWy que el conjunto de variedades afines {i\ , .. . , ii,}, donde vi = vi + W, es una base del espacio cociente. Probar que B es una base de V, siendo B = {v 1 , ... , v,, w1 , . .. , w,}. De esta manera, dim V =dim W +dim (V/ W). Supongamos u E V. D ado que ~vi} es una base de VJW, ii

Por co nsiguiente, u = a 1 v1

=

u + W = a 1ii 1 + a 2 ii2

+ · · · + a,ii,

+ ... + a,o, + w, donde wE W. Dado que {w;} es u = a1 v1 + ··· + a,v,+ b 1 w 1 + ... + b,w,

una base de W,

De acuerdo con ello, B genera V. Mostremos ahora que B es Iinealmente independiente. Supongamos C1 V 1

+ ··· + C, V, + d 1 W 1 + .. · + d,w, =

0

[1]

En ese caso, Puesto que {vi} es independiente, todas las c son 0. Sustituyendo en [1] encontramos que d 1 w1 + ... + d,w, = 0. Como {w;} es independiente, todas las d son 0. Asi B es linealmente independiente y por tanto una ·base de V.

11.27.

Demostrar el Teorema 11.1 6. Probemos primero que Testa bien delinido, es decir, si u + W=v + W, entonoes T(u+ W)=T'(v+ W). Si 11 + W = v + W, necesariamente u - v e W y, siendo W T-invariante, T (u- v) = T(u)- T(v)E W. En consecuencia, T(u + W) = T(u)

+W

=

T(v)

+

W

=

f( v + W)

como se pedia. Probemos a continuaci6n que T es lineal. Tenemos f((u

+

W)

f(u + v + W) = T(u + v) + W = T(u) + T(v) + W = T(u) + W + T(v) + W = f(u + W) + f(v + W)

+ (v + W}) =

=

y

T(k(u

+

W)) = T(ku

De este modo, f es lineal.

+ W) = T(ku) + W = kT(u) + W = k(T(u) + W) = kf(u + W)

458

ALGEBRA LINEAL

Ahora, para toda variedad afin u Tl(u

+ W) = T 2(u) + W

+

Wen Vf W,

= T(T(u)) + W = T(T(u) + W) = T(T(u + W)) = T

2

(u

+

W)

De aqui T 2 = T 2 . Similarmente, 1" = 't" pa ra todo n. Asi para todo polinomio

+ · · · + a 0 =I a1t1 f(TY..u + W) =f(TY..u) + W = I a1 T 1(u) + W =I a~T'(u) + W) = = I a 1 yi{u + W) =I a1 f'(u + W) =
y por tanto f( T) = f(T). En consecuencia, si Tes una raiz de f (t), entonces f( T) = 0 = W = f(T) , o sea, T es ta mbien una raiz de f (t). Queda, pues, demostrado el teorema.

11.28. Demostrar el Teorema ll.l. Se demuestra por induccion en Ia dimension de V. Si dim V = I, toda representacion matricial de T es una matriz I x I , que es triangular. Supongamos ahora dim V = n > I y que el teorema se cumple para polinomios caracteristicos de dimension menor que n. D ado que el polinomio caracteristico de T se factoriza en polinomios lineales, T tiene al menos un valor pro pio y por t<mto a t menos un vector propio no nu lo v, digamos T(v) = a 11 v. Sea W el subespacio !-d imensional generado por v. Hacemos V = V f W. E ntonces (Problema 11 .26) dim li = dim V - dim W = n - I. N6tese ademas que W es invariante bajo T. En virtud del Teorema 11 .16, T induce un operador lineal 'ten V cuyo polinomio minimo es divisor del de T. Como el polinomio caracteristico de T es un producto de polinomio lineales, tambien lo es su polinomio minimo; luego de igual modo to seran los p olinomios caracteristico y minimo de T. Asi pues, V y 't satisfacen las hipotesis del teorema. Por inducci6n existe una base {vz, ... , v.} de tal que

v

T(v 2 )

=

a 12 ii2

T(ii 3) = a32 v2

+ a 33 ii3

Sean a hora v2 , ... , v. elementos de V que pertenecen a las variedades afines ii2 , • . . , v., respectivamente. En ese caso, {v, v2 , ... , v.} es una base de V (Problema 11.26). P uesto que f (ii2 ) = a22 ii2 , tenemos y por tanto

Pero W esta gene rado por v, por lo que T(v2 )

-

a22 v2 es un multiplo de v, digamos

y asi

De forma similar, para i = 3, ... , n,

y asi De este modo,

T(v) = a 11v T(v2 ) = a 2 1 v + a22 v2 T(v.) = a. 1v

+ a.2 v2 + · · · + a_v.

y por consigu ie nte Ia matriz de T en esta base es triangular.

FORMAS CANONICAS

459

SUBESPACIOS CICLICOS. FORMA CANONICA RACIONAL 11.29.

Demostrar el Teorema 11.12. i)

2

Por definicion de mv(t), T"(v) es el primer vector en Ia sucesion v, T(v), T (v), ... que es combinacion lineal de los vectores que le preceden; luego el conjunto B = {v, T (v), ... , r-•(v)} es linealmente independiente. Ahora solo tenemos que probar que Z(v, T) = L(B), Ia envoivente lineal de B . Por lo anterior, T"(v) E L (B). Demostramos, por induccion, que T"(v) E L (B) para todo n. Supongamos n > k y T" - 1 (v)e L(B), esto es, que T" - 1 (v) es combinacion lineal 1 (v). En ese caso, T"(v) = T(T'- 1 (v)) es combinacion lineal de T(v), ... , T"(v). de v, ... , Pero T"(v) e L(B), lucgo T"(v) E L (B) para todo n. En consecuencia, f( T )(v)e L(B) para todo polinomio f(r). Siendo asi, Z(v. T) = L(B) y por tanto B es una base como se pretendia.

r-

ii)

Supongamos que m(r) = t• + b,_ 1 f- 1 veZ(v, T) ,

+ ··· + b0

0 = m(T.,Xv) = m(TXv) = T'(v)

es el polinomio minimo de T •. D ado que

+ b,. 1 T'- 1(v) + · · · + b0 v

De este modo, T(v) es combinacion lineal de v, T (v), .. . , rs- 1 (v) y por consiguiente k ~ s. Sin embargo, m.(T) = 0 y asi m. (T.,) = 0. E ntonces m(t) es divisor de m.(r) y por esta razon s ~ k. De acuerdo con ello, k = s y por tanto m.,(t) = m(t). iii)

T{v)

T.,(v) T.,(T(v))

yt - l(v)

T.,(T• - 2(v)) = 1

T.,(r• - (v))

= 1"'(v) =

1

- a0 v- a 1 T(v) - a1 T (v)- ···- at - 1 yt - t(v)

Por definicion, Ia matriz de T.. en esta base es Ia traspuesta de Ia matriz de coeficientes del sistema de ecuaciones precedente, luego es C , como se pedia.

11.30.

Sea T: V - t V lineal. Sea W un subespacio T-invariante de V y T, el operador inducido en V/W. Demostrar: a) El T-aniquilador de vE V es divisor del polinomio minimo de T. b) El f-a niquilador de iie V/ W es divisor del polinomio minimo de T. a)

El T-aniquilador de ve Vesel polinomio minimo de Ia restriccion de T a Z(v, T ), y, por tanto, segun el Problema 11.6 es divisor del polinomio minimo de T.

b)

El f-aniq uilador de iie Vf W es divisor del polinomio minimo de del polinomio minima de T de acuerdo con el Teorema 11 . 16.

't que a su vez es divisor

Nota: En caso de que el polinomio minimo de T sea f(t)", dondef(t) es un polinomio minimo irreducible normalizado, el T-aniquilado r de ve V y el f-aniquiJador de iie VJW son de Ia forma f(t)'" con m ~ n.

11.31.

Demostrar el Lema 11.13. Se demuestra por inducci6n en Ia dimension de V. Si dim V = 1, el propio V es T-ciclico y el lema es v:ilido. Supongamos ahora que dim V > I y que el lema cs valido para aquellos espacios vectoriales de dimension menor que Ia de V. Dado que el polinomio minimo de T es f(t)", existe v1 E V tal que f(T)"- 1 (v 1 ) 'I 0; por este motivo, el T-aniquilador de v 1 es f(t)". Sea Z 1 = Z(v 1 , T) y recordemos q ue Z 1 es T-in variante. Sean V = V /Z 1 y 't el operador lineal en V inducido por T. En virtud del Teorema 11.6, el

460

ALGEBRA LINEAL

polinomio minima de T es divisor de f(t)", luego Ia hip6tesis se cumple para V y T. Consecuentemente, por inducci6n, V es Ia suma directa de subespacios 'f-ciclicos; por ejemplo,

V = Z(v 2 , f') E9 .. · E9 Z(ii, f) donde los correspondientes 'f-aniquiladores son f(t)"', ... , f(t)"' , n ;:::>: 11 2 ;:::>: .. • ;:::>: n,. Afirmamos que existe un vector v2 en Ia variedad .afin ii2 cuyo T-aniquilador es f(r)"', el T-aniquilador de v2 . Sea w cualquier vector en v2 . Entonces f(T)"'(w) E Z 1. Por consiguiente, existe un polinomio g(t) para el que [I)

f(T)" •(w) = g(T)(vd

Siendo f(t)" el polinomio minima de T tenemos por [I],

Pero f(t)" es el T-aniquilador de v1 , luego f(t)" es divisor de f(ty-"•g(t) y asi g(t) = f(t)"•h(t) para algun polinomio h(t). Hacemos v 2 = w - !J(T) (v 1 ) Como w- v2 = h(T) (vdeZ 1 , v2 tambien pertenece a Ia variedad alin ii2 • Asi el T-aniquilador de Vz es multiple del T-aniquilador de Vz. Por otra parte, por [1],

En consecuencia, el T-aniquilador de v2 es f(r)"', como se pretendia. De forma similar, existen vectores v3 , ... , v,E V tales que V;E v, y el T-aniquilador de vies f(t)"', el T-aniquilador de ii;. Hacemos

Z2

= Z(v1 ,

T), ... , Z,

= Z(v,,

T)

Denotemos por del grado def(t), de modo quef(t)"' tiene grado dn1• AI ser f(t)"' el T-aniquilador de VI y eJ T-aniquiJador de Vi SabemOS que y

son bases de Z(v,, D y Z(v, T), respectivamente, para i = 2, ... , r. Pero V = Z(v 2 , T)EB ··· EB Z(V,:, T); por consiguiente, - .. . , ""'"•-1(-V,, ... , fd• - 1(-V,)} I V2 ) {V2, t

••• ,

r

es una base de V. Por tanto, segun el Problema 11.26 y Ia re1aci6n Problema 11 .27),

i 1(v) =

T(v) (vease el

es una base de V. Por el Teorema 11.4, V = Z(v 1, T) ffi · .. ffi Z(v., T), como se pedia. Queda por pro bar que los exponentes n 1 , ... , n, estan univocamente determinados por T. Puesto que d denota el grado de f(r), dim V

=

d(n 1

+ · · · + n,)

y

i = 1, ... , r

Ademas, si s es cualquier entero positive, tendremos que (Problema 11.59) f(T)'(Z1) es un subespacio ciclico generado por f(T)'(v;) y tiene dimension d(n 1 - s) si ni > s y dimension 0 si n1 ~ s. Ahora todo vector v E v puede escribirse de forma unica como v = WI + ... + w,, donde W; E Z;. De aqui que cualquier vector en f(T)'(V) pueda expresarse de forma unica como

FORMAS CANONICAS

461

don de f(T)'(w;) ef{T)'(Z;). Sea t e l entero, dependiente de s, pa ra el cual

n 1 > s, ... , n, > s, n,+ 1 :2:. s f(T)'(V) = f(T)'(Z tl EB · · · EBJ(T)'(Z,)

En tal caso,

dim (f(n"(V))

y asi

= d[(n

1 -

s)

+ · · · + (n, -

s)]

Los numeros a Ia izquierda de (•) estan univocamente determinados por T. Toma mos s = n - 1 y (•) determina el numero de los n; iguales an. A continuacion tomamos s = n- 2 y (•) determina el numero de los n; (si hay alguno) iguales a n- I. Repetimos el proceso hasta que tomemos s = 0 y determinemos el numero de los n; iguales a I. Los n; estan, pues, univocamente determ inados por T y V y queda demostrado el lema.

11.32.

Sean V un espacio vectorial de dimension 7 sobre R y T: V-. V un operador lineal con polinomio minimo m(t) = (t 2 + 2)(t + 3) 3 . Encontrar todas las formas can6nicas racionales posibles para T. La suma de los grados de las matrices acompaiiantes debe dar 7. Ademas, una matriz acompafiante debe salir de t 2 + 2 y otra de (t + 3) 3 . De este modo, Ia forma can6nica raciona l de T es exactamente una de las siguientes sumas directas de matrices acompaiiantes: i)

C(t2 + 2) ED C(t2 + 2) ED C((t

ii) C(t2

iii) C(tl

+ 3)3) .

+ 2) ED C((t + 3)3) ED C((t + Wl. + 2) ED C((t + Wl ED C(t + 3) EB C(t + 3) .

Esto es,

0 - 2: 1 0 :

0 -2 :

o:

-- - --, ---------~

--- --~o---=-2~ I

'1

0 0 -27 I I 1 0 -27 I I I IL 0____1_ __ -9 __ J I _

I

I

I

0•

I

L----~- ------ ---

0

0

-27

: 1 : 0

0 1

- 27 - 9

1 I

ii)

i)

0 1

- 2: 0 :

-----, ---- - --- -~ I I

I

0

1

0

I I

- 27 -27 1 - 9

0

0

I I

I I I

'- --- -- -- --.1.1 ---,

-3_ ...I __ _ l __ ~

iii)

__ _ _

: 0 -9 : 1 -6

- 3

462

ALGEBRA LINEAL

PROYECCIONES 11.33.

Sup6ngase V = W1 EB ·· · EB W,.. La proyeccion de V en su subespacio J+k es la aplicaci6n E: V ~ V definida por E(v) = wk> donde v = w1 + ··· + w., wie W;. Mostrar que: a) E es lineal, b) E 2 =E. · a)

Puesto que !a suma v = w 1 + ··· + w., W;E W esta univocamente determinada por v, Ia aplicacion E esta bien definida. Supongamos, para uE V, u = w'1 + ··· + w~, w;e W;. En tal caso, 11 + u = (w 1

+ w'1) + ·· · + (w, + w~)

k11 = kw 1

y

+ · · · + kw,

son las {micas sumas correspondientes a 11 + u y a kv. De aqui E(11

+ u) = wk + w~ =

E(v) + E(u)

y

E(kv) = kwk

+ kE(v)

y por consiguiente E es lineal.

b)

Tenemos que

wk

= 0

+ ··· + 0 + wk + 0 + ··· + 0

es Ia tmica sum a correspondiente a wk E Wk, luego E( wk) = wk. Entonces, para todo v E V,

Siendo asi, E 2 = E, como se pedia.

11.34.

Sup6ngase que E: V ~ V es lineal y que E 2 =E. Probar que: a) E(u) = u para todo uelm E , es decir, la restricci6n deE a su imagen es la aplicaci6n identidad; b) Ves Ia suma directa de la imagen y el nucleo de E: esto es, V = Im E EB Ker E; c) E es Ia proyecci6n de V en Im E , su imagen. Asi, por el Problema 11.33, una aplicaci6n lineal T: V ~ V es una proyecci6n si y solo si T 2 = T; comparese con el Problema 9.45. a)

Si u E Im E , existe 11E V para el que E(v)

=

u, !uego

E(u) = E(£(11)) = £ 2 (11) = E(v)

=u

como se pedia. b)

Sea vE V. Podemos escribir v de la forma v = E(v) E(v - E(v))

+v-

E(v). Ahora E(v) e lm E y, como

= E(v) - £ 2 (11) = E(v) - E(11) = 0

11- E(v)eKer E. En consecuencia, V= Im E + Ker E. Supongamos ahora welm En Ker E. Pori), E(w) = w debido a que welm E. Por otra parte, E(w)=O porque weKerE. De este modo, w=O y por tanto lmEnKerE= {O}. Estas dos condiciones implican que V sea !a suma directa de Ia imagen y el nucleo de E. c)

Sea vE V y supongamos 11 = u + w con uelm E y w e Ker E. Notese que E(u) que E(w) = 0 porque weKer E. Por tanto, E(11) = E(u

+ w) =

E(u)

+ E(w) =

=

u, pori), y

u+0 = u

0 sea, E es Ia proyeccion de V en su imagen.

11.35.

Sup6ngase V = U EB W y que T: V ~ V es lineal. Pro bar que U y W son ambos T-invariantes si y solo si TE = ET, donde E es la proyecci6n de V en U. Observemos que E(v)EU para todo VEV y que: i) E(v) = v si y solo si vEU, ii) E(v) y solo si VE W.

=

0 si

FORMAS CANONICAS

Supongamos ET = TE. Sea ue U. Puesto que E(u)

463

= u,

T(u) = T(E(u)) = (TE)(u) = (ET)(u) = E(T(u))

E

U

De aqui U es T-invariante. Sea ahora we W. Dado que E(w) = 0, E(T(w))

=

(ET)(w)

= (TE)(w) =

T(E(w))

= T(O} =

0

de modo que

T(w)E W

Por consiguiente, W es tam bien T-invariante. Reciprocamente, supongamos que U y W son ambos T-invariantes. Sea vE V y supongamos v = u + w con u E U y we W. En esc caso, T(u) E U y T(w) E W, luego E(T(u)) = T(u) y E(T(w)) = 0. Asi (ET)(v) = (ET),u

+ w) =

(ET)(u)

(TE)(v) = (TE)(u

y

+ (ET)(w) =

+ w) =

T(E(u

E(T(u))

+ E(T(w)) =

T(u)

+ w)) = T(u)

Esto es, (ET)(v) = (TE)(v) para todo ve V ; por esta raz6n, ET= TE, como se pedia.

PROBLEMAS SU PLEM ENTARIOS

SUBESPACIOS INVARIANTES 11.36.

Sup6ngase que W es invariante bajo T: V ---+ V. Mostrar que W es invariante bajo f(T) para todo polinomio f(t) .

11.37.

Probar que todo subespacio es invariante bajo I y bajo 0, los operadores identidad y cero.

11.38.

Sup6ngase que W es invariante bajo T1 : V-+ V y T 2 : V-+ V. M ostrar que W es tam bien invariante bajo T1 + T2 y T1 T2 .

11.39. Sea T: V-+ V lineal y sea W el espacio propio perteneciente a un valor propio A. de T . Probar que W es T-invariante. 11.40. Sea V un espacio vectorial de dimension impar (mayor que I) sobre el cuerpo real R. Pro bar que todo operador lineal en V tiene un subespacio invariante distinto de V o {0}. l1.41.

Determinar los subespacios invariantes de A =

(2 -4) 5

- 2

vista como operador lineal en i) R 2 ,

11.42. Sup6ngase dim V = n. Mostrar que T: V---+ V tiene una representaci6n matricial triangular si y solo si existen subespacios T-invariantes W1 c W2 c ... c W, = Vpara los que dim Wk = k, k = 1, ... , n.

SUMAS DIRECTAS INVARIANTES 11.43. Se dice que los subespacios W1, ... , W. son independientes si w1 + ... + w, = 0, W;E w;, implica que cada W; = 0. Pro bar que lin (W;) = WI EB ... EB si y solo si los W; son independientes. [Aqui lin (W;) denota Ia envolvente linea de »-;.]

w.

.

464

ALGEBRA LINEAL

l 1.44.

Mostrar que V = W1 EB ··· ® W,. si y solo si: i) V =lin (W;), ii) W, n lin ( W1 , = {0}, k =I, ... , r.

11.45.

Mostrar que lin (W.) =

w1 Ef> ... EB w. si y solo si dim lin (W.) =dim

... ,

w,_1 ,

W, + 1,

WI + ... + dim

•.. ,

W,.) =

w,..

11.46. Supongase que el polinomio· caracteristico de T: V ..... V es t.(t) = f 1 (t)"· f 2 (t )"' ··· f,(t)"·, donde los J;(t) son polinomios irreducibles normali.zados distintos. Sea V = W 1 EB · · · EB W,. Ia descomposicion primaria de V en subespacios T-invariantes. Probar que };(t)"' es el polinomio caracteristico de Ia restricci6n de T a W;.

OPERADORES NILPOTENTES 11.47. Supongase que T 1 y T 2 son operadores nilpotentes que conmutan, es decir, T 1 T2 = que T1 + T2 y T1 T2 son tambien nilpotentes.

~ T1 .

Probar

11.48. Sup6ngase que A es una matriz supertriangular, o sea, que todas sus entradas en y bajo Ia diagonal principal son 0. Mostrar que A es nilpotente. · 11.49. Sea Vel espacio vectorial de los polinomios de grado ::;. n. Pro bar que el operador de derivaci6n en V es nilpotente de indice n + I. l 1.50.

Probar que las siguientes matrices nilpotentes de orden n son similares: 1 0 0 0 0

0

0

0 y

0 0 0 0 0 0

...

0 l 0 0

0

0 0

0

11.51. Probar que dos matrices nilpotentes de orden 3 son similares si y solo si tienen el mismo indice de nilpotencia. Mostrar con un ejemplo que Ia afirmaci6n no es cierta para ma trices nilpotentes de orden 4.

FORMA CANONICA DE JORDAN I 1.52. Hallar todas las form as can6nicas de Jordan posibles para aquellas matrices cuyos polino mios caracteristico t.(t) y minimo m(t) son:

W.

a)

t.(t) = (t- 2)4 (t - 3)2 , m(t) = (t - 2)2 (t-

b)

t.(t) = (t- 7)~. m(t) = (t -1)2 •

c)

t.(t) = (t - 2)7 , m(t) = (t - 2)3 .

d)

t.(t) = (t - 3)4 (t - 5)4 , m(t) = (t - 3)2 (t - 5)2 •

11.53.

Probar que toda matriz compleja es similar a su traspuesta. (Indicaci6n: Utilicense su forma can6nica de Jordan y el Pro blema 11 .50.)

11.54.

Mostrar que todas las matrices complejas n x n A para las que A" = I pero Ak #- I para k < n son similares.

FORMAS CANONICAS

11.55.

465

Supongase que A es una matriz compleja que tiene solo valores propios reales. Mostrar que A es similar a una matriz que tiene unicamente entradas reales.

SUBESPACIOS CICLICOS 11.56.

Supongase que T: V-+ Ves lineal. Demostrar que Z(v, T) es Ia interseccion de todos los subespacios T-invariantes que contienen v.

11.57.

Sean f(t) y g(t) los T-aniquiladores de u y v, respectivamente. M ostrar que si f(t) y g(t) son primos entre si, f(t)g(t) es el T-aniquilador de u + v

11.58.

Demostrar que Z(u , T) primos entre si.

11.59.

Sea W = Z(v, T) y supongase que el T-aniquilador de v es f(tY. donde f(t) es un polinomio irreducible normalizado de grado d. Probar que f(T)"(W) es un subespacio ciclico generado por f(T)'(v) y tiene dimension d(n - s) si n > s y 0 si n :=:; s.

= Z(v,

T) si y solo si g(T)(u)

= v,

donde g(t) y el T-aniquilador de u son

FORMA CANONICA RACIONAL 11.60.

Encontra r todas las formas can6nicas racionales posibles para:

+ 3)(t + 1)2 • (t + 1)3 • (t 2 + 2)2 (t + 3) 2 •

a)

matrices 6 x 6 con polinomio minimo m(t) = (t 2

b)

matrices 6 x 6 con polinomio minimo m(t) =

c)

matrices 8 x 8 con polinomio minimo m(t) =

11.61.

Sea A una matriz 4 x 4 con polinomio minima m(t) = (t 2 + l )(t2 - 3). H allar Ia form a canonica racional de A si A es una matriz sobre a) el cuerpo racional Q, b) el cuerpo real R, c) el cuerpo complejo C.

11.62.

Hallar Ia forma canonica racional para el bloque de Jordan

11.63.

Demostrar que el polinomio caracteristico de un operador T : V-+ V es un producto de sus divisores elementales.

11.64.

Demostrar que dos matrices 3 x 3 con los mismos polinomios minimo y caracteristico son similares.

11.65.

Denotemos por C(f(t)) Ia matriz acompaiiante de un polinomio arbitrario f(t). Mostrar que f(t) es el polinomio caracteristico de C(f(t)).

(~ ~ )· " 1o.to :ol

PROYECCIONES 11.66. Supongase V = W1 Et) ··• Et) W,. Denotemos por E1 Ia proyeccion de V en W;. Demostrar: i) E;E1 = 0, i "# j; ii) I = £ 1 + ··· + E,.

466

ALG EBRA LINEAL

11.67. Sean E1, •.. , E, operadores lineales en V tales que: i) Ef = E;, o sea, los Ei son proyecciones; ii) EiE1 = 0, i # j; iii) I = £ 1 + ... + E,. Pro bar que V = Im £ 1 EB ... EB Im E,. 11.68. Sup6ngase que E : V-+ V es una proyecci6n, esto es, E2 =E. Demostrar que E tiene una representa. , matncta . . I de 1a 10rma r cton

(I' 0

0) , donde r es el rango de E e I , !a matriz identidad r-cuadrada. 0

11.69. Demostrar que dos proyecciones cualesquiera del mismo rango son similares. (lndicaciim: Hagase uso del Problema 11 .68.) 11.70.

Sup6 ngase que E: V-+ V es una proyecci6n. D emostrar: i) I - E es una proyecci6n y V = Im E Efl Im (I - E), ii) I+ E es invertible (si I + 1 =F 0).

ESPACIOS COCIENTE 11.71.

Sea Wun subespacio de V. Sup6ngase que el conjunto de variedades afines {v1 + W, v2 + W, ... , v. + W} en Vj W es linealmente independiente. M ostrar que el conjunto de vectores {v1 , v2 , ... , v.} en V es tambiim linealmente independiente.

11.72. Sea W un subespacio de V. Sup6ngase que el conjunto de vectores {u 1, u 2 , ... , u.} en V es linealmente independiente y que lin (uj) n W = {0}. Probar que el conjunto de variedades afines {u 1 + W, ... , u. + W} en Vj W es tambien linealmente independiente. 11.73.

Sup6ngase V = U EB W y que {u 1 , ... , u.} es una base de U. M ostrar que {u 1 + W, ... , u. + W} es una base del espacio cociente V/ W. (O bservese que no se ha impuesto condici6n alguna a las dimensio nes de V y W)

11.74.

Sea W el espacio soluci6n de Ia ecuaci6n lineal

a 1x 1

+ a1 x 1 + · · · + a,.x. = 0

y sea v = (b 1 , b 2 , ... , b.) e K". Demostrar que Ia variedad afin v + W de Wen K" es el conjunto soluci6n de Ia ecuaci6n lineal donde 11.75.

Sean Vel espacio vectoria l de los polinomios sobre R y W el subespacio de los polinomios divisibles port\ esto es, de Ia forma a0 t 4 + a1 t 5 + ··· + a. _4 t". Probar que el espacio cociente V/ W es de dimension 4.

11.76.

Sean U y W subespacios de V tales que W £ U ~ V. N6tese que cualquier variedad afin u + W de W en U puede verse tam bien como variedad afin de W en V, puesto que u E U implica u E V. Demostrar que: i) U/ W es un subespacio de VjW, ii) dim (V/ W) - dim (U/ W) =dim Vf U).

11.77.

Sean U y W subespacios de V. Probar que las variedades alines de U n Wen V pueden obtenerse intersectando cada una de las variedades afines de U en V con cada una de las de Wen V: Vj(U n W) = {(u + U) n (v'

11.78.

+

W): v, v' €

V}

Sea T: V-. V' lineal con nucleo W e imagen U. Mostrar que el espacio cociente V/ W es isomorfo aU bajo Ia aplicaci6n 8 : V/ W-+ U definida por 8(v + W) = T(v). Probar ademas que T= i •8 • 1],

FORMA$ CANONICAS

467

donde '7 : V-+ V/ W es Ia aplicaci6 n natural de V en V/ W, es decir, rt(v} = v + W, e i: U-+ V' es Ia aplicaci6n de inclusio n, es decir, i(u} = u. (Vease Ia Figura 11-4.}

,r~

v;w -

u -i - v·

8

Figura 11-4.

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS 11.41. a}

11.51. a)

R2 y

{0},

C 2 , {0}, W1 = L((2, I - 2i}}, W2

b)

2 l :

2

2:

- - -- r-- - .., 2

I

l

2

I

1: 21I

- - --r - 1

2 --r -,

I

I

I

l 3

: 3

1 I

3

1

3

I

7 l : 7:

7 1:

7:

--- -r - --, I

I

t.f--:- - --

I

L.- - - -'----

b)

= L((2, I + 2i}}.

- --- ~--·

--7 -.--. 7

JI

7

I

I

I

L.I ___7 ,lI __

I

1

I

L - l.. -

'7 I c)

2 1

2

1

2

2

2 :

---- - --r -- -- - -. I 2 1 I I 2 J II 21 I

I

2: -- - - - - , -· - - - , 2

I I

1 2

I

~ - ..:-

I I I

-'--1

I

I

,- -- ---~-i

I

2 2

2

I

I

2 1

1:

2

2:

2 1

I

2:

- - - - - -

- -- - - - - r - -- -~

I

2 1

I

- ~- -

2

I

I

I

I

- - ~ - ,

2 1 12:

1,..----t--

,_ -,-12

I I

2I

L- - - - 1

2I

L _ !.. _ -

:2

468

ALGEBRA LINEAL

3

l : 3 :

3 1:

3:

-- --,-- - - ..,

- - --,-- --' 3 1 3

I I I I IL ___ .JI

I

3 1 3

-

-

I

__ _ _ 1

:5 1 I 1 5

-

I I

I

- -I - - - -

I

I

-- -- -1-- - -1

I

- -

5 1 5

I

-

I I

-- - , - -1

-a

....3 -3-· I

I

5 1

I

3

1

I

I I

_ _

I

- 3

0 1

I

-3 0

-3

0

0

-3

1

0

-1

0

- 2 0 1

- 1 -2

0

- 1 - 1

0 -1

0

0 -1 0 -3

0

1

1

0 -1 0 - 3

0

- 3

0

-3

1 0

0 0

0

1

0

0

0 - 1 0 - 3

0 - 1

- 1

- 2

- 3

- 1

- 1

-1

2

0

0

0

2

0 -4 1 0

1

0

0 0

0 0

0 - 4

0

0 0 0

0

.1 - 2

-1 -2

0 - 3 1 - 3 0

1

5

~ 5

0

0

I

I

·- - t- -

0

c)

I

1- - - - -.- - ,

:5 1 5

0 1 0

5 1 5

I

1

51 ~ -- - .J __

0

I

- -+-, 3 I L- • - - - - ,

I

I

b)

5

3 1 I

L - ~ - - - -,

0

- I- - I I I

:5

3 1

I

11.60. a)

- -

~ - ~-

3 1:

3: - - - I-

,

5 1 I .I : 5 I I

I I

-2

1

0

0

0 0

- 9 - 6

- 9 -6 0

- 9 - 6

FORMAS CANON ICAS

0

0

0

2

1 0 0

0

0 0

0

-4 0

0

0 1

-9 -6

-3 -3

_J

11.61.

0

0

0 1

0

0

1

0

X')

4A? -6A? 4..1.

<)

(

_,

fi

)

-./3

.;59

CAPITULO

12

Funcionales lineales y espacio dual

12.1.

INTRODUCCION

En este capitulo estudiaremos las aplicaciones lineales de un espacio vectorial V en su cuerpo de escalares K. (A menos que se establezca o sobrentienda lo contrario, veremos K como un espacio vectorial sobre si rnismo.) Naturalmente, todos los teoremas y resultados para aplicaciones lineales arbitrarias en V rigen en este caso especial. No obstante, trataremos estas aplicaciones por separado debido a su importancia fundamental y a que Ia particular relaci6n entre V y K da Iugar a nuevas nociones y resultados, no aplicables en el caso general.

12.2. FUNCIONALES LINEALES Y ESPACIO DUAL Sea V un espacio vectorial sobre un cuerpo K. Una aplicaci6n
+ bv) =

a
+ bt/J(v)

En otras palabras, un funcional lineal en V es una aplicaci6n lineal de V en K. EJEMPlO 12.1 a)

Sea n 1 : K"-+ K Ia proyeccion i-esima, es decir, n:1 (a 1 , a 2 , es un funcional lineal en K".

b)

Sean V el espacio vectorial de los polinomios en t sobre R y J : V ..... R el operador de integracion definido por J (p(t)) = fJp(t)dt. Recordemos que J es lineal; por consiguiente, es un funcional lineal en V.

470

••. ,a.)=

a1• Entonces n 1 es lineal y por tanto

471

FUNCIONALES LINEALES Y ESPACIO DUAL c)

Sean V el espacio vectorial de las matrices n-cuadradas sobre K y T: V-> K Ia aplicaci6n traza T(A) = a11

+ a 22 + · · · + a.,.

donde A = (aiJ)

Esto es, T asigna a cada matriz A Ia suma de sus elementos diagonales. Esta aplicaci6n es lineal (Problema 12.24), de modo que define un funcional lineal en V.

En virtud del Teorema 9.10, el conjunto de los funcionales lineales en un espacio vectorial V sobre un cuerpo K es asimismo un espacio vectorial sobre K con suma y producto por un escalar definidos segun

(t/J + a)(v) = t/J(v) + a(v)

y

(kt/J)(v) = ktjJ(v)

donde ¢ y a son funcionales lineales en V y k E K. Este espacio se llama el espacio dual de V y se denota por V*. EJEMPLO 12.2. Sea V= K" el espacio vectorial de n-plas que escribimos como vectores columna. El espacio dual V* puede identificarse con el espacio de vectores fila. En concreto, cualquier funcional lineal cf> de V * tiene Ia representaci6n

~x,,

... , xJ -(a,, a,, ... ,

~::)

o simplemente

Hist6ricamente Ia ex presion anterior recibia el nombre de forma lineal.

12.3.

BASE DUAL

Supongamos que V es un espacio vectorial de dimension n sobre K. De acuerdo con el ~eo~ema 9.11, Ia dimension del espacio dual V* es tam bien n (ya que K es dimension 1 sobre s1 m1smo). De hecho, cada base de V determina una de V* como sigue (vease ]a demostracion en el Problema 12.3): Teorema 12.1: Supongamos que {v1 , ... , v"} es una base de V sobre K. Sean ¢ 1 , ·los funcionales lineales definidos mediante

En tal caso, {¢1 ,

... ,

tPn} es una base de V*.

•.• ,

tPnE V*

472

ALGEBRA LINEAL

La base {¢;} precedente se denomina Ia base dual a {v;} o Ia base dual. La formula anterior, que utiliza Ia delta de Kronecker b;j, es una forma abreviada de escribir ¢,(v 1) = 1, ¢ 1(v 2) = 0, ¢ 1(v3) = 0, ... , ¢ 1(v.) = 0 2(v1) = 0, ¢ 2(v 2) = 1, ¢ 2(v 3) = 0, ... , ¢ 2(vJ = 0

.......................................................... Por el Teorema 9.2, estas aplicaciones lineales ¢i son {micas y estitn bien definidas. EJEMPLO 12.3. Consideremos Ia base de R 2 : {v 1 = (2, 1), v2 = (3, I)}. Hallemos Ia base dual {¢ 1 , ¢ 2 }. Buscamos funcionales lineales ¢ 1 (x, y) =ax+ by y ¢ 2 (x, y) =ex+ dy tales que

Asi

¢ 1(v 1) = ¢ 1(2, I)= 2a + b = l} ¢ 1(vl) = ¢ 1(3, l) = 3a + b = 0 2c + d = 0} = ¢l(3, 1) = 3c + d = 1

1/>ivt) = ¢ 2(2, l) = ¢,{v2)

0

a= -1, b = 3

0

c = l, d = -2

Por tanto, Ia base dua l es {¢ 1 (x, y) = -x + 3y, ¢ 2 (x, y) = x - 2y}.

Los pr6ximos teoremas proporcionan relaciones entre las bases y sus duales. Teorema 12.2: vector

Sean {v1 ,

... ,

v.} una base de V y {¢ 1 ,

... ,

¢.} Ia base dual de V*. Para todo (12.1]

y para todo funcionaJ JineaJ

CT E

V*,

u = o(v 1)¢ 1 + u(v2)¢2 + · · · + u(v.J
[12.2]

Teorema 12.3: Sean {v 1 , ... , v.} y {w 1 , ... , w.} bases de V y { 1 , .. . , ¢.} y {a 1 , ... , a.} las bases de V* duales a {v;} y {w;}, respectivamente. Supongamos que Pes Ia matriz de cambio de base de {v;} a {wJ Entonces (P- 1 )r es la matriz de cambio de base de{¢;} a {uJ

12.4.

ESPACIO SEGUNDO DUAL

Repetimos que todo espacio vectorial V tiene un espacio dual V* constituido po r los funcionales lineales en V. Asi pues, V* tiene a su vez un espacio dual V**, llamado el segundo dual de V , que consiste en todos los funcionales lineales en V*. Mostramos ahora que cada VE V determina un elemento especifico iiE V**. En primer Iugar, para todo


= (v)

FUNCIONALES LINEA LES Y ESPACIO DUAL

4 73

Queda pro bar que Ia aplicacion v: V* ...... K es lineal. Para todo par de escalares a, be K y todo par de funcionales lineales cf>, rr e V* tenemos V(acf> + ba)

= (acf> + ba)(v) =:= acf>(v) + ba(v) = aV(cf>) + bV(a)

0 sea, i3 es lineal y por tanto VE V**. Es valido el teorema que ahora enunciamos, demostrado en el Problema 12.7. Teorema 12.4: Si V tiene dimension fmita, Ia aplicacion

v ~--+

ves un isomorfismo de V sobre V**.

La aplicacion v~--+v precedente se conoce como Ia aplicacion natural de V en V**. Hacemos enfasis en que esta aplicacion nunca es suprayectiva si V no es de dimension finita. No obstante, siempre es lineal y, mas aun, siempre es inyectiva. Supongamos ahora que V tiene dimension finita. Segun el Teorema 12.4, Ia aplicaci6n natural determina un isomorfismo entre V y V**. A menos que se especifique lo contrado, identificaremos V con V** mediante esta aplicaci6n. En consecuencia, veremos V como el espacio de funcionales lineales en V* y escribiremos V** = V. Hacemos notar que si {c/>;} es Ia base de V* dual a Ia base {v;} de V, {v;} es Ia base de V = V** que es dual a {cf>J

12.5. ANIQUILADORES Sea Wun subconjunto (no necesariamente un subespacio) de un espacio vectorial V Un funcional lineal cf>e V* se llama un aniquilador de Wsi cf>(w) = 0 para todo we W, es decir, si cf>(W) = {0}. Probemos que el conjunto de todas las aplicaciones tales, denotado por WO y denominado el aniquilador de W, es un subespacio de V*. Claramente, Oe W 0 . Supongamos ahora cf>, rre WO. En ese caso, para todo par de escalares a, be K y todo we W, (acf> + ba)(w) = acf>(w) + bo{w) = aO + bO = 0

De este modo, acf> + ba e WO y W 0 es un subespacio de V*. En caso de ser W un subespacio de V, disponemos de Ia siguiente relaci6n entre W y su aniquilador W 0 . (Vease Ia demostraci6n en el Problema 12.11.) Teorema 12.5: Supongamos que V tiene dimension finita y que W es un subespacio de V. Entonces: i) dim W+ dim W 0 =dim V

y

ii)

J-0> 0 = W

Aqui W 00 = {ve V; cf>(v) = 0 para todo cf>e J-0>} o, equivalentemente, W0° = (W0 ) 0 , donde W se ve como subespacio de V bajo la identificaci6n de V y V**. El concepto de aniquilador nos permite dar otra interpretacion a un sistema homogeneo de ecuaciones lineales 00

+ a 12 x 2 + ·· · + a 1 .x. = 0 a 21x 1 + a22 x 2 + ·· · + a 2 .x. = 0 ························ ··············· a11 x 1

474

ALGEBRA LINEAL

Aqui cada fila (a; 1 , a;2 , ... , a;n) de Ia matriz de coeficientes A = (aii) se ve como un elemento de K", y cada vector soluci6n rjJ = (x 1 , x 2 , .•• , x.) como un elemento del espacio dual. En este contexto, el espacio soluci6n S de (*) es el aniquilador de las filas de A y por tanto del espacio lila de A. En consecuencia, hacienda uso del Teorema 12.5, obtenemos otra vez el resultado fundamental que enseguida escribimos sobre la dimension del espacio soluci6n de un sistema homogeneo de ecuaciones lineales: dim S =dim K" - dim (espacio fila de A)= n- rango A

12.6. TRASPUESTA DE UNA APLICACION LINEAL Sea T: V ~ U una aplicaci6n lineal arbitraria de un espacio vectorial V en otro U. Para todo funcional lineal ¢ E U* , Ia composici6n ¢ o T es una aplicaci6n lineal de V en K:

v

u

T

.;

K

~ Esto es, 4> o T

E

V*. Siendo asi, Ia correspond en cia

es una aplicaci6n de U* en V*; Ia denotaremos por T y la llamaremos la traspuesta de T. Dicho de otro modo, T: U* ~ V* se define segun Tr(¢) = ¢

Asi (T(¢))(v) = ¢(T(v)) para todo

vE

o

T

V.

r

Teorema 12.6:

La aplicaci6n traspuesta

Demostracion.

Para todo par de escalares a, bE K y todo par de funcionales lineales ¢, T'(a¢

0 sea,

r

+ ba) =(a¢ + ba) o

T

anteriormente definida es lineal.

= a{¢

o

T)

+ b(a o

T) =aT'(¢)

CJ E

U* ,

+ bTt(a)

es lineal como se pretendia.

Subrayamos que si T es una aplicaci6n lineal de V en U, en V*: T

es una aplicaci6n lineal de U*

T' v•.__-u•

v----u El nombre «traspuesta» dado a Ia aplicaci6n trado en el Problema 12.16.

r

r

deriva sin duda del siguiente teorema, demos-

, Teorema 12.7: Sea T: V--+ U lineal y sea A Ia representaci6n matricial de T relativa a las bases {v;} de V y {u;} de U. La matriz traspuesta Ar es la representaci6n matricial de T: U*-+ V* respecto a las bases duales a {u;} y {vJ .

475

FUNCIONALES LINEALES Y ESPACIO DUAL

PROBLEMAS RESUELTOS

ESPACIOS DUALES Y BASES 12.1.

Considerese Ia base de R 3 : {v1 =(I , - 1, 3), v2 = (0, 1, -1), v3 base dual {¢ 1, ¢ 2 , ¢ 3 }.

= (0, 3,

-2)}. Hallar la

Buscamos funcionales lineales

tales que

l/! 1(v 1)

4>t(Vz) = 0 l/!1(v 1) = 1 l/!3 (v2 ) = 0

= 1

I/Jiv1) = 0

I/J3 (v 1) Hallamos

1/! 1

= 0

tPt(vJ) = 0 l/!2(v3 ) = 0 l/! 3(v3) = 1

como sigue:

I/J 1 (v1 ) = 1/! 1(1, -1, 3) = a 1 - a 2 4>t(V1) = 1/! 1 (0, 1, -1) = a1 I/J1 (v3) = 1/! 1(0, 3, - 2) = 3a2 Resolviendo el sistema de ecuaciones obtenemos a 1 A continuaci6 n hallamos 1/!2 :

1/Jz(vt) = 1/Jz(l, -1, 3) = b1 - b1 b1 3b2 =

7, b2

=

a3 = 0 2a3 = 0

-

= 1, a2 = 0, a 3 = 0. De este modo, 1/! 1 (x, y, z) = x.

l/!2(vl) = 1/! 2(0, 1, - 1) = l/!2(v3) = 1/!2(0, 3, - 2) = Resolviendo el sistema obtenemos b 1 Finalmente h allamos 1/! 3 :

+ 3a3 = 1

- 2, b3

=

+ 3b3 = 0 -

b3 2b 3

= =

l 0

- 3. Por tanto,

l/! 2 (x,

y, z)

= 7x -

2y- 3z.

l/! 3(v 1) = 1/!3(1, -1, 3) = C 1 - c1 + 3c3 = 0 l/!3(v2 ) = 1/!3(0, 1, -1) = c 1 - c3 = 0 l/!3(v3) = 1/!3(0, 3, -2) = 3c2 - 2c3 = 1 Resolviendo el sistema obtenemos c 1 = - 2, c 2 = l, c 3 = 1. Asi

12.2.

l/! 3 (x,

y, z ) = -2x

+ Y + z.

Sea Vel espacio vectorial de los polinomios sobre R de grado ~ 1, es decir,

V= {a+ bt:a, bER} D efinanse 4> 1 : V--. R y ¢ 2 : V

~

R segun y

(Hacemos notar que 4> 1 y ¢ 2 son lineales, por lo que pertenecen a! espacio dual V*.) Encontra r Ia base {v 1 , v2 } de V que es dual a {¢ 1 , ¢ 2 } .

476

ALGEBRA LINEAL

Sean v1 = a + bt y v2 = c + dt. Poe definicion de Ia base dual, y

Asi t(vl) = ¢z(v 1)

=

1(v 2) =

cfJz(v:J =

r:(a +

l

a+ !b =

(a+ bt) dt = 2a + 2b

f(c

r(c

1} 0

a= 2, b = -2

0

c = -1/2, d = 1

=0

+ dt) dt = c + !d = + dt) dt = 2c + 2d =

0} 1

t + t} es la base de V que es dual a {¢ 1 ,

En ot ras palabras, {2- 2t, -

12.3.

bt) dt =

¢ 2 }.

Demostrar el Teorema 12.1. Empezamos probando que {¢ 1 , supongamos

Tomemos CJ = k 1 ¢ 1 +

... + k.cfJ•.

... ,

¢.} genera V*. Sea cfJ un elemento arbitrario de V* y

Entonces

· · · + k. cfJ,:Xv 1) = k 1¢ 1{v1) + k 2 cfJ2(v1) + · · · + k. cfJ.(v 1) = k,. 1 + kl. 0 + ... + k •• 0 = kl

a{v 1) = {k 1¢ 1 + =

De forma similar, para i = 2, ... , n,

De este modo, cfJ(v;) = CJ(vi) para i = I, ... , n. Dado que 4> y CJ coinciden sobre los vectores de Ia base, cfJ = u = k 1 ¢ 1 + ... + k.¢•. De acuerdo con ello, {¢ 1 , ... , ¢.} genera V*. Falla probar que {¢ 1 , ... , ¢.} es linealmente independiente. Supongamos

Aplicando ambos miembros a u1 ,

= a 1 • 1 + a2



0 +···+a,.· 0

=a1

Similarmente, para i = 2, ... , n,

Esto es, a 1 = 0, ... , a.= 0. Por tanto, {¢ 1 , una base de V*.

... ,

¢.} es linealmente independiente, de modo que es

FUNCIONALES LINEALES Y ESPACIO DUAL

12.4.

477

Demostrar el Teorema 12.2. Supongamos

f1] En tal caso,

De forma similar, para i = 2, .. . , n,

Esto es, (J>t(u) = a 1, ¢ 2 (u) = a 2 , •.• , ¢.(u) = a•. Sustituyendo estos resultados en [I] llegamos a (1 2. 1]. A continuaci6n demostrarnos [1 2.2]. Aplicando el funcional lineal a a ambos miembros de [12.1], a(u)

= rfl 1(u)a(v 1) + r/1 2 (u)a(v 2) + · · · + rfl.(u)a(v,.) = + a(v2)r/1 2(u) + · ·· + a(v,.)rfl.(u) = = (a(v1 )r/1 1 + a(v2 )r/1 2 + · · · + a(v.>rP.Xu)

= a(v 1)r/1 1(u)

Puesto que lo anterior se cumple para todo u eV, a = a(v 1 )¢ 1 pretendia.

12.5.

+ u(v2 )r/> 2 + ··· + a(v.)rf>, como se

Demostrar el Teorema 12.3. Supongamos w 1 = a 11 v1 w2 = a 21 v 1

+ a 12 v2 + ··· + a~ov. + a22 v2 + ·· · + a 2 .v.

w. = ao1v 1

+ a.2 v2 + · · · + a .. v.

+ bur/12 + ··· + b~orfl.

ul

= burflt

u2

= b21rPt + bur/12 + ·· · + b2.rP.

donde P = (ail) y Q = (bu}- Intentamos demostrar que Q = (P - 1 )r. Denotemos por R 1 Ia fila i-esima de Q y por C1 Ia columna j-esirna de pr_ Entonces y

Por definicion de Ia base dual,

aJ..w1) = (b11 r/1 1 + b12 r/1 2

= b11 a11

+ · · · + b,. rfl.Xa11 v1 + a12 v2 + ·· · + a1• v,.) = + b12 a12 + · · · + b1.a1• = R 1C1 = h11

donde bil es Ia delta de Kronecker. Asi pues,

478 12.6.

ALGEBRA LINEAL

Sup6ngase que V tiene dimension lin ita. Mostrar que si v E V, v # 0, existe

K tal que 4J(v) = I y 4J(v;) = 0, i = 2, ... , n. Por consiguiente, 4J tiene Ia propiedad deseada.

12.7.

Demostrar el Teorema 12.4. Demostramos prirnero que Ia aplicacion v 1---> iJ es lineal, esto es, que para todo par de vectores v, we V y todo par de escalares a, beK, av + bw. Para todo funcionallineal 4Je V*,

av+bw=

~t/1) = ¢(av + bw) = a,P(v) + b¢(w) = aV(,P) + bW(¢) = (av + bw'l,¢)

-----

------

Como av + bw(4J) = (av + bw)(4J) para todo 4Je V*, tenemos av + bw = av + bV:'. De esta manera, Ia aplicaci6n v 1-> v es lineal. Supongamos ahora ve V, v #- 0. Entonces, por el Problema 12.6, existe 4Je V* para el cual ¢(v) #- 0. De aqui 6(¢) = ,P(v) #- 0, luego v #- 0. Como v #- 0 implica v #- 0, Ia aplicaci6n v~---+6 es no singular, luego es un isomorlismo (Teorema 9.9). Ahora dim V =dim V* =dim V** porque V tiene dimension finita. En consecuencia, Ia aplicaci6n v ~---> v es un isomorfismo de V sobre V**.

ANIQUlLADORES

12.8.

Pro bar que si ¢ E V* aniquila un subconjunto S de V,


,P(v) = a 1 ¢(w 1 )

... ,

w,eS para los cuales v=a 1 w1 + a2 w 2 + ... +a,w,.

+ a 2 ¢(w2) + · · · + a,¢(w,) =

a 1 0 + a2 0

+ · · · + a,O =

0

Siendo v un elemento arbitrario de lin (S), ¢ aniquila lin (S), como se pretendia demostrar.

12.9.

Sea W el subespacio de R4 generado por v 1 = (1, 2, -3, 4) y v 2 = (0, 1, 4, -1). Encontrar una base del aniquilador de W De acuerdo con el Problema 12.8, es suficiente hallar una base del conjunto de funcionales lineales de Ia forma ¢(x, y, z, w) =ax+ by+ cz + dw para los que ¢(vJ = 0 y ,P(v1 ) = 0:

¢(1, 2, -3, 4) =a ¢(0, I, 4, -1) =

+ 2b - 3c + 4d = 0 b + 4c - d = 0

El sistema de ecuaciones con incognitas a, b, c, d esta en forma escalonada con variables libres c yd. Tomamos c = I, d = 0 para obtener Ia soluci6n a= II, b = -4, c = 1, d = 0 y por tanto el funcionallineal ¢ 1(x, y, z, w) = llx -:- 4y + z. Tomamos c = 0, d = -1 para obtener Ia soluci6n a= 6, b = -I, c = 0, d = -I y por ende el funcional lineal ¢ 2 (x, y, z, w) = 6x- y - w. El conjunto de funcionales lineales {¢ 1 , ,P 2 } es una base de W 0 , el aniquilador de W

12.10.

Probar que: a) para todo subconjunto S de V, S s;: S 00 ; b) si S 1 s;: S2 , entonces S~ s;: S?.

FUN CIONALES LINEALES Y ESPACIO D UAL

12.11.

479

a)

Sea veS. Pa ra todo funcio nal lineal ¢eS0 , v(¢) = ¢(v) = 0. De aqui ve(S0 ) 0 . Por tanto, bajo Ia identificacion de V y vu , veS00 . En consecuencia, S £; S00 .

b)

Sea ¢e S~. Ento nces ¢(v) = 0 para todo veS 2 . Pero S1 de S 1 , o sea, ¢eS 1 • P or consiguiente, S~ £; S?.

£;

S2 , luego ¢ aniquila todo elemento

Demostra r el Teorema 12.5. i)

Supongamos dim V = n y dim W = r :::;; n. Queremos pro bar que dim W 0 = n - r. Escogemos una base {w 1, ... , w,} deWy Ia extendemos a Ia siguiente base de V: {w 1 , ... , w,, v1 , ... , v._,}. Consideremos Ia base dual

Por defi nicion de Ia base dual, cada una de las a precedentes aniquila cada w;, luego 0 ... , a. _,e WO. Afirmamos q ue {a1} es una base de W . AI ser {a 1} parte de una base de V*, es linealmente independiente Pro bamos a conti nuacio n que {a1} genera WO. Sea ae W 0 • Segun el Teorema 12.2,

a 1,

+ ... + a(w,)¢ , + a(v.)al + ... + a(v.- ,)a._, = · · · + Ocf>, + a(v1)o 1 + · · · + a(v,. _,)a,._, ~ .. · . a(vl)a • + ... + a(v. - ,)a. _,

a= a(w•)
=

En consecuencia, {a 1 , ello, como sc pedia,

{}4J 1 +

... ,

f>4"

a. _,} genera WO y por tanto es una base de W0 • D e acuerdo con dim W 0

ii)

12.12.

=n-

r

= dim V -

dim W .

Supongamos dim V = n y dim W = r . En tal caso, dim v• = 11 y por i) dim WO = 11 - r. Asi, po r i), dim W 00 = 11 - (n - r ) = r; por consiguiente. dim W = dim W 00• Segun el Problema 12.10, W £; W00 . En consecuencia, W= W 0 0 .

Sean U y W subespacios de V. Demostrar: (U

+ W)0

= U0

n W0 .

Sea ¢ e (U + W) 0 . Entonces ¢ a niquila U + W: po r lo que, en particular, aniquila U y W. Esto es, cpe U 0 y cp e WO , luego cfJe U 0 n WO. Siendo asi, (U + W)0 £; U 0 f"'' WO. Po r otra parte, supongamos a e U 0 f"'' WO. En ese caso, a an iquila U y tam bien W. Si ve U + W: v = u + w con ue U y we W. Po r tanto, a(v) = a(u) + a(w) = 0 + 0 = 0. De este modo, a aniquila U + W, es decir, a e(U + W) 0 . En consecuencia, U 0 + W0 £; (U + W)0 . Ambas relaciones de inclusion nos conducen a Ia igualdad deseada. Nota: Observese que no se ha empleado ningun argumento de dimension en Ia demostracion, luego el resultado es valido para espacios de dimension fi nita o infinita.

TRASPUESTA DE UNA APLICAOON LINEAL 12.13.

Sea 4> el fu ncional lineal en R 2 definido por c/J(x, y ) = x- 2y. Para cada uno de los siguientes operad ores lineales Ten R \ haUar (T' (c/>))(x, y):

a)

T(x, y) = (x, 0),

b)

T(x, y) = (y, x

+ y),

Por definicio n de Ia aplicacio n traspuesta, T'(cfJ) todo vector v. De donde: a)

(T'(¢))(x, y) = cfJ(T(x, y)) = ¢ (x, 0) = x .

=

c)

T(x, y) = (2x - 3y, 5x + 2y).

cfJ·T, esto es, (T '(cfJ))(v) = cfJ(T(v)) para

480

ALGEBRA LINEAL

b) (T'(¢)Xx, y) = q,(T(x, y)) = ,P(y, x + y) = y - 2(x + y) = - 2x - y. c) (T'(¢)Xx, y) = q,(T(x, y)) = q,(2x- 3y, 5x + 2y) = (2x- 3y)- 2(5x + 2y) = - 8x- 1y.

12.14.

Sea T : V-+ U lineal ysea r: U* -+ V* su traspuesta. Mostrar que el nucleo de aniquilador de Ia imagen de T , o sea, Ker r = (lm T)0 . Supongamos tj>eKer T'; esto es, T'(¢) = ¢•T = 0. Si uEim T, necesariamente algun ve V, luego q,(u)

tl

r

es el

= T(v) para

= tj>(T(v)) = (4> o TXv) = O(v) = 0

Tenemos que ¢(u) = 0 para todo uEim T, luego ¢E(Im T)0 • Asi pues, Ker T' s; (lm T)0 Por otra parte, supongamos uE(Im T)0 ; es decir, a (Im T) = {0}. Entonces, para todo vE V, {T'(a)Xv) =(a

TXv) = a(T(v)) = 0 = O(v)

o

Tenemos que (T'(a))(v) = O(v) para todo vE V, de modo que T'(a) = 0. Por tanto, cr e Ker T', de modo que (lm T)0 s; Ker T'. Ambas relaciones de inclusion nos proporcionan Ia igualdad requerida.

12.15.

Sup6ngase que V y U tienen dimension fin ita y que T : V-+ U es lineal. Demostrar: rango T = rango T 1 • Supongamos dim V = n y dim U = m. Supongamos, asimismo, que rango T = r. Segun el Teorema 12.5, dim (Im T) 0 = dim U - dim (lm T) Por el Problema 12.14, Ker T' entonces que, como se pretendia,

=

0

(Im T)

.

=

m - rango T = m - r

Por consiguiente, nulidad T' = m - r. Se deduce

rango T' =dim U*- nulidad T' = m- (m - r)

12.16.

=

r = rango T

Demostrar el Teorema 12.7. Supongamos T(v 1) = a 11 u 1 + a 12 u 2 + · · · + a 1 ~u• T(v1 ) = a 21 u1 + a22 u 2 + ·· · + a 1 ~u"

[l 1

Queremos demostrar que T'(a tl =au ¢, + all tl>z + . .. +a..,, 4>,.

T'(al) =all t/>1 + azz ¢z + · · · + a.,z ¢,.. T'(a .) = a 1 • ¢ 1 + ala 1/11 + · · · + a...,.¢,.

donde {a;} y {¢)son las bases duales a {u;} y {v1} , respectivamente. Sea VE V y supongamos v = k 1 v1 + k 2 v2 + ... + km vm. En tal caso, por [1), T(v) = k 1 T(v 1) + k2 T{v 2) + · · · + k.., T(v,.) =

= k 1(a 11 u1 + ... + a~ou.) + kia 21 u 1 + .. · + a 2.u.) + · · · + k.,(a,. 1 u 1 + · · · + a_u.) = k2 a 21 + · .. + k,.a,.t)u 1 + · .. + (k 1 a~o + k 2 a2 • + · · · + k,.a,..)u. =

= (k 1a 11 + =

L" (k ali + k 1

1• 1

2

a 21 + · · · + k,.a.,Ju;

[2)

l FUNCIONALES LINEALES Y ESPACIO DUAL

Por tanto, para j

=

481

1, ... , n, (T'(a/l,v)) =aJ T(v)) = u {

f (k a

\,~ 1

= k 1 a 1J+ k 2 a 21 +

1

11

+ k 2 a 21 + · · · + k,..a.,Ju1)

=

··· + k,.a,.1

[3]

Por otra parte, para j = 1, ... , n,

(a11 ¢ 1

+ a 21 rp 2 + .. · + a,1 ¢,.Xv) = (a1lr/J 1 + a 1Jr/J 2 + ... + a,.,Jrp,.Xk 1v 1 + k 2 v2 + ... + k.,v..) = = k 1 a 11 + k2 a21 + · · · + k,.. a,.,1 [4]

Como v E V era arbitrario, [3] y [4] implican que

T'(a1) = a 11 rp 1 + a21 r/J 2 + · · · + a,1 ¢,..

1=

1, ... ,

n

que es [2]. Queda, pues, demostrado e1 teorema.

12.17.

Sea A una matriz m x n sobre un cuerpo K arbitraria. Demostrar que el rango por filas y el rango por columnas de A son iguales. Sea T: K"-+ Km Ia aplicacio n lineal delinida por T(v) = Av, donde los elementos de K" y Km se escriben como vectores columna. Entonces A es Ia representacio n matricial de T relativa a las bases us uales de K" y Km y Ia imagen de Tel espacio columna de A. Por consiguiente, rango T = rango por columnas de A En virtud del Teorema 12.7, AT es Ia representaci6n matricial de T respecto a las bases duales, luego rango T'

=

rango por columnas de AT = rango por filas de A

Pero por el Problema 12.15, rango T = rango T', por lo que el rango por filas y el rango por columnas de A son iguales. (Este resultado se estableci6 anteriormente como Teorema 5. 18 y se demostr6 de forma directa en el Problema 5.53.)

PROBLEMAS SUPLEMENTARIOS

ESPACIOS DUALES Y BASES DlJALES 2x - 3y + z y

12.18.

Sean rp: R 3 -> R y a: R 3 -+ R los funcionales lineales delinidos por rp(x, y, z) a(x, y, z) = 4x - 2y + 3z. Ha llar: a) rp +a, b) 3rp, c) 2¢ - Sa.

12.19.

Sea Vel espacio vectorial de los polinomios sobre R de grado ~2. Sean ¢ 1 , ¢ 2 y rp 3 los funcionales lineales en V definidos por

r/Jt
=

¢if(t)) = f'(l)

Aqui f(t) =a+ bt + ct 2 E V y f' (t) denota la derivada de f(t). Hallar Ia base {/1 (t), f 2 (t), / 3 (t)} de V q ue es dual a {¢ 1 , r/J2, ¢ 3 } .

482

ALGEBRA LINEAL

12.20.

Sup6ngase que u, VE Vy que c/J(u) = 0 implica c/J(v) = 0 para todos los para algun escalar k.

12.21.

Sup6ngase que¢, UE v• y que c/J(v) = 0 implica a(v) para algun escalar k.

12.22.

Sea V el espacio vectorial de los polinomios sobre . K. Para a E K, definase ¢.: V-+ K segun ¢. (f(t)) = f(a). Pro bar que: a) cPa es lineal; b) si a i:. b, necesariamente ¢. i:. cPb·

12.23.

Sea Vel espacio vectorial de los polinornios de grado ~ 2. Sean a, b, c E K escalares distintos y ¢ •• cPb• cPc los funcionales lineales definidos por cfJ.(f(t)) = f(a), c/Jb(f(t)) = f(b), cPc
= 0 para

cPE

todos los

v•. M ostrar que v = ku

VE

v. Mostrar que = k¢ (J

su dual. 12.24.

Sea V el espacio vectorial de las rna trices cuadradas de arden n. Sea T: V -> K Ia aplicaci6n traza: esto es, T(A) = a 11 + a22 + ... +a•• , donde A= (alJ). Probar que T es lineal.

12.25.

Sea W un subespacio de V. Pa ra todo funcional lineal c/J en W, mostrar q ue existe uno a en V tal que a(w) = c/J(w) para todo wE W, es decir, cfJ es Ia restricci6n de a a W

12.26.

Sea {e 1 , ... , e.} Ia base usual de K". Probar que Ia base du al es {n: 1 , proyecci6n i-esima: esto es, ni(a 1 , ... , a.)= a,.

12.27.

Sea V un espacio vectorial sobre R. Sean ¢ 1 , ¢ 2 E V* y supongase que a: V-+ R definida por a(v) = c/J 1(v)c/J 2 (v) tambien pertenece a v•. M ostrar que ¢ 1 = 0 o c/J 2 = 0.

... ,

n.}. donde n:i es Ia

ANIQUTLADORES 12.28.

Sea Wei subespacio de R4 generado por (1, 2, -3, 4), (1, 3, - 2, 6) y (1 , 4, -I, 8). Hallar una base del aniquilador de W

12.29.

Sea Wei subespacio de R 3 generado por (1 , l, 0) y (0, l, 1). Hallar una base del aniquilador de W

12.30.

M ostrar que, para todo subconjunto S de V, Lin (S) = S00 , siendo lin (S) Ia envolvente lineal deS.

12.31.

Sean U y W subespacios de un espacio vectorial V de dimension fin ita. Dem~strar: (U f'l W) 0 = U 0

12.32.

Sup6ngase

v = U E33 W

Demostrar que

+ W0

v• = U 0 E33 WO.

TRASPUESTA DE UNA APLTCACION LINEAL 12.33.

Sea ¢ el funcional lineal en R 2 definido por c/J(x, y) = 3x- 2y. Para cada una de las siguientes 3 a~licaciones line~les T; R -+ [email protected]~\ T'\~))(K 1 y, r.).

R.\

a)

T(x, y, z) = (x

+ y, y + z);

b) T(x, y, z) = (x + y

+ z, 2x- y).

V y T 2 : V-> W son lineales. Demostrar que (T 2 • T S = T{ • T~.

12.34.

Supongase que T1 : U

12.35.

Supongase que T: V-> U es lineal y que V tiene dimension finita. Demostrar que lm T' = (Ker T)

->

0 .

FUNCIONALES LINEALES Y ESPACIO DUAL

v-+ u es lineal y u E U.

Demostrar queUE Im T

483

existe ¢ E v• tal que T'(¢)

12.36.

Supongase que T: y ¢(u) = 1.

12.37.

Sea V de dimension tinita. Probar que Ia aplicacion T~-+ T' es un isomorfismo de Hom (V, V) sobre Hom (P, V*). (Aqui T es cualquier operador lineal en V.)

0

=

0

PROBLEMAS VARIOS 12.38.

Sean V un espacio vectorial sobre R y ¢

w+

= {vE V: ¢(v)

Demostrar que 12.39.

> 0}

w+ , Wy w-

E

v•.

Se delinen:

w- =

W= {veV:ljl(v) = O}

{vE V: ljl(v) < 0}

son convexos (veanse los Problemas 9.90 y 9.91 ).

Sea V un espacio vectorial de dimension linita. Un hiperplano H de V puede delinirse como el nucleo de un funcional lineal no nulo ¢ en V. [Con esta definicion, un hiperplano «pasa por el origem> necesariamente, esto es, contiene el vector cero.] Mostrar que todo subespacio de V es Ia intersecci6n de un numero finito de hiperplanos.

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS

12.18. a) 6x- 5y + 4z, 12.22. 12.23.

b) 6x - 9y + 3z,

c)

-16x + 4y -13z.

b)· Sea f(t) = t . Entonces lPaU{t)) =a ¥- b = ¢b(f(t)) y por tanto lPa i= ¢b·

{! _ l(t)-

t

2

(b + c)t + be ' (a- bXa -c) -

f 2(t) -_ t 2

-

(a

+ c)t + ac • f 3(t) -_ _t 2 -_..;._......;.. (a + b)t + ab} __

(b - aXb- c)

12.28.

{1/1 1(x, y, z, t) = 5x- y + z, ¢ 2(x, y, z, t) = 2y- t}.

12.29.

{¢(x, y, z) = x- y

(c- aXe- b)

+ z}.

12.33. a) (T'(¢)Xx, y, z) = 3x + y - 2z,

b)

(T'(I/I)Xx, y, z) = -x + 5y

+ 3z.

CAPITULO

13

Formas bilineales, cuadraticas y hermiticas

13.1. INTRODUCCION En el presente capitulo se generalizan las nociones de aplicaciones lineales y funcionales lineales. Especificamente, introduciremos el concepto de forma bilineal. (En realidad, las aplicaciones multilineales generales ya aparecian en Ia Secci6n 7.13.) Estas aplicaciones bilineales dan Iugar a su vez a las formas cuadn!ticas y hermiticas. Aunque las formas cuadraticas surgieron previamente en el contexto de las matrices, este capitulo se trata con independencia de los resultados precedentes. (Asi que puede haber cierto solapamiento en Ia discusi6n y en algunos ejemplos y problemas.)

13.2. FORMAS BILINEALES Sea V un espacio vectorial de dimension finita sobre un cuerpo K. Una forma bilineal en V es una aplicaci6n f: V x V ~ K que satisface:

+ bu2 , v) = af(u 1 , v) + bf(u2 , v) av1 + bv2 ) = af(u, v 1 ) + bf(u, v 2 )

i) f(au 1 ii) f(u,

para todos los a, be K y todos los ui> vie V. Expresamos Ia condici6n i) diciendo que f es lineal en Ia primera variable y Ia ii) diciendo que f es lineal en Ia segundo variable. EJEMPLO 13.1 a)

Sean ¢ y u funcionales lineales arbitrarios en V. Definamos f: V x V--> K por f( u, v) = cj.>(u)u(v). En tal caso, f es bilineal porque ¢ y a son lineales. (Tal forma bilineal f resulta ser el «producto tensorial» de ¢ y u y por eso se escribe a veces f = ¢ ® u.)

484

FORMAS BILINEALES. CUADRATI CAS Y HtRMITICAS

b) Sea

f

485

el producto escalar en R"; esto es,

+ a2 b2 + · .. + a. b.

f(u, v) = u · v =a 1 b 1

don de u = (aJ y v = (b;). En tal caso, f es una forma bilineal en R". c) Sea A = (a ii) cualquier matriz n x n sobre K . La matriz A puede ser identificada con una forma bilineal f en K" , donde

f(X , Y)=X T AY=(x 1,x 1 ,

:::)(~:)

' : : : : : : • •. . • . ,x ..........................

a.t



L

a;JXtYi = au XtYt

a.l

...

a.

=

Y•

+ allXtYl + · · · + a•• x.y.

l.j= l

La expresion formal anterior en las variables x 1, y 1 se denomina el po/inomio bi/ineal correspondiente a Ia matriz A. La ecuaci6n [13.1] escrita mas adelante muestra que, en cierto sentido, toda forma bilineal es de este tipo.

Denotaremos por B(V) el conjunto de las formas bilineales en V. Se dota a B(V) de una estructura de espacio vectorial definiendo f + g y kf como sigue: (f + g)(u, v) = f(u., v) + g(u., v) (kf)(u, v)

= kf(u,

v)

para todos los f, g E B( V) y k E K. De hecho, Teorema 13.1: Sea V un espacio vectorial de dimension n sabre K. Sea { 1 , .• • , n} una base del ·espacio dual V*. Entonces {/;( i, j = 1, . .. , n} es una base de B(V), donde k se define segun J;1(u, v) = i(u)j(v). De este modo, en particular, dim B (V) = n2 • (Vease la demostracion en el Problema 13.4.)

13.3. FORMAS BILINEALES Y MATRICES Sean f una forma bilineal en Vy S

=

{u. 1 , u 2 ,

... ,

u.} una base de V Supongamos

y

En tal caso,

+ ... + a,.u,., b1 u 1 + ··· + b,.u,.) = a1h1 f(u.t, ul) + alb2f(u1 , u2 ) + · · · + a,.b.f(u., u.) = •

f(u, v) =f(a1 u 1 = =

L

i,jcJ

a1 bJi(u~o u.j)

Asi pues, f esta completamente determinada por los n 2 valores f (u1, u1).

u, v e Vy

486

ALGEBRA LINEAL

La matriz A = (a;i), donde aii = f(u;, u) se llama la representacion matricial de f relativa a Ia base S o, simplemente, Ia matriz de fen S. La matriz «representa» a fen el sentido de que

[13.1]

para todos los u, vE V. [Como de costumbre, [u]s denota el vector (columna) coordenado de VenIa baseS.] A continuacion nos preguntamos como se transforma una matriz que representa a una forma bilineal cuando se selecciona una nueva base. La respuesta se da en el siguiente teorema, demostrade en el Problema 13.6. (Recuerdese que el Teorema 10.4 decia que Ia matriz de cambio de base P desde una base S basta otra S' tiene Ia propiedad de que [u]s = P[u]s· para todo u E V.)

uE

Teorema 13.2: Sea P la matriz de cambia de base desde una base S basta otra S'. Si A es Ia matriz de fen Ia base original S, B = pr AP

es Ia matriz de fen Ia nueva base S' . El teorema anterior motiva Ia definicion que ahora escribimos.

Definicion: Se dice que una matriz B es congruente a una matriz A si existe una matriz invertible (o no singular) P tal que B = pr AP. En virtud del Teorema 13.2, las matrices que representan Ia misma forma bilineal son, pues, congruentes. Hacemos notar que las matrices congruentes tienen el mismo rango porque P y pr son no singulares, luego tiene sentido Ia siguiente definicion.

Definicion: El rango de una forma bilineal fen V, escrito rango f, se define como el rango de cualquiera de sus representaciones matriciales. Decimos que f es degenerada o no degenerada segun sea rango f < dim V o rango f = dim V.

13.4. FORMAS BILINEALES ALTERNADAS Se dice que una forma bilineal en V es alternada si i) f( v, v) = 0

para todo v E V. Si f es alternada, 0 =f(u + v, u + v) =f(u, u) + f(u, v) + fv, u) + f(v, v)

y asi

ii) f(u, v) = -f(v, u)

FORMAS BILINEALES, CUAD RATICAS Y HERMITICAS

487

para todos los u, v E V. Una forma bilineal que satisface Ia condici6n ii) se dice antisimetrica (o hemisimetrica). Si 1 + 1 =I= 0 en K , Ia condici6n ii) implica f(v, v) = - f(v, v), lo que a su vez implica Ia condici6n i). En otras palabras, las expresiones alternada y antisimetrica son equivalentes cuando 1 + 1 =I= 0. El principal teorema de estructura de formas bilineales alternadas, demostrado en el Problema 13.19, es el que se enuncia a continuaci6n. Teorema 13.3: Sea f una forma bilineal alternada en V. Existe una base de V en Ia que representa por una matriz de Ia forma 0 -1

f se

1:

0: ---, -- ---,--'

0

1 '

''-1 0'' I_-- - - - _I

:--o--1-: ': -1 0 :'

- - - - - - - :- -0- -:

--- -·--- .,

'\... -0- - I'

Mas aun, el numero de las ( _ igual a

t

~ ~) esta univocamente determinado por f

(debido a que es

rango f).

En particular, el teorema precedente muestra que una forma bilineal alternada debe tener rango par.

13.5.

FORMAS BILINEALES SIMETRICAS. FORMAS CUADRATICAS

Se dice que una forma bilineal fen V es simetrica si f(u., v) = f(v, u)

para todos los u, v E V. Si A es una· representaci6n matricial de f, podemos escribir

(Usamos el hecho de que xrAY es un escalar y por tanto es igual a su traspuesta.) Asi pues, si f es simetrica, yrATX = f(X, Y) = f(Y, X)= yr AX

488

ALGEBRA LINEAL

y como esto es cierto para todos los vectores X, Y, se desprende que A= Ar, o sea, que A es simetrica. Reciprocamente, si A es simetrica, f es simetrica. EI principal resultado referente a formas bilineales simetricas, demostrado en el Problema 13.11, se enuncia en el

Teorema 13.4: Sea f una forma bilineal simetrica en V sobre K (en el cual 1 + 1 #- 0). Entonces V tiene una base {v 1, •.. , v"} en la que f se representa por una matriz diagonal, es decir, f(v,, v) = 0 para i #- j. Teorema 13.4 (forma alternativa): · Sea A una matriz simetrica sobre K (en el cual 1 + 1 -=1= 0). Entonces existe una matriz invertible (o no singular) P tal que pr APes diagonal. Esto es, A es congruente a una matriz diagonal. Dado que una matriz invertible Pes producto de matrices elementales (Teorema 4.10), una manera de obtener Ia forma diagonal pr AP es mediante una sucesi6n de operaciones elementales entre filas y !a misma sucesion de operaciones elementales entre columnas. Estas ultimas proporcionan'm Pr. Definicion: Una aplicacion q: V-+ K se denomina una forma cuadratica si q(v) = f(v, v) para alguna forma bilineal simetrica f en V. Ahora bien, si f se representa por una matriz simetrica A

=

La

11

= (ail), q

x 1 x 1 = a 11 xf + a 22 xi + ·· · + a~nx; + 2

i,j

L I<]

se representa como

a,1 x 1 x 1

La expresion formal precedente en las variables x, se denomina el polinomio cuadratico correspondiente a Ia matriz simetrica A. Observemos que si Ia matriz A es diagonal, q tendril Ia representaci6n diagonal q(X)

= xr AX = a 11 xi + a 22 x~ + ... + a""x;

o sea, el polinomio cuadratico que representa a q no contendra terminos con «productos cruzados». Mas aun, segun el Teorema 13.4, toda forma cuadratica tiene una representacion de esa forma (cuando l + I #- 0). Si I + I #- 0 en K , !a anterior definicion puede invertirse, dando f(u , v) = t(q(u + v) - q(u)- q(v)], que se conoce como forma polar de f .

13.6. FORMAS BILINEALES SIMETRJCAS REALES. LEY DE JNERCJA En esta seccion trataremos formas bilineales simetricas y formas cuadniticas en espacios vectoriales sobre el cuerpo real R. Estas formas aparecen en muchas ramas de las matematicas

FORMAS BILINEALES, CUADRATICAS Y HERMITICAS

489

y Ia fisica. La naturaleza especial de R permite una teoria independiente. El resultado principal, demostrado en el Problema 13 .13, es el que sigue.

Teorema 13.5: Sea f una forma bilineal simetrica en V sabre R. Existe una base de VenIa que se representa par una matriz diagonal; cualquier otra representacion diagonal tiene el mismo numero p de entradas positivas y el mismo numero n de entradas negativas. La diferencia s = p - n se llama Ia signatura de f.

f

Una forma bilineal simetrica se dice semidefinida no negativa si q(v) = f(v, v)

~

0

para todo vector v; se dice definida positiva si q(v)

= f(v,

v) > 0

para todo vector v # 0. Por el Teorema 13.5,

f es semidefinida no negativa si y solo si s = rango ii) f es defmida positiva si y solo si s = dim v,

U"),

i)

siendo s Ia signatura de f. EJ EM PLO 13.2.

Sea f el producto escalar en R"; esto es,

f(u, v) = u • v = a 1 b 1

+ a1 b1 + · · · + a. b.

donde u = ·(aJ y v = (b;). N6tese que f es simetrica puesto que f(u, v) = u · v

= v · u = f(v, u)

Ademas, f es definida positiva ya que

f(u, u) = ai + ai

+ · · · + a; > 0

cuando u #- 0.

En el Capitulo 14 veremos como se transforma una forma cuadnl.tica cuando Ia matriz de transicion Pes o rtogonal. Si Pes tan solo no singular, q puede representarse en forma diagonal con unicamente I y - 1 como coeficientes no nulos. Concretamente, Corolario 13.6: Cualquier fo rma cuadnitica real tiene una unica representacion de Ia forma

q(x

1 , ... ,

x.)

= xi + ··· + x; -

x; +

1 -

• •• -

x;

donde r = p + n es el rango de Ia forma. A veces se llama ley de inercia o teorema de Sylvester al resultado anterior para formas cuadraticas reales.

490

ALGEBRA LINEAL

13.7.

FORMAS HERMITICAS

Sea V un espacio vectorial de dimension finita sobre el cuerpo complejo C. Sea tal que i) f(au 1 + bu2 , v) = af(u 1 , v) ii) f(u, v) = f(v. u)

+ bf(u 2 ,

f: V x

V--+ C

v)

donde a, b E C y ui, v E V. Entonces f se denomina una forma hermitica en V. (Como de costumbre, k denota el complejo conjugado de kE C.) Por i) y ii), f(u, av 1

+ bv 2 ) = f(av 1 + bv2 , u) = af(v 1 , u) + bf(v 2 , u) = = iif(v 1, u) + bf(v2 , u) = aj(u, v1) + bf(u, v2 )

Esto es, iii) f(u, avl

+ bvz) = af(u, V1) + bf(u, Vz)

Como antes, expresamos la condicioP i) diciendo que f es lineal en Ia primera variable. Por otra parte, expresamos la condicion iii) diciendo que f es antilineal en la segunda variable. Notese que segun ii) tenemos f(v , v) = f(v , v) y asi f (v, v) es real para todo ve V. Los resultados de las Secciones 13.5 y 13.6 para formas simetricas tienen sus analogos para formas hermiticas. Asi Ia aplicacion q: V--+ R, definida por q(v) = f(v , v), se conoce como Ia forma cuadriuica hermitica o f orma cuadratica compleja asociada a Ia forma hermitica f. Podemos obtener f a partir de q en Ia forma polar: f(u, v) = ![q(u + v) - q(u - v)]

+ ![q(u + iv) -

q(u - iv)]

Supongamos ahara que S = {u1 , ... , u.} es una base de V. La matriz H = (h;) con h;i = f(u ;. u) se denomina Ia representacion matricial de fen Ia base S. Por ii), f (ui, u) = f(ui , u;), Juego H es hermitica y en particular sus entradas diagonales son reales. De este modo, toda representacion diagonal de f contiene solo entradas reales. El proximo teorema, que se demostrani en el Problema 13.33, es el amilogo complejo del Teorema 13.5 referente a formas bilineales reales simetricas. Teorema 13.7: Sea f una forma hermitica en V. Existe una baseS = {u 1 , ... , u.} de VenIa que f se representa por una matriz diagonal , es decir, f(u;, u) = 0 para i '# j. Mas aun, toda representacion diagonal de f tiene el mismo numero p de entradas positivas y el mismo numero n de entradas negativas. La diferencia s = p - n se Uama Ia signatura de f. Amilogamente, una forma hermitica f se dice semidefinida no negativa si q(v)

= f(v, v) 2. 0

para todo v E V, y se dice definida positiva si q(v)

· para todo v =F 0.

= f(v , v) > 0

FORMAS BILIN EALES, CUA DRATICAS Y HERMITICAS

491

EJEMPLO 13.3 . Sea f el producto escalar en C"; esto es, f(u, v) = u . v = z I Wt

donde u = (z;) y v = (w;). Entonces para todo v t= 0,

+ zl wl + ... +z. WA

f es una forma hermitica en C". Ademas, f es delinida positiva porque,

PROBLEMAS RESUELTOS

FORMAS BILINEALES

13.1. Sean u = (x 1 , x 2 , x 3 ) y v = (y 1 , y 2 , YJ), y sea f(u, v) = 3XtYt- 2xtY2 + 5XzYt + 7XzY2 - 8xzY3

+ 4x3Yz- xly'~

Expresar f en notaci6n matricial. Sea A Ia matriz 3 x 3 cuya entrada ij es el coeficiente de X;Yi · En ese caso,

3

f(u, v) = XT AY = (x 1,x1 , x 3 5

{

13.2.

0

o)(Y1) y

- 2 7 4

- 8 - 1

2

YJ

Sea A una matriz n x n sobre K. Mostrar que la aplicaci6n f definida por f(X , Y) =xrAY

es una forma bilineal en K". Para todos los a, be K y todos los X;, Y; E K", f(aX 1

+ bX2 ,

Y)=(aX 1

+ bX2 )TAY =(aXf + bXDAY=

= aXfA Y + bXI A Y = af(X 1 , Y) + bf(X 2 , Y) Por tanto, f es lineal en Ia primera variable. Asimismo,

Por tanto.

13.3.

f es lineal en Ia segunda variable yes pues una forma bilineal en K".

Sea f la forma bilineal en R 2 definida por f((x 1 , X2~ (yl, Y2)) = 2XtYt - 3XtYz a)

Hallar la matriz A de fen Ia base {u 1 = (l , 0), u2

+ Xz Y2

= (1, l)}.

492

ALGEBRA LINEAL

c)

Hallar la matriz B de fen Ia base {v 1 = (2, 1), v2 = (1 , -1)}. Encontrar Ia matriz de cambio de base P desde Ia base {u;} hasta Ia base {v;} y veriGear que B = pr AP.

a)

Tomamos A = (aii), donde aii = f(u;, u):

b)

a 11 = f(u 1 , a 11 =f(u 1 , a11 = f(ul, a22 = f(u 2 ,

AsiA = b)

G -~)

u 1 ) = f((l, 0), (1, 0)) = 2-0 + 0

= u1 ) =/((1, 0), (1, 1)) = 2-3 + 0 = u 1) = /((1, 1), (1, 0)) = 2- 0 + 0 = u2) = /((1, 1), (1, 1)) = 2- 3 + 1 =

2 -1 2

0

es Ia matriz de fen Ia base {u 1 , u 2 }.

T omamos B = (bii), donde bii = f(v;, v1 ): = .8- 6 + 1 = 3

b 11 =f(v 1 , v1) =/((2, 1), (2, 1)) bll =f(v 1 , v 2 ) =/((2, 1), (1 , -1)) bll = f(v 2 , v1) = /((1, - 1), (2, 1))

= 4 + 6- 1 ~ 9 = 4- 3 -

1=0

b 12 =f(v2 , v2 ) =/((1, -1), (1, -1)) = 2 + 3 + 1 = 6

Asi B c)

=

(~

:)

es Ia matriz de f en Ia base {vi> v2 }.

Debemos escribir v1 y v 2 en terminos de los u;: v 1 = (2, 1)

=

(1, 0)

+ (1,

1)

=

u1

v1 = (1, -1) = 2(1, 0)- (1, 1) = 2u 1

Entonces P = ( :

13.4.

1 2 ), por lo que pr = (

- 1

2

+ u2 -

u2

1 ) . De este modo

-1

Demostrar el Teorema 13.1. Sea {u" ... , u"} Ia base de V dual a

{4>J

Mostremos primero que {J;j} genera B(V). Sea I a;if ii· Basta pro bar que

f E B ( V) y supongamos f(u,, u) = ail. Afirmamos que f = f(u,, u,) =


para

s, t

= I , ... ,

n

Tenemos

como se pedia. Por consiguiente, {.1;1} genera B(V). A continuaci6n supongamos ese caso, paras, t = I , ... , n,

I

a;ihJ = 0. En

El ultimo paso se obtiene como antes. Asi pues, {.t;j} es independiente y por ende es una base . deB( V).

FORMAS BILINEALES, CUADRATICAS Y HERMITICAS

13.5.

493

Denotese por Ulla representacion matricial de una forma bilineal f en V relativa a una base {u 1 , ... , un}· Mostrar que Ia aplicacionf~-+Ul es un isomorfismo de B(V) sobre el espacio vectorial las matrices n-cuadradas Dado que f esta completamente determinada po r los escalares f(u. , u1) , Ia aplicaci6n fH [j] es inyectiva y suprayectiva. Basta pro bar que Ia aplicaci6 n ! ~---+ [j] es un homomorfismo; esto es, q ue

[cif + bg] = a[J]

+ b[g]

No o bstante, para i, j =I , . .. , n,

(af + bg'A_u1 , u1)

=

af(u., u)

+ bg(u;, u1)

que es otra forma de escribir (*). Queda asi demostrado el resultado.

13.6.

Demostrar el Teorema 13.2. Sean u, ve V. Siendo P Ia matriz de cambio de base de S a S' tenemos P[u]s· = [u] 5 y tambien P[v] 5 • = [v]5 , luego [uJI = [u]r, PT. De este modo, ·

f(u, u) = [u]f A[v]5 = [u]f. pT AP[v]s· Como u y v son elementos arbitrarios en V, pT AP es Ia matriz de fen Ia base S' .

FORMAS BILINEALES SlMETRICAS. FORMAS CUADRATICAS 13.7.

Hallar Ia matriz simetrica correspondiente a cada uno de los siguientes polinomios cuadraticos: a) q(x, y, z) = 3x 2

+ 4xy- y2 + 8xz - 6yz + z 2

q(x, y, z) = x 2

b)

-

2yz

+ xz.

L a matriz simetrica A = (aii) que representa a q(x 1 , .. . , x.) tiene Ia entrada diagonal aii igual a l coeficiente de x?, y las entradas aii y a1; iguales cada una a Ia mitad del coeficiente de x; xi" Asi pues,

a)

13.8.

b)

Para Ia matriz real simetrica A escrita a continuacion, encontra r una matriz no singular P tal que pT AP sea diagonal y hallar su signatura.

A~H ~!

-:)

Comenzamos por construir Ia matriz por bloques (A , I):

<•.n~(-:

2

-3 7

-5

0

l

- 5

8

0

0

I

1

0

~)

494

ALGEBRA LINEAL

Efectuamos las operaciones entre filas 3R 1 + R 1 -+ R 2 y -2R 1 + R 3 -+ R 3 sobre (A, I) y despues las correspondientes operaciones entre columnas 3C1 + C 2 -+ C 2 y -2C 1 + C 3 -+ C 3 sobre A obteniendo

1 -3 0 -2 ( 0 1

2

I

1

0

:

3

1

4: -2

0

~)

y luego

(i

0

-2

0

1

0

1 : 3 4: -2

0

I

I

~)

Acto seguido, efectuamos Ia operacion entre filas R 2 + 2R3 -+ R 3 y despues Ia correspondiente operacioo entre columnas C 2 + 2C 3 -+ C 3 para llegar a

(i

0

01

1

0

-2

1:

3

1

9: -1

1

0

I

Se ha diagonaH,.do A. Tomomo• P La signatura de A es s

13.9.

=

~) ~ (i -1)

y luego a

3 1 0

0

(:

-2 0

0 1I

1

0'

3

I

~)

0 1

18 : -1

('

~ ; entonces pT AP = ~

0

-2 0

~)

18

2 - 1 = l.

Sup6ngase 1 + 1 ¥= 0 en K. Dar un algoritmo formal para diagonalizar (bajo congruencia) una matriz simetrica A = (a;) sabre K. a 1 1 =f 0. Efectuamos las operaciones entre filas - ail R 1 + a 11 R;-+ R;, i = 2, ... , n, seguidas de las correspond(:~ tes o)peraciones entre columnas - a; 1 C 1 + a 11 C; ..... C; 0 para reducir A a Ia forma B .

Caso i):

1

0

Caso ii):

Caso iii):

a 11 = 0 pero a;; =f 0 para algun i > 1. Efectuamos Ia operacion entre filas R 1 ...... R; y despues Ia correspondiente entre columnas C 1 ._.. C; para llevar a;; a Ia primera posicion diagonal. Esto reduce Ia matriz a Ia de i). Todas las entradas diagonales a;;= 0. Elegimos i, j tales que aij =f 0 y efectuamos Ia operacion entre filas Ri + R; -+ R; seguida de Ia correspondiente operacion entre columnas Ci + C; -+ C; para llevar 2aii =f 0 a Ia i-esima posicion diagonal. Esto reduce Ia matriz a Ia de ii).

0)

En cada uno de los casos podemos reducir finalmente A a Ia forma a 11 B , donde B es una ( 0 matriz simetrica de ord en menor que el de A . Por inducci6n podremos acaba r llevando A a forma diagonal.

Nota:

13.10.

La hip6tesis de que I

+ 1 =f 0

en K se ha usado en iii), donde afirmamos que 2aij ¥= 0.

Sea q la forma cuadratica asociada a la forma bilineal simetrica f. Comprobar Ia identidad polar f(u, v) = ±(q(u + v)- q(u) - q(v)]. (Sup6ngase que 1 + 1 ¥= 0.) Tenemos

q(u + v) - q(u) - q(v) = f(u + v, u + v) - f(u, u) - f(v, v) = = f(u, u) + f(u, v) + f(v, u) + f(v, v) - f(u, u) - f(v, v) = = 2j(u, v)

'· Si 1

+I

=f 0, podemos dividir por 2 para conseguir Ia identidad requerida.

FORMAS BILINEALES, CUADRATICAS Y HERMITICAS

13.11.

495

Demostrar el Teorema 13.4. Metodo 1. Si f = 0 o si dim V = 1, el teorema se cumple claramente. Por tanto, podemos suponer f # 0 y dim V = n > I. Si q(v) = f(v, v) = 0 para todo v E V, Ia forma polar de f (vease el Problema 13. I O) implica f = 0. Por esta raz6n, podemos suponer que existe un vector v1 E V tal que f(v 1 , v1) t= 0. Sean U el subespacio. generado por v 1 y We! conjunto de aquellos vectores v E V para los que f(v 1 , v) = 0. Afirmamos que V = U EB W. Demostraci6n de que U n W = {0}: Supongamos uE U n W. Como uE U, u = kv 1 para algun escalar kE K. Como u E W, 0 = f(u, u) = f(kv 1 , kv 1 ) = k 2f(vl> v1 ). Pero f( v 1 , v1 ) # 0, luego k = 0 y por consiguiente u = kv 1 = 0. De este modo, U n W = {0}. ii) Demostraci6n de que V = U + W: sea vE V. Tomamos i)

W

=

f(vt , v) V -

(I]

VI

f(vl , vl)

Entonccs

Siendo asi, wE W. Por [!], v es Ia suma de un elemento de U y uno de W, de manera que + W. Por i) y ii), V = U EB W. Ahora f restringida a W es una forma bilineal simetrica en W. Pero dim W = n - I, luego, por inducci6n, existe una base {v2 , ••. , v"} de W tal que f(v;, vi)= 0 para i # j y 2 .$; i, j::::;; n. Por Ia propia definicion deW, f(v 1, vi)= 0 para}= 2, ... , n. Por tanto, Ia base {v 1 , ... , v.} de V tiene Ia propiedad requerida de que f(v; , v) = 0 para i # j. V= U

Metodo 2. El algoritmo del Problema 13.9 muestra que toda matriz simetrica sobre K es congruente a una matriz diagonal. Esto es equivalente a Ia afirmaci6n de que f tiene una representaci6n diagonal.

13.12. Sea

A~("'

a,

. ) una matriz diagonal

sobre

K. Probar qu"

a)

Para escalares no nulos cualesquiera k 1 , diagonal con entradas diagonales aikf.

b)

Si K es el cuerpo complejo C, A es congruente a una matriz diagonal con solo y 0 en las entradas diagonales.

... ,

k" E K, A es congruente a una matriz

c) Si K es el cuerpo real R, A es congruente a una matriz diagonal con solo 1, - 1 y 0 en las entradas diagonales. a)

Sea P Ia matriz diagonal con entradas diagonales k;. Entonces

pTAP

= (''

k, ...

)(al k.

2

a

1 )(k a.

1 k

2

)

k,.

= ('•'

o,kj ... ,) a.k.

496

ALGEBRA LINEAL

b) Sea P Ia matriz diagonal con entradas diagonales b; =

ff 1

si a;#- 0 . . En tal caso, pr AP s1 a; = 0

{JIM 1

si a;#- 0 . . En tal caso, pT AP SJ a;= 0

tiene Ia forma pedida. . d'1agona1 con entrad as d'1agonaIes b; = . c) Sea P Ia matnz tiene Ia forma pedida. Not<~: Subrayamos el hecho de que b) deja de ser cierto si se reemplaza congruencia por congruencia hermitica (veanse los Problemas 13.32 y 13.33).

13.13.

Demostrar el Teo rema 13.5. En virtud del Teorema 13.4, existe una base {u 1, ... , u.} de V en Ia que f se representa por una matriz diagonal con, digamos, p entradas positivas y n negativas. Supongamos abora que {wt, ... , w.} es otra base de V en Ia que f se representa por una matriz diagonal con, digamos, p' entradas positivas y n' negativas. Podemos suponer, sin pi:rdida de generalidad, que en cada matriz aparecen primero las entradas positivas. Puesto que rango f = p + n = p' + n', basta probar que p = p' Sean U Ia envolvente lineal de u 1 , .. . , up y W Ia de wp'+l• ... , w•. Entonces f(v, v) > 0 para todo ve U no nulo y f(v , v):::; 0 para todo vE W no nulo. De aqui U n W = {0}. N6tese que dim U = p y dim W = 11- p'. Siendo asi, dim (U

+ W) =

dim U

+ dim

W- dim (U n W) = p + (n - p') - 0 = p - p'

Pero dim (U + W) :::; dim V = n, luego p - p' consiguiente p = p', como se pedia.

+ 11 :::; n

+n

o p :::; p'. De forma similar, p':::; p y por

Nota: El teorema y Ia demostraci6n precedentes solo dependen del concepto de positividad. El teorema sera cierto, pues, para cualquier subcuerpo K del cuerpo real R, como es el cuerpo racional Q.

13.14.

Se dice que una matriz real simetrica n. x n es definida positiva si xr AX> 0 para todo vector (columna) no nulo X ERn, es decir, si A es definida positiva vista como forma bilineal. Sea B cualquier matriz real no singular. Mostrar que: a) BT B es simetrica, b) Br B es definida positiva. a)

(BT Bl = BTBrr = Br B, luego Br B es simi:trica.

b)

Dado que B es no singular, BX #- 0 para todo X E R" no nulo. Por tanto, e1 producto escalar de BX consigo mismo, BX · BX = (BX)r (BX), es positivo. De este m odo, xr(BT B) X = (Xr Br) = (BX)r (BX) > 0, como se pedia.

FORMAS HERMITICAS 13.15.

Determinar cuales de las siguientes matrices son hermiticas:

Si)

(2~ li 4+

2 + 3i 4 5 6 + 2i -7 Si 6- 2i a)

(2~i

2-i 6

4+i b)

·n

HJ -3 2

1

c)

FORMAS BILINEALES, CUADRATICAS Y HERM ITICAS

497

Una matriz A= (aii) es hermitica si y solo si A = A*, o sea, si y solo si a,i = ai•·

13.16.

a)

La matriz es hermitica, ya que es igual a su traspuesta conjugada.

b)

La matriz no es hermitica, incluso a pesar de ser simetrica.

c)

La matriz es hermitica. De hecho, una matriz real es hermitica si y solo si es sirnetrica.

Sea A una matriz hermitica. Probar que j es una forma hermitica en C", donde j se define por f(X, Y) =xrAY. Para todos los a, beC y todos los X 1 , X 2 , YeC", f(aX 1

+ bX2 ,

Y) = (aX 1

+ bX 2 )rA Y = (aXf + bXDA Y

=

=aXfAY+bX~AY=af(X 1 , Y)+bf(X 2

,

Y)

Por consiguiente, f es lineal en Ia primera variable. Asimismo,

De aqui que f sea una forma hermitica en C". (Nota: Usamos el hecho de que xr A Yes un escalar, por lo que es igual a su traspuesta.)

13.17. Sea f una forma hermitica en V. Sea H Ia matriz de fen una base S = { u1 ,

... ,

u.} de

V.

Probar que:

a) f(u, v) = [u]f H[v] 8 para todos los u, VE V. b) Si P es Ia matriz de cambio de base desde S hasta una nueva base S' de V, B = PTHJ5 (o B = Q* HQ, donde Q = P) es la matriz de fen la nueva baseS'. N6tese que b) es el analogo complejo del Teorema 13.2. a)

Sean u, ve Vy supongamos u = a 1 u 1 tal caso,

+ a2 u 2 + ... + a. u.

y v = b1 u 1

+ b2 u2 + ... + b.u•. En

como se pedia. b)

AI ser P Ia matriz de cambio de base desde S hasta S', tenemos P[uls· = [u)s y P[v]s· = [v]s; por tanto, [u]f = [u]f. pr y [v)5 = P[v] 5 .. Asi, por a), f(u, v)

i'::r T T - -= [u] 5T HLVJs = [u]s.P HP[v]s•

Pero u y v son elementos arbitrarios de V, Iuego pr HP es Ia matriz de fen Ia base S'.

13.18, Sea H

=(I~ i -2i

1 ; i 2 :_; 3i) una matriz hermitica. Hallar una matriz no singular 2 + 3i 7

P tal que pT HP sea diagonal.

498

ALGEBRA LINEAL

Primero construimos Ia matriz por bloques (H, I):

(

1+i 4

1 1- i

1

1 00) 2- 3i: 0 1 0 7 0 0 1 2 + 31

-2i

2i

Efectuamos las operaciones entre lilas ( - I + i)R 1 + R2 -+ R 2 y 2iR 1 + R 3 ---> R 3 sobre (H, I) seguidas de las correspondientes «operaciones entre columnas conjugadas» ( - I - i)C 1 + C 2 -+ C 2 y -2iC 1 + C 3 -+ C 3 sobre H obteniendo

(~

1

+i

~)

0

-1+i

2

5i

1

0

2i

(~

y luego

0 2

0

I

-5i : -1

5i

~)

0

I

3 :

+i

1

2i

0

A continuaci6n efectuamos Ia operaci6n entre lilas R3 ---> -5iR2 + 2R 3 y Ia conjugada C 3 ---> 5iC2 + 2C3 obteniendo

(~

0 2

0

0

- Si -19

~)

0 I

-1+i 5 + 9i

-5i

y luego

(~

0

0

2 0

0 -38

1

~)

0

I

-1+1 5 + 9i

-5i

Se ha diagonalizado H . Tomemos

P~(~

-1+1 1 0

5+ .') -5i 2

Adviertase que Ia signatura s de H es s

=2-

y entonces

I

prHP-(~

0

2 0

=L

J

PROBLEMAS VARIOS

13.19.

Demostrar el Teorema 13.3. Si f y asi

f

= 0, el teorema es obviamente cierto. Ademas, si dim = 0. En consecuencia, podemos suponer que dim V

V = t ,f(k 1 u, k 2 u)

> I y f ¥- 0.

= k 1 kzf(u,

u)

=0

Puesto que f ¥-0, existen u 1 , u2 E V (no nulos) tales que f(u 1 , u 2 ) ¥-0. De hecho, multiplicando u 1 por un factor apropiado, podemos suponer quef{u 1 , u 2 ) =I, luego f(u 2 , u 1 ) = - I. Ahora bien, u 1 y u 2 son linealmente independientes, porque si, digamos, u2 =ku 1 ,f(u1 , u 2 )=f(u1 , ku 1 )=kf(u 1 , u 1) = 0. Sea U el subespacio generado por u1 y u2 . N6tese que: i)

La representaci6n matricial de Ia restricci6n de fa U en Ia base {u1 , u 2 } es ( _

ii)

Si u e U, digamos u

=

au 1

~ ~).

+ bu 2 ,

= f(au 1 + bu2 , u 1) = -b f(u, u 2 ) = f(au 1 + bu2 , u2 ) = a

f(u, u1)

Sea W el conjunto formado por aquellos vectores wE W tales que f(w , u 1) = 0 y f(w , u2 ) = 0 Equivalentemente, W ={wE V:f(w, u) = 0 para todo u E U}

FORMAS BILIN EALES, CUAD RATICAS Y HERMITICAS

499

Alirmamos que V = U EB W. Es claro que U 11 W = {0}, por lo que solamente resta probar que V = U + W. Sea ve V. Tomemos y

w=v-u

Dado que u es combinaci6n lineal de u 1 y u 2 , u e U. Probemos que we W. P or [I) y ii), f(u , u 1 ) = f(v, u 1 ), luego

Similarmente, f(u, u 2 ) = f(v, u 2 ), de modo que

Entonces w e W, y asi, por [I], v = u + w con u e U y we W. Esto muestra que V= U + W y por tanto V = U $ W. Ahora Ia restricci6n de f a W es una forma bilineal alternada en W. P or inducci6n, existe una base u 3 , ... , u" de Wen Ia que Ia matriz que representa a f restringida a W tiene Ia forma deseada. De acuerdo con esto, u 1 , u 2 , uJ., ... , u. es una base de V en Ia que Ia matriz que representa a f tiene Ia forma deseada.

PROBLEMAS SUPLEMENTARIOS

FORMAS BILINEALES 13.20. Sea Vel espacio vectorial de las matrices 2 x 2 so bre R. Sean M = donde A , B e Vy «tn> denota Ia traza. a) Mostrar que matriz de

f

en Ia base {

G~). G~). G~). (~

G~)

y f(A , B )= tr ArMB,

f es una forma bilineal en

V. b) H allar Ia

~)}.

13.21. Sea B(V) el conjunto de las formas bilineales en V sobre K . Demostrar: a)

Sif, geB(V),f + g y kf, con keK, tambien pertenecen a B(V). Asi que B(V) es un subespacio del espacio vectorial de todas las funciones de V x V en K.

b)

Si ¢ y

(J

son funcionales lineales en V, f(u , v) = ¢(u)(J(v) pertenece a B(V).

13.22. Sea f una forma bilineal en V. Para cualquier subconjunto S de V escribimos S 1 = {ve V:f(u, v) = 0 para todo ueS}

sr

= {ve V:f(v,

u)

= 0 para todo

ueS}

Probar que: a) S1 y sr son subespacios de V; b) S 1 s;;; S2 implica Sis;;; Sf y Sis;;; Si; c) {0} 1 = {Of= V. 13.23. Demostra r Ia siguiente aserci6n: si f es una forma bilineal en V, rango f =dim V- dim V.L = = dim v - dim vr y por tanto dim y.L = dim vr.

500

ALGEBRA LINEAL

13.24. Sea f una forma bilineal en V. Para cada y !1(x) = j(u, x). Demostrar: a)

13.25.

LI E

V, definanse a: v-+ K y a: v-+ K segun u(x) = f(x, u)

u y ii son lineales, es decir, u, iiE V*.

b)

u ~--> t1 y u 1-+ ii son aplicaciones lineales de V en V*.

c)

rango f= rango

(u~-+ti) =

rango

(u~--+u).

Mostrar que Ia congruencia de matrices es una relaci6n de equivalencia, o sea: i) A es congruente a A; ii) si A es congruente a B, B es congruente a A; iii) si A es congruente a B y B es congruente a C, A es congruente a C.

FORMAS BILINEALES SIMETRICAS. FORMAS CUADRATICAS 13.26.

Hallar Ia matriz simetrica asociada a cada uno de los polinomios cuadraticos: a)

q(x, y, z) = 2x

b) q(x, y, z)

13.27.

=x

2

2 -

-

8xy xz

+ y2 -

16xz

+ 14yz + 5z2

+ y2

= xy + y 2 + 4xz + z 2

c)

q(x, y, z)

d)

q(x, y, z) = xy

+ yz

Para cada una de las siguientes matrices A, encontrar una matriz no singular P tal que pr A P sea diagonal:

a)

A=G !).

b)

A~H

-2 6

-9

-:).

c)

A~( :

-3)

-2 2 -5 -1 9 6 -2 -5 -3 -1 9 11 1

En cada caso, hallar el rango y Ia signatura. 13.28. Sea S( V) el conjunto de las formas bilineales simetricas en V. Pro bar que: i)

S(V) es un subespacio de B(V);

ii)

si dim V = n, dim S(V)

= tn(n +

I).

13.29. Sup6ngase que A es una matriz real simetrica definida positiva. Mostrar que existe una ma triz no singular P tal que A = pr P. 13.30.

Considerese un polinomio real cuadratico q(x 1 ,

... ,

x.) =

L"

a;jxixi,

donde

a il= aji·

i.j = I

i) Si all #- 0, probar que Ia sustituci6n

conduce a Ia ecuaci6n q(x 1 , ••• , x.) = a 11 yi + q' (y2 , ... , Y.), donde q' es tambien un polinomio cuadratico. ii) Si all = 0 pero, por ejemplo, a 12 #- 0, probar que Ia sustituci6n conduce a Ia ecuaci6n q(x 1, ... , x.) = L biiYiY1, donde b11 #- 0, esto es, reduce este caso a! i). Este metodo de diagonalizaci6n de q se conoce como «completar el cuadrado».

FORMAS BILINEA LES, CUADRATICAS Y HERMITICAS

501

FORMAS HERMITICAS 13.31.

Sea A cualquie r matriz compleja no singular. M ostrar que H =A* A es hermitica y definida positiva.

13.32.

D ecimos que B es congruente hermitica a A si existe una matriz no singular Q tal que B = Q* AQ. Probar que Ia congruencia hermitica es una relaci6n de equivalencia.

13.33.

Demostrar el Teorema 13.7. [N6tese que Ia segunda parte del teorema no se cumple p ara formas bilineales simetricas complejas, como muestra el Problema 13.12 ii). No obstante, Ia demostraci6n del Teorema 13.5 en el Problema 13.13 puede trasladarse at caso hermitico.]

PROBLEMAS VARIOS 13.34.

Sean V y W espacios vecto riales sobre K. U na aplicaci6 n f: V x W-> K se llama una forma bilinea/ en Vy W si:

+ bv2 , w) = f(v, aw 1 + bw2 ) =

i) f(av 1 ii)

af(v 1 , w) + bf(v2 , w) af(v, w1)

+ bf(v, w,)

para todos los a, beK, v;e V, wjeW. Demostra r lo siguiente: a)

El conjunto B (V, W) de las formas bilineales en V y W es un su bespacio del espacio vectorial de las funciones de V x Wen K.

b)

Si {¢ 1, ••• ,
Nota:

Observese que si V

=

W, obtenemos el espacio B(V) estudia do en este capitulo.

m veces ~

13.35. Sea V un espacio vectorial sobre K . U na aplicaci6n f: V x V x ··· x V ~ K se denomina una forma multilineal (o m-lineal) en V si f es lineal en cada variable, es decir, si para i = 1, ... , m ,

/(... ' a;+bv, ...) =

af(.. .• u, ...) + bf(. ..• ii, ...)

do nde • denota Ia variable i-esima, manteniendose fijas el resto de las variables. Se dice que una forma m-lineal f es a/ternada si siempre que Demostra r: a)

El conjunto B,.(V) de las formas m-lineales' e n V es un subespacio del espacio vectorial de las funciones de V x V x ··· x V en K.

b)

El conjunto A,.(V) de las formas m-lineales a lternadas en V es un subespacio de B,.( V) .

Nota 1:

Si m = 2, obtenemos el espacio B(V) estudiado en este capitulo.

Nota 2:

Si V = K"', Ia funci6n determina nte es una forma m-lineal alternada particular en V.

502

ALGEBRA LINEAL

13.20. b)

(~

0

(-~

- 4

13.26. a)

1

0 3

-8

13.27. a)

b)

')

P= G

P ~(~ p

~ (~

~)

2 0 4 0

-·)

1

7 ' 5

7

-

-3) 2 ' pT»(2 0 2 0

~)·

-1

-1

l 0 0

3 l 0

( 10

b)

0 1 ! 0

0) ; -2

P'AP

r

-t)

l 0

')

!

4

(i i)

= 2, s = 0.

~ (i 0 0)

0 ; r -38

2 0

0

13 0 PTAP = (' 26) 9 , 0 7

(~ ~)· !

0 ' 0

0

0 0

= 3, s =

0 0 -7 0

1.

j); ' ~4, •~2

0

t

CAPITULO

14

Operadores lineales en espacios con producto interne

14.1.

INTRODUCCION

Este capitulo investiga el espacio A(V) de operadores lineales T en un espacio con producto interno V. (Vease el Capitulo 6.) Asi el cuerpo base K sera bien el cuerpo real R o bien el cuerpo complejo C. De hecho, se usani una terminologia diferente para el caso real y para el caso complejo. Utilizaremos tambien el hecho de que el producto interno en el espacio euclideo Rn puede definirse segun ( U, v) =

UTV

y el producto interno en el espacio euclideo complejo (u, V)

en, segun

=UTV

donde u y v son vectores columna. El lector debe revisar el material del Capitulo 6. En particular, debe familiarizarse con las nociones de norma (longitud), ortogonalidad y bases ortonormales. Por ultimo, debemos mencionar que el Capitulo 6 trataba principalmente de espacios reales con producto interno. Sin embargo, aqui supondremos que V es un espacio complejo con producto interno, a me.nos que se establezca o sobrentienda lo contrario.

14.2.

OPERADORES ADJUNTOS

Comenzamos con Ia siguiente definicion basica.

Definicion: Se dice que un operador lineal T en un espacio con producto interno V tiene un operador adjunto T* en V si ( T(u), v) = ( u, T*(v)) para todos los u, v e V.

503

504

ALGEBRA LINEAL

EI proximo ejemplo muestra que ei operador adjunto admite una descripci6n sencilla dentro del contexto de las aplicaciones matriciales. EJEMPLO 14.1

a)

Sea A una matriz n-cuad rad a real vista como operador lineal en R". Para todo los u, ve R",

(Au, v)

= (Aulv = u7 A 7 v =

( u, Arv)

De este modo, Ia matriz traspuesta AT es el adjunto de A. b)

Sea B una matriz n-cuadrada compleja vista como opera dor lineal en C". Para todos los u, vEC", ( Bu, v)

=

(Bu)Tii

La matriz traspuesta conjugada B•

=

=

u 7 BTii

=

UT jjTfj

= UT .B•v = ( u,

n• v)

[JT es, pues, el adjunto de B.

Nota: La notaci6n B* se ha empleado para designar el adjunto de By previamente para designar Ia traspuesta conjugada de B. El Ejemplo 14.1 muestra lo afortunado de tal coincidencia. El teorema enunciado a continuaci6n, demostrado en el Problema 14.4, es el resultado principal de Ia secci6n. Teorema 14.1: Sea T un operador lineal en un espacio con producto interno de dimension finita V sobre K. Entonces: i)

Existe un (mico operador lineal T* en V tal que ( T(u}, v) = ( u, T*(v)) para todos los u, vE V. (Esto es, T tiene un adj unto T* .) ii) Si A es Ia representaci6n matricial de T con respecto a cualquier base ortonormal S = { u;} de V, Ia representaci6n matricial de T* en Ia base S es la traspuesta conjugada A* de A ( o la traspuesta AT si K es real). Subrayamos que no existe una relaci6n sencilla semejante entre las matrices q ue representan T y T * si Ia base no es ortonormal. Vemos asi una propiedad util de las bases o rtonormales. Hacemos enfasis tambien en que este teorema no es valido si V tiene dimension infinita

(Problema 14.3 1). EJEMPLO 14.2.

Sea Tel operador lineal en C 3 definido mediante T(x, y, z) = (2x

+ iy, y -

5iz, x

+ (1 -

i)y + 3z)

Hallemos una formula similar para e1 adjunto T* de T. Notese (Problema 10.1) que Ia matriz de Ten Ia base usual de C 3 es

[T]

=

(~ l

1 l- i

-~i) 3

Recordemos que Ia base usual es ortonorma l. De esta manera, segun el Teorema 14.1, Ia matriz de T * en esta base es Ia traspuesta conjugada de [T):

[~-( -~

0 1 Si

1 ) 1+i 3

OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO

505

En consecuencia, T*(x, y, z) = (2x

+ z,

-ix

+ y + (1 + i)z, Siy + 3z)

El siguiente teorema, demostrado en el Problema 14.5, resume algunas de las propiedades del adjunto. Teorema 14.2:

i) (T1

Sean T, T 1 , T 2 operadores lineales en Vy kEK. Entonces:

+ T2)* =

Tf

+

T~

ii) (kT)• = kT*

iii)

( T1 T2 )*

iv) (T*)*

= T! Tf

=T

Observese Ia similitud entre el teorema precedente y el Teorema 3.3 relativo a las propiedades de Ia operaci6n de trasposici6n sobre las matrices.

FUNCIONALES LINEALES Y ESPACIOS CON PRODUCTO INTERNO Recordemos (Capitulo 12) que un funcional lineal ¢ en un espacio vectorial V es una aplicacion lineal de V en el cuerpo base K. Esta subsecci6n contiene un importante resultado (Teorema 14.3) que se emplea en la demostracion del Teorema 14.1. Sea V un espacio con producto interno. Cada u E V determina una aplicacion u: V-... K definida por U(v) = (v, u)

Ahora, para dos escalares cualesquiera a, U(av 1

+ bv2 ) =

(av 1

bE K

+ bv2 , u) =

y dos veeto res cualesq uiera v1 , v2 E V,

a(vu u)

+ b(v2 , u) = aU(vt) + bU(vz)

u

Es decir, es un funcionallineal en V. El reciproco tambien es cierto para espacios de dimension finita y es un importante teorema (demostrado en el Problema 14.3). A saber, Teorema 14.3: Sea ¢ un funcional lineal en un espacio con producto interne de dimension finita V. Existe un (mico vector uEV tal que ¢(v) = (v, u) para todo vEV. Seiialamos que e1 teorema precedente no es valido para espacios de dimension infinita (Problema 14.24), aunque se conocen algunos resultados generales que apuntan en esta direccion. (Uno de tales resultados es el famoso teorema de representacion de Riesz.)

14.3. ANALOGIA ENTRE A( Jl) Y C. OPERADORES ESPECIALES Denotemos por A(V) el algebra de los operadores lineales en un espacio con producto interno de dimension finita V. La aplicacion adjunta TH T* en A(V) presenta bastantes analogias con la aplicacion de conjugacion z 1-+ z en el cuerpo complejo C. Para ilustrar esta analogia identificamos en la Tabla 14.1 ciertas clases de operadores TEA(V) cuyo comportamiento bajo la aplicacion adjunta imita el comportamiento bajo conjugacion de clases familiares de numeros complejos.

506

ALGEBRA LINEAL

Tabla 14-1 Clase de numeros complejos

Comportamiento bajo conjugacion

Clase de operadores en A(V)

Comportamiento bajo Ia aplicacion adjunta

Circulo unidad (lzl =I)

i = 1/z

Operadores ortogonales (caso real) Operadores unitarios (caso complejo)

T* = y-L

Eje real

Operadores autoadjuntos Tambien llamados: simetricos (caso real) hermiticos (caso complejo)

Z=Z

Eje imaginario

Operadores anti-autoadjuntos Tambien llamados: antisimetricos (caso real) antihermiticos (caso complejo)

z= -z

Semieje real positivo (0, oo)

z = WW,

T* = T

w i=

0

T* = -T

T= S*S con S no singular

Operadores definidos positives

La analogia entre estas clases de operadores T y de numeros complejos z se refleja en el teorema que ahora enunciamos. Sea A. un valor propio de un operador lineal Ten V.

Teorema 14.4:

i) Si T* = T- 1 (es decir, si T es ortogonal o unitario), IJ.I = I. ii) Si T* = T (es decir, si T es autoadjunto), A. es real. iii) Si T* = - T (es decir, si T es anti-autoadjunto), A. es imaginario puro. iv) Si T = S* S con S no singular (es decir, si T es definido positivo), }. es real y positivo. Demostracion. En cada caso, v sera un vector propio no nulo de T perteneciente a 2, o sea, T(v) = J.v con v =1: 0; por tanto, (v, v) sera positivo. Dernostracion de i):

Probamos que A.J:(v, v)

.AJ(v, v) = (A.v, .A.v)

= (v,

= (T(v), T(v)) =

v):

(v, T*T(v)) = (v, /(v))

=

(v, v)

Pero (v, v) =/: 0, luego A.A = 1 y asi IA.I = 1. Dernostracion de ii):

Probamos que .A.(v, v)

= X(v,

A.(v, v) = (..tv, v) = (T{v), v) = (v, T*{v))

v):

= (v,

T(v))

= (v, A.v) =

l(v, v)

Pero (v, v) =1: 0, luego A= X y asi A es real. Demostracibn de iii):

= (A.v, v) = (T{v), v) = (v, T*(v)) = (v, - T{v)) = (v, -A.v) = -l(v, v) 0, luego A.= -1 oX= -A. y asiA. es imaginario puro.

A.(v, v)

Pero (v, v) =1:

Probamos que A.(v, v) = -X(v, v):

OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO

507

Demostracion de iv): Notese primero que S(v) # 0 porque S es no singular, luego ( S(v), S(v)) es positive. Problemas que A.(v, v) = ( S(v), S(v)):

A.(v, v) = (A.v, v) = ( T(v), v) = (S•S(v), v) = (S(v), S(v))

Pero (v, v) y (S(v), S(v)) son positives; por consiguiente, }, es positivo. Nota: Cada uno de los operadores T anteriores conmuta con su adjunto, es decir, TT* Tales operadores se denominan operadores normales.

= T* T

14.4. OPERADORES AUTOADJUNTOS Sea T un operador autoadjunto en un espacio con producto interno V, esto es, supongamos

r• = T (En caso de que T se defina mediante una matriz A, A sera simetrica o hermitica, segun sea real o compleja.) En virtud del Teorema 14.4, los valores propios de T son reales. Otra importante propiedad de T es la que sigue. Teorema 14.5: Sea T un operador autoadjunto en V. Supongamos que u y v son vectores propios de T pertenecientes a valo res propios distintos. Entonces u y v son ortogonales, o sea, ( u, v) = 0. Demostracion. = A. 2 ( u, v):

Supongamos T (u) =A. 1 u y T(v)= A.2 v, donde A. 1 # .A2 . Probamos que .A 1( u, v) = A. 1 (u, v) = (A. 1u, v) = ( T(u), v) = ( u, T•(v)) = ( u, T(v)) = = (u, A. 2 v) =

Az(u, v)

=A.2 ( u,

v)

(La cuarta igualdad utiliza que T* = T y la ultima que el valor propio )..2 es real.) Dado que # A. 2 , conseguimos (u, v) = 0. Queda, pues, demostrado el teorema.

}. 1

14.5. OPERADORES ORTOGONALES Y UNITARIOS Sea U un operador lineal en un espacio con producto interno de dimension finita V. Recordemos que si U* =

u -• . o equivalentemente

UU* = U*U = I

se dice que U es ortogonal o unitario, segun sea real o complejo el cuerpo subyacente. El proximo teorema, demostrado en el Problema 14.10, proporciona caracterizaciones alternativas de estos operadores. Teorema 14.6: i)

U*

Las siguientes condiciones sobre un operador U son equivalentes:

= u-•, esto es,

UU* = U* U = I.

508 ii)

ALGEBRA LINEAL

U preserva los productos internos, es decir, para todos los v,

wE

V,

(U(v), U(w)) = (v, w)

iii)

U preserva las longitudes, es decir, para todo vEV, IIU(v) ll

=

llvll .

EJEMPLO 14.3 a) Sea T: R 3 ---+ R 3 el operador lineal que gira cada vector alrededor del eje z un angulo (J fijo como se muestra en Ia Figura 14-l, esto es, el definido por

T(x, y, z) = (x cos 0- y sen 8, x sen 0

+y

cos 0, z)

Notese que las longitudes (distancias desde el origen) se preservan bajo T. Siendo asi, T es un operador ortogonal.

y

Figura 14-1. b)

Sea Vel espacio 12 del Ejemplo 6.3 b). Sea T: V-+ Vel operador lineal definido por T(a 1 , a 1 ,

...) =

(0, a 1, a 1 ,

...)

Claramente, T preserva los productos internes y las longitudes. No obstante, T no es suprayectivo ya que, por ejemplo, (1, 0, 0, ...) no pertenece a Ia imagen de T; por tanto, T noes invertible. Vemos, pues, que e1 Teorema 14.6 no es valido para espacios de dimension infinita.

Un isomorfismo de un espacio con producto interno en otro es una aplicaci6n biyectiva que preserva las tres operaciones basicas de un espacio con producto interno: suma de vectores, producto por un escalar y producto interno. De este modo, las aplicaciones precedentes (ortogonales y unitarias) pueden caracterizarse tambien como los isomorfismos de V en si mismo. N6tese que una aplicaci6n lineal tal, U, preserva asimismo las distancias, puesto que IIU(v)- U(w)ll

=

IIU(v- w)l\

=

1\v -- wll

Por esa raz6n U se llama una isometria.

14.6.

MATRICES ORTOGONALES Y UNITARIAS

Sea U un operador lineal en un espacio con producto interno V. De acuerdo con el Teorema 14.1, obtenemos el result ado que ahora enunciamos cuando el cuerpo base K es complejo.

OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO

509

Teorema 14.7A: U na matriz A con entradas complejas representa un operador unitario U (respecto a una base ortonormal) si y solo si A * = A- 1 .

Por otra parte, si el cuerpo base K es real, A* = Ar, luego tenemos el teorema correspondiente a espacios reales con producto interno siguiente. Teorema 14.7B: Una matriz A con entradas reales representa un operador ortogonal U (respecto a una base ortonormal) si y solo si AT = A - l.

Los teoremas anteriores motivan las definiciones escritas a continuaci6n.

Definicion: Una matriz compleja A para Ia que A* = A-1, o equivalentemente AA"' =A* A= I, recibe el nombre de matriz unitaria. Definicion: Una matriz real A para Ia que AT= A - 1 , o equivalentemente AAT =ATA= I, recibe el nombre de matriz ortogonal. Observese que una matriz unitaria con entradas reales es ortogonal. EJEMPLO 14.4 . Supongamos que A = (a

1

bl

a2 ) es una matriz unitaria. En tal caso, AA* =I y por b2

tanto

De esta manera, y

En consecuencia, las filas de A forman un conjunto ortonormal. De forma similar, A* A= I obliga a las columnas de A a formar un conjunto ortonormal.

El resultado del ejemplo precedente es cierto en general; a saber, Teorema 14.8:

i) ii) iii)

14.7.

Las siguientes condiciones sobre una matriz A son equivalentes:

A es unitaria (ortogonal).

Las filas de A forman un conjunto ortonormal. Las columnas de A forman un conjunto ortonormal.

CAMBIO DE BASE ORTONORMAL

En vista del papel especial de las bases ortonormales en Ia teoria de los espacios con producto interno, estamos interesados, naturalmente, en las propiedades de Ia matriz de cambio de base desde una de estas bases basta otra. Disponemos del siguiente teorema, demostrado en el Problema 14.12.

510

ALGEBRA LINEAL

Teorema 14.9: Sea {u1 , ... , un} una base ortonormal de un espacio con producto interno V. La matriz de cambio de base desde {u;} basta o tra base ortonormal es unitaria ( ortogonal). Redprocamente, siP= (aij) es una matriz unitaria (ortogonal), Ia que sigue es una base ortonormal: {u~ =

aliu 1 + a 2 ;u2

+ ··· + a.,;u.,: i =I, . .. , n}

Recordemos '"'Ue dos matrices A y B que representan el mismo operador lineal T son similares, o sea, B = p - t AP, donde P es Ia matriz de cambio de base (no singular). Por otra parte, si V es un espacio con producto interno, suele interesarnos el caso en que P es unitaria (u ortogonal) como sugiere el Teorema 14.9. (Recuerdese que Pes unitaria si P* = p - t, y ortogonal si pr = p- 1 .) Esto nos conduce a Ia definicion que enseguida escribimos.

Definicion: Dos matrices complejas A y B son unitariamente equivalentes si existe una matriz unitaria P para Ia cual B = P* AP. Analogamente, dos matrices reales A y B son ortogonalmente equivalentes si existe una matriz ortogonal P para Ia cual B = pr AP. Notese que las matrices ortogonalmente equivalentes son necesariamente congruentes.

14.8.

OPERADORES POSITIVOS

Sea P un operador lineal en un espacio con producto interno V. Se dice que P es positivo (o semidefinido) si

P = S* S

para algun operador S

y se dice que es definido positivo si, ademas, S es no singular. Los proxtmos teoremas dan caracterizaciones alternativas de estos operadores. (El Teo rem a 14.1OA se demuestra en e1 Problema 14.21.) Teorema 14.10A: i) ii) iii)

Las siguientes condiciones sobre un operador P son equivalentes:

2

P = T para algun operador autoadjunto T.

P es positivo. P es autoadjunto y ( P(u), u) ;;::: 0 para todo u E V.

El teorema correspondiente para operadores definidos positivos es Teorema 14.10B:

Las siguientes condiciones sobre un operador P son equivalentes:

2

i) ii)

p a ra a lgun operador autoadjunto no singular T. P es definido positivo.

iii)

P es a utoadjunto y (P(u), u) > 0 para todo u ~ 0 en V.

14.9.

P= T

DIAGONALIZACION Y FORMAS CANONICAS EN ESPACIOS EUCLIDEOS

Sea T un operador linea l en un espacio con producto interno de dimension finita V sobre K. La representacion de T mediante una matriz diagonal depende de los vectores propios y valores

OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO

511

propios de T y por tanto de las raices del polinomio caracteristico il(t) de T. Ahara bien, Ll(t) siempre se factoriza en polinomios lineales sabre el cuerpo complejo C, pero puede no tener polinomios lineales sabre el cuerpo real R como factores. La situaci6n para espacios euclideos (donde K = R) es inherentemente distinta de Ia situaci6n para espacios unitarios (donde K = C); de ahi que los tratemos por separado. Investigamos los espacios euclideos abajo (vease Ia demostracion del Teorema 14.11 en el Problema 14.14) y los espacios unitarios en la siguiente secci6n. Teorema 14.ll: Sea T un operador simetrico (autoadjunto) en un espacio real con producto interno de dimension finita V. Existe una base ortonormal de V constituida por vectores propios de T; esto es, T puede representarse por una matriz diagonal respecto a una base ortonormal. Demos el enunciado correspondiente a matrices. Teorema 14.11 (forma alternativa): Sea A una matriz real simetrica. Existe una matriz ortogonal P tal que B = p - l AP = pTAPes diagonal. Podemos elegir las columnas de la matriz ortogonal anterior P como vectores propios ortogonales normalizados de A; entonces las entradas diagonales de B son los correspondientes valores propios.

FORMA CANONICA PARA OPERADORES ORTOGONALES

Un operador ortogonal T no es necesariamente simetrico, por lo que puede no admitir una matriz simetrica como representaci6n relativa a una base ortonormal. Sin embargo, tal operador T tiene una representaci6n can6nica simple, como se describe en el siguiente teorema, demostrado en el Problema 14.16. Teorema 14.12: Sea T un operador octagonal en un espacio real con producto interno V. Existe una base ortonormal con respecto a la cual T tiene la forma: 1 1 I

- - - -- - ---- - ~ -- -------------; I I

-1

-1

'I

-1

I

~ -- ---------- - --~- -- - - - - -- - - -,

el ~s~~ _8_1__ __c5'~ _e.:_:

1 COS I

el

- sen

I 1

.- -- e,

- Sen

: seu fJ,

cos

-- - ---- - - -

I

1

COS

f}

r

e,

512

ALGEBRA LINEAL

El lector podra reconocer cada uno de los bloques diagonales 2 x 2 precedentes como una rotacion en el subespacio bidimensional correspondiente, y cada entrada diagonal - l como una reflexion en el subespacio unidimensional correspondiente. ·

14.10. DIAGONALIZACION Y FORMAS CANONICAS EN ESPACIOS UNITARIOS Presentamos ahara el teorema de diagonalizacion fundamental para espacios complejos con producto interne. es decir. para espacios unitarios. Recordemos que un operador T se dice normal si conmuta con su adjunto. o sea, si TT* = T* T. Analogamente, una matriz complejn A se dice normal si conmuta con su traspuesta conjugada, o sea, si AA • = A • A. EJEMPLO 14.5. Sea A= (I

i

3

(1 1x1 x1 = (1

AA•-

A•A

I )· Entonces

+ 2i i

3+2i

3- 3i) -i ) ( 2 1 3 - 2i = 3 + 3i 14

-i

1 3- 2i

i

1 )

3

+ 2i

( =

2

3

+ 3i

314

3i)

De este modo , A es una matriz normal.

Es aplicable el teorema enunciado a continuaci6n. Teorema 14.13: Sea T un operador normal en un espacio complejo con producto interne de dimension finita V. Existe una base ortonorrnal de V constituida por vectores propios de T; esto es, T puede representarse por una matriz diagonal respecto a una base ortonormal. Demos el enunciado correspondiente para matrices. Teorema 14.13 (forma alternativa): Sea A una rnatriz normal. Existe una matriz unitaria P tal que B = p - t AP = P* AP es diagonal. El siguiente teorema rnuestra que incluso los operadores no normales en espacios unitarios tienen una forma relativarnente sencilla. Teorema 14.14: Sea T un operador arbitrario en un espacio complejo con producto interno de dimension finita V. Entonces T puede representarse por una matriz triangular respecto a una base ortonorrnal de V. Teorema 14.14 (forma alternativa): Sea A una matriz compleja arbitraria. Existe una rnatriz unitaria P tal que B = p- 1 AP = P* AP es triangular.

14.11. TEOREMA ESPECTRAL El teorema espectral es una reforrnulaci6n de los Teoremas 14.11 y 14.13 de diagonalizaci6n.

OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO

513

Teorema 14.15 (teorema espectral): Sea T un operador normal (simetrico) en un espacio complejo (real) con producto internode dimension finita V. Existen operadores lineales E 1 , .. . , Er en V y escalares /. 1 , ... , .?.r tales que i)

T = A. 1 E 1

+ A.2 E 2 + ·· · + I.,E,

ii) E 1 +E1 +···+E,=l

iii) E~ = £ 1 ,

•• • ,

E; = E,

E1 E1 =0Parai=;tj

iv)

Los operadores lineales anteriores £ 1 , ••. , Er son proyecciones (o proyectores), en el sentido de que E~ = Ei. Mas aim, son proyecciones ortogonales porque tienen Ia propiedad adicional de que EiEi = 0 para i =I= j. El proximo ejemplo muestra la relacion entre una representacion matricial diagonal y las· proyecciones ortogonales correspondientes. 2 3 l ) Se'" EJEMPlO 14.6. Con•ide"mo• un• di•gon•l, dig•mo• (

mot<~

A~

£,-(' OOO) £,{

I .)

0 E,-( OO

J

El lector puede comprobar que: iii)

E~ = E 1 ,

iv) E 1 E1 = 0 para it= j_

PROBLEMAS RESUELTOS

ADJUNTOS

3 -7i 14.1.

Hallar el adjunto de la matriz B =

.

La traspuesta conjugada es B*

14.2.

(

-1i 8

+i

(3 + 71 =

18 4- i

i)

18 4+ 6- i 2- 3i . 7 + 9i 6 + 3i

i)

7i 86 + i 7- 9i . 2 + 3i 6-31

Hallar el adjunto de cada operador lineal: a)

F: R 3 -+ R 3 definido por F(x, y, z) = (3x

+ 4y- 5z, 2x - 6y + 7z, 5x- 9y + z).

514

ALGEBRA LINEAL

G : C3

b)

-+

C 3 definido por G(x, y, z) = (2x + (l - 1)y, (3

+ 2Qx -

4iz, 2ix

+ (4 -

3i)y - 3z)

a ) Primero hallamos Ia matriz A que representa Fen Ia base usual de R 3 . (Recuerdese que las fil as de A son los coeficientes de x. y, z.)

3

A= 2

(

5

4 -6 - 9

-5) 7 1

Siendo R el cuerpo base, el adjunto F* esta representado por Ia traspuesta Ar de A . Construimos, pues. AT=

3 2 5) (-54 -67 -91

Entonces F*(x, y , z) = (3x + ly + 5z. 4x - 6y- 9z, - 5x + 7y + z). Primero hallamos Ia matriz B que representa a G en Ia base usual de C 3 :

b)

B=

(

2 1-i 0)

3 + 2i 0 2i 4- 3i

-4i -3

Construimos Ia traspuesta conjugada B* de B:

2 3- 2i -2i) 4 + 3i 0

B*= l+i 0

(

4i

-3

De es te modo, G*(x, y, z) = (2x + (3- 2i)y- liz, ( I+ i)x + (4 + 3i)z, 4iy- 3z).

14.3. Demostrar el Teorema 14.3. Sea {w1 ,

••. ,

w.} una base ortonormal de V. Tomemos u = (w 1)w 1 + (w2)w2 + · · · +

Sea

u e[ funcional

lineal en U(wJ =

v definido (w~o

(wJw~

por u(v) = (v, u) para todo

+ · · · + cl>(wJw.) base, u = q,.

u) = ( w1 , (w 1)w1

VE

v.

Para i = I, ... , n,

= 4J(w;)

Como u y q, coinciden sobre cada vector de Ia Supongamos ahora que u' es otro vector en V para el cual l/J(v) = (v, u') para todo ve V. En ese caso, (v, u) = ( v, u'), o sea, (v, u - u') = 0. En particular, esto es c:ierto para v = u - u' y asi ( u - u', u - u') = 0. Esto nos conduce a u - u' = 0 y u = u'. Tal vector u es, pues, unico, como se pretendia probar.

14.4.

Demostrar el Teorema 14.1. Demostracion de i): Comenzamos definiendo Ia aplicaci6n r•. Sea v un elemento arbitrario pero fijo en V. La aplicaci6n 11~--> ( T(u), v) es un funcional lineal en V. Por tanto, segun el Teorema 14.3, existe un

OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO

515

unico elemento v'E V tal que ( T(u), v) = ( u, v') para todo UEV. Definimos T*:V -> V por T*(v) = v'. Entonces ( T(u), v) = ( u, T*(v) ) para todo par de vectores u, vE V. Probamos a continuacion que T* es lineal. Para cualesquiera u, V;E V y a, bEK, (u, T*(av 1

+ bv:J> =

+ bv2 ) = T*(v 1)) + b(u,

+ b(T(u), v2 ) = T*(v2 )) = ( u, aP(v 1 ) + bT*(v2 )) luego T* (av1 + bv2 ) = aT* (v1 ) + bT* (v2 ). De este modo,

( T(u), av 1

= a(u,

Pero esto se cumple para todo u E V, T* es lineal.

a(T(u), v1 )

Demostraciim de ii): Las matrices A = (ali) y B = (b;) que representan T y P, respectivamente, en Ia base S = { u1} vienen dadas por aij = (T(u), ui) y bij = (T*(u), u;) (vease el Problema 6.23). Por consiguiente,

Asi pues, B = A*, como queriamos demostrar.

14.5.

Demostrar el Teorema 14.2. i) Pa ra vectores cualesquiera u, v e V, ((T1

+ T 2)(u), v) =

('I;(u) + T2(u), v) = ( T1(u), v) + (T2(u), v) = + (u, Tf(v)) = ( u, Tf(v) + Tf(v)) =

= ( u, T~(v))

+ T~)(v)) implica (T1 + T 2 )* = Tt + Tt. = (u, (T1

La unicidad del adjunto ii) Para vectores cualesq uiera u, v E V,

((kT)(u), v) = (kT(u), v) = k(T(u), v) = k(u, T*(v)) = (u, kT*(v))

La unicidad del adjunto implica (kT)* iii)

=

= (u, (kT•)(v))

k T*.

Para vectores cualesquiera u, v E V, ((T1 T;)(u), v) = ( T1 (T2 (u) ), v) = ( T2(u), TT(v)) = =

(u,

T~(Tj(v)))

La unicidad del adjunto implica (T1 T2 )* =

= ( u, (T!Tf)(v))

Ti Tt

iv) Para vectores cualesquiera u, v e V, (T*(u), v) = (v, T*(u)) = ( T(v), u) = ( u, T(v))

La unicidad del adjunto implica (T*)* = T.

14.6.

Probar que: a) I* =I,

y b) o• =

0.

a) Para todos los u, VE V, (l(u), v> = ( u, v) = ( u, I(v)), luego r• = I. b) Para todos los u, vE V, ( O(u), v ) = ( 0, v ) = 0 = ( u, 0) = ( u, O(v)), luego 0*

14.7. Sup6ngase que T es invertible. Mostra r que (T- 1 )* = (T*) - 1 . I = 1* = (IT- 1 )* = (T- 1 )*T*, luego (T- 1 )* =

r• - 1 .

= 0.

516 14.8.

ALGEBRA LINEAL

Sean T un operador lineal en V y W un subespacio T-inva riante de V Probar que WJ. es invariante bajo T*. Sea uE W .l. Si wE W, T(w)E W y asi (w, T*(u)) = ( T(w), u) = 0. De esta manera, T*(u)E W.l ya que es ortogonal a todo wE W. Por tanto, W.l es invariante bajo T"'.

14.9.

Sea T un operador lineal en V. Mostrar que cada una de las siguientes condiciones implica T = 0: i)

(T( u), v)

= 0 para todos los

u, vE V.

ii)

V es un espacio complejo y ( T(u), u) = 0 para todo

iii)

T es autoadjunto y (T(u), u) = 0 para todo u E V.

uE

V.

Dar un ejemplo de un operador Ten un espacio real V para el que ( T(u ), u) = 0 para todo u E V pero T =1= 0. [Asi pues, ii) no se cumple necesariamente para un espacio real V.] i)

Tomemos v = T(u). En tal caso, ( T(u), T(u)) consecuencia, T = 0.

ii)

Por hipotesis, ( T(v + w), v + w) = 0 para cualesquiera v, wE V. Desarrollando y tomando ( T(v), v) = 0 y ( T(w), w) = 0, (T(v), w)

= 0,

+ (T(w), v)

luego T(u) = 0 para todo IIE·V. En

= 0

[I]

Notese que w es arbitrario en[\]. Sustituyendo w por iw y usando (T(v), iw) = i (T(v), w) = = -i(T(v), w) y ( T(iw), v) = (iT(w), v) = i(T(w), v), -i(T(v), w)

+ i(T(w).

v) = 0

Dividiendo por i y sumando el resulado a ·[1] obtenemos ( T(w), v) = 0 para cualesquiera v, wE V. Por i), T = 0. iii)

Por ii) el resultado se cumple en el caso complejo; de ahi que solo necesitemos considerar el caso real. Desarrollando ( T(v + w), v + w) = 0 llegamos nuevamente a (1]. Puesto que T es autoadjunto y el espacio es real, tenemos (T(w), v) = (w:· T(v)) = (T(v), w). Sustituyendolo en [I] obtenemos (T{v), w) = 0 para cualesquiera v, we V. De acuerdo coni), T = 0.

Para nuestro ejemplo, consideremos el operador lineal Ten R 2 definido por T(x, y) = (y, - x). Entonces ( T(u), u) = 0 para todo u E V, pero T 0.

"*

OPERADORES Y MATRICES ORTOGONALES Y UNIT ARIOS 14.10.

Demostrar el Teorema 14.6. Supongamos que se cumple i). Para todo par de vectores v, wE V, ( U(v), U(w)) = ( v, V"'V(w)) = (v, /(w)) = (v, w) De este modo, i) implica ii). Ahora bien, si se verifica ii),

IIV(v)ll = .j(U(v), U(v)) = ~ = llvll Por consiguiente, ii) implica iii). Queda probar que iii) implica i).

OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO

517

Supongamos que se cumple iii). En ese ca.so, para todo ve V, (U•U(v), v) = (U(v), U(v)) = (v, v) = (J(v), v)

Por tanto, ( (U*U -l)(v), v) = 0 para todo VE v. Pero u•u - 1 es autoadjunto (demuestrese); entonces, por el Problema 14.9, tenemos U* U- I= 0, por lo que U* U =I. Asi que U* = u - •, como se habia anunciado.

14.11.

Sean U un operador unitario (ortogonal) en V y W un subespacio invariante bajo U. Mostrar que W.l tambien es invariante bajo U. Como U es no singular, U(W) = W; esto es, para cualquier we W existe w' e W tal que U(w') = w. Sea ahora veWJ.. Para cualquier weW, ( U(v), w)

=

(U(v), U(w'))

=

(v, w') = 0

De esta manera, U(v) pertenece a W .i. Por tanto, WJ. es invariante bajo U.

14.12.

Demostrar el Teorema 14.9. Supongamos que {v;} es otra base ortonormal y que II;=

b 01 u1

+ b12 u2 + ·· · + b 1.u.

i = 1, .. . , n

[1]

Dado que {v;} es ortonormal, {)ii = ( v;, vi)=

bilb11

+ b;2 b12 + ·· · + b;.bJ•

[2]

Sea B = (b;) Ia matriz de coeficientes en [1]. (Entonces ~ es Ia_!!!atriz de cambia de base desde {u;} basta {v;}.) En tal caso, BB* = (cij), donde cfJ = b; 1 bi1 + b;2 bi2 + ··· + b;•bJ•· Por [2], c;J = {)ii y por consiguiente BB* =I. De acuerdo con esto, B y por tanto BT son unitarias. Resta probar que {u;} es ortonormal. Segim el Problema 6.23,

donde C; denota Ia columna ;-esima de Ia matriz unitaria (ortogonal) P = (a;j). Siendo P unitaria (ortogonal), sus columnas forman un conjunto ortonormal, luego (u;, uj) = (C;, C1) = b;J· Asi pues, {u;} es una base ortonormal.

OPERADORES SIMETRICOS Y FORMAS CANONICAS EN ESPACIOS EUCLIDEOS 14.13.

Sea T un operador simetrico. Probar que: a) el polinomio caracteristico .1.(t) de T es producto de polinomios lineales (sabre R); b) T tiene un vector propio no nulo. a)

Sea A Ia matriz que representa a T respecto a una base ortonormal de V; entonces A = AT. Sea Ll(t) el polinomio caracteristico de A. Viendo A como un operador autoadjunto complejo, A solo tiene valores propios reales en virtud del Teorema 14.4. Siendo asi,

donde los i.; son todos reales. En otras palabras, Ll(t) es producto de polinomios lineales sobre R. b)

Por a), T tiene al menos un valor propio (real). De aqui que T tenga un vector propio no nulo.

518 14.14.

ALGEBRA LINEAL

Demostrar el Teorema 14.11. Se demuestra por inducci6 n en la dimension de V. Si dim V = 1, el teorema se cumple trivialmente. Supongamos ahora dim V = n > I. Segun el Problema 14.1 3, existe un vector propio no nulo v 1 de T. Sean W el espacio generado por v1 y u 1 un vector unitario en W, por ejemplo,

ut

=

vt/ll vtll.

Como v1 es un vector propio de T, el subespacio W de V es invariante bajo T. Por el Problema 14.8, W .L es invariante bajo T"' = T. D e este modo, Ia restricci6n t de T a Wj_ es un operador simetrico. De acuerdo con el Teorema 6.4, V = W E9 W.L. Por tanto, dim W.L = n - I porque dim W = 1. Por inducci6n, existe una base o rtonormal {u 2 , ••• , u.} de W.L que co nsiste en vectores propios de Ty por ende de T. Pero ( u1 , u;) = 0 para i = 2, ... , n puesto que u; E W.L. En consecuencia, {u 1, u 2 , • •. , u.} es un conjunto ortonormal constituido por vectores propios de T. Queda, pues, demostrado el teorema.

14.15.

Encontrar un cambio de coordenadas ortogonal que diagonalice Ia forma cuadratica real definida como q(x, y) = 2x 2 + 2xy + 2y2 . Empezamos hallando la matriz simetrica A que representa a q y despues su po linomio caracteristico ll(t ): it-

(-t2 1) 2

~(t)

y

l -·I

=I t1- A I= t - 2 -1

t- 2

= (t - 1Xt- 3)

Los va1ores propios de A son I y 3, luego Ia forma d iagonal de q es q(x', y') = x' 2

+ 3y'2

Hallamos Ia transformaci6n de coordenadas asociada obteniendo un conj unto ortonormal de vectores propios de A correspo ndientes. Hacemos t = I en la matriz t i - A para llegar al sistema homogeneo.

y= 0

-X-

-x-y = O

Una soluci6n no nula es v 1 = (1, - 1). Ahora hacemos t = 3 en Ia matriz tl - A para encontrar el sistema homogeneo

x -y= O

-x

+y=

0

Una soluci6n no nula es v2 = (1 , 1). Como cabia esperar del Teorema 14.5, v 1 y v2 son ortogonales. Normalizamos v 1 y v2 para obtener la base ortonormal.

{ut

=

(1/.fi, - 1/.ji), U 2

=

(1 /.ji, lf.fi)}

La matriz de transici6n P y Ia transformaci6n de coordenadas requerida son las siguientes:

p

1/.fi t;.fi) = ( -1/.fi 1/.fi

x = (x'

y

0

+ y')j.ji

y = ( -x + y')/.fi

N6tese que las columnas de P son u 1 y u 2 . T ambien podemos expresar x' e y' en terminos de x e y utilizando p- 1 = Pr; esto es, x' = (x-

14.16.

y)fJZ

y' = (x

+ y)/.ji

Demostrar el Teorema 14.12. SeaS = T + T - 1 = T + T*. E ntonces, S* = (T+ T*)"' = P + T = S. Asi que S es un operador simetrico en V Po r el Teorema 14. 11, existe una base ortonormal de V formada por vectores

OPERADORES LINEALES EN ESPACIOS CON PRODU CTO INTERNO

519

propios de S. Si i. 1• •••• i.., denotan los valores propios distintos de S. V puede descomponerse en Ia sum a direct a V = V1 EEl V2 EE> · · · EE> Vm, don de V; consiste en los vectores propios de S pertenecientes a i.;. Afirmamos que cada V; es invariante bajo T. En efecto. supongamos ce V;: en ese caso. S(r) = i.;!' y S(T(v))

= (T + T - 1)T(v) = T(T + T- 1)(v)

= = TS(v)

T(A.; v)

=

A.1 T(v)

Esto es. T(r)e V;. Por consiguiente. V; es invariante bajo T. Puesto que los V; son ortogonales entre si. podemos limitarnos a investigar como actua T sobre cada V1 individual. En un V1 dado. (T + T - 1 )t• = S(P) = i.1t•. Multiplicand o por T. (T2

-

A.; T

+ /)(v) =

0

Consideramos los cases i.1 = ± 2 y i.; # ± 2 por separado. Si i.; = ± 2. ( T ± 1)2 (t•) = 0. lo que conduce a (T± /)(!') = 0 o T(!') = ± t'. De este modo. T restringido a cste V1 es I o -1. Si i.1 # ± 2. T no tiene vectores propios en V; ya que. segun el Teorema 14.4. los unicos valo res propios de T son I o - I. En consecuencia. para !' # 0 los vectores t• y T(r) son linealmente independientes. Sea W el subespacio generado por l' y T(P}. Entonces W es invariante bajo T porque T(T(v)) = T 2(v) =A.; T(v) - v

En virtud del Teorema 6.4. V1 =WEE! W1 . Ademas. por cl Pro blema 14.8. W1 es tambien invariante bajo T. Siendo asi, podemos descomponer V1 en Ia suma directa de subespacios bidimensionales H') ortogonales entre si e invariantes bajo T. Podemos. pues. limitarnos a investigar como actua T sobre cada H') individual. Dado que T 2 - i.1 T + I = 0. el polinomio caracteristico 6(t) de T actuando sobre H') es 6(t) = t 2 - i.1t + I. Por tanto, el determinante de T es I . el termino constante en 6(t}. De acuerdo con el Teorema 4.6. Ia matriz A que representa a T actuando sobre Hj respecto a una base ortonormal de ~ debe ser de Ia forma

0)

cos 0 ( sen 8

- sen cos 8

La union de las bases de los Hj proporciona una base ortonormal de V;. y Ia de las bases de los V1 una base ortononnal de V en Ia cual Ia matriz que representa a T tiene Ia forma dese.ada.

OPERADORES NORMALES Y FORMAS CANONICAS EN ESPACIOS UNIT ARIOS 14.17.

.

' .

= ( 01

l

Determmar que matnz es normal: a) A

a)

AA*

jx

j)

1 0) = ( 2 1 -i 1 •

-i

=

(1

0

:} b) B =

. (. 1 0)(1 j) ( l j)

A*A =

-i

Como AA* # A* A. la ·matriz A noes normal.

b)

BB* =

c 2: ix -~ 2~)

=

(2 ~ 2i

B*B =( _~ 2~i)C 2:i) =(2~2i Como 88* = 8* B. Ia matriz B es normal.

c

+

2i).

2+

2i) .

2

6

6

1

0

l =

-i

2 .

520 14.18.

ALGEBRA LINEAL

Sea T un operador normal. Demostrar: a)

T(v) = 0 si y solo si T*(v) = 0.

b)

T - A./ es normal. Si T(v) = A.v, necesariamente T*(v) = Xv, luego todo vector propio de T lo es tambien de T* . Si T(v) = A. 1 v y T(w) = A. 2 w con A. 1 =I= A. 2 , necesariamente ( v, w) = 0; o sea, vectores propios de T correspondientes a valores propios distintos son ortogonales.

c)

d) a)

Probemos que ( T(v), ]1v)) = ( P(v), T*(v)): (T(v), T(v))

b)

=

(v, T*T(v))

= (v, TT*(v)) =

(T*(v), T*(v))

Por consiguiente. de acuerdo con (I 3 ). T(v) = 0 si y solo si P(v) Probemos que T- }.J conmuta con su adju nto:

=

0.

(T- A.IXT -AI)*= (T- J.IXT* -ll) = TT*- A.T* -lT + A.ll = = T*T - i T - J.T*

+ lU =

(T* -lJXT- A.I) =

= (T - J.I)*(T - ).J)

Asi pues, T - A.l es normal. c)

Si T(v) = },v, (T - U)(v) = 0. Ahara bien. T- }.J es normal segun b); por tanto. por a), (T- U)*(v) = 0. Esto es. (T* - XI)(v) = 0. luego P(v) = I v.

d)

Probamos que l 1 ( v, w) = ).2 (v, w):

l 1 (v, w)

= (J. 1 v, w) = (T(v), w) = ( v, T*(w)) = (v, 12 w) = l 2 (v, w)

Pero .J. 1 # ). 2 , luego (v, w) = 0.

14.19. Demostrar el Teorema 14.13. Se demuestra por induccion en Ia dimension de V. Si dim V = I, el teorema se cumple trivialmente. Supongamos ahora dim V = n > I. Como V es un espacio vectorial complejo, T tiene at menos un valor propio y por tanto un vector propio no nulo v. Sean W el subespacio generado por v y u 1 un vector unitario en W. Puesto que v es un vector propio de T, el subespacio W es invariante bajo T. No obstante, v es asimismo un vector propio de T* por el Problema 14.18; de aqui que W sea tam bien invariante bajo P. De acuerdo con el Problema 14.8, w.1. es invariante bajo T** = T. El resto de Ia demostracion es identico a Ia ultima parte de Ia del Teorema 14.11 (Problema 14.14).

14.20.

Demostrar el Teorema 14.14. Se demuestra po r induccion en Ia dimension de V. Si dim V = I, el teorema se cumple trivialmente. Supongamos ahora dim V = n > I. Como V es un espacio vectorial complejo, T tiene al menos un valor propio y por ende un vector propio no nulo v. Sean W el subespacio generado por v y U 1 un vector unitario en W. Entonces u 1 es un vector propio de Ty, digamos, T(uJ = a 11 u 1 . Segun el Teorema 6.4, V = WEB w.1.. Denotemos por E Ia proyecci6n ortogonal de V en w.1.. Claramente w.1. es invariante bajo el operador ET. Por inducci6n, existe una base ortonormal {u2, ... , un} de w.l. tal que para i = 2, ...• n,

OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO

521

(N6tese que {u 1, u2 , •• • , un} es una base ortonormal de V.) Pero E es Ia proyecci6n ortogonal de V sobre W \ luego debe c umplirse T(uJ

=

a11u 1

+ a 12 u 2 + ·· · + a 11 u 1

para i = 2, ... , n. Esto, con T(u 1 ) = a 11 u 1, nos da el resultado deseado.

PROBLEMAS VARIOS 14.21.

Demostrar el Teorema 14.10A. Supongamos que se cumple i), esto es, que P = T 2 , don de T = T*. En ese caso, P = TT = T* T y asi i) implica ii). Supongamos ahora que se verifica ii). Entonces P* = (S* S)* = S* S** = S* S = P y asi P es autoadjunto. Ademas,

(P(u), u) = (S•S(u), u)

= (S(u), S(u)) ~ 0

De este modo, ii) implica iii), por lo que solo queda probar que iii) implica i). Supongamos que se cumple iii). Dado que P es autoadjunto, existe una base ortonormal {u 1, .• . , un} de V consistente en vectores propios de P; sea, p or ejemplo, P(u1) = A.1 u1. De acuerdo con el Teorema 14.4, los A.1 son reales. Usan
0

~

(P(uJ, u1)

= (~1 u" u1) = ).1(u1, u1)

Asi pues, ( u1, u1) ~ 0 hace forzoso A;~ 0, como se pretendia. En consecuencia, real. Sea Tel operador lineal definido segun

A

es un numero

para i = 1, .. . , n Como Testa representado por una matriz real diagonal respecto a Ia base ortonormal (u1}, T es autoadjunto. Mas aun, para cada i,

Puesto que T 2 y P coinciden sobre una base de V, P = T 2 . Queda, pues, demostrado el teorema. Nota: El operador T precedente es el unico operador positivo tal que P ~ T 2 ; se llama Ia raiz cuadrada positiva de P.

14.22.

Mostrar que cualquier operador T es suma de un operador autoadjunto y uno antiautoadjunto. Tomemos S = t
s• = y

=

i(T - T*). Entonces T = S

(!(T + T*))* = }(T*

+ T) = S -}(T- T*) = - U

+ T*•) =

if• = (!(T- T*))• = }(T*- T) =

+ U, donde

}(T*

es decir, S es autoadjunto y U anti-autoadjunto.

14.23.

Demostrar Ia siguiente afirrnaci6n : Sea Tun operador lineal arbitrario en un espacio con producto internode dimension finita V. Entonces T es producto de un operador unitario (ortogonal) U y un unico operador positivo P, esto es, T = UP. Ademas, si T es invertible, U tambien esta univocamente determinado.

522

ALGEBRA LINEAL

Por el Teorema 14. 10, T*T es un operador positive y por tanto existe un (unico) operador positive P tal que P 2 = T* T (Problema 14.43). Observese que JIP(vW = (P(v), P(v)) = (P2 (v), v)

= (PT(v), v) = ( T(v), T(v)) =

JI T(v) ll 2

[I]

Consideramos ahora por separado las situaciones en que T es invertible y no invertible. Si T es invertible, tomamos 0 = PT- 1 . Probemos que 0 es unitario: y

De este modo, 0 es unitario. A continuacion tomamos U = 0 - ! . En tal caso, U es a su vez unitario y T= UP, como se pedia. Para demostrar Ia unicidad suponemos T= U 0 P 0 con U 0 unitario y P 0 positive. Entonces PT = P~ U~ U 0 P 0

= P 0 IP0

= P~

Pero Ia raiz cuadrada de T* T es (mica (Problema 14.43), luego P 0 = P. (Notese que Ia invertibilidad de T no se ha utilizado para demostrar Ia unicidad de P.) Ahora, si T es invertible, necesariamente lo es P por [1]. Multiplicar por Ia derecha U 0 P =UP por p -t proporciona U 0 = U. Asi U es tam bien unico cuando T es invertible. Supongamos ahora que T no es invertible. Sea W Ia imagen de P, o sea, W = Im P. Definimos U 1 : W--. V seg\m donde

[2]

P(v) = w

Debemos probar que U 1 esta bien delinido, esto es, que P(v) = P(v') implica T(v) = 7(v'). Esto deriva del hecho de que P(v- v' ) = 0 es equivalente a JI P(v- v')ll = 0 que hace forzoso II T(v - v')ll = 0 por [1]. Siendo asi, U 1 esta bien definido. A continuacion definimos U 2 : W .!. --. V. Notese que por [1] P y T tienen el mismo nucleo. Por consiguiente, las imagenes de P y T tienen Ia misma En consecuencia, w.1. e (Im T ).!. tambien dimension, es decir, dim (Im P) = dim W = dim (Im tienen Ia misma dimension. Sea U 2 cualquier isomorfismo entre w.1. e (1m T).J.. Tomamos ahora U = U 1 Ef) U 2 . [Aqui U se define como sigue: si v E V y v = w + w', donde WE W, w' E w.1., U(v) = U 1 (w) + U 2 (w' ).] Ahora bien, U es lineal (Problem~ 14.68) y, si vE V y P(v) = w, por [2],

n.

T(v) = U 1(w) = U(w) = U P(v)

De esta manera, T = UP como se pedia. Falta probar que U es unitario. Todo vector x E V puede escribirse como x = P(v) + w' con w'E W .1.. Entonces U(x) = UP(v) + U 2 (w') = T(v) + U2 (w'), donde (T(v), U 2 (w') ) = 0 por definicion de U 2 . Asimismo, ( T(v), T (v)) = ( P(v), P(v)) por (1]. Tenemos, pues, (U(x), U(x)) = ( T(v) + U 2(w'), T(v) + U 2 (w')) = = (T(v), T(v)) + (U 2(w'), U 2(w')) = = (P(v), P(v)) + (w', w' ) = (P(v) + w', P(v)

+ w') =

= (x, x) [Hemos usado tambien el hecho de que ( P(v), w' ) trade el teorema.

14.24.

=

0.) Por tanto, U es unitario y queda demos-

Sea V el espacio vectorial de los polinomios sobre R con producto interno definido mediante

(f, g) =

r

f(t)g(t) dt.

OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO

523

Dar un ejemplo de funcionaJ lineal ¢ en V para el que no se cumpla el Teorema 14.3, o sea, tal que no exista un poJinomio h(t) para el cual cf>(j) = : V-+ R por (j) = f(O), es decir, evalua f(t) en 0 y por tanto aplica f(r) en su termino constante. Supongamos que existe un polinomio h(t) para el cual {[) = f(O)

=

(I]

rf(t)h(t) dt

r

para todo polinornio f(t) . Observemos que aplica el polinomio tf(t) en 0; de aqui, por (1], tf(t)h(t) dt = 0

[2]

para todo polinornio f(t). En particular, [2] debe verificarse para f(t) = th(t), esto es,

r

t~h~(t) dt = 0

Esta integral hace que h(t) sea el polinomio cero, luego (j) = ( /, h) = ( /, 0) = 0 para todo polinomio f(t). Esto contradice el hecho de que no es el funcional cero; por consiguiente, no existe el polinomio h(t).

PROBLEMAS SUPLEMENTARIOS

OPERADORES ADJUNTOS 14.25.

Hallar Ia adjunta de cada una de las siguientes matrices:

3+ 7i)

5- 2i a) A= ( 4- 6i

8

+ 3i

'

b) B =

14.26.

Delinase T : R 3

-+

R 3 por T(x, y, z)

14.27.

Definase T : C 3

-+

C 3 por

=

(x

(3 i

5i)

-2i '

+ 2y, 3x -

c)

C=G ~)

4z, y). Hallar T*(x, y, z).

T(x, y, z) = (ix + (2 + 3i)y, 3x + (3 - i)z, (2 - 5i)y + iz)

Hallar T*(x, y, z). 14.28.

Para cada uno de los siguientes runcionales lineales en V, encontrar un vector u E V tal que (v) = (v, u) para todo ve V: 3

+ 2y -

a)

: R -+ R definido por (x , y, z) = x

b)

: C

c)

: V-+ R definido por (j) = f(l ), donde V es el espacio vectorial del Problema 14.24.

3

--+

3z.

C delinido por (x, y, z) = ix + (2 + 3i)y +(I - 2i)z.

524

ALGEBRA LINEAL

14.29. Sup6ngase que V tiene dimension finita. Demostrar que Ia imagen de T* es el complemento ortogonal del nucleo de T, o sea, Im T* = (Ker T)j_. Por tanto, rango T = rango T*. 14.30.

Mostrar que T*T = 0 implica T = 0.

14.31. Sea V el espacio vectorial de los polinomios sobre R con producto interno definido segun
OPERADORES Y MATRICES UNITARIOS Y ORTOGONALES 14.32.

Hallar una matriz unitaria (ortogonal) cuya primera fila sea: a)

14.33.

(2/fo, 3Jji3),

b)

un multiplo de (1, I - i),

Demostrar Ia siguiente alirmaci6n: Los productos y las inversas de las matrices ortogonales son ortogonales. (Las matrices ortogonales forman, pues, un grupo bajo el producto, llamado el grupo ortogonal.)

14.34.

Demostrar Ia siguiente afirmaci6n: Los productos y las inversas de las matrices unitarias son unitarias. (Las matrices unitarias forman, pues, un grupo bajo el producto, llamado el grupo unitario.)

14.35.

Mostrar que si una matriz ortogonal (unitaria) es triangular, es necesariamente diagonal.

14.36.

Recuerdese que dos matrices complejas A y B son unitariamente equivalentes si existe una matriz unitaria P tal que B = P* AP. Probar que esta es una relaci6n de equivalencia.

14.37.

Recuerdese que dos matrices reales A y B son ortogonalmente equivalentes si existe una matriz ortogonal P tal que B = pT AP. Probar que esta es una relacion de equivalencia.

14.38. Sea W un subespacio de V. Para cualquier v E V, sea v = w + w' con wE W, w' E Wj_. (Tal suma es unica porque V = W$ Wj_.) Definase T: V--+ V por T(v) = w- w'. Mostrar que T es un operador autoadjunto unitario en V. 14.39. Sea V un espacio con producto interno y sup6ngase que U: V--+ V (no necesariamente lineal) es suprayectivo y preserva los productos internos, o sea, (U(v), U(w)) = (v, w) para todo par de vectores v, WE V. Demostrar que U es lineal y por tanto unitario.

OPERADORES POSITIVOS Y DEFINIDOS POSITIVOS 14.40.

Pro bar que Ia suma de dos operadores positivos (definidos positivos) es positiva (definida positiva).

14.41. Sea Tun operador lineal en Vy definase f: V x V--+ K por f(u, v) = (T(u ), v). Probar que f es a su vez un producto interno en V si y solo si T es definido positivo. 14.42. Sup6ngase que E es una proyecci6n ortogonal sobre algun subespacio W de V. Demostrar que kl + E es positivo (delinido positivo) si k ~ 0 (k > 0).

OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO

525

14.43. Considerese el operador T definido por T(u;) = fl;u;, i = I, ... , n, en Ia demostracion del Teorema 14.10A. Mostrar que T es positivo y que es el unico operador positivo para el cual T 2 = P. 14.44. Sup6ngase que P es positivo y unitario. Demostrar que P = I. 14.45. Determinar cuales de las siguientes

c~)

son positivas (definidas positivas):

( 00i) (-10 01)

G~)

-i

i)

14.46.

matri~es

ii)

Demostrar que una matriz compleja 2 x 2

iii)

iv)

A=(: :)

es positiva si y solo si: i) A= A*, ii) a, d

v)

vi)

y ad - be son numeros reales no negativos.

14.47. Demostrar que una matriz diagonal A es positiva (definida positiva) si y solo si toda entrada diagonal es un numero real no negativo (positivo).

OPERADORES AUTOADJUNTOS Y SIMETRICOS 14.48. Mostrar que para cualquier operador T, T

+ T*

es autoadjunto y T - T* es anti-autoadjunto.

14.49. Sup6ngase que Tes autoadjunto. Probar que T 2 (v) = 0 implica T(v) = 0. Utilizar esto para demostrar que T'(v) = 0 tambien implica T(v) = 0 para n > 0. 14.50. Sea V un espacio complejo con producto interno. Sup6ngase que ( T(v) , v) es real para todo Probar que T es autoadjunto.

VE

V.

14.51. Sup6ngase que S y T son autoadjuntos. Mostrar queST es autoadjunto si y solo si S y T conmutan, es decir, ST = TS. 14.52.

Para cada una de las siguientes matrices simetricas A , encontrar una matriz ortogonal P para Ia que pr AP sea diagonal:

14.53. Hallar una tra nsformacion ortogonal de coordenadas que diagonalice cada una de las siguientes formas cuadraticas: a) q(x, y) = 2x2 - 6xy + l 0y 2 , b) q(x, y) = x 2 + 8xy - 5y 2 • 14.54. Hallar una transformaci6n ortogonal de coordenadas que diagonalice Ia forma cuadnitica q(x, y, z) = 2xy

+ 2xz + 2yz.

OPERADORES Y MATRICES NORMALES 14.55. Comprobar que

A=(~ ~)

diagonal y halla r P* AP.

es normal. Encontrar una matriz unitaria P tal que P* AP sea

526

ALGEBRA LINEAL

14.56.

Probar que una matriz triangular es normal si y solo si es diagonal.

14.57.

Demostrar que siTes normal en V, II T(v)ll = IIT*(v) ll para todo ve V. Demostrar que el reciproco se cumple en espacios complejos con producto interno.

1458.

Mostrar que los operadores autoadjuntos, anti-autoadju ntos y unitarios (ortogonales) son normales.

14.59. Supongase que T es normal. Demostrar que: a)

T es autoadjunto si y solo si sus valores propios son rea les.

b)

T es unitario si y solo si sus valores propios tienen valor absoluto 1.

c)

T es positivo si y solo si sus valores propios son numeros reales no negativos.

14.60. Pro bar que si T es normal, T y T* tienen el mismo nucleo y Ia misma imagen. 14.61. Supongase que S y T son normales y conmutan. Mostrar que S

+T

y ST tam bien son normales.

14.62. Supongase que T es normal y conmuta con S. Mostrar que T conmuta tam bien con

s•.

PROBLEMAS SOBRE ISOMORFISMOS ENTRE ESPACIOS CON PRODUCTO INTERNO 14.63. Sea S = {u1 , ... , u.} una base ortonormal de un espacio con producto interno V sobre K . Probar que Ia aplicacion VM[v]s es un isomorfismo (entre espacios con producto intemo) entre V y K". (Aqui [v]s denota el vector coordenado de v en Ia base S.) 14.64.

Mostrar que dos espacios con producto interno V y W sobre K son isomorfos si y solo si V y W tienen Ia misma dimension.

14.65.

Sup6ngase que {u 1 , .•. , u.} y {u'1 , ... , u~} son bases ortonormales de V y W, respectivamente. Sea T: V -+ W Ia aplicaci6n lineal definida segun T(u;) = u; para cada i . Mostrar que T es un isormorfismo.

14.66. Sea V un espacio con producto interno. Recuerdese (pag. 505) que cada u E V determina un funcional lineal u en el espacio dual V* mediante Ia definicion u(v) = ( v, u) para todo ve V. Mostrar que Ia aplicaci6n u M ues linea l y no singular y por ende un isomorfismo de V sabre v•.

PROBLEMAS VARIOS 14.67.

Probar que existe una base ortonormal {u 1 ,

••. ,

y solo si existen proyecciones ortogonales E 1 ,

i) T = J. 1 £ 1

+ .. · + l,E,;

ii) £ 1

u.} de V que consiste en vectores propios de T si

. • •,

E, y escalares ). 1 ,

+ ·· · + E, =I;

••. , ).,

tales que:

iii) E;EJ = 0 para i ""j

14.68. Sup6ngase que V = U Ef1 W y que T 1 : U--. V y T2 : W--+ V son lineales. Probar que T = T1 EfJ T2 es tam bien lineal. Aqui T se define como sigue: Si v e V y v = u + w, donde u e U, we W, T(v) = T 1(u)

+ T 2 (w)

14.69. Sup6ngase que U es un operador ortogonal en R 3 con determinante positivo. Probar que U es bien una rotaci6n o bien una reflexi6n en un plano.

527

OPERADORES LINEALES EN ESPACIOS CON PRODUCTO INTERNO

RESPUESTAS A LOS PROBLEMAS SUPLEMENTARIOS

5 + 2i 4 + 6i} 14..15. a) ( 3- 7i 8- 3i

c)

14.26.

T*(x, y, z) = (x + 3y, 2x + z, -4y).

14.27.

T*(x, y, z) = (- ix + 3y, (2 - 3i)x + (2 + 5i)z, (3

14.28. a) u = (1, 2, - 3),

14.32. a)

14.45.

/JO (23/JO

+ i)y- iz).

·b) u = (- i, 2 - 3i, 1 + 2i),

3/JO)

b) (

-2/fo '

c) u = (18t1

1/J3 (l - •11J3\ (l + •11.fi - 1/J3 !

c)

8t + 13)/15.

-

t i/.fit ( 2

t- ti)

fi -1/./i

-!i

0

- t+ti

Solo i) y v) son positivas. Mas aun, v) es definida positiva.

14.52. a)

P

14.53. a) x

= (

=

21./5 -1/jS

- 1!./5\

b)

p = (

2/JS!

(3x'- y')/.jiO,

P·=(1ll./i /.fi - 1/.fi), 1/.fi

2/JS - t/JS

y = (x' + 3y')/Ji0,

14.54. x = x'l.fi + .YI./i + z'/J6, 14.55.

G ~)

y

- l!JS\

0

p

O)

2-

i

= (

3/ JlO

-t;JiO

b) x = (2x' - y')/ j5,

= x'l.fi- y'f.fi + z'/J6,

P*AP=(Z+i

c)

2/}5!

- 1/.jiO) 3/.jiO

y = (x' + 2y')/ j5.

z = x'f.fi - 2z'/J6.

APENDICE

Conjuntos y relaciones

CONJUNTOS, ELEMENTOS Cualquier coleccion o Iista de objetos bien definidos se llama un conjunto; los objetos que forman el conjunto se Haman sus elementos o miembros. Escribimos pEA

si p es un elemento del conjunto A

Si todo elemento de A pertenece tambien a un conjunto B, es decir, si xeA implica xEB, entonces llamamos a A un subconjunto deB o se dice que A esta contenido en B; esto se denota por AcB

o

B=>A

Dos conjuntos son iguales si tienen los mismos elementos; esto es, A = B

si y solo si

A c B

y

Bc A

Las negaciones de pEA, A c B y A = B se escriben p ~A, A ¢ B y A #- B,. respectivamente. Especificamos un conjunto particular escribiendo todos sus elementos o estableciendo las propiedades que caracterizan los elementos de dicho conjunto. Por ejemplo, A= {1, 3, 5, 7, 9}

significa que A es el conjunto forma do por los numeros I, 3, 5, 7 y 9; y B

528

= {x: x es un numero primo, x < 15}

APENDICE

529

significa que B es el conjunto de los numeros primos menores que 15. Tambien empleamos simbolos especiales para representar los conjuntos que aparecen muy frecuentemente en el texto. A menos que especificamente se establezca lo contrario: N = el Z = el Q = el R = el C = el

conjunto conjunto conjunto conjunto conjunto

de de de de de

los los los los los

enteros positives: 1, 2, 3, ... ; enteros: ... , -2, - 1, 0, I, 2, ... ; numeros racionales; numeros reales; numeros complejos.

Tambien usamos el simbolo (/) para denotar el conjunto vacio o nulo, esto es, el conjunto que no contiene elementos; suponemos que este conjunto es un subconjunto de cualquier conjunto. Frecuentemente los elementos de un conjunto son a su vez conjuntos. Por ejemplo, cada recta en un conjunto de rectas es un conjunto de puntos. Para ayudar a clarificar estas situaciones usamos las palabras Close, coleccion y familia como sin6nimos con conjunto. Las palabras subclase, subcoleccion y subfamilia tienen significado analogo al de subconjunto. EJ EM PLO 1.

Los conjuntos A y B anteriores tam bien se pueden escribir asi A = {xeN: x es impar,

x < 10}

y

B = {2, 3, 5, 7, 11, 13}

Observese que 9eA , pero 9~B, y 11 eB, pero ll ~A; mientras que 3EA y 3eB, y 6¢A y 6if=B. EJ EM PLO 2.

Los conjuntos de numeros se relacionan de Ia siguiente manera: N c Z c Q c R c C.

EJEMf>LO 3 .

Sea C = {x: x 2 = 4, xes impar}. Entonces C = (/), esto es, C es el conjunto vacio.

EJEMPLO 4.

Los elementos de Ia clase {{2, 3}, {2}, {5, 6}} son los conjuntos {2, 3}, {2} y {5, 6}.

Tenemos ahora el Teorema 1: Sean A, B y C conjuntos arbitrarios. Entonces: i) A c A; ii) si A c B y B c A , entonces A = B , iii) si A c B y B c C, entonces A c C. Recalcamos que A c B no excluye Ia posibilidad de que A= B. Sin embargo, si A c B y A -# B , decimos eritonces que A es un subconjunto propio de B. (Algunos autores usan el simbolo s;;; para un subconjunto y el simbolo c unicamente para un subconjunto propio.) Cuando hablamos de un conjunto indizodo {a1 :ieJ}, o simplemente {a;}, significamos que existe una aplicaci6n 4J del conjunto I en un conjunto A y que Ia imagen 4J(i) de i E I se representa por o;. El conjunto I se llama el conjunto de indices y se dice que los elementos o; (el recorrido de 4J) estan indizados por 1. Un conjunto {a1 , a 2 , ... } indizado por los enteros positives N se llama una sucesion. Una clase indizada de conjuntos {A;:iel}, o simplemente {A;}, tiene un significado analogo, salvo que ahora Ia aplicaci6n 4J asigna a cad a i E I un conjunto A; en Iugar de un elemento a;.

530

ALGEBRA LINEAL

OPERACIONES ENTRE CONJUNTOS Sean A y B dos conjuntos arbitrarios. La union de A y B, escrita A v B, es el conjunto de los elementos que pertenecen a A o a B ; Ia interseccion de A y B , escrita A n B, es el conjunto de los elementos que pertenecen a A y B simultaneamente: A uB = {x :xEA

o

xE B}

y

AnB = {x :xE A y

xEB}

Si An B = (/), esto es, si A y B no tienen elementos en comun, se dice entonces que A y B son disjuntos. Suponemos que todos nuestros conjuntos son subconjuntos de un conjunto universal fijo (denotado aqui por U). El complemento de A , escrito Ac, es el conjunto de los elementos que no pertenecen a A: Ac

= {xE U :x ¢A}

EJEM PLO 5. Los diagramas siguientes, llamados diagramas de Venn, ilustran las operaciones anteriores entre conjuntos. Los conj untos se representan por areas planas simples y U, el conjunto universal, por el area total del rectangulo. .

A u B esta sombreado

A n B esta sombreado

Ac esta sombreado

Los conjuntos con las operaciones anteriores satisfacen varias !eyes o identidades que estan escritas en Ia tabla siguiente. En efecto, tenemos el Teorema 2:

Los conjuntos satisfacen las !eyes enunciadas en Ia Tabla I.

APENDICE

531

Tabla 1 LEYES DEL ALGEBRA DE CONJUNTOS Leyes de idempotencia

Ia.

lb.

AvA=A

A nA=A

Leyes asociativas

2a.

3a.

2b.

(A v B ) v C = Au (B v C)

(An B) n C =An (B n C)

Leyes conmutativas 3b. A n B=B n A

AvB = BuA

Leyes distributivas

4a.

A u ( B n C) = (Au B) n (Au C)

Sa. 6a.

AvQ) = A AvU= U

4b.

An (B u C) = (An B) u (An C)

Leyes de identidad

5b. AnU=A 6b. An
7a. A u A'= U 8a. (A'Y = A

7b. 8b.

A nAc =
Leyes de De Morgan

9a.

Observacion:

(Au B)<= A' n 8'

9b.

(A n B)' = A' v 8'

Cada una de las !eyes anteriores se deduce de una ley 16gica analoga. Por ejemplo,

AnB={x:xeA

y

xe B} ={x:x e B y xeA }= B n A

(Aqui aprovechamos el hecho que Ia proposici6n compuesta «p y q», escrita p equivalente a Ia proposici6n compuesta «q y p>>, esto es, q 1\ p.)

1\

q, es 16gicamente

La siguiente es la relaci6n entre Ia inclusion de conjuntos y las operaciones anteriores. Teorema 3:

Cada una de las condiciones siguientes es equivalente a A c B:

i) A n B = A. ii) AuB =B. iii) Be c A'. iv) An B' = ([>. v) BuA'=U. Generalizamos las operaciones anteriores entre conjuntos de Ia siguiente manera. Sea {A;:ie l } una familia arbitraria de conjuntos. La union de los A;, escrita U;e 1 A; (o simple-

532

ALGEBRA LINEAL

mente U;A;), es el conjunto de los elementos que pertenecen por lo menos a uno de los A,; y Ia interseccion de los A;, escrita n;e 1 A; (o simplemente n;A;), es el conjunto de los elementos que pertenecen a todos los A; simultaneamente.

PRODUCTO CARTESIANO DE CONJUNTOS Sean A y B dos conjuntos. El producto cartesiano de los conjuntos A y B, denotado por A x B, esta formado por todos los pares ordenados (a, b), donde aeA y beB: Ax B ={(a, b):aeA, beB}

El producto cartesiano de un conjunto par si mismo, por ejemplo A x A , se denota por A 2 . El lector esta familiarizado con el plano cartesiano R 2 = R x R, como se muestra a continuaci6n. Cada punto P representa una pareja ordenada (a, b) de numeros reales y viceversa. EJEMPLO 6.

2 bt-- ----, p

- 3 -2 - 1

I

2 a

3

- 1

-2 EJEMPLO 7.

Sea A= {1 , 2, 3} y B ={a, b}. Entonces A x B = {(1, a), (1, b), (2, a), (2, b), (3, a), (3, b)}

Nota: La pareja ordenada (a, b) se define rigurosamente par (a, b)= {{a}, {a, b}}. De esta definicion puede probarse Ia propiedad de «arden», esto es, (a, b) = (c, d) si y solo si a= c y b =d. El concepto de producto cartesiano de conjuntos puede extenderse a cualquier numero finito de conjuntos en una forma natural. El conjunto producto cartesiano de los conjuntos A 1 , • .. , A,, escrito A 1 x A 2 x · · · x Am, es el conjunto formado por todas las m-uplas (a 1 , a 2 , . • • , am), donde a, e A, para cad a i.

RELACIONES Una relacion binaria, o simplemente una relacion R de un conjunto A a un conjunto B, asigna a cada pareja ordenada (a, b) E A x B exactamente una de las siguientes proposiciones: i) «a esta relacionada con b», escrita aRb. ii) «a no esta relacionada con b», escrita a ]/l.. b . . Una relacion de un conjunto A al mismo conjunto A se llama una relaci6n en A.

APENDICE

533

EJEMPLO 8. La inclusion de conjuntos es una relacion en cualquier clase de conjuntos. Puesto que dado cualquier par de conjuntos A y B, o bien A c B o A ¢B.

Observamos que cualquier relaci6n R de A a B define un subconjunto tmico de Ia siguiente manera:

R de

A x B

R ={(a, b): aRb} Reciprocamente, cualquier subconjunto manera: aRb

R de A

x B define una relaci6n de A a B de la siguiente

si y solo si

(a, b)eR

En virtud de Ia correspondencia anterior entre las relaciones de A a B y los subconjuntos de A x B , volvemos a definir umi relaci6n en Ia siguiente forma: Definicion:

Una relaci6n R de A a B es un subconjunto de A x B.

RELACIONES DE EQUIVALENCIA Una relaci6n en un conjunto A se llama una relacibn de equivalencia si satisface los siguientes axwmas:

IE t1 Cualquier a e A esta relacionado consigo mismo. IE 2 1 Si a esta relacionado· con b, entonces b esta relacionado con a. IE3 I Si a esta relacionado con by b esta relacionado con c, entonces a esta relacionado con c. En general se dice que una relaci6n es rejlexiva si satisface IE 1 1, simetrica si satisface IE2 1 y transitiva si satisface IE3 I. En otras palabras, una relaci6n es una relaci6n de equivalencias si es reflexiva, simetrica y transitiva. EJEMPLO 9. Consideremos la relacion c de inclusion de conjuntos. Por el Teorema l, A c A para todo conjunto A; y si A c B y B c C, entonces A c C, esto es, c es refiexiva y transitiva. Por otra parte, c noes simetrica, ya que A c By A'# B implica B¢ A. EJEM PLO 10. En geometria euclidiana, Ia similaridad de triangulos es una relacion de equivalencia. Pues si ct., {3 y y son triangulos arbitrarios, entonces: i) ct. es similar a si mismo; ii) si ct. es similar a {3, entonces {3 es similar a a:; iii) si !l es similar a f3 y f3 similar a y, entonces ct. es similar a y.

Si R es una relaci6n de equivalencia en A, entonces Ia clase de equivalencia de cualquier elemento a E A, denotada por [a], es el conjunto de los elementos con los cuales a esta relacionado: [a]= {x:aRx}

La colecci6n de las clases de equivalencia, denotada por AfR, se llama el cociente de A por R: AfR = {[a]: aeA}

534

ALGEBRA LINEAL

La siguiente es Ia propiedad fundamental de las relaciones de equivalencia: Teorema 4: Sea R una relaci6n de equivalencia en A. Entonces el conjunto cociente A/R es una particion de A, esto es, cada aEA pertenece a un miembro de A /R y los miembros de A/R son disjuntos dos a dos. EJ EM PLO 11 . Sea R 5 Ia relaci6n en Z, el conjunto de los enteros definido por

x

=y (mod 5)

que se lee «xes congruente a y modulo 5» y lo cual significa que «x- y es divisible por 5». Entonces R 5 es una relacion de equivalencia en Z. Hay exactamente cinco clases diferentes de equivalencia en ZfR 5 :

A0 = { ... , -10, -5, 0, 5, 10} A1 = { ... , -9, -4, 1, 6, 11} A 2 = { ... , -8, -3, 2, 7, 12} A3 = { ... , -7, -2, 3, 8, 13} A 4 = { ... , -6, -1, 4, 9, 14}

Como cada entero x se puede expresar en forma \mica, x = 5q + r, donde 0 ~ r < 5; observamos que xEA,, donde r es el residuo. Se puede ver que las clases de equivalencia son disjuntas dos a dos y que Z = A0 u A 1 u A2 u A 3 u A4.

Estructuras algebraicas

INTRODUCCION Definimos aqui las estructuras algebraicas que aparecen en casi todas las ramas de la matematica. En particular, definimos lo que es un cuerpo (o campo), concepto que aparece en Ia definicion de un espacio vectorial. Empezamos definiendo grupo, que es una estructura algebraica relativamente simple con unicamente una operaci6n y que se usa como una base para muchos otros sistemas algebraicos.

GRUPOS Sea G un conjunto no vacio con una operaci6n binaria, esto es, a cada par de elementos a, bEG se le asigna un elemento abE G. Entonces G se llama un grupo si se cumplen los siguientes axiom as: IG 1 1 Para todo a, b, cEG, tenemos (ab)c = a(bc) (Ia ley asociativa). IG2 I Existe un elemento e E G, llamado el elemento identidad, tal que ae = ea = a para IG 3 1

todo aE G. Para cada aEG existe un elemento a- 1 EG, llamado el inverso de a, tal que aa- 1 = a- 1 a =e.

Se dice que un grupo G es abeliano (o tambien conmutativo) si cumple Ia ley conmutativa, esto es, si ab = ba para todo a, bEG. Cuando Ia operaci6n binaria se representa por yuxtaposici6n como antes, se dice que el grupo G esta escrito multiplicativamente. Algunas veces, cuando G es abeliano, Ia operaci6n binaria se representa por + y se dice que G esta escrito aditivamente. En tal caso, el elemento identidad

535

536

ALGEBRA LINEAL

se denota por 0 y se llama el elemento cero; y el inverso se denota por - a y se llama el negativo de a. Si A y B son subconjuntos de un grupo G, entonces escribimos

AB = {ab:aeA, beB}

0

A+ B ={a+ b:aeA, beB}

Tambien escribimos a por {a}. Un subconjunto H de un grupo G se llama un subgrupo de G si el mismo es un grupo para la operaci6n de G. Si H es un subgrupo de G y ae G, entonces el conjunto Ha se llama un cogrupo a derecha de H y el conjunto aH se llama un cogrupo a izquierda de H.

Definicion: Un subgrupo H de G se llama un subgrupo normal si a- 1 Hac: H para todo aEG. En forma equivalente, H es normal si aH = Ha para todo a e G, esto es, silos cogrupos a derecha y a izquierda de H coinciden. Observamos que todo subgrupo de un grupo abeliano es normal. Teorema 1: Sea H un subgrupo normal de G. Entonces los cogrupos de H en G forman un grupo para la multiplicaci6n de cogrupos. Este grupo se llama el grupo cociente y se denota por Gf H. EJ EMPLO 1. El conjunto Z de los enteros forma un grupo abeliano para Ia adici6n. (Observamos que los enteros pares forman un subgrupo de Z pero to enteros impares no.) Sea H el conjunto de los multiplos de 5, esto es, H = { ... , -10, -5, 0, 5, 10, ...}. Entonces H es un subgrupo (necesariamente normal) de Z. Los cogrupos de H en Z son

0=0+H = H={ ... , - 10, -5, 0,5, 10, ...}

I = I + H = {... , 2 = 2 + H = {... , 3 = 3 + H = { ... , 4 = 4 + H = { ... ,

- 9, - 8, -7, -6,

-4, - 3, -2, - 1,

I, 6, 2, 7, 3, 8, 4, 9,

11, 12, 13, 14,

...} ...} ...} ...}

Para cualquier otro entero n E Z, ii = 11 + H coincide con uno de los cogrupos anteriores. Luego, por el teorema anterior, Z/H = {0, i, 2, 3, 4} forma un grupo para la adici6n de cogrupos; Ia siguiente es Ia tabla de adici6n:

I

2

0

1

I 2

2 3 4 6

2 3 4 6 1

+

0

0 I

2 3 4

3 4

3

4

3

4

4

0

0 i

I

2

2 3

Este grupo cociente Z /H se conoce como el de los enteros modulo 5 y se representa frecuentemente por Z 5 . Amilogamente, para todo entero positivo 11 ex.iste el grupo cociente z., llamado los enteros modulo tl.

APENDICE

537

EJEMPLO 2. Las permutaciones de n simbolos forman un grupo para la composici6n de aplicaciones; se llama el grupo simetrico de grado n y se denota por s•. lnvestigamos S 3 ; sus elementos son

e=C U

C !) 2

Aqui

j

1

2 2

~)

02

=G ~)

a3

=G D

2

2 3

cf>t =

2

2

=C D

cf>t =

c c

2 23 31)

3 2I 3) 2

es Ia permutaci6n que a plica l Hi, 2 H j , 3 H k. La tabla de multiplicaci6n de s3 es

e

at

Uz

a3

cf>t

¢2

e

e

a,

Oz

a3

¢,

¢z

at

a,

e

cf>t

cf>2

02

03

Oz

Uz

cf>z

e

¢,

(73

a,

(J 3

03

cf>t

¢2

e

al

02

cf>t

cf>t

(J3

a,

az at

cf>2

e

e

cf>t

¢2

¢2

a2

a3

(El elemento en Ia fila a-esima y columna b-esima es ab.) El conjunto H sus cogrupos a derecha y a izquierda son

=

{e, a 1 } es un subgrupo de S 3 ;

Cogrupos a derecha

Cogrupos a izquierda

H = {e, at}

H={e,at} cf> 1 H = {¢ 1 , a 3 }

Hcf>t

=

H¢2

=

{cf>t, a2} {cf>z, a3}

cf>z H = {¢2, az}

Observamos que los cogrupos a derecha y a izquierda son diferentes; por tanto, H no es un subgrupo normal de s3.

Una aplicaci6n f de un grupo G en un grupo G' se llama un homomor[ISmo si f(ab) = f(a) f(b) para todo a, bE G. (Si f es tam bien biyectiva, esto es, uno-a-uno y sobre, entonces f se llama un isomorfismo y G y G' se dice que son isomorfos. Si f : G -+ G' es un homomorfismo, entonces el nucleo de f es el conjunto de elementos de G que se aplican en el elemento identidad e' E G': nucleo de f = {aE G :f(a) = e'} (Como es corriente, f(G) se llama Ia imagen de Ia aplicaci6n

f: G-+ G'.) Tenemos

ahora el

Teorema 2: Seaj : G-+ G' un homomorfismo con nucleo K . Entonces K es un subgrupo normal de G y el grupo cociente G/ K es isomorfo a Ia imagen de f.

538

ALG EBRA LINEAL

EJEMPLO 3 . Sea Gel grupo de los mimeros reales pa ra Ia adici6n y sea G' el grupo de numeros reales positivos para Ia multiplicaci6n. La aplicaci6n f: G -+ G' definida por f(a) = 2" es un homomorfismo ya que

f(a +b) = 2•+b = 2"2b = f(a)f(tJ) En particular, f es biyectiva; Juego G y G' son isomorfos. EJEMPLO 4 . Sea Gel grupo de los numeros complejos diferentes de cero para Ia multiplicaci6n y sea G' el grupo de los numeros reales diferentes de cero para Ia multiplicaci6n. La aplicaci6n f: G -+ G' definida por f(z) = lzl es un homomorfismo ya que

El nucleo K de f esta formado por los numeros complejos z sobre el circulo unitario, esto es, tales que lzl = I. Luego G/K es isomorfo a Ia imagen de f, es decir, al grupo de los numeros reales positives para Ia multiplicacion.

ANILLOS, DOMINIOS DE INTEGRIDAD Y CUERPOS Sea R un conjunto no vacio con dos operaciones binarias, una operaci6n de adici6n (denotada por +) y una operaci6n de multiplicaci6n (denotada por yuxtaposici6n). Entones R se llama un anillo si cumple los siguientes axiomas: [Rd

[R 2 ] [R 3]

[R4 )

[R 5 ] [R 6 ]

Para todo a, b, cER tenemos (a+ b)+ c =a+ (b +c). Existe un elemento 0 E R, llamado el elemento cero, tal que a + 0 = 0 + a = a para todo aER. Para cada a E R existe un elemento -a E R, llarnado el negativo de a, tal que a+ ( - a) = (-a)+ a= 0. Para todo a, bE R tenemos a + b = b + a. Para todo a, b, cE R tenemos (ab)c = a(bc). Para todo a, b, c E R tenemos i) a(b +c)= ab + ac, ii) (b + c)a = ba +ca.

Observamos que los axiomas [Rd basta [R4 ) pueden resumirse diciendo que R es un grupo abeliano para Ia adici6n. La sustracci6n se define en R par a - b a + (- b }. Se puede demostrar que (vease el Problema 25) a· 0 = 0 ·a = 0 para todo a E R . R se llama un anillo conmutativo si ab = ba para todo a, bE R. Decimos tam bien que R es un anillo con elemento identidad si existe un elemento diferente de cero 1 E R tal que a·!= !·a= a para todo aER. Un subconjunto no vacio S de R se llama un subanillo de R siS mismo forma un anillo para las operaciones de R. Observamos que S es un subanillo de R si y solo si a, bES implica a- bES y abES. Un subconjunto no vacio I de R se llama un ideal a izquierda en R si: i) a - b E I siempre que a, bEl, ii) ra E! para rER , aEI. Se observa que un ideal a izquierda I en R es tambien un subanillo de R. Similarmente podemos delinir un ideal a derecha y un ideal bilatero.

=

APENDICE

539

Claramente, todos los ideales en un anillo conmutativo son bilateros. Empleamos Ia palabra ideal para hablar de los ideales bilateros a menos que especificamente se diga lo contrario. Teorema 3: Sea I un ideal (bilatero) en un anillo R. Entonces los cogrupos {a+ I :ae R } forman un anillo para la adici6n y multiplicaci6n de cogrupos. Este anillo se denota por R /1 y se llama el anil/o cociente. Ahora sea R un anillo conmutativo con elemento identidad. Para todo a E R , e1 conjunto (a)= {ra:reR} es un ideal; se llama el ideal principal generado por a. Si todo ideal en Res un ideal principal, entonces R se llama un anillo de ideates principales. Definicion: Un anillo conmutativo R con elemento identidad se llama un dominio de integridad si R no tiene divisores de cero, esto es, si ab = 0 implica a = 0 o b = 0. Definicion: Un anillo conmutativo R con elemento identidad se llama un cuerpo (o tambien un campo) si todo a E R diferente de cero tiene un inver so multiplicativo, esto es, existe un elemento a - 1 E R tal que aa- 1 = a- 1 a = l. Un cuerpo es necesariamente un dominio de integridad, pues si ab = 0 y a

t= 0,

entonces

Hacemos notar que un cuerpo puede considerarse como un anillo conmutativo en el cual los elementos diferentes de cero forman un grupo para la multiplicaci6n. EJ EM PLO 5. El conjunto Z de los enteros con las operaciones usuales de adici6n y multiplicaci6n es el ejemplo chisico de un dominio de integridad con elemento identidad. Todo ideal I en Z es un ideal principal, esto es, I= (n) para algun entero n. El anillo cociente z. = Z / (n) se llama el anillo de los enteros modulo n. Sines primo, entonces z. es un cuerpo. De otra parte, si n noes primo, entonces z. tiene divisores de cero. Por ejemplo, en el anillo Z 6 , 23 = 0 y 2 ;e. 0 y 3 ;e. 0. EJEMPLO 6. Los mimeros racionales Q y los numeros reales R, cada uno de ellos, forman un cuerpo para las operaciones corrientes de adici6n y multiplicaci6n. EJ EM PLO 7. Sea C el conjunto de las parejas ordenadas de nllrneros reales con Ia adicion y Ia multiplicacion definidas por

(a, b)+ (c, d) = (a+ c, b +d) (a, b)· (c, d) = (ac- bd, ad+ be) Entonces C satisface todas las propiedades requeridas de un cuerpo. En efecto, C es precisamente el cuerpo de los numeros complejos. EJ EM PLO 8. El conjunto M de todas las matrices 2 x 2 con componentes reales forma un anillo no conmutativo con divisores de cero para las operaciones de adici6n y multiplicacion de matrices. EJEMPLO 9. Sea R un anillo cualquiera. Entonces el conj unto R[x] de todos los polinomios sobre R forma un anillo con respecto a las operaciones corrientes de adicion y multiplicaci6n de polinomios. Ademas, si R es un dominio de integridad, entonces R [xJ tam bien es un dominio de integridad.

540

ALGEBRA LINEAL

Sea Dun dominio de integridad. Decimos que b divide a a enD si a= be para algun cE D. Un elemento u ED se llama una unidad si u divide a I, esto es, si u tiene un inverso multiplicativo. Un elemento b ED se llama un asociado de a ED si b = ua para alguna unidad u ED. U n elemento no unidad p ED se dice irreducible si p = ab implica que a o b son unidades. Un dominio de integridad D se llama un dominio de f actorizacion unica si cualquier elemento no unidad a ED puede escribirse en forma unica (salvo asociados y el orden de los elementos) como un producto de elementos irred ucibles. EJEMPLO 10. El anillo Z de los enteros es el ejemplo clasico de un dominic de factorizacion unica. Las unidades de Z son I y - I . Los imicos asociadas de n e Z son 11 y - n. Los elementos irreducibles de Z son los numeros primos. EJEMPLO 11.

El conjunto D ={a + bjl3:a, b enteros} es un dominic de integridad. Las unidades

de D son ± 1, 18 ±5Ji3 y -18 ± 5Ji3. Los elementos 2, 3 Observemos que 4 = 2 · 2 = (3 (Vease el Problema 40.)

fo

y

- 3-

Jl3 son irreducibles en D.

ji3) (- 3 - .jlJ). P or tanto , D no es un dominio de factorizaci6n unica.

MODULOS Sea M un conjunto no vacio y sea R un anillo con elemento identidad. Se dice que M es un R-mOdulo (a izquierda) si M es un grupo aditivo abeliano y existe una aplicaci6n R x M--+ M que satisface los siguientes axiomas: [M d r(m1 + m2 ) = rm 1 + rm 2 [M 2 ] (r + s)m = rm + sm [M:d (rs)m = r(sm ) [M4 ] l·m = m para todo r, SE R y todo mi E M. Recalcamos que un R-modulo es una generalizaci6n de un espacio vectorial donde unicamente pedimos a los escalares que formen un anillo en Iugar de un cuerpo. EJ EM PLO 12. Sea G un grupo aditivo abeliano arbitrario. Hacemos de G un modulo sobre el anillo Z de los enteros definiendo

n veces

,--""-..,

ng = g + g + ... + g,

Og

=

0,

( -n)g = - ng

donde n es cualquier entero positivo. EJ EM PLO 13. Sea R un anillo y sea I un ideal en R . Entonces 1 puede considerarse como un modulo sobre R. EJEMPLO 14. Sea V un espacio vectorial sobre un cuerpo K y sea T : V -+ V una aplicaci6n lineal. H acemos de V un mOdulo sobre el anillo K lxl de los polinornios sobre K definiendo f (x)v = f(T)(v). El lector comprobani que Ia multiplicaci6n por escalar queda bien definida.

APENDICE

541

Sea M un modulo sobre R. Un subgrupo aditivo N de M se llama un submodulo de M si ueN y keR implican kueN. (Notamos que N es entonces un modulo sobre R.) Sean M y M' dos R-m6dulos. Una aplicaci6n T: M--+ M' se llama un homomorfismo (o tambien R-homomorfismo o R-lineal) si i) T(u

+ v) =

T(u)

+ T(v)

y

ii) T(ku) = kT(u)

para todo u, veM y todo keR.

PROBLEMAS SUPLEMENTARIOS

GRUPOS l.

Determinar cuales de los siguientes sistemas forman un grupo G: i)

G

= conjunto de

los enteros, operacion sustraccion.

= {1, - 1}, operaci6n multiplicacion. iii) G = conjunto de los numeros racionales diferentes de cero, operacion division. iv) G = conjunto de las matrices no singulares n x n, operacion multiplicacion de matrices. v) G = {a + bi: a, bE Z}, operacion adicion. ii)

2.

G

Mostrar que en un grupo G i)

el elemento identidad de G es unico;

ii)

cada a E G tiene un invers"o unico a- 1 E G;

iii)

(a-

1 )- 1

=a y (ab)- 1 = b- 1 a- 1 ;

iv) ab = ac implica b = c y ba = ca implica b = c.

3.

En un grupo G, las potencias de a E G se definen por

Mostrar que las formulas siguientes se cumplen para enteros arbitrarios r, s, tEZ: i) a' a• = ar+', ii) (a')' = ars, iii) (ar+s)' = ci'r+sr. 4.

Mostrar que si G es un grupo abeliano, entonces (ab )" = a• b" para todo a, bEG y cualquier entero nEZ.

5.

Supongamos que G es un grupo tal que (ab) 2

6.

Supongamos que H es un subconjunto de un grupo G. Mostrar que H es un subgrupo de G si y solo si: i) H es no vacio, ii) a, bEH implica ab- 1 EH.

7.

Demostrar que Ia intersecci6n de cualquier numero de subgrupo de G tambien es un subgrupo de G.

2

= a b

2

para todo a, bEG. Mostrar que G es abeliano .

542 8.

ALGEBRA LINEAL

Mostrar que el conjunto de todas las potencias de aeG es un subgrupo de G; este se llama el grupo ciclico generado por a.

9.

Se dice que un grupo G es ciclico si G es generado por algun aeG, esto es, G = {a": neZ} . Mostrar que cualquier subgrupo de un grupo ciclico es ciclico.

10.

Supongamos ue G es un grupo ciclico. Mostrar que G es isomorfo al conjunto Z de los enteros para Ia adici6n o a! conjunto Z" (de los enteros modulo n) para Ia adici6n.

11.

Sea H un subgrupo de G. Mostrar que los cogrupos a derecha (a izquierda) de H particionan a G en subconjuntos disjuntos dos a dos.

12.

El arden de nn grupo G denotado por IGI es el numero de elementos de G. Demostrar el teorema de Lagrange: Si H es un subgrupo de un grupo finito G, entonces IHI divide a IGI.

13.

Supongamos que

IGI =

p, donde p es primo. Mostrar que

G es ciclico.

14. Supongamos que H y N son dos subgrupos de G con N normal. Mostrar que: i) HN es un subgrupo de G, ii) H n N es un subgrupo normal de G. 15.

Sea H un subgrupo de G con dos cogrupos unicamente a derecha (a izquierda). Mostrar que H es un subgrupo normal de G.

16.

Demostrar el Teorema 1: Sea Hun subgrupo normal de G. Entonces los cogrupos de Hen G forman un grupo Gf H para Ia multiplicaci6n de cogrupos.

17.

Supongamos que G es un grupo abeliano. M ostrar que cualquier grupo factor G(H tambien es a beliario.

18.

Sea f: G i) ii)

-+ G'

un homomorfismo de grupos. Mostrar que

f(e) = e', donde e y e' son los elementos identicos de G y G' respectivamente; f(a- 1 )=f(a)- 1 para todo a e G.

19.

Demostrar el Teorema 2: Sea f: G--. G' un homomorfismo de grupos con nucleo K. Entonces K es un subgrupo normal de G y el grupo cociente Gf K es isomorfo a Ia imagen de f.

20.

Sea G el grupo multiplicativo de los numeros complejos z tales que de los numeros reales. Probar que G es isomorfo a R/Z.

21.

Para un elemento fijo ge G sea g: G -+ G definida por g(a) = g- 1 ag. Mostrar que g es un isomorfismo de G sobre G.

22.

Sea G el grupo multiplicativo de las matrices n x n no singulares sobre R. Mostrar que Ia aplicaci6n A.....,.IAI es un homomorfismo de Gen el grupo multiplicativo de los numeros reales diferentes de cero.

23.

Sea G un grupo abeliano. Para un elemento fijo nEZ, mostrar que Ia aplicaci6n homomorfismo de G en G.

24.

Supongamos que H y N son dos subgrupos de G con N normal. Probar que H n N es normal en H y H j (H n N) es isomorfo a H N/N.

lzl = I

y sea R el grupo aditivo

a~-->a"

es un

APENDICE

543

ANILLOS 25.

M ostrar que en un anillo R : i) a· 0 = 0 ·a= 0, ii) a( -b) = ( -a)b = -ab, iii) (-a) ( - b) = ab.

26.

Mostrar que en un anillo R con un elemento identidad: i) ( -l)a = - a, ii) ( - 1)( - I) = l.

27.

Supongamos que a 2 =a para todo aER. Probar que Res un anillo conmutativo. (Un anillo con esta propiedad se llama un ani/lo booleano.)

28. Sea R un anillo con elemento identidad. Formamos con R otro anillo ft. definiendo a 67 b = a+ b + 1 y a· b = ab + a+ b. i) Verificar que R es un anillo. ii) Determinar los elementos 0 y 1 de R. 29. Sea Gun grupo (aditivo) abeliano cualquiera. Definimos una multiplicaci6n en G por a· b = 0. M ostrar que esta multiplicaci6n hace de G un anillo. 30.

Probar el Teorema 3: Sea I un ideal (bilatero) en un anillo R . E ntonces los cogrupos {a + l :aER} forman un anillo para la adici6n y Ia multiplicaci6n de cogrupos.

31.

Sean ! 1 e I 2 dos ideates en R. Probar que 1 1

+ I2

e / 1 ni2 son tambien ideales en R.

32. Sean R y R' dos anillos. Una aplicaci6n f: R-> R' se llama un homomorfismo (o tambien un homomorfismo de anillos) si i) f(a+b)=f(a)+f(b)

y

ii) j(ab)=f(a)f(b)

para todo a, bER. Probar que sif: R-> R' es un homomorfismo, entonces el conjunto K = {rER :f(r) = 0} es un ideal en R. (El conjunto K se llama el nlkleo de f.)

DOMINIOS DE INTEGRIDAD Y CUERPOS 33.

Probar que en un dominic de integridad D si ab = ac, a oF 0, entonces b = c.

34.

Probar que F = {a+ bj2:a, b racionales} es un cuerpo.

35.

Probar que D = {a

36.

Probar que un dominio de integridad finito D es un cuerpo.

37.

Mostrar que los unicos ideates en un cuerpo K son {0} y K.

38.

Un numero complejo a + bi, donde a, b son enteros, se llama un entero gaussiano. Mostrar que el conjunto G de los enteros gaussianos es un dominio de integridad. Tambien mostrar q ue las unidades en G son ± I y ± i.

39.

Sea D un dominic de integridad y sea I un ideal en D. Probar que el anillo factor Dfl es un dominic de integridad si y solo si I es un ideal primo. (Un ideal I es prima si abEl implica aEI o b El.)

+ bj2: a, b enteros} es

un dorninio de integridad pero no un cuerpo.

40. Consideremos el dorninio integridad D ={a+ bji3:a, b enteros} (vease el Ejemplo ll). Si a= a+ bfo, definimos N(a) = a 2 - 13V Probar: i) N(afJ) = N(a)N(fJ); ii) a es una unidad si y solo si N(a) = ± 1; iii) las unidades de D son ± 1, 18 ± s.jl3 y -18 ± 5JT3; iv) los numeros 2, 3- ji3 y -3 - ji3 son irreducibles.

544

ALGEBRA LINEAL

MODULOS 41. Sea M un R-m6dulo y sean A y B dos subm6dulos de M. Mostrar que A

+B

y An B son tambien

subm6dulos de M. 42.

SeaM un R-m6dulo con un subm6dulo N. Mostrar que los cogrupos {u+N:ueM} forman un R-m6dulo para Ia adici6n de cogrupos y Ia multiplicaci6n por escalar definida por r(u + N) = ru + N. (Este modulo se denota por M fN y se llama el modulo cociente.)

43.

Sean M y M' dos R-m6dulos y sea f: M--+ M' un R-homomorlismo. Mostrar que el conjunto K = {u EM :f(u) = 0} es un subm6dulo de f. (El conjunto K se llama el nucleo de f.)

44.

SeaM un R-m6dulo y sea E(M) el conjunto de todos los R-homomorlismo de Men si mismo. Delinir las operaciones apropiadas de adici6n y multiplicaci6n en E(M) para que sea un anillo.

Polinomios sobre un cuerpo

INTRODUCCION El anillo K [r] de los polinomios sabre un cuerpo K tiene muchas propiedades ana.Iogas a propiedades de los enteros. Estas juegan un papel importante en Ia obtencion de formas canonicas para un operador lineal Ten un espacio vectorial V sobre K. Cualquier polinomio en K [t] puede escribirse de Ia forma f(t) = a11 t"

+ ··· + a 1 t + a 0

La entrada ak se denomina el k-esimo coeficience de f . Si n es el mayor entero para el que a. i= 0, decimos que el grado de f es n, escrito grado

f

= n

Asimismo, llamamos a an el coeficiente dominante de J, y si a. = 1, decimos que f es un polinomio normalizado. Por otra parte, si todo coeficiente de f es 0, f se llama el polinomio cera, escrito f = 0. El grado del polinomio cero no esta definido.

DIVISIBILIDAD. MAXIMO COMUN DIVISOR El siguiente teorema formaliza el proceso conocido como «division larga». Teorema 1 (Aigoritmo de Euclides): polinomios q y r tales que

Sean f y q polinomios sabre un cuerpo K con g i= 0. Existen f= qg

donde r

= 0 o grado r < grado

+r

·

g.

545

546

ALGEBRA LINEAL

Demostracion:

Si f = 0 o si grado f < grado g, tenemos Ia representaci6n requerida

f= Og + f Supongamos ahora grado

f

~

grado g, digamos

donde a., bm # 0 y n ~ m. Construimos el polinomio a

Jl = J- bn

t•-mg

[I]

m

Entonces grado /

1

< grado f. Por inducci6n existen polinomios q 1 y r tales que

donde r = 0 o grado r < grado g. Sustituyendo esto en [1] y despejando f,

que es Ia representaci6n deseada. Teorema 2: El anillo K [t] de los polinomios sobre un cuerpo K es un anillo de ideates principales. Si I es un ideal en K [t], existe un unico polinomio normalizado d que genera I, esto es, tal que d es divisor de todo polinomio f E I. Demostracion: Sea d un polinomio de grado minimo en I. Dado que podemos multiplicar d por un escalar no nulo y permanecer todavia en I , podemos suponer sin perdida de generalidad que des un polinomio normalizado. Supongamos ahora /EI. En virtud del Teorema 1, existen polinomios q y r tales que

f = qd + r,

donde r = 0 o grado r < grado d

Ahora f , d E I implica qd E I y por tanto r = f - qd E I. Pero d es un polinomio de grado minimo en I. En consecuencia, r = 0 y f = qd, es decir, d es divisor de f. Resta probar que d es unico. Si d' es otro polinomio normalizado que genera I, entonces d es divisor de d' y d' es divisor de d. Esto implica d = d', porque d y d' est<'tn normalizados. Queda asi demostrado el teorema. Teorema 3: Sean f y g polinomios no nulos en K [t). Existe un unico polinomio normalizado d tal que: i) d es divisor defy g, ii) si d' es divisor de f y g, necesariamente lo es de d. Definicion: El polinomio d precedente se denomina el maximo comun divisor defy g. Sid se dice que f y g son primos entre si.

= 1,

APENDICE

547

Demostracibn del Teorema 3: El conjunto I = { mf + ng: m, n E K [tl} es un ideal. Sea d el polinomio normalizado que genera I. N6tese que f, g E / , luego des divisor defy g. Supongamos ahora que d' es divisor de f y g. Sea J el ideal generado por d'. En ese caso, f , g E J y por consiguiente I c J. De acuerdo con esto, del, de modo que d' es divisor de d como se pretendia. Falta probar que des unico. Si d 1 es otro maximo comun divisor defy g (normalizado), d es divisor de d 1 y d 1 lo es de d. Esto implica d = d 1 , ya que d y d 1 estan normalizados. Queda asi demostrado el teorema. Corolario 4: Sea d e! maximo comun divisor de los polinomios f y g. Existen polinomios m y n tales que d = mf + ng. En particular, si f y g son primos entre si, existen polinomios m y n tales que mf + ng = 1. · El corolario deriva directamente del heche de que d genera el ideal I = {nif + ng : m, neK[t)}

FACTORIZACION Se dice que un polinomio peK[t] de grado positivo es irreducible sip =fg implica que fog es un escalar. Lema 5: Supongamos que p E K [t ] es irreducible. Si p es divisor del producto fg de polinomios gE K [t], p es divisor de f o de g. Con mayor generalidad, si p es divisor del producto de n polinomios fJ 1 ... f., entonces es divisor de uno de ellos.

f,

Demostracibn: Supongamos que p es divisor de fg pero no de f. Como p es irreducible, los polinomios f y p deben ser primos entre si. Existen, pues, polinomios m, n E K [t] tales que mf + np = l. Multiplicando esta ecuaci6n por g obtenemos nifg + npg =g. Pero p es divisor de fq y por tanto de mfg y de npg; por esta raz6n, p es divisor de la suma g = nifg + npg. Supongamos ahora que p es divisor de fJ 2 ..• f •. Si p es divisor de / 1 , el lema esta demostrado. Si no, por el resultado anterior, p es divisor del producto f 1 .•• f •. Por inducci6n en n, p es divisor de uno de los polinomios f 1 , ... ,f •. Queda asi demostrado ellema. Teorema 6 (Teorema de factorizacion (mica): Sea fun polinomio no nuJo en K [t]. Entonces f puede escribirse de forma unica (salvo orden) como un producto

donde keK y los P; son polinomios irreducibles normalizados en K[t].

Demostracion: Probamos primero Ia existencia de tal producto. Si f es irreducible o si f E K , claramente existe un producto semejante. Por otra parte, supongamos f = gh, donde g y h no son escalares. En tal caso, g y h tienen grados menores que el de f. Por inducci6n podemos suponer

548

ALGEBRA LINEAL

donde k 1 , k 2 E K y los 9; y hi son polinomios irreducibles normalizados. En consecuencia,

es nuestra representacion deseada. A continuacion demostramos Ia unicidad (salvo orden) de tal producto para f. Supongamos

donde k, k'EK y los p 1, ... , Pm q 1 , ••• , q'" son polinomios irreducibles normalizados. Ahara p 1 es divisor de k' q 1 •.• q'". Como p 1 es irreducible, debe ser divisor de uno de los q;, segun el Lema 5. Sea p 1 divisor de, por ejemplo, q 1 . Dado que p 1 y q 1 son irreducibles y estan normalizados, p 1 = q 1 • De acuerdo con ella,

Par inducci6n tenemos que n = m y p2 = q 2 , ••. , Pn = q'" para alguna reordenaci6n de los q;. Tambien tenemos que k = k' . Queda, pues, demostrado el teorema. Si el cuerpo K es el cuerpo complejo C, disponemos del siguiente Teorema 7 (Teorema fundamental del algebra): Sea f(t) un polinomio no nulo sabre el cuerpo complejo C. Entonces f(t) puede escribirse de forma unica (salvo arden) como un producto

donde k,

r;E C,

es decir, como un producto de polinomios lineales.

En el caso del cuerpo real R, disponemos del siguiente resultado. Teorema 8: Sea f(t) un polinomio no nulo sabre el cuerpo real R. Entonces f(t) puede escribirse de forma (mica (salvo arden) como un prod_ucto

donde k E R y los P; (t) son polinomios irreducibles normalizados de grado uno o dos.

lndice

A(V), 381 Absoluto, valor, 61 Acompaiiante, m atriz, 444 Adjunto clasico, 299 Adjunto, operador, 503, 513 representaci6n matricial, 504 Algebra de operadores lineales, 381 Algebraica, rnultiplicidad, 334 Algoritmo: de Euclides, 545 de Gauss-Jordan, determinante, 298 diagonalizaci6n bajo: congruencia, 121 similaridad, 121, 338 diagonalizaci6n ortogonal, 342 eliminaci6n, 13 matriz inversa, 118 para hallar bases, 183 Alternada, forma bilineal, 486 Ampliada, matriz, 93 Angulo, 52, 244 Anillo de polinornios, 545 Aniquiladores, 473, 478 Anti-a utoadjunto, operador, 506 Antihermitica, 11 5 Antisimetrica, 112 Aplicaciones, 369, 384 composici6n de, 371 lineales, 372, 386 ma trices, 373 Autoadjunto, operador, 506

B(V), 485 Base: dual, 471, 475 espacio vectorial 178, 200 ortogonal, 247 ortonormal, 247 segunda dual, 4 72 solucion general, 23 usual, 178 Base, algoritmo para hallar una, 183 Bessel, desigualdad de, 251 Bilineal, forma , 4 84, 491 alternada, 486 forma polar, 488 rango, 486 real simetrica , 488 representacion matricial, 486 simetrica, 487 Biyectiva, aplicacion, 371 Bloques, matriz por, 94, 101 cuadrada, 116, 145 determinante, 303 diago nal, 116, 344 Jordan, 442 triangular, 116

C", 62 Cambio de base, 190, 222 Cambio de base, matriz de, 190, 411, 423 Cambio de variable, m atriz d_e, 125 Cancelaci6n, ley de, 168

549

550

A LGEBRA LINEAL

Canonica, forma, 17, 416 Jordan, 441, 450 por filas, 17. 19, 32 racional, 443, 459 Caracteristico, polinomio, 332, 412 Cauchy-Schwarz, desigualdad de, 52, 68, 242, 258 Cayley-Hamilton, teorema de, 333 Celdas, 94 Cero (nulo): aplicacion, 373 matriz, 90, 92, 101 polinomio, 546 vector, 46 Ciclicos, subespacios, 443, 459 Chisico, adjunto, 299 Cociente, espacio, 445, 455 Codominio, 369 Coeficientes, 2 de Fourier, 249 Coeficientes, matriz de los, 20, 92 Cofactor, 297 Columna(s), 16, 88 espacio, 173 operaciones, 119 rango poe, 180 vector, 47, 88 Compatibles, sistemas, 15 Complejo(a): conjugado, 60 matriz, 114, 144 n-espacio, 62 numeros, 60 producto interno, 256 Complemento ortogonal , 245, 268 Componente, 46, 250 Composicion de a plicaciones, 371 Congruente(s): diagonalizacion, 122 matrices, 121 , 486 matrices simetricas, 121 , 147 Conjugada, matriz, 114 Conjugado, complejo, 60 Conjuntos generadores, 172 Conmutan, matrices que, 107 Convencional, forma, 8 Coordenadas, 46, 186 Coordenado, vector, 186, 221 Cramer, regia de, 301 , 310 Cuadrada, matriz, 105, 132 por bloques, 116, 145 Cuadraticas, fo rmas cuadraticas, 121, 147, 341 , 349, 488 diagonalizacion, 122 hermiticas, 490 representacion matricia1, 121 Cuerpo, 87 Curvas, 56

Degeneradas, ecuaciones lineales, 3 Dependencia lineal, 174, 198 Determinante, 290 ccilculo del, 298, 307 de orden tres, 292 de orden n, 295 ecuaciones lineales, 300 matriz por bloques, 303 multilineal, 304 operadores lineales, 413 propiedades, 296 volumen, 303 Diagonal (de una matriz), 107 Diagonal, matriz, Ill por bloques, 116 Diagonalizables, matrices, 330, 353 Diagonalizacion, 413, 425 algoritmo, 122, 338 Dimension de espacios vectoriales, 178 subespacios, 180, 203 Dimension del espacio de soluciones, 23 Directa, suma, 185, 215 descomposicion en, 438, 448 Dirigido, segmento, 54 Distancia, 52 Dominio, 369 2-norma, 260 Dual: base, 471 espacio, 471

Ecuaciones (vease Lineales, ecuaciones) Elemental, matriz, 117, 120, 138 Elementales, divisores, 444 Elementales, operaciones, 8 columnas, I 19 filas, 17, 116 Eliminacion, algoritmo de, 7 Eliminacion gaussiana, 10, 28, 118, 308 Entrada principal no nula, 16 Envolvente, 172 Equivalencia: de matrices, 119, 121 por filas, 17 Equivalentes, sistemas, 8 Escalar, 46, 167 matriz, 107 producto, 50 Escalar, producto, 50, 62, 67 Escalonada: forma, 12. 16, 27 matriz, 16 Espaciales, vectores, 45, 57 Espacio de matrices, 169 Espacio propio, 335, 413 Espectral, teorema, 512

1ND1CE

Euclideo: algoritmo, 545 espacio, 239 Eva]uacicin, aplicacicin, 108 Externo, producto, 58 F(X) , 169

Factorizacicin: de polinomios, 547 LU, 129 Fila(s), 16, 88 equivalencia, I 7, I 17 forma canci nica, 17, 19, 32 operaciones, 17, 116 rango, 180 reduccicin, 17, 31 vectores, 88 Finita, dimension, 178 Fourier, coeficientes de. 249 Funcional lineal, 470 Funciones, espacios de, 169 Gauss-Jordan, algoritmo de, 34 · Gaussiana, eliminacion, 10, 28, 11 8, 308 General, solucion, 2, 8 G eometrica, multiplicidad , 336 Grado de un polinomio, 545 Gnifico, 5 G ram-Schmidt, ortogonalizacion, 252 Hermitica: forma; 490 forma cuadnllica, 490 matriz, 115 Hilbert, espacio de, 242 Hiperplano, 54 Homogeneos, sistemas, 21, 37, 473 ldentidad: aplicacion, 372 matriz, 107 lguales: matrices, 88 vectores, 47 ijk, notaci6n, 57 lm F, 374 Im z, 60 Imagen de una aplicaci6n lineal, 374, 388 Imaginaria, parte, 60 Incompatibles, sistemas, 15 lndependencia lineal, 174 Infinita, dimension, 178 lnterno, producto, 239, 262 complejo, 256 usual, 239, 258

551 ·

lnvariancia, 437 Invariantes, subespacios, 438, 446 lnversa, matriz, 109 algoritmo de calculo, 118 lnvertibles, matrices, 109, 136 operadores, 382 sustituciones lineales, 125 lnyectiva, aplicacicin, 37 1 lsomorfismo, 188. 374, 379 lsomorfos, espacios vectoriales, 374 Jorda n, bloque de, 442 Jordan , forma canonica de, 441 K", 169 Ker F (nticleo de F), 375 Kronecker, delta de, 107

Laplace, desarrollo de, 298 Ley de inercia, 121 , 489 Libre, variable, 4, 12 Lineal: combinacion, 23, 48, 172, 177, 196 dependencia, 49, 174, 198 envolvenle, 172 funcional, 470, 505 independencia, 50, 174 Lineal, aplicacion, 372, 378, 386 imagen, 374, 388 nucleo. 374, 388 nulidad, 376 representacion matricial, 415 traspuesta, 474 Lineal, ecuacion, I degenerada, 3 en una incognita, 2 Lineal, operador, 38 1 adjunto, 503 determinante, 412 espacios con producto interno, 503 invertible, 382 nilpotente, 441 polinomio caracteristico, 412 representacion matricial, 407 Lineales, ecuaciones (sistemas), 24, 181, 378, 383, 473 compatibles, I 5 con dos incognitas, 4 forma escalonada, 27 forma triangular, 10, 27 Longitud, 51, 241 LU, factorizacion, 129, 154 Matricial, representacion: de aplicaciones lineales, 406, 415, 429 forma bilinea1, 485

552

ALGEBRA LINEAL

forma cuadratica, 121 operador adjunto, 504 Matriz (matrices), 15, 87 acompafiante, 443 ampliada, 93 compleja, 114 cuadrada, 105 de cambio de base, 190, 411, 509 de cambio de variable, 125 de coeficientes, 20, 93 diagonal, Ill diagonalizable, 330, 353 equivalente, 119 escalonada, 16 invertibte, 109 no singular, 109 normal, 115 por bloques, 94, 101 similar, 423 triangular, 111 Maximo comun divisor, 447 Menor, 297, 301 principal, 302 Minimo, polinomio, 342, 356, 414 Minkowski, desigualdad de, 52 Multilinealidad, 304 Multiplicidad, 336 n-espacio, 46 Nilpotente, 441 No degeneradas, ecuaciones lineales, 3 No negativa, semidefinida, 489 No singular: aplicaci6n lineal, 3 79 matriz, 109 Norma, 51, 62, 241 , 259 Norma uniforme (o del supremo), 260 Normados, espacios vectoriales, 259 Normal: matriz, 115 operador, 507, 512 Normal, vector, 55 Norrnalizaci6n, 52 Normalizado, polinornio, 545 Nucleo de una aplicaci6n lineal, 374, 388 N ulidad, 376 Operaciones con aplicaciones lineales, 379 Operadores (vease Lineal, operador) Ortogonal(es): base, 247 cornplemento, 245, 268 conj untos, 247 matriz, 112, 255, 508 operador, 505, 51I proyectores, 513

Ortogonalidad, 51, 331 Ortogonalizaci6n (Gram-Schmidt), 252 Ortonormal, base, 247 P(c), 169

Paralelogramo, ley del, 45 Parametros, 4, 12, 55 Paridad de las permutaciones, 294 Permutaciones, 293, 3 18 Perpendicular, 51 Pitagoras, teorema de, 247 Pivotar (reducci6n por filas), 3 1 Pivote, entradas, 19 Pianos, 71 Polar. forma, 488 Polinomio(s), 545 caracteristico, 332 de Legendre, 254 grado de un, 545 minimo, 414 normalizado, 545 Positiva(o) delinida(o): rnatriz, 128, 150, 254 operador, 490, 505 Positivo, operador, 506 Potencias de matrices, 108 Primaria, descomposici6n, 440 Prirnera incognita, 3 Principal, rnenor, 302 Producto: escalar, 50, 62 interno, 239, 262 vectorial, 58 Producto de matrices, 90 Producto interno, espacio con, 239 operadores lineales en, 504 Proyecciones, 52, 250, 373, 400, 470, 513 ortogonales, 513 Punto, 46, 62

R", 46, 63 Racional, forma can6nica, 443 Rango, 121 , 126 Re z, 60 Real, parte, 60 Real simetrica, forma bilineal, 488 Recta, 55 Reducci6n, algoritmo de: determinantes, 298 ecuaciones lineales, 13 Schwarz (vease Cauchy-Schwarz), desigua ldad de, 52, 68 Segundo dual, espacio, 472 Signatura, 121 , 126

INDICE

Simetrica, forma bilineal, 487, 493 Simetricas, matrices, 112 congruentes, 12 1, 147 Similaridad: matrices: 129, 151, 423 operadores, 412 Singular, 379, 393 Sistemas de ecuaciones lineales, (vease Lineales, ecuaciones) Soluciones, l , 24 general, I, 8 simultaneas, 6 Sumas de espacios vectoriales, 184 Suprayectiva, aplicacion, 371 Sustitucion bacia atras, II Sylvester, teorema de, 489 Tamai'io de una matriz, 16, 88 Tangente, vector, 57 Transici6n, matriz de, 190, 411 T raspuesta: aplicacion lineal, 474 matriz, 92, I 00 Traza, 107, 412 Triangular, desigualdad, 243 Triangular, forma: ecuaciones lineales, 10, 27 operadores lineales, 436, 455 Triangular, matriz, Ill por bloques, 116 Unitaria(o): matriz; 115, 509 operador, 506 Unitario, vector, 52, 243

Uno-a-uno: aplicacion, 371 correspondencia, 371 !-norma, 260 Usual: base, 178 producto interno, 239, 258

v•. 471 V .., 472 Valores propios (autovalores), 335, 346, 414 caJculo de, 338 Variable libre, 4 Variedades afines, 445 Vector, 45, 46 cero, 47 columna, 88 coordenado, 186, 221 espacial, 46, 47 fila, 88 localizado, 54 normal, 55 producto escalar, 47, 62 suma, 47, 62 tangente, 57 unitario, 52, 243 Vectores localizados, 54 Vectores propios (autovectores), 335, 346, 413 calculo de, 338 Vectorial, espacio, 167, 192 base, 178, 200 dimeusi6n, 178, 200 normado, 259 suma, 184 Vectorial, producto, 58, 77

553

'

r

'



OTRAS OBRAS DE INTERES P'UBLICADAS POR McGRAW-HILL/INTERAM ERICANA

...

ABELLANAS/ GALINDO. Metodos de Calculo (Schaum) . AMILLO/ ARRIAGA. An;i/isis matematico con aplicacio'(les a Ia computaci6n. AYRES. Algebra moderna ( Schaum) . · AYRES. Ca/cu/o diferen'cia/ e integral (3.a ed.) (Schaum) . AYRES. Ecuaciones diferenciales (Schaum). CHURCHILL. Variable compleja y ap/icaciones (5.a ed.). · GRAFE. Matematicas para economistas (2.a ed.). GRANERO. Algebra y geometria analftica. GRANERO. Calculo. KITCHEN . Calculo . LARSON . Ca/culo y geometrfa analftica (3.3 ed.) . Ll PSCH UTZ. Probabilidad. MARCELLA NI CASAS US/ ZA RZO. Ecuaciones diferenciales. RUDIN. Ana/isis real y complejo. RUDIN. Principios de ana/isis matematico (3.8 ed.} . SIMMONS. Ecuaciones diferenciales. \ SPIEGEL. Estadfstica (2.a ed.) (Schaum) . SPIEGEL/ ABELLANAS. Formulas y tab/as de matemcitica aplicada (Schaum) . STEIN . Calculo y geometria analftica (3.3 ed.} . 1 TORREGROSA/ JORDAN . Algebra lineal y sus aplicaciones. WYLIE. Matematicas superiores para ingenieros (2 .a ed.).

L

l

.J,J~ ·

9

9

ltn~ ISBN: 84-7615-758-4


Related Documents


More Documents from "Karen Alban"