Algebra Lineare E Geometria Analitica - Volume I - E. Abbena, A.m. Fino, G.m. Gianella.pdf

  • Uploaded by: Daniela Volpatto
  • 0
  • 0
  • February 2021
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Algebra Lineare E Geometria Analitica - Volume I - E. Abbena, A.m. Fino, G.m. Gianella.pdf as PDF for free.

More details

  • Words: 212,799
  • Pages: 710
Loading documents preview...
Algebra Lineare e Geometria Analitica Volume I E. Abbena, A.M. Fino, G.M. Gianella 12 marzo 2011

2

3

Prefazione Con l’attivazione delle lauree triennali, i corsi universitari hanno sub`ıto una notevole riduzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che trae origine dalle lezioni di “Geometria e Algebra Lineare I” che gli Autori hanno tenuto al primo anno del Corso di Laurea in Fisica presso l’Universit`a di Torino, costituisce ora un testo completo che pu`o essere anche utilizzato nelle Facolt`a di Ingegneria, come pure nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale. Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni, per lo pi`u tratti dai testi d’esame. La suddivisione in capitoli del secondo volume si riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume. Il testo e` di facile lettura e con spiegazioni chiare e ampiamente dettagliate, un po’ diverso per stile ed impostazione dagli usuali testi universitari del settore, al fine di sostenere ed incoraggiare gli Studenti nel delicato passaggio dalla scuola secondaria superiore all’Universit`a. In quasi tutti i capitoli del primo volume e` stato inserito un paragrafo dal titolo “Per saperne di pi`u” non solo per soddisfare la curiosit`a del Lettore ma con il preciso obiettivo di offrire degli orientamenti verso ulteriori sviluppi della materia che gli Studenti avranno occasione di incontrare sia in altri corsi di base sia nei numerosi corsi a scelta delle Lauree Triennali e Magistrali. Gli Autori avranno pienamente raggiunto il loro scopo se, attraverso la lettura del libro, saranno riusciti a trasmettere il proprio entusiasmo per lo studio di una materia di base per la maggior parte delle discipline scientifiche, rendendola appassionante. La figure inserite nel testo sono tutte realizzate con il programma di calcolo simbolico Mathematica, versione 7. Alcuni esercizi proposti sono particolarmente adatti ad essere risolti con Mathematica o con Maple. Per suggerimenti, osservazioni e chiarimenti si invita a contattare gli Autori agli indirizzi e-mail: [email protected], [email protected], [email protected].

4

II di copertina: Ringraziamenti Grazie ai Colleghi di Geometria del Dipartimento di Matematica dell’Universit`a di Torino per il loro prezioso contributo. Grazie al Prof. S.M. Salamon per tanti utili suggerimenti e per la realizzazione di molti grafici. Grazie ai Proff. Sergio Console, Federica Galluzzi, Sergio Garbiero e Mario Valenzano per aver letto il manoscritto. Un ringraziamento particolare agli Studenti del Corso di Studi in Fisica dell’Universit`a di Torino, la loro partecipazione attiva e il loro entusiasmo hanno motivato questa esperienza.

5

IV di copertina Gli autori Elsa Abbena, professore associato di Geometria presso la Facolt`a di Scienze Matematiche Fisiche e Naturali dell’Universit`a di Torino, svolge la sua attivit`a di ricerca su argomenti di geometria differenziale. Ha tenuto innumerevoli corsi di algebra e di geometria dei primi anni della Laurea Triennale presso vari corsi di Laurea. Anna Fino, professore associato di Geometria presso la Facolt`a di Scienze Matematiche Fisiche e Naturali dell’Universit`a di Torino, svolge la sua attivit`a di ricerca su argomenti di geometria differenziale e complessa. Ha tenuto per vari anni un corso di geometria e algebra lineare presso il corso di Laurea in Fisica. Gian Mario Gianella, professore associato di Geometria presso la Facolt`a di Scienze Matematiche Fisiche e Naturali dell’Universit`a di Torino, svolge la sua attivit`a di ricerca su argomenti di topologia generale ed algebrica. Si occupa inoltre della teoria dei grafi e pi`u recentemente della teoria dei numeri. Ha tenuto innumerevoli corsi di geometria dei primi anni della Laurea Triennale presso vari corsi di Laurea. L’opera Con l’attivazione delle lauree triennali, i corsi universitari hanno sub`ıto una notevole riduzione del numero di ore a disposizione per le lezioni ed esercitazioni. Questo libro, che trae origine dalle lezioni di “Geometria e Algebra Lineare I” che gli Autori hanno tenuto al primo anno del Corso di Laurea in Fisica presso l’Universit`a di Torino, costituisce ora un testo completo che pu`o essere anche utilizzato nelle Facolt`a di Ingegneria, come pure nel Corso di Laurea in Matematica per lo studio della Geometria Analitica nel Piano e nello Spazio e per tutte quelle parti di Algebra Lineare di base trattate in campo reale. Esso si presenta in due volumi di agevole consultazione: il primo dedicato alla parte teorica ed il secondo formato da una raccolta di esercizi, proposti con le relative soluzioni, per lo pi`u tratti dai testi d’esame. La suddivisione in capitoli del secondo volume si riferisce agli argomenti trattati nei corrispondenti capitoli del primo volume.

6

Indice 1 Sistemi Lineari 1.1 Equazioni lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 Sistemi lineari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1 Sistemi lineari omogenei . . . . . . . . . . . . . . . . . . . . .

15 15 16 29

2 Matrici e Determinanti 2.1 Somma di matrici e prodotto di un numero reale per una matrice 2.2 Il prodotto di matrici . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 I sistemi lineari in notazione matriciale . . . . . . . . . . 2.3 La matrice inversa . . . . . . . . . . . . . . . . . . . . . . . . . 2.4 La trasposta di una matrice . . . . . . . . . . . . . . . . . . . . 2.5 Matrici quadrate di tipo particolare . . . . . . . . . . . . . . . . 2.6 Le equazioni matriciali . . . . . . . . . . . . . . . . . . . . . . 2.6.1 Calcolo della matrice inversa, primo metodo . . . . . . . 2.7 La traccia di una matrice quadrata . . . . . . . . . . . . . . . . 2.8 Il determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8.1 I Teoremi di Laplace Un’altra definizione di rango di una matrice . . . . . . . 2.8.2 Calcolo della matrice inversa, secondo metodo . . . . . . 2.8.3 Il Teorema di Cramer . . . . . . . . . . . . . . . . . . . 2.9 Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . . . . . . 3 Calcolo Vettoriale 3.1 Definizione di vettore . . . . . . . . . . . . 3.2 Somma di vettori . . . . . . . . . . . . . . 3.3 Il prodotto di un numero reale per un vettore 3.4 Dipendenza lineare e basi . . . . . . . . . . 7

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

33 33 38 40 41 42 44 46 50 55 56

. . . .

. . . .

. . . .

. . . .

64 67 69 72

. . . .

75 75 77 82 84

. . . .

. . . .

. . . .

8

INDICE

3.5 3.6 3.7

3.8 3.9 3.10

Il cambiamento di base in V3 . . . . . . . . . . . . . Angolo tra due vettori . . . . . . . . . . . . . . . . . Operazioni non lineari tra vettori . . . . . . . . . . . 3.7.1 Il prodotto scalare di due vettori . . . . . . . 3.7.2 Il prodotto vettoriale di due vettori . . . . . . 3.7.3 Il prodotto misto di tre vettori . . . . . . . . . Cambiamenti di basi ortonormali in V3 e in V2 . . . . Esercizi di riepilogo svolti . . . . . . . . . . . . . . . Per saperne di pi`u . . . . . . . . . . . . . . . . . . . 3.10.1 Un’altra definizione di vettore . . . . . . . . 3.10.2 Ulteriori propriet`a delle operazioni tra vettori

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

4 Spazi Vettoriali e Sottospazi Vettoriali 4.1 Spazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 Sottospazi vettoriali . . . . . . . . . . . . . . . . . . . . . . . 4.2.1 Definizione ed esempi . . . . . . . . . . . . . . . . . . 4.2.2 Intersezione e somma di sottospazi vettoriali . . . . . . 4.3 Generatori, basi e dimensione . . . . . . . . . . . . . . . . . . 4.3.1 Base di uno spazio vettoriale . . . . . . . . . . . . . . 4.3.2 Basi e somma diretta . . . . . . . . . . . . . . . . . . 4.3.3 Rango di una matrice . . . . . . . . . . . . . . . . . . 4.3.4 Il cambiamento di base . . . . . . . . . . . . . . . . . 4.3.5 Iperpiani vettoriali . . . . . . . . . . . . . . . . . . . . 4.4 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . 4.5 Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . . . . . 4.5.1 Equazioni vettoriali e teorema del rango . . . . . . . . 4.5.2 Equivalenza tra due definizioni di rango di una matrice 4.5.3 Spazi vettoriali complessi, matrici hermitiane e anti-hermitiane . . . . . . . . . . 5 Spazi Vettoriali Euclidei 5.1 Definizione di prodotto scalare 5.2 Norma di un vettore . . . . . . 5.3 Basi ortonormali . . . . . . . . 5.4 Il complemento ortogonale . . 5.5 Esercizi di riepilogo svolti . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . . . . .

. . . . . . . . . . .

97 100 101 101 113 120 124 129 131 131 132

. . . . . . . . . . . . . .

135 135 138 139 143 149 149 162 166 176 178 180 183 188 193

. . . . . 195

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

201 201 204 208 218 223

INDICE

9

5.5.1 5.5.2

Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . . . . . . 226 Spazi vettoriali hermitiani . . . . . . . . . . . . . . . . . . . . . 226

6 Applicazioni Lineari 6.1 Matrice associata ad un’applicazione lineare Equazioni di un’applicazione lineare . . . . . . . . . . 6.2 Cambiamenti di base e applicazioni lineari . . . . . . . 6.3 Immagine e controimmagine di sottospazi vettoriali . . 6.4 Operazioni tra applicazioni lineari . . . . . . . . . . . 6.5 Sottospazi vettoriali invarianti . . . . . . . . . . . . . . 6.6 Applicazione lineare aggiunta Endomorfismi autoaggiunti . . . . . . . . . . . . . . . 6.7 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . 6.8 Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . 6.8.1 Forme lineari – dualit`a . . . . . . . . . . . . . 6.8.2 Cambiamento di base in V ∗ . . . . . . . . . . . 6.8.3 Spazio vettoriale biduale . . . . . . . . . . . . 6.8.4 Dualit`a nel caso degli spazi vettoriali euclidei . 6.8.5 Trasposta di un’applicazione lineare . . . . . . 6.8.6 Endomorfismi autoaggiunti e matrici hermitiane 6.8.7 Isometrie, similitudini, trasformazioni unitarie . 7 Diagonalizzazione 7.1 Autovalori e autovettori di un endomorfismo . . . . . . 7.2 Determinazione degli autovalori e degli autospazi . . . 7.3 Endomorfismi diagonalizzabili Matrici diagonalizzabili . . . . . . . . . . . . . . . . . 7.4 Il teorema spettrale . . . . . . . . . . . . . . . . . . . 7.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . 7.6 Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . 7.6.1 Diagonalizzazione simultanea . . . . . . . . . . 7.6.2 Il Teorema di Cayley–Hamilton . . . . . . . . . 7.6.3 Teorema spettrale e endomorfismi autoaggiunti Caso complesso . . . . . . . . . . . . . . . . . 7.6.4 Autovalori delle isometrie, similitudini, trasformazioni unitarie . . . . . . . . . . . . .

235 . . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

238 246 248 260 265

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

268 271 276 276 279 281 285 286 290 291

301 . . . . . . . . . 301 . . . . . . . . . 305 . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

312 314 321 325 326 331

. . . . . . . . . 334 . . . . . . . . . 338

10

INDICE

8 Forme Bilineari e Forme Quadratiche 8.1 Forme bilineari simmetriche . . . . . . . . . . . . . . . . . . . . 8.1.1 Matrice associata ad una forma bilineare simmetrica . . . . 8.2 Forme quadratiche . . . . . . . . . . . . . . . . . . . . . . . . . . 8.3 Nucleo e vettori isotropi . . . . . . . . . . . . . . . . . . . . . . . 8.4 Classificazione di una forma quadratica . . . . . . . . . . . . . . . 8.5 Forme canoniche . . . . . . . . . . . . . . . . . . . . . . . . . . 8.6 La segnatura di una forma quadratica . . . . . . . . . . . . . . . . 8.7 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . 8.8 Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . . . . . . . 8.8.1 Forme bilineari simmetriche ed endomorfismi autoaggiunti 8.8.2 Forme bilineari simmetriche e spazio vettoriale duale . . . 8.8.3 Altri metodi di classificazione di una forma quadratica . . 8.8.4 Il determinante come forma p-lineare . . . . . . . . . . . 9 Geometria Analitica nel Piano 9.1 Il riferimento cartesiano, generalit`a . . . . . . . . . . . . 9.1.1 Distanza tra due punti . . . . . . . . . . . . . . . 9.1.2 Punto medio di un segmento . . . . . . . . . . . 9.1.3 Baricentro di un triangolo . . . . . . . . . . . . . 9.2 Luoghi geometrici del piano . . . . . . . . . . . . . . . . 9.3 Riferimento polare . . . . . . . . . . . . . . . . . . . . . 9.4 Traslazione degli assi . . . . . . . . . . . . . . . . . . . 9.5 Simmetrie . . . . . . . . . . . . . . . . . . . . . . . . . 9.5.1 Curva simmetrica rispetto all’asse delle ordinate . 9.5.2 Curva simmetrica rispetto all’asse delle ascisse . 9.5.3 Curva simmetrica rispetto all’origine . . . . . . . 9.6 Retta nel piano . . . . . . . . . . . . . . . . . . . . . . . 9.6.1 Retta per un punto parallela ad un vettore . . . . 9.6.2 Retta per un punto ortogonale ad un vettore . . . 9.6.3 Retta per due punti distinti . . . . . . . . . . . . 9.6.4 Rette particolari . . . . . . . . . . . . . . . . . . 9.6.5 Il coefficiente angolare ed il suo legame con a, b, c 9.7 Parallelismo, ortogonalit`a, angoli e distanze . . . . . . . 9.7.1 Condizione di parallelismo tra rette . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . . . . . . . .

. . . . . . . . . . . . .

341 341 344 350 353 364 370 376 381 389 389 392 393 398

. . . . . . . . . . . . . . . . . . .

405 405 408 408 408 409 412 414 417 417 418 418 420 421 422 424 426 426 428 428

INDICE

9.8 9.9 9.10

11

9.7.2 Condizione di perpendicolarit`a tra rette . . 9.7.3 Angolo tra due rette . . . . . . . . . . . . 9.7.4 Posizione reciproca di due rette nel piano 9.7.5 Distanza di un punto da una retta . . . . . Fasci di rette . . . . . . . . . . . . . . . . . . . . Esercizi di riepilogo svolti . . . . . . . . . . . . . Per saperne di pi`u . . . . . . . . . . . . . . . . . 9.10.1 Rette immaginarie . . . . . . . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

10 Riduzione a Forma Canonica delle Coniche 10.1 La circonferenza nel piano . . . . . . . . . . . . . . . . . 10.1.1 Posizione reciproca tra una retta e una circonferenza 10.1.2 Retta tangente ad una circonferenza in un suo punto 10.1.3 Posizione reciproca di due circonferenze Circonferenza per tre punti . . . . . . . . . . . . . 10.1.4 Fasci di circonferenze . . . . . . . . . . . . . . . . 10.2 Le coniche: definizione e propriet`a focali . . . . . . . . . . 10.2.1 L’ellisse . . . . . . . . . . . . . . . . . . . . . . . 10.2.2 L’iperbole . . . . . . . . . . . . . . . . . . . . . . 10.2.3 Iperbole equilatera riferita agli asintoti . . . . . . . 10.2.4 La parabola . . . . . . . . . . . . . . . . . . . . . 10.2.5 Coniche e traslazioni . . . . . . . . . . . . . . . . 10.3 Le coniche: luoghi geometrici di punti . . . . . . . . . . . 10.4 Le coniche: equazioni di secondo grado, riduzione delle coniche in forma canonica . . . . . . . . . 10.5 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . 10.6 Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . . . 10.6.1 Potenza di un punto rispetto ad una circonferenza . 10.6.2 Equazioni parametriche delle coniche . . . . . . . 10.6.3 Le coniche in forma polare . . . . . . . . . . . . . 10.6.4 Retta tangente ad una conica in un suo punto . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

429 431 431 434 435 438 441 441

445 . . . . . . . 445 . . . . . . . 447 . . . . . . . 449 . . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

452 453 459 459 465 474 476 481 485

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

492 508 512 512 514 516 517

11 Geometria Analitica nello Spazio 521 11.1 Il riferimento cartesiano nello spazio . . . . . . . . . . . . . . . . . . . 521 11.1.1 Distanza tra due punti . . . . . . . . . . . . . . . . . . . . . . . 522 11.1.2 Punto medio di un segmento . . . . . . . . . . . . . . . . . . . 523

12

INDICE

11.1.3 Baricentro di un triangolo e di un tetraedro . . 11.1.4 Area di un triangolo e volume di un tetraedro 11.2 Rappresentazione di un piano nello spazio . . . . . . 11.2.1 Piano per un punto ortogonale ad un vettore . 11.2.2 Piano per un punto parallelo a due vettori . . 11.2.3 Piano per tre punti non allineati . . . . . . . . 11.3 Rappresentazione della retta nello spazio . . . . . . . 11.3.1 Retta per un punto parallela ad un vettore . . 11.3.2 Retta per due punti distinti . . . . . . . . . . 11.3.3 Posizione reciproca di due piani Retta come intersezione di due piani . . . . . 11.4 Posizioni reciproche tra rette e piani . . . . . . . . . 11.4.1 Posizione reciproca di tre piani . . . . . . . . 11.4.2 Posizione reciproca tra retta e piano . . . . . 11.4.3 Posizione reciproca di due rette nello spazio . 11.5 Fasci di piani . . . . . . . . . . . . . . . . . . . . . 11.6 Distanze e angoli . . . . . . . . . . . . . . . . . . . 11.6.1 Distanza di un punto da un piano . . . . . . . 11.6.2 Distanza di un punto da una retta . . . . . . . 11.6.3 Minima distanza tra due rette sghembe. Perpendicolare comune a due rette sghembe . 11.6.4 Angolo tra due rette . . . . . . . . . . . . . . 11.6.5 Angolo tra retta e piano . . . . . . . . . . . . 11.6.6 Angolo tra due piani . . . . . . . . . . . . . . 11.7 Sfera e posizione reciproca con rette e piani . . . . . 11.7.1 Sfera . . . . . . . . . . . . . . . . . . . . . . 11.7.2 Posizione reciproca tra piano e sfera . . . . . 11.7.3 Posizione reciproca tra retta e sfera . . . . . . 11.8 La circonferenza nello spazio . . . . . . . . . . . . . 11.9 Posizione reciproca tra due sfere Fasci di sfere . . . . . . . . . . . . . . . . . . . . . . 11.10 Coordinate polari sferiche . . . . . . . . . . . . . . . 11.11 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . 11.12 Per saperne di pi`u . . . . . . . . . . . . . . . . . . . 11.12.1 Baricentro geometrico di punti . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

523 523 524 524 526 529 531 531 534

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

536 538 539 541 543 545 548 549 551

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

551 556 556 556 559 559 560 563 565

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

. . . . .

570 579 583 592 592

INDICE

13

11.12.2 Potenza di un punto rispetto ad una sfera . . . . . . . . . . . . . 594 11.12.3 Sfere in dimensione quattro . . . . . . . . . . . . . . . . . . . . 598 12 Coni, Cilindri, Superfici di Rotazione e Quadriche 12.1 Cenni sulla rappresentazione di curve e superfici . . . . . . . . . . 12.2 Il cono . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.2.1 Cono tangente ad una sfera . . . . . . . . . . . . . . . . . 12.2.2 Proiezione di una curva da un punto su un piano . . . . . . 12.3 Il cilindro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3.1 Cilindri con assi paralleli agli assi coordinati . . . . . . . . 12.3.2 Cilindro circoscritto ad una sfera . . . . . . . . . . . . . . 12.3.3 Proiezione di una curva su un piano secondo una direzione assegnata . . . . . . . . . . . . . . . . . . . . . . . . . . 12.3.4 Coordinate cilindriche . . . . . . . . . . . . . . . . . . . . 12.4 Superfici di rotazione . . . . . . . . . . . . . . . . . . . . . . . . 12.5 Cenni su superfici rigate . . . . . . . . . . . . . . . . . . . . . . . 12.6 Quadriche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12.6.1 Quadriche rigate . . . . . . . . . . . . . . . . . . . . . . . 12.6.2 L’iperboloide ad una falda . . . . . . . . . . . . . . . . . 12.6.3 Il paraboloide iperbolico . . . . . . . . . . . . . . . . . . 12.7 Esercizi di riepilogo svolti . . . . . . . . . . . . . . . . . . . . . . 12.8 Per saperne di pi`u . . . . . . . . . . . . . . . . . . . . . . . . . . 12.8.1 Piano tangente ad una quadrica in un suo punto . . . . . .

. . . . . . .

. . . . . . .

. . . . . . .

601 601 603 614 616 618 622 628

. . . . . . . . . . .

. . . . . . . . . . .

. . . . . . . . . . .

632 634 636 649 652 668 668 676 680 690 690

Bibliografia

697

Indice dei Simboli

699

Indice Analitico

702

14

INDICE

Capitolo 1 Sistemi Lineari In questo capitolo si introducono le nozioni di sistema lineare, di matrici associate ad un sistema lineare e si enuncia il Teorema di Rouch´e–Capelli i cui dettagli e la dimostrazione sono rimandate al Paragrafo 4.3. In tutto il testo, salvo indicazione contraria, il campo dei numeri su cui sono introdotte le definizioni, su cui sono dimostrati i teoremi e risolti gli esercizi e` il campo dei numeri reali R.

1.1

Equazioni lineari

Definizione 1.1 Un’equazione lineare nelle incognite x1 , x2 , . . . , xn e` un’espressione del tipo: a1 x1 + a2 x2 + . . . + an xn = b,

(1.1)

dove i numeri reali ai , i = 1, 2, . . . , n, sono detti coefficienti e il numero reale b prende il nome di termine noto. L’equazione si dice lineare in quanto ogni incognita xi compare a primo grado. Definizione 1.2 Una soluzione dell’equazione lineare (1.1) e` una n-upla di numeri reali: (x01 , x02 , . . . , x0n ) che, sostituita alle incognite x1 , x2 , . . . , xn , verifica l’equazione, cio`e: a1 x01 + a2 x02 + . . . + an x0n = b. Risolvere un’equazione significa determinarne tutte le soluzioni. 15

Sistemi Lineari

16

Esempio 1.1 L’equazione lineare nelle incognite x1 , x2 , x3 , x4 : 2x1 + 3x2 − x3 + 4x4 = 5 ammette infinite soluzioni, che dipendono da 3 parametri reali, date da:  x1 = t1    x2 = t2 x3 = −5 + 2t1 + 3t2 + 4t3    x4 = t3 , t1 , t2 , t3 ∈ R; oppure, equivalentemente, l’insieme delle soluzioni S e` dato da: S = {(x1 , x2 , x3 , x4 ) = (t1 , t2 , −5 + 2t1 + 3t2 + 4t3 , t3 ) | t1 , t2 , t3 ∈ R}. Si osservi che, risolvendo l’equazione rispetto ad un’altra incognita, si ottiene lo stesso insieme di soluzioni (solo rappresentato in modo diverso). Definizione 1.3 L’equazione lineare (1.1) si dice omogenea se il termine noto b e` nullo. E` chiaro che un’equazione lineare e` omogenea se e solo se ammette la soluzione nulla, cio`e la soluzione formata da tutti zeri (0, 0, . . . , 0) ma, in generale, un’equazione lineare omogenea pu`o ammettere anche soluzioni non nulle, come nell’esempio seguente. Esempio 1.2 L’equazione lineare omogenea nelle incognite x, y : 2x − 3y = 0 ammette infinite soluzioni che dipendono da un’incognita libera, date da:   2 (x, y) = t, t , t ∈ R. 3 Si osservi che la soluzione nulla (0, 0) si ottiene ponendo t = 0.

1.2

Sistemi lineari

Un sistema lineare di m equazioni in n incognite x1 , x2 , . . . , xn e` un insieme di equazioni lineari del tipo:   a11 x1 + a12 x2 + . . . . . . + a1n xn = b1    a21 x1 + a22 x2 + . . . . . . + a2n xn = b2 (1.2) ..  .    a x + a x + . . . . . . + a x = b , a ∈ R, b ∈ R. m1 1

m2 2

mn n

m

ij

i

Capitolo 1

17

I coefficienti aij , i = 1, 2, . . . , m, j = 1, 2, . . . , n, sono dotati di due indici per agevolare il riconoscimento della loro posizione nel sistema lineare. Il primo indice (indice di riga), in questo caso i, indica il numero dell’equazione in cui il coefficiente compare, il secondo indice (indice di colonna), in questo caso j , stabilisce il numero dell’incognita di cui aij e` il coefficiente. Per esempio a23 e` il coefficiente della terza incognita nella seconda equazione. I termini noti bi , i = 1, 2, . . . , m, hanno solo un’indice essendo unicamente riferiti al numero dell’equazione in cui compaiono. Il sistema considerato e` lineare in quanto ogni equazione che lo compone e` lineare. Analogamente al caso delle equazioni, un sistema lineare si dice omogeneo se tutte le sue equazioni hanno termine noto nullo, cio`e se bi = 0, per ogni i = 1, 2, . . . , m. Anche in questo caso vale la seguente definizione. Definizione 1.4 Una soluzione di un sistema lineare di m equazioni in n incognite e` una n-upla di numeri reali: (x01 , x02 , . . . , x0n ) che, sostituita ordinatamente alle incognite, verifica tutte le equazioni del sistema, cio`e:   a11 x01 + a12 x02 + . . . . . . + a1n x0n = b1      a21 x01 + a22 x02 + . . . . . . + a2n x0n = b2 ..   .     a x 0 + a x0 + . . . . . . + a x0 = b . m1 1 m2 2 mn n m Risolvere un sistema lineare significa determinarne tutte le soluzioni. E` chiaro che ogni sistema lineare e` omogeneo se e solo se ammette la soluzione nulla (0, 0, . . . , 0), formata da tutti zeri. Definizione 1.5 Un sistema lineare si dice compatibile se ammette soluzioni, altrimenti e` incompatibile. Vi sono metodi diversi per risolvere i sistemi lineari, in questo testo si dar`a ampio spazio al metodo di riduzione di Gauss in quanto pi`u veloce (anche dal punto di vista computazionale). L’idea di base del metodo di Gauss e` quella di trasformare il sistema lineare di partenza in un altro sistema lineare ad esso equivalente ma molto pi`u semplice, tenendo conto della seguente definizione. Definizione 1.6 Due sistemi lineari si dicono equivalenti se hanno le stesse soluzioni.

Sistemi Lineari

18

Prima di iniziare la trattazione teorica si consideri il seguente esempio. Esempio 1.3 Risolvere il seguente sistema lineare di due equazioni in due incognite usando il metodo di riduzione:  x+y =4 2x − 3y = 7. Il sistema lineare dato e` equivalente a:  x+y =4 2(x + y) − (2x − 3y) = 2 · 4 − 7, ossia:



x+y =4 5y = 1

che ammette come unica soluzione (19/5, 1/5). Il metodo usato per risolvere l’esempio precedente e` conseguenza del seguente teorema. Teorema 1.1 Eseguendo un numero finito di volte le tre operazioni sotto elencate: 1. scambiare tra loro due equazioni, 2. moltiplicare un’equazione per un numero reale diverso da zero, 3. sostituire ad un’equazione la somma di se stessa con un’altra equazione moltiplicata per un qualsiasi numero reale si ottiene un sistema lineare equivalente a quello di partenza. Dimostrazione E` ovvio che scambiando tra loro due equazioni si ottiene un sistema lineare equivalente a (1.2). Per la seconda operazione, si dimostra che il sistema lineare (1.2) e` equivalente al sistema lineare che si ottiene sostituendo alla prima equazione se stessa moltiplicata per un numero reale λ 6= 0. Si osservi che se tale sostituzione avviene per la i-esima equazione e` sufficiente operare con la prima operazione per ricondursi al caso in esame. In altri termini si prova che (1.2) e` equivalente al sistema lineare:   λ(a11 x1 + a12 x2 + . . . . . . + a1n xn ) = λb1    a21 x1 + a22 x2 + . . . . . . + a2n xn = b2 (1.3) ..  .    a x + a x + . . . . . . + a x = b , λ 6= 0. m1 1

m2 2

mn n

Per la dimostrazione si deve procedere in due passi.

m

Capitolo 1

19

1. Ipotesi: (x01 , x02 , . . . , x0n ) e` soluzione di (1.2). Tesi: (x01 , x02 , . . . , x0n ) e` soluzione di (1.3). 2. Ipotesi: (x01 , x02 , . . . , x0n ) e` soluzione di (1.3). Tesi: (x01 , x02 , . . . , x0n ) e` soluzione di (1.2). 1. La dimostrazione e` ovvia e vale per ogni numero reale λ 6= 0. 2. E` sufficiente dimostrare la tesi per la prima equazione di (1.2). Per ipotesi si ha: λ(a11 x01 + a12 x02 + . . . . . . + a1n x0n ) = λb1 , essendo λ 6= 0 si possono dividere ambo i membri dell’identit`a precedente per λ, da cui segue la tesi. Per dimostrare l’equivalenza nel caso dell’operazione 3. si procede allo stesso modo. Esempio 1.4 I due sistemi lineari seguenti non sono equivalenti:   x+y =4 x+y =4 2x − 3y = 7, 0(2x − 3y) + 2(x + y) = 0 · 7 + 2 · 4. Infatti non e` consentito sostituire alla seconda equazione il prodotto di se stessa per il numero 0, anche se si mantiene inalterata la prima equazione. Si osservi che le operazioni descritte nel Teorema 1.1 agiscono linearmente solo sui coefficienti del sistema lineare e non sulle incognite. Ci`o suggerisce di sostituire ad un sistema lineare una “tabella” dei coefficienti e dei temini noti ed operare solo su questa. Viene illustrato ora questo procedimento mediante l’Esempio 1.3. Al sistema lineare: 

x+y =4 2x − 3y = 7



 1 1 4 2 −3 7

si associa la tabella: (1.4)

con le due righe: R1 =

 1 1 | 4 ,

R2 =

2 −3 | 7



Sistemi Lineari

20

e le tre colonne:  C1 =

1 2

 ,

 C2 =

1 −3

 ,

 C3 =

4 7

 .

Successivamente si opera su di essa sostituendo alla seconda riga R2 se stessa a cui si sottrae il prodotto di due volte la prima, cio`e R2 −→ R2 − 2R1 , ottenendo cos`ı:   1 1 4 , 0 −5 −1 che corrisponde al sistema lineare ridotto:  x+y =4 −5y = −1. Bench´e la definizione intuitiva di sistema lineare ridotto sia evidente, si enuncer`a la definizione formale pi`u avanti. La tabella (1.4) prende il nome di matrice completa del sistema lineare, o matrice dei coefficienti e termini noti. Il tratto verticale prima dell’ultima sua colonna intende solo distinguere i coefficienti del sistema lineare dai termini noti. Il termine matrice indica, in generale, una tabella di numeri, a prescindere dall’uso relativo ai sistemi lineari. La trattazione generale delle matrici e` rimandata al capitolo successivo, introducendo ora solo alcune nozioni elementari. E` evidente che il numero delle righe della matrice completa associata ad un sistema lineare coincide con il numero delle equazioni del sistema lineare, il numero delle colonne e` pari al numero delle incognite aumentato di una unit`a, che corrisponde alla colonna formata dai termini noti. Le operazioni di riduzione che permettono di trasformare un sistema lineare in un sistema lineare ridotto ad esso equivalente (cfr. Teor. 1.1) si traducono sulle righe della matrice in modo ovvio e si possono riassumere, rispettivamente con le seguenti notazioni: 1. Ri ←→ Rj , 2. Ri −→ λRi , λ ∈ R, λ 6= 0, 3. Ri −→ Ri + λRj , λ ∈ R, i 6= j, dove Ri e Rj indicano rispettivamente la i–esima riga e la j –esima riga. In generale, al sistema lineare (1.2) si associano due matrici, una matrice A di m righe e n colonne:   a11 a12 . . . a1n  a21 a22 . . . a2n    A =  .. (1.5) .. ..   . .  . am1 am2 · · · amn

Capitolo 1

detta matrice dei coefficienti, e una matrice (A | B)  a11 a12 . . .  a21 a22 . . .  (A | B) =  .. ..  . . am1 am2 · · ·

21

di m righe e n + 1 colonne:  a1n b1 a2n b2   .. ..  . .  amn bm

detta matrice completa. Esempio 1.5 Nel sistema lineare seguente formato da tre equazioni in tre incognite:   x + y + 2z = 9 2x + 4y − 3z = 1  3x + 6y − 5z = 0 la matrice completa (formata da tre righe e quattro colonne) e` :   1 1 2 9  2 4 −3 1 . 3 6 −5 0 Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:    −→ 1 1 2 9 1 1 2 −→    R2 → R2 − 2R1 0 2 −7 −17 0 2 −7 R3 → 2R3 − 3R2 R3 → R3 − 3R1 0 3 −11 −27 0 0 −1

 9 −17 , −3

da cui si perviene al sistema lineare:   x + y + 2z = 9 2y − 7z = −17  −z = −3, che ammette una sola soluzione:

  x=1 y=2  z = 3.

Esempio 1.6 Nel sistema lineare seguente formato da tre equazioni in tre incognite:   x1 + x2 − x3 = 1 2x1 + 2x2 + x3 = 0  x1 + x2 + 2x3 = −1

Sistemi Lineari

22

la matrice completa e` : 

1  2 1

 1 −1 1 2 1 0 . 1 2 −1

Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:     −→ 1 1 −1 1 1 1 −1 1 −→  0 0 R2 → R2 − 2R1  0 0 3 −2  3 −2 , R → R − R 3 3 2 R3 → R3 − R1 0 0 3 −2 0 0 0 0 da cui si perviene al sistema lineare: 

x1 + x 2 − x3 = 1 3x3 = −2,

che ammette infinite soluzioni che dipendono da un’incognita libera x2 , per maggiore chiarezza si pone x2 uguale ad un parametro t che quindi pu`o assumere ogni valore reale:  1   x1 = − t   3     x2 = t       2   x3 = − , t ∈ R. 3 Esempio 1.7 Nel sistema lineare seguente formato da tre equazioni in tre incognite:   x1 + x2 = −1 −2x1 + x2 + 3x3 = 2  −x1 + 2x2 + 3x3 = −1 la matrice completa e` : 

1  −2 −1

1 1 2

0 3 3

 −1 2 . −1

Procedendo alla sua riduzione mediante le tre operazioni consentite si ottiene:     −→ 1 1 0 −1 −→ 1 1 0 −1 R2 → R2 + 2R1  0 3 3 0  R2 → (1/3)R2  0 1 1 0  R3 → R3 + R1 0 3 3 −2 R3 → R3 − R2 0 0 0 −2

Capitolo 1

23

da cui si perviene al sistema lineare:   x1 + x2 = −1 x2 + x3 = 0  0 = −2 che e` chiaramente incompatibile. Gli esempi studiati impongono la definizione formale della matrice associata all’ultimo sistema lineare che si ottiene, ossia della matrice associata ad un sistema lineare ridotto equivalente a quello di partenza. Definizione 1.7 Una matrice si dice ridotta per righe se in ogni sua riga non nulla esiste un elemento non nullo al di sotto del quale vi sono tutti zeri. Esempio 1.8 La matrice: 

1  −1 1 e` ridotta per righe, mentre la matrice: 

1  −1 1

2 0 0

 0 1  0

 2 1 0 0  1 −1

non lo e` . Segue, in modo naturale, la definizione annunciata di sistema lineare ridotto. Definizione 1.8 Un sistema lineare si dice ridotto se la matrice dei coefficienti ad esso associata e` ridotta per righe. Osservazione 1.1 Se la matrice dei coefficienti associata ad un sistema lineare e` ridotta per righe ma non lo e` la matrice completa, e` sufficiente operare sulla colonna dei termini noti per pervenire ad una matrice completa ridotta per righe, per esempio:     1 2 3 1 1 2 3 1  0 1 −2 2   0 1 −2 2  −→   . (A | B) =   0 0 0 3  R4 → 4R3 − 3R4  0 0 0 3  0 0 0 4 0 0 0 0

24

Sistemi Lineari

Invece, la matrice completa di un sistema lineare pu`o essere ridotta per righe senza che necessariamente il sistema lineare associato sia ridotto; per esempio la matrice completa:   1 2 3 4 (A | B) =  7 6 5 0  9 8 0 0 e` una matrice ridotta per righe, ma il sistema lineare associato non e` ridotto perch´e la matrice dei coefficienti non e` ridotta per righe. Risolvere un sistema lineare con il metodo di riduzione consiste nel pervenire, mediante le operazioni consentite, ad una matrice dei coefficienti ridotta per righe. Dai teoremi che seguono e anche dall’Osservazione 1.1, sar`a chiaro che tra tutte le matrici complete ridotte per righe, si dovranno considerare solo quelle in cui anche la matrice dei coefficienti e` ridotta per righe. Si possono allora presentare queste possibilit`a: a. quella illustrata nell’Esempio 1.5, ovvero il numero delle righe non nulle della matrice completa ridotta per righe e` uguale al numero delle righe non nulle della matrice dei coefficienti ridotta per righe ed e` uguale al numero delle incognite, quindi l’ultima riga non nulla della matrice dei coefficienti contiene soltanto un numero non nullo, allora il sistema lineare ridotto associato e` compatibile e ha una sola soluzione. b. Quella illustrata nell’Esempio 1.6, ovvero il numero delle righe non nulle della matrice completa ridotta per righe e` uguale al numero delle righe non nulle della matrice dei coefficienti ed e` minore del numero delle incognite; l’ultima riga non nulla della matrice dei coefficienti contiene almeno un numero non nullo; allora il sistema lineare ridotto e` compatibile e ammette infinite soluzioni che dipendono da almeno un’incognita libera. c. Quella illustrata nell’Esempio 1.7, ovvero il numero delle righe non nulle della matrice completa ridotta per righe e` maggiore (di una unit`a) del numero delle righe non nulle della matrice dei coefficienti ridotta per righe e pertanto il sistema lineare ridotto associato e` incompatibile. Le definizioni seguenti (che avranno un ruolo cruciale in tutto il testo) permettono, in modo elementare, di distinguere le situazioni prima esposte. Definizione 1.9 Si dice rango di una matrice ridotta per righe il numero delle righe non nulle.

Capitolo 1

25

Definizione 1.10 Si dice rango di una matrice il rango di una qualsiasi matrice ridotta per righe da essa ottenuta. Osservazione 1.2 In base alla precedente definizione il rango della matrice formata da tutti zeri e` 0. In letteratura, le notazioni pi`u comuni per indicare il rango di una matrice sono rank(A) = rg(A) = r(A) = rk(A) = ρ(A). Si user`a la notazione rank(A). Osservazione 1.3 E` evidente che affinch`e la Definizione 1.10 abbia senso e` necessario dimostrare che, qualunque sia il processo di riduzione per righe usato, le varie matrici ridotte ottenute hanno lo stesso rango. In realt`a, la Definizione 1.10 esprime il metodo di calcolo del rango di una matrice. Per dimostrare l’affermazione appena citata e` necessario enunciare un’altra definizione di rango di una matrice e ci`o sar`a fatto nel Paragrafo 4.3 dopo aver introdotto nozioni adesso premature. I tre esempi prima elencati possono essere riscritti, in termini della nozione di rango, nel modo seguente: a. rank(A) = rank(A | B) = 3; il rango delle due matrici e` uguale e coincide con il numero delle incognite; b. rank(A) = rank(A | B) = 2; il rango delle due matrici e` uguale ma e` inferiore di una unit`a al numero delle incognite; c. rank(A) = 3, rank(A | B) = 4; i due ranghi sono diversi, il sistema lineare e` incompatibile. Si e` cos`ı “quasi” dimostrato il seguente teorema. Teorema 1.2 – Teorema di Rouch´e–Capelli – Un sistema lineare in n incognite e` compatibile se e solo se il rango della matrice dei coefficienti A coincide con il rango della matrice completa (A | B). In particolare, se rank(A) = rank(A | B) = n, il sistema lineare ha un’unica soluzione. Se rank(A) = rank(A | B) = k < n, il sistema lineare ammette infinite soluzioni che dipendono da n − k incognite libere. Si osservi, infatti, che il Teorema di Rouch´e–Capelli e` banalmente dimostrato solo nel caso dei sistemi lineari ridotti; per completare la dimostrazione e` necessario, come gi`a osservato, enunciare un’altra definizione di rango di una matrice e provare che le operazioni di riduzione per righe di una matrice non ne alterano il rango (cfr. Teor. 4.21).

Sistemi Lineari

26

Osservazione 1.4 Un sistema lineare omogeneo e` sempre compatibile, perci`o e` solo interessante capire se ammetta una sola soluzione (quella nulla) o infinite soluzioni e ci`o dipende interamente dal rango della matrice dei coefficienti. Per la risoluzione di un sistema lineare omogeneo e` sufficiente ridurre per righe la matrice dei coefficienti (questo caso sar`a esaminato in dettaglio nel Paragrafo 1.2.1). Osservazione 1.5 Mentre segue dalla Definizione 1.10 che, per una matrice A con m righe e n colonne, rank(A) ≤ m, si dimostrer`a formalmente che il rango della matrice dei coefficienti di un sistema lineare e` un numero inferiore o uguale al minore tra il numero delle equazioni e il numero delle incognite, cio`e rank(A) ≤ m e rank(A) ≤ n. Osservazione 1.6 Al pi`u il rango della matrice completa differisce di una unit`a dal rango della matrice dei coefficienti, cio`e rank(A | B) ≤ rank(A) + 1. Esempio 1.9 – Metodo di riduzione di Gauss–Jordan – Per determinare le soluzioni di un sistema lineare si pu`o procedere in modo leggermente diverso da quando si e` visto finora. Quando si perviene alla matrice completa ridotta per righe, anzich´e scrivere il sistema lineare ridotto associato si pu`o, in modo equivalente, procedere allo stesso calcolo mediante un’ulteriore riduzione della matrice completa allo scopo di pervenire alla lettura nell’ultima colonna (quella dei termini noti) delle soluzioni del sistema lineare. Questo metodo, detto anche metodo di riduzione di Gauss–Jordan, per differenziarlo dal metodo di riduzione di Gauss introdotto in precedenza, e` molto efficace quando si ha una sola soluzione, ma pu`o presentare alcune difficolt`a di calcolo negli altri casi. Viene ora illustrato con un esempio e precisamente partendo dall’ultimo passaggio di riduzione nell’Esempio 1.5. La matrice dei coefficienti ha, in questo caso, lo stesso numero di righe e di colonne. Pertanto ha senso considerare la sua diagonale principale, cio`e l’insieme formato da tutti gli elementi aii , i = 1, 2, 3 (tale nozione sar`a ripresa e riformulata con maggiore propriet`a di linguaggio nell’Esempio 2.6). Quando la matrice dei coefficienti e` ridotta per righe si inizia con il far comparire 1 sulla sua diagonale principale e poi, partendo dall’ultima riga e risalendo verso la prima, si annullano i termini della matrice sopra la diagonale principale.     9 1 1 2 1 1 2 9     −→      0 2 −7 −17  R2 → (1/2)R2  0 1 − 7 − 17     2 2     R3 → −R3  0 0 −1 −3 0 0 1 3  −→ R2 → R2 + (7/2)R3 R1 → R1 − 2R3

1

   0  0

1 1 0

0 3 0 2 1 3





 −→    R1 → R1 − R2

   0  0

1

0 1 0

0 1 0 2 1 3

   . 

Capitolo 1

27

Si osservi che sull’ultima colonna, si legge, in ordine, proprio la soluzione del sistema lineare dato. Si presti molta attenzione all’ordine con cui compaiono i valori delle incognite nell’ultima colonna, che dipende dal metodo di riduzione seguito. Esercizio 1.1 Discutere e risolvere, al variare del parametro a ∈ R, il seguente sistema lineare di tre equazioni in tre incognite:   x + 2y − 3z = 4 3x − y + 5z = 2  4x + y + (−14 + a2 )z = 2 + a. Soluzione Si procede con la riduzione per righe della matrice completa (A | B), riportando solo i passaggi essenziali.  1 2 −3 4 −→   3 −1 5 2 R2 → R2 − 3R1 (A | B) = 4 1 −14 + a2 2 + a R3 → R3 − 4R1    1 2 −3 4 1 2 −3 −→  0 −7   0 −7 14 −10 14 R3 → R3 − R2 2 0 −7 −2 + a −14 + a 0 0 −16 + a2 

 4 −10 . −4 + a

La matrice dei coefficienti A e` ridotta per righe, quindi si presentano i seguenti casi: 1. rank(A) = 3 se e solo se a2 − 16 6= 0 ossia se e solo se a ∈ / {−4, 4}; 2. rank(A) = 2 se e solo se a = −4 oppure a = 4. Per determinare le soluzioni del sistema lineare si devono considerare tre casi: 1. a ∈ / {−4, 4}, poich´e rank(A) = 3 anche rank(A | B) = 3. Il sistema lineare e` compatibile e ammette una sola soluzione, che si determina o a partire dal sistema lineare ridotto associato, oppure procedendo all’ulteriore riduzione della matrice completa prima ottenuta nel modo seguente:  −→ 1 R3 → R3 −16 + a2

1

   0    0

2

−3

7 −14 0

1

4 10 −4 + a (4 + a)(−4 + a)

   −→  1   R2 → R2  7

Sistemi Lineari

28



1

    0    0

2 −3

4 10 7

1 −2 0

1

1 4+a





  −→   R2 → R2 + 2R3   R1 → R1 + 3R3 

     0    0



1    −→   0 R1 → R1 − 2R2    0

0

0

1

0

0

1

1

2

0

1

0

0

1

 19 + 4a 4+a    54 + 10a   7(4 + a)    1 4+a

 25 + 8a 7(4 + a)    54 + 10a  . 7(4 + a)    1 4+a

In questo modo si leggono, ordinatamente in colonna, i valori delle tre incognite. 2. a = −4, sostituendo tale valore di a nell’ultimo passaggio di riduzione della matrice completa (A | B) si ha: 

1  0 0

 2 −3 4 7 −14 10  0 0 −8

da cui segue che rank(A) = 2 mentre rank(A | B) = 3, il sistema lineare e` quindi incompatibile. 3. a = 4, sostituendo tale valore di a nell’ultimo passaggio di riduzione della matrice completa (A | B) si ha: 

1    0  0

2

−3

4





1

  −→    0 7 −14 10  1  R2 → R2   7 0 0 0 0

2 −3

4



1 −2

10 7

  ,  

0

0

0

da cui segue che rank(A) = rank(A | B) = 2 (2 < 3, con 3 numero delle

Capitolo 1

29

incognite) il sistema lineare e` , quindi, compatibile e ammette infinite soluzioni:  8   x = −t   7     10 + 2t y=   7       z = t, t ∈ R. Osservazione 1.7 Le soluzioni del sistema lineare precedente possono essere riscritte nel modo seguente:     8 10 8 10 (x, y, z) = − t, + 2t, t = , , 0 + t(−1, 2, 1), t ∈ R, 7 7 7 7 mettendo cos`ı meglio in evidenza la dipendenza dall’incognita libera z = t. Si osservi inoltre che sostituendo a t un particolare valore si ottiene una soluzione particolare del sistema lineare.

1.2.1

Sistemi lineari omogenei

Si ricordi che un sistema lineare omogeneo e` un sistema lineare avente tutti i termini noti uguali a zero, cio`e del tipo:   a11 x1 + a12 x2 + . . . . . . + a1n xn = 0    a21 x1 + a22 x2 + . . . . . . + a2n xn = 0 (1.6) ..  .    a x + a x + . . . . . . + a x = 0, a ∈ R, m1 1

m2 2

mn n

ij

la cui matrice dei coefficienti A coincide con (1.5) e quella completa (A |B) e` :   a11 a12 . . . a1n 0  a21 a22 . . . a2n 0    (A | B) =  .. .. .. .. ;  . . . .  am1 am2 · · · amn 0 quindi il rango della matrice dei coefficienti A coincide con il rango della matrice completa (A | B). Infatti, come si e` gi`a osservato, un sistema lineare omogeneo ammette sempre almeno la soluzione nulla. E` molto interessante distinguere il caso in cui si ha una sola soluzione da quello con infinite soluzioni:

Sistemi Lineari

30

1. se il rango di A coincide con il numero delle incognite, allora esiste solo la soluzione (0, 0, . . . , 0); 2. se il rango di A e` un numero k strettamente minore del numero delle incognite n, allora esistono infinite soluzioni che dipendono da n − k incognite libere. Esempio 1.10 Il seguente sistema lineare omogeneo di quattro equazioni in cinque incognite:  x3 + x4 + x5 = 0    −x1 − x2 + 2x3 − 3x4 + x5 = 0 x1 + x2 − 2x3 − x5 = 0    2x1 + 2x2 − x3 + x5 = 0 ha come matrice dei coefficienti: 

 0 0 1 1 1  −1 −1 2 −3 1  . A=  1 1 −2 0 −1  2 2 −1 0 1

Procedendo alla sua riduzione per righe (si osservi che e` inutile ridurre per righe la matrice completa) si ha:     1 1 −2 0 −1 1 1 −2 0 −1 −→ −→  0  0 1 1 1  1 1 1   R3 → R3 + R1  0 0  R3 ↔ R1   −1 −1  0 0 2 −3 1  0 −3 0  R2 ↔ R3 R4 → R4 − 2R1 2 2 −1 0 1 0 0 3 0 3   1 1 −2 0 −1 −→  0 0 1 1 1   R3 → −(1/3)R3   0 0 0 1 0  R4 → (1/3)R4 0 0 1 0 1   1 1 −2 0 −1  0 0 −→ 1 1 1   . R4 → R4 − R2  0 0 0 1 0  0 0 0 −1 0 Si deduce che rank(A) = 3, esistono, quindi, infinite soluzioni che dipendono da 5−3 = 2 incognite libere. Il sistema lineare ridotto associato e` :   x1 + x2 − 2x3 − x5 = 0 x3 + x4 + x5 = 0 (1.7)  x4 = 0

Capitolo 1

le cui soluzioni sono:

31

 x1 = −t1 − t2      x2 = t2 x3 = −t1   x  4 = 0   x5 = t1 , t1 , t2 ∈ R.

Osservazione 1.8 L’insieme delle soluzioni del sistema lineare precedente si pu`o scrivere come: n (x1 , x2 , x3 , x4 , x5 ) = (−t1 − t2 , t2 , −t1 , 0, t1 ) o = t1 (−1, 0, −1, 0, 1) + t2 (−1, 1, 0, 0, 0) | t1 , t2 ∈ R . Il seguente teorema mette in relazione le soluzioni di un sistema lineare compatibile qualsiasi (1.2) con il sistema lineare omogeneo (1.6), che ha la stessa matrice dei coefficienti. Tale sistema lineare (1.6) e` anche detto il sistema lineare omogeneo associato a (1.2). Teorema 1.3 Una generica soluzione di un sistema lineare compatibile (1.2) si ottiene aggiungendo una (qualsiasi) soluzione particolare di (1.2) ad una generica soluzione del sistema lineare omogeneo associato (1.6). Dimostrazione Sia (x∗1 , x∗2 , . . . , x∗n ) una soluzione particolare di (1.2) e (x1 , x2 , . . . , xn ) una soluzione generica del sistema lineare omogeneo associato (1.6), allora si verifica immediatamente che (x1 + x∗1 , x2 + x∗2 , . . . , xn + x∗n ) e` ancora una soluzione di (1.2). Viceversa, se (x01 , x02 , . . . , x0n ) e (x001 , x002 , . . . , x00n ) sono due soluzioni qualsiasi di (1.2), delle quali (x01 , x02 , . . . , x0n ) e` quella generale e (x001 , x002 , . . . , x00n ) e` una soluzione particolare, allora e` facile verificare che (x01 − x001 , x02 − x002 , . . . , x0n − x00n ) e` soluzione del sistema lineare omogeneo associato (1.6). Esempio 1.11 Si consideri il sistema lineare:   x1 + x2 − 2x3 − x5 = 5 x3 + x4 + x5 = 4  x4 = 3

(1.8)

che ha come sistema lineare omogeneo associato (1.7). L’insieme delle sue soluzioni e` : n (x1 , x2 , x3 , x4 , x5 ) = (7 − t1 − t2 , t2 , 1 − t1 , 3, t1 ) o = (7, 0, 1, 3, 0) + t1 (−1, 0, −1, 0, 1) + t2 (−1, 1, 0, 0, 0) | t1 , t2 ∈ R .

32

Sistemi Lineari

Si osservi che (7, 0, 1, 3, 0) e` una soluzione particolare del sistema lineare dato, mentre: t1 (−1, 0, −1, 0, 1) + t2 (−1, 1, 0, 0, 0), al variare di t1 e t2 in R, e` la generica soluzione del sistema lineare omogeneo (1.7) associato. Analogamente, si verifichi per esercizio che il sistema lineare seguente:   x1 + x2 − 2x3 − x5 = 1 x3 + x4 + x 5 = 2  x4 = −1, che ha la stessa matrice dei coefficienti di (1.8) ma diversa matrice completa, ha come insieme di soluzioni: n (x1 , x2 , x3 , x4 , x5 ) = (7 − t1 − t2 , t2 , 3 − t1 , −1, t1 ) o = (7, 0, 3, −1, 0) + t1 (−1, 0, −1, 0, 1) + t2 (−1, 1, 0, 0, 0) | t1 , t2 ∈ R .

Capitolo 2 Matrici e Determinanti Scopo di questo capitolo e` quello di formalizzare il concetto di matrice gi`a introdotto nel capitolo precedente e studiare le propriet`a essenziali dell’insieme delle matrici che costituisce un valido esempio di spazio vettoriale, struttura algebrica che sar`a definita nel Capitolo 4.

2.1

Somma di matrici e prodotto di un numero reale per una matrice

Definizione 2.1 Una matrice di m righe e di n colonne, ad elementi reali, e` una tabella del tipo:    A= 

a11 a21 .. .

a12 a22 .. .

. . . a1n . . . a2n .. .

am1 am2 · · · amn

   , 

(2.1)

con aij ∈ R, i = 1, 2, . . . , m, j = 1, 2, . . . , n. Per convenzione le matrici vengono indicate con le lettere maiuscole dell’alfabeto e l’insieme della matrici di m righe ed n colonne sar`a indicato con Rm,n o, talvolta, con MR (m, n). In forma sintetica la matrice (2.1) si pu`o anche scrivere come: A = (aij ),

1 ≤ i ≤ m, 1 ≤ j ≤ n,

e aij e` l’elemento della matrice A di posto (i, j). 33

Matrici e Determinanti

34

Esempio 2.1 I numeri reali possono essere considerati come matrici di una riga ed una colonna, cio`e come elementi di R1,1 . Quindi R e` effettivamente uguale a R1,1 . Esempio 2.2 Le matrici che hanno lo stesso numero di righe e di colonne si dicono quadrate e tale numero si dice ordine della matrice. Per esempio:   1 2 A= 3 4 e` una matrice quadrata di ordine 2. Esempio 2.3 Le matrici con una riga e n colonne si dicono matrici riga. Per esempio:  A = 1 2 3 4 ∈ R1,4 e` una matrice riga. Esempio 2.4 Le matrici con m righe e una colonna si dicono matrici colonna. Per esempio:   1  2  4,1  A=  3 ∈R 4 e` una matrice colonna. Osservazione 2.1 Si osservi che, alla luce dei due esempi precedenti, gli elementi del prodotto cartesiano: Rn = {(x1 , x2 , . . . , xn ) | xi ∈ R, i = 1, 2, . . . , n} possono essere visti come matrici riga o colonna. Quindi Rn pu`o essere identificato sia con R1,n sia con Rn,1 . Esempio 2.5 La matrice (aij ) ∈ Rm,n , con tutti gli elementi aij = 0, si dice matrice nulla e si indica con O, da non confondersi con il numero 0 ∈ R. E` evidente che la matrice nulla e` l’unica matrice ad avere rango zero (cfr. Oss. 1.2). Esempio 2.6 Nel caso di una matrice quadrata A = (aij ) di ordine n, tutti gli elementi del tipo aii , al variare di i da 1 a n, costituiscono la diagonale principale. Rivestiranno in seguito molta importanza le matrici diagonali, vale a dire le matrici quadrate aventi

Capitolo 2

35

elementi tutti nulli al di fuori della diagonale principale cio`e aij = 0 se i 6= j . L’insieme delle matrici diagonali di ordine n sar`a indicato con:      a 0 . . . 0 11      0 a22 . . . 0     n,n | a ∈ R, i = 1, 2, . . . , n . (2.2) D(R ) =  ..  .. . . .. ii    .  . . .       0 0 . . . ann Esempio 2.7 Casi particolari dell’esempio precedente sono la matrice unit`a I ∈ Rn,n , ossia la matrice diagonale avente tutti 1 sulla diagonale principale:   1 0 ... 0  0 1 ... 0    I =  .. .. . . ..   . . . .  0 0 ... 1 e la matrice quadrata nulla O ∈ Rn,n , intendendosi come tale la matrice quadrata avente tutti gli elementi uguali a 0. La definizione che segue stabilisce la relazione di uguaglianza tra matrici. Definizione 2.2 Due matrici A = (aij ) e B = (bij ) sono uguali se: 1. hanno lo stesso numero di righe e di colonne, cio`e A e B appartengono entrambe allo stesso insieme Rm,n , 2. gli elementi di posto uguale coincidono, cio`e: aij = bij ,

i = 1, 2, . . . , m, j = 1, 2, . . . , n.

Si introducono ora le definizioni di somma di matrici e di prodotto di un numero reale per una matrice sull’insieme Rm,n . Definizione 2.3 Si definisce somma delle due matrici A = (aij ), B = (bij ), entrambe appartenenti a Rm,n , la matrice A + B ∈ Rm,n data da: A + B = (aij + bij ). Esempio 2.8 Date le matrici:  A=

1 3

2 4

 ,

 B=

0 −2

5 7



Matrici e Determinanti

36

la loro somma e` la matrice:  A+B =

1 7 1 11

 .

Se A e B non appartengono allo stesso insieme Rm,n , non e` possibile definire la loro somma. Ad esempio non e` definita la somma della matrice A con la matrice:   0 3 2 C= . −1 5 6 Teorema 2.1 Per l’operazione di somma di matrici definita sull’insieme Rm,n valgono le propriet`a di seguito elencate: 1. A + B = B + A,

A, B ∈ Rm,n (propriet`a commutativa).

2. A + (B + C) = (A + B) + C, 3. O + A = A + O = A, 4. A + (−A) = O,

A, B, C ∈ Rm,n (propriet`a associativa).

A ∈ Rm,n (esistenza dell’elemento neutro).

A ∈ Rm,n (esistenza dell’opposto).

Dimostrazione E` lasciata per esercizio ed e` la naturale conseguenza del fatto che la somma di numeri reali soddisfa le stesse propriet`a. L’elemento neutro per la somma di matrici e` la matrice nulla O ∈ Rm,n introdotta nell’Esempio 2.5, l’opposto della matrice A = (aij ) ∈ Rm,n e` la matrice −A ∈ Rm,n cos`ı definita −A = (−aij ). Osservazione 2.2 Un insieme con un’operazione che verifichi le propriet`a del teorema precedente si dice gruppo commutativo o semplicemente gruppo se soddisfa solo le propriet`a 2., 3., 4. Pertanto (Rm,n , +) con l’operazione di somma di matrici ha la struttura di gruppo commutativo. Definizione 2.4 Si definisce prodotto di un numero reale λ per una matrice A = (aij ) di Rm,n la matrice che si ottiene moltiplicando ogni elemento di A per il numero reale λ, ossia: λA = (λaij ), quindi λA e` ancora una matrice di Rm,n . A volte si usa il termine scalare per indicare il numero reale λ e il prodotto di un numero reale per una matrice e` anche detto quindi prodotto di uno scalare per una matrice.

Capitolo 2

37

Esempio 2.9 Se: 

1 2 3 4



3 6 9 12

A=

 ,

il prodotto 3A e` la matrice: 3A =

 .

L’opposto della matrice A e` dunque −A = (−1)A. Inoltre 0A = O, dove O indica la matrice nulla. Teorema 2.2 Per il prodotto di un numero reale per una matrice valgono le seguenti propriet`a che mettono in relazione la somma di matrici con la somma e il prodotto di numeri reali: 1. λ(A + B) = λA + λB,

λ ∈ R, A, B ∈ Rm,n ;

2. (λ + µ)A = λA + µA,

λ, µ ∈ R, A ∈ Rm,n ;

3. (λµ)A = λ(µA), 4. 1A = A, Dimostrazione

λ, µ ∈ R, A ∈ Rm,n ;

A ∈ Rm,n . Si tratta di un semplice esercizio.

Osservazione 2.3 L’insieme delle matrici Rm,n , considerato congiuntamente con le operazioni di somma e di prodotto per numeri reali, ciascuna delle quali dotate delle quattro propriet`a prima enunciate, d`a luogo ad una struttura algebrica che e` un esempio di spazio vettoriale. Gli spazi vettoriali, che costituiscono la base dell’algebra lineare, saranno studiati in modo intensivo a partire dal Capitolo 4. Si e` preferito, per ragioni didattiche, anteporre la descrizione degli esempi pi`u facili di spazi vettoriali alla loro stessa definizione. Questo e` il caso di Rm,n e nel prossimo capitolo la stessa idea sar`a applicata all’insieme dei vettori ordinari dello spazio in modo da permettere al Lettore di prendere confidenza con nozioni, a volte troppo teoriche rispetto alle conoscenze acquisite nella scuola secondaria superiore e di dare la possibilit`a di affrontare pi`u agevolmente lo studio dei capitoli successivi.

Matrici e Determinanti

38

2.2

Il prodotto di matrici

La definizione di prodotto di matrici, oggetto di questo paragrafo, trova una sua giustificazione, per esempio, nella rappresentazione mediante matrici dei movimenti in uno spazio vettoriale e nella loro composizione, problematiche che saranno trattate diffusamente nel Capitolo 6. A prescindere da argomenti pi`u sofisticati, si introduce questa nuova operazione tra matrici che, anche se a prima vista appare singolare, e` comunque dotata di interessanti propriet`a, che rendono plausibile la seguente definizione. Definizione 2.5 Il prodotto della matrice A = (aij ) di Rm,n con la matrice B = (bij ) di Rn,p e` la matrice C = AB = (cij ) di Rm,p i cui elementi sono dati da: cij = ai1 b1j + ai2 b2j + . . . + ain bnj =

n X

aik bkj .

(2.3)

k=1

Si possono quindi solo moltiplicare matrici di tipo particolare, ossia il primo fattore deve avere il numero di colonne pari al numero delle righe del secondo fattore. La matrice prodotto avr`a il numero di righe del primo fattore e il numero di colonne del secondo fattore. Da questa definizione segue che il prodotto di due matrici non e` commutativo. A titolo di esempio, si calcoli il prodotto delle matrici:  A=

 1 2 3 , 4 5 6



1 −1  0 1 B= 3 5

2 2 7

 3 4 , 9

e si ricavino i primi due elementi della matrice C = (cij ) = AB ∈ R2,4 : c11 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi della prima colonna di B : c11 = 1 · 1 + 2 · 0 + 3 · 3 = 10. c12 si ottiene sommando i prodotti degli elementi della prima riga di A con gli elementi della seconda colonna di B : c12 = 1 · (−1) + 2 · 1 + 3 · 5 = 16 e cos`ı via. La matrice C e` dunque:  C=

10 16 27 38 22 31 60 86

 .

Per la sua particolare definizione, questo tipo di prodotto di matrici prende il nome di prodotto righe per colonne.

Capitolo 2

39

Osservazione 2.4 E` chiaro che il prodotto di due matrici quadrate dello stesso ordine e` ancora una matrice quadrata dello stesso ordine, ma anche in questo caso non vale in generale la propriet`a commutativa, per esempio date:     1 2 0 1 A= , B= 3 4 2 3 si ha:



4 7 8 15





3 4 11 16

 .

AB = mentre: BA =

Nel caso delle matrici quadrate di ordine 1 il prodotto e` ovviamente commutativo perch´e coincide con il prodotto di numeri reali. Anche nel caso delle matrici diagonali il prodotto e` commutativo, come si osserver`a nel Paragrafo 2.5. Osservazione 2.5 Il prodotto di matrici ha singolari particolarit`a. Per esempio:      1 −2 2 2 0 0 AB = = = O ∈ R2,2 , 1 −2 1 1 0 0 in assoluto contrasto con il solito prodotto di numeri reali in cui se ab = 0 allora necessariamente o a = 0 o b = 0. Ovviamente se O ∈ Rm,n e` la matrice nulla e A ∈ Rn,p , B ∈ Rk,m allora: OA = O ∈ Rm,p

e BO = O ∈ Rk,n .

Esempio 2.10 Si osservi che, date:  1  2  4,1  B=  3 ∈R , 4 

A=

1 2 3 4



∈ R1,4 ,

allora: AB = (30) ∈ R1,1 , mentre:



1  2 BA =   3 4

 2 3 4 4 6 8   ∈ R4,4 . 6 9 12  8 12 16

Matrici e Determinanti

40

Teorema 2.3 Per il prodotto di matrici valgono le seguenti propriet`a: 1. (AB)C = A(BC),

A ∈ Rm,n , B ∈ Rn,k , C ∈ Rk,p (propriet`a associativa);

2. A(B + C) = AB + AC,

A ∈ Rp,m , B, C ∈ Rm,n e

(X + Y )Z = XZ + Y Z, X, Y ∈ Rm,n , Z ∈ Rn,k (propriet`a distributive del prodotto rispetto alla somma. Si osservi la necessit`a di enunciare entrambe le propriet`a per la mancanza della propriet`a commutativa del prodotto); 3. (λA)B = λ(AB) = A(λB),

λ ∈ R, A ∈ Rm,n , B ∈ Rn,k ;

4. AI = IA = A, A ∈ Rn,n (le due uguaglianze occorrono solo nel caso delle matrici quadrate; la matrice unit`a I ∈ Rn,n e` l’elemento neutro rispetto al prodotto). Dimostrazione Paragrafo 2.9.

E` lasciata per esercizio nei casi pi`u semplici, per gli altri si rimanda al

E` valido il seguente teorema che permette di confrontare il rango del prodotto di n matrici moltiplicabili tra di loro con il rango di ciascuna di esse, per la dimostrazione si rimanda al Paragrafo 4.5. Teorema 2.4 Siano A1 , A2 , . . . , An matrici moltiplicabili tra di loro, allora: rank(A1 A2 · · · An ) ≤ min{rank(A1 ), rank(A2 ), . . . , rank(An )},

(2.4)

quindi, in particolare, il rango del prodotto di matrici e` minore o uguale del rango di ciascun fattore. Osservazione 2.6 E` chiaro, anche se pu`o sorprendere, che e` necessario porre il segno di disuguaglianza in (2.4), come si pu`o per esempio notare dal fatto che:      0 1 0 1 0 0 = , 0 0 0 0 0 0 infatti anche se i due fattori hanno rango 1 il loro prodotto ha rango 0.

2.2.1

I sistemi lineari in notazione matriciale

Usando la definizione di prodotto di matrici, si pu`o scrivere in modo compatto un generico sistema lineare di m equazioni in n incognite del tipo (1.2). Siano:   a11 a12 . . . a1n  a21 a22 . . . a2n    m,n A =  .. .. ..  ∈ R  . . .  am1 am2 · · · amn

Capitolo 2

41

la matrice dei coefficienti,    X= 

x1 x2 .. .

    ∈ Rn,1 

xn la matrice colonna delle incognite e:    B= 

b1 b2 .. .

    ∈ Rm,1 

bm la matrice colonna dei termini noti, allora il sistema lineare (1.2) si pu`o scrivere, in notazione matriciale, come: AX = B.

2.3

La matrice inversa

Avendo introdotto il prodotto di matrici (che generalizza il prodotto di numeri reali) appare naturale introdurre il concetto di inversa di una matrice quadrata; a differenza del caso dei numeri e` necessario prestare particolare attenzione alla definizione in quanto il prodotto di matrici non e` commutativo. Definizione 2.6 Sia A ∈ Rn,n una matrice quadrata di ordine n. A si dice invertibile se esiste una matrice X ∈ Rn,n tale che: AX = XA = I,

(2.5)

dove I indica la matrice unit`a di ordine n. Teorema 2.5 Se A ∈ Rn,n e` invertibile, allora la matrice X, definita in (2.5), e` unica. Dimostrazione Si supponga per assurdo che esistano due matrici diverse X, X 0 ∈ Rn,n che verificano la (2.5). Allora: X 0 = IX 0 = (XA)X 0 = X(AX 0 ) = XI = X

42

Matrici e Determinanti

che e` assurdo. Si osservi che, nella dimostrazione, si e` usata la propriet`a associativa del prodotto di matrici. La matrice X cos`ı definita si dice matrice inversa di A e si indica con A−1 . Per la matrice inversa valgono le seguenti propriet`a la cui dimostrazione e` lasciata per esercizio. Teorema 2.6 1. (AB)−1 = B −1 A−1 , con A, B ∈ Rn,n matrici invertibili. 2. (A−1 )−1 = A, con A ∈ Rn,n matrice invertibile. Osservazione 2.7 Segue dal punto 1. e dalle propriet`a del prodotto di matrici che l’insieme: GL(n, R) = {A ∈ Rn,n | A e` invertibile} e` un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2), noto come gruppo lineare generale reale. Nei paragrafi successivi si affronter`a il problema di calcolare l’inversa di una matrice, di conseguenza, si tratter`a di capire, innanzi tutto, quando una matrice quadrata e` invertibile. Si consiglia, prima di continuare la lettura, di svolgere il seguente esercizio. Esercizio 2.1 Determinare le condizioni affinch´e la matrice:   a11 a12 A= a21 a22 sia invertibile e, in questi casi, calcolare A−1 . Si osservi che per risolvere l’esercizio si deve discutere e risolvere il sistema lineare AX = I :      a11 a12 x11 x12 1 0 = a21 a22 x21 x22 0 1 di quattro equazioni nelle quattro incognite x11 , x12 , x21 , x22 , che sono gli elementi della matrice X.

2.4

La trasposta di una matrice

Definizione 2.7 Data una matrice A ∈ Rm,n si definisce trasposta di A, e la si indica con t A la matrice di Rn,m che si ottiene scambiando le righe con le colonne della matrice A, in simboli se A = (aij ) allora tA = (bij ) con bij = aji , i = 1, 2, . . . , m, j = 1, 2, . . . , n.

Capitolo 2

43

Esempio 2.11 Se:  A=

1 2 3 4 5 6



allora: 

 1 4 t A =  2 5 . 3 6 Se: A=

1 2 3 4



allora: 

 1  2  t  A=  3 . 4 Osservazione 2.8 1. Si osservi che se una matrice e` quadrata, allora anche la sua trasposta e` una matrice quadrata dello stesso ordine, ma, in generale, diversa dalla matrice di partenza, per esempio:  A=

1 −1

2 0

 ,

t



A=

1 −1 2 0

 .

2. Se una matrice e` diagonale (cfr. Es. 2.6) allora la sua trasposta coincide con la matrice stessa. Per la trasposta di una matrice valgono le seguenti propriet`a la cui dimostrazione e` lasciata per esercizio e si pu`o leggere nel Paragrafo 2.9. Teorema 2.7 1.

t

(A + B) = tA + tB,

2. t (λA) = λ tA, 3. t (AB) = tB tA,

A, B ∈ Rm,n .

A ∈ Rm,n , λ ∈ R. A ∈ Rm,n , B ∈ Rn,k .

4. Se A ∈ Rn,n e` una matrice invertibile, allora (tA)−1 = t (A−1 ).

Matrici e Determinanti

44

2.5

Matrici quadrate di tipo particolare

1. L’insieme delle matrici matrici triangolari superiori di Rn,n definito da:    a11 a12 . . . . . . . . . a1n         0 a22 . . . . . . . . . a2n           . . . ...  .   . . . . .   n,n n,n T (R ) =   ∈ R | aij ∈ R ; 0 . . . akk . . . akn    0      .     . . . .     . . . . . .   . . . .     0 0 . . . 0 . . . ann

(2.6)

si tratta delle matrici quadrate che hanno tutti gli elementi nulli al di sotto della diagonale principale, vale a dire se A = (aij ) con i, j = 1, 2, . . . , n, allora aij = 0 se i > j . E` facile osservare che la somma di due matrici triangolari superiori e` ancora una matrice triangolare superiore, lo stesso vale per il prodotto di un numero reale per una matrice triangolare superiore. Molto pi`u sorprendente e` il fatto che il prodotto di due matrici triangolari superiori, entrambe dello stesso ordine, e` ancora una matrice triangolare superiore. Si supponga, infatti, di determinare la matrice C = (cij ) ∈ Rn,n prodotto delle matrici triangolari superiori A = (aij ) ∈ T (Rn,n ) e B = (bij ) ∈ T (Rn,n ). Per semplicit`a si calcola ora solo l’elemento c21 della matrice prodotto C = AB , lasciando il calcolo in generale per esercizio. Da (2.3) si ha: c21 = a21 b11 + a22 b21 + . . . a2n bn1 = 0b11 + a22 0 + . . . + a2n 0 = 0, in quanto aij = 0 e bij = 0 se i > j . Si possono definire in modo analogo le matrici triangolari inferiori, con propriet`a simili a quelle descritte nel caso delle matrici triangolari superiori. Come e` gi`a stato osservato nel Capitolo 1, il calcolo del rango di una matrice triangolare superiore e` molto semplice. 2. L’insieme delle matrici diagonali D(Rn,n ) introdotte nell’Esempio 2.6. La caratteristica principale di tali matrici e` la loro analogia con il campo dei numeri reali, infatti il prodotto di due matrici diagonali e` ancora una matrice diagonale, avente ordinatamente sulla diagonale principale il prodotto degli elementi corrispondenti delle due matrici date. Le matrici diagonali sono, ovviamente, sia matrici triangolari superiori sia matrici triangolari inferiori. Quindi una matrice diagonale e` ridotta per righe, di conseguenza, il suo rango e` pari al numero degli elementi non nulli della diagonale principale. Nel caso di rango massimo, la matrice diagonale e` invertibile e la sua inversa ha sulla diagonale principale ordinatamente gli inversi dei

Capitolo 2

45

corrispettivi elementi della matrice data, ossia se:    −1  a11 0 a11 0 −1 A= , con a11 6= 0, a22 6= 0, allora A = , 0 a22 0 a−1 22 la verifica di queste affermazioni e` lasciata per esercizio. 3. L’insieme delle matrici simmetriche di Rn,n definito da: S(Rn,n ) = {A ∈ Rn,n | A = tA};

(2.7)

scrivendo esplicitamente la definizione si ottiene che una matrice simmetrica e` del tipo:   a11 a12 . . . a1n  a12 a22 . . . a2n    A =  .. .. . . .. ;  . . . .  a1n a2n . . . ann in altri termini, una matrice A = (aij ) ∈ Rn,n e` simmetrica se e solo se: aij = aji ,

i, j = 1, 2, . . . , n,

e ci`o giustifica la sua denominazione. Per esercizio si calcoli la somma di due matrici simmetriche, il prodotto di una matrice simmetrica per un numero reale e la trasposta di una matrice simmetrica e si stabilisca se si ottiene ancora una matrice simmetrica. Si osservi, in particolare, che il prodotto di due matrici simmetriche non e` , in generale, una matrice simmetrica. Per esempio:       1 −1 3 1 2 2 A= , B= , AB = . −1 2 1 −1 −1 −3 Per esercizio si individuino le condizioni necessarie e sufficienti affinch´e il prodotto di due matrici simmetriche sia ancora una matrice simmetrica. Invece, se A e` una matrice simmetrica invertibile, la sua inversa e` ancora una matrice simmetrica, (cfr. Teor. 2.7, punto 4.). Le matrici diagonali sono ovviamente simmetriche e una matrice triangolare superiore o inferiore e` simmetrica se e solo se e` diagonale. Le matrici simmetriche saranno di importanza fondamentale sia nella teoria della diagonalizzazione di una matrice (cfr. Cap. 7) sia nella teoria delle forme bilineari simmetriche (cfr. Cap. 8).

Matrici e Determinanti

46

4. L’insieme delle matrici antisimmetriche di Rn,n definito da: A(Rn,n ) = {A ∈ Rn,n | A = − tA};

(2.8)

scrivendo esplicitamente la definizione si ottiene che una matrice antisimmetrica e` del tipo:   0 a12 . . . a1n  −a12 0 . . . a2n    A =  .. .. .. ; . .  . . .  . −a1n −a2n . . . 0 in altri termini, una matrice A = (aij ) ∈ Rn,n e` antisimmetrica se e solo se: aij = −aji ,

i, j = 1, 2, . . . , n,

quindi, in particolare, aii = 0, i = 1, 2, . . . , n. Per esercizio si calcoli la somma di due matrici antisimmetriche, il prodotto di una matrice antisimmetrica per un numero reale, il prodotto di due matrici antisimmetriche, la trasposta di una matrice antisimmetrica e si stabilisca se si ottiene ancora una matrice antisimmetrica. 5. L’insieme delle matrici ortogonali di Rn,n definito da: O(n) = {A ∈ Rn,n | tA A = I},

(2.9)

con I matrice unit`a di ordine n. Usando il fatto che, in modo equivalente alla definizione, A e` ortogonale se A tA = I , si verifichi per esercizio che ogni matrice ortogonale A e` invertibile con inversa A−1 = tA. Si verifichi inoltre che la trasposta e l’inversa di una matrice ortogonale sono matrici ortogonali e che il prodotto di due matrici ortogonali e` ortogonale. Si stabilisca se la somma di due matrici ortogonali e` una matrice ortogonale e se il prodotto di una matrice ortogonale per un numero reale e` una matrice ortogonale. Le matrici ortogonali saranno di importanza fondamentale nella trattazione degli spazi vettoriali euclidei (cfr. Cap. 5) e le loro propriet`a saranno dimostrate nel Teorema 5.7.

2.6

Le equazioni matriciali

Per equazione matriciale si intende un’equazione la cui incognita e` una matrice. Se si escludono gli esempi banali di equazioni lineari (ogni numero reale pu`o essere considerato come una matrice), come gi`a studiato nel Paragrafo 2.2.1, risolvendo un generico sistema lineare, si ha un esempio di equazione matriciale AX = B con A in Rm,n , X in Rn,1 ,

Capitolo 2

47

B in Rm,1 , dove X e` la matrice incognita e A e B sono note. In questo paragrafo verr`a preso in esame lo studio di un’equazione del tipo: AX = B

(2.10)

con A ∈ Rm,n , X ∈ Rn,p , B ∈ Rm,p . L’incognita X = (xij ) dell’equazione matriciale e` , quindi, una matrice con n righe e p colonne. In totale, si devono determinare gli np elementi xij di X. Si osservi che, se si e` in grado di risolvere l’equazione (2.10), si e` anche in grado di risolvere un’equazione matriciale del tipo: YC =D

(2.11)

con incognita Y, infatti operando con la trasposta su ambo i membri di (2.11) si ha: t

C t Y = tD,

cio`e ci si riconduce ad un’equazione matriciale del tipo (2.10), avendo cura di notare che l’incognita della nuova equazione sar`a t Y. Scrivendo esplicitamente (2.10) si ottiene un sistema lineare di mp equazioni con np incognite. Infatti posto:    A= 

a11 a21 .. .

a12 a22 .. .

. . . a1n . . . a2n .. .



    ∈ Rm,n , 

  X= 

am1 am2 . . . amn    B= 

b11 b21 .. .

b12 b22 .. .

. . . b1p . . . b2p .. .

x11 x12 . . . x1p x21 x22 . . . x2p .. .. .. . . . xn1 xn2 . . . xnp

    ∈ Rn,p , 

    ∈ Rm,p , 

bm1 bm2 . . . bmp la prima riga del prodotto AX = B corrisponde al seguente sistema lineare di p righe e np incognite xij :   a11 x11 + a12 x21 + . . . + a1n xn1 = b11    a11 x12 + a12 x22 + . . . + a1n xn2 = b12 (2.12) ..  .    a x + a x + ... + a x = b . 11 1p 12 2p 1n np 1p

Matrici e Determinanti

48

In totale, da AX = B si hanno, quindi, mp equazioni in quanto A ha m righe. Mettendo in evidenza le righe di X e di B nel modo seguente:         x11 x12 . . . x1p X1 b11 b12 . . . b1p B1  x21 x22 . . . x2p   X2   b21 b22 . . . b2p   B2          X =  .. = , B =     .. .. .. .. .. ..  =  .. ,  .  . . .   .  . .   .  xn1 xn2 . . . xnp Xn bm1 bm2 . . . bmp Bm il sistema lineare (2.12) si pu`o scrivere come: a11 X1 + a12 X2 + . . . + a1n Xn = B1 . Ripetendo lo stesso calcolo per le altre righe di AX = B si ottiene che l’equazione matriciale (2.10) equivale al sistema lineare di equazioni matriciali:   a11 X1 + a12 X2 + . . . + a1n Xn = B1    a21 X1 + a22 X2 + . . . + a2n Xn = B2 ..  .    a X + a X + ... + a X = B , m1

1

m2

2

mn

n

m

con incognite le righe X1 , X2 , . . . , Xn della matrice X e termini noti le righe B1 , B2 , . . . , Bm della matrice B. Si noti, quindi, che il sistema lineare ottenuto e` dello stesso tipo dei sistemi lineari trattati nel Capitolo 1, con la differenza che le incognite sono le righe della matrice, ossia sono elementi di Rp al posto di essere numeri reali. Per il Teorema di Rouch´e–Capelli (cfr. Teor. 1.2), essendo tale sistema equivalente ad un sistema lineare di mp equazioni in np incognite, esso ammette soluzioni se e solo se il rango della matrice dei coefficienti A e il rango della matrice completa (A | B) coincidono. Si procede, pertanto, alla riduzione per righe della matrice completa:   a11 a12 . . . a1n b11 b12 . . . b1p  a21 a22 . . . a2n b21 b22 . . . b2p    (A | B) =  .. .. .. .. .. .. .  . . . . . .  am1 am2 . . . amn bm1 bm2 . . . bmp Si distinguono tre casi: 1. rank(A) 6= rank(A | B): non esistono soluzioni; 2. rank(A) = rank(A | B) = n numero delle incognite: esiste una sola soluzione; 3. rank(A) = rank(A | B) = k < n: esistono infinite soluzioni che dipendono da n − k elementi di Rp .

Capitolo 2

49

Esempio 2.12 Per determinare le soluzioni dell’equazione matriciale AX = B , con:     2 3 1 1 2 2 1 , B =  0 1 −1 , A= 1 0 0 3 −1 1 0 4 si procede con la riduzione per modo seguente:  2 3 1 1 1 0 (A | B) =  1 0 0 3 −1 1

righe della matrice completa (A | B), per esempio nel   2 2 2 3 1 −→   1 −1 0 −3 1 R2 → 2R2 − R1 0 4 0 3 −1

1 −1 1

 2 2 0 −4 , 0 4

da cui si deduce che rank(A) = rank(A | B) = 2, si ottengono cos`ı infinite soluzioni che dipendono da un elemento qualsiasi (a, b, c) di R3 . Ponendo:   X1 X =  X2  ∈ R3,3 X3 la matrice (A | B) ridotta per righe d`a luogo al sistema lineare ridotto:  2X1 + 3X2 + X3 = (1, 2, 2) −3X2 + X3 = (−1, 0, −4) le cui soluzioni sono:   X1 = (1 − 3a, 1 − 3b, 3 − 3c) X2 = (a, b, c)  X3 = (−1 + 3a, 3b, −4 + 3c),

(a, b, c) ∈ R3

e, quindi: 

 1 − 3a 1 − 3b 3 − 3c , a b c X= −1 + 3a 3b −4 + 3c

(a, b, c) ∈ R3 .

Esempio 2.13 Per determinare le soluzioni dell’equazione matriciale XA = B, con:     1 0 −1 1 −1 0   1 1 0 , B= A= , 0 1 1 1 0 0 si osserva che da XA = B , calcolando la trasposta delle matrici del primo e del secondo membro, si ha tA tX = tB , pertanto ci si riconduce ad un’equazione matriciale dello stesso tipo di quella studiata nell’esempio precedente. Ponendo:

Matrici e Determinanti

50



 Y1 t X = Y =  Y2  ∈ R3,2 Y3 segue che l’equazione tAY = tB e` equivalente al sistema lineare:   Y1 + Y2 + Y3 = (1, 0) Y2 = (−1, 1)  −Y1 = (0, 1), che ha come unica soluzione: Y1 = (0, −1),

Y2 = (−1, 1),

Y3 = (2, 0)

e, quindi:  X=

2.6.1

0 −1 −1 1

2 0

 .

Calcolo della matrice inversa, primo metodo

Come immediata conseguenza del paragrafo precedente si procede al calcolo dell’eventuale matrice inversa di una matrice quadrata A = (aij ) ∈ Rn,n risolvendo l’equazione matriciale: AX = I. Si deve, quindi, ridurre per righe la matrice completa:  a11 a12 . . . a1n 1  a21 a22 . . . a2n 0  (A | I) =  .. .. . . .. ..  . . . . . an1 an2 . . . ann 0

0 ... 1 ... .. . . . . 0 ...

0 0 .. .

   . 

1

E` evidente che rank(A | I) = n perch´e la matrice (A | I) e` ridotta per righe in quanto I e` ridotta per righe e rank(I) = n, quindi si ottiene l’importante teorema di seguito enunciato. Teorema 2.8 Una matrice quadrata A ∈ Rn,n e` invertibile se e solo se rank(A) = n. Dimostrazione Se esiste l’inversa A−1 di A allora l’equazione matriciale AX = I ha un’unica soluzione e, quindi, dal Teorema di Rouch´e–Capelli segue rank(A) = n.

Capitolo 2

51

Il viceversa non pu`o essere dimostrato a questo punto del corso, si rimanda al Paragrafo 4.3 per la dimostrazione. Infatti se rank(A) = n allora esiste una sola matrice X ∈ Rn,n tale che AX = I (per il Teorema di Rouch´e–Capelli, cfr. Teor. 1.2), ma per dimostrare che anche XA = I e dedurre quindi che X = A−1 si deve risolvere l’equazione matriciale tA tX = I . Pertanto e` necessario dimostrare che anche tA ha lo stesso rango di A, e ci`o sar`a oggetto del Teorema 4.19. D’altro canto, se esistono due matrici X e Y, entrambe appartenti a Rn,n , tali che AX = I e Y A = I allora segue X = Y infatti: Y = Y I = Y (AX) = (Y A)X = IX = X. Da rank(A) = n si ha che esiste una sola matrice X tale che AX = I . Da rank(tA) = n segue che esiste una sola matrice Z ∈ Rn,n tale che tA Z = I. Considerando la trasposta delle matrici a primo e a secondo membro dell’ultima uguaglianza si ha tZA = I, quindi, dall’osservazione precedente si ottiene tZ = X = A−1 . Segue un esempio di calcolo della matrice inversa di una matrice invertibile A mediante la risoluzione dell’equazione matriciale AX = I. Un secondo metodo sar`a spiegato nel Paragrafo 2.8.2.

Esercizio 2.2 Supponendo che esista, determinare l’inversa della matrice: 

0 0  1 0 A=  0 −1 2 1

 2 0 0 1  . 3 0  5 −3

Soluzione Si procede alla riduzione per righe della matrice (A | I), il calcolo del rango di A e` contenuto in questo procedimento: 

0

0

   1 0     0 −1   2 1

2

0

1

0

0

0

1

0

1

0

3

0

0

0

1

5 −3

0

0

0

0



  0  −→   R1 ↔ R3  0   R2 ↔ R1  1



1

0

0

1

   0 −1 3 0     0 0 2 0   2 1 5 −3

0

1

0

0

0

1

1

0

0

0

0

0

0



  0     0    1

Matrici e Determinanti

52

 −→ R2 → −R2 R3 → (1/2)R3 R4 → R4 − 2R1

1

0

   0     0   0 

−→ R4 → R4 − R2

−→ R4 → R4 − 8R3

1

0

1

0

1 −3

0

0

0 −1

0

1

0

1 2

0

0

1

5 −5

0 −2

0

1

   0     0  



0

0

0

1

0

1

0

  0     0    1 0

1 −3

0

0

0 −1

0

1

0

1 2

0

0

0

0

8 −5

0 −2

1

1

0

0

   0     0   0

1

0

1



0

1 −3

0

0

0 −1

0

1

0

1 2

0

0

0

0 −5 −4 −2

1

0



  0     0    1 0



  0   .  0    1

A questo punto dell’esercizio si deduce che rank(A) = 4, pertanto la matrice A e` invertibile. Per calcolare direttamente l’inversa conviene procedere riducendo ulteriormente l’ultima matrice ottenuta, come descritto nell’Esempio 1.9 del Capitolo 1. Dall’ultimo passaggio segue: 

−→ R4 → (−1/5)R4

1

  0      0    0

0

1

0

1

1 −3

0

0

0

1

0

1 2

0

0

1

4 5

 0      0 0 0    2 1 1  − − 5 5 5 0

0 −1

0



0

Capitolo 2

 −→ R1 → R1 − R4 R2 → R2 + 3R3

 1    0     0    0

0

0

0

1

0

0

0

1

0

0

0

1

4 − 5 3 2 1 2 4 5

53

3 5

1 5

0

−1

0

0

2 5



 1 5    0   .  0    1 

1 − 5 5

Si legge cos`ı nell’ultimo passaggio, a destra, l’espressione di A−1 , infatti le operazioni di riduzione che iniziano dalla matrice completa (A | I), essendo rank(A) = rank(A | I) = n, non possono far altro che portare a (I | A−1 ). In altri termini, moltiplicando a sinistra per A−1 l’equazione matriciale AX = I si ottiene IX = A−1 . Esercizio 2.3 Data la matrice: 

1 −3  h 0 A=  1 −1 0 0

1 0 0 0

 2 0  , 0  h

h ∈ R,

stabilire per quali valori di h esiste la sua inversa. Determinare esplicitamente A−1 quando possibile. Soluzione Si procede, come matrice completa (A | I).  1 −3 1 2 1  h 0 0 0 0   1 −1 0 0 0 0 0 0 h 0

nell’esercizio precedente, alla riduzione per righe della 0 1 0 0

 0 −→ 0   R2 → R2 − hR1 0  R3 → R3 − R1 1

0 0 1 0



1 −3 1 2 1  0 3h −h −2h −h   0 2 −1 −2 −1 0 0 0 h 0

0 1 0 0

0 0 1 0

 0 0  −→  0  R2 ↔ R3 1

1 −3 1 2 1  0 2 −1 −2 −1   0 3h −h −2h −h 0 0 0 h 0

0 0 1 0

0 1 0 0

 0 0  −→  0  R3 → 2R3 − 3hR2 1



Matrici e Determinanti

54

1 −3 1 2 1  0 2 −1 −2 −1   0 0 h 2h h 0 0 0 h 0 

0 0 0 1 2 −3h 0 0

 0 0  , 0  1

a questo punto si deduce che rank(A) = 4 se e solo se h 6= 0, quindi solo in questo caso esiste A−1 . Si assume perci`o h 6= 0 e si procede con la riduzione per ottenere la matrice inversa:   1 −3 1 2 1 0 0 0     −→   1 1 1  0 0  R2 → (1/2)R2  0 1 − 2 −1 − 2  2     R3 → (1/h)R3  2   0 0 1 2 1 −3 0    h  R4 → (1/h)R4   1  0 0 0 1 0 0 0 h 

 1 −3 1   −→ 1  0 1 − R3 → R3 − 2R4   2   R2 → R2 + R4   0 0 1 R1 → R1 − 2R4    0 0 0 

−→ R2 → R2 + (1/2)R3 R1 → R1 − R3

0

1

0

0 −

1 2

0

0

1

2 h

1

0

0

 1 −3     0 1      0 0    0 0

 2 0 −  h   1 1   2 h    2  −3 −  h   1  0 h

0

2 0 0 − h

0

0 0

1 h

1

0 1

2 h

0

1 0

0

3



0     −1 0   ,  2  −3 −  h   1  0 h

Capitolo 2



−→ R1 → R1 + 3R2

 1     0      0    0

55

0

0

0 0

1 h

1

0

0 0

1 h

0

1

0 1

2 h

0

0

1 0

0



0

0     −1 0   ,  2  −3 −  h   1  0 h

A−1 si legge a destra nell’ultimo passaggio di riduzione. Il teorema che segue e` un corollario del Teorema 2.4, lo stesso risultato si otterr`a, con metodi diversi, nel Capitolo 7. Teorema 2.9

1. Se A ∈ Rm,n e Q ∈ Rn,n e` una matrice invertibile, allora: rank(AQ) = rank(A).

2. Se A ∈ Rm,n e P ∈ Rm,m e` una matrice invertibile, allora: rank(P A) = rank(A). 3. Se A una matrice quadrata di ordine n e P una matrice invertibile di ordine n, allora: rank(A) = rank(P −1AP ). Dimostrazione E` sufficiente dimostrare 1., lo stesso metodo si pu`o applicare a 2. e da 1. e 2. segue immediatamente 3. Il primo punto segue dal Teorema 2.4 e da: rank(AQ) ≤ rank(A) = rank(A(QQ−1 )) = rank((AQ)Q−1 ) ≤ rank(AQ), da cui la tesi.

2.7

La traccia di una matrice quadrata

Definizione 2.8 Sia A una matrice quadrata, di ordine n, ad elementi reali. Si definisce traccia di A, e si indica con tr(A) la somma degli elementi della sua diagonale principale. Se A = (aij ) allora: tr(A) = a11 + a22 + . . . + ann =

n X i=1

aii .

Matrici e Determinanti

56

Le propriet`a della traccia di una matrice quadrata sono elencate nel seguente teorema. Teorema 2.10 La traccia di una matrice quadrata gode delle seguenti propriet`a: 1. tr(A + B) = tr(A) + tr(B), 2. tr(λA) = λ tr(A), 3. tr(A B) = tr(B A), 4. tr( tA) = tr(A), per ogni A, B ∈ Rn,n , per ogni λ ∈ R. Dimostrazione

E` quasi un esercizio ed e` riportata nel Paragrafo 2.9.

Come immediata conseguenza del punto 3. del teorema precedente, si ottiene: tr(P −1A P ) = tr(A),

(2.13)

per ogni A ∈ Rn,n e per ogni matrice invertibile P di Rn,n , propriet`a che sar`a molto importante nel Capitolo 7. Osservazione 2.9 Ovviamente la traccia della matrice quadrata nulla e` uguale a zero, cos`ı come e` uguale a zero la traccia di una matrice antisimmetrica.

2.8

Il determinante

Scopo di questo paragrafo e` quello di associare ad ogni matrice quadrata un particolare numero reale detto determinante della matrice in modo da dimostrare il seguente teorema. Teorema 2.11 Una matrice quadrata A e` invertibile se e solo se il suo determinante non e` uguale a zero. Si introdurr`a la definizione di determinante in modo “sperimentale” senza troppo rigore matematico; per una discussione precisa e per la dimostrazione di tutte le propriet`a si rimanda al Paragrafo 8.8. Il determinante di una matrice quadrata e` una funzione: det : Rn,n −→ R, che verifica queste prime propriet`a.

A 7−→ det(A)

Capitolo 2

57

1. Se a e` un numero reale, quindi identificabile con la matrice quadrata A = (a) di ordine 1, allora det(A) = a.   a11 a12 2. Se A = , allora det(A) = a11 a22 − a12 a21 . a21 a22 Il determinante di una matrice quadrata e` anche spesso indicato con due tratti verticali che sostituiscono le parentesi tonde della matrice. Nel caso della matrice A di ordine 2 si ha: a11 a12 a21 a22 = a11 a22 − a12 a21 . Osservando con attenzione lo sviluppo del determinante nel caso della matrice quadrata di ordine 2, si nota che compaiono due addendi, ciascuno dei quali e` il prodotto di due fattori il cui primo indice corrisponde alla sequenza (1, 2) e il secondo indice corrisponde alle due permutazioni di (1, 2): (1, 2) e (2, 1). La prima permutazione (pari) impone il segno positivo all’addendo a11 a22 , la seconda permutazione (dispari) impone il segno negativo all’addendo a12 a21 . Si pu`o cos`ı indovinare la regola per calcolare il determinante di una matrice quadrata qualsiasi. A questo scopo, si controlli ancora lo sviluppo del determinante nel caso delle matrici di ordine 3. L’esempio che segue riassume, nel caso particolare dell’ordine 3, la teoria dei determinanti delle matrici di ordine n che verr`a successivamente esposta. Si consiglia di studiarlo con grande attenzione e farne riferimento per dimostrare le propriet`a generali dei determinanti che verranno man mano elencate. Esempio 2.14 E` noto dal calcolo combinatorio che le permutazioni dei numeri 1, 2, 3 sono 3! = 6, tre di esse sono pari e sono dette permutazioni circolari, ossia: (1, 2, 3), (3, 1, 2), (2, 3, 1) e tre sono dispari: (1, 3, 2), (3, 2, 1), (2, 1, 3). Pi`u precisamente, se a partire dalla terna (1, 2, 3) si perviene alla terna (2, 1, 3) si e` effettuato uno scambio che comporta un segno negativo associato alla permutazione (2, 1, 3), effettuati due scambi si ha segno positivo e cos`ı via. Per meglio visualizzare le permutazioni e contare il numero degli scambi intermedi in modo da ottenere il segno della permutazione finale e` utile la classica notazione del calcolo combinatorio: 1 2 3 ↓ ↓ ↓ σ(1) = 2 σ(2) = 1 σ(3) = 3, dove σ indica una permutazione di 1, 2, 3 e non e` altro che una funzione biiettiva dall’insieme {1, 2, 3} in s´e.

58

Matrici e Determinanti

Parafrasando lo sviluppo del determinante di una matrice quadrata di ordine 2, “si indovina” lo sviluppo del determinante di una matrice quadrata di ordine 3, ponendo: a11 a12 a13 a21 a22 a23 = a11 a22 a33 + a13 a21 a32 + a12 a23 a31 a31 a32 a33 −a11 a23 a32 − a13 a22 a31 − a12 a21 a33 X

=

(σ)a1σ(1) a2σ(2) a3σ(3) ,

σ

dove σ indica una qualsiasi permutazione dei numeri 1, 2, 3 e (σ) e` il suo segno. Si osserva che, per costruzione, ogni addendo a1σ(1) a2σ(2) a3σ(3) contiene un elemento appartenente a ciascuna riga e a ciascuna colonna della matrice A. In altri termini in ogni addendo non esistono due elementi appartenenti ad una stessa riga o ad una stessa colonna di A, perch´e σ e` una biiezione. Si pu`o cos`ı enunciare la definizione di determinante di una matrice quadrata di ordine n. Definizione 2.9 Il determinante di una matrice quadrata A = (aij ) di ordine n e` dato da: X det(A) = (σ)a1σ(1) a2σ(2) . . . anσ(n) , (2.14) σ

dove σ indica una qualsiasi permutazione dei numeri 1, 2, . . . , n e (σ) e` il suo segno. Osservazione 2.10 Come gi`a osservato nell’Esempio 2.14, in ogni addendo della somma (2.14) non esistono due elementi appartenenti o alla stessa riga o alla stessa colonna della matrice A, inoltre ogni addendo di (2.14) e` il prodotto di n elementi della matrice quadrata A appartenenti ad ogni riga e ad ogni colonna di A. Dalla Definizione 2.9 si deducono le seguenti propriet`a. Teorema 2.12 1. Sia A una matrice quadrata di ordine n avente una riga (oppure una colonna) formata da tutti 0, allora det(A) = 0. 2. Per ogni matrice quadrata A, det(A) = det(tA). 3. Se A = (aij ) ∈ Rn,n e` una matrice triangolare superiore allora: det(A) = a11 a22 . . . ann , la stessa propriet`a vale nel caso di una matrice triangolare inferiore.

Capitolo 2

59

Dimostrazione 1. E` ovvia conseguenza della Definizione 2.9 e anche dell’Osservazione 2.10. 2. Si consideri il caso del determinante di una matrice quadrata A di ordine 2, il caso generale e` una generalizzazione di questo ragionamento. Come gi`a osservato: det(A) = a11 a22 − a12 a21 , mentre: a a det( A) = 11 21 a12 a22 t

= a11 a22 − a21 a12 = a11 a22 − a12 a21 = det(A);

infatti il determinante della matrice trasposta si ottiene semplicemente applicando la propriet`a commutativa del prodotto ad ogni addendo della somma precedente. 3. Si dimostra per semplicit`a la propriet`a solo nel caso di A ∈ R4,4 , lasciando al Lettore per esercizio la dimostrazione nel caso generale. Sia:   a11 a12 a13 a14  0 a22 a23 a24  , A=  0 0 a33 a34  0 0 0 a44 dalla definizione di determinante (2.14) si ha: X (σ)a1σ(1) a2σ(2) a3σ(3) a4σ(4) . det(A) = σ

Se a44 = 0 l’ultima riga e` formata da tutti zeri e pertanto det(A) = 0, da cui la tesi. Se a44 6= 0, l’unico elemento non nullo dell’ultima riga e` a44 , quindi la formula precedente si riduce a: X det(A) = (σ)a1σ(1) a2σ(2) a3σ(3) a44 , (2.15) σ

con σ permutazione dei numeri 1, 2, 3. Di nuovo, l’unico elemento non nullo di tale somma, appartenente alla terza riga, e` a33 , quindi (2.15) si riduce a: X det(A) = (σ)a1σ(1) a2σ(2) a33 a44 σ

con σ permutazione dei numeri 1, 2. Procedendo allo stesso modo si perviene alla tesi.

Matrici e Determinanti

60

E` di importanza fondamentale il teorema che segue. Teorema 2.13 Sia A una matrice quadrata di ordine n ridotta per righe, allora: rank(A) = n ⇐⇒ det(A) 6= 0 e, in modo equivalente: rank(A) < n ⇐⇒ det(A) = 0. Dimostrazione La dimostrazione e` ovvia se la matrice ridotta per righe e` triangolare superiore. In questo caso il determinante e` dato dal prodotto degli elementi della diagonale principale, come osservato nel Teorema 2.12. Rimane da dimostrare che ogni matrice ridotta per righe pu`o essere trasformata in una matrice triangolare superiore mediante l’applicazione delle tre operazioni di riduzione sulle righe (senza variarne il rango). Anche questo fatto e` ovvio, ma per maggiore chiarezza sul tipo di procedimento da seguire si rimanda all’esercizio seguente che illustra, in un caso particolare, la procedura. Esercizio 2.4 Si riconduca a forma triangolare superiore la matrice:   1 2 3 4  1 2 0 3   A=  5 0 0 2  1 0 0 0 ridotta per righe e il cui rango e` 4. Soluzione Si procede con l’applicazione delle tre operazioni di riduzione alla matrice A nel modo seguente:     1 2 3 4 −→ 1 2 3 4  1 2 0 3  R2 → R2 − R1  0 0 −3 −1       5 0 0 2  R3 → R3 − 5R1  0 −19 −15 −18  1 0 0 0 R4 → R4 − R1 0 −2 −3 −4

R2 R3 R4 R2

−→ → −R2 → −R3 → −R4 ↔ R3



 1 2 3 4  0 19 15 18  −→    0 0 3 1  R4 → 19R4 − 2R2 0 2 3 4 

 1 2 3 4  0 19 15 18  −→  , R4 → 3R4 − 27R3  0 0 3 1  0 0 0 93



 1 2 3 4  0 19 15 18     0 0 3 1  0 0 27 40

Capitolo 2

61

ottenendo cos`ı una matrice triangolare superiore che ha, ovviamente, ancora rango 4. Osservazione 2.11 Dal punto 2. del Teorema 2.12 segue che ogni propriet`a relativa al calcolo del determinante dimostrata per le righe di una matrice quadrata e` anche valida per le colonne. Il teorema che segue permette di estendere il risultato precedente ad una matrice quadrata qualsiasi. Teorema 2.14 1. Se si moltiplicano tutti gli elementi di una riga (o colonna) di una matrice quadrata A per un numero reale λ, allora il determinante di A viene moltiplicato per λ. 2. Se si scambiano tra di loro due righe (o due colonne) di una matrice quadrata A, allora il determinante di A cambia di segno. 3. Una matrice quadrata con due righe (o due colonne) uguali ha determinante nullo. 4. Una matrice quadrata con due righe (o due colonne) proporzionali ha determinante nullo. 5. Se alla riga Ri di una matrice quadrata A si sostituisce la particolare combinazione lineare Ri +λRj (dove Rj indica una riga parallela a Ri , i 6= j ) il determinante di A non cambia, analoga propriet`a vale per le colonne. Dimostrazione

1. E` ovvio dalla definizione di determinante.

2. E` conseguenza della definizione di determinante e del fatto che lo scambio di due righe comporta il cambiamento di segno di ciascuna permutazione. Per esempio, nel caso della matrice quadrata di ordine 2 si ha: a11 a12 a21 a22 = a11 a22 − a12 a21 , invece:

a21 a22 a11 a12

= a21 a12 − a22 a11 = −a11 a22 + a12 a21 .

3. Segue dalla propriet`a precedente, infatti scambiando due righe (colonne) uguali di una matrice quadrata A si ottiene la stessa matrice, se prima dello scambio det(A) = a, dopo lo scambio det(A) = −a (per la propriet`a precedente), ma poich´e la matrice non cambia allora a = −a, da cui la tesi.

Matrici e Determinanti

62

4. Segue da 1. e da 3. 5. Si calcoli il determinante di una matrice quadrata di ordine n mettendo in evidenza le sue righe e l’operazione richiesta Ri → Ri + λRj , i 6= j : R1 .. . Ri + λRj .. . R j .. . Rn

=

R1 .. . Ri .. . Rj .. . Rn

+ λ

R1 .. . Rj .. . Rj .. . Rn

.

L’uguaglianza precedente e` una evidente conseguenza della definizione di determinante, quindi la tesi segue dalla terza propriet`a.

Come ovvia conseguenza dei Teoremi 2.13 e 2.14 si ha il teorema che segue. Teorema 2.15 Sia A una matrice quadrata di ordine n allora: rank(A) = n ⇐⇒ det(A) 6= 0 e, in modo equivalente: rank(A) < n ⇐⇒ det(A) = 0.

Esercizio 2.5 Calcolare il determinante della seguente matrice, riducendola a forma triangolare superiore:   1 −1 2 1  3 1 1 2  . A=  2 2 −2 1  1 0 1 −1 Soluzione

Per esempio si pu`o procedere come segue:

Capitolo 2



1 −1 2 1 3 1 1 2 2 2 −2 1 1 0 1 −1

−1 0 0 0

1 4 4 1

−1 1 0 − 4 0 0

2 1 3 3 2 3 1 −1 1 4 0 0

−→ C1 ↔ C2

−1 1 − 2 0

−→ R3 → R3 − R2 R4 → R4 − (1/4)R2

2 1 3 3 1 0 1 −7

−→ R4 → R4 − R3

63

1 2 1 3 1 2 2 −2 1 1 1 −1 −1 0 0 0

−→ R2 → R2 + R1 R3 → R3 + 2R1

1 2 1 4 3 3 0 −1 0 7 1 − 0 4 4

−1 1 0 − 4 0 0

1 4 0 0

−→ R3 → −R3 R4 → 4R4

2 1 3 3 1 0 0 −7

= −7.

Il teorema che segue stabilisce importanti propriet`a del determinante in relazione al prodotto di una matrice per uno scalare e al prodotto di matrici. Teorema 2.16

1. det(λA) = λn det(A),

A ∈ Rn,n , λ ∈ R;

2. Teorema di Binet: det(AB) = det(A) det(B),

A, B ∈ Rn,n ;

3. Se A e` una matrice invertibile, allora det(A−1 ) = det(A)−1 . Dimostrazione 1. E` ovvia dalla Definizione 2.4 di prodotto di un numero reale per una matrice e dalla Definizione 2.9 di determinante. 2. Si tratta di una propriet`a sorprendente e di difficile dimostrazione. E` vera nel caso di matrici triangolari superiori, ricordando che il prodotto di due matrici triangolari superiori e` ancora una matrice dello stesso tipo e che il determinante di una matrice triangolare superiore e` il prodotto degli elementi della diagonale principale (analogamente e` anche vero nel caso delle matrici triangolari inferiori). Nel Capitolo 7 si dimostrer`a questa propriet`a nel caso di matrici quadrate con particolari propriet`a (le matrici diagonalizzabili), ma solo nel Paragrafo 8.8 si arriver`a ad una dimostrazione nel caso generale. 3. E` una conseguenza del Teorema di Binet applicato a AA−1 = I con I matrice unit`a. Si ha det(A) det(A−1 ) = det(I) = 1 da cui la tesi. Osservazione 2.12 1. Si deduce, dalla propriet`a 3. del teorema precedente, che:

Matrici e Determinanti

64

se A ∈ Rn,n e` invertibile, allora det(A) 6= 0; nel paragrafo che segue si dimostrer`a anche il viceversa. 2. In generale, se A, B sono matrici di Rn,n allora det(A + B) 6= det(A) + det(B). Infatti si considerino le matrici:     1 2 1 −2 A= , B= 3 4 4 5 per le quali det(A) = −2, det(B) = 13, ma:  2 A+B = 7

0 9



e det(A + B) = 18. Esercizio 2.6 Dimostrare che se A e` una matrice antisimmetrica di ordine dispari, allora det(A) = 0.

2.8.1

I Teoremi di Laplace Un’altra definizione di rango di una matrice

Esempio 2.15 Si consideri lo sviluppo del determinante di una matrice di ordine 3 descritto nell’Esempio 2.14 e lo si trasformi applicando le propriet`a commutativa e distributiva del prodotto rispetto alla somma di numeri reali nel modo seguente: a11 a12 a13 a21 a22 a23 a31 a32 a33

= a11 a22 a33 + a13 a21 a32 + a12 a23 a31 − a11 a23 a32 −a13 a22 a31 − a12 a21 a33 = a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) +a13 (a21 a32 − a22 a31 ) a a = a11 22 23 a32 a33

− a12 a21 a23 a31 a33

+ a13 a21 a22 a31 a32



a a = a31 12 13 a22 a23

− a32 a11 a13 a21 a23

+ a33 a11 a12 a21 a22



a a = −a12 21 23 a31 a33

+ a22 a11 a13 a31 a33

− a32 a11 a13 a21 a23

.

Capitolo 2

65

L’espressione precedente permette di indovinare una regola di calcolo del determinante per le matrici di ordine qualsiasi. Per fare ci`o e` necessario introdurre alcune definizioni. Definizione 2.10 Sia A = (aij ) ∈ Rn,n ; si definisce minore dell’elemento aij il determinante Mij della matrice di ordine n − 1 che si ottiene da A togliendo l’i-esima riga e la j -esima colonna. La definizione precedente si estende in modo naturale alla seguente. Definizione 2.11 Un minore di ordine k, (k < m, k < n, k 6= 0) di una matrice A di Rm,n e` il determinante di una qualsiasi sottomatrice quadrata B di ordine k che si ottiene da A togliendo m − k righe e n − k colonne. Esempio 2.16 Data la matrice: 

1

2

3

  5  A=  9 

6

7

M12

3 −4

5 7 8 = 9 11 12 1 3 −4

Un minore di ordine 2 della matrice A e` : 1 2 5 6



 8   , 12  

10 11

1 −2 il minore M12 e` :

4

= 64.

= −4,

infatti e` il determinante della matrice quadrata di ordine 2 ottenuta togliendo la terza e la quarta riga e la terza e la quarta colonna della matrice A. A partire dalla matrice A quanti minori di ordine 2 si trovano? E` evidente invece che i minori di ordine 1 di A sono 16 e sono gli elementi di A. Definizione 2.12 Sia A = (aij ) ∈ Rn,n ; si definisce cofattore o complemento algebrico dell’elemento aij il numero Aij definito da: Aij = (−1)i+j Mij .

66

Matrici e Determinanti

Esempio 2.17 Nell’Esempio 2.16 il cofattore dell’elemento a12 e` A12 = −M12 = −64. L’Esempio 2.15 suggerisce il seguente importante teorema per il calcolo del determinante di una matrice quadrata di ordine qualsiasi. Teorema 2.17 – Primo Teorema di Laplace – Il determinante di una matrice quadrata A = (aij ) ∈ Rn,n e` dato da: det(A) =

n X

aik Aik =

k=1

n X

ahj Ahj ,

(2.16)

h=1

per ogni i = 1, 2, . . . , n, j = 1, 2, . . . , n. In altri termini, il determinante della matrice quadrata A si ottiene moltiplicando gli elementi di una riga fissata (nella formula precedente e` la i-esima) per i rispettivi cofattori, inoltre il valore ottenuto non dipende dalla riga scelta. L’ultimo membro di (2.16) afferma che tale propriet`a vale anche per la j -esima colonna. Dimostrazione E` un calcolo che segue da (2.14), allo stesso modo con cui e` stato condotto nell’Esempio 2.15. Esempio 2.18 Per calcolare il determinante della matrice, oggetto dell’Esercizio 2.5, si pu`o usare il Primo Teorema di Laplace 2.17. La presenza del numero 0 al posto (4, 2) di tale matrice suggerisce di sviluppare il determinante rispetto alla seconda colonna oppure rispetto alla quarta riga. Si riportano di seguito esplicitamente entrambi i calcoli: 3 1 1 2 1 2 2 1 1 1 + 2 −2 1 − 2 3 1 2 det(A) = 2 −2 1 1 1 −1 1 −1 1 1 −1  −2 1 = 3 1 −1

2 1 − 1 −1

 + 2 2 −2 1 1

 −2 1 + 1 −1

1 − 2 2 1 −1

 2 −2 + 1 1

 1 2 −2 1 −1

2 − 2 3 1 −1

3 + 1

−1 2 1 = − 1 2 −2

1 2 1

1 −1 − 3 1 2 2

1 2 1

 1 1

1 −1 2 − 3 1 1 2 2 −2

,

si lascia la conclusione al Lettore, osservando per`o che la determinazione dello stesso determinante condotta nell’Esercizio 2.5 e` stata molto pi`u agevole.

Capitolo 2

67

Teorema 2.18 – Secondo Teorema di Laplace – In una matrice quadrata A = (aij ) di Rn,n la somma dei prodotti degli elementi di una riga (o colonna) per i cofattori di una riga (o una colonna) parallela e` zero, in formule: n X k=1

aik Ajk =

n X

ahi Ahj = 0,

i 6= j.

(2.17)

h=1

Dimostrazione E` evidente conseguenza della seconda propriet`a del Teorema 2.14, infatti (2.17) si pu`o interpretare come lo sviluppo del determinante di un matrice in cui, nel primo caso, la riga j -esima coincide con la riga i-esima e nel secondo caso, la colonna j -esima coincide con la colonna i-esima. Utilizzando la nozione di determinante e di minore si pu`o enunciare una seconda definizione di rango di una matrice A ∈ Rm,n , equivalente a quella gi`a introdotta (cfr. Def. 1.10). La dimostrazione dell’equivalenza tra le due definizioni di rango e` rimandata al Paragrafo 4.5. Definizione 2.13 Il rango di una matrice A ∈ Rm,n e` pari al massimo ordine di un minore non nullo di A. Esempio 2.19 Si consideri la matrice: 

 1 2 1 2 A= 2 4 2 4  0 1 0 1

che ha evidentemente rango 2 se si procede al calcolo del suo rango riducendola per righe. Considerando, invece, la Definizione 2.13 di rango si vede subito che ogni minore di A di ordine 3 e` uguale a zero, infatti ogni matrice quadrata di ordine 3 estratta da A ha due righe proporzionali. Invece: 2 4 0 1 =2 da cui segue che rank(A) = 2 in quanto esiste un minore di ordine 2 di A non nullo.

2.8.2

Calcolo della matrice inversa, secondo metodo

In questo paragrafo si introdurr`a un altro metodo di calcolo della matrice inversa A−1 di una matrice data A, facendo uso della nozione di determinante. Per questo scopo si inizia con la definizione di una matrice particolare associata ad una qualsiasi matrice quadrata.

Matrici e Determinanti

68

Definizione 2.14 Data A ∈ Rn,n , si consideri la matrice B = (Aij ) ∈ Rn,n avente ordinatamente come elementi i cofattori di A, la trasposta di tale matrice prende il nome di aggiunta di A e si indica con adj(A). Esempio 2.20 Data: 

1 A =  −1 0

2 2 1

 3 5  2

la sua aggiunta e` : 

 −1 −1 4 2 −8 . adj(A) =  2 −1 −1 4 Teorema 2.19 Sia A una matrice quadrata di ordine n, se det(A) 6= 0 allora esiste l’inversa di A e: 1 adj(A). A−1 = det(A) Dimostrazione

Sia: B = (bij ) =

1 adj(A), det(A)

il teorema e` dimostrato se AB = (cij ) = I , in altri termini se cij = δij , dove δij e` il simbolo di Kronecker, ossia δii = 1 e δij = 0, i 6= j . Si calcola: n X

n X 1 1 aik bki = aik Aik = det(A) = 1; cii = det(A) k=1 det(A) k=1

la precedente uguaglianza segue dal Primo Teorema di Laplace 2.17. Se i 6= j si ha invece: n n X X 1 aik Ajk = 0, cij = aik bkj = det(A) k=1 k=1 per il Secondo Teorema di Laplace 2.18. Osservazione 2.13 Il teorema precedente insieme con il Teorema 2.16 e il Teorema 2.13 permettono di concludere che, nel caso di una matrice quadrata A ∈ Rn,n : ∃A−1 ⇐⇒ det(A) 6= 0 ⇐⇒ rank(A) = n.

Capitolo 2

69

Esempio 2.21 E` agevole applicare il metodo di calcolo della matrice inversa appena introdotto nel caso di una matrice quadrata di ordine 2, infatti se:   a11 a12 A= a21 a22 e det(A) 6= 0 allora: −1

A

1 = det(A)



a22 −a12 −a21 a11

 .

Esempio 2.22 Considerata la matrice A dell’Esercizio 2.2, se ne determini l’inversa usando il procedimento descritto. Si tratta di calcolare i cofattori di tutti gli elementi della matrice, ossia 16 determinanti di matrici quadrate di ordine 3 e, quindi, la matrice aggiunta. Si ottiene:   −8 6 2 2 1  1 0   15 0 −10 . adj(A) = A−1 = 0 0  det(A) 10  5 0 8 4 −2 −2 Osservazione 2.14 Dalla definizione di aggiunta di una matrice quadrata A di ordine n, segue: A adj(A) = det(A)I, (2.18) dove I indica la matrice unit`a di Rn,n . Si osservi che la formula (2.18) vale per ogni matrice A, anche se non e` invertibile.

2.8.3

Il Teorema di Cramer

E` conseguenza del paragrafo precedente un metodo di calcolo che permette di risolvere i sistemi lineari compatibili che hanno il numero delle equazioni pari al numero delle incognite, cio`e del tipo:   a11 x1 + a12 x2 + . . . . . . + a1n xn = b1    a21 x1 + a22 x2 + . . . . . . + a2n xn = b2 (2.19) ..  .    a x + a x + ...... + a x = b . n1 1 n2 2 nn n n La matrice dei coefficienti A = (aij ) ∈ Rn,n e` quadrata. Se det(A) 6= 0 segue dal Teorema di Rouch´e–Capelli 1.2 che il sistema lineare (2.19) e` compatibile. In notazione matriciale (cfr. Par. 2.2.1) il sistema lineare (2.19) equivale a: AX = B,

(2.20)

Matrici e Determinanti

70

dove X ∈ Rn,1 e` la matrice delle incognite e B ∈ Rn,1 e` la matrice colonna dei termini noti. Poich´e det(A) 6= 0, A e` invertibile e quindi e` possibile moltiplicare a sinistra ambo i membri di (2.20) per A−1 , ottenendo cos`ı: X = A−1 B. Dal Teorema 2.19, sostituendo l’espressione di    x1 A11  x2   1   A12  X =  ..  =  .  .  det(A)  .. xn A1n

A−1 , si ha: A21 . . . An1 A22 . . . An2 .. .. ... . . A2n . . . Ann

    

b1 b2 .. .

    

bn

da cui, uguagliando, si ricava: 1 x1 = det(A)

b1 a12 b2 a22 .. .. . . bn an2

. . . a1n . . . a2n .. . ... . . . . ann

In generale si ha: 1 xi = det(A)

a11 a12 . . . b1 . . . a1n a21 a22 . . . b2 . . . a2n .. .

.. .

.. .

.. .

.. .

.. .

.. .

.. .

an1 an2 . . . bn . . . ann

,

i = 1, 2, . . . , n,

(2.21)

dove l’i-esima colonna coincide con quella dei termini noti. Teorema 2.20 – Teorema di Cramer – In un sistema lineare del tipo (2.19) di n equazioni in n incognite la cui matrice A dei coefficienti ha determinante diverso da zero la i-esima incognita si ottiene dalla formula (2.21). Esempio 2.23 Dato il sistema lineare:   2x1 − x2 + x3 = 0 3x1 + 2x2 − 5x3 = 1  x1 + 3x2 − 2x3 = 4,

Capitolo 2

71

il determinante della matrice A dei coefficienti e` dato da: 2 −1 1 2 −5 = 28 6= 0. det(A) = 3 1 3 −2 Quindi esiste una sola soluzione che pu`o essere determinata usando il Teorema di Cramer nel modo seguente: 0 −1 2 0 2 −1 0 1 1 1 , x2 = 1 3 1 −5 , x3 = 1 3 . 1 2 −5 2 1 x1 = 28 28 28 4 3 −2 1 4 −2 1 3 4 Osservazione 2.15 Si osservi che ad ogni sistema lineare compatibile e` applicabile il Teorema di Cramer. Sia, infatti, AX = B un sistema lineare compatibile con A in Rm,n , X in Rn,1 , B in Rm,1 e sia r = rank(A | B) = rank(A). Riducendo eventualmente per righe la matrice completa iniziale (A | B) e scambiando opportunamente le righe si pu`o ottenere una nuova matrice:   0 a11 a012 . . . a01n b01 .. .. ..   .. . . .   .   (A0 | B 0 ) =  a0r1 a0r2 . . . a0rn b0r   . .. .. ..   .. . . .  a0 a0 . . . a0 b0 m1

m2

mn

m

tale che le prime r righe di A0 formino una matrice di rango r. Equivalentemente non e` restrittivo supporre che dalle prime r righe di A0 sia possibile estrarre una matrice quadrata C di ordine r e di rango r. Infatti, se cos`ı non fosse si avrebbe rank(A) = rank(A0 ) ≤ r − 1, perch´e ogni matrice quadrata di ordine r estratta da A0 avrebbe determinante nullo (cfr. Def. 2.13). Portando a secondo membro le colonne di A0 diverse da quelle di C si ottiene la matrice completa (C | B 00 ) di un nuovo sistema lineare con r incognite e con det(C) 6= 0, equivalente a quello di partenza. Quest’ultima affermazione e` vera perch´e le operazioni di riduzione per righe trasformano il sistema lineare in un altro ad esso equivalente e dal fatto che il rango di C sia r segue che il sistema lineare ammette infinite soluzioni che dipendono da n − r incognite libere che sono, con questo metodo, proprio quelle portate a secondo membro (cfr. Cap.1). In questo modo, utilizzando il Teorema di Cramer si possono esprimere le r incognite in funzione delle rimanenti n − r incognite libere. Segue un esempio di ci`o che e` stato appena osservato. Esempio 2.24 Si consideri il sistema lineare:  x + 3y + z = −1 −x + 2y − z = 0,

(2.22)

Matrici e Determinanti

72

osservato che il rango della matrice dei coefficienti:   1 3 1 A= −1 2 −1 e` 2 e assunta z come incognita libera, in questo caso la matrice C citata nell’osservazione precedente e` :   1 3 C= . −1 2 Il sistema lineare (2.22) si pu`o scrivere:  x + 3y = −1 − z −x + 2y = z.

(2.23)

Ma a (2.23) e` applicabile il Teorema di Cramer perch´e: 1 3 −1 2 = 5. La soluzione e` : −1−z 3 z 2 2 = −z − , x= 5 5

2.9

1 −1−z −1 z 1 y= =− , 5 5

z ∈ R.

Per saperne di piu`

In questo paragrafo sono riportate le dimostrazioni di alcune propriet`a che nel paragrafo precedente sono state lasciate al Lettore per esercizio. Esercizio 2.7 Si dimostri che: (AB)C = A(BC),

A ∈ Rm,n , B ∈ Rn,p , C ∈ Rp,l .

Soluzione Siano A = (aij ) ∈ Rm,n , B = (bij ) ∈ Rn,p , C = (cij ) ∈ Rp,l . Allora AB = (dij ) ∈ Rm,p e: n X dij = aik bkj . k=1

Quindi (AB)C = (eij ) ∈ Rm,l , con: eij =

p X h=1

dih chj =

p n X X h=1

k=1

! aik bkh chj =

p n X X h=1 k=1

aik bkh chj

Capitolo 2

73

che e` l’espressione del generico elemento della matrice a primo membro. Per il secondo membro si ha BC = (fij ) ∈ Rn,l , con: fij =

p X

bih chj

h=1

e A(BC) = (gij ) ∈ Rm,l , dove: gij =

n X

aik fkj =

k=1

n X

aik

k=1

p X

! bkh chj

=

h=1

p n X X

aik bkh chj ,

k=1 h=1

da cui segue la tesi. Esercizio 2.8 Si dimostri che: t

(AB) = tB tA,

A ∈ Rn,p , B ∈ Rp,m .

Soluzione Date la matrici A = (aij ) ∈ Rn,p e B = (bij ) ∈ Rp,m , il loro prodotto e` la matrice C = AB = (cij ) ∈ Rn,m , dove: cij =

p X

aik bkj .

k=1

La matrice a primo membro t (AB) = (dij ) di Rm,n ha elementi del tipo: dij = cji =

p X

ajk bki .

k=1

La matrice tA = (eij ) di Rp,n ha elementi del tipo eij = aji . La matrice tB = (fij ) di Rm,p ha elementi del tipo fij = bji . La matrice prodotto tB tA = (gij ) di Rm,n ha elementi del tipo: p p p X X X gij = fik ekj = bki ajk = ajk bki , k=1

k=1

da cui segue la tesi. Esercizio 2.9 Si dimostri che: (tA)−1 = t (A−1 ), per ogni matrice invertibile A ∈ Rn,n .

k=1

Matrici e Determinanti

74

Soluzione

Si tratta di dimostrare che t (A−1 ) e` l’inversa di tA, infatti: t

(A−1 ) tA = t (A A−1 ) = t I = I.

Esercizio 2.10 Si dimostri che: tr(A B) = tr(B A),

A, B ∈ Rn,n .

Soluzione Date le matrici A = (aij ) ∈ Rn,n e B = (bij ) ∈ Rn,n , gli elementi della diagonale principale del prodotto AB sono: cii =

n X

aih bhi ,

h=1

quindi: tr(A B) =

n X

cll =

n X

alh bhl .

h,l=1

l=1

Siano dii gli elementi della diagonale principale del prodotto BA, si ha: dii =

n X

bik aki ,

k=1

la traccia di BA diventa: tr(B A) =

n X

dmm =

m=1

da cui, confrontando con (2.24), segue la tesi.

n X m,k=1

bmk akm

(2.24)

Capitolo 3 Calcolo Vettoriale Il calcolo vettoriale elementare e` l’argomento di base per lo studio dell’algebra lineare e della geometria analitica nella retta, nel piano e nello spazio, inoltre si rivela uno strumento prezioso per la matematica applicata e la fisica in particolare. In questo capitolo si assumono note le principali nozioni di geometria euclidea del piano e dello spazio, cos`ı come sono solitamente trattate nel primo biennio della scuola secondaria superiore. Vale a dire si assume che il Lettore abbia familiarit`a con i concetti di: punto, retta, piano e le loro reciproche posizioni, nonch´e le loro principali propriet`a. Saranno, pertanto, usate le notazioni tradizionali, indicando, quindi, con le lettere maiuscole dell’alfabeto A, B, . . . , i punti, con le lettere minuscole r, s, . . . , le rette e con le lettere minuscole dell’alfabeto greco α, β, . . . , i piani. La retta (intesa come retta di punti) sar`a indicata con S1 , il piano (inteso come piano di punti) con S2 , lo spazio, inteso come spazio di punti, con S3 . Gli spazi S1 , S2 , S3 sono esempi di spazi affini rispettivamente di dimensione 1, 2, 3. Per la trattazione assiomatica degli spazi affini, che non e` inserita in questo testo, si rimanda ad esempio a [17], invece il concetto di dimensione di uno spazio formato da vettori sar`a introdotto in questo capitolo e poi definito formalmente nel capitolo successivo Per il momento si raccomanda di non pensare al significato formale dei termini che sono stati usati, ma di limitarsi a richiamare le nozioni elementari impartite nelle scuole secondarie su questi spazi. Man mano che si proceder`a con lo studio dell’algebra lineare, si preciseranno in modo corretto le terminologie comunemente usate. Si assumono, inoltre, noti i primi rudimenti di trigonometria, quali, ad esempio, le definizioni delle funzioni trigonometriche elementari e le loro principali propriet`a.

3.1

Definizione di vettore

Definizione 3.1 Si consideri un segmento AB appartenente ad una retta r dello spazio ambiente S3 . Ad AB si associa la direzione, quella della retta r, il verso, ad esempio, 75

76

Calcolo Vettoriale

quello da A verso B e la lunghezza indicata con kABk e detta norma o lunghezza di AB . Un segmento di questo tipo si dice segmento orientato e sar`a indicato con la simbologia −→ AB . La totalit`a di tutti i segmenti orientati aventi la stessa direzione, lo stesso verso e la stessa lunghezza di AB , prende il nome di vettore x e sar`a generalmente indicato con le lettere minuscole in grassetto. Riassumendo, ad ogni vettore x si associano tre entit`a:   direzione di x verso di x  norma di x indicata con kxk. Per definizione, la norma di ogni vettore e` un numero reale positivo, eventualmente nullo. Se il vettore x e` individuato dai punti A e B dello spazio, per indicarlo si potranno usare, −→ −→ indifferentemente, le seguenti notazioni: x, AB , B − A, [AB]. Inoltre AB e` detto un rappresentante del vettore x; per abbreviare si scriver`a: −→ x = AB. Segue dalla definizione che lo stesso vettore x ammette infiniti rappresentanti, per esempio la coppia di punti C, D dello spazio tali che i segmenti AB e CD siano paralleli, −→ −−→ abbiano la stessa lunghezza e lo stesso verso, cio`e x = AB = CD. Se A = B , il segmento ottenuto, che ha come rappresentante A e anche un qualsiasi punto dello spazio, si indica con o e prende il nome di vettore nullo. Il vettore nullo o e` l’unico vettore di norma uguale a zero ed ha direzione e verso indeterminati. Se kxk = 1, x si dice versore. Sar`a molto utile il concetto di versore in quanto permetter`a di individuare agevolmente l’unit`a di misura. Se si fissa un punto O nello spazio S3 e si identifica, di conseguenza, ogni vettore x con il −→ punto P dato da x = OP allora lo spazio S3 coincide con l’insieme dei vettori dello spazio che si indica con V3 , analogamente, S2 (fissato il punto O) si identifica con l’insieme dei vettori V2 di un piano e S1 con l’insieme dei vettori V1 di una retta. Il significato dei numeri 1, 2, 3 in V1 , V2 , V3 sar`a discusso ampiamente in questo capitolo. Si osservi inoltre che, se non viene fissato il punto O, V1 si pu`o interpretare geometricamente come una qualsiasi retta dello spazio di direzione uguale a quella dei suoi vettori, V2 invece si pu`o visualizzare geometricamente come un qualsiasi piano dello spazio parallelo ai vettori ad esso appartenenti. I vettori per cui non e` indicato il punto di applicazione prendono anche il nome di vettori liberi. V1 e V2 vengono, rispettivamente, chiamati retta vettoriale e piano vettoriale. Nel Paragrafo 3.10 viene data una formulazione pi`u rigorosa della Definizione 3.1; per quello che segue, per`o, e` sufficiente che il Lettore abbia un’idea intuitiva di questo concetto.

Capitolo 3

77

Nei due paragrafi successivi si introdurranno alcune operazioni tra vettori, iniziando dalla somma di vettori e dal prodotto di un numero reale per un vettore. E` molto importante osservare che queste operazioni (ovviamente con una definizione diversa da quella che sar`a di seguito presentata) sono gi`a state introdotte nell’insieme delle matrici, nel capitolo precedente. Sar`a sorprendente notare che per le operazioni tra vettori saranno valide le stesse propriet`a dimostrate per le analoghe operazioni tra matrici. Il capitolo successivo sar`a dedicato allo studio assiomatico degli insiemi su cui e` possibile definire operazioni di questo tipo e che daranno luogo alla nozione di spazio vettoriale di cui l’insieme delle matrici Rm,n e gli insiemi dei vettori V3 , V2 , V1 sono esempi.

3.2

Somma di vettori

Definizione 3.2 La somma in V3 e` l’operazione: + : V3 × V3 −→ V3 ,

(x, y) 7−→ x + y,

−→ −−→ dove il vettore x + y e` cos`ı definito: fissato un punto O di S3 , siano OA e OB due −→ segmenti orientati rappresentanti di x e y, rispettivamente, allora x + y = OC , dove −→ OC e` il segmento orientato che si determina con la regola del parallelogramma, illustrata nella Figura 3.1.

B

y

O

C

x+y

x

A

Figura 3.1: Somma di due vettori

Osservazione 3.1 1. La definizione di somma di vettori e` ben data. Vale a dire, facendo riferimento alle notazioni della Definizione 3.2, se si cambiano i rappresentanti di x e di y, allora il nuovo rappresentante di x + y, ottenuto con la regola del

Calcolo Vettoriale

78

−→ parallegramma, ha la stessa direzione, lo stesso verso e la stessa norma di OC . La situazione geometrica e` illustrata nella Figura 3.2, la dimostrazione di questa affermazione, che segue in modo elementare dalle propriet`a dei parallelogrammi, e` lasciata al Lettore. 2. Per definizione x + y e` complanare a x e a y, dove con il temine complanare si indicano i vettori che ammettono rappresentanti appartenenti allo stesso piano. Di conseguenza l’operazione di somma di vettori e` ben definita anche in V2 e anche in V1 . Infatti se x e y sono paralleli, ossia se ammettono rappresentanti appartenenti alla stessa retta, o, equivalentemente, se hanno la stessa direzione, allora la loro somma x + y e` ancora un vettore parallelo ad x e a y, la cui norma e` pari alla somma delle norme di x e di y se essi sono concordi (ossia se hanno lo stesso verso), in caso contrario, ossia se i vettori sono discordi, la norma di x + y e` la differenza delle norme di x e y. Il verso di x + y e` concorde con il verso del vettore addendo di norma maggiore. L’evidente situazione geometrica e` illustrata nella Figura 3.3. Questo fatto si esprime anche dicendo che V2 e V1 sono chiusi rispetto all’operazione di somma di vettori. 3. Il punto C e` il simmetrico di O rispetto al punto medio del segmento AB, (cfr. Fig. 3.1). 4. Per ogni vettore x (non nullo) esiste l’opposto −x, che e` il vettore parallelo ad x avente la stessa norma di x ma verso opposto. Quindi: x + (−x) = o. Si osservi, inoltre, che anche il vettore nullo o ammette l’opposto, che coincide con il vettore nullo stesso. Teorema 3.1 Per la somma di vettori in V3 valgono le seguenti propriet`a: 1. x + y = y + x,

x, y ∈ V3 (propriet`a commutativa);

2. (x + y) + z = x + (y + z), 3. ∃ o ∈ V3 | x + o = x,

x, y, z ∈ V3 (propriet`a associativa);

x ∈ V3 (esistenza dell’elemento neutro);

4. ∀x ∈ V3 , ∃ −x ∈ V3 | x + (−x) = o (esistenza dell’opposto). Inoltre: 5. kxk − kyk ≤ kx + yk ≤ kxk + kyk,

x, y ∈ V3 .

Capitolo 3

B

79

C x+y

y x

O

A

B' x+y

y x

O'

C'

A'

Figura 3.2: La somma di due vettori non dipende dai loro rappresentanti

x

y

x y

x+y

x+y

Figura 3.3: Somma di due vettori paralleli

80

Calcolo Vettoriale

Dimostrazione La dimostrazione segue dalla definizione di somma di vettori e dalle propriet`a dei parallelogrammi ed e` lasciata al Lettore. L’elemento neutro e` il vettore nullo o e l’opposto del vettore x coincide con il vettore −x prima definito. Si osservi che le due uguaglianze in 5. possono valere solo se i vettori x e y sono paralleli. Osservazione 3.2 1. Dati due vettori x e y la loro somma x + y si pu`o ottenere mediante la regola della poligonale, cio`e scelti due segmenti orientati consecutivi −→ −−→ −→ x = AB, y = BC , risulta x + y = AC . 2. La propriet`a associativa permette di estendere la definizione di somma di vettori a n addendi. Dati, quindi, i vettori x1 , x2 , . . . , xn , la loro somma x1 + x2 + . . . + xn si pu`o rappresentare agevolmente, tenendo conto dell’osservazione precedente, con il segmento che chiude la poligonale ottenuta dai segmenti posti consecutivamente, che rappresentano i vettori addendi. La situazione geometrica e` illustrata nella Figura 3.4. 3. E` molto importante osservare che le propriet`a della somma di vettori coincidono con le propriet`a della somma di numeri reali, in questo caso il vettore nullo e` il numero 0. In un certo senso, questo e` un motivo che autorizza la denominazione “somma” all’operazione tra vettori appena introdotta. Dal punto di vista “sperimentale”, invece, la definizione di somma di vettori e` giustificata dal comportamento fisico della composizione di due forze applicate nello stesso punto. 4. Il teorema precedente, ha permesso di definire la differenza di due vettori, ossia: x − y = x + (−y). La Figura 3.5 illustra come la differenza di due vettori non paralleli sia rappresentata dalla diagonale del parallelogramma che non rappresenta la loro somma. Si lascia per esercizio la rappresentazione grafica della differenza di due vettori paralleli. 5. Dato un qualsiasi vettore x e due direzioni non parallele tra di loro ma complanari con x, esistono e sono unici due vettori x1 ed x2 in quelle direzioni, tali che: x = x1 + x2 . L’operazione prende il nome di decomposizione di un vettore lungo due direzioni assegnate. 6. Si osservi che (V3 , + ) con l’operazione di somma di vettori ha la struttura di gruppo commutativo (cfr. Oss. 2.2).

Capitolo 3

81

x4

x3 x1 + x2 + x3 + x4

x2

x1 Figura 3.4: Somma di quattro vettori

y

x -y

x-y

Figura 3.5: Differenza di due vettori

Calcolo Vettoriale

82

3.3

Il prodotto di un numero reale per un vettore

L’operazione che sta per essere definita trova giustificazione nel mondo in cui si vive, in quanto formalizza il risultato che si ottiene quando una forza viene raddoppiata o moltiplicata per un numero reale qualsiasi. D’altra parte, questa operazione e` in un certo senso singolare dal punto di vista algebrico perch´e gli elementi che concorrono alla sua definizione appartengono ad insiemi diversi. Inoltre, si pu`o considerare come l’operazione analoga al prodotto di un numero reale per una matrice introdotto nella Definizione 2.4. Definizione 3.3 Il prodotto di un numero reale λ per un vettore x ∈ V3 e` l’operazione: R × V3 −→ V3 ,

(λ, x) 7−→ λx,

dove il vettore λx (detto anche prodotto dello scalare λ per x) e` definito nel modo seguente: 1. se λ = 0 o x = o, allora λx = o. 2. Se λ 6= 0 e x 6= o si pone λx = y, dove: la direzione di y coincide con la direzione di x; il verso di y e` concorde con quello di x se λ > 0, discorde se λ < 0; kyk = |λ|kxk, dove |λ| indica il valore assoluto del numero reale λ. Osservazione 3.3 Dalla definizione segue che λx = o se e solo se λ = 0 oppure x = o. Per la dimostrazione si veda l’Esercizio 4.23. Sono valide le seguenti propriet`a la cui dimostrazione e` lasciata per esercizio. Teorema 3.2

1. λ(x + y) = λx + λy,

2. (λ + µ)x = λx + µx, 3. λ(µx) = (λµ)x, 4. 1 x = x,

λ ∈ R, x, y ∈ V3 ;

λ, µ ∈ R, x ∈ V3 ;

λ, µ ∈ R, x ∈ V3 ;

x ∈ V3 .

Osservazione 3.4 L’insieme V3 con le operazioni di somma di vettori e le relative quattro propriet`a e di prodotto di un numero reale per un vettore e le relative quattro propriet`a, e` un esempio di spazio vettoriale su R. La definizione assiomatica di spazio vettoriale e` rimandata al capitolo successivo. Allo stesso modo, anche V2 e V1 sono esempi di spazi vettoriali. In realt`a, V2 e V1 sono esempi di sottospazi vettoriali di V3 perch´e sono chiusi

Capitolo 3

83

rispetto alle operazioni di somma e di prodotto per numeri reali, vale a dire per ogni x e y in V2 e per ogni λ ∈ R si ha che x + y ∈ V2 e λx ∈ V2 (analogamente per V1 ). Inoltre, in un certo senso (considerando le rette vettoriali di direzione indeterminata appartenenti ad un piano vettoriale qualsiasi) si pu`o pensare che V1 ⊂ V2 ⊂ V3 . Seguono alcune definizioni e propriet`a di tipo teorico, che saranno riprese in modo completo nel capitolo successivo. Si e` deciso di inserire in questo contesto ci`o che segue, anche se i risultati che si ottengono saranno conseguenza della teoria pi`u generale degli spazi vettoriali, e saranno, quindi, dedotti nel Capitolo 4, in quanto solo in V3 e` possibile rappresentare graficamente le nozioni man mano introdotte, aiutando cos`ı la loro comprensione. Definizione 3.4 Dati k vettori v1 , v2 , . . . , vk di V3 , si dice che un vettore x ∈ V3 e` combinazione lineare di v1 , v2 , . . . , vk se esistono k numeri reali x1 , x2 , . . . , xk tali che: x = x1 v 1 + x2 v 2 + . . . + xk v k . I numeri reali x1 , x2 , . . . , xk si dicono coefficienti della combinazione lineare. Mediante la nozione di combinazione lineare di vettori si possono riformulare, in modo pi`u accurato dal punto di vista algebrico, le nozioni, gi`a introdotte in modo geometricamente intuitivo, di retta vettoriale e di piano vettoriale. Definizione 3.5 Dato un vettore x 6= o, la retta vettoriale generata da x e` l’insieme: L(x) = {λx | λ ∈ R}. Dati due vettori x e y non paralleli il piano vettoriale generato da x e da y e` l’insieme: L(x, y) = {λx + µy | λ, µ ∈ R}. Osservazione 3.5 Segue in modo evidente dalla definizione che L(x, y) = L(y, x). Non ci si deve infatti far trarre in inganno dalla presenza nella scrittura delle parentesi tonde, usualmente usate per indicare che e` importante l’ordine dei vettori; e` una convenzione usare questa notazione anche se non e` corretta. Scopo del prossimo paragrafo e` mettere in relazione le nozioni algebriche e geometriche enunciate nelle definizioni precedenti.

Calcolo Vettoriale

84

3.4

Dipendenza lineare e basi

Dalla Definizione 3.5 segue che il parallelismo e la complanarit`a tra vettori possono essere letti in termini delle loro combinazioni lineari. Per differenziare ulteriormente le due diverse situazioni geometriche e` necessario introdurre la seguente definizione. Definizione 3.6 Dati k vettori v1 , v2 , . . . , vk di V3 , essi si dicono linearmente indipendenti se l’unica loro combinazione lineare uguale al vettore nullo e` quella con coefficienti tutti nulli, vale a dire: x1 v 1 + x2 v 2 + . . . + xk v k = o

=⇒

x1 = x2 = . . . = xk = 0.

(3.1)

L’insieme {v1 , v2 , . . . , vk } di vettori linearmente indipendenti si dice libero. Di conseguenza k vettori v1 , v2 , . . . , vk di V3 si dicono linearmente dipendenti se esiste almeno una loro combinazione lineare uguale al vettore nullo a coefficienti non tutti nulli, cio`e se si ha: x1 v 1 + x2 v 2 + . . . + xk v k = o con almeno uno tra i coefficienti x1 , x2 , . . . , xk non nullo. Osservazione 3.6

1. Si osservi che in (3.1) vale anche l’implicazione opposta.

2. L’insieme {x} e` libero se e solo se x 6= o. Prima di proporre alcuni esempi conviene enunciare il teorema che segue, molto facile, ma utile per riconoscere vettori linearmente dipendenti o linearmente indipendenti. Per la dimostrazione si rimanda al Paragrafo 4.3. Teorema 3.3 I vettori v1 , v2 , . . . , vk di V3 sono linearmente dipendenti se e solo se almeno uno di essi si pu`o esprimere come combinazione lineare dei rimanenti. Esempio 3.1 1. Se x = 2y, allora λx + µy = o con λ = 1, µ = −2. Pertanto i vettori x e y sono linearmente dipendenti. 2. Il vettore nullo o e` linearmente dipendente con ogni altro vettore x in quanto: λo + 0x = o, per ogni λ ∈ R, quindi anche per valori non nulli di λ. In particolare, l’insieme contenente solo il vettore nullo {o} non e` libero.

Capitolo 3

85

3. Gli elementi di L(x) sono tutti linearmente dipendenti tra di loro, ma la stessa propriet`a non vale per L(x, y), si vedr`a infatti nel Teorema 3.4 che due vettori non paralleli sono linearmente indipendenti, anche se il risultato si ottiene in modo quasi banale da considerazioni geometriche elementari. Il teorema che segue conclude lo studio del parallelismo e della complanarit`a tra vettori mediante la dipendenza lineare. Teorema 3.4 1. Due vettori x e y di V3 sono linearmente dipendenti se e solo se sono paralleli, ossia se e solo se appartengono alla stessa retta vettoriale. 2. Tre vettori x, y e z di V3 sono linearmente dipendenti se e solo se sono complanari, ossia se e solo se appartengono allo stesso piano vettoriale. 3. Quattro vettori di V3 sono sempre linearmente dipendenti. Segue subito dal teorema appena enunciato che: 1. il numero massimo di vettori linearmente indipendenti in una retta vettoriale V1 e` 1. 2. Il numero massimo di vettori linearmente indipendenti in un piano vettoriale V2 e` 2. 3. Il numero massimo di vettori linearmente indipendenti nello spazio vettoriale V3 e` 3. Ecco, finalmente, una prima definizione algebrica del numero che si legge a pedice! Dimostrazione 1. Si supponga che x e y siano paralleli. Se entrambi i vettori sono il vettore nullo, o uno solo dei due e` il vettore nullo, allora sono linearmente dipendenti. Si supponga ora che entrambi i vettori non siano nulli. Dalla Definizione 3.3 si ha che esiste un numero reale λ per cui x = λy il cui valore assoluto e` dato da: |λ| =

kxk kyk

e il segno di λ e` positivo se x e y hanno verso concorde, altrimenti e` negativo. Dal Teorema 3.3 segue che i vettori x e y sono linearmente dipendenti. Viceversa, se x e y sono linearmente dipendenti si perviene alla tesi applicando di nuovo il Teorema 3.3.

Calcolo Vettoriale

86

K

C z

B y O

x

H

A

Figura 3.6: Complanarit`a di tre vettori

C D

v3 x

v2

O

B

H v1

A

Figura 3.7: Dipendenza lineare di quattro vettori

Capitolo 3

87

2. Si inizia a dimostrare che se i vettori x, y, z sono complanari, allora sono linearmente dipendenti. Si esamina solo il caso in cui x e y sono linearmente indipendenti, lasciando per esercizio gli altri casi. A tale scopo si considerino tre segmenti orientati che li rappresentano, aventi tutti l’estremo O in comune (la situazione geometrica e` descritta nella Figura 3.6) si ha: −→ OA = x,

−−→ OB = y,

−→ OC = z.

Essendo i tre vettori complanari, i punti O, A, B, C appartengono allo stesso piano. Si decomponga il vettore z lungo le direzioni di x e di y (cfr. Oss. 3.2, punto 4.), individuando i punti H sulla retta OA e K sulla retta OB ; si ottiene: −→ −−→ −−→ OC = OH + OK,

(3.2)

−−→ −−→ ma OH e` il rappresentante di un vettore parallelo a x e OK e` il rappresentante di un vettore parallelo a y. La relazione (3.2) equivale alla dipendenza lineare dei tre vettori dati. Il viceversa e` lasciato per esercizio. 3. Siano v1 , v2 , v3 , x quattro vettori di V3 . Si supponga che v1 , v2 , v3 non siano complanari, quindi siano linearmente indipendenti, lasciando per esercizio tutti gli altri casi particolari, da cui si perviene agevolmente alla tesi. Facendo riferimento alla −→ −−→ −→ −−→ Figura 3.7, si indichino con OA = v1 , OB = v2 , OC = v3 , OD = x i rappresentanti dei quattro vettori dati, aventi tutti un estremo in O. I punti O, A, B, C non sono complanari, mentre i punti O, A, B individuano un piano π . Si supponga, inoltre, che D non appartenga a π (in caso contrario il teorema sarebbe dimostrato). Si tracci dal punto D la parallela alla retta OC che incontra il piano π in H . Per costruzione: −−→ −−→ −−→ OD = OH + HD. (3.3) −−→ Decomponendo il vettore OH nelle direzioni dei vettori v1 e v2 , si individuano tre numeri reali x1 , x2 , x3 che permettono di riscrivere la (3.3) come: x = x1 v 1 + x2 v 2 + x3 v 3 ,

(3.4)

e, quindi, segue la tesi. La decomposizione di un generico vettore nello spazio, rispetto a tre vettori linearmente indipendenti assegnati, ottenuta per costruzione nella dimostrazione dell’ultimo punto del teorema precedente, e` in realt`a unica, come afferma il teorema che segue. Teorema 3.5 In V3 , dati tre vettori linearmente indipendenti v1 , v2 , v3 , ogni vettore x di V3 si scrive in modo unico come combinazione lineare dei tre vettori dati.

Calcolo Vettoriale

88

Dimostrazione E` sufficiente dimostrare l’unicit`a della decomposizione (3.4). Si supponga che esistano altri numeri reali y1 , y2 , y3 tali che: (x1 , x2 , x3 ) 6= (y1 , y2 , y3 ) e per cui: x = y1 v1 + y2 v2 + y3 v3 .

(3.5)

Uguagliando (3.4) e (3.5) segue: o = (x1 − y1 )v1 + (x2 − y2 )v2 + (x3 − y3 )v3 . Poich´e v1 , v2 , v3 sono linearmente indipendenti, si ha x1 = y1 , x2 = y2 , x3 = y3 . Il teorema che segue riformula i risultati precedenti nei casi particolari di V2 e di V1 . Teorema 3.6 1. Dati due vettori linearmente indipendenti v1 , v2 di un piano vettoriale V2 , ogni vettore x di V2 determina in modo unico la coppia di numeri reali (x1 , x2 ) tale che: x = x1 v 1 + x2 v 2 . (3.6) 2. Dato un vettore v1 non nullo in una retta vettoriale V1 , ogni vettore x ∈ V1 determina in modo unico il numero reale x1 tale che: x = x1 v 1 .

(3.7)

Segue, in modo evidente, che la posizione di un vettore nello spazio vettoriale V3 e` individuata dalla scelta di tre vettori linearmente indipendenti, in modo analogo per un piano vettoriale V2 e` sufficiente scegliere due vettori linearmente indipendenti per individuare tutti i vettori di V2 e nel caso di una retta vettoriale V1 e` sufficiente scegliere un qualsiasi vettore non nullo per determinare tutti gli altri vettori. Questa considerazione permette di definire in modo inequivocabile i concetti fondamentali di base e di dimensione nel modo che segue. Definizione 3.7 1. Si dice base di V3 una qualsiasi terna ordinata di vettori linearmente indipendenti. Si dice dimensione di V3 il numero dei vettori di una base e si indica con dim(V3 ) = 3. 2. Si dice base di un piano vettoriale V2 una qualsiasi coppia ordinata di vettori linearmente indipendenti di V2 . Si dice dimensione di V2 il numero dei vettori di una base e si indica con dim(V2 ) = 2.

Capitolo 3

89

3. Si dice base di una retta vettoriale V1 un suo qualsiasi vettore non nullo. Si dice dimensione di V1 il numero dei vettori di una base e si indica con dim(V1 ) = 1. Una base di V3 verr`a indicata con la notazione B = (v1 , v2 , v3 ). In questo caso l’ordine con cui si scrivono i vettori e` importante perch´e determina l’ordine con cui si scrivono i coefficienti (x1 , x2 , x3 ) della combinazione lineare (3.4). In modo analogo una base di un piano vettoriale V2 sar`a B 0 = (v1 , v2 ) e una base di una retta vettoriale V1 sar`a B 00 = (v1 ).

x b v3 v2

a

v1 Figura 3.8: Decomposizione di un vettore rispetto a tre direzioni complanari Osservazione 3.7 In V3 , in V2 e in V1 esistono infinite basi ma il numero dei vettori che le compongono e` sempre pari alla dimensione dei rispettivi spazi vettoriali. Osservazione 3.8 Dati tre vettori complanari (non paralleli) v1 , v2 , v3 si ha che ogni vettore x appartenente al piano vettoriale individuato da v1 , v2 , v3 , si decompone in infiniti modi diversi rispetto ai tre vettori dati. Per esempio e` sufficiente scegliere una direzione arbitraria individuata da un vettore a come combinazione lineare di v1 , v2 e decomporre x rispetto alle direzioni individuate da v3 e a; oppure decomporre x rispetto ad una direzione arbitraria b ottenuta come combinazione lineare di v2 e v3 e cos`ı via (cfr. Oss. 3.2 punto 5.). La situazione geometrica e` descritta nella Figura 3.8 in cui si e` posto, per esempio, a = v1 + v2 e x = λa + µv3 ed inoltre si e` posto b = v2 + v3 e x = νb + ϕv1 , dove λ, µ, ν, ϕ sono opportuni numeri reali.

Calcolo Vettoriale

90

I Teoremi 3.5 e 3.6 permettono di introdurre la seguente definizione. Definizione 3.8 Fissata una base B = (v1 , v2 , v3 ) di V3 , per ogni vettore x di V3 gli elementi dell’unica terna ordinata di numeri reali (x1 , x2 , x3 ) definita da (3.4) sono detti le componenti di x rispetto alla base B. In modo analogo la formula (3.6) definisce le componenti di un generico vettore x del piano vettoriale V2 rispetto alla base B 0 = (v1 , v2 ) di V2 e la formula (3.7) definisce la componente di un generico vettore x di una retta vettoriale V1 rispetto alla base B 00 = (v1 ). Osservazione 3.9 Nel caso di V3 , fissata una base B = (v1 , v2 , v3 ), si e` definita una corrispondenza biunivoca tra V3 e R3 che associa ad ogni vettore x le sue componenti. Spesso si scrive, con un abuso di notazione: x = (x1 , x2 , x3 ) o, in forma matriciale, con: 

 x1 x =  x2 . x3 Si vedr`a, infatti, in seguito, come sia pi`u conveniente nei calcoli utilizzare una matrice colonna di R3,1 per indicare le componenti di un vettore di V3 , che e` preferibile chiamare X per distinguerla dal vettore x:   x1 X =  x2 . x3 Analoghe considerazioni valgono per i casi particolari di V2 e di V1 . Il teorema che segue, la cui dimostrazione e` un facile esercizio, permette di calcolare la somma di due vettori e il prodotto di un numero reale per un vettore mediante le componenti. Teorema 3.7 In V3 , dati i vettori x = x1 v1 + x2 v2 + x3 v3 , y = y1 v1 + y2 v2 + y3 v3 , scritti rispetto alla base B = (v1 , v2 , v3 ), si ha: x + y = (x1 + y1 )v1 + (x2 + y2 )v2 + (x3 + y3 )v3 , λx = (λx1 )v1 + (λx2 )v2 + (λx3 )v3 , con λ ∈ R; cio`e le componenti della somma di due vettori si ottengono semplicemente sommando le rispettive componenti, mentre le componenti del vettore λx si ottengono

Capitolo 3

91

moltiplicando λ per ogni componente di x. In notazione matriciale, al vettore x + y si associa la matrice colonna delle sue componenti rispetto alla base B:   x1 + y 1 X + Y =  x2 + y2 . x3 + y 3 Al vettore λx si associa la matrice colonna delle sue componenti rispetto alla base B:   λ x1 λX =  λ x2 . λ x3 Analoghe affermazioni valgono anche nel caso di un piano vettoriale V2 e di una retta vettoriale V1 . Osservazione 3.10 1. Il vettore nullo o e` l’unico vettore di V3 avente componenti tutte nulle o = (0, 0, 0), rispetto ad una qualsiasi base di V3 . 2. I vettori di una base B = (v1 , v2 , v3 ) di V3 hanno componenti, rispetto alla stessa base B: v1 = (1, 0, 0), v2 = (0, 1, 0), v3 = (0, 0, 1). 3. Dal teorema precedente e dalla notazione matriciale usata per le componenti di un vettore segue l’assoluta concordanza tra le definizioni di somma di matrici e di prodotto di un numero reale per una matrice, introdotte nel capitolo precedente e la somma di vettori in componenti e il prodotto di un numero reale per un vettore, in componenti definite in questo capitolo. Gli esempi che seguono sono volti ad individuare la dipendenza o indipendenza lineare dei vettori mediante le loro componenti. Si far`a uso delle nozioni di rango di una matrice e del Teorema di Rouch´e–Capelli introdotti nel Capitolo 1 per la risoluzione dei sistemi lineari. Esempio 3.2 1. In V3 , fissata una base B = (v1 , v2 , v3 ), si considerino i vettori x = x1 v1 + x2 v2 + x3 v3 e y = y1 v1 + y2 v2 + y3 v3 . Dal Teorema 3.4 segue che x e` parallelo a y se e solo se x e y sono linearmente dipendenti, ossia se e solo se e` possibile determinare un numero reale λ tale che: y = λx.

92

Calcolo Vettoriale

Scrivendo questa relazione mediante le componenti dei due vettori segue:   y1 = λx1 y2 = λx2  y3 = λx3 e, in termini matriciali, equivale a richiedere che:   x1 x2 x3 rank ≤ 1. y1 y2 y3 Per esempio i vettori x = (1, −2, 3) e y = (2, −4, 6) sono paralleli, mentre i vettori x e z = (1, 0, 3) non lo sono. Il rango della matrice:   x1 x2 x3 y1 y2 y3 e` pari a 1 anche nel caso in cui uno solo dei vettori x e y sia diverso dal vettore nullo. Il rango di questa matrice e` 0 se e solo se x = y = o. 2. Dal Teorema 3.4 si ha che tre vettori x, y, z sono complanari se e solo se sono linearmente dipendenti, ossia per esempio se esistono i numeri reali λ e µ per cui: z = λx + µy.

(3.8)

Fissata una base B = (v1 , v2 , v3 ) di V3 , si indichino con: x = (x1 , x2 , x3 ),

y = (y1 , y2 , y3 ),

z = (z1 , z2 , z3 )

le componenti dei tre vettori dati. La relazione (3.8), scritta rispetto a queste componenti, equivale al sistema lineare:   z1 = λx1 + µy1 z2 = λx2 + µy2  z3 = λx3 + µy3 e in termini matriciali equivale a: 

 x1 x2 x3 rank  y1 y2 y3  ≤ 2. z1 z2 z3

Infatti se i vettori x e y non sono paralleli allora il rango della matrice su scritta e` proprio 2, invece se i vettori x e y sono paralleli, allora anche il vettore z e` ad essi parallelo e il rango della matrice vale 1. Il rango e` 0 se e solo se x = y = z = o.

Capitolo 3

93

Esercizio 3.1 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori: a = (1, 3, −1),

b = (4, 1, 0),

c = (2, −5, 2),

come sono posizionati questi tre vettori nello spazio vettoriale V3 ? Soluzione Si consideri la matrice A, quadrata di ordine tre, le cui righe sono date dalle componenti dei tre vettori:   1 3 −1 1 0 , A= 4 2 −5 2 riducendo A per righe si ha:    1 3 −1 1 −→    4 1 0 4 A= R3 → R3 + 2R1 2 −5 2 4

 3 −1 1 0 . 1 0

Quindi rank(A) = 2 e ci`o implica che i tre vettori sono complanari (infatti sono linearmente dipendenti). Poich´e i vettori a e b non sono paralleli (infatti sono linearmente indipendenti in quanto le loro componenti non sono proporzionali), devono esistere due numeri reali λ e µ tali che: c = λa + µb. Questa relazione vettoriale, scritta mediante le componenti dei tre vettori, equivale al sistema lineare:   λ + 4µ = 2 3λ + µ = −5  −λ = 2 la cui soluzione e` (λ = −2, µ = 1), e perci`o c = −2a + b. Gli esempi precedenti, riletti in termini di indipendenza lineare di vettori, possono essere riassunti nel seguente teorema. Teorema 3.8 Sia B = (v1 , v2 , v3 ) una base di V3 , si considerino vettori: x = (x1 , x2 , x3 ),

y = (y1 , y2 , y3 ),

z = (z1 , z2 , z3 )

scritti in componenti rispetto alla base B. 1. Un vettore non nullo x in V3 e` linearmente indipendente se e solo se, indicata con A la matrice avente come unica riga le componenti di x:  A = x 1 x 2 x3 , si ha rank(A) = 1. Equivalentemente x = o se e solo se rank(A) = 0.

Calcolo Vettoriale

94

2. Due vettori x e y di V3 sono linearmente indipendenti se e solo se, indicata con A la matrice avente come righe le componenti dei due vettori:   x1 x2 x3 A= , y1 y2 y3 si ha rank(A) = 2. Equivalentemente, i vettori x e y (entrambi non nulli) sono linearmente dipendenti, vale a dire sono paralleli, se e solo se rank(A) = 1. Se x = y = o, allora rank(A) = 0 e viceversa. 3. Tre vettori x, y, z sono linearmente indipendenti in V3 (vale a dire formano una base di V3 ) se e solo se, indicata con A la matrice quadrata avente come righe le componenti dei tre vettori:   x1 x2 x3 A =  y1 y2 y3 , (3.9) z1 z2 z3 si ha: rank(A) = 3 ⇐⇒ ∃A−1 ⇐⇒ det(A) 6= 0. Equivalentemente, i vettori x, y, z sono linearmente dipendenti se e solo se: rank(A) < 3. Se rank(A) = 2 allora due dei tre vettori dati sono linearmente indipendenti e il terzo vettore appartiene al piano vettoriale individuato dai primi due. Se invece rank(A) = 1 i tre vettori (non contemporaneamente tutti uguali al vettore nullo) sono paralleli. Il caso rank(A) = 0 corrisponde a x = y = z = o. Dimostrazione La dimostrazione segue dall’Esempio 3.2. In alternativa, per dimostrare l’ultimo punto si pu`o anche procedere esplicitando, mediante le componenti dei vettori, la relazione: λ1 x + λ2 y + λ3 z = o, con λ1 , λ2 λ3 ∈ R, che equivale al sistema lineare omogeneo:   λ1 x1 + λ2 y1 + λ3 z1 = 0 λ1 x2 + λ2 y2 + λ3 z2 = 0  λ1 x3 + λ2 y3 + λ3 z3 = 0. Affinch´e i tre vettori dati siano linearmente indipendenti, tale sistema lineare omogeneo deve ammettere la sola soluzione nulla. Questo accade se e solo se:

Capitolo 3

95



 x1 y1 z1 rank  x2 y2 z2  = 3. x3 y3 z3 Si osservi che la matrice ottenuta e` la trasposta della matrice A in (3.9). Si dovr`a attendere la dimostrazione del Teorema 4.19 per assicurare l’equivalenza dei due procedimenti seguiti per pervenire alla tesi. Il risultato, in realt`a, e` intuitivamente accettabile, tenendo conto che det(A) = det(tA). Esercizio 3.2 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori: u1 = (1, 0, −h),

u2 = (2, −1, 1),

u3 = (h, 1, −1),

stabilire per quali valori di h ∈ R essi formano una base di V3 . Soluzione I tre vettori dati formano una base di V3 se e solo se sono linearmente indipendenti, ossia se la matrice A :   1 0 −h 1  A =  2 −1 h 1 −1 ha det(A) 6= 0. Poich´e det(A) = −h(2 + h) si ha che i vettori u1 , u2 , u3 formano una base di V3 se e solo se h ∈ / {−2, 0}. Esercizio 3.3 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori: u = v1 − v2 + 3v3 ,

v = 2v1 + v2 − v3 ,

w = v1 + 2v2 + v3 ,

dimostrare che costituiscono una base di V3 . Soluzione

Si tratta di dimostrare che il rango della matrice:   1 −1 3 1 −1  A= 2 1 2 1

e` 3. Riducendola per righe si ha: 

  1 −1 3 −→ 1 −1    2 1 −1 R2 → R2 + R1 3 0 A= 1 2 1 R3 → R3 + 2R1 3 0 

1 −1 −→  3 0 R3 → R3 − R2 0 0

 3 2 , 5

 3 2  7

Calcolo Vettoriale

96

da cui la tesi. Esercizio 3.4 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori: u = 2v1 + v2 − v3 , v = v1 + v3 , w = v1 + v2 − 2v3 . Verificare che u, v, w sono linearmente dipendenti ed esprimerne uno di essi come combinazione lineare dei rimanenti. Soluzione Si consideri la combinazione lineare dei vettori u, v, w a coefficienti reali λ, µ e ν e la si ponga uguale al vettore nullo: λu + µv + νw = o. Sostituendo nella combinazione lineare l’espressione dei vettori scritta rispetto alla base B, si ha: λ(2v1 + v2 − v3 ) + µ(v1 + v3 ) + ν(v1 + v2 − 2v3 ) = (2λ + µ + ν)v1 + (λ + ν)v2 + (−λ + µ − 2ν)v3 = o. Si e` cos`ı ottenuta una combinazione lineare dei vettori della base B che e` uguale al vettore nullo. Ma i vettori della base B sono linearmente indipendenti, quindi tutti i coefficienti di tale combinazione lineare devono essere nulli, ossia:   2λ + µ + ν = 0 λ+ν =0  −λ + µ − 2ν = 0. Il sistema lineare omogeneo cos`ı ottenuto ha matrice dei coefficienti:   2 1 1 1 . A= 1 0 −1 1 −2 Riducendo A per righe si ha:    2 1 1 2 −→  1 1  A= 1 0 R3 → R3 − R1 −1 1 −2 −3 

2 −→  1 R3 → R3 + 3R2 0

1 0 0

 1 1 0 1  0 −3

 1 1 , 0

ossia rank(A) = 2. Il sistema lineare omogeneo ammette, quindi, infinite soluzioni date da (λ, −λ, λ), λ ∈ R. I vettori u, v, w sono perci`o linearmente dipendenti e quindi, posto per esempio λ = 1, si ottiene u = v + w. Come gi`a osservato nella dimostrazione del Teorema 3.8, si noti che la matrice A ha come colonne le componenti dei vettori u, v, w.

Capitolo 3

3.5

97

Il cambiamento di base in V3

Il problema del cambiamento di base in V3 consiste nel determinare la relazione che intercorre tra le componenti di un qualsiasi vettore scritto rispetto a due basi diverse, precedentemente assegnate. Siano date due basi B = (v1 , v2 , v3 ) e B 0 = (v10 , v20 , v30 ) di V3 . Ogni vettore x ∈ V3 si scrive in componenti, rispetto alla due basi, nella forma: x = x1 v1 + x2 v2 + x3 v3 = x01 v10 + x02 v20 + x03 v30 .

(3.10)

Usando la notazione matriciale introdotta nel paragrafo precedente, si indichino con:    0  x1 x1 (3.11) X =  x2 , X 0 =  x02  0 x3 x3 le matrici colonna delle componenti di x rispetto alle due basi assegnate. La base B 0 e` nota quando sono note le componenti dei suoi vettori rispetto alla base B, ossia:  0  v1 = p11 v1 + p21 v2 + p31 v3 v0 = p12 v1 + p22 v2 + p32 v3 (3.12)  20 v3 = p13 v1 + p23 v2 + p33 v3 . In altri termini, la base B 0 e` nota quando e` assegnata la matrice: 

 p11 p12 p13 P =  p21 p22 p23 . p31 p32 p33 P e` invertibile perch´e le sue colonne sono le componenti di vettori linearmente indipendenti. La matrice P prende il nome di matrice del cambiamento di base da B a B 0 ed e` 0 spesso anche indicata come P = M B,B proprio per mettere maggiormente in evidenza la sua interpretazione geometrica. La scelta di porre in colonna, anzich´e in riga, le componenti dei vettori della base B 0 rende i calcoli pi`u agevoli. Le equazioni (3.12) in forma matriciale diventano:  0    v1 v1  v20  = tP  v2 . v30 v3 Sostituendo questa espressione in (3.10) si ha:    0  v 1   v1 x = x1 x2 x3  v2  = x01 x02 x03  v20  = v30 v3



x01 x02

 v 1  x03 tP  v2 . v3

Calcolo Vettoriale

98

Dal Teorema 3.5 segue: 

x1 x2 x3

=

x01 x02 x03

t P,

da cui, considerando la trasposta di ambo i membri:   0  x1 x1  x2  = P  x02 . x3 x03 

Usando le notazioni di (3.11) si ottiene: X = P X 0, che sono le relazioni richieste e che prendono il nome di equazioni del cambiamento di base da B a B 0 . Osservazione 3.11 1. E` chiaro che se si esprimono i vettori della base B in componenti rispetto alla base B 0 si ottiene la matrice inversa P −1 , infatti le equazioni del cambiamento di base da B 0 a B sono X 0 = P −1 X. 2. Si pu`o trattare in modo analogo il problema del cambiamento di base nel caso del piano vettoriale V2 . La matrice del cambiamento di base sar`a una matrice invertibile di ordine 2. 3. Nel caso della retta vettoriale V1 ogni numero reale non nullo esprime la componente del vettore della base B 0= (v10 ) rispetto alla base B = (v1 ). Se per esempio v10 = 2v1 , allora P = 2 , mentre le equazioni del cambiamento di base si riducono all’unica equazione: x1 = 2x01 o x01 = 1/2 x1 . Infatti: x = x 1 v1 =

x01 v10

 =

 1 x1 2v1 . 2

Esercizio 3.5 In V3 , rispetto ad una base B = (v1 , v2 , v3 ), sono dati i vettori: u = 2v1 + v2 + v3 ,

v = −v1 + 2v2 + v3 ,

w = v1 − v2 − 2v3 ,

z = −v1 − 2v2 + v3 .

Verificare che B 0 = (u, v, w) e` una base di V3 e trovare le componenti di z rispetto alla base B 0 .

Capitolo 3

99

Soluzione Si inizia con il calcolo del rango della matrice P le cui colonne sono, rispettivamente, le componenti dei vettori u, v, w.   −→ 2 −1 1 2 −1  R2 → R2 + 2R1 P = 1 1 1 −2 R3 → R3 + R1 

  2 −1 1 2 −1 −→  5   0 1 5 0 R3 → R3 + R2 3 0 −1 8 0

 1 1 . 0

Allora rank(P ) = 3, quindi i vettori u, v, w sono linearmente indipendenti. La matrice P e` pertanto la matrice del cambiamento di base dalla base B alla base B 0. Si devono determinare le componenti x01 , x02 , x03 del vettore z rispetto alla base B 0 , ossia: z = x01 u + x02 v + x03 w. Si tratta di risolvere l’equazione matriciale X = P X 0 , dove:    0  −1 x1 0    x02 , X = −2 , X = 1 x03 che corrisponde al sistema lineare che esprime le equazioni del cambiamento di base da B a B0 :  0  2x1 − x02 + x03 = −1 x0 + 2x02 − x03 = −2  10 x1 + x02 − 2x03 = 1. Riducendo per righe la matrice completa si ha:     −→ 2 −1 1 −1 2 −1 1 −1 −→  1 2 −1 −2  R2 → R2 + 2R1  5 0 1 −4  R3 → R3 + R2 1 1 −2 1 R3 → R3 + R1 3 0 −1 0 

2 −1  5 0 8 0 

−3 −1  5 0 2 0

  1 −1 2 −1 −→   1 −4 5 0 R3 → (1/4)R3 0 −4 2 0

 1 −1 −→ 1 −4  R1 → R1 − R2 0 −1

  3 −→ 0 −2 0 1 −4  R1 → 2R1 + 3R3  0 0 0 −1 R2 → 2R2 − 5R3 2 0

 0 3 2 −3 . 0 −1

Calcolo Vettoriale

100

Si perviene alla soluzione:  1  0  x = −  1  2      3 x02 = −  2         x03 = − 3 . 2 Allora: 3 3 1 z = − u − v − w. 2 2 2

3.6

Angolo tra due vettori

Nei paragrafi precedenti si sono considerati solo il parallelismo e la complanarit`a di vettori ma non l’angolo che questi formano; per esempio non e` stata trattata l’ortogonalit`a tra vettori. Per prendere in considerazione quest’aspetto geometrico e` necessario introdurre la nozione precisa di angolo tra due vettori nel modo seguente. −→ −−→ Definizione 3.9 In V3 , considerati due vettori non nulli x = OA, y = OB , scelti i c tra i due rispettivi rappresentanti con l’estremo O in comune, si definisce angolo xy c di vertice O e compreso tra i segmenti OA, vettori x e y l’angolo convesso θ = xy OB . Di conseguenza 0 ≤ θ ≤ π. La situazione geometrica e` illustrata nella Figura 3.9. Inoltre: • se θ = 0 o se θ = π i vettori x e y si dicono paralleli. • Se θ =

π i vettori x e y si dicono ortogonali (o perpendicolari). 2

• L’angolo tra il vettore nullo o e un qualunque altro vettore pu`o assumere qualsiasi valore, vale a dire il vettore nullo si pu`o considerare parallelo e ortogonale ad ogni altro vettore. Si osservi che se θ = 0 i due vettori x e y hanno verso concorde, mentre se θ = π il verso e` discorde. Nel Paragrafo 3.7.2 si dimostrer`a che la definizione geometrica di parallelismo di due vettori, intendendosi come tali due vettori che formano un angolo θ = 0 o θ = π, coincide con la dipendenza lineare dei due vettori.

Capitolo 3

101

B

y

Θ O

x

A

Figura 3.9: Angolo tra i due vettori x e y

3.7

Operazioni non lineari tra vettori

In questo paragrafo saranno introdotte tre particolari operazioni tra vettori di V3 che coinvolgono la nozione di angolo, e precisamente: 1. il prodotto scalare tra due vettori (che a due vettori associa un numero reale); 2. il prodotto vettoriale o esterno tra due vettori (che a due vettori associa un vettore); 3. il prodotto misto tra tre vettori (che a tre vettori associa un numero reale). Esse sono dette non lineari perch´e prevedono operazioni con le componenti dei vettori che non sono di primo grado.

3.7.1

Il prodotto scalare di due vettori

Il prodotto scalare, introdotto in questo paragrafo, e` una particolare operazione tra due vettori mediante la quale sar`a possibile calcolare la norma di ogni vettore e individuare l’angolo tra essi formato. Inoltre, la sua particolare espressione permetter`a di estenderla anche al caso di spazi vettoriali di dimensione superiore a tre, ma questo argomento sar`a trattato nel Capitolo 5. Definizione 3.10 Il prodotto scalare x · y di due vettori x e y in V3 in V3 e` la funzione: · : V3 × V3 −→ R

Calcolo Vettoriale

102

cos`ı definita: c x · y = kxkkyk cos(xy).

(3.13)

Osservazione 3.12 1. La definizione di prodotto scalare di due vettori, appena introdotta, coinvolge solo la lunghezza dei due vettori dati e l’angolo da essi formato, quindi pu`o essere ripetuta, allo stesso modo, per i vettori di un piano vettoriale V2 . Vale a dire: c · : V2 × V2 −→ R, x · y = kxkkyk cos(xy). 2. Per definizione, il risultato del prodotto scalare di due vettori pu`o essere un numero reale qualsiasi il cui segno e` esclusivamente legato all’ampiezza dell’angolo tra i due vettori. Precisamente se x e y sono due vettori entrambi non nulli si ha: a. 0 ≤ θ <

π se e solo se x · y > 0; 2

π < θ ≤ π se e solo se x · y < 0; 2 π c. se θ = allora x · y = 0. 2

b.

Se, invece, uno almeno dei due vettori x e y e` il vettore nullo, allora x · y = 0. 3. Da (3.13), ponendo x = y, si ottiene la formula che permette di calcolare la norma del vettore x: √ kxk = x · x. 4. Da (3.13) segue l’espressione del coseno dell’angolo tra due vettori non nulli x e y, in funzione del valore del loro prodotto scalare e delle loro norme: c = cos(xy)

x·y . kxkkyk

Il teorema che segue, la cui dimostrazione e` una semplice conseguenza delle osservazioni precedenti, e` per`o estremamente importante perch´e esprime una condizione equivalente all’ortogonalit`a di due vettori. Teorema 3.9 Due vettori di V3 sono ortogonali se e solo se il loro prodotto scalare e` uguale a zero, in formule: x⊥y

⇐⇒

x · y = 0,

x, y ∈ V3 .

Si procede ora con lo studio dell’interpretazione geometrica del numero reale che esprime il prodotto scalare tra due vettori, nel caso in cui questo non sia uguale a zero.

Capitolo 3

103

B y

p

O

x

H

A

Figura 3.10: Vettore proiezione ortogonale di y su x con x · y > 0

B y

H

p

O

x

A

Figura 3.11: Vettore proiezione ortogonale di y su x con x · y < 0

104

Calcolo Vettoriale

Teorema 3.10 – Significato geometrico del prodotto scalare – Il prodotto scalare di due vettori di V3 e` il prodotto della lunghezza di uno dei due vettori per la proiezione ortogonale con segno dell’altro vettore sul primo. Dimostrazione Segue da teoremi elementari di trigonometria. Dati due vettori x e y non nulli e non ortogonali (in caso contrario il prodotto scalare si annulla) e` necessario distinguere due casi: π , 2 π c> . b. θ = xy 2 c< a. θ = xy

In entrambi i casi, considerando i vettori x e y rappresentati mediante segmenti orientati −→ −−→ aventi un estremo in comune, ossia ponendo x = OA e y = OB si ha: x · y = kxk OH,

(3.14)

dove H e` la proiezione ortogonale di B sulla retta OA. Pertanto il prodotto scalare di x e di y coincide con il prodotto della norma di x per la proiezione ortogonale di y su x. Nel primo caso OH e` proprio la lunghezza del segmento proiezione ortogonale di OB sulla retta OA, nel secondo caso OA e` l’opposto di tale lunghezza. La situazione geometrica e` illustrata nelle Figure 3.10 e 3.11. Da notare che i ruoli dei vettori x e y possono essere scambiati, nel senso che il loro prodotto scalare e` anche pari alla norma di y per la proiezione ortogonale, con segno, di x su y. Teorema 3.11 – Vettore proiezione ortogonale – Dati due vettori x e y non nulli, il vettore proiezione ortogonale di y su x e` : p=

x·y x. kxk2

(3.15)

Il vettore proiezione ortogonale di x su y e` : p0 =

x·y y. kyk2

Il vettore proiezione ortogonale di y su x e` , quindi, un vettore parallelo a x, mentre il vettore proiezione ortogonale di x su y e` un vettore parallelo a y. Dimostrazione E` una facile conseguenza del teorema precedente. Innanzi tutto e` evidente che x e y sono ortogonali se e solo se p = p0 = o. Se x e y non sono ortogonali,

Capitolo 3

105

allora la lunghezza (con segno) della proiezione ortogonale di x su y si ricava da (3.14) ed e` : x·y OH = , kxk che coincide con la norma, con segno, del vettore p. Tenendo conto che, per costruzione, p e` parallelo a x si ha la tesi. La situazione geometrica e` illustrata nelle Figure 3.10 e 3.11. Il vettore p0 si ottiene in modo analogo a p scambiando i ruoli di x e di y. Rimane da determinare l’espressione del prodotto scalare tra due vettori usando le loro componenti, rispetto ad una base di V3 fissata, ma per fare ci`o e` necessario ricavare le propriet`a del prodotto scalare in relazione alla somma di vettori e al prodotto di un numero reale per un vettore. Teorema 3.12 Il prodotto scalare tra due vettori gode delle seguenti propriet`a: 1. x · y = y · x,

x, y ∈ V3 ,

2. x · (y1 + y2 ) = x · y1 + x · y2 ,

x, y1 , y2 ∈ V3 ,

3. λ(x · y) = (λx) · y = x · (λy),

λ ∈ R, x, y ∈ V3 .

Dimostrazione

1. E` conseguenza immediata della definizione di prodotto scalare.

2. La dimostrazione si evince dalle Figure 3.12 e 3.13. In entrambi i casi sono rap−→ −−→ presentati i vettori con i punti indicati, in particolare y1 = AB e y2 = BC , quindi −→ y1 + y2 = AC . Dal Teorema 3.10 segue: x · y1 = kxk AH,

x · y2 = kxk HK,

x · (y1 + y2 ) = kxk AK,

tenendo conto del segno legato alle lunghezze delle proiezioni ortogonali, si perviene alla tesi. 3. Occorre distinguere tre casi: a. λ = 0; b. λ > 0; c. λ < 0. I primi due casi sono molto semplici e vengono lasciati per esercizio. Se λ < 0 si ha: \ = |λ|kxkkyk cos((λx)y) \ = −|λ|kxkkyk cos(xy), c (λx)·y = k(λx)kkyk cos((λx)y) in quanto, essendo λ < 0, l’angolo formato dai vettori x e y e` supplementare dell’angolo formato dai vettori λx e y.

Calcolo Vettoriale

106

C

1

y

+

2

y

y2 B

y1 A

x H

K

Figura 3.12: x · (y1 + y2 )

2

y

C

1

y

+

y2 H

A

K y1 B Figura 3.13: x · (y1 + y2 )

x

Capitolo 3

107

Sia B = (v1 , v2 , v3 ) una base di V3 . Dati i vettori: x = x1 v 1 + x2 v 2 + x3 v 3 ,

y = y1 v1 + y2 v2 + y3 v3

di V3 , tenendo conto delle propriet`a dimostrate nel Teorema 3.12, il calcolo del loro prodotto scalare mediante le componenti, rispetto a B, risulta essere: x·y =

3 X

xi y j v i · v j

i,j=1

da cui segue che il valore di x · y dipende dai prodotti scalari tra i vettori della base B. In altri termini, per calcolare il prodotto scalare tra due vettori e` necessario conoscere, in modo preciso, l’angolo formato tra i vettori della base che si sta usando e la loro norma. Per rendere pi`u agevoli i calcoli si impone, pertanto, la scelta di particolari basi in cui siano noti a priori le lunghezze dei vettori che le compongono e gli angoli tra di essi. Definizione 3.11 1. Una base B = (v1 , v2 , v3 ) di V3 si dice ortogonale se vi · vj = 0 per ogni i, j = 1, 2, 3. 2. Una base B = (i, j, k) di V3 si dice ortonormale se: a. i · j = i · k = j · k = 0, b. kik = kjk = kkk = 1, ossia i vettori della base B sono versori a due a due ortogonali. 3. Una base B = (i, j) di un piano vettoriale V2 si dice ortonormale se: a. i · j = 0, b. kik = kjk = 1, ossia i vettori della base B sono versori ortogonali. 4. Una base B = (i) di una retta vettoriale V1 si dice ortonormale se kik = 1, ossia se e` formata da un versore. Osservazione 3.13 1. Una base ortonormale e` , quindi, una base ortogonale i cui vettori sono anche versori. 2. E` evidente che sia nello spazio vettoriale V3 sia in ogni piano vettoriale V2 sia in ogni retta vettoriale V1 esistono infinite basi ortonormali.

Calcolo Vettoriale

108

3. Le basi ortonormali nello spazio vettoriale V3 possono essere schematizzate nei due grafici rappresentati nella Figura 3.14. Si osservi che la definizione di base ortonormale in V3 non permette di distinguere tra le due situazioni geometriche, per questo si dovr`a attendere il concetto di prodotto vettoriale, definito nel Paragrafo 3.7.2. 4. Le basi ortonormali in un piano vetttoriale V2 possono essere schematizzate nei due grafici rappresentati nella Figura 3.15. Si osservi che, anche in questo caso, la definizione di base ortonormale in V2 non permette di distinguere tra le due situazioni geometriche.

j

j i i

k

k

Figura 3.14: Basi ortonormali in V3

j

i i

j

Figura 3.15: Basi ortonormali in V2

Capitolo 3

109

Usando la definizione di base ortonormale e` possibile semplificare il calcolo del prodotto scalare tra due vettori, come risulta dal teorema seguente. Teorema 3.13 – Prodotto scalare in componenti – Sia B = (i, j, k) una base ortonormale di V3 e siano: x = x1 i + x2 j + x3 k,

y = y1 i + y2 j + y3 k

due vettori di V3 le cui componenti possono essere rappresentate dalle matrici colonne:     x1 y1 X =  x2 , Y =  y2 . x3 y3 Il prodotto scalare tra i vettori x e y e` dato da: x · y = x1 y1 + x2 y2 + x3 y3 = tX Y. La norma del vettore x e` : kxk =

q √ x21 + x22 + x23 = tXX.

Il coseno dell’angolo formato dai vettori x e y e` : t XY x1 y1 + x2 y2 + x3 y3 p √ √ c = p = . cos(xy) tXX tY Y x21 + x22 + x23 y12 + y22 + y32

Dimostrazione La dimostrazione segue in modo evidente dalle propriet`a del prodotto scalare e dalla definizione di base ortonormale. Osservazione 3.14 1. Si pu`o ripetere il Teorema 3.13 nel caso particolare di un piano vettoriale V2 . Precisamente, se B = (i, j) e` una base ortonormale di un piano vettoriale V2 e x = x1 i + x2 j e y = y1 i + y2 j sono due vettori di V2 , allora: x · y = x1 y1 + x2 y2 , p kxk = x21 + x22 , x1 y1 + x2 y2 p c =p cos(xy) . x21 + x22 y12 + y22

Calcolo Vettoriale

110

2. In V3 , dati una base ortonormale B = (i, j, k) e un vettore x = x1 i + x2 j + x3 k si ha: i · x = x1 , j · x = x2 , k · x = x3 . Tenendo conto del significato geometrico del prodotto scalare, ne segue che le componenti di un vettore, rispetto ad una base ortonormale, coincidono con le lunghezze (con segno) delle proiezioni ortogonali del vettore lungo le rette vettoriali individuate dai vettori della base. La situazione geometrica e` illustrata nella Figura 3.16. In formule si ha: x = (x · i)i + (x · j)j + (x · k)k. Calcolando, invece, il coseno degli angoli formati dal vettore x con i vettori della base ortonormale B si ha: b = x2 , cos(kx) c = x3 . b = x1 , cos(jx) cos(ix) kxk kxk kxk I coseni appena determinati sono a volte indicati con il temine coseni direttori del vettore x per sottolineare che la direzione di x e` individuata dagli angoli formati da x con i tre vettori della base. Dall’espressione dei coseni direttori appena ricavata segue: b + cos2 (jx) b + cos2 (kx) c = 1. cos2 (ix) (3.16) 3. Il punto precedente si pu`o ripetere, in modo totalmente analogo, nel caso di un piano vettoriale V2 , riferito ad una base ortonormale B = (i, j). In particolare la formula (3.16) si riduce a: b + cos2 (jx) b = 1, cos2 (ix) che coincide con la ben nota relazione di trigonometria piana sin2 α + cos2 α = 1 valida per un angolo α qualsiasi. La situazione geometrica e` illustrata nella Figura 3.17. Esercizio 3.6 In V3 , rispetto ad una base ortonormale B = (i, j, k), sono dati i vettori u = (2, 1, 3) e v = (0, 2, 3), determinare il vettore x simmetrico di u rispetto a v. Soluzione Indicato con p il vettore proiezione ortogonale di u su v, il vettore x, simmetrico di u rispetto a v, e` tale che: x + u = 2p. Dall’espressione del vettore proiezione ortogonale (3.15) si ha: p=

11 u·v v= (0, 2, 3), 2 kvk 13

Capitolo 3

111

x x3

k

j

i

x1

x2

Figura 3.16: Componenti di x rispetto a B = (i, j, k)

x2

x

j

i

x1

Figura 3.17: Componenti di x rispetto a B = (i, j)

Calcolo Vettoriale

112

quindi:   31 27 x = 2p − u = −2, , . 13 13 Esercizio 3.7

1. In V3 , riferito ad una base ortonormale B = (i, j, k), i vettori: a = (1, 2, 0),

b = (0, 1, 1)

possono rappresentare i lati di un rettangolo? 2. Determinare i vettori v paralleli alle altezze del parallelogramma individuato da a e da b. Soluzione 1. I vettori a e b possono rappresentare i lati di un rettangolo se e solo se sono ortogonali, ma a · b = 2, quindi a e b possono rappresentano i lati di un parallelogramma non rettangolo. 2. Si determina il vettore h rappresentato nella Figura 3.18 e si lascia al Lettore il calcolo degli altri vettori che risolvono il problema. Per costruzione, se p indica il vettore proiezione ortogonale di b su a si ha: p + h = b. Da (3.15) segue: p= da cui:

2 b·a a = (1, 2, 0) 2 kak 5

  2 1 h = b − p = − , ,1 . 5 5

b

h p

a Figura 3.18: Esercizio 3.7

Capitolo 3

3.7.2

113

Il prodotto vettoriale di due vettori

Il prodotto vettoriale di due vettori, oggetto di questo paragrafo, e` un’operazione particolare tra due vettori che, a differenza del prodotto scalare, pu`o essere solo definita sullo spazio vettoriale V3 . Esistono opportune generalizzazioni di questa operazione a spazi vettoriali di dimensione maggiore di 3, ma solo in alcuni casi particolari. Lo studio di queste generalizzazioni non e` immediato e richiede nozioni inserite spesso in corsi pi`u avanzati. In realt`a la definizione del prodotto vettoriale e` estremamente importante per descrivere in Fisica la rotazione dei corpi e il momento angolare. Definizione 3.12 Il prodotto vettoriale (o esterno) e` una funzione: ∧ : V3 × V3 −→ V3 ,

(x, y) 7−→ x ∧ y.

Il vettore x ∧ y (che si legge x vettoriale y o x esterno y) e` cos`ı definito: c a. la norma di x ∧ y e` kx ∧ yk = kxk kyk sin(xy), b. la direzione di x ∧ y e` ortogonale al piano vettoriale individuato da x e da y, c. il verso di x ∧ y rispetta la cosiddetta regola della mano destra, ossia ponendo l’indice della mano destra parallelamente a x, il medio parallelamente a y, la direzione assunta naturalmente dal pollice coincide con il verso di x ∧ y.

xßy y

x

Figura 3.19: Il prodotto vettoriale di x e di y

Calcolo Vettoriale

114

La situazione geometrica e` rappresentata nella Figura 3.19. Osservazione 3.15 La definizione di prodotto vettoriale di due vettori x e y e` ancora valida se entrambi i vettori o uno solo dei due e` il vettore nullo. Infatti si ha subito che, in questo caso, kx ∧ yk = 0, rendendo di conseguenza non rilevanti le definizioni di direzione e verso. Come si pu`o immediatamente dedurre dalla definizione di prodotto vettoriale e dall’osservazione precedente, il prodotto vettoriale di due vettori ha norma pari a zero non solo nel caso in cui uno dei due vettori sia il vettore nullo o entrambi i vettori siano il vettore nullo, infatti vale il seguente teorema la cui dimostrazione e` conseguenza evidente della definizione di prodotto vettoriale. Teorema 3.14 Due vettori x, y di V3 sono paralleli se e solo se il loro prodotto vettoriale e` uguale al vettore nullo; in formule: x k y ⇐⇒ x ∧ y = o.

C y

H A

x

B

Figura 3.20: Significato geometrico di kx ∧ yk Nel caso in cui il prodotto vettoriale di due vettori non sia il vettore nullo, la sua norma assume un’interessante significato geometrico, vale, infatti, il seguente teorema. Teorema 3.15 – Significato geometrico della norma del prodotto vettoriale – La norma del prodotto vettoriale di due vettori e` pari al doppio dell’area del triangolo individuato da due segmenti orientati, rappresentanti dei vettori dati, aventi un estremo in comune.

Capitolo 3

115

−→ −→ Dimostrazione Siano AB e AC rappresentanti dei vettori x e y rispettivamente. Con riferimento alla Figura 3.20 e tenendo conto che: −→ −→ [ kx ∧ yk = kABkkACk sin(BAC) si ha la tesi. Tramite il prodotto vettoriale di due vettori e` possibile calcolare il vettore proiezione ortogonale di un vettore qualsiasi di V3 su un piano vettoriale, precisamente si ha il seguente teorema. Teorema 3.16 – Vettore proiezione ortogonale su un piano vettoriale – Dati due vettori u, v di V3 linearmente indipendenti, il vettore p proiezione ortogonale di un generico vettore x di V3 sul piano vettoriale individuato da u e da v e` dato da: p=x−

x · (u ∧ v) (u ∧ v). ku ∧ vk2

−→ −→ Dimostrazione Siano AB, AC i segmenti orientati rappresentanti dei vettori u e v −−→ rispettivamente. Sia AD rappresentante del vettore x. Dalla Figura 3.21 segue che x = p + q. Ma il vettore q non e` altro che il vettore proiezione ortogonale di x su u ∧ v. La tesi e` conseguenza, quindi, del Teorema 3.11. Osservazione 3.16 Se in un piano vettoriale si considera una base ortogonale, non e` necessario usare la nozione di prodotto vettoriale di due vettori per determinare il vettore proiezione ortogonale di ogni vettore di V3 su tale piano. Siano, infatti, a e b due vettori ortogonali, ossia a · b = 0, la proiezione ortogonale p di un generico vettore x di V3 sul piano vettoriale individuato da a e da b e` data da: p=

x·b x·a a+ b. 2 kak kbk2

La formula appena citata e` facile conseguenza del Teorema 3.11, ma e` di grande importanza, perch´e si potr`a facilmente estendere a spazi vettoriali di dimensione superiore a 3 (cfr. Teor. 5.5). Teorema 3.17 Il prodotto vettoriale tra due vettori gode delle seguenti propriet`a: 1. x ∧ y = −y ∧ x,

x, y ∈ V3 ,

2. (λx) ∧ y = x ∧ (λy) = λ(x ∧ y),

x, y ∈ V3 , λ ∈ R,

Calcolo Vettoriale

116

D

x

q

uïv

C v p A

u

H

B

Figura 3.21: Vettore proiezione ortogonale su un piano vettoriale

Capitolo 3

3. x ∧ (y + z) = x ∧ y + x ∧ z, Dimostrazione

117

x, y, z ∈ V3 .

1. E` ovvia conseguenza della definizione di prodotto vettoriale.

2. Occorre distinguere tre casi: a. λ = 0; b. λ > 0; c. λ < 0. I primi due casi sono molto semplici e vengono lasciati per esercizio. Se λ < 0 si deve dimostrare per esempio che: (λx) ∧ y = λ(x ∧ y),

x, y ∈ V3 .

Trattandosi di un’uguaglianza tra due vettori e` necessario dimostrare che i vettori a primo e a secondo membro abbiano la stessa lunghezza, la stessa direzione e lo stesso verso. Per la lunghezza si ha: \ = |λ|kxk kyk sin(π − xy) c = |λ|kx ∧ yk. k(λx) ∧ yk = k(λx)k kyk sin((λx)y) Le verifiche riguardanti l’uguaglianza della direzione e del verso sono lasciate per esercizio. 3. La dimostrazione di questa propriet`a e` proposta nell’Esercizio 3.10.

Allo scopo di determinare l’espressione del prodotto vettoriale in funzione delle componenti dei due vettori e` necessario, come per il calcolo del prodotto scalare, fissare una base ortonormale di V3 , ma e` anche fondamentale, in questo caso, distinguere tra le due possibili configurazioni di basi ortonormali schematizzate nella Figura 3.14. Nel primo caso si osserva che i ∧ j = k, nel secondo caso, invece, i ∧ j = −k. Si impone, quindi, la necessit`a di introdurre la seguente definizione. Definizione 3.13

1. Un base ortogonale B = (v1 , v2 , v3 ) di V3 si dice positiva se: v1 ∧ v2 · v3 > 0.

2. Un base ortogonale B = (v1 , v2 , v3 ) di V3 si dice negativa se: v1 ∧ v2 · v3 < 0.

Calcolo Vettoriale

118

3. Una base ortonormale B = (i, j, k) di V3 si dice positiva se: i ∧ j = k, cio`e se: i ∧ j · k = 1. 4. Una base ortonormale B = (i, j, k) di V3 si dice negativa se: i ∧ j = −k, cio`e se: i ∧ j · k = −1. Osservazione 3.17 Si osservi che la Definizione 3.13 pu`o essere enunciata anche nel caso di una base qualsiasi, non necessariamente ortogonale o ortonormale. Fissando una base ortonormale positiva e` possibile ricavare in modo agevole l’espressione del prodotto vettoriale di due vettori in componenti, come risulta dal seguente teorema. Teorema 3.18 – Prodotto vettoriale in componenti – Sia B = (i, j, k) una base ortonormale positiva di V3 e siano: x = x1 i + x2 j + x3 k,

y = y1 i + y2 j + y3 k

due vettori di V3 . Il prodotto vettoriale dei vettori x e y e` dato da: x2 x3 x1 x3 x1 x2 i − x ∧ y = y1 y3 j + y1 y2 k. y2 y3 Dimostrazione

(3.17)

Essendo B = (i, j, k) una base ortonormale positiva si ha: i ∧ j = k,

k ∧ i = j,

j ∧ k = i,

j ∧ i = −k, i ∧ k = −j, k ∧ j = −i. Inoltre dal Teorema 3.14 segue: i ∧ i = j ∧ j = k ∧ k = o. Tenendo conto delle uguaglianze appena trascritte e applicando le propriet`a del prodotto vettoriale enunciate nel Teorema 3.17 si perviene facilmente alla tesi.

Capitolo 3

Osservazione 3.18 segue:

119

1. Si osservi che la formula (3.17) potrebbe essere scritta come

i j k x ∧ y = x1 x2 x3 , (3.18) y1 y2 y3 anche se l’espressione a secondo membro e` priva di significato matematico, in quanto si indica il calcolo del determinante di un oggetto che non e` una matrice. D’altra parte e` molto pi`u facile ricordare (3.18) anzich´e (3.17). 2. Si osservi che dal Teorema 3.14 e dalla formula (3.17) segue che, fissata una base ortonormale positiva B = (i, j, k), due vettori: x = x1 i + x2 j + x3 k, sono paralleli se e solo se: x2 x3 y2 y3

y = y1 i + y2 j + y3 k

x1 x3 x1 x2 = y1 y3 = y1 y2 = 0.

Ci`o equivale a richiedere che le componenti dei due vettori siano a due a due proporzionali, ossia che i due vettori x e y siano linearmente dipendenti. A maggior precisione si osservi che la condizione di dipendenza lineare letta sulle componenti di due vettori e` stata a suo tempo ricavata rispetto ad una base qualsiasi di V3 e non solamente rispetto ad una base ortonormale positiva. Infatti la dipendenza lineare equivale al parallelismo di due vettori anche in dimensione superiore a 3, come sar`a dimostrato nel Teorema 5.3. Esercizio 3.8 Nel spazio vettoriale V3 , rispetto ad una base B = (i, j, k) ortonormale positiva, sono dati i vettori: a = (2, 1, 1),

b = (0, 1, 1).

Determinare tutti i vettori x di V3 tali che la loro proiezione ortogonale sul piano vettoriale generato da a e da b sia il vettore a + b. Soluzione

I vettori richiesti sono dati da: x = (a + b) + λ a ∧ b,

λ ∈ R,

dove: i j k a ∧ b = 2 1 1 0 1 1

1 1 = 1 1

i − 2 1 0 1

j + 2 1 0 1

k = −2j + 2k.

Di conseguenza: x = (a + b) + λ a ∧ b = (2, 2 − 2λ, 2 + 2λ),

λ ∈ R.

Calcolo Vettoriale

120

3.7.3

Il prodotto misto di tre vettori

L’operazione tra vettori che segue, e che e` anche l’ultima proposta, non e` nuova ma e` definita tramite le operazioni di prodotto scalare e di prodotto vettoriale. Definizione 3.14 Il prodotto misto di tre vettori nello spazio vettoriale V3 e` la funzione: V3 × V3 × V3 −→ R cos`ı definita: (x, y, z) 7−→ x ∧ y · z. E` chiaro dalla definizione appena scritta che le operazioni di prodotto vettoriale e di prodotto scalare sono da eseguirsi nell’ordine indicato. Il numero reale che si ottiene dal prodotto misto di tre vettori linearmente indipendenti dello spazio vettoriale V3 ha un importante significato geometrico, come si evince dal teorema che segue.

xïy D H z

y

C

A x B Figura 3.22: Significato geometrico del prodotto misto di tre vettori

Capitolo 3

121

Teorema 3.19 – Significato geometrico del prodotto misto – Il prodotto misto di tre vettori non complanari di V3 e` pari a 6 volte il volume, con segno, del tetraedro individuato da tre segmenti orientati, rappresentanti dei tre vettori dati, e aventi un estremo in comune. −→ −→ −−→ Dimostrazione Siano AB, AC, AD tre segmenti orientati rappresentanti dei vettori x, y, z rispettivamente. Essendo, per ipotesi, i tre vettori considerati linearmente indipendenti, si pu`o supporre che il punto D non appartenga al piano individuato dai punti A, B, C . La situazione geometrica e` rappresentata nella Figura 3.22. Dalla definizione di prodotto scalare si ha: (x ∧ y) · z = kx ∧ ykkzk cos((x\ ∧ y)z) = kx ∧ ykAH,

(3.19)

dove con AH si indica la lunghezza con segno della proiezione ortogonale del vettore z su x ∧ y. Come e` noto, il segno della lunghezza della proiezione ortogonale dipende dall’ampiezza dall’angolo che il vettore z forma con il vettore x ∧ y, ossia se questo angolo e` acuto il segno e` positivo (situazione geometrica descritta nella Figura 3.22), se l’angolo e` ottuso il segno e` negativo. Non si considera il caso dell’angolo retto perch´e, se cos`ı fosse, il vettore z sarebbe complanare ai vettori x e y. Ricordando il significato geometrico della norma del prodotto vettoriale di due vettori (cfr. Teor. 3.15) la formula (3.19) diventa: (x ∧ y) · z = 2AABC AH = 6VABCD , dove AABC indica l’area del triangolo ABC e VABCD il volume (con segno) del tetraedro ABCD. Osservazione 3.19 1. Dalla prima propriet`a del prodotto vettoriale del Teorema 3.17 e dalla prima propriet`a del prodotto scalare del Teorema 3.12 si ottengono le seguenti propriet`a del prodotto misto di tre vettori: x∧y·z=z·x∧y

(3.20)

x ∧ y · z = −y ∧ x · z.

(3.21)

2. Si osservi che il segno del prodotto misto di tre vettori x, y, z dipende dall’ordine in cui sono considerati i tre vettori come si deduce da (3.21), mentre il valore assoluto del prodotto misto dei tre vettori non cambia, qualunque sia l’ordine in cui i vettori sono considerati, infatti la medesima terna di vettori, qualunque sia l’ordine, individua lo stesso tetraedro. Nel caso in cui tre vettori di V3 siano complanari allora vale il seguente teorema la cui dimostrazione e` una facile conseguenza delle definizioni e delle propriet`a del prodotto vettoriale e del prodotto scalare ed e` lasciata al Lettore.

Calcolo Vettoriale

122

Teorema 3.20 Tre vettori di V3 sono complanari se e solo se il loro prodotto misto si annulla. Il teorema che segue permette di calcolare il prodotto misto mediante le componenti dei vettori e, di conseguenza, di controllare mediante il calcolo in componenti, che l’annullarsi del prodotto misto di tre vettori equivale alla loro dipendenza lineare. Teorema 3.21 – Prodotto misto in componenti – Sia B = (i, j, k) una base ortonormale positiva di V3 e siano: x = x1 i + x2 j + x3 k,

y = y1 i + y2 j + y3 k,

tre vettori di V3 . Il prodotto misto di x, y, z e` dato da: x1 x2 x3 x ∧ y · z = y1 y2 y3 z1 z2 z3 Dimostrazione ponenti si ha:

z = z1 i + z2 j + z3 k

.

Dalle espressioni del prodotto vettoriale e del prodotto scalare in com-

  x1 x3 x1 x2 x2 x3 x∧y·z = y2 y3 i − y1 y3 j + y1 y2 k · (z1 i + z2 j + z3 k) x2 x3 x1 x3 x1 x 2 z − z + z , = y2 y3 1 y1 y3 2 y1 y2 3 dal Primo Teorema di Laplace (cfr. Teor. 2.17) segue la tesi. Dal Teorema appena dimostrato e da tutte le propriet`a del calcolo del determinante di una matrice quadrata di ordine 3, dimostrate nel Paragrafo 2.8, si ottengono le seguenti propriet`a del prodotto misto, alcune delle quali sono gi`a state ricavate in precedenza e la cui dimostrazione e` lasciata al Lettore per esercizio. Teorema 3.22 Per il prodotto misto di tre vettori valgono le seguenti propriet`a: 1. x ∧ y · z = x · y ∧ z,

x, y, z ∈ V3 ;

2. x ∧ y · z = z ∧ x · y = y ∧ z · x,

x, y, z ∈ V3 ;

3. x ∧ y · z = 0 se e solo se i vettori x, y, z sono complanari.

Capitolo 3

123

Osservazione 3.20 La propriet`a 1. del Teorema 3.22 pu`o essere dimostrata, in generale, indipendentemente dall’espressione in componenti dei tre vettori x, y, z. E` facile dimostrare che, in valore assoluto, il primo membro di 1. coincide con il secondo membro, in quanto i tre vettori individuano lo stesso tetraedro, pertanto, in valore assoluto, la propriet`a non esprime altro che il volume di questo tetraedro. Si perviene all’uguaglianza dei segni dei due membri se si osserva che il segno del prodotto misto della terna di vettori x, y, z e` invariante per le loro permutazioni circolari. La dimostrazione completa si pu`o leggere, per esempio, in [7]. Esercizio 3.9 Nello spazio vettoriale V3 , rispetto ad una base B = (i, j, k), ortonormale positiva, sono dati i vettori: a = (1, 0, 1),

b = (−2, 1, 0),

c = (h, k, −2),

h, k ∈ R.

Assegnati ad h e a k i valori √ per cui c e` parallelo al vettore a∧b, calcolare le componenti del vettore x di norma 3, complanare ad a e a b e tale che il volume (con segno) del tetraedro di spigoli a, c, x sia uguale a 2. Soluzione Si ricava facilmente che a ∧ b = −i − 2j + k, quindi c e` parallelo a a ∧ b se e solo se h = 2 e k = 4, da cui c = (2, 4, −2). Sia x = x1 i + x2 j + x3 k, x e` complanare ad a e a b se e solo se x ∧ a · b = 0 ossia, in componenti, se e solo se: x1 x2 x3 1 0 1 = 0. (3.22) −2 1 0 Il volume con segno del tetraedro individuato dalla terna ordinata dei vettori a, c, x e` uguale a 2 se e solo se a ∧ c · x = 12, che, in componenti, equivale a: 1 0 1 2 4 −2 = 12. (3.23) x1 x2 x3 √ La norma del vettore x e` pari a 3 se e solo se: x21 + x22 + x23 = 3.

(3.24)

Risolvendo il sistema formato dalle equazioni (3.22), (3.23) e (3.24) si ha x = (−1, 1, 1). Esercizio 3.10 Usando il prodotto misto di tre vettori, si dimostri la propriet`a distributiva del prodotto vettoriale rispetto alla somma di vettori: x ∧ (y + z) = x ∧ y + x ∧ z,

x, y, z ∈ V3 .

(3.25)

Calcolo Vettoriale

124

Soluzione

Dimostrare la propriet`a (3.25) equivale a provare che: a · [x ∧ (y + z)] = a · (x ∧ y + x ∧ z),

x, y, z, a ∈ V3 ,

(3.26)

ovvero a dimostrare che la proiezione ortogonale del vettore a primo membro su un generico vettore a di V3 coincide con la proiezione ortogonale del vettore a secondo membro sullo stesso vettore a di V3 . E` chiaro che ci`o e` vero solo perch´e il vettore a pu`o variare tra tutti i vettori di V3 , questa affermazione e` palesemente falsa, in caso contrario. Per verificare (3.26) e` sufficiente procedere applicando ripetutamente le varie propriet`a del prodotto misto, del prodotto vettoriale e del prodotto scalare di vettori, precisamente si ha: a · [x ∧ (y + z)] = (a ∧ x) · (y + z) = (a ∧ x) · y + (a ∧ x) · z = a·x∧y+a·x∧z = a · (x ∧ y + x ∧ z).

3.8

Cambiamenti di basi ortonormali in V3 e in V2

Il teorema che segue permette di caratterizzare le matrici del cambiamento di base tra due basi ortonormali. Teorema 3.23 Sia B = (i, j, k) una base ortonormale di V3 , allora anche B 0 = (i0 , j0 , k0 ) e` una base ortonormale di V3 se e solo se la matrice P del cambiamento di base da B a B 0 verifica la condizione: t P P = I, (3.27) dove I indica la matrice unit`a di ordine 3. Dimostrazione Sia P = (pij ) la matrice del cambiamento di base ottenuta come descritto nel Paragrafo 3.5, vale a dire:  0   i = p11 i + p21 j + p31 k j0 = p12 i + p22 j + p32 k   0 k = p13 i + p23 j + p33 k.

(3.28)

Se sia B sia B 0 sono entrambe basi ortonormali allora: kik2 = kjk2 = kkk2 = ki0 k2 = kj0 k2 = kk0 k2 = 1 i · j = i · k = j · k = i0 · j0 = i0 · k0 = j0 · k0 = 0.

(3.29)

Capitolo 3

125

Le precedenti relazioni, scritte in componenti, equivalgono alle seguenti equazioni: ki0 k2 = p211 + p221 + p231 = 1, kj0 k2 = p212 + p222 + p232 = 1, kk0 k2 = p213 + p223 + p233 = 1, i0 · j0 = j0 · i0 = p11 p12 + p21 p22 + p31 p32 = 0,

(3.30)

i0 · k0 = k0 · i0 = p11 p13 + p21 p23 + p31 p33 = 0, j0 · k0 = k0 · j0 = p12 p13 + p22 p23 + p32 p33 = 0, che equivalgono all’uguaglianza, elemento per elemento, delle matrici:  0 0  i ·i i0 · j0 i0 · k0     t 0 0 0 0 0 0  j · i j · j j · k PP =    = I.   0 0 0 0 0 0 k ·i k ·j k ·k Il viceversa si ottiene in modo analogo. Osservazione 3.21 1. Si ricordi che le matrici P per cui vale la (3.27) prendono il nome di matrici ortogonali (cfr. Par. 2.5), il Teorema 3.23 ne giustifica questa particolare denominazione. Allora il Teorema 3.23 afferma che le matrici ortogonali caratterizzano il cambiamento di base tra basi ortonormali. Si osservi anche che le colonne di una matrice ortogonale di ordine 3 sono i vettori di una base ortonormale. 2. Applicando il Teorema di Binet (cfr. Teor. 2.16) a (3.27) si ha: det(tP P ) = det(tP ) det(P ) = (det(P ))2 = det(I) = 1, quindi: det(P ) = ±1. Si perviene allo stesso risultato ricordando l’espressione in componenti del prodotto misto di tre vettori, infatti: det(P ) = i0 ∧ j0 · k0 = ±1. Quindi il cambiamento di base tra due basi ortonormali positive e` caratterizzato da una matrice ortogonale con determinante uguale a 1, in caso contrario il determinante della matrice ortogonale e` −1.

Calcolo Vettoriale

126

3. Si osservi che e` fondamentale richiedere nel Teorema 3.23 che entrambe le basi B e B 0 siano basi ortonormali, infatti le relazioni (3.30) non sarebbero valide se B non fosse una base ortonormale (cfr. Teor. 3.13), anche se B 0 fosse ortonormale. 4. Il Teorema 3.23 e` valido anche nel caso del cambiamento di base tra due basi ortonormali in ogni piano vettoriale V2 , si studier`a di seguito l’interpretazione geometrica in questo caso particolare. 5. Il Teorema 3.23 propone un’altra interpretazione del prodotto righe per colonne di matrici quadrate di ordine 3 e di ordine 2; infatti il prodotto di una riga per una colonna pu`o essere considerato come il prodotto scalare tra la riga e la colonna se i proprii elementi si interpretano come le componenti di un vettore rispetto ad una base ortonormale.

j i'

j'

Θ i Figura 3.23: Cambiamento di basi ortonormali in V2 , primo caso Si consideri ora il caso particolare del cambiamento di base tra basi ortonormali in un piano vettoriale V2 con lo scopo di determinare gli elementi della matrice ortogonale P = (pij ) ∈ R2,2 che lo regola. Date due basi ortonormali B = (i, j) e B 0 = (i0 , j0 ) la seconda base si pu`o ottenere dalla prima in uno dei modi rappresentati nelle Figure 3.23, 3.24, 3.25. Si osservi che le prime due figure sono in realt`a dello stesso tipo e corrispondono ad una rotazione che la base B compie per sovrapporsi alla base B 0 , invece nella terza figura la base B deve effettuare un movimento di riflessione (non interno al piano vettoriale V2 ) per sovrapporsi alla base B 0 .

Capitolo 3

127

j j'



i

i'

Figura 3.24: Cambiamento di basi ortonormali in V2 , secondo caso

j i'

j'

Θ i Figura 3.25: Cambiamento di basi ortonormali in V2 , terzo caso

128

Calcolo Vettoriale

Nel primo caso (cfr. Fig. 3.23) si ha:  0   i = cos θ i + sin θ j       j0 = cos θ + π i + sin θ + π j = − sin θ i + cos θ j, 2 2 quindi la matrice del cambiamento di base da B a B 0 e` :   cos θ − sin θ P = . sin θ cos θ

(3.31)

Si osservi che det(P ) = 1. In questo contesto, per mettere in evidenza la dipendenza della matrice P dall’angolo θ, e` preferibile usare la notazione: P = R[θ]. Nel secondo caso (cfr. Fig. 3.24), con un procedimento analogo a quello appena descritto, si ottiene:   cos θ sin θ R[−θ] = , (3.32) − sin θ cos θ anche in questo caso det(R[−θ]) = 1. Si osservi che la matrice (3.32) corrisponde alla matrice (3.31) in cui al posto di θ si considera l’angolo −θ. Nel terzo caso (cfr. Fig. 3.25) si ha:  P =

cos θ sin θ sin θ − cos θ

 .

(3.33)

invece, in questo caso det(P ) = −1. Si conclude, quindi, in modo totalmente coerente con ci`o che si e` ottenuto nel caso dello spazio vettoriale V3 , che il cambiamento di base tra due basi ortonormali positive nel piano vettoriale si ottiene mediante una matrice ortogonale con determinante pari a 1 e, in caso contrario tramite una matrice ortogonale con determinante pari a −1. Esercizio 3.11 Si dimostri che gli elementi di O(2), ovvero le matrici ortogonali di ordine 2, sono necessariamente o di tipo (3.31) o di tipo (3.33). Inoltre, si provi che O(1) = {−1, 1}. Esercizio 3.12 In un piano vettoriale V2 , a partire da B = (i, j), base ortonormale positiva, si consideri il cambiamento di base ottenuto mediante una rotazione di angolo θ1

Capitolo 3

129

che conduce alla base ortonormale positiva B 0 = (i0 , j0 ) mediante la matrice ortogonale R[θ1 ]. A partire dalla base ortonormale positiva B 0 = (i0 , j0 ) si consideri la rotazione di angolo θ2 che conduce alla base ortonormale positiva B 00 = (i00 , j00 ) mediante la matrice ortogonale R[θ2 ]. Si dimostri che la matrice del cambiamento di base dalla base ortonormale positiva B = (i, j) alla base ortonormale positiva B 00 = (i00 , j00 ), corrispondente alla rotazione di angolo θ1 + θ2 , e` la matrice prodotto R[θ1 ]R[θ2 ]. Si ripeta lo stesso esercizio dove, al posto delle rotazioni, si considerano riflessioni.

3.9

Esercizi di riepilogo svolti

Esercizio 3.13 Nello spazio vettoriale V3 si considerino i vettori x e y tali che: kxk = 5,

kyk = 7,

kx + yk = 10.

Determinare kx − yk. Soluzione

Applicando la definizione e le propriet`a del prodotto scalare si ha: kx + yk2 = (x + y) · (x + y) = kxk2 + 2x · y + kyk2 ,

d’altra parte: kx − yk2 = (x − y) · (x − y) = kxk2 − 2x · y + kyk2 e quindi: kx + yk2 + kx − yk2 = 2 (kxk2 + kyk2 ) da cui: kx − yk2 = 2(25 + 49) − 100 = 48. Esercizio 3.14 Siano u, v, w vettori linearmente indipendenti di V3 . Dimostrare che se z e` un vettore di V3 ortogonale a ciascuno di essi allora z = o. Soluzione Osservato che (u, v, w) e` una base di V3 e` sufficiente dimostrare che se z e` ortogonale ad un generico vettore: x = λu + µv + ν w di V3 , con λ, µ, ν ∈ R, allora z = o. Infatti si ha: z · x = z · (λu + µv + ν w) = λ z · u + µ z · v + ν z · w = 0, in quanto, per ipotesi, z · u = z · v = z · w = 0. In particolare z · z = kzk2 = 0, quindi z = o.

Calcolo Vettoriale

130

Esercizio 3.15 Dimostrare che, se i vettori a, b, c di V3 sono non nulli e a due a due ortogonali, anche i vettori: a ∧ b, b ∧ c, c ∧ a sono non nulli e a due a due ortogonali. Soluzione Per definizione di prodotto vettoriale di due vettori, a ∧ b e` ortogonale sia ad a sia a b, quindi e` parallelo a c, da cui: a ∧ b = λ c, dove λ e` un numero reale non nullo. Analogamente si ha b ∧ c = µ a e c ∧ a = ν b con µ 6= 0, ν 6= 0. Pertanto a ∧ b, b ∧ c, c ∧ a sono non nulli e a due a due ortogonali essendo paralleli a vettori non nulli, a due a due ortogonali. Esercizio 3.16 In V3 , dimostrare che, se i vettori a ∧ b, b ∧ c, c ∧ a sono linearmente indipendenti anche i vettori a, b e c sono linearmente indipendenti. Soluzione Se i vettori a, b, c fossero linearmente dipendenti essi sarebbero complanari e quindi i vettori a ∧ b, b ∧ c, c ∧ a, per definizione di prodotto vettoriale, sarebbero paralleli che e` assurdo. Esercizio 3.17 In V3 , rispetto ad una base ortonormale positiva B = (i, j, k), sono dati i vettori: a = (−h, 3h, 1), b = (0, 3, h), c = (1, 1, h), h ∈ R. 1. Determinare i valori di h per cui a, b, c non formano una base di V3 . 2. Determinare dei valori di h per cui esistono dei vettori x = (x1 , x2 , x3 ) tali che: x∧a=b e calcolarne le componenti. Soluzione 1. I vettori a, b, c non formano una base di V3 se sono linearmente dipendenti, ossia se la matrice:   −h 3h 1 3 h  A= 0 1 1 h le cui righe sono date dalle componenti dei vettori a, b, c ha determinante uguale √ a zero. Si ha che det(A) = h2 − 3, quindi i valori di h richiesti sono h = ± 3.

Capitolo 3

2. Da x ∧ a = b si ha:

131

i j k x1 x2 x3 = 3j + hk. −h 3h 1

Uguagliando ordinatamente le componenti del vettore a primo membro a quelle del vettore a secondo membro si perviene al sistema lineare:   x2 − 3hx3 = 0 −x1 − hx3 = 3  3hx1 + hx2 = h, che non ammette soluzioni se h 6= 0; invece se h = 0 i vettori x = (−3, 0, t), per ogni t ∈ R, verificano l’uguaglianza richiesta.

3.10

Per saperne di piu`

3.10.1

Un’altra definizione di vettore

In questo paragrafo viene introdotta una definizione di vettore pi`u rigorosa, che si basa sul concetto di relazione di equivalenza e di classi di equivalenza. Definizione 3.15 Due segmenti orientati AB e CD dello spazio S3 sono detti equipollenti se i punti medi dei segmenti AD e BC coincidono. La situazione geometrica e` illustrata nella Figura 3.26.

C

D

M

A

B Figura 3.26: Segmenti orientati equipollenti

Per indicare che i segmenti orientati AB e CD sono equipollenti si user`a la notazione AB ∼ CD.

Calcolo Vettoriale

132

Teorema 3.24 La relazione di equipollenza e` una relazione di equivalenza. Dimostrazione

E` sufficiente verificare che sono valide le seguenti propriet`a:

1. la propriet`a riflessiva: AB ∼ AB , per ogni coppia di punti A e B ; 2. la propriet`a simmetrica: se dati i segmenti orientati AB e CD per cui AB ∼ CD allora CD ∼ AB ; 3. la propriet`a transitiva: se dati i segmenti orientati AB , CD ed EF tali che AB ∼ CD e CD ∼ EF allora AB ∼ EF . La dimostrazione segue dalla definizione di equipollenza ed e` lasciata per esercizio. Di conseguenza, l’insieme dei segmenti orientati dello spazio viene suddiviso nelle classi di equivalenza determinate dalla relazione di equipollenza, dette classi di equipollenza, ogni classe contiene tutti e soli i segmenti orientati equipollenti ad un segmento dato e pu`o essere rappresentata da un qualsiasi segmento che ad essa appartiene. Allora si ha la seguente definizione. Definizione 3.16 Le classi di equipollenza dello spazio S3 sono dette vettori. E` chiaro che la definizione intuitiva di vettore introdotta all’inizio di questo capitolo coincide con la definizione pi`u rigorosa di vettore appena enunciata.

3.10.2

Ulteriori propriet`a delle operazioni tra vettori

In questo paragrafo verranno riassunte alcune propriet`a delle operazioni tra vettori studiate in questo capitolo e non introdotte in precedenza, che anche se hanno conseguenze importanti nello studio approfondito di argomenti di geometria e di fisica, possono essere omesse ad una prima lettura. Teorema 3.25 Sono valide le seguenti propriet`a per il prodotto vettoriale e scalare tra vettori: 1. (x ∧ y) ∧ z = (x · z) y − (y · z) x,

x, y, z ∈ V3 ;

2. (x ∧ y) ∧ (z ∧ w) = (w · x ∧ y) z − (z · x ∧ y) w,

x, y, z, w ∈ V3 ;

3. (x ∧ y) · (z ∧ w) = (x · z)(y · w) − (x · w)(y.z),

x, y, z, w ∈ V3 ;

4. (x ∧ y) ∧ z + (y ∧ z) ∧ x + (z ∧ x) ∧ y = o,

x, y, z ∈ V3 .

Capitolo 3

133

Dimostrazione 1. Si supponga che x, y, z siano vettori di V3 non complanari, negli altri casi si lascia per esercizio la dimostrazione dell’identit`a 1. Il vettore (x ∧ y) ∧ z e` ortogonale al vettore x ∧ y e quindi appartiene al piano vettoriale individuato da x e da y. Esistono pertanto due numeri reali λ, µ tali che: (x ∧ y) ∧ z = λx + µy.

(3.34)

Se si moltiplicano ambo i membri di (3.34) scalarmente per z, si ottiene a primo membro: (x ∧ y) ∧ z · z = (x ∧ y) · z ∧ z = 0 e a secondo membro: λx · z + µy · z = 0, da cui segue che e` possibile determinare un numero reale ρ per cui: λ = −ρ(y · z),

µ = ρ(x · z).

L’identit`a 1. e` dimostrata se si verifica che ρ non dipende dalla scelta dei vettori x, y, z. Supposto per assurdo che ρ dipenda, ad esempio, da z, si ponga: (x ∧ y) ∧ z = ρ(z)[(x · z)y − (y · z)x].

(3.35)

Scelto un vettore arbitrario a di V3 , moltiplicando scalarmente ambo i membri di (3.35) per a, si ha: (z ∧ a) · (y ∧ x) = ρ(z)[(x · z)(y · a) − (y · z)(x · a)].

(3.36)

Scambiando nell’identit`a (3.36) i vettori z e a si ottiene: ρ(z)[(x · z)(y · a) − (y · z)(x · a)] = ρ(a)[(x · z)(y · a) − (y · z)(x · a)]. Quindi si deduce che ρ(a) = ρ(z). In modo analogo si dimostra che ρ non dipende dai vettori x e w. 2. Segue da 1. sostituendo a z il vettore z ∧ w e scambiando i ruoli di x e y con z e w, rispettivamente. 3. Segue da 1. moltiplicando scalarmente ambo i membri per w. 4. Segue da 1. in modo immediato.

134

Calcolo Vettoriale

Osservazione 3.22 1. Siano x, y, z vettori di V3 non complanari. L’identit`a 1. del Teorema 3.25 prende il nome di doppio prodotto vettoriale ed esprime il fatto che il vettore (x ∧ y) ∧ z appartiene al piano vettoriale individuato dai vettori x e y. E` evidente da questa identit`a che non vale, in generale, la propriet`a associativa del prodotto vettoriale, infatti: (x ∧ y) ∧ z 6= x ∧ (y ∧ z), in quanto il vettore x ∧ (y ∧ z) appartiene al piano vettoriale individuato da y e da z che, in generale, non coincide con il piano vettoriale individuato da x e da y. 2. Se nell’identit`a 3. del Teorema 3.25 si pone x = z e y = w si ha: kx ∧ yk2 = kxk2 kyk2 − (x · y)2 . La relazione appena ottenuta e` nota come identit`a di Lagrange. E` di grande importanza nello studio delle propriet`a delle superfici nello spazio, (cfr. per esempio [11]), in quanto esprime la norma del prodotto vettoriale di due vettori solo in termini del loro prodotto scalare. E` anche doveroso osservare che l’identit`a di Lagrange ha una dimostrazione elementare (che viene lasciata per esercizio) senza necessariamente considerare la dimostrazione dell’identit`a 3. 3. La relazione 4. del Teorema 3.25 prende il nome di identit`a di Jacobi e riveste un’importanza notevole nello studio delle algebre di Lie. Per maggiori approfondimenti sull’argomento si vedano per esempio [2] o [13].

Capitolo 4 Spazi Vettoriali e Sottospazi Vettoriali 4.1

Spazi vettoriali

In questo paragrafo viene introdotta la definizione di spazio vettoriale, concetto su cui si basa l’algebra lineare. Nel testo si studieranno, salvo avviso contrario, solo gli spazi vettoriali costruiti sul campo dei numeri reali, cio`e solo spazi vettoriali reali. Cenni sugli spazi vettoriali complessi sono stati inseriti nei paragrafi “Per saperne di pi`u”. La definizione di spazio vettoriale trae origine dal ben noto esempio dell’insieme dei vettori V3 nello spazio tridimensionale ordinario, trattato nel capitolo precedente. Si intende introdurre tale concetto in modo astratto con il duplice scopo di dimostrare teoremi dalle conseguenze fondamentali nel caso dello spazio vettoriale ordinario V3 e di estendere tali nozioni a spazi vettoriali di dimensione superiore a tre. Definizione 4.1 Un insieme V si dice spazio vettoriale sul campo dei numeri reali R o spazio vettoriale reale se sono definite su V le due operazioni seguenti: A. la somma: + : V × V −→ V,

(x, y) 7−→ x + y

rispetto alla quale V ha la struttura di gruppo commutativo, ossia valgono le propriet`a: 1. x + y = y + x,

x, y ∈ V (propriet`a commutativa);

2. (x + y) + z = x + (y + z), 3. ∃ o ∈ V | x + o = x,

x, y, z ∈ V (propriet`a associativa);

x ∈ V (esistenza dell’elemento neutro);

4. ∀x ∈ V ∃ − x ∈ V | x + (−x) = o (esistenza dell’opposto); 135

Spazi Vettoriali e Sottospazi Vettoriali

136

B. il prodotto per numeri reali: R × V −→ V,

(λ, x) 7−→ λx

per cui valgono le seguenti propriet`a: 1. λ(x + y) = λx + λy,

x, y ∈ V, λ ∈ R;

2. (λ + µ)x = λx + µx,

x ∈ V, λ, µ ∈ R;

3. (λµ)x = λ(µx), 4. 1 x = x,

x ∈ V, λ, µ ∈ R;

x∈V.

Gli elementi di V prendono il nome di vettori e saranno, in generale, indicati con le lettere minuscole in grassetto. Gli elementi di R prendono il nome di scalari, quindi il prodotto di un numero reale per un vettore e` spesso anche detto prodotto di uno scalare per un vettore. L’elemento neutro o di V e` detto vettore nullo, mentre il vettore −x e` l’opposto del vettore x. Osservazione 4.1 Si pu`o introdurre una definizione analoga di spazio vettoriale ma costruito su un qualsiasi campo, per esempio sul campo dei numeri razionali Q o dei numeri complessi C. Nel caso della definizione su C, lo spazio vettoriale si dice anche spazio vettoriale complesso. Osservazione 4.2 E` chiaro che il campo dei numeri reali R e` un esempio evidente di spazio vettoriale su R rispetto alle usuali operazioni di somma e di prodotto, come del resto si otterrr`a come caso particolare dell’Esempio 4.3, ma R e` anche un esempio di spazio vettoriale sul campo dei numeri razionali Q. Osservazione 4.3 Si osservi che le propriet`a B.1. e B.2., a differenza di quanto accade per (R, +, · ) con l’usuale somma e prodotto di numeri reali, non possono essere chiamate propriet`a distributive del prodotto rispetto alla somma, in quanto esse coinvolgono elementi appartenenti ad insiemi diversi. Analogamente, la propriet`a B.3. non e` la propriet`a associativa. Verranno descritti di seguito gli esempi ritenuti pi`u significativi, si rimanda al Paragrafo 4.5 per ulteriori esempi ed esercizi. Esempio 4.1 Si inizia con gli esempi che hanno dato il nome alla struttura di spazio vettoriale appena definita. Gli insiemi dei vettori di una retta vettoriale V1 , di un piano vettoriale V2 e dello spazio vettoriale ordinario V3 sono esempi di spazi vettoriali su R, rispetto alle operazioni di somma di vettori e di prodotto di un numero reale per un vettore definite nel Capitolo 3.

Capitolo 4

137

Esempio 4.2 Gli insiemi delle matrici Rm,n di m righe e n colonne, ad elementi reali, definiti nel Capitolo 2, sono esempi di spazi vettoriali reali rispetto alle operazioni di somma di matrici e di prodotto di un numero reale per una matrice l`a definite. Esempio 4.3 L’esempio fondamentale: Rn = {(x1 , x2 , . . . , xn ) | xi ∈ R, i = 1, 2, . . . , n} e` un caso particolare dell’esempio precedente ma, visto il ruolo fondamentale che avr`a in tutto il testo, verr`a trattato a parte. La somma di due n-uple (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) di Rn e` definita come: (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ). Il vettore nullo di Rn e` dato dalla n-upla (0, 0,. . ., 0) e l’opposto del vettore (x1 , x2 ,. . ., xn ) e` il vettore (−x1 , −x2 , . . . , −xn ). Il prodotto di un numero reale λ per un elemento (x1 , x2 , . . . , xn ) di Rn e` definito da: λ(x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λxn ). Esempio 4.4 Il campo dei numeri razionali Q e` un esempio di spazio vettoriale su Q (ma non su R), analogamente il campo dei numeri complessi C ha la struttura di spazio vettoriale su se stesso e anche su R. Si lascia per esercizio la spiegazione dettagliata di tali affermazioni. Esempio 4.5 L’insieme delle funzioni reali di variabile reale F(R) = {f : R −→ R} e` un esempio di spazio vettoriale su R, dove la somma di due elementi f e g di F(R) e` definita da: (f + g)(x) = f (x) + g(x), x ∈ R e il prodotto di un numero reale λ per una funzione f ∈ F(R) e` : (λf )(x) = λ(f (x)),

x ∈ R.

Si verifica facilmente che il vettore nullo e` la funzione nulla O, definita da O(x) = 0, con x ∈ R, l’opposto di f e` la funzione −f definita in modo evidente: (−f )(x) = −f (x),

x ∈ R.

Pi`u in generale, anche l’insieme delle funzioni F(I, V ) = {F : I −→ V } da un insieme I qualsiasi ad uno spazio vettoriale reale V ha la struttura di spazio vettoriale su R in cui la somma di funzioni ed il prodotto di un numero reale per una funzione sono definite come nel caso di F(R) ma considerando le operazioni dello spazio vettoriale V.

Spazi Vettoriali e Sottospazi Vettoriali

138

Esempio 4.6 Sia R[x] l’insieme dei polinomi nella variabile x a coefficienti reali, ossia: R[x] = {a0 + a1 x + . . . + an xn | n ∈ N, ai ∈ R, i = 0, 1, . . . , n}, (N = {0, 1, 2, . . .} indica l’insieme dei numeri naturali). Le usuali operazioni di somma di polinomi e di prodotto di un numero reale per un polinomio conferiscono a R[x] la struttura di spazio vettoriale reale. Il vettore nullo e` dato dal numero reale 0 e l’opposto del polinomio p(x) = a0 + a1 x + a2 x2 + . . . + an xn e` il polinomio: −p(x) = −a0 − a1 x − a2 x2 − . . . − an xn . Vale il seguente teorema, il cui enunciato e` naturalmente intuibile. Teorema 4.1 In uno spazio vettoriale reale V si ha: 1. il vettore nullo o e` unico; 2. per ogni vettore x ∈ V l’opposto −x e` unico; 3. se per x, y, z ∈ V si ha x + y = x + z, allora y = z; 4. λx = o (con λ ∈ R e x ∈ V ) ⇐⇒ λ = 0 oppure x = o; 5. (−1)x = −x, per ogni x ∈ V. Dimostrazione 4.5.

La dimostrazione, quasi un esercizio, si pu`o leggere nel Paragrafo

Osservazione 4.4 L’insieme {o} formato dal solo vettore nullo e` un esempio di spazio vettoriale reale. Si osservi che e` l’unico spazio vettoriale reale con un numero finito di elementi.

4.2

Sottospazi vettoriali

La nozione di sottospazio vettoriale di uno spazio vettoriale reale, oggetto di questo paragrafo, intende estendere il concetto, gi`a considerato nel capitolo precedente, degli insiemi dei vettori di una retta vettoriale V1 e di un piano vettoriale V2 visti come sottoinsiemi dello spazio vettoriale V3 .

Capitolo 4

4.2.1

139

Definizione ed esempi

Definizione 4.2 Sia V uno spazio vettoriale reale, un sottoinsieme W ⊆ V e` un sottospazio vettoriale di V se W e` uno spazio vettoriale rispetto alle stesse operazioni di V, ossia se e` chiuso rispetto alle operazioni di somma e di prodotto per scalari definite in V, vale a dire: ∀x, y ∈ W =⇒ x + y ∈ W, ∀λ ∈ R, ∀x ∈ W =⇒ λx ∈ W, che equivale a: ∀λ, µ ∈ R, ∀x, y ∈ W =⇒ λx + µy ∈ W. Osservazione 4.5 1. Un sottoinsieme H di un gruppo G e` un sottogruppo se e` un gruppo con il prodotto definito in G. Pertanto, poich´e uno spazio vettoriale V e` un gruppo commutativo rispetto all’operazione di somma, un sottospazio vettoriale W di V e` un sottogruppo di V. 2. Segue dalla Definizione 4.2 e dalla propriet`a 4. del Teorema 4.1 che il vettore nullo o di uno spazio vettoriale V deve necessariamente appartenere ad ogni sottospazio vettoriale W di V. Esempio 4.7 Ogni spazio vettoriale V ammette almeno due sottospazi vettoriali: V e {o}. Essi coincidono se e solo se V = {o}. Tali sottospazi vettoriali si dicono improprii. Esempio 4.8 L’insieme dei vettori ordinari di ogni piano vettoriale V2 e` un sottospazio vettoriale dell’insieme dei vettori dello spazio V3 . L’insieme dei vettori di una retta vettoriale V1 e` un sottospazio vettoriale del piano vettoriale V2 che la contiene e ogni retta vettoriale e` un sottospazio vettoriale di V3 . Esempio 4.9 Si osservi che, nonostante Q sia un sottoinsieme di R, l’insieme dei numeri razionali Q (spazio vettoriale su Q) non e` un sottospazio vettoriale dello spazio vettoriale reale R, in quanto su Q non e` definito lo stesso prodotto per scalari di R. Infatti, il prodotto di un numero reale per un numero razionale non e` necessariamente razionale. Esempio 4.10 Sia a ∈ R e fa : R −→ R la funzione definita da fa (x) = ax; l’insieme: W = {fa ∈ F(R) | a ∈ R} e` un sottospazio vettoriale dello spazio vettoriale reale F(R) introdotto nell’Esempio 4.5. Infatti se fa , fb ∈ W , allora per ogni λ, µ ∈ R, si ha che λfa + µfb ∈ W, poich´e λfa + µfb = fλa+µb . La verifica e` lasciata al Lettore per esercizio.

140

Spazi Vettoriali e Sottospazi Vettoriali

Esempio 4.11 Sia R[x] lo spazio vettoriale dei polinomi nella variabile x a coefficienti reali, introdotto nell’Esempio 4.6. Sottospazi vettoriali notevoli di R[x] sono gli insiemi dei polinomi di grado non superiore ad un numero intero positivo fissato n. In formule, si indica con: Rn [x] = {a0 + a1 x + a2 x2 + . . . + an xn | ai ∈ R, i = 0, 1, 2, . . . , n} il sottospazio vettoriale dei polinomi di grado minore o uguale ad n. La verifica che Rn [x] sia un sottospazio vettoriale di R[x] e` lasciata per esercizio. In particolare, quindi, l’insieme R e` un sottospazio vettoriale di R[x] in quanto pu`o essere visto come l’insieme dei polinomi di grado zero. In generale, l’insieme dei polinomi di grado fissato n > 0 non e` un sottospazio vettoriale di R[x], anche se e` un sottoinsieme di Rn [x]. Infatti, per esempio, l’insieme dei polinomi di grado 3: P = {a0 + a1 x + a2 x2 + a3 x3 ∈ R3 [x] | ai ∈ R, i = 0, 1, 2, 3, a3 6= 0} non e` un sottospazio vettoriale di R3 [x] in quanto non contiene il vettore nullo di R3 [x]. Viene trattata ora la rappresentazione mediante equazioni dei sottospazi vettoriali dello spazio vettoriale Rn . Per capire meglio la teoria, si inizia con un esercizio. Esercizio 4.1 Dati i seguenti sottoinsiemi di R3 : A = {(x1 , x2 , x3 ) ∈ R3 | 2x1 + 3x2 − x3 = 0}, B = {(x1 , x2 , x3 ) ∈ R3 | 2x1 + 3x2 − x3 = x2 + x3 = 0}, C = {(x1 , x2 , x3 ) ∈ R3 | 2x1 + 3x2 − x3 = 5}, D = {(x1 , x2 , x3 ) ∈ R3 | 2x21 + 3x2 − x3 = 0}, dire quali sono sottospazi vettoriali di R3 giustificando la risposta. Soluzione A e` un sottospazio vettoriale di R3 . Infatti, siano (x1 , x2 , x3 ) e (y1 , y2 , y3 ) due elementi di A ossia tali che 2x1 + 3x2 − x3 = 2y1 + 3y2 − y3 = 0, si verifica che la loro somma (x1 + y1 , x2 + y2 , x3 + y3 ) e` un elemento di A, vale a dire: 2(x1 + y1 ) + 3(x2 + y2 ) − (x3 + y3 ) = 0, che e` ovvia conseguenza dell’appartenenza ad A di (x1 , x2 , x3 ) e di (y1 , y2 , y3 ). Analogamente si verifica che λ(x1 , x2 , x3 ) = (λx1 , λx2 , λx3 ) e` un elemento di A per ogni λ ∈ R e per ogni (x1 , x2 , x3 ) ∈ A.

Capitolo 4

141

Si dimostra in modo analogo che B e` un sottospazio vettoriale di R3 . E` facile osservare che C non e` un sottospazio vettoriale di R3 perch´e non contiene il vettore nullo di R3 , in altri termini l’equazione lineare che definisce C non e` omogenea. D non e` un sottospazio vettoriale di R3 , pur contenendo il vettore nullo di R3 , infatti dati (1, 0, 2), (2, 0, 8) ∈ D la loro somma (3, 0, 10) non appartiene a D in quanto 2·32−10 6= 0. L’esercizio precedente suggerisce il seguente risultato di carattere generale. Esempio 4.12 – Esempio fondamentale di sottospazio vettoriale – L’insieme delle soluzioni di un sistema lineare omogeneo di m equazioni in n incognite e` un sottospazio vettoriale di Rn . La verifica, che e` conseguenza evidente dell’esempio precedente, pu`o essere anche ottenuta procedendo in modo sintetico. Infatti, usando la notazione matriciale di un sistema lineare omogeneo AX = O, con A ∈ Rm,n , X ∈ Rn,1 , O ∈ Rm,1 (cfr. Par. 2.2.1), si ha che l’insieme delle soluzioni del sistema lineare omogeneo AX = O coincide con l’insieme: N (A) = {X ∈ Rn | AX = O}, dove si identifica Rn,1 con Rn . Dati X1 , X2 ∈ N (A), allora AX1 = AX2 = O. Si deve dimostrare che λX1 + µX2 ∈ N (A) per ogni λ, µ ∈ R, ma: A(λX1 + µX2 ) = λAX1 + µAX2 = O. Il sottospazio vettoriale N (A) di Rn prende il nome di nullspace (o annullatore o nullificatore) della matrice A ∈ Rm,n . Esercizio 4.2 Ogni sottospazio vettoriale, diverso da {o}, di uno spazio vettoriale reale contiene sempre un numero infinito di vettori? Si continua ora con un elenco di sottospazi vettoriali notevoli dello spazio vettoriale delle matrici Rm,n . Le verifiche sono lasciate per esercizio. Esempio 4.13 Il sottoinsieme D(Rn,n ) di Rn,n (spazio vettoriale delle matrici quadrate di ordine n) formato dalle matrici diagonali, definito in (2.2), e` un sottospazio vettoriale di Rn,n . Esempio 4.14 Il sottoinsieme T (Rn,n ) di Rn,n delle matrici triangolari superiori, definite in (2.6), e` un sottospazio vettoriale di Rn,n ; analoga affermazione vale per il sottoinsieme delle matrici triangolari inferiori.

142

Spazi Vettoriali e Sottospazi Vettoriali

Esempio 4.15 L’insieme delle matrici simmetriche (cfr. (2.7)): S(Rn,n ) = {A ∈ Rn,n | tA = A} e` un sottospazio vettoriale di Rn,n , infatti se A1 , A2 ∈ S(Rn,n ) si ha che tA1 = A1 e t A2 = A2 , allora t (A1 + A2 ) = tA1 + tA2 = A1 + A2 , la dimostrazione della chiusura rispetto al prodotto per un numero reale e` lasciata per esercizio. Esempio 4.16 L’insieme delle matrici antisimmetriche (cfr. (2.8)): A(Rn,n ) = {A ∈ Rn,n | tA + A = O} e` un sottospazio vettoriale di Rn,n (per la dimostrazione si procede in modo analogo all’esempio precedente). Osservazione 4.6 Si osservi che l’insieme delle matrici ortogonali (cfr. (2.9)): O(n) = {A ∈ Rn,n | tA A = I} non e` un sottospazio vettoriale di Rn,n , perch´e non contiene il vettore nullo di Rn,n . Osservazione 4.7 Si osservi che l’insieme: {A ∈ Rn,n | det(A) = 0} non e` un sottospazio vettoriale di Rn,n , se n > 1. Perch´e? Osservazione 4.8 Si osservi che l’insieme: {A ∈ Rn,n | tr(A) = 0} e` un sottospazio vettoriale di Rn,n , mentre l’insieme: {A ∈ Rn,n | tr(A) = 2} non lo e` . Esempio 4.17 In R4 [x] si consideri l’insieme W dei polinomi divisibili per 3x − 1. Si pu`o verificare che W e` un sottospazio vettoriale di R4 [x]. Infatti ogni polinomio p(x) ∈ W e` della forma p(x) = (3x − 1)q(x), con q(x) polinomio di grado ≤ 3. Quindi, per ogni p1 (x) = (3x − 1)q1 (x), p2 (x) = (3x − 1)q2 (x) ∈ W e per ogni λ, µ ∈ R, si ha: λp1 (x) + µp2 (x) = λ(3x − 1)q1 (x) + µ(3x − 1)q2 (x) = (3x − 1)(λq1 (x) + µq2 (x)) ∈ W.

Capitolo 4

4.2.2

143

Intersezione e somma di sottospazi vettoriali

Dati due sottospazi vettoriali W1 , W2 di uno spazio vettoriale reale V, si vuole stabilire se la loro intersezione insiemistica e la loro unione insiemistica siano ancora sottospazi vettoriali di V. Si inizia con il seguente teorema. Teorema 4.2 L’intersezione insiemistica W1 ∩ W2 e` un sottospazio vettoriale di V. Dimostrazione E` immediata conseguenza delle definizioni di sottospazio vettoriale e di intersezione insiemistica. Esempio 4.18 Si considerino i sottospazi vettoriali di R3 : W1 = {(x1 , x2 , x3 ) ∈ R3 | 3x1 + x2 + x3 = 0}, W2 = {(x1 , x2 , x3 ) ∈ R3 | x1 − x3 = 0}. La loro intersezione e` il sottospazio vettoriale: W1 ∩ W2 = {(x1 , x2 , x3 ) ∈ R3 | 3x1 + x2 + x3 = x1 − x3 = 0} = {(a, −4a, a) ∈ R3 | a ∈ R}. Esempio 4.19 In V3 , spazio vettoriale reale dei vettori ordinari, riferito ad una base ortonormale positiva B = (i, j, k), i sottospazi vettoriali: W1 = L(i, j),

W2 = L(i, k)

si intersecano nella retta vettoriale: W1 ∩ W2 = L(i). Si ricordi che la notazione L(a) indica l’insieme di tutti i vettori che sono paralleli ad a, analogamente L(a, b) indica l’insieme dei vettori complanari ad a, b (cfr. Def. 3.5); nel Paragrafo 4.3 si generalizzer`a questa notazione. Osservazione 4.9 L’unione insiemistica di due sottospazi vettoriali di uno spazio vettoriale V non e` , in generale, un sottospazio vettoriale di V, come si deduce dagli esempi prima citati. Infatti si ha: nell’Esempio 4.18 l’unione W1 ∪ W2 non e` un sottospazio vettoriale di R3 perch´e, per esempio, la somma di (1, 2, −5) ∈ W1 insieme con (2, 3, 2) ∈ W2 non appartiene a W1 ∪ W2 ; nell’Esempio 4.19 il vettore v = (2i + 3j) + (4k) non appartiene a W1 ∪ W2 , pur essendo somma di un vettore di W1 e di un vettore di W2 .

Spazi Vettoriali e Sottospazi Vettoriali

144

Esercizio 4.3 In quali casi l’unione di due sottospazi vettoriali di uno spazio vettoriale V e` un sottospazio vettoriale di V ? Gli esempi precedenti giustificano la seguente definizione. Definizione 4.3 Dati W1 e W2 sottospazi vettoriali di uno spazio vettoriale reale V, si definisce somma di W1 e W2 l’insieme: W1 + W2 = {x1 + x2 | x1 ∈ W1 , x2 ∈ W2 }. Teorema 4.3

1. W1 + W2 e` un sottospazio vettoriale di V.

2. W1 + W2 e` il pi`u piccolo sottospazio vettoriale di V contenente W1 e W2 . Dimostrazione 1. Segue dalle definizioni di somma di sottospazi vettoriali e di sottospazio vettoriale. 2. W1 ⊆ W1 + W2 in quanto i suoi elementi possono essere scritti come x + o, per ogni x ∈ W1 , considerando il vettore nullo o come elemento di W2 . Dimostrazione analoga per W2 . La somma W1 + W2 e` il pi`u piccolo sottospazio vettoriale contenente sia W1 sia W2 perch´e ogni altro sottospazio vettoriale con questa propriet`a deve necessariamente contenere tutte le combinazioni lineari di elementi di W1 e di W2 e, quindi, deve contenere W1 + W2 . La definizione di somma di due sottospazi vettoriali si estende in modo naturale a quella di pi`u di due sottospazi vettoriali. Definizione 4.4 Siano Wi , i = 1, 2, . . . , k , sottospazi vettoriali di uno spazio vettoriale reale V. La loro somma e` data da: W1 + W2 + . . . + Wk = {x1 + x2 + . . . + xk | xi ∈ Wi , i = 1, 2, . . . k}. Anche in questo caso si pu`o dimostrare una propriet`a analoga al Teorema 4.3. Si presti particolare attenzione ai seguenti esempi. Esempio 4.20 Si considerino i sottospazi vettoriali di R3 : W1 = {(x1 , x2 , 0) ∈ R3 | x1 , x2 ∈ R}, W2 = {(0, 0, x3 ) ∈ R3 | x3 ∈ R}.

Capitolo 4

145

Si verifica che W1 ∩ W2 = {o} e W1 + W2 = R3 . Ogni elemento (x1 , x2 , x3 ) ∈ R3 si scrive, in modo unico, come somma di un elemento di W1 e di un elemento di W2 , infatti: (x1 , x2 , x3 ) = (x1 , x2 , 0) + (0, 0, x3 ). Esempio 4.21 Si considerino i sottospazi vettoriali di R3 : W1 = {(x1 , x2 , 0) ∈ R3 | x1 , x2 ∈ R}, Z2 = {(x1 , 0, x3 ) ∈ R3 | x1 , x3 ∈ R}. Si verifica che W1 ∩ Z2 = {(x1 , 0, 0) ∈ R3 | x1 ∈ R} e W1 + Z2 = R3 . In questo caso, per esempio, (1, 2, 3) ∈ R3 si pu`o scrivere in infiniti modi diversi come somma di un elemento di W1 e di un elemento di Z2 , infatti: (1, 2, 3) = (a, 2, 0) + (b, 0, 3), con a, b ∈ R | a + b = 1. Ci`o suggerisce la seguente definizione. Definizione 4.5 Siano W1 , W2 sottospazi vettoriali di uno spazio vettoriale reale V, la loro somma W1 + W2 si dice diretta e si scrive: W1 ⊕ W2 se ogni vettore x ∈ W1 ⊕ W2 si decompone in modo unico come x = x1 + x2 , con x1 ∈ W1 e x2 ∈ W2 . La precedente definizione si estende a pi`u di due sottospazi vettoriali nel modo seguente. Definizione 4.6 Siano Wi , i = 1, 2, . . . k, sottospazi vettoriali di uno spazio vettoriale reale V ; la loro somma si dice diretta e si scrive: W1 ⊕ W2 ⊕ . . . ⊕ Wk se ogni vettore x ∈ W1 ⊕ W2 ⊕ . . . ⊕ Wk si decompone in modo unico come: x = x 1 + x2 + . . . + xk , con xi ∈ Wi , i = 1, 2, . . . k. Sar`a utile la seguente definizione.

Spazi Vettoriali e Sottospazi Vettoriali

146

Definizione 4.7 W1 e W2 , sottospazi vettoriali di uno spazio vettoriale reale V, si dicono supplementari in V se: W1 ⊕ W2 = V. Osservazione 4.10 Dalla Definizione 3.5 segue che: V3 = L(i) ⊕ L(j) ⊕ L(k) = L(i, j) ⊕ L(k) = L(i, j) ⊕ L(j + k) = . . . . . . . In V3 esistono infiniti sottospazi vettoriali supplementari di L(i, j). Teorema 4.4 Lo spazio vettoriale Rn,n delle matrici quadrate di ordine n si decompone nel modo seguente: Rn,n = S(Rn,n ) ⊕ A(Rn,n ), dove S(Rn,n ) indica il sottospazio vettoriale delle matrici simmetriche di Rn,n e A(Rn,n ) e` il sottospazio vettoriale delle matrici antisimmetriche, definiti negli Esempi 4.15 e 4.16. Dimostrazione

Segue dalla scrittura: 1 1 A = (A + tA) + (A − tA), con A ∈ Rn,n 2 2

e dal fatto che A + tA e` una matrice simmetrica, mentre A − tA e` antisimmetrica. Il seguente teorema caratterizza la somma diretta di due sottospazi vettoriali. Teorema 4.5 La somma di due sottospazi vettoriali W1 e W2 di uno spazio vettoriale reale V e` diretta se e solo se la loro intersezione W1 ∩ W2 si riduce al solo vettore nullo. In formule: W = W1 ⊕ W2 ⇐⇒ W = W1 + W2

e W1 ∩ W2 = {o}.

Dimostrazione Sia W = W1 + W2 , si vuole provare che W = W1 ⊕ W2 se e solo se W1 ∩ W2 = {o}. Si supponga che la somma dei due sottospazi vettoriali W1 + W2 = W sia diretta. Allora ogni x ∈ W si scrive in modo unico come x1 + x2 , con x1 ∈ W1 e x2 ∈ W2 . Per assurdo, se esistesse un vettore non nullo y ∈ W1 ∩ W2 allora l’espressione: x = (x1 + y) + (x2 − y) contraddirebbe l’ipotesi. Pertanto si ha W1 ∩ W2 = {o}.

Capitolo 4

147

Viceversa, si supponga che W1 ∩ W2 = {o} e che per assurdo la somma W1 + W2 = W non sia diretta, ovvero che esista x ∈ W = W1 + W2 tale che: x = x 1 + x2 = y1 + y2 , con x1 , y1 ∈ W1 , x2 , y2 ∈ W2 e x1 6= y1 oppure (o anche) x2 6= y2 . Segue che x1 − y1 = −x2 + y2 ∈ W1 ∩ W2 da cui si perviene ad una contraddizione dell’ipotesi W1 ∩ W2 = {o}. L’esempio che segue mostra che il teorema precedente non pu`o essere esteso in modo ovvio al caso della somma diretta di pi`u di due sottospazi vettoriali. Esempio 4.22 In V3 , rispetto ad una base ortonormale positiva B = (i, j, k), si considerino i seguenti sottospazi vettoriali: W1 = L(i, j);

W2 = L(i + k);

W3 = L(j + k).

E` chiaro che W1 ∩ W2 ∩ W3 = {o}, W1 ∩ W2 = W1 ∩ W3 = W2 ∩ W3 = {o}, e W1 + W2 + W3 = V3 ma la loro somma W1 + W2 + W3 non e` diretta; per esempio: i + j + k = [ai + (1 − a)j] + [(1 − a)i + (1 − a)k] + (aj + ak), con a ∈ R, contraddice la Definizione 4.6. Il teorema (di cui si omette la dimostrazione) che caratterizza la somma diretta di pi`u di due sottospazi vettoriali mediante le loro intersezioni, e` , infatti, il seguente. Teorema 4.6 Sia V uno spazio vettoriale e siano W1 , W2 , . . . , Wk sottospazi vettoriali di V, allora: W = W1 ⊕ W2 ⊕ . . . ⊕ Wk

⇐⇒ W = W1 + W2 + . . . + Wk ci + . . . + Wk ) = {o}, i = 1, 2, . . . k, e Wi ∩ (W1 + W2 + . . . + W

ci indica che si deve escludere il sottospazio vettoriale Wi dalla somma). (W Per la dimostrazione si veda ad esempio [15]. Esercizio 4.4 Avvertenza Questo esercizio e` risolto a titolo di esempio per chiarire i concetti appena esposti. Nel paragrafo successivo verr`a introdotto un metodo pi`u rapido per risolvere problemi analoghi.

148

Spazi Vettoriali e Sottospazi Vettoriali

In R4 si considerino i sottospazi vettoriali: W1 = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 + 2x2 + 3x3 + x4 = 0}, W2 = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 + x2 = x1 + x3 = x1 − x2 + x3 = 0}, dimostrare che W1 ⊕ W2 = R4 . Soluzione Innanzi tutto si osservi che effettivamente W1 e W2 sono sottospazi vettoriali di R4 essendo definiti tramite sistemi lineari omogenei. La loro intersezione W1 ∩W2 coincide con l’insieme delle soluzioni del sistema lineare omogeneo formato da tutte le equazioni che definiscono W1 e da tutte le equazioni che definiscono W2 , nel nostro caso si ha:    x1 + 2x2 + 3x3 + x4 = 0  x1 + x2 = 0 x1 + x3 = 0    x1 − x2 + x 3 = 0 le cui soluzioni, come spiegato nel Paragrafo 1.2, dipendono dal rango della matrice dei coefficienti:   1 2 3 1  1 1 0 0  . A=  1 0 1 0  1 −1 1 0 Riducendo per righe la matrice A si ottiene rank(A) = 4 da cui segue W1 ∩ W2 = {o}. Per dimostrare che W1 + W2 = R4 si devono scrivere esplicitamente le espressioni dei vettori di W1 e di W2 . Nel primo caso, risolvendo l’equazione che definisce W1 , si ottiene che (x1 , x2 , x3 , x4 ) ∈ W1 se: (x1 , x2 , x3 , x4 ) = (−2t1 − 3t2 − t3 , t1 , t2 , t3 ), con t1 , t2 , t3 ∈ R. Invece, risolvendo il sistema lineare che definisce W2 , si ha che (x1 , x2 , x3 , x4 ) ∈ W2 se: (x1 , x2 , x3 , x4 ) = (0, 0, 0, λ), con λ ∈ R. Si perviene alla tesi provando che un generico vettore (x1 , x2 , x3 , x4 ) ∈ R4 si pu`o scrivere come somma di un vettore di W1 e di un vettore di W2 , in altri termini dato (x1 , x2 , x3 , x4 ) esistono opportuni valori di t1 , t2 , t3 , λ ∈ R per cui: (x1 , x2 , x3 , x4 ) = (−2t1 − 3t2 − t3 , t1 , t2 , t3 + λ). Si ricavano infatti t1 , t2 , t3 , λ ∈ R dalla scrittura stessa. Il Teorema 4.5 e il calcolo dell’intersezione dei due sottospazi vettoriali assicurano che tali valori sono unici.

Capitolo 4

4.3

149

Generatori, basi e dimensione

In questo paragrafo saranno ripetute, nel caso di un generico spazio vettoriale reale V, alcune definizioni e propriet`a gi`a enunciate nel caso particolare di V3 (cfr. Par. 3.4). Si e` scelto questo approccio da un lato perch´e si ritiene didatticamente utile iniziare lo studio di una teoria astratta e a volte ostica partendo dal caso, pi`u facile, dello spazio vettoriale V3 , dall’altro perch´e si e` deciso di non far sempre riferimento al Capitolo 3 per rendere i due capitoli indipendenti tra di loro e per non perdere la scansione logica del discorso.

4.3.1

Base di uno spazio vettoriale

Definizione 4.8 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, si dice che un vettore x ∈ V e` combinazione lineare dei vettori v1 , v2 , . . . , vk se esistono k numeri reali x1 , x2 , . . . xk tali che: x = x1 v 1 + x2 v 2 + . . . + xk v k . I numeri reali x1 , x2 , . . . , xk si dicono coefficienti della combinazione lineare. Fissati i vettori v1 , v2 , . . . , vk in V si vogliono considerare tutte le loro combinazioni lineari. Tale insieme indicato con: L(v1 , v2 , . . . , vk ), o con hv1 , v2 , . . . , vk i, in inglese prende il nome di span di v1 , v2 , . . . , vk , di cui {v1 , v2 , . . . , vk } e` il sistema (o insieme) di generatori. E` immediato dimostrare il seguente teorema. Teorema 4.7 L(v1 , v2 , . . . , vk ) e` un sottospazio vettoriale di V ed e` il pi`u piccolo sottospazio vettoriale di V contenente i vettori v1 , v2 , . . . , vk . Dimostrazione

E` un esercizio che segue dalla definizione di sottospazio vettoriale.

Osservazione 4.11 A differenza di ci`o che la notazione usata potrebbe far pensare, si osservi che le combinazioni lineari dei vettori v1 , v2 , . . . , vk non dipendono dall’ordine in cui si considerano i vettori v1 , v2 , . . . , vk , cio`e ad esempio: L(v1 , v2 , . . . , vk ) = L(v2 , v1 , . . . , vk ). E` consuetudine, infatti, usare le parentesi tonde per indicare questo sottospazio vettoriale anzich´e usare la notazione L{v1 , v2 , . . . , vk }, che sarebbe pi`u corretta dal punto di vista matematico.

150

Spazi Vettoriali e Sottospazi Vettoriali

Esempio 4.23 In R4 , dati i due vettori v1 = (1, 0, 0, 2) e v2 = (−1, 2, 0, 0) il piano vettoriale L(v1 , v2 ) e` un sottospazio vettoriale di R4 . Definizione 4.9 Sia V uno spazio vettoriale reale e siano v1 , v2 , . . . , vk vettori qualsiasi di V. Si dice che un sottospazio vettoriale W di V ammette come sistema di generatori l’insieme dei vettori {v1 , v2 , . . . , vk } se: W = L(v1 , v2 , . . . , vk ). Il teorema che segue, la cui dimostrazione e` un esercizio, permette di cambiare i generatori di un sottospazio vettoriale. Teorema 4.8 Dato W = L(v1 , v2 , . . . , vk ), si possono aggiungere o sostituire pi`u generatori di W con loro combinazioni lineari. Ad esempio, come conseguenza del teorema precedente, si ottiene: ˆ i , . . . , vk , vi + λvj ), W = L(v1 , v2 , . . . , vi , . . . , vk , λvl + µvm ) = L(v1 , v2 , . . . , v per ogni λ, µ ∈ R e per ogni l, m, i, j nell’insieme {1, 2, . . . , k} e dove con il simbolo ˆ i si indica che si e` tolto il vettore vi dall’elenco dei generatori di W. v Osservazione 4.12 Come immediata conseguenza del teorema precedente si ottiene anche che W = L(v1 , v2 , . . . , vk ) ammette infiniti generatori e quindi ha infiniti sistemi di generatori. Osservazione 4.13 Nell’Esempio 4.23 l’insieme {i, j} e` un sistema di generatori di L(i, j) ma anche {2i, 3i + 2j} e` un altro insieme di generatori di L(i, j) e cos`ı via, ma {i} non e` un sistema di generatori di L(i, j). Definizione 4.10 Uno spazio vettoriale reale V si dice finitamente generato se esistono m vettori v1 , v2 , . . . , vm di V per cui: L(v1 , v2 , . . . , vm ) = V. Analogamente, un sottospazio vettoriale W di uno spazio vettoriale reale V si dice finitamente generato se esistono k vettori v1 , v2 , . . . , vk tali che: L(v1 , v2 , . . . , vk ) = W.

Capitolo 4

151

Esempio 4.24 Lo spazio vettoriale dei numeri reali pu`o essere generato da un qualsiasi numero non nullo: R = L(1) = L(35) e quindi e` un esempio di spazio vettoriale reale finitamente generato. Analogamente, l’insieme dei numeri complessi C e` uno spazio vettoriale reale finitamente generato in quanto C = L(1, i), dove con i si indica l’unit`a immaginaria. D’altra parte C e` anche uno spazio vettoriale complesso finitamente generato perch´e, in questo caso, C = L(1). Esempio 4.25 Rn e` finitamente generato, per esempio: R3 = L((1, 0, 0), (0, 1, 0), (0, 0, 1)) = L((1, 2, 3), (2, 3, 0), (0, 0, 2), (4, 5, 6)). Esempio 4.26 R2,2 e` generato, per esempio, dalle matrici: 

1 0 0 0

 ,



0 1 0 0

 ,



0 0 1 0

 ,



0 0 0 1

 ,

ma anche dalle matrici:             2 0 0 4 0 0 0 0 0 0 7 −2 , , , , , . 0 0 0 0 −7 0 0 8 0 0 0 9 Osservazione 4.14 Si osservi che uno spazio vettoriale finitamente generato ammette un numero finito di generatori, ma ci`o non significa che ogni suo sistema di generatori debba avere un numero finito di elementi. Le combinazioni lineari dei vettori che si considereranno nel testo saranno sempre somme finite. Le somme infinite, ossia le serie ed i problemi di convergenza che ne scaturiscono, sono invece studiati in Analisi Funzionale (cfr. per esempio [20]). Esempio 4.27 Lo spazio vettoriale R[x] dei polinomi a coefficienti in R e` un esempio di spazio vettoriale reale non finitamente generato. Infatti, se p1 (x), p2 (x), . . . , pk (x) sono k polinomi e d e` il loro massimo grado, allora L(p1 (x), p2 (x), . . . , pk (x)) non contiene polinomi di grado maggiore a d e quindi L(p1 (x), p2 (x), . . . , pk (x)) ⊂ R[x], ma L(p1 (x), p2 (x), . . . , pk (x)) 6= R[x]. E` facile, invece, verificare che il sottospazio vettoriale Rn [x] dei polinomi di grado minore o uguale ad n e` finitamente generato: Rn [x] = L(1, x, x2 , . . . , xn ). Esempio 4.28 Nel Paragrafo 4.5 si dimostra che anche lo spazio vettoriale delle funzioni reali di variabile reale F(R) descritto nell’Esempio 4.5, non e` finitamente generato.

152

Spazi Vettoriali e Sottospazi Vettoriali

Esempio 4.29 Si consideri il sottospazio vettoriale di R3 : W = {(x1 , x2 , x3 ) ∈ R3 | 2x1 + 3x2 − x3 = x2 + x3 = 0} introdotto nell’Esercizio 4.1 e se ne determini un sistema di generatori. A tale scopo si deve risolvere il sistema lineare omogeneo che definisce W . Come descritto nel Paragrafo 1.2 si ottengono infinite soluzioni date da:   x1 = 2t x2 = −t  x3 = t, t ∈ R. In altri termini, il generico vettore di W e` del tipo (2t, −t, t) = t(2, −1, 1), t ∈ R, ossia (2, −1, 1) e` un generatore di W . In questo testo si studieranno solo spazi vettoriali finitamente generati, le definizioni e le propriet`a che seguono sono da considerarsi in questo contesto, anche se alcune di esse possono essere agevolmente riscritte nel caso di spazi vettoriali non finitamente generati, ma in tutto il testo non saranno mai discusse tali generalizzazioni. Per uno studio approfondito degli spazi vettoriali non finitamente generati si pu`o far riferimento a testi di base di Analisi Funzionale (ad esempio [20]). Poich´e si vuole enunciare la definizione rigorosa di dimensione di uno spazio vettoriale V (finitamente generato), sono riprese e riformulate, in un contesto pi`u generale, alcune definizioni e propriet`a gi`a studiate nel capitolo precedente nel caso particolare dello spazio vettoriale V3 . Definizione 4.11 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, essi si dicono linearmente indipendenti se l’unica loro combinazione lineare uguale al vettore nullo ha coefficienti tutti nulli, vale a dire: x1 v1 + x2 v2 + . . . + xk vk = o =⇒ x1 = x2 = . . . = xk = 0.

(4.1)

L’insieme {v1 , v2 , . . . , vk } di vettori linearmente indipendenti si dice libero. Di conseguenza, k vettori v1 , v2 , . . . , vk di V si dicono linearmente dipendenti se esiste almeno una loro combinazione lineare uguale al vettore nullo a coefficienti non tutti nulli. Osservazione 4.15 Si osservi che in (4.1) vale anche l’implicazione opposta. Prima di proporre alcuni esempi conviene dimostrare la seguente propriet`a, molto facile, ma utile per riconoscere vettori linearmente indipendenti o linearmente dipendenti.

Capitolo 4

153

Teorema 4.9 Dati k vettori v1 , v2 , . . . , vk di uno spazio vettoriale reale V, essi sono linearmente dipendenti se e solo se almeno uno di essi si pu`o esprimere come combinazione lineare dei rimanenti. Dimostrazione Si supponga che, per ipotesi, i vettori v1 , v2 , . . . , vk siano linearmente dipendenti, allora x1 v1 + x2 v2 + . . . + xk vk = o, con x1 6= 0 (se il coefficiente non nullo non fosse x1 si potrebbe commutare in modo da porre al primo posto il coefficiente non nullo), e` perci`o possibile ricavare: v1 = −

xk x2 v2 − . . . − vk x1 x1

da cui la tesi. Il viceversa e` lasciato per esercizio. La verifica degli esempi che seguono e` lasciata per esercizio. Esempio 4.30 Ogni insieme contenente un solo vettore I = {x} con x 6= o e` libero. Esempio 4.31 In V3 i vettori di una base ortonormale B = (i, j, k) sono linearmente indipendenti, lo stesso vale per ogni sottoinsieme non vuoto di B. Esempio 4.32 Se in un insieme di vettori I compare il vettore nullo, allora I non e` libero. L’insieme {o} non e` libero. Esempio 4.33 Se I e` un insieme libero di vettori, allora ogni sottoinsieme non vuoto di I e` libero. Esempio 4.34 Se I e` un insieme di vettori linearmente dipendenti allora ogni insieme che contiene I e` formato da vettori linearmente dipendenti. La definizione che segue estende la nozione di base gi`a data nel capitolo precedente nel caso particolare dello spazio vettoriale V3 (cfr. Def. 3.7). Definizione 4.12 Sia V uno spazio vettoriale reale, un insieme finito e ordinato di vettori B = (v1 ,v2 ,. . .,vn ) di V prende il nome di base di V se: 1. B e` un insieme libero, 2. B e` un sistema di generatori di V, ossia L(B) = V. Osservazione 4.16 Si vedr`a che sar`a fondamentale l’ordine in cui sono considerati i vettori di una base.

Spazi Vettoriali e Sottospazi Vettoriali

154

Esempio 4.35 1. Una base ortonormale positiva B = (i, j, k) e` un esempio di base di V3 , in quanto verifica la definizione appena enunciata. 2. In Rn una base e` data da B = (e1 , e2 , . . . en ), dove: e1 = (1, 0, . . . , 0),

e2 = (0, 1, . . . , 0),

...,

en = (0, 0, . . . , 1).

Questa base particolare, molto naturale, prende il nome di base standard o base canonica di Rn . Per esempio, nel caso particolare di R4 si ha che la quaterna: (1, 2, 3, 4) si scrive come 1e1 + 2e2 + 3e3 + 4e4 , da cui la giustificazione della particolare denominazione usata. Sempre in R4 se si considera, invece, la base B 0 = (f1 , f2 , f3 , f4 ), dove: f1 = (2, 0, 0, 0),

f2 = (0, 3, 0, 0),

si ha: (1, 2, 3, 4) =

f3 = (0, 0, 1, 0),

f4 = (0, 0, 0, 4),

1 2 f1 + f2 + 3f3 + 1f4 2 3

che e` una decomposizione dello stesso vettore (1, 2, 3, 4) molto meno naturale della precedente. 3. Analogamente al caso di Rn , la base canonica dello spazio vettoriale delle matrici Rm,n e` formata, ordinatamente, dalle mn matrici Eij aventi il numero 1 al posto ij e 0 per ogni altro elemento. Nel caso particolare di R2,3 la base canonica e` formata dalle 6 matrici seguenti:  E11 =  E21 =

1 0 0 0 0 0

 ,

0 0 0 1 0 0

 ,

 E12 =  E22 =

0 1 0 0 0 0

 ,

0 0 0 0 1 0

 ,



0 0 1 0 0 0

 ,



0 0 0 0 0 1

 ;

E13 =

E23 =

quindi: 

1 2 3 4 5 6

 = E11 + 2E12 + 3E13 + 4E21 + 5E22 + 6E23 .

4. In Rn [x] una base e` data dall’insieme B = (1, x, x2 , . . . , xn ). Il teorema che segue caratterizza le basi di uno spazio vettoriale.

Capitolo 4

155

Teorema 4.10 1. Sia B = (v1 , v2 , . . . , vn ) una base dello spazio vettoriale reale V, allora ogni vettore x di V si decompone in modo unico come: x = x1 v 1 + x2 v 2 + . . . + xn v n ,

(4.2)

con (x1 , x2 , . . . , xn ) ∈ Rn . 2. Se {v1 , v2 , . . . , vn } e` un insieme di vettori di V tale che ogni vettore x di V si decomponga in modo unico rispetto a tali vettori come in (4.2), allora l’insieme {v1 , v2 , . . . , vn } e` una base di V. La dimostrazione e` lasciata per esercizio. Il teorema appena enunciato conduce alla definizione di componenti di un vettore rispetto ad una base assegnata, nel modo seguente. Definizione 4.13 Sia V uno spazio vettoriale di dimensione n. Fissata una base B = (v1 , v2 , . . . , vn ) in V, per ogni vettore x di V i numeri reali x1 , x2 , . . . , xn individuati univocamente da (4.2), si dicono componenti di x rispetto alla base B. Osservazione 4.17 Fissata una base B in uno spazio vettoriale V, con un abuso di linguaggio volto ad enfatizzare l’ordine delle componenti, si scriver`a che la n-upla di Rn (x1 , x2 , . . . , xn ) indica le componenti di x rispetto alla base B. In modo equivalente, ogni vettore x di V si individua, rispetto alla base B, con la matrice colonna X ∈ Rn,1 data da:   x1  x2    X =  .. .  .  xn Osservazione 4.18 Fissata una base B colonne delle componenti, rispetto a B,  x1  x2  X =  ..  . xn

in V, dati due vettori x e y di V le cui matrici sono:    y1   y2     , Y =  .. ,   .  yn

il vettore x + y ha componenti, rispetto a B:    X +Y = 

x1 + y 1 x2 + y 2 .. . xn + y n

    

156

Spazi Vettoriali e Sottospazi Vettoriali

e il vettore λx (λ ∈ R) ha componenti, rispetto a B:   λx1  λx2    λX =  .. .  .  λxn Si osservi, inoltre, l’assoluta coerenza tra le definizioni di somma di matrici e somma di vettori e tra prodotto di un numero reale per una matrice e prodotto di un numero reale per un vettore. Dalla definizione di base di uno spazio vettoriale e dal Teorema 4.10 emergono in modo naturale le seguenti domande: 1. in ogni spazio vettoriale esiste sempre almeno una base? 2. In caso affermativo, in uno spazio vettoriale quante basi esistono? 3. Nel caso in cui esistano molte basi in uno spazio vettoriale, quanti vettori contengono ciascuna? Nel caso particolare degli spazi vettoriali dei vettori ordinari V3 , V2 e V1 , aiutati dalla visualizzazione geometrica, si conoscono gi`a le risposte alle precedenti domande (cfr. Teor. 3.4); i teoremi che seguono permettono di dare analoghe risposte nel caso particolare degli spazi vettoriali finitamente generati, quali, ad esempio Rn e lo spazio delle matrici Rm,n (cfr. Es. 4.35). Si enunciano ora uno di seguito all’altro i teoremi che caratterizzano la struttura degli spazi vettoriali, anteponendo il commento e le loro conseguenze alle loro dimostrazioni. Teorema 4.11 – Teorema di esistenza di una base – Sia V uno spazio vettoriale reale finitamente generato e sia G = {w1 , w2 , . . . , wm } un sistema di generatori di V. L’insieme G contiene almeno una base di V. Osservazione 4.19 Dal teorema precedente e dall’Osservazione 4.12 segue che, essendo possibile ottenere infiniti sistemi di generatori di V a partire da G , esistono infinite basi in uno spazio vettoriale finitamente generato. Teorema 4.12 – Lemma di Steinitz – Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio vettoriale reale V e sia I = {u1 , u2 , . . . , up } un insieme libero di V, allora p ≤ n. Teorema 4.13 – Teorema della dimensione – Tutte le basi di uno spazio vettoriale reale V finitamente generato hanno lo stesso numero di vettori.

Capitolo 4

157

Definizione 4.14 In uno spazio vettoriale reale V finitamente generato il numero dei vettori appartenenti ad una base prende il nome di dimensione di V e si indica con dim(V ). Se V e` formato dal solo vettore nullo V = {o}, si pone dim({o}) = 0. Dai teoremi elencati si ottiene in modo evidente il seguente teorema. Teorema 4.14 Sia W un sottospazio vettoriale di uno spazio vettoriale reale V, allora: 1. se lo spazio vettoriale V e` finitamente generato anche W e` finitamente generato. 2. dim(W) ≤ dim(V ). 3. dim(W) = dim(V ) ⇐⇒ W = V. Esempio 4.36 Segue dall’Esempio 4.35 che: • dim(Rn ) = n. • dim(Rm,n ) = mn. • dim(Rn [x]) = n + 1. Per dimostrare il Teorema 4.11 e` necessario anteporre il seguente lemma tecnico. Lemma 4.1 Sia I = {a1 , a2 , . . . , ak } un insieme libero di V. Sia x ∈ V un vettore che non e` combinazione lineare dei vettori di I , allora l’insieme I ∪ {x} e` libero in V. Dimostrazione

Si procede per assurdo, i dettagli sono lasciati al Lettore.

Dimostrazione del Teorema 4.11 La dimostrazione consiste in un numero finito di passi applicati all’insieme G , procedimento autorizzato dal fatto che G e` finito. Si inizia supponendo che ogni vettore di G sia diverso dal vettore nullo, in caso contrario si toglie il vettore nullo da G . Primo passo: si considerano l’insieme I1 = {w1 } e i vettori rimanenti wi , i = 2, . . . , m. Se ogni vettore wi e` linearmente dipendente da w1 , ossia se esistono numeri reali λi tali che wi = λi w1 , i = 2, . . . , m, allora I1 e` una base di V e il teorema e` dimostrato. In caso contrario si considera il primo vettore di G che non verifica questa condizione. Sia, per esempio w2 ∈ / L(w1 ), si procede con il: secondo passo: si considera l’insieme libero (cfr. Lemma 4.1) I2 = {w1 , w2 }. Si presentano due possibilit`a: o ogni vettore rimanente in G e` combinazione lineare dei vettori

158

Spazi Vettoriali e Sottospazi Vettoriali

di I2 , allora I2 e` una base di V (quindi segue la tesi), oppure esiste almeno un vettore di G che non e` combinazione lineare dei vettori di I2 , si suppone che sia w3 ; in questo caso si procede con il: terzo passo: si considera l’insieme libero (cfr. Lemma 4.1) I3 = {w1 , w2 , w3 } e si procede come nel secondo passo. Il procedimento termina dopo un numero finito di passi, al pi`u m. Si e` cos`ı costruita una base di V a partire dal primo vettore w1 di G . E` evidente che procedendo con lo stesso metodo a partire da un altro vettore di G o da un’altro insieme di generatori di V si ottengono infinite basi. Osservazione 4.20 Il metodo descritto nella dimostrazione precedente prende il nome di metodo degli scarti successivi per il procedimento di calcolo che prevede. Esercizio 4.5 In A(R3,3 ), sottospazio vettoriale di R3,3 delle matrici antisimmetriche, si consideri l’insieme G = {A1 , A2 , A3 , A4 , A5 , A6 , A7 } con:     0 1 2 0 0 1 0 3 , A2 =  0 0 −1 , A1 =  −1 −2 −3 0 −1 1 0 

 0 5 , 0



 2 0 , 0



 5 1 0 −2 . 2 0

0 0  0 0 A3 = 0 −5



0  0 A4 = 0

0 0 0

 0 0 , 0 (4.3)

0 −1  1 0 A5 = −2 0 0 A7 =  −5 −1



 0 1 −1 0 4 , A6 =  −1 1 −4 0

Si dimostri che G e` un insieme di generatori di A(R3,3 ) e se ne estragga una base. Soluzione

Per rispondere al primo quesito si deve esprimere la generica matrice:   0 a12 a13 0 a23  A =  −a12 (4.4) −a13 −a23 0

di A(R3,3 ) come combinazione lineare: A = λ1 A1 + λ2 A2 + λ3 A3 + λ4 A4 + λ5 A5 + λ6 A6 + λ7 A7

(4.5)

Capitolo 4

159

degli elementi di G . Sostituendo in (4.5) le matrici (4.3) e (4.4) prima indicate, si perviene al sistema lineare nelle incognite λi , i = 1, 2, . . . , 7:   λ1 − λ5 + λ6 + 5λ7 = a12 , 2λ1 + λ2 + 2λ5 − λ6 + λ7 = a13 ,  3λ1 − λ2 + 5λ3 + 4λ6 − 2λ7 = a23 , le cui soluzioni sono lasciate da determinare al Lettore per esercizio. Per estrarre una base da G si procede come nella dimostrazione del Teorema 4.11, si ha: primo passo: sia I1 = {A1 }. Si verifica subito che {A1 , A2 } e` un insieme libero in A(R3,3 ), si passa quindi al: secondo passo: sia I2 = {A1 , A2 }. Si verifica che {A1 , A2 , A3 } e` un insieme libero, si procede, quindi, con il: terzo passo: sia I3 = {A1 , A2 , A3 }. Si verifica che ogni altro vettore di G e` combinazione lineare di I3 , si deduce, cos`ı che I3 e` una base di A(R3,3 ). Tutte le verifiche sono lasciate al Lettore per esercizio. Per la dimostrazione del Teorema 4.12 si rimanda al Paragrafo 4.5. Dimostrazione del Teorema 4.13 Siano B = (v1 , v2 , . . . , vn ) e C = (w1 , w2 , . . . , wm ) due basi di V, si tratta di dimostrare che n = m. Si consideri B base di V e C insieme libero di V , dal Teorema 4.12 segue che m ≤ n, invertendo i ruoli di B e di C si perviene alla tesi. Osservazione 4.21 Si osservi l’importanza dell’ordine dei vettori della base che si riflette sull’ordine delle componenti dei vettori. In altri termini, mentre lo spazio vettoriale V si pu`o scrivere indifferentemente come: V = L(v1 , v2 , . . . , vn ) = L(v2 , v1 , . . . , vn ), la base B = (v1 , v2 , . . . , vn ) e` diversa dalla base B 0 = (v2 , v1 , . . . , vn ). Come cambiano le componenti dei vettori di V quando sono scritti rispetto alla base B e alla base B 0 ? Esempio 4.37 1. A partire dalla scrittura di una matrice diagonale si verifica facilmente che dim(D(Rn,n )) e` n. Una sua base e` formata ordinatamente dalle matrici Eii , i = 1, 2, . . . , n, definite nell’Esempio 4.35. 2. A partire dalla scrittura di una matrice triangolare superiore, si verifica facilmente che dim(T (Rn,n )) = n(n+1)/2 e una sua base e` data, ordinatamente, dalle matrici Eij con 1 ≤ i ≤ j ≤ n definite nell’Esempio 4.35.

Spazi Vettoriali e Sottospazi Vettoriali

160

3. A partire dalla scrittura di una matrice simmetrica si verifica facilmente che:

e una sua base e` :  1 0  0 0   .. ..  . . 0 0     

... ... .. .

0 0 .. .

dim(S(Rn,n )) =

n(n + 1) 2



0 0 .. .

0 1 .. .

1 ... 0 ... .. . . . . 0 0 ...

  ,  

... 0

0 0 .. .

0 ... 1 ... .. . . . . 0 0 ...





0 ...   .. . .   . , . . . ,  .   0 ... 0 0 ...

0 0 .. .





    , . . . ,   

0  0 ..    .  ,  0 1  1 0 0 .. .

0 0 .. .

0 ... 0 ... .. . . . . 1 0 ...

0 0 .. .

0 ... 0 ... .. . . . . 0 0 ...

1 0 .. .

   , 

0 0 0 .. .

   . 

1

4. A partire dalla scrittura di una matrice antisimmetrica si verifica facilmente che: dim(A(Rn,n )) = e una sua base e` :  0 1 0 ...  −1 0 0 . . .   0 0 0 . . .   .. .. .. . .  . . . . 0

0 0 0 .. .

0 0 ... 0

    ,   

0 0 −1 .. . 0

0 0 0 .. .

1 0 0 .. .

... ... ... .. .

n(n − 1) 2

0 0 0 .. .





      , . . . ,     

0 0 ... 0

0 0 .. .

0 ... 0 0 ... 0 .. . . . . .. . 0 0 ... 0 0 0 . . . −1

0 0 .. .



   .  1  0

Si conclude con l’enunciato di un teorema che sar`a molto usato nel testo. Teorema 4.15 – Teorema del completamento della base – Sia V uno spazio vettoriale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Dato l’insieme libero: I = {a1 , a2 , . . . , ak },

k ≤ n,

esiste una base B 0 di V contenente tutti i vettori di I e n − k vettori di B. Dimostrazione Si consideri l’insieme A = I ∪ B, poich´e A contiene una base, allora V = L(A). Si applichi il Teorema 4.11 ad A partendo dai vettori di I , segue cos`ı la tesi.

Capitolo 4

161

Esercizio 4.6 Nel sottospazio vettoriale S(R3,3 ) delle matrici simmetriche di ordine 3 completare l’insieme libero I = {I1 , I2 , I3 }, con:       1 2 0 1 0 0 0 1 −1 0  I1 =  2 0 0 , I2 =  0 −1 0 , I3 =  1 0 0 0 0 0 0 1 −1 0 0 fino ad ottenere una base di S(R3,3 ). Si consideri la base di S(R3,3 ) contenente ordinatamente le matrici:       1 0 0 0 1 0 0 0 1 A1 =  0 0 0 , A2 =  1 0 0 , A3 =  0 0 0 , 0 0 0 0 0 0 1 0 0

Soluzione



 0 0 0 A4 =  0 1 0 , 0 0 0



 0 0 0 A5 =  0 0 1 , 0 1 0



 0 0 0 A6 =  0 0 0 , 0 0 1

allora si possono riscrivere (per comodit`a di calcolo) i vettori di I tramite le loro componenti rispetto alla base B. Si ha: I1 = (1, 2, 0, 0, 0, 0),

I2 = (1, 0, 0, −1, 0, 1),

I3 = (0, 1, −1, 0, 0, 0).

Si applica il Teorema 4.11 all’insieme di generatori: G = {I1 , I2 , I3 , A1 , A2 , A3 , A4 , A5 , A6 } partendo dagli elementi di I . Si ottiene che (I1 , I2 , I3 , A1 , A4 , A5 ) e` una base di S(R3,3 ). I dettagli di calcolo sono lasciati al Lettore. Nel caso di uno spazio vettoriale di dimensione n, come corollario dei teoremi precedenti si pu`o agevolmente dimostrare il seguente teorema. Teorema 4.16 1. Sia V uno spazio vettoriale reale di dimensione n. Un insieme libero I = {v1 , v2 , . . . , vn } di n vettori di V e` una base di V. 2. Sia V uno spazio vettoriale reale di dimensione n. Un sistema di generatori I = {v1 , v2 , . . . , vn } di n vettori di V e` una base di V. Dimostrazione 1. L(v1 , v2 , . . . , vn ) e` un sottospazio vettoriale di V di dimensione n, quindi per la propriet`a 3. del Teorema 4.14 si ha L(v1 , v2 , . . . , vn ) = V. Pertanto

Spazi Vettoriali e Sottospazi Vettoriali

162

v1 , v2 , . . . , vn sono generatori di V. 2. Per ipotesi L(v1 , v2 , . . . , vn ) = V e dim(V ) = n. Applicando il Teorema 4.11 al sistema di generatori {v1 , v2 , . . . , vn } di V si pu`o estrarre da esso una base di V, ma, essendo dim(V ) = n, l’insieme {v1 , v2 , . . . , vn } e` una base di V. Osservazione 4.22 Mediante il Teorema del Completamento della Base (cfr. Teor. 4.15) si pu`o agevolmente determinare un sottospazio vettoriale supplementare di un sottospazio vettoriale W di uno spazio vettoriale V. Se dim(V ) = n e se (a1 , a2 , . . . , ak ) e` una base di W, (k < n), allora si perviene ad un sottospazio vettoriale supplementare di W completando l’insieme libero (a1 , a2 , . . . , ak ) fino ad ottenere una base di V, data per esempio da: (a1 , a2 , . . . , ak , b1 , b2 , . . . , bn−k ). Infatti: L(a1 , a2 , . . . , ak ) ∩ L(b1 , b2 , . . . , bn−k ) = {o} e L(b1 , b2 , . . . , bn−k ) e` un sottospazio vettoriale di V supplementare di W . Un esempio di quanto osservato sar`a trattato nell’Esercizio 4.12.

4.3.2

Basi e somma diretta

Sia V uno spazio vettoriale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base, allora: V = L(v1 ) ⊕ L(v2 ) ⊕ . . . ⊕ L(vn ), oppure, per esempio: V = L(v1 , v2 ) ⊕ L(v3 , v4 , v5 ) ⊕ . . . ⊕ L(vn−1 , vn ). Inoltre segue in modo evidente dalla definizione di somma di due o pi`u sottospazi vettoriali dello spazio vettoriale V che essa e` generata dall’unione dei medesimi, nel senso che i vettori del sottospazio vettoriale somma sono combinazioni lineari dei vettori dei sottospazi vettoriali addendi. Alla luce di queste considerazioni, il teorema che segue indica un metodo per determinare una base dello spazio vettoriale V (o pi`u in generale di un sottospazio vettoriale W di V ) a partire dalle basi dei sottospazi vettoriali in cui V (o W) si decompone. Teorema 4.17 Si supponga che lo spazio vettoriale reale V sia decomposto nella somma diretta di k suoi sottospazi vettoriali: V = W1 ⊕ W2 ⊕ . . . ⊕ Wk ,

Capitolo 4

163

allora e` possibile formare una base di V mediante l’unione dei vettori appartenenti ad una base di ciascuno dei sottospazi vettoriali Wi , i = 1, 2, . . . , k . Dimostrazione Siano dim(W1 ) = n1 , dim(W2 ) = n2 , . . . , dim(Wk ) = nk le dimensioni dei sottospazi vettoriali considerati e siano B1 = (a11 , a12 , . . . , a1n1 ) una base di W1 , B2 = (a21 , a22 , . . . , a2n2 ) una base di W2 e cos`ı via fino a Bk = (ak1 , ak2 , . . . , aknk ) base di Wk . Per definizione di somma diretta e di base, ogni vettore di V si scrive in modo unico come combinazione lineare dei vettori delle basi dei sottospazi vettoriali Wi , i = 1, 2, . . . , k. Pertanto, l’insieme di vettori: B1 ∪ B2 ∪ . . . ∪ Bk = {a11 , a12 , . . . , a1n1 , a21 , a22 , . . . , a2n2 , . . . , ak1 , ak2 , . . . , aknk } e` una base dello spazio vettoriale V. Dal teorema precedente si ottiene il corollario di seguito enunciato. Corollario 4.1 Se W = W1 ⊕ W2 ⊕ . . . ⊕ Wk , allora: dim(W) = dim(W1 ) + dim(W2 ) + . . . + dim(Wk ). Esercizio 4.7 Vale il viceversa del Corollario 4.1? Osservazione 4.23 Come immediata conseguenza del Corollario 4.1 segue che, dato un sottospazio vettoriale W di V con dim(V ) = n e dim(W) = k , k < n, un suo supplementare W 0 (tale che W ⊕ W 0 = V ) ha dimensione n − k . Una base di W 0 pu`o essere formata dai vettori che si aggiungono ad una base di W per ottenere una base di V (cfr. Oss. 4.22). Si ottiene, quindi, che esistono infiniti sottospazi vettoriali supplementari di W , supponendo ovviamente che W = 6 V eW= 6 {o}. Nel caso della somma di due sottospazi vettoriali e` utile conoscere la formula che mette in relazione le loro dimensioni con le dimensioni della loro intersezione e della loro somma, per la dimostrazione si veda il Paragrafo 4.5. Teorema 4.18 – Formula di Grassmann – Siano W1 e W2 due sottospazi vettoriali di uno spazio vettoriale V, allora: dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ). Esercizio 4.8 In R5 si consideri il sottospazio vettoriale: W = {(x1 , x2 , x3 , x4 , x5 ) ∈ R5 | x1 + x2 + 2x3 + x4 − x5 = 0}.

Spazi Vettoriali e Sottospazi Vettoriali

164

1. Si decomponga W nella somma diretta di due sottospazi vettoriali W1 e W2 . 2. Si scriva il vettore (−5, 2, −1, 3, −2) di W come somma di un vettore di W1 e di un vettore di W2 . Soluzione

1. Per esempio si controlla che i sottospazi vettoriali: W1 = L((−1, 1, 0, 0, 0), (−2, 0, 1, 0, 0)), W2 = L((−1, 0, 0, 1, 0), (1, 0, 0, 0, 1)),

verificano la condizione richiesta, infatti la loro intersezione si riduce al vettore nullo e la loro somma riproduce W. Quante sono le risposte possibili? Si provi ad elencarne almeno due diverse. 2. Dal calcolo diretto si ha: (−5, 2, −1, 3, −2) = (0, 2, −1, 0, 0) + (−5, 0, 0, 3, −2). Esercizio 4.9 In R2,2 si considerino i sottospazi vettoriali:    x1 x2 2,2 ∈ R | x 1 + x4 = x2 + x3 = 0 , W1 = x3 x4  W2 =

x1 x2 x3 x4



2,2

∈R

 | x1 − x4 = x2 − x3 = 0 .

Dimostrare che W1 ⊕ W2 = R2,2 . Soluzione Per l’intersezione W1 ∩ W2 e` sufficiente osservare che la matrice dei coefficienti del sistema lineare omogeneo:  x1 + x4 = 0    x2 + x3 = 0 x1 − x4 = 0    x2 − x3 = 0 ha determinante non nullo. Rimane da dimostrare che W1 ⊕ W2 = R2,2 . Si ottiene facilmente che una generica matrice di R2,2 si pu`o scrivere come:       1 x1 + x4 x2 + x3 1 x1 − x4 x2 − x3 x1 x2 + = x3 x4 2 −x2 + x3 −x1 + x4 2 x2 + x3 x1 + x4 e ci`o prova la decomposizione (unica) di un vettore di R2,2 nella somma di due vettori di W1 e W2 , rispettivamente.

Capitolo 4

165

Esercizio 4.10 In R3,3 si considerino i sottospazi vettoriali:     0 a b  W1 =  0 0 c  ∈ R3,3 | a, b, c ∈ R ,   0 0 0 W2 = D(R3,3 ),     x1 0 0  3,3   x2 x3 0 W3 = ∈ R | 2x1 − x3 = x1 + 3x3 = 0 .   x4 x5 0 Dimostrare che W1 ⊕ W2 ⊕ W3 = R3,3 . Soluzione Si pu`o verificare direttamente che ogni vettore di R3,3 si decompone in modo unico come somma di un vettore di W1 insieme con un vettore di W2 insieme con un vettore di W3 . Esercizio 4.11 In R3 [x] si consideri il sottospazio vettoriale W dei polinomi aventi una radice uguale a 2. 1. Decomporre W nella somma diretta di due sottospazi vettoriali W1 e W2 . 2. Scrivere il polinomio −4 − 2x + x3 di W come somma di un polinomio di W1 e di un polinomio di W2 . Soluzione 1. Dal Teorema di Ruffini sui polinomi, si ha che ogni polinomio di W si scrive come: p(x) = (x − 2)(a0 + a1 x + a2 x2 ),

a0 , a1 , a2 ∈ R,

quindi W = L(−2 + x, (−2 + x)x, (−2 + x)x2 ) e dim(W) = 3. Ad esempio si pu`o porre W = W1 ⊕ W2 , con: W1 = L(−2 + x, (−2 + x)x),

W2 = L((−2 + x)x2 ).

2. Si devono trovare i numeri reali λi , i = 1, 2, 3, tali che: −4 − 2x + x3 = λ1 (−2 + x) + λ2 (−2 + x)x + λ3 (−2 + x)x2 . Dall’uguaglianza dei coefficienti dei monomi di grado uguale segue: λ1 = 2,

λ2 = 2,

λ3 = 1.

Pertanto −4 − 2x + x3 = p1 (x) + p2 (x), con p1 (x) = −4 − 2x + 2x2 ∈ W1 e p2 (x) = −2x2 + x3 ∈ W2 .

166

Spazi Vettoriali e Sottospazi Vettoriali

Esercizio 4.12 Dato il sottospazio vettoriale H di R4 definito da: H = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 + x2 + x4 = x3 = 0}, si determinino due sottospazi vettoriali diversi entrambi supplementari di H in R4 . Soluzione Risolvendo il sistema lineare omogeneo che definisce H si ottiene che un generico vettore di H e` del tipo (t1 , t2 , 0, −t1 − t2 ) con t1 , t2 ∈ R da cui segue che dim(H) = 2 ed i vettori a1 = (1, 0, 0, −1), a2 = (0, 1, 0, −1) formano una base di H. Si verifica facilmente (usando il metodo degli scarti successivi descritto nella dimostrazione del Teorema 4.11) che, ad esempio, (a1 , a2 , e1 , e3 ), con e1 = (1, 0, 0, 0) e e3 = (0, 0, 1, 0), e` una base di R4 , ovvero che H⊕L(e1 , e3 ) = R4 . Quindi un sottospazio vettoriale supplementare di H in R4 e` K1 = L(e1 , e3 ). Con un procedimento analogo si verifica che, ad esempio, (a1 , a2 , e3 , e4 ), con e4 = (0, 0, 0, 1), e` un’altra base di R4 . Si pu`o allora definire un altro sottospazio vettoriale, diverso dal precedente, supplementare di H in R4 , dato da K2 = L(e3 , e4 ). Osservazione 4.24 Nel paragrafo seguente si introdurr`a il concetto di rango di una matrice che permetter`a di risolvere gli esercizi proposti in questo paragrafo in un altro modo, a volte pi`u rapido.

4.3.3

Rango di una matrice

In questo paragrafo verr`a introdotta la definizione formale di rango di una matrice, mentre la Definizione 1.10 inserita nel Capitolo 1 ne costituisce un metodo di calcolo. Sia A = (aij ) ∈ Rm,n una matrice di m righe e n colonne, le cui righe sono date dai vettori: R1 = (a11 , a12 , . . . , a1n ), R2 = (a21 , a22 , . . . , a2n ), .. . Rm = (am1 , am2 , . . . , amn ). I vettori Ri ∈ Rn , i = 1, 2, . . . , m, prendono il nome di vettori riga della matrice A ed il sottospazio vettoriale: R(A) = L(R1 , R2 , . . . , Rm ) e` lo spazio vettoriale delle righe di A. Per costruzione R(A) e` un sottospazio vettoriale di Rn , ed avendo m generatori, la sua dimensione sar`a al pi`u pari al minore tra i numeri m ed n.

Capitolo 4

167

Si ripete lo stesso discorso per le colonne di A. Siano: C1 = (a11 , a21 , . . . , am1 ), C2 = (a12 , a22 , . . . , am2 ), .. . Cn = (a1n , a2n , . . . , amn ) i vettori colonna di A. Il sottospazio vettoriale: C(A) = L(C1 , C2 , . . . , Cn ) e` lo spazio vettoriale delle colonne di A. Per costruzione C(A) e` un sottospazio vettoriale di Rm , ed avendo n generatori la sua dimensione sar`a al pi`u pari al minore tra i numeri m ed n. Osservazione 4.25 1. Per una matrice A ∈ Rm,n lo spazio vettoriale delle righe R(A) e` un sottospazio vettoriale di Rn , mentre lo spazio vettoriale delle colonne C(A) e` un sottospazio vettoriale di Rm , quindi R(A) e C(A) sono, in generale, spazi vettoriali diversi. Se m 6= n, R(A) e C(A) sono sempre spazi vettoriali diversi. 2. Se A e` una matrice qualsiasi di Rm,n , allora R(tA) = C(A), C(tA) = R(A), dove t A indica la trasposta della matrice A. Se A ∈ Rn,n e` una matrice simmetrica, allora R(A) = C(A). Se A ∈ Rn,n e` una matrice antisimmetrica, allora R(−A) = R(A) = C(A). Vale il seguente teorema. Teorema 4.19 – Teorema del Rango – Per ogni matrice A ∈ Rm,n si ha: dim(R(A)) = dim(C(A)). Nel Paragrafo 4.5 si propone una dimostrazione di questo teorema, ma si dovr`a aspettare il Capitolo 6 per una dimostrazione alternativa, molto pi`u sintetica. Il teorema appena enunciato giustifica la seguente fondamentale definizione. Definizione 4.15 Si definisce rango di una matrice A ∈ Rm,n (e lo si indica con rank(A)) la dimensione dello spazio vettoriale delle righe (o delle colonne) di A: rank(A) = dim(R(A)) = dim(C(A)).

168

Spazi Vettoriali e Sottospazi Vettoriali

Osservazione 4.26 Come conseguenza immediata del precedente teorema si ha anche che: rank(A) = rank( tA), A ∈ Rm,n , e che rank(A) e` minore o uguale del minimo tra m e n. Le propriet`a che seguono sono volte a dimostrare che la definizione di rango di una matrice, appena enunciata, coincide con la Definizione 1.10 data nel Capitolo 1. Si procede come segue. 1. Sia A una matrice ridotta per righe, si dimostrer`a che il numero delle righe non nulle di A coincide con la dimensione dello spazio vettoriale delle righe di A. 2. Si dimostrer`a, inoltre, che il processo di riduzione di una matrice per righe descritto nel Paragrafo 1.2 lascia invariata la dimensione dello spazio vettoriale delle righe di A, pur cambiando la matrice A. 3. A corretta conclusione, si devono aggiungere la definizione di matrice ridotta per colonne e il procedimento di riduzione per colonne. Teorema 4.20 Se A ∈ Rm,n e` una matrice ridotta per righe, la Definizione 1.9 del Capitolo 1 coincide con la Definizione 4.15. Pertanto la definizione di rango di una matrice e` formulata in modo corretto. Dimostrazione Poich´e ogni matrice ridotta per righe pu`o essere trasformata in una matrice triangolare superiore mediante l’applicazione delle tre operazioni di riduzione sulle righe senza alterarne il numero di righe non nulle (cfr. la dimostrazione del Teorema 2.13), si pu`o supporre che una matrice ridotta per righe A ∈ Rm,n con k righe non nulle sia del tipo seguente:   a11 a12 . . . . . . . . . a1n  0 a22 . . . . . . . . . a2n   . ..  ...  .  . .      0 . . . 0 akk . . . akn ,   0   0 ... 0 ... 0  . .. .. ..   .. . . .  0 ... 0 ... 0 0 con a11 a22 . . . akk 6= 0. Si tratta ora di dimostrare che il numero k delle righe non nulle di A coincide con dim(R(A)), cio`e che le prime k righe di A sono linearmente indipendenti in Rn . Il risultato e` quasi ovvio ed e` la conseguenza della particolare posizione delle componenti nulle nelle righe di A. Infatti, dall’equazione: λ1 R1 + λ2 R2 + . . . + λk Rk = o

Capitolo 4

169

nelle incognite λ1 , λ2 , . . . , λk , con: R1 = (a11 , a12 , . . . , a1n ), R2 = (0, a22 , . . . , a2n ), .. . Rk = (0, . . . , 0, akk , . . . , akn ) e o ∈ Rn , si ottiene un sistema lineare omogeneo la cui prima equazione e` : λ1 a11 = 0; ma a11 6= 0 allora λ1 = 0. Sostituendo questo risultato nella seconda equazione: λ1 a12 + λ2 a22 = 0 si ottiene λ2 = 0 e cos`ı via, da cui segue che le righe non nulle della matrice A ridotta per righe sono linearmente indipendenti. Teorema 4.21 Le operazioni consentite per ridurre una matrice A ∈ Rm,n per righe non cambiano la dimensione dello spazio vettoriale delle righe di A. Dimostrazione Si ricordino le operazioni, descritte nel Paragrafo 1.2, consentite per ridurre per righe una matrice, e precisamente: 1. Ri ←→ Rj ; 2. Ri −→ λRi , λ ∈ R, λ 6= 0; 3. Ri −→ Ri + λRj , λ ∈ R, i 6= j. Il teorema segue allora in modo evidente dal Teorema 4.8. Si pu`o ripetere il procedimento di riduzione di una matrice sulle colonne, di conseguenza, dopo aver ridotto per colonne la matrice, il suo rango sar`a dato dal numero di colonne non nulle. Pi`u precisamente si pu`o enunciare la seguente definizione. Definizione 4.16 Una matrice A si dice ridotta per colonne se in ogni sua colonna non nulla esiste un elemento non nullo a destra del quale ci sono tutti zeri. Esempio 4.38 La matrice seguente e` ridotta per colonne:   1 0 0  1 1 0   A=  2 3 4 . 5 6 7

170

Spazi Vettoriali e Sottospazi Vettoriali

Teorema 4.22 Il rango di una matrice A (inteso come la dimensione dello spazio vettoriale delle colonne di A) si calcola riducendo la matrice A per colonne, in altri termini eseguendo sulle colonne, un numero finito di volte, le operazioni seguenti: 1. Ci ←→ Cj : scambiare tra di loro due colonne; 2. Ci −→ λCi , λ ∈ R, λ 6= 0 : moltiplicare tutti gli elementi di una colonna per un numero reale non nullo; 3. Ci −→ Ci + λCj , λ ∈ R, i 6= j : sostituire ad una colonna una combinazione lineare di se stessa con una colonna parallela e poi contando il numero di colonne non nulle della matrice ridotta per colonne ottenuta. La dimostrazione e` un evidente esercizio. Osservazione 4.27 Riducendo per righe una matrice A non cambia lo spazio vettoriale R(A), anche se si ottengono matrici ridotte per righe tra di loro diverse. Riducendo per righe una matrice A non cambia dim(C(A)) ma cambia invece lo spazio vettoriale C(A). Analogamente, riducendo per colonne la matrice A non cambia dim(R(A)) ma cambia R(A). In particolare, si osservi che riducendo per colonne la matrice completa di una sistema lineare non si ottiene un sistema lineare equivalente al sistema lineare dato. Esercizio 4.13 Calcolare il rango della matrice:   1 2 −1  1 1 0     2 4  A =  −1 ,  1 1 −1  −3 −1 2 riducendola per colonne; calcolare il rango di A riducendola per righe e osservare che si ottiene lo stesso risultato ma la matrice ridotta per colonne ottenuta e` diversa dalla matrice ridotta per righe. Esistono dei casi in cui le matrici ridotte per righe e per colonne a cui si perviene dalla stessa matrice A coincidono? Teorema 4.23 – Teorema di Nullit`a piu` Rango – Sia AX = O un sistema lineare omogeneo con matrice dei coefficienti A ∈ Rm,n , incognite X ∈ Rn,1 e con colonna dei termini noti la matrice nulla O ∈ Rm,1 . Sia N (A) il sottospazio vettoriale di Rn delle soluzioni del sistema lineare omogeneo (cfr. Es. 4.12) , allora: rank(A) + dim(N (A)) = n.

Capitolo 4

171

Dimostrazione Segue dalla definizione di rango di una matrice e dalla risoluzione dei sistemi lineari omogenei mediante il metodo di riduzione di Gauss. Si risolve, infatti, il sistema lineare omogeneo AX = O riducendo per righe la matrice A. Supponendo che rank(A) = k , non si perde in generalit`a (cfr. la dimostrazione del Teorema 2.13) se si assume di pervenire al seguente sistema lineare omogeneo ridotto:           

a11 a12 . . . 0 a22 . . . .. ... . 0 ... 0 0 ... 0 .. .. . . 0

...

0

 . . . . . . a1n x1  x2 . . . . . . a2n   .. .. ..    .. . . .  .  akk . . . akn   xk  ... 0 0   xk+1  . .. ..  . .   .. ... 0 0 xn





          =        

0 0 .. . 0 0 .. .

      ,    

aii 6= 0, i = 1, 2, . . . , k.

0

Si ottengono cos`ı infinite soluzioni che dipendono da n − k incognite libere. Ponendo:   xk+1 = t1    xk+2 = t2 ..  .    x = t , t ,t ,...,t ∈ R, n

n−k

1

2

n−k

sostituendo questi valori nella k -esima equazione si ha: xk = −

akn akk+1 t1 − . . . − tn−k akk akk

e cos`ı via per tutte le altre incognite. Di conseguenza il nullspace N (A) risulta essere: N (A) = {t1 (b11 , b21 , . . . , bk1 , 1, 0, . . . , 0) +t2 (b12 , b22 , . . . , bk2 , 0, 1, . . . , 0) +... +tn−k (b1k−1 , b2k−1 , . . . , bkk−1 , 0, 0, . . . , 1), t1 , t2 , . . . , tn−k ∈ R}, dove i numeri reali bij indicano i coefficienti ottenuti dalla risoluzione del sistema lineare omogeneo, per esempio: akk+1 bk1 = − . akk Segue subito che dim(N (A)) = n − k .

Spazi Vettoriali e Sottospazi Vettoriali

172

Anche se la dimostrazione del teorema precedente e` ovvia, la sua importanza sar`a fondamentale nel resto del corso. La denominazione nullit`a deriva, come gi`a osservato in precedenza, dalla traduzione del termine “nullspace ”che indica in inglese il sottospazio vettoriale N (A). La formulazione del Teorema di Nullit`a pi`u Rango appena presentato e` quella classica, che viene usata per le sue svariate applicazioni. In realt`a l’enunciato completo del teorema e` il seguente. Teorema 4.24 – Teorema di Nullit`a piu` Rango – Sia AX = O un sistema lineare omogeneo con matrice dei coefficienti A ∈ Rm,n , incognite X ∈ Rn,1 e colonna dei termini noti O ∈ Rm,1 . Siano R(A) lo spazio vettoriale delle righe di A, C(A) lo spazio vettoriale delle colonne di A e N (A) il sottospazio vettoriale di Rn delle soluzioni del sistema lineare omogeneo, allora: R(A) ⊕ N (A) = Rn e, equivalentemente, C(A) ⊕ N (tA) = Rm . Dimostrazione

Tenendo conto del Teorema 4.23 e` sufficiente dimostrare che: R(A) ∩ N (A) = {o}.

Per assurdo sia x = (x1 , x2 , . . . , xn ) un elemento non nullo di R(A) ∩ N (A). Si supponga per esempio che x = R1 + 2R2 , dove R1 e R2 sono le prime due righe della matrice A. L’ipotesi non e` restrittiva, si lasciano al Lettore le varie generalizzazioni. Il vettore x verifica tutte le equazioni del sistema lineare AX = O, in particolare, verifica anche l’equazione che si ottiene dalla somma della prima equazione del sistema lineare con il doppio della seconda, se A = (aij ) e X = (xi ) significa che: (a11 + 2a21 )x1 + (a12 + 2a22 )x2 + . . . + (a1n + 2a2n )xn = 0. Sostituendo in tale equazione l’espressione di x segue: (a11 + 2a21 )2 + (a12 + 2a22 )2 + . . . + (a1n + 2a2n )2 = 0, da cui x = o, che e` assurdo. La seconda affermazione del teorema si ottiene sostituendo ad A la sua trasposta. Osservazione 4.28 E` fondamentale osservare che, anche se fosse possibile, come nel caso delle matrici quadrate, il teorema precedente non vale se si invertono i ruoli di R(A) e di C(A). Nel Capitolo 6 si presenter`a un esempio di matrice in cui C(A) ⊆ N (A) (cfr. Oss. 6.10).

Capitolo 4

173

Osservazione 4.29 Una delle applicazioni della definizione di rango di una matrice e` la possibilit`a di risolvere in modo pi`u agevole alcuni degli esercizi gi`a proposti. Sia, infatti, B = (v1 , v2 , . . . , vn ) una base di V e siano w1 , w2 , . . . , wk i generatori di un sottospazio vettoriale W di V. Per trovare una base di W si pu`o procedere considerando la matrice A ∈ Rk,n che ha come vettori riga i vettori wi , i = 1, 2, . . . , k, scritti in componenti rispetto alla base B. Riducendo la matrice A per righe, segue che i vettori riga non nulli, della matrice ridotta per righe cos`ı ottenuta, costituiscono una base di W e la dimensione di W coincide con il rango della matrice A. Attenzione al fatto che se si riduce la matrice A per colonne i vettori riga della matrice ridotta per colonne non determinano pi`u una base di W . Analogamente se W1 e W2 sono due sottospazi vettoriali di V di cui si conoscono le componenti dei vettori delle loro basi, per determinare la dimensione e una base di W1 +W2 si pu`o procedere scrivendo la matrice B che ha come vettori riga i vettori delle basi di W1 e di W2 , scritti in componenti ripetto ad una base di V. Riducendo la matrice B per righe si ha che il rango di B coincide con la dimensione di W1 + W2 e i vettori riga non nulli della matrice ridotta per righe che si ottiene costituiscono una base di W1 + W2 . Esercizio 4.14 Determinare una base del sottospazio vettoriale H di R4 cos`ı definito: H = L((1, 2, 0, 1), (2, 4, −1, 1), (0, 0, 1, 1), (1, 2, 4, 5), (1, −1, 0, 5)). Soluzione Si ha:

Si riduce per righe la matrice A ottenuta ponendo in riga i generatori di H. 

  A=  

1 2 0 2 4 −1 0 0 1 1 2 4 1 −1 0

 −→ R2 ↔ R5

    

1 1 1 5 5





−→   R2 → R2 − 2R1   R4 → R4 − R1  R5 → R5 − R1

    

1 2 0 1 0 −3 0 4 0 0 1 1 0 0 4 4 0 0 −1 −1

 1 2 0 1 0 0 −1 −1   0 0 1 1   0 0 4 4  0 −3 0 4





 −→   R4 → R4 − 4R3   R5 → R5 + R3

    

1 2 0 −3 0 0 0 0 0 0

0 0 1 0 0

1 4 1 0 0

   ,  

da cui segue che rank(A) = 3, quindi dim(H) = 3 e una sua base e` data dalle prime tre righe della matrice ridotta per righe ottenuta da A, cio`e dai vettori: z1 = (1, 2, 0, 1),

z2 = (0, −3, 0, 4),

z3 = (0, 0, 1, 1).

Spazi Vettoriali e Sottospazi Vettoriali

174

Osservazione 4.30 Si consiglia di rifare gli esercizi precedentemente svolti usando il metodo proposto in questo paragrafo (Esercizi 4.5, 4.6, 4.9, 4.10).

Esercizio 4.15 Dato il sottospazio vettoriale di R4 : K = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 − x2 = x1 − x3 = 0}, determinare la dimensione e una base di H+K e H∩K, dove H e` il sottospazio vettoriale definito nell’Esercizio 4.14. Soluzione Una base di K e` data ad esempio da (w1 , w2 ) con w1 = (1, 1, 1, 0) e w2 = (0, 0, 0, 1). Per trovare la dimensione e una base di H + K, si riduce per righe la matrice B ottenuta ponendo in riga i vettori z1 , z2 , z3 , w1 , w2 :     1 2 0 1 1 2 0 1  0 −3 0 4   0 −3 0 4      −→   0  0 0 1 1 0 1 1 B=   R4 → R4 − R1    1  0 −1 1 −1  1 1 0  0 0 0 1 0 0 0 1  −→ R4 → 3R4 − R2

    

1 2 0 −3 0 0 0 0 0 0

0 1 0 4 1 1 3 −7 0 1





  −→   R4 → R4 − 3R3 

    

1 2 0 −3 0 0 0 0 0 0

0 1 0 4 1 1 0 −10 0 1

   .  

Si vede che il rango di B e` 4, cio`e che H + K = R4 . Dalla Formula di Grassmann (cfr. Teor. 4.18) si ha che dim(H ∩ K) = 3 + 2 − 4 = 1. Per trovare una base di H ∩ K si pu`o procedere in questo modo. Un generico vettore di H ∩ K e` della forma: λ1 z1 + λ2 z2 + λ3 z3 = µ1 w1 + µ2 w2 ,

(4.6)

con λ1 , λ2 λ3 , µ1 , µ2 ∈ R. Si deve perci`o risolvere il sistema lineare omogeneo nelle incognite (λ1 , λ2 , λ3 , µ1 , µ2 ) associato alla precedente equazione con la riduzione per righe della corrispondente matrice dei coefficienti:   1 0 0 −1 0  2 −3 0 −1 0  . C=  0 0 1 −1 0  1 4 1 0 −1

Capitolo 4

175

Si trovano infinite soluzioni:   1 10 λ1 = µ1 , λ2 = µ1 , λ3 = µ1 , µ2 = µ1 , 3 3 con µ1 ∈ R. Sostituendo tali valori in (4.6) si ottiene che:   10 w1 + w2 3 e` una base di H ∩ K. Esercizio 4.16 In R3 [x] si considerino i polinomi: p1 (x) = 1 + x2 ,

p2 (x) = x + x3 ,

p3 (x) = 2 + x + x3 .

1. Verificare che l’insieme I = {p1 (x), p2 (x), p3 (x)} e` libero. 2. Individuare una base di R3 [x] contenente I . Soluzione 1. Sia B = (1, x, x2 , x3 ) una base di R3 [x]. Rispetto a B, i polinomi dati hanno componenti: p1 (x) = (1, 0, 1, 0),

p2 (x) = (0, 1, 0, 1),

p3 (x) = (2, 1, 0, 1).

Si consideri la matrice A di R3,4 avente come righe le componenti dei tre polinomi e ne si calcoli il rango riducendola per righe:     1 0 1 0 1 0 1 0 −→  0 1 0 1  A= 0 1 0 1  R3 → R3 − 2R1 0 1 −2 1 2 1 0 1 

1 −→  0 R3 → R3 − R2 0

0 1 1 0 0 −2

 0 1 . 0

Segue che rank(A) = 3 e, quindi, la tesi. 2. Per ottenere una base di R3 [x] contenente I e` sufficiente aggiungere ai polinomi dati un polinomio in modo che i quattro polinomi siano linearmente indipendenti. Allora, e` sufficiente aggiungere all’ultima matrice ottenuta nel calcolo precedente una riga in modo tale che la matrice quadrata di ordine 4 cos`ı ottenuta sia ridotta per righe e abbia rango 4, precisamente si ha:   1 0 1 0  0 1 0 1     0 0 −2 0 , 0 0 0 1 quindi un polinomio (ma non e` l’unico) che risolve l’esercizio e` x3 .

Spazi Vettoriali e Sottospazi Vettoriali

176

4.3.4

Il cambiamento di base

In questo paragrafo si presenta il problema del cambiamento di base in uno spazio vettoriale reale qualsiasi V, estendendo a V l’analogo problema risolto nel caso dello spazio vettoriale dei vettori ordinari V3 nel Paragrafo 3.5. Nello spazio vettoriale reale V, di dimensione n, si considerino due basi: B 0 = (v10 , v20 , . . . , vn0 ).

B = (v1 , v2 , . . . , vn ), Si ponga:

  v10 = p11 v1 + p21 v2 + . . . + pn1 vn ,    v0 = p12 v1 + p22 v2 + . . . + pn2 vn , 2 ..  .    v0 = p v + p v + . . . + p v . n

1n 1

La matrice:

2n 2

(4.7)

nn n

0

P = M B,B = (pij ), i, j = 1, 2, . . . , n, che e` cos`ı determinata, prende il nome di matrice del cambiamento di base da B a B 0, 0 come precisato nella notazione M B,B . P e` ottenuta ponendo ordinatamente in colonna le componenti dei vettori della base B 0 rispetto ai vettori della base B. La ragione della scelta delle colonne e` giustificata da una maggiore semplicit`a della formula finale (4.9) che si ottiene. P e` una matrice quadrata, ad elementi reali, di rango massimo (rank(P ) = n) e, quindi, per i Teoremi 2.16 e 2.8, P e` invertibile e det(P ) 6= 0. Le equazioni (4.7) si possono scrivere, in notazione matriciale, come:     v1 v10  v2   v0     2  (4.8)  ..  = tP  .. .  .   .  vn0 vn Considerato un qualsiasi vettore x ∈ V, il problema del cambiamento di base consiste nel determinare le relazioni che intercorrono tra le componenti di x rispetto alle due basi introdotte. Si supponga, quindi, che: x = x1 v1 + x2 v2 + . . . + xn vn = x01 v10 + x02 v20 + . . . + x0n vn0 , vale a dire, in notazione matriciale:  x=

x1 x2

  . . . xn  

v1 v2 .. . vn

   = 

 x01

x02

...

x0n

   

v10 v20 .. . vn0

   . 

Capitolo 4

177

Sostituendo le equazioni (4.8) nell’uguaglianza precedente e tenendo conto dell’unicit`a delle componenti di un vettore rispetto alla base B si perviene alle relazioni:     x1 x01  x2   x0     2   ..  = P  ..   .   .  xn x0n che saranno spesso indicate come: X = P X 0,

(4.9)

dove X e X 0 sono, rispettivamente, le matrici colonna delle componenti di x rispetto alla base B e alla base B 0. Tali relazioni prendono il nome di equazioni del cambiamento di base da B a B 0 e risolvono il problema posto. Osservazione 4.31 La matrice del cambiamento di base da B 0 a B e` P −1 , in quanto le equazioni del cambiamento di base, in questo caso, sono X 0 = P −1 X . Esercizio 4.17

1. Verificare che:    1 −2 2 0 B = , −2 1 1

1 3

   4 −1 , −1 −5

e` una base di S(R2,2 ). 2. Trovare le componenti della matrice:  A=

4 −11 −11 −7



rispetto alla base B 0 . Soluzione

1. Sia:  B=

1 0 0 0

     0 1 0 0 , , 1 0 0 1

una base di S(R2,2 ). La matrice del cambiamento di base da B a B 0 , ottenuta ponendo in colonna le componenti dei vettori di B 0 rispetto a B, e` :   1 2 4 P =  −2 1 −1 . 1 3 −5

Spazi Vettoriali e Sottospazi Vettoriali

178

Si verifica che det(P ) = −52, quindi i tre vettori dati formano, effettivamente, una base di S(R2,2 ). 2. Le componenti richieste sono la soluzione del sistema lineare:    0  4 x1 −11  = P  x02 , −7 x03 ossia x01 = 4, x02 = −2, x03 = 1.

4.3.5

Iperpiani vettoriali

Definizione 4.17 Sia V uno spazio vettoriale reale di dimensione n. Ogni sottospazio vettoriale W di V tale che dim(W) = n − 1 prende il nome di iperpiano vettoriale di V. Per definizione, quindi, un iperpiano vettoriale e` generato da n − 1 vettori linearmente indipendenti di V. Esempio 4.39 In R4 l’iperpiano vettoriale W generato dai vettori: a1 = (1, 0, 1, 4),

a2 = (0, 1, 1, 2),

a3 = (0, 0, 3, 4)

e` il sottospazio vettoriale di R4 : W = {(x1 , x2 , x3 , x4 ) = k1 a1 + k2 a2 + k3 a3 , k1 , k2 , k3 ∈ R} = {(k1 , k2 , k1 + 3k3 , 4k1 + 2k2 + 4k3 ) | k1 , k2 , k3 ∈ R}. Vale il seguente teorema. Teorema 4.25 Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio vettoriale V di dimensione n e siano (x1 , x2 , . . . , xn ) le componenti di un qualsiasi vettore x di V rispetto alla base B. 1. Tutte e sole le equazioni lineari omogenee in (x1 , x2 , . . . , xn ) rappresentano, rispetto alla base B, gli iperpiani vettoriali di V. 2. Ogni sottospazio vettoriale W di V di dimensione k e` rappresentabile, rispetto alla base B, mediante un sistema lineare omogeneo di n − k equazioni nelle incognite (x1 , x2 , . . . , xn ). Dimostrazione

1. La dimostrazione e` lasciata per esercizio.

Capitolo 4

179

2. Sia (a1 , a2 , . . . , ak ) una base di W, allora ogni vettore x di W e` del tipo: x = λ1 a1 + λ2 a2 + . . . + λk ak ,

λ1 , λ2 , . . . , λk ∈ R.

(4.10)

Eliminando i parametri λ1 , λ2 , . . . , λk tra le n equazioni che si ottengono scrivendo in componenti l’equazione vettoriale (4.10) si perviene ad un sistema lineare omogeneo di n − k equazioni nelle componenti (x1 , x2 , . . . , xn ). Come immediata conseguenza del secondo punto del teorema precedente si ottiene il seguente corollario. Corollario 4.2 Un sottospazio vettoriale W, di dimensione k, di uno spazio vettoriale V, di dimensione n, e` l’intersezione di n − k iperpiani vettoriali di V. Esempio 4.40 In R4 , l’equazione lineare omogenea: x1 + x2 + 3x3 + 2x4 = 0, rispetto alla base canonica B = (e1 , e2 , e3 , e4 ) di R4 , individua l’iperpiano vettoriale generato, ad esempio, dai vettori: (−1, 1, 0, 0),

(−3, 0, 1, 0),

(−2, 0, 0, 1).

Esercizio 4.18 Qual e` l’equazione dell’iperpiano vettoriale considerato nell’Esempio 4.39 rispetto alla base canonica di R4 ? Soluzione I vettori a1 , a2 , a3 , x = (x1 , x2 , x3 , x4 ) appartengono a W se e solo se sono linearmente dipendenti, ossia se la matrice quadrata, di ordine 4, le cui righe sono le componenti dei quattro vettori, ha determinante nullo. L’equazione richiesta e` : 1 0 1 4 0 1 1 2 0 0 3 4 = 0. x1 x2 x3 x4 La motivazione dell’ultimo passaggio e` lasciata al Lettore. Esempio 4.41 Nell’Esercizio 4.11 il sottospazio vettoriale W dei polinomi divisibili per 2 in R3 [x] e` un iperpiano vettoriale, la cui equazione lineare omogenea nelle componenti (a0 , a1 , a2 , a3 ) di un polinomio p(x) = a0 + a1 x + a2 x2 + a3 x3 ∈ R3 [x] rispetto alla base B = (1, x, x2 , x3 ) e` data da p(2) = a0 + 2a1 + 4a2 + 8a3 = 0. Esempio 4.42 In Rn,n il sottospazio vettoriale: W = {A ∈ Rn,n | tr(A) = 0}, dove tr(A) indica la traccia della matrice A, e` un iperpiano vettoriale di Rn,n .

Spazi Vettoriali e Sottospazi Vettoriali

180

4.4

Esercizi di riepilogo svolti

Esercizio 4.19 In R4 si considerino i vettori: a1 = (1, 1, 0, 0),

a2 = (0, 1, 0, 1),

a3 = (1, 3, 0, 2).

Posto E1 = L(a1 ), E2 = L(a2 ), E3 = L(a3 ), 1. determinare i vettori che appartengono a H = E1 + E2 + E3 e verificare che la somma non e` diretta. 2. Dimostrare che v = (2, 5, 0, 3) e` un elemento di H e scrivere v in due modi diversi come combinazione lineare di vettori di E1 , E2 , E3 . Soluzione

1. H = {λ1 a1 + λ2 a2 + λ3 a3 | λ1 , λ2 , λ3 ∈ R} = {(λ1 + λ3 , λ1 + λ2 + 3λ3 , 0, λ2 + 2λ3 ) | λ1 , λ2 , λ3 ∈ R}.

L’insieme {a1 , a2 , a3 } non e` libero in quanto a3 = a1 + 2a2 . Quindi: L(a3 ) = L(a1 + 2a2 ) ⊂ L(a1 ) + L(a2 ), cio`e E3 ⊂ E1 + E2 . H non e` somma diretta di E1 , E2 , E3 . 2. Per definizione il vettore v appartiene ad H se esistono λ1 , λ2 , λ3 ∈ R tali che:   2 = λ1 + λ3 5 = λ1 + λ2 + 3λ3  3 = λ2 + 2λ3 . Risolvendo il sistema lineare si trova: λ1 = 2 − t,

λ2 = 3 − 2t,

λ3 = t,

t ∈ R.

Ponendo, per esempio, t = 0 si ottiene v = 2a1 + 3a2 , per t = 1 si ha: v = a1 + a2 + a3 . Esercizio 4.20 Data la matrice:  A=

6 −9 4 −6

 ,

1. dimostrare che i sottoinsiemi: F = {X ∈ R2,2 | AX = XA},

G = {X ∈ R2,2 | AX = −XA}

sono sottospazi vettoriali di R2,2 e trovare una base per ciascuno di essi.

Capitolo 4

181

2. Determinare una base per i sottospazi vettoriali F ∩ G e F + G . 3. Data la matrice:  C=

0 h−2 0 h−3

 ,

h ∈ R,

stabilire per quale valore di h la matrice C appartiene al sottospazio vettoriale F + G . Assegnato ad h tale valore, trovare due matrici C1 ∈ F e C2 ∈ G in modo tale che C = C1 + C2 . Soluzione 1. Siano X1 , X2 matrici di R2,2, appartenenti a F , allora AX1 = X1 A e AX2 = X2 A. F e` un sottospazio vettoriale di R2,2 se λ1 X1 + λ2 X2 ∈ F con λ1 , λ2 numeri reali qualsiasi, ossia se: A(λ1 X1 + λ2 X2 ) = (λ1 X1 + λ2 X2 )A. La verifica e` un facile esercizio. In modo analogo si dimostra che G e` un sottospazio vettoriale di R2,2 . Per determinare la dimensione e una base sia di F sia di G e` necessario scrivere esplicitamente le equazioni che li definiscono. Ponendo:   x1 x2 X= , x3 x4 la condizione AX = XA equivale al sistema lineare omogeneo:  4x2 + 9x3 = 0    9x1 + 12x2 − 9x4 = 0 4x1 − 12x3 − 4x4 = 0    4x2 + 9x3 = 0, le cui soluzioni sono:   9 3λ1 + λ2 , − λ1 , λ1 , λ2 , 4

λ1 , λ2 ∈ R,

quindi dim(F) = 2 e una base di F e` :  B=

12 −9 4 0

 1 , 0

0 1

 .

Per determinare la dimensione e una base di G si procede allo stesso modo, la

Spazi Vettoriali e Sottospazi Vettoriali

182

condizione AX = −XA equivale al sistema lineare omogeneo:  12x1 + 4x2 − 9x3 = 0    9x1 + 9x4 = 0 4x  1 + 4x4 = 0   4x2 − 9x3 − 12x4 = 0, le cui soluzioni sono:   9 −λ1 , 3λ1 + λ2 , λ2 , λ1 , 4

λ1 , λ2 ∈ R,

quindi dim(G) = 2 e una base di G e` :  C=

−1 0

3 1

 0 , 4

9 0

 .

2. Conviene, in generale, iniziare con il calcolo della somma dei due sottospazi vettoriali. Riducendo per righe la matrice quadrata di ordine 4 che si ottiene ponendo in riga le componenti dei vettori di B e di C si ha che il rango di tale matrice e` 3 e che una base di F + G e` :     1 0 0 3 0 0 D= , , . 0 1 0 2 4 −6 Dalla formula di Grassmann segue che dim(F ∩ G) = 1. Una generica matrice appartenente a tale intersezione si deve poter scrivere come:  λ1

12 −9 4 0



 + λ2

1 0

0 1



 = µ1

−1 0

3 1



 + µ2

0 4

9 0

 (4.11)

per qualche valore di λ1 , λ2 , µ1 , µ2 ∈ R. Il sistema lineare omogeneo che ne deriva ha infinite soluzioni date da:   1 λ1 = − µ1 , λ2 = µ1 , µ1 ∈ R. 6 Sostituendo questo risultato a primo membro di (4.11) si ottiene:  F ∩G =L

−6 −4

9 6

 .

Capitolo 4

183

3. La matrice C appartiene a F + C se la matrice quadrata di ordine 4 le cui righe sono date dalle componenti di C e dalle componenti degli elementi della base D ha determinante uguale a zero, ossia: 1 0 0 1 0 3 0 2 = 0, 0 0 4 −6 0 h−2 0 h−3 da cui segue h = 5. La matrice C e` dunque:   0 3 C= 0 2 e si decompone nella somma di infinite coppie di matrici C1 ∈ F e C2 ∈ G nel modo seguente: C = C1 + C2  =

 λ1

12 −9 4 0



 + λ2

1 0

0 1



 + µ1



−1 0

3 1



 + µ2

0 4

9 0

 ,

con λ1 , λ2 , µ1 , µ2 ∈ R. Il sistema lineare che segue da tale scrittura ammette infinite soluzioni che dipendono da un’incognita libera (essendo dim(F ∩ G) = 1), la soluzione di questo sistema lineare e la conseguente determinazione di C1 e di C2 sono lasciate per esercizio.

4.5

Per saperne di piu`

In questo paragrafo sono inseriti alcuni esercizi che possono essere omessi ad una prima lettura. Si propone anche la dimostrazione di qualche teorema citato nei paragrafi precedenti. Di grande importanza, invece, la parte finale del paragrafo, che e` in generale oggetto di corsi pi`u avanzati di algebra lineare, dove vengono introdotti alcuni esempi di spazi vettoriali complessi. Si studia lo spazio vettoriale Cn,n delle matrici quadrate ad elementi nel campo complesso e si introducono due suoi sottospazi vettoriali reali: quello delle matrici hermitiane e quello delle matrici anti-hermitiane che sono l’analogo, in campo complesso, degli spazi vettoriali delle matrici simmetriche e antisimmetriche. Esercizio 4.21 1. Verificare che il campo dei numeri reali R dotato delle seguenti operazioni:

Spazi Vettoriali e Sottospazi Vettoriali

184

p x ♦ y = 3√x3 + y 3 , λ x = 3 λ x,

λ ∈ R, x, y ∈ R,

e` uno spazio vettoriale di dimensione 1 su R stesso. 2. Verificare se tale propriet`a e` ancora valida nel caso delle operazioni: p 3 x3 + y 3 , x4y = √ λ x = λ x,

λ ∈ R, x, y ∈ R.

Soluzione 1. Si verifica facilmente che (R, ♦) e` un gruppo abeliano, con 0 elemento neutro e −x opposto di x ∈ R. Anche la verifica delle quattro propriet`a del prodotto per scalari e` semplice. Inoltre R = L(1), in quanto ogni x ∈ R si pu`o scrivere come x3 1. 2. La definizione di prodotto per scalari λ x non verifica, per esempio, la seguente propriet`a: (λ + µ) x = (λ x) 4 (µ x), infatti: (λ + µ) x =

p λ + µ x,

mentre: √

q√ √ (λ x) 4 (µ x) = λ x 4 µ x = 3 ( λ)3 x3 + ( µ)3 x3 q√ √ = 3 ( λ)3 + ( µ)3 x. √

Esercizio 4.22 Si verifichi che lo spazio vettoriale F(R) delle funzioni reali di variabile reale descritto nell’Esempio 4.5 non e` finitamente generato. Soluzione Sia S un sottoinsieme finito di R e si indichi con F(S, R) lo spazio vettoriale delle funzioni f : S −→ R costruito in modo analogo all’Esempio 4.5. Tale spazio vettoriale e` finitamente generato, infatti una sua base e` data dall’insieme delle funzioni caratteristiche di S : X = {χs ∈ F(S, R) | s ∈ S}, dove:

 χs (t) =

1, t = s, 0, t = 6 s.

Capitolo 4

185

X genera F(S, R), infatti per ogni f ∈ F(S, R), f = Σs∈S f (s)χs . Si controlla facilmente che X e` un insieme libero. E` evidente che con questo tipo di ragionamento si perviene ad un sistema di generatori di F(R) formato da infiniti elementi. Esercizio 4.23 Dimostrare il Teorema 4.1 di seguito riportato. In V, spazio vettoriale reale, si ha: 1. il vettore nullo o e` unico; 2. per ogni vettore x ∈ V, l’opposto −x e` unico; 3. se x + y = x + z, allora y = z, per ogni x, y, z ∈ V ; 4. λx = o ⇐⇒ λ = 0, oppure x = o, con λ ∈ R e x ∈ V ; 5. (−1)x = −x, per ogni x ∈ V. Soluzione 1. Per assurdo, siano o e o0 due vettori nulli, o 6= o0 . Allora o = o + o0 essendo o0 il vettore nullo, ma anche o + o0 = o0 essendo o il vettore nullo, da cui la tesi. 2. Per assurdo, siano x1 e x2 due opposti di x, con x1 6= x2 , allora: (x + x1 ) + x2 = o + x2 = x2 , ma anche: (x + x1 ) + x2 = x + (x1 + x2 ) = x + (x2 + x1 ) = (x + x2 ) + x1 = x1 , da cui l’assurdo. 3. Segue in modo evidente dalla propriet`a precedente, infatti da x + y = x + z si ha: x + y − x = x + z − x da cui la tesi. 4. Si inizia con il dimostrare che 0 x = o e che λo = o. Si ha: 0 x = (0 + 0)x = 0 x + 0 x, applicando la propriet`a precedente si ha 0 x = o. Analogamente: λo = λ(o + o) = λo + λo, da cui λo = o. Viceversa si dimostra che se λx = o, allora, necessariamente λ = 0 oppure (non esclusivo) x = o. Nel punto precedente e` stato provato che 0 x = o,

Spazi Vettoriali e Sottospazi Vettoriali

186

supposto, quindi, λ 6= 0, si prova che da λx = o segue necessariamente x = o. Se λ 6= 0, allora esiste il suo inverso λ−1 . Da: o = λ−1 o = λ−1 (λx) = (λ−1 λ)x = 1x segue la tesi. 5. La tesi consiste nel provare che x + (−1)x = o, infatti: 1x + (−1)x = (1 − 1)x = 0 x = o. Esercizio 4.24 Dimostrare la Formula di Grassmann 4.18 di seguito riportata. Siano W1 e W2 sottospazi vettoriali di uno spazio vettoriale reale V, allora: dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) − dim(W1 ∩ W2 ). Soluzione Siano dim(V ) = n, dim(W1 ) = l, dim(W2 ) = p, con l, p ≤ n. Si ponga dim(W1 ∩ W2 ) = k , dove k ≤ l, p. Si lasciano per esercizio i casi particolari k = l e k = p e si tratta solo il caso di k < l e k < p. Sia B = (a1 , a2 , . . . , ak ) una base di W1 ∩ W2 . B e` , quindi, un insieme libero sia in W1 sia in W2 . Dal Teorema 4.15 segue che si possono costruire una base: C = (a1 , . . . , ak , bk+1 , . . . , bl ) di W1 e una base: D = (a1 , . . . , ak , ck+1 , . . . , cp ) di W2 . La tesi consiste, allora, nel dimostrare che: E = (a1 , . . . , ak , bk+1 , . . . , bl , ck+1 , . . . , cp ) e` una base di W1 + W2 . Per costruzione E e` un sistema di generatori di W1 + W2 . Si deve quindi provare che E e` libero. A tale scopo si consideri la combinazione lineare a coefficienti reali: α1 a1 + . . . + αk ak + βk+1 bk+1 + . . . + βl bl + γk+1 ck+1 + . . . + γp cp = o,

(4.12)

con α1 , . . . , αk , βk+1 , . . . , βl , γk+1 , . . . , γp ∈ R. Sia: c = −γk+1 ck+1 − . . . − γp cp .

(4.13)

Per definizione c ∈ W2 , da (4.12) segue che c = α1 a1 +. . .+αk ak +βk+1 bk+1 +. . .+βl bl , quindi c ∈ W1 , pertanto c ∈ W1 ∩ W2 . Allora esistono opportuni coefficienti reali λi , i = 1, 2, . . . , k, tali che c = λ1 a1 + . . . + λk ak . Da (4.13) si ottiene:

Capitolo 4

λ1 a1 + . . . + λk ak + γk+1 ck+1 + . . . + γp cp = o,

187

(4.14)

ma i vettori che compaiono in (4.14) sono i vettori della base D, pertanto sono linearmente indipendenti, da cui segue, tra l’altro, che γk+1 = . . . = γp = 0. Sostituendo in (4.12) e ricordando che la combinazione lineare rimasta e` formata dai vettori della base C, si ha la tesi. Esercizio 4.25 Dimostrare il Lemma di Steinitz 4.12 di seguito riportato. Sia B = (v1 , v2 , . . . , vn ) una base di uno spazio vettoriale V e sia I = {u1 , u2 , . . . , up } un insieme libero di V, allora p ≤ n. Soluzione Siano (λ1 , λ2 , . . . , λn ) le componenti di u1 rispetto alla base B. Poich´e I e` un insieme libero, u1 6= o, pertanto almeno una componente tra λi , i = 1, 2, . . . , n, non e` nulla; si supponga che sia λ1 6= 0 (in caso contrario si riordinano i vettori di B in modo da porre al primo posto un coefficiente non nullo). Dalla relazione: u1 = λ1 v1 + λ2 v2 + . . . + λn vn

(4.15)

si ricava: −1 −1 v1 = λ−1 1 u1 − λ1 λ2 v2 − . . . − λ1 λn vn .

In altri termini v1 ∈ L(u1 ,v2, . . . ,vn ). Si vuole dimostrare che l’insieme {u1 ,v2 ,. . . ,vn } e` una base di V. Si inizia con il provare che si tratta di un sistema di generatori di V. Da (4.15) segue che, per ogni x ∈ V, si ha: x = x1 v 1 + x2 v 2 + . . . + xn v n −1 −1 = x1 (λ−1 1 u1 − λ1 λ2 v2 − . . . − λ1 λn vn ) + x2 v2 + . . . + xn vn = µ1 u1 + µ2 v2 + . . . + µn vn da cui la tesi. L’insieme {v2 , v3 , . . . , vn } e` libero essendo un sottoinsieme non vuoto di B (cfr. Es. 4.33). Il vettore u1 non appartiene a L(v2 , v3 , . . . , vn ), quindi l’insieme {u1 , v2 , . . . , vn } e` libero (cfr. Lemma 4.1). Si osservi che, a questo punto, partendo dalla base B, si e` ottenuta una nuova base B1 = (u1 , v2 , . . . , vn ) in cui si e` sostituito al primo vettore di B il primo vettore di I . Si itera questo procedimento, passando a considerare il vettore u2 e lo si esprime come combinazione lineare dei vettori di B1 . Si ha: u2 = γ1 u1 + γ2 v2 + . . . + γn vn . Di nuovo, essendo u2 non nullo, esiste almeno una sua componente tra γi , i = 1, 2, . . . , n, non nulla. Non pu`o succedere che sia γ1 6= 0 e gli altri γi = 0, i = 2, . . . , n, perch´e i

188

Spazi Vettoriali e Sottospazi Vettoriali

vettori u1 , u2 sono linearmente indipendenti, pertanto si pu`o supporre γ2 6= 0. Si ricava v2 in funzione dei vettori rimanenti e si dimostra che B2 = (u1 , u2 , v3 , . . . , vn ) e` una base di V in modo analogo al caso precedente. Si procede di nuovo con un terzo vettore di I, questo tipo di ragionamento e` autorizzato dal fatto che B e I sono insiemi finiti. Il procedimento descritto si pu`o arrestare solo per due motivi: a. si sono esauriti tutti i vettori di I e pertanto sono stati inseriti i vettori di I all’interno di B, da cui segue la tesi; b. si sono esauriti prima i vettori di B e rimangono ancora dei vettori in I , segue che I contiene una base di V che e` assurdo, essendo I libero.

4.5.1

Equazioni vettoriali e teorema del rango

Definizione 4.18 Dati i vettori a1 , a2 , . . . , am , b di uno spazio vettoriale reale V, la relazione: x1 a1 + x2 a2 + . . . + xm am = b (4.16) e` un’equazione vettoriale nell’incognita (x1 , x2 , . . . , xm ) ∈ Rm . Definizione 4.19 Una soluzione dell’equazione vettoriale (4.16) e` una m–upla: (x01 , x02 , . . . , x0m ) ∈ Rm che sostituita in (4.16) la verifica. Esempio 4.43 Nei capitoli precedenti si sono incontrate pi`u volte equazioni vettoriali, per esempio la definizione di vettori linearmente indipendenti fa uso di un’equazione vettoriale di cui si chiede che ammetta solo la soluzione nulla. L’esempio precedente impone la seguente definizione. Definizione 4.20 L’equazione vettoriale (4.16) si dice omogenea se b = o e o e` il vettore nullo di V. Osservazione 4.32 E` chiaro che un’equazione vettoriale omogenea ammette la soluzione nulla (0, 0, . . . , 0). L’equazione vettoriale (4.16) ammette solo la soluzione nulla se e solo se i vettori a1 , a2 , . . . , ak sono linearmente indipendenti, ovviamente supponendo a priori che siano tutti diversi dal vettore nullo. Il teorema che segue determina le condizioni affinch´e un’equazione vettoriale ammetta soluzioni e propone anche il metodo per determinarle.

Capitolo 4

189

Teorema 4.26 – Teorema di Rouch´e–Capelli – L’equazione vettoriale (4.16) ammette soluzioni se e solo se: dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)). Dimostrazione Innanzi tutto si osservi che L(a1 , a2 , . . . , am ) ⊆ L(a1 , a2 , . . . , am , b) e, se dim(L(a1 , a2 , . . . , am )) = k, allora k ≤ dim(L(a1 , a2 , . . . , am , b)) ≤ k + 1. Si supponga che l’equazione (4.16) ammetta soluzioni, si deve dimostrare che: L(a1 , a2 , . . . , am , b) ⊆ L(a1 , a2 , . . . , am ). Per ipotesi esiste una m–upla di numeri reali (x01 , x02 , . . . , x0m ) tale che: x01 a1 + x02 a2 + . . . x0m am = b, da cui segue la tesi, (cfr. Teor. 4.8). Viceversa, si supponga che dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)). Conviene distinguere due casi e analizzarli separatamente: a. dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)) = m; b. dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)) = k < m. a. Se dim(L(a1 , a2 , . . . , am )) = dim(L(a1 , a2 , . . . , am , b)) = m, i vettori a1 , a2 , . . . , am costituiscono una base sia di L(a1 , a2 , . . . , am ) sia di L(a1 , a2 , . . . , am , b), allora il vettore b si esprime, in modo unico, come combinazione lineare dei vettori a1 , a2 , . . . , am e, quindi, l’equazione (4.16) ammette una sola soluzione data dalle componenti di b rispetto alla base (a1 , a2 , . . . , am ). b. Dal Teorema 4.11 segue che esistono k vettori tra a1 , a2 , . . . , am che formano una base di L(a1 , a2 , . . . , am ). Si supponga che siano i primi k (in caso contrario si riordinano i vettori in modo da ottenere questo risultato), quindi L(a1 , a2 , . . . , ak ) = L(a1 , a2 , . . . , am ), ma per ipotesi si ha anche che: L(a1 , a2 , . . . , ak ) = L(a1 , a2 , . . . , am , b). Segue che esistono k scalari x01 , x02 , . . . , x0k tali che: b = x01 a1 + x02 a2 + . . . + x0k ak . Il teorema e` dimostrato perch´e la m–upla (x01 , x02 , . . . , x0k , 0, . . . , 0) ∈ Rm e` una soluzione dell’equazione vettoriale (4.16). In questo caso, esistono infinite soluzioni che dipendono da m − k incognite libere, infatti scelti ad arbitrio gli scalari

Spazi Vettoriali e Sottospazi Vettoriali

190

µk+1 , . . . , µm , il vettore b − µk+1 ak+1 − . . . − µm am appartiene a L(a1 , a2 , . . . , ak ) pertanto: b = x01 a1 + x02 a2 + . . . + x0k ak + µk+1 ak+1 + . . . + µm am da cui segue la tesi. Osservazione 4.33 Il Lettore verifichi per esercizio (usando la definizione di rango di una matrice) che il Teorema di Rouch´e–Capelli appena dimostrato coincide con il Teorema di Rouch´e–Capelli 1.2 enunciato nel Paragrafo 1.2. Esercizio 4.26 Dimostrare il Teorema del Rango 4.19, di seguito riportato. Per ogni matrice A ∈ Rm,n si ha: dim(R(A)) = dim(C(A)). Soluzione

Sia:    A= 

a11 a21 .. .

a12 a22 .. .

am1 am2

. . . a1n . . . a2n .. .. . . . . . amn

    ∈ Rm,n . 

R(A) = L(R1 , R2 , . . . , Rm ) ⊆ Rn e` lo spazio vettoriale delle righe di A, dove: R1 = (a11 , a12 , . . . , a1n ) R2 = (a21 , a22 , . . . , a2n ) .. . Rm = (am1 , am2 , . . . , amn ). C(A) = L(C1 , C2 , . . . , Cn ) ⊆ Rm e` lo spazio vettoriale delle colonne di A, dove: C1 = (a11 , a21 , . . . , am1 ) C2 = (a12 , a22 , . . . , am2 ) .. . Cn = (a1n , a2n , . . . , amn ). Siano k = dim(C(A)) e h = dim(R(A)). La tesi si ottiene dimostrando che k ≤ h, infatti, per la disuguaglianza opposta e` sufficiente considerare tA, per cui si ha R(A) = C( tA) e C(A) = R( tA), applicando il fatto che k ≤ h a tA segue h ≤ k .

Capitolo 4

Si consideri il sistema lineare omogeneo AX ti, O ∈ Rm,1 matrice nulla dei termini noti e  x1  x2  X =  ..  .

191

= O avente A come matrice dei coefficien    ∈ Rn,1 

xn matrice delle incognite. Dalla sua scrittura esplicita:   a11 x1 + a12 x2 + . . . + a1n xn = 0    a21 x1 + a22 x2 + . . . + a2n xn = 0 ..  .    a x + a x + ... + a x = 0 m1 1 m2 2 mn n

(4.17)

si deduce che esso e` equivalente all’equazione vettoriale: x1 C1 + x2 C2 + . . . + xn Cn = o, (o ∈ Rm ) le cui soluzioni dipendono da k vettori di C(A) linearmente indipendenti, dove k = dim(C(A)), (cfr. Teor. 4.26). Essendo h = dim(R(A)), si supponga che le prime h righe di A siano linearmente indipendenti, questa non e` un’ipotesi restrittiva perch´e in caso contrario si pu`o effettuare un cambiamento dell’ordine in cui sono considerate le righe. Si supponga, quindi, che l’insieme {R1 , R2 , . . . , Rh } sia libero. Dalla Definizione 1.6 e dal Teorema 1.1 segue che il sistema lineare (4.17) e` equivalente al sistema lineare omogeneo:   a11 x1 + a12 x2 + . . . + a1n xn = 0    a21 x1 + a22 x2 + . . . + a2n xn = 0 (4.18) ..  .    a x + a x + ... + a x = 0 h1 1 h2 2 hn n che e` , a sua volta, equivalente all’equazione vettoriale: x1 a1 + x2 a2 + . . . + xn an = o, dove: a1 = (a11 , a21 , . . . , ah1 ) a2 = (a12 , a22 , . . . , ah2 ) .. . an = (a1n , a2n , . . . , ahn ).

Spazi Vettoriali e Sottospazi Vettoriali

192

Dal fatto che i sistemi lineari (4.17) e (4.18) sono equivalenti segue: dim(L(a1 , a2 , . . . , an )) = dim(C(A)) = k ma L(a1 , a2 , . . . , an ) ⊆ Rh , da cui la tesi. Esercizio 4.27 Dimostrare il Teorema 2.4, di seguito riportato. Siano A1 , A2 , . . . , An matrici moltiplicabili tra di loro, allora: rank(A1 A2 · · · An ) ≤ min{rank(A1 ), rank(A2 ), . . . , rank(An )}. Soluzione Si inizia con il dimostrare il teorema nel caso n = 2. E` un esercizio osservare che le colonne della matrice prodotto A1 A2 sono combinazione lineare delle colonne della matrice A1 e che le righe della matrice prodotto A1 A2 sono combinazione lineare delle righe della matrice A2 . Per semplicit`a e per capire meglio quanto appena osservato si considera il caso del prodotto di due matrici quadrate di ordine 2: 





a1 a2 a3 a4



a1 b 1 + a2 b 3 a1 b 2 + a2 b 4 a3 b 1 + a4 b 3 a3 b 2 + a4 b 4

A1 A2 =

=

 =





b1 b2 b3 b4





b1

a1 a3

a1

b1 b2



b1 b2



+ b3

=  a3

+ a2 + a4

a2 a4





 b2

a1 a3

b3 b4

 

b3 b4





 + b4

a2 a4

 

.

Di conseguenza si ha: C(A1 A2 ) ⊆ C(A1 ),

R(A1 A2 ) ⊆ R(A2 )

e, quindi: rank(A1 A2 ) ≤ rank(A1 ),

rank(A1 A2 ) ≤ rank(A2 )

da cui la tesi. Il caso del prodotto di n matrici si ottiene iterando il risultato appena ottenuto.

Capitolo 4

193

Esercizio 4.28 Discutere, al variare di h ∈ R, le soluzioni della seguente equazione vettoriale di R4 : x1 a1 + x2 a2 + x3 a3 = b, dove: a1 = (2, −1, 0, 4),

a2 = (−3, 2, 4, h),

a3 = (5, −3, h, −1),

b = (14, −8, h, −1).

Soluzione E` sufficiente trasformare l’equazione vettoriale assegnata nel sistema lineare ad essa equivalente e risolvere quest’ultimo applicando i metodi descritti nel Capitolo 1. Si ha: se h ∈ / {−2, 14} non esistono soluzioni;   8 + 3h −h 8+h se h = −2 o h = 14, la soluzione e` x1 = , x2 = , x3 = . 4+h 4+h 4+h Se si vuole, invece usare il Teorema 4.26 si pu`o procedere confrontando L(a1 , a2 , a3 ) e L(a1 , a2 , a3 , b). Per L(a1 , a2 , a3 ) si ha:     2 −1 0 4 −→ 2 −1 0 4  −3 2 4 h  R2 → 2R2 + 3R1  0 1 8 12 + 2h  5 −3 h −1 R3 → 2R3 − 5R1 0 −1 2h −22   2 −1 0 4 −→  0 1 8 12 + 2h . R3 → R3 + R2 0 0 8 + 2h −10 + 2h Quindi dim (L(a1 , a2 , a3 )) = 3 per ogni valore di h. Per L(a1 , a2 , a3 , b) si ha: 2 −1 0 4 −3 2 4 h 2 5 −3 h −1 = h − 12h − 28, 14 −8 h −1 per cui dim (L(a1 , a2 , a3 , b)) = 3 se e solo se h = −2 o h = 14. Pertanto l’equazione vettoriale e` compatibile solo se h = −2 o h = 14. Sostituendo tali valori nei vettori dati si ottengono le soluzioni cercate.

4.5.2

Equivalenza tra due definizioni di rango di una matrice

In questo paragrafo si intende dimostrare l’equivalenza tra la definizione di rango di una matrice (cfr. Def. 4.15) inteso come dimensione dello spazio vettoriale delle righe o delle

194

Spazi Vettoriali e Sottospazi Vettoriali

colonne della matrice e la definizione di rango di una matrice (cfr. Def. 2.13) data tramite l’uso dei minori. A questo proposito si ricordano i fatti seguenti. Sia A una matrice quadrata di ordine n. Come conseguenza della Definizione 4.15 di rango di A come la dimensione dello spazio vettoriale delle righe R(A) (o dello spazio vettoriale delle colonne C(A)) e del Teorema di Nullit`a pi`u Rango (cfr. Teor. 4.24) si ha l’equivalenza tra le seguenti condizioni: a. rank(A) < n; b. i vettori riga di A sono linearmente dipendenti; c. i vettori colonna di A sono linearmente dipendenti; d. il sistema lineare omogeneo AX = O ha soluzioni non nulle; e. det(A) = 0. In generale nel caso di una matrice A ∈ Rm,n , non necessariamente quadrata, si pu`o provare il seguente teorema. Teorema 4.27 Sia A ∈ Rm,n , le condizioni seguenti sono equivalenti: 1. rank(A) = r; 2. la matrice A ha almeno un minore non nullo di ordine r e tutti i minori di ordine r + 1 sono uguali a zero; 3. la matrice A ha almeno un minore non nullo di ordine r e tutti i minori di ordine p > r sono nulli. Dimostrazione Per dimostrare l’equivalenza delle tre affermazioni si proveranno le seguenti implicazioni: 1.

=⇒

2.

=⇒

3.

=⇒

1.

Innanzitutto, si osservi che se la matrice A ha un minore non nullo di ordine k allora le k righe corrispondenti a quelle del minore non nullo sono linearmente indipendenti. Per dimostrare l’implicazione 1. =⇒ 2. si supponga quindi che rank(A) = r. Sia B la sottomatrice quadrata di A ottenuta intersecando r righe linearmente indipendenti di A con r colonne linearmente indipendenti di A. Allora si ha rank(B) = dim(R(B)) = r e pertanto det(B) 6= 0, ovvero la matrice A ha un minore non nullo di ordine r. D’altra parte ogni minore di A di ordine r + 1 ha i vettori riga linearmente dipendenti e quindi

Capitolo 4

195

e` nullo per l’equivalenza tra le condizioni b. ed e. prima elencate. Infatti, se esistesse un minore di ordine r + 1 diverso da zero, allora la matrice A avrebbe rango r + 1, in quanto avrebbe r + 1 righe linearmente indipendenti. L’implicazione 2. =⇒ 3. e` una semplice conseguenza del Primo Teorema di Laplace (cfr. Teor. 2.17). Per dimostrare l’implicazione 3. =⇒ 1. si supponga quindi che A abbia un minore non nullo di ordine r e che tutti i minori di ordine p > r siano nulli. Le righe corrispondenti ad un minore non nullo di A sono pertanto linearmente indipendenti e quindi dim(R(A)) ≥ r, ovvero rank(A) ≥ r. Se fosse rank(A) > r si avrebbe una riga linearmente indipendente con le righe di A corrispondenti a quelle del minore non nullo, allora si avrebbe una sottomatrice C ∈ Rr+1,n di rango r + 1. Per l’implicazione 1. =⇒ 2. si potrebbe allora estrarre dalla sottomatrice C (e quindi dalla matrice A) un minore non nullo di ordine p > r, ma questo sarebbe assurdo. L’equivalenza tra le due definizioni di rango (cfr. Def. 4.15 e Def. 2.13) e` quindi una semplice conseguenza del teorema precedente.

4.5.3

Spazi vettoriali complessi, matrici hermitiane e anti-hermitiane

Come gi`a visto nell’Osservazione 4.1, si pu`o definire uno spazio vettoriale complesso, ossia uno spazio vettoriale su C. Analogamente al caso degli spazi vettoriali reali anche nel caso degli spazi vettoriali complessi si possono introdurre i concetti di sottospazio vettoriale, somma e intersezione di sottospazi vettoriali, generatori, vettori linearmente dipendenti e indipendenti, basi e dimensione. L’insieme dei numeri complessi C, con le usuali operazioni di somma e prodotto di numeri complessi, e` l’esempio pi`u semplice di spazio vettoriale complesso, ma C pu`o essere anche visto come spazio vettoriale reale. Come spazio vettoriale complesso C ha dimensione 1 ed una sua base e` ad esempio (1), mentre come spazio vettoriale reale C ha dimensione 2 ed una sua base e` ad esempio (1, i) (cfr. Es. 4.24). Analogamente al caso reale, si hanno i due esempi fondamentali seguenti di spazi vettoriali complessi (cfr. Es. 4.3 e 4.2). Esempio 4.44 L’insieme: Cn = {(x1 , x2 , . . . , xn ) | xj ∈ C, j = 1, 2, . . . , n} e` uno spazio vettoriale complesso. La somma di due n-uple di Cn e` definita come: (x1 , x2 , . . . , xn ) + (y1 , y2 , . . . , yn ) = (x1 + y1 , x2 + y2 , . . . , xn + yn ).

Spazi Vettoriali e Sottospazi Vettoriali

196

Il vettore nullo di Cn e` la n-upla (0, 0,. . ., 0) e l’opposto del vettore (x1 , x2 ,. . ., xn ) e` il vettore (−x1 , −x2 ,. . .,−xn ). Il prodotto di un numero complesso λ per un elemento di Cn e` definito da: λ(x1 , x2 , . . . , xn ) = (λx1 , λx2 , . . . , λxn ). Cn , come spazio vettoriale complesso, ha dimensione n e gli n vettori: e1 = (1, 0, . . . , , 0),

e2 = (0, 1, 0, . . . , 0),

...,

en = (0, 0, . . . , 1)

formano una base, detta base canonica o standard di Cn . Esempio 4.45 Pi`u in generale, se si indica con Cm,n l’insieme delle matrici con m righe e n colonne ad elementi in C e si introducono le operazioni di somma di due matrici e di prodotto di un numero complesso per una matrice come nel caso reale, e` facile verificare che Cm,n e` uno spazio vettoriale complesso. Il vettore nullo di Cm,n e` la matrice nulla. Lo spazio vettoriale Cm,n , come spazio vettoriale complesso, ha dimensione mn ed una sua base e` data dalle mn matrici Eij aventi tutti gli elementi uguali a zero ad eccezione di quello di posto ij che vale 1. Tale base e` chiamata base canonica di Cm,n . Esercizio 4.29 Determinare una base e la dimensione di Cm,n , pensato come spazio vettoriale reale. Soluzione Ogni matrice Z = (zhk ) ad elementi complessi si pu`o scrivere come somma di due matrici reali A = (ahk ) e B = (bhk ) dello stesso ordine: Z = A + iB ottenute, in modo naturale, dalla scrittura di ogni elemento Z come zhk = ahk + ibhk . E` evidente, quindi, che, come spazio vettoriale su R, dim Cm,n = 2mn. Si lascia per esercizio la determinazione di una sua base. Se A ∈ Cm,n , si indichi con A la matrice coniugata di A, ossia la matrice che ha come elementi i coniugati degli elementi di A. Se A ∈ Rm,n , cio`e se A e` reale, ovviamente A = A. Per la coniugata di una matrice valgono ovvie propriet`a che sono facile conseguenza dell’operazione di coniugio sui numeri complessi, e precisamente: 1. A + B = A + B, 2. λA = λ A, 3. AB = A B, 4.

t

A = tA,

A, B ∈ Cm,n ;

λ ∈ C, A ∈ Cm,n ; A ∈ Cm,n , B ∈ Cn,k ; A ∈ Cm,n ;

Capitolo 4

5. det(A) = det(A),

197

A ∈ Cn,n .

Si introducono ora due sottoinsiemi dello spazio vettoriale delle matrici quadrate complesse Cn,n , che sono l’analogo, nel caso di Rn,n , del sottospazio vettoriale delle matrici simmetriche S(Rn,n ) e di quello delle matrici antisimmetriche A(Rn,n ) (cfr. Es. 4.15 e 4.16). Precisamente, si definiscono l’insieme delle matrici hermitiane: H(Cn,n ) = {A ∈ Cn,n | tA = A} e l’insieme delle matrici anti-hermitiane: AH(Cn,n ) = {A ∈ Cn,n | tA = −A}. Chiaramente una matrice reale simmetrica A ∈ S(Rn,n ) e` hermitiana ed una matrice reale antisimmetrica A ∈ A(Rn,n ) e` anti-hermitiana. Ad esempio la matrice:   2 1+i 1 − i −3 e` hermitiana. Si osservi che gli elementi sulla sua diagonale principale sono reali. Questa propriet`a non e` casuale, infatti gli elementi sulla diagonale principale di una matrice hermitiana A sono necessariamente reali, in quanto devono coincidere, per definizione, con i proprii coniugati. Si pu`o verificare che la somma di due matrici hermitiane e` hermitiana e l’inversa di una matrice hermitiana invertibile e` hermitiana. Analoghe propriet`a valgono per le matrici anti-hermitane. Come per le matrici reali simmetriche, la matrice prodotto AB di due matrici hermitiane A e B e` hermitiana solo se A e B commutano, cio`e se e solo se AB = BA. Esercizio 4.30 Si verifichi che l’insieme delle matrici hermitiane H(Cn,n ), con le operazioni di somma e prodotto per un numero reale, e` uno spazio vettoriale su R di dimensione n2 . Inoltre, si provi invece che H(Cn,n ), con le operazioni di somma e prodotto per un numero complesso, non e` un sottospazio vettoriale complesso di Cn,n . Soluzione Siano A e B due matrici hermitiane, ossia tA = A e tB = B, si tratta di dimostrare che la matrice A + B e` hermitiana, infatti: t

(A + B) = tA + tB = A + B = (A + B).

Sia λ ∈ R, si deve dimostrare che λA e` una matrice hermitiana se A ∈ H(Cn,n ), infatti: t

in quanto λ = λ.

(λA) = λ tA = λA = (λA),

Spazi Vettoriali e Sottospazi Vettoriali

198

E` evidente che questa propriet`a e` falsa se λ ∈ C, quindi H(Cn,n ) e` uno spazio vettoriale reale ed e` un sottospazio vettoriale reale di Cn,n , inteso come spazio vettoriale reale, ma non e` un sottospazio vettoriale complesso di Cn,n inteso come spazio vettoriale complesso. Come gi`a accennato in precedenza, una matrice hermitiana A e` del tipo:   a11 a12 + ib12 . . . a1n + ib1n      a12 − ib12  a . . . a + ib 22 2n 2n     A= ,   .. .. .. . .   . . . .     a1n − ib1n a2n − ib2n . . . ann dove ahk , bhk , h, k = 1, 2, . . . , n sono numeri reali. E` quindi un esercizio dimostrare che una base di H(Cn,n ) e` :       

      

      

1 0 .. . .. .

0 ... ... 0 ... ... .. . . . . .. .. . . 0 0 ... ...

0 0 .. . .. .

0 ... ... 1 ... ... .. . . . . .. .. . . 0 0 ... ... 0 −i .. . .. . 0

0 0 .. . .. .



0 0 .. . .. .

0

1 ... ... 0 ... ... .. . . . . .. .. . . 0 0 ... ...





0 .. . .. .

0 0 .. . .. .

   ,   

      ,...,    

0

i ... ... 0 ... ... .. . . . . .. .. . . 0 ... ...

0 1 .. . .. .

0 0 .. . .. . 0



0 ... ... .. . . . . .. .. . . 0 ... ... 0 ... ...



      , . . . ,     

0 0 .. . .. .





      , . . . ,     

0 0 .. . .. .

 

      ,   0 1   1 0

0 ... ... 0 ... ... .. . . . . .. .. . . −i 0 . . . . . .

i 0 .. . .. . 0



0 0 .. . .. .

0 ... ... 0 ... ... .. . . . . .. .. . . 1 0 ... ... 0 ... ... .. . . . . .. .. . . 0 ... ... 0 ... ... 

      , . . . ,     

    ,  

0 0 .. . .. .



   ,  0 0  0 1

0 ... ... 0 .. . . .. . . . .. . .. . .. . 0 ... ... 0 0 . . . . . . −i

Da questo segue che: dim(H(Cn,n )) =

0 .. . .. .

1 0 .. . .. .

n(n + 1) n(n − 1) + = n2 . 2 2

0 .. . .. .



   .  i  0

Capitolo 4

199

Esercizio 4.31 Si verifichi che l’insieme delle matrici anti-hermitiane AH(Cn,n ), con le operazioni di somma e prodotto per un numero reale, e` uno spazio vettoriale su R di dimensione n2 . Inoltre, si provi invece che AH(Cn,n ), con le operazioni di somma e prodotto per un numero complesso, non e` un sottospazio vettoriale complesso di Cn,n .. Soluzione In modo analogo all’esercizio precedente si dimostra che AH(Cn,n ) e` un sottospazio vettoriale reale di Cn,n ma non e` un sottospazio vettoriale complesso. E` facile verificare, a partire dalla definizione, che una matrice anti-hermitiana A e` del tipo:   ib11 a12 + ib12 . . . a1n + ib1n      −a12 + ib12 ib22 . . . a2n + ib2n      A= ,   .. .. .. . .   . . . .     −a1n + ib1n −a2n + ib2n . . . ibnn dove ahk , bhk , h, k = 1, 2, . . . , n sono numeri reali. E` quindi un esercizio dimostrare che una base di AH(Cn,n ) e` :        

     

0 −1 .. . .. . 0

      

      

1 ... ... 0 ... ... .. . . . . .. .. . . 0 ... ...

i 0 .. . .. .

0 ... ... 0 ... ... .. . . . . .. .. . . 0 0 ... ...

0 0 .. . .. .

0 i .. . .. .

0 0 .. . .. .

i ... ... 0 ... ... .. . . . . .. .. . . 0 0 ... ...







       ,...,    

0 

      , . . .     

0

0

0 0 .. . .. .



0 0 .. . .. .

0 ... ... 0 ... ... .. . . . . .. .. . . −1 0 . . . . . .

0 0 .. . .. .

0 ... ... i ... ... .. . . . . .. .. . . 0 0 ... ...



      , . . . ,     

0 0 .. . .. .

0 ... ... 0 ... ... .. . . . . .. .. . . i 0 ... ...

0 0 .. . .. .

    ,   

0 i 0 .. . .. . 0



1 0 .. . .. .

    ,   

0

0 ... ... 0 .. . . .. . . . .. . .. . .. . 0 ... ... 0 0 . . . . . . −1

0 ... ... .. . . . . .. .. . . 0 ... ... 0 ... ... 

      , . . . ,     

0 .. . .. .

0 .. . .. .

0 .. . .. .

     1  0



   ,  0 0  0 i

0 ... ... .. . . . . .. .. . . 0 ... ... 0 ... ...

0 .. . .. .

0 .. . .. .





   .  0 i  i 0

200

Spazi Vettoriali e Sottospazi Vettoriali

Da questo segue che dim(AH(Cn,n )) = n2 . Si osservi, inoltre, che una matrice A ∈ Cn,n e` hermitiana se e solo se iA e` anti-hermitiana. E` valido, in campo complesso, il seguente teorema, analogo al Teorema 4.4 dimostrato nel caso delle matrici quadrate ad elementi reali. Teorema 4.28 Lo spazio vettoriale reale Cn,n si decompone nel modo seguente: Cn,n = H(Cn,n ) ⊕ AH(Cn,n ). Dimostrazione Si procede come nella dimostrazione del Teorema 4.4, tenendo conto che ogni matrice A ∈ Cn,n si decompone come: 1 1 A = (A + tA) + (A − tA) 2 2 e che (A + tA) ∈ H(Cn,n ) e (A − tA) ∈ AH(Cn,n ). Osservazione 4.34 In letteratura e` spesso usata la notazione: A∗ = tA, pertanto una matrice A e` hermitiana se e solo se A = A∗ ed e` anti-hermitiana se e solo se A = −A∗ . Per maggiori propriet`a ed esempi si veda per esempio [15].

Capitolo 5 Spazi Vettoriali Euclidei Lo scopo di questo capitolo e` quello di estendere il concetto di prodotto scalare, definito nel Paragrafo 3.7.1 nel caso dello spazio vettoriale V3 , agli spazi vettoriali di dimensione superiore a tre e, quindi, di introdurre le nozioni di perpendicolarit`a e di angolo in generale, permettendo, di conseguenza, lo studio della geometria euclidea negli spazi vettoriali di dimensione qualsiasi.

5.1

Definizione di prodotto scalare

Definizione 5.1 Sia V uno spazio vettoriale reale. Si definisce prodotto scalare su V la funzione: · : V × V −→ R,

(x, y) 7−→ x · y

per cui valgano le seguenti propriet`a: 1. x · y = y · x,

x, y ∈ V ;

2. (x + x0 ) · y = x · y + x0 · y, 3. (λx) · y = λ(x · y) = x · (λy), 4. x · x ≥ 0, x ∈ V

x, x0 , y ∈ V ; λ ∈ R, x, y ∈ V ;

e x · x = 0 ⇐⇒ x = o.

Uno spazio vettoriale reale V su cui e` definito un prodotto scalare “·” prende il nome di spazio vettoriale euclideo e si indica, in generale, con la scrittura (V, · ). c definito nel Paragrafo 3.7.1 Esempio 5.1 Il prodotto scalare x · y = kxkkyk cos(xy) conferisce a V3 la struttura di spazio vettoriale euclideo. 201

Spazi Vettoriali Euclidei

202

Esempio 5.2 Su Rn si definisce un prodotto scalare “naturale” che ricalca il calcolo in componenti (rispetto ad una base ortonormale) del prodotto scalare standard su V3 , ricordato nell’esempio precedente. Precisamente si pone: (x1 , x2 , . . . , xn ) · (y1 , y2 , . . . , yn ) = x1 y1 + x2 y2 + . . . + xn yn =

n X

xi y i ,

(5.1)

i=1

per ogni (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) ∈ Rn . Si lascia per esercizio la verifica delle quattro propriet`a di definizione di prodotto scalare. Con la notazione matriciale:     x1 y1  x2   y2      X =  .. , Y =  ..   .   .  xn yn la (5.1) si scrive come: X · Y = t X Y.

(5.2)

Il prodotto scalare (5.2) prende il nome di prodotto scalare standard su Rn , che viene cos`ı dotato della struttura di spazio vettoriale euclideo. Esempio 5.3 Si consideri la funzione: • : R3 × R3 −→ R, cos`ı definita: (x1 , x2 , x3 ) • (y1 , y2 , y3 ) = 3x1 y1 + 4x2 y2 + 5x3 y3 . Si verifica facilmente che “•” e` un altro prodotto scalare su R3 , chiaramente diverso dal prodotto scalare standard. L’esempio appena incontrato permette di affermare che, almeno su Rn , e` possibile definire infiniti prodotti scalari, quindi infinite strutture euclidee. Esempio 5.4 Si consideri la funzione: ∗ : R3 × R3 −→ R, cos`ı definita: (x1 , x2 , x3 ) ∗ (y1 , y2 , y3 ) = x1 y1 + x2 y2 − x3 y3 . Si osserva che “∗” non e` un prodotto scalare su R3 , per esempio (0, 0, 1)∗(0, 0, 1) = −1 che contraddice il quarto assioma di definizione di prodotto scalare.

Capitolo 5

203

Esempio 5.5 Si consideri la funzione: ? : R3 × R3 −→ R, cos`ı definita: (x1 , x2 , x3 ) ? (y1 , y2 , y3 ) = x1 y1 + x2 y2 . Anche “?” non e` un prodotto scalare su R3 , per esempio (0, 0, 1) ? (0, 0, 1) = 0 che contraddice il quarto assioma di definizione di prodotto scalare. Il teorema seguente dimostra che uno spazio vettoriale reale, di dimensione finita, ammette almeno un prodotto scalare. Teorema 5.1 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Esiste un prodotto scalare su V tale che: x · y = tX Y,

x, y ∈ V,

(5.3)

dove:    X= 

x1 x2 .. .





  , 

  Y = 

xn

y1 y2 .. .

    

yn

e (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) sono le componenti, rispettivamente di x e y, rispetto alla base B. La dimostrazione e` lasciata al Lettore per esercizio. Dal teorema precedente segue che ogni spazio vettoriale reale e` uno spazio vettoriale euclideo e poich´e esistono infinite basi su uno spazio vettoriale, esistono anche infiniti prodotti scalari sullo stesso spazio vettoriale. Esercizio 5.1 Verificare che la funzione: · : Rm,n × Rm,n −→ R, definita da: A · B = tr(tA B), e` un prodotto scalare su Rm,n .

(5.4)

Spazi Vettoriali Euclidei

204

Esempio 5.6 Si consideri nel caso di R2,2 il prodotto scalare definito nell’esempio precedente. Si vuole calcolarne l’espressione esplicita rispetto a due matrici A = (aij ) e B = (bij ) di R2,2 . Si ha:  A · B = tr

a11 a21 a12 a22



b11 b12 b21 b22

 = a11 b11 + a12 b12 + a21 b21 + a22 b22 .

Quindi, se si interpretano gli elementi aij e bij delle matrici A e B come le componenti delle matrici A e B rispetto alla base canonica (Eij ), i, j = 1, 2, di R2,2 , il precedente prodotto scalare in componenti corrisponde al prodotto scalare standard su R4 . Si pu`o verificare che la stessa propriet`a vale in generale su Rm,n , ovvero che il prodotto scalare (5.4) scritto in componenti rispetto alla base canonica (Eij ), i = 1, 2, . . . , m, j = 1, 2, . . . , n, corrisponde al prodotto scalare standard in Rmn . Esercizio 5.2 Posto: p(x) = a0 + a1 x + . . . + an xn ,

q(x) = b0 + b1 x + . . . + bn xn ,

verificare che la funzione: · : Rn [x] × Rn [x], definita da: p(x) · q(x) =

n X

ai b i

(5.5)

i=0

e` un prodotto scalare sullo spazio vettoriale Rn [x] dei polinomi di grado minore o uguale ad n. La funzione: ∗ : Rn [x] × Rn [x] −→ R, definita da: p(x) ∗ q(x) =

n X

ai b i

i=1

definisce un prodotto scalare su Rn [x]?

5.2

Norma di un vettore

Definizione 5.2 Sia (V, · ) uno spazio vettoriale euclideo. Si definisce norma di un vettore x di V il numero reale positivo dato da: √ kxk = x · x.

Capitolo 5

205

Si osservi che la precedente definizione ha senso perch´e, per il quarto assioma di definizione del prodotto scalare, x · x ≥ 0, per ogni x ∈ V. Esempio 5.7 In V3 , dotato del prodotto scalare standard (cfr. Par. 3.7.1), la norma di un vettore x coincide con la sua usuale lunghezza. Esempio 5.8 Nello spazio vettoriale euclideo (R3 , · ), dotato del prodotto scalare standard, si ha: q kxk = x21 + x22 + x23 , per ogni x = (x1 , x2 , x3 ) ∈ R3 . Esempio 5.9 Se si considera su R3 il prodotto scalare definito nell’Esempio 5.3 si ha che: q kxk = 3x21 + 4x22 + 5x23 , per ogni x = (x1 , x2 , x3 ) ∈ R3 . Esempio 5.10 Nello spazio vettoriale euclideo (Rn , · ), dotato del prodotto scalare standard, si ha: q kxk =

x21 + x22 + . . . + x2n ,

per ogni x = (x1 , x2 , . . . , xn ) ∈ Rn . Esempio 5.11 Se su uno spazio vettoriale V su R di dimensione n, riferito ad una base B = (v1 , v2 , . . . , vn ), si considera il prodotto scalare (5.3), la norma del vettore x = x1 v1 + x2 v2 + . . . + xn vn e` data da: q √ kxk = tX X = x21 + x22 + . . . + x2n . Esempio 5.12 La norma della matrice A = (aij ) ∈ R2,2 , rispetto al prodotto scalare considerato nell’Esempio 5.6, e` : q p kAk = tr(tA A) = a211 + a212 + a221 + a222 . Esempio 5.13 La norma del polinomio p(x) = a0 + a1 x + . . . + an xn ∈ Rn [x] rispetto al prodotto scalare (5.5) e` : v u n uX kp(x)k = t a2i . i=0

Spazi Vettoriali Euclidei

206

In generale, una funzione a valori reali prende il nome di “norma” solo se definisce un numero reale positivo che verifica propriet`a opportune, precisamente quelle enunciate nel teorema seguente. Teorema 5.2 Su uno spazio vettoriale euclideo (V, · ), la funzione: k · k : V −→ R,

x 7−→ kxk

verifica le seguenti propriet`a: 1. kxk ≥ 0, x ∈ V e kxk = 0 ⇐⇒ x = o. 2. kλxk = |λ| kxk,

λ ∈ R, x ∈ V.

3. Teorema di Pitagora: x · y = 0 ⇐⇒ kx + yk2 = kxk2 + kyk2 . 4. Disuguaglianza di Cauchy–Schwarz: |x · y| ≤ kxk kyk,

x, y ∈ V.

5. Disuguaglianza triangolare (o di Minkowski): kx + yk ≤ kxk + kyk, Dimostrazione

x, y ∈ V.

1. La dimostrazione e` lasciata al Lettore per esercizio.

2. La dimostrazione segue da (λx) · (λx) = λ2 kxk2 . 3. Segue da: k(x + y)k2 = (x + y) · (x + y) = kxk2 + 2x · y + kyk2 .

(5.6)

4. La disuguaglianza di Cauchy–Schwarz e` banalmente soddisfatta se uno dei vettori coincide con il vettore nullo. La si dimostra, quindi, nel caso in cui x e y siano entrambi diversi dal vettore nullo. Per ogni λ ∈ R si pu`o considerare il polinomio di secondo grado in λ: kλx + yk2 = (λx + y) · (λx + y) = λ2 kxk2 + 2λ x · y + kyk2 . Per il punto 1. si ha che: λ2 kxk2 + 2λ x · y + kyk2 ≥ 0 per ogni λ ∈ R e, quindi, il trinomio di secondo grado deve avere discriminante negativo, cio`e: (x · y)2 − kxk2 kyk2 ≤ 0, per ogni x, y ∈ V.

Capitolo 5

207

5. Usando (5.6) e la disuguaglianza di Cauchy-Schwarz si ha: kx + yk2 ≤ kxk2 + 2kxk kyk + kyk2 = (kxk + kyk)2 , per ogni x, y ∈ V . Considerati due vettori non nulli x e y di uno spazio vettoriale euclideo (V, ·), come conseguenza della disuguaglianza di Cauchy–Schwarz si ha che: |x · y| ≤1 kxk kyk e quindi: −1 ≤

x·y ≤ 1, kxk kyk

si pu`o allora enunciare la seguente definizione. Definizione 5.3 Sia (V, · ) uno spazio vettoriale euclideo. Dati due vettori x, y ∈ V non nulli, si definisce angolo tra i due vettori x e y l’angolo θ ∈ [0, π] tale che: cos θ =

x·y . kxk kyk

Osservazione 5.1 1. E` necessario osservare che la nozione di angolo θ tra due vettori, appena introdotta, e` coerente con la definizione di angolo tra vettori considerata nel Paragrafo 3.6, cos`ı come lo e` la definizione di ortogonalit`a che segue. Inoltre, la nozione di angolo tra due vettori non dipende dall’ordine dei due vettori. 2. Come in V3 , anche nel caso generale di uno spazio vettoriale euclideo V l’angolo tra il vettore nullo o e un qualunque altro vettore e` indeterminato, ossia pu`o essere un qualsiasi angolo θ ∈ [0, π]. Definizione 5.4 Due vettori non nulli x e y di uno spazio vettoriale euclideo (V, · ) si dicono ortogonali o perpendicolari se l’angolo θ che essi determinano e` θ = π/2. Il vettore nullo si considera ortogonale ad ogni altro vettore di V. Se θ = 0 o θ = π i due vettori si dicono paralleli. Di conseguenza, le nozioni di angolo e di ortogonalit`a permettono di introdurre gli usuali concetti di geometria analitica del piano e dello spazio (cfr. Cap. 9, 10, 11 e 12) in spazi vettoriali euclidei di dimensione maggiore di 3. Si vedr`a, per esempio, nell’osservazione che segue che la nozione di parallelismo di due vettori corrisponde alla dipendenza lineare dei due vettori.

208

Spazi Vettoriali Euclidei

Osservazione 5.2 Fissati due vettori, la misura dell’angolo che essi determinano pu`o cambiare a seconda del prodotto scalare che si considera. Addirittura, dati due vettori qualsiasi (non nulli e non paralleli) e` possibile definire un prodotto scalare che li renda ortogonali. Esempi di questo tipo si possono leggere nel Capitolo 8 (cfr. Es. 8.18), perch´e non si e` ancora in grado, in questo capitolo, di costruirli esplicitamente in quanto non e` ancora chiaro come, in generale, sia possibile verificare facilmente che una funzione qualsiasi di dominio V × V e codominio R sia o meno un prodotto scalare. E` per`o una semplice conseguenza della definizione di norma di un vettore il fatto che, per ogni possibile prodotto scalare definito su uno spazio vettoriale V, il concetto di parallelismo tra vettori rimane invariato, in altri termini se due vettori sono linearmente dipendenti lo rimangono per tutti i possibili prodotti scalari che si possano definire su V. Infatti vale il teorema seguente. Teorema 5.3 In uno spazio vettoriale euclideo (V, · ) due vettori x e y, che individuano l’angolo θ, sono linearmente dipendenti se e solo θ = 0 o θ = π , cio`e se e solo se: x · y = ±kxk kyk. Dimostrazione La propriet`a e` banalmente vera se uno dei due vettori coincide con il vettore nullo. Si supponga allora che i due vettori siano entrambi non nulli. Se x e y sono linearmente dipendenti esiste λ ∈ R tale che y = λx e la precedente uguaglianza e` verificata. Viceversa, si supponga che per una coppia di vettori non nulli x e y valga l’uguaglianza x · y = kxk kyk (il caso con il segno negativo e` analogo), allora si ha: 2     x y x y y x − − · kxk − kyk = kxk kyk kxk kyk =

x·x x·y y·y −2 + = 0. 2 kxk kxk kyk kyk2

Dal quarto assioma di definizione del prodotto scalare segue: y=

kyk x, kxk

cio`e x e y sono linearmente dipendenti.

5.3

Basi ortonormali

I naturali concetti geometrici di base ortogonale e ortonormale in V3 , introdotti nel Paragrafo 3.7.1, possono essere agevolmente estesi ad uno spazio vettoriale euclideo qualsiasi con la seguente definizione.

Capitolo 5

209

Definizione 5.5 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n. Una base B = (v1 , v2 , . . . , vn ) di V si dice ortogonale se i vettori che la definiscono verificano la condizione: vi · vj = 0, i 6= j, i, j = 1, 2, . . . , n. In altri termini, una base si dice ortogonale se i vettori che la compongono sono a due a due ortogonali. Una base B = (e1 , e2 , . . . , en ) di V si dice ortonormale se i vettori che la definiscono verificano entrambe le condizioni: 1. ei · ej = 0, i 6= j , i, j = 1, 2, . . . , n; 2. kei k = 1, i = 1, 2, . . . , n. In altri termini, una base si dice ortonormale se e` una base ortogonale ed ogni vettore che la compone ha norma uguale a 1. Esempio 5.14 In R3 la base canonica (e1 , e2 , e3 ), dove: e1 = (1, 0, 0),

e2 = (0, 1, 0),

e3 = (0, 0, 1),

e` ortonormale rispetto al prodotto scalare standard. Pi`u in generale, in Rn la base canonica (e1 , e2 , . . . , en ), dove: e1 = (1, 0, . . . , 0),

e2 = (0, 1, 0, . . . , 0),

...,

en = (0, . . . , 0, 1)

e` anch’essa ortonormale rispetto al prodotto scalare standard. Esercizio 5.3 Si determini in R3 una base ortonormale rispetto al prodotto scalare: x · y = 2x1 y1 + 3x2 y2 + 4x3 y3 .

(5.7)

Soluzione E` immediato verificare che i vettori della base canonica (e1 , e2 , e3 ) di R3 sono a due a due ortogonali e quindi verificano la condizione 1. della Definizione 5.5. Se si calcola la norma dei tre vettori, rispetto al prodotto scalare che si sta considerando, si ha: √ √ ke1 k = 2, ke2 k = 3, ke3 k = 2. Quindi i vettori: 

1 1 1 √ e1 , √ e2 , e3 2 2 3



formano una base ortonormale di R3 dotato del prodotto scalare (5.7).

Spazi Vettoriali Euclidei

210

Esempio 5.15 In Rm,n la base canonica (Eij ), i = 1, 2, . . . , m, j = 1, 2, . . . , n, e` una base ortonormale rispetto al prodotto scalare definito da (5.4). Esempio 5.16 In Rn [x] la base (1, x, . . . , xn ) e` ortonormale rispetto al prodotto scalare definito da (5.5). Se si scrive l’espressione del prodotto scalare in componenti rispetto ad una base ortonormale su uno spazio vettoriale euclideo di dimensione n, si ottiene la stessa espressione del prodotto scalare standard su Rn , come si pu`o dedurre dal seguente teorema, la cui dimostrazione e` un facile esercizio. Teorema 5.4 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n. 1. Se B = (e1 , e2 , . . . , en ) e` una base ortonormale e: x = x1 e1 + x2 e2 + . . . + xn en ,

y = y1 e1 + y2 e2 + . . . + yn en

sono due vettori qualsiasi di V, allora il loro prodotto scalare e` : x · y = x1 y1 + x2 y2 + . . . + xn yn = tX Y,

(5.8)

dove tX Y denota il prodotto della matrice riga e della matrice colonna formate rispettivamente dalle componenti di x e y, rispetto alla base B. 2. Se B = (e1 , e2 , . . . , en ) e` una base di V tale che, per ogni coppia di vettori: x = x1 e1 + x2 e2 + . . . + xn en ,

y = y 1 e1 + y 2 e2 + . . . + y n en

di V si ha: x · y = x1 y1 + x2 y2 + . . . + xn yn = tX Y,

(5.9)

dove tX Y denota il prodotto della matrice riga e della matrice colonna formate rispettivamente dalle componenti di x e y, rispetto alla base B, allora B e` una base ortonormale. Osservazione 5.3 Si osservi che, in particolare, come conseguenza del teorema precedente si ha che se B = (e1 , e2 , . . . , en ) e` una base di uno spazio vettoriale V, allora esiste su V un prodotto scalare che rende la base B ortonormale. Tale prodotto scalare e` infatti semplicemente definito da (5.9). Nell’Esercizio 5.13 si determiner`a esplicitamente l’espressione del prodotto scalare che rende ortonormale una particolare base di R3 .

Capitolo 5

211

Ora che si e` in grado di scrivere l’espressione in componenti del prodotto scalare rispetto ad una base ortonormale rimane da dimostrare l’esistenza di almeno una base ortonormale rispetto ad ogni prodotto scalare definito su V. A tale scopo e` necessario premettere il seguente lemma. Lemma 5.1 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n. Un insieme I di k vettori di V : I = {v1 , v2 , . . . , vk } tale che: 1. k ≤ n; 2. vi 6= o, i = 1, 2, . . . , k ; 3. vi · vj = 0, i 6= j , i, j = 1, 2, . . . , k e` un insieme libero. Se k = n allora I e` una base ortogonale di V. Dimostrazione Occorre dimostrare che i vettori v1 , v2 , . . . , vk sono linearmente indipendenti, cio`e che l’unica loro combinazione lineare uguale al vettore nullo e` quella con coefficienti tutti uguali a 0. Infatti, se si considera l’equazione vettoriale: λ1 v1 + . . . + λk vk = o,

λi ∈ R, i = 1, 2, . . . , k

e si moltiplicano scalarmente entrambi i membri per ogni vi , i = 1, 2, . . . , k , tenendo conto dell’ipotesi di ortogonalit`a dei vettori, si ha: λi vi · vi = λi kvi k2 = 0. Dalla condizione 2. segue λi = 0, per ogni i = 1, 2, . . . , k . Teorema 5.5 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n e sia: B = (v1 , v2 , . . . , vn ) una sua base. A partire da B e` possibile costruire una base ortonormale: B 0 = (e1 , e2 , . . . , en ) di V tale che: L(v1 , v2 , . . . , vk ) = L(e1 , e2 , . . . , ek ),

k = 1, 2, . . . , n.

Spazi Vettoriali Euclidei

212

Dimostrazione Per dimostrare il teorema si utilizza un metodo di calcolo per costruire una base ortonormale a partire da una base assegnata noto come il processo di ortonormalizzazione di Gram–Schmidt. Data una base B = (v1 , v2 , . . . , vn ) si procede con un numero finito di passi, nel modo seguente: 1. si sceglie come primo vettore della base ortonormale il versore: e1 = vers v1 =

v1 . kv1 k

2. Per costruire il secondo vettore e2 si considera il vettore a2 = v2 + λe1 , con λ ∈ R e si determina λ in modo tale che a2 sia ortogonale a e1 ossia a2 · e1 = 0. Si ottiene: λ = −v2 · e1 . Quindi: e2 = vers(v2 − (v2 · e1 ) e1 ) e` un vettore di norma 1 e ortogonale a e1 . 3. Per costruire il terzo vettore e3 si considera il vettore a3 = v3 + λ1 e1 + λ2 e2 , con λ1 , λ2 ∈ R e si impongono le due condizioni di ortogonalit`a:  a3 · e1 = 0 = v3 · e1 + λ1 , a3 · e2 = 0 = v3 · e2 + λ2 . Il terzo vettore e` quindi: e3 = vers(v3 − (v3 · e1 ) e1 − (v3 · e2 ) e2 ). Iterando questo procedimento si ottiene un insieme di n vettori: ek = vers(vk − (vk · e1 ) e1 − . . . − (vk · ek−1 ) ek−1 ),

k = 1, 2, . . . , n,

a due a due ortogonali e di norma uguale a 1. Per il Lemma 5.1, i vettori (e1 , e2 , . . . , en ) costituiscono una base di V. Inoltre, ad ogni passo si ha: L(v1 , v2 , . . . , vk ) = L(e1 , e2 , . . . , ek ),

k = 1, 2, . . . , n.

Osservazione 5.4 Se (e1 , e2 , . . . , en ) e` una base ortonormale dello spazio vettoriale euclideo (V, · ), ogni vettore v di V si pu`o esprimere come: v = (v · e1 ) e1 + (v · e2 ) e2 + . . . + (v · en ) en .

Capitolo 5

213

Il vettore: (v · e1 ) e1 + (v · e2 ) e2 + . . . + (v · ek ) ek , con k < n, rappresenta, geometricamente, il vettore proiezione ortogonale di v sul sottospazio vettoriale generato dai vettori e1 , e2 , . . . , ek . Si estende cos`ı, in dimensione maggiore di 3, la situazione geometrica descritta nell’Osservazione 3.16. Si osservi anche che si pu`o applicare il processo di ortonormalizzazione di Gram–Schmidt considerando come vettore e1 il versore di uno qualunque dei vettori della base assegnata B. Poich´e in ogni spazio vettoriale esistono infinite basi, si pu`o concludere che sullo spazio vettoriale euclideo (V, · ) esistono infinite basi ortonormali, ed e` altrettanto chiaro che una base ortonormale rispetto ad un prodotto scalare non e` necessariamente ortonormale rispetto ad un altro prodotto scalare definito sullo stesso spazio vettoriale euclideo (cfr. Es. 5.3). Esercizio 5.4 Nello spazio vettoriale euclideo (R4 , · ), dotato del prodotto scalare standard, e` data la base B = (v1 , v2 , v3 , v4 ) con: v1 = (1, 2, 0, 0),

v2 = (0, 1, −1, 0),

v3 = (0, 0, 1, −1),

v4 = (0, 0, 0, 5).

Determinare una base ortonormale di R4 a partire da B. Soluzione Si applica il procedimento di ortonormalizzazione di Gram–Schmidt alla base B. Si pu`o iniziare con: e1 =

1 v1 = √ (1, 2, 0, 0). kv1 k 5

Il secondo vettore e2 e` dato dal versore di: 2 1 v2 − (v2 · e1 ) e1 = (0, 1, −1, 0) − √ √ (1, 2, 0, 0) = 5 5



 2 1 − , , −1, 0 . 5 5

Quindi: 5 e2 = √ 30

  2 1 − , , −1, 0 = 5 5

r −

! r 2 1 5 , √ ,− ,0 . 15 6 30

Analogamente si considera come e3 il versore di: v3 − (v3 · e1 ) e1 − (v3 · e2 ) e2 , dato da: r e3 =



r ! 2 1 1 6 , √ , √ ,− . 21 7 42 42

214

Spazi Vettoriali Euclidei

In modo analogo, a completamento della base ortonormale richiesta, si ottiene:   2 1 1 1 e4 = − √ , √ , √ , √ . 7 7 7 7 Ci si vuole ora occupare dello studio delle propriet`a della matrice del cambiamento di base tra due basi ortonormali definite su uno spazio vettoriale euclideo (V, · ). Vale l’importante teorema che segue, con l’avvertenza che, per capirne la dimostrazione, si deve far riferimento alle nozioni spiegate nel Paragrafo 4.3.4. Teorema 5.6 Sia B = (e1 , e2 , . . . , en ) una base ortonormale di uno spazio vettoriale euclideo V di dimensione n, allora B 0 = (e01 , e02 , . . . , e0n ) e` una base ortonormale di V se e solo se la matrice del cambiamento di base da B a B 0 e` una matrice ortogonale di ordine n. Dimostrazione In uno spazio vettoriale euclideo (V, · ) di dimensione n si consideri la matrice P del cambiamento di base dalla base ortonormale B = (e1 , e2 , . . . , en ) ad un’altra base ortonormale B 0 = (e01 , e02 , . . . , e0n ) di V. P e` una matrice invertibile che ha sulle colonne le componenti dei vettori e0i , i = 1, 2, . . . , n, rispetto alla base B e si pu`o verificare che l’elemento di posto ij del prodotto tP P e` dato dal prodotto scalare e0i · e0j scritto in componenti rispetto alla base B. Quindi tP P = I , cio`e P e` una matrice ortogonale di ordine n. Il viceversa segue in modo analogo. Osservazione 5.5 Se P ∈ Rn,n e` una matrice ortogonale, ossia se tP P = I , allora t P = P −1 , moltiplicando ambo i membri per P segue P tP = I ; in altri termini anche la matrice tP e` ortogonale. Applicando la dimostrazione del Teorema 5.6 a tP si ha che non solo i vettori colonna ma anche i vettori riga della matrice P costituiscono una base ortonormale dello spazio vettoriale euclideo Rn , rispetto al prodotto scalare standard. Per maggiori chiarimenti si veda il Teorema 5.7 in cui sono elencate tutte le propriet`a delle matrici ortogonali. Osservazione 5.6 Il Teorema 5.6 non e` pi`u valido se una delle due basi non e` ortonormale. La matrice P del cambiamento di base da una qualunque base B (non ortonormale) ad una base ortonormale ottenuta da B mediante il processo di ortonormalizzazione di Gram–Schmidt non e` una matrice ortogonale, come si pu`o osservare nell’esempio che segue. Esempio 5.17 In R3 si considerino i due prodotti scalari seguenti: x · y = x1 y1 + x2 y2 + x3 y3 , x y = 3x1 y1 + 4x2 y2 + x3 y3 ,

Capitolo 5

215

dove x = x1 e1 + x2 e2 + x3 e3 , y = y1 e1 + y2 e2 + y3 e3 e B = (e1 , e2 , e3 ) con: e1 = (1, 0, 0),

e2 = (0, 1, 0),

e3 = (0, 0, 1)

base canonica di R3 . B e` una base ortonormale rispetto al prodotto scalare “·” (cfr. Es. 5.14) ma non e` ortonormale rispetto al prodotto scalare “ ”. La base B 0 = (v1 , v2 , v3 ) con:     1 1 v1 = √ , 0, 0 , v2 = 0, , 0 , v3 = (0, 0, 1) 2 3 e` ortonormale rispetto al prodotto scalare “ ”, ma, ovviamente, la matrice: 1 √  3    P =  0   0 



0

0

1 2

     0    1

0

del cambiamento di base da B a B 0 non e` ortogonale. Si osservi inoltre che se: x = x01 v1 + x02 v2 + x03 v3 ,

y = y10 v1 + y20 v2 + y30 v3 ,

allora: x y = x01 y10 + x02 y20 + x03 y30 essendo B 0 una base ortonormale rispetto al prodotto scalare “ ”. Sia (a1 , a2 , a3 ) una base di R3 con: a1 = (1, 0, 2),

a2 = (1, 3, 4),

a3 = (0, 3, 4).

A partire da tale base, usando il processo di ortonormalizzazione di Gram–Schmidt si vogliono determinare una base ortonormale rispetto al prodotto scalare “·” e una base ortonormale rispetto al prodotto scalare “ ”. Nel primo caso si ottiene la base:  C=

La matrice:

 1 2 √ , 0, √ , 5 5

!  √ ! 4 3 5 2 6 2 3 − √ , , √ , − ,− , . 7 7 7 7 5 7 7 5

Spazi Vettoriali Euclidei

216

 1 4 6 √ − √ −  5 7  7 5     √    3 5 2  Q= 0 −   7 7       2 2 3  √ √ 7 5 7 5 e` ortogonale, essendo la matrice del cambiamento di base tra due basi ortonormali B e C , rispetto allo stesso prodotto scalare. Rispetto al prodotto scalare “ ” si ottiene la base ortonormale C 0 = (v10 , v20 , v30 ) con: ! r r r   1 2 2 1 21 3 v10 = √ , 0, √ , v20 = − , , , 231 2 22 154 7 7 ! r 2 1 3 v30 = − ,− √ , √ . 11 2 22 22 

La matrice R che ha sulle colonne le componenti della base C 0 non e` una matrice ortogonale, mentre lo deve essere la matrice del cambiamento di base da B 0 a C 0 , ottenuta dal prodotto P −1 R. Si lascia per esercizio sia la verifica dell’ortogonalit`a dell’ultima matrice sia la giustificazione del fatto che essa si ottenga proprio nel modo indicato. Per le matrici ortogonali sono valide le seguenti propriet`a, alcune delle quali sono gi`a state anticipate nel Paragrafo 2.5 e nel corso di questo capitolo. Teorema 5.7

1. Il prodotto di due matrici ortogonali e` una matrice ortogonale.

2. La matrice identit`a I e` ortogonale. 3. L’inversa P −1 di una matrice ortogonale P e` ortogonale. 4. La trasposta tP di una matrice ortogonale P e` ortogonale. 5. Una matrice P ∈ Rn,n e` ortogonale se e solo se le righe e le colonne di P sono le componenti di una base ortonormale in Rn , rispetto al prodotto scalare standard. 6. Il determinante di una matrice ortogonale P vale ±1. Dimostrazione

1. Se P e Q sono matrici ortogonali si ha: t

(P Q)P Q = tQ tP P Q = I

e quindi la matrice prodotto P Q e` ortogonale.

Capitolo 5

217

2. La verifica e` lasciata per esercizio. 3. Da tP = P −1 e dal Teorema 2.7 punto 4. segue che (tP )−1 = (P −1 )−1 da cui la tesi. 4. Da tP = P −1 segue che t (tP ) tP = P tP = P P −1 = I da cui la tesi. 5. La verifica e` lasciata per esercizio. 6. Per il Teorema 2.16 punto 2. si ha che det(tP P ) = det(tP ) det(P ) = det(I) = 1. Quindi (det(P ))2 = 1. Osservazione 5.7 1. Non vale il viceversa del punto 6. del teorema precedente. Ad esempio, se si considera la matrice:   1 1 A= 0 1 si ha che il determinante di A e` 1 ma A non e` ortogonale. 2. Segue dai punti 1., 2. e 3. che l’insieme O(n) delle matrici ortogonali di ordine n (cfr. (2.9)) e` un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2). Si osservi inoltre che il gruppo O(2) e` gi`a stato descritto nell’Esercizio 3.11. 3. Gli insiemi di matrici: SL(n, R) = {A ∈ Rn,n | det(A) = 1} e: SO(n) = {A ∈ O(n) | det(A) = 1} = O(n) ∩ SL(n, R)

(5.10)

sono entrambi gruppi rispetto al prodotto di matrici. SL(n, R) prende il nome di gruppo lineare speciale e SO(n) e` detto gruppo ortogonale speciale. Osservazione 5.8 Si osservi che il valore del prodotto scalare di due vettori in uno spazio vettoriale euclideo V non varia, qualunque sia la base ortonormale scelta per calcolarlo. Infatti se si esprime la formula (5.8), scritta rispetto alla base ortonormale B = (e1 , e2 , . . . , en ), rispetto ad un’altra base ortonormale B 0 = (e01 , e02 , . . . , e0n ) si ha: x · y = tX 0 Y 0 , dove X 0 e Y 0 indicano, rispettivamente, le matrici colonne delle componenti dei vettori x e y rispetto alla base ortonormale B 0 . Dalle equazioni del cambiamento di base si ha: X = P X 0,

Y = P Y 0,

dove P e` la matrice ortogonale del cambiamento di base da B a B 0 , quindi: x · y = tX Y = t (P X 0 )(P Y 0 ) = tX 0 (tP P ) Y 0 = tX 0 Y 0 .

218

Spazi Vettoriali Euclidei

Esercizio 5.5 Determinare una matrice ortogonale P in R3,3 in modo tale che il primo vettore riga sia: √ √ ! 2 2 a = 0, ,− . 2 2 Soluzione Per determinare una matrice ortogonale con le caratteristiche richieste occorre completare l’insieme libero {a} a una base ortonormale (a, b, c) di R3 . Si pu`o, ad esempio, usando il Teorema 4.15, costruire la base C = (a, e1 , e2 ) con : e1 = (1, 0, 0),

e2 = (0, 0, 1).

Per determinare una base ortonormale, e` sufficiente applicare il processo di ortonormalizzazione di Gram–Schmidt alla base C , considerando: b = vers(e1 − (e1 · a)a) = vers(1, 0, 0) = e1 ,   1 1 c = vers(e2 − (e2 · a)a − (v3 · b)b) = vers 0, , . 2 2 La matrice ortogonale cercata e` ad esempio: √ 

√  2 2  0 2 − 2        0 . P = 1 0     √ √   2 2 0 2 2

5.4

Il complemento ortogonale

Siano (V, · ) uno spazio vettoriale euclideo di dimensione n e W un suo sottospazio vettoriale di dimensione k ≤ n. Definizione 5.6 Si dice complemento ortogonale di W e lo si denota con W ⊥ il sottoinsieme di V formato da tutti i vettori di V ortogonali ad ogni vettore di W , cio`e: W ⊥ = {x ∈ V | x · y = 0, ∀y ∈ W}. Osservazione 5.9 Per definizione, il complemento ortogonale W ⊥ di un sottospazio vettoriale W di uno spazio vettoriale euclideo (V, · ) e` unico. Inoltre, se W = {o}, allora W ⊥ = V e se W = V allora W ⊥ = {o}.

Capitolo 5

219

Osservazione 5.10 Scelta una base (a1 , a2 , . . . , ak ) di W , la condizione x · y = 0, per ogni y ∈ W, e` equivalente a: x · ai = 0,

i = 1, 2, . . . , k.

Infatti si ha: x · (λ1 a1 + λ2 a2 + . . . + λk ak ) = x · y = 0, per ogni λi ∈ R, i = 1, 2, . . . , k . Ma questa condizione e` verificata se e solo se x·ai = 0, per ogni i = 1, 2, . . . , k . Il teorema che segue elenca le propriet`a fondamentali del complemento ortogonale di un sottospazio vettoriale. Teorema 5.8 Sia (V, · ) uno spazio vettoriale euclideo e sia W un suo sottospazio vettoriale, allora: 1. W ⊥ ⊆ V e` un sottospazio vettoriale di V ; 2. W ⊕ W ⊥ = V ; 3. (W ⊥ )⊥ = W. Dimostrazione

1. La dimostrazione e` lasciata al Lettore per esercizio.

2. Per dimostrare che W + W ⊥ = V si pu`o procedere in questo modo. Sia dim(V ) = n, scelta una base (a1 , a2 , . . . , ak ) di W si costruisce la matrice A ∈ Rk,n avente come vettori riga le componenti dei vettori della base di W, rispetto ad una base ortonormale B di (V, · ), cio`e tale che R(A) = W , si ottiene che A ha rango k e il suo nullspace N (A) coincide con W ⊥ (cfr. Oss 5.10). Quindi dal Teorema 4.23 segue che dim(W ⊥ ) + dim(W) = n = dim(V ). Dal Teorema 4.24 si ha anche che la somma dei due sottospazi vettoriali e` diretta. In aggiunta, si osservi che la verifica che W ∩ W ⊥ = {o} segue anche facilmente dal fatto che se x ∈ W ∩ W ⊥ si ha che x · x = 0 e quindi x = o. 3. E` ovvia conseguenza di 2. Infatti: W ⊥ ⊕ (W ⊥ )⊥ = V ma si ha anche che W ⊥ ⊕ W = V e quindi segue la tesi per l’unicit`a del complemento ortogonale.

220

Spazi Vettoriali Euclidei

Osservazione 5.11 E` importante notare che W ⊥ e` un sottospazio vettoriale di V supplementare di W in V, ma mentre esistono infiniti sottospazi vettoriali di V supplementari di W in V, il complemento ortogonale e` unico. Esercizio 5.6 In (R3 , · ), dotato del prodotto scalare standard, determinare il complemento ortogonale W ⊥ del sottospazio vettoriale: W = {(x1 , x2 , x3 ) ∈ R3 | x1 + x2 + x3 = 0}. Soluzione Per l’Osservazione 5.10 si pu`o prima determinare una base di W e poi l’insieme dei vettori x ortogonali a tutti i vettori di questa base. Una base di W e` , ad esempio, data dai due vettori: a1 = (−1, 1, 0),

a2 = (−1, 0, 1).

Il complemento ortogonale di W e` formato da tutti i vettori y = (y1 , y2 , y3 ) ∈ R3 che verificano le due condizioni:  y · a1 = −y1 + y2 = 0 y · a2 = −y1 + y3 = 0. Si vede che W ⊥ corrisponde al nullspace della matrice:   −1 1 0 A= , −1 0 1 cio`e al complemento ortogonale dello spazio vettoriale delle righe R(A), si ottiene che W ⊥ = L((1, 1, 1)). Per ulteriori precisazioni sull’ultima osservazione si veda l’Esempio 5.18. Osservazione 5.12 Da notare che, nell’esercizio precedente, una base di W ⊥ e` formata dai vettori che hanno come componenti i coefficienti dell’equazione x1 + x2 + x3 = 0 che definisce W . Si giustifichi teoricamente questo fatto, ma si presti particolare attenzione a non applicare questa regola nel caso in cui W sia definito come l’insieme delle combinazioni lineari di alcuni vettori. Esercizio 5.7 In R2,2 si consideri il sottospazio vettoriale: W = {A ∈ R2,2 | tr(A) = 0}. Si determinino due sottospazi vettoriali diversi supplementari di W e il suo complemento ortogonale, rispetto al prodotto scalare definito in (5.4).

Capitolo 5

221

Soluzione Innanzi tutto si osservi che, per le propriet`a della traccia di una matrice quadrata, W e` un sottospazio vettoriale. E` facile ottenere che dim(W) = 3 e:       1 0 0 1 0 0 W=L , , , 0 −1 0 0 1 0 pertanto W e` un iperpiano vettoriale di R2,2 (cfr. Def. 4.17). I sottospazi vettoriali:     1 0 0 0 W1 = L , W2 = L 0 1 0 1 sono diversi e entrambi supplementari di W ; il complemento ortogonale W ⊥ coincide con W1 . Esercizio 5.8 Siano W1 e W2 sottospazi vettoriali di uno spazio vettoriale euclideo (V, · ) di dimensione n. Dimostrare che: (W1 + W2 )⊥ = W1⊥ ∩ W2⊥ , (W1 ∩ W2 )⊥ = W1⊥ + W2⊥ . Se invece W1 ⊆ W2 , allora dimostrare che: W2⊥ ⊆ W1⊥ . Esercizio 5.9 In R4 , rispetto al prodotto scalare standard, determinare la proiezione ortogonale del vettore a = (1, 2, 0, 1) sul sottospazio vettoriale: W = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 + x2 + x3 = 0}. Soluzione Per risolvere questo esercizio si deve tener conto dell’Osservazione 5.4. Si tratta, quindi, di determinare una base ortonormale del sottospazio vettoriale W. W e` un iperpiano vettoriale di R4 generato dai vettori: a1 = (0, 0, 0, 1),

a2 = (1, 0, −1, 0),

a3 = (0, 1, −1, 0).

Applicando il processo di ortonormalizzazione di Gram–Schmidt si perviene alla base ortonormale di W data dai vettori: b1 = a1 = (0, 0, 0, 1),  1 1 b2 = vers(a2 − (a2 · b1 )b1 ) = √ , 0, − √ , 0 , 2 2   1 2 1 b3 = vers(a3 − (a3 · b1 )b1 − (a3 · b2 )b2 ) = − √ , √ , − √ , 0 . 6 6 6 

Spazi Vettoriali Euclidei

222

Il vettore p proiezione ortogonale di a su W e` dato da: p = (a · b1 )b1 + (a · b2 )b2 + (a · b3 )b3 = (0, 1, −1, 1). Esercizio 5.10 Si dimostri che nello spazio vettoriale euclideo (Rn,n , · ) delle matrici quadrate di ordine n, dotato del prodotto scalare standard definito in (5.4), il complemento ortogonale del sottospazio vettoriale delle matrici simmetriche S(Rn,n ) e` il sottospazio vettoriale delle matrici antisimmetriche A(Rn,n ). Soluzione Nel Teorema 4.4 si dimostra che Rn,n = S(Rn,n ) ⊕ A(Rn,n ). Per completare l’esercizio e` sufficiente verificare che ogni matrice simmetrica e` ortogonale ad ogni matrice antisimmetrica. Siano S ∈ S(Rn,n ), S 6= O, e A ∈ A(Rn,n ), A 6= O, dove con O ∈ Rn,n si indica la matrice nulla, allora tS = S e tA = −A, quindi, ricordando le propriet`a della traccia di una matrice, si ha: S · A = tr(tS A) = tr(S A) = tr(A S) = − tr(tA S) = −A · S, da cui segue S · A = 0. Esempio 5.18 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n e sia: B = (e1 , e2 , . . . , en ) una sua base ortonormale. Sia W = L(a1 , . . . , ak ) un sottospazio vettoriale di V generato da k vettori linearmente indipendenti a1 , a2 , . . . , ak dati da:        a1 a11 a12 . . . a1n e1 e1  a2   a21 a22 . . . a2n   e2   e2          ..  =  .. ..   ..  = A  .. .  .   .  .  .  .  ak ak1 ak2 . . . akn en en A e` dunque una matrice di Rk,n di rango k . Come gi`a osservato nella dimostrazione del Teorema 5.8, il complemento ortogonale di W e` formato dai vettori x di V la cui matrice X delle componenti e` soluzione del sistema lineare omogeneo AX = O, dove O ∈ Rn,1 e` la matrice nulla. Pertanto il nullspace N (A) di A coincide con W ⊥ . Se si indica con R(A) lo spazio vettoriale delle righe di A e con C(A) lo spazio vettoriale delle colonne di A (cfr. Cap. 4.3) segue: R(A)⊥ = N (A),

C(A)⊥ = N (tA).

Si osservi che nel Teorema 4.24 era gi`a stato dimostrato che R(A) ⊕ N (A) = Rn e che C(A) ⊕ N (tA) = Rk .

Capitolo 5

5.5

223

Esercizi di riepilogo svolti

Esercizio 5.11 Siano: u1 = (1, 1, 1, 1),

u2 = (−3, 1, 1, 1),

u3 = (0, 1, 1, −2)

elementi di uno spazio vettoriale euclideo (V4 , · ), riferiti ad una sua base ortonormale B = (e1 , e2 , e3 , e4 ). 1. Verificare che i vettori u1 , u2 , u3 sono a due a due ortogonali. √ 2. Trovare le componenti, rispetto a B, di un vettore u4 , di norma 2, formante un angolo acuto con e2 e tale che la quaterna (u1 , u2 , u3 , u4 ) sia una base ortogonale di V4 . Soluzione

1. Si verifica subito che: 

u1 · u2 =

 −3  1   1 1 1 1   1  = 0, 1 

u1 · u3 =

 0  1   1 1 1 1   1  = 0, −2 

u2 · u3 =

 0  1   −3 1 1 1   1  = 0. −2

2. Sia u4 = (y1 , y2 , y3 , y4 ) il vettore da determinare. Affinch´e u4 sia ortogonale ai tre vettori dati, le sue componenti y1 , y2 , y3 , y4 devono essere soluzioni del sistema lineare omogeneo con matrice associata A le cui righe sono le componenti dei vettori u1 , u2 , u3 . Poich´e u1 , u2 , u3 sono linearmente indipendenti, rank(A) = 3. Le soluzioni di tale sistema lineare omogeneo sono: (y1 = 0, y2 = t, y3 = −t, y4 = 0), t ∈ R. √ La condizione ku4 k = 2 equivale all’equazione t2 = 1, vale a dire a t = ±1. Si ottengono cos`ı due vettori di componenti (0, 1, −1, 0) e (0, −1, 1, 0). Il vettore u4 cercato e` il primo in quanto la seconda componente e` positiva, condizione equivalente al fatto che l’angolo tra u4 e e2 sia acuto.

224

Spazi Vettoriali Euclidei

Esercizio 5.12 Sia (V, · ) uno spazio vettoriale euclideo. 1. Verificare che l’insieme F formato dai vettori di un iperpiano H che sono ortogonali ad un vettore u di V e` un sottospazio vettoriale di V. 2. Nel caso in cui V abbia dimensione 4 e B = (e1 , e2 , e3 , e4 ) sia una sua base ortonormale, sono dati: H = {x = x1 e1 + x2 e2 + x3 e3 + x4 e4 ∈ V | 2x1 − x3 + x4 = 0} e u = (0, −1, 2, 1), trovare una base ortogonale di F e completarla in modo da ottenere una base ortogonale di H. Soluzione 1. Se u e` ortogonale ad H (in particolare se u = o) allora F = H. Se u non e` ortogonale ad H, F e` l’intersezione di H con l’iperpiano vettoriale H0 = L(u)⊥ ortogonale a u, quindi e` ancora un sottospazio vettoriale di V. 2. Poich´e u non e` ortogonale ad H, F = H ∩ H0 , dove H0 e` l’iperpiano vettoriale ortogonale a u, formato dai vettori x tali che x · u = 0, pertanto: F = {x = x1 e1 + x2 e2 + x3 e3 + x4 e4 ∈ V | 2x1 − x3 + x4 = −x2 + 2x3 + x4 = 0}. Una base di F e` C = (a1 , a2 ) con a1 = (1, 4, 2, 0), a2 = (−1, 2, 0, 2). Per ottenere una base ortogonale di F si pu`o mantenere il vettore a1 e sostituire al vettore a2 il vettore b2 = a2 + λa1 , determinando λ in modo tale che b2 · a1 = 0. Si ha λ = −1/3, da cui segue:   2 4 2 b2 = − , , − , 2 . 3 3 3 Per completare la base (a1 , b2 ) di F ad una base ortogonale di H e` sufficiente aggiungere un vettore b3 = (y1 , y2 , y3 , y4 ) appartenente ad H e ortogonale a a1 e a b2 , ossia tale che:  y1 + 4y2 + 2y3 = 0      4 2 2 − y1 + y2 − y3 + 2y4 = 0  3 3 3     2y1 − y3 + y4 = 0, da cui si ottiene b3 = (−2t, 6t, −11t, −7t), t ∈ R, t 6= 0. Assegnando al parametro t un valore qualsiasi, non nullo, si ottiene una delle basi richieste.

Capitolo 5

225

Esercizio 5.13 In R3 si consideri il prodotto scalare x · y, con x, y ∈ R3 , rispetto al quale la base: B 0 = ((1, 1, 1), (0, 2, 1), (0, 0, 1)) risulti ortonormale. 1. Determinare la matrice A ∈ R3,3 che permette di esprimere in forma matriciale t XAY il prodotto scalare x·y considerato, dove X e Y indicano le matrici colonne delle componenti del vettore x e del vettore y, rispetto alla base canonica B di R3 . 2. Verificare che i vettori a = (0, 1, 0) e b = (0, 1, 1) sono ortogonali rispetto al prodotto scalare considerato. Soluzione

1. Rispetto alla base B 0 il prodotto scalare in questione e` dato da: x · y = tX 0 Y 0

(5.11)

dove X 0 e Y 0 sono le matrici colonna delle componenti dei vettori x e y riferite a B 0 . Sia P ∈ GL(3, R) la matrice del cambiamento di base dalla base canonica B di R3 alla base B 0 . Siano X = P X 0 e Y = P Y 0 le equazioni del cambiamento di base che determinano le relazioni tra le componenti dei vettori x e y rispetto a B e a B 0 . Si ricava quindi: X 0 = P −1 X,

Y 0 = P −1 Y

e, sostituendo in (5.11) si ottiene: X0 Y 0 =

t

=

t

t

(P −1 X)(P −1 Y ) = tX t (P −1 )P −1 Y

X((tP )−1 P −1 )Y = tX(P tP )−1 Y.

Pertanto la matrice A cercata, che permette di esprimere il prodotto scalare richiesto rispetto alla base B, e` : A = (P tP )−1 . Tenendo conto che la matrice P, le cui colonne sono, ordinatamente, le componenti dei vettori di B 0 , e` data da:   1 0 0 P =  1 2 0 , 1 1 1

Spazi Vettoriali Euclidei

226

si ricava:



A = (P tP )−1

    =    



3 2

0

0

1 2

1 1 − 2 2

 1 −  2   1  . −  2     1

2. E` immediato verificare che i vettori a e b sono ortogonali rispetto a questo prodotto scalare, infatti si ha:    1 3 0 −  0   2 2          1 1   1  = 0. a·b= 0 1 0  − 0    2 2           1 1 − − 1 1 2 2

5.5.1

Per saperne di piu`

Lo scopo di questo paragrafo e` quello di introdurre un “prodotto scalare” opportuno nel caso degli spazi vettoriali complessi in modo da potere, anche in questo contesto, definire il concetto di ortogonalit`a di due vettori.

5.5.2

Spazi vettoriali hermitiani

L’operazione di prodotto scalare (cfr. Def. 5.1) introdotta su uno spazio vettoriale reale pu`o essere estesa mediante la seguente definizione agli spazi vettoriali complessi. Definizione 5.7 Sia V uno spazio vettoriale su C. Si definisce prodotto hermitiano su V la funzione: · : V × V −→ C,

(x, y) 7−→ x · y,

per cui valgano le seguenti propriet`a: 1. x · y = y · x

x, y ∈ V ;

2. (x1 + x2 ) · y = x1 · y + x2 · y,

x1 , x 2 , y ∈ V ;

Capitolo 5

3. (λx) · y = λ(x · y),

227

λ ∈ C, x, y ∈ V ;

4. x · x ≥ 0, x ∈ V e x · x = 0

⇐⇒

x = o,

dove y · x indica il complesso coniugato di y · x. Uno spazio vettoriale complesso V su cui e` definito un prodotto hermitiano “·” prende il nome di spazio vettoriale hermitiano o di spazio vettoriale euclideo complesso e si indica, in generale, con la scrittura (V, · ). Osservazione 5.13 si ha:

1. Come conseguenza delle Propriet`a 1. e 3. della Definizione 5.7

x · (λy) = (λy) · x = λ(y · x) = λ (y · x) = λ (x · y),

λ ∈ C, x, y ∈ V.

Inoltre, dalle Propriet`a 1., 2. e 3 della Definizione 5.7 si ottiene: x · (λ1 y1 + λ2 y2 ) = λ1 (x · y1 ) + λ2 (x · y2 ),

λ1 , λ2 ∈ C, x, y1 , y2 ∈ V. (5.12)

2. La Propriet`a 4. della Definizione 5.7 ha senso in quanto x · x = x · x e pertanto x · x e` un numero reale. Nel caso degli spazi vettoriali hermitiani valgono esempi e teoremi analoghi a quelli gi`a dimostrati per gli spazi vettoriali euclidei. Esempio 5.19 Sullo spazio vettoriale complesso Cn (cfr. Es. 4.44) si pu`o definire un prodotto hermitiano che, se ristretto a Rn , coincide con il prodotto scalare standard introdotto nell’Esempio 5.2. Precisamente si pone: (x1 , x2 , . . . , xn ) · (y1 , y2 , . . . , yn ) = x1 y1 + x2 y2 + . . . + xn yn =

n X

xi yi ,

i=1

per ogni (x1 , x2 , . . . , xn ), (y1 , y2 , . . . , yn ) ∈ Cn . Con la notazione matriciale:     x1 y1  x2   y2      X =  ..  , Y =  ..   .   .  xn yn la (5.13) si scrive come: X · Y = tX Y ,

(5.13)

228

Spazi Vettoriali Euclidei

dove Y indica la matrice complessa coniugata di Y. E` un esercizio dimostrare che (5.13) e` un prodotto hermitiano che, spesso, prende il nome di prodotto hermitiano standard su Cn , che viene cos`ı dotato della struttura di spazio vettoriale hermitiano. E` ancora un esercizio dimostrare che: X · Y = tX Y e` un altro prodotto hermitiano su Cn , che coincide con il prodotto scalare standard di Rn , quando lo si riferisce a numeri reali. Ogni spazio vettoriale complesso, di dimensione finita, ammette almeno un prodotto hermitiano, vale infatti il seguente teorema. Teorema 5.9 Sia V uno spazio vettoriale complesso di dimensione n. Data una base B = (v1 , v2 , . . .,vn ) di V, la funzione: · : V × V −→ C, definita da: x · y = tX Y , dove:

   X= 

x1 x2 .. .





  , 

  Y = 

xn

y1 y2 .. .

    

yn

e (x1 , x2 , . . . , xn ) e (y1 , y2 , . . . , yn ) sono le componenti rispettivamente di x e y rispetto alla base B, e` un prodotto hermitiano su V. La dimostrazione e` un esercizio. La propriet`a 4. della Definizione 5.7 permette, come per gli spazi vettoriali euclidei, di definire la norma di un vettore anche nel caso di uno spazio vettoriale hermitiano (V, · ). Infatti si definisce norma di un vettore x di V il numero reale positivo dato da: √ kxk = x · x ed e` lasciata al Lettore la verifica della proprie`a: kλxk = |λ| kxk,

x ∈ V, λ ∈ C,

dove |λ| indica il modulo del numero complesso λ.

Capitolo 5

229

Esempio 5.20 Nello spazio vettoriale hermitiano (Cn , · ) con il prodotto hermitiano standard (5.13), la norma di x e` data da: v v u n u n uX uX t kxk = xi xi = t |xi |2 , i=1

i=1

dove |xi | indica il modulo del numero complesso xi , i = 1, 2, . . . , n. Continuano a valere, anche nel caso degli spazi vettoriali hermitiani, la disuguaglianza di Cauchy–Schwarz e la disuguaglianza triangolare (cfr. Teor. 5.2), anche se la loro dimostrazione e` pi`u laboriosa rispetto a quella del caso euclideo. Precisamente, vale il teorema seguente. Teorema 5.10 Su uno spazio vettoriale hermitiano (V, · ), la funzione: k · k : V −→ R,

x 7−→ kxk

verifica le seguenti propriet`a: 1. Teorema di Pitagora: x · y = 0 ⇐⇒ kx + yk2 = kxk2 + kyk2 . 2. Disuguaglianza di Cauchy–Schwarz: |x · y| ≤ kxk kyk, x, y ∈ V , dove |x · y| indica il modulo del numero complesso x · y. 3. Disuguaglianza triangolare: kx + yk ≤ kxk + kyk, x, y ∈ V. Dimostrazione

1. Segue da:

kx + yk2 = (x + y) · (x + y) = kxk2 + x · y + x · y + kxk2 . 2. La disuguaglianza di Cauchy–Schwarz e` banalmente verificata se uno dei due vettori coincide con il vettore nullo. Si supponga, quindi, che x e y siano entrambi diversi dal vettore nullo. Si inizia la dimostrazione nel caso particolare kyk = 1. Si ha: 0 ≤ kx − (x · y) yk2 = (x − (x · y) y) · (x − (x · y) y) = kxk2 − (x · y)(x · y) − (x · y)(y · x) +(x · y)(x · y)kyk2 = kxk2 − 2|x · y|2 + |x · y|2 kyk2 = kxk2 − |x · y|2 .

Spazi Vettoriali Euclidei

230

Quindi |x · y| ≤ kxk se kyk = 1. Se y 6= o, si pu`o considerare il versore di y. Applicando allora la precedente disuguaglianza si ottiene: y x · kyk ≤ kxk, da cui la tesi. 3. La dimostrazione e` analoga a quella vista nel caso di uno spazio vettoriale euclideo se si tiene conto che: x · y + y · x = x · y + x · y ≤ 2|x · y|.

(5.14)

Infatti, dato un numero complesso z = a + ib, con a, b ∈ R e a = Re(z), dove Re(z) indica la parte reale di z, si ha: |z|2 = z z = a2 + b2 ≥ a2 = (Re(z))2 . D’altra parte 2 Re(z) = z + z da cui: 2 Re(z) = z + z ≤ 2|z|, ossia la (5.14). Considerati due vettori x e y non nulli di uno spazio vettoriale hermitiano (V, ·), dalla disuguaglianza di Cauchy–Schwarz segue che: |x · y| ≤ 1, kxk kyk ma ci`o significa solo che il modulo del numero complesso (x · y)/(kxk kyk) e` minore o uguale a 1. Pertanto non e` possibile nel caso degli spazi vettoriali hermitiani introdurre il concetto di angolo tra due vettori nello stesso modo in cui e` stato definito per gli spazi vettoriali euclidei. Nonostante ci`o, sugli spazi vettoriali hermitiani, come nel caso reale, si pu`o introdurre il concetto di ortogonalit`a. Pi`u precisamente, due vettori x e y di uno spazio vettoriale hermitiano (V, · ) si dicono ortogonali se x · y = 0. Di conseguenza, e` valida anche in questo caso la definizione di base ortogonale e ortonormale e continua a valere anche per uno spazio vettoriale hermitiano il Lemma 5.1. Una base ortonormale su uno spazio vettoriale hermitiano e` in generale chiamata base unitaria. Esempio 5.21 La base canonica (e1 , e2 , . . . en ) di Cn e` una base unitaria dello spazio vettoriale hermitiano (Cn , · ) con il prodotto hermitiano standard (5.13).

Capitolo 5

231

Inoltre, analogamente a quanto dimostrato per uno spazio vettoriale euclideo, in uno spazio vettoriale hermitiano (V, · ) utilizzando il processo di ortonormalizzazione di Gram– Schmidt (che vale anche nel caso complesso) si pu`o costruire una base unitaria a partire da una base di V. La dimostrazione e` analoga a quella vista per il Teorema 5.5, facendo attenzione al fatto che, a differenza del caso reale, il prodotto hermitiano non e` simmetrico, ossia non vale la relazione x · y = y · x, ∀x, y ∈ V, ma vale la propriet`a 1. della Definizione 5.7. Osservazione 5.14 La disuguaglianza di Cauchy–Schwarz pu`o essere dimostrata in molti modi diversi. Si propone di seguito una seconda versione della dimostrazione precedente, che, anche se pi`u lunga, e` interessante per la sua interpretazione geometrica. Infatti, sorprendentemente, anche se in uno spazio vettoriale hermitiano non e` definito l’angolo tra due vettori, il prodotto hermitiano permette di introdurre la nozione di proiezione ortogonale di un vettore su un altro vettore. Sia x un vettore non nullo, si definisce il vettore: x·y y, w =x− kyk2 che, nel caso di uno spazio vettoriale euclideo, rappresenterebbe un vettore ortogonale a y in quanto w e` la differenza di x con la sua proiezione ortogonale su y. Anche in questo caso si dimostra che w · y = 0, infatti:   x·y x·y w·y = x− y ·y =x·y− y · y = 0. 2 kyk kyk2 Dal fatto che kwk2 ≥ 0 si ha:  0≤w·w =w·x=

 x·y kxk2 kyk2 − |y · x|2 x− y · x = , kyk2 kyk2

ossia la tesi. Dal Teorema 5.6 segue che le matrici ortogonali esprimono il cambiamento di base tra coppie di basi ortonormali di uno spazio vettoriale euclideo. Un risultato analogo e` valido in uno spazio vettoriale hermitiano, con la differenza che la matrice P del cambiamento di base deve verificare la relazione: tP

P = I.

Si pu`o allora introdurre l’insieme delle matrici unitarie di Cn,n definito da: U (n) = {P ∈ Cn,n | tP P = I},

232

Spazi Vettoriali Euclidei

che e` l’analogo, nel caso complesso, dell’insieme O(n) delle matrici ortogonali (cfr. (2.9)). Si osservi che dalla relazione tP P = I si ottiene tP P = I e P −1 = tP . Inoltre, una matrice unitaria ad elementi reali e` ovviamente ortogonale ed una matrice ortogonale, considerata come matrice complessa, e` unitaria. Per le matrici unitarie valgono le seguenti propriet`a. Teorema 5.11

1. Il prodotto di due matrici unitarie e` una matrice unitaria.

2. La matrice identit`a I e` unitaria. 3. L’inversa P −1 di una matrice unitaria P e` unitaria. 4. La trasposta tP di una matrice unitaria P e` unitaria. 5. Una matrice P ∈ Cn,n e` unitaria se e e solo se le righe e le colonne di P sono le componenti di una base ortonormale di Cn , rispetto al prodotto hermitiano standard. 6. Il determinante di una matrice unitaria P e` un numero complesso di modulo 1. La dimostrazione, analoga a quella vista per il Teorema 5.7, e` lasciata al Lettore per esercizio. Osservazione 5.15 Segue dalle propriet`a 1., 2., 3. del Teorema 5.11 che l’insieme delle matrici unitarie U (n) e` un gruppo rispetto al prodotto di matrici (cfr. Oss. 2.2). U (n) prende il nome di gruppo unitario. Esempio 5.22 Le matrici unitarie di ordine 1 sono facilmente individuabili, infatti si ha: U (1) = {z ∈ C | z z = 1}, si tratta, quindi, dei numeri complessi di modulo 1. Nel Capitolo 10 si vedr`a un’interpretazione geometrica di tale insieme. E` meno semplice individuare le matrici unitarie di ordine 2. Si dimostra che sono tutte e sole le matrici:   z1 z2 A=λ z 2 −z 1 dove λ, z1 , z2 sono numeri complessi tali che: |λ| = 1,

|z1 |2 + |z2 |2 = 1.

Nel Capitolo 11 si vedr`a un’interessante rappresentazione geometrica dell’insieme degli elementi di U (2) aventi determinante 1.

Capitolo 5

233

Siano (V, · ) uno spazio vettoriale hermitiano di dimensione n e W un suo sottospazio vettoriale di dimensione k ≤ n. Come nel caso degli spazi vettoriali euclidei si pu`o definire il complemento ortogonale W ⊥ di W per cui valgono le stesse propriet`a del caso reale (cfr. Teor. 5.8). Si conclude il capitolo osservando che la norma di un vettore individua il prodotto scalare o hermitiano che la definisce. Infatti e` un facile esercizio dimostrare che in uno spazio vettoriale euclideo reale V vale la formula: x·y =

 1 kx + yk2 − kxk2 − kyk2 , 2

x, y ∈ V.

Pi`u complicata la relazione analoga che vale nel caso di uno spazio vettoriale hermitiano: x·y =

1 (ktx + yk2 − kxk2 − kyk2 ) 2 i + (kx + iyk2 − kxk2 − kyk2 ), 2

(5.15) x, y ∈ V.

234

Spazi Vettoriali Euclidei

Capitolo 6 Applicazioni Lineari Lo scopo di questo capitolo e` quello di introdurre la nozione di applicazione lineare tra due spazi vettoriali, mettendoli cos`ı in relazione l’un l’altro e in modo da poter definire, come caso particolare, il concetto di movimento rigido o euclideo in uno spazio vettoriale. Definizione 6.1 Dati due spazi vettoriali reali V e W, si dice applicazione lineare o omomorfismo o trasformazione lineare da V in W una funzione f : V −→ W che verifica le seguenti propriet`a: f (x + y) = f (x) + f (y), f (λx) = λf (x), per ogni x e y in V e per ogni λ in R, o, equivalentemente: f (λx + µy) = λf (x) + µf (y), per ogni x e y in V e per ogni λ e µ in R. Lo spazio vettoriale V prende il nome di dominio di f, mentre lo spazio vettoriale W e` il codominio di f ; f (x) ∈ W e` detto vettore immagine di x ∈ V mediante f. Se w = f (x) allora il vettore x ∈ V e` detto vettore controimmagine di w ∈ W mediante f. Definizione 6.2 Sia f : V −→ V un’applicazione lineare in cui il dominio e il codominio coincidono, allora f e` detta endomorfismo o operatore lineare o trasformazione lineare di V. Di seguito si riporta un elenco di funzioni di cui si lascia al Lettore, per esercizio, la verifica dell’eventuale linearit`a. 235

Applicazioni Lineari

236

Esempio 6.1 La funzione: id : V −→ V,

x 7−→ x,

detta applicazione lineare identica o identit`a, e` un’endomorfismo. Esempio 6.2 La funzione: O : V −→ W,

x 7−→ oW ,

dove oW indica il vettore nullo di W, e` un’applicazione lineare, detta applicazione lineare nulla. Se W = V, l’endomorfismo O : V −→ V, x 7−→ oV , prende il nome di endomorfismo nullo. Esempio 6.3 La funzione: f : R2 −→ R,

(x, y) 7−→ 3x + 2y

e` un’applicazione lineare. Esempio 6.4 La funzione: f : R2 −→ R,

(x, y) 7−→ 3x + 2y + 5

non e` un’applicazione lineare. Esempio 6.5 La funzione: f : R2 −→ R,

(x, y) 7−→ x2 + 2y

non e` un’applicazione lineare. Esempio 6.6 La funzione: f : V3 −→ R,

x 7−→ a · x

con “·” prodotto scalare su V3 e a vettore fissato di V3 , e` lineare. Se a = o allora f (a) = 0, cio`e f e` l’applicazione lineare nulla. Esempio 6.7 La funzione: f : V3 −→ V3 ,

x 7−→ a ∧ x,

con “∧” prodotto vettoriale e a vettore fissato di V3 , e` un endomorfismo. Se a = o allora f (a) = o, ossia f e` l’endomorfismo nullo.

Capitolo 6

237

Esempio 6.8 La funzione: f : Rn,n −→ R,

A 7−→ det(A),

dove det(A) e` il determinante della matrice A, non e` un’applicazione lineare se n > 1. Esempio 6.9 La funzione: f : Rn,n −→ R,

A 7−→ tr(A),

dove tr(A) e` la traccia della matrice A, e` un’applicazione lineare. Esempio 6.10 Se lo spazio vettoriale V e` dato dalla somma diretta di due sottospazi vettoriali W1 e W2 , V = W1 ⊕ W2 , allora dalla Definizione 4.5 si ha che ogni vettore x di V si decompone in modo unico come x = x1 + x2 , con x1 ∈ W1 e x2 ∈ W2 . Le funzioni: f1 : V −→ V, x 7−→ x1 e f2 : V −→ V, x 7−→ x2 sono applicazioni lineari e prendono il nome di proiezioni di V su W1 e su W2 rispettivamente. In particolare, se W e` un sottospazio vettoriale di uno spazio vettoriale euclideo (V, · ), si ha che V = W ⊕ W ⊥ , dove W ⊥ indica il complemento ortogonale di W, allora ogni vettore x di V si decompone in modo unico come x = xW + xW ⊥ , con xW ∈ W e xW ⊥ ∈ W ⊥ . L’applicazione lineare: p : V −→ V,

x 7−→ xW

prende il nome di proiezione ortogonale su W . Esempio 6.11 La funzione: f : V2 −→ V2 ,

(x1 , x2 ) 7−→ (−x1 , x2 ),

dove (x1 , x2 ) sono le componenti di un qualsiasi vettore di un piano vettoriale V2 rispetto ad una base ortonormale positiva B = (i, j) (cfr. Cap. 3), e` un endomorfismo di V2 . Si tratta dell’applicazione lineare che associa ad ogni vettore di V2 il suo simmetrico rispetto a j. Esempio 6.12 La funzione: f : V3 −→ V3 ,

(x1 , x2 , x3 ) 7−→ (x1 , x2 , −x3 ),

dove (x1 , x2 , x3 ) sono le componenti di un qualsiasi vettore dello spazio vettoriale V3 rispetto ad una base ortonormale positiva B = (i, j, k) (cfr. Cap. 3), e` un endomorfismo di V3 . Si tratta dell’applicazione lineare che associa ad ogni vettore di V3 il suo simmetrico rispetto al piano vettoriale generato da i e da j.

Applicazioni Lineari

238

Esempio 6.13 La funzione: f : Rn −→ Rn ,

X 7−→ AX,

dove X ∈ Rn (ma e` considerata come matrice colonna di Rn,1 ) e A ∈ Rn,n , e` un endomorfismo di Rn . Pi`u in generale: f : Rn −→ Rm ,

X 7−→ AX,

con X ∈ Rn e A ∈ Rm,n , e` anch’essa un’applicazione lineare. La dimostrazione del seguente teorema e` lasciata per esercizio. Teorema 6.1 Sia f : V −→ W un’applicazione lineare tra due spazi vettoriali V e W, si ha: 1. f (oV ) = oW , dove oV indica il vettore nullo di V e oW indica il vettore nullo di W ; 2. f (−x) = −f (x),

x∈V;

3. f (λ1 x1 + λ2 x2 + . . . + λk xk ) = λ1 f (x1 ) + λ2 f (x2 ) + . . . + λk f (xk ), λi ∈ R, xi ∈ V, i = 1, 2, . . . , k .

6.1

Matrice associata ad un’applicazione lineare Equazioni di un’applicazione lineare

Il paragrafo inizia con la dimostrazione del teorema pi`u importante sulle applicazioni lineari, in cui si chiarisce come si possa assegnare un’applicazione lineare tra due spazi vettoriali di dimensione finita. E` fondamentale osservare, infatti, che il teorema seguente e` valido solo nel caso in cui il dominio sia finitamente generato. Teorema 6.2 – Teorema fondamentale delle applicazioni lineari – Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Dato un insieme {a1 , a2 , . . . , an } di n vettori di uno spazio vettoriale W, esiste ed e` unica l’applicazione lineare: f : V −→ W tale che: f (vi ) = ai ,

i = 1, 2, . . . , n.

Capitolo 6

239

In altri termini: per assegnare un’applicazione lineare tra due spazi vettoriali V e W, di cui almeno V di dimensione finita, e` sufficiente conoscere le immagini, mediante la funzione f, dei vettori di una base di V. Dimostrazione

Sia x = x1 v1 + x2 v2 + . . . + xn vn ∈ V, si definisce f ponendo: f (x) = x1 a1 + x2 a2 + . . . + xn an .

La dimostrazione del teorema si ottiene dai quattro punti seguenti: 1. f e` una funzione, infatti il vettore f (x) e` definito per ogni vettore x di V ed e` univocamente determinato, per l’esistenza e l’unicit`a delle componenti di x rispetto alla base B. 2. Dalla definizione di f si ha f (vi ) = ai , i = 1, 2, . . . , n. Per esempio, f (v1 ) = a1 in quanto v1 = (1, 0, . . . , 0) rispetto alla base B, e cos`ı via. 3. Per dimostrare la linearit`a di f si deve verificare che: f (λx + µy) = λf (x) + µf (y),

x, y ∈ V, λ, µ ∈ R.

La tesi segue dalla definizione di f, ponendo: x = x1 v 1 + x2 v 2 + . . . + xn v n ,

y = y1 v1 + y2 v2 + . . . + yn vn .

Poich´e: λx + µy = (λx1 + µy1 )v1 + (λx2 + µy2 )v2 + . . . + (λxn + µyn )vn , un semplice calcolo prova che: f (λx+µy) = (λx1 +µy1 )a1 +(λx2 +µy2 )a2 +. . .+(λxn +µyn )an = λf (x)+µf (y). 4. L’applicazione lineare f e` unica. Infatti, se esistesse un’altra applicazione lineare g : V −→ W, tale che g(vi ) = ai , i = 1, 2, . . . , n, allora si avrebbe: g(x) = g(x1 v1 + x2 v2 + . . . + xn vn ) = x1 g(v1 ) + x2 g(v2 ) + . . . + xn g(vn ) = x1 a1 + x2 a2 + . . . + xn an , per ogni x ∈ V, ci`o implicherebbe g(x) = f (x), per ogni x ∈ V e quindi g = f .

Applicazioni Lineari

240

Dal Teorema 6.2 segue che definire un’applicazione lineare tra due spazi vettoriali di dimensione finita equivale a conoscere le immagini degli elementi di una base del dominio. Siano, quindi, V uno spazio vettoriale reale di dimensione n e B = (v1 , v2 , . . . , vn ) una sua base, e W uno spazio vettoriale reale di dimensione m e C = (w1 , w2 , . . . , wm ) una sua base. Si intende definire l’applicazione lineare f : V −→ W ponendo:   f (v1 ) = a11 w1 + a21 w2 + . . . + am1 wm    f (v2 ) = a12 w1 + a22 w2 + . . . + am2 wm (6.1) ..  .    f (v ) = a w + a w + . . . + a w , n 1n 1 2n 2 mn m con aij ∈ R, i = 1, 2, . . . , m, j = 1, 2, . . . , n, che equivale ad assegnare la matrice:    A= 

a11 a21 .. .

a12 a22 .. .

. . . a1n . . . a2n .. .

    ∈ Rm,n 

am1 am2 . . . amn ottenuta mettendo, ordinatamente, in colonna le immagini dei vettori della base B espresse rispetto alla base C . La matrice A prende il nome di matrice associata all’applicazione lineare f rispetto alle basi B e C e si indica come: A = M B,C (f ). La scelta di porre in colonna le componenti e` una convenzione, che si ripercuote fortemente sulle considerazioni successive. Osservazione 6.1 1. Fissata una base B nel dominio V e una base C nel codominio W, segue dal Teorema 6.2 che la matrice A = M B,C (f ) determina in modo univoco l’applicazione lineare f : V −→ W. 2. Da notare, quindi, che la matrice A associata all’applicazione lineare f : V −→ W (rispetto ad una qualsiasi coppia di basi scelta) ha un numero di righe pari alla dimensione del codominio W e un numero di colonne pari alla dimensione del dominio V. 3. Se V = W, la matrice associata all’endomorfismo f : V −→ V, rispetto ad una base B di V, e` la matrice quadrata A = M B,B (f ). Attenzione al fatto che si pu`o anche in questo caso considerare una matrice M B,C (f ) con B = 6 C, che, ovviamente, sar`a diversa dalla matrice A, come si vedr`a nell’Esempio 6.14.

Capitolo 6

241

In notazione matriciale le relazioni (6.1) si scrivono come:     f (v1 ) w1  f (v2 )   w2       ..  = tA  .. .  .   .  f (vn ) wm

(6.2)

Dato un generico vettore x di V, ci si propone di calcolare la sua immagine f (x) mediante la matrice A. Sia:   x1  x2    X =  ..   .  xn la matrice colonna delle componenti di x rispetto alla base B. Si ponga: f (x) = y1 w1 + y2 w2 + . . . + ym wm , se si indica con:

   Y = 



y1 y2 .. .

   

ym la matrice colonna delle componenti di f (x) rispetto alla base C , allora:    f (x) = Y   t

w1 w2 .. .

   . 

wm Per la linearit`a di f si ha: f (x) = f (x1 v1 + x2 v2 + . . . + xn vn ) = x1 f (v1 ) + x2 f (v2 ) + . . . + xn f (vn )  =

  X 

t

f (v1 ) f (v2 ) .. . f (vn )

   . 

(6.3)

Applicazioni Lineari

242

Da (6.3) e da (6.2) segue:    f (x) = Y   t

w1 w2 .. .





   t  = X  

wm

f (v1 ) f (v2 ) .. .





   t t   = X A  

f (vn )

w1 w2 .. .

   , 

wm

ossia, per l’unicit`a delle componenti di un vettore rispetto ad una base, si ottiene: t

Y = tX tA

e quindi: Y = A X,

(6.4)

che e` il legame cercato tra le componenti, rispetto alla base B, di un vettore x del dominio V e le componenti della sua immagine f (x), rispetto alla base C . Il sistema lineare, di m equazioni nelle n incognite (x1 , x2 , . . . , xn ), associato all’equazione matriciale (6.4) prende il nome di sistema lineare delle equazioni dell’applicazione lineare f , rispetto alle basi B e C . Gli esempi che seguono mettono in luce la fondamentale importanza della matrice associata ad un’applicazione lineare e delle sue equazioni. Esempio 6.14 La matrice associata all’identit`a: id : V −→ V,

x 7−→ x,

rispetto ad una qualsiasi base B = (v1 , v2 , . . . , vn ) di V, e` la matrice unit`a I di ordine n (cfr. Es. 6.1). Se si considera un’altra base B 0 = (v10 , v20 , . . . , vn0 ) di V, si ha, invece, che la matrice associata all’identit`a rispetto alla base B nel dominio e alla base B 0 nel 0 codominio, M B,B (id), coincide con la matrice del cambiamento di base da B 0 a B. In0 fatti, id(vj ) = vj , per ogni j = 1, 2, . . . , n, e quindi per costruzione la matrice M B,B (id) ha sulle colonne le componenti dei vettori vj della base B rispetto alla base B 0 . Sia 0 P = M B,B la matrice del cambiamento di base da B a B 0 (cfr. Par. 4.3.4), allora: 0

M B,B (id) = P−1 . Ponendo: id(x) = id(x1 v1 + x2 v2 + . . . + xn vn ) = x01 v10 + x02 v20 + . . . + x0n vn0 segue che le equazioni dell’applicazione lineare id in questo caso sono: X 0 = P −1 X,

Capitolo 6

243

dove con X si indica la matrice colonna delle componenti del vettore x rispetto alla base B e con X 0 la matrice colonna delle componenti del vettore id(x) rispetto alla base B 0 . Si osservi che le equazioni dell’endomorfismo id coincidono con le equazioni del cambiamento di base da B 0 a B. In altri termini la matrice associata all’identit`a e` la matrice unit`a se e solo se essa e` scritta rispetto alla stessa base nel dominio e nel codominio. Esempio 6.15 La matrice associata all’endomorfismo nullo: O : V −→ V,

x 7−→ o,

rispetto ad una qualsiasi base B di V, e` la matrice nulla O di ordine n se dim(V ) = n (cfr. Es. 6.2). Esempio 6.16 Le equazioni, rispetto alla base canonica B di R3 , dell’endomorfismo: f : R3 −→ R3 , sono:

(x, y, z) 7−→ (2x + 3y, y, 3x − 2z)  0  x = 2x + 3y y0 = y  0 z = 3x − 2z,

(6.5)

dove (x0 , y 0 , z 0 ) = f ((x, y, z)). Quindi la matrice associata all’applicazione lineare f, rispetto alla base canonica di R3 , e` :   2 3 0 0 . A= 0 1 3 0 −2 Di conseguenza, l’immagine del vettore (2, 0, 3) si calcola mediante il prodotto:    2 3 0 2  0 1   0 0  3 0 −2 3 oppure sostituendo ordinatamente in (6.5) i numeri 2, 0, 3 al posto di x, y, z , rispettivamente. Esempio 6.17 Si consideri di nuovo l’Esempio 6.7. In V3 , spazio vettoriale dei vettori ordinari riferito ad una base ortonormale positiva B = (i, j, k), si definisce l’endomorfismo: f : V3 −→ V3 , x 7−→ a ∧ x, con a vettore di V3 . La matrice associata ad f , rispetto alla base B, pu`o essere determinata in due modi:

244

Applicazioni Lineari

1. si calcola f (x), ponendo x = x1 i + x2 j + x3 k e a = a1 i + a2 j + a3 k. Si ha: f (x) = (−a3 x2 + a2 x3 )i + (a3 x1 − a1 x3 )j + (−a2 x1 + a1 x2 )k, allora la matrice associata ad f, rispetto alla base B, e` :   0 −a3 a2 0 −a1 . A =  a3 −a2 a1 0 Si osservi che A e` una matrice antisimmetrica. 2. Si pu`o pervenire alla matrice A calcolando le immagini dei vettori della base B e mettendo sulle colonne, rispettivamente, le componenti di f (i), f (j), f (k), di nuovo rispetto alla base B. Se a e` il vettore nullo, allora A coincide con la matrice nulla O ∈ R3,3 e f e` l’endomorfismo nullo. Esempio 6.18 Rispetto alle basi canoniche B del dominio e C del codominio, la matrice associata all’applicazione lineare f : R3 −→ R2,2 definita da:   a a+b f ((a, b, c)) = a+b+c 0 e` la matrice appartenente a R4,3 data da: 

1  1 A=  1 0

0 1 1 0

 0 0  . 1  0

Da notare che le equazioni dell’applicazione lineare f, rispetto alle basi B e C , sono:  0 a =a    0 b =a+b c0 = a + b + c    0 d =0 con:

 f ((a, b, c)) =

a0 b 0 c0 d0

 .

Capitolo 6

245

Esercizio 6.1 Si scrivano le matrici associate alle applicazioni lineari introdotte negli Esempi 6.3, 6.6, 6.9, 6.10, 6.11, 6.12, 6.13, dopo aver fissato basi opportune nel dominio e nel codominio. Esercizio 6.2 In R3 , rispetto alla base canonica B = (e1 , e2 , e3 ), e` dato l’endomorfismo f tale che:   f (e1 ) − f (e2 ) − f (e3 ) = o 2f (e1 ) − f (e2 ) = 3e1 + 2e2 − e3  −f (e1 ) + f (e2 ) = 3e1 − e2 + 2e3 , determinare la matrice A = M B,B (f ) associata ad f rispetto alla base canonica B di R3 e scrivere le equazioni di f. Soluzione Si osservi che si ottiene la matrice A risolvendo il sistema lineare di equazioni vettoriali assegnato e si osservi anche che la soluzione esiste ed e` unica se e solo se la matrice dei coefficienti di tale sistema lineare ha rango massimo. Si proceda, quindi, con la riduzione per righe della matrice completa:     1 −1 −1 0 0 0 1 −1 −1 0 0 0 −→  2 −1  2 −1 0 3 2 −1  0 3 2 −1  R → R + R 3 3 2 −1 1 0 3 −1 2 1 0 0 6 1 1 da cui si ha:

  f (e1 ) = (6, 1, 1) 2f (e1 ) − f (e2 ) = (3, 2, −1)  f (e1 ) − f (e2 ) − f (e3 ) = (0, 0, 0),

quindi:   f (e1 ) = 6e1 + e2 + e3 f (e2 ) = 9e1 + 3e3  f (e3 ) = −3e1 + e2 − 2e3 , di conseguenza la matrice cercata e` : 

6  1 A= 1

 9 −3 0 1 . 3 −2

Le equazioni di f, rispetto alla base canonica B di R3 , sono:   y1 = 6x1 + 9x2 − 3x3 y 2 = x1 + x3  y3 = x1 + 3x2 − 2x3 , con f ((x1 , x2 , x3 )) = (y1 , y2 , y3 ).

246

6.2

Applicazioni Lineari

Cambiamenti di base e applicazioni lineari

Per la lettura di questo paragrafo si deve fare costante riferimento al Paragrafo 4.3.4 sul cambiamento di base in uno spazio vettoriale. Si vogliono, infatti, determinare le relazioni che intercorrono tra tutte le matrici associate alla stessa applicazione lineare, costruite cambiando base sia nel dominio sia nel codominio. Si ricordi ci`o che e` stato dimostrato nel paragrafo precedente. Dati due spazi vettoriali reali V e W con dim(V ) = n e base B = (v1 , v2 , . . . , vn ), con dim(W ) = m e base C = (w1 , w2 , . . . , wm ), si indichi con A = M B,C (f ) ∈ Rm,n la matrice associata ad un’applicazione lineare f : V −→ W, rispetto alle basi B e C. Sia X ∈ Rn,1 la matrice colonna delle componenti di un generico vettore x di V, rispetto alla base B, allora la matrice colonna Y delle componenti del vettore f (x), rispetto alla base C, e` data dall’equazione (6.4): Y = AX. Si inizia con l’effettuare un cambiamento di base in V. Sia B 0 = (v10 , v20 , . . . , vn0 ) un’altra base di V, indicata con X 0 ∈ Rn,1 la matrice colonna delle componenti del vettore x, rispetto alla base B 0 , le equazioni del cambiamento di base sono: X = P X 0,

(6.6)

dove P e` la matrice invertibile di ordine n del cambiamento di base da B a B 0. Si effettua 0 anche un cambiamento di base in W. Sia C 0 = (w10 , w20 , . . . , wm ) un’altra base di W, indicata con Y 0 ∈ Rm,1 la matrice colonna delle componenti del vettore f (x), rispetto alla base C 0 , le equazioni del cambiamento di base sono: Y = QY 0 ,

(6.7)

dove Q e` la matrice invertibile di ordine m del cambiamento di base da C a C 0 . Di 0 0 conseguenza, indicata con A0 = M B ,C (f ) ∈ Rm,n la matrice associata ad f, rispetto alle basi B 0 e C 0 , le equazioni di f, rispetto a tali basi, sono: Y 0 = A0 X 0 .

(6.8)

Scopo di questo paragrafo e` quello di individuare la relazione che intercorre tra le matrici A e A0 . Sostituendo le equazioni (6.6) e (6.7) in (6.4) si ha: QY 0 = AP X 0 da cui, tenendo conto che la precedente uguaglianza e` valida per ogni X 0 ∈ Rn,1 , segue: A0 = Q−1AP

(6.9)

che stabilisce il legame cercato tra le matrici A e A0 associate all’applicazione lineare f .

Capitolo 6

247

Osservazione 6.2 Le matrici associate ad una applicazione lineare f : V −→ W tra due spazi vettoriali V e W sono infinite, in quanto le basi di V e di W sono infinite. Due matrici A e A0 , entrambe appartenenti a Rm,n , rappresentano la stessa applicazione lineare se e solo se esistono una matrice invertibile P ∈ Rn,n e una matrice invertibile Q ∈ Rm,m per le quali vale la relazione (6.9). Nel caso particolare di un endomorfismo f : V −→ V ed effettuando un solo cambiamento di base nello spazio vettoriale V, cio`e considerando nel dominio e nel codominio lo stesso cambiamento di base, la (6.9) si riduce a: A0 = P −1AP.

(6.10)

Le matrici di questo tipo rivestono una grande importanza in algebra lineare e hanno una particolare denominazione, come stabilisce la definizione che segue. Definizione 6.3 Due matrici quadrate A e A0 , entrambe di ordine n, si dicono simili se esiste una matrice invertibile P di ordine n tale che A0 = P −1AP. Le matrici simili sono legate dalle seguenti propriet`a. Teorema 6.3 Matrici simili hanno: 1. determinante uguale, 2. traccia uguale. Dimostrazione

1. Segue dal Teorema 2.16, punto 2.

2. E` gi`a stato dimostrato in (2.13) nel Capitolo 2. Esercizio 6.3 In R4 sono dati i vettori: v1 = (1, 2, 0, 1),

v2 = (1, 0, 1, 0),

v3 = (−1, 0, 0, −2),

v4 = (0, 1, 0, −1),

dopo aver verificato che essi costituiscono una base C di R4 , si consideri l’endomorfismo g di R4 cos`ı definito: g(v1 ) = v1 ,

g(v2 ) = 2v1 + v2 ,

g(v3 ) = −v2 + v3 ,

g(v4 ) = v3 .

Si scrivano le matrici associate a g sia rispetto alla base C sia rispetto alla base canonica B di R4 .

248

Applicazioni Lineari

Soluzione La matrice P, ottenuta mettendo in colonna le componenti dei vettori di C rispetto alla base B, e` la matrice del cambiamento di base da B a C se e solo se ha rango 4, infatti si ha che:   1 1 −1 0  2 0 0 1   P =  0 1 0 0  1 0 −2 −1 e det(P ) = 1. La matrice associata a g rispetto alla base C e` :   1 2 0 0  0 1 −1 0  . A0 = M C,C (g) =   0 0 1 1  0 0 0 0 Da (6.10) segue che la matrice A associata a g , rispetto alla base canonica B di R4 , si ottiene dal prodotto: A = P A0 P −1 .

6.3

Immagine e controimmagine di sottospazi vettoriali

Sia f : V −→ W un’applicazione lineare tra due spazi vettoriali reali V e W. In questo paragrafo si intendono studiare l’immagine mediante f di un generico sottospazio vettoriale H di V e la controimmagine mediante f di un generico sottospazio vettoriale K di W. Si inizia con la seguente definizione. Definizione 6.4 Sia f : V −→ W un’applicazione lineare tra due spazi vettoriali V e W e sia H un sottospazio vettoriale di V, il sottoinsieme di W : f (H) = {f (x) ∈ W | x ∈ H} prende il nome di immagine del sottospazio vettoriale H mediante f . E` molto facile e intuitivo il teorema che segue, la cui dimostrazione e` lasciata al Lettore per esercizio ed e` una conseguenza delle definizioni di sottospazio vettoriale e di immagine di un sottospazio vettoriale. Teorema 6.4 Sia H ⊆ V un sottospazio vettoriale di V, allora l’insieme f (H), immagine del sottospazio vettoriale H mediante un’applicazione lineare f : V −→ W, e` un sottospazio vettoriale dello spazio vettoriale W.

Capitolo 6

249

Se dim(V ) = n e dim(H) = h con h ≤ n, data una base (a1 , a2 , . . . , ah ) di H, allora ogni vettore x di H si esprime come x = x1 a1 + x2 a2 + . . . + xh ah , con x1 , x2 , . . . , xh numeri reali. Di conseguenza, per la linearit`a di f, si ha: f (x) = x1 f (a1 ) + x2 f (a2 ) + . . . + xh f (ah ) da cui segue che i vettori f (a1 ), f (a2 ), . . . , f (ah ) sono generatori di f (H). In altri termini: dim(f (H)) ≤ h. Per determinare una base di f (H) e` sufficiente estrarre una base dal suo sistema di generatori {f (a1 ), f (a2 ), . . . , f (ah )}. Esercizio 6.4 Sia f : R3 −→ R4 l’applicazione lineare definita da: f ((x1 , x2 , x3 )) = (x1 + x2 , 2x1 + x2 + x3 , x1 + x3 , x2 − x3 ), calcolare una base e la dimensione di f (H), dove: H = {(x1 , x2 , x3 ) ∈ R3 | x1 + x2 + x3 = 0}. Soluzione Si verifica che dim(H) = 2 e, rispetto alla base canonica di R3 , una base di H e` data da (a1 , a2 ), con: a1 = (1, 0, −1),

a2 = (0, 1, −1),

allora f (H) e` generato dai vettori: f (a1 ) = (1, 1, 0, 1),

f (a2 ) = (1, 0, −1, 2),

scritti rispetto alla base canonica di R4 . Si tratta di due vettori linearmente indipendenti, pertanto costituiscono una base di f (H) e dim(f (H)) = 2. Data l’applicazione lineare f : V −→ W tra due spazi vettoriali V e W, come caso particolare di immagine di un sottospazio vettoriale di V si pu`o considerare il sottospazio vettoriale di W dato da f (V ), ci`o suggerisce la seguente definizione. Definizione 6.5 Si definisce sottospazio immagine e si indica con im f il sottospazio vettoriale f (V ) di W. In generale dim(im f ) ≤ dim(W ) e, in modo naturale, si ha il seguente teorema. Teorema 6.5 Un’applicazione lineare f : V −→ W tra due spazi vettoriali V e W e` suriettiva se e solo se im f = W.

Applicazioni Lineari

250

Osservazione 6.3 Se f : V −→ W e se dim(V ) = n, data una base B = (v1 , v2 , . . . , vn ) di V, allora: im f = L(f (v1 ), f (v2 ), . . . , f (vn )) quindi: dim(im f ) ≤ dim(V ). Se dim(W ) = m e C = (w1 , w2 , . . . , wm ) e` una base di W, indicata con A la matrice di Rm,n associata ad f rispetto alle basi B e C , dal Paragrafo 6.1 segue che: dim(im f ) = dim(C(A)) = rank(A), dove C(A) indica lo spazio vettoriale delle colonne della matrice A. Vale anche l’evidente ma importante teorema di seguito enunciato. Teorema 6.6 Tutte le matrici associate alla stessa applicazione lineare hanno lo stesso rango. In particolare matrici simili hanno lo stesso rango. Osservazione 6.4

1. f : V −→ W e` suriettiva se e solo se: rank(A) = dim(W )

dove A e` una qualsiasi matrice associata ad f . 2. Non esiste alcuna applicazione lineare suriettiva da R2 in R3 . Perch´e? Esercizio 6.5 Si calcoli im f, dove f : R3 −→ R4 e` l’applicazione lineare definita nell’Esercizio 6.4. Soluzione

La matrice associata ad f, rispetto alle basi canoniche di R3 e di R4 , e` :   1 1 0  2 1 1  ; A=  1 0 1  0 1 −1

riducendo A per colonne si ottiene: 

1  2   1 0

 1 0 1 1  −→  0 1  C2 → C2 − C 1 1 −1



 1 0 0  2 −1 1  −→    1 −1 1  C3 → C3 + C 2 0 1 −1



1 0  2 −1   1 −1 0 1

 0 0   0  0

quindi rank(A) = 2 da cui dim(im f ) = 2. Una base di im f e` data dalle due colonne non nulle della matrice ridotta per colonne, ossia im f = L((1, 2, 1, 0), (0, −1, −1, 1)).

Capitolo 6

251

Osservazione 6.5 Se si riduce per righe una qualsiasi matrice A associata ad un’applicazione lineare f : V −→ W si ottiene una matrice A0 , ridotta per righe, tale che rank(A) = rank(A0 ) = dim(im f ) ma in generale lo spazio vettoriale C(A) delle colonne di A e` diverso dallo spazio vettoriale C(A0 ) delle colonne di A0 . Pertanto ci si deve ricordare che per determinare una base di im f (e non solo la sua dimensione) si deve ridurre la matrice A per colonne e non per righe. Si intende ora discutere il problema analogo al calcolo dell’immagine di un sottospazio vettoriale del dominio di un’applicazione lineare, ma relativo ad un sottospazio vettoriale K del codominio. Si deve pertanto enunciare la seguente definizione. Definizione 6.6 Sia f : V −→ W un’applicazione lineare tra i due spazi vettoriali V e W. Si definisce controimmagine di un sottospazio vettoriale K di W mediante f il sottoinsieme di V dato da: f −1 (K) = {x ∈ V | f (x) ∈ K}, vale a dire l’insieme delle controimmagini di tutti i vettori di K. Anche in questo caso si pu`o dimostrare un teorema analogo al Teorema 6.4. Teorema 6.7 La controimmagine f −1 (K) di un sottospazio vettoriale K di W e` un sottospazio vettoriale di V. Dimostrazione Dalla definizione di sottospazio vettoriale (cfr. Def. 4.2) segue che e` necessario dimostrare che per ogni x1 , x2 ∈ f −1 (K) e per ogni λ, µ ∈ R si ha: λx1 + µx2 ∈ f −1 (K). Ci`o significa che si deve dimostrare che f (λx1 + µx2 ) e` un vettore di K. Per la linearit`a di f segue: f (λx1 + µx2 ) = λf (x1 ) + µf (x2 ). Poich´e x1 , x2 ∈ f −1 (K), le loro immagini f (x1 ) e f (x2 ) appartengono a K, cos`ı come la loro somma e il loro prodotto per numeri reali, essendo K un sottospazio vettoriale di W. Osservazione 6.6 Si faccia molta attenzione a non confondere (a causa della notazione usata) il sottospazio vettoriale f −1 (K) con la funzione inversa f −1 (se esiste) di f che sar`a definita nel Paragrafo 6.4. Esercizio 6.6 In quali casi la controimmagine di un sottospazio vettoriale coincide con tutto il dominio? Invece e` evidente che f −1 (K) = f −1 (K ∩ im f ).

Applicazioni Lineari

252

Esercizio 6.7 Data l’applicazione lineare f : R3 −→ R4 introdotta nell’Esercizio 6.4 si calcoli la controimmagine del sottospazio vettoriale K di R4 definito da: K = {(y1 , y2 , y3 , y4 ) ∈ R4 | y1 + y2 = 0}.

Soluzione

Il sottospazio vettoriale K e` dato da: K = {(t1 , −t1 , t2 , t3 ) | t1 , t2 , t3 ∈ R},

quindi i vettori x ∈ R3 la cui immagine appartiene a K sono le soluzioni dell’equazione matriciale AX = Y, con A matrice associata ad f (rispetto alle basi canoniche di R3 e di R4 ), X matrice colonna delle componenti di x rispetto alla base canonica di R3 e Y matrice colonna delle componenti, rispetto alla base canonica di R4 , del generico vettore di K. In questo caso si ha: 

1  2   1 0

1 0 1 1 0 1 1 −1

 t1 −→ −t1   R2 → R2 − 2R1 t2  R3 → R3 − R1 t3 

1 −→  0 R3 → R3 − R2   0 R4 → R4 + R2 0



1 1 0  0 −1 1   0 −1 1 0 1 −1

1 0 t1 1 −1 3t1 0 0 2t1 + t2 0 0 t3 − 3t1

t1 −3t1 t2 − t1 t3

   

   

da cui si ottiene che il sistema lineare e` compatibile se e solo se:  2t1 + t2 = 0, −3t1 + t3 = 0, ossia se t2 = −2t1 e t3 = 3t1 con t1 ∈ R. Si controlli, per esercizio, che le condizioni ottenute coincidono con l’imporre che i vettori (t1 , −t1 , t2 , t3 ) appartengano a K ∩ im f. Risolvendo il sistema lineare associato alla matrice ridotta per righe: 

1  0   0 0

1 0 t1 1 −1 3t1 0 0 0 0 0 0

   

Capitolo 6

si ottiene:

  x1 = t1 − λ x2 = λ  x3 = −3t1 + λ,

253

λ, t1 ∈ R,

da cui segue: f −1 (K) = L((−1, 1, 1), (1, 0, −3)). Si osservi che, in alternativa, in questo caso, si poteva pervenire allo stesso risultato sostituendo nell’equazione di K : y1 + y2 = 0 le equazioni di f :  y1    y2 y3    y4

= x1 + x2 = 2x1 + x2 + x3 , = x1 + x3 , = x2 − x 3 ,

da cui segue: 3x1 + 2x2 + x3 = 0 che e` l’equazione di f −1 (K), rispetto alla base canonica di R3 . Estremamente importante e` il caso particolare della controimmagine del sottospazio vettoriale improprio {oW } del codominio, per cui vale la seguente definizione. Definizione 6.7 Il nucleo di un’applicazione lineare f : V −→ W tra due spazi vettoriali V e W e` il sottospazio vettoriale di V controimmagine del sottospazio vettoriale {oW } del codominio W e si indica con: ker f = {x ∈ V | f (x) = oW }. Osservazione 6.7 Il fatto che ker f sia un sottospazio vettoriale di V segue dal Teorema 6.7. Esempio 6.19 Nel caso dell’identit`a, definita nell’Esempio 6.1, si ha che ker id = {o} e im id = V. Esempio 6.20 Nel caso dell’applicazione nulla, definita nell’Esempio 6.2, ker O = V e im O = {oW }. Esempio 6.21 L’applicazione lineare definita nell’Esempio 6.6 ha come nucleo il piano vettoriale ortogonale al vettore a, cio`e ker f = L(a)⊥ , mentre im f = R.

254

Applicazioni Lineari

Il calcolo del sottospazio vettoriale im f costituisce un test per valutare l’eventuale suriettivit`a dell’applicazione lineare f . Lo studio di ker f , invece, e` legato all’iniettivit`a di f , e precisamente vale il seguente teorema. Teorema 6.8 Sia f : V −→ W un’applicazione lineare tra gli spazi vettoriali V e W, f e` iniettiva se e solo se ker f = {oV }. Dimostrazione Se ker f = {oV } si tratta di dimostrare che f e` iniettiva, ossia che se f (x) = f (y), con x, y ∈ V allora x = y. Ma da f (x) = f (y) segue, per la linearit`a di f , che f (x − y) = oW , cio`e x − y = oV da cui la tesi. Viceversa, se f e` iniettiva e se si suppone che x ∈ ker f , allora f (x) = f (oV ) = oW , da cui x = oV . Per il calcolo esplicito di ker f, si consideri la matrice A = M B,C (f ) associata all’applicazione lineare f : V −→ W , rispetto alle basi B = (v1 , v2 , . . . , vn ) di V e C = (w1 , w2 , . . . , wm ) di W. Per definizione, un vettore x ∈ V appartiene a ker f se f (x) = oW , che, usando le equazioni dell’applicazione lineare f scritte rispetto alle basi B e C , equivale a: AX = O,

(6.11)

dove X indica la matrice colonna delle componenti di x rispetto alla base B e O ∈ Rn,1 e` la matrice colonna nulla. Quindi calcolare ker f equivale a risolvere il sistema lineare omogeneo (6.11). Dal Teorema 4.23 segue: dim(ker f ) = dim(V ) − rank(A).

(6.12)

Esempio 6.22 Si calcoli ker f nel caso dell’applicazione lineare introdotta nell’Esercizio 6.4 e studiata anche nell’Esercizio 6.5. Riducendo per righe la matrice A associata ad f , rispetto alle basi canoniche di R3 e R4 , si ha:     1 1 0 1 1 0 −→  2 1  1  1   R2 → R2 − 2R1  0 −1  A=  0 −1  1 0 1  1  R3 → R3 − R1 0 1 −1 0 1 −1 

1 1 −→  0 −1 R3 → R3 − R2   0 0 R4 → R4 + R2 0 0

 0 1   0  0

da cui si ottiene che rank(A) = 2 = dim(im f ), mentre dim(ker f ) = 1 = 3 − 2. Risolvendo il sistema lineare omogeneo ridotto associato alla matrice ridotta per righe prima

Capitolo 6

255

ottenuta segue che ker f = L((−1, 1, 1)). Si ricordi che, per determinare esplicitamente im f , si deve ridurre la matrice A per colonne, come spiegato nell’Esercizio 6.5. Esercizio 6.8 Sia f : R3 −→ R3 l’endomorfismo definito da:   f (e1 ) = 2e1 f (e2 ) = e1 + e2 + e3  f (e3 ) = −e1 + e2 − e3 , con B = (e1 , e2 , e3 ) base canonica di R3 . Calcolare ker f e im f . Soluzione

La matrice associata ad f, rispetto alla base canonica B di R3 , e` :   2 1 −1 1 . A= 0 1 0 1 −1

Poich´e det(A) = −4, il rango di A e` 3, quindi dim(im f ) = 3, ossia im f = R3 e dim(ker f ) = 0, da cui ker f = {o}. Quindi f e` sia iniettiva sia suriettiva. Il teorema che segue stabilisce che l’iniettivit`a di un’applicazione lineare f e` equivalente al fatto che dim(f (H)) = dim(H), per ogni sottospazio vettoriale H del dominio. Teorema 6.9 L’applicazione lineare f : V −→ W tra due spazi vettoriali V e W e` iniettiva se e solo se l’immagine di ogni insieme libero di V e` un insieme libero di W. Dimostrazione Sia f : V −→ W un’applicazione lineare iniettiva e sia {a1 , a2 , . . . , ak } un insieme di vettori linearmente indipendenti di V, si tratta di dimostrare che l’insieme di vettori {f (a1 ), f (a2 ), . . . , f (ak )} di W e` libero. La tesi segue dalla definizione di vettori linearmente indipendenti e dal Teorema 6.8. Infatti, se si considera la combinazione lineare: λ1 f (a1 ) + λ2 f (a2 ) + . . . + λk f (ak ) = oW , con λ1 , λ2 , . . . , λk ∈ R, per la linearit`a di f si ha: f (λ1 a1 + λ2 a2 + . . . + λk ak ) = oW e, quindi, per l’iniettivit`a di f segue λ1 = λ2 = . . . = λk = 0. Viceversa, sia x 6= oV , allora {x} e` un insieme libero in V e quindi per ipotesi anche l’insieme {f (x)} e` un insieme libero. Pertanto f (x) 6= oW , da cui segue che necessariamente ker f = {oV }, quindi la tesi.

256

Applicazioni Lineari

Definizione 6.8 Dati due spazi vettoriali V e W, un’applicazione lineare f : V −→ W che sia biiettiva (cio`e iniettiva e suriettiva) prende il nome di isomorfismo tra V e W. Se e` possibile definire un isomorfismo tra due spazi vettoriali, questi si dicono isomorfi. Un endomorfismo f : V −→ V biiettivo prende il nome di automorfismo di V. Il teorema che segue stabilisce un’importante relazione tra le dimensioni di ker f e di V ed il rango di una qualunque matrice associata all’applicazione lineare f : V −→ W, ottenendo in questo modo un’altra dimostrazione del Teorema del Rango 4.19. Teorema 6.10 – Teorema del Rango – Sia f : V −→ W un’applicazione lineare tra due spazi vettoriali V e W, allora: dim(ker f ) + dim(im f ) = dim(V ). Dimostrazione Si supponga che dim(V ) = n e dim(ker f ) = h ≤ n. Se h = 0 e se h = n il teorema e` dimostrato (perch´e?). Sia dunque h < n e sia (a1 , a2 , . . . , ah ) una base di ker f . Usando il Teorema 4.15 si completi tale insieme libero di vettori fino ad ottenere la base di V (a1 , a2 , . . . , ah , b1 , b2 , . . . , bn−h ). Dall’Osservazione 6.3 si ha che: {f (a1 ), f (a2 ), . . . , f (ah ), f (b1 ), f (b2 ), . . . , f (bn−h )} e` un sistema di generatori di im f . Poich´e f (a1 ) = oW , f (a2 ) = oW , . . . , f (ah ) = oW , la tesi segue se si dimostra che C = {f (b1 ), f (b2 ), . . . , f (bn−h )} e` un insieme libero di W e, quindi, una base di im f . Per provare l’indipendenza lineare dei vettori di C si pone: λ1 f (b1 ) + λ2 f (b2 ) + . . . + λn−h f (bn−h ) = oW , con λi ∈ R, i = 1, 2, . . . , n − h, ossia: f (λ1 b1 + λ2 b2 + . . . + +λn−h bn−h ) = oW , da cui segue che il vettore λ1 b1 + λ2 b2 + . . . + +λn−h bn−h appartiene a ker f, come tale si pu`o scrivere come combinazione lineare dei vettori della base (a1 , a2 , . . . , ah ) di ker f . Dall’espressione esplicita di tale combinazione lineare e dal fatto che (a1 , a2 , . . . , ah , b1 , b2 , . . . , bn−h ) e` una base di V segue che λ1 = λ2 = . . . = λn−h = 0, ovvero la tesi. Osservazione 6.8 Si osservi che, nelle ipotesi del teorema precedente, dim(ker f ) = dim(N (A)) = n − dim(R(A)), dove A indica una matrice associata ad f, rispetto ad una base di V e ad una base di W, N (A) e` il nullspace di A e R(A) indica lo spazio vettoriale delle righe di A. Dal

Capitolo 6

257

fatto che dim(im f ) = dim(C(A)), con C(A) spazio vettoriale delle colonne di A, segue quindi che: dim(R(A)) = dim(C(A)), vale a dire il Teorema del Rango 4.19. Infatti ogni matrice A ∈ Rm,n pu`o sempre essere considerata come associata ad un’applicazione lineare f : Rn −→ Rm , rispetto alle basi canoniche di Rn e di Rm . Nel caso particolare di un endomorfismo di V, tutti i risultati man mano ottenuti si possono riassumere nel seguente teorema, la cui dimostrazione e` lasciata per esercizio. Teorema 6.11 1. Sia f : V −→ W un’applicazione lineare tra due spazi vettoriali V e W con dim(V ) = dim(W ), allora f e` iniettiva se e solo se f e` suriettiva. 2. Sia f : V −→ W un’applicazione lineare tra due spazi vettoriali V e W con dim(V ) = dim(W ), allora: a. f e` un isomorfismo se e solo se ker f = {oV }. b. f e` un isomorfismo se e solo se im f = W. 3. Sia f : V −→ V un endomorfismo di uno spazio vettoriale reale V, allora: a. f e` un automorfismo se e solo se ker f = {oV }. b. f e` un automorfismo se e solo se im f = V. Osservazione 6.9 Il teorema precedente, il Teorema 6.8 e l’Osservazione 6.4 possono essere riscritti in termini di una qualsiasi matrice associata ad un’applicazione lineare f nel modo seguente. 1. Sia f : V −→ W un’applicazione lineare tra due spazi vettoriali V e W, con dim(V ) = n e sia B = (v1 , v2 , . . . , vn ) una base di V. Sia dim(W ) = m e sia C = (w1 , w2 , . . . , wm ) una base di W. Si indichi con A ∈ Rm,n la matrice M B,C (f ) associata a f, rispetto alle basi B e C, allora: rank(A) = n

⇐⇒

f e` iniettiva,

rank(A) = m

⇐⇒

f e` suriettiva.

2. Sia f : V −→ W un’applicazione lineare tra due spazi vettoriali V e W tali che dim(V ) = dim(W ) = n. Sia B = (v1 , v2 , . . . , vn ) una base di V e sia C = (w1 , w2 , . . . , wn ) una base di W. Si indichi con A ∈ Rn,n la matrice quadrata M B,C (f ) associata a f, rispetto alle basi B e C, allora: rank(A) = n

⇐⇒

det(A) 6= 0

⇐⇒

f e` un isomorfismo.

Applicazioni Lineari

258

3. Sia f : V −→ V un’endomorfismo di uno spazio vettoriale V, con dim(V ) = n e con B = (v1 , v2 , . . . , vn ) base di V. Si indichi con A ∈ Rn,n la matrice quadrata M B,B (f ) associata a f , rispetto alla base B, allora: rank(A) = n

⇐⇒

det(A) 6= 0

⇐⇒

f e` un automorfismo.

A completamento, invece, dello studio della controimmagine di un sottospazio vettoriale mediante un’applicazione lineare, e` utile risolvere il seguente esercizio la cui soluzione e` lasciata al Lettore. Esercizio 6.9 Sia f : V −→ W un’applicazione lineare tra due spazi vettoriali V e W. Sia K un sottospazio vettoriale di W allora: 1. ker f ⊆ f −1 (K); 2. se K ⊆ im f allora dim(f −1 (K)) = dim(ker f ) + dim(K); 3. in generale dim(f −1 (K ∩ im f )) = dim(ker f ) + dim(K ∩ im f ). L’ultimo teorema di questo paragrafo stabilisce la condizione necessaria e sufficiente affinch´e due spazi vettoriali siano isomorfi. Teorema 6.12 Due spazi vettoriali sono isomorfi se e solo se essi hanno la stessa dimensione. Dimostrazione Il fatto che due spazi vettoriali isomorfi abbiano la stessa dimensione segue in modo evidente dai teoremi precedenti. Viceversa, si considerino due spazi vettoriali V e W tali che dim(V ) = dim(W ) = n, il teorema e` dimostrato se si e` in grado di definire un isomorfismo tra di essi. Fissate dunque una base B = (v1 , v2 , . . . , vn ) in V e una base C = (w1 , w2 , . . . , wn ) in W, si definisca f : V −→ W ponendo: f (v1 ) = w1 ,

f (v2 ) = w2 ,

...,

f (vn ) = wn ,

f e` un isomorfismo in quanto im f = W . Osservazione 6.10 Si osservi che, anche nel caso di un endomorfismo f : V −→ V dalla relazione dim(ker f ) + dim(im f ) = dim(V ) non segue ker f ⊕ im f = V. Si consideri, per esempio, un endomorfismo f di V tale che f 2 = O con O : V −→ V endomorfismo nullo, dove f 2 e` la composizione f ◦f definita da f 2 (x) = f (f (x)) (cfr. Par. 6.4). Anche

Capitolo 6

259

se non e` ancora stato formalmente introdotto il concetto di composizione di applicazioni lineari la sua definizione e` molto naturale. Dati x0 ∈ im f e x ∈ V tali che f (x) = x0 , applicando f ad ambo i membri dell’ultima uguaglianza, segue f 2 (x) = f (x0 ) = o, quindi im f ⊆ ker f . Sia A una matrice associata a f rispetto ad una base di V, poich´e im f = C(A) (dove C(A) indica lo spazio vettoriale generato dalle colonne di A) e ker f = N (A) (dove N (A) indica il nullspace di A), si e` costruito un esempio in cui C(A) ⊆ N (A). Si tratta, infatti, di un esercizio che completa la trattazione del Teorema 4.24. Esempio 6.23 Usando le stesse notazioni del Paragrafo 4.3.4, si considerino due basi B = (v1 , v2 , . . . , vn ) e B 0 = (v10 , v20 , . . . , vn0 ) in uno spazio vettoriale V. Come gi`a 0 osservato nell’Esempio 6.14, la matrice M B,B (id) associata all’identi`a di V rispetto alla base B nel dominio e alla base B 0 nel codominio e` la matrice del cambiamento di base da B 0 a B (attenzione allo scambio dell’ordine delle due basi!) Invece se si considera l’applicazione lineare: p : V −→ V,

vi 7−→ vi0 ,

i = 1, 2, . . . , n,

si ottiene, dalla sua definizione, che p e` un automorfismo di V (cfr. Teor. 6.12). La matrice ad essa associata, rispetto alla base B sia nel dominio sia nel codomino, e` la 0 matrice del cambiamento di base P = M B,B , ottenuta, infatti, ponendo in colonna le componenti dei vettori della base B 0 rispetto ai vettori della base B. Si osservi, invece, che la matrice associata all’applicazione lineare p rispetto alla base B nel dominio e alla base B 0 nel codominio e` la matrice unit`a I di ordine n anche se p non e` l’applicazione lineare identica. Si vuole in questo esempio approfondire il legame tra le equazioni del cambiamento di base da B a B 0 e le equazioni dell’automorfismo p, riferite alla matrice P ad esso associata. Si ricordi che (cfr. Par. 4.3.4), dato un vettore x di V le sue componenti:   x1  x2    X =  .. ,  .  xn scritte rispetto alla base B, e le sue componenti:  x01  x0  2 0 X =  ..  . x0n

   , 

scritte rispetto alla base B 0 , sono legate dalle equazioni del cambiamento di base: X = P X 0.

(6.13)

Applicazioni Lineari

260

D’altra parte, l’immagine del vettore x mediante l’automorfismo p e` il vettore:   v1    v2  p(x) = y1 y2 . . . yn  ..   .  vn tale che: Y = P X, dove:

   Y = 

y1 y2 .. .

(6.14)

   . 

yn Si osservi che le equazioni (6.13) e (6.14) sono in perfetto accordo in quanto: p(x) = y1 v1 + y2 v2 + . . . + yn vn = p(x1 v1 + x2 v2 + . . . + xn vn ) = x1 p(v1 ) + x2 p(v2 ) + . . . + xn p(vn ) = x1 v10 + x2 v20 + . . . + xn vn0 , ossia (x1 , x2 , . . . , xn ) sono le componenti di p(x) rispetto alla base B 0 e (y1 , y2 , . . . , yn ) sono le componenti di p(x) rispetto alla base B.

6.4

Operazioni tra applicazioni lineari

In questo paragrafo si inizia con il dimostrare che l’insieme delle applicazioni lineari tra due spazi vettoriali reali V e W : L(V, W ) = {f : V −→ W | f e` un’applicazione lineare} e` uno spazio vettoriale reale. Infatti, date f, g ∈ L(V, W ), si definisce somma di f e di g la funzione data da: (f + g)(x) = f (x) + g(x), per ogni x ∈ V. La funzione f + g e` ancora un elemento di L(V, W ), la verifica e` lasciata per esercizio. Si dimostra anche facilmente che per la somma di applicazioni lineari appena definita valgono le propriet`a commutativa ed associativa. Esiste, inoltre, l’elemento neutro rispetto alla somma di applicazioni lineari dato dall’applicazione lineare nulla

Capitolo 6

261

O definita nell’Esempio 6.2 e l’applicazione lineare opposta di f ∈ L(V, W ), data da (−f )(x) = −f (x), con x ∈ V. In modo altrettanto naturale, e` possibile definire il prodotto di un numero reale λ per una applicazione lineare f ∈ L(V, W ) come: (λf )(x) = λf (x), per ogni x ∈ V. Si verifica che tale prodotto λf e` ancora un’applicazione lineare per cui valgono le quattro propriet`a di definizione di prodotto di un numero reale per un vettore (la verifica e` un facile esercizio). Segue che L(V, W ) e` un esempio di spazio vettoriale su R. Siano dim(V ) = n e B = (v1 , v2 , . . . , vn ) una base di V. Inoltre, siano dim(W ) = m e C = (w1 , w2 , . . . , wm ) una base di W. Siano A = M B,C (f ) ∈ Rm,n la matrice associata a f e B = M B,C (g) ∈ Rm,n la matrice associata a g, e` un esercizio dimostrare che A + B e` la matrice associata a f + g, rispetto alle basi B e C. Inoltre λA e` la matrice associata a λf, rispetto alle basi B e C. Fissate le basi B di V e C di W viene cos`ı definita, in modo naturale, la funzione: φ : L(V, W ) −→ Rm,n ,

f 7−→ M B,C (f ),

ossia φ e` la funzione che associa ad ogni applicazione lineare f la matrice associata ad f (rispetto alle basi B e C del dominio e del codominio). E` di nuovo un esercizio verificare che φ e` un isomorfismo, quindi segue dal Teorema 6.12 che: dim(L(V, W )) = mn.

(6.15)

Ci si occuper`a ora della composizione di due applicazioni lineari opportunamente definite. Sia f : V −→ W un’applicazione lineare tra due spazi vettoriali V e W. Ponendo dim(V ) = n e B = (v1 , v2 , . . . , vn ) base di V, dim(W ) = m e C = (w1 , w2 , . . . , wm ) base di W, si indichi con A ∈ Rm,n la matrice associata ad f rispetto alle basi B e C . Sia g : W −→ Z un’altra applicazione lineare tra gli spazi vettoriali W e Z. Posto dim(Z) = p e D = (z1 , z2 , . . . , zp ) una base di Z, si indichi con B in Rp,m la matrice associata a g rispetto alle basi C e D. La funzione: g ◦ f : V −→ Z,

x 7−→ g(f (x))

prende il nome di composizione delle applicazioni lineari f e g. E` un facile esercizio verificare che g ◦ f e` un’applicazione lineare. Si vuole, quindi, determinare la matrice ad essa associata, rispetto alle basi B e D. Le equazioni dell’applicazione lineare f sono Y = AX , dove X indica la matrice colonna di Rn,1 delle componenti del generico vettore

Applicazioni Lineari

262

x di V rispetto alla base B e Y indica la matrice colonna di Rm,1 delle componenti di f (x) rispetto alla base C . Calcolando l’immagine di f (x) mediante g si ottiene Z = BY dove Z indica la matrice colonna di Rp,1 delle componenti di g(f (x)), rispetto alla base D, sostituendo si ha: Z = BY = BAX, quindi la matrice C ∈ Rp,n associata a g ◦ f , rispetto alle basi B e D e` data dal prodotto: C = BA.

(6.16)

Osservazione 6.11 Questo risultato costituisce un’altra giustificazione della definizione di prodotto di matrici (righe per colonne) introdotto nel Capitolo 2 e permette di dimostrare in modo alternativo a quanto visto nel Paragrafo 4.5.1 la relazione: rank(BA) ≤ min(rank(B), rank(A)). Infatti, se f, g sono le applicazioni lineari rappresentate dalle matrici A e B si ha che il prodotto BA, come e` stato appena dimostrato, e` la matrice associata alla composizione g ◦ f . Dall’inclusione, di facile dimostrazione, im(g ◦ f ) ⊂ im g , si ottiene: rank(BA) = dim(im(g ◦ f )) ≤ dim(im g) = rank(B). Inoltre, dall’inclusione, anch’essa facilmente dimostrabile, ker f ⊂ ker(g ◦ f ) e grazie al Teorema del Rango 6.10 si ottiene l’altra disuguaglianza: rank(BA) = dim(im(g ◦ f )) ≤ dim(im f ) = rank(A). Esercizio 6.10 Si considerino gli spazi vettoriali R2 , R3 , R4 riferiti alle rispettive basi canoniche B, B 0 , B 00 . Date le applicazioni lineari:   1 −1 2 0 f : R3 −→ R2 , con A = M B ,B (f ) = , 1 −2 3 4

2

g : R −→ R ,

con B = M

B00 ,B

 (g) =

−3 −4 −5 −9

3 0 4 −1

 ,

determinare, se esiste, un’applicazione lineare h : R4 −→ R3 tale che f ◦ h = g . Soluzione All’applicazione lineare h (rispetto alla basi canoniche del dominio e del codominio) si associa una matrice X ∈ R3,4 , tale che AX = B . Si tratta, quindi, di risolvere l’equazione matriciale cos`ı ottenuta usando il metodo descritto nel Capitolo 2.

Capitolo 6

263

Nel caso particolare di L(V, V ), ossia dello spazio vettoriale degli endomorfismi di V, a volte anche indicato con il simbolo End(V ), la composizione di due endomorfismi e` un’operazione interna, per cui vale la propriet`a associativa, esiste l’elemento neutro (l’applicazione lineare identica) ma non vale la propriet`a commutativa. Da nozioni elementari di algebra segue che una funzione e` invertibile se e solo se e` una biiezione. Si supponga che f ∈ End(V ) sia una biiezione, ossia che f sia un automorfismo di V, esiste allora la funzione inversa f −1 di f definita come l’unica funzione per cui: f −1 ◦ f = f ◦ f −1 = id, con id identit`a di V. Nel caso degli automorfismi di End(V ) si pu`o dimostrare il seguente teorema. Teorema 6.13 Sia V uno spazio vettoriale reale. 1. Se f e` un automorfismo di V, anche f −1 e` un automorfismo di V. 2. Se f e g sono automorfismi di V, la loro composizione g ◦ f e` ancora un automorfismo di V, inoltre: (g ◦ f )−1 = f −1 ◦ g −1 . (6.17) Dimostrazione Per dimostrare 1. e` sufficiente dimostrare che f −1 e` un endomorfismo di V, ossia che per ogni x1 , x2 ∈ V e per ogni λ, µ ∈ R allora: f −1 (λx1 + µx2 ) = λf −1 (x1 ) + µf −1 (x2 ). Ma l’uguaglianza e` vera perch´e se si applica f ad ambo i membri si ha: f (f −1 (λx1 + µx2 )) = f (λf −1 (x1 ) + µf −1 (x2 )) = λf (f −1 (x1 )) + µf (f −1 (x2 )). La tesi segue dalla definizione di inversa di una funzione, dal fatto che una funzione invertibile e` necessariamente iniettiva e dalla linearit`a di f. Per dimostrare 2. tenendo conto che la composizione di due endomorfismi e` un endomorfismo, e` sufficiente dimostrare che g ◦ f e` iniettivo. Ma per l’iniettivit`a di f e di g , si ha (g ◦ f )(x) = o se e solo se x = o. La dimostrazione di (6.17) e` lasciata al Lettore per esercizio. Osservazione 6.12 1. Pi`u in generale, se f : V −→ W e` una biezione tra due spazi vettoriali V e W diversi, si pu`o ugualmente introdurre il concetto di funzione inversa f −1 come l’unica funzione f −1 : W −→ V tale che f −1 ◦ f = idV ,

f ◦ f −1 = idW ,

dove idV e idW indicano, rispettivamente, l’identit`a di V e l’identit`a di W. Se f e` un isomorfismo si dimostra, come nel teorema precedente, che f −1 e` ancora un isomorfismo.

Applicazioni Lineari

264

2. Dal fatto che la matrice associata alla composizione di due applicazioni lineari e` il prodotto delle matrici associate alle due applicazioni lineari (scegliendo opportunamente le basi nel dominio e nel codominio) segue che all’applicazione lineare inversa di f e` associata la matrice inversa a quella associata ad f (rispetto alla stessa scelta di basi in V ). Si noti l’assoluto accordo tra risultati noti sull’esistenza dell’inversa di una matrice quadrata (rango massimo) e sull’esistenza dell’inverso di un endomorfismo (biiettivit`a quindi rango massimo della matrice associata). Si osservi, inoltre, che la relazione (6.17) corrisponde alla relazione (BA)−1 = A−1 B −1 (cfr. Teor. 2.6) se si considera A matrice associata ad f e B matrice associata a g . Esercizio 6.11 Sia f : V −→ W un isomorfismo tra due spazi vettoriali reali V e W. Data una base C = (w1 , w2 , . . . , wn ) di W dimostrare che esiste una base B di V tale che la matrice associata ad f rispetto alle basi B e C sia la matrice unit`a I di ordine n. Soluzione

La base B e` data da: B = (f −1 (w1 ), f −1 (w2 ), . . . , f −1 (wn )),

dove per f −1 indica l’isomorfismo inverso di f. La dimostrazione del fatto che B sia una base di V e che M B,C (f ) = I e` lasciata al Lettore per esercizio. Esempio 6.24 Si consideri la rotazione R[θ] : V2 −→ V2 in senso antiorario di angolo θ di ogni vettore x del piano vettoriale V2 . Nel Paragrafo 3.8 e` stata determinata la matrice del cambiamento di base da una base ortonormale B = (i, j) di V2 alla base ortonormale B 0 = (i0 , j0 ) ottenuta a partire dalla base B mediante la rotazione di angolo θ. Pertanto la matrice associata a R[θ], rispetto alla base B, coincide con la matrice del cambiamento di base, ossia:   cos θ − sin θ B,B M (R[θ]) = , sin θ cos θ mentre le equazioni della rotazione R[θ], che applicata ad un vettore x = xi+yj permette di ottenere il vettore R[θ](x) = x0 i + y 0 j, sono: 

x0 = x cos θ − y sin θ y 0 = x sin θ + y cos θ.

Si lascia per esercizio la verifica del fatto che la composizione delle rotazioni R[θ1 ] e R[θ2 ], rispettivamente di angoli θ1 e θ2 , e` la rotazione R[θ1 + θ2 ]. La rotazione R[θ] e` un automorfismo di V2 per ogni valore dell’angolo θ, si verifichi per esercizio che l’inversa della rotazione R[θ] e` la rotazione R[−θ].

Capitolo 6

265

L’insieme delle rotazioni del piano vettoriale V2 , studiate nell’esempio precedente, e` un esempio di gruppo commutativo (cfr. Oss. 2.2). Esso e` in generale indicato come SO(2) e denominato gruppo ortogonale speciale di ordine 2 (cfr. (5.10)):  SO(2) = {R[θ] | θ ∈ [0, 2π)} =

cos θ − sin θ sin θ cos θ



2,2

∈R

 | θ ∈ [0, 2π) .

In particolare, esso e` un sottogruppo del gruppo O(2) delle matrici ortogonali di ordine 2, dove e` chiaro che un sottogruppo di un gruppo e` un sottoinsieme chiuso rispetto all’operazione del gruppo e contenente l’inverso di ogni suo elemento (cfr. Oss. 4.5 per la nozione di sottogruppo). Dato uno spazio vettoriale reale V, l’insieme degli automorfismi di V, indicato come: GL(V, R) = {f : V −→ V | f e` un automorfismo} e` un gruppo rispetto alla composizione di automorfismi e, in generale, non e` commutativo. Se dim(V ) = n e fissata una base B in V allora si pu`o stabilire, in modo naturale, la corrispondenza biunivoca tra GL(V, R) ed il gruppo lineare generale reale GL(n, R) (cfr. Oss. 2.7) che associa ad ogni f ∈ GL(V, R) la matrice A = M B,B (f ). Tale biiezione e` un automorfismo in quanto alla composizione di automorfismi si associa il prodotto di matrici e all’inverso di un automorfismo si associa l’inversa della matrice. Un importante sottogruppo di GL(n, R) e` il gruppo ortogonale O(n) delle matrici ortogonali di Rn.n , definito in (2.9). Per approfondimenti sull’argomento e maggiori dettagli si rimanda a testi classici di teoria dei gruppi, quali ad esempio [2] e [13].

6.5

Sottospazi vettoriali invarianti

Sia f : V −→ V e` un endomorfismo di uno spazio vettoriale reale V, il nucleo di f, ker f, gode di un’interessante propriet`a in quanto l’immagine di ogni suo elemento e` ancora un elemento di ker f , ossia: f (ker f ) ⊆ ker f, infatti si ha banalmente f (ker f ) = {o}. Lo studio dei sottospazi vettoriali di V per cui vale lo stesso tipo di propriet`a rivestir`a una grande importanza nel capitolo successivo, e` giustificata quindi la definizione che segue. Definizione 6.9 Sia f : V −→ V un endomorfismo di uno spazio vettoriale V e sia H un sottospazio vettoriale di V, H si dice invariante per f se f (H) ⊆ H. Osservazione 6.13 La definizione precedente e` ragionevole solo nel caso di un endomorfismo, infatti se f e` un’applicazione lineare f : V −→ W, tra due spazi vettoriali V e W

266

Applicazioni Lineari

diversi, non ha senso confrontare un sottospazio vettoriale H di V con la sua immagine f (H). Per i sottospazi vettoriali invarianti vale la seguente propriet`a, la cui dimostrazione e` lasciata al Lettore per esercizio. Teorema 6.14 Sia f un endomorfismo di uno spazio vettoriale V. Se H1 , H2 , . . . , Hk sono sottospazi vettoriali di V invarianti per f, allora la loro somma H1 + H2 + . . . + Hk e` un sottospazio vettoriale di V invariante per f . Esercizio 6.12 Sia f : V3 −→ V3 l’endomorfismo, una base ortonormale positiva B = (i, j, k) di V3 , e` :  cos θ − sin θ  sin θ cos θ A= 0 0

la cui matrice associata, rispetto ad  0 0 . 1

Si descriva il significato geometrico di f e si dimostri che il piano L(i, j) e` un sottospazio vettoriale di V3 invariante per f. Esercizio 6.13 Sia f : R3 −→ R3 un endomorfismo tale che f 3 = f ◦ f ◦ f = O e per cui f 2 6= O, dove O indica l’applicazione nulla di R3 . Si dimostri che ker(f 2 ) e` un sottospazio vettoriale invariante per f . Per svolgere l’esercizio si tenga conto che ker f ⊆ ker(f 2 ) e che f 3 (x) = (f ◦ f 2 )(x), x ∈ V.

Data un’applicazione lineare f : V −→ W tra due spazi vettoriali V e W ed un sottospazio vettoriale H del dominio, si introduce in modo naturale il concetto di restrizione di f a H nel modo seguente. Definizione 6.10 Sia f : V −→ W un’applicazione lineare tra due spazi vettoriali V e W, sia H un sottospazio vettoriale di V, la restrizione di f a H e` la funzione: f |H : H −→ W,

x 7−→ f (x).

Il teorema che segue si ottiene in modo evidente dalla definizione di restrizione di un’applicazione lineare e dalla definizione di sottospazio vettoriale invariante per un endomorfismo. Teorema 6.15 1. La restrizione di un’applicazione lineare f : V −→ W tra due spazi vettoriali V e W ad un sottospazio vettoriale H di V e` ancora un’applicazione lineare.

Capitolo 6

267

2. La restrizione di un endomorfismo f : V −→ V ad un sottospazio vettoriale H di V invariante per f e` ancora un endomorfismo: f |H : H −→ H tale che: f |H (x) = f (x),

x ∈ H.

(6.18)

Esercizio 6.14 Verificare che la restrizione f |H di un endomorfismo f di uno spazio vettoriale reale V a H = ker f e` l’applicazione lineare nulla su H. Esercizio 6.15 Sia f : R4 −→ R3 l’applicazione lineare definita da: f ((x1 , x2 , x3 , x4 )) = (3x1 + 5x2 + x3 + 2x4 , 3x1 + 5x2 + 3x3 + 4x4 , x3 + x4 ); si consideri l’iperpiano vettoriale H di R4 di equazione x1 + x2 + x3 − x4 = 0. Verificare che l’insieme B = {(1, 0, 0, 1), (0, 1, 0, 1), (0, 0, 1, 1)} e` una base di H e scrivere la matrice A0 della restrizione di f ad H, rispetto alla base B del dominio e alla base canonica del codominio. Soluzione L’iperpiano vettoriale H ha dimensione 3, si verifica facilmente che B e` una sua base in quanto i vettori di B appartengono ad H e sono linearmente indipendenti. La matrice A associata all’applicazione lineare f rispetto alle basi canoniche di R4 e di R3 e` : 

 3 5 1 2 A =  3 5 3 4 . 0 0 1 1 Le immagini dei vettori di B mediante f sono:    1 3 5 1 2   5  3 5 3 4   0  =  7 ,  0  0 0 1 1 1 1 





   0 3 3 5 1 2    3 5 3 4   0  =  7 .  1  0 0 1 1 2 1 





Segue, quindi, che la matrice A0 richiesta e` :

   0 3 5 1 2   7  3 5 3 4   1  =  9 ,  0  0 0 1 1 1 1 





Applicazioni Lineari

268



 5 7 3 A0 =  7 9 7 . 1 1 2

6.6

Applicazione lineare aggiunta Endomorfismi autoaggiunti

Siano (V, · ) e (W, · ) due spazi vettoriali euclidei e sia f : V −→ W un’applicazione lineare. Tramite i prodotti scalari definiti su V e su W e` possibile introdurre una nuova applicazione lineare da W a V nel modo seguente. Teorema 6.16 Siano (V, · ) e (W, · ) due spazi vettoriali euclidei di dimensione n e m, rispettivamente. Data un’applicazione lineare f : V −→ W, esiste un’unica applicazione lineare: f † : W −→ V, detta applicazione lineare aggiunta di f , tale che: f (x) · y = x · f † (y),

x ∈ V, y ∈ W.

(6.19)

Inoltre, se B = (v1 , v2 , . . . , vn ) e C = (w1 , w2 , . . . , wm ) sono basi ortonormali di V e W rispettivamente, le matrici associate a f e f † verificano la seguente relazione: M C,B (f † ) = t (M B,C (f )), ossia la matrice associata a f † , rispetto alle basi ortonormali B e C, e` la trasposta della matrice associata a f rispetto alle stesse basi in ordine scambiato. Dimostrazione La relazione (6.19) permette di dimostrare che f † e` una funzione. Infatti, per ogni y ∈ W esiste ed e` unico f † (y), in quanto fissato x ∈ V, il primo membro di (6.19) e` ben determinato. Inoltre f † e` un’applicazione lineare, la verifica e` un facile esercizio che segue dalla linearit`a di f e dalle propriet`a del prodotto scalare. Sia A = M B,C (f ) la matrice associata a f rispetto alle basi ortonormali B e C e siano x = x1 v1 + x2 v2 + . . . + xn vn ∈ V, y = y1 w1 + y2 w2 + . . . + ym wm ∈ W. Per l’ortonormalit`a di C si ha: f (x) · y = t (AX)Y = tX tA Y, dove X e Y sono le matrici colonna con elementi le componenti di x e di y rispettivamente. Se si indicano con Z la matrice colonna con elementi le componenti di z = f † (y) rispetto alla base B, per l’ortonormalit`a di B e dall’uguaglianza (6.19), si ottiene: t

X tA Y = x · z = tX Z,

Capitolo 6

269

per ogni X , Y e Z , da cui Z = tA Y. Quindi si ha che la matrice associata a f † e` M C,B (f † ) = tA. Osservazione 6.14 1. Come conseguenza del precedente teorema e dell’Osservazione 4.26 si ha dim(im f ) = dim(im f † ). 2. Dalla definizione di applicazione lineare aggiunta segue che (f † )† = f. 3. Se le basi B e C non sono ortonormali, la relazione tra le matrici associate a f e f † e` pi`u complicata. Esercizio 6.16 Siano (V, · ) e (W, · ) due spazi vettoriali euclidei. Verificare che, se f : V −→ W e` un’applicazione lineare e f † : W −→ V e` l’applicazione lineare aggiunta di f , allora: 1. V = im f † ⊕ ker f, 2. W = im f ⊕ ker f † , 3. im f † = (ker f )⊥ , 4. im f = (ker f † )⊥ . Esercizio 6.17 Verificare che, se f, g sono endomorfismi di uno spazio vettoriale euclideo (V, · ), allora: (g ◦ f )† = f † ◦ g † e che se f e` invertibile, allora: (f −1 )† = (f † )−1 .

Nel caso di un endomorfismo f di uno spazio vettoriale euclideo V ha senso confrontare f con la propria applicazione lineare aggiunta f † ed e` pertanto naturale enunciare la seguente definizione. Definizione 6.11 Sia f un endomorfismo di uno spazio vettoriale euclideo (V, · ), f si dice autoaggiunto (o simmetrico), se f † = f , ossia se: f (x) · y = x · f (y),

x, y ∈ V.

Applicazioni Lineari

270

Esempio 6.25 Si consideri lo spazio vettoriale euclideo (R2 , · ) dotato del prodotto scalare standard. L’endomorfismo f : R2 −→ R2 ,

(x, y) 7−→ (y, x + 2y)

e` autoaggiunto. Infatti: f ((x, y)) · (x0 , y 0 ) = (y, x + 2y) · (x0 , y 0 ) = yx0 + xy 0 + 2yy 0 , (x, y) · f ((x0 , y 0 )) = (x, y) · (y 0 , x0 + 2y 0 ) = xy 0 + yx0 + 2yy 0 , per ogni (x, y), (x0 , y 0 ) appartenenti a R2 . Esempio 6.26 Un esempio importante di endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, · ) e` la proiezione ortogonale p su un sottospazio vettoriale W di V (cfr. Es. 6.10). Infatti, posto p(x) = xW , si ha: p(x) · y = xW · (yW + yW ⊥ ) = xW · yW = x · p(y), per ogni x, y in V. Teorema 6.17 Sia f un endomorfismo di uno spazio vettoriale euclideo (V, · ) di dimensione n e sia B una base ortonormale di V. L’endomorfismo f e` autoaggiunto se e solo se la matrice A = M B,B (f ) ∈ Rn,n e` simmetrica. Dimostrazione Poich´e la base B e` ortonormale, dal Teorema 6.16 si ottiene che B,B † t M (f ) = A. Pertanto f = f † se e solo se tA = A, ossia se e solo se la matrice A e` simmetrica. Osservazione 6.15 Si osservi che dal Teorema 6.17 segue che la matrice associata ad un endomorfismo autoaggiunto f : V −→ V di uno spazio vettoriale euclideo (V, · ) di dimensione n, rispetto ad una base B di V, e` simmetrica solo se la base B e` ortonormale. Infatti, se si considera un’altra base C di V, allora si ha che la matrice associata a f rispetto a C e` A0 = P −1 AP, con P matrice del cambiamento di base da B a C. In generale, A0 non e` simmetrica nonostante A lo sia, in quanto t

A0 = t (P −1 AP ) = t P tA t (P −1 ) = t P A t (P −1 )

che non coincide con A0 a meno che tP = P −1 , ovvero a meno che P sia una matrice ortogonale. In altri termini, affinch´e A0 sia simmetrica, anche la base C deve essere ortonormale (cfr. Teor. 5.6).

Capitolo 6

271

Osservazione 6.16 Nel caso della proiezione ortogonale p su un sottospazio vettoriale W di uno spazio vettoriale euclideo, considerata nell’Esempio 6.26, si ha non solo che W e` invariante per p (cfr. Def. 6.9) ma lo e` anche il suo complemento ortogonale. Infatti se x ∈ W ⊥ allora p(x) = o. Vale il seguente teorema che estende la precedente osservazione ad ogni endomorfismo autoaggiunto e ad ogni sottospazio vettoriale invariante. Teorema 6.18 Se f e` un endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, · ) e se W e` un sottospazio vettoriale di V invariante rispetto a f, anche il complemento ortogonale W ⊥ di W e` invariante rispetto a f . Dimostrazione

Per ogni x ∈ W ⊥ e per ogni y ∈ W si ha: f (x) · y = x · f (y) = 0,

poich´e f (y) ∈ W per ipotesi. Quindi f (x) e` ortogonale a tutti gli elementi di W e perci`o appartiene a W ⊥ . Esercizio 6.18 Sia V uno spazio vettoriale euclideo e siano W1 , W2 due suoi sottospazi vettoriali supplementari, ossia V = W1 ⊕ W2 . Si considerino i due endomorfismi f1 e f2 di V, proiezioni su W1 e su W2 rispettivamente. Vale a dire, se per ogni x in V, x = x1 + x2 , (x1 ∈ W1 e x2 ∈ W2 ) allora si ha f1 (x) = x1 e f2 (x) = x2 (cfr. Es. 6.10). Dire se e quando f1 e f2 sono endomorfismi autoaggiunti.

6.7

Esercizi di riepilogo svolti

Esercizio 6.19 In R3 , rispetto alla base canonica B = (e1 , e2 , e3 ), si consideri l’endomorfismo f definito, al variare di un parametro reale h, da:   f (e1 ) = e1 + 2e2 − e3 f (e2 ) = −e1 + 2e2  f (e3 ) = 3e1 + he2 + (h + 1)e3 . Determinare: 1. la matrice A associata ad f, rispetto alla base B; 2. l’espressione dell’immagine di un generico vettore di R3 ; 3. per quali valori di h f e` un automorfismo;

272

Applicazioni Lineari

4. nel caso di h = −2 una base di ker f ed una base di im f ; 5. la matrice associata all’automorfismo f −1 , rispetto alla base B, nei casi in cui ci`o sia possibile. Soluzione 1. E` necessario osservare che le condizioni date definiscono un unico endomorfismo f, in quanto sono state assegnate le immagini dei vettori della base B. (Perch´e?) Per costruzione, la matrice A associata ad f, rispetto alla base B, si ottiene scrivendo in colonna, ordinatamente, le componenti dei vettori immagine dei vettori della base, pertanto:   1 −1 3 2 h . A = M B,B (f ) =  2 −1 0 h+1 2. Se x = x1 e1 + x2 e2 + x3 e3 e` un generico vettore di R3 , allora la sua immagine f (x) = y1 e1 + y2 e2 + y3 e3 si ottiene mediante le equazioni di f scritte rispetto alla base B, vale a dire:   y1 = x1 − x2 + 3x3 y2 = 2x1 + 2x2 + hx3  y3 = −x1 + (h + 1)x3 . 3. L’endomorfismo f e` un automorfismo se e solo se il rango della matrice A e` massimo, o, in modo equivalente, se e solo se det(A) 6= 0. Dal calcolo del determinante della matrice A si ottiene det(A) = 5h + 10, di conseguenza f e` un automorfismo per ogni valore di h ad eccezione di h = −2. 4. Dal punto precedente segue che per h = −2 l’endomorfismo f non e` un automorfismo. Riducendo la matrice A per righe si ha:     1 −1 3 1 −1 3 −→  1 2 −2  1 −1  A =  2 R2 → (1/2)R2 −1 0 −1 −1 0 −1 

 1 −1 3 −→  2 0 2 , R2 → R2 + R1 −1 0 −1 da cui segue che rank(A) = 2, perci`o dim(im f ) = 2 e dim(ker f ) = 1. Una base del nucleo di f si ottiene risolvendo il sistema lineare omogeneo associato alla matrice ridotta per righe ottenuta da A, ossia:  x1 − x2 + 3x3 = 0 x1 + x3 = 0,

Capitolo 6

273

le cui soluzioni sono (x1 = t, x2 = −2t, x3 = −t), con t ∈ R, perci`o: ker f = L((1, −2, −1)). Una base di im f e` formata da due colonne linearmente indipendenti della matrice A, per esempio: im f = L((1, 2, −1), (−1, 2, 0)). 5. Esiste f −1 se e solo se f e` un automorfismo, ossia se e solo se h 6= −2. In questi casi, la matrice associata a f −1 , rispetto alla base B, e` A−1 data da: 2(1 + h)  5(2 + h)    2 + 3h  = −  5(2 + h)    2 5(2 + h) 

A−1

 1+h 6+h − 5(2 + h) 5(2 + h)     4+h 6−h  . 5(2 + h) 5(2 + h)     1 4 5(2 + h) 5(2 + h)

Esercizio 6.20 Nello spazio vettoriale R3 siano B la base canonica e B 0 = (u1 , u2 , u3 ) la base formata dai vettori u1 = (1, 2, −3), u2 = (0, −1, 1), u3 = (2, 1, 0) e, nello spazio vettoriale R4 , sia C la base canonica. Data l’applicazione lineare f : R3 −→ R4 definita, per ogni parametro k reale, ponendo: f (u1 ) = (1, 2, k, 1),

f (u2 ) = (0, 2, 0, k),

f (u3 ) = (0, 4, 0, 2),

1. scrivere la matrice A0 associata ad f rispetto alle basi B 0 e C ; 2. scrivere la matrice A associata ad f rispetto alle basi B e C ; 3. stabilire per quali valori di k l’applicazione lineare f non e` iniettiva e determinare in questi casi una base di ker f ; 4. stabilire per quali valori di k l’applicazione lineare e` suriettiva; 5. posto k = 1, determinare la dimensione e una base di f −1 (K) con K = L(a.b), dove a = (0, 1, 0, −1), b = (1, 4, 1, 3).

Applicazioni Lineari

274

Soluzione 1. La matrice A0 associata ad f, rispetto alle basi B 0 e C, si ottiene, per costruzione, scrivendo in colonna le componenti, rispetto alla base C , dei vettori immagine mediante f degli elementi di B 0 , pertanto: 

1  0 2 A0 = M B ,C (f ) =   k 1

0 2 0 k

 0 4  . 0  2

2. Sia P la matrice del cambiamento di base da B a B 0 , ottenuta ponendo in colonna le componenti dei vettori della base B 0 rispetto alla base B, ossia:   1 0 2 P =  2 −1 1 . −3 1 0 Dal Paragrafo 6.2 segue che A0 = AP, da cui:   1 2 2 2 2 1 − − 3 3 3    3 −3 −3         4  2 2 4  −4 −2    1 −2 −1   = =     k 0 0  2k 2k k      − −    1  3 3 3 1 1 1 k 2 3 3 3 1 + k −2k −k 

A = A0 P −1

1 0 0



     .    

3. Riducendo per righe la matrice A si ottiene: a. rank(A) = 3 se e solo se k 6= 1, in questo caso f e` iniettiva. b. rank(A) = 2 se e solo se k = 1, in questo caso dim(ker f ) = 1 e una base di ker f e` data dal vettore (−2, −3, 2). 4. f non pu`o essere suriettiva, in quanto dim(ker f ) + dim(im f ) = dim(R3 ) = 3. Per stabilire l’esatta dimensione di im f, come nel punto precedente, e` necessario distinguere due casi: a. se k 6= 1, allora dim(im f ) = rank(A) = 3, le tre colonne della matrice A sono linearmente indipendenti e formano, quindi, una base di im f. b. se k = 1 allora dim(im f ) = rank(A) = 2, per esempio le prime due colonne della matrice A sono linearmente indipendenti e formano una base di im f.

Capitolo 6

275

5. I vettori x = (x1 , x2 , x3 ) appartenenti a f −1 (K) sono le soluzioni del sistema lineare: A X = Y, dove:      A=    

 2 2 1 − − 3 3 3   4 −4 −2   ,  1 2 2  − −  3 3 3  2 −2 −1

 

x1



    , x X= 2     x3

0





1



         1   4      +µ  , Y = λ      0   1          −1 3

λ, µ ∈ R.

Si trova che il sistema lineare e` compatibile se e solo se λ + 2µ = 0, condizione che permette di individuare tutti e soli i vettori y = λa + µb appartenenti a K ∩ im f, vale a dire i vettori che ammettono controimmagine. Risolvendo si ottiene:   3 5 x = −2µ − t, − µ − t, t , µ, t ∈ R, 2 2 ossia: f −1 (K) = ker f + L((4, 5, 0)), in accordo con quanto affermato nell’Esercizio 6.9. Esercizio 6.21 Sia f l’endomorfismo di R4 associato, rispetto alla base canonica di R4 , alla matrice:   0 2 −4 −2    −2 0 1 −1   . A= 0 3   4 −1  2 1 −3 0 Verificare che ker f e im f sono sottospazi vettoriali ortogonali rispetto al prodotto scalare standard di R4 . Soluzione

Riducendo per righe la matrice A, si ottiene rank(A) = 2, quindi: dim(ker f ) = 2,

dim(im f ) = 2.

Le equazioni che determinano ker f sono per esempio:  4x1 − x2 + 3x4 = 0 −x2 + 2x3 + x4 = 0,

276

Applicazioni Lineari

da cui si legge che (ker f )⊥ = L((4, −1, 0, 3), (0, −1, 2, 1)). I vettori della base di (ker f )⊥ appena determinata coincidono con due colonne linearmente indipendenti di A. Esercizio 6.22 Prendendo spunto dall’esercizio precedente e dall’Esercizio 6.16, si studino le propriet`a degli endomorfismi f : V −→ V, con (V, · ) spazio vettoriale euclideo, tali che: (ker f )⊥ = im f.

6.8 6.8.1

Per saperne di piu` Forme lineari – dualit`a

In questo paragrafo si intendono studiare le particolari propriet`a delle applicazioni lineari aventi R come codominio, ricordando che il campo dei numeri reali e` un esempio di spazio vettoriale reale di dimensione uno. Definizione 6.12 Sia V uno spazio vettoriale reale, un’applicazione lineare: α : V −→ R, cio`e un elemento di L(V, R), si dice forma lineare su V. Lo spazio vettoriale L(V, R) si dice spazio vettoriale duale di V e lo si indica con V ∗. Esempio 6.27 Una forma lineare α su Rn e` determinata da n numeri reali a1 , a2 , . . . , an tali che: α((x1 , x2 , . . . , xn )) = a1 x1 + a2 x2 + . . . + an xn ,

ai ∈ R, i = 1, 2, . . . , n,

(6.20)

per ogni (x1 , x2 , . . . , xn ) ∈ Rn . Rispetto alla base canonica B di Rn e alla base C = (1) di R la matrice associata ad α e` dunque:  A = M B,C (α) = a1 a2 . . . an . Se α non e` la forma nulla (ossia se almeno uno tra gli ai , i = 1, 2, . . . , n, non e` uguale a zero) allora α e` suriettiva e il suo nucleo ha equazione, rispetto alla base B: a1 x1 + a2 x2 + . . . + an xn = 0,

(6.21)

si tratta, quindi, di un iperpiano vettoriale di Rn . Viceversa, dato un iperpiano vettoriale H di Rn di equazione (6.21), esso e` il nucleo della forma lineare α definita da (6.20) ma H e` anche il nucleo delle forme lineari 2α, 3α, . . . , λα con λ ∈ R, λ 6= 0. Perch´e?

Capitolo 6

277

Osservazione 6.17 Si osservi che in generale, in modo analogo all’esempio precedente, si pu`o provare che se α e` una forma lineare non nulla su uno spazio vettoriale reale V, allora α e` suriettiva e il suo nucleo e` un iperpiano vettoriale di V. Esempio 6.28 In V3 , riferito alla base ortonormale B = (i, j, k), si consideri la funzione definita nell’Esempio 6.6: a · : V3 −→ R,

x 7−→ a · x.

E` chiaro che a · e` un esempio di forma lineare su V3 . Se a = a1 i + a2 j + a3 k, allora la matrice A associata alla forma lineare a ·, rispetto alla base B di V3 e alla base canonica di R, e` :  A = a1 a2 a3 . Si dimostrer`a che per ogni spazio vettoriale euclideo (V, · ), fissato un vettore a ∈ V , la funzione a · : V −→ R e` una forma lineare su V (cfr. Es. 6.31). Esempio 6.29 L’applicazione lineare: Rn,n −→ R,

A 7−→ tr(A),

dove tr(A) indica la traccia della matrice A, e` una forma lineare su Rn,n . Poich´e V ∗ = L(V, R), se dim(V ) = n segue da (6.15) che anche dim(V ∗ ) = n. Quindi lo spazio vettoriale V e il suo spazio vettoriale duale V ∗ hanno la stessa dimensione. Il teorema che segue dimostra di nuovo questo risultato ed, inoltre, indica il metodo con cui si pu`o costruire esplicitamente una base di V ∗ a partire da una base di V. Teorema 6.19 Se V e` uno spazio vettoriale reale di dimensione finita, allora: dim(V ) = dim(V ∗ ). Dimostrazione Sia dim(V ) = n e sia B = (v1 , v2 , . . . , vn ) una sua base. Per il Teorema 6.2, esistono e sono uniche le forme lineari αi : V −→ R, i = 1, 2, . . . , n, cos`ı definite:       α (v ) = 1 α (v ) = 0 αn (v1 ) = 0 1 1 2 1        α1 (v2 ) = 0  α2 (v2 ) = 1  αn (v2 ) = 0 ... .. .. ..    . . .        α (v ) = 0,  α (v ) = 0,  α (v ) = 1, 1

n

2

n

che si possono anche scrivere nella forma: αi (vj ) = δij ,

n

n

278

Applicazioni Lineari

dove δij e` il simbolo di Kronecker (δij = 0, se i 6= j e δii = 1). Di conseguenza per ogni x ∈ V scritto come x = x1 v1 + x2 v2 + . . . + xn vn risulta: αi (x) = xi ,

i = 1, 2, . . . , n.

In altri termini, la forma lineare αi associa ad ogni vettore di V la sua i–esima componente, calcolata rispetto alla base di V che ne determina la sua definizione. Si perviene alla tesi se si dimostra che B ∗ = (α1 , α2 , . . . , αn ) e` una base di V ∗, ossia: 1. B ∗ e` un sistema di generatori di V ∗. Infatti, per ogni forma lineare α ∈ V ∗, posto: α(v1 ) = a1 ,

α(v2 ) = a2 ,

...,

α(vn ) = an ,

con a1 , a2 , . . . , an ∈ R e per ogni vettore x = x1 v1 + x2 v2 + . . . + xn vn di V, si ha: α(x) = x1 α(v1 ) + x2 α(v2 ) + . . . + xn α(vn ) = x 1 a1 + x 2 a2 + . . . + x n an = a1 α1 (x) + a2 α2 (x) + . . . + an αn (x) = (a1 α1 + a2 α2 + . . . + an αn )(x). Allora: α = a1 α1 + a2 α2 + . . . + an αn , ovvero la forma lineare α e` combinazione lineare degli elementi di B ∗. 2. B ∗ e` un insieme di vettori linearmente indipendenti in V ∗. Si consideri la combinazione lineare: λ1 α1 + λ2 α2 + . . . + λn αn = oV ∗ , (6.22) con λ1 , λ2 , . . . , λn ∈ R e con oV ∗ vettore nullo di V ∗ , che non e` altro che la forma lineare nulla. Applicando ambo i membri di (6.22) agli elementi della base B segue: (λ1 α1 + λ2 α2 + . . . + λn αn )(vj ) = oV ∗ (vj ) = 0,

j = 1, 2, . . . , n,

ossia λj αj (vj ) = λj = 0, j = 1, 2, . . . , n, da cui la tesi. Definizione 6.13 La base B ∗ dello spazio vettoriale duale V ∗, definita nella dimostrazione del Teorema 6.19, e` detta base duale della base B di V. Esempio 6.30 Procedendo in modo analogo alla dimostrazione del Teorema 6.19 si verifica che la base duale B ∗ = (α1 , α2 , . . . , αn ) della base canonica B di Rn e` data dalle forme lineari che associano ordinatamente ad ogni n–upla (x1 , x2 , . . . , xn ) di Rn le rispettive componenti, ossia: αj ((x1 , x2 , . . . , xn )) = xj ,

j = 1, 2, . . . , n,

(cfr. Es. 6.27). Inoltre, se si considera V3 , riferito alla base ortonormale B = (i, j, k) (cfr. Es. 6.28), si deduce facilmente che la base duale di B e` B ∗ = (i ·, j ·, k ·).

Capitolo 6

279

Il teorema seguente, la cui dimostrazione e` lasciata per esercizio, e` un corollario del Teorema 6.19. Teorema 6.20 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Data la forma lineare α : V −→ R associata alla matrice:  A = a1 a2 . . . an ∈ R1,n rispetto alla base B e alla base C = (1) di R, allora: α = a1 α 1 + a2 α 2 + . . . + an α n dove B ∗ = (α1 , α2 , . . . , αn ) e` la base duale di B in V ∗. Osservazione 6.18 Dati due spazi vettoriali complessi V e W, come per il caso reale, si pu`o introdurre la nozione di applicazione lineare da V a W. Infatti un’applicazione lineare tra due spazi vettoriali complessi V e W e` una funzione f : V −→ W tale che: f (λx + µy) = λf (x) + µf (y), per ogni x e y in V e per ogni λ e µ in C. In particolare, un endomorfismo di V e` un’applicazione lineare da V in V. Come nel caso reale, si dimostrano teoremi analoghi a quelli esposti in questo capitolo. Per esempio, vale il teorema fondamentale per le applicazioni lineari (cfr. Teor. 6.2 ) da cui si deducono la nozione di matrice associata (ad elementi complessi) ad un’applicazione lineare e di conseguenza la nozione di equazioni di un’applicazione lineare. Inoltre, come nel caso reale, si possono definire immagine e controimmagine di sottospazi vettoriali, somma e prodotto per un numero complesso di applicazioni lineari, sottospazio vettoriale invariante per un endomorfismo. Inoltre, se V e` uno spazio vettoriale complesso, un’applicazione lineare α : V −→ C, cio`e un elemento di L(V, C), si dice forma lineare su V. Lo spazio vettoriale complesso L(V, C) e` lo spazio vettoriale duale di V e lo si indica con V ∗. Come nel caso reale, se dim(V ) = n, allora anche dim(V ∗ ) = n.

6.8.2

Cambiamento di base in V ∗

Si considerino due basi B = (v1 , v2 , . . . , vn ) e B 0 = (v10 , v20 , . . . , vn0 ) dello spazio vettoriale V di dimensione n e si indichi con P ∈ GL(n, R) (cfr. Oss. 2.7) la matrice del cambiamento di base da B a B 0 le cui colonne sono date dalle componenti dei vettori della base B 0 scritti rispetto alla base B, ossia:     v10 v1  v0   v2   2   t  (6.23)  ..  = P  .. .  .   .  vn0 vn

280

Applicazioni Lineari

Siano B ∗ = (α1 , α2 , . . . , αn ) e (B 0 )∗ = (α10 , α20 , . . . , αn0 ) le basi duali di B e di B 0 rispettivamente. Si indichi con Q ∈ GL(n, R) la matrice del cambiamento di base da B ∗ a (B 0 )∗, ossia:     α10 α1  α0   α2   2    (6.24)  ..  = t Q  .. .  .   .  αn0 αn Scopo di questo paragrafo e` quello di determinare la relazione che lega le matrici P e Q. In notazione matriciale, la dualit`a tra le basi B e B ∗ si pu`o esprimere come:   α1  α2     (6.25)  ..  v1 v2 . . . vn = I,  .  αn dove I e` la matrice unit`a di ordine n. Analogamente, la dualit`a tra le basi B 0 e (B 0 )∗ equivale alla relazione:   α10  α0    2  (6.26)  ..  v10 v20 . . . vn0 = I.  .  αn0 Sostituendo (6.24) e (6.23) in (6.26) si ha:   α1  α2    t  Q  ..  v1 v2 . . . vn P = I,  .  αn da cui, tenendo conto di (6.25), segue t Q P = I e, quindi, ricordando la propriet`a t (P −1 ) = (t P )−1 , si ottiene: Q = tP −1 , (6.27) che e` la relazione cercata. Esercizio 6.23 In R2 si considerino due basi: la base canonica B = ((1, 0), (0, 1)) e la base B 0 = ((−1, 2), (1, −1)). Nello spazio vettoriale duale (R2 )∗ si consideri la base B ∗ = (α1 , α2 ), duale della base B. Determinare le componenti dei vettori della base (B 0 )∗ = (α10 , α20 ), duale della base B 0 , rispetto alla base B ∗.

Capitolo 6

Soluzione

281

In accordo con (6.27), la matrice del cambiamento di base da B ∗ a (B 0 )∗ e` : −1   t −1 1 1 2 Q= = . 2 −1 1 1

Esercizio 6.24 Determinare la base duale (B 0 )∗ della base B 0 = ((1, 0, −2), (0, 1, −1), (2, 1, 2)) dello spazio vettoriale R3 , rispetto alla base duale B ∗ della base canonica B di R3 . Sia (B 0 )∗ = (α10 , α20 , α30 ) la base duale di B 0 , allora dalla formula (6.26) si       2 2 1 3 2 6 2 1 1 0 0 0 α1 = , − , − , α2 = − , , − , α3 = , , , 7 7 7 7 7 7 7 7 7

Soluzione ha:

dove le componenti sono date rispetto alla base duale B ∗ della base canonica B di R3 .

6.8.3

Spazio vettoriale biduale

Fissato un vettore x ∈ V, al variare di α nello spazio vettoriale duale V ∗ , i numeri reali α(x) definiscono una funzione: e : V ∗ −→ R, x

α 7−→ α(x).

(6.28)

E` naturale, quindi, introdurre la seguente definizione. Definizione 6.14 Dato uno spazio vettoriale reale V, lo spazio vettoriale duale del suo duale V ∗ prende il nome di spazio vettoriale biduale e lo si indica con V ∗∗. Osservazione 6.19 Poich´e V ∗∗ = L(V ∗, R), segue: dim(V ) = dim(V ∗ ) = dim(V ∗∗ ). Teorema 6.21 Per ogni vettore x ∈ V, la funzione: e : V ∗ −→ R, x

α 7−→ α(x),

e` una forma lineare, cio`e appartiene allo spazio vettoriale biduale V ∗∗. Dimostrazione

E` conseguenza immediata della definizione.

Teorema 6.22 Siano V uno spazio vettoriale reale di dimensione n e V ∗∗ lo spazio vettoriale biduale di V. La funzione: ψ : V −→ V ∗∗, e e` definito da (6.28). e` un isomorfismo, dove x

e x 7−→ x

(6.29)

Applicazioni Lineari

282

Dimostrazione

La tesi segue in quanto:

a. ψ e` lineare, ossia per ogni x, y ∈ V e per ogni λ, µ ∈ R si deve dimostrare che: ψ(λx + µy) = λψ(x) + µψ(y). Infatti, per ogni α ∈ V ∗ si ha: ^ ψ(λx + µy)(α) = (λx + µy)(α) = α(λx + µy) = λα(x) + µα(y) = λe x(α) + µe y(α) = (λψ(x) + µψ(y))(α). e = oV ∗∗ allora per ogni α ∈ V ∗, b. Si deve dimostrare che ker ψ = {oV }. Infatti, se x e(α) = α(x) = oV quindi x = oV . risulta x Poich´e dim(V ∗∗ ) = dim(V ) = n, per il Teorema 6.11, segue che ψ e` un isomorfismo. Osservazione 6.20 1. Si osservi che l’isomorfismo ψ non dipende dalla scelta di particolari basi in V e in V ∗∗, ma e` definito in modo intrinseco, senza coinvolgere le componenti dei vettori sia in V sia in V ∗∗, pertanto si tratta di un isomorfismo canonico. In altri termini, i due spazi vettoriali V e V ∗∗ sono uno la copia dell’altro, rendendo cos`ı inutile l’iterazione del processo di dualit`a a V ∗∗. 2. L’isomorfismo tra V e V ∗∗ vale se e solo se V ha dimensione finita. Se V non e` finitamente generato, la funzione (6.29) e` iniettiva, ma non e` detto che sia suriettiva. Per maggiori dettagli nel caso di spazi vettoriali non finitamente generati, cio`e di dimensione infinita, si consulti ad esempio [20]. 3. Se V e` uno spazio vettoriale complesso di dimensione finita, si ha, come nel caso reale, un isomorfismo canonico tra V e V ∗∗. Osservazione 6.21 Si considerino una base B = (v1 , v2 , . . . , vn ) di V e la sua base duale B ∗ = (α1 , α2 , . . . , αn ) in V ∗ . I vettori cos`ı definiti: ee1 = ψ(e1 ),

ee2 = ψ(e2 ),

...,

een = ψ(en )

formano una base Be di V ∗∗. Dal fatto che eei (αj ) = αj (ei ) = δij , i, j = 1, 2, . . . , n, si ha e di V ∗∗ si decompone, rispetto alla che Be e` la base duale di B ∗. Allora ogni elemento x e come: base B, e = xe1 ee1 + xe2 ee2 + . . . + x x fn een ,

Capitolo 6

283

e(αi ). D’altra parte x e(αi ) = αi (x) = xi , dove le componenti xei sono date da xei = x ` quindi xei = xi , con i = 1, 2, . . . , n. E cos`ı dimostrato che le componenti di x ∈ V, relative alla base B, sono anche le componenti dell’immagine di x tramite l’isomorfismo e biduale della base B; perci`o, anche canonico ψ : V −→ V ∗∗ , relativamente alla base B, in questo senso, lo spazio vettoriale biduale V ∗∗ si pu`o identificare con V. In altri termini, e e` la matrice unit`a I di ordine n. Si la matrice associata a ψ , rispetto alle basi B e B, noti che questa osservazione non pu`o sostituire la dimostrazione del Teorema 6.21 perch´e coinvolge l’uso delle basi. Esercizio 6.25 Sia R2 [x] lo spazio vettoriale dei polinomi in x a coefficienti reali di grado minore o uguale a 2 (cfr. Es. 4.11) e siano b0 , b1 , b2 tre numeri reali distinti. Si considerino le tre forme lineari: α00 : R2 [x] −→ R,

p(x) 7−→ p(b0 ),

α10 : R2 [x] −→ R,

p(x) 7−→ p(b1 ),

α20 : R2 [x] −→ R,

p(x) 7−→ p(b2 ),

(6.30)

1. Verificare che (B 0 )∗ = (α00 , α10 , α20 ) e` una base di R2 [x]∗ . 2. Trovare la base duale (B 0 )∗∗ di (B 0 )∗ . Soluzione 1. Si deve verificare che (B 0 )∗ e` un insieme di vettori linearmente indipendenti. A tale scopo si consideri la combinazione lineare: λ1 α00 + λ2 α10 + λ3 α20 = oR2 [x]∗ , con λ1 , λ2 , λ3 ∈ R e oR2 [x]∗ forma lineare nulla su R2 [x]. Sia B = (1, x, x2 ) una base di R2 [x], tenendo conto delle relazioni (6.30), segue: α0 0 (1) = α0 1 (1) = α0 2 (1) = 1, α0 0 (x) = b0 , α0 1 (x) = b1 , α0 2 (x) = b2 , α0 0 (x2 ) = b20 , α0 1 (x2 ) = b21 , α0 2 (x2 ) = b22 , da cui si ha:  0 0 0   (λ1 α0 + λ2 α1 + λ3 α2 )(1) = λ1 + λ2 + λ3 = 0, (λ1 α00 + λ2 α10 + λ3 α20 )(x) = λ1 b0 + λ2 b1 + λ3 b2 = 0,   (λ1 α00 + λ2 α10 + λ3 α20 )(x2 ) = λ1 b20 + λ2 b21 + λ3 b22 = 0.

(6.31)

Si ottiene un sistema lineare omogeneo la cui matrice dei coefficienti P ha deter-

Applicazioni Lineari

284

minante: 1 1 1 det(P ) = b0 b1 b2 = (b0 − b1 )(b0 − b2 )(b2 − b1 ) 6= 0. b2 b2 b2 0 1 2 Pertanto l’unica soluzione del sistema lineare omogeneo (6.31) e` λ1 = λ2 = λ3 = 0, vale a dire α00 , α10 e α20 sono linearmente indipendenti. Si osservi che tP e` la matrice del cambiamento di base dalla base B ∗ = (α0 , α1 , α2 ), duale della base B, alla base (B 0 )∗ , ovvero:   0   α0 α0  α10  = tP  α1 . α20 α2 2. Mediante l’isomorfismo canonico ψ tra V e V ∗∗ si possono identificare i vettori della base B = (1, x, x2 ) con i vettori della base B ∗∗ = (ψ(1), ψ(x), ψ(x2 )). Pertanto per determinare la base (B 0 )∗∗ di R2 [x]∗∗ duale della base (B 0 )∗ = (α00 , α10 , α20 ) e` sufficiente determinare la base B 0 = (p0 (x), p1 (x), p2 (x)) la cui base duale e` (B 0 )∗ ossia tale che: (αi0 )(pj (x)) = pj (bi ) = δij ,

i, j = 0, 1, 2,

con δij simbolo di Kronecker, da cui segue: 1 (b1 b2 − (b1 + b2 )x + x2 ) , (b0 − b1 )(b0 − b2 ) 1 p1 (x) = (b0 b2 − (b0 + b2 )x + x2 ) , (b0 − b1 )(b2 − b1 ) 1 p2 (x) = (b0 b1 − (b0 + b1 )x + x2 ) . (b0 − b2 )(b1 − b2 ) p0 (x) =

Si osservi che dalla relazione (6.27) segue che P −1 e` la matrice del cambiamento di base da B a B 0 e pertanto: 

   p0 (x) 1  p1 (x)  = P −1  x . p2 (x) x2

Capitolo 6

6.8.4

285

Dualit`a nel caso degli spazi vettoriali euclidei

Scopo di questo paragrafo e` quello di dimostrare che, se (V, · ) e` uno spazio vettoriale euclideo di dimensione finita, allora lo spazio vettoriale duale V ∗ e` canonicamente isomorfo a V. Si perviene a questo importante risultato estendendo l’Esempio 6.28 al caso generale di uno spazio vettoriale euclideo V. Esempio 6.31 Sia (V, · ) uno spazio vettoriale euclideo, fissato un vettore x in V, la funzione: x · : V −→ R, y 7−→ x · y, con “·” prodotto scalare su V, e` una forma lineare. Infatti, dalle propriet`a del prodotto scalare si ha: x · (λy1 + µy2 ) = λx · y1 + µx · y2 , per ogni λ, µ ∈ R e per ogni y1 , y2 ∈ V. Teorema 6.23 Sia (V, · ) uno spazio vettoriale euclideo di dimensione finita, la funzione: iV : V −→ V ∗,

x 7−→ x ·

(6.32)

e` un isomorfismo. Dimostrazione Dalle propriet`a del prodotto scalare segue che la funzione iV e` un’applicazione lineare. L’iniettivit`a di iV e` conseguenza del calcolo di ker iV , ossia: ker iV = {x ∈ V | iV (x) = oV ∗ } = {x ∈ V | x · y = 0, ∀y ∈ V } = {oV }. Dal Teorema 6.11 segue che iV e` un isomorfismo. Osservazione 6.22 Nel caso di uno spazio vettoriale euclideo (V, · ) e` quindi possibile definire, mediante (6.32), un isomorfismo canonico tra V e il suo duale V ∗ che non dipende dalla scelta delle basi nei due spazi vettoriali ma solo dal prodotto scalare che conferisce a V la struttura di spazio vettoriale euclideo. Si osservi, che se B = (e1 , e2 , . . . , en ) e` una base ortonormale di (V, · ) e se si indica con B ∗ = (α1 , α2 , . . . , αn ) la base duale di B, si ha: iV (ej )(ek ) = ej · ek = δjk = αj (ek ),

j, k = 1, 2, . . . , n, ∗

dove δjk e` il simbolo di Kronecker. Pertanto la matrice M B,B (iV ) associata all’isomorfismo iV , rispetto alle basi B e B ∗ , e` la matrice unit`a I di ordine n.

Applicazioni Lineari

286

Osservazione 6.23 Nel caso di uno spazio vettoriale hermitiano (V, · ), la funzione: x · : V −→ C,

y 7−→ x · y,

non e` una forma lineare (cfr. (5.12)). Invece la funzione: · x : V −→ C,

y 7−→ y · x,

e` una forma lineare, ma la funzione: V −→ V ∗,

x 7−→ · x

non e` un’applicazione lineare. Pertanto, a differenza del caso reale, un prodotto hermitiano non permette di definire un isomorfismo canonico (senza l’uso delle basi) tra uno spazio vettoriale hermitiano ed il suo duale.

6.8.5

Trasposta di un’applicazione lineare

Lo scopo di questo paragrafo e` quello di individuare il legame tra un’applicazione lineare associata ad una matrice A e l’applicazione lineare associata alla trasposta della matrice A stessa, senza necessariamente introdurre un prodotto scalare, come nel caso dell’endomorfismo autoaggiunto definito nel Paragrafo 6.6. Sia f : V −→ W un’applicazione lineare da uno spazio vettoriale reale V in uno spazio vettoriale reale W. Data una generica forma lineare β in W ∗, la composizione β ◦ f e` una forma lineare su V, ossia β ◦ f ∈ V ∗. Si pu`o, allora, enunciare la seguente definizione. Definizione 6.15 Data un’applicazione lineare f : V −→ W tra due spazi vettoriali V e W, la funzione: t f : W ∗ −→ V ∗, β 7−→ (tf )(β) = β ◦ f, (6.33) si dice trasposta dell’applicazione lineare f . Teorema 6.24 La funzione tf appena definita e` un’applicazione lineare. Dimostrazione

E` conseguenza evidente della definizione e delle linearit`a di β e di f .

Osservazione 6.24 La denominazione “trasposta” per l’applicazione lineare tf e` giustificata dal seguente teorema.

Capitolo 6

287

Teorema 6.25 Siano V uno spazio vettoriale reale di dimensione n e W uno spazio vettoriale reale di dimensione m. Data un’applicazione lineare f : V −→ W, si indichi con A = M B,C (f ) la matrice di Rm,n associata ad f rispetto alle basi B = (v1 , v2 , . . . , vn ) di V e C = (w1 , w2 , . . . , wm ) di W. Si considerino nello spazio vettoriale duale V ∗ la base B ∗ = (α1 , α2 , . . . , αn ) duale della base B e nello spazio vettoriale duale W ∗ la base C ∗ = (β1 , β2 , . . . , βm ) duale di C. La matrice associata all’applicazione lineare: f : W ∗ −→ V ∗

t

rispetto alle basi C ∗ e B ∗ e` la trasposta della matrice A: ∗



M C ,B (tf ) = tA. Dimostrazione La definizione di trasposta di un’applicazione lineare (6.33), applicata ad un vettore x di V, restituisce il numero reale dato da: ((tf )(β))(x) = (β ◦ f )(x).

(6.34)

Si indichino con G ∈ Rn,m la matrice associata a tf rispetto alle basi C ∗ e B ∗ , con B ∈ Rn,1 la matrice associata alla forma lineare β rispetto alla base C di W e alla base D = (1) di R:  B = M C,D (β) = b1 b2 . . . bm e con:

   X= 

x1 x2 .. .

    

xn la matrice delle componenti del vettore x di V rispetto alla base B. Si vuole ora scrivere, in notazione matriciale, la relazione (6.34). Si ha: a. il secondo membro di (6.34) e` il numero reale: BAX,

(6.35)

in quanto alla composizione di applicazioni lineari β ◦ f si associa il prodotto di matrici BA ∈ R1,n come segue da (6.16). b. Il calcolo del primo membro di (6.34) e` pi`u laborioso; la matrice colonna delle componenti, rispetto alla base B ∗, della forma lineare α = (tf )(β) ∈ V ∗ si ottiene applicando la matrice G (associata a tf ) alla matrice colonna delle componenti, rispetto alla base C ∗, del vettore β ossia G tB . Quindi il primo membro di (6.34) si riduce a α(x) ossia a: t (G tB)X. (6.36)

Applicazioni Lineari

288

Dall’uguaglianza di (6.36) con (6.35) si ottiene: t

(G tB) = B tG = BA

da cui la tesi. Osservazione 6.25 Dalla formula (6.35) si deduce che per calcolare l’immagine di un vettore mediante la trasposta di un’applicazione lineare si effettua il prodotto della matrice riga delle componenti del vettore a destra della matrice associata all’applicazione lineare di partenza. Mentre per calcolare l’immagine di un vettore mediante un’applicazione lineare si effettua il prodotto a sinistra per la matrice colonna delle componenti del vettore. Seguono alcuni teoremi che mettono in relazione la trasposta di un’applicazione lineare con la somma di applicazioni lineari, con il prodotto di un numero reale per un’applicazione lineare, con la composizione di applicazioni lineari e con l’inversa di un’applicazione lineare invertibile. Tutte le dimostrazioni sono lasciate al Lettore per esercizio. Teorema 6.26 Se f, g ∈ L(V, W ) e λ ∈ R, allora: 1. t (f + g) = tf + tg , 2. t (λf ) = λ tf . Teorema 6.27 Siano V, W, Z spazi vettoriali reali, allora, per ogni f ∈ L(V, W ) e per ogni g ∈ L(W, Z) si ha: t (g ◦ f ) = tf ◦ tg. Se f e` un endomorfismo di uno spazio vettoriale reale V, allora tf e` un endomorfismo dello spazio vettoriale duale V ∗ di V, inoltre: (t idV )(α) = α ◦ idV = idV ∗ (α),

α ∈ V ∗,

dove idV e idV ∗ indicano, rispettivamente, l’identit`a in V e V ∗. Pertanto t idV = idV ∗ . Da queste considerazioni e dal Teorema 6.27 si ottiene il seguente teorema. Teorema 6.28 Se f e` un automorfismo dello spazio vettoriale V allora tf e` un automorfismo dello spazio vettoriale duale V ∗ e: (tf )−1 = t (f −1 ).

Capitolo 6

289

Esercizio 6.26 Siano f : R4 −→ R3 l’applicazione lineare la cui matrice, rispetto alle basi canoniche di R4 e di R3 , e` :   1 2 −1 2 1 1  A =  −1 1 −2 1 0 −1 e β : R3 −→ R la forma lineare la cui matrice, rispetto alla base canonica di R3 e alla base C = (1) di R, e` :  M (β) = 1 −2 2 . Determinare la matrice associata alla forma lineare α = (tf )(β). Soluzione Per definizione di applicazione lineare trasposta (tf )(β) = β ◦ f , la cui matrice associata e` data da M (β)A. Quindi la matrice associata alla forma lineare α, rispetto alla base canonica di R4 e alla base C, e` :  M (β)A =

1 −2

2



1  −1 −2

 2 −1 2 1 1 1  = −1 1 0 −1

e l’equazione di α risulta essere:    x1 x1     x 2  t  x2 f (β)   x3  = −1 2 −3 −2  x3 x4 x4

2 −3 −2



   = −x1 + 2x2 − 3x3 − 2x4 , 

dove (x1 , x2 , x3 , x4 ) e` un generico elemento di R4 . Osservazione 6.26 Nel Paragrafo 6.8.4 e` stato dimostrato che la trasposta di una matrice, associata ad un’applicazione lineare f : V −→ W rispetto alle basi B di V e C di W, e` la matrice associata all’applicazione lineare trasposta tf : W ∗ −→ V ∗ rispetto alle basi duali C ∗ di W ∗ e B ∗ di V ∗ (cfr. Def. 6.15 e Teor. 6.25). Data un’applicazione lineare f : V −→ W tra due spazi vettoriali euclidei (V, · ) e (W, · ), rispettivamente di dimensione n e m, si intende in questa osservazione, tramite l’isomorfismo canonico tra uno spazio vettoriale euclideo ed il suo duale, determinare il legame tra la trasposta tf : W ∗ −→ V ∗ di f e l’aggiunta f † : W −→ V di f (cfr. Teor. 6.16). Si ha infatti: f (x) · y = iW (y)(f (x)) = (tf )(iW (y))(x),

Applicazioni Lineari

290

per ogni x in V e y in W. Dalla definizione di aggiunta, si ha pertanto che: (tf )(iW (y))(x) = iV (f † (y))(x),

x ∈ V, y ∈ W,

ossia: (tf ) ◦ iW = iV ◦ f † .

(6.37)

Si osservi che, fissate una base ortonormale B di (V, · ) ed una base ortonormale C di (W, · ), se si indica con A la matrice associata a f rispetto alle basi B e C , la matrice trasposta di A, che e` la matrice associata a tf rispetto alle basi duali C ∗ e B ∗ (cfr. Teor. 6.25), e` anche la matrice associata a f † rispetto alle basi C e B, ovvero: MC

∗ ,B ∗

(tf ) = M C,B (f † ) = tA.

In notazione matriciale, rispetto alle basi ortonormali B, C e alle loro basi duali B ∗ , C ∗ , la relazione (6.37) si traduce nella relazione: A Im = In tA

t

dove Im e In indicano la matrice unit`a di ordine m ed n rispettivamente (cfr. Par. 6.4 e Oss. 6.22).

6.8.6

Endomorfismi autoaggiunti e matrici hermitiane

Analogamente a quanto visto nel Paragrafo 6.6 si pu`o introdurre il concetto di aggiunta di un’applicazione lineare tra spazi vettoriali hermitiani. Per semplicit`a si tratter`a in dettaglio solo il caso di un endomorfismo di uno spazio vettoriale hermitiano. Sia (V, · ) uno spazio vettoriale hermitiano (cfr. Def. 5.7), analogamente al caso reale, l’aggiunto di un endomorfismo f di V e` l’endomorfismo f † di V tale che: f (x) · y = x · f † (y),

x, y ∈ V.

(6.38)

Si supponga che V abbia dimensione n e si indichino rispettivamente con A e A† le matrici associate ad f e f † rispetto ad una base unitaria B = (e1 , e2 , . . . , en ) di V. Se X ∈ Cn,1 e Y ∈ Cn,1 denotano, rispettivamente, la matrice colonna delle componenti dei vettori x e y rispetto alla base B, l’equazione (6.38) e` equivalente a: t

(AX) Y = t XA† Y ,

da cui si ottiene: t

X tA Y = t X A† Y ,

ossia A† = tA. Di conseguenza vale il seguente teorema, che e` l’analogo del Teorema 6.16 in campo complesso.

Capitolo 6

291

Teorema 6.29 Sia (V, · ) uno spazio vettoriale hermitiano di dimensione n. Dato un’endomorfismo f di V, la matrice associata M B,B (f † ) all’endomorfismo aggiunto f † di f rispetto ad una base unitaria B di (V, · ) e` la trasposta coniugata della matrice associata M B,B (f ) a f rispetto alla stessa base. In particolare, un endomorfismo f di uno spazio vettoriale hermitiano (V, · ) si dice autoaggiunto o hermitiano se f † = f . In questo caso vale il seguente teorema che e` l’analogo, nel caso hermitiano, del Teorema 6.17. Teorema 6.30 Sia (V, · ) uno spazio vettoriale hermitiano di dimensione n e sia B una base unitaria di V. Un endomorfismo f di V e` autoaggiunto se e solo se la matrice A = M B,B (f ) ∈ Cn,n e` hermitiana, ossia se e solo se tA = A.

6.8.7

Isometrie, similitudini, trasformazioni unitarie

In questo paragrafo si intende estendere sia al caso degli spazi vettoriali euclidei sia al caso degli spazi vettoriali hermitiani il concetto di movimento euclideo del piano, intendendosi per tale il movimento “rigido” del piano che non cambia la lunghezza dei vettori e l’ampiezza degli angoli. Si ricordi infatti che la geometria euclidea del piano e` per definizione l’insieme di assiomi e teoremi invarianti per effetto dei movimenti rigidi. Sia (V, · ) uno spazio vettoriale euclideo di dimensione finita. La definizione seguente estende (in modo naturale) a dimensioni superiori il concetto elementare di isometria o movimento euclideo nel piano e nello spazio. Definizione 6.16 Un endomorfismo f di uno spazio vettoriale euclideo (V, · ) prende il nome di isometria o trasformazione ortogonale se: f (x) · f (y) = x · y,

x, y ∈ V.

(6.39)

Il teorema che segue afferma che la definizione di isometria impone che necessariamente essa sia un’isomorfismo. Teorema 6.31 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n. Se f e` un’isometria di (V, · ), allora f e` un automorfismo di V. Dimostrazione Per il Teorema 6.11 e` sufficiente dimostrare che ker f = {o}. Se x e` un vettore di ker f si ha f (x) = o, d’altra parte essendo f un un’isometria si ha: f (x) · f (x) = kxk2 = kok2 = 0,

292

Applicazioni Lineari

quindi x = o. Si pu`o generalizzare la definizione precedente al caso di isomorfismi tra due spazi vettoriali euclidei in questo modo: dati due spazi vettoriali euclidei V e W, con la stessa dimensione, un isomorfismo f : V −→ W si dice isometria se “non cambia ” il prodotto scalare. Esempio 6.32 Ogni rotazione R[θ] (in senso antiorario) di angolo θ del piano vettoriale V2 e` un’isometria (cfr. Es. 6.24). Inoltre, come e` gi`a stato affermato, la matrice associata a R[θ] (rispetto ad una base ortonormale (i, j) di V2 ) e` la matrice ortogonale:   cos θ − sin θ . sin θ cos θ Esempio 6.33 L’identit`a id : V −→ V (cfr. Es. 6.1) e` un’isometria rispetto ad ogni prodotto scalare definito su V. Esempio 6.34 L’applicazione −id : V −→ V definita da −id(x) = −x, x ∈ V, e` un’isometria rispetto ad ogni prodotto scalare definito su V. Alcune tra le principali propriet`a delle isometrie sono riassunte nel seguente teorema. Teorema 6.32 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n. 1. Un endomorfismo f di V e` un’isometria se e solo se non cambia la norma dei vettori: kf (x)k = kxk, x ∈ V. (6.40) 2. Se f e` un’isometria di V, allora la misura dell’angolo individuato dai vettori x e y di V coincide con la misura dell’angolo individuato dai vettori f (x) e f (y), per ogni x, y ∈ V. 3. La composizione di due isometrie e` un’isometria. 4. L’inversa di un’isometria e` un’isometria. 5. Un endomorfismo f di V e` un’isometria di V se e solo se le immagini dei vettori di una base ortonormale di V formano una base ortonormale di V. 6. Un endomorfismo f di V e` un’isometria di V se e solo se la matrice associata ad f , rispetto ad una base ortonormale di V, e` una matrice ortogonale.

Capitolo 6

293

7. Un endomorfismo f di V e` un’isometria se e solo se f −1 = f † , dove f † e` l’applicazione aggiunta di f . Dimostrazione 1. Se f e` un’isometria, la (6.40) segue ponendo y = x in (6.39). Viceversa, si dimostra che se vale la (6.40) allora f e` un’isometria. Dalla formula (5.6) si ottiene: x·y =

 1 kx + yk2 − kxk2 − kyk2 2

e:

 1 kf (x) + f (y)k2 − kf (x)k2 − kf (y)k2 . 2 Pertanto per la linearit`a di f e da (6.40) segue quindi la (6.39). f (x) · f (y) =

2. Se f e` un’isometria, da (6.39) e dal punto 2. segue: \ c = kxk kyk cos(f (x)f kxk kyk cos(xy) (y)), \ c e f (x)f per ogni x, y ∈ V, dove xy (y) indicano, rispettivamente, l’angolo tra i vettori x e y ed i vettori f (x) e f (y) (cfr. Def. 5.3). Pertanto: \ c = cos(f (x)f cos(xy) (y)).

(6.41)

3. Se f e g sono isometrie, allora: k(g ◦ f )(x)k = kg(f (x))k = kf (x)k = kxk, per ogni x ∈ V. 4. Sia f un’isometria. Si ha: kf (f −1 (x))k = kid(x)k, dove id e` l’identit`a di V , ma kf (f −1 (x))k = kf −1 (x)k = kxk, per ogni x ∈ V , da cui la tesi. 5. Se f e` un’isometria e B = (e1 , e2 , . . . , en ) una base ortonormale di V, allora B 0 = (f (e1 ), f (e2 ), . . . , f (en )) e` una base ortonormale perch´e f mantiene immutata sia la norma dei vettori sia i loro prodotti scalari. Viceversa, siano B = (e1 , e2 , . . . , en ) e B 0 = (f (e1 ), f (e2 ), . . . , f (en )) due basi ortonormali di V. Dato: x = x1 e1 + x2 e2 + . . . + xn en

Applicazioni Lineari

294

in V, allora: kxk2 = x21 + x22 + . . . + x2n , d’altra parte, per la linearit`a di f : f (x) = x1 f (e1 ) + x2 f (e2 ) + . . . + xn f (en ), quindi: kf (x)k2 = x21 + x22 + . . . + x2n , da cui kf (x)k = kxk. Si osservi che il calcolo della norma dei vettori x e f (x) ha assunto l’espressione suddetta in quanto riferito a due basi ortonormali (cfr. Teor. 5.4). 6. Sia A la matrice associata ad f , rispetto ad una base ortonormale B di V, e siano Y = AX le equazioni di f rispetto a B. Poich´e, per ogni x ∈ V, kf (x)k2 = kxk2 e ricordando che kxk2 = t XX si ha: t

X 0 X 0 = t (AX)(AX) = tX tAAX = t XX,

da cui segue la tesi. Si osservi che kxk2 = t XX se e solo se X e` la matrice colonna delle componenti di x rispetto ad una base ortonormale. 7. Per definizione di f † , applicazione lineare aggiunta di f, si ha: f (x) · f (y) = f † (f (x)) · y,

x, y ∈ V.

(6.42)

Quindi, se f e` un isometria, cio`e se vale (6.39), si deve avere: f † (f (x)) · y = x · y,

x, y ∈ V,

da cui ((f † ◦ f )(x) − x) · y = 0, per ogni x e y. Pertanto, f † ◦ f = id, ossia f † = f −1 . Viceversa, se f † = f −1 , allora da (6.42) si ha immediatamente che f e` un’isometria. Osservazione 6.27 1. Dai punti 2. e 3. del teorema precedente segue che l’insieme delle isometrie di uno spazio vettoriale euclideo (V, · ) e` un gruppo (cfr. Oss. 2.2) rispetto alla composizione di funzioni. Inoltre, fissata una base ortonormale B nello spazio vettoriale euclideo (V, · ), allora per la propriet`a 6. si pu`o stabilire, in modo naturale, un isomorfismo tra l’insieme delle isometrie di (V, · ) ed il gruppo ortogonale O(n) associando ad ogni isometria f di V la matrice ortogonale A = M B,B (f ).

Capitolo 6

295

2. Si osservi che se un automorfismo di uno spazio vettoriale euclideo (V, · ) mantiene invariati gli angoli tra i vettori di V allora non e` necessariamente un’isometria. Un esempio elementare e` dato dall’automorfismo: f : V −→ V,

x 7−→ 2x,

(6.43)

ossia dalla funzione 2 id. Esempio 6.35 Gli elementi di O(2), ovvero le matrici ortogonali di ordine 2, sono necessariamente o di tipo (3.31) o di tipo (3.33) (cfr. Es. 3.11). Pertanto gli endomorfismi del piano vettoriale V2 con matrice associata, rispetto ad una base ortonormale B = (i, j), di tipo (3.31) o di tipo (3.33) sono isometrie di V2 . Nel caso di matrici di tipo (3.31) si ottengono le rotazioni R[θ] gi`a considerate nell’ Esempio 6.32. Se si considera invece un endomorfismo rθ del piano vettoriale V2 con matrice associata, rispetto ad una base ortonormale B = (i, j), di tipo (3.33), ossia:   cos θ sin θ Aθ = , sin θ − cos θ si ha un’isometria di V2 tale che rθ ◦ rθ coincide con l’identit`a di V2 , ovvero per cui rθ−1 = rθ . Esercizio 6.27 Si consideri su R2 la struttura euclidea determinata dal prodotto scalare (x1 , x2 ) · (x2 , y2 ) = x1 y1 + 4x2 y2 . Verificare che l’automorfismo di R2 la cui matrice associata, rispetto alla base canonica B = (e1 , e2 ) di R2 , e` la matrice:   √ 3 1   2   , A= √    1 3 − 4 2 e` un’isometria di R2 . Per quale motivo A non e` una matrice ortogonale? Soluzione

Le equazioni di f, rispetto alla base B, sono: √  3  0    x1 = 2 x1 + x2 √     x0 = − 1 x + 3 x , 1 2 2 4 2

Applicazioni Lineari

296

con (x01 , x02 ) = f ((x1 , x2 )). Per provare che f e` un’isometria di (R2 , · ) e` sufficiente verificare che: kf (x)k2 = (x01 )2 + 4(x02 )2 = x21 + 4x22 = kxk2 , con x = (x1 , x2 ) ∈ R2 . La matrice A non e` un elemento di O(2) perch´e non e` associata ad una base ortonormale (rispetto al prodotto scalare introdotto), infatti ke2 k = 2. Esercizio 6.28 Nello spazio vettoriale euclideo (V, · ) di dimensione 4, riferito alla base ortonormale B = (e1 , e2 , e3 , e4 ), sono dati i vettori: a = 2e1 − e3 + 2e4 ,

b = e3 − e4 .

1. Detto c il versore di a, verificare che la funzione f : V −→ V,

x 7−→ x − 2(x · c)c

e` un isometria di V . 2. Calcolare kf −1 (b)k ed il coseno dell’angolo θ tra i vettori f −1 (a) e f −1 (b). Soluzione

1. La funzione f e` un endomorfismo in quanto: f (λx + µy) = (λx + µy) − 2 ((λx + µy) · c) c = λx − 2(λx · c)c + µy − 2(µy · c)c = λf (x) + µf (y),

per ogni λ, µ ∈ R e per ogni x, y ∈ V. Inoltre: kf (x)k2 = f (x) · f (x) = (x − 2(x · c)c) · (x − 2(x · c)c) = x · x − 4(x · c)(x · c) + 4(x · c)2 (c · c) = kxk2 . 2. Essendo f un’isometria, anche f −1 e` un’isometria. Quindi: kf −1 (b)k = kbk =



2,

−1 (b)) = cos(ab) \ c = cos θ = cos(f −1 (a)f

a·b 1 = −√ . kak kbk 2

Si lascia per esercizio la determinazione della matrice A associata a f rispetto alla base B e la verifica del fatto che A sia una matrice ortogonale.

Capitolo 6

297

Osservazione 6.28 Siano (V, · ) uno spazio vettoriale euclideo di dimensione n e W un iperpiano vettoriale di V. La funzione:  x, x∈W g : V −→ V, x 7−→ −x, x ∈ W ⊥, che coincide con l’identit`a su W e che associa ad ogni vettore del complemento ortogonale W ⊥ di W il proprio opposto, e` un endomorfismo di V. Infatti, si pu`o verificare che: 1 (x + g(x)) 2 coincide con la proiezione ortogonale di x su W. L’endomorfismo g prende il nome di simmetria ortogonale o riflessione rispetto all’iperpiano vettoriale W. E` un esercizio verificare che g e` un’isometria dello spazio vettoriale euclideo (V, · ) e che g ◦ g coincide con l’identit`a di V. Infine, se c e` un versore ortogonale a W, allora: g(x) = x − 2(x · c)c Quindi l’isometria f dell’esercizio precedente non e` altro che la simmetria ortogonale rispetto all’iperpiano vettoriale L(a)⊥ di equazione: 2x1 − x3 + 2x4 = 0. Infine si pu`o verificare che l’endomorfismo rθ del piano vettoriale V2 , considerato nell’Esempio 6.35, e` una simmetria ortogonale rispetto ad una retta vettoriale. Infatti, si ha:   θ θ 2 θ 2 cos sin   1 − 2 sin 2 2 2   Aθ =     θ θ θ 2 cos sin 1 − 2cos2 2 2 2 

1

0

  =  





     − 2   0

1

 θ sin    2  θ θ .  sin − cos 2 2 θ  − cos 2

Automorfismi di uno spazio vettoriale euclideo che mantengano invariata la misura degli angoli tra coppie di vettori e le loro immagini, ma in generale non le norme dei vettori, sono dati dalle similitudini, di cui l’automorfismo (6.43) ne e` un esempio. Pi`u precisamente si pu`o enunciare la seguente definizione.

298

Applicazioni Lineari

Definizione 6.17 Sia f : V −→ V un automorfismo di uno spazio vettoriale euclideo (V, · ), f prende il nome di similitudine di rapporto µ se: kf (x)k = µkxk,

x ∈ V,

da cui si deduce che µ deve essere un numero reale positivo non nullo. Osservazione 6.29 Ogni isometria e` una similitudine di rapporto 1. Mentre l’automorfismo definito da (6.43) e` una similitudine di rapporto 2. Il teorema che segue, la cui dimostrazione e` lasciata al Lettore per esercizio, riassume alcune tra le principali propriet`a delle similitudini. Teorema 6.33 Sia (V, · ) uno spazio vettoriale euclideo di dimensione n. 1. Se f e` una similitudine di V, allora la misura dell’angolo individuato dai vettori x e y di V coincide con la la misura dell’angolo individuato dai vettori f (x) e f (y), per ogni x, y ∈ V. 2. La matrice associata ad una similitudine di rapporto µ, rispetto ad una base ortonormale di V, e` data dal prodotto µA con A ∈ O(n). Analogamente al caso reale, un endomorfismo f di uno spazio vettoriale hermitiano (V, · ) si dice una trasformazione unitaria o operatore unitario o isometria complessa se non cambia il prodotto hermitiano, cio`e se vale la relazione (6.39). Come nel caso delle isometrie si pu`o dimostrare il teorema che segue. Teorema 6.34 Sia (V, · ) uno spazio vettoriale hermitiano di dimensione n. 1. Un endomorfismo f : V −→ V e` una trasformazione unitaria se e solo se: kf (x)k = kxk,

x ∈ V.

2. La composizione di due trasformazioni unitarie e` una trasformazione unitaria. 3. L’inversa di una trasformazione unitaria e` una trasformazione unitaria. 4. Un endomorfismo f di V e` una trasformazione unitaria di V se e solo se le immagini dei vettori di una base unitaria di V formano una base unitaria di V. 5. Un endomorfismo f di V e` una trasformazione unitaria di V se e solo se la matrice associata ad f, rispetto ad una base unitaria di V, e` una matrice unitaria.

Capitolo 6

299

6. Un endomorfismo f di V e` una trasformazione unitaria se e solo se f −1 = f † , dove f † e` l’aggiunto di f . La dimostrazione del Teorema 6.34 e` analoga a quella del Teorema 6.32 tenendo per`o conto che in questo caso vale la relazione (5.15). Osservazione 6.30 Come per le isometrie, dai punti 2. e 3. del Teorema 6.34 segue che l’insieme delle trasformazioni unitarie di uno spazio vettoriale hermitiano (V, · ) e` un gruppo (cfr. Oss. 2.2) rispetto alla composizione di funzioni. Inoltre, fissata una base ortonormale B nello spazio vettoriale hermitiano (V, · ) allora per il punto 5. dello stesso teorema si pu`o stabilire, in modo naturale, un isomorfismo tra l’insieme delle trasformazioni unitarie di (V, · ) ed il gruppo unitario U (n) delle matrici unitarie (cfr. Oss. 5.15) associando ad ogni trasformazione unitaria f di V la matrice unitaria A = M B,B (f ).

300

Applicazioni Lineari

Capitolo 7 Diagonalizzazione Questo capitolo e` di importanza fondamentale per le sue svariate applicazioni in matematica, in fisica e in tutte quelle discipline a carattere scientifico e non, ad esempio la musica. Nel caso di un endomorfismo si vuole determinare, tra le infinite matrici ad esso associate, almeno una particolarmente semplice: una matrice diagonale. In altri termini si vuole determinare una base opportuna dello spazio vettoriale V, su cui l’endomorfismo e` definito, rispetto alla quale la matrice ad esso associata sia diagonale; si vedr`a per`o nel corso del capitolo che questo scopo non pu`o essere sempre raggiunto.

7.1

Autovalori e autovettori di un endomorfismo

Si inizia con l’introdurre una definizione che diventer`a fondamentale per lo scopo che ci si e` proposti. Definizione 7.1 Sia f : V −→ V un endomorfismo di uno spazio vettoriale reale V. Un vettore x non nullo di V si dice autovettore di f se esiste uno scalare λ ∈ R tale che: f (x) = λx,

(7.1)

λ si dice autovalore di f relativo all’autovettore x. Osservazione 7.1 1. E` evidente dalla definizione di autovettore la necessit`a di scegliere x diverso dal vettore nullo di V, infatti λo = o per ogni λ ∈ R. 2. La precedente definizione pu`o essere anche formulata nel modo seguente: λ ∈ R e` un autovalore dell’endomorfismo f se e solo se esiste un vettore x non nullo di V per cui valga l’uguaglianza (7.1). 301

302

Diagonalizzazione

3. Si osservi che se x e` un autovettore di f relativo all’autovalore λ, allora anche µx e` un autovettore di f relativo all’autovalore λ, per ogni numero reale µ 6= 0. Si antepongono due facili propriet`a agli esempi, per poter meglio capire la definizione appena enunciata. Teorema 7.1 Sia x un autovettore di un endomorfismo f di uno spazio vettoriale V, allora l’autovalore λ ad esso relativo e` unico. Dimostrazione Per assurdo siano λ 6= λ0 due autovalori di f relativi allo stesso autovettore x, allora f (x) = λx = λ0 x da cui (λ − λ0 )x = o, quindi segue la tesi. Teorema 7.2 Sia λ un autovalore di un endomorfismo f di uno spazio vettoriale V, tutti gli autovettori relativi a λ insieme con il vettore nullo di V costituiscono un sottospazio vettoriale di V, indicato esplicitamente come: Vλ = {x ∈ V | f (x) = λx}, detto autospazio di f relativo all’autovalore λ. Inoltre, Vλ e` un sottospazio vettoriale invariante per f. Dimostrazione Verificare che Vλ e` un sottospazio vettoriale di V invariante per f e` un facile esercizio che e` conseguenza delle Definizioni 4.2 e 6.9. Osservazione 7.2 Dal precedente teorema segue, quindi, che ogni combinazione lineare αx + βy, con x, y autovettori di un endomorfismo f relativi allo stesso autovalore λ e α, β ∈ R, e` ancora un elemento dell’autospazio Vλ . Se si considerano, invece, due autovettori x e y relativi a due autovalori distinti λ e µ (λ 6= µ), ossia tali che f (x) = λx e f (y) = µy si ha che la generica loro combinazione lineare non e` pi`u un autovettore di f, in quanto: f (αx + βy) = λ(αx) + µ(βy). Definizione 7.2 Dato un endomorfismo f di uno spazio vettoriale reale V, l’insieme degli autovalori di f prende il nome di spettro di f . Questa definizione giustifica la particolare denominazione del Teorema 7.8. Esempio 7.1 L’identit`a id : V −→ V, definita nell’Esempio 6.1, ammette solo l’autovalore λ = 1. L’autospazio Vλ relativo all’autovalore λ = 1 coincide con V. Si osservi che la matrice ad essa associata, rispetto ad una qualunque base di V, e` la matrice unit`a, che e` quindi una matrice diagonale avente il numero 1 (l’autovalore) sulla diagonale principale.

Capitolo 7

303

Esempio 7.2 L’applicazione lineare nulla, definita nell’Esempio 6.2, ammette solo l’autovalore λ = 0. L’unico autospazio Vλ , cio`e l’autospazio relativo a λ = 0, coincide con V. Si osservi che la matrice ad essa associata, rispetto ad una qualunque base di V, e` la matrice nulla. Pertanto, anche in questo caso la matrice e` diagonale con l’autovalore 0 sulla diagonale principale. Osservazione 7.3 Sia f un endomorfismo non iniettivo di uno spazio vettoriale V. Dal Teorema 6.8 si ha che ker f 6= {o}, allora f ammette l’autovalore 0 e l’autospazio ad esso relativo coincide con ker f. Viceversa, se f e` iniettivo, allora ker f = {o}, quindi il numero 0 non pu`o essere un autovalore di f . Esempio 7.3 Si consideri, nello spazio dei vettori ordinari V3 , l’endomorfismo: f : V3 −→ V3 ,

x 7−→ (x · u)u,

con u vettore fissato e “·” prodotto scalare. Se u = o si ha l’endomorfismo nullo, gi`a considerato in precedenza. Se u e` un versore f e` la funzione che ad ogni vettore x di V3 associa la proiezione ortogonale di x sulla retta vettoriale L(u). Pertanto si vede che gli unici autovalori di f sono λ1 = 0 e λ2 = 1. Infatti, si ha che f (x) = o se e solo se x e` un vettore perpendicolare a u. Quindi λ1 = 0 e` un autovalore di f e l’autospazio ad esso relativo e` Vλ1 = ker f, che coincide con il piano vettoriale ortogonale ad u. D’altra parte, l’unica altra possibilit`a per avere f (x) = λx e` f (x) = x, che si ottiene solo se x e` parallelo ad u, pertanto esiste anche l’autovalore λ2 = 1 e l’autospazio ad esso relativo e` la retta vettoriale Vλ2 = L(u). Si osservi che vale la decomposizione: Vλ1 ⊕ Vλ2 = V3 e Vλ2 = Vλ⊥1 . Esempio 7.4 A titolo di esempio si procede con il calcolo degli eventuali autovalori della rotazione, in senso antiorario, di angolo θ in un piano vettoriale V2 , (cfr. Es. 6.24) vale a dire della trasformazione lineare: R[θ] : V2 −→ V2 ,

x 7−→ R[θ](x)

le cui equazioni, rispetto ad una base ortonormale B = (i, j) di V2 , sono:  0 x = x cos θ − y sin θ y 0 = x sin θ + y cos θ, dove x = xi + yj e R[θ](x) = x0 i + y 0 j. Se λ ∈ R e` un autovalore di R[θ] ed x e` un autovettore ad esso relativo, allora R[θ](x) = λx, quindi:

Diagonalizzazione

304



x cos θ − y sin θ = λx x sin θ + y cos θ = λy.

Risolvendo il precedente sistema lineare omogeneo nelle incognite x e y si ottiene che esistono soluzioni non nulle se e solo se il rango della matrice dei coefficienti:   cos θ − λ − sin θ sin θ cos θ − λ e` 1, ossia se e solo se il determinante di tale matrice e` uguale a zero, in altri termini, se e solo se: λ2 − 2 cos θ λ + 1 = 0. Questa equazione di secondo grado in λ ha soluzioni reali se e solo se cos θ = ±1, da cui segue ci`o che era gi`a intuibile geometricamente, ossia solo le rotazioni di angolo 0 e π ammettono autovalori. Tali rotazioni coincidono, rispettivamente, con l’identit`a id di V2 , gi`a studiata nell’Esempio 7.1 e con l’endomorfismo −id di equazioni:  0 x = −x y 0 = −y che ammette solo l’autovalore −1 perch´e definito da (−id)(x) = −x, x ∈ V2 (cfr. Par. 6.4) e che si pu`o considerare geometricamente come un ribaltamento del vettore x sulla retta che lo contiene. Prima di procedere con il calcolo degli autovalori e degli autovettori di un generico endomorfismo, vale a dire prima di introdurre il procedimento che generalizza l’esempio appena esposto, si vuole dimostrare con il Teorema 7.3 una conseguenza importante delle definizioni date e precisamente: la somma degli autospazi di un endomorfismo e` diretta. A titolo di esercizio, si inizia con il provare questa propriet`a per la somma di due autospazi. In questo caso, dimostrare che la somma di due autospazi Vλ1 + Vλ2 , con λ1 6= λ2 , e` diretta equivale a provare che Vλ1 ∩ Vλ2 = {o}, (cfr. Teor. 4.5). Se per assurdo esiste x ∈ Vλ1 ∩ Vλ2 , x 6= o, allora f (x) = λ1 x = λ2 x da cui segue (λ1 − λ2 )x = o, quindi λ1 = λ2 , che e` assurdo. Per dimostrare questa propriet`a in generale e` per`o necessario anteporre il lemma che segue, la cui dimostrazione e` rimandata al Paragrafo 7.6.3. Lemma 7.1 Siano λ1 , λ2 , . . . , λk autovalori distinti di un endomorfismo f : V −→ V di uno spazio vettoriale V e siano Vλ1 , Vλ2 , . . . , Vλk gli autospazi ad essi corrispondenti. Scelti in modo arbitrario gli autovettori x1 , x2 , . . . , xk , uno per ciascun autospazio ad esso relativo (xi ∈ Vλi , i = 1, 2, . . . , k ), allora l’insieme I = {x1 , x2 , . . . , xk } e` libero. Come conseguenza si ha il seguente teorema.

Capitolo 7

305

Teorema 7.3 Sia f un endomorfismo di uno spazio vettoriale reale V e siano λ1 , λ2 , . . . , λk gli autovalori distinti di f, allora la somma degli autospazi Vλ1 + Vλ2 + . . . + Vλk e` diretta. Dimostrazione Provare che la somma Vλ1 + Vλ2 + . . . + Vλk e` diretta equivale a dimostrare che ogni elemento x ∈ Vλ1 + Vλ2 + . . . + Vλk ha un’unica decomposizione come somma di vettori di ciascuno degli autospazi addendi (cfr. Def. 4.6). Sia allora x appartenente a Vλ1 +Vλ2 +. . .+Vλk , si supponga per assurdo che x ammetta due decomposizioni diverse del tipo: x = x 1 + x2 + . . . + xk = y1 + y2 + . . . + y k , dove xi , yi ∈ Vλi , i = 1, 2, . . . , k, allora si ha: (x1 − y1 ) + (x2 − y2 ) + . . . + (xk − yk ) = o in evidente contrasto con il Lemma 7.1. Osservazione 7.4 Si osservi che il teorema appena enunciato afferma che, considerati tutti gli autovalori distinti λ1 , λ2 , . . . , λk di f , allora: Vλ1 ⊕ Vλ2 ⊕ . . . ⊕ Vλk ⊆ V ; lo studio dell’uguaglianza tra questi due insiemi sar`a oggetto del Paragrafo 7.3.

7.2

Determinazione degli autovalori e degli autospazi

Sia f : V −→ V un endomorfismo di uno spazio vettoriale reale V. Si supponga che dim(V ) = n e che B = (v1 , v2 , . . . , vn ) sia una base di V. Indicate con A ∈ Rn,n la matrice associata ad f rispetto alla base B e con X ∈ Rn,1 la matrice colonna delle componenti di un vettore x di V rispetto alla base B, e tenendo conto delle equazioni dell’endomorfismo f scritte in forma matriciale (cfr. (6.4)), la formula (7.1) si traduce, in componenti, nella relazione: AX = λX vale a dire in: (A − λI)X = O,

(7.2)

dove I ∈ Rn,n indica la matrice unit`a e O ∈ Rn,1 la matrice colonna nulla. Dalla teoria dei sistemi lineari omogenei descritta nel Paragrafo 1.2.1, segue che il sistema lineare

Diagonalizzazione

306

omogeneo (7.2) ammette soluzioni non nulle se e solo se rank(A − λI) < n, ossia se e solo se: det(A − λI) = 0. (7.3) Si perviene allo stesso risultato facendo uso delle definizioni di somma e di prodotto per scalari di endomorfismi introdotte nel Paragrafo 6.4 e riscrivendo (7.1) come: (f − λ id)(x) = o, dove id indica l’identit`a di V. Pertanto gli autovettori di f, relativi all’autovalore λ, coincidono con gli elementi, diversi dal vettore nullo, di ker(f − λ id), cio`e: Vλ = ker(f − λ id). Si procede ora con lo studio dettagliato dell’equazione (7.3) che prende il nome di equazione caratteristica della matrice A; (7.3) e` anche detta equazione caratteristica dell’endomorfismo f, infatti si dimostrer`a nel Teorema 7.4 che non dipende dalla scelta della matrice associata ad f , ovvero che tutte le matrici associate allo stesso endomorfismo (matrici simili) hanno lo stesso polinomio caratteristico. Il polinomio det(A − λI) a primo membro di (7.3) e` detto polinomio caratteristico di A (o dell’endomorfismo f ) e lo si indicher`a con P (λ). Pertanto, gli autovalori di f coincidono con le radici reali di P (λ). Per ogni radice reale λ = α, l’autospazio corrispondente Vα e` formato dai vettori x di V tali che f (x) = αx, ossia dalle soluzioni X del sistema lineare omogeneo (A − αI)X = O. Per questo motivo anche se il calcolo degli autovalori e` riferito ad un endomorfismo f spesso si parla di calcolo degli autovalori di una matrice quadrata A, intendendosi come tale il calcolo degli autovalori dell’endomorfismo f a cui la matrice A e` associata rispetto ad una base di V. Con l’esempio che segue si vuole determinare, per iniziare a capire il tipo di calcolo che si deve svolgere, il polinomio caratteristico nel caso particolare delle matrici quadrate di ordine 2, ossia nel caso di endomorfismi di uno spazio vettoriale reale di dimensione 2. Esempio 7.5 Sia:  A=

a11 a12 a21 a22



∈ R2,2 ,

il suo polinomio caratteristico e` : a −λ a12 P (λ) = det(A − λI) = 11 a21 a22 − λ

,

da cui segue: det(A − λI) = λ2 − tr(A)λ + det(A).

(7.4)

Capitolo 7

307

Con un calcolo analogo si ha che il polinomio caratteristico di una matrice quadrata A di ordine n e` dato da: P (λ) = det(A − λI) = (−1)n λn + (−1)n−1 tr(A)λn−1 + . . . + det(A). Infatti: 1. ciascun addendo nel calcolo del determinante della matrice quadrata A − λI di ordine n e` il prodotto di n fattori appartenenti a righe e colonne diverse (cfr. Par. 2.8), quindi il polinomio caratteristico in λ che si ottiene avr`a necessariamente grado n. 2. Il termine di grado massimo del polinomio caratteristico si ha solo dal prodotto degli elementi sulla diagonale principale: (a11 − λ)(a22 − λ) . . . (ann − λ), quindi il coefficiente di λn deve essere (−1)n . 3. Anche il termine di grado n − 1 del polinomio caratteristico si ottiene solo dal prodotto degli elementi della diagonale principale (provare, per esempio, a fare il calcolo esplicito nel caso particolare delle matrici quadrate di ordine 3), e` abbastanza facile notare che il suo coefficiente deve essere (−1)n−1 tr(A). 4. Il termine noto del polinomio caratteristico si ottiene ponendo λ = 0 nell’espressione di P (λ), quindi deve essere det(A), cio`e: P (0) = det(A). Di conseguenza l’equazione (7.3) ammette la soluzione λ = 0 se e solo se si ha det(A) = 0, in assoluto accordo con ci`o che era gi`a stato osservato (cfr. Oss. 7.3), vale a dire esiste l’autovalore λ = 0 di f se e solo se ker f 6= {o}. 5. Per il Teorema Fondamentale dell’Algebra in cui si afferma che ogni polinomio di grado n, a coefficienti complessi, ammette n radici complesse, contate con le loro molteplicit`a, segue che ogni matrice A ∈ Rn,n ammette al pi`u n autovalori. Per la dimostrazione del Teorema Fondamentale dell’Algebra si veda ad esempio [5]. Si ricorda che una radice α di un polinomio p(λ) a coefficienti reali o complessi si dice avere molteplicit`a h se il polinomio (λ − α)h divide p(λ) ma (λ − α)h+1 non divide p(λ). 6. Se un’equazione a coefficienti reali in un’incognita ammette una radice complessa, allora ammette anche una seconda radice complessa che e` la complessa coniugata

Diagonalizzazione

308

della precedente (si pensi alla formula risolutiva delle equazioni di secondo grado), pertanto una matrice reale quadrata di ordine pari pu`o non ammettere autovalori (non si dimentichi che si sta solo trattando il caso degli spazi vettoriali reali), mentre una matrice reale quadrata di ordine dispari ammette almeno un autovalore. Esempio 7.6 La matrice quadrata di ordine 2:  2 A= −1

2 1

 ,

ha come polinomio caratteristico: det(A − λI) = λ2 − 3λ + 4 che non ha radici reali, pertanto la matrice A non ammette autovalori. Esempio 7.7 Sia f : R4 −→ R4 l’endomorfismo che, rispetto alla base canonica B di R4 , e` associato alla matrice:   −2 0 0 0  0 −2 6 6  , A=  0 0 3 3  0 0 −2 −2 si vogliono determinare gli autovalori e gli autospazi di f (o, equivalentemente, gli autovalori e gli autospazi di A). Si inizia con il calcolo dell’equazione caratteristica: −2 − λ 0 0 0 0 −2 − λ 6 6 =0 det(A − λI) = 0 0 3−λ 3 0 0 −2 −2 − λ e si ha: det(A − λI) = λ(λ − 1)(λ + 2)2 = 0 da cui si ottengono tre autovalori λ1 = 0, λ2 = 1, λ3 = −2. Si avranno quindi tre autospazi, si procede al loro calcolo uno alla volta. Vλ1 coincide con ker f, che si ottiene riducendo per righe la matrice A. Si lasciano i dettagli per esercizio, si ha rank(A) = 3, quindi dim(ker f ) = dim(Vλ1 ) = 1 e: Vλ1 = L((0, 0, −1, 1)).

Capitolo 7

309

Per λ2 = 1 si ottiene: 

 −3 0 0 0  0 −3 6 6  , A−I =  0 0 2 3  0 0 −2 −3 da cui rank(A − I) = 3 e, quindi, risolvendo il sistema lineare omogeneo corrispondente all’equazione matriciale (A − I)X = 0, si perviene a: Vλ2 = L((0, 2, 3, −2)). Nel caso di λ3 = −2 invece: 

0  0 A + 2I =   0 0

0 0 0 6 0 5 0 −2

 0 6   3  0

ha rank(A + 2I) = 2 e quindi: Vλ3 = L((1, 0, 0, 0), (0, 1, 0, 0)). Il risultato appena trovato sugli autovalori e autospazi di f sar`a ridiscusso nell’Osservazione 7.6.

Si dimostrer`a ora il teorema gi`a annunciato, vale a dire matrici simili hanno lo stesso polinomio caratteristico. Teorema 7.4 Sia f un endomorfismo di uno spazio vettoriale reale V di dimensione n. Il polinomio caratteristico di f non dipende dalla base di V scelta per la sua determinazione. Dimostrazione Considerate due basi B e B 0 di V, si indichino con A = M B,B (f ) e 0 B0 ,B0 A =M (f ) le matrici, quadrate di ordine n, associate ad f rispetto alle due basi B e B 0 . Dalla relazione (6.10) si ha che le due matrici A e A0 sono simili e pertanto si ottiene la tesi provando che: det(A − λI) = det(P −1AP − λI) con P matrice, invertibile di ordine n, del cambiamento di base da B a B 0 , I matrice unit`a di ordine n e λ ∈ R. Usando le propriet`a del prodotto di matrici, la formula di Binet e il calcolo del determinante dell’inversa di una matrice (cfr. Teor. 2.16) si ha:

Diagonalizzazione

310

det(P −1AP − λI) = det(P −1 (A − λI)P ) = det(P −1 ) det(A − λI) det(P ) = det(A − λI), dopo aver tenuto conto che λI = P −1 λIP e della propriet`a det(P −1 ) = det(P )−1 . Osservazione 7.5 Si osservi che esistono matrici che hanno lo stesso polinomio caratteristico ma che non sono simili, per esempio le due matrici:     1 0 1 1 I= , B= , 0 1 0 1 in quanto P −1 IP = I , per ogni matrice invertibile P. Il teorema che segue stabilisce un’importante relazione tra la dimensione di un autospazio e la molteplicit`a del proprio autovalore nel polinomio caratteristico. Teorema 7.5 Sia f un endomorfismo di uno spazio vettoriale reale V, sia α un suo autovalore di molteplicit`a mα e sia Vα l’autospazio relativo ad α, allora: 1 ≤ dim(Vα ) ≤ mα . Dimostrazione Poich´e α e` un autovalore, allora dim(Vα ) ≥ 1. Per dimostrare la seconda disuguaglianza della tesi si suppongano dim(V ) = n e dim(Vα ) = k. Se k = n, la tesi e` ovvia perch´e f (x) = αx, per ogni x ∈ V e pertanto Vα = V. Sia, quindi, k < n e sia (a1 , a2 , . . . , ak ) una base di Vα . Si completi (cfr. Teor. 4.15) tale insieme libero fino ad ottenere la base B di V data da B = (a1 , a2 , . . . , ak , bk+1 , . . . , bn ). Di conseguenza la matrice associata A = M B,B (f ) assume la forma seguente:       A=    

α 0 ... 0 α ... .. .. . . . . . 0 0 ... 0 0 ... .. .. . . . . .

0 0 .. .

a1k+1 a2k+1 .. .

α akk+1 0 ak+1k+1 .. .. . . 0 0 . . . 0 ank+1

... ... ...

a1n a2n .. .

. . . akn . . . ak+1n .. .. . . . . . ann

          

il cui polinomio caratteristico e` : det(A − λI) = (α − λ)k Q(λ) dove Q(λ) e` un polinomio in λ di grado n − k , ci`o significa che la molteplicit`a di α e` almeno k .

Capitolo 7

311

Osservazione 7.6 Si osservi che nell’Esempio 7.7 si sono ottenuti tre autovalori distinti λ1 = 0 con molteplicit`a mλ1 = 1, λ2 = 1 con molteplicit`a mλ2 = 1 e λ3 = −2 con molteplicit`a mλ3 = 2. I tre autospazi Vλ1 , Vλ2 , Vλ3 avevano, rispettivamente, dimensione 1, 1, 2 e pertanto: Vλ1 ⊕ Vλ2 ⊕ Vλ3 = R4 . Inoltre, gli autovettori di f (o di A): v1 = (0, 0, −1, 1),

v2 = (0, 2, 3, −2),

v3 = (1, 0, 0, 0), 0

v4 = (0, 1, 0, 0)

0

formano una base B 0 di R4 . La matrice M B ,B (f ) associata ad f rispetto alla base B 0 = (v1 , v2 , v3 , v4 ) di R4 e` la matrice diagonale:   0 0 0 0  0 1 0 0  , D=  0 0 −2 0  0 0 0 −2 in quanto: f (v1 ) = o,

f (v2 ) = v2 ,

f (v3 ) = −2v3 ,

f (v4 ) = −2v4 .

Di conseguenza A e` simile alla matrice diagonale D, cio`e P −1AP = D, dove P e` la matrice del cambiamento di base dalla base canonica B di R4 alla base B 0 di R4 formata dai quattro autovettori di f prima indicati. Esercizio 7.1 Si calcolino gli autovalori e gli autospazi della matrice:   2 0 0 A =  0 1 1 . 0 0 1 Soluzione

Il polinomio caratteristico della matrice A e` dato da: 2−λ 0 0 1−λ 1 = (2 − λ)(1 − λ)2 . det(A − λI) = 0 0 0 1−λ

Si ottengono gli autovalori λ1 = 2 con molteplicit`a mλ1 = 1 e λ2 = 1 con molteplicit`a mλ2 = 2. Gli autospazi relativi ai due autovalori sono: Vλ1 = L((1, 0, 0)),

Vλ2 = L((0, 1, 0)).

In questo caso si ha quindi che Vλ1 ⊕ Vλ2 e` un sottospazio vettoriale di R3 di dimensione 2 e pertanto Vλ1 ⊕ Vλ2 6= R3 .

Diagonalizzazione

312

7.3

Endomorfismi diagonalizzabili Matrici diagonalizzabili

Il paragrafo inizia con due importanti definizioni, palesemente equivalenti. Definizione 7.3 Un endomorfismo f : V −→ V di uno spazio vettoriale reale V si dice diagonalizzabile (o anche semplice) se esiste una base di V rispetto alla quale la matrice associata ad f e` diagonale. Definizione 7.4 Una matrice quadrata A ∈ Rn,n si dice diagonalizzabile se esiste una matrice invertibile P di ordine n tale che: P −1AP = D, con D matrice diagonale di ordine n, o in altri termini, se A e` simile ad una matrice diagonale. Nei precedenti paragrafi di questo capitolo si sono incontrati alcuni esempi di endomorfismi diagonalizzabili, quali l’applicazione identit`a, l’applicazione nulla, l’Esempio 7.7. In questo paragrafo si cercher`a di precisare quando un endomorfismo e` diagonalizzabile e come si procede, in pratica, alla diagonalizzazione di una matrice quadrata, dopo aver controllato che ci`o sia possibile. Il primo teorema (la cui dimostrazione e` conseguenza immediata della Definizione 7.3) provvede a dare un metodo pratico, utile per riconoscere se un endomorfismo e` diagonalizzabile. Teorema 7.6 Un endomorfismo f : V −→ V di uno spazio vettoriale reale V e` diagonalizzabile se e solo se esiste una base di V formata da autovettori di f . Osservazione 7.7 Dal precedente teorema e` quindi evidente che se f e` un endomorfismo diagonalizzabile di uno spazio vettoriale reale V allora una base di V, rispetto alla quale la matrice associata ad f sia diagonale, e` formata da autovettori. Si possono perci`o enunciare quelli che usualmente vengono indicati come i criteri di diagonalizzazione. Teorema 7.7 Sia f : V −→ V un endomorfismo di uno spazio vettoriale reale V. Le seguenti affermazioni sono equivalenti: 1. f e` diagonalizzabile.

Capitolo 7

313

2. V = Vλ1 ⊕ Vλ2 ⊕ . . . ⊕ Vλk , dove λ1 , λ2 , . . . , λk sono tutti gli autovalori distinti di f e Vλ1 , Vλ2 , . . . , Vλk i relativi autospazi. 3. dim(V ) = dim(Vλ1 ) + dim(Vλ2 ) + . . . + dim(Vλk ), dove λ1 , λ2 , . . . , λk sono tutti gli autovalori distinti di f e Vλ1 , Vλ2 , . . . , Vλk i relativi autospazi. 4. Ogni radice del polinomio caratteristico P (λ) di f e` reale e per ogni radice λi (cio`e per ogni autovalore di f ) di molteplicit`a mλi la dimensione dell’autospazio Vλi coincide con la molteplicit`a mλi , in formule: dim(Vλi ) = mλi ,

i = 1, 2, . . . , k.

Dimostrazione Per dimostrare l’equivalenza delle quattro affermazioni si proveranno le seguenti implicazioni: 1.

=⇒

4.

=⇒

3.

=⇒

2.

=⇒

1.

Per dimostrare l’implicazione 1. =⇒ 4. si supponga che f sia diagonalizzabile, cio`e che esista una base B di V formata da autovettori e quindi tale che la matrice A associata ad f rispetto alla base B sia diagonale, con gli autovalori di f come elementi della diagonale principale, scritti in ordine, in corrispondenza ai vettori della base B. Se si indicano con λ1 , λ2 , . . . , λk gli autovalori distinti di f e con mλ1 , mλ2 , . . . , mλk le relative molteplicit`a, si ha che il polinomio caratteristico di f e` dato da: P (λ) = det(A − λI) = (λ1 − λ)mλ1 . . . (λk − λ)mλk , da cui segue che ogni radice del polinomio caratteristico e` reale. Inoltre, per ogni autovalore λi si ha: dim(Vλi ) = n − rank(A − λi I) = mλi . Per dimostrare l’implicazione 4. =⇒ 3. si pu`o osservare che, per ipotesi, ogni radice del polinomio caratteristico e` reale e quindi la somma delle moltiplicit`a delle radici distinte, cio`e degli autovalori distinti, coincide con il grado del polinomio caratteristico, ovvero: mλ1 + mλ2 + . . . + mλk = dim(V ) e quindi: dim(Vλ1 ) + dim(Vλ2 ) + . . . + dim(Vλk ) = dim(V ). Per dimostrare l’implicazione 3. =⇒ 2., tenendo conto che per il Teorema 7.3 la somma di tutti gli autospazi relativi agli autovalori distinti λ1 , λ2 , . . . , λk e` diretta e che dall’affermazione 3. la somma delle dimensioni degli autospazi e` pari alla dimensione di V, segue che la somma di tutti gli autospazi coincide necessariamente con V.

314

Diagonalizzazione

Per provare l’ultima implicazione 2. =⇒ 1. e` sufficiente osservare che, se per ogni autospazio Vλi , i = 1, 2, . . . , k si considera una base Bi , allora per il Teorema 4.17 l’unione: B1 ∪ B2 ∪ . . . ∪ Bk e` una base di V in quanto la somma degli autospazi e` diretta. Osservazione 7.8 La decomposizione 2. del teorema precedente e` anche nota come decomposizione spettrale di V. Osservazione 7.9 In base ai precedenti criteri segue che l’endomorfismo f dell’Esempio 7.7 e` diagonalizzabile (o equivalentemente la sua matrice associata A e` diagonalizzabile). Le matrici diagonali simili ad A sono tutte le possibili matrici diagonali aventi sulla diagonale principale gli autovalori di A. (Quante sono in totale?) L’endomorfismo dell’Esercizio 7.1 non e` diagonalizzabile, in quanto per l’autovalore λ2 = 1 si ha che dim(Vλ2 ) < mλ2 . Come conseguenza immediata del Teorema 7.7 si ha il seguente corollario, la cui dimostrazione e` lasciata al Lettore come esercizio. Corollario 7.1 Se f e` un endomorfismo di uno spazio vettoriale reale V di dimensione n con n autovalori distinti, allora f e` diagonalizzabile.

7.4

Il teorema spettrale

Nel caso particolare delle matrici simmetriche si pu`o dimostrare il fondamentale teorema spettrale. Teorema 7.8 – Teorema Spettrale – 1. Sia A una matrice simmetrica, allora A e` diagonalizzabile, esistono quindi una matrice diagonale D e una matrice invertibile P tali che: D = P −1AP. 2. Sia A una matrice simmetrica, e` sempre possibile individuare una matrice ortogonale Q tale che: D = Q−1AQ = t QAQ, cio`e A e` diagonalizzabile mediante una matrice ortogonale.

Capitolo 7

315

3. Se A ∈ Rn,n e` una matrice diagonalizzabile e se esiste una matrice Q ortogonale tale che t QAQ = D, con D matrice diagonale, allora A e` simmetrica. Si ricordi che il Teorema 6.17 afferma che, fissata una base ortonormale B in uno spazio vettoriale euclideo (V, · ), la matrice M B,B (f ) associata ad un endomorfismo f di V e` simmetrica se e solo se l’endomorfismo f e` autoaggiunto. Di conseguenza, si dimostrer`a, in questo paragrafo, che e` possibile formulare il Teorema Spettrale 7.8 in termini di endomorfismi autoaggiunti e che le due formulazioni sono equivalenti se e solo se si considerano basi ortonormali dello spazio vettoriale euclideo (V, · ). Pi`u precisamente si dimostrer`a il seguente teorema. Teorema 7.9 – Teorema Spettrale – 1. Sia f : V −→ V un endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, · ) e siano λ1 , λ2 , . . . , λk tutti i suoi autovalori distinti, allora la somma diretta di tutti gli autospazi coincide con V : Vλ1 ⊕ Vλ2 ⊕ . . . ⊕ Vλk = V e gli autospazi sono a due ortogonali, vale a dire: Vλi ⊥ Vλj ,

i 6= j,

i, j = 1, 2, . . . , k,

nel senso che per ogni x ∈ Vλi e per ogni y ∈ Vλj si ha x · y = 0. 2. Sia (V, · ) uno spazio vettoriale euclideo e sia f un endomorfismo diagonalizzabile di V e V = Vλ1 ⊕ Vλ2 ⊕ . . . ⊕ Vλk la relativa decomposizione spettrale, dove Vλi indica l’autospazio di f relativo all’autovalore λi . Si supponga che per ogni i, j , i 6= j , i, j = 1, 2, . . . , k si abbia Vλi ⊥ Vλj . Allora f e` un endomorfismo autoaggiunto di (V, · ). Osservazione 7.10 1. Si osservi che le due formulazioni del Teorema Spettrale 7.8 e 7.9 sono equivalenti solo se si sceglie nello spazio vettoriale euclideo (V, · ) una base ortonormale. Pertanto dalla dimostrazione del Teorema 7.9 segue la dimostrazione del Teorema 7.8. 2. Per dimostrare il punto 3. del Teorema Spettrale 7.8 si pu`o anche osservare che dal fatto che esiste una matrice Q ortogonale tale che t QAQ = D, si deduce A = QD t Q e quindi: t

A = t (QD t Q) = QD t Q = A,

in quanto ovviamente tD = D.

Diagonalizzazione

316

Si inizia con enunciare una prima propriet`a sulle radici del polinomio caratteristico di una matrice simmetrica, la cui dimostrazione e` rimandata al Paragrafo 7.6 in quanto essa segue dal fatto che si dovr`a considerare uno spazio vettoriale definito sul campo dei numeri complessi C, invece che su R. Lemma 7.2 Tutte le radici del polinomio caratteristico di una matrice simmetrica A di ordine n sono reali, o in modo equivalente, tutte le radici del polinomio caratteristico di un endomorfismo autoaggiunto f di uno spazio vettoriale euclideo (V, · ) sono reali. In altri termini, se λ1 , λ2 , . . . , λk sono tutti gli autovalori distinti di un endomorfismo autoaggiunto f di V con rispettive molteplicit`a mλ1 , mλ2 , . . . , mλk , allora si ha l’uguaglianza: mλ1 + mλ2 + . . . + mλk = n, dove n e` la dimensione di V. In generale, per un endomorfismo qualsiasi di uno spazio vettoriale euclideo (V, · ) si pu`o solo affermare che due autovettori relativi a due autovalori distinti non sono paralleli (cfr. Lemma 7.1). Nel caso particolare di endomorfismi autoaggiunti si pu`o dimostrare l’ortogonalit`a tra i due autovettori. Si ha infatti il seguente teorema. Teorema 7.10 Se λ1 e λ2 sono due autovalori distinti di un endomorfismo autoaggiunto f di uno spazio vettoriale euclideo (V, · ), allora i relativi autospazi Vλ1 e Vλ2 sono ortogonali tra di loro, ossia: x · y = 0, per ogni x ∈ Vλ1 e per ogni y ∈ Vλ2 . Dimostrazione Considerati x ∈ Vλ1 e y ∈ Vλ2 , dalla definizione di endomorfismo autoaggiunto segue: f (x) · y = (λ1 x) · y = λ1 (x · y) = x · f (y) = x · (λ2 y) = λ2 (x · y) = λ2 (x · y). Di conseguenza (λ1 − λ2 )(x · y) = 0, ma λ1 6= λ2 , perci`o x · y = 0. Dimostrazione del Teorema 7.9 1. Siano λ1 , λ2 , . . . , λk tutti gli autovalori distinti di f e siano Vλ1 , Vλ2 , . . . , Vλk i relativi autospazi, che sono tutti in somma diretta (cfr. Teor. 7.3). Sia: H = Vλ1 ⊕ Vλ2 ⊕ . . . ⊕ Vλk , si perviene alla tesi se si dimostra che H = V. Poich´e ogni autospazio Vλi , i = 1, 2, . . . , k , e` invariante per f (cfr. Teor. 7.2), segue dal Teorema 6.14 che anche H

Capitolo 7

317

e` invariante per f , ossia: f (H) ⊆ H. Si supponga per assurdo che H 6= V , allora: V = H ⊕ H⊥ , dove H⊥ indica il complemento ortogonale di H in V e H⊥ 6= {o}. Per il Teorema 6.18 si ha che anche H⊥ e` un sottospazio vettoriale di V invariante per f. Sia: f 0 : H⊥ −→ H⊥ la restrizione di f a H⊥ , definita da (6.18), cio`e da f 0 (x) = f (x), con x in H⊥ . Essendo f e` autoaggiunto, anche f 0 e` autoaggiunto sullo spazio vettoriale euclideo (H⊥ , · ) dotato dello stesso prodotto scalare di V. Poich´e tutte le radici del polinomio caratteristico di f 0 sono reali (cfr. Lemma 7.2) esiste un vettore x ∈ H⊥ che e` un autovettore di f 0 , quindi x e` un autovettore di f , da cui l’assurdo. L’ortogonalit`a tra gli autospazi segue dal Teorema 7.10. 2. Si tratta di dimostrare che: f (x) · y = x · f (y), per ogni x, y ∈ V. Dalla Definizione 4.6 segue che esiste una sola decomposizione dei vettori x e y del tipo: x = x1 + x 2 + . . . + xk ,

y = y1 + y2 + . . . + y k ,

con xi , yi ∈ Vλi , i = 1, 2, . . . , k. Si ha: f (x) · y = f (x1 + x2 + . . . + xk ) · (y1 + y2 + . . . + yk ) = f (x1 ) · y1 + f (x2 ) · y2 + . . . + f (xk ) · yk , in quanto, per ipotesi, f (xi ) · yj = 0, per ogni i, j = 1, 2, . . . , k, i 6= j. Poich´e f (xi ) = λi xi , la relazione precedente diventa: f (x) · y = λ1 x1 · y1 + λ2 x2 · y2 + . . . + λk xk · yk . Procedendo con un conto analogo a secondo membro si perviene alla tesi. Osservazione 7.11 Come gi`a affermato, il Teorema 7.8 e` conseguenza del Teorema 7.9. Ma il Teorema 7.9 afferma che ogni matrice associata ad un endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, · ) e` diagonalizzabile, anche se la matrice associata non e` simmetrica. Un esempio significativo e` studiato nell’Esercizio 8.19. Nel Teorema 8.28 sono determinate tutte le matrici associate ad un endomorfismo autoaggiunto rispetto ad una base qualsiasi di V.

318

Diagonalizzazione

A corretta conclusione di questa trattazione si riportano i due teoremi seguenti. Corollario 7.2 Sia f un endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, · ), allora esiste una base ortonormale di V formata da autovettori. Dimostrazione Siano λ1 , λ2 , . . . , λk tutti gli autovalori (distinti) di f e Vλ1 , Vλ2 , . . . , Vλk i relativi autospazi. Poich´e f e` autoaggiunto, f e` diagonalizzabile (cfr. Teor. 7.9). Dalla decomposizione: V = Vλ1 ⊕ Vλ2 ⊕ . . . ⊕ Vλk e dal fatto che gli autospazi sono ortogonali (cfr. Lemma 7.10) si pu`o determinare una base ortonormale di V formata da autovettori di f come unione di basi ortonormali per ogni autospazio Vλi . Pi`u precisamente, si trova una base per ciascun autospazio Vλi , i = 1, 2, . . . , k e la si normalizza con il metodo di Gram–Schmidt (cfr. Teor. 5.5), ottenendo in questo modo una base ortonormale Bi per ogni autospazio Vλi . Per il Teorema 7.10, se λi 6= λj allora Vλi ⊥ Vλj , pertanto l’unione delle basi ortonormali B1 ∪ . . . ∪ Bk cos`ı ottenute e` una base ortonormale di V formata da autovettori di f . Teorema 7.11 Ogni endomorfismo f : V −→ V diagonalizzabile e` autoaggiunto rispetto ad un opportuno prodotto scalare di V. Dimostrazione Sia B una base di V formata da autovettori di f . Allora esiste su V un prodotto scalare che rende B una base ortonormale (cfr. Oss. 5.3). Esercizio 7.2 Sia f l’endomorfismo di R3 associato alla matrice:   2 1 0 1 −1  A= 1 0 −1 2

(7.5)

rispetto alla base canonica di R3 . Dimostrare che f e` autoaggiunto rispetto al prodotto scalare standard di R3 e trovare una base ortonormale di R3 formata da autovettori di f . Inoltre, diagonalizzare la matrice A mediante una matrice ortogonale. Soluzione L’endomorfismo f e` autoaggiunto perch´e la matrice associata ad f e` simmetrica e la base canonica di R3 e` ortonormale, rispetto al prodotto scalare standard di R3 . Per trovare una base ortonormale di R3 , formata da autovettori di f , si devono determinare gli autospazi di f . Procedendo con il metodo indicato nel Paragrafo 7.2 si ha: autovalori di f : λ1 = 0, λ2 = 2, λ3 = 3, tutti di molteplicit`a 1;

Capitolo 7

319

autospazi di f : Vλ1 = L((−1, 2, 1)), Vλ2 = L((1, 0, 1)), Vλ3 = L((1, 1, −1)). Una base ortonormale richiesta si ottiene, semplicemente, considerando i versori di: v1 = (−1, 2, 1),

v2 = (1, 0, 1),

v3 = (1, 1, −1)

(perch´e?), quindi una matrice ortogonale che diagonalizza A e` ad esempio: 1 −√  6    2  P = √  6    1 √ 6 

da cui:

1 √ 2

 1 √ 3    1  √  0  3    1 1  √ −√ 2 3



 0 0 0 t P AP = D =  0 2 0 . 0 0 3

Esercizio 7.3 Sia f l’endomorfismo di R3 associato alla matrice:   1 −2 −2 1 −2  A =  −2 −2 −2 1

(7.6)

rispetto alla base canonica di R3 . Dimostrare che f e` autoaggiunto rispetto al prodotto scalare standard di R3 e trovare una base ortonormale di R3 formata da autovettori di f . Inoltre, diagonalizzare la matrice A mediante una matrice ortogonale. Soluzione Si verifica immediatamente che f e` autoaggiunto in quanto la matrice associata a f e` simmetrica e la base canonica di R3 e` ortonormale, rispetto al prodotto scalare standard di R3 . Per trovare una base ortonormale di R3 , formata da autovettori di f , si devono determinare gli autospazi di f . Si ha: autovalori di f : λ1 = −3, λ2 = 3, con rispettive molteplicit`a mλ1 = 1, mλ2 = 2; autospazi di f : Vλ1 = L((1, 1, 1)), Vλ2 = L((1, −1, 0), (0, 1, −1)).

Diagonalizzazione

320

Si ottiene quindi una base di R3 formata dagli autovettori: a = (1, 1, 1),

b = (1, −1, 0),

c = (0, 1, −1).

Pertanto una matrice P tale che P −1AP = D, con:   −3 0 0 D =  0 3 0 , 0 0 3 e` data ad esempio da: 

 1 1 0 1 , P =  1 −1 1 0 −1 ma la matrice P cos`ı ottenuta non e` ortogonale. Si perviene ad una base ortonormale di autovettori o equivalentemente una matrice ortogonale Q tale che t QAQ = D, applicando il processo di ortonormalizzazione di Gram–Schmidt separatamente ai due autospazi. Pi`u precisamente si considerano i vettori:   1 1 1 v1 = vers (a) = √ , √ , √ ,  3 3 3 1 1 v2 = vers (b) = √ , − √ , 0 , 2 2     1 1 2 1 1 , , −1 = √ , √ , − √ , v3 = vers (c − (c · v2 )v2 ) = vers 2 2 6 6 6 quindi una matrice ortogonale che diagonalizza A e` ad esempio: 1 1 1 √ √ √  3 2 6    1 1 1  √ Q =  √ −√  3 2 6    1 2 √ 0 −√ 3 6 

da cui: t

QAQ = D.

      ,    

Capitolo 7

7.5

321

Esercizi di riepilogo svolti

Esercizio 7.4 Data la matrice: 

 4 1 + a2 −1 5 −2 , A= 2 1 1 2

a ∈ R,

1. determinare il rango di A, al variare del parametro a nel campo reale R; 2. posto a = 0, determinare gli autovalori di A e una base per ciascun autospazio; 3. posto a = 0, verificare se A e` diagonalizzabile e, in caso affermativo, scrivere la matrice di cambiamento di base dalla base canonica B di R3 ad una base B 0 di R3 formata da autovettori. 4. Determinare, al variare di a ∈ R, i casi in cui la matrice A e` diagonalizzabile. Soluzione

1. Si ha det(A) = −6a2 + 45, pertanto rank(A) = 3 se e solo se: √ a 6= ±

30 . 2

Sostituendo nella matrice A i valori per cui det(A) = 0 si ha: 

4

  A=  2  1

 17 −1  2  5 −2    1 2

e con un semplice passaggio di riduzione per righe si ottiene che rank(A) = 2. 2. Dal punto precedente segue che per a = 0 il rango della matrice A e` 3, pertanto A e` una matrice invertibile che quindi non ammette l’autovalore λ = 0. Infatti, risolvendo l’equazione caratteristica det(A − λI) = 0, si ottiene che gli autovalori di A sono λ1 = 5 con molteplicit`a pari a 1 e λ2 = 3 con molteplicit`a 2. Gli autospazi corrispondenti sono dati da: Vλ1 = L((1, 2, 1)),

Vλ2 = L((1, 0, 1), (−1, 1, 0)).

322

Diagonalizzazione

3. Dal punto precedente si ha che dim(Vλ2 ) = 2, pertanto A e` diagonalizzabile. La matrice richiesta e` la matrice avente come colonne le componenti, rispetto alla base B, dei vettori di una base di R3 formata da autovettori di A ossia ad esempio:   1 1 −1 1 . P = 2 0 1 1 0 4. Le radici del polinomio caratteristico della matrice A del testo dell’esercizio sono: √ √ λ1 = 3, λ2 = 4 + 1 + 2a2 , λ3 = 4 − 1 + 2a2 . Innanzi tutto si osserva che per ogni valore di a la quantit`a 1 + 2a2 e` sempre strettamente positiva, pertanto, per ogni valore di a, le radici λ1 , λ2 , λ3 sono autovalori di A. Si tratta di studiare la loro molteplicit`a al variare di a ∈ R. Come √ gi`a osservato, non si hanno valori di a per cui λ2 = λ3 . Da λ1 = λ2 si ottiene 1 + 2a2 = −1, caso che non si pu`o verificare. Da λ1 = λ3 segue a = 0, che e` il caso studiato nel punto 3. Pertanto la matrice A e` diagonalizzabile per ogni valore di a, infatti (ad eccezione di a = 0) tutti gli autovalori sono distinti (cfr. Cor. 7.1). Esercizio 7.5 Sia f l’endomorfismo di R4 definito, rispetto alla base canonica B di R4 , dalla matrice:   2 0 −1 0  0 2 0 −1  . A=  4 0 −2 0  0 4 0 −2 1. Determinare la dimensione e una base sia di ker f sia di im f e verificare che ker f = im f. 2. Determinare autovalori e autovettori di f. 3. Stabilire se f e` diagonalizzabile. 4. Determinare una matrice simile a A. Soluzione 1. E` evidente che la matrice A ha rango 2, infatti la terza e la quarta riga sono proporzionali, rispettivamente, alla prima e alla seconda riga e queste ultime sono linearmente indipendenti. Di conseguenza il nucleo di f si ottiene risolvendo il sistema lineare omogeneo:  2x1 − x3 = 0 2x2 − x4 = 0,

Capitolo 7

323

le cui soluzioni sono:  x1    x2 x3    x4

= t1 = t2 = 2t1 = 2t2 ,

t1 , t2 ∈ R,

quindi dim(ker f ) = 2 e ker f = L((1, 0, 2, 0), (0, 1, 0, 2)). Il sottospazio immagine im f ha dimensione 2 ed e` generato da 2 colonne linearmente indipendenti della matrice A. Considerando la prima e la seconda colonna di A segue che im f = L((2, 0, 4, 0), (0, 2, 0, 4)), da cui e` chiaro che im f coincide con ker f. 2. Prima di iniziare il calcolo degli autovalori si pu`o gi`a affermare che si trover`a l’autovalore λ = 0 di molteplicit`a almeno pari a 2, infatti l’autospazio ad esso relativo e` ker f, gi`a calcolato nel punto 1. Il polinomio caratteristico di A e` : P (λ) = λ4 . Pertanto l’unico autovalore e` λ = 0 di molteplicit`a 4. Di conseguenza l’unico autospazio e` ker f. 3. Poich´e la dimensione di ker f e` diversa dalla molteplicit`a dell’autovalore λ = 0, l’endomorfismo f non e` diagonalizzabile, ossia non e` possibile trovare alcuna matrice diagonale simile ad A. D’altra parte, solo la matrice nulla ammette come unico autovalore il numero 0 ed e` diagonalizzabile. 4. Una qualsiasi matrice A0 simile ad A e` del tipo A0 = P −1 AP con P matrice invertibile di ordine 4. Per esempio, ponendo:   1 0 0 0  0 0 1 0   P =  0 1 0 0  0 0 0 1 si ha che:



2 −1  4 −2 A0 = P −1 AP =   0 0 0 0

 0 0 0 0  . 2 −1  4 −2

Si osservi che, ovviamente, non esiste una base di R4 formata da autovettori, ma, per esempio, si pu`o ottenere una base C di R4 , completando la base di ker f ottenuta nel punto 1.. Ad esempio: C = ((1, 0, 2, 0), (0, 1, 0, 2), (0, 0, 1, 0), (0, 0, 0, 1)).

Diagonalizzazione

324

La matrice associata ad f rispetto alla base C e` : 

0  0 M C,C (f ) = (P 0 )−1 AP 0 =   0 0

 0 −1 0 0 0 −1  , 0 0 0  0 0 0

dove 

1  0 P0 =   2 0

0 1 0 2

0 0 1 0

 0 0   0  1

e` la matrice del cambiamento di base dalla base canonica B di R4 alla base C . Si osservi anche che la matrice M C,C (f ) non e` diagonale ma e` diagonale “a met`a”. Infatti la restrizione di f a ker f (cfr. Def. 6.10) coincide ovviamente con l’endomorfismo nullo di ker f . Esercizio 7.6 Si consideri l’endomorfismo f : R4 −→ R4 tale che: a. l’autospazio relativo all’autovalore 1 sia: H = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 = x2 − x3 − 2x4 = 0}; b. l’autospazio relativo all’autovalore −1 sia: K = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 − 2x2 = x2 + x3 = x4 = 0}; c. il nucleo sia dato da: ker f = {(x1 , x2 , x3 , x4 ) ∈ R4 | x2 = x3 = x4 = 0}. 1. Determinare la matrice A associata ad f, rispetto alla base canonica di R4 . 2. f e` diagonalizzabile? In caso affermativo, scrivere una matrice diagonale D simile ad A ed una matrice P tale che D = P −1 AP . Soluzione E` pi`u facile procedere con la risoluzione del secondo punto e poi dedurre da questa la soluzione del primo punto.

Capitolo 7

325

2. La dimensione di H e` 2 e una sua base e` data dai vettori: a1 = (0, 1, 1, 0),

a2 = (0, 2, 0, 1).

La dimensione di K e` 1 e una sua base e` data dal vettore a3 = (−2, −1, 1, 0). La dimensione di ker f e` 1 e una sua base e` data dal vettore a4 = (1, 0, 0, 0). Gli autospazi sono in somma diretta (cfr. Teor. 7.3), pertanto (a1 , a2 , a3 , a4 ) formano una base di autovettori di R4 , quindi f e` diagonalizzabile. Di conseguenza la matrice D richiesta e` :   1 0 0 0  0 1 0 0   D=  0 0 −1 0  0 0 0 0 e una matrice P tale che D = P −1 AP si ottiene ponendo ordinatamente in colonna le componenti della base di autovettori ricavata, ossia:   0 0 −2 1  1 2 −1 0  . P =  1 0 1 0  0 1 0 0 1. Da D = P −1 AP segue: 

A = P DP −1

7.6

0 −1  0 0 =  0 1 0 0

 1 2 1 2  . 0 −2  0 1

Per saperne di piu`

Esercizio 7.7 Si dimostri il Lemma 7.1, di seguito riportato. Siano λ1 , λ2 , . . . , λk autovalori distinti di un endomorfismo f : V −→ V di uno spazio vettoriale V e siano Vλ1 , Vλ2 , . . . , Vλk gli autospazi ad essi corrispondenti. Scelti in modo arbitrario gli autovettori x1 , x2 , . . . , xk , uno per ciascun autospazio ad esso relativo (ossia xi ∈ Vλi , i = 1, 2, . . . , k ), allora l’insieme I = {x1 , x2 , . . . , xk } e` libero. Soluzione Si procede per induzione sul numero k di autospazi. Il caso k = 1 e` ovvio, in quanto, per definizione, ogni autovettore e` diverso dal vettore nullo. Si supponga, per ipotesi induttiva, che i vettori x1 , x2 , . . . , xk−1 siano linearmente indipendenti, dove ogni xi e` un autovettore di Vλi , i = 1, 2, . . . , k − 1. Si tratta di dimostrare

Diagonalizzazione

326

che l’insieme {x1 , x2 , . . . , xk−1 , xk } e` libero, con xk autovettore di Vλk . Per assurdo si supponga che ci`o non avvenga, vale a dire che: xk = µ1 x1 + µ2 x2 + . . . + µk−1 xk−1 ,

(7.7)

con µi ∈ R, i = 1, 2, . . . , k − 1. Applicando l’endomorfismo f ad ambo i membri di (7.7), dalla linearit`a di f e dal fatto che ogni vettore xi e` un autovettore si perviene all’uguaglianza: λk xk = µ1 λ1 x1 + µ2 λ2 x2 + . . . + µk−1 λk−1 xk−1 .

(7.8)

D’altra parte, moltiplicando invece ambo i membri di (7.7) per λk si ottiene: λk xk = µ1 λk x1 + µ2 λk x2 + . . . + µk−1 λk xk−1 .

(7.9)

Uguagliando (7.8) e (7.9) segue: µ1 (λ1 − λk )x1 + µ2 (λ2 − λk )x2 + . . . + µk−1 (λk−1 − λk )xk−1 = o. I vettori coinvolti nella relazione precedente sono lineramente indipendenti per ipotesi induttiva, quindi tutti i coefficienti sono nulli, ma, essendo gli autovalori distinti si ottiene µ1 = µ2 = . . . = µk−1 = 0, risultato che sostituito nella formula 7.7 comporta xk = o, che e` assurdo, trattandosi di un autovettore.

7.6.1

Diagonalizzazione simultanea

Siano f e g due endomorfismi diagonalizzabili di uno spazio vettoriale V di dimensione n e B una base di V. Indicate con A = M B,B (f ) e B = M B,B (g) le matrici associate a f e g rispetto alla base B, per quanto dimostrato nei paragrafi precedenti, esistono due matrici quadrate invertibili P e Q di ordine n tali che: P −1 AP = D,

Q−1 AQ = D0 ,

dove D e D0 sono matrici diagonali. Nasce quindi in modo naturale il problema di trovare le condizioni che devono essere verificate affinch´e esista una matrice invertibile P che diagonalizzi sia A sia B, ovvero tale che sia P −1 AP sia P −1 BP siano matrici diagonali, ovviamente diverse. Questo problema ha conseguenze importanti per esempio in meccanica quantistica ed in teoria delle rappresentazioni (cfr. per esempio [13]). Prima di affrontare il problema posto si pu`o introdurre la seguente definizione. Definizione 7.5 Due endomorfismi diagonalizzabili f e g di uno spazio vettoriale reale V si dicono simultaneamente diagonalizzabili se esiste una base di V i cui vettori sono sia autovettori di f sia autovettori di g .

Capitolo 7

327

La definizione appena enunciata riscritta facendo uso delle matrici associate agli endomorfismi f e g rispetto ad una base di V si traduce nella seguente definizione. Definizione 7.6 Due matrici A e B si dicono simultaneamente diagonalizzabili se esiste una matrice P, invertibile, tale che: A = P DP −1 ,

B = P D0 P −1 ,

(7.10)

con D e D0 matrici diagonali. Il teorema seguente ha il duplice scopo di stabilire la condizione necessaria e sufficiente affinch´e due endomorfismi diagonalizzabili siano simultaneamente diagonalizzabili e di indicare un metodo pratico per determinare una matrice P che diagonalizzi simultaneamente le matrici associate ai due endomorfismi. Teorema 7.12 Siano f e g due endomorfismi diagonalizzabili di uno spazio vettoriale reale V di dimensione n. Essi sono simultaneamente diagonalizzabili se e solo se: f ◦ g = g ◦ f, ossia se e solo se le matrici associate A e B a f rispetto alla stessa base di V commutano: AB = BA. Dimostrazione Se f e g sono simultaneamente diagonalizzabili, allora valgono le relazioni (7.10) da cui: AB = P D(P −1 P )D0 P −1 = P DD0 P −1 = (P D0 P −1 )(P DP −1 ) = BA. Viceversa, si supponga che gli endomorfismi f e g siano diagonalizzabili e che la loro composizione commuti. Indicati con Vλ1 , Vλ2 , . . . , Vλk tutti gli autospazi relativi a f , vale la decomposizione spettrale: V = Vλ1 ⊕ Vλ2 ⊕ . . . ⊕ Vλk .

(7.11)

Si osserva, per iniziare, che l’endomorfismo g trasforma ogni vettore dell’autospazio Vλi relativo a f in un vettore dello stesso autospazio, ovvero che g(Vλi ) ⊆ Vλi . In altri termini gli autospazi Vλi di f non sono solo invarianti per f ma anche per g. Infatti, per ogni vettore x ∈ Vλi , risulta che: f (g(x)) = (f ◦ g)(x) = (g ◦ f )(x) = g(f (x)) = g(λi x) = λi g(x),

Diagonalizzazione

328

quindi g(x) ∈ Vλi , i = 1, 2, . . . , k. Sia ora y un autovettore di g , ossia g(y) = µy, con µ ∈ R. Come immediata conseguenza della decomposizione spettrale (7.11) di V negli autospazi di f, il vettore y si pu`o scrivere, in modo unico, come: y = w1 + w2 + . . . + wk ,

wi ∈ Vλi , i = 1, 2, . . . , k.

Poich´e y e` un autovettore dell’endomorfismo g, almeno uno tra i vettori wi e` diverso dal vettore nullo. Per quanto osservato e per la linearit`a di g , si ha: g(y) = g(w1 ) + g(w2 ) + . . . + g(wk ) = µy = µw1 + µw2 + . . . + µwk , dove g(wi ) ∈ Vλi , i = 1, 2, . . . , k . Inoltre, dall’unicit`a della decomposizione di un vettore nella somma dei vettori degli autospazi, si ottiene: g(w1 ) = µw1 ,

g(w2 ) = µw2 ,

...,

g(wk ) = µwk .

Questo prova che per ogni autovettore y di g e` possibile determinare almeno un vettore wi che sia simultaneamente autovettore di f e di g . Applicando questo metodo ad una base (y1 , y2 , . . . , yn ) di autovettori di g , che esiste sicuramente in quanto g e` diagonalizzabile, si ottengono almeno n vettori che sono simultaneamente autovettori di f e g . Poich´e i vettori yi sono combinazione lineare degli autovettori comuni ad f e a g, lo spazio vettoriale da essi generato coincide con L(y1 , y2 , . . . , yn ) = V e perci`o da essi si pu`o estrarre una base comune di autovettori di f e di g . Osservazione 7.12 Per determinare una base comune di autovettori per due endomorfismi diagonalizzabili f e g che commutano e` sufficiente estrarre una base dall’insieme unione delle basi dei sottospazi vettoriali Vλi ∩Vλ0j ottenuti come intersezione di ogni autospazio Vλi di f con ogni autospazio Vλ0j di g . Si noti che per alcuni indici i e j tale intersezione pu`o essere ridotta all’insieme {o}. Inoltre, appare evidente dalla dimostrazione del Teorema 7.12 che la base comune di autovettori non e` unica. Esercizio 7.8 Dati due endomorfismi f e g su R3 le cui matrici, rispetto alla base canonica di R3 , sono rispettivamente: 

2  0 A= −1

0 2 0

 0 0 , 3



1  B = −2 −2

0 3 0

 0 0 , 3

si verifichi che f e g sono simultaneamente diagonalizzabili e si trovi una base comune di autovettori.

Capitolo 7

329

Innanzitutto si prova che f e g commutano, infatti:

Soluzione



2  AB = −4 −7

 0 0  = BA. 9

0 6 0

L’endomorfismo f ha autovalori con relative molteplicit`a: λ1 = 2, mλ1 = 2;

λ2 = 3, mλ2 = 1

ed autospazi: Vλ1 = L((1, 0, 1), (0, 1, 0)),

Vλ2 = L((0, 0, 1));

mentre l’endomorfismo g ha autovalori con relative molteplicit`a: λ01 = 1, mλ01 = 1;

λ02 = 3, mλ02 = 2

ed autospazi: Vλ01 = L((1, 1, 1)),

Vλ02 = L((0, 1, 0), (0, 0, 1)).

Quindi i due endomorfismi sono diagonalizzabili, poich´e commutano sono simultaneamente diagonalizzabili. Si vede subito che gli autovettori di g : y1 = (1, 1, 1),

y2 = (0, 1, 0),

y3 = (0, 0, 1)

sono anche autovettori di f e, quindi, costituiscono una base di autovettori comune ad f e a g. Si presti attenzione al fatto che, rispetto alla base comune (y1 , y2 , y3 ), la matrice:   2 0 0 D= 0 2 0  0 0 3 e` associata a f , mentre la matrice: 

 1 0 0 D0 =  0 3 0  0 0 3 e` associata a g . Esercizio 7.9 Date le matrici: 

 16 −16 4 16  0 0 0 0  , A= −48 48 −12 −48  0 0 0 0



 −9 12 −3 −12  3 −3 1 3  , B=  12 −12 4 12  9 −12 3 12

Diagonalizzazione

330

provare che sono simultaneamente diagonalizzabili. Determinare, quindi, una matrice che le diagonalizzi entrambe. Soluzione

Gli autovalori con relative molteplicit`a e gli autospazi di A sono: λ1 = 0, mλ1 = 3;

λ2 = 4, mλ2 = 1;

Vλ1 = L(v1 , v2 , v3 ),

Vλ2 = L(v4 ),

dove v1 = (−1, 0, 0, 1), v2 = (−1, 0, 4, 0), v3 = (1, 1, 0, 0), v4 = (−1, 0, 3, 0), mentre gli autovalori con relative molteplicit`a e gli autospazi di B sono: λ01 = 0, mλ01 = 2;

λ02 = 1, mλ2 = 1;

λ03 = 3, mλ3 = 1;

Vλ01 = L(v10 , v20 ),

Vλ02 = L(v30 ),

Vλ03 = L(v40 ),

con v10 = (0, 1, 0, 1), v20 = (−1, 0, 3, 0), v30 = (0, 1, 4, 0), v40 = (−1, 0, 0, 1). Le due matrici A e B sono simultaneamente diagonalizzabili in quanto A e B commutano, infatti: AB = BA = O, con O ∈ R4,4 matrice nulla. Il Teorema 7.12 assicura che, ad esempio, a partire dalla base B 0 = (v10 , v20 , v30 , v40 ) di R4 e` possibile determinare una base comune di autovettori che si ottiene seguendo il metodo esposto nella dimostrazione. Si decompongono i vettori della base B = (v1 , v2 , v3 , v4 ) di R4 attraverso i vettori della base B 0 , con l’avvertenza di raggruppare e sommare gli autovettori appartenenti allo stesso autospazio. Si hanno le seguenti espressioni:  0   v1 = v4 0  v2 = −v1 + v30 + v40 v3 = v10 − v40    v4 = v20 , dalle quali risulta che (casualmente) i vettori della base B 0 sono autovettori comuni alle due matrici. Scambiando il ruolo delle basi B e B 0 , si avrebbe:  0 v = v1 + v3    10 v2 = v4 v 0 = v2 + v3    30 v 4 = v1 , dove si osserva che una base comune e` formata dai vettori v10 , v20 , v30 , v40 , ossia, nuovamente, la base B 0 .

Capitolo 7

331

Come gi`a precisato nell’Osservazione 7.12 un altro modo per determinare una base comune di autovettori delle due matrici A e B diagonalizzabili e che commutano, consiste nell’estrarre una base dall’insieme unione delle basi dei sottospazi vettoriali: Vλi ∩ Vλ0j , i = 1, 2, j = 1, 2, 3, dove Vλi e Vλ0j rappresentano gli autospazi delle matrici A e B rispettivamente. Nel caso in esame, ommettendo i calcoli per brevit`a, si ha: V λ1 V λ1 V λ1 V λ2 V λ2 V λ2

∩ Vλ01 ∩ Vλ02 ∩ Vλ03 ∩ Vλ01 ∩ Vλ02 ∩ Vλ03

= L((0, 1, 0, 1)), = L((0, 1, 4, 0)), = L((−1, 0, 0, 1)), = L((−1, 0, 3, 0)), = {o}, = {o},

e si ottengono nuovamente i vettori della base B 0 .

7.6.2

Il Teorema di Cayley–Hamilton

Il teorema che segue, di svariate applicazioni, e` sorprendente, perch´e afferma, in pratica, che sostituendo una matrice quadrata alla variabile del suo polinomio caratteristico si ottiene la matrice nulla. Teorema 7.13 – Teorema di Cayley–Hamilton – Ogni matrice quadrata A ∈ Rn,n e` uno zero del suo polinomio caratteristico, ovvero se: P (λ) = (−1)n λn + an−1 λn−1 + . . . + a1 λ + a0 e` il polinomio caratteristico di A, allora: P (A) = (−1)n An + an−1 An−1 + . . . + a1 A + a0 I = O, con O ∈ Rn,n matrice nulla. Dimostrazione

Sia P (λ) il polinomio caratteristico della matrice A ∈ Rn,n :

P (λ) = det(A − λI) = (−1)n λn + an−1 λn−1 + . . . + a1 λ + a0 ,

(7.12)

con an−1 = (−1)n−1 tr(A) e a0 = det(A). Sia B(λ) l’aggiunta della matrice A − λI , (cfr. Def. 2.14), gli elementi di B(λ), essendo i cofattori della matrice A − λI, sono polinomi in λ di grado non superiore a n − 1. Quindi si pu`o scrivere: B(λ) = Bn−1 λn−1 + . . . + B1 λ + B0 ,

(7.13)

Diagonalizzazione

332

dove gli elementi delle matrici Bi ∈ Rn,n non dipendono da λ. Ricordando il calcolo esplicito della matrice inversa (cfr. Teor. 2.19), segue che: (A − λI)B(λ) = det(A − λI)I. Sostituendo le espressioni di (7.12) e (7.13) ed uguagliando i coefficienti dei termini di ugual grado si ha: −Bn−1 = (−1)n I ABn−1 − Bn−2 = an−1 I ABn−2 − Bn−3 = an−2 I .. . AB1 − B0 = a1 I AB0 = a0 I. Moltiplicando le precedenti equazioni, rispettivamente, per An , An−1 , . . . , A, I e sommando segue la tesi, ossia: O = (−1)n An + an−1 An−1 + . . . + a1 A + a0 I = P (A). Esempio 7.8 Per capire meglio la dimostrazione B(λ) (cfr. (7.13)) nel caso della matrice:  2 0  1 3 A= −1 1

precedente, si riporta l’espressione di  0 0 . 1

Il polinomio caratteristico di A e` : P (λ) = −λ3 + 6λ2 − 11λ + 6. Poich´e:

(7.14)



 2−λ 0 0 3−λ 0 , A − λI =  1 −1 1 1−λ

l’aggiunta B(λ) della matrice (A − λI) e` :   3 − 4λ + λ2 0 0  2 − 3λ + λ2 0 B(λ) =  −1 + λ 2 4−λ −2 + λ 6 − 5λ + λ

Capitolo 7

333

da cui: B(λ) = B2 λ2 + B1 λ + B0 

1 =  0 0

0 1 0

    0 −4 0 0 3 0 0  λ2 +  1 −3 0  λ +  −1 2 1 −1 1 −5 4 −2

 0 0 . 6

Esempio 7.9 Sia A una matrice quadrata di ordine 2, dal Teorema di Cayley–Hamilton 7.13 e da (7.4) segue: A2 = tr(A)A − det(A)I. Si possono cos`ı ottenere le potenze di A in funzione delle potenze precedenti, per esempio: A3 = tr(A)A2 − det(A)A,

A4 = tr(A)A3 − det(A)A2 ,

e cos`ı via.

Esempio 7.10 Se A e` invertibile, poich´e da (7.14), si ha:   A (−1)n An−1 + an−1 An−2 + . . . + a1 I = − det(A)I, moltiplicando entrambi i membri per A−1 , si ottiene: A−1 = −(det(A))−1 (a0 An−1 + a1 An−2 + . . . + a1 I). Se A e` una matrice quadrata di ordine 2, la formula precedente si riduce a: A−1 = −(det(A))−1 (A + tr(A)I).

Esercizio 7.10 Determinare l’inversa della matrice: 

1 0 2 A= 0 1 −1 usando il Teorema di Cayley–Hamilton.

 1 1 , 0

Diagonalizzazione

334

Soluzione

Il polinomio caratteristico di A e` : P (λ) = −λ3 + 3λ2 − 2λ − 1.

Usando il Teorema 7.13 si ricava: −A3 + 3A2 − 2A − I = O, con O matrice nulla di R3,3 , quindi: A−1 = −A2 + 3A − 2I, da cui svolgendo i calcoli segue: 

A−1

7.6.3

 −1 1 2 1 1 . =  −1 2 −1 −2

Teorema spettrale e endomorfismi autoaggiunti Caso complesso

Dato un endomorfismo f di uno spazio vettoriale complesso V, si introducono in modo analogo alla Definizione 7.1 le nozioni di autovalori e di autovettori di f. Infatti, un numero complesso λ ∈ C e` un autovalore di f se esiste un vettore non nullo x di V tale che f (x) = λx. Il vettore x e` detto autovettore di f relativo all’autovalore λ. Come nel caso reale si definisce l’autospazio Vλ di f relativo all’autovalore f dato dall’insieme dei vettori x tali che f (x) = λx e continuano a valere tutte le propriet`a dimostrate nei Paragrafi 7.1 e 7.2. Pertanto per il calcolo degli autovalori si procede come nel caso reale, precisamente: 1. si determina la matrice A = M B,B (f ) associata a f rispetto a una qualsiasi base B di V ; e` chiaro che A e` una matrice ad elementi complessi, quindi appartenente a Cn,n ; 2. si calcola il polinomio caratteristico P (λ) = det(A − λI), che risulta essere un polinomio in λ a coefficienti in C; 3. si trovano le radici del polinomio caratteristico. Mentre nel caso reale solo le radici reali del polinomio caratteristico sono autovalori, nel caso complesso, per il Teorema Fondamentale dell’Algebra, ogni radice del polinomio caratteristico e` un autovalore. Per il calcolo degli autospazi si procede nello stesso modo del caso reale (cfr. Par. 7.2):

Capitolo 7

335

1. per ogni autovalore α si calcola la matrice A − αI; 2. si risolve il sistema lineare omogeneo (A − αI)X = O. Come nel caso reale si ha che la dimensione di un autospazio Vλ , come spazio vettoriale complesso, e` data da dim(Vλ ) = dim(V ) − rank(A − λI). Si possono quindi introdurre le nozioni di endomorfismo diagonalizzabile e di matrice diagonalizzabile (cfr. Def. 7.3 e 7.4) e continua a valere il Teorema 7.6. Per quanto riguarda il Teorema 7.7, ossia per i criteri di diagonalizzazione, si ha solo una variazione nel punto 4.. Pi`u precisamente si ha il seguente teorema. Teorema 7.14 Sia f : V −→ V un endomorfismo di uno spazio vettoriale complesso V. Le seguenti affermazioni sono equivalenti: 1. f e` diagonalizzabile. 2. V = Vλ1 ⊕ Vλ2 ⊕ . . . ⊕ Vλk , dove λ1 , λ2 , . . . , λk sono tutti gli autovalori distinti di f e Vλ1 , Vλ2 , . . . , Vλk i relativi autospazi. 3. dim(V ) = dim(Vλ1 ) + dim(Vλ2 ) + . . . + dim(Vλk ), dove λ1 , λ2 , . . . , λk sono tutti gli autovalori distinti di f e Vλ1 , Vλ2 , . . . , Vλk i relativi autospazi. 4. Per ogni autovalore λi di f la dimensione dell’autospazio Vλi coincide con la molteplicit`a mλi di λi , ossia dim(Vλi ) = mλi per ogni i = 1, 2, . . . , k . Di conseguenza, anche per un endomorfismo di uno spazio vettoriale complesso vale il Corollario 7.1. Nel Paragrafo 7.4 e` stato dimostrato che ogni matrice simmetrica e` diagonalizzabile mediante una matrice ortogonale e che se f e` un endomorfismo autoaggiunto di uno spazio vettoriale euclideo (V, · ), esiste una base ortonormale di V formata da autovettori. Gli autovalori e gli autovettori di un endomorfismo autoaggiunto di uno spazio vettoriale hermitiano (V, · ) (e di conseguenza di una matrice hermitiana) godono delle stesse propriet`a viste nel caso reale. Queste sono riassunte nel teorema che segue. Teorema 7.15 1. Gli autovalori di un endomorfismo autoaggiunto f di uno spazio vettoriale hermitiano (V, · ) sono reali. 2. Autovettori di un endomorfismo autoaggiunto f di uno spazio vettoriale hermitiano (V, · ) relativi ad autovalori diversi sono ortogonali.

336

Diagonalizzazione

3. Sia f un endomorfismo autoaggiunto di uno spazio vettoriale hermitiano (V, · ) di dimensione n, allora f e` diagonalizzabile. Inoltre, esiste una base ortonormale di V formata da autovettori di f . 4. Ogni matrice hermitiana e` diagonalizzabile mediante una matrice unitaria. 5. Ogni endomorfismo f di uno spazio vettoriale complesso e` autoaggiunto rispetto ad un opportuno prodotto hermitiano. Dimostrazione Per dimostrare 1. si pu`o osservare che se λ e` un autovalore dell’endomorfismo autoaggiunto f e x e` un autovettore relativo a λ, si ha: f (x) · x = λ x · x.

(7.15)

Poich´e f e` autoaggiunto risulta anche: f (x) · x = x · f (x) = x · (λx) = λ x · x,

(7.16)

dove λ indica il complesso coniugato di λ. Essendo x e` un autovettore, segue x · x 6= 0 e pertanto, confrontando (7.15) con (7.16) si ottiene λ = λ. Le dimostrazioni delle propriet`a 2., 3., 4. e 5. sono analoghe al caso reale. Osservazione 7.13 1. Come conseguenza del Teorema 7.15 si ottiene la dimostrazione del Lemma 7.2, in quanto dalla propriet`a 1. si ha che ogni radice del polinomio caratteristico di una matrice hermitiana (e quindi in particolare di una matrice simmetrica) e` reale. 2. Ogni matrice hermitiana e` pertanto simile ad una matrice diagonale reale tramite una matrice unitaria. In altri termini, per ogni matrice hermitiana A esistono una matrice unitaria P ed una diagonale reale D per cui D = P −1 AP = t P AP. A differenza di ci`o che succede nel caso reale per ci`o che riguarda le matrici simmetriche (cfr. Teor. 7.8), si prover`a che se una matrice A ∈ Cn,n e` diagonalizzabile in campo complesso mediante una matrice unitaria essa non e` necessariamente hermitiana, ma verifica solo la relazione t A A = A t A (cfr. Teor. 7.16). Ad esempio si avr`a che le matrici ortogonali reali A (quindi tali che tA = A−1 ) sono diagonalizzabili in campo complesso mediante una matrice unitaria (cfr. Es. 7.11). In modo naturale e` necessario quindi introdurre la seguente definizione.

Capitolo 7

337

Definizione 7.7 Una matrice quadrata complessa A ∈ Cn,n di ordine n si dice normale se: t A A = A t A. Ricordando la notazione A∗ = t A (cfr. Oss. 4.34) si ha che una matrice quadrata complessa A ∈ Cn,n di ordine n si dice normale se: A∗ A = A A∗ . Esercizio 7.11 Verificare che le matrici unitarie, le matrici reali ortogonali, le matrici hermitiane e le matrici simmetriche (reali) sono esempi di matrici normali. Soluzione

Una matrice unitaria A e` normale, in quanto da t A = A−1 , segue: A t A = t A A = I.

Per le matrici ortogonali (reali) si ha che t A = tA = A−1 e pertanto: A t A = t A A = I. Per le matrici hermitiane si ha t A = A e quindi: A t A = t A A = A2 . Infine, una matrice simmetrica (reale) A e` normale in quanto t A = tA = A e pertanto A t A = t A A = A2 .

Il teorema spettrale, valido nel caso reale per le matrici simmetriche, in campo complesso non vale solo per le matrici hermitiane ma in generale per le matrici normali. Pi`u precisamente si ha il seguente teorema. Teorema 7.16 – Teorema spettrale in campo complesso – 1. Sia A una matrice normale, allora esistono una matrice unitaria P ed una matrice diagonale D tali che P −1 AP = D. 2. Se A e` una matrice diagonalizzabile mediante una matrice unitaria, allora A e` normale.

Diagonalizzazione

338

Dimostrazione La dimostrazione di 1. e` pi`u complicata del caso reale, per la sua lettura si rimanda ad esempio a [14]. La dimostrazione di 2. e` simile a quella nel caso reale per le matrici simmetriche. Infatti dal fatto che esista una matrice P di ordine n unitaria tale che P −1 AP = D, si deduce t

A = t (P

−1

D P ) = t P DP,

in quanto t D = D e t P = P −1 . Quindi: t

AA = (t P DP )(P −1 DP ) = t P DDP = P −1 DDP,

A t A = (P −1 DP )(t P DP ) = P −1 DDP, ma DD = DD. Osservazione 7.14 1. Si osservi che gli autovalori di una matrice normale sono in generale numeri complessi e quindi la matrice D non e` necessariamente reale. 2. Tutte le matrici complesse normali possono quindi essere diagonalizzate in C con una base ortonormale di autovettori. Tuttavia, questo non si verifica nel caso reale. Infatti, una matrice normale reale pu`o avere autovalori immaginari, e quindi non essere diagonalizzabile in campo reale (pur rimanendo diagonalizzabile in campo complesso). Ne e` un esempio la matrice di una rotazione del piano vettoriale V2 di angolo diverso da 0 e θ (cfr. Es. 7.4).

7.6.4

Autovalori delle isometrie, similitudini, trasformazioni unitarie

Gli autovalori delle isometrie e delle similitudini di uno spazio vettoriale euclideo (V, · ), considerate nel Paragrafo 6.8.7, non possono assumere valori qualsiasi. Infatti si pu`o provare il seguente teorema. Teorema 7.17 Sia (V, · ) uno spazio vettoriale euclideo, 1. gli autovalori di un’isometria f di (V, · ) sono 1 e −1. 2. Gli autovalori di una similitudine di rapporto µ di (V, · ) sono µ e −µ. Dimostrazione Pertanto:

1. Sia λ un autovalore di un’isometria f : V → V, quindi f (x) = λx. kf (x)k2 = kλxk2 = λ2 kxk2 = kxk2 ,

da cui la tesi. La dimostrazione di 2. e` analoga ed e` lasciata al Lettore per esercizio.

Capitolo 7

339

Osservazione 7.15 Si osservi che se un’automorfismo di uno spazio vettoriale euclideo (V, · ) ha autovalori pari a 1 e −1 non e` detto che sia un’isometria di (V, · ). Per esempio, si consideri l’automorfismo di R2 definito dalla matrice:   1 1 A= 0 1 rispetto alla base canonica B d R2 . Se si considera su R2 la struttura di spazio euclideo determinata dal prodotto scalare standard, si ha per il Teorema 6.32 che f non e` un isometria di R2 (perch´e?). Nel caso di una trasformazione unitaria di uno spazio vettoriale hermitiano (cfr. Par. 5.5.2 e 6.8.7) valgono le seguenti propriet`a la cui dimostrazione e` rimandata ad esempio a [14]. Teorema 7.18 Sia f una trasformazione unitaria di uno spazio vettoriale hermitiano (V, · ). 1. Se H e` un sottospazio vettoriale invariante per f , anche il suo complemento ortogonale H⊥ e` invariante per f . 2. Se V ha dimensione finita, allora V ammette una base unitaria formata da autovettori di f . Si osservi che il fatto che esista una base unitaria di V formata da autovettori di f segue anche dalla propriet`a gi`a enunciata che le matrici unitarie sono diagonalizzabili mediante matrici unitarie (cfr. Teor. 7.16.)

340

Diagonalizzazione

Capitolo 8 Forme Bilineari e Forme Quadratiche In questo capitolo vengono trattate le forme bilineari, particolari funzioni che estendono il concetto di prodotto scalare definito nel Capitolo 5. Tra le innumerevoli applicazioni di questo argomento si ha lo studio approfondito delle coniche nel piano e delle quadriche nello spazio che saranno presentati nei Capitoli 10 e 12.

8.1

Forme bilineari simmetriche

Si inizia il paragrafo con la definizione di forma bilineare su uno spazio vettoriale reale. Definizione 8.1 Una forma bilineare su uno spazio vettoriale reale V e` una funzione: ϕ : V × V −→ R per cui valgono le seguenti propriet`a: 1. ϕ(x + x0 , y) = ϕ(x, y) + ϕ(x0 , y); 2. ϕ(x, y + y0 ) = ϕ(x, y) + ϕ(x, y0 ); 3. ϕ(λx, y) = ϕ(x, λy) = λϕ(x, y), per ogni x, x0 , y, y0 ∈ V e per ogni λ ∈ R. Osservazione 8.1 Fissato un vettore x ∈ V, la funzione: ϕx : V −→ R,

y 7−→ ϕ(x, y),

con ϕ forma bilineare su V, e` una forma lineare su V. La stessa propriet`a vale se si fissa il vettore y e si considera la funzione: ϕy : V −→ R,

x 7−→ ϕ(x, y).

341

342

Forme Bilineari e Forme Quadratiche

Di seguito si riporta un elenco di funzioni di cui si lascia al Lettore, per esercizio, la verifica che si tratti o meno di forme bilineari. Esempio 8.1 La funzione ϕ : R2 × R2 −→ R definita da: ϕ(x, y) = x1 y1 − 2x2 y2 , con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R2 , e` una forma bilineare su R2 . Infatti: ϕ((x1 , x2 ) + (x01 , x02 ), (y1 , y2 )) = ϕ((x1 + x01 , x2 + x02 ), (y1 , y2 )) = (x1 + x01 )y1 − 2(x2 + x02 )y2 = ϕ((x1 , x2 ), (y1 , y2 )) + ϕ((x01 , x02 ), (y1 , y2 )), per ogni (x1 , x2 ), (x01 , x02 ), (y1 , y2 ) ∈ R2 . Analogamente si pu`o dimostrare che ϕ verifica le propriet`a 2. e 3. della Definizione 8.1. Inoltre, si ha ϕ(x, y) = ϕ(y, x), per ogni x, y ∈ R2 . Esempio 8.2 Si verifichi per esercizio che la funzione ϕ : R2 × R2 −→ R definita da: ϕ(x, y) = x1 y1 + 2x2 y2 + 4, con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R2 , non e` una forma bilineare su R2 . Esempio 8.3 Si verifichi per esercizio che la funzione ϕ : R2 × R2 −→ R definita da: ϕ(x, y) = x21 y1 + 2x2 y2 , con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R2 , non e` una forma bilineare su R2 . Esempio 8.4 La funzione ϕ : R2 × R2 −→ R definita da: ϕ(x, y) = x1 y1 + 2x1 y2 + 3x2 y1 + 4x2 y2 , con x = (x1 , x2 ) e y = (y1 , y2 ) elementi di R2 , e` una forma bilineare su R2 . Inoltre, si ha ϕ(x, y) − ϕ(y, x) = −x1 y2 + 2x2 y1 . Pertanto, considerando per esempio x = (1, 1) e y = (1, 2), in contrasto con l’Esempio 8.1, segue che ϕ(x, y) 6= ϕ(y, x). In generale, data una forma bilineare ϕ su uno spazio vettoriale reale V non si ha necessariamente che ϕ(x, y) = ϕ(y, x), per ogni x, y ∈ V. Si pu`o quindi introdurre la seguente definizione.

Capitolo 8

343

Definizione 8.2 Una forma bilineare ϕ su uno spazio vettoriale reale V si dice simmetrica se: ϕ(x, y) = ϕ(y, x), per ogni x, y ∈ V. Esempio 8.5 Ogni prodotto scalare su uno spazio vettoriale reale V e` un esempio di forma bilineare simmetrica su V (cfr. Def. 5.1). Esempio 8.6 La funzione ϕ : R2 × R2 −→ R considerata nell’Esempio 8.1 e` una forma bilineare simmetrica, mentre la funzione ϕ dell’Esempio 8.4 non e` una forma bilineare simmetrica. Poich´e ci si propone di studiare opportune generalizzazioni del concetto di prodotto scalare, si prenderanno in considerazione, in quasi tutto il capitolo, solo forme bilineari simmetriche. Nel Paragrafo 8.8.4 invece si studieranno particolari forme, non simmetriche, che permettono di introdurre, in questo contesto, la nozione gi`a nota di determinante di una matrice quadrata. L’insieme delle forme bilineari simmetriche su V sar`a indicato con Bs (V, R). Su questo insieme si pu`o definire in modo naturale una struttura di spazio vettoriale su R. Infatti, sull’insieme Bs (V, R) delle forme bilineari simmetriche si introduce l’operazione di somma di due forme bilineari simmetriche ϕ1 , ϕ2 , come la funzione: ϕ1 + ϕ2 : V × V −→ R, definita da: (ϕ1 + ϕ2 )(x, y) = ϕ1 (x, y) + ϕ2 (x, y),

x, y ∈ V,

(8.1)

e l’operazione di prodotto di un numero reale λ ∈ R per una forma bilineare simmetrica come la funzione: λϕ : V × V −→ R, definita da: (λϕ)(x, y) = λϕ(x, y),

x, y ∈ V, λ ∈ R.

(8.2)

E` immediato verificare che ϕ1 + ϕ2 e λϕ sono forme bilineari simmetriche e che vale il seguente teorema. Teorema 8.1 L’insieme Bs (V, R) delle forme bilineari simmetriche ϕ : V × V −→ R su uno spazio vettoriale reale V ha la struttura di spazio vettoriale su R, rispetto alle operazioni di somma e prodotto per uno numero reale, definite rispettivamente in (8.1) e (8.2).

Forme Bilineari e Forme Quadratiche

344

Osservazione 8.2 Si pu`o definire, in modo analogo al caso reale, una forma bilineare complessa ϕ su uno spazio vettoriale complesso V come la funzione: ϕ : V × V −→ C per cui valgono le seguenti propriet`a: 1. ϕ(x + x0 , y) = ϕ(x, y) + ϕ(x0 , y); 2. ϕ(x, y + y0 ) = ϕ(x, y) + ϕ(x, y0 ); 3. ϕ(λx, y) = ϕ(x, λy) = λϕ(x, y), per ogni x, x0 , y, y0 ∈ V e per ogni λ ∈ C. Si osservi che un prodotto hermitiano su uno spazio vettoriale complesso V non e` per`o una forma bilineare complessa su V in quanto non e` lineare nel secondo argomento (cfr. (5.12)).

8.1.1

Matrice associata ad una forma bilineare simmetrica

Sia V uno spazio vettoriale reale di dimensione n e sia ϕ una forma bilineare simmetrica su V. Dati una base B = (v1 , v2 , . . . , vn ) di V ed una coppia di vettori x, y ∈ V, usando la bilinearit`a di ϕ, e` possibile esprimere ϕ(x, y) in termini di ϕ(vi , vj ), i, j = 1, 2, . . . , n, e delle componenti di x, y rispetto alla base B. Infatti, per ogni coppia di vettori x, y ∈ V, dati da: x = x1 v 1 + x2 v 2 + . . . + xn v n ,

y = y1 v1 + y2 v2 + . . . + yn vn ,

l’espressione di ϕ(x, y) si ottiene applicando le propriet`a di bilinearit`a di ϕ, e precisamente: ϕ(x, y) = ϕ(x1 v1 + x2 v2 + . . . + xn vn , y1 v1 + y2 v2 + . . . + yn vn ) = x1 y1 ϕ(v1 , v1 ) + x1 y2 ϕ(v1 , v2 ) + . . . + x1 yn ϕ(v1 , vn ) + x2 y1 ϕ(v2 , v1 ) + x2 y2 ϕ(v2 , v2 ) + . . . + x2 yn ϕ(v2 , vn ) (8.3)

+ ... + xn y1 ϕ(vn , v1 ) + xn y2 ϕ(vn , v2 ) + . . . + xn yn ϕ(vn , vn ) =

n X

xi yj ϕ(vi , vj ).

i,j=1

Posto aij = ϕ(vi , vj ), i, j = 1, 2, . . . , n, e tenendo conto che: ϕ(vi , vj ) = ϕ(vj , vi ),

Capitolo 8

345

per ogni i, j = 1, 2, . . . , n, alla forma bilineare simmetrica ϕ si associa pertanto la matrice simmetrica di ordine n :   a11 a12 . . . a1n  a12 a22 . . . a2n    A =  .. .. . . ..   . . . .  a1n a2n . . . ann che prende il nome di matrice associata alla forma bilineare simmetrica ϕ rispetto alla base B di V e la si indica con: A = M B (ϕ). La conoscenza della matrice A permette di calcolare ϕ(x, y), qualunque siano i vettori x e y in V. La relazione (8.3) diventa, quindi: ϕ(x, y) =

n X

aij xi yj ,

x, y ∈ V,

(8.4)

i,j=1

con aij = aji , per ogni i, j = 1, 2, . . . , n. Si pu`o dimostrare che, fissata una base B dello spazio vettoriale V, l’applicazione che ad ogni forma bilineare simmetrica ϕ associa la matrice simmetrica A ad essa associata e` un isomorfismo tra Bs (V, R) e il sottospazio vettoriale di Rn,n delle matrici simmetriche S(Rn,n ). Infatti si e` appena dimostrato che, fissata una base B di V, una forma bilineare simmetrica ϕ definita su V individua una matrice simmetrica di Rn,n . Viceversa, assegnando una matrice simmetrica A = (aij ) ∈ S(Rn,n ), da (8.4) viene individuata una forma bilineare simmetrica ϕ su V. Si ha quindi il seguente teorema. Teorema 8.2 Sia V uno spazio vettoriale reale di dimensione n. Fissata una base di V, lo spazio vettoriale Bs (V, R) delle forme bilineari simmetriche e` isomorfo al sottospazio vettoriale S(Rn,n ) delle matrici simmetriche di Rn,n ; esso ha quindi dimensione pari alla dimensione di S(Rn,n ), ossia: dim(Bs (V, R)) =

n(n + 1) . 2

La dimostrazione del teorema e` lasciata come esercizio al Lettore. L’espressione (8.4) prende il nome di forma o espressione polinomiale della forma bilineare simmetrica ϕ rispetto alla base B. Si tratta di un polinomio omogeneo di secondo grado nelle componenti di x e y rispetto alla base B, dove per polinomio omogeneo si intende un polinomio con termini tutti dello stesso grado.

346

Forme Bilineari e Forme Quadratiche

Esempio 8.7 La matrice associata alla forma bilineare dell’Esempio 8.1, rispetto alla base canonica di R2 , e` :   1 0 A= 0 −2 che, come previsto, e` simmetrica.

Esempio 8.8 La matrice associata al prodotto scalare standard (5.1) su Rn , rispetto alla base canonica B di Rn, e` la matrice unit`a I. Mentre la matrice associata al prodotto scalare dell’Esempio 5.3, rispetto alla base canonica di R3 , e` la matrice diagonale: 

 3 0 0 A =  0 4 0 . 0 0 5 Sia nell’Esempio 8.7 sia nell’Esempio 8.8 la matrice associata alla forma bilineare simmetrica e` diagonale, si vedr`a in questo capitolo che se la matrice associata ad una forma bilineare simmetrica e` diagonale sar`a pi`u facile classificarla e riconoscere se si tratti o meno di un prodotto scalare.

Teorema 8.3 Siano V uno spazio vettoriale reale di dimensione n, B = (v1 , v2 , . . . , vn ) una base di V, ϕ ∈ Bs (V, R) una forma bilineare simmetrica avente come matrice associata rispetto a B la matrice simmetrica A = (aij ), i, j = 1, 2, . . . , n, e:    X= 

x1 x2 .. . xn





  , 

  Y = 

y1 y2 .. .

    

yn

le matrici colonna delle componenti dei vettori x, y ∈ V rispetto alla base B di V. Si ha: ϕ(x, y) = tXA Y = t Y A X.

(8.5)

Capitolo 8

Dimostrazione

t

XA Y

347

Si tratta di esprimere in notazione matriciale la formula (8.4), infatti:    a11 a12 . . . a1n y1     a12 a22 . . . a2n   y2  x1 x2 . . . xn  .. = .. . . ..   ..   . . . .  .  a1n a2n . . . ann yn 

=

=

x1 x2

n X

 a11 y1 + a12 y2 + . . . + a1n yn   a12 y1 + a22 y2 + . . . + a2n yn   . . . xn   ..........................  a1n y1 + a2n y2 + . . . + ann yn

aij xi yj = ϕ(x, y),

i,j=1

con aij = aji , per ogni i, j = 1, 2, . . . , n. Inoltre, poich´e ϕ(x, y) e` un numero reale, risulta: ϕ(x, y) = t (ϕ(x, y)) = tXA Y = t ( tXA Y ) = t Y tA X, e dalla simmetria di A segue la tesi. L’espressione (8.5) e` detta espressione matriciale della forma bilineare simmetrica ϕ rispetto alla base B. Esempio 8.9 La forma bilineare simmetrica ϕ ∈ Bs (R3 , R) con matrice associata rispetto alla base canonica di R3 :   1 0 2 A =  0 −1 5  2 5 0 ha come espressione polinomiale rispetto alla base canonica di R3 : ϕ(x, y) = x1 y1 + 2(x1 y3 + x3 y1 ) − x2 y2 + 5(x2 y3 + x3 y2 ). Se x = (1, 2, 3) e y = (0, 3, 4), allora: 

ϕ(x, y) =

 0  1 2 3 A  3  = 87. 4

Ci si propone ora di determinare il legame che intercorre tra le matrici associate alla stessa forma bilineare simmetrica su uno spazio vettoriale V, cambiando base in V.

348

Forme Bilineari e Forme Quadratiche

Teorema 8.4 Siano V uno spazio vettoriale reale, B e B 0 due basi di V, A = M B (ϕ) e 0 A0 = M B (ϕ) le matrici associate a ϕ rispetto a B e a B 0 rispettivamente. Se P indica la matrice del cambiamento di base da B a B 0 , risulta: A0 = tP AP. Dimostrazione Siano X = P X 0 , Y = P Y 0 le equazioni del cambiamento di base da B a B 0 (cfr. Par. 4.3.4), si ha: ϕ(x, y) = tXAY = t (P X 0 )A(P Y 0 ) = tX 0 tP AP Y 0 . D’altra parte si pu`o scrivere ϕ(x, y) = tX 0 A0 Y 0 e, dal confronto delle due espressioni, si ottiene: t 0t X P AP Y 0 = tX 0 A0 Y 0 , oppure: X 0 ( tP AP − A0 )Y 0 = 0,

t

per ogni X 0 e per ogni Y 0 , da cui A0 = tP AP . Osservazione 8.3 La matrice A0 e` ancora simmetrica, infatti: t 0

A = t ( tP AP ) = tP AP = A0 .

In generale, per`o A0 non e` simile alla matrice A, lo e` se P e` una matrice ortogonale. Pertanto, in generale i determinanti delle matrici A e A0 sono diversi, infatti vale la relazione: det(A0 ) = det(A)(det(P ))2 . Di conseguenza, non e` detto che A e A0 abbiano gli stessi autovalori come si vedr`a nell’Esempio 8.10. Si dimostrer`a per`o che A e A0 hanno lo stesso numero di autovalori positivi e lo stesso numero di autovalori negativi (cfr. Teor. 8.20). Esempio 8.10 Data la forma bilineare simmetrica su R2 : ϕ(x, y) = 3x1 y1 − x1 y2 − x2 y1 + 2x2 y2 , e assegnata la base B 0 = ((1, 2), (−2, 1)) di R2 , la matrice P del cambiamento di base dalla base canonica B di R2 alla base B 0 e` :   1 −2 P = . 2 1 Quindi le matrici associate a ϕ rispettivamente rispetto a B e B 0 sono:

Capitolo 8

 A=

3 −1 −1 2

  1 0 , A = −2

2 1



3 −1 −1 2

349



1 −2 2 1



 =

7 1 1 18

 .

Se si calcolano i polinomi caratteristici di A e A0 , si ottiene: det(A − λI) = (3 − λ)(2 − λ) − 1 = λ2 − 5λ + 5, det(A0 − λI) = (7 − λ)(18 − λ) − 1 = λ2 − 25λ + 125, da cui segue che A e A0 non sono matrici simili, quindi non hanno gli stessi autovalori ma hanno entrambe due autovalori positivi. Esempio 8.11 Si consideri il prodotto scalare standard sullo spazio vettoriale V3 dei vettori ordinari, definito nel Paragrafo 3.7.1: c ϕ(x, y) = kxkkyk cos(xy),

x, y ∈ V3 .

Come gi`a osservato nell’Esempio 8.8, la matrice associata a questo prodotto scalare rispetto ad una base ortonormale B = (i, j, k) e` :   1 0 0 M B (ϕ) = I =  0 1 0 , 0 0 1 infatti: ϕ(x, y) = x1 y1 + x2 y2 + x3 y3 ,

(8.6)

se x = x1 i + x2 j + x3 k e y = y1 i + y2 j + y3 k. Sia B 0 = (2i, i + 5j, −2k) una nuova base (non ortonormale) di V3 . La matrice associata al prodotto scalare standard rispetto alla nuova base B 0 e` la matrice simmetrica:   4 2 0 0 M B (ϕ) = tP IP = tP P =  2 26 0 , 0 0 4 cio`e se x, y hanno componenti rispettivamente (x01 , x02 , x03 ) e (y10 , y20 , y30 ) rispetto alla base B 0 si ha: ϕ(x, y) = 4x0 y 0 + 2(x01 y20 + x02 y10 ) + 11x02 y20 + 4x03 y30 .

(8.7)

Si pone quindi il problema, che sar`a discusso nei paragrafi successivi, di riconoscere che la forma bilineare ϕ, definita rispetto alla base B 0 tramite l’espressione polinomiale (8.7), coincida con il prodotto scalare (8.6), scritto rispetto alla base B.

Forme Bilineari e Forme Quadratiche

350

Osservazione 8.4 Segue dal Teorema 5.4 che se ϕ e` un prodotto scalare su uno spazio vettoriale reale V allora la matrice M B (ϕ) associata alla forma bilineare simmetrica ϕ rispetto ad una base B di V coincide con la matrice unit`a I se e solo se B e` una base ortonormale.

8.2

Forme quadratiche

Si vuole ora estendere il concetto di norma di un vettore kxk2 = x · x, definito su uno spazio vettoriale euclideo, ad uno spazio vettoriale reale V su cui e` assegnata una forma bilineare simmetrica ϕ che non sia necessariamente un prodotto scalare. A tale scopo si introduce la seguente definizione. Definizione 8.3 Sia ϕ ∈ Bs (V, R), una forma bilineare simmetrica la funzione: Q : V −→ R,

x 7−→ ϕ(x, x),

si dice forma quadratica associata alla forma bilineare simmetrica ϕ. Analogamente, una funzione Q : V −→ R prende il nome di forma quadratica su V se esiste una forma bilineare simmetrica ϕ su V tale che Q(x) = ϕ(x, x), con x ∈ V. L’insieme delle forme quadratiche su V verr`a indicato con Q(V, R). Si dimostri per esercizio che Q(V, R) ha la struttura di spazio vettoriale reale, rispetto ad opportune operazioni di somma e di prodotto per numeri reali. Teorema 8.5 Sia Q una forma quadratica su uno spazio vettoriale reale V. Allora: 1.

Q(x + y) = Q(x) + 2ϕ(x, y) + Q(y),

2.

Q(λx) = λ2 Q(x),

per ogni x, y ∈ V e per ogni λ ∈ R. Dimostrazione

La propriet`a 1. segue dall’uguaglianza: Q(x + y) = ϕ(x + y, x + y),

x, y ∈ V,

mentre la propriet`a 2. e` conseguenza dell’uguglianza: Q(λx) = ϕ(λx, λx),

x, y ∈ V, λ ∈ R.

Osservazione 8.5 1. Dal teorema precedente segue che una forma quadratica Q definita su uno spazio vettoriale reale V non e` un’applicazione lineare da V in R.

Capitolo 8

351

2. La corrispondenza tra forme bilineari simmetriche e forme quadratiche associate e` biunivoca. Ogni forma bilineare simmetrica ϕ ∈ Bs (V, R) individua una forma quadratica Q ∈ Q(V, R) e viceversa; infatti, data la forma quadratica Q, dalla propriet`a 1. del Teorema 8.5, si deduce: ϕ(x, y) =

1 {Q(x + y) − Q(x) − Q(y)} , 2

x, y ∈ V.

(8.8)

La relazione (8.8) e` detta forma polare della forma quadratica Q. 3. Ponendo λ = 0, nella propriet`a 2. del Teorema 8.5, si ottiene Q(o) = 0, dove o indica il vettore nullo di V. Definizione 8.4 Sia V uno spazio vettoriale reale di dimensione n e sia B e` una sua base, la matrice simmetrica di ordine n associata ad una forma bilineare simmetrica ϕ definita su V rispetto alla base B si dice anche matrice associata alla forma quadratica Q rispetto alla base B e si indica pertanto con M B (Q). Sia ϕ una forma bilineare simmetrica definita su uno spazio vettoriale reale V di dimensione n. Fissata una base B = (v1 , v2 , . . . , vn ) di V si indichi con A = (aij ), i, j = 1, 2, . . . , n la matrice simmetrica associata a ϕ rispetto alla base B. Dalla formula (8.5) segue che la forma quadratica Q associata a ϕ ha la seguente espressione matriciale, scritta rispetto alla base B: Q(x) = ϕ(x, x) =

n X

aij xi xj = tXAX,

(8.9)

i,j=1

con aij = aji , per ogni i, j = 1, 2, . . . , n. Si osservi che Q(x) si esprime mediante un polinomio omogeneo di secondo grado nelle componenti del vettore x rispetto alla base B. Per questo motivo Q prende il nome di forma quadratica. Esempio 8.12 L’espressione polinomiale della forma quadratica Q su R3 , avente come matrice associata rispetto alla base canonica di R3 , la matrice simmetrica:   3 −1 2 A = −1 0 1  2 1 1 e` : Q(x) = 3x21 + x23 − 2x1 x2 + 4x1 x3 + 2x2 x3 , mentre l’espressione polinomiale della relativa forma bilineare simmetrica ϕ e` : ϕ(x, y) = 3x1 y1 + x3 y3 − (x1 y2 + x2 y1 ) − 2(x1 y3 + x3 y1 ) + x2 y3 + x3 y2 .

Forme Bilineari e Forme Quadratiche

352

Esercizio 8.1 Data la forma quadratica su R4 : Q(x) = x21 + 4x23 + 3x24 − 4x1 x3 + 10x2 x4 , con x = (x1 , x2 , x3 , x4 ), 1. scrivere l’espressione polinomiale della forma bilineare simmetrica ϕ associata a Q e la relativa matrice (rispetto alla base canonica B di R4 ). 2. Posto a = (1, 0, 1, 0) e b = (0, 1, 1, 0), calcolare ϕ(a, b) e Q(a). Soluzione

1. Dall’espressione polinomiale di Q segue:

ϕ(x, y) = x1 y1 + 4x3 y3 + 3x4 y4 − 2(x1 y3 + x3 y1 ) + 5(x2 y4 + x4 y2 ), dove x = (x1 , x2 , x3 , x4 ) e y = (y1 , y2 , y3 , y4 ). La matrice associata alla forma quadratica Q e` : 

1  0 A=  −2 0

0 −2 0 0 0 4 5 0

 0 5  , 0  3

quindi si osservi che a partire dall’espressione polinomiale della forma quadratica e` necessario dividere per 2 i coefficienti dei termini xi xj (i 6= j ) per ottenere gli elementi della matrice A di posto aij . 2. Dalla formula (8.5) segue: ϕ(a, b) = ϕ((1, 0, 1, 0), (0, 1, 1, 0))  1 0 −2  0 0 0 1 0 1 0  =  −2 0 4 0 5 0   0  1   = −1 0 2 0   1  = 2; 0 mentre Q(a) = Q((1, 0, 1, 0)) = 1.

 0 0   5  1 0  1 3 0

   

Capitolo 8

353

Osservazione 8.6 Se B = (v1 , v2 , . . . , vn ) e` una base dello spazio vettoriale V su cui e` definita la forma quadratica Q con matrice associata A = M B (Q), allora tutte le matrici associate a Q sono del tipo: A0 = tP AP, al variare di P in GL(n, R) (cfr. Teor. 8.4).

8.3

Nucleo e vettori isotropi

La definizione che segue intende estendere il concetto di ortogonalit`a tra vettori introdotto per gli spazi vettoriali euclidei (cfr. Def. 5.4) al caso pi`u generale delle forme bilineari simmetriche. Definizione 8.5 Data una forma bilineare simmetrica ϕ definita su uno spazio vettoriale reale V, due vettori x, y ∈ V si dicono ortogonali rispetto a ϕ (o pi`u semplicemente ϕ-ortogonali) se: ϕ(x, y) = 0. Osservazione 8.7 Se ϕ coincide con il prodotto scalare introdotto nel Capitolo 5, le due definizioni di ortogonalit`a tra vettori coincidono. Esempio 8.13 I vettori x = (1, −1) e y = (3, 4) sono ortogonali rispetto alla forma bilineare simmetrica ϕ ∈ Bs (R2 , R) cos`ı definita: ϕ(x, y) = 3x1 y1 − x1 y2 + 2x2 y2 − x2 y1 . Infatti ϕ(x, y) = 3 · 1 · 3 − 1 · 4 + 2 · (−1) · 4 − (−1) · 3 = 0. Osservazione 8.8 Il vettore nullo o di uno spazio vettoriale V e` ortogonale ad ogni vettore di V, rispetto ad ogni forma bilineare simmetrica ϕ ∈ Bs (V, R). Infatti, per ogni forma bilineare ϕ ∈ Bs (V, R), per ogni coppia di vettori x, y ∈ V e per ogni scalare λ ∈ R, si ha: ϕ(x, λy) = λϕ(x, y). Posto λ = 0, si ottiene ϕ(x, o) = 0, per ogni x ∈ V. Teorema 8.6 Sia A un sottoinsieme non vuoto di vettori di uno spazio vettoriale reale V. L’insieme: A⊥ = {x ∈ V | ϕ(x, y) = 0, ∀y ∈ A} dei vettori di V ortogonali, rispetto ad una forma bilineare simmetrica ϕ ∈ Bs (V, R), ad ogni vettore di A, e` un sottospazio vettoriale di V.

354

Forme Bilineari e Forme Quadratiche

Dimostrazione Per ogni coppia di vettori x1 , x2 di A⊥ e per ogni coppia di scalari λ1 , λ2 di R si ha: ϕ(λ1 x1 + λ2 x2 , y) = λ1 ϕ(x1 , y) + λ2 ϕ(x2 , y) = 0, y ∈ A, dunque λ1 x1 + λ2 x2 ∈ A⊥ . Come caso particolare si ha pertanto il seguente corollario di ovvia dimostrazione. Corollario 8.1 Sia ϕ una forma bilineare simmetrica definita su uno spazio vettoriale reale V e siano u1 , u2 , . . . , up vettori di V. Un vettore x ∈ V e` ϕ-ortogonale a tutti i vettori u1 , u2 , . . . , up , se e solo se x e` ϕ-ortogonale ad ogni vettore del sottospazio vettoriale W = L(u1 , u2 , . . . , up ). Si osservi che il corollario precedente estende l’analoga propriet`a dimostrata per il complemento ortogonale di un sottospazio vettoriale di uno spazio vettoriale euclideo (cfr. Oss. 5.10) al caso di una generica forma bilineare simmetrica che non sia necessariamente un prodotto scalare. Il sottospazio vettoriale ortogonale ad un sottospazio vettoriale W di V, rispetto ad una forma bilineare simmetrica ϕ, sar`a indicato, in accordo con l’enunciato del Teorema 8.6, con W ⊥ . Su alcuni testi, per evitare confusione con il caso particolare del complemento ortogonale W ⊥ di un sottospazio vettoriale W di uno spazio vettoriale euclideo (V, · ), si preferisce usare la notazione W 0 come verr`a meglio precisato nell’Osservazione 8.9. Definizione 8.6 Due sottospazi vettoriali W1 e W2 di uno spazio vettoriale reale V si dicono ortogonali rispetto a ϕ ∈ Bs (V, R) se ogni vettore di W1 e` ortogonale ad ogni vettore di W2 , cio`e se e solo se ϕ(x, y) = 0, per ogni x ∈ W1 e per ogni y ∈ W2 . Osservazione 8.9 Se W e` un sottospazio vettoriale di uno spazio vettoriale V e ϕ e` un prodotto scalare su V, allora la nozione di sottospazio ortogonale rispetto al prodotto scalare appena introdotta coincide con quella nota di complemento ortogonale (cfr. Def. 5.6). In generale, per`o se ϕ non e` un prodotto scalare, l’intersezione W ∩ W ⊥ non e` formata dal solo vettore nullo e non e` detto che la somma dei due sottospazi vettoriali W + W ⊥ coincida con V, come nel caso dell’esempio che segue. Esempio 8.14 Se si considera la forma bilineare ϕ su R3 con espressione polinomiale rispetto alla base canonica di R3 : ϕ(x, y) = x1 y1 − 2x3 y3 − 2(x1 y2 + x2 y1 ) − (x1 y3 + x3 y1 ) − 2(x2 y3 + x3 y2 ),

Capitolo 8

355

dove x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ), ed il sottospazio vettoriale di R3 : W = L(u1 , u2 ), con u1 = (4, 1, 0), u2 = (3, 0, 1), si ha che il sottospazio ortogonale a W rispetto a ϕ e` : W ⊥ = {x ∈ R3 | ϕ(x, u1 ) = ϕ(x, u2 ) = 0}. Poich´e:

(

ϕ(x, u1 ) = 2x1 − 8x2 − 6x3 ϕ(x, u2 ) = 2x1 − 8x2 − 5x3 ,

risolvendo il sistema lineare omogeneo:  2x1 − 8x2 − 6x3 = 0 2x1 − 8x2 − 5x3 = 0, segue che W ⊥ = L(u1 ) e quindi: W ∩ W ⊥ = W ⊥, W + W ⊥ = W ⊂ V. Esercizio 8.2 Data la forma bilineare simmetrica ϕ su R3 con matrice associata rispetto alla base canonica B di R3 :   3 a b 4 −2 , a, b, c ∈ R, A= a b −2 c stabilire per quali valori dei parametri a, b, c i due iperpiani vettoriali: W1 = {(x1 , x2 , x3 ) ∈ R3 | x1 − 2x2 + x3 = 0}, W2 = {(x1 , x2 , x3 ) ∈ R3 | 2x1 − x3 = 0} sono ortogonali rispetto a ϕ. Soluzione

L’espressione polinomiale associata a ϕ rispetto alla base B e` :

ϕ(x, y) = 3x1 y1 + a(x1 y2 + x2 y1 ) + b(x1 y3 + x3 y1 ) + 4x2 y2 − 2(x2 y3 + x3 y2 ) + cx3 y3 . Una base dell’iperpiano vettoriale W1 e` formata, ad esempio, dai vettori: u1 = (−1, 0, 1),

u2 = (2, 1, 0).

Forme Bilineari e Forme Quadratiche

356

Una base dell’iperpiano vettoriale W2 e` formata, ad esempio, dai vettori: v1 = (1, 0, 2),

v2 = (0, 1, 0).

I due iperpiani vettoriali W1 e W2 sono ortogonali rispetto a ϕ se e solo se:  ϕ(u1 , v1 ) = −b + 2c − 3 = 0    ϕ(u1 , v2 ) = −a − 2 = 0 ϕ(u2 , v1 ) = a + +4b + 2 = 0    ϕ(u2 , v2 ) = 2a + 4 = 0. Risolvendo il sistema lineare cos`ı ottenuto si perviene all’unica soluzione: a = −2,

b = 0,

3 c= . 2

Esercizio 8.3 Si consideri la forma quadratica Q su R4 definita da: Q(x) = 2x21 + 2(−x1 x2 + x1 x3 + x1 x4 − x2 x3 − x2 x4 + hx3 x4 ),

h ∈ R,

con x = (x1 , x2 , x3 , x4 ). Trovare, per ogni valore di h, una base del sottospazio vettoriale ortogonale, rispetto alla forma bilineare simmetrica ϕ definita da Q, al sottospazio vettoriale W = L(u1 , u2 ), dove: u1 = (1, 0, −1, 0), Soluzione

u2 = (0, 1, 0, 1).

La matrice associata a Q rispetto alla base canonica di R4 e` :   2 −1 1 1  −1 0 −1 −1  . A=  1 −1 0 h  1 −1 h 0

Il sottospazio vettoriale ortogonale a W rispetto a ϕ e` definito come: W ⊥ = {x ∈ R4 | ϕ(x, u1 ) = ϕ(x, u2 ) = 0}. Si ha:

(

ϕ(x, u1 ) = x1 + x3 + (1 − h)x4 , ϕ(x, u2 ) = −x2 + (−1 + h)x3 − x4 .

Quindi: W ⊥ = {(x1 , x2 , x3 , x4 ) ∈ R4 | x1 + x3 + (1 − h)x4 = −x2 + (−1 + h)x3 − x4 = 0}.

Capitolo 8

357

La dimensione del sottospazio vettoriale W ⊥ e` 2 perch´e il rango della matrice associata al sistema lineare omogeneo che lo definisce e` 2 per ogni h ∈ R e, ad esempio, una sua base e` costituita dai vettori: a1 = (−1, −1 + h, 1, 0),

a2 = (−1 + h, −1, 0, 1).

Definizione 8.7 Si dice nucleo di una forma bilineare simmetrica ϕ ∈ Bs (V, R) il sottoinsieme V ⊥ di V formato dai vettori ortogonali a tutti i vettori di V rispetto a ϕ e si indica con ker ϕ, in simboli: ker ϕ = {x ∈ V | ϕ(x, y) = 0, ∀ y ∈ V }. Osservazione 8.10 Si presti molta attenzione a non confondere la nozione di nucleo di una forma bilineare simmetrica con quella di nucleo di un’applicazione lineare (cfr. Def. 6.7). La stessa denominazione data a due sottospazi vettoriali con diversa definizione e` giustificata dal metodo che si usa per la loro determinazione, come sar`a spiegato nel Teorema 8.8. Teorema 8.7 Il nucleo di un forma bilineare simmetrica ϕ ∈ Bs (V, R) e` un sottospazio vettoriale di V. Dimostrazione

E` conseguenza del Teorema 8.6.

Esempio 8.15 Nel caso di un prodotto scalare ϕ definito su uno spazio vettoriale reale V si ha ker ϕ = {o}, in quanto il sottospazio vettoriale V ⊥ formato dai vettori ortogonali a tutti i vettori di V si riduce a {o} (cfr. Teor. 5.8). Esercizio 8.4 Applicando il Corollario 8.1 si dimostri che un vettore x appartiene a ker ϕ (ossia ϕ(x, y) = 0, per ogni y ∈ V ) se e solo se ϕ(x, vj ) = 0, j = 1, 2, . . . , n, dove B = (v1 , v2 , . . . , vn ) e` una base dello spazio vettoriale V su cui e` definita la forma bilineare simmetrica ϕ. Si osservi che l’esercizio appena assegnato, e che segue facilmente dalle definizioni di bilinearit`a di ϕ e di base di uno spazio vettoriale, e` molto importante ai fini del calcolo del nucleo di una forma bilineare simmetrica, come si dimostra nel seguente teorema. Teorema 8.8 Sia ϕ un elemento di Bs (V, R) e sia A = (aij ), i, j = 1, 2, . . . , n, la matrice simmetrica associata a ϕ, rispetto ad una base B = (v1 , v2 , . . . , vn ) di V, allora: ker ϕ = N (A), dove N (A) e` il nullspace della matrice A.

358

Forme Bilineari e Forme Quadratiche

Dimostrazione Il nucleo ker ϕ della forma bilineare simmetrica ϕ e` formato dai vettori x di V tali che ϕ(x, y) = 0, per ogni y ∈ V o, equivalentemente, tali che ϕ(x, vj ) = 0, per ogni j = 1, 2, . . . , n. Posto x = x1 v1 + x2 v2 + . . . + xn vn , si ottiene: ϕ(x, vj ) = ϕ(x1 v1 + x2 v2 + . . . + xn vn , vj ) = =

n X i=1 n X

xi ϕ(vi , vj ) aij xi = 0,

j = 1, 2, . . . , n,

i=1

che non e` altro che il sistema lineare omogeneo: AX = O di n equazioni nelle n incognite x1 , x2 , . . . , xn , dove X ∈ Rn,1 indica la matrice colonna delle incognite e O ∈ Rn,1 indica la matrice colonna nulla. Definizione 8.8 Una forma bilineare simmetrica ϕ (o equivalentemente la forma quadratica Q associata) definita su uno spazio vettoriale reale V e` non degenere se ker ϕ = {o} e degenere se ker ϕ 6= {o}, dove o indica il vettore nullo di V. Osservazione 8.11 Segue dalla precedente definizione che un prodotto scalare su V e` una forma bilineare simmetrica non degenere, in quanto ker ϕ = {o} (cfr. Es. 8.15). Corollario 8.2 Sia ϕ un elemento di Bs (V, R), allora ϕ e` degenere se e soltanto se det(A) = 0, dove A e` la matrice associata a ϕ, rispetto ad una base B = (v1 , v2 , . . . , vn ) di V. Dimostrazione Come conseguenza del Teorema 8.8 si ha che il calcolo del nucleo di ϕ si riduce alla risoluzione del sistema lineare omogeneo AX = O di n equazioni nelle n incognite x1 , . . . , xn . Tale sistema lineare ha soluzioni non nulle se e soltanto se il rango della matrice A e` minore di n o, equivalentemente, se e solo se il determinante di A e` uguale a zero (cfr. Teor. 1.2). Osservazione 8.12 Sia ϕ una forma bilineare simmetrica definita su uno spazio vettoriale V. Se A e` una matrice simmetrica associata a ϕ, dal Teorema 4.23 di Nullit`a pi`u Rango segue: dim(ker ϕ) = dim(V ) − rank(A).

Capitolo 8

359

Inoltre ϕ e` non degenere se e solo se dim(V ) = rank(A). Di conseguenza poich´e dim(ker ϕ) e` invariante per ogni matrice associata a ϕ tutte le matrici associate alla stessa forma bilineare simmetrica hanno lo stesso rango, ossia: rank(tP AP ) = rank(A), per ogni matrice invertibile P (cfr. Teor. 8.4). Tale osservazione permette di introdurre la seguente definizione. Definizione 8.9 Si definisce rango di una forma bilineare simmetrica ϕ (o della forma quadratica associata Q), e sar`a indicato con rank(ϕ) (o con rank(Q)), il rango di una qualunque matrice simmetrica associata a ϕ. Osservazione 8.13 Dal Teorema 2.9 si pu`o dimostrare in un altro modo che il rango della forma bilineare ϕ non dipende dalla scelta della matrice associata e quindi della base usata per costruire tale matrice, infatti in particolare si ha: rank( tP AP ) = rank(AP ) = rank(A), per ogni matrice A ∈ Rn,n e per ogni matrice invertibile P ∈ Rn,n . Esercizio 8.5 Determinare il nucleo della forma bilineare simmetrica ϕ ∈ Bs (R3 , R) con matrice associata rispetto alla base canonica B = (e1 , e2 , e3 ) di R3 : 

1 A= 0 −2

 0 −2 1 1 . 1 5

Soluzione Si determina il nullspace N (A) della matrice A, ovvero si devono determinare i vettori x = (x1 , x2 , x3 ) per cui ϕ(x, ej ) = 0, j = 1, 2, 3. Si ottiene x = (2x3 , −x3 , x3 ), al variare di x3 ∈ R, e quindi ker ϕ = L((2, −1, 1)). Esercizio 8.6 Sia ϕ una forma bilineare simmetrica su R3 . Determinare la matrice associata a ϕ rispetto alla base canonica di R3 sapendo che i vettori u = (1, 2, 1) e v = (1, 1, 0) formano una base di ker ϕ e che Q(w) = 8, con w = (1, 0, 1), dove Q e` la forma quadratica associata a ϕ. Soluzione

Si indichi con: 

 a11 a12 a13 A =  a12 a22 a23  a13 a23 a33

360

Forme Bilineari e Forme Quadratiche

la matrice associata a ϕ rispetto alla base canonica di R3 . Poich´e (u, v) e` una base di ker ϕ devono valere le condizioni: ϕ(e1 , u) = ϕ(e2 , u) = ϕ(e3 , u) = 0, ϕ(e1 , v) = ϕ(e2 , v) = ϕ(e3 , v) = 0, che corrispondono al sistema lineare omogeneo:  a11 + 2a12 + a13 = 0     a12 + 2a22 + a23 = 0    a13 + 2a23 + a33 = 0 a11 + a12 = 0     a + a22 = 0    12 a13 + a23 = 0.

(8.10)

Dalla condizione Q(w) = 8 segue: Q(w) = ϕ(e1 , e1 ) + 2ϕ(e1 , e3 ) + ϕ(e3 , e3 ) = a11 + 2a13 + a33 = 8.

(8.11)

Risolvendo quindi il sistema lineare formato dalle equazioni (8.10) e (8.11) si ha come unica soluzione:   2 −2 2 2 −2 . A =  −2 2 −2 2 Sia ϕ una forma bilineare simmetrica su V e sia W un sottospazio vettoriale di V. Se ϕ e` un prodotto scalare il complemento ortogonale W ⊥ di W ha in comune con W solo il vettore nullo. In altri termini ϕ(x, x) = 0 se e solo se x = o. Dall’Esempio 8.14 segue invece che se ϕ non e` un prodotto scalare possono esistere vettori non nulli comuni a W e a W ⊥ e ci`o giustifica la definizione che segue. Definizione 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V. Un vettore x ∈ V si dice isotropo per la forma quadratica Q se Q(x) = 0. Se ϕ e` la forma bilineare simmetrica associata a Q, si ha che x ∈ V e` isotropo se e solo se ϕ(x, x) = 0. L’insieme dei vettori isotropi della forma quadratica Q verr`a indicato con: I = {x ∈ V | Q(x) = ϕ(x, x) = 0}. Il nucleo della forma bilineare simmetrica ϕ associata alla forma quadratica Q e l’insieme dei vettori isotropi sono legati dal seguente teorema.

Capitolo 8

361

Teorema 8.9 Data una forma bilineare simmetrica ϕ su uno spazio vettoriale reale V, allora: ker ϕ ⊆ I, con I insieme dei vettori isotropi della forma quadratica Q associata a ϕ. Ovvero, se un vettore x appartiene a ker ϕ, allora x e` un vettore isotropo per la forma quadratica Q associata a ϕ. Dimostrazione

Se per ogni vettore y di V si ha ϕ(x, y) = 0, segue: ϕ(x, x) = Q(x) = 0.

Osservazione 8.14 1. L’insieme I dei vettori isotropi di una forma quadratica Q su uno spazio vettoriale reale V, in generale, non e` un sottospazio vettoriale di V, infatti se x, y ∈ I e ϕ(x, y) 6= 0, allora x + y non e` un vettore isotropo. 2. Fissata una base B = (v1 , v2 , . . . , vn ) di V, l’insieme I pu`o essere descritto come: ( ) n X I = x = x1 v 1 + x2 v 2 + . . . + xn v n ∈ V | aij xi xj = 0 , i,j=1

dove A = (aij ) e` la matrice simmetrica associata a Q rispetto alla base B. Pertanto, l’insieme I pu`o essere visto come il luogo degli zeri di un polinomio omogeneo di secondo grado che viene anche chiamato cono isotropo relativo alla forma quadratica Q o alla forma bilineare simmetrica associata ϕ. Il motivo di tale denominazione risiede nel fatto che, se si rappresentano i vettori di V con punti in uno spazio ndimensionale, si ottiene un cono con vertice l’origine. Per lo studio approfondito dei coni nello spazio di punti di dimensione 3 si rimanda al Paragrafo 12.2. 3. In generale non vale il viceversa del Teorema 8.9. Gli esercizi che seguono mettono in evidenza che ker ϕ non sempre coincide con l’insieme dei vettori isotropi I della forma quadratica Q associata ma e` solo contenuto in esso. Esercizio 8.7 Si consideri la forma bilineare simmetrica ϕ su R3 con espressione polinomiale rispetto alla base canonica di R3 : ϕ(x, y) = x1 y1 − (x1 y2 + x2 y1 ) + x2 y2 − x3 y3 , dove x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ), stabilire se l’insieme dei vettori isotropi per la forma quadratica Q associata a ϕ e` un sottospazio vettoriale di R3 .

Forme Bilineari e Forme Quadratiche

362

Soluzione

Un vettore x e` isotropo se: Q(x) = x21 − 2x1 x2 + x22 − x23 = 0.

L’insieme I dei vettori isotropi non e` un sottospazio vettoriale di R3 , in quanto ad esempio i vettori: u = (1, 0, 1), v = (0, 1, 1), sono isotropi, ma u + v non e` isotropo. Esempio 8.16 Su R3 e` data, rispetto alla base canonica (e1 , e2 , e3 ) di R3 , la forma quadratica: Q(x) = x21 − 2x23 − 4x1 x2 − 2x1 x3 − 4x2 x3 , la cui forma bilineare simmetrica associata e` : ϕ(x, y) = x1 y1 − 2x3 y3 − 2(x1 y2 + x2 y1 ) − (x1 y3 + x3 y1 ) − 2(x2 y3 + x3 y2 ), con x = (x1 , x2 , x3 ) e y = (y1 , y2 , y3 ). Il vettore a = (4, 1, 0) e` isotropo per la forma quadratica Q perch´e Q(a) = 0, ma a non appartiene a ker ϕ in quanto ϕ(a, e1 ) = 2. Osservazione 8.15 Come conseguenza del Teorema 8.9 si ha che se I = {o} allora la forma bilineare simmetrica ϕ e` non degenere. Attenzione per`o che non vale il viceversa. Nel caso di un prodotto scalare l’insieme dei vettori isotropi per la forma quadratica associata coincide con l’insieme formato dal solo vettore nullo, ma in generale nel caso di una forma bilineare simmetrica non degenere l’insieme dei vettori isotropi I pu`o non ridursi all’insieme {o}. Esempio 8.17 La forma quadratica su R2 definita da Q(x) = x21 −x22 e` associata, rispetto alla base canonica di R2 , alla matrice invertibile:   1 0 A= ; 0 −1 ϕ e` non degenere, in quanto det(A) = −1, e pertanto ker ϕ = {o}. I vettori isotropi di Q sono i vettori x = (x1 , x2 ) tali che x21 − x22 = 0, da cui x1 = ±x2 , quindi x = (±x2 , x2 ) e formano l’insieme: I = L((1, 1)) ∪ L((−1, 1)), che non e` un sottospazio vettoriale trattandosi dell’unione di due sottospazi vettoriali diversi, entrambi di dimensione 1. A partire da un vettore non isotropo si ottiene una decomposizione dello spazio vettoriale su cui e` definita la forma quadratica, analoga a quella ottenuta nel caso di uno spazio vettoriale euclideo che e` somma diretta di un suo qualsiasi sottospazio vettoriale con il proprio complemento ortogonale. Vale infatti il teorema che segue.

Capitolo 8

363

Teorema 8.10 Sia Q una forma quadratica su uno spazio vettoriale reale V di dimensione n. Per ogni vettore u ∈ V non isotropo si ha: V = L(u) ⊕ L(u)⊥ , dove L(u)⊥ = {u}⊥ e` il sottospazio vettoriale ortogonale al vettore u rispetto alla forma bilineare simmetrica ϕ associata a Q. Dimostrazione

Si ha immediatamente: L(u) ∩ L(u)⊥ = {o},

in quanto u non e` un vettore isotropo. E` sufficiente quindi provare che L(u)⊥ e` un’iperpiano vettoriale di V. Siano B = (v1 , v2 , . . . , vn ) una base di V e A = M B (Q) la matrice simmetrica associata a Q rispetto alla base B. Si indichi con:   u1  u2    U =  ..   .  un la matrice colonna formata dalle componenti del vettore u rispetto alla base B. Si definisce la forma lineare: ϕu : V −→ R,

y 7−→ ϕ(u, y),

y ∈ V,

dove ϕ e` la forma bilineare simmetrica associata a Q (cfr. Oss. 8.1). Pertanto: L(u)⊥ = {y ∈ V | ϕ(u, y) = t U A Y = 0} coincide con il nucleo della forma lineare ϕu , la cui matrice associata rispetto alla B di V e C = (1) di R e` la matrice t U A. E` importante osservare che la matrice riga t U A non e` nulla, poich`e: Q(u) = t U A U 6= 0. Quindi la forma lineare ϕu non coincide con forma lineare nulla essendo ϕu (u) = Q(u) 6= 0, e di conseguenza il suo nucleo e` un iperpiano vettoriale di V (cfr. Oss. 6.17). Esercizio 8.8 Sia Q una forma quadratica definita su uno spazio vettoriale reale V e siano a e b due vettori di V linearmente indipendenti e isotropi. Stabilire se la somma: L(a, b) + L(a, b)⊥ e` diretta, dove L(a, b)⊥ e` il sottospazio vettoriale ortogonale a L(a, b) rispetto alla forma bilineare simmetrica ϕ associata a Q.

364

Forme Bilineari e Forme Quadratiche

Nel caso delle forme bilineari non degeneri e` possibile dimostrare il teorema che segue e che, limitatamente al caso della dimensione, coincide con l’analogo risultato enunciato nel punto 2. del Teorema 5.8 per il complemento ortogonale di un sottospazio vettoriale di uno spazio vettoriale euclideo. Si noti che la sua dimostrazione e` la naturale generalizzazione di quella indicata nell’ambito euclideo. Teorema 8.11 Sia ϕ una forma bilineare simmetrica non degenere su uno spazio vettoriale V di dimensione n e siaW un sottospazio vettoriale di V, allora: dim(W ⊥ ) = n − dim(W), con W ⊥ sottospazio vettoriale ortogonale di W ripetto a ϕ. Dimostrazione Siano dim(V ) = n e dim(W) = h e sia B = (v1 , v2 , ...., vn ) una base di V. Se h = 0 allora W ⊥ = V, da cui segue la tesi. Altrimenti si supponga che (a1 , a2 , . . . , ah ) sia una base di W . Si indichi con A la matrice simmetrica di ordine n associata a ϕ rispetto alla base B e con C la matrice appartenente a Rh,n le cui righe sono le componenti dei vettori a1 , a2 , . . . , ah rispetto alla base B. Ricordando che: W ⊥ = {x ∈ V | ϕ(ai , x) = 0, i = 1, 2, . . . , h} ed indicando con X la matrice colonna formata dalle componenti di x rispetto alla base B segue che il sistema lineare ϕ(ai , x) = 0, i = 1, 2, . . . , h, coincide con: CAX = O, dove O indica la matrice nulla di Rh,1 di conseguenza W ⊥ e` il nullspace della matrice CA, ossia: W ⊥ = N (CA). La matrice C ha rango h ed A e` una matrice invertibile, in quanto ϕ e` non degenere. Pertanto rank(CA) = h (cfr. Teor. 2.9, punto 1.) e dim(W ⊥ ) = n − h.

8.4

Classificazione di una forma quadratica

E` gi`a stato osservato nel paragrafo precedente che se ϕ e` un prodotto scalare, allora ϕ e` una forma bilineare simmetrica non degenere. Questa condizione per`o non e` sufficiente per definire il prodotto scalare in termini di una forma bilineare simmetrica, infatti in base alla definizione di prodotto scalare (cfr. Def. 5.1) una forma bilineare simmetrica ϕ su uno spazio vettoriale V e` un prodotto scalare se e solo se Q(x) ≥ 0 per ogni x ∈ V e se l’unico vettore isotropo e` il vettore nullo, Q indica la forma quadratica associata a ϕ. Per caratterizzare quindi un prodotto scalare e` necessario aggiungere alla nozione di forma bilineare simmetrica non degenere anche il segno della forma quadratica Q ad essa associata. Pi`u precisamente e` necessario enunciare la seguente definizione.

Capitolo 8

365

Definizione 8.11 Una forma quadratica Q (o equivalentemente la forma bilineare simmetrica ϕ ad essa associata) su uno spazio vettoriale reale V si dice: 1. definita positiva (negativa) se: Q(x) ≥ 0 (≤ 0), x ∈ V

e Q(x) = 0 ⇐⇒ x = o;

2. semidefinita positiva (negativa) se: Q(x) ≥ 0 (≤ 0),

x ∈ V,

ma non si esclude che esistano vettori x ∈ V non nulli tali che Q(x) = 0, cio`e che esistano vettori isotropi non nulli; 3. indefinita se Q(x) ha segno variabile al variare del vettore x di V. Osservazione 8.16 La forma quadratica nulla Q : V −→ R definita da Q(x) = 0 per ogni x di V pu`o essere considerata sia semidefinita positiva sia semidefinita negativa. Osservazione 8.17 In base alla definizione precedente ϕ e` un prodotto scalare se e solo se ϕ (o la forma quadratica associata Q) e` definita positiva. Esempio 8.18 Tenendo conto delle nozioni appena introdotte, e` ora possibile costruire un prodotto scalare ϕ che renda ortogonali due vettori qualsiasi u e v, non nulli e non paralleli, di uno spazio vettoriale reale V di dimensione n ≥ 2. Completando l’insieme libero {u, v} fino ad ottenere una base di V : B = (u, v, b1 , . . . , bn−2 ), la matrice A associata al prodotto scalare ϕ rispetto alla base B si ottiene imponendo che ϕ sia definita positiva, ovvero che valgano le condizioni:  ϕ(u, v) = 0,      ϕ(u, bi ) = 0, i = 1, 2, . . . , n − 2,        ϕ(v, bi ) = 0, i = 1, 2, . . . , n − 2, ϕ(bi , bj ) = 0, i, j = 1, 2, . . . , n − 2,    ϕ(u, u) > 0,       ϕ(v, v) > 0,    ϕ(bi , bi ) > 0, i = 1, 2, . . . , n − 2. Si pu`o quindi osservare che A non e` univocamente determinata, anche se si fissa la base B, perch´e si hanno infinite scelte per le lunghezze dei vettori della base. Esistono quindi infiniti prodotti scalari su V che rendono ortogonali i vettori u e v.

366

Forme Bilineari e Forme Quadratiche

Esercizio 8.9 Dati i vettori u = (1, −1) e v = (0, −1) in R2 determinare un prodotto scalare ϕ su R2 tale che i due vettori u e v siano ortogonali rispetto a ϕ e rispettivamente di lunghezza 1 e 2. Tale prodotto scalare e` unico? Soluzione

Il prodotto scalare ϕ richiesto deve verificare le condizioni:   ϕ(u, v) = 0 ϕ(u, u) = 1  ϕ(v, v) = 4.

Indicata con A = (aij ) ∈ R2,2 la matrice simmetrica associata a ϕ rispetto alla base canonica di R2 , dalle equazioni precedenti si ottiene il sistema lineare:   −a12 + a22 = 0 a11 − 2a12 + a22 = 1  a22 = 4, che ha come unica soluzione a11 = 5, a12 = a22 = 4, da cui segue che l’espressione polinomiale del prodotto scalare ϕ e` : ϕ(x, y) = 5x1 y1 + 4x1 y2 + 4x2 y1 + 4x2 y2 , con x = (x1 , x2 ) e y = (y1 , y2 ). Di conseguenza esiste un unico prodotto scalare che verifica le condizioni assegnate. Si osservi che i due vettori u e v sono ortogonali rispetto al prodotto scalare ϕ appena determinato, ma non sono ortogonali rispetto al prodotto scalare standard di R2 . Osservazione 8.18 Una forma bilineare indefinita pu`o essere in generale sia degenere sia non degenere, ma si vedr`a che il suo nucleo e` sempre strettamente incluso nell’insieme dei vettori isotropi I, ossia I = 6 {o}. Teorema 8.12 Sia Q una forma quadratica su uno spazio vettoriale reale V. Se la forma quadratica Q e` definita (positiva o negativa), allora Q (o equivalentemente la forma bilineare simmetrica ϕ ad essa associata) e` non degenere. Dimostrazione Si tratta di dimostrare che ker ϕ = {o}. Per ogni vettore x ∈ ker ϕ e per ogni vettore y ∈ V si ha ϕ(x, y) = 0, ci`o implica che Q(x) = 0 ma Q e` definita positiva (o negativa), dunque x = o. Osservazione 8.19 Non vale il viceversa del teorema precedente. Infatti, ad esempio, la forma quadratica dell’Esempio 8.17 e` non degenere ma e` indefinita perch´e Q((1, 0)) = 1 e Q((0, 1)) = −1.

Capitolo 8

367

Esercizio 8.10 Data la forma bilineare simmetrica ϕ ∈ Bs (R3 , R), definita da: ϕ(x, y) = x1 y1 − x1 y2 − x2 y1 , si determinino la matrice associata, rispetto alla base canonica di R3 , l’espressione polinomiale della forma quadratica Q associata a ϕ e la si classifichi. Si individui quindi l’insieme I dei vettori isotropi di Q e si stabilisca se I sia o meno un sottospazio vettoriale di R3 . Soluzione

La matrice associata a ϕ rispetto alla base canonica di R3 e` :   1 −1 0 A =  −1 0 0 , 0 0 0

da cui segue che det(A) = 0, ker ϕ = L((0, 0, 1)), ϕ e` quindi degenere. La forma quadratica associata a ϕ e` : Q(x) = x21 − 2x1 x2 , pertanto Q(x) = 0 se e solo se x1 = 0 oppure x1 = 2x2 , quindi: I = L((0, 0, 1), (0, 1, 0)) ∪ L((2, 1, 0), (0, 0, 1)), di conseguenza I non e` un sottospazio vettoriale di R3 . Q e` indefinita perch´e per esempio Q((1, 0, 0)) = 1 > 0 e Q((1, 1, 0)) = −1 < 0. Osservazione 8.20 Non e` sempre facile come nell’Esercizio 8.10 classificare una forma quadratica senza usare metodi pi`u generali che saranno studiati nel Paragrafo 8.5. Anche per una forma quadratica si pu`o introdurre, in modo analogo al caso delle applicazioni lineari (cfr. Def 6.10), il concetto di restrizione. Infatti, dati un sottospazio vettoriale W di uno spazio vettoriale reale V e una forma quadratica Q su V, si pu`o definire la restrizione di Q a W come la funzione: Q|W : W −→ R,

Q|W (x) = Q(x).

E` lasciata per esercizio al Lettore la verifica che la restrizione di una forma quadratica Q a W e` una forma quadratica su W . Il teorema che segue, la cui dimostrazione e` un facile esercizio, mette in relazione la classificazione di una forma quadratica e la classificazione di ogni sua restrizione. Teorema 8.13 Siano W un sottospazio vettoriale di uno spazio vettoriale reale V e Q una forma quadratica su V allora:

368

Forme Bilineari e Forme Quadratiche

• se Q e` una forma quadratica definita positiva (definita negativa) su V, allora la restrizione di Q a W e` una forma quadratica definita positiva (definita negativa); • se Q e` una forma quadratica semidefinita positiva (semidefinita negativa) su V, allora la restrizione di Q a W e` una forma quadratica semidefinita positiva (semidefinita negativa); per ci`o che riguarda il caso della forma quadratica nulla si tenga conto dell’Osservazione 8.16; • se Q e` una forma quadratica indefinita su V, allora la restrizione di Q a W pu`o essere una forma quadratica definita positiva (definita negativa), semidefinita positiva (semidefinita negativa), indefinita; per ci`o che riguarda il caso della forma quadratica nulla si tenga conto dell’Osservazione 8.16. Osservazione 8.21 Come gi`a enunciato nel Teorema 8.13, a differenza di ci`o che e` affermato nel caso delle forme quadratiche definite (positive o negative), la restrizione di una forma quadratica indefinita non degenere ad un sottospazio vettoriale dello spazio vettoriale su cui e` data e` ancora una forma quadratica, ma non e` detto che sia non degenere. Ad esempio, se si considera la forma quadratica non degenere introdotta dell’Esempio 8.17 si ha che le sue restrizioni ai sottospazi vettoriali di R2 : W1 = {(x1 , x2 ) ∈ R2 | x1 − x2 = 0}, W2 = {(x1 , x2 ) ∈ R2 | x1 + x2 = 0}, sono entrambe degeneri e coincidono con la forma quadratica nulla. Nel caso di una forma quadratica semidefinita positiva (o negativa) l’insieme dei vettori isotropi coincide con il nucleo della forma bilineare simmetrica associata. Infatti, per una forma bilineare simmetrica semidefinita positiva valgono, come per il prodotto scalare, la disuguaglianza di Cauchy–Schwarz e la disuguaglianza triangolare (o di Minkowski), la cui dimostrazione e` analoga a quella gi`a vista per il prodotto scalare nel Capitolo 5 (cfr. Teor. 5.2). Teorema 8.14 – Disuguaglianza di Cauchy–Schwarz – Sia ϕ ∈ Bs (V, R) una forma bilineare simmetrica semidefinita positiva su uno spazio vettoriale reale V e Q la forma quadratica ad essa associata, allora: [ϕ(x, y)]2 ≤ Q(x)Q(y),

x, y ∈ V.

Dimostrazione Se x e` un vettore isotropo la disuguaglianza e` verificata. Sia quindi x un vettore non isotropo ossia Q(x) 6= 0, allora per ogni λ ∈ R e per ogni y ∈ V si ha: Q(λx + y) = λ2 Q(x) + 2λϕ(x, y) + Q(y).

(8.12)

Capitolo 8

369

Poich´e Q e` semidefinita positiva Q(λx+y) ≥ 0, per ogni λ ∈ R e quindi il discriminante del trinomio di secondo grado (8.12) in λ deve essere negativo, cio`e: [ϕ(x, y)]2 − Q(x)Q(y) ≤ 0,

x, y ∈ V.

Il teorema che segue e` immediata conseguenza della precedente disuguaglianza. Teorema 8.15 – Disuguaglianza triangolare (o di Minkowski) – Sia ϕ ∈ Bs (V, R) una forma bilineare simmetrica semidefinita positiva su uno spazio vettoriale reale V e Q la forma quadratica associata, allora: p p p Q(x + y) ≤ Q(x) + Q(y), x, y ∈ V. Dimostrazione

La formula (8.12) scritta per λ = 1, diventa: Q(x + y) = Q(x) + 2ϕ(x, y) + Q(y);

dal Teorema 8.14 si ha: Q(x) + 2ϕ(x, y) + Q(y) ≤ Q(x) + 2

p 2 p p Q(x)Q(y) + Q(y) = Q(x) + Q(y)

da cui segue la tesi. Osservazione 8.22 Le disuguaglianze di Cauchy–Schwarz e di Minkowski, nel caso in cui ϕ sia un pprodotto scalare, corrispondono alle omonime disuguaglianze gi`a dimostrate, in quanto Q(x) coincide con la norma del vettore x. Segue dalla disuguaglianza di Cauchy–Schwarz che, nel caso di una forma ϕ bilineare simmetrica semidefinita positiva, ker ϕ coincide con l’insieme dei vettori isotropi, che, in questo caso, e` un sottospazio vettoriale. Infatti, se x e` isotropo, ossia Q(x) = 0, segue ϕ(x, y) = 0, per ogni y ∈ V. Quindi, a differenza di ci`o che e` stato dimostrato nel caso del prodotto scalare, il segno di uguaglianza nella disuguaglianza di Cauchy–Schwarz non implica che i vettori x e y siano paralleli. Si ha pertanto il seguente teorema. Teorema 8.16 Se ϕ e` una forma bilineare simmetrica semidefinita positiva (o negativa) su uno spazio vettoriale reale V , allora I = 6 {o}, inoltre I = ker ϕ, quindi ϕ e` degenere. Si dimostrer`a nell’Osservazione 8.26 il viceversa della precedente affermazione da cui si deduce che tutte e sole le forme bilineari per cui l’insieme I e` un sottospazio vettoriale devono essere definite o semidefinite positive (o negative).

370

8.5

Forme Bilineari e Forme Quadratiche

Forme canoniche

In questo paragrafo si dimostrer`a che data una forma quadratica Q su uno spazio vettoriale reale V e` sempre possibile trovare basi di V rispetto alle quali la matrice associata a Q e` diagonale. Rispetto a tali basi le corrispondenti espressioni polinomiali sono molto pi`u semplici e permettono agevolmente di classificare la forma quadratica. Viene cos`ı giustificata la seguente definizione. Definizione 8.12 Una forma quadratica Q su uno spazio vettoriale reale V si dice ridotta in forma canonica se esiste una base B di V rispetto alla quale la matrice D = (dij ) associata a Q sia diagonale. L’espressione polinomiale di Q rispetto alla base B: Q(x) = d11 x21 + d22 x22 + . . . + dnn x2n , dove (x1 , x2 , . . . , xn ) sono le componenti di x rispetto a B, prende il nome di forma canonica di Q. Una forma canonica di una forma quadratica Q e` quindi una rappresentazione di Q mediante un polinomio omogeneo privo di termini misti. Dal Teorema 8.4 segue che la definizione precedente e` equivalente alla seguente. Definizione 8.13 Sia V uno spazio vettoriale reale di dimensione n. Data una forma quadratica Q(x) = tXAX su V con matrice associata A rispetto ad una base B di V, Q si dice ridotta in forma canonica se esiste una matrice invertibile P tale che tP AP = D, con D matrice diagonale. Si osservi che P e` la matrice del cambiamento di base dalla base B ad una base B 0 rispetto alla quale Q ha come matrice associata la matrice diagonale D. Inoltre, il numero degli zeri sulla diagonale di una qualsiasi matrice diagonale D associata a Q non cambia essendo pari a dim(V )−rank(A), mentre cambiano gli elementi non nulli sulla diagonale come si evince dall’esempio che segue. Esempio 8.19 Si consideri la forma quadratica: Q(x) = x1 x2

(8.13)

su R2 , con x = (x1 , x2 ), la cui matrice associata rispetto alla base canonica B di R2 e` :  1  0  2  A= . 1 0 2

Capitolo 8

371

L’espressione (8.13) non e` una forma canonica di Q, mentre l’espressione polinomiale: Q(x) = (x01 )2 − (x02 )2

(8.14)

lo e` ; il vettore x, in questo caso, ha componenti (x01 , x02 ) rispetto ad una base che realizza (8.14), infatti esiste una matrice invertibile: ! 1 1 P = 1 −1 tale che t

P AP = D =

1

0

0 −1

! .

Un’altra forma canonica di Q e` , ad esempio, Q(x) = 5y12 − 3y22 , infatti la si ottiene con il cambiamento di base: ! √ √ ! x1 5 3 = √ √ x2 5 − 3 Si verifica inoltre che tutti i cambiamenti di base: ! ! x1 a b = x2 a −b

(8.15)

y1

! .

y2

y1 y2

! ,

realizzano forme canoniche di Q per ogni a, b ∈ R tali che ab 6= 0.

Esistono infinite forme canoniche di una forma quadratica Q, tra le quali ve ne sono alcune particolari, come precisato dai seguenti teoremi. Teorema 8.17 Sia V uno spazio vettoriale reale di dimensione n. Data una forma quadratica Q(x) = tXAX su V con matrice associata A rispetto ad una base B di V, Q ammette una forma canonica del tipo: Q(x) = λ1 y12 + λ2 y22 + . . . + λn yn2 ,

(8.16)

dove λ1 , λ2 , . . . , λn sono gli autovalori della matrice A (ciascuno ripetuto con la propria molteplicit`a) e (y1 , y2 , . . . , yn ) sono le componenti del vettore x rispetto ad una base ortonormale di autovettori di A.

Forme Bilineari e Forme Quadratiche

372

Dimostrazione La matrice A associata a Q, rispetto alla base B, e` simmetrica. Pertanto esiste una matrice ortogonale P tale che:   λ1 0 . . . 0  0 λ2 . . . 0    t P AP = P −1 AP = D =  .. .. . . .. .  . . .  . 0 0 . . . λn Con il cambiamento di base X = P Y, tenuto conto che P e` ortogonale, si ricava: Q(x) = tXAX = t (P Y )A(P Y ) = t Y ( tP AP )Y = t Y D Y = λ1 y12 + λ2 y22 + . . . + λn yn2 , quindi la tesi. Esempio 8.20 La matrice A associata alla forma quadratica Q considerata nell’Esempio 8.19 ha autovalori λ1 = 1 e λ2 = −1, mentre i coefficienti 5 e −3 della forma canonica (8.15) di Q non sono autovalori di A. Infatti le matrici associate alla stessa forma quadratica non sono tutte simili (cfr. Oss. 8.3). Esercizio 8.11 Ridurre a forma canonica la seguente forma quadratica definita su R3 : Q(x) = 2x21 + x22 − 4x1 x2 − 4x2 x3 , con x = (x1 , x2 , x3 ). Soluzione La matrice A associata a Q rispetto alla base canonica B di R3 e la relativa equazione caratteristica sono rispettivamente:   2 −2 0 1 −2 , A =  −2 det(A − λI) = λ3 − 3λ2 − 6λ + 8 = 0. 0 −2 0 Gli autovalori e gli autospazi di A sono: λ1 = 1, λ2 = −2, λ3 = 4, tutti di molteplicit`a 1; Vλ1 = L((2, 1, −2)), Vλ2 = L((1, 2, 2)), Vλ3 = L((2, −2, 1)), dai quali si ottiene la base ortonormale B 0 = (f1 , f2 , f3 ) di autovettori con:       2 1 2 2 2 2 1 2 1 , , − , f2 = , , , f3 = ,− , . f1 = 3 3 3 3 3 3 3 3 3

Capitolo 8

373

Si osservi che B 0 e` una base ortonormale rispetto al prodotto scalare standard di R3 . Di conseguenza la matrice P del cambiamento di base da B a B 0 e` una matrice ortogonale. La forma quadratica Q, in forma canonica, e` quindi:    0 0 y1  1 Q(x) = y1 y2 y3  0 −2 0   y2  = y12 − 2y22 + 4y32 , 0 0 4 y3 dove (y1 , y2 , y3 ) sono le componenti di x rispetto alla base B 0 , ottenuta con il cambiamento di base:   2 1 2 1 P =  1 2 −2 . 3 −2 2 1 Definizione 8.14 Una forma quadratica Q su uno spazio vettoriale reale V si dice ridotta in forma normale se e` ridotta a forma canonica ed i coefficienti del polinomio omogeneo che ne deriva sono 1, 0, −1. La sua espressione polinomiale prende il nome di forma normale. Per convenzione, nella forma normale di Q si ordinano i termini inserendo prima i coefficienti pari a 1, poi quelli pari a −1 ed infine quelli nulli. Teorema 8.18 Una forma quadratica Q definita su uno spazio vettoriale V, di dimensione n, ammette sempre una forma normale. Se Q(x) = tXAX, con A matrice associata a Q rispetto ad una base B di V, il numero dei coefficienti pari a 1, che compare nella forma normale, e` uguale al numero di autovalori positivi della matrice A, contati con la relativa molteplicit`a, il numero dei coefficienti pari a −1 e` uguale al numero di autovalori negativi di A, contati con la relativa molteplicit`a, il numero dei coefficienti pari a 0 coincide con la molteplicit`a dell’autovalore 0 di A. Dimostrazione nica data da:

Per il Teorema 8.17 la forma quadratica Q ammette una forma canoQ(x) = λ1 y12 + λ2 y22 + . . . + λn yn2 ,

dove λ1 , λ2 , . . . , λn sono gli autovalori della matrice A (ciascuno ripetuto con la propria molteplicit`a) e (y1 , y2 , . . . , yn ) sono le componenti del vettore x di V rispetto ad una base ortonormale C = (f1 , f2 , . . . , fn ) di autovettori di A. Il numero dei coefficienti λi che sono diversi da zero e` uguale al rango r della forma quadratica Q, quindi e` un invariante di Q e non dipende dalla matrice A considerata. Salvo un cambiamento di ordine dei vettori della base C, si pu`o supporre che i primi r coefficienti siano diversi da zero e che tra essi quelli positivi figurino per primi. Di conseguenza si pu`o porre: λ1 = α12 ,

...,

λp = αp2 ,

2 λp+1 = −αp+1 ,

...,

λr = −αr2

Forme Bilineari e Forme Quadratiche

374

per un opportuno intero p ≤ r e opportuni numeri reali positivi α1 , α2 , . . . , αr . Poich´e: Q(f1 ) = α12 ,

...,

2 , Q(fp+1 ) = −αp+1

Q(fr+1 ) = 0,

...,

Q(fp ) = αp2 , ...,

Q(fr ) = −αr2 ,

Q(fn ) = 0,

si verifica facilmente che, rispetto alla base C 0 = (f10 , f20 , . . . , fn0 ) con: f10 =

f1 , α1

f20 =

f2 , α2

...,

fr0 =

fr , αr

0 fr+1 = fr+1 ,

...,

fn0 = fn ,

la forma polinomiale di Q e` : 0 Q(x) = (y10 )2 + . . . + (yp0 )2 − (yp+1 )2 − . . . − (yr0 )2 ,

(8.17)

con x = y10 f10 + . . . + yn0 fn0 , da cui la tesi. Osservazione 8.23 1. La forma normale di una forma quadratica Q, ottenuta con il procedimento indicato nella dimostrazione del Teorema 8.18, e` unica, cio`e tutte le matrici associate a Q hanno lo stesso numero di autovalori positivi e lo stesso numero di autovalori negativi, come sar`a dimostrato nel Teorema 8.20. E` invece gi`a stato dimostrato che tutte le matrici associate a Q hanno lo stesso rango (cfr. Oss. 8.12) e pertanto la molteplicit`a dell’autovalore 0 di A (se esso esiste) e` invariante per Q. 2. Se Q e` la forma quadratica associata ad un prodotto scalare ϕ, la base C, considerata nella dimostrazione del Teorema 8.18, e` solo una base ortogonale (rispetto a ϕ), ma non ortonormale (rispetto a ϕ), in quanto: ϕ(fi , fj ) = 0, i 6= j,

Q(fi ) = ϕ(fi , fi ) = λi > 0.

In questo caso infatti la matrice A ha n autovalori positivi, essendo ϕ definita positiva, ma solo se λi = 1, per ogni i = 1, 2, . . . , n, C e` una base ortonormale rispetto a ϕ. La base C 0 e` invece una base ortonormale per il prodotto scalare ϕ. 3. Ogni base che permette di scrivere una forma quadratica Q in forma canonica e` una base ortogonale rispetto alla forma bilineare simmetrica ϕ associata alla forma quadratica. 4. La matrice del cambiamento di base dalla base C alla base C 0 , (cfr. dimostrazione del Teorema 8.18 ) e` una matrice diagonale. Come gi`a osservato, esistono infinite forme canoniche di una forma quadratica Q. In generale le forme canoniche di una forma quadratica Q si possono ottenere una dall’altra mediante cambiamenti di base simili a quelli utilizzati nella dimostrazione del Teorema 8.18, ovvero mediante matrici del cambiamento di base in forma diagonale.

Capitolo 8

375

Esercizio 8.12 Si ricavi la forma normale della forma quadratica Q introdotta nell’Esercizio 8.11. Soluzione Avendo calcolato gli autovalori di A e avendo ottenuto che due sono positivi e uno negativo, si ha subito che la forma normale di Q e` :    1 0 0 z 1  0   z2  = z12 + z22 − z32 , Q(x) = z1 z2 z3  0 1 0 0 −1 z3 con x di componenti (z1 , z2 , z3 ) rispetto ad una base (f10 , f20 , f30 ) che permetta di realizzare la forma normale di Q, con: f10 = f1 ,

f20 =

1 f3 , 2

1 f30 = √ f2 . 2

Poich´e le matrici associate ad una forma quadratica Q non sono tutte simili, il calcolo dei loro autovalori non e` l’unico modo per ridurre a forma canonica una forma quadratica. Nel Paragrafo 8.8.3 si introdurranno metodi pi`u sofisticati, ma l’esercizio che segue mostra come sia possibile procedere alla riduzione a forma canonica di una forma quadratica semplicemente utilizzando il metodo del completamento dei quadrati. Ci`o e` dovuto al fatto che la forma polinomiale di Q non e` altro che un polinomio omogeneo di secondo grado. Il metodo del completamento dei quadrati (generalmente insegnato nelle scuole superiori per dimostrare la formula risolutiva delle equazioni di secondo grado) consiste nel sommare e sottrarre numeri opportuni in modo da far comparire dei quadrati di binomi. Esercizio 8.13 Ricavare un’altra forma canonica della forma quadratica Q introdotta nell’ Esercizio 8.11. Soluzione Utilizzando il metodo del completamento dei quadrati si pu`o procedere, per esempio, come segue: Q(x) = 2(x21 − 2x1 x2 ) + x22 − 4x2 x3 = 2(x21 − 2x1 x2 + x22 ) − 2x22 + x22 − 4x2 x3 = 2(x1 − x2 )2 − (x22 + 4x2 x3 + 4x23 ) + 4x23 = 2(x1 − x2 )2 − (x2 + 2x3 )2 + 4x23 . con x = (x1 , x2 , x3 ). Con il cambiamento di base di equazioni:

376

Forme Bilineari e Forme Quadratiche

  y1 = x1 − x2 y2 = x2 + 2x3  y3 = x3 ,

  x1 = y1 + y2 − 2y3 x2 = y2 − 2y3  x3 = y3 ,

ossia

che si pu`o anche scrivere nella forma: 

  x1 1  x2  =  0 x3 0

  1 −2 y1 1 −2   y2 , 0 1 y3

la forma quadratica assume la forma canonica: Q(x) = 2y12 − y22 + 4y32 , con (y1 , y2 , y2 ) componenti di x rispetto alla base C = (c1 , c2 , c3 ) individuata dal cambiamento di base usato, ossia: c1 = (1, 0, 0),

c2 = (1, 1, 0),

c3 = (−2, −2, 1).

Si osservi che C non e` una base ortonormale. Procedendo come nell’Esercizio 8.12 si ricava la stessa forma normale di Q ottenuta in tale esercizio ma rispetto alla base:   1 1 √ c1 , c3 , c2 . 2 2 Nel paragrafo che segue si dimostrer`a che la forma normale di una forma quadratica e` unica. Si enuncia ora il Teorema di Gauss–Lagrange in cui si afferma che mediante il metodo del completamento dei quadrati si implementa un algoritmo che si pu`o applicare ad ogni forma quadratica, permettendo cos`ı la sua classificazione senza ricorrere al calcolo degli autovalori della matrice ad essa associata, per la dimostrazione si veda ad esempio [18]. Teorema 8.19 – Teorema di Gauss–Lagrange – Sia Q una forma quadratica su uno spazio vettoriale V, mediante il metodo del completamento dei quadrati applicato all’espressione polinomiale di Q e` possibile determinare una base di V che permette di scrivere la forma quadratica Q in forma canonica.

8.6

La segnatura di una forma quadratica

E` possibile a questo punto dello studio delle forme quadratiche enunciare e dimostrare il fondamentale Teorema di Sylvester che rende plausibile una qualunque scelta di forma canonica di una forma quadratica ai fini della sua classificazione.

Capitolo 8

377

Teorema 8.20 – Teorema di Sylvester – Sia V uno spazio vettoriale reale di dimensione n. Tutte le forme canoniche di una forma quadratica Q su V hanno lo stesso numero p di coefficienti positivi e lo stesso numero q di coefficienti negativi. Dimostrazione Poich´e p + q = rank(Q) si ponga p + q = r ≤ n e si consideri la forma normale (8.17) della forma quadratica Q ottenuta nel corso della dimostrazione del Teorema 8.18 rispetto ad una base C 0 = (f10 , f20 , . . . , fn0 ) di V. Resta da dimostrare che p dipende solo da Q e non dalla base C 0 . Si supponga allora che esista un’altra base B = (b1 , b2 , . . . , bn ) di V rispetto alla quale la forma quadratica Q si esprima come: 2 − . . . − zr2 Q(x) = z12 + . . . + zt2 − zt+1

(8.18)

per un opportuno intero t ≤ r. Si deve dimostrare che t = p. Si supponga per assurdo che t 6= p e che sia t < p. Si considerino i sottospazi vettoriali: S = L(f10 , f20 , . . . , fp0 ), T = L(bt+1 , bt+2 , . . . , bn ). Poich´e dim(S) + dim(T ) = p + n − t > n, deve essere S ∩ T = 6 {o}. Si consideri quindi un vettore x ∈ S ∩ T , x 6= o, e lo si esprima sia rispetto alla base di S sia rispetto alla base di T , si ha: x = y10 f10 + y20 f20 + . . . + yp0 fp0 = zt+1 bt+1 + zt+2 bt+2 + . . . + zn bn . Sia Q|S la restrizione della forma quadratica Q a S e tenendo conto del Teorema 8.13, da (8.17) si ottiene: Q|S (x) = Q(x) = (y10 )2 + (y20 )2 + . . . + (yp0 )2 > 0. Invece, considerando la restrizione Q|T di Q a T e tenendo di nuovo conto del Teorema 8.13, da (8.18) si deduce che: 2 Q|T (x) = Q(x) = −zt+1 − . . . − zr2 < 0,

da cui l’assurdo, quindi p = t. Il Teorema di Sylvester e` anche spesso denominato come Legge di Inerzia in quanto ha come conseguenza immediata il seguente corollario. Corollario 8.3 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n ammette una sola forma normale. Il risultato enunciato nel Teorema 8.20 permette di introdurre la seguente definizione.

378

Forme Bilineari e Forme Quadratiche

Definizione 8.15 Sia Q una forma quadratica definita su uno spazio vettoriale reale V di dimensione n. Siano p il numero di autovalori positivi (contati con le relative molteplicit`a) di una qualsiasi matrice simmetrica associata a Q e q il numero di autovalori negativi (contati con le relative molteplicit`a) della stessa matrice, allora la coppia (p, q) prende il nome di segnatura di Q. Osservazione 8.24 1. Segue subito dal Teorema 8.20 che la segnatura di una forma quadratica Q non dipende dalla matrice scelta per la sua determinazione. 2. Da osservare che rispetto alla base C 0 = (f10 , f20 , . . . fn0 ) in cui Q si scrive in forma normale (cfr. dimostrazione del Teorema 8.18) la matrice associata alla forma quadratica Q e` data da:   Ip 0 0 0   0 , M C (Q) =  0 −Ir−p 0

0

On−r

dove r e` il rango di Q, Ij indica la matrice unit`a di ordine j e On−r denota la matrice nulla di ordine n − r. 3. Una forma quadratica Q su uno spazio vettoriale reale V di dimensione n e` non degenere se e solo se la sua segnatura (p, q) e` tale che p + q = n. Grazie al Teorema 8.20 e` evidente che per studiare il segno di una forma quadratica Q e` sufficiente conoscere i segni dei coefficienti di una forma canonica di Q, in particolare quindi i segni degli autovalori di una qualsiasi matrice A associata a Q. I segni degli autovalori di A (non gli autovalori) si possono determinare agevolmente a partire dal polinomio caratteristico della matrice A, utilizzando il seguente teorema, la cui dimostrazione e` spesso inserita nei testi di algebra della scuola secondaria superiore. Teorema 8.21 – Regola dei segni di Cartesio – Sia f (x) = a0 + a1 x + . . . + an xn un polinomio a coefficienti reali con tutte le radici reali. Allora le radici positive di f sono tante quante sono le variazioni di segno della successione a0 , a1 , . . . , an . Esempio 8.21 1. Il polinomio f (x) = 8+2x−5x2 +x3 ha le due radici reali positive 2 e 4. D’altra parte nella successione dei coefficienti 8, 2, −5, 1 ci sono due variazioni di segno. 2. Il polinomio f (x) = (x + 1)(x − 2)(x − 4)(x − 5)x3 ha radici 0, −1, 2, 4, 5 e le radici positive sono tre. D’altra parte f (x) = −40x3 − 12x4 + 27x5 − 10x6 + x7 e si vede che ci sono tre variazioni di segno nei coefficienti di f.

Capitolo 8

379

E` chiaro che si pu`o applicare questa regola al polinomio caratteristico di una qualsiasi matrice associata a una forma quadratica perch´e esso, essendo la matrice simmetrica, ha tutte le radici reali. Quindi per classificare una forma quadratica Q (o la forma bilineare simmetrica ϕ ad essa associata) si pu`o procedere nel modo seguente: 1. si determina una matrice A associata a Q e se ne calcola il polinomio caratteristico P (λ) = det(A − λI). 2. Si scrive P (λ) = λs R(λ), con R(0) 6= 0. Si osservi che: rank(A) = rank(Q) = n − s e che s e` la molteplicit`a dell’autovalore 0. 3. Poich´e A e` una matrice simmetrica, per il Teorema Spettrale 7.8 P (λ) ha tutte radici reali e pertanto si pu`o applicare la regola dei segni di Cartesio. Si contano le variazioni di segno del polinomio R(λ), se esse sono p allora R(λ) ha p radici positive. In conclusione P (λ) ha: s radici nulle; p radici positive; n − (p + s) radici negative. Esercizio 8.14 Determinare la segnatura della forma quadratica Q su R3 definita da: Q(x) = 2x21 + x22 − 4x1 x2 − 4x2 x3 , con x = (x1 , x2 , x3 ). Soluzione La matrice associata a Q rispetto alla base canonica B di R3 e il relativo polinomio caratteristico P (λ) sono:   2 −2 0 1 −2 , M B (Q) =  −2 P (λ) = −λ3 + 3λ2 + 6λ − 8. 0 −2 0 In P (λ) vi sono due variazioni di segno e 0 non e` una radice. Quindi la forma quadratica Q e` indefinita, non degenere ed ha segnatura (2, 1). Le propriet`a che seguono, e che riassumono i risultati ottenuti in precedenza, in realt`a caratterizzano la segnatura di una forma quadratica attraverso il segno degli autovalori della matrice ad essa associata.

380

Forme Bilineari e Forme Quadratiche

Teorema 8.22 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base B di V, e` definita positiva (negativa) se e soltanto se tutti gli autovalori della matrice A sono strettamente positivi (negativi). Dimostrazione Si supponga che Q sia definita positiva. Se per assurdo, fosse ad esempio λ1 ≤ 0 si avrebbe, scelto x = (1, 0, . . . , 0), che Q(x) = λ1 ≤ 0, con x 6= o, contro l’ipotesi. La dimostrazione nel caso in cui Q sia definita negativa e` analoga. Il viceversa e` ovvia conseguenza dei teoremi di classificazione appena enunciati. Osservazione 8.25 Conseguenza immediata del teorema precedente e` che un prodotto scalare su uno spazio vettoriale reale V di dimensione n e` una forma bilineare simmetrica associata ad una forma quadratica di segnatura (n, 0). Viceversa ogni forma bilineare simmetrica associata ad una forma quadratica di segnatura (n, 0) e` un prodotto scalare. Teorema 8.23 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base B di V, e` semidefinita positiva (negativa) se e solo se tutti gli autovalori della matrice A sono non negativi (positivi) e λ = 0 e` un autovalore di A di molteplicit`a almeno 1. Teorema 8.24 Una forma quadratica Q definita su uno spazio vettoriale reale V di dimensione n scritta come Q(x) = tXAX , con matrice associata A, rispetto ad una base B di V, e` indefinita se e solo se la matrice simmetrica reale A ha autovalori di segno contrario. Le dimostrazioni dei due teoremi precedenti sono conseguenze delle definizioni di forma quadratica semidefinita e indefinita e della formula (8.16) del Teorema 8.17. Riassumendo, le possibili forme normali, le segnature e le classificazioni di una forma quadratica Q su uno spazio vettoriale di dimensione n (cfr. Teor. 8.20) sono rispettivamente: •

Q(x) = x21 + x22 + . . . + x2n

(n, 0)

definita positiva,



Q(x) = x21 + x22 + . . . + x2p , p ≤ n,

(p, 0)

semidefinita positiva,



Q(x) = −x21 − x22 − . . . − x2n

(0, n)

definita negativa,



Q(x) = −x21 − x22 . . . − x2q , q ≤ n,

(0, q)

semidefinita negativa,



Q(x) = x21 + . . . + x2p − x2p+1 − . . . − x2r , (p, r − p)

indefinita,

0
Capitolo 8

381

dove x e` un qualsiasi vettore di V di componenti (x1 , x2 , . . . , xn ) rispetto ad una base che permetta di scrivere Q in forma normale. Osservazione 8.26 E` molto pi`u agevole calcolare l’insieme dei vettori isotropi I di una forma quadratica Q partendo dalla sua forma normale, e` necessario per`o dividere la trattazione a seconda della classificazione di Q. a. Se Q e` una forma quadratica semidefinita positiva, di segnatura (p, 0), p ≤ n, la sua forma normale e` : Q(x) = x21 + x22 + . . . + x2p , dove il vettore x ha componenti (x1 , x2 , . . . , xn ) rispetto ad una base che permette di scrivere Q in forma normale. In questo caso, l’insieme dei vettori isotropi e` : I = {x ∈ V | x21 + x22 + . . . + x2p = 0} = {x ∈ V | x1 = x2 = . . . = xp = 0} e I e` un sottospazio vettoriale di V. Il caso delle forme quadratiche semidefinite negative e` analogo. b. Sia, invece, Q una forma quadratica, definita su uno spazio vettoriale V di dimensione n, di segnatura (p, q), q 6= 0 e rango p + q = r ≤ n, quindi di forma normale: Q(x) = x21 + . . . + x2p − x2p+1 − . . . − x2r , dove il vettore x ha componenti (x1 , x2 , . . . , xn ) rispetto ad una base che permette di scrivere Q in forma normale. In questo caso, l’insieme dei vettori isotropi e` : I = {x ∈ V | x21 + . . . + x2p − x2p+1 − . . . − x2r = 0}. Pertanto I = 6 {o} e non e` un sottospazio vettoriale di V. La verifica di quest’ultima affermazione e` un facile esercizio. Osservazione 8.27 Come gi`a annunciato all’inizio di questo capitolo, la riduzione di una forma quadratica in forma canonica ottenuta attraverso gli autovalori assume notevole importanza in geometria analitica, ad esempio, nella riduzione a forma canonica delle coniche nel piano e delle quadriche nello spazio perch´e e` legata a cambiamenti di basi ortonormali e conseguentemente a cambiamenti di riferimento cartesiani del piano e dello spazio. I Capitoli 10 e 12 tratteranno diffusamente questi argomenti.

8.7

Esercizi di riepilogo svolti

Esercizio 8.15 In R3 , riferito alla base canonica B = (e1 , e2 , e3 ),

Forme Bilineari e Forme Quadratiche

382

1. scrivere, rispetto alla base B, la matrice A della forma bilineare simmetrica ϕ tale che siano verificate le seguenti condizioni: a. ϕ(e1 , e1 ) + ϕ(e3 , e3 ) = 3, b. ϕ(e1 , e1 ) = 2ϕ(e3 , e3 ) = 4ϕ(e2 , e3 ), c. ϕ(e1 , e2 ) = ϕ(e2 , e3 ), d. i vettori e3 e v = −e1 + e2 + e3 sono ortogonali rispetto a ϕ, e. il vettore e2 e` isotropo rispetto alla forma quadratica Q associata a ϕ. 2. Scrivere l’espressione polinomiale della forma quadratica Q associata a ϕ. 3. Classificare Q, determinandone la sua forma normale ed una base rispetto alla quale Q assume tale forma. 4. Dire se i vettori e2 e u = e1 + e2 − e3 sono ortogonali rispetto a ϕ. Soluzione 1. Si tratta di determinare gli elementi della matrice A associata a ϕ rispetto alla base assegnata. Poich´e A = (aij ) e` una matrice simmetrica e aij = ϕ(ei , ej ), le condizioni a., b., c. equivalgono al sistema lineare:   a11 + a33 = 3 a11 = 2a33 = 4a23  a12 = a23 , la cui soluzione e` :  a11 = 2     1 a = a = 12 23  2    a33 = 1. La condizione d. equivale a: 

0



         −1 1 1 A  0  =       1 da cui si ottiene a13



2     1 −1 1 1   2   a13

1 2 a22

a13



0



      1     0  = 0,   2      1 1

1 2 = 3/2. La condizione e. equivale a a22 = 0. Allora, la matrice

Capitolo 8

383

A richiesta e` : 1 2



2     1 A=  2   3 2

3  2    1  . 2    1

0 1 2

2. Dalla matrice A appena ricavata segue che: Q(x) = 2x21 + x1 x2 + 3x1 x3 + x2 x3 + x23 , con x = (x1 , x2 , x3 ). 3. Il polinomio caratteristico P (λ) della matrice A e` dato da: P (λ) = −λ3 + 3λ2 +

3 λ, 4

da cui si deduce che la forma quadratica e` degenere (il polinomio caratteristico ha termine noto nullo); utilizzando la regola dei segni di Cartesio si vede una sola variazione di segno tra i coefficienti di P (λ), quindi la segnatura di Q e` (1, 1), pertanto la forma quadratica e` indefinita. La sua forma normale e` : Q(x) = z12 − z22 , con (z1 , z2 , z3 ) componenti del vettore x rispetto ad una base di R3 secondo la quale Q si scrive in forma normale. Questa base si pu`o trovare determinando dapprima una base ortonormale di autovettori di A, i cui autovalori sono: λ1 =

√ 1 (3 + 2 3), 2

λ2 =

√ 1 (3 − 2 3), 2

λ3 = 0,

tutti di molteplicit`a 1; una base ortonormale di autovettori e` data da (f1 , f2 , f3 ), dove: √ √ 1 f1 = √ (1 + 3, −1 + 3, 2), 2 3 1 f3 = √ (−1, 1, 1), 3

√ √ 1 f2 = √ (1 − 3, −1 − 3, 2), 2 3

Forme Bilineari e Forme Quadratiche

384

e poi operando sulla base ottenuta come spiegato nella dimostrazione del Teorema 8.18, si ottiene la base: √

√ 2

2

!

p √ f1 , p √ f2 , f3 , 3+2 3 −3 + 2 3 rispetto alla quale Q si scrive in forma normale. 4. I vettori dati sono ortogonali, rispetto a ϕ, in quanto: 

 1  0 1 0 A  1  = 0. −1 Esercizio 8.16 In R3 , riferito alla base canonica B = (e1 , e2 , e3 ), si consideri la forma bilineare simmetrica ϕ definita da: ϕ(x, y) = x1 y1 + 6x2 y2 + 56x3 y3 − 2(x1 y2 + x2 y1 ) + 7(x1 y3 + x3 y1 ) − 18(x2 y3 + x3 y2 ), dove x = (x1 , x2 , x3 ), y = (y1 , y2 , y3 ). 1. Scrivere la matrice A associata a ϕ rispetto alla base B. 2. Provare che i vettori e01 = e1 , e02 = 2e1 + e2 , e03 = −3e1 + 2e2 + e3 formano una base B 0 di R3 . 3. Scrivere la matrice A0 associata a ϕ rispetto alla base B 0 = (e01 , e02 , e03 ). 4. Scrivere le espressioni polinomiali della forma quadratica Q associata a ϕ rispetto alle basi B e B 0 . Soluzione

1. La matrice A associata alla forma bilineare ϕ rispetto alla base B e` :   1 −2 7 6 −18 . A =  −2 7 −18 56

2. La matrice P avente sulle colonne, ordinatamente, le componenti dei vettori e01 , e02 , e03 rispetto alla base B :   1 2 −3 2 , P = 0 1 0 0 1 ha det(P ) = 1, perci`o i vettori e01 , e02 , e03 formano una base B 0 di R3 .

Capitolo 8

385

3. Poich´e la matrice del cambiamento di base da B a B 0 e` P, dal Teorema 8.4 segue che la matrice A0 associata a ϕ rispetto alla base B 0 si ottiene come: 

1 A0 = tP AP =  0 0

 0 0 2 0 . 0 −1

4. Rispetto alla base B, l’espressione polinomiale della forma quadratica Q associata a ϕ e` : Q(x) = x21 + 6x22 + 56x23 − 4x1 x2 + 14x1 x3 − 36x23 . Tenendo conto della formula (8.9) l’espressione polinomiale della forma quadratica Q, rispetto alla base B 0 , e` : Q(x) = y12 + 2y22 − y32 , dove con (y1 , y2 , y3 ) si indicano le componenti di x rispetto alla base B 0 . Si osservi che P non e` una matrice ortogonale e che il polinomio caratteristico di A e` : det(A − λI) = −λ3 + 63λ2 − 21λ − 2, mentre quello di A0 e` : det(A − λI) = −λ3 + 2λ2 + λ − 2, ossia A e A0 non sono matrici simili.

Esercizio 8.17 Sia V4 uno spazio vettoriale reale riferito alla base B = (v1 , v2 , v3 , v4 ). 1. Determinare la matrice A delle generica forma bilineare simmetrica ϕ su V4 tale che: a. le restrizioni di ϕ ai sottospazi vettoriali W1 = L(v1 , v2 ) e W2 = L(v3 , v4 ) siano le forme bilineari nulle, b. il vettore u = v1 − v2 + 2v4 appartenga a ker ϕ. 2. Detto H il sottospazio vettoriale di Bs (V4 , R) generato dalle forme bilineari simmetriche ϕ determinate nel punto 1., individuare una base di H.

Forme Bilineari e Forme Quadratiche

386

Soluzione 1. In analogia alla definizione di restrizione di forma quadratica ad un sottospazio vettoriale introdotta nel Paragrafo 8.4, si pu`o enunciare la definizione di restrizione ad un sottospazio vettoriale W di uno spazio vettoriale V di una forma bilineare simmetrica ϕ definita su V come la funzione: ϕ|W : W × W −→ R, data da: ϕ|W (x, y) = ϕ(x, y),

x, y ∈ W.

Si verifichi per esercizio che ϕ|W e` una forma bilineare simmetrica su W. Sia A = (aij ) la matrice simmetrica associata a ϕ rispetto alla base B. Le condizioni richieste in a. equivalgono a: ϕ(v1 , v1 ) = ϕ(v1 , v2 ) = ϕ(v2 , v2 ) = 0, ϕ(v3 , v3 ) = ϕ(v3 , v4 ) = ϕ(v4 , v4 ) = 0, che corrispondono a: a11 = a12 = a22 = 0, a33 = a34 = a44 = 0. Di conseguenza la matrice A e` del tipo:  0 0 a13 a14  0 0 a23 a24 A=  a13 a23 0 0 a14 a24 0 0

  . 

La condizione b. equivale alle seguenti condizioni: ϕ(u, v1 ) = ϕ(u, v2 ) = ϕ(u, v3 ) = ϕ(u, v4 ) = 0, che corrispondono a: a14 = a24 = 0,

a13 = a23 = h,

con h ∈ R. Quindi, concludendo, si trovano infinite matrici A, che dipendono da h ∈ R e che saranno indicate come:   0 0 h 0  0 0 h 0   A(h) =   h h 0 0 , h ∈ R. 0 0 0 0

Capitolo 8

387

2. Considerando l’isomorfismo tra Bs (V4 , R) e lo spazio vettoriale delle matrici simmetriche S(R4,4 ), definito dopo aver fissato la base B in V4 (cfr. Teor. 8.2) si ha che il sottospazio vettoriale H richiesto e` formato dalle forme bilineari simmetriche associate alle matrici A(h) ricavate nel punto precedente. Di conseguenza dim(H) = 1 ed una sua base e` per esempio data dalla forma bilineare simmetrica associata alla matrice A(1). Esercizio 8.18 Si consideri la funzione: ϕ : R2,2 × R2,2 −→ R,

(A, B) 7−→ tr( tA tP B),

con P matrice appartenente a R2,2 . 1. Verificare che ϕ e` una forma bilineare. 2. Dimostrare, usando le propriet`a della traccia e della trasposta di una matrice, che ϕ e` una forma bilineare simmetrica se e solo se P e` una matrice simmetrica. 3. Posto:

 P =

0 −1 −1 0

 ,

verificare che rispetto alla base canonica B di R2,2 la forma quadratica Q associata a ϕ e` data da: Q(X) = −2x1 x3 − 2x2 x4 , con

 X=

x1 x2 x3 x4

 .

4. Classificare la forma quadratica Q del punto 3., determinare una forma canonica ed una base B 0 di R2,2 rispetto alla quale Q si scrive in forma canonica. Soluzione

1. Dalle propriet`a della traccia e della trasposta di una matrice si ha:

ϕ(A1 + A2 , B) = tr( t (A1 + A2 ) tP B) = tr( tA1 tP B + tA2 tP B) = tr( tA1 tP B) + tr( tA2 tP B) = ϕ(A1 , B) + ϕ(A2 , B), per ogni A1 , A2 , B ∈ R2,2 . Analogamente si verifica che: ϕ(A, B1 + B2 ) = ϕ(A, B1 ) + ϕ(A, B2 ), ϕ(λ A, B) = ϕ(A, λ B) = λ ϕ(A, B), per ogni A, B1 , B2 , B ∈ R2,2 e per ogni λ ∈ R. Perci`o ϕ e` una forma bilineare.

Forme Bilineari e Forme Quadratiche

388

2. Dalle propriet`a della traccia di una matrice si ha che: ϕ(A, B) = tr( tA tP B) = tr( t (tA tP B)) = tr( tBP A), per ogni A, B ∈ R2,2 . Pertanto, se P e` una matrice simmetrica, ossia tP = P, si verifica che: ϕ(A, B) = tr( tBP A)) = tr( tB tP A) = ϕ(B, A),

A, B ∈ R2,2 .

Viceversa, se ϕ e` una forma bilineare simmetrica, ossia ϕ(A, B) = ϕ(B, A) per ogni A, B ∈ R2,2 , dalle uguaglianze: ϕ(A, B) = tr( tBP A), ϕ(B, A) = tr( tB tP A),

A, B ∈ R2,2 ,

si ottiene tr( tBP A) = tr( tB tP A), vale a dire tr( tBP A − tB tP A) = 0, per ogni A, B ∈ R2,2 , da cui: tr( tB(P − tP )A) = 0,

A, B ∈ R2,2 .

In particolare, ponendo A = I e B = P − t P , si ottiene: tr( t (P − tP )(P − tP )) = 0. Ma e` noto che: tr( tXX) = 0

⇐⇒

X = O,

dove O indica la matrice nulla di R2,2 e X una qualsiasi matrice di R2,2 , per questa verifica si pu`o ricordare l’Esempio 5.6. Pertanto P − tP = O, ossia la tesi. 3. Si ha: t

t

Q(X) = ϕ( X P X) = tr



−2x1 x3 −x1 x4 − x2 x3 −x1 x4 − x2 x3 −2x2 x4

 = −2x1 x3 −2x2 x4 .

4. La matrice associata alla forma quadratica Q del punto 3., rispetto alla base canonica B di R2,2 , e` :   0 0 −1 0  0 0 0 −1  . M B (Q) =   −1 0 0 0  0 −1 0 0

Capitolo 8

389

con autovalori: λ1 = 1,

λ2 = −1

entrambi di molteplicit`a 2 ed autospazi: Vλ1 = L((1, 0, −1, 0), (0, 1, 0, −1)), Vλ2 = L((1, 0, 1, 0), (0, 1, 0, 1)). La forma quadratica Q scritta in forma canonica e` dunque: Q(X) = y12 + y22 − y32 − y42 , con (y1 , y2 , y3 , y4 ) componenti di X rispetto alla base:

0



B =

 1 1 √ −1 2

0 0

    1 1 0 1 1 , √ , √ 0 −1 2 2 1

0 0

  1 0 , √ 2 0

1 1

 .

Q e` pertanto una forma quadratica indefinita, non degenere e di segnatura (2, 2).

8.8 8.8.1

Per saperne di piu` Forme bilineari simmetriche ed endomorfismi autoaggiunti

In questo paragrafo si vuole definire una corrispondenza biunivoca tra endomorfismi autoaggiunti di uno spazio vettoriale euclideo e forme bilineari simmetriche e dimostrare che, rispetto a basi opportune, essi sono associati alla stessa matrice. Valgono infatti i seguenti teoremi. Teorema 8.25 Se f e` un endomorfismo di uno spazio vettoriale euclideo (V, · ) la funzione ϕ : V × V −→ R, definita da: ϕ(x, y) = x · f (y),

x, y ∈ V,

(8.19)

e` una forma bilineare su V. Viceversa se ϕ : V × V −→ R e` una forma bilineare su V allora la relazione (8.19) definisce un endomorfismo f : V −→ V. Dimostrazione

Se f e` un endomorfismo di V allora si ha:

1. ϕ(x1 + x2 , y) = (x1 + x2 ) · f (y) = x1 · f (y) + x2 · f (y) = ϕ(x1 , y) + ϕ(x2 , y), per ogni x1 , x2 , y ∈ V.

Forme Bilineari e Forme Quadratiche

390

2. ϕ(x, y1 + y2 ) = x · f (y1 + y2 ) = x · (f (y1 ) + f (y2 )) = x · f (y1 ) + x · f (y2 ) = ϕ(x, y1 ) + ϕ(x, y2 ), per ogni x, y1 , y2 ∈ V. 3. ϕ(λ x, y) = (λ x) · f (y) = λ(x · f (y)) = λ ϕ(x, y), per ogni x, y ∈ V e per ogni λ ∈ R. 4. ϕ(x, λy) = x · f (λy) = x · λf (y) = λ ϕ(x, y), per ogni x, y ∈ V e per ogni λ ∈ R. Quindi la funzione ϕ : V × V −→ R definita tramite (8.19) e` una forma bilineare. Viceversa, si consideri la relazione f : V −→ V definita tramite (8.19). f e` una funzione, infatti per ogni y in V esiste ed e` unico il vettore f (y) in quanto, fissato x in V, il secondo membro di (8.19) e` ben determinato. La verifica della linearit`a di f, del tutto analoga alla verifica appena effettuata della bilinerit`a della forma ϕ, e` lasciata per esercizio. Le forme bilineari simmetriche possono essere caratterizzate tramite un endomorfismo autoaggiunto (cfr. Def. 6.11) come afferma il seguente teorema. Teorema 8.26 Siano f : V −→ V l’endomorfismo della spazio vettoriale euclideo (V, · ) e ϕ la forma bilineare su V definiti tramite la relazione (8.19), f e` un endomorfismo autoaggiunto di V se e solo se la foma bilineare ϕ e` simmetrica. Dimostrazione

Se f e` un endomorfismo autoaggiunto di V si ha: ϕ(x, y) = x · f (y) = y · f (x) = ϕ(y, x),

x, y ∈ V.

Il viceversa e` analogo ed e` lasciato per esercizio. Il teorema che segue, e che conclude la trattazione proposta, mette in relazione la matrice associata ad una forma bilineare simmetrica rispetto ad una base dello spazio vettoriale su cui essa e` definita con la matrice associata all’endomorfismo autoaggiunto, ottenuto tramite la forma bilinere simmetrica mediante (8.19), rispetto alla stessa base. Teorema 8.27 1. Sia ϕ una forma bilineare simmetrica definita su uno spazio vettoriale euclideo (V, · ) di dimensione n e sia B una base ortonormale di V. La matrice simmetrica A associata a ϕ rispetto alla base B coincide con la matrice associata, rispetto alla base B, all’endomorfismo autoaggiunto f di V definito tramite la relazione (8.19).

Capitolo 8

391

2. Sia ϕ una forma bilineare simmetrica definita su uno spazio vettoriale V di dimensione n, si indichi con A la matrice associata a ϕ rispetto ad una base B di V. Se si considera su V il prodotto scalare che rende ortonormale la base B, allora la relazione (8.19) definisce un endomorfismo autoaggiunto f (autoaggiunto rispetto al prodotto scalare appena introdotto) tale che la matrice ad esso associata, rispetto alla base B, sia A. Dimostrazione Le dimostrazioni delle due parti del teorema sono analoghe e sono e` conseguenza della relazione: ϕ(x, y) = tXAY = x · f (y) = tXBY, che esprime in forma matriciale la formula (8.19) scritta rispetto ad una base ortonormale, dove con X e Y si indicano le matrici colonne delle componenti dei vettori x e y rispetto alla base B, con A la matrice associata a ϕ, rispetto alla base B e con B la matrice associata ad f, rispetto a B. Nell’esercizio proposto di seguito si intende evidenziare che una matrice simmetrica non e` necessariamente associata ad un endomorfismo autaggiunto, infatti la relazione tra la simmetria di una matrice e un endomorfismo autoaggiunto e` legata al prodotto scalare che si sta considerando. Si conclude il paragrafo determinando, quindi, tutte le matrici associate ad un endomorfismo autoaggiunto, qualunque sia la base dello spazio vettoriale euclideo su cui esso e` definito. Esercizio 8.19 1. Verificare che la forma bilineare simmetrica ϕ : R2 × R2 −→ R, con matrice associata A rispetto alla base canonica B = (e1 , e2 ) di R2 data da:   2 −1 A= , −1 1 e` un prodotto scalare su R2 . 2. Dopo aver controllato che l’endomorfismo f di R2 con matrice associata B rispetto alla base canonica di R2 data da:   1 2 B= 2 1 non e` autoaggiunto (rispetto al prodotto scalare definito in 1.), determinare la matrice associata all’endomorfismo g aggiunto di f, rispetto alla base B. Soluzione 1. La forma bilineare simmetrica ϕ e` un prodotto scalare in quanto i due autovalori della matrice A sono entrambi positivi.

392

Forme Bilineari e Forme Quadratiche

2. Affinch´e f sia autoaggiunto rispetto al prodotto scalare ϕ deve valere la seguente relazione: ϕ(f (x), y) = ϕ(x, f (y)), x, y ∈ R2 . Ponendo x = e1 e y = e2 si verifica che ϕ(f (e1 ), e2 ) = 1 invece ϕ(e1 , f (e2 )) = 3 quindi f non e` autoaggiunto rispetto al prodotto scalare ϕ. L’endomorfismo g di R2 aggiunto di f deve verificare la relazione: ϕ(f (x), y) = ϕ(x, g(y)),

x, y ∈ R2 ,

da cui segue che la matrice C associata a g, rispetto alla base B e` :   3 0 C= . 6 −1

Teorema 8.28 Sia V uno spazio vettoriale reale di dimensione n su cui e` definito un prodotto scalare ϕ a cui e` associata la matrice simmetrica A ∈ Rn,n rispetto ad una base B di V. La matrice B ∈ Rn,n associata ad un endomorfismo f di V autoaggiunto rispetto al prodotto scalare ϕ, ossia tale che: ϕ(f (x), y) = ϕ(x, f (y)),

x, y ∈ V,

(8.20)

rispetto alla base B, verifica la relazione: t

B A = A B.

La dimostrazione del Teorema 8.28 e` un esercizio, e` infatti sufficiente esprimere la formula (8.20) in componenti. E` evidente che se la forma bilineare ϕ e` scritta in forma normale, ossia A = I, con I matrice unit`a di Rn,n , allora la matrice B e` simmetrica. Si lascia anche per esercizio la determinazione di tutti gli altri casi in cui la matrice B e` simmetrica.

8.8.2

Forme bilineari simmetriche e spazio vettoriale duale

Dal Teorema 6.19 si ottiene che uno spazio vettoriale reale V di dimensione finita e` isomorfo al suo spazio vettoriale duale V ∗ . L’isomorfismo tra i due spazi vettoriali non e` per`o canonico, perch´e per definirlo occorre effettuare la scelta di una base di V, infatti scelte diverse di basi determinano isomorfismi diversi. In questo paragrafo si dimostra come si possa introdurre un isomorfismo canonico tra V e il suo duale V ∗ tramite una forma bilineare simmetrica non degenere.

Capitolo 8

393

Ogni forma bilineare ϕ su uno spazio vettoriale reale V definisce una coppia di applicazioni lineari f1 , f2 : V −→ V ∗ da V nel suo duale V ∗ (cfr. Def. 6.12), nel modo seguente: f1 (x)(y) = ϕ(x, y), (8.21) f2 (x)(y) = ϕ(y, x), x, y ∈ V. L’Osservazione 8.1 garantisce che f1 (x) e f2 (x) sono forme lineari su V, in quanto f1 (x)(y) = ϕx (y) e f2 (x)(y) = ϕy (x). Viceversa, e` un facile esercizio verificare che ogni applicazione lineare f : V −→ V ∗ definisce una forma bilineare ϕ su V ponendo: ϕ(x, y) = f (x)(y).

(8.22)

Se ϕ e` una forma bilineare simmetrica, allora le due applicazioni lineari f1 , f2 definite da (8.21) coincidono con l’applicazione lineare f definita da (8.22), inoltre: f (x)(y) = f (y)(x),

x, y ∈ V.

Nel caso particolare delle forme bilineari simmetriche non degeneri vale il seguente teorema. Teorema 8.29 Sia V uno spazio vettoriale reale di dimensione n. Ogni forma bilineare simmetrica non degenere ϕ su V determina un isomorfismo f : V −→ V ∗ , definito da (8.22). Viceversa, ogni isomorfismo f : V −→ V ∗ definisce mediante (8.22) una forma bilineare simmetrica non degenere ϕ su V . Dimostrazione Per dimostrare il teorema e` sufficiente provare che, se ϕ e f sono legati tra di loro dalla relazione (8.22), allora ker ϕ = ker f . Infatti se x ∈ ker ϕ, allora ϕ(x, y) = 0 per ogni y ∈ V, quindi f (x)(y) = 0, per ogni y ∈ V , ossia f (x) e` la forma lineare nulla, pertanto x ∈ ker f . Analogamente, si prova che se x ∈ ker f , allora x ∈ ker ϕ.

8.8.3

Altri metodi di classificazione di una forma quadratica

Poich´e le matrici associate alla stessa forma bilineare simmetrica non sono tutte simili tra di loro, il calcolo degli autovalori non e` l’unico metodo per classificare una forma quadratica, come gi`a osservato nell’Esercizio 8.13. In questo paragrafo si introdurranno due metodi diversi per classificare una forma quadratica che non si basano sul procedimento di diagonalizzazione di una matrice associata, infatti nel primo metodo si utilizza il calcolo dei minori mentre per il secondo si procede con una opportuna riduzione per righe e per colonne.

394

Forme Bilineari e Forme Quadratiche

Il concetto di minore di ordine k < n di una matrice A ∈ Rn,n e` stato introdotto nella Definizione 2.11 ed e` il determinante di una sottomatrice (quadrata) di ordine k di A. Definizione 8.16 Sia A ∈ S(Rn,n ) una matrice simmetrica. I minori principali di ordine k (k < n) di A sono i minori che si ottengono considerando sottomatrici formate da k righe e dalle corrispondenti k colonne. Il minore principale di ordine n coincide con det(A). I minori principali di Nord–Ovest (N.O.) di ordine k di una matrice simmetrica A sono i minori principali che si ottengono considerando le prime k righe (e di conseguenza le prime k colonne), vale a dire sono i minori che si ottengono cancellando le ultime n − k righe e le ultime n − k colonne. Esempio 8.22 Si consideri la matrice: 

 1 2 3 A =  2 1 2 , 3 2 2 i minori principali di ordine 1 di A sono gli elementi sulla diagonale principale (dati dall’intersezione della prima riga con la prima colonna, oppure seconda riga e seconda colonna, oppure terza riga e terza colonna): 1,

1,

2.

I minori principali di ordine 2 di A sono tre e sono i determinanti delle matrici ottenute dalla prima e seconda riga intersecate con la prima e seconda colonna, ossia cancellando la terza riga e la terza colonna, dalla prima e terza riga con la prima e terza colonna, cancellando quindi la seconda riga e la seconda colonna, dalla seconda e terza riga con la seconda e terza colonna, cancellando quindi la prima riga e la prima colonna, vale a dire: 1 2 1 3 1 2 2 1 = −3, 3 2 = −7, 2 2 = −2. Il minore principale di ordine 3 (tutte e tre le righe) e` det(A) = 5. I minori principali di N.O. sono invece soltanto: 1 2 = −3 (di ordine 2), det(A) = 5 (di ordine 3). 1 (di ordine 1), 2 1 Usando i minori principali di N.O. si pu`o pervenire agevolmente alla classificazione di una forma quadratica, come afferma il teorema che segue, per la sua dimostrazione si veda ad esempio [4].

Capitolo 8

395

Teorema 8.30 Sia V uno spazio vettoriale reale di dimensione n e B una base di V. Una forma quadratica Q(x) = tXAX su V con A matrice associata a Q rispetto alla base B e` : 1. definita positiva se e solo se tutti i minori principali di N.O. di A sono positivi; 2. definita negativa se e solo se tutti i minori principali di N.O. di A di ordine pari sono positivi e tutti i minori principali di N.O. di A di ordine dispari sono negativi; 3. semidefinita positiva se e solo se tutti i minori principali di A sono non negativi e det(A) = 0; 4. semidefinita negativa se e solo se tutti i minori principali di A di ordine pari sono non negativi, tutti i minori principali di A di ordine dispari sono non positivi e det(A) = 0; 5. indefinita se e solo se non si verifica alcuna delle situazioni precedenti. Esempio 8.23 Si consideri la forma quadratica su R3 , definita rispetto alla base canonica B = (e1 , e2 , e3 ) di R3 , da: Q(x) = 4x21 − 2x1 x2 + 2x22 + 2x2 x3 + 2x23 , con x = (x1 , x2 , x3 ). La matrice A associata alla forma quadratica Q rispetto alla base B e` :   4 −1 0 2 1 . A =  −1 0 1 2 I tre minori principali di N.O. sono 4, 7 e 10, quindi la forma quadratica Q e` definita positiva. Esempio 8.24 Si consideri la forma quadratica su R4 : Q(x) = 4x1 x2 + 2x22 + 2x2 x3 + x23 + 4x3 x4 + 2x24 , con x = (x1 , x2 , x3 , x4 ). La matrice A associata alla forma quadratica Q rispetto alla base canonica B = (e1 , e2 , e3 , e4 ) di R4 e` :   0 2 0 0  2 2 1 0   A=  0 1 1 2 . 0 0 2 2

396

Forme Bilineari e Forme Quadratiche

La forma quadratica Q e` indefinita, poich´e il minore principale di N.O. di ordine 1 (dato del determinante dell’intersezione della prima riga e della prima colonna) e` uguale a zero ed il minore principale di N.O. di ordine 2 e` negativo. Si pu`o agevolmente ridurre a forma canonica una forma quadratica anche con una tecnica che si basa sul metodo di riduzione delle matrici. A questo scopo e` necessario osservare che, in generale, la matrice B ottenuta da una matrice A mediante l’operazione di colonna: Ci −→ Ci + λCj , λ ∈ R, coincide con la matrice prodotto AEi dove Ei e` la matrice che si ottiene dalla matrice unit`a I sulla quale e` stata eseguita la medesima operazione di colonna. Analogamente la matrice B ottenuta da una matrice A mediante l’operazione di riga: Ri −→ Ri + λRj ,

λ ∈ R,

coincide con la matrice prodotto tEi A, La matrice tEi non e` altro che la matrice che si ottiene dalla matrice unit`a sulla quale e` stata eseguita la medesima operazione di riga. Con le usuali notazioni Ri e Ci si indicano, rispettivamente, le righe e le colonne della matrice A considerata. Esempio 8.25 Data la matrice A:  A=

1 2

2 3

 ,

mediante l’operazione di riduzione C2 −→ C2 − 2C1 si ottiene da essa la matrice:   1 0 B= . 2 −1 Operando la stessa operazione di riduzione alla matrice unit`a I si ottiene la matrice:   1 −2 E2 = . 0 1 Si verifica facilmente che AE2 = B. Ci`o premesso si eseguano contemporaneamente su una matrice simmetrica A le stesse operazioni sia per le righe sia per le colonne fino a ottenere una matrice diagonale D; le matrici A e D risultano allora legate dalla relazione: D = tEn . . . tE2 tE1 AE1 E2 . . . En = t (E1 E2 . . . En ) A( E1 E2 . . . En ).

(8.23)

Capitolo 8

397

Posto P = E1 E2 . . . En , si osserva che la matrice P si pu`o ottenere dalla matrice unit`a I sulla quale si siano eseguite, nell’ordine, le operazioni di colonna considerate. Se A e` la matrice associata ad una forma quadratica Q rispetto ad una base fissata, la formula (8.23) assicura che anche la matrice D e` associata alla stessa forma quadratica Q rispetto alla base che si ottiene applicando alla base iniziale la matrice del cambiamento di base P. La verifica che P sia una matrice invertibile e` un semplice esercizio. E` cos`ı possibile applicare il metodo appena descritto per classificare la forma quadratica Q. Esercizio 8.20 Si riduca a forma canonica la forma quadratica su R3 , definita rispetto alla base canonica di R3 da: Q(x) = 4x1 x2 + x22 − 2x1 x3 + 4x2 x3 , con x = (x1 , x2 , x3 ). Soluzione

Sulla matrice: 

 2 −1 1 2 , 2 0

0  2 A= −1

associata alla forma quadratica Q, rispetto alla base canonica di R3 , si operi come segue: 

0

2 −1



  2

1

 2 

−1

2

0



2

0 −1 1

 2 

−1

2

0

2

0

  0   0

1

0

1

−→   2 R1 → R1 − R3 −1

0 −1

 2 

2

0

2



 −→ 2   1  R3 → R3 − 2R2 2 − 2

2

  0   0

0

−→ C1 → C1 − C3

−1



 −→ 2   1  C3 → C3 + (1/2) C1 2 − 2   0 0 2 0 0   −→  0 1 0 1 2    9  C3 → C3 − 2 C2  9 0 − 0 0 − 2 2

 −→  0  R3 → R3 + (1/2) R1  0





1





  0





1

Una forma canonica di Q e` allora: Q(x) = 2y12 + y22 −

9 2 y 2 3

   . 

398

Forme Bilineari e Forme Quadratiche

dove (y1 , y2 , y3 ) sono le componenti di x rispetto alla base ottenuta tramite la matrice P nel modo seguente:    1  1 0 0 1 0 −→    2     C1 → C1 − C3   0 1 0   0 1 −2  = P.    C3 → C3 + (1/2) C1      1 C3 → C3 − 2 C2 −1 0 0 0 1 2 Attenzione al fatto che 2, 1, −9/2 non sono gli autovalori di A!

8.8.4

Il determinante come forma p-lineare

Estendendo in modo naturale la Definizione 8.1 si pu`o introdurre il concetto di forma p-lineare che conduce, in un caso particolare, alla definizione di determinante di una matrice quadrata. Questo approccio permette di dimostrare agevolmente le propriet`a dei determinanti elencate nel Paragrafo 2.8. Definizione 8.17 Sia V uno spazio vettoriale reale. Ogni applicazione: ϕ : |V × V × {z. . . × V} −→ R, p − volte lineare in ciascun argomento, prende il nome di forma p-lineare su V. Osservazione 8.28 La definizione precedente generalizza la definizione di forma bilineare (cfr. Def. 8.1). Esempio 8.26 Il prodotto misto di tre vettori nello spazio vettoriale V3 , definito come la funzione: V3 × V3 × V3 −→ R, (x, y, z) 7−→ x ∧ y · z (cfr. Def. 3.14) e` un esempio di forma trilineare su V3 . Il prodotto misto dei vettori dello spazio ordinario e` proprio l’esempio da cui trae spunto la definizione che segue. Definizione 8.18 Una forma p-lineare ϕ su uno spazio vettoriale reale V si dice antisimmetrica o alternata se: ϕ(x1 , . . . , xi , . . . , xj , . . . , xp ) = −ϕ(x1 , . . . , xj , . . . , xi , . . . , xp ), per ogni x1 , x2 , . . . , xp in V e per ogni i, j = 1, 2, . . . , p.

Capitolo 8

399

Si ottiene subito il seguente teorema. Teorema 8.31 Sia ϕ una forma p-lineare antisimmetrica su uno spazio vettoriale reale V. Se xi = xj , per una qualche scelta di i, j = 1, 2, . . . , p, allora ϕ(x1 , x2 , . . . , xp ) = 0. Esempio 8.27 Sia V uno spazio vettoriale di dimensione 2 con base B = (v1 , v2 ). Dati i vettori x1 = a11 v1 + a12 v2 , x2 = a21 v1 + a22 v2 , si vuole calcolare l’espressione di una forma bilineare antisimmetrica ϕ : R × R −→ R, utilizzando lo stesso metodo introdotto nel Paragrafo 8.1.1 per le forme bilineari simmetriche, ossia si ha: ϕ(x1 , x2 ) =

=

a11 a12



ϕ(v1 , v1 ) ϕ(v1 , v2 )

!

ϕ(v2 , v1 ) ϕ(v2 , v2 ) a11 a12

0

ϕ(v1 , v2 )

−ϕ(v1 , v2 )

0



a21 a22

!



a21 a22



= (a11 a22 − a12 a21 )ϕ(v1 , v2 ) a a = 11 12 a21 a22

ϕ(v1 , v2 ).

In pratica, il valore di ϕ(x1 , x2 ) e` determinato dal suo valore sugli elementi della base ϕ(v1 , v2 ), mentre il coefficiente moltiplicativo e` il determinante della matrice avente come righe le componenti dei vettori. Si osservi inoltre che la matrice: 0

ϕ(v1 , v2 )

−ϕ(v1 , v2 )

0

!

e` la matrice associata alla forma bilineare antisimmetrica ϕ rispetto alla base B e si osservi anche che e` una matrice antisimmetrica. La situazione descritta nell’esempio precedente si ripete nel caso di dim(V ) = n, come afferma il teorema seguente, la cui dimostrazione, solo un lungo calcolo, e` lasciata al Lettore per esercizio. Teorema 8.32 Sia V uno spazio vettoriale reale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Dati i vettori:

400

Forme Bilineari e Forme Quadratiche

x1 = a11 v1 + a12 v2 + . . . + a1n vn , x2 = a21 v1 + a22 v2 + . . . + a2n vn , .. . xn = an1 v1 + an2 v2 + . . . + ann vn e la forma n-lineare antisimmetrica: ϕ : |V × V × {z. . . × V} −→ R, n − volte allora: ϕ(x1 , x2 , . . . , xn ) =

X

(σ)a1σ(1) a2σ(2) . . . anσ(n) ϕ(v1 , v2 , . . . , vn ),

(8.24)

σ

dove σ e` una permutazione di (1, 2, . . . , n) e (σ) il suo segno. Di conseguenza ogni forma n-lineare antisimmetrica ϕ sullo spazio vettoriale V e` univocamente determinata dal valore ϕ(v1 , v2 , . . ., vn ). Vale anche il reciproco del teorema precedente, la cui dimostrazione e` di nuovo un lungo calcolo lasciato per esercizio. Teorema 8.33 Sia V uno spazio vettoriale di dimensione n e sia B = (v1 , v2 , . . . , vn ) una sua base. Dato un numero reale λ, esite ed e` unica la forma n-lineare antisimmetrica ϕ su V tale che ϕ(v1 , v2 , . . . , vn ) = λ. Se V e` uno spazio vettoriale reale di dimensione n con base B = (v1 , v2 , . . . , vn ) si pu`o enunciare la definizione di determinante in questo modo. Definizione 8.19 Si dice determinante degli n vettori x1 , x2 , . . . , xn di uno spazio vettoriale reale V di dimensione n rispetto alla base B = (v1 , v2 , . . . , vn ) il numero reale ϕ(x1 , x2 , . . . , xn ) tale che ϕ(v1 , v2 . . . , vn ) = 1. Esempio 8.28 Se si considera lo spazio ordinario V3 con una base ortonormale positiva B = (i, j, k), allora il determinante dei tre vettori x, y, z coincide con il loro prodotto misto: det(x, y, z) = x ∧ y · z, x, y, z ∈ V3 , in quanto i ∧ j · k = 1, per definizione di base ortonormale positiva.

Capitolo 8

401

Se si considerano le componenti degli n vettori x1 , x2 , . . . , xn dello spazio vettoriale reale V rispetto alla base B = (v1 , v2 , . . . , vn ) si ottiene una matrice A = (aij ) di Rn,n , i cui vettori riga sono: x1 = (a11 , . . . , a1n ), x2 = (a21 , . . . , a2n ), .. . xn = (an1 , . . . , ann ), si dimostra facilmente che la Definizione 8.19 di determinante degli n vettori coincide con la definizione di determinante della matrice A che e` stata enunciata nel Capitolo 2 (cfr. Def. 2.9). Infatti, data una matrice A ∈ Rn,n , il det(A) e` stato definito come: X (σ)a1σ(1) a2σ(2) . . . anσ(n) , det(A) = σ

dove σ e` una permutazione di (1, 2, . . . , n) e (σ) il suo segno. Se si considerano gli n vettori riga x1 , x2 , . . . xn della matrice A, si pu`o quindi osservare che: det(A) = ϕ(x1 , x2 , . . . , xn ), dove ϕ e` la forma n-lineare antisimmetrica su Rn tale che: ϕ(e1 , e2 , . . . , en ) = det(I) = 1 con (e1 , e2 , . . . , en ) base canonica di Rn . Data la Definizione 8.19 si dimostra il teorema di seguito enunciato, gi`a noto dal Capitolo 4, in cui era stato ottenuto come conseguenza della relazione dim(L(x1 , x2 , . . . , xn )) = dim(R(A)) = rank(A). Teorema 8.34 Sia V uno spazio vettoriale reale di dimensione n. Dati n vettori di V, x1 , x2 , . . . , xn , essi sono linearmente indipendenti se e solo se il loro determinante relativo ad una qualsiasi base B = (e1 , e2 , . . . , en ) di V e` diverso da zero. Dimostrazione Se gli n vettori x1 , x2 , . . . , xn sono linearmente dipendenti, allora si pu`o provare che il determinante degli n vettori si annulla. Questo fatto vale pi`u in generale per ogni forma n-lineare antisimmetrica ϕ, infatti, poich´e i vettori x1 , x2 , . . . , xn sono linearmente dipendenti, allora almeno uno di essi, per esempio x1 , e` combinazione lineare degli altri vettori, si ponga: x 1 = α 2 x 2 + . . . + α n xn ,

Forme Bilineari e Forme Quadratiche

402

con αi ∈ R e quindi: ϕ(x1 , x2 , . . . , xn ) = α2 ϕ(x2 , x2 , . . . , xn ) + . . . + αn ϕ(xn , x2 , . . . , xn ) = 0. E` stato cos`ı dimostrato che, se il determinante degli n vettori x1 , x2 , . . . , xn non si annulla, allora gli n vettori sono linearmente indipendenti. Viceversa, si supponga che l’insieme {x1 , x2 , . . . , xn } sia libero e che per assurdo il loro determinante sia uguale a zero. Poich´e (x1 , x2 , . . . , xn ) e` una base di V, si possono scrivere i vettori della base B = (e1 , e2 , . . . , en ) di V come combinazioni lineari di x1 , x2 , . . . , xn :    e1 = b11 x1 + b12 x2 + . . . + b1n xn ,    e2 = b21 x1 + b22 x2 + . . . + b2n xn , ..   .    en = bn1 x1 + bn2 x2 + . . . + bnn xn . Per definizione di determinante relativo alla base (e1 , e2 , . . . , en ) si avrebbe: X det(e1 , . . . , en ) = 1 = (σ)b1σ(1) . . . bnσ(n) det(x1 , . . . , xn ) σ

e quindi si ottiene una contraddizione. Dalla Definizione 8.19 e` finalmente possibile dimostrare agevolmente la Formula di Binet relativa al determinante del prodotto di due matrici (cfr. Teor. 2.16). Teorema 8.35 Se A, B ∈ Rn,n , allora det(AB) = det(A) det(B). Dimostrazione Sia V uno spazio vettoriale reale di dimensione n con base B = (e1 , e2 , . . . , en ). Date le matrici A = (aij ) e B = (bij ) di Rn,n , si considerino i vettori riga della matrice B :  v1 = b11 e1 + b12 e2 + . . . + b1n en ,      v2 = b21 e1 + b22 e2 + . . . + b2n en , ..   .    vn = bn1 e1 + bn2 e2 + . . . + bnn en ed i vettori:

 u1 = a11 v1 + a12 v2 + . . . + a1n vn ,      u2 = a21 v1 + a22 v2 + . . . + a2n vn , ..   .    un = an1 v1 + an2 v2 + . . . + ann vn ,

Capitolo 8

403

che non corrispondono ai vettori riga della matrice A. Sia ϕ la forma n-lineare alternata tale che ϕ(e1 , e2 , . . . , en ) = 1. Per definizione di deteminante si ha: ϕ(v1 , v2 , . . . , vn ) = det(B) ϕ(e1 , e2 , . . . , en ) = det(B), ϕ(u1 , u2 , . . . , un ) = det(A) ϕ(v1 , v2 , . . . , vn ), da cui si ottiene: ϕ(u1 , u2 , . . . , un ) = det(A) det(B). Se si esprimono i vettori u1 , u2 , . . . , un come combinazioni lineari dei vettori della base B: n X ui = cik ek , i = 1, 2, . . . , n, k=1

e si ricavano le espressioni dei coefficienti cik in termini di aij e bij , si ha: cik =

n X

aij bjk ,

i, k = 1, 2, . . . , n,

j=1

che e` esattamente l’elemento di posto ik del prodotto delle due matrici A e B . Quindi segue: ϕ(u1 , u2 , . . . , un ) = det(AB)ϕ(e1 , e2 , . . . , en ) = det(AB), ossia la tesi.

404

Forme Bilineari e Forme Quadratiche

Capitolo 9 Geometria Analitica nel Piano Scopo della Geometria Analitica e` la rappresentazione, tramite equazioni, di luoghi geometrici del piano e dello spazio. In questo capitolo si presenta un rapido riassunto della geometria analitica del piano, cercando di evidenziarne le caratteristiche salienti mediante l’uso del calcolo vettoriale, trattato nel Capitolo 3, a cui si far`a costante riferimento. Gli argomenti di seguito esposti fanno parte dei programmi delle scuole secondarie superiori, anche se in quella sede, non sono in generale introdotti con il metodo qui usato. Per questo motivo, questo capitolo pu`o essere anche omesso nell’insegnamento di un corso universitario. D’altra parte per`o l’approccio della geometria analitica nel piano tramite il calcolo vettoriale sar`a fondamentale nello studio della geometria analitica nello spazio (cfr. Cap. 11). Vengono, inoltre, definiti due tipi di sistemi di riferimento nel piano: il riferimento cartesiano ed il riferimento polare. Il loro uso sar`a di primaria importanza in questo capitolo ed in quello successivo.

9.1

Il riferimento cartesiano, generalit`a

Si inizia con l’introduzione del riferimento cartesiano, costituito da due rette perpendicolari orientate nel piano affine S2 (cfr. introduzione del Cap. 3). Il loro punto di incontro O e` detto origine del riferimento, la retta orizzontale prende il nome di asse delle ascisse o asse x, la retta verticale e` l’asse delle ordinate o asse y . Si definisce l’orientamento verso destra sull’asse x e verso l’alto sull’asse y , si rappresentano i numeri reali su entrambe le rette e si pone il numero 0 nel punto di intersezione delle due rette. Si viene cos`ı a creare una corrispondenza biunivoca tra i punti del piano e le coppie di numeri reali come rappresentato nella Figura 9.1. La coppia ordinata di numeri reali (x, y) individua le coordiante cartesiane del punto P e si scrive: P = (x, y), 405

Geometria Analitica nel Piano

406

y

II

I P

x O

III

IV

Figura 9.1: Riferimento cartesiano

A

B

O

−→ Figura 9.2: Componenti del vettore AB

Capitolo 9

407

x e` l’ascissa di P e y e` l’ordinata di P. Il piano viene diviso in quattro regioni, dette quadranti, che, per convenzione, sono numerate in senso antiorario, a partire dal semiasse positivo delle x. Analogamente a quanto visto nel Paragrafo 3.1, se si indica con i il versore a cui e` parallelo l’asse x, concorde con l’orientamento di x, e con j il versore a −→ cui e` parallelo l’asse y , concorde con l’orientamento di y , il segmento orientato OP si pu`o ottenere come: −→ OP = xi + yj. (9.1) −→ Ad ogni punto P del piano affine S2 si associa in modo biunivoco il vettore x = OP dello spazio vettoriale euclideo di dimensione 2, con base ortonormale positiva B = (i, j), che verr`a indicato con V2 . Di conseguenza, S2 coincide con l’insieme dei vettori di V2 . Si stabilisce anche una corrispondenza biunivoca tra i punti P del piano e le componenti (x, y) del vettore x, scritte rispetto alla base ortonormale positiva B = (i, j). −→ Le componenti di un vettore x, con rappresentante il segmento orientato AB, che si pu`o anche scrivere come B −A, si possono ottenere in questo modo: B −A = (B −O)−(A−O) = (xB − xA )i + (yB − yA )j.

(9.2)

Se A o B coincidono con l’origine del riferimento, la relazione (9.2) si riduce a (9.1). La situazione geometrica e` illustrata nella Figura 9.2. Il riferimento cartesiano sar`a indicato con il simbolo R = (O, x, y) o equivalentemente, con R = (O, i, j), se si intende mettere in evidenza la base ortonormale positiva B = (i, j) a cui e` riferito. y B A

x O

Figura 9.3: Distanza tra i punti A e B

Geometria Analitica nel Piano

408

9.1.1

Distanza tra due punti

Dati due punti A = (xA , yA ), B = (xB , yB ) nel piano, la loro distanza d(A, B) si ottiene con la formula: p d(A, B) = (xB − xA )2 + (yB − yA )2 , (9.3) la cui dimostrazione e` una conseguenza evidente del Teorema di Pitagora, la situazione geometrica e` illustrata nella Figura 9.3. La distanza d(A, B), dal punto di vista del calcolo vettoriale, pu`o essere anche inter−→ pretata come la norma del vettore AB le cui componenti sono date da (9.2), quindi, la formula (9.3) segue dal calcolo della norma di un vettore mediante le sue componenti scritte rispetto ad una base ortonormale (cfr. Oss. 3.14). Esercizio 9.1 Calcolare le coordinate del punto P appartenente all’asse x ed equidistante dai punti A = (1, 3), B = (5, 1). Soluzione Il punto P appartiene all’asse x se ha ordinata uguale a 0, ossia P = (x, 0), imponendo d(A, P ) = d(B, P ) si ha: (x − 1)2 + 32 = (x − 5)2 + 12 da cui segue x = 2.

9.1.2

Punto medio di un segmento

Dati due punti A = (xA , yA ), B = (xB , yB ), il punto medio M del segmento AB e` :   xA + xB y A + y B , . M= 2 2 Ad esempio il punto medio del segmento di estremi i punti A = (2, 2) e B = (0, −6) e` il punto M = (1, −2).

9.1.3

Baricentro di un triangolo

Dati tre punti A = (xA , yA ), B = (xB , yB ), C = (xC , yC ) non allineati, il baricentro G del triangolo da essi individuato e` :   xA + xB + xC y A + y B + y C G= , . 3 3 Questa formula pu`o essere dimostrata con considerazioni geometriche elementari, a partire dalla Figura 9.4 oppure si pu`o ottenere come conseguenza della Definizione 11.1.

Capitolo 9

409

5

C

4 3 2 1 -1

O

A

G 1

2

3

4

5

7

6

-1

B

-2 -3

Figura 9.4: Baricentro del triangolo ABC

9.2

Luoghi geometrici del piano

L’insieme dei punti del piano che verificano una determinata propriet`a costituisce un luogo geometrico. In questo paragrafo si descrivono due luoghi geometrici del piano: l’asse di un segmento e la circonferenza. Si rimanda al Capitolo 9 del Volume II, per lo studio di altri luoghi geometrici del piano. Esempio 9.1 – Asse di un segmento – Dati due punti distinti nel piano A = (xA , yA ), B = (xB , yB ), l’asse del segmento AB e` il luogo geometrico dei punti P = (x, y) equidistanti da A e da B . Quindi dalla relazione d(A, P ) = d(B, P ) segue: (x − xA )2 + (y − yA )2 = (x − xB )2 + (y − yB )2 , da cui: 2(xA − xB )x + 2(yA − yB )y + x2B + yB2 − x2A − yA2 = 0, che e` l’equazione del luogo richiesto. Si osservi che si tratta di un’equazione di primo grado in x e y e si osservi anche che, dal punto di vista geometrico, l’asse di un segmento e` la retta perpendicolare al segmento nel suo punto medio M, come rappresentato nella Figura 9.5. Si ritorner`a su questo argomento nel Paragrafo 9.9. Esempio 9.2 – La circonferenza – La circonferenza di centro C e raggio r e` il luogo dei punti P = (x, y) del piano aventi distanza r ≥ 0 dal punto C = (α, β). Imponendo: d(P, C)2 = r2

410

Geometria Analitica nel Piano

A

M

B

Figura 9.5: Asse del segmento AB

r C

Figura 9.6: Circonferenza di centro C e raggio r

Capitolo 9

411

si ottiene: x2 + y 2 − 2αx − 2βy + α2 + β 2 − r2 = 0. Si tratta di una particolare equazione di secondo grado in x e y che sar`a studiata in dettaglio nel Paragrafo 10.1. Ricordando che il gruppo delle matrici unitarie U (1) (cfr. Es. 5.22) e` definito da: U (1) = {z ∈ C | |z| = 1} ed usando l’identificazione tra i numeri complessi ed il punti del piano data da: z = x + iy = (x, y),

z ∈ C,

segue che gli elementi di U (1) costituiscono la circonferenza nel piano di centro l’origine e raggio 1.

Pu`o rivelarsi molto pi`u complicato il problema inverso, vale a dire, data un’equazione in x e y, studiare il luogo geometrico individuato dai punti P = (x, y) che la verificano. A tale scopo si procede proponendo una serie di esempi ed esercizi. Esercizio 9.2 Verificare che la curva di equazione: y = −x2 + x + 3

(9.4)

passa per i punti A = (−1, 1), B = (2, 1), non passa per O = (0, 0) e nemmeno per C = (5, 0). Soluzione Un punto appartiene al luogo geometrico descritto dall’equazione (9.4) se e solo se le sue coordinate verificano l’equazione stessa. Quindi A appartiene alla curva data perch´e −1 − 1 + 3 = 1, verifica analoga per B . L’origine, invece, non appartiene a questa curva perch´e 3 6= 0, analoga verifica per C. Esercizio 9.3 Come si fa a capire se l’origine del sistema di riferimento appartiene ad un luogo geometrico? Soluzione Dalle considerazioni precedenti segue che tutte e sole le equazioni in x, y con termine noto uguale a zero rappresentano luoghi geometrici passanti per l’origine. Per esempio x2 + 2x = 0 e` una curva passante per O. Esercizio 9.4 Determinare i punti P = (a, a + 3), a ∈ R, appartenenti alla curva di equazione: 2y 2 − 9(x + 2) = 0. (9.5)

Geometria Analitica nel Piano

412

Soluzione

Sostituendo le coordinate di P nell’equazione (9.5) si ha: 2(a + 3)2 − 9(a + 2) = 0

da cui segue a = −3/2 o a = 0. Quindi si ottengono i punti:   3 3 P1 = (0, 3), P2 = − , . 2 2

9.3

Riferimento polare

Per rappresentare i punti nel piano si possono usare, oltre alle coordinate cartesiane, altri tipi di coordinate, tra cui le coordinate polari, la scelta del sistema di riferimento e` legata alla problematica che si sta studiando. Si intende, quindi, introdurre la nozione di riferimento polare nel piano, che e` un sistema di riferimento alternativo al riferimento cartesiano per individuare la posizione dei punti nel piano. Esso e` costituito da un punto O, detto polo, e da una semiretta orientata uscente da O, detta asse polare. E` chiaro che ogni punto P del piano (ad eccezione del polo) si pu`o individuare mediante la sua distanza ρ = d(P, O) dal polo e mediante la misura dell’angolo θ, detto anomalia, che il segmento OP forma con l’asse polare, con le condizioni ρ ≥ 0 e 0 ≤ θ < 2π . Tale distanza ρ prende il nome di raggio vettore. Riassumendo ogni punto del piano, ad eccezione del polo, e` individuato da una sola coppia di numeri: P = (ρ, θ), ρ ≥ 0, 0 ≤ θ < 2π, che ne costituiscono le sue coordinate polari nel piano. La situazione geometrica e` illustrata nella Figura 9.7. Per esempio√la circonferenza di centro il polo e raggio 2 ha equazione, in coordinate polari, ρ = 2. Si vogliono ora individuare le relazioni che legano le coordinate polari e le coordinate cartesiane di uno stesso punto rispetto ad un riferimento polare e ad un riferimento cartesiano opportunamente posizionati. Introducendo, infatti, un sistema di riferimento cartesiano R = (O, x, y) avente l’origine O coincidente con il polo e l’asse x con l’asse polare, si perviene, facilmente, alle formule di passaggio dalle coordinate polari (ρ, θ) a quelle cartesiane (x, y) di un generico punto P del piano, e precisamente:  x = ρ cos θ (9.6) y = ρ sin θ, ρ ≥ 0, 0 ≤ θ < 2π. La situazione geometrica e` illustrata nella Figura 9.8.

Capitolo 9

P Ρ Θ O

Figura 9.7: Coordinate polari nel piano

P Ρ

y

Θ x

Figura 9.8: Coordinate polari e coordinate cartesiane del punto P

413

414

Geometria Analitica nel Piano

Le limitazioni imposte a ρ e a θ possono causare inconvenienti nello studio di determinati fenomeni, dovuti, in particolare, al brusco passaggio di θ dal valore pi`u vicino a 2π o a 0. Per evitare questo problema, conviene introdurre le coordinate polari generalizzate nel modo seguente. Se P e` un punto di coordinate polari (ρ, θ) e` chiaro che le coppie di numeri reali (−ρ, θ + π) e (ρ, θ + 2π) corrispondono dal punto di vista geometrico, allo stesso punto P. Si pu`o quindi associare allo stesso punto P un insieme di coordinate polari tra di loro equivalenti e scrivere: P = ((−1)k ρ, θ + kπ),

k ∈ Z,

che prendono il nome di coordinate polari generalizzate del punto P del piano.

9.4

Traslazione degli assi

Un altro metodo che pu`o essere utile nello studio dei luoghi geometrici e` quello di scrivere l’equazione del luogo in un nuovo sistema di riferimento ottenuto mediante una traslazione degli assi.

y Y

P O'

X

O

x

Figura 9.9: Traslazione degli assi Nel riferimento R = (O, x, y) si definiscono una nuova origine nel punto O0 = (x0 , y0 ) e i nuovi assi X e Y, passanti per O0 , paralleli e concordi a x e a y . Si ottiene cos`ı un nuovo riferimento cartesiano R0 = (O0 , X, Y ) che e` traslato rispetto al precedente. Si vogliono determinare le relazioni che legano le coordinate di un generico punto P del piano rispetto ai due riferimenti. Sia P = (x, y) nel riferimento R e P = (X, Y ) nel

Capitolo 9

riferimento R0 . Dalla Figura 9.9 segue:  x = X + x0 y = Y + y0 ,

415

(9.7)

oppure: 

X = x − x0 Y = y − y0 .

Si consideri, per esempio, il punto O0 = (1, 2) e le equazioni della traslazione dal riferimento R0 al riferimento R: 

x=X +1 y = Y + 2,

da cui si deduce che l’asse X, rispetto al riferimento R, ha equazione y = 2 e l’asse Y ha equazione x = 1. Si osservi che nel riferimento R = (O, x, y) e nel riferimento traslato R0 = (O0 , X, Y ) la base ortonormale positiva B = (i, j) che li determina non cambia. In altri termini la traslazione di assi non induce alcun cambiamento di base in V2 . Esercizio 9.5 Data la curva di equazione: 9x2 + 9y 2 − 24x − 30y − 13 = 0,

(9.8)

determinare la sua equazione nel riferimento traslato R0 = (O0 , X, Y ), dove:   4 5 0 , . O = 3 3 Soluzione

Le equazioni della traslazione da R0 a R sono:  4    x=X+ 3  5   y=Y + , 3

che sostituite nell’equazione assegnata portano a: X 2 + Y 2 = 6. Adesso e` chiaro che l’equazione (9.8) √ rappresenta una circonferenza di centro l’origine 0 O del nuovo riferimento e raggio 6.

Geometria Analitica nel Piano

416

Esercizio 9.6 Un punto P ha coordinate (−2, 3) nel riferimento R = (O, x, y) e coordinate (4, −6) nel riferimento traslato R = (O0 , X, Y ). Determinare le coordinate del punto O0 rispetto al sistema di riferimento R = (O, x, y). Soluzione

Sostituendo le coordinate di P in (9.7) si ha:  −2 = 4 + x0 3 = −6 + y0

da cui segue O0 = (−6, 9). Esercizio 9.7 Determinare la traslazione con cui si deve operare sugli assi affinch´e l’equazione: y = −x2 + 3x − 2 si trasformi in: Y = −X 2 . Soluzione

Sostituendo (9.7) nella prima equazione si ha: Y = −X 2 + (−2x0 + 3)X − x20 + 3x0 − 2 − y0 ,

da cui segue: 

−2x0 + 3 = 0 x20 − 3x0 + 2 + y0 = 0

quindi x0 = 3/2, y0 = 1/4. Esercizio 9.8 Operando con il metodo del completamento dei quadrati, individuare un’opportuna traslazione che permetta di studiare la curva di equazione: x2 + y 2 + 2x + 3y = 0. Soluzione Applicando il metodo del completamento dei quadrati (cfr. Esercizio 8.13) in questo caso, si ha:   9 9 2 2 (x + 2x + 1) + y + 3y + − 1 − = 0, 4 4  2 3 13 2 (x + 1) + y + = . 2 4

Capitolo 9

Tramite la traslazione:

417

   X =x+1

  Y =y+3 2 si ottiene, nel nuovo riferimento, l’equazione: X2 + Y 2 =

13 4

che quindi rappresenta la circonferenza di centro O0 =

9.5



3 −1, − 2



 e raggio

13 . 2

Simmetrie

Un altro metodo per studiare il grafico di una curva, di cui si conosce l’equazione, e` cercarne le eventuali simmetrie rispetto agli assi coordinati o rispetto all’origine del riferimento.

y

P'

P

Figura 9.10: Curva simmetrica rispetto all’asse delle ordinate

9.5.1

Curva simmetrica rispetto all’asse delle ordinate

Una curva e` simmetrica rispetto all’asse y se per ogni punto P = (x, y) appartenente alla curva anche il punto P 0 = (−x, y) appartiene alla curva. Per esempio la curva di equazione x2 + y + 5 = 0 e` simmetrica rispetto all’asse y mentre la curva di equazione x2 + x + y + 5 = 0 non lo e` . La situazione geometrica e` illustrata nella Figura 9.10.

418

9.5.2

Geometria Analitica nel Piano

Curva simmetrica rispetto all’asse delle ascisse

Una curva e` simmetrica rispetto all’asse x se per ogni punto P = (x, y) appartenente alla curva anche il punto P 0 = (x, −y) appartiene alla curva. Per esempio la curva di equazione x + y 2 + 5 = 0 e` simmetrica rispetto all’asse x mentre la curva di equazione x + y + 5 = 0 non lo e` . La situazione geometrica e` illustrata nella Figura 9.11.

P x

P' Figura 9.11: Curva simmetrica rispetto all’asse delle ascisse

9.5.3

Curva simmetrica rispetto all’origine

Una curva e` simmetrica rispetto all’origine del riferimento se per ogni punto P = (x, y) appartenente alla curva anche il punto P 0 = (−x, −y) appartiene alla curva. Per esempio la curva di equazione x2 + y 2 = 5 e` simmetrica rispetto all’origine mentre la curva di equazione x2 + x + y + 5 = 0 non lo e` . La situazione geometrica e` illustrata nella Figura 9.12. Esercizio 9.9 Verificare che la curva di equazione x3 + y 3 + 3x − 2y = 0 e` simmetrica rispetto all’origine. Soluzione Si sostituiscono le coordinate del punto P 0 = (−x, −y) nell’equazione della curva e si ha: (−x)3 + (−y)3 + 3(−x) − 2(−y) = −(x3 + y 3 + 3x − 2y) = 0, da cui si deduce che la curva assegnata e` simmetrica rispetto all’origine. Pi`u in generale, come spiegato nell’esercizio che segue, si pu`o considerare la simmetria rispetto ad un punto qualsiasi del piano.

Capitolo 9

419

P

P'

Figura 9.12: Curva simmetrica rispetto all’origine Esercizio 9.10 Verificare che la curva di equazione: 4x2 + 9y 2 + 8x + 36y − 68 = 0

(9.9)

e` simmetrica rispetto al punto C = (−1, −2).

C

Figura 9.13: Esercizio 9.10 Soluzione Il problema si risolve traslando la curva nel riferimento R0 = (C, X, Y ) e poi dimostrando che l’equazione ottenuta e` simmetrica rispetto all’origine. Le equazioni della traslazione sono:  x=X −1 y =Y −2 e, se sostituite in (9.9), portano a:

420

Geometria Analitica nel Piano

4X 2 + 9Y 2 = 108 che definisce una curva simmetrica rispetto all’origine del riferimento R0 = (C, X, Y ), si tratta dell’ellisse rappresentato in Figura 9.13.

9.6

Retta nel piano

In questo paragrafo sono descritti metodi diversi per rappresentare una retta nel piano rispetto ad un riferimento cartesiano R = (O, x, y), o equivalentemente R = (O, i, j). Una retta r nel piano si pu`o individuare, alternativamente, assegnando: 1. un punto P0 della retta r ed un vettore r non nullo parallelo a r; 2. un punto P0 della retta r ed un vettore n non nullo ortogonale a r; 3. due punti distinti A e B della retta r. In particolare si dimostrer`a che ogni equazione lineare in x e y del tipo ax + by + c = 0, con a, b, c ∈ R, (a, b) 6= (0, 0), rappresenta una retta. Viceversa ogni retta del piano e` rappresentabile tramite un’equazione lineare in x, y del tipo suddetto.

r P P0

Figura 9.14: Retta passante per il punto P0 e parallela al vettore r

Capitolo 9

9.6.1

421

Retta per un punto parallela ad un vettore

Sia r la retta passante per il punto P0 parallela ad un vettore r 6= o. Un punto P −−→ appartiene alla retta r se e solo se il vettore P0 P e` parallelo al vettore r (cfr. Fig. 9.14). Risulta: −−→ r = {P ∈ S2 | P0 P = t r, t ∈ R}, ossia: r : P = P0 + t r,

t ∈ R.

(9.10)

La relazione (9.10) e` detta equazione vettoriale parametrica di r mentre t ∈ R e` il parametro al variare del quale P descrive la retta r. Siano P0 = (x0 , y0 ) e P = (x, y) i punti P0 e P, le cui coordinate sono espresse rispetto al riferimento cartesiano R = (O, x, y), siano (l, m) le componenti del vettore r relative alla base ortonormale positiva B = (i, j) individuata da R. L’equazione (9.10) equivale a: 

x = x0 + lt y = y0 + mt,

(9.11)

t ∈ R,

che sono le equazioni parametriche di r, le componenti (l, m) del vettore r prendono il nome di parametri direttori di r. Osservazione 9.1 Siano (l, m) i parametri direttori di una retta r, allora: 1. (l, m) 6= (0, 0) e sono individuati a meno di un fattore moltiplicativo. In altri termini, fissato il punto P0 ogni vettore non nullo parallelo al vettore r individua la retta r. 2. Se l = 0 (o m = 0) la retta r e` parallela all’asse y (o all’asse x). 3. La retta r ammette infinite equazioni parametriche diverse, e` sufficiente individuare r mediante un suo punto qualsiasi e un qualsiasi vettore non nullo ad essa parallelo. 4. I coseni degli angoli che la retta r forma con gli assi coordinati prendono il nome di coseni direttori della retta r, il loro valore e` calcolato mediante il generico vettore r 6= o parallelo a r ed e` dato da: b = √ l , cos(ri) l 2 + m2

b = √ cos(rj)

m l2 + m2

(cfr. Oss. 3.14). Inoltre, i coseni direttori sono individuati a meno del segno.

Geometria Analitica nel Piano

422

Esercizio 9.11 Determinare le equazioni parametriche della retta r passante per il punto P0 = (−1, 3) e parallela al vettore r = 2i − 5j e calcolarne i coseni direttori. Soluzione

Le equazioni parametriche di r sono:  x = −1 + 2t y = 3 − 5t, t ∈ R;

(9.12)

per i coseni direttori si ha: b = √2 , cos(ri) 29

b = − √5 . cos(rj) 29

Si osservi che sostituendo t = 0 in (9.12) si ottiene il punto P0 . Per t = 1 si ottiene il punto A = (1, −2), pertanto la retta r si pu`o anche rappresentare come:  x = 1 + 4t0 y = −2 − 10t0 , t0 ∈ R. Osservazione 9.2 Se in (9.11) si limita il valore di t ad intervalli della retta reale si rappresentano i punti di segmenti della retta r. Se, invece, si chiede che t assuma solo valori reali positivi o nulli si rappresenta una semiretta di origine P0 , si ottiene la semiretta opposta limitando t a valori reali negativi o nulli.

9.6.2

Retta per un punto ortogonale ad un vettore

Sia r la retta passante per il punto P0 ortogonale ad un vettore n 6= o. Un punto P −−→ appartiene alla retta se e solo se il vettore P0 P e` ortogonale a n (cfr. Fig. 9.15) Si ha: −−→ r = {P ∈ S2 | P0 P · n = 0}, (9.13) −−→ −−→ dove P0 P · n indica il prodotto scalare tra i vettori P0 P e n (cfr. Oss. 3.14). Siano P0 = (x0 , y0 ), P = (x, y) i punti P0 e P, siano (a, b) le componenti del vettore n rispetto alla base ortonormale positiva B = (i, j) individuata dal riferimento cartesiano considerato, l’equazione (9.13) equivale a: a(x − x0 ) + b(y − y0 ) = 0.

(9.14)

Ponendo il termine noto −ax0 − by0 = c, segue che l’equazione richiesta e` : ax + by + c = 0

(9.15)

che e` detta equazione cartesiana di r, dove (a, b) 6= (0, 0) sono le componenti di un qualsiasi vettore non nullo ortogonale a r e sono date a meno di una costante di proporzionalit`a non nulla.

Capitolo 9

423

n P P0

Figura 9.15: Retta passante per il punto P0 e ortogonale al vettore n Osservazione 9.3 I parametri direttori (l, m) della retta r e le componenti (a, b) di un vettore ortogonale alla retta sono legati dalla relazione: al + bm = 0 che esprime l’annullarsi del prodotto scalare tra i vettori r, parallelo alla retta, e n ortogonale alla retta. In altri termini: 

a = ρm b = −ρl,

ρ ∈ R − {0}.

Il teorema che segue caratterizza tutte le rette del piano tramite equazioni lineari in x e y . Teorema 9.1 Ogni equazione lineare in x e y del tipo (9.15) rappresenta una retta ed e` individuata a meno di un fattore moltiplicativo non nullo. Dimostrazione Si e` gi`a dimostrato che una retta nel piano pu`o essere rappresentata mediante un’equazione lineare in x, y . Viceversa, considerata l’equazione lineare (9.15), se (a, b) 6= (0, 0) esiste almeno un punto P0 = (x0 , y0 ) del piano le cui coordinate la verificano, ossia c = ax0 + by0 . Sostituendo in (9.15) si ha: a(x − x0 ) + b(y − y0 ) = 0.

(9.16)

Geometria Analitica nel Piano

424

L’equazione (9.16) coincide con (9.14) e, quindi, rappresenta la retta passante per il punto P0 ortogonale al vettore ai + bj. Inoltre, per ρ 6= 0 le due equazioni (9.15) e ρ(ax + by + c) = 0 rappresentano la stessa retta. Esercizio 9.12 Scrivere l’equazione cartesiana della retta ottenuta nell’Esercizio 9.11. Soluzione

Dalle equazioni parametriche di r si ottiene: x+1 y−3 = 2 −5

da cui: 5x + 2y − 1 = 0. Esercizio 9.13 Data la retta r di equazione 2x − 7y + 5 = 0, determinare un vettore parallelo a r ed un vettore ad essa ortogonale. Soluzione I vettori richiesti sono ad esempio, rispettivamente, r = 7i + 2j, n = 4i − 14j, ma ogni altro vettore ad essi parallelo (ad eccezione del vettore nullo) risolve l’esercizio.

9.6.3

Retta per due punti distinti

Dati due punti distinti A = (xA , yA ), B = (xB , yB ) nel piano, la retta r passante per A −→ e B e` parallela al vettore AB (cfr. Fig. 9.16) e ha equazioni parametriche: ( x = xA + (xB − xA )t y = yA + (yB − yA )t,

t ∈ R.

Se xB − xA 6= 0 e yB − yA 6= 0, ricavando il parametro t per esempio dalla prima equazione e sostituendo il valore trovato nella seconda si ha: x − xA y − yA = . xB − xA yB − yA

(9.17)

L’equazione (9.17) cos`ı ottenuta e` l’equazione cartesiana della retta passante per i punti A e B . Se xB − xA = 0, i punti A e B hanno la stessa ascissa e quindi la retta ha equazione cartesiana x − xA = 0. Analogamente se yB − yA = 0, la retta ha equazione cartesiana y − yA = 0.

Capitolo 9

425

B

A

Figura 9.16: Retta passante per i punti A e B Esercizio 9.14 E` ben noto che due punti distinti individuano una sola retta. Perch´e nell’equazione ax + by + c = 0 ci sono tre coefficienti a, b, c? Osservazione 9.4 L’equazione (9.17) della retta r passante per due punti distinti A e B si pu`o scrivere nella forma: x y 1 xA yA 1 = 0, xB yB 1 quest’espressione e` valida anche nel caso in cui xB − xA = 0 o yB − yA = 0. Si lascia la dimostrazione al Lettore per esercizio. Esercizio 9.15 Scrivere le equazioni parametriche e cartesiana della retta passante per i punti A = (−1, 2), B = (4, −5). Soluzione

Le equazioni richieste sono, rispettivamente:  x = −1 + 5t y = 2 − 7t, t ∈ R

(9.18)

e: 7x + 5y − 3 = 0. Si osservi che se in (9.18) si limita t all’intervallo chiuso [0, 1] si descrivono tutti e soli i punti del segmento AB , estremi compresi.

426

9.6.4

Geometria Analitica nel Piano

Rette particolari

Dal paragrafo precedente appare chiaro che tutti e soli i punti appartenenti all’asse x sono caratterizzati dall’avere ordinata nulla, quindi l’asse x ha equazione cartesiana y = 0. La stessa equazione si ottiene se si considera che l’asse x e` una retta, passante per l’origine, parallela al versore i e perpendicolare al versore j. Analoga considerazione vale per l’asse y che ha equazione x = 0. Di conseguenza, ogni retta parallela all’asse x (e quindi al versore i) ha equazione cartesiana: y = k, con k ∈ R fissato, ed equazioni parametriche:  x = t, y = k, t ∈ R, cio`e x varia in R e y rimane costante. Ogni retta parallela all’asse y ha equazione cartesiana: x = h, con h ∈ R fissato, ed equazioni parametriche:  x=h y = t, t ∈ R. La bisettrice del primo e terzo quadrante passa per i punti P = (x, x) che hanno ascissa uguale all’ordinata, quindi ha equazione: y = x. Infatti, questa retta e` parallela al vettore r = i+j. Analogamente, la bisettrice del secondo e quarto quadrante passa per i punti P = (x, −x), quindi ha equazione: y = −x ed e` parallela al vettore r = i − j.

9.6.5

Il coefficiente angolare ed il suo legame con a, b, c

Sia r una retta non parallela all’asse delle ordinate: r : ax + by + c = 0

Capitolo 9

427

q A

Α

Figura 9.17: Il significato geometrico di p = tan α e di q e, quindi, tale che b 6= 0. Allora l’equazione cartesiana di r si pu`o scrivere anche nella forma y = px + q, (9.19) dove:

c a (9.20) p=− , q=− . b b Il numero p prende il nome di coefficiente angolare di r, tale denominazione e` motivata dalle seguenti considerazioni geometriche. Si consideri una generica retta passante per l’origine e per i punti A = (xA , yA ), B = (xB , yB ). Se α e` l’angolo che la retta data forma con l’asse x e` chiaro che: yA yB = = tan α. xA xB

Le coordinate (x, y) del generico punto P 6= O appartenente alla retta r verificano la stessa relazione, ossia: y yA yB = = = tan α. x xA xB D’altra parte, una generica retta passante per l’origine ha equazione: y = px,

p ∈ R,

Geometria Analitica nel Piano

428

dove p e` il coefficiente angolare della retta. Si ha quindi: p = tan α, dove α e` l’angolo che la retta forma con l’asse x. Si osservi che l’equazione y = px rappresenta, al variare di p ∈ R, tutte le rette passanti per l’origine, tranne l’asse y . Per capire meglio il significato geometrico del numero q dato da (9.20) si consideri l’intersezione della retta di equazione y = px+q con l’asse y , si ottiene cos`ı il punto A = (0, q) quindi q esprime la lunghezza (con segno) del segmento che la retta stacca sull’asse y , a partire dall’origine. La situazione geometrica e` illustrata nella Figura 9.17.

9.7

Parallelismo, ortogonalit`a, angoli e distanze

Il calcolo vettoriale risulta essere un strumento molto utile per studiare le questioni relative ad angoli tra rette, quindi in particolare il parallelismo e l’ortogonalit`a, trattate in questo paragrafo.

9.7.1

Condizione di parallelismo tra rette

Due rette: r : ax + by + c = 0,

r 0 : a0 x + b 0 y + c 0 = 0

sono parallele se e solo se i vettori n = ai + bj e n0 = a0 i + b0 j ad esse ortogonali sono tra loro paralleli, cio`e se e solo se le loro componenti sono in proporzione, ossia: ab0 − a0 b = 0.

(9.21)

Equivalentemente se r = li+mj e r0 = l0 i+m0 j indicano i vettori paralleli rispettivamente a r e r0 , le due rette sono parallele se e solo se i due vettori r e r0 sono paralleli, cio`e se e solo se: lm0 − l0 m = 0. In termini del loro coefficiente angolare, due rette non parallele all’asse y : r : y = px + q,

r 0 : y = p0 x + q 0

sono parallele se e solo se: p = p0 , ossia se i loro coefficienti angolari coincidono.

Capitolo 9

9.7.2

429

Condizione di perpendicolarit`a tra rette

Due rette: r : ax + by + c = 0,

r 0 : a0 x + b 0 y + c 0 = 0

sono perpendicolari se e solo se i vettori n = ai + bj e n0 = a0 i + b0 j ad esse ortogonali sono tra loro ortogonali, cio`e se e solo se il loro prodotto scalare e` nullo, ossia: aa0 + bb0 = 0. Equivalentemente, se r = li + mj e r0 = l0 i + m0 j indicano due vettori paralleli rispettivamente a r e r0 , le due rette sono perpendicolari se e solo se i due vettori r e r0 sono ortogonali, cio`e se e solo se: ll0 + mm0 = 0. In termini del loro coefficiente angolare, due rette non parallele all’asse y : r : y = px + q,

r 0 : y = p0 x + q 0

sono perpendicolari se e solo se: pp0 = −1, infatti:

 π = −1, pp0 = tan α tan α0 = tan α tan α + 2 dove α e α0 indicano, rispettivamente, gli angoli che le rette r e r0 formano con l’asse delle ascisse. Esercizio 9.16 Condurre dal punto A = (3/4, −2) la retta r parallela all’asse y e dal punto B = (2/5, 4/3) la retta s parallela all’asse x. Detto C il loro punto di intersezione, determinare la lunghezza del segmento OC . Soluzione

Le rette richieste sono: r: x=

3 , 4

s: y=

4 , 3

quindi C = (3/4, 4/3) da cui segue: r d(O, C) =

9 16 + = 16 9



337 . 12

Esercizio 9.17 Determinare l’equazione della retta passante per A = (2, −3) e perpendicolare alla retta di equazione y = 2x − 1.

Geometria Analitica nel Piano

430

Soluzione La retta richiesta ha equazione y = px + q con 2p = −1, quindi p = −1/2. Imponendo il passaggio per A segue q = −2. Esercizio 9.18 Data la famiglia di rette: F : (−2 + a)x + (1 − 2a)y + 1 = 0,

a ∈ R,

(9.22)

determinare, in ciascuno dei casi seguenti, una retta di F in modo che: 1. passi per A = (2, 0); 2. sia parallela a y = 2x − 1; 3. sia perpendicolare a 3x − y + 1 = 0; 4. sia parallela alla bisettrice del primo e terzo quadrante; 5. formi un angolo acuto con l’asse x (nel verso positivo). Soluzione

1. Sostituendo in (9.22) le coordinate di A si ha a = 3/2.

2. Da (9.22) segue che il coefficiente angolare e` : 2−a , 1 − 2a

a 6=

1 , 2

imponendo che tale numero coincida con 2 segue a = 0. 3. Si deve imporre che:  3

2−a 1 − 2a

 = −1.

4. Si deve imporre il parallelismo con la retta y = x, ossia: 2−a = 1. 1 − 2a 5. Si deve imporre che: 2−a > 0. 1 − 2a Esercizio 9.19 Svolgere il precedente esercizio usando le nozioni di calcolo vettoriale.

Capitolo 9

9.7.3

431

Angolo tra due rette

Siano: r : ax + by + c = 0,

r 0 : a0 x + b 0 y + c 0 = 0

[ due rette nel piano. L’angolo (r, r0 ) tra le due rette coincide con l’angolo formato da due vettori ad esse ortogonali. Da osservare quindi che se α e` l’angolo tra i due vettori n = (a, b), n0 = (a0 , b0 ), le due rette formano anche l’angolo π − α, in quanto i due vettori ortogonali alle due rette possono avere qualsiasi verso. Pertanto il valore di uno dei due angoli tra le due rette r e r0 e` determinato da: [ cos (r, r0 ) =

aa0 + bb0 n · n0 √ √ = . knk kn0 k a2 + b2 a02 + b02

Valgono analoghe considerazioni se le due rette sono date in forma parametrica:  r:

x = x0 + lt y = y0 + mt,

0

t ∈ R,

r :



x = x00 + l0 t0 y = y00 + m0 t0 ,

t0 ∈ R,

e considerando i due vettori r = (l, m) e r0 = (l0 , m0 ) ad esse paralleli si ha: [ cos (r, r0 ) =

9.7.4

r · r0 ll0 + mm0 p √ = . krk kr0 k l2 + m2 (l0 )2 + (m0 )2

Posizione reciproca di due rette nel piano

Dalla geometria euclidea segue che due rette nel piano possono essere: 1. parallele e coincidenti; 2. parallele e distinte; 3. incidenti. Dal punto di vista algebrico si risolve il problema della determinazione della posizione reciproca di due rette r e r0 studiando le soluzioni del sistema lineare di due equazioni in due incognite:  ax + by + c = 0 (9.23) a0 x + b0 y + c0 = 0, dato dalle equazioni delle due rette: r : ax + by + c = 0,

r0 : a0 x + b0 y + c0 = 0.

432

Geometria Analitica nel Piano

Dal metodo di riduzione di Gauss, applicato alla matrice A dei coefficienti e alla matrice (A | B) completa del sistema lineare (9.23), segue:     a b −c −→ a b −c (A | B) = . a0 b0 −c0 R2 → aR2 − a0 R1 0 ab0 −a0 b −ac0 + a0 c Si distinguono cos`ı i due casi: 1. rank(A) = 1, cio`e a0 b − ab0 = 0 (cfr. (9.21)), ossia se a0 6= 0, b0 6= 0: a b = , a0 b0 vale a dire i vettori n e n0 ortogonali alle due rette sono paralleli che e` la condizione di parallelismo tra le due rette. Si presentano due possibilit`a: a. rank(A | B) = 1 cio`e ac0 − a0 c = 0, ossia se a0 6= 0, c0 6= 0: a c = 0, 0 a c il sistema lineare ammette infinite soluzioni che dipendono da un’incognita libera, ma le condizioni poste equivalgono a richiedere che le due rette siano coincidenti (i coefficienti delle loro equazioni sono ordinatamente in proporzione). b. rank(A | B) = 2 cio`e ac0 − a0 c 6= 0, ossia (a/a0 ) 6= (c/c0 ); il sistema lineare e` incompatibile. Le condizioni imposte equivalgono pertanto a richiedere che le due rette siano parallele ma non coincidenti. 2. rank(A) = 2 cio`e a0 b − ab0 6= 0, vale a dire i vettori n e n0 non sono paralleli, il sistema lineare ammette una sola soluzione. La condizione imposta equivale a richiedere che le due rette non siano parallele, quindi sono incidenti, e, di conseguenza, si intersecano in un solo punto. In modo equivalente a quanto descritto, anzich´e studiare il sistema lineare (9.23), per individuare la posizione reciproca delle rette r e r0 si pu`o considerare la posizione reciproca dei due vettori n = (a, b) ortogonale ad r e n0 = (a0 , b0 ) ortogonale a r0 . Si presentano i seguenti casi: 1. n e n0 sono paralleli (vale a dire hanno le componenti ordinatamente in proporzione), quindi le due rette sono parallele. Si consideri un punto P0 = (x0 , y0 ) qualsiasi di r, se P0 appartiene anche alla retta r0 (in formule a0 x0 + b0 y0 + c0 = 0) allora r e r0 sono coincidenti, altrimenti sono parallele e distinte.

Capitolo 9

433

2. n e n0 non sono paralleli, allora le due rette sono incidenti. Per determinare il loro punto di intersezione si deve risolvere il sistema lineare (9.23) per esempio usando il Teorema di Cramer (cfr. Teor. 2.20). Esercizio 9.20 Discutere, al variare di k ∈ R, la posizione reciproca delle rette: r : (2k − 1)x + y − 3k = 0, Soluzione incognite:

r0 : 3kx − 2y + k − 1 = 0.

Si tratta di studiare le soluzioni del sistema lineare di due equazioni in due 

(2k − 1)x + y − 3k = 0 3kx − 2y + k − 1 = 0

al variare di k ∈ R. Procedendo con il metodo di riduzione di Gauss si ha:     3k −→ 2k−1 1 3k 2k−1 1 . 3k −2 −k+1 R2 → R2 + 2R1 7k−2 0 5k+1 Si distinguono cos`ı due casi: 1. se k 6= 2/7 esiste una sola soluzione, quindi le due rette sono incidenti. 2. Se k = 2/7 le rette sono parallele ma mai coincidenti in quanto 5k + 1 6= 0. Esercizio 9.21 Date le rette: r1 : 4x + y − 8 = 0,

r2 : 3x − 2y + 2 = 0

e il punto P = (2, 1), determinare: 1. la retta passante per P e parallela a r1 ; 2. la retta passante per il punto di intersezione di r1 e r2 e perpendicolare a r2 . Soluzione 1. Tutte e solo le rette parallele a r1 hanno equazione del tipo 4x+y+c = 0, al variare di c ∈ R. Imponendo il passaggio per il punto P si ricava c = −9. 2. Il sistema lineare: 

4x + y − 8 = 0 3x − 2y + 2 = 0

ha soluzione (14/11, 32/11) che rappresenta le coordinate del punto di intersezione di r1 e r2 . La retta richiesta ha equazione:   32 14 y− =p x− 11 11 con (3/2)p = −1.

434

9.7.5

Geometria Analitica nel Piano

Distanza di un punto da una retta

P0

r n H P1

Figura 9.18: Distanza del punto P0 dalla retta r Dati una retta r : ax + by + c = 0 e un punto P0 = (x0 , y0 ), si vuole determinare, in questo paragrafo, la distanza d(P0 , r) di P0 dalla retta r. Per questo scopo, e` sufficiente scrivere l’equazione della retta r0 passante per P0 e perpendicolare ad r e calcolare la distanza d(P0 , H) dove H e` il punto di intersezione tra r0 ed r. Si osservi che se P0 appartiene alla retta r si ottiene d(P0 , r) = 0, in quanto P0 coincide con H (cfr. Fig. 9.18). Si risolve ora lo stesso problema applicando nozioni di calcolo vettoriale. Dati un generico punto P1 = (x1 , y1 ) di r, quindi ax1 + by1 + c = 0, e un vettore n = (a, b) ortogonale ad r, dal significato geometrico del prodotto scalare di due vettori (cfr. Teor. 3.10) segue: −−→ P1 P0 · n d(P0 , r) = . (9.24) knk Si osservi che il valore d(P0 , r) cos`ı determinato esprime la distanza con segno del punto P0 dalla retta r. Il segno e` positivo se P0 si trova nello stesso semipiano in cui punta il verso del vettore n, altrimenti il segno e` negativo. In coordinate, la formula (9.24) diventa:

Capitolo 9

1. a denominatore: knk =

435

√ a2 + b 2 ;

2. a numeratore: −−→ P1 P0 · n = a(x0 − x1 ) + b(y0 − y1 ) = ax0 + by0 − ax1 − by1 = ax0 + by0 + c. Riassumendo si ottiene: d(P0 , r) =

ax0 + by0 + c √ . a2 + b2

(9.25)

Il numeratore di (9.25) si annulla se e solo se P0 appartiene alla retta r e, quindi, se e solo se d(P0 , r) = 0, inoltre il numeratore di (9.25) assume lo stesso segno per tutti e soli i punti appartenenti allo stesso semipiano di origine la retta r. Esempio 9.3 Data la retta r : 3x + 2y + 5 = 0, i punti del piano sono esattamente divisi in tre parti cos`ı caratterizzate: 1. i punti P = (x, y) tali che 3x + 2y + 5 = 0, vale a dire i punti della retta r; 2. i punti P = (x, y) tali che 3x + 2y + 5 > 0, vale a dire i punti di un semipiano di origine r; 3. i punti P = (x, y) tali che 3x + 2y + 5 < 0, vale a dire i punti del semipiano di origine r, opposto al precedente. Esercizio 9.22 Calcolare la distanza del punto P = (1, 2) dalla retta r : 2x − y + 5 = 0. Soluzione

Dalla formula (9.25) si ha: 2−2+5 √ = 5. d(P, r) = √ 4+1

9.8

Fasci di rette

In geometria euclidea si definiscono due tipi di fasci di rette: 1. il fascio improprio di rette formato da tutte le rette parallele ad una retta assegnata; la situazione geometrica e` illustrata nella Figura 9.19; 2. il fascio proprio di rette formato da tutte le rette passanti per un punto, detto centro del fascio; la situazione geometrica e` illustrata nella Figura 9.20.

Geometria Analitica nel Piano

436

Dall’equazione (9.19) si ha che una semplice rappresentazione di un fascio improprio di rette e` : y = px + q con p fissato e q che assume ogni valore in R. Il fascio di rette parallele all’asse y invece e` rappresentato da: k ∈ R.

x = k,

Per esempio y = 3x + q , per ogni q reale, individua tutte e sole le rette del piano parallele alla retta y = 3x. 10

5

-10

-5

5

10

-5

-10

Figura 9.19: Fascio improprio di rette Siano: r : ax + by + c = 0,

r0 : a0 x + b0 y + c0 = 0

due rette incidenti nel punto P0 = (x0 , y0 ). Il fascio proprio di rette di centro P0 e` dato dalla combinazione lineare:

F : λ(ax + by + c) + µ(a0 x + b0 y + c0 ) = 0,

λ, µ ∈ R, (λ, µ) 6= (0, 0).

(9.26)

Per dimostrare questa affermazione si procede attraverso considerazioni successive: 1. l’equazione (9.26) e` lineare in x, y , pertanto rappresenta una retta al variare di λ, µ ∈ R.

Capitolo 9

437

2. Le rette r ed r0 fanno parte della famiglia F di rette individuata da (9.26), per µ = 0 si ottiene la retta r e per λ = 0 la retta r0 . 3. I parametri λ e µ sono omogenei, nel senso che e` sufficiente assegnare il loro rapporto per individuare la stessa retta, per esempio le coppie λ = 1, µ = 2 e λ = 2, µ = 4 (insieme con le infinite altre coppie di numeri non nulli, proporzionali rispettivamente a λ e a µ) danno luogo alla stessa retta. 4. Il punto P0 appartiene a tutte le rette descritte da (9.26), infatti le sue coordinate (x0 , y0 ) verificano sia l’equazione di r sia l’equazione di r0 e, di conseguenza, verificano (9.26). 5. L’equazione (9.26) individua tutte le rette del piano passanti per P0 . Sia, infatti, P1 = (x1 , y1 ) un punto del piano diverso da P0 , sostituendo le sue coordinate in (9.26) si perviene ad un’equazione del tipo αλ + βµ = 0, dove α = ax1 + by1 + c e β = a0 x1 + b0 y1 + c0 , da cui si ricava, per esempio, λ = β, µ = −α che sostituiti in (9.26) danno luogo all’equazione della retta passante per i punti P0 e P1 . Si osservi che se P1 non appartiene n´e ad r n´e ad r0 allora α e β sono entrambi diversi da zero. Osservazione 9.5 Un fascio di rette riempie il piano nel senso che dato un punto generico P1 = (x1 , y1 ) del piano e` possibile individuare un elemento del fascio passante per P1 , infatti e` sufficiente sostituire le coordinate di P1 nell’equazione (9.26) e calcolare i valori dei parametri λ e µ. Esercizio 9.23 Dato il fascio proprio di rette: λ(x − 2y − 2) + µ(x + y) = 0,

λ, µ ∈ R, (λ, µ) 6= (0, 0),

(9.27)

individuare: 1. il centro del fascio; 2. la retta del fascio passante per il punto A = (0, −7); 3. la retta del fascio perpendicolare alla retta di equazione x + y + 1 = 0. Soluzione 1. Il centro del fascio e` il punto C intersezione delle rette di equazione x − 2y − 2 = 0 e x + y = 0, si ottiene C = (2/3, −2/3). 2. Nell’equazione (9.27) si impone il passaggio per A, ottenendo 12λ − 7µ = 0, da cui si ha, per esempio λ = 7, µ = 12 che sostituiti in (9.27) portano alla retta di equazione 19x − 2y − 14 = 0.

Geometria Analitica nel Piano

438

4

2

-6

-4

C

-2

2

4

6

-2

-4

-6

A

-8

Figura 9.20: Fascio proprio di rette. Esercizio 9.23 3. Il coefficiente angolare della generica retta del fascio e` : p=

λ+µ 2λ − µ

(si osservi che per 2λ − µ = 0, ossia per λ = 1, µ = 2 si ha la retta 3x − 2 = 0 parallela all’asse y ). Imponendo la perpendicolarit`a alla retta x + y + 1 = 0 si ha: λ+µ =1 2λ − µ da cui λ = 2, µ = 1 che portano alla retta del fascio di equazione 3x − 3y − 4 = 0.

9.9

Esercizi di riepilogo svolti

Esercizio 9.24 Calcolare l’equazione dell’asse del segmento di estremi i punti: A = (−3, 5),

B = (2, −3).

Soluzione Il procedimento da usare e` gi`a stato spiegato nel Paragrafo 9.2, in alternativa si pu`o determinare l’equazione della retta perpendicolare al segmento AB nel suo punto medio M dato da:     −3 + 2 5 − 3 1 M= , = − ,1 . 2 2 2

Capitolo 9

439

La retta passante per A e B ha equazione: x+3 y−5 = , 2+3 −3 − 5 ossia 8x + 5y − 1 = 0, quindi e` perpendicolare al vettore n = (8, 5). Di conseguenza, le equazioni parametriche dell’asse del segmento AB sono:  1   x = − + 8t 2   y = 1 + 5t, t ∈ R, e la sua equazione cartesiana e` 10x − 16y + 21 = 0. Esercizio 9.25 Date le rette: s : 7x − 24y − 6 = 0

r : 3x + 4y + 2 = 0,

determinare le equazioni delle rette b1 e b2 bisettrici degli angoli da esse individuati. Soluzione Le bisettrici di due rette r e s sono il luogo dei punti P = (x, y) equidistanti dalle due rette, ossia tali che d(P, r) = d(P, s). Da (9.25) segue: 7x − 24y − 6 3x + 4y + 2 √ =± √ , 9 + 16 49 + 576 da cui si ottengono le rette: b2 : 11x − 2y + 2 = 0.

b1 : 2x + 11y + 4 = 0,

In modo alternativo, si possono ottenere le equazioni delle due bisettrici come le rette passanti per il punto di intersezione delle due rette date e parallele ai vettori bisettori dei vettori r e s rispettivamente paralleli alle rette r e s. Si ha r = (4, −3), s = (24, 7) e i due vettori bisettori degli angoli formati da r e da s sono:       4 3 24 7 44 8 vers r + vers s = ,− + , = ,− , 5 5 25 25 25 25  vers r − vers s =

4 3 ,− 5 5



 −

24 7 , 25 25



  4 22 = − ,− . 25 25

Il punto di intersezione delle rette r e s e` la soluzione del sistema lineare delle loro equazioni cartesiane ed e` (−6/25, −8/25), di conseguenza le equazioni parametriche

Geometria Analitica nel Piano

440

delle due bisettici sono:

b1 :

 6     x = − 25 + 11t   8   y = − − 2t, 25

b2 :

 6  0    x = − 25 − 2t   8   y = − − 11t0 , 25

t ∈ R,

t0 ∈ R.

Esercizio 9.26 Date le due rette: r : x + 2y + 2 = 0,

s : x − y − 3 = 0,

determinare l’equazione della retta t simmetrica di r rispetto ad s.

r M A

M'

s

M'' t

Figura 9.21: Esercizio 9.26 Soluzione Il punto di intersezione di r ed s e` A = (4/3, −5/3). Sia M = (0, −1) un punto di r diverso da A. La retta per M perpendicolare a s che ha equazione x+y+1 = 0 incontra s nel punto M 0 = (1, −2). Il simmetrico M 00 di M rispetto a M 0, che ha coordinate (2, −3) essendo M 0 il punto medio tra M e M 00 , appartiene alla retta t. La retta t e` , quindi, la retta passante per A e per M 00 e ha equazione 2x + y − 1 = 0. La situazione geometrica e` illustrata nella Figura 9.21.

Capitolo 9

9.10

Per saperne di piu`

9.10.1

Rette immaginarie

441

Anche in geometria analitica, vengono considerati enti “immaginari”, d’altra parte la geometria analitica non fa altro che tradurre in algebra enti e relazioni geometriche. I punti immaginari (o complessi) del piano sono caratterizzati dall’avere rispetto ad un riferimento cartesiano (reale) R = (O, x, y) almeno una coordinata complessa, mentre i punti che sono stati trattati finora in tutto questo capitolo sono detti reali se hanno entrambe le coordinate x e y reali. Ovviamente rispetto al riferimento cartesiano R si possono visualizzare nel piano solo i punti reali. Analogamente al caso reale, le rette immaginarie sono rappresentate rispetto ad un riferimento cartesiano (reale) R = (O, x, y) da equazioni lineari: ax + by + c = 0, a coefficienti complessi, come ad esempio la retta di equazione: y = −2i x + 1. Se la terna (a, b, c) e` proporzionale (con coefficiente di proporzionalit`a complesso non nullo) ad una terna di numeri reali allora r e` detta retta reale e si ha la retta usuale, introdotta nel Paragrafo 9.6. Data una retta immaginaria: r : ax + by + c = 0, con a, b, c ∈ C, ha pertanto senso introdurre la nozione di retta ad essa coniugata: r : ax + by + c = 0, dove a, b, c indicano, rispettivamente, i complessi coniugati di a, b, c. Pertanto due rette si dicono coniugate se i coefficienti dell’una sono i complessi coniugati dei coefficienti dell’altra. Esempio 9.4 La retta immaginaria di equazione y = −2i x + 1 ha come coniugata la retta di equazione: y = 2i x + 1. Anche per le rette immaginarie, come per le rette reali considerate in questo capitolo, si pu`o introdurre la nozione di rette parallele e incidenti. Si pu`o dimostrare la seguente propriet`a.

Geometria Analitica nel Piano

442

Teorema 9.2 Una retta r e` reale se e solo se coincide con la propria coniugata r. Dimostrazione Si supponga che la retta r abbia equazione ax + by + c = 0, con a, b, c ∈ C. Si vuole dimostrare che la terna (a, b, c) e` proporzionale (con coefficiente di proporzionalit`a complesso non nullo) ad una terna di numeri reali se e solo se r = r. Le due rette r e r coincidono se e solo se:   a b c rank = 1. a b c Osservando che:  rank

a b c a b c





a+a b+b c+c a−a b−b c−c



Re(a) Re(b) Re(c) Im(a) Im(b) Im(c)

= rank

= rank



 ,

dove con Re(a) si indica la parte reale di a e con Im(a) si indica la parte immaginaria di a, si ha la tesi. Osservazione 9.6 Ogni retta reale ha infiniti punti reali, ma contiene anche infiniti punti immaginari. Inoltre, se P = (x0 , y0 ) e` un punto non reale, ovvero P 6= P , dove con P di indica il punto coniugato di P avente coordinate (x0 , y 0 ), la retta passante per P e P e` necessariamente reale. Esempio 9.5 La retta passante per P = (−1+i, −1+2i) e per P = (−1−i, −1−2i) ha equazione 2x − y + 1 = 0. Si osservi che la retta precedente contiene i punti immaginari: (−1 + λi, −1 + 2λi), al variare di λ ∈ R − {0}. Esercizio 9.27 Verificare che l’equazione x2 + y 2 = 0 rappresenta una coppia di rette immaginarie coniugate. Soluzione

Si ha: x2 + y 2 = (x + iy)(x − iy) = 0,

pertanto x2 + y 2 = 0 rappresenta la coppia di rette immaginarie coniugate x = ±iy . Si osservi che l’intersezione reale delle due rette immaginarie e` costituita dalla sola origine. Vale la seguente propriet`a.

Capitolo 9

443

Teorema 9.3 Una retta immaginaria (o non reale) possiede al pi`u solo un punto reale. Dimostrazione Se una retta r : ax + by + c = 0 e` immaginaria e quindi non e` reale, allora o le due rette r e r sono parallele non coincidenti, ossia non si intersecano in alcun punto, oppure si intersecano in un solo punto, che deve essere reale. Infatti il punto P intersezione di r e di r coincide con il punto P intersezione di r e r. Sia nel caso in cui r e r siano parallele sia nel nel caso in cui non lo siano si ha:  rank

a b c a b c

 = 2,

ma nel primo caso:  rank

a b a b

 = 1,

da cui segue che le due rette r e r non si intersecano quindi sono prive di punti reali e la coppia (a, b) e` proporzionale (con coefficiente di proporzionalit`a complesso non nullo) ad una coppia di numeri reali. Nel secondo caso:  rank

a b a b

 =2

e le due rette si intersecano in un solo punto. Esercizio 9.28 Si considerino le rette: r1 : 3(2i − 1)x + (2 − 4i)y − 2i + 1 = 0, r2 : x + iy − 3 = 0, r3 : x + y − i = 0. 1. Verificare che la retta r1 e` reale. 2. Verificare che la retta r2 non e` reale ed ha come unico punto reale il punto di coordinate (3, 0). 3. Verificare che la retta r3 non e` reale e non ha punti reali. Soluzione 1. Dividendo entrambi i membri dell’equazione di r1 per 2i − 1 si ottiene l’equazione a coefficienti reali: 3x − 2y − 1 = 0.

444

Geometria Analitica nel Piano

2. La retta r2 coniugata di r2 ha equazione x − iy − 3 = 0. Il sistema lineare:  x + iy − 3 = 0 x − iy − 3 = 0 ha matrice dei coefficienti di rango 2 e la sua unica soluzione e` (3, 0). 3. Le rette r3 e r3 : x + y + i = 0 sono entrambe parallele al vettore (1, 1) e non hanno punti reali.

Capitolo 10 Riduzione a Forma Canonica delle Coniche Scopo di questo capitolo e` lo studio delle coniche nel piano, ossia di tutte le curve del piano che sono rappresentabili mediante un’equazione di secondo grado nelle incognite x, y. Il primo esempio di conica presentato e` quello della circonferenza, la cui equazione e` gi`a stata ottenuta nel Capitolo 9 come luogo geometrico di punti. Ma la parte determinante di questo capitolo e` l’applicazione della teoria di riduzione a forma canonica di una forma quadratica (cfr. Cap. 8) allo studio delle coniche allo scopo di poter riconoscere, a partire da una generica equazione di secondo grado in due incognite, la conica che essa rappresenta. Questa teoria sar`a nuovamente applicata nel Capitolo 12 per lo studio delle quadriche nello spazio, che non sono altro che superfici che si possono rappresentare mediante un’equazione di secondo grado nelle incognite x, y, z ed e` facilmente generalizzabile anche nel caso di spazi affini di dimensione superiore a 3. In tutto il capitolo si far`a uso delle notazioni introdotte nei capitoli precedenti, in particolare si considerer`a il piano affine S2 su cui si introdurr`a un riferimento cartesiano R = (O, x, y), o equivalentemente R = (O, i, j), dove B = (i, j) e` la base ortonormale positiva dello spazio vettoriale V2 definita dal riferimento R.

10.1

La circonferenza nel piano

In questo paragrafo si intende studiare l’equazione della circonferenza nel piano affine S2 e le posizioni reciproche tra circonferenza e retta e anche tra due circonferenze. Successivamente, in modo analogo al caso dei fasci di rette definiti nel Capitolo 9, si introducono i fasci di circonferenze e si ricavano le loro propriet`a. Fissati un punto C nel piano e un numero reale positivo r, si e` gi`a visto nel Paragrafo 9.2 445

446

Riduzione a Forma Canonica delle Coniche

che la circonferenza di centro C e raggio r e` il luogo geometrico dei punti P del piano tali che: d(P, C) = r. Se r = 0 la circonferenza si riduce ad un solo punto che coincide con C. La circonferenza di centro C = (α, β) e raggio r ≥ 0, rispetto ad un riferimento cartesiano R = (O, x, y), ha equazione cartesiana: (x − α)2 + (y − β)2 = r2 , che pu`o essere riscritta come: x2 + y 2 − 2αx − 2βy + γ = 0,

(10.1)

con γ = α2 + β 2 − r2 . Si osservi che l’equazione (10.1) e` di secondo grado in x e in y , il coefficiente del termine xy e` uguale a 0 e i coefficienti dei termini x2 e y 2 sono uguali. Viceversa, un’equazione dello stesso tipo, vale a dire: x2 + y 2 + ax + by + c = 0,

a, b, c ∈ R,

(10.2)

non sempre rappresenta una circonferenza nel piano. Infatti, confrontando le equazioni (10.1) e (10.2) si ottiene che il centro C in (10.2) ha coordinate:   b a C = − ,− 2 2 e il raggio r in (10.2) e` dato da: r r=

a2 + b2 − 4c , 4

(10.3)

pertanto l’equazione (10.2) rappresenta una circonferenza se e solo se: a2 + b2 − 4c ≥ 0. Osservazione 10.1 Se a2 + b2 − 4c = 0, la circonferenza e` detta degenere e si riduce al solo centro (−a/2, −b/2). Se a2 + b2 − 4c < 0 allora non ci sono punti del piano che verificano l’equazione (10.2) e la circonferenza viene detta immaginaria. Esercizio 10.1 Determinare il centro e il raggio delle circonferenze: C1 : x2 + y 2 + 4x + 6y = 0, C2 : x2 + y 2 + 4x + 6y + 30 = 0.

Capitolo 10

447

Soluzione In C1 il centro e` C = (−2, −3). Poich´e la circonferenza passa per l’origine, il suo raggio pu`o essere determinato calcolando la distanza del centro dall’origine, quindi: √ r = d(C, O) = 13, oppure applicando la formula (10.3). In C2 il centro e` C = (−2, −3), ma C2 e` una circonferenza immaginaria infatti si ha 16 + 36 − 120 < 0.

10.1.1

Posizione reciproca tra una retta e una circonferenza

La posizione reciproca tra una retta s e una circonferenza di centro C e raggio r si determina calcolando la distanza del centro della circonferenza alla retta e confrontandola con il raggio della circonferenza stessa. Si presentano tre possibilit`a: 1. |d(C, s)| > r: la retta e` esterna alla circonferenza (cfr. Fig. 10.1).

C r

s

Figura 10.1: Retta esterna alla circonferenza 2. |d(C, s)| = r: la retta e` tangente alla circonferenza (cfr. Fig. 10.2).

448

Riduzione a Forma Canonica delle Coniche

C r s

Figura 10.2: Retta tangente alla circonferenza

s C r

Figura 10.3: Retta secante la circonferenza

Capitolo 10

449

3. |d(C, s)| < r: la retta e` secante la circonferenza e incontra la circonferenza in due punti (cfr. Fig. 10.3). Esercizio 10.2 Determinare per quali valori di k ∈ R la retta s : x − 2y + k = 0 e` secante, tangente o esterna alla circonferenza di equazione: x2 + y 2 − 2x + 2y − 2 = 0. Soluzione Il centro della circonferenza e` C = (1, −1) e il raggio e` r = 2. Dalla formula (9.24) si ottiene che la distanza del centro dalla retta e` : 3+k d(C, s) = √ , 5 √ √ da cui si deduce che s e` esterna alla circonferenza √ se k < −3 − 2 5 e k > −3 + 2 5. La retta s √ e` tangente alla circonferenza se k = ±2 5 − 3 e s e` secante la circonferenza √ se −3 − 2 5 < k < −3 + 2 5.

10.1.2

Retta tangente ad una circonferenza in un suo punto

Data una circonferenza C di centro C = (α, β) e raggio r, la retta s tangente a C in un −−→ suo punto P0 = (x0 , y0 ) e` la retta passante per P0 e ortogonale al vettore P0 C , quindi di equazione cartesiana: s : (α − x0 )(x − x0 ) + (β − y0 )(y − y0 ) = 0.

(10.4)

La situazione geometrica e` illustrata nella Figura 10.4. Esercizio 10.3 Determinare l’equazione della retta tangente nel punto P0 = (−6, 4) alla circonferenza di equazione: x2 + y 2 + 6x − 4y = 0. Soluzione Il centro della circonferenza e` C = (−3, 2), quindi la retta tangente alla circonferenza nel punto P0 ha equazione: (−3 + 6)(x + 6) + (2 − 4)(y − 4) = 0, ossia 3x − 2y + 26 = 0.

450

Riduzione a Forma Canonica delle Coniche

C

s P0

Figura 10.4: Retta tangente alla circonferenza nel punto P0

C

C' r'

r

Figura 10.5: d(C, C 0 ) > r + r0 : circonferenze esterne

Capitolo 10

C

451

C' r'

r

Figura 10.6: d(C, C 0 ) = r + r0 : circonferenze tangenti esternamente

C

C' r'

r

Figura 10.7: r − r0 < d(C, C 0 ) < r + r0 : circonferenze secanti

C

C' r'

r

Figura 10.8: d(C, C 0 ) < r − r0 : circonferenze interne

Riduzione a Forma Canonica delle Coniche

452

C

C' r'

r

Figura 10.9: d(C, C 0 ) = r − r0 : circonferenze tangenti internamente

10.1.3

Posizione reciproca di due circonferenze Circonferenza per tre punti

La posizione reciproca di due circonferenze si discute confrontando la distanza tra i loro centri C e C 0 e la somma e/o la differenza tra i loro raggi r e r0 . Assumendo r0 < r, si presentano i casi illustrati nelle Figure 10.5, 10.6, 10.7, 10.8, 10.9, 10.10.

r

C=C' r'

Figura 10.10: d(C, C 0 ) = 0 : circonferenze concentriche

Capitolo 10

453

Esercizio 10.4 Determinare l’equazione della circonferenza passante per i punti: A = (2, 3),

B = (4, 1),

D = (2, −1).

Soluzione E` ben noto che tre punti non allineati del piano individuano una sola circonferenza. Si lascia per esercizio la verifica che i punti A, B, D assegnati non sono allineati. Per individuare l’equazione della circonferenza passante per A, B, D si pu`o procedere in due modi. Il centro C e` il circocentro (il punto di incontro degli assi dei lati) del triangolo ABD, quindi se ne possono individuare le coordinate intersecando, per esempio l’asse del segmento AB con l’asse del segmento AD. Il raggio e` la distanza, per esempio, da C a B . Altrimenti, si possono sostituire in (10.2) le coordinate dei punti dati e risolvere il sistema lineare cos`ı ottenuto:   2a + 3b + c = −13 4a + b + c = −17  2a − b + c = −5. La circonferenza richiesta ha pertanto equazione: x2 + y 2 − 4x − 2y + 1 = 0. La situazione geometrica e` illustrata nella Figura 10.11.

10.1.4

Fasci di circonferenze

Date le due circonferenze: C1 : x2 + y 2 − 2α1 x − 2β1 y + γ1 = 0, C2 : x2 + y 2 − 2α2 x − 2β2 y + γ2 = 0, la loro combinazione lineare: λ(x2 + y 2 − 2α1 x − 2β1 y + γ1 ) + µ(x2 + y 2 − 2α2 x − 2β2 y + γ2 ) = 0,

(10.5)

con λ, µ ∈ R, (λ, µ) 6= (0, 0), rappresenta il fascio di circonferenze individuato da C1 e C2 . Si osservi che i parametri λ e µ sono omogenei, vale a dire e` sufficiente individuare il loro rapporto per ottenere un solo elemento del fascio. Si osservi, inoltre, che per λ = 0 si ottiene la circonferenza C2 e per µ = 0 si ottiene C1 . Da (10.5) si ha: (λ + µ)x2 + (λ + µ)y 2 − 2(λα1 + µα2 )x − 2(λβ1 + µβ2 )y + (λγ1 + µγ2 ) = 0 (10.6) da cui appare evidente la necessit`a di distinguere due casi:

454

Riduzione a Forma Canonica delle Coniche

A

B

D

Figura 10.11: Circonferenza passante per i punti A, B, D

Capitolo 10

455

1. λ + µ = 0; 2. λ + µ 6= 0, che saranno discussi separatamente. 1. λ + µ = 0 per esempio λ = −1, µ = 1; l’equazione (10.6) diventa: 2(α1 − α2 )x + 2(β1 − β2 )y − γ1 + γ2 = 0. Si tratta dell’equazione di una retta, che prende il nome di asse radicale del fascio di circonferenze, ed e` ortogonale al vettore n = (α1 −α2 , β1 −β2 ). La retta passante per i centri C1 = (α1 , β1 ) e C2 = (α2 , β2 ) delle circonferenze C1 e C2 e` parallela al vettore n. Tale retta prende il nome di asse centrale del fascio di circonferenze. E` evidente che l’asse radicale e` perpendicolare all’asse centrale. Nel Paragrafo 10.6.1 sono elencate altre propriet`a dell’asse radicale di due circonferenze. 2. λ + µ 6= 0; l’equazione (10.6) diventa:       λβ1 + µβ2 λγ1 + µγ2 λα1 + µα2 2 2 x−2 y+ =0 x +y −2 λ+µ λ+µ λ+µ che rappresenta, al variare di λ e µ, infinite circonferenze del fascio, con centro:   λα1 + µα2 λβ1 + µβ2 , Cλ,µ = . (10.7) λ+µ λ+µ Si tratta di circonferenze se il raggio e` positivo o nullo, altrimenti si ottengono circonferenze immaginarie (cfr. Oss. 10.1). Si elencano alcune propriet`a del fascio di circonferenze individuato da C1 e da C2 di facile verifica: 1. i centri di tutte le circonferenze del fascio appartengono all’asse centrale. 2. Se P0 = (x0 , y0 ) e` un punto appartenente all’intersezione di C1 e di C2 , allora P0 verifica l’equazione (10.5), quindi P0 e` un punto comune a tutti gli elementi del fascio. 3. Il fascio di circonferenze riempie il piano nel senso che dato un generico punto P1 = (x1 , y1 ) del piano e` possibile individuare un elemento del fascio passante per P1 , infatti e` sufficiente sostituire le coordinate di P1 nell’equazione (10.5) e calcolare il valore dei parametri λ e µ.

456

Riduzione a Forma Canonica delle Coniche

Si esaminano ora le propriet`a precedenti in riferimento alla posizione delle circonferenze C1 e C2 . Si presentano tre casi: 1. C1 e C2 si intersecano in due punti P1 e P2 . L’asse radicale e ogni altra circonferenza del fascio passano per P1 e P2 . I punti P1 e P2 prendono il nome di punti base del fascio individuato dalle circonferenze C1 e C2 . La situazione geometrica e` illustrata nella Figura 10.12.

P2

P1

Figura 10.12: Fascio di circonferenze che si intersecano in due punti 2. C1 e C2 si intersecano in un punto P. L’asse radicale e` la retta tangente ad entrambe le circonferenze e ad ogni altra circonferenza del fascio in P. Il punto P prende il nome di punto base del fascio individuato dalle circonferenze C1 e C2 . La situazione geometrica e` illustrata nella Figura 10.13. 3. C1 e C2 non hanno punti di intersezione. Nessun elemento del fascio ha punti in comune con un altro elemento del fascio, l’asse radicale non incontra alcuna circonferenza del fascio. In questo caso, quindi, non esistono punti base del fascio individuato da C1 e C2 . La situazione geometrica e` illustrata nella Figura 10.14. I fasci di circonferenze sono utili (ma non indispensabili) per risolvere alcuni esercizi. I due esercizi che seguono ne costituiscono un esempio. Si consiglia di risolvere anche questi esercizi senza fare uso del concetto di fascio di circonferenze.

Capitolo 10

Figura 10.13: Fascio di circonferenze che si intersecano in un punto

Figura 10.14: Fascio di circonferenze che non hanno punti di intersezione

457

Riduzione a Forma Canonica delle Coniche

458

Esercizio 10.5 Determinare l’equazione della circonferenza avente centro sulla retta: s : 2x − y = 0 e tangente nel punto A = (−2, 0) alla retta s0 : 3x − 2y + 6 = 0. Soluzione La circonferenza richiesta e` un elemento del fascio individuato dalla retta s0 (l’asse radicale) e dalla circonferenza di centro A e raggio 0. Ossia: λ[(x + 2)2 + y 2 ] + µ(3x − 2y + 6) = 0, vale a dire: 2

2

x +y +



4λ + 3µ λ



 x−

2µ λ

λ, µ ∈ R, (λ, µ) 6= (0, 0),  y+4+

6µ = 0. λ

Il centro della generica circonferenza del fascio ha coordinate:   4λ + 3µ µ Cλ,µ = − , 2λ λ che, sostituite nell’equazione di s, portano a λ + µ = 0. Scegliendo, per esempio, λ = 1 e µ = −1 si ha che la circonferenza richiesta ha equazione: x2 + y 2 + x + 2y − 2 = 0. Si osservi che non ci sono problemi a calcolare il centro del fascio dividendo per λ. Infatti per ogni circonferenza del fascio si ha che λ e` diverso da zero, per λ = 0 si ottiene solo l’asse radicale. Esercizio 10.6 Determinare l’equazione della circonferenza passante per i punti: A = (−3, −2),

B = (1, −1)

sapendo che l’ascissa del centro e` 0. Soluzione La circonferenza richiesta e` un elemento del fascio individuato dalla retta AB (l’asse radicale) e dalla circonferenza di centro il punto medio tra A e B e diametro AB . La retta AB ha equazione x − 4y − 5 = 0. Il punto medio tra A e B e` :   3 M = −1, − , 2 √ la distanza tra A e B e` 17, quindi il fascio considerato ha equazione: λ(x2 + y 2 + 2x + 3y − 1) + µ(x − 4y − 5) = 0,

λ, µ ∈ R, (λ, µ) 6= (0, 0).

Capitolo 10

459

Il centro della generica circonferenza del fascio ha coordinate:   2λ + µ 3λ − 4µ Cλ,µ = − ,− . 2λ 2λ Imponendo: 2λ + µ =0 2λ segue µ = −2λ, quindi la circonferenza richiesta e` : −

x2 + y 2 + 11y + 9 = 0.

10.2

Le coniche: definizione e propriet`a focali

Si introducono, in questo paragrafo, alcune curve notevoli del piano: l’ellisse, l’iperbole e la parabola, tutte appartenenti alla famiglia delle coniche, come sar`a meglio spiegato nel Paragrafo 10.4. Le curve saranno presentate come luoghi geometrici di punti (cfr. Par. 10.3 e 10.4) e le loro equazioni saranno ricavate dalla definizione, dopo aver scelto un opportuno riferimento cartesiano.

10.2.1

L’ellisse

Definizione 10.1 Fissati due punti F e F 0 del piano, l’ellisse e` il luogo dei punti P tali che: d(P, F ) + d(P, F 0 ) = 2a, (10.8) dove a e` una costante positiva tale che 2a > d(F, F 0 ). I punti F e F 0 prendono il nome di fuochi dell’ellisse. La situazione geometrica e` illustrata nelle Figure 10.15 e 10.16. Per ricavare l’equazione cartesiana dell’ellisse si sceglie un opportuno sistema di riferimento ponendo l’origine nel punto medio tra F e F 0 e l’asse x passante per F ed F 0 , di conseguenza si assume che i fuochi siano: F = (c, 0), E` chiaro che 2c < 2a, il numero: e=

F 0 = (−c, 0). c <1 a

460

Riduzione a Forma Canonica delle Coniche

P F’

F

Figura 10.15: L’ellisse come luogo geometrico

F’

F

Figura 10.16: Rappresentazione grafica della relazione (10.8)

Capitolo 10

461

prende il nome di eccentricit`a dell’ellisse. Le rette di equazioni: x=±

a e

sono le direttrici dell’ellisse, il loro significato geometrico verr`a spiegato nel Paragrafo 10.3. Sia P = (x, y) il generico punto dell’ellisse, il luogo richiesto ha equazione: p p (x − c)2 + y 2 + (x + c)2 + y 2 = 2a, da cui si ha: (a2 − c2 )x2 + a2 y 2 = a2 (a2 − c2 ). Posto b2 = a2 − c2 , si ottiene:

y2 x2 + = 1, (10.9) a2 b2 che e` un’equazione dell’ellisse in forma canonica, vale a dire rispetto ad un riferimento cartesiano opportunamente scelto. Osservazione 10.2 Per la definizione di equazione dell’ellisse in forma canonica ed il suo legame con il concetto di forma quadratica scritta in forma canonica introdotto nel Paragrafo 8.5 si veda il Paragrafo 10.4. Talvolta l’ellisse e` anche detta ellisse reale per distinguerla dall’ellisse immaginaria. L’ellisse immaginaria e` rappresentata dall’equazione (in forma canonica): y2 x2 + = −1, a2 b2 che non ammette soluzioni reali. La curva di equazione (10.9) incontra l’asse x nei punti A = (a, 0) e A0 = (−a, 0) e l’asse y nei punti B = (0, b) e B 0 = (0, −b), questi quattro punti prendono il nome di vertici dell’ellisse; l’origine ne e` il centro. Dall’equazione (10.9) si deduce che si tratta di una curva simmetrica ripetto all’asse x, all’asse y e all’origine, e` pertanto sufficiente studiare la sua equazione nel primo quadrante. Da (10.9) si ha: x2 b2 − y 2 = a2 b2 quindi |y| ≤ b, analogamente si ottiene |x| ≤ a. Il grafico e` , quindi, compreso nel rettangolo delimitato dalle rette di equazioni x = ±a e y = ±b. Poich´e: y=±

b2 √ 2 a − x2 , a2

Riduzione a Forma Canonica delle Coniche

462

intuitivamente si ha che se l’ascissa del punto P, che descrive la curva, aumenta di valore, allora la sua ordinata y diminuisce. Si osservi che se a = b, allora c = 0, ogni retta per l’origine e` asse di simmetria ed in questo caso l’ellisse e` la circonferenza di centro O e raggio a. Esercizio 10.7 Determinare il centro, i fuochi e i vertici delle seguenti ellissi: E1 : 3x2 + 8y 2 = 12, E2 : 18x2 + y 2 = 9, i cui grafici sono rappresentati nelle Figure 10.17 e 10.18, rispettivamente.

2

1

!3

!2

!1

1

2

3

!1

!2

Figura 10.17: Esercizio 10.7, ellisse E1 Soluzione

L’ellisse E1 si pu`o scrivere come: x2 y2 + = 1, 3 4 2

da cui segue che il centro e` l’origine, i vertici sono: A = (2, 0),

A0 = (−2, 0),

B=

√ ! 6 , 0, 2

Poich´e c2 = a2 − b2 = 5/2, i fuochi hanno coordinate:

B0 =

√ ! 6 0, − . 2

Capitolo 10

463

3

2

1

!1.0 !0.5

0.5

1.0

!1

!2

!3

Figura 10.18: Esercizio 10.7, ellisse E2

F =

! √ 10 ,0 , 2



! 10 − ,0 . 2

F0 =

L’ellisse E2 si pu`o scrivere come: x2 y2 + = 1, 1 9 2

(10.10)

da cui segue che il centro e` l’origine, ma i fuochi appartengono all’asse y in quanto 9 > 1/2. I vertici sono: √ A=

! 2 ,0 , 2



A0 =

! 2 − ,0 , 2

B = (0, 3),

Poich´e c2 = a2 − b2 = 9 − 1/2, i fuochi hanno coordinate: F =

√ ! 17 0, √ , 2

F0 =

√ ! 17 0, − √ . 2

B 0 = (0, −3).

464

Riduzione a Forma Canonica delle Coniche

Si osservi che l’equazione (10.10) non e` scritta nella stessa forma di (10.9). Se si vuole passare dall’equazione (10.10) ad un’equazione dello stesso tipo di (10.9) e` necessario effettuare una rotazione degli assi di π/2, in senso antiorario, vale a dire porre: 

x y



 =

0 −1 1 0



X Y

 (10.11)

P F’

F

Figura 10.19: Teorema 10.1 e, nel riferimento R0 = (O, X, Y ), l’equazione (10.10) diventa: X2 Y2 + = 1. 1 9 2 Per l’ellisse vale la seguente propriet`a, la cui dimostrazione segue da facili considerazioni geometriche e si pu`o leggere, per esempio, in [8]. Teorema 10.1 La retta tangente ad un’ellisse, di fuochi F ed F 0, in un suo punto P, e` la bisettrice delle rette P F e P F 0 . La situazione geometrica descritta nel teorema e` illustrata nella Figura 10.19.

Capitolo 10

10.2.2

465

L’iperbole

Definizione 10.2 Fissati due punti F e F 0 del piano, l’iperbole e` il luogo dei punti P tali che: | d(P, F ) − d(P, F 0 ) | = 2a, (10.12) dove a e` una costante positiva tale che 2a < d(F, F 0 ).

P F’

F

Figura 10.20: L’iperbole come luogo geometrico I punti F e F 0 prendono il nome di fuochi dell’iperbole. La situazione geometrica e` illustrata nelle Figure 10.20 e 10.21. Come nel caso dell’ellisse, si sceglie un opportuno riferimento cartesiano avente l’origine nel punto medio tra F ed F 0 e l’asse x passante per F ed F 0 ; si pone F = (c, 0) e F 0 = (−c, 0). Sia P = (x, y) il generico punto dell’iperbole, allora (10.12) diventa: |

p

(x − c)2 + y 2 −

p (x + c)2 + y 2 | = 2a.

(10.13)

Elevando due volte al quadrato si perviene a: (c2 − a2 )x2 − a2 y 2 = a2 (c2 − a2 ). Poich´e c2 > a2 , si pone b2 = c2 − a2 , sostituendo nell’equazione precedente si ottiene: x2 y2 − =1 a2 b2

(10.14)

466

Riduzione a Forma Canonica delle Coniche

F

F’

Figura 10.21: Rappresentazione grafica della relazione (10.12) che e` un’equazione dell’iperbole in forma canonica, vale a dire rispetto ad un riferimento cartesiano opportunamente scelto. Per la definizione di equazione dell’iperbole in forma canonica si veda il Paragrafo 10.4. Il numero: e=

c >1 a

prende il nome di eccentricit`a dell’iperbole. Le rette di equazione: x=±

a e

prendono il nome di direttrici dell’iperbole; il significato geometrico dell’eccentricit`a e delle direttrici verr`a spiegato nel Paragrafo 10.3. L’equazione (10.14) rappresenta una curva simmetrica rispetto all’asse x, all’asse y e all’origine del riferimento. La curva incontra l’asse x nei punti: A1 = (a, 0),

A2 = (−a, 0),

detti vertici dell’iperbole, non ha punti di intersezione con l’asse y . Da: y2 x 2 − a2 = , b2 a2

Capitolo 10

467

ossia: y=±

b√ 2 x − a2 , a

segue che |x| ≥ a, quindi non vi sono punti della curva compresi tra le rette di equazioni x = ±a. Inoltre, tali rette intersecano la curva in due punti coincidenti, i vertici, quindi esse sono tangenti alla curva. Da: x2 y2 = −1 b2 a2 segue, intuitivamente, che il valore dell’ordinata (in valore assoluto) aumenta all’aumentare del valore dell’ascissa (in valore assoluto). La curva e` cos`ı divisa in due parti (simmetriche rispetto all’asse y ) che prendono il nome di rami dell’iperbole. Si studia l’intersezione della curva con una generica retta passante per l’origine (ad eccezione dell’asse y che non interseca la curva), quindi si studiano le soluzioni del sistema:  2 y2 x   2 − 2 =1 a b   y = px, al variare di p in R. Sostituendo la seconda equazione nella prima si ottiene: ab x = ±p b 2 − a2 p 2 da cui segue che l’esistenza delle soluzioni dipende dal radicando b2 − a2 p2 . Si distinguono i seguenti casi: 1. Se |p| < b/a, le rette incontrano la curva in due punti distinti. 2. Se |p| > b/a, le rette non intersecano la curva. 3. Le rette: b y=± x a costituiscono un caso “limite” tra le due situazioni 1. e 2.. Tali rette prendono il nome di asintoti dell’iperbole. Per meglio descrivere il comportamento della curva rispetto agli asintoti si consideri la differenza tra le ordinate del punto P0 = (x, y0 )

468

Riduzione a Forma Canonica delle Coniche

appartenente all’asintoto, e il punto P1 = (x, y1 ) appartenente alla curva aventi la stessa ascissa, ossia: y0 − y1 =

 √ b ab √ x − x 2 − a2 = . a x + x 2 − a2

Quando P1 si allontana indefinitamente sull’iperbole, la sua ascissa x cresce sempre di pi`u ed allora l’ultima frazione, avendo il numeratore costante e il denominatore che aumenta via via, diminuisce sempre di pi`u. Pi`u precisamente: lim

x→±∞

ab √ = 0. x + x 2 − a2

La situazione geometrica e` illustrata nella Figura 10.22.

P0 P1

Figura 10.22: L’iperbole e i suoi asintoti Esercizio 10.8 Si calcolino i vertici, i fuochi e gli asintoti delle seguenti iperboli: I1 :

4 2 x − 25y 2 = 1, 9

I2 : 9x2 − 4y 2 = 36, I3 : 4x2 − 3y 2 = −5,

Capitolo 10

469

i cui grafici sono rispettivamente rappresentati nelle Figure 10.23, 10.24 e 10.25. 2 1

!4

!2

2

4

!1 !2

Figura 10.23: Esercizio 10.8, iperbole I1

4

2

!6

!4

!2

2

4

!2

!4

Figura 10.24: Esercizio 10.8, iperbole I2 Soluzione

Per quanto riguarda l’iperbole I1 i vertici sono:     3 3 0 A= ,0 , A = − ,0 ; 2 2

i fuochi sono: F =

! √ 229 ,0 , 10



F0 =

! 229 − ,0 , 10

6

Riduzione a Forma Canonica delle Coniche

470

4

2

!6

!4

!2

2

4

6

!2

!4

Figura 10.25: Esercizio 10.8, iperbole I3 gli asintoti hanno equazioni: y=±

2 x. 15

Per quanto l’iperbole I2 i vertici sono A = (2, 0), A0 = (−2, 0); i fuochi sono √ √ riguarda 0 F = ( 13, 0), F = (− 13, 0), gli asintoti hanno equazioni: 3 y = ± x, 2 si osservi che, in questo caso b > a, come si pu`o evincere dalla Figura 10.24, rispetto all’iperbole rappresentata nella Figura 10.23 in cui b < a. Per quanto riguarda l’iperbole I3 l’equazione diventa: y2 x2 − = 1; 5 5 3 4 analogamente al caso dell’Esercizio 10.7, per scrivere l’equazione nella forma (10.14) e` necessario effettuare il cambiamento di riferimento dato da (10.11). Di conseguenza, nel riferimento iniziale R = (O, x, y), i vertici sono:

Capitolo 10

A=

√ ! 5 0, √ , 3

471

A0 =

√ ! 5 0, − √ , 3

F0 =

√ ! 35 0, − √ 12

i fuochi sono: F =

√ ! 35 0, √ , 12

e gli asintoti hanno equazioni: √ x=±

3 y. 2

Se nell’equazione (10.14) si pone a = b si ottiene: x 2 − y 2 = a2 ,

(10.15)

√ √ i fuochi hanno coordinate F = ( 2 a, 0) e F 0 = (− 2 a, 0), gli asintoti hanno equazioni y = ±x, ossia coincidono con le bisettrici del I e III quadrante e del II e IV quadrante e l’iperbole prende il nome di iperbole equilatera. La Figura 10.26 illustra alcune iperboli equilatere, ottenute variando il parametro a, avente tutte gli stessi asintoti, ma vertici diversi. Gli asintoti, comuni a tutte le iperboli equilatere, possono essere pensati come l’iperbole “degenere” di equazione (x − y)(x + y) = 0. Per l’iperbole valgono le seguenti propriet`a, la cui dimostrazione segue da facili considerazioni geometriche e si pu`o leggere, per esempio, in [8]. Teorema 10.2 Data un’iperbole di fuochi F ed F 0, la retta tangente in un suo punto P e` la bisettrice delle rette P F e P F 0. La situazione geometrica descritta nel teorema appena enunciato e` illustrata nella Figura 10.27. Teorema 10.3 Si consideri una qualsiasi retta che intersechi un ramo di un’iperbole nei punti P1 e P2 e gli asintoti nei punti Q1 e Q2 , allora i segmenti Q1 P1 e Q2 P2 hanno la stessa lunghezza. In particolare, la retta tangente in un punto P all’iperbole incontra gli asintoti nei punti Q1 e Q2 di cui P e` il punto medio. La situazione geometrica descritta nel teorema appena enunciato e` illustrata nelle Figure 10.28 e 10.29.

472

Riduzione a Forma Canonica delle Coniche

Figura 10.26: Una famiglia di iperboli equilatere

P

F’

F

Figura 10.27: Rappresentazione grafica del Teorema 10.2

Capitolo 10

473

Q1 P1

P2 Q2

Figura 10.28: Rappresentazione grafica del Teorema 10.3

Q1

P1!P2

Q2

Figura 10.29: Rappresentazione grafica del Teorema 10.3

Riduzione a Forma Canonica delle Coniche

474

Teorema 10.4 Per ogni punto P di un’iperbole, tutti i parallelogrammi formati dagli asintoti e dalle parallele ad essi condotte da P hanno la stessa area. La situazione descritta nel teorema precedente e` illustrata nella Figura 10.30 in cui i rettangoli colorati hanno la stessa area.

P

P

Figura 10.30: Rappresentazione grafica del Teorema 10.4

10.2.3

Iperbole equilatera riferita agli asintoti

Si vuole studiare il caso particolare dell’iperbole equilatera e scrivere la sua equazione nel riferimento avente come assi gli asintoti. Per risolvere il problema, si pu`o procedere ruotando gli assi cartesiani del riferimento R = (O, x, y) di π/4 in senso orario e mantenendo fissa l’origine, pervenendo cos`ı al riferimento R0 = (O, X, Y ), e scrivendo l’equazione dell’iperbole (10.15) nel riferimento R0 . In alternativa, si pu`o operare come segue. Se si immagina che gli asintoti coincidano con gli assi cartesiani, i fuochi dell’iperbole diventano i punti della retta y = x di coordinate F = (a, a), F√0 = (−a, −a), infatti, per il teorema di Pitagora, la loro distanza dall’origine e` c = 2a. Si ripetono i calcoli descritti a partire da (10.13) in questo caso, e precisamente (10.13) diventa: p

(x − a)2 + (y − a)2 −

p (x + a)2 + (y + a)2 = 2a.

Capitolo 10

475

Elevando due volte al quadrato si ottiene l’equazione: a2 xy = , 2

(10.16)

che risponde al problema posto. Si osservi che questa rappresentazione permette di dimostrare pi`u agevolmente il comportamento dell’asintoto (l’asse x per esempio) rispetto alla curva. Infatti se P1 = (x, y) e` un punto della curva e P0 = (x, 0) e` il punto dell’asse x di uguale ascissa, allora e` evidente che: lim y = lim

x→∞

x→±∞

a2 = 0. 2x

Al variare di a in (10.16) si hanno iperboli con rami nel primo e terzo quadrante, i cui asintoti sono gli assi cartesiani, con i vertici che variano sulla bisettrice y = x. 8

6

4

2

-8

-6

-4

-2

2

4

6

8

-2

-4

-6

-8

Figura 10.31: Iperboli di equazione xy = k 2 , k ∈ R La curva: xy = 0 rappresenta la conica “degenere”prodotto degli assi cartesiani, invece la famiglia di curve (ottenute al variare di a)

476

Riduzione a Forma Canonica delle Coniche

8

6

4

2

-8

-6

-4

-2

2

4

6

8

-2

-4

-6

-8

Figura 10.32: Iperboli di equazione xy = −k 2 , k ∈ R

xy = −

a2 2

si pu`o ottenere con lo stesso procedimento appena descritto, dopo aver effettuato il cambiamento di riferimento: 

x = −Y y = X;

di conseguenza, nel riferimento originale, i rami della curva si trovano nel secondo e quarto quadrante e i vertici variano sulla bisettrice y = −x. Le situazioni descritte sono illustrate nelle Figure 10.31 e 10.32.

10.2.4

La parabola

Definizione 10.3 La parabola e` il luogo dei punti P equidistanti da una retta f fissata e da un punto F fissato. La retta f prende il nome di direttrice della parabola e il punto F e` il fuoco della parabola.

Capitolo 10

477

Come nel caso dell’ellisse e dell’iperbole, per ricavare l’equazione della parabola si sceglie un riferimento cartesiano opportuno. Si pu`o procedere nei due modi di seguito descritti. Primo Caso Si sceglie il riferimento in modo tale che il fuoco F appartenga all’asse x e abbia coordinate F = (0, c), con c > 0, e la direttrice abbia equazione y = −c, pertanto l’origine e` un punto appartenente al luogo richiesto. Imponendo che: d(P, F ) = d(P, f ) si ha: p x2 + (y − c)2 = |y + c|, elevando al quadrato si ottiene: y = ax2 ,

(10.17)

dove a = 1/4c. Allora (10.17) e` un’equazione della parabola in forma canonica. Secondo Caso Si sceglie il fuoco di coordinate F = (c, 0), con c > 0, e la direttrice di equazione x = −c, procedendo come nel caso precedente si perviene a: x = ay 2 ,

(10.18)

che e` un’altra equazione in forma canonica della parabola. Analogamente usando valori negativi per il numero c si ottengono le equazioni: y = −ax2

(10.19)

x = −ay 2 .

(10.20)

e:

Due situazioni geometriche sono illustrate nelle Figure 10.33 e 10.34. Tutte le parabole di equazioni (10.17), (10.18), (10.19), (10.20) passano per l’origine, che e` il loro vertice. Tra tutti i punti della parabola, il vertice e` quello avente distanza minore dal fuoco (e dalla direttrice). Per quanto riguarda lo studio del grafico della parabola, per esempio da (10.18), si deduce che la curva e` simmetrica rispetto all’asse x, le ascisse dei suoi punti sono sempre numeri positivi e l’ascissa aumenta all’aumentare (in valore assoluto) dell’ordinata.

478

Riduzione a Forma Canonica delle Coniche

Figura 10.33: La parabola come luogo di punti, di equazione y = ax2 , a > 0

Figura 10.34: La parabola come luogo di punti, di equazione y = ax2 , a < 0

Capitolo 10

479

Per capire l’andamento della curva al variare del parametro a si osservi la Figura 10.35 in cui sono riportati i grafici delle parabole di equazioni y = (1/2)x2 (quella esterna), y = x2 , (quella centrale), y = 2x2 (quella interna).

8

6

4

2

-4

-2

2

4

Figura 10.35: Le parabole y = (1/2)x2 , y = x2 , y = 2x2 Esercizio 10.9 Determinare il vertice, il fuoco e la direttrice delle parabole: P1 : 3x − 2y 2 = 0, P2 : 2x2 + 9y = 0, che sono rappresentate nelle Figure 10.36 e 10.37. Soluzione Entrambe le parabole hanno vertice nell’origine, nel caso di P1 il fuoco e` F = (3/8, 0) e la direttrice ha equazione x = −3/8. Nel caso di P2 il fuoco e` F = (0, −9/8) e la direttrice ha equazione y = 9/8. Per la parabola vale la seguente propriet`a, la cui dimostrazione segue da facili considerazioni geometriche e si pu`o leggere, per esempio, in [8]. Teorema 10.5 La retta tangente ad una parabola in un suo punto P e` la bisettrice dell’angolo formato dalla retta passante per P e per il fuoco e dalla retta per P perpendicolare alla direttrice.

480

Riduzione a Forma Canonica delle Coniche

3 2 1

1

2

3

5

4

7

6

-1 -2 -3

Figura 10.36: Esercizio 10.9, parabola P1

-6

-4

-2

2

4

6

-2 -4 -6 -8 -10

Figura 10.37: Esercizio 10.9, parabola P2

Capitolo 10

481

t

P F f

Figura 10.38: Rappresentazione grafica del Teorema 10.5 La situazione geometrica descritta nel teorema appena enunciato e` illustrata nella Figura 10.38.

10.2.5

Coniche e traslazioni

Gli esercizi che seguono sono volti a studiare l’equazione di una conica scritta in un riferimento cartesiano traslato rispetto al riferimento iniziale in cui essa si presenta in forma canonica. Se nell’equazione (10.9) dell’ellisse in forma canonica si opera una traslazione degli assi: 

x = X + x0 y = Y + y0 ,

(cfr. Par. 9.4), l’equazione diventa: (Y + y0 )2 (X + x0 )2 + = 1. a2 b2

(10.21)

Svolgendo i calcoli, si ottiene un’equazione del tipo: αx2 + βy 2 + x + δy + γ = 0,

(10.22)

con α, β, , δ, γ ∈ R, α 6= 0, β 6= 0, che, rispetto alla pi`u generale equazione di secondo grado nelle indeterminate x e y , ha il coefficiente del termine in xy pari a zero. In questo caso particolare, se si ha l’equazione della conica nella forma (10.22), con il metodo del

482

Riduzione a Forma Canonica delle Coniche

completamento dei quadrati (cfr. Es. 8.13) e` facile risalire alla forma (10.21), e, quindi, all’equazione iniziale che meglio consente di studiare la conica. Analogo discorso vale per l’iperbole e la parabola. Nel Paragrafo 10.4 si studieranno le equazioni di secondo grado complete in x, y , di cui, quelle appena descritte, sono un caso particolare. Esempio 10.1 Nel riferimento R = (O, x, y) e` data la conica di equazione: x2 + 2y 2 + 4x + 4y − 2 = 0. Completando i quadrati, si ha: (x2 + 4x + 4 − 4) + 2(y 2 + 2y + 1 − 1) − 2 = 0, (x + 2)2 + 2(y + 1)2 = 8, e, quindi: (x + 2)2 (y + 1)2 + = 1. 8 4 Pertanto con la traslazione: 

X =x+2 Y = y + 1,

si ottiene: Y2 X2 + = 1, 8 4 che e` l’equazione di un’ellisse. Si osservi che il centro O0 dell’ellisse e` l’origine del riferimento traslato R0 = (O0 , X, Y ) ed ha coordinate (−2, −1) rispetto al riferimento R. Gli assi che hanno equazione Y = 0 e X = 0 nel riferimento R0 = (O0 , X, Y ) hanno invece, rispettivamente, equazione y +1 = 0 e x+2 = 0 nel riferimento R. La situazione geometrica e` illustrata nella Figura 10.39. Esempio 10.2 Nel riferimento R = (O, x, y) e` data la conica: x2 − 2y 2 + 6x − 8y − 5 = 0. Completando i quadrati, si ha: (x2 + 6x + 9 − 9) − 2(y 2 + 4y + 4 − 4) − 5 = 0, (x + 3)2 − 2(y + 2)2 = 6,

Capitolo 10

483

2

1

-4

-2

2 -1

-2

-3

Figura 10.39: Esempio 10.1 e, quindi: (x + 3)2 (y + 2)2 − = 1. 6 3 Pertanto con la traslazione: 

X =x+3 Y = y + 2,

si ottiene: X2 Y2 − = 1, 6 3 che e` l’equazione di un’iperbole. Si osservi che il centro O0 dell’iperbole e` l’origine del riferimento traslato R0 = (O0 , X, Y ) ed ha coordinate (−3, −2) rispetto al riferimento R. Gli asintoti che hanno equazioni: 1 Y = √ X, 2

1 Y = −√ X 2

nel riferimento R0 = (O0 , X, Y ), hanno invece equazioni: 1 y = √ (x + 3) − 2, 2

1 y = − √ (x + 3) − 2 2

nel riferimento R. La situazione geometrica e` illustrata nella Figura 10.40.

484

Riduzione a Forma Canonica delle Coniche

5 2.5

-5

-10

5

10

-2.5 -5 -7.5 -10

Figura 10.40: Esempio 10.2

6

4

2

!6

!4

!2

2

!2

!4

Figura 10.41: Esempio 10.3

Capitolo 10

485

Esempio 10.3 Nel riferimento R = (O, x, y) e` data la conica: 2y 2 − 8y + 5x − 9 = 0. Completando i quadrati, si ha: 2(y 2 − 4y + 4 − 4) + 5x − 9 = 0,   17 2 = 0, 2(y − 2) + 5 x − 5 Pertanto con la traslazione:  17   X =x− 5   Y = y − 2, si ottiene: 2Y 2 + 5X = 0 che e` l’equazione di una parabola. Il vertice della parabola O0 e` l’origine del riferimento traslato R0 = (O0 , X, Y ) ed ha coordinate (17/5, 2) rispetto al riferimento R. La situazione geometrica e` illustrata nella Figura 10.41. Osservazione 10.3 E` fondamentale ricordare che per applicare il metodo del completamento dei quadrati e poi effetture l’opportuna traslazione si devono sempre mettere in evidenza i coefficienti di x2 e di y 2 (perch´e?).

10.3

Le coniche: luoghi geometrici di punti

La definizione che segue giustifica la denonimazione conica assegnata alle curve introdotte nel Paragrafo 10.2. Definizione 10.4 Si dicono coniche tutte le curve piane che si possono ottenere intersecando un cono circolare retto con un piano. Per cono circolare retto si intende il luogo delle rette dello spazio che si appoggiano su di una circonferenza e passano tutte per il vertice, punto appartenente alla retta perpendicolare al piano della circonferenza nel suo centro, questa retta prende il nome di asse del cono. Per lo studio approfondito dei coni nello spazio si rimanda al Paragrafo 12.2.

486

Riduzione a Forma Canonica delle Coniche

E` chiaro che, secondo la definizione proposta, il termine conica comprende: la circonferenza, l’ellisse, l’iperbole e la parabola, come illustrato nelle Figure 10.42, 10.43, 10.44 e 10.45. Inoltre, se il piano secante il cono passa per il vertice, allora si ottengono anche coppie di rette incidenti e coppie di rette coincidenti pertanto anche questi sono esempi di coniche che prendono il nome di coniche degeneri. Se il piano secante passa per il vertice (e, per esempio, e` perpendicolare all’asse del cono) allora interseca il cono solo nel vertice, che risulta anche essere una particolare conica degenere.

Figura 10.42: La circonferenza Con questo metodo non si pu`o visualizzare la conica degenere formata da due rette parallele. Per ottenerla e` necessario usare metodi di Geometria Proiettiva, in questo ambito anche le rette parallele si incontrano in punti particolari, “all’infinito”, detti punti improprii; per uno studio approfondito di questi argomenti si rimanda, per esempio, a [17]. Scopo di questo paragrafo e` quello di introdurre un luogo geometrico di punti nel piano che comprenda tutte le coniche, tranne ovviamente il caso degenere appena citato. Definizione 10.5 Una conica e` il luogo dei punti del piano per cui si mantiene costante il rapporto tra la distanza di tali punti da un punto fissato e da una retta fissata. Detti P il punto generico della conica, F il punto assegnato, f la retta assegnata ed e la costante, la definizione precedente equivale a: d(P, F ) = e. d(P, f )

(10.23)

Capitolo 10

Figura 10.43: L’ellisse

Figura 10.44: L’iperbole

487

488

Riduzione a Forma Canonica delle Coniche

Figura 10.45: La parabola Il punto F prende il nome di fuoco della conica, la retta f e` la direttrice della conica e la costante e e` l’eccentricit`a della conica. Se si assume che la distanza del punto F dalla retta f sia positiva (mai nulla), allora e` chiaro dalla definizione che e > 0. La situazione geometrica e` illustrata nella Figura 10.46. Si procede ora alla determinazione dell’equazione del luogo geometrico dei punti P che verificano la formula (10.23). Fissato un riferimento cartesiano R = (O, x, y), si pongono: P = (x, y), F = (x0 , y0 ) e f : ax + by + c = 0, per cui la relazione (10.23) diventa: p (x − x0 )2 + (y − y0 )2 = e, |ax + by + c| √ a2 + b 2 elevando al quadrato, si ottiene: (x − x0 )2 + (y − y0 )2 = e2 Si distinguono i due casi seguenti: 1. F ∈ f : il fuoco appartiene alla direttrice.

(ax + by + c)2 . a2 + b 2

(10.24)

Capitolo 10

489

P

F

f

Figura 10.46: Un punto P di una conica di fuoco F e direttrice f 2. F ∈ / f : il fuoco non appartiene alla direttrice. In ciascuno dei due casi elencati si esamineranno i sottocasi: a. e = 1; b. e > 1; c. e < 1. Primo Caso F ∈ f : il fuoco appartiene alla direttrice. Si sceglie un sistema di riferimento opportuno, ponendo l’origine coincidente con F e la direttrice f coincidente con l’asse y , pertanto il fuoco avr`a coordinate F = (0, 0) ed f equazione x = 0. L’equazione (10.24) diventa: x2 + y 2 = e 2 x2 , ossia: (1 − e2 )x2 + y 2 = 0.

(10.25)

Si inizia lo studio dei tre sottocasi: a. e = 1. L’equazione (10.25) si riduce a y 2 = 0, si tratta dell’asse x contato due volte; e` una conica degenere e, in un riferimento qualsiasi, consiste nell’equazione di una retta elevata al quadrato, per esempio (x − y + 5)2 = 0.

490

Riduzione a Forma Canonica delle Coniche

b. e > 1. In questo caso si ha 1−e2 < 0, pertanto l’equazione (10.25) e` una differenza di quadrati che pu`o essere espressa come: (y +

√ √ e2 − 1 x)(y − e2 − 1 x) = 0.

Si tratta, quindi, del prodotto di due rette incidenti e, di nuovo, di una conica degenere. c. e < 1. Allora si ha 1 − e2 > 0, pertanto l’equazione (10.25) rappresenta la somma di due quadrati, ossia un unico punto reale, in questo caso l’origine. Si tratta, di nuovo, di una conica degenere, interpretata come prodotto di due rette immaginarie coniugate (cfr. Par. 9.10.1) incidenti in un punto reale (`e il vertice del cono citato in precedenza). Riassumendo: se F ∈ f allora si ottengono solo coniche degeneri date dal prodotto di due rette coincidenti, o dal prodotto di due rette incidenti. Si osservi, di nuovo, che, per ottenere il caso della conica degenere formata da due rette parallele, e` necessario usare metodi di geometria proiettiva, in questo ambiente si deve porre la direttrice coincidente con la retta impropria, ossia la retta contenente tutti i punti improprii. Secondo Caso F ∈ / f : il fuoco non appartiene alla direttrice. Si sceglie un riferimento opportuno ponendo F sull’asse x e la direttrice f ortogonale all’asse x. Siano (c, 0) le coordinate di F e x = h l’equazione di f , con c 6= h. L’equazione (10.23) diventa: (1 − e2 )x2 + y 2 − 2(c − e2 h)x + c2 − e2 h2 = 0.

(10.26)

Si inizia lo studio dei tre sottocasi: a. e = 1. Dall’equazione (10.26) si ha: y 2 − 2(c − h)x + c2 − h2 = 0.

(10.27)

Si sceglie l’origine del sistema di riferimento in modo che c + h = 0, vale a dire l’origine O coincide con il punto medio tra il fuoco F e il punto di incontro della direttrice con l’asse x. Allora l’equazione (10.27) si riduce a: y 2 = 4cx, e, ponendo a = 1/4c, si perviene alla nota forma canonica della parabola: x = ay 2 .

Capitolo 10

491

b. e c. e 6= 1. Si determinano le intersezioni della curva di equazione (10.26) con l’asse x. Ponendo y = 0 nell’equazione (10.26) si ha: (1 − e2 )x2 − 2(c − e2 h)x + c2 − e2 h2 = 0.

(10.28)

Indicati con A1 = (x1 , 0) e A2 = (x2 , 0) i due punti cercati, dall’equazione precedente segue che:  x1 + x2 = 2

 c − e2 h . 1 − e2

(Si controlli per esercizio che l’equazione (10.28) ammette sempre due soluzioni reali e distinte). Si pone l’origine del riferimento nel punto medio tra A1 e A2 , ossia, si pone c − e2 h = 0, da cui: h=

c . e2

(10.29)

Sia a = x1 , quindi A1 = (a, 0) e A2 = (−a, 0). Il prodotto delle soluzioni dell’equazione (10.28) e` : x1 x2 = −a2 =

c2 − e2 h2 1 − e2

e, tenendo conto di (10.29), si perviene alla formula: e=

c . a

Sostituendo i risultati ottenuti in (10.26) segue: (a2 − c2 )x2 + a2 y 2 = a2 (a2 − c2 ).

(10.30)

Si possono distinguere i due ultimi casi: b. e > 1. Allora e = c/a > 1 e c > a, si pu`o porre b2 = c2 − a2 , quindi l’equazione (10.30) diventa: x2 y2 − = 1, a2 b2 che e` l’equazione dell’iperbole in forma canonica.

Riduzione a Forma Canonica delle Coniche

492

c. e < 1. Allora e = c/a < 1 e c < a, si pu`o porre b2 = a2 − c2 , quindi l’equazione (10.30) diventa: x2 y2 + = 1, a2 b2 che e` l’equazione dell’ellisse in forma canonica. In entrambi i casi si ottengono (per simmetria) due direttrici e due fuochi, per esempio la direttrice relativa al fuoco F = (c, 0) ha equazione: x=h=

a2 . c

Nel caso dell’ellisse, h > a, le due direttrici sono esterne alla figura, nel caso dell’iperbole h < a, le due direttrici sono posizionate tra l’asse y e i vertici. Si osservi che per c = 0 e, quindi, e = 0, si ottiene la circonferenza che risulta esclusa da questo luogo di punti in quanto e = 0 implica P = F. In conclusione, anche il luogo considerato non comprende tutte le coniche, mancando la circonferenza e la coppia di rette parallele. Una rappresentazione comune di tutte le coniche si vedr`a nel paragrafo che segue, dimostrando che le coniche sono tutte rappresentate da una generica equazione di secondo grado in x, y .

10.4

Le coniche: equazioni di secondo grado, riduzione delle coniche in forma canonica

Scopo di questo paragrafo e` dimostrare il seguente teorema. Teorema 10.6 Nel piano, ogni equazione di secondo grado nelle incognite x, y , scritta rispetto ad un riferimento cartesiano R = (O, x, y), rappresenta una conica. Si premette la seguente definizione. Definizione 10.6 Si dice che l’equazione di una conica e` scritta in forma canonica se la sua equazione di secondo grado assume una delle seguenti forme: αx2 + βy 2 + γ = 0,

αx2 + δy = 0,

con α, β, γ, δ,  coefficienti reali e α 6= 0, β 6= 0.

βy 2 + x = 0,

Capitolo 10

493

Sono esempi di equazioni di coniche scritte in forma canonica (10.9), (10.14), (10.17) e (10.18). Nella dimostrazione del Teorema 10.6 viene anche indicato il metodo da seguire per passare da un’equazione di secondo grado in x, y alla forma canonica di una conica. Per questo motivo e per aiutare la comprensione del procedimento usato, all’interno della dimostrazione sono inseriti esempi numerici di riduzione a forma canonica di coniche particolari. Dimostrazione del Teorema 10.6

Sia:

C : a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0

(10.31)

un’equazione di secondo grado in x, y con coefficienti aij ∈ R, i, j = 1, 2, 3, tali che a211 + a212 + a222 6= 0. Si introducono le due matrici simmetriche definite tramite (10.31):  A=

a11 a12 a12 a22

 a11 a12 a13 B =  a12 a22 a23 , a13 a23 a33 

 ,

che vengono spesso dette matrici associate alla conica C di equazione (10.31). L’equazione di C si pu`o scrivere in notazione matriciale come: 

 x  x y 1 B  y  = 0, 1

(10.32)

oppure come: x y



 A

x y

 +2

a13 a23





x y

 + a33 = 0.

(10.33)

Si vuole studiare il luogo dei punti P = (x, y) che verficano l’equazione (10.31), rispetto ad un riferimento cartesiano fissato R = (O, x, y) che determina la base ortonormale positiva B = (i, j) del piano vettoriale V2 . Esempio 10.4 La circonferenza C di equazione: C : x2 + y 2 + ax + by + c = 0 con centro C e raggio r dati da:   a b C = − ,− , 2 2

r2 =

a2 b2 + − c, 4 4

Riduzione a Forma Canonica delle Coniche

494

individua le matrici:   A=

1 0 0 1

1

    B=  0    a 2

 ,

a  2    b  . 2     c

0 1 b 2

Si osservi che A e` in forma diagonale, det(A) > 0 e: det(B) = c −

a2 b2 − = −r2 . 4 4

Pertanto, se:

b2 a2 + 6= c 4 4 allora det(B) 6= 0. Si osservi anche che se: b2 a2 + =c 4 4 si ha la circonferenza degenere di centro il punto (−a/2, −b/2) e raggio pari a zero (ossia il punto (−a/2, −b/2)), in questo caso det(B) = 0. Se: a2 b2 +


1  a2  A=  0

 0   , 1  b2

1  a2    B= 0    0

 0 1 b2 0

0     . 0     −1

Capitolo 10

495

Si osservi che A e` in forma diagonale ed inoltre: det(A) > 0,

det(B) 6= 0.

Esempio 10.6 L’ellisse immaginaria di equazione (in forma canonica): x2 y2 + = −1 a2 b2 individua le matrici: 





1  a2  A=  0

0   , 1  b2



1  a2    B= 0    0

0 1 b2 0

0     . 0     1

Si osservi che A e` in forma diagonale ed inoltre: det(A) > 0,

det(B) 6= 0.

Esempio 10.7 L’iperbole di equazione (in forma canonica): x2 y2 − =1 a2 b2 individua le matrici: 



1  a2  A=  0

 0   , 1  − 2 b

1  a2    B= 0    0

 0 −

Si osservi che A e` in forma diagonale ed inoltre: det(A) < 0,

det(B) 6= 0.

1 b2

0

0     . 0     −1

496

Riduzione a Forma Canonica delle Coniche

Esempio 10.8 La parabola, di equazione (in forma canonica): y 2 = 2px individua le matrici:   A=

0 0 0 1

 ,

0

 B=  0 −p

0 −p



 0  . 0

1 0

Si osservi che, anche in questo caso, A e` in forma diagonale ed inoltre: det(A) = 0,

det(B) 6= 0.

Analogamente la parabola, di equazione (in forma canonica): x2 = 2py individua le matrici:   A=

 1 0 , 0 0

1

0

0



  . 0 0 −p B=   0 −p 0

Si osservi che, anche in questo caso, A e` in forma diagonale ed inoltre: det(A) = 0,

det(B) 6= 0.

Esempio 10.9 La conica degenere di equazione: 4x2 + y 2 + 4xy = 0, ossia (2x + y)2 = 0, rappresenta la retta di equazione 2x + y = 0 contata due volte ed individua le matrici:  A=

 4 2 , 2 1



4  2 B= 0

2 1 0

 0 0 . 0

Si osservi che rank(A) = rank(B) = 1 e pertanto det(A) = 0 e det(B) = 0.

Capitolo 10

497

Esempio 10.10 La conica degenere di equazione: y2 − 9 = 0 rappresenta la coppia di rette reali y = 3 e y = −3 ed individua le matrici:     0 0 0 0 0 0 . A= , B= 0 1 0 1 0 0 −9 Si osservi che rank(A) = 1 e rank(B) = 2 e pertanto det(A) = 0 e det(B) = 0.

Esempio 10.11 La conica degenere di equazione: y2 + 9 = 0 rappresenta una coppia di rette immaginarie coniugate di equazioni y = −3i e y = 3i. (cfr. Par. 9.10.1) ed individua le matrici:     0 0 0 0 0 A= , B =  0 1 0 . 0 1 0 0 9 Analogamente all’esempio precedente si osservi che rank(A) = 1 e rank(B) = 2. Si riprende ora la dimostrazione del teorema, suddividendo il procedimento di riduzione a forma canonica in due casi. Primo caso a12 = 0, la matrice A associata al luogo dei punti P = (x, y) rappresentato dall’equazione (10.31) si presenta in forma diagonale: A=

a11

0

0

a22

!

e l’equazione (10.31) assume la forma: a11 x2 + a22 y 2 + 2a13 x + 2a23 y + a33 = 0. Operando con una opportuna traslazione degli assi si perviene all’annullarsi dei coefficienti a13 e a23 . Questo caso e` stato discusso nel Paragrafo 10.2.5 a cui si rimanda per il metodo da seguire e per gli esempi inseriti.

Riduzione a Forma Canonica delle Coniche

498

Secondo caso a12 6= 0. Si vuole effettuare un opportuno cambiamento della base ortonormale positiva B = (i, j) determinata dal riferimento cartesiano R = (O, x, y) nel quale e` scritta l’equazione C e quindi un’opportuna rotazione degli assi coordinati x e y in modo da trasformare l’equazione (10.33) in una nuova equazione: x

0

y

0



0



A

x0 y0

 +2

a013

a023





x0 y0



+ a033 = 0,

con A0 matrice diagonale. Dapprima si vuole quindi studiare come cambia l’equazione (10.33) se si opera mediante un cambiamento di base. Sia B 0 = (i0 , j0 ) una base ortonormale positiva e si indichino con:    0  x x (10.34) =P y0 y le equazioni del cambiamento d base da B a B 0 , dove:    0  x x , y0 y sono le matrici colonne delle componenti di un generico vettore x scritte rispetto alla base B e alla base B 0 , rispettivamente, e P e` la matrice del cambiamento di base da B a B 0 . Sostituendo le equazioni del cambiamento di base (10.34) in (10.33), l’equazione (10.33) si trasforma in: x

0

y

0





t

( P AP )

x0 y0

 +2

a13 a23



 P

x0 y0

 + a33 = 0.

Si osservi perci`o che il termine noto rimane invariato. Poich´e A e` una matrice simmetrica, esiste, per il Teorema 7.8, una matrice ortogonale P che permette di ottenere la matrice diagonale:   λ1 0 t D = P AP = , 0 λ2 con λ1 e λ2 autovalori di A. Pertanto, scegliendo come nuova base B 0 una base ortonormale positiva di autovettori di A, ovvero una base ortonormale di autovettori di A tale che la matrice del cambiamento di base P abbia determinante uguale a 1, rispetto al nuovo riferimento R0 = (O, x0 , y 0 ), con assi x0 e y 0 nella direzione degli autovettori di A, l’equazione (10.33) si trasforma in: x

0

y

0



 D

x0 y0

 +2

a013

a023





x0 y0

 + a33 = 0,

(10.35)

Capitolo 10

499

con: a013 a023



a13 a23

=



P.

Le equazioni (10.34) corrispondono quindi ad una rotazione del piano (cfr. Es. 6.24) e nelle nuove coordinate (x0 , y 0 ) l’equazione (10.33) si trasforma in: λ1 (x0 )2 + λ2 (y 0 )2 + 2a013 x0 + 2a023 y 0 + a33 = 0. Inoltre, da (10.34) si ottiene: 

 0  0 x   0 y 0 . 1 1

  x  y = P 1 0 0

Posto:



P

Q= 0

(10.36)

0

 0 0 , 1

l’equazione (10.32), mediante il cambiamento di base effettuato, si trasforma in:  0  x  0 0  0 0 x y 1 B y = 0, 1 con λ1

0

a013

 B0 =  0

λ2

 a023  = t QBQ.





a013 a023 a33 Confrontando le due equazioni (10.33) e (10.35), poich´e det(D) = det(A), si ha che la rotazione non cambia il determinante della matrice A. Inoltre: det(B 0 ) = det(B),

(10.37)

essendo det(Q) = det(P ) = 1. Infine, operando mediante un completamento dei quadrati e quindi applicando una traslazione opportuna del tipo:  0 x = X + x0 y 0 = Y + y0 , come descritto nel Paragrafo 10.2.5, si completa la riduzione a forma canonica, trasformando l’equazione (10.35) in un’equazione in forma canonica nel nuovo riferimento cartesiano R00 = (O0 , X, Y ).

Riduzione a Forma Canonica delle Coniche

500

Prima di continuare con la dimostrazione del teorema, vengono inseriti alcuni esempi numerici per capire meglio il procedimento di riduzione a forma canonica di una conica appena descritto. Esempio 10.12 Si riduca a forma canonica la conica di equazione: √ 3x2 + 2xy + 3y 2 + 2 2x = 0. Le matrici A e B associate alla conica sono date da:  3   3 1  A= , B= 1 1 3 √ 2

(10.38)

√  2  3 0  1

0

0

e (10.38) si pu`o scrivere come: x y



 A

x y

 +

 √ 2 2 0



x y

 = 0.

(10.39)

Si osservi che det(A) = 8 e det(B) 6= 0, ci sono, quindi, ragionevoli motivi per pensare che si tratti di un’ellisse. Gli autovalori di A sono λ1 = 2 e λ2 = 4, i corrispondenti autovettori (di norma unitaria per ottenere una matrice ortogonale del cambiamento di base) sono:     1 1 1 1 0 0 i = √ ,−√ , j = √ , √ , 2 2 2 2 vale a dire, le equazioni della rotazione sono: 1  0  x √ 2     ,    1 0 √ y 2

1 √ 2       =P =       1 0 −√ y y 2 

x





x0





che sostituite in (10.39) portano all’equazione:

 x0 y 0

2

0

  



x0

   0

4

  + 

y0

1 √ 2  √  2 2 0   1 −√ 2 

1  0  x √ 2     = 0,    1  √ y0 2

Capitolo 10

501

ossia: 2(x0 )2 + 4(y 0 )2 + 2x0 + 2y 0 = 0. Operando con il metodo del completamento dei quadrati mediante la traslazione:  1  0    X=x +2   1   Y = y0 + 4 si ottiene: X2 Y2 + = 1. 3 3 8 16 Si tratta proprio di un’ellisse. Per calcolarne le coordinate del centro, dei vertici e le equazioni degli assi e` necessario determinare le equazioni complessive del movimento rigido del piano dato dalla composizione della rotazione e della traslazione e che a volte viene anche denominato rototraslazione. Si ha: 1 √ 2       =P =       1 0 −√ y y 2 

x





x0

1 √  2  =  1 −√ 2 





  1   X √  2       −      1  √ Y 2

  1  3 X √ √ 2  4 2    −      1  1 √ − √ Y 2 4 2

 1  2    1  4

   . 

Quindi il centro O0 dell’ellisse, rispetto al riferimento R = (O, x, y), ha coordinate:   1 3 0 O = − √ , √ , 4 2 4 2 gli assi, che, nel riferimento R00 = (O0 , X, Y ), hanno equazioni X = 0, Y = 0, hanno equazioni, nel riferimento iniziale R = (O, x, y), rispettivamente: √ √ 2 2 x−y+ = 0, x + y + = 0. 2 4

Riduzione a Forma Canonica delle Coniche

502

Con lo stesso procedimento si possono ricavare le coordinate dei vertici e dei fuochi dell’ellisse. Esempio 10.13 Si riduca a forma canonica la conica di equazione: 4x2 − 4xy + y 2 + 6x + 2y − 3 = 0.

(10.40)

Le matrici A e B associate alla conica sono date da:  A=



 4 −2 3 1 1  B =  −2 3 1 −3

 4 −2 , −2 1

e (10.40) si pu`o scrivere come: x y



 A

x y

 +

6 2





x y

 − 3 = 0.

(10.41)

Si osservi che det(A) = 0 e det(B) 6= 0, ci sono, quindi, ragionevoli motivi per pensare che si tratti di una parabola. Gli autovalori di A sono λ1 = 0 e λ2 = 5, i corrispondenti autovettori (di norma unitaria per avere una matrice del cambiamento di base che sia ortogonale) sono:     2 1 2 1 0 0 i = √ , √ , j = −√ , √ , 5 5 5 5 vale a dire, le equazioni della rotazione sono:  1 2  0 x √ −√  5 5       =  =P        2 1  √ √ y0 y y0 5 5 

x





x0



  , 

che sostituite in (10.40) portano all’equazione:

 x0 y 0

0

  



x0

   0

ossia:

0

5

  + 

y0

 1 2  0 x √ −√   5 5   6 2     2 1  √ √ y0 5 5

   − 3 = 0, 

Capitolo 10

503

√ √ 5(y 0 )2 + 2 5x0 − 2 5y 0 − 3 = 0.

(10.42)

Operando con il metodo del completamento dei quadrati l’equazione (10.42) si trasforma nel modo seguente:   √ 2√ 0 1 0 2 5 (y ) − 5y + = −2 5 x0 + 4, 5 5  2   √ 1 2 0 0 5 y −√ = −2 5 x − √ , 5 5 vale a dire, con la traslazione:  2  X = x0 − √    5   1   Y = y0 − √ 5 si ottiene:

√ 2 5 X. Y =− 5 2

Si tratta proprio di una parabola. Per calcolare le coordinate del vertice, e le equazioni dell’asse e della direttrice e` necessario determinare le equazioni della rototraslazione del piano che ha permesso di ricavare tale equazione, e precisamente:  1   2 2   X √ −√ √    5 5 5         +   = P =           2    1 1 0 √ √ √ y y Y 5 5 5 

x





x0



 1 2  X √ −√   5 5   =    2 1  √ √ Y 5 5





0

  +  

    

  . 

1

Di conseguenza il vertice della parabola O0 ha coordinate (0, 1) rispetto al riferimento R = (O, x, y) e l’asse, che, nel riferimento R00 = (O0 , X, Y ), ha equazione Y = 0, ha equazione: 2x − y + 1 = 0

Riduzione a Forma Canonica delle Coniche

504

nel riferimento iniziale R = (O, x, y). Con lo stesso procedimento si possono ricavare le coordinate del fuoco e l’equazione della direttrice. Si riprende ora la dimostrazione del Teorema 10.6. Dall’equazione (10.36) si ottiene: λ1

0

a013

 B0 =  0

λ2

 a023 





a013 a023 a33 il cui determinante e` : det(B 0 ) = λ1 λ2 a33 − λ1 (a023 )2 − λ2 (a013 )2 .

(10.43)

Allo scopo di poter scrivere l’equazione della conica in forma canonica si deve effettuare la traslazione: 

x0 = X + x0 y 0 = Y + y0

(10.44)

in modo da annullare i termini di primo grado. Per calcolare il valore di x0 , y0 si sostituiscono le equazioni della traslazione (10.44) in (10.36), si ottiene: λ1 X 2 + λ2 Y 2 + 2(x0 λ1 + a013 )X + 2(y0 λ2 + a023 )Y + γ = 0

(10.45)

e il temine noto e` dato da: γ = λ1 x20 + λ2 y02 + 2a013 x0 + 2a023 y0 + a33 .

(10.46)

Si distinguono i seguenti casi: 1. λ1 6= 0, λ2 6= 0; 2. λ1 = 0, λ2 6= 0; 3. λ1 6= 0, λ2 = 0. 1. Essendo λ1 6= 0, λ2 6= 0, allora λ1 λ2 = det(D) = det(A) 6= 0. Si pone: x0 = − sostituendo (10.47) in (10.45) si ha:

a013 , λ1

y0 = −

a023 , λ2

(10.47)

Capitolo 10

505

λ1 X 2 + λ2 Y 2 + γ = 0, e sostituendo in (10.46) si ottiene: det(B 0 ) γ= . λ1 λ2

(10.48)

Si perviene quindi alla seguente classificazione, tenendo conto che det(B) = det(B 0 ) per la relazione (10.37): a. se λ1 e λ2 hanno lo stesso segno e det(B) 6= 0, si ottiene un’ellisse reale o immaginaria; b. se λ1 e λ2 hanno segno opposto e det(B) 6= 0, si ottiene un’iperbole; c. se λ1 e λ2 hanno lo stesso segno e det(B) = 0 (ossia γ = 0, cfr. (10.48)), si ottiene una conica degenere formata da un solo punto reale (intersezione di due rette le cui equazioni hanno coefficienti in campo complesso); d. se λ1 e λ2 hanno segno opposto e det(B) = 0 (ossia γ = 0, cfr. (10.48)), si ottiene una conica degenere formata da due rette reali incidenti. Si osservi che nei due ultimi casi il rango della matrice B e` 2. 2. λ1 = 0, λ2 6= 0, l’equazione (10.36) diventa: λ2 (y 0 )2 + 2a013 x0 + 2a023 y 0 + a33 = 0. Sostituendo le equazioni della traslazione (10.44) si ottiene: λ2 Y 2 + 2(y0 λ2 + a023 )Y + 2a013 X + γ = 0, e il temine noto e` dato da: γ = λ2 y02 + 2a013 x0 + 2a023 y0 + a33 . Si distinguono i due sottocasi: a. a013 = 0: segue che: a023 ; y0 = − λ2

(10.49)

Riduzione a Forma Canonica delle Coniche

506

operando quindi con una traslazione in cui x0 pu`o assumere qualsiasi valore, da (10.49) si ha: λ2 Y 2 + γ = 0.

(10.50)

Si ottiene, inoltre, da (10.43) che det(B 0 ) = 0. Se γ 6= 0, allora il rango di B 0 e` 2 e l’equazione (10.50) rappresenta due rette parallele (con equazioni a coefficienti reali o complessi). Se anche γ = 0, allora il rango di B 0 e` 1 e si ottengono due rette coincidenti. b. a013 6= 0: segue, di nuovo, che: y0 = −

a023 λ2

e l’equazione (10.49) si riduce a: λ2 Y 2 + 2a013 X + γ = 0, ossia: 2

λ2 Y +

2a013



γ X+ 0 2a13

 = 0.

Dall’equazione γ = 0 si ottiene anche il valore cercato di x0 , pertanto e` univocamente definita la traslazione cercata. La conica e` una parabola. Si osservi che: det(B) = −λ2 (a013 )2 6= 0. 3. λ1 6= 0, λ2 = 0, l’equazione (10.36) diventa: λ1 (x0 )2 + 2a013 x0 + 2a023 y 0 + a33 = 0. Sostituendo le equazioni della traslazione (10.44) si ottiene: λ1 X 2 + 2(x0 λ1 + a013 )X + 2a023 Y + γ = 0, e il temine noto e` dato da: γ = λ1 x20 + 2a013 x0 + 2a023 y0 + a33 . Si distinguono i due sottocasi:

(10.51)

Capitolo 10

507

a. a023 = 0: segue che:

a013 x0 = − , λ1 operando quindi con una traslazione in cui y0 pu`o assumere qualsiasi valore, da (10.51) si ha: λ1 X 2 + γ = 0.

(10.52)

Si ottiene, inoltre, da (10.43) che det(B 0 ) = 0. Se γ 6= 0, allora il rango di B 0 e` 2 (si ricordi che λ1 = 0) e l’equazione (10.52) rappresenta due rette parallele (con equazione a coefficienti reali o immaginarie). Se anche γ = 0, allora il rango di B 0 e` 1 e si ottengono due rette coincidenti. b. a023 6= 0: segue, di nuovo, che: x0 = −

a013 λ1

e l’equazione (10.51) diventa: λ1 X 2 + 2a023 Y + γ = 0, ossia: 2

λ1 X +

2a023

  γ = 0. Y + 0 2a23

Dall’equazione γ = 0 si ottiene anche il valore cercato di y0 , pertanto e` univocamente definita la traslazione cercata. La conica e` una parabola. Si osservi che det(B) = −λ1 (a023 )2 6= 0. A partire dall’equazione (10.31) si sono cos`ı ottenute tutte le coniche degeneri e non degeneri scritte in forma canonica secondo la Definizione 10.6. Si osservi che tutte le coniche degeneri sono caratterizzate da det(B) = 0 e classificate dal rango di B ; mentre se det(B) 6= 0, allora le coniche non degeneri sono caratterizzate da det(A); e precisamente det(A) = 0 corrisponde alla parabola, det(A) > 0 all’ellisse, det(A) < 0 all’iperbole. Osservazione 10.4 Come gi`a affermato all’inizio del Paragrafo 10.3, si dicono coniche degeneri quelle coniche costituite da: due rette immaginarie coniugate, due rette reali e distinte, due rette parallele, due rette coincidenti. La caratterizzazione delle coniche degeneri attraverso la condizione det(B) = 0 si ottiene facilmente dopo aver ridotto le coniche in forma canonica e ricordando che det(B) = det(B 0 ).

Riduzione a Forma Canonica delle Coniche

508

Riassumendo i risultati ottenuti nella dimostrazione precedente, si pu`o procedere nel modo seguente alla classificazione delle coniche attraverso il rango rank(A) e rank(B) delle matrici ad esse associate, tenuto conto che il rango di A ed il rango di B sono invarianti per rototraslazioni nel piano.

rank(B) = 3

  rank(A) = 2 : ellisse (reale o immaginaria), iperbole;  rank(A) = 1 : parabola.

rank(B) = 2

  rank(A) = 2 : due rette incidenti (reali o immaginarie);  rank(A) = 1 : due rette parallele (reali o immaginarie).

rank(B) = rank(A) = 1 : due rette coincidenti.

10.5

Esercizi di riepilogo svolti

Esercizio 10.10 Rispetto ad un riferimento cartesiano R = (O, x, y) o equivalentemente R = (O, i, j), scrivere l’equazione dell’ellisse avente centro nell’origine e vertici: √ √ √ √ √ √ √ √ A1 = (4 2, 4 2), A2 = (−4 2, −4 2), B1 = (− 2, 2), B2 = ( 2, − 2), indicando esplicitamente le equazioni del cambiamento di riferimento usato. Soluzione rette:

Le coppie di vertici A1 , A2 e B1 , B2 appartengono rispettivamente alle X : x − y = 0,

Y : x + y = 0,

le quali, con l’origine O, si possono assumere come assi del nuovo riferimento cartesiano R0 = (O, X, Y ) o equivalentemente R0 = (O, i0 , j0 ), dove: 1 i0 = √ (i + j), 2

1 j0 = √ (−i + j). 2

Tenuto conto che l’ellisse ha semiassi: a = d(A1 , O) = 8 b = d(B1 , O) = 2, la sua equazione, nel riferimento R0 , e` :

Capitolo 10

509

X2 Y2 + = 1. 64 4 Sia:

(10.53)

 1 1  √ −√  2 2    P =   1 1  √ √ 2 2

la matrice ortogonale, con determinante pari a 1, del cambiamento di base dalla base ortonormale positiva B = (i, j) alla base ortonormale positiva B 0 = (i0 , j0 ), si ha:     x X =P y Y e:



X Y



t

= P



x y

 ,

(si ricordi che tP = P −1 ). Sostituendo in (10.53) si ottiene: 17x2 + 17y 2 − 30xy − 128 = 0 che e` l’equazione dell’ellisse richiesta. Esercizio 10.11 Rispetto ad un riferimento cartesiano R = (O, x, y) o equivalentemente R = (O, i, j), scrivere l’equazione della parabola avente come asse la retta r : x−2y = 0, il vertice nell’origine ed il fuoco nel punto F = (2, 1). Soluzione I vettori r = 2i+j parallelo alla retta r, s = −i+2j ortogonale ad r e l’origine O individuano un nuovo riferimento cartesiano R0 = (O, X, Y ) o equivalentemente R0 = (O, i0 , j0 ), dove: r 2 1 s 1 2 = √ i + √ j, j0 = = − √ i + √ j. krk ksk 5 5 5 5 √ In tale riferimento, poich´e d(O, F ) = 5, l’equazione della parabola e` : i0 =

√ Y 2 = 4 5X. Indicata con:

(10.54)

510

Riduzione a Forma Canonica delle Coniche

 2 1  √ −√  5 5    P =   1 2  √ √ 5 5 la matrice ortogonale, con determinante pari a 1, del cambiamento di base dalla base ortonormale positiva B = (i, j) alla base ortonormale positiva B 0 = (i0 , j0 ), si ha: 

x y



X Y



 =P

X Y



e: 

t



= P

x y

 ,

(si ricordi che tP = P −1 ). Sostituendo in (10.54) si ottiene: x2 − 4xy + 4y 2 − 40x − 20y = 0 che e` l’equazione della parabola richiesta. Esercizio 10.12 Rispetto al riferimento cartesiano R = (O, x, y), scrivere l’equazione della parabola avente fuoco F = (2, 1) e direttrice la retta f : 2x + y + 5 = 0. Soluzione

Il punto generico P = (x, y) della parabola verifica la condizione: d(P, F ) = d(P, f ),

(10.55)

ossia: 2

2

(x − 2) + (y − 1) =



2 2x + y + 5 √ , 5

vale a dire: x2 − 4xy + 4y 2 − 40x − 20y = 0. Nel riferimento R0 = (O, X, Y ) che ha l’asse X coincidente con la retta OF di equazione x −√2y = 0 e l’asse Y passante per O ed ortogonale all’asse X , il fuoco ha coordinate F = ( 5, 0) e l’equazione della parabola e` :

Capitolo 10

511

√ Y 2 = 4 5X. √ La stessa equazione si √ ottiene nel riferimento R0 dove la retta f ha equazione X = − 5, il fuoco ha cordinate ( 5, 0), quindi da (10.55) segue: (X −



5)2 + Y 2 = (X +

√ 2 5) .

Esercizio 10.13 Verificare che la conica di equazione: 2x2 − 5xy − 3y 2 + 7y − 2 = 0

(10.56)

e` degenere e scriverla come prodotto di due rette. La matrice B a cui e` associata la conica:

Soluzione



 2    5 B= −2    0

5 − 2 −3 7 2



0    7   2     −2

ha rango 2. Si tratta quindi del prodotto di due rette incidenti. Per determinarne le equazioni si pu`o, per esempio, ricavare il valore di x, rispetto ad y , nell’equazione (10.56), ottenendo: x1,2 = =

5y ±

p

25y 2 − 8(−3y 2 + 7y − 2) 4

5y ± (7y − 4) , 4

da cui segue:   −y + 2 = 0, 2x − 5xy − 3y + 7y − 2 = 2 [x − (3y − 1)] x − 2 2

2

che e` la decomposizione cercata.

Riduzione a Forma Canonica delle Coniche

512

10.6

Per saperne di piu`

10.6.1

Potenza di un punto rispetto ad una circonferenza

In questo paragrafo si introduce il concetto di potenza di un punto rispetto ad una circonferenza mediante il quale si perviene ad un’altra definizione di asse radicale di due circonferenze. Definizione 10.7 La potenza di un punto P0 = (x0 , y0 ) rispetto ad una circonferenza C di equazione x2 + y 2 − 2αx − 2βy + γ = 0 e` il numero reale p(P0 ) che si ottiene sostituendo il valore delle coordinate del punto P0 nell’equazione della circonferenza, ovvero: p(P0 ) = x20 + y02 − 2αx0 − 2βy0 + γ. Il teorema che segue permette di interpretare geometricamente la potenza di un punto rispetto ad una circonferenza. Teorema 10.7 Data la circonferenza C di centro C e raggio r, la potenza di un punto P0 rispetto a C e` data da: p(P0 ) = d(P0 , C)2 − r2 dove d(P0 , C) indica la distanza del punto P0 dal centro C . Dimostrazione La dimostrazione e` ovvia tenendo conto che la circonferenza C e` il luogo dei punti P tale che d(P, C)2 = r2 . Osservazione 10.5 1. Nonostante il teorema precedente sia di ovvia dimostrazione, esso e` molto importante perch´e assicura un metodo facile per individuare la posizione dei punti nel piano rispetto ad una circonferenza assegnata. Infatti la potenza di un punto rispetto ad una circonferenza e` un numero strettamente positivo se e solo se il punto e` esterno alla circonferenza, la potenza di un punto rispetto ad una circonferenza e` uguale a 0 se e solo se il punto giace sulla circonferenza, la potenza di un punto rispetto ad una circonferenza e` negativa se e solo se il punto e` interno alla circonferenza. Per esempio, data la circonferenza: C : x2 + y 2 − 2x − 4y + 1 = 0, si ha che il punto A = (2, 4) ha potenza pari a 1 rispetto a C e, quindi, e` esterno a C , invece il punto B = (1, 0) ha potenza pari a 0, quindi appartiene a C . In altri termini si pu`o immaginare che la circonferenza divida il piano in tre regioni: quella dei punti di potenza zero (appartenenti alla circonferenza), quella dei punti con potenza negativa (interni alla circonferenza) e quella dei punti a potenza positiva (esterni alla circonferenza).

Capitolo 10

513

2. E` evidente che il luogo dei punti che hanno uguale potenza rispetto a due circonferenze assegnate coincide con l’asse radicale definito dalla due circonferenze (cfr. Par. 10.1.4).

C3

C1 C2

Figura 10.47: Esercizio 10.14 Nell’esercizio che segue si vuole determinare la potenza di un punto rispetto a tre circonferenze assegnate. Dall’ultima osservazione segue che tale punto deve essere necessariamente l’intersezione degli assi radicali delle coppie di circonferenze individuate dalle tre circonferenze date. Questo punto, se esiste, prende il nome di centro radicale delle tre circonferenze. Si lascia al Lettore per esercizio la discussione dell’esistenza del centro radicale di tre circonferenze in base alla loro posizione reciproca. Esercizio 10.14 Determinare, se esiste, il centro radicale delle tre circonferenze: C1 : x2 + y 2 − 5x − y − 8 = 0 C2 : x2 + y 2 + y − 36 = 0 C3 : x2 + y 2 − 8x − 12y + 51 = 0. Soluzione

L’asse radicale r1 delle circonferenze C1 e C2 ha equazione: r1 : 5x + 2y − 28 = 0.

Riduzione a Forma Canonica delle Coniche

514

L’asse radicale r2 delle circonferenze C1 e C3 ha equazione: r2 : 3x + 11y − 59 = 0. Le rette r1 e r2 sono incidenti nel punto:   190 211 , C= 49 49 che e` il centro radicale delle tre circonferenze date. Si osserva che l’asse radicale r3 delle circonferenze C2 e C3 , che ha equazione: r3 : 8x + 13y − 87 = 0, passa per il punto C. La situazione geometrica e` illustrata nella Figura 10.47.

10.6.2

Equazioni parametriche delle coniche

Come si e` gi`a osservato nel caso della retta (cfr. (9.11)) anche le coniche possono essere rappresentate mediante due equazioni parametriche scritte in funzione di un parametro t reale che varia in un opportuno intervallo della retta reale. E` chiaro per`o che, ad eccezione delle coniche degeneri, le equazioni parametriche delle coniche non saranno lineari in t (cfr. Teor. 10.6). 1. La circonferenza di centro l’origine e raggio r si pu`o scrivere in forma parametrica come:  x = r cos t y = r sin t, 0 ≤ t < 2π. La circonferenza di centro C = (α, β) e raggio r ha equazioni parametriche:  x = α + r cos t y = β + r sin t, 0 ≤ t < 2π. Ci`o segue in modo evidente dal Paragrafo 9.3. E` chiaro che le equazioni parametriche di una curva non sono uniche, per esempio un arco di circonferenza di centro l’origine e raggio r si pu`o anche rappresentare come:  1 − λ2   x = r  1 + λ2    y = r 2λ , λ ∈ R. 1 + λ2 La rappresentazione della circonferenza appena indicata non comprende il punto di coordinate (−r, 0).

Capitolo 10

515

a

b

Figura 10.48: Costruzione dell’ellisse 2. L’ellisse di centro l’origine e semiassi a e b si pu`o scrivere in forma parametrica come:  x = a cos t y = b sin t, 0 ≤ t < 2π. Si osservi che i punti dell’ellisse hanno ascissa uguale a quella dei punti della circonferenza di centro l’origine e raggio a e ordinata uguale a quella dei punti della circonferenza di centro l’origine e raggio b; si pu`o cos`ı ricavare un metodo interessante per disegnare i punti dell’ellisse. La situazione geometrica e` illustrata nella Figura 10.48. L’ellisse di centro C = (α, β) e semiassi a e b ha equazioni parametriche:  x = α + a cos t y = β + b sin t, 0 ≤ t < 2π. 3. L’iperbole di centro l’origine e semiassi a e b si pu`o scrivere in forma parametrica come:  x = ±a cosh t y = b sinh t, t ∈ R.

Riduzione a Forma Canonica delle Coniche

516

L’iperbole di centro C = (α, β) e semiassi a e b ha equazioni parametriche:  x = α ± a cosh t y = β + b sinh t, t ∈ R. 4. La parabola di vertice l’origine e asse l’asse x si pu`o scrivere in forma parametrica come:  2   x= t 2p   y = t, t ∈ R, p = 6 0. Per maggiori dettagli sulla rappresentazione parametrica delle coniche e delle curve nel piano in generale si rimanda, per esempio, a [11].

10.6.3

Le coniche in forma polare

Scopo di questo paragrafo e` rappresentare le coniche mediante le coordinate polari generalizzate (ρ, θ), introdotte nel Paragrafo 9.3. Come dimostrato nel Paragrafo 10.3, le coniche possono essere definite come il luogo dei punti P del piano tali che: d(P, F ) = e, d(P, f ) dove F e` il fuoco, f la direttrice ed e l’eccentricit`a. Se si sceglie un riferimento cartesiano R = (O, x, y) avente l’origine O coincidente con il fuoco e la direttrice parallela all’asse y di equazione: x = k , allora le coniche possono essere definite come il luogo dei punti P = (x, y) che verificano l’equazione: x2 + y 2 = e2 (x − k)2 .

(10.57)

Ci si propone di scrivere l’equazione (10.57) in coordinate polari generalizzate. Sostituendo in (10.57) la formula (9.6), s si ha: ρ2 = e2 (ρ cos θ − k)2 , da cui, estraendo la radice quadrata, segue: ρ = ±e(ρ cos θ − k). Si ottengono cos`ı, sorpendentemente, due equazioni in coordinate polari: ρ(1 − e cos θ) = −ek,

(10.58)

Capitolo 10

517

e: ρ(1 + e cos θ) = ek.

(10.59)

Se si considera, per`o, un generico punto P = (ρ0 , θ0 ) appartenente alla conica di equazione (10.58), quindi: −ek , ρ0 = 1 − e cos θ0 P0 pu`o essere anche rappresentato, in modo equivalente, come (−ρ0 , θ0 + π). E` immediato verificare che questi valori verificano (10.59), e viceversa, pertanto (10.58) e (10.59) rappresentano lo stesso luogo di punti. Si distinguono i seguenti casi: 1. e = 1: parabola. L’equazione in coordinate polari e` : ρ=

k 1 + cos θ

ρ=

k . 1 − cos θ

oppure:

Si osservi che, in entrambi i casi, il denominatore si annulla per θ = 0+2nπ oppure θ = π + 2nπ, con n numero intero, che corrisponde all’angolo formato dal raggio vettore con l’asse x (vale a dire il raggio vettore e` parallelo all’asse x). 2. e < 1: ellisse. Si osservi che non esistono valori di θ per cui 1 ± e cos θ = 0. 3. e > 1: iperbole. In questo caso i valori di θ per cui 1 ± e cos θ = 0 corrispondono alle direzioni degli asintoti.

10.6.4

Retta tangente ad una conica in un suo punto

Lo scopo di questo paragrafo e` quello di ricavare, con metodi di tipo elementare, l’equazione della retta tangente ad una conica non degenere in un suo punto. Nel Paragrafo 10.1.2 si e` trovato che la retta s di equazione (10.4) e` tangente nel punto P0 = (x0 , y0 ) alla circonferenza C di centro C = (α, β) e raggio r. L’equazione della circonferenza: C : x2 + y 2 − 2αx − 2βy + γ = 0

Riduzione a Forma Canonica delle Coniche

518

si pu`o scrivere in notazione matriciale come:    1 0 −α x  1 −β   y  = 0, C: x y 1  0 −α −β γ 1 invece, sviluppando i calcoli nell’equazione (10.4) si ha che la retta s si pu`o scrivere come:    1 0 −α x     0 1 −β y  = 0. s : x0 y 0 1 −α −β γ 1 Il teorema che segue estende il risultato appena ottenuto al caso delle coniche non degeneri, ma prima di enunciarlo e` necessario formalizzare la definizione di retta tangente ad una conica in un suo punto. Definizione 10.8 Sia C una conica non degenere, la retta tangente a C in un punto P0 ad essa appartenente e` la retta che interseca la conica C solo nel punto P0 . Teorema 10.8 Sia C una conica non degenere del piano, che, rispetto ad un riferimento cartesiano R = (O, x.y), ha equazione:   x   y  = 0, (10.60) C: x y 1 B 1 dove B = (aij ) ∈ R3,3 indica la matrice simmetrica associata a C per cui det(B) 6= 0. La retta s tangente alla conica C in un suo punto P0 = (x0 , y0 ) ha equazione:   x  s : x0 y0 1 B  y  = 0. (10.61) 1 Dimostrazione

Si consideri l’equazione (10.60) scritta come: C : a11 x2 + 2a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0,

(10.62)

(cfr. (10.31) ), siano  s:

x = x0 + lt y = y0 + mt,

t ∈ R,

(10.63)

le equazioni parametriche della retta s, passante per il punto P0 . Sostituendo le equazioni (10.63) in (10.62) e tenendo conto del fatto che il punto P0 appartiene alla conica C, si ottiene la seguente equazione di secondo grado in t: (a11 l2 + 2a12 lm + a22 m2 )t2 + 2(a11 x0 l + a12 x0 m + a12 y0 l + a22 y0 m + a13 l + a23 m)t = 0,

Capitolo 10

519

che ammette due soluzioni coincidenti se e solo se: a11 x0 l + a12 x0 m + a12 y0 l + a22 y0 m + a13 l + a23 m = 0,

(10.64)

in quanto il coefficiente del termine t2 non pu`o essere identicamente nullo (perch´e?). Sostituendo in (10.64) al posto di l il termine x − x0 e al posto di m il termine y − y0 e tenendo nuovamente conto del fatto che il punto P0 appartiene a C si perviene alla tesi. Osservazione 10.6 L’equazione della retta s tangente, nel punto P0 = (x0 , y0 ) alla conica C di equazione (10.62) e` (10.61), ossia: s : a11 xx0 + a12 (x0 y + xy0 ) + a22 yy0 + a13 (x + x0 ) + a23 (y + y0 ) + a33 = 0. (10.65) La particolarit`a di questa equazione (10.65), confrontata con l’equazione della conica (10.62), consiste nel fatto che essa si pu`o ricavare direttamente dall’equazione (10.62) di C mediante lo sdoppiamento di x2 , y 2 nei prodotti x0 x, y0 y, di 2xy nella somma xy0 + x0 y, e di 2x, 2y nelle somme x + x0 , y + y0 , rispettivamente, ossia applicando all’equazione di C la cosiddetta regola degli sdoppiamenti. Gli esempi che seguono sono volti a determinare i punti di una conica degenere in cui il procedimento appena descritto pu`o o non pu`o essere applicato. Esempio 10.14 Si consideri la conica degenere C : (y − 3)(y + 3) = 0 studiata nell’Esempio 10.10 che si pu`o scrivere come:    0 0 0 x     0 1 0 y  = 0. C: x y 1 0 0 −9 1 La retta s tangente a C nel punto P0 = (1, 3) e` :    0 x  0 0    0 1 0 y  = 0, s: 1 3 1 0 0 −9 1 vale a dire s : y − 3 = 0, cio`e la retta che compone C a cui appartiene il punto P0 . Esempio 10.15 Si consideri al conica C : (2x + y)2 = 0 si pu`o scrivere come:   4 2 0  C : x y 1  2 1 0  0 0 0

studiata nell’Esempio 10.9 che  x y  = 0. 1

520

Riduzione a Forma Canonica delle Coniche

Se si vuole calcolare la retta s tangente a C nel punto P0 = (1, −2) ponendo:    4 2 0 x  s : 1 −2 1  2 1 0   y  = 0, 0 0 0 1 si ottiene 0 = 0, ci`o significa che tutti i punti della conica C sono singolari. Gli esempi precedenti conducono alla definizione di punto singolare di una curva algebrica nel piano, ossia di una curva la cui equazione si ottiene uguagliando a zero un polinomio di grado qualsiasi in x, y, definizione che pu`o essere enunciata nel modo seguente. Definizione 10.9 Sia C una curva nel piano di equazione f (x, y) = 0, dove f (x, y) indica un polinomio di grado qualsiasi nelle variabili x, y, scritta rispetto ad un riferimento cartesiano R = (O, x, y). Un punto P0 appartenente a C si dice singolare se:   ∂f ∂f (P0 ), (P0 ) = (0, 0), ∂x ∂y dove ∂f /∂x indica la derivata parziale della funzione f rispetto ad x e ∂f /∂y indica la derivata parziale della funzione f rispetto a y. In caso contrario un punto P0 si dice liscio o non singolare. Per lo studio approfondito delle curve algebriche si rimanda a testi di livello superiore, per esempio a [17]. Si dimostra che il Teorema 10.8 si applica anche alle coniche degeneri solo nei punti non singolari. E` infatti un esercizio verificare che le coniche non degeneri sono prive di punti singolari. Invece se la conica e` degenere ed e` l’unione di due rette parallele distinte, allora ogni suo punto e` non singolare, se essa e` l’unione di due rette incidenti solo il loro punto di intersezione e` singolare, infine se la conica e` data da una retta contata due volte, allora tutti i suoi punti sono singolari.

Capitolo 11 Geometria Analitica nello Spazio In questo capitolo viene trattata la rappresentazione di piani, rette, sfere e circonferenze nello spazio mediante equazioni cartesiane e parametriche. Sono queste le nozioni di base di Geometria Analitica nello Spazio che saranno completate nel capitolo successivo. In una breve appendice nell’ultimo paragrafo si presenta, tra l’altro, la nozione di baricentro geometrico di n punti dello spazio, nozione che, come casi particolari, vedr`a la sua naturale applicazione al calcolo del baricentro di un triangolo e di un tetraedro. Per i significati fisici del concetto di baricentro si rimanda ai testi classici di meccanica. In tutto il capitolo saranno usate le notazioni introdotte nei capitoli precedenti ed in particolare nel Capitolo 3, per esempio S3 indicher`a lo spazio affine di punti considerato. Come nel Capitolo 9, per individuare le rappresentazioni di piani, rette, sfere e circonferenze si far`a uso delle nozioni di calcolo vettoriale introdotte nel Capitolo 3.

11.1

Il riferimento cartesiano nello spazio

In modo analogo al caso della geometria analitica nel piano (cfr. Par. 9.1) si definisce il riferimento cartesiano nello spazio R = (O, i, j, k) come l’insieme formato da un punto detto origine del riferimento e indicato con la lettera O e una base ortonormale positiva B = (i, j, k) dello spazio vettoriale V3 (cfr. Def. 3.13). Le rette orientate individuate dai vettori i, j e k, che si intersecano tutte nel punto O, prendono, rispettivamente, il nome di asse delle ascisse, asse delle ordinate, asse delle quote. In questo modo si definisce una corrispondenza biunivoca tra i punti P dello spazio e le componenti del −→ vettore OP = P − O dello spazio vettoriale V3 . Ponendo: −→ OP = xi + yj + zk, al punto P si associa in modo univoco la terna di numeri reali (x, y, z) e si scrive: P = (x, y, z), 521

Geometria Analitica nello Spazio

522

precisamente x e` l’ascissa del punto P, y e` la sua ordinata e z e` la sua quota. La terna ordinata di numeri reali (x, y, z) individua le coordinate cartesiane del punto P nel riferimento R. La situazione geometrica e` illustrata nella Figura 11.1.

z

P

O

y

x

Figura 11.1: Il riferimento cartesiano nello spazio

Il riferimento cartesiano determina, in modo naturale, tre piani, detti piani coordinati e precisamente: 1. il piano individuato dal punto O e dai versori i, j, anche denominato piano xy ; 2. il piano individuato dal punto O e dai versori i, k, anche denominato piano xz ; 3. il piano individuato dal punto O e dai versori j, k, anche denominato piano yz . Il riferimento cartesiano sar`a anche indicato con il simbolo R = (O, x, y, z).

11.1.1

Distanza tra due punti

Dati due punti A = (xA , yA , zA ), B = (xB , yB , zB ) dello spazio la loro distanza e` data da: p d(A, B) = (xB − xA )2 + (yB − yA )2 + (zB − zA )2 .

Capitolo 11

523

Infatti, analogamente al caso del piano (cfr. Par. 9.1.1), la distanza d(A, B) coincide con −→ la norma del vettore AB le cui componenti, rispetto alla base ortonormale positiva B, sono: −→ AB = (xB − xA )i + (yB − yA )j + (zB − zA )k.

11.1.2

Punto medio di un segmento

Dati due punti A = (xA , yA , zA ), B = (xB , yB , zB ) dello spazio, il punto medio M del segmento AB e` :   xA + xB yA + yB zA + zB M= , , . 2 2 2 Ad esempio il punto medio del segmento di estremi A = (2, 2, 1), B = (0, −6, −3) e` il punto M = (1, −2, −1).

11.1.3

Baricentro di un triangolo e di un tetraedro

Dati tre punti A = (xA , yA , zA ), B = (xB , yB , zB ), C = (xC , yC , zC ) non allineati, il baricentro G del triangolo da essi individuato e` :   xA + xB + xC yA + yB + yC zA + zB + zC , , . G= 3 3 3 Per la dimostrazione si veda il Paragrafo 11.12.1. Dati quattro punti nello spazio A = (xA , yA , zA ), B = (xB , yB , zB ), C = (xC , yC , zC ), D = (xD , yD , zD ) non allineati e non tutti complanari, il baricentro G del tetraedro da essi individuato e` :   xA + xB + xC + xD yA + yB + yC + yD zA + zB + zC + zD , , . G= 4 4 4 Per la dimostrazione si veda il Paragrafo 11.12.1.

11.1.4

Area di un triangolo e volume di un tetraedro

Dati tre punti nello spazio A = (xA , yA , zA ), B = (xB , yB , zB ), C = (xC , yC , zC ) non allineati, l’area del del triangolo da essi individuato e` data da: AABC =

1 −→ −→ kAB ∧ AC k. 2

524

Geometria Analitica nello Spazio

Per la dimostrazione si veda il Teorema 3.15. Dati quattro punti nello spazio A = (xA , yA , zA ), B = (xB , yB , zB ), C = (xC , yC , zC ), D = (xD , yD , zD ) non allineati e non tutti complanari, il volume del tetraedro da essi individuato e` dato da: 1 −→ −→ −−→ VABCD = | AB ∧ AC · AD |. 6 Per la dimostrazione si veda il Teorema 3.19.

11.2

Rappresentazione di un piano nello spazio

In questo paragrafo sono descritti modi diversi per rappresentare un piano nello spazio rispetto ad un riferimento cartesiano R = (O, i, j, k), o equivalentemente R = (O, x, y, z). Infatti un piano π nello spazio si pu`o individuare assegnando: 1. un punto P0 del piano π ed un vettore n non nullo ortogonale a π ; 2. un punto P0 del piano π e due vettori u e v paralleli a π e linearmente indipendenti tra di loro; 3. tre punti A, B e C non allineati appartenenti al piano π. Si dimostrer`a che ogni equazione di primo grado in x, y e z del tipo: ax + by + cz + d = 0, con a, b, c, d ∈ R e a, b, c non contemporaneamente tutti uguali a zero, rappresenta un piano. Viceversa, ogni piano dello spazio e` rappresentabile tramite un’equazione lineare in x, y, z del tipo suddetto.

11.2.1

Piano per un punto ortogonale ad un vettore

Sia π il piano passante per un punto P0 ortogonale ad un vettore n 6= o. Allora π e` −−→ il luogo dei punti P dello spazio S3 tali che il vettore P0 P e` ortogonale al vettore n, ovvero: −−→ π = {P ∈ S3 | P0 P · n = 0}. (11.1) La situazione geometrica e` illustrata nella Figura 11.2. Siano P0 = (x0 , y0 , z0 ) e P = (x, y, z) i punti P0 e P, le cui coordinate sono date rispetto al riferimento cartesiano R, siano (a, b, c) le componenti del vettore n, rispetto

Capitolo 11

525

n P0 P

Figura 11.2: Piano passante per il punto P0 e ortogonale al vettore n −−→ alla base B = (i, j, k) individuata dal riferimento R. L’equazione vettoriale P0 P · n = 0, in componenti, equivale a: a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0 e quindi ad un’equazione del tipo: ax + by + cz + d = 0,

(11.2)

con d = −ax0 − by0 − cz0 , detta equazione cartesiana del piano π in cui (a, b, c) sono le componenti (non contemporaneamente tutte uguali a zero) di un vettore ortogonale a π. Esempio 11.1 Il piano passante per il punto P0 = (1, 0, −1) e ortogonale al vettore n = j + 2k ha equazione cartesiana y + 2z + 2 = 0. Il teorema che segue dimostra che tutte e solo le equazioni lineari in x, y, z determinano un piano nello spazio. Questo risultato e` analogo a quello ottenuto nel Teorema 9.1 nel caso delle rette nel piano e si pu`o agevolmente estendere a dimensioni superiori. Teorema 11.1 Ogni equazione lineare in x, y e z del tipo (11.2) rappresenta, a meno di un fattore moltiplicativo non nullo, l’equazione cartesiana di un piano nello spazio S3 . Dimostrazione Se (a, b, c) 6= (0, 0, 0) esiste almeno un punto P0 = (x0 , y0 , z0 ) del piano le cui coordinate soddisfano l’equazione (11.2). Quindi d = −ax0 − by0 − cz0 e si pu`o riscrivere l’equazione (11.2) nella forma a(x − x0 ) + b(y − y0 ) + c(z − z0 ) = 0,

526

Geometria Analitica nello Spazio

che rappresenta il piano passante per il punto P0 ortogonale al vettore n = ai + bj + ck. Inoltre, per ogni numero reale ρ, con ρ 6= 0, le due equazioni (11.2) e: ρ(ax + by + cz + d) = 0 rappresentano lo stesso piano. Esempio 11.2 L’equazione 3y+6z+6 = 0 rappresenta il piano considerato nell’Esempio 11.1. Osservazione 11.1 1. L’origine O = (0, 0, 0) appartiene al piano di equazione (11.2) se e solo se d = 0. 2. Il piano coordinato xy ha equazione cartesiana z = 0, in quanto e` ortogonale al versore k e contiene l’origine O. Analogamente i piani coordinati xz e yz hanno, rispettivamente, equazioni cartesiane y = 0 e x = 0. 3. Intuitivamente si capisce che l’equazione z = k con k ∈ R rappresenta un piano parallelo al piano xy , analogamente l’equazione x = k rappresenta un piano parallelo al piano yz e l’equazione y = k rappresenta un piano parallelo al piano xz. Per la definizione precisa di parallelismo tra due piani si rimanda al Paragrafo 11.3.3. 4. L’equazione ax + by + d = 0, con i coefficienti a, b non nulli, rappresenta, nello spazio, un piano π ortogonale al vettore n = ai+bj, pertanto π e` un piano parallelo all’asse z . Se d = 0, allora π contiene l’asse z. Si presti molta attenzione a non confondere l’equazione del piano π con l’equazione di una retta scritta nel piano S2 . Per la discussione precisa del parallelismo tra una retta e un piano si rimanda al Paragrafo 11.4. Si lascia al Lettore, per esercizio, la descrizione della posizione dei piani di equazione ax + cz + d = 0 e by + cz + d = 0 al variare di a, b, c, d in modo opportuno in R.

11.2.2

Piano per un punto parallelo a due vettori

Sia π il piano passante per il punto P0 e parallelo a due vettori linearmente indipendenti −−→ u e v. Allora π e` il luogo dei punti P dello spazio tali che i vettori P0 P , u, v sono linearmente dipendenti, vale a dire: −−→ π = {P ∈ S3 | P0 P = tu + sv, t, s ∈ R}, ossia:

Capitolo 11

527

u P0

P

v

Figura 11.3: Piano passante per il punto P0 e parallelo ai vettori u e v

π : P = P0 + tu + sv,

t, s ∈ R.

(11.3)

−−→ Quindi un punto P = (x, y, z) appartiene al piano π se e solo se il vettore P0 P e` complanare ad u e a v. La (11.3) e` detta equazione vettoriale parametrica di π mentre t, s ∈ R sono i parametri al variare dei quali il punto P descrive il piano π . La situazione geometrica e` illustrata nella Figura 11.3. Siano P0 = (x0 , y0 , z0 ) e P = (x, y, z) i punti P0 e P le cui coordinate sono date nel riferimento cartesiano R = (O, i, j, k) e u = (l, m, n) e v = (l0 , m0 , n0 ) i vettori u e v le cui componenti sono riferite alla base ortonormale positiva B = (i, j, k). Si verifica che l’equazione (11.3) equivale a:   x = x0 + lt + l0 s y = y0 + mt + m0 s,  z = z0 + nt + n0 s,

(11.4) t, s ∈ R,

che sono le equazioni parametriche del piano π . Si osservi che il piano π ammette infinite equazioni parametriche diverse, e` sufficiente scegliere, per la loro determinazione, un altro punto e un’altra coppia di vettori appartenenti al piano π . Dal Teorema 3.22 risulta che tre vettori dello spazio vettoriale V3 sono complanari se e solo se il loro prodotto misto e` uguale a zero, pertanto e` condizione equivalente alla (11.3) l’equazione: −−→ P0 P · u ∧ v = 0, (11.5) che, a differenza di (11.3), non dipende da alcun parametro e, in componenti, equivale a:

528

Geometria Analitica nello Spazio

x − x0 y − y0 z − z0 l m n l0 m0 n0

= 0,

(11.6)

che rappresenta l’equazione cartesiana del piano passante per il punto P0 = (x0 , y0 , z0 ) e parallelo ai vettori u = (l, m, n) e v = (l0 , m0 , n0 ). Sviluppando il determinante appena ottenuto secondo la prima riga si ha: m n 0 0 (x − x0 ) − l0 n0 (y − y0 ) + l0 m0 (z − z0 ) = 0. (11.7) m n l n l m Si noti che l’equazione (11.7) coincide con l’equazione (11.2) in cui le componenti del vettore n ortogonale al piano sono proporzionali alle componenti del vettore u ∧ v. Esempio 11.3 Il piano π passante per il punto P0 = (−1, 3, 1) e parallelo ai vettori: u = 2i − j + k,

v =i+j

ha equazioni parametriche:   x = −1 + 2t + s y = 3 − t + s,  z = 1 + t, t, s ∈ R.

(11.8)

Si verifica facilmente che il punto A = (0, 1, 2) appartiene a π , infatti le sue coordinate si ottengono ponendo t = 1 e s = −1 in (11.8). Invece l’origine O = (0, 0, 0) non appartiene a π perch´e il sistema lineare:   0 = −1 + 2t + s 0=3−t+s  0=1+t e` incompatibile. Non e` difficile verificare che i vettori u0 = (1, 1, 0), v0 = (−1, 2 − 1) sono paralleli al piano π , di conseguenza anche:   x=λ−µ y = 1 + λ + 2µ  z = 2 − µ, λ, µ ∈ R sono equazioni parametriche di π. Per ottenere l’equazione cartesiana di π si pu`o procedere in modi diversi:

Capitolo 11

529

1. si possono eliminare i due parametri t e s nelle equazioni parametriche (11.8). Per esempio si pu`o prima ricavare dalla terza equazione parametrica t = z − 1, dalla seconda si ha s = y + z − 4 e quindi sostituendo nella prima si perviene all’equazione cartesiana di π : x − 2(z − 1) − (y + z − 4) + 1 = 0. 2. Usando il calcolo vettoriale si ortogonale al piano π . Poich´e: u ∧ v =

ha che il prodotto vettoriale u ∧ v e` un vettore i j 2 −1 1 1

k 1 0

= −i + j + 3k

si ottiene quindi come equazione cartesiana di π : −(x + 1) + (y − 3) + 3(z − 1) = 0. 3. Sostituendo i dati dell’esercizio in (11.6) si ha: x+1 y−3 z−1 2 −1 1 1 1 0

= 0.

Si osservi che, qualunque sia il metodo seguito, si perviene ad una sola equazione cartesiana di π , a meno di un coefficiente di proporzionalit`a non nullo.

11.2.3

Piano per tre punti non allineati

Dati tre punti non allineati A = (xA , yA , zA ), B = piano π passante per A, B e C e` parallelo ai vettori equazioni parametriche: −→ −→ P = A + t AB + s AC,

(xB , yB , zB ), C = (xC , yC , zC ), il −→ −→ AB e AC e quindi ha, ad esempio, t, s ∈ R,

in accordo con (11.3). Un vettore ortogonale al piano π passante per A, B e C e` il vettore −→ −→ AB ∧ AC, di conseguenza π pu`o essere descritto come il luogo geometrico dei punti P tali che: −→ −→ −→ AP · AB ∧ AC = 0. Esplicitando questo prodotto misto in componenti si trova l’equazione cartesiana di π : x − xA y − yA z − zA xB − xA yB − yA zB − zA = 0. xC − xA yC − yA zC − zA

Geometria Analitica nello Spazio

530

Esercizio 11.1 Tre punti non allineati individuano un solo piano. Perch´e nell’equazione ax + by + cz + d = 0 ci sono quattro parametri a, b, c, d? Esempio 11.4 Il piano passante per i tre punti: A = (−1, 2, 1),

B = (2, −3, 0),

C = (1, 0, 0)

ha equazioni parametriche:   x = −1 + t + 2s y = 2 − t − 2s  z = 1 − t − s,

t, s ∈ R,

ed equazione cartesiana: 3x + y + 4z − 3 = 0. Esercizio 11.2 Determinare l’equazione del piano parallelo all’asse x e passante per i punti P0 = (1, 0, 2), P1 = (−2, 1, 1). Soluzione

Il piano richiesto e` formato dai punti P dello spazio per cui: −−→ −−→ P 0 P · i ∧ P0 P 1 = 0

e quindi ha equazione cartesiana: x−1 y z−2 1 0 0 −3 1 −1

= 0,

cio`e: y + z − 2 = 0. Esercizio 11.3 A partire dalla generica equazione cartesiana di un piano: π : ax + by + cz + d = 0, supponendo che a, b, c siano tutti diversi da zero, si perviene all’equazione: x y z π: + + = 1. p q r

(11.9)

Si interpretino geometricamente i numeri p, q, r cos`ı determinati. Soluzione I punti A = (p, 0, 0), B = (0, q, 0), C = (0, 0, r) appartengono al piano π individuato dall’equazione (11.9), pertanto p e` la distanza, con segno, del punto A dall’origine del riferimento, q e` la distanza, con segno, del punto B dall’origine, r e` la distanza, con segno, del punto C dall’origine. In altri termini, p, q, r sono le lunghezze, con segno, dei segmenti che il piano π intercetta, rispettivamente, sugli assi delle ascisse, delle ordinate e delle quote. Per questo motivo (11.9) prende il nome di equazione segmentaria del piano.

Capitolo 11

11.3

531

Rappresentazione della retta nello spazio

Una retta r nello spazio, rispetto ad un riferimento cartesiano R = (O, i, j, k) o equivalentemente R = (O, x, y, z), si pu`o individuare assegnando: 1. un punto P0 della retta r ed un vettore r non nullo parallelo a r; 2. due punti A e B distinti della retta r; 3. due piani π1 e π2 incidenti lungo r. Si vedr`a che, mentre la rappresentazione parametrica di un piano nello spazio e` analoga a quella di una retta nel piano, la rappresentazione cartesiana di una retta nello spazio cambia notevolmente. Infatti, come e` gi`a stato osservato nel paragrafo precedente, l’equazione cartesiana ax + by + c = 0 di una retta r nel piano corrisponde, nello spazio, all’equazione cartesiana di un piano π parallelo all’asse z. La retta r risulta essere, nello spazio, l’intersezione del piano π con il piano coordinato xy . Maggiori dettagli e spiegazioni di questa situazione geometrica, descritta solo intuitivamente, si avranno nel corso di tutto il paragrafo.

11.3.1

Retta per un punto parallela ad un vettore

Sia r la retta passante per il punto P0 parallela ad un vettore r 6= o. Allora la retta r e` −−→ il luogo geometrico dei punti P dello spazio tali da rendere paralleli i vettori P0 P e r, ossia: −−→ r = {P ∈ S3 | P0 P = tr, t ∈ R}, o anche: r : P = P0 + tr,

t ∈ R.

(11.10)

La (11.10) e` detta equazione vettoriale parametrica di r, t ∈ R e` il parametro al variare del quale in R il punto P descrive la retta r. Segmenti della retta r si possono ottenere per valori di t limitati ad intervalli di R. Se t assume solo valori positivi, compreso il numero zero, si ha una semiretta di origine P0 , l’altra semiretta si ottiene per valori di t negativi, zero compreso, se si vuole includere anche l’origine P0 . Siano P0 = (x0 , y0 , z0 ) e P = (x, y, z) due punti nello spazio le cui coordinate sono assegnate nel riferimento cartesiano R = (O, i, j, k) e r = (l, m, n) un vettore le cui componenti sono date rispetto alla base B = (i, j, k) che R determina. Si verifica che l’equazione (11.10) equivale a:

Geometria Analitica nello Spazio

532

  x = x0 + lt y = y0 + mt  z = z0 + nt,

(11.11) t ∈ R,

che sono le equazioni parametriche di r e le componenti (l, m, n) prendono il nome di parametri direttori della retta r. Osservazione 11.2 Siano (l, m, n) i parametri direttori di una retta r, allora: 1. (l, m, n) non sono contemporaneamente nulli e sono individuati a meno di un fattore moltiplicativo, cio`e (ρl, ρm, ρn), con ρ 6= 0, sono anche parametri direttori della retta r; 2. se l = 0 e m = 0 la retta r e` parallela all’asse z, se m = 0 e n = 0 la retta r e` parallela all’asse x, se l = 0 e n = 0 la retta r e` parallela all’asse y ; 3. i coseni direttori della retta r, ossia i coseni degli angoli che la retta r forma con gli assi coordinati coincidono (a meno del segno) con i coseni degi angoli che un generico vettore r parallelo alla retta r forma rispettivamente con i versori i, j, k della base ortonormale che individua il sistema di riferimento usato, ossia: l b =√ , cos(ri) 2 l + m2 + n2 m b =√ cos(rj) , l2 + m2 + n2 n c =√ cos(rk) . l2 + m2 + n2 b 2 +cos(rj) b 2 +cos(rk) c 2 = 1, maggiori dettagli sulla definizione Si osservi che cos(ri) e il calcolo degli angoli individuati da due rette si vedranno nel Paragrafo 11.6.4. Esercizio 11.4 Determinare le equazioni parametriche della retta r parallela al vettore r = i − j + 2k e passante per il punto P0 = (1, 2, 3); determinare, inoltre, i coseni direttori di r. Soluzione

Le equazioni parametriche di r sono:   x=1+t y =2−t  z = 3 + 2t, t ∈ R;

Capitolo 11

533

per i coseni direttori si ha: b = √1 , cos(ri) 6

b = − √1 , cos(rj) 6

c = √2 . cos(rk) 6

Osservazione 11.3 1. Ponendo t = 1 nelle equazioni parametriche della retta r ottenuta nell’esercizio precedente si trova il punto P1 = (2, 1, 5) e quindi la retta r ha anche equazioni parametriche:   x=2+λ y =1−λ  z = 5 + 2λ, λ ∈ R. 2. Per t ∈ [0, 1] si ha il segmento sulla retta r di estremi i punti P0 e P1 . 3. Per t ≥ 0 si ottiene una semiretta su r di origine il punto P0 .

Se nessuno dei parametri direttori (l, m, n) di una retta r e` uguale a zero, dalle equazioni parametriche (11.11), eliminando il parametro t allo scopo di trovare le equazioni cartesiane di r, si ottiene: y − y0 z − z0 x − x0 = = . l m n Quindi una rappresentazione cartesiana di una retta r passante per il punto P0 = (x0 , y0 , z0 ) e parallela al vettore r = (l, m, n), con l 6= 0, m 6= 0, n 6= 0, e` :  y − y0 x − x0   = l m x − x z − z0  0  = . l n Si noti che il sistema lineare cos`ı ottenuto rappresenta geometricamente l’intersezione di due piani nello spazio, trattandosi delle soluzioni comuni a due equazioni lineari. Se un parametro direttore e` uguale a zero, ad esempio l = 0, la retta r, passante per il punto P0 = (x0 , y0 , z0 ), ha rappresentazione cartesiana:   x = x0  y − y0 = z − z0 m n e anche in questo caso la retta e` data dall’intersezione di due piani.

534

Geometria Analitica nello Spazio

Se due parametri direttori sono uguali a zero, ad esempio l = m = 0, la retta r, passante per il punto P0 = (x0 , y0 , z0 ), e` parallela all’asse z (al versore k) ed ha rappresentazione cartesiana:  x = x0 y = y0 . In particolare l’asse z ha, quindi, equazioni cartesiane x = y = 0. Analogamente le equazioni cartesiane dell’asse x e y sono rispettivamente y = z = 0 e x = z = 0. Osservazione 11.4 I punti P = (x, y, z) di una retta r nello spazio corrispondono alle soluzioni di un sistema lineare compatibile di due equazioni nelle tre incognite x, y e z . Infatti, e` ben noto dal primo capitolo che un sistema lineare di due equazioni in tre incognite, compatibile, ammette infinite soluzioni che dipendono da una variabile e che quindi concidono con le equazioni parametriche della retta r. Pertanto una retta nello spazio si pu`o rappresentare geometricamente come intersezione di due piani o meglio come l’intersezione di infinite coppie di piani. La situazione geometrica e` illustrata nella Figura 11.4, ma si completer`a lo studio della posizione reciproca di due piani nello spazio nel Paragrafo 11.3.3. Esempio 11.5 La retta r dell’Esercizio 11.4 pu`o essere rappresentata non solo come l’intersezione dei due piani:  x+y−3=0 2x − z + 1 = 0, ma, per esempio, anche come intersezione dei due piani:  x+y−3=0 2y + z − 7 = 0.

11.3.2

Retta per due punti distinti

Dati due punti distinti A = (xA , yA , zA ), B = (xB , yB , zB ), la retta r passante per A e −→ B e` parallela al vettore AB : −→ AB = (xB − xA , yB − yA , zB − zA ), rispetto alla base ortonormale positiva B = (i, j, k) che individua il riferimento cartesiano scelto. Dunque r ha equazioni parametriche:   x = xA + (xB − xA )t   y = yA + (yB − yA )t    z = y + (z − z )t, t ∈ R. A

B

A

Capitolo 11

Figura 11.4: La retta come intersezione di coppie di piani

535

Geometria Analitica nello Spazio

536

I parametri direttori sono quindi (xB − xA , yB − yA , zB − zA ) e, se sono tutti e tre diversi da zero, la retta r passante per i due punti distinti A e B ha come rappresentazione cartesiana:  x − xA y − yA    x −x = y −y B A B A x − xA z − zA    = . xB − xA zB − zA Se, ad esempio xB − xA = 0, si deve porre x − xA = 0 che rappresenta uno dei due piani che individuano la retta, che ha, quindi, equazioni cartesiane (in questo caso):    x − xA = 0 z − zA y − yA  = .  yB − yA zB − zA Esempio 11.6 La retta r passante per i punti A = (1, −1, 0), B = (2, 3, 1) e` parallela al −→ vettore AB = (1, 4, 1) e quindi ha equazioni parametriche:   x=1+t y = −1 + 4t  z = t, t ∈ R, ed equazioni cartesiane: 

11.3.3

4x − y − 5 = 0 x − z − 1 = 0.

Posizione reciproca di due piani Retta come intersezione di due piani

Dal punto di vista geometrico, due piani nello spazio possono essere: 1. coincidenti, 2. paralleli e non coincidenti, 3. incidenti, in questo caso la loro intersezione e` una retta. Dal punto di vista algebrico, l’intersezione dei due piani: π : ax + by + cz + d = 0,

π 0 : a0 x + b0 y + c0 z + d0 = 0

e` data da tutti i punti P = (x, y, z) che sono soluzioni del sistema lineare:  ax + by + cz + d = 0 a0 x + b0 y + c0 z + d0 = 0.

(11.12)

Capitolo 11

537

Siano A e (A | B), rispettivamente, la matrice dei coefficienti e la matrice completa del sistema lineare (11.12) vale a dire:  A=

a b c a0 b 0 c 0

 ,

 (A | B) =

a b c −d a0 b0 c0 −d0

 .

Dal Teorema di Rouch´e–Capelli (cfr. Teor. 1.2) e confrontando i ranghi di A e di (A | B) si distinguono i seguenti casi: 1. rank(A) = 1 : indicati con n = (a, b, c) e con n0 = (a0 , b0 , c0 ) i vettori ortogonali rispettivamente a π e a π 0 , la condizione rank(A) = 1 significa che n e n0 sono paralleli, quindi i due piani π e π 0 sono paralleli essendo ortogonali a vettori tra di loro paralleli. E` necessario distinguere ancora tra le situazioni seguenti: a. rank(A) = rank(A | B) = 1 : il sistema lineare (11.12) e` compatibile, i due piani sono coincidenti. b. rank(A) = 1 e rank(A | B) = 2 : il sistema lineare (11.12) e` incompatibile, i due piani sono paralleli ma non coincidenti. 2. rank(A) = 2 : di conseguenza anche rank(A | B) = 2, quindi il sistema lineare (11.12) e` compatibile e ammette infinite soluzioni che dipendono da un’incognita libera. I vettori n e n0 non sono paralleli, di conseguenza le soluzioni del sistema lineare (11.12) sono tutti e soli i punti della retta r intersezione dei due piani π e π0.

Il teorema che segue spiega come determinare un vettore parallelo ad una retta data dall’intersezione di due piani. Teorema 11.2 Sia r la retta rappresentata come intersezione di due piani nel modo seguente:  ax + by + cz + d = 0 r: a0 x + b0 y + c0 z + d0 = 0. Indicati con π il piano di equazione ax + by + cz + d = 0 e con n = (a, b, c) un vettore non nullo ad esso ortogonale, con π 0 il piano di equazione a0 x + b0 y + c0 z + d0 = 0 e con n0 = (a0 , b0 , c0 ) un vettore non nullo ad esso ortogonale, allora un vettore r parallelo alla retta r si ottiene come: r = n ∧ n0 .

538

Geometria Analitica nello Spazio

Dimostrazione La dimostrazione segue da evidenti condizioni geometriche, essendo il prodotto vettoriale di due vettori un vettore ortogonale ad entrambi e di conseguenza parallelo all’intersezione dei due piani π e π 0 . Il vettore r e` quindi: i j k r = n ∧ n0 = a b c . a0 b 0 c 0 La retta r ha come parametri direttori la terna di numeri (l, m, n) data da: b c c a a b l = 0 0 , m = 0 0 , n = 0 0 , b c c a a b o qualsiasi terna di numeri proporzionali a (l, m, n) mediante un coefficiente di proporzionalit`a diverso da zero. Esercizio 11.5 Studiare al variare di h, k ∈ R la posizione reciproca dei due piani: π : 2x + hy − 2z + 3 = 0,

π 0 : x + 2y + kz + 1 = 0.

Soluzione Per studiare la posizione reciproca dei due piani π e π 0 e` sufficiente studiare le soluzioni del sistema lineare formato dalle loro equazioni, ossia calcolare il rango della sua matrice completa:   2 h −2 −3 (A | B) = 1 2 k −1 e confrontarlo con il rango della sua matrice A dei coefficienti. Riducendo per righe la matrice (A | B) con l’operazione sulle righe R2 → −2R2 + R1 si ottiene:   −3 2 h −2 0 −4 + h −2 − 2k −1 e quindi rank(A | B) = 2, per ogni h e k . Si hanno allora le due seguenti possibilit´a: 1. se h 6= 4 oppure k 6= −1 i due piani si intersecano lungo una retta; 2. se h = 4 e k = −1 i due piani sono paralleli.

11.4

Posizioni reciproche tra rette e piani

Nel paragrafo precedente e` stata esaminata la posizione reciproca di due piani, di seguito si studieranno le posizioni reciproche di tre piani, di una retta e di un piano e di due rette, privilegiando l’approccio di tipo algebrico (applicando quindi la teoria nota dello studio dell’esistenza delle soluzioni dei sistemi lineari) e poi deducendo dai risultati ottenuti le situazioni geometriche.

Capitolo 11

11.4.1

539

Posizione reciproca di tre piani

Per esaminare la posizione reciproca di tre piani π1 , π2 , π3 dati da: π1 : a1 x + b1 y + c1 z + d1 = 0, π2 : a2 x + b2 y + c2 z + d2 = 0, π3 : a3 x + b3 y + c3 z + d3 = 0, si risolve il sistema lineare formato dalle loro tre equazioni. Applicando il Teorema di Rouch´e–Capelli (cfr. Teor 1.2), confrontando i ranghi della matrice dei coefficienti rank(A) e della matrice completa rank(A | B), e tenendo conto che i vettori: n1 = (a1 , b1 , c1 ),

n2 = (a2 , b2 , c2 ),

n3 = (a3 , b3 , c3 )

sono ortogonali, rispettivamente, ai piani π1 , π2 , π3 , si presentano le seguenti possibilit`a: 1. rank(A) = 1 : i tre vettori n1 , n2 , n3 sono paralleli, di conseguenza anche i tre piani π1 , π2 , π3 sono paralleli; si distinguono i due sottocasi: a. rank(A | B) = 1 : il sistema lineare e` compatibile, infatti i tre piani sono coincidenti. b. rank(A | B) = 2 : il sistema lineare e` incompatibile, i tre piani sono paralleli ma non sono tutti e tre coincidenti. 2. rank(A) = 2 : due tra i vettori n1 , n2 , n3 sono linearmente indipendenti e il terzo e` linearmente dipendente da essi; si distinguono i due sottocasi: a. rank(A | B) = 2 : il sistema lineare e` compatibile, i tre piani π1 , π2 , π3 si intersecano in una retta, e` il caso illustrato nella Figura 11.4, se la si limita a tre piani. b. rank(A | B) = 3 : il sistema lineare e` incompatibile, i piani si intersecano a due a due in una retta e il terzo piano non ha punti comuni con tale retta, quindi e` ad essa parallelo. La situazione geometrica e` illustrata nella Figura 11.5. 3. rank(A) = 3 : di conseguenza anche rank(A | B) = 3, il sistema lineare ammette una sola soluzione, i tre piani π1 , π2 , π3 si intersecano in un punto. Esercizio 11.6 Studiare al variare di h, k ∈ R la posizione reciproca dei tre piani: π1 : x + hy + z = 0, π2 : x − y + hz − 1 = 0, π3 : 2x + hy + z + k = 0.

540

Geometria Analitica nello Spazio

Figura 11.5: Tre piani nello spazio: caso 2.b

Capitolo 11

541

Soluzione Per studiarne la posizione reciproca dei piani π1 , π2 , π3 si considera il sistema lineare formato dalle tre equazioni dei piani e si calcola il rango della matrice completa:   1 h 1 0 (A | B) =  1 −1 h 1 . 2 h 1 −k Riducendo per righe la matrice (A | B) si ottiene rank(A) = rank(A | B) = 3 per ogni h e k , quindi i tre piani, per ogni valore reale di h e k, si intersecano in un punto.

11.4.2

Posizione reciproca tra retta e piano

Per esaminare la posizione reciproca tra una retta e un piano si pu`o procedere o algebricamente (usando una rappresentazione cartesiana sia della retta sia del piano), oppure geometricamente (usando una rappresentazione parametrica della retta). Si distinguono i due casi seguenti, che sono equivalenti tra di loro nel risultato a cui si perviene ma sono diversi nel metodo seguito per raggiungere tale risultato. Primo caso

Dati la retta r e il piano π di equazioni:  r:

a1 x + b 1 y + c 1 z + d 1 = 0 a2 x + b2 y + c2 z + d2 = 0,

π : ax + by + cz + d = 0, il problema e` ricondotto allo studio del sistema lineare:   a1 x + b 1 y + c 1 z + d 1 = 0 a2 x + b 2 y + c 2 z + d 2 = 0  ax + by + cz + d = 0,

(11.13)

cio`e allo studio dell’intersezione di tre piani gi`a esaminata nel paragrafo precedente, con la condizione aggiuntiva che la matrice dei coefficienti abbia rango maggiore o uguale a 2 (perch´e?). Dal Teorema di Rouch´e–Capelli (cfr. Teor. 1.2) si distinguono le seguenti possibilit`a: 1. il sistema lineare (11.13) e` incompatibile, cio`e la retta r e` parallela al piano π e non ha punti in comune con π ; 2. il sistema lineare (11.13) ammette una sola soluzione, cio`e la retta ed il piano si intersecano in un punto;

Geometria Analitica nello Spazio

542

3. il sistema lineare (11.13) ammette infinite soluzioni che dipendono da un’incognita libera, allora la retta r giace sul piano π. Secondo Caso Data la retta r passante per il punto P0 = (x0 , y0 , z0 ) e parallela al vettore r = (l, m, n) scritta in foma parametrica come:   x = x0 + lt y = y0 + mt r:  z = z0 + nt, t ∈ R, ed il piano π, ortogonale al vettore n = (a, b, c), di equazione: π : ax + by + cz + d = 0, i punti che appartengono all’intersezione di r con π si possono determinare cercando i valori del parametro t che verificano la seguente equazione: a(x0 + lt) + b(y0 + mt) + c(z0 + nt) + d = 0. Il problema e` quindi ricondotto allo studio delle soluzioni dell’equazione lineare: (al + bm + cn)t = −ax0 − by0 − cz0 − d, nell’incognita t. Osservando che: al + bm + cn = r · n, inoltre: ax0 + by0 + cz0 + d = 0 se e solo il punto P0 appartiene al piano π e tenendo conto che l’annullarsi del prodotto scalare tra due vettori esprime la loro ortogonalit`a, si distinguono le seguenti possibilit`a: 1. r · n 6= 0, cio`e la retta ed il piano si intersecano in un punto; 2. r · n = 0 e P0 ∈ π , cio`e la retta r giace sul piano π ; 3. r · n = 0 e P0 ∈ / π , cio`e la retta r e` parallela al piano π e non ha punti in comune con π. Esercizio 11.7 Studiare la posizione reciproca della retta r e del piano π di equazioni:  x − hz − 2 = 0 r: 3x + y = 0, π : kx − y + hz − 1 = 0, al variare di h, k ∈ R.

Capitolo 11

Soluzione

Si studiano le soluzioni del sistema lineare:   x − hz − 2 = 0 3x + y = 0  kx − y + hz − 1 = 0

543

(11.14)

al variare di h e k in R. Dal calcolo del rango della matrice dei coefficienti e della matrice completa al variare di h e k si ha: 1. h 6= 0 e k 6= −4 : r e π si intersecano in un punto; 2. h = 0 e k 6= −5/2 : r e` parallela a π ; 3. h = 0 e k = −5/2 : r giace su π ; 4. k = −4, r e` parallela a π . In alternativa, osservando che il piano π e` ortogonale al vettore n = (k, −1, h) e la retta r e` parallela al vettore: r = (1, 0, −h) ∧ (3, 1, 0) = (h, −3h, 1), si ha che r · n = 0 se e solo se h(4 + k) = 0. Inoltre il punto P0 = (2, −6, 0) della retta r appartiene al piano π se e solo se 2k + 5 = 0. Si perviene in questo modo alle stesse soluzioni del sistema lineare (11.14).

11.4.3

Posizione reciproca di due rette nello spazio

Dalla geometria euclidea e` noto che due rette r e r0 nello spazio possono essere: 1. coincidenti, 2. parallele, 3. incidenti, 4. sghembe (o non complanari). Da notare che rette parallele e incidenti sono necessariamente complanari. Analogamente al caso della posizione reciproca tra una retta e un piano, studiato nel paragrafo precedente, per individuare la posizione di due rette nello spazio si pu`o procedere in modo algebrico, per esempio rappresentando le due rette come intersezione di due

Geometria Analitica nello Spazio

544

piani ciascuna, o in modo geometrico, per esempio considerando le due rette in forma parametrica. Date due rette r e r0 in rappresentazione cartesiana:  r:

a1 x + b 1 y + c 1 z + d 1 = 0 a2 x + b2 y + c2 z + d2 = 0,



0

r :

a01 x + b01 y + c01 z + d01 = 0 a02 x + b02 y + c02 z + d02 = 0,

la loro posizione reciproca si ottiene studiando le soluzioni del sistema lineare delle quattro equazioni nelle tre incognite ottenuto dalle equazioni dei quattro piani dati. Questo metodo non e` cos`ı semplice da applicare ed e` anche difficile riuscire ad indovinare la posizione reciproca delle due rette solo guardando la loro rappresentazione, prima di iniziare a svolgere i calcoli, come si pu`o osservare dall’esempio che segue. Esempio 11.7 Date le rette:  x−y+z =0 r: y + 3z = 0,

0

r :



x+y−1=0 y + 3z − 2 = 0,

per determinare la loro posizione reciproca si risolve il sistema lineare:  x−y+z =0    y + 3z = 0 x +y−1=0    y + 3z − 2 = 0. Si ottiene che il rango della matrice completa e` 4 (ossia, trattandosi di una matrice quadrata di ordine 4, il suo determinante e` diverso da 0) quindi il sistema lineare e` incompatibile. Le due rette r e r0 sono sghembe. Le due rette non sono parallele perch´e il rango della matrice dei coefficienti e` 3. Se si rappresentano, invece, le due rette r e r0 in forma parametrica:    x = x0 + lt  x = x1 + l 0 λ 0 y = y0 + mt y = y1 + m0 λ r: r :   z = z0 + nt, t ∈ R, z = z1 + n0 λ, λ ∈ R, osservando che le rette r e r0 sono parallele, rispettivamente, ai vettori r = (l, m, n), r0 = (l0 , m0 , n0 ) e passano, rispettivamente, per i punti P0 = (x0 , y0 , z0 ), P1 = (x1 , y1 , z1 ) si ha un metodo molto pi`u agevole per studiarne la loro posizione reciproca. Innanzi tutto e` evidente se le due rette siano o meno parallele a seconda che i vettori r e r0 siano paralleli. Nel caso in cui esse siano parallele, si distingue il caso delle rette coincidenti da

Capitolo 11

545

quello delle rette parallele ma ad intersezione vuota, semplicemente controllando se, per esempio il punto P0 appartenga o meno alla retta r0 . Ma, in generale, tenendo conto che −−→ che r e r0 sono complanari se e solo se i vettori P0 P1 , r, s sono complanari, ossia: x1 − x0 y1 − y0 z1 − z0 −−→ = 0, l m n P0 P1 · r ∧ r0 = 0 0 0 l m n si distinguono i seguenti casi: 1. r = r0 se e solo se r e r0 sono paralleli e ad esempio P0 ∈ r0 ; 2. r e r0 sono parallele se e solo se r e r0 sono paralleli e P0 ∈ / r0 ; −−→ 3. r e r0 sono incidenti se e solo se P0 P1 · r ∧ r0 = 0, ma con r ∧ r0 6= o; −−→ 4. r e r0 sono sghembe se e solo se P0 P1 · r ∧ r0 6= 0. Infine, nel caso in cui le rette r e r0 siano una in rappresentazione cartesiana e l’altra in rappresentazione parametrica, cio`e ad esempio se r0 = π1 ∩ π2 , si pu`o osservare che se si indicano con A e B i punti di intersezione di r con π1 e con π2 , rispettivamente, se A 6= B allora le due rette sono sghembe. Se invece A = B allora r ∩ r0 = A. Esempio 11.8 Scrivendo in forma parametrica le rette r e r0 considerate nell’Esempio 11.7, si ha:    x = −4t  x = −1 + 3λ 0 y = −3t y = 2 − 3λ r: r :   z = t, t ∈ R, z = λ, λ ∈ R, si ricava che le rette r e r0 sono parallele ai vettori r = (−4, −3, 1) e r0 = (3, −3, 1) e passano rispettivamente per i punti O = (0, 0, 0) e P1 = (−1, 2, 0). Si osserva subito che −−→ le due rette non sono parallele, non essendolo i vettori r e r0 . Poich´e OP1 · r ∧ r0 6= 0, si ha che le due rette sono sghembe.

11.5

Fasci di piani

In questo paragrafo sono studiati i fasci di piani, la cui trattazione e` analoga a quella dei fasci di rette nel piano introdotta nel Paragrafo 9.8. Si definiscono due tipi di fasci di piani: 1. il fascio improprio formato da tutti i piani paralleli ad un piano assegnato;

546

Geometria Analitica nello Spazio

2. il fascio proprio formato da tutti i piani passanti per una retta. Il fascio improprio di piani paralleli ad un piano assegnato π : ax + by + cz + d = 0 ha equazione cartesiana: ax + by + cz + k = 0, k ∈ R, in quanto si deve mantenere fisso il vettore n = (a, b, c) ortogonale a tutti i piani del fascio e, al variare di k ∈ R, si determinano tutti e soli i piani paralleli a π . Nel caso di un fascio proprio di piani, si dimostra che dati due piani π e π 0 non paralleli: π : ax + by + cz + d = 0,

π 0 : a0 x + b0 y + c0 z + d0 = 0,

il fascio di piani F generato da π e π 0 , cio`e formato da tutti e soli i piani passanti per la retta r = π∩π 0 , e` l’insieme di tutti i piani aventi per equazione cartesiana la combinazione lineare: F : λ(ax+by+cz+d)+µ(a0 x+b0 y+c0 z+d0 ) = 0,

λ, µ ∈ R, (λ, µ) 6= (0, 0), (11.15)

che prende il nome di equazione del fascio di piani. Infatti si ha: 1. per ogni valore di (λ, µ) 6= (0, 0) da (11.15) si ottiene un piano, trattandosi di un’equazione lineare in x, y, z. 2. I parametri λ e µ sono omogenei, cio`e, per ogni ρ 6= 0, (λ, µ) e (ρλ, ρµ) individuano lo stesso piano. 3. Se P0 = (x0 , y0 , z0 ) ∈ π ∩π 0 , allora (x0 , y0 , z0 ) e` soluzione dell’equazione (11.15), per ogni (λ, µ). Quindi ogni piano del fascio F contiene la retta r = π ∩ π 0 . 4. Se P1 = (x1 , y1 , z1 ) e` un punto qualsiasi dello spazio (non appartenente alla retta r) l’equazione: λ(ax1 + by1 + cz1 + d) + µ(a0 x1 + b0 y1 + c0 z1 + d0 ) = 0 di incognite λ e µ permette di individuare i valori di λ e µ che sostituiti in (11.15) portano all’equazione dell’unico piano del fascio F passante per P1 . Osservazione 11.5 Si osservi che, dati un fascio di piani F, un piano π non appartenente ad F e una retta r che non sia l’asse del fascio, esistono un piano di F parallelo ad r e un piano di F ortogonale a π. Mentre, salvo casi particolari, non esiste un piano di F ortogonale a r e un piano di F parallelo a π. Esercizio 11.8 Dato il punto P0 = (2, 1, −1), determinare il piano π, passante per P0 , in ciascuno dei seguenti casi:

Capitolo 11

547

1. π sia anche parallelo al piano π 0 : 2x − y + 3z − 1 = 0; 2. π contenga anche la retta:  r:

x−y+2=0 2x − y − 3z = 0;

3. π sia anche ortogonale alla retta: 0



r :

y = 2x − 1 z = x + 3;

4. π sia anche ortogonale al piano: π 00 : 2x + y − 3z + 1 = 0 e contenga il punto A = (3, −1, 0). Soluzione 1. Il piano π appartiene al fascio improprio dei piani paralleli a π 0 che ha pertanto ha equazione cartesiana: 2x − y + 3z + k = 0,

k ∈ R.

Imponendo il passaggio per il punto P0 si ha k = 0 e quindi π : 2x − y + 3z = 0. 2. Il piano π appartiene al fascio proprio di piani passanti per r che ha equazione cartesiana: λ(x − y + 2) + µ(2x − y − 3z) = 0,

λ, µ ∈ R, (λ, µ) 6= (0, 0).

(11.16)

Imponendo il passaggio per P0 si ha 3λ + 6µ = 0 e quindi l’equazione di π si ottiene, ad esempio, sostituendo λ = −2 e µ = 1 in (11.16). 3. La retta r0 e` parallela al vettore r0 = (1, 2, −1), quindi il piano π e` ortogonale a r0 e passa per P0 , cio`e ha equazione x + 2y − z − 5 = 0. 4. Il piano π 00 e` ortogonale al vettore n00 = (2, 1, −3), pertanto il piano π e` formato da −→ −−→ tutti i punti P per cui i vettori AP , P0 A e n00 sono complanari, cio`e ha equazione: x−3 y+1 z 2 1 −3 = 0. 1 2 −1

548

Geometria Analitica nello Spazio

Esercizio 11.9 Dati la retta:   x = 1 + 2t y = 3 + 2t r:  z = 1 + 3t,

t∈R

e il punto A = (2, 1, 0), determinare le equazioni della retta s passante per A, perpendicolare ed incidente la retta r. Soluzione La retta s pu`o essere determinata come intersezione dei due piani π1 e π2 , dove π1 e` il piano passante per r e per il punto A e π2 e` il piano passante per A e ortogonale a r; si ha:  x−y+2=0 r: 3x − 2z − 1 = 0. Di conseguenza, il fascio di piani passanti per r ha equazione: F : λ(x − y + 2) + µ(3x − 2z − 1) = 0,

λ, µ ∈ R, (λ, µ) 6= (0, 0).

Pertanto il piano π1 si ottiene imponendo il passaggio di F per A, da cui si deduce 3λ + 5µ = 0. Quindi π1 ha equazione cartesiana 5(x − y + 2) + (−3)(3x − 2z − 1) = 0. Per determinare π2 , invece, si devono calcolare i parametri direttori della retta r e si ottiene che r e` parallela al vettore r = (2, 2, 3). Quindi π2 appartiene al fascio improprio di piani: 2x + 2y + 3z + k = 0,

k ∈ R,

da cui, imponendo il passaggio per il punto A, segue k = −6. Concludendo, la retta s ha equazioni:  4x + 5y − 6z − 13 = 0 s: 2x + 2y + 3z − 6 = 0.

11.6

Distanze e angoli

In questo paragrafo sono affrontati i problemi metrici riguardanti punti, rette, piani nello spazio. Si determineranno, infatti, le distanze di un punto da un piano e di un punto da una retta, la distanza minima tra due rette sghembe e le equazioni della retta perpendicolare e incidente due rette sghembe, inoltre si calcoleranno gli angoli formati da due rette incidenti o sghembe, da una retta e un piano incidenti e da due piani incidenti.

Capitolo 11

11.6.1

549

Distanza di un punto da un piano

La distanza con segno d(P0 , π) di un punto P0 da un piano π e` per definizione la distanza, con segno, d(P0 , H) di P0 dal punto H proiezione ortogonale di P0 su π . La situazione geometrica e` illustrata nella Figura 11.6. Se n e` un vettore ortogonale a π si ha che: −−→ P0 H · n . d(P0 , H) = knk

(11.17)

−−→ Si osservi che il segno della distanza d(P0 , H) e` determinato dal prodotto scalare P0 H · n che e` positivo se P0 appartiene al semispazio individuato da π orientato come n, come nella Figura 11.6, negativo se P0 appartiene al semispazio opposto. Il prodotto scalare −−→ P0 H ·n si annulla se e solo se i due vettori sono ortogonali ossia se e solo se P0 appartiene al piano π. Allo scopo di scrivere mediante le componenti dei vettori e le coordinate dei punti la formula (11.17), si considerino, rispetto al riferimento cartesiano R = (O, i, j, k), il punto P0 = (x0 , y0 , z0 ) ed il piano π : ax + b + cz + d = 0. Dall’espressione del prodotto scalare in componenti (cfr. Teor. 3.13) si ottiene: d(P0 , π) =

ax0 + by0 + cz0 + d √ , a2 + b 2 + c 2

(11.18)

che e` una formula analoga a quella gi`a ricavata per il calcolo della distanza di un punto da una retta nel piano (cfr. Par. 9.7.5). Esercizio 11.10 Data la retta:  r:

x+z−1=0 y + 1 = 0,

determinare i punti di r aventi distanza pari a 4 (in valore assoluto) dal piano: π : 2x − y − 2z + 1 = 0. Soluzione I punti della retta r hanno coordinate (t, −1, −t + 1), t ∈ R, per cui, dalla formula (11.18) segue: |2t + 1 − 2(−t + 1) + 1| √ = 4. 4+1+4 I due valori di t che cos`ı si trovano permettono di individuare i due punti P1 e P2 della retta r che risolvono il problema. La situazione geometrica e` illustrata nella Figura 11.7.

Geometria Analitica nello Spazio

550

P0

n

Π

H

Figura 11.6: Distanza del punto P0 dal piano π

P1 r

P2

Figura 11.7: Esercizio 11.10

Capitolo 11

11.6.2

551

Distanza di un punto da una retta

La distanza d(P0 , r) di un punto P0 da una retta r nello spazio e` per definizione la distanza d(P0 , H) tra i punti P0 e H , dove H e` il punto proiezione ortogonale di P0 su r. Il punto H e` l’intersezione della retta r con il piano π passante per P0 e ortogonale a r. In alternativa, si pu`o determinare la distanza d(P0 , H) cosiderando un punto P1 appartenente a r e un vettore r 6= o parallelo a r. Indicato con θ l’angolo compreso tra i vettori −−→ P0 P1 e r, dalla definizione di prodotto vettoriale (cfr. Par. 3.7.2) si ha: −−→ −−→ kP0 P1 ∧ rk = kP0 P1 k krk sin θ, e quindi:

−−→ kP0 P1 ∧ rk , d(P0 , r) = d(P0 , H) = krk

(11.19)

la situazione geometrica e` illustrata nella Figura 11.8. Si osservi che la distanza di un punto da una retta nello spazio e` sempre un numero positivo o nullo. Esempio 11.9 La distanza dell’origine O dalla retta r di equazioni parametriche:   x=t y = 1 + 2t  z = −1 + 3t, t ∈ R, e` la distanza di O dal punto H ottenuto dall’intersezione della retta r con il piano passante per O perpendicolare a r, si ha:   11 1 8 , ,− . H= 14 7 14 In alternativa, si pu`o considerare un qualsiasi punto di r, ad esempio A = (0, 1, −1) ed un vettore r parallelo alla retta r, per esempio r = (1, 2, 3), e utilizzando la formula (11.19) si ottiene: r −→ kOA ∧ rk k(5, −1, −1)k 27 d(O, r) = = = . krk k(1, 2, 3)k 14

11.6.3

Minima distanza tra due rette sghembe. Perpendicolare comune a due rette sghembe

Un noto teorema di geometria euclidea afferma che date due rette sghembe r e r0 esiste ed e` unica la retta perpendicolare e incidente sia r sia r0 , tale retta prende il nome di

552

Geometria Analitica nello Spazio

P0

r

P1

Θ

H

r

Figura 11.8: Distanza di un punto da una retta

Capitolo 11

553

perpendicolare comune a due rette sghembe. La distanza tra i due punti di intersezione della perpendicolare comune con le due rette sghembe e` la minima distanza tra le rette sghembe d(r, r0 ) nel senso che ogni segmento che unisce due punti qualsiasi, uno su r e uno su r0 , ha lunghezza maggiore di tale distanza. In questo paragrafo si indicheranno alcuni metodi per determinare sia la perpendicolare comune a due rette sghembe sia la loro minima distanza. Siano P (t) = P0 + tr e P (t0 ) = P00 + t0 r0 due rappresentazioni parametriche rispettivamente di r e r0 . Per determinare l’equazione della perpendicolare comune a r e a −−−−−−→ r0 si possono imporre le due condizioni di ortogonalit`a tra i vettori P (t)P (t0 ) e r e tra −−−−−−→ P (t)P (t0 ) e r0 :  (P (t0 ) − P (t)) · r = 0 (11.20) (P (t0 ) − P (t)) · r0 = 0. Il precedente sistema lineare nelle due incognite t e t0 ha un’unica soluzione (t = t0 , t0 = t00 ) e la perpendicolare comune e` pertanto la retta passante per i due punti R, su r ottenuto ponendo t0 nelle equazioni parametriche di r, e R0 , su r0 , ottenuto ponendo t00 nelle equazioni parametriche di r0 . La minima distanza tra le due rette r e r0 sar`a dunque d(R, R0 ). In alternativa si pu`o determinare la minima distanza tra le due rette sghembe r e r0 senza necessariamente calcolare le equazioni della loro perpendicolare comune. E` sufficiente infatti determinare l’equazione del piano π passante per r e parallelo ad r0 e poi calcolare la distanza (in valore assoluto) di un qualunque punto di r0 da π e questa e` la minima distanza tra le due rette sghembe. Oppure si pu`o osservare che la minima distanza tra le due rette sghembe r ed r0 non e` altro che la proiezione ortogonale su r ∧ r0 del vettore che unisce un punto P1 fissato su r ad un punto P2 fissato su r0 , ossia: −−→ |P1 P2 · r ∧ r0 | . d(r, r ) = kr ∧ r0 k 0

La perpendicolare comune a r e a r0 si pu`o anche determinare come intersezione dei due piani π1 e π2 entrambi paralleli al vettore r ∧ r0 e complanari uno con r e l’altro con r0 . La situazione geometrica e` illustrata nella Figura 11.9. Esercizio 11.11

1. Date le due rette:   x=t+2 y=t r:  z = −2t, t ∈ R,

  x = t0 0 y = t0 − 1 r :  z = −t0 + 2,

t0 ∈ R,

verificare che r e r0 sono sghembe e determinare la loro perpendicolare comune. 2. Calcolare la distanza minima di r e r0 .

Geometria Analitica nello Spazio

554

r'

R'

r' P!t'"

r#r'

r P!t"

R

r

Figura 11.9: Perpendicolare comune a due rette sghembe

Π

Capitolo 11

555

Soluzione 1. Le rette r e r0 sono rispettivamente parallele ai vettori r = (1, 1, −2) e r0 = (1, 1, −1). Inoltre, considerati i punti P1 = (2, 0, 0) in r e P2 = (0, −1, 2) in −−→ r0 , poich´e P1 P2 ∧ r · r0 6= 0, le rette r e r0 non sono complanari. Per determinare la loro perpendicolare comune si pu`o osservare che indicati con: P (t) = (t + 2, t, −2t),

P (t0 ) = (t0 , t0 − 1, −t0 + 2)

i generici punti di r e di r0 rispettivamente, il sistema lineare (11.20) diventa in questo caso:  0 4t − 6t − 7 = 0 3t0 − 4t − 5 = 0 ed ha come un’unica soluzione (t = −1/2, t0 = 1). La perpendicolare comune alle rette r e r0 e` allora la retta passante per i due punti:  R=

 3 1 , − , 1 ∈ r, 2 2

R0 = (1, 0, 1) ∈ r0 ,

ossia la retta p di equazioni:   x=1−λ y=λ p:  z = 1, λ ∈ R. Si perviene allo stesso risultato considerando la retta p come intersezione dei piani π1 e π2 cos`ı determinati: π1 e` il piano parallelo al vettore r ∧ r0 = i − j e appartenente al fascio di piani di asse la retta r, si ottiene π1 : x + y + z − 2 = 0. In modo analogo, π2 e` il piano parallelo a r ∧ r0 e appartenente al fascio di piani di asse la retta r0 , si ha π2 : x + y + 2z − 3 = 0. 2. La distanza minima di r e r0 e` : √ d(R, R0 ) =

2 . 2

Si perviene allo stesso risultato determinando l’equazione del piano π3 appartenente al fascio di piani di asse la retta r e parallelo alla retta r0 , si ha π3 : x−y −2 = 0, infine calcolando la distanza (in valore assoluto) di un generico punto di r0 , per esempio A = (0, −1, 2), dal piano π3 .

556

11.6.4

Geometria Analitica nello Spazio

Angolo tra due rette

[ Per definizione, l’angolo (r, r0 ) tra due rette r e r0 nello spazio e` l’angolo formato tra un vettore r parallelo alla retta r ed un vettore r0 parallelo alla retta r0 . Da osservare quindi che se θ e` l’angolo tra i due vettori r e r0 , le due rette formano anche l’angolo π − θ. Inoltre, in base a questa definizione, che peraltro coincide con la definizione di angolo tra due rette nel piano (cfr. Par. 9.7.3), ha anche senso la nozione di angolo tra due rette sghembe. Pertanto, dalla definizione di prodotto scalare tra due vettori (cfr. Par. 3.7.1) segue: r · r0 0 , r) = ± [ \ . cos (r, r0 ) = ± cos (r krk kr0 k

11.6.5

Angolo tra retta e piano

L’angolo tra una retta r ed un piano π nello spazio e` per definizione l’angolo θ ∈ [0, π/2] che la retta r forma con la retta r0 , proiezione ortogonale di r su π. L’angolo θ e` pertanto complementare all’angolo ϕ ∈ [0, π/2] che un vettore r parallelo alla retta r forma con un vettore n ortogonale a π, quindi si ha: |n · r| [ . sin (r, π) = sin θ = knk krk La situazione geometrica e` illustrata nella Figura 11.10.

11.6.6

Angolo tra due piani

Dalla geometria euclidea e` noto che l’ampiezza dei diedri formati da due piani π1 e π2 incidenti in una retta r e` calcolata mediante la loro sezione normale. Per sezione normale di un diedro individuato dai piani π1 e π2 si intende un piano π che intersechi ortogonalmente la retta r = π1 ∩ π2 . Gli angoli sul piano π individuati dalle due rette r1 e r2 rispettivamente intersezione di π con π1 e con π2 corrispondono agli angoli formati dai piani π1 e π2 . La situazione geometrica e` illustrata nella Figura 11.11. Dalla rappresentazione in pianta dell’angolo θ indicato nella Figura 11.11 (cfr. Fig. 11.12) si osserva che l’angolo θ individuato da π1 e π2 e` il supplementare dell’angolo ϕ formato dai vettori n1 e n2 , vettori normali, rispettivamente, a π1 e a π2 . D’altra parte, cambiando l’orientamento di n1 o di n2 , essi formano anche l’angolo π − ϕ. Pertanto: \ \ cos (π 1 , π2 ) = ± cos (n1 , n2 ) = ±

n1 · n2 . kn1 k kn2 k

Capitolo 11

557

n j Θ

r'

r

Figura 11.10: Angolo tra la retta r e il piano π

Geometria Analitica nello Spazio

558

r

Θ r1

r2

Π1

Π2

Figura 11.11: Sezione normale di un diedro

r2 n1

" Θ

n2 r1

Figura 11.12: Angolo θ tra due piani

Capitolo 11

11.7

559

Sfera e posizione reciproca con rette e piani

In questo paragrafo si introduce la rappresentazione della sfera nello spazio mediante un’equazione cartesiana di tipo particolare, si vedr`a che tale rappresentazione e` analoga a quella della circonferenza nel piano. La rappresentazione della sfera mediante equazioni parametriche sar`a discussa nel Paragrafo 11.10. La rappresentazione di una circonferenza nello spazio e` invece pi`u complicata e sar`a discussa nel Paragrafo 11.8. Saranno anche studiate le posizioni reciproche tra una sfera e un piano, tra una sfera e una retta con le relative condizioni di tangenza.

11.7.1

Sfera

Fissati un punto C e una costante positiva R, la sfera o superficie sferica Σ di centro C e raggio R e` il luogo geometrico dei punti P dello spazio tali che: d(P, C) = R. Se R = 0 la sfera si riduce ad un solo punto che coincide con C . Rispetto ad un riferimento cartesiano R = (0, x, y, z), la sfera di centro C = (α, β, γ) e raggio R ≥ 0 ha quindi equazione: (x − α)2 + (y − β)2 + (z − γ)2 = R2 , che pu`o essere riscritta come: x2 + y 2 + z 2 − 2αx − 2βy − 2γz + δ = 0,

(11.21)

con δ = α2 + β 2 + γ 2 − R2 . Si osservi che l’equazione (11.21) e` di secondo grado in x, y, z , i coefficienti dei termini xy , xz , yz sono tutti nulli e i coefficienti dei termini x2 , y 2 e z 2 sono uguali. Viceversa, un’equazione dello stesso tipo, vale a dire: x2 + y 2 + z 2 + ax + by + cz + d = 0,

a, b, c, d ∈ R,

(11.22)

non sempre rappresenta una sfera nello spazio. Infatti, per confronto con (11.21), da (11.22) il centro C ha coordinate:   b c a (11.23) C = − ,− ,− 2 2 2 e il raggio e` dato da: r

a2 + b2 + c2 − 4d , (11.24) 4 pertanto l’equazione (11.22) rappresenta una sfera se e solo se a2 + b2 + c2 − 4d ≥ 0. R=

Geometria Analitica nello Spazio

560

Osservazione 11.6 Se a2 + b2 + c2 − 4d = 0, la sfera e` detta degenere e si riduce al solo centro di coordinate (−a/2, −b/2, −c/2). Se a2 + b2 + c2 − 4d < 0 allora non ci sono punti dello spazio che verificano l’equazione (11.22) e la sfera viene detta immaginaria. Esercizio 11.12 Determinare il centro e il raggio delle due sfere: Σ1 : x2 + y 2 + z 2 + 2x − y + z = 0, Σ2 : x2 + y 2 + z 2 + 2x − y + z + 4 = 0. Soluzione

Σ1 e` una sfera con centro nel punto:   1 1 C = −1, , − 2 2

e raggio (cfr. (11.24)): s R1 =

(−1)2

√  2  2 1 1 6 . + + − = 2 2 2

Da notare che il raggio R1 coincide con la distanza d(O, C), in quanto la sfera passa per l’origine O, essendo la sua equazione priva di termine noto. Il centro di Σ2 e` C , ma Σ2 non e` una sfera poich´e, da (11.24) si ha che il radicando vale 3/2 − 4 < 0. In base alla precedente osservazione Σ2 e` infatti una sfera immaginaria. Esercizio 11.13 Si studino le posizioni delle sfere nello spazio, rappresentate dall’equazione (11.22), al variare di a, b, c, d in R.

11.7.2

Posizione reciproca tra piano e sfera

La posizione reciproca di una sfera Σ e di un piano π e` determinata dal confronto tra la distanza del centro C della sfera dal piano e il valore del suo raggio R. Pi`u precisamente si presentano i seguenti casi: 1. se |d(C, π)| > R l’intersezione di π con Σ e` l’insieme vuoto, il piano π si dice esterno alla sfera Σ (cfr. Fig. 11.13); 2. se |d(C, π)| = R l’intersezione di π con Σ e` un punto P0 , il piano π si dice tangente alla sfera Σ in P0 (cfr. Fig. 11.14); 3. se |d(C, π)| < r l’intersezione di π con Σ e` una circonferenza, il piano π si dice secante la sfera Σ (cfr. Fig. 11.15).

Capitolo 11

561

C

Π

Figura 11.13: Piano esterno ad una sfera

C

P0 Π

Figura 11.14: Piano tangente ad una sfera

562

Geometria Analitica nello Spazio

C

Figura 11.15: Piano secante una sfera Si osservi che la circonferenza intersezione di un piano π secante una sfera Σ pu`o essere rappresentata dal sistema delle equazioni di π e di Σ, come si vedr`a con maggiori dettagli nel Paragrafo 11.8. Dato un punto P0 = (x0 , y0 , z0 ) appartenente alla sfera Σ di centro C = (α, β, γ) e raggio R, esiste un solo piano tangente a Σ in P0 , dato dal piano passante per P0 e −−→ ortogonale al vettore CP0 = (x0 − α, y0 − β, z0 − γ), che ha quindi equazione: (x0 − α)(x − x0 ) + (y0 − β)(y − y0 ) + (z0 − γ)(z − z0 ) = 0. Esercizio 11.14 Determinare l’equazione della sfera passante per il punto A = (3, 1, 1) e tangente al piano π : x + y − z − 1 = 0 nel punto B = (1, 1, 1). Soluzione Il centro C della sfera richiesta appartiene alla retta r passante per B e ortogonale a π , di equazioni parametriche:   x=1+t y =1+t r:  z = 1 − t, t ∈ R, pertanto il generico punto C della retta r ha coordinate C = (1 + t, 1 + t, 1 − t). Imponendo la condizione d(C, A) = d(C, B) si ha t = 1 e quindi si determina il centro C = (2, 2, 0) della sfera che ha, di conseguenza, equazione cartesiana: (x − 2)2 + (y − 2)2 + z 2 = 3.

Capitolo 11

11.7.3

563

Posizione reciproca tra retta e sfera r

C

S

Figura 11.16: Retta esterna ad una sfera Per determinare i punti di intersezione di una sfera: Σ : x2 + y 2 + z 2 + ax + by + cz + d = 0 con una retta r di equazioni parametriche:   x = x0 + lt y = y0 + mt r:  z = z0 + nt,

t ∈ R,

e` sufficiente risolvere l’equazione di secondo grado in t che si ottiene sostituendo le equazioni di r nell’equazione di Σ: (x0 + lt)2 + (y0 + mt)2 + (z0 + nt)2 + a(x0 + lt) + b(y0 + mt) + c(z0 + nt) + d = 0, che pu`o avere: 1. due soluzioni complesse e coniugate, quindi la retta r e` esterna alla sfera Σ (cfr. Fig. 11.16); 2. due soluzioni reali concidenti, cio`e la retta r e` tangente alla sfera Σ (r interseca Σ in due punti coincidenti, cfr. Fig. 11.17);

Geometria Analitica nello Spazio

564

r

C

S

Figura 11.17: Retta tangente ad una sfera r

C

S

Figura 11.18: Retta secante una sfera

Capitolo 11

565

3. due soluzioni reali distinte, cio`e la retta r e` secante la sfera Σ (r interseca Σ in due punti distinti, cfr. Fig. 11.18). Osservazione 11.7 Geometricamente i casi di intersezione di una retta r con una sfera Σ appena descritti possono essere interpretati in termini della distanza d(C, r) del centro C della sfera dalla retta r nel modo seguente: 1. la retta r e` esterna alla sfera Σ se e solo se d(C, r) > R; 2. la retta r e` tangente alla sfera Σ se e solo se d(C, r) = R; 3. la retta r e` secante la sfera Σ se e solo se d(C, r) < R. Si osservi inoltre che in ogni punto P0 di una sfera Σ si hanno infinite rette tangenti a Σ, tutte e sole quelle appartenenti al fascio di rette di centro P0 che giace sul piano tangente a Σ nel punto P0 .

11.8

La circonferenza nello spazio

Una circonferenza C di centro C e raggio r e` il luogo geometrico dei punti P dello spazio che appartengono ad un piano π passante per C e che hanno distanza r da C : C = {P ∈ π | d(P, C) = r}. Una circonferenza C e` quindi individuata dal suo centro, dal suo raggio e dal piano su cui essa giace. Esempio 11.10 a. La circonferenza C di centro il punto C = (α, β, γ), raggio r e appartenente al piano π di equazione ax + by + cz + d = 0 e` data, ad esempio, dall’intersezione del piano π con la sfera di centro C e raggio r, pertanto C ha equazioni cartesiane:  (x − α)2 + (y − β)2 + (z − γ)2 = r2 C: ax + by + cz + d = 0. b. La circonferenza C e` anche data dall’intersezione del piano π con infinite altre sfere, aventi il centro sulla retta passante per C, ortogonale a π . c. La cironferenza C e` anche data dall’intersezione di due sfere che in essa si intersecano.

Geometria Analitica nello Spazio

566

Π

C

Figura 11.19: La circonferenza C del piano π

Capitolo 11

567

d. La circonferenza C e` anche data dall’intersezione del piano π con una opportuna superficie (non necessariamente sferica) come sar`a spiegato meglio nel Capitolo 12. La situazione geometrica e` illustrata nella Figura 11.19.

S

C R r

Q

Π

Figura 11.20: Il centro e il raggio della circonferenza In generale, un sistema di due equazioni nelle incognite x, y, z del tipo:  2 x + y 2 + z 2 − 2αx − 2βy − 2γz + δ = 0 ax + by + cz + d = 0 rappresenta una circonferenza C se e solo se Σ : x2 + y 2 + z 2 − 2αx − 2βy − 2γz + δ = 0 e` una sfera e π : ax + by + cz + d = 0 e` un piano secante la sfera Σ. In tale caso si ha: 1. il centro Q di C e` l’intersezione del piano π con la retta ortogonale a π, passante per il centro C della sfera Σ; 2. il raggio r della circonferenza C si ottiene applicando il Teorema di Pitagora ed e` dato da: p r = R2 − (d(C, π))2 , (11.25) dove R indica il raggio della sfera Σ e d(C, π) la distanza di C da π . La situazione geometrica e` illustrata nella Figura 11.20.

568

Geometria Analitica nello Spazio

Esercizio 11.15 Determinare il centro Q e il raggio r della circonferenza intersezione della sfera Σ : x2 + y 2 + z 2 − 4x = 0 con il piano π : z + 1 = 0. Soluzione La sfera Σ ha centro C = (2, 0, 0) e raggio R = 2. Il centro Q della circonferenza appartiene all’intersezione del piano π con la retta passante per C e ortogonale al piano π, di equazioni parametriche:   x=2 y=0  z = t, t ∈ R. Si ottiene √ Q = (2, 0, −1) e, dalla formula (11.25) si ha che il raggio della circonferenza e` r = 3. Esercizio 11.16 Data la circonferenza C intersezione della sfera Σ : x2 + y 2 + z 2 − 2 = 0 con il piano π : x + y + z = 0, 1. verificare che il punto A = (2, 0, −2) del piano π e` esterno alla circonferenza C . 2. Determinare le equazioni delle rette del piano π uscenti da A e tangenti a C . Soluzione 1. Il centro Q della circonferenza C e` l’intersezione del piano π con la retta ortogonale a π e passante per il centro C della sfera Σ. Poich´e il centro C coincide con l’origine e il piano π passa per l’origine segue che la circonferenza C e` un √ cerchio massimo di Σ e Q = C, il raggio di C e` r = 2, ossia e` il raggio di Σ. Il √ √ punto A e` esterno a C in quanto d(A, C) = 2 2 > 2. 2. Le rette cercate giacciono sul piano π 0 passante per A ortogonale a π e tale che √ d(C, π 0 ) = 2. Il piano π 0 appartiene al fascio proprio F di piani di asse la retta passante per A ortogonale a π di equazioni cartesiane:  x−y−2=0 y − z − 2 = 0. Il fascio F ha pertanto equazione: F : λ(x − y − 2) + µ(y − z − 2) = 0, λ, µ ∈ R, (λ, µ) 6= (0, 0). √ Imponendo la condizione d(C, π 0 ) = 2 si ottiene: λµ = 0,

Capitolo 11

569

e quindi i due piani: x − y − 2 = 0,

y − z − 2 = 0.

Le due rette cercate hanno quindi equazioni:   x−y−2=0 y−z−2=0 x + y + z = 0, x + y + z = 0.

Nell’esercizio seguente si intendono ricavare le equazioni parametriche di una circonferenza rappresentata come intersezione di un piano e di una sfera, allo scopo, per esempio, di disegnarla agevolmente usando un programma di calcolo simbolico. Esercizio 11.17 Trovare le equazioni parametriche della circonferenza C , appartenente al piano π di equazione 2x − y + z = 0, di centro C = (1, 2, 0) e raggio 2. Soluzione Un vettore parallelo al piano π e` v1 = j + k. Un vettore parallelo a π e ortogonale a v1 invece e` : v2 = v1 ∧ (2i − j + k) = 2i + 2j − 2k. Si considerino i loro versori: u1 =

v1 j+k = √ , kv2 k 2

u2 =

v2 i+j−k √ = . kv2 k 3

Una rappresentazione vettoriale parametrica di C e` : P = C + 2((cos t)u1 + (sin t)u2 ),

0 ≤ t < 2π,

che in componenti, rispetto alla base ortonormale positiva B = (i, j, k), diventa:  2   x = 1 + √ sin t   3       2 2 y = 2 + √ cos t + √ sin t  3 3       2 2    z = √ cos t − √ sin t, 0 ≤ t < 2π. 2 3

Geometria Analitica nello Spazio

570

11.9

Posizione reciproca tra due sfere Fasci di sfere

Geometricamente e` evidente che l’intersezione di due sfere diverse Σ1 e Σ2 nello spazio pu`o essere: 1. l’insieme vuoto; 2. un punto, nel qual caso le sfere si dicono tangenti; 3. una circonferenza, nel qual caso le sfere si dicono secanti. La posizione reciproca tra due sfere nello spazio si pu`o determinare confrontando la distanza tra i loro centri con la somma e la differenza dei loro raggi, in modo totalmente analogo a quanto illustrato per la determinazione della posizione reciproca di due circonferenze nel piano (cfr. Par. 10.1.3).

Figura 11.21: Due sfere secanti e il loro piano radicale

Capitolo 11

Figura 11.22: Due sfere tangenti esternamente e il loro piano radicale

Figura 11.23: Due sfere tangenti internamente e il loro piano radicale

571

572

Geometria Analitica nello Spazio

Figura 11.24: Due sfere ad intersezione vuota e il loro piano radicale

Figura 11.25: Due sfere ad intersezione vuota e il loro piano radicale

Capitolo 11

573

Date le due sfere Σ1 e Σ2 di equazioni: Σ1 : x2 + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0, Σ2 : x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 = 0, si pu`o anche studiare la loro intersezione considerando le soluzioni del sistema formato dalle due equazioni:  2 x + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0, x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 = 0. che, sottraendo membro a membro, e` equivalente al sistema:  2 x + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0, (a1 − a2 )x + (b1 − b2 )y + (c1 − c2 )z + d1 − d2 = 0. Se le due sfere Σ1 e Σ2 non sono concentriche, la seconda equazione del sistema precedente rappresenta un piano π , detto piano radicale della coppia di sfere. Si osserva che: 1. il piano radicale e` ortogonale al vettore: n = (a1 − a2 , b1 − b2 , c1 − c2 ) che e` parallelo alla retta che unisce i centri delle due sfere, detta asse centrale. 2. Se Σ1 ∩ Σ2 e` una circonferenza C , allora il piano radicale coincide con il piano su cui giace C . La situazione geometrica e` illustrata nella Figura 11.21. 3. Se Σ1 e Σ2 sono tangenti in un punto P0 , il piano radicale e` tangente ad entrambe le sfere nel punto P0 . La situazione geometrica e` illustrata nelle Figura 11.22 e 11.23. 4. Se le due sfere Σ1 e Σ2 non hanno punti in comune, anche il loro piano radicale non ha punti in comune con le due sfere. La situazione geometrica e` illustrata nelle Figure 11.24 e 11.25.

Come nel caso del fascio di circonferenze nel piano (cfr. Par. 10.1.4) date due sfere: Σ1 : x2 + y 2 + z 2 + a1 x + b1 y + c1 z + d1 = 0, Σ2 : x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 = 0,

574

Geometria Analitica nello Spazio

la loro combinazione lineare, al variare dei parametri λ e µ: λ(x2 + y 2 + z 2 + a1 x + b1 y + c1 z + d1 ) +µ(x2 + y 2 + z 2 + a2 x + b2 y + c2 z + d2 ) = 0,

λ, µ ∈ R, (λ, µ) 6= (0, 0),

(11.26)

rappresenta il fascio di sfere individuato da Σ1 e Σ2 . Si osservi che i parametri λ e µ sono omogenei, vale a dire e` sufficiente individuare il loro rapporto per ottenere un solo elemento del fascio. Si osservi, inoltre, che per λ = 0 si ha la sfera Σ2 e per µ = 0 si ottiene la sfera Σ1 . Da (11.26) si ha: (λ + µ)x2 + (λ + µ)y 2 + (λ + µ)z 2 + (λa1 + µ a2 )x + (λb1 + µb2 )y +(λc1 + µc2 )z + (λd1 + µd2 ) = 0.

(11.27)

Pertanto, se λ = −µ e le due sfere Σ1 e Σ2 non sono concentriche, l’equazione (11.27) rappresenta il piano radicale individuato dalla coppia di sfere che quindi prende il nome di piano radicale del fascio. Per λ 6= −µ si trova in generale una sfera se il raggio e` positivo o nullo, altrimenti si ottengono sfere immaginarie (cfr. Oss. 11.6). Come nel caso del fascio di circonferenze nel piano. anche per il fascio di sfere si hanno le seguenti propriet`a legate alla posizione reciproca, prima descritta, delle due sfere Σ1 e Σ2 : 1. se Σ1 e Σ2 hanno il centro nello stesso punto C , il fascio generato da Σ1 e Σ2 e` l’insieme di tutte le sfere di centro C . Questo fascio non definisce alcun piano radicale, a meno di studiare le propriet`a dei fasci di sfere nell’ambito della geometria proiettiva, non trattata in questo testo. Per la definizione e le maggiori propriet`a degli spazi proiettivi si veda ad esempio [17]. 2. Se Σ1 e Σ2 hanno centri diversi, siano, rispettivamente, C1 e C2 , il centro di ogni sfera del fascio individuato da Σ1 e Σ2 appartiene alla retta passante per C1 e C2 , detta asse centrale del fascio. Inoltre l’asse centrale e` ortogonale al piano radicale. La verifica di quanto appena affermato e` un semplice esercizio. Si distinguono i seguenti casi. 2a. Se Σ1 ∩ Σ2 e` una circonferenza C, tutti gli elementi del fascio individuato da Σ1 e da Σ2 contengono C , il fascio contiene il piano radicale di Σ1 e Σ2 e tutte e sole le sfere contenti C e aventi centro sull’asse centrale (compresa la sfera che ha C come cerchio massimo e centro sul piano radicale stesso). La situazione geometrica e` illustrata nella Figura 11.26. 2b. Se Σ1 ∩Σ2 sono tangenti nel punto P0 , tutti gli elementi del fascio individuato da Σ1 e da Σ2 sono tangenti in P0 . In questo caso il fascio contiene il piano

Capitolo 11

575

radicale π di Σ1 e Σ2 e tutte e sole le sfere tangenti a π in P0 (compresa quella di centro P0 e raggio nullo, che per convenzione si considera tangente a π in P0 ). La situazione geometrica e` illustrata nella Figura 11.27. 2c. Se le due sfere Σ1 e Σ2 non hanno punti in comune, il fascio da esse individuato contiene il loro piano radicale e tutte e sole le sfere aventi centro sull’asse centrale del fascio e nessun punto in comune tra di loro e con il piano radicale, La situazione geometrica e` illustrata nella Figura 11.28. 3. Il fascio di sfere riempie lo spazio nel senso che dato un punto P1 = (x1 , y1 , z1 ) dello spazio e` possibile individuare un elemento del fascio passante per P1 , infatti e` sufficiente sostituire le coordinate di P1 nell’equazione (11.26) e calcolare i valori dei parametri λ e µ. Esempio 11.11 L’esercizio 11.14 pu`o essere risolto anche tramite la nozione di fascio di sfere. Infatti la sfera passante per A = (3, 1, 1) e tangente al piano π : x + y − z − 1 = 0 nel punto B = (1, 1, 1) appartiene al fascio di tutte le sfere tangenti a π nel punto B , individuato dal piano π e dalla sfera di centro B e raggio 0, di equazione: λ((x − 1)2 + (y − 1)2 + (z − 1)2 ) + µ(x + y − z − 1) = 0,

λ, µ ∈ R, (λ, µ) 6= (0, 0).

Imponendo il passaggio per il punto A si ha 4λ + 2µ = 0, da cui ponendo λ = 1 e µ = −2 si ritrova la sfera: x2 + y 2 + z 2 − 4x − 4y + 5 = 0. Esercizio 11.18 √ Data la circonferenza C del piano z + 1 = 0 di centro Q = (2, 3, −1) e raggio r = 3, determinare le equazioni delle sfere passanti per C e tangenti alla retta t : x = y − 3 = 0. Soluzione equazione:

Le sfere passanti per la circonferenza C appartengono al fascio di sfere

λ[(x − 2)2 + (y − 3)2 + (z + 1)2 − 3] + µ(z + 1) = 0,

λ, µ ∈ R, (λ, µ) 6= (0, 0),

o, equivalentemente (tenendo conto che in questo caso non si sta cercando il piano radicale tra le soluzioni) di equazione: x2 + y 2 + z 2 − 4x − 6y + 2z + 11 + k(z + 1) = 0,

k ∈ R.

(11.28)

con k = λ/µ. Intersecando la generica sfera del fascio, rappresentato per semplicit`a mediante (11.28), con la retta t si ottiene l’equazione di secondo grado in z : z 2 + (k + 2)z + 2 + k = 0,

576

Geometria Analitica nello Spazio

Figura 11.26: Fascio di sfere passanti per una circonferenza

Capitolo 11

Figura 11.27: Fascio di sfere tangenti in un punto

577

578

Geometria Analitica nello Spazio

Figura 11.28: Fascio di sfere non aventi punti in comune

Capitolo 11

579

che ha due soluzioni coincidenti se e solo se si annulla il suo discriminante: ∆ = (k + 2)2 − 4(k + 2), cio`e se e solo se k = ±2. Le sfere cercate hanno allora equazioni: x2 + y 2 + z 2 − 4x − 6y + 2z + 11 ± 2(z + 1) = 0.

11.10

Coordinate polari sferiche

Come nel caso del piano in cui sono state introdotte, per ogni punto P, oltre alla coordinate cartesiane P = (x, y) anche le coordinate polari P = (ρ, θ) (cfr. Par. 9.3), in modo analogo, nello spazio, si possono definire sistemi di coordinate diversi da quello cartesiano. In questo paragrafo saranno descritte le coordinate polari sferiche, che diventeranno fondamentali per la rappresentazione parametrica di figure aventi un centro di simmetria, come ad esempio la sfera, da cui la loro denominazione. Un sistema di coordinate polari sferiche nello spazio e` formato da: 1. un punto O, detto polo, 2. una retta orientata p passante per O, detta asse polare, 3. un semipiano π di origine la retta p, detto semipiano polare. Ad ogni punto P dello spazio (non appartenente all’asse polare) si pu`o associare in modo unico la terna di numeri (ρ, ϕ, θ), dove: 1. ρ e` la distanza d(O, P ) dal punto P al polo ed e` quindi un numero reale positivo; 2. ϕ ∈ [0, 2π) e` l’angolo della rotazione antioraria intorno alla retta p che il semipiano π deve compiere per sovrapporsi al semipiano individuato dalla retta p e dal punto P; −→ 3. θ ∈ [0, π] e` l’angolo tra la retta p ed il vettore OP . La terna di numeri (ρ, ϕ, θ) costituisce le coordinate polari sferiche di P. Per l’analogia con il metodo comunemente usato per determinare la posizione dei punti sulla terra, ρ prende il nome di raggio vettore, ϕ e` la longitudine e θ e` la colatitudine essendo il complementare della latitudine del punto P. La situazione geometrica e` illustrata nella Figura 11.29.

Geometria Analitica nello Spazio

580

P p

Π

Θ O

"

Figura 11.29: Sistema di coordinate polari sferiche

Capitolo 11

581

Osservazione 11.8 Se il punto P appartiene all’asse polare, ϕ e` indeterminato e θ = 0 o θ = π . Se P = O, θ e ϕ sono entrambi indeterminati. Se si considera un riferimento cartesiano posizionato in modo opportuno rispetto al riferimento polare sferico si possono determinare, mediante semplici considerazioni geometriche, le relazioni che intercorrono tra le coordinate cartesiane e le coordinate polari sferiche di ogni punto P (non appartenente all’asse polare). Precisamente si pongono: a. il polo O coincidente con l’origine O del sistema di riferimento cartesiano R = (O, x, y, z); b. l’asse polare p coincidente con l’asse z ; c. il semipiano polare π coincidente con il semipiano coordinato yz (dalla parte delle y positive). Sia P 0 il punto, proiezione ortogonale di P sul piano coordinato xy , come illustrato −→ nella Figura 11.30 la lunghezza della proiezione ortogonale del vettore OP sul piano −−→ coordinato xy e` kOP 0 k = ρ sin θ e quindi le relazioni tra le coordinate cartesiane (x, y, z) e le coordinate polari sferiche (ρ, ϕ, θ) di P sono:   x = ρ sin θ cos ϕ y = ρ sin θ sin ϕ (11.29)  z = ρ cos θ. Rispetto al sistema di coordinate polari sferiche appena introdotto, la sfera Σ di centro O e raggio R ha equazione ρ = R. Utilizzando il cambiamento di coordinate (11.29) si trova per Σ la rappresentazione parametrica (con parametri ϕ e θ) data da:   x = R sin θ cos ϕ y = R sin θ sin ϕ  z = R cos θ, ϕ ∈ [0, 2π), θ ∈ [0, π]. Quindi, la sfera Σ di centro nel punto C = (α, β, γ) e raggio R ha equazioni parametriche:   x = R sin θ cos ϕ + α y = R sin θ sin ϕ + β (11.30)  z = R cos θ + γ, ϕ ∈ [0, 2π), θ ∈ [0, π]. A tali equazioni si perviene operando mediante una traslazione degli assi, cio`e considerando un nuovo riferimento cartesiano R0 = (C, X, Y, Z), con origine il centro C della

Geometria Analitica nello Spazio

582

z

P Ρ Θ O y #

x

P'

Figura 11.30: Coordinate cartesiane e coordinate polari sferiche di P

Capitolo 11

583

sfera e gli assi X , Y e Z passanti per C , paralleli e concordi rispettivamente a x, y e z . Analogamente al caso delle traslazioni degli assi nel piano (cfr. Par. 9.4) le relazioni che legano le coordinate del generico punto P rispetto ai due riferimenti sono:   x=X +α y =Y +β  z = Z + γ.

11.11

Esercizi di riepilogo svolti

Esercizio 11.19 Date le tre rette:  r:

x−y =0 2x − z + 5 = 0,

 s:

x−y+6=0 x − 2y + z − 6 = 0,

 t:

3x − 2z + 2 = 0 3y + z − 4 = 0,

determinare la retta incidente r e s e parallela a t. Soluzione La retta cercata e` l’intersezione dei due piani π1 e π2 , dove π1 e` il piano per r parallelo a t e π2 e` il piano per s parallelo a t. Per determinare l’equazione ad esempio del piano π1 si pu`o osservare che esso appartiene al fascio di piani di equazione: λ(x − y) + µ(2x − z + 5) = 0,

λ, µ ∈ R, (λ, µ) 6= (0, 0).

Poich´e ogni piano del fascio e` ortogonale al vettore (λ + 2µ, −λ, −µ) e la retta t e` parallela al vettore t = (−2, 1, −3), si ha che il piano cercato si ottiene imponendo la condizione: (λ + 2µ, −λ, −µ) · t = −3λ − µ = 0, da cui ad esempio λ = 1, µ = −3. Per determinare π2 si procede in modo analogo considerando il fascio di piani passanti per la retta s: λ1 (x − y + 6) + µ1 (x − 2y + z − 6) = 0,

λ, µ ∈ R, (λ, µ) 6= (0, 0).

Esercizio 11.20 – Piano assiale di un segmento – Calcolare l’equazione del piano assiale del segmento di estremi A = (−3, 5, 1), B = (2, −3, 1). Soluzione Il procedimento da usare e` simile a quello spiegato nel Paragrafo 9.2 nel caso di un asse di un segmento nel piano, in alternativa si pu`o determinare l’equazione del piano ortogonale ad AB nel suo punto medio. Imponendo, invece, che il piano assiale sia il luogo dei punti P = (x, y, z) equidistanti da A e B si ha: p p (x + 3)2 + (y − 5)2 + (z − 1)2 = (x − 2)2 + (y + 3)2 + (z − 1)2

584

Geometria Analitica nello Spazio

r

O'

H O

Figura 11.31: Simmetrico del punto O rispetto alla retta r

Capitolo 11

585

r

A K

H A'

Figura 11.32: Esercizio 11.20

586

Geometria Analitica nello Spazio

da cui segue che l’equazione del piano assiale e` 10x − 16y + 21 = 0.

Esercizio 11.21 – Punto simmetrico di un altro punto rispetto ad una retta – Determinare le coordinate del punto O0 simmetrico dell’origine O rispetto alla retta  x + y + z = 0, r: x + y − 1 = 0. Soluzione Il punto medio M di O e O0 e` il punto di intersezione della retta r con il piano π passante per O e ortogonale a r. Il piano π ha equazione cartesiana x − y = 0, pertanto il punto medio M tra O e O0 e` :   1 1 M= , , −1 , 2 2 quindi si ha O0 = (1, 1, −2). La situazione geometrica e` illustrata nella Figura 11.31. Esercizio 11.22 – Retta simmetrica di un’altra retta rispetto ad un piano – Data la retta:  x+y+z−1=0 r: x − y = 0, determinare le equazioni della retta s, simmetrica di r rispetto al piano: π :x+y−z−1=0 e scrivere l’equazione del piano che contiene sia r sia s. Soluzione

Sia K il punto di intersezione della retta r con il piano π, dato da:   1 1 , ,0 K= 2 2

e sia A = (0, 0, 1) un punto di r. La retta s, simmetrica di r rispetto a π, e` la retta passante per K e per il punto A0 simmetrico di A rispetto al piano π . Per determinare il punto A0 si pu`o osservare che il punto medio H tra A e A0 e` l’intersezione della retta passante per A ortogonale al piano π con il piano π stesso. Quindi, risolvendo il sistema lineare:  x=t    y=t z =1−t    x + y − z − 1 = 0,

Capitolo 11

si ottiene:

 H=

587

 2 2 1 , , . 3 3 3

Imponendo che H sia il punto medio tra A e A0 si ha:   4 4 1 0 A = , ,− . 3 3 3 La retta s e` allora la retta passante per K e A0 . Il piano che contiene r e s e` il piano passante per i tre punti A, K e A0 , la cui equazione cartesiana e` : x y z−1 1 1 0 = 0. 2 2 4 1 4 − 3 3 3 La situazione geometrica e` illustrata nella Figura 11.32. Esercizio 11.23 Determinare l’equazione della sfera passante per i punti A = (1, 1, 2) e B = (2, 1, 1) e tangente alla retta:  3x − 2z + 2 = 0 r: 3y + z − 4 = 0 nel punto H = (0, 1, 1). Soluzione Il centro Q della sfera appartiene alla retta intersezione del piano π1 per H ortogonale a r e del piano assiale π2 del segmento AB . Il piano π1 e` dunque ortogonale al vettore n1 = (2, −1, 3) ed ha equazione: 2(x − 0) + (−1)(y − 1) + 3(z − 1) = 0. Il piano π2 invece, per quanto visto nell’Esercizio 11.20, e` il piano passante per il punto medio M del segmento AB :   3 3 , 1, M= 2 2 −→ e ortogonale al vettore AB = (1, 0, −1). Pertanto un punto Q appartenente alla retta intersezione di π1 e π2 ha coordinate (t, 5t − 2, t), con t ∈ R. Imponendo che Q sia equidistante da A e da H si ottiene t = 1. La sfera cercata ha quindi equazione: (x − 1)2 + (y − 3)2 + (z − 1)2 = 5.

Geometria Analitica nello Spazio

588

Esercizio 11.24 – Circonferenza per tre punti – Determinare le equazioni della circonferenza passante per i tre punti A = (1, 1, 5), B = (2, 2, 1), C = (1, −2, 2). Soluzione La circonferenza e` l’intersezione del piano π per A, B, C con la sfera Σ che ha come centro l’intersezione Q dei tre piani assiali relativi ai segmenti AB , AC, BC . Pi`u precisamente il piano π e` ortogonale al vettore: −→ −→ AB ∧ AC = (−15, 3, −3) e quindi ha equazione cartesiana π : 5x − y + z − 9 = 0. La sfera Σ ha centro nel punto Q, intersezione dei quattro piani:  x + y − 4z + 9 = 0    y+z−3=0 x + 4y − z = 0    5x − y + z − 9 = 0 √ e raggio d(A, Q) = 6. Esercizio 11.25 Dati i punti A = (2, 0, 0), B = (0, 2, 0), C = (0, 0, 2), 1. determinare il luogo dei punti equidistanti da A, B, C . 2. Tra tutte le sfere passanti per A, B, C determinare quella che ha volume minimo. Soluzione

1. Il luogo richiesto e` dato dall’insieme dei punti P = (x, y, x) tali che: d(P, A) = d(P, B) = d(P, C).

Si tratta, cio`e, della retta r in cui si intersecano i piani assiali dei segmenti AB, BC (e ovviamente AC ). Infatti da d2 (P, A) = d2 (P, B) segue: (x − 2)2 + y 2 + z 2 = x2 + (y − 2)2 + z 2 , da cui: x − y = 0, che e` l’equazione del piano π1 , piano assiale del segmento AB . Analogamente si ricava l’equazione del piano π2 , piano assiale del segmento BC : π2 : y − z = 0. La retta r = π1 ∩ π2 ha, pertanto, equazioni parametriche:   x=t y=t  z = t, t ∈ R.

Capitolo 11

589

2. Il centro Q di ogni sfera Σ passante per i punti A, B, C appartiene alla retta r determinata nel punto precedente. La sfera di volume minimo e` quella di raggio −→ minimo ρ, dove ρ = kAQk. Per trovare il punto Q della retta r che rende minimo il raggio ρ si pu`o procedere in due modi. a. Si osserva che, essendo il piano π1 ortogonale alla retta AB e il piano π2 ortogonale alla retta BC, la retta r e` ortogonale al piano passante per i tre punti A, B, C di equazione x + y + z − 2 = 0 e lo interseca nel punto:   2 2 2 , , , Q0 = 3 3 3 che e` il centro della sfera Σ0 di raggio minimo. Infatti, qualunque sia il punto Q della retta r, con Q 6= Q0 , si ha: −−→ −→ kQ0 Ak < kQAk perch´e Q0 A e` il cateto del triangolo rettangolo AQ0 Q di ipotenusa QA. Il raggio di Σ0 e` : √ 2 6 −−→ ρ0 = kQ0 Ak = . 3 b. Se Q = (t, t, t), t ∈ R, e` un punto della retta r, si ha: −→ ρ2 = kQAk = 3t2 − 4t + 4. Per determinare il raggio minimo si calcola il valore di t che annulla la derivata prima di ρ2 : dρ2 = 6t − 4, dt da cui si trova t = 2/3 e si verifica che per questo valore la funzione ρ2 (t) ha un minimo. Si perviene cos`ı ai risultati dedotti in precedenza. Esercizio 11.26 Data la sfera Σ : x2 + y 2 + z 2 = 2, 1. studiare, al variare di k ∈ R, l’intersezione di Σ con il piano π : y + z = k. 2. Posto k = 4, trovare il punto P di π che ha distanza minima da Σ. Soluzione 1. Per studiare la posizione reciproca del piano π con la sfera Σ e` sufficiente confrontare la distanza del centro C di Σ dal piano π con il raggio r di Σ.

Geometria Analitica nello Spazio

590

Si ha:

| − k| d(C, π) = √ , 2

r=



2.

Segue che: se k = ±2 il piano π e` tangente alla sfera Σ; se −2 < k < 2, il piano π interseca la sfera Σ in una circonferenza; se k < −2 oppure k > 2 il piano π e` esterno alla sfera Σ. 2. Poich´e il piano π : y + z = 4 e` esterno alla sfera Σ, il punto P richiesto appartiene alla retta passante per il centro della sfera Σ e ortogonale al piano π . Si trova P = (0, 2, 2). Esercizio 11.27 Determinare le equazioni della circonferenza C passante per il punto A = (2, 1, 0) e tangente alla retta:  x+y−2=0 r: 2x + z − 3 = 0 nel punto B = (0, 2, 3). Soluzione La circonferenza C richiesta pu`o essere individuata come intersezione del piano π, passante per A e contenente r, con la sfera Σ avente C come cerchio massimo. Il piano π ha equazione: x − y + z − 1 = 0. Il centro C di Σ, che coincide con il centro di C, e` il punto comune ai piani π, π1 piano per B perpendicolare alla retta r e π2 piano √ assiale del segmento AB. Si trova C = (7, 9, 3). Il raggio di Σ e` ρ = d(C, A) = 7 2. Le equazioni della circonferenza sono:  2 x + y 2 + z 2 − 14x − 18y − 6z + 41 = 0 C: x − y + z − 1 = 0. Esercizio 11.28 Trovare le sfere tangenti nel punto A = (1, −1, 2) al piano: π1 : y + z − 1 = 0, che intersecano il piano π2 : z = 0 secondo circonferenze di raggio r = 1. Soluzione Le sfere richieste sono elementi del fascio F individuato dalla sfera di centro A e raggio uguale a 0 e dal piano π1 : F : λ(x2 + y 2 + z 2 − 2x + 2y − 4z + 6) + µ(y + z − 1) = 0,

λ, µ ∈ R, (λ, µ) 6= (0, 0).

Capitolo 11

591

La generica sfera del fascio ha centro nel punto:   2λ + µ 4λ − µ , Q = 1, − 2λ 2λ e raggio:



2µ , 2λ per λ = 0 si ha solo il piano π1 . Le sfere che intersecano il piano π2 secondo circonferenze di raggio r = 1 sono quelle che verificano la condizione: ρ=

d2 (Q, π) + r2 = ρ2 , cio`e:

2 2µ2 4λ − µ +1= . 2λ 4λ2 Si trova λ = 1, µ = 2 e anche λ = −1, µ = 10. 

Esercizio 11.29 Fra tutte le sfere passanti per la circonferenza:  2 x + y2 + z2 − 9 = 0 C: 2x + 4y + 4z − 9 = 0 √ determinare quelle di raggio pari a 3 3. Soluzione Le sfere cercate appartengono al fascio F di sfere passanti per la circonferenza C di equazione: F : λ(x2 + y 2 + z 2 − 9) + µ(2x + 4y + 4z − 9) = 0,

λ, µ ∈ R, (λ, µ) 6= (0, 0).

Poich´e nella soluzione dell’esercizio λ non potr`a assumere il valore 0, che corrisponde al piano radicale del fascio, conviene, per semplificare i calcoli, riscrivere l’equazione del fascio di sfere usando il solo parametro k = µ/λ, vale a dire: x2 + y 2 + z 2 − 9 + k(2x + 4y + 4z − 9) = 0,

k ∈ R,

da cui si ottiene: x2 + y 2 + z 2 + 2kx + 4ky + 4kz − 9(1 + k) = 0,

k ∈ R.

Il raggio r della generica sfera del fascio risulta verificare la relazione r2 = 9k 2 +9(1+k). Imponendo la condizione richiesta si ottiene k 2 + (1 + k) − 3 = 0 le cui soluzioni sono k = ±2 che danno luogo alle due sfere: Σ1 : x2 + y 2 + z 2 − 4x − 8y − 8x + 9 = 0 Σ2 : x2 + y 2 + z 2 + 2x + 4y + 4z − 18 = 0, che risolvono il problema.

Geometria Analitica nello Spazio

592

11.12

Per saperne di piu`

11.12.1

Baricentro geometrico di punti

In questo paragrafo si introduce la definizione di baricentro (geometrico) di n punti nello spazio e se ne studiano le propriet`a, per ottenere, come caso particolare, le formule mediante le quali si determinano le coordinate del punto medio di due punti, del baricentro di un triangolo e del baricentro di un tetraedro. Definizione 11.1 Il baricentro (geometrico) di n punti P1 , P2 , . . . , Pn nello spazio e` il punto G cos`ı definito:  1 −−→ −−→ −−→ −→ OP1 + OP2 + . . . + OPn , (11.31) OG = n con O punto fissato. La definizione di baricentro di n punti, appena enunciata, sembra dipendere in modo essenziale dalla scelta del punto O, invece il teorema che segue afferma il contrario. Teorema 11.3 La formula (11.31) che definisce il baricentro degli n punti P1 , P2 , . . . , Pn non dipende dal punto O scelto. Dimostrazione

Sia O0 un punto diverso da O, si ponga: −− → → −−→ −−−→ 1 −− O0 G0 = O 0 P1 + O 0 P2 + . . . + O 0 Pn , n

(11.32)

la tesi consiste nel dimostrare che G = G0 . Tenendo conto che dalla definizione di somma di vettori si ha per ogni punto Pi con i = 1, 2, . . . , n: −−0→ −−→ −−→0 O Pi = OPi + OO , da (11.32) segue:  −−→ −− → −−→ 1 −−→ −−→ −−→ −→ O0 G0 = OO0 + OP1 + OP2 + . . . + OPn = OO0 + OG, n da cui la tesi. Essendo indifferente la scelta del punto O per la determinazione del baricentro di n punti P1 , P2 , . . . , Pn si pu`o scegliere O = G, infatti vale il seguente teorema la cui dimostrazione e` lasciata al Lettore per esercizio.

Capitolo 11

593

Teorema 11.4 G e` il baricentro dei punti P1 , P2 , . . . , Pn se e solo se: −−→ −−→ −−→ GP1 + GP2 + . . . + GPn = o,

(11.33)

dove con o si indica il vettore nullo dello spazio vettoriale V3 . Si procede ora con la determinazione del baricentro di due punti, di tre punti e di quattro punti come esempi della definizione e dei teoremi appena enunciati. Baricentro di due punti P1 , P2 – Da (11.33) si ha che il baricentro di due punti P1 , P2 verifica la relazione: −−→ −−→ GP1 + GP2 = o (11.34) da cui segue che G e` il punto medio del segmento di estremi P1 , P2 . Baricentro di tre punti P1 , P2 , P3 – Da (11.33) segue che il baricentro di tre punti P1 , P2 , P3 verifica la relazione: −−→ −−→ −−→ GP1 + GP2 + GP3 = o.

(11.35)

Se G1 e` il baricentro dei punti P1 , P2 , da (11.34) e da (11.35) si ottiene: −−→ −−→ −−→ GP1 + GP2 + GP3 −−−→ −−→ −−−→ −−→ −−−→ −−→ = G1 P1 + G1 G + G1 P2 + G1 G + G1 P3 + G1 G −−→ −−−→ = 3 G1 G + G1 P3 = o, da cui:

−−−→ −−→ G1 P3 = 3 GG1 ,

che esprime una ben nota propriet`a che caratterizza il baricentro di un triangolo, provando cos`ı che la definizione (11.31) coincide con l’usuale concetto di baricentro di un triangolo. La situazione geometrica descritta e` illustrata nella Figura 11.33. Baricentro di quattro punti P1 , P2 , P3 , P4 – Da (11.33) segue che il baricentro di quattro punti P1 , P2 , P3 , P4 verifica la relazione: −−→ −−→ −−→ −−→ GP1 + GP2 + GP3 + GP4 = o.

(11.36)

Procedendo come nel caso del calcolo del baricentro di tre punti descritto in precedenza e indicando con G1 il baricentro dei tre punti P1 , P2 , P3 si ottiene: −−−→ −−→ G1 P4 = 4 GG1 ,

Geometria Analitica nello Spazio

594

P2 G1 G P1 P3 Figura 11.33: Baricentro dei tre punti P1 , P2 , P3 che corrisponde ad una ben nota propriet`a geometrica che caratterizza il baricentro del tetraedro di vertici P1 , P2 , P3 , P4 . La situazione geometrica e` illustrata nella Figura 11.34. Infine si osservi che dalla formula (11.31) si ottengono le espressioni in coordinate del baricentro di due punti, di tre punti e di quattro punti elencate all’inizio di questo capitolo.

11.12.2

Potenza di un punto rispetto ad una sfera

In questo paragrafo si introduce il concetto di potenza di un punto rispetto ad una sfera, concetto analogo a quello di potenza di un punto rispetto ad una circonferenza nel piano definito nel Paragrafo 10.6.1. Definizione 11.2 La potenza di un punto P0 = (x0 , y0 , z0 ) rispetto ad una sfera Σ di equazione x2 + y 2 + z 2 − 2αx − 2βy − 2γz + δ = 0 e` il numero reale p(P0 ) che si ottiene sostituendo il valore delle coordinate del punto P0 nell’equazione della sfera, ossia: p(P0 ) = x20 + y02 + z02 − 2αx0 − 2βy0 − 2γz0 + δ. Il teorema che segue permette di interpretare geometricamente la potenza di un punto rispetto ad una sfera. Teorema 11.5 Data la sfera Σ di centro C e raggio r, la potenza di un punto P0 rispetto a Σ e` data da: p(P0 ) = d(P0 , C)2 − r2

Capitolo 11

595

P4

P3

G

G1 P2 P1

Figura 11.34: Baricentro dei quattro punti P1 , P2 , P3 , P4

596

Geometria Analitica nello Spazio

dove d(P0 , C) indica la distanza del punto P0 dal centro C . Dimostrazione La dimostrazione e` ovvia tenendo conto che la sfera Σ e` il luogo dei punti P tale che d(P, C)2 = r2 . Osservazione 11.9 1. Bench´e il teorema precedente sia di ovvia dimostrazione, esso e` molto importante perch´e assicura un metodo facile per individuare la posizione dei punti nello spazio rispetto ad una sfera assegnata. Infatti la potenza di un punto rispetto ad una sfera e` un numero strettamente positivo se e solo se il punto e` esterno alla sfera, la potenza di un punto rispetto ad una sfera e` uguale a 0 se e solo se il punto giace sulla superficie sferica, la potenza di un punto rispetto ad una sfera e` negativa se e solo se il punto e` interno alla superficie sferica. Per esempio, data la sfera: Σ : x2 + y 2 + z 2 − 2x − 4y − 2z + 5 = 0, si ha che il punto A = (2, 4, 3) ha potenza pari a 8 rispetto a Σ e, quindi, e` esterno a Σ, invece il punto B = (1, 3, 1) ha potenza pari a 0, quindi appartiene a Σ. In altri termini si pu`o immaginare che la sfera divida lo spazio in tre regioni: quella dei punti di potenza zero (appartenenti alla sfera), quella dei punti con potenza negativa (interni alla sfera) e quella dei punti a potenza positiva (esterni alla sfera). Si osservi infine che questa caratterizzazione dei punti dello spazio, rispetto ad una superficie assegnata, e` gi`a stata ottenuta nel Paragrafo 11.18 considerando un piano e la distanza, con segno, di ogni punto dello spazio dal piano, e si pu`o dimostrare che e` valida anche per altre superfici chiuse. D’altra parte, nel Paragrafo 10.6.1 e` stata ricavata la stessa caratterizzazione dei punti del piano rispetto ad una circonferenza. 2. E` evidente che il luogo dei punti che hanno uguale potenza rispetto a due sfere assegnate coincide con il piano radicale definito dalla due sfere (cfr. Par. 11.9). Invece, l’esercizio seguente e` volto a determinare i punti di uguale potenza rispetto a tre sfere. Esercizio 11.30 Determinare il luogo dei punti P dello spazio aventi la stessa potenza rispetto alle tre sfere: 11 =0 4 31 Σ2 : x2 + y 2 + z 2 − 2x − 2z − =0 25 59 Σ3 : x2 + y 2 + z 2 − 4x − 2y + = 0. 100 Σ1 : x2 + y 2 + z 2 − 2y − 4z +

Capitolo 11

Figura 11.35: Esercizio 11.29

597

598

Geometria Analitica nello Spazio

Soluzione Il luogo dei punti richiesto e` formato dai punti P = (x, y, z) che appartengono all’intersezione dei tre piani radicali determinati da Σ1 , Σ2 e Σ3 , vale a dire:  399   2x − 2y − 2z + =0   100    216 =0 4x − 4z +  100       2x + 2y − 2z − 183 = 0 100 I tre piani appartengono allo stesso fascio proprio, l’asse di questo fascio e` il luogo dei punti richiesto. La situazione geometrica e` illustrata nella Figura 11.35. Esercizio 11.31 Il luogo dei punti di uguale potenza rispetto a tre sfere assegnate e` sempre una retta?

11.12.3

Sfere in dimensione quattro

In questo paragrafo si intende dare qualche cenno, molto intuitivo e a volte poco rigoroso, di geometria analitica in dimensione maggiore di 3. Per una trattazione approfondita si rimanda a testi pi`u avanzati, quali ad esempio [11] e [13]. Si immagini di costruire uno spazio affine (di punti) analogo a quanto descritto all’inizio di questo capitolo, basato per`o su uno spazio vettoriale euclideo di dimensione 4 riferito ad una base ortonormale B. Si definisce un riferimento cartesiano fissando un punto O a cui si immaginano applicati i vettori della base B, O e` l’origine del riferimento. Ad ogni punto P di questo spazio si possono associare quattro coordinate cartesiane che −→ coincidono con le componenti del vettore OP rispetto alla base B, sia, ad esempio P = (x, y, z, t). In questo ambiente e` quindi possibile, grazie al prodotto scalare, introdurre in modo totalmente analogo a quanto visto nel caso della dimensione 3, il concetto di iperpiano, che sar`a quindi rappresentato da un’equazione lineare del tipo: ax + by + cz + dt + e = 0,

a, b, c, d, e ∈ R,

l’intersezione di due iperpiani non paralleli sar`a un piano affine (proprio lo stesso tipo di piano caratterizzato dal Teorema 11.1 nel caso dello spazio affine S3 ), l’intersezione di tre iperpiani opportunamente scelti sar`a una retta affine. −−→ La distanza tra due punti P1 e P2 e` pari alla norma del vettore P1 P2 . E` quindi possibile, in questo ambiente, che per analogia al caso dello spazio ordinario e del piano, si indicher`a con S4 , introdurre il concetto di ipersfera, definita come il luogo dei punti P tali da

Capitolo 11

599

mantenere fissa la distanza di P da un punto fissato C , il centro. Per esempio, l’ipersfera Σ di centro l’origine e raggio R ha equazione: Σ : x2 + y 2 + z 2 + t2 = R2 . L’intersezione di una ipersfera con un iperpiano (se essi si intesecano) dar`a luogo alla sfera introdotta nel Paragrafo 11.7.1. Si intende ora mettere in relazione l’ipersfera di centro O e raggio 1 con il gruppo di matrici: SU (2) = {P ∈ C2,2 | tP P = I, det(P ) = 1} introdotto nel Paragrafo 5.5.2 e dimostrare che i due insiemi in realt`a coincidono. In altri termini il gruppo SU (2), cos`ı come il gruppo U (1) (cfr. Cap. 9) e` identificabile ad una sfera opportuna. Sia:

 P =

z1 z2 z3 z4

 ,

z1 , z2 , z3 , z4 ∈ C,

una generica matrice appartenente ad SU (2). La condizione:      z1 z3 1 0 z1 z2 t = PP = z2 z4 z3 z4 0 1 si traduce nel sistema:

  z1 z1 + z3 z3 = 1 z1 z2 + z3 z4 = 0  z2 z2 + z4 z4 = 1.

(11.37)

Supponendo che tutti gli elementi della matrice P non siano nulli (si lasciano per esercizio i vari casi particolari), dalla seconda equazione di (11.37) si ricava: z1 = −

z3 z4 z2

(11.38)

z3 = −

z1 z2 . z4

(11.39)

e:

Sostituendo (11.38) nella condizione ulteriore: det(P ) = z1 z4 − z2 z3 = 1 segue: z3 = −z2 .

(11.40)

600

Geometria Analitica nello Spazio

Sostituendo (11.39) in (11.40) si ha anche: z1 = z4 . Di conseguenza si ottiene che le generiche matrici P di SU (2) devono essere del tipo:   z1 z2 P = , −z2 z1 con det(P ) = z1 z1 + z2 z2 = 1. Ponendo: z1 = x + iy,

z2 = z + it,

x, y, z, t ∈ R,

e sostituendo nella condizione det(P ) = 1 si ottiene: z1 z1 + z2 z2 = x2 + y 2 + z 2 + t2 = 1, pervendo cos`ı all’identificazione di SU (2) con l’ipersfera di centro O e raggio 1 in S4 . Mentre e` facilmente intuibile che si possano definire ipersfere in spazi affini associati a spazi vettoriali di dimensione superiore a 4 non e` in generale possibile identificare i loro punti con gruppi di matrici. Infatti un famosissimo teorema (Teorema di Adams [13]) afferma che ci`o e` solo possibile nei tre casi descritti in questo testo e precisamente U (1), SU (2) e, ovviamente O(1) = {−1, 1} che rappresenta la circonferenza di centro l’origine e raggio pari a 1 sulla retta affine S1 .

Capitolo 12 Coni, Cilindri, Superfici di Rotazione e Quadriche Nel capitolo precedente si sono studiate le rappresentazioni in forma cartesiana e parametrica delle rette, dei piani, delle sfere e delle circonferenze nello spazio. Le rette e le circonferenze sono esempi di curve, i piani e le sfere sono esempi di superfici. In questo capitolo si affronteranno, in generale, alcuni aspetti elementari della rappresentazione delle curve e delle superfici nello spazio, esaminandone facili problemi di intersezione e di proiezione. In particolare, si studieranno le equazioni dei coni, dei cilindri e delle superfici di rotazione in due modi diversi a seconda della rappresentazione cartesiana o parametrica di una curva che concorre alla loro determinazione. Si accenner`a, inoltre, allo studio delle superfici rigate. Invece si proporr`a in modo completo la classificazione delle quadriche, che sono le superfici rappresentabili mediante equazioni di secondo grado, con una trattazione simile a quella gi`a vista nel Capitolo 10 nel caso delle coniche per la loro riduzione in forma canonica. Questo capitolo vuole essere un primo approccio, a volte solo intuitivo, come per esempio nel caso della definizione proposta di piano tangente ad una superficie, allo studio delle curve e delle superfici nello spazio, argomento di estrema complessit`a ma di grande fascino, accresciuto ultimamente dalle sorprendenti applicazioni che sono derivate dalla rappresentazione grafica di curve e superfici mediante adeguati programmi di calcolo simbolico.

12.1

Cenni sulla rappresentazione di curve e superfici

In tutto questo capitolo, a meno di dichiarazione contraria, si considera un riferimento cartesiano R = (O, x, y, z) o, in modo equivalente, un riferimento R = (O, i, j, k), intendendosi con B = (i, j, k) una base ortonormale positiva dello spazio vettoriale V3 dei vettori ordinari su cui e` costruito lo spazio affine di punti che si sta considerando. 601

602

Coni, Cilindri, Superfici di Rotazione e Quadriche

Nel Capitolo 11 si e` visto che un piano o una sfera, rispetto ad un sistema di riferimento cartesiano R = (O, x, y, z), si possono rappresentare nei due modi seguenti: 1. in forma parametrica mediante tre equazioni in x, y, z contenenti due parametri indipendenti, 2. in forma cartesiana, mediante un’unica equazione nelle tre coordinate x, y, z . Infatti, in generale, tre equazioni con due parametri indipendenti u e v definiti su un sottoinsieme D di R2 del tipo:   x = x(u, v) y = y(u, v)  z = z(u, v), (u, v) ∈ D ⊆ R2 rappresentano una superficie S dello spazio e si dicono equazioni parametriche di S . Sono esempi di rappresentazione parametrica di una superficie le equazioni parametriche del piano (11.3) e le equazioni parametriche della sfera (11.30). Inoltre, una superficie si pu`o anche rappresentare mediante un’equazione del tipo: f (x, y, z) = 0, con f : R3 −→ R funzione qualsiasi, tale rappresentazione prende il nome di equazione cartesiana della superficie. Come gi`a visto per le rette e le circonferenze, una curva C nello spazio pu`o essere rappresentata, rispetto ad un riferimento cartesiano R = (O, x, y, z), in due modi diversi, o come intersezione di due superfici:  C:

f (x, y, z) = 0 g(x, y, z) = 0,

dove sia f sia g sono funzioni qualsiasi di dominio R3 e codominio R, o in forma parametrica, mediante le equazioni parametriche date al variare di un solo parametro t in un intervallo I di R:   x = x(t) y = y(t) C:  z = z(t), t ∈ I ⊆ R. In generale, non e` semplice passare da una rappresentazione parametrica di una curva o di una superficie alla sua equazione cartesiana o viceversa, infatti potrebbero sorgere problemi. Per esempio, anche nel caso pi`u semplice delle curve piane, la curva di equazioni parametriche:

Capitolo 12

603

  x = 1 + t + t5 y = 1 + 2t + 3t5  z = 0, t ∈ R, non ha una ovvia rappresentazione come intersezione di superfici. Anche la circonferenza appartenente al piano xy , di centro l’origine e raggio r, che si pu`o rappresentare in forma cartesiana come intersezione della sfera e del piano dati dal sistema:  2 x + y 2 − r2 = 0 z = 0, pu`o costituire un problema, infatti essa ammette infinite rappresentazioni parametriche, anche molto dissimili, per esempio:   x = r cos t y = r sin t  z = 0, t ∈ R, oppure:  1 − s2   x = r   1 + s2   2s y = r   1 + s2     z = 0, s ∈ R.

12.2

Il cono

In questo paragrafo si introducono i coni come luoghi geometrici dello spazio definiti da funzioni omogenee di grado k nelle variabili x, y, z . In particolare si studieranno i coni circoscritti ad una sfera e la proiezione di una curva da un punto su di un piano. Definizione 12.1 Sia C una curva nello spazio e V un punto non appartenente a C . Il cono di vertice V e direttrice C e` il luogo delle rette che uniscono V ad ogni punto di C. Le rette sono dette generatrici del cono e ogni curva (non solo C ) che incontra tutte le generatrici prende il nome di direttrice del cono. Si procede ora con la determinazione dell’equazione cartesiana e delle equazioni parametriche del cono, distinguendo i casi in cui la direttrice sia data come intersezione di due superfici o in forma parametrica.

604

Coni, Cilindri, Superfici di Rotazione e Quadriche

V

P P0

Figura 12.1: Generatrici del cono di vertice V e direttrice V P0 Primo Caso forma:

Sia C la direttrice di un cono data dall’intersezione di due superfici nella

 C:

f (x, y, z) = 0 g(x, y, z) = 0,

con f e g funzioni da R3 in R, sia P0 = (x0 , y0 , z0 ) un punto di C e V = (α, β, γ) il vertice del cono, la retta P0 V e` dunque una generatrice del cono. Se P = (x, y, z) e` il generico punto del cono, la condizione di allineamento dei punti P0 , P, V si ottiene dalle seguenti equazioni in forma parametrica:   x0 = α + t(x − α) y0 = β + t(y − β)  z0 = γ + t(z − γ),

t ∈ R,

dove le coordinate di P0 variano su C, perci`o: 

f (x0 , y0 , z0 ) = 0 g(x0 , y0 , z0 ) = 0.

La situazione geometrica e` illustrata nella Figura 12.1. Eliminando i parametri x0 , y0 , z0 e t dal sistema:

Capitolo 12

605

 x0 = α + t(x − α)     y  0 = β + t(y − β) z0 = γ + t(z − γ)   f (x0 , y0 , z0 ) = 0    g(x0 , y0 , z0 ) = 0 si ottiene l’equazione cartesiana del cono. Si osservi che, anche se esistono infinite generatrici e infinite direttrici, l’equazione del cono cos`ı ottenuta non dipende dalla scelta della direttrice e della generatrice.

Figura 12.2: Esercizio 12.1

606

Coni, Cilindri, Superfici di Rotazione e Quadriche

Esercizio 12.1 Scrivere l’equazione del cono avente come direttrice la curva:  C:

x2 + y 2 + z 2 − 9 = 0 x+y−2=0

e vertice V = (0, 0, 0). Soluzione se:

Se P0 = (x0 , y0 , z0 ) e` un punto di C, i punti P0 , P, V sono allineati se e solo   x0 = xt y0 = yt  z0 = zt,

t ∈ R,

da cui si perviene al sistema:  x0 = xt      y0 = yt z0 = zt   x2 + y02 + z02 − 9 = 0    0 x0 + y0 − 2 = 0. Eliminando i parametri x0 , y0 , z0 , segue: 

t2 (x2 + y 2 + z 2 ) − 9 = 0 t(x + y) − 2 = 0,

ricavando t dalla seconda equazione e sostituendo tale valore nella prima si ottiene: 5x2 + 5y 2 − 4z 2 + 18xy = 0 che e` l’equazione del cono, rappresentato nella Figura 12.2. Si osservi che l’equazione del cono ottenuta nell’esercizio precedente e` di secondo grado ed e` omogenea in x, y, z nel senso che e` somma di monomi dello stesso grado; la definizione che segue chiarisce questo concetto e subito dopo si dimostra che ogni equazione omogenea in x, y, z rappresenta un cono di vertice l’origine O = (0, 0, 0) del riferimento cartesiano R = (O, x, y, z) e viceversa. Definizione 12.2 Una funzione f : R3 −→ R nelle variabili x, y, z , si dice omogenea di grado k , (k ∈ R), se: f (tx, ty, tz) = tk f (x, y, z),

Capitolo 12

607

per ogni valore reale di t, x, y, z . Esempio 12.1 1. I polinomi che sono somma di monomi dello stesso grado k e con termine noto uguale a zero sono funzioni omogenee di grado k . Per esempio il polinomio x3 − 4y 3 − xyz e` una funzione omogenea di grado 3. 2. Ogni applicazione lineare f : R −→ R e` una funzione omogenea di grado 1. 3. Se ψ : R2 −→ R e` una funzione qualsiasi, allora la funzione: f : R × R × (R − {0}) −→ R,

(x, y, z) 7−→ ψ

x y , z z

e` omogenea di grado zero, vale a dire f (tx, ty, tz) = f (x, y, z) per ogni t reale. Teorema 12.1 In un riferimento cartesiano R = (O, x, y, z), tutti e soli i luoghi geometrici dei punti P = (x, y, z) dello spazio tali che: f (x, y, z) = 0, dove f : R3 −→ R e` una qualsiasi funzione omogenea di grado k (k ∈ R), rappresentano un cono di vertice l’origine O del riferimento. Dimostrazione

Sia P = (x0 , y0 , z0 ) un punto della superficie S di equazione: S : f (x, y, z) = 0,

con f funzione da R3 in R omogenea di grado k . La retta r che unisce il punto P con l’origine O ha equazioni parametriche:   x = tx0 y = ty0 r:  z = tz0 , t ∈ R, cio`e le coordinate di ogni suo punto sono date da (tx0 , ty0 , tz0 ), al variare del parametro t ∈ R. Per l’omogeneit`a di f il punto (tx0 , ty0 , tz0 ) appartiene alla superficie S in quanto f (tx0 , ty0 , tz0 ) = 0. Ne segue che la retta r giace sulla superficie S . Variando il punto P sulla superficie, tutte le rette che uniscono P all’origine del riferimento O giacciono sulla superficie stessa e ci`o prova che S e` un cono con vertice in O. Viceversa, si tratta di dimostrare che un cono di vertice l’origine O e` rappresentato da un’equazione del tipo f (x, y, z) = 0, con f funzione omogenea da R3 in R. Infatti se g(x, y, z) = 0 e` l’equazione cartesiana di un cono di vertice O, allora la curva:  g(x, y, z) = 0 C: z−1=0

608

Coni, Cilindri, Superfici di Rotazione e Quadriche

e` una direttrice del cono. Procedendo con il metodo descritto in precedenza per calcolare l’equazione cartesiana del cono di direttrice C e vertice l’origine O, si consideri un punto P0 = (x0 , y0 , z0 ) appartenente a C ossia:  g(x0 , y0 , z0 ) = 0 z0 − 1 = 0 e si scrivano le equazioni parametriche della retta OP date da:   x0 = tx y0 = ty  z0 = tz, t ∈ R.

(12.1)

Dalle equazioni z0 = 1 e da z0 = tz segue: t=

1 . z

(12.2)

Sostituendo in g(x0 , y0 , z0 ) = 0 le equazioni (12.1) e (12.2) si ha: x y  g(x0 , y0 , z0 ) = g , ,1 . z z Ponendo:

x y  f (x, y, z) = g , ,1 z z si ottiene che la funzione f, che definisce il cono, e` una funzione omogenea di grado zero (cfr. Es. 12.1). Esempio 12.2 L’equazione x2 + y 2 = z 2 rappresenta il cono di vertice l’origine illustrato nella Figura 12.3 Le circonferenze di equazioni:  z=k x2 + y 2 = k 2 , k ∈ R,

sono direttrici del cono. Si tratta di un cono circolare retto (cfr. Par. 10.3) e lo si pu`o anche ottenere dalla rotazione completa della retta passante per l’origine del riferimento e per il punto di coordinate (1, 0, 1) intorno all’asse z (cfr. Par. 12.4), per questo motivo l’asse z e` l’asse del cono. p Esempio 12.3 Si osservi che l’equazione z = x2 + y 2 rappresenta solo la met`a superiore (verso il semiasse positivo delle quote) del cono descritto nell’esempio precedente.

Capitolo 12

Figura 12.3: Esempio 12.2

609

610

Coni, Cilindri, Superfici di Rotazione e Quadriche

Osservazione 12.1 L’equazione di un cono di vertice V = (α, β, γ) che non sia l’origine del riferimento e` anch’essa determinata da una funzione con particolari propriet`a. Infatti se si considera il riferimento cartesiano R0 = (V, X, Y, Z) ottenuto mediante la traslazione del riferimento cartesiano R = (O, x, y, z) di equazioni:   x=X +α y =Y +β  z =Z +γ in cui l’origine del riferimento R0 coincide con il vertice V del cono, l’equazione del cono di vertice V, scritta nel riferimento R0 , e` : f (X, Y, Z) = 0, con f : R3 −→ R funzione omogenea di grado k , k ∈ R. Sostituendo le equazioni della traslazione si ha: f (x − α, y − β, z − γ) = 0 che e` l’equazione del cono di vertice V nel riferimento R, pertanto f e` una funzione omogenea di grado k nelle variabili (x − α, y − β, z − γ). Per esempio (x − 1)2 + (y + 1)2 = z 2 e` l’equazione del cono circolare retto con vertice nel punto V = (1, −1, 0). Secondo Caso

Se la direttrice C del cono e` data in forma parametrica:   x = x(t) y = y(t) C:  z = z(t), t ∈ I ⊆ R,

(12.3)

la retta passante per il punto generico P di C e per il vertice V = (α, β, γ) del cono e` descritta dalle equazioni:   x = α + s(x(t) − α) y = β + s(y(t) − β) (12.4)  z = γ + s(z(t) − γ), s ∈ R, che rappresentano le equazioni parametriche del cono di vertice V e direttrice C . Eliminando da tali equazioni i parametri t ed s si ottiene l’equazione cartesiana del cono. Si osservi che se in (12.4): 1. si fissa t = t0 si hanno le equazioni parametriche della generatrice P0 V del cono, dove P0 e` il punto di C che si ottiene sostituendo in (12.3) al parametro t il valore t0 ;

Capitolo 12

611

2. si fissa s = s0 si hanno le equazioni parametriche di una curva direttrice del cono. Esercizio 12.2 Scrivere l’equazione del cono di vertice V = (0, 0, 0) e direttrice la curva:   x=t+1 y =t−1 C: (12.5)  2 z = t − 1, t ∈ R. Soluzione Osservato che V ∈ / C , si considera il punto generico P = (t+1, t−1, t2 −1) di C e si scrivono le equazioni parametriche della retta P V :   x = (t + 1)s y = (t − 1)s  z = (t2 − 1)s, t, s ∈ R, che rappresentano anche le equazioni parametriche del cono e che sono utili, per esempio, per rappresentare graficamente il cono mediante programmi di calcolo simbolico (cfr. Fig. 12.4). Per pervenire, invece, all’equazione cartesiana del cono si devono eliminare i parametri t, s dalle equazioni parametriche, per esempio procedendo in questo modo, da (12.5) si ha: z x y = 2 = , t−1 t −1 t+1 ossia: 

(t + 1)y − (t − 1)x = 0 (t + 1)z − (t2 − 1)x = 0.

Dalla prima equazione si deduce: t=

x+y , x−y

che, sostituita nella seconda, d`a luogo all’equazione cartesiana del cono: 2x2 z − 2xyz − 4x2 y = 0. Esempio 12.4 L’equazione x + y + z = 0 rappresenta un piano π passante per l’origine, ma e` anche un cono (infatti e` un’equazione omogenea). Il suo vertice e` un punto qualsiasi del piano π, una direttrice e` una qualsiasi circonferenza di π avente il vertice nel suo interno, oppure contenente il vertice. Si osservi che il cono di vertice un punto del piano e direttrice una retta dello stesso piano non contenente il vertice e` il piano stesso privato di una retta (quale?).

612

Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.4: Esercizio 12.2

Capitolo 12

Figura 12.5: Esempio 12.5

613

614

Coni, Cilindri, Superfici di Rotazione e Quadriche

Esempio 12.5 L’equazione xyz = 0 rappresenta un cono essendo un’equazione omogenea, d’altra parte essa e` anche l’unione dei tre piani coordinati. Si pu`o vedere come il cono di vertice l’origine e direttrice la curva: 

xyz = 0 x2 + y 2 + z 2 = 1,

sia l’unione di tre circonferenze. Il cono considerato e` rappresentato nella Figura 12.5.

12.2.1

Cono tangente ad una sfera

Dati una sfera Σ di equazione x2 +y 2 +z 2 +ax+by+cz +d = 0 e un punto V = (α, β, γ) esterno a Σ, si vuole determinare l’equazione del cono di vertice V circoscritto alla sfera Σ, beninteso dopo aver risolto l’esercizio che segue. Esercizio 12.3 Come si fa a verificare che V e` esterno a Σ? Intersecando la generica retta passante per il vertice V, di equazioni parametriche:   x = α + lt y = β + mt  z = γ + nt,

t ∈ R,

con la sfera Σ si ottiene un’equazione di secondo grado nel parametro t. Si hanno due intersezioni coincidenti (ossia la retta tangente a Σ) imponendo che il discriminante ∆ dell’equazione cos`ı ottenuta si annulli: ∆=0

(12.6)

e questa non e` altro che un’equazione di secondo grado in l, m, n. Poich´e: y−β z−γ x−α = = l m n si sostituisce a l: x − α, a m: y − β , a n: z − γ . Tale sostituzione e` possibile in quanto l’equazione (12.6) e` omogenea. Si perviene cos`ı all’equazione del cono cercata. Esercizio 12.4 Scrivere l’equazione del cono di vertice V = (2, 0, 0) circoscritto alla sfera: Σ : x2 + y 2 + z 2 − 1 = 0.

Capitolo 12

Figura 12.6: Esercizio 12.4

615

616

Soluzione

Coni, Cilindri, Superfici di Rotazione e Quadriche

La generica retta r passante per V ha equazioni parametriche:   x = 2 + lt y = mt  z = nt, t ∈ R.

Intersecando r con Σ si ha l’equazione di secondo grado: (l2 + m2 + n2 )t2 + 4lt + 3 = 0, il cui discriminante e` : ∆ = l2 − 3m2 − 3n2 = 0. 4 Con la sostituzione di x − 2, y, z al posto di l, m, n, rispettivamente, si ha l’equazione del cono cercata: (x − 2)2 − 3y 2 − 3z 2 = 0. Si osservi che si ottiene un’equazione omogenea in x − 2, y, z , in accordo con l’Osservazione 12.1. La superficie e` rappresentata nella Figura 12.6.

12.2.2

Proiezione di una curva da un punto su un piano

Data una curva C nello spazio la sua proiezione da un punto P su un piano π e` la curva che si ottiene dall’intersezione del piano π con il cono di vertice P e direttrice C. Esercizio 12.5 Determinare le equazioni della curva proiezione di:  x=t      1 C: y=  t     z = t3 ,

t ∈ R − {0}

sul piano π : x − y + 2z − 1 = 0 dal punto P = (2, 4, −6). Soluzione

Si scrivono le equazioni parametriche del cono:

Capitolo 12

Figura 12.7: Esercizio 12.5

617

Coni, Cilindri, Superfici di Rotazione e Quadriche

618

 x = 2 + (t − 2)s        1 S: y =4+ −4 s   t    z = −6 + (t3 + 6)s,

s ∈ R, t ∈ R − {0}

di vertice P e direttrice la curva C. Per ottenere la curva proiezione richiesta si interseca il cono S con il piano π :   1 2 + (t − 2)s − 4 − − 4 s − 12 + 2(t3 + 6)s − 1 = 0, t da cui segue: s[t(t − 2) − 1 + 4t + 2t(t3 + 6)] = 15t. Si ricava s in funzione di t e si sostituisce nelle equazioni parametriche di S , pervenendo cos`ı alle equazioni parametriche della curva richiesta. La situazione geometrica e` illustrata nella Figura 12.7.

12.3

Il cilindro

In questo paragrafo sono trattati i cilindri ed in particolare i cilindri aventi generatrici parallele agli assi coordinati. Analogamente a quanto visto per il cono, saranno anche studiati i cilindri circoscritti ad una sfera e la proiezione di una curva su un piano, secondo una direzione assegnata. Vengono poi presentate le coordinate cilindriche che non sono altro che la naturale generalizzazione, al caso dello spazio, delle coordinate polari nel piano (cfr. Par. 9.3). Definizione 12.3 Data una curva C nello spazio ed un vettore u, il cilindro di direttrice C e generatrici parallele ad u e` il luogo delle rette dello spazio passanti per tutti i punti di C e parallele al vettore u. La Figura 12.8 riproduce una rappresentazione grafica della Definizione 12.3. Per determinare l’equazioni di un cilindro si procede come per il cono. Primo Caso

Sia C una curva nello spazio rappresentata nella forma:  f (x, y, z) = 0 C: g(x, y, z) = 0,

Capitolo 12

619

1

0

-1

11

8

5

2

0 1 2

Figura 12.8: Un cilindro dove f e g sono funzioni da R3 in R, sia u = (l, m, n) un vettore e P0 = (x0 , y0 , z0 ) un punto di C. Si vuole ricavare l’equazione del cilindro di direttrice C e generatrice la retta per P0 , parallela ad u. E` evidente che, sullo stesso cilindro, esistono infinite direttrici e infinite generatrici e che il procedimento indicato per ricavare l’equazione del cilindro non dipende dalla scelta della direttrice e della generatrice. Le equazioni parametriche della retta per P0 parallela ad u sono:   x = x0 + lt y = y0 + mt  z = z0 + nt, t ∈ R, dove le coordinate di P0 verificano le identit`a: 

Considerando il sistema:

f (x0 , y0 , z0 ) = 0 g(x0 , y0 , z0 ) = 0.

 x = x0 + lt      y = y0 + mt z = z0 + nt    f (x0 , y0 , z0 ) = 0   g(x0 , y0 , z0 ) = 0

Coni, Cilindri, Superfici di Rotazione e Quadriche

620

ed eliminando in esso i parametri x0 , y0 , z0 , t, si ottiene l’equazione cartesiana del cilindro. Esercizio 12.6 Determinare l’equazione del cilindro avente generatrici parallele all’asse z e direttrice la circonferenza C appartenente al piano 2x − z = 0, di centro l’origine O = (0, 0, 0) e raggio 1. Soluzione

La circonferenza C ha equazioni:  C:

2x − z = 0 x2 + y 2 + z 2 = 1.

Se P0 = (x0 , y0 , z0 ) appartiene a C, la retta per P0 parallela all’asse z ha equazioni:   x = x0 y = y0  z = z0 + t, t ∈ R e si ha il sistema:  x = x0      y = y0 z = z0 + t   2x − z = 0    2 0 20 2 x0 + y0 + z0 − 1 = 0. Eliminando i parametri x0 , y0 , z0 si ottiene: 

2x − (z − t) = 0 x2 + y 2 + (z − t)2 − 1 = 0,

da cui, ricavando t dalla prima equazione e sostituendo l’espressione ottenuta nella seconda, si ha: 5x2 + y 2 = 1 che e` l’equazione del cilindro, rappresentato nella Figura 12.9. Secondo Caso

Sia C una curva dello spazio data in forma parametrica:   x = x(t) y = y(t) C:  z = z(t), t ∈ I ⊆ R,

Capitolo 12

Figura 12.9: Esercizio 12.6

621

622

Coni, Cilindri, Superfici di Rotazione e Quadriche

e sia u = (l, m, n) un vettore. La retta passante per il generico punto P = (x(t), y(t), z(t)) di C, parallela ad u, ha equazioni:   x = x(t) + ls y = y(t) + ms  z = z(t) + ns,

(12.7) s, t ∈ R,

che non sono altro che le equazioni parametriche del cilindro di direttrice C e generatrici parallele al vettore u, nei parametri s, t. Volendo determinare l’equazione cartesiana del cilindro e` sufficiente eliminare s e t tra le equazioni parametriche (12.7). Come nel caso del cono, si osservi che, fissando t in (12.7) si hanno le equazioni parametriche di una direttrice, invece, fissando s si hanno le equazioni parametriche di una generatrice. Esercizio 12.7 Determinare l’equazione del cilindro avente generatrici parallele al vettore v = (2, −1, 1) e direttrice la curva:   x = t2 y=t C:  z = t − 1,

t ∈ R.

Soluzione Sia P = (t2 , t, t − 1) un punto qualsiasi di C , le equazioni parametriche della generica generatrice sono:   x = t2 + 2λ y =t−λ  z = t − 1 + λ,

t, λ ∈ R,

che rappresentano anche le equazioni parametriche del cilindro. Si ottiene l’equazione cartesiana del cilindro:  x−

y+z+1 2

2

 +2

y−z−1 2

 = 0,

eliminando i parametri t e λ dalle sue equazioni parametriche. La rappresentazione grafica (cfr. Fig. 12.10) del cilindro e` stata, invece, ottenuta usando le sue equazioni parametriche.

12.3.1

Cilindri con assi paralleli agli assi coordinati

Nell’equazione 5x2 + y 2 = 1 del cilindro ottenuta nell’Esempio 12.6 si osserva che non compare la coordinata z, questa e` condizione necessaria e sufficiente affinch´e le

Capitolo 12

Figura 12.10: Esercizio 12.7

623

624

Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.11: Esempio 12.6 generatrici del cilindro siano parallele all’asse z . Infatti se le generatrici sono parallele all’asse z e la direttrice del cilindro e` una curva C del piano coordinato xy di equazioni:  f (x, y) = 0 C: z = 0, con f funzione da R2 in R, per ogni punto P0 = (x0 , y0 , z0 ) appartenente a C si ha che anche i punti P00 = (x0 , y0 , λz0 ) appartengono a C per ogni valore reale di λ. Esempio 12.6 y = sin x e` l’equazione di un cilindro con generatrici parallele all’asse z la cui rappresentazione grafica e` illustrata nella Figura 12.11. Analogamente, se le generatrici di un cilindro sono parallele all’asse x e la direttrice e` una curva del piano coordinato yz di equazioni f (y, z) = x = 0, l’equazione cartesiana del cilindro e` f (y, z) = 0. Esempio 12.7 y 2 + z 2 = 5 e` l’equazione di un cilindro con generatrici parallele all’asse x la cui rappresentazione grafica e` illustrata nella Figura 12.12. Infine se le generatrici di un cilindro sono parallele all’asse y e la direttrice e` una curva del piano coordinato xz di equazioni f (x, z) = y = 0 l’equazione cartesiana del cilindro e` f (x, z) = 0.

Capitolo 12

Figura 12.12: Esempio 12.7

Figura 12.13: Esempio 12.8

625

626

Coni, Cilindri, Superfici di Rotazione e Quadriche

Esempio 12.8 x2 − z 2 = 2 e` l’equazione di un cilindro con generatrici parallele all’asse y la cui rappresentazione grafica e` illustrata nella Figura 12.13. Se un cilindro ha come direttrice la curva:   x = x(u) y = y(u) C:  z = z(u),

u ∈ I ⊆ R,

e generatrici parallele all’asse z , eliminando il parametro u tra due equazioni parametriche e sostituendo l’espressione ottenuta nella terza si perviene alla sua equazione cartesiana. Esercizio 12.8 Scrivere l’equazione cartesiana del cilindro avente come direttrice la curva C di equazioni:   x = u3 y = u2 C:  z = u, u ∈ R e generatrici parallele all’asse z . Soluzione

Dalle equazioni della curva segue x2 = u6 , y 3 = u6 , allora: x2 − y 3 = 0

e` l’equazione cercata. La curva di equazioni: 

x2 − y 3 = 0 z=0

e` la proiezione di C sul piano xy . Il cilindro cos`ı ottenuto e la curva C sono rappresentati nella Figura 12.14. Il cilindro che ha come direttrice la curva C di equazioni:  C:

f (x, y, z) = 0 g(x, y, z) = 0,

con f e g funzioni da R3 in R, e generatrici parallele all’asse z ha equazione cartesiana che si ottiene eliminando l’incognita z tra le equazioni di C .

Capitolo 12

Figura 12.14: Esercizio 12.8

627

Coni, Cilindri, Superfici di Rotazione e Quadriche

628

Esercizio 12.9 Determinare l’equazione del cilindro che proietta la curva:  C:

x2 + y 2 + z 2 = 1 2x + y − z = 0

parallelamente all’asse z . Soluzione

Eliminando z tra le due equazioni di C si ottiene: x2 + y 2 + (2x + y)2 = 1.

Si procede in modo analogo per determinare l’equazione cartesiana di un cilindro con generatrici parallele agli altri assi coordinati. Come nel caso del cono, anche per il cilindro si pu`o dimostrare il seguente teorema che ne caratterizza l’equazione cartesiana. Per la sua dimostrazione si veda ad esempio [12]. Teorema 12.2

1. Sia:  r:

a1 x + b 1 y + c 1 z + d 1 = 0 a2 x + b 2 y + c 2 z + d 2 = 0

una retta e sia ψ(u, v) una funzione di due variabili reali a valori reali. Allora l’equazione: ψ(a1 x + b1 y + c1 z + d1 , a2 x + b2 y + c2 z + d2 ) = 0

(12.8)

rappresenta un cilindro con generatrici parallele a r. 2. Viceversa, se f (x, y, z) = 0 e` l’equazione di un cilindro con generatrici parallele ad una retta r, allora esiste una funzione di due variabili reali ψ(u, v) a valori reali tale che il cilindro abbia anche equazione (12.8).

12.3.2

Cilindro circoscritto ad una sfera

Dati una sfera: Σ : x2 + y 2 + z 2 − 2αx − 2βy − 2γz + δ = 0 e un vettore u = (l, m, n), si vuole determinare l’equazione del cilindro circoscritto a Σ con generatrici parallele ad u. La generica retta parallela ad u e passante per un punto P = (x0 , y0 , z0 ) di Σ ha equazioni:

Capitolo 12

  x = x0 + lt y = y0 + mt  z = z0 + nt,

629

(12.9) t ∈ R,

dove (x, y, z) sono le coordinate di un punto generico della retta, vale a dire le coordinate del generico punto della superficie cercata. Analogamente a quanto gi`a visto per il cono, se si interseca Σ con la retta di equazioni parametriche (12.9) si ottiene un’equazione di secondo grado in t, le cui soluzioni portano ai punti di intersezione tra la sfera e la retta. Le generatrici sono tangenti a Σ se le intersezioni coincidono, ovvero se il discriminante dell’equazione e` nullo. L’equazione in x, y, z che cos`ı si ottiene rappresenta, come e` visualizzato nella Figura 12.15, il cilindro circoscritto a Σ con generatrici parallele al vettore u. In geometria euclidea questo cilindro e` detto cilindro circolare retto in quanto ha come direttrici le circonferenze che appartengono a piani paralleli, tutte con lo stesso raggio e con i centri tutti su una retta, detta asse del cilindro, ortogonale ai piani a cui esse appartengono. Nel Paragrafo 12.4 si vedr`a che un cilindro circolare retto si pu`o anche ottenere dalla rotazione completa di una retta intorna ad un’altra retta ad essa parallela che e` l’asse del cilindro. Esercizio 12.10 Scrivere l’equazione del cilindro circoscritto alla sfera: Σ : (x − 1)2 + y 2 + z 2 = 3 ed avente le generatrici parallele al vettore u = (1, 0, 1). Soluzione Le equazioni della retta passante per un punto generico P = (x0 , y0 , z0 ) di Σ e parallela al vettore u sono date da:   x = x0 + t y = y0  z = z0 + t, t ∈ R. Intersecando Σ con r si ottiene l’equazione di secondo grado in t: 2t2 + 2(x − 1 + z)t + (x2 − 2x − 2 + y 2 + z 2 ) = 0. Imponendo la tangenza tra r e Σ segue: ∆ = (x + z − 1)2 − 2(x2 + y 2 + z 2 − 2x − 2) = 0 4 che e` l’equazione del cilindro cercata.

630

Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.15: Cilindro circoscritto ad una sfera

Capitolo 12

Figura 12.16: La curva di Viviani

631

Coni, Cilindri, Superfici di Rotazione e Quadriche

632

Curiosit`a equazione:

E` famosa la curva che si ottiene intersecando il cilindro circolare retto di (x − a)2 + y 2 = a2

con la sfera: x2 + y 2 + z 2 = 4a2 . La curva, rappresentata nella Figura 12.16, prende il nome di curva di Viviani, in quanto Vincenzo Viviani (1622 – 1703), studente di Galileo scopr`ı che questa curva risolve il seguente problema: quanto misura il lato di quattro finestre uguali, costruite su un emisfero in modo che la parte di esso rimanente abbia l’area di un quadrato? Per maggiori dettagli ed approfondimenti si veda ad esempio [11].

12.3.3

Proiezione di una curva su un piano secondo una direzione assegnata

Data una curva C nello spazio, la proiezione di C su un piano π secondo la direzione di un vettore u, non parallelo a π , e` la curva ottenuta dall’intersezione del piano π con il cilindro di direttrice C e generatrici parallele al vettore u. Esercizio 12.11 Data la curva:   x = 1 − t2 y = 2t C:  z = t + 2,

t ∈ R,

determinare la proiezione ortogonale C 0 di C sul piano π : x − 2y = 0. Soluzione La curva C 0 e` l’intersezione del piano π con il cilindro S avente le generatrici parallele al vettore u = (1, −2, 0), ortogonale al piano π , e direttrice C . Dalle equazioni parametriche del cilindro:   x = 1 − t2 + s y = 2t − 2s S:  z = t + 2, t, s ∈ R, ricavando, dalla terza equazione t = z − 2 e dalla seconda equazione: s=

−y + 2z − 4 , 2

quindi sostituendo nella prima, si ottiene l’equazione cartesiana del cilindro: S : x = 1 − (z − 2)2 +

2z − 4 − y . 2

Capitolo 12

Figura 12.17: Esercizio 12.11

633

634

Coni, Cilindri, Superfici di Rotazione e Quadriche

La curva C 0 e` quindi data da:   x = 1 − (z − 2)2 + 2z − 4 − y 2 C0 :  x − 2y = 0 ed e` rappresentata nella Figura 12.17.

12.3.4

Coordinate cilindriche

In questo paragrafo si introduce un altro sistema di coordinate, che estende al caso dello spazio, in modo diverso dal sistema di coordinate polari sferiche (cfr. Par. 11.10), la nozione di coordinate polari nel piano. Si consideri il sistema di riferimento cartesiano R = (O, i, j, k) dello spazio ordinario ed il riferimento polare del piano associato a quello cartesiano (O, i, j) definito nel Paragrafo 9.3. Se (x, y, z) sono le coordinate cartesiane di un punto P dello spazio (non appartenente all’asse z ) e (ρ, θ) sono le coordinate polari della sua proiezione ortogonale P 0 sul piano z = 0, la terna di numeri reali (ρ, θ, z), nell’ordine scritto, individua le coordinate cilindriche del punto P . Il relativo riferimento si ottiene aggiungendo al riferimento polare del piano xy (che determina ρ e θ) l’asse z del riferimento cartesiano associato. Si ha allora una corrispondenza biunivoca tra i punti dello spazio e le terne ordinate (ρ, θ, z), dove: ρ ≥ 0, 0 ≤ θ < 2π, con l’eccezione dei punti dell’asse z per i quali θ e` indeterminata. La situazione geometrica e` illustrata nella Figura 12.18. Le relazioni che legano le coordinate cilindriche alle coordinate cartesiane del medesimo punto P sono:   x = ρ cos θ y = ρ sin θ  z = z; per le formule inverse si trova:  p  ρ = x2 + y 2     y tan θ =  x     z = z.

Capitolo 12

635

z

P

z y

Θ

Ρ x

Figura 12.18: Coordinate cilindriche del punto P

P'

636

Coni, Cilindri, Superfici di Rotazione e Quadriche

Osservazione 12.2 I punti P = (ρ, ϕ, z), con ρ = r costante, appartengono al cilindro circolare retto S di asse z e raggio r, perci`o: ρ=r rappresenta l’equazione di S in coordinate cilindriche. Le sue equazioni parametriche sono:   x = r cos ϕ y = r sin ϕ S:  z = t, t ∈ R, 0 ≤ ϕ < 2π, mentre e` immediato verificare che: x2 + y 2 = r 2 e` la sua equazione cartesiana. Osservazione 12.3 Un punto P = (ρ0 , ϕ0 , z0 ) e` pertanto l’intersezione di tre superfici: un cilindro circolare retto di asse l’asse z e raggio r = ρ0 , un semipiano per l’asse z formante un angolo ϕ0 con il piano y = 0 e il piano z = z0 , del relativo riferimento cartesiano associato.

12.4

Superfici di rotazione

In questo paragrafo si introduce il concetto, del resto molto intuitivo, di superficie di rotazione di una curva intorno ad una retta e se ne ricavano le equazioni, studiando diversi casi particolari. Definizione 12.4 Date una retta a e una curva C la superficie S generata dalla rotazione completa della curva C intorno alla retta a prende il nome di superficie di rotazione di asse di rotazione a. Ogni punto P di C, ad eccezione dei punti di intersezione di C con la retta a che sono punti di S, descrive una circonferenza appartenente al piano ortogonale alla retta a passante per P. Tali circonferenze prendono il nome di paralleli di S , mentre le curve ottenute intersecando S con i piani passanti per a sono dette curve meridiane. La situazione geometrica e` illustrata nella Figura 12.19. Esempio 12.9 1. Una sfera e` una superficie di rotazione avente per asse di rotazione una qualunque retta passante per il suo centro. Quali sono le sue curve meridiane? 2. Il cilindro x2 + y 2 = 4 e` una superficie di rotazione avente per asse di rotazione l’asse z . Se P0 = (x0 , y0 , z0 ) e` un qualunque punto del cilindro, l’intersezione del cilindro con il piano π : z = z0 (piano per P0 ortogonale all’asse z ) e` la circonferenza C : z − z0 = x2 + y 2 − 4 = 0. In questo caso, quali sono le curve meridiane?

Capitolo 12

Figura 12.19: Una generica superficie di rotazione

637

638

Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.20: Le rette a e r e il cono ottenuto dalla rotazione di r intorno ad a In questo paragrafo sar`a anche studiato il caso particolare in cui la curva C e` piana, giace su un piano coordinato e ruota intorno ad un asse coordinato. Particolari esempi di questo tipo sono le rotazioni di un’ellisse, di un’iperbole e di una parabola intorno ad un opportuno asse coordinato, ottenendo alcune superficie di rotazione che sono esempi di quadriche. Le quadriche sono superfici che si possono esprimere mediante equazioni di secondo grado e saranno studiate nel Paragrafo 12.6. Si esaminer`a, infine, la rotazione intorno all’asse z di una circonferenza posta sul piano x = 0, avente il centro nel punto di coordinate (0, a, 0) e raggio r; la superficie che ne risulta e` detta toro o superficie torica. Esempio 12.10 Se la curva C della Definizione 12.4 e` una retta r incidente l’asse di rotazione a, allora la superficie di rotazione e` un cono circolare retto. La Figura 12.20 rappresenta le rette incidenti r e a e il cono ottenuto dalla rotazione di r intorno ad a. Esempio 12.11 Se la curva C della Definizione 12.4 e` una retta r parallela all’asse di rotazione a, allora la superficie di rotazione e` un cilindro circolare retto. La Figura 12.21 rappresenta le rette parallele r e a e il cilindro ottenuto dalla rotazione di r intorno ad a. Esempio 12.12 Se la curva C della Definizione 12.4 e` una retta r sghemba con l’asse di rotazione a allora la superficie di rotazione e` un iperboloide di rotazione ad una falda,

Capitolo 12

639

Figura 12.21: Le rette a e r e il cilindro ottenuto dalla rotazione di r intorno ad a superficie che sar`a studiata in dettaglio nel Paragrafo 12.6. La Figura 12.22 rappresenta le rette sghembe r e a e l’iperboloide ad una falda ottenuto dalla rotazione di r intorno ad a. Per pervenire all’equazione di una superficie di rotazione S e` sufficiente scrivere le equazioni di un suo generico parallelo, come si vedr`a negli esempi e negli esercizi che seguono. Esercizio 12.12 Date le rette:  2x − y + z − 4 = 0 r: y + z − 2 = 0,

 s:

x−1=0 x + z − 1 = 0,

determinare la superficie generata dalla rotazione di r intorno a s e decidere di quale superficie si tratta. Soluzione Il punto generico P della retta r descrive la circonferenza C intersezione del piano π passante per P e ortogonale a s con la sfera Σ di centro C , punto di intersezione tra π e s, e raggio la distanza d(P, C) da P a C. Il punto P di r ha coordinate: P = (t + 1, t, −t + 2), il piano π passante per P perpendicolare ad un vettore parallelo a s, quindi di componenti per esempio (0, 1, 0), ha equazione y − t = 0. Il centro C della circonferenza C e` l’intersezione di π con la retta s e perci`o C = (1, t, 0), il raggio di C e` : p d(C, P ) = t2 + (−t + 2)2 .

640

Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.22: Le rette a e r e l’iperboloide ottenuto dalla rotazione di r intorno ad a Si pu`o allora scrivere la circonferenza C come intersezione di Σ con π nel modo seguente:  y−t=0 C: (12.10) (x − 1)2 + (y − t)2 + z 2 = t2 + (−t + 2)2 . Eliminando il parametro t tra le due equazioni di (12.10) si ottiene l’equazione della superficie di rotazione: (x − 1)2 + z 2 − 2(y − 1)2 − 2 = 0 che e` l’iperboloide di rotazione ad una falda rappresentato nella Figura 12.23. L’esercizio precedente indica il metodo con cui si possono ricavare le equazioni di tutte le superfici di rotazione ottenute dalla rotazione completa di una retta intorno all’asse di rotazione. Viene ora affrontato il caso della rotazione di una curva piana C che non sia necessariamente una retta e che ruota intorno ad una retta contenuta nello stesso piano a cui appartiene C. Ci si pu`o ridurre, con un opportuno cambiamento di riferimento, a studiare la rotazione di una curva C appartenente al piano coordinato xz intorno all’asse z, quindi di equazioni del tipo:  C:

f (x, z) = 0 y = 0,

Capitolo 12

Figura 12.23: Esercizio 12.12

641

Coni, Cilindri, Superfici di Rotazione e Quadriche

642

dove f indica una funzione nelle variabili x e z, a valori reali. Un generico punto P di C ha coordinate del tipo P = (x, 0, z). Sia Q = (X, Y, Z) un punto appartenente al parallelo della superficie S, ottenuta dalla rotazione di C intorno all’asse z, passante per P . Le equazioni del parallelo per Q sono date dall’intersezione del piano π passante per P = (x, 0, z) e perpendicolare al vettore k = (0, 0, 1), che ha equazione Z = z, con la sfera di centro C = (0, 0, Z) e raggio: √ d(P, C) = x2 = |x|, ossia: 

Z=z X 2 + Y 2 + (Z − Z)2 = x2 ,

da cui: 

√ x = ± X2 + Y 2 z = Z.

Di conseguenza, per ottenere l’equazione della superficie di rotazione S e` sufficiente sostituire nell’equazione f (x, z) = 0 le espressioni: √ x = ± X 2 + Y 2 , z = Z. In modo analogo si possono scrivere le equazioni delle superfici di rotazione ottenute dalla rotazione di una curva appartenente agli altri piani coordinati e che ruoti intorno ad un asse coordinato dello stesso piano a cui la curva appartiene. Esercizio 12.13 Scrivere l’equazione della superficie S ottenuta dalla rotazione completa dell’iperbole, appartenente al piano coordinato xz, di equazione:  2 2  x −z =1 a2 c2  y=0

(12.11)

intorno all’asse z . Soluzione ricava:

Da quanto precede e` sufficiente sostituire a x2 l’espressione x2 + y 2 , si

S:

x2 + y 2 z2 − = 1, a2 c2

(12.12)

Capitolo 12

643

Figura 12.24: Iperbole di equazione (12.11) e iperboloide di equazione (12.12) che e` di nuovo un iperboloide di rotazione ad una falda. Nella Figura 12.24 sono rappresentati sia un’iperbole di equazione (12.11) sia la superficie di rotazione di equazione (12.12). Esercizio 12.14 Scrivere l’equazione della superficie S ottenuta dalla rotazione completa dell’ellisse, appartenente al piano coordinato xz, di equazione:  2 2  x +z =1 a2 c2 (12.13)  y=0 intorno all’asse z . Soluzione

E` sufficiente sostituire al posto di x2 l’espresssione x2 + y 2 e si ottiene: x2 + y 2 z2 S: + 2 = 1, a2 c

(12.14)

che rappresenta una superficie detta ellissoide di rotazione e che sar`a studiata dettagliatamente nel Paragrafo 12.6. Nella Figura 12.25 si vedono un’ellisse di equazione (12.13) e un ellissoide di rotazione di equazione (12.14). Esercizio 12.15 Scrivere l’equazione della superficie S ottenuta dalla rotazione completa dell’iperbole del piano xz di equazione (12.11) intorno all’asse x.

Coni, Cilindri, Superfici di Rotazione e Quadriche

644

Figura 12.25: Ellisse di equazione (12.13) ed ellissoide di rotazione di equazione (12.14) Soluzione E` sufficiente sostituire al posto di z 2 nell’equazione (12.11) l’espressione y 2 + z 2 e si ottiene: y2 + z2 x2 − =1 (12.15) a2 c2 che rappresenta una superficie detta iperboloide di rotazione a due falde che si pu`o vedere nella Figura 12.26 e che sar`a studiata dettagliatamente nel Paragrafo 12.6. S:

Esercizio 12.16 Scrivere l’equazione della superficie S ottenuta dalla rotazione completa della parabola del piano xz di equazione:  2  x = 2z a2  y=0

(12.16)

intorno all’asse z . Soluzione

E` sufficiente sostituire al posto di x2 l’espressione x2 + y 2 e si ottiene:

x2 + y 2 = 2z (12.17) a2 che rappresenta una superficie detta paraboloide di rotazione. Nella Figura 12.27 si vedono una parabola di equazione (12.16) e un paraboloide di rotazione di equazione (12.17). S:

Capitolo 12

645

Figura 12.26: Iperbole di equazione (12.11) e iperboloide a due falde di equazione (12.15)

Figura 12.27: Parabola di equazione (12.16) e paraboloide di equazione (12.17)

646

Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.28: Il toro con a > r e una sua sezione Si affronta ora lo studio delle superfici che si possono ottenere dalla rotazione di una circonferenza intorno ad una retta ad essa complanare, di cui, per esempio, la sfera e` un esempio (cfr. Es. 12.9, punto 1.), si inizia con la seguente definizione. Definizione 12.5 Si dice toro o superficie torica la superficie ottenuta dalla rotazione di una circonferenza C di raggio r intorno ad una retta appartenente al piano della circonferenza e avente distanza a dal centro di C.

Osservazione 12.4 sfera.

1. Se nella definizione precedente si pone a = r si ottiene una

2. Se a > r si ottiene la superficie rappresentata nella Figura 12.28 la cui conformazione giustifica la denominazione di superficie torica assegnata a questa superficie. 3. Se a < r si ottiene la superficie rappresentata nella Figura 12.29. Per ricavare l’equazione del toro si pu`o procedere come segue. Sia C la circonferenza, di raggio r, appartenente al piano coordinato yz e con centro nel punto C = (0, a, 0), quindi di equazioni:  C:

(y − a)2 + z 2 = r2 x = 0.

Capitolo 12

647

Figura 12.29: Il toro con a < r e una sua sezione Per ottenere l’equazione della superficie generata dalla p rotazione completa di C intorno all’asse z e` sufficiente sostituire a y l’espressione ± x2 + y 2 e quindi l’equazione del toro e` : p (± x2 + y 2 − a)2 + z 2 = r2 . Si pu`o pervenire allo stesso risultato anche seguendo il metodo generale, che consiste nello scrivere le equazioni del generico parallelo della superficie di rotazione che si ottiene intersecando il piano passante per il punto P0 = (0, y0 , z0 ) di C ortogonale all’asse z con la sfera di centro C = (0, 0, z0 ) e raggio d(C, P0 ) = |y0 |, ossia: 

da cui si ricava y0 = ±

z − z0 = 0 x2 + y 2 + (z − z0 )2 = y02 ,

p x2 + y 2 . Sostituendo nella relazione: 

(y0 − a)2 + z02 = r2 x0 = 0

che esprime l’appartenenza di P0 a C si ottiene di nuovo l’equazione del toro. Per maggiori dettagli sullo studio delle superfici toriche si veda ad esempio [11].

648

Coni, Cilindri, Superfici di Rotazione e Quadriche

Si conclude il paragrafo proponendo la risoluzione di un esercizio di determinazione dell’equazione di una generica superficie di rotazione, che non rientra nei casi particolari precedentemente introdotti. Esercizio 12.17 Determinare l’equazione della superficie generata dalla rotazione della parabola:  P:

y − x2 = 0 z=0

intorno alla retta a : x = y − z = 0. Soluzione E` facile osservare che ogni punto P di P ha coordinate P = (t, t2 , 0), t ∈ R e la retta a e` parallela al vettore a = (0, 1, 1). Si vogliono determinare le equazioni del generico parallelo della superficie di rotazione, appartenente quindi al piano π per P ortogonale ad a, ossia π : y − t2 + z = 0. Il centro C del parallelo C passante per P e` dato dall’intersezione:   y + z − t2 = 0 x=0  y = z, da cui si ottiene:

 2 2 t t C = 0, , , 2 2

allora il raggio di C e` : r d(C, P ) =

t2 +

1 4 t. 2

Di conseguenza, il parallelo C ha equazioni:  y + z − t2 = 0    2  2 C: 1 1 1   x2 + y − t2 + z − t2 = t2 + t4 , 2 2 2 da cui, eliminando il parametro t, si ottiene l’equazione della superficie di rotazione cercata: x2 +

1 1 (y − z)2 − (y + z)2 − (y + z) = 0. 2 2

Capitolo 12

12.5

649

Cenni su superfici rigate

I piani, i coni, i cilindri gli iperboloidi di rotazione ad una falda sono esempi di particolari superfici formate da un’infinit`a di rette, che prendono il nome di superfici rigate. In questo breve paragrafo si intende introdurre la definizione di superficie rigata, senza per`o affrontare lo studio delle sue particolari propriet`a. Ulteriori esempi significativi saranno descritti nei Paragrafi 12.6.1 e 12.7. Definizione 12.6 Una superficie S si dice rigata se per ogni punto di S passa almeno una retta interamente contenuta in S. La superficie S si pu`o individuare tramite una curva C che le appartenga, la curva direttrice, associando, mediante un’opportuna legge, per ogni punto P0 di C almeno una retta di S passante per P0 . Di conseguenza le equazioni parametriche di S sono del tipo:   x = h1 (u) + tl(u) y = h2 (u) + tm(u) S:  z = h3 (u) + tn(u),

(12.18) u ∈ I ⊆ R, t ∈ R,

dove (h1 (u), h2 (u), h3 (u)), u ∈ I ⊆ R, sono le equazioni parametriche della curva direttrice C. Osservazione 12.5 1. Il cilindro di equazioni parametriche (12.7) e` un esempio di superficie rigata, in cui le rette che lo definiscono sono parallele al vettore di componenti (l, m, n). 2. Il cono di equazioni parametriche (12.3) e` un esempio di superficie rigata in cui la direttrice si riduce ad un punto che e` il vertice del cono. 3. Si riconosce che le equazioni parametriche (12.18) definiscono una superficie rigata in quanto uno dei due parametri, in questo caso t, compare a primo grado in ciascuna delle tre equazioni parametriche. Se P0 e` il punto di C che si ottiene ponendo u = u0 allora la retta appartenente a S e passante per P0 ha equazioni parametriche:   x = h1 (u0 ) + tl(u0 ) y = h2 (u0 ) + tm(u0 )  z = h3 (u0 ) + tn(u0 ),

t ∈ R.

4. Si osservi che il vettore (l(u), m(u), n(u)) in (12.18), identificato con il punto dello spazio di coordinate (l(u), m(u), n(u)), descrive a sua volta, al variare di u ∈ I, una curva nello spazio.

650

Coni, Cilindri, Superfici di Rotazione e Quadriche

Esercizio 12.18 Si consideri la superficie S di equazione:   x = 1 + uv y = u2 v + u S:  z = (u2 + 1)v, u, v ∈ R.

(12.19)

1. Stabilire se S e` una superficie rigata. 2. Decidere se esistono rette appartenenti a S parallele al piano π di equazione: y − 2x = 0. 3. Posto v = 1, scrivere la proiezione ortogonale della curva C di S sul piano coordinato xy e riconoscere che C e` una conica. Soluzione 1. Se nell’equazione (12.19) si considera u costante, allora il parametro v compare solo a primo grado, quindi S e` una superficie rigata e si pu`o anche definire come il luogo delle rette per P = (1, u, 0), parallele al vettore (u, u2 , u2 + 1). La superficie S e` rappresentata nella Figura 12.30. 2. Determinare le rette appartenenti alla superficie S e parallele al piano π equivale a trovare u in modo che i vettori (u, u2 , u2 + 1) e (−2, 1, 0) siano perpendicolari. Si ha che −2u + u2 = 0, da cui u = 0 e u = 2. Di conseguenza, si ottengono le due rette:   x=1 y=0 r1 :  z = t,

t ∈ R,

  x = 1 + 2λ y = 2 + 4λ r2 :  z = 5λ, λ ∈ R.

3. Posto v = 1 si ricava la curva:   x=1+u y = u2 + u C:  z = u2 + 1, della quale si cerca la proiezione ortogonale sul piano z = 0. Eliminando u tra le equazioni: 

x=1+u y = u2 + u

si ottiene la parabola di equazione y = (x − 1)2 + x − 1.

Capitolo 12

Figura 12.30: Esercizio 12.18

651

652

12.6

Coni, Cilindri, Superfici di Rotazione e Quadriche

Quadriche

In questo paragrafo vengono studiate le superfici che estendono al caso dello spazio il concetto di conica introdotto nel piano, infatti esse si possono rappresentare mediante un’equazione di secondo grado nelle variabili x, y, z e prendono il nome di quadriche. In modo analogo al caso delle coniche (cfr. Par. 10.4) si dimostrer`a un teorema di classificazione che permetter`a di scrivere l’equazione di una quadrica in forma canonica, rispetto ad un opportuno sistema di riferimento. Infine ogni tipo di quadrica verr`a studiato nei dettagli e se ne ricaveranno anche le equazioni parametriche. Definizione 12.7 Fissato un sistema di riferimento cartesiano R = (O, x, y, z) nello spazio, una superficie Q rappresentata da un’equazione di secondo grado in x, y, z del tipo: Q : a11 x2 + 2a12 xy + a22 y 2 + 2a13 xz + 2a23 yz + a33 z 2 (12.20) +2a14 x + 2a24 y + 2a34 z + a44 = 0, prende il nome di quadrica. L’equazione (12.20) pu`o essere anche scritta nella forma: 

Q:

 x   y   x y z 1 B  z  = 0, 1

dove B e` la matrice simmetrica di ordine 4 data da: 

a11  a12 B=  a13 a14

a12 a22 a23 a24

a13 a23 a33 a34

 a14 a24   a34  a44

e che spesso viene anche indicata come la matrice associata alla quadrica Q. Se ci si limita a considerare il gruppo di termini di secondo grado dell’equazione (12.20), si pu`o introdurre la forma quadratica Q : R3 −→ R associata a Q, ponendo: 

Q((x, y, z)) =

 x  x y z A  y , z

dove A e` la matrice simmetrica di ordine 3 data da:

Capitolo 12

653



 a11 a12 a13 A =  a12 a22 a23 . a13 a23 a33 Sovente, le due matrici simmetriche A ∈ R3,3 e B ∈ R4,4 vengono indicate come le matrici associate alla quadrica Q di equazione (12.20), anche se A e` in realt`a la matrice associata alla forma quadratica definita da Q. Esempio 12.13 Il paraboloide di rotazione, ottenuto nell’Esercizio 12.16, di equazione (12.16) e` associato alle matrici: 



1  a2     0  B=    0   0

0

0

1 a2

0

0

0

0

−1

0     0   ,   −1    0



1  a2    A= 0    0

 0 1 a2 0

0     . 0     0

Esempio 12.14 Il cilindro di equazione: x2 − z 2 = 2 e` associato alle matrici: 

1  0 B=  0 0

 0 0 0 0 0 0  , 0 −1 0  0 0 −2



1  0 A= 0

 0 0 0 0 . 0 −1

Il teorema che segue indica un metodo per scrivere in forma pi`u semplice le equazioni delle quadriche e si basa sulla teoria della riduzione a forma canonica di una forma quadratica introdotta nel Capitolo 8. E` perci`o necessario anteporre la definizione di equazione di una quadrica in forma canonica. Si osservi che il procedimento che sar`a descritto e` analogo a quello usato, nel caso della geometria analitica piana, per ridurre le equazioni delle coniche a forma canonica, di conseguenza, lo stesso tipo di procedimento pu`o essere esteso allo studio di superfici scritte mediante equazioni di secondo grado in spazi affini

654

Coni, Cilindri, Superfici di Rotazione e Quadriche

associati a spazi vettoriali euclidei di dimensione maggiore di 3. Per questo motivo si propone una dimostrazione del Teorema 12.3 molto sintetica, senza troppi dettagli, che sono analoghi a quelli della dimostrazione del Teorema 10.6 e pertanto sono lasciati al Lettore per esercizio. Definizione 12.8 Una quadrica si dice scritta in forma canonica se la sua equazione e` del tipo: αx2 + βy 2 + γz 2 + δ = 0, (12.21) con α, β, γ, δ ∈ R e (α, β, γ) 6= (0, 0, 0), oppure del tipo: αx2 + βy 2 + 2δz = 0,

(12.22)

con α, β, γ, δ ∈ R e (α, β) 6= (0, 0).

Teorema 12.3 Sia Q una quadrica di equazione (12.20) scritta in un riferimento cartesiano R = (O, x, y, z). E` possibile determinare un sistema di riferimento cartesiano R00 = (O0 , X, Y, Z) in cui Q si rappresenta in forma canonica o del tipo (12.21) oppure del tipo (12.22) dove α, β e γ sono gli autovalori della matrice A associata all’equazione di Q. Dimostrazione

L’equazione (12.20) della quadrica Q si pu`o anche scrivere come: Q : Q((x, y, z)) + L(x, y, z) = 0,

dove Q e` la forma quadratica associata a Q e L rappresenta il polinomio in x, y, z di grado minore o uguale a 1 dato da: L(x, y, z) = 2a14 x + 2a24 y + 2a34 z + a44 . Sia B = (i, j, k) la base ortonormale positiva determinata dal riferimento cartesiano R. Dalla teoria della riduzione a forma canonica delle forme quadratiche si deduce che esiste un cambiamento di base ortonormale con matrice ortogonale P (scelto in modo tale che det(P ) = 1) per cui tP AP = D, dove D e` una matrice diagonale avente gli autovalori di A sulla diagonale principale. Mediante il cambiamento di coordinate indotto da P dato da:   0  x x  y  = P  y 0 , z z0 

(12.23)

Capitolo 12

655

la forma quadratica assume, nel nuovo riferimento R0 = (O, x0 , y 0 , z 0 ), la seguente espressione in forma canonica:  x0 t P AP  y 0  = α(x0 )2 + β(y 0 )2 + γ(z 0 )2 , z0 

Q((x0 , y 0 , z 0 )) =

x0 y 0 z 0



dove α, β, γ indicano gli autovalori della matrice A, eventualmente uguali tra di loro ma non tutti nulli, essendo la matrice A non nulla. Nel riferimento cartesiano R0 = (O, x0 , y 0 , z 0 ) l’equazione (12.20) di Q diventa: Q : α(x0 )2 + β(y 0 )2 + γ(z 0 )2 + L0 (x0 , y 0 , z 0 ) = 0, dove L0 (x0 , y 0 , z 0 ) e` il polinomio, in x0 , y 0 , z 0 , di grado minore o uguale a 1, ottenuto da L(x, y, z) dopo aver sostituito a x, y, z le equazioni (12.23). La matrice P ha, quindi, determinato una rotazione degli assi cartesiani x, y, z negli assi cartesiani x0 , y 0 , z 0 passanti per l’origine e paralleli agli autovettori della matrice A le cui componenti sono le colonne di P. Se α 6= 0, si pu`o annullare il coefficiente del termine di primo grado in x operando con una traslazione lungo l’asse x0 (per esempio, con il metodo del completamento dei quadrati). Si ripete la stessa operazione se β 6= 0 e se γ 6= 0. Il riferimento cartesiano finale R00 = (O0 , X, Y, Z) cos`ı ottenuto risulta essere, quindi, la composizione di una rotazione e di una traslazione. Si presentano i seguenti casi: 1. tre autovalori della matrice A, (contati con le loro molteplicit`a) non sono nulli, allora l’equazione di Q diventa di tipo (12.21); 2. solamente due autovalori della matrice A, (contati con le loro moltelicit`a) non sono nulli (per esempio α e β ) e la variabile (relativa a γ = 0), per esempio z , compare a primo grado. Allora con una traslazione di assi si annulla il termine noto e l’equazione di Q e` di tipo (12.22); 3. solamente un autovalore di A non e` nullo, ossia l’equazione di Q e` di tipo: α(x0 )2 + ay 0 + bz 0 + c = 0. Con una rotazione nel piano coordinato y 0 z 0 intorno all’asse x0 e con una eventuale traslazione, l’equazione si riduce a αx02 − δz 0 = 0 che e` ancora del tipo (12.22).

656

Coni, Cilindri, Superfici di Rotazione e Quadriche

Si osservi che det(A) = det(D), ma e` un esercizio dimostrare che anche la matrice associata a Q nei due riferimenti cartesiani man mano ottenuti ha determinante che coincide con det(B). Definizione 12.9 Le quadriche per cui tutti i coefficienti delle equazioni (12.21) e (12.22) sono diversi da zero si dicono proprie o non degeneri o non singolari. In caso contrario le quadriche si dicono non proprie o degeneri o singolari. Osservazione 12.6 Nel caso di quadriche proprie, il determinante della matrice B associata alla quadrica e` non nullo, det(B) 6= 0. Sia Q una quadrica propria che si rappresenta con un’equazione di tipo (12.21) allora Q e` una delle seguenti superfici: 1. ellissoide di equazione in forma canonica: y2 z2 x2 + + = 1, a2 b2 c2

(12.24)

rappresentato nella Figura 12.31. Si osservi che l’ellissoide di rotazione di equazione (12.14) e` un caso particolare di questa superficie, in cui un autovalore della matrice A associata alla forma quadratica che definisce la superficie ha molteplicit`a 2. Se, invece, la matrice A ha un solo autovalore (positivo) di molteplicit`a 3 allora si ottiene la sfera di centro l’origine e di raggio pari alla radice quadrata dell’autovalore di A. La superficie e` simmetrica rispetto ai piani coordinati, agli assi coordinati e all’origine. L’ellissoide (12.24) interseca l’asse x nei punti A = (a, 0, 0), A0 = (−a, 0, 0), l’asse y nei punti B = (0, b, 0), B 0 = (0, −b, 0) e l’asse z nei punti C = (0, 0, c), C 0 = (0, 0, −c). Questi sei punti prendono il nome di vertici dell’ellissoide. Poich`e le coordinate x, y, z dei punti dell’ellissoide sono tali da verificare le limitazioni: |x| ≤ a, |y| ≤ b, |z| ≤ c, la superficie e` interamente contenuta dal parallelepipedo rettangolo le cui facce sono determinate dai piani x = ±a, y = ±b, z = ±c che sono anche i piani tangenti all’ellissoide nei suoi vertici. Le intersezioni dell’ellissoide con i piani x = h, a < h < a, con y = k, −b < k < b, e con z = l, −c < l < c, sono tutte ellissi, si lascia per esercizio lo studio della variazione dei loro diametri in relazione alle equazioni dei piani a cui appartengono.

Capitolo 12

657

Figura 12.31: Ellissoide Si verifica facilmente che le equazioni parametriche dell’ellissoide sono:   x = a cos v cos u y = b cos v sin u  z = c sin v, 0 ≤ u, v < 2π. 2. ellissoide immaginario di equazione in forma canonica: −

x2 y2 z2 − − = 1. a2 b2 c2

E` evidente che se a = b = c si ottiene la sfera immaginaria. 3. iperboloide ad una falda o iperboloide iperbolico di equazione in forma canonica: x2 y2 z2 + − = 1, a2 b2 c2 si tratta della superficie rappresentata all’esterno nella Figura 12.32.

658

Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.32: Iperboloide ad una falda e il suo cono asintotico

Capitolo 12

659

Si osservi che l’iperboloide di rotazione ad una falda introdotto nell’Esempio 12.12 e` un caso particolare di questa superficie in cui a = b. La stessa superficie di rotazione si e` anche ottenuta, in modo diverso, nell’equazione (12.11). Si lascia per esercizio, invece, lo studio della superficie in cui a = b = c. L’iperboloide ad una falda e` una superficie simmetrica rispetto ai piani coordinati, agli assi coordinati e all’origine del sistema di riferimento. Due assi soltanto intersecano la superficie e precisamente l’asse x nei punti A = (a, 0, 0), A0 = (−a, 0, 0) e l’asse y nei punti B = (0, b, 0), B 0 = (0, −b, 0), pertanto la superficie ha solo quattro vertici. Nel Paragrafo 12.6.1 si dimostrer`a che l’iperboloide ad una falda non solo e` una superficie rigata ma e` doppiamente rigata, ossia per ogni suo punto passano due rette ad essa appartenenti. Le intersezioni dell’iperboloide ad una falda con i piani x = h, h ∈ R, sono ellissi (delle quali la pi`u piccola ha centro nell’origine e viene detta linea di gola o linea di strizione), mentre le sue intersezioni con i piani y = k, k ∈ R, e z = l, l ∈ R, sono iperboli. Si lascia per esercizio la determinazione delle equazioni delle coniche cos`ı ottenute e il confronto tra le lunghezze dei diametri delle ellissi e delle iperboli in relazione alle equazioni dei piani a cui esse appartengono. I piani passanti per l’asse z intersecano l’iperboloide ad una falda in iperboli i cui asintoti individuano un cono con vertice nell’origine, detto cono asintotico, che e` di conseguenza posizionato all’interno della superficie ed ha equazione: x2 y 2 z 2 + 2 − 2 = 0. a2 b c Nella Figura 12.32 sono rappresentati sia un iperboloide ad una falda sia il suo cono asintotico. Si verifica facilmente le equazioni parametriche dell’iperboloide ad una falda sono:   x = a cosh v cos u y = b cosh v sin u  z = c sinh v, 0 ≤ u < 2π, v ∈ R. 4. iperboloide a due falde di equazione in forma canonica: x2 y2 z2 − − = 1, a2 b2 c2 si tratta della superficie rappresentata all’interno del cono nella Figura 12.33. Si osservi che l’iperboloide di rotazione a due falde di equazione (12.15) e` un caso particolare di questa superficie in cui b = c.

660

Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.33: Iperboloide a due falde e il suo cono asintotico

Capitolo 12

661

Anche l’iperboloide a due falde e` una superficie simmetrica rispetto ai piani coordinati, agli assi coordinati e all’origine, un solo asse lo interseca, precisamente l’asse x nei punti A = (a, 0, 0), A0 = (−a, 0, 0) pertanto la superficie ha solo due vertici. Le sue sezioni: con i piani x = h, dove h > a e h < −a, sono ellissi; con i piani y = k e z = l sono iperboli, mentre i piani passanti per l’asse x intersecano l’iperboloide a due falde in iperboli i cui asintoti costituiscono un cono, detto anche in questo caso cono asintotico, che racchiude la superficie al suo interno ed ha equazione: x2 y 2 z 2 − 2 − 2 = 0. a2 b c Si verifica facilmente che le equazioni parametriche dell’iperboloide a due falde sono:   x = a cosh u cosh v y = b sinh u cosh v  z = c sinh v, u, v ∈ R. Se Q e` una quadrica propria e si rappresenta con un’equazione di tipo (12.22) Q e` una delle seguenti superfici. 5. paraboloide ellittico di equazione in forma canonica: y2 x2 + = 2z, a2 b2 rappresentato nella Figura 12.34. Si osservi che il paraboloide di rotazione di equazione (12.16) e` un esempio di paraboloide ellittico, in cui la matrice A ad esso associata ha un autovalore di molteplicit`a 2. Il paraboloide ellittico e` una superficie simmetrica rispetto ai piani coordinati di equazioni x = 0, y = 0 e all’asse z , e` contenuta nel semispazio della semiretta positiva dell’asse z ed ha perci`o un solo vertice nell’origine. Le curve intersezione della superficie con i piani di equazione x = h, h ∈ R, h > 0, sono ellissi, si lascia per esercizio la determinazione dei vertici e dei diametri di queste ellissi in relazione al piano a cui esse appartengono, invece il piano x = 0 e` tangente alla superficie nell’origine. Le curve intersezione del paraboloide ellittico con i piani di equazione y = k e z = l, k, l ∈ R sono parabole. Si verifica facilmente che le equazioni parametriche del paraboloide ellittico sono:

662

Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.34: Paraboloide Ellittico

  x=au y=bv  z = 12 (u2 + v 2 ),

u, v ∈ R.

6. paraboloide iperbolico o a sella di equazione in forma canonica: x2 y2 − = 2z, a2 b2 rappresentato nella Figura 12.35. Si nota subito che questa superficie non pu`o essere una superficie di rotazione, perch´e? La superficie e` simmetrica rispetto ai piani coordinati yz e xz, e` anche simmetrica rispetto all’asse x. Se si interseca la superficie con il piano coordinato xy di equazione z = 0 si ottiene la conica degenere di equazione:    z=0 2 2   x −y =0 a2 b2

formata da una coppia di rette incidenti, che quindi appartengono al paraboloide iperbolico. Nel Paragrafo 12.6.1 si dimostrer`a che effettivamente il paraboloi-

Capitolo 12

663

2

1

0

-1

-1 -2

0 1

0

1

-1

Figura 12.35: Paraboloide iperbolico o a sella de iperbolico e` un esempio di superficie rigata e, come l’iperboloide iperbolico, e` doppiamente rigata. L’intersezione del paraboloide iperbolico con il piano coordinato yz e` la parabola di equazioni: 

y=0 x2 = 2a2 z,

(12.25)

mentre l’intersezione del paraboloide iperbolico con il piano coordinato yz e` la parabola di equazioni:  x=0 (12.26) y 2 = −2b2 z. Se si interseca, invece, il paraboloide iperbolico con i piani di equazione x = k, k ∈ R, k 6= 0, si ottengono le parabole di equazioni:   x=k     (12.27) k2  2 2  y = −2b z − .  2a2

664

Coni, Cilindri, Superfici di Rotazione e Quadriche

Operando mediante la traslazione degli assi cartesiani di equazioni:  x=X      y=Y   2    z− k =Z 2a2 si ottiene che, nel riferimento R0 = (O, X, Y, Z), la parabola (12.27) ha equazioni:  X=k Y 2 = −2b2 Z, quindi essa coincide con la parabola di equazioni (12.26) ma con il vertice nel punto   k2 V = k, 0, 2 , 2a scritto nel riferimento R = (O, x, y, z). Situazione analoga si verifica intersecando il paraboloide iperbolico con i piani di equazione y = h, h ∈ R, h 6= 0, ottenendo parabole tutte uguali a quella di equazioni (12.25). Se si interseca, invece, il paraboloide iperbolico con i piani di equazione z = l, l ∈ R, l 6= 0 si ottengono delle iperboli. Si lascia per esercizio la determinazione dei loro vertici e la verifica che essi appartengono (nel caso di l > 0) alla parabola di equazioni (12.25). Che cosa succede nel caso l < 0? Gli asintoti di tali iperboli originano un cono degenere di equazione: y2 x2 − =0 a2 b2 che in realt`a consiste in due piani incidenti. Le equazioni parametriche del paraboloide iperbolico sono:    x=au y=bv   z = 1 (u2 − v 2 ), 2

u, v ∈ R.

Se la quadrica Q e` degenere, cio`e se uno dei coefficienti della sua equazione in forma canonica si annulla, allora essa e` una delle seguenti superfici:

Capitolo 12

665

1. cono quadrico di equazione in forma canonica: αx2 + βy 2 + γz 2 = 0 con α 6= 0, β 6= 0, γ 6= 0. In questo caso la quadrica e` un cono oppure si riduce ad un punto se α, β, γ hanno lo stesso segno. Si usa il termine “quadrico” solo per indicare che questo cono si rappresenta mediante un’equazione di secondo grado nelle variabili x, y, z. 2. Cilindro quadrico le cui equazioni, in forma canonica, possono essere dei tre tipi seguenti: y2 x2 + = 1, a2 b2 ossia il cilindro ellittico; x2 y2 − = 1, a2 b2 ossia il cilindro iperbolico; x2 = 2py, ossia il cilindro parabolico; Le denominazioni dei tre tipi di cilindri quadrici dipendono dal fatto che ogni piano, non parallelo ad una generatrice, interseca il cilindro rispettivamente secondo un’ellisse, un’iperbole, una parabola. 3. Unione di due piani incidenti, paralleli o coincidenti, anche immaginari, con equazioni, in forma canonica del tipo: αx2 + βy 2 = 0, x 2 = a2 ,

α, β ∈ R, α 6= 0, β 6= 0,

a ∈ R, a 6= 0

x2 = 0. Riassumendo, si pu`o ottenere la classificazione delle quadriche attraverso il rango delle matrici A e B ad esse associate nel modo seguente, tenuto conto che il rango di A ed il rango di B sono invarianti per rototraslazioni nello spazio.

Coni, Cilindri, Superfici di Rotazione e Quadriche

666

    rank(A) = 3 : ellissoide, sfera, iperboloide ad una falda, iperboloide a due falde; • rank(B) = 4   rank(A) = 2 : paraboloide ellittico, paraboloide iperbolico. (

rank(A) = 3 : cono;

• rank(B) = 3 rank(A) = 2 : cilindro. (

rank(A) = 2 : due piani incidenti;

• rank(B) = 2 rank(A) = 1 : due piani paralleli. • rank(B) = rank(A) = 1 : due piani coincidenti.

Esercizio 12.19 Ridurre in forma canonica la quadrica Q di equazione: Q : 4x2 + 4xy + 4xz + 4y 2 + 4yz + 4z 2 + 4x + 4y + 8z + 3 = 0. Soluzione

Le matrici A e B associate alla quadrica sono: 



4 2 2  2 4 2 , A= 2 2 4



4  2 B=  2 2

2 4 2 2

2 2 4 4

 2 2  . 4  3

Poich´e det(B) = −32, det(A) = 32, la quadrica Q pu`o essere un ellissoide o un iperboloide ad una o due falde. Gli autovalori di A con le rispettivie molteplicit`a sono: λ1 = 2, mλ1 = 2;

λ2 = 8, mλ2 = 1,

quindi Q e` un ellissoide di rotazione. Una base ortonormale di autovettori e` : 

     1 1 2 1 1 1 1 1 √ , 0, − √ , − √ , √ , − √ , √ , √ , √ . 2 2 6 6 6 3 3 3

Si definisce quindi la rotazione degli assi cartesiani di equazioni:

Capitolo 12

667

1 1 x x √ −√  2 6                    2  y  = P  y0  =  √ 0      6                 1 1 −√ −√ z0 z 2 6 





0





  1 x0 √ 3          1  0  √  y   3       1  0 √ z 3

e l’equazione della quadrica nel riferimento R0 = (O, x0 , y 0 , z 0 ) e` :  0  2 0 0 x  0    z 0 2 0 y0  + z0 0 0 8 

x0 y 0

 0 x  4 4 8 P  y0  + 3 = 0 z0 

ossia: 4 4 16 2(x0 )2 + 2(y 0 )2 + 8(z 0 )2 − √ x0 − √ y 0 + √ z 0 + 3 = 0. 2 6 3 Operando con il metodo del completamento dei quadrati si ha:  2  2  2 1 1 1 0 0 0 2 x −√ +2 y − √ +8 z + √ − 1 = 0. 2 6 3 Mediante la traslazione di equazioni:  1 −√ 2                        0   1  Y  =  y  +  −√  ,      6                    1 √ Z z0 3 

X





x0





la quadrica assume, nel riferimento R00 = (O0 , X, Y, Z) l’equazione: 2X 2 + 2Y 2 + 8Z 2 = 1.

Coni, Cilindri, Superfici di Rotazione e Quadriche

668

Si tratta proprio di un ellissoide di rotazione. La rototraslazione che permette di passare dal riferimento iniziale R al riferimento R00 e` : 1 1 x √ −√ 2 6              2  y = 0 √    6          1 1 −√ −√ z 2 6 





   1 X 0 √ 3              1  + 0 √  Y   3            1 √ Z −1 3

     ,    

quindi l’origine O0 del riferimento R, che e` anche il centro dell’ellissoide, ha coordinate (0, 0, −1) nel riferimento iniziale R.

12.6.1

Quadriche rigate

Lo scopo di questo paragrafo e` quello di dimostrare che due quadriche proprie, precedentemente introdotte, l’iperboloide ad una falda e il paraboloide iperbolico, sono esempi di superfici rigate (cfr. Par. 12.5) essendo interamente costituite da una doppia famiglia di rette. D’altra parte, entrambe queste superfici possono essere ottenute anche come luogo geometrico di punti, come sar`a specificato nel Teoremi 12.4 e 12.5.

12.6.2

L’iperboloide ad una falda

L’equazione dell’iperboloide ad una falda:

I:

y2 z2 x2 + − = 1, a2 b2 c2

superficie gi`a studiata nel Paragrafo 12.6 e rappresentata nella Figura 12.32, si pu`o anche scrivere come: I:

x a

+

zx z  y y − = 1+ 1− . c a c b b

(12.28)

Dalla precedente uguaglianza di due prodotti si ricavano, per esempio, le espressioni:

Capitolo 12

669

1.

x z y 1− − a c b = = λ1 , x z y + 1+ b a c

λ1 ∈ R,

2.

x z y − 1+ a c b = = λ2 , x z y 1− + b a c

λ2 ∈ R,

(12.29)

ciascuna delle quali conduce alle due famiglie di rette seguenti:

1.

2.

  x z  − = λ  1 1+  a c     1 − y = λ1 x + b a   x z    a − c = λ2 1 −     1 + y = λ2 x + b a

y b z , c y

(12.30)

b z , c

che, al variare di λ1 , λ2 ∈ R appartengono all’iperboloide I. Si osservi che, a partire da (12.28), ogni altra combinazione dell’uguaglianza darebbe luogo alle stesse equazioni ottenute in (12.29). Per ogni punto P0 ∈ I si individuano due parametri λ1 e λ2 , di conseguenza si determinano due rette passanti per P0 , una per ogni famiglia di rette in (12.30) ma entrambe appartenenti a I , pertanto anche I e` una superficie doppiamente rigata. Le due famiglie di rette di equazioni (12.30) prendono il nome di schiere di rette appartenenti all’iperboloide I. Si vuole, ora, studiare la posizione reciproca di due rette r1 e r10 appartenenti alla stessa schiera, per esempio alla schiera 1. in (12.30), corrispondenti ai parametri λ1 e λ01 ; siano:   x z y    a − c = λ1 1 + b r1 :      1 − y = λ1 x + z , b a c   x z y 0  − = λ 1 +  1  a c b 0 r1 :      1 − y = λ0 x + z . 1 b a c

Coni, Cilindri, Superfici di Rotazione e Quadriche

670

4 2 0 -2 -4

4

2

0

-2

-4

-4 -2 0 2 4

Figura 12.36: Iperboloide ad una falda con le due schiere di rette

Capitolo 12

671

Esse non sono incidenti perch´e ogni punto P0 di I determina un solo valore di λ1 , quindi una sola retta della schiera considerata. Le rette r1 e r10 non sono parallele infatti r1 e` parallela al vettore: i j k   1 λ 1 1 −λ21 + 1 2λ1 1 + λ21 − − ,− , , a b c = bc ac ab λ 1 λ 1 1 a b c mentre r10 e` parallela al vettore: i j k  0 02 02  1 0 λ 1 1 + 1 −λ 2λ 1 + λ 1 1 1 ,− , , a − b −c = bc ac ab λ0 1 λ01 1 a b c di conseguenza le rette r1 r r10 sono sghembe. Concludendo, le rette appartenenti alla stessa schiera di rette sull’iperboloide iperbolico sono tra loro sghembe, mentre per ogni punto dell’iperboloide iperbolico passano due rette, una di una schiera e l’altra dell’altra schiera, interamente contenute sull’iperboloide iperbolico stesso. La situazione geometrica e` molto ben illustata nella Figura 12.26 realizzata con il programma di calcolo simbolico Mathematica dal Prof. S. Berardi del Dipartimento di Informatica dell’Universit`a di Torino. Esercizio 12.20 Dato l’iperboloide: y2 x2 + − z 2 = 1, (12.31) 4 9 ricavare le equazioni delle rette r e s che passano per il punto P = (2, 3, 1) ∈ I e che giacciono sull’iperboloide. Determinare, inoltre, l’equazione del piano π contenente le rette r e s. I:

Soluzione

Data la retta generica r passante per il punto P :   x = 2 + lt y = 3 + mt r:  z = 1 + nt, t ∈ R,

(12.32)

Coni, Cilindri, Superfici di Rotazione e Quadriche

672

si vogliono determinare i suoi parametri direttori (l, m, n) in modo tale che r appartenga ad I . Sostituendo le equazioni (12.32) in (12.31) si ha: (2 + lt)2 (3 + mt)2 + − (1 + nt)2 = 1, 4 9 da cui: 

   l2 2 m2 2 2 + − n t + l + m − 2n t = 0. 4 9 3

Si perviene quindi al sistema di secondo grado:  2   l + m − 2n = 0  3 2 2    l + m − n2 = 0, 4 9 le cui due soluzioni sono: 

m=0 l = 2n,



m − 3n = 0 l = 0,

in corrispondenza delle quali si ottengono le rette r passante per P = (2, 3, 1), parallela al vettore r = (2, 0, 1) e s passante per P = (2, 3, 1), parallela al vettore s = (0, 3, 1). Si ottiene lo stesso risultato decomponendo l’equazione dell’iperboloide (12.31) nel modo seguente: x   x y y −z +z = 1− 1+ 2 2 3 3 e ricavando le equazioni delle due schiere di rette ad esso appartenenti:   x y  − z = λ 1 −  1  2 3      1 + y = λ1 x + z , 3 2

λ1 ∈ R,

  x y  − z = λ 1 +  2  2 3      1 − y = λ2 x + z , 3 2

λ2 ∈ R.

Sostituendo in entrambe le equazioni delle schiere le coordinate del punto P si ricavano i valori di λ1 e di λ2 e si perviene cos`ı alle equazioni delle rette r e s, una per ciascuna schiera. Il piano π passante per P = (2, 3, 1) e parallelo ad r e a s ha equazione:

Capitolo 12

x−2 y−3 z−1 2 0 1 0 3 1

673

= 3x + 2y − 6z − 6 = 0.

Il teorema che segue afferma che l’iperboloide ad una falda pu`o anche essere ottenuto come luogo geometrico di punti. Anzich´e proporre la dimostrazione (che e` comunque un esercizio e viene lasciata al Lettore) si preferisce ricavare, nell’Esercizio 12.21, un esempio dello stesso luogo geometrico. Teorema 12.4 L’iperboloide ad una falda e` il luogo delle rette che si appoggiano contemporaneamente a tre rette che sono sghembe a due a due. Esercizio 12.21 Date le rette:    x=0  x = t0 y=0 y=1 r: s:   z = t, t ∈ R, z = 0, t0 ∈ R,

  x = −1 y = t00 h:  z = 1, t00 ∈ R,

verificare che sono sghembe a due a due e determinare il luogo delle rette che si appoggiano contemporaneamente ad r, s, h. Soluzione E` immediato verificare che le rette date sono a due a due sghembe (`e sufficiente notare che non sono parallele e che per esempio le rette s e h non passano per l’origine, a differenza della retta r, e che s e h non sono incidenti). La retta che unisce il punto generico di s con il punto generico di h ha equazione: z y−1 x − t0 = = . t0 + 1 1 − t00 −1

(12.33)

Se si impone che questa retta passi per il punto generico di r si ottengono le uguaglianze: t0 1 = = −t, t0 + 1 1 − t00 che stabiliscono la condizione che devono verificare i parametri t, t0 e t00 affinch´e siano allineati tre punti di r, s ed h rispettivamente. Da esse si ottengono le relazioni: t0 =

−t , 1−t

Sostituendo nell’equazione (12.33), segue:

t00 =

1+t . t

674

Coni, Cilindri, Superfici di Rotazione e Quadriche

t 1 + t = y − 1 = −z, t t+1 +1 1− 1−t t

x+

o, con ovvie semplificazioni, l’espressione: x(1 + t) + t = −t(y − 1) = −z che rappresenta la generica retta del luogo richiesto, al variare del parametro t. La retta precedente si pu`o scrivere come intersezione dei due piani: 

x + z = −t(x + 1) t(y − 1) = z,

dai quali si elimina facilmente il parametro t e si ottiene l’equazione cartesiana del luogo: S : xy + xz + yz − x = 0. Si tratta, evidentemente, di una quadrica che si pu`o identificare con la riduzione a forma canonica della sua equazione. A tale scopo si considera la matrice A associata alla forma quadratica di S : 

0     1 A=  2   1 2

1 2 0 1 2

 1 2    1   2    0

i cui autovalori, con le rispettive molteplicit`a, sono: 1 λ1 = − , mλ1 = 2; 2

λ2 = 1, mλ2 = 1.

Gli autospazi corrispondenti sono rispettivamente Vλ1 = L(u1 , u2 ), Vλ2 = L(u3 ), con: u1 = (−1, 1, 0),

u2 = (−1, 0, 1),

u3 = (1, 1, 1).

Utilizzando il processo di ortonormalizzazione di Gram–Schmidt per il primo autospazio e calcolando il versore di u3 si ottiene una base ortonormale B 0 = (u01 , u02 , u03 ) di autovettori la cui matrice ortogonale P del cambiamento di base da B = (i, j, k) a B 0 e` :

Capitolo 12

1 1 √ −√  2 6    1 1  √ P = √  2 6    2 0 −√ 6 

675

 1 √ 3    1  √  . 3    1  √ 3

Operando su R = (O, x, y, z) con il cambiamento di riferimento dato dalla rotazione di equazioni:   0  x x  y  = P  y0  z0 z 

si perviene all’equazione della quadrica: 1 1 1 1 1 − (x0 )2 − (y 0 )2 + (z 0 )2 + √ x0 − √ y 0 − √ z 0 = 0. 2 2 2 6 3 Procedendo con il metodo del completamento dei quadrati si ha: 1 − 2

 2  2  2 1 1 1 1 1 0 0 0 − + z − √ + =0 x −√ y +√ 2 4 2 6 2 3

ed applicando la traslazione di equazioni: 

X





x0





                  0   Y y =    +                0 Z z

1 −√ 2 1 √ 6 1 − √ 2 3

si ha l’equazione della quadrica in forma canonica: 2X 2 + 2Y 2 − 4Z 2 = 1. Si tratta, pertanto, di un iperboloide ad una falda.

        

676

12.6.3

Coni, Cilindri, Superfici di Rotazione e Quadriche

Il paraboloide iperbolico

L’equazione del paraboloide iperbolico: x2 y2 − = 2z, a2 b2 superficie gi`a studiata nel Paragrafo 12.6 e rappresentata nella Figura 12.35, pu`o essere decomposta come: x yx y + − = 2z. (12.34) a b a b L’equazione (12.34), in realt`a, equivale alle due equazioni seguenti: P:

x y 2z + = x y = λ1 , a b − a b e:

λ1 ∈ R

(12.35)

y 2z x − = x (12.36) y = λ2 , λ2 ∈ R. a b + a b D’altra parte, (12.35) pu`o essere scritta come:  x y    a + b = λ1 (12.37) x y     2z = λ1 − , λ1 ∈ R a b e (12.36) come:  x y    a − b = λ2 (12.38)      2z = λ2 x + y , λ2 ∈ R. a b I due sistemi lineari (12.37) e (12.38) rappresentano due famiglie di rette che, al variare di λ1 e λ2 in R appartengono al paraboloide iperbolico, in quanto ne verificano la sua equazione. Il paraboloide iperbolico, con le due famiglie di rette appena determinate, e` rappresentato nella Figura 12.37, tratta da [11]. Come nel caso dell’iperboloide iperbolico, ciascuna di queste famiglie di rette prende il nome di schiera di rette del paraboloide iperbolico, Si vuole ora studiare la posizione reciproca delle rette all’interno della stessa schiera. Si consideri, per esempio, la schiera di rette (12.35). Tutte le rette di tale schiera, al variare di λ1 in R, appartengono al piano: x y + = λ1 , a b

Capitolo 12

677

Figura 12.37: Le due schiere di rette sul paraboloide iperbolico quindi appartengono a piani paralleli ma sono rette sghembe perch`e i piani: x y − 2z = λ1 a b non sono paralleli. Lo stessa situazione si verifica per le rette appartenenti alla schiera (12.36). Inoltre, coppie di rette di schiere diverse sono complanari, infatti per ogni punto P0 del paraboloide P esistono due rette (una appartenente a (12.35) una appartenente a (12.36)) passanti per P0 e interamente contenute in P , pertanto P e` una superficie doppiamente rigata. Esercizio 12.22 Nello spazio sono date le rette sghembe:     x = −1  x=0 2 r: s: 1    y= , z = 0. 2 Determinare il luogo dei centri delle sfere tangenti, contemporaneamente, a r e a s. Soluzione Il centro C = (x0 , y0 , z0 ) della sfera deve verificare la condizione d(C, r) = d(C, s). Sia π1 il piano per C ortogonale ad r, che ha ha equazione z = z0 , l’intersezione

Coni, Cilindri, Superfici di Rotazione e Quadriche

678

di π1 con r e` il punto A dato da:   1 A = 0, , z0 . 2 Sia π2 il piano per C ortogonale a s, che ha equazione x = x0 , l’intersezione di π2 con s e` il punto B dato da:   1 B = x0 , − , 0 . 2 Allora d(C, r) = d(C, A) e d(C, s) = d(C, B), perci`o da d(C, A) = d(C, B) si ottiene: x20 − z02 = 2y0 che e` l’equazione cartesiana di un paraboloide iperbolico. La situazione geometrica e` rappresentata nella Figura 12.38. Il teorema che segue afferma che il paraboloide iperbolico pu`o anche essere ottenuto come luogo geometrico di punti. Anzich´e proporre la dimostrazione (che e` comunque un esercizio e viene lasciata al Lettore) si preferisce ricavare un esempio dello stesso luogo geometrico nell’Esercizio 12.23. Teorema 12.5 Il paraboloide iperbolico si pu`o ottenere come luogo geometrico delle rette che si appoggiano a due rette sghembe e sono tutte parallele ad un piano. Esercizio 12.23 Dati il piano π : x − y = 0 e le rette:  r:

√ x − y − √ √ 2z = 0 2x + 2y − 1 = 0,

 s:

√ x − y + √ √ 2z = 0 2x + 2y + 1 = 0,

verificare che r e s sono sghembe e determinare il luogo delle rette che si appoggiano contemporaneamente ad r e a s e sono parallele al piano π . Soluzione Si vede facilmente che le rette r e s sono sghembe perch´e giacciono su piani paralleli e sono ottenute dall’intersezione con altri due piani tra di loro non paralleli. Le equazioni parametriche di r e di s sono:   1 + 2t −1 − 2t0    √ √  x =  x =     2 2 2 2   1 − 2t −1 + 2t0 r: s: √ y = √ y =       2 2 2 2      z = t0 , t0 ∈ R. z = t, t ∈ R;

Capitolo 12

Figura 12.38: Esercizio 12.23

679

680

Coni, Cilindri, Superfici di Rotazione e Quadriche

La retta che unisce il punto generico di r con il punto generico di s ha perci`o equazione: 1 + 2t 1 − 2t √ y− √ z−t 2 2 2 2 , 0 = 0 = 1 + 2t 1 − 2t 1 + 2t 1 − 2t t − t0 √ + √ √ + √ 2 2 2 2 2 2 2 2 x−

che si semplifica nell’espressione seguente: √ √ 2 2x − (1 + 2t) 2 2y − (1 − 2t) z−t = = . 0 0 2 + 2t + 2t 2 − 2t − 2t t − t0 Se si impone poi che tale retta sia parallela al piano π , si ottiene t = −t0 , che permette di scrivere l’equazione precedente nella forma: √ √ z−t 2 2x − (1 + 2t) = 2 2y − (1 − 2t) = t e rappresenta, al variare del parametro t, la generica retta del luogo geometrico richiesto. Essa si pu`o anche scrivere come intersezione dei due piani: √  √ 2 √2x − (1 + 2t) − 2 2y + (1 − 2t) = 0 t( 2y − 1 + 2t) − z + t = 0. Dall’equazione del primo piano si ricava: 2t =

√ 2(x − y)

e sostituendo l’espressione di t nell’equazione del secondo piano si perviene a: x2 − y 2 = z, che rappresenta l’equazione del luogo geometrico. Come si pu`o osservare, si ottiene un paraboloide iperbolico.

12.7

Esercizi di riepilogo svolti

Esercizio 12.24 – Il cono-cuneo di Wallis – Sono dati una retta a, una circonferenza C che giace su un piano π , parallelo ad a, il cui centro appartiene alla retta ortogonale a π condotta da un punto di a ad un piano π 0 perpendicolare ad a. Determinare l’equazione del luogo geometrico delle rette che si appoggiano alla circonferenza C , alla retta a e sono parallele a π 0 .

Capitolo 12

681

Figura 12.39: Esercizio 12.24 Soluzione Per semplicit`a si scelga a coincidente con l’asse z del riferimento cartesiano e la circonferenza C sul piano y = k , con centro sull’asse y e raggio r. Detti P un punto generico di C e Q un punto generico di a, la retta P Q ha equazioni: X Y Z −z = = = t. r cos ϕ k r sin ϕ − z Se si impone che a sia parallela al piano z = 0, segue: r sin ϕ − z = 0,

z = r sin ϕ

e quindi le equazioni del luogo richiesto sono:   X = tr cos ϕ Y = tk  Z = r sin ϕ, t ∈ R, 0 ≤ ϕ < 2π. Per pervenire all’equazione cartesiana si ricava:

682

Coni, Cilindri, Superfici di Rotazione e Quadriche

 kX     rY = cos ϕ   Z   = sin ϕ, r ossia: (kX)2 Z2 + = 1, (rY )2 r2 da cui si ottiene: Z 2 Y 2 + k 2 X 2 − r2 Y 2 = 0. La superficie appena descritta, che prende il nome di cono-cuneo di Wallis e` rappresentata nella Figura 12.39, si osservi, inoltre, che si tratta di una superficie rigata. ¨ Esercizio 12.25 – Il conoide retto di Plucker – Si considerino un’ellisse E con le lun√ ghezze dei semiassi a, b legate dalla relazione a = 2 b e i vertici nei punti A e A0 sull’asse maggiore e nei punti B e B 0 sull’asse minore, il piano π passante per l’asse minore AB di E sia inclinato di π/4 sul piano di E e si consideri, inoltre, una retta r per A ortogonale a π . (Si osservi che E si proietta ortogonalmente sul piano π in una circonferenza). Determinare l’equazione del luogo delle rette che si appoggiano ad E e ad r e sono parallele al piano π . Soluzione Si scelgano il punto A come origine, le rette AB ed r quali assi x e z rispettivamente. Detti P = (b(1 − cos ϕ), b sin ϕ, b sin ϕ) un punto generico dell’ellisse E e Q = (0, 0, λ) un punto generico di r, la retta P Q ha equazione: x y z−λ = = = t. b(1 − cos ϕ) b sin ϕ b sin ϕ − λ Imponendo il parallelismo al piano π (z = 0), si ricava λ = b sin ϕ e le equazioni parametriche del luogo richiesto sono:   x = tb(1 − cos ϕ) y = tb sin ϕ  z = b sin ϕ, t ∈ R, 0 ≤ ϕ < 2π. Per ottenere l’equazione cartesiana si calcola:

Capitolo 12

Figura 12.40: Esercizio 12.25

Figura 12.41: Esercizio 12.25

683

684

Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.42: Esercizio 12.26

x2 + y 2 = t2 b2 (1 + cos2 ϕ − 2 cos ϕ + sin2 ϕ) = t2 b2 (2 − 2 cos ϕ) = 2tb[tb(1 − cos ϕ)] = 2tbx. Poich`e t = y/z , sostituendo nell’espressione precedente si ha: (x2 + y 2 )z = 2bxy, che e` l’equazione cercata. La superficie cos`ı ottenuta prende il nome di conoide retto di Pl¨ucker ed e` rappresentata, da due diverse angolazioni, nelle Figure 12.40 e 12.41. Anche il conoide di Pl¨ucker e` un esempio di superficie rigata. Esercizio 12.26 – La superficie dalla volta a sbieco – Si considerino due coniche C1 e C2 , aventi due punti in comune, situate in piani diversi e sia d una retta che non incontri le due coniche date. Dimostrare che il luogo geometrico delle rette che si appoggiano contemporaneamente a C1 , C2 , d e` una superficie rigata, la cui equazione in forma implicita e` un polinomio di sesto grado in x, y, z . Soluzione Come caso particolare si supponga che C1 e C2 siano due circonferenze, aventi lo stesso raggio, di centro i punti O1 e O2 , rispettivamente. Gli altri casi sono lasciati al Lettore per esercizio. Si supponga, inoltre, che C1 e C2 appartengano a piani

Capitolo 12

685

paralleli e non perpendicolari alla retta O1 O2 che unisce i loro centri. Si consideri come direttrice la retta d normale ai due piani, contenenti le circonferenze, e passante per il punto medio O del segmento O1 O2 . Per ragioni di simmetria il cono che da O proietta C1 contiene anche C2 e, quindi, fa parte del luogo geometrico cercato; escludendolo, rimane, come elemento dello stesso luogo, una superficie, che si vedr`a avere un’equazione di quarto grado che, per la sua forma particolare, viene detta volta a sbieco. Per ricavare esplicitamente l’equazione del luogo geometrico si posizioni il riferimento cartesiano con l’origine nel punto O, la retta d quale asse y e si faccia passare il piano z = 0 per O1 ed O2 . Siano:  2  2 x + z 2 − 2hx + h2 − r2 = 0 x + z 2 + 2hx + h2 − r2 = 0 C1 : C2 : y + k = 0, y − k = 0, le equazioni di C1 e di C2 . Il piano x = mz , passante per la retta d, incontra C1 e C2 , rispettivamente nei punti P = (mγ, −k, γ) e Q = (mδ, k, δ) con γ e δ che verificano le equazioni:  2 2 2 2   (1 + m )γ − 2hmγ + h − r = 0 2hm   γ−δ = . 1 + m2

(12.39)

La retta P Q ha equazioni: 

x = mz (δ − γ)(y + k) = 2k(z − γ).

(12.40)

Eliminando tra le equazioni (12.39) e (12.40) i parametri m, γ e δ si ottiene l’equazione cercata: [k(x2 + z 2 ) + hxy]2 − k 2 [r2 x2 + (r2 − h2 )z 2 ] = 0. Nel Figura 12.42 e` rappresentata la volta a sbieco ottenuta ponendo k = 1, h = 2, r = 1. Esercizio 12.27 – Elicoide retto – Trovare il luogo geometrico delle rette che si appoggiano all’elica circolare cilindrica di equazioni parametriche:   x = R cos ϕ y = R sin ϕ (12.41)  z = hϕ, ϕ ∈ R, e all’asse z e sono parallele al piano xy , al variare del parametro reale ϕ.

686

Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.43: Elica cilindrica

Figura 12.44: Esercizio 12.27

Capitolo 12

687

Soluzione L’elica circolare cilindrica, rappresentata nella Figura 12.43, e` una curva nello spazio, dalle sue equazioni parametriche (12.41) si evince che si tratta semplicemente di una circonferenza del piano xy che si avvolge intorno all’asse z con un passo che varia al variare di h, pertanto la curva giace sul cilindro di equazione x2 + y 2 = R2 da cui la sua denominazione. La retta generica del luogo geometrico richiesto unisce i punti P e Q dati da: P = (R cos ϕ, R sin ϕ, hϕ),

Q = (0, 0, hϕ)

ed ha perci`o equazioni:  x − R cos ϕ y − R sin ϕ   = =u  R cos ϕ R sin ϕ    z = hϕ, u ∈ R. Essa si pu`o anche scrivere nella forma parametrica seguente:   x = R cos ϕ + uR cos ϕ y = R sin ϕ + uR sin ϕ  z = hu, u, ϕ ∈ R, che rappresenta il luogo geometrico, al variare dei parametri reali ϕ e u. Si pu`o vedere questa superficie, detta elicoide retto, rappresentata nella Figura 12.44. Anche l’elicoide retto e` un esempio di superficie rigata. Esercizio 12.28 – Vite di Saint Gilles – Determinare l’equazione del luogo geometrico descritto da una circonferenza C avente raggio r, centro in un punto generico dell’elica circolare cilindrica di equazioni (12.41) e appartenente ad un piano passante per l’asse z. Soluzione

Il piano π, passante per un punto C dell’elica e per l’asse z, ha equazione: π : x sin ϕ − y cos ϕ = 0.

Su π si sceglie il riferimento ortonormale formato da un vettore u1 parallelo a π, sia u1 = cos ϕi + sin ϕj, e da un vettore u2 parallelo a π ed ortogonale a u1 , ad esempio u2 = u1 ∧ (sin ϕi − cos ϕj) = −k. Perci`o due versori ortogonali tra di loro e paralleli a π sono: u1 u2 v1 = = cos ϕi + sin ϕj, v2 = = −k. ku1 k ku2 k Una rappresentazione vettoriale parametrica della circonferenza C sul piano π e` quindi: P = C + r(cos uv1 + sin uv2 ),

688

Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.45: Esercizio 12.28 ossia: P = R cos ϕi + R sin ϕj + hϕk + r[cos u(cos ϕi + sin ϕj) − sin uk], dalla quale si ottiene la rappresentazione parametrica:   x = R cos ϕ + r cos ϕ cos u y = R sin ϕ + r sin ϕ cos u S:  z = hϕ − r sin u, u, ϕ ∈ R, che, al variare di ϕ e di u, descrive una superficie S, che e` il luogo geometrico richiesto e che, per la sua conformazione, viene detta vite di Saint Gilles ed e` rappresentata nella Figura 12.45. Esercizio 12.29 – Colonna torsa – Determinare l’equazione del luogo geometrico descritto da una circonferenza C, di raggio r, con il centro in un punto generico dell’elica circolare cilindrica di equazioni (12.41) e appartenente ad un piano π che si mantiene ortogonale all’asse z, al variare del parametro ϕ in R.

Capitolo 12

689

Figura 12.46: Esercizio 12.29 Soluzione Sul piano π passante per un punto C di C ed ortogonale all’asse z si pu`o scegliere come base ortonormale (i, j). Di conseguenza, la rappresentazione vettoriale parametrica della circonferenza C di π con centro C e raggio r e` : P = C + r(cos u i + sin u j), ossia: P = R cos ϕ i + R sin ϕ j + hϕ k + r cos u i + r sin u j, dalla quale si ottiene la rappresentazione cartesiana parametrica:   x = R cos ϕ + r cos u y = R sin ϕ + r sin u S:  z = hϕ, u, ϕ ∈ R, che, al variare dei parametri ϕ ed u, genera il luogo geometrico S richiesto che e` la superficie rappresentata nella Figura 12.46 e che prende il nome di colonna torsa per la sua particolare conformazione.

Coni, Cilindri, Superfici di Rotazione e Quadriche

690

12.8

Per saperne di piu`

12.8.1

Piano tangente ad una quadrica in un suo punto

In questo paragrafo si accenna in modo molto intuitivo, senza alcuna pretesa di rigore matematico, al procedimento da seguire per determinare l’equazione del piano tangente ad una quadrica in un suo punto, e pi`u in generale del piano tangente ad una superficie in suo punto. Si otterr`a un risultato che estende in modo naturale la formula che permette di determinare la retta tangente ad una conica in un suo punto non singolare (cfr. Par. 10.8). Un esempio di questo tipo e` il piano tangente ad una sfera in un suo punto che e` stato ricavato mediante semplici considerazioni geometriche nel Paragrafo 11.7.2. Se Σ e` la sfera di equazione: Σ : x2 + y 2 + z 2 − 2αx − 2βy − 2γz + δ = 0, il piano tangente a Σ in P0 = (x0 , y0 , z0 ) ∈ Σ ha equazione (cfr. Par.11.7.2): (x0 − α)(x − x0 ) + (y0 − β)(y − y0 ) + (z0 − γ)(z − z0 ) = 0. Sviluppando i calcoli indicati si ottiene: x0 x + y0 y + z0 z − αx − βy − γz − x20 − y02 − z02 + αx0 + βy0 + γz0 = 0 e, tenuto conto dell’appartenenza di P0 a Σ, segue: x0 x + y0 y + z0 z − α(x + x0 ) − β(y + y0 ) − γ(z + z0 ) + δ = 0.

(12.42)

Se si scrive l’equazione di Σ in notazione matriciale:   x   y   x y z 1 B  z =0 1 con:

 1 0 0 −α  0 1 0 −β  , B=  0 0 1 −γ  −α −β −γ δ 

l’equazione (12.42) del piano tangente a Σ in P0 diventa:   x   y   x0 y0 z0 1 B   z  = 0. 1

(12.43)

Capitolo 12

691

Si intende dimostrare un teorema che estende la formula (12.43) al caso del piano tangente ad una quadrica in un suo punto di tipo particolare. Si devono per`o premettere sia la definizione formale di piano tangente ad una superficie sia la definizione dei punti della superficie in cui e` possibile considerare il piano tangente, per esempio intuitivamente e` chiaro che non e` possibile definire il piano tangente ad un cono nel suo vertice. Si inizia quindi con la definizione di punto singolare di una quadrica, che estende l’analoga definizione di punto singolare di una conica (cfr. Def. 10.9). Definizione 12.10 Sia Q una quadrica di equazione f (x, y, z) = 0, dove f (x, y, z) e` il polinomio di secondo grado in x, y, z che definisce Q, e sia P0 un suo punto. P0 e` un punto singolare di Q se il vettore:   ∂f ∂f ∂f (P0 ), (P0 ), (P0 ) ∂x ∂y ∂z e` uguale al vettore nullo, dove con ∂f /∂x,∂f /∂y , ∂f /∂z si indicano, rispettivamente, le derivate parziali di f rispetto a x, y, z . In caso contrario il punto P0 si dice regolare. Esercizio 12.30

1. Si verifichi che il vertice di un cono e` un punto singolare.

2. Si verifichi che tutti i punti di una quadrica non degenere sono regolari. Anche la definizione di piano tangente ad una quadrica in suo punto non singolare estende la definizione di retta tangente ad una conica in un suo punto (cfr. Def. 10.8) nel modo seguente. Definizione 12.11 Il piano tangente ad una quadrica Q in un suo punto non singolare P0 e` il luogo delle rette tangenti in P0 a tutte le curve che giacciono sulla superficie Q e che passano per P0 .

Osservazione 12.7 E` chiaro che una retta r si dice tangente ad una quadrica Q in un suo punto P0 se la retta r ha due intersezioni riunite in P0 con la quadrica Q. Invece se una retta r interseca una quadrica Q in un solo punto non e` detto che sia tangente a Q in quel punto. Si consideri, ad esempio, l’asse di rotazione di un paraboloide di rotazione che interseca solo nel vertice del paraboloide il paraboloide stesso senza essere ad esso tangente. Il paragrafo si conclude con la dimostrazione del teorema annunciato.

Coni, Cilindri, Superfici di Rotazione e Quadriche

692

Teorema 12.6 Sia Q la quadrica di equazione: 

Q:

 x   y   x y z 1 B  z  = 0, 1

dove 

a11  a12 B=  a13 a14

a12 a22 a23 a24

a13 a23 a33 a34

 a14 a24   a34  a44

indica la matrice simmetrica di ordine 4 ad essa associata. Sia P0 = (x0 , y0 , z0 ) un punto di Q non singolare, allora il piano π tangente alla quadrica Q nel punto P0 e` :   x   y   π : x0 y0 z0 1 B  (12.44)  z  = 0. 1 Dimostrazione Si calcolino le intersezioni della generica retta r passante per P0 di equazioni parametriche:   x = x0 + lt y = y0 + mt r:  z = z0 + nt, t ∈ R, con la quadrica Q e poich`e P0 ∈ Q, con semplici calcoli si ottiene la seguente equazione di secondo grado in t: (a11 l2 + 2a12 lm + a22 m2 + 2a13 ln + a33 n2 + 2a23 mn)t2 +2[a11 x0 l + a12 (x0 m + y0 l) + a22 y0 m + a13 (x0 n + z0 l) + a33 z0 n

(12.45)

+a23 (y0 n + z0 m) + a14 l + a24 m + a34 n]t = 0. Affinch´e la retta r sia tangente alla quadrica Q nel punto P0 , essa deve avere riunite in P0 due intersezioni con Q, ci`o implica che si annulli il coefficiente di t nell’equazione (12.45), ossia: a11 x0 l + a12 (x0 m + y0 l) + a22 y0 m + a13 (x0 n + lz0 ) + a33 z0 n + a23 (y0 n + z0 m) +a14 l + a24 m + a34 n = 0.

Capitolo 12

693

Tenendo conto delle equazioni parametriche della retta r e del fatto che P0 appartiene alla superficie Q, svolgendo i calcoli, si ricava: a11 x x0 + a22 y y0 + a33 z z0 + a12 (x0 y + x y0 ) + a13 (x0 z + x z0 )

(12.46)

+a23 (y0 z + y z0 ) + a14 (x + x0 ) + a24 (y + y0 ) + a34 (z + z0 ) + a44 = 0, che coincide con l’equazione (12.44). Osservazione 12.8 1. Si osservi che l’equazione (12.46) si pu`o ottenere estendendo in modo evidente la regola degli sdoppiamenti introdotta nel Paragrafo 10.8 per ricavare la retta tangente ad una conica in suo punto, con l’avvertenza che, in questo caso si devono sdoppiare i termini x2 , y 2 , z 2 nei prodotti x0 x, y0 y, z0 z , i termini 2xy, 2xz, 2yz nelle somme xy0 + x0 y, xz0 + x0 z, y0 z + yz0 e i termini 2x, 2y, 2z nelle somme x + x0 , y + y0 , z + z0 . 2. L’equazione del piano tangente ad una sfera Σ scritta come f (x, y, z) = 0 in un suo punto P0 = (x0 , y0 , z0 ) si pu`o anche ottenere come: ∂f ∂f ∂f (P0 )(x − x0 ) + (P0 )(y − y0 ) + (P0 )(z − z0 ) = 0, ∂x ∂y ∂z il vettore:



(12.47)

 ∂f ∂f ∂f (P0 ), (P0 ), (P0 ) ∂x ∂y ∂z

prende il nome di gradiente di f calcolato nel punto P0 . 3. Si dimostra che, nel caso di una superficie S di equazione cartesiana f (x, y, z) = 0, con f : R3 −→ R funzione differenziabile, se per un punto P0 appartenente a S esistono e non sono nulle le derivate parziali di f, cio`e se:   ∂f ∂f ∂f (P0 ), (P0 ), (P0 ) 6= o ∂x ∂y ∂z allora il piano tangente a S in P0 ha equazione (12.47). Per maggiori dettagli si rimanda a testi classici di teoria delle superfici differenziabili, quali, ad esempio, [6] o [11]. Esercizio 12.31 Data la quadrica Q di equazione: Q : x2 + 2y 2 − z 2 + 4x − 2y − 6z − 9 = 0,

694

Coni, Cilindri, Superfici di Rotazione e Quadriche

1. precisare di quale tipo di quadrica si tratta. 2. Verificare che il punto A = (1, −1, 0) appartiene ad Q e determinare le equazioni delle rette tangenti in A ad Q e delle rette passanti per A e appartenenti ad Q. 3. Scrivere l’equazione del piano π luogo delle rette tangenti a Q nel punto A e verificare che π si pu`o determinare mediante la regola degli sdoppiamenti applicata all’equazione di Q in relazione al punto A. Soluzione 1. A partire dall’equazione di Q, utilizzando il metodo del completamento dei quadrati, si ha: 2  9 1 2 − (z + 3)2 = , (x + 2) + 2 y − 2 2 Q e` quindi un iperboloide ad una falda con centro nel punto (−2, 1/2, −3). 2. Si verifica immediatamente che A = (1, −1, 0) ∈ Q. Scelta una retta qualsiasi r passante per A:   x = 1 + lt y = −1 + mt r: (12.48)  z = nt, t ∈ R, la si interseca con Q e si ottiene l’equazione: (l2 + 2m2 − n2 )t2 + (6l − 6m − 6n)t = 0. La retta r e` tangente a Q in A se e solo se t = 0 e` soluzione doppia, ossia se e solo se: l − m − n = 0. La retta r e` contenuta in Q se e solo se: 

l2 + 2m2 − n2 = 0 l − m − n = 0,

da cui si hanno le due soluzioni: 

m=0 n = l,



m = −2l n = 3l,

in corrispondenza alle quali si ottengono le due rette r1 , parallela a r1 = (1, 0, 1) e r2 parallela a r2 = (1, −2, 3) che appartengono a Q.

Capitolo 12

695

3. Imponendo che la retta r di equazioni (12.48) sia tangente a Q nel punto A si ottiene la relazione l − m − n = 0 da cui segue che il piano π e` : π : (x − 1) − (y + 1) − z = 0, che coincide con l’equazione del piano tangente all’iperboloide in A ricavata con la regola degli sdoppiamenti. Nella Figura 12.47 sono rappresentati l’iperboloide e il piano ad esso tangente nel punto A. Si vedono anche le due rette di intersezione del piano tangente con la superficie ed e` evidente che il piano tangente all’iperboloide interseca la superficie in pi`u di un punto. Si pu`o infatti dimostrare che, nel caso dell’iperboloide ad una falda, il piano tangente in ogni suo punto interseca la superficie nelle due rette (una per ciascuna schiera) passanti per tale punto e la superficie si dispone in entrambi i semispazi in cui il piano tangente divide lo spazio. E` molto intuitivo riconoscere che questa situazione, invece, non si presenta nel caso dell’ellissoide in cui il piano tangente in ogni suo punto interseca la superficie solo nel punto di tangenza e la superficie si dispone in uno solo dei due semispazi in cui il piano tangente divide lo spazio. La differenza tra le due situazioni geometriche e` legata al concetto di curvatura Gaussiana della superficie, che e` una funzione che ad ogni punto della superficie associa un numero reale che in qualche modo precisa come la superficie si incurvi in quel punto, nel caso dell’ellissoide la curvatura e` positiva in ogni punto invece nel caso dell’iperboloide ad una falda la curvatura e` negativa. Si possono leggere i dettagli di ci`o che e` stato ora accennato per esempio su [6] o su [11].

696

Coni, Cilindri, Superfici di Rotazione e Quadriche

Figura 12.47: Esercizio 12.30

Bibliografia [1] H. Anton, C. Rorres: Elementary Linear Algebra: Application Version, Editrice Wiley, John & Sons, 1991. [2] A. Baker: Matrix Groups: An Introduction to Lie Group Theory, Springer Undergraduate Mathematics Series, Editrice Springer, London, 2002. [3] R.Bellman: Introduction to Matrix Analysis, Editrice McGraw-Hill, New York, 1960. [4] M. Bramanti, C. D. Pagani, S. Salsa: Matematica Calcolo Infinitesimale e Algebra Lineare, seconda edizione, Editrice Zanichelli, Bologna, 2004. [5] H. Cartan: Elementary theory of analytic functions of one or several complex variables translated from the French. Reprint of the 1973 edition. Dover Publications, Inc., New York, 1995. [6] M.P. do Carmo: Differential Geometry of Curves and Surfaces, Editrice Prentice Hall, Inc., Upper Saddle River New Jersey, 1976. [7] F. Fava, F. Tricerri: Geometria e Algebra lineare, Editrice Levrotto e Bella, Torino, 1987. [8] F. Fava: Lezioni di Geometria analitica, Editrice Levrotto e Bella, Torino, 1960. [9] F. Fava: Lezioni di Geometria, Editrice Levrotto e Bella, Torino, 1973. [10] F. Fava: Elementi di Algebra Lineare e Geometria, Editrice Levrotto e Bella, Torino, 1976. [11] A. Gray, E. Abbena, S. Salamon: Modern Differential Geometry of Curves and Surfaces with Mathematica,Third Edition, Editrice CRC Press, Boca Raton, 2006. [12] S. Greco, P. Valabrega: Lezioni di Geometria, Voll.I e II, Editrice Levrotto e Bella, Torino, 1999. 697

698

Bibliografia

[13] B.C. Hall: Lie Groups, Lie Algebras and Representations, Graduate Texts in Mathematics 222, Editrice Springer, New York, 2003. [14] S. Lang: Linear Algebra, Editrice Addison Wesley, New York, 1966. [15] S. Roman: Advanced Linear Algebra, Editrice Springer, Berlin, 2008. [16] A. Sanini: Lezioni di Geometria, Editrice Levrotto e Bella, Torino , 1993. [17] E. Sernesi: Geometria 1 e 2, Editrice Bollati Boringhieri, 1989. [18] M. Stoka: Corso di Geometria, Editrice Cedam, Padova, 1995. [19] A. Sheldon, Linear Algebra Done Right, Editrice Springer, 1997. [20] A. E. Taylor: Introduction to Functional Analysis, Editrice John Wiley & Sons, Inc., New York; Chapman & Hall, Ltd., London, 1958.

Indice dei simboli R Ri Ci A (A | B) rank(A) aij Rm,n O D(Rn,n ) I AB A−1 GL(n, R) tA T (Rn,n ) S(Rn,n ) A(Rn,n ) O(n) tr(A) det(A) Mij Aij adj(A) x kxk o −−→ AB L(x) 0 M B,B L(x, y) x·y x∧y

campo dei numeri reali i-esima riga di una matrice i-esima colonna di una matrice matrice dei coefficienti di un sistema lineare matrice completa di un sistema lineare rango della matrice A elemento della matrice A di posto ij spazio vettoriale delle matrici con m righe e n colonne, ad elementi reali matrice nulla sottospazio vettoriale delle matrici diagonali di ordine n matrice unit`a prodotto delle matrici A e B matrice inversa di A gruppo lineare generale reale trasposta della matrice A sottospazio vettoriale delle matrici triangolari superiori di ordine n sottospazio vettoriale delle matrici simmetriche di ordine n sottospazio vettoriale delle matrici antisimmetriche di ordine n gruppo ortogonale delle matrici ortogonali di ordine n traccia della matrice A determinante della matrice A minore dell’elemento aij della matrice A cofattore dell’elemento aij della matrice A matrice aggiunta della matrice A vettore norma del vettore x vettore nullo in V3 vettore con rappresentante il segmento orientato AB retta vettoriale individuata dal vettore x matrice del cambiamento di base da B a B 0 piano vettoriale individuato dai vettori x, y prodotto scalare di x e y prodotto vettoriale di x e y in V3

699

15 20 20 20 21 25 33 33, 141 34 33, 141 35 37 41 41 42 43, 141 44, 142 45, 142 45 55 56 64 65 67 76 76, 204 76 76 83 97, 175 83 101, 201 113

700

x∧y·z C −x Q Rn F(R) N R[x] Rn [x] N (A) W1 ∩ W2 W1 + W2 W1 + W2 + . . . + Wk W1 ⊕ W2 W1 ⊕ W2 ⊕ . . . ⊕ Wk L(v1 , v2 , . . . , vn ) dim(V ) R(A) C(A) Cn Cm,n A H(Cm,n ) AH(Cm,n ) SL(n, R) SO(n) W⊥ U (n) f (x) id M B,C (f ) f (H) im f f −1 (K) ker f

Indice dei simboli

prodotto misto di x, y e z in V3 campo dei numeri complessi opposto del vettore x in uno spazio vettoriale V campo dei numeri razionali spazio vettoriale delle n-uple di numeri reali spazio vettoriale delle funzioni reali di variabile reale insieme dei numeri naturali spazio vettoriale dei polinomi nella variabile x a coefficienti reali spazio vettoriale dei polinomi di grado minore o uguale a n, nella variabile x, a coefficienti reali nullspace della matrice A intersezione dei due sottospazi vettoriali W1 e W2 somma dei due sottospazi vettoriali W1 e W2 somma dei sottospazi vettoriali W1 , W2 , . . . , Wk somma diretta dei due sottospazi vettoriali W1 e W2 somma diretta dei sottospazi vettoriali W1 , W2 , . . . , Wk sottospazio vettoriale generato dai vettori v1 , v2 , . . . , vn dimensione di uno spazio vettoriale V spazio vettoriale delle righe della matrice A spazio vettoriale delle colonne della matrice A spazio vettoriale delle n-uple di numeri complessi spazio vettoriale delle matrici con m righe e n colonne, ad elementi complessi matrice coniugata di A ∈ Cm,n sottospazio vettoriale delle matrici hermitiane di ordine n sottospazio vettoriale delle matrici antihermitiane di ordine n gruppo lineare speciale reale di ordine n gruppo ortogonale speciale reale di ordine n complemento ortogonale del sottospazio vettoriale W gruppo unitario vettore immagine di x mediante l’applicazione lineare f identit`a matrice associata all’applicazione lineare f rispetto alle basi B e C immagine del sottospazio vettoriale H mediante l’applicazione lineare f sottospazio immagine controimmagine del sottospazio vettoriale K mediante l’applicazione lineare f nucleo dell’applicazione lineare f

120 136 135 136 137 137 138 138 140 141 143 144 144 145 145 149 156 166 166 194 195 195 196 196 217 217 219 232 235 236 240 248 249 249 253

Indice dei simboli

L(V, W ) g◦f SO(2) f |H f† V∗ V ∗∗ ψ tf U (n) Vλ P (λ) ϕ Bs (V, R) M B (ϕ) Q M B (Q) Q(V, R) W⊥ I Q|H d(A, B) \ (r, r0 ) \ (π, π0) d(P, r) e d(P, π) d(r, r0 ) [ (r, π)

701

spazio vettoriale delle applicazioni lineari da V a W composizione delle applicazioni lineari f e g gruppo ortogonale speciale di ordine 2 restrizione dell’applicazione lineare f al sottospazio vettoriale H aggiunta dell’applicazione lineare f spazio vettoriale duale di V spazio vettoriale biduale di V isomorfismo canonico tra uno spazio vettoriale V ed il suo spazio vettoriale biduale V ∗∗ trasposta dell’applicazione lineare f gruppo unitario autospazio relativo all’autovalore λ polinomio caratteristico forma bilineare su uno spazio vettoriale V spazio vettoriale delle forme bilineari simmetriche su V matrice associata alla forma bilineare simmetrica ϕ rispetto alla base B forma quadratica matrice associata alla forma quadratica Q rispetto alla base B spazio vettoriale delle forme quadratiche su V sottospazio vettoriale ortogonale al sottospazio vettoriale W rispetto ad una forma bilineare simmetrica insieme dei vettori isotropi restrizione della forma quadratica Q al sottospazio vettoriale H distanza tra i punti A e B angolo tra le due rette r e r0 angolo tra i due piani π e π 0 distanza del punto P dalla retta r eccentricit`a di una conica distanza del punto P dal piano π minima distanza tra le due rette sghembe r e r0 angolo tra la retta r ed il piano π

261 261 264 266 267 274 279 280 284 294 298 302 337 339 346 346 346 346 350 356 368 400, 510 422, 542 422, 542 427, 537 451 536 540 542

Indice analitico aggiunta di un’applicazione lineare, 268 aggiunta di una matrice quadrata, 68 angolo tra due piani, 556 angolo tra due rette nel piano, 431 angolo tra due rette nello spazio, 556 angolo tra due vettori in (V, · ), 207 angolo tra due vettori in V3 , 100 angolo tra una retta e un piano, 556 anomalia, 412 applicazione lineare identica, 236 applicazione lineare nulla, 236 applicazione lineare tra due spazi vettoriali, 235 applicazione lineare tra due spazi vettoriali complessi, 279 area del triangolo, 523 ascissa di un punto nel piano, 407 ascissa di un punto nello spazio, 522 asintoti dell’iperbole, 467 asse x nel piano, 405 asse x nello spazio, 521 asse y nel piano, 405 asse y nello spazio, 521 asse z , 521 asse centrale del fascio di circonferenze, 455 asse centrale del fascio di sfere, 573 asse del cono circolare retto, 485 asse delle ascisse nel piano, 405 asse delle ascisse nello spazio, 521 asse delle ordinate nel piano, 405 asse delle ordinate nello spazio, 521 asse delle quote, 521 asse di un cilindro circolare retto, 629 asse di un segmento, 409, 438 asse polare, 412, 579 asse radicale del fascio di circonferenze, 455

automorfismo di uno spazio vettoriale, 256 autospazio, 302 autovalore, 301 autovalore di un endomorfismo su uno spazio vettoriale complesso, 334 autovettore, 301 baricentro di n punti, 592 baricentro di un tetraedro, 523 baricentro di un triangolo, 408 base dello spazio vettoriale V3 , 88 base di Cn , 196 base di Cm,n , 196 base di Rn , 154 base di Rm,n , 154 base di Rn [x], 154 base di A(Rn,n ), 160 base di D(Rn,n ), 159 base di S(Rn,n ), 160 base di T (Rn,n ), 159 base di un piano vettoriale V2 , 88 base di una retta vettoriale V1 , 89 base di uno spazio vettoriale, 153 base duale, 278 base ortogonale in V3 , 107 base ortogonale in uno spazio vettoriale euclideo, 209 base ortogonale negativa, 117 base ortogonale positiva, 117 base ortonormale in V1 , 107 base ortonormale in V2 , 107 base ortonormale in V3 , 107 base ortonormale in in uno spazio vettoriale euclideo, 209 base ortonormale negativa, 117

702

Indice analitico

base ortonormale positiva, 117 base unitaria, 230

703

complemento ortogonale, 218 componenti di un vettore in V1 , 90 componenti di un vettore in V2 , 90 componenti di un vettore in V3 , 90 componenti di un vettore rispetto ad una base, 155 composizione di applicazioni lineari, 261 coniche come equazioni di secondo grado, 492 coniche come intersezione di un cono con un piano, 485 coniche come luoghi di punti nel piano, 486 coniche degeneri, 486 coniche in forma polare, 516 coniche scritta in forma canonica, 492 cono circolare retto, 485 cono isotropo, 361 cono nello spazio, 603 cono quadrico, 665 cono tangente ad una sfera, 614 cono–cuneo di Wallis, 680 controimmagine di un sottospazio vettoriale, 251 coordinate cartesiane di un punto nel piano, 405 coordinate cartesiane di un punto nello spazio, 522 coordinate polari generalizzate, 414 coordinate polari nel piano, 412 coordinate polari sferiche, 579 coseni direttori di un vettore in V3 , 110 coseni direttori di una retta nel piano, 421 coseni direttori di una retta nello spazio, 532 criteri di diagonalizzazione, 312 curva di Viviani, 632 curva simmetrica rispetto all’asse delle ascisse, 418 curva simmetrica rispetto all’asse delle ordinate, 417 curva simmetrica rispetto all’origine, 418 curve meridiane di una superficie di rotazione, 636

calcolo degli autovalori di una matrice quadrata, 305 calcolo della matrice inversa, 50, 67 cambiamento di base in V , 176 cambiamento di base in V3 , 97 cambiamento di base ortonormale in V3 e in V2 , 124 centro del fascio di rette nel piano, 435 centro dell’ellisse, 461 centro radicale di tre cinconferenze, 513 cilidro parabolico, 665 cilindro circolare retto, 629 cilindro ellittico, 665 cilindro iperbolico, 665 cilindro quadrico, 665 circonferenza degenere, 446 circonferenza immaginaria, 446 circonferenza nel piano, 409, 445 circonferenza nello spazio, 565 circonferenza passante per tre punti nel piano, 453 classi di equipollenza, 132 classificazione delle coniche attraverso il rango delle matrici A e B ad esse associate, 508 classificazione delle quadriche, 665 codominio di un’applicazione lineare, 235 coefficiente angolare di una retta nel piano, 427 coefficienti delle equazioni di un sistema lineare, 17 coefficienti di un’equazione lineare, 15 coefficienti di una combinazione lineare di vettori in V , 149 coefficienti di una combinazione lineare di vettori in V3 , 83 cofattore di un elemento di una matrice, 65 colatitudine, 579 colonna torsa, 689 decomposizione di un vettore, 80 combinazione lineare di vettori in V , 149 decomposizione spettrale, 314 combinazione lineare di vettori in V3 , 83 determinante di n vettori, 400

704

Indice analitico

determinante di una matrice quadrata, 56 diagonale principale di una matrice quadrata, 34 differenza di due vettori in V3 , 80 dimensione dello spazio duale di uno spazio vettoriale, 277 dimensione di V1 , 89 dimensione di V2 , 88 dimensione di V3 , 88 dimensione di un autospazio, 310 dimensione di uno spazio vettoriale, 157 direttrice del cono, 603 direttrice della parabola, 476 direttrice di un cilindro, 618 direttrice di una conica, 488 direttrici dell’ellisse, 461 direttrici dell’iperbole, 466 direzione di un vettore in V3 , 75 distanza di due punti nel piano, 408 distanza di un punto da un piano, 549 distanza di un punto da una retta nel piano, 434 distanza di un punto da una retta nello spazio, 551 distanza tra due punti nel piano, 408 distanza tra due punti nello spazio, 522 disuguaglianza di Cauchy–Schwarz per una forma bilineare simmetrica definita positiva, 368 disuguaglianza di Cauchy–Schwarz su uno spazio vettoriale euclideo, 206 disuguaglianza di Cauchy–Schwarz su uno spazio vettoriale euclideo complesso, 229 disuguaglianza di Minkowski per una forma bilineare simmetrica definita positiva, 368 disuguaglianza triangolare su uno spazio vettoriale euclideo, 206 disuguaglianza triangolare su uno spazio vettoriale euclideo complesso, 229 dominio di un’applicazione lineare, 235 doppio prodotto vettoriale, 134 dualit`a nel caso degli spazi vettoriali euclidei, 285 eccentricit`a dell’ellisse, 461

eccentricit`a dell’iperbole, 466 eccentricit`a di una conica, 488 elementi di una matrice, 33 elica circolare cilindrica, 687 elicoide retto, 687 ellisse in forma canonica, 461 ellisse, come luogo di punti nel piano, 459 ellissoide, 656 ellissoide di rotazione, 643 endomorfismi simultaneamente diagonalizzabili, 326 endomorfismo, 235 endomorfismo autoaggiunto, 269, 315 endomorfismo autoaggiunto nel caso di uno spazio vettoriale hermitiano), 335 endomorfismo diagonalizzabile, 312 endomorfismo diagonalizzabile nel caso complesso, 335 endomorfismo hermitiano, 291 endomorfismo nel caso complesso, 279 endomorfismo nullo, 236 endomorfismo simmetrico, 269 equazione caratteristica di un endomorfismo, 306 equazione caratteristica di una matrice quadrata, 306 equazione cartesiana del cono assegnati il vertice e una direttrice, 605 equazione cartesiana della retta nel piano, 422 equazione cartesiana di un cilindro, 620 equazione cartesiana di una superificie, 602 equazione della parabola in forma canonica, 477 equazione di una conica in forma canonica, 492 equazione lineare, 15 equazione lineare omogenea, 16 equazione matriciale, 46 equazione segmentaria del piano, 530 equazione vettoriale, 188 equazione vettoriale omogenea, 188 equazione vettoriale parametrica di un piano nello spazio, 527 equazione vettoriale parametrica di una retta nel piano, 421

Indice analitico

equazione vettoriale parametrica di una retta nello spazio, 531 equazioni del cambiamento di base, 177 equazioni del cambiamento di base in V3 , 98 equazioni di un’applicazione lineare, 242 equazioni parametriche del cilindro, 622 equazioni parametriche della retta nel piano, 421 equazioni parametriche di un piano nello spazio, 527 equazioni parametriche di una retta nello spazio, 532 equazioni parametriche di una superficie, 602 espressione matriciale di una forma bilineare simmetrica, 347 espressione matriciale di una forma quadratica, 351 espressione polinomiale di una forma bilineare simmetrica, 345 espressione polinomiale di una forma quadratica, 351 fasci di circonferenza nel piano, 453 fascio di sfere, 574 fascio improprio di piani, 545 fascio improprio di rette nel piano, 435 fascio proprio di piani, 546 fascio proprio di rette nel piano, 435 forma p–lineare, 398 forma p-lineare, 398 forma p-lineare antisimmetrica, 398 forma bilineare, 341 forma bilineare degenere, 358 forma bilineare complesso, 344 forma bilineare non degenere, 358 forma bilineare simmetrica, 343 forma canonica di una forma quadratica, 370 forma lineare, 276 forma lineare su uno spazio vettoriale complesso, 279 forma normale di una forma quadratica, 373 forma polare di una forma quadratica, 351 forma quadratica, 350

705

forma quadratica associata ad una forma bilineare simmetrica, 350 forma quadratica associata alla quadrica, 652 forma quadratica definita negativa, 365 forma quadratica definita positiva, 365 forma quadratica indefinita, 365 forma quadratica ridotta in forma canonica, 370 forma quadratica ridotta in forma normale, 373 forma quadratica semidefinita positiva, 365 formula di Grassmann, 163, 186 funzione nulla, 137 funzione omogenea di grado k , 606 fuochi dell’ellisse, 459 fuochi dell’iperbole, 465 fuoco della parabola, 476 fuoco di una conica, 488 generatrice del cono, 603 generatrice di un cilindro, 618 gruppo commutativo, 36 gruppo delle rotazioni di V2 , 265 gruppo lineare speciale, 217 gruppo ortogonale, 265 gruppo ortogonale speciale, 217 gruppo unitario, 232 identit`a , 236 identit`a di Jacobi, 134 identit`a di Lagrange, 134 immagine di un sottospazio vettoriale mediante un’applicazione lineare, 248 immagine di un sottospazio vettoriale mediante un’applicazione lineare, 248 insieme libero di vettori, 152 insieme libero di vettori in V3 , 84 intersezione di due sottospazi vettoriali, 143 iperbole equilatera, 471 iperbole in forma canonica, 466 iperbole, come luogo di punti nel piano, 465 iperboloide di rotazione a due falde, 644 iperboloide di rotazione ad una falda, 639 iperpiano vettoriale, 178 isometria, 291

706

Indice analitico

isomorfismo canonico tra V e V ∗∗., 282 isomorfismo canonico tra uno spazio vettoriale ed il suo duale, 281 isomorfismo tra due spazi vettoriali, 256

matrici hermitiane, 197 matrici ortogonali, 46 matrici simili, 247 matrici simmetriche, 45 matrici triangolari inferiori, 44 la superficie della volta a sbieco, 685 matrici triangolari superiori, 44 legge d’inerzia di Sylvester, 377 matrici uguali, 35 lemma di Steinitz, 156, 187 matrici unitarie, 231 longitudine, 579 metodo degli scarti successivi, 158 luogo geometrico di punti nel piano, 409 metodo di riduzione di Gauss, 17 metodo di riduzione di Gauss–Jordan, 26 matrice associata ad un’applicazione lineare, 240 minima distanza tra due rette sghembe, 551 matrice associata ad una forma bilineare sim- minore di ordine k , 65 metrica, 345 minore di un elemento di una matrice, 65 matrice associata ad una forma quadratica, 351 minori di Nord–Ovest, 394 matrice associata alla quadrica, 652 minori principali, 394 matrice colonna, 34 molteplicit`a di un autovalore, 307 matrice completa, 20 norma del vettore x in V3 , 76 matrice completa di un sistema lineare (A , norma di un vettore in (V, ·), 204 , B)21 norma di un vettore in V3 , 76 matrice con m righe e n colonne, 33 norma di un vettore su uno spazio vettoriale eumatrice coniugata, 196 clideo complesso, 228 matrice dei coefficienti di un sistema lineare A, nucleo di un’applicazione lineare ker f , 253 20, 21 nucleo di una forma bilineare simmetrica, 357 matrice dei coefficienti e temini noti, 20 nullspace, 141 matrice del cambiamento di base, 176 matrice del cambiamento di base in V3 , 97 omomorfismo tra due spazi vettoriali, 235 matrice diagonale, 34 opposto di un vettore in V , 135 matrice diagonalizzabile, 312 opposto di un vettore in V3 , 78 matrice diagonalizzabile nel caso complesso, 335 ordinata di un punto nel piano, 407 matrice inversa, 41 ordinata di un punto nello spazio, 522 matrice normale, 337 ordine di una matrice quadrata, 34 matrice nulla, 34 origine del riferimento cartesiano, 405 matrice quadrata di ordine n, 34 matrice ridotta per colonne, 169 parabola, come luogo di punti nel piano, 476 matrice ridotta per righe, 23 paraboloide di rotazione, 644 matrice riga, 34 paralleli di una superficie di rotazione, 636 matrice trasposta, 42 parametri direttori di una retta nel piano, 421 matrice unit`a , 35 parametri direttori di una retta nello spazio, 532 matrici simultaneamente diagonalizzabili, 327 perpendicolare comune a due rette sghembe, 551 matrici anti-hermitiane, 197 piani coordinati, 522 matrici antisimmetriche, 46 piano esterno ad una sfera, 560 piano passante per tre punti, 529 matrici associate ad una conica, 493

Indice analitico

piano radicale, 573 piano secante una sfera, 560 piano tangente ad una quadrica in un suo punto, 691 piano tangente ad una sfera, 560 piano vettoriale in V3 , 76, 83 polinomio caratteristico di una matrice quadrata, 306 polinomio caratteristico in caso complesso, 334 polinomio omogeneo, 345 polo, 579 polo del riferimento polare nel piano, 412 posizione reciproca di due circonferenze nel piano, 452 posizione reciproca di due rette nello spazio, 543 posizione reciproca di due sfere, 570 posizione reciproca tra retta e piano, 541 potenza di un punto rispetto ad una circonferenza, 512 potenza di un punto rispetto ad una sfera, 594 primo teorema di Laplace, 66 processo di ortonormalizzazione di Gram– Schmidt, 212 prodotto di matrici, 38, 262 prodotto di un numero reale per un vettore in V3 , 82 prodotto di un numero reale per un’applicazione lineare, 261 prodotto di un numero reale per una forma bilineare simmetrica, 343 prodotto di un numero reale per una matrice, 36 prodotto di uno scalare per un vettore in V , 136 prodotto hermitiano su uno spazio vettoriale complesso, 226 prodotto misto x ∧ y · z di tre vettori x, y e z in V3 , 120 prodotto scalare di due vettori in V3 , 101 prodotto scalare su uno spazio vettoriale reale, 201 prodotto vettoriale x ∧ y di due vettori x ey in V3 , 113 proiezione di una curva da un punto su un piano, 616

707

proiezione su un sottospazio vettoriale, 237 proiezioni su sottospazi vettoriali, 237 punti base di un fascio di circonferenze, 456 punti imamginari nel piano, 441 punto base di un fascio di circonferenze, 456 punto medio di un segmento, 408 punto medio di un segmento nel piano, 408 punto regolare di una quadrica, 691 punto singolare di una quadrica, 691 quadrica, 652 quadriche non proprie o non degeneri o singolari, 656 quadriche proprie o non degeneri o non singolari, 656 quota di un punto nello spazio, 522 raggio vettore, 412, 579 rami dell’iperbole, 467 rango di una forma bilineare simmetrica, 359 rango di una matrice, 25, 50, 167 rango di una matrice ridotta per colonne, 170 rango di una matrice ridotta per righe, 24 rappresentante di un vettore in V3 , 76 regola degli sdopppiamenti per la retta tangente ad una conica, 519 regola dei segni di Cartesio, 378 restrizione di un’applicazione lineare, 266 restrizione di una forma quadratica ad un sottospazio vettoriale, 367 retta esterna ad una circonferenza nel piano, 447 retta esterna ad una sfera, 563 retta immaginaria coniugata nel piano, 441 retta immaginaria nel piano, 441 retta nel piano, 420 retta nel piano passante per un punto e ortogonale ad un vettore, 422 retta nel piano passante per un punto parallela ad un vettore, 421 retta per due punti distinti, 424 retta per un punto parallela ad un vettore, 421 retta per un punto perpendicolare ad un vettore, 422

708

Indice analitico

retta reale nel piano, 441 retta secante una circonferenza nel piano, 449 retta secante una sfera, 565 retta simmetrica di una retta rispetto ad un’altra retta, nel piano, 440 retta tangente ad una circonferenza in un suo punto nel piano, 447 retta tangente ad una sfera, 563 retta vettoriale in V3 , 76, 83 rette bisettrici nel piano, 439 rette coincidenti nello spazio, 543 rette complanari, 543 rette incidenti nello spazio, 543 rette parallele nello spazio, 543 rette sghembe, 543 riferimento cartesiano nel piano, 405 riferimento cartesiano nello spazio, 521 riferimento polare nel piano, 412 riflessione rispetto ad un iperpiano vettoriale, 297 rotazione in V2 , 264 rototraslazione nel piano, 501

sistema lineare compatibile, 17 sistema lineare incompatibile, 17 sistema lineare omogeneo, 17 sistema lineare ridotto, 23 sistemi lineari equivalenti, 17 sistemi lineari in forma matriciale, 40 soluzione di un sistema lineare, 17 soluzione di un’equazione lineare, 15 soluzione di un’equazione vettoriale, 188 somma di k sottospazi vettoriali, 144 somma di applicazioni lineari, 260 somma di due forme bilineari simmetriche, 343 somma di due sottospazi vettoriali, 144 somma di matrici, 35 somma di vettori in V , 135 somma di vettori in V3 , 77 somma diretta di k sottospazi vettoriali, 145, 147 somma diretta di due sottospazi vettoriali, 145, 146 sottogruppo, 139 sottospazi vettoriali improprii, 139 sottospazi vettoriali ortogonali rispetto ad una scalari in V , 136 forma bilineare simmetrica, 354 schiere di rette del paraboloide iperbolico, 676 sottospazi vettoriali supplementari, 146 secondo teorema di Laplace, 67 sottospazio immagine im f , 249 segmenti orientati equipollenti, 131 sottospazio invariante, 265 segmento orientato, 76 sottospazio ortogonale ad un sottospazio vettosegnatura di una forma quadratica, 378 riale rispetto ad una forma bilineare simsemipiano polare, 579 metrica, 354 sezione normale di un diedro, 556 sottospazio vettoriale, 139 sfera, 559 sottospazio vettoriale dei polinomi Rn [x], 140 sfere secanti, 570 sottospazio vettoriale delle matrici antisimmesfere tangenti, 570 triche, 142, 146 significato geometrico del prodotto scalare in V3 , sottospazio vettoriale delle matrici diagonali, 141 104 sottospazio vettoriale delle matrici simmetriche, significato geometrico della norma del prodotto 142, 146 vettoriale, 114 sottospazio vettoriale delle matrici triangolari susimilitudine, 298 periori, 141 simmetria ortogonale rispetto ad un iperpiano sottospazio vettoriale finitamente generato, 150 vettoriale, 297 span di v1 , v2 , . . . , vk , 149 sistema di generatori, 149 spazi vettoriali isomorfi, 256 sistema lineare, 16 spazio vettoriale Cn , 195

Indice analitico

709

spazio vettoriale Cm,n , 196 traslazione degli assi cartesiani nello spazio, 581 spazio vettoriale Q, 137 trasposta di un’applicazione lineare, 286 spazio vettoriale Rn , 137 unione di due sottospazi vettoriali, 143 spazio vettoriale F(R), 137 ∗∗ spazio vettoriale biduale V , 281 verso di un vettore in V3 , 75 spazio vettoriale complesso, 136 versore in V3 , 76 spazio vettoriale dei polinomi R[x], 138 del cono, 603 spazio vettoriale delle applicazioni lineari L(V, W vertice ), vertice della parabola, 477 261 spazio vettoriale delle colonne di una matrice, vertici dell’ellisse, 461 vertici dell’iperbole, 466 167 −−→ spazio vettoriale delle matrici con m righe e n vettore AB con rappresentante il segmento orientato AB , 76 colonne Rm,n , 137 spazio vettoriale delle righe di una matrice, 166 vettore controimmagine di un vettore mediante un’applicazione lineare, 235 spazio vettoriale duale di uno spazio vettoriale vettore immagine di un vettore mediante un’apcomplesso, 279 ∗ plicazione lineare, 235 spazio vettoriale duale V , 276 vettore in V3 , 76 spazio vettoriale euclideo, 201 vettore isotropo, 360 spazio vettoriale euclideo complesso, 227 vettore nullo, 136 spazio vettoriale finitamente generato, 150 vettore nullo o di V3 , 76 spazio vettoriale reale, 135 vettore proiezione ortogonale su un piano vettosuperfici di rotazione, 636 riale in V3 , 115 superficie rigata, 649 vettore proiezione ortogonale su un vettore in V3 , 104 teorema del completamento della base, 160 vettori colonna di una matrice, 167 teorema del rango, 167, 190, 256 vettori complanari in V3 , 78 teorema dell’esistenza di una base, 156 vettori concordi in V3 , 78 teorema della dimensione, 156 vettori discordi in V3 , 78 teorema di Cayley–Hamilton, 331 vettori in V , 136 teorema di Cramer, 70 vettori in V3 , 132 teorema di Gauss–Lagrange, 376 vettori linearmente dipendenti in V3 , 84 teorema di nullit`a pi`u rango, 170, 172 vettori linearmente dipendenti in uno spazio vetteorema di Pitagora, 206 toriale, 152 teorema di Pitagora nel caso hermitiano, 229 vettori linearmente indipendenti in V3 , 84 teorema di Rouch´e–Capelli, 25, 189 teorema fondamentale delle applicazioni linea- vettori linearmente indipendenti in uno spazio vettoriale, 152 ri, 238 vettori ortogonali in (V, ·), 207 teorema spettrale, 314 vettori ortogonali in V3 , 100 termine noto di un’equazione lineare, 15 traccia di una matrice quadrata, 55 vettori ortogonali in uno spazio vettoriale hermitiano, 230 trasformazione lineare tra due spazi vettoriali, 235 vettori ortogonali rispetto ad una forma bilineare simmetrica, 353 trasformazione unitaria, 298

710

vettori paralleli in V3 , 78 vettori riga di una matrice, 166 volume del tetraedro, 523

Indice analitico

Related Documents


More Documents from "Julian"