Transformaciones Lineales

  • Uploaded by: Ana Irene Ortiz Peralta
  • 0
  • 0
  • January 2021
  • PDF

This document was uploaded by user and they confirmed that they have the permission to share it. If you are author or own the copyright of this book, please report to us by using this DMCA report form. Report DMCA


Overview

Download & View Transformaciones Lineales as PDF for free.

More details

  • Words: 3,027
  • Pages: 39
Loading documents preview...
MATEMATICAS IV

TRANSFORMACIONES LINEALES UNIDAD V Alumno: Ana Irene Ortiz Peralta Catedrático: Ing. Jesús López Ortega

ING. CIVIL Página 1 de 39

INDICE 5.1 Definición de transformación lineal y sus propiedades.

3

5.2 Ejemplos de transformaciones lineales (reflexión, dilatación, contracción, rotación)

7

5.3 Definición de núcleo o kernel, e imagen de una transformación lineal.

13

5.4 La matriz de una transformación lineal y representación matricial de una transformación lineal.

17

5.5 Transformaciones y sistemas de ecuaciones lineales.

23

5.6 Álgebra de las transformaciones lineales.

30

5.7 Aplicaciones de las transformaciones lineales.

33

Bibliografía

39

Página 2 de 39

5.1 DEFINICIÓN DE TRANSFORMACIÓN LINEAL Y SUS PROPIEDADES. Las transformaciones lineales desempeñan un papel muy importante en matemáticas, física, ingeniería, procesamiento de imágenes, graficas en computadora y muchas otras áreas de la ciencia y la vida diaria. Las transformaciones lineales son mapeos de importancia fundamental en el álgebra lineal y en sus aplicaciones. Son transformaciones entre espacios vectoriales que conservan la suma vectorial y la multiplicación por escalar. Sean V y W dos espacios vectoriales posiblemente iguales. Una transformación lineal o mapeo lineal de V a W es una función T: V → W* tal que para todos los vectores u y v de V y cualquier escalar c: a) T(u + v) = T(u) + T(v) b) T(c u) = c T(u) *Escribimos T: V → W para indicar que T transforma V en W

Las transformaciones lineales se llaman con frecuencia operadores lineales. También, las funciones que satisfacen a) y b) se denominan funciones lineales. En R2 definamos una función T por la fórmula T( )

(

) geométricamente, T

toma un vector en R2 y lo transforma en su reflexión con respecto al eje x. una vez que hayamos dado la definición básica, veremos que T es una transformación lineal de R2 en R2. Página 3 de 39

Propiedades de las transformaciones lineales Teorema 3: Sea T: V → W una transformación lineal. Entonces para todos los vectores v1, v2,…,vn en V y todos los escalares c1,c2,…,cn: T(c1v1+c2v2+…+cnvn)= c1Tv1+c2Tv2+…+cnTvn Demostración: Si T es lineal, entonces T(c1v1 + C2v2)= T(c1v1) + T(c2v2)=c1T(v1)+ c2T(v2)… y asi sucesivamente. Así, las transformaciones lineales mapean una combinación lineal de vectores en la misma combinación lineal de las imágenes de esos vectores.

Teorema 4: sea T: V → W una transformación lineal. Entonces 1. T(0)= 0……. Esta transformación lineal mapea a todos los vectores de V en 0, en W se le llama transformación cero. 2. T(u-v)= T(u)- T(v) Demostración: 1.- T(0)= T(0v)= 0T(v)=0 2.-…haciendo que c1=1 y c2=-1 T(u-v)= T(1u+(-1)v)= 1T(u)+ (-1)T(v)= T(u) – T(v)

Página 4 de 39

Teorema 5: sea T: V → W una transformación lineal y sea B= {v1,v2,…vn} el generador de V. entonces, el conjunto T(B)= {T(v1),T(v2)…,T(vn)} genera el contradominio de T. Demostración: Sea W ∈ R Entonces existe un v que pertenece a V tal que T(v)=W. como B genera a V, hay escalares c tales que v=c1v1. Entonces W= T(v)= T(c1v1+…+cnvn)=c1T(v1)+…+cnT(vn) de aquí que W sea una combinación lineal de T(B)

Ejemplo

Página 5 de 39

Ejemplo

Página 6 de 39

5.2 EJEMPLOS DE TRANSFORMACIONES LINEALES (REFLEXIÓN, DILATACIÓN, CONTRACCIÓN, ROTACIÓN)

Homotecia Para un escalar fijo c. T: V → W es lineal. T(v)= cv Sea u y w ∈ V y r ∈ R. T es lineal porque T(u+w)= c(u + w)= cu + cw= T(u) + T(w) T(ru)= c(ru)= rT(u)

Si c > 1, la homotecia es una dilatación, y su efecto sobre v es estirarlo en un factor de c. Si 0 < c < 1, la homotecia es una contracción, y su efecto sobre v es encogerla en un factor de c. si c <0, esta transformación invierte la dirección de v.

Ejemplos:

Página 7 de 39

Ahora bien, si T: R2

R2 definida por

( )

(

). Es fácil verificar que T es 2

lineal y que, geométricamente, T toma un vector en R y lo refleja con respecto al eje y, a esto se le llama reflexión.

Página 8 de 39

Ejemplo:

Página 9 de 39

Transformación de rotación Supongamos que el vector

( ) en el plano xy gira un ángulo ϴ en la dirección

contraria a las manecillas del reloj.

Página 10 de 39

Sea

( ) el vector girado. Entonces, como en la figura, si r denota la longitud

de v (la cual no cambia con la rotación),

Entonces, de (3) y (4), vemos que

( )

( ).

La transformación lineal T: R2 R2 definida por Tv= Aϴv, donde Aϴ está dada por (5), se llama transformación de rotación.

Ejemplo:

Página 11 de 39

Página 12 de 39

5.3 DEFINICIÓN DE NÚCLEO O KERNEL, E IMAGEN DE UNA TRANSFORMACIÓN LINEAL. Sean V y W espacios vectoriales y sea T: V → W Entonces:

una transformación lineal.

El kernel o núcleo de T, denotado como KerT, esta dado por: KerT{v ∈ V: Tv=0 ∈ W}

La imagen de T, denotada como R(T), esta dada por: R(T)={w ∈ W: w=Tv para alguna v ∈ V}

Sea T: V → W

una transformación lineal. Entonces 1.- ker(T) es un subespacio de V 2.- R(T) es un subespacio de W

La propiedad fundamental del núcleo y del contradominio es que ambos son espacios vectoriales. La dimensión del núcleo se llama nulidad de T. la dimensión del contradominio se llama rango de T.

Demostración: Página 13 de 39

En caso especial en el que la transformación lineal es matricial, se cumple lo siguiente: Sea T: Rn⟶Rm es una transformación matricial cuya matriz estándar es A. Entonces:

Demostración: Puesto que T(x)= AX, entonces T(x)= 0 si y solo si Ax=0. De aquí, Ker(T)= V(A). igualmente, si b esta en Rm, entonces hay un x en Rn tal que T(x)=b si y solo si Ax=b. En consecuencia, R(T)= col(A). Las partes de las nulidades y los rangos se ven a continuación. El teorema de la dimensión Si T: V⟶ W es una transformación lineal de un espacio vectorial V de dimensión finita a un espacio vectorial W, entonces. Nulidad(T) + Rango(T)= dim(V)

Página 14 de 39

Ejemplo: Calcule las bases para el núcleo y el contradominio y determine la nulidad y el rango de T: R4⟶R3, T(x,y,z,w)= (x+3z,y - 2z,w)

Solución: De acuerdo con el teorema, basta expresar a T como transformación matricial y obtener las bases para las columnas y el espacio nulo de su matriz estándar A. A se expresa con:

Y está en forma escalonada reducida por operaciones de renglón. Por consiguiente, los vectores {(1,0,0), (0,1,0), (0,0,1)} forman una base para Col(A)= R(T)= R3. Por otra parte {-3,2,1,0} es una base para V(A)= Ker(T). De modo que el rango de T es 3 y la nulidad es 1. Ejemplo: Dada la transformación lineal

Determinar la imagen de

Página 15 de 39

Solución: Si recordamos el proceso que usamos en el cálculo en una variable, determinemos cuales vectores tienen preimagen. Para ello, sean tales que: T(x;y;z) = (a;b;c) (2x-y+z;x-y+z;x) = (a;b;c) Igualando coordenadas tenemos el siguiente sistema

Ahora, resolvamos el sistema buscando la matriz asociada a él, y determinando su escalonada

luego, un vector tiene preimagen si y sólo si el sistema el sistema es consistente (no necesitamos que la solución sea única), lo cual es equivalente a escribir

Por lo tanto, Im(T) = {(a;b;c) /((x;y;z) ((T(x;y;z)=(a;b;c)) = {(a;b;c) /a-b-c=0} = <(1;1;0);(1;0;1)>:

Página 16 de 39

5.4 LA MATRIZ DE UNA TRANSFORMACIÓN LINEAL Y REPRESENTACIÓN MATRICIAL DE UNA TRANSFORMACIÓN LINEAL. Sea T: V → W una transformación lineal entre dos espacios vectoriales V y W de dimensiones finitas. Sea B= {v1……….,vn} una base de V y B’= {v’1,……,v’m} una base de W. la matriz A m x n cuyas columnas son:

Es la única matriz que satisface

Para todo v ∈ V Demostración: Como B genera a V, hay escalares c1,…,cn tales que v= c1v1+…+cnvn. Así

Porque T es lineal, por consiguiente:

Página 17 de 39

Teorema: Toda transformación lineal T: Rn⟶Rm es una transformación matricial. Demostración: Sean B y B’ las bases estándar de Rn y Rm, respectivamente. Entonces hay una matriz A tal que

Para todo v ∈ Rn. Pero como T(v)=[T(v)]B’ y A[v]B= Av para las bases estándar, tenemos T(v)= Av Por consiguiente, T es una transformación matricial cuya matriz estándar es A.

Página 18 de 39

Ejemplos:

Solución:

Página 19 de 39

Ejercicios

Página 20 de 39

Página 21 de 39

Página 22 de 39

5.5 TRANSFORMACIONES Y SISTEMAS DE ECUACIONES LINEALES.

Una transformación lineal es un conjunto de operaciones que se realizan sobre un vector para convertirlo en otro vector. En ocasiones trabajar con vectores es muy sencillo ya que pueden ser fácilmente interpretados dentro de un contexto gráfico, lamentablemente no siempre ocurre y es necesario transformar a los vectores para poderlos trabajar más fácilmente. Por otra parte, trabajar con sistemas lineales es mucho más sencillo que con sistemas no lineales, ya que se puede utilizar una técnica llamada superposición, la cual simplifica de gran manera gran variedad de cálculos, por lo que es de gran interés demostrar que un proceso puede ser reducido a un sistema lineal, lo cual solo puede lograrse demostrando que estas operaciones forman una transformación lineal.

Los sistemas de ecuaciones lineales son ecuaciones que tienen n incógnitas, las cuales podemos representar en una notación matricial, se puede utilizar una técnica llamada superposición, la cual simplifica de gran manera gran variedad de cálculos, por lo que es de gran interés demostrar que un proceso puede ser reducido a un sistema lineal, lo cual solo puede lograrse demostrando que estas operaciones forman una transformación lineal. A partir de una ecuación lineal podemos hacerle las transformaciones lineales para tener como resultado escalares.

Página 23 de 39

Definición Sea (V,K) / dimV = n y sea BV = {e1, ......, en}. Sean {e1, ......, en} y {a1, ......,an} ⊂ V / ai = (ai1, ......, ain). El número máximo de vectores LI es el rango de los {a1, ......,ak} = dim [L({a1, ......,ak})] . O sea:

Proposición Dada la matriz A, el rangA es igual al mayor orden de los menores con det≠ 0.

Teorema de Rouché-Frobenious. Sean (V,K) / dimV = n y {a1, ......,ar} ∈ V v ∈ L(a1, ......,ar) ⇔v(a1, ......,ar) = v(a1, ......, ar, v) Consecuencias: Sea el sistema

decimos que el sistema es incompatible (sin solución) si v ∉ L(a1, ......,ar) ⇔ rangA ≠ rangB, donde:

el sistema

Página 24 de 39

es compatible si

Observación: Si rangA es máximo e igual a la dimensión de V entonces el sistema es compatible determinado (existe una única solución). Si rangA es menor que la dimensión del espacio entonces el sistema es compatible pero existen muchas soluciones. Otro punto de vista es el siguiente: Consideremos el sistema

que podemos reescribir de la forma

La solución del sistema es un conjunto de escalares (a1,…an)/ ∑aijaj=bj. Sea ahora f: V⟶ W tal que dimV= n y dimW=p tal que Bv= {e1,…en} y Bw= {u1,…up} tal que

Las ecuaciones de f respecto de Bv son

Teorema de Rouche- Frobenious (2). El sistema de ecuaciones lineales tiene solución si el vector Página 25 de 39

Teniendo en cuenta que los vectores * ( )+ constituyen un sistema de generadores de Imf y puesto que dim[imf]= rangA si llamamos B a la matriz ampliada, entonces el teorema de R- F dice: Ǝ! Solución si rangA= rangB Las ecuaciones del sistema homogéneo representan las ecuaciones del kerf. si el sistema es compatible, el conjunto de sus soluciones es el conjunto f -1(b) i.e. El conjunto de todas las soluciones del sistema es:

Entonces el sistema es compatible si

Regla de cramer Sistema en el que el número de ecuaciones coincide con el de incógnitas/ detA≠ 0 Sea: Como detA≠ 0 entonces ƎA-1

Página 26 de 39

Ejemplo 1 Resolver el sistema

Sea

Página 27 de 39

Ejemplo 2

Página 28 de 39

Página 29 de 39

5.6 ÁLGEBRA DE LAS TRANSFORMACIONES LINEALES.

A una transformación lineal de un espacio vectorial en sí mismo se le llama operador lineal. Los operadores lineales juegan (como veremos mas adelante) un papel muy importante en el estudio de las transformaciones lineales, el conjunto de todos los operadores lineales de c se denotara por Endc debido a que los operadores lineales también son conocidos como endomorfismos de un espacio vectorial. Por definición tenemos Endc= Mor(c,c). la principal diferencia entre las transformaciones lineales y los operadores lineales es que la operación de composición es una operación interna en espacio vectorial Endc. Esto quiere decir que si componemos 2 operadores, obtendremos otro. Si un espacio vectorial cualquiera (el cual ya trae definidos la suma y el producto por escalares) tiene otra operación binaria que cumple los axiomas en el recuadro a la derecha, entonces, se le llama álgebra. Observese que los primeros 3 axiomas los podemos resumir en uno: la suma de vectores y definen un anillo en el espacio vectorial. El cuarto axioma lo que quiere decir es que para cualquier escalar λ y cualesquiera vectores a y b se cumple que λa*b=λb(a*b). Alg1) *es asociativa Alg2) *es distributiva con respecto a + Alg3) *tiene elemento neutro Alg4) *conmuta con el producto por escalares

Para ver que Endc es un álgebra solo nos queda comprobar que la composición tiene elemento neutro. Pero esto es obvio ya que la función identidad cumple que

f*1=1f=f

Página 30 de 39

O sea, es el neutro para la composición. Hemos demostrado el siguiente resultado: El espacio vectorial Endc en un algebra con respecto a la composición Hay dos álgebras importantes que deben ser muy conocidas por el lector. Primero, el conjunto de los polinomios con coeficientes reales R[x] es un espacio vectorial sobre R. segundo, los números complejos son un espacio vectorial de dimensión sobre los reales pero además sabemos multiplicar números complejos. Un álgebra se le llama conmutativa si el producto de vectores es conmutativo. El álgebra de los números complejos y el álgebra de polinomios sobre un campo son conmutativas. Las algebras Endc casi nunca son conmutativas (salvo en dimensión). Por ejemplo en el plano cartesiano R2 la rotación f en 45° y la reflexión g en el eje y son operadores lineales.

Ejemplos:

Página 31 de 39

Página 32 de 39

5.7 APLICACIONES DE LAS TRANSFORMACIONES LINEALES.

Transformaciones afines y gráficas de computadora

Definiciones Sea A una matriz m x n. una transformación afín T: Rn⟶Rm tiene la forma T(x)= Ax + b Para algún vector m fijo b. esta transformación es no lineal si b≠ 0. Por lo anterior, T(0)≠ 0. En el caso especial en que m= n y A sea la matriz I de identidad, n x n, entonces T(x)= Ix + b= x + b A esta T se le llama traslación por b. Una traslación por un vector b≠ 0 desplaza a una figura sumando b a todos sus puntos. Una transformación afín es una transformación lineal seguida de una traslación. La figura (a) muestra la imagen S’ del cuadrado S después de la traslación por (2,-1) y la figura (b) muestra la transformación afín.

T consiste en una rotación de 45° seguida de una traslación por (-2,0). Las transformaciones afines con n= m= 2 y n=m=3 son muy útiles para las graficas en computadora. Página 33 de 39

Ejercicio 1 Obtenga la transformación afín T que convirtió la imagen izquierda de la figura en la de la derecha, puesto que se usaronlos siguientes puntos: (1,0), (0.7,0.7), (0,1), (-0.7,0.7), (-1,0), (-0.7, -0.7), (0,-1), (0.7,-0.7), (1,0) Cuyas respectivas imágenes fueron: (2,-1), (2.05, -0.3), (1.5, 0), (0.65,-0.3), (0,-1), (0.05,-1.7), (0.5,-2),(1.35,-1.7), (2,-1)

Página 34 de 39

Por lo anterior, T es el deslizamiento en 0.5 a lo largo del eje x seguido de la traslación por (1,-1).

Tranformaciones afines y fractales En los últimos años ha surgido un área nueva en las matemáticas, llamada geometría fractal. Aunque esta geometría tiene sus raíces en varias contribuciones importantes como las de Cantor, Sierpinski, von Koch, Peano y otros matemáticos del siglo XIX, no fue sino hasta finales de la década de los 60’s que llego a ser un campo nuevo. Esto se debio al trabajo precursor de Benoit Mandelbrot de la IBM Corporation, y a la disponibilidad de computadora rapidas. La palabra Fractal, introducida por Mandelbrot, se usa para describir figuras con infinitas repeticiones d ela misma forma. A continuación describiremos 2 fractales, el triángulo de Sierpinski y un fractal que se ve como un abeto (es un análogo del helecho por M. Barnsley). M. Barnsley observó que pueden obtenerse muchos objetos “fractaloides” graficando iteraciones de ciertas transformaciones afines.

Página 35 de 39

1. El Triángulo de sierpinski Sean f1, f2, f3 las 3 transformaciones afines de R2 a R2 expresadas por

El triángulo de Sierpinski puede generarse como sigue: comenzaremos con un triángulo, por ejemplo, aquel cuyos vértices están en (0,0), (1,0) y elegimos un punto dentro de él.

Y lo graficamos, digamos, en el punto (

). A continuación seleccionamos al azar

una de las transformaciones f1, f2 0 f3, digamos f1, y se calcula y grafica fi(

).

Partiremos de este nuevo punto y repetiremos el proceso tanto como lo deseemos. La imagen que resulta es un “objeto fractal” que parece un triángulo con agujeros triangulares (si se grafican bastantes puntos).

Página 36 de 39

2. Un abeto parecido al helecho de Barnsley Sean f1, f2,f3,f4 las 4 transformaciones afines de R2 a R2 representadas por

El fractal parecido a un abeto puede generarse como sigue: se elige y grafica cualquier punto, por ejemplo (5,5). A continuación se selecciona aleatoriamente una de las funciones f1, f2,f3 o f4, digamos fi y se calcula y grafica fi(5,5). Haciendo que éste sea un nuevo punto de partida, se repite el proceso. La imagen que resulta parece una parte de un abeto.

Página 37 de 39

A continuación describiremos el procedimiento que generó ambos fractales. Este procedimiento produce una imagen fractal para algunos conjuntos de transformaciones afines. Algoritmo:

Página 38 de 39

BIBLIOGRAFIA



Grossman, Stanley, ALGEBRA LINEAL 2ª edición,



Nakos, George. ÁLGEBRA LINEAL CON APLICACIONES, Edit. Thomson.



Belinchón, José A., notas del álgebra lineal Elemental.



Williams, Garet., Transformaciones lineales con aplicaciones (4ª Edicion), Edit. McGraw-Hill.

Página 39 de 39

Related Documents


More Documents from "Daniel Tenezaca Bejarano"