63
INDICE 1. VALORES PROPIOS Y VECTORES PROPIOS 1.1 Introducción 1.2 Objetivos 1.3 Breve Historia de los valores propios y vectores propios 1.3.1 Biografías de personajes importantes 1.3.1.1 Augustin Louis Cauchy 1.3.1.2 Joseph Louis de Lagrange 1.3.1.3 Leopold Kronocker 1.3.1.4 Charles Hermite 1.3.1.5 Leonhard Euler 1.3.1.6 Pierre Simón Laplace 1.3.1.7 Jean Le Rond D’Alembert 1.3.1.8 Charles Sturm 1.4 Eigenvalores y Eigenvectores 1.4.1 Definición de Eigenvalores y Eigenvectores 1.4.2 Subespacios propios 1.4.3 Ecuación característica de A 1.4.4 Eigenvalores de matrices triangulares 1.4.5 Determinación de bases para Eigenespacios 1.4.6 Eigenvalores de las potencias de una matriz 1.4.7 Eigenvectores e invertibilidad 1.4.7.1 Demostración 1.4.8 Ejemplos 1.4.9 Bibliografía Tema 1 1.5 Diagonalización de Matrices 1.5.1 Definición de matriz diagonalizable 1.5.2 Procedimiento para diagonalizar una matriz 1.5.3 Condición suficiente para la diagonalización 1.5.3.1 Independencia Lineal 1.5.4 Multiplicidad Geométrica y Algebraica

Valores y Vectores Propios

Embed Size (px)

DESCRIPTION

Es un documento el cual detalla todo acerca de los valores y vectores propios, materia de la asignatura de Algebra Lineal

Citation preview

Page 1: Valores y Vectores Propios

INDICE1. VALORES PROPIOS Y VECTORES PROPIOS

1.1 Introducción

1.2 Objetivos

1.3 Breve Historia de los valores propios y vectores propios1.3.1 Biografías de personajes importantes1.3.1.1 Augustin Louis Cauchy1.3.1.2 Joseph Louis de Lagrange1.3.1.3 Leopold Kronocker1.3.1.4 Charles Hermite1.3.1.5 Leonhard Euler1.3.1.6 Pierre Simón Laplace1.3.1.7 Jean Le Rond D’Alembert1.3.1.8 Charles Sturm

1.4 Eigenvalores y Eigenvectores1.4.1 Definición de Eigenvalores y Eigenvectores1.4.2 Subespacios propios1.4.3 Ecuación característica de A1.4.4 Eigenvalores de matrices triangulares1.4.5 Determinación de bases para Eigenespacios1.4.6 Eigenvalores de las potencias de una matriz1.4.7 Eigenvectores e invertibilidad1.4.7.1 Demostración1.4.8 Ejemplos1.4.9 Bibliografía Tema 1

1.5 Diagonalización de Matrices1.5.1 Definición de matriz diagonalizable1.5.2 Procedimiento para diagonalizar una matriz1.5.3 Condición suficiente para la diagonalización1.5.3.1 Independencia Lineal1.5.4 Multiplicidad Geométrica y Algebraica1.5.5 Ejemplos1.5.6 Bibliografía Tema 2

1.6 Matrices Simétricas y diagonalización ortogonal1.6.1 Definición de Matriz simétrica1.6.1.1 Propiedades de las matrices simétricas1.6.2 Teorema Espectral

Page 2: Valores y Vectores Propios

1.6.3 Definición de matriz ortogonal1.6.3.1 Propiedades de las matrices ortogonales1.6.4 Diagonalización ortogonal1.6.5 Teorema de las matrices simétricas1.6.5.1 Demostración1.6.6 Ejemplos1.6.7 Bibliografía Tema 3

1.7 Potencias de Matrices. Ecuaciones en diferencias1.7.1 Ejemplos1.7.2 Bibliografía Tema 4

1.8 Matrices unitaria, matrices normales y matrices hermitianas1.8.1 Matrices Unitarias1.8.1.1 Propiedades1.8.1.2 Definición1.8.1.3 Diagonalización unitaria1.8.2 Matrices Hermitianas1.8.2.1 Definición1.8.3 Matrices normales1.8.4 Diagonalización1.8.4.1 Procedimiento de Diagonalización1.8.5 Eigenvalores de Matrices hermitianas y simétricas1.8.6 Ejemplos 1.8.7 Bibliografía Tema 5

1.9 Aplicaciones. Crecimiento de una Población1.9.1 Ejemplos1.9.2 Bibliografía Tema 6

1.10 Aplicaciones. Formas Cuadráticas1.10.1 Formas cuadráticas con dos variables1.10.2 Formas cuadráticas con n Variables1.10.3 Problemas en que aparecen formas cuadráticas1.10.4 Matrices positivas definidas y formas cuadráticas1.10.4.1 Demostración1.10.5 Diagonalización de formas cuadráticas1.10.6 Secciones cónicas1.10.7 Ejemplos1.10.8 Bibliografía tema 7

1.11 Conclusiones

1.12 Recomendaciones

1.13 Bibliografía General

Page 3: Valores y Vectores Propios

1. VALORES PROPIOS Y VECTORES PROPIOS

1.1. INTRODUCCION

En el trabajo presente nosotros estudiaremos los valores y vectores propios (eigenvalores y eigenvectores) desde sus principios como fue que estas fueron evolucionando con el tiempo, el motivo por el cual se comenzó a estudiar este tema, además las distintas ramas en las que son útiles los valores y vectores propios.

Podemos observar la diagonalización de matrices que tiene como base a los valores y vectores propios, y así otras formas de aplicación de los mismos. Se darán breves definiciones de cada uno de los temas que se encuentran presentes en el trabajo para el mejor entendimiento del lector.

La forma en la cuales se puede aplicar los vectores y valores propios en casos muy específicos como son Ecuaciones en diferencias, crecimiento de una población y formas cuadráticas, casos particulares en los que son útiles los valores y vectores propios.

En cada uno de los temas se aportara con algunos ejemplos que pueden ayudar a aclarar las ideas del lector y como debe ser el uso de los mismos.

1.2. OBJETIVOS Aprender a utilizar correctamente los valores y vectores propios

según el problema que se proponga. Hacer un buen uso de los valores y vectores propios para cada una

de las aplicaciones mencionadas en el trabajo Realizar ejercicios aplicados a la vida real, como crecimiento de una

población Realizar correctamente la rotación de ejes para las cónicas

Page 4: Valores y Vectores Propios

1.3. BREVE HISTORIA DE LOS VALORES PROPIOS Y VECTORES PROPIOS

La teoría espectral es una rama fundamental de las matemáticas que ha tenido un fuerte impacto sobre el análisis matemático y, en particular, sobre el análisis funcional. Su desarrollo histórico se vincula con el desarrollo de la física y en sus orígenes se relaciona tanto con el estudio de sistemas discretos como con el de sistemas continuos.

El problema de la determinación algebraica de valores propios surgió en el Siglo XVIII a partir del estudio de sistemas mecánicos discretos. Su aparición, sin embargo, no resulta sorprendente ya que el estudio de formas cuadráticas existía desde la segunda mitad del Siglo XVII; Leibniz había mostrado un gran interés en el estudio de sistemas de ecuaciones y sistemas de formas cuadráticas y estos temas son los que eventualmente darían lugar a una teoría de matrices. Desde mediados del Siglo XVIII, el surgimiento de esta teoría era ya claro, especialmente en los trabajos de D’Alembert y Lagrange dedicados a la resolución de ecuaciones diferenciales ordinarias vinculadas al conocido problema de la cuerda vibrante. Sin embargo, los métodos maten áticos relacionados con estos problemas permanecieron subordinados al aspecto mecánico de estos durante algún tiempo. Fue hacia la segunda mitad del Siglo XVIII, que tanto Lagrange como Laplace se vieron obligados “siempre motivados por la teoría física” a profundizar en el estudio matemático de los valores propios. Estos trabajos tuvieron una gran influencia sobre el trabajo de Cauchy, y por lo tanto sobre el rumbo que tomó la teoría espectral.

A principios del Siglo XIX la teoría espectral estaba dividida en dos grandes vertientes, la primera de ellas estaba dedicada a la clasificación de matrices (simétricas, ortogonales, unitarias, etc.) y al estudio de la forma de los valores propios de los diferentes tipos de matrices, mientras que la segunda se centraba, tanto sobre el concepto de valor propio relacionado con el estudio de sistemas de ecuaciones diferenciales, como sobre las propiedades de sus soluciones cuando estas no son obtenibles analíticamente. Esta segunda vertiente desembocó también en el estudio del comportamiento cualitativo de las soluciones de ecuaciones diferenciales y la expansión de funciones en términos de funciones propias o eigenfunciones.

Page 5: Valores y Vectores Propios

1.3.1. BIOGRAFIAS DE PERSONAJES IMPORTANTES PARA EL TEMA

1.3.1.1. Augustin-Louis Cauchy

(París, 1789-Sceaux, Francia, 1857) Matemático francés. Era el mayor de los seis hijos de un abogado católico y realista, que hubo de retirarse a Arcueil cuando estalló la Revolución. Allí sobrevivieron de forma precaria, por lo que Cauchy creció desnutrido y débil.

Fue educado en casa por su padre y no ingresó en la escuela hasta los trece años, aunque pronto empezó a ganar premios académicos. A los dieciséis entró en la École Polytechnique parisina y a los dieciocho asistía a una escuela de ingeniería civil, donde se graduó tres años después.

Su primer trabajo fue como ingeniero militar para Napoleón, ayudando a construir las defensas en Cherburgo. A los veinticuatro años volvió a París y dos más tarde demostró una conjetura de Fermat que había superado a Euler y Gauss.

Con veintisiete años ya era uno de los matemáticos de mayor prestigio y empezó a trabajar en las funciones de variable compleja, publicando las 300 páginas de esa investigación once años después. En esta época publicó sus trabajos sobre límites, continuidad y sobre la convergencia de las series infinitas. En 1830 se exilió en Turín, donde trabajó como profesor de física matemática hasta que regresó a París (1838). Pasó el resto de su vida enseñando en La Sorbona.

Publicó un total de 789 trabajos, entre los que se encuentran el concepto de límite, los criterios de convergencia las fórmulas y los teoremas de integración y las ecuaciones diferenciales de Cauchy-Riemann. Su extensa obra introdujo y consolidó el concepto fundamental de rigor matemático.

1.3.1.2. Joseph-Louis de Lagrange

(Turín, 1736 - París, 1813) Matemático francés de origen italiano. Estudió en su ciudad natal y hasta los diecisiete años no mostró ninguna aptitud especial para las matemáticas. Sin embargo, la lectura de una obra del astrónomo inglés Edmund Halley despertó su interés, y, tras un año de incesante trabajo, era ya un matemático consumado. Nombrado profesor de la Escuela de Artillería, en 1758 fundó una sociedad, con la ayuda de sus alumnos, que fue incorporada a la Academia de Turín.

Page 6: Valores y Vectores Propios

En su obra Miscellanea taurinensia, escrita por aquellos años, obtuvo, entre otros resultados, una ecuación diferencial general del movimiento y su adaptación para el caso particular del movimiento rectilíneo, y la solución a muchos problemas de dinámica mediante el cálculo de variantes. Escribió asimismo numerosos artículos sobre el cálculo integral y las ecuaciones diferenciales generales del movimiento de tres cuerpos sometidos a fuerzas de atracción mutuas.

A principios de 1760 era ya uno de los matemáticos más respetados de Europa, a pesar del flagelo de una salud extremadamente débil. Su siguiente trabajo sobre el equilibrio lunar, donde razonaba la causa de que la Luna siempre mostrara la misma cara, le supuso la concesión, en 1764, de un premio por la Academia de Ciencias de París. Hasta que se trasladó a la capital francesa en 1787, escribió gran variedad de tratados sobre astronomía, resolución de ecuaciones, cálculo de determinantes de segundo y tercer orden, ecuaciones diferenciales y mecánica analítica.

En 1795 se le concedió una cátedra en la recién fundada École Normale, que ocupó tan solo durante cuatro meses. Dos años más tarde, tras la creación de la École Polytechnique, Lagrange fue nombrado profesor, y quienes asistieron a sus clases las describieron como «perfectas en forma y contenido». Sus enseñanzas sobre cálculo diferencial forman la base de sus obras Teoría de las funciones analíticas y Resolución de ecuaciones numéricas (1798). En 1810 inició una revisión de su Teoría, pero sólo pudo concluir dos terceras partes antes de su muerte.

1.3.1.3. Leopold Kronecker

(Liegnitz, hoy Legnica, Polonia, 1823-Berlín, 1893) Matemático alemán. Estudió en la Universidad de Berlín, donde tuvo como profesores a Jacobi y Dirichlet. Más tarde retomaría el contacto con otro antiguo profesor y eminente matemático, Ernst Kummer, cuya influencia sobre su trabajo resultó decisiva.

Kronecker fue uno de los primeros en comprender plenamente los resultados de Évariste Galois; así, en 1870, ofreció la primera definición axiomática de un grupo conmutativo finito. En 1882 introdujo el concepto de sistema modular, gracias al cual estudió la divisibilidad del anillo de los polinomios de grado n.

Su consideración de que todo teorema de existencia debía estar fundado en una construcción efectiva y ser desarrollado en un número finito de etapas le condujo a rechazar formalmente a la teoría de conjuntos propuesta por su

Page 7: Valores y Vectores Propios

contemporáneo Georg  Cantor y generó un enconado debate que polarizó las matemáticas de su tiempo.

1.3.1.4. Charles Hermite

(Dieuze, Francia, 1822-París, 1901) Matemático francés. Fue profesor en la Escuela Politécnica y en La Sorbona de París. En 1873 publicó la primera demostración de que e es un número trascendente y no la raíz de una ecuación algebraica o polinómica con coeficientes racionales. Fue una figura destacada en el desarrollo de la teoría de formas algebraicas, la teoría aritmética de las formas cuadráticas y la teoría de las funciones abelianas y elípticas. También aplicó las funciones elípticas para obtener la solución de la ecuación general de quinto grado.

1.3.1.5. Leonhard Euler

(Basilea, Suiza, 1707 - San Petersburgo, 1783) Matemático suizo. Las facultades que desde temprana edad demostró para las matemáticas pronto le ganaron la estima del patriarca de los Bernoulli, Johann, uno de los más eminentes matemáticos de su tiempo y profesor de Euler en la Universidad de Basilea. Tras graduarse en dicha institución en 1723, cuatro años más tarde fue invitado personalmente por Catalina I para convertirse en asociado de la Academia de Ciencias de San Petersburgo, donde coincidió con otro miembro de la familia   Bernoulli, Daniel, a quien en 1733 relevó en la cátedra de matemáticas.

En el terreno del álgebra obtuvo así mismo resultados destacados, como el de la reducción de una ecuación cúbica a una bicuadrada y el de la determinación de la constante que lleva su nombre. A lo largo de sus innumerables obras, tratados y publicaciones introdujo gran número de nuevas técnicas y contribuyó sustancialmente a la moderna notación matemática de conceptos como función, suma de los divisores de un número y expresión del número imaginario raíz de menos uno. También se ocupó de la teoría de números, campo en el cual su mayor aportación fue la ley de la reciprocidad cuadrática, enunciada en 1783.

1.3.1.6. Pierre-Simon Laplace

(Pierre-Simon, marqués de Laplace; Beaumont-en-Auge, Francia, 1749-París, 1827) Matemático francés. Hijo de un granjero, inició sus estudios primarios en la escuela local, pero gracias a la intervención de D’ Alembert, profundamente

Page 8: Valores y Vectores Propios

impresionado por un escrito del joven sobre los principios de la mecánica, pudo trasladarse a la capital, donde consiguió una plaza en la École Militaire.

Entre 1771 y 1789 desarrolló la mayor parte de su trabajo sobre astronomía, particularmente su estudio sobre las desigualdades planetarias, seguido por algunos escritos sobre cálculo integral y ecuaciones diferenciales en derivadas parciales. Destaca entre su producción del período 1784-1787 la determinación de la atracción de un esferoide sobre una partícula situada en su exterior, para cuya determinación introduciría el análisis de armónicos o coeficientes de Laplace y el concepto de potencial.

En 1796 publicó su Exposición del sistema del mundo, en el que ofreció una versión divulgativa de la mecánica newtoniana y una exposición del sistema solar. Sus resultados analíticos sobre la mecánica estelar se publicaron en los cinco volúmenes delTratado de mecánica celeste (1799-1825). En los dos primeros volúmenes describió métodos para el cálculo del movimiento de los planetas y sus satélites, y determinó sus trayectorias. El tercero contiene la aplicación de estos métodos y muchas tablas astronómicas.

En 1814, Laplace publicó un ensayo sobre probabilidades orientado al lector profano, que le serviría de base para la segunda introducción de su Teoría analítica de las probabilidades (tratado publicado en 1812), donde incluyó una exposición del método de los mínimos cuadrados, base de toda la teoría de los errores.

1.3.1.7. Jean Le Rond D'Alembert

Científico y pensador francés de la Ilustración (París, 1717-1783). Sus investigaciones en matemáticas, física y astronomía le llevaron a formar parte de la Academia de Ciencias con sólo 25 años; y resultaron de tal relevancia que aún conservan su nombre un principio de física que relaciona la estática con la dinámica y un criterio de convergencia de series matemáticas.

Sin embargo, su mayor renombre lo iba a alcanzar como filósofo. Junto con Diderot dirigió la Enciclopedia, compendio del saber de su tiempo que ha dado nombre a este tipo de obras hasta nuestros días; el propio D’Alembert redactó en 1751 el «Discurso preliminar», en el cual apuntaba el enfoque general de la obra, ligado a la filosofía de las «Luces». Su pensamiento resulta una síntesis entre el racionalismo y el empirismo, que subraya la unidad del saber y la fe en el progreso de la Humanidad a través de las ciencias, unificadas por una filosofía desprendida de mitos y creencias trascendentales.

Page 9: Valores y Vectores Propios

Cuando la campaña de los reaccionarios contra la Enciclopedia consiguió que se prohibiera continuar su edición (1759), se retiró de la obra, dejando a Diderot como único director. Pero siguió sosteniendo el pensamiento crítico, humanista y reformista de los ilustrados desde su puesto como secretario perpetuo de la Academia Francesa (1772).

1.3.1.8. Charles Sturm

(Ginebra, 1803-París, 1855) Matemático suizo, nacionalizado francés. En colaboración con J.D. Colladon, midió la velocidad del sonido en el agua del lago Leman (1827). Enunció (1829) un famoso teorema sobre las raíces de las ecuaciones algebraicas. Escribió diversas obras de geometría, análisis y álgebra.

1.4. EIGENVALORES Y EIGENVECTORES1.4.1. DEFINICION DE EIGENVALORES Y EIGENVECTORES

Sea A una matriz cuadrada, un número real λ se dice que es un valor propio o un eigenvalor o un valor característico de A si existe un vector, diferente del vector cero en RnóCn, x tal que:

A x⃗=λ x⃗

Es decir, es un vector que al transformarlo mediante la multiplicación por A el vector resultante mantiene su dirección, posiblemente sólo su longitud y/o sentido se modifique. El vector x⃗ se llama vector propio o eigenvector asociado al valor propio λ.

1.4.2. SUBESPACIOS PROPIOS

Sea A una matriz cuadrada y λ un valor propio de A. Entonces, el conjunto de todos los vectores propios de A asociados a λ, junto con el vector cero,

{0}U {x⃗ : x⃗ es vector propiode λ },

forman un espacio de RnóCn. Este subespacio se llama subespacio propio

1.4.3. ECUACION CARACTERISTICA DE A

Sea λ un valor propio de la matriz cuadrada A, así existe un vector diferente cero de x⃗0 tal que:

Ax⃗0 = λx⃗0 = λI n x⃗0

Page 10: Valores y Vectores Propios

Por tanto:

λI n x⃗0 - Ax⃗0 = (λI n - A) x⃗0 = 0⃗

Si B=λ I n−A lo anterior significa que el sistema homogéneo n×n

B x⃗=0

tiene además de la solución trivial otra solución (x = x0 ≠ 0). Por consiguiente, no tiene solución única. Y por tanto, el determinante de la matriz B debe ser cero:

det (B)=det (λ I n−A)=0

Al desarrollar det (λ I n−A) se obtiene un polinomio en λ, denominado polinomio característico de A

Si A es una matriz n x n (cuadrada), entonces el polinomio característico de A es de grado ny el coeficiente de λn es 1; es decir; el polinomio característica de una matriz cuadrada es de la forma

det (λ I n−A)=λn+c1 λn−1+…+cn=0

La ecuación característica

λn+c1 λn−1+…+cn=0

tiene cuando mucho n soluciones distintas, por lo que una matriz n x n tiene a lo sumo n eigenvalores distintos.

1.4.4. EIGENVALORES DE MATRICES TRIANGULARES

Si A es una matriz triangular (superior o inferior) cuadrada, entonces los eigenvalores de A son los elementos de la diagonal principal de A.

Si A es una matriz cuadrada y λ es un número real o complejo:

λes un eigenvalor de A

El sistema de ecuaciones (λI – A) x⃗=0⃗ tiene soluciones no triviales.

Existe un vector x diferente de cero tal que A x⃗=λ x⃗ λ es una solución de la ecuación característica det (λ I n−A)=0

Page 11: Valores y Vectores Propios

1.4.5. DETERMINACION DE BASES PARA EIGENESPACIOS

Los eigenvectores de Acorrespondientes a un eigenvalor son los vectores x⃗ diferentes de cero que satisfacen A x⃗=λ x⃗. De manera equivalente, los eigenvectores correspondientes a λ son los vectores diferentes de cero en el

espacio solución det (λI – A) x⃗=0⃗ . Este espacio solución se denomina

eigenespacio de A correspondiente a λ.

1.4.6. EIGENVALORES DE LAS POTENCIAS DE UNA MATRIZ

Si k es un entero positivo, λ es un eigenvalor de una matriz A y x⃗ es un eigenvector correspondiente, entonces λky x⃗ es un eigenvector correspondiente.

1.4.7. EIGENVECTORES E INVERTIBILIDAD

Una matriz cuadrada A es invertible si y solo si λ=0 no es un eigenvalor de A.

1.4.7.1. DEMOSTRACION

Supóngase que A es una matriz cuadrada y obsérvese primero que λ=0 es una solución de la ecuación característica

λn+c1 λn−1+…+cn=0

si y solo si el termino constante cn es cero. Asa, basta demostrar que A es

invertible si y solo si cn≠0. Pero

det (λ I n−A)=λn+c1 λn−1+…+cn

o bien, haciendo λ=0

det (−A)=cno (−1)ndet (A)=cn

Por la ultima ecuación se concluye que det (A)=0 si y solo si cn=0, y esto a su

vez significa que A es invertible si y solo si cn≠0.

Page 12: Valores y Vectores Propios

1.4.8. EJEMPLOS1) Encuentre la ecuación características de las siguiente matriz

[ 4 0 1−2 1 0−2 0 1]

Para encontrar la ecuación característica utilizamos det (λ I n−A)

det (λ I n−A )=[ λ−4 0 −12 λ−1 02 0 λ−1]=¿

( λ−4 ) ( λ−1 ) ( λ−1 )− [ (2 ) ( λ−1 ) (−1 ) ]=¿

λ3−2 λ2+λ−4 λ2+8 λ−4+2 λ−2=λ3−6 λ2+11 λ−6R=λ3−6 λ2+11 λ−6

2) Obtener los eigenvalores de la siguiente matriz

[ 5 0 11 1 0

−7 1 0 ]det (λ I n−A )=[ λ−5 0 −1

−1 λ−1 07 1 λ ]=¿

( λ−5 ) ( λ−1 ) ( λ )−1+7 λ−7=λ3−6 λ2+12 λ−8λ3−6 λ2+12 λ−8=0

Resolviendo la ecuación obtenemosλ=2

El eigenvalor de la matriz es λ=23) Encontrar los eigenvalores de la siguiente matriz

[−2 −15 2 ]

det (λ I n−A )=[ λ+2 1−5 λ−2]=¿

( λ+2 ) ( λ−2 )+5=λ2+1λ2+1=0

Resolviendo la ecuación obtenemos los eigenvaloresλ=± i

4) Encontrar los eigenvalores de la siguiente matriz

[ i 12 −2i0 2+i −10 0 −3 i]

Page 13: Valores y Vectores Propios

Los eigenvalores de una matriz triangular son igual a los elementos que se encuentran en la diagonal principalλ=i λ=2+i λ=−3 i

5) Hallar las bases de los eigenespacios de la siguiente matriz

[5 6 20 −1 −81 0 −2]

det (λ I n−A )=[ λ−5 −6 −20 λ+1 8

−1 0 λ+2]=¿

( λ−5 ) ( λ+1 ) ( λ+2 )+48−2λ−2=λ3−2 λ2−15 λ+36λ3−2 λ2−15 λ+36=0

Resolviendo la ecuación obtenemosλ=−4 λ=3Entonces tenemos dos eigenespacios

(λ I n−A ) x⃗=0

[ λ−5 −6 −20 λ+1 8

−1 0 λ+2][ x1x2x3]=[000 ]Con λ=−4

[−9 −6 −20 −3 8

−1 0 −2][ x1x2x3]=[000 ]Obtenemos el sistema

−9 x1−6 x2−2 x3=0−3 x2+8x3=0−x1−2 x3=0

Resolviendo el sistema

[−9 −6 −20 −3 8

−1 0 −2][ 27 −72−6 16 ]

[0 ]→t

x3=t x2=−83t x1=−2 t

Page 14: Valores y Vectores Propios

[−2t−83t

t]=t [−2−8

31

]La base del eigenespacio λ=−4 es

[−2−831

]Con λ=3, realizamos el mismo procedimiento

[−2 −6 −20 4 8

−1 0 5 ] [x1x2x3]=[000]−2 x1−6 x2−2x3=04 x2+8 x3=0−x1+5x3=0

[−2 −6 −20 4 8

−1 0 5 ][−8 −16−6 −12][0 ]→t

x3=t x2=−2 t x1=5 t

[ 5 t−2 tt ]=t [ 5−21 ]

La base para el eigenespacio λ=3

[ 5−21 ]Las bases de la matriz son

λ=−4 ;[−2−831

] λ=3 ;[ 5−21 ]1.4.9. BIBLIOGRAFIA TEMA 1:

Algebra Lineal de Larson-Edwars y Falvo Introducción al Algebra Lineal de Howard Antón

Page 15: Valores y Vectores Propios

http://www.mty.itesm.mx/etie/deptos/m/ma00-130/lecturas/m130-09.pdf

1.5. DIAGONALIZACION DE MATRICES

Las matrices semejantes a matrices diagonales se llaman diagonalizables.

1.5.1. DEFINICION DE MATRIZ DIAGONALIZABLE

Se dice una matriz A cuadrada es diagonalizable si es semejante a una matriz diagonal. Es decir, A’ es diagonalizable si existe una matriz invertible P tal que

P−1 AP

es una matriz diagonal; se dice que la matrizP diagonaliza a A.

1.5.2. PROCEDIMIENTO PARA DIAGONALIZAR UNA MATRIZ

Si A es una matriz cuadrada, A es diagonalizable si, y solo si, tiene n vectores propios linealmente independientes.

1. Encontrar n eigenvectores linealmente independientes de A; ( p1 , p2 ,…, pn)

2. Formar la matriz P con p1 , p2 ,…, pn¿ como sus vectores columna

3. Entonces, la matriz P−1 AP será diagonal con λ1 , λ2 ,…, λn como sus

elementos diagonales sucesivos, donde λ1 es el eigenvalor

correspondiente a pi, para i=1 ,2 ,…,n.

Para el paso 1, primero se debe determinar si la matriz A que es dada tiene n eigenvectores linealmente independientes, y luego aplicamos un método para poder encontrarlos.

1.5.3. CONDICION SUFICIENTE PARA LA DIAGONALIZACION

Si A es una matriz n x n (cuadrada) con n eigenvalores distintos, los vectores propios asociados son linealmente independientes y A es diagonalizable.

1.5.3.1. INDEPENDENCIA LINEAL

Si v⃗1 , v⃗2 ,…, v⃗k son eigenvectores de A correspondientes a eigenvalores λ1 , λ2 ,…, λk, entonces {v⃗1 , v⃗2,…, v⃗ k} es un conjunto linealmente independiente.

1.5.4. MULTIPLICIDAD GEOMETRICA Y ALGEBRAICA

Page 16: Valores y Vectores Propios

Si λ0 es un eigenvalor de una matriz An x n, entonces la dimensión del

eigenespacio correspondiente a λ0 se denomina multiplicidad geométrica de λ0,

y el numero de veces que (λ−λ0) aparece como factor en el polinomio característico de A se denomina multiplicidad algebraica de A

a) Para todo eigenvalor de A la multiplicidad geométrica es menor o igual que la multiplicidad algebraica.

b) A es diagonalizable si y solo si la multiplicidad geométrica es igual a la multiplicidad algebraica para todo eigenvalor.

1.5.5. EJEMPLOS

1) Sea A=[4 0 12 3 21 0 4]. Hallar: a) los eigenvalores de A; b) Para cada

eigenvalor de A, determinar el rango de la matriz λ I n−A c)¿Es diagonalizable A?Justifique la respuesta

a) det (λ I n−A )=[ λ−4 0 −1−2 λ−3 −2−1 0 λ−4 ]=¿

λ3−11 λ2+40 λ−48− λ+3=λ3−11 λ2+39 λ−45λ3−11 λ2+39 λ−45=0

λ=5 λ=3b) Con λ=3

[−1 0 −1−2 0 −2−1 0 −1] [

1 0 10 0 00 0 0]

R (A )={(1,0,1)}Dim (R ( A ) )=Rango (A )=1

Con λ=5

[ 1 0 −1−2 2 −2−1 0 1 ][1 0 −1

0 2 −40 0 0 ]

R (A )={(1,0 ,−1 ) ,(0,1,−2)}Dim (R ( A ) )=Rango (A )=2

c) Si es diagonalizable, ya que los eigenespacios producen en total 3 vectores.

2) Verificar queA es diagonalizable

A=[−11 36−3 10] , P=[−3 −4

−1 −1]P−1 AP=D

Page 17: Valores y Vectores Propios

P−1=[ 12 −2

−12

32

]P−1 AP=[ 12 −2

−12

32

][−11 36−3 10] [−3 −4

−1 −1]=[ 12 −2

1 −3][−3 −4−1 −1 ]=[ 12 0

0 −1]Si es diagonalizable

3) Hallar una matriz P que diagonalice a A y determinar P−1 AP

A=[−14 12−20 17]

det (λ I n−A )=[ λ+14 −1220 λ−17 ]

¿ λ2−3 λ−2λ2−3 λ+2=0

λ=2 λ=1Con λ=2

[16 −1220 −15 ][ x1x2]=[00 ]

[16 −1220 −15 ]

[0 ]→t

x2=t x1=34t

[ 341 ]Con λ=1

[15 −1220 −16 ][ x1x2]=[00 ]

[15 −1220 −16 ]

[0 ]→t

x2=t x1=45t

Page 18: Valores y Vectores Propios

[ 451 ]P=[ 45 3

41 1 ]

P−1=[ 20 −15−20 16 ]

P−1 AP=[ 20 −15−20 16 ][−14 12

−20 17] [ 45 34

1 1 ][ 20 −15−40 32 ] [ 45 3

41 1 ]=[1 0

0 2]4) Determinar si la matriz es diagonalizable, compruebe si lo es

A=[5 0 01 5 00 1 5]λ=5

[0 0 01 0 00 1 0 ]

[1 0 ]x3=t x2=0 x1=0Al tener un solo vector x⃗ la matriz no es diagonalizable

5) Determina si A es diagonalizable, si lo es compruebe

A=[−1 4 −2−3 4 0−3 1 3 ]

det (λ I n−A )=[ λ+1 −4 23 λ−4 03 −1 λ−3]

λ3−6 λ2+11 λ−6

Page 19: Valores y Vectores Propios

λ3−6 λ2+11 λ−6=0λ=1 λ=2 λ=3Con λ=1

[2 −4 23 −3 03 −1 −2][ x1x2x3]=[000]

[2 −4 23 −3 03 −1 −2][ 6 −610 −10]

[0 ]→tx3=t x2=t x1=t

[111]Con λ=2

[3 −4 23 −2 03 −1 −1][ x1x2x3]=[000]

[3 −4 23 −2 03 −1 −1][6 −69 −9][0 ]→t

x3=t x2=t x1=23t

[ 2311]=[233]

Con λ=3

[4 −4 23 −1 03 −1 0][8 −68 −6][0 ]→t

Page 20: Valores y Vectores Propios

x3=t x2=34t x1=

14t

[ 14341]=[134 ]

P=[1 2 11 3 31 3 4 ]

P−1=[ 3 −5 3−1 3 −20 −1 1 ]

P−1 AP=[ 3 −5 3−1 3 −20 −1 1 ] [−1 4 −2

−3 4 0−3 1 3 ][1 2 1

1 3 31 3 4 ]

[ 3 −5 3−2 6 −40 −3 3 ] [1 2 1

1 3 31 3 4]=[1 0 0

0 2 00 0 3]

1.5.6. BIBLIOGRAFÍA TEMA 2: Algebra Lineal de Larson-Edwars y Falvo Introducción al Algebra Lineal de Howard Antón

1.6. MATRICES SIMETRICAS Y DIAGONALIZACION ORTOGONAL1.6.1. DEFINICION DE MATRIZ SIMETRICA

Una matriz cuadrada A es simétrica si es igual a su transpuesta

A=AT

1.6.1.1. PROPIEDADES DE LAS MATRICES SIMETRICAS

Sea A una matriz n x n simétrica y sean λ1 y λ2 dos valores propios distintos de A, con vectores propios asociados x⃗1 y x⃗2. Entonces x⃗1 y x⃗2 son ortogonales

1.6.2. TEOREMA ESPECTRAL

Sea A una matriz cuadrada simétrica. Entonces,

1. A es diagonalizable2. Todos los valores de A son Reales o complejos

Page 21: Valores y Vectores Propios

3. Si λ es un valor propio de A de multiplicidad k , hay k vectores propios de A asociados a λ y linealmente independientes. En otras palabras, el subespacio propio de λ tiene dimensión k .

1.6.3. DEFINICION DE MATRIZ ORTOGONAL

Una matriz cuadrada P se dice que es ortogonal si, y solo si, es invertible y

P−1=PT

1.6.3.1. PROPIEDADES DE LAS MATRICES ORTOGONALES

Una matriz cuadrada P es ortogonal si, y solo si, sus vectores columna forman un conjunto ortonormal.

1.6.4. DIAGONALIZACION ORTOGONAL

Una matriz es ortogonalmente diagonalizable si existe una matriz ortogonal P tal que P−1 AP=Des diagonal.

1.6.5. TEOREMA DE LAS MATRICES SIMETRICAS

Una matriz n x nes ortogonalmente diagonalizable si, y solo si, es simétrica.

1.6.5.1. DEMOSTRACION

Si A es ortogonalmente diagonalizable, exista una matriz ortogonal P tal que

P−1 AP=D es diagonal. Y al ser P−1=PT, se tiene A=PDP−1=PD PT, lo cual

implica que

AT=¿

Por tanto, A es simétrica.

1.6.6. EJEMPLOS1) Ver si la siguiente matriz es simétrica

A=[2 0 3 50 11 0 −235

0−2

5 00 1

]A=AT

AT=[2 0 3 50 11 0 −235

0−2

5 00 1

]La matriz si es simétrica

Page 22: Valores y Vectores Propios

2) Hallar los eigenvalores de la matriz simétrica, y calcular la dimensión del eigenespacio para cada uno de sus valores

A=[3 0 00 2 00 0 2]

λ=3 λ=2

Como λ=2 es de multiplicidad 2, la dimensión de su eigenespacio es 2. Y la dimensión del eigenespacio λ=3 es 1

3) Determinar si la siguiente matriz es ortogonal

A=[−4 0 30 1 03 0 4]A−1=AT

A−1=[−425 0325

0 1 0325

0425

]La matriz no es ortogonal

4) Hallar una matriz ortogonal P tal que PT AP diagonalice a la matriz A y comprobar

A=[ 2 √ 2√ 2 2 ]

d et ( λ In−A )=[ λ−2 −√ 2−√ 2 λ−2 ]

¿ λ2−4 λ+2λ2−4 λ+2=0

λ=2+√ 2 λ=2−√2Con λ=2+√ 2

[ √2 −√2−√2 √2 ][ x1x2]=[00]

[ √2 −√2−√2 √2 ]

[0 ]→tx2=t x1=t

Page 23: Valores y Vectores Propios

[11]Con λ=2−√2

[−√2 −√ 2−√2 −√ 2]

[0 ]→tx2=t x1=−t

[−11 ]p⃗1=

(1,1)√2

=( 1√2,1√2

)

p⃗2=(−1,1)√2

=(−1√2,1√2

)

P=[ 1√2 −1√2

1√2

1√2 ]

P−1=[ 1√2 1

√2−1√2

1√2 ] PT=[ 1√2 1

√2−1√2

1√2 ]

P−1 AP=PT AP5) Hallar una matriz ortogonal P tal que PT AP diagonalice a la matriz A y

comprobar

A=[1 11 1]

d et ( λ In−A )=[ λ−1 −1−1 λ−1]

λ2−2 λ+1−1=λ2−2λλ2−2 λ=0

λ=2 λ=0Con λ=2

[ 1 −1−1 1 ] [x1x2]=[00]

[ 1 −1−1 1 ]

[0 ]→tx2=t x1=t

Page 24: Valores y Vectores Propios

[11]Con λ=0

[−1 −1−1 −1]

[0 ]→tx2=s x1=−s

[−11 ]p⃗1=

(1,1)√2

=( 1√2,1√2

)

p⃗2=(−1,1)√2

=(−1√2,1√2

)

P=[ 1√2 −1√2

1√2

1√2 ]

P−1=[ 1√2 1

√2−1√2

1√2 ]

PT=[ 1√2 1

√2−1√2

1√2 ]

Por lo tanto P−1 AP=PT AP1.6.7. BIBLIOGRAFIA TEMA 3:

Algebra Lineal de Larson-Edwars y Falvo

1.7. POTENCIAS DE MATRICES. ECUACIONES EN DIFERENCIAS

Las ecuaciones diferencia aparecen a menudo en todas las ramas de la ciencia y de la ingeniería; el algebra lineal es útil para la formulación y solución de ecuaciones diferenciales.

Considerando el sistema de ecuaciones diferenciales lineales homogéneo

x1' ( t )=a11 x1 (t )+a12 x2 (t )+…+a1n xn (t )x2

' (t )=a21 x1 (t )+a22 x2 ( t )+…+a2n xn ( t )⋮

xn' (t )=an1 x1 ( t )+an2 x2 (t )+…+ann xn (t )

Page 25: Valores y Vectores Propios

donde a ij son constantes. Y buscamos funciones x1(t) , x2(t ),…, xn(t) que satisfagan a la matriz anterior. La expresión

b1 x1(t)+b2 x2(t)+…+bn xn(t ),

donde b1 , b2 ,…,bn son constantes arbitrarias, se denomina solución general del sistema de ecuaciones diferenciales. Si se asigna valores a estas constantes, obtenemos una solución particular para el sistema de ecuaciones diferenciales. A menudo una solución particular se determina especificando las condiciones iniciales x1(0)=f 1, x2(0)=f 2 ,…, xn(0)=f n donde f 1, f 2 ,…, f n son constantes dadas.

El sistema de ecuaciones diferenciales se puede expresar en forma matricial de la siguiente manera.

x (t)=[ x1(t)x2(t)⋮

xn(t)], A=[ a11a21 a12

a22⋯

a1na2n

⋮ ⋱ ⋮an1 an2 ⋯ ann

],y definiendo

x ' (t)=[ x1 ' (t)x2 ' (t)⋮

xn ' (t)]

Entonces el sistema de ecuaciones diferenciales se puede escribir de la siguiente manera:

x ' (t)=Ax (t)

El conjunto de todas las soluciones de un sistema de ecuaciones diferenciales lineales homogéneo x ’=Ax es un espacio vectorial V (es semejante a la de un sistema de ecuaciones lineales homogéneo Ax=0), el cual es un subespacio del espacio vectorial de todas las funciones de valor real. Por consiguiente si x1

y x2 están en V, se define x1+ x2 mediante (x1+ x2)(t)=x1(t )+x2(t ), y si x esta en

V y k es un escalar, se define kx mediante (kx )(t)=kx (t) . El espacio V se denomina espacio solución del sistema lineal.Igualmente si A es n x n, entonces la dimensión de este espacio vectorial es n.

Page 26: Valores y Vectores Propios

Para el caso en que A pueda ser diagonalizada. Consideremos el sistema lineal x '=Ax , donde Aes nxn. Supongamos que A es semejante a una matriz

diagonal D, de modo que existe una matriz no singular P tal que D=P−1 AP. Sea ahora x=Pu

u=[u1u2⋮un

]y x '=Pu ', donde

u '=[u '1u '2⋮u 'n

]Entonces el sistema lineal dado x '=Ax se convierte en Pu'=A(Pu), o

u'=(P−1 AP )u o u'=Du. Podemos escribir esta ultima ecuación como

[u '1u '2⋮u' n]=[c10

0c2

⋯ 00

⋮ ⋱ ⋮0 00 0

⋯ 0 00 cn

] [u1u2⋮un]donde c1 , c2 ,⋯ ,cn son los valores propios de A.

Este sistema de ecuaciones se puede resolver fácilmente. Su solución general es

u(t )=[b1 ec1 t

b2 ec2 t

⋮bn e

cn t]La solución genera x del sistema original x '=Ax es

x (t )=[ x1 (t )x2 (t )⋮xn (t )]=Pu=[ P11P21 P12

P22⋯ P1n

P2n⋮ ⋱ ⋮

Pn1 Pn2 ⋯ Pnn] [b1 e

c1 t

b2 ec2 t

⋮bn e

cn t]¿b1 P1 ec1 t+b2P2 ec2 t+⋯+bn Pn ecn tdonde

P1 ,P2 ,⋯ ,Pn son las columnas de la matrizP, y b1 , b2 ,⋯ ,bn son constantes

arbitrarias. P1 ,P2 ,⋯ ,Pn de la matriz P son los eigenvectores de A asociados

con los eigenvalores c1 , c2 ,⋯ ,cn deA . De este modo, si la matrizA puede ser

diagonalizada, como sucede cuando c1 , c2 ,⋯ ,cn son reales distintos, entonces

Page 27: Valores y Vectores Propios

siempre podemos resolver el sistema lineal x '=Ax integrando cada ecuación del sistema diagonal correspondiente individualmente.

Si Ano tiene valores propios distintos, entonces es posible que no podamos diagonalizar A. Sea c un valor propio de Amultiplicidad k . Entonces A puede ser diagonalizada si y solo si la dimensión del eigenespacio asociado con c es k , es decir, si y solo si el rango de la matriz (c I n−A ) es n−k. Si el rango de (c I n−A ) es n−k, entonces podemos hallar k vectores propios de A linealmente

independientes asociados con c.

1.7.1. EJEMPLOS1) Resolver el sistema de ecuaciones diferenciales

y1'=4 y1y2'=− y2y3'=2 y3

Por cálculo se sabe que y '=ky es y=Cekt

y1=C1 e4 t

y2=C2 e−t

y3=C3 e2 t

Entonces se tiene

[ y1 'y2 'y3 ' ]=[4 0 00 −1 00 0 2][ y1y2y3]

2) Resolver el sistema de ecuaciones diferenciales lineales

y1'=3 y1+2 y2y2'=6 y1− y2

Hallamos una matriz P que diagonalice a A=[3 26 −1]

d et ( λ In−A )=[ λ−3 −2−6 λ+1]= λ2−2 λ−15

λ2−2 λ−15=0λ=5 λ=−3

Conλ=5

[ 2 −2−6 6 ][ x1x2]=[00]

[ 2 −2−6 6 ]

Page 28: Valores y Vectores Propios

[0 ]→tx2=t x1=t

[11]Con λ=−3

[−6 −2−6 −2][ x1x2]=[00]

[−6 −2−6 −2]

[0 ]→s

x2=s x1=−13s

[−131 ]=[−13 ]P=[1 −1

1 3 ]P−1 AP=[ 34 1

4−14

14][3 26 −1][1 −1

1 3 ]

[ 154 54

34

−34

][1 −11 3 ]=[5 0

0 −3]

[w1 'w2 ' ]=[5 00 −3] [w1w2]

w1'=5w1 w1=C1e

5 t

w2'=−3w2 w2=C2e

−3 t

y⃗=P w⃗

[ y1y2]=[1 −11 3 ][w1w2]

y1=w1−w2=C1e5 t−C2 e

−3 t

y2=w1+3w2=C1 e5t+3C2 e

−3 t

Page 29: Valores y Vectores Propios

3) Resolver el sistema de ecuaciones diferenciales

y1'=2 y1y2'= y2

y1=C1 e2 t

y2=C2 et

[ y1 'y2 ' ]=[2 00 1 ][ y1y2]

4) Resolver el sistemas de ecuaciones diferenciales

y1'=− y1y2'=6 y2y3'= y3y1=C1 e

−t

y2=C2 e6 t

y3=C3 et

[ y1'

y2'

y3' ]=[−1 0 0

0 6 00 0 1] [ y1y2y3]

5) Resolver el sistema de ecuaciones lineales

y1'= y1+ y2y2'=4 y1−2 y2

A=[1 14 −2]

|λ I n−A|=|λ−1 −1−4 λ+2|

¿ λ2+ λ−6λ2+ λ−6=0

λ=2 λ=−3Con λ=2

[ 1 −1−4 4 ] [x1x2]=[00]

[ 1 −1−4 4 ] x2=t x1=t

p⃗1=[11]Con λ=−3

Page 30: Valores y Vectores Propios

[−4 −1−4 −1] [x1x2]=[00]

[−4 −1−4 −1] x2=t x1=

−14t

p⃗2=[−14 ]P=[1 −1

1 4 ] P−1=[ 45 15

−15

15]

P−1 AP=[ 45 15

−15

15][ 1 14 −2][1 −1

1 4 ]=[ 85 25

35

−35

] [1 −11 4 ]=[2 0

0 −3]w '=P−1 AP

[ w1'w2 ' ]=[2 00 −3] [w1w2] w1

'=2w1w2

'=−3w2w1=C1e

2 t w2=C2e−3 t

y⃗=P w⃗

[ y1y2]=[1 −11 4 ][w1w2]

y1=w1−w2=C1e2 t−C2 e

−3 t

y2=¿w1+4w2=C1e2t+4C2e

−3t ¿

1.7.2. BIBLIOGRAFIA TEMA 4: Algebra Lineal de Larson-Edwars y Falvo Algebra Lineal de Bernard kolman

1.8. MATRICES UNITARIAS, MATRICES NORMALES Y MATRICES HERMITIANAS

1.8.1. MATRICES UNITARIAS

Si A es una matriz con elementos complejos, entonces la transpuesta conjugada de A, que se denota porA¿, se define como

A¿=AT

Page 31: Valores y Vectores Propios

Donde A es la matriz cuyos elementos son los conjugados complejos de los elementos correspondientes en A y ATes la transpuesta de A

1.8.1.1. PROPIEDADES

Las propiedades básicas de la operación conjugada transpuesta son semejantes a las de la transpuesta.

SiA y B son matrices con elementos complejos yk es cualquier número complejo, entonces:

1. ¿2. ¿3. (kA ¿¿=k A¿

4. ¿

La matriz que lleva elementos reales se denomina ortogonal si A-1 = AT. Los análogos complejos de las matrices ortogonales se llaman matrices unitarias.

1.8.1.2. DEFINICION

Una matriz cuadrada A con elementos complejos se denomina unitaria si:

A−1=A¿

Si A es una matriz n x n con elementos complejos, entonces las siguientes proposiciones son equivalentes

1. A es unitaria2. Los vectores renglón de A forman un conjunto ortonormal en Cn

con el producto interior3. Los vectores columna de A forman un conjunto ortonormal en Cn

con el producto interior1.8.1.3. DIAGONALIZACION UNITARIA

Una matriz cuadrada Acon elementos complejos se denomina diagonalizable

unitariamente si existe una matriz unitaria P tal que P−1 AP=(P¿ AP)es diagonal;

se dice que la matrizP diagonaliza unitariamente a A.

1.8.2. MATRICES HERMITIANAS

Page 32: Valores y Vectores Propios

Los análogos complejos más naturales de las matrices simétricas reales son las matrices hermitianas.

1.8.2.1. DEFINICION

Una matriz cuadrada con elementos complejos se denomina hermitiana si

A=A¿=AT

Para poder reconocer si una matriz es hermitiana, los elementos de la diagonal principal son reales y la imagen especular de cada elemento de la diagonal principal es su conjugado.

1.8.3. MATRICES NORMALES

Una matriz cuadrada A con elementos complejos se denomina normal si

A A¿=A¿ A

Si A es una matriz cuadrada con elementos complejos, entonces las siguientes proposiciones son equivalentes

1. A es diagonizable unitariamente2. A contiene un conjunto ortonormal de neigenvectores3. A es normal

Si A es una matriz normal, entonces los eigenvectores de eigenespacios diferentes de A son ortogonales.

1.8.4. DIAGONALIZACION

Una matriz normal A es diagonalizada por cualquier matriz unitaria cuyos vectores columna son eigenvectores de A.

1.8.4.1. PROCEDIMIENTO DE DIAGONALIZACION1. Encontrar una base para cada eigenespacio de A 2. Aplicar el proceso de Gram-Schmidt a cada una de estas bases

con fin de obtener una base ortonormal para cada eigenespacio3. Formar la matriz P cuyas columnas son los vectores básicos

obtenidos en el paso 2. Esta matriz diagonaliza unitariamente a A.

1.8.5. EIGENVALORES DE MATRICES HERMITIANAS Y SIMETRICAS Los eigenvalores de una matriz hermitiana son reales Los eigenvalores de una matriz simétrica con elementos reales

son números reales

Page 33: Valores y Vectores Propios

1.8.6. EJEMPLOS 1) Encontrar A¿ de la siguiente matriz

A=[ 2i 1−i4 3+ i5+i 0 ]A¿=AT

A¿=AT=[−2i 4 5−i1+i 3−i 0 ]2) Determinar si la matriz es unitaria

A=[ i 00 i ]

A−1=A¿

A−1=[−i 00 −i ] A¿=[−i 0

0 −i]La matriz si es unitaria

3) Determine si la matriz es hermitiana

A=[ −2 1−i −1+i1+i 0 3

−1−i 3 5 ]A=A¿

A¿=[ −2 1−i −1+i1+ i 0 3

−1−i 3 5 ]La matriz si es hermitiana4) Encontrar una matriz unitaria P que diagonalice a A y determinar

P−1 AP

A=[3 −ii 3 ]

|λ I n−A|=[ λ−3 i−i λ−3]=λ2−6 λ+9−1= λ2−6 λ+8

λ2−6 λ+8=0λ=4 λ=2Con λ=4

[ 1 i−i 1][ x1x2]=[00]

[ 1 i−i 1] x2=t x1=−¿

u⃗=[−i1 ]

Page 34: Valores y Vectores Propios

p⃗1=u⃗

‖u⃗‖=

(−i ,1)√ ¿¿

Con λ=2

[−1 i−i −1] [x1x2]=[00]

[−1 i−i −1] x2=t x1=¿

u⃗=[ i1]p⃗2=

u⃗‖u⃗‖

=(i ,1)√ ¿¿

P=[−i√2i

√21√2

1√2 ]

P−1=[−√22 i 1

√2√22 i

1√2 ]

P−1 AP=[−√22 i 1

√2√22 i

1√2 ] [3 −i

i 3 ][−i√2i

√21√2

1√2 ]

[ 2 i√ 2 2√ 2−i √2 √ 2 ][−i√2

i

√21√2

1√2 ]=[4 0

0 2 ]5) Compruebe que la matriz es unitaria y encuentre su inversa

B=[ 35 45i

−45

35i ]

B−1=B¿

Page 35: Valores y Vectores Propios

B−1=[ 35 i −4

5i

45

35

]i

=[ 35 −45

−45i

−35i]

La matriz si es unitaria

1.8.7. BIBLIOGRAFIA TEMA 5: Introducción al Algebra Lineal de Howard Antón

1.9. APLICACIONES: CRECIMIENTO DE UNA POBLACION

Las matrices permiten formular modelos para el crecimiento de poblaciones. Primero se debe agrupar la población en clases o en franjas de edad, todas de igual duración. Así, si la vida mas larga se estima en L años, las clases de edad se pueden representar mediante los n intervalos

[0 , Ln ), [ Ln , 2 Ln ), …, [ (n−1 ) Ln

, L]El número de miembros de la población en cada clase se representa mediante el vector de distribución por edad

x=[x1x2⋮xn

] Númeroen la primera clasedeedadNúmeroen la segundaclasede edad

⋮Númeroen lan−ésima clasedeedad

Sobre un periodo de L/n años, la probabilidad de que un individuo en la clase i sobreviva hasta convertirse en uno de la clase (i+1) viene dada por pi, donde

0≤ p i≤1 ,i=1 ,2 ,⋯ , n−1

El número medio de descendientes producidos por un individuo de la clase i viene dado por b i, donde

0≤bi ,i=1 ,2 ,⋯ ,n

Estos números se pueden escribir en forma de matriz:

Page 36: Valores y Vectores Propios

[b1 b2 b3p1 0 00 p2 0

⋯bn−1 bn0 00 0

⋮ ⋱ ⋮0 0 0 ⋯ pn−1 0

]Al efectuar el producto de esta matriz de transición de edad por el vector de distribución por edad en un cierto periodo, se obtiene el vector de distribución de edad para el próximo periodo:

A x⃗ i= x⃗ i+1

1.9.1. EJEMPLOS 1) Una población de conejos en un laboratorio de investigación tiene las

siguientes características.a) La mitad de los conejos sobreviven el primer año. De estos, la

mitad la mitad sobrevive el segundo año. El límite de vida es de 3 años

b) Durante el primer año, los conejos no tienen descendencia. El numero medio de descendientes es 6 en el segundo año y 8 en el tercer año.

La población actual es de 24 conejos en la primera clase de edad, 24 en la segunda y 20 en la tercera. ¿Cuántos conejos habrá en cada clase de edad dentro de un año?

x⃗1=[242420 ]0≤edad<11≤edad<22≤edad<3

A=[ 0 6 80,5 0 00 0,5 0]

x⃗2=A x⃗1=[ 0 6 80,5 0 00 0,5 0 ][

242420]=[3041212 ]0≤edad<11≤edad<2

2≤edad<3

x⃗3=A x⃗2=[ 0 6 80,5 0 00 0,5 0] [

3041212 ]=[1681526 ]0≤edad<11≤edad<2

2≤edad<3

2) Hallar los vectores de distribución para el siguiente caso

Page 37: Valores y Vectores Propios

A=[ 0 2120] , x1=[1010]

x⃗2=A x⃗1=[ 0 2120] [1010]=[205 ]

x⃗3=A x⃗2=[ 0 2120] [205 ]=[1010 ]

3) Hallar los vectores de distribución

A=[0 3 41 0 0

012

0] , x1=[121212]x⃗2=A x⃗1=[0 3 4

1 0 0

0120 ][121212]=[84126 ]

x⃗3=A x⃗2=[0 3 41 0 0

0120 ][84126 ]=[60846 ]

4) Hallar una distribución estable para la siguiente matriz

A=[ 0 4116

0 ] , x1=[160160]|λ I n−A|=[ λ −4

−116

λ ]=λ2−14λ2−1

4=0

λ=12

λ=−12

Escogemos el eigenvalor positivo

[ 12 −4

−116

12

] [ x1x2]=[00]

Page 38: Valores y Vectores Propios

[ 12 −4

−116

12

][0 ]→t

x2=t x1=8 t

x⃗=[8tt ]=t [81 ]

5) Una población tiene las siguientes características a) El 75% de la población sobrevive el primer año. De ese 75%, el 25%

sobrevive el segundo año. La vida máxima es de tres años.b) El numero medio de descendientes para cada individuo de la

población es de 2 al primer año, 4 el segundo y 2 el tercero

La población actual es de 120 individuos en cada una de las tres clases de edad ¿Cuántos individuos habrá en cada clase al cabo de 1 año? ¿Y al cabo de 2 años?

x⃗1=[120120120]0≤edad<11≤edad<22≤edad<3

A=[ 2 4 234

0 0

0140 ]

x⃗2=A x⃗1=[ 2 4 234

0 0

014

0][120120120]=[9609030 ]

Page 39: Valores y Vectores Propios

x⃗3=A x⃗2=[ 2 4 234

0 0

014

0][9609030 ]=[2340720452

]1.9.2. BIBLIOGRAFIA TEMA 6:

Algebra Lineal de Larson-Edwars y Falvo

1.10. APLICACIONES: FORMAS CUADRATICAS

Los valores y vectores propios permiten resolver el problema de rotación de ejes.

1.10.1. FORMAS CUADRATICAS CON DOS VARIABLES

Una forma cuadrática con dos variables, x y y, se define como una expresión que se puede escribir como

ax2+2bxy+cy2

1.10.2. FORMAS CUADRATICAS CON n VARIABLES

Las formas cuadráticas no se limitan a dos variables. Se puede definir de la siguiente manera una forma cuadrática general.

Una forma cuadrática con las n variables x1 , x2 ,⋯ , xn es una expresión que se puede escribir como

⌈ x1 x2 ⋯ xn⌉ A[ x1x2⋮xn

]donde A es una matriz simétrica de n x n

Si se hace

x⃗=[x1x2⋮xn

]

Page 40: Valores y Vectores Propios

entonces la forma cuadrática de n variables se puede escribir de manera mas abreviada como

x⃗T A x⃗

Además, es posible demostrar que si las matrices en la forma cuadrática general se multiplican, la expresión resultante es de la forma

x⃗T A x⃗=a11 x12+a22 x2

2+⋯+ann xn2+∑

i ≠ j

a ij x i x j

donde

∑i ≠ j

aij x i x j

denota la suma de los términos de la forma a ij x i x j, donde x i y x json variables

diferentes. Los términos a ij x i x j denotan términos de producto cruzado de la forma cuadrática.

Las matrices simétricas son útiles, aunque no esenciales, para representar formas cuadráticas en notación matricial.

Las matrices simétricas producen en general los resultados más simples, de modo que siempre se usaran. Así, cuando una forma cuadrática se denote por

x⃗T A x⃗ se entenderá que A es simétrica, aun cuando no se especifique.

NOTA: Si se usa el hecho de que A es simétrica; es decir, A=AT , entonces la forma cuadrática de n variables se puede expresar en términos del producto interior euclidiano mediante

x⃗T A x⃗= x⃗T (A x⃗ )=¿A x⃗ , x⃗>¿< x⃗ , A x⃗>¿

1.10.3. PROBLEMAS EN QUE APARECEN FORMAS CUADRATICAS

Estos son algunos problemas matemáticos importantes relacionados con las formas cuadráticas.

Encontrar los valores máximos y mínimos de la forma cuadrática

x⃗T A x⃗ si x⃗ esta restringido de modo que ‖x⃗‖=¿

¿Qué condiciones debe satisfacer A para que una forma cuadrática cumpla la desigualdad x⃗T A x⃗≥0 para todo x⃗ ≠0?

Page 41: Valores y Vectores Propios

Si x⃗T A x⃗ es una forma cuadrática con dos o tres variables y c es

una constante, ¿Qué perfil tiene la grafica de la ecuación x⃗T A x⃗=c?

Si P es una matriz ortogonal, el cambio de variable x⃗=P y⃗ convierte la forma cuadrática x⃗T A x⃗ en ¿. Pero PT AP es una

matriz simétrica si A lo es, de modo que y⃗T (PT AP ) y⃗ es una nueva

forma cuadrática con las variables de y⃗. Es importante saber si P se puede elegir de modo que esta nueva forma cuadrática no contenga términos de producto cruzado.

Sea A una matriz simétrica n x n cuyos eigenvalores en orden decreciente son λ1≥ λ2≥⋯≥ λn. Si x⃗ se restringe de modo que ‖x⃗‖=1 con respecto al producto

interior euclidiano sobre Rn, entonces

a) λ1≥ x⃗T A x⃗ ≥ λn

b) x⃗T A x⃗=λn si x⃗ es un eigenvector de A correspondiente a λn y

x⃗T A x⃗=λ1 si x⃗ es un eigenvector de A correspondiente a λ1

Por esta definición se concluye que sujeta a la restricción

‖x⃗‖=¿

la forma cuadrática x⃗T A x⃗ tiene un valor máximo de λ1 (el eigenvalor más

grande) y un valor mínimo de λn (el eigenvalor mas pequeño).

1.10.4. MATRICES POSITIVAS DEFINIDAS Y FORMAS CUADRATICAS

Una forma cuadrática x⃗T A x⃗ se denomina positiva definida si x⃗T A x⃗>0 para todo

x⃗ ≠ 0⃗, y una matriz simétrica A se denomina matriz positiva definida si x⃗T A x⃗ es

una forma cuadrática positiva definida.

Forma principal sobre matrices positivas definidas

Una matriz simétrica A es positiva definida si y solo si los eigenvalores de A son positivos.

1.10.4.1. DEMOSTRACION

Supóngase que Aes positiva definida y sea λ cualquier eigenvalor de A. Si x⃗ es un eigenvector de A correspondiente a λ, entonces x⃗ ≠0 y A x⃗=λ x⃗, de modo que

0≤ x⃗T A x⃗= x⃗T λ x⃗=λ x⃗T x⃗=λ‖x⃗‖2

Page 42: Valores y Vectores Propios

Donde ‖x⃗‖ es la norma euclidiana de x⃗. Como ‖x⃗‖2>0, se deduce que λ>0, que

es lo que se quería demostrar.

De manera reciproca, supóngase que los eigenvalores de A son positivos. Se debe demostrar que x⃗T A x⃗>0 para todo x⃗ ≠ 0⃗. Pero si x⃗ ≠ 0⃗, es posible

normalizar x⃗ para obtener el vector y⃗=x⃗

‖x⃗‖ con la propiedad de que y⃗=1; por la

definición anterior se puede concluir que

y⃗T A y⃗ ≥ λn>0

donde λn es el menor eigenvalor de A. Asi,

y⃗T A y⃗=( x⃗‖x⃗‖)T

A ( x⃗‖x⃗‖)= 1

‖x⃗‖2x⃗T A x⃗ >0

Multiplicando por ‖x⃗‖2 se obtiene

x⃗T A x⃗ >0

Que es lo que se quería demostrar.

Si A=[ a11 a12a21 a22

⋯a1na2n

⋮ ⋱ ⋮an1 an2 ⋯ ann

], es una matriz cuadrada, entonces las submatrices

principales de A son las submatrices formadas a partir los de r primeros renglones y de las r primeras columnas de A para r=1,2 ,⋯ ,n. Estas submatrices son

A1= [a11 ], A2=[a11 a12a21 a22], A3=[a11 a12 a13

a21a31

a22 a22a32 a33

], ⋯ ,An=A=[ a11a21 a12

a22⋯

a1na2n

⋮ ⋱ ⋮an1 an2 ⋯ ann

]Una matriz simétrica A es positiva definida si y solo si el determinante de toda submatriz principal es positivo.

NOTA: Una matriz simétrica A y la forma cuadrática x⃗T A x⃗ se denominan

Page 43: Valores y Vectores Propios

Positiva semidefinida si x⃗T A x⃗≥0 para todo x⃗

Negativa definida si x⃗T A x⃗<0 para todo x⃗ ≠0

Negativa semidefinida si x⃗T A x⃗≤0 para todo x⃗

Indefinida si x⃗T A x⃗ tiene valores tanto positivos como negativos

1.10.5. DIAGONALIZACION DE FORMAS CUADRATICAS

Sea x⃗T A x⃗=[ x1 x2 ⋯ xn ] [ a11a21 a12

a22⋯

a1na2n

⋮ ⋱ ⋮an1 an2 ⋯ ann

][ x1x2⋮xn

]Una forma cuadrática, donde A es una matriz simétrica. Se sabe que existe una matriz ortogonal P que diagonaliza a A; es decir,

PT AP=D=[ λ10 0λ2

⋯ 00

⋮ ⋱ ⋮0 0 ⋯ λn

], donde λ1 , λ2 ,⋯, λn son los eigenvalores de A. Si se

hace

y=[ y1y2⋮yn

], donde y1 , y2 ,⋯ , yn son variables nuevas, y si se remplaza x⃗=P y⃗,

entonces se obtiene

x⃗T A x⃗=¿

Pero

y⃗T D y⃗=[ y1 y2 ⋯ yn ][ λ10 0λ2

⋯ 00

⋮ ⋱ ⋮0 0 ⋯ λn

][ y1y2⋮yn

]¿ λ1 y12+λ2 y22+⋯+λn yn2

Esta es una forma cuadrática sin términos de producto cruzado

Sea x⃗T A x⃗ una forma cuadrática en las variables x1 , x2 ,⋯ , xn donde A es simétrica. Si P diagonaliza ortogonalmente a A y si las nuevas variables y1 , y2 ,⋯ , yn están definidas por la ecuación x⃗=P y⃗, entonces al sustituir esta

ecuación en x⃗T A x⃗ se obtiene

Page 44: Valores y Vectores Propios

x⃗T A x⃗= y⃗T D y⃗=λ1 y12+λ2 y2

2+⋯+λn yn2

donde λ1 , λ2 ,⋯, λn son los eigenvalores de A y

D=PT AP=[ λ10 0λ2

⋯ 00

⋮ ⋱ ⋮0 0 ⋯ λn

]Se dice que la matriz P en esta definición diagonaliza ortogonalmente la forma cuadrática, o que reduce la forma cuadrática a una suma de cuadrados.

Otros métodos para la eliminación del producto cruzado son el método de Lagrange y la reducción de Kronecker

1.10.6. SECCIONES CONICAS

Para este tema se aplica formas cuadráticas al estudio de las forma

ax2+2bxy+cy2+dx+ey+ f=0

donde a ,b ,⋯ , f son todos, números reales y por lo menos uno de los números a ,b , c es diferente de cero. Una ecuación de este tipo se denomina ecuación cuadrática en xy y y

ax2+2bxy+cy2se denomina forma cuadrática asociada.

Cuando tenemos el producto cruzado dentro de una forma cuadrática significa que las cónicas no esta en la posición normal, sino que estas rotaron o se desplazaron.

Para nosotros poder obtener la cónica en una posición normal, se puede proceder de la siguiente manera.

Teorema de los ejes principales

ax2+2bxy+cy2+dx+ey+ f=0

la ecuación de una cónica C, y sea

x⃗T A x⃗=ax2+2bxy+cy2la forma cuadrática asociada. Entonces los ejes de

coordenadas se pueden girar de modo que la ecuación de C en el nuevo sistema de coordenadas x ' y ' sea de la forma

Page 45: Valores y Vectores Propios

λ1 x'2+λ2 y

'2+d ' x '+e ' y '+ f=0

donde λ1 y λ2 son los eigenvalores de A. La rotación se puede efectuar mediante la sustitución

x⃗=P x⃗ '

donde P diagonaliza ortogonalmente a x⃗T A x⃗ y det (P )=1

1.10.7. EJEMPLOS1) Expresar la siguiente forma cuadrática en la notación matricial x⃗T A x⃗,

donde A es simétrica

9 x12−x2

2+4 x32+6 x1 x2−8 x1 x3+x2 x3

9 x12−x2

2+4 x32+6 x1 x2−8 x1 x3+x2 x3=¿

[ x1 x2 x3 ] [ 9 3 −4

3 −1 12

−412

4 ][ x1x2x3]2) Encontrar los valores máximos y mínimos de la forma cuadrática

sujeta a la restricción x12+ x2

2=1 y determinar los valores de x1 y x2 en los

que ocurren los valores máximo y mínimo

7 x12+4 x2

2+x1 x2

7 x12+4 x2

2+x1 x2=[ x1 x2 ] [ 7 12

12

4 ] [x1x2]|λ I n−A|=|λ−7 −1

2−12

λ−4|=λ2−11 λ+ 1114λ2−11 λ+ 111

4=0

λ=11+√102

λ=11−√102

Con λ=11+√102

Page 46: Valores y Vectores Propios

[−3+√102−12

−12

3+√102

] [ x1x2]=[00]

[−3+√102

−12

−12

3+√102

][0 ]→t

x2=t x1=(3+√10 ) t

x⃗=[ (3+√10 )tt ]=t [3+√10

1 ]p⃗1=

[ (3+√10 ) ,1]‖(3+√10 )2+1‖

=[ (3+√10 ) ,1]

√[(20¿+6 √10)]¿

Con λ=11−√102

[−3+√102−12

−12

3−√102

][ x1x2]=[00]

[−3+√102

−12

−12

3−√102

][0 ]→0

x2=t x1=(3−√10 )t

x⃗=[(3−√10 ) tt ]=t [3−√10

1 ]p⃗2=

[ (3−√10 ) ,1]‖(3−√10 )2+1‖

=[ (3−√10 ) ,1]

√[(20¿−6√10)]¿

El valor máximo es λ=11+√102

El valor mínimo es λ=11−√102

3) Determine si la siguiente matriz es positiva definida

A=[ 5 −1−1 5 ]

Page 47: Valores y Vectores Propios

|λ I n−A|=|λ−5 11 λ−5|=λ2−10 λ+25−1=λ2−10 λ+24

λ2−10 λ+24=0λ=6 λ=4Sus eigenvalores al ser positivos, se puede decir que esta matriz es positiva definida.4) Encuentre una forma cuadrática asociada a la siguiente ecuación

cuadrática

2 x2−3xy+4 y2−7 x+2 y+7=0La forma cuadrática asociada es:

2 x2−3xy+4 y25) La cónica que se encuentra en posición normal por medio de una traslación identificar la cónica y proporcionar su ecuación en el sistema de coordenadas trasladado

9 x2+4 y2−36 x−24 y+36=0(9 x2−36 x )+(4 y2−24 y )=−36

9 (x2−4 x )+4 ( y2−6 y )=−369 (x2−4 x+4 )+4 ( y2−6 y+9 )=−36+36+369¿x '=x−2 y '= y−39 x ' 2+4 y ' 2=36x '2

4+ y '

2

9=1→La ecuación es la de un elipse

1.10.8. BIBLIOGRAFIA TEMA 7: Introducción al Algebra Lineal de Howard Antón

1.11. CONCLUSIONES

Page 48: Valores y Vectores Propios

Al concluir el trabajo, se ha aprendido a resolver de manera correcta ejercicios que utilizan tanto los valores y vectores propios, además se ha visto algunas aplicaciones de los mismos tanto en el campo ocupacional como para cosas de la vida cotidiana.

Se ha aprendido a hacer correctamente la rotación de ejes para las secciones cónicas, ya que esto nos ayuda para el estudio de las mismas.

Los valores y vectores propios o también conocidos como ”eigenvalores y eigenvectores” tienen muchas aplicaciones dentro de ingeniería, al realizar este trabajo se ha puesto en practica todo lo aprendido durante el ciclo, y ha ayudado a reforzar nuestro conocimientos

1.12. RECOMENDACIONES

Realizar de forma coherente la investigación para luego no tener inconvenientes al aplicar la teoría que fue revisada para realizar dicho trabajo.

Buscar diferentes biografías para reforzar de manera correcta nuestros conocimientos, que el lenguaje sea el mismo que el que se nos ha enseñado dentro de las aulas de clase.

1.13. BIBLIOGRAFIA GENERAL

Page 49: Valores y Vectores Propios

FISICA

Anton, H. (s.f.). Introduccion al Algebra Lineal (Tercera edicion ed.). Limusa Wiley.

Kolman, B. (s.f.). Algebra Lineal (Octava Edicion ed.). Pearson.

Larson-Edwards-Falvo. (s.f.). Algebra lineal (Quinta Edicion ed.). Piramide.

VIRTUAL

(s.f.). Obtenido de http://www.miscelaneamatematica.org/Misc43/CarMtnez_a.pdf

(s.f.). Obtenido de http://www.biografiasyvidas.com/biografia/c/cauchy.htm

(s.f.). Obtenido de http://www.biografiasyvidas.com/biografia/l/lagrange.htm

(s.f.). Obtenido de http://www.biografiasyvidas.com/biografia/k/kronecker.htm

(s.f.). Obtenido de http://www.biografiasyvidas.com/biografia/h/hermite.htm

(s.f.). Obtenido de http://www.biografiasyvidas.com/biografia/e/euler.htm

(s.f.). Obtenido de http://www.biografiasyvidas.com/biografia/l/laplace.htm

(s.f.). Obtenido de http://www.biografiasyvidas.com/biografia/d/d_alembert.htm

(s.f.). Obtenido de http://www.biografiasyvidas.com/biografia/s/sturm.htm

Anton, H. (s.f.). Introduccion al Algebra Lineal (Tercera edicion ed.). Limusa Wiley.

Kolman, B. (s.f.). Algebra Lineal (Octava Edicion ed.). Pearson.

Larson-Edwards-Falvo. (s.f.). Algebra lineal (Quinta Edicion ed.). Piramide.