View
8
Download
0
Category
Preview:
Citation preview
Valores y vectores característicos
1. Definición de valores y vectores característicos de una matriz cuadrada
En álgebra lineal, los vectores propios, auto vectores o eigenvectores de un operador
lineal son los vectores no nulos que, cuando son transformados por el operador, dan lugar
a un múltiplo escalar de sí mismos, con lo que no cambian su dirección. Este escalar recibe
el nombre valor propio, auto valor, valor característico o eigenvalor. A menudo, una
transformación queda completamente determinada por sus vectores propios y valores
propios. Un espacio propio, auto espacio o eigenespacio es el conjunto de vectores
propios con un valor propio común.
Las transformaciones lineales del espacio como la rotación, la reflexión, el
ensanchamiento, o cualquier combinación de las anteriores; en esta lista podrían incluirse
otras transformaciones pueden interpretarse mediante el efecto que producen en los
vectores. Los vectores pueden visualizarse como flechas de una cierta longitud apuntando
en una dirección y sentido determinados.
Los vectores propios de las transformaciones lineales son vectores que, o no se ven
afectados por la transformación o se ven multiplicados por un escalar que no varía su
dirección.
El valor propio de un vector propio es el factor de escala por el que ha sido multiplicado.
Un espacio propio es un espacio formado por todos los vectores propios del mismo valor
propio, además del vector nulo, que no es un vector propio.
La multiplicidad geométrica de un valor propio es la dimensión del espacio propio
asociado.
El espectro de una transformación en espacios vectoriales finitos es el conjunto de todos
sus valores propios.
Por ejemplo, un vector propio de una rotación en tres dimensiones es un vector situado en
el eje de rotación sobre el cual se realiza la rotación. El valor propio correspondiente es 1 y
el espacio propio contiene a todos los vectores paralelos al eje. Como es un espacio de
una dimensión, su multiplicidad geométrica es uno. Es el único valor propio del espectro
(de esta rotación) que es un número real.
Formalmente, se definen los vectores propios y valores propios de la siguiente manera: Si
A: V! V es un operador lineal en un cierto espacio vectorial V, v es un vector diferente de
cero en V y c es un escalar (posiblemente cero) tales que
Entonces decimos que v es un vector propio del operador A, y su valor propio asociado es
c. Observe que si v es un vector propio con el valor propio c entonces cualquier múltiplo
diferente de cero de v es también un vector propio con el valor propio c. De hecho, todos
los vectores propios con el valor propio asociado c junto con 0, forman un subespacio de
V, el espacio propio para el valor propio c.
Ecuación del valor propio o autovalo
Matemáticamente, v es un vector propio y el valor propio correspondiente de una
transformación T si verifica la ecuación:
Donde T (v) es el vector obtenido al aplicar la transformación T a v.
Supóngase que T es una transformación lineal (lo que significa que
para todos los escalares a, b, y los vectores v, w). Considérese una base en ese espacio
vectorial. Entonces, T y v pueden representarse en relación a esa base mediante una
matriz AT y un vector columna v—un vector vertical unidimensional. La ecuación de valor
propio en esta representación matricial se representa de la siguiente forma:
Donde la yuxtaposición es un producto de matrices. Dado que en esta circunstancia la
transformación T y su representación matricial AT son equivalentes, a menudo podemos
emplear sólo T para la representación matricial y la transformación. Esto es equivalente a
un conjunto de n combinaciones lineales, donde n es el número de vectores de la base. En
esta ecuación, tanto el valor propio y las n componentes de v son desconocidos. Sin
embargo, a veces es poco natural o incluso imposible escribir la ecuación de vector propio
en forma matricial. Esto ocurre, por ejemplo, cuando el espacio vectorial es de dimensión
infinita, como por ejemplo en el caso de la cuerda mostrada anteriormente. Dependiendo
de la naturaleza de la transformación T y el espacio al que se aplica, puede ser ventajoso
representar la ecuación de valor propio como un conjunto de ecuaciones diferenciales,
donde los vectores propios reciben a menudo el nombre de funciones propias del
operador diferencial que representa a T. Por ejemplo, la derivación misma es una
transformación lineal, ya que (si f (t) y g (t) son funciones derivables y a y b son
constantes)
Considérese la diferenciación con respecto a t. Sus funciones propias h (t) obedecen a la
ecuación de valor propio:
,
Donde es el valor propio asociado con la función. Una función en el tiempo es constante
si = 0, crece proporcionalmente a sí misma si es positiva, y decrece proporcionalmente a
sí misma si es negativa. Por ejemplo, una población ideal de conejos engendra con más
frecuencia a medida que hay más conejos, y por tanto satisface la ecuación para lambda
positiva.
La solución a la ecuación de valor propio es g (t) = exp (t), la función exponencial; pues esa
función es una función propia del operador diferencial d/dt con el valor propio. Si es
negativa, la evolución de g se denomina decaimiento exponencial; si es positiva se
denomina crecimiento exponencial. El valor de puede ser cualquier número complejo. El
espectro de d/dt es entonces el plano complejo en su totalidad. En este ejemplo el espacio
vectorial en el que actúa d/dt es el espacio de las funciones derivables de una variable.
Este espacio tiene una dimensión infinita (pues no es posible expresar cada función
diferenciable como combinación lineal de un número finito de funciones base). No
obstante, el espacio propio asociado a un valor propio determinado es unidimensional. Es
el conjunto de todas las funciones g (t) = Aexp (t), donde A es una constante arbitraria, la
población inicial en t=0.
Valor propio
Se dice que el número, real y/o complejo, es un valor propio A si existe un vector no nulo
u, real o complejo tal que Au = u, es decir (A " I ) u = 0
Propiedades de los valores propios
Definición 3 Dos matrices n×n, A y B, se dicen semejantes si existe una matriz invertible P
tal que A = P"1BP.
Teorema 3 Dos matrices semejantes tienen el mismo polinomio característico y, por
consiguiente, los mismos valores propios.
Definición 4 Una matriz A se dice diagonalizable (por semejanza) si es semejante a una
matriz diagonal.
Teorema 4 Una matriz A, n × n, es diagonalizable si y sólo si tiene n vectores propios
linealmente independientes.
Teorema 5 La suma de los valores propios de una matriz A es igual a la traza de la matriz,
es decir, 1 + 2 + · · · + n =aii.
Teorema 6 El producto de los valores propios de una matriz A es igual al determinante de
la matriz.
Teorema 7 Los valores propios de una matriz triangular son los coeficientes de su diagonal
principal.
Teorema 8 Una matriz A es singular si y solo si tiene un valor propio igual a cero.
Teorema 9 Si los valores propios de una matriz A son i, 0 " i " n, los valores propios de la
matriz A "I son i “, 0 " i " n.
Los vectores propios de A y A "I son idénticos.
Teorema 10 Los valores propios de las potencias de una matriz A son las correspondientes
potencias; los vectores propios son los mismos.
Vector propio
El vector u se denomina vector propio de A asociado al valor propio.
2. Polinomio y ecuación característica
En general, el polinomio que resulta de desarrollar |A " I |, cuyos ceros son precisamente
los valores propios de A, se denomina polinomio característico.
P() = ("1)nn + a1n"1 + … + an
Consideremos una matriz n-cuadrada arbitraria:
La matriz (A - l·In), donde In es la matriz identidad n-cuadrada y l un escalar
indeterminado, se denomina matriz característica de A:
Su determinante, det (A - l·In) , que es un polinomio en l, recibe el nombre de polinomio
característico de A. Asimismo, llamamos a det (A - l·In) = 0
Ecuación característica de A.
Ejemplo 1:
Hallar la matriz característica y el polinomio característico de la matriz A:
La matriz característica será (A - l·In). Luego:
Y el polinomio característico,
Así pues, el polinomio característico es: l 2 - l + 4.
3. Determinación de los valores y vectores característicos de una matriz
cuadrada
Si se quiere calcular los valores propios de una matriz dada y ésta es pequeña, se puede
calcular simbólicamente usando el polinomio característico. Sin embargo, a menudo
resulta imposible para matrices extensas, caso en el que se debe usar un método
numérico.
Cálculo simbólico
Encontrando valores propios
Una herramienta importante para encontrar valores propios de matrices cuadradas es el
polinomio característico: decir que es un valor propio de A es equivalente a decir que el
sistema de ecuaciones lineales (A -I) v = 0 (donde I es la matriz identidad) tiene una
solución no nula v (un vector propio), y de esta forma es equivalente al determinante:
La función p () = det(A - I) es un polinomio de pues los determinante se definen como
sumas de productos. Éste es el polinomio característico de A: los valores propios de una
matriz son los ceros de su polinomio característico.
Todos los valores propios de una matriz A pueden calcularse resolviendo la ecuación pA()
= 0.
Si A es una matriz n×n, entonces pA tiene grado n y A tiene al menos n valores propios.
El teorema fundamental del álgebra dice que esta ecuación tiene exactamente n raíces
(ceros), teniendo en cuenta su multiplicidad. Todos los polinomios reales de grado impar
tienen un número real como raíz, así que para n impar toda matriz real tiene al menos
valor propio real. En el caso de las matrices reales, para n par e impar, los valores propios
no reales son pares conjugados.
Encontrando vectores propios
Una vez que se conocen los valores propios, los vectores propios se pueden hallar
resolviendo:
Un ejemplo de matriz sin valores propios reales es la rotación de 90 grados en el sentido
de las manecillas del reloj:
Cuyo polinomio característico es 2 + 1 y sus valores propios son el par de conjugados
complejos i, -i. Los vectores propios asociados tampoco son reales.
Ejemplo
Considérese la matriz
Que representa un operador lineal R³! R³. Si se desea computar todos los valores propios
de A, se podría empezar determinando el polinomio característico:
Y porque p(x) = - (x - 2)(x - 1)(x + 1) se ve que los valores propios de A son 2, 1 y -1. El
teorema de Cayley-Hamilton establece que cada matriz cuadrada satisface su propio
polinomio característico.
Efectivamente, para el caso del valor propio 2, se puede comprobar que
Cálculo numérico [editar]
En la práctica, los valores propios de las matrices extensas no se calculan usando el
polinomio característico. Calcular el polinomio resulta muy costoso, y extraer las raíces
exactas de un polinomio de grado alto puede ser difícil de calcular y expresar: el teorema
de Abel-Ruffini implica que las raíces de los polinomios de grado alto (5 o superior) no
pueden expresarse usándose simplemente raíces enésimas. Existen algoritmos eficientes
para aproximar raíces de polinomios, pero pequeños errores en la estimación de los
valores propios pueden dar lugar a errores grandes en los vectores propios. En
consecuencia, los algoritmos generales para encontrar vectores propios y valores propios
son iterativos. La manera más fácil es el método de las potencias: se escoge un vector
aleatorio v y se calcula una secuencia de vectores unitarios:
,
,
, ...
Esta secuencia casi siempre convergerá a un vector propio correspondiente al mayor valor
propio. Este algoritmo es sencillo, pero no demasiado útil aisladamente. Sin embargo, hay
métodos más populares, como la descomposición QR, que se basan en él
Valores propios de una matriz cualquiera
Si es complejo, entonces u es complejo.
Los valores propios de B = C"1AC son los mismos de A. Si x es el vector propio asociado a,
entonces Cx es un vector propio de B asociado a.
4. Diagonalización de matrices, potencias y raíces de matrices
¿Qué es diagonalizar una matriz?
Para estudiar una matriz suele ser conveniente expresarla de forma lo más sencilla
posible. Diagonalizar una matriz A es precisamente eso: escribirla de manera simple
encontrando una matriz invertible P y una diagonal D (si se puede) tales que
A = P D P-1
La matriz P se llama matriz de paso.
Puede que esto, al principio, no parezca más simple de lo que ya era A directamente. Sin
embargo, lo es desde muchos puntos de vista. Dado que las matrices suelen usarse para
representar aplicaciones lineales, la expresión anterior puede verse como un cambio de
base de la aplicación representada por A; entonces, esta forma de escribirlo dice: hay una
base en la que la aplicación lineal A tiene una forma muy simple (diagonal). Esto es útil,
por ejemplo, para clasificar una aplicación lineal y estudiar sus propiedades. Las matrices
se usan para representar otras cosas como cónicas, cuadricas o formas bilineales, y en
estos casos también resulta útil esta forma de expresarlas.
La relación anterior entre las matrices A y D es importante y aparece en muchos
contextos, así que tiene nombre propio:
Cuando dos matrices cuadradas A y B verifican que A = P B P-1 para cierta, matriz
cuadrada P (invertible, claro) decimos que A y B son semejantes.
Una matriz es diagonalizable cuando se puede diagonalizar; es decir, cuando podemos
encontrar una matriz diagonal y una invertible de forma que la matriz se escriba como
dijimos antes. Dicho de otra forma: una matriz es diagonalizable cuando es semejante a
una matriz diagonal. En estas prácticas sólo consideraremos como diagonalizables las
matrices que sean semejantes a una matriz diagonal real. Entonces, más exactamente:
una matriz es diagonalizable cuando es semejante a una matriz diagonal real.
¿Cuándo y cómo podemos diagonalizar una matriz?
Si conseguimos escribir una matriz A como A = P D P-1, entonces podemos poner también
A P = P D. Si D es diagonal y nos fijamos en la columna i de esta última igualdad lo que
tenemos es que A xi = li xi (donde xi es la columna i de A y li es el número en el lugar i de la
diagonal de D). Esto nos dice que para diagonalizar una matriz nos hace falta conocer los
vectores a los que les pase algo así. Estos vectores también tienen nombre:
Si un número l y un vector no nulo x verifican la relación A x = l x diremos que l es un valor
propio o auto valor de la matriz A y que x es un vector propio o autovector de A asociado
al valor propio l.
Es fácil ver que diagonalizar una matriz A de tamaño n×n es lo mismo que encontrar n
vectores propios linealmente independientes asociados a valores propios reales, ya que
entonces podemos ponerlos por columnas y conseguir así la matriz P (puedes comprobar
que entonces se cumple la relación que buscamos). Entonces, para diagonalizar una
matriz lo que tenemos que hacer es buscar n vectores propios suyos linealmente
independientes asociados a valores propios reales.
Sea
una matriz de orden
. Se dice que
es una matriz diagonal si
para
. Sea
una transformación lineal de un espacio
de dimensión finita
. Se dice que
es diagonalizable si existe una base
en
tal que
es una matriz diagonal. Una matriz
de orden
se dice que es diagonalizable si
es similar a una matriz diagonal. Teniendo en cuenta que matrices que representen la
misma transformación lineal son similares, se tiene el siguiente resultado.
Proposición 3. Sea
una transformación lineal de un espacio
de dimensión finita
y sea
una base cualquiera de
. Entonces,
es diagonalizable si y sólo si
es diagonalizable.
En términos de vectores propios se tiene el siguiente criterio obvio de diagonalización.
Teorema 1. Sea
una transformación lineal de un espacio
de dimensión finita
es diagonalizable si y sólo si
tiene una base constituida por vectores propios.
Según la Proposición 1 y el Corolario 2 se tiene el siguiente corolario.
Corolario 3. Sea
una matriz cuadrada de orden
. Entonces,
a)
es diagonalizable si y sólo si
tiene
vectores propios L I
b) Si
tiene
valores propios diferentes, entonces
es diagonalizable.
El recíproco de la parte b) del corolario anterior no siempre se cumple: la matriz idéntica
es diagonal, sin embargo sus
valores propios coinciden y son iguales a
.
Proposición 4. Sea
una transformación lineal de un espacio
de dimensión finita
Sean
los valores propios diferentes para
,
, y
los subespacios propios correspondientes. Entonces, la suma
es directa. En consecuencia,
Demostración
Podemos probar ahora un criterio de diagonalización en términos del polinomio
característico y de los espacios propios.
Teorema 2. Sea
una transformación lineal de un espacio
de dimensión finita
Sean
los valores propios diferentes para
,
, y
los subespacios propios correspondientes. Entonces, las siguientes condiciones son
equivalentes:
a)
es diagonalizable.
b) El polinomio característico de
es de la forma
Donde
c)
d)
Demostración
Ejercicio 1. Determinar si las siguientes matrices son diagonalizables. En caso afirmativo
encontrar una matriz que diagonalice:
Ejercicio 2. Determinar los valores y vectores propios del operador derivación sobre el
espacio
. ¿Es este operador diagonalizable?
Ejercicio 3. Sean
y
matrices cuadradas de orden
y
, respectivamente. Demuestre que el polinomio característico de la matriz
Es
Ejercicio 4. Sea
una matriz de orden
y
un polinomio cualquiera. Demuestre que si
es diagonalizable, entonces
es diagonalizable.
Ejercicio 5. Sea
una matriz de orden
tal que
para cada
Demuestre que
es un valor propio de
.
Solución. Sea
un vector propio de la matriz
correspondiente al valor propio
. Entonces
, se obtiene entonces que para cada
se cumple
. Nótese que si todas las entradas del vector
son iguales entonces todas las ecuaciones anteriores se satisfacen. Entonces, siendo
cualquier elemento no nulo de
se cumple que para
se satisface
, y así
es un vector propio de
con valor propio
.
Método de Potencia.
Considere una matriz cuadrada A. Los valores y vectores propios satisfacen la ecuación
Donde
es el i-ésimo valor propio y
es el i-ésimo vector propio. Si
es una matriz simétrica, algunos valores propios pueden ser complejos.
Supongamos que
,
El método de potencia se inicia con un vector propio inicial.
Y las iteraciones subsecuentes son
Con
5. Diagonalización de matrices simétricas, diagonalización ortogonaL
Valores propios de matrices simétricas
Si D es la matriz diagonal cuyos elementos diagonales son los valores propios de A,
entonces existe una matriz ortogonal Q tal que D = Q"1AQ = QtAQ.
Asimismo, existen n vectores propios de A que forman un conjunto ortonormal, y
coinciden con las columnas de la matriz ortogonal Q.
Todos los valores propios de A son reales.
A es definida positiva si y sólo si todos los valores propios de A son positivos.
Para estudiar una matriz suele ser conveniente expresarla de forma lo más sencilla
posible. Diagonalizar una matriz A es precisamente eso: escribirla de manera simple
encontrando una matriz invertible P y una diagonal D (si se puede) tales que A = P D P-1 La
matriz P se llama matriz de paso. Matriz diagonalizable: Una matriz n x n es diagonolazible
si existe una matriz diagonal D tal que A es semejante a D. Observación: Si D es una matriz
diagonal, entonces los valores propios son sus componentes en la diagonal. Si A es
semejante a D, entonces Ay D tiene los mismos valores propios. Uniendo estos dos hechos
se observa que si A es diagonaliizable, entonces A es semejante a una matriz diagonal
cuyas componentes en la diagonal son los valores propios de A. El siguiente teorema
establece cuando una matriz es diagonalizable. TEOREMA: Una matriz A de n x n es
diagonalizable si y solo si tiene n vectores propios linealmente independientes. En tal
caso, la matriz diagonal D semejante a A esta dada por
1 0 … 0
0 2 0 … 0
0 0 3 … 0
D = . . . .
0 0 0 … n
Donde1, 2,….. , n son los valore propios de A. Si C es una matriz cuyas columnas son
vectores propios linealmente independientes de A, entonces D = C-1AC Una matriz
diremos que es ortogonal si su transpuesta coincide con su inversa.
P ortogonal <=> P-1 = Pt
Si P= (u1|u2|…|un) resulta que decir que P es ortogonal, es equivalente a decir que los
vectores {u1, u2,…, un} son ortonormales (respecto al producto escalar habitual) Para las
matrices reales y simétricas podemos dar una diagonalización donde la matriz de paso es
ortogonal. Esto es lo que se entiende por diagonalización ortogonal.
Diagonalización ortogonal
Una matriz diremos que es ortogonal si su traspuesta coincide con su inversa.
Si
resulta que decir que
es ortogonal, es equivalente a decir que los vectores
son ortonormales (respecto al producto escalar habitual) Para las matrices reales y
simétricas podemos dar una diagonalización donde la matriz de paso es ortogonal. Esto es
lo que se entiende por diagonalización ortogonal.
6. Formas cuadráticas
Una forma cuadrática es una aplicación del espacio vectorial E en el cuerpo K, que cumple
las siguientes condiciones equivalentes: a) Existe una forma bilineal simétrica f de ExE en
el cuerpo K tal que (x) = f(x,x). A f se le llama forma polar de. b) (lx) = l2x, . Además f(x,y) =
( (x + y) " (x) " (y)) / 2 es una forma bilineal simétrica definida en ExE y con valores en K. A
se la llama forma cuadrática asociada a f. Cuando se dice que la forma cuadrática es real.
A veces a las formas cuadráticas definidas positivas se las denomina métricas. Formas
cuadráticas Una forma cuadrática en R3 es cualquier conjunto de puntos xT=(x1,x2,x3) que
satisface una ecuación del tipo: xTAx=r, (1) donde A es una matriz simétrica de 3x3 a
coeficientes reales y r es un número real. Vía una rotación del espacio dada por y=PTx
donde yT=(y1,y2,y3) y P es una matriz unitaria de 3x3 a coeficientes reales, se puede
expresar una forma cuadrática arbitraria con respecto a un vector y de manera que:
yTDy=r, (2) donde D es una matriz diagonal de 3x3 a coeficientes reales. ¿Por qué siempre
pueden encontrarse P y D con las propiedades requeridas? ¿Por qué P representa una
rotación del espacio? Vía un re-escalamiento adicional dado por z=D'y donde zT=(z1,z2,z3)
y D' es una matriz diagonal de 3x3 a coeficientes reales no-negativos, se puede expresar la
última ecuación obtenida con respecto el vector z de manera que quede representada por
una ecuación del tipo: zTJz=r, (3) donde J es una matriz diagonal de 3x3 que sólo puede
contener en su diagonal valores que están en {"1,0,1}.
Una forma cuadrática es una aplicación del espacio vectorial E en el cuerpo K, que cumple
las siguientes condiciones equivalentes:
a) Existe una forma bilineal simétrica f de ExE en el cuerpo K tal que (x)=f(x,x). A f se le
llama forma polar de.
b) (lx) = l2x,
. Además f(x,y) = ( (x + y) " (x) " (y)) / 2 es una forma bilineal simétrica definida en ExE y
con valores en K. A se la llama forma cuadrática asociada a f.
Cuando
se dice que la forma cuadrática es real. A veces a las formas cuadráticas definidas positivas
se las denomina métricas.
7. Teorema de Cayley-Hamilton
El teorema de Cayley"Hamilton establece que cada matriz cuadrada A satisface su
ecuación característica: Si p() = det(") es el polinomio característico de A, entonces p(A) es
la matriz nula.
Entre las diversas demostraciones del teorema hemos encontrado en R. Bellman (1965)
una puramente algebraica, que es la que detallamos, con algún matiz, en nuestro trabajo.
El interés de la demostración radica en la utilidad que puede tener para nuestros alumnos
de primer curso, la exposición de un desarrollo lógico basado en sus conocimientos
básicos de cálculo matricial. También es inmediato y puede ser igualmente útil calcular, a
partir del teorema, la inversa de A, cuando A sea no singular.
Sea p) = ( " 1) n n+ cn"1 n"1+ cn"2 n"2+ ... + c2 2 + c1 + c0 el polinomio característico de
una matriz A de orden n. Entonces p(A) = ( " 1) nn + cn"1 n"1 + cn"2 An"2 + ... + c1 A + c0 I
es la matriz nula. Es decir, cada matriz cuadrada A satisface su ecuación característica p(A)
= 0.
Nota: A es una matriz de orden n con elementos en un cuerpo K; por tanto, los
coeficientes ci del polinomio característico det(") pertenecen a dicho cuerpo K.
Demostración
Por las propiedades de las matrices se cumple que:
(A " I) Adj(A "I) t = p()I
donde Adj(A " I) t es la matriz transpuesta de la matriz de los adjuntos de los elementos
respectivos de la matriz A " I y p() = det(") es el polinomio característico de la matriz A.
Si denotamos B() = Adj(A " I)t, entonces B() es una matriz polinómica en, de grado n"1, que
se puede escribir como:
B() = n"1 n"1+ n"2 n"2+ ... + 2 2 + 1 + 0
Donde cada i es una matriz de orden n, con elementos en el cuerpo K. Entonces el
producto (A " I) B() vale:
(A "I) B() = (A " I )(n"1 n"1+n"2 n"2+ ... + 2 2 +1 +0) = " Bn"1 n + n"1 " n"2) n"1+(n"2 " n"3)
n"2+ ... + (2 "1) 2 + (1 "0) + 0
Por otro lado p() I es la matriz polinómica:
p() I = ( " 1) n I n+ cn"1 I n"1+ cn"2 I n"2+ ... + c2 I 2 + c1 I + c0 I
Luego, igualando las matrices polinómicas, con elementos en el dominio K(), (A "I) B() = p()
I, se deduce que:
"n"1 = ( " 1) n I
n"1 "n"2 = cn"1 I
n"2 "n"3 = cn"2 I
.
.
.
AB2 " 1= c2 I
1 "0= c1 I
0 = c0 I
Si vamos sustituyendo cada matriz Bi en la siguiente ecuación hasta llegar a la penúltima
resulta:
" n"1 = ( " 1) n I
" n"2 = ( " 1) n A + cn"1 I
" n"3 = ( " 1) n A2 + cn"1 A + cn"2 I
" n"4 = ( " 1) n A3 + cn"1 A2 + cn"2 A + cn"3 I
ÛÜ
- B2= (-1)n An"3 + cn"1 An"4 + cn"2 An"5 + ...+ c4 A + c3 I
"1= ( " 1) n An"2 + cn"1 An"3 + cn"2 An"4 + ...+ c3 A + c2 I
0 = ( " 1) n An"1 + cn"1 An"2 + cn"2 An"3 + ...+ c2 A + c1 I
Entonces sustituyendo 0 en la última ecuación0 = c0 I se obtiene:
" 0 = ( " 1) n An + cn"1 An"1 + cn"2 An"2 + ...+ c2 A2 + c1 A = " c0 I
Poor tanto, ( " 1) n An + cn"1 An"1 + cn"2 An"2 + ...+ c2 A2 + c1 A + c0 I = 0. Es decir, p(A) =
0 c.q.d.
8. Aplicaciones
Los valores y vectores característicos tienen muchas aplicaciones en la tanto en el ramo de
las matemáticas como física, mencionaremos algunos temas en donde también se pueden
emplear: Orbitales moleculares, Análisis factorial, Tensor de inercia, Tensor de tensión y
Valores propios de un grafo, En ecuaciones lineales, matrices, etc.
Algunos de estos campos de aplicación son:
- Ecuaciones diferenciales
- Estabilidad de sistemas lineales
- Sistemas eléctricos (componentes simétricas)
- Polos y ceros de funciones transferencia
- Diagonalización de matrices
APLICACIONES:
Los valores propios y los vectores propios tienen muchas aplicaciones.
Se mencionarán algunas de ellas:
ESTADÍSTICA:
Análisis de conglomerados (Cluster)
Como parte del análisis, se calculan los valores propios de la matriz de varianza
covarianza, lo que permite posteriormente calcular las distancias.
Análisis de componentes principales:
Los valores propios permiten decidir qué variables son las realmente importantes y
posteriormente realizar agrupamientos
Análisis de factores (Factor Análisis)
ECUACIONES DIFERENCIALES:
Se usan para resolver sistemas de ecuaciones diferenciales lineales.
FISICA:
a) En la mecánica cuántica, la base es los valores y vectores propios. Los datos se
representan por operadores hermitianos Q. En un cierto estado, se encuentra el valor
propio a, y el estado del sistema será la proyección del estado sobre el vector propio
asociado con a.
b) Los péndulos: hay una Buena demostración con botellas oscilantes, que depende de
valores propios. Esto puede encontrarse bajo el tema “péndulos acoplados”.
c) En rotación de cuerpos rígidos, si importar lo complicado que un objeto parece,
siempre hay al menos un conjunto de tres direcciones ortogonales alrededor en las que el
cuerpo puede rotar sin precesión, y para su cálculo se usan vectores propios.
d) TELECOMUNICACIONES: El llamado algoritmo de “formación de rayos”, en el caso de
antenas múltiples, requiere el cálculo de vectores propios.
DINAMICA POBLACIONAL:
Se puede modelar la dinámica de una población en forma de una matriz actuando sobre
vectores, y analizar en las iteraciones lo que ocurre. Para ello se utiizan vectores propios.
Conclusión
Los valores y vectores característicos juegan un papel muy importante en el ramo de las
matemáticas como en el de la física, ya que a través de estos podemos resolver muchas
dificultades que se nos presentan en la vida.
Nos dimos cuenta de las diferentes propiedades que poseen los valores y vectores
característicos, así como las diferentes formas de resolverlos.
Entendimos que no podemos dejar a tras todo lo aprendido en el curso, porque todo va
ligado a cada tema. Con esto podríamos decir que hemos aprendido a tener un amplio
criterio de la utilidad de temas ya vistos en nuestra carrera, ya que no podemos omitir las
enseñanzas pasadas ya que estas nos forman las bases para comprender y analizar y
poder poner en práctica los temas futuros.
Esperamos que este artículo les sirva a todos aquellos que deseen aprender más y les
ayude en su formación profesional.
Recommended