Geometría Analítica con Matlab/Valores y Vectores Propios

De Wikilibros, la colección de libros de texto de contenido libre.
Saltar a: navegación, buscar

Valores y Vectores Propios[editar]

Se plantea una revisión del propiedades sobre determinantes, a partir de la definición propuesta en el libro de matrices de Frank Ayres, página 20, que hace uso del número de inversiones en una permutación.

Inicialmente, considérese una matriz de orden 3. Sea

B=\left[\begin{array}{lcr}b_{11} &b_{12} &b_{13} \\b_{21} &b_{22} &b_{23} \\b_{31} &b_{32} &b_{33} \end{array}\right]


y un producto de la forma

b_{1j_{1}}b_{2j_{2}}b_{3j_{3}} (2.3


de tal manera que se tome un único elemento de cada línea (fila y columna). Los primeros subíndices se han tomado en el orden creciente 1, 2, 3, y con respecto a este orden los segundos subíndices forman el arreglo

j_{1}j_{2}j_{3} (2.2


con lo cual hay seis (6) posibles elecciones para los j's; estas son

123, 132, 213, 231, 321, 312.

Ahora, con relación al orcen creciente tomado para los primeros subíndices, en las elecciones o permutaciones posibles para los segundos subíndices, pueden haber las denominadas inversiones. En una permutación dada existe una inversión cuando un entero precede a otro menor que el. De esta forma, por ejemplo la permutación 321 contiene tres (3) inversiones.

A cada permutación se asocia un signo + o -, de acuerdo a si el número de inversiones presente es par o impar respectivamente. Para el caso de la matriz B anterior, se tienen los seis productos siguientes:

b_{11}b_{22}b_{33}, b_{11}b_{23}b_{32}, b_{12}b_{21}b_{32}, b_{12}b_{23}b_{31}, b_{13}b_{22}b_{31}, b_{31}b_{21}b_{32},

y los signos respectivos asociados a las permutaciones de los segundos subíndices, son:

+, -, -, +, -, +.

Con la información anterior, al tomar el determinante de B (notado \det B o |B|) como la suma de los seis (6) productos precedidos de los respectivos signos, resulta

\det B=b_{11}b_{22}b_{33}-b_{11}b_{23}b_{32}-b_{12}b_{21}b_{33}+b_{12}b_{23}b_{31}-b_{13}b_{22}b_{31}+b_{13}b_{21}b_{32}. (2.3


Este desarrollo permite deducir de manera inmediata propiedades básicas aplicables a matrices cuadradas de cualquier tamaño.

NOTA 1 Para una matriz de orden 2, por ejemplo A=\left[\begin{array}{lcr}a &b \\c &d \end{array}\right], la permutación asociada al producto bc contiene una inversión; en tal caso detA=ad-bc.

Propiedades de Determinantes[editar]

Las tres primeras propiedades se observan directamente de (2.3), y todas ellas las cumplen matrices cuadradas de cualquier tamaño.

atención
'D-1' Si B tiene una fila nula, entonces detB=0

Se sigue del hecho que cada producto en (2.3) contiene un cero de dicha fila nula.

atención
'D-2' Si B es triangular, entonces detB es el producto de las entradas de la diagonal principal.

En particular si B es triangular inferior, el desarrollo (2.3) inicialmente se reduce a los dos primeros sumandos pero, en el segundo de ellos el término b_{23} es nulo; por consiguiente

detB=b_{11}b_{22}b_{b33}.


De esta propiedad resulta inmediatamente,

atención
'D-3 El determinante de la matriz identidad es 1'

Para revisar el determinante cuando se intercambian dos líneas paralelas o, cuando dos de ellas son iguales, se puede reescribir (2.3) en las formas alternativas:

detB=b_{11}(b_{22}b_{33}-b_{23}b_{32})-b_{12}(b_{21}b_{33}-b_{23}b_{31})+b_{13}(b_{21}b_{32}-b_{22}b_{31}), (2.4a


detB=-b_{21}(b_{12}b_{33}-b_{13}b_{32})+b_{22}(b_{11}b_{33}-b_{13}b_{31})-b_{23}(b_{11}b_{32}-b_{12}b_{31}) (2.4b


detB=b_{31}(b_{12}b_{23}-b_{13}b_{22})-b_{32}(b_{11}b_{23}-b_{13}b_{21})+b_{33}(b_{11}b_{22}-b_{12}b_{21}) (2.4c


De esta manera, se sigue:

atención
'D-4' Si dos filas de B son iguales, entonces detB=0.

Puesto que se anulan los factores que involucran restas nulas.

atención
'D-5'La transpuesta de B tiene el mismo determinante de B: detB^{t}=detB.

En consecuencia al aplicar (2.4a) a la matriz

B^{t}=\left[\begin{array}{lcr}b^{*}_{11} &b^{*}_{12} &b^{*}_{13} \\b^{*}_{21} &b^{*}_{22} &b^{*}_{23} \\b^{*}_{31} &b^{*}_{32} &b^{*}_{33} \end{array}\right] con b^{*}_{jk}=b_{kj}


resultando

detB^{t}=b^{*}_{11}(b^{*}_{22}b^{*}_{33}-b^{*}_{23}b^{*}_{32})-b^{*}_{12}(b^{*}_{21}b^{*}_{33}-b^{*}_{23}b^{*}_{31})+b^{*}_{13}(b^{*}_{21}b^{*}_{32}-b^{*}_{22}b^{*}_{31}),


y en términos de los b_{jk's}, queda

detB^{t}=b_{11}(b_{22}b_{33}-b_{32}b_{23})-b_{21}(b_{12}b_{33}-b_{32}b_{13})+b_{31}(b_{12}b_{23}-b_{22}b_{13}),


detB^{t}=b_{11}(b_{22}b_{33}-b_{32}b_{23})-b_{12}(b_{21}b_{33}-b_{31}b_{23})+b_{13}(b_{21}b_{32}-b_{31}b_{22}),


el cual coincide con (2.4a). Esto permite extender las propiedades en las filas a las columnas.

atención
'D-6' El determinante depende linealmente de la primera fila.

Cuando cada término de una fila es suma de otros dos, de la propiedad distributiva de la multiplicación respecto de la suma, aplicado a una de las tres expresiones (2.4a) - (2.4c), el determinante es suma de dos determinantes como en la manera siguiente:

\left|\begin{array}{ccc}a_{11}+d_{11} &a_{12}+d_{12} &a_{13}d_{13} \\b_{21} &b_{22} &b_{23} \\b_{31} &b_{32} &b_{33}\end{array}\right|=\left|\begin{array}{lcr}a_{11} &a_{12} &a_{13} \\b_{21} &b_{22} &b_{23} \\b_{31} &b_{32} &b_{33}\end{array}\right|+\left|\begin{array}{lcr}d_{11} &d_{12} &d_{13} \\b_{21} &b_{22} &b_{23} \\b_{31} &b_{32} &b_{33}\end{array}\right|. (2.5a


También, si una fila tiene un factor común,

\left|\begin{array}{ccc}kb_{11} &kb_{12} &kb_{13} \\b_{21} &b_{22} &b_{23} \\b_{31} &b_{32} &b_{33}\end{array}\right| =k \left|\begin{array}{lcr}b_{11} &b_{12} &b_{13} \\b_{21} &b_{22} &b_{23} \\b_{31} &b_{32} &b_{33}\end{array}\right|. (2.5b


De manera similar, tomando el desarrollo adecuado, se tiene:

atención
'D-7' El determinante cambia de signo cuando dos filas se intercambian.
atención
'D-8' La operación elemental de sustraer un múltiplo de una fila a otra no modifica el valor del determinante.

La siguiente propiedad se refiere a la multiplicación.

atención
'D-9' Para cualquier par de matrices A, B de orden 3, el determinante del producto AB es el producto de los determinantes: det(AB)=detAdetB.

Una consecuencia de esta propiedad, junto con el hecho detI=1, relaciona el determinante de la inversa: detB^{-1}=\frac{1}{detB}. Es decir, si B es regular entonces detB\neq 0, la matriz inversa B^{-1} está dada por

B^{-1}=\frac{1}{\left|B\right|}AdjB,


donde AdjB es la matriz adjunta de B, constituida por los cofactores de esta.

Con lo anterior, se dice

atención
'D-10' B es inversible si y solo si detB\neq 0. También es equivalente a: B es singular si y solo si detB=0.

Valores y Vectores Propios[editar]

Dada una matriz cuadrada A (de valores reales o complejos), de orden n, se dice que \lambda (real o complejo) es valor propio si existe un vector no nulo x tal que

Ax=\lambda x. (2.6


Al vector x anterior, se le denomina vector propio, y al par (\lambda ,x) se le dice par propio.

Algunas Consecuencias de la definición (2.6)[editar]

Si se multiplica la ecuación (2.6) por A:

A(Ax)=\lambda (Ax) (2.6a


lo cual significa:

atención
'C-1' Si \lambda es valor propio de A asociado al vector propio x, entonces \lambda es valor propio de A asociado al vector propio Ax

Al multiplicar (2.6) por cualquier escalar K

A(kx)=\lambda (kx) (2-6b


que implica:

atención
'C-2' Si x es un vector propio de A asociado a \lambda, cualquiera de sus vectores múltiplos kx, k\neq 0, también es vector propio.

Retomando la ecuación (2.6a), con el par propio (\lambda ,x):

A(Ax)=\lambda (Ax),


y aplicando (2.6) se obtiene

A^{2}x=\lambda ^{2}x, (2.6c


lo cual indica que \lambda ^{2} es valor propio de A^{2}, asociado al vector propio x. Si se multiplica sucesivamente por potencias de A, se deduce:

atención
'C-3' Si \lambda es valor propio de A entonces \lambda ^{n} es valor propio de A^{n}, para todo n\in Z^{+}

También se tiene lo siguiente:

atención
'C-4' Un vector no nulo, no puede ser vector propio asociado a dos valores propios distintos.
Prueba

Supóngase que y es un vector propio asociado a los dos valores propios \lambda_{1}, \;\lambda_{2}. Entonces se cumple

Ay=\lambda_{1}y, \;Ay=\lambda_{2}y,,


de lo cual

\lambda_{1}y=\lambda_{2}y


o también

(\lambda_{1}-\lambda_{2})y=0

, y siendo y un vector no nulo, de la Nota 1 de la sección 1.1 se tiene \lambda_{1}=\lambda_{2}

atención
'C-5' Relación entre los valores propios de una matriz y su inversa.

Si A es no singular, y si (\lambda ,x) es un par propio de A, entonces \lambda^{-1} ,x es un par propio de A^{-1}.

Prueba

Si \lambda ,x es par propio de A, satisface

Ax=\lambda x,


y siendo A no singular, al multiplicar por A^{-1} se tiene x=\lambda A^{-1}x con lo cual \lambda \neq 0, ya que x\neq 0. Con esto, se plantea la relación

A^{-1}x=\frac{1}{\lambda}x


que muestra precisamente que (\lambda^{-1},x) es par propio de la matriz inversa A^{-1}. De esta manera se obtiene:

NOTA 2 Si A es regular, ningún valor propio es nulo.
atención
'C-6' Para todo complejo \alpha que no es valor propio de A, se tiene:

x es un vector propio de A si y solo si x es un vector propio de (A-\alpha I)^{-1}.

Prueba

\Rightarrow: Si x es un vector propio, existe un complejo \lambda tal que

Ax=\lambda x.


Siendo \alpha distinto de cualquier valor propio de A entonces \lambda -\alpha \neq 0, y sea el complejo \delta definido por

\delta =\frac{1}{\lambda - \alpha}.


Con este valor se tiene x=\delta (\lambda x-\alpha x) y usando el hecho de que \lambda es valor propio

x=\delta (Ax -\alpha x)


de lo cual

\delta (A-\alpha I)x.


Ahora bien, si existiera un vector y no nulo tal que (A-\alpha I)y=O la inversa (A-\alpha I)^{-1} no existiría, pero en tal caso Ay=\alpha y contrariando precisamente el hecho que \alpha no es valor propio. Por lo tanto (A-\alpha I)^{-1} existe y resulta

(A-\alpha I)^{-1}x=\delta x,


mostrando que x es vector propio de la matriz (A-\alpha I)^{-1} con valor propio asociado \delta.

\Leftarrow: Si x es un vector propio de (A-\alpha I)^{-1}, existe un complejo \phi tal que

(A-\alpha I)^{-1}x=\phi x.


Entonces

x=\phi (A-\alpha I)x,


de donde

x+\phi \alpha x=\phi Ax,


y como \phi \neq 0

Ax=\frac{1}{\phi}(1+\phi \alpha)x,


es decir, x es vector propio de A con valor propio asociado \frac{1}{\phi}(1+\phi \alpha).

atención
'C-7' Toda combinación lineal de vectores propios, correspondientes al mismo valor propio, es un vector propio asociado a dicho valor propio.
Prueba

Sean x_{1},x_{2},\ldots ,x_{n} vectores propios de a asociados al valor propio \lambda, y sea

v=\alpha_{1}x_{1}+\alpha_{2}x_{2}+\cdots + \alpha_{n}x_n


una combinación lineal distinta de cero. Entonces al aplica A

Av=A(\alpha_1 x_1 +\alpha_2 x_2 +\cdots +\alpha_n x_n)=\alpha_1 Ax_1 +\alpha_2 Ax_2+\cdots +\alpha_n Ax_n,


Av=\lambda(\alpha_1 x_1 +\alpha_2 x_2 +\cdots +\alpha_n x_n)=\lambda v.


Polinomio Característico[editar]

El polinómio característico de una n-matriz A, es

p(\lambda)=det(A-\lambda I). (2.7a


El grado de p(\lambda) es n y el término líder en p(\lambda) es (-1)^n \lambda^n. Los coeficientes del polonómio están en función de las entradas de A.

La ecuación característica de A es

p(\lambda)=0, (2.7b


De la relación (2.6), se tiene que \lambda es valor propio asociado al vector x si

(A-\lambda I)x=O,


y ya que x\neq O, la matriz A-\lambda I es singular, y por la propiedad D-10, se tiene:

NOTA 3 \lambda es valor propio para una matriz A si y solo si
det(A-\lambda I)=0. (2.8


Por consiguiente, de (2-7a) y (2.8) se tiene que los valores propios de A son las soluciones de la ecuación característica; por lo tanto, A tiene n valores propios, y algunos de ellos pueden ser complejos (aún si las entradas de A son números reales), y algunos valores propios pueden ser repetidos.

Ahora, tomando el conjugado en (2.6),

\bar{A}\bar{x}=\bar{\lambda \bar{x}}


permite concluír:

NOTA 4 Si A tiene solamente números reales, entonces sus valores propios complejos ocurren en pares conjugados.

Con el fin de expresar el determinante y la traza de una matriz en términos de sus valores propios, se acude a una relación dada en ------ entre las raíces y los coeficientes de un polinómio, para aplicarla por supuesto al polinomio característico.

consejo
Relación entre las raíces y los coeficientes de un polinómio.

Sea f(x) un polinomio con coeficientes complejos, f(x)\in C[x], con grado deg f(x)=n\geqslant 1 y

f(x)=a_n x^n +a_{n-1}x^{n-1}+\cdots +a_2 x^2 + a_1 x +a_0, (2.9a


y sean c_1 ,c_2 ,\ldots ,c_n las raices de f(x), no necesariamente diferentes, es decir

f(x)=a_n (x-c_1)(x-c_2)\cdots (x-c_n). (2.9b


Observe que a_0 =f(0). Del desarrollo de alguno productos

x-c_1 = x-c_1,


(x-c_1)(x-c_2)=x^2 -(c_1 +c_2)x+c_1 c_2,


(x-c_1)(x-c_2)(x-c_3)=x^3 -(c_1 +c_2 +c_3)x^2 +(c_1 c_2 +c_1 c_3 +c_2 c_3)x-c_1 c_2 c_3,


(x-c_1)(x-c_2)(x-c_3)(x-c_4)=x^4 -(c_1 +c_2 +c_3 +c_4)x^3 +(c_1 c_2 +c_1 c_3 +c_1 c_4 +c_2 c_3 +c_2 c_4 +c_3 c_4)x^2-(c_1 c_2 c_3 +c_1 c_2 c_4 + c_1 c_3 C_4 +c_2 c_3 c_4)x+c_1 c_2 c_3 c_4,


inductivamente se sigue que

(x-c_1)(x-c_2)\ldots (x-c_n)=x^n -(c_1 +c_2 +\ldots +c_n)x^{n-1}+(c_1 c_2+\ldots )x^{n-2}-(c_1 c_2 c_3 +\ldots )x^{n-3}+\ldots +(-1)^k (c_1 c_2 \cdots c_k +\ldots )x^{n-k}+\ldots +(-1)^n c_1 c_2 \cdots c_n.


para abreviar, sean

s_1 la suma de las raices c_1,c_2,\ldots ,c_n tomando dos a la vez,

s_2 la suma de los productos de las raíces c_1,c_2,\ldots ,c_n tomando tres a la vez,

s_3 la suma de los productos de las raíces c_1,c_2,\ldots ,c_n tomando k a la vez,

\vdots \vdots \vdots

s_k el producto de las raices c_1,c_2,\ldots ,c_n.

De lo anterior se sigue que

f(x)=a_n\left[ x^n-s_1x^{n-1}+s_2x^{n-2}-\cdots +(-1)^ks_kx^{n-k}+\cdots +(-1)^ns_n\right], (2.9c


por lo tanto

f(x)=a_nx^n-a_ns_1x^{n-1}+a_ns_2x^{n-2}-\cdots +(-1)^ka_ns_kx^{n-k}+\cdots +(-1)^na_ns_n,


y comparando con (2.9a), se surge la relación

a_{n-1}=-a_ns_1,\; a_{n-2}=a_ns_2,\; \cdots ,\; a_{n-k}=(-1)^ka_ns_k, \;\cdots ,\; a_0=(-1)^na_ns_n,


de lo cual

s_1=-\frac{a_{n-1}}{a_n},\; s_2=\frac{a_{n-2}}{a_n},\;\cdots ,s_k=(-1)^k\frac{a_{n-k}}{a_n},\;\cdots ,s_n=(-1)^n\frac{a_0}{a_n}.


Estas últimas relaciones se conocen como fórmulas de Viète.

Para el caso del polinomio característico asociado a una n-matriz A: al aplicar (2.5b) en cada una de las filas con k=-1, se tiene det(A-\lambda I) en la forma

det(A-\lambda I)=(-1)^n det \left[ \begin{array}{cccc}\lambda -a_{11} &0-a_{12} &\cdots &0-a_{1n} \\ 0-a_{21} &\lambda -a_{22} &\cdots &0-a_{2n} \\ \vdots &\vdots &\ddots &\vdots \\ 0-a_{n1} &0-a_{n2} &\cdots &\lambda -a_{nn}\end{array}\right] ,


y teniendo en cuenta la definición de determinante, el término \lambda ^n precisamente surge del producto que involucra los términos de la diagonal principal. Con esto, para el polinomio característico p(\lambda), su coeficiente líder a_n es (-1)^n y usando (2.9c)

p(\lambda)=det(A-\lambda I)=(-1)^n\left[ \lambda^n-s_1\lambda^{n-1}+s_2\lambda^{n-2}+\ldots +(-1)^{n-1}s_{n-1}\lambda +(-1)^np(0)\right], (2.9d


en donde los coeficientes s_m,\; (m=1,2,\ldots ,n-1) están dados por las fórmulas de Viète.

A partir de la relación sobre s_n, junto con (2.9d) evaluada en \lambda=0 se concluye:

NOTA 5 El determinante detA es el producto de sus valores propios. Es decir,
detA=\lambda _1 \lambda _2 \cdots \lambda _n. (2.10a


Nuevamente la definición de determinante, el término \lambda^{n-1} aparece solamente del producto (\lambda -a_{11})(\lambda -a_{22})\cdots (\lambda -a_{nn}) y en este caso tiene como coeficiente el valor -(a_{11}+a_{22}+\cdots +a_{nn}). Puesto que s_1=\lambda_1 +\lambda_2 +\cdots +\lambda _n, siguiendo (2.9d) se tiene en función de la traza de A:

tr(A)=\lambda _1 +\lambda _2 +\cdots + \lambda _n (2.10b


A partir de esta relación: sobre una matriz nilpotente sucede:

atención
'C-8 Traza de una matriz nilpotente:

Si A es nilpotente (A^k=O para algún k), tr(A)=0.

Prueba

De la propiedad C-3,

A^kx=\lambda ^kx,


puesto que A^k=O, y como x no es vector nulo resulta \lambda=0. Quiere decir que tan sólo 0 es valor propio, y ya que tr(A)=\lambda _1+\cdots +\lambda _n, queda tr(A)=0.

Espectro de una Suma y Producto de Matrices[editar]

El conjunto de todos los vectores propios asociados al mismo valor propio es denominado el espacio propio del valor \lambda. El conjunto de todos los valores propios de una matriz A es denominado el espectro de A y se denota \sigma (A).

Para dos matrices dadas A y B, se puede responder la inquietud:

¿Si \lambda \in \sigma (A) y \alpha \in \sigma (B) entonces \lambda + \alpha \in \sigma (A+B)?,

¿Si \lambda \in \sigma (A) y \mu \in \sigma (B) entonces \lambda \mu \in \sigma (AB)?.


Al considerar dos matrices sencillas

A=\left[\begin{array}{lr}1 &0 \\0 &0\end{array}\right], \; \; B=\left[\begin{array}{lr}0 &0 \\0 &1\end{array}\right],


se tiene que 1\in \sigma (A) y también 1\in \sigma (B) pero, 2\notin \sigma (A+B). Para el producto, puesto que AB=O inmediatamente la respuesta a la segunda inquietud también es negativa.

Sin embargo, para una matriz muy particular, de la forma

T=\left[\begin{array}{lr}A &B \\O &C\end{array}\right],


donde A, B, C y la matriz nula O son matrices cuadradas del mismo orden, se cumple que

det(T-\lambda I)=det(A-\lambda I)det(C-\lambda I) (2.11


ya que la presencia de ceros, al plantear todos los productos posibles en el desarrollo de det(T-\lambda I) sólo quedan los que dan lugar a det(A-\lambda I) simultáneamente con los que corresponden a det(C-\lambda I). Con esto se cuncluye que \sigma (T)=\sigma (A) \cup \sigma (C).

Otras consecuencias de la definición (2.6)[editar]

A la lista inicial de propiedades dada en la sección 1.1.3.2.1[1], basadas exclusivamente en la definición (2.6) sobre valor y vector propio, se agregan algunas otras teniendo en cuenta ahora el uso del determinante.

atención
'C-9 Cuando el espectro contiene el cero:

0\in \sigma (A) si y solo si A es una matriz singular.

Prueba

\Rightarrow: Si 0 es valor propio de A, satisface |A-0I|=0, es decir |A|=0. Así, A es singular.

\Leftarrow: Si A es singular, |A-0I|=|A|=0, luego 0 es valor propio de A.

atención
'C-10' Matriz asociada a un polinomio

Si p(y)=a_0+a_1y+a_2y^2+\ldots +a_ky^k, es cualquier polinomio, entonces se define p(A) como la matriz

p(A)=a_0I+a_1A+a_2A^2+\ldots +a_kA^k.


Si (\lambda ,x) es un par propio para A, entonces (p(\lambda ),x) es un par propio para p(A).

prueba

Con la propiedad C-3, se tiene

p(A)x=a_0Ix+a_1Ax+a_2A^2x+\ldots +a_kA^kx,

p(A)x=a_0x+a_1\lambda x+a_2\lambda ^2x+\ldots +a_k\lambda ^kx,

p(A)x=(a_0+a_1\lambda +a_2\lambda ^2+\ldots +a_k\lambda ^k)x,


confirmando que p(A)x=p(\lambda )x.

NOTA 6 Si coinciden los espectros, no significa que coinciden los polinomios característicos. Por ejemplo para las matrices A=\left[\begin{array}{lr}1 &0 \\0 &0\end{array}\right], \; \; B=\left[\begin{array}{lr}1 &0 \\0 &1\end{array}\right], los respectivos polinomios característicos son
p(\lambda )=\lambda ^2-\lambda, \; \; q(\lambda )=\lambda ^2-2\lambda +1.


atención
'C-11' Valores propios de una matriz triangular y de una matriz diagonal.

Dada la matriz triangular superior

T=\left[\begin{array}{cccc}t_{11} &t_{12} &\cdots &t_{1n} \\0 &t_{22} &\cdots &t_{2n} \\ \vdots &\vdots &\ddots &\vdots \\0 &0 &\cdots &t_{nn}\end{array}\right],


la matriz T-\lambda I, es nuevamente una matriz triangular superior con diagonal principal

t_{11}-\lambda ,t_{22}-\lambda ,\cdots ,t_{nn}-\lambda,


de esta manera los valores propios de la matriz triangular superior T, son justamente los elementos de su diagonal principal.

Para el caso de la matriz diagonal, siendo una matriz triangular superior, entonces sus valores propios son los elementos de la diagonal principal.

atención
'C-12 Valores propios de una matriz y su transpuesta.

Las matrices A y A^t tienen los mismos valores propios.

Prueba

Como una matriz y su transpuesta tienen el mismo determinante

|A-\lambda I|=|(A-\lambda I)^t|=|A^t -\lambda I^t|=|A^t-\lambda I|,


luego si \lambda \in \sigma(A) entonces \lambda \in \sigma(A^t), y recíprocamente.

atención
'C-13' Polinomio característico de un producto.

Considere dos n-matrices A y B, siendo la primera de ellas una matriz regular. Entonces AB y BA tienen el mismo polinomio característico.

Prueba

Reescribiendo el determinante det(\lambda I-AB), junto con la propiedad D-9

det(\lambda I-AB)=det(\lambda AA^{-1}-ABAA^{-1})=det(A(\lambda I-BA)A^{-1})=det(A)det(\lambda I-BA)det(A^{-1}),


quedando

det(\lambda I-AB)=det(\lambda I-BA),


de esa manera se obtiene el mismo polinomio característico.

Multiplicidad geométrica y algebraica[editar]

Sea \lambda un valor propio de A. Entonces, la multiplicidad algebraica de \lambda es el número de veces que se repite como raíz del polinómio característico. Cuando la multiplicidad algebraica es 1, \lambda es llamado valor propio simple.

La multiplicidad geométrica de \lambda es la dimensión del espacio nulo N(A-\lambda I)={x\in C^n|(A-\lambda I)x=O}. En otras palabras, es el número máximo de vectores propios asociados con \lambda, linealmente independientes.

Las dos multiplicaciones pueden ser distintas. Por ejemplo, al considerar la matriz

A=\left[\begin{array}{lr}0 &1 \\0 &0\end{array}\right],


su polinomio característico es p(\lambda )=\lambda ^2, con lo cual el valor propio \lambda =0 se repite dos veces, así su multiplicidad algebraica es 2. En cuanto a su multiplicidad geométrica, al buscar una base para el espacio nulo N(A-0I)=N(A), al resolver el sistema

A\left[\begin{array}{c}x \\y\end{array}\right]=\left[\begin{array}{c}0 \\0\end{array}\right],


resulta la ecuación y=0, y de esta manera las soluciones son de la forma

\left[\begin{array}{c}x \\0\end{array}\right], \; x\in R


mostrando que sólo hay un vector linealmente independiente, Es decir la multiplicidad geométrica es 1.

Para una matriz diagonal D=diag(\lambda _1 ,\lambda _2 ,\ldots ,\lambda _n), ya se conoce que los valores propios coinciden con los de su diagonal. Ahora, para el espacio propio asociado a uno de ellos. por ejemplo \lambda _k, la k-ésima fila de la matriz D-\lambda _kI es nula. En consecuencia el sistema

(D-\lambda _kI)X=O,\; X\in R^n


tiene como solución vectores con componentes 0 salvo la k-ésima. Así la base contiene sólo un vector linealmente independiente, y con ello la multiplicidad geométrica es 1. Entonces, el espacio propio asociado a \lambda _k es

{X \in R^n | i-ésima componente es 1 y si i=k, 0 en otro caso}


Matrices Simétricas[editar]

En la sección 1.4 se planteó que una matriz ortogonal preserva longitudes y productos internos como se muestra en las relaciones (1.11a), (1.11b). A partir de ellas se obtienen conclusiones sobre valores y vectores propios.

Los valores propios de una matriz simétrica son reales[editar]

Sea A una n-matriz simétrica y (\lambda ,x) un par propio; esto es

Ax=\lambda x.


Para establecer que el valor propio \lambda es real, se sigue el desarrollo propuesto en ----. Entonces, se considera el valor propio \lambda en la forma compleja

\lambda =a+bi, con a,b \in R,


con el propósito de concluir que b=0. Para ello se define la matriz

B=(\lambda I-A)(\bar{\lambda} I-A)


la cual es una matriz real, hecho que se observa al realizar el producto

B=|\lambda |^2I-(\lambda +\bar{\lambda})A+A^2


ya que \lambda +\bar{\lambda} es el real 2a, con lo que se suman matrices reales para dar lugar a B. Además B es matriz singular puesto que \lambda I-A lo es; de esta manera existe un vector x no nulo, tal que Bx=O  \in R^n. Ahora con |\lambda |^2=a^2+b^2, queda

x^tBx=x^t(aI-A)^2x+b^2x^tx,


y siendo A simétrica también (aI-A)^t=(aI-A), con ello

x^tBx=x^t(aI-A)^t(aI-A)x+b^2\| x\|^2,

x^tBx=\left[(aI-A)x\right] ^t(aI-A)x+b^2\| x\| ^2,

x^tBx=\| (aI-A)x\| ^2+b^2\| x\| ^2.


y puesto que x^tBx=0, se concluye que b=0; es decir, cada valor propio de la matriz simétria A es real.

Los vectores propios de una matriz simétrica asociada a distintos valores propios son ortogonales[editar]

Sean \lambda, \mu dos valores propios distintos de la matriz simétrica A, y sean x,y sus respectivos valores vectores propios. Entonces

Ax=\lambda x, \; \; Ay=\mu y,


de donde

y^tAx=\lambda y^tx, \; \; x^tAy=\mu x^ty,


y al tomar la transpuesta de la primera, siendo A simétrica, da x^tAy=\lambda x^ty que al relacionarla con la segunda proporciona

\lambda x^ty=\mu x^ty,


y puesto que \lambda \neq \mu implica que x^ty=0, confirmando que los vectores propios son ortogonales.

Los valores propios de una matriz orgonal tienen valor absuoluto 1[editar]

Sea Q una n-matriz ortogonal y (\lambda ,x) un par propio. Al tomar su norma en (2.6)

\| Qx\| =|\lambda |\| x\|,


y por (1.11a) \| Qx\| =\| x\|, con lo cual

\| x\| =|\lambda|\| x\|,


es decir |\lambda | =1. Así, el especto \sigma (Q) está contenido en la circunferencia de centro el origen y radio 1.

Matrices Hermitianas[editar]

En la sección 1.4.2 se mencionó que una matriz A es hermitiana si A=A^H (A^H=\bar{A}^t), es decir, cuando a_{ij}=\bar{a_{ji}}. También, A es una matriz anti hermitiana cuando A=-A^H, es decir, cuando a_{ij}=-\bar{a_{ji}}.

En la verificación de la naturaleza de los valores propios de una matriz hermitiana, se utilizan dos hechos sencillos:

(AB)^H=B^HA^H, \; \; x^Hy\in C.


Para el primero, (AB)^H=(\bar{AB})^t=(\bar{A}\bar{B})^t=\bar{B}^t\bar{A}^t=B^HA^H. Con esto,

atención
'C-14' Si A=A^H, entonces para todo vector complejo x, el número x^HAx es real.

Para una prueba, a partir del complejo x^HAx al efectuar el desarrollo de (x^HAx)^H, resulta

(x^HAx)^H=x^HA^H(x^H)^H,

(x^HAx)^H=x^HAx,


con lo cual éste debe ser un real.