Creditos

Vera Bocanegra Francisco Javier
De la Rosa Zuñiga Manuel Alejandro
Benitez Barrios Carlos Alberto
Chicharo Urrutia Cristian Cesar
Oliveros Verdin Alejandro de Jesus

Aplicaciones

Orbitas moleculares

En mecánica cuántica, y en particular en física atómica y molecular, y en el contexto de la teoría de Hartree-Fock, los orbitales atómicos y moleculares pueden definirse por los vectores propios del operador de Fock. Los valores propios correspondientes son interpretados como potenciales de ionización a través del teorema de Koopmans. En este caso, el término vector propio se usa con un significado más general, pues el operador de Fock es explícitamente dependiente de los orbitales y sus valores propios. Si se quiere subrayar este aspecto se habla de ecuación de valores propios implícitos. Tales ecuaciones se resuelven normalmente mediante un proceso iterativo, llamado método de campo consistente propio. 

En química cuántica a menudo se representa la ecuación de Hartree-Fock en una base no ortogonal. Esta representación particular es un problema de valor propio generalizado que tiene el nombre de ecuaciones de Roothaan.

Análisis factorial

En análisis factorial, los valores propios de la matriz de covarianza corresponden a los factores, y los valores propios a las cargas. El análisis factorial es una técnica estadística usada en ciencias sociales y mercadotecnia, gestión de producto, investigación operativa y otras ciencias aplicadas que tratan con grandes cantidades de datos. El objetivo es explicar la mayor parte de la variabilidad entre varias variables aleatorias observables en términos de un número menor de variables aleatorias no observables llamadas factores. Las variables aleatorias no observables se modelan como combinaciones lineales de los factores más términos de errores.

Caras propias

Un ejemplo del uso de vectores propios.En procesado de imagen, las imágenes procesadas de caras pueden verse como vectores cuyas componentes son la luminancia de cada píxel. 

La dimensión de este espacio vectorial es el número de píxeles. Los vectores propios de la matriz de covarianza asociada a un conjunto amplio de imágenes normalizadas de rostros se llaman caras propias. Son muy útiles para expresar una imagen de un rostro como la combinación lineal de otras. 

Las caras propias proporcionan un medio de aplicar compresión de datos a los rostros, para propósitos de biometría.

Tensor de inercia

En mecánica, los vectores propios del momento de inercia definen los ejes principales de un cuerpo rígido. El tensor de inercia es necesario para determinar la rotación de un cuerpo rígido alrededor de su centro de masa. Los valores propios definen los momentos máximos y mínimos obtenidos mediante el círculo de Mohr.

Tensor de tensión

En mecánica de sólidos deformables, el tensor de tensión es simétrico, así que puede descomponerse en un tensor diagonal cuyos valores propios en la diagonal y los vectores propios forman una base.
Valores propios de un grafo.

En teoría espectral de grafos, un valor propio de un grafo se define como un valor propio de la matriz de adyacencia del grafo A, o de la matriz Laplaciana del grafo I − T − 1 / 2 A T − 1 / 2 {I-T^{-1/2}AT^{-1/2}} , donde T es una matriz diagonal que contiene el grado de cada vértice, y en T − 1 / 2 {T^{-1/2}} , 0 se substituye por 0 − 1 / 2 { 0^{-1/2}} . 

El vector propio principal de un grafo se usa para medir la centralidad de sus vértices. Un ejemplo es el algoritmo PageRank de Google. El vector propio principal de una matriz de adyacencia modificada del grafo de la web da el page rank en sus componentes.

Video de apoyo sobre aplicacion de autovalores y autovectores en la economia:

Diagonalización Ortogonal

Diagonalización ortogonal


Definición.
Una matriz  Pnxn  se dice ortogonal, si sus columnas forman una base ortonormal de  IRn.


Si  An =es ortogonal, las columnas de al ser multiplicadas escalarmente

entre sí resulta:  (ai1 ... ani) = a1i a1j + ... + ani anj = , de donde 

AtA = == In, pues para cada 1£ i, j £ n  la

entrada  i, j  del producto  AtA  es igual a  (ai1 ... ani)  , es decir: 1, si es una entrada 

i, i  en la diagonal y  0, si es una entrada  i, j  fuera de la diagonal (i ¹ j). Se concluye que una matriz es ortogonal, si y sólo si es invertible (la implicación que falta es fácil de probar) y su inversa es su traspuesta. Otra conclusión es que, así como las columnas de una matriz ortogonal forman una base ortonormal de  IRn, las filas forman otra base ortonormal de  IRn

Ejemplos:

  • In =i)              es una matriz ortogonal. Sus columnas forman la base canónica de  IRn, de la cual sabemos que es ortonormal.
  • A = i)              es otro ejemplo de matriz ortogonal, para ver esto, basta multiplicar  A  por su traspuesta y verificar que resulta la identidad  2x2. 
  • A =  es una matriz ortogonal  3x3, pues  AtA = I3x3.
  • A = no es una matriz ortogonal, pues aunque sus columnas son ortogonales, no tienen norma uno.

Como ya sabemos, la diagonalización de una matriz  Anxn  depende de la existencia de una matriz diagonalizante  Cnxn, con cuya inversa resulta el producto  C-1AC  es una matriz diagonal. La matriz diagonalizante  C  se construye encontrando una base de  IRn  formada por vectores propios de  A  y ubicando estos vectores propios como columnas de  C.

Ahora bien, si esta base de  IRn  resulta ser una base ortonormal, entonces la matriz diagonalizante  C  es ortogonal y  C-1AC  se puede escribir  CtAC, pues para matrices ortogonales, como vimos arriba, vale  C-1 = Ct. Este tipo de diagonalización se denomina diagonalización ortogonal y la matriz  A  se dice ortogonalmente diagonalizable.

Ejemplo:

Para la matriz  A= resultan  y vectores propios de  A, pues
 =  =  y  =  = (-2).

es un vector propio de  A asociado al valor propio  4  y un vector propio

de  A  asociado al valor propio  (-2). Resulta así la matriz  C =  una matriz

diagonalizante  de  A  y  C-1AC = 
. Adicionalmente, como  C  es una matriz

ortogonal, la expresión  C-1AC =  se transforma es  CtAC =  y se tiene

así un ejemplo de una matriz  A  ortogonalmente diagonalizable.

Vamos a establecer ciertos fundamentos, que incluyen saber a priori cuándo es una matriz ortogonalmente diagonalizable, antes de enunciar un procedimiento para hacer este tipo de diagonalizaciones.



Teorema
Si  Anxn  es real simétrica, a1  y  a2  dos valores propios diferentes de  A  y  v1  y  v2  dos vectores propios de  A, el vector v1  asociado a  a1  y  v2  asociado a  a2.
Entonces  v1  y  v2  son ortogonales (v1 ^ v2).
Demostración:

Notemos que si  u = y  v =  son dos vectores de  IRn, el producto escalar 

u × v  se puede calcular multiplicando el vector fila  1xn: vt  por el vector columna  nx1  u,

es decir;  vt u = (v1 ... vn= (v1u1 + ... + vnun).

Teniendo esto en cuenta, proseguimos con la demostración.
Se evalúa el producto escalar  Av1  por  v2  de dos maneras:

Por un lado  Av1 × v2 = (a1v1) × v2 = a1 (v1 × v2), por otro 
Av1 × v2 = (Av1) = (A) v1 = (At v2)t v1 = v1 × (At v2) = v1 × (A v2) = v1 × (a2 v2) = a2(v1 × v2), entonces  a1 (v1 × v2) = a2(v1 × v2)  y  (a1 - a2) (v1 × v2) = 0, como  a1 ¹ a2  es  a1 - a2 ¹ 0  y  tiene que ser  v1 × v2 = 0, es decir  v1 ^ v2.

Este teorema garantiza que las bases de los subespacios propios de  A  asociados a valores propios diferentes son ortogonales entres sí. Más explícitamente, si  a1, ... ,ak  son los diferentes valores propios de  A  y  b1, ... , bk  bases ortonormales de los subespacios propios  E , ... ,  E  respectivamente, entonces  b, ya sabemos que es un conjunto l.i., pero bajo estas condiciones es además un conjunto ortonormal. Para poder diagonalizar  A, sólo falta ver que  b =  tiene  n  elementos, eso está garantizado por un teorema cuya demostración escapa del alcance de este curso:
Teorema
Si  A  es una matriz real simétrica  nxn, entonces  A  es diagonalizable.
No tener la demostración de este teorema, no hace perder nada, pues en todos los ejemplos al tratar de diagonalizar una matriz real simétrica  Anxn, se consigue una base de  IRn  formada por  n  vectores propios  de  A. La diagonalización ortogonal de este tipo de matrices siempre es posible, pues al ortonormalizar siguiendo el procedimiento de Gramm-Schmidt las bases de cada subespacio propio y unir las bases así obtenidas, se tiene una base ortonormal de  IRn, con la cual se tiene una matriz ortogonal  C  y la diagonalización ortogonal  CtAC.

El procedimiento para diagonalizar ortogonalmente una matriz real simétrica  An  consta de tres pasos:
  • Se determina una base para cada subespacio propio de  A.
  • Se ortonormalizan según Gramm-Schmidt las bases de cada subespacio propio de  A.
  •  Se unen estas bases ortonormalizadas obteniendo con éstas una base ortonormal de  IRn  formada por vectores propios de  A.
  • La matriz diagonalizante es aquélla que tiene por columnas a los vectores de la base ortonormal de  IRn  obtenida en el paso anterior.



MATRICES SIMÉTRICAS

MATRICES SIMÉTRICAS

Definición: Matríz simétrica
Diremos que una matriz A de orden mxn es una matriz simétrica si coincide con su traspuesta, es decir A=A`
Es evidente que las matrices simétricas tienen que ser matrices cuadradas. 
 

Ejercicio II-38b.
Construir dos matrices simétricas A y B de orden 4 y comprobar que se verifican las siguientes propiedades: 
 

1) A+B es simétrica 
2) a A es simétrica para cualquier valor perteneciente a los reales 
3) Si la matriz A tiene inversa entonces A-1 es simétrica. 
4) En general A.B y B.A no han de ser simétricas.
  
Demostrar formalmente estas propiedades resulta muy sencillo porque:
Sean A,B matrices de orden n simétricas (A=A`; B=B`) 
 
1) Que (A+B) es simétrica es muy fácil puesto que
  
(A+B)' = A`+B` (porque la suma de traspuestas es la traspuesta) y ahora
A`+B`=A+B, ya que A y B son simétricas.
2)

3) Si A tiene inversa A-1, entonces (A`)-1=(A-1)` por las propiedades de la traspuesta pero como A'=A entonces (A-1)=(A-1)'

  
D) MATRICES ANTISIMÉTRICAS

Definición: Matriz antisimétrica.

Sea A una matriz de orden n, diremos que A=(aij) es ANTISIMÉTRICA si
aij = -aji , para todo i,j=1,...,n; es decir A=-A` 
 

Ejercicio II-39.
Comprobar que las matrices



son antisimétricas. 

Ejercicio II-40.
A partir de las dos matrices anteriores comprobar que se verifican las siguentes propiedades para las matrices antisimétricas:
1) A+B es antisimétrica. 
2)   es antisimétrica   
3) Si A.B=B.A entonces A.B es simétrica. En cambio esto no es cierto si A y B no conmutan en el producto.(para este caso considerar dos matrices para las cuales se verifique A.B=BA como pueden ser las matrices: 



4) Si A es invertible entonces su inversa A-1 es antisimétrica. 

DIAGONALIZACIÓN DE MATRICES

DIAGONALIZACIÓN DE MATRICES

Hasta ahora hemos visto que dada una aplicación lineal  
existe una única matriz A de orden n, asociada a f respecto de cierta base B de Rn.
Una cuestión que nos podríamos plantear sería responder a la siguiente pregunta:
¿La aplicación lineal f podrá tener como matriz asociada una MATRIZ DIAGONAL D, respecto de cierta base BD?
Es decir
¿Podremos encontrar una base BD de Rn respecto de la cual la matriz asociada a f sea diagonal?
Para responder a esta pregunta consideremos el siguiente ejemplo:
 
EJEMPLO.
Sea la aplicación lineal 
Donde f(x,y,z)=(6x-6y+2z, -x-y+z, 7x+3y+z)
¿Cuál es la matriz asociada respecto de las bases canónicas?

Definiendo la aplicación lineal en DERIVE tendremos:
Por tanto la matriz asociada respecto de las bases canónicas se obtiene con: 

Consideremos ahora una nueva base de R3 determinada por los vectores 

Para obtener la matriz asociada a la aplicación lineal f1 respecto de dicha base tendremos que calcular la coordenadas de las imágenes de dichos vectores en la citada base, es decir realizaremos las siguientes operaciones 
Para v1 se obtiene: 




Para v2 resulta que: 


Y para v3 obtenemos: 

Por tanto la nueva matriz asociada es: 

Que se trata de una matriz diagonal. 
¿Tendrán alguna relación matricial las matrices a1 y d1? 
Observemos lo siguiente. 
Si consideremoa un vector genérico de R3 

¿Cómo se obtendrán la coordenadas de este vector en la base BD?, 
las coordenadas serán aquelos valores (x,y,z) que verifiquen 
que expresado de forma vectorial sería lo mismo que considerar el producto de la matriz que tiene por columnas a los vectores v1, v2, v3, (llamemos a dicha matriz P1): 

Es decir que 
Por tanto como P1 es una matriz no singular (pues sus vectores columna forman una base de R3 y en consecuencia tiene rango completo), podemos calcular su inversa, es decir que podemos efectuar 

Por otro lado obsérvese que 
a. La matriz asociada a f1 respecto de las bases canónicas verifica que

b. La matriz asociada a f1 respecto de la base BD verifica que

Como teníamos que f1(u)=P1.f([x,y,z]) entonces tenemos que 
A1.P1.[x,y,z] =A1.u= f1(u)=P1.f1([x,y,z]) = P1.D1.[x,y,z] 

Es decir 
A1.P1.[x,y,z] = P1.D1.[x,y,z] 

Luego se tendrá que verificar que 
A1.P1 = P1.D1. 

Comprobémoslo: