Diagonalización ortogonal
Definición.
Una matriz Pnxn se dice ortogonal, si sus columnas forman una
base ortonormal de IRn.
i, i en la diagonal y 0, si es una entrada i, j
fuera de la diagonal (i ¹ j). Se concluye que una matriz es ortogonal, si y
sólo si es invertible (la implicación que falta es fácil de probar) y su
inversa es su traspuesta. Otra conclusión es que, así como las columnas de una
matriz ortogonal forman una base ortonormal de
IRn, las filas forman otra base ortonormal de IRn
Ejemplos:
- In =i) es una matriz ortogonal. Sus columnas forman la base canónica de IRn, de la cual sabemos que es ortonormal.
- A = i) es otro ejemplo de matriz ortogonal, para ver esto, basta multiplicar A por su traspuesta y verificar que resulta la identidad 2x2.
- A = es una matriz ortogonal 3x3, pues AtA = I3x3.
- A = no es una matriz ortogonal, pues aunque sus columnas son ortogonales, no tienen norma uno.
Como ya sabemos,
la diagonalización de una matriz Anxn depende de la existencia de una matriz
diagonalizante Cnxn, con cuya
inversa resulta el producto C-1AC es una matriz diagonal. La matriz
diagonalizante C se construye encontrando una base de IRn formada por vectores propios de A y ubicando
estos vectores propios como columnas de
C.
Ahora bien, si
esta base de IRn resulta ser una base ortonormal, entonces la
matriz diagonalizante C es ortogonal y C-1AC se puede escribir CtAC, pues para matrices
ortogonales, como vimos arriba, vale C-1
= Ct. Este tipo de diagonalización se denomina diagonalización
ortogonal y la matriz A se dice ortogonalmente diagonalizable.
Ejemplo:
así un ejemplo
de una matriz A ortogonalmente diagonalizable.
Vamos a establecer
ciertos fundamentos, que incluyen saber a priori cuándo es una matriz
ortogonalmente diagonalizable, antes de enunciar un procedimiento para hacer
este tipo de diagonalizaciones.
Teorema
Si Anxn es real simétrica, a1 y a2 dos valores propios diferentes
de A
y v1 y v2 dos vectores propios de A, el vector v1 asociado a
a1 y v2 asociado a
a2.
Entonces v1
y v2 son ortogonales (v1 ^ v2).
Demostración:
u × v se puede
calcular multiplicando el vector fila
1xn: vt por el vector
columna nx1 u,
Teniendo esto en
cuenta, proseguimos con la demostración.
Se evalúa el
producto escalar Av1 por v2 de dos maneras:
Por un lado Av1 × v2 = (a1v1) × v2 = a1 (v1 × v2), por otro
Av1 × v2 = (Av1) = (A) v1 = (At v2)t
v1 = v1 × (At v2) = v1 × (A v2) = v1 × (a2 v2) = a2(v1 × v2), entonces a1 (v1 × v2) = a2(v1 × v2)
y (a1 - a2) (v1
× v2)
= 0, como a1 ¹ a2 es a1 - a2 ¹ 0 y tiene que ser
v1 × v2 = 0, es decir v1 ^ v2.
Teorema
Si A es
una matriz real simétrica nxn,
entonces A es diagonalizable.
No tener la
demostración de este teorema, no hace perder nada, pues en todos los ejemplos
al tratar de diagonalizar una matriz real simétrica Anxn, se consigue una base de IRn formada por
n vectores propios de A.
La diagonalización ortogonal de este tipo de matrices siempre es posible, pues
al ortonormalizar siguiendo el procedimiento de Gramm-Schmidt las bases de cada
subespacio propio y unir las bases así obtenidas, se tiene una base ortonormal
de IRn, con la cual se tiene
una matriz ortogonal C y la diagonalización ortogonal CtAC.
El procedimiento
para diagonalizar ortogonalmente una matriz real simétrica An
consta de tres pasos:
- Se determina una base para cada subespacio propio de A.
- Se ortonormalizan según Gramm-Schmidt las bases de cada subespacio propio de A.
- Se unen estas bases ortonormalizadas obteniendo con éstas una base ortonormal de IRn formada por vectores propios de A.
- La matriz diagonalizante es aquélla que tiene por columnas a los vectores de la base ortonormal de IRn obtenida en el paso anterior.
No hay comentarios:
Publicar un comentario