Diagonalización ortogonal
Definición.
Una matriz Pnxn se dice ortogonal, si sus columnas forman una
base ortonormal de IRn.
Si An =es ortogonal,
las columnas de al ser multiplicadas escalarmente
entre sí resulta: (ai1 ... ani) = a1i
a1j + ... + ani anj = , de donde
AtA = == In, pues para cada 1£ i, j £ n la
entrada i, j
del producto AtA es igual a (ai1 ... ani) , es decir: 1,
si es una entrada
i, i en la diagonal y 0, si es una entrada i, j
fuera de la diagonal (i ¹ j). Se concluye que una matriz es ortogonal, si y
sólo si es invertible (la implicación que falta es fácil de probar) y su
inversa es su traspuesta. Otra conclusión es que, así como las columnas de una
matriz ortogonal forman una base ortonormal de
IRn, las filas forman otra base ortonormal de IRn
Ejemplos:
- In =i)
es una matriz ortogonal. Sus columnas forman la base canónica de IRn, de la cual sabemos que es
ortonormal.
- A = i)
es otro ejemplo de matriz ortogonal, para ver esto, basta multiplicar A por su traspuesta y verificar que resulta la
identidad 2x2.
- A = es una matriz ortogonal 3x3,
pues AtA = I3x3.
- A = no es una matriz ortogonal, pues aunque sus columnas son
ortogonales, no tienen norma uno.
Como ya sabemos,
la diagonalización de una matriz Anxn depende de la existencia de una matriz
diagonalizante Cnxn, con cuya
inversa resulta el producto C-1AC es una matriz diagonal. La matriz
diagonalizante C se construye encontrando una base de IRn formada por vectores propios de A y ubicando
estos vectores propios como columnas de
C.
Ahora bien, si
esta base de IRn resulta ser una base ortonormal, entonces la
matriz diagonalizante C es ortogonal y C-1AC se puede escribir CtAC, pues para matrices
ortogonales, como vimos arriba, vale C-1
= Ct. Este tipo de diagonalización se denomina diagonalización
ortogonal y la matriz A se dice ortogonalmente diagonalizable.
Ejemplo:
Para la matriz A= resultan y vectores propios
de A, pues
es un
vector propio de A asociado al valor
propio 4
y un vector propio
de A
asociado al valor propio (-2).
Resulta así la matriz C = una matriz
diagonalizante de
A y C-1AC = .
Adicionalmente, como C es una matriz
ortogonal, la
expresión C-1AC = se
transforma es CtAC = y se tiene
así un ejemplo
de una matriz A ortogonalmente diagonalizable.
Vamos a establecer
ciertos fundamentos, que incluyen saber a priori cuándo es una matriz
ortogonalmente diagonalizable, antes de enunciar un procedimiento para hacer
este tipo de diagonalizaciones.
Teorema
Si Anxn es real simétrica, a1 y a2 dos valores propios diferentes
de A
y v1 y v2 dos vectores propios de A, el vector v1 asociado a
a1 y v2 asociado a
a2.
Entonces v1
y v2 son ortogonales (v1 ^ v2).
Demostración:
Notemos que si u = y v = son dos vectores
de IRn, el producto
escalar
u × v se puede
calcular multiplicando el vector fila
1xn: vt por el vector
columna nx1 u,
es decir; vt u = (v1 ... vn) = (v1u1
+ ... + vnun).
Teniendo esto en
cuenta, proseguimos con la demostración.
Se evalúa el
producto escalar Av1 por v2 de dos maneras:
Por un lado Av1 × v2 = (a1v1) × v2 = a1 (v1 × v2), por otro
Av1 × v2 = (Av1) = (A) v1 = (At v2)t
v1 = v1 × (At v2) = v1 × (A v2) = v1 × (a2 v2) = a2(v1 × v2), entonces a1 (v1 × v2) = a2(v1 × v2)
y (a1 - a2) (v1
× v2)
= 0, como a1 ¹ a2 es a1 - a2 ¹ 0 y tiene que ser
v1 × v2 = 0, es decir v1 ^ v2.
Este teorema garantiza
que las bases de los subespacios propios de
A asociados a valores propios
diferentes son ortogonales entres sí. Más explícitamente, si a1, ... ,ak son los diferentes valores
propios de A y b1, ...
, bk bases ortonormales de los subespacios
propios E , ... , E respectivamente,
entonces b = , ya
sabemos que es un conjunto l.i., pero bajo estas condiciones es además un
conjunto ortonormal. Para poder diagonalizar
A, sólo falta ver que b = tiene
n elementos, eso está garantizado
por un teorema cuya demostración escapa del alcance de este curso:
Teorema
Si A es
una matriz real simétrica nxn,
entonces A es diagonalizable.
No tener la
demostración de este teorema, no hace perder nada, pues en todos los ejemplos
al tratar de diagonalizar una matriz real simétrica Anxn, se consigue una base de IRn formada por
n vectores propios de A.
La diagonalización ortogonal de este tipo de matrices siempre es posible, pues
al ortonormalizar siguiendo el procedimiento de Gramm-Schmidt las bases de cada
subespacio propio y unir las bases así obtenidas, se tiene una base ortonormal
de IRn, con la cual se tiene
una matriz ortogonal C y la diagonalización ortogonal CtAC.
El procedimiento
para diagonalizar ortogonalmente una matriz real simétrica An
consta de tres pasos:
- Se determina una base para cada subespacio propio de A.
- Se ortonormalizan según Gramm-Schmidt las bases de cada subespacio
propio de A.
- Se unen estas bases ortonormalizadas obteniendo con éstas una base
ortonormal de IRn formada por vectores propios de A.
- La matriz diagonalizante es aquélla que tiene por columnas a los
vectores de la base ortonormal de IRn obtenida en el paso anterior.