Diagonalización Ortogonal

Diagonalización ortogonal


Definición.
Una matriz  Pnxn  se dice ortogonal, si sus columnas forman una base ortonormal de  IRn.


Si  An =es ortogonal, las columnas de al ser multiplicadas escalarmente

entre sí resulta:  (ai1 ... ani) = a1i a1j + ... + ani anj = , de donde 

AtA = == In, pues para cada 1£ i, j £ n  la

entrada  i, j  del producto  AtA  es igual a  (ai1 ... ani)  , es decir: 1, si es una entrada 

i, i  en la diagonal y  0, si es una entrada  i, j  fuera de la diagonal (i ¹ j). Se concluye que una matriz es ortogonal, si y sólo si es invertible (la implicación que falta es fácil de probar) y su inversa es su traspuesta. Otra conclusión es que, así como las columnas de una matriz ortogonal forman una base ortonormal de  IRn, las filas forman otra base ortonormal de  IRn

Ejemplos:

  • In =i)              es una matriz ortogonal. Sus columnas forman la base canónica de  IRn, de la cual sabemos que es ortonormal.
  • A = i)              es otro ejemplo de matriz ortogonal, para ver esto, basta multiplicar  A  por su traspuesta y verificar que resulta la identidad  2x2. 
  • A =  es una matriz ortogonal  3x3, pues  AtA = I3x3.
  • A = no es una matriz ortogonal, pues aunque sus columnas son ortogonales, no tienen norma uno.

Como ya sabemos, la diagonalización de una matriz  Anxn  depende de la existencia de una matriz diagonalizante  Cnxn, con cuya inversa resulta el producto  C-1AC  es una matriz diagonal. La matriz diagonalizante  C  se construye encontrando una base de  IRn  formada por vectores propios de  A  y ubicando estos vectores propios como columnas de  C.

Ahora bien, si esta base de  IRn  resulta ser una base ortonormal, entonces la matriz diagonalizante  C  es ortogonal y  C-1AC  se puede escribir  CtAC, pues para matrices ortogonales, como vimos arriba, vale  C-1 = Ct. Este tipo de diagonalización se denomina diagonalización ortogonal y la matriz  A  se dice ortogonalmente diagonalizable.

Ejemplo:

Para la matriz  A= resultan  y vectores propios de  A, pues
 =  =  y  =  = (-2).

es un vector propio de  A asociado al valor propio  4  y un vector propio

de  A  asociado al valor propio  (-2). Resulta así la matriz  C =  una matriz

diagonalizante  de  A  y  C-1AC = 
. Adicionalmente, como  C  es una matriz

ortogonal, la expresión  C-1AC =  se transforma es  CtAC =  y se tiene

así un ejemplo de una matriz  A  ortogonalmente diagonalizable.

Vamos a establecer ciertos fundamentos, que incluyen saber a priori cuándo es una matriz ortogonalmente diagonalizable, antes de enunciar un procedimiento para hacer este tipo de diagonalizaciones.



Teorema
Si  Anxn  es real simétrica, a1  y  a2  dos valores propios diferentes de  A  y  v1  y  v2  dos vectores propios de  A, el vector v1  asociado a  a1  y  v2  asociado a  a2.
Entonces  v1  y  v2  son ortogonales (v1 ^ v2).
Demostración:

Notemos que si  u = y  v =  son dos vectores de  IRn, el producto escalar 

u × v  se puede calcular multiplicando el vector fila  1xn: vt  por el vector columna  nx1  u,

es decir;  vt u = (v1 ... vn= (v1u1 + ... + vnun).

Teniendo esto en cuenta, proseguimos con la demostración.
Se evalúa el producto escalar  Av1  por  v2  de dos maneras:

Por un lado  Av1 × v2 = (a1v1) × v2 = a1 (v1 × v2), por otro 
Av1 × v2 = (Av1) = (A) v1 = (At v2)t v1 = v1 × (At v2) = v1 × (A v2) = v1 × (a2 v2) = a2(v1 × v2), entonces  a1 (v1 × v2) = a2(v1 × v2)  y  (a1 - a2) (v1 × v2) = 0, como  a1 ¹ a2  es  a1 - a2 ¹ 0  y  tiene que ser  v1 × v2 = 0, es decir  v1 ^ v2.

Este teorema garantiza que las bases de los subespacios propios de  A  asociados a valores propios diferentes son ortogonales entres sí. Más explícitamente, si  a1, ... ,ak  son los diferentes valores propios de  A  y  b1, ... , bk  bases ortonormales de los subespacios propios  E , ... ,  E  respectivamente, entonces  b, ya sabemos que es un conjunto l.i., pero bajo estas condiciones es además un conjunto ortonormal. Para poder diagonalizar  A, sólo falta ver que  b =  tiene  n  elementos, eso está garantizado por un teorema cuya demostración escapa del alcance de este curso:
Teorema
Si  A  es una matriz real simétrica  nxn, entonces  A  es diagonalizable.
No tener la demostración de este teorema, no hace perder nada, pues en todos los ejemplos al tratar de diagonalizar una matriz real simétrica  Anxn, se consigue una base de  IRn  formada por  n  vectores propios  de  A. La diagonalización ortogonal de este tipo de matrices siempre es posible, pues al ortonormalizar siguiendo el procedimiento de Gramm-Schmidt las bases de cada subespacio propio y unir las bases así obtenidas, se tiene una base ortonormal de  IRn, con la cual se tiene una matriz ortogonal  C  y la diagonalización ortogonal  CtAC.

El procedimiento para diagonalizar ortogonalmente una matriz real simétrica  An  consta de tres pasos:
  • Se determina una base para cada subespacio propio de  A.
  • Se ortonormalizan según Gramm-Schmidt las bases de cada subespacio propio de  A.
  •  Se unen estas bases ortonormalizadas obteniendo con éstas una base ortonormal de  IRn  formada por vectores propios de  A.
  • La matriz diagonalizante es aquélla que tiene por columnas a los vectores de la base ortonormal de  IRn  obtenida en el paso anterior.



No hay comentarios:

Publicar un comentario