Diagonalisation orthogonale
La diagonalisation orthogonale d'une matrice est un cas particulier de la diagonalisation. Nous faisons alors une exigence supplémentaire que la matrice soit orthogonale telle que :
Le dernier terme montre que pour chaque matrice orthogonale, son inverse est égal à la transposée. Il s'applique également qu'une matrice est orthogonalement diagonalisable si, et seulement si, c'est une matrice symétrique.
Une matrice est orthogonalement diagonalisable si, et seulement si, elle est symétrique
Pour que soit une matrice orthogonale, cela signifie que nous devons être capables de créer une base orthonormale de vecteurs propres pour la matrice . Ceci est fait avec l'aide de Gram-Schmidt pour chaque base de chaque espace propre, mais il est essentiel que les espaces propres doivent être des ensembles orthogonaux. Prenons l'exemple explicatif suivant pour le raisonnement :
Soit la matrice diagonalisable et ait deux valeurs propres distinctes, et . Cela nous donne deux espaces propres, une ligne et un plan (car la matrice est diagonalisable et les valeurs propres sont au nombre de deux, l'un de ces derniers doit avoir une multiplicité géométrique de deux). Il est alors clair que nous pouvons créer une base orthonormale pour l'espace propre qui est un plan, mais pour l'espace propre qui est une ligne, nous ne pouvons pas changer la direction de son vecteur de base sans obtenir un espace complètement nouveau. La ligne doit donc intersecter le plan orthogonalement pour que la matrice soit orthogonalement diagonalisable, et par conséquent, il s'applique de manière analogue aux dimensions supérieures que tous les espaces propres doivent être des ensembles orthogonaux.
Pour diagonaliser orthogonalement la matrice , nous faisons ce qui suit :
Trouver les valeurs propres et les espaces propres respectifs de la matrice .
Créer une base de vecteurs propres pour chaque espace propre.
Appliquer Gram-Schmidt pour chaque espace propre.
Former les matrices et , de sorte que les vecteurs colonnes de soient composés des vecteurs propres orthonormaux de , et les éléments diagonaux de consistent dans le même ordre des valeurs propres de chaque vecteur propre respectif.
Théorème spectrale
Un théorème spectral est le résultat lorsqu'un opérateur linéaire, ou une matrice, peut être diagonalisé. Cette opération a un grand potentiel dans des applications réelles, notamment pour réduire considérablement les calculs pour les matrices diagonalisables, c'est pourquoi les informaticiens apprécient ce théorème. Cela peut ne pas sembler si excitant pour un étudiant, mais le fait que ce théorème ait posé les bases de la numérisation de la musique afin que nous puissions passer de l'achat de CD à l'écoute de musique en streaming sur nos téléphones, allume généralement une étincelle.
Tu te rencontres avec le théorème spectral à la fois en algèbre linéaire et en analyse fonctionnelle (cette dernière étant un sujet pour des études supérieures en mathématiques). Typiquement, on se réfère à la décomposition spectrale pour une matrice et au théorème spectral pour un opérateur linéaire.
Pour un cours de base en algèbre linéaire, le théorème spectral est généralement considéré comme juste une diagonalisation orthogonale d'une matrice carrée . Cela nécessite que la matrice soit symétrique et alors s'applique :
Le théorème spectral
Soit une matrice carrée orthogonalement diagonalisable. Soient ses valeurs propres , , ... et ses vecteurs propres orthonormaux , ,... . Nous avons alors que :
dont la dernière ligne est généralement appelée la décomposition en valeurs propres.