## Introduction Nous abordons dans ce cours un concept central et puissant de l'algèbre linéaire : la **diagonalisation des matrices**. Cette technique est non seulement un pilier théorique de l'algèbre linéaire, mais elle est aussi d'une utilité pratique considérable dans de nombreux domaines de l'ingénierie, allant de la mécanique quantique à l'analyse des systèmes dynamiques, en passant par l'informatique graphique et l'optimisation. L'idée fondamentale est de transformer une matrice donnée en une matrice diagonale équivalente, si cela est possible. Pourquoi une matrice diagonale ? Parce qu'elles sont incroyablement faciles à manipuler ! Calculer leurs puissances, leurs inverses, ou résoudre des systèmes linéaires impliquant des matrices diagonales est trivial. La diagonalisation nous offre donc un outil puissant pour simplifier l'étude de phénomènes complexes modélisés par des matrices non diagonales. Ce chapitre vous guidera à travers les concepts clés : les valeurs et vecteurs propres (que nous allons rapidement rappeler), les sous-espaces propres, les critères pour qu'une matrice soit diagonalisable, et enfin la méthode pratique pour réaliser cette diagonalisation. --- ## 1. Matrice Diagonalisable Maintenant que nous avons les outils nécessaires, nous pouvons définir ce qu'est une matrice diagonalisable. > [!definition] Matrice Diagonalisable > Une matrice carrée $A$ de taille $n \times n$ est dite **diagonalisable** s'il existe une matrice inversible $P$ et une matrice diagonale $D$ telles que : > $ A = P D P^{-1} $ > On dit alors que $A$ est **semblable** à une matrice diagonale $D$. > [!note] Interprétation Géométrique > Diagonaliser une matrice $A$ revient à trouver une base de $\mathbb{K}^n$ dans laquelle l'application linéaire associée à $A$ (c'est-à-dire $x \mapsto Ax$) est représentée par une matrice diagonale. > Cette base est précisément la **base des vecteurs propres**. ### 1.1. La Base Formée des Vecteurs Propres Le cœur de la diagonalisation réside dans la capacité à construire une base de l'espace vectoriel $\mathbb{K}^n$ entièrement à partir des vecteurs propres de $A$. > [!theorem] Condition Nécessaire et Suffisante pour la Diagonalisation > Une matrice $A$ de taille $n \times n$ est diagonalisable si et seulement si il existe une base de $\mathbb{K}^n$ constituée uniquement de vecteurs propres de $A$. Si une telle base existe, alors : 1. Les colonnes de la matrice $P$ sont les vecteurs de cette base de vecteurs propres. 2. La matrice $D$ est une matrice diagonale dont les éléments diagonaux sont les valeurs propres de $A$, placées dans le même ordre que les vecteurs propres correspondants dans $P$. > [!example] Relation entre $A$, $P$, $D$, $P^{-1}$ > Soit $A$ une matrice $n \times n$. Si $A$ est diagonalisable, alors il existe une base de $\mathbb{K}^n$ formée de vecteurs propres $v_1, v_2, \dots, v_n$ associés aux valeurs propres $\lambda_1, \lambda_2, \dots, \lambda_n$ (non nécessairement distinctes). > > On construit la matrice $P$ dont les colonnes sont les vecteurs propres : > $ P = \begin{pmatrix} | & | & & | \\ v_1 & v_2 & \dots & v_n \\ | & | & & | \end{pmatrix} $ > > Et la matrice diagonale $D$ : > $ D = \begin{pmatrix} \lambda_1 & 0 & \dots & 0 \\ 0 & \lambda_2 & \dots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & \lambda_n \end{pmatrix} $ > > Alors la relation $A = PDP^{-1}$ est vérifiée. > > **Preuve rapide de $AP = PD$ :** > $AP = A \begin{pmatrix} v_1 & v_2 & \dots & v_n \end{pmatrix} = \begin{pmatrix} Av_1 & Av_2 & \dots & Av_n \end{pmatrix}$ > Puisque $Av_i = \lambda_i v_i$, on a : > $AP = \begin{pmatrix} \lambda_1 v_1 & \lambda_2 v_2 & \dots & \lambda_n v_n \end{pmatrix}$ > > D'autre part : > $PD = \begin{pmatrix} | & | & & | \\ v_1 & v_2 & \dots & v_n \\ | & | & & | \end{pmatrix} \begin{pmatrix} \lambda_1 & 0 & \dots & 0 \\ 0 & \lambda_2 & \dots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \dots & \lambda_n \end{pmatrix} = \begin{pmatrix} \lambda_1 v_1 & \lambda_2 v_2 & \dots & \lambda_n v_n \end{pmatrix}$ > > Donc $AP = PD$. Puisque $P$ est inversible (ses colonnes forment une base), on peut écrire $A = PDP^{-1}$. --- ## 2. Critères de Diagonalisation Comment savoir si une matrice est diagonalisable sans essayer de trouver une base de vecteurs propres ? Il existe des critères précis. > [!theorem] Critères de Diagonalisation (pour une matrice $A$ de taille $n \times n$) > Une matrice $A$ est diagonalisable sur $\mathbb{K}$ si et seulement si les deux conditions suivantes sont remplies : > 1. Le polynôme caractéristique $P_A(\lambda)$ est **scindé** sur $\mathbb{K}$. C'est-à-dire que toutes ses racines (les valeurs propres) appartiennent à $\mathbb{K}$. > * Si $\mathbb{K} = \mathbb{C}$, cette condition est toujours vraie (théorème fondamental de l'algèbre). > * Si $\mathbb{K} = \mathbb{R}$, cela signifie qu'il n'y a pas de valeurs propres complexes non réelles. > 2. Pour chaque valeur propre $\lambda$ de $A$, la multiplicité géométrique est égale à la multiplicité algébrique : > $ m_g(\lambda) = m_a(\lambda) $ > Autrement dit, $\dim(E_\lambda) = m_a(\lambda)$. > [!theorem] Critère Simplifié pour Valeurs Propres Simples > Si une matrice $A$ de taille $n \times n$ possède $n$ valeurs propres distinctes, alors elle est diagonalisable. > > > [!note] Justification > > Si les valeurs propres sont toutes distinctes, alors $m_a(\lambda_i) = 1$ pour chaque $\lambda_i$. Puisque $1 \le m_g(\lambda_i) \le m_a(\lambda_i)$, on a nécessairement $m_g(\lambda_i) = 1$. Les deux conditions du théorème précédent sont alors satisfaites. De plus, des vecteurs propres associés à des valeurs propres distinctes sont toujours linéairement indépendants. On aura donc $n$ vecteurs propres linéairement indépendants, formant une base. > [!warning] Attention > La réciproque du critère simplifié est fausse ! Une matrice peut être diagonalisable même si elle a des valeurs propres répétées (c'est-à-dire avec $m_a(\lambda) > 1$). L'important est que $m_g(\lambda) = m_a(\lambda)$ pour *chaque* valeur propre. --- ## 3. Procédure de Diagonalisation Voici les étapes à suivre pour diagonaliser une matrice $A$ de taille $n \times n$ : 1. **Calculer le polynôme caractéristique $P_A(\lambda)$ :** $ P_A(\lambda) = \det(A - \lambda I_n) $ 2. **Trouver les valeurs propres de $A$ :** Résoudre l'équation $P_A(\lambda) = 0$. * Vérifier que toutes les racines sont dans $\mathbb{K}$ (si $\mathbb{K}=\mathbb{R}$, pas de racines complexes non réelles). Si ce n'est pas le cas, la matrice n'est pas diagonalisable sur $\mathbb{R}$. * Pour chaque valeur propre $\lambda_i$, déterminer sa multiplicité algébrique $m_a(\lambda_i)$. 3. **Pour chaque valeur propre $\lambda_i$, déterminer le sous-espace propre $E_{\lambda_i}$ :** Résoudre le système linéaire homogène $(A - \lambda_i I_n) v = 0$. * Trouver une base de $E_{\lambda_i}$. * Calculer la multiplicité géométrique $m_g(\lambda_i) = \dim(E_{\lambda_i})$. 4. **Vérifier les critères de diagonalisation :** * Si pour *toutes* les valeurs propres $\lambda_i$, on a $m_g(\lambda_i) = m_a(\lambda_i)$, alors la matrice $A$ est diagonalisable. * Si pour *au moins une* valeur propre $\lambda_i$, on a $m_g(\lambda_i) < m_a(\lambda_i)$, alors la matrice $A$ n'est pas diagonalisable. 5. **Construire les matrices $P$ et $D$ (si $A$ est diagonalisable) :** * La matrice $D$ est la matrice diagonale dont les éléments diagonaux sont les valeurs propres, répétées selon leur multiplicité algébrique (ou géométrique, car elles sont égales ici), et ordonnées comme vous le souhaitez. * La matrice $P$ est la matrice de passage dont les colonnes sont les vecteurs propres formant une base de $\mathbb{K}^n$. L'ordre des colonnes de $P$ doit correspondre à l'ordre des valeurs propres dans $D$. C'est-à-dire, si la $j$-ième colonne de $P$ est un vecteur propre $v_j$, alors le $j$-ième élément diagonal de $D$ doit être la valeur propre associée à $v_j$. * Calculer $P^{-1}$. ### 3.1. Exemple Complet de Diagonalisation Soit la matrice $A = \begin{pmatrix} 1 & 1 & 1 \\ 0 & 2 & 1 \\ 0 & 0 & 1 \end{pmatrix}$. Diagonalisons-la sur $\mathbb{R}$. 1. **Polynôme caractéristique** : $ P_A(\lambda) = \det \begin{pmatrix} 1-\lambda & 1 & 1 \\ 0 & 2-\lambda & 1 \\ 0 & 0 & 1-\lambda \end{pmatrix} = (1-\lambda)(2-\lambda)(1-\lambda) = (1-\lambda)^2(2-\lambda) $ 2. **Valeurs propres et multiplicités algébriques** : Les racines de $P_A(\lambda) = 0$ sont $\lambda_1 = 1$ et $\lambda_2 = 2$. * Pour $\lambda_1 = 1$ : $m_a(1) = 2$. * Pour $\lambda_2 = 2$ : $m_a(2) = 1$. Le polynôme est scindé sur $\mathbb{R}$. 3. **Sous-espaces propres et multiplicités géométriques** : * **Pour $\lambda_1 = 1$** : On cherche $v = \begin{pmatrix} x \\ y \\ z \end{pmatrix}$ tel que $(A - 1I)v = 0$. $ \begin{pmatrix} 0 & 1 & 1 \\ 0 & 1 & 1 \\ 0 & 0 & 0 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} $ Ceci donne l'équation $y + z = 0$, soit $z = -y$. $x$ est libre. Les vecteurs de $E_1$ sont de la forme $\begin{pmatrix} x \\ y \\ -y \end{pmatrix} = x \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} + y \begin{pmatrix} 0 \\ 1 \\ -1 \end{pmatrix}$. Une base de $E_1$ est $\left\{ v_1 = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}, v_2 = \begin{pmatrix} 0 \\ 1 \\ -1 \end{pmatrix} \right\}$. Donc $m_g(1) = \dim(E_1) = 2$. * **Pour $\lambda_2 = 2$** : On cherche $v = \begin{pmatrix} x \\ y \\ z \end{pmatrix}$ tel que $(A - 2I)v = 0$. $ \begin{pmatrix} -1 & 1 & 1 \\ 0 & 0 & 1 \\ 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} $ Le système équivaut à : $\begin{cases} -x + y + z = 0 \\ z = 0 \end{cases}$ En substituant $z=0$ dans la première équation, on obtient $-x + y = 0$, soit $y=x$. Les vecteurs de $E_2$ sont de la forme $\begin{pmatrix} x \\ x \\ 0 \end{pmatrix} = x \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix}$. Une base de $E_2$ est $\left\{ v_3 = \begin{pmatrix} 1 \\ 1 \\ 0 \end{pmatrix} \right\}$. Donc $m_g(2) = \dim(E_2) = 1$. 4. **Vérification des critères de diagonalisation** : * Pour $\lambda_1 = 1$ : $m_a(1) = 2$ et $m_g(1) = 2$. (Égalité vérifiée) * Pour $\lambda_2 = 2$ : $m_a(2) = 1$ et $m_g(2) = 1$. (Égalité vérifiée) Puisque toutes les valeurs propres sont réelles et que $m_g(\lambda_i) = m_a(\lambda_i)$ pour chaque $\lambda_i$, la matrice $A$ est **diagonalisable sur $\mathbb{R}$**. 5. **Construction de $P$ et $D$** : Nous avons une base de vecteurs propres pour $\mathbb{R}^3$ : $\mathcal{B} = \{v_1, v_2, v_3\}$. On peut choisir l'ordre des vecteurs comme on veut, tant que $D$ correspond. Prenons $P = \begin{pmatrix} v_1 & v_2 & v_3 \end{pmatrix}$. $ P = \begin{pmatrix} 1 & 0 & 1 \\ 0 & 1 & 1 \\ 0 & -1 & 0 \end{pmatrix} $ La matrice diagonale $D$ correspondante est : $ D = \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 \end{pmatrix} $ (Notez que les deux premières colonnes de $P$ correspondent à $\lambda=1$, et la troisième à $\lambda=2$). Il ne reste qu'à calculer $P^{-1}$. Par exemple, en utilisant la méthode de Gauss-Jordan ou la formule de la comatrice. $ P^{-1} = \begin{pmatrix} 1 & -1 & -1 \\ 0 & 0 & -1 \\ 0 & 1 & 1 \end{pmatrix} $ Vous pouvez vérifier que $A = PDP^{-1}$. > [!tip] Vérification Rapide > Il est toujours bon de vérifier au moins une colonne de $AP = PD$. Par exemple, pour la première colonne : > $A v_1 = \begin{pmatrix} 1 & 1 & 1 \\ 0 & 2 & 1 \\ 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} = v_1$. > Et $v_1 \cdot D = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}\begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & 0 & 2 \end{pmatrix} = \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}=v_1$. > C'est cohérent. --- ## 4. Intérêt et Applications de la Diagonalisation La diagonalisation n'est pas qu'un exercice théorique ; c'est un outil très puissant. ### 4.1. Calcul des puissances d'une matrice Si $A = PDP^{-1}$, alors : $A^k = (PDP^{-1})^k = (PDP^{-1})(PDP^{-1})\dots(PDP^{-1})$ (k fois) Les $P^{-1}P$ intermédiaires s'annulent, ce qui donne : $ A^k = P D^k P^{-1} $ Calculer $D^k$ est trivial car $D$ est diagonale : Si $D = \begin{pmatrix} \lambda_1 & & \\ & \ddots & \\ & & \lambda_n \end{pmatrix}$, alors $D^k = \begin{pmatrix} \lambda_1^k & & \\ & \ddots & \\ & & \lambda_n^k \end{pmatrix}$. Ceci simplifie énormément le calcul des puissances de matrices, ce qui est crucial pour l'étude des systèmes dynamiques discrets (chaînes de Markov, suites récurrentes matricielles, etc.). ### 4.2. Résolution de systèmes différentiels linéaires La diagonalisation est fondamentale pour résoudre des systèmes d'équations différentielles linéaires à coefficients constants de la forme $X'(t) = AX(t)$. Si $A$ est diagonalisable, on peut découpler le système en changeant de base, le rendant beaucoup plus simple à résoudre. ### 4.3. Formes quadratiques et optimisation La diagonalisation permet de simplifier l'expression des formes quadratiques, ce qui est essentiel en optimisation (recherche de minima/maxima) et en géométrie (classification des coniques et quadriques). ### 4.4. Analyse en Composantes Principales (ACP) En statistiques et en traitement du signal, l'ACP utilise la diagonalisation de la matrice de covariance pour trouver les directions de variance maximale dans un jeu de données. --- ## Conclusion La diagonalisation est une technique d'algèbre linéaire essentielle qui permet de simplifier l'étude des matrices en les transformant en des matrices diagonales équivalentes. Nous avons vu que cette transformation est possible si nous pouvons trouver une base de vecteurs propres. Les points clés à retenir sont : * Le **sous-espace propre** $E_\lambda$ est l'ensemble des vecteurs propres associés à $\lambda$ (plus le vecteur nul). * Une matrice est **diagonalisable** si elle est semblable à une matrice diagonale, ce qui se traduit par l'existence d'une base de vecteurs propres. * Les **critères de diagonalisation** sont l'existence de toutes les valeurs propres dans $\mathbb{K}$ et l'égalité des multiplicités algébriques et géométriques pour chaque valeur propre. * La **relation $A = PDP^{-1}$** est le cœur de la diagonalisation, où $P$ est la matrice de passage formée par les vecteurs propres et $D$ est la matrice diagonale des valeurs propres. La maîtrise de la diagonalisation vous ouvrira les portes vers des applications plus avancées en mathématiques et dans les sciences de l'ingénieur.