## Introduction En algèbre linéaire, l'étude des transformations linéaires est fondamentale. Parmi ces transformations, certaines sont particulièrement simples à décrire lorsqu'elles sont exprimées dans une base appropriée. Les concepts de valeurs propres et de vecteurs propres sont au cœur de cette simplification. Ils permettent de comprendre comment une transformation linéaire "étire" ou "rétrécit" certains vecteurs sans changer leur direction, et sont des outils essentiels pour l'analyse et la résolution de nombreux problèmes en sciences de l'ingénieur, allant de la mécanique quantique à l'analyse des systèmes dynamiques, en passant par la compression d'images et l'intelligence artificielle. Ce chapitre s'appuie sur vos connaissances des matrices, des déterminants et des systèmes linéaires. ## 1. Définitions Fondamentales Considérons une matrice carrée $A \in \mathcal{M}_n(\mathbb{K})$, où $\mathbb{K}$ est un corps (généralement $\mathbb{R}$ ou $\mathbb{C}$). > [!definition] Vecteur Propre > Un vecteur $v \in \mathbb{K}^n$ est appelé **vecteur propre** de la matrice $A$ s'il est non nul et s'il existe un scalaire $\lambda \in \mathbb{K}$ tel que : > $ A v = \lambda v $ > [!definition] Valeur Propre > Le scalaire $\lambda \in \mathbb{K}$ associé à un vecteur propre $v$ est appelé **valeur propre** de la matrice $A$. > [!note] Remarque > La condition $v \neq 0$ est cruciale. Si $v=0$, l'équation $Av = \lambda v$ serait toujours vérifiée pour n'importe quel $\lambda$, ce qui rendrait la notion de valeur propre triviale et inutile. > [!definition] Espace Propre > Pour chaque valeur propre $\lambda$ de $A$, l'ensemble des vecteurs $v \in \mathbb{K}^n$ tels que $Av = \lambda v$ est appelé **espace propre** associé à $\lambda$, noté $E_\lambda$. > $ E_\lambda = \{ v \in \mathbb{K}^n \mid Av = \lambda v \} $ > $E_\lambda$ est un sous-espace vectoriel de $\mathbb{K}^n$. > [!note] Preuve que $E_\lambda$ est un sous-espace vectoriel > Pour montrer que $E_\lambda$ est un sous-espace vectoriel, il faut vérifier trois conditions : > 1. $E_\lambda$ n'est pas vide : $0 \in E_\lambda$ car $A \cdot 0 = 0 = \lambda \cdot 0$. > 2. Stabilité par addition : Si $u, v \in E_\lambda$, alors $Au = \lambda u$ et $Av = \lambda v$. Donc $A(u+v) = Au + Av = \lambda u + \lambda v = \lambda(u+v)$. Ainsi, $u+v \in E_\lambda$. > 3. Stabilité par multiplication scalaire : Si $v \in E_\lambda$ et $k \in \mathbb{K}$, alors $Av = \lambda v$. Donc $A(kv) = k(Av) = k(\lambda v) = \lambda(kv)$. Ainsi, $kv \in E_\lambda$. > Ces trois conditions prouvent que $E_\lambda$ est bien un sous-espace vectoriel. > [!definition] Spectre d'une Matrice > L'ensemble de toutes les valeurs propres d'une matrice $A$ est appelé le **spectre** de $A$, noté $\text{Sp}(A)$. ## 2. Recherche des Valeurs Propres : Le Polynôme Caractéristique Comment trouver les valeurs propres d'une matrice $A$? L'équation $Av = \lambda v$ peut être réécrite comme : $ Av - \lambda v = 0 $ $ Av - \lambda I v = 0 \quad \text{où } I \text{ est la matrice identité de taille } n $ $ (A - \lambda I) v = 0 $ Cette équation représente un système linéaire homogène. Nous cherchons des vecteurs propres $v$ qui sont non nuls. Un système linéaire homogène $Mx=0$ admet des solutions non triviales (non nulles) si et seulement si la matrice $M$ n'est pas inversible, c'est-à-dire si son déterminant est nul. Dans notre cas, $M = (A - \lambda I)$. Par conséquent, les valeurs propres $\lambda$ sont les scalaires pour lesquels $\det(A - \lambda I) = 0$. > [!definition] Polynôme Caractéristique > Le **polynôme caractéristique** d'une matrice carrée $A \in \mathcal{M}_n(\mathbb{K})$ est le polynôme $P_A(X)$ défini par : > $ P_A(X) = \det(A - X I_n) $ > Les valeurs propres de $A$ sont les racines de son polynôme caractéristique. > [!theorem] Théorème > Les valeurs propres d'une matrice $A$ sont les racines du polynôme caractéristique $P_A(X) = \det(A - X I_n)$. > [!note] Propriétés du Polynôme Caractéristique > * $P_A(X)$ est un polynôme de degré $n$. > * Le coefficient du terme de plus haut degré $X^n$ est $(-1)^n$. > * Le terme constant $P_A(0) = \det(A)$. > * Le coefficient de $X^{n-1}$ est $(-1)^{n-1} \text{Tr}(A)$, où $\text{Tr}(A)$ est la trace de $A$ (somme des éléments diagonaux). > [!example] Exemple de calcul de valeurs propres > Soit la matrice $A = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix}$. > > 1. **Calculer $A - \lambda I$ :** > $ A - \lambda I = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix} - \lambda \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 2-\lambda & 1 \\ 1 & 2-\lambda \end{pmatrix} $ > > 2. **Calculer le déterminant $P_A(\lambda) = \det(A - \lambda I)$ :** > $ P_A(\lambda) = (2-\lambda)(2-\lambda) - (1)(1) = (2-\lambda)^2 - 1 $ > $ P_A(\lambda) = 4 - 4\lambda + \lambda^2 - 1 = \lambda^2 - 4\lambda + 3 $ > > 3. **Trouver les racines de $P_A(\lambda) = 0$ :** > Nous devons résoudre $\lambda^2 - 4\lambda + 3 = 0$. > Le discriminant est $\Delta = (-4)^2 - 4(1)(3) = 16 - 12 = 4$. > Les racines sont $\lambda = \frac{-(-4) \pm \sqrt{4}}{2(1)} = \frac{4 \pm 2}{2}$. > Donc, $\lambda_1 = \frac{4-2}{2} = 1$ et $\lambda_2 = \frac{4+2}{2} = 3$. > > Les valeurs propres de $A$ sont $\lambda_1 = 1$ et $\lambda_2 = 3$. > Le spectre de $A$ est $\text{Sp}(A) = \{1, 3\}$. ## 3. Multiplicité des Valeurs Propres Lorsqu'une valeur propre est une racine du polynôme caractéristique, elle peut apparaître avec une certaine multiplicité. Il existe deux types de multiplicités importantes. > [!definition] Multiplicité Algébrique > La **multiplicité algébrique** d'une valeur propre $\lambda_0$, notée $m_a(\lambda_0)$, est sa multiplicité en tant que racine du polynôme caractéristique $P_A(X)$. > Autrement dit, si $P_A(X) = (X-\lambda_0)^{m_a(\lambda_0)} Q(X)$ où $Q(\lambda_0) \neq 0$. > [!definition] Multiplicité Géométrique > La **multiplicité géométrique** d'une valeur propre $\lambda_0$, notée $m_g(\lambda_0)$, est la dimension de l'espace propre associé $E_{\lambda_0}$. > $ m_g(\lambda_0) = \dim(E_{\lambda_0}) = \dim(\text{Ker}(A - \lambda_0 I)) $ > [!theorem] Relation entre les Multiplicités > Pour toute valeur propre $\lambda$ d'une matrice $A$, la multiplicité géométrique est toujours inférieure ou égale à la multiplicité algébrique : > $ 1 \le m_g(\lambda) \le m_a(\lambda) $ > [!note] Remarque > La multiplicité géométrique est toujours au moins 1 car, par définition, un espace propre contient au moins un vecteur propre non nul. > [!warning] Attention > L'égalité $m_g(\lambda) = m_a(\lambda)$ n'est pas toujours vraie. C'est une condition nécessaire (mais non suffisante) pour la diagonalisabilité d'une matrice sur $\mathbb{K}$. Nous verrons cela dans le prochain chapitre. ## 4. Recherche des Vecteurs Propres et Espaces Propres Une fois les valeurs propres $\lambda_i$ trouvées, il faut déterminer les vecteurs propres associés en résolvant le système $(A - \lambda_i I)v = 0$ pour chaque $\lambda_i$. L'ensemble des solutions (plus le vecteur nul) forme l'espace propre $E_{\lambda_i}$. > [!example] Reprenons l'exemple précédent > Matrice $A = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix}$ avec valeurs propres $\lambda_1 = 1$ et $\lambda_2 = 3$. > > **1. Pour $\lambda_1 = 1$ :** > Nous cherchons $v = \begin{pmatrix} x \\ y \end{pmatrix}$ tel que $(A - 1I)v = 0$. > $ \left( \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix} - \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} \right) \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix} $ > $ \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix} $ > Cela donne le système : > $ \begin{cases} x + y = 0 \\ x + y = 0 \end{cases} $ > La solution est $y = -x$. Les vecteurs propres sont de la forme $\begin{pmatrix} x \\ -x \end{pmatrix} = x \begin{pmatrix} 1 \\ -1 \end{pmatrix}$ pour $x \neq 0$. > L'espace propre $E_1$ est le sous-espace vectoriel engendré par $\begin{pmatrix} 1 \\ -1 \end{pmatrix}$. > $E_1 = \text{Vect}\left( \begin{pmatrix} 1 \\ -1 \end{pmatrix} \right)$. Sa dimension est 1, donc $m_g(1) = 1$. > Puisque $\lambda_1=1$ est une racine simple du polynôme caractéristique $\lambda^2 - 4\lambda + 3 = (\lambda-1)(\lambda-3)$, sa multiplicité algébrique est $m_a(1)=1$. On a bien $m_g(1) = m_a(1)$. > > **2. Pour $\lambda_2 = 3$ :** > Nous cherchons $v = \begin{pmatrix} x \\ y \end{pmatrix}$ tel que $(A - 3I)v = 0$. > $ \left( \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix} - \begin{pmatrix} 3 & 0 \\ 0 & 3 \end{pmatrix} \right) \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix} $ > $ \begin{pmatrix} -1 & 1 \\ 1 & -1 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \end{pmatrix} $ > Cela donne le système : > $ \begin{cases} -x + y = 0 \\ x - y = 0 \end{cases} $ > La solution est $y = x$. Les vecteurs propres sont de la forme $\begin{pmatrix} x \\ x \end{pmatrix} = x \begin{pmatrix} 1 \\ 1 \end{pmatrix}$ pour $x \neq 0$. > L'espace propre $E_3$ est le sous-espace vectoriel engendré par $\begin{pmatrix} 1 \\ 1 \end{pmatrix}$. > $E_3 = \text{Vect}\left( \begin{pmatrix} 1 \\ 1 \end{pmatrix} \right)$. Sa dimension est 1, donc $m_g(3) = 1$. > De même, $m_a(3)=1$. On a bien $m_g(3) = m_a(3)$. > [!tip] Astuce pour trouver la base de $E_\lambda$ > Pour trouver une base de l'espace propre $E_\lambda = \text{Ker}(A - \lambda I)$, il suffit de résoudre le système linéaire homogène $(A - \lambda I)v = 0$ et d'exprimer les variables dépendantes en fonction des variables libres. Les vecteurs obtenus en donnant la valeur 1 à une variable libre et 0 aux autres (alternativement) formeront une base de $E_\lambda$. La dimension de $E_\lambda$ est le nombre de variables libres. ## 5. Propriétés Remarquables des Valeurs Propres et Vecteurs Propres Les valeurs propres et vecteurs propres possèdent de nombreuses propriétés utiles. > [!theorem] Trace et Déterminant > Soit $A \in \mathcal{M}_n(\mathbb{K})$ une matrice dont les valeurs propres (comptées avec leur multiplicité algébrique) sont $\lambda_1, \lambda_2, \dots, \lambda_n$. Alors : > 1. La trace de $A$ est égale à la somme de ses valeurs propres : > $ \text{Tr}(A) = \sum_{i=1}^n \lambda_i $ > 2. Le déterminant de $A$ est égal au produit de ses valeurs propres : > $ \det(A) = \prod_{i=1}^n \lambda_i $ > [!example] Vérification sur l'exemple > Pour $A = \begin{pmatrix} 2 & 1 \\ 1 & 2 \end{pmatrix}$, les valeurs propres sont $\lambda_1=1, \lambda_2=3$. > * $\text{Tr}(A) = 2+2 = 4$. > * $\sum \lambda_i = 1+3 = 4$. C'est vérifié. > * $\det(A) = (2)(2) - (1)(1) = 4-1 = 3$. > * $\prod \lambda_i = (1)(3) = 3$. C'est vérifié. > [!theorem] Valeurs Propres d'une Matrice Triangulaire ou Diagonale > Les valeurs propres d'une matrice triangulaire (supérieure ou inférieure) ou diagonale sont ses éléments diagonaux. > [!example] > Soit $A = \begin{pmatrix} 3 & 1 & 0 \\ 0 & 2 & -1 \\ 0 & 0 & 4 \end{pmatrix}$. > $P_A(X) = \det(A - XI) = \det \begin{pmatrix} 3-X & 1 & 0 \\ 0 & 2-X & -1 \\ 0 & 0 & 4-X \end{pmatrix} = (3-X)(2-X)(4-X)$. > Les racines sont $X=3, X=2, X=4$. Ce sont les éléments diagonaux. > [!theorem] Vecteurs Propres Associés à des Valeurs Propres Distinctes > Si $\lambda_1, \lambda_2, \dots, \lambda_k$ sont des valeurs propres distinctes d'une matrice $A$, et si $v_1, v_2, \dots, v_k$ sont des vecteurs propres associés respectivement à ces valeurs propres, alors les vecteurs $v_1, v_2, \dots, v_k$ sont linéairement indépendants. > [!note] Conséquence importante > Si une matrice $A \in \mathcal{M}_n(\mathbb{K})$ possède $n$ valeurs propres distinctes, alors elle possède $n$ vecteurs propres linéairement indépendants. Ces vecteurs propres forment alors une base de $\mathbb{K}^n$. Dans cette base, la matrice de l'endomorphisme associé à $A$ est diagonale. C'est la base de la diagonalisation. > > [!theorem] Valeurs Propres de la Matrice Inverse > Si $A$ est une matrice inversible et $\lambda$ est une valeur propre de $A$, alors $\lambda \neq 0$ et $\lambda^{-1}$ est une valeur propre de $A^{-1}$. ## 6. Polynôme Caractéristique Scindé Le concept de polynôme caractéristique scindé est essentiel pour la diagonalisation. > [!definition] Polynôme Scindé > Un polynôme $P(X)$ à coefficients dans un corps $\mathbb{K}$ est dit **scindé sur $\mathbb{K}$** si toutes ses racines appartiennent à $\mathbb{K}$. Autrement dit, il peut s'écrire comme un produit de facteurs de degré 1 sur $\mathbb{K}$ : > $ P(X) = c (X-\lambda_1)(X-\lambda_2)\dots(X-\lambda_n) $ > où $c \in \mathbb{K}$ et $\lambda_i \in \mathbb{K}$ pour tout $i$. > [!note] Importance pour les valeurs propres > Pour qu'une matrice $A \in \mathcal{M}_n(\mathbb{K})$ puisse être diagonalisée sur $\mathbb{K}$, son polynôme caractéristique $P_A(X)$ doit être scindé sur $\mathbb{K}$. Si les racines ne sont pas dans $\mathbb{K}$, la matrice n'a pas toutes ses valeurs propres dans $\mathbb{K}$ et ne peut donc pas être diagonalisée sur $\mathbb{K}$. > [!tip] Corps des nombres complexes > Tout polynôme à coefficients complexes est scindé sur $\mathbb{C}$ (c'est le théorème fondamental de l'algèbre). Par conséquent, toute matrice carrée $A \in \mathcal{M}_n(\mathbb{C})$ a $n$ valeurs propres dans $\mathbb{C}$ (comptées avec leur multiplicité algébrique). > Pour une matrice $A \in \mathcal{M}_n(\mathbb{R})$, son polynôme caractéristique peut ne pas être scindé sur $\mathbb{R}$ (par exemple, $X^2+1$). Dans ce cas, $A$ n'aura pas toutes ses valeurs propres réelles. ## Conclusion Ce chapitre a posé les bases de l'étude des valeurs propres et des vecteurs propres. Nous avons défini ces notions, appris à calculer le polynôme caractéristique pour trouver les valeurs propres, et à résoudre des systèmes linéaires pour déterminer les espaces propres associés. Nous avons également exploré les concepts de multiplicité algébrique et géométrique, ainsi que plusieurs propriétés fondamentales qui relient les valeurs propres à la trace, au déterminant, et aux puissances de matrices. La compréhension de ces concepts est cruciale. Les valeurs propres et vecteurs propres sont les "empreintes digitales" d'une matrice, révélant des informations essentielles sur la transformation linéaire qu'elle représente. Ils sont la clé pour simplifier l'analyse des matrices, notamment à travers la diagonalisation, qui sera le sujet de notre prochain chapitre. La diagonalisation permet de transformer une matrice en une forme plus simple, facilitant ainsi le calcul de ses puissances, de son exponentielle, et la résolution de systèmes différentiels, des applications omniprésentes en ingénierie.