# ▷ Cours
> Page d'accueil de la compétence: [[Calcul matriciel]]
>[!tip] Tags
>[!note] Fil directeur
>Ce chapitre vous fournira les outils nécessaires pour comprendre, identifier et calculer l'inverse d'une matrice, ainsi que pour apprécier ses nombreuses applications en ingénierie et au-delà.
>[!example] Contenu du cours
>
À la fin de ce chapitre, vous serez capable de :
>- Définir une matrice inversible et son inverse.
>- Énoncer les propriétés fondamentales de la matrice inverse.
>- Identifier les critères d'inversibilité d'une matrice.
>- Calculer l'inverse d'une matrice carrée par différentes méthodes (Gauss-Jordan, comatrice).
>- Appliquer la notion de matrice inverse à la résolution de systèmes linéaires et à la compréhension des changements de base.
# ❶ Matrice Inverse
Peut-on "diviser" par une matrice ? La réponse est oui, sous certaines conditions ! L'analogue de la division matricielle est la multiplication par la matrice inverse. Ce concept est d'une importance capitale, notamment pour la résolution de systèmes d'équations linéaires de la forme $AX = B$, où $A$ est une matrice, $X$ un vecteur de variables et $B$ un vecteur de constantes. Si une matrice inverse $A^{-1}$ existe, la solution est simplement $X = A^{-1}B$.
## Définition et Propriétés Fondamentales
Commençons par la définition formelle de ce qu'est une matrice inversible.
> [!definition] Matrice Inversible et son Inverse
> Une matrice carrée $A$ d'ordre $n$ (c'est-à-dire de taille $n \times n$) est dite **inversible** (ou **non singulière**) s'il existe une matrice carrée $B$ d'ordre $n$ telle que :
> $ A B = B A = I_n $
> où $I_n$ est la matrice identité d'ordre $n$.
>
> Si une telle matrice $B$ existe, elle est unique et est appelée l'**inverse de $A$**, notée $A^{-1}$.
> [!note] Matrices non carrées
> Seules les matrices carrées peuvent être inversibles. Pour une matrice non carrée $A$ de taille $m \times n$ (avec $m \neq n$), il n'est pas possible de trouver une matrice $B$ telle que $AB$ et $BA$ soient toutes deux des matrices identité (qui sont nécessairement carrées et de tailles différentes si $m \neq n$).
>
> En termes d'applications linéaires, une matrice inversible correspond à une application linéaire bijective de $E$ vers $E$, où $E$ est un espace vectoriel de dimension $n$.
## Unicité de l'inverse
L'inverse, s'il existe, est unique. Démontrons-le rapidement.
> [!theorem] Unicité de l'Inverse
> Si une matrice $A$ est inversible, alors son inverse $A^{-1}$ est unique.
>
> **Démonstration :**
> Supposons qu'il existe deux matrices $B_1$ et $B_2$ qui soient toutes deux des inverses de $A$.
> Par définition, nous avons :
> $A B_1 = B_1 A = I_n$
> $A B_2 = B_2 A = I_n$
>
> Considérons $B_1$. Nous pouvons écrire :
> $B_1 = B_1 I_n$
> Puisque $I_n = A B_2$, on substitue :
> $B_1 = B_1 (A B_2)$
> Par associativité de la multiplication matricielle :
> $B_1 = (B_1 A) B_2$
> Puisque $B_1 A = I_n$, on substitue à nouveau :
> $B_1 = I_n B_2$
> Et enfin :
> $B_1 = B_2$
> L'inverse est donc unique.
## Propriétés de l'inverse
L'inverse possède plusieurs propriétés importantes qui simplifient les calculs et la manipulation des expressions matricielles.
> [!theorem] Propriétés de l'Inverse
> Soient $A$ et $B$ des matrices carrées d'ordre $n$ inversibles, et $\lambda$ un scalaire non nul.
> 1. **Inverse de l'inverse :** $(A^{-1})^{-1} = A$
> 2. **Inverse d'un produit :** $(AB)^{-1} = B^{-1} A^{-1}$ (Attention à l'ordre !)
> 3. **Inverse d'un multiple scalaire :** $(\lambda A)^{-1} = \frac{1}{\lambda} A^{-1}$
> 4. **Inverse de la transposée :** $(A^T)^{-1} = (A^{-1})^T$
> 5. **Inverse de la matrice identité :** $I_n^{-1} = I_n$
> 6. **Inverse d'une puissance :** $(A^k)^{-1} = (A^{-1})^k$ pour tout entier $k \ge 1$.
> [!example] Inverse d'un produit
> Soient $A = \begin{pmatrix} 1 & 2 \\ 0 & 1 \end{pmatrix}$ et $B = \begin{pmatrix} 1 & 0 \\ 1 & 1 \end{pmatrix}$.
> On peut calculer leurs inverses (nous verrons les méthodes plus tard) :
> $A^{-1} = \begin{pmatrix} 1 & -2 \\ 0 & 1 \end{pmatrix}$ et $B^{-1} = \begin{pmatrix} 1 & 0 \\ -1 & 1 \end{pmatrix}$.
>
> Calculons le produit $AB$ :
> $AB = \begin{pmatrix} 1 & 2 \\ 0 & 1 \end{pmatrix} \begin{pmatrix} 1 & 0 \\ 1 & 1 \end{pmatrix} = \begin{pmatrix} 1 \cdot 1 + 2 \cdot 1 & 1 \cdot 0 + 2 \cdot 1 \\ 0 \cdot 1 + 1 \cdot 1 & 0 \cdot 0 + 1 \cdot 1 \end{pmatrix} = \begin{pmatrix} 3 & 2 \\ 1 & 1 \end{pmatrix}$.
>
> Calculons $(AB)^{-1}$ (par exemple, en utilisant la formule pour les matrices 2x2, vue plus tard) :
> $\det(AB) = 3 \cdot 1 - 2 \cdot 1 = 1$.
> $(AB)^{-1} = \frac{1}{1} \begin{pmatrix} 1 & -2 \\ -1 & 3 \end{pmatrix} = \begin{pmatrix} 1 & -2 \\ -1 & 3 \end{pmatrix}$.
>
> Maintenant, calculons $B^{-1}A^{-1}$ :
> $B^{-1}A^{-1} = \begin{pmatrix} 1 & 0 \\ -1 & 1 \end{pmatrix} \begin{pmatrix} 1 & -2 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 \cdot 1 + 0 \cdot 0 & 1 \cdot (-2) + 0 \cdot 1 \\ -1 \cdot 1 + 1 \cdot 0 & -1 \cdot (-2) + 1 \cdot 1 \end{pmatrix} = \begin{pmatrix} 1 & -2 \\ -1 & 3 \end{pmatrix}$.
>
> On vérifie bien que $(AB)^{-1} = B^{-1}A^{-1}$.
# ❷ Critères d'Inversibilité
Comment savoir si une matrice est inversible sans essayer de calculer son inverse ? Il existe plusieurs critères équivalents pour déterminer si une matrice carrée $A$ d'ordre $n$ est inversible. Ces critères sont souvent liés à des concepts que vous avez déjà rencontrés en espaces vectoriels.
> [!theorem] Critères d'Inversibilité (Théorème Fondamental des Matrices Inversibles)
> Pour une matrice carrée $A$ d'ordre $n$, les affirmations suivantes sont équivalentes :
> 1. $A$ est inversible.
> 2. Le déterminant de $A$ est non nul : $\det(A) \neq 0$.
> 3. Le rang de $A$ est égal à $n$ : $\text{rg}(A) = n$.
> 4. Les colonnes de $A$ (ou les lignes de $A$) forment une base de $\mathbb{R}^n$.
> 5. Les colonnes de $A$ (ou les lignes de $A$) sont linéairement indépendantes.
> 6. L'équation homogène $AX = 0$ n'admet que la solution triviale $X = 0$.
> 7. Pour tout vecteur $B \in \mathbb{R}^n$, le système $AX = B$ admet une unique solution.
> 8. L'application linéaire $f: \mathbb{R}^n \to \mathbb{R}^n$ définie par $f(X) = AX$ est bijective.
> 9. Le noyau de $A$ est réduit au vecteur nul : $\ker(A) = \{0\}$.
> 10. L'image de $A$ est $\mathbb{R}^n$ : $\text{Im}(A) = \mathbb{R}^n$.
> 11. 0 n'est pas une valeur propre de $A$. (Préparation pour la diagonalisation !)
> [!note] Lien avec les Espaces Vectoriels
> Les critères 3 à 10 sont directement liés aux concepts d'espaces vectoriels et d'applications linéaires. Par exemple, le critère 8 nous dit qu'une matrice est inversible si et seulement si l'application linéaire qu'elle représente est bijective. Cela signifie qu'elle est à la fois injective (critère 6 : $\ker(A)=\{0\}$) et surjective (critère 10 : $\text{Im}(A)=\mathbb{R}^n$). Le théorème du rang ($\text{dim}(\ker A) + \text{rg}(A) = n$) relie directement les critères 3, 6 et 10.
> [!example] Utilisation du déterminant
> Pour la matrice $A = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}$, son déterminant est $\det(A) = (1 \cdot 4) - (2 \cdot 3) = 4 - 6 = -2$.
> Puisque $\det(A) = -2 \neq 0$, la matrice $A$ est inversible.
>
> Pour la matrice $B = \begin{pmatrix} 1 & 2 \\ 2 & 4 \end{pmatrix}$, son déterminant est $\det(B) = (1 \cdot 4) - (2 \cdot 2) = 4 - 4 = 0$.
> Puisque $\det(B) = 0$, la matrice $B$ n'est pas inversible.
# ❸Méthodes de Calcul de l'Inverse
Maintenant que nous savons identifier une matrice inversible, voyons comment calculer son inverse $A^{-1}$. Il existe principalement deux méthodes : la méthode de Gauss-Jordan et la méthode par la comatrice.
## Méthode de Gauss-Jordan
Cette méthode est la plus générale et la plus efficace pour calculer l'inverse d'une matrice, surtout pour des matrices de grande taille. Elle repose sur les opérations élémentaires sur les lignes.
> [!tip] Principe de Gauss-Jordan
> Pour calculer l'inverse d'une matrice $A$ d'ordre $n$, on forme une matrice augmentée $[A | I_n]$ en juxtaposant $A$ et la matrice identité $I_n$. On applique ensuite une série d'opérations élémentaires sur les lignes de cette matrice augmentée jusqu'à ce que la partie gauche devienne la matrice identité $I_n$. La matrice résultante sur la partie droite sera alors $A^{-1}$.
>
> En résumé : $[A | I_n] \xrightarrow{\text{Opérations élémentaires sur les lignes}} [I_n | A^{-1}]$
> [!example] Calcul de l'inverse par Gauss-Jordan (Matrice 2x2)
> Calculons l'inverse de $A = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}$.
>
> 1. **Former la matrice augmentée :**
> $ [A | I_2] = \begin{pmatrix} 1 & 2 & | & 1 & 0 \\ 3 & 4 & | & 0 & 1 \end{pmatrix} $
>
> 2. **Appliquer les opérations élémentaires sur les lignes :**
> * $L_2 \leftarrow L_2 - 3L_1$ (pour annuler le 3 sous le 1) :
> $ \begin{pmatrix} 1 & 2 & | & 1 & 0 \\ 0 & -2 & | & -3 & 1 \end{pmatrix} $
> * $L_2 \leftarrow -\frac{1}{2} L_2$ (pour obtenir un 1 sur la diagonale en $L_2$) :
> $ \begin{pmatrix} 1 & 2 & | & 1 & 0 \\ 0 & 1 & | & \frac{3}{2} & -\frac{1}{2} \end{pmatrix} $
> * $L_1 \leftarrow L_1 - 2L_2$ (pour annuler le 2 au-dessus du 1 en $L_2$) :
> $ \begin{pmatrix} 1 & 0 & | & 1 - 2(\frac{3}{2}) & 0 - 2(-\frac{1}{2}) \\ 0 & 1 & | & \frac{3}{2} & -\frac{1}{2} \end{pmatrix} = \begin{pmatrix} 1 & 0 & | & 1 - 3 & 1 \\ 0 & 1 & | & \frac{3}{2} & -\frac{1}{2} \end{pmatrix} = \begin{pmatrix} 1 & 0 & | & -2 & 1 \\ 0 & 1 & | & \frac{3}{2} & -\frac{1}{2} \end{pmatrix} $
>
> 3. **Identifier l'inverse :**
> La partie droite de la matrice augmentée est maintenant $A^{-1}$.
> $ A^{-1} = \begin{pmatrix} -2 & 1 \\ \frac{3}{2} & -\frac{1}{2} \end{pmatrix} $
>
> **Vérification :** $A A^{-1} = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} \begin{pmatrix} -2 & 1 \\ \frac{3}{2} & -\frac{1}{2} \end{pmatrix} = \begin{pmatrix} 1(-2)+2(\frac{3}{2}) & 1(1)+2(-\frac{1}{2}) \\ 3(-2)+4(\frac{3}{2}) & 3(1)+4(-\frac{1}{2}) \end{pmatrix} = \begin{pmatrix} -2+3 & 1-1 \\ -6+6 & 3-2 \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I_2$.
> [!warning] Erreurs fréquentes
> - Oublier d'appliquer les opérations sur les lignes à la fois sur $A$ et sur $I_n$.
> - Faire des erreurs de calcul, surtout avec les fractions.
> - Ne pas arriver à $I_n$ à gauche indique que la matrice n'est pas inversible (son déterminant est nul).
## Méthode par la Comatrice (Adjointe classique)
Cette méthode est particulièrement utile pour les matrices de petite taille (2x2 ou 3x3) et pour des démonstrations théoriques, mais elle devient très lourde pour des matrices de taille supérieure à 3.
> [!theorem] Formule de l'inverse par la comatrice
> Si $A$ est une matrice carrée d'ordre $n$ inversible, alors son inverse $A^{-1}$ est donnée par la formule :
> $ A^{-1} = \frac{1}{\det(A)} \left( \text{com}(A) \right)^T $
> où $\det(A)$ est le déterminant de $A$, et $\text{com}(A)$ est la **comatrice** de $A$.
>
> La comatrice $\text{com}(A)$ est la matrice dont les éléments sont les cofacteurs $C_{ij}$ de $A$.
> Le **cofacteur** $C_{ij}$ de l'élément $a_{ij}$ est donné par $C_{ij} = (-1)^{i+j} M_{ij}$, où $M_{ij}$ est le **mineur** de $a_{ij}$.
> Le mineur $M_{ij}$ est le déterminant de la sous-matrice obtenue en supprimant la $i$-ème ligne et la $j$-ème colonne de $A$.
>
> La matrice $(\text{com}(A))^T$ est parfois appelée la **matrice adjointe classique** de $A$, notée $\text{adj}(A)$. Donc, $A^{-1} = \frac{1}{\det(A)} \text{adj}(A)$.
### Cas particulier : Inverse d'une matrice 2x2
Pour une matrice $A = \begin{pmatrix} a & b \\ c & d \end{pmatrix}$, la formule se simplifie grandement.
1. Calculer le déterminant : $\det(A) = ad - bc$. Si $\det(A) = 0$, $A$ n'est pas inversible.
2. Si $\det(A) \neq 0$, alors :
$ A^{-1} = \frac{1}{ad-bc} \begin{pmatrix} d & -b \\ -c & a \end{pmatrix} $
C'est-à-dire, on échange les éléments diagonaux, et on change le signe des éléments anti-diagonaux, puis on divise par le déterminant.
> [!example] Inverse d'une matrice 2x2 (par la comatrice)
> Reprenons $A = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}$.
> 1. $\det(A) = (1 \cdot 4) - (2 \cdot 3) = 4 - 6 = -2$.
> 2. Appliquons la formule :
> $ A^{-1} = \frac{1}{-2} \begin{pmatrix} 4 & -2 \\ -3 & 1 \end{pmatrix} = \begin{pmatrix} -2 & 1 \\ \frac{3}{2} & -\frac{1}{2} \end{pmatrix} $
> On retrouve bien le même résultat qu'avec Gauss-Jordan.
### Cas d'une matrice 3x3
Le calcul devient plus fastidieux.
> [!example] Calcul de l'inverse par la comatrice (Matrice 3x3)
> Soit $A = \begin{pmatrix} 1 & 2 & 3 \\ 0 & 1 & 4 \\ 5 & 6 & 0 \end{pmatrix}$.
>
> 1. **Calcul du déterminant de $A$ :**
> En développant par rapport à la première colonne :
> $\det(A) = 1 \cdot \det \begin{pmatrix} 1 & 4 \\ 6 & 0 \end{pmatrix} - 0 \cdot \det \begin{pmatrix} 2 & 3 \\ 6 & 0 \end{pmatrix} + 5 \cdot \det \begin{pmatrix} 2 & 3 \\ 1 & 4 \end{pmatrix}$
> $\det(A) = 1(1 \cdot 0 - 4 \cdot 6) - 0 + 5(2 \cdot 4 - 3 \cdot 1)$
> $\det(A) = 1(-24) + 5(8 - 3)$
> $\det(A) = -24 + 5(5) = -24 + 25 = 1$.
> Puisque $\det(A) = 1 \neq 0$, $A$ est inversible.
>
> 2. **Calcul de la comatrice $\text{com}(A)$ :**
> Chaque élément $C_{ij} = (-1)^{i+j} M_{ij}$ doit être calculé :
> * $C_{11} = (-1)^{1+1} \det \begin{pmatrix} 1 & 4 \\ 6 & 0 \end{pmatrix} = 1(0-24) = -24$
> * $C_{12} = (-1)^{1+2} \det \begin{pmatrix} 0 & 4 \\ 5 & 0 \end{pmatrix} = -1(0-20) = 20$
> * $C_{13} = (-1)^{1+3} \det \begin{pmatrix} 0 & 1 \\ 5 & 6 \end{pmatrix} = 1(0-5) = -5$
> * $C_{21} = (-1)^{2+1} \det \begin{pmatrix} 2 & 3 \\ 6 & 0 \end{pmatrix} = -1(0-18) = 18$
> * $C_{22} = (-1)^{2+2} \det \begin{pmatrix} 1 & 3 \\ 5 & 0 \end{pmatrix} = 1(0-15) = -15$
> * $C_{23} = (-1)^{2+3} \det \begin{pmatrix} 1 & 2 \\ 5 & 6 \end{pmatrix} = -1(6-10) = 4$
> * $C_{31} = (-1)^{3+1} \det \begin{pmatrix} 2 & 3 \\ 1 & 4 \end{pmatrix} = 1(8-3) = 5$
> * $C_{32} = (-1)^{3+2} \det \begin{pmatrix} 1 & 3 \\ 0 & 4 \end{pmatrix} = -1(4-0) = -4$
> * $C_{33} = (-1)^{3+3} \det \begin{pmatrix} 1 & 2 \\ 0 & 1 \end{pmatrix} = 1(1-0) = 1$
>
> Donc, la comatrice est :
> $ \text{com}(A) = \begin{pmatrix} -24 & 20 & -5 \\ 18 & -15 & 4 \\ 5 & -4 & 1 \end{pmatrix} $
>
> 3. **Calcul de la transposée de la comatrice (matrice adjointe) :**
> $ \text{adj}(A) = (\text{com}(A))^T = \begin{pmatrix} -24 & 18 & 5 \\ 20 & -15 & -4 \\ -5 & 4 & 1 \end{pmatrix} $
>
> 4. **Calcul de l'inverse :**
> Puisque $\det(A) = 1$, $A^{-1} = \frac{1}{1} \text{adj}(A) = \text{adj}(A)$.
> $ A^{-1} = \begin{pmatrix} -24 & 18 & 5 \\ 20 & -15 & -4 \\ -5 & 4 & 1 \end{pmatrix} $
> [!tip] Choix de la méthode
> - Pour les matrices $2 \times 2$, la formule directe par la comatrice est la plus rapide.
> - Pour les matrices $3 \times 3$, la méthode de Gauss-Jordan est généralement moins sujette aux erreurs de calcul que la méthode par la comatrice, bien que les deux soient faisables.
> - Pour les matrices de taille $n \times n$ avec $n \ge 4$, la méthode de Gauss-Jordan est de loin la plus efficace et la plus recommandée. La méthode par la comatrice devient prohibitive en termes de calculs.
# ❹ Applications de la Matrice Inverse
La matrice inverse n'est pas qu'un concept théorique ; elle a des applications pratiques fondamentales.
## Résolution de systèmes linéaires
C'est l'application la plus directe et la plus intuitive. Considérons un système linéaire de $n$ équations à $n$ inconnues, représenté sous forme matricielle par $AX = B$.
> [!theorem] Résolution de $AX=B$
> Si la matrice $A$ est inversible, alors le système linéaire $AX = B$ admet une unique solution donnée par :
> $ X = A^{-1} B $
>
> **Démonstration :**
> Partons de l'équation $AX = B$.
> Multiplions les deux côtés par $A^{-1}$ (à gauche, car la multiplication matricielle n'est pas commutative) :
> $A^{-1}(AX) = A^{-1}B$
> Par associativité :
> $(A^{-1}A)X = A^{-1}B$
> Puisque $A^{-1}A = I_n$ :
> $I_n X = A^{-1}B$
> Et enfin :
> $X = A^{-1}B$
> L'unicité de la solution découle de l'unicité de $A^{-1}$.
> [!example] Résolution d'un système linéaire
> Résolvons le système :
> $\begin{cases} x + 2y = 5 \\ 3x + 4y = 11 \end{cases}$
> Ce système peut s'écrire sous forme matricielle $AX=B$ avec :
> $A = \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix}$, $X = \begin{pmatrix} x \\ y \end{pmatrix}$, $B = \begin{pmatrix} 5 \\ 11 \end{pmatrix}$.
>
> Nous avons déjà calculé $A^{-1} = \begin{pmatrix} -2 & 1 \\ \frac{3}{2} & -\frac{1}{2} \end{pmatrix}$.
>
> La solution est donc $X = A^{-1}B$ :
> $ \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} -2 & 1 \\ \frac{3}{2} & -\frac{1}{2} \end{pmatrix} \begin{pmatrix} 5 \\ 11 \end{pmatrix} $
> $ \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} (-2) \cdot 5 + 1 \cdot 11 \\ (\frac{3}{2}) \cdot 5 + (-\frac{1}{2}) \cdot 11 \end{pmatrix} = \begin{pmatrix} -10 + 11 \\ \frac{15}{2} - \frac{11}{2} \end{pmatrix} = \begin{pmatrix} 1 \\ \frac{4}{2} \end{pmatrix} = \begin{pmatrix} 1 \\ 2 \end{pmatrix} $
> La solution unique est donc $x=1$ et $y=2$.
## Changement de base
La matrice inverse joue un rôle crucial dans les changements de base en algèbre linéaire. Si $P$ est la matrice de passage d'une base $\mathcal{B}$ à une base $\mathcal{B}'$, alors $P^{-1}$ est la matrice de passage de la base $\mathcal{B}'$ à la base $\mathcal{B}$.
> [!note] Préparation à la diagonalisation
> Ce concept est fondamental pour comprendre la **diagonalisation des matrices**, où l'on cherche une base dans laquelle une application linéaire (et donc sa matrice associée) prend la forme la plus simple possible (diagonale). Les matrices de passage, qui sont par définition inversibles, sont au cœur de cette transformation.
# ❺ Cas Particuliers et Remarques
## Matrices singulières
Une matrice qui n'est pas inversible est appelée une **matrice singulière**. Pour ces matrices, le déterminant est nul, le rang est inférieur à $n$, et le système $AX=B$ n'a pas de solution unique (il peut avoir une infinité de solutions ou aucune).
## Matrices orthogonales
Une matrice carrée $Q$ est dite **orthogonale** si sa transposée est égale à son inverse : $Q^T = Q^{-1}$.
Cela implique $Q^T Q = Q Q^T = I_n$.
Les matrices orthogonales sont très importantes car elles représentent des transformations qui préservent les longueurs et les angles (rotations, réflexions).
> [!example] Matrice de rotation 2D
> La matrice de rotation d'angle $\theta$ est $R_\theta = \begin{pmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{pmatrix}$.
> Sa transposée est $R_\theta^T = \begin{pmatrix} \cos \theta & \sin \theta \\ -\sin \theta & \cos \theta \end{pmatrix}$.
>
> Calculons $R_\theta R_\theta^T$:
> $R_\theta R_\theta^T = \begin{pmatrix} \cos \theta & -\sin \theta \\ \sin \theta & \cos \theta \end{pmatrix} \begin{pmatrix} \cos \theta & \sin \theta \\ -\sin \theta & \cos \theta \end{pmatrix} = \begin{pmatrix} \cos^2\theta + \sin^2\theta & \cos\theta\sin\theta - \sin\theta\cos\theta \\ \sin\theta\cos\theta - \cos\theta\sin\theta & \sin^2\theta + \cos^2\theta \end{pmatrix} = \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = I_2$.
>
> Donc $R_\theta^T = R_\theta^{-1}$, et $R_\theta$ est une matrice orthogonale.
# ➡️ C'est la fin
- Cours précèdent: [[Cours 2 - Calcul Matriciel]]
- Prochain cours: [[Exercices - Calcul Matriciel]]
- Page d'accueil de la compétence: [[Calcul matriciel]]
- Page d'accueil du domaine: [[Mathématiques]]
# 🗓️ Historique
- Rédigé par: [[Hamilton DE ARAUJO]]
- Dernière MAJ: `08-Semptembre-2025`