# ▷ Cours
> Page d'accueil de la compétence: [[Espaces vectoriels]]
>[!tip] Tags
>[!note] Fil directeur
>Ce chapitre approfondira notre compréhension des espaces vectoriels en introduisant des concepts cruciaux :
>* La **définition rigoureuse d'un sous-espace vectoriel** et les méthodes pour les identifier.
>* Les notions de **famille génératrice** et de **famille libre**, qui nous permettront de construire des "squelettes" minimaux et non redondants pour nos espaces.
>* Le concept de **base**, un ensemble de vecteurs qui, tel un système de coordonnées, permet de décrire de manière unique chaque élément de l'espace.
>* Enfin, la **dimension**, une mesure intrinsèque de la "taille" d'un espace vectoriel, qui sera un invariant essentiel.
>[!example] Contenu du cours
# ❶ Sous-espaces Vectoriels
Un sous-espace vectoriel est, comme son nom l'indique, un sous-ensemble d'un espace vectoriel qui est lui-même un espace vectoriel avec les mêmes opérations.
## Définition
Pour qu'un sous-ensemble $F$ d'un espace vectoriel $E$ soit un sous-espace vectoriel, il doit "hériter" de la structure d'espace vectoriel de $E$.
> [!definition] Sous-espace Vectoriel
> Soit $E$ un espace vectoriel sur $\mathbb{K}$. Un sous-ensemble $F \subseteq E$ est un **sous-espace vectoriel** de $E$ si :
> 1. $F$ n'est pas vide (i.e., $F \neq \emptyset$).
> 2. $F$ est stable par addition : pour tout $u, v \in F$, $u+v \in F$.
> 3. $F$ est stable par multiplication par un scalaire : pour tout $\lambda \in \mathbb{K}$ et $u \in F$, $\lambda \cdot u \in F$.
> [!note] Condition Simplifiée
> Les conditions 2 et 3 peuvent être combinées en une seule :
> Pour tout $u, v \in F$ et tout $\lambda, \mu \in \mathbb{K}$, $\lambda u + \mu v \in F$.
>
> La condition $F \neq \emptyset$ est souvent vérifiée en montrant que le **vecteur nul** de $E$, noté $0_E$, appartient à $F$. En effet, si $F$ est stable par multiplication par un scalaire, alors pour tout $u \in F$, $0 \cdot u = 0_E \in F$. Donc, si $F$ est non vide et stable par multiplication, il contient nécessairement le vecteur nul.
> [!tip] Comment vérifier qu'un ensemble est un sous-espace vectoriel ?
> 4. Vérifier que le vecteur nul $0_E$ appartient à $F$. Ceci prouve que $F \neq \emptyset$.
> 5. Prendre deux vecteurs arbitraires $u, v \in F$.
> 6. Prendre deux scalaires arbitraires $\lambda, \mu \in \mathbb{K}$.
> 7. Montrer que la combinaison linéaire $\lambda u + \mu v$ appartient à $F$.
## Propriétés et Exemples
> [!example] Exemples Fondamentaux
> 1. **L'ensemble $\{0_E\}$** (contenant uniquement le vecteur nul) est toujours un sous-espace vectoriel de $E$.
> 2. **L'espace $E$ lui-même** est un sous-espace vectoriel de $E$.
>
> Ces deux sous-espaces sont appelés les **sous-espaces triviaux**.
> [!example] Sous-espaces de $\mathbb{R}^2$
> * L'ensemble des vecteurs de la forme $(x, 0)$ est un sous-espace de $\mathbb{R}^2$ (l'axe des abscisses).
> * $(0,0)$ est dedans.
> * $(x_1, 0) + (x_2, 0) = (x_1+x_2, 0)$ est dedans.
> * $\lambda(x, 0) = (\lambda x, 0)$ est dedans.
> * Toute droite passant par l'origine dans $\mathbb{R}^2$ est un sous-espace vectoriel.
> Soit $D = \{(x,y) \in \mathbb{R}^2 \mid y = ax\}$ pour un $a \in \mathbb{R}$.
> * $(0,0) \in D$ car $0 = a \cdot 0$.
> * Soient $u=(x_1, y_1)$ et $v=(x_2, y_2)$ dans $D$. Alors $y_1=ax_1$ et $y_2=ax_2$.
> $u+v = (x_1+x_2, y_1+y_2)$. On vérifie si $y_1+y_2 = a(x_1+x_2)$.
> $y_1+y_2 = ax_1+ax_2 = a(x_1+x_2)$. Oui, $u+v \in D$.
> * Soit $u=(x,y) \in D$ et $\lambda \in \mathbb{R}$. Alors $y=ax$.
> $\lambda u = (\lambda x, \lambda y)$. On vérifie si $\lambda y = a(\lambda x)$.
> $\lambda y = \lambda (ax) = a(\lambda x)$. Oui, $\lambda u \in D$.
> * L'ensemble des vecteurs $(x,y)$ tels que $y=ax+b$ avec $b \neq 0$ n'est PAS un sous-espace vectoriel, car il ne contient pas le vecteur nul $(0,0)$ (sauf si $b=0$).
> [!example] Ensemble des solutions d'un système linéaire homogène
> Soit $A \in \mathcal{M}_{m,n}(\mathbb{R})$ une matrice. L'ensemble $S = \{ X \in \mathbb{R}^n \mid AX = 0 \}$ des solutions du **système linéaire homogène** $AX=0$ est un sous-espace vectoriel de $\mathbb{R}^n$.
> * $A \cdot 0 = 0$, donc $0 \in S$.
> * Si $X_1, X_2 \in S$, alors $AX_1 = 0$ et $AX_2 = 0$.
> Alors $A(X_1+X_2) = AX_1 + AX_2 = 0 + 0 = 0$. Donc $X_1+X_2 \in S$.
> * Si $X \in S$ et $\lambda \in \mathbb{R}$, alors $AX=0$.
> Alors $A(\lambda X) = \lambda (AX) = \lambda \cdot 0 = 0$. Donc $\lambda X \in S$.
>
> Ce résultat est fondamental et lie directement les sous-espaces vectoriels à la résolution de systèmes linéaires, une compétence que vous maîtrisez !
## Opérations sur les Sous-espaces
On peut combiner des sous-espaces pour en créer de nouveaux.
### Intersection
> [!theorem] Intersection de Sous-espaces
> L'intersection de deux sous-espaces vectoriels $F_1$ et $F_2$ d'un espace vectoriel $E$, notée $F_1 \cap F_2$, est toujours un sous-espace vectoriel de $E$.
> [!example] Preuve (rapide)
> 1. $0_E \in F_1$ et $0_E \in F_2$, donc $0_E \in F_1 \cap F_2$. L'intersection est non vide.
> 2. Soient $u, v \in F_1 \cap F_2$ et $\lambda, \mu \in \mathbb{K}$.
> Alors $u, v \in F_1$ et $u, v \in F_2$.
> Comme $F_1$ est un s.e.v., $\lambda u + \mu v \in F_1$.
> Comme $F_2$ est un s.e.v., $\lambda u + \mu v \in F_2$.
> Donc $\lambda u + \mu v \in F_1 \cap F_2$.
> L'intersection est bien un sous-espace vectoriel.
### Somme
> [!definition] Somme de Sous-espaces
> Soient $F_1$ et $F_2$ deux sous-espaces vectoriels de $E$. La **somme** de $F_1$ et $F_2$, notée $F_1 + F_2$, est l'ensemble :
> $ F_1 + F_2 = \{ u+v \mid u \in F_1 \text{ et } v \in F_2 \} $
> [!theorem] La somme est un sous-espace vectoriel
> La somme $F_1 + F_2$ de deux sous-espaces vectoriels $F_1$ et $F_2$ d'un espace vectoriel $E$ est un sous-espace vectoriel de $E$.
> [!warning] L'union n'est généralement pas un sous-espace vectoriel
> L'union $F_1 \cup F_2$ de deux sous-espaces vectoriels n'est *pas* toujours un sous-espace vectoriel.
> * Prenez $F_1 = \text{Vect}((1,0))$ (l'axe des $x$) et $F_2 = \text{Vect}((0,1))$ (l'axe des $y$) dans $\mathbb{R}^2$.
> * $(1,0) \in F_1 \cup F_2$ et $(0,1) \in F_1 \cup F_2$.
> * Mais $(1,0) + (0,1) = (1,1)$ n'appartient ni à $F_1$ ni à $F_2$, donc $(1,1) \notin F_1 \cup F_2$.
> * Donc $F_1 \cup F_2$ n'est pas stable par addition.
### Somme Directe
Un cas particulier important de somme est la somme directe.
> [!definition] Somme Directe
> Soient $F_1$ et $F_2$ deux sous-espaces vectoriels de $E$. On dit que $E$ est la **somme directe** de $F_1$ et $F_2$, et on note $E = F_1 \oplus F_2$, si les deux conditions suivantes sont satisfaites :
> 1. $E = F_1 + F_2$
> 2. $F_1 \cap F_2 = \{0_E\}$ (leur intersection est réduite au vecteur nul)
>
> Cela signifie que tout vecteur $w \in E$ peut s'écrire de manière **unique** comme $w = u+v$ avec $u \in F_1$ et $v \in F_2$.
# ❷ Familles de Vecteurs
Pour construire ou comprendre la structure d'un espace vectoriel, nous utilisons des "familles" de vecteurs.
## Familles Génératrices
> [!definition] Combinaison Linéaire
> Soient $v_1, v_2, \dots, v_p$ des vecteurs d'un espace vectoriel $E$ et $\lambda_1, \lambda_2, \dots, \lambda_p$ des scalaires de $\mathbb{K}$. Le vecteur $v = \lambda_1 v_1 + \lambda_2 v_2 + \dots + \lambda_p v_p$ est appelé une **combinaison linéaire** des vecteurs $v_1, \dots, v_p$.
> [!definition] Sous-espace Engendré (Vect)
> Soit $S = \{v_1, v_2, \dots, v_p\}$ une famille de vecteurs de $E$. L'ensemble de toutes les combinaisons linéaires des vecteurs de $S$ est un sous-espace vectoriel de $E$, appelé le **sous-espace engendré** par $S$, et noté $\text{Vect}(S)$ ou $\text{Vect}(v_1, \dots, v_p)$.
> C'est le plus petit sous-espace vectoriel de $E$ contenant tous les vecteurs de $S$.
> [!definition] Famille Génératrice
> Une famille de vecteurs $S = \{v_1, v_2, \dots, v_p\}$ est une **famille génératrice** de l'espace vectoriel $E$ si tout vecteur de $E$ peut s'écrire comme une combinaison linéaire des vecteurs de $S$. Autrement dit, si $E = \text{Vect}(S)$.
> [!example] Famille Génératrice dans $\mathbb{R}^3$
> La famille $\{(1,0,0), (0,1,0), (0,0,1)\}$ est une famille génératrice de $\mathbb{R}^3$, car tout vecteur $(x,y,z) \in \mathbb{R}^3$ peut s'écrire $x(1,0,0) + y(0,1,0) + z(0,0,1)$.
> [!note] Une famille génératrice n'est pas unique et peut contenir des vecteurs "superflus".
## Familles Libres et Liées
Le concept de liberté (ou d'indépendance linéaire) est essentiel pour éviter la redondance dans la description des vecteurs.
> [!definition] Famille Libre (Indépendante Linéairement)
> Une famille de vecteurs $S = \{v_1, v_2, \dots, v_p\}$ d'un espace vectoriel $E$ est dite **libre** (ou **linéairement indépendante**) si la seule combinaison linéaire de ces vecteurs qui est égale au vecteur nul est la combinaison linéaire triviale, c'est-à-dire :
> $ \lambda_1 v_1 + \lambda_2 v_2 + \dots + \lambda_p v_p = 0_E \implies \lambda_1 = \lambda_2 = \dots = \lambda_p = 0 $
> [!definition] Famille Liée (Dépendante Linéairement)
> Une famille de vecteurs qui n'est pas libre est dite **liée** (ou **linéairement dépendante**).
> Cela signifie qu'il existe une combinaison linéaire non triviale (c'est-à-dire avec au moins un $\lambda_i \neq 0$) qui est égale au vecteur nul.
> Dans ce cas, au moins un des vecteurs peut être exprimé comme une combinaison linéaire des autres. Il est "redondant".
> [!tip] Comment vérifier la liberté d'une famille ?
> 1. Écrire l'équation $\lambda_1 v_1 + \dots + \lambda_p v_p = 0_E$.
> 2. Traduire cette équation en un **système linéaire homogène** sur les scalaires $\lambda_i$.
> 3. Résoudre ce système.
> * Si la seule solution est $\lambda_1 = \dots = \lambda_p = 0$, la famille est libre.
> * Si il existe des solutions non triviales (i.e. au moins un $\lambda_i \neq 0$), la famille est liée.
> [!example] Famille Liée dans $\mathbb{R}^3$
> Soit la famille $S = \{v_1=(1,0,0), v_2=(0,1,0), v_3=(2,3,0)\}$.
> On cherche $\lambda_1, \lambda_2, \lambda_3$ tels que $\lambda_1 v_1 + \lambda_2 v_2 + \lambda_3 v_3 = (0,0,0)$.
> $\lambda_1(1,0,0) + \lambda_2(0,1,0) + \lambda_3(2,3,0) = (0,0,0)$
> $( \lambda_1 + 2\lambda_3, \lambda_2 + 3\lambda_3, 0 ) = (0,0,0)$
> Cela donne le système :
> $ \begin{cases} \lambda_1 + 2\lambda_3 = 0 \\ \lambda_2 + 3\lambda_3 = 0 \\ 0 = 0 \end{cases} $
> On peut choisir $\lambda_3 = 1$. Alors $\lambda_1 = -2$ et $\lambda_2 = -3$.
> Donc $-2v_1 - 3v_2 + 1v_3 = 0_E$. C'est une combinaison linéaire non triviale qui donne le vecteur nul.
> La famille $S$ est donc liée. On remarque que $v_3 = 2v_1 + 3v_2$.
## Bases
Une base est le "juste milieu" : une famille de vecteurs qui génère l'espace sans aucune redondance.
> [!definition] Base d'un Espace Vectoriel
> Une famille de vecteurs $\mathcal{B} = \{e_1, e_2, \dots, e_n\}$ d'un espace vectoriel $E$ est une **base** de $E$ si elle est à la fois :
> 1. Une famille **génératrice** de $E$ (tout vecteur de $E$ s'écrit comme combinaison linéaire des $e_i$).
> 2. Une famille **libre** (la combinaison linéaire nulle est unique et triviale).
> [!theorem] Caractérisation des Bases
> Une famille $\mathcal{B} = \{e_1, e_2, \dots, e_n\}$ est une base de $E$ si et seulement si tout vecteur $v \in E$ s'écrit de manière **unique** comme une combinaison linéaire des vecteurs de $\mathcal{B}$ :
> $ v = x_1 e_1 + x_2 e_2 + \dots + x_n e_n $
> Les scalaires $x_1, x_2, \dots, x_n$ sont appelés les **coordonnées** du vecteur $v$ dans la base $\mathcal{B}$.
> [!example] Base Canonique de $\mathbb{R}^n$
> La famille $\mathcal{B}_c = \{e_1, e_2, \dots, e_n\}$ où $e_i$ est le vecteur dont la $i$-ème composante est 1 et toutes les autres sont 0 (ex: $e_1=(1,0,\dots,0)$, $e_2=(0,1,\dots,0)$) est la **base canonique** de $\mathbb{R}^n$.
> * Elle est génératrice : tout $(x_1, \dots, x_n) = x_1 e_1 + \dots + x_n e_n$.
> * Elle est libre : $\sum \lambda_i e_i = (\lambda_1, \dots, \lambda_n) = (0, \dots, 0) \implies \lambda_i=0$ pour tout $i$.
> [!example] Base Canonique de $\mathbb{R}_n[X]$
> L'ensemble des polynômes de degré au plus $n$, $\mathbb{R}_n[X]$, a pour base canonique $\mathcal{B}_c = \{1, X, X^2, \dots, X^n\}$.
> Un polynôme $P(X) = a_0 + a_1 X + \dots + a_n X^n$ est une combinaison linéaire unique de ces monômes.
# ❸ Dimension d'un Espace Vectoriel
La notion de dimension est l'une des plus importantes en algèbre linéaire. Elle quantifie la "taille" d'un espace vectoriel.
## Théorème Fondamental de la Dimension
> [!theorem] Théorème de la Base Incomplète (Admis)
> De toute famille génératrice finie d'un espace vectoriel $E$, on peut extraire une base de $E$.
> De toute famille libre finie d'un espace vectoriel $E$, on peut la compléter en une base de $E$.
> [!theorem] Théorème de la dimension
> Si un espace vectoriel $E$ admet une base finie, alors toutes les bases de $E$ ont le même nombre de vecteurs.
Ce théorème est fondamental car il nous assure que la "taille" d'un espace vectoriel (le nombre de vecteurs dans une base) est une propriété intrinsèque de l'espace, indépendante du choix de la base.
## Définition et Propriétés
> [!definition] Dimension d'un Espace Vectoriel
> Si un espace vectoriel $E$ admet une base finie, on dit que $E$ est de **dimension finie**. Le nombre de vecteurs de n'importe quelle base de $E$ est appelé la **dimension de $E$**, notée $\dim(E)$.
> Si $E = \{0_E\}$, alors $\dim(E) = 0$.
> Si $E$ n'admet pas de base finie (comme $\mathbb{R}[X]$), on dit qu'il est de **dimension infinie**.
> [!example] Dimensions usuelles
> * $\dim(\mathbb{R}^n) = n$
> * $\dim(\mathbb{C}^n) = n$ (sur le corps $\mathbb{C}$)
> * $\dim(\mathbb{R}_n[X]) = n+1$ (car la base est $\{1, X, \dots, X^n\}$)
> * $\dim(\mathcal{M}_{n,p}(\mathbb{R})) = n \times p$
> [!note] Propriétés de la dimension
> Soit $E$ un espace vectoriel de dimension $n$.
> * Toute famille libre de $n$ vecteurs de $E$ est une base de $E$.
> * Toute famille génératrice de $n$ vecteurs de $E$ est une base de $E$.
> * Toute famille de plus de $n$ vecteurs de $E$ est liée.
> * Toute famille de moins de $n$ vecteurs ne peut pas être génératrice de $E$.
## Dimension d'un Sous-espace
> [!theorem] Dimension d'un Sous-espace
> Soit $F$ un sous-espace vectoriel d'un espace vectoriel $E$ de dimension finie. Alors $F$ est aussi de dimension finie, et $\dim(F) \le \dim(E)$.
> De plus, $\dim(F) = \dim(E)$ si et seulement si $F = E$.
## Formule de Grassmann
La formule de Grassmann relie les dimensions de la somme et de l'intersection de deux sous-espaces.
> [!theorem] Formule de Grassmann
> Soient $F_1$ et $F_2$ deux sous-espaces vectoriels de dimension finie d'un espace vectoriel $E$. Alors :
> $ \dim(F_1 + F_2) = \dim(F_1) + \dim(F_2) - \dim(F_1 \cap F_2) $
> [!note] Cas de la somme directe
> Si la somme est directe ($F_1 \cap F_2 = \{0_E\}$), alors $\dim(F_1 \cap F_2) = 0$.
> La formule de Grassmann devient alors :
> $ \dim(F_1 \oplus F_2) = \dim(F_1) + \dim(F_2) $
> C'est une propriété très utile pour vérifier qu'une somme est directe ou pour calculer des dimensions.
# ❹ Méthodes Pratiques de Détermination de Bases et Dimensions
La détermination d'une base et de la dimension d'un sous-espace est une tâche courante. Elle s'appuie fortement sur les techniques de résolution de systèmes linéaires (pivot de Gauss).
## Cas d'un Sous-espace défini par des équations
Soit $F$ un sous-espace de $\mathbb{R}^n$ défini par un système d'équations linéaires homogènes.
Exemple : $F = \{(x,y,z,t) \in \mathbb{R}^4 \mid x-y+2z=0 \text{ et } y+z-t=0 \}$.
**Méthode :**
1. Résoudre le système d'équations pour exprimer certaines variables en fonction des autres.
2. Substituer ces expressions dans le vecteur général.
3. Factoriser le vecteur obtenu pour faire apparaître les vecteurs de la base.
> [!example] Détermination de base et dimension
> Reprenons $F = \{(x,y,z,t) \in \mathbb{R}^4 \mid x-y+2z=0 \text{ et } y+z-t=0 \}$.
> 1. Le système est :
> $ \begin{cases} x-y+2z = 0 \\ y+z-t = 0 \end{cases} $
> De la deuxième équation, $t = y+z$.
> De la première équation, $x = y-2z$.
> 2. Un vecteur $(x,y,z,t) \in F$ peut s'écrire :
> $(y-2z, y, z, y+z)$
> 3. On peut décomposer ce vecteur en fonction des variables libres ($y$ et $z$) :
> $(y-2z, y, z, y+z) = (y,y,0,y) + (-2z,0,z,z)$
> $= y(1,1,0,1) + z(-2,0,1,1)$
>
> Les vecteurs $v_1=(1,1,0,1)$ et $v_2=(-2,0,1,1)$ engendrent $F$.
> Vérifions s'ils sont libres : $\lambda_1 v_1 + \lambda_2 v_2 = 0$.
> $(\lambda_1 - 2\lambda_2, \lambda_1, \lambda_2, \lambda_1 + \lambda_2) = (0,0,0,0)$.
> De $\lambda_1=0$ et $\lambda_2=0$, on obtient bien la seule solution triviale.
>
> Donc, $\{v_1, v_2\}$ est une base de $F$.
> La dimension de $F$ est $\dim(F) = 2$.
## Cas d'un Sous-espace engendré par des vecteurs
Soit $F = \text{Vect}(v_1, v_2, \dots, v_p)$ un sous-espace de $\mathbb{R}^n$ engendré par une famille de vecteurs.
La famille $\{v_1, \dots, v_p\}$ est génératrice par définition, mais elle n'est pas nécessairement libre. Pour trouver une base, il faut en extraire une sous-famille libre et génératrice.
**Méthode :**
1. Construire une matrice $M$ dont les colonnes (ou les lignes, c'est équivalent) sont les vecteurs $v_i$.
2. Appliquer l'algorithme de Gauss (pivot de Gauss) pour réduire la matrice à sa forme échelonnée.
3. Les colonnes (ou lignes) de la matrice de départ correspondant aux colonnes pivots de la matrice échelonnée forment une base du sous-espace.
* Si les vecteurs sont mis en colonnes, les colonnes de la matrice *initiale* qui contiennent les pivots sont une base.
* Si les vecteurs sont mis en lignes, les lignes non nulles de la matrice *échelonnée* sont une base.
> [!example] Détermination de base et dimension
> Soit $F = \text{Vect}(v_1, v_2, v_3)$ avec $v_1=(1,2,1)$, $v_2=(2,1,-1)$, $v_3=(3,3,0)$ dans $\mathbb{R}^3$.
> On écrit ces vecteurs en lignes dans une matrice et on échelonne :
> $ M = \begin{pmatrix} 1 & 2 & 1 \\ 2 & 1 & -1 \\ 3 & 3 & 0 \end{pmatrix} $
> $L_2 \leftarrow L_2 - 2L_1$
> $L_3 \leftarrow L_3 - 3L_1$
> $ \sim \begin{pmatrix} 1 & 2 & 1 \\ 0 & -3 & -3 \\ 0 & -3 & -3 \end{pmatrix} $
> $L_3 \leftarrow L_3 - L_2$
> $ \sim \begin{pmatrix} 1 & 2 & 1 \\ 0 & -3 & -3 \\ 0 & 0 & 0 \end{pmatrix} $
> Les lignes non nulles de la matrice échelonnée sont $(1,2,1)$ et $(0,-3,-3)$.
> Ces deux vecteurs sont libres (ils ne sont pas colinéaires) et engendrent $F$.
> Donc, $\{(1,2,1), (0,-3,-3)\}$ est une base de $F$.
> La dimension de $F$ est $\dim(F) = 2$.
> (On peut aussi dire que $v_1$ et $v_2$ sont une base car les colonnes 1 et 2 de la matrice initiale correspondent aux pivots).
> [!warning] Attention
> Si vous mettez les vecteurs en lignes pour échelonner, les vecteurs de la base sont les lignes non nulles de la matrice *échelonnée*.
> Si vous mettez les vecteurs en colonnes pour échelonner, les vecteurs de la base sont les colonnes *initiales* qui correspondent aux colonnes pivots de la matrice échelonnée.
# ➡️ C'est la fin
- Cours précèdent: [[Cours 1 - Espaces vectoriels]]
- Prochain cours: [[Exercices - Espaces vectoriels]]
- Page d'accueil de la compétence: [[Espaces vectoriels]]
- Page d'accueil du domaine: [[Mathématiques]]
# 🗓️ Historique
- Rédigé par: [[Hamilton DE ARAUJO]]
- Dernière MAJ: `08-Semptembre-2025`