# ▷ Cours
> Page d'accueil de la compétence: [[Espaces vectoriels]]
>[!tip] Tags
>[!note] Fil directeur
L'objectif de ce chapitre est de vous familiariser avec :
>- La définition rigoureuse d'un espace vectoriel et ses propriétés fondamentales.
>- Des exemples variés d'espaces vectoriels que vous rencontrerez fréquemment.
>- La notion de sous-espace vectoriel, essentielle pour structurer ces espaces.
>- Une première incursion dans les espaces vectoriels euclidiens, qui ajoutent une notion de "géométrie" via le produit scalaire.
>[!example] Contenu du cours
# ❶ Introduction aux Espaces Vectoriels
Avant de définir un espace vectoriel, nous devons introduire la notion de **corps** (ou champ). En général, pour les applications en ingénierie, ce corps sera $\mathbb{R}$ (les nombres réels) ou $\mathbb{C}$ (les nombres complexes).
> [!definition] Corps $\mathbb{K}$
> Un **corps** $\mathbb{K}$ est un ensemble muni de deux opérations, l'addition $(+)$ et la multiplication $(\cdot)$, qui vérifient certaines propriétés (associativité, commutativité, existence d'éléments neutres et d'inverses, distributivité de la multiplication sur l'addition).
> Les corps les plus courants sont $\mathbb{R}$ (corps des nombres réels) et $\mathbb{C}$ (corps des nombres complexes).
> [!definition] Espace Vectoriel
> Soit $\mathbb{K}$ un corps (par exemple $\mathbb{R}$ ou $\mathbb{C}$).
> Un ensemble $E$ est appelé un **espace vectoriel sur $\mathbb{K}$** (ou $\mathbb{K}$-espace vectoriel) si $E$ est muni de deux opérations :
>
> 1. Une **addition interne** : $+ : E \times E \to E$, notée $(u, v) \mapsto u+v$.
> 2. Une **multiplication externe** (par un scalaire) : $\cdot : \mathbb{K} \times E \to E$, notée $(\lambda, u) \mapsto \lambda \cdot u$ (ou simplement $\lambda u$).
>
> Ces deux opérations doivent satisfaire les huit axiomes suivants :
>
> **Axiomes de l'addition (structure de groupe abélien pour $(E, +)$) :**
> 1. **Associativité** : $\forall u, v, w \in E, (u+v)+w = u+(v+w)$.
> 2. **Commutativité** : $\forall u, v \in E, u+v = v+u$.
> 3. **Élément neutre** : Il existe un unique élément $0_E \in E$ (appelé vecteur nul) tel que $\forall u \in E, u+0_E = u$.
> 4. **Opposé** : $\forall u \in E$, il existe un unique élément $-u \in E$ (appelé opposé de $u$) tel que $u+(-u) = 0_E$.
>
> **Axiomes de la multiplication par un scalaire :**
> 5. **Associativité mixte** : $\forall \lambda, \mu \in \mathbb{K}, \forall u \in E, (\lambda \mu) u = \lambda (\mu u)$.
> 6. **Distributivité par rapport à l'addition des scalaires** : $\forall \lambda, \mu \in \mathbb{K}, \forall u \in E, (\lambda+\mu) u = \lambda u + \mu u$.
> 7. **Distributivité par rapport à l'addition des vecteurs** : $\forall \lambda \in \mathbb{K}, \forall u, v \in E, \lambda (u+v) = \lambda u + \lambda v$.
> 8. **Élément neutre pour la multiplication externe** : L'élément neutre multiplicatif de $\mathbb{K}$, noté $1_\mathbb{K}$, vérifie $\forall u \in E, 1_\mathbb{K} u = u$.
> [!note] Vocabulaire
> - Les éléments de $E$ sont appelés des **vecteurs**.
> - Les éléments de $\mathbb{K}$ sont appelés des **scalaires**.
> - Si $\mathbb{K} = \mathbb{R}$, on parle d'**espace vectoriel réel**.
> - Si $\mathbb{K} = \mathbb{C}$, on parle d'**espace vectoriel complexe**.
## Propriétés Immédiates
À partir des axiomes, on peut déduire plusieurs propriétés utiles :
> [!theorem] Propriétés du vecteur nul et de la multiplication par zéro
> Soit $E$ un $\mathbb{K}$-espace vectoriel.
> 1. $\forall u \in E, 0_\mathbb{K} \cdot u = 0_E$. (Le scalaire $0_\mathbb{K}$ multiplié par n'importe quel vecteur donne le vecteur nul).
> 2. $\forall \lambda \in \mathbb{K}, \lambda \cdot 0_E = 0_E$. (N'importe quel scalaire multiplié par le vecteur nul donne le vecteur nul).
> 3. $\forall u \in E, (-1_\mathbb{K}) \cdot u = -u$. (Multiplier par $-1_\mathbb{K}$ donne l'opposé du vecteur).
> 4. Si $\lambda \cdot u = 0_E$, alors $\lambda = 0_\mathbb{K}$ ou $u = 0_E$.
> [!tip] Comment retenir les axiomes ?
> Pensez à deux groupes :
> - Les 4 premiers assurent que $(E, +)$ est un groupe commutatif (ou abélien). C'est la structure "interne" de l'addition des vecteurs.
> - Les 4 suivants décrivent comment la multiplication par un scalaire interagit avec l'addition des vecteurs et des scalaires. C'est la structure "externe".
# ❷ Exemples Fondamentaux d'Espaces Vectoriels
La beauté de la définition abstraite réside dans la multitude d'objets qu'elle englobe. Voici des exemples cruciaux :
> [!example] L'espace $\mathbb{K}^n$
> L'ensemble $\mathbb{K}^n = \{ (x_1, x_2, \dots, x_n) \mid x_i \in \mathbb{K} \}$ est un $\mathbb{K}$-espace vectoriel pour $n \in \mathbb{N}^*$.
> Les opérations sont définies composante par composante :
> - **Addition** : Pour $u = (x_1, \dots, x_n)$ et $v = (y_1, \dots, y_n)$,
> $ u+v = (x_1+y_1, \dots, x_n+y_n) $
> - **Multiplication par un scalaire** : Pour $\lambda \in \mathbb{K}$ et $u = (x_1, \dots, x_n)$,
> $ \lambda u = (\lambda x_1, \dots, \lambda x_n) $
> Le vecteur nul est $0_E = (0, \dots, 0)$. L'opposé de $u$ est $-u = (-x_1, \dots, -x_n)$.
>
> - Pour $n=1$, $\mathbb{K}^1 = \mathbb{K}$ est un $\mathbb{K}$-espace vectoriel sur lui-même.
> - Pour $n=2$, $\mathbb{R}^2$ représente le plan euclidien (vecteurs géométriques).
> - Pour $n=3$, $\mathbb{R}^3$ représente l'espace euclidien.
>
> Les solutions de certains systèmes d'équations linéaires homogènes (par exemple, $Ax=0$) forment souvent un sous-ensemble de $\mathbb{K}^n$ qui est lui-même un espace vectoriel.
> [!example] L'espace des polynômes $\mathbb{K}[X]$
> L'ensemble $\mathbb{K}[X]$ de tous les polynômes à coefficients dans $\mathbb{K}$ est un $\mathbb{K}$-espace vectoriel.
> Un polynôme $P(X)$ s'écrit $P(X) = a_0 + a_1 X + \dots + a_n X^n$, où $a_i \in \mathbb{K}$.
> - **Addition** : $(P+Q)(X) = \sum (a_i+b_i) X^i$.
> - **Multiplication par un scalaire** : $(\lambda P)(X) = \sum (\lambda a_i) X^i$.
> Le polynôme nul est $0(X) = 0$.
>
> L'ensemble $\mathbb{K}_n[X]$ des polynômes de degré inférieur ou égal à $n$ est également un $\mathbb{K}$-espace vectoriel.
> [!example] L'espace des fonctions $\mathcal{F}(I, \mathbb{R})$
> Soit $I$ un intervalle de $\mathbb{R}$. L'ensemble $\mathcal{F}(I, \mathbb{R})$ de toutes les fonctions de $I$ vers $\mathbb{R}$ est un $\mathbb{R}$-espace vectoriel.
> - **Addition** : Pour $f, g \in \mathcal{F}(I, \mathbb{R})$, $(f+g)(x) = f(x)+g(x)$ pour tout $x \in I$.
> - **Multiplication par un scalaire** : Pour $\lambda \in \mathbb{R}$ et $f \in \mathcal{F}(I, \mathbb{R})$, $(\lambda f)(x) = \lambda f(x)$ pour tout $x \in I$.
> La fonction nulle est $0(x)=0$ pour tout $x \in I$.
>
> Des sous-ensembles importants comme l'ensemble des fonctions continues $C(I, \mathbb{R})$ ou l'ensemble des fonctions dérivables $D(I, \mathbb{R})$ sont aussi des espaces vectoriels.
> [!example] L'espace des matrices $\mathcal{M}_{n,p}(\mathbb{K})$
> L'ensemble $\mathcal{M}_{n,p}(\mathbb{K})$ des matrices à $n$ lignes et $p$ colonnes, à coefficients dans $\mathbb{K}$, est un $\mathbb{K}$-espace vectoriel.
> - **Addition** : $(A+B)_{ij} = A_{ij}+B_{ij}$.
> - **Multiplication par un scalaire** : $(\lambda A)_{ij} = \lambda A_{ij}$.
> La matrice nulle est la matrice dont tous les coefficients sont nuls.
>
> Cet exemple fait le lien avec le calcul matriciel, qui sera abordé dans un prochain chapitre. Les matrices peuvent être vues comme des "tableaux" de scalaires, et leur addition/multiplication par un scalaire suit une logique similaire à celle des vecteurs de $\mathbb{K}^n$.
> [!example] L'espace trivial
> L'ensemble $E = \{0_E\}$ contenant uniquement le vecteur nul est un $\mathbb{K}$-espace vectoriel.
> - $0_E+0_E = 0_E$
> - $\lambda \cdot 0_E = 0_E$
> C'est le plus petit espace vectoriel possible.
# ❸ Sous-Espaces Vectoriels
Un sous-espace vectoriel est un sous-ensemble d'un espace vectoriel qui est lui-même un espace vectoriel avec les mêmes opérations. C'est une notion cruciale pour comprendre la structure interne des espaces vectoriels.
> [!definition] Sous-Espace Vectoriel
> Soit $(E, +, \cdot)$ un $\mathbb{K}$-espace vectoriel. Un sous-ensemble $F \subseteq E$ est un **sous-espace vectoriel** de $E$ si $F$ est lui-même un $\mathbb{K}$-espace vectoriel avec les mêmes opérations $+$ et $\cdot$ restreintes à $F$.
Vérifier tous les axiomes d'un espace vectoriel pour un sous-ensemble peut être fastidieux. Heureusement, il existe un critère simplifié :
> [!theorem] Critère de sous-espace vectoriel
> Soit $E$ un $\mathbb{K}$-espace vectoriel et $F$ un sous-ensemble de $E$.
> $F$ est un sous-espace vectoriel de $E$ si et seulement si les trois conditions suivantes sont satisfaites :
> 1. $F$ est **non vide** (en pratique, on vérifie que le vecteur nul $0_E$ appartient à $F$).
> 2. $F$ est **stable par addition** : $\forall u, v \in F, u+v \in F$.
> 3. $F$ est **stable par multiplication par un scalaire** : $\forall \lambda \in \mathbb{K}, \forall u \in F, \lambda u \in F$.
>
> Ces deux dernières conditions peuvent être combinées en une seule :
> 2'. $F$ est **stable par combinaison linéaire** : $\forall \lambda, \mu \in \mathbb{K}, \forall u, v \in F, \lambda u + \mu v \in F$.
> [!warning] Erreur fréquente
> La condition $F \neq \emptyset$ est fondamentale. La manière la plus simple de la vérifier est de s'assurer que le **vecteur nul $0_E$ appartient à $F$**. Si $0_E \notin F$, alors $F$ ne peut pas être un sous-espace vectoriel.
> [!example] Exemples de sous-espaces vectoriels
> 4. **L'ensemble des solutions d'un système linéaire homogène** :
> Considérons le système linéaire homogène $AX=0$, où $A \in \mathcal{M}_{m,n}(\mathbb{K})$ est une matrice et $X \in \mathbb{K}^n$ est un vecteur colonne d'inconnues. L'ensemble $S = \{ X \in \mathbb{K}^n \mid AX=0 \}$ des solutions est un sous-espace vectoriel de $\mathbb{K}^n$.
> - $0_{\mathbb{K}^n} \in S$ car $A \cdot 0_{\mathbb{K}^n} = 0_{\mathbb{K}^m}$. Donc $S \neq \emptyset$.
> - Si $X_1, X_2 \in S$, alors $AX_1=0$ et $AX_2=0$. Donc $A(X_1+X_2) = AX_1+AX_2 = 0+0=0$. Ainsi $X_1+X_2 \in S$.
> - Si $X \in S$ et $\lambda \in \mathbb{K}$, alors $AX=0$. Donc $A(\lambda X) = \lambda (AX) = \lambda \cdot 0 = 0$. Ainsi $\lambda X \in S$.
> Ceci est un lien direct avec vos pré-requis sur les systèmes d'équations linéaires !
>
> 5. **Droites et plans passant par l'origine** :
> Dans $\mathbb{R}^2$, toute droite passant par l'origine est un sous-espace vectoriel. Par exemple, $D = \{ (x,y) \in \mathbb{R}^2 \mid y=2x \}$.
> - $(0,0) \in D$.
> - Si $(x_1, y_1) \in D$ et $(x_2, y_2) \in D$, alors $y_1=2x_1$ et $y_2=2x_2$. Donc $y_1+y_2 = 2x_1+2x_2 = 2(x_1+x_2)$. Ainsi $(x_1+x_2, y_1+y_2) \in D$.
> - Si $(x,y) \in D$ et $\lambda \in \mathbb{R}$, alors $y=2x$. Donc $\lambda y = \lambda(2x) = 2(\lambda x)$. Ainsi $(\lambda x, \lambda y) \in D$.
> De même, dans $\mathbb{R}^3$, tout plan passant par l'origine est un sous-espace vectoriel.
>
> 6. **$\mathbb{K}_n[X]$ est un sous-espace vectoriel de $\mathbb{K}[X]$** :
> L'ensemble des polynômes de degré inférieur ou égal à $n$ est un sous-espace vectoriel de l'ensemble de tous les polynômes.
>
> 7. **L'ensemble des fonctions continues sur un intervalle** :
> $C(I, \mathbb{R})$ est un sous-espace vectoriel de $\mathcal{F}(I, \mathbb{R})$. La somme de deux fonctions continues est continue, et le produit d'une fonction continue par un scalaire est continu.
# ❹ Combinaisons Linéaires et Familles de Vecteurs
Ces concepts sont fondamentaux pour comprendre comment les vecteurs "génèrent" d'autres vecteurs au sein d'un espace.
> [!definition] Combinaison Linéaire
> Soit $E$ un $\mathbb{K}$-espace vectoriel et $v_1, v_2, \dots, v_p$ des vecteurs de $E$.
> Un vecteur $w \in E$ est une **combinaison linéaire** des vecteurs $v_1, \dots, v_p$ s'il existe des scalaires $\lambda_1, \lambda_2, \dots, \lambda_p \in \mathbb{K}$ tels que :
> $ w = \lambda_1 v_1 + \lambda_2 v_2 + \dots + \lambda_p v_p = \sum_{i=1}^p \lambda_i v_i $
> [!example] Combinaisons linéaires dans $\mathbb{R}^3$
> Dans $\mathbb{R}^3$, soit $v_1 = (1,0,0)$ et $v_2 = (0,1,0)$.
> Le vecteur $w = (3, -2, 0)$ est une combinaison linéaire de $v_1$ et $v_2$ car $w = 3v_1 - 2v_2$.
> Le vecteur $u = (1,1,1)$ n'est pas une combinaison linéaire de $v_1$ et $v_2$ car sa troisième composante est non nulle, et toute combinaison linéaire de $v_1$ et $v_2$ aura une troisième composante nulle.
> [!definition] Sous-espace engendré
> Soit $E$ un $\mathbb{K}$-espace vectoriel et $S = \{v_1, v_2, \dots, v_p\}$ une partie de $E$.
> L'ensemble de toutes les combinaisons linéaires des vecteurs de $S$ est appelé le **sous-espace vectoriel engendré par $S$**, noté $\text{Vect}(S)$ ou $\text{Vect}(v_1, \dots, v_p)$.
> $ \text{Vect}(S) = \{ \sum_{i=1}^p \lambda_i v_i \mid \lambda_i \in \mathbb{K} \} $
> C'est le plus petit sous-espace vectoriel de $E$ contenant tous les vecteurs de $S$.
> [!note] Propriété
> $\text{Vect}(S)$ est toujours un sous-espace vectoriel de $E$.
> - $0_E \in \text{Vect}(S)$ (prendre tous les $\lambda_i = 0$).
> - La somme de deux combinaisons linéaires est une combinaison linéaire.
> - Le produit d'une combinaison linéaire par un scalaire est une combinaison linéaire.
# ❺ Introduction aux Espaces Vectoriels Euclidiens
Jusqu'à présent, nous avons parlé d'addition et de multiplication par un scalaire. Pour introduire des notions géométriques comme la longueur, l'angle ou l'orthogonalité, nous devons munir l'espace vectoriel d'une structure supplémentaire : le **produit scalaire**. Ces espaces sont appelés **espaces euclidiens** (ou hermitien si le corps est $\mathbb{C}$). Nous nous concentrerons ici sur le cas réel.
> [!definition] Produit Scalaire
> Soit $E$ un $\mathbb{R}$-espace vectoriel. Une application $\langle \cdot, \cdot \rangle : E \times E \to \mathbb{R}$ est appelée un **produit scalaire** si elle satisfait les propriétés suivantes pour tous $u, v, w \in E$ et tout $\lambda \in \mathbb{R}$ :
> 1. **Symétrie** : $\langle u, v \rangle = \langle v, u \rangle$.
> 2. **Linéarité par rapport à la première variable** :
> - $\langle u+v, w \rangle = \langle u, w \rangle + \langle v, w \rangle$.
> - $\langle \lambda u, v \rangle = \lambda \langle u, v \rangle$.
> (En combinant avec la symétrie, cela implique la bilinéarité : linéarité par rapport aux deux variables).
> 3. **Définie positive** :
> - $\langle u, u \rangle \ge 0$.
> - $\langle u, u \rangle = 0 \iff u = 0_E$.
>
> Un $\mathbb{R}$-espace vectoriel muni d'un produit scalaire est appelé un **espace préhilbertien réel** ou plus communément un **espace euclidien** (s'il est de dimension finie, notion que nous verrons plus tard).
> [!example] Produit scalaire canonique dans $\mathbb{R}^n$
> L'exemple le plus courant est le produit scalaire usuel (ou produit scalaire euclidien) dans $\mathbb{R}^n$.
> Pour $u = (x_1, \dots, x_n)$ et $v = (y_1, \dots, y_n) \in \mathbb{R}^n$, il est défini par :
> $ \langle u, v \rangle = \sum_{i=1}^n x_i y_i = x_1 y_1 + x_2 y_2 + \dots + x_n y_n $
> On peut vérifier facilement qu'il satisfait les trois propriétés de la définition.
>
> - Dans $\mathbb{R}^2$, $\langle (x_1, y_1), (x_2, y_2) \rangle = x_1 x_2 + y_1 y_2$.
> - Dans $\mathbb{R}^3$, $\langle (x_1, y_1, z_1), (x_2, y_2, z_2) \rangle = x_1 x_2 + y_1 y_2 + z_1 z_2$.
>
> Ce produit scalaire est souvent noté $u \cdot v$ ou $u^T v$ (en utilisant la notation matricielle, où $u$ et $v$ sont des vecteurs colonnes).
> [!definition] Norme associée à un produit scalaire
> Soit $(E, \langle \cdot, \cdot \rangle)$ un espace euclidien. La **norme** (ou longueur) d'un vecteur $u \in E$, notée $\|u\|$, est définie par :
> $ \|u\| = \sqrt{\langle u, u \rangle} $
>
> - Dans $\mathbb{R}^n$ avec le produit scalaire canonique, $\|u\| = \sqrt{x_1^2 + x_2^2 + \dots + x_n^2}$. C'est la généralisation de la distance euclidienne.
> [!definition] Orthogonalité
> Deux vecteurs $u, v \in E$ sont dits **orthogonaux** si leur produit scalaire est nul :
> $ \langle u, v \rangle = 0 $
> [!theorem] Inégalité de Cauchy-Schwarz
> Dans un espace euclidien $E$, pour tous vecteurs $u, v \in E$, on a :
> $ |\langle u, v \rangle| \le \|u\| \|v\| $
> L'égalité a lieu si et seulement si $u$ et $v$ sont colinéaires (c'est-à-dire l'un est un multiple scalaire de l'autre).
> [!definition] Distance associée à un produit scalaire
> La **distance** entre deux vecteurs $u, v \in E$, notée $d(u,v)$, est définie par la norme de leur différence :
> $ d(u,v) = \|u-v\| = \sqrt{\langle u-v, u-v \rangle} $
> [!note] Espaces Hermitiens
> Si le corps est $\mathbb{C}$, on parle d'**espace hermitien**. Le produit scalaire est alors une forme sesquilinéaire (linéaire par rapport à la première variable et anti-linéaire par rapport à la seconde) et hermitienne (au lieu de symétrique, $\langle u, v \rangle = \overline{\langle v, u \rangle}$). Les propriétés de définie positivité restent les mêmes.
# ➡️ C'est la fin
- Cours précèdent: `cours-de-départ`
- Prochain cours: [[Cours 2 - Espaces vectoriels]]
- Page d'accueil de la compétence: [[Espaces vectoriels]]
- Page d'accueil du domaine: [[Mathématiques]]
# 🗓️ Historique
- Rédigé par: [[Hamilton DE ARAUJO]]
- Dernière MAJ: `06-Octobre-2025`