Lexique mathématique

Lexique mathématique

D
de classe \(C^1\)
[ Definition ]
Soient \(E\) et \(F\) des espaces vectoriels normés et \(U\) ouvert de \(E\). \(f\) de \(U\) dans \(F\) est de classe \(C^1\) si elle est différentiable et si l’application qui à \(x\) associe la différentielle de \(f\) en \(x\) est continue (voir [thetoposurLEF] pour un rappel de la topologie usuelle sur \({\cal L}(E,F)\)).
En savoir plus
de classe \(C^n\)
[ Definition ]
Étant donnée une application \(f\) d’un ouvert \(U\) d’un espace de Banach \(E\) dans un espace de Banach \(F\), on dit que \(f\) est de classe \(C^n\) (on dit aussi \(n\) fois continûment différentiable) si \(f\) est différentiable et si sa différentielle est de classe \(C^{n-1}\). L’application est dite \(C^{\infty}\) si elle est \(C^n\) pour tout \(n\); on dit alors qu’elle est indéfiniment différentiable.

On note alors \(f^{(1)}(a)\) l’application \(Df(a)(x)\), et par récurrence \(f^{(n)}(a)\) l’application \(Df^{(n-1)}(a)\).

Étant donné une application \(f\) d’un ouvert \(U\) d’un espace de Banach \(E\) dans un espace de Banach \(F\), on dit que \(f\) est \(n\) fois différentiable en \(x\) appartenant à \(U\) si et seulement si \(f\) est de classe \(C^{n-1}\) sur un voisinage de \(x\) et si la \(n\)-ième différentielle de \(f\) sur ce voisinage est différentiable en \(a\).

Étant donné une application \(f\) d’un ouvert \(U\) d’un espace de Banach \(E\) dans un espace de Banach \(F\), on note \(\frac{\delta^2f}{\delta x_i\delta x_j}\) l’application \(\frac{\delta\frac{\delta f}{\delta x_j}}{\delta x_i}\).
En savoir plus
de classe \(\mathcal{C}^{k}\)
[ Definition ]
  • Une fonction \(\overrightarrow{F} : I \rightarrow R^2\) est dite \(k\) fois dérivable sur \(I\) si ses fonctions coordonnées le sont.

  • Une fonction \(\overrightarrow{F}: I \rightarrow R^2\) est dite de classe \(\mathcal{C}^{k}\) sur \(I\) si ses fonctions coordonnées sont \(k\) fois dérivables sur \(I\) et si sa dérivée \(k\)-ième est continue.

En savoir plus
Décomposition de Cholesky
[ Théorème ]

On appelle décomposition de Cholesky ou décomposition \(A=^t\!\!RR\), un produit de la forme \(A=^tRR\), avec \(R\) triangulaire inférieure inversible.

\(A\) admet une décomposition de Cholesky si et seulement si \(A\) est symétrique définie positive.

En savoir plus
Décomposition de Cholesky
[ Théorème ]
On appelle décomposition de Cholesky ou décomposition \(A=^t\!\!RR\), un produit de la forme \(A=^tRR\), avec \(R\) triangulaire inférieure inversible. \(A\) admet une décomposition de Cholesky si et seulement si \(A\) est symétrique définie positive.
En savoir plus
Décomposition de Jordan
[ Proposition ]
Si \(f\) est un endomorphisme d’un espace vectoriel de dimension finie dont le polynôme caractéristique \(\chi_f\) est scindé (ce qui est automatique si \(\mathbb{K}=\mathbb{C}\) par exemple), alors il existe une base de \(E\) dans laquelle la matrice de \(f\) est de la forme \[\left( \begin{array}{cccc} \widetilde{M}_1 & 0 & \dots & 0 \\ 0 & \widetilde{M}_2& \ddots & \vdots \\ \vdots & \ddots & \ddots & 0 \\ 0 & \dots & 0 & \widetilde{M}_l \end{array}\right)\]

Il s’agit donc d’une matrice triangulaire supérieure, dont les seuls termes non nuls sont les \({\lambda}_i\) sur la diagonale, et des 0 et des 1 sur la sur-diagonale.

Notons qu’aux « changements de bloc » (passage de \({\lambda}_i\) à \({\lambda}_{i+1}\)) on a un 0 sur la sur-diagonale au dessus du premier \({\lambda}_{i+1}\), i.e. à droite du dernier \({\lambda}_i\).
En savoir plus
Décomposition des rotations
[ Théorème ]
Soit \(E\) un espace euclidien orienté de dimension \(2\).
  1. Toute rotation de \(E\) s’écrit comme composée de deux réflexions.

  2. Réciproquement, tout produit de réflexion est une rotation.

En savoir plus
Décomposition d’une permutation en produit de cycles à supports disjoints
[ Théorème ]
Soit une permutation \(\sigma \in \mathfrak{S}\left(E\right)\). Elle se décompose en un produit fini de cycles de supports disjoints qui commutent deux à deux.
En savoir plus
Décomposition en éléments simples
[ Théorème ]

Soit \(\mathbb{K}\) un corps clos (par exemple \(\mathbb{C}\)). Alors toute fraction rationnelle peut s’écrire de manière unique sous la forme suivante: \(\displaystyle P+\sum_{i=1}^n (\sum_{j=1}^{n_i} \frac{{\lambda}_{i,j}}{(X-p_i)^j})\), avec \(P\) un polynôme dans \(\mathbb{K}\), avec les \(n_i\) non nuls, avec les \({\lambda}_{i,j}\in \mathbb{K}\), et les \(p_i\) (les pôles) sont des éléments de \(\mathbb{K}\) deux à deux disjoints.

Toute fraction rationnelle sur le corps des réels peut s’écrire de manière unique sous la forme suivante: \(\displaystyle P+\sum_{i=1}^n(\sum_{j=1}^{n_i} \frac{{\lambda}_{i,j}}{(X-p_i)^j})+\sum_{i=1}^m (\sum_{j=1}^{m_i} \frac{\alpha_iX+ \beta_i}{X^2+\gamma X+ \delta})\) avec les \(p_i\) des réels distincts, les \({\lambda}_i\), \(\alpha_i\), \(\beta_i\) des réels, les \(X^2+\gamma X+\delta\) des polynômes irréductibles \(2\) à \(2\) disjoints.

Ces formes uniques sont appelées décompositions en éléments simples.
En savoir plus
Décomposition en facteurs premiers
[ Théorème ]
Soit un entier \(n \in \mathbb{N}\setminus \{0, 1\}\). Cet entier \(n\) s’écrit de façon unique de la manière suivante : \[n=p_1^{\alpha_1} \dots p_{m}^{\alpha_m}\]\(m \in\mathbb{N}^*\), \(p_1<\dots<p_m\) sont \(m\) nombres premiers et où \(\alpha_1,\dots,\alpha_m\in\mathbb{N}^*\). Ce résultat se formule aussi sous la forme suivante : \(n\) s’écrit de manière unique, à l’ordre des facteurs près, comme \[n = \prod_{p \in \mathbb{P}} p^{\nu_p(n)}\]\(\nu_p(n) \in \mathbb{N}\) est appelé la p-valuation de l’entier \(n\).
En savoir plus
Décomposition en facteurs premiers
[ Théorème ]
Soit \(n\geq 1\) un entier et soit \(p_1, p_2 \ldots\) la liste des nombres premiers (exhaustive et sans répétitions). Alors il existe des entiers \(m_i\in{\mathbb N}\) uniques et nuls sauf pour un nombre fini d’entre eux tels que \[n=p_1^{m_1} p_2^{m_2} p_3^{m_3} \cdots .\]
En savoir plus
Décomposition en produit de facteurs irréductibles.
[ Théorème ]
Soit \(P\) un polynômes de \(\mathbb{K}\left[X\right]\) non nul. Il existe \(\alpha\in \mathbb{K}^*\), il existe \(m\in\mathbb{N}\), \(v_1,\dots,v_m\in\mathbb{N}^*\), \(m\) polynômes \(P_1,\ldots,P_m\) unitaires, irréductibles et deux à deux distincts tels que \[P = \alpha\prod_{k=1}^m P_k^{v_k}.\] De plus, les \(\alpha, m,v_k\) sont uniques et les \(P_k\) sont uniques à l’ordre près.
En savoir plus
Décomposition en produit semi-direct
[ Proposition ]
Si on a une suite exacte \[{\atop 1 \rightarrow N}{i \atop \rightarrow}{\atop G}{s \atop \rightarrow}{\atop H \rightarrow 1}\] (c’est-à-dire si \(i\) est injective, si \(s\) est surjective, et si \(Ker\ s = Im\ i\)) et si on a un sous-groupe \(\overline H\) de \(G\) sur lequel la restriction de \(s\) est un isomorphisme vers \(H\) (c’est-à-dire un relèvement, une section, voir la partie [sd]), alors \(G\) est isomorphe à \(i(N) \rtimes \overline H\) relativement à la loi de l’automorphisme intérieur (voir la remarque de [sd]). On peut donc aussi dire que \(G\) est isomorphe à \(N \rtimes H\), \(i\) étant un isomorphisme de \(N\) sur \(\overline N=i(N)\), et \(s\) étant un isomorphisme de \(\overline H\) sur \(H\).
En savoir plus
Décomposition en transpositions
[ Théorème ]
Toute permutation \(\sigma \in \mathfrak{S}\left(n\right)\) se décompose en un produit fini de transpositions : \[\sigma = \tau_1 \circ \dots \circ \tau_k.\] Il n’y a pas unicité d’une telle décomposition.
En savoir plus
Décomposition \(A=LU\)
[ Théorème ]
Étant donnée une matrice \(A\) supposée inversible, on définit \(a_k=| (A_{i,j})_{i,j\leq k} |\), déterminant de la matrice obtenue en se restreignant aux \(k\) premières lignes et \(k\) premières colonnes.

On appelle décomposition \(A=LU\) un produit du type \(A=LU\) avec \(L\) matrice triangulaire inférieure ne comportant que des \(1\) sur la diagonale, \(U\) matrice triangulaire supérieure.

Alors, il existe une décomposition \(A=LU\) si et seulement si les \(a_k\) sont non nuls pour tout \(k\) dans \([\![1,n]\!]\).
En savoir plus
Décomposition \(A=LU\)
[ Théorème ]

Etant donnée une matrice \(A\) supposée inversible, on définit \(a_k=| (A_{i,j})_{i,j\leq k} |\), déterminant de la matrice obtenue en se restreignant aux \(k\) premières lignes et \(k\) premières colonnes.

On appelle décomposition \(A=LU\) un produit du type \(A=LU\) avec \(L\) matrice triangulaire inférieure ne comportant que des \(1\) sur la diagonale, \(U\) matrice triangulaire supérieure. Alors, il existe une décomposition \(A=LU\) si et seulement si les \(a_k\) sont non nuls pour tout \(k\) dans \([\![1,n]\!]\).
En savoir plus
décroissante
[ Definition ]
On dit qu’une suite réelle \(\left(u_n\right)\) est
  • croissante si et seulement si : \[\forall n\in\mathbb{N}, \quad u_n \leqslant u_{n+1}\]

  • décroissante si et seulement si : \[\forall n\in\mathbb{N}, \quad u_{n+1} \leqslant u_n\]

  • monotone si et seulement si elle est croissante ou décroissante.

On dit que \(\left(u_n\right)\) est strictement croissante , strictement décroissante ou strictement monotone si et seulement si l’inégalité correspondante est stricte.
En savoir plus
décroissante
[ Definition ]
Soit \(f \in \mathscr F \left(I,\mathbb{R}\right)\). On dit que :
  • \(f\) est croissante si et seulement si \(\forall x,y\in I,~ x\leqslant y \Rightarrow f(x)\leqslant f(y)\).

  • \(f\) est décroissante si et seulement si \(\forall x,y\in I,~x\leqslant y \Rightarrow f(x)\geqslant f(y)\).

  • \(f\) est monotone si et seulement si \(f\) est croissante ou décroissante.

On dit de plus que \(f\) est strictement croissante , strictement décroissante ou strictement monotone si et seulement si l’inégalité correspondante est stricte.
En savoir plus
de dimension finie
[ Definition ]
Un espace vectoriel est dit de dimension finie lorsqu’il admet une base finie. Dans le cas contraire il est dit de dimension infinie.
Dans un espace fini le cardinal d’une base est appelé dimension de l’espace (pour la cohérence de la définition il faudra voir que toutes les bases ont alors même cardinal). Un sous-espace vectoriel d’un espace vectoriel \(E\) est dit de codimension finie si la dimension de l’espace quotient est finie. On appelle alors codimension de cet espace la dimension de l’espace quotient. Sinon il est dit de codimension infinie. La notion de base a été définie dans la partie [al5b].
En savoir plus
de dimension finie
[ Definition ]
Un espace vectoriel est dit de dimension finie lorsqu’il admet une base finie. Dans le cas contraire il est dit de dimension infinie. Dans un espace fini le cardinal d’une base est appelé dimension de l’espace (pour la cohérence de la définition il faudra voir que toutes les bases ont alors même cardinal). Un sous-espace vectoriel d’un espace vectoriel \(E\) est dit de codimension finie si la dimension de l’espace quotient est finie. On appelle alors codimension de cet espace la dimension de l’espace quotient. Sinon il est dit de codimension infinie. La notion de base a été définie dans la partie [al5b].
En savoir plus
de direction \(D\) et de rapport \({\lambda}\)
[ Definition ]
Étant donné \(X\) un espace affine , \(H\) un hyperplan affine, \(D\) une droite affine supplémentaire de \(H\), et \({\lambda}\) un scalaire non nul, on appelle dilatation affine d’hyperplan \(H\), de direction \(D\) et de rapport \({\lambda}\) l’application dont la restriction au vectorialisé de \(H\) en \(H \cap D\) est l’identité, et dont la restriction au vectorialisé de \(D\) en \(H \cap D\) est une homothétie de rapport \({\lambda}\).
En savoir plus
de direction \(D\) et de rapport \({\lambda}\)
[ Definition ]
Soit \(H\) un hyperplan d’un espace vectoriel \(E\), et \(D\) une droite supplémentaire de \(H\). On appelle dilatation d’hyperplan \(H\), de direction \(D\) et de rapport \({\lambda}\) l’application linéaire dont la restriction à \(H\) est l’identité et dont la restriction à \(D\) est l’homothétie de rapport \({\lambda}\). Soit \(H\) un hyperplan d’un espace vectoriel \(E\), et \(h\) une forme linéaire de noyau \(H\). On appelle transvection d’hyperplan \(H\) une application de \(E\) dans \(E\) de la forme \[x \mapsto x+ h(x).u\] pour un certain \(u\) dans \(H\).
En savoir plus
Définition bifocale de l’ellipse et de l’hyperbole
[ Proposition ]
Soient \(a\) et \(c\) deux réels strictement positifs, \(F\) et \(F'\) deux points du plan tels que \(\left\|\overrightarrow{FF'}\right\|=2c\).
  1. Si \(a>c\), l’ensemble des points du plan tels que \[\boxed{\left\|\overrightarrow{MF}\right\|+ \left\|\overrightarrow{MF'}\right\| = 2a}\] est l’ellipse de foyers \(F\) et \(F'\) et de demi-grand axe \(a\)

  2. Si \(a<c\), l’ensemble des points du plan tels que \[\boxed{\left| \left\|\overrightarrow{MF}\right\| - \left\|\overrightarrow{MF'}\right\| \right| = 2a}\] est l’hyperbole de foyers \(F\) et \(F'\) et de demi-axe focal \(a\).

En savoir plus
Définition de la distance de Hausdorff
[ Definition ]

On définit tout d’abord: \[V_\epsilon(A)=\{ x ; d(x,A)<\epsilon\}\] \(V_\epsilon(A)\) est appelé \(\epsilon\)-voisinage ouvert de \(A\). Il est ouvert par la proposition [continuitedistance].

Ensuite on note \(D(A,B)\) et on appelle distance de Hausdorff le réel \[D(A,B)=\inf\{x \in \mathbb{R}^{+} ; A \subset V_x(B) \land B \subset V_x(A)\}\] défini sur l’ensemble \(K(E)\) des compacts non vides d’un espace métrique \(E\) donné.
En savoir plus
Définition de la limite à l’aide des voisinages
[ Proposition ]
Soient \(f\in \mathscr F \left(I,\mathbb{R}\right)\), \(a\in\overline I\) et \(l\in\overline{\mathbb{R}}\). \[f(x) \xrightarrow[x \rightarrow a]{} l \Longleftrightarrow \forall W\in V_{l},~\exists V \in V_a,~f\left(V\cap I\right)\subset W\]
En savoir plus
Définition des dérivées partielles
[ Proposition ]
Soit \(U\) un ouvert du produit \(E_1 \times E_2\) de deux espaces vectoriels normés , soit \(f : U \rightarrow F\), avec \(F\) espace vectoriel normé , et \(f\) différentiable en \(a=(a_1,a_2)\). Alors les deux applications partielles \(x_1 \mapsto f(x_1,a_2)\) et \(x_2 \mapsto f(a_1,x_2)\) sont différentiables respectivement en \(a_1\) et \(a_2\). On note les deux différentielles obtenues respectivement \(D_1f(a_1,a_2)\) et \(D_2f(a_1,a_2)\), ou bien \(\frac{\delta f}{\delta x_1}\) et \(\frac{\delta f}{\delta x_2}\), et on les appelle respectivement première dérivée partielle et deuxième dérivée partielle. On a alors \[Df(a_1,a_2)(h_1,h_2)=D_1f(a_1,a_2)(h_1)+D_2f(a_1,a_2)(h_2)\] On peut généraliser de même à un produit fini d’espaces vectoriels normés ; si \(f\) est différentiable en \((a_1,a_2,...,a_n)\), alors pour tout \(i\) dans \(\llbracket 1,n\rrbracket\) \(x \mapsto f(a_1,...,a_{i-1},x,a_{i+1},...,a_n)\) est différentiable en \(a_i\), sa différentielle en \(a_i\) est noté \(\frac{\delta f}{\delta x_i}(a)\), et \[Df(a_1,...,a_n)(h_1,...,h_n)=\sum_{i=1}^n \frac{\delta f}{\delta x_i}(a)(h_i)\]
En savoir plus
Définitions dans le cadre de la réduction en dimension finie
[ Definition ]
\(\bullet\)On appelle polynôme caractéristique d’une matrice carrée \(M\) le polynôme \(det(X.I-M)\).

\(\bullet\)Le polynôme caractéristique de la matrice d’un endomorphisme en dimension finie (le polynôme caractéristique n’est défini que dans ce cadre là) est indépendant de la base choisie; on l’appelle polynôme caractéristique de cet endomorphisme.

On note \(\chi_M\) le polynôme caractéristique de la matrice \(M\) et \(\chi_f\) le polynôme caractéristique de l’endomorphisme \(f\).
En savoir plus
Définitions dans le cas d’un espace vectoriel produit
[ Definition ]
On appelle \(k\)-ième projection canonique d’un espace vectoriel produit \(E_1 \times ... \times E_n\) l’application qui à \(x\) dans le produit associe sa composante dans \(E_k\). On appelle \(k\)-ième injection canonique d’un espace vectoriel produit \(E_1 \times ... \times E_n\) l’application qui à \(x\) dans \(E_k\) associe \((0,...,0,x,0,...0)\).
En savoir plus
Définitions dans les anneaux intègres
[ Definition ]
\(a\) et \(b\) dans \(A\) anneau intègre sont dits premiers entre eux si \[\forall x \in A\ x|a \mbox{ et } x|b \to x \mbox{ est une unité}\] De même les éléments d’une famille \((a_i)_{i\in [[1,n]]}\) sont dits premiers entre eux si un élément divisant tous les \(a_i\) est nécessairement une unité.
En savoir plus
Définitions de base
[ Definition ]
\(\mathbb{K}\) est un corps ordonné si \(\forall (x,y) \in \mathbb{K}^2\ 0\leq x\land 0\leq y \rightarrow 0 \leq x+y \land 0 \leq x.y \land -x\leq 0\).

\(\mathbb{K}\) est totalement ordonné si \(\forall (x,y) \in \mathbb{K}^2\ x\leq y\lor y\leq x\).

\(\mathbb{K}\) est archimédien si \(\forall (x,y) \in \mathbb{K}^2\ 0 \leq x\land 0< y \rightarrow \exists n \in \mathbb{N}; x < y + ... + y \mbox{($n$ fois)}\)

\(\mathbb{K}\) a la propriété de la borne supérieure si toute partie non vide majorée de \(\mathbb{K}\) admet une borne supérieure.

On appelle corps réel un corps commutatif totalement ordonné possédant la propriété de la borne supérieure. On le note \(\mathbb{R}\). On admettra l’unicité à isomorphisme près d’un tel corps (l’existence s’obtient par l’étude du complété de \(\mathbb{Q}\)). Il possède en outre la propriété de la borne inférieure et il est archimédien (preuve laissée en exercice).
En savoir plus
Définitions de base
[ Definition ]

On appelle triplet de probabilité ou espace probabilisé un triplet \((\Omega,{\cal F},P)\)\({\cal F}\) est une tribu sur \(\Omega\) et \(P\) une mesure de probabilité sur \((\Omega,{\cal F})\).

\(\Omega\) est appelé l’univers.

Un élément de \(\Omega\) est appelé possible.

On appelle événement une partie mesurable de \(\Omega\), c’est-à-dire un élément de \({\cal F}\), c’est-à-dire une partie \({\cal F}\)-mesurable.
En savoir plus
Définitions de base pour les ordinaux
[ Definition ]
On dit qu’un ensemble muni d’une relation d’ordre est bien ordonné si et seulement si toute partie non vide de cet ensemble admet un élément minimum. L’ordre est alors appelé un bon ordre. On appelle segment initial d’une partie bien ordonnée un ensemble de cette partie tel que étant donné un élément de cette partie, tous les éléments qui sont inférieurs à cet élément sont aussi dans la partie. On appelle segment initial engendré par \(x\) l’ensemble des \(y\) plus petits que \(x\); cette partie est clairement un segment initial.

Un ensemble est dit transitif si tout élément de cet ensemble est inclu dans cet ensemble. C’est-à-dire que si \(S \in E\), alors \(S \subset E\) (non, il n’y a pas de faute de frappe!).

Un ensemble est un ordinal s’il est transitif et bien ordonné par \(\in\), cette relation étant une relation d’ordre strict. On note \(On\) l’ensemble des ordinaux.
En savoir plus
Définitions de base sur les matrices
[ Definition ]
On appelle matrice de type \((n,p)\) sur un corps \(\mathbb{K}\) toute application de \([\![1,n]\!]\times [\![1,p]\!]\) (intervalles de \(\mathbb{N}\)) dans \(\mathbb{K}\). On la représente généralement comme suit: \[\left( \begin{array}{cccc} m_{1,1} & m_{1,2} & \dots & m_{1,p} \\ m_{2,1} & m_{2,2} & \dots & m_{2,p} \\ \vdots & \vdots &\ddots & \vdots \newline m_{n,1} & m_{n,2} & \dots & m_{n,p} \end{array}\right)\] On note \(M_{n,p}(\mathbb{K})\) l’ensemble des matrices de type \((n,p)\) sur le corps \(\mathbb{K}\).

On appelle matrice ligne une matrice de type \((1,p)\), et matrice colonne une matrice de type \((n,1)\).

On appelle matrice extraite d’une matrice de type \((n,p)\) la restriction de cette matrice à \(I \times J\), avec \(I \subset [\![1,n]\!]\) et \(J \subset [\![1,p]\!]\).

On appelle \(i\)-ième vecteur-ligne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \(\{i\}\times [\![1,p]\!]\). On peut identifier un vecteur-ligne à un élément de \(\mathbb{K}^p\).

On appelle \(j\)-ième vecteur-colonne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \([\![1,n]\!] \times \{j\}\). On peut identifier un vecteur-colonne à un élément de \(\mathbb{K}^n\).

On appelle matrice associée à un morphisme \(f\) de l’espace vectoriel \(E\) de dimension \(p\) dans l’espace vectoriel \(F\) de dimension \(n\) et aux bases \(B=(e_i)\) et \(B'=(f_i)\) de \(E\) et \(F\) respectivement la matrice \(M\) de type \((n,p)\) telle que \(M_{i,j}=f_i^*(e_j)\). On la note \(Mat_{B,B'}(f)\).

Inversement, on appelle application linéaire canoniquement associée à la matrice \(M\) le morphisme de \(\mathbb{K}^p\) dans \(\mathbb{K}^n\) dont la matrice associée est \(M\).
En savoir plus
Définitions de base sur les matrices
[ Definition ]
On appelle matrice de type \((n,p)\) sur un corps \(\mathbb{K}\) toute application de \([\![1,n]\!]\times [\![1,p]\!]\) (intervalles de \(\mathbb{N}\)) dans \(\mathbb{K}\). On la représente généralement comme suit: \[\left( \begin{array}{cccc} m_{1,1} & m_{1,2} & \dots & m_{1,p} \\ m_{2,1} & m_{2,2} & \dots & m_{2,p} \\ \vdots & \vdots &\ddots & \vdots \\ m_{n,1} & m_{n,2} & \dots & m_{n,p} \\ \end{array}\right)\] On note \(M_{n,p}(\mathbb{K})\) l’ensemble des matrices de type \((n,p)\) sur le corps \(\mathbb{K}\).
On appelle matrice ligne une matrice de type \((1,p)\), et matrice colonne une matrice de type \((n,1)\).
On appelle matrice extraite d’une matrice de type \((n,p)\) la restriction de cette matrice à \(I \times J\), avec \(I \subset [\![1,n]\!]\) et \(J \subset [\![1,p]\!]\).
On appelle \(i\)-ième vecteur-ligne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \(\{i\}\times [\![1,p]\!]\). On peut identifier un vecteur-ligne à un élément de \(\mathbb{K}^p\).
On appelle \(j\)-ième vecteur-colonne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \([\![1,n]\!] \times \{j\}\). On peut identifier un vecteur-colonne à un élément de \(\mathbb{K}^n\).
On appelle matrice associée à un morphisme \(f\) de l’espace vectoriel \(E\) de dimension \(p\) dans l’espace vectoriel \(F\) de dimension \(n\) et aux bases \(B=(e_i)\) et \(B'=(f_i)\) de \(E\) et \(F\) respectivement la matrice \(M\) de type \((n,p)\) telle que \(M_{i,j}=f_i^*(e_j)\). On la note \(Mat_{B,B'}(f)\).
Inversement, on appelle application linéaire canoniquement associée à la matrice \(M\) le morphisme de \(\mathbb{K}^p\) dans \(\mathbb{K}^n\) dont la matrice associée est \(M\).
En savoir plus
Définition \(\epsilon-\delta\) de la continuité
[ Proposition ]
Soit \(f\) application entre espaces métriques; \(f\) est continue en \(x\) si pour tout \(\epsilon\) il existe \(\delta\) tel que \(d(x,x')<\delta \rightarrow d(f(x'),f(x))<\epsilon\)
En savoir plus
Définitions sur les ordres
[ Definition ]
Un ordre est une relation réflexive, antisymétrique, transitive.

Une relation d’ordre strict est une relation \(<\) telle que \(\leq\) définie par \(x \leq y \iff (x=y \lor x < y)\) soit une relation d’ordre, et telle que pour tout \(x\), on a \(\neg (x < x)\).

Un élément \(x\) d’une partie \(E\) est un minimum de cette partie \(E\) si et seulement si \(x \in E\) et si \(\forall e \in E \ e \geq x\).

Un élément \(x\) d’une partie \(E\) est un élément minimal de \(E\) si et seulement si \(x \in E\) et si \(((e \in E) \land (e \leq x)) \rightarrow e=x\).

Un élément \(x\) est dit minorant d’une partie \(E\) si \(\forall e \in E \ e \geq x\); il n’est pas nécessaire que \(x\) soit dans \(E\).

On définit de même maximum, élément maximal, majorant en remplaçant\(\leq\) par \(\geq\).

Un bon ordre est un ordre tel que toute partie non vide a un minimum.
En savoir plus
degré d’une somme
[ Théorème ]
Soient \(P\), \(Q\in\mathbb{K}\left[X\right]\), on a :
  1. \(\boxed{\deg\left(P+Q\right)\leqslant\max \left(\deg \left(P\right), \deg \left(Q\right)\right)}\);

  2. \(\boxed{\deg\left(P\times Q\right)=\deg\left(P\right) + \deg \left(Q\right)}\).

En savoir plus
Degré d’un polynôme
[ Definition ]
Soit un polynôme \(P=a_0+\dots+a_pX^p \in\mathbb{K}\left[X\right]\) avec \(a_p\neq 0\).
  • On appelle degré de \(P\) et on note \(\deg\left(P\right)\) l’entier \(p\).

  • Par convention, le degré du polynôme nul est \(-\infty\).

  • On appelle terme dominant de \(P\) le monôme \(a_p X^p\).

En savoir plus
Degré d’un produit
[ Théorème ]
Soient \(P\), \(Q\in\mathbb{K}\left[X\right]\), on a :
  1. \(\boxed{\deg\left(P+Q\right)\leqslant\max \left(\deg \left(P\right), \deg \left(Q\right)\right)}\);

  2. \(\boxed{\deg\left(P\times Q\right)=\deg\left(P\right) + \deg \left(Q\right)}\).

En savoir plus
densité de probabilité de \(X\)
[ Definition ]
Étant donné \(X\) une variable aléatoire , une application \(f_X\) mesurable est appelée une densité de probabilité de \(X\) si et seulement si pour tout borélien \(E\) de \(\mathbb{R}\), on a \(P(X^{-1}(E))=\int_E f_X\).
En savoir plus
Dérivabilité d’une fonction réelle
[ Definition ]
On dit qu’une fonction réelle \(f: I \rightarrow \mathbb{R}\) est dérivable en \(t_0\in I\) si il existe un réel \(l\) tel que : \[{\scriptstyle f(t)-f(t_0)\over\scriptstyle t-t_0} \xrightarrow[t\rightarrow t_0]{} l\] Dans le cas où cette limite existe, on notera \(f'(t_0)=l\). De plus, on dira que \(f\) est dérivable sur \(I\) si \(f\) est dérivable en tout point \(t\) de \(I\) non situé à une extrémité de \(I\).
En savoir plus
Dérivabilité d’une fonction vectorielle
[ Definition ]
On dit qu’une fonction vectorielle \(\overrightarrow{F} : I \rightarrow \mathbb{R}^2, t \mapsto (x(t),y(t))\) est dérivable en \(t_0\in I\) si il existe \(\overrightarrow{l}=(l_1,l_2)\) un vecteur de \(\mathbb{R}^2\) tel que : \[{\scriptstyle\overrightarrow{F}(t)-\overrightarrow{F}(t_0)\over\scriptstyle t-t_0} \xrightarrow[t\rightarrow t_0]{} \overrightarrow{l}\] Dans le cas où cette limite existe, on note \(\overrightarrow{F}'(t_0)=l\).
En savoir plus
Dérivabilité d’une fonction vectorielle sur un intervalle
[ Definition ]
On dit qu’une fonction vectorielle \(\overrightarrow{F} : I \rightarrow \mathbb{R}^2, t \mapsto (x(t),y(t))\) est dérivable sur \(I\) si \(\overrightarrow{F}\) est dérivable en tout point \(t\) de \(I\) non situé à une extrémité de \(I\).
En savoir plus
Dérivabilité implique continuité
[ Théorème ]
Soient \(f \in \mathscr F \left(I,\mathbb{R}\right)\) et \(a\in I\). Si \(f\) est dérivable en \(a\) alors \(f\) est continue en \(a\).
En savoir plus
Dérivabilité sur un intervalle
[ Definition ]
On dit qu’une fonction \(f\) est dérivable sur \(I\) si et seulement si elle est dérivable en tout point \(a \in I\). On définit alors la fonction dérivée \[f': \left\{ \begin{array}{ccl} I & \longrightarrow & \mathbb{R} \newline x & \longmapsto & f'(x) \end{array} \right.\] La fonction dérivée se note aussi \(Df\) ou \(\dfrac{df}{dx}\).
En savoir plus
dérivable au sens complexe en \(a\in\Omega\) si
[ Definition ]

Une fonction est dite dérivable au sens complexe en \(a\in\Omega\) si \(lim_{x\to a} \frac{f(x)-f(a)}{x-a}\) existe et est finie. On note alors cette limite \(f'(a)\).

Une fonction est dite holomorphe sur \(\Omega\) si elle est dérivable au sens complexe en tout point de \(\Omega\). On note \(H(\Omega)\) l’ensemble des fonctions holomorphes sur \(\Omega\).

On notera \(D(a,r)\) (resp. \(D'(a,r)\)) avec \(r>0\) l’ensemble des \(x\) de \(\Omega\) tels que \(|x-a|<r\) (resp. \(0<|x-a|<r\)).

Un domaine est un ouvert connexe non vide.
En savoir plus
dérivable au sens complexe en \(a\in\Omega\) si
[ Definition ]

Une fonction est dite dérivable au sens complexe en \(a\in\Omega\) si \(lim_{x\to a} \frac{f(x)-f(a)}{x-a}\) existe et est finie. On note alors cette limite \(f'(a)\).

Une fonction est dite holomorphe sur \(\Omega\) si elle est dérivable au sens complexe en tout point de \(\Omega\). On note \(H(\Omega)\) l’ensemble des fonctions holomorphes sur \(\Omega\).

On notera \(D(a,r)\) (resp. \(D'(a,r)\)) avec \(r>0\) l’ensemble des \(x\) de \(\Omega\) tels que \(|x-a|<r\) (resp. \(0<|x-a|<r\)).

Un domaine est un ouvert connexe non vide.

En savoir plus
Dérivation de la bijection réciproque
[ Théorème ]
Soit une fonction \(f:I \rightarrow R\). On suppose que
  1. la fonction \(f\) est injective sur l’intervalle \(I\).

  2. la fonction \(f\) est dérivable sur l’intervalle \(I\).

  3. la fonction \(f'\) ne s’annule pas sur \(I\) : \(\forall x\in I, \quad \boxed{f'\left(x\right)\neq 0}\).

Alors la fonction \(f\) réalise une bijection de l’intervalle \(I\) sur l’intervalle \(J=f(I)\) et son application réciproque, \(f^{-1}\) est dérivable sur l’intervalle \(J\) avec \[\boxed{\left(f^{-1}\right)'=\dfrac{1}{f'\circ f^{-1}}}\]
En savoir plus
Dérivation de la bijection réciproque
[ Théorème ]
Soit \(f:I \rightarrow R\). On suppose que:
  1. \(f\) est strictement monotone sur l’intervalle \(I\).

  2. \(f\) est dérivable sur \(I\).

  3. \(\forall x\in I, \quad f'\left(x\right)\neq 0\)

alors \(f\) réalise une bijection de l’intervalle \(I\) sur l’intervalle \(J=f(I)\) et son application réciproque, \(f^{-1}\) est dérivable sur \(J\) et \[\boxed{\left(f^{-1}\right)'=\dfrac{1}{f'\circ f^{-1}}}\]
En savoir plus
Dérivation de la norme
[ None ]
Soit \(\overrightarrow{F}\) une fonction définie sur \(I\), dérivable en \(t_0 \in I\), à valeurs dans \({\mathbb{R}^2}\) et ne s’annulant pas. Alors l’application \(\left\|\overrightarrow{F}\right\|:I \rightarrow \mathbb{R}\) est dérivable en \(t_0\) et \[\boxed{\left(\left\|\overrightarrow{F}\right\|\right)'(t_0)=\dfrac{\left<\overrightarrow{F}'(t_0)|\overrightarrow{F}(t_0) \right>}{\left\|\overrightarrow{F} (t_0)\right\|}}\]
En savoir plus
Dérivation de l’exponentielle
[ Théorème ]

Soit \(E\) un Banach et soit \(f\in {\cal L}(E)\), alors l’application \(t \mapsto \exp(t f)\) est dérivable, de dérivée \(\exp(tf)\circ f=f \circ \exp(tf)\).

En savoir plus
Dérivation des fonctions composées
[ Théorème ]
Soient deux fonctions \(f:I \rightarrow R\), \(g:J \rightarrow \mathbb{R}\) telles que \(f(a)\in J\). On suppose que
  1. La fonction \(f\) est dérivable au point \(a\in I\).

  2. La fonction \(g\) est dérivable au point \(b=f(a)\in J\).

Alors la fonction \(g\circ f\) est dérivable en \(a\) et \[\boxed{\left(g\circ f\right)'\left(a\right)= g'\left(f\left(a\right)\right) \times f'\left(a\right)}\]
En savoir plus
Dérivation d’une composée
[ Théorème ]
Soit \(f : U\subset \mathbb{R} [2] \mapsto \mathbb{R}\), \(u, v : I \subset \mathbb{R} \mapsto \mathbb{R}\). On définit \(\varphi: \left\{ \begin{array}{ccl} I & \longrightarrow & \mathbb{R} [2] \newline t & \longmapsto & \bigl(u(t),v(t)\bigr) \end{array} \right.\). On suppose que :
  1. \(f\) est de classe \(\mathcal{C}^{1}\) sur l’ouvert \(U\).

  2. Les deux fonctions \(u\) et \(v\) sont de classe \(\mathcal{C}^{1}\) sur \(I\).

  3. \(\forall t \in I\), \(\varphi(t) \in U\).

On peut alors définir la fonction \[g = f \circ \varphi: \left\{ \begin{array}{ccl} I & \longrightarrow & \mathbb{R} \newline t & \longmapsto & f\bigl(u(t), v(t)\bigr) \end{array} \right.\] Cette fonction est de classe \(\mathcal{C}^{1}\) sur \(I\) et sa dérivée vaut : \[\boxed{g'(t) = u'(t) \dfrac{\partial f}{\partial x}\bigl(u(t), v(t)\bigr) + v'(t) \dfrac{\partial f}{\partial y}\bigl(u(t), v(t)\bigr)}\]
En savoir plus
Dérivation du produit scalaire
[ Proposition ]
Soient \(\overrightarrow{F}\) et \(\overrightarrow{G}\) deux applications définies sur \(I\), dérivables en \(t_0 \in I\) et à valeurs dans \(\mathbb{R}^2\). Alors les applications \[\left<\overrightarrow{F}|\overrightarrow{G}\right>: \left\{ \begin{array}{ccl} I & \longrightarrow & R \\ t & \longmapsto & \left<\overrightarrow{F}(t)|\overrightarrow{G}(t)\right> \end{array} \right. \quad \textrm{ et} \quad\mathop{\rm det}\left({\overrightarrow{F}},{\overrightarrow{G}}\right): \left\{ \begin{array}{ccl} I & \longrightarrow & R \newline t & \longmapsto & \mathop{\rm det}\left({\overrightarrow{F}(t)},{\overrightarrow{G}(t)}\right) \end{array} \right.\] sont dérivables en \(t_0\) et \[\boxed{\left(\left<\overrightarrow{F}|\overrightarrow{G}\right>\right)'(t_0)=\left<\overrightarrow{F}'(t_0)|\overrightarrow{G}(t_0)\right>+\left<\overrightarrow{F}(t_0)|\overrightarrow{G}'(t_0)\right> }\] \[\boxed{\left(\mathop{\rm det}\left(\overrightarrow{F},\overrightarrow{G}\right)\right)'(t_0)=\mathop{\rm det}\left(\overrightarrow{F}'(t_0),\overrightarrow{G}(t_0)\right)+\mathop{\rm det}\left(\overrightarrow{F}(t_0),\overrightarrow{G}'(t_0)\right)}\]
En savoir plus
dérivée à droite
[ Definition ]
Soient \(a\) et \(b\) dans \(\mathbb{R}\), avec \(a < b\), et \(F\) un espace vectoriel normé . Une application \(f\) de \([a,b]\) dans \(F\) est dite dérivable à droite en \(x\) appartenant à \([a,b[\) si la limite à droite \(lim_{h\rightarrow 0, h >0} \frac{f(x+h)-f(x)}h\) existe; on l’appelle alors dérivée à droite de \(f\) en \(x\).
En savoir plus
Dérivée bornée implique lipschitzienne
[ Théorème ]
Soit une fonction \(f:I \rightarrow \mathbb{R}\) définie sur un intervalle \(I\). On suppose que
  1. la fonction \(f\) est continue sur l’intervalle \(I\),

  2. la fonction \(f\) est dérivable sur l’intervalle ouvert \(\overset{\circ}{I}\),

  3. la fonction \(f\) est bornée sur l’intervalle ouvert \(\overset{\circ}{I}\) : \(\exists K \geqslant 0\), tel que \(\forall x \in \overset{\circ}{I}\), \(\lvert f'(x) \rvert \leqslant K\).

Alors la fonction \(f\) est \(K\)-lipschitzienne sur l’intervalle \(I\).
En savoir plus
Dérivée d’une fonction définie par une intégrale
[ Théorème ]
  1. Soit une fonction \(f\) continue sur un intervalle \(I\),

  2. Soient \(u,v: J \mapsto I\) deux fonctions dérivables sur l’intervalle \(J\).

Alors la fonction \[G : \left\{ \begin{array}{ccl} J & \longrightarrow & \mathbb{R} \newline x & \longmapsto & \displaystyle{\int_{u(x)}^{v(x)}} f(t)\mathrm{ \;d}t \end{array} \right.\] est dérivable sur l’intervalle \(J\) et \[\forall x\in J, \quad\boxed{G'(x)= v'(x)f[ v(x) ] - u'(x)f[ u(x) ] }\]
En savoir plus
Dérivée d’un produit
[ Proposition ]
Soient \(P\), \(Q\in\mathbb{K}\left[X\right]\) deux polynômes. On a : \[\boxed{\left( P Q\right)'= P'Q + P Q'}.\]
En savoir plus
Dérivée en un point
[ Definition ]
Soient \(f\in \mathscr F \left(I,\mathbb{R}\right)\) et \(a\in I\). On dit que \(f\) est dérivable au point \(a\) si et seulement si son taux d’accroissement \(\Delta_{a,f}\) possède une limite finie quand \(x\) tend vers \(a\). Cette limite s’appelle le nombre dérivée de \(f\) au point \(a\) et est noté: \[f'(a) \quad \textrm{ ou} \quad Df(a) \quad \textrm{ ou} \quad\dfrac{df}{dx}(a)\]
En savoir plus
Dérivée selon un vecteur
[ Definition ]
Soit \(f: U \mapsto \mathbb{R}\), \(M_0 \in U\) et un vecteur non nul \(\overrightarrow{H} \in \mathbb{R}^2\). On dit que \(f\) possède une dérivée au point \(M_0\) selon le vecteur \(\overrightarrow{H}\) s’il existe un réel \(l \in \mathbb{R}\) tel que \[\dfrac{1}{t}\bigl[f(M_0+t.\overrightarrow{H}) - f(M_0)\bigr] \xrightarrow[t \rightarrow 0]{} l\] On note alors \(l = {\mathrm{D}_{\overrightarrow{H}}}f(M_0)\).
En savoir plus
Dérivées partielles d’ordre \(2\)
[ Definition ]
Soit \(U \subset \mathbb{R}^2\) un ouvert et \(f : U \mapsto \mathbb{R}\) une fonction numérique de classe \({\mathcal{C}}^[(1) ]{U, \mathbb{R} }\). On peut donc définir les fonctions dérivées partielles  : \[\dfrac{\partial f}{\partial x} : \left\{ \begin{array}{ccl} U & \longrightarrow & \mathbb{R} \\ a & \longmapsto & \dfrac{\partial f}{\partial x}(a) \end{array} \right. \quad \textrm{ et} \quad\dfrac{\partial f}{\partial y} : \left\{ \begin{array}{ccl} U & \longrightarrow & \mathbb{R} \\ a & \longmapsto & \dfrac{\partial f}{\partial y}(a) \end{array} \right.\] On dit que \(f\) est de classe \({\mathcal{C}}^[(2) ]{U, \mathbb{R} }\) lorsque les \(2\) fonctions \(\dfrac{\partial f}{\partial x}\) et \(\dfrac{\partial f}{\partial y}\) sont de classe \({\mathcal{C}}^[(1) ]{U, \mathbb{R} }\). On note alors \[\dfrac{\partial ^2 f}{\partial x^2}(a) = \dfrac{\partial \dfrac{\partial f}{\partial x}}{\partial x}(a),\quad \dfrac{\partial^{2}f}{\partial x \partial y}(a) = \dfrac{\partial \dfrac{\partial f}{\partial y}}{\partial x}(a),\] \[\dfrac{\partial ^2 f}{\partial y^2}(a) = \dfrac{\partial \dfrac{\partial f}{\partial y}}{\partial y}(a),\quad \dfrac{\partial^{2}f}{\partial y \partial x}(a) = \dfrac{\partial \dfrac{\partial f}{\partial x}}{\partial y}(a).\]
En savoir plus
Dérivées partielles d’une composée
[ Théorème ]
Soit \(f : U \subset \mathbb{R} [2] \mapsto \mathbb{R}\) une fonction de classe \(\mathcal{C}^{1}\), \(x,y : V \subset \mathbb{R} [2] \mapsto \mathbb{R}\) deux fonctions de classe \(\mathcal{C}^{1}\). On suppose que \(\forall (u,v) \in V\), \(\bigl(x(u,v), y(u,v)\bigr) \in U\). On peut alors définir la fonction \[F : \left\{ \begin{array}{ccl} U & \longrightarrow & \mathbb{R} \\ (u,v) & \longmapsto & f\bigl(x(u,v), y(u,v)\bigr) \end{array} \right.\] La fonction \(F\) est de classe \(\mathcal{C}^{1}\) et en tout point \((u,v) \in V\), \[\boxed{ \begin{cases} \dfrac{\partial F}{\partial u}(u,v) &= \dfrac{\partial x}{\partial u}(u,v) \dfrac{\partial f}{\partial x}(x(u,v), y(u,v)) + \dfrac{\partial y}{\partial u}(u,v) \dfrac{\partial f}{\partial y}(x(u,v), y(u,v)) \newline \dfrac{\partial F}{\partial v}(u,v) &= \dfrac{\partial x}{\partial v}(u,v) \dfrac{\partial f}{\partial x}(x(u,v),y(u,v)) + \dfrac{\partial y}{\partial v}(u, v) \dfrac{\partial f}{\partial y}(x(u,v), y(u,v)) \end{cases} }\]
En savoir plus
Dérivées partielles en un point
[ Definition ]
Soit \(f : U \mapsto \mathbb{R}\) et \(a \in U\). On considère la base canonique \(e = (e_1,e_2)\) de \(\mathbb{R}^2\). On appelle dérivées partielles de \(f\) au point \(M_0 \in U\) les dérivées de \(f\), si elles existent, selon les vecteurs \(e_1\) et \(e_2\) et on note alors \[\boxed{ \dfrac{\partial f}{\partial x}(M_0) = D_{e_1}f(M_0) = \lim_{t \rightarrow 0} \dfrac{f(M_0+te_1)- f(M_0)}{t} }\quad \textrm{ et} \quad\boxed{ \dfrac{\partial f}{\partial y}(M_0) = D_{e_2}f(M_0) = \lim_{t \rightarrow 0} \dfrac{f(M_0+te_2)- f(M_0)}{t} }\]
En savoir plus
Dérivées successives
[ Definition ]
Étant donné une fonction \(f:I\rightarrow \mathbb{R}\), on pose \(f^{(0)}=f\) et on définit par récurrence, la dérivée \(n^{\textrm{ ème}}\) de \(f\) sur \(I\), notée \(f^{(n)}\), comme la dérivée de \(f^{(n-1)}\), si elle existe. On la note \[f^{(n)} \quad \textrm{ ou} \quad D^n f \quad \textrm{ ou} \quad\dfrac{d^n f}{dt^n}\]
En savoir plus
de sens contraire
[ Definition ]
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel  de dimension \(2\) ou \(3\). Soient \(e\) et \(e'\) deux bases de \(E\). On dit que :
  • \(e\) et \(e'\) sont de même sens (ou ont même orientation) si et seulement si \(\mathop{\rm det}_e\left(e'\right)>0\).

  • Sinon, on dit que \(e\) et \(e'\) sont de sens contraires (ou n’ont pas la même orientation).

En savoir plus
déterminant
[ Definition ]
On appelle déterminant d’une famille \((x_1,...,x_n)\) d’éléments de \(E\) dans une base \((e_1,...,e_n)\) de \(E\) la somme: \[\sum_{\sigma\in \sigma_n} \epsilon(\sigma) \Pi_{i=1}^n e_{\sigma(i)}^*(x_i)\] On le note \(det_{(e_1,...,e_n)}(x_1,...,x_n)\).
En savoir plus
déterminant
[ Definition ]
On appelle déterminant d’une matrice carrée \(M\) le déterminant de l’endomorphisme canonique associé à \(M\) dans \(\mathbb{K}^n\). On le note \(det\ M\) ou \(| M |\). On appelle groupe spécial linéaire d’ordre \(n\) et on note \(SL_n(\mathbb{K})\) l’ensemble des matrices de déterminant égal à \(1\).
En savoir plus
Déterminant
[ Definition ]
Le déterminant de deux vecteurs du plan \(\mathscr V\) \(\overrightarrow{u}\) et \(\overrightarrow{v}\), noté \(\mathop{\rm det}(\overrightarrow{u}, \overrightarrow{v})\) est défini, de manière géométrique, par: \[\boxed{\left\{\begin{array}{l} \mathop{\rm det}(\overrightarrow{u}, \overrightarrow{v})= \left\|\overrightarrow{u}\right\| \, \left\|\overrightarrow{v}\right\| \, \sin \, (\widehat{ \overrightarrow{u},\overrightarrow{v}}) \textrm{ si les deux vecteurs } \overrightarrow{u} \textrm{ et } \overrightarrow{v} \textrm{ sont non nuls} \newline \mathop{\rm det}(\overrightarrow{u}, \overrightarrow{v})=0 \textrm{ sinon.} \end{array}\right.}\]
En savoir plus
Déterminant
[ Definition ]
Soient \(\overrightarrow{u}\), \(\overrightarrow{v}\), \(\overrightarrow{w}\) trois vecteurs de l’espace \(\mathscr V\). On appelle déterminant ou produit mixte de ces trois vecteurs le nombre réel, noté \(\left[\overrightarrow{u},\overrightarrow{v},\overrightarrow{w}\right]\) ou \(\mathop{\rm det}\left(\overrightarrow{u},\overrightarrow{v},\overrightarrow{w}\right)\), et donné par : \[\boxed{\mathop{\rm det}\left(\overrightarrow{u},\overrightarrow{v},\overrightarrow{w}\right)=\left(\overrightarrow{u} \wedge \overrightarrow{v}\right).\overrightarrow{w}}\]
En savoir plus
Déterminant dans une base orthonormale directe
[ Proposition ]
Soit \(u,v,w\) trois vecteurs. Le déterminant de ces trois vecteurs exprimé dans une base orthonormale directe ne dépend pas de la base orthonormale directe choisie.
En savoir plus
déterminant de l’endomorphisme \(f\)
[ Definition ]
On appelle déterminant de l’endomorphisme \(f\) le déterminant de \(f(B)\) dans la base \(B\); on le note \(det\ f\). On appelle groupe spécial linéaire de \(E\) l’ensemble des endomorphismes de \(E\) de déterminant \(1\); on le note \(SL(E)\).
En savoir plus
Déterminant de Vandermonde
[ Proposition ]
Le déterminant de Vandermonde associé à \((x_1,...,x_n)\) est égal à \[\Pi_{i<j} (x_j-x_i).\]
En savoir plus
déterminant de Vandermonde associé à un \(n\)-uple \((x_1,...,x_n)\)
[ Definition ]
On appelle déterminant de Vandermonde associé à un \(n\)-uple \((x_1,...,x_n)\) le déterminant \[\left| \begin{array}{cccccc} x_1^0 & x_1^1 & x_1^2 & x_1^3 & \dots & x_1^{n-1} \\ x_2^0 & x_2^1 & x_2^2 & x_2^3 & \dots & x_2^{n-1} \\ x_3^0 & x_3^1 & x_3^2 & x_3^3 & \dots & x_3^{n-1} \\ x_4^0 & x_4^1 & x_4^2 & x_4^3 & \dots & x_4^{n-1} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ x_n^0 & x_n^1 & x_n^2 & x_n^3 & \dots & x_n^{n-1} \\ \end{array}\right|= \left| \begin{array}{cccccc} 1 & x_1^1 & x_1^2 & x_1^3 & \dots & x_1^{n-1} \\ 1 & x_2^1 & x_2^2 & x_2^3 & \dots & x_2^{n-1} \\ 1 & x_3^1 & x_3^2 & x_3^3 & \dots & x_3^{n-1} \\ 1 & x_4^1 & x_4^2 & x_4^3 & \dots & x_4^{n-1} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ 1 & x_n^1 & x_n^2 & x_n^3 & \dots & x_n^{n-1} \newline \end{array}\right|\]
En savoir plus
Déterminant d’ordre \(2\) et \(3\) d’une famille de vecteurs
[ Definition ]
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) muni d’une base \(e=\left(e_1,\dots,e_n\right)\).
  • Si \(n=2\), on appelle déterminant dans la base \(e\) des vecteurs \(V_1\) et \(V_2\) de \(E\) et on note \(\mathop{\rm det}_e\left(V_1,V_2\right)\), le déterminant de la matrice formée par la famille \(\left(V_1,V_2\right)\) dans la base \(e\) : \(\textrm{ Mat}_{e}\left(V_1,V_2\right)\) : \[\mathop{\rm det}_{e}\left(V_1,V_2\right)=\mathop{\rm det}\textrm{ Mat}_{e}\left(V_1,V_2\right)\] En particulier, si : \(V_1=x_{1,1}e_1+x_{1,2}e_2\), \(V_2=x_{2,1}e_1+x_{2,2}e_2\) alors : \[\mathop{\rm det}_{e}\left(V_1,V_2\right)=\left| \begin{array}{cc} x_{1,1} & x_{2,1}\\ x_{1,2} &x_{2,2} \end{array} \right|=x_{11}x_{22}-x_{12}x_{21}\]

  • Si \(n=3\), on appelle déterminant dans la base \(e\) des vecteurs \(V_1\), \(V_2\) et \(V_3\) de \(E\) et on note \(\mathop{\rm det}_e\left(V_1,V_2,V_3\right)\), le déterminant de la matrice formée par la famille \(\left(V_1,V_2,V_3\right)\) dans la base \(e\) : \(\textrm{ Mat}_{e}\left(V_1,V_2,V_3\right)\) : \[\mathop{\rm det}_{e}\left(V_1,V_2,V_3\right)=\mathop{\rm det} \textrm{ Mat}_{e}\left(V_1,V_2,V_3\right)\] En particulier, si : \(V_1=x_{1,1}e_1+x_{1,2}e_2+x_{1,3}e_3\), \(V_2=x_{2,1}e_1+x_{2,2}e_2+x_{2,3}e_3\) et \(V_3=x_{3,1}e_1+x_{3,2}e_2+x_{3,3}e_3\) alors : \[\mathop{\rm det}_{e}\left(V_1,V_2,V_3\right)=\left| \begin{array}{ccc} x_{1,1} & x_{2,1}&x_{3,1}\\ x_{1,2} &x_{2,2}&x_{3,2}\newline x_{1,3} &x_{2,3}&x_{3,3} \end{array} \right|\] \[=x_{1,1}x_{2,2}x_{3,3}+x_{1,2}x_{2,3}x_{3,1}+x_{1,3}x_{2,1}x_{3,2}-x_{3,1}x_{2,2}x_{1,3} -x_{3,2}x_{2,3}x_{1,1}-x_{3,3}x_{2,1}x_{1,2}\] qui se calcule avec la règle de Sarrus.

En savoir plus
Déterminant d’une matrice carrée
[ Definition ]
Soit \(A = \begin{pmatrix} a_{1,1} & \dots & a_{1,n} \\ \vdots & & \vdots \\ a_{n,1} & \dots & a_{n,n} \end{pmatrix} \in \mathfrak{M}_{n}(\mathbb{\mathbb{K} })\) une matrice carrée. On définit son déterminant par la formule : \[\mathop{\rm det}(A) = \displaystyle{\sum_{\sigma \in \mathfrak{S}\left(n\right)}^{ }} \varepsilon(\sigma) a_{\sigma(1),1} \dots a_{\sigma(n), n}\] On notera entre deux barres le déterminant d’une matrice : \[\mathop{\rm det}(A) = \begin{vmatrix} a_{1,1} & \dots & a_{1,n} \\ \vdots & & \vdots \newline a_{n,1} & \dots & a_{n,n} \end{vmatrix} .\]
En savoir plus
Déterminant d’une matrice de taille \(2\) ou \(3\)
[ Definition ]
  • On appelle déterminant de la matrice \(A=\left( \begin{array}{cc} a_{1,1}&a_{1,2}\\ a_{2,1}&a_{2,2} \end{array}\right)\in\mathfrak{M}_{2}\left(\mathbb{K}\right)\) le scalaire de \(\mathbb{K}\), noté \(\mathop{\rm det}\left(A\right)\) et donné par : \[\mathop{\rm det}\left(A\right)= \left| \begin{array}{cc} a_{1,1} & a_{1,2}\\ a_{2,1} &a_{2,2} \end{array} \right|=a_{1,1}a_{2,2}-a_{1,2}a_{2,1}\]

  • On appelle déterminant de la matrice \(A=\left( \begin{array}{ccc} a_{1,1}&a_{1,2}&a_{1,3}\\ a_{2,1}&a_{2,2}&a_{2,3}\\a_{3,1}&a_{3,2}&a_{3,3} \end{array}\right)\in\mathfrak{M}_{3}\left(\mathbb{K}\right)\) le scalaire de \(\mathbb{K}\), noté \(\mathop{\rm det}\left(A\right)\) et donné par : \[\mathop{\rm det}\left(A\right)= \left| \begin{array}{ccc} a_{1,1} & a_{1,2}&a_{1,3}\\ a_{2,1} &a_{2,2}&a_{2,3}\\ a_{3,1} &a_{3,2}&a_{3,3} \end{array} \right|=a_{1,1} \left| \begin{array}{cc} a_{2,2}&a_{2,3}\\ a_{3,2} &a_{3,3} \end{array} \right| - a_{2,1}\left| \begin{array}{cc} a_{1,2}&a_{1,3}\\ a_{3,2} &a_{3,3} \end{array} \right| + a_{3,1}\left| \begin{array}{cc} a_{1,2}&a_{1,3}\\ a_{2,2} &a_{2,3} \end{array} \right|=\] \[a_{1,1}a_{2,2}a_{3,3}+a_{1,2}a_{2,3}a_{3,1}+a_{1,3}a_{2,1}a_{3,2}-a_{3,1}a_{2,2}a_{1,3}-a_ {3,2}a_{2,3}a_{1,1}-a_{3,3}a_{2,1}a_{1,2}\] qui se calcule avec la règle de Sarrus. Voir remarque [regle_de_Sarrus] p. [regle_de_Sarrus].

En savoir plus
Déterminant d’une matrice triangulaire
[ Proposition ]
Si \(A = \begin{pmatrix} a_{1,1} & \dots & a_{1,n} \\ & \ddots & \vdots \newline \mathbb{O}& & a_{n,n} \end{pmatrix}\) est une matrice triangulaire supérieure, son déterminant est le produit de ses coefficients diagonaux : \[\mathop{\rm det}(A) = a_{1,1} \times \dots \times a_{n,n}\]
En savoir plus
Déterminant d’un endomorphisme
[ Proposition ]

Soient :

  • \(E\) un \(\mathbb{K}\)-espace vectoriel  de dimension \(n\).

  • \(e=\left(e_1,\dots,e_n\right)\) une base de \(E\).

  • \(u\) un endomorphisme de \(E\).

Le scalaire \(\mathop{\rm det}_e\left(u\left(e_1\right),\dots,u\left(e_n\right)\right)\) est indépendant de \(e\) et est appelé déterminant de l’endomorphisme \(u\). On le note \(\mathop{\rm det}\left(u\right)\)..
En savoir plus
Déterminant d’un endomorphisme
[ Proposition ]
Si \(e=(e_1,\dots, e_n)\) est une base de \(E\), le scalaire \[\mathop{\rm det}(u) = \mathop{\rm det}_e(u(e_1),\dots, u(e_n))\] est indépendant de la base \(e\), on l’appelle déterminant de l’endomorphisme \(u\).
En savoir plus
Déterminant d’une transposée
[ Proposition ]
Une matrice et sa transposée ont même déterminant : \[\mathop{\rm det}({A}^{\mathrm{T}}) = \mathop{\rm det}(A)\]
En savoir plus
Détermination de l’angle d’une rotation
[ Proposition ]
Soient \(E\) un espace euclidien orienté de dimension \(3\), \(r\) une rotation et \(\varepsilon\) un vecteur unitaire qui dirige l’axe de cette rotation. Ce vecteur \(\varepsilon\) définit une orientation du plan \(H=\mathop{\mathrm{Vect}}{d}^{\perp}\) et donc de l’angle \(\theta\) de \(r\). Soit \(x \in H\) : \[\boxed{r(x)=\cos\theta . x + \sin\theta . \varepsilon\wedge x }.\]
En savoir plus
Détermination du logarithme
[ Definition ]
On dit qu’une fonction continue \(f\) de la variable complexe \(t\), définie sur un ouvert connexe \(U \subset \mathbf{C}\) ne contenant pas 0, est une détermination du logarithme sur \(U\) si \[\forall t \in U, \quad \exp (f(t))=t .\]
En savoir plus
de type fini
[ Definition ]
On dit que \(G\) est de type fini si \(\exists X\) fini qui engendre \(G\).
En savoir plus
Deux cycles de supports disjoints commutent
[ Corollaire ]
Soient deux cycles \(\sigma_1\) et \(\sigma_2\) de \(\mathfrak{S}\left(E\right)\) de supports disjoints. Alors \(\sigma_1 \circ \sigma_2 = \sigma_2 \circ \sigma_1\).
En savoir plus
Deux fonctions équivalentes ont même limite
[ Proposition ]
Soit \(f,g:I\rightarrow \mathbb{R}\) et \(a\in\overline I\). Alors : \[\left[f\left(x\right)\underset{x\rightarrow a}{\sim}g\left(x\right) \quad \textrm{ et} \quad g\left(x\right)\xrightarrow[x\rightarrow a]{}l \right] \Rightarrow f\left(x\right)\xrightarrow[x\rightarrow a]{}l\]
En savoir plus
Deuxième propriété fondamentale du symétrisé de Steiner
[ Corollaire ]

Quel que soit \(K\) compact et \(P\) hyperplan, \(S_P(K)\) a un diamètre inférieur ou égal à celui de \(K\).

En savoir plus
Deuxième propriété fondamentale du symétrisé de Steiner
[ Corollaire ]

Quel que soit \(K\) compact et \(P\) hyperplan, \(S_P(K)\) a un diamètre inférieur ou égal à celui de \(K\).

En savoir plus
Deuxième théorème de Sylow
[ Théorème ]
Étant donné \(G\) un groupe, de cardinal \(|G|=p^r.m\), avec \(p \not | m\).

\(\bullet\)Tout \(p\)-groupe inclus dans \(G\) est inclus dans un \(p\)-Sylow de \(G\).

\(\bullet\)Les \(p\)-Sylow sont tous conjugués.

\(\bullet\)Les \(p\)-Sylow forment une orbite de \(G\) sous l’action de \(G\) par automorphisme intérieur.

\(\bullet\)Un \(p\)-Sylow est distingué si et seulement si il est l’unique \(p\)-Sylow.

\(\bullet\)Le nombre de \(p\)-Sylow est congru à \(1\) modulo \(p\) et divise \(|G|\).

\(\bullet\)Le nombre de \(p\)-Sylow divise \(m\).
En savoir plus
deuxième version
[ Definition ]
Un produit d’ensembles non vides est non vide.
En savoir plus
deuxième version
[ Théorème ]
Soit \(K\) un compact de \(\mathbb{R}^n\), \(\Omega\) un ouvert de \(\mathbb{R}^n\) contenant \(K\), alors il existe une fonction \(f\) \(C^\infty\) à support compact telle que \(\chi_K \leq f \leq \chi_\Omega\).
En savoir plus
Deux matrices déduites l’une de l’autre par une oel ou une oec ont même rang
[ Proposition ]
Deux matrices obtenues l’une de l’autre par une oel ou une oec sont de même rang.
En savoir plus
Deux primitives d’une même fonction diffèrent d’une constante
[ Proposition ]
Soit une fonction \(f: I \rightarrow \mathbb{R}\) définie sur un intervalle \(I\). Si \(F\) et \(G\) sont deux primitives de \(f\) sur \(I\) alors il existe \(c\in\mathbb{R}\) tel que : \(G=F+c\).
En savoir plus
Développement d’un déterminant par rapport à une ligne-colonne
[ Théorème ]
Soit une matrice carrée \(A = ((a_{i,j}))_{i,j\in [\kern-0.127em[ 1, n ]\kern-0.127em]} \in \mathfrak{M}_{n}(\mathbb{\mathbb{K} })\), \[\boxed{\mathop{\rm det}(A) = \displaystyle{\sum_{i=1}^{n}} a_{i,j} \Delta_{i,j} = \displaystyle{\sum_{j=1}^{n}} a_{i,j} \Delta_{i,j}}.\]
En savoir plus
Développement d’un déterminant suivant une ligne ou une colonne
[ Théorème ]

Soit \(A=\left(a_{ij}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\).

  • Soit \(j_0\in\llbracket 1,n\rrbracket\). Alors : \[\begin{aligned} \mathop{\rm det}A &=& \sum_{i=1}^n a_{i,j_0}A_{i,j_0}\\ &=& \sum_{i=1}^n \left(-1\right)^{i+j_0}a_{i,j_0}\Delta_{i,j_0} \end{aligned}\]

  • Soit \(i_0\in\llbracket 1,n\rrbracket\). Alors : \[\begin{aligned} \mathop{\rm det}A &=& \sum_{j=1}^n a_{i_0,j}A_{i_0,j}\newline &=& \sum_{j=1}^n \left(-1\right)^{i_0+j}a_{i_0,j}\Delta_{i_0,j} \end{aligned}\]

En savoir plus
Développement en série entière
[ Definition ]

On suppose \(\mathbb{K}=\mathbb{R}\) ou \(\mathbb{K}=\mathbb{C}\).

Une application \(f\) d’un ouvert \(U\) de \(\mathbb{K}\) dans \(\mathbb{K}\) est dite développable en série entière au voisinage de \(a\in U\) s’il existe \(\sum a_n.z^n\) de rayon de convergence \(\geq r>0\) telle que \(D(a,r) \subset U\) et \(\forall z \in D(a,r)\) on ait \(f(z)=\sum a_n.(z-a)^n\).

\(f\) est dite analytique sur \(V \subset U\) avec \(V\) un ouvert de \(\mathbb{K}\) si elle est développable en série entière au voisinage de chaque point de \(V\).
En savoir plus
Développement en série entière des fonctions holomorphes
[ Théorème ]
Toute fonction holomorphe est développable en série entière.
En savoir plus
Développement en série entière des fonctions holomorphes
[ Théorème ]
Toute fonction holomorphe est développable en série entière.
En savoir plus
Développement limité
[ Definition ]
On dit que \(f\) de \(\mathbb{R}\) dans \(\mathbb{C}\) admet un développement limité en \(a\in \mathbb{R}\) à l’ordre \(n\) s’il existe une fonction polynôme \(P\) de \(\mathbb{R}\) dans \(\mathbb{C}\) telle que au voisinage de \(a\) \[f(x)=P(x)+o((x-a)^n).\]
En savoir plus
Développement limité
[ Definition ]
Soient une fonction \(f:I\rightarrow \mathbb{R}\) et un point adhérent \(x_0\in \overline{I}\). Soit \(n\in \mathbb{N}\). On dit que \(f\) admet un développement limité à l’ordre \(n\) au voisinage de \(x_0\) s’il existe un polynôme \(P\) de degré \(\leqslant n\), une fonction \(\varepsilon : I \rightarrow \mathbb{R}\) vérifiant \(\varepsilon\left(x\right) \xrightarrow[x\rightarrow x_0]{} 0\) tels que \[\forall x\in I,\quad f\left(x\right) = P\left(x\right) + \left(x-x_0\right)^n \varepsilon\left(x\right)\]
  • Le polynôme \(P\) est appelé partie régulière ou partie principale du développement limité de \(f\) en \(x_0\).

  • La fonction \(x \mapsto \left(x-x_0\right)^n \varepsilon\left(x\right)\) est appelée reste du développement limité de \(f\) en \(x_0\).

En savoir plus
Développement limité à l’ordre \(1\) d’une fonction dérivable
[ Proposition ]
Soit \(f \in \mathscr F \left(I,\mathbb{R}\right)\). La fonction \(f\) est dérivable au point \(a\in I\) si et seulement si il existe \(\varepsilon:I \rightarrow \mathbb{R}\) telle que \(\varepsilon(x) \xrightarrow[x\rightarrow a]{} 0\) et un réel \(c\) tel que \[\forall x\in I, \quad \boxed{f(x)=f(a)+c(x-a)+ \underbrace{(x-a)\varepsilon(x)}_{\underset{x \rightarrow a}{o}\left(x-a\right)}}\] On a alors \(c=f'(a)\).
En savoir plus
Développement limité au sens fort
[ Definition ]
On dit que \(f\) de \(\mathbb{R}\) dans un espace vectoriel normé \(E\) admet un développement limité au sens fort en \(a\in \mathbb{R}\) à l’ordre \(n\) s’il existe un polynôme \(P\) à coefficients dans \(E\) telle que au voisinage de \(a\) \(f(x)=P(x)+O((x-a)^{n+1})\).
En savoir plus
Développement suivant une colonne
[ Proposition ]
\[\forall j\in[[1,n]],\ det\ M= \sum_{i\in [[1,n]]} \gamma_{i,j}.M_{i,j}\]
En savoir plus
Développement suivant une ligne
[ Proposition ]
\[\forall i\in[[1,n]],\ det\ M= \sum_{j\in [[1,n]]} \gamma_{i,j}.M_{i,j}\]
En savoir plus
diagonales
[ Definition ]
  • Une matrice \(D\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est diagonale si et seulement si : \[\forall i,j\in\llbracket 1,n\rrbracket \quad i\neq j \Rightarrow d_{i,j}=0\] \[D=\begin{pmatrix} \lambda_1 & 0 & \dots & 0 \\ 0 & \lambda_2 &\ddots & \vdots\\ \vdots& \ddots & \ddots & 0 \newline 0 & \dots & 0 & \lambda_n \end{pmatrix}.\] On notera \(D=\mathrm{Diag}\left(\lambda_1,\ldots,\lambda_2\right)\) ainsi que \(\mathcal{D}_n\left(\mathbb{K}\right)\) l’ensemble des matrices diagonales de taille \(n\).

  • Les matrices diagonales de la forme \(\mathrm{Diag}\left(\lambda,\ldots,\lambda\right)\)\(\lambda\in\mathbb{K}\) sont appelées matrices scalaires.

En savoir plus
Difféomorphisme
[ Definition ]
Soit \(U \subset E\) et \(V \subset F\). On dit qu’une application \(\varphi: U \mapsto V\) est un \(\mathcal{C}^{1}\)-difféomorphisme lorsque :
  1. \(\varphi\) est une bijection de \(U\) vers \(V\) ;

  2. \(\varphi\) est de classe \(\mathcal{C}^{1}\) sur \(U\) ;

  3. \(\varphi^{-1}: V \mapsto U\) est de classe \(\mathcal{C}^{1}\) sur \(V\).

En savoir plus
Difféomorphisme \(C^1\)
[ Definition ]
Une application \(h\) de \(U\) dans \(V\) avec \(U\) ouvert d’un espace vectoriel normé et \(V\) ouvert d’un espace vectoriel normé est un difféomorphisme \(C^1\) si \(h\) est bijective et de classe \(C^1\) et de réciproque de classe \(C^1\). Plus généralement, avec \(k\geq 1\), une application \(h\) de \(U\) dans \(V\) avec \(U\) ouvert d’un espace vectoriel normé et \(V\) ouvert d’un espace vectoriel normé est un difféomorphisme \(C^k\) si \(h\) est bijective et de classe \(C^k\) et de réciproque de classe \(C^k\).
En savoir plus
Différentes caractérisations de la signature
[ Proposition ]

On peut définir la signature \(\epsilon\) sur \(\sigma_n\) de l’une des façons suivantes:

1) On appelle inversion d’une permutation \(p\), une paire \((i,j)\) d’éléments tels que \((j-i).(p(j)-p(i))<0\). On définit \(\epsilon(p)=(-1)^{Inv(p)}\), avec \(Inv(p)\) le nombre d’inversions.

2) Il existe un unique morphisme \(\epsilon\) de \(\sigma_n\) sur \(\{-1,1\}\) tel que \(\epsilon(t)=-1\) si \(t\) est une transposition.

3) \(\epsilon(p)\) est égal à \((-1)^s\) avec \(s\) le nombre de transpositions dans une décomposition de \(p\) en produit de transpositions. Il est aussi égal au produit \(\Pi_{i<j}\frac{p(j)-p(i)}{j-i}\).
En savoir plus
Différentes extensions de corps
[ Definition ]
Si \(L\) est une extension du corps \(K\), alors un élément \(a\) de \(L\) est dit algébrique sur \(K\) s’il existe un polynôme \(P\) à coefficients dans \(K\) tel que \(P(a)=0\). Un nombre réel est souvent dit simplement algébrique s’il est algébrique sur \(\mathbb{Q}\). L’ensemble des éléments de \(L\) algébriques sur \(K\) est appelée extension algébrique de \(K\) dans \(L\).

Étant donné \(K\) un corps et \(P\in K[X]\), on appelle corps de rupture de \(P\) un sur-corps \(L\) de \(K\) dans lequel \(P\) admet une racine \(a\) et tel que \(L=K(a)\).

Étant donné \(K\) un corps et \(P\in K[X]\), on appelle corps de décomposition de \(P\) un sur-corps \(L\) de \(K\) dans lequel \(P\) est scindé et \(L=K(Z)\), avec \(Z\) l’ensemble des zéros de \(P\) dans \(L\).

Étant donné \(K\) un corps, on appelle clôture algébrique de \(K\) une extension de \(K\) algébriquement close et dont tous les éléments sont algébriques sur \(K\).
En savoir plus
Différentes extensions de corps
[ Definition ]

Si \(L\) est une extension du corps \(K\), alors un élément \(a\) de \(L\) est dit algébrique sur \(K\) s’il existe un polynôme \(P\) à coefficients dans \(K\) tel que \(P(a)=0\). Un nombre réel est souvent dit simplement algébrique s’il est algébrique sur \(\mathbb{Q}\). L’ensemble des éléments de \(L\) algébriques sur \(K\) est appelée extension algébrique de \(K\) dans \(L\).

Etant donné \(K\) un corps et \(P\in K[X]\), on appelle corps de rupture de \(P\) un sur-corps \(L\) de \(K\) dans lequel \(P\) admet une racine \(a\) et tel que \(L=K(a)\).

Etant donné \(K\) un corps et \(P\in K[X]\), on appelle corps de décomposition de \(P\) un sur-corps \(L\) de \(K\) dans lequel \(P\) est scindé et \(L=K(Z)\), avec \(Z\) l’ensemble des zéros de \(P\) dans \(L\).

Etant donné \(K\) un corps, on appelle clôture algébrique de \(K\) une extension de \(K\) algébriquement close et dont tous les éléments sont algébriques sur \(K\).
En savoir plus
différentiable
[ Definition ]
Soient \(E\) et \(F\) des espaces vectoriels normés et \(U\) un ouvert de \(E\). Soit une application \(f:U\rightarrow F\), on dit que \(f\) est différentiable (ou dérivable) en \(x \in U\) s’il existe une application linéaire continue \(\phi\) de \(E\) dans \(F\) telle que \[lim_{h \rightarrow 0} \frac{f(x+h)-f(x)-\phi(h)}{\parallel h \parallel} = 0\] On appelle \(\phi\) la différentielle ou dérivée de \(f\) en \(x\), on la note \(Df(x)\). \(f\) est dite différentiable si elle est différentiable en tout point de \(U\). Si \(E\) est euclidien, on appelle gradient de \(f\) en \(x\), lorsque \(Df(x)\) existe et lorsque \(F\) est un espace vectoriel réel de dimension \(1\) le vecteur \(\nabla f_x\) tel que \(Df(x)(u)=<\nabla f_x| u>\).
En savoir plus
différentiable en \(x\in U\) suivant la direction \(u\in E\)
[ Definition ]
Soit \(f\) une application d’un ouvert \(U\) d’un espace vectoriel normé \(E\) dans un espace vectoriel normé \(F\), alors \(f\) est dite différentiable en \(x\in U\) suivant la direction \(u\in E\) si l’application \(g:\mathbb{R}\to F\) \(t \mapsto f(x+tu)\) est différentiable en \(0\). La différentielle de \(g\) en \(0\) est alors appelée différentielle de \(f\) en \(x\) suivant \(u\).
En savoir plus
Différentielle
[ Definition ]
Soit \(f : U \mapsto \mathbb{R}\) une fonction de classe \(\mathcal{C}^{1}\) et \(M_0 = (x_0, y_0) \in U\) un point. On définit la forme linéaire : \[{\mathrm{d}f}_{M_0}: \left\{ \begin{array}{ccl} \mathbb{R} [2] & \longrightarrow & \mathbb{R} \newline (h,k) & \longmapsto & h\dfrac{\partial f}{\partial x}(x_0,y_0) + k \dfrac{\partial f}{\partial y}(x_0, y_0) \end{array} \right.\] C’est la différentielle de la fonction \(f\) au point \(M_0\).
En savoir plus
Différentielle de fonctions composées
[ Théorème ]
Soit \(E\),\(F\) et \(G\) des espaces vectoriels normés , et \(U\) et \(V\) des ouverts de \(E\) et \(F\) respectivement. Si \(f\) de \(U\) dans \(V\) est différentiable en \(x\) et \(g\) de \(V\) dans \(G\) est différentiable en \(f(x)\), alors la composée \(g \circ f\) est différentiable en \(x\) et a pour différentielle \[D(g \circ f)(x)=Dg(f(x))\circ Df(x)\] Si \(g\) et \(f\) sont \(C^1\) alors \(g \circ f\) est \(C^1\).
En savoir plus
dilatation affine d’hyperplan \(H\)
[ Definition ]
Étant donné \(X\) un espace affine , \(H\) un hyperplan affine, \(D\) une droite affine supplémentaire de \(H\), et \({\lambda}\) un scalaire non nul, on appelle dilatation affine d’hyperplan \(H\), de direction \(D\) et de rapport \({\lambda}\) l’application dont la restriction au vectorialisé de \(H\) en \(H \cap D\) est l’identité, et dont la restriction au vectorialisé de \(D\) en \(H \cap D\) est une homothétie de rapport \({\lambda}\).
En savoir plus
dilatation d’hyperplan \(H\)
[ Definition ]
Soit \(H\) un hyperplan d’un espace vectoriel \(E\), et \(D\) une droite supplémentaire de \(H\). On appelle dilatation d’hyperplan \(H\), de direction \(D\) et de rapport \({\lambda}\) l’application linéaire dont la restriction à \(H\) est l’identité et dont la restriction à \(D\) est l’homothétie de rapport \({\lambda}\). Soit \(H\) un hyperplan d’un espace vectoriel \(E\), et \(h\) une forme linéaire de noyau \(H\). On appelle transvection d’hyperplan \(H\) une application de \(E\) dans \(E\) de la forme \[x \mapsto x+ h(x).u\] pour un certain \(u\) dans \(H\).
En savoir plus
Dimension du sous-espace des matrices diagonales et du sous-espace des matrices triangulaires
[ Proposition ]
  1. Le sous-ensemble des matrices scalaire de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est un sous-espace vectoriel de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) de dimension \(1\).

  2. Le sous-ensemble des matrices diagonales \(\mathcal{D}_n\left(\mathbb{K}\right)\) de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est un sous-espace vectoriel de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) de dimension \(n\).

  3. Le sous-ensemble des matrices triangulaires supérieures \(\mathcal{T}_n\left(\mathbb{K}\right)\) de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) est un sous-espace vectoriel de \(\mathfrak{M}_{n}\left(\mathbb{K}\right)\) de dimension \(\dfrac{n\left(n+1\right)}{2}\).

En savoir plus
discriminant
[ Definition ]
Étant donnés \(P\) et \(Q\) deux polynômes de \(\mathbb{K}[X]\), on appelle résultant de \(P\) et \(Q\) le déterminant de la matrice carré suivante de type \(p+q\times p+q\) avec \(p\) et \(q\) les degrés de \(P\) et \(Q\):

\[\left( \begin{array}{cccccccccccccc} P_0 & 0 & 0 & 0 & \dots & 0 & Q_0 & 0 & 0 & 0 & \dots & 0 & 0 & 0 \\ P_1 & P_0 & 0 & 0 & \dots & 0 & Q_1 & Q_0 & 0 & 0 & \dots & 0 & 0 & 0 \\ P_2 & \dots & P_0 & 0 & \dots & 0 & Q_2 & Q_1 & Q_0 & 0 \dots & 0 & 0 & 0\\ P_3 & \dots &\ddots & \ddots & \ddots & 0 & Q_3 & \dots & \ddots & \ddots & \ddots & \ddots & 0 & 0 \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & Q_{q-2} & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & Q_{q-1} & Q_{q-2} & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & Q_q & Q_{q-1} & Q_{q-2} & \vdots & \vdots & \vdots & \vdots & \vdots \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & 0 & Q_q & Q_{q-1} & Q_{q-2} & \vdots & \vdots & \vdots & \vdots \\ P_p & P_{p-1} & \vdots & \vdots & \vdots & \vdots & 0 & \ddots & \ddots & \ddots & \ddots & \vdots & \vdots & \vdots \\ 0 & P_p & \ddots & \ddots & \ddots & \ddots & 0 & \ddots & 0 & Q_q & \ddots & \ddots & \ddots & \ddots \\ 0 & 0 & P_p & \ddots & \ddots & \ddots & 0 & \ddots & 0 & 0 & \ddots & \ddots & \ddots & \ddots \\ 0 & \dots & 0 & P_p & \ddots & \ddots & 0 & \ddots & 0 & 0 & \ddots & \ddots & \ddots & \ddots \\ 0 & \dots & 0 & 0 & P_p & \ddots & \ddots & 0 & \ddots & 0 & \ddots & \ddots & Q_q & Q_{q-1} \newline 0 & \dots & \dots & \dots & \dots & P_p & 0 & \dots & \dots & \dots & \dots & \dots & 0 & Q_q \end{array} \right)\]

avec \(\displaystyle P=\sum_{k=0}^p P_p X^k\) et \(Q=\sum_{k=0}^q Q_q X^k\).

On appelle discriminant d’un polynôme \(P\) le résultant de \(P\) et de \(P'\) son polynôme dérivé.1
En savoir plus
Distance associée
[ Definition ]
Étant donnée une norme on définit une distance associée par \[d(x,y)=\parallel x - y \parallel\]
En savoir plus
Distance dans un connexe ouvert d’un \(\mathbb{R}\)-espace vectoriel normé
[ Proposition ]
Soit \(U\) un ouvert connexe d’un \(\mathbb{R}\)-espace vectoriel normé . Si on note \(d(x,y)\) l’inf des longueurs des lignes brisées joignant \(x\) à \(y\), alors \(d\) est une distance et définit la même topologie que la norme.
En savoir plus
distance de Grassman
[ Definition ]
Cette distance est appelée distance de Grassman.
En savoir plus
distance de \(x\) à \(E\)
[ Definition ]
Soit \(H\) un espace de Hilbert, et \(E\) une partie convexe fermée non vide de \(H\). Alors étant donné \(x\) appartenant à \(H\) on appelle distance de \(x\) à \(E\) et on note \(d(x,E)\) le mombre \[d(x,E)=\inf_{z\in E}{\parallel}x-z {\parallel}.\] On appelle alors projeté de \(x\) sur \(E\) un élément \(y\) de \(E\) tel que \({\parallel}x-y {\parallel}\) soit minimal, c’est-à-dire \(y\in E\) est tel que \({\parallel}x-y{\parallel}=d(x,E)\). Un isomorphisme d’espaces de Hilbert est un isomorphisme entre les espaces vectoriels sous-jacents qui préserve la norme et le produit scalaire.
En savoir plus
Distance d’un point à une droite
[ Proposition ]
Soit \(\mathscr D\) une droite de l’espace passant par le point \(P\) et de vecteur directeur \(\overrightarrow{u}\). Soit \(A\) un point de l’espace et \(H\) son projeté orthogonal sur \(\mathscr D\) (\(H\) est l’unique point de \(\mathscr D\) tel que les vecteurs \(\overrightarrow{AH}\) et \(\overrightarrow{u}\) sont orthogonaux). On appelle distance de \(A\) à \(\mathscr D\) la distance \(AH\). C’est la plus petite distance de \(A\) à un point de \(\mathscr D\). Elle est notée \(d\left(A,\mathscr D\right)\).
En savoir plus
Distance d’un point à une droite
[ Definition ]
Soit \(D\) une droite et \(M\) un point du plan. On appelle distance de \(M\) à \(D\) et on note \(d(M,D)\) la plus petite distance entre \(M\) et un point de \(D\).
En savoir plus
Distance d’un point à un plan
[ Proposition ]
Soit \(\mathscr P\) un plan affine de vecteur normal \(\overrightarrow{n}\). Soit \(M\) un point de l’espace et \(H\) son projeté orthogonal sur \(\mathscr P\). On appelle distance du point \(M\) au plan \(\mathscr P\) la distance \(MH\). On la note : \(d\left(M,\mathscr P\right)\). C’est la plus petite distance du point \(M\) à un point \(A\) de \(\mathscr P\) : \[\forall A\in\mathscr P,\quad d\left(M,\mathscr P\right) = HM \leqslant AM.\]
En savoir plus
Distance d’un point à un plan quand le plan est donné par une équation cartésienne
[ Théorème ]
On rapporte le plan à un repère orthonormal \(\mathscr R\). Soient \(\mathscr P\) un plan d’équation cartésienne \(ax+by+cz+d=0\) et \(M\left(x_M,y_M,z_M\right)\) un point de l’espace. On a \[\boxed{d\left(M,\mathscr P\right) = \dfrac{\left|ax_M+by_M+cz_M+d\right|}{\sqrt{a^2+b^2+c^2}}}\]
En savoir plus
Distance d’un point à un plan quand le plan est donné par un point et deux vecteurs directeurs
[ Théorème ]
Soit \(\mathscr P\) un plan défini passant par un point \(A\), engendré par les vecteurs \(\overrightarrow{u}\) et \(\overrightarrow{v}\) et de vecteur normal \(\overrightarrow{n}\). Soit \(M\) un point de l’espace. On a \[\boxed{d\left(M,\mathscr P\right) =\dfrac{\left|{\overrightarrow{n}}\cdot \overrightarrow{AM}\right|}{\left\|\overrightarrow{n}\right\|}= \dfrac{\left|\left(\overrightarrow{u} \wedge \overrightarrow{v}\right)\cdot \overrightarrow{AM}\right|}{\left\|\overrightarrow{u} \wedge \overrightarrow{v}\right\|} = \dfrac{\left|\mathop{\rm det}\left(\overrightarrow{u},\overrightarrow{v},\overrightarrow{AM}\right)\right|}{\left\|\overrightarrow{u} \wedge \overrightarrow{v}\right\|}}\]
En savoir plus
Distance entre deux droites non parallèles
[ Proposition ]
Soient \(\mathscr D\) et \(\mathscr D'\) deux droites non parallèles. Soient \(\Delta\) la perpendiculaire commune à ces deux droites, \(H\) le point d’intersection de \(\Delta\) avec \(\mathscr D\) et \(H'\) le point d’intersection de \(\Delta\) avec \(\mathscr D'\). Pour tout points \(M\) de \(\mathscr D\) et \(M'\) de \(\mathscr D'\), on a : \[d\left(H,H'\right) \leqslant d\left(M,M'\right)\] avec égalité si et seulement si \(H=M\) et \(H'=M'\). La distance \(d\left(H,H'\right)\) est appelée distance de \(\mathscr D\) à \(\mathscr D'\) et se note \(d\left(\mathscr D,\mathscr D'\right)\).
En savoir plus
Distance entre deux réels
[ Definition ]
Soit \(\left(x,y\right)\) un couple de réels. On appelle distance de \(x\) à \(y\) la quantité, notée \(d\left(x,y\right)\) et donnée par : \(d\left(x,y\right)=\left|x-y\right|\).
En savoir plus
Distance sur \(C^k(\Omega)\)
[ Definition ]

On définit maintenant \(K_m\) comme étant l’intersection de la boule \(\overline B(0,m)\) et de \(\{ x ; d(x,\Omega^c)\geq \frac 1m\}\). On définit ensuite \(N_m(f)\), pour \(f\) dans \(C^k(\Omega)\) par \(N_m(f)=\sum_{\nu \in \mathbb{N}^d/|\nu|\leq k} sup_{K_m} |\partial^\nu f(x)|\).

On définit ensuite sur \(C^k(\Omega)\) la distance:

\[d(f,g)=\sum_{m>0} \frac{1}{2^m} \frac{N_m(f-g)}{1+N_m(f-g)}\]
En savoir plus
distingué
[ Definition ]
Deux sous-groupes \(A\) et \(B\) de \(G\) sont dits conjugués s’il existe \(g\in G\) tel que \(A=g.B.g^{-1}\).

Étant donné \(H\) sous-groupe de \(G\), le normalisateur de \(H\) est \(N_G(H)=\{g \in G ; gHg^{-1}=H\}\).

Un sous-groupe \(N\) est dit distingué (ou normal) si pour tout \(g\in G\) \(gNg^{-1}=N\); on note \(N \vartriangleleft\shortmid G\). Cela signifie qu’il est stable par tout automorphisme intérieur (définition d’un automorphisme en partie [defautoici]).

Un sous-groupe \(N\) est dit caractéristique si il est stable par tout automorphisme.

Un groupe est dit simple si ses seuls sous-groupes distingués sont \(\{1\}\) et \(G\).

L’ensemble des \(x\) tels que \(x\) commute avec tout élément est appelé le centre d’un groupe. Le centre est un sous-groupe. On note \(Z(G)\) le centre de \(G\).
En savoir plus
Diviseurs de \(0\)
[ Definition ]
  1. Un élément \(a\) est dit diviseur à gauche de \(0\) s’il existe \(b \neq 0\) tel que \(b.a=0\).

    Un élément \(a\) est dit diviseur à droite de \(0\) s’il existe \(b \neq 0\) tel que \(a.b=0\).

    Un élément est dit diviseur de \(0\) s’il est à la fois diviseur à gauche de \(0\) et diviseur à droite de \(0\).

    Un anneau est dit sans diviseur de \(0\) s’il n’admet pas de diviseur à gauche de \(0\) ou de diviseur à droite de \(0\) autre que \(0\) lui-même.

  2. Un anneau est dit intègre si:

    \(\bullet\)il est de cardinal \(>1\)

    \(\bullet\)il est commutatif

    \(\bullet\)il est sans diviseur de \(0\)

  3. Un élément \(a\) est dit nilpotent s’il existe \(n\in \mathbb{N}\) tel que \(a^n=0\). On appelle alors indice de nilpotence de \(a\) le plus petit \(n\) convenable non nul.

En savoir plus
Divisibilité
[ Definition ]
Soient deux polynômes \(A\), \(B\in\mathbb{K}\left[X\right]\). On dit que \(A\) divise \(B\) si et seulement si il existe \(Q\in \mathbb{K}\left[X\right]\) tel que \(B=QA\). On le note \(A|B\) .
En savoir plus
Divisibilité
[ Definition ]
Soient deux entiers relatifs \((a,b)\in \mathbb{Z}^{2}\). On dit que l’entier \(a\) divise l’entier \(b\) si et seulement si il existe \(k\in \mathbb{Z}\) tel que \(b=ka\).
En savoir plus
divisible
[ Definition ]
Soient \(a,b\in{ \mathbb Z}\). On dit que \(a\) est divisible par \(b\) s’il existe \(q\in{ \mathbb Z}\) tel que \(a=q\,b\). Dans ce cas, on dit aussi que \(a\) est multiple de \(b\), que \(b\) divise \(a\) ou que \(b\) est diviseur de \(a\). On écrit \(b|a\).
En savoir plus
division euclidienne
[ Corollaire ]
Soient \(a\in{ \mathbb Z}\) et \(b\in{ \mathbb Z}\setminus \{0\}\). Alors il existe \(q\in{ \mathbb Z}\) et \(r\in\{0,1,\ldots, |b|-1\}\) tels que \[a=qb+r.\] En outre, \(q\) et \(r\) sont uniques.
En savoir plus
Division euclidienne
[ Théorème ]
Soient \(A\), \(B\in\mathbb{K}\left[X\right]\) deux polynômes. On suppose que \(B\neq 0\). Alors il un couple \(\left(Q,R\right)\) de polynômes de \(\mathbb{K}\left[X\right]\) vérifiant : \[\boxed{\begin{cases} \quad 1\quad A=BQ+R\newline \quad 2 \quad \deg\left(R\right) < \deg\left(B\right) \end{cases}}.\]
En savoir plus
Division euclidienne
[ Théorème ]
Soient \(A\) et \(B\) deux polynômes, avec \(coef(B)\) inversible. Alors \[\exists (Q,R) \mbox{ polynômes } / A=B.Q+R\] \[\mbox{avec }deg\ R < deg\ B\]
En savoir plus
Division Euclidienne
[ Théorème ]
Soient deux entiers \((a,b)\in \mathbb{Z} \times \mathbb{N}\) avec \(b\neq 0\). Alors il existe un \((q,r)\in \mathbb{Z}\times \mathbb{N}\) tel que :
  1. \(a=bq+r\)

  2. \(0 \leqslant r < b\)

On dit que l’entier \(q\) est le quotient et l’entier \(r\) le reste de la division euclidienne de \(a\) par \(b\).
En savoir plus
Division selon les puissances croissantes
[ Théorème ]
Soient \(A\) et \(B\) deux polynômes à coefficients dans \(\mathbb{K}\). On suppose que le terme constant de \(B\) n’est pas nul et on note \(p\) un entier supérieur ou égal au degré de \(B\). Il existe un unique couple de polynômes \((Q, R)\) tels que \(A = BQ + X^{p+1}R\) et \(\deg Q \leqslant p\).
En savoir plus
Division suivant les puissances croissantes
[ Théorème ]

Soit \(n\in \mathbb{N}\), \(C\) et \(D\) des polynômes à une indéterminée sur un même anneau \(A\) commutatif et unitaire. On suppose que \(D(0)\) (en tant qu’élément de \(A\)), est inversible. Alors il existe deux polynômes \(Q\) et \(R\) vérifiant

  • \(C=DQ+X^{n+1}R\),

  • \(\deg Q \leq n\),

\(Q\) et \(R\) sont appelés respectivement quotient et reste de la division suivant les puissances croissantes de \(C\) par \(D\) à l’ordre \(n\).

En savoir plus
DL classiques à partir de Taylor-Young
[ Proposition ]
On obtient les DL classiques suivants en \(0\) en calculant les dérivées successives en \(0\) et en appliquant la formule de Taylor-Young.
  • Fonctions exponentielle et hyperboliques : \[\begin{aligned} e^x &=& 1+x+\dfrac{x^2}{2!}+\dfrac{x^3}{3!}+\cdots+\dfrac{x^n}{n!} +\underset{x \rightarrow 0}{o}\left(x^n\right)\\ \mathop{\mathrm{ch}}x &=& 1+\dfrac{x^2}{2!}+\dfrac{x^4}{4!}+\cdots+\dfrac{x^{2n}}{\left(2n\right)!} +\underset{x \rightarrow 0}{o}\left(x^{2n+1}\right)\\ \mathop{\mathrm{sh}}x &=& x+\dfrac{x^3}{3!}+\dfrac{x^5}{5!}+\cdots+\dfrac{x^{2n+1}}{\left(2n+1\right)!} +\underset{x \rightarrow 0}{o}\left(x^{2n+2}\right) \end{aligned}\]

  • Fonctions trigonométriques : \[\begin{aligned} \cos x &=& 1-\dfrac{x^2}{2!}+\dfrac{x^4}{4!}-\cdots+\left(-1\right)^n\dfrac{x^{2n}}{\left(2n\right)!} +\underset{x \rightarrow 0}{o}\left(x^{2n+1}\right)\\ \sin x &=& x-\dfrac{x^3}{3!}+\dfrac{x^5}{5!}-\cdots+ \left(-1\right)^n\dfrac{x^{2n+1}}{\left(2n+1\right)!}+\underset{x \rightarrow 0}{o}\left(x^{2n+2}\right) \end{aligned}\]

  • Fonction logarithme : \[\begin{aligned} \ln\left(1+x\right) &=& x-\dfrac{x^2}{2}+\dfrac{x^3}{3}-\cdots+\left(-1\right)^{n+1}\dfrac{x^n}{n} +\underset{x \rightarrow 0}{o}\left(x^n\right)\newline \ln\left(1-x\right) &=& -\left( x+\dfrac{x^2}{2}+\dfrac{x^3}{3}+\cdots+\dfrac{x^n}{n} \right) +\underset{x \rightarrow 0}{o}\left(x^n\right) \end{aligned}\]

  • Fonction \(x\mapsto \left(1+x\right)^\alpha\) avec \(\alpha\in \mathbb{R}\) : \[\begin{aligned} \left(1+x\right)^\alpha &=& 1+\alpha x+\cdots+ \dfrac{\alpha\left(\alpha-1\right)\cdots\left(\alpha-n+1\right)}{n!}x^n+\underset{x \rightarrow 0}{o}\left(x^n\right) \end{aligned}\]

En savoir plus
DL de \(\dfrac{1}{1-x}\)
[ Théorème ]
La fonction \[f: \left\{ \begin{array}{ccl} \mathbb{R}\setminus \left\{1\right\} & \longrightarrow & \mathbb{R} \newline x & \longmapsto & \dfrac{1}{1-x} \end{array} \right.\] admet, pour tout \(n\in\mathbb{N}\) un DL à l’ordre \(n\) en \(0\) et on a \[\forall x\in \mathbb{R}\setminus \left\{1\right\},\quad \boxed{\dfrac{1}{1-x} = 1+x+x^2+\cdots+x^n+\underset{x \rightarrow 0}{o}\left(x^n\right)}\]
En savoir plus
Dl d’ordre \(1\)
[ Théorème ]
Soit \(f : U\subset \mathbb{R}^2 \mapsto \mathbb{R}\) de classe \(\mathcal{C}^{1}\) sur l’ouvert \(U\) et \(M_0=(x_0,y_0) \in U\). Alors il existe une fonction \(\varepsilon: V \subset \mathbb{R}^2 \rightarrow \mathbb{R}\) définie sur un voisinage \(V\) de \(\left(0,0\right)\) telle que :
  1. Pour tout accroissement \(\overrightarrow{H} = (h,k)\in \mathbb{R}^2\) tel que \(M_0+\overrightarrow{H} \in U\), on a : \[\boxed{f(x_0+h, y_0+k) = f(x_0,y_0) +h \dfrac{\partial f}{\partial x}(x_0,y_0) + k\dfrac{\partial f}{\partial y}(x_0,y_0) + \left\|(h,k)\right\|\varepsilon(h,k) }\]

  2. \(\varepsilon(h,k)\xrightarrow[(h,k)\rightarrow (0,0)]{}0\)

On dit alors que \(f\) admet un développement limité d’ordre \(1\) en \(M_0\).
En savoir plus
DL et dérivabilité
[ Théorème ]
Soit une fonction \(f : I \mapsto \mathbb{R}\) définie sur \(]0, \alpha]\). On suppose que
  1. La fonction \(f\) admet un DL à l’ordre \(1\) en \(0\) \(f(x) = a_0 + a_1 x + \underset{x \rightarrow 0}{o}\left(x\right)\)

Alors la fonction \(f\) se prolonge en une fonction \[\widetilde f : \left\{ \begin{array}{ccl} [0, \alpha] & \longrightarrow & \mathbb{R} \\ x & \longmapsto & \begin{cases} f(x) & \textrm{ si } x \neq 0 \newline a_0 & \textrm{ si } x = 0 \end{cases} \end{array} \right.\] dérivable en \(0\) avec \(\widetilde f'(0) = a_1\).
En savoir plus
Domaine de définition de \(f * g\)
[ Théorème ]

\(\bullet\)Si \(f\) et \(g\) sont \(L^1\) alors \(f*g\) est \(L^1\) et définie presque partout, et \({\parallel}fg {\parallel}_1 \leq {\parallel}f {\parallel}_1 \ {\parallel}g {\parallel}_1\).

\(\bullet\)Si \(f\) est \(L^\infty\) et \(g\) \(L^1\) alors \(f*g\) est \(L^\infty\) et définie partout.

\(\bullet\)Si \(f\) est bornée sur tout compact (par exemple, \(f\) continue) et si \(g\) est \(L^1\) à support compact alors \(f*g\) est définie partout.
En savoir plus
droite affine
[ Definition ]
  • Soit \(\overrightarrow{u}\) un vecteur non nul de l’espace. On appelle droite vectorielle engendrée (ou dirigée) par \(\overrightarrow{u}\) l’ensemble \(D\) des vecteurs de l’espaces colinéaires à \(\overrightarrow{u}\) : \[D=\left\{\overrightarrow{v}\in\mathscr V ~|~ \exists \lambda \in\mathbb{R}: \quad \overrightarrow{v} = \lambda \overrightarrow{u}\right\}\]

  • Soient \(A\) un point et \(\overrightarrow{u}\) un vecteur de l’espace. La droite affine passant par le point \(A\) et de vecteur directeur \(\overrightarrow{u}\) est l’ensemble \(\mathscr D\) des points \(M\) de l’espace tel que les vecteurs \(\overrightarrow{AM}\) et \(\overrightarrow{u}\) sont colinéaires : \[\mathscr D=\left\{M \in \mathscr E ~|~ \exists \lambda \in\mathbb{R}: \quad \overrightarrow{AM} = \lambda \overrightarrow{u}\right\}\]

En savoir plus
Droite affine
[ Definition ]
Soit \(A\) un point du plan \(\mathscr P\) et \(\overrightarrow{u}\) un vecteur non nul de \(\mathscr V\). La droite \(D\) passant par \(A\) et dirigée par \(\overrightarrow{u}\) est l’ensemble des points du plan de la forme \(A+\lambda \overrightarrow{u}\)\(\lambda\) est réel. \[D=\{A+\lambda \overrightarrow{u}~\mid~\lambda \in \mathbb{R}\} = A + \mathop{\mathrm{Vect}}(\overrightarrow{u}).\] Un vecteur non nul de \(\mathscr V\) est un vecteur directeur de la droite donnée par le couple \((A,\overrightarrow{u})\) si il est colinéaire à \(\overrightarrow{u}\).
En savoir plus
Droite asymptote
[ Definition ]
Soit \((I,\overrightarrow{F})\) un arc paramétré possédant une branche infinie en \(t_0\in I\). On dit que la droite \(\mathscr D\) est asymptote à l’arc \((I,\overrightarrow{F})\) en \(t_0\) si \(d(M(t), \mathscr D) \xrightarrow[t \rightarrow t_0]{} 0\).
En savoir plus
droite de Simson
[ Definition ]
On appelle polygone régulier de \(\mathbb{R}^2\) l’orbite d’un vecteur non nul sous l’action d’un sous-groupe fini de \(O_2^+(\mathbb{R})\).
En savoir plus
droite de Simson
[ Definition ]
On appelle polygone régulier de \(\mathbb{R}^2\) l’orbite d’un vecteur non nul sous l’action d’un sous-groupe fini de \(O_2^+(\mathbb{R})\).
En savoir plus
Droite de Simson
[ Definition ]
Cette équation est donc l’équation d’une droite, appelée droite de Simson.
En savoir plus
droite numérique achevée
[ Definition ]
On appelle droite numérique achevée et on note \(\overline{\mathbb{R}}\) l’ensemble totalement ordonné \(\mathbb{R}\cup\{-\infty,+\infty\}\), avec \(+\infty\) plus grand élément et \(-\infty\) plus petit élément (le reste de l’ordre étant l’ordre usuel). On étend les définitions de segments et d’intervalles à \(\overline{\mathbb{R}}\).
En savoir plus
Droite numérique achevée
[ Definition ]
On appelle droite numérique achevée l’ensemble, noté \(\overline{R}\) obtenu en ajoutant deux éléments à \(\mathbb{R}\) : \(\overline{R} = \mathbb{R}\cup \left\{-\infty,+\infty\right\}\)
En savoir plus
Droites orthogonales
[ Definition ]
  • Deux droites affines de l’espace sont orthogonales si et seulement si leurs vecteurs directeurs le sont.

  • Deux droites affines de l’espace sont perpendiculaires si et seulement si elles sont à la fois sécantes et orthogonales.

En savoir plus
Droites parallèles
[ Definition ]
On dit que :
  • deux droites sont parallèles si leurs vecteurs directeurs sont colinéaires.

  • deux droites sont orthogonales (ou perpendiculaires) si leurs vecteurs directeurs sont orthogonaux.

En savoir plus
droites perpendiculaires
[ Definition ]
  • Deux droites affines de l’espace sont orthogonales si et seulement si leurs vecteurs directeurs le sont.

  • Deux droites affines de l’espace sont perpendiculaires si et seulement si elles sont à la fois sécantes et orthogonales.

En savoir plus
Droite vectorielle
[ Definition ]
Soit \(\overrightarrow{u}\) un vecteur non nul du plan. On appelle droite vectorielle dirigée par \(\overrightarrow{u}\) le sous-ensemble de \(\mathscr V\), noté \(Vect\left(\overrightarrow{u}\right)\), des vecteurs du plan colinéaires à \(\overrightarrow{u}\). \[Vect\left(\overrightarrow{u}\right)=\left\{\lambda \overrightarrow{u} ~|~ \lambda\in\mathbb{R}\right\}\]
En savoir plus
Droite vectorielle
[ Definition ]
  • Soit \(\overrightarrow{u}\) un vecteur non nul de l’espace. On appelle droite vectorielle engendrée (ou dirigée) par \(\overrightarrow{u}\) l’ensemble \(D\) des vecteurs de l’espaces colinéaires à \(\overrightarrow{u}\) : \[D=\left\{\overrightarrow{v}\in\mathscr V ~|~ \exists \lambda \in\mathbb{R}: \quad \overrightarrow{v} = \lambda \overrightarrow{u}\right\}\]

  • Soient \(A\) un point et \(\overrightarrow{u}\) un vecteur de l’espace. La droite affine passant par le point \(A\) et de vecteur directeur \(\overrightarrow{u}\) est l’ensemble \(\mathscr D\) des points \(M\) de l’espace tel que les vecteurs \(\overrightarrow{AM}\) et \(\overrightarrow{u}\) sont colinéaires : \[\mathscr D=\left\{M \in \mathscr E ~|~ \exists \lambda \in\mathbb{R}: \quad \overrightarrow{AM} = \lambda \overrightarrow{u}\right\}\]

En savoir plus
d-système
[ Definition ]
\(D\) est un d-système (on dit aussi une classe monotone si

\(\bullet\)\(S \in D\)

\(\bullet\)\(D\) est stable par soustraction (\(A\in D\), \(B\in D\), alors \(A \cap B^c \in D\)).

\(\bullet\)\(D\) est stable par réunion dénombrable croissante
En savoir plus
d-système engendré
[ Definition ]
On appelle d-système engendré par un ensemble de parties de \(X\) l’intersection de tous les d-systèmes contenant \(X\).
En savoir plus
Dual topologique
[ Definition ]
L’espace dual topologique du \(\mathbb{K}\)-espace vectoriel normé \(E\) est l’espace \(E'={\cal L}(E,\mathbb{K})\) des formes linéaires continues.
En savoir plus
du déterminant
[ Proposition ]
Soient \(\overrightarrow{F}\) et \(\overrightarrow{G}\) deux applications définies sur \(I\), dérivables en \(t_0 \in I\) et à valeurs dans \(\mathbb{R}^2\). Alors les applications \[\left<\overrightarrow{F}|\overrightarrow{G}\right>: \left\{ \begin{array}{ccl} I & \longrightarrow & R \\ t & \longmapsto & \left<\overrightarrow{F}(t)|\overrightarrow{G}(t)\right> \end{array} \right. \quad \textrm{ et} \quad\mathop{\rm det}\left({\overrightarrow{F}},{\overrightarrow{G}}\right): \left\{ \begin{array}{ccl} I & \longrightarrow & R \newline t & \longmapsto & \mathop{\rm det}\left({\overrightarrow{F}(t)},{\overrightarrow{G}(t)}\right) \end{array} \right.\] sont dérivables en \(t_0\) et \[\boxed{\left(\left<\overrightarrow{F}|\overrightarrow{G}\right>\right)'(t_0)=\left<\overrightarrow{F}'(t_0)|\overrightarrow{G}(t_0)\right>+\left<\overrightarrow{F}(t_0)|\overrightarrow{G}'(t_0)\right> }\] \[\boxed{\left(\mathop{\rm det}\left(\overrightarrow{F},\overrightarrow{G}\right)\right)'(t_0)=\mathop{\rm det}\left(\overrightarrow{F}'(t_0),\overrightarrow{G}(t_0)\right)+\mathop{\rm det}\left(\overrightarrow{F}(t_0),\overrightarrow{G}'(t_0)\right)}\]
En savoir plus
d’un point
[ Proposition ]
Soit \((O,\overrightarrow{\imath },\overrightarrow{\jmath })\)un repère du plan \(\mathscr P\).
  • Soit \(\overrightarrow{u}\) un vecteur de \(\mathscr V\)et \((\overrightarrow{\imath}, \overrightarrow{\jmath})\) une base de \(\mathscr V\). Il existe un unique couple de réels \((x,y)\) tel que \[\overrightarrow{u}=x\overrightarrow{\imath}+y\overrightarrow{\jmath}.\] Ce couple \((x,y)\) représente les coordonnées ( ou les composantes) du vecteur \(\overrightarrow{u}\) dans la base \((\overrightarrow{\imath}, \overrightarrow{\jmath})\). On notera cela sous une des formes suivantes: \[\overrightarrow{u} (x,y), \quad \overrightarrow{u} \left|\begin{matrix} x \\ y \end{matrix} \right. \quad \textrm{ ou} \quad \overrightarrow{u} \left(\begin{matrix} x \\ y \end{matrix} \right).\]

  • Soit \(M\) un point du plan \(\mathscr P\) et \((O,\overrightarrow{\imath },\overrightarrow{\jmath })\)un repère \(\mathscr R\) de \(\mathscr P\). Il existe un unique couple de réels \((x,y)\) tel que \[\overrightarrow{OM}=x\overrightarrow{\imath}+y\overrightarrow{\jmath}.\] Ce couple \((x,y)\) représente les coordonnées du point \(M\) dans le repère \(\mathscr R\). De même que précédemment, on écrira: \[M (x;y), \quad M \left|\begin{matrix} x \\ y \end{matrix} \right. \quad \textrm{ ou} \quad M \left(\begin{matrix} x \newline y \end{matrix} \right).\]

En savoir plus
d’un vecteur
[ Definition ]
Soit \({\mathcal R}=(O,\overrightarrow{\imath},\overrightarrow{\jmath})\) un repère orthonormal du plan.
  • L’image du nombre complexe \(z=x+i\,y\) est le point du plan de coordonnées \((x,y)\) dans le repère \({\mathcal R}\).

  • L’affixe du point \(M\) de coordonnées \((x,y)\) dans le repère \({\mathcal R}\) est le nombre complexe \(z=x+i\,y\) que l’on notera \(\textrm{ Aff}(M)\).

  • L’ affixe du vecteur \(\overrightarrow{v}=\alpha\,\overrightarrow{\imath}+\beta\,\overrightarrow{\jmath}\) est le complexe \(\alpha+i\,\beta\) que l’on notera \(\textrm{ Aff}(\overrightarrow{u})\).

En savoir plus
Success message!