Lexique mathématique
D
De classe \(C^1\)
[ Definition ]
Soient \(E\) et \(F\) des espaces vectoriels normés et \(U\) ouvert de \(E\). \(f\) de \(U\) dans \(F\) est de classe \(C^1\) si elle est différentiable et si l’application qui à \(x\) associe la différentielle de \(f\) en \(x\) est continue (voir [thetoposurLEF] pour un rappel de la topologie usuelle sur \({\cal L}(E,F)\)).
En savoir plus
De classe \(C^n\)
[ Definition ]
Étant donnée une application \(f\) d’un ouvert \(U\) d’un espace de Banach \(E\) dans un espace de Banach \(F\), on dit que \(f\) est de classe \(C^n\) (on dit aussi \(n\) fois continûment différentiable) si \(f\) est différentiable et si sa différentielle est de classe \(C^{n-1}\). L’application est dite \(C^{\infty}\) si elle est \(C^n\) pour tout \(n\); on dit alors qu’elle est indéfiniment différentiable.
Étant donné une application \(f\) d’un ouvert \(U\) d’un espace de Banach \(E\) dans un espace de Banach \(F\), on note \(\frac{\delta^2f}{\delta x_i\delta x_j}\) l’application \(\frac{\delta\frac{\delta f}{\delta x_j}}{\delta x_i}\).
En savoir plus
On note alors \(f^{(1)}(a)\) l’application \(Df(a)(x)\), et par récurrence \(f^{(n)}(a)\) l’application \(Df^{(n-1)}(a)\).
Étant donné une application \(f\) d’un ouvert \(U\) d’un espace de Banach \(E\) dans un espace de Banach \(F\), on dit que \(f\) est \(n\) fois différentiable en \(x\) appartenant à \(U\) si et seulement si \(f\) est de classe \(C^{n-1}\) sur un voisinage de \(x\) et si la \(n\)-ième différentielle de \(f\) sur ce voisinage est différentiable en \(a\).
De classe \(\mathcal{C}^{k}\)
[ Definition ]
Décomposition de Cholesky
[ Théorème ]
On appelle décomposition de Cholesky ou décomposition \(A=^t\!\!RR\), un produit de la forme \(A=^tRR\), avec \(R\) triangulaire inférieure inversible.
\(A\) admet une décomposition de Cholesky si et seulement si \(A\) est symétrique définie positive.
En savoir plus
Décomposition de Cholesky
[ Théorème ]
On appelle décomposition de Cholesky ou décomposition \(A=^t\!\!RR\), un produit de la forme \(A=^tRR\), avec \(R\) triangulaire inférieure inversible.
\(A\) admet une décomposition de Cholesky si et seulement si \(A\) est symétrique définie positive.
Décomposition de Jordan
[ Proposition ]
Si \(f\) est un endomorphisme d’un espace vectoriel de dimension finie dont le polynôme caractéristique \(\chi_f\) est scindé (ce qui est automatique si \(\mathbb{K}=\mathbb{C}\) par exemple), alors il existe une base de \(E\) dans laquelle la matrice de \(f\) est de la forme \[\left( \begin{array}{cccc}
\widetilde{M}_1 & 0 & \dots & 0 \\
0 & \widetilde{M}_2& \ddots & \vdots \\
\vdots & \ddots & \ddots & 0 \\
0 & \dots & 0 & \widetilde{M}_l
\end{array}\right)\]
Notons qu’aux « changements de bloc » (passage de \({\lambda}_i\) à \({\lambda}_{i+1}\)) on a un 0 sur la sur-diagonale au dessus du premier \({\lambda}_{i+1}\), i.e. à droite du dernier \({\lambda}_i\).
En savoir plus
Il s’agit donc d’une matrice triangulaire supérieure, dont les seuls termes non nuls sont les \({\lambda}_i\) sur la diagonale, et des 0 et des 1 sur la sur-diagonale.
Décomposition des rotations
[ Théorème ]
Soit
\(E\) un espace euclidien orienté de
dimension \(2\).
En savoir plus
Décomposition d’une permutation en produit de cycles à supports disjoints
[ Théorème ]
Soit une permutation \(\sigma \in \mathfrak{S}\left(E\right)\). Elle se décompose en un produit fini de cycles de supports disjoints qui commutent deux à deux.
En savoir plus
Décomposition en éléments simples
[ Théorème ]
Soit \(\mathbb{K}\) un corps clos (par exemple \(\mathbb{C}\)). Alors toute fraction rationnelle peut s’écrire de manière unique sous la forme suivante: \(\displaystyle P+\sum_{i=1}^n (\sum_{j=1}^{n_i} \frac{{\lambda}_{i,j}}{(X-p_i)^j})\), avec \(P\) un polynôme dans \(\mathbb{K}\), avec les \(n_i\) non nuls, avec les \({\lambda}_{i,j}\in \mathbb{K}\), et les \(p_i\) (les pôles) sont des éléments de \(\mathbb{K}\) deux à deux disjoints.
Toute fraction rationnelle sur le corps des réels peut s’écrire de manière unique sous la forme suivante: \(\displaystyle P+\sum_{i=1}^n(\sum_{j=1}^{n_i} \frac{{\lambda}_{i,j}}{(X-p_i)^j})+\sum_{i=1}^m (\sum_{j=1}^{m_i} \frac{\alpha_iX+ \beta_i}{X^2+\gamma X+ \delta})\) avec les \(p_i\) des réels distincts, les \({\lambda}_i\), \(\alpha_i\), \(\beta_i\) des réels, les \(X^2+\gamma X+\delta\) des polynômes irréductibles \(2\) à \(2\) disjoints.
Décomposition en facteurs premiers
[ Théorème ]
Soit un entier \(n \in \mathbb{N}\setminus \{0, 1\}\). Cet entier \(n\) s’écrit de façon unique de la manière suivante : \[n=p_1^{\alpha_1} \dots p_{m}^{\alpha_m}\] où \(m \in\mathbb{N}^*\), \(p_1<\dots<p_m\) sont \(m\) nombres premiers et où \(\alpha_1,\dots,\alpha_m\in\mathbb{N}^*\). Ce résultat se formule aussi sous la forme suivante : \(n\) s’écrit de manière unique, à l’ordre des facteurs près, comme \[n = \prod_{p \in \mathbb{P}} p^{\nu_p(n)}\] où \(\nu_p(n) \in \mathbb{N}\) est appelé la p-valuation de l’entier \(n\).
En savoir plus
Décomposition en facteurs premiers
[ Théorème ]
Soit \(n\geq 1\) un entier et soit
\(p_1, p_2 \ldots\) la liste des
nombres premiers (exhaustive et sans répétitions). Alors il existe des
entiers \(m_i\in{\mathbb N}\) uniques
et nuls sauf pour un nombre fini d’entre eux tels que \[n=p_1^{m_1} p_2^{m_2} p_3^{m_3} \cdots .\]
En savoir plus
Décomposition en produit de facteurs irréductibles.
[ Théorème ]
Soit \(P\) un polynômes de \(\mathbb{K}\left[X\right]\) non nul. Il existe \(\alpha\in \mathbb{K}^*\), il existe \(m\in\mathbb{N}\), \(v_1,\dots,v_m\in\mathbb{N}^*\), \(m\) polynômes \(P_1,\ldots,P_m\) unitaires, irréductibles et deux à deux distincts tels que \[P = \alpha\prod_{k=1}^m P_k^{v_k}.\] De plus, les \(\alpha, m,v_k\) sont uniques et les \(P_k\) sont uniques à l’ordre près.
En savoir plus
Décomposition en produit semi-direct
[ Proposition ]
Si on a une suite exacte \[{\atop 1 \rightarrow N}{i \atop \rightarrow}{\atop G}{s \atop
\rightarrow}{\atop H \rightarrow 1}\] (c’est-à-dire si \(i\) est injective, si \(s\) est surjective, et si \(Ker\ s = Im\ i\)) et si on a un sous-groupe \(\overline H\) de \(G\) sur lequel la restriction de \(s\) est un isomorphisme vers \(H\) (c’est-à-dire un relèvement, une section, voir la partie [sd]), alors \(G\) est isomorphe à \(i(N)
\rtimes \overline H\) relativement à la loi de l’automorphisme intérieur (voir la remarque de [sd]).
On peut donc aussi dire que \(G\) est isomorphe à \(N \rtimes H\), \(i\) étant un isomorphisme de \(N\) sur \(\overline N=i(N)\), et \(s\) étant un isomorphisme de \(\overline H\) sur \(H\).
En savoir plus
Décomposition en transpositions
[ Théorème ]
Toute permutation \(\sigma \in \mathfrak{S}\left(n\right)\) se décompose en un produit fini de transpositions : \[\sigma = \tau_1 \circ \dots \circ \tau_k.\] Il n’y a pas unicité d’une telle décomposition.
En savoir plus
Décomposition \(A=LU\)
[ Théorème ]
Étant donnée une matrice \(A\) supposée inversible, on définit \(a_k=| (A_{i,j})_{i,j\leq k} |\), déterminant de la matrice obtenue en se restreignant aux \(k\) premières lignes et \(k\) premières colonnes.
Alors, il existe une décomposition \(A=LU\) si et seulement si les \(a_k\) sont non nuls pour tout \(k\) dans \([\![1,n]\!]\).
En savoir plus
On appelle décomposition \(A=LU\) un produit du type \(A=LU\) avec \(L\) matrice triangulaire inférieure ne comportant que des \(1\) sur la diagonale, \(U\) matrice triangulaire supérieure.
Décomposition \(A=LU\)
[ Théorème ]
Etant donnée une matrice \(A\) supposée inversible, on définit \(a_k=| (A_{i,j})_{i,j\leq k} |\), déterminant de la matrice obtenue en se restreignant aux \(k\) premières lignes et \(k\) premières colonnes.
Décroissante
[ Definition ]
On dit qu’une suite réelle \(\left(u_n\right)\) est
En savoir plus
Décroissante
[ Definition ]
Soit \(f \in
\mathscr F \left(I,\mathbb{R}\right)\). On dit que :
En savoir plus
De dimension finie
[ Definition ]
Un espace vectoriel est dit de dimension finie lorsqu’il admet une base finie. Dans le cas contraire il est dit de dimension infinie.
Dans un espace fini le cardinal d’une base est appelé dimension de l’espace (pour la cohérence de la définition il faudra voir que toutes les bases ont alors même cardinal). Un sous-espace vectoriel d’un espace vectoriel \(E\) est dit de codimension finie si la dimension de l’espace quotient est finie. On appelle alors codimension de cet espace la dimension de l’espace quotient. Sinon il est dit de codimension infinie. La notion de base a été définie dans la partie [al5b].
En savoir plus
Dans un espace fini le cardinal d’une base est appelé dimension de l’espace (pour la cohérence de la définition il faudra voir que toutes les bases ont alors même cardinal). Un sous-espace vectoriel d’un espace vectoriel \(E\) est dit de codimension finie si la dimension de l’espace quotient est finie. On appelle alors codimension de cet espace la dimension de l’espace quotient. Sinon il est dit de codimension infinie. La notion de base a été définie dans la partie [al5b].
De dimension finie
[ Definition ]
Un espace vectoriel est dit de dimension finie lorsqu’il admet une base finie. Dans le cas contraire il est dit de dimension infinie.
Dans un espace fini le cardinal d’une base est appelé dimension de l’espace (pour la cohérence de la définition il faudra voir que toutes les bases ont alors même cardinal). Un sous-espace vectoriel d’un espace vectoriel \(E\) est dit de codimension finie si la dimension de l’espace quotient est finie. On appelle alors codimension de cet espace la dimension de l’espace quotient. Sinon il est dit de codimension infinie. La notion de base a été définie dans la partie [al5b].
En savoir plus
De direction \(D\) et de rapport \({\lambda}\)
[ Definition ]
Étant donné \(X\) un espace affine , \(H\) un hyperplan affine, \(D\) une droite affine supplémentaire de \(H\), et \({\lambda}\) un scalaire non nul, on appelle dilatation affine d’hyperplan \(H\), de direction \(D\) et de rapport \({\lambda}\) l’application dont la restriction au vectorialisé de \(H\) en \(H \cap D\) est l’identité, et dont la restriction au vectorialisé de \(D\) en \(H \cap D\) est une homothétie de rapport \({\lambda}\).
En savoir plus
De direction \(D\) et de rapport \({\lambda}\)
[ Definition ]
Soit \(H\) un hyperplan d’un espace vectoriel \(E\), et \(D\) une droite supplémentaire de \(H\). On appelle dilatation d’hyperplan \(H\), de direction \(D\) et de rapport \({\lambda}\) l’application linéaire dont la restriction à \(H\) est l’identité et dont la restriction à \(D\) est l’homothétie de rapport \({\lambda}\).
Soit \(H\) un hyperplan d’un espace vectoriel \(E\), et \(h\) une forme linéaire de noyau \(H\). On appelle transvection d’hyperplan \(H\) une application de \(E\) dans \(E\) de la forme \[x \mapsto x+ h(x).u\] pour un certain \(u\) dans \(H\).
En savoir plus
Définition bifocale de l’ellipse et de l’hyperbole
[ Proposition ]
Soient \(a\) et \(c\) deux réels strictement positifs, \(F\) et \(F'\) deux points du plan tels que \(\left\|\overrightarrow{FF'}\right\|=2c\).
En savoir plus
Définition de la distance de Hausdorff
[ Definition ]
On définit tout d’abord: \[V_\epsilon(A)=\{ x ; d(x,A)<\epsilon\}\] \(V_\epsilon(A)\) est appelé \(\epsilon\)-voisinage ouvert de \(A\). Il est ouvert par la proposition [continuitedistance].
Définition de la limite à l’aide des voisinages
[ Proposition ]
Soient \(f\in \mathscr F \left(I,\mathbb{R}\right)\), \(a\in\overline I\) et \(l\in\overline{\mathbb{R}}\). \[f(x) \xrightarrow[x \rightarrow a]{} l \Longleftrightarrow
\forall W\in V_{l},~\exists V \in V_a,~f\left(V\cap I\right)\subset W\]
En savoir plus
Définition des dérivées partielles
[ Proposition ]
Soit \(U\) un ouvert du produit \(E_1 \times E_2\) de deux espaces vectoriels normés , soit \(f : U \rightarrow F\), avec \(F\) espace vectoriel normé , et \(f\) différentiable en \(a=(a_1,a_2)\). Alors les deux applications partielles \(x_1
\mapsto f(x_1,a_2)\) et \(x_2 \mapsto f(a_1,x_2)\) sont différentiables respectivement en \(a_1\) et \(a_2\). On note les deux différentielles obtenues respectivement \(D_1f(a_1,a_2)\) et \(D_2f(a_1,a_2)\), ou bien \(\frac{\delta f}{\delta
x_1}\) et \(\frac{\delta f}{\delta x_2}\), et on les appelle respectivement première dérivée partielle et deuxième dérivée partielle. On a alors \[Df(a_1,a_2)(h_1,h_2)=D_1f(a_1,a_2)(h_1)+D_2f(a_1,a_2)(h_2)\] On peut généraliser de même à un produit fini d’espaces vectoriels normés ; si \(f\) est différentiable en \((a_1,a_2,...,a_n)\), alors pour tout \(i\) dans \(\llbracket 1,n\rrbracket\) \(x \mapsto f(a_1,...,a_{i-1},x,a_{i+1},...,a_n)\) est différentiable en \(a_i\), sa différentielle en \(a_i\) est noté \(\frac{\delta f}{\delta x_i}(a)\), et \[Df(a_1,...,a_n)(h_1,...,h_n)=\sum_{i=1}^n \frac{\delta f}{\delta x_i}(a)(h_i)\]
En savoir plus
Définitions dans le cadre de la réduction en dimension finie
[ Definition ]
\(\bullet\)On appelle polynôme caractéristique d’une matrice carrée \(M\) le polynôme \(det(X.I-M)\).
On note \(\chi_M\) le polynôme caractéristique de la matrice \(M\) et \(\chi_f\) le polynôme caractéristique de l’endomorphisme \(f\).
En savoir plus
\(\bullet\)Le polynôme caractéristique de la matrice d’un endomorphisme en dimension finie (le polynôme caractéristique n’est défini que dans ce cadre là) est indépendant de la base choisie; on l’appelle polynôme caractéristique de cet endomorphisme.
Définitions dans le cas d’un espace vectoriel produit
[ Definition ]
On appelle \(k\)-ième projection canonique d’un espace vectoriel produit \(E_1 \times ... \times E_n\) l’application qui à \(x\) dans le produit associe sa composante dans \(E_k\).
On appelle \(k\)-ième injection canonique d’un espace vectoriel produit \(E_1 \times ... \times E_n\) l’application qui à \(x\) dans \(E_k\) associe \((0,...,0,x,0,...0)\).
En savoir plus
Définitions dans les anneaux intègres
[ Definition ]
\(a\) et \(b\) dans \(A\) anneau intègre sont dits premiers entre eux si \[\forall x \in A\ x|a \mbox{ et } x|b \to x \mbox{ est une unité}\] De même les éléments d’une famille \((a_i)_{i\in [[1,n]]}\) sont dits premiers entre eux si un élément divisant tous les \(a_i\) est nécessairement une unité.
En savoir plus
Définitions de base
[ Definition ]
\(\mathbb{K}\) est un corps ordonné si \(\forall (x,y) \in \mathbb{K}^2\ 0\leq x\land 0\leq y \rightarrow 0 \leq
x+y \land 0 \leq x.y \land -x\leq 0\).
On appelle corps réel un corps commutatif totalement ordonné possédant la propriété de la borne supérieure. On le note \(\mathbb{R}\). On admettra l’unicité à isomorphisme près d’un tel corps (l’existence s’obtient par l’étude du complété de \(\mathbb{Q}\)). Il possède en outre la propriété de la borne inférieure et il est archimédien (preuve laissée en exercice).
En savoir plus
\(\mathbb{K}\) est totalement ordonné si \(\forall (x,y) \in \mathbb{K}^2\ x\leq y\lor y\leq x\).
\(\mathbb{K}\) est archimédien si \(\forall (x,y) \in \mathbb{K}^2\ 0 \leq x\land 0< y \rightarrow \exists n \in \mathbb{N}; x < y + ... + y \mbox{($n$ fois)}\)
\(\mathbb{K}\) a la propriété de la borne supérieure si toute partie non vide majorée de \(\mathbb{K}\) admet une borne supérieure.
Définitions de base
[ Definition ]
On appelle triplet de probabilité ou espace probabilisé un triplet \((\Omega,{\cal F},P)\) où \({\cal F}\) est une tribu sur \(\Omega\) et \(P\) une mesure de probabilité sur \((\Omega,{\cal F})\).
\(\Omega\) est appelé l’univers.
Un élément de \(\Omega\) est appelé possible.
Définitions de base pour les ordinaux
[ Definition ]
On dit qu’un ensemble muni d’une relation d’ordre est bien ordonné si et seulement si toute partie non vide de cet ensemble admet un élément minimum. L’ordre est alors appelé un bon ordre. On appelle segment initial d’une partie bien ordonnée un ensemble de cette partie tel que étant donné un élément de cette partie, tous les éléments qui sont inférieurs à cet élément sont aussi dans la partie. On appelle segment initial engendré par \(x\) l’ensemble des \(y\) plus petits que \(x\); cette partie est clairement un segment initial.
Un ensemble est un ordinal s’il est transitif et bien ordonné par \(\in\), cette relation étant une relation d’ordre strict. On note \(On\) l’ensemble des ordinaux.
En savoir plus
Un ensemble est dit transitif si tout élément de cet ensemble est inclu dans cet ensemble. C’est-à-dire que si \(S \in E\), alors \(S \subset E\) (non, il n’y a pas de faute de frappe!).
Définitions de base sur les matrices
[ Definition ]
On appelle matrice de type \((n,p)\) sur un corps \(\mathbb{K}\) toute application de \([\![1,n]\!]\times [\![1,p]\!]\) (intervalles de \(\mathbb{N}\)) dans \(\mathbb{K}\). On la représente généralement comme suit: \[\left( \begin{array}{cccc}
m_{1,1} & m_{1,2} & \dots & m_{1,p} \\
m_{2,1} & m_{2,2} & \dots & m_{2,p} \\
\vdots & \vdots &\ddots & \vdots \\
m_{n,1} & m_{n,2} & \dots & m_{n,p} \\
\end{array}\right)\] On note \(M_{n,p}(\mathbb{K})\) l’ensemble des matrices de type \((n,p)\) sur le corps \(\mathbb{K}\).
On appelle matrice ligne une matrice de type \((1,p)\), et matrice colonne une matrice de type \((n,1)\).
On appelle matrice extraite d’une matrice de type \((n,p)\) la restriction de cette matrice à \(I \times J\), avec \(I \subset [\![1,n]\!]\) et \(J \subset [\![1,p]\!]\).
On appelle \(i\)-ième vecteur-ligne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \(\{i\}\times [\![1,p]\!]\). On peut identifier un vecteur-ligne à un élément de \(\mathbb{K}^p\).
On appelle \(j\)-ième vecteur-colonne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \([\![1,n]\!] \times \{j\}\). On peut identifier un vecteur-colonne à un élément de \(\mathbb{K}^n\).
On appelle matrice associée à un morphisme \(f\) de l’espace vectoriel \(E\) de dimension \(p\) dans l’espace vectoriel \(F\) de dimension \(n\) et aux bases \(B=(e_i)\) et \(B'=(f_i)\) de \(E\) et \(F\) respectivement la matrice \(M\) de type \((n,p)\) telle que \(M_{i,j}=f_i^*(e_j)\). On la note \(Mat_{B,B'}(f)\).
Inversement, on appelle application linéaire canoniquement associée à la matrice \(M\) le morphisme de \(\mathbb{K}^p\) dans \(\mathbb{K}^n\) dont la matrice associée est \(M\).
En savoir plus
On appelle matrice ligne une matrice de type \((1,p)\), et matrice colonne une matrice de type \((n,1)\).
On appelle matrice extraite d’une matrice de type \((n,p)\) la restriction de cette matrice à \(I \times J\), avec \(I \subset [\![1,n]\!]\) et \(J \subset [\![1,p]\!]\).
On appelle \(i\)-ième vecteur-ligne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \(\{i\}\times [\![1,p]\!]\). On peut identifier un vecteur-ligne à un élément de \(\mathbb{K}^p\).
On appelle \(j\)-ième vecteur-colonne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \([\![1,n]\!] \times \{j\}\). On peut identifier un vecteur-colonne à un élément de \(\mathbb{K}^n\).
On appelle matrice associée à un morphisme \(f\) de l’espace vectoriel \(E\) de dimension \(p\) dans l’espace vectoriel \(F\) de dimension \(n\) et aux bases \(B=(e_i)\) et \(B'=(f_i)\) de \(E\) et \(F\) respectivement la matrice \(M\) de type \((n,p)\) telle que \(M_{i,j}=f_i^*(e_j)\). On la note \(Mat_{B,B'}(f)\).
Inversement, on appelle application linéaire canoniquement associée à la matrice \(M\) le morphisme de \(\mathbb{K}^p\) dans \(\mathbb{K}^n\) dont la matrice associée est \(M\).
Définitions de base sur les matrices
[ Definition ]
On appelle matrice de type \((n,p)\) sur un corps \(\mathbb{K}\) toute application de \([\![1,n]\!]\times [\![1,p]\!]\) (intervalles de \(\mathbb{N}\)) dans \(\mathbb{K}\). On la représente généralement comme suit: \[\left( \begin{array}{cccc}
m_{1,1} & m_{1,2} & \dots & m_{1,p} \\
m_{2,1} & m_{2,2} & \dots & m_{2,p} \\
\vdots & \vdots &\ddots & \vdots \newline
m_{n,1} & m_{n,2} & \dots & m_{n,p}
\end{array}\right)\] On note \(M_{n,p}(\mathbb{K})\) l’ensemble des matrices de type \((n,p)\) sur le corps \(\mathbb{K}\).
Inversement, on appelle application linéaire canoniquement associée à la matrice \(M\) le morphisme de \(\mathbb{K}^p\) dans \(\mathbb{K}^n\) dont la matrice associée est \(M\).
En savoir plus
On appelle matrice ligne une matrice de type \((1,p)\), et matrice colonne une matrice de type \((n,1)\).
On appelle matrice extraite d’une matrice de type \((n,p)\) la restriction de cette matrice à \(I \times J\), avec \(I \subset [\![1,n]\!]\) et \(J \subset [\![1,p]\!]\).
On appelle \(i\)-ième vecteur-ligne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \(\{i\}\times [\![1,p]\!]\). On peut identifier un vecteur-ligne à un élément de \(\mathbb{K}^p\).
On appelle \(j\)-ième vecteur-colonne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \([\![1,n]\!] \times \{j\}\). On peut identifier un vecteur-colonne à un élément de \(\mathbb{K}^n\).
On appelle matrice associée à un morphisme \(f\) de l’espace vectoriel \(E\) de dimension \(p\) dans l’espace vectoriel \(F\) de dimension \(n\) et aux bases \(B=(e_i)\) et \(B'=(f_i)\) de \(E\) et \(F\) respectivement la matrice \(M\) de type \((n,p)\) telle que \(M_{i,j}=f_i^*(e_j)\). On la note \(Mat_{B,B'}(f)\).
Définition \(\epsilon-\delta\) de la continuité
[ Proposition ]
Soit \(f\) application entre espaces métriques; \(f\) est continue en \(x\) si pour tout \(\epsilon\) il existe \(\delta\) tel que \(d(x,x')<\delta \rightarrow d(f(x'),f(x))<\epsilon\)
En savoir plus
Définitions sur les ordres
[ Definition ]
Un ordre est une relation réflexive, antisymétrique, transitive.
Un bon ordre est un ordre tel que toute partie non vide a un minimum.
En savoir plus
Une relation d’ordre strict est une relation \(<\) telle que \(\leq\) définie par \(x \leq y \iff (x=y \lor x < y)\) soit une relation d’ordre, et telle que pour tout \(x\), on a \(\neg (x < x)\).
Un élément \(x\) d’une partie \(E\) est un minimum de cette partie \(E\) si et seulement si \(x \in E\) et si \(\forall e \in E \ e \geq x\).
Un élément \(x\) d’une partie \(E\) est un élément minimal de \(E\) si et seulement si \(x \in E\) et si \(((e \in E) \land (e \leq x)) \rightarrow e=x\).
Un élément \(x\) est dit minorant d’une partie \(E\) si \(\forall e \in E \ e \geq x\); il n’est pas nécessaire que \(x\) soit dans \(E\).
On définit de même maximum, élément maximal, majorant en remplaçant\(\leq\) par \(\geq\).
Degré d’une somme
[ Théorème ]
Soient \(P\), \(Q\in\mathbb{K}\left[X\right]\), on a :
En savoir plus
Degré d’un polynôme
[ Definition ]
Soit un polynôme \(P=a_0+\dots+a_pX^p \in\mathbb{K}\left[X\right]\) avec \(a_p\neq 0\).
En savoir plus
Degré d’un produit
[ Théorème ]
Soient \(P\), \(Q\in\mathbb{K}\left[X\right]\), on a :
En savoir plus
Densité de probabilité de \(X\)
[ Definition ]
Étant donné \(X\) une variable aléatoire , une application \(f_X\) mesurable est appelée une densité de probabilité de \(X\) si et seulement si pour tout borélien \(E\) de \(\mathbb{R}\), on a \(P(X^{-1}(E))=\int_E f_X\).
En savoir plus
Dérivabilité d’une fonction réelle
[ Definition ]
On dit qu’une fonction réelle \(f: I \rightarrow \mathbb{R}\) est dérivable en \(t_0\in I\) si il existe un réel \(l\) tel que : \[{\scriptstyle f(t)-f(t_0)\over\scriptstyle t-t_0}
\xrightarrow[t\rightarrow t_0]{} l\] Dans le cas où cette limite existe, on notera \(f'(t_0)=l\). De plus, on dira que \(f\) est dérivable sur \(I\) si \(f\) est dérivable en tout point \(t\) de \(I\) non situé à une extrémité de \(I\).
En savoir plus
Dérivabilité d’une fonction vectorielle
[ Definition ]
On dit qu’une fonction vectorielle \(\overrightarrow{F} : I \rightarrow \mathbb{R}^2, t \mapsto (x(t),y(t))\) est dérivable en \(t_0\in I\) si il existe \(\overrightarrow{l}=(l_1,l_2)\) un vecteur de \(\mathbb{R}^2\) tel que : \[{\scriptstyle\overrightarrow{F}(t)-\overrightarrow{F}(t_0)\over\scriptstyle t-t_0} \xrightarrow[t\rightarrow t_0]{} \overrightarrow{l}\] Dans le cas où cette limite existe, on note \(\overrightarrow{F}'(t_0)=l\).
En savoir plus
Dérivabilité d’une fonction vectorielle sur un intervalle
[ Definition ]
On dit qu’une fonction vectorielle \(\overrightarrow{F} : I \rightarrow \mathbb{R}^2, t \mapsto (x(t),y(t))\) est dérivable sur \(I\) si \(\overrightarrow{F}\) est dérivable en tout point \(t\) de \(I\) non situé à une extrémité de \(I\).
En savoir plus
Dérivabilité implique continuité
[ Théorème ]
Soient \(f \in \mathscr F \left(I,\mathbb{R}\right)\) et \(a\in I\). Si \(f\) est dérivable en \(a\) alors \(f\) est continue en \(a\).
En savoir plus
Dérivabilité sur un intervalle
[ Definition ]
On dit qu’une fonction \(f\) est dérivable sur \(I\) si et seulement si elle est dérivable en tout point \(a \in I\). On définit alors la fonction dérivée \[f': \left\{ \begin{array}{ccl} I & \longrightarrow & \mathbb{R} \newline x & \longmapsto & f'(x) \end{array} \right.\] La fonction dérivée se note aussi \(Df\) ou \(\dfrac{df}{dx}\).
En savoir plus
Dérivable au sens complexe en \(a\in\Omega\) si
[ Definition ]
Une fonction est dite dérivable au sens complexe en \(a\in\Omega\) si \(lim_{x\to a} \frac{f(x)-f(a)}{x-a}\) existe et est finie. On note alors cette limite \(f'(a)\).
Une fonction est dite holomorphe sur \(\Omega\) si elle est dérivable au sens complexe en tout point de \(\Omega\). On note \(H(\Omega)\) l’ensemble des fonctions holomorphes sur \(\Omega\).
On notera \(D(a,r)\) (resp. \(D'(a,r)\)) avec \(r>0\) l’ensemble des \(x\) de \(\Omega\) tels que \(|x-a|<r\) (resp. \(0<|x-a|<r\)).
Dérivable au sens complexe en \(a\in\Omega\) si
[ Definition ]
Une fonction est dite dérivable au sens complexe en \(a\in\Omega\) si \(lim_{x\to a} \frac{f(x)-f(a)}{x-a}\) existe et est finie. On note alors cette limite \(f'(a)\).
Une fonction est dite holomorphe sur \(\Omega\) si elle est dérivable au sens complexe en tout point de \(\Omega\). On note \(H(\Omega)\) l’ensemble des fonctions holomorphes sur \(\Omega\).
On notera \(D(a,r)\) (resp. \(D'(a,r)\)) avec \(r>0\) l’ensemble des \(x\) de \(\Omega\) tels que \(|x-a|<r\) (resp. \(0<|x-a|<r\)).
Un domaine est un ouvert connexe non vide.
Dérivation de la bijection réciproque
[ Théorème ]
Soit une fonction \(f:I \rightarrow R\). On suppose que
Alors la fonction \(f\) réalise une bijection de l’intervalle \(I\) sur l’intervalle \(J=f(I)\) et son application réciproque, \(f^{-1}\) est dérivable sur l’intervalle \(J\) avec \[\boxed{\left(f^{-1}\right)'=\dfrac{1}{f'\circ f^{-1}}}\]
En savoir plus
Dérivation de la bijection réciproque
[ Théorème ]
Soit \(f:I \rightarrow R\). On suppose que:
alors \(f\) réalise une bijection de l’intervalle \(I\) sur l’intervalle \(J=f(I)\) et son application réciproque, \(f^{-1}\) est dérivable sur \(J\) et \[\boxed{\left(f^{-1}\right)'=\dfrac{1}{f'\circ f^{-1}}}\]
En savoir plus
Dérivation de la norme
[ None ]
Soit \(\overrightarrow{F}\) une fonction définie sur \(I\), dérivable en \(t_0 \in I\), à valeurs dans \({\mathbb{R}^2}\) et ne s’annulant pas. Alors l’application \(\left\|\overrightarrow{F}\right\|:I \rightarrow \mathbb{R}\) est dérivable en \(t_0\) et \[\boxed{\left(\left\|\overrightarrow{F}\right\|\right)'(t_0)=\dfrac{\left<\overrightarrow{F}'(t_0)|\overrightarrow{F}(t_0) \right>}{\left\|\overrightarrow{F} (t_0)\right\|}}\]
En savoir plus
Dérivation de l’exponentielle
[ Théorème ]
Soit \(E\) un Banach et soit \(f\in {\cal L}(E)\), alors l’application \(t \mapsto \exp(t f)\) est dérivable, de dérivée \(\exp(tf)\circ f=f \circ \exp(tf)\).
Dérivation des fonctions composées
[ Théorème ]
Soient deux fonctions \(f:I \rightarrow R\), \(g:J \rightarrow \mathbb{R}\) telles que \(f(a)\in J\). On suppose que
Alors la fonction \(g\circ f\) est dérivable en \(a\) et \[\boxed{\left(g\circ f\right)'\left(a\right)= g'\left(f\left(a\right)\right) \times f'\left(a\right)}\]
En savoir plus
Dérivation d’une composée
[ Théorème ]
Soit \(f : U\subset \mathbb{R} [2] \mapsto \mathbb{R}\), \(u, v : I \subset \mathbb{R}
\mapsto \mathbb{R}\). On définit \(\varphi: \left\{ \begin{array}{ccl} I & \longrightarrow & \mathbb{R} [2] \newline t & \longmapsto & \bigl(u(t),v(t)\bigr) \end{array} \right.\). On suppose que :
On peut alors définir la fonction \[g = f \circ \varphi: \left\{ \begin{array}{ccl} I & \longrightarrow & \mathbb{R} \newline t & \longmapsto & f\bigl(u(t), v(t)\bigr) \end{array} \right.\] Cette fonction est de classe \(\mathcal{C}^{1}\) sur \(I\) et sa dérivée vaut : \[\boxed{g'(t) = u'(t) \dfrac{\partial f}{\partial x}\bigl(u(t), v(t)\bigr) + v'(t)
\dfrac{\partial f}{\partial y}\bigl(u(t), v(t)\bigr)}\]
En savoir plus
Dérivation du produit scalaire
[ Proposition ]
Soient \(\overrightarrow{F}\) et \(\overrightarrow{G}\) deux applications définies sur \(I\), dérivables en \(t_0
\in I\) et à valeurs dans \(\mathbb{R}^2\). Alors les applications \[\left<\overrightarrow{F}|\overrightarrow{G}\right>: \left\{ \begin{array}{ccl} I & \longrightarrow & R \\ t & \longmapsto & \left<\overrightarrow{F}(t)|\overrightarrow{G}(t)\right> \end{array} \right. \quad \textrm{ et} \quad\mathop{\rm det}\left({\overrightarrow{F}},{\overrightarrow{G}}\right): \left\{ \begin{array}{ccl} I & \longrightarrow & R \newline t & \longmapsto & \mathop{\rm det}\left({\overrightarrow{F}(t)},{\overrightarrow{G}(t)}\right) \end{array} \right.\] sont dérivables en \(t_0\) et \[\boxed{\left(\left<\overrightarrow{F}|\overrightarrow{G}\right>\right)'(t_0)=\left<\overrightarrow{F}'(t_0)|\overrightarrow{G}(t_0)\right>+\left<\overrightarrow{F}(t_0)|\overrightarrow{G}'(t_0)\right> }\] \[\boxed{\left(\mathop{\rm det}\left(\overrightarrow{F},\overrightarrow{G}\right)\right)'(t_0)=\mathop{\rm det}\left(\overrightarrow{F}'(t_0),\overrightarrow{G}(t_0)\right)+\mathop{\rm det}\left(\overrightarrow{F}(t_0),\overrightarrow{G}'(t_0)\right)}\]
En savoir plus
Dérivée à droite
[ Definition ]
Soient \(a\) et \(b\) dans \(\mathbb{R}\), avec \(a < b\), et \(F\) un espace vectoriel normé . Une application \(f\) de \([a,b]\) dans \(F\) est dite dérivable à droite en \(x\) appartenant à \([a,b[\) si la limite à droite \(lim_{h\rightarrow 0, h >0} \frac{f(x+h)-f(x)}h\) existe; on l’appelle alors dérivée à droite de \(f\) en \(x\).
En savoir plus
Dérivée bornée implique lipschitzienne
[ Théorème ]
Soit une fonction \(f:I \rightarrow \mathbb{R}\) définie sur un intervalle \(I\). On suppose que
Alors la fonction \(f\) est \(K\)-lipschitzienne sur l’intervalle \(I\).
En savoir plus
Dérivée d’une fonction définie par une intégrale
[ Théorème ]
Dérivée d’un produit
[ Proposition ]
Soient \(P\), \(Q\in\mathbb{K}\left[X\right]\) deux polynômes. On a : \[\boxed{\left( P Q\right)'= P'Q + P Q'}.\]
En savoir plus
Dérivée en un point
[ Definition ]
Soient \(f\in \mathscr F \left(I,\mathbb{R}\right)\) et \(a\in I\). On dit que \(f\) est dérivable au point \(a\) si et seulement si son taux d’accroissement \(\Delta_{a,f}\) possède une limite finie quand \(x\) tend vers \(a\). Cette limite s’appelle le nombre dérivée de \(f\) au point \(a\) et est noté: \[f'(a) \quad \textrm{ ou} \quad Df(a) \quad \textrm{ ou} \quad\dfrac{df}{dx}(a)\]
En savoir plus
Dérivée selon un vecteur
[ Definition ]
Soit \(f: U \mapsto \mathbb{R}\), \(M_0 \in U\) et un vecteur non nul \(\overrightarrow{H} \in \mathbb{R}^2\). On dit que \(f\) possède une dérivée au point \(M_0\) selon le vecteur \(\overrightarrow{H}\) s’il existe un réel \(l \in \mathbb{R}\) tel que \[\dfrac{1}{t}\bigl[f(M_0+t.\overrightarrow{H}) - f(M_0)\bigr] \xrightarrow[t \rightarrow 0]{} l\] On note alors \(l = {\mathrm{D}_{\overrightarrow{H}}}f(M_0)\).
En savoir plus
Dérivées partielles d’ordre \(2\)
[ Definition ]
Soit \(U \subset \mathbb{R}^2\) un ouvert et \(f : U \mapsto \mathbb{R}\) une fonction numérique de classe \({\mathcal{C}}^[(1) ]{U, \mathbb{R} }\). On peut donc définir les fonctions dérivées partielles : \[\dfrac{\partial f}{\partial x} : \left\{ \begin{array}{ccl} U & \longrightarrow & \mathbb{R} \\ a & \longmapsto & \dfrac{\partial f}{\partial x}(a) \end{array} \right.
\quad \textrm{ et} \quad\dfrac{\partial f}{\partial y} : \left\{ \begin{array}{ccl} U & \longrightarrow & \mathbb{R} \\ a & \longmapsto & \dfrac{\partial f}{\partial y}(a) \end{array} \right.\] On dit que \(f\) est de classe \({\mathcal{C}}^[(2) ]{U, \mathbb{R} }\) lorsque les \(2\) fonctions \(\dfrac{\partial f}{\partial x}\) et \(\dfrac{\partial f}{\partial y}\) sont de classe \({\mathcal{C}}^[(1) ]{U,
\mathbb{R} }\). On note alors \[\dfrac{\partial ^2 f}{\partial x^2}(a) = \dfrac{\partial \dfrac{\partial f}{\partial x}}{\partial x}(a),\quad
\dfrac{\partial^{2}f}{\partial x \partial y}(a) = \dfrac{\partial \dfrac{\partial f}{\partial y}}{\partial x}(a),\] \[\dfrac{\partial ^2 f}{\partial y^2}(a) = \dfrac{\partial \dfrac{\partial f}{\partial y}}{\partial y}(a),\quad
\dfrac{\partial^{2}f}{\partial y \partial x}(a) = \dfrac{\partial \dfrac{\partial f}{\partial x}}{\partial y}(a).\]
En savoir plus
Dérivées partielles d’une composée
[ Théorème ]
Soit \(f : U \subset \mathbb{R} [2] \mapsto \mathbb{R}\) une fonction de classe \(\mathcal{C}^{1}\), \(x,y : V \subset \mathbb{R} [2] \mapsto \mathbb{R}\) deux fonctions de classe \(\mathcal{C}^{1}\). On suppose que \(\forall (u,v) \in V\), \(\bigl(x(u,v),
y(u,v)\bigr) \in U\). On peut alors définir la fonction \[F : \left\{ \begin{array}{ccl} U & \longrightarrow & \mathbb{R} \\ (u,v) & \longmapsto & f\bigl(x(u,v), y(u,v)\bigr) \end{array} \right.\] La fonction \(F\) est de classe \(\mathcal{C}^{1}\) et en tout point \((u,v)
\in V\), \[\boxed{
\begin{cases}
\dfrac{\partial F}{\partial u}(u,v) &= \dfrac{\partial x}{\partial u}(u,v) \dfrac{\partial f}{\partial x}(x(u,v), y(u,v)) +
\dfrac{\partial y}{\partial u}(u,v) \dfrac{\partial f}{\partial y}(x(u,v), y(u,v)) \newline
\dfrac{\partial F}{\partial v}(u,v) &= \dfrac{\partial x}{\partial v}(u,v) \dfrac{\partial f}{\partial x}(x(u,v),y(u,v)) +
\dfrac{\partial y}{\partial v}(u, v) \dfrac{\partial f}{\partial y}(x(u,v), y(u,v))
\end{cases}
}\]
En savoir plus
Dérivées partielles en un point
[ Definition ]
Soit \(f : U \mapsto \mathbb{R}\) et \(a \in U\). On considère la base canonique \(e = (e_1,e_2)\) de \(\mathbb{R}^2\). On appelle dérivées partielles de \(f\) au point \(M_0 \in U\) les dérivées de \(f\), si elles existent, selon les vecteurs \(e_1\) et \(e_2\) et on note alors \[\boxed{
\dfrac{\partial f}{\partial x}(M_0) =
D_{e_1}f(M_0) =
\lim_{t \rightarrow 0} \dfrac{f(M_0+te_1)-
f(M_0)}{t}
}\quad \textrm{ et} \quad\boxed{
\dfrac{\partial f}{\partial y}(M_0) =
D_{e_2}f(M_0) =
\lim_{t \rightarrow 0} \dfrac{f(M_0+te_2)-
f(M_0)}{t}
}\]
En savoir plus
Dérivées successives
[ Definition ]
Étant donné une fonction \(f:I\rightarrow \mathbb{R}\), on pose \(f^{(0)}=f\) et on définit par récurrence, la dérivée \(n^{\textrm{ ème}}\) de \(f\) sur \(I\), notée \(f^{(n)}\), comme la dérivée de \(f^{(n-1)}\), si elle existe. On la note \[f^{(n)} \quad \textrm{ ou} \quad D^n f \quad \textrm{ ou} \quad\dfrac{d^n f}{dt^n}\]
En savoir plus
De sens contraire
[ Definition ]
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(2\) ou \(3\). Soient \(e\) et \(e'\) deux bases de \(E\). On dit que :
En savoir plus
Déterminant
[ Definition ]
On appelle déterminant d’une matrice carrée \(M\) le déterminant de l’endomorphisme canonique associé à \(M\) dans \(\mathbb{K}^n\). On le note \(det\ M\) ou \(| M |\).
On appelle groupe spécial linéaire d’ordre \(n\) et on note \(SL_n(\mathbb{K})\) l’ensemble des matrices de déterminant égal à \(1\).
En savoir plus
Déterminant
[ Definition ]
On appelle déterminant d’une famille \((x_1,...,x_n)\) d’éléments de \(E\) dans une base \((e_1,...,e_n)\) de \(E\) la somme: \[\sum_{\sigma\in \sigma_n} \epsilon(\sigma) \Pi_{i=1}^n e_{\sigma(i)}^*(x_i)\] On le note \(det_{(e_1,...,e_n)}(x_1,...,x_n)\).
En savoir plus
Déterminant
[ Definition ]
Soient \(\overrightarrow{u}\), \(\overrightarrow{v}\), \(\overrightarrow{w}\) trois vecteurs de l’espace \(\mathscr V\). On appelle déterminant ou produit mixte de ces trois vecteurs le nombre réel, noté \(\left[\overrightarrow{u},\overrightarrow{v},\overrightarrow{w}\right]\) ou \(\mathop{\rm det}\left(\overrightarrow{u},\overrightarrow{v},\overrightarrow{w}\right)\), et donné par : \[\boxed{\mathop{\rm det}\left(\overrightarrow{u},\overrightarrow{v},\overrightarrow{w}\right)=\left(\overrightarrow{u} \wedge \overrightarrow{v}\right).\overrightarrow{w}}\]
En savoir plus
Déterminant
[ Definition ]
Le déterminant de deux vecteurs du plan \(\mathscr V\) \(\overrightarrow{u}\) et \(\overrightarrow{v}\), noté \(\mathop{\rm det}(\overrightarrow{u}, \overrightarrow{v})\) est défini, de manière géométrique, par: \[\boxed{\left\{\begin{array}{l} \mathop{\rm det}(\overrightarrow{u}, \overrightarrow{v})= \left\|\overrightarrow{u}\right\| \,
\left\|\overrightarrow{v}\right\| \, \sin \, (\widehat{ \overrightarrow{u},\overrightarrow{v}}) \textrm{ si les deux vecteurs }
\overrightarrow{u} \textrm{ et } \overrightarrow{v} \textrm{ sont non nuls} \newline \mathop{\rm det}(\overrightarrow{u}, \overrightarrow{v})=0 \textrm{
sinon.} \end{array}\right.}\]
En savoir plus
Déterminant dans une base orthonormale
directe
[ Proposition ]
Soit \(u,v,w\) trois
vecteurs. Le déterminant de ces trois vecteurs exprimé dans une base
orthonormale directe ne dépend pas de la base orthonormale directe
choisie.
En savoir plus
Déterminant de l’endomorphisme \(f\)
[ Definition ]
On appelle déterminant de l’endomorphisme \(f\) le déterminant de \(f(B)\) dans la base \(B\); on le note \(det\ f\).
On appelle groupe spécial linéaire de \(E\) l’ensemble des endomorphismes de \(E\) de déterminant \(1\); on le note \(SL(E)\).
En savoir plus
Déterminant de Vandermonde
[ Proposition ]
Le déterminant de Vandermonde associé à \((x_1,...,x_n)\) est égal à \[\Pi_{i<j} (x_j-x_i).\]
En savoir plus
Déterminant de Vandermonde associé à un \(n\)-uple \((x_1,...,x_n)\)
[ Definition ]
On appelle déterminant de Vandermonde associé à un \(n\)-uple \((x_1,...,x_n)\) le déterminant \[\left| \begin{array}{cccccc}
x_1^0 & x_1^1 & x_1^2 & x_1^3 & \dots & x_1^{n-1} \\
x_2^0 & x_2^1 & x_2^2 & x_2^3 & \dots & x_2^{n-1} \\
x_3^0 & x_3^1 & x_3^2 & x_3^3 & \dots & x_3^{n-1} \\
x_4^0 & x_4^1 & x_4^2 & x_4^3 & \dots & x_4^{n-1} \\
\vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\
x_n^0 & x_n^1 & x_n^2 & x_n^3 & \dots & x_n^{n-1} \\
\end{array}\right|=
\left| \begin{array}{cccccc}
1 & x_1^1 & x_1^2 & x_1^3 & \dots & x_1^{n-1} \\
1 & x_2^1 & x_2^2 & x_2^3 & \dots & x_2^{n-1} \\
1 & x_3^1 & x_3^2 & x_3^3 & \dots & x_3^{n-1} \\
1 & x_4^1 & x_4^2 & x_4^3 & \dots & x_4^{n-1} \\
\vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\
1 & x_n^1 & x_n^2 & x_n^3 & \dots & x_n^{n-1} \newline
\end{array}\right|\]
En savoir plus
Déterminant d’ordre \(2\) et \(3\) d’une famille de vecteurs
[ Definition ]
Soit \(E\) un \(\mathbb{K}\)-espace vectoriel de dimension \(n\) muni d’une base \(e=\left(e_1,\dots,e_n\right)\).
En savoir plus
Déterminant d’une matrice carrée
[ Definition ]
Soit \(A =
\begin{pmatrix}
a_{1,1} & \dots & a_{1,n} \\
\vdots & & \vdots \\
a_{n,1} & \dots & a_{n,n}
\end{pmatrix} \in \mathfrak{M}_{n}(\mathbb{\mathbb{K} })\) une matrice carrée. On définit son déterminant par la formule : \[\mathop{\rm det}(A) = \displaystyle{\sum_{\sigma \in \mathfrak{S}\left(n\right)}^{ }} \varepsilon(\sigma)
a_{\sigma(1),1} \dots a_{\sigma(n), n}\] On notera entre deux barres le déterminant d’une matrice : \[\mathop{\rm det}(A) =
\begin{vmatrix}
a_{1,1} & \dots & a_{1,n} \\
\vdots & & \vdots \newline
a_{n,1} & \dots & a_{n,n}
\end{vmatrix} .\]
En savoir plus
Déterminant d’une matrice de taille \(2\) ou \(3\)
[ Definition ]
Déterminant d’une matrice triangulaire
[ Proposition ]
Si \(A = \begin{pmatrix}
a_{1,1} & \dots & a_{1,n} \\
& \ddots & \vdots \newline
\mathbb{O}& & a_{n,n}
\end{pmatrix}\) est une matrice triangulaire supérieure, son déterminant est le produit de ses coefficients diagonaux : \[\mathop{\rm det}(A) = a_{1,1} \times \dots \times a_{n,n}\]
En savoir plus
Déterminant d’un endomorphisme
[ Proposition ]
Soient :
Déterminant d’un endomorphisme
[ Proposition ]
Si \(e=(e_1,\dots, e_n)\) est une base de \(E\), le scalaire \[\mathop{\rm det}(u) = \mathop{\rm det}_e(u(e_1),\dots, u(e_n))\] est indépendant de la base \(e\), on l’appelle déterminant de l’endomorphisme \(u\).
En savoir plus
Déterminant d’une transposée
[ Proposition ]
Une matrice et sa transposée ont même déterminant : \[\mathop{\rm det}({A}^{\mathrm{T}}) = \mathop{\rm det}(A)\]
En savoir plus
Détermination de l’angle d’une
rotation
[ Proposition ]
Soient \(E\) un espace
euclidien orienté de dimension \(3\),
\(r\) une rotation et \(\varepsilon\) un vecteur unitaire qui
dirige l’axe de cette rotation. Ce vecteur \(\varepsilon\) définit une orientation du
plan \(H=\mathop{\mathrm{Vect}}{d}^{\perp}\) et
donc de l’angle \(\theta\) de \(r\). Soit \(x \in
H\) : \[\boxed{r(x)=\cos\theta . x +
\sin\theta . \varepsilon\wedge x }.\]
En savoir plus
Détermination du logarithme
[ Definition ]
On dit qu’une fonction continue \(f\) de la variable complexe \(t\), définie sur un ouvert connexe \(U \subset \mathbf{C}\) ne contenant pas 0,
est une détermination du logarithme sur \(U\) si \[\forall
t \in U, \quad \exp (f(t))=t .\]
En savoir plus
Deux cycles de supports disjoints commutent
[ Corollaire ]
Soient deux cycles \(\sigma_1\) et \(\sigma_2\) de \(\mathfrak{S}\left(E\right)\) de supports disjoints. Alors \(\sigma_1 \circ \sigma_2 = \sigma_2 \circ
\sigma_1\).
En savoir plus
Deux fonctions équivalentes ont même limite
[ Proposition ]
Soit \(f,g:I\rightarrow \mathbb{R}\) et \(a\in\overline I\). Alors : \[\left[f\left(x\right)\underset{x\rightarrow a}{\sim}g\left(x\right) \quad \textrm{ et} \quad g\left(x\right)\xrightarrow[x\rightarrow a]{}l \right] \Rightarrow f\left(x\right)\xrightarrow[x\rightarrow a]{}l\]
En savoir plus
Deuxième propriété fondamentale du symétrisé de Steiner
[ Corollaire ]
Quel que soit \(K\) compact et \(P\) hyperplan, \(S_P(K)\) a un diamètre inférieur ou égal à celui de \(K\).
Deuxième propriété fondamentale du symétrisé de Steiner
[ Corollaire ]
Quel que soit \(K\) compact et \(P\) hyperplan, \(S_P(K)\) a un diamètre inférieur ou égal à celui de \(K\).
Deuxième théorème de Sylow
[ Théorème ]
Étant donné \(G\) un groupe, de cardinal \(|G|=p^r.m\), avec \(p
\not | m\).
\(\bullet\)Le nombre de \(p\)-Sylow divise \(m\).
En savoir plus
\(\bullet\)Tout \(p\)-groupe inclus dans \(G\) est inclus dans un \(p\)-Sylow de \(G\).
\(\bullet\)Les \(p\)-Sylow sont tous conjugués.
\(\bullet\)Les \(p\)-Sylow forment une orbite de \(G\) sous l’action de \(G\) par automorphisme intérieur.
\(\bullet\)Un \(p\)-Sylow est distingué si et seulement si il est l’unique \(p\)-Sylow.
\(\bullet\)Le nombre de \(p\)-Sylow est congru à \(1\) modulo \(p\) et divise \(|G|\).
Deuxième version
[ Théorème ]
Soit \(K\) un compact de \(\mathbb{R}^n\), \(\Omega\) un ouvert de \(\mathbb{R}^n\) contenant \(K\), alors il existe une fonction \(f\) \(C^\infty\) à support compact telle que \(\chi_K \leq f \leq \chi_\Omega\).
En savoir plus
Deux matrices déduites l’une de l’autre par une oel ou une oec ont même rang
[ Proposition ]
Deux matrices obtenues l’une de l’autre par une oel ou une oec sont de même rang.
En savoir plus
Deux primitives d’une même fonction diffèrent d’une constante
[ Proposition ]
Soit une fonction \(f: I \rightarrow \mathbb{R}\) définie sur un intervalle \(I\). Si \(F\) et \(G\) sont deux primitives de \(f\) sur \(I\) alors il existe \(c\in\mathbb{R}\) tel que : \(G=F+c\).
En savoir plus
Développement d’un déterminant par rapport à une ligne-colonne
[ Théorème ]
Soit une matrice carrée \(A = ((a_{i,j}))_{i,j\in [\kern-0.127em[ 1, n ]\kern-0.127em]} \in
\mathfrak{M}_{n}(\mathbb{\mathbb{K} })\), \[\boxed{\mathop{\rm det}(A) = \displaystyle{\sum_{i=1}^{n}} a_{i,j} \Delta_{i,j} = \displaystyle{\sum_{j=1}^{n}}
a_{i,j} \Delta_{i,j}}.\]
En savoir plus
Développement d’un déterminant suivant une ligne ou une colonne
[ Théorème ]
Soit \(A=\left(a_{ij}\right)\in\mathfrak{M}_{n}\left(\mathbb{K}\right)\).
Développement en série entière
[ Definition ]
On suppose \(\mathbb{K}=\mathbb{R}\) ou \(\mathbb{K}=\mathbb{C}\).
Une application \(f\) d’un ouvert \(U\) de \(\mathbb{K}\) dans \(\mathbb{K}\) est dite développable en série entière au voisinage de \(a\in U\) s’il existe \(\sum a_n.z^n\) de rayon de convergence \(\geq r>0\) telle que \(D(a,r) \subset U\) et \(\forall z \in D(a,r)\) on ait \(f(z)=\sum a_n.(z-a)^n\).
Développement en série entière des fonctions holomorphes
[ Théorème ]
Toute fonction holomorphe est développable en série entière.
En savoir plus
Développement en série entière des fonctions holomorphes
[ Théorème ]
Toute fonction holomorphe est développable en série entière.
En savoir plus
Développement limité
[ Definition ]
On dit que \(f\) de \(\mathbb{R}\) dans \(\mathbb{C}\) admet un développement limité en \(a\in
\mathbb{R}\) à l’ordre \(n\) s’il existe une fonction polynôme \(P\) de \(\mathbb{R}\) dans \(\mathbb{C}\) telle que au voisinage de \(a\) \[f(x)=P(x)+o((x-a)^n).\]
En savoir plus
Développement limité
[ Definition ]
Soient une fonction \(f:I\rightarrow \mathbb{R}\) et un point adhérent \(x_0\in \overline{I}\). Soit \(n\in
\mathbb{N}\). On dit que \(f\) admet un développement limité à l’ordre \(n\) au voisinage de \(x_0\) s’il existe un polynôme \(P\) de degré \(\leqslant n\), une fonction \(\varepsilon : I \rightarrow \mathbb{R}\) vérifiant \(\varepsilon\left(x\right) \xrightarrow[x\rightarrow x_0]{} 0\) tels que \[\forall x\in I,\quad f\left(x\right) = P\left(x\right) + \left(x-x_0\right)^n \varepsilon\left(x\right)\]
En savoir plus
Développement limité à l’ordre \(1\) d’une fonction dérivable
[ Proposition ]
Soit \(f \in \mathscr F \left(I,\mathbb{R}\right)\). La fonction \(f\) est dérivable au point \(a\in I\) si et seulement si il existe \(\varepsilon:I
\rightarrow \mathbb{R}\) telle que \(\varepsilon(x) \xrightarrow[x\rightarrow a]{} 0\) et un réel \(c\) tel que \[\forall x\in I, \quad \boxed{f(x)=f(a)+c(x-a)+
\underbrace{(x-a)\varepsilon(x)}_{\underset{x \rightarrow a}{o}\left(x-a\right)}}\] On a alors \(c=f'(a)\).
En savoir plus
Développement limité au sens fort
[ Definition ]
On dit que \(f\) de \(\mathbb{R}\) dans un espace vectoriel normé \(E\) admet un développement limité au sens fort en \(a\in \mathbb{R}\) à l’ordre \(n\) s’il existe un polynôme \(P\) à coefficients dans \(E\) telle que au voisinage de \(a\) \(f(x)=P(x)+O((x-a)^{n+1})\).
En savoir plus
Développement suivant une colonne
[ Proposition ]
\[\forall j\in[[1,n]],\ det\ M= \sum_{i\in [[1,n]]} \gamma_{i,j}.M_{i,j}\]
En savoir plus
Développement suivant une ligne
[ Proposition ]
\[\forall i\in[[1,n]],\ det\ M= \sum_{j\in [[1,n]]} \gamma_{i,j}.M_{i,j}\]
En savoir plus
Diagonales
[ Definition ]
Difféomorphisme
[ Definition ]
Soit \(U \subset E\) et \(V \subset F\). On dit qu’une application \(\varphi: U \mapsto V\) est un \(\mathcal{C}^{1}\)-difféomorphisme lorsque :
En savoir plus
Difféomorphisme \(C^1\)
[ Definition ]
Une application \(h\) de \(U\) dans \(V\) avec \(U\) ouvert d’un espace vectoriel normé et \(V\) ouvert d’un espace vectoriel normé est un difféomorphisme \(C^1\) si \(h\) est bijective et de classe \(C^1\) et de réciproque de classe \(C^1\). Plus généralement, avec \(k\geq 1\), une application \(h\) de \(U\) dans \(V\) avec \(U\) ouvert d’un espace vectoriel normé et \(V\) ouvert d’un espace vectoriel normé est un difféomorphisme \(C^k\) si \(h\) est bijective et de classe \(C^k\) et de réciproque de classe \(C^k\).
En savoir plus
Différentes caractérisations de la signature
[ Proposition ]
On peut définir la signature \(\epsilon\) sur \(\sigma_n\) de l’une des façons suivantes:
1) On appelle inversion d’une permutation \(p\), une paire \((i,j)\) d’éléments tels que \((j-i).(p(j)-p(i))<0\). On définit \(\epsilon(p)=(-1)^{Inv(p)}\), avec \(Inv(p)\) le nombre d’inversions.
2) Il existe un unique morphisme \(\epsilon\) de \(\sigma_n\) sur \(\{-1,1\}\) tel que \(\epsilon(t)=-1\) si \(t\) est une transposition.
Différentes extensions de corps
[ Definition ]
Si \(L\) est une extension du corps \(K\), alors un élément \(a\) de \(L\) est dit algébrique sur \(K\) s’il existe un polynôme \(P\) à coefficients dans \(K\) tel que \(P(a)=0\). Un nombre réel est souvent dit simplement algébrique s’il est algébrique sur \(\mathbb{Q}\). L’ensemble des éléments de \(L\) algébriques sur \(K\) est appelée extension algébrique de \(K\) dans \(L\).
Etant donné \(K\) un corps et \(P\in K[X]\), on appelle corps de rupture de \(P\) un sur-corps \(L\) de \(K\) dans lequel \(P\) admet une racine \(a\) et tel que \(L=K(a)\).
Etant donné \(K\) un corps et \(P\in K[X]\), on appelle corps de décomposition de \(P\) un sur-corps \(L\) de \(K\) dans lequel \(P\) est scindé et \(L=K(Z)\), avec \(Z\) l’ensemble des zéros de \(P\) dans \(L\).
Différentes extensions de corps
[ Definition ]
Si \(L\) est une extension du corps \(K\), alors un élément \(a\) de \(L\) est dit algébrique sur \(K\) s’il existe un polynôme \(P\) à coefficients dans \(K\) tel que \(P(a)=0\). Un nombre réel est souvent dit simplement algébrique s’il est algébrique sur \(\mathbb{Q}\). L’ensemble des éléments de \(L\) algébriques sur \(K\) est appelée extension algébrique de \(K\) dans \(L\).
Étant donné \(K\) un corps, on appelle clôture algébrique de \(K\) une extension de \(K\) algébriquement close et dont tous les éléments sont algébriques sur \(K\).
En savoir plus
Étant donné \(K\) un corps et \(P\in K[X]\), on appelle corps de rupture de \(P\) un sur-corps \(L\) de \(K\) dans lequel \(P\) admet une racine \(a\) et tel que \(L=K(a)\).
Étant donné \(K\) un corps et \(P\in K[X]\), on appelle corps de décomposition de \(P\) un sur-corps \(L\) de \(K\) dans lequel \(P\) est scindé et \(L=K(Z)\), avec \(Z\) l’ensemble des zéros de \(P\) dans \(L\).
Différentiable
[ Definition ]
Soient \(E\) et \(F\) des espaces vectoriels normés et \(U\) un ouvert de \(E\). Soit une application \(f:U\rightarrow F\), on dit que \(f\) est différentiable (ou dérivable) en \(x \in U\) s’il existe une application linéaire continue \(\phi\) de \(E\) dans \(F\) telle que \[lim_{h \rightarrow 0} \frac{f(x+h)-f(x)-\phi(h)}{\parallel h
\parallel} = 0\] On appelle \(\phi\) la différentielle ou dérivée de \(f\) en \(x\), on la note \(Df(x)\).
\(f\) est dite différentiable si elle est différentiable en tout point de \(U\). Si \(E\) est euclidien, on appelle gradient de \(f\) en \(x\), lorsque \(Df(x)\) existe et lorsque \(F\) est un espace vectoriel réel de dimension \(1\) le vecteur \(\nabla f_x\) tel que \(Df(x)(u)=<\nabla
f_x| u>\).
En savoir plus
Différentiable en \(x\in U\) suivant la direction \(u\in E\)
[ Definition ]
Soit \(f\) une application d’un ouvert \(U\) d’un espace vectoriel normé \(E\) dans un espace vectoriel normé \(F\), alors \(f\) est dite différentiable en \(x\in U\) suivant la direction \(u\in E\) si l’application \(g:\mathbb{R}\to F\) \(t \mapsto f(x+tu)\) est différentiable en \(0\). La différentielle de \(g\) en \(0\) est alors appelée différentielle de \(f\) en \(x\) suivant \(u\).
En savoir plus
Différentielle
[ Definition ]
Soit \(f : U \mapsto \mathbb{R}\) une fonction de classe \(\mathcal{C}^{1}\) et \(M_0 =
(x_0, y_0) \in U\) un point. On définit la forme linéaire : \[{\mathrm{d}f}_{M_0}: \left\{ \begin{array}{ccl} \mathbb{R} [2] & \longrightarrow & \mathbb{R} \newline (h,k) & \longmapsto &
h\dfrac{\partial f}{\partial x}(x_0,y_0) + k \dfrac{\partial f}{\partial y}(x_0, y_0) \end{array} \right.\] C’est la différentielle de la fonction \(f\) au point \(M_0\).
En savoir plus
Différentielle de fonctions composées
[ Théorème ]
Soit \(E\),\(F\) et \(G\) des espaces vectoriels normés , et \(U\) et \(V\) des ouverts de \(E\) et \(F\) respectivement. Si \(f\) de \(U\) dans \(V\) est différentiable en \(x\) et \(g\) de \(V\) dans \(G\) est différentiable en \(f(x)\), alors la composée \(g \circ f\) est différentiable en \(x\) et a pour différentielle \[D(g \circ f)(x)=Dg(f(x))\circ Df(x)\] Si \(g\) et \(f\) sont \(C^1\) alors \(g \circ f\) est \(C^1\).
En savoir plus
Dilatation affine d’hyperplan \(H\)
[ Definition ]
Étant donné \(X\) un espace affine , \(H\) un hyperplan affine, \(D\) une droite affine supplémentaire de \(H\), et \({\lambda}\) un scalaire non nul, on appelle dilatation affine d’hyperplan \(H\), de direction \(D\) et de rapport \({\lambda}\) l’application dont la restriction au vectorialisé de \(H\) en \(H \cap D\) est l’identité, et dont la restriction au vectorialisé de \(D\) en \(H \cap D\) est une homothétie de rapport \({\lambda}\).
En savoir plus
Dilatation d’hyperplan \(H\)
[ Definition ]
Soit \(H\) un hyperplan d’un espace vectoriel \(E\), et \(D\) une droite supplémentaire de \(H\). On appelle dilatation d’hyperplan \(H\), de direction \(D\) et de rapport \({\lambda}\) l’application linéaire dont la restriction à \(H\) est l’identité et dont la restriction à \(D\) est l’homothétie de rapport \({\lambda}\).
Soit \(H\) un hyperplan d’un espace vectoriel \(E\), et \(h\) une forme linéaire de noyau \(H\). On appelle transvection d’hyperplan \(H\) une application de \(E\) dans \(E\) de la forme \[x \mapsto x+ h(x).u\] pour un certain \(u\) dans \(H\).
En savoir plus
Dimension du sous-espace des matrices diagonales et du sous-espace des matrices triangulaires
[ Proposition ]
Discriminant
[ Definition ]
Étant donnés \(P\) et \(Q\) deux polynômes de \(\mathbb{K}[X]\), on appelle résultant de \(P\) et \(Q\) le déterminant de la matrice carré suivante de type \(p+q\times p+q\) avec \(p\) et \(q\) les degrés de \(P\) et \(Q\):
On appelle discriminant d’un polynôme \(P\) le résultant de \(P\) et de \(P'\) son polynôme dérivé.1
En savoir plus
\[\left( \begin{array}{cccccccccccccc} P_0 & 0 & 0 & 0 & \dots & 0 & Q_0 & 0 & 0 & 0 & \dots & 0 & 0 & 0 \\ P_1 & P_0 & 0 & 0 & \dots & 0 & Q_1 & Q_0 & 0 & 0 & \dots & 0 & 0 & 0 \\ P_2 & \dots & P_0 & 0 & \dots & 0 & Q_2 & Q_1 & Q_0 & 0 \dots & 0 & 0 & 0\\ P_3 & \dots &\ddots & \ddots & \ddots & 0 & Q_3 & \dots & \ddots & \ddots & \ddots & \ddots & 0 & 0 \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & Q_{q-2} & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & Q_{q-1} & Q_{q-2} & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & Q_q & Q_{q-1} & Q_{q-2} & \vdots & \vdots & \vdots & \vdots & \vdots \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & 0 & Q_q & Q_{q-1} & Q_{q-2} & \vdots & \vdots & \vdots & \vdots \\ P_p & P_{p-1} & \vdots & \vdots & \vdots & \vdots & 0 & \ddots & \ddots & \ddots & \ddots & \vdots & \vdots & \vdots \\ 0 & P_p & \ddots & \ddots & \ddots & \ddots & 0 & \ddots & 0 & Q_q & \ddots & \ddots & \ddots & \ddots \\ 0 & 0 & P_p & \ddots & \ddots & \ddots & 0 & \ddots & 0 & 0 & \ddots & \ddots & \ddots & \ddots \\ 0 & \dots & 0 & P_p & \ddots & \ddots & 0 & \ddots & 0 & 0 & \ddots & \ddots & \ddots & \ddots \\ 0 & \dots & 0 & 0 & P_p & \ddots & \ddots & 0 & \ddots & 0 & \ddots & \ddots & Q_q & Q_{q-1} \newline 0 & \dots & \dots & \dots & \dots & P_p & 0 & \dots & \dots & \dots & \dots & \dots & 0 & Q_q \end{array} \right)\]
avec \(\displaystyle P=\sum_{k=0}^p P_p X^k\) et \(Q=\sum_{k=0}^q Q_q X^k\).
Distance associée
[ Definition ]
Étant donnée une norme on définit une distance associée par \[d(x,y)=\parallel x - y \parallel\]
En savoir plus
Distance dans un connexe ouvert d’un \(\mathbb{R}\)-espace vectoriel normé
[ Proposition ]
Soit \(U\) un ouvert connexe d’un \(\mathbb{R}\)-espace vectoriel normé . Si on note \(d(x,y)\) l’inf des longueurs des lignes brisées joignant \(x\) à \(y\), alors \(d\) est une distance et définit la même topologie que la norme.
En savoir plus
Distance de \(x\) à \(E\)
[ Definition ]
Soit \(H\) un espace de Hilbert, et \(E\) une partie convexe fermée non vide de \(H\). Alors étant donné \(x\) appartenant à \(H\) on appelle distance de \(x\) à \(E\) et on note \(d(x,E)\) le mombre \[d(x,E)=\inf_{z\in E}{\parallel}x-z {\parallel}.\] On appelle alors projeté de \(x\) sur \(E\) un élément \(y\) de \(E\) tel que \({\parallel}x-y {\parallel}\) soit minimal, c’est-à-dire \(y\in E\) est tel que \({\parallel}x-y{\parallel}=d(x,E)\).
Un isomorphisme d’espaces de Hilbert est un isomorphisme entre les espaces vectoriels sous-jacents qui préserve la norme et le produit scalaire.
En savoir plus
Distance d’un point à une droite
[ Proposition ]
Soit \(\mathscr D\) une droite de l’espace passant par le point \(P\) et de vecteur directeur \(\overrightarrow{u}\). Soit \(A\) un point de l’espace et \(H\) son projeté orthogonal sur \(\mathscr D\) (\(H\) est l’unique point de \(\mathscr D\) tel que les vecteurs \(\overrightarrow{AH}\) et \(\overrightarrow{u}\) sont orthogonaux). On appelle distance de \(A\) à \(\mathscr D\) la distance \(AH\). C’est la plus petite distance de \(A\) à un point de \(\mathscr D\). Elle est notée \(d\left(A,\mathscr D\right)\).
En savoir plus
Distance d’un point à une droite
[ Definition ]
Soit \(D\) une droite et \(M\) un point du plan. On appelle distance de \(M\) à \(D\) et on note \(d(M,D)\) la plus petite distance entre \(M\) et un point de \(D\).
En savoir plus
Distance d’un point à un plan
[ Proposition ]
Soit \(\mathscr P\) un plan affine de vecteur normal \(\overrightarrow{n}\). Soit \(M\) un point de l’espace et \(H\) son projeté orthogonal sur \(\mathscr P\). On appelle distance du point \(M\) au plan \(\mathscr P\) la distance \(MH\). On la note : \(d\left(M,\mathscr P\right)\). C’est la plus petite distance du point \(M\) à un point \(A\) de \(\mathscr P\) : \[\forall A\in\mathscr P,\quad d\left(M,\mathscr P\right) = HM \leqslant AM.\]
En savoir plus
Distance d’un point à un plan quand le plan est donné par une équation cartésienne
[ Théorème ]
On rapporte le plan à un repère orthonormal \(\mathscr R\). Soient \(\mathscr P\) un plan d’équation cartésienne \(ax+by+cz+d=0\) et \(M\left(x_M,y_M,z_M\right)\) un point de l’espace. On a \[\boxed{d\left(M,\mathscr P\right) =
\dfrac{\left|ax_M+by_M+cz_M+d\right|}{\sqrt{a^2+b^2+c^2}}}\]
En savoir plus
Distance d’un point à un plan quand le plan est donné par un point et deux vecteurs directeurs
[ Théorème ]
Soit \(\mathscr P\) un plan défini passant par un point \(A\), engendré par les vecteurs \(\overrightarrow{u}\) et \(\overrightarrow{v}\) et de vecteur normal \(\overrightarrow{n}\). Soit \(M\) un point de l’espace. On a \[\boxed{d\left(M,\mathscr P\right) =\dfrac{\left|{\overrightarrow{n}}\cdot
\overrightarrow{AM}\right|}{\left\|\overrightarrow{n}\right\|}= \dfrac{\left|\left(\overrightarrow{u} \wedge \overrightarrow{v}\right)\cdot
\overrightarrow{AM}\right|}{\left\|\overrightarrow{u} \wedge \overrightarrow{v}\right\|} = \dfrac{\left|\mathop{\rm det}\left(\overrightarrow{u},\overrightarrow{v},\overrightarrow{AM}\right)\right|}{\left\|\overrightarrow{u} \wedge \overrightarrow{v}\right\|}}\]
En savoir plus
Distance entre deux droites non parallèles
[ Proposition ]
Soient \(\mathscr D\) et \(\mathscr D'\) deux droites non parallèles. Soient \(\Delta\) la perpendiculaire commune à ces deux droites, \(H\) le point d’intersection de \(\Delta\) avec \(\mathscr D\) et \(H'\) le point d’intersection de \(\Delta\) avec \(\mathscr D'\). Pour tout points \(M\) de \(\mathscr D\) et \(M'\) de \(\mathscr D'\), on a : \[d\left(H,H'\right) \leqslant d\left(M,M'\right)\] avec égalité si et seulement si \(H=M\) et \(H'=M'\). La distance \(d\left(H,H'\right)\) est appelée distance de \(\mathscr D\) à \(\mathscr D'\) et se note \(d\left(\mathscr D,\mathscr D'\right)\).
En savoir plus
Distance entre deux réels
[ Definition ]
Soit \(\left(x,y\right)\) un couple de réels. On appelle distance de \(x\) à \(y\) la quantité, notée \(d\left(x,y\right)\) et donnée par : \(d\left(x,y\right)=\left|x-y\right|\).
En savoir plus
Distance sur \(C^k(\Omega)\)
[ Definition ]
On définit maintenant \(K_m\) comme étant l’intersection de la boule \(\overline B(0,m)\) et de \(\{ x ; d(x,\Omega^c)\geq \frac 1m\}\). On définit ensuite \(N_m(f)\), pour \(f\) dans \(C^k(\Omega)\) par \(N_m(f)=\sum_{\nu \in \mathbb{N}^d/|\nu|\leq k} sup_{K_m} |\partial^\nu f(x)|\).
On définit ensuite sur \(C^k(\Omega)\) la distance:
Distingué
[ Definition ]
Deux sous-groupes \(A\) et \(B\) de \(G\) sont dits conjugués s’il existe \(g\in G\) tel que \(A=g.B.g^{-1}\).
L’ensemble des \(x\) tels que \(x\) commute avec tout élément est appelé le centre d’un groupe. Le centre est un sous-groupe. On note \(Z(G)\) le centre de \(G\).
En savoir plus
Étant donné \(H\) sous-groupe de \(G\), le normalisateur de \(H\) est \(N_G(H)=\{g \in G ; gHg^{-1}=H\}\).
Un sous-groupe \(N\) est dit distingué (ou normal) si pour tout \(g\in G\) \(gNg^{-1}=N\); on note \(N \vartriangleleft\shortmid G\). Cela signifie qu’il est stable par tout automorphisme intérieur (définition d’un automorphisme en partie [defautoici]).
Un sous-groupe \(N\) est dit caractéristique si il est stable par tout automorphisme.
Un groupe est dit simple si ses seuls sous-groupes distingués sont \(\{1\}\) et \(G\).
Diviseurs de \(0\)
[ Definition ]
Divisibilité
[ Definition ]
Soient deux polynômes \(A\), \(B\in\mathbb{K}\left[X\right]\). On dit que \(A\) divise \(B\) si et seulement si il existe \(Q\in \mathbb{K}\left[X\right]\) tel que \(B=QA\). On le note \(A|B\) .
En savoir plus
Divisibilité
[ Definition ]
Soient deux entiers relatifs \((a,b)\in \mathbb{Z}^{2}\). On dit que l’entier \(a\) divise l’entier \(b\) si et seulement si il existe \(k\in \mathbb{Z}\) tel que \(b=ka\).
En savoir plus
Divisible
[ Definition ]
Soient \(a,b\in{ \mathbb Z}\). On dit que \(a\) est divisible par \(b\) s’il existe \(q\in{ \mathbb Z}\) tel que \(a=q\,b\). Dans ce cas, on dit aussi que
\(a\) est
multiple de \(b\), que \(b\) divise \(a\) ou que \(b\) est diviseur de
\(a\). On écrit \(b|a\).
En savoir plus
Division euclidienne
[ Corollaire ]
Soient \(a\in{ \mathbb Z}\) et \(b\in{ \mathbb Z}\setminus \{0\}\). Alors il
existe \(q\in{ \mathbb Z}\) et \(r\in\{0,1,\ldots, |b|-1\}\) tels que \[a=qb+r.\] En outre, \(q\) et \(r\) sont uniques.
En savoir plus
Division euclidienne
[ Théorème ]
Soient \(A\), \(B\in\mathbb{K}\left[X\right]\) deux polynômes. On suppose que \(B\neq 0\). Alors il un couple \(\left(Q,R\right)\) de polynômes de \(\mathbb{K}\left[X\right]\) vérifiant : \[\boxed{\begin{cases}
\quad 1\quad
A=BQ+R\newline
\quad 2 \quad \deg\left(R\right) < \deg\left(B\right)
\end{cases}}.\]
En savoir plus
Division euclidienne
[ Théorème ]
Soient \(A\) et \(B\) deux polynômes, avec \(coef(B)\) inversible. Alors \[\exists (Q,R) \mbox{ polynômes } / A=B.Q+R\] \[\mbox{avec }deg\ R < deg\ B\]
En savoir plus
Division Euclidienne
[ Théorème ]
Soient deux entiers \((a,b)\in \mathbb{Z} \times \mathbb{N}\) avec \(b\neq 0\). Alors il existe un \((q,r)\in \mathbb{Z}\times \mathbb{N}\) tel que :
On dit que l’entier \(q\) est le quotient et l’entier \(r\) le reste de la division euclidienne de \(a\) par \(b\).
En savoir plus
Division selon les puissances croissantes
[ Théorème ]
Soient \(A\) et \(B\) deux polynômes à coefficients dans \(\mathbb{K}\). On suppose que le terme constant de \(B\) n’est pas nul et on note \(p\) un entier supérieur ou égal au degré de \(B\). Il existe un unique couple de polynômes \((Q, R)\) tels que \(A = BQ + X^{p+1}R\) et \(\deg Q \leqslant p\).
En savoir plus
Division suivant les puissances croissantes
[ Théorème ]
Soit \(n\in \mathbb{N}\), \(C\) et \(D\) des polynômes à une indéterminée sur un même anneau \(A\) commutatif et unitaire. On suppose que \(D(0)\) (en tant qu’élément de \(A\)), est inversible. Alors il existe deux polynômes \(Q\) et \(R\) vérifiant
où \(Q\) et \(R\) sont appelés respectivement quotient et reste de la division suivant les puissances croissantes de \(C\) par \(D\) à l’ordre \(n\).
DL classiques à partir de Taylor-Young
[ Proposition ]
On obtient les DL classiques suivants en \(0\) en calculant les dérivées successives en \(0\) et en appliquant la formule de Taylor-Young.
En savoir plus
DL de \(\dfrac{1}{1-x}\)
[ Théorème ]
La fonction \[f: \left\{ \begin{array}{ccl} \mathbb{R}\setminus
\left\{1\right\} & \longrightarrow & \mathbb{R} \newline x & \longmapsto & \dfrac{1}{1-x} \end{array} \right.\] admet, pour tout \(n\in\mathbb{N}\) un DL à l’ordre \(n\) en \(0\) et on a \[\forall x\in \mathbb{R}\setminus \left\{1\right\},\quad
\boxed{\dfrac{1}{1-x} = 1+x+x^2+\cdots+x^n+\underset{x \rightarrow 0}{o}\left(x^n\right)}\]
En savoir plus
Dl d’ordre \(1\)
[ Théorème ]
Soit \(f : U\subset \mathbb{R}^2 \mapsto \mathbb{R}\) de classe \(\mathcal{C}^{1}\) sur l’ouvert \(U\) et \(M_0=(x_0,y_0) \in U\). Alors il existe une fonction \(\varepsilon: V \subset
\mathbb{R}^2 \rightarrow \mathbb{R}\) définie sur un voisinage \(V\) de \(\left(0,0\right)\) telle que :
On dit alors que \(f\) admet un développement limité d’ordre \(1\) en \(M_0\).
En savoir plus
DL et dérivabilité
[ Théorème ]
Soit une fonction \(f : I \mapsto \mathbb{R}\) définie sur \(]0, \alpha]\). On suppose que
Alors la fonction \(f\) se prolonge en une fonction \[\widetilde f : \left\{ \begin{array}{ccl} [0, \alpha] & \longrightarrow & \mathbb{R} \\ x & \longmapsto &
\begin{cases}
f(x) & \textrm{ si } x \neq 0 \newline
a_0 & \textrm{ si } x = 0
\end{cases}
\end{array} \right.\] dérivable en \(0\) avec \(\widetilde f'(0) = a_1\).
En savoir plus
Domaine de définition de \(f * g\)
[ Théorème ]
\(\bullet\)Si \(f\) et \(g\) sont \(L^1\) alors \(f*g\) est \(L^1\) et définie presque partout, et \({\parallel}fg {\parallel}_1 \leq {\parallel}f {\parallel}_1 \ {\parallel}g {\parallel}_1\).
\(\bullet\)Si \(f\) est \(L^\infty\) et \(g\) \(L^1\) alors \(f*g\) est \(L^\infty\) et définie partout.
Droite affine
[ Definition ]
Droite affine
[ Definition ]
Soit \(A\) un point du plan \(\mathscr P\) et \(\overrightarrow{u}\) un vecteur non nul de \(\mathscr V\). La droite \(D\) passant par \(A\) et dirigée par \(\overrightarrow{u}\) est l’ensemble des points du plan de la forme \(A+\lambda \overrightarrow{u}\) où \(\lambda\) est réel. \[D=\{A+\lambda \overrightarrow{u}~\mid~\lambda \in \mathbb{R}\} = A + \mathop{\mathrm{Vect}}(\overrightarrow{u}).\] Un vecteur non nul de \(\mathscr V\) est un vecteur directeur de la droite donnée par le couple \((A,\overrightarrow{u})\) si il est colinéaire à \(\overrightarrow{u}\).
En savoir plus
Droite asymptote
[ Definition ]
Soit \((I,\overrightarrow{F})\) un arc paramétré possédant une branche infinie en \(t_0\in I\). On dit que la droite \(\mathscr D\) est asymptote à l’arc \((I,\overrightarrow{F})\) en \(t_0\) si \(d(M(t), \mathscr D) \xrightarrow[t \rightarrow t_0]{} 0\).
En savoir plus
Droite de Simson
[ Definition ]
On appelle polygone régulier de \(\mathbb{R}^2\) l’orbite d’un vecteur non nul sous l’action d’un sous-groupe fini de \(O_2^+(\mathbb{R})\).
En savoir plus
Droite de Simson
[ Definition ]
On appelle polygone régulier de \(\mathbb{R}^2\) l’orbite d’un vecteur non nul sous l’action d’un sous-groupe fini de \(O_2^+(\mathbb{R})\).
En savoir plus
Droite de Simson
[ Definition ]
Cette équation est donc l’équation d’une droite, appelée droite de Simson.
En savoir plus
Droite numérique achevée
[ Definition ]
On appelle droite numérique achevée et on note \(\overline{\mathbb{R}}\) l’ensemble totalement ordonné \(\mathbb{R}\cup\{-\infty,+\infty\}\), avec \(+\infty\) plus grand élément et \(-\infty\) plus petit élément (le reste de l’ordre étant l’ordre usuel).
On étend les définitions de segments et d’intervalles à \(\overline{\mathbb{R}}\).
En savoir plus
Droite numérique achevée
[ Definition ]
On appelle droite numérique achevée l’ensemble, noté \(\overline{R}\) obtenu en ajoutant deux éléments à \(\mathbb{R}\) : \(\overline{R} = \mathbb{R}\cup \left\{-\infty,+\infty\right\}\)
En savoir plus
Droites orthogonales
[ Definition ]
Droites parallèles
[ Definition ]
On dit que :
En savoir plus
Droites perpendiculaires
[ Definition ]
Droite vectorielle
[ Definition ]
Soit \(\overrightarrow{u}\) un vecteur non nul du plan. On appelle droite vectorielle dirigée par \(\overrightarrow{u}\) le sous-ensemble de \(\mathscr V\), noté \(Vect\left(\overrightarrow{u}\right)\), des vecteurs du plan colinéaires à \(\overrightarrow{u}\). \[Vect\left(\overrightarrow{u}\right)=\left\{\lambda \overrightarrow{u} ~|~ \lambda\in\mathbb{R}\right\}\]
En savoir plus
Droite vectorielle
[ Definition ]
D-système
[ Definition ]
\(D\) est un d-système (on dit aussi une classe monotone si
\(\bullet\)\(D\) est stable par réunion dénombrable croissante
En savoir plus
\(\bullet\)\(S \in D\)
\(\bullet\)\(D\) est stable par soustraction (\(A\in D\), \(B\in D\), alors \(A \cap B^c \in D\)).
D-système engendré
[ Definition ]
On appelle d-système engendré par un ensemble de parties de \(X\) l’intersection de tous les d-systèmes contenant \(X\).
En savoir plus
Dual topologique
[ Definition ]
L’espace dual topologique du \(\mathbb{K}\)-espace vectoriel normé \(E\) est l’espace \(E'={\cal L}(E,\mathbb{K})\) des formes linéaires continues.
En savoir plus
Du déterminant
[ Proposition ]
Soient \(\overrightarrow{F}\) et \(\overrightarrow{G}\) deux applications définies sur \(I\), dérivables en \(t_0
\in I\) et à valeurs dans \(\mathbb{R}^2\). Alors les applications \[\left<\overrightarrow{F}|\overrightarrow{G}\right>: \left\{ \begin{array}{ccl} I & \longrightarrow & R \\ t & \longmapsto & \left<\overrightarrow{F}(t)|\overrightarrow{G}(t)\right> \end{array} \right. \quad \textrm{ et} \quad\mathop{\rm det}\left({\overrightarrow{F}},{\overrightarrow{G}}\right): \left\{ \begin{array}{ccl} I & \longrightarrow & R \newline t & \longmapsto & \mathop{\rm det}\left({\overrightarrow{F}(t)},{\overrightarrow{G}(t)}\right) \end{array} \right.\] sont dérivables en \(t_0\) et \[\boxed{\left(\left<\overrightarrow{F}|\overrightarrow{G}\right>\right)'(t_0)=\left<\overrightarrow{F}'(t_0)|\overrightarrow{G}(t_0)\right>+\left<\overrightarrow{F}(t_0)|\overrightarrow{G}'(t_0)\right> }\] \[\boxed{\left(\mathop{\rm det}\left(\overrightarrow{F},\overrightarrow{G}\right)\right)'(t_0)=\mathop{\rm det}\left(\overrightarrow{F}'(t_0),\overrightarrow{G}(t_0)\right)+\mathop{\rm det}\left(\overrightarrow{F}(t_0),\overrightarrow{G}'(t_0)\right)}\]
En savoir plus
D’un point
[ Proposition ]
Soit \((O,\overrightarrow{\imath },\overrightarrow{\jmath })\)un repère du plan \(\mathscr P\).
En savoir plus
D’un vecteur
[ Definition ]
Soit \({\mathcal R}=(O,\overrightarrow{\imath},\overrightarrow{\jmath})\) un repère orthonormal du plan.
En savoir plus