Lexique mathématique

Lexique mathématique

D
de classe \(C^1\)
[ Definition ]
Soient \(E\) et \(F\) des espaces vectoriels normés et \(U\) ouvert de \(E\). \(f\) de \(U\) dans \(F\) est de classe \(C^1\) si elle est différentiable et si l’application qui à \(x\) associe la différentielle de \(f\) en \(x\) est continue (voir [thetoposurLEF] pour un rappel de la topologie usuelle sur \({\cal L}(E,F)\)).
En savoir plus
de classe \(C^n\)
[ Definition ]
Étant donnée une application \(f\) d’un ouvert \(U\) d’un espace de Banach \(E\) dans un espace de Banach \(F\), on dit que \(f\) est de classe \(C^n\) (on dit aussi \(n\) fois continûment différentiable) si \(f\) est différentiable et si sa différentielle est de classe \(C^{n-1}\). L’application est dite \(C^{\infty}\) si elle est \(C^n\) pour tout \(n\); on dit alors qu’elle est indéfiniment différentiable.

On note alors \(f^{(1)}(a)\) l’application \(Df(a)(x)\), et par récurrence \(f^{(n)}(a)\) l’application \(Df^{(n-1)}(a)\).

Étant donné une application \(f\) d’un ouvert \(U\) d’un espace de Banach \(E\) dans un espace de Banach \(F\), on dit que \(f\) est \(n\) fois différentiable en \(x\) appartenant à \(U\) si et seulement si \(f\) est de classe \(C^{n-1}\) sur un voisinage de \(x\) et si la \(n\)-ième différentielle de \(f\) sur ce voisinage est différentiable en \(a\).

Étant donné une application \(f\) d’un ouvert \(U\) d’un espace de Banach \(E\) dans un espace de Banach \(F\), on note \(\frac{\delta^2f}{\delta x_i\delta x_j}\) l’application \(\frac{\delta\frac{\delta f}{\delta x_j}}{\delta x_i}\).
En savoir plus
de classe \(\mathcal{C}^{k}\)
[ Definition ]
  • Une fonction \(\overrightarrow{F} : I \rightarrow R^2\) est dite \(k\) fois dérivable sur \(I\) si ses fonctions coordonnées le sont.

  • Une fonction \(\overrightarrow{F}: I \rightarrow R^2\) est dite de classe \(\mathcal{C}^{k}\) sur \(I\) si ses fonctions coordonnées sont \(k\) fois dérivables sur \(I\) et si sa dérivée \(k\)-ième est continue.

En savoir plus
Décomposition de Cholesky
[ Théorème ]

On appelle décomposition de Cholesky ou décomposition \(A=^t\!\!RR\), un produit de la forme \(A=^tRR\), avec \(R\) triangulaire inférieure inversible.

\(A\) admet une décomposition de Cholesky si et seulement si \(A\) est symétrique définie positive.

En savoir plus
Décomposition de Cholesky
[ Théorème ]
On appelle décomposition de Cholesky ou décomposition \(A=^t\!\!RR\), un produit de la forme \(A=^tRR\), avec \(R\) triangulaire inférieure inversible. \(A\) admet une décomposition de Cholesky si et seulement si \(A\) est symétrique définie positive.
En savoir plus
Décomposition de Jordan
[ Proposition ]
Si \(f\) est un endomorphisme d’un espace vectoriel de dimension finie dont le polynôme caractéristique \(\chi_f\) est scindé (ce qui est automatique si \(\mathbb{K}=\mathbb{C}\) par exemple), alors il existe une base de \(E\) dans laquelle la matrice de \(f\) est de la forme \[\left( \begin{array}{cccc} \widetilde{M}_1 & 0 & \dots & 0 \\ 0 & \widetilde{M}_2& \ddots & \vdots \\ \vdots & \ddots & \ddots & 0 \\ 0 & \dots & 0 & \widetilde{M}_l \end{array}\right)\]

Il s’agit donc d’une matrice triangulaire supérieure, dont les seuls termes non nuls sont les \({\lambda}_i\) sur la diagonale, et des 0 et des 1 sur la sur-diagonale.

Notons qu’aux « changements de bloc » (passage de \({\lambda}_i\) à \({\lambda}_{i+1}\)) on a un 0 sur la sur-diagonale au dessus du premier \({\lambda}_{i+1}\), i.e. à droite du dernier \({\lambda}_i\).
En savoir plus
Décomposition en éléments simples
[ Théorème ]

Soit \(\mathbb{K}\) un corps clos (par exemple \(\mathbb{C}\)). Alors toute fraction rationnelle peut s’écrire de manière unique sous la forme suivante: \(\displaystyle P+\sum_{i=1}^n (\sum_{j=1}^{n_i} \frac{{\lambda}_{i,j}}{(X-p_i)^j})\), avec \(P\) un polynôme dans \(\mathbb{K}\), avec les \(n_i\) non nuls, avec les \({\lambda}_{i,j}\in \mathbb{K}\), et les \(p_i\) (les pôles) sont des éléments de \(\mathbb{K}\) deux à deux disjoints.

Toute fraction rationnelle sur le corps des réels peut s’écrire de manière unique sous la forme suivante: \(\displaystyle P+\sum_{i=1}^n(\sum_{j=1}^{n_i} \frac{{\lambda}_{i,j}}{(X-p_i)^j})+\sum_{i=1}^m (\sum_{j=1}^{m_i} \frac{\alpha_iX+ \beta_i}{X^2+\gamma X+ \delta})\) avec les \(p_i\) des réels distincts, les \({\lambda}_i\), \(\alpha_i\), \(\beta_i\) des réels, les \(X^2+\gamma X+\delta\) des polynômes irréductibles \(2\) à \(2\) disjoints.

Ces formes uniques sont appelées décompositions en éléments simples.
En savoir plus
Décomposition en facteurs premiers
[ Théorème ]
Soit \(n\geq 1\) un entier et soit \(p_1, p_2 \ldots\) la liste des nombres premiers (exhaustive et sans répétitions). Alors il existe des entiers \(m_i\in{\mathbb N}\) uniques et nuls sauf pour un nombre fini d’entre eux tels que \[n=p_1^{m_1} p_2^{m_2} p_3^{m_3} \cdots .\]
En savoir plus
Décomposition en produit semi-direct
[ Proposition ]
Si on a une suite exacte \[{\atop 1 \rightarrow N}{i \atop \rightarrow}{\atop G}{s \atop \rightarrow}{\atop H \rightarrow 1}\] (c’est-à-dire si \(i\) est injective, si \(s\) est surjective, et si \(Ker\ s = Im\ i\)) et si on a un sous-groupe \(\overline H\) de \(G\) sur lequel la restriction de \(s\) est un isomorphisme vers \(H\) (c’est-à-dire un relèvement, une section, voir la partie [sd]), alors \(G\) est isomorphe à \(i(N) \rtimes \overline H\) relativement à la loi de l’automorphisme intérieur (voir la remarque de [sd]). On peut donc aussi dire que \(G\) est isomorphe à \(N \rtimes H\), \(i\) étant un isomorphisme de \(N\) sur \(\overline N=i(N)\), et \(s\) étant un isomorphisme de \(\overline H\) sur \(H\).
En savoir plus
Décomposition \(A=LU\)
[ Théorème ]

Etant donnée une matrice \(A\) supposée inversible, on définit \(a_k=| (A_{i,j})_{i,j\leq k} |\), déterminant de la matrice obtenue en se restreignant aux \(k\) premières lignes et \(k\) premières colonnes.

On appelle décomposition \(A=LU\) un produit du type \(A=LU\) avec \(L\) matrice triangulaire inférieure ne comportant que des \(1\) sur la diagonale, \(U\) matrice triangulaire supérieure. Alors, il existe une décomposition \(A=LU\) si et seulement si les \(a_k\) sont non nuls pour tout \(k\) dans \([\![1,n]\!]\).
En savoir plus
Décomposition \(A=LU\)
[ Théorème ]
Étant donnée une matrice \(A\) supposée inversible, on définit \(a_k=| (A_{i,j})_{i,j\leq k} |\), déterminant de la matrice obtenue en se restreignant aux \(k\) premières lignes et \(k\) premières colonnes.

On appelle décomposition \(A=LU\) un produit du type \(A=LU\) avec \(L\) matrice triangulaire inférieure ne comportant que des \(1\) sur la diagonale, \(U\) matrice triangulaire supérieure.

Alors, il existe une décomposition \(A=LU\) si et seulement si les \(a_k\) sont non nuls pour tout \(k\) dans \([\![1,n]\!]\).
En savoir plus
de dimension finie
[ Definition ]
Un espace vectoriel est dit de dimension finie lorsqu’il admet une base finie. Dans le cas contraire il est dit de dimension infinie.
Dans un espace fini le cardinal d’une base est appelé dimension de l’espace (pour la cohérence de la définition il faudra voir que toutes les bases ont alors même cardinal). Un sous-espace vectoriel d’un espace vectoriel \(E\) est dit de codimension finie si la dimension de l’espace quotient est finie. On appelle alors codimension de cet espace la dimension de l’espace quotient. Sinon il est dit de codimension infinie. La notion de base a été définie dans la partie [al5b].
En savoir plus
de dimension finie
[ Definition ]
Un espace vectoriel est dit de dimension finie lorsqu’il admet une base finie. Dans le cas contraire il est dit de dimension infinie. Dans un espace fini le cardinal d’une base est appelé dimension de l’espace (pour la cohérence de la définition il faudra voir que toutes les bases ont alors même cardinal). Un sous-espace vectoriel d’un espace vectoriel \(E\) est dit de codimension finie si la dimension de l’espace quotient est finie. On appelle alors codimension de cet espace la dimension de l’espace quotient. Sinon il est dit de codimension infinie. La notion de base a été définie dans la partie [al5b].
En savoir plus
de direction \(D\) et de rapport \({\lambda}\)
[ Definition ]
Soit \(H\) un hyperplan d’un espace vectoriel \(E\), et \(D\) une droite supplémentaire de \(H\). On appelle dilatation d’hyperplan \(H\), de direction \(D\) et de rapport \({\lambda}\) l’application linéaire dont la restriction à \(H\) est l’identité et dont la restriction à \(D\) est l’homothétie de rapport \({\lambda}\). Soit \(H\) un hyperplan d’un espace vectoriel \(E\), et \(h\) une forme linéaire de noyau \(H\). On appelle transvection d’hyperplan \(H\) une application de \(E\) dans \(E\) de la forme \[x \mapsto x+ h(x).u\] pour un certain \(u\) dans \(H\).
En savoir plus
de direction \(D\) et de rapport \({\lambda}\)
[ Definition ]
Étant donné \(X\) un espace affine , \(H\) un hyperplan affine, \(D\) une droite affine supplémentaire de \(H\), et \({\lambda}\) un scalaire non nul, on appelle dilatation affine d’hyperplan \(H\), de direction \(D\) et de rapport \({\lambda}\) l’application dont la restriction au vectorialisé de \(H\) en \(H \cap D\) est l’identité, et dont la restriction au vectorialisé de \(D\) en \(H \cap D\) est une homothétie de rapport \({\lambda}\).
En savoir plus
Définition bifocale de l’ellipse et de l’hyperbole
[ Proposition ]
Soient \(a\) et \(c\) deux réels strictement positifs, \(F\) et \(F'\) deux points du plan tels que \(\left\|\overrightarrow{FF'}\right\|=2c\).
  1. Si \(a>c\), l’ensemble des points du plan tels que \[\boxed{\left\|\overrightarrow{MF}\right\|+ \left\|\overrightarrow{MF'}\right\| = 2a}\] est l’ellipse de foyers \(F\) et \(F'\) et de demi-grand axe \(a\)

  2. Si \(a<c\), l’ensemble des points du plan tels que \[\boxed{\left| \left\|\overrightarrow{MF}\right\| - \left\|\overrightarrow{MF'}\right\| \right| = 2a}\] est l’hyperbole de foyers \(F\) et \(F'\) et de demi-axe focal \(a\).

En savoir plus
Définition de la distance de Hausdorff
[ Definition ]

On définit tout d’abord: \[V_\epsilon(A)=\{ x ; d(x,A)<\epsilon\}\] \(V_\epsilon(A)\) est appelé \(\epsilon\)-voisinage ouvert de \(A\). Il est ouvert par la proposition [continuitedistance].

Ensuite on note \(D(A,B)\) et on appelle distance de Hausdorff le réel \[D(A,B)=\inf\{x \in \mathbb{R}^{+} ; A \subset V_x(B) \land B \subset V_x(A)\}\] défini sur l’ensemble \(K(E)\) des compacts non vides d’un espace métrique \(E\) donné.
En savoir plus
Définition des dérivées partielles
[ Proposition ]
Soit \(U\) un ouvert du produit \(E_1 \times E_2\) de deux espaces vectoriels normés , soit \(f : U \rightarrow F\), avec \(F\) espace vectoriel normé , et \(f\) différentiable en \(a=(a_1,a_2)\). Alors les deux applications partielles \(x_1 \mapsto f(x_1,a_2)\) et \(x_2 \mapsto f(a_1,x_2)\) sont différentiables respectivement en \(a_1\) et \(a_2\). On note les deux différentielles obtenues respectivement \(D_1f(a_1,a_2)\) et \(D_2f(a_1,a_2)\), ou bien \(\frac{\delta f}{\delta x_1}\) et \(\frac{\delta f}{\delta x_2}\), et on les appelle respectivement première dérivée partielle et deuxième dérivée partielle. On a alors \[Df(a_1,a_2)(h_1,h_2)=D_1f(a_1,a_2)(h_1)+D_2f(a_1,a_2)(h_2)\] On peut généraliser de même à un produit fini d’espaces vectoriels normés ; si \(f\) est différentiable en \((a_1,a_2,...,a_n)\), alors pour tout \(i\) dans \(\llbracket 1,n\rrbracket\) \(x \mapsto f(a_1,...,a_{i-1},x,a_{i+1},...,a_n)\) est différentiable en \(a_i\), sa différentielle en \(a_i\) est noté \(\frac{\delta f}{\delta x_i}(a)\), et \[Df(a_1,...,a_n)(h_1,...,h_n)=\sum_{i=1}^n \frac{\delta f}{\delta x_i}(a)(h_i)\]
En savoir plus
Définitions dans le cadre de la réduction en dimension finie
[ Definition ]
\(\bullet\)On appelle polynôme caractéristique d’une matrice carrée \(M\) le polynôme \(det(X.I-M)\).

\(\bullet\)Le polynôme caractéristique de la matrice d’un endomorphisme en dimension finie (le polynôme caractéristique n’est défini que dans ce cadre là) est indépendant de la base choisie; on l’appelle polynôme caractéristique de cet endomorphisme.

On note \(\chi_M\) le polynôme caractéristique de la matrice \(M\) et \(\chi_f\) le polynôme caractéristique de l’endomorphisme \(f\).
En savoir plus
Définitions dans le cas d’un espace vectoriel produit
[ Definition ]
On appelle \(k\)-ième projection canonique d’un espace vectoriel produit \(E_1 \times ... \times E_n\) l’application qui à \(x\) dans le produit associe sa composante dans \(E_k\). On appelle \(k\)-ième injection canonique d’un espace vectoriel produit \(E_1 \times ... \times E_n\) l’application qui à \(x\) dans \(E_k\) associe \((0,...,0,x,0,...0)\).
En savoir plus
Définitions dans les anneaux intègres
[ Definition ]
\(a\) et \(b\) dans \(A\) anneau intègre sont dits premiers entre eux si \[\forall x \in A\ x|a \mbox{ et } x|b \to x \mbox{ est une unité}\] De même les éléments d’une famille \((a_i)_{i\in [[1,n]]}\) sont dits premiers entre eux si un élément divisant tous les \(a_i\) est nécessairement une unité.
En savoir plus
Définitions de base
[ Definition ]
\(\mathbb{K}\) est un corps ordonné si \(\forall (x,y) \in \mathbb{K}^2\ 0\leq x\land 0\leq y \rightarrow 0 \leq x+y \land 0 \leq x.y \land -x\leq 0\).

\(\mathbb{K}\) est totalement ordonné si \(\forall (x,y) \in \mathbb{K}^2\ x\leq y\lor y\leq x\).

\(\mathbb{K}\) est archimédien si \(\forall (x,y) \in \mathbb{K}^2\ 0 \leq x\land 0< y \rightarrow \exists n \in \mathbb{N}; x < y + ... + y \mbox{($n$ fois)}\)

\(\mathbb{K}\) a la propriété de la borne supérieure si toute partie non vide majorée de \(\mathbb{K}\) admet une borne supérieure.

On appelle corps réel un corps commutatif totalement ordonné possédant la propriété de la borne supérieure. On le note \(\mathbb{R}\). On admettra l’unicité à isomorphisme près d’un tel corps (l’existence s’obtient par l’étude du complété de \(\mathbb{Q}\)). Il possède en outre la propriété de la borne inférieure et il est archimédien (preuve laissée en exercice).
En savoir plus
Définitions de base
[ Definition ]

On appelle triplet de probabilité ou espace probabilisé un triplet \((\Omega,{\cal F},P)\)\({\cal F}\) est une tribu sur \(\Omega\) et \(P\) une mesure de probabilité sur \((\Omega,{\cal F})\).

\(\Omega\) est appelé l’univers.

Un élément de \(\Omega\) est appelé possible.

On appelle événement une partie mesurable de \(\Omega\), c’est-à-dire un élément de \({\cal F}\), c’est-à-dire une partie \({\cal F}\)-mesurable.
En savoir plus
Définitions de base pour les ordinaux
[ Definition ]
On dit qu’un ensemble muni d’une relation d’ordre est bien ordonné si et seulement si toute partie non vide de cet ensemble admet un élément minimum. L’ordre est alors appelé un bon ordre. On appelle segment initial d’une partie bien ordonnée un ensemble de cette partie tel que étant donné un élément de cette partie, tous les éléments qui sont inférieurs à cet élément sont aussi dans la partie. On appelle segment initial engendré par \(x\) l’ensemble des \(y\) plus petits que \(x\); cette partie est clairement un segment initial.

Un ensemble est dit transitif si tout élément de cet ensemble est inclu dans cet ensemble. C’est-à-dire que si \(S \in E\), alors \(S \subset E\) (non, il n’y a pas de faute de frappe!).

Un ensemble est un ordinal s’il est transitif et bien ordonné par \(\in\), cette relation étant une relation d’ordre strict. On note \(On\) l’ensemble des ordinaux.
En savoir plus
Définitions de base sur les matrices
[ Definition ]
On appelle matrice de type \((n,p)\) sur un corps \(\mathbb{K}\) toute application de \([\![1,n]\!]\times [\![1,p]\!]\) (intervalles de \(\mathbb{N}\)) dans \(\mathbb{K}\). On la représente généralement comme suit: \[\left( \begin{array}{cccc} m_{1,1} & m_{1,2} & \dots & m_{1,p} \\ m_{2,1} & m_{2,2} & \dots & m_{2,p} \\ \vdots & \vdots &\ddots & \vdots \\ m_{n,1} & m_{n,2} & \dots & m_{n,p} \\ \end{array}\right)\] On note \(M_{n,p}(\mathbb{K})\) l’ensemble des matrices de type \((n,p)\) sur le corps \(\mathbb{K}\).
On appelle matrice ligne une matrice de type \((1,p)\), et matrice colonne une matrice de type \((n,1)\).
On appelle matrice extraite d’une matrice de type \((n,p)\) la restriction de cette matrice à \(I \times J\), avec \(I \subset [\![1,n]\!]\) et \(J \subset [\![1,p]\!]\).
On appelle \(i\)-ième vecteur-ligne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \(\{i\}\times [\![1,p]\!]\). On peut identifier un vecteur-ligne à un élément de \(\mathbb{K}^p\).
On appelle \(j\)-ième vecteur-colonne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \([\![1,n]\!] \times \{j\}\). On peut identifier un vecteur-colonne à un élément de \(\mathbb{K}^n\).
On appelle matrice associée à un morphisme \(f\) de l’espace vectoriel \(E\) de dimension \(p\) dans l’espace vectoriel \(F\) de dimension \(n\) et aux bases \(B=(e_i)\) et \(B'=(f_i)\) de \(E\) et \(F\) respectivement la matrice \(M\) de type \((n,p)\) telle que \(M_{i,j}=f_i^*(e_j)\). On la note \(Mat_{B,B'}(f)\).
Inversement, on appelle application linéaire canoniquement associée à la matrice \(M\) le morphisme de \(\mathbb{K}^p\) dans \(\mathbb{K}^n\) dont la matrice associée est \(M\).
En savoir plus
Définitions de base sur les matrices
[ Definition ]
On appelle matrice de type \((n,p)\) sur un corps \(\mathbb{K}\) toute application de \([\![1,n]\!]\times [\![1,p]\!]\) (intervalles de \(\mathbb{N}\)) dans \(\mathbb{K}\). On la représente généralement comme suit: \[\left( \begin{array}{cccc} m_{1,1} & m_{1,2} & \dots & m_{1,p} \\ m_{2,1} & m_{2,2} & \dots & m_{2,p} \\ \vdots & \vdots &\ddots & \vdots \newline m_{n,1} & m_{n,2} & \dots & m_{n,p} \end{array}\right)\] On note \(M_{n,p}(\mathbb{K})\) l’ensemble des matrices de type \((n,p)\) sur le corps \(\mathbb{K}\).

On appelle matrice ligne une matrice de type \((1,p)\), et matrice colonne une matrice de type \((n,1)\).

On appelle matrice extraite d’une matrice de type \((n,p)\) la restriction de cette matrice à \(I \times J\), avec \(I \subset [\![1,n]\!]\) et \(J \subset [\![1,p]\!]\).

On appelle \(i\)-ième vecteur-ligne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \(\{i\}\times [\![1,p]\!]\). On peut identifier un vecteur-ligne à un élément de \(\mathbb{K}^p\).

On appelle \(j\)-ième vecteur-colonne de la matrice \(M\) de type \((n,p)\) la restriction de cette matrice à \([\![1,n]\!] \times \{j\}\). On peut identifier un vecteur-colonne à un élément de \(\mathbb{K}^n\).

On appelle matrice associée à un morphisme \(f\) de l’espace vectoriel \(E\) de dimension \(p\) dans l’espace vectoriel \(F\) de dimension \(n\) et aux bases \(B=(e_i)\) et \(B'=(f_i)\) de \(E\) et \(F\) respectivement la matrice \(M\) de type \((n,p)\) telle que \(M_{i,j}=f_i^*(e_j)\). On la note \(Mat_{B,B'}(f)\).

Inversement, on appelle application linéaire canoniquement associée à la matrice \(M\) le morphisme de \(\mathbb{K}^p\) dans \(\mathbb{K}^n\) dont la matrice associée est \(M\).
En savoir plus
Définition \(\epsilon-\delta\) de la continuité
[ Proposition ]
Soit \(f\) application entre espaces métriques; \(f\) est continue en \(x\) si pour tout \(\epsilon\) il existe \(\delta\) tel que \(d(x,x')<\delta \rightarrow d(f(x'),f(x))<\epsilon\)
En savoir plus
Définitions sur les ordres
[ Definition ]
Un ordre est une relation réflexive, antisymétrique, transitive.

Une relation d’ordre strict est une relation \(<\) telle que \(\leq\) définie par \(x \leq y \iff (x=y \lor x < y)\) soit une relation d’ordre, et telle que pour tout \(x\), on a \(\neg (x < x)\).

Un élément \(x\) d’une partie \(E\) est un minimum de cette partie \(E\) si et seulement si \(x \in E\) et si \(\forall e \in E \ e \geq x\).

Un élément \(x\) d’une partie \(E\) est un élément minimal de \(E\) si et seulement si \(x \in E\) et si \(((e \in E) \land (e \leq x)) \rightarrow e=x\).

Un élément \(x\) est dit minorant d’une partie \(E\) si \(\forall e \in E \ e \geq x\); il n’est pas nécessaire que \(x\) soit dans \(E\).

On définit de même maximum, élément maximal, majorant en remplaçant\(\leq\) par \(\geq\).

Un bon ordre est un ordre tel que toute partie non vide a un minimum.
En savoir plus
densité de probabilité de \(X\)
[ Definition ]
Étant donné \(X\) une variable aléatoire , une application \(f_X\) mesurable est appelée une densité de probabilité de \(X\) si et seulement si pour tout borélien \(E\) de \(\mathbb{R}\), on a \(P(X^{-1}(E))=\int_E f_X\).
En savoir plus
Dérivabilité d’une fonction réelle
[ Definition ]
On dit qu’une fonction réelle \(f: I \rightarrow \mathbb{R}\) est dérivable en \(t_0\in I\) si il existe un réel \(l\) tel que : \[{\scriptstyle f(t)-f(t_0)\over\scriptstyle t-t_0} \xrightarrow[t\rightarrow t_0]{} l\] Dans le cas où cette limite existe, on notera \(f'(t_0)=l\). De plus, on dira que \(f\) est dérivable sur \(I\) si \(f\) est dérivable en tout point \(t\) de \(I\) non situé à une extrémité de \(I\).
En savoir plus
Dérivabilité d’une fonction vectorielle
[ Definition ]
On dit qu’une fonction vectorielle \(\overrightarrow{F} : I \rightarrow \mathbb{R}^2, t \mapsto (x(t),y(t))\) est dérivable en \(t_0\in I\) si il existe \(\overrightarrow{l}=(l_1,l_2)\) un vecteur de \(\mathbb{R}^2\) tel que : \[{\scriptstyle\overrightarrow{F}(t)-\overrightarrow{F}(t_0)\over\scriptstyle t-t_0} \xrightarrow[t\rightarrow t_0]{} \overrightarrow{l}\] Dans le cas où cette limite existe, on note \(\overrightarrow{F}'(t_0)=l\).
En savoir plus
Dérivabilité d’une fonction vectorielle sur un intervalle
[ Definition ]
On dit qu’une fonction vectorielle \(\overrightarrow{F} : I \rightarrow \mathbb{R}^2, t \mapsto (x(t),y(t))\) est dérivable sur \(I\) si \(\overrightarrow{F}\) est dérivable en tout point \(t\) de \(I\) non situé à une extrémité de \(I\).
En savoir plus
dérivable au sens complexe en \(a\in\Omega\) si
[ Definition ]

Une fonction est dite dérivable au sens complexe en \(a\in\Omega\) si \(lim_{x\to a} \frac{f(x)-f(a)}{x-a}\) existe et est finie. On note alors cette limite \(f'(a)\).

Une fonction est dite holomorphe sur \(\Omega\) si elle est dérivable au sens complexe en tout point de \(\Omega\). On note \(H(\Omega)\) l’ensemble des fonctions holomorphes sur \(\Omega\).

On notera \(D(a,r)\) (resp. \(D'(a,r)\)) avec \(r>0\) l’ensemble des \(x\) de \(\Omega\) tels que \(|x-a|<r\) (resp. \(0<|x-a|<r\)).

Un domaine est un ouvert connexe non vide.

En savoir plus
dérivable au sens complexe en \(a\in\Omega\) si
[ Definition ]

Une fonction est dite dérivable au sens complexe en \(a\in\Omega\) si \(lim_{x\to a} \frac{f(x)-f(a)}{x-a}\) existe et est finie. On note alors cette limite \(f'(a)\).

Une fonction est dite holomorphe sur \(\Omega\) si elle est dérivable au sens complexe en tout point de \(\Omega\). On note \(H(\Omega)\) l’ensemble des fonctions holomorphes sur \(\Omega\).

On notera \(D(a,r)\) (resp. \(D'(a,r)\)) avec \(r>0\) l’ensemble des \(x\) de \(\Omega\) tels que \(|x-a|<r\) (resp. \(0<|x-a|<r\)).

Un domaine est un ouvert connexe non vide.
En savoir plus
Dérivation de la bijection réciproque
[ Théorème ]
Soit \(f:I \rightarrow R\). On suppose que:
  1. \(f\) est strictement monotone sur l’intervalle \(I\).

  2. \(f\) est dérivable sur \(I\).

  3. \(\forall x\in I, \quad f'\left(x\right)\neq 0\)

alors \(f\) réalise une bijection de l’intervalle \(I\) sur l’intervalle \(J=f(I)\) et son application réciproque, \(f^{-1}\) est dérivable sur \(J\) et \[\boxed{\left(f^{-1}\right)'=\dfrac{1}{f'\circ f^{-1}}}\]
En savoir plus
Dérivation de la norme
[ None ]
Soit \(\overrightarrow{F}\) une fonction définie sur \(I\), dérivable en \(t_0 \in I\), à valeurs dans \({\mathbb{R}^2}\) et ne s’annulant pas. Alors l’application \(\left\|\overrightarrow{F}\right\|:I \rightarrow \mathbb{R}\) est dérivable en \(t_0\) et \[\boxed{\left(\left\|\overrightarrow{F}\right\|\right)'(t_0)=\dfrac{\left<\overrightarrow{F}'(t_0)|\overrightarrow{F}(t_0) \right>}{\left\|\overrightarrow{F} (t_0)\right\|}}\]
En savoir plus
Dérivation de l’exponentielle
[ Théorème ]

Soit \(E\) un Banach et soit \(f\in {\cal L}(E)\), alors l’application \(t \mapsto \exp(t f)\) est dérivable, de dérivée \(\exp(tf)\circ f=f \circ \exp(tf)\).

En savoir plus
Dérivation du produit scalaire
[ Proposition ]
Soient \(\overrightarrow{F}\) et \(\overrightarrow{G}\) deux applications définies sur \(I\), dérivables en \(t_0 \in I\) et à valeurs dans \(\mathbb{R}^2\). Alors les applications \[\left<\overrightarrow{F}|\overrightarrow{G}\right>: \left\{ \begin{array}{ccl} I & \longrightarrow & R \\ t & \longmapsto & \left<\overrightarrow{F}(t)|\overrightarrow{G}(t)\right> \end{array} \right. \quad \textrm{ et} \quad\mathop{\rm det}\left({\overrightarrow{F}},{\overrightarrow{G}}\right): \left\{ \begin{array}{ccl} I & \longrightarrow & R \newline t & \longmapsto & \mathop{\rm det}\left({\overrightarrow{F}(t)},{\overrightarrow{G}(t)}\right) \end{array} \right.\] sont dérivables en \(t_0\) et \[\boxed{\left(\left<\overrightarrow{F}|\overrightarrow{G}\right>\right)'(t_0)=\left<\overrightarrow{F}'(t_0)|\overrightarrow{G}(t_0)\right>+\left<\overrightarrow{F}(t_0)|\overrightarrow{G}'(t_0)\right> }\] \[\boxed{\left(\mathop{\rm det}\left(\overrightarrow{F},\overrightarrow{G}\right)\right)'(t_0)=\mathop{\rm det}\left(\overrightarrow{F}'(t_0),\overrightarrow{G}(t_0)\right)+\mathop{\rm det}\left(\overrightarrow{F}(t_0),\overrightarrow{G}'(t_0)\right)}\]
En savoir plus
dérivée à droite
[ Definition ]
Soient \(a\) et \(b\) dans \(\mathbb{R}\), avec \(a < b\), et \(F\) un espace vectoriel normé . Une application \(f\) de \([a,b]\) dans \(F\) est dite dérivable à droite en \(x\) appartenant à \([a,b[\) si la limite à droite \(lim_{h\rightarrow 0, h >0} \frac{f(x+h)-f(x)}h\) existe; on l’appelle alors dérivée à droite de \(f\) en \(x\).
En savoir plus
déterminant
[ Definition ]
On appelle déterminant d’une famille \((x_1,...,x_n)\) d’éléments de \(E\) dans une base \((e_1,...,e_n)\) de \(E\) la somme: \[\sum_{\sigma\in \sigma_n} \epsilon(\sigma) \Pi_{i=1}^n e_{\sigma(i)}^*(x_i)\] On le note \(det_{(e_1,...,e_n)}(x_1,...,x_n)\).
En savoir plus
déterminant
[ Definition ]
On appelle déterminant d’une matrice carrée \(M\) le déterminant de l’endomorphisme canonique associé à \(M\) dans \(\mathbb{K}^n\). On le note \(det\ M\) ou \(| M |\). On appelle groupe spécial linéaire d’ordre \(n\) et on note \(SL_n(\mathbb{K})\) l’ensemble des matrices de déterminant égal à \(1\).
En savoir plus
Déterminant
[ Definition ]
Le déterminant de deux vecteurs du plan \(\mathscr V\) \(\overrightarrow{u}\) et \(\overrightarrow{v}\), noté \(\mathop{\rm det}(\overrightarrow{u}, \overrightarrow{v})\) est défini, de manière géométrique, par: \[\boxed{\left\{\begin{array}{l} \mathop{\rm det}(\overrightarrow{u}, \overrightarrow{v})= \left\|\overrightarrow{u}\right\| \, \left\|\overrightarrow{v}\right\| \, \sin \, (\widehat{ \overrightarrow{u},\overrightarrow{v}}) \textrm{ si les deux vecteurs } \overrightarrow{u} \textrm{ et } \overrightarrow{v} \textrm{ sont non nuls} \newline \mathop{\rm det}(\overrightarrow{u}, \overrightarrow{v})=0 \textrm{ sinon.} \end{array}\right.}\]
En savoir plus
Déterminant
[ Definition ]
Soient \(\overrightarrow{u}\), \(\overrightarrow{v}\), \(\overrightarrow{w}\) trois vecteurs de l’espace \(\mathscr V\). On appelle déterminant ou produit mixte de ces trois vecteurs le nombre réel, noté \(\left[\overrightarrow{u},\overrightarrow{v},\overrightarrow{w}\right]\) ou \(\mathop{\rm det}\left(\overrightarrow{u},\overrightarrow{v},\overrightarrow{w}\right)\), et donné par : \[\boxed{\mathop{\rm det}\left(\overrightarrow{u},\overrightarrow{v},\overrightarrow{w}\right)=\left(\overrightarrow{u} \wedge \overrightarrow{v}\right).\overrightarrow{w}}\]
En savoir plus
déterminant de l’endomorphisme \(f\)
[ Definition ]
On appelle déterminant de l’endomorphisme \(f\) le déterminant de \(f(B)\) dans la base \(B\); on le note \(det\ f\). On appelle groupe spécial linéaire de \(E\) l’ensemble des endomorphismes de \(E\) de déterminant \(1\); on le note \(SL(E)\).
En savoir plus
Déterminant de Vandermonde
[ Proposition ]
Le déterminant de Vandermonde associé à \((x_1,...,x_n)\) est égal à \[\Pi_{i<j} (x_j-x_i).\]
En savoir plus
déterminant de Vandermonde associé à un \(n\)-uple \((x_1,...,x_n)\)
[ Definition ]
On appelle déterminant de Vandermonde associé à un \(n\)-uple \((x_1,...,x_n)\) le déterminant \[\left| \begin{array}{cccccc} x_1^0 & x_1^1 & x_1^2 & x_1^3 & \dots & x_1^{n-1} \\ x_2^0 & x_2^1 & x_2^2 & x_2^3 & \dots & x_2^{n-1} \\ x_3^0 & x_3^1 & x_3^2 & x_3^3 & \dots & x_3^{n-1} \\ x_4^0 & x_4^1 & x_4^2 & x_4^3 & \dots & x_4^{n-1} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ x_n^0 & x_n^1 & x_n^2 & x_n^3 & \dots & x_n^{n-1} \\ \end{array}\right|= \left| \begin{array}{cccccc} 1 & x_1^1 & x_1^2 & x_1^3 & \dots & x_1^{n-1} \\ 1 & x_2^1 & x_2^2 & x_2^3 & \dots & x_2^{n-1} \\ 1 & x_3^1 & x_3^2 & x_3^3 & \dots & x_3^{n-1} \\ 1 & x_4^1 & x_4^2 & x_4^3 & \dots & x_4^{n-1} \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ 1 & x_n^1 & x_n^2 & x_n^3 & \dots & x_n^{n-1} \newline \end{array}\right|\]
En savoir plus
de type fini
[ Definition ]
On dit que \(G\) est de type fini si \(\exists X\) fini qui engendre \(G\).
En savoir plus
Deuxième propriété fondamentale du symétrisé de Steiner
[ Corollaire ]

Quel que soit \(K\) compact et \(P\) hyperplan, \(S_P(K)\) a un diamètre inférieur ou égal à celui de \(K\).

En savoir plus
Deuxième propriété fondamentale du symétrisé de Steiner
[ Corollaire ]

Quel que soit \(K\) compact et \(P\) hyperplan, \(S_P(K)\) a un diamètre inférieur ou égal à celui de \(K\).

En savoir plus
Deuxième théorème de Sylow
[ Théorème ]
Étant donné \(G\) un groupe, de cardinal \(|G|=p^r.m\), avec \(p \not | m\).

\(\bullet\)Tout \(p\)-groupe inclus dans \(G\) est inclus dans un \(p\)-Sylow de \(G\).

\(\bullet\)Les \(p\)-Sylow sont tous conjugués.

\(\bullet\)Les \(p\)-Sylow forment une orbite de \(G\) sous l’action de \(G\) par automorphisme intérieur.

\(\bullet\)Un \(p\)-Sylow est distingué si et seulement si il est l’unique \(p\)-Sylow.

\(\bullet\)Le nombre de \(p\)-Sylow est congru à \(1\) modulo \(p\) et divise \(|G|\).

\(\bullet\)Le nombre de \(p\)-Sylow divise \(m\).
En savoir plus
deuxième version
[ Théorème ]
Soit \(K\) un compact de \(\mathbb{R}^n\), \(\Omega\) un ouvert de \(\mathbb{R}^n\) contenant \(K\), alors il existe une fonction \(f\) \(C^\infty\) à support compact telle que \(\chi_K \leq f \leq \chi_\Omega\).
En savoir plus
deuxième version
[ Definition ]
Un produit d’ensembles non vides est non vide.
En savoir plus
Développement en série entière
[ Definition ]

On suppose \(\mathbb{K}=\mathbb{R}\) ou \(\mathbb{K}=\mathbb{C}\).

Une application \(f\) d’un ouvert \(U\) de \(\mathbb{K}\) dans \(\mathbb{K}\) est dite développable en série entière au voisinage de \(a\in U\) s’il existe \(\sum a_n.z^n\) de rayon de convergence \(\geq r>0\) telle que \(D(a,r) \subset U\) et \(\forall z \in D(a,r)\) on ait \(f(z)=\sum a_n.(z-a)^n\).

\(f\) est dite analytique sur \(V \subset U\) avec \(V\) un ouvert de \(\mathbb{K}\) si elle est développable en série entière au voisinage de chaque point de \(V\).
En savoir plus
Développement en série entière des fonctions holomorphes
[ Théorème ]
Toute fonction holomorphe est développable en série entière.
En savoir plus
Développement en série entière des fonctions holomorphes
[ Théorème ]
Toute fonction holomorphe est développable en série entière.
En savoir plus
Développement limité
[ Definition ]
On dit que \(f\) de \(\mathbb{R}\) dans \(\mathbb{C}\) admet un développement limité en \(a\in \mathbb{R}\) à l’ordre \(n\) s’il existe une fonction polynôme \(P\) de \(\mathbb{R}\) dans \(\mathbb{C}\) telle que au voisinage de \(a\) \[f(x)=P(x)+o((x-a)^n).\]
En savoir plus
Développement limité au sens fort
[ Definition ]
On dit que \(f\) de \(\mathbb{R}\) dans un espace vectoriel normé \(E\) admet un développement limité au sens fort en \(a\in \mathbb{R}\) à l’ordre \(n\) s’il existe un polynôme \(P\) à coefficients dans \(E\) telle que au voisinage de \(a\) \(f(x)=P(x)+O((x-a)^{n+1})\).
En savoir plus
Développement suivant une colonne
[ Proposition ]
\[\forall j\in[[1,n]],\ det\ M= \sum_{i\in [[1,n]]} \gamma_{i,j}.M_{i,j}\]
En savoir plus
Développement suivant une ligne
[ Proposition ]
\[\forall i\in[[1,n]],\ det\ M= \sum_{j\in [[1,n]]} \gamma_{i,j}.M_{i,j}\]
En savoir plus
Difféomorphisme \(C^1\)
[ Definition ]
Une application \(h\) de \(U\) dans \(V\) avec \(U\) ouvert d’un espace vectoriel normé et \(V\) ouvert d’un espace vectoriel normé est un difféomorphisme \(C^1\) si \(h\) est bijective et de classe \(C^1\) et de réciproque de classe \(C^1\). Plus généralement, avec \(k\geq 1\), une application \(h\) de \(U\) dans \(V\) avec \(U\) ouvert d’un espace vectoriel normé et \(V\) ouvert d’un espace vectoriel normé est un difféomorphisme \(C^k\) si \(h\) est bijective et de classe \(C^k\) et de réciproque de classe \(C^k\).
En savoir plus
Différentes caractérisations de la signature
[ Proposition ]

On peut définir la signature \(\epsilon\) sur \(\sigma_n\) de l’une des façons suivantes:

1) On appelle inversion d’une permutation \(p\), une paire \((i,j)\) d’éléments tels que \((j-i).(p(j)-p(i))<0\). On définit \(\epsilon(p)=(-1)^{Inv(p)}\), avec \(Inv(p)\) le nombre d’inversions.

2) Il existe un unique morphisme \(\epsilon\) de \(\sigma_n\) sur \(\{-1,1\}\) tel que \(\epsilon(t)=-1\) si \(t\) est une transposition.

3) \(\epsilon(p)\) est égal à \((-1)^s\) avec \(s\) le nombre de transpositions dans une décomposition de \(p\) en produit de transpositions. Il est aussi égal au produit \(\Pi_{i<j}\frac{p(j)-p(i)}{j-i}\).
En savoir plus
Différentes extensions de corps
[ Definition ]

Si \(L\) est une extension du corps \(K\), alors un élément \(a\) de \(L\) est dit algébrique sur \(K\) s’il existe un polynôme \(P\) à coefficients dans \(K\) tel que \(P(a)=0\). Un nombre réel est souvent dit simplement algébrique s’il est algébrique sur \(\mathbb{Q}\). L’ensemble des éléments de \(L\) algébriques sur \(K\) est appelée extension algébrique de \(K\) dans \(L\).

Etant donné \(K\) un corps et \(P\in K[X]\), on appelle corps de rupture de \(P\) un sur-corps \(L\) de \(K\) dans lequel \(P\) admet une racine \(a\) et tel que \(L=K(a)\).

Etant donné \(K\) un corps et \(P\in K[X]\), on appelle corps de décomposition de \(P\) un sur-corps \(L\) de \(K\) dans lequel \(P\) est scindé et \(L=K(Z)\), avec \(Z\) l’ensemble des zéros de \(P\) dans \(L\).

Etant donné \(K\) un corps, on appelle clôture algébrique de \(K\) une extension de \(K\) algébriquement close et dont tous les éléments sont algébriques sur \(K\).
En savoir plus
Différentes extensions de corps
[ Definition ]
Si \(L\) est une extension du corps \(K\), alors un élément \(a\) de \(L\) est dit algébrique sur \(K\) s’il existe un polynôme \(P\) à coefficients dans \(K\) tel que \(P(a)=0\). Un nombre réel est souvent dit simplement algébrique s’il est algébrique sur \(\mathbb{Q}\). L’ensemble des éléments de \(L\) algébriques sur \(K\) est appelée extension algébrique de \(K\) dans \(L\).

Étant donné \(K\) un corps et \(P\in K[X]\), on appelle corps de rupture de \(P\) un sur-corps \(L\) de \(K\) dans lequel \(P\) admet une racine \(a\) et tel que \(L=K(a)\).

Étant donné \(K\) un corps et \(P\in K[X]\), on appelle corps de décomposition de \(P\) un sur-corps \(L\) de \(K\) dans lequel \(P\) est scindé et \(L=K(Z)\), avec \(Z\) l’ensemble des zéros de \(P\) dans \(L\).

Étant donné \(K\) un corps, on appelle clôture algébrique de \(K\) une extension de \(K\) algébriquement close et dont tous les éléments sont algébriques sur \(K\).
En savoir plus
différentiable
[ Definition ]
Soient \(E\) et \(F\) des espaces vectoriels normés et \(U\) un ouvert de \(E\). Soit une application \(f:U\rightarrow F\), on dit que \(f\) est différentiable (ou dérivable) en \(x \in U\) s’il existe une application linéaire continue \(\phi\) de \(E\) dans \(F\) telle que \[lim_{h \rightarrow 0} \frac{f(x+h)-f(x)-\phi(h)}{\parallel h \parallel} = 0\] On appelle \(\phi\) la différentielle ou dérivée de \(f\) en \(x\), on la note \(Df(x)\). \(f\) est dite différentiable si elle est différentiable en tout point de \(U\). Si \(E\) est euclidien, on appelle gradient de \(f\) en \(x\), lorsque \(Df(x)\) existe et lorsque \(F\) est un espace vectoriel réel de dimension \(1\) le vecteur \(\nabla f_x\) tel que \(Df(x)(u)=<\nabla f_x| u>\).
En savoir plus
différentiable en \(x\in U\) suivant la direction \(u\in E\)
[ Definition ]
Soit \(f\) une application d’un ouvert \(U\) d’un espace vectoriel normé \(E\) dans un espace vectoriel normé \(F\), alors \(f\) est dite différentiable en \(x\in U\) suivant la direction \(u\in E\) si l’application \(g:\mathbb{R}\to F\) \(t \mapsto f(x+tu)\) est différentiable en \(0\). La différentielle de \(g\) en \(0\) est alors appelée différentielle de \(f\) en \(x\) suivant \(u\).
En savoir plus
Différentielle de fonctions composées
[ Théorème ]
Soit \(E\),\(F\) et \(G\) des espaces vectoriels normés , et \(U\) et \(V\) des ouverts de \(E\) et \(F\) respectivement. Si \(f\) de \(U\) dans \(V\) est différentiable en \(x\) et \(g\) de \(V\) dans \(G\) est différentiable en \(f(x)\), alors la composée \(g \circ f\) est différentiable en \(x\) et a pour différentielle \[D(g \circ f)(x)=Dg(f(x))\circ Df(x)\] Si \(g\) et \(f\) sont \(C^1\) alors \(g \circ f\) est \(C^1\).
En savoir plus
dilatation affine d’hyperplan \(H\)
[ Definition ]
Étant donné \(X\) un espace affine , \(H\) un hyperplan affine, \(D\) une droite affine supplémentaire de \(H\), et \({\lambda}\) un scalaire non nul, on appelle dilatation affine d’hyperplan \(H\), de direction \(D\) et de rapport \({\lambda}\) l’application dont la restriction au vectorialisé de \(H\) en \(H \cap D\) est l’identité, et dont la restriction au vectorialisé de \(D\) en \(H \cap D\) est une homothétie de rapport \({\lambda}\).
En savoir plus
dilatation d’hyperplan \(H\)
[ Definition ]
Soit \(H\) un hyperplan d’un espace vectoriel \(E\), et \(D\) une droite supplémentaire de \(H\). On appelle dilatation d’hyperplan \(H\), de direction \(D\) et de rapport \({\lambda}\) l’application linéaire dont la restriction à \(H\) est l’identité et dont la restriction à \(D\) est l’homothétie de rapport \({\lambda}\). Soit \(H\) un hyperplan d’un espace vectoriel \(E\), et \(h\) une forme linéaire de noyau \(H\). On appelle transvection d’hyperplan \(H\) une application de \(E\) dans \(E\) de la forme \[x \mapsto x+ h(x).u\] pour un certain \(u\) dans \(H\).
En savoir plus
discriminant
[ Definition ]
Étant donnés \(P\) et \(Q\) deux polynômes de \(\mathbb{K}[X]\), on appelle résultant de \(P\) et \(Q\) le déterminant de la matrice carré suivante de type \(p+q\times p+q\) avec \(p\) et \(q\) les degrés de \(P\) et \(Q\):

\[\left( \begin{array}{cccccccccccccc} P_0 & 0 & 0 & 0 & \dots & 0 & Q_0 & 0 & 0 & 0 & \dots & 0 & 0 & 0 \\ P_1 & P_0 & 0 & 0 & \dots & 0 & Q_1 & Q_0 & 0 & 0 & \dots & 0 & 0 & 0 \\ P_2 & \dots & P_0 & 0 & \dots & 0 & Q_2 & Q_1 & Q_0 & 0 \dots & 0 & 0 & 0\\ P_3 & \dots &\ddots & \ddots & \ddots & 0 & Q_3 & \dots & \ddots & \ddots & \ddots & \ddots & 0 & 0 \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & Q_{q-2} & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & Q_{q-1} & Q_{q-2} & \vdots & \vdots & \vdots & \vdots & \vdots & \vdots \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & Q_q & Q_{q-1} & Q_{q-2} & \vdots & \vdots & \vdots & \vdots & \vdots \\ \vdots & \vdots & \vdots & \vdots & \vdots & \vdots & 0 & Q_q & Q_{q-1} & Q_{q-2} & \vdots & \vdots & \vdots & \vdots \\ P_p & P_{p-1} & \vdots & \vdots & \vdots & \vdots & 0 & \ddots & \ddots & \ddots & \ddots & \vdots & \vdots & \vdots \\ 0 & P_p & \ddots & \ddots & \ddots & \ddots & 0 & \ddots & 0 & Q_q & \ddots & \ddots & \ddots & \ddots \\ 0 & 0 & P_p & \ddots & \ddots & \ddots & 0 & \ddots & 0 & 0 & \ddots & \ddots & \ddots & \ddots \\ 0 & \dots & 0 & P_p & \ddots & \ddots & 0 & \ddots & 0 & 0 & \ddots & \ddots & \ddots & \ddots \\ 0 & \dots & 0 & 0 & P_p & \ddots & \ddots & 0 & \ddots & 0 & \ddots & \ddots & Q_q & Q_{q-1} \newline 0 & \dots & \dots & \dots & \dots & P_p & 0 & \dots & \dots & \dots & \dots & \dots & 0 & Q_q \end{array} \right)\]

avec \(\displaystyle P=\sum_{k=0}^p P_p X^k\) et \(Q=\sum_{k=0}^q Q_q X^k\).

On appelle discriminant d’un polynôme \(P\) le résultant de \(P\) et de \(P'\) son polynôme dérivé.1
En savoir plus
Distance associée
[ Definition ]
Étant donnée une norme on définit une distance associée par \[d(x,y)=\parallel x - y \parallel\]
En savoir plus
Distance dans un connexe ouvert d’un \(\mathbb{R}\)-espace vectoriel normé
[ Proposition ]
Soit \(U\) un ouvert connexe d’un \(\mathbb{R}\)-espace vectoriel normé . Si on note \(d(x,y)\) l’inf des longueurs des lignes brisées joignant \(x\) à \(y\), alors \(d\) est une distance et définit la même topologie que la norme.
En savoir plus
distance de Grassman
[ Definition ]
Cette distance est appelée distance de Grassman.
En savoir plus
distance de \(x\) à \(E\)
[ Definition ]
Soit \(H\) un espace de Hilbert, et \(E\) une partie convexe fermée non vide de \(H\). Alors étant donné \(x\) appartenant à \(H\) on appelle distance de \(x\) à \(E\) et on note \(d(x,E)\) le mombre \[d(x,E)=\inf_{z\in E}{\parallel}x-z {\parallel}.\] On appelle alors projeté de \(x\) sur \(E\) un élément \(y\) de \(E\) tel que \({\parallel}x-y {\parallel}\) soit minimal, c’est-à-dire \(y\in E\) est tel que \({\parallel}x-y{\parallel}=d(x,E)\). Un isomorphisme d’espaces de Hilbert est un isomorphisme entre les espaces vectoriels sous-jacents qui préserve la norme et le produit scalaire.
En savoir plus
Distance d’un point à une droite
[ Proposition ]
Soit \(\mathscr D\) une droite de l’espace passant par le point \(P\) et de vecteur directeur \(\overrightarrow{u}\). Soit \(A\) un point de l’espace et \(H\) son projeté orthogonal sur \(\mathscr D\) (\(H\) est l’unique point de \(\mathscr D\) tel que les vecteurs \(\overrightarrow{AH}\) et \(\overrightarrow{u}\) sont orthogonaux). On appelle distance de \(A\) à \(\mathscr D\) la distance \(AH\). C’est la plus petite distance de \(A\) à un point de \(\mathscr D\). Elle est notée \(d\left(A,\mathscr D\right)\).
En savoir plus
Distance d’un point à une droite
[ Definition ]
Soit \(D\) une droite et \(M\) un point du plan. On appelle distance de \(M\) à \(D\) et on note \(d(M,D)\) la plus petite distance entre \(M\) et un point de \(D\).
En savoir plus
Distance d’un point à un plan
[ Proposition ]
Soit \(\mathscr P\) un plan affine de vecteur normal \(\overrightarrow{n}\). Soit \(M\) un point de l’espace et \(H\) son projeté orthogonal sur \(\mathscr P\). On appelle distance du point \(M\) au plan \(\mathscr P\) la distance \(MH\). On la note : \(d\left(M,\mathscr P\right)\). C’est la plus petite distance du point \(M\) à un point \(A\) de \(\mathscr P\) : \[\forall A\in\mathscr P,\quad d\left(M,\mathscr P\right) = HM \leqslant AM.\]
En savoir plus
Distance d’un point à un plan quand le plan est donné par une équation cartésienne
[ Théorème ]
On rapporte le plan à un repère orthonormal \(\mathscr R\). Soient \(\mathscr P\) un plan d’équation cartésienne \(ax+by+cz+d=0\) et \(M\left(x_M,y_M,z_M\right)\) un point de l’espace. On a \[\boxed{d\left(M,\mathscr P\right) = \dfrac{\left|ax_M+by_M+cz_M+d\right|}{\sqrt{a^2+b^2+c^2}}}\]
En savoir plus
Distance d’un point à un plan quand le plan est donné par un point et deux vecteurs directeurs
[ Théorème ]
Soit \(\mathscr P\) un plan défini passant par un point \(A\), engendré par les vecteurs \(\overrightarrow{u}\) et \(\overrightarrow{v}\) et de vecteur normal \(\overrightarrow{n}\). Soit \(M\) un point de l’espace. On a \[\boxed{d\left(M,\mathscr P\right) =\dfrac{\left|{\overrightarrow{n}}\cdot \overrightarrow{AM}\right|}{\left\|\overrightarrow{n}\right\|}= \dfrac{\left|\left(\overrightarrow{u} \wedge \overrightarrow{v}\right)\cdot \overrightarrow{AM}\right|}{\left\|\overrightarrow{u} \wedge \overrightarrow{v}\right\|} = \dfrac{\left|\mathop{\rm det}\left(\overrightarrow{u},\overrightarrow{v},\overrightarrow{AM}\right)\right|}{\left\|\overrightarrow{u} \wedge \overrightarrow{v}\right\|}}\]
En savoir plus
Distance entre deux droites non parallèles
[ Proposition ]
Soient \(\mathscr D\) et \(\mathscr D'\) deux droites non parallèles. Soient \(\Delta\) la perpendiculaire commune à ces deux droites, \(H\) le point d’intersection de \(\Delta\) avec \(\mathscr D\) et \(H'\) le point d’intersection de \(\Delta\) avec \(\mathscr D'\). Pour tout points \(M\) de \(\mathscr D\) et \(M'\) de \(\mathscr D'\), on a : \[d\left(H,H'\right) \leqslant d\left(M,M'\right)\] avec égalité si et seulement si \(H=M\) et \(H'=M'\). La distance \(d\left(H,H'\right)\) est appelée distance de \(\mathscr D\) à \(\mathscr D'\) et se note \(d\left(\mathscr D,\mathscr D'\right)\).
En savoir plus
Distance sur \(C^k(\Omega)\)
[ Definition ]

On définit maintenant \(K_m\) comme étant l’intersection de la boule \(\overline B(0,m)\) et de \(\{ x ; d(x,\Omega^c)\geq \frac 1m\}\). On définit ensuite \(N_m(f)\), pour \(f\) dans \(C^k(\Omega)\) par \(N_m(f)=\sum_{\nu \in \mathbb{N}^d/|\nu|\leq k} sup_{K_m} |\partial^\nu f(x)|\).

On définit ensuite sur \(C^k(\Omega)\) la distance:

\[d(f,g)=\sum_{m>0} \frac{1}{2^m} \frac{N_m(f-g)}{1+N_m(f-g)}\]
En savoir plus
distingué
[ Definition ]
Deux sous-groupes \(A\) et \(B\) de \(G\) sont dits conjugués s’il existe \(g\in G\) tel que \(A=g.B.g^{-1}\).

Étant donné \(H\) sous-groupe de \(G\), le normalisateur de \(H\) est \(N_G(H)=\{g \in G ; gHg^{-1}=H\}\).

Un sous-groupe \(N\) est dit distingué (ou normal) si pour tout \(g\in G\) \(gNg^{-1}=N\); on note \(N \vartriangleleft\shortmid G\). Cela signifie qu’il est stable par tout automorphisme intérieur (définition d’un automorphisme en partie [defautoici]).

Un sous-groupe \(N\) est dit caractéristique si il est stable par tout automorphisme.

Un groupe est dit simple si ses seuls sous-groupes distingués sont \(\{1\}\) et \(G\).

L’ensemble des \(x\) tels que \(x\) commute avec tout élément est appelé le centre d’un groupe. Le centre est un sous-groupe. On note \(Z(G)\) le centre de \(G\).
En savoir plus
Diviseurs de \(0\)
[ Definition ]
  1. Un élément \(a\) est dit diviseur à gauche de \(0\) s’il existe \(b \neq 0\) tel que \(b.a=0\).

    Un élément \(a\) est dit diviseur à droite de \(0\) s’il existe \(b \neq 0\) tel que \(a.b=0\).

    Un élément est dit diviseur de \(0\) s’il est à la fois diviseur à gauche de \(0\) et diviseur à droite de \(0\).

    Un anneau est dit sans diviseur de \(0\) s’il n’admet pas de diviseur à gauche de \(0\) ou de diviseur à droite de \(0\) autre que \(0\) lui-même.

  2. Un anneau est dit intègre si:

    \(\bullet\)il est de cardinal \(>1\)

    \(\bullet\)il est commutatif

    \(\bullet\)il est sans diviseur de \(0\)

  3. Un élément \(a\) est dit nilpotent s’il existe \(n\in \mathbb{N}\) tel que \(a^n=0\). On appelle alors indice de nilpotence de \(a\) le plus petit \(n\) convenable non nul.

En savoir plus
divisible
[ Definition ]
Soient \(a,b\in{ \mathbb Z}\). On dit que \(a\) est divisible par \(b\) s’il existe \(q\in{ \mathbb Z}\) tel que \(a=q\,b\). Dans ce cas, on dit aussi que \(a\) est multiple de \(b\), que \(b\) divise \(a\) ou que \(b\) est diviseur de \(a\). On écrit \(a|b\).
En savoir plus
division euclidienne
[ Corollaire ]
Soient \(a\in{ \mathbb Z}\) et \(b\in{ \mathbb Z}\setminus \{0\}\). Alors il existe \(q\in{ \mathbb Z}\) et \(r\in\{0,1,\ldots, |b|-1\}\) tels que \[a=qb+r.\] En outre, \(q\) et \(r\) sont uniques.
En savoir plus
Division euclidienne
[ Théorème ]
Soient \(A\) et \(B\) deux polynômes, avec \(coef(B)\) inversible. Alors \[\exists (Q,R) \mbox{ polynômes } / A=B.Q+R\] \[\mbox{avec }deg\ R < deg\ B\]
En savoir plus
Division suivant les puissances croissantes
[ Théorème ]

Soit \(n\in \mathbb{N}\), \(C\) et \(D\) des polynômes à une indéterminée sur un même anneau \(A\) commutatif et unitaire. On suppose que \(D(0)\) (en tant qu’élément de \(A\)), est inversible. Alors il existe deux polynômes \(Q\) et \(R\) vérifiant

  • \(C=DQ+X^{n+1}R\),

  • \(\deg Q \leq n\),

\(Q\) et \(R\) sont appelés respectivement quotient et reste de la division suivant les puissances croissantes de \(C\) par \(D\) à l’ordre \(n\).

En savoir plus
Domaine de définition de \(f * g\)
[ Théorème ]

\(\bullet\)Si \(f\) et \(g\) sont \(L^1\) alors \(f*g\) est \(L^1\) et définie presque partout, et \({\parallel}fg {\parallel}_1 \leq {\parallel}f {\parallel}_1 \ {\parallel}g {\parallel}_1\).

\(\bullet\)Si \(f\) est \(L^\infty\) et \(g\) \(L^1\) alors \(f*g\) est \(L^\infty\) et définie partout.

\(\bullet\)Si \(f\) est bornée sur tout compact (par exemple, \(f\) continue) et si \(g\) est \(L^1\) à support compact alors \(f*g\) est définie partout.
En savoir plus
droite affine
[ Definition ]
  • Soit \(\overrightarrow{u}\) un vecteur non nul de l’espace. On appelle droite vectorielle engendrée (ou dirigée) par \(\overrightarrow{u}\) l’ensemble \(D\) des vecteurs de l’espaces colinéaires à \(\overrightarrow{u}\) : \[D=\left\{\overrightarrow{v}\in\mathscr V ~|~ \exists \lambda \in\mathbb{R}: \quad \overrightarrow{v} = \lambda \overrightarrow{u}\right\}\]

  • Soient \(A\) un point et \(\overrightarrow{u}\) un vecteur de l’espace. La droite affine passant par le point \(A\) et de vecteur directeur \(\overrightarrow{u}\) est l’ensemble \(\mathscr D\) des points \(M\) de l’espace tel que les vecteurs \(\overrightarrow{AM}\) et \(\overrightarrow{u}\) sont colinéaires : \[\mathscr D=\left\{M \in \mathscr E ~|~ \exists \lambda \in\mathbb{R}: \quad \overrightarrow{AM} = \lambda \overrightarrow{u}\right\}\]

En savoir plus
Droite affine
[ Definition ]
Soit \(A\) un point du plan \(\mathscr P\) et \(\overrightarrow{u}\) un vecteur non nul de \(\mathscr V\). La droite \(D\) passant par \(A\) et dirigée par \(\overrightarrow{u}\) est l’ensemble des points du plan de la forme \(A+\lambda \overrightarrow{u}\)\(\lambda\) est réel. \[D=\{A+\lambda \overrightarrow{u}~\mid~\lambda \in \mathbb{R}\} = A + \mathop{\mathrm{Vect}}(\overrightarrow{u}).\] Un vecteur non nul de \(\mathscr V\) est un vecteur directeur de la droite donnée par le couple \((A,\overrightarrow{u})\) si il est colinéaire à \(\overrightarrow{u}\).
En savoir plus
Droite asymptote
[ Definition ]
Soit \((I,\overrightarrow{F})\) un arc paramétré possédant une branche infinie en \(t_0\in I\). On dit que la droite \(\mathscr D\) est asymptote à l’arc \((I,\overrightarrow{F})\) en \(t_0\) si \(d(M(t), \mathscr D) \xrightarrow[t \rightarrow t_0]{} 0\).
En savoir plus
droite de Simson
[ Definition ]
On appelle polygone régulier de \(\mathbb{R}^2\) l’orbite d’un vecteur non nul sous l’action d’un sous-groupe fini de \(O_2^+(\mathbb{R})\).
En savoir plus
droite de Simson
[ Definition ]
On appelle polygone régulier de \(\mathbb{R}^2\) l’orbite d’un vecteur non nul sous l’action d’un sous-groupe fini de \(O_2^+(\mathbb{R})\).
En savoir plus
Droite de Simson
[ Definition ]
Cette équation est donc l’équation d’une droite, appelée droite de Simson.
En savoir plus
droite numérique achevée
[ Definition ]
On appelle droite numérique achevée et on note \(\overline{\mathbb{R}}\) l’ensemble totalement ordonné \(\mathbb{R}\cup\{-\infty,+\infty\}\), avec \(+\infty\) plus grand élément et \(-\infty\) plus petit élément (le reste de l’ordre étant l’ordre usuel). On étend les définitions de segments et d’intervalles à \(\overline{\mathbb{R}}\).
En savoir plus
Droites orthogonales
[ Definition ]
  • Deux droites affines de l’espace sont orthogonales si et seulement si leurs vecteurs directeurs le sont.

  • Deux droites affines de l’espace sont perpendiculaires si et seulement si elles sont à la fois sécantes et orthogonales.

En savoir plus
Droites parallèles
[ Definition ]
On dit que :
  • deux droites sont parallèles si leurs vecteurs directeurs sont colinéaires.

  • deux droites sont orthogonales (ou perpendiculaires) si leurs vecteurs directeurs sont orthogonaux.

En savoir plus
droites perpendiculaires
[ Definition ]
  • Deux droites affines de l’espace sont orthogonales si et seulement si leurs vecteurs directeurs le sont.

  • Deux droites affines de l’espace sont perpendiculaires si et seulement si elles sont à la fois sécantes et orthogonales.

En savoir plus
Droite vectorielle
[ Definition ]
  • Soit \(\overrightarrow{u}\) un vecteur non nul de l’espace. On appelle droite vectorielle engendrée (ou dirigée) par \(\overrightarrow{u}\) l’ensemble \(D\) des vecteurs de l’espaces colinéaires à \(\overrightarrow{u}\) : \[D=\left\{\overrightarrow{v}\in\mathscr V ~|~ \exists \lambda \in\mathbb{R}: \quad \overrightarrow{v} = \lambda \overrightarrow{u}\right\}\]

  • Soient \(A\) un point et \(\overrightarrow{u}\) un vecteur de l’espace. La droite affine passant par le point \(A\) et de vecteur directeur \(\overrightarrow{u}\) est l’ensemble \(\mathscr D\) des points \(M\) de l’espace tel que les vecteurs \(\overrightarrow{AM}\) et \(\overrightarrow{u}\) sont colinéaires : \[\mathscr D=\left\{M \in \mathscr E ~|~ \exists \lambda \in\mathbb{R}: \quad \overrightarrow{AM} = \lambda \overrightarrow{u}\right\}\]

En savoir plus
Droite vectorielle
[ Definition ]
Soit \(\overrightarrow{u}\) un vecteur non nul du plan. On appelle droite vectorielle dirigée par \(\overrightarrow{u}\) le sous-ensemble de \(\mathscr V\), noté \(Vect\left(\overrightarrow{u}\right)\), des vecteurs du plan colinéaires à \(\overrightarrow{u}\). \[Vect\left(\overrightarrow{u}\right)=\left\{\lambda \overrightarrow{u} ~|~ \lambda\in\mathbb{R}\right\}\]
En savoir plus
d-système
[ Definition ]
\(D\) est un d-système (on dit aussi une classe monotone si

\(\bullet\)\(S \in D\)

\(\bullet\)\(D\) est stable par soustraction (\(A\in D\), \(B\in D\), alors \(A \cap B^c \in D\)).

\(\bullet\)\(D\) est stable par réunion dénombrable croissante
En savoir plus
d-système engendré
[ Definition ]
On appelle d-système engendré par un ensemble de parties de \(X\) l’intersection de tous les d-systèmes contenant \(X\).
En savoir plus
Dual topologique
[ Definition ]
L’espace dual topologique du \(\mathbb{K}\)-espace vectoriel normé \(E\) est l’espace \(E'={\cal L}(E,\mathbb{K})\) des formes linéaires continues.
En savoir plus
du déterminant
[ Proposition ]
Soient \(\overrightarrow{F}\) et \(\overrightarrow{G}\) deux applications définies sur \(I\), dérivables en \(t_0 \in I\) et à valeurs dans \(\mathbb{R}^2\). Alors les applications \[\left<\overrightarrow{F}|\overrightarrow{G}\right>: \left\{ \begin{array}{ccl} I & \longrightarrow & R \\ t & \longmapsto & \left<\overrightarrow{F}(t)|\overrightarrow{G}(t)\right> \end{array} \right. \quad \textrm{ et} \quad\mathop{\rm det}\left({\overrightarrow{F}},{\overrightarrow{G}}\right): \left\{ \begin{array}{ccl} I & \longrightarrow & R \newline t & \longmapsto & \mathop{\rm det}\left({\overrightarrow{F}(t)},{\overrightarrow{G}(t)}\right) \end{array} \right.\] sont dérivables en \(t_0\) et \[\boxed{\left(\left<\overrightarrow{F}|\overrightarrow{G}\right>\right)'(t_0)=\left<\overrightarrow{F}'(t_0)|\overrightarrow{G}(t_0)\right>+\left<\overrightarrow{F}(t_0)|\overrightarrow{G}'(t_0)\right> }\] \[\boxed{\left(\mathop{\rm det}\left(\overrightarrow{F},\overrightarrow{G}\right)\right)'(t_0)=\mathop{\rm det}\left(\overrightarrow{F}'(t_0),\overrightarrow{G}(t_0)\right)+\mathop{\rm det}\left(\overrightarrow{F}(t_0),\overrightarrow{G}'(t_0)\right)}\]
En savoir plus
d’un point
[ Proposition ]
Soit \((O,\overrightarrow{\imath },\overrightarrow{\jmath })\)un repère du plan \(\mathscr P\).
  • Soit \(\overrightarrow{u}\) un vecteur de \(\mathscr V\)et \((\overrightarrow{\imath}, \overrightarrow{\jmath})\) une base de \(\mathscr V\). Il existe un unique couple de réels \((x,y)\) tel que \[\overrightarrow{u}=x\overrightarrow{\imath}+y\overrightarrow{\jmath}.\] Ce couple \((x,y)\) représente les coordonnées ( ou les composantes) du vecteur \(\overrightarrow{u}\) dans la base \((\overrightarrow{\imath}, \overrightarrow{\jmath})\). On notera cela sous une des formes suivantes: \[\overrightarrow{u} (x,y), \quad \overrightarrow{u} \left|\begin{matrix} x \\ y \end{matrix} \right. \quad \textrm{ ou} \quad \overrightarrow{u} \left(\begin{matrix} x \\ y \end{matrix} \right).\]

  • Soit \(M\) un point du plan \(\mathscr P\) et \((O,\overrightarrow{\imath },\overrightarrow{\jmath })\)un repère \(\mathscr R\) de \(\mathscr P\). Il existe un unique couple de réels \((x,y)\) tel que \[\overrightarrow{OM}=x\overrightarrow{\imath}+y\overrightarrow{\jmath}.\] Ce couple \((x,y)\) représente les coordonnées du point \(M\) dans le repère \(\mathscr R\). De même que précédemment, on écrira: \[M (x;y), \quad M \left|\begin{matrix} x \\ y \end{matrix} \right. \quad \textrm{ ou} \quad M \left(\begin{matrix} x \newline y \end{matrix} \right).\]

En savoir plus
d’un vecteur
[ Definition ]
Soit \({\mathcal R}=(O,\overrightarrow{\imath},\overrightarrow{\jmath})\) un repère orthonormal du plan.
  • L’image du nombre complexe \(z=x+i\,y\) est le point du plan de coordonnées \((x,y)\) dans le repère \({\mathcal R}\).

  • L’affixe du point \(M\) de coordonnées \((x,y)\) dans le repère \({\mathcal R}\) est le nombre complexe \(z=x+i\,y\) que l’on notera \(\textrm{ Aff}(M)\).

  • L’ affixe du vecteur \(\overrightarrow{v}=\alpha\,\overrightarrow{\imath}+\beta\,\overrightarrow{\jmath}\) est le complexe \(\alpha+i\,\beta\) que l’on notera \(\textrm{ Aff}(\overrightarrow{u})\).

En savoir plus
Success message!