Lexique mathématique

Lexique mathématique

R
Racine carrée d’un nombre complexe
[ Definition ]
Soit un nombre complexe \(z\in\mathbb{C}\). On appelle racine carrée de \(z\) une racine deuxième de \(z\), c’est-à-dire un complexe \(Z\) vérifiant \(Z^2=z\).
En savoir plus
Racine d’ordre \(p\)
[ Definition ]
Soient \(P\in \mathbb{K}\left[X\right]\) un polynôme, \(\alpha\in\mathbb{K}\), \(p\in\mathbb{N}^*\).
  • On dit que \(\alpha\) est une racine d’ordre \(p\) (ou de multiplicité \(p\)) de \(P\) si et seulement si \(\left(X-\alpha\right)^p\) divise \(P\) et \(\left(X-\alpha\right)^{p+1}\) ne divise pas \(P\).

  • Si \(\alpha\) est une racine d’ordre \(1\) de \(P\), on dit que \(\alpha\) est une racine simple de \(P\).

  • Si \(\alpha\) est une racine d’ordre \(\geqslant 2\) de \(P\), on dit que \(\alpha\) est une racine multiple de \(P\).

En savoir plus
Racine d’un polynôme
[ Definition ]
Soit \(P\in\mathbb{K}\left[X\right]\) un polynôme. Soit \(\alpha\in\mathbb{K}\). On dit que \(\alpha\) est une racine de \(P\) si et seulement si \({\widetilde P}\left(\alpha\right)=0\).
En savoir plus
racine multiple
[ Definition ]
Soient \(P\in \mathbb{K}\left[X\right]\) un polynôme, \(\alpha\in\mathbb{K}\), \(p\in\mathbb{N}^*\).
  • On dit que \(\alpha\) est une racine d’ordre \(p\) (ou de multiplicité \(p\)) de \(P\) si et seulement si \(\left(X-\alpha\right)^p\) divise \(P\) et \(\left(X-\alpha\right)^{p+1}\) ne divise pas \(P\).

  • Si \(\alpha\) est une racine d’ordre \(1\) de \(P\), on dit que \(\alpha\) est une racine simple de \(P\).

  • Si \(\alpha\) est une racine d’ordre \(\geqslant 2\) de \(P\), on dit que \(\alpha\) est une racine multiple de \(P\).

En savoir plus
racines
[ Definition ]
Soit \(G\) un groupe et \(l\) un entier \(\geq 1\). Nous appellerons racine \(l\)-ièmes de l’unité dans \(G\) les solutions \(g\in G\) de l’équation \(g^l=e\).
En savoir plus
Racine \(n\)-ième de l’unité
[ Definition ]
On appelle racine \(n\)-ième de l’unité une racine \(n\)-ième de \(1\), c’est-à-dire un nombre complexe \(z\) tel que \(\boxed{z^n=1}\). On notera \(\mathbb U_n\) l’ensemble des racines \(n\)-ièmes de l’unité : \(\boxed{ \mathbb U_n = \{z \in \mathbb{C} \mid z^n = 1 \} }\).
En savoir plus
Racine \(n\)-ième d’un nombre complexe
[ Definition ]
Soit \(z\in\mathbb{C}\). On appelle racine \(n\)-ième du nombre complexe \(z\) tout nombre complexe \(\xi\) vérifiant \(\boxed{\xi^n=z}\).
En savoir plus
rang
[ Definition ]
On appelle rang d’une famille finie de vecteurs la dimension de l’espace vectoriel que cette famille engendre. On appelle rang d’une application linéaire la dimension de son image lorsque celle-ci est finie. C’est en fait le rang de l’image d’une base lorsque le domaine est un espace vectoriel de dimension finie
En savoir plus
rang
[ Definition ]
On appelle rang d’une famille finie de vecteurs la dimension de l’espace vectoriel que cette famille engendre.
On appelle rang d’une application linéaire la dimension de son image lorsque celle-ci est finie. C’est en fait le rang de l’image d’une base lorsque le domaine est un espace vectoriel de dimension finie
En savoir plus
Rang d’une matrice
[ Definition ]
On appelle rang de \(A\in\mathfrak{M}_{q,p}\left(\mathbb{K}\right)\), et on note \(\mathop{\mathrm{rg}}A\), le rang de la famille constituée des vecteurs colonnes \(C_1\),...,\(C_p\) de \(A\) dans \(\mathbb{K}^q\).
En savoir plus
rappel
[ Definition ]
Une suite d’applications \(f_n\) de \(X\) dans \(Y\) avec \(X\) et \(Y\) espaces métriques converge uniformément vers \(f\) application de \(X\) dans \(Y\) si \[lim_{n \rightarrow + \infty} sup_{x \in X} d(f_n(x),f(x)) = 0\]
En savoir plus
rayon de convergence
[ Definition ]
Le rayon de convergence de la série entière \(\sum a_n.z^n\) est le sup des réels \(r\geq 0\) tel que \(a_n.r^n\) soit bornée. Le rayon de convergence peut éventuellement être infini, ou nul.
En savoir plus
Recherche d’un zéro par dichotomie
[ Théorème ]
On considère une fonction continue \(f: [a, b] \mapsto \mathbb{R}\) telle que \(f(a) \leqslant 0\) et \(f(b) \geqslant 0\). On construit deux suites récurrentes \((a_n)\) et \((b_n)\) en posant \(a_0 = a\), \(b_0 = b\) et \[\forall n \in \mathbb N,\quad a_{n+1} = \begin{cases} a_n & \textrm{ si } f\bigl(\dfrac{a_n + b_n}{2}\bigr) \geqslant 0 \\ \dfrac{a_n + b_n}{2} & \textrm{ si } f\bigl(\dfrac{a_n + b_n}{2}\bigr) < 0 \end{cases} \quad b_{n+1} = \begin{cases} \dfrac{a_n + b_n}{2} & \textrm{ si } f\bigl(\dfrac{a_n + b_n}{2}\bigr) \geqslant 0 \newline b_n & \textrm{ si } f\bigl(\dfrac{a_n + b_n}{2}\bigr) < 0 \end{cases}\] Alors les deux suites \((a_n)\) et \((b_n)\) sont adjacentes et convergent vers une même limite \(c\) qui est un zéro de la fonction \(f\). Si l’on choisit de prendre \(a_n\) comme valeur approchée de \(c\), on obtient la majoration de l’erreur \[\forall n \in \mathbb N,~ \lvert c - a_n \rvert \leqslant\dfrac{b-a}{2^n}\]

En savoir plus
Recouvrement ouvert
[ Definition ]
Un recouvrement ouvert de l’espace topologique \(X\) est une famille d’ouverts \(U_i\) avec \(X=\cup_i U_i\).
En savoir plus
rectangle mesurable
[ Definition ]
Une fonction vectorielle est dite intégrable si toutes ses composantes sont intégrables. Son intégrale est alors le vecteur dont chaque coordonnée est l’intégrale de la coordonnée correspondante de \(f\).
En savoir plus
réflexion
[ Definition ]
Soit \(s\in L(E)\) une symétrie vectorielle (c’est-à-dire un endomorphisme de \(E\) tel que \(s\circ s = \mathop{\mathrm{id}}\nolimits\)).
  • On dit que \(s\) est une symétrie orthogonale si et seulement si les deux sous-espaces vectoriels \(\operatorname{Ker}(s-\mathop{\mathrm{id}}\nolimits)\) et \(\operatorname{Ker}(s+\mathop{\mathrm{id}}\nolimits)\) sont orthogonaux.

  • On dit de plus que \(s\) est une réflexion si l’ensemble des vecteurs invariants de \(s\), \(\operatorname{Ker}(s-\mathop{\mathrm{id}}\nolimits)\) est un hyperplan de \(E\).

En savoir plus
Règle de Cauchy
[ Théorème ]

Si pour tout \(n\), \(u_n>0\), alors

\(\bullet\)\(limsup\ \sqrt[n]{u_n} = l < 1\ \ \ \to \ \ \ \sum u_n\) converge

\(\bullet\)\(limsup\ \sqrt[n]{u_n} = l > 1\ \ \ \to \ \ \ \sum u_n\) diverge
En savoir plus
Règle de D’Alembert
[ Théorème ]
On se donne \(\sum a_n.z^n\) une série entière. On suppose que les \(a_n\) sont non nuls, au moins à partir d’un certain rang, et on suppose que \(a_{n+1}/a_n\) tend vers \(L\). Alors \(R=1/L\).
En savoir plus
Règle de la loupe
[ Proposition ]
Soit \(u_n\) une suite décroissante de réels \(>0\); alors les séries \(\sum u_n\) et \(\sum 2^n.u_{2^n}\) sont de même nature.
En savoir plus
Règle de L’Hôpital
[ None ]

On se donne deux fonctions \(f\) et \(g\) de \(\mathbb{R}\) dans \(\mathbb{R}\) continues en \(a\in\mathbb{R}\), et dérivables sur un voisinage de \(a\) privé de \(a\), avec \(f(a)=g(a)=0\).

On suppose que \(g\) et \(g'\) sont non nulles sur un voisinage de \(a\) privé de \(a\).

Alors si \(\frac{f'}{g'}\) tend vers \(l\) en \(a\), alors \(\frac{f}{g}\) tend vers \(l\) en \(a\).
En savoir plus
Règle des signes
[ Proposition ]
Soient \(f:I \rightarrow \mathbb{R}\) et \(g: J \rightarrow \mathbb{R}\) toutes deux monotones et telles que \(f(I) \subset J\). On peut alors définir la fonction composée \(g\circ f: I \rightarrow \mathbb{R}\) qui est également monotone et l’on a la règle des signes pour la monotonie de \(g \circ f\).
\(f / g\) \(\nearrow\) \(\searrow\)
\(\nearrow\) \(\nearrow\) \(\searrow\)
\(\searrow\) \(\searrow\) \(\nearrow\)
En savoir plus
Règles de calcul
[ Théorème ]
Pour tous vecteurs \(x, y \in E\), et tout réel \(\lambda \in \mathbb{R}\) :
  1. \(\lVert \lambda . x \rVert_{ } = \lvert \lambda \rvert ~ \lVert x \rVert_{ }\) ;

  2. \(\lVert x+y \rVert_{ }^2=\lVert x \rVert_{ }^2 + 2\left( x \mid y \right) + \lVert y \rVert_{ }^2\) ;

  3. \(\lVert x-y \rVert_{ }^2 = \lVert x \rVert_{ }^2 - 2\left( x \mid y \right) + \lVert y \rVert_{ }^2\) ;

  4. \(\lVert x+y \rVert_{ }^2 + \lVert x-y \rVert_{ }^2 = 2(\lVert x \rVert_{ }^2 + \lVert y \rVert_{ }^2)\)
    (égalité du parallélogramme) ;

  5. \(\left( x \mid y \right) = \dfrac{1}{4}\left(\lVert x+y \rVert_{ }^2 - \lVert x-y \rVert_{ }^2\right)\) (identité de polarisation).

Pour des vecteurs \(x_1,\dots,x_n, y_1,\dots,y_m \in E\) et des scalaires \(\lambda_1,\dots,\lambda_n,\mu_1,\dots,\mu_m \in \mathbb{R}\),

\[\left( \sum_{i=1}^n \lambda_i x_i \mid \sum_{j=1}^m \mu_j y_j \right) = \sum_{i=1}^n \sum_{j=1}^m \lambda_i \mu_j \left( x_i \mid y_j \right),\] \[\Bigl\| \sum_{i=1}^n \lambda_i x_i \Bigr\|^2 = \sum_{i=1}^n \lambda_i^2 \lVert x_i \rVert_{ }^2 + 2\sum_{1\leqslant i < j \leqslant n} \lambda_i \lambda_j \left( x_i \mid x_j \right) .\]  
En savoir plus
Règles de calcul avec les inverses
[ Proposition ]
  • Si \(x\) est symétrisable alors \(x^{-1}\) est aussi symétrisable et : \(\boxed{\left(x^{-1}\right)^{-1}=x}\).

  • Si \(x\) et \(y\) sont symétrisables, \(x\star y\) est aussi symétrisable et : \(\boxed{\left(x\star y\right)^{-1}=y^{-1}\star x^{-1}}\).

En savoir plus
Règles de calcul dans un anneau
[ Théorème ]
On considère un anneau \((A, +, \times)\). On a les règles de calcul suivantes :
  1. \(\forall a \in A\), \(a\times 0=0\times a =0\) ;

  2. \(\forall a \in A\), \((-1)\times a = -a\) ;

  3. \(\forall (a,b)\in A^2\), \((-a)\times b = -(a\times b)\).

En savoir plus
Règles de calcul dans un espace vectoriel
[ Proposition ]
Soit \(\left(E,+,\cdot\right)\) un \(\mathbb{K}\)-espace vectoriel. Pour tous scalaires \(\alpha,\beta,\lambda \in \mathbb{K}\) et pour tous vecteurs \(x,y\in E\), on a
  1. \(0_{\mathbb{K}}\cdot x=0_E\)

  2. \(\left(-1\right)\cdot x = -x\)

  3. \(\left(-\lambda\right)\cdot x=-\left(\lambda\cdot x\right)=\lambda\cdot\left(-x\right)\)

  4. \(\left(\alpha-\beta\right)\cdot x = \alpha\cdot x - \beta \cdot x\)

  5. \(\lambda\left(x-y\right)=\lambda \cdot x - \lambda\cdot y\)

  6. \(\lambda\cdot 0_E=0_E\)

  7. \(\boxed{ \lambda\cdot x=0_E \quad\Longleftrightarrow\quad \left[\lambda=0_{\mathbb{K}} \quad \textrm{ ou} \quad x=0_E\right] }\)

En savoir plus
Règles de calcul dans un groupe
[ Théorème ]
Soit \((G,\star)\) un groupe.
  1. L’élément neutre est unique .

  2. Tout élément possède un unique symétrique ;

  3. Pour tout élément \(x\) d’un groupe, on a \(\bigl(x^{-1}\bigr)^{-1} = x\).

  4. Règle de simplification : \(\forall (a,x,y)\in G^3\); \[\begin{cases} a\star x = a\star y & \Rightarrow x=y \newline x\star a = y\star a & \Rightarrow x=y \end{cases}.\]

  5. Soit \((a,b)\in G^2\). L’équation \(a\star x = b\) possède une unique solution : \[x=a^{-1}\star b.\]

  6. \(\forall (x,y)\in G^2\), \((x\star y)^{-1}= y^{-1} \star x^{-1}\).

En savoir plus
Règles de calcul de dérivées
[ Théorème ]
Soient deux fonctions \(f\) et \(g\) définies sur \(I\) et dérivables en un point \(a\in I\). On a les propriétés suivantes :
  • Soient deux réels \(\alpha,\beta\in\mathbb{R}\). La fonction \(\alpha f+\beta g\) est dérivable en \(a\) et \[\boxed{\left(\alpha f+\beta g\right)'\left(a\right)=\alpha f'\left(a\right)+\beta g'\left(a\right)}\]

  • La fonction \(fg\) est dérivable en \(a\) et \[\boxed{\left(fg\right)'\left(a\right)=f'\left(a\right)g\left(a\right)+f\left(a\right)g'\left(a\right)}\]

  • Si \(g\left(a\right)\neq 0\), alors il existe un voisinage du point \(a\) sur lequel la fonction \(g\) ne s’annule pas. La fonction \(1/g\) est alors définie au voisinage du point \(a\) et est dérivable en \(a\) avec \[\boxed{\left(\dfrac{1}{g}\right)'\left(a\right)=-\dfrac{g'\left(a\right)}{g^2\left(a\right)}}\]

  • Si \(g\left(a\right)\neq 0\), alors de la même façon que précédemment la fonction \(f/g\) est définie au voisinage de \(a\), est dérivable en \(a\) et \[\boxed{\left(\dfrac{f}{g}\right)'\left(a\right)=\dfrac{f'\left(a\right)g\left(a\right)-f\left(a\right)g'\left(a\right)}{ g^2\left(a\right)}}\]

En savoir plus
Règles de calculs avec les matrices
[ Proposition ]
Quant les produit suivants sont possibles, pour des matrices \(A,B, C\) et des scalaires \(\alpha,\beta\) :
  1. Le produit matriciel est distributif à gauche par rapport à l’addition : \(C\left(\alpha A+\beta B\right)=\alpha CA+\beta CB\).

  2. Le produit matriciel est distributif à droite par rapport à l’addition :\(\left(\alpha A+\beta B\right)C=\alpha AC+\beta BC\).

  3. Le produit matriciel est associatif : \(\left(AB\right)C=A\left(BC\right)\).

  4. Le produit matriciel admet la matrice \(I_n\) comme élément neutre :\(A I_n=I_n A=A\).

En savoir plus
Relation de Chasles
[ Proposition ]
Soit \(\varphi\) une fonction en escalier sur le segment \(\left[a,b\right]\) et \(c\in \left]a,b\right[\). Alors \[\int_{\left[a,b\right]}{\varphi} = \int_{\left[a,c\right]}{\varphi} + \int_{\left[c,b\right]}{\varphi}\]
En savoir plus
Relation de Chasles
[ Proposition ]
Soit \(\varphi\) une fonction continue par morceaux sur le segment \(\left[a,b\right]\). Soit \(c \in \left]a,b\right[\). Alors : \[\boxed{\int_{\left[a,b\right]}{\varphi} = \int_{\left[a,c\right]}{\varphi} + \int_{\left[c,b\right]}{\varphi}}\]
En savoir plus
Relation de Chasles
[ Proposition ]
Soit une fonction \(f\) continue par morceaux sur l’intervalle \(I\) et trois réels \(a,b,c\in I\). Alors \[\boxed{\int_{a}^{b} f\left(x\right)\,\textrm{d}x=\int_{a}^{c} f\left(x\right)\,\textrm{d}x+\int_{c}^{b} f\left(x\right)\,\textrm{d}x}\]
En savoir plus
Relation entre matrice et comatrice
[ Théorème ]
\[\boxed{ A \times {\mathop{\mathrm{com}}(A)}^{\mathrm{T}} = \mathop{\rm det}(A) . I_n }.\]
En savoir plus
Relation entre PGCD et PPCM
[ Théorème ]
Soient deux entiers non nuls \((a, b) \in {\mathbb{Z}^*}^2\).
  1. Si \(a \wedge b = 1\) alors \(a \vee b = \lvert ab \rvert\) ;

  2. \((a \wedge b) (a \vee b) = \lvert ab \rvert\).

En savoir plus
Relations entre les coefficients et les racines d’un polynôme
[ Théorème ]
Soit \(P=a_0+a_1 X+\cdots+a_p X^p\in\mathbb{K}\left[X\right]\) un polynôme scindé de degré \(p\). Soient \(\alpha_1,\ldots,\alpha_p\in\mathbb{K}\) les \(p\) racines de \(p\). On a : \[\forall k\in\llbracket 1,p\rrbracket, \quad \boxed{\sigma_k=\left(-1\right)^k{\scriptstyle a_{p-k}\over\scriptstyle a_p}}.\]
En savoir plus
Relations entre racines et coefficients d’un polynôme
[ Théorème ]

Notons \(\sigma_i=\Sigma_i(r_1,...,r_n)\), avec \(r_1\),...,\(r_n\) des complexes. On a \(P={\lambda}\Pi_{i=1}^n (X-r_i)\) pour un certain \({\lambda}\) si et seulement si pour tout \(i\in\{1,\ldots ,n\}\), on a \(\sigma_i=(-1)^i\frac{p_{n-i}}{p_n}\).

En savoir plus
relation sur \(X\)
[ Definition ]
Soit \(X\) un ensemble. Une relation sur \(X\) est un ensemble \(R\subset X\times X\) de couples d’éléments de \(X\). On écrit \(x R x'\) au lieu de \((x,x')\in R\). Une relation \(R\) est une relation d’équivalence si elle est
  • réflexive (i.e. pour tout \(x\in X\), on a \(x R x\))

  • symétrique (i.e. on a équivalence entre \(x R x'\) et \(x' R x\) quels que soient \(x,x'\in X\))

  • transitive (i.e. les conditions \(x R x'\) et \(x' R x''\) impliquent que \(x R x''\) quels que soient \(x,x',x''\in X\))

En savoir plus
Repère Cartésien
[ Definition ]
Un repère cartésien \(\mathscr R\) du plan \(\mathscr P\) est donné par un triplet \((O,\overrightarrow{\imath },\overrightarrow{\jmath})\)  où \(O\) est un point de \(\mathscr P\) et où \((\overrightarrow{\imath},\overrightarrow{\jmath})\) forme une base de \(\mathscr V\).
  • Le point \(O\) est l’origine du repère.

  • Si les deux vecteurs \(\overrightarrow{\imath}\) et \(\overrightarrow{\jmath}\) sont orthogonaux, on dit que \(\mathscr R\) est un repère orthogonal. Si ils sont de plus unitaires, le repère \(\mathscr R\) est alors dit orthonormal.

  • Les droites passant par \(O\) de vecteur directeur respectifs \(\overrightarrow{\imath}\) et \(\overrightarrow{\jmath}\) sont appelés axes du repère \(\mathscr R\) et sont notés \((Ox)\) et \((Oy)\).

En savoir plus
Repère de l’espace
[ Definition ]
On dit que le quadruplet \(\mathscr R\left(O, \overrightarrow{u}, \overrightarrow{v}, \overrightarrow{w}\right)\in\mathscr E \times \mathscr{V}^3\) est un repère de l’espace \(\mathscr E\) si et seulement si \(\left(\overrightarrow{u}, \overrightarrow{v}, \overrightarrow{w}\right)\) est une base de \(\mathscr V\). \(O\) est appelé origine du repère \(\mathscr R\).
  • Le repère \(\mathscr R\) est dit orthogonal si et seulement si la base \(\left(\overrightarrow{u}, \overrightarrow{v}, \overrightarrow{w}\right)\) est orthogonale.

  • Le repère \(\mathscr R\) est dit orthonormal si et seulement si la base \(\left(\overrightarrow{u}, \overrightarrow{v}, \overrightarrow{w}\right)\) est orthonormale.

En savoir plus
repère orthogonal
[ Definition ]
Un repère cartésien \(\mathscr R\) du plan \(\mathscr P\) est donné par un triplet \((O,\overrightarrow{\imath },\overrightarrow{\jmath})\)  où \(O\) est un point de \(\mathscr P\) et où \((\overrightarrow{\imath},\overrightarrow{\jmath})\) forme une base de \(\mathscr V\).
  • Le point \(O\) est l’origine du repère.

  • Si les deux vecteurs \(\overrightarrow{\imath}\) et \(\overrightarrow{\jmath}\) sont orthogonaux, on dit que \(\mathscr R\) est un repère orthogonal. Si ils sont de plus unitaires, le repère \(\mathscr R\) est alors dit orthonormal.

  • Les droites passant par \(O\) de vecteur directeur respectifs \(\overrightarrow{\imath}\) et \(\overrightarrow{\jmath}\) sont appelés axes du repère \(\mathscr R\) et sont notés \((Ox)\) et \((Oy)\).

En savoir plus
Repère orthonormal direct
[ Definition ]
Un repère orthonormal \((O,\overrightarrow{\imath },\overrightarrow{\jmath })\)est dit direct si l’angle \((\widehat{\overrightarrow{\imath},\overrightarrow{\jmath}})\) a pour mesure \({\scriptstyle\pi\over\scriptstyle 2}\).
En savoir plus
Repère polaire
[ Proposition ]
Soit \(\mathscr R\)\((O,\overrightarrow{\imath },\overrightarrow{\jmath })\)un repère orthonormal direct. Soit \(\theta\) un réel. Soit \(\mathscr R(\theta)\) le repère \(\left(O,\overrightarrow{u}\left(\theta\right),\overrightarrow{v}\left(\theta\right)\right)\) image de \(\mathscr R\) par une rotation de centre \(O\) et d’angle \(\theta\). Ce repère, qui est encore orthonormal direct, est le repère polaire attaché au réel \(\theta\). De plus \[\boxed{\left\{\begin{array}{c} \overrightarrow{ u}(\theta)=\cos \theta \overrightarrow{\imath}+\sin \theta \overrightarrow{\jmath }\newline \overrightarrow{v}(\theta)=-\sin \theta \overrightarrow{\imath}+\cos \theta \overrightarrow{\jmath }\end{array}\right.}.\] Le point \(O\) est appelé le pôle et la droite orientée \((O,\overrightarrow{\imath})\) est appelée l’axe polaire de ce repère.
En savoir plus
Représentation cartésienne d’une droite
[ Proposition ]

Soit \(\mathscr R\) un repère orthonormal de l’espace. On se donne des réels \(a,b,c,d\) et \(a',b',c',d'\) tels que les triplets \(\left(a,b,c\right)\) et \(\left(a',b',c'\right)\) sont non nuls et non proportionnels. L’ensemble des points du plan dont les coordonnées vérifient le système \[\left(\star\right)\quad \boxed{\begin{cases} ax+by+cz+d=0\newline a'x+b'y+c'z+d'=0 \end{cases}}\] est une droite de vecteur directeur \(\boxed{\overrightarrow{n} \wedge \overrightarrow{n}'}\)\(\overrightarrow{n} \left(a,b,c\right)\) et \(\overrightarrow{n}' \left(a',b',c'\right)\).

Réciproquement, toute droite admet au moins un système d’équations de ce type.
En savoir plus
Représentation paramétrique d’un cercle
[ Proposition ]
Soit \(\mathscr R (O,\overrightarrow{\imath },\overrightarrow{\jmath})\) un repère orthonormal. Le cercle de centre \(\Omega(\alpha,\beta)\) et de rayon \(R>0\) admet comme représentation paramétrique \[\boxed{\begin{cases} x&=\alpha+R\cos \theta \\ y&=\beta+R\sin \theta \end{cases}, ~~~~\theta\in \mathbb{R}}\] (Ce qui signifie que \(M\in\mathscr C(\Omega,R)\Leftrightarrow \exists ~ \theta_0\in \mathbb{R}\begin{cases} x_M&=\alpha+R\cos \theta_0 \newline y_M&=\beta+R\sin \theta_0 \end{cases}\)).
En savoir plus
Représentation paramétrique d’une droite
[ Proposition ]
Soit \(\mathscr R\) un repère orthonormal de l’espace. Soit \(\mathscr D\) une droite passant par un point \(A\left(x_A,y_A,z_A\right)\) et de vecteur directeur \(\overrightarrow{u}\left(x_{\overrightarrow{u}},y_{\overrightarrow{u}},z_{\overrightarrow{u}}\right)\). Une équation paramétrique de \(\mathscr D\) est : \[\boxed{\begin{cases} x=x_A+t x_{\overrightarrow{u}}\\ y=y_A+t y_{\overrightarrow{u}}\newline z=z_A+t z_{\overrightarrow{u}} \end{cases}}\]
En savoir plus
Représentation paramétrique d’une droite
[ Proposition ]
Soit \(\mathscr R(O,\overrightarrow{\imath },\overrightarrow{\jmath})\) un repère du plan. Soit \(D\) une droite du plan passant par un point \(A\) de coordonnées \((x_A,y_A)\) dans \(\mathscr R\) et dirigée par le vecteur non nul \(\overrightarrow{u} \left|\begin{matrix} \alpha \\ \beta \end{matrix} \right.\). \(D\) admet comme représentation paramétrique:

\[\boxed{\begin{cases} x&=x_A+t\,\alpha \\ y&=y_A+t\, \beta \end{cases} ; t\in\mathbb{R}} \quad \left(\star\right)\]

(Ce qui signifie que \(M(x_M,y_M)\in D\Leftrightarrow \exists \lambda_0 \in \mathbb{R}~~\left\{\begin{array}{c} x_M=x_A+\lambda_0\,\alpha \newline y_M=y_A+\lambda_0\, \beta \end{array}\right.\)).
En savoir plus
résidu quadratique
[ Definition ]
Soit \(n\geq 2\) un entier. Une classe \(a\in ({ \mathbb Z}/n{ \mathbb Z})^*\) est un résidu quadratique modulo \(n\) si \(a= b^2\) pour une classe \(b\). Dans le cas contraire, la classe \(a\) est un non-résidu quadratique.
En savoir plus
Résolution des équations différentielles du premier ordre dans \(\mathbb{R}\)
[ Théorème ]
Considérons \(a,b,c\in\mathbb{R}\) avec \(a\neq 0\) ainsi que \(\left(E\right)\) l’équation différentielle donnée par : \[\forall t\in\mathbb{R}, \quad a y''\left(t\right)+by'\left(t\right)+cy\left(t\right)=0\] Notons \(\Delta\) le discriminant de l’équation caractéristique associée à \(\left(E\right)\).
  • Si \(\Delta> 0\), l’équation caractéristique de \(\left(E\right)\) possède deux racines réelles distinctes \(r_1\) et \(r_2\) et les solutions de \(\left(E\right)\) sont les fonctions : \[\boxed{\varphi_{\alpha,\beta}: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{R} \\ t & \longmapsto & \alpha e^{r_1 t}+\beta e^{r_2 t} \end{array} \right. }\]\(\alpha,\beta\in\mathbb{R}\).

  • Si \(\Delta=0\), l’équation caractéristique de \(\left(E\right)\) admet une racine double \(r\) et les solutions réelles de \(\left(E\right)\) sont les fonctions : \[\boxed{\varphi_{\alpha,\beta}: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{R} \\ t & \longmapsto & \left(\alpha t+\beta\right)e^{r t} \end{array} \right. }\]\(\alpha,\beta\in\mathbb{R}\).

  • Si \(\Delta <0\), l’équation caractéristique de \(\left(E\right)\) admet deux racines complexes conjuguées \(r+i\omega\) et \(r-i\omega\) et les solutions réelles de \(\left(E\right)\) sont les fonctions : \[\boxed{\varphi_{\alpha,\beta}: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{R} \newline t & \longmapsto & \left[\alpha\cos\left(\omega t\right)+ \beta\sin\left(\omega t\right)\right]e^{r t} \end{array} \right. }\]\(\alpha,\beta\in\mathbb{R}\).

En savoir plus
Résolution d’une équation du second degré à coefficients complexes
[ Théorème ]
Soient \(a\), \(b\), \(c\) trois nombres complexes avec \(a\neq 0\). Considérons l’équation d’inconnue \(z\in\mathbb{C}\) \[az^2+bz+c=0 \quad \left(\star\right)\] Notons \(\boxed{\Delta=b^2-4ac}\) le discriminant de l’équation \(\left(\star\right)\). On a :
  • Si \(\Delta=0\), l’équation \(\left(\star\right)\) admet une racine double \(z_0\) donnée par : \(\boxed{z_0=\dfrac{-b}{2a}}\).

  • Si \(\Delta \neq 0\) et si \(\delta\) désigne une des deux racines carrées de \(\Delta\) alors l’équation \(\left(\star\right)\) admet deux racines distinctes \(z_1\) et \(z_2\) données par : \(\boxed{z_1=\dfrac{-b-\delta}{2a}}\) et \(\boxed{z_2=\dfrac{-b+\delta}{2a}}\).

En savoir plus
Résolution d’une équation du second degré à coefficients constants dans \(\mathbb{C}\)
[ Théorème ]
Considérons \(a,b,c\in\mathbb{C}\) avec \(a\neq 0\) ainsi que \(\left(E\right)\) l’équation différentielle donnée par : \[a y''+by'+cy=0\] Notons \(\Delta\) le discriminant de son équation caractéristique.
  1. Si \(\Delta\neq 0\), l’équation caractéristique de \(\left(E\right)\) possède deux racines distinctes \(r_1\) et \(r_2\) et les solutions de \(\left(E\right)\) sont les fonctions \[\boxed{\varphi_{\alpha,\beta}: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{C} \\ t & \longmapsto & \alpha e^{r_1 t}+\beta e^{r_2 t} \end{array} \right. }\]\(\alpha,\beta\in\mathbb{C}\).

  2. Si \(\Delta=0\), l’équation caractéristique de \(\left(E\right)\) admet une racine double \(r\) et les solutions de \(\left(E\right)\) sont les fonctions \[\boxed{\varphi_{\alpha,\beta}: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{C} \newline t & \longmapsto & \left(\alpha t+\beta\right)e^{r t} \end{array} \right. }\]\(\alpha,\beta\in\mathbb{C}\).

En savoir plus
Résolution d’une équation du second degré à coefficients réels
[ None ]
Soient \(a\), \(b\), \(c\) trois nombres réels avec \(a\neq 0\). Considérons l’équation d’inconnue \(x\in\mathbb{C}\) \[ax^2+bx+c=0 \quad \left(\star\right)\] Notons \(\boxed{\Delta=b^2-4ac}\) son discriminant. Remarquons que \(\Delta\in\mathbb{R}\). On a :
  • Si \(\Delta>0\), \(\left(\star\right)\) admet deux solutions distinctes, toutes deux réelles \(x_1\) et \(x_2\) données par \[\boxed{x_1=\dfrac{-b-\sqrt\Delta}{2a}} \quad \textrm{ et} \quad \boxed{x_2=\dfrac{-b+\sqrt\Delta}{2a}}\]

  • Si \(\Delta=0\), \(\left(\star\right)\) admet une seule solution \(x_0\) donnée par : \[\boxed{x_0=-\dfrac{b}{2a}}\]

  • Si \(\Delta<0\), \(\left(\star\right)\) admet deux solutions distinctes, toutes deux complexes conjuguées \(x_1\) et \(x_2\) données par \[\boxed{x_1=\dfrac{-b-i\sqrt{\left|\Delta\right|}}{2a}} \quad \textrm{ et} \quad \boxed{x_2=\dfrac{-b+i\sqrt{\left|\Delta\right|}}{2a}}\]

En savoir plus
Résolution matricielle d’un système de Cramer
[ Proposition ]
Un système de Cramer possède une et une seule solution qui s’écrit matriciellement : \(X=A^{-1}B\).
En savoir plus
Riesz-Fischer - Isomorphisme sur un \(l^2\)
[ Théorème ]
Soit \(H\) un espace de Hilbert, et \((x_i)_{i\in I}\) une base hilbertienne de \(H\). Alors l’application \(x \mapsto (<x_i|x>)_{i \in I}\) est un isomorphisme de \(H\) sur \(l^2(I)\).
En savoir plus
Rotation
[ Definition ]
Soient \(\Omega \in \mathscr P\) et \(\theta\) un réel. La rotation de centre \(\Omega\) et d’angle \(\theta\), notée \(r_{\Omega,\theta}\) est la transformation du plan qui
  • à \(\Omega\) associe \(\Omega\),

  • à tout point \(M\) différent de \(\Omega\) associe le point \(M'\) tel que \(\boxed{\left\{\begin{array}{c} (\widehat{\overrightarrow{\Omega M},\overrightarrow{\Omega M'}})=\theta ~ [2\pi] \newline ||\overrightarrow{\Omega M'}||= ||\overrightarrow{\Omega M}||\end{array}\right.}\)

En savoir plus
rotation d’angle \(\theta\)
[ Definition ]
On appelle rotation d’angle \(\theta\) un endomorphisme associé à la matrice de gauche.
En savoir plus
Rotations vectorielles
[ Théorème ]
Soit \(E\) un espace euclidien de dimension \(2\) orienté et \(u\in \mathrm{O}_{ }^{+}(E)\) une isométrie directe. Alors il existe un unique \(\theta\in[0,2\pi[\) tel que pour toute base orthonormale directe \(\varepsilon\) de \(E\), \[Mat_{\varepsilon}(u)=\begin{pmatrix} \cos\theta & -\sin\theta \newline \sin\theta & \cos\theta \end{pmatrix} .\] On dit que \(u\) est la rotation vectorielle d’angle \(\theta\) et on note \(u = r_{\theta}\).
En savoir plus
Runge
[ Théorème ]

Soit \(K\) un compact de \(\mathbb{C}\), inclus dans un ouvert \(\Omega\).

Soit \(Z\) une partie de \(\mathbb{C}\) contenant au moins un point dans chaque composante connexe de \((\mathbb{C}\cup \{ \infty \}) \setminus K\).

Alors l’ensemble des fractions rationnelles dont les pôles sont inclus dans \(Z\) est dense dans l’ensemble des fonctions holomorphes sur \(\Omega\), pour la topologie de la convergence uniforme sur \(K\).
En savoir plus
Runge
[ Théorème ]

Soit \(K\) un compact de \(\mathbb{C}\), inclus dans un ouvert \(\Omega\).

Soit \(Z\) une partie de \(\mathbb{C}\) contenant au moins un point dans chaque composante connexe de \((\mathbb{C}\cup \{ \infty \}) \setminus K\).

Alors l’ensemble des fractions rationnelles dont les pôles sont inclus dans \(Z\) est dense dans l’ensemble des fonctions holomorphes sur \(\Omega\), pour la topologie de la convergence uniforme sur \(K\).
En savoir plus
Success message!