Equations différentielles linéaires du premier et second ordre

image
L’objet de ce chapitre est de donner des outils pour résoudre des équations différentielles du premier et du second ordre. Vous rencontrerez quotidiennement ces équations en mathématiques mais aussi en physique, en chimie et en sciences de l’ingénieur. Il est donc impératif de bien maîtriser les techniques développées ici. Indirectement, nous réviserons les techniques de primitivation enseignées en terminale. Il est conseillé à ce sujet de se remettre en mémoire les primitives des fonctions usuelles, voir l’annexe [Formulaire_Primitives_usuelles]. Vous pourrez dans une première lecture éviter de vous focaliser sur les démonstrations. Celles-ci s’éclairciront après les premiers rudiments d’algèbre linéaire du chapitre [chapitre_ev] et plus particulièrement le paragraphe [structure_espace_solutions] page [structure_espace_solutions] et le chapitre [chap_integration] d’intégration.

In Order to solve a differential equation you look at it
till a solution occurs to you George Pólya - How to solve it.

Quelques rappels

Dans tout le chapitre, \(I\) désigne un intervalle de \(\mathbb{R}\) non réduit à un point. Le symbole \(\mathbb{K}\) représentera indifféremment le corps \(\mathbb{R}\) des réels ou le corps \(\mathbb{C}\) des complexes.

Deux caractérisations de la fonction exponentielle

Soit \(a\in \mathbb{C}\) et \(f_a : \mathbb{R} \rightarrow \mathbb{C}, t \mapsto e^{at}\). La fonction \(f_a\) vérifie :
  • \(f_a(0)=1\)

  • \(\forall (t, t') \in \mathbb{R}^2, ~~ f_a(t+t')=f_a(t)f_a(t')\)

  • \(f_a\) est dérivable sur \(\mathbb{R}\) et \(f_a'=a f_a\).

Caractérisation par une équation différentielle

On se propose d’étudier ici une fonction \(f:\mathbb{R}\longrightarrow \mathbb{C}\) dérivable sur \(\mathbb{R}\) et vérifiant l’équation différentielle \(f'=a f\)\(a\in \mathbb{C}^*\).

(Caractérisation de la fonction exponentielle l’équation différentielle \(f'=af\)).
Soit \(f\) une fonction dérivable de \(\mathbb{R}\) dans \(\mathbb{C}\) et pour laquelle il existe \(a \in \mathbb{C}^*\) tel que \(f'=af\). Alors il existe \(\lambda \in \mathbb{C}\) tel que : \(\forall t \in \mathbb{R},\quad f(t)=\lambda e^{at}\). Autrement dit, \(f\) vérifie : \(f=\lambda f_a\). Si, de plus, \(f(0)=1\) alors \(f=f_a\).
Introduisons la fonction \(\theta: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{C} \newline t & \longmapsto & f\left(t\right)e^{-at} \end{array} \right.\). Il est clair que, pour tout \(t\in\mathbb{R}\) : \[\theta'\left(t\right)=f'\left(t\right)e^{-at}-af'\left(t\right)e^{-at}=af\left(t\right)e^{-at}-af'\left(t\right)e^{-at} =0.\] Donc \(\theta\) est une fonction constante sur l’intervalle \(\mathbb{R}\). Il existe alors \(\lambda\in\mathbb{C}\) tel que : \(\forall t\in\mathbb{R},\quad f\left(t\right)e^{-at}=\lambda\). Le résultat est prouvé. On vérifie aussi facilement que si \(f(0)=1\) alors \(f=f_a\).

Caractérisation par une équation fonctionnelle

On se propose maintenant d’étudier une fonction \(f:\mathbb{R}\longrightarrow \mathbb{C}\) dérivable sur \(\mathbb{R}\) et vérifiant l’équation fonctionnelle \[\forall (s,t) \in \mathbb{R}^2, ~~ f(s+t)=f(s)f(t)\]

(Caractérisation de la fonction exponentielle par l’équation fonctionnelle \(f(s+t)=f(s)f(t)\)).
Soit \(f\) une fonction dérivable de \(\mathbb{R}\) dans \(\mathbb{C}\) vérifiant l’équation \(\forall (s,t) \in \mathbb{R}^2, ~~ f(s+t)=f(s)f(t)\). Si il existe \(c \in \mathbb{R}\) tel que \(f(c)=0\) alors \(f\) est la fonction nulle sur \(\mathbb{R}\). Sinon \(f(0)=1\) et il existe \(a\in \mathbb{C}\) tel que \(f'=a f\), c’est-à-dire tel que \(f=f_a\).
Remarquons que, pour tout \(s,t\in\mathbb{R}\), \(f\left(s\right)=f\left(\left(s-t\right)+t\right)=f\left(s-t\right)f\left(t\right)\). S’il existe un réel \(t\) tel que \(f\left(t\right)=0\) alors on déduit de l’égalité précédente que \(f\) est identiquement nulle sur \(\mathbb{R}\). Supposons alors que \(f\) ne s’annule jamais. On a \(f\left(0\right)=f\left(0+0\right)=f\left(0\right)f\left(0\right)\) et donc \(f\left(0\right)\left(f\left(0\right)-1\right)=0\). Comme \(f\) ne s’annule jamais, il vient \(f\left(0\right)=1\). Par dérivation de l’égalité \(f(s+t)=f(s)f(t)\) par rapport à \(s\), on obtient \(f'\left(s+t\right)=f'\left(s\right)f\left(t\right)\) et avec \(s=0\) cela amène \(f'\left(t\right)=f'\left(0\right)f\left(t\right)\) ou encore \(f'\left(t\right)=af\left(t\right)\) si \(a=f'\left(0\right)\). Par application de la propriété [carac_exp_equ_diff] et comme \(f\left(0\right)=1\), on peut affirmer que \(f=f_a\)..

Équation différentielle linéaire du premier ordre

Vocabulaire

(Equation différentielle linéaire du premier ordre).
Soient \(a,b,c\) trois fonctions définies sur \(I\) et à valeurs dans \(\mathbb{K}\).
  • On appelle équation différentielle du premier ordre une équation différentielle de la forme \[\forall t\in I, \quad a\left(t\right)y'\left(t\right)+b\left(t\right)y\left(t\right)=c\left(t\right) \quad (E)\]

  • Une solution de cette équation différentielle est une fonction \(f\) dérivable sur \(I\), à valeurs dans \(\mathbb{K}\) et vérifiant: \[\forall t \in I, \quad a\left(t\right)f'\left(t\right)+b\left(t\right)f\left(t\right)=c\left(t\right)\]

  • Résoudre, ou intégrer l’équation différentielle \((E)\) revient à déterminer l’ensemble des fonctions qui sont solutions de \((E)\). On notera \(S_\mathbb{K}(E)\) cet ensemble.

  • Le graphe d’une solution \(f\) de \((E)\) dans un repère \(\left(O,\overrightarrow{\imath},\overrightarrow{\jmath}\right)\) du plan est une courbe intégrale de \((E)\).

  • Si la fonction \(c\) est identiquement nulle, l’équation différentielle \((E)\) est dite homogène ou sans second membre.

  • \((E)\) est dite normalisée si \(a\) est la fonction constante identiquement égale à \(1\) sur \(I\).

image

Champ de vecteurs et courbes intégrales

Si \(y \in \mathcal{S}_E\), est une solution d’une équation différentielle explicite \[(E) \quad y' = f(y, t)\] alors en un point \((t,y)\) de la courbe représentative de \(y\), la pente de la tangente à cette courbe \(\mathcal{C}_y\) vaut \(f(y,t)\). La connaissance de la fonction \(f\) permet de tracer un champ de vecteurs. En un point \((t_0,y_0)\) du plan on représente un vecteur de pente \(f(t_0,y_0)\). Alors un point \((t_0, y(t_0))\) d’une courbe intégrale de \((E)\), le champ de vecteurs sera tangent à la courbe. C’est l’idée de la méthode d’Euler, voir [methode_d_Euler] page [methode_d_Euler].
(L’ensemble des solutions d’une équation différentielle homogène est un \(\mathbb{K}\)-espace vectoriel).
Soit l’équation différentielle linéaire homogène du premier ordre \[\forall t\in I, \quad a\left(t\right)y'\left(t\right)+b\left(t\right)y\left(t\right)=0 \quad (E).\] Alors toute combinaison linéaire de solutions de \((E)\) est encore solution de \((E)\).

Autrement dit, si \(\varphi\) et \(\psi\) sont des solutions de \(\left(E\right)\) alors, pour tout couple de scalaires \((\alpha,\beta)\in\mathbb{R}^2\), la fonction \(\alpha\varphi+ \beta \psi\) est encore solution de \(E\).

On dit que \(S_\mathbb{K}(E)\) possède une structure d’espace vectoriel sur \(\mathbb{K}\).
(Condition initiale).
Soit \((t_0,y_0) \in I\times \mathbb{K}\). On dit que la solution \(\varphi\) de \((E)\) vérifie la condition initiale \((t_0,y_0)\) si et seulement si \(\boxed{\varphi(t_0)=y_0}\).
(Problème de Cauchy).
On appelle problème de Cauchy la recherche d’une solution \(y:I\rightarrow \mathbb{K}\) d’une équation différentielle \(\left(E\right)\) vérifiant une condition initiale \((t_0,y_0) \in I\times \mathbb{K}\) fixée.

Augustin Louis Cauchy, né à Paris le 21 août 1789 et mort à Sceaux le 23 mai 1857Mathématicien français, Cauchy est, après Léonhard Euler (voir page ), et avec près de 800 publications, le mathématicien le plus prolifique de l’histoire des mathématiques. Il fut un pionnier dans diverses branches des mathématiques comme l’étude de la convergence et de la divergence des séries (notions que vous découvrirez en spé), l’étude des groupes de permutations (voir le chapitre , ce travail fut précurseur de la théorie des groupes). Il travailla sur la théorie des équations différentielles et fut le découvreur des fonctions holomorphes. Il ne se comporta pas toujours de manière adroite avec les jeunes mathématiciens. Il sous-estima ainsi le travail d’Abel ou de Galois et égara même un mémoire, pourtant capital, de ce dernier. Il fut enseignant à l’école Polytechnique. Son cours était d’une rigueur inhabituelle pour l’époque et il fut décrié au départ par ses élèves et ses collègues. Il allait néanmoins devenir une référence pour tout travail en analyse au \(19^{ème}\) siècle.
image

Résolution de l’équation différentielle homogène normalisée

(Fondamental : résolution de l’équation différentielle homogène normalisée).
On suppose que :
  1. \(I\) est un intervalle de \(\mathbb{R}\).

  2. \(a\) est une fonction continue définie sur \(I\) et à valeurs dans \(\mathbb{K}\).

Alors les solutions de l’équation différentielle homogène normalisée : \[\boxed{\forall t\in I, \quad\quad y'\left(t\right)+a\left(t\right)y\left(t\right)=0 \quad (E)}\] sont données par les fonctions \[\boxed{\varphi_\alpha: \left\{ \begin{array}{ccl} I & \longrightarrow & \mathbb{R} \newline t & \longmapsto & \alpha e^{-A\left(t\right)} \end{array} \right. }\]\(\alpha \in\mathbb{K}\) et où \(A\) est une primitive de \(a\) sur \(I\).

\[\boxed{S_\mathbb{K}(E)=\left\{ t \mapsto \alpha e^{-A\left(t\right)} ~|~ \alpha\in \mathbb{K}\right\}}\]
Nous verrons dans le chapitre [chap_integration] que toute fonction continue sur un intervalle \(I\) de \(\mathbb{R}\) possède une primitive sur cet intervalle (voir le théorème [continue_implique_primitive] page [continue_implique_primitive]).
  1. Cherchons une solution de \(\left(E\right)\). Comme

    1. \(I\) est un intervalle,

    2. \(a\) est continue sur \(I\),

    on peut affirmer que \(a\) possède une primitive \(A\) sur \(I\). Considérons la fonction \(\varphi_1\) donnée par \[\varphi_1: \left\{ \begin{array}{ccl} I & \longrightarrow & \mathbb{K} \\ t & \longmapsto & e^{-A\left(t\right)} \end{array} \right.\] \(\varphi_1\) est clairement dérivable sur \(I\) comme composée de fonctions dérivables. De plus, si \(t\in I\), \[\begin{aligned} \varphi_1'\left(t\right)&=&-A'\left(t\right)e^{-A\left(t\right)}\\ &=&-a\left(t\right)e^{-A\left(t\right)}.\end{aligned}\] Par conséquent \(\varphi_1'\left(t\right)+a\left(t\right)\varphi_1\left(t\right)= -a\left(t\right)e^{-A\left(t\right)} +a\left(t\right)e^{-A\left(t\right)}= 0\) et \(\varphi_1\) est bien solution de \(\left(E\right)\).

  2. Montrons maintenant que toutes les autres solutions de \(\left(E\right)\) sont proportionnelles à celle-ci. Soit \(\varphi: I \rightarrow \mathbb{K}\) une autre solution de \(\left(E\right)\). Comme \(\varphi_1\) ne s’annule pas sur \(I\), le quotient \({\scriptstyle\varphi\over\scriptstyle\varphi_1}\) est défini sur \(I\). Si nous prouvons que la dérivée de ce quotient est identiquement nulle sur \(I\), alors, d’après le théorème [carac_fcts_constantes_fcts_usuelles], la fonction \({\scriptstyle\varphi\over\scriptstyle\varphi_1}\) est constante sur \(I\) et il existe \(\alpha\in \mathbb{K}\) tel que, pour tout \(t\in I\) , \({\scriptstyle\varphi\left(t\right)\over\scriptstyle\varphi_1\left(t\right)}=\alpha\) ce qui prouve bien que les deux fonctions sont proportionnelles. Calculons donc \({\scriptstyle\varphi\over\scriptstyle\varphi_1}'\). Ce quotient est dérivable sur \(I\) car c’est un quotient de fonctions dérivables sur \(I\). De plus, pour tout \(t\in I\), \[\begin{aligned} \left({\scriptstyle\varphi\over\scriptstyle\varphi_1}\right)'\left(t\right) &=& \left(\varphi e^{A}\right)' \left(t\right) \\ &=& \varphi'\left(t\right)e^{A\left(t\right)} + a\left(t\right) \varphi\left(t\right) e^{A\left(t\right)}\\ &=& \left(\varphi'\left(t\right) + a\left(t\right) \varphi\left(t\right)\right) e^{A\left(t\right)}\newline &=& 0\end{aligned}\] car \(\varphi\) est une solution de \(\left(E\right)\). Le théorème est donc démontré.

Avec les notations de cette dernière proposition, remarquons que si \(\varphi\) est une solution non nulle de \((E)\) alors il en est de même de \(\lambda \varphi\)\(\lambda \in \mathbb{K}\). Réciproquement, toute solution de \((E)\) est proportionnelle à \(\varphi\). \(S_\mathbb{K}(E)\) possède une structure de droite vectorielle.
Résoudre \[\left(E\right):\quad y'-2ty=0\] \(\left(E\right)\) est une équation différentielle linéaire du premier ordre sans second membre et normalisée. La fonction \(a: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{R} \\ t & \longmapsto & -2t \end{array} \right.\) possède des primitives sur \(\mathbb{R}\). Une d’entre elles est donnée par \(A: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{R} \\ t & \longmapsto & -t^2 \end{array} \right.\). Par application du théorème précédent, les solutions de \(\left(E\right)\) sont les fonctions : \[\varphi_\alpha: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{R} \\ t & \longmapsto & \alpha e^{t^2} \end{array} \right.\]\(\alpha\in\mathbb{R}\).

image

Soient \(I\) un intervalle et \(a\) une fonction continue définie sur \(I\), \(t_0\in I\) et \(y_0 \in\mathbb{K}\). Alors il existe une et une seule solution du problème de Cauchy l’équation différentielle \[\forall t\in I, \quad y'\left(t\right)+a\left(t\right) y\left(t\right)=0 \quad (E)\] vérifiant la condition initiale \((t_0,y_0)\) (c’est-à-dire telle que \(y\left(t_0\right)=y_0\)).
  • Posons : \[\varphi: \left\{ \begin{array}{ccl} I & \longrightarrow & \mathbb{K} \newline t & \longmapsto & y_0 \exp\left(-\int_{t_0}^t a(u){\textrm{ d}u} \right) \end{array} \right.\] Remarquons que \(t \rightarrow \int_{t_0}^t a(u){\textrm{ d}u}\) est la primitive de \(a\) sur \(I\) qui s’annule en \(t_0\). Par application du théorème précédent, \(\varphi\) est solution de \(\left(E\right)\). De plus, \[\varphi\left(t_0\right)=y_0\exp\left(-\int_{t_0}^{t_0} a(u){\textrm{ d}u} \right)=y_0.\] Par conséquent, \(\varphi\) vérifie bien la condition initiale \(\varphi\left(t_0\right)=y_0\).

  • Soit \(\psi\) une autre solution de \(E\) qui vérifie la condition initiale \(\left(t_0,y_0\right)\). Par application du théorème précédent, \(\varphi\) et \(\psi\) sont proportionnelles : \[\exists c\in \mathbb{K},\quad \psi = c \varphi.\]

    • Si \(y_0=0\) alors \(\varphi\) est la fonction nulle et il en est donc de même de \(\psi\). On a donc bien \(\psi=\varphi\).

    • Sinon, si \(y_0\neq 0\), on a \[y_0=\psi\left(t_0\right)=c\varphi\left(t_0\right)=c y_0\] ce qui amène, en divisant les deux membres de cette égalité par \(y_0\) que \(c=1\) et donc, là encore que \(\psi=\varphi\).

Avec les hypothèses de la proposition précédente: si \(t_0 \in I\), \[S_\mathbb{K}(E) = \left\{ t \mapsto c ~ \exp\left(-\int_{t_0}^t a(u){\textrm{ d}u} \right) ~|~ c \in \mathbb{K}\right\}\] La solution prenant la valeur \(y_0\) en \(t_0\) est exactement \(t \mapsto y_0 ~ \exp\left(-\int_{t_0}^t a(u){\textrm{ d}u} \right)\).
Si une solution s’annule en un point, alors elle est nulle sur \(\mathbb{R}\) tout entier. Si une solution est non nulle en un point, alors elle ne s’annule jamais.

Résolution de l’équation différentielle normalisée avec second membre

Considérons l’équation différentielle : \[\forall t\in I, \quad y'\left(t\right)+a\left(t\right) y\left(t\right)=b\left(t\right) \quad (E)\] On suppose que :
  1. \(I\) est un intervalle de \(\mathbb{R}\)

  2. \(a\) et \(b\) sont des fonctions continues sur \(I\) à valeurs dans \(\mathbb{K}\).

  3. \(\varphi_0: I \rightarrow \mathbb{R}\) est une solution particulière de \(\left(E\right)\).

alors les solutions de \(\left(E\right)\) sont les fonctions de la forme \(\varphi_0+\varphi\)\(\varphi\) est une solution de l’équation différentielle homogène associée \[\forall t\in I, \quad y'\left(t\right)+a y\left(t\right)=0 \quad (H).\]

Autrement dit: toute solution de \((E)\) est somme d’une solution \(\varphi\) de l’équation homogène \((H)\) associée à \((E)\) et d’une solution particulière \(\varphi_0\) de \((E)\)

\[S_\mathbb{K}\left(E\right)=\left\{\varphi_0+\varphi ~|~ \varphi \in S_\mathbb{K}\left(H\right)\right\}=\varphi_0 + S_\mathbb{K}\left(H\right)\]
  • Soit \(\varphi: I\rightarrow \mathbb{K}\) une solution de l’équation homogène \(\left(H\right)\) associée à \(\left(E\right)\). On a donc \(\varphi'+a \varphi=0\). La fonction \(\varphi_0+\varphi\) est solution de \(\left(E\right)\). En effet : \[\begin{aligned} \left(\varphi_0+\varphi\right)' + a \left(\varphi_0+\varphi\right) &=& \varphi_0'+\varphi' + a \varphi_0 + a \varphi\\ &=& \underbrace{\left(\varphi_0'+ a \varphi_0\right)}_b + \underbrace{\left(\varphi'+ a \varphi\right)}_0\\ &=& b.\end{aligned}\]

  • Réciproquement, soit \(\psi\) une solution de \(\left(E\right)\). Montrons qu’il existe \(\varphi\in S_\mathbb{K}\left(H\right)\) tel que \(\psi=\varphi_0+\varphi\). Cela revient à montrer que \(\psi-\varphi_0\) est solution de \(\left(H\right)\). On vérifie que c’est le cas car : \[\begin{aligned} \left(\psi-\varphi_0\right)'+a \left(\psi-\varphi_0\right) &=& \underbrace{\left(\psi'- a \psi\right)}_b - \underbrace{\left(\varphi_0' - a\varphi_0\right)}_b\\ &=& b-b\newline &=&0.\end{aligned}\]

Résolvons sur \(I = \mathbb{R}\), l’équation différentielle \[y'+ty=t\quad \left(E\right)\] Par application du théorème [tred1], les solutions de l’équation homogène : \(y'+ty=0\) sont les fonctions \(\varphi_\alpha : \mathbb{R} \rightarrow \mathbb{R}, t \mapsto \alpha e^{-{\scriptstyle t^2\over\scriptstyle 2}}\)\(\alpha\in\mathbb{R}\). Une solution évidente de \(\left(E\right)\) est la fonction constante : \(\varphi:t\mapsto 1\). D’après le théorème précédent, les solutions de \(\left(E\right)\) sont les fonctions : \[\psi_\alpha: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{R} \newline t & \longmapsto & 1+\alpha e^{-{\scriptstyle t^2\over\scriptstyle 2}} \end{array} \right. ; \quad \alpha\in\mathbb{R}.\]

Détermination de solutions particulières

Superposition des solutions

(Principe de superposition des solutions).
Soient \(a,~b,~b_1,~b_2\) quatre fonctions définies et continues sur \(I\) telles que \(b=b_1+b_2\). On considère les équations différentielles \[\forall t\in I, \quad y'\left(t\right)+a\left(t\right) y\left(t\right)=b\left(t\right) \quad (E)\] \[\forall t\in I, \quad y'\left(t\right)+a\left(t\right) y\left(t\right)=b_1\left(t\right) \quad (E_1)\] \[\forall t\in I, \quad y'\left(t\right)+a\left(t\right) y\left(t\right)=b_2\left(t\right) \quad (E_2)\] Si \(y_1\) et \(y_2\) sont des solutions particulières respectivement de \((E_1)\) et \((E_2)\) alors \(y=y_1+y_2\) est une solution particulière de \((E)\).
En effet : \[\begin{aligned} \left(y_1+y_2\right)'+a y\left(y_1+y_2\right)&=&\underbrace{y_1'+a y_1}_{b_1} + \underbrace{y_2'+a y_2}_{b_2}\\ &=&b_1+b_2\newline &=&b\end{aligned}\]

Trois cas particuliers

Soient \(\alpha \in \mathbb{K}\) et \(P\) un polynôme de degré \(n\) à coefficients dans \(\mathbb{K}\). L’équation \[\forall t\in I, \quad y'\left(t\right)+\alpha ~ y\left(t\right)=\boxed{P\left(t\right)} \quad (E)\] admet comme solution particulière:
  • Un polynôme de degré \(n+1\) si \(\alpha=0\).

  • Un polynôme de degré \(n\) sinon.

  • Si \(\alpha=0\), une solution de \(\left(E\right)\) est donnée par une primitive de \(P\). Le polynôme \(P\) étant de degré \(n\), cette primitive est nécessairement de degré \(n+1\).

  • Si \(\alpha\neq 0\), commençons par traiter le cas où \(P\) est donné par \(P\left(t\right)=\lambda t^n\) avec \(\lambda \in \mathbb{R}\) et \(n\in\mathbb{N}\). Cherchons une solution de \(\left(E\right)\) sous la forme \(\varphi: t \mapsto \sum_{k=0}^n \alpha_k t^k\) où pour tout \(k\in\llbracket 0,n\rrbracket\), \(\alpha_i\in\mathbb{K}\). On a : \[\begin{aligned} & &\varphi \textrm{ est solution de } \left(E\right)\\ &\Rightarrow & \sum_{k=1}^n k\alpha_k t^{k-1} + \alpha \sum_{k=0}^n \alpha_k t^k =\lambda t^n \\ &\Rightarrow & \sum_{k=0}^{n-1} \left(k+1\right)\alpha_{k+1} t^{k} + \alpha \sum_{k=0}^n \alpha_k t^k =\lambda t^n\\ &\Rightarrow & \alpha.\alpha_n t^n + \sum_{k=0}^{n-1} \left( \left(k+1\right)\alpha_{k+1} + \alpha .\alpha_k \right) t^{k} =\lambda t^n\\ &\Rightarrow & \begin{cases} \alpha .\alpha_n = \lambda \\ \forall k\in\llbracket 0,n-1\rrbracket,\quad \left(k+1\right)\alpha_{k+1} + \alpha. \alpha_k=0 \end{cases}\textrm{ par identification }\\ &\Rightarrow & \alpha_n={\scriptstyle\lambda\over\scriptstyle\alpha} \textrm{ et } \forall k\in\llbracket 0,n-1\rrbracket, \quad \alpha_k = -\left(k+1\right){\scriptstyle\alpha_{k+1}\over\scriptstyle\alpha} \textrm{ car } \alpha \neq 0\end{aligned}\] Réciproquement, si les coefficients de \(\varphi: t \mapsto \sum_{k=0}^n \alpha_k t^k\) sont donnés par les relations précédentes, on vérifie que \(\varphi\) est une solution de \(\left(E\right)\). On prouve ainsi que \(\left(E\right)\) possède une solution polynomiale de degré \(n\) dans le cas où \(P\) est un monôme de degré \(n\). Traitons maintenant le cas général. On suppose que \(P\) est donné par \(P\left(t\right)=\sum_{k=0}^n \lambda_k t^k\) où : \(\forall k\in\llbracket 0,n\rrbracket,\quad \lambda_k\in K\). Considérons les \(n+1\) équations : \[\begin{aligned} y'+\alpha y &=& \lambda_0 \phantom {t^n}\quad \left(E_0\right)\\ y'+\alpha y &=& \lambda_1 t\phantom {^n} \quad\left(E_1\right)\\ y'+\alpha y &=& \lambda_2 t^2 \quad\left(E_2\right)\\ \vdots\quad &=& \quad\vdots \\ y'+\alpha y &=& \lambda_n t^n \quad\left(E_n\right)\newline\end{aligned}\] Compte tenu de ce qui vient d’être prouvé, pour tout \(k\in\llbracket 0,n\rrbracket\), \(\left(E_k\right)\) admet une solution polynomiale \(\varphi_k\) de degré \(k\) si \(\lambda_k\neq 0\) et la solution nulle sinon. Par application du principe de superposition, on peut alors affirmer que \(\varphi=\varphi_0+\varphi_1+\dots+\varphi_n\) est solution de \(E\). Comme \(P\) est de degré \(n\), \(\varphi_n\) est différent de \(0\) et \(\varphi_n\) est nécessairement de degré \(n\). Le polynôme \(\varphi\) est donc clairement de degré \(n\).

Pour montrer la puissance de l’algèbre linéaire (à venir), voici comment on pourra démontrer cette propriété : Pour \(\alpha\neq 0\), on considère l’application \(f\) de \(\mathbb K_n[X]\) dans lui-même défini par \(f(P) = P'+\alpha P\). On a \(\deg(f(P)) = \deg P\). On en déduit que \(\operatorname{Ker}f = \{0\}\). \(f\) est injective donc surjective. Ce qu’il fallait démontrer.
Soient \(P\) un polynôme de degré \(n\), \(m\in \mathbb{K}\) et \(a\) une fonction continue sur \(I\). Soit \(\alpha\in \mathbb{K}\), l’équation \[\forall t\in I, \quad y'\left(t\right)+\alpha ~y\left(t\right)=\boxed{P\left(t\right)e^{mt}} \quad (E)\] admet une solution particulière sur \(I\) de la forme \(t\mapsto Q\left(t\right)e^{mt}\) où :
  • \(Q\) est un polynôme de degré \(n\) si \(\alpha+m\neq 0\)

  • \(Q\) est un polynôme de degré \(n+1\) si \(\alpha+m=0\).

Considérons \(\psi: I \rightarrow \mathbb{K}\) et \(\varphi : I \rightarrow \mathbb{K}, t \mapsto \psi e^{-mt}\). Montrons que \(\psi\) est solution de \(\left(E\right): y' + \alpha y = P e^{mt}\) si et seulement si \(\varphi\) est solution de \(\left(E\right)': z' + \left(\alpha+m\right) z = P\). Ceci prouvera la proposition. En effet, d’après la proposition précédente, \(\left(E'\right)\) possède une solution particulière \(\varphi_0\) qui est un polynôme de degré \(n\) si \(\alpha+m\) ne s’annule pas ou un polynôme de degré \(n+1\) si \(\alpha+m\) s’annule. Par conséquent \(\psi_0 : I \rightarrow \mathbb{K}, t \mapsto \varphi_0 e^{mt}\) est une solution particulière de \(\left(E\right)\). On a : \[\begin{aligned} & &\psi \textrm{ est solution de } \left(E\right)\\ &\Rightarrow & \forall t\in I, \quad \psi'\left(t\right)+\alpha \psi\left(t\right)=P\left(t\right)e^{mt}\\ &\Rightarrow & \forall t\in I, \quad \varphi'\left(t\right)e^{mt}+m\varphi\left(t\right)e^{mt}+\alpha \varphi\left(t\right)e^{mt}=P\left(t\right)e^{mt}\\ &\Rightarrow & \forall t\in I, \quad \varphi'\left(t\right) +\left(\alpha + m\right) \varphi\left(t\right)=P\left(t\right) \textrm{ car $\exp$ ne s'annule jamais}\newline &\Rightarrow & \varphi \textrm{ est solution de } \left( E'\right)\end{aligned}\] Réciproquement, par des calculs analogues, on vérifie facilement que si \(\varphi\) est une solution de \(\left(E'\right)\) alors \(\psi\) est une solution de \(\left(E\right)\).
Cette technique s’appelle un changement de fonction inconnue.
Soient \(\eta_1,\eta_2,\alpha, \omega\in\mathbb{R}\) avec \(\omega\neq 0\). L’équation \[\forall t\in I, \quad y'\left(t\right)+\alpha ~y\left(t\right)=\boxed{\eta_1 \cos\left(\omega t\right) + \eta_2 \sin \left(\omega t\right)} \quad (E)\] admet une solution particulière sur \(I\) de la forme \(t\mapsto \mu_1 \cos\left(\omega t\right) + \mu_2 \sin \left(\omega t\right)\)\(\mu_1,\mu_2 \in\mathbb{R}\).
On démontre le lemme suivant : Si \(\forall t\in\mathbb{R},\, \alpha\cos\left(\omega t\right) + \beta\sin\left(\omega t\right) = 0\;(1)\), alors \(\alpha = \beta = 0\). En effet, pour \(t=0\), on a \(\alpha = 0\), et pour \(t={\scriptstyle\pi\over\scriptstyle 2\omega}\), \(\beta = 0\).
Soit \(\varphi_0:t\mapsto \mu_1 \cos\left(\omega t\right) + \mu_2 \sin \left(\omega t\right)\). On a la série d’implications : \[\begin{aligned} & &\varphi_0 \textrm{ ~est solution de $\left(E\right)$}\\ &\Rightarrow & \forall t\in I, \quad \varphi_0'\left(t\right)+\alpha ~\varphi_0\left(t\right)=\eta_1 \cos\left(\omega t\right) + \eta_2 \sin \left(\omega t\right)\\ &\Rightarrow & \forall t\in I, \quad \left(\mu_1 + \omega \mu_2\right) \cos\left(\omega t\right) + \left(\mu_2-\omega \mu_1\right) \sin\left(\omega t\right) = \eta_1 \cos\left(\omega t\right) + \eta_2 \sin \left(\omega t\right)\\ &\Rightarrow & \begin{cases}\mu_1 + \omega \mu_2 &= \eta_1 \\ -\omega \mu_1 + \mu_2 &= \eta_2\end{cases}\\ &\Rightarrow & \left(\mu_1,\mu_2\right) \textrm{ est solution de } \begin{cases}x + \omega y &= \eta_1 \newline -\omega x + y &= \eta_2\end{cases}\end{aligned}\] Réciproquement, si ce système admet un couple solution \(\left(\mu_1,\mu_2\right)\) alors \(\varphi_0:t\mapsto \mu_1 \cos\left(\omega t\right) + \mu_2 \sin \left(\omega t\right)\) est solution de \(\left(E\right)\).

Mais le déterminant de ce système est \(1+\omega^2 \neq 0\) et le système possède toujours un couple solution (voir proposition [systeme_cramer_2] page [systeme_cramer_2]). L’équation \(\left(E\right)\) admet donc toujours une solution de la forme indiquée.

Résolvons sur l’intervalle \(I = \mathbb{R}\), l’équation différentielle \[y'+y=2e^x+4\sin x + 3\cos x.\]

Par application du théorème [tred1], l’équation homogène \(y'+y=0\) admet comme solutions les fonctions \(\varphi_\alpha : \mathbb{R} \rightarrow \mathbb{R}, x \mapsto \alpha e^{-x}\) avec \(\alpha\in\mathbb{R}\).

Une solution évidente de \(y'+y=2e^x\) est \(y:x\mapsto e^x\).

D’après la proposition [equ_diff_sin_cos], on peut chercher une solution particulière de \(y'+y=4\sin x + 3\cos x\) sous la forme \(\varphi:x\mapsto \alpha \cos x + \beta \sin x\). On vérifie alors que \(\varphi\) est solution de cette équation si et seulement si \(\alpha=-1/2\) et \(\beta=7/2\). Par application du principe de superposition, les solutions de \(\left(E\right)\) sont les fonctions \(x\mapsto 1/2\cos x+7/2 \sin x +e^x + \alpha e^{-x}\)\(\alpha\in\mathbb{R}\).

Méthode de variation de la constante

Soient \(a,b\) deux fonctions continues définies sur \(I\) et à valeurs dans \(\mathbb{K}\). Considérons l’équation différentielle : \(\forall t\in I, \quad y'\left(t\right)+a y\left(t\right)=b\left(t\right) \quad (E).\) Pour déterminer une solution particulière de \((E)\) :

  1. On peut déterminer tout d’abord une solution non nulle de l’équation homogène associée à \((E)\). Une telle solution est de la forme \(t \mapsto c~ e^{-A\left(t\right)}\)\(A\) est une primitive de \(a\) sur \(I\) et où \(c\in \mathbb{K}^*\).

  2. On cherche alors une solution particulière de \((E)\) sous la forme: \(\forall t \in I, ~~ \psi(t)=c\left(t\right) e^{-A(t)}\)\(c\) est une fonction dérivable sur \(I\). On a l’équivalence suivante:

    \(\psi\) est solution de \((E)\) \(\Leftrightarrow\) \(\forall t \in I, ~~ c'\left(t\right)e^{-A\left(t\right)}=b\left(t\right)\).

  3. Le calcul de \(\psi\) est donc ramené à celui de \(c\), c’est-à-dire à celui d’une primitive de \(b ~ e^A\) sur \(I\).

Si on fixe \(t_0\) dans \(I\), \(c\) est donnée sur \(I\) par exemple par : \[c: \left\{ \begin{array}{ccl} I & \longrightarrow & \mathbb{K} \\ t & \longmapsto & \int_{t_0}^t b\left(u\right) e^{A\left(u\right)}{\textrm{ d}u} \end{array} \right.\] et \(\psi\) par : \[\psi: \left\{ \begin{array}{ccl} I & \longrightarrow & \mathbb{K} \newline t & \longmapsto & \left(\int_{t_0}^t b\left(u\right) e^{A\left(u\right)}{\textrm{ d}u}\right) e^{-A\left(t\right)} \end{array} \right.\] L’ensemble des solutions de \((E)\) sur \(I\) est donc donné par : \[S_\mathbb{K}(E)=\left\{ t \mapsto \lambda e^{-A\left(t\right)} + \int_{t_0}^t b\left(u\right) e^{A\left(u\right)-A\left(t\right)}{\textrm{ d}u}: ~~ \lambda \in \mathbb{K}\right\}\]
Soient \(a\) et \(b\) deux fonctions continues définies sur \(I\), \(t_0\in I\) et \(y_0\in\mathbb{K}\). Alors il existe une et une seule solution de l’équation différentielle : \[\forall t\in I, \quad y'\left(t\right)+a\left(t\right) y\left(t\right)=b\left(t\right)\] vérifiant la condition initiale \((t_0,y_0)\) (c’est-à-dire telle que \(y\left(t_0\right)=y_0\)).
Les solutions de \(\left(E\right)\) sont de la forme \(\psi=\varphi_0+\alpha \varphi\) où :
  • \(\varphi_0\) est une solution particulière de \(\left(E\right)\). Celle-ci existe en vertu de la méthode de variation de la constante.

  • \(\varphi\) est une solution non nulle (et qui ne s’annule donc jamais) de l’équation homogène associée à \(\left(E\right)\).

  • \(\alpha\in\mathbb{K}\) est un scalaire.

\(\psi=\varphi_0+\alpha \varphi\) vérifie la condition initiale \((t_0,y_0)\) si et seulement si \(\psi\left(t_0\right)=y_0\) ou, autrement dit, si et seulement si \(\alpha=\left(y_0-\varphi_0\left(t_0\right)\right)/\varphi\left(t_0\right)\) ce qui prouve à la fois l’existence et l’unicité d’une solution à ce problème de Cauchy.
Résolvons \(\left(E\right):\quad y'+2ty=e^{t-t^2}\). L’équation sans second membre associée à \(\left(E\right)\) est \(\left(E_0\right):\quad y'+2ty=0\). La fonction \({a}:{t}\mapsto{2t}\) est continue sur \(\mathbb{R}\) et possède donc une primitive sur \(\mathbb{R}\) donnée, par exemple, par \({A}:{t}\mapsto{t^2}\). Par application du théorème fondamental [tred1], les solutions de \(\left(E_0\right)\) sont les fonctions : \[\varphi_\alpha: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{R} \\ t & \longmapsto & \alpha e^{-t^2} \end{array} \right.\]\(\alpha\in\mathbb{R}\).

Utilisons la méthode de variation de la constante pour déterminer une solution particulière de \(\left(E\right)\). Cette solution est de la forme \(t \mapsto c~ e^{-t^2}\)\(c\) est une primitive de \(t \mapsto b\left(t\right) ~ e^{A\left(t\right)}=e^{t-t^2}e^{t^2}=e^t\) sur \(\mathbb{R}\). Une telle primitive est \(t\mapsto e^t\). Par conséquent \(t\mapsto e^t e^{-t^2}=e^{t-t^2}\) est une solution particulière de \(\left(E\right)\) et les solutions de \(\left(E\right)\) sont de la forme : \[t\mapsto \left(e^t+\alpha\right)e^{-t^2}\]\(\alpha\in\mathbb{R}\).

image

Cas général

On suppose ici que \(I=]\alpha,\beta[\)\(\alpha\) et \(\beta\) sont des éléments de \(\overline{\mathbb{R}}\) tels que \(\alpha<\beta\) ( on peut avoir \(\alpha=-\infty\) ou \(\beta=+\infty\)). Soient \(a\), \(b\) et \(c\) trois fonctions continues sur \(I\), à valeurs dans \(\mathbb{K}\) et soit \(J\) un sous intervalle de \(I\) sur lequel \(a\) ne s’annule pas.

On considère l’équation \[\forall t\in I, \quad a\left(t \right) y'\left(t\right)+ b\left(t\right)y\left(t\right)=c\left(t\right) ~~ (E).\] Pour tout \(t\in J\), on peut normaliser \((E)\) en l’équation \[\forall t\in J \quad y'\left(t\right)+ {\scriptstyle b\left(t\right)\over\scriptstyle a\left(t \right)}y\left(t\right)={\scriptstyle c\left(t\right)\over\scriptstyle a\left(t \right)} ~~ (N)\]

(Pour résoudre \((E)\) sur \((I)\)).
 
  1. On résout l’équation homogène associée à \((N)\) sur les sous-intervalles \(J\) de \(I\) sur lesquels \(a\) ne s’annule pas.

  2. On cherche une solution particulière de \(\left(N\right)\), ce qui nous permet de résoudre complètement \(\left(N\right)\) sur ces sous-intervalles.

    • Toute solution de \((E)\) sur un des sous intervalles \(J\) de \(I\) sur lequel \(a\) ne s’annule pas est solution de \((E)\) sur ce même sous intervalle. On étudie alors comment raccorder ces solutions en un point \(t_0\)\(a\) s’annule. Pour ce faire: si \(\varphi_1\) est une solution de \((E)\) sur \(J_1=]\alpha',t_0[\) et si \(\varphi_2\) est solution de \((E)\) sur \(J_2=]t_0,\beta'[\) (\(a(t_0)=0\)), pour que \(\varphi_1\) et \(\varphi_2\) se raccordent en \(t_0\), il est nécessaire que :

      1. \(\varphi_1\) et \(\varphi_2\) aient une même limite \(l\) en \(t_0\).

      2. La fonction \(\varphi\) définie sur \(]\alpha',\beta'[\) par \(\varphi_{|I_1}=\varphi_1\), \(\varphi_{|I_2}=\varphi_2\) et \(\varphi(b)=l\) soit dérivable en \(b\).

    • Il faut par ailleurs vérifier que la fonction \(\varphi\) ainsi construite est bien solution de \((E)\) sur \(]\alpha',\beta'[\).

Résolvons sur \(I=\mathbb{R}\) l’équation différentielle : \[\left(E\right)~: \quad \forall t\in I, \quad \left(1-t\right)y'\left(t\right)-y\left(t\right)=t\]

Normalisons \(\left(E\right)\). Nous obtenons l’équation : \[\left(N\right)~:\quad \forall t\in I_1\cup I_2, \quad y'\left(t\right)-{\scriptstyle 1\over\scriptstyle 1-t}y\left(t\right)={\scriptstyle t\over\scriptstyle t-1}\]\(I_1=\left]-\infty,1\right[\) et \(I_2=\left]1,+\infty\right[\). L’équation homogène associée à \(\left(N\right)\) est : \[\left(H\right)~: \quad \forall t\in I_1\cup I_2, \quad y'\left(t\right)-{\scriptstyle 1\over\scriptstyle 1-t}y\left(t\right)=0\]

  1. Résolvons \(\left(H\right)\) sur \(I_1\). Posons \(a: \left\{ \begin{array}{ccl} I_1 & \longrightarrow & \mathbb{R} \newline t & \longmapsto & {\scriptstyle 1\over\scriptstyle 1-t} \end{array} \right.\). On a :

    1. \(I_1\) est un intervalle de \(\mathbb{R}\)

    2. \(a\) est continue sur \(I_1\).

    Par application du théorème de résolution des équations différentielles homogènes du premier degré, on peut affirmer que les solutions de \(\left(H\right)\) sont les fonctions de la forme : \[\varphi_{\alpha_1}: \left\{ \begin{array}{ccl} I_1 & \longrightarrow & \mathbb{R} \\ t & \longmapsto & \alpha_1 e^{-A\left(t\right)} \end{array} \right.\]\(A\) est une primitive de \(A\) sur \(I_1\) et où \(\alpha_1\in\mathbb{R}\). Une telle primitive est donnée, par exemple, par \(A: \left\{ \begin{array}{ccl} I_1 & \longrightarrow & \mathbb{R} \\ t & \longmapsto & \ln\left(\left|1-t\right|\right) \end{array} \right.\). Par conséquent, les solutions de \(\left(H\right)\) sont de la forme : \[\varphi_{\alpha_1}: \left\{ \begin{array}{ccl} I_1 & \longrightarrow & \mathbb{R} \\ t & \longmapsto & {\scriptstyle\alpha_1\over\scriptstyle 1-t} \end{array} \right.\]\(\alpha_1\in\mathbb{R}\). On montre de la même façon que les solutions de \(\left(H\right)\) sur \(I_2\) sont de la forme \[\varphi_{\alpha_2}: \left\{ \begin{array}{ccl} I_2 & \longrightarrow & \mathbb{R} \\ t & \longmapsto & {\scriptstyle\alpha_2\over\scriptstyle 1-t} \end{array} \right.\]\(\alpha_2\in\mathbb{R}\).

  2. Par la méthode de variation de la constante, identifions une solution particulière \(\psi_1\) de \(\left(N\right)\) sur \(I_1\). \(\psi_1\) est de la forme : \(\psi_1: \left\{ \begin{array}{ccl} I_1 & \longrightarrow & \mathbb{R} \\ t & \longmapsto & {\scriptstyle\lambda\left(t\right)\over\scriptstyle 1-t} \end{array} \right.\)\(\lambda\) est une primitive de \(t\rightarrow {\scriptstyle t\over\scriptstyle 1-t} e^{A}=t\). Une telle primitive est donnée, par exemple, par \(t\mapsto{\scriptstyle t^2\over\scriptstyle 2}\) et \[\psi_1: \left\{ \begin{array}{ccl} I_1 & \longrightarrow & \mathbb{R} \\ t & \longmapsto & {\scriptstyle t^2\over\scriptstyle 2} {\scriptstyle 1\over\scriptstyle 1-t} \end{array} \right.\] Les solutions de \(\left(N\right)\) sur \(I_1\) sont somme de cette solution particulière de \(\left(N\right)\) et d’une solution générale de l’équation \(\left(H\right)\) et sont donc de la forme : \[\zeta_{\alpha_1}: \left\{ \begin{array}{ccl} I_1 & \longrightarrow & \mathbb{R} \\ t & \longmapsto & {\scriptstyle t^2\over\scriptstyle 2} {\scriptstyle 1\over\scriptstyle 1-t}+{\scriptstyle\alpha_1\over\scriptstyle 1-t}={\scriptstyle\alpha_1 + t^2\over\scriptstyle 2\left(1-t\right)} \end{array} \right.\]\(\alpha_1\in\mathbb{R}\). On prouve de même que les solutions de \(\left(N\right)\) sur \(I_2\) sont de la forme : \[\zeta_{\alpha_2}: \left\{ \begin{array}{ccl} I_2 & \longrightarrow & \mathbb{R} \\ t & \longmapsto & {\scriptstyle\alpha_2 + t^2\over\scriptstyle 2\left(1-t\right)} \end{array} \right.\]\(\alpha_2\in\mathbb{R}\).

    • Cherchons s’il existe des solutions de \(\left(E\right)\) définies sur \(\mathbb{R}\). Supposons qu’un telle solution \(\zeta\) existe. On doit avoir  :

      • \(\zeta_{|I_1}\) doit être solution de \(\left(N\right)\) sur \(I_1\) et donc il existe \(\alpha_1\in\mathbb{R}\) tel que : \(\forall t\in I_1,\quad \zeta_{|I_1}\left(t\right)= \zeta_{\alpha_1}\left(t\right)= {\scriptstyle\alpha_1 + t^2\over\scriptstyle 2\left(1-t\right)}\).

      • \(\zeta_{|I_2}\) doit être solution de \(\left(N\right)\) sur \(I_2\) et donc il existe \(\alpha_2\in\mathbb{R}\) tel que : \(\forall t\in I_2,\quad \zeta_{|I_2}\left(t\right)= \zeta_{\alpha_2}\left(t\right)= {\scriptstyle\alpha_2 + t^2\over\scriptstyle 2\left(1-t\right)}\).

      • \(\zeta\) est continue sur \(\mathbb{R}\) donc \(\zeta_{|I_1}\) doit avoir une limite quand \(t\rightarrow 1^-\). Ceci n’est possible que si \(\alpha_1=-1\).

      • De même \(\zeta_{|I_2}\) doit avoir une limite quand \(t\rightarrow 1^+\). Ceci n’est possible que si \(\alpha_2=-1\).

      • On doit de plus avoir \(\displaystyle{\lim_{t \rightarrow 1^-}\zeta_{|I_1\left(t\right)}}= \displaystyle{\lim_{t \rightarrow 1^+}\zeta_{|I_2\left(t\right)}}\), ce qu’on vérifie facilement. En conclusion, on doit avoir : \(\zeta: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{R} \\ t & \longmapsto & -{\scriptstyle\left(t+1\right)\over\scriptstyle 2} \end{array} \right.\)

      • Enfin, \(\zeta\) étant dérivable sur \(\mathbb{R}\), il faut vérifier que la fonction que nous venons de construire est bien dérivable en \(1\), ce qui est ici évident.

    • On vérifie enfin qu’une telle fonction est bien solution de \(\left(E\right)\) en s’assurant qu’elle vérifie bien \(\left(E\right)\). Pour tout \(t\in\mathbb{R}\), on a : \[\begin{aligned} \left(1-t\right)\zeta'\left(t\right)-\zeta\left(t\right)&=&-{\scriptstyle 1\over\scriptstyle 2}\left(1-t\right)+{\scriptstyle\left(t+1\right)\over\scriptstyle 2}\\ &=& t\end{aligned}\] La seule solution de \(\left(E\right)\) définie sur \(\mathbb{R}\) est donc \(\zeta\).

image

Méthode d’Euler

On considère le problème de Cauchy pour une équation différentielle du premier ordre explicite : \[\begin{cases} y' &= f(t, y) \newline y(t_0) &= y_0 \end{cases}\]

Même si l’équation différentielle est linéaire, sa résolution passe par un calcul de primitives, or on ne sait calculer que très peu de primitives. Lorsque l’équation différentielle est non-linéaire, il est en général impossible de déterminer la solution explicite du problème de Cauchy. On a recours à des méthodes numériques de calcul approché de solutions. La plus simple de ces méthodes est la méthode d’Euler qui se base sur une idée géométrique simple.

L’idée est d’approximer la dérivée de \(y\) au point \(t\) par un taux d’accroissement : \[y'(t) \approx \dfrac{y(t+h)-y(t)}{h}\] ou de manière équivalente, d’approximer la courbe de \(y\) par sa tangente en \(t_0\). Comme \(\dfrac{y(t_0+h) - y(t_0)}{h} \approx f(t_0, y_0)\), on en déduit que \(y(t_0 + h) \approx y_0 + f(t_0, y_0)\). Connaissant la valeur de \(y\) en \(t_0 + h\), on peut recommencer pour obtenir une approximation de \(y(t_0 + kh)\). \[y_{n+1} = y_n + h f(t_0 + nh, y_n)\] Le réel \(y_n\) est une approximation de \(y(t_0 + nh)\). On peut travailler entre les temps \(t_0\) et \(t_1\) et subdiviser l’intervalle \(\left[t_0,t_1\right]\) en \(m\) subdivisions régulières de pas \(h=(t_1-t_0)/m\)

>##Chargement de la librairie plot pour les tracés. with(plots);

> ##La procédure Euler: Euler:=proc(t0,t1,y0,m,f) local y,h,t,n,liste; #Calcul de la subdivision. h:=(t1-t0)/m; #On fixe les conditions initiales. y[0]:=y0; t[0]:=t0; liste:=[t[0],y[0]]; #Boucle. for n from 1 to m do t[n]:=t[n-1]+h; y[n]:=f(t[n-1],y[n-1])*h+y[n-1]; liste:=liste,[t[n],y[n]]; od; #On renvoie la liste construite dans la boucle. [liste]; end; > ##Solution approchée avec la méthode d’Euler. liste:=Euler(0,1,1,10,(t,y)-> t*(y+1)); > d1:=plot(liste,color=red,linestyle=DOT); > ##Solution exacte avec la commande dsolve. dsolve(diff(y(t),t)-t*y(t)-t=0,y(0)=1); /1 2 y(t) = -1 + 2 exp- t  2 / > d2:=plot(-1+2*exp(\(t^2\)/2),t=0..1,color=blue); >##Tracés. display(d1,d2);

image

Équations différentielles linéaires du second ordre

Vocabulaire

(Equation différentielle linéaire du second ordre).
Considérons trois scalaires \(a,b,c\in\mathbb{K}\) avec \(a\neq 0\) ainsi qu’une fonction \(d:I\rightarrow \mathbb{K}\).
  • On appelle équation différentielle du second ordre une équation différentielle de la forme \[\forall t\in I, \quad a~y''\left(t\right)+b~y'\left(t\right)+c~y\left(t\right)=d\left(t\right) \quad (E)\]

  • Une solution de cette équation différentielle est une fonction \(f\) deux fois dérivable sur \(I\), à valeurs dans \(\mathbb{K}\) et vérifiant \[\forall t \in I, \quad a~f''\left(t\right)+b~f'\left(t\right)+c~f\left(t\right)=d\left(t\right)\]

  • Résoudre, ou intégrer l’équation différentielle \((E)\) revient à déterminer l’ensemble des fonctions qui sont solutions de \((E)\). On notera \(S_\mathbb{K}(E)\) cet ensemble.

  • Le graphe d’une solution \(f\) de \((E)\) dans un repère \(\left(O,\overrightarrow{\imath},\overrightarrow{\jmath}\right)\) du plan est une courbe intégrale de \((E)\).

  • Si la fonction \(d\) est identiquement nulle sur \(I\) , l’équation différentielle \((E)\) est dite homogène ou sans second membre.

Si l’équation différentielle linéaire du second ordre \((E)\) est homogène, on vérifie facilement (Exercice!) que toute combinaison linéaire de solutions de \((E)\) est encore solution de \((E)\) (si \(\varphi\) et \(\psi\) sont éléments de \(S_\mathbb{K}(E)\) alors il en est de même de \(\alpha \varphi+ \beta \psi\) pour tout couple \((\alpha,\beta)\) dans \(\mathbb{K}\). \(S_\mathbb{K}(E)\) possède donc une structure d’espace vectoriel sur \(\mathbb{K}\).
(Équation caractéristique).
L’équation complexe \(a~X^2+b~X+c=0\) est appelée équation caractéristique de l’équation différentielle \((E)\).
(Condition initiale).
Soit \((t_0,y_0,y_1) \in I\times \mathbb{K}\times \mathbb{K}\). On dit que la solution \(\varphi\) de \((E)\) vérifie la condition initiale \((t_0,y_0,y_1)\) si à la fois \(\varphi(t_0)=y_0\) et \(\varphi'(t_0)=y_1\).

Résolution de l’équation différentielle homogène du second ordre dans \(\mathbb{C}\)

Soient \(a,b,c\in\mathbb{C}\) avec \(a\neq 0\) et \(\left(E\right)\) l’équation différentielle \[\forall t\in\mathbb{R}, \quad a y''\left(t\right)+by'\left(t\right)+cy\left(t\right)=0.\] Pour tout complexe \(r\), la fonction \(\varphi_r: t \mapsto e^{rt}\) est solution de \(\left(E\right)\) si et seulement si \(r\) est solution de l’équation caractéristique associée à \(\left(E\right)\) : \(a~r^2+b~r+c=0\).
Soit \(r\in \mathbb{C}\). On a : \[\begin{aligned} & & \varphi_r \textrm{ est solution de } \left(E\right)\\ &\Rightarrow & a \varphi_r''+ b \varphi_r' +c \varphi_r =0\\ &\Rightarrow & \forall t\in I, \quad a r^2 e^{rt} + b r e^{rt} + c e^{rt} = 0\\ &\Rightarrow & \forall t\in I, \quad \left(ar^2+br +c\right)e^{rt}=0 \newline &\Rightarrow & ar^2+br +c=0 \textrm{ car la fonction exponentielle ne s'annule jamais}\end{aligned}\] Réciproquement, si \(ar^2+br +c=0\) alors on vérifie facilement que \(\varphi_r\) est solution de \(\left(E\right)\).
Avec les notations du lemme précédent, on remarque que si \(r_1\) et \(r_2\) sont des racines distinctes de l’équation caractéristique associée à \(\left(E\right)\) alors \(t\mapsto e^{r_1 t}\) et \(t\mapsto e^{r_2 t}\) sont solutions de \(\left(E\right)\). Par application de la remarque précédente, on en déduit que toute combinaison linéaire \(t\mapsto \alpha e^{r_1 t} + \beta e^{r_2 t}\)\(\alpha,\beta\in\mathbb{K}\) est encore une solution de \(\left(E\right)\). Le théorème suivant permet d’affirmer que toutes les solutions de \(\left(E\right)\) sont de cette forme.
(Résolution d’une équation du second degré à coefficients constants dans \(\mathbb{C}\)).
Considérons \(a,b,c\in\mathbb{C}\) avec \(a\neq 0\) ainsi que \(\left(E\right)\) l’équation différentielle donnée par : \[a y''+by'+cy=0\] Notons \(\Delta\) le discriminant de son équation caractéristique.
  1. Si \(\Delta\neq 0\), l’équation caractéristique de \(\left(E\right)\) possède deux racines distinctes \(r_1\) et \(r_2\) et les solutions de \(\left(E\right)\) sont les fonctions \[\boxed{\varphi_{\alpha,\beta}: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{C} \\ t & \longmapsto & \alpha e^{r_1 t}+\beta e^{r_2 t} \end{array} \right. }\]\(\alpha,\beta\in\mathbb{C}\).

  2. Si \(\Delta=0\), l’équation caractéristique de \(\left(E\right)\) admet une racine double \(r\) et les solutions de \(\left(E\right)\) sont les fonctions \[\boxed{\varphi_{\alpha,\beta}: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{C} \newline t & \longmapsto & \left(\alpha t+\beta\right)e^{r t} \end{array} \right. }\]\(\alpha,\beta\in\mathbb{C}\).

Nous allons à nouveau effectuer un changement de fonction inconnue. Soit \(z\) une fonction deux fois dérivables sur \(\mathbb{R}\) et à valeurs dans \(\mathbb{C}\). Notons \(r_1\in\mathbb{C}\), une des deux racines de l’équation caractéristique de \(\left(E\right)\). Considérons \(f\) la fonction donnée par \(f: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{C} \\ t & \longmapsto & z\left(t\right)e^{r_1t} \end{array} \right.\). La fonction \(f\) est elle aussi deux fois dérivable sur \(\mathbb{R}\) et pour tout \(t\in\mathbb{R}\), on a : \[\begin{aligned} f\left(t\right)&=&z\left(t\right)e^{r_1t}\\ f'\left(t\right)&=&\left(z'\left(t\right) + r_1z\left(t\right)\right)e^{r_1t}\\ f''\left(t\right)&=&\left(z''\left(t\right)+2r_1z'\left(t\right)+r_1^2z\left(t\right)\right)e^{r_1t}\end{aligned}\] Par conséquent, pour tout \(t\in\mathbb{R}\), on a : \[\begin{aligned} & &af''\left(t\right)+bf'\left(t\right)+cf\left(t\right)\\ &=&\left(az''\left(t\right)+\left(2ar_1+b\right)z'\left(t\right)+\underbrace{\left(ar_1^2+br_1+c\right)}_{=0}z\left(t\right)\right)e^{r_1t}\\ &=&\left(az''\left(t\right) +\left(2ar_1+b\right)z'\left(t\right)\right)e^{r_1t}\end{aligned}\] En conclusion, \(f\) est solution de \(\left(E\right)\) si et seulement si, la fonction exponentielle ne s’annulant jamais, \(z'\) est solution de : \[\left(\varepsilon_{r_1}\right): \quad a y'+ \left(2ar_1+b\right)y=0\] Notons \(\Delta\) le discriminant de l’équation caractéristique associée à \(\left(E\right)\).
  • Alors l’équation caractéristique possède deux racines distinctes \(r_1\) et \(r_2\in\mathbb{C}\). Considérons l’ensemble \(\mathscr A=\left\{t\rightarrow \alpha_1 e^{r_1 t} + \alpha_2 e^{r_2 t} ~|~ \alpha_1,\alpha_2 \in\mathbb{C}\right\}\) et montrons que \(\mathscr A=S_\mathbb{C}\left(E\right)\). Pour ce faire, nous allons effectuer un raisonnement par double inclusion :

    • Par application du lemme précédent, il est clair que \(t\rightarrow e^{r_1 t}\) et \(t\rightarrow e^{r_2 t}\) sont éléments de \(S_\mathbb{C}\left(E\right)\). Par conséquent toute combinaison linéaire de ces deux fonctions est encore élément de \(S_\mathbb{C}\left(E\right)\) ce qui prouve la première inclusion.

    • Réciproquement, soit \(f\in S_\mathbb{C}\left(E\right)\). Alors, compte tenu de ce qui a été fait précédemment, si \(z\) est la fonction donnée par \(\forall t\in\mathbb{R},\quad z\left(t\right)=f\left(t\right)e^{-r_1 t}\), \(z'\) est solution de \(\left(\varepsilon_{r_1}\right):\quad a y'+ \left(2ar_1+b\right)y=0 .\) Mais, comme \(r_1+r_2 = -{\scriptstyle b\over\scriptstyle a}\), il vient \(2ar_1+b=r_1-r_2\) et \(\left(\varepsilon_{r_1}\right)\) s’écrit : \(\left(\varepsilon_{r_1}\right): \quad a y'+ \left(r_1-r_2\right)y=0 .\) Appliquons la théorie des équations différentielles linéaires du premier degré à cette équation. Les solutions sont de la forme : \(y_\alpha: t \rightarrow \alpha e^{-\left(r_1-r_2\right)t}\) avec \(\alpha\in\mathbb{C}\), et donc \(z\) est une primitive d’une de ces fonctions : \[\exists \beta\in\mathbb{C}, \quad \forall t\in\mathbb{R}, \quad z\left(t\right)= -{\scriptstyle\alpha\over\scriptstyle r_1-r_2}e^{{-\left(r_1-r_2\right)t}}+\beta.\] Compte tenu de la définition de \(z\), on a bien prouvé qu’il existe \(\alpha_1\left(=\beta\right)\) et \(\alpha_2\left(=-{\scriptstyle\alpha\over\scriptstyle r_1-r_2}\right)\) tels que : \[\forall t\in\mathbb{R}, \quad f\left(t\right)=\alpha_1 e^{r_1 t} + \alpha_2 e^{r_2 t}\]

  • L’équation caractéristique possède donc une racine double \(r_0\). Dans ce cas, \(2ar_0+b=0\) et donc \(f\) est solution de \(\left(E\right)\) si et seulement si \(z'\) est solution de \(\left(\varepsilon_{r_0}:\quad y'=0\right)\), c’est-à-dire si et seulement si \(z''=0\). De \(z''=0\), on déduit qu’il existe \(\alpha\) et \(\beta\in\mathbb{C}\) tels que : \(\forall t\in\mathbb{R},\quad z\left(t\right)=\alpha t + \beta\). Compte tenu de la définition de \(z\), on peut alors affirmer que \(f\) est solution de \(\left(E\right)\) si et seulement si : \(\forall t\in\mathbb{R},\quad f\left(t\right)=\left(\alpha t + \beta\right)e^{rt}\).

Les solutions de \(\left(E\right)\) s’expriment comme combinaisons linéaires de deux fonctions non proportionnelles. Si on note \(\Delta\) le discriminant de l’équation caractéristique associée à \(\left(E\right)\), ces deux fonctions sont :
  • \(t \mapsto e^{r_1 t}\) et \(t \mapsto e^{r_2 t}\) dans le cas où \(\Delta\neq 0\).

  • \(t \mapsto e^{r t}\) et \(t \mapsto t e^{r t}\) dans le cas où \(\Delta = 0\).

L’ensemble des solutions \(S_\mathbb{C}(E)\) possède donc une structure de plan vectoriel.
Exercice Prouver la non proportionnalité des fonctions en question.
Soient \((t_0,y_0,y_1) \in I\times \mathbb{C}\times \mathbb{C}\). Soient \(a,b,c\in\mathbb{C}\) avec \(a\neq 0\) et \(\left(E\right)\) l’équation différentielle : \[\forall t\in\mathbb{R}, \quad a y''\left(t\right)+by'\left(t\right)+cy\left(t\right)=0\] Il existe une unique solution \(\varphi\) de \(\left(E\right)\) vérifiant les conditions initiales \((t_0,y_0,y_1)\), c’est-à-dire telle que à la fois \(\varphi(t_0)=y_0\) et \(\varphi'(t_0)=y_1\).
On va faire la démonstration dans le cas où le discriminant de l’équation caractéristique associée à \(\left(E\right)\) est non nul. Dans le cas où ce discriminant est nul, la démonstration est identique. Les solutions de \(\left(E\right)\) sont les fonctions : \(\varphi : \mathbb{R} \rightarrow \mathbb{C}, t \mapsto c_1 e^{r_1 t}+ c_2 e^{r_2 t}\)\(r_1\) et \(r_2\) sont les deux racines de l’équation caractéristique et où \(c_1\) et \(c_2\) sont des complexes. Montrons qu’il existe une et une seule solution \(\varphi_0\) vérifiant les conditions initiales : \(\varphi_0(t_0)=y_0\) et \(\varphi_0'(t_0)=y_1\). Le couple \(\left(c_1,c_2\right)\) doit être le couple solution du système : \[\begin{cases} x e^{r_1 t_0}+ y e^{r_2 t_0} = y_0\\ x r_1 e^{r_1 t_0}+ y r_2 e^{r_2 t_0} = y_1 \end{cases}.\]

Ce système possède bien une et une seule solution car son déterminant

\[\left| \begin{array}{cc} e^{r_1 t_0}&e^{r_2 t_0}\newline r_1 e^{r_1 t_0} &r_2 e^{r_2 t_0} \end{array} \right| = r_2e^{\left(r_1+r_2\right)t_0}-r_1e^{\left(r_1+r_2\right)t_0} = \left(r_2-r_1\right)e^{\left(r_1+r_2\right)t_0}\] est non nul. Ce qui prouve la proposition.

Résolution de l’équation différentielle homogène du second ordre dans \(\mathbb{R}\)

(Résolution des équations différentielles du premier ordre dans \(\mathbb{R}\)).
Considérons \(a,b,c\in\mathbb{R}\) avec \(a\neq 0\) ainsi que \(\left(E\right)\) l’équation différentielle donnée par : \[\forall t\in\mathbb{R}, \quad a y''\left(t\right)+by'\left(t\right)+cy\left(t\right)=0\] Notons \(\Delta\) le discriminant de l’équation caractéristique associée à \(\left(E\right)\).
  • Si \(\Delta> 0\), l’équation caractéristique de \(\left(E\right)\) possède deux racines réelles distinctes \(r_1\) et \(r_2\) et les solutions de \(\left(E\right)\) sont les fonctions : \[\boxed{\varphi_{\alpha,\beta}: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{R} \\ t & \longmapsto & \alpha e^{r_1 t}+\beta e^{r_2 t} \end{array} \right. }\]\(\alpha,\beta\in\mathbb{R}\).

  • Si \(\Delta=0\), l’équation caractéristique de \(\left(E\right)\) admet une racine double \(r\) et les solutions réelles de \(\left(E\right)\) sont les fonctions : \[\boxed{\varphi_{\alpha,\beta}: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{R} \\ t & \longmapsto & \left(\alpha t+\beta\right)e^{r t} \end{array} \right. }\]\(\alpha,\beta\in\mathbb{R}\).

  • Si \(\Delta <0\), l’équation caractéristique de \(\left(E\right)\) admet deux racines complexes conjuguées \(r+i\omega\) et \(r-i\omega\) et les solutions réelles de \(\left(E\right)\) sont les fonctions : \[\boxed{\varphi_{\alpha,\beta}: \left\{ \begin{array}{ccl} \mathbb{R} & \longrightarrow & \mathbb{R} \newline t & \longmapsto & \left[\alpha\cos\left(\omega t\right)+ \beta\sin\left(\omega t\right)\right]e^{r t} \end{array} \right. }\]\(\alpha,\beta\in\mathbb{R}\).

  • Les deux premiers cas se traitent comme dans le cas complexe.

  • Supposons que le discriminant soit négatif et donc que l’équation caractéristique de \(\left(E\right)\) possèdent deux racines complexes conjuguées : \(r \pm i\omega \in\mathbb{C}\). Par application du théorème complexe [equ_diff_second_degre_coeffs_complexes] page [equ_diff_second_degre_coeffs_complexes], les solutions de \(\left(E\right)\) sont de la forme \(t\mapsto \lambda_1 e^{\left(r+i\omega\right)t} +\lambda_2 e^{\left(r-i\omega\right)t}\)\(\lambda_1,\lambda_2\in\mathbb{C}\). Les fonctions \(t \mapsto e^{r t}\cos \omega t\) (\(\lambda_1={1}/{2}\), \(\lambda_2={1}/{2}\)) et \(t \mapsto e^{r t}\sin \omega t\) (\(\lambda_1={1}/{2}\), \(\lambda_2=-{1}/{2}\)) sont donc solutions de \(\left(E\right)\) ainsi que toutes leurs combinaisons linéaires. Réciproquement, si \(\varphi\) est une solution réelle de \(\left(E\right)\), alors il existe \(\lambda_1,\lambda_2\in\mathbb{C}\) tels que \(\varphi\) s’écrit \(\varphi: t \mapsto \lambda_1 e^{\left(r+i\omega\right)t} +\lambda_2 e^{\left(r-i\omega\right)t}\). Comme \(f\) est réelle, elle est égale à sa partie réelle et il vient : \[\begin{aligned} f&=& \mathop{\rm Re}\left(f\right)\\ &=& {\scriptstyle f+\bar f\over\scriptstyle 2}\\ &=& {\scriptstyle 1\over\scriptstyle 2} \left( \lambda_1 e^{\left(r+i\omega\right)t} +\lambda_2 e^{\left(r-i\omega\right)t} + \bar \lambda_1 e^{\left(r+i\omega\right)t} +\bar \lambda_2 e^{\left(r+i\omega\right)t} \right)\\ &=& {\scriptstyle 1\over\scriptstyle 2} \left( \left(\lambda_1 +\bar \lambda_2\right) e^{\left(r+i\omega\right)t} +\left(\bar \lambda_1 + \lambda_2 \right)e^{\left(r-i\omega\right)t} \right)\\ &=& {\scriptstyle 1\over\scriptstyle 2} \left( \left(\lambda_1 +\bar \lambda_2\right) e^{\left(r+i\omega\right)t} +\overline{\left(\lambda_1 +\bar \lambda_2\right) e^{\left(r+i\omega\right)t}} \right)\\ &=& \mathop{\rm Re}\left( \left(\lambda_1 +\bar \lambda_2\right) e^{\left(r+i\omega\right)t} \right)\newline &=& \underbrace{\mathop{\rm Re}\left(\lambda_1 +\bar \lambda_2\right) }_{\alpha\in\mathbb{R}} e^{r t} \cos \omega t + \underbrace{\mathop{\rm Im}\left(\lambda_1 +\bar \lambda_2\right) }_{\beta\in\mathbb{R}} e^{r t} \sin \omega t\end{aligned}\] Ce qui prouve la formule annoncée.

Dans le cas réel, \(S_\mathbb{R}\left(E\right)\) est encore un \(\mathbb{R}\)-espace vectoriel de dimension \(2\).
Résolvons dans \(\mathbb{R}\) l’équation différentielle \(y''=\omega^2y\)\(\omega\in\mathbb{R}^*\). Son discriminant réduit est \(\omega^2> 0\). Les racines de l’équation caractéristique sont donc \(\pm \omega\) et les solutions de l’équation différentielle sont les fonctions : \(t\mapsto \alpha e^{\omega x}+\beta e^{-\omega x}\) avec \(\alpha,\beta\in\mathbb{R}\).
Résolvons maintenant, toujours dans \(\mathbb{R}\), l’équation différentielle \(y''=-\omega^2y\)\(\omega\in\mathbb{R}^*\). Son discriminant réduit est \(\omega^2< 0\). Les racines de l’équation caractéristique sont \(\pm i\omega\) et les solutions de l’équation différentielle sont les fonctions : \(t\mapsto \alpha \cos \left(\omega x\right)+\beta \sin \left(\omega x\right)\) avec \(\alpha,\beta\in\mathbb{R}\).

Équation différentielle du second ordre avec second membre

On considère dans toute la suite une équation différentielle du second ordre à coefficients complexes \[\forall t\in I\quad ay''+by'\left(t\right)+cy\left(t\right)=d\left(t\right) \quad \left(E\right)\]\(a,b,c\in\mathbb{C}\), \(a\neq 0\) et \(d:I\rightarrow \mathbb{C}\). On admettra les résultats suivants :

Toute solution de \(\left(E\right)\) est somme d’une solution particulière de l’équation homogène associée à \(\left(E\right)\) et d’une solution particulière de \(\left(E\right)\).
(Cas où \(d\) est une fonction polynomiale).
On suppose que \(d\) est une fonction polynomiale. Alors \(\left(E\right)\) possède une solution particulière de la forme :
  • \(Q\) si \(c\neq 0\).

  • \(tQ\) si \(c=0\) et \(b\neq 0\)

  • \(t^2Q\) si \(b=c=0\).

\(Q\) est une fonction polynomiale de même degré que \(P\).
(Cas où \(d=Pe^{mt}\)).
On suppose que \(d\) est de la forme \(d:t\mapsto P\left(t\right)e^{mt}\)\(P\) est une fonction polynomiale et où \(m\in\mathbb{C}\). Alors \(\left(E\right)\) possède une solution particulière de la forme :
  • \(Qe^{mt}\) si \(m\) n’est pas une racine de \(aX^2+bX+c=0\)

  • \(tQe^{mt}\) si \(m\) est une racine simple de \(aX^2+bX+c=0\)

  • \(t^2Qe^{mt}\) si \(m\) est une racine double de \(aX^2+bX+c=0\)

\(Q\) est une fonction polynomiale de même degré que \(P\).
(Cas où \(d\) est une combinaison linéaire de fonctions \(\sin\) et \(\cos\)).
Soient \(\eta_1,\eta_2,a,b,c, \omega\in\mathbb{R}\) avec \(\omega\neq 0\). L’équation \[\forall t\in I, ay''\left(t\right)+ by'\left(t\right)+cy\left(t\right)=\boxed{\eta_1 \cos\left(\omega t\right) + \eta_2 \sin \left(\omega t\right)} \quad (E)\] admet une solution particulière sur \(I\) de la forme \(t\mapsto \mu_1 \cos\left(\omega t\right) + \mu_2 \sin \left(\omega t\right)\)\(\mu_1,\mu_2 \in\mathbb{R}\).
Soit \(\varphi_0:t\mapsto \mu_1 \cos\left(\omega t\right) + \mu_2 \sin \left(\omega t\right)\). On a la série d’équivalences : \[\begin{aligned} & &\varphi_0 \textrm{ ~est solution de $\left(E\right)$}\\ &\Longleftrightarrow& \forall t\in I, \quad a\varphi_0''\left(t\right) + b\varphi_0'\left(t\right)+c\varphi_0\left(t\right)=\eta_1 \cos\left(\omega t\right) + \eta_2 \sin \left(\omega t\right)\\ &\Longleftrightarrow& \forall t\in I, \quad \left(\left(1-\omega^2\right)\mu_1 + \omega \mu_2 \right) \cos\left(\omega t\right) + \left(\left(1-\omega^2\right)\mu_2-\omega \mu_1\right) \sin\left(\omega t\right) = \eta_1 \cos\left(\omega t\right) + \eta_2 \sin \left(\omega t\right)\\ &\Longleftrightarrow& \begin{cases} \left(1-\omega^2\right)\mu_1 + \omega \mu_2 &= \eta_1 \newline -\omega \mu_1 + \left(1-\omega^2\right)\mu_2 &= \eta_2\end{cases}\end{aligned}\]

Le déterminant de ce système est \(\left(1-\omega^2\right)+\omega^2 \neq 0\) et le système possède toujours un couple solution. L’équation \(\left(E\right)\) admet donc toujours une solution de la forme indiquée.

Résolvons \(\left(E\right)~:\quad y''-y'-2y=3e^{-t}+t\) dans \(\mathbb{R}\). Le discriminant de l’équation caractéristique associée à l’équation différentielle \(y''-y'-2y=0\) est \(9\). Ses deux racines sont \(-1\) et \(2\). Les solutions de cette équation sont donc les fonctions \(t\mapsto \alpha e^{-t}+\beta e^{2t}\). Cherchons une solution particulière de \(\left(E'\right)~:\quad y''-y'-2y=3e^{-t}\).Par application du critère [critere_equ_diff_Pexp], comme \(-1\) est une racine de l’équation caractéristique, il faut chercher cette solution particulière sous la forme \(t\mapsto a te^{-t}\). En injectant cette fonction dans l’équation différentielle \(\left(E'\right)\), on trouve \(a=-3/2\). Cherchons maintenant une solution particulière de \(\left(E''\right)~: \quad y''-y'-2y=t\). La forme du second membre nous invite à utiliser le critère [critere_equ_diff_P] et à chercher cette solution particulière sous la forme \(t\mapsto bt+c\). Par la même méthode que précédemment, on trouve : \(b=-1/2\) et \(c=0\). Le principe de superposition nous permet alors d’affirmer que \(t\mapsto -1/2t-3/2 e^{-t}\) est une solution particulière de \(\left(E\right)\). Enfin, les solutions de \(\left(E\right)\) sont les fonctions \(t\mapsto \alpha e^{-t}+\beta e^{2t} -1/2t-3/2 e^{-t}\)\(\alpha,\beta\in\mathbb{R}\).

En résumé

Les quatre points principaux de ce chapitres, à connaître parfaitement, sont :

  1. Le théorème de résolution des équations différentielles linéaires du premier ordre.

  2. La méthode de variation de la constante.

  3. Le théorème de résolution des équations différentielles linéaires du second ordre à coefficients complexes.

  4. Le théorème de résolution des équations différentielles linéaires du second ordre à coefficients réels.

 
 
Ce chapitre utilise de nombreux résultats du cours d’analyse. Le diagramme suivant explique la filiation du théorème fondamental donnant les solutions d’une équation différentielle linéaire du premier ordre.

On peut encore faire le lien avec les différents chapitres du programme:

Bibliographie


    Barre utilisateur

    [ID: 60] [Date de publication: 31 octobre 2021 20:30] [Catégorie(s): Le cours de SUP ] [ Nombre commentaires: 0] [nombre d'éditeurs: 1 ] [Editeur(s): Emmanuel Vieillard-Baron ] [nombre d'auteurs: 3 ] [Auteur(s): Emmanuel Vieillard-Baron Alain Soyeur François Capaces ]




    Commentaires sur le cours

    Documents à télécharger

    Equations différentielles linéaires du premier et second ordre
    Télécharger Télécharger avec les commentaires

    L'article complet