Méthode de variation des constantes

En mathématiques, et plus précisément en analyse, la méthode de variation des constantes (ou méthode de Lagrange) est une méthode de résolution des équations différentielles. Elle permet en particulier de déterminer les solutions d'une équation différentielle avec second membre, connaissant les solutions de l'équation homogène (c'est-à-dire sans second membre) associée.

La méthode a été inventée par le mathématicien et physicien Pierre-Simon de Laplace, pour la résolution des équations différentielles linéaires. Elle tire son nom de ce que, pour l'essentiel, elle consiste à chercher les solutions sous une forme analogue à celle déjà trouvée pour une équation associée plus simple, mais en remplaçant la ou les constantes de cette solution par de nouvelles fonctions inconnues.

Cas du premier ordre

Pour une équation différentielle linéaire d'ordre 1, si la solution générale de l'équation homogène

a z + b z = 0 {\displaystyle az'+bz=0}

est

z K ( x ) = K z 1 ( x ) , K R , {\displaystyle z_{K}(x)=Kz_{1}(x),K\in \mathbb {R} ,}

on cherche celle de

a y + b y = c {\displaystyle ay'+by=c}

sous la forme

y ( x ) = k ( x ) z 1 ( x ) . {\displaystyle y(x)=k(x)z_{1}(x).}

En reportant dans l'équation initiale, on obtient une équation équivalente à l'équation initiale mais portant sur k :

k = c a z 1 . {\displaystyle k'={\frac {c}{az_{1}}}.}

En notant k0 une primitive de la fonction c/(az1), la solution générale k s'exprime sous la forme

k K ( x ) = k 0 ( x ) + K , K R {\displaystyle k_{K}(x)=k_{0}(x)+K,K\in \mathbb {R} }

ce qui permet de remonter à l'expression de la solution générale yK = y0 + zK :

y K ( x ) = ( k 0 ( x ) + K ) z 1 ( x ) , K R . {\displaystyle y_{K}(x)=(k_{0}(x)+K)z_{1}(x),K\in \mathbb {R} .}

Pour expliciter z1 puis k0, il faut réaliser deux calculs de primitives. De ce fait, la solution ne s'exprime le plus souvent pas à l'aide des fonctions usuelles (voir à ce sujet le théorème de Liouville).

Cas du second ordre

Pour une équation différentielle linéaire d'ordre deux, mise sous la forme y + a ( x ) y + b ( x ) y = d ( x ) {\displaystyle y''+a(x)\cdot y'+b(x)\cdot y=d(x)}  :

Notons y 1 {\displaystyle y_{1}} et y 2 {\displaystyle y_{2}} deux solutions formant une base des solutions de l'équation homogène. On cherchera une solution particulière y sous la forme

y ( x ) = λ ( x ) y 1 ( x ) + μ ( x ) y 2 ( x ) {\displaystyle y(x)=\lambda (x)\cdot y_{1}(x)+\mu (x)\cdot y_{2}(x)} (d'où le nom de « méthode de variation des constantes »).

On montre que si les fonctions λ {\displaystyle \lambda } et μ {\displaystyle \mu } vérifient le système suivant

{ λ ( x ) y 1 ( x ) + μ ( x ) y 2 ( x ) = 0 λ ( x ) y 1 ( x ) + μ ( x ) y 2 ( x ) = d ( x ) {\displaystyle {\begin{cases}\lambda '(x)\cdot y_{1}(x)+\mu '(x)\cdot y_{2}(x)=0\\\lambda '(x)\cdot y'_{1}(x)+\mu '(x)\cdot y'_{2}(x)=d(x)\end{cases}}}

alors la fonction y ci-dessus est une solution particulière.

Remarque:

1) Puisque le Wronskien ne s'annule pas, | y 1 ( x ) y 2 ( x ) y 1 ( x ) y 2 ( x ) | 0 {\displaystyle {\begin{vmatrix}y_{1}(x)&y_{2}(x)\\y'_{1}(x)&y'_{2}(x)\end{vmatrix}}\neq 0} , λ ( x ) {\displaystyle \lambda '(x)} et μ ( x ) {\displaystyle \mu '(x)} s'obtiennent en utilisant la règle de Cramer.

Cas général

Pour une équation différentielle linéaire d'ordre n avec second membre, on cherchera une solution particulière y {\displaystyle y} combinaison linéaire d'un système fondamental de solutions ( y 1 , y 2 , , y n ) {\displaystyle (y_{1},y_{2},\cdots ,y_{n})} , c.-à-d. d'une base de l'espace vectoriel des solutions de l'équation homogène. Les coefficients ( c 1 , c 2 , , c n ) {\displaystyle (c_{1},c_{2},\cdots ,c_{n})} de la combinaison linéaire sont maintenant des fonctions que l'on cherche à déterminer. C'est une simple généralisation du cas n=2, cependant il existe une reformulation matricielle.

Une équation différentielle ordinaire linéaire non homogène s'écrit de manière générale

y ( n ) ( x ) + k = 0 n 1 a k ( x ) y ( k ) ( x ) = d ( x ) ( 1 ) {\displaystyle y^{(n)}(x)+\sum _{k=0}^{n-1}a_{k}(x)\,y^{(k)}(x)=d(x)\qquad (1)}

y ( k ) {\displaystyle y^{(k)}} est la dérivée k-ième de y {\displaystyle y} . On suppose au préalable disposer de n solutions linéairement indépendantes ( y 1 , y 2 , , y n ) {\displaystyle (y_{1},y_{2},\cdots ,y_{n})} de l'équation homogène

y ( n ) ( x ) + k = 0 n 1 a k ( x ) y ( k ) ( x ) = 0 ( 2 ) {\displaystyle y^{(n)}(x)+\sum _{k=0}^{n-1}a_{k}(x)\,y^{(k)}(x)=0\qquad (2)} .

En regroupant dans une colonne les dérivées successives de chaque solution y i {\displaystyle y_{i}} , on forme la matrice suivante

Φ ( x ) := ( y 1 ( x ) y 2 ( x ) y n ( x ) y 1 ( k ) ( x ) y 2 ( k ) ( x ) y n ( k ) ( x ) y 1 ( n 1 ) ( x ) y 2 ( n 1 ) ( x ) y n ( n 1 ) ( x ) ) ( 3 ) {\displaystyle \Phi (x):={\begin{pmatrix}y_{1}(x)&y_{2}(x)&\cdots &y_{n}(x)\\\vdots &\vdots &&\vdots \\y_{1}^{(k)}(x)&y_{2}^{(k)}(x)&\cdots &y_{n}^{(k)}(x)\\\vdots &\vdots &&\vdots \\y_{1}^{(n-1)}(x)&y_{2}^{(n-1)}(x)&\cdots &y_{n}^{(n-1)}(x)\end{pmatrix}}\qquad (3)} .

L'indépendance des n solutions peut se vérifier pour chaque x fixé, en calculant le déterminant de cette matrice qui ne doit pas s'annuler, cf. wronskien.

La méthode de variation de la constante consiste à chercher une solution particulière de (1) sous la forme

y ( x ) = i = 1 n c i ( x ) y i ( x ) ( 4 ) {\displaystyle y(x)=\sum _{i=1}^{n}c_{i}(x)\,y_{i}(x)\qquad (4)}

avec des fonctions c i {\displaystyle c_{i}} au moins C 1 {\displaystyle C^{1}} . En réalité, on introduit à cette étape beaucoup trop d'inconnues et il faut imposer une égalité similaire sur les dérivées supérieures:

y ( k ) ( x ) = i = 1 n c i ( x ) y i ( k ) ( x )   k ,   1 k n 1 ( 5 ) {\displaystyle y^{(k)}(x)=\sum _{i=1}^{n}c_{i}(x)\,y_{i}^{(k)}(x)\quad \forall \ k,\ 1\leq k\leq n-1\qquad (5)}

ce qui revient, par récurrence, à imposer

i = 1 n c i ( x ) y i ( k ) ( x ) = 0   k ,   0 k n 2 ( 6 ) {\displaystyle \sum _{i=1}^{n}c_{i}'(x)y_{i}^{(k)}(x)=0\quad \forall \ k,\ 0\leq k\leq n-2\qquad (6)} .

Cependant, la dérivée n-ième est laissée telle quelle ; on obtient en dérivant (5) avec k := n – 1 :

y ( n ) ( x ) = i = 1 n ( c i ( x ) y i ( n 1 ) ( x ) + c i ( x ) y i ( n ) ( x ) ) ( 7 ) {\displaystyle y^{(n)}(x)=\sum _{i=1}^{n}{\bigl (}c'_{i}(x)\,y_{i}^{(n-1)}(x)+c_{i}(x)\,y_{i}^{(n)}(x){\bigr )}\qquad (7)} .

Remarque : on comprend mieux l'origine des conditions (6) et (7) dans la formulation matricielle, équation (16).

En insérant maintenant (4), (5) et (7) dans l'équation non homogène (1), on obtient

i = 1 n c i ( x ) ( y i ( n ) ( x ) + k = 0 n 1 a k ( x ) y i ( k ) ( x ) ) + i = 1 n c i ( x ) y i ( n 1 ) ( x ) = d ( x ) {\displaystyle \sum _{i=1}^{n}c_{i}(x)\,{\biggl (}y_{i}^{(n)}(x)+\sum _{k=0}^{n-1}a_{k}(x)\,y_{i}^{(k)}(x){\biggr )}+\sum _{i=1}^{n}c'_{i}(x)\,y_{i}^{(n-1)}(x)=d(x)} .

Or puisque les y i {\displaystyle y_{i}} sont solution de (2), la première somme disparait, laissant

i = 1 n c i ( x ) y i ( n 1 ) ( x ) = d ( x ) ( 8 ) {\displaystyle \sum _{i=1}^{n}c'_{i}(x)\,y_{i}^{(n-1)}(x)=d(x)\qquad (8)} .

Théorème : Si les c i {\displaystyle c'_{i}} vérifient les équations différentielles (6) et (8) alors l'expression (4) est solution de (1).

(6) et (8) peuvent se réécrire sous forme matricielle

( y 1 ( x ) y 2 ( x ) y n ( x ) y 1 ( k ) ( x ) y 2 ( k ) ( x ) y n ( k ) ( x ) y 1 ( n 1 ) ( x ) y 2 ( n 1 ) ( x ) y n ( n 1 ) ( x ) ) ( c 1 c k c n ) = ( 0 0 0 d ( x ) ) ( 9 ) {\displaystyle {\begin{pmatrix}y_{1}(x)&y_{2}(x)&\cdots &y_{n}(x)\\\vdots &\vdots &&\vdots \\y_{1}^{(k)}(x)&y_{2}^{(k)}(x)&\cdots &y_{n}^{(k)}(x)\\\vdots &\vdots &&\vdots \\y_{1}^{(n-1)}(x)&y_{2}^{(n-1)}(x)&\cdots &y_{n}^{(n-1)}(x)\end{pmatrix}}\cdot {\begin{pmatrix}c'_{1}\\\vdots \\c'_{k}\\\vdots \\c'_{n}\end{pmatrix}}={\begin{pmatrix}0\\0\\\vdots \\0\\d(x)\end{pmatrix}}\qquad (9)}

ce qui se résout comme dans le cas du second ordre avec la règle de Cramer. Notons W ( x ) := det Φ {\displaystyle W(x):=\det \Phi } le wronskien, que l'on a supposé non nul, alors

  i ,   1 i n , c i ( x ) = 1 W ( x ) | y 1 ( x ) y i 1 ( x ) 0 y n ( x ) 0 y 1 ( k ) ( x ) y i 1 ( k ) ( x ) 0 y n ( k ) ( x ) 0 y 1 ( n 1 ) ( x ) y i 1 ( n 1 ) ( x ) d ( x ) y n ( n 1 ) ( x ) | ( 10 ) {\displaystyle \forall \ i,\ 1\leq i\leq n,\quad c'_{i}(x)={\frac {1}{W(x)}}{\begin{vmatrix}y_{1}(x)&\cdots &y_{i-1}(x)&0&\cdots &y_{n}(x)\\\vdots &\cdots &\vdots &0&\cdots &\vdots \\y_{1}^{(k)}(x)&\cdots &y_{i-1}^{(k)}(x)&0&\cdots &y_{n}^{(k)}(x)\\\vdots &\cdots &\vdots &0&\cdots &\vdots \\y_{1}^{(n-1)}(x)&\cdots &y_{i-1}^{(n-1)}(x)&d(x)&\cdots &y_{n}^{(n-1)}(x)\end{vmatrix}}\qquad (10)}

Formulation matricielle

Soit y C n ( I ) ,   I R {\displaystyle y\in C^{n}(I),\ I\subseteq \mathbb {R} } . Notons Y {\displaystyle Y} le vecteur colonne

Y ( x ) := ( y ( x ) y ( x ) y ( 2 ) ( x ) y ( n 1 ) ( x ) ) {\displaystyle Y(x):={\begin{pmatrix}y(x)\\y'(x)\\y^{(2)}(x)\\\vdots \\y^{(n-1)}(x)\end{pmatrix}}}

Une fonction y {\displaystyle y} est solution de (1) si et seulement si Y {\displaystyle Y} satisfait

Y = ( 0 1 0 0 0 1 0 0 0 0 1 a 0 ( x ) a 1 ( x ) a n 2 ( x ) a n 1 ( x ) ) Y + ( 0 0 0 d ( x ) ) ( 11 ) {\displaystyle Y'={\begin{pmatrix}0&1&0&\cdots &0\\\vdots &0&1&0&\vdots \\\vdots &\vdots &\ddots &\ddots &0\\\vdots &\vdots &0&0&1\\-a_{0}(x)&-a_{1}(x)&\cdots &-a_{n-2}(x)&-a_{n-1}(x)\end{pmatrix}}\cdot Y+{\begin{pmatrix}0\\0\\\vdots \\0\\d(x)\end{pmatrix}}\qquad (11)}

Notons A {\displaystyle A} la matrice du membre de droite. On a transformé une équation d'ordre n en une équation d'ordre 1.

La résolvante de l'équation homogène associée est l'application R : I × I M n ( K ) {\displaystyle R:I\times I\longrightarrow \mathbb {M} _{n}(\mathbb {K} )} qui envoie la valeur Y ( x 1 ) {\displaystyle Y(x_{1})} de toute solution au point x1 à sa valeur Y ( x 2 ) {\displaystyle Y(x_{2})} au point x2 (justification de l'existence, cf. Théorème de Cauchy-Lipschitz), c.-à-d. pour toute solution Y {\displaystyle Y} de l'équation homogène associée à (11)

Y ( x 2 ) = R ( x 2 , x 1 ) Y ( x 1 ) ( 12 ) {\displaystyle Y(x_{2})=R(x_{2},x_{1})\cdot Y(x_{1})\qquad (12)} .

Si l'on regroupe n solutions ( Y 1 , Y 2 , , Y n ) {\displaystyle (Y_{1},Y_{2},\cdots ,Y_{n})} linéairement indépendantes de l'équation homogène dans la matrice Φ {\displaystyle \Phi } de (3), on a naturellement

Φ ( x ) = A Φ ( 13 ) {\displaystyle \Phi '(x)=A\cdot \Phi \qquad (13)}

ainsi que

Φ ( x 2 ) = R ( x 2 , x 1 ) Φ ( x 1 ) ( 14 ) {\displaystyle \Phi (x_{2})=R(x_{2},x_{1})\cdot \Phi (x_{1})\qquad (14)} .

Remarque:

  • (13) et (14) restent valables pour toute famille ( Y 1 , Y 2 , , Y n ) {\displaystyle (Y_{1},Y_{2},\cdots ,Y_{n})} de solutions, linéairement indépendantes ou pas.
  • Si l'on connait explicitement un système fondamental de solutions ( Y 1 , Y 2 , , Y n ) {\displaystyle (Y_{1},Y_{2},\cdots ,Y_{n})} , alors on peut expliciter la résolvante à partir de (14). En effet, par la formule de Liouville, si Φ {\displaystyle \Phi } est inversible pour un certain x0, alors elle l'est pour tout x ; on peut ainsi écrire Φ ( x 2 ) Φ 1 ( x 1 ) = R ( x 2 , x 1 ) {\displaystyle \Phi (x_{2})\cdot \Phi ^{-1}(x_{1})=R(x_{2},x_{1})} .

Attention : Nous allons utiliser, sans la démontrer, l'invariance de la résolvante par translation, en particulier que R ( x 2 , x 1 ) = R ( x 2 x 1 ) {\displaystyle R(x_{2},x_{1})=R(x_{2}-x_{1})} (abus de notation) et que vu comme fonction à une variable, c'est un « groupe à 1 paramètre » partout où il est défini, c.-à-d. R ( a ) R ( b ) = R ( a + b ) {\displaystyle R(a)\cdot R(b)=R(a+b)} et R 1 ( a ) = R ( a ) {\displaystyle R^{-1}(a)=R(-a)} lorsque cela est défini. Par ailleurs, R {\displaystyle R} satisfait aussi (13).

Dans cette formulation, la méthode de variation des constantes consiste à faire le "changement de variable"

Y ( x ) = R ( x , x 0 ) ( c 1 ( x ) c 2 ( x ) c 3 ( x ) c n ( x ) ) ( c 1 ( x ) c 2 ( x ) c 3 ( x ) c n ( x ) ) = R 1 ( x , x 0 ) Y ( x ) ( 15 ) {\displaystyle Y(x)=R(x,x_{0})\cdot {\begin{pmatrix}c_{1}(x)\\c_{2}(x)\\c_{3}(x)\\\vdots \\c_{n}(x)\end{pmatrix}}\quad \Longleftrightarrow \quad {\begin{pmatrix}c_{1}(x)\\c_{2}(x)\\c_{3}(x)\\\vdots \\c_{n}(x)\end{pmatrix}}=R^{-1}(x,x_{0})\cdot Y(x)\qquad (15)}

(11) se réécrit donc

R ( x x 0 ) ( c 1 ( x ) c 2 ( x ) c 3 ( x ) c n ( x ) ) + R ( x x 0 ) ( c 1 ( x ) c 2 ( x ) c 3 ( x ) c n ( x ) ) = A R ( x x 0 ) ( c 1 ( x ) c 2 ( x ) c 3 ( x ) c n ( x ) ) + ( 0 0 0 d ( x ) ) {\displaystyle R'(x-x_{0})\cdot {\begin{pmatrix}c_{1}(x)\\c_{2}(x)\\c_{3}(x)\\\vdots \\c_{n}(x)\end{pmatrix}}+R(x-x_{0})\cdot {\begin{pmatrix}c'_{1}(x)\\c'_{2}(x)\\c'_{3}(x)\\\vdots \\c'_{n}(x)\end{pmatrix}}=A\cdot R(x-x_{0})\cdot {\begin{pmatrix}c_{1}(x)\\c_{2}(x)\\c_{3}(x)\\\vdots \\c_{n}(x)\end{pmatrix}}+{\begin{pmatrix}0\\0\\\vdots \\0\\d(x)\end{pmatrix}}} .

Or puisque R {\displaystyle R} satisfait aussi (13), il ne reste que

R ( x x 0 ) ( c 1 ( x ) c 2 ( x ) c 3 ( x ) c n ( x ) ) = ( 0 0 0 d ( x ) ) ( 16 ) {\displaystyle R(x-x_{0})\cdot {\begin{pmatrix}c'_{1}(x)\\c'_{2}(x)\\c'_{3}(x)\\\vdots \\c'_{n}(x)\end{pmatrix}}={\begin{pmatrix}0\\0\\\vdots \\0\\d(x)\end{pmatrix}}\qquad (16)}

ce qui est équivalent à (9), avec ici la dépendance explicite aux valeurs des solutions fondamentales en x0.

En remarquant que R ( 0 ) = I n {\displaystyle R(0)=I_{n}} (matrice identité) et avec (15), on intègre le vecteur composante par composante

( c 1 ( x ) c 2 ( x ) c 3 ( x ) c n ( x ) ) = x 0 x R 1 ( l x 0 ) ( 0 0 0 d ( x ) ) d l + Y ( x 0 ) {\displaystyle {\begin{pmatrix}c_{1}(x)\\c_{2}(x)\\c_{3}(x)\\\vdots \\c_{n}(x)\end{pmatrix}}=\int _{x_{0}}^{x}R^{-1}(l-x_{0})\cdot {\begin{pmatrix}0\\0\\\vdots \\0\\d(x)\end{pmatrix}}\,dl+Y(x_{0})} .

En réutilisant (15) et R 1 ( ϵ ) = R ( ϵ ) {\displaystyle R^{-1}(\epsilon )=R(-\epsilon )} partout où cela est défini, on obtient finalement

Y ( x ) = R ( x x 0 ) Y ( x 0 ) + x 0 x R ( x l ) ( 0 0 0 d ( x ) ) d l {\displaystyle Y(x)=R(x-x_{0})Y(x_{0})+\int _{x_{0}}^{x}R(x-l)\cdot {\begin{pmatrix}0\\0\\\vdots \\0\\d(x)\end{pmatrix}}\,dl} .

Exemple d'application à la physique

L'équation différentielle du second ordre à coefficients constants a y ( t ) + b y ( t ) + c y ( t ) = 0 {\displaystyle ay''(t)+by'(t)+cy(t)=0} intervient en physique dans l'étude des systèmes oscillants à un degré de liberté, lorsque l'excitation (force, courant…) appliquée au système oscillant est nulle.

La méthode de l'équation caractéristique (découverte par Euler) donne la solution de cette équation différentielle homogène, qui est une combinaison linéaire de fonctions exponentielles (complexes).

Lorsque l'on applique une excitation f ( t ) {\displaystyle f(t)} , l'équation devient :

a y ( t ) + b y ( t ) + c y ( t ) = f ( t ) {\displaystyle ay''(t)+by'(t)+cy(t)=f(t)} .

La méthode de variation de la constante permet d'en trouver la solution générale.

Liens externes

  • icône décorative Portail de l'analyse