CHAPITRE IV.
EXPOSANTS CARACTÉRISTIQUES.
Équations aux variations.
53.Il y a peu de chances pour que, dans aucune application, les
conditions initiales du mouvement soient exactement celles qui
correspondent à une solution périodique ; mais il peut arriver
qu’elles en diffèrent fort peu. Si alors on considère les coordonnées
des trois corps dans leur mouvement véritable, et, d’autre part,
les coordonnées qu’auraient ces trois mêmes corps dans la solution
périodique, la différence reste très petite au moins pendant un
certain temps et l’on peut, dans une première approximation,
négliger le carré de cette différence.
Soit
(1)
|
|
|
un système d’équations différentielles où les
sont des fonctions
données de
![{\displaystyle x_{n}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3ee2d0d918f9085dbdaaf812726427a039846070)
Soit
(1 bis)
|
|
|
une solution quelconque de ces équations que nous appellerons
solution génératrice.
Soit
(1 ter)
|
|
|
une solution peu différente de la première.
Si l’on néglige les carrés des
on pourra écrire
(2)
|
|
|
Les équations (2) seront ce que nous appellerons les équations
aux variations des équations (1). On conçoit qu’on puisse dans
une première approximation se servir de ces équations aux variations
pour déterminer les ![{\displaystyle \xi .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/301954fda87cb533b5ff06a995680fb94c521266)
Ce qui précède suffit pour faire comprendre l’importance de
ces équations aux variations. Nous allons donc en faire une étude
détaillée, en insistant surtout sur les équations aux variations des
équations de la Dynamique.
54.Reprenons les équations (1) du numéro précédent et les
équations (2) qui en sont les équations aux variations.
Quand on connaît une solution des équations (1) contenant un
certain nombre de constantes arbitraires, on peut en déduire des
solutions particulières des équations (2).
Supposons, en effet, que les équations (1) soient satisfaites quand
on y fait
(3)
|
|
|
Je suppose que la solution génératrice s’obtienne en faisant dans
ces équations (3)
![{\displaystyle h_{1}=h_{2}=\dots =h_{p}=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c10fc30ed34d1d9cf717a8b02ac5ba9a2c8e0c37)
où
sont
constantes arbitraires.
Il est clair que les équations (2) admettront les
solutions particulières
![{\displaystyle {\begin{aligned}\xi _{1}&={\dfrac {d\varphi _{1}}{dh_{1}}},&\xi _{2}&={\dfrac {d\varphi _{2}}{dh_{1}}},&&\dots ,&\xi _{n}&={\dfrac {d\varphi _{n}}{dh_{1}}},\\\xi _{1}&={\dfrac {d\varphi _{1}}{dh_{2}}},&\xi _{2}&={\dfrac {d\varphi _{2}}{dh_{2}}},&&\dots ,&\xi _{n}&={\dfrac {d\varphi _{n}}{dh_{2}}},\\\dots &\dots \dots .,&\dots &\dots \dots .,&&\dots ,&\dots &\dots \dots .,\\\xi _{1}&={\dfrac {d\varphi _{1}}{dh_{n}}},&\xi _{2}&={\dfrac {d\varphi _{2}}{dh_{n}}},&&\dots ,&\xi _{n}&={\dfrac {d\varphi _{n}}{dh_{n}}}\cdot \end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/18ad39c8a908f9d773c399a95e2d00d2c590a158)
Il faut, bien entendu, que dans ces dérivées
on fasse après la différentiation
![{\displaystyle h_{1}=h_{2}=\dots =h_{p}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ef6cf5905a8eb157a9312ad9c13f2ba945e4b709)
Supposons maintenant que l’on connaisse une intégrale des équations (1), et soit
![{\displaystyle \mathrm {F} (x_{1},\,x_{2},\,\dots ,\,x_{n})=\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/c441f9205b937b06ba58ec0391810c1373210072)
cette intégrale.
On aura, pour la solution (1 bis),
![{\displaystyle \mathrm {F} \left[\varphi _{1}(t),\,\varphi _{2}(t),\,\dots ,\,\varphi _{n}(t)\right]=c,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ebf346b225913754f8c2a6f67c88ea9ada1753b0)
et, pour la solution (1 ter),
![{\displaystyle \mathrm {F} \left[\varphi _{1}(t)+\xi _{1},\,\varphi _{2}(t)+\xi _{2},\,\dots ,\,\varphi _{n}(t)+\xi _{n}\right]=c'.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/179d14e2a38ef4dbc413dc04e8e26c6a78ad542d)
et
étant deux constantes numériques.
Si nous supposons que les
soient très petits, il en sera de
même de
et, si l’on néglige les carrés de ces quantités, il
vient
(4)
|
|
|
Dans les dérivées partielles
il faut, bien entendu, faire après
la différentiation
![{\displaystyle {\begin{aligned}x_{1}&=\varphi _{1}(t),&x_{2}&=\varphi _{2}(t),&&\dots ,&x_{n}&=\varphi _{n}(t).\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/52f9b21f3485572d2f36378daefc92282a5f31ad)
L’équation (4) nous donne alors une intégrale des équations (2) ;
il importe d’observer que cette intégrale contiendra en général le
temps explicitement.
Ainsi, si l’on connaît une intégrale des équations (1), on peut en
déduire une intégrale des équations (2).
Application à la théorie de la Lune.
55.J’ai parlé plus haut, au no 53, des applications possibles des
équations aux variations et de leur utilité pour l’Astronomie. Un exemple frappant nous en est fourni par l’admirable théorie de la
Lune, de M. Hill.
J’ai dit au no 41 comment ce savant astronome, après avoir
formé les équations du mouvement de la Lune, étudie en détail
une solution particulière de ces équations qui diffère assez peu de
la solution correspondant aux véritables conditions initiales du
mouvement. Cette solution est périodique et de celles que j’ai
désignées dans le Chapitre précédent sous le nom de solutions de la première sorte.
S’en tenir à cette solution, cela revient à négliger à la fois non
seulement la parallaxe et l’excentricité du Soleil, mais les inclinaisons
des orbites et l’excentricité de la Lune.
Néanmoins cette première approximation nous fait connaître
assez exactement, ainsi que je l’ai dit au no 49, le coefficient de
l’une des plus importantes inégalités de la Lune connue sous le
nom de variation.
Soient maintenant
![{\displaystyle x_{1}=\varphi _{1}(t),\quad x_{2}=\varphi _{2}(t),\quad x_{3}=\varphi _{3}(t)=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/476e2b193c9278fb6075851266262b65fae263d0)
les coordonnées de la Lune dans cette solution particulière périodique.
Soient
![{\displaystyle x_{i}=\varphi _{i}(t)+\xi _{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2f4a2ee7e82adb2f3b383b6e23d05066a9801e11)
les véritables coordonnées de la Lune.
Dans une deuxième approximation, M. Hill néglige les carrés
des
et il arrive ainsi à un système d’équations différentielles
linéaires. En d’autres termes, il forme les équations aux variations
en prenant pour solution génératrice la solution périodique qu’il
avait d’abord étudiée.
Néanmoins cette seconde approximation lui donne quelques-uns
des éléments les plus importants du mouvement de la Lune, à
savoir le mouvement du périgée, celui du nœud et le coefficient
de l’évection.
À la vérité, les résultats ne sont publiés qu’en ce qui concerne
le mouvement du périgée (Cambridge U. S. A., 1877, et
Acta mathematica, t. VIII), mais le chiffre obtenu est extrêmement
satisfaisant.
Équations aux variations de la Dynamique.
56.Soit
une fonction d’une double série de variables
![{\displaystyle {\begin{array}{rrrr}x_{1},&x_{2},&\ldots ,&x_{n},\\y_{1},&y_{2},&\ldots ,&y_{n}\,\\\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8a23a48c7da440f1255f50c198961d6b5f7a5756)
et du temps
Supposons que l’on ait les équations différentielles
(1)
|
|
|
Considérons deux solutions infiniment voisines de ces équations :
![{\displaystyle x_{1},\quad x_{2},\quad \ldots ,\quad x_{n},\quad y_{1},\quad y_{2},\quad \ldots ,\quad y_{n},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/05f7792679c23d5cf26fd639f78091dcba307e87)
qui servira de solution génératrice et
![{\displaystyle x_{1}\!+\!\xi _{1},\;\;x_{2}\!+\!\xi _{2},\;\;\ldots ,\;\;x_{n}\!+\!\xi _{n},\quad y_{1}\!+\!\eta _{1},\;\;y_{2}\!+\!\eta _{2},\;\;\ldots ,\;\;y_{n}\!+\!\eta _{n},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/363b4098aa8c7aacf5befe29ca324c36e8a4e16f)
les
et les
étant assez petits pour qu’on puisse négliger leurs
carrés.
Les
et les
satisferont alors aux équations différentielles linéaires
(2)
|
|
|
qui sont les équations aux variations des équations (1).
Soit
une autre solution de ces équations linéaires, de sorte que
(2′)
|
|
|
Multiplions les équations (2) et (2′) respectivement par
et faisons la somme de toutes ces équations, il viendra
![{\displaystyle {\begin{aligned}&\sideset {}{_{i}}\sum \left(\eta '_{i}{\frac {d\xi _{i}}{dt}}-\xi '_{i}{\frac {d\eta _{i}}{dt}}-\eta _{i}{\frac {d\xi '_{i}}{dt}}+\xi _{i}{\frac {d\eta '_{i}}{dt}}\right)\\&=\;\;\;\sideset {}{_{i}}\sum \sideset {}{_{k}}\sum \left(\xi _{k}\eta '_{i}{\frac {d^{2}\mathrm {F} }{dy_{i}\,dx_{k}}}\!+\!\eta _{k}\eta '_{i}{\frac {d^{2}\mathrm {F} }{dy_{i}\,dy_{k}}}\!+\!\xi _{k}\xi '_{i}{\frac {d^{2}\mathrm {F} }{dx_{i}\,dx_{k}}}\!+\!\eta _{k}\xi '_{i}{\frac {d^{2}\mathrm {F} }{dx_{i}\,dy_{k}}}\right)\\&\;\;\;-\sideset {}{_{i}}\sum \sideset {}{_{k}}\sum \left(\eta _{i}\xi '_{k}{\frac {d^{2}\mathrm {F} }{dy_{i}\,dx_{k}}}\!+\!\eta _{i}\eta '_{k}{\frac {d^{2}\mathrm {F} }{dy_{i}\,dy_{k}}}\!+\!\xi _{i}\xi '_{k}{\frac {d^{2}\mathrm {F} }{dx_{i}\,dx_{k}}}\!+\!\xi _{i}\eta '_{k}{\frac {d^{2}\mathrm {F} }{dx_{i}\,dy_{k}}}\right)\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dd026c2dab38a460608c5ccf20b2f9eb47a0fd5f)
ou
![{\displaystyle \sum {\frac {d}{dt}}\left[\eta '_{i}\xi _{i}-\xi '_{i}\eta _{i}\right]=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fa14c7d1425a85a9c28c8f95671d174a584e8a34)
ou enfin
(3)
|
|
|
Voilà une relation qui lie entre elles deux solutions quelconques
des équations linéaires (2).
Il est aisé de trouver d’autres relations analogues.
Considérons quatre solutions des équations (2)
![{\displaystyle {\begin{array}{cccc}\xi _{i},&\xi '_{i},&\xi ''_{i},&\xi '''_{i},\\\eta _{i},&\eta '_{i},&\eta ''_{i},&\eta '''_{i}.\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4624868967b6c39a0d829eae231330f65e22c63e)
Considérons ensuite la somme des déterminants
![{\displaystyle \sideset {}{_{i}}\sum \sideset {}{_{k}}\sum \left|{\begin{array}{cccc}\xi _{i},&\xi '_{i},&\xi ''_{i},&\xi '''_{i}\\\eta _{i},&\eta '_{i},&\eta ''_{i},&\eta '''_{i}\\\xi _{k},&\xi '_{k},&\xi ''_{k},&\xi '''_{k}\\\eta _{k},&\eta '_{k},&\eta ''_{k},&\eta '''_{k}\end{array}}\right|,\qquad \quad }](https://wikimedia.org/api/rest_v1/media/math/render/svg/a8de0944f39d5d562a29bfba5fa85739a4f41859)
où les indices
et
varient depuis 1 jusqu’à
On vérifierait sans
peine que cette somme est encore une constante.
Plus généralement, si l’on forme à l’aide de
solutions des
équations (2) la somme de déterminants
![{\displaystyle {\begin{array}{c}\sum _{a_{1}\,a_{2}\,\ldots \,a_{p}}\left|\xi _{a_{1}}\eta _{a_{1}}\xi _{a_{2}}\eta _{a_{2}}\ldots \xi _{a_{p}}\eta _{a_{p}}\right|\\\left(a_{1},\,a_{2},\,\ldots ,\,a_{p}=1,\,2,\,\ldots ,\,n\right),\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/00e336b6f2011670e165280b6715b477ec50329b)
cette somme sera une constante.
En particulier, le déterminant formé par les valeurs des
quantités
et
dans
solutions des équations (2) sera une
constante.
Ces considérations permettent de trouver une solution des équations (2) quand on en connaît une intégrale et réciproquement.
Supposons, en effet, que
![{\displaystyle \xi _{i}=\alpha _{i},\qquad \eta _{i}=\beta _{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6767af9f9019f001194cde350a712884b1c6ddb1)
soit une solution particulière des équations (2) et désignons par
et
une solution quelconque de ces mêmes équations. On devra avoir
![{\displaystyle {\textstyle \sum }\left(\xi _{i}\beta _{i}-\eta _{i}\alpha _{i}\right)=\mathrm {const.} ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/acf5c0105af8a1c936b0ee9791490f7f221ea7be)
ce qui sera une intégrale des équations (2).
Réciproquement, soit
![{\displaystyle {\textstyle \sum }\mathrm {A} _{i}\xi _{i}+{\textstyle \sum }\mathrm {B} _{i}\eta _{i}=\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/8bf579a03e690f577d9a65c462671dd24c192f02)
une intégrale des équations (2), on devra avoir
![{\displaystyle {\begin{aligned}\sideset {}{_{i}}\sum {\frac {d\mathrm {A} _{i}}{dt}}\xi _{i}+\sideset {}{_{i}}\sum {\frac {d\mathrm {B} _{i}}{dt}}\eta _{i}&+\sideset {}{_{i}}\sum \mathrm {A} _{i}\left(\sideset {}{_{k}}\sum {\frac {d^{2}\mathrm {F} }{dy_{i}\,dx_{k}}}\xi _{k}\!+\!\sideset {}{_{k}}\sum {\frac {d^{2}\mathrm {F} }{dy_{i}\,dy_{k}}}\eta _{k}\right)\\&-\sideset {}{_{i}}\sum \mathrm {B} _{i}\left(\sideset {}{_{k}}\sum {\frac {d^{2}\mathrm {F} }{dx_{i}\,dx_{k}}}\xi _{k}\!+\!\sideset {}{_{k}}\sum {\frac {d^{2}\mathrm {F} }{dx_{i}\,dy_{k}}}\eta _{k}\right)\!=\!0,\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9ea16805a150a22869bd38a3f7a739dd2d92ffb3)
d’où en identifiant
![{\displaystyle {\begin{alignedat}{3}{\frac {d\mathrm {A} _{i}}{dt}}&=-\sideset {}{_{k}}\sum {\frac {d^{2}\mathrm {F} }{dy_{k}\,dx_{i}}}\mathrm {A} _{k}&{}+{}&\sideset {}{_{k}}\sum {\frac {d^{2}\mathrm {F} }{dx_{k}\,dx_{i}}}\mathrm {B} _{k},\\{\frac {d\mathrm {B} _{i}}{dt}}&=-\sideset {}{_{k}}\sum {\frac {d^{2}\mathrm {F} }{dy_{k}\,dy_{i}}}\mathrm {A} _{k}&{}+{}&\sideset {}{_{k}}\sum {\frac {d^{2}\mathrm {F} }{dx_{k}\,dy_{i}}}\mathrm {B} _{k},\end{alignedat}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2b9be0a054393feaccd3f3c53af0a4c149da029e)
ce qui montre que
![{\displaystyle {\begin{aligned}\xi _{i}&=\mathrm {B} _{i},&\eta _{i}&=-\mathrm {A} _{i}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6875f59b4b5a1a5cc1f339255db830aefb4fd096)
est une solution particulière des équations (2).
Si maintenant
![{\displaystyle \Phi (x_{i},\,y_{i},\,t)=\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/5db7738ad26880bdce48c36d3ac6b3ec38550fe2)
est une intégrale des équations (1),
![{\displaystyle \sum {\frac {d\Phi }{dx_{i}}}\xi _{i}+\sum {\frac {d\Phi }{dy_{i}}}\eta _{i}=\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/7b9195106af4189135e4e17fcf630052e112885f)
sera une intégrale des équations (2), et par conséquent
![{\displaystyle {\begin{aligned}\xi _{i}&={\frac {d\Phi }{dy_{i}}},&\eta _{i}&=-{\frac {d\Phi }{dx_{i}}}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f663c667d17f0e70ec71cee4ba806e3d3c34c04f)
sera une solution particulière de ces équations.
Si
sont deux intégrales des équations (1),
on aura
![{\displaystyle \sum \left({\frac {d\Phi }{dx_{i}}}{\frac {d\Phi _{1}}{dy_{i}}}-{\frac {d\Phi }{dy_{i}}}{\frac {d\Phi _{1}}{dx_{i}}}\right)=\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/27273ecc50b1b13a741ce9181fcd26582b6b16af)
C’est le théorème de Poisson.
Considérons le cas particulier où les
désignent les coordonnées
rectangulaires de
points dans l’espace ; nous les désignerons par
la notation à double indice
![{\displaystyle x_{1i},\quad x_{2i},\quad x_{3i},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ca59eb74674af50aca89b8b35c0f1578f67a5ef8)
le premier indice se rapportant aux trois axes rectangulaires de
coordonnées et le second indice aux
points matériels. Soit
la masse du
ième point matériel. On aura alors
![{\displaystyle m_{i}{\frac {d^{2}x_{ki}}{dt^{2}}}={\frac {dV}{dx_{ki}}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/64f117eb26c85809efc0df42819187fb932a0353)
étant la fonction des forces.
On aura alors pour l’équation des forces vives
![{\displaystyle \mathrm {F} =\sum {\frac {m_{i}}{2}}\left({\frac {dx_{ki}}{dt}}\right)^{2}-\mathrm {V} =\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/4ac3a41cd0565f2f416e74967e410a4fcaa84f6b)
Posons ensuite
![{\displaystyle y_{ki}=m_{i}{\frac {dx_{ki}}{dt}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b3886897036be23fbdd906533a83f6a159195f3f)
d’où
(3)
|
|
|
et
(1′)
|
|
|
Soit
(4)
|
|
|
une solution de ces équations (1′), une autre solution sera
![{\displaystyle x_{ki}=\varphi _{ki}(t+h),\quad y_{ki}=m_{i}\varphi '{ki}(t+h),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bc30812e5e1e5d863efbaa32053779005a1e84a2)
étant une constante quelconque.
En regardant
comme infiniment petit, on obtiendra une solution
des équations (2′) qui correspondent à (1′) comme les équations
(2) correspondent à (1)
![{\displaystyle \xi _{ki}=h\varphi '_{ki}(t)=h{\frac {y_{ki}}{m_{i}}},\quad \eta _{ki}=hm_{i}\varphi ''_{ki}(t)=h{\frac {d\mathrm {V} }{dx_{ki}}},\quad }](https://wikimedia.org/api/rest_v1/media/math/render/svg/40d4c131fad80619adfdb157d62d9a9b249adac9)
désignant un facteur constant très petit que l’on peut supprimer
quand on ne considère que les équations linéaires (2′).
Connaissant une solution
![{\displaystyle \xi ={\frac {y}{m}},\quad \eta ={\frac {d\mathrm {V} }{dx}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/982466a6c413de6ae03c75d0d275c3137ec9ce51)
de ces équations, on peut déduire une intégrale
![{\displaystyle \sum {\frac {y\eta }{m}}-\sum {\frac {d\mathrm {V} }{dx}}\xi =\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/773e47a7ef11bed9d8b41ea6ecb63c6492ccb509)
Mais cette même intégrale s’obtient très aisément en différentiant
l’équation des forces vives (3).
Si les points matériels sont soustraits à toute action extérieure,
on peut déduire de la solution (4) une autre solution
![{\displaystyle {\begin{alignedat}{6}x_{1i}&=\varphi _{1i}(t)+h+kt,\quad &y_{1i}&=m_{i}\varphi '_{1i}(t)+m_{i}k,\\x_{2i}&=\varphi _{2i}(t),&y_{2i}&=m_{i}\varphi '_{2i}(t),\\x_{3i}&=\varphi _{3i}(t),&y_{3i}&=m_{i}\varphi '_{3i}(t),\\\end{alignedat}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2087c4912fd441e79de7ae3c1703fad7dfa211a3)
et
étant des constantes quelconques. En regardant ces constantes
comme infiniment petites, on obtient deux solutions des
équations (2′)
![{\displaystyle {\begin{alignedat}{6}\xi _{1i}&=1,\qquad &\xi _{2i}&=\xi _{2i}=\eta _{1i}=\eta _{2i}=\eta _{3i}=0,&\\\xi _{1i}&=t,\qquad &\xi _{2i}&=\xi _{2i}=\eta _{2i}=\eta _{3i}=0,\quad &\eta _{1i}&=m_{i}\\\end{alignedat}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2bbcbb83edc373b081d1da4e6c46abb5de8293a2)
On obtient ainsi deux intégrales de (2′)
![{\displaystyle {\begin{array}{c}\sum _{i}\eta _{1i}=\mathrm {const.} ,\\\sum \eta _{1i}t-\sum m_{i}\xi _{1i}=\mathrm {const.} \end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cae785492d7d1c95eec684b53ea142fd4f3c079c)
On peut obtenir ces intégrales en différentiant les équations du mouvement du centre de gravité
![{\displaystyle {\begin{aligned}{\textstyle \sum }\,m_{i}x_{1i}&=t\,{\boldsymbol {\Sigma }}\,y_{1i}+\mathrm {const.} ,\\{\textstyle \sum }\,y_{1i}t&=\mathrm {const.} \\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5a58a5ce97a984e8d059e684cd7ab72bc976ae25)
Si l’on fait tourner la solution (4) d’un angle
autour de l’axe
des
on obtient une autre solution
![{\displaystyle {\begin{aligned}x_{1i}&=\varphi _{1i}\cos \omega -\varphi _{2i}\sin \omega ,&{\frac {y_{1i}}{m_{i}}}&=\varphi '_{1i}\cos \omega -\varphi '_{2i}\sin \omega ,\\[1ex]x_{2i}&=\varphi _{1i}\sin \omega +\varphi _{2i}\cos \omega ,&{\frac {y_{2i}}{m_{i}}}&=\varphi '_{1i}\sin \omega +\varphi '_{2i}\cos \omega ,\\[1ex]x_{3i}&=\varphi _{3i},\quad &{\frac {y_{3i}}{m_{i}}}&=\varphi '_{3i}.\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0fa4ec95debb06aa322962000726643abf048e19)
En regardant
comme infiniment petit, on trouve comme solution de (2′)
![{\displaystyle {\begin{aligned}\xi _{1i}&=-x_{2i},&\eta _{1i}&=-y_{2i},\\\xi _{2i}&=\;\;\;x_{1i},&\eta _{1i}&=\;\;\;y_{1i},\\\xi _{3i}&=\;\;\;0,&\eta _{3i}&=\;\;\;0,\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2587c89d486b1032c0bfce574c93a137d0eee71d)
d’où l’intégrale de (2′)
![{\displaystyle {\textstyle \sum }_{i}\left(x_{1i}\eta _{2i}-y_{1i}\xi _{2i}-x_{2i}\eta _{1i}+y_{2i}\xi _{1i}\right)=\mathrm {const.,} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/f76b0cf4bbd7ab54dff3e1f0d34c15f7c2183821)
que l’on pouvait obtenir aussi en différentiant l’intégrale des aires de (1′)
![{\displaystyle {\textstyle \sum }\left(x_{1i}y_{2i}-x_{2i}y_{1i}\right)=\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/118af3941d9ba9996452828e703f0ba69f386a0d)
Supposons maintenant que la fonction
soit homogène et de
degré
par rapport aux
ce qui est le cas de la nature.
Les équations (1′) ne changeront pas quand on multipliera
par
les
par
et les
par
étant une constante quelconque.
De la solution (4) on déduira donc la solution suivante :
![{\displaystyle {\begin{aligned}x_{ki}&=\lambda ^{2}\varphi _{ki}\left({\frac {t}{\lambda ^{3}}}\right),&y_{ki}&=\lambda ^{-1}m_{i}\varphi '_{ki}\left({\frac {t}{\lambda ^{3}}}\right)\cdot \end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6bd14a79a6b7741ee070e7e64ca58b9d50534a3b)
Si l’on regarde
comme très voisin de l’unité, on obtiendra
comme solution des équations (2′)
![{\displaystyle {\begin{aligned}\xi _{ki}&=2\varphi _{ki}-3t\varphi '_{ki},&\eta _{ki}&=-m_{i}\varphi '_{ki}-3m_{i}t\varphi '_{ki}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/64bdaef6201ef1ff657e72d6ba55990af3b2e374)
ou
(5)
|
|
|
d’où l’intégrale suivante des équations (2′), laquelle, à la différence
de celles que nous avons envisagées jusqu’ici, ne peut être obtenue
en différentiant une intégrale connue des équations (1′)
![{\displaystyle {\textstyle \sum }\left(2x_{ki}\eta _{ki}+y_{ki}\xi _{ki}\right)=3t\left[\sum \left({\frac {y_{ki}\eta _{ki}}{m_{i}}}-{\frac {d\mathrm {V} }{dx_{ki}}}\xi _{ki}\right)\right]+\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/fefcb783d9a6d474e2ee79746843be9e7f80d74a)
Application de la théorie des substitutions linéaires.
57.Avant d’aller plus loin, je suis obligé de rappeler quelques-unes
des propriétés des transformations linéaires qui nous seront
utiles dans la suite.
Soit
(1)
|
|
|
une substitution linéaire qui lie les variables
aux variables
Le
déterminant de cette substitution est
![{\displaystyle \Delta =\left|{\begin{array}{ccc}a_{1}&a_{2}&a_{3}\\b_{1}&b_{2}&b_{3}\\c_{1}&c_{2}&c_{3}\end{array}}\right|,\qquad }](https://wikimedia.org/api/rest_v1/media/math/render/svg/775181d1cf68e57e96876784673627a6b415c2f3)
et l’équation
(2)
|
|
|
est ce qu’on appelle l’équation en
de la substitution (1).
Si l’on fait subir aux
et aux
une même substitution linéaire,
c’est-à-dire si l’on pose
![{\displaystyle {\begin{alignedat}{5}\beta '_{i}&=\lambda _{i,1}\beta _{1}&{}+{}&\lambda _{i,2}\beta _{2}&{}+{}&\lambda _{i,3}\beta _{3},\\\gamma '_{i}&=\lambda _{i,1}\gamma _{1}&{}+{}&\lambda _{i,2}\gamma _{2}&{}+{}&\lambda _{i,3}\gamma _{3},\end{alignedat}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/55e7983e849cb48ffc5cd4a1108a6766bb94397b)
les
étant des constantes ; les
et les
seront
liés entre eux par des relations linéaires de même forme que (1), et l’on aura
(3)
|
|
|
La substitution linéaire (3) s’appellera alors la transformée de la
substitution (1).
La théorie des substitutions linéaires nous apprend :
1o Que la nouvelle équation en
![{\displaystyle \left|{\begin{array}{ccc}a'_{1}-\mathrm {S} &a'_{2}&a'_{3}\\b'_{1}&b'_{2}-\mathrm {S} &b'_{3}\\c'_{1}&c'_{2}&c'_{3}-\mathrm {S} \end{array}}\right|=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/977f3b3ee347629088d4ae5f8d853af6fc6fc88f)
ne diffère pas de l’ancienne équation en
(2)' ;
2o Que si le déterminant
est nul ainsi que tous ses mineurs
jusqu’aux mineurs de l’ordre
inclusivement, il en sera de même
du déterminant
![{\displaystyle \Delta '=\left|{\begin{array}{ccc}a'_{1}&a'_{2}&a'_{3}\\b'_{1}&b'_{2}&b'_{3}\\c'_{1}&c'_{2}&c'_{3}\end{array}}\right|.\qquad }](https://wikimedia.org/api/rest_v1/media/math/render/svg/d2a4bdb5cfca7f7854d587130352e5a97a176544)
Les mineurs d’ordre
de
sont, en effet, des combinaisons
linéaires des mineurs d’ordre
de
3o Que l’on peut choisir les
de façon à ramener la substitution
(2) à une forme aussi simple que possible, dite forme canonique.
Voici en quoi consiste cette forme :
Si l’équation en
a toutes ses racines simples, on peut annuler
à la fois
Si l’équation en
a une racine double, on peut annuler à la
fois
on a alors
Si l’équation en
a une racine triple, on peut s’annuler à la
fois
et
on a alors
Dans tous les cas, on peut toujours supposer que les
ont été
choisis, de telle sorte que
![{\displaystyle a'_{2}=a'_{3}=b'_{3}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ec072541073d61b258a4eb0ec84408f14874cc89)
Si l’équation en
a une racine nulle,
est nul et réciproquement.
Supposons maintenant que
ait tous ses mineurs du premier
ordre nuls ; alors il en sera de même de
Mais comme
![{\displaystyle a'_{2}=a'_{3}=b'_{3}=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/83c2373bb4dede6970d8c52da04911a35f77a45d)
il y a trois des mineurs de
qui se réduisent à
![{\displaystyle a'_{1}b'_{2},\quad b'_{2}c'_{3},\quad a'_{1}c'_{3}\,;}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9ee07b9d191dec4829cdd54bd566edf4b4b259fd)
ils ne peuvent s’annuler que si deux des trois quantités
et
sont nulles.
Mais ces trois quantités sont les trois racines de l’équation en
Donc, si les mineurs de
sont tous nuls, l’équation en
a deux
racines nulles.
La réciproque n’est pas vraie.
En effet, l’équation en
![{\displaystyle \left|{\begin{array}{ccc}1-\mathrm {S} &0&0\\0&-\mathrm {S} &0\\0&1&-\mathrm {S} \end{array}}\right|=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/db615b085dbac8ff8d1693d77354236504f85c48)
a deux racines nulles et tous ses mineurs ne sont pas nuls.
Nous avons supposé, pour fixer les idées, que nous avions affaire
à une substitution linéaire portant sur trois variables seulement :
mais le même raisonnement s’applique, quel que soit le nombre
des variables.
Si le déterminant d’une substitution linéaire est nul, ainsi
que tous ses mineurs du premier, du second, etc., du
ième
ordre ; l’'équation en
aura
racines nulles.
58.Soient, comme dans le Chapitre précédent,
![{\displaystyle {\frac {dx_{i}}{dt}}=\mathrm {X} _{i}\quad (i=1,\,2,\,\ldots ,\,n)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f3278aed2518d36db998e294bc9133b87c6504cf)
un système d’équations différentielles. Soit
![{\displaystyle x_{i}=\varphi _{i}(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/111e611ef90227502441d4bb4069816ece40367e)
une solution périodique de ces équations de période ![{\displaystyle \mathrm {T} .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/62cd2ca7157c8ae9fcf10598339b774c8294d5ce)
Soit, dans une solution voisine de cette solution périodique,
la valeur de
pour
et
la valeur de
pour
Envisageons le déterminant fonctionnel des
par rapport aux
![{\displaystyle \left|{\begin{array}{cccc}{\dfrac {d\psi _{1}}{d\beta _{1}}}&{\dfrac {d\psi _{1}}{d\beta _{2}}}&\cdots &{\dfrac {d\psi _{1}}{d\beta _{n}}}\\{\dfrac {d\psi _{2}}{d\beta _{1}}}&\cdots &\cdots &\cdots \\\cdots &\cdots &\cdots &\cdots \\{\dfrac {d\psi _{n}}{d\beta _{1}}}&\cdots &\cdots &{\dfrac {d\psi _{n}}{d\beta _{n}}}\end{array}}\right|,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/98066d89b8d71f4f27c492009d4a9a5533c82788)
On peut le regarder comme le tableau des coefficients d’une substitution
linéaire ![{\displaystyle \mathrm {T} .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/62cd2ca7157c8ae9fcf10598339b774c8294d5ce)
Si l’on fait subir aux
un changement linéaire de variables, les
et les
subiront ce même changement linéaire, et la
substitution linéaire
se changera dans la substitution transformée au
sens du numéro précédent.
Nous pourrons donc choisir le changement linéaire de variables subi par les
les
et les
de façon à simplifier autant que
possible le tableau des coefficients de
ainsi qu’il a été expliqué
plus haut. Nous pouvons donc toujours supposer que l’on a fait
un changement linéaire de variables tel que
(1)
|
|
|
toutes les fois que ![{\displaystyle i<k.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9c4980f46c0d1d5c1876637d58890af2c136a0e1)
Dans ce cas les racines de l’équation en
relative à la substitution
sont
![{\displaystyle {\frac {d\psi _{1}}{d\beta _{1}}},\quad {\frac {d\psi _{2}}{d\beta _{2}}},\quad \dots ,\quad {\frac {d\psi _{n}}{d\beta _{n}}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3d3647fb57f27b211b66fd5e13744fa7db272483)
On peut d’ailleurs choisir le changement de variables que subissent les
les
et les
de façon que ces racines de l’équation en
se présentent dans tel ordre que l’on veut. Si, par exemple, l’équation
en
a deux racines nulles, on peut choisir ce changement de
variables de telle façon que,
![{\displaystyle {\frac {d\psi _{n-1}}{d\beta _{n-1}}}={\frac {d\psi _{n}}{d\beta _{n}}}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c86d2cdc4c84b8194bef86d306c08098763ee224)
Si l’équation en
n’a qu’une racine égale a
on pourra encore choisir le changement de variables, de telle sorte que l’on ait en outre
(2)
|
|
|
Supposons donc que l’équation en
ait une racine nulle et une
seule ; nous pourrons d’après ce qui précède supposer que cette
racine nulle est
de sorte que
![{\displaystyle {\frac {d\psi _{1}}{d\beta _{1}}}=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3d4523c16e655faa7cd39c09425595ee65a8f1cf)
et choisir en même temps le changement de variables, de façon à
satisfaire aux conditions (1) et (2).
Si donc l’équation en
a une racine nulle et une seule, il est
toujours permis de supposer que
![{\displaystyle {\begin{alignedat}{5}{\frac {d\psi _{1}}{d\beta _{1}}}&={\frac {d\psi _{1}}{d\beta _{2}}}&=&\ldots &=&{\frac {d\psi _{1}}{d\beta _{n}}}&=&0,\\[0.5ex]{\frac {d\psi _{1}}{d\beta _{1}}}&={\frac {d\psi _{2}}{d\beta _{1}}}&=&\ldots &=&{\frac {d\psi _{n}}{d\beta _{1}}}&=&0.\end{alignedat}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c004fad1e01f06fa017646f450339bc8e4bf8889)
Définition des exposants caractéristiques.
59.Soit
(1)
|
|
|
un système d’équations différentielles où
seront des fonctions données de
Nous pourrons supposer, ou bien que le temps
n’entre pas explicitement dans ces fonctions
ou au contraire que ces fonctions
dépendent non
seulement de
mais encore
du temps
mais dans ce dernier cas les
devront être des fonctions
périodiques de ![{\displaystyle t.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d3e6cc375ac6123d2342be53eba87b92fbbacf07)
Imaginons que ces équations (1) admettent une solution périodique
![{\displaystyle x_{i}=\varphi _{i}(t).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ffa286d625c425d1e3a8b1972797ab3829d32259)
Prenons cette solution comme solution génératrice et formons
les équations aux variations (voir no 53) des équations (1), en posant
![{\displaystyle x_{i}=\varphi _{i}(t)+\xi _{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2f4a2ee7e82adb2f3b383b6e23d05066a9801e11)
et négligeant les carrés des ![{\displaystyle \xi .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/301954fda87cb533b5ff06a995680fb94c521266)
Ces équations aux variations s’écriront
(2)
|
|
|
Ces équations sont linéaires par rapport aux
et leurs coefficients
[quand on y a remplacé
par
] sont des fonctions périodiques de
Nous avons donc à intégrer des équations
linéaires à coefficients périodiques.
On a vu au no 29 quelle est en général la forme des intégrales
de ces équations ; on obtient
intégrales particulières de la forme suivante
(3)
|
|
|
les
étant des constantes et les
des fonctions périodiques
de
de même période que les ![{\displaystyle \varphi _{i}(t).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/55de163f61ff4222ee85ef522ff370cf59f4829b)
Les constantes
s’appellent les exposants caractéristiques de
la solution périodique.
Si
est purement imaginaire de façon que son carré soit négatif,
le module de
est constant et égal à 1. Si au contraire
est
réel, ou si
est complexe de telle façon que son carré ne soit pas réel,
le module
tend vers l’infini pour
ou pour
Si donc tous les
ont leurs carrés réels et négatifs, les quantités
resteront finies ; je dirai alors que la solution périodique
est stable ; dans le cas contraire, je dirai que
cette solution est instable.
Un cas particulier intéressant est celui où deux ou plusieurs
des exposants caractéristiques
sont égaux entre eux. Dans ce
cas les intégrales des équations (2) ne peuvent plus se mettre sous
la forme (3). Si, par exemple,
![{\displaystyle \alpha _{1}=\alpha _{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/530dd0df3dabb66d985bff653f52d0cff8a2342c)
les équations (2) admettraient deux intégrales particulières qui s’écriraient
![{\displaystyle \xi _{i}=e^{\alpha _{1}t}\mathrm {S_{i,1}} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/741d2fa488aa39472a7c505b37cad80bf85b62a2)
et
![{\displaystyle \xi _{i}=te^{\alpha _{1}t}\mathrm {S_{i,1}} +e^{\alpha _{1}t}\mathrm {S_{i,2}} ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/92d01a41a4c6cf6c210bbcce707f2e56625c2d4a)
les
et les
étant des fonctions périodiques de
(voir no 29).
Si trois des exposants caractéristiques étaient égaux entre eux,
on verrait apparaître, non seulement
mais encore
en dehors des signes trigonométriques et exponentiels.
Équation qui définit ces exposants.
60.Reprenons les équations (1) du numéro précédent ; considérons
une solution quelconque
![{\displaystyle x_{i}=\varphi _{i}(t)+\xi _{i}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/83399e2d64485832efa52bfd7d9bed458370a29d)
Soit
la période de la solution périodique génératrice
soit
la valeur de
pour
et
la valeur de
pour
Comme les
s’annulent avec les
et sont développables suivant
les puissances croissantes des
nous pouvons écrire, par la formule
de Taylor,
![{\displaystyle \psi _{i}={\frac {d\psi _{i}}{d\beta _{1}}}\beta _{1}+{\frac {d\psi _{i}}{d\beta _{2}}}\beta _{2}+\ldots +{\frac {d\psi _{i}}{d\beta _{n}}}\beta _{n}+\ldots .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/411ca511c2992c779b25ae4329291441820a1339)
Si la solution considérée diffère assez peu de la solution périodique
pour qu’on puisse négliger les carrés des
on pourra également
négliger les carrés des
et il restera
![{\displaystyle \psi _{i}={\frac {d\psi _{i}}{d\beta _{1}}}\beta _{1}+{\frac {d\psi _{i}}{d\beta _{2}}}\beta _{2}+\ldots +{\frac {d\psi _{i}}{d\beta _{n}}}\beta _{n}\quad (i=1,\,2,\,\ldots ,\,n).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a64bfc9ac7cf8c4db6b89adbf16831a3aef63922)
Considérons une des solutions particulières des équations aux
variations (2), nous aurons pour
![{\displaystyle \xi _{i}=\beta _{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9ecbdacb5621966c76b1d4cc718d3252d6ef4504)
et pour ![{\displaystyle t=\mathrm {T} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/e73fc68d102315375481ba889fed0619e928ed7c)
![{\displaystyle \xi _{i}=\beta _{i}+\psi _{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b5e55fa37c1ebcb990278e92f1017ae9c696423f)
Parmi ces solutions particulières, nous avons vu au no 59 qu’il
y en a
qui sont d’une forme remarquable : ce sont les solutions
(3) ; soit
![{\displaystyle {\begin{aligned}\xi _{1}&=e^{\alpha _{k}t}\mathrm {S} _{1,k},&\xi _{2}&=e^{\alpha _{k}t}\mathrm {S} _{2,k},&&\ldots ,&\xi _{n}&=e^{\alpha _{k}t}\mathrm {S} _{n,k},&\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d583db0a9df372f0eda8b63e9389280148f2c589)
l’une de ces solutions (3), ou, en supprimant l’indice
pour abréger
l’écriture,
![{\displaystyle \xi _{i}=e^{\alpha t}\mathrm {S} _{i}(t).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/33d432e2aea15141f806160be4875c2005149d8b)
Les fonctions
sont des fonctions périodiques de
de
période
on a donc, pour
![{\displaystyle \beta _{i}=\mathrm {S} _{i}(0)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a1da27f2a4f022d2668488859515fb0abefb61a9)
et, pour ![{\displaystyle t=\mathrm {T} ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7f81fa00bfbac563969614bae4cd0d8020c5e005)
![{\displaystyle \beta _{i}+\psi _{i}=e^{\alpha \mathrm {T} }\mathrm {S} _{i}(\mathrm {T} )=e^{\alpha \mathrm {T} }\mathrm {S} _{i}(0)=e^{\alpha \mathrm {T} }\beta _{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c2a4ac5a355ef36b2374b16d691e36dadb9be306)
ou, en remplaçant
par sa valeur,
![{\displaystyle \beta _{i}\left(e^{\alpha \mathrm {T} }\!-\!1\right)={\frac {d\psi _{i}}{d\beta _{1}}}\beta _{1}+{\frac {d\psi _{i}}{d\beta _{2}}}\beta _{2}+\ldots +{\frac {d\psi _{i}}{d\beta _{n}}}\beta _{n}\quad (i=1,\,2,\,\ldots ,\,n).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5049c08ba67936e18ddab9527bfe88580766a933)
En éliminant
entre des
équations,
il vient
![{\displaystyle \left|{\begin{array}{cccc}{\dfrac {d\psi _{1}}{d\beta _{1}}}+1-e^{\alpha \mathrm {T} }&{\dfrac {d\psi _{1}}{d\beta _{2}}}&\vdots &{\dfrac {d\psi _{1}}{d\beta _{n}}}\\{\dfrac {d\psi _{2}}{d\beta _{1}}}&{\dfrac {d\psi _{2}}{d\beta _{2}}}+1-e^{\alpha \mathrm {T} }&\vdots &{\dfrac {d\psi _{2}}{d\beta _{n}}}\\\cdots \cdots &\cdots \cdots \cdots \cdots &\vdots &\cdots \cdots \\{\dfrac {d\psi _{n}}{d\beta _{1}}}&{\dfrac {d\psi _{n}}{d\beta _{2}}}&\vdots &{\dfrac {d\psi _{n}}{d\beta _{n}}}+1-e^{\alpha \mathrm {T} }\end{array}}\right|=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/64932032fca39049513afd5e87af6e1504414eb7)
d’où la règle suivante
Pour obtenir les exposants caractéristiques
on forme le déterminant
fonctionnel des
par rapport aux
on forme l’équation
en
correspondante : les racines de cette équation sont égales à
Dans les dérivées partielles
il va sans dire qu’il faut,
après les différentiations, annuler tous les
Cas où le temps n’entre pas explicitement.
61.Quand le temps
n’entre pas explicitement dans les
équations (1) du no 59, l’un au moins des exposants caractéristiques est
nul. Soit, en effet,
![{\displaystyle x_{i}=\varphi _{i}(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/111e611ef90227502441d4bb4069816ece40367e)
la solution génératrice ; si l’on fait
![{\displaystyle x_{i}=\varphi _{i}(t+h),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c157eb568b0157a4d0b5ef2ccba0da314d4a95b9)
étant une constante quelconque, on aura encore une solution des
équations (1) ; alors, d’après le no 51, on aura une solution des
équations aux variations, en faisant
(4)
|
|
|
Mais,
étant une fonction périodique de
il en sera de même de
sa dérivée ![{\displaystyle {\frac {d\varphi _{i}}{dt}}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/44d60e7d4c20222ad0b9cf27c5dba309c3d91a8c)
La solution (4) est bien de la forme (3) (c’est-à-dire égale à une
exponentielle multipliée par une fonction périodique de
). Seulement
ici l’exponentielle se réduit à l’unité et l’exposant caractéristique
est égal à 0. C.Q.F.D.
D’ailleurs nous avons vu déjà au Chapitre précédent que, dans
ce cas, le déterminant fonctionnel des
par rapport aux
est nul.
Nouvel énoncé du théorème des nos 37 et 38.
62.Nous avons, dans le no 37, envisagé d’abord le cas où les
équations (1) dépendent du temps
et d’un paramètre
et
admettent pour
une solution périodique et une seule. Nous
avons vu que, si le déterminant fonctionnel
![{\displaystyle \Delta ={\frac {\partial (\psi _{1},\psi _{2},\ldots ,\psi _{n})}{\partial (\beta _{1},\beta _{2},\ldots ,\beta _{n})}}\lessgtr 0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/127f2db3124de3919fe0dc09e2ffda5a1d165ed3)
les équations admettront encore une solution périodique pour les
petites valeurs de ![{\displaystyle \mu .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a1ef6db045c1f6193799bd25a4b68ba9f78646d2)
Ce déterminant peut s’écrire
![{\displaystyle \Delta =\left|{\begin{array}{cccc}{\dfrac {d\psi _{1}}{d\beta _{1}}}&{\dfrac {d\psi _{1}}{d\beta _{2}}}&\ldots &{\dfrac {d\psi _{1}}{d\beta _{n}}}\\{\dfrac {d\psi _{2}}{d\beta _{1}}}&{\dfrac {d\psi _{2}}{d\beta _{2}}}&\ldots &{\dfrac {d\psi _{2}}{d\beta _{n}}}\\\cdots &\cdots &\cdots &\cdots \\{\dfrac {d\psi _{n}}{d\beta _{1}}}&{\dfrac {d\psi _{n}}{d\beta _{2}}}&\ldots &{\dfrac {d\psi _{n}}{d\beta _{n}}}\end{array}}\right|.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bdd3de6862e68358d2a8a47d7e11817203e23ede)
Or les exposants caractéristiques
sont donnés par l’équation
![{\displaystyle \left|{\begin{array}{cccc}{\dfrac {d\psi _{1}}{d\beta _{1}}}+1-e^{\alpha \mathrm {T} }&{\dfrac {d\psi _{1}}{d\beta _{2}}}&\cdots &{\dfrac {d\psi _{1}}{d\beta _{n}}}\\{\dfrac {d\psi _{2}}{d\beta _{1}}}&{\dfrac {d\psi _{2}}{d\beta _{2}}}+1-e^{\alpha \mathrm {T} }&\cdots &{\dfrac {d\psi _{2}}{d\beta _{n}}}\\\cdots \cdots &\cdots \cdots \cdots \cdots &\cdots &\cdots \cdots \\{\dfrac {d\psi _{n}}{d\beta _{1}}}&{\dfrac {d\psi _{n}}{d\beta _{2}}}&\cdots &{\dfrac {d\psi _{n}}{d\beta _{n}}}+1-e^{\alpha \mathrm {T} }\\\end{array}}\right|=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/52f03b919c2a8c41b21359e29862b351adc6171b)
Dire que
est nul, c’est donc dire que l’un des exposants caractéristiques
est nul ; de sorte que nous pouvons énoncer ainsi le premier
des théorèmes démontrés au paragraphe précédent :
Si les équations (1) qui dépendent d’un paramètre
admettent
pour
une solution périodique dont aucun des exposants
caractéristiques ne soit nul, elles admettront encore une
solution périodique pour les petites valeurs de
63.On peut arriver à un résultat analogue quand on suppose,
comme au no 38, que le temps n’entre pas explicitement dans les
équations différentielles.
Nous avons vu au no 38 que la condition suffisante pour qu’il y
ait encore des solutions périodiques pour les petites valeurs de
c’est que pour
tous les déterminants contenus dans la matrice
![{\displaystyle \left|\left|{\begin{array}{ccccc}{\dfrac {d\psi _{1}}{d\beta _{1}}}&{\dfrac {d\psi _{1}}{d\beta _{2}}}&\cdots &{\dfrac {d\psi _{1}}{d\beta _{n}}}&{\dfrac {d\psi _{1}}{d\tau }}\\{\dfrac {d\psi _{2}}{d\beta _{1}}}&{\dfrac {d\psi _{2}}{d\beta _{2}}}&\cdots &{\dfrac {d\psi _{2}}{d\beta _{n}}}&{\dfrac {d\psi _{2}}{d\tau }}\\\cdots &\cdots &\cdots &\cdots &\cdots \\{\dfrac {d\psi _{n}}{d\beta _{1}}}&{\dfrac {d\psi _{n}}{d\beta _{2}}}&\cdots &{\dfrac {d\psi _{n}}{d\beta _{n}}}&{\dfrac {d\psi _{n}}{d\tau }}\end{array}}\right|\right|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/55c6a7088bf58c13b20357f0dbaa34243c845de0)
ne soient pas nuls à la fois.
Cela posé, considérons l’équations en
![{\displaystyle \left|{\begin{array}{cccc}{\dfrac {d\psi _{1}}{d\beta _{1}}}-\mathrm {S} &{\dfrac {d\psi _{1}}{d\beta _{2}}}&\cdots &{\dfrac {d\psi _{1}}{d\beta _{n}}}\\{\dfrac {d\psi _{2}}{d\beta _{1}}}&{\dfrac {d\psi _{2}}{d\beta _{2}}}-\mathrm {S} &\cdots &{\dfrac {d\psi _{2}}{d\beta _{n}}}\\\cdots &\cdots &\cdots &\cdots \\{\dfrac {d\psi _{n}}{d\beta _{1}}}&{\dfrac {d\psi _{n}}{d\beta _{2}}}&\cdots &{\dfrac {d\psi _{n}}{d\beta _{n}}}-\mathrm {S} \end{array}}\right|=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4ecee5472c8bb8693449517f1f5968f45e9148ec)
Ses racines sont, comme nous l’avons vu au no 60, égales à
étant la période et
un exposant caractéristique. Le temps
n’entrant pas explicitement dans les équations, un de ces exposants
doit être nul d’après ce que nous avons vu au no 61.
L’équation en
a donc au moins une racine nulle ; je dis que
si elle n’en a qu’une, il y aura encore des solutions périodiques
pour les petites valeurs de
En effet, d’après ce que nous avons vu au no 58, il est toujours
permis de supposer que
![{\displaystyle {\begin{aligned}{\frac {d\psi _{1}}{d\beta _{1}}}&={\frac {d\psi _{1}}{d\beta _{2}}}={\frac {d\psi _{1}}{d\beta _{3}}}=\cdots ={\frac {d\psi _{1}}{d\beta _{n}}}=0,\\{\frac {d\psi _{1}}{d\beta _{1}}}&={\frac {d\psi _{2}}{d\beta _{1}}}={\frac {d\psi _{3}}{d\beta _{1}}}=\cdots ={\frac {d\psi _{n}}{d\beta _{1}}}=0.\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/928cf752a47d20eb5ecc76c6c6a4e11f28472ca2)
Le premier membre de l’équation en
s’écrit
![{\displaystyle -\mathrm {S} \,\left|{\begin{array}{cccc}{\dfrac {d\psi _{2}}{d\beta _{2}}}-\mathrm {S} &{\dfrac {d\psi _{2}}{d\beta _{3}}}&\cdots &{\dfrac {d\psi _{2}}{d\beta _{n}}}\\{\dfrac {d\psi _{3}}{d\beta _{2}}}&{\dfrac {d\psi _{3}}{d\beta _{3}}}-\mathrm {S} &\cdots &{\dfrac {d\psi _{3}}{d\beta _{n}}}\\\cdots &\cdots &\cdots &\cdots \\{\dfrac {d\psi _{n}}{d\beta _{2}}}&{\dfrac {d\psi _{n}}{d\beta _{3}}}&\cdots &{\dfrac {d\psi _{n}}{d\beta _{n}}}-\mathrm {S} \\\end{array}}\right|.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/333d531c9ed36e3030520121269af59c8d6e2761)
Si donc l’équation en
n’a qu’une racine nulle, le déterminant fonctionnel
de
par rapport à
ne sera pas nul.
Alors le déterminant obtenu en supprimant dans la matrice la
première colonne se réduit à
![{\displaystyle \delta {\frac {d\psi _{1}}{d\tau }}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/ece9984a5183df23c2fd5d739c685e714eb8f50b)
Je dis qu’il n’est pas nul ; en effet,
ne peut s’annuler pour la
raison suivante :
On ne peut pas avoir à la fois
![{\displaystyle {\frac {d\psi _{1}}{d\tau }}={\frac {d\psi _{2}}{d\tau }}=\ldots ={\frac {d\psi _{n}}{d\tau }}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/18d35bff5fe81f4edce41750135c724084eafb95)
S’il en était ainsi, cela voudrait dire que, si l’on considère la solution périodique
![{\displaystyle x_{1}=\varphi _{1}(t),\quad x_{2}=\varphi _{2}(t),\quad \ldots ,\quad x_{n}=\varphi _{n}(t),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cce40373970327becb34eaea433380fb0fd934b9)
qui correspond à
et qui nous sert de point de départ, on a
pour
(et par conséquent encore pour toutes les valeurs de
)
![{\displaystyle {\frac {dx_{1}}{dt}}={\frac {dx_{2}}{dt}}=\ldots ={\frac {dx_{n}}{dt}}=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/165ca9e686298a6dab51e4ff57d95da949298218)
de sorte que
seraient des constantes,
ce que nous ne supposerons pas.
D’autre part, je dis que
![{\displaystyle {\frac {d\psi _{2}}{d\tau }}={\frac {d\psi _{3}}{d\tau }}=\ldots ={\frac {d\psi _{n}}{d\tau }}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1877d7306c911e02c27b5546e9d1008fa3e621b2)
Nous avons, en effet, comme on l’a vu plus haut, page 91
![{\displaystyle {\frac {d\psi _{1}}{d\tau }}{\frac {d\psi _{i}}{d\beta _{1}}}+{\frac {d\psi _{2}}{d\tau }}{\frac {d\psi _{i}}{d\beta _{2}}}+\ldots +{\frac {d\psi _{n}}{d\tau }}{\frac {d\psi _{i}}{d\beta _{n}}}=0\quad (i=1,\,2,\,\ldots ,\,n).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bdb75748ec0e28fca0a5d5d36150a10d53c34c5f)
Or
nous avons donc une série d’équations linéaires
![{\displaystyle {\frac {d\psi _{2}}{d\tau }}{\frac {d\psi _{i}}{d\beta _{2}}}+\ldots +{\frac {d\psi _{n}}{d\tau }}{\frac {d\psi _{i}}{d\beta _{n}}}=0\quad (i=2,\,3,\,\ldots ,\,n),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/826aaec03d65e7594441066857bc2473ae57ae16)
et, comme le déterminant de ces équations (c’est-à-dire
) n’est pas
nul, il vient
![{\displaystyle {\frac {d\psi _{2}}{d\tau }}={\frac {d\psi _{3}}{d\tau }}=\ldots ={\frac {d\psi _{n}}{d\tau }}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1877d7306c911e02c27b5546e9d1008fa3e621b2)
Comme nous avons exclu le cas où
sont des constantes, cas qui sera examiné à part,
au no 68, nous en concluons que
C.Q.F.D.
Ainsi, si les équations différentielles ne contiennent pas le temps
explicitement, si elles admettent une solution périodique pour
l’un des exposants caractéristiques de cette solution sera
toujours nul ; si, de plus, aucun autre de ces exposants n’est nul, il
y aura encore une solution périodique pour les petites valeurs de
64.Supposons que les équations
(1)
|
|
|
où les
sont des fonctions uniformes de
et de
périodiques de période
par rapport à
admettent une solution
périodique de période ![{\displaystyle 2\pi ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/461d52fa6fb5a16ef8a24e871488584db5398489)
![{\displaystyle x_{1}=\varphi _{1}(t),\quad x_{2}=\varphi _{2}(t),\quad \ldots ,\quad x_{n}=\varphi _{n}(t),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cce40373970327becb34eaea433380fb0fd934b9)
de telle sorte que
est une intégrale indépendante du temps
![{\displaystyle \mathrm {F} (x_{1},\,x_{2},\,\ldots ,\,x_{n})=\mathrm {const.} ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/91a411d6b858b9e0b120bbce19a7d57644110a1d)
uniforme par rapport à
Je dis qu’un des exposants
caractéristiques est nul, sauf dans un cas exceptionnel dont je parlerai plus loin.
Définissons, en effet, les quantités
et
comme au no 37, et
envisageons le déterminant fonctionnel des
par rapport aux
Je dis que ce déterminant est nul.
En effet, on a identiquement
![{\displaystyle \mathrm {F} \left[\varphi _{i}(0)+\beta _{i}+\psi _{i}\right]=\mathrm {F} \left[\varphi _{i}(0)+\beta _{i}\right],}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c9d1be36bf9f1bf319e2a5352691098c25d9444a)
en écrivant, pour abréger,
au lieu de
![{\displaystyle \mathrm {F} (x_{1},\,x_{2},\,\ldots ,\,x_{n}).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9ffbe54ebba2dd04c45c7c45137d0f19051c8692)
En différentiant cette identité par rapport à
on trouve
(2)
|
|
|
Il faut, dans
remplacer
par
Nous pouvons faire dans les équations (2)
nous avons donc
équations linéaires par rapport
aux
quantités
![{\displaystyle {\frac {d\mathrm {F} }{dx_{1}}},\quad {\frac {d\mathrm {F} }{dx_{2}}},\quad \ldots ,\quad {\frac {d\mathrm {F} }{dx_{n}}}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/c71732772ed8d363a40f80d00492979f19e2dcc6)
Alors de deux choses l’une : ou bien le déterminant de ces équations
(2), c’est-à-dire le déterminant fonctionnel des
par rapport
aux
sera nul, et alors, d’après ce que nous avons vu au no 62, l’un
des exposants caractéristiques sera nul.
Ou bien on aura à la fois
(3)
|
|
|
Ces équations devront être satisfaites pour
![{\displaystyle x_{1}=\varphi _{1}(2\pi ),\quad x_{2}=\varphi _{2}(2\pi ),\quad ,\ldots ,\quad x_{n}=\varphi _{n}(2\pi )}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a6ac3d2c1747a39835f483deaae5cb84de456168)
ou, ce qui revient au même, pour
![{\displaystyle x_{1}=\varphi _{1}(0),\quad x_{2}=\varphi _{2}(0),\quad ,\ldots ,\quad x_{n}=\varphi _{n}(0).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7d42b8160706fce3e7bebd69ed167a9d91519556)
Mais l’origine du temps est restée entièrement arbitraire ; nous
devons donc conclure que les équations (3) seront satisfaites, quel
que soit
pour
![{\displaystyle x_{1}=\varphi _{1}(t),\quad x_{2}=\varphi _{2}(t),\quad ,\ldots ,\quad x_{n}=\varphi _{n}(t).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d71092c48b7332eed136f6577e7879f2caf121b2)
On peut d’ailleurs s’en rendre compte de la manière suivante :
Supposons que les équations (3) soient satisfaites pour un système
de valeurs de
je dis qu’elles le seront encore pour un système infiniment voisin
pourvu que l’on ait, conformément aux équations différentielles,
![{\displaystyle {\frac {dx_{1}}{\mathrm {X} _{1}}}={\frac {dx_{2}}{\mathrm {X} _{2}}}=\ldots ={\frac {dx_{n}}{\mathrm {X} _{n}}}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/367a2c797d438bacae1c1d4a2fd345c380c1447c)
En d’autres termes, je dis que les équations (3) entraînent les suivantes,
![{\displaystyle {\dfrac {d^{2}\mathrm {F} }{dx_{i}\,dx_{1}}}\mathrm {X} _{1}+{\dfrac {d^{2}\mathrm {F} }{dx_{i}\,dx_{2}}}\mathrm {X} _{2}+\ldots +{\dfrac {d^{2}\mathrm {F} }{dx_{i}\,dx_{n}}}\mathrm {X} _{n}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/15a3c4eceab2f3007d7326924e03bf1ce7cddf24)
![{\displaystyle (i=1,\,2,\,\ldots ,\,n).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2e96aca4456b78b896a875a828ea8c8b5358a185)
En effet, on a identiquement (puisque
est une intégrale des
équations différentielles)
![{\displaystyle {\frac {d\mathrm {F} }{dx_{1}}}\mathrm {X} _{1}+{\frac {d\mathrm {F} }{dx_{2}}}\mathrm {X} _{2}+\ldots +{\frac {d\mathrm {F} }{dx_{n}}}\mathrm {X} _{n}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c797ebf96ebfd3d689d1beee3415f4aae2adaf7)
En différentiant cette identité par rapport à
il vient
![{\displaystyle \sum _{k=1}^{k=n}\left({\frac {d^{2}\mathrm {F} }{dx_{i}\,dx_{k}}}\mathrm {X} _{k}+{\frac {d\mathrm {F} }{dx_{k}}}{\frac {d\mathrm {X} _{k}}{dx_{i}}}\right)=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/267a58a58dd5dfe2436b969a99b609331471e560)
ou, en vertu des équations (3),
![{\displaystyle \sideset {}{_{k}}\sum {\frac {d^{2}\mathrm {F} }{dx_{i}\,dx_{k}}}\mathrm {X} _{k}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c9c6434d2a3cbc032c0afc1cc5afdc03cabc87b6)
C.Q.F.D.
Ainsi, si les équations différentielles admettent une intégrale
uniforme, l’un des exposants caractéristiques d’une solution périodique
quelconque sera nul, à moins que toutes les dérivées partielles
de l’intégrale ne s’annulent en tous les points de cette solution
périodique. Cette dernière circonstance ne pourra se présenter
qu’exceptionnellement.
65.Supposons encore que les équations différentielles (1) contiennent
le temps explicitement et soient, par rapport à cette
variable, des fonctions périodiques de période
Je dis que si les équations différentielles admettent deux intégrales
uniformes,
et
deux des exposants caractéristiques
seront nuls.
On trouvera, en effet, comme dans le numéro précédent,
(2)
|
|
|
![{\displaystyle (i=1,\,2,\,\ldots ,\,n)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d85ab3c25b990e611c70e160bd0429f9614eae63)
![{\displaystyle \left[\,x_{1}=\varphi _{1}(0),\quad x_{2}=\varphi _{2}(0),\quad \ldots ,\quad x_{n}=\varphi _{n}(0)\,\right].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5e166fcfd251dfd69ee47da0742877304f283fd7)
Nous pouvons en conclure que, non seulement le déterminant fonctionnel des
par rapport aux
est nul, mais qu’il en est de même de tous ses mineurs du premier ordre, à moins que l’on n’ait à la
fois
(3)
|
|
|
Mais, d’après le no 57, cela ne peut avoir lieu que si l’équation
en
formée à l’aide du déterminant fonctionnel des
a deux
racines nulles, c’est-à-dire (puisque ces racines sont égales à
) s’il y a deux exposants caractéristiques nuls.
Si donc il y a deux intégrales uniformes, il y aura deux exposants
caractéristiques nuls, à moins que les équations (3) ne soient
satisfaites en tous les points de la solution périodique, ce qui évidemment
ne peut arriver qu’exceptionnellement.
On démontrerait de même que s’il y a
intégrales uniformes,
des exposants caractéristiques seront nuls à
moins que tous les déterminants contenus dans la matrice
![{\displaystyle \left|\left|{\begin{array}{cccc}{\dfrac {d\mathrm {F} _{1}}{dx_{1}}}&{\dfrac {d\mathrm {F} _{1}}{dx_{2}}}&\ldots &{\dfrac {d\mathrm {F} _{1}}{dx_{n}}}\\{\dfrac {d\mathrm {F} _{2}}{dx_{1}}}&{\dfrac {d\mathrm {F} _{2}}{dx_{2}}}&\ldots &{\dfrac {d\mathrm {F} _{2}}{dx_{n}}}\\\ldots &\ldots &\ldots &\ldots \\{\dfrac {d\mathrm {F} _{p}}{dx_{1}}}&{\dfrac {d\mathrm {F} _{p}}{dx_{2}}}&\ldots &{\dfrac {d\mathrm {F} _{p}}{dx_{n}}}\end{array}}\right|\right|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/41e65381887c91b3c59056296214b0a56854c01b)
ne s’annulent en tous les points de la solution périodique considérée.
66.Imaginons maintenant que le temps n’entre pas explicitement
dans nos équations différentielles et, de plus, que ces équations
admettent une intégrale uniforme
![{\displaystyle \mathrm {F} (x_{1},\,x_{2},\,\ldots ,x_{n})=\mathrm {const.} ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c22f98339eaa9de84d83807ea9f066289a44a660)
indépendante du temps ![{\displaystyle t.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d3e6cc375ac6123d2342be53eba87b92fbbacf07)
Je dis que deux exposants caractéristiques seront nuls.
Nous avons vu d’abord qu’un de ces exposants est toujours nul quand le temps n’entre pas explicitement. Si de plus il y a une intégrale
on aura, comme au no 64,
![{\displaystyle \mathrm {F} \left[\varphi _{i}(0)+\beta _{i}+\psi _{i}\right]=\mathrm {F} \left[\varphi _{i}(0)+\beta _{i}\right],}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c9d1be36bf9f1bf319e2a5352691098c25d9444a)
et, en différentiant cette relation par rapport à
et à
il viendra
![{\displaystyle {\begin{array}{c}{\dfrac {d\mathrm {F} }{dx_{1}}}{\dfrac {d\psi _{1}}{d\beta _{i}}}+{\dfrac {d\mathrm {F} }{dx_{2}}}{\dfrac {d\psi _{2}}{d\beta _{i}}}+\ldots +{\dfrac {d\mathrm {F} }{dx_{n}}}{\dfrac {d\psi _{n}}{d\beta _{i}}}=0\\(i=1,\,2,\,\ldots ,\,n),\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6b782c8c156d9f994cf8d528c685e9d0deec2b52)
![{\displaystyle {\dfrac {d\mathrm {F} }{dx_{1}}}{\dfrac {d\psi _{1}}{d\tau }}+{\dfrac {d\mathrm {F} }{dx_{2}}}{\dfrac {d\psi _{2}}{d\tau }}+\ldots +{\dfrac {d\mathrm {F} }{dx_{n}}}{\dfrac {d\psi _{n}}{d\tau }}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/af4b34f777f7aa5be992f625adeb400604ade317)
On en conclura ou bien que l’on a à la fois
![{\displaystyle {\frac {d\mathrm {F} }{dx_{1}}}={\frac {d\mathrm {F} }{dx_{2}}}=\ldots ={\frac {d\mathrm {F} }{dx_{n}}}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1d20f8163c39c74fd76b329c065d9903722b278d)
pour tous les points de la solution périodique, ou bien que tous
les déterminants contenus dans la matrice
![{\displaystyle \left|\left|{\begin{array}{ccccc}{\dfrac {d\psi _{1}}{d\beta _{1}}}&{\dfrac {d\psi _{1}}{d\beta _{2}}}&\ldots &{\dfrac {d\psi _{1}}{d\beta _{n}}}&{\dfrac {d\psi _{1}}{d\tau }}\\{\dfrac {d\psi _{2}}{d\beta _{1}}}&{\dfrac {d\psi _{2}}{d\beta _{2}}}&\ldots &{\dfrac {d\psi _{2}}{d\beta _{n}}}&{\dfrac {d\psi _{2}}{d\tau }}\\\ldots &\ldots &\ldots &\ldots &\ldots \\{\dfrac {d\psi _{n}}{d\beta _{1}}}&{\dfrac {d\psi _{n}}{d\beta _{2}}}&\ldots &{\dfrac {d\psi _{n}}{d\beta _{n}}}&{\dfrac {d\psi _{n}}{d\tau }}\\\end{array}}\right|\right|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/52ab7649aed3f97348acbd22a4db561142311849)
sont nuls à la fois.
Or nous avons vu, au no 63, que cela ne peut avoir lieu que si
deux exposants caractéristiques s’annulent.
67.Je me propose maintenant d’établir ce qui suit :
Supposons encore que le temps n’entre pas explicitement dans
nos équations différentielles ; supposons que ces équations
admettent
intégrales analytiques et uniformes et où le temps
n’entre pas non plus explicitement. Soient
ces
intégrales.
Alors, ou bien
exposants caractéristiques seront nuls, ou bien tous les déterminants contenus dans la matrice
![{\displaystyle \left|\left|{\frac {d\mathrm {F} _{i}}{dx_{k}}}\right|\right|\qquad (i=1,\,2,\,\ldots ,\,p\,;\;\;k=1,\,\ldots ,\,n)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6d61a95e9a7fa1c469165877b5b49c582ed9b9a9)
seront nuls pour tous les points de la solution périodique génératrice.
Supposons, en effet, pour fixer les idées,
![{\displaystyle n=4,\quad p=2.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3b03205116752096ebf06d2dbb0f65ad1479a3d2)
Nous aurons alors les équations suivantes
![{\displaystyle {\begin{array}{c}\left.{\begin{aligned}{\dfrac {d\mathrm {F} _{1}}{dx_{1}}}{\dfrac {d\psi _{1}}{d\beta _{i}}}+{\dfrac {d\mathrm {F} _{1}}{dx_{2}}}{\dfrac {d\psi _{2}}{d\beta _{i}}}+{\dfrac {d\mathrm {F} _{1}}{dx_{3}}}{\dfrac {d\psi _{3}}{d\beta _{i}}}+{\dfrac {d\mathrm {F} _{1}}{dx_{4}}}{\dfrac {d\psi _{4}}{d\beta _{i}}}&=0,\\{\dfrac {d\mathrm {F} _{2}}{dx_{1}}}{\dfrac {d\psi _{1}}{d\beta _{i}}}+{\dfrac {d\mathrm {F} _{2}}{dx_{2}}}{\dfrac {d\psi _{2}}{d\beta _{i}}}+{\dfrac {d\mathrm {F} _{2}}{dx_{3}}}{\dfrac {d\psi _{3}}{d\beta _{i}}}+{\dfrac {d\mathrm {F} _{2}}{dx_{4}}}{\dfrac {d\psi _{4}}{d\beta _{i}}}&=0\end{aligned}}\right\}\;(i=1,\,2,\,3,\,4)\\[1.5ex]\quad \qquad {\begin{aligned}{\dfrac {d\mathrm {F} _{1}}{dx_{1}}}{\dfrac {d\psi _{1}}{d\tau }}+{\dfrac {d\mathrm {F} _{1}}{dx_{2}}}{\dfrac {d\psi _{2}}{d\tau }}+{\dfrac {d\mathrm {F} _{1}}{dx_{3}}}{\dfrac {d\psi _{3}}{d\tau }}+{\dfrac {d\mathrm {F} _{1}}{dx_{4}}}{\dfrac {d\psi _{4}}{d\tau }}&=0,\\{\dfrac {d\mathrm {F} _{2}}{dx_{1}}}{\dfrac {d\psi _{1}}{d\tau }}+{\dfrac {d\mathrm {F} _{2}}{dx_{2}}}{\dfrac {d\psi _{2}}{d\tau }}+{\dfrac {d\mathrm {F} _{2}}{dx_{3}}}{\dfrac {d\psi _{3}}{d\tau }}+{\dfrac {d\mathrm {F} _{2}}{dx_{4}}}{\dfrac {d\psi _{4}}{d\tau }}&=0.\end{aligned}}\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/de3bba506bb5e0a1c117bad9c63ba70f8bfa9697)
De ces équations il est permis de conclure :
Ou bien que tous les déterminants contenus dans la matrice
![{\displaystyle \left|\left|{\begin{array}{ccccc}{\dfrac {d\mathrm {F} _{1}}{dx_{1}}}&{\dfrac {d\mathrm {F} _{1}}{dx_{2}}}&{\dfrac {d\mathrm {F} _{1}}{dx_{3}}}&{\dfrac {d\mathrm {F} _{1}}{dx_{4}}}\\{\dfrac {d\mathrm {F} _{2}}{dx_{1}}}&{\dfrac {d\mathrm {F} _{2}}{dx_{2}}}&{\dfrac {d\mathrm {F} _{2}}{dx_{3}}}&{\dfrac {d\mathrm {F} _{2}}{dx_{4}}}\\\end{array}}\right|\right|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9e273a68decca2af2cd616fe46f6fd15e796cc46)
sont nuls à la fois ; ou bien que tous les déterminants contenus dans la matrice
(1)
|
|
|
sont nuls à la fois, ainsi que leurs mineurs du premier ordre.
D’après ce que nous avons vu au no 58, nous pouvons toujours
supposer que
![{\displaystyle {\frac {d\psi _{i}}{d\beta _{k}}}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4340148dc1271c187facd9c78e74cc3c0e3925bf)
pour
![{\displaystyle i<k.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9c4980f46c0d1d5c1876637d58890af2c136a0e1)
D’autre part, tous les mineurs du déterminant obtenu en supprimant
la dernière colonne de la matrice (1) devant être nuls,
l’équation en
correspondante aura deux racines nulles : je puis
donc supposer
![{\displaystyle {\frac {d\psi _{4}}{d\beta _{3}}}={\frac {d\psi _{4}}{d\beta _{4}}}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6a96c4ebddfd5fddcdb0a4f626b0ef34b8f595c2)
Je me propose de démontrer que l’équation en
a une troisième
racine nulle et, par conséquent, que l’on a
![{\displaystyle {\frac {d\psi _{1}}{d\beta _{1}}}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/20fed67fbef2947f8269676bd7843066a6edabd1)
ou
![{\displaystyle {\frac {d\psi _{2}}{d\beta _{2}}}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e56d497bc59d0cb5aa1133020ac0147f2af51c89)
En effet, d’après la définition même des
on a
si l’on fait
![{\displaystyle \beta _{k}=\varphi _{k}(h)-\varphi _{k}(0),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c3cb3da6ceb9d8d5e04e4ddc203f2b3f1ce162f4)
étant une constante quelconque ; d’où en différentiant par rapport
à
et faisant ensuite ![{\displaystyle h=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/844f1d2d40bc56ebeaac825e41d1fa9522980352)
![{\displaystyle \sum {\frac {d\psi _{i}}{d\beta _{k}}}\varphi '_{k}(0)=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d16a53e741f37b219b9edee156ac6fb9fe282f67)
Mais
![{\displaystyle \varphi '_{k}(0)={\frac {d\psi _{k}}{d\tau }}\,;}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dec19cfc067f0aa2956bec40a3c7740a3e334f0c)
donc on a
(2)
|
|
|
En faisant
il vient
![{\displaystyle {\frac {d\psi _{1}}{d\beta _{1}}}{\frac {d\psi _{1}}{d\tau }}=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/052f762ee9e6000b018214eee3562bd892643918)
d’où
![{\displaystyle {\frac {d\psi _{1}}{d\beta _{1}}}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/20fed67fbef2947f8269676bd7843066a6edabd1)
ou
![{\displaystyle {\frac {d\psi _{1}}{d\tau }}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0db08d3b4bfb76b4e2c96c7b134c36e7c7845efe)
Dans le premier cas, le théorème est démontré ; dans le second
cas, écrivons l’équation (2) en faisant
il vient
![{\displaystyle {\frac {d\psi _{2}}{d\beta _{2}}}{\frac {d\psi _{2}}{d\tau }}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e7e7989d85ebab0d3b2676c205db7da50c7c975d)
d’où
![{\displaystyle {\frac {d\psi _{2}}{d\beta _{2}}}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fd267a1c4130745cdd14cd960212b3c16ec132a6)
ou
![{\displaystyle {\frac {d\psi _{2}}{d\tau }}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/06df47d13d3c440faaa88cf9d9f3444eafee18fd)
Dans le premier cas, le théorème est démontré ; dans le second
cas, on a
![{\displaystyle {\frac {d\psi _{1}}{d\tau }}={\frac {d\psi _{2}}{d\tau }}=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3a86afa9e8fa1f296e9f78e6a92f71fa93b7df0c)
d’où l’on peut conclure (puisque nous excluons le cas où tous les
sont nuls à la fois) que
et
ne sont pas nuls
tous deux. Formons les mineurs que l’on obtient en supprimant dans la matrice
(1) les troisième et quatrième colonnes et la troisième ligne
(ou bien les troisième et quatrième colonnes et la quatrième ligne).
Ces deux mineurs devront être nuls, ce qui donne
![{\displaystyle {\frac {d\psi _{1}}{d\beta _{1}}}{\frac {d\psi _{2}}{d\beta _{2}}}{\frac {d\psi _{3}}{d\tau }}={\frac {d\psi _{1}}{d\beta _{1}}}{\frac {d\psi _{2}}{d\beta _{2}}}{\frac {d\psi _{4}}{d\tau }}=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/be4e977d032a401069041e88bdd7095bcb213d82)
d’où cette conclusion (puisque
et
ne sont pas nuis tous deux) que l’on a
![{\displaystyle {\frac {d\psi _{1}}{d\beta _{1}}}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/20fed67fbef2947f8269676bd7843066a6edabd1)
ou
![{\displaystyle {\frac {d\psi _{2}}{d\beta _{2}}}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fd267a1c4130745cdd14cd960212b3c16ec132a6)
C.Q.F.D.
68.Nous avons exclu dans les numéros précédents le cas où
![{\displaystyle \varphi _{1}(t),\,\varphi _{2}(t),\,\ldots ,\,\varphi _{n}(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2d3db759295a2be6398b29abdd266d8e4d63bb35)
sont des constantes, c’est-à-dire le cas où l’on a à la fois
![{\displaystyle {\frac {d\psi _{1}}{d\tau }}={\frac {d\psi _{2}}{d\tau }}=\ldots ={\frac {d\psi _{n}}{d\tau }}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/18d35bff5fe81f4edce41750135c724084eafb95)
Si l’on suppose toujours que le temps n’entre pas explicitement
dans les équations différentielles, on a encore les équations
![{\displaystyle {\frac {d\psi _{i}}{d\beta _{1}}}{\frac {d\psi _{1}}{d\tau }}+{\frac {d\psi _{i}}{d\beta _{2}}}{\frac {d\psi _{2}}{d\tau }}+\ldots +{\frac {d\psi _{i}}{d\beta _{n}}}{\frac {d\psi _{n}}{d\tau }}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9e1a5623f835c336e15b09790b91689a8dd21b61)
Mais ces équations n’entraînent plus, comme conséquence, que le
déterminant fonctionnel des
par rapport au
est nul, ni que
l’un des exposants caractéristiques est toujours nul.
Si les équations différentielles admettent
intégrales, on pourra
donc seulement en conclure qu’il y a au moins
exposants caractéristiques
nuls (et non plus
) comme dans le cas où le
temps entre explicitement dans les équations.
Cas des équations de la Dynamique.
69.Passons maintenant aux équations de la Dynamique
(1)
|
|
|
où je suppose que le temps n’entre pas explicitement. Elles admettront
l’intégrale des forces vives
![{\displaystyle \mathrm {F} =\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/64ba6cbfb2d8647df984ebb050c2e46a1bd6d95e)
Supposons que les équations (1) admettent une solution périodique
de période
![{\displaystyle {\begin{aligned}x_{i}&=\varphi _{i}(t),&y_{i}&=\psi _{i}(t),\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/112be524529b20f46de1e34b1e9b2aaea4eea823)
et formons les équations aux variations en posant
![{\displaystyle {\begin{aligned}x_{i}&=\varphi _{i}(t)+\xi _{i},&y_{i}&=\psi _{i}(t)+\eta _{i}.\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a15ef76f7e9cc61a9c3375bb0fd9c9fe86dcd0b6)
Nous avons vu au no 56 que si
et
sont deux
solutions particulières quelconques des équations aux variations, on a
![{\displaystyle \sum _{i=1}^{n}\left(\xi _{i}\eta '_{i}-\xi '_{i}\eta _{i}\right)=\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/006783d88636dba195da86faa528ae6581a1dba4)
Je dis qu’il en résulte que les exposants caractéristiques sont deux
à deux égaux et de signe contraire.
Soient en effet
et
les valeurs initiales de
et de
pour
dans une des solutions des équations aux variations ; soient
et
les valeurs correspondantes de
et de
pour
Il est clair que les
et les
seront des fonctions linéaires des
et des
de telle sorte que la substitution
qui change
et
en
et
sera une substitution linéaire.
Soit
![{\displaystyle \left|{\begin{array}{cccc}a_{11}&a_{12}&\ldots &a_{1,2n}\\a_{21}&a_{22}&\ldots &a_{2,2n}\\\ldots &\ldots &\ldots &\ldots \\a_{2n,1}&a_{2n,2}&\ldots &a_{2n,2n}\end{array}}\right|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3a87a09f712251d98fd351b5a12b7e19ddc273ba)
le tableau des coefficients de cette substitution linéaire.
Fermons l’équation en
![{\displaystyle \left|{\begin{array}{cccc}a_{11}-\lambda &a_{12}&\ldots &a_{1,2n}\\a_{21}&a_{22}-\lambda &\ldots &a_{2,2n}\\\ldots &\ldots &\ldots &\ldots \\a_{2n,1}&a_{2n,2}&\ldots &a_{2n,2n}-\lambda \end{array}}\right|=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/be530d7b13e0bfabc324c05f0cf341dae690be14)
Les
racines de cette équation seront ce qu’on appelle les
multiplicateurs de la substitution linéaire
Mais cette substitution
linéaire
ne peut pas être quelconque : il faut qu’elle n’altère
pas la forme bilinéaire
![{\displaystyle {\textstyle \sum _{i}}\left(\xi _{i}\eta '_{i}-\xi '_{i}\eta _{i}\right).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e594aa97f197dee81eb3133bd14dbd48a9d68021)
Pour cela, l’équation en
doit être réciproque. En effet, la
théorie des substitutions linéaires nous apprend que, si une substitution
linéaire n’altère pas une forme quadratique, son équation
en
doit être réciproque. Si donc on pose
![{\displaystyle \lambda =e^{2\alpha \pi },}](https://wikimedia.org/api/rest_v1/media/math/render/svg/aecf466b92fbbebe720df87844ed1e4095372a58)
les quantités
devront être deux à deux égales et de signe contraire.
C.Q.F.D.
Nous reviendrons sur ce point au no 70.
70.Les équations (1) du numéro précédent admettent toujours
l’intégrale dite des forces vives
![{\displaystyle \mathrm {F} =\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/64ba6cbfb2d8647df984ebb050c2e46a1bd6d95e)
Je suppose qu’elles admettent, en outre,
intégrales uniformes
![{\displaystyle \mathrm {F} _{1}=\mathrm {const.} ,\quad \mathrm {F} _{2}=\mathrm {const.} ,\quad \ldots ,\quad \mathrm {F} _{p}=\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/62e582627cff9935536c209005de57620aecab23)
Je suppose, de plus, que les crochets deux à deux de ces intégrales
soient nuls, c’est-à-dire que
![{\displaystyle \left[\mathrm {F} _{i},\,\mathrm {F} _{k}\right]=0\quad (i,k=1,\,2,\,\ldots ,\,p).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c19ec4b2197950acbd4f75bfaaa2562ede86606b)
On sait d’ailleurs que, pour une intégrale quelconque
on a
![{\displaystyle \left[\mathrm {F} ,\,\mathrm {F} _{i}\right]=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/03d6cabb011c1528b28efc8228d81dcf26ac3f9b)
Je me propose de démontrer que, dans ce cas, ou bien tous les
déterminants fonctionnels de
par rapport à
quelconques des variables
et
sont
nuls à la fois en tous les points de la solution périodique ; ou bien
exposants
caractéristiques sont nuls.
En effet, reprenons les équations (2) du no 56, c’est-à-dire les
équations aux variations des équations (1). Soit
![{\displaystyle \xi _{i},\quad \eta _{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e04d24a8b12ac9ecab3918a44fe82fe544dac46e)
une solution particulière de ces équations (2) ; appelons
cette
solution ; soit
une autre solution de ces mêmes équations ;
appelons
cette solution.
Nous savons qu’on a
![{\displaystyle \sum \left(\xi _{i}\eta '_{i}-\xi '_{i}\eta _{i}\right)=\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/f29cef5725cb2255f30bd85df072ed6f2672b9a7)
J’appellerai
le premier membre de cette relation.
Parmi les solutions des équations proposées, nous avons vu au
no 59 qu’il y en a dont la forme est remarquable. Pour les unes,
chacune des quantités
et
est égale à une exponentielle
multipliée par une fonction périodique de
Je les appellerai
solutions de première espèce.
Pour d’autres, chacune des quantités
et
est égale à une
exponentielle
multipliée par un polynôme entier en
dont les
coefficients sont des fonctions périodiques de
Je les appellerai
solutions de deuxième espèce.
Les équations (2) ne peuvent admettre que
solutions linéairement
indépendantes. Une solution quelconque pourra donc
toujours être regardée comme une combinaison linéaire de
solutions que l’on peut appeler fondamentales.
Si, sur
exposants caractéristiques,
sont distincts, on pourra
choisir comme solutions fondamentales
solutions de première
espèce et
solutions de seconde espèce.
Soient
![{\displaystyle \mathrm {S} _{1},\quad \mathrm {S} _{2},\quad \ldots ,\quad \mathrm {S} _{q}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bbec5999a9dc7f8969156500387c9d106e454a96)
solutions particulières des équations (2) linéairement indépendantes
et désignons par
une solution quelconque.
Il ne peut y avoir plus de
solutions
linéairement
indépendantes qui satisfassent aux conditions
(3)
|
|
|
En effet, soit
![{\displaystyle \xi _{i}=\xi _{i}^{k},\quad \eta _{i}=\eta _{i}^{k}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3bfc1a971a3e365d1d67771902e815915d790381)
la solution
conservons les lettres
et
pour désigner la
solution
alors les relations (3) nous donnent
relations linéaires
entre les
et les
ces relations sont distinctes si les solutions
particulières
sont linéairement indépendantes. Elles pourront donc servir à abaisser de
unités l’ordre des
équations différentielles linéaires (2). Après cet abaissement, ces
équations ne conserveront plus que
solutions linéairement
indépendantes.
C.Q.F.D.
Cela posé, supposons que
soit une solution de première ou de
deuxième espèce admettant comme exposant caractéristique
et
que
soit une solution de première ou de deuxième espèce
admettant comme exposant caractéristique
Formons l’expression
![{\displaystyle \left(\mathrm {S} ,\,\mathrm {S'} \right).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e10157e7294e21d2cb19ab658253f2c8b740ad59)
Cette expression est de la forme suivante : une exponentielle
multipliée par un polynôme entier en
dont les coefficients
sont des fonctions périodiques de ![{\displaystyle t.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d3e6cc375ac6123d2342be53eba87b92fbbacf07)
Mais cette expression doit se réduire à une constante. Il est
clair que cela ne peut avoir lieu que de deux manières :
Ou bien si cette constante est nulle ;
Ou bien si
On peut en conclure que, s’il y a
exposants caractéristiques
égaux à
il y en aura
égaux à
ce qui confirme le
résultat obtenu au no 69. Si, en effet, il y a
exposants égaux à
il y aura
solutions de première ou de deuxième espèce
linéairement indépendantes et admettant pour exposant
Soient
ces
solutions.
Il ne pourra pas y avoir plus de
solutions
indépendantes
qui satisferont aux relations
![{\displaystyle \left(\mathrm {S} _{1},\,\mathrm {S} '\right)=\left(\mathrm {S} _{2},\,\mathrm {S} '\right)=\ldots =\left(\mathrm {S} _{q},\,\mathrm {S} '\right)=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9f22def67c02ebe738184cbc2e132132dd02fb9a)
Par conséquent, parmi les solutions fondamentales (qui sont
toutes de première ou de deuxième espèce), il y en aura
pour
lesquelles l’une des constantes
au moins ne sera pas nulle,
et, par conséquent, pour lesquelles l’exposant
sera égal à
71.Supposons maintenant que les équations (1) admettent une intégrale
![{\displaystyle \mathrm {F} _{1}=\mathrm {const.} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/80ceb4fd017991ea35c419dab9d6570a25b6711d)
D’après ce que nous avons vu au no 54, les équations (2) admettront
comme solution particulière
![{\displaystyle {\begin{aligned}\xi _{i}&={\frac {d\mathrm {F} _{1}}{dy_{i}}},&\eta _{i}&=-{\frac {d\mathrm {F} _{1}}{dx_{i}}}\cdot \end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8537a3a13376a77d56ce7e58bb0476fa489b6699)
Appelons
cette solution, les fonctions
et
(où on devra remplacer
et
par leurs valeurs
correspondant à la solution périodique génératrice) seront des fonctions périodiques de
Donc la solution
est de première espèce et son exposant caractéristique est nul.
Si
est une autre intégrale et que l’on appelle
la
solution
![{\displaystyle {\begin{aligned}\xi _{i}&={\frac {d\mathrm {F} _{2}}{dy_{i}}},&\eta _{i}&=-{\frac {d\mathrm {F} _{2}}{dx_{i}}},\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e7bd4c6e6bad9aa6ef03c2562a518abba716028a)
il viendra
![{\displaystyle (\mathrm {S} _{1},\mathrm {S} _{2})=[\mathrm {F} _{1},\mathrm {F} _{2}].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/25557530f35af42a4d324f68b689df054c3eecbe)
Supposons donc que nos équations (1) admettent
intégrales
![{\displaystyle \mathrm {F} =\mathrm {const.} ,\quad \mathrm {F} _{1}=\mathrm {const.} ,\quad \mathrm {F} _{2}=\mathrm {const.} ,\quad \ldots ,\mathrm {F} _{p}=\mathrm {const.} ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/379c486f9f28bb9be3d0239d12a37718fb9c34a2)
et soient
![{\displaystyle \mathrm {S} ,\quad \mathrm {S} _{1},\quad \mathrm {S} _{2},\quad \ldots ,\quad \mathrm {S} _{p}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9f95662e99fd8a2abb83a3ada73a9663712be867)
les
solutions des équations (2) qui correspondent à ces
intégrales.
De deux choses l’une :
Ou bien ces
solutions seront indépendantes ;
Ou bien tous les déterminants fonctionnels de
par rapport à
variables
choisies parmi les
et les
seront
nuls à la fois en tous les points de la solution périodique.
Supposons qu’il n’en soit pas ainsi et que les solutions
soient indépendantes.
Nous aurons dans tous les cas
![{\displaystyle [\mathrm {F} ,\mathrm {F} _{i}]=0\quad (i=1,\,2,\,\ldots ,\,p),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bff335ec5086996c9b583e50a6aeccdda9634249)
d’où
![{\displaystyle (\mathrm {S} ,\mathrm {S} _{i})=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/92a6238254e076b382bf15f0d0f21f28cbdb5d2c)
Je suppose que l’on ait en outre
![{\displaystyle [\mathrm {F} _{i},\mathrm {F} _{k}]=0\quad (i,k=1,\,2,\,\ldots ,\,p),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e0436ff7fc94b55042d2d7806ec784fec73f3885)
On aura également
![{\displaystyle (\mathrm {S} _{i},\mathrm {S} _{k})=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bfa93cd9e8acb1b816b5fd970ed9b7831f812927)
Je choisirai pour les
solutions fondamentales les
solutions
et
autres solutions de
première ou de deuxième espèce.
Parmi les solutions fondamentales, il y en aura certainement
qui (si je les appelle
) ne satisferont pas à la fois aux
relations
![{\displaystyle (\mathrm {S} ,\mathrm {S} ')=(\mathrm {S} _{1},\mathrm {S} ')=\ldots =(\mathrm {S} _{p},\mathrm {S} ')=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5bf9841cf3fcb12a187191941bec86c8db417c68)
et qui, par conséquent, auront un exposant caractéristique nul.
Mais ces
solutions ne se confondront pas avec les
solutions
![{\displaystyle \mathrm {S} ,\quad \mathrm {S} _{1},\quad \ldots ,\quad \mathrm {S} _{p}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/898751618530c0968d0841c0e2e91a250ed62acb)
Je dis qu’on ne peut avoir, par exemple,
![{\displaystyle \mathrm {S} '=\mathrm {S} _{k},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e6f4eb1560679b24b97bfc29e3f4b1b1c67630ce)
car on a, par hypothèse,
![{\displaystyle (\mathrm {S} ,\mathrm {S} _{k})=(\mathrm {S} _{1},\mathrm {S} _{k})=\ldots =(\mathrm {S} _{p},\mathrm {S} _{k})=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6884163835c9771e555f81d8d2e1b45dca4d824c)
et, d’après la définition même de
ne jouit pas de cette propriété.
Il y a donc en tout
solutions fondamentales dont l’exposant
est nul ; il y a donc au moins
exposants caractéristiques
qui sont nuls.
C.Q.F.D.
72.Supposons maintenant qu’il existe
intégrales (outre
), à savoir
![{\displaystyle \mathrm {F} _{1}=\mathrm {const.} ,\quad \mathrm {F} _{2}=\mathrm {const.} ,\quad \mathrm {F} _{p}=\mathrm {const.} ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/17b5aeea8aba8ced42db7a513d1796d0d5c0f012)
mais que les crochets deux à deux de ces
intégrales ne soient
pas nuls. Tout ce que nous pourrons affirmer alors, c’est que
exposants caractéristiques seront nuls. Mais nous saurons que
solutions fondamentales au moins (qui sont celles que nous
avons appelées
) seront de première espèce avec
un exposant nul.
Si donc on venait à établir que les équations (2) n’admettent
que
solutions linéairement indépendantes qui soient de première
espèce avec un exposant nul, on serait certain que les équations (1)
ne comportent pas
intégrales (en y comprenant
),
ou du moins que, si ces
intégrales existent, tous leurs déterminants
fonctionnels par rapport à
des
variables
et
sont nuls à la fois en tous les points de la solution périodique.
Changements de variables.
73.Voyons ce qui arrive des exposants caractéristiques quand
on change de variables.
Soient
![{\displaystyle {\frac {dx_{i}}{dt}}=\mathrm {X} _{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0086a5f146a816e761e9b1a4ffcbef46ddab3256)
nos équations différentielles où je supposerai que le temps n’entre
pas explicitement. Soit
![{\displaystyle x_{i}=\varphi _{i}(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/111e611ef90227502441d4bb4069816ece40367e)
une solution périodique de période
Soit
![{\displaystyle x_{i}=\varphi _{i}(t)+\xi _{i},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f48cbdeb36b5400af506b40bf16d9ee08b770cf1)
d’où les équations aux variations
![{\displaystyle {\frac {d\xi _{i}}{dt}}=\sum {\frac {d\mathrm {X} _{i}}{dx_{k}}}\xi _{k}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a6da5bfa4199f3fd9e4372a54cfb212c61f0b7b1)
Soit
![{\displaystyle \xi _{i}=e^{\alpha t}\psi _{i}(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7c51e4a21b0c8903df31202c4889db7bf9e3d58f)
une solution de ces équations aux variations,
étant périodique
en ![{\displaystyle t.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d3e6cc375ac6123d2342be53eba87b92fbbacf07)
Changeons de variables en remplaçant le temps
par une nouvelle
variable
définie par la relation
![{\displaystyle {\frac {dt}{d\tau }}=\Phi ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5c2a7540e9f46d779af5cf12d8b73c96bcec7281)
étant une fonction donnée de
d’où les équations différentielles
(1 bis)
|
|
|
et les équations aux variations
(2 bis)
|
|
|
Les équations (1 bis) admettent une solution périodique
![{\displaystyle x_{i}=\varphi '_{i}(\tau ),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e9f5f2188747eadbc64e1d25708727fca4611f43)
correspondant à
![{\displaystyle x_{i}=\varphi _{i}(t),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/06999793652dc6f156d01e388996e6e4d7b2d93c)
et dont la période est égale à
![{\displaystyle \mathrm {T} '=\int _{0}^{\mathrm {T} }{\frac {dt}{\Phi }}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/ebd3c81115abfd5551eb81c73da6f5b94fabb99c)
On doit remplacer dans
avant l’intégration,
par ![{\displaystyle \varphi _{i}(t).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/55de163f61ff4222ee85ef522ff370cf59f4829b)
Pour résoudre les équations (2 bis), nous tiendrons compte de
la valeur de
et nous les écrirons
![{\displaystyle {\frac {d\xi _{i}}{dt}}=\sum {\frac {d\mathrm {X} _{i}}{dx_{k}}}\xi _{k}+\mathrm {X} _{i}\sum {\frac {{\dfrac {d\Phi }{dx_{k}}}\xi _{k}}{\Phi }}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/31e5055b83e2b51053f6ca339b1d5ab82bf2ed90)
Posons ensuite
![{\displaystyle \xi _{i}=\eta _{i}+\mathrm {X} _{i}\lambda ,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9ed6fed6c767113dd6469467e5be3453f95723ce)
il vient
![{\displaystyle {\begin{aligned}{\frac {d\eta _{i}}{dt}}&+\mathrm {X} _{i}{\frac {d\lambda }{dt}}+\sum \lambda {\frac {d\mathrm {X} _{i}}{dx_{k}}}\mathrm {X} _{k}\\&=\sum {\frac {d\mathrm {X} _{i}}{dx_{k}}}\eta _{k}\!+\!\sum \lambda {\frac {d\mathrm {X} _{i}}{dx_{k}}}\mathrm {X} _{k}\!+\!{\frac {\mathrm {X} _{i}}{\Phi }}\sum {\frac {d\Phi }{dx_{k}}}\eta _{k}\!+\!{\frac {\mathrm {X} _{i}\lambda }{\Phi }}\sum {\frac {d\Phi }{dx_{k}}}\mathrm {X} _{k},\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b9be101c4533d788b347dcb90484f984be8e0b27)
ce qui montre qu’on peut satisfaire aux équations (2 ter) en prenant
![{\displaystyle {\begin{aligned}\eta _{i}&=e^{\alpha t}\psi _{i}(t)&\mathrm {et} &&\Phi {\frac {d\lambda }{dt}}&=\lambda \sum {\frac {d\Phi }{dx_{k}}}\mathrm {X} _{k}+\sum {\frac {d\Phi }{dx_{k}}}e^{\alpha t}\psi _{k}(t).\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/20539dcd7ac01f3b846a43ae136e32cb7ea00142)
On peut tirer de là
![{\displaystyle \lambda =e^{\alpha t}\theta (t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/81628544b188ee30d321b6b2c6c2e190ee34ca6b)
et
![{\displaystyle \xi _{i}=e^{\alpha t}\theta _{i}(t),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c7e4f2b46725fe5f07d42e4f64437a8e6a6e52ce)
et les
étant périodiques en
Il faudra ensuite remplacer
par sa valeur tirée de l’équation
![{\displaystyle {\frac {dt}{d\tau }}=\Phi \left[\varphi _{1}(t),\,\varphi _{2}(t),\,\ldots ,\,\varphi _{n}(t)\right].}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4f35cd71c0a48ae04cc3e8384eea63eaf51e9576)
On trouve ainsi
![{\displaystyle t={\frac {\mathrm {T} }{\mathrm {T} '}}\tau +f(\tau ),}](https://wikimedia.org/api/rest_v1/media/math/render/svg/47d6420e13ae120065642181f8716c9c41e4d5c6)
étant une fonction périodique de
on a donc
![{\displaystyle \xi _{i}=e^{{\frac {\alpha \mathrm {T} }{\mathrm {T} '}}\tau }e^{\alpha f(\tau )}\,\theta _{i}\left[{\frac {\mathrm {T} }{\mathrm {T} '}}\tau +f(\tau )\right],}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f306e2289b48e1fd5cd543cf39593ff4df6b79bb)
ce qui montre qu’après le changement de variables les nouveaux
exposants caractéristiques sont égaux aux anciens multipliés par ![{\displaystyle {\frac {\mathrm {T} }{\mathrm {T} '}}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/af06dd4c3106c3fb8fda1f92b5d0bb2f79da1335)
Développement des exposants. — Calcul des premiers termes.
74.Reprenons les équations
(1).
|
|
|
du no 13 avec les hypothèses de ce numéro.
Posons
![{\displaystyle n_{i}=-{\frac {d\mathrm {F} _{0}}{dx_{i}}}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/2348484689517242567a1654d203020fd5435362)
Pour
les
sont des constantes et on a, d’autre part,
![{\displaystyle y_{i}=n_{i}t+\varpi _{i},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d53dd07ad495e5dfc13c55aa3bb0a85d9a7003e1)
les
étant des constantes.
Soient
des valeurs de
telles que les quantités
soient multiples de
Soient
des valeurs des
telles que
![{\displaystyle n_{i}=n_{i}^{0}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/329a6825a39d6e54f60926355ae7cae5b5ae0c0d)
Nous avons vu aux nos 42 et 44 que les équations (1) admettront
une solution périodique de période
qui sera développable suivant
les puissances de
et qui pour
se réduira à
![{\displaystyle {\begin{aligned}x_{i}&=x_{i}^{0},&y_{i}&=n_{i}^{0}t+\varpi _{i}^{0},\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/81dbc4e3fdf2e2486df22a059f03c1adb7974a65)
les
étant certaines valeurs particulières des constantes
Cela posé, envisageons une solution quelconque.
Soit
la valeur initiale des
et
celle de
pour
Soit
l’accroissement que subit
et
l’accroissement que subit
quand
passe de la valeur 0 à la valeur
Voici comment on formera l’équation qui donne les exposants
caractéristiques. On construira un déterminant dont les éléments
seront donnés par le Tableau suivant. Dans ce Tableau, la première colonne indique le numéro de la ligne, la seconde indique le
numéro de la colonne, et la troisième fait connaître l’élément correspondant du déterminant.
(2)[1]
|
|
|
En égalant à 0 le déterminant ainsi formé, on a une équation
en
dont les racines sont
![{\displaystyle e^{\alpha \mathrm {T} }-1,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e08153469dc63979c80fbe05d1830ff57d91554c)
étant un des exposants caractéristiques.
Les
et les
sont développables suivant les puissances
de
des
et des
Il en est de même des quantités
(3)
|
|
|
On doit y remplacer les
et les
par les valeurs qui
correspondent à la solution périodique et qui sont développables suivant
les puissances de
de sorte qu’après cette substitution les quantités
(3) seront développées selon les puissances de ![{\displaystyle \mu .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a1ef6db045c1f6193799bd25a4b68ba9f78646d2)
Comme, d’autre part, on a
![{\displaystyle \mathrm {S} =e^{\alpha \mathrm {T} }-1,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/29ce60a2e7e8672fbef8e33285f8d1562dbc95a6)
on voit que notre déterminant est une fonction entière de
développable d’autre part suivant les puissances de
J’appellerai
cette fonction
et j’aurai pour déterminer
en fonction
de
l’équation
(4)
|
|
|
Cela posé, faisons
![{\displaystyle \alpha =\varepsilon {\sqrt {\mu }}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/27158bbd12c90633cee9f28f3b37824c6740ee59)
Divisons les
premières lignes du déterminant, ainsi que les
dernières colonnes par
Les éléments du déterminant deviendront,
en les écrivant dans le même ordre que dans le Tableau (2),
![{\displaystyle {\frac {d\,\Delta x_{k}}{{\sqrt {\mu }}\,d\beta _{i}}},\;\;{\frac {d\,\Delta x_{i}}{{\sqrt {\mu }}\,d\beta _{i}}}\!-\!{\frac {\mathrm {S} }{\sqrt {\mu }}},\;\;{\frac {d\,\Delta x_{k}}{\mu \,d\varpi _{i}}},\;\;{\frac {d\,\Delta y_{k}}{d\beta _{i}}},\;\;{\frac {d\,\Delta y_{k}}{{\sqrt {\mu }}\,d\varpi _{i}}},\;\;{\frac {d\,\Delta y_{i}}{{\sqrt {\mu }}\,d\varpi _{i}}}\!-\!{\frac {\mathrm {S} }{\sqrt {\mu }}},\;\;}](https://wikimedia.org/api/rest_v1/media/math/render/svg/74b0b9a33d3dc96a6c57de5c7134c827eba0d341)
et l’équation (4) devient
![{\displaystyle \mu ^{-n}\mathrm {G} \left(\varepsilon {\sqrt {\mu }},\,\mu \right)=\mathrm {G} _{1}\left(\varepsilon ,\,{\sqrt {\mu }}\right)=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e59034492eefb39123f82f9c0edd7e98b2fb0dab)
Cherchons ce que devient cette équation pour
ou, en d’autres
termes, formons le déterminant ![{\displaystyle \mathrm {G} _{1}(\varepsilon ,\,0).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ecdbad1b658401b0cf65611058ec6c25e569066b)
Pour
est nul, et
ne dépend que des
Donc
et
sont divisibles par
On a donc
![{\displaystyle \lim {\frac {d\Delta x_{k}}{{\sqrt {\mu }}\,d\beta _{i}}}=\lim {\frac {d\Delta y_{k}}{{\sqrt {\mu }}\,d\varpi _{i}}}=0\quad \mathrm {pour} \;\mu =0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8dd7979dd286aca020174f29cf3af7876a179145)
D’autre part
![{\displaystyle \lim {\frac {\mathrm {S} }{\sqrt {\mu }}}=\lim {\frac {e^{\mathrm {T} \varepsilon {\sqrt {\mu }}}-1}{\sqrt {\mu }}}=\varepsilon \mathrm {T} .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4311d7eae7c1c0c58ef779f6f89ffb1fe9285d97)
Il vient ensuite (pour
)
![{\displaystyle \Delta y_{k}=-\int _{0}^{\mathrm {T} }{\frac {d\mathrm {F} _{0}}{dx_{k}}}\,dt=-\mathrm {T} {\frac {d\mathrm {F} _{0}}{dx_{k}}}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/5bc9de9a2d56ac9905076ee101d9107df482c9e4)
Dans
doit être remplacé par
On a donc
![{\displaystyle {\frac {d\Delta y_{k}}{d\beta _{i}}}=-\mathrm {T} {\frac {d^{2}\mathrm {F} _{0}}{dx_{i}\,dx_{k}}}\,;}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b93d54d0035cb3efc765172090babd1bba7c8a28)
Dans
on doit après la différentiation faire
c’est-à-dire ![{\displaystyle x_{i}=x_{i}^{0}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2f3c68a98d0b24490e5fa8224c49b42b8522a4f7)
Nous avons (toujours pour
)
![{\displaystyle {\frac {1}{\mu }}\Delta x_{k}=\int _{0}^{\mathrm {T} }{\frac {d\mathrm {F} _{1}}{dy_{k}}}\,dt.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/60f7e6b07a20534c1f56d9f93a144ddc3072649d)
Dans
on doit remplacer
par
et
par
ce qui montre d’abord que
![{\displaystyle {\frac {d\mathrm {F} _{1}}{dy_{k}}}={\frac {d\mathrm {F} _{1}}{d\varpi _{k}}}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/54270023707acf1520310207ee06a1017e84bb8a)
Comme nous nous proposons de différentier
par rapport
aux
mais non par rapport aux
nous pouvons tout de suite
donner aux
leurs valeurs définitives et faire
![{\displaystyle \beta _{i}=0,\quad \mathrm {d'o{\grave {u}}} \quad n=n_{i}^{0}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/72d7ca631a6e5c9162dc0fa197f8a22f83cd6331)
Alors
devient une fonction périodique de période
par rapport
à
et de période
par rapport aux
Soit
![{\displaystyle [\mathrm {F} _{1}]=\mathrm {R} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/d503984bfbb4d0dad29c7d4802ba25aa8bb4931f)
la valeur moyenne de
considérée comme fonction périodique
de
il vient
![{\displaystyle {\frac {\Delta x_{k}}{\mu }}=\mathrm {T} {\frac {d\mathrm {R} }{d\varpi _{k}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9c987bf08077b42943a9574f697e60c17ae66b53)
d’où
![{\displaystyle {\frac {d\Delta x_{k}}{\mu \,d\varpi _{i}}}=\mathrm {T} {\frac {d^{2}\mathrm {R} }{d\varpi _{i}\,d\varpi _{k}}}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/a96cdd6ffca2a97369fd901de8195f343b828889)
Ainsi les éléments du déterminant
seront, en les écrivant
dans le même ordre que dans le Tableau (2),
![{\displaystyle 0,\quad -\varepsilon \mathrm {T} ,\quad \mathrm {T} {\frac {d^{2}\mathrm {R} }{d\varpi _{i}\,d\varpi _{k}}},\quad -\mathrm {T} {\frac {d^{2}\mathrm {F} _{0}}{dx_{i}\,dx_{k}}},\quad 0,\quad -\varepsilon \mathrm {T} .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/29f31d16f568ea592b65ae8eb5f05aa4525729af)
Nous avons ainsi une équation algébrique en
en général, cette
équation aura deux racines nulles et toutes les autres seront distinctes
et différentes de 0. En appliquant le théorème du no 30, nous verrons que l’on peut tirer de l’équation
![{\displaystyle \mathrm {G} _{1}(\varepsilon ,{\sqrt {\mu }})=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/73ac3489342e2a9ff5b359af5562c13bd62e95dc)
(et par conséquent
) en série ordonnée suivant les puissances
de ![{\displaystyle {\sqrt {\mu }}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/df888a7940d077da6cebfebf2901c8fbf614b096)
Nous sommes donc amenés à discuter l’équation
![{\displaystyle \mathrm {G} _{1}(\varepsilon ,0)=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2f973fa99c87c6ca5ed0ffb6308104d1652ee3be)
Si nous changeons
en
cette équation ne change pas.
En effet, si nous multiplions les
premières lignes par
ainsi que les
dernières colonnes, le déterminant ne changera
pas, et tous les éléments du déterminant ne changeront pas non
plus, à l’exception des éléments de la diagonale principale qui
étaient égaux à
et qui deviendraient égaux à
Je dis que l’équation a deux racines nulles. Si en effet nous
faisons
le déterminant devient égal au produit de deux
autres, à savoir :
1o Le hessien de
par rapport aux
2o Le hessien de
par rapport aux
Ce dernier hessien est nul ; car on a, d’après la définition de
![{\displaystyle n_{1}^{0}{\frac {d^{2}\mathrm {R} }{d\varpi _{i}\,d\varpi _{1}}}+n_{2}^{0}{\frac {d^{2}\mathrm {R} }{d\varpi _{i}\,d\varpi _{2}}}+\ldots +n_{n}^{0}{\frac {d^{2}\mathrm {R} }{d\varpi _{i}\,d\varpi _{n}}}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1327e798b69c0e217eade5b3561aaab868d3b4d5)
Donc l’équation est satisfaite pour
et, comme ses racines
sont deux à deux égales et de signe contraire, elle doit avoir deux
racines nulles.
Pour qu’il y ait plus de deux racines nulles, il faudrait que le
coefficient de
dans
fût nul. Or ce coefficient peut se calculer
comme il suit :
Multiplions la première ligne de
par
et ajoutons-y la seconde multipliée par
la troisième par
la
ième par
Tous les éléments de
demeurent inaltérés, à l’exception de ceux
de la première ligne, qui deviennent
![{\displaystyle -n_{1}^{0}\varepsilon \mathrm {T} ,\quad -n_{2}^{0}\varepsilon \mathrm {T} ,\quad -n_{3}^{0}\varepsilon \mathrm {T} ,\quad \ldots ,\quad -n_{n}^{0}\varepsilon \mathrm {T} ,\quad 0,\quad 0,\quad \ldots ,\quad 0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9b2d44ce8402b3bf3430e916d057a64b26a52e74)
Multiplions maintenant la
ième colonne par
et ajoutons-y
la
ième multipliée par
la
ième multipliée par
la
ième par
Tous les éléments restent inaltérés sauf ceux de la
ième
colonne, qui deviennent
![{\displaystyle 0,\quad 0,\quad \ldots ,\quad 0,\quad -n_{1}^{0}\varepsilon \mathrm {T} ,\quad -n_{2}^{0}\varepsilon \mathrm {T} ,\quad \ldots ,\quad -n_{n}^{0}\varepsilon \mathrm {T} .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/adedb841da2dbf92310c89d49e21651c3d9e73ff)
Le déterminant
par cette double opération, a été multiplié par
Divisons-le maintenant par
en divisant par
la première ligne d’une part et la
ième colonne d’autre part.
Faisons ensuite
et nous aurons le coefficient cherché.
Le déterminant ainsi obtenu a ses éléments conformes au Tableau suivant :
![{\displaystyle {\begin{array}{ccccc}{}_{\mathrm {Num{\acute {e}}ro} }&&{}_{\mathrm {Num{\acute {e}}ro} }&&{}_{\mathrm {Valeur} }\\[-0.5ex]{}^{\mathrm {de\;la\;colonne.} }&&{}^{\mathrm {de\;la\;ligne.} }&&{}{^{\mathrm {de\;l'{\acute {e}}l{\acute {e}}ment.} }}\\i\quad (i<n)&&1&&-n_{i}^{0}\mathrm {T} \\n+1&&k\quad (k<n)&&0\\i+n\quad (i>1)&&k\quad (k>1,\,k<n)&&\mathrm {T} {\dfrac {d^{2}\mathrm {R} }{d\varpi _{i}\,d\varpi _{k}}}\\i\quad (i<n)&&k\quad (k>1,\,k<n)&&0\\i+n\quad (i>1)&&1&&0\\i\quad (i<n)&&k+n\quad (k>0)&&-\mathrm {T} {\dfrac {d^{2}\mathrm {F} _{0}}{dx_{i}\,dx_{k}}}\\n+1&&k+n\quad (k>0)&&-n_{k}^{0}\mathrm {T} \\i+n\quad (i>1)&&k+n\quad (k>0)&&0\\\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2263a3b665a350610989f5d463169ded23fb5f7d)
On voit que ce déterminant est égal au signe près à
![{\displaystyle \mathrm {T} ^{2n}\mathrm {H} _{1}\mathrm {H} _{2}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0c551e991bbc813314d18b016f466db749e9e41d)
et
étant les deux déterminants suivants
![{\displaystyle \mathrm {H} _{1}=\left|{\begin{array}{ccccc}n_{1}^{0}&n_{2}^{0}&\ldots &n_{n}^{0}&0\\{\dfrac {d^{2}\mathrm {F} _{0}}{dx_{1}^{2}}}&{\dfrac {d^{2}\mathrm {F} _{0}}{dx_{1}\,dx_{2}}}&\ldots &{\dfrac {d^{2}\mathrm {F} _{0}}{dx_{1}\,dx_{n}}}&n_{1}^{0}\\{\dfrac {d^{2}\mathrm {F} _{0}}{dx_{1}\,dx_{2}}}&{\dfrac {d^{2}\mathrm {F} _{0}}{dx_{2}^{2}}}&\ldots &{\dfrac {d^{2}\mathrm {F} _{0}}{dx_{2}\,dx_{n}}}&n_{2}^{0}\\\ldots \ldots &\ldots \ldots &\ldots &\ldots \ldots &\ldots \\{\dfrac {d^{2}\mathrm {F} _{0}}{dx_{1}\,dx_{n}}}&\ldots \ldots &\ldots &{\dfrac {d^{2}\mathrm {F} _{0}}{dx_{n}^{2}}}&n_{n}^{0}\\\end{array}}\right|}](https://wikimedia.org/api/rest_v1/media/math/render/svg/45d731426ec7e54066ad3c50873e5ad94571f0d1)
et
étant le hessien de
par rapport à
![{\displaystyle \varpi _{2},\quad \varpi _{3},\quad \ldots ,\quad \varpi _{n}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7603a21fc2db9ff5328ee18b4577098ba62f7e98)
Si j’observe que
est égal, au signe près, à
je vois que l’on ne change pas
en remplaçant dans la première ligne et la dernière
colonne
par
Le déterminant ainsi formé s’appellera
le hessien bordé de
par rapport à
Ainsi l’équation
ne peut avoir plus de deux racines
nulles et, par conséquent, il ne peut y avoir plus de deux exposants
caractéristiques nuls que si
ou
s’annulent.
Dans le cas particulier du problème des trois Corps que nous
avons traité au no 9, il n’y a que 2 degrés de liberté et l’on a
![{\displaystyle \mathrm {F} _{0}={\frac {1}{2x_{1}^{2}}}+x_{2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bddf5aaf17aca2dd9e55d617ac7e1855645e2534)
Il vient alors
![{\displaystyle \mathrm {H} _{1}=\left|{\begin{array}{ccc}{\dfrac {d\mathrm {F} _{0}}{dx_{1}}}&{\dfrac {d\mathrm {F} _{0}}{dx_{2}}}&0\\{\dfrac {d^{2}\mathrm {F} _{0}}{dx_{1}^{2}}}&{\dfrac {d^{2}\mathrm {F} _{0}}{dx_{1}\,dx_{2}}}&{\dfrac {d\mathrm {F} _{0}}{dx_{1}}}\\{\dfrac {d^{2}\mathrm {F} _{0}}{dx_{1}\,dx_{2}}}&{\dfrac {d^{2}\mathrm {F} _{0}}{dx_{2}^{2}}}&{\dfrac {d\mathrm {F} _{0}}{dx_{2}}}\\\end{array}}\right|=\left|{\begin{array}{ccc}-x_{1}^{-3}&1&0\\3x_{1}^{-4}&0&-x_{1}^{-3}\\0&0&1\end{array}}\right|=-3x_{1}^{-4}\,;}](https://wikimedia.org/api/rest_v1/media/math/render/svg/f56430b230b98a810ac1d1728583b8b0375c8952)
donc
n’est pas nul ; d’autre part, on vérifie que
n’est
pas nul non plus.
Donc, dans ce cas particulier du problème des trois Corps, il y
a deux exposants caractéristiques nuls et les deux autres sont différents de 0.
75.Le déterminant
peut être un peu simplifié par un choix
convenable des variables. Je dis qu’on peut toujours supposer
(1)
|
|
|
En effet, si cela n’était pas, on changerait de variables en prenant
pour variables nouvelles
et
et en faisant
![{\displaystyle {\begin{aligned}y'_{i}&=\alpha _{1,i}y_{1}\,+\alpha _{2,i}y_{2}+\ldots +\alpha _{n,i}y_{n},\\x_{i}&=\alpha _{i,1}x'_{1}+\alpha _{i,2}x'_{2}+\ldots +\alpha _{i,n}x'_{n},\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fd82ea6cdf1ab074c16c5c920434ca6b2f19fcf0)
les
étant des coefficients constants. Après ce changement
linéaire de variables, les équations conserveront la forme canonique.
Après ce changement de variables, les quantités qui correspondront à
et que nous appellerons
seront données par les relations
![{\displaystyle {n'_{i}}^{0}=\alpha _{1,i}n_{i}^{0}+\alpha _{2,i}n_{i}^{0}+\ldots +\alpha _{n,i}n_{i}^{0},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/53ae2772c4711c2d7a0b7733d149b59ac6b359aa)
car
![{\displaystyle {\begin{aligned}{n'_{i}}^{0}&=-{\frac {d\mathrm {F} _{0}}{dx'_{i}}},&n_{i}^{0}&=-{\frac {d\mathrm {F} _{0}}{dx_{i}}},&{\frac {d\mathrm {F} _{0}}{dx'_{i}}}&=\sideset {}{_{k}}\sum {\frac {d\mathrm {F} _{0}}{dx_{k}}}{\frac {dx_{k}}{dx'_{i}}}=\sum {\frac {d\mathrm {F} _{0}}{dx_{k}}}\alpha _{k,i}.\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6554c9ff22349ccf46e8e300a21dd224e318ce12)
Comme les nombres
sont commensurables entre
eux, nous pourrons toujours choisir les
de telle façon :
1o Que les
soient entiers ;
2o Que leur déterminant soit égal à 1. Ces deux conditions
sont nécessaires pour que
reste périodique par rapport aux
comme il l’était par rapport aux
;
3o Que
![{\displaystyle {n'_{2}}^{0}={n'_{3}}^{0}=\ldots ={n'_{n}}^{0}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5f325e969a8100532b7ce87d7b1c2c024d9a4db0)
Ainsi nous pouvons toujours supposer que les conditions (1)
sont remplies et nous en déduisons les équations suivantes
(2)
|
|
|
76.Un cas particulier intéressant est celui où une ou plusieurs
des variables
n’entrent pas dans
Supposons, par exemple,
que
ne dépende pas de
Alors tous les éléments de la
ième colonne [et ceux de la
ième ligne] sont
tous nuls, sauf celui d’entre eux qui appartient à la diagonale principale et qui reste
égal à
Je supposerai de plus que les variables aient été choisies de telle
sorte que les conditions (1) et (2) du numéro précédent soient
remplies. Il en résulte que les éléments de la première ligne [et
ceux de la
ième colonne] sont tous nuls, à l’exception de
celui d’entre eux qui appartient à la diagonale principale et qui
reste égal à
Ainsi tous les éléments des lignes
et
et tous ceux des
colonnes
et
sont divisibles par
(j’ajouterai que tout
élément qui appartient à la fois à une de ces deux lignes et à une de
ces deux colonnes est nul et, par conséquent, divisible par
il en résulte que le déterminant est divisible par
et,
par conséquent, que l’équation
a quatre racines nulles.
Dans quel cas peut-elle en avoir plus de quatre ?
Pour nous en rendre compte, divisons les lignes 1 et
et les
colonnes
et
par
et faisons ensuite
Dans quel cas le déterminant ainsi obtenu et qui sera égal à
![{\displaystyle \lim {\frac {\mathrm {G} _{1}}{\varepsilon ^{4}}}\quad \mathrm {pour} \quad \varepsilon =0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a44ec9bf18f1af9f7733df4d17ae0702a51a533e)
sera-t-il nul ?
Nous pouvons également diviser le déterminant
par
en supprimant les lignes 1,
et
et les colonnes de
même numéro. Si l’on fait ensuite
on voit que tous les éléments
sont nuls, sauf ceux qui appartiennent à l’une des
dernières colonnes subsistantes, et à l’une des
premières
lignes, ou inversement à l’une des
premières colonnes et à
une des
dernières lignes.
Ainsi le déterminant est égal, à une puissance de
près, au
produit de deux hessiens, à savoir :
1o Le hessien de
par rapport à
2o Et le hessien de
par rapport à
Si aucun de ces deux hessiens n’est nul, l’équation
n’aura pas plus de quatre racines nulles et il n’y aura certainement
pas plus de quatre exposants caractéristiques qui soient nuls.
Que devient cette condition quand on suppose que les variables
sont quelconques et que les conditions (1) et (2) du numéro précédent
ne sont pas remplies ?
Dans ce cas, on fera subir au déterminant la même transformation
qu’à la fin du no 74 ; on verra alors, comme à la fin de ce
numéro, qu’après cette transformation, les éléments de la première
ligne deviennent égaux à
![{\displaystyle -n_{1}^{0}\varepsilon \mathrm {T} ,\quad -n_{2}^{0}\varepsilon \mathrm {T} ,\quad \ldots ,\quad -n_{n}^{0}\varepsilon \mathrm {T} ,\quad 0,\quad 0,\quad \ldots ,\quad 0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/113bc776950e3f9a06383de5c6da934f67ed9da1)
et ceux de la
colonne à
![{\displaystyle 0,\quad 0,\quad \ldots ,\quad 0,\quad -n_{1}^{0}\varepsilon \mathrm {T} ,\quad -n_{2}^{0}\varepsilon \mathrm {T} ,\quad \ldots ,\quad -n_{n}^{0}\varepsilon \mathrm {T} .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/adedb841da2dbf92310c89d49e21651c3d9e73ff)
Seulement il importe d’observer ici que
est nul, puisque
![{\displaystyle {\frac {d\mathrm {F} _{0}}{dx_{n}}}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6749f4de887822f947b2ce38dee1b30fdb49f86d)
Nous pourrons diviser ce déterminant par
en supprimant
les lignes
et
et les colonnes de même numéro, et en divisant par
les éléments de la première ligne et de la
ième
colonne.
Si on fait ensuite
on voit que le déterminant se réduit
au produit de deux autres, à savoir :
1o Le hessien bordé de
par rapport à
2o Le hessien de
par rapport à
Pour qu’il y ait plus de quatre exposants caractéristiques nuls,
il faut (mais il ne suffit pas) que l’un de ces deux hessiens
soit nul.
Supposons maintenant que
non seulement ne contienne
pas
mais encore ne contienne pas non plus
en raisonnant
de la même manière, on arriverait au résultat suivant :
L’équation
a toujours six racines nulles ; pour qu’elle
en ait davantage, il faut et il suffit que le hessien bordé de
par
rapport à
soit nul, ou bien que le hessien
de
par rapport à
soit nul. Cette condition est donc
nécessaire (mais non suffisante) pour qu’il y ait plus de six exposants
caractéristiques nuls.
77.Reprenons les hypothèses faites au début du no 76, à savoir
que
ne dépend pas de
et que les conditions (1) et (2) du
no 75 sont remplies.
Nous avons vu que l’équation
![{\displaystyle \mathrm {G} _{1}(\varepsilon )=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7a861a8d7b3df0dc48c45006df9f13212bb0c498)
admet alors quatre racines nulles et quatre seulement, et nous en
avons conclu qu’il ne peut pas y avoir plus de quatre exposants
nuls. Il n’est pas, au contraire, permis d’en conclure qu’il y a quatre
exposants nuls ; cela prouve seulement que, quand on développe
ces exposants suivant les puissances de
le premier terme du
développement est nul pour quatre d’entre eux.
Il nous reste à voir si les termes suivants du développement sont
nuls également.
Je sais que deux exposants sont nuls puisque le temps n’entre
pas explicitement dans les équations différentielles et que
est une intégrale. Je me propose de rechercher ce qu’il advient des deux autres et, pour cela, je vais calculer dans
leur développement le coefficient de
Je vais poser
![{\displaystyle \alpha =\eta \mu ,\quad \mathrm {d'o{\grave {u}}} \quad \varepsilon =\eta {\sqrt {\mu }},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/68493053c42579cc5f9e85d735acfd0769e76438)
je diviserai l’équation
![{\displaystyle \mathrm {G} (\alpha ,\,\mu )=\mathrm {G} (\eta \mu ,\,\mu )=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/30ed8fa63614b8be361bee4f75a0502ec81eea6f)
par une puissance convenable de
et je ferai ensuite
et
j’aurai une équation qui me donnera les valeurs de ![{\displaystyle \eta .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/fc94fc42a3ecbad87643808e17ec9634147cf812)
De ce que
ne dépend pas de
nous pouvons conclure que
les quantités que nous avons appelées
et qui sont égales à
ne dépendent pas non plus de
ni par conséquent de
On aura donc
non seulement comme au no 74, quand
tous les
seront nuls, mais alors même que
ne serait pas nul,
pourvu que les autres
le soient.
Si donc nous supposons
![{\displaystyle \beta _{1}=\beta _{2}=\ldots =\beta _{n-1}=0,\quad \beta _{n}\gtrless 0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b0daee57123ca2a01a7c7b533fe06ca4e6727848)
nous aurons encore
![{\displaystyle {\frac {\Delta x_{k}}{\mu }}=\mathrm {T} {\frac {d\mathrm {R} }{d\varpi _{k}}}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/7f7478c6305a34f3f9cc9b79d36b9a68d6f06435)
Cela nous permet de différentier cette identité par rapport à
et d’écrire
![{\displaystyle {\frac {d\Delta x_{k}}{\mu \,d\beta _{n}}}=\mathrm {T} \,{\frac {d^{2}\mathrm {R} }{d\varpi _{k}\,d\beta _{n}}}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/76160e6f0339d08510c4218a9fc5a6e9c52c1847)
Calculons maintenant
![{\displaystyle {\frac {d\Delta y_{n}}{\mu \,d\varpi }}\quad \mathrm {et} \quad {\frac {d\Delta y_{n}}{\mu \,d\beta _{n}}}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/1cb75a45a9e237d971699deb023d84417db92999)
Il vient
![{\displaystyle \Delta y_{n}=-\int _{0}^{\mathrm {T} }{\frac {d\mathrm {F} }{dx_{n}}}\,dt}](https://wikimedia.org/api/rest_v1/media/math/render/svg/872d0e0e4417e878a50f4f46f7aa18a4ac4bdaa3)
où, puisque
on aura pour ![{\displaystyle \mu =0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5d191c285311dcd60a77e9791d186aa2ca575dec)
![{\displaystyle {\frac {\Delta y_{n}}{\mu }}=-\int _{0}^{\mathrm {T} }{\frac {d\mathrm {F} _{1}}{dx_{n}}}\,dt=-\mathrm {T} \,{\frac {d\mathrm {R} }{d\beta _{n}}}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/99de44ab956a59398f8a8f7ed42852fc82cf7472)
Cette identité a lieu pourvu que
![{\displaystyle \beta _{1}=\beta _{2}=\ldots =\beta _{n-1}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2f633cf838614d47568d6f7bd3a5f8dec4d7587e)
Nous pouvons donc la différentier par rapport à
ou à
ce qui donne
(3)
|
|
|
En ce qui concerne les quantités
![{\displaystyle {\frac {d\Delta y_{n}}{\mu d\beta _{k}}},\quad {\frac {d\Delta y_{k}}{\mu d\beta _{n}}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/22611fd493924361537edb51531b2066658b651a)
il nous suffira d’observer qu’elles sont divisibles par ![{\displaystyle \mu .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a1ef6db045c1f6193799bd25a4b68ba9f78646d2)
Nous avons encore à examiner les éléments de la première ligne
de notre déterminant et ceux de la
ième colonne.
Les éléments de la première ligne sont égaux à
![{\displaystyle {\begin{aligned}1+{\frac {d\Delta x_{1}}{d\beta _{1}}}-e^{\eta \mu \mathrm {T} },\quad {\frac {d\Delta x_{1}}{d\beta _{2}}},\quad &{\frac {d\Delta x_{1}}{d\beta _{3}}},\quad \ldots ,\quad {\frac {d\Delta x_{1}}{d\beta _{n-1}}},\quad {\frac {d\Delta x_{1}}{d\beta _{n}}},\\&{\frac {d\Delta x_{1}}{d\varpi _{1}}},\quad \ldots ,\quad {\frac {d\Delta x_{1}}{d\varpi _{n}}}\cdot \end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9d531a8336420224ca04daf15f66c8bf9bee946d)
Ils sont tous divisibles par
mais je dis que les
derniers
éléments, c’est-à-dire
![{\displaystyle {\frac {d\Delta x_{1}}{d\beta _{n}}}\quad \mathrm {et} \quad {\frac {d\Delta x_{1}}{d\varpi _{k}}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/62a467b9a349d26a25afa3558c2be2a98bf7d62f)
sont divisibles par
En effet, nous avons trouvé pour ![{\displaystyle \mu =0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3753282c0ad2ea1e7d63f39425efd13c37da3169)
![{\displaystyle {\begin{aligned}{\frac {d\Delta x_{1}}{\mu \,d\beta _{n}}}&=\mathrm {T} \,{\frac {d^{2}\mathrm {R} }{d\varpi _{1}\,d\beta _{n}}},&{\frac {d\Delta x_{1}}{\mu \,d\varpi _{k}}}&=\mathrm {T} \,{\frac {d^{2}\mathrm {R} }{d\varpi _{1}\,d\varpi _{k}}}\cdot \end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6d1effd5d2b3451635c2ae6f2af0d8f8e98dc4e0)
Or, en vertu de la définition de
on a
![{\displaystyle n_{1}^{0}\,{\frac {d\mathrm {R} }{d\varpi _{1}}}+n_{2}^{0}\,{\frac {d\mathrm {R} }{d\varpi _{2}}}+\ldots +n_{n}^{0}\,{\frac {d\mathrm {R} }{d\varpi _{n}}}=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/31e50f5f144becff8888e3be28d5cf6dbd56608a)
ou, à cause des relations (1) du no 75,
![{\displaystyle {\frac {d\mathrm {R} }{d\varpi _{1}}}=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/897d290fb84c1d885c7b70d94e283a935068bec7)
d’où (en différentiant cette identité)
![{\displaystyle {\frac {d\Delta x_{1}}{\mu \,d\beta _{n}}}={\frac {d\Delta x_{1}}{\mu \,d\varpi _{k}}}=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b9569be2b9c6d6bd4045f71cbc650208a7a0b4fd)
pour
C.Q.F.D.
Les éléments de la
ième colonne s’écrivent
![{\displaystyle {\begin{aligned}{\frac {d\Delta x_{1}}{d\varpi _{1}}}&,\quad {\frac {d\Delta x_{2}}{d\varpi _{1}}},\quad \ldots ,\quad {\frac {d\Delta x_{n}}{d\varpi _{1}}},\\{\frac {d\Delta y_{1}}{d\varpi }}+1-e^{\eta \mu \mathrm {T} }&,\quad {\frac {d\Delta y_{2}}{d\varpi _{1}}},\quad \ldots ,\quad {\frac {d\Delta y_{n}}{d\varpi _{1}}}\cdot \end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/72ea257c26080997663dc82d88ecced2bec91fc9)
Tous ces éléments sont divisibles par
mais je dis que les
premiers et le dernier sont divisibles par
ou, ce qui revient au même, que
![{\displaystyle {\frac {d\Delta x_{k}}{\mu \,d\varpi _{1}}}={\frac {d\Delta y_{n}}{\mu \,d\varpi _{1}}}=0\quad \mathrm {pour} \quad \mu =0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5cece955ac0dae36e51fed84bb32f74caf7b06b2)
En effet, nous avons trouvé
![{\displaystyle {\begin{aligned}{\frac {d\Delta x_{k}}{\mu \,d\varpi _{1}}}&=\mathrm {T} \,{\frac {d^{2}\mathrm {R} }{d\varpi _{1}\,d\varpi _{k}}},&{\frac {d\Delta y_{n}}{\mu \,d\varpi _{1}}}&=-\mathrm {T} \,{\frac {d^{2}\mathrm {R} }{d\varpi _{1}\,d\beta _{n}}},\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3bf6d7241d914098cebdbcd262d91246128b1983)
et
![{\displaystyle {\frac {d\mathrm {R} }{d\varpi _{1}}}=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/897d290fb84c1d885c7b70d94e283a935068bec7)
d’où, par différentiation,
![{\displaystyle {\frac {d^{2}\mathrm {R} }{d\varpi _{1}\,d\varpi _{k}}}={\frac {d^{2}\mathrm {R} }{d\varpi _{1}\,d\beta _{n}}}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ddfb5bca50046b7c9ebe166ed48e07bc5e22d1d5)
C.Q.F.D.
Cela posé, dans notre déterminant
je divise chaque
élément par
je divise ensuite :
La 1re ligne par
les lignes 2, 3, 4, …,
par
La
ième colonne par
les colonnes
par
Le déterminant est finalement divisé par
Je fais ensuite
J’observe que les éléments suivants sont nuls :
|
Ligne à laquelle appartient l’élément
|
Colonne à laquelle appartient l’élément
|
Puissance de µ par laquelle l’élément était divisible
|
Puissance de µ par laquelle l’élément a été divisé
|
(4)
|
|
|
|
![{\displaystyle {\begin{array}{c}1\;\mathrm {\grave {a}} \;n-1\;\mathrm {incl.} \\n\;\mathrm {et} \;n+2\;\mathrm {\grave {a}} \;2n\;\mathrm {incl.} \\n+1\\n\;\mathrm {et} \;n+2\;\mathrm {\grave {a}} \;2n\;\mathrm {incl.} \\\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d86b9733796178b1c1b13e4ae628d738ec2dd832)
|
![{\displaystyle {\begin{array}{c}\qquad \mu \qquad \\\mu ^{2}\\\mu ^{2}\\\mu \\\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6b7ff4db663790e0ca0799524c557501460951af)
|
![{\displaystyle {\begin{array}{c}\qquad {\sqrt {\mu }}\qquad \\\mu {\sqrt {\mu }}\\\mu {\sqrt {\mu }}\\{\sqrt {\mu }}\\\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0ace435407334d750bff8f2bed1cde60d1797d63)
|
et que les éléments suivants sont finis :
(4 bis)
|
|
|
Les seuls éléments qui sont finis appartiennent donc aux lignes
1 et
à
incl. et aux colonnes 1 à
incl. et
ou bien aux lignes 1 à
incl. et
et aux colonnes
et
à
incl.
Notre déterminant devient donc égal au produit de deux autres
que j’appellerai
et
Le déterminant
s’obtiendra en supprimant les lignes
![{\displaystyle 1,\quad n+1,\quad n+2,\quad \ldots ,\quad 2n-1,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d871a907cc0bb95bd7c29d67f404738f3c2919cd)
et les colonnes
![{\displaystyle 1,\quad 2,\quad 3,\quad \ldots ,\quad n-1,\quad n+1.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d2958f50948ec9c708abe7e5747b2ec0c7aae02b)
Le déterminant
s’obtiendra en supprimant les lignes
![{\displaystyle 2,\quad 3,\quad 4,\quad \ldots ,\quad n,\quad 2n,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1abce0ce19e59f763e44f6053d86ded8d8fd8296)
et les colonnes
![{\displaystyle n,\quad n+2,\quad n+3,\quad \ldots ,\quad 2n.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/eb03a9c387b34f44d166c10f08fc97deee383703)
Voyons comment ces déterminants dépendront de
Pour cela
je remarquerai que
![{\displaystyle \eta =\lim {\frac {\mathrm {S} }{\mu \,\mathrm {T} }}\quad (\mathrm {pour} \;\mu =0)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1e6675010cefcabf86adf6f915dc36bb3e9e3ef8)
n’entre que dans les termes de la diagonale principale ; or le déterminant
contient deux de ces termes, l’un appartenant à la
colonne et à la ligne
l’autre à la colonne et à la ligne ![{\displaystyle 2n.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/21e85bad71f97a39b9abced77f06d46b44c97640)
Le déterminant
contient aussi deux de ces termes, l’un appartenant
à la colonne et à la ligne 1, l’autre à la colonne et à la
ligne
Il en résulte que
et
sont des polynômes du deuxième
degré en
Ainsi notre équation en
se décompose en deux
équations du deuxième degré,
![{\displaystyle \mathrm {D_{1}} =0,\qquad \mathrm {D_{2}} =0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ab26bd915b94012679208e64c56b4d539e40d85d)
Examinons d’abord l’équation
Pour former le déterminant
on peut appliquer la règle suivante ;
Écrire le hessien de
par rapport à
![{\displaystyle \varpi _{2},\quad \ldots ,\quad \varpi _{n},\quad \beta _{n}\,;}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0386b322e259eb80dfb464087476f2ae42a40455)
changer les signes de la dernière ligne, celle qui contient les
dérivées de
ajouter ensuite
aux deux éléments qui sont
égaux à
et à ![{\displaystyle -{\frac {d^{2}\mathrm {R} }{d\varpi _{n}\,d\beta _{n}}}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/5a6cbdd4f6db366bf4c25bdd50760631bd317c38)
On obtient la même équation plus simplement (le premier
membre étant seulement changé de signe) en prenant le hessien
de
et ajoutant
à l’un des deux éléments qui sont égaux à
et
à l’autre.
Écrivons l’équation
en supposant
pour fixer les idées :
![{\displaystyle \left|{\begin{array}{cccc}{\dfrac {d^{2}\mathrm {R} }{d\varpi _{2}^{2}}}&{\dfrac {d^{2}\mathrm {R} }{d\varpi _{2}\,d\varpi _{3}}}&{\dfrac {d^{2}\mathrm {R} }{d\varpi _{2}\,d\varpi _{4}}}&{\dfrac {d^{2}\mathrm {R} }{d\varpi _{2}\,d\beta _{4}}}\\{\dfrac {d^{2}\mathrm {R} }{d\varpi _{2}\,d\varpi _{3}}}&{\dfrac {d^{2}\mathrm {R} }{d\varpi _{3}^{2}}}&{\dfrac {d^{2}\mathrm {R} }{d\varpi _{3}\,d\varpi _{4}}}&{\dfrac {d^{2}\mathrm {R} }{d\varpi _{3}\,d\beta _{4}}}\\{\dfrac {d^{2}\mathrm {R} }{d\varpi _{2}\,d\varpi _{4}}}&{\dfrac {d^{2}\mathrm {R} }{d\varpi _{3}\,d\varpi _{4}}}&{\dfrac {d^{2}\mathrm {R} }{d\varpi _{4}^{2}}}&{\dfrac {d^{2}\mathrm {R} }{d\varpi _{4}\,d\beta _{4}}}+\eta \\{\dfrac {d^{2}\mathrm {R} }{d\varpi _{2}\,d\beta _{4}}}&{\dfrac {d^{2}\mathrm {R} }{d\varpi _{3}\,d\beta _{4}}}&{\dfrac {d^{2}\mathrm {R} }{d\varpi _{4}\,d\beta _{4}}}-\eta &{\dfrac {d^{2}\mathrm {R} }{d\beta _{4}^{2}}}\\\end{array}}\right|=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/add6e55607e2f243ac1bc5249823cdc477fe1c55)
Sous cette forme on voit immédiatement ce que d’ailleurs on
pouvait prévoir : que cette équation en
ses deux racines égales
et de signe contraire.
Ces deux racines seront finies si le hessien de
par rapport à
![{\displaystyle \varpi _{2},\quad \varpi _{3},\quad \varpi _{4},\quad \ldots ,\quad \varpi _{n-1}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9c2e7a3475f9c8703d3c6cbf5e34d458a814fc3e)
n’est pas nul.
Elles seront différentes de 0, si le hessien de
par rapport à
![{\displaystyle \varpi _{2},\quad \varpi _{3},\quad \varpi _{4},\quad \ldots ,\quad \varpi _{n-1},\quad \varpi _{n},\quad \beta _{n}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b41d674559d674ab4b3f9b54947d1f77bf545e0c)
n’est pas nul.
Quant à l’équation
elle aura ses deux racines nulles.
En effet, nous savons qu’il y a toujours deux exposants caractéristiques
nuls et, par conséquent, que deux des valeurs de
sont nulles ; or nous venons de voir que les racines de
ne sont
pas nulles en général : il faut donc admettre que ce sont les racines
de
qui sont toujours nulles.
Comment ces résultats seraient-ils modifiés si la condition (1) du no 75 n’était pas remplie d’elle-même ?
Dans ce cas on multiplierait (comme nous l’avons fait au no 74)
la première ligne par
et on y ajouterait les
e,
e,
ième lignes, multipliées respectivement par
(je rappelle d’ailleurs que
est nul) ; on multiplierait
ensuite la
ième colonne par
et on y ajouterait les
e,
e,
ième colonnes,
multipliées respectivement par
Après cette transformation, tous les éléments du déterminant
demeureraient les mêmes, sauf ceux de la première ligne et de la
ième colonne.
D’ailleurs, chaque élément [aussi bien ceux de la première ligne et de la
ième
colonne que les autres] est divisible par la puissance
de
indiquée dans la
e colonne des tableaux (4) et (4 bis).
Nous diviserons ensuite chaque élément par
et par la puissance
de
indiquée dans la
e colonne des mêmes tableaux.
Quand nous ferons ensuite
un certain nombre d’éléments
seront nuls et d’autres resteront finis, et cela conformément aux
tableaux (4) et (4 bis). Notre déterminant se trouvera encore égal
au produit de deux autres
et
qui s’obtiendront comme plus haut.
Tous les éléments de ces deux déterminants auront même
expression que dans le cas précédent, sauf ceux de la première ligne
et de la
ième colonne. Or
ne contient aucun élément de
cette ligne et de cette colonne.
Donc
a la même expression que dans le cas précédent et les
mêmes conclusions subsistent.
Les valeurs de
sont finies si le hessien de
par rapport à
n’est pas nul, et elles sont différentes de 0, si le
hessien de
par rapport à
n’est pas nul.
En résumé, si
ne dépend pas de
si le hessien bordé de
par rapport à
n’est pas nul, si les hessiens de
par rapport à
et par rapport à
ne sont pas nuls,
il n’y aura que deux exposants caractéristiques nuls.
Passons au cas où
ne dépend ni de
ni de
On verrait en raisonnant de la même manière que :
Si le hessien bordé de
par rapport à
n’est pas nul, si les hessiens de
par rapport à
et par rapport à
et
ne sont pas nuls, il n’y aura que deux exposants nuls.
Application au problème des trois Corps.
78.Appliquons ce qui précède au problème des trois Corps ; nous
avons vu aux nos 15 et 16 comment on peut réduire le nombre des
degrés de liberté à 3 dans le cas du problème plan et à 4 dans le
cas général.
Écrivons donc les équations du mouvement sous la forme que
nous leur avons donnée dans ces nos 15 et 16.
Les deux séries de variables conjuguées sont alors
![{\displaystyle {\begin{array}{ccc}\beta \,\mathrm {L} ,&\beta '\mathrm {L} '&\mathrm {H} ,\\l,&l'&h\\\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9c6560ebb060627a5ea9dd80bf809d19943d819c)
dans le cas du problème plan, et
![{\displaystyle {\begin{array}{cccc}\beta \,\mathrm {L} ,&\beta '\mathrm {L} '&\beta \,\Gamma ,&\beta '\Gamma ',\\l,&l'&g,&g'\\\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d2fa4d8aa9ff048ae0a06a46806e192b6b0d9322)
dans le cas général. On a d’ailleurs
![{\displaystyle \mathrm {F} _{0}=\mathrm {A\,L} ^{-2}+\mathrm {A'\,L'} ^{-2},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/808f6bd791e85797907030382c69a263b466df5c)
et
étant des coefficients constants.
On voit donc que
ne dépend pas de
dans le cas du
problème plan, ni de
et de
dans le cas général.
En premier lieu, le hessien bordé de
par rapport à
et
est égal à
![{\displaystyle \mathrm {B} \,\mathrm {L} ^{-4}\,\mathrm {L'} ^{-6}+\mathrm {B} '\,\mathrm {L} ^{-6}\,\mathrm {L'} ^{-4},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/86e1120842a2718c1bacc3b586ef97978e88f1e4)
et
étant des coefficients constants. Le hessien bordé n’est donc
pas nul.
Les hessiens de
ne seront pas non plus nuls en général, ainsi qu’on peut s’en assurer sur des exemples ; nous reviendrons d’ailleurs
en détail sur ce point au Chapitre suivant.
Donc les solutions périodiques du problème des trois Corps ont
deux exposants caractéristiques nuls, mais elles n’en ont que deux.
Calcul complet des exposants caractéristiques.
79.Reprenons les équations (1) du no 74 en faisant
pour
fixer les idées :
(1)
|
|
|
Supposons qu’on ait trouvé une solution périodique de ces équations
![{\displaystyle x_{i}=\varphi _{i}(t),\quad y_{i}=\psi _{i}(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e503b6cd3a91580d71e9eb896847092982b7de6f)
et proposons-nous de déterminer les exposants caractéristiques de cette solution.
Pour cela, nous poserons
![{\displaystyle x_{i}=\varphi _{i}(t)+\xi _{i},\quad y_{i}=\psi _{i}(t)+\eta _{i},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/22b37dc5fd50299d49782b17cbceb28429771a0a)
puis nous formerons les équations aux variations des équations (1),
que nous écrirons
(2)
|
|
|
et nous chercherons à intégrer ces équations en faisant
(3)
|
|
|
et
étant des fonctions périodiques de
Nous savons qu’il existe en général six solutions particulières de cette forme [les
équations linéaires (2) étant du sixième ordre]. Mais il importe
d’observer que, dans le cas particulier qui nous occupe, il n’y a
plus que quatre solutions particulières qui conservent cette forme,
parce que deux des exposants caractéristiques sont nuls, et qu’il y a par conséquent deux solutions particulières d’une forme dégénérescente.
Cela posé, supposons d’abord
alors
se réduit à
et ne dépend plus que de
Alors les équations (2) se réduisent à
(2′)
|
|
|
Les coefficients de
dans la seconde équation (2′) sont des constantes.
Nous prendrons comme solutions des équations (2′)
![{\displaystyle {\begin{aligned}\xi _{1}&=\xi _{2}=\xi _{3}=0,&\eta _{1}&=\eta _{1}^{0},&\eta _{2}&=\eta _{2}^{0},&\eta _{3}&=\eta _{3}^{0},\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cade7f4034cd4f9a6bb9baa3c2d289f8fbc1c953)
étant trois constantes d’intégration.
Cette solution n’est pas la plus générale, puisqu’elle ne contient
que trois constantes arbitraires, mais c’est la plus générale parmi
celles que l’on peut ramener à la forme (3). Nous voyons ainsi que,
pour
les six exposants caractéristiques sont nuls.
Ne supposons plus maintenant que
soit nul. Nous allons
maintenant chercher à développer
et
non pas suivant les puissances croissantes de
mais suivant les puissances de
en écrivant
![{\displaystyle {\begin{aligned}\alpha &=\alpha _{1}{\sqrt {\mu }}+\alpha _{2}\mu +\alpha _{3}\mu {\sqrt {\mu }}+\ldots ,\\\mathrm {S} _{i}&=\mathrm {S} _{i}^{0}+\mathrm {S} _{i}^{1}{\sqrt {\mu }}+\mathrm {S} _{i}^{2}\mu +\mathrm {S} _{i}^{3}\mu {\sqrt {\mu }}+\ldots ,\\\mathrm {T} _{i}&=\mathrm {T} _{i}^{0}+\mathrm {T} _{i}^{1}{\sqrt {\mu }}+\mathrm {T} _{i}^{2}\mu +\mathrm {T} _{i}^{3}\mu {\sqrt {\mu }}+\ldots .\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/88791141ce248d7d3a43324820c6d25288c575f3)
Je me propose d’abord d’établir que ce développement est possible.
Nous avons vu d’abord au no 74 que les exposants caractéristiques
peuvent se développer selon les puissances croissantes de
Démontrons maintenant que
et
peuvent aussi se développer
suivant les puissances de
et
nous sont donnés en effet par les équations suivantes :
(2″)
|
|
|
Soit
la valeur initiale de
et
celle
de
les valeurs de
et de
pour une valeur quelconque de
pourront, d’après le no 27, se développer
suivant les puissances de
de
des
et des
De plus, à cause de la forme linéaire des équations, ces valeurs
seront des fonctions linéaires et homogènes des
et des ![{\displaystyle \beta '_{i}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/63c8446549020ca4dca1f896c8710b86de584b1b)
Soit, pour employer des notations analogues à celles du no 37,
la valeur de
et
celle de
pour
La condition
pour que la solution soit périodique, c’est que l’on ait
![{\displaystyle \psi _{i}=\psi '_{i}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/28e114511ee2666b789cd8f91ea5c3c8373f6c7f)
Les
et les
sont des fonctions linéaires des
et des
ces équations sont donc linéaires par rapport à ces quantités. En
général, ces équations n’admettent d’autre solution que
![{\displaystyle \beta _{i}=\beta '_{i}=0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/91b0473d0def6dc57481f34fa50fb5655441e24f)
de sorte que les équations (2′′) n’ont d’autre solution périodique que
![{\displaystyle \mathrm {S} _{i}=\mathrm {T} _{i}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1d40e4b2ccb9b18627357c7c79482c5975ad7107)
Mais nous savons que, si l’on choisit
de façon à satisfaire à
les équations (2′′) admettent des solutions périodiques
autres que
Par conséquent, le déterminant des
équations linéaires
est nul. Nous pourrons donc tirer
de ces équations les rapports
![{\displaystyle {\frac {\beta _{i}}{\beta '_{1}}}\quad }](https://wikimedia.org/api/rest_v1/media/math/render/svg/5590d7cfd5b5cc12e1c0ecfd9812022417bf7164)
et
![{\displaystyle \quad {\frac {\beta '_{i}}{\beta '_{1}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/46af5ab33ab25d4a195858c42f8154f8be2e090c)
sous la forme de séries développées suivant les puissances de
et de ![{\displaystyle \mu .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a1ef6db045c1f6193799bd25a4b68ba9f78646d2)
Comme
reste arbitraire, nous conviendrons de prendre
de telle sorte que la valeur initiale de
soit égale à 1.
Les
et les
sont alors développés suivant les puissances de
et de
mais les
et les
sont, comme nous l’avons vu,
développantes suivant les puissances de
de
des
et des
et, d’autre part,
est développable suivant les puissances de
Donc les
et les
seront développantes suivant les puissances
de
C.Q.F.D.
On aura en particulier
![{\displaystyle \mathrm {T} _{1}=\mathrm {T} _{1}^{0}+\mathrm {T} _{1}^{1}{\sqrt {\mu }}+\mathrm {T} _{1}^{2}\mu +\ldots .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/2c3dea367deefdafdac63d0b0fe796ce75487127)
Comme, d’après notre hypothèse,
qui est la valeur initiale
de
doit être égale à 1, quel que soir
on aura pour ![{\displaystyle t=0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/43469ec032d858feae5aa87029e22eaaf0109e9c)
![{\displaystyle \mathrm {T} _{1}^{0}=1,\qquad 0=\mathrm {T} _{1}^{1}=\mathrm {T} _{1}^{2}=\ldots =\mathrm {T} _{1}^{m}=\ldots .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b7c472330acea94cf2ca32fcae8d217e79593030)
Ayant ainsi démontré l’existence de nos séries, nous allons chercher
à en déterminer les coefficients.
Nous avons
![{\displaystyle \mathrm {S} _{i}^{0}=0,\quad \mathrm {T} _{i}^{0}=\eta _{i}^{0}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/cfc3e405ca37aa5c0da6dd5aa197d314cfcd4902)
et
(4)
|
|
|
Nous développerons d’autre part les dérivées secondes de
qui entrent comme coefficients dans les équations (2) en écrivant
(5)
|
|
|
Ces développements ne contiennent que des puissances entières
de
et ne possèdent pas, comme les développements (4), des
termes dépendants de
On observera que
(6)
|
|
|
Nous substituons dans les équations (2) les valeurs (4) et (5) à la
place des
des
de leurs dérivées et des dérivées secondes de
Dans les expressions (4) je suppose que
soit développé suivant
les puissances de
sauf lorsque cette quantité
entre dans un
facteur exponentiel ![{\displaystyle e^{\alpha t}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8587363d584cff3e03c759cf7938443cb330f31e)
Nous identifierons ensuite en égalant les puissances semblables
de
et nous obtiendrons ainsi une série d’équations qui permettent
de déterminer successivement
![{\displaystyle \alpha _{1},\quad \alpha _{2},\quad \alpha _{3},\quad \ldots ,\quad \mathrm {S} _{i}^{0},\quad \mathrm {S} _{i}^{1},\quad \ldots ,\quad \mathrm {T} _{i}^{0},\quad \mathrm {T} _{i}^{1},\quad \ldots .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c9c5d4f4306e1b2a198435d2a1f8318597815851)
Je n’écrirai que les premières de ces équations obtenues en
égalant successivement les termes tout connus, les termes en
les termes en
Je fais d’ailleurs disparaître le facteur
qui se trouve partout.
Égalons d’abord les termes en
il vient
(7)
|
|
|
Égalons les termes en
il vient
(8)
|
|
|
outre trois équations analogues donnant les
Si l’on tient compte maintenant des relations (6), les équations (7) deviennent
![{\displaystyle {\frac {d\mathrm {S} _{i}^{1}}{dt}}=0,\qquad {\frac {d\mathrm {T} _{i}^{1}}{dt}}+\alpha _{1}\eta _{i}^{0}={\textstyle \sum }_{k}\mathrm {C} _{ik}^{0}\mathrm {S} _{k}^{1}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e4a9a3a2a68eb84b2c1c5f46eba0ecad5e796609)
La première de ces équations montre que
et
sont des constantes. Quant à la seconde, elle montre que
est une constante ; mais comme
doit être une
fonction périodique, cette constante doit être nulle, de sorte qu’on a
(9)
|
|
|
ce qui établit trois relations entre les trois constantes
les trois
constantes
et la quantité inconnue ![{\displaystyle \alpha _{1}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/06c070a9483001b49a22f95b117c8ae45ddf1c95)
De son côté, l’équation (8) s’écrira
![{\displaystyle {\frac {d\mathrm {S} _{i}^{2}}{dt}}+\alpha _{1}\mathrm {S} _{i}^{1}={\textstyle \sum }_{k}\mathrm {B} _{ik}^{2}\eta _{k}^{0}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/d7c35c6d14aabcc8015a16859ec99c35eac7b193)
Les
sont des fonctions périodiques de
développons-les
d’après la formule de Fourier et soit
le terme tout connu de
Il viendra
![{\displaystyle \alpha _{1}\mathrm {S} _{i}^{1}={\textstyle \sum }_{k}b_{ik}\eta _{i}^{0}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a2f87b6af564dd3336d2c420e528914c12cac8a6)
ou, en tenant compte des équations (9),
(10)
|
|
|
En faisant dans cette équation (10)
et
nous aurons trois
relations linéaires et homogènes entre les trois constantes
En
éliminant ces trois constantes, nous aurons alors une équation du
troisième degré qui déterminera ![{\displaystyle \alpha _{1}^{2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/50c3d1a4d99c8b1929fe114a2cf8222d8a1a3ea8)
Si nous posons, pour abréger,
![{\displaystyle e_{ik}=b_{i1}\mathrm {C} _{1k}^{0}+b_{i2}\mathrm {C} _{2k}^{0}+b_{i3}\mathrm {C} _{3k}^{0},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5a8651a77279a149512644e82bc0a7a1e76f4cdf)
l’équation due à cette élimination s’écrira
(11)
|
|
|
Elle peut encore s’écrire
![{\displaystyle \left|{\begin{array}{cccccc}-\alpha _{1}&0&0&\mathrm {C} _{1\,1}^{0}&\mathrm {C} _{1\,2}^{0}&\mathrm {C} _{1\,3}^{0}\\0&-\alpha _{1}&0&\mathrm {C} _{2\,1}^{0}&\mathrm {C} _{2\,2}^{0}&\mathrm {C} _{2\,3}^{0}\\0&0&-\alpha _{1}&\mathrm {C} _{3\,1}^{0}&\mathrm {C} _{3\,2}^{0}&\mathrm {C} _{3\,3}^{0}\\b_{1\,1}&b_{1\,2}&b_{1\,3}&-\alpha _{1}&0&0\\b_{2\,1}&b_{2\,2}&b_{2\,3}&0&-\alpha _{1}&0\\b_{3\,1}&b_{3\,2}&b_{3\,3}&0&0&-\alpha _{1}\\\end{array}}\right|=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e71e881debb906fbe1ae1357d176b95f0b754764)
La détermination de
est la seule partie du calcul qui présente
quelque difficulté.
Les équations analogues à (7) et à (8), formées en égalant dans
les équations (2) les coefficients des puissances semblables de
permettent ensuite de déterminer sans peine les
les
et
les
Nous pouvons donc énoncer le résultat suivant :
Les exposants caractéristiques
sont développables suivant
les puissances croissantes de
Concentrant donc toute notre attention sur la détermination
de
nous allons étudier spécialement l’équation (11). Nous
devons chercher d’abord à déterminer les quantités
et
On a évidemment
![{\displaystyle \mathrm {C} _{ik}^{0}=-{\frac {d^{2}\mathrm {F} _{0}}{dx_{i}^{0}\,dx_{k}^{0}}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e3186741459adadbd446fdaf5c17f96e7d0d67bf)
et
![{\displaystyle \mathrm {B} _{ik}^{0}={\frac {d^{2}\mathrm {F} _{1}}{dy_{i}^{0}\,dy_{k}^{0}}},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/df544ecab7ec9f81cf84d30b1d8a040e2d6784a3)
ou
![{\displaystyle {\begin{aligned}\mathrm {B} _{ik}^{0}&=-{\textstyle \sum }\mathrm {A} m_{i}m_{k}\sin \omega ,&&\left(\omega =m_{1}y_{1}^{0}+m_{2}y_{2}^{0}+m_{3}y_{3}^{0}+h\right)\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4cd8a3a64c807b8d952905d8888c6085d12afab9)
et
![{\displaystyle b_{ik}=-\mathbb {S} \,\mathrm {A} m_{i}m_{k}\sin \omega .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/815611e3ed0da99d78cd0f6145aebfeba0cd08d8)
La sommation représentée par le signe
s’étend à tous les termes,
quelles que soient les valeurs entières attribuées à
et
La sommation représentée par le signe
s’étend seulement aux
termes tels que
![{\displaystyle n_{1}m_{1}+n_{2}m_{2}+n_{3}m_{3}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9601511bf9a54011b3870ec43c329efc16bee82a)
Sous le signe
nous avons par conséquent
![{\displaystyle \omega =m_{2}\varpi _{2}+m_{3}\varpi _{3}+h.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5563648243091c9251989eea08c2a864422a6fe9)
Cela nous permet d’écrire
![{\displaystyle b_{ik}={\frac {d^{2}\mathrm {R} }{d\varpi _{i}\,d\varpi _{k}}}\quad (\mathrm {pour} \;i\;\mathrm {et} \;k=2\;\mathrm {ou} \;3).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/7cc58c102fd2445c4e527efb4c10c99d3ad54317)
Si un ou deux des indices
et
sont égaux à 1,
sera défini par
la relation
![{\displaystyle n_{1}b_{i1}+n_{2}b_{i2}+n_{3}b_{i3}=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/41bcac833711151833b632acdae7f2997a333c5f)
Nous allons, à l’aide de cette dernière relation, transformer
l’équation (11) de façon à mettre en évidence l’existence de deux
racines nulles et à réduire l’équation au quatrième degré.
Je trouve en effet, par une simple transformation de déterminant
et en divisant par
![{\displaystyle \left|{\begin{array}{cccccc}n_{1}&n_{2}&n_{3}&0&0&0\\0&-\alpha _{1}&0&b_{2\,2}&b_{2\,3}&0\\0&0&-\alpha _{1}&b_{3\,2}&b_{3\,3}&0\\\mathrm {C} _{1\,3}^{0}&\mathrm {C} _{2\,3}^{0}&\mathrm {C} _{3\,3}^{0}&-\alpha _{1}&0&n_{3}\\\mathrm {C} _{1\,2}^{0}&\mathrm {C} _{2\,2}^{0}&\mathrm {C} _{3\,2}^{0}&0&-\alpha _{1}&n_{2}\\\mathrm {C} _{1\,1}^{0}&\mathrm {C} _{2\,1}^{0}&\mathrm {C} _{3\,1}^{0}&0&0&n_{1}\\\end{array}}\right|=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0f25bba614851b142d025898e3fb9402599e5d6d)
Dans le cas particulier où l’on n’a plus que 2 degrés de liberté, cette équation s’écrit
![{\displaystyle \left|{\begin{array}{cccc}n_{1}&n_{2}&0&0\\0&-\alpha _{1}&{\dfrac {d^{2}\mathrm {R} }{d\varpi _{2}^{2}}}&0\\\mathrm {C} _{1\,2}^{0}&\mathrm {C} _{2\,2}^{0}&-\alpha _{1}&n_{2}\\\mathrm {C} _{1\,1}^{0}&\mathrm {C} _{2\,1}^{0}&0&n_{1}\\\end{array}}\right|=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/56c8e934238ef6c4cef66eef7a7d34e7206d7ec6)
ou
![{\displaystyle n_{1}^{2}\alpha _{1}^{2}={\frac {d^{2}\mathrm {R} }{d\varpi _{2}^{2}}}\left(n_{1}^{2}\mathrm {C} _{22}^{0}-2n_{1}n_{2}\mathrm {C} _{12}^{0}+n_{2}^{2}\mathrm {C} _{11}^{0}\right).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/726a1e379d0ecb4c09ab3740425ae48587bb1f67)
L’expression
ne dépend que
de
et
ou, si l’on veut, de
et de
Quand nous nous
serons donné les deux nombres
et
dont le rapport doit être commensurable,
nous pourrons regarder
comme une constante donnée. Alors le signe de
dépend seulement de
celui de ![{\displaystyle {\frac {d^{2}\mathrm {R} }{d\varpi _{2}^{2}}}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/7a0473071368f618677b210b834d1336f7f81cc0)
Quand on s’est donné
et
on forme l’équation
(12)
|
|
|
Nous avons vu au no 42 qu’à chaque racine de cette équation correspond
une solution périodique.
Considérons le cas général où l’équation (12) n’a que des racines
simples ; chacune de ces racines correspond alors à un maximum
ou à un minimum de
Mais la fonction
étant périodique,
présente dans chaque période au moins un maximum et un minimum
et précisément autant de maxima que de minima.
Or pour les valeurs de
correspondant a un minimum,
est positif ; pour les valeurs correspondant à un maximum, cette
dérivée est négative.
Donc l’équation (12) aura précisément autant de racines pour
lesquelles cette dérivée sera positive que de racines pour lesquelles
cette dérivée sera négative, et par conséquent autant de
racines pour lesquelles
sera positif que de racines pour
lesquelles
sera négatif.
Cela revient à dire qu’il y aura précisément autant de solutions
périodiques stables que de solutions instables, en donnant à ce
mot le même sens que dans le no 59.
Ainsi, à chaque système de valeurs de
et de
correspondront au moins une solution périodique stable et une solution
périodique instable et précisément autant de solutions
stables que de solutions instables, pourvu que
soit suffisamment petit.
Je n’examinerai pas ici comment ces résultats s’étendraient au
cas où l’équation (12) aurait des racines multiples.
Voici comment il faudrait continuer le calcul.
Imaginons que l’on ait déterminé complètement les quantités
![{\displaystyle \alpha _{1},\quad \alpha _{2},\quad \ldots ,\quad \alpha _{m}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/432b109bdc8f376656855c169116daf876bac8d9)
et les fonctions
![{\displaystyle {\begin{array}{c}\mathrm {S} _{i}^{0},\quad \mathrm {S} _{i}^{1},\quad \ldots ,\quad \mathrm {S} _{i}^{m},\\[1.5ex]\mathrm {T} _{i}^{0},\quad \mathrm {T} _{i}^{1},\quad \ldots ,\quad \mathrm {T} _{i}^{m-1},\end{array}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a582cf24974c2aa8bb4006f264fbfdd2bd4998be)
et que l’on connaisse les fonctions
et
à une constante près. Supposons qu’on se propose ensuite de calculer
d’achever la détermination des fonctions
et
et de
déterminer ensuite les fonctions
et
à une constante près.
En égalant les puissances semblables de
dans les équations (4), on obtient des équations de la forme suivante, analogues aux
équations (7) et (8),
(13)
|
|
|
Les deux membres de ces équations (12) sont des fonctions périodiques
de
Égalons la valeur moyenne de ces deux membres. Si
nous désignons par
la valeur moyenne d’une fonction périodique
quelconque
si nous observons que, si
est périodique, on a
![{\displaystyle \left[{\frac {d\mathrm {U} }{dt}}\right]=0\,;}](https://wikimedia.org/api/rest_v1/media/math/render/svg/4bf712ed1ea02ddd31606f1531060d030d2fd545)
si nous rappelons que,
étant connu à une constante près,
et
![{\displaystyle \left[\mathrm {B} _{ik}^{2}\left(\mathrm {T} _{k}^{m}-[\mathrm {T} _{k}^{m}]\right)\right]}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9bd72da0c58cf98322c078c4d2bef04931bda00a)
sont des quantités connues, nous obtiendrons les équations suivantes :
(14)
|
|
|
Ces équations (14) vont nous servir à calculer
et
et par conséquent à achever la détermination des fonctions
et
qui ne sont encore connues qu’à une constante près.
Si l’on additionne les équations (i4) après les avoir respectivement
multipliées par
![{\displaystyle \mathrm {S} _{1}^{1},\quad \mathrm {S} _{2}^{1},\quad \mathrm {S} _{3}^{1},\quad \mathrm {T} _{1}^{0},\quad \mathrm {T} _{2}^{0},\quad \mathrm {T} _{3}^{0},}](https://wikimedia.org/api/rest_v1/media/math/render/svg/33deaa758b4bb50c00c0b99892212c2aaf9c1d9f)
on trouve
![{\displaystyle 2\sum \mathrm {S} _{i}^{1}\mathrm {T} _{i}^{0}\alpha _{m+1}={\text{quantité connue}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/90a922fe89edf2d335a192400567aacaca97160a)
ce qui détermine ![{\displaystyle \alpha _{m+1}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c9bb53436a9798adff8ffaba05abec5f9c2f66fe)
Si dans les équations (14) on remplace
par la valeur ainsi
trouvée, on a, pour déterminer les six inconnues
et
six équations linéaires dont cinq seulement sont indépendantes.
Cela posé, on déterminera
par la condition que
soit nul pour
conformément à l’hypothèse faite plus haut, et les
cinq équations (14) restées indépendantes permettront de calculer
les cinq autres inconnues.
Les équations (13) nous permettront ensuite de calculer
et
et, par conséquent, de déterminer les fonctions
et
à une constante près ; et ainsi de suite.
Solutions dégénérescentes.
80.Reprenons les équations (1) du numéro précédent
(1)
|
|
|
Nous avons supposé qu’il existait une solution périodique de période ![{\displaystyle \mathrm {T} }](https://wikimedia.org/api/rest_v1/media/math/render/svg/06cc73e47284b51d2ab60d333176c2366a333e7d)
![{\displaystyle {\begin{aligned}x_{i}&=\varphi _{i}(t),&y_{i}&=\psi _{i}(t)\,;\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/dbdb52846dbba955a8947c689577b6bc495bd7a3)
posant ensuite
![{\displaystyle {\begin{aligned}x_{i}&=\varphi _{i}(t)+\xi _{i},&y_{i}&=\psi _{i}(t)+\eta _{i},\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1dd309daff57bb87198aa40aaf7fd62e41858684)
nous avons formé les équations aux variations
(2)
|
|
|
Ces équations, ayant en général quatre exposants caractéristiques
différents de 0, admettront quatre solutions particulières de la forme
![{\displaystyle {\begin{aligned}\xi _{i}&=e^{\alpha t}\mathrm {S} _{i},&\eta _{i}&=e^{\alpha t}\mathrm {T} _{i},\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ea6ddc622053e4fa26da184d2cb159d5783693be)
et
étant périodiques. Nous avons appris à former ces intégrales.
Mais les équations (2) auront, en outre, deux exposants caractéristiques
nuls : elles admettront donc deux solutions particulières de la forme
(3)
|
|
|
étant périodiques de même période que
et ![{\displaystyle \mathrm {T} _{i}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/26b21ebbec0d2530fe5d289b61ea9b4bd1aa719a)
Comment doit-on s’y prendre pour former ces solutions (3) ?
Nous avons vu au no 42 que les équations (1) admettent une
solution périodique
(4)
|
|
|
de période
![{\displaystyle {\frac {\mathrm {T} }{1+\varepsilon }}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/334ea951eda80ff345a3d1e63683a805a38f689e)
qui se réduit à
![{\displaystyle x_{i}=\varphi _{i}(t),\qquad y_{i}=\psi _{i}(t)}](https://wikimedia.org/api/rest_v1/media/math/render/svg/20cab0f7aa1b9b76c216d65690457a41181757d2)
pour
![{\displaystyle t=0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9248d91021260015d75d2b7540612616bbb36b88)
Les fonctions
et
sont développables suivant les puissances
croissantes de
Posons maintenant
![{\displaystyle t={\frac {u}{1+\varepsilon }},\quad }](https://wikimedia.org/api/rest_v1/media/math/render/svg/46311918e335900ae4f46d20dae9b42121592c29)
d’où
![{\displaystyle \quad u=t(1+\varepsilon ).}](https://wikimedia.org/api/rest_v1/media/math/render/svg/c2e93f15b92d12688e76df498e33075385e71298)
Si nous substituons cette valeur à la place de
dans les équations (4), il viendra
![{\displaystyle {\begin{aligned}x_{i}&=\theta _{i}(u,\,\mu ,\,\varepsilon ),&y_{i}&=\Theta _{i}(u,\,\mu ,\,\varepsilon ).\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/1ef0d211720e1f152775144eb49067b6da6146bb)
Les fonctions
et
seront encore développables suivant les
puissances de
et de
mais elles seront périodiques en
et la
période sera constante et égale à
elles seront donc développables
suivant les sinus et cosinus des multiples de ![{\displaystyle {\frac {2\pi u}{\mathrm {T} }}\cdot }](https://wikimedia.org/api/rest_v1/media/math/render/svg/89763fdcf4df0f5205c95553bcf39181945889ef)
Si
est une constante quelconque
![{\displaystyle {\begin{aligned}x_{i}&=\varphi _{i}(t+h,\,\mu ,\,\varepsilon ),&y_{i}&=\psi _{i}(t+h,\,\mu ,\,\varepsilon )\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9868b3d3c624856d0049055f61a5ecb84a6de6fd)
est encore une solution des équations (1), puisque le temps n’entre
pas explicitement dans ces équations. Cette solution contient deux
constantes arbitraires
et ![{\displaystyle \varepsilon .}](https://wikimedia.org/api/rest_v1/media/math/render/svg/5807913813d5188ce49b63a9b26d43f7a7763c19)
Le no 54 nous fournit le moyen d’en déduire deux solutions des
équations aux variations (2).
Ces solutions s’écrivent
![{\displaystyle {\begin{aligned}\xi _{i}&={\frac {d\varphi _{i}}{dh}},&\eta _{i}&={\frac {d\psi _{i}}{dh}}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6827297badddf85c0ff65f8f8eb47851ba056808)
et
![{\displaystyle {\begin{aligned}\xi _{i}&={\frac {d\varphi _{i}}{d\varepsilon }},&\eta _{i}&={\frac {d\psi _{i}}{d\varepsilon }}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/ca682c081a094c0374abfc333ae27cf320f2111b)
Après la différentiation il faut faire ![{\displaystyle h=\varepsilon =0.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a6b0c5d5c8f95b4ede7bbe61f1ff33432540efff)
Or il vient
![{\displaystyle {\begin{aligned}\varphi _{i}(t,\,\mu ,\,\varepsilon )&=\,\theta _{i}\,\left[t(1+\varepsilon ),\,\mu ,\,\varepsilon \right],\\\psi _{i}(t,\,\mu ,\,\varepsilon )&=\Theta _{i}\left[t(1+\varepsilon ),\,\mu ,\,\varepsilon \right],\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/09cb402a1d3929dad7cb6da04c902ce79de4cc4d)
d’où
![{\displaystyle {\begin{aligned}{\frac {d\varphi _{i}}{dh}}={\frac {d\varphi _{i}}{dt}}&=\,{\frac {d\theta _{i}}{du}}{\frac {du}{dt}}=\,{\frac {d\theta _{i}}{du}}(1+\varepsilon ),\\[0.5ex]{\frac {d\psi _{i}}{dh}}={\frac {d\psi _{i}}{dt}}&={\frac {d\Theta _{i}}{du}}{\frac {du}{dt}}={\frac {d\Theta _{i}}{du}}(1+\varepsilon ),\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3194dacacf5e82ecf121068561b679e9cb818b1a)
et pour
![{\displaystyle \varepsilon =0}](https://wikimedia.org/api/rest_v1/media/math/render/svg/0cbe653d369abd71fc0be98efbf59e9edc1bdfb2)
![{\displaystyle {\begin{aligned}{\frac {d\varphi _{i}}{dh}}&={\frac {d\theta _{i}}{du}},&{\frac {d\psi _{i}}{dh}}&={\frac {d\Theta _{i}}{du}}\cdot \end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/b0d5623b4158f0199d3302c695adf46554b1d005)
D’autre part,
![{\displaystyle {\begin{aligned}{\frac {d\varphi _{i}}{d\varepsilon }}=\,{\frac {d\theta _{i}}{du}}{\frac {du}{d\varepsilon }}+\,{\frac {d\theta _{i}}{d\varepsilon }}&=t\,{\frac {d\theta _{i}}{du}}+\,{\frac {d\theta _{i}}{d\varepsilon }},\\{\frac {d\psi _{i}}{d\varepsilon }}={\frac {d\Theta _{i}}{du}}{\frac {du}{d\varepsilon }}+{\frac {d\Theta _{i}}{d\varepsilon }}&=t{\frac {d\Theta _{i}}{du}}+{\frac {d\Theta _{i}}{d\varepsilon }}\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/3c411ae5be360e07d962f6c52699014b519bfb41)
ou, pour ![{\displaystyle \varepsilon =0,}](https://wikimedia.org/api/rest_v1/media/math/render/svg/56d1434c2a7b053df85fcf6ddc3d30bc4d5fde31)
![{\displaystyle {\begin{aligned}{\frac {d\varphi _{i}}{d\varepsilon }}&=t{\frac {d\varphi _{i}}{dt}}+{\frac {d\theta _{i}}{d\varepsilon }},&{\frac {d\psi _{i}}{d\varepsilon }}&=t{\frac {d\psi _{i}}{dt}}+{\frac {d\Theta _{i}}{d\varepsilon }}\cdot \end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/8c102115e52466cc299b21d768f730dede4ac344)
Les solutions cherchées des équations (2) sont donc
![{\displaystyle {\begin{aligned}\xi _{i}&=\mathrm {S} ''_{i}={\frac {d\varphi _{i}}{dt}},&\eta _{i}&=\mathrm {T} ''_{i}={\frac {d\psi _{i}}{dt}}\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9b0cd214db62dc295c9b67922397e3c8184c8115)
et
![{\displaystyle {\begin{aligned}\xi _{i}&=t\mathrm {S} ''_{i}+\mathrm {S} _{i}^{\star },&\eta _{i}&=t\mathrm {T} ''_{i}+\mathrm {T} _{i}^{\star }\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/a59c0d319006510a7ad0f412d4397c44f147ab2a)
avec
![{\displaystyle {\begin{aligned}\mathrm {S} _{i}^{\star }&={\frac {d\theta _{i}}{d\varepsilon }},&\mathrm {T} _{i}^{\star }&={\frac {d\Theta _{i}}{d\varepsilon }}\cdot \end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/bb2df75dead9b664e6f50e0c5775ac369295db04)
Je dis que les fonctions
sont
périodiques en
de période
En effet,
et
sont périodiques de période
en
cette période étant indépendante de
les dérivées
(5)
|
|
|
seront également périodiques en
Mais, pour
si
donc on fait après la différentiation
ces quatre dérivées (5),
c’est-à-dire les quatre fonctions
seront périodiques en
C.Q.F.D.
Ces quatre fonctions seront, comme
et
dont elles sont les
dérivées, développables suivant les puissances croissantes et positives
de
(je rappelle que
et
dans le numéro
précédent, étaient développables suivant les puissances non de
mais de
).
Pour
se réduit à une constante
donc
s’annule. Donc
est divisible par
de même que dans le numéro précédent
était divisible par
Au contraire
n’est pas divisible par
Dans un Mémoire que j’ai publié dans les Acta mathematica,
t. XIII, p. 157, je suis amené à considérer des équations analogues
aux équations (2) et deux solutions particulières de ces équations
![{\displaystyle {\begin{aligned}\xi _{i}&=\mathrm {S} ''_{i},&\eta _{i}&=\mathrm {T} ''_{i},\\\xi _{i}&=\mathrm {S} '''_{i}+\alpha t\mathrm {S} ''_{i},&\eta _{i}&=\mathrm {T} '''_{i}+\alpha t\mathrm {T} ''_{i}.\\\end{aligned}}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/e3bca7a07389c2377adfb5f724eda6d0e91d53c7)
J’appelle
un des exposants caractéristiques, de telle sorte que
est développable suivant les puissances impaires de
et que
est lui-même développable suivant les puissances de
et est divisible par ![{\displaystyle \alpha ^{2}.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/74634cf2918e42f7ff1500ba66072c926c24e23b)
Je suppose que l’on remplace
par cette valeur, de sorte que
toutes nos fonctions se trouvent développées suivant les puissances
de
J’annonce ensuite que
et
sont divisibles par
En effet
comme nous venons de le voir, est divisible par
et
par
D’autre part, nous avons manifestement
![{\displaystyle \mathrm {S} ''_{i}=\alpha \mathrm {S} _{i}^{\star },}](https://wikimedia.org/api/rest_v1/media/math/render/svg/9776ca8c3d467fe7e874464a74e9e8b7586809e5)
puisqu’il faut multiplier par
la solution que je viens d’étudier
![{\displaystyle \xi _{i}=\mathrm {S} _{i}^{\star }+t\mathrm {S} ''_{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/825c5467a6fe5bdde7a90682c03bcc10b1304972)
pour obtenir la solution considérée dans les Acta mathematica
![{\displaystyle \xi _{i}=\mathrm {S} '''_{i}+\alpha t\mathrm {S} ''_{i}}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6790666eae19ed3413d6ec990a598139a86960b0)
J’ai cru devoir faire cette remarque parce qu’un lecteur inattentif
aurait pu ne pas prendre garde à ce facteur
et croire à une
contradiction entre le résultat énoncé dans les Acta et ceux que je
viens de démontrer.