Méthode des moindres carrés/Supplément

Traduction par Joseph Bertrand.
Mallet-Bachelier (p. 70-112).

SUPPLÉMENT
À LA
THÉORIE DE LA COMBINAISON DES OBSERVATIONS
QUI EXPOSE AUX MOINDRES ERREURS.


PRÉSENTÉ LE 16 SEPTEMBRE 1826 À LA SOCIÉTÉ ROYALE DE GOTTINGUE.

Dans le Mémoire précédent, on a supposé que les quantités à déterminer, à l’aide d’observations imparfaites, fussent dépendantes de certains éléments inconnus, en fonction desquels on sût les exprimer : le problème consistait alors à déduire des observations, le plus exactement possible, la valeur de ces éléments.

Dans la plupart des cas, c’est effectivement ainsi que la question se présente ; mais quelquefois il en est un peu autrement, et l’on pourrait même se demander, au premier abord, si le problème se ramène au précédent. Il n’est pas rare, en effet, que les quantités auxquelles se rapportent les observations ne soient pas explicitement exprimées en fonction de certains éléments, et qu’elles ne paraissent réductibles à une telle forme que par des opérations difficiles ou ambiguës. Il arrive souvent, d’autre part, que la nature du problème fournit certaines conditions auxquelles les valeurs observées doivent rigoureusement satisfaire.

Cependant, en y regardant de plus près, on aperçoit que ce cas ne diffère pas essentiellement du précédent, et qu’il peut s’y ramener. Si l’on nomme, en effet, le nombre des grandeurs observées, et celui des équations de condition, en choisissant, parmi les premières, quantités, rien ne nous empêche de les considérer comme nos seules inconnues, les autres étant regardées comme des fonctions de celles-là, que les équations de condition définissent. Par cet artifice, nous rentrerons dans le cas du Mémoire précédent.

Néanmoins, quoique cette marche conduise souvent au résultat d’une manière assez commode, ou ne peut nier qu’elle ne soit moins naturelle, et il est, par conséquent, désirable de traiter le problème sous l’autre forme, qui admet, du reste, une solution très-élégante. Il y a plus : cette solution nouvelle, conduisant à des calculs plus rapides que la précédente toutes les fois que est moindre que , ou, ce qui revient au même, toutes les fois que le nombre des éléments que nous avons désigné par dans le Mémoire précédent, est plus grand que , il faudra, dans ce cas, préférer la solution nouvelle, quand bien même il serait facile, par la nature du problème, de faire disparaître sans ambiguïté les équations de condition.

Désignons par , , , etc., les quantités, en nombre , dont les valeurs sont fournies par l’observation. Supposons qu’une inconnue dépende de celles-là et soit exprimée par une fonction connue , de , , , etc. Soient , , , etc., ce que deviennent les quotients différentiels

lorsqu’on y substitue à , , , etc., leurs valeurs véritables. Si l’on substituait à , , , etc., dans la fonction , leurs valeurs véritables, on obtiendrait aussi la véritable valeur de  ; mais si les observations sont affectées d’erreurs , , , etc., il en résultera pour une erreur totale représentée par

pourvu que l’on puisse, comme nous le supposerons toujours (lorsque n’est pas linéaire), négliger les carrés et les produits des erreurs , , , etc.

Quoique la grandeur des erreurs , , , etc., soit incertaine, l’incertitude attachée à la valeur trouvée pour peut généralement se mesurer par l’erreur moyenne à craindre dans la détermination adoptée. D’après les principes développés dans le premier Mémoire, cette erreur moyenne est

, , , etc., étant les erreurs moyennes des diverses observations. Si toutes les observations sont affectées du même degré d’incertitude, cette expression devient

Il est clair d’ailleurs qu’au degré d’approximation auquel nous nous arrêtons, on peut remplacer , , , etc., par les valeurs que prennent les coefficients différentiels

lorsqu’on y remplace , , , etc., par leurs valeurs observées.

3.

Lorsque les quantités , , , etc., sont indépendantes, l’inconnue ne peut se déterminer que d’une seule manière, et l’incertitude attachée au résultat ne peut être ni évitée ni diminuée. Les observations fournissent une valeur de l’inconnue qui n’a, dans ce cas, rien d’arbitraire. Il en est tout autrement lorsque les quantités , , , etc., sont liées par des relations nécessaires, que nous supposerons exprimées par équations,

, , , etc., désignant des fonctions données des indéterminées , , , etc. ; car, à la fonction , on peut, dans ce cas, substituer toute autre fonction telle, que la différence s’évanouisse identiquement en vertu des équations

Si les observations étaient rigoureusement exactes, cette substitution ne changerait en rien le résultat ; mais, en raison des erreurs inévitables, à chaque forme adoptée pour correspondra un résultat différent, et l’erreur commise, au lieu d’être

deviendra

en désignant par , , , etc., les quotients différentiels

Quoiqu’il soit impossible d’assigner la valeur des diverses erreurs, nous pouvons cependant comparer les erreurs moyennes à craindre dans les diverses combinaisons. La combinaison la plus avantageuse sera celle qui donnera, à l’erreur moyenne, la valeur minimum. Cette erreur étant

nous devons chercher à rendre la somme

aussi petite que possible.

4.

Les fonctions , en nombre infini, par lesquelles on peut remplacer , ne différeront les unes des autres, dans nos recherches, que par les valeurs qu’elles fourniront pour , , , etc. : nous devons donc, avant tout, chercher les relations qui existent entre les systèmes de valeurs que peuvent prendre ces coefficients. Désignons par

les valeurs que prennent les coefficients

si l’on y substitue pour , , , etc., leurs valeurs véritables. Il est clair que si l’on donne à , , , etc., des accroissements , , , etc., qui ne changent pas , , , etc., et leur laissent, par conséquent, la valeur zéro, ces accroissements, qui satisferont aux équations

ne changeront rien à la valeur de , et l’on aura, par conséquent,

On en conclut facilement que , , , etc., doivent avoir la forme

, , , etc., désignant des multiplicateurs déterminés. Réciproquement, il est clair que, pour toutes les valeurs de , , , etc., on pourra former une fonction , pour laquelle les valeurs , , , etc., seront précisément celles que fournissent ces équations, et cette fonction pourra, d’après ce qui précède, être substituée à . La forme la plus simple qu’on puisse lui donner est

désignant une fonction de , , , etc. qui s’annule identiquement lorsque , , , etc., sont nuls, et dont la valeur, dans le cas actuel, sera maximum ou minimum (car ses dérivées devront toutes s’annuler). Mais l’introduction de cette fonction n’apporte aucune différence dans les résultats.

5.

Il est maintenant facile d’assigner à , , , etc., des valeurs telles, que la somme

soit un minimum.

Il est clair que pour atteindre ce but, la connaissance des erreurs moyennes absolues , , , etc., n’est pas nécessaire ; il suffit de connaître leurs rapports. Introduisons, en effet, au lieu de ces quantités, les poids des observations, , , , etc., c’est-à-dire des nombres réciproquement proportionnels à , , , etc. Les quantités , , , etc., devront être déterminées de telle sorte que le polynôme

acquière une valeur minimum. Supposons que , , , etc., soient les valeurs déterminées de , , , etc., auxquelles répond ce minimum, et adoptons les notations suivantes :

La condition de minimum exige évidemment que l’on ait

(1)

Après que ces équations auront fourni les valeurs de , , , etc., on posera

(2)

et la fonction la plus propre à déterminer notre inconnue, à laquelle correspond l’erreur moyenne minimum, sera celle dont les coefficients différentiels, pour les valeurs considérées des variables, seront égaux à , , , etc. Le poids de la détermination ainsi obtenue, sera

(3)

c’est-à-dire que sera précisément la valeur que prend le polynôme considéré plus haut, pour les valeurs des variables , , , etc., qui satisfont aux équations (1).

6.

Dans l’article précédent, nous avons montré à déterminer la fonction qui fournit la détermination la plus convenable de l’inconnue . Examinons actuellement quelle est la valeur qui en résulte Désignons-la par  : on l’obtiendra en substituant, dans , les valeurs observées des quantités , , , etc. Soit la valeur que prend lorsqu’on y fait les mêmes substitutions, soit enfin la véritable valeur de cette inconnue, telle qu’on l’obtiendrait par la substitution des valeurs véritables de , , , etc., soit dans , soit dans . On aura

et, par conséquent,

Substituant, dans cette équation, à la place de , , , etc., leurs valeurs fournies par (2), et posant

(4)

nous aurons

(5)

Il n’est pas possible de calculer , , , etc., par le moyen des formules (4), car les erreurs , , , etc., qui y figurent, ont des valeurs inconnues, mais on voit facilement que ces quantités , , , etc., ne sont autre chose que les valeurs de , , , etc., qui correspondent aux valeurs observées de , , , etc., et alors le système des équations (1), (3), (5), forme la solution complète de notre problème. Il est clair, en effet, que l’on peut appliquer au calcul de , , , , , , , etc., la remarque faite à la fin de l’article 2, à l’occasion des quantités , , , etc., c’est-à-dire remplacer les valeurs véritables de , , , etc., par les valeurs observées.

7.

On peut substituer à la formule (3), qui représente le poids de la détermination la plus probable, plusieurs expressions qu’il est utile d’indiquer ; remarquons, d’abord, qu’en ajoutant les équations (2) après les avoir multipliées par , , , etc., on aura

Le premier membre est nul ; en désignant donc, d’après la notation adoptée, le second membre par , on aura

et de même

Multiplions ensuite les équations (2) par , , , etc. ; nous aurons, en les ajoutant,

et, par suite, nous avons cette seconde expression du poids,

Si, enfin, nous ajoutons les mêmes équations (2) après les avoir multipliées par , , , etc., nous obtiendrons une troisième expression du poids,

où l’on a posé, conformément à la notation précédente,

On passera facilement de là à la quatrième expression du poids,

8.

La solution générale que nous venons d’exposer s’applique principalement au cas où l’on n’a qu’une seule inconnue à déterminer. Lorsqu’on cherche, au contraire, les valeurs les plus plausibles de plusieurs inconnues, dépendant des mêmes observations, ou lorsqu’on ignore quelles sont les inconnues qu’il faut, de préférence, déduire des observations, il convient de procéder d’une manière différente, dont nous allons actuellement nous occuper.

Considérons , , , etc., comme des indéterminées, et posons

(6)

Supposons que l’on en déduise, par l’élimination,

(7)

et remarquons, avant tout, que les coefficients placés symétriquement sont nécessairement égaux, c’est-à-dire que

comme cela résulte de la théorie de l’élimination et comme d’ailleurs nous le démontrons plus loin ; nous aurons

(8)

et en posant

(9)

nous obtiendrons

et si nous posons de plus,

(10)

il viendra

(11)
9.

La comparaison des équations (7) et (9) nous apprend que les quantités auxiliaires , , , etc., sont les valeurs que prennent les indéterminées , , , etc., lorsque l’on suppose

on en conclut évidemment,

(12)

En ajoutant les équations (10) après les avoir multipliées par , , , etc., on obtient

(13)

étant, comme on l’a dit, la valeur que prend lorsqu’on substitue à , , , etc., leurs valeurs observées ; on aperçoit facilement que si l’on applique à chacune de ces quantités les corrections , , , etc., la valeur de devient égale à zéro, et que de même , , etc., s’évanouissent par cette hypothèse. L’équation (11) prouve aussi que est la valeur que prend par suite des mêmes substitutions.

En nommant compensation des observations, l’application des corrections , , , etc., aux grandeurs directement observées, nous sommes conduit à une conséquence très-importante :

Les observations compensées comme nous l’avons indiqué, satisfont exactement à toutes les équations de condition, et font prendre à toute fonction des quantités observées la valeur qui résulterait de la combinaison la plus convenable des observations non modifiées ; et puisque les équations de condition sont trop peu nombreuses pour qu’on puisse en déduire les valeurs exactes des erreurs, nous aurons au moins trouvé, par ce qui précède, les erreurs les plus plausibles. C’est sous ce nom que les quantités , , , etc., seront désormais désignées.

10.

Le nombre des observations étant plus grand que celui des équations de condition, outre le système des corrections les plus plausibles, on peut en trouver un nombre infini qui rendent les équations de condition exactement satisfaites.

Il importe d’examiner les relations qui lient entre eux ces divers systèmes. Soit , , , etc., un pareil système de corrections, autre que le système le plus plausible ; nous aurons

Multipliant ces équations par , , , etc., et ajoutant, il vient, en ayant égard aux équations (10),

Mais les équations (13) combinées de la même manière donnent

(14)

de la combinaison de ces résultats on déduit facilement

et, par suite, la somme

est, nécessairement, plus grande que

ce que l’on peut énoncer de la manière suivante :

Théorème.Les carrés des corrections qui peuvent concilier les observations avec les équations de condition étant respectivement multipliés par les poids des observations correspondantes, donnent une somme minimum quand on adopte les corrections les plus plausibles.

On reconnaît précisément le principe des moindres carrés dont, au reste, les équations (12) et (10) peuvent facilement se déduire. La somme minimum, que nous désignerons désormais par , est égale, d’après l’équation (14), à

11.

La détermination des erreurs les plus plausibles étant indépendante de , , , etc., fournit la préparation la plus commode, quel que soit l’usage que l’on veuille faire ultérieurement des observations. En outre, on voit sans peine que, pour atteindre ce but, il n’est pas nécessaire d’effectuer l’élimination indéfinie, c’est-à-dire de calculer , , etc., il suffit de déduire des équations (12), par une élimination définie, les quantités auxiliaires , , , etc., que nous nommerons, dans ce qui va suivre, les corrélatifs des équations de condition

ces quantités seront ensuite substituées dans l’équation (10).

Cette méthode ne laisse rien à désirer lorsqu’on demande seulement les valeurs les plus plausibles des quantités fournies par l’observation. Mais il en est autrement lorsqu’on désire, en outre, le poids de chacune des valeurs trouvées. Quelle que soit alors celle des quatre formules précédentes que l’on veuille employer, il est indispensable de connaître , , , etc., ou, ce qui revient au même, , , , etc. ; par cette raison, il sera utile d’étudier, de plus près, l’élimination qui fournit ces quantités et d’obtenir une méthode plus commode pour la détermination des poids.

12.

Les relations qui lient les quantités dont nous nous occupons sont notablement simplifiées par la considération de la fonction indéfinie du second degré

que nous désignerons par .

Cette fonction est évidemment égale à

(15)

De plus, on a évidemment

(16)

et si, enfin, ou exprime , , , etc., au moyen des équations (7), en fonction de , , , etc., on aura

La théorie développée plus haut fournit deux systèmes de valeurs déterminées pour les quantités , , , etc., , , , etc. Le premier est

à ce système correspond la valeur

ainsi qu’on le voit en comparant à l’équation (16), la troisième forme du poids , ou par la considération directe de la forme (4).

Le second système de valeurs est

la valeur correspondante de est

comme cela est évident par les formules (10) et (15), et encore par les formules (14) et (16).

13.

Nous devons, avant tout, faire subir à la fonction une transformation semblable à celle qui a été indiquée (Theoria Motus, art. 182), et, avec plus de développements, dans les Recherches sur Pallas.

Posons, à cet effet,

et, ensuite[1]

on aura

et , , , etc., se déduiront du , , , , etc., par les équations suivantes :

et l’on en tirera facilement toutes les formules utiles à notre but. Ainsi, pour déterminer les corrélatifs , , , etc., nous poserons

(18)

et enfin , , , , etc., s’obtiendront par les formules suivantes, en commençant par la dernière :

(19)

Pour exprimer , nous aurons la formule nouvelle

(20)

enfin, le poids , qu’il faut attribuer à la détermination la plus plausible de la quantité , sera donné par la formule

(21)

dans cette formule, on fait

(22)

Les formules (17), …, (21), dont la simplicité ne laisse rien à désirer, fournissent la solution complète de notre problème.

14.

Après avoir résolu le problème que nous avions en vue, nous allons aborder quelques questions secondaires qui éclaireront davantage l’ensemble de cette théorie.

Nous chercherons, en premier lieu, s’il peut arriver que l’élimination qui fournit , , , etc., en fonction de , , , etc., devienne, dans certains cas, impossible. Cela aurait évidemment lieu si les fonctions , , , etc., n’étaient pas indépendantes les unes des autres. Supposons, pour un instant, qu’il en soit ainsi, et que l’une d’elles puisse s’exprimer en fonction des autres, de telle sorte que l’on ait la relation identique

, , , etc., désignant des nombres déterminés.

On aura alors

et si nous posons

on en déduira

et, par suite,

, , , etc. étant, par leur nature, tous positifs, cette équation exige

Si nous considérons les différentielles complètes , , , etc., répondant aux valeurs de , , , etc., immédiatement fournies par les observations, ces différentielles

d’après les résultats précédents, seront liées, les unes aux autres, de telle sorte qu’en les multipliant respectivement par , , , etc., la somme des produits sera identiquement nulle, en sorte que, parmi les équations

il en est une au moins que l’on peut regarder comme inutile, car elle sera satisfaite dès que les autres le seront.

En examinant la question de plus près, on voit que cette conclusion n’est applicable qu’à des valeurs des variables infiniment peu différentes de celles que fournit l’observation. Il y a, en effet, deux cas à distinguer : le premier est celui où l’une des équations

est renfermée dans les autres d’une manière générale et absolue, et peut, par conséquent, être supprimée ; le second est celui où, pour les valeurs particulières de , , , etc., auxquelles se rapportent les observations, l’une des fonctions , , , etc., par exemple, acquiert une valeur maximum ou minimum, ou, plus généralement, une valeur dont la différentielle s’annule lorsque les autres équations restent satisfaites.

Mais comme nous ne considérons pour nos variables que des variations dont les carrés soient négligeables, ce second cas (qui dans les applications ne se présentera que bien rarement), pourra être assimilé au premier, et l’une des équations de condition pourra être supprimée comme surabondante.

Si les équations restantes sont indépendantes dans le sens que nous venons d’indiquer, on peut, d’après ce qui précède, être certain que l’élimination est possible. Nous nous réservons, du reste, de revenir sur cette matière qui mérite d’être examinée comme subtilité théorique plutôt que comme question d’une utilité pratique.

15.

Dans le premier Mémoire, art. 37 et suivants, nous avons montré le moyen de fixer, à posteriori, d’une manière très-approchée, le poids d’une détermination. Si les valeurs approchées de quantités sont fournies par des observations également précises, et qu’on les compare avec les valeurs qui résultent pour elles des hypothèses les plus plausibles qu’on puisse faire sur les éléments dont elles dépendent, on a vu qu’il fallait ajouter les carrés des différences obtenues, diviser la somme par , et que le quotient pouvait être regardé comme une valeur approchée du carré de l’erreur moyenne inhérente à ce genre d’observations.

Si les observations sont inégalement précises, la seule modification que l’on doive apporter aux préceptes précédents, consiste en ce que l’on doit multiplier les carrés des différences par les poids respectifs des observations correspondantes, et l’erreur moyenne obtenue de cette manière se rapporte aux observations dont le poids est pris pour unité.

Dans le cas actuel, la somme des carrés dont nous parlons se confond évidemment avec la somme , et la différence avec le nombre des équations de condition. Par suite, pour l’erreur moyenne des observations dont le poids est 1, nous aurons l’expression , et la détermination sera d’autant plus digne de confiance que sera plus considérable.

Mais il est bon d’établir ce résultat, indépendamment des raisonnements du premier Mémoire ; pour y parvenir, nous introduirons quelques notations nouvelles. Supposons qu’aux valeurs

répondent

de sorte que l’on ait

et, en outre, qu’aux valeurs

répondent

enfin, qu’aux valeurs

répondent

et ainsi de suite.

La combinaison des équations (4) et (9) fournit

et, comme on a

on aura

16.

La série des observations qui fournissent les quantités , , , etc., affectées des erreurs fortuites , , , etc., peut être considérée comme une épreuve qui ne fait pas connaître, il est vrai, la grandeur de chaque erreur, mais qui, par le moyen des règles exposées plus haut, permet de déterminer la quantité , fonction connue de toutes les erreurs. Dans une telle épreuve, les erreurs peuvent être les unes plus grandes, les autres plus petites ; mais plus sera grand le nombre des erreurs employées, plus il y aura une grande probabilité que diffère peu de sa valeur moyenne : la difficulté revient donc à trouver la moyenne de .

Par les principes exposés dans le premier Mémoire et qu’il est inutile de reproduire ici, on trouve pour cette valeur moyenne

En nommant l’erreur moyenne qui correspond aux observations dont le poids est 1, de telle sorte que l’on ait

l’expression précédente peut s’écrire comme il suit :

Mais on a trouvé

or, le second membre est l’unité, comme on le reconnaît facilement par la comparaison des équations (6) et (7).

On trouvera de même

et ainsi de suite.

D’après cela, la valeur moyenne de devient , et si l’on juge permis de regarder la valeur fortuite de comme égale à la valeur moyenne, on en conclut

17.

On peut apprécier la confiance que mérite cette détermination en calculant l’erreur moyenne à craindre, soit pour sa valeur propre, soit pour celle de son carré. La seconde sera la racine carrée de la valeur moyenne de l’expression

dont le développement s’obtiendra par des raisonnements semblables à ceux qui ont été exposés dans le premier Mémoire (art. 39 et suivants). Nous les supprimons pour abréger, en nous contentant d’indiquer le résultat.

L’erreur moyenne à craindre dans la détermination du carré s’exprime par

étant la valeur moyenne des quatrièmes puissances des erreurs dont le poids est l’unité, et la somme

Cette somme ne peut pas, en général, se simplifier ; mais, par un procédé analogue à celui dont on a fait usage au paragraphe 40 du premier Mémoire, on peut montrer que sa valeur est comprise entre et . Dans l’hypothèse sur laquelle nous avions primitivement établi la méthode des moindres carrés, le terme qui contient cette somme disparaît à cause de

et la précision que l’on doit attribuer à la détermination

est par conséquent la même que si l’on avait opéré sur observations entachées d’erreurs exactement connues, conformément aux préceptes des art. 15 et 16 du premier Mémoire.

18.

Pour la compensation des observations, il y a, comme nous l’avons dit, deux opérations à exécuter : premièrement, il faut déterminer les corrélatifs des équations de condition, c’est-à-dire , , , etc., qui satisfont aux équations (12) ; secondement, substituer ces quantités dans l’équation (10). La compensation ainsi obtenue peut être dite parfaite et complète, par opposition à la compensation imparfaite ou incomplète. Nous désignerons de cette dernière manière celles qui résultent des mêmes équations (10), dans lesquelles on substituera des valeurs de , , qui ne satisferont pas aux équations (12), c’est-à-dire qui satisferont à quelques-unes seulement, ou à aucune. Nous ne nous occuperons pas ici d’un tel système de corrections, et nous ne leur accorderons même pas le nom de compensation.

Lorsque les équations (10) sont satisfaites, les systèmes (12) et (13) deviennent équivalents, et la différence dont nous parlons peut alors s’énoncer comme il suit : Les observations complètement compensées satisfont aux équations de condition

les observations incomplètement compensées ne satisfont qu’à une portion de ces équations, et peut-être à aucune ; la compensation à la suite de laquelle toutes les équations sont satisfaites, est nécessairement complète.

19.

Il résulte de la définition même des compensations, que la réunion de deux systèmes de compensations peut en fournir un troisième, et l’on voit qu’il importe peu que les règles données pour obtenir une compensation parfaite soient appliquées aux observations primitives ou aux observations déjà imparfaitement compensées.

Soient , , , etc., un système de compensations incomplètes, résultant des formules

(I)

Les observations ainsi changées ne satisfaisant pas à toutes les équations de condition, soient , , , etc., les valeurs que prennent , , , etc., quand on y substitue les valeurs ainsi obtenues pour , , , etc. On devra chercher les valeurs , , , etc., satisfaisant aux équations

(II)

et cela fait, la compensation complète des observations ainsi modifiées se fera par les nouveaux changements , , , etc. ; , , , etc., se déduisant des formules

(III)

Cherchons comment ces corrections s’accordent avec la compensation complète des observations primitives. Il est clair d’abord que l’on a

En substituant dans ces équations, pour , , , etc., leurs valeurs fournies par le système (I), pour , , , etc., celles que donne le système (II), il vient

et il suit de là que les corrélatifs des équations de condition (12) sont

et alors les équations (10), (I) et (III) montrent que l’on a

et, par suite, la compensation parfaite a la même valeur pour chaque inconnue, soit qu’on la calcule directement, soit qu’on l’obtienne médiatement en partant d’une compensation incomplète.

20.

Lorsque les équations de condition sont très-nombreuses, la détermination des quantités corrélatives , , , etc., peut exiger des calculs tellement longs, que le calculateur en soit rebuté ; il pourra être avantageux d’obtenir, dans ce cas, une compensation complète, à l’aide d’une série d’approximations reposant sur le théorème de l’article précédent. On partagera, pour cela, les équations de condition en deux ou plusieurs groupes, et l’on cherchera d’abord une compensation qui rende satisfaites les équations du premier groupe. On traitera ensuite les valeurs modifiées par ce premier calcul, et on les corrigera de nouveau en ayant égard seulement aux équations du second groupe. Ce second calcul donnera des résultats qui, en général, ne satisferont plus aux équations du premier groupe, et il faudra, si l’on n’a formé que deux groupes, revenir alors au premier et y satisfaire à l’aide de nouvelles corrections. Les observations seront ensuite soumises à une quatrième compensation, dans laquelle on n’aura égard qu’aux conditions du second groupe ; et en opérant ainsi alternativement sur l’un et l’autre groupe d’équations, on formera des corrections qui seront nécessairement de plus en plus petites. Si le choix des groupes a été fait habilement, on arrivera bien vite à des valeurs que les corrections ultérieures ne changeront plus.

Quand on forme plus de deux groupes, on doit procéder de la même manière, les divers groupes étant employés successivement jusqu’au dernier, après quoi on revient au premier pour les reprendre dans le même ordre. Il nous suffit d’avoir indiqué ce procédé, dont la réussite dépendra beaucoup de l’habileté du calculateur.

21.

Il nous reste à donner la démonstration du lemme admis dans l’art. 8. Adoptons, pour plus de clarté, des notations plus propres à mettre la démonstration en lumière.

Soient , , , etc., des indéterminées ; supposons que les équations