Méthode des moindres carrés/Supplément

Traduction par Joseph Bertrand.
Mallet-Bachelier (p. 70-112).

SUPPLÉMENT
À LA
THÉORIE DE LA COMBINAISON DES OBSERVATIONS
QUI EXPOSE AUX MOINDRES ERREURS.


PRÉSENTÉ LE 16 SEPTEMBRE 1826 À LA SOCIÉTÉ ROYALE DE GOTTINGUE.

Dans le Mémoire précédent, on a supposé que les quantités à déterminer, à l’aide d’observations imparfaites, fussent dépendantes de certains éléments inconnus, en fonction desquels on sût les exprimer : le problème consistait alors à déduire des observations, le plus exactement possible, la valeur de ces éléments.

Dans la plupart des cas, c’est effectivement ainsi que la question se présente ; mais quelquefois il en est un peu autrement, et l’on pourrait même se demander, au premier abord, si le problème se ramène au précédent. Il n’est pas rare, en effet, que les quantités auxquelles se rapportent les observations ne soient pas explicitement exprimées en fonction de certains éléments, et qu’elles ne paraissent réductibles à une telle forme que par des opérations difficiles ou ambiguës. Il arrive souvent, d’autre part, que la nature du problème fournit certaines conditions auxquelles les valeurs observées doivent rigoureusement satisfaire.

Cependant, en y regardant de plus près, on aperçoit que ce cas ne diffère pas essentiellement du précédent, et qu’il peut s’y ramener. Si l’on nomme, en effet, le nombre des grandeurs observées, et celui des équations de condition, en choisissant, parmi les premières, quantités, rien ne nous empêche de les considérer comme nos seules inconnues, les autres étant regardées comme des fonctions de celles-là, que les équations de condition définissent. Par cet artifice, nous rentrerons dans le cas du Mémoire précédent.

Néanmoins, quoique cette marche conduise souvent au résultat d’une manière assez commode, ou ne peut nier qu’elle ne soit moins naturelle, et il est, par conséquent, désirable de traiter le problème sous l’autre forme, qui admet, du reste, une solution très-élégante. Il y a plus : cette solution nouvelle, conduisant à des calculs plus rapides que la précédente toutes les fois que est moindre que , ou, ce qui revient au même, toutes les fois que le nombre des éléments que nous avons désigné par dans le Mémoire précédent, est plus grand que , il faudra, dans ce cas, préférer la solution nouvelle, quand bien même il serait facile, par la nature du problème, de faire disparaître sans ambiguïté les équations de condition.

Désignons par , , , etc., les quantités, en nombre , dont les valeurs sont fournies par l’observation. Supposons qu’une inconnue dépende de celles-là et soit exprimée par une fonction connue , de , , , etc. Soient , , , etc., ce que deviennent les quotients différentiels

lorsqu’on y substitue à , , , etc., leurs valeurs véritables. Si l’on substituait à , , , etc., dans la fonction , leurs valeurs véritables, on obtiendrait aussi la véritable valeur de  ; mais si les observations sont affectées d’erreurs , , , etc., il en résultera pour une erreur totale représentée par

pourvu que l’on puisse, comme nous le supposerons toujours (lorsque n’est pas linéaire), négliger les carrés et les produits des erreurs , , , etc.

Quoique la grandeur des erreurs , , , etc., soit incertaine, l’incertitude attachée à la valeur trouvée pour peut généralement se mesurer par l’erreur moyenne à craindre dans la détermination adoptée. D’après les principes développés dans le premier Mémoire, cette erreur moyenne est

, , , etc., étant les erreurs moyennes des diverses observations. Si toutes les observations sont affectées du même degré d’incertitude, cette expression devient

Il est clair d’ailleurs qu’au degré d’approximation auquel nous nous arrêtons, on peut remplacer , , , etc., par les valeurs que prennent les coefficients différentiels

lorsqu’on y remplace , , , etc., par leurs valeurs observées.

3.

Lorsque les quantités , , , etc., sont indépendantes, l’inconnue ne peut se déterminer que d’une seule manière, et l’incertitude attachée au résultat ne peut être ni évitée ni diminuée. Les observations fournissent une valeur de l’inconnue qui n’a, dans ce cas, rien d’arbitraire. Il en est tout autrement lorsque les quantités , , , etc., sont liées par des relations nécessaires, que nous supposerons exprimées par équations,

, , , etc., désignant des fonctions données des indéterminées , , , etc. ; car, à la fonction , on peut, dans ce cas, substituer toute autre fonction telle, que la différence s’évanouisse identiquement en vertu des équations

Si les observations étaient rigoureusement exactes, cette substitution ne changerait en rien le résultat ; mais, en raison des erreurs inévitables, à chaque forme adoptée pour correspondra un résultat différent, et l’erreur commise, au lieu d’être

deviendra

en désignant par , , , etc., les quotients différentiels

Quoiqu’il soit impossible d’assigner la valeur des diverses erreurs, nous pouvons cependant comparer les erreurs moyennes à craindre dans les diverses combinaisons. La combinaison la plus avantageuse sera celle qui donnera, à l’erreur moyenne, la valeur minimum. Cette erreur étant

nous devons chercher à rendre la somme

aussi petite que possible.

4.

Les fonctions , en nombre infini, par lesquelles on peut remplacer , ne différeront les unes des autres, dans nos recherches, que par les valeurs qu’elles fourniront pour , , , etc. : nous devons donc, avant tout, chercher les relations qui existent entre les systèmes de valeurs que peuvent prendre ces coefficients. Désignons par

les valeurs que prennent les coefficients

si l’on y substitue pour , , , etc., leurs valeurs véritables. Il est clair que si l’on donne à , , , etc., des accroissements , , , etc., qui ne changent pas , , , etc., et leur laissent, par conséquent, la valeur zéro, ces accroissements, qui satisferont aux équations

ne changeront rien à la valeur de , et l’on aura, par conséquent,

On en conclut facilement que , , , etc., doivent avoir la forme

, , , etc., désignant des multiplicateurs déterminés. Réciproquement, il est clair que, pour toutes les valeurs de , , , etc., on pourra former une fonction , pour laquelle les valeurs , , , etc., seront précisément celles que fournissent ces équations, et cette fonction pourra, d’après ce qui précède, être substituée à . La forme la plus simple qu’on puisse lui donner est

désignant une fonction de , , , etc. qui s’annule identiquement lorsque , , , etc., sont nuls, et dont la valeur, dans le cas actuel, sera maximum ou minimum (car ses dérivées devront toutes s’annuler). Mais l’introduction de cette fonction n’apporte aucune différence dans les résultats.

5.

Il est maintenant facile d’assigner à , , , etc., des valeurs telles, que la somme

soit un minimum.

Il est clair que pour atteindre ce but, la connaissance des erreurs moyennes absolues , , , etc., n’est pas nécessaire ; il suffit de connaître leurs rapports. Introduisons, en effet, au lieu de ces quantités, les poids des observations, , , , etc., c’est-à-dire des nombres réciproquement proportionnels à , , , etc. Les quantités , , , etc., devront être déterminées de telle sorte que le polynôme

acquière une valeur minimum. Supposons que , , , etc., soient les valeurs déterminées de , , , etc., auxquelles répond ce minimum, et adoptons les notations suivantes :

La condition de minimum exige évidemment que l’on ait

(1)

Après que ces équations auront fourni les valeurs de , , , etc., on posera

(2)

et la fonction la plus propre à déterminer notre inconnue, à laquelle correspond l’erreur moyenne minimum, sera celle dont les coefficients différentiels, pour les valeurs considérées des variables, seront égaux à , , , etc. Le poids de la détermination ainsi obtenue, sera

(3)

c’est-à-dire que sera précisément la valeur que prend le polynôme considéré plus haut, pour les valeurs des variables , , , etc., qui satisfont aux équations (1).

6.

Dans l’article précédent, nous avons montré à déterminer la fonction qui fournit la détermination la plus convenable de l’inconnue . Examinons actuellement quelle est la valeur qui en résulte Désignons-la par  : on l’obtiendra en substituant, dans , les valeurs observées des quantités , , , etc. Soit la valeur que prend lorsqu’on y fait les mêmes substitutions, soit enfin la véritable valeur de cette inconnue, telle qu’on l’obtiendrait par la substitution des valeurs véritables de , , , etc., soit dans , soit dans . On aura

et, par conséquent,

Substituant, dans cette équation, à la place de , , , etc., leurs valeurs fournies par (2), et posant

(4)

nous aurons

(5)

Il n’est pas possible de calculer , , , etc., par le moyen des formules (4), car les erreurs , , , etc., qui y figurent, ont des valeurs inconnues, mais on voit facilement que ces quantités , , , etc., ne sont autre chose que les valeurs de , , , etc., qui correspondent aux valeurs observées de , , , etc., et alors le système des équations (1), (3), (5), forme la solution complète de notre problème. Il est clair, en effet, que l’on peut appliquer au calcul de , , , , , , , etc., la remarque faite à la fin de l’article 2, à l’occasion des quantités , , , etc., c’est-à-dire remplacer les valeurs véritables de , , , etc., par les valeurs observées.

7.

On peut substituer à la formule (3), qui représente le poids de la détermination la plus probable, plusieurs expressions qu’il est utile d’indiquer ; remarquons, d’abord, qu’en ajoutant les équations (2) après les avoir multipliées par , , , etc., on aura

Le premier membre est nul ; en désignant donc, d’après la notation adoptée, le second membre par , on aura

et de même

Multiplions ensuite les équations (2) par , , , etc. ; nous aurons, en les ajoutant,

et, par suite, nous avons cette seconde expression du poids,

Si, enfin, nous ajoutons les mêmes équations (2) après les avoir multipliées par , , , etc., nous obtiendrons une troisième expression du poids,

où l’on a posé, conformément à la notation précédente,

On passera facilement de là à la quatrième expression du poids,

8.

La solution générale que nous venons d’exposer s’applique principalement au cas où l’on n’a qu’une seule inconnue à déterminer. Lorsqu’on cherche, au contraire, les valeurs les plus plausibles de plusieurs inconnues, dépendant des mêmes observations, ou lorsqu’on ignore quelles sont les inconnues qu’il faut, de préférence, déduire des observations, il convient de procéder d’une manière différente, dont nous allons actuellement nous occuper.

Considérons , , , etc., comme des indéterminées, et posons

(6)

Supposons que l’on en déduise, par l’élimination,

(7)

et remarquons, avant tout, que les coefficients placés symétriquement sont nécessairement égaux, c’est-à-dire que

comme cela résulte de la théorie de l’élimination et comme d’ailleurs nous le démontrons plus loin ; nous aurons

(8)

et en posant

(9)

nous obtiendrons

et si nous posons de plus,

(10)

il viendra

(11)
9.

La comparaison des équations (7) et (9) nous apprend que les quantités auxiliaires , , , etc., sont les valeurs que prennent les indéterminées , , , etc., lorsque l’on suppose

on en conclut évidemment,

(12)

En ajoutant les équations (10) après les avoir multipliées par , , , etc., on obtient

(13)

étant, comme on l’a dit, la valeur que prend lorsqu’on substitue à , , , etc., leurs valeurs observées ; on aperçoit facilement que si l’on applique à chacune de ces quantités les corrections , , , etc., la valeur de devient égale à zéro, et que de même , , etc., s’évanouissent par cette hypothèse. L’équation (11) prouve aussi que est la valeur que prend par suite des mêmes substitutions.

En nommant compensation des observations, l’application des corrections , , , etc., aux grandeurs directement observées, nous sommes conduit à une conséquence très-importante :

Les observations compensées comme nous l’avons indiqué, satisfont exactement à toutes les équations de condition, et font prendre à toute fonction des quantités observées la valeur qui résulterait de la combinaison la plus convenable des observations non modifiées ; et puisque les équations de condition sont trop peu nombreuses pour qu’on puisse en déduire les valeurs exactes des erreurs, nous aurons au moins trouvé, par ce qui précède, les erreurs les plus plausibles. C’est sous ce nom que les quantités , , , etc., seront désormais désignées.

10.

Le nombre des observations étant plus grand que celui des équations de condition, outre le système des corrections les plus plausibles, on peut en trouver un nombre infini qui rendent les équations de condition exactement satisfaites.

Il importe d’examiner les relations qui lient entre eux ces divers systèmes. Soit , , , etc., un pareil système de corrections, autre que le système le plus plausible ; nous aurons

Multipliant ces équations par , , , etc., et ajoutant, il vient, en ayant égard aux équations (10),

Mais les équations (13) combinées de la même manière donnent

(14)

de la combinaison de ces résultats on déduit facilement

et, par suite, la somme

est, nécessairement, plus grande que

ce que l’on peut énoncer de la manière suivante :

Théorème.Les carrés des corrections qui peuvent concilier les observations avec les équations de condition étant respectivement multipliés par les poids des observations correspondantes, donnent une somme minimum quand on adopte les corrections les plus plausibles.

On reconnaît précisément le principe des moindres carrés dont, au reste, les équations (12) et (10) peuvent facilement se déduire. La somme minimum, que nous désignerons désormais par , est égale, d’après l’équation (14), à

11.

La détermination des erreurs les plus plausibles étant indépendante de , , , etc., fournit la préparation la plus commode, quel que soit l’usage que l’on veuille faire ultérieurement des observations. En outre, on voit sans peine que, pour atteindre ce but, il n’est pas nécessaire d’effectuer l’élimination indéfinie, c’est-à-dire de calculer , , etc., il suffit de déduire des équations (12), par une élimination définie, les quantités auxiliaires , , , etc., que nous nommerons, dans ce qui va suivre, les corrélatifs des équations de condition

ces quantités seront ensuite substituées dans l’équation (10).

Cette méthode ne laisse rien à désirer lorsqu’on demande seulement les valeurs les plus plausibles des quantités fournies par l’observation. Mais il en est autrement lorsqu’on désire, en outre, le poids de chacune des valeurs trouvées. Quelle que soit alors celle des quatre formules précédentes que l’on veuille employer, il est indispensable de connaître , , , etc., ou, ce qui revient au même, , , , etc. ; par cette raison, il sera utile d’étudier, de plus près, l’élimination qui fournit ces quantités et d’obtenir une méthode plus commode pour la détermination des poids.

12.

Les relations qui lient les quantités dont nous nous occupons sont notablement simplifiées par la considération de la fonction indéfinie du second degré

que nous désignerons par .

Cette fonction est évidemment égale à

(15)

De plus, on a évidemment

(16)

et si, enfin, ou exprime , , , etc., au moyen des équations (7), en fonction de , , , etc., on aura

La théorie développée plus haut fournit deux systèmes de valeurs déterminées pour les quantités , , , etc., , , , etc. Le premier est

à ce système correspond la valeur

ainsi qu’on le voit en comparant à l’équation (16), la troisième forme du poids , ou par la considération directe de la forme (4).

Le second système de valeurs est

la valeur correspondante de est

comme cela est évident par les formules (10) et (15), et encore par les formules (14) et (16).

13.

Nous devons, avant tout, faire subir à la fonction une transformation semblable à celle qui a été indiquée (Theoria Motus, art. 182), et, avec plus de développements, dans les Recherches sur Pallas.

Posons, à cet effet,

et, ensuite[1]

on aura

et , , , etc., se déduiront du , , , , etc., par les équations suivantes :

et l’on en tirera facilement toutes les formules utiles à notre but. Ainsi, pour déterminer les corrélatifs , , , etc., nous poserons

(18)

et enfin , , , , etc., s’obtiendront par les formules suivantes, en commençant par la dernière :

(19)

Pour exprimer , nous aurons la formule nouvelle

(20)

enfin, le poids , qu’il faut attribuer à la détermination la plus plausible de la quantité , sera donné par la formule

(21)

dans cette formule, on fait

(22)

Les formules (17), …, (21), dont la simplicité ne laisse rien à désirer, fournissent la solution complète de notre problème.

14.

Après avoir résolu le problème que nous avions en vue, nous allons aborder quelques questions secondaires qui éclaireront davantage l’ensemble de cette théorie.

Nous chercherons, en premier lieu, s’il peut arriver que l’élimination qui fournit , , , etc., en fonction de , , , etc., devienne, dans certains cas, impossible. Cela aurait évidemment lieu si les fonctions , , , etc., n’étaient pas indépendantes les unes des autres. Supposons, pour un instant, qu’il en soit ainsi, et que l’une d’elles puisse s’exprimer en fonction des autres, de telle sorte que l’on ait la relation identique

, , , etc., désignant des nombres déterminés.

On aura alors

et si nous posons

on en déduira

et, par suite,

, , , etc. étant, par leur nature, tous positifs, cette équation exige

Si nous considérons les différentielles complètes , , , etc., répondant aux valeurs de , , , etc., immédiatement fournies par les observations, ces différentielles

d’après les résultats précédents, seront liées, les unes aux autres, de telle sorte qu’en les multipliant respectivement par , , , etc., la somme des produits sera identiquement nulle, en sorte que, parmi les équations

il en est une au moins que l’on peut regarder comme inutile, car elle sera satisfaite dès que les autres le seront.

En examinant la question de plus près, on voit que cette conclusion n’est applicable qu’à des valeurs des variables infiniment peu différentes de celles que fournit l’observation. Il y a, en effet, deux cas à distinguer : le premier est celui où l’une des équations

est renfermée dans les autres d’une manière générale et absolue, et peut, par conséquent, être supprimée ; le second est celui où, pour les valeurs particulières de , , , etc., auxquelles se rapportent les observations, l’une des fonctions , , , etc., par exemple, acquiert une valeur maximum ou minimum, ou, plus généralement, une valeur dont la différentielle s’annule lorsque les autres équations restent satisfaites.

Mais comme nous ne considérons pour nos variables que des variations dont les carrés soient négligeables, ce second cas (qui dans les applications ne se présentera que bien rarement), pourra être assimilé au premier, et l’une des équations de condition pourra être supprimée comme surabondante.

Si les équations restantes sont indépendantes dans le sens que nous venons d’indiquer, on peut, d’après ce qui précède, être certain que l’élimination est possible. Nous nous réservons, du reste, de revenir sur cette matière qui mérite d’être examinée comme subtilité théorique plutôt que comme question d’une utilité pratique.

15.

Dans le premier Mémoire, art. 37 et suivants, nous avons montré le moyen de fixer, à posteriori, d’une manière très-approchée, le poids d’une détermination. Si les valeurs approchées de quantités sont fournies par des observations également précises, et qu’on les compare avec les valeurs qui résultent pour elles des hypothèses les plus plausibles qu’on puisse faire sur les éléments dont elles dépendent, on a vu qu’il fallait ajouter les carrés des différences obtenues, diviser la somme par , et que le quotient pouvait être regardé comme une valeur approchée du carré de l’erreur moyenne inhérente à ce genre d’observations.

Si les observations sont inégalement précises, la seule modification que l’on doive apporter aux préceptes précédents, consiste en ce que l’on doit multiplier les carrés des différences par les poids respectifs des observations correspondantes, et l’erreur moyenne obtenue de cette manière se rapporte aux observations dont le poids est pris pour unité.

Dans le cas actuel, la somme des carrés dont nous parlons se confond évidemment avec la somme , et la différence avec le nombre des équations de condition. Par suite, pour l’erreur moyenne des observations dont le poids est 1, nous aurons l’expression , et la détermination sera d’autant plus digne de confiance que sera plus considérable.

Mais il est bon d’établir ce résultat, indépendamment des raisonnements du premier Mémoire ; pour y parvenir, nous introduirons quelques notations nouvelles. Supposons qu’aux valeurs

répondent

de sorte que l’on ait

et, en outre, qu’aux valeurs

répondent

enfin, qu’aux valeurs

répondent

et ainsi de suite.

La combinaison des équations (4) et (9) fournit

et, comme on a

on aura

16.

La série des observations qui fournissent les quantités , , , etc., affectées des erreurs fortuites , , , etc., peut être considérée comme une épreuve qui ne fait pas connaître, il est vrai, la grandeur de chaque erreur, mais qui, par le moyen des règles exposées plus haut, permet de déterminer la quantité , fonction connue de toutes les erreurs. Dans une telle épreuve, les erreurs peuvent être les unes plus grandes, les autres plus petites ; mais plus sera grand le nombre des erreurs employées, plus il y aura une grande probabilité que diffère peu de sa valeur moyenne : la difficulté revient donc à trouver la moyenne de .

Par les principes exposés dans le premier Mémoire et qu’il est inutile de reproduire ici, on trouve pour cette valeur moyenne

En nommant l’erreur moyenne qui correspond aux observations dont le poids est 1, de telle sorte que l’on ait

l’expression précédente peut s’écrire comme il suit :

Mais on a trouvé

or, le second membre est l’unité, comme on le reconnaît facilement par la comparaison des équations (6) et (7).

On trouvera de même

et ainsi de suite.

D’après cela, la valeur moyenne de devient , et si l’on juge permis de regarder la valeur fortuite de comme égale à la valeur moyenne, on en conclut

17.

On peut apprécier la confiance que mérite cette détermination en calculant l’erreur moyenne à craindre, soit pour sa valeur propre, soit pour celle de son carré. La seconde sera la racine carrée de la valeur moyenne de l’expression

dont le développement s’obtiendra par des raisonnements semblables à ceux qui ont été exposés dans le premier Mémoire (art. 39 et suivants). Nous les supprimons pour abréger, en nous contentant d’indiquer le résultat.

L’erreur moyenne à craindre dans la détermination du carré s’exprime par

étant la valeur moyenne des quatrièmes puissances des erreurs dont le poids est l’unité, et la somme

Cette somme ne peut pas, en général, se simplifier ; mais, par un procédé analogue à celui dont on a fait usage au paragraphe 40 du premier Mémoire, on peut montrer que sa valeur est comprise entre et . Dans l’hypothèse sur laquelle nous avions primitivement établi la méthode des moindres carrés, le terme qui contient cette somme disparaît à cause de

et la précision que l’on doit attribuer à la détermination

est par conséquent la même que si l’on avait opéré sur observations entachées d’erreurs exactement connues, conformément aux préceptes des art. 15 et 16 du premier Mémoire.

18.

Pour la compensation des observations, il y a, comme nous l’avons dit, deux opérations à exécuter : premièrement, il faut déterminer les corrélatifs des équations de condition, c’est-à-dire , , , etc., qui satisfont aux équations (12) ; secondement, substituer ces quantités dans l’équation (10). La compensation ainsi obtenue peut être dite parfaite et complète, par opposition à la compensation imparfaite ou incomplète. Nous désignerons de cette dernière manière celles qui résultent des mêmes équations (10), dans lesquelles on substituera des valeurs de , , qui ne satisferont pas aux équations (12), c’est-à-dire qui satisferont à quelques-unes seulement, ou à aucune. Nous ne nous occuperons pas ici d’un tel système de corrections, et nous ne leur accorderons même pas le nom de compensation.

Lorsque les équations (10) sont satisfaites, les systèmes (12) et (13) deviennent équivalents, et la différence dont nous parlons peut alors s’énoncer comme il suit : Les observations complètement compensées satisfont aux équations de condition

les observations incomplètement compensées ne satisfont qu’à une portion de ces équations, et peut-être à aucune ; la compensation à la suite de laquelle toutes les équations sont satisfaites, est nécessairement complète.

19.

Il résulte de la définition même des compensations, que la réunion de deux systèmes de compensations peut en fournir un troisième, et l’on voit qu’il importe peu que les règles données pour obtenir une compensation parfaite soient appliquées aux observations primitives ou aux observations déjà imparfaitement compensées.

Soient , , , etc., un système de compensations incomplètes, résultant des formules

(I)

Les observations ainsi changées ne satisfaisant pas à toutes les équations de condition, soient , , , etc., les valeurs que prennent , , , etc., quand on y substitue les valeurs ainsi obtenues pour , , , etc. On devra chercher les valeurs , , , etc., satisfaisant aux équations

(II)

et cela fait, la compensation complète des observations ainsi modifiées se fera par les nouveaux changements , , , etc. ; , , , etc., se déduisant des formules

(III)

Cherchons comment ces corrections s’accordent avec la compensation complète des observations primitives. Il est clair d’abord que l’on a

En substituant dans ces équations, pour , , , etc., leurs valeurs fournies par le système (I), pour , , , etc., celles que donne le système (II), il vient

et il suit de là que les corrélatifs des équations de condition (12) sont

et alors les équations (10), (I) et (III) montrent que l’on a

et, par suite, la compensation parfaite a la même valeur pour chaque inconnue, soit qu’on la calcule directement, soit qu’on l’obtienne médiatement en partant d’une compensation incomplète.

20.

Lorsque les équations de condition sont très-nombreuses, la détermination des quantités corrélatives , , , etc., peut exiger des calculs tellement longs, que le calculateur en soit rebuté ; il pourra être avantageux d’obtenir, dans ce cas, une compensation complète, à l’aide d’une série d’approximations reposant sur le théorème de l’article précédent. On partagera, pour cela, les équations de condition en deux ou plusieurs groupes, et l’on cherchera d’abord une compensation qui rende satisfaites les équations du premier groupe. On traitera ensuite les valeurs modifiées par ce premier calcul, et on les corrigera de nouveau en ayant égard seulement aux équations du second groupe. Ce second calcul donnera des résultats qui, en général, ne satisferont plus aux équations du premier groupe, et il faudra, si l’on n’a formé que deux groupes, revenir alors au premier et y satisfaire à l’aide de nouvelles corrections. Les observations seront ensuite soumises à une quatrième compensation, dans laquelle on n’aura égard qu’aux conditions du second groupe ; et en opérant ainsi alternativement sur l’un et l’autre groupe d’équations, on formera des corrections qui seront nécessairement de plus en plus petites. Si le choix des groupes a été fait habilement, on arrivera bien vite à des valeurs que les corrections ultérieures ne changeront plus.

Quand on forme plus de deux groupes, on doit procéder de la même manière, les divers groupes étant employés successivement jusqu’au dernier, après quoi on revient au premier pour les reprendre dans le même ordre. Il nous suffit d’avoir indiqué ce procédé, dont la réussite dépendra beaucoup de l’habileté du calculateur.

21.

Il nous reste à donner la démonstration du lemme admis

( 97 )

dans l’art. 8. Adoptons, pour plus de clarté, des notations plus propres à mettre la démonstration en lumière.

Soient , , , etc., des indéterminées ; supposons que les équations

aient donné, par élimination, les suivantes :

En substituant, dans les deux premières équations du second système, les valeurs de , , , etc., fournies par le premier, nous obtiendrons deux équations identiques :

Ces équations étant identiques, on peut y substituer telles quantités que l’on voudra à la place de , , , etc. Faisons dans la première

et dans la seconde

En retranchant ensuite les deux identités membre à membre, il viendra

Ce que l’on peut écrire plus brièvement de la manière suivante :

, désignant deux indices pris au hasard ; on conclut de là que les égalités

et, généralement,

entraînent nécessairement

et, comme l’ordre des indéterminées est arbitraire, il est évident que, dans la supposition admise, on aura généralement

22.

La méthode exposée dans ce Mémoire devant surtout s’appliquer utilement aux calculs de haute géodésie, le lecteur nous saura gré d’y joindre quelques exemples puisés dans cette partie de la science.

Les équations de condition qui existent entre les angles d’un système de triangles, peuvent, en général, se partager en trois catégories.

I. La somme des angles horizontaux, formés autour d’un même sommet et embrassant la totalité de l’horizon, doit être égale à quatre droits.

II. La somme des angles de chaque triangle peut toujours être regardée comme connue ; car, lors même que le triangle est situé sur une surface courbe, l’excès de la somme de ses angles sur deux droits peut être calculé avec une telle approximation, qu’il est permis de considérer le résultat comme absolument exact.

III. Enfin, on obtient un troisième genre de relations en examinant les rapports des côtés dans les triangles qui forment un réseau fermé. Si, en effet, les triangles sont tellement placés, que le second triangle ait un côté commun avec le premier, et un côté commun avec le troisième ; si le quatrième triangle a deux côtés et respectivement communs avec le troisième et le cinquième, et ainsi de suite, jusqu’au dernier triangle, qui ait avec le précédent un côté commun , et avec le premier de tous un côté commun , les quotients

pourront se calculer au moyen des angles qui leur sont opposés dans le triangle dont les deux côtés comparés font partie, et comme le produit de ces fractions est évidemment l’unité, on aura une relation entre les sinus des divers angles mesurés (diminués du tiers de l’excès sphérique ou sphéroïdique lorsqu’on opérera sur une surface courbe). Du reste, dans les réseaux un peu compliqués, il arrive souvent que les équations de la seconde et de la troisième catégorie rentrent en partie les unes dans les autres, et que, par suite, leur nombre doit être réduit. Au contraire, il pourra arriver, mais seulement dans des cas assez rares, que l’on adjoigne quelques équations nouvelles à celles de la seconde catégorie ; c’est ce qui aura lieu lorsque le réseau contiendra des polygones non divisés en triangles ; on pourra alors introduire des équations relatives aux figures qui ont plus de trois côtés. Dans une autre occasion, nous reviendrons avec plus de détails sur ces diverses circonstances, dont l’examen nous éloignerait en ce moment de notre but. Nous ne pouvons cependant nous dispenser de faire ici une remarque indispensable à ceux qui voudraient faire l’application rigoureuse de notre théorie : nous supposons toujours que les quantités désignées par , , , etc., ont été observées immédiatement, ou déduites d’observations telles, que leurs déterminations soient indépendantes les unes des autres, ou, au moins, puissent être regardées comme telles. Dans la pratique la plus ordinaire, on observe les angles que l’on peut regarder comme étant les éléments , , , etc., eux-mêmes. Mais on ne doit pas oublier que si le système contient, en outre, des triangles dont les angles n’aient pas été directement observés et aient été déduits de ceux que l’on connaissait, par des additions ou soustractions, ces angles ne devront pas être mis au nombre des grandeurs déterminées par l’observation, et l’on devra les faire entrer dans le calcul comme des fonctions des éléments qui ont servi à les former. Il en sera autrement si l’on adopte la méthode d’observations de M. Struve (Astronomische Nachrichten, II, page 431), qui consiste à déterminer toutes les directions autour d’un même sommet, en les rapportant toutes à une seule et même direction arbitraire. Les angles mesurés ainsi seront pris alors pour , , , etc., et les angles des triangles se présenteront tous comme des différences. Les équations de la première catégorie devront, dans ce cas, être supprimées comme superflues, car elles seront identiquement satisfaites. Le procédé que j’ai suivi moi-même dans les triangulations exécutées pendant ces dernières années, diffère des deux méthodes précédentes ; on peut cependant l’assimiler, quant au résultat, avec le procédé de M. Struve, en ce sens que, dans chaque station, on doit regarder , , , etc., comme les angles formés par les directions qui en partent, avec une même ligne arbitrairement choisie.

Nous donnerons deux exemples : le premier se rapporte au premier mode d’opération, et le second est relatif à des observations faites d’après la seconde méthode.

23.

Le premier exemple nous sera fourni par l’ouvrage de M. Krayenhof : Précis historique des opérations trigonométriques faites en Hollande. Nous chercherons à compenser la partie des observations relatives au terrain compris entre Harlingen, Sneek, Oldeholtpade, Ballum, Leeuwarden, Dockum, Drachten, Oosterwolde et Groningen. Entre ces points, on a formé neuf triangles numérotés, dans l’ouvrage cité, 121, 122, 123, 124, 125, 127, 128, 131, 132. Les angles observés sont les suivants :

Triangle 121.
0.
Harlingen 
  
50° 58′ 15″,238
1.
Leeuwarden 
  
82 . 47.  15,351
2.
Ballum 
  
46 . 14.  27,202
Triangle 122.
3.
Harlingen 
  
51 . 05.  39,717
4.
Sneek 
  
70 . 48.  33,445
5.
Leeuwarden 
  
58 . 05.  48,707
Triangle 123.
6.
Sneek 
  
49 . 30.  40,051
7.
Drachten 
  
42 . 52.  59,382
8.
Leeuwarden 
  
87 . 36.  21,057
Triangle 124.
9.
Sneek 
  
45 . 36.  07,492
10.
Oldeholtpade 
  
67 . 52.  00,048
11.
Drachten 
  
66 . 31.  56,513
Triangle 125.
12.
Drachten 
  
53° 55′ 24″,745
13.
Oldeholtpade 
  
47 . 48.  52,580
14.
Oosterwolde 
  
78 . 15.  42,347
Triangle 127.
15.
Leeuwarden 
  
59 . 24.  00,645
16.
Dockum 
  
76 . 34.  09,021
17.
Ballum 
  
44 . 01.  51,040
Triangle 128.
18.
Leeuwarden 
  
72 . 06.  32,043
19.
Drachten 
  
46 . 53.  27,163
20.
Dockum 
  
61 . 00.  04,494
Triangle 131.
21 .
Dockum 
  
57. 01.  55,292
22.
Drachten 
  
83 . 33.  14,515
23.
Groningen 
  
39 . 24.  52,397
Triangle 132.
24.
Oosterwolde 
  
81 . 54.  17,447
25.
Groningen 
  
31 . 52.  49,094
26.
Drachten 
  
66 . 12.  57,246

La considération de ces triangles montre que les vingt-sept angles, directement fournis par l’observation, ont entre eux treize relations nécessaires, savoir : deux de la première espèce, neuf de la seconde, et deux de la troisième. Mais il n’est pas utile d’écrire ici toutes ces équations sous leur forme finie, car pour le calcul nous avons besoin seulement des quantités, désignées dans la théorie générale, par , , , ,…, , , , ,…, c’est pourquoi nous écrirons immédiatement les équations (13), qui mettent ces quantités en évidence. Au lieu de , , , etc., nous écrirons simplement ici (0), (1), (2), etc. De cette manière, aux deux équations du premier genre répondent les suivantes :

Nous trouvons ensuite, pour les excès sphéroïdiques des neuf triangles : 1″,749 ; 1″,147 ; 1″,243 ; 1″,698 ; 0″,873 ; 1″,167 ; 1″,104 ; 2″,161 ; 1″,403. Nous aurons alors l’équation de condition du second genre :

et ainsi des autres, et nous avons les neuf équations suivantes :

Les équations de condition du troisième genre s’expriment plus facilement par le moyen des logarithmes : la première est

Il semble inutile de développer l’autre sous forme finie. À ces deux équations répondent les suivantes, dans lesquelles les coefficients se rapportent à la septième décimale des logarithmes vulgaires[2] :

Aucune raison ne nous portant à attribuer des poids inégaux aux diverses observations, nous supposerons

En désignant les corrélatifs des équations de condition dans l’ordre même où ces équations ont été écrites, par

, , , , , , , , , , , , ,

nous les déterminerons par les équations suivantes :

Nous en déduisons par l’élimination :

Les erreurs les plus plausibles sont enfin données par les formules

et nous obtenons les valeurs numériques suivantes, auxquelles nous adjoignons, pour qu’on fasse la comparaison, les corrections adoptées par M. Krayenhof :

de Kr. de Kr.

La somme des carrés de nos corrections est 97,8845 ; l’erreur moyenne, telle que l’indiquent les 27 angles observés, est par conséquent,

.

La somme des carrés des corrections de M. Krayenhof, est de 341,4201.

24.

Les triangles dont les sommets, dans la triangulation du Hanovre, ont été placés à Falkenberg, Breithorn, Hauselberg, Wulfsode et Wilsede, nous fourniront un second exemple.

On a observé les directions suivantes :

À la station de Falkenberg.
0.
Wilsede 
  
187° 47′ 30″ 311
1.
Wulfsode 
  
225 . 09. 39. 676
2.
Hauselberg 
  
266 . 13. 56. 239
3.
Breithorn 
  
274 . 14. 43. 634
À la station de Breithorn.
4.
Falkenberg 
  
094 . 33. 40. 755
5.
Hauselberg 
  
122 . 51. 23. 054
6.
Wilsede 
  
150 . 18. 35. 100
À la station de Hauselberg.
7.
Falkenberg 
  
086 . 29. 06. 872
8.
Wilsede 
  
154 . 37. 09. 624
9.
Wulfsode 
  
189 . 02. 56. 376
10.
Breithorn 
  
302 . 47. 37. 732
À la station de Wulfsode.
11.
Hauselberg 
  
009 . 05. 36. 593
12.
Falkenberg 
  
045 . 27. 33. 556
13.
Wilsede 
  
118 . 44. 13. 159
À la station de Wilsede.
14.
Falkenberg 
  
007 . 51. 01. 027
15.
Wulfsode 
  
298 . 29. 49. 519
16.
Breithorn 
  
330 . 03. 07. 392
17.
Hauselberg 
  
334 . 25. 26. 746

Ces observations permettent de former sept triangles.

Triangle Ier.
Falkenberg 
  
110′ 47″,395
Breithorn 
  
128 . 17 . 42,299
Hauselberg 
  
143 . 41 . 29,140
Triangle II.
Falkenberg 
  
186 . 27 . 13,323
Breithorn 
  
155 . 44 . 54,345
Wilsede 
  
137 . 47 . 53,635
Triangle III.
Falkenberg 
  
141 . 04 . 16,563
Hauselberg 
  
102 . 33 . 49,504
Wulfsode 
  
136 . 21 . 56,963
Triangle IV.
Falkenberg 
  
178 . 26 . 25,928
Hauselberg 
  
168 . 08 . 02,752
Wilsede 
  
135 . 25 . 34,281
Triangle V.
Falkenberg 
  
137 . 22 . 09,365
Wulfsode 
  
173 . 16 . 39,603
Wilsede 
  
169 . 21 . 11,508
Triangle VI.
Breithorn 
  
127 . 27 . 12,046
Hauselberg 
  
148 . 10 . 28,108
Wilsede 
  
104 . 22 . 19,354
Triangle VII.
Hauselberg 
  
134 . 25 . 46,752
Wulfsode 
  
109 . 38 . 36,566
Wilsede 
  
135 . 55 . 37,227

Nous avons ici sept équations de condition du second genre (il n’y a pas lieu évidemment d’en former du premier genre) ; pour les former, nous devons chercher, avant tout, les excès sphéroïdiques des sept triangles, et pour cela il est indispensable de connaître la longueur d’un côté. Celui qui réunit Wilsede à Wulfsode est 22877m,94. On en conclut, pour les excès sphéroïdiques des divers triangles : I…0″,202 ; II…2″,442 ; III…1″,257 ; IV…1″,919 ; V…1″,957 ; VI…0″,321 ; VII…1″,295.

Si l’on désigne par , , , , etc., les angles qui déterminent les directions indiquées plus haut, et marquées des mêmes indices, les angles du premier triangle seront

et la première équation de condition est par conséquent

Les six triangles restants fourniront six équations analogues, mais un peu d’attention montrera que ces équations ne sont pas indépendantes ; la seconde est en effet identique avec la somme de la première, de la quatrième et de la sixième ; la somme de la troisième et de la cinquième est identique avec celle de la quatrième et de la septième : c’est pourquoi nous négligerons la seconde et la cinquième. Au lieu des équations restantes sous forme finie, nous écrirons ici les équations correspondantes (13), en substituant aux notations , , , etc., (0), (1), (2), etc. :

On peut obtenir, au moyen des triangles du système, huit équations du troisième genre, et pour cela il est permis de combiner trois des quatre triangles I, II, IV, VI, ou des triangles III, IV, V, VII ; cependant un peu d’attention montre qu’il suffit d’en considérer deux appartenant respectivement aux deux systèmes de triangles et que celles-là comprendront toutes les autres.

Nous aurons ainsi, pour sixième et septième équation de condition,

auxquelles répondent les équations

Si nous attribuons la même certitude aux diverses directions, en supposant , les corrélatifs des sept équations de condition étant désignés par , , , , , , , leur détermination dépendra des équations suivantes :

Nous en déduisons, par élimination,

et les erreurs les plus probables sont données par les formules

d’où l’on déduit les valeurs numériques suivantes :

La somme des carrés de ces erreurs est égale à 1,2288 ; l’erreur moyenne résultant des 18 directions observées est, par conséquent,

25.

Afin de donner un exemple de la dernière partie de notre théorie, cherchons dans quelle précision les observations compensées déterminent le côté Falkenberg-Breithorn, au moyen du côté Wilsede-Wulfsode. La fonction , par laquelle il est exprimé, est, dans ce cas,

sa valeur déduite des observations corrigées est

26766m,68.

La différentiation de cette équation fournit, en exprimant , , etc., en secondes,

on déduit de là :

Les méthodes indiquées plus haut donnent, en prenant le mètre pour unité de longueur,

ou .

On en conclut que l’erreur moyenne à craindre dans la valeur du côté Falkenberg-Breithorn est 0m,2886 ( désignant l’erreur moyenne à craindre dans les directions observées, cette erreur étant exprimée en secondes), et, par conséquent, si nous adoptons la valeur de annoncée plus haut, cette erreur moyenne à craindre est 0m,1209.

Au reste, l’inspection du système de triangles montre immédiatement qu’on pouvait complètement laisser de côté la station Hauselberg, sans rompre le réseau qui réunit les quatre autres. Mais il ne serait pas permis pour cela de supprimer les opérations qui se rapportent à ce point, car elles contribuent certainement à augmenter la précision de l’ensemble. Pour montrer plus clairement quel accroissement de précision en résulte, nous terminerons en faisant de nouveau le calcul, après avoir exclu tous les résultats qui se rapportent au point Hauselberg. Des dix-huit directions, mentionnées plus haut, huit cessent alors de servir, et les erreurs les plus plausibles sur celles qui restent, sont

La valeur du côté Falkenberg-Breithorn devient alors 26766m,63, résultat peu différent de celui qui a été obtenu plus haut. Mais le calcul du poids donne

ou

et l’erreur moyenne à craindre est, en mètres,

0,36169 = 0m,1515.

On voit que par l’adjonction des opérations qui se rapportent à Hauselberg, le poids de la détermination du côté Falkenberg-Breithorn est augmenté dans le rapport de 7,644 à 12,006, c’est-à-dire dans le rapport de l’unité à 1,571.



  1. Dans les calculs précédents il suffisait de trois lettres de chaque série pour faire apercevoir la loi des formules ; il a paru nécessaire d’en faire ici figurer une quatrième, pour rendre l’algorithme plus manifeste. (Note de M. Gauss.)
  2. Ces coefficients ont été tous multipliés, après la différentiation, par 10′, et divises par 206 264,8 = 180·60·60/π, pour convertir les erreurs en secondes. J. B.