Science et méthode/Livre premier, § IV

Science et méthode (Édition définitive) (1908)
E. Flammarion (p. 67-98).

== I ==

« Comment oser parler des lois du hasard ? Le hasard n’est-il pas l’antithèse de toute loi ? » Ainsi s’exprime Bertrand au début de son Calcul des probabilités. La probabilité est opposée à la certitude ; c’est donc ce qu’on ignore et par conséquent semble-t-il ce qu’on ne saurait calculer. Il y a là une contradiction au moins apparente et sur laquelle on a déjà beaucoup écrit.

Et d’abord qu’est-ce que le hasard ? Les anciens distinguaient les phénomènes qui semblaient obéir à des lois harmonieuses, établies une fois pont toutes, et ceux qu’ils attribuaient au hasard ; c’étaient ceux qu’on ne pouvait prévoir parce qu’ils étaient rebelles a toute loi. Dans chaque domaine, les lois précises ne décidaient pas de tout, elles traçaient seulement les limites entre lesquelles il était permis au hasard de se mouvoir. Dans cette conception, le mot hasard avait un sens précis, objectif : ce qui était hasard pour l’un, était aussi hasard pour l’autre et même pour les dieux.

Mais cette conception n’est plus la nôtre ; nous sommes devenus des déterministes absolus, et ceux mêmes qui veulent réserver les droits du libre arbitre humain laissent du moins le déterminisme régner sans partage dans le monde inorganique. Tout phénomène, si minime qu’il soit, a une cause, et un esprit infiniment puissant, infiniment bien informé des lois de la nature, aurait pu le prévoir dès le commencement des siècles. Si un pareil esprit existait, on ne pourrait jouer avec lui à aucun jeu de hasard, on perdrait toujours.

Pour lui en effet le mot de hasard n’aurait pas de sens, ou plutôt il n’y aurait pas de hasard. C’est à cause de notre faiblesse et de notre ignorance qu’il y en aurait un pour nous. Et, même sans sortir de notre faible humanité, ce qui est hasard pour l’ignorant n’est plus hasard pour le savant. Le hasard n’est que la mesure de notre ignorance. Les phénomènes fortuits sont, par définition, ceux dont nous ignorons les lois.

Mais cette définition est-elle bien satisfaisante ? Quand les premiers bergers chaldéens suivaient des yeux les mouvements des astres, ils ne connaissaient pas encore les lois de l’Astronomie, auraient-ils songé à dire que les astres se meuvent au hasard ? Si un physicien moderne étudie un phénomène nouveau, et s’il en découvre la loi le mardi, aurait-il dit le lundi que ce phénomène était fortuit ? Mais il y a plus : n’invoque-t-on pas souvent, pour prédire un phénomène, ce que Bertrand appelle les lois du hasard ? Et par exemple dans la théorie cinétique des gaz, on retrouve les lois connues de Mariotte et de Gay-Lussac, grâce à cette hypothèse que les vitesses des molécules gazeuses varient irrégulièrement, c’est-à-dire au hasard. Les lois observables seraient beaucoup moins simples, diront tous les physiciens, si les vitesses étaient réglées par quelque loi élémentaire simple, si les molécules étaient, comme on dit, organisées, si elles obéissaient à quelque discipline. C’est grâce au hasard, c’est-à-dire grâce à notre ignorance que nous pouvons conclure ; et alors si le mot hasard est tout simplement synonyme d’ignorance qu’est-ce que cela veut dire ? Faut-il donc traduire comme il suit ?

« Vous me demandez de vous prédire les phénomènes qui vont se produire. Si, par malheur, je connaissais les lois de ces phénomènes, je ne pourrais y arriver que par des calculs inextricables et je devrais renoncer à vous répondre ; mais, comme j’ai la chance de les ignorer, je vais vous répondre tout de suite. Et, ce qu’il y a de plus extraordinaire, c’est que ma réponse sera juste. »

Il faut donc bien que le hasard soit autre chose que le nom que nous donnons à notre ignorance, que parmi les phénomènes dont nous ignorons les causes, nous devions distinguer les phénomènes fortuits, sur lesquels le calcul des probabilités nous renseignera provisoirement, et ceux qui ne sont pas fortuits et sur lesquels nous ne pouvons rien dire tant que nous n’aurons pas déterminé les lois qui les régissent. Et pour les phénomènes fortuits eux-mêmes, il est clair que les renseignements que nous fournit le calcul des probabilités ne cesseront pas d’être vrais le jour où ces phénomènes seront mieux connus.

Le directeur d’une compagnie d’assurances sur la vie ignore quand mourra chacun de ses assurés, mais il compte sur le calcul des probabilités et sur la loi des grands nombres et il ne se trompe pas puisqu’il distribue des dividendes à ses actionnaires. Ces dividendes ne s’évanouiraient pas si un médecin très perspicace et très indiscret venait, une fois les polices signées, renseigner le directeur sur les chances de vie des assurés. Ce médecin dissiperait l’ignorance du directeur, mais il n’aurait aucune influence sur les dividendes qui ne sont évidemment pas un produit de cette ignorance.

Pour trouver une meilleure définition du hasard, il nous faut examiner quelques-uns des faits que l’on s’accorde à regarder comme fortuits, et auxquels le calcul des probabilités parait s’appliquer ; nous rechercherons ensuite quels sont leurs caractères communs.

Le premier exemple que nous allons choisir est celui de l’équilibre instable ; si un cône repose sur sa pointe, nous savons bien qu’il va tomber, mais nous ne savons pas de quel côté ; il nous semble que le hasard seul va en décider. Si le cône était parfaitement symétrique, si son axe était parfaitement vertical, s’il n’était soumis à aucune autre force que la pesanteur, il ne tomberait pas du tout. Mais le moindre défaut de symétrie va le faire pencher légèrement d’un côté ou de l’autre, et dès qu’il penchera, si peu que ce soit, il tombera tout à fait de ce côté. Si même la symétrie est parfaite, une trépidation très légère, un souffle d’air pourra le faire incliner de quelques secondes d’arc ; ce sera assez pour déterminer sa chute et même le sens de sa chute qui sera celui de l’inclinaison initiale.

Une cause très petite, qui nous échappe, détermine un effet considérable que nous ne pouvons pas ne pas voir, et alors nous disons que cet effet est dû au hasard. Si nous connaissions exactement les lois de la nature et la situation de l’univers à l’instant initial, nous pourrions prédire exactement la situation de ce même univers à un instant ultérieur. Mais, lors même que les lois naturelles n’auraient plus de secret pour nous, nous ne pourrons connaître la situation initiale qu'approximativement. Si cela nous permet de prévoir la situation ultérieure avec la même approximation, c’est tout ce qu’il nous faut, nous disons que le phénomène a été prévu, qu’il est régi par des lois ; mais il n’en est pas toujours ainsi, il peut arriver que de petites différences dans les conditions initiales en engendrent de très grandes dans les phénomènes finaux ; une petite erreur sur les premières produirait une erreur énorme sur les derniers. La prédiction devient impossible et nous avons le phénomène fortuit.

Notre second exemple sera fort analogue au premier et nous l’emprunterons à la météorologie. Pourquoi les météorologistes ont-ils tant de peine à prédire le temps avec quelque certitude ? Pourquoi les chutes de pluie, les tempêtes elles-mêmes nous semblent-elles arriver au hasard, de sorte que bien des gens trouvent tout naturel de prier pour avoir la pluie ou le beau temps, alors qu’ils jugeraient ridicule de demander une éclipse par une prière ? Nous voyons que les grandes perturbations se produisent généralement dans les régions où l’atmosphère est en équilibre instable. Les météorologistes voient bien que cet équilibre est instable, qu’un cyclone va naître quelque part ; mais où, ils sont hors d’état de le dire ; un dixième de degré en plus ou en moins en un point quelconque, le cyclone éclate ici et non pas là, et il étend ses ravages sur des contrées qu’il aurait épargnées. Si on avait connu ce dixième de degré, on aurait pu le savoir d’avance, mais les observations n’étaient ni assez serrées, ni assez précises, et c’est pour cela que tout semble dû à l’intervention du hasard. Ici encore nous retrouvons le même contraste entre une cause minime, inappréciable pour l’observateur, et des effets considérables, qui sont quelquefois d’épouvantables désastres.

Passons à un autre exemple, la distribution des petites planètes sur le zodiaque. Leurs longitudes initiales ont pu être quelconques ; mais leurs moyens mouvements étaient différents et elles circulent depuis si longtemps qu’on peut dire qu’actuellement, elles sont distribuées au hasard le long du zodiaque. De très petites différences initiales entre leurs distances au soleil, ou ce qui revient au même entre leurs mouvements moyens, ont fini par donner d’énormes différences entre leurs longitudes actuelles ; un excès d’un millième de seconde dans le moyen mouvement diurne, donnera en effet une seconde en trois ans, un degré en dix mille ans, une circonférence entière en trois ou quatre millions d’années, et qu’est-ce que cela auprès du temps qui s’est écoulé depuis que les petites planètes se sont détachées de la nébuleuse de Laplace ? Voici donc une fois de plus une petite cause et un grand effet ; ou mieux de petites différences dans la cause et de grandes différences dans l’effet.

Le jeu de la roulette nous éloigne moins qu’il ne semble de l’exemple précédent. Supposons une aiguille qu’on peut faire tourner autour d’un pivot, sur un cadran divisé en 100 secteurs alternativement rouges et noirs. Si elle s’arrête sur un secteur rouge, la partie est gagnée, sinon, elle est perdue. Tout dépend évidemment de l’impulsion initiale que nous donnons à l’aiguille. L’aiguille fera, je suppose, 10 ou 20 fois le tour, mais elle s’arrêtera plus ou moins vite, suivant que j’aurai poussé plus ou moins fort. Seulement il suffit que l’impulsion varie d’un millième, ou d’un deux millième, pour que mon aiguille s’arrête à un secteur qui est noir, ou au secteur suivant qui est rouge. Ce sont là des différences que le sens musculaire ne peut apprécier et qui échapperaient même à des instruments plus délicats. Il m’est donc impossible de prévoir ce que va faire l’aiguille que je viens de lancer, et c’est pourquoi mon cœur bat et que j’attends tout du hasard. La différence dans la cause est imperceptible, et la différence dans l’effet est pour moi de la plus haute importance, puisqu’il y va de toute ma mise.

Qu’on me permette à ce propos une réflexion un peu étrangère à mon sujet. Un philosophe a dit il y a quelques années que l’avenir était déterminé par le passé, mais que le passé ne l’était pas par l’avenir ; ou, en d’autres termes, que de la connaissance du présent nous pouvions déduire celle de l’avenir, mais non celle du passé ; parce que, disait-il, une cause ne peut produire qu’un effet, tandis qu’un même effet peut être produit par plusieurs causes différentes. Il est clair qu’aucun savant ne peut souscrire à cette conclusion : les lois de la nature lient l’antécédent au conséquent de telle sorte que l’antécédent est déterminé par le conséquent aussi bien que le conséquent par l’antécédent. Mais quelle a pu être l’origine de l’erreur de ce philosophe ? Nous savons qu’en vertu du principe de Carnot, les phénomènes physiques sont irréversibles et que le monde tend vers l’uniformité. Quand deux corps de température différente sont en présence, le plus chaud cède de la chaleur au plus froid ; nous pouvons donc prévoir que les températures s’égaliseront. Mais une fois que les températures seront devenues égales, si on nous interroge sur l’état antérieur, que pourrons-nous répondre ? Nous dirons bien que l’un des corps était chaud et l’autre froid, mais nous ne pourrons pas deviner lequel des deux était autrefois le plus chaud.

Et cependant, en réalité, les températures n’arrivent jamais à l’égalité parfaite. La différence des températures tend seulement vers zéro d’une façon asymptotique. Il arrive alors un moment où nos thermomètres sont impuissants à la déceler. Mais si nous avions des thermomètres mille fois, cent mille fois plus sensibles, nous reconnaîtrions qu’il subsiste encore une petite différence, et que l’un des corps est resté un peu plus chaud que l’autre ; et alors nous pourrions affirmer que c’est celui-là qui a été autrefois beaucoup plus chaud que l’autre.

Il y a donc alors, contrairement à ce que nous avons vu dans les exemples précédents, de grandes différences dans la cause et de petites différences dans l’effet. Flammarion avait imaginé autrefois un observateur qui s’éloignerait de la Terre avec une vitesse plus grande que celle de la lumière ; pour lui le temps serait changé de signe. L’histoire serait retournée, et Waterloo précéderait Austerlitz. Eh bien, pour cet observateur, les effets et les causes seraient intervertis ; l’équilibre instable ne serait plus l’exception ; à cause de l’irréversibilité universelle, tout lui semblerait sortir d’une sorte de chaos en équilibre instable ; la nature entière lui apparaîtrait comme livrée au hasard.

Voici maintenant d’autres exemples où nous allons voir apparaître des caractères un peu différents. Prenons d’abord la théorie cinétique des gaz. Comment devons-nous nous représenter un récipient rempli de gaz ? D’innombrables molécules, animées de grandes vitesses, sillonnent ce récipient dans tous les sens ; à chaque instant elles choquent les parois, ou bien elles se choquent entre elles ; et ces chocs ont lieu dans les conditions les plus diverses. Ce qui nous frappe surtout ici, ce n’est pas la petitesse des causes, c’est leur complexité. Et cependant, le premier élément se retrouve encore ici et joue un rôle important. Si une molécule était déviée vers la gauche ou la droite de sa trajectoire, d’une quantité très petite, comparable au rayon d’action des molécules gazeuses, elle éviterait un choc, ou elle le subirait dans des conditions différentes, et cela ferait varier, peut-être de 90° ou de 180°, la direction de sa vitesse après le choc.

Et ce n’est pas tout, il suffit, nous venons de le voir, de dévier la molécule avant le choc d’une quantité infiniment petite, pour qu’elle soit déviée, après le choc, d’une quantité finie. Si alors la molécule subit deux chocs successifs, il suffira de la dévier, avant le premier choc, d’une quantité infiniment petite du second ordre, pour qu’elle le soit, après le premier choc, d’une quantité infiniment petite du premier ordre et après le second choc, d’une quantité finie. Et la molécule ne subira pas deux chocs seulement, elle en subira un très grand nombre par seconde. De sorte que si le premier choc a multiplié la déviation par un très grand nombre A, après n chocs, elle sera multipliée par An ; elle sera donc devenue très grande, non seulement parce que A est grand, c’est-à-dire parce que les petites causes produisent de grands effets, mais parce que l’exposant n est grand, c’est-à-dire parce que les chocs sont très nombreux et que les causes sont très complexes.

Passons à un deuxième exemple ; pourquoi, dans une averse, les gouttes de pluie nous semblent-elles distribuées au hasard ? C’est encore à cause de la complexité des causes qui déterminent leur formation. Des ions se sont répandus dans l’atmosphère, pendant longtemps ils ont été soumis à des courants d’air constamment changeants, ils ont été entraînés dans des tourbillons de très petites dimensions, de sorte que leur distribution finale n’a plus aucun rapport avec leur distribution initiale. Tout à coup, la température s’abaisse, la vapeur se condense et chacun de ces ions devient le centre d’une goutte de pluie. Pour savoir quelle sera la distribution de ces gouttes et combien il en tombera sur chaque pavé, il ne suffirait pas de connaître la situation initiale des ions, il faudrait supputer l’effet de mille courants d’air minuscules et capricieux.

Et c’est encore la même chose si on met des grains de poussière en suspension dans l’eau ; le vase est sillonné par des courants dont nous ignorons la loi, nous savons seulement qu’elle est très compliquée, au bout d’un certain temps, les grains seront distribués au hasard, c’est-à-dire uniformément, dans ce vase ; et cela est dû précisément à la complication de ces courants. S’ils obéissaient à quelque loi simple, si, par exemple, le vase était de révolution et si les courants circulaient autour de l’axe du vase en décrivant des cercles, il n’en serait plus de même, puisque chaque grain conserverait sa hauteur initiale et sa distance initiale à l’axe.

On arriverait au même résultat en envisageant le mélange de deux liquides ou de deux poudres à grains fins. Et pour prendre un exemple plus grossier, c’est aussi ce qui arrive quand on bat les cartes d’un jeu. A chaque coup, les cartes subissent une permutation (analogue à celle qu’on étudie dans la théorie des substitutions). Quelle est celle qui se réalisera ? La probabilité, pour que ce soit telle permutation (par exemple celle qui amène au rang n la carte qui occupait le rang φ(n) avant la permutation), cette probabilité, dis-je, dépend des habitudes du joueur. Mais si ce joueur bat les cartes assez longtemps, il y aura un grand nombre de permutations successives ; et l’ordre final qui en résultera ne sera plus régi que par le hasard ; je veux dire que tous les ordres possibles seront également probables. C’est au grand nombre des permutations successives, c’est-à-dire à la complexité du phénomène que ce résultat est dû.

Un mot enfin de la théorie des erreurs. C’est ici que les causes sont complexes et qu’elles sont multiples. À combien de pièges n’est pas exposé l’observateur, même avec le meilleur instrument ! Il doit s’attacher à apercevoir les plus gros et à les éviter. Ce sont ceux qui donnent naissance aux erreurs systématiques. Mais quand il les a éliminés, en admettant qu’il y parvienne, il en reste beaucoup de petits, mais qui, en accumulant leurs effets, peuvent devenir dangereux. C’est de là que proviennent les erreurs accidentelles ; et nous les attribuons au hasard parce que leurs causes sont trop compliquées et trop nombreuses. Ici encore, nous n’avons que de petites causes, mais chacune d’elles ne produirait qu’un petit effet, c’est par leur union et par leur nombre que leurs effets deviennent redoutables.

On peut se placer encore à un troisième point de vue qui a moins d’importance que les deux premiers et sur lequel j’insisterai moins. Quand on cherche à prévoir un fait et qu’on en examine les antécédents, on s’efforce de s’enquérir de la situation antérieure ; mais on ne saurait le faire pour toutes les parties de l’univers, on se contente de savoir ce qui se passe dans le voisinage du point où le fait doit se produire, ou ce qui paraît avoir quelque rapport avec ce fait. Une enquête ne peut être complète, et il faut savoir choisir. Mais il peut arriver que nous ayons laissé de côté des circonstances qui, au premier abord, semblaient complètement étrangères au fait prévu, auxquelles on n’aurait jamais songé à attribuer aucune influence et qui, cependant, contre toute prévision, viennent à jouer un rôle important.

Un homme passe dans la rue en allant à ses affaires ; quelqu’un qui aurait été au courant de ces affaires, pourrait dire pour quelle raison il est parti à telle heure, pourquoi il a passé par telle rue. Sur le toit, travaille un couvreur ; l’entrepreneur qui l’emploie pourra, dans une certaine mesure, prévoir ce qu’il va faire. Mais l’homme ne pense guère au couvreur, ni le couvreur à l’homme : ils semblent appartenir à deux mondes complètement étrangers l’un à l’autre. Et pourtant, le couvreur laisse tomber une tuile qui tue l’homme, et on n’hésitera pas à dire que c’est là un hasard.

Notre faiblesse ne nous permet pas d’embrasser l’univers tout entier, et nous oblige à le découper en tranches. Nous cherchons à le faire aussi peu artificiellement que possible, et néanmoins, il arrive, de temps en temps, que deux de ces tranches réagissent l’une sur l’autre. Les effets de cette action mutuelle nous paraissent alors dus au hasard.

Est-ce là une troisième manière de concevoir le hasard ? Pas toujours ; en effet, la plupart du temps, on est ramené à la première ou à la seconde. Toutes les fois que deux mondes, généralement étrangers l’un à l’autre, viennent ainsi à réagir l’un sur l’autre, les lois de cette réaction ne peuvent être que très complexes, et, d’autre part, il aurait suffi d’un très petit changement dans les conditions initiales de ces deux mondes pour que la réaction n’eût pas lieu. Qu’il aurait fallu peu de chose pour que l’homme passât une seconde plus tard, ou que le couvreur laissât tomber sa tuile une seconde plus tôt !

Tout ce que nous venons de dire ne nous explique pas encore pourquoi le hasard obéit à des lois. Suffit-il que les causes soient petites, ou qu’elles soient complexes, pour que nous puissions prévoir, sinon quels en sont les effets dans chaque cas, mais au moins ce que seront ces effets en moyenne ? Pour répondre à cette question, le mieux est de reprendre quelques-uns des exemples cités plus haut.

Je commencerai par celui de la roulette. J’ai dit que le point où s’arrêtera l’aiguille va dépendre de l’impulsion initiale qui lui est donnée. Quelle est la probabilité pour que cette impulsion ait telle ou telle valeur ? Je n’en sais rien, mais il m’est difficile de ne pas admettre que cette probabilité est représentée par une fonction analytique continue. La probabilité pour que l’impulsion soit comprise entre a et a+ε, sera alors sensiblement égale à la probabilité pour qu’elle soit comprise entre a+ε et a+2ε, pourvu que ε soit très petit. C’est là une propriété commune à toutes les fonctions analytiques. Les petites variations de la fonction sont proportionnelles aux petites variations de la variable.

Mais, nous l’avons supposé, une très petite variation de l’impulsion suffit pour changer la couleur du secteur devant lequel l’aiguille finira par s’arrêter. De a à a+ε a + s c’est le rouge, de a+ε à a+2ε c’est le noir ; la probabilité de chaque secteur rouge est donc la même que celle du secteur noir suivant, et, par conséquent, la probabilité totale du rouge est égale à la probabilité totale du noir.

La donnée de la question, c’est la fonction analytique qui représente la probabilité d’une impulsion initiale déterminée. Mais le théorème reste vrai, quelle que soit cette donnée, parce qu’il dépend d’une propriété commune à toutes les fonctions analytiques. Il en résulte que finalement nous n’avons plus aucun besoin de la donnée.

Ce que nous venons de dire pour le cas de la roulette, s’applique aussi à l’exemple des petites planètes. Le zodiaque peut être regardé comme une immense roulette sur laquelle le créateur a lancé un très grand nombre de petites boules auxquelles il a communiqué des impulsions initiales diverses, variant suivant une loi d’ailleurs quelconque. Leur distribution actuelle est uniforme et indépendante de cette loi, pour la même raison que dans le cas précédent. On voit ainsi pourquoi les phénomènes obéissent aux lois du hasard quand de petites différences dans les causes suffisent pour amener de grandes différences dans les effets. Les probabilités de ces petites différences peuvent alors être regardées comme proportionnelles à ces différences elles-mêmes, justement parce que ces différences sont petites et que les petits accroissements d’une fonction continue sont proportionnels à ceux de la variable.

Passons à un exemple entièrement différent, où intervient surtout la complexité des causes ; je suppose qu’un joueur batte un jeu de cartes. A chaque battement, il intervertit l’ordre des cartes, et il peut les intervertir de plusieurs manières. Supposons trois cartes seulement pour simplifier l’exposition. Les cartes qui, avant le battement, occupaient respectivement les rangs 123, pourront, après le battement, occuper les rangs

123, 231, 312, 321, 132, 213.

Chacune de ces six hypothèses est possible et elles ont respectivement pour probabilités :

p1, p2, p3, p4, p5, p6.

La somme de ces six nombres est égale à 1 ; mais c’est tout ce que nous en savons ; ces six probabilités dépendent naturellement des habitudes du joueur que nous ne connaissons pas.

Au second battement et aux suivants, cela recommencera et dans les mêmes conditions ; je veux dire que p4, par exemple, représente toujours la probabilité pour que les trois cartes qui occupaient après le ne battement et avant le n + 1e les rangs 123, pour que ces trois cartes, dis-je, occupent les rangs 321 après le n + 1e battement. Et cela reste vrai, quel que soit le nombre n puisque les habitudes du joueur, sa façon de battre restent les mêmes.

Mais si le nombre des battements est très grand, les cartes qui, avant le 1er battement, occupaient les rangs 123, pourront, après le dernier battement, occuper les rangs

123, 231, 312, 321, 132, 213

et la probabilité de ces six hypothèses sera sensiblement la même et égale à 1/6 ; et cela sera vrai, quels que soient les nombres p1,…, p6 que nous ne connaissons pas. Le grand nombre des battements, c’est-à-dire la complexité des causes, a produit l’uniformité.

Cela s’appliquerait sans changement s’il y avait plus de trois cartes, mais, même avec trois cartes, la démonstration serait compliquée ; je me contenterai de la donner pour deux cartes seulement. Nous n’avons plus que deux hypothèses

12, 21

avec les probabilités p1 et 1-p1. Supposons n battements et supposons que je gagne 1 franc si les cartes sont finalement dans l’ordre initial, et que j’en perde un si elles sont finalement interverties. Alors, mon espérance mathématique sera :

(p1-p2)n

La différence p1-p2 est certainement plus petite que 1 ; de sorte que si n est très grand, mon espérance sera nulle ; nous n’avons pas besoin de connaître p1 et p2 pour savoir que le jeu est équitable.

Il y aurait une exception toutefois, si l’un des nombres p1 et p2 était égal à 1 et l’autre nul. Cela ne marcherait plus alors parce que nos hypothèses initiales seraient trop simples.

Ce que nous venons de voir ne s’applique pas seulement au mélange des cartes, mais à tous les mélanges, à ceux des poudres et des liquides ; et même à ceux des molécules gazeuses dans la théorie cinétique des gaz. Pour en revenir à cette théorie, supposons pour un instant un gaz dont les molécules ne puissent se choquer mutuellement, mais puissent être déviées par des chocs sur les parois du vase où le gaz est renfermé. Si la forme du vase est suffisamment compliquée, la distribution des molécules et celle des vitesses ne tarderont pas à devenir uniformes. Il n’en sera plus de même si le vase est sphérique ou s’il a la forme d’un parallélépipède rectangle ; pourquoi ? Parce que, dans le premier cas, la distance du centre à une trajectoire quelconque demeurera constante ; dans le second cas ce sera la valeur absolue de l’angle de chaque trajectoire avec les faces du parallélépipède.

On voit ainsi ce que l’on doit entendre par conditions trop simples ; ce sont celles qui conservent quelque chose, qui laissent subsister un invariant. Les équations différentielles du problème sont-elles trop simples pour que nous puissions appliquer les lois du hasard ? Cette question parait, au premier abord, dénuée de sens précis ; nous savons maintenant ce qu’elle veut dire. Elles sont trop simples, si elles conservent quelque chose, si elles admettent une intégrale uniforme ; si quelque chose des conditions initiales demeure inaltéré, il est clair que la situation finale ne pourra plus être indépendante de la situation initiale.

Venons enfin à la théorie des erreurs. A quoi sont dues les erreurs accidentelles, nous l’ignorons, et c’est justement parce que nous l’ignorons que nous savons qu’elles vont obéir à la loi de Gauss. Tel est le paradoxe. Il s’explique à peu près de la même manière que dans les cas précédents. Nous n’avons besoin de savoir qu’une chose : que les erreurs sont très nombreuses, qu’elles sont très petites, que chacune d’elles peut être aussi bien négative que positive. Quelle est la courbe de probabilité de chacune d’elles ? nous n’en savons rien, nous supposons seulement que cette courbe est symétrique. On démontre alors que l’erreur résultante suivra la loi de Gauss, et cette loi résultante est indépendante des lois particulières que nous ne connaissons pas. Ici encore la simplicité du résultat est née de la complication même des données.

Mais nous ne sommes pas au bout des paradoxes. J’ai repris tout à l’heure la fiction de Flammarion, celle de l’homme qui va plus vite que la lumière et pour qui le temps est changé de signe. J’ai dit que pour lui tous les phénomènes sembleraient dus au hasard. Cela est vrai à un certain point de vue, et cependant tous ces phénomènes à un instant donné ne seraient pas distribués conformément aux lois du hasard, puisqu’ils le seraient comme pour nous, qui les voyant se dérouler harmonieusement et sans sortir d’un chaos primitif, ne les regardons pas comme réglés par le hasard.

Qu’est-ce que cela veut dire ? Pour Lumen, l’homme de Flammarion, de petites causes semblent produire de grands effets ; pourquoi les choses ne se passent-elles pas comme pour nous quand nous croyons voir de grands effets dus à de petites causes ? Le même raisonnement ne serait-il pas applicable à son cas ?

Revenons sur ce raisonnement : quand de petites différences dans les causes en engendrent de grandes dans les effets, pourquoi ces effets sont-ils distribués d’après les lois du hasard ? Je suppose qu’une différence d’un millimètre sur la cause, produise une différence d’un kilomètre dans l’effet. Si je dois gagner dans le cas où l’effet correspondra à un kilomètre portant un numéro pair, ma probabilité de gagner sera ½ ; pourquoi ? Parce qu’il faut pour cela que la cause corresponde à un millimètre de numéro pair. Or selon toute apparence, la probabilité pour que la cause varie entre certaines limites sera proportionnelle à la distance de ces limites, pourvu que cette distance soit très petite. Si l’on n’admettait pas cette hypothèse, il n’y aurait plus moyen de représenter la probabilité par une fonction continue.

Qu’arrivera-t-il maintenant quand de grandes causes produiront de petits effets ? C’est le cas où nous n’attribuerions pas le phénomène au hasard, et où Lumen au contraire l’attribuerait an hasard. A une différence d’un kilomètre dans la cause correspondrait une différence d’un millimètre dans l’effet. La probabilité pour que la cause soit comprise entre deux limites distantes de n kilomètres, sera-t-elle encore proportionnelle à n ? Nous n’avons aucune raison de le supposer puisque cette distance de n kilomètres est grande. Mais la probabilité pour que l’effet reste compris entre deux limites distantes de n millimètres sera précisément la même, elle ne sera donc pas proportionnelle à n, et cela bien que cette distance de n millimètres soit petite. Il n’y a donc pas moyen de représenter la loi de probabilité des effets par une courbe continue ; entendons-nous bien, cette courbe pourra rester continue au sens analytique du mot, à des variations infiniment petites de l’abscisse correspondront des variations infiniment petites de l’ordonnée. Mais pratiquement elle ne serait pas continue puisque, à des variations très petites de l’abscisse, ne correspondraient pas des variations très petites de l’ordonnée. Il deviendrait impossible de tracer la courbe avec un crayon ordinaire : voila ce que je veux dire.

Que devons-nous donc conclure ? Lumen n’a pas le droit de dire que la probabilité de la cause (celle de sa cause, qui est notre effet à nous) doit nécessairement être représentée par une fonction continue. Mais alors, nous, pourquoi avons-nous ce droit ? C’est parce que cet état d’équilibre instable, que nous appelions tout à l’heure initial, n’est lui-même que le point d’aboutissement d’une longue histoire antérieure. Dans le cours de cette histoire, des causes complexes ont agi et elles ont agi longtemps : elles ont contribué à opérer le mélange des éléments et elles ont tendu à tout uniformiser au moins dans un petit espace ; elles ont arrondi les angles, nivelé les montagnes et comblé les vallées : quelque capricieuse et irrégulière qu’ait pu être la courbe primitive qu’on leur a livrée, elles ont tant travaillé à la régulariser, qu’elles nous rendront finalement une courbe continue. Et c’est pourquoi nous en pouvons en toute confiance admettre la continuité.

Lumen n’aurait pas les mêmes raisons de conclure ainsi ; pour lui, les causes complexes ne lui paraîtraient pas des agents de régularité et de nivellement, elles ne créeraient au contraire que la différentiation et l’inégalité. Il verrait sortir un monde de plus en plus varié d’une sorte de chaos primitif ; les changements qu’il observerait seraient pour lui imprévus et impossibles à prévoir ; ils lui paraîtraient dus à je ne sais quel caprice ; mais ce caprice serait tout autre chose que notre hasard, puisqu’il serait rebelle à toute loi, tandis que notre hasard a encore les siennes. Tous ces points demanderaient de longs développements, qui aideraient peut-être à mieux comprendre l’irréversibilité de l’univers.

Nous avons cherché à définir le hasard, et il convient maintenant de se poser une question. Le hasard, étant ainsi défini dans la mesure où il peut l’être, a-t-il un caractère objectif ?

On peut se le demander. J’ai parlé de causes très petites ou très complexes. Mais ce qui est très petit pour l’un ne peut-il être grand pour l’autre, et ce qui semble très complexe à l’un ne peut-il paraître simple à l’autre ? J’ai déjà répondu en partie puisque j’ai dit plus haut d’une façon précise dans quel cas des équations différentielles deviennent trop simples pour que les lois du hasard restent applicables. Mais il convient d’examiner la chose d’un peu plus près, car on peut se placer encore à d’autres points de vue.

Que signifie le mot très petit ? Il suffit pour le comprendre de se reporter à ce que nous avons dit plus haut. Une différence est très petite, un intervalle est très petit lorsque, dans les limites de cet intervalle, la probabilité reste sensiblement constante. Et pourquoi cette probabilité peut-elle être regardée comme constante dans un petit intervalle ? C’est parce que nous admettons que la loi de probabilité est représentée par une courbe continu ; et non seulement continue au sens analytique du mot, mais pratiquement continue, comme je l’expliquais plus haut. Cela veut dire que non seulement elle, ne présentera pas d’hiatus absolu mais qu’elle n’aura pas non plus de saillants et de rentrants trop aigus ou trop accentués.

Et qu’est-ce qui nous donne le droit de faire cette hypothèse ? Nous l’avons dit plus haut, c’est parce que, depuis le commencement des siècles, il y a des causes complexes qui ne cessent d’agir dans le même sens et qui font tendre constamment le monde vers l’uniformité sans qu’il puisse jamais revenir en arrière. Ce sont ces causes qui ont peu à peu abattu les saillants et rempli les rentrants, et c’est pour cela que nos courbes de probabilité n’offrent plus que des ondulations lentes. Dans des milliards de milliards de siècles, on aura fait un pas de plus vers l’uniformité et ces ondulations seront dix fois plus lentes encore : le rayon de courbure moyen de notre courbe sera devenu dix fois plus grand. Et alors telle longueur qui aujourd’hui ne nous semble pas très petite, parce que sur notre courbe un arc de cette longueur ne peut être regardé comme rectiligne, devra au contraire à cette époque être qualifiée de très petite, puisque la courbure sera devenue dix fois moindre, et qu’un arc de cette longueur pourra être sensiblement assimilé à une droite.

Ainsi ce mot de très petit reste relatif ; mais il n’est pas relatif à tel homme ou à tel autre, il est relatif à l’état actuel du monde. Il changera de sens quand le monde sera devenu plus uniforme, que toutes les choses se seront mélangées plus encore. Mais alors sans doute les hommes ne pourront plus vivre et devront faire place à d’autres être ; dois-je dire beaucoup plus petits ou beaucoup plus grands ? De sorte que notre critérium, restant vrai pour tous les hommes, conserve un sens objectif.

Et que veut dire d’autre part le mot très complexe ? J’ai déjà donné une solution, et c’est celle que j’ai rappelée au début de ce paragraphe, mais il y en a d’autres. Les causes complexes, nous l’avons dit, produisent un mélange de plus en plus intime, mais au bout de combien de temps ce mélange nous satisfera-t-il ? Quand aura-t-on accumulé assez de complications ? Quand aura-t-on suffisamment battu les cartes ? Si nous mélangeons deux poudres, l’une bleue et l’autre blanche, il arrive un moment où la teinte du mélange nous parait uniforme ; c’est à cause de l’infirmité de nos sens ; elle sera uniforme pour le presbyte qui est obligé de regarder de loin quand elle ne le sera pas encore pour le myope. Et quand elle le sera devenue pour toutes les vues, on pourra encore reculer la limite par l’emploi des instruments. Il n’y a pas de chance pour qu’aucun homme discerne jamais la variété infinie qui, si la théorie cinétique est vraie, se dissimule sous l’apparence uniforme d’un gaz. Et cependant, si on adopte les idées de Gouy sur le mouvement brownien, le microscope ne semble-t-il pas sur le point de nous montrer quelque chose d’analogue ?

Ce nouveau critérium est donc relatif comme le premier et s’il conserve un caractère objectif, c’est parce que tous les hommes ont à peu près les mêmes sens, que la puissance de leurs instruments est limitée et qu’ils ne s’en servent d’ailleurs qu’exceptionnellement.

C’est la même chose dans les sciences morales et en particulier dans l’histoire. L’historien est obligé de faire un choix dans les événements de l’époque qu’il étudie ; il ne raconte que ceux qui lui semblent les plus importants. Il s’est donc contenté de relater les événements les plus considérables du XVIe siècle par exemple, de même que les faits les plus remarquables du XVIIe siècle. Si les premiers suffisent pour expliquer les seconds, on dit que ceux-ci sont conformes aux lois de l’histoire. Mais si un grand événement du XVIIe siècle reconnaît pour cause un petit fait du XVIe siècle, qu’aucune histoire ne rapporte, que tout le monde a négligé, alors on dit que cet événement est dû au hasard, ce mot a donc le même sens que dans les sciences physiques ; il signifie que de petites causes ont produit de grands effets.

Le plus grand hasard est la naissance d’un grand homme. Ce n’est que par hasard que se sont rencontrées deux cellules génitales, de sexe différent, qui contenaient précisément, chacune de son côté, les éléments mystérieux dont la réaction mutuelle devait produire le génie. On tombera d’accord que ces éléments doivent être rares et que leur rencontre est encore plus rare. Qu’il aurait fallu peu de chose pour dévier de sa route le spermatozoïde qui les portait ; il aurait suffi de le dévier d’un dixième de millimètre et Napoléon ne naissait pas et les destinées d’un continent étaient changées. Nul exemple ne peut mieux faire comprendre les véritables caractères du hasard.

Un mot encore sur les paradoxes auxquels a donné lieu l’application du calcul des probabilités aux sciences morales. On a démontré qu’aucune Chambre ne contiendrait jamais aucun député de l’opposition, ou du moins un tel événement serait tellement improbable qu’on pourrait sans crainte parier le contraire, et parier un million contre un sou. Condorcet s’est efforcé de calculer combien il fallait de jurés pour qu’une erreur judiciaire devint pratiquement impossible. Si on avait utilisé les résultats de ce calcul, on se serait certainement exposé aux mêmes déceptions qu’en pariant sur la foi du calcul que l’opposition n’aurait jamais aucun représentant.

Les lois du hasard ne s’appliquent pas à ces questions. Si la justice ne se décide pas toujours par de bonnes raisons, elle use moins qu’on ne croit de la méthode de Bridoye ; c’est peut-être fâcheux, puisque alors le système de Condorcet nous mettrait à l’abri des erreurs judiciaires.

Qu’est-ce à dire ? Nous sommes tentés d’attribuer au hasard les faits de cette nature parce que les causes en sont obscures ; mais ce n’est pas là le vrai hasard. Les causes nous sont inconnues, il est vrai, et même elles sont complexes ; mais elles ne le sont pas assez puisqu’elles conservent quelque chose ; nous avons vu que c’est là ce qui distingue les causes « trop simples ». Quand des hommes sont rapprochés, ils ne se décident plus au hasard et indépendamment les uns des autres ; ils réagissent les uns sur les autres. Des causes multiples entrent en action, elles troublent les hommes, les entraînent à droite et à gauche, mais il y a une chose qu’elles ne peuvent détruire, ce sont leurs habitudes de moutons de Panurge. Et c’est cela qui se conserve.

L’application du calcul des probabilités aux sciences exactes entraîne aussi bien des difficultés. Pourquoi les décimales d’une table de logarithme, pourquoi celles du nombre π sont-elles distribuées conformément aux lois du hasard ? J’ai déjà ailleurs étudié la question en ce qui concerne les logarithmes, et là, cela est facile ; il est clair qu’une petite différence sur l’argument donnera une petite différence sur le logarithme, mais une grande différence sur la sixième décimale du logarithme. Nous retrouvons toujours le même critérium.

Mais pour le nombre π, cela présente plus de difficultés et je n’ai pour le moment rien de bon à dire.

Il y aurait beaucoup d’autres questions à soulever, si je voulais les aborder avant d’avoir résolu celle que je m’étais plus spécialement proposée.

Quand nous constatons un résultat simple, quand nous trouvons un nombre rond par exemple, nous disons qu’un pareil résultat ne peut pas être dû au hasard, et nous cherchons pour l’expliquer une cause non fortuite. Et en effet il n’y a qu’une très faible probabilité pour qu’entre 10.000 nombres, le hasard amène un nombre rond, le nombre 10.000 par exemple ; il y a seulement une chance sur 10.000. Mais il n’y a non plus qu’une chance sur 10.000 pour qu’il amène n’importe quel autre nombre ; et cependant ce résultat ne nous étonnera pas et il ne nous répugnera pas de l’attribuer au hasard ; et cela simplement parce qu’il sera moins frappant.

Y a-t-il là de notre part une simple illusion, ou bien y a-t-il des cas où cette façon de voir est légitime ? Il faut l’espérer, car sans cela toute science serait impossible. Quand nous voulons contrôler une hypothèse, que faisons-nous ? Nous ne pouvons en vérifier toutes les conséquences, puisqu’elles seraient en nombre infini ; nous nous contentons d’en vérifier quelques-unes et si réussissons, nous déclarons l’hypothèse confirmée, car tant de succès ne sauraient, être dus au hasard. Et c’est toujours au fond le même raisonnement.

Je ne puis ici le justifier complètement, cela me prendrait trop de temps ; mais je puis dire au moins ceci : nous nous trouvons en présence de deux hypothèses, ou bien une cause simple, ou bien cet ensemble de causes complexes que nous appelons le hasard. Nous trouvons naturel d’admettre que la première doit produire un résultat simple, et alors, si nous constatons ce résultat simple, le nombre rond par exemple, il nous parait plus vraisemblable de l’attribuer à la cause simple qui devait nous le donner presque certainement, qu’au hasard qui ne pouvait nous le donner qu’une fois sur 10.000. Il n’en sera plus de même si nous constatons un résultat qui n’est pas simple ; le hasard, il est vrai, ne l’amènera pas non plus plus d’une fois sur 10.000 ; mais la cause simple n’a pas plus de chance de le produire.