Initiations à la physique/Chapitre III

Traduction par Joachim du Plessis de Grenédan.
Flammarion (p. 52-67).

CHAPITRE III

LOIS STATISTIQUES ET LOIS DYNAMIQUES

Toutes les sciences, surtout celles qui sont en pleine jeunesse, sont fertiles en découvertes imprévues et même imprévisibles ; toutes, sans en excepter même les mathématiques, sont, jusqu’à un certain point, des sciences expérimentales. Qu’une science ait pour objet la nature ou bien la civilisation intellectuelle, son rôle principal sera toujours de mettre de l’ordre et de la cohérence dans la masse des faits et des expériences accumulés, de combler les lacunes qui s’y trouvent et d’unifier enfin le tout dans une synthèse.

Cette unification ne serait d’ailleurs pas possible si les lois qui s’appliquent aux objets si divers des différentes sciences différaient autant par leur nature qu’on serait tenté de le croire quand on compare, par exemple, une question d’histoire et une question de physique. En tout cas, il serait complètement faux de vouloir trouver une différence de principe, entre les lois qui régissent les deux domaines, dans le fait que les lois qui se trouvent dans les sciences de la nature sont absolues et ne comportent pas d’exceptions et que, par suite, le cours des phénomènes régis par ces lois a un caractère de nécessité ; tandis que dans le domaine des sciences morales, l’enchaînement causal est toujours interrompu, çà et là, par l’irruption d’une certaine dose de hasard et d’arbitraire. D’une part, en effet, toute activité intellectuelle, scientifique, même si cette activité a pour objet ce qu’il y a de plus élevé dans l’esprit humain, repose sur un postulat indispensable, à savoir qu’il existe, au-delà et au-dessus de tout hasard, de tout arbitraire, un ordre régi par des lois. D’autre part, aussi, il arrive très souvent, même en physique, la plus exacte pourtant de toutes les sciences de la nature, qu’on étudie des phénomènes dont les lois nous sont encore très obscures. Si l’on donne au mot hasard un sens correct, il n’y a donc aucun inconvénient à tenir ces phénomènes pour fortuits.

Considérons maintenant, comme application à un cas spécial, ce qui se passe dans les substances radioactives, dont les atomes sont en voie de destruction continuelle selon l’hypothèse, aujourd’hui universellement admise, de Ramsay et Soddy. Voici un atome d’uranium qui est resté absolument passif et invariable au milieu des atomes de la même espèce qui l’entourent pendant d’innombrables millions d’années ; tout à coup, sans aucune cause extérieure, dans un intervalle de temps dont la brièveté défie toute mesure, cet atome explose avec une violence auprès de laquelle le brisance de nos explosifs les plus formidables n’est qu’un jeu d’enfant. Les débris en sont projetés dans l’espace avec des vitesses atteignant des milliers de kilomètres à la seconde et le phénomène s’accompagne de l’émission d’un rayonnement électromagnétique dont la finesse dépasse celle des rayons de Röntgen les plus pénétrants. À côté de lui l’atome voisin, qui lui est identique en tout point, assiste indifférent au cataclysme ; peut-être même devra-t-il attendre des millions d’années avant de subir le même sort. Ajoutez à cela que tous les essais entrepris dans le but d’influencer le phénomène, tels que l’élévation ou l’abaissement de la température, ont complètement échoué, ainsi donc il n’y a pas le moindre espoir de parvenir à se faire une idée des lois qui régissent les phénomènes de la désintégration de l’atome. Et cependant l’hypothèse de cette désintégration est une des hypothèses les plus importantes de la physique, elle groupe en un clin d’œil une masse considérable de faits, jusqu’alors incohérents et inexpliqués ; elle conduit à des prévisions très nombreuses dont les unes ont déjà été brillamment vérifiées par l’expérience et dont les autres ont donné lieu à des travaux et à des découvertes importantes. Comment donc tout cela est-il possible ? Comment peut-on établir de véritables lois pour ces phénomènes dont le cours est, semble-t-il pour le moment, sous tous les rapports, livré au hasard le plus aveugle ? Le moyen en a été fourni par une science qui depuis longtemps déjà a trouvé des applications dans les sciences sociales. Cette science, n’est autre que la méthode statistique. La physique, elle aussi, a su l’apprécier et elle l’a utilisée avec un succès toujours grandissant depuis la seconde moitié du siècle dernier. La méthode en question relève de considérations tout à fait différentes de l’idée de causalité pure et son développement conditionne de la façon la plus étroite l’évolution de la physique moderne. Au lieu de s’évertuer à découvrir les lois dynamiques obscures régissant le détail compliqué des phénomènes, on se contente, pour un phénomène donné, de rassembler le résultat d’observations éparses répétées un grand nombre de fois. Ceci fait, pour chaque catégorie de résultats, on calcule la moyenne des valeurs trouvées. Or on peut découvrir pour ces moyennes des règles expérimentales, variables selon les circonstances, qui permettent de prévoir le cours futur des phénomènes. Cette prédiction n’est jamais, il est vrai, absolument certaine ; mais elle a une probabilité qui équivaut très souvent, en pratique, à la certitude et elle porte, non plus, sur le détail complexe des phénomènes qui n’a, le plus souvent, aucune importance, mais sur le comportement moyen de l’ensemble.

Cette méthode, avec son caractère, en somme provisoire, peut ne pas satisfaire notre besoin d’exactitude scientifique ; car ce besoin ne peut être apaisé que par la découverte du lien causal. On peut aussi la juger peu satisfaisante et n’éprouver aucune sympathie pour elle, mais il n’en reste pas moins vrai qu’elle est devenue pratiquement indispensable en physique, on ne pourrait y renoncer sans anéantir les conquêtes les plus récentes de cette science. D’ailleurs, il ne faut pas l’oublier, on n’a jamais affaire en physique à des grandeurs absolument déterminées ; car tout nombre exprimant le résultat d’une mesure est affecté d’une erreur possible. Vouloir ne tenir compte que de nombres précis sans admettre une certaine latitude d’erreur reviendrait donc à renoncer à l’utilisation rationnelle des résultats de la méthode inductive.

De l’état de choses qui vient d’être décrit, il résulte avec une évidence suffisante que, si l’on veut comprendre vraiment le caractère essentiel de toute connaissance en physique, on ne saurait accorder trop d’importance à la distinction existant entre ces deux espèces de lois : les lois statiques et les lois dynamiques. On me permettra donc d’insister en donnant quelques exemples.

Commençons par un exemple banal. Prenons deux tubes de verre reliés entre eux par un tuyau de caoutchouc et versons un liquide pesant, du mercure par exemple, par l’extrémité supérieure d’un des deux tubes ; nous verrons alors le liquide remonter par l’autre tube en passant par le tuyau de caoutchouc et l’ascension se poursuivra jusqu’à ce que les niveaux soient les mêmes dans les deux tubes. En outre l’état d’équilibre se rétablira de lui-même s’il vient à être dérangé d’une façon quelconque. Si nous élevons brusquement l’un des tubes de telle sorte que le mercure soit soulevé un instant et que par suite son niveau devient supérieur à ce qu’il est dans l’autre, le mercure redescendra aussitôt jusqu’à ce que l’égalité des niveaux soit rétablie, telle est la loi élémentaire bien connue des vases communicants dont le siphon n’est qu’une application.

Passons maintenant à un autre phénomène. Prenons un morceau de fer, portons-le à une température élevée en le mettant dans un four et jetons-le ensuite dans un récipient rempli d’eau froide, la chaleur du fer se répandra dans l’eau et l’échauffement de l’eau durera jusqu’à ce que l’égalité de température soit établie. On arrive alors à ce qu’on appelle l’équilibre thermique, cet équilibre se rétablit lorsqu’on le perturbe.

Il y a donc une analogie évidente entre les deux phénomènes que nous venons de décrire. Pour tous les deux, la condition nécessaire de modification est l’existence d’une certaine différence. Cette différence sera, dans le premier cas, une différence de niveau, dans le second une différence de température. L’équilibre a lieu quand la différence s’annule. C’est pourquoi on dit quelquefois que la température est le niveau thermique et que, dans le premier cas, l’énergie de gravitation, dans le second, l’énergie thermique tombe d’un niveau supérieur à un niveau inférieur, la chute se poursuivant dans les deux cas jusqu’à l’égalité des niveaux.

Aussi verrons-nous sans étonnement une énergétique portée aux généralisations trop hâtives s’emparer de cette analogie et voir dans les deux phénomènes l’application d’un même grand principe baptisé par elle « principe du devenir ». D’après ce principe tout changement ayant lieu dans la nature pourrait se ramener à un échange d’énergie et, à ce point de vue, toutes les formes d’énergie seraient considérées comme autonomes et comme pleinement équivalentes. À toute forme d’énergie correspondrait un facteur d’intensité qui lui est propre : pour la gravitation, ce facteur serait la hauteur, pour la chaleur, la température. C’est la différence dans les facteurs d’intensité qui déterminerait la manière dont les phénomènes se déroulent dans le temps. Comme le principe semblait évident, personne ne songeait à mettre en doute qu’il ne fût valide dans tous les cas absolument ; et comme il était inévitable, il devint objet de vulgarisation et passa même dans les livres d’enseignement élémentaire.

Cependant l’analogie entre le cas de la gravitation et le cas de la chaleur est en réalité tout à fait superficielle. Un abîme profond sépare les lois auxquelles ces deux phénomènes sont soumis. De l’ensemble des faits expérimentaux accumulés à ce sujet, il résulte, en effet, avec certitude que le premier phénomène obéit à une loi dynamique et le second à une loi statistique. En d’autres termes, si le liquide coule d’un niveau supérieur vers un niveau inférieur, c’est là une nécessité, tandis que si la chaleur passe d’une température élevée à une autre plus basse, ce n’est qu’une probabilité.

Naturellement une affirmation aussi étrange, disons même aussi paradoxale, doit être appuyée par un faisceau de preuves absolument convaincant. Je m’efforcerai donc de produire la plus importante d’entre ces preuves et, ce faisant, j’aurai du même coup rempli la tâche que je me propose, qui est de montrer le contraste existant entre les lois statiques et les lois dynamiques.

En ce qui concerne la nécessité de la chute du liquide pesant on peut montrer facilement qu’elle est une conséquence du principe de la conservation de l’énergie, car si la surface du liquide placée au niveau le plus élevé s’élevait encore davantage sans l’aide d’aucune impulsion extérieure entraînant un abaissement correspondant, il y aurait création d’énergie, ce qui est contraire au premier principe de la thermodynamique. Dans le cas de l’autre phénomène, il n’en est déjà plus ainsi, car le transport de chaleur pourrait aussi bien se faire de telle sorte que la chaleur passât de l’eau froide dans le fer chaud sans que le principe de la conservation de l’énergie fût violé. Tout ce que ce principe demande, c’est que la chaleur fournie par l’eau soit égale à la chaleur cédée au fer.

Mais il y a encore une autre différence entre les cours des deux phénomènes qui ne saurait échapper, même à l’observateur le moins averti. Le liquide qui tombe d’un niveau élevé vers un autre plus bas coulera d’autant plus vite qu’il s’abaissera davantage et quand l’égalité des niveaux dont nous avons parlé plus haut s’est établie, le liquide ne restera pas au repos dans la position d’équilibre, il la dépassera au contraire en vertu de son inertie, de telle sorte que le liquide qui était tout à l’heure au niveau le plus élevé sera maintenant au niveau le plus bas. Dans cette seconde phase du phénomène, la vitesse du liquide ira en diminuant jusqu’à devenir nulle, puis le phénomène se renouvellera dans l’ordre inverse. Si toute perte d’énergie provenant, soit de la résistance de l’air, soit du frottement du liquide contre les parois, pouvait être évitée, le liquide oscillerait indéfiniment autour de sa position d’équilibre. C’est pourquoi le phénomène peut être dit réversible.

Il en est tout autrement dans le cas de la chaleur, plus la différence de température entre le fer et l’eau sera petite et plus le transport de chaleur sera lent. Si l’on calculait au bout de combien de temps l’équilibre sera établi, on trouverait qu’il faut un temps infini pour y parvenir. En d’autres termes, entre le fer et l’eau on trouvera toujours une petite différence de température, aussi longtemps qu’on attende. Il n’y a donc pas trace d’un mouvement oscillatoire de la chaleur entre les deux corps, le transport a toujours lieu dans le même sens, et l’on doit dire que le phénomène est irréversible.

Parmi les contrastes que l’on peut observer entre les phénomènes physiques, il n’en est pas de plus grand que celui qui oppose les phénomènes irréversibles aux phénomènes réversibles. Les phénomènes de gravitation, les oscillations électriques et mécaniques appartiennent à la première catégorie, on peut facilement les faire rentrer dans le domaine d’application d’une seule et même loi dynamique : le principe de la moindre action qui contient lui-même implicitement le principe de la conservation de l’énergie. La conductibilité thermique, la conductibilité électrique, le frottement, la diffusion et toutes les réactions chimiques pour peu qu’elles aient lieu avec une vitesse notable font partie des phénomènes irréversibles. Tous ces phénomènes obéissent, ainsi que Clausius l’a montré, au second principe de la thermodynamique ; postulat qui doit son importance et sa remarquable fécondité à ce qu’il permet de prévoir le sens dans lequel un phénomène irréversible aura lieu.

Il était réservé à Ludwig Boltzmann de découvrir, par le moyen de considérations atomistiques, la cause profonde de toutes les particularités communes à tous les phénomènes irréversibles, particularités qui sont la raison des difficultés insurmontables que rencontre une explication dynamique de ces phénomènes. Et Boltzmann découvrait aussi du même coup quelle est la véritable signification du second principe de la thermodynamique. D’après l’hypothèse atomistique, l’énergie thermique d’un corps n’est pas autre chose que l’ensemble des mouvements irréguliers et extrêmement rapides dont les molécules de ce corps sont animées. La valeur de la température correspond à la force vive moyenne des molécules et le transport de chaleur d’un corps chaud vers un corps plus froid est dû à ce que les forces vives des molécules tendent à s’égaliser en moyenne, de part et d’autre de la surface de contact des deux corps par suite de nombreux chocs.

Il ne faudrait pas cependant supposer que dans le choc de deux molécules, celle qui a la plus grande force vive en perd nécessairement une partie tandis que celle qui a la plus petite force vive voit son mouvement s’accélérer. En effet, si une molécule animée d’un mouvement rapide reçoit de côté et suivant une direction oblique le choc d’une molécule lente, sa vitesse s’accroîtra encore davantage, tandis que la vitesse de la molécule lente diminuera. Mais, si l’on ne considère que l’ensemble des phénomènes, d’après les lois du calcul des probabilités et, en dehors de certains cas exceptionnels, il y a cependant une certaine homogénéisation des forces vives qui correspond à une uniformisation des températures. En tout cas, toutes les déductions faites dans le but de tirer les conséquences de cette hypothèse, — et dans le cas des gaz, elles ont été poussées assez loin, — ont donné des résultats compatibles avec l’expérience.

Pourtant, jusqu’à une époque récente, les considérations atomistiques qui nous paraissent aujourd’hui si séduisantes et si prometteuses, ne furent jamais, au fond, regardées que comme des hypothèses ingénieuses. Aux yeux des savants circonspects, c’était une chose par trop téméraire que de franchir d’un seul bond la frontière séparant le visible et le contrôlable de l’invisible et du mystérieux ou, en d’autres termes, d’abandonner le macrocosme pour le microcosme. Boltzmann, lui-même, évitait ostensiblement de compromettre par trop de hardiesse la portée de ses théories et de ses calculs, il insistait sur le caractère purement hypothétique de son atomisme et il disait qu’il ne fallait pas y voir une image de la réalité. Aujourd’hui nous pouvons nous permettre d’aller plus loin, pour autant du moins qu’il y a un sens, au point de vue de la théorie de la connaissance, à parler d’une image de la réalité. Nous connaissons, en effet, toute une série de faits expérimentaux qui confèrent à l’hypothèse atomistique un degré de crédibilité absolument égal à celui qui est propre aux théories de l’acoustique et de l’électromagnétique, aux théories de la lumière et de la chaleur rayonnante.

D’après le principe énergétiste du devenir qualifié par nous d’erroné, l’état d’un liquide en repos et où régnerait une température uniforme, devrait être absolument incompatible avec un changement quelconque ; car là où on ne saurait trouver de différences d’intensité, il ne peut y avoir non plus aucune cause de changement. Mais on peut rendre visible ce qui se passe à l’intérieur d’un liquide tel que de l’eau, par exemple, en y suspendant des particules très nombreuses et très petites ou des gouttelettes d’un autre liquide tel que du mastic ou de la gomme gutte. Or le spectacle qui attend celui qui regarde une préparation de ce genre sous le microscope est de ceux qui ne se peuvent oublier. Il semble que l’on pénètre dans un monde entièrement nouveau. Au lieu de l’immobilité sépulcrale qu’il était naturel d’imaginer, l’observateur assiste à la plus échevelée des sarabandes de la part des particules suspendues et, chose remarquable, les particules qui se démènent le plus follement sont justement les plus petites. Il est impossible de déceler de la part du liquide aucun frottement qui freinerait le mouvement. Si, par hasard une particule vient à s’arrêter, une autre entre aussitôt à sa place dans la danse. Devant un tel spectacle, il est impossible de ne pas songer à l’activité fiévreuse d’une fourmilière que l’on aurait bouleversée avec un bâton. Mais tandis que les insectes finissent par se remettre peu à peu de leur excitation et même par perdre toute activité quand la nuit tombe, les particules ne montrent pas la moindre trace de fatigue tant que la température du liquide reste constante. Nous sommes donc en présence d’un « perpetuum mobile » au sens le plus strict du mot et non pas dans une des nombreuses acceptions figurées qui ont été données à ce terme.

L’explication de ce phénomène, découvert par le botaniste anglais Brown, a été donnée il y a déjà 25 ans par le Français Gouy. D’après ce physicien, le mouvement brownien est causé par l’agitation thermique des molécules du liquide. Ces molécules invisibles, par leurs chocs incessants contre les particules visibles qui flottent disséminées parmi elles, provoquent les mouvements irréguliers observés. Mais la preuve décisive de l’exactitude de cette opinion n’a été apportée que tout récemment.

Smoluchowski est en effet parvenu à formuler une théorie statistique du mouvement brownien dont on peut déduire les lois régissant la densité de répartition des particules, leurs vitesses, la valeur de leur parcours et même la valeur de leurs rotations. Ces lois ont été brillamment vérifiées par l’expérience, grâce surtout aux travaux de Jean Perrin.

Pour tout physicien qui croit à la valeur de la méthode inductive, il n’y a donc aucun doute : la matière possède une structure atomique. La chaleur est identique aux mouvements des molécules et la conductibilité thermique, comme tous les autres phénomènes irréversibles obéit à des lois statistiques, c’est-à-dire à des lois de probabilité et non à des lois dynamiques. À vrai dire, il est extrêmement difficile de se faire une idée, même approximative, de l’incroyable petitesse de la probabilité qu’il y a à ce que, même pour un court instant, la chaleur suive la direction inverse de celle qui lui est habituelle, en passant, par exemple, de l’eau froide dans le fer chaud. Supposons que l’on extraie au hasard des lettres d’un sac qui en contient une grande quantité et qu’on les place côte à côte dans l’ordre où on les a tirées, on conçoit qu’il est possible d’obtenir par ce moyen un texte pourvu d’un sens, peut-être même une poésie de Gœthe. Au jeu de dés, il est également possible d’amener cent fois de suite le six, car le résultat de chaque coup est indépendant de celui du coup précédent. Et pourtant, cela n’empêche pas que si quelque chose de semblable venait à se produire réellement, personne n’hésiterait à affirmer que le jeu n’est pas loyal ou bien que les dés ne possèdent sans doute pas une symétrie parfaite et personne ne serait assez déraisonnable pour s’inscrire en faux contre une telle manière de voir. La probabilité pour que le phénomène en question ait eu lieu dans des conditions normales est, en effet, par trop faible. Or cette probabilité est tout à fait énorme par rapport à la probabilité qu’il y a pour que la chaleur passe, même une seule fois, d’un corps froid dans un corps chaud. Dans le cas du dé, il ne peut y avoir que 6 cas possibles correspondant à 6 nombres différents inscrits sur ses faces.

Dans le cas des lettres, il s’agit de 25 possibilités différentes ; mais dans le cas des molécules c’est un grand nombre de millions qui peuvent se trouver dans le plus petit espace visible, et de plus ces molécules sont animées des vitesses les plus diverses.

Au point de vue pratique la possibilité d’exceptions aux lois de conductibilité thermique ne saurait donc entraîner aucun inconvénient.

Au point de vue théorique, il en est tout autrement. Aux yeux de tout le monde il est en effet évident qu’une probabilité, fût-elle aussi petite qu’on le voudra, est séparée d’une impossibilité par un abîme infranchissable. D’ailleurs il y a des cas où l’existence de cet abîme est tout à fait manifeste, il suffit de jouer aux dés pendant suffisamment longtemps pour pouvoir escompter amener 100 fois de suite 6, et cela avec une probabilité qui peut être très grande. De même, si l’on a la patience de tirer des lettres assez longtemps, on finira certainement par arriver à composer le monologue de Faust. Fort heureusement, nous n’en sommes pas réduits à cette seule méthode de vérification, car pour pouvoir compter sur une réussite la durée d’une vie humaine et, peut-être, celle du genre humain tout entier ne suffirait pas.

Bien plus, il y a des cas où, même en physique, il convient de prendre en sérieuse considération des probabilités extrêmement minimes. Une poudrière peut exploser un beau jour sans qu’aucune cause externe puisse être attribuée à l’accident. À une inflammation de cette sorte, dite spontanée, comment pourrait-on attribuer une autre cause que la suivante : une accumulation de chocs, de soi extrêmement improbables, entre des molécules susceptibles de réagir chimiquement les unes sur les autres dans le sens fatal. Or cette accumulation est, on le voit aisément, régie par des lois purement statistiques. Par exemple, on saisit combien il faut être prudent dans l’emploi des mots tels que « sûr » où « certain », même dans une science exacte. On peut aussi apprécier par là combien modeste est parfois la portée des lois expérimentales.

Ainsi donc, pour des raisons tirées, tant de la théorie que de la pratique, il est indispensable d’établir une distinction fondamentale entre les lois nécessaires et celles qui sont simplement probables. Toutes les fois que l’on sera en présence d’une loi, la première chose à se demander sera donc : cette loi est-elle une loi statistique ou une loi dynamique ? Il y a là un dualisme, et même un dualisme inévitable, dès lors que les considérations statistiques ont droit de cité en physique, néanmoins bien des gens n’en ont pas été pleinement satisfaits et ont cherché à le faire disparaître. Dans ce but, ils se sont résignés à nier l’existence de toute certitude et de toute impossibilité absolue et à n’admettre que des probabilités plus ou moins grandes. Selon eux, il n’y aurait plus de lois dynamiques dans la nature, mais seulement des lois statistiques et le concept de nécessité absolue serait à exclure de la physique. Contre cette opinion, qui est une erreur grossière et pernicieuse, on peut objecter que tous les phénomènes réversibles, sans exception, sont régis par des lois dynamiques, il n’y a donc aucune raison de supprimer cette dernière catégorie de lois. Mais il y a bien mieux encore : la physique, pas plus que n’importe quelle autre science, que cette science soit une science de la nature ou une science de l’esprit humain, ne peut se passer de la notion de loi absolue ; sans cette notion, la statistique elle-même ne fournirait que des résultats dénués de leur fondement le plus essentiel. Il ne faut pas l’oublier, en effet, les lois elles-mêmes du calcul des probabilités, non seulement peuvent, mais encore doivent, être prouvées rigoureusement ; aussi voyons-nous de tout temps ces questions de probabilité susciter au plus haut point l’intérêt des mathématiciens les plus éminents.

Si la probabilité de voir un événement donné succéder à tel autre est égale à 1/2 cela ne signifie aucunement que l’on ne sache absolument rien du second phénomène, cela veut dire tout au contraire que parmi les cas de production du premier phénomène, il y en a exactement 50 % qui entraînent aussi la production du second et que le pourcentage énoncé se vérifiera d’autant plus exactement que l’on examinera un plus grand nombre de cas. D’ailleurs, dans le cas où le nombre d’observations serait insuffisant, le calcul des probabilités permet de prévoir quel sera l’écart auquel il faut s’attendre entre le résultat observé et la moyenne, c’est-à-dire de calculer ce que l’on nomme la dispersion. Si les observations expérimentales se trouvent en désaccord avec la valeur calculée pour la dispersion, on peut conclure avec certitude qu’il y a une supposition inexacte au point de départ des calculs, autrement dit, qu’il y a une erreur systématique.

Pour arriver à démontrer des propositions d’un caractère aussi précis, il a fallu naturellement partir d’un certain nombre de conditions supposées remplies, par hypothèse. En physique, par exemple, la détermination exacte des probabilités n’est possible que si les phénomènes élémentaires ultimes dits microscopiques obéissent uniquement à des lois dynamiques. Bien que l’observation, en raison de la grossièreté de nos sens, ne puisse rien nous faire connaître de ces lois, le postulat de leur caractère absolument universel et nécessaire reste cependant le fondement indispensable de toute statistique.

De tout ce qui précède, il résulte que le dualisme qui oppose lois statistiques et lois dynamiques est étroitement lié à l’opposition du macrocosme et du microcosme, qui est elle-même un fait d’expérience. Il n’est point de théorie capable d’annihiler les faits. Aussi qu’on le veuille ou non, il est impossible de ne pas attribuer, tant aux lois statistiques qu’aux lois dynamiques, la place qui leur revient légitimement dans l’ensemble des théories physiques. Cependant la dynamique et la statistique ne devront pas être conçues comme se trouvant l’une vis-à-vis de l’autre dans un simple rapport de coordination et placées de ce fait sur un pied d’égalité. Les lois dynamiques satisfont en effet complètement à notre besoin de causalité et elles ont, à cause de cela, un certain caractère de simplicité. Les lois statistiques, par contre, forment toujours un ensemble complexe qui ne se présente jamais comme quelque chose de définitif, car elles comportent toujours, à l’état latent, le problème de leur réduction à des lois dynamiques élémentaires. La solution progressive des problèmes de ce genre est une des tâches principales de la science, comme le montre l’exemple de ce qui se passe, tant en chimie que dans les théories physiques sur la matière et l’électricité.

Même en météorologie, on trouve quelque chose d’analogue. L’œuvre de Bjerknes représente, en effet, un effort considérable pour la réalisation du plan grandiose consistant à ramener toute la statistique météorologique à ses éléments fondamentaux, c’est-à-dire aux lois physiques ordinaires. Une telle tentative sera-t-elle couronnée de succès ? Il est difficile de le dire. En tout cas, l’essai ne pouvait pas ne pas être fait ; car s’il appartient toujours à ln statistique de dire le premier mot, le dernier lui échappe, non moins nécessairement.

Comme le principe de la conservation de l’énergie occupe le premier rang parmi les lois dynamiques, de même le second principe est le plus important des lois statistiques. Ce fait ne l’empêche d’ailleurs nullement d’être susceptible d’une énonciation générale rigoureuse, bien qu’on parle souvent des limites de sa validité. Cet énoncé exact pourrait être formulé à peu près ainsi : Tous les changements physico-chimiques ont lieu, en moyenne, dans un sens tel que la probabilité des états qu’ils amènent va en croissant. Par exemple, de tous les états qu’un système de corps peut prendre, le plus probable, présente cette particularité que tous les corps y sont à la même température et c’est aussi l’unique raison pour laquelle la conduction de la chaleur a toujours lieu, en moyenne, dans le sens qui aboutit à cette uniformisation de la température.

Mais, en ce qui concerne un phénomène donné, le second principe ne permet de rien affirmer si l’on ne s’est pas assuré tout d’abord que, dans sa marche, il ne s’écarte pas notablement de la marche moyenne d’un grand nombre de phénomènes débutant par le même état initial. Théoriquement l’hypothèse du désordre élémentaire suffit pour que cette condition soit remplie, mais, expérimentalement, le seul moyen de contrôle consiste à répéter la même expérience un grand nombre de fois successivement ou à la faire reproduire par des expérimentateurs travaillant indépendamment les uns des autres. Cette reproduction d’une même expérience, souvent un grand nombre de fois, est d’un usage constant en physique pratique. Quel est en effet le physicien qui se contenterait d’exécuter une seule fois la même expérience, quand ce ne serait que pour éliminer les erreurs d’expérience inévitables ?

Si nous passons maintenant à l’énergie nous voyons qu’elle n’a aucun rapport direct avec le second principe, la meilleure preuve en est qu’il existe un phénomène qui peut n’être accompagné d’aucune variation d’énergie : ce phénomène est la diffusion. Celle-ci a lieu tout simplement parce que le mélange intime de deux substances différentes est plus probable qu’un mélange où la répartition n’est pas uniforme. On peut, il est vrai, soumettre la diffusion aux lois de l’énergétique en introduisant la notion de l’énergie libre. Cette notion permet de formuler les faits d’une façon commode et assez intuitive ; mais son emploi ne constitue jamais qu’un procédé indirect, car l’énergie libre ne peut être définie en faisant abstraction de ses rapports avec la probabilité.

Nous terminerons ce rapide aperçu en jetant un coup d’œil sur les phénomènes de la vie psychique. Ici encore, nous voyons que tout se passe de la même façon ; avec cette différence cependant, que l’importance de la causalité stricte y est très inférieure à celle de la probabilité. En d’autres termes, le microcosme s’efface devant le macrocosme. Pourtant malgré tout, le postulat d’un déterminisme absolu s’étendant même à ce qui touche la volonté humaine et la morale n’en reste pas moins, ici comme partout ailleurs, la condition indispensable de la recherche scientifique. Toutefois, dans cette application du déterminisme, on ne doit pas négliger une précaution qui s’impose dans les sciences de la nature elle-même. Cette précaution à laquelle on ne fait ordinairement pas attention, bien qu’on la tienne comme allant de soi, consiste à s’assurer que le phénomène à examiner n’est pas troublé dans son cours, par l’action de l’expérimentateur lui-même. Si un physicien veut mesurer la température d’un corps, il ne faut pas qu’il se serve d’un thermomètre tel que la température de ce corps soit modifiée quand on le met en contact avec le thermomètre. En principe, une recherche psychologique ne peut donc être pleinement objective que si elle a pour objet une personne autre que celle de l’expérimentateur et pour autant que cette personne est effectivement indépendante de lui. En ce qui concerne l’auto-observation, elle ne pourrait être admissible qu’en ce qui concerne le passé, pour autant que ce passé se présente aux yeux du psychologue comme quelque chose d’achevé et de définitif, dépourvu d’influence sur son propre présent. En aucun cas l’expérimentation ne saurait s’étendre au présent ni à l’avenir, d’ailleurs accessible uniquement par l’intermédiaire du présent. La pensée et la recherche scientifique sont en effet des parties intégrantes de la vie psychologique humaine et si l’objet de la recherche est identique avec le sujet pensant et cherchant, ce dernier se trouvera être dans un état de transformation perpétuelle au fur et à mesure que la connaissance progressera.

Il est donc tout à fait vain, et c’est se lancer dans une entreprise sans issue, d’essayer de rendre compte d’une façon parfaitement adéquate de son propre avenir, en adoptant le point de vue déterministe et en éliminant le concept du libre arbitre moral. Le libre arbitre, tel que nous le fait connaître le témoignage de notre conscience, est un pouvoir d’autodétermination qu’aucun lien causal ne saurait limiter. Le regarder comme inconciliable avec un déterminisme absolu régissant tous les phénomènes de la vie psychologique, c’est commettre une erreur de principe tout à fait semblable à celle du physicien qui négligerait la précaution dont nous avons parlé plus haut ; on pourrait aussi dire que c’est se tromper de la même façon qu’un physiologiste qui prétendrait étudier les fonctions naturelles d’un muscle sur une préparation anatomique de ce même muscle.

Nous le voyons donc, c’est la science qui se pose à elle-même des limites infranchissables. Mais l’effort humain ne peut pas s’avouer vaincu devant une telle barrière, il doit absolument la franchir ; il lui faut une réponse à cette question qui lui est sans cesse posée par la vie : comment dois-je agir ? Mais la réponse à cette question ce n’est ni le déterminisme, ni la causalité, ni même la science pure qui sont capables de la fournir d’une façon pleinement satisfaisante ; c’est le sens moral, le caractère, la conception éthique du monde.

Conscience et fidélité, tels sont les guides que nous devons choisir non seulement sur le terrain scientifique, mais encore, bien au delà, dans tout le cours d’une vie qui a le souci d’être droite. On ne doit pas certes, en attendre de brillantes réussites immédiates, mais plutôt les biens les plus précieux auxquels puisse aspirer notre esprit, à savoir : la paix intérieure et la véritable liberté.