Les Atomes/Préface
PRÉFACE
Deux genres d’activité intellectuelle, également instinctifs, ont joué un rôle considérable dans le progrès des sciences physiques.
L’un de ces instincts est déjà manifeste chez l’enfant, qui, tenant un objet, sait très bien ce qui arrivera s’il le lâche. Il n’a peut-être jamais soutenu cet objet, et, en tous cas, jamais exactement de la même façon ; mais il reconnaît quelque chose de commun dans la sensation musculaire actuelle et dans celles qu’il a déjà éprouvées quand il a tenu des objets qui, une fois lâchés, sont tombés. Des hommes tels que Galilée ou Carnot, qui possédaient à un degré extraordinaire cette Intelligence des Analogies, ont ainsi créé l’Énergétique par généralisations progressives, prudentes et hardies tout ensemble, de relations expérimentales et de réalités sensibles.
Ils ont observé, tout d’abord, ou pour mieux dire nous avons tous observé, non seulement qu’un objet tombe si on le lâche, mais aussi qu’une fois par terre il ne remonte pas tout seul. Il faut payer pour faire monter un ascenseur, et payer d’autant plus cher que cet ascenseur est plus lourd et monte plus haut. Bien entendu, le prix véritable n’est pas une somme d’argent, mais la répercussion réelle extérieure (abaissement d’une masse d’eau, combustion de charbon, modification chimique dans une pile), dont cet argent n’est que le signe.
Ceci bien établi, on devait naturellement se préoccuper de payer le moins cher possible. Nous savons par exemple, au moyen d’un treuil, élever 1 tonne de 1 mètre en laissant descendre 100 kilogrammes de 10 mètres ; est-il possible de réaliser un mécanisme plus économique permettant pour le même prix (100 kilogrammes abaissés de 10 mètres) d’élever 1 200 kilogrammes de 1 mètre ?
Galilée comprit que cela reviendrait en somme à dire que, dans certaines conditions, 200 kilogrammes peuvent s’élever de 1 mètre sans répercussion extérieure, « pour rien ». Si nous ne croyons pas cela possible, nous devons admettre l’équivalence des mécanismes qui achètent l’élévation d’un poids par l’abaissement d’un autre poids.
De même (et cette observation généralisée donne toute la calorimétrie), si on fond de la glace en refroidissant du mercure de 100° à 0°, on trouve toujours 42 grammes de glace fondue par kilogramme de mercure employé, que l’on opère par contact ou par rayonnement ou de toute autre manière (pourvu que tout se réduise à de la glace fondue et à du mercure refroidi de 100° à 0°). Plus instructives encore ont été les expériences où, en faisant intervenir le frottement, on produit un échauffement par un abaissement de poids (Joule). Si profondément que l’on change le mécanisme qui enchaîne les deux phénomènes, on trouve invariablement 1 grande calorie pour 428 kilogrammes abaissés de 1 mètre.
De proche en proche, on a ainsi obtenu le Premier Principe de la Thermodynamique, auquel on peut, je pense, donner l’énoncé suivant :
Si avec un certain mécanisme on sait enchaîner deux phénomènes de façon que chacun d’eux soit l’unique répercussion de l’autre, il n’arrivera jamais, de quelque façon qu’on change le mécanisme employé, qu’on obtienne comme effet extérieur de l’un de ces phénomènes, d’abord l’autre, et, en surplus, encore un autre phénomène, qui représenterait un bénéfice[1].
Sans entrer dans autant de détails, c’est bien encore un procédé de même sorte que Sadi Carnot a mis en œuvre lorsque, saisissant le caractère essentiel commun à toutes les machines à feu, il a fait observer que la production de travail s’y trouve toujours accompagnée « par le passage de calorique d’un corps où la température est plus élevée à un autre où elle est plus basse ». Et l’on sait que cette observation, convenablement discutée, donne le Second Principe de la Thermodynamique.
Pour atteindre l’un ou l’autre de ces principes, on a mis en évidence des analogies, on a généralisé des résultats d’expérience, mais les raisonnements ou les énoncés n’ont fait intervenir que des objets qui peuvent être observés ou des expériences qui peuvent être faites. Aussi Ostwald a justement pu dire qu’en Énergétique on ne fait pas d’hypothèses. Sans doute, si l’on invente une machine nouvelle, on affirmera tout de suite qu’elle ne peut pas créer de travail, mais on peut aussitôt s’en assurer, et l’on ne peut appeler hypothèse une affirmation qui, sitôt formulée, peut être contrôlée par une expérience.
Or il est des cas où c’est au contraire l’hypothèse qui est instinctive et féconde. Si nous étudions une machine, nous ne nous bornons pas à raisonner sur les pièces visibles, qui pourtant ont seules pour nous de la réalité tant que nous ne pouvons pas démonter la machine. Certes nous observons de notre mieux ces pièces visibles, mais nous cherchons aussi à deviner quels engrenages, quels organes cachés expliquent les mouvements apparents.
Deviner ainsi l’existence ou les propriétés d’objets qui sont encore au delà de notre connaissance, expliquer du visible compliqué par de l’invisible simple, voilà la forme d’intelligence intuitive à laquelle, grâce à des hommes tels que Dalton ou Boltzmann, nous devons l’Atomistique, dont ce livre donne un exposé.
Il va de soi que la méthode intuitive n’a pas à se limiter à la seule Atomistique, pas plus que la méthode inductive ne doit se limiter à l’Énergétique. Un temps viendra peut-être où les atomes, enfin directement perçus, seront aussi faciles à observer que le sont aujourd’hui les microbes. L’esprit des atomistes actuels se retrouvera alors chez ceux qui auront hérité le pouvoir de deviner, derrière la réalité expérimentale devenue plus vaste, quelque autre structure cachée de l’Univers.
Je ne vanterai pas aux dépens de l’autre l’une des deux méthodes de recherche, comme trop souvent on l’a fait. Certes, pendant ces dernières années, l’intuition l’a emporté sur l’induction, au point de renouveler l’Énergétique elle-même par l’application de procédés statistiques empruntés à l’Atomistique. Mais cette fécondité plus grande peut fort bien être passagère, et je n’aperçois aucune raison de regarder comme improbable quelque prochaine série de beaux succès où nulle hypothèse invérifiable n’aurait joué de rôle.
Sans peut-être qu’il y ait là nécessité logique, induction et intuition ont jusqu’ici fait un usage parallèle de deux notions déjà familières aux philosophes grecs, celle du Plein (ou du continu) et celle du Vide (ou du discontinu).
À ce sujet, et plutôt pour le lecteur qui vient de terminer ce livre que pour celui qui va le commencer, je voudrais faire quelques remarques dont l’intérêt peut être de donner une justification objective à certaines exigences logiques des mathématiciens.
Nous savons tous comment, avant définition rigoureuse, on fait observer aux débutants qu’ils ont déjà l’idée de la continuité. On trace devant eux une belle courbe bien nette, et l’on dit, appliquant une règle contre ce contour : « Vous voyez qu’en chaque point il y a une tangente. » Ou encore, pour donner la notion déjà plus abstraite de la vitesse vraie d’un mobile en un point de sa trajectoire, on dira : « Vous sentez bien, n’est-ce pas, que la vitesse moyenne entre deux points voisins de cette trajectoire finit par ne plus varier appréciablement quand ces points se rapprochent indéfiniment l’un de l’autre. » Et beaucoup d’esprits en effet, se souvenant que pour certains mouvements familiers il en paraît bien être ainsi, ne voient pas qu’il y a là de grandes difficultés.
Les mathématiciens, pourtant, ont bien compris le défaut de rigueur de ces considérations dites géométriques, et combien par exemple il est puéril de vouloir démontrer, en traçant une courbe, que toute fonction continue admet une dérivée. Si les fonctions à dérivée sont les plus simples, les plus faciles à traiter, elles sont pourtant l’exception ; ou, si l’on préfère un langage géométrique, les courbes qui n’ont pas de tangente sont la règle, et les courbes bien régulières, telles que le cercle, sont des cas fort intéressants, mais très particuliers.
Au premier abord, de telles restrictions semblent n’être qu’un exercice intellectuel, ingénieux sans doute, mais en définitive artificiel et stérile, où se trouve poussé jusqu’à la manie le désir d’une rigueur parfaite. Et, le plus souvent, ceux auxquels on parle de courbes sans tangentes ou de fonctions sans dérivées commencent par penser qu’évidemment la nature ne présente pas de telles complications, et n’en suggère pas l’idée.
C’est pourtant le contraire qui est vrai, et la logique des mathématiciens les a maintenus plus près du réel que ne faisaient les représentations pratiques employées par les physiciens. C’est ce qu’on peut déjà comprendre en songeant, sans parti pris simplificateur, à certaines données tout expérimentales.
De telles données se présentent en abondance quand on étudie les colloïdes. Observons, par exemple, un de ces flocons blancs qu’on obtient en salant de l’eau de savon. De loin, son contour peut sembler net, mais sitôt qu’on s’approche un peu, cette netteté s’évanouit. L’œil ne réussit plus à fixer de tangente en un point : une droite qu’on serait porté à dire telle, au premier abord, paraîtra aussi bien, avec un peu plus d’attention, perpendiculaire ou oblique au contour. Si l’on prend une loupe, un microscope, l’incertitude reste aussi grande, car, chaque fois qu’on augmente le grossissement, on voit apparaître des anfractuosités nouvelles, sans jamais éprouver l’impression nette et reposante que donne, par exemple, une bille d’acier poli. En sorte que, si cette bille donne une image utile de la continuité classique, notre flocon peut tout aussi logiquement suggérer la notion plus générale des fonctions continues sans dérivées.
Et ce qu’il faut bien observer, c’est que l’incertitude sur la position du plan tangent en un point du contour n’est pas tout à fait du même ordre que l’incertitude qu’on aurait à trouver la tangente en un point du littoral de la Bretagne, selon qu’on utiliserait pour cela une carte à telle ou telle échelle. Selon l’échelle, la tangente changerait, mais chaque fois on en placerait une. C’est que la carte est un dessin conventionnel, où, par construction même, toute ligne a une tangente. Au contraire, c’est un caractère essentiel de notre flocon (comme au reste du littoral, si au lieu de l’étudier sur une carte on le regardait lui-même de plus ou moins loin), que, à toute échelle, on soupçonne, sans les voir tout à fait bien, des détails qui empêchent absolument de fixer une tangente.
Nous resterons encore dans la réalité expérimentale, si, mettant l’œil au microscope, nous observons le mouvement brownien qui agite toute petite particule en suspension dans un fluide. Pour fixer une tangente à sa trajectoire, nous devrions trouver une limite au moins approximative à la direction de la droite qui joint les positions de cette particule en deux instants successifs très rapprochés. Or, tant que l’on peut faire l’expérience, cette direction varie follement lorsque l’on fait décroître la durée qui sépare ces deux instants. En sorte que ce qui est suggéré par cette étude à l’observateur sans préjugé, c’est encore la fonction sans dérivée, et pas du tout la courbe avec tangente.
J’ai d’abord parlé de contour ou de courbe, parce qu’on utilise d’ordinaire des courbes pour donner la notion de continu, pour la représenter. Mais il est logiquement équivalent, et physiquement il est plus général, de rechercher comment varie d’un point à l’autre d’une matière donnée, une propriété quelconque, telle que la densité, ou la couleur. Ici encore, nous allons voir apparaître le même genre de complications.
L’idée classique est bien certainement que l’on peut décomposer un objet quelconque en petites parties pratiquement homogènes. En d’autres termes, on admet que la différenciation de la matière contenue dans un certain contour devient de plus en plus faible quand ce contour va en se resserrant de plus en plus.
Or, loin que cette conception soit imposée par l’expérience, j’oserai presque dire qu’elle lui correspond rarement. Mon œil cherche en vain une petite région « pratiquement homogène », sur ma main, sur la table où j’écris, sur les arbres ou sur le sol que j’aperçois de ma fenêtre. Et si, sans me montrer trop difficile, je délimite une région à peu près homogène, sur un tronc d’arbre par exemple, il suffira de m’approcher pour distinguer sur l’écorce rugueuse les détails que je soupçonnais seulement, et pour, de nouveau, en soupçonner d’autres. Puis, quand mon œil tout seul deviendra impuissant, la loupe, le microscope, montrant chacune des parties successivement choisies à une échelle sans cesse plus grande, y révéleront de nouveaux détails, et encore de nouveaux, et quand enfin j’aurai atteint la limite actuelle de notre pouvoir, l’image que je fixerai sera bien plus différenciée que ne l’était celle d’abord perçue. On sait bien, en effet, qu’une cellule vivante est loin d’être homogène, qu’on y saisit une organisation complexe de filaments et de granules plongés dans un plasma irrégulier, où l’œil devine des choses qu’il se fatigue inutilement à vouloir préciser. Ainsi le fragment de matière qu’on pouvait d’abord espérer à peu près homogène, apparaît indéfiniment spongieux, et nous n’avons absolument aucune présomption qu’en allant plus loin on atteindrait enfin « de l’homogène », ou du moins de la matière où les propriétés varieraient régulièrement d’un point à l’autre.
Et ce n’est pas seulement la matière vivante qui se trouve ainsi indéfiniment spongieuse, indéfiniment différenciée. Le charbon de bois qu’on eût obtenu en calcinant l’écorce tout à l’heure observée, se fût montré de même indéfiniment caverneux. La terre végétale, la plupart des roches elles-mêmes ne semblent pas facilement décomposables en petites parties homogènes. Et nous ne trouvons guère comme exemples de matières régulièrement continues que des cristaux comme le diamant, des liquides comme l’eau, ou des gaz. En sorte que la notion du continu résulte d’un choix en somme arbitraire de notre attention parmi les données de l’expérience.
Il faut reconnaître au reste qu’on peut souvent, bien qu’une observation un peu attentive fasse ainsi généralement découvrir une structure profondément irrégulière dans l’objet que l’on étudie, représenter très utilement de façon approchée par des fonctions continues les propriétés de cet objet. Bien simplement, quoique le bois soit indéfiniment spongieux, on peut utilement parler de la surface d’une poutre qu’on veut peindre ou du volume déplacé par un radeau. En d’autres termes, à certains grossissements, pour certains procédés d’investigation, le continu régulier peut représenter les phénomènes, un peu comme une feuille d’étain qui enveloppe une éponge, mais qui n’en suit pas vraiment le contour délicat et compliqué.
Si enfin nous cessons de nous limiter à notre vision actuelle de l’Univers, et si nous attribuons à la Matière la structure infiniment granuleuse que suggèrent les résultats obtenus en Atomistique, alors nous verrons se modifier bien singulièrement les possibilités d’une application rigoureuse de la continuité mathématique à la Réalité.
Qu’on réfléchisse, par exemple, à la façon dont se définit la densité d’un fluide compressible (de l’air par exemple), en un point et à un instant fixés. On imagine une sphère de volume ayant ce point pour centre, et qui à l’instant donné contient une masse Le quotient est la densité moyenne dans la sphère, et l’on entend par densité vraie la valeur limite de ce quotient. Cela revient à dire qu’à l’instant donné la densité moyenne dans la petite sphère est pratiquement constante au-dessous d’une certaine valeur du volume. Et, en fait, cette densité moyenne, peut-être encore notablement différente pour des sphères de 1 000 mètres cubes et de 1 centimètre cube, ne varie plus de 1 millionième quand on passe du centimètre cube au millième de millimètre cube. Pourtant, même entre ces limites de volume (dont l’écart dépend au reste beaucoup des conditions d’agitation du fluide), des variations de l’ordre du milliardième se produisent irrégulièrement.
Diminuons toujours le volume. Loin que ces fluctuations deviennent de moins en moins importantes, elles vont être de plus en plus grandes et désordonnées. Aux dimensions où le mouvement brownien se révèle très actif, mettons pour le dixième de micron cube, elles commencent (dans l’air) à atteindre le millième ; elles sont du cinquième quand le rayon du sphérule imaginé devient de l’ordre du centième de micron.
Un bond encore : ce rayon devient de l’ordre du rayon moléculaire. Alors, en général (du moins pour un gaz), notre sphérule se trouve entièrement dans le vide intermoléculaire, et la densité moyenne y restera désormais nulle : la densité vraie est nulle au point qu’on nous a donné. Mais, une fois sur mille peut-être, ce point se sera trouvé à l’intérieur d’une molécule, et la densité moyenne va être alors comparable à celle de l’eau, soit mille fois supérieure à ce qu’on appelle couramment la densité vraie du gaz.
Réduisons toujours notre sphérule. Bientôt, sauf hasard très exceptionnel, en raison de la structure prodigieusement lacunaire des atomes, il va se trouver et restera désormais vide : la densité vraie, au point choisi, est encore nulle. Si pourtant, ce qui n’arrivera pas une fois sur un million de cas, le point donné se trouve intérieur à un corpuscule ou au noyau central de l’atome, la densité moyenne grandira énormément quand le rayon diminuera, et deviendra plusieurs millions de fois plus grande que celle de l’eau.
Si le sphérule se contracte encore, il se peut que du continu soit retrouvé, jusqu’à un nouvel ordre de petitesse, mais plus probablement (surtout pour le noyau atomique, où la radioactivité révèle une extrême complication) la densité moyenne redeviendra bientôt et restera nulle, ainsi que la densité vraie, sauf pour certaines positions très rares, où elle atteindra des valeurs colossalement plus élevées que les précédentes.
Bref, le résultat suggéré par l’Atomistique est le suivant : la densité est partout nulle, sauf pour un nombre infini de points isolés où elle prend une valeur infinie[2].
On fera des réflexions analogues pour toutes les propriétés qui, à notre échelle, semblent régulièrement continues, telles que la vitesse, la pression, la température. Et nous les verrons devenir de plus en plus irrégulières, à mesure que nous augmenterons le grossissement de l’image toujours imparfaite que nous nous faisons de l’Univers. La densité était nulle en tout point, sauf exceptions ; plus généralement, la fonction qui représente la propriété physique étudiée (mettons que ce soit le potentiel électrique) formera dans le vide intermatériel un continuum présentant une infinité de points singuliers, et dont les mathématiciens nous permettront de poursuivre l’étude[3].
Une matière indéfiniment discontinue, trouant par des étoiles minuscules un éther continu, voilà donc l’idée qu’on pourrait se faire de l’Univers, si l’on ne se rappelait avec J.-H. Rosny aîné que toute formule, si vaste soit-elle, impuissante à étreindre une Diversité qui n’a pas de limites, perd fatalement toute signification quand on s’écarte beaucoup des conditions où notre connaissance s’est formée.
Ce qu’on vient de comprendre en considérant un centre sans cesse plus ténu, nous pourrions le dire en songeant à une sphère sans cesse élargie, englobant successivement Planète, Système solaire, Étoiles, Nébuleuses. Et nous retrouverions l’impression, devenue familière, que traduisait Pascal lorsqu’il nous montrait l’Homme « suspendu entre deux infinis ».
Parmi ceux dont l’Intelligence glorieuse sut ainsi contempler la Nature « en sa haute et pleine majesté », on comprendra que j’aie choisi, pour lui faire hommage de mon effort, l’Ami disparu qui m’apprit la force que donnent, dans la recherche scientifique, un enthousiasme réfléchi, une énergie que rien ne lasse, et le Culte de la Beauté.
- ↑ À moins que cet autre phénomène soit de ceux dont on sait déjà qu’ils peuvent se produire ou disparaître sans répercussion extérieure (tel est, d’après une loi de Joule, un changement isotherme du volume d’une masse gazeuse). En ce cas, au reste, le bénéfice peut encore être regardé comme nul.
- ↑ J’ai simplifié la question. En réalité le temps intervient, et la densité moyenne, définie dans un petit volume entourant le point donné à un instant donné, doit se rapporter à une petite durée comprenant cet instant. La masse moyenne dans le volume pendant la durée serait du genre et la densité moyenne est une dérivée seconde par rapport au volume et au temps. Sa représentation par une fonction de deux variables ferait intervenir des surfaces infiniment bossuées.
- ↑ Tous ceux qui s’intéressent à cette étude, auront grand profit à lire les travaux de M. Émile Borel, et tout d’abord la très belle conférence sur « Les Théories moléculaires et les Mathématiques » (Inauguration de l’Université de Houston, et Revue générale des Sciences, novembre 1912), où il a fait comprendre comment l’analyse mathématique, jadis créée pour les besoins de la Physique du continu, peut aujourd’hui être renouvelée par la Physique du discontinu.