L'Évolution de la mécanique

Free texts and images.
Jump to: navigation, search
L'Evolution de la mécanique
written by Émile Borel
1943


  • Table des matières de l'ouvrage


  • Préface
  • Première partie.
  • La naissance de la mécanique.
    • Chapitre I.
    • La statique.
      • 1. La notion de force.
      • 2. La théorie du levier d'Archimède.
      • 3. La démonstration d'Archimède.
      • 4. Premières objections au raisonnement d'Archimède.
      • 5. Les objections d'Ernst Mach.
      • 6. La démonstration de Galilée.
      • 7. Les continuateurs d'Archimède. Stevin.
      • 8. Les continuateurs d'Archimède. Galilée, Varignon, Newton, Bernoulli.
      • 9. La notion de travail et les déplacements virtuels.
      • 10. Energie potentielle et travail.
      • 11. L'hydrostatique et le principe d'Archimède.
      • 12. Les progrès de l'hydrostatique.
      • 13. La statique des gaz et la pression atmosphérique.
      • 14. La statique, corps de doctrine.
    • Chapitre II.
    • Cinématique.
      • 15. Cinématique et géométrie.
      • 16. La mesure du temps.
      • 17. Newton et le temps absolu.
      • 18. Vitesse et accélération. Repères fixes.
      • 19. Le système du monde, de Ptolémée à Képler.
      • 20. L'espace absolu de Galilée et de Newton.
    • Chapitre III.
    • Dynamique.
      • 21. Galilée, créateur de la dynamique.
      • 22. Les lois de la chute des corps.
      • 23. La loi de l'Inertie.
      • 24. La notion de masse.
      • 25. Les observations du pendule à diverses latitudes.
      • 26. L'équation fondamentale de la dynamique.
      • 27. Huyghens et le pendule composé.
      • 28. Newton et la gravitation universelle.
      • 29. L'espace et le temps absolus.
      • 30. Newton et la loi d'inertie.
      • 31. L'égalité de l'action et de la réaction.
      • 32. La composition dynamique des forces.
      • 33. La force vive.
  • Deuxième partie.
  • L'apogée de la mécanique.
    • Chapitre IV.
    • Les équations de la dynamique et les théorèmes généraux.
      • 34. Les équations de la dynamique.
      • 35. L'intégration approchée des équations de la dynamique.
      • 36. Attraction des masses continues.
      • 37. Potentiel défini par l'attraction universelle.
      • 38. Les équations de Lagrange.
      • 39. Equations de Jacobi et de Hamilton.
      • 40. L'hydrodynamique des fluides parfaits.
      • 41. Propagation des ondes.
      • 42. La propagation de la lumière et les théorèmes de minima.
      • 43. Les conceptions finalistes.
      • 44. Les mouvements sur une surface.
      • 45. La propriété de minimum est une propriété locale.
      • 46. Le principe de la moindre action.
      • 47. La conservation de l'énergie.
      • 48. Les invariants intégraux.
      • 49. La mécanique rationnelle, corps de doctrine mathématique.
    • Chapitre V.
    • La propagation des ondes lumineuses et électromagnétiques.
      • 50. Les théories de la lumière, de Newton à Fresnel.
      • 51. Vitesse de la lumière.
      • 52. L'aberration.
      • 53. Le déplacement des raies du spectre.
      • 54. Application à l'étude des mouvements stellaires.
      • 55. Le mystère de l'éther.
      • 56. L'emploi des variables imaginaires.
      • 57. Les ondes électromagnétiques.
      • 58. Les analogies avec la Mécanique.
    • Chapitre VI.
    • La mécanique statistique.
      • 59. La théorie cinétique des gaz.
      • 60. Maxwell et la répartition des vitesses.
      • 61. La loi de Maxwell est une loi statistique.
      • 62. Mélange des gaz.
      • 63. Les phénomènes irréversibles.
      • 64. La mécanique statistique.
      • 65. Le paradoxe de la réversibilité.
      • 66. L'équipartition de l'énergie.
    • Chapitre VII.
    • La mécanique, science universelle.
      • 67. La mécanique à la fin du XIXème siècle.
      • 68. L'élasticité.
      • 69. La capillarité.
      • 70. L'acoustique.
      • 71. Les phénomènes de frottement.
      • 72. La balistique.
      • 73. La navigation.
      • 74. Les machines à feu.
      • 75. Le perfectionnement des appareils mécaniques.
      • 76. La chronométrie et les appareils de précision.
      • 77. Les expériences et observations des fondateurs de la mécanique.
      • 78. La science expérimentale au XIXème siècle.
      • 79. Les succès et les lacunes des explications mécaniques.
  • Troisième partie.
  • La révolution scientifique du XXème siècle.
    • Chapitre VIII.
    • La relativité et les quanta.
      • 80. La vitesse de la lumière.
      • 81. Expérlence de Michelson.
      • 82. La contraction d'Hendrik Antoon Lorentz.
      • 83. La relativité du temps et de l'espace.
      • 84. Les vitesses et les masses.
      • 85. La relativité générale.
      • 86. La mécanique relativiste.
      • 87. La relativité et l'Univers.
      • 88. La théorie des quanta.
      • 89. L'équipartition de l'énergie et le rayonnement.
      • 90. L'effet photo-électrique.
      • 91. La mécanique ondulatoire.
      • 92. Impossibilité d'une image cohérente.
    • Chapitre IX.
    • L'avenir de la mécanique.
      • 93. Les limites des notions fondamentales.
      • 94. L'avenir de la mécanique classique.
      • 95. Faut-il modifier le langage de la mécanique?
      • 96. La notion d'intervalle.
      • 97. Le langage de la nouvelle mécanique.
      • 98. La valeur absolue d'une connaissance approchée.
      • 99. Les théories de l'atome
      • 100. Les théories cosmogoniques
      • 101. Conclusion


  • Préface

L'évolution d'un être vivant se termine normalement par la vieillesse et par la mort ; l'évolution des espèces se termine aussi parfois par l'extinction de certaines espèces ; dans l'évolution des langues humaines, certaines langues mortes se survivent par des oeuvres que l'on qualifie volontiers d'immortelles ; que faut-il penser de l'évolution des sciences ? On se représente volontiers l'évolution de la science comme une croissance continue et rapide, dont la rapidité s'est d'ailleurs singulièrement accrue au cours des derniers siècles. Des sciences nouvelles naissent, comme la science de l'électricité, qui date à peine d'un siècle et demi, mais les sciences anciennes, et notamment la plus ancienne de toutes, la mathématique, continuent à faire des progrès, grâce à l'effort constant de chercheurs toujours plus nombreux. Cette image un peu simplifiée du développement do lu science renferme certainement une grande port de vérité ; cependant, si l'on regarde les choses de plus près, si l'on porte son attention, non plus sur la science en général, mais sur les nombreuses branches des diverses sciences, on peut se faire une idée plus exacte et plus précise de l'évolution de certaines sciences. Prenons comme exemple la géométrie, qui est une branche des mathématiques ; on peut y distinguer la géométrie élémentaire d'Euclide, la géométrie analytique, la géométrie infinitésimale, les géométries non euclidiennes, les géométries à plus de trois dimensions, etc. Certaines de ces branches de la géométrie, cultivées depuis des siècles, sont arrivées à un certain point de perfection qui ne laisse guère entrevoir la possibilité de nouveaux progrès ; tel est le cas pour la géométrie élémentaire d'Euclide, telle qu'elle est enseignée dans nos lycées ou pour la géométrie analytique, qu'on y enseigne également dans les classes de mathématiques spéciales. Ces sciences sont comparables aux langues mortes, que l'on étudie dans l'enseignement secondaire ; des modifications peuvent intervenir dans le mode de l'enseignement et dans certains commentaires ; mais les chefs-d'oeuvre sont immuables ; il en est de même pour la géométrie d'Euclide et la géométrie analytique de Descartes. Ces branches de la science ont terminé leur évolution ; elles sont mortes, en ce sens qu'elles n'intéressent plus les chercheurs, qui portent leur effort sur d'autres branches plus modernes de la science mathématique, mais, tout comme les chefs-d'oeuvre des langues mortes, elles restent une matière d'enseignement fort précieuse pour la formation des esprits et, en ce sens, éternellement vivantes. De plus, leur connaissance est indispensable aux mathématiciens désireux d'étudier et de faire progresser les autres branches de la géométrie. L'évolution de la Mécanique est, de beaucoup, le plus intéressant et le plus instructif des exemples que l'on puisse donner de l'évolution d'une science. La Mécanique est, en effet, une véritable science et, non pas seulement, une branche d'une science plus vaste ; ses origines se perdent dans les brumes de la préhistoire, car l'homme qui inventa la roue était déjà un mécanicien, mais ses premiers progrès furent très lents ; malgré le génie d'Archimède, c'est seulement au XVIème et au XVIIème siècles que naquit vraiment la Mécanique ; son essor fut rapide et atteint son apogée au XIXème siècle. C'est au progrès de la mécanique que nous devons la plus grande partie des innombrables machines grâce auxquelles s'est développée la civilisation et transformée notre vie matérielle ; c'est également grâce à la mécanique que les astronomes prédisent avec précision les éclipses et calculent l'heure et l'amplitude de la marée. On doit annexer à la Mécanique, non seulement l'acoustique, mais la thermodynamique, qui comprend l'étude des machines à feu (machines à vapeur et moteurs à explosion). On a pu croire, il y a un demi-siècle, quo le développement de la Mécanique allait permettre d'expliquer tous les phénomènes physiques et chimiques préparant ainsi l'explication générale de tous les phénomènes qui apparaissent dans l'Univers entier. Mais il fallut renoncer à cet espoir et, si une telle explication doit être trouvée un jour, elle le sera grâce à des branches nouvelles de la science, telles que la Mécanique ondulatoire, issues à la fois de la Mécanique, de la Physique et du calcul des Probabilités. L'évolution de la Mécanique peut donc, en un certain sens, être regardée comme terminée ; des perfectionnements de détail pourront être apportés à certaines démonstrations, des inventions de nouveaux mécanismes pourront être réalisé, mais l'essentiel des résultats obtenus, le bel édifice mathématique construit par Newton, Lagrange, Laplace, Jacobi, Hamilton, Gibbs, Henri Poincaré, subsistera pendant des siècles comme l'une des plus belles créations de l'esprit humain. Il continuera à être l'outil indispensable, aussi bien aux astronomes qu'aux constructeurs de machines ; son étude sera également nécessaire à ceux qui tenteront de faire progresser les nouvelles sciences nées de la l'évolution scientifique du XXème siècle. Ces nouvelles sciences, radioactivité, théorie de la relativité, théorie des quanta, mécanique ondulatoire, physique et chimie atomiques et nucléaires, connaissent déjà, malgré leur jeunesse, un développement prodigieux ; c'est vers elles que se porte désormais l'effort principal des chercheurs. Certains de ceux-ci peuvent être tentés de considérer la Mécanique classique comme une science morte et périmée, qui doit disparaître pour céder la place aux sciences nouvelles. L'étude de l'évolution de la Mécanique ne permet pas d'accepter cette conception un peu simpliste ; s'il est vrai que les sciences nouvelles pourraient conduire à introduire des termes correctifs dans toutes les équations de la Mécanique, il n'est pas moins vrai que ces termes correctifs seraient presque toujours sans aucune influence sur les résultats numériques, tels qu'ils peuvent être vérifiés par l'expérience ; ces termes correctifs peuvent et doivent donc être négligés et les équations classiques subsistent. Malgré le développement prodigieux de la production littéraire, qu'a rendu possible l'invention de l'imprimerie, les chefs-d'oeuvre de l'antiquité classique restent des modèles qu'il vaut la peine d'étudier, malgré les difficultés de la langue dans laquelle ils sont écrits. Il en est de même pour les théories de la Mécanique classique, avec cette grande différence en leur faveur, que la langue mathématique en laquelle ils sont écrits, reste éternellement, vivante et doit être connue de tous ceux, qui étudient les mathématiques, c'est-à-dire de tous les savants qui s'intéressent au progrès des sciences nouvelles. L'étude approfondie de la mécanique classique restera donc, comme celle de la géométrie, de l'algèbre, du calcul différentiel et du calcul intégral, une des bases essentielles de la culture générale indispensable à tous ceux qui voudront consacrer leur vie à la science. L'étude rapide de l'évolution de la Mécanique ne saurait prétendre remplacer cette étude approfondie ; elle peut cependant y préparer et, à la rigueur, y suppléer dans une certaine mesure. Elle intéressera également, nous l'espérons, tous ceux qui, sans pouvoir se consacrer eux-mêmes à la recherche scientifique, souhaitent ne pas rester entièrement ignorants d'une des plus belles et des plus fécondes activités de l'esprit humain.

  • Paris, juillet 1942.


  • Première partie
  • La naissance de la mécanique
  • Chapitre 1
  • La Statique


1. La notion de force. - La Statique est la branche de la Mécanique qui s'occupe de l'équilibre des forces; les créateurs de la Statique avaient donc tout d'abord besoin d'avoir une notion claire et précise de la force. Il est extrêmement difficile de savoir comment cette notion scientifique de la force s'est dégagée peu à peu de la notion plus ou moins vague que les hommes en avaient depuis une antiquité très reculée. Il en est toujours ainsi dans les cas fréquents où un terme scientifique est emprunté à la langue vulgaire; il est malaisé de se rendre compte à quelle époque les auteurs qui l'emploient sont arrivés à en préciser le sens après l'avoir utilisé dans son acception usuelle. C'est évidemment la force musculaire de l'homme et des animaux qui est à l'origine de la notion de force; c'est à cette force musculaire que se rapportent les mots qui, dans les langues les plus anciennes, correspondent au mot "force" et à ses dérivés. Si deux hommes tiennent dans leurs mains les deux extrémités d'une corde et tirent chacun de son côté, c'est le plus fort qui l'emporte ; ils pourraient lutter aussi en poussant des deux côtés d'une solide porte entr'ouverte ; le plus fort obligerait l'autre à reculer ; mais ce second exemple est déjà plus compliqué, car la partie cesse d'être égale si les efforts des deux lutteurs ne s'exercent pas à des distances égales des charnières autour desquelles tourne la porte. De nombreuses expériences suggèrent l'idée plus ou moins vague de l'addition des forces : si deux hommes tirent sur la même corde, ils l'emportent aisément sur un seul homme qui tire à l'autre extrémité. La force musculaire de l'homme n'est pas uniquement employée à lutter contre d'autres hommes ou contre des animaux ; elle peut être aussi utilisée pour soulever des fardeaux qui retombent vers le sol dès que l'effort qui les soulève est interrompu. De telles expériences ont permis d'acquérir la notion de la pesanteur des corps, bien avant que Newton ait formulé la loi de l'attraction universelle. Pour Aristote, si les corps solides tombent vers la terre tandis que les fumées s'élèvent vers le ciel, c'est parce que les divers éléments tendent à regagner leur lieu naturel ; ce lieu naturel est la terre pour les solides, le ciel pour les vapeurs ou les gaz. Dès le développement des premières civilisations et des transactions commerciales, les hommes ont appris à peser les corps avec une balance ; ils ont acquis rapidement des notions intuitives, que certains théoriciens de l'avenir devaient soumettre à une critique peut-être superflue : si l'on réunit deux corps en un seul, le poids de celui-ci est égal à la somme des poids des deux corps. Si l'on y regarde de près, cette proposition équivaut à celle que les arithméticiens modernes ont appelée l'axiome du nombre : si l'on a un certain nombre d'objets, disons des haricots, et si on les compte, le nombre total obtenu est le même, quelle que soit la marche suivie pour les compter : on peut, par exemple, les ranger par dizaines, ou, au contraire, par douzaines, etc. De même, si on a des poids marqués par les nombres 1, 10, 100, 1.000, etc., le poids 10 équilibrant exactement 10 poids identiques marqués 1, le poids 100 équilibrant 10 poids 10, etc., et si l'on se propose de connaître le poids total d'un certain lot de marchandises, on peut diviser arbitrairement ce lot en plusieurs lots partiels, mettre successivement chacun de nos lots partiels dans l'un des plateaux do la balance et l'équilibrer avec les poids marqués (1); il importe peu, d'ailleurs, que l'on utilise un poids 10 ou 10 poids 1. La somme des poids des lots partiels fait connaître le poids total. Telles étaient, semble-t-il, les idées que pouvait avoir sur les forces et les poids, un contemporain d'Archimède; d'autre part, il est vraisemblable que, dès l'époque fort reculée où les hommmes cherchèrent à déplacer de lourds blocs de pierre, ils utilisèrent, dans certains cas, des leviers en bois ou en métal et que les plus habiles d'entre eux arrivèrent empiriquement à se rendre compte qu'en augmentant la longueur du bras de levier sur lequel on agissait, on pouvait déplacer le même bloc avec un moindre effort. Le grand mérite d'Archimède (2) fut de préciser ces diverses notions plus ou moins confuses et de montrer comment l'introduction systématique des nombres permettait d'arriver à des formules précises. Il eut, en outre, la préoccupation de réduire au maximum le nombre des faits qu'il est nécessaire de vérifier par l'expérience, sa confiance dans la rigueur des raisonnements lui faisant préférer l'emploi de ces raisonnements à des expériences dont l'exactitude ne peut jamais être parfaite. Nous allons exposer les déductions d'Archimède et nous discuterons ensuite les critiques qui leur ont été faites par Mach et reproduites à sa suite par d'autres auteurs.

  • (1) Ceci suppose la balance, juste; on sait que la méthode de la double pesée permet d'éviter cette hypothèse.
  • (2) Archimède vécut à Syracuse, de 287 à 212 avant J.C.


2. La théorie du levier d' Archimède. — Cette théorie est le premier exemple d'une théorie mathématique exacte d'un ensemble de faits mécaniques. Considérons un levier, c'est-à-dire une barre métallique rigide qui repose en l'un de ses points sur une arête solide, dite point d'appui. Sur l'une des extrémités du levier, repose un corps solide qu'on se propose de soulever au moyen d'une force appliquée à l'autre extrémité. Sur la figure 1, le point d'appui est C, la flèche F représente la force qui agit au point B ; c'est la puissance, la flèche P représente le poids du corps solide S qu'il s'agit de soulever ; c'est la résistance. Si l'on néglige le poids du levier, supposé petit par rapport à la puissance et à la résistance, la loi précisée par Archimède est la suivante : pour qu'il y ait équilibre, il faut et il suffit que chacune des forces soit inversement proportionnelle à son bras de levier. Sur notre figure, CB est le bras de levier de la force F et CA le bras du levier de la force P ; on doit avoir, pour qu'il y ait équilibre :

  • (1) F x CB = P x CA

Si la force F dépasse légèrement la valeur donnée par cette équation, l'extrémité A du levier s'abaissera sous l'action de cette force et le corps solide S sera soulevé. Une deuxième loi, aussi importante que la précédente, est également due à Archimède : lorsque les forces F et P agissent l'une et, l'autre et se font équilibre, la force exercée par le levier sur le point d'appui C est égale à leur somme F + P. Si, au lieu de faire reposer le levier sur un point d'appui, on voulait le maintenir soulevé en le suspendant à un crochet en C et en tirant sur le crochet à l'aide d'une corde verticale, il faudrait exercer de bas en haut sur cette corde une traction F + P, analogue à celle qu'il faut exercer pour soulever un poids (figure 2). De la relation (1), on déduit immédiatement les relations:

  • (2) F/AC = P/CB = (F + P)/AB

que l'on peut interpréter ainsi: lorsque 3 forces parallèles F, P, F + P, appliquées en trois points d'un levier ACB, se font équilibre, chacune d'elles est proportionnelle à la distance des points d'application des deux autres (1). Des principes posés ainsi par Archimède, on déduit aisément tout un chapitre de la Statique, la composition des farces parallèles, qui comprend la théorie du centre de gravité. Archimède doit donc être regardé comme le créateur de la mécanique rationnelle : la méthode par laquelle il a obtenu ces résultats importants n'est pas moins intéressante que les résultats eux-mêmes.

  • (1) On peut préciser cette notion de manière à y tenir compte du sens des forces; fixons, pour les trois points, un ordre arbitraire, mais bien déterminé ABCABC... ; on considérera les distances AB, BC, CA, avec leurs signes: BC CA sont de sens opposé à AB; dès lors, les forces P et F proportionnelles à BC et CA sont de sens opposé à la force F + P proportionnelle à AB.


3. La démonstration d' Archimède. — Conformément au génie grec, Archimède s'est proposé de déduire la théorie du levier d'un nombre aussi petit que possible de remarques simples. Il observe tout d'abord que si deux forces égales et parallèles s'exercent aux deux extrémités de deux bras de levier égaux, elles se font équilibre. Soient (fig. 3) AF et BF' les deux forces, C le point d'appui ; il y a symétrie parfaite par rapport à C et on ne voit donc aucune raison pour que la tige AB penche à droite plutôt qu'à gauche ; elle doit donc rester immobile. Nous discuterons plus loin les objections qui peuvent être faites à ce raisonnement basé sur la symétrie ; contentons-nous d'observer que les expériences innombrables effectuées quotidiennement sur la balance suffisent à convaincre les plus sceptiques du fait pris par Archimède comme point de départ. Mais ces expériences pratiquées sur la balance entraînent une autre conséquence, également importante; la force exercée sur le point d'appui C est égale à la somme des deux forces égales F et F', c'est-à-dire au double de chacune d'elles. Nous reviendrons également plus loin sur cette deuxième affirmation. En résumé, Archimède prend comme point de départ le cas particulier de deux forces parallèles égales, appliquées en A et B ; elles équivalent à une force double dont le point d'application C est le milieu de AB. Il lui est alors facile, par de simples raisonnements arithmétiques et géométriques, de traiter le cas général et d'arriver aux résultats que nous avons énoncés au paragraphe précédent. Considérons (fig. 4) quatre points équidistants ABCD en ligne droite. Nous avons AB = BC = CD ; supposons appliquées en A et en C deux forces égales à F et en D une force 2F. La résultante des deux forces AF et CF est une force 2F appliquée au milieu B de AC; la résultante de cette force 2F appliquée en B et de la force 2F appliquée en D est une force 4F appliquée au milieu C de BD; cette force 4F est donc la résultante des trois forces données AF, CF, D (2F); si nous supprimons CF, la résultante 4F appliquée en C sera diminuée de F et deviendra 3F; donc la résultante de la force F appliquée en A et de la force 2F appliquée en D est une force 3F appliquée au point C, tel que AC = 2 CD; nous avons ainsi fait un pas vers la démonstration du théorème général, puisque nous sommes passés, du cas de deux forces égales au cas un peu plus compliqué où l'une des forces est double de l'autre. On franchirait de la même manière de nouveaux pas, et on traiterait le cas où l'une des forces est triple, quadruple, quintuple de l'autre; on arriverait ensuite, par des raisonnements analogues aux cas où le rapport des forces est le rapport de 2 à 3, ou de 3 à 4, ou de 2 à 5, etc., et enfin, au cas où ce rapport est égal au rapport de deux nombres entiers quelconques ; cela suffit pour pouvoir affirmer le théorème général (1). Les Mathématiciens modernes remplaceraient les raisonnements successifs d'Archimède par un raisonnement unique, plus synthétique. Supposons le théorème démontré lorsque les forces données ont les valeurs p'f et q'f, et p' et q' étant des nombres entiers inférieurs à un nombre donné q ; nous allons démontrer le théorème pour les forces pf et qf, c'est-à-dire pour tous les cas où p' et q' sont inférieurs à q + 1 ; comme le théorème est vrai pour q = 2, on en conclura qu'il est vrai pour toute valeur de q. Soient donc (fig. 5) les forces pf et qf appliquées en A et B, p étant inférieur à q ; soit C le point qui divise AB dans le rapport p/q ; nous avons AC = qa et CB = pa, a étant une certaine longueur, prenons à droite de B un point D tel que BD = (q — p)*a. La force qf est équivalente à une force (q — p)f appliquée en C et une force pf appliquée en D, car p et q — p étant inférieurs l'un et l'autre à q, notre théorème est supposé démontré pour les forces pf et (q - p)f dont la résultante est qf. Mais les forces pf et qf appliquées l'une et l'autre aux points A et D équidistants de C ont une résultante 2 pf appliquée en C; cette résultante s'ajoute à la force (q — p)f et donne une force (q + p)f qui est la résultante de pf et de qf, ce que nous voulions démontrer. Eh fait, les raisonnements d'Archimède sont équivalents à ce raisonnement plus moderne ; par sa théorie du levier et par sa théorie de l'hydrostatique, dont nous parlerons à la fin de ce chapitre, Archimède peut, à juste titre, être considéré comme le fondateur de la Mécanique rationnelle, au moins en ce qui concerne la Statique. La discussion des méthodes d'Archimède reste aussi instructive, au point de vue des principes, que la discussion des méthodes employées vingt siècles plus tard par les mécaniciens du XVIIIème et du XIXème siècles.

  • (1) On peut observer que le rapport de deux grandeurs physiques mesurables équivaut toujours au rapport de deux nombres entiers, car les mesures ne peuvent être faites qu'avec une certaine approximation ; si, par exemple, on évalue les poids au milligramme près, deux poids de 34.282 milligrammes et de 45.237 milligrammes sont dans le même rapport que les nombres 34.282 et 45.237. Si l'on veut introduire, pour plus de généralité, les nombres incommensurables, on utilisera un raisonnement classique, basé sur la continuité, qui permet d'étendre au cas où le rapport est incommensurable, le théorème démontré pour tout rapport commensurable.


4. Premières objections au raisonnement d' Archimède. Le point de départ d'Archimède est, nous l'avons dit, une remarque sur la symétrie qui apparaît comme évidente. Si deux forces égales agissent aux deux extrémités d'un fléau suspendu par mon milieu et rigoureusement symétrique, il n'y a aucune raison pour que le fléau penche à droite ou à gauche; il doit donc y avoir équilibre. Ce raisonnement apparaît comme irréfutable s'il s'applique à un fléau abstrait, qui existerait seul dans l'univers, en face d'un observateur également abstrait. Mais, dès qu'il s'agit du fléau concret d'une véritable balance, on peut observer que la symétrie observée dans le fléau ne s'étend pas à tous les objets qui l'entourent et s'étend encore moins à l'univers entier; ne pourrait-il arriver que, le fléau étant orienté de l'est vers l'ouest, il ait une tendance à pencher vers l'est, malgré sa symétrie intérieure, parce que le soleil se lève à l'est? En fait, si l'on étudie l'équilibre d'une balance dont le fléau serait orienté du nord au sud, sous nos latitudes, la longueur de ce fléau étant d'un mètre, un poids d'un kilogramme étant placé dans chacun des plateaux, on arrive à la conclusion, en tenant compte de la force centrifuge, due au mouvement de la Terre, qu'il serait nécessaire, pour que l'équilibre soit parfait, d'ajouter dans le plateau placé au sud, un poids supplémentaire d'environ un millième de milligramme (c'est-à-dire du milliardième d'un kilogramme). Bien entendu, une telle conclusion est purement théorique, car aucune balance n'est assez précise pour permettre de la vérifier (1) ; elle illustre cependant le fait que la dissymétrie du mouvement de la terre peut, au moins théoriquement, permettre de contester les conclusions que l'on semble pouvoir tirer de la symétrie de la balance. L'objection que nous venons de faire au raisonnement basé sur la symétrie s'applique à tous les raisonnements analogues, dont nous verrons de nombreux exemples, dans lesquels le mathématicien, pour la commodité de ses déductions, considère un petit nombre d'éléments mécaniques : forces, poids, masses, etc., en faisant abstraction de tout le reste de l'univers ; il admet implicitement que ces éléments isolés se comportent comme s'ils existaient seuls ; plus précisément, il fait abstraction de l'action que les autres parties de l'univers pourraient exercer sur ces éléments étudiés en eux-mêmes et dans leurs réactions mutuelles. En agissant ainsi, on admet ce principe ; l'on peut et doit négliger, au moins à une première approximation, l'influence des causes lointaines et inaccessibles. Il est aisé de se rendre compte qu'un tel postulat est la condition nécessaire, non seulement de toute théorie scientifique, mais de toute connaissance humaine. A un autre point de vue, on peut affirmer que ce postulat résulte de l'infinité d'expériences par lesquelles les hommes ont constitué peu à peu le bagage de connaissances sur lesquelles est basée la civilisation. Si la croissance des animaux et des végétaux était influencée par des phénomènes inconnus se produisant dans les astres, l'agriculture ne serait pas née et les hommes n'auraient pu inventer la cuisine si la cuisson des aliments dépendait de ce qui se passe dans Sirius. Il faut cependant reconnaître que le postulat d'après lequel on a le droit de ne tenir compte que des causes prochaines et accessibles en négligeant les causes lointaines et inconnues ne peut être considéré comme une vérité scientifique absolue ; bien au contraire, les progrès de la science ont fait connaître des exceptions ou, plus précisément, ont permis d'étudier des causes restées longtemps inconnues et inaccessibles. Certaines de ces causes ont même pu être utilisées d'une manière usuelle et courante ; c'est ainsi que tout possesseur d'un appareil de TSF peut écouter un concert donné à des milliers de kilomètres; un tel fait aurait, sans doute, été déclaré impossible par un savant du XIXème siècle. Nous conclurons que la méthode d'Archimède est conforme aux exigences normales qui s'imposent à toute méthode scientifique. Toute recherche scientifique, et même toute vie pratique, seraient impossibles si l'on n'admettait pas que le postulat, d'après lequel les causes lointaines et inconnues mont négligeables, doit être regardé comme exact, sauf dans les cas exceptionnels où des observations et expériences précises ont permis de découvrir et d'étudier des causes restées jusque-là inconnues. Il faut seulement ne pas oublier que les conséquences déduites de ce postulat ne peuvent avoir la rigueur absolue des vérités mathématiques ; les lois scientifiques que l'on obtient ainsi peuvent parfois être seulement approximatives et être ultérieurement corrigées et complétées ; mais ces termes correctifs seront le plus souvent négligeables et parfois même absolument inaccessibles à nos appareils de mesure les plus précis.

  • (1) Il suffirait, pour rétablir l'équilibre, au lieu d'ajouter ce poids infime, d'admettre que l'un des bras du fléau s'allonge, par exemple sous l'influence de la température, d'un demi millionième de millimètre; un tel allongement n'est pas observable.


5. Les objections d' Ernst Mach. — L'objection que nous venons d'étudier était un cas particulier d'une objection beaucoup plus générale, s'adressant à toute recherche expérimentale et théorique ; l'objection de Mach (1), au contraire, se rapporte d'une manière précise à la théorie du levier ; elle est cependant inspirée à Mach par une idée générale, à savoir que le raisonnement mathématique est impuissant à découvrir des faits expérimentaux ; les mathématiques sont un merveilleux instrument pour transformer certaines vérités en vérités équivalentes, mais elles ne peuvent créer ex nihilo ; elles se contentent de restituer les vérités que l'on a prises comme point de départ. Cette idée générale de Mach est incontestable ; mais l'application qu'il en a faite à la critique des raisonnements d'Archimède ne nous paraît pas justifiée. Mach part de la définition connue depuis longtemps du moment d'une force par rapport à un point : c'est le produit de la force par la distance du point à la force. La loi découverte par Archimède s'énonce en langage moderne sous la forme suivante : pour que les deux forces gui s'exercent aux deux extrémités du levier se fassent équilibre, il faut et il suffit que les moments de ces deux forces par rapport au point d'appui soient égaux (on devrait préciser, égaux et de signes contraires, si l'on veut éviter d'avoir à ajouter que les deux forces sont parallèles et de même sens). Or, dit Mach, c'est un fait expérimental que le rôle essentiel dans la théorie du levier est joué par le moment, produit de la force par la distance ; si l'on devait, au contraire, définir le moment comme le produit de la force par une certaine fonction de la distance, par exemple par le carré ou le cube de la distance, deux forces égales et appliquées à des distances égales du point d'appui se feraient encore équilibre ; l'expérience seule peut donc nous apprendre que le moment doit être défini comme le produit de la force par la distance ; si on ignore ou si on feint d'ignorer ce fait expérimental, il est absolument impossible de le déduire de purs raisonnements arithmétiques ; si donc Archimède arrive, en définitive, à ce résultat cela tient à ce que, sans y prendre garde, il l'a introduit dans ses prémisses. Mach recherche alors en quel endroit de son raisonnement Archimède introduit sa pétition de principe et voici ce qu'il découvre : deux forces égales peuvent être remplacées par une force double agissant au milieu de la droite qui les joint, lorsque ce milieu est un point d'appui, ou un axe de rotation pour le levier ; mais, d'après Mach, cela ne prouve pas que la même équivalence a lieu lorsque le point milieu auquel est appliquée la force double est un point arbitraire du levier. Mais il semble bien qu'Archimède, lorsqu'il a admis cette équivalence générale de deux forces avec une force double agissant au point milieu, se soit référé, à la fois à son raisonnement de symétrie et à des faits expérimentaux tellement courants qu'il lui a paru peut-être inutile de les mentionner expressément. Comme nous l'avons rappelé, tous ceux qui usaient de la balance pour peser des objets savaient que si l'on partage en plusieurs morceaux une barre de métal, le poids total de ces morceaux est égal au poids de la barre. Or, si nous supposons la barre de forme régulière et homogène, le point qu'il s'agit de démontrer, c'est que, en toute circonstance, c'est-à-dire même si le milieu de la barre ne repose pas sur un point d'appui, les forces égales qui représentent les poids des deux extrémités de la barre sont équivalentes à une force double agissant au milieu de la barre. Mais c'est là un fait qui apparaît comme évident si nous plaçons la barre dans le plateau de la balance, son milieu coïncidant avec le centre du plateau ; quelle que soit la direction de la barre, son poids est le même et reste le même, si l'on découpe la barre en petits morceaux que l'on entasse au milieu de la balance. Ce sont là des expériences qu'il est inutile de mentionner et même d'exécuter, car ce sont des cas particuliers des innombrables expériences de pesées faites avec des balances. Nous conclurons que les objections de Mach ne sont pas valables, car ce n'est pas uniquement au moyen de raisonnements a priori qu'Archimède a construit sa théorie du levier ; il a utilisé également un certain nombre de résultats d'observations et d'expériences, qui faisaient partie du bagage de connaissances acquises, plus ou moins consciemment, par tous ses contemporains. C'est ainsi qu'ont toujours procédé les mathématiciens ; ils ont appliqué la logique déductive, non pas au néant, mais à des connaissances vulgaires, incorporées dans le langage employé par tous leurs contemporains. C'est ainsi qu'avant toute étude de l'arithmétique, les hommes savaient compter, au moins pour les petits nombres, et employaient des termes équivalents à un, deux, trois, quatre.

  • (1) Ernst Mach, La Mécanique, traduction française par Emile Bertrand (Paris, Hermann, 1904).


6. La démonstration de Galilée. — Galilée, après les travaux de Stevin sur la composition des forces, modifia d'une manière fort simple et fort ingénieuse la démonstration d'Archimède. Considérons (fig. 6) un prisme AB A'B' dont la longueur totale est 2*(m + n) ; il sera en équilibre si on le suspend en son milieu D ; les longueurs AD et DB sont donc égaies à m + n. Imaginons maintenant que nous coupions le prisme en deux parties inégales ACA'C' de longueur 2*m et CB C'B' de longueur 2*n, l'équilibre subsistera si ces deux portions restent liées par une plaque rigide ADCB située en leur partie supérieure. Il suffira d'ailleurs, pour fixer chacune des deux portions, de l'accrocher en son milieu. Mais il résulte immédiatement de la figure auxiliaire A'B'AB dessinée au dessous du prisme, que le milieu M de la portion 2*m est à une distance MD' = n de la verticale du point de suspension D, tandis que le milieu N de la portion 2*n est à une distance D'N = m. Il y a donc équilibre entre un poids 2*m placé à la distance n de D et un poids 2*n placé à la distance m de D. C'est la proposition même d'Archimède, démontrée pour des valeurs quelconques de m et de n.


7. Les continuateurs d' Archimède. Stevin. - C'est seulement au XVIème siècle que de nouvelles recherches permirent d'aller plus loin qu'Archimède et d'éclaircir complètement la théorie générale de la composition des forces. Nous verrons qu'il en fut de même en hydrostatique et, c'est peut-être la preuve la plus éclatante du génie d'Archimède qu'il ait fallu dix-huit siècles pour que les résultats acquis par lui aient été dépassés. En cette matière, comme en beaucoup d'autres, il faut citer d'abord le nom de Léonard de Vinci (1452-1519) ; son génie universel fit de lui un précurseur, en statique comme dans toutes les innombrables questions auxquelles il s'est intéressé. Mais il était dans la nature du grand Léonard de se préoccuper avant tout d'éclaircir les problèmes à ses propres yeux, sans aucun souci didactique. C'est pourquoi son influence sur le développement de la science fut moins grande que celle de Stevin et de Galilée, qui firent l'effort nécessaire pour rendre leur pensée accessible aux plus instruits de leurs contemporains. Si l'on doit admettre que Léonard eut l'intuition du principe fondamental relatif au rôle essentiel joué par la projection d'une force sur une certaine direction, c'est Stevin (1548-1620) qui devait, le premier, énoncer clairement ce principe, sur lequel on peut baser la théorie générale de la composition des forces concourantes : le développement complet de la statique n'était plus désormais qu'un problème purement géométrique et analytique : toutes les difficultés mécaniques étaient résolues. C'est en étudiant le plan incliné que Stevin arriva à démontrer ce principe essentiel. On savait depuis longtemps que, pour élever un fardeau sur un plan incliné, il fallait un effort d'autant moindre que la pente était plus faible. Sur une route dont la pente n'est pas trop forte, un homme peut aisément remorquer ou pousser une charette à bras chargée de plusieurs centaines de kilogrammes, alors que le même homme soulèverait difficilement un poids dépassant 50 kilogrammes. Soit (fig. 7). AB le plan incliné, la droite AC étant horizontale et O l'essieu de la charrette à bras ; nous désignons par OP le poids total de la charrette, poids vertical aripliqué en O, et par OF la force très inférieure à l, qui est suffisante pour équilibrer ce poids, c'est-à-dire pour empêcher la charrette de descendre (une force très légèrement supérieure à F suffira pour la faire monter). Nous devons admettre que OF équilibre une force égale à OF', à laquelle se déduit l'action du poids P dans la direction parallèle à AB, seule direction dans laquelle peut se déplacer le point O. Nous concluons de là que l'action d'une force donnée dans une direction qui n'est pas celle de cette force, est une force plus petite que la force donnée. Il s'agit de préciser cette force sous une forme mathématique. Le résultat obtenu par Stevin est fort simple: la force OF' est égale à la projection de F sur la direction F'OF parallèle à AB, c'est-à-dire que le point F' s'obtient en abaissant de P la perpendiculaire PF' sur OF. La démonstration par laquelle Stevin obtient ce résultat est fort ingénieuse; elle est basée comme les démonstrations d'Archimède sur une expérience idéale, c'est-à-dire sur une expérience simple que l'on imagine, mais qu'il est inutile de réaliser, car le résultat en est évident. Peu importe, d'ailleurs, que cette évidence soit purement rationnelle, ou qu'elle résulte de certitudes acquises par un grand nombre d'expériences antérieures connues de tous les hommes. Stevin imagine un plan incliné ABC, ayant la forme d'un triangle rectangle, sur lequel se trouve enroulée une chaîne sans fin ABCM, chaîne composée d'un très grand nombre de petits chaînons et parfaitement homogène. Les chaînons situés sur la partie inclinée AB tendent à descendre, c'est-à-dire à faire tourner la chaîne (fig. 8) dans le sens AMCB, sens inverse des aiguilles d'une montre, tandis que les chaînons situés sur la partie verticale BC tendent également à descendre et à faire, par suite, tourner la chaîne en sens inverse dans le sens des aiguilles d'une montre. Quant à la partie inférieure de la chaîne AMC, elle est symétrique et les forces qu'elle peut exercer le sont également ; elle ne peut donc faire tourner la chaîne ni dans un sens, ni dans l'autre. Si les deux forces mises en jeu, l'une par la partie AB de la chaîne, l'autre par la partie BC, ne s'équilibraient pas exactement, la chaîne se mettrait à tourner ; mais, au bout d'un instant, la situation serait exactement la même, puisque la chaîne est homogène : chaque chaînon aurait pris la place du chaînon voisin et rien ne distinguerait la nouvelle position de la précédente ; le mouvement, continuerait donc indéfiniment, ce qui doit être regardé comme impossible ; il y a donc équilibre, et nous verrons que l'on déduit aisément de là le résultat énoncé par Stevin. Remarquons que celui qui ne considèrerait pas comme suffisante la démonstration basée sur l'impossibilité du mouvement perpétuel pourrait raisonner ainsi ; supposons, pour fixer les idées, que la force qui agit sur AB l'emporte sur celle qui agit sur BC; la conséquence est que BC se trouve soulevé verticalement par une force résiduelle; si nous admettons, pour fixer les idées, que cette force résiduelle soit de 2 grammes, nous pourrons accrocher en C à la chaîne un poids d'un gramme et le mouvement continuera à se produire dans le même sens, c'est-à-dire que ce poids d'un gramme sera élevé progressivement de C en B par le mouvement de la chaîne; nous pourrons alors le décrocher et accrocher en C un autre poids d'un gramme; nous pourrons aussi élever de C en B autant de poids d'un gramme que nous voudrons, sans fournir aucun effort; cela est évidemment absurde. Cette nouvelle démonstration fait intervenir implicitement la notion de travail, sur laquelle on peut baser également une démonstration analogue dont nous parlerons plus loin. Revenons à la démonstration de Stevin; nous pouvons représenter (fig. 9) le poids de la portion AB de la chaîne par une droite verticale DE dont la longueur est précisément égale à AB; le poids de la portion BC de la chaîne est alors représenté par la droite BC; soit DF la force exercée par la portion AB de la chaîne dans le sens BA; cette force DF équilibrant BC, lui est égale; le triangle DFE est donc égal au triangle ABC, car l'angle D est égal à l'angle B et les deux côtés aboutissant en D sont respectivement égaux aux deux côtés aboutissant en B ; l'angle F est donc un angle droit, comme l'angle C, c'est-à-dire que DF est la projection de DE sur AB, ce que nous voulions démontrer.


8. Les continuateurs d' Archimède : Galilée, Varignon, Newton, Bernoulli. — Le résultat obtenu par Stevin permet à lui seul d'édifier complètement la théorie de la composition des forces. Il suffit d'admettre, ce qui est évident par des raisons de symétrie, que deux forces concourantes en A ont une résultante passant en A et située dans leur plan. Il résulte du théorème de Stevin que la projection de la résultante sur une droite quelconque Ax passant par le point A, est égale à la somme de la projection des composantes ; cela résulte du fait que l'action de la résultante dans la direction Ax, comme dans toute autre direction, équivaut à l'action combinée des composantes. De là, on déduit, par de simples raisonnements géométriques, le théorème du parallélogramme des forces, c'est-à-dire le théorème d'après lequel la résultante de deux forces passant en A est la diagonale du parallélogramme construit sur ces deux forces. La théorie générale de la composition d'un nombre quelconque de forces, c'est-à-dire le problème général de la statique, peut alors être résolu par de simples déductions géométriques ou analytiques, sans qu'il soit nécessaire de faire intervenir aucun principe nouveau. En réalité, il fallut plus d'un siècle pour que les théories conçues par Stevin prennent leur forme définitive et deviennent parfaitement claires. Galilée (1564-1642), en même temps qu'il contribuait, comme nous le verrons au chapitre III, à la fondation de la dynamique, perfectionna la théorie du plan incliné. Newton (1642-1726), et Varignon (1654-1722), donnèrent simultanément une forme précise et claire au théorème général du parallélogramme des forces, et Varignon imagina un grand nombre de démonstrations qui, à peine modifiées, sont restées classiques en Statique. Il faut aussi mentionner Jacques Bernoulli (1654-1705), Jean Bernoulli (1667-1748) et Daniel Bernoulli (1700-1782). Ce dernier donna, du théorème du parallélogramme des forces, des démonstrations purement géométriques, reposant sur le minimum d'hypothèses. Malgré leur caractère un peu artificiel, de telles démonstrations ne sont pas sans intérêt.


9. La notion de travail et les déplacements virtuels. - Dans les recherches sur la statique, d'Archimède et de ses continuateurs, la notion de travail, d'abord un peu confuse, se précise peu à peu et finit par jouer un rôle prépondérant. Cette notion est liée à celle des déplacements virtuels, que Stevin paraît être le premier à avoir utilisée d'une manière systématique dans ses démonstrations. Un déplacement virtuel d'un système mécanique est un déplacement possible d'après les liaisons du système, mais qui n'a aucune relation nécessaire avec les déplacements réels qui se produisent sous l'action des forces. C'est par l'étude du plan incliné et par des raisonnements analogues à ceux que nous avons reproduits, que Stevin arrive à la formule générale qui définit le travail d'une force pour un déplacement donné (virtuel ou réel) de son point d'application; ce travail est égal au produit de la force par la projection du déplacement sur la direction de la force. Si cette projection est de même sens que la force, le travail est positif ; si elle est de sens contraire, le travail est négatif. Dans le cas où le déplacement est rectiligne, ou suffisamment petit pour être regardé comme rectiligne (remplacement de l'arc de courbe très petit par sa corde), on peut dire également que le travail de la force est égal au produit du déplacement par la projection de la force sur la direction du déplacement et ce second énoncé s'adapte mieux à la démonstration du théorème sur la composition des forces concourantes (règle du parallélogramme) ; mais le premier énoncé a l'avantage de s'appliquer à un déplacement fini quelconque (rectiligne ou curviligne), lorsque la direction et l'intensité de la force sont invariables pendant la durée du déplacement, ce qui est le cas pour la pesanteur. Le principe fondamental qui s'est dégagé peu à peu des études sur le travail est le suivant, qu'Archimède avait certainement compris, sans toutefois le formuler d'une manière générale et parfaitement claire : les machines peuvent transformer le travail, mais ne peuvent pas le créer ; en d'autres termes, elles ne restituent que le travail qui leur a été fourni. Dans une machine simple : levier, poulie, moufle, treuil, cabestan, etc., l'homme fournit un certain travail, grâce à sa puissance, et ce travail est employé à vaincre une certaine résistance; le travail évalué d'après la valeur de la résistance et son déplacement est égal au travail évalué d'après la valeur de la puissance et son déplacement. Par exemple, si nous avons un levier dont l'un des bras est dix fois plus long que l'autre, si nous exerçons sur ce bras un effort de 30 kilogrammes et si nous l'abaissons de 10 centimètres, nous pourrons élever d'un centimètre un fardeau de 300 kilogrammes reposant sur le bras le plus court du levier. Le travail de la puissance est égal à 30 kilogrammes multipliés par 10 centimètres, soit 3 kilogrammètres (Le kilogrammètre, unité de travail, correspond au déplacement d'un mètre dans la direction d'une force d'un kilogramme) et le travail de la résistance égal au produit do 300 kilogrammes par un centimètre, ou par 0 m. 01, est également égal à 3 kilogrammètres. Ces remarques simples ont conduit peu à peu les fondateurs de la statique à formuler la loi générale de l'équilibre des forces appliquées à un système assujetti à certaines liaisons. Pour qu'il y ait équilibre, il est nécessaire et suffisant que le travail total des forces soit nul, pour tout déplacement virtuel compatible avec les liaisons. Si nous reprenons le cas du levier, nous constatons que le travail de la puissance est positif, puisque le déplacement se produit dans le sens de la force, tandis que le travail de la résistance est négatif, puisque le fardeau s'élève, tandis que la force qui lui est appliquée, son poids, est dirigée vers le bas.


10. Energie potentielle et travail. - Un cas particulièrement intéressant est celui où le travail n'est pas produit par l'effort d'un homme ou d'un animal, mais par le déplacement vers le bas de certains corps pesants qui, dans la pratique, sont le plus souvent des masses d'eau. Imaginons deux wagons qui peuvent se déplacer sur des voix inclinées, parallèles, et qui sont reliés par une chaîne passant sur une poulie, de manière que l'un d'eux monte lorsque l'autre descend, et inversement. Si l'on dispose, au sommet de la pente, d'un réservoir d'eau, il sera possible d'augmenter le poids du wagon supérieur en remplissant d'eau un réservoir faisant partie de ce wagon, tandis que le wagon inférieur est chargé de voyageurs ou de marchandises. Si le poids de l'eau est suffisant, le wagon supérieur descendra, tandis que l'autre montera ; lorsque le wagon chargé d'eau sera arrivé au bas de sa course, on pourra le vider et l'utiliser à son tour pour monter des voyageurs ou des marchandises, en remplissant d'eau le réservoir de l'autre wagon. On peut arriver ainsi à élever un poids légèrement inférieur au poids de l'eau descendue et on peut concevoir que l'on élèverait un poids presque égal au poids descendu, si la chaîne était assez légère et si les frottements étaient réduits au minimum. Mais il apparaît comme absurde que l'on puisse élever un poids supérieur au poids descendu ; sinon, en recommençant indéfiniment et en élevant de l'eau au lieu d'élever des marchandises, le résultat final serait l'élévation purement gratuite d'une certaine masse d'eau. C'est ce qui nous apparaît comme absurde et impossible, en raison sans doute du grand nombre d'expériences plus ou moins conscientes faites par nos ancêtres et par nous-mêmes ; nous acceptons pour l'instant comme évidente cette impossibilité ; nous la discuterons un peu plus loin. On a été ainsi conduit à la notion d'énergie potentielle ; c'est l'énergie tenue en réserve dans la masse d'eau du réservoir, du fait que ce réservoir est situé au sommet d'une pente et que, par suite, l'eau peut être facilement abaissée, c'est-à-dire exécuter un travail positif. Toute masse d'eau située au-dessus du niveau de la mer a une certaine énergie potentielle, car il est relativement aisé de l'abaisser, en utilisant au besoin des canalisations de pente très faible qui l'amènent en un point convenablement choisi, dominant une région d'altitude plus faible. Au contraire, l'eau des mers ne possède pas d'énergie potentielle, ou du moins d'énergie potentielle utilisable, car on ne voit pas comment elle pourrait descendre au-dessous de son niveau actuel (1). Les démonstrations des théorèmes de la statique se simplifient beaucoup et deviennent presque intuitives lorsqu'on utilise la notion de travail ; c'est ainsi que, lorsqu'on a un système do poulies plus ou moins compliquées (ou moufles), combinées entre elles d'une manière quelconque, il est tout à fait inutile d'étudier en détail les forces mises en jeu et les tensions des divers fils ; il suffit de constater que, lorsqu'on tire sur la corde, il faut abaisser la main de 14 centimètres, par exemple, pour élever le fardeau d'un centimètre ; on est, alors assuré qu'avec un certain effort, on pourra élever un fardeau 14 fois plus lourd; pour élever un fardeau de 140 kilogrammes, il suffit, en principe, d'un effort de 10 kilogrammes, auquel il faut toutefois ajouter l'effort nécessaire pour vaincre les résistances passives (frottements), effort qui sera d'autant plus faible que les poulies seront mieux conditionnées. L'impossibilité de créer du travail sans dépenser l'effort d'un homme ou d'un animal, ou sans mettre en jeu quelque énergie potentielle, comme celle d'une masse située au sommet d'une pente, apparaît comme un axiome résultant d'une expérience séculaire. Nous discuterons plus loin, d'une manière plus approfondie, cette question et nous verrons que, comme pour le principe de symétrie évoqué par Archimède, un rôle essentiel est joué par l'hypothèse que les causes lointaines ou inconnues ont un effet nul ou négligeable. Cette hypothèse est, dans la pratique, suffisemment exacte, pour que les conséquences tirées par les mécaniciens de l'axiome du travail soient elles-mêmes exactes dans la majorité des cas.

(1) Nous laissons de côté, comme chimériques ou inexécutables, les procédés qui consisteraient à amener l'eau des mers dans la mer Caspienne, ou autres dépressions, et aussi les tentatives que l'on pourrait faire pour les amener dans des galeries souterraines de mines dans l'espoir que celles-ci se videraient spontanément vers le centre de la terre.


11. L'hydrostatique et le principe d' Archimède. — La découverte capitale d'Archimède en hydrostatique, à laquelle son nom est resté attaché, découle tout naturellement de l'axiome du travail. Considérons une masse de fer plongée au fond d'un bassin rempli d'eau et que nous pouvons élever au moyen d'un fil vertical qui lui est attaché ; supposons que nous l'élevions ainsi d'une certaine hauteur, tout en la maintenant plongée dans l'eau. Nous aurons ainsi accompli un travail égal au produit du poids du fer par la hauteur à laquelle il s'est élevé ; mais nous devons observer que l'eau qui occupait la position où est le fer après son déplacement se trouve maintenant là où était le fer avant son déplacement ; cette masse d'eau s'est donc abaissée d'une hauteur égale à celle où le fer a été élevé ; nous avons ainsi accompli un travail négatif, égal au produit du poids de cette eau par la hauteur. Le travail total, somme du travail positif et du travail négatif est donc égal au produit, par la hauteur, du poids du fer diminué du poids de l'eau qu'il déplace ; l'effort nécessaire pour élever le fer est donc égal au poids du fer diminué du poids de l'eau déplacée : c'est le principe d'Archimède. Les démonstrations d'Archimède sont plus longues et peut-être un peu moins simples que celle que nous venons de résumer ; mais il ne paraît pas douteux qu'Archimède avait compris la notion fondamentale du travail nécessaire pour élever une certaine masse d'eau et sa relation avec la diminution apparente du poids dos corps plongés dans l'eau. Stevin se montra ici, comme en statique, le digne continuateur d'Archimède ; il imagina la méthode de la solidification virtuelle, qui permet de démontrer tous les théorèmes essentiels de l'hydrostatique. Soit un bassin rempli d'eau ; imaginons, par la pensée, un certain volume d'eau entièrement intérieur au bassin ; ce volume est limité par une surface fermée unique (sphère, cube, etc.). Lorsque l'eau est en repos, ce volume est en équilibre ; il restera donc en équilibre si on l'imagine solidifié ; ce qui revient à introduire des liaisons supplémentaires. Mais les pressions de l'eau du bassin sur la surface qui limite ce volume sont évidemment indépendantes de la nature physique de cette surface ; elles restent les mêmes, si on remplace ce volume d'eau solidifié, par un corps solide quelconque ayant exactement la même forme et les mêmes dimensions. On en conclut que la résultante des poussées exercées par un liquide homogène sur un solide complètement immergé, équilibre exactement le poids d'une masse liquide géométriquement superposée au solide considéré. Cette rêsultante est donc égale au poids de cette masse et est appliquêe à son centre de gravité.


12. Les progrès de l'hydrostatique. - Les travaux de Stevin, ceux de Galilée et de Pascal éclaircirent toutes les difficultés apparentes que soulevait le principe général de la pression hydrostatique, que l'on peut énoncer ainsi: un liquide en équilibre exerce sur toute paroi une pression normale à la paroi, mais dont l'intensité ne dépend pas de sa direction ; elle est égale au poids d'une colonne liquide dont la base serait la portion de paroi considérée et dont la hauteur est égale à la distance verticale de la portion de paroi considérée au niveau supérieur du liquide (on suppose la portion de paroi assez petite pour que cette distance puisse être regardée comme constante; sinon il faudrait faire intervenir une théorie analogue à celle du centre de gravité). En particulier, lorsqu'un vase, dont le fond est horizontal, est rempli de liquide, la pression du liquide sur le fond du vase est égale au poids d'une colonne liquide ayant pour base ce fond et pour hauteur sa distance au niveau supérieur du liquide ; cette pression est donc égale au poids du liquide qui serait contenu dans le vase si celui-ci était cylindrique ; elle peut, suivant la forme du vase, être notablement supérieure ou inférieure au poids du liquide contenu dans le vase. Si cependant on place le vase dans l'un des plateaux d'une balance, il suffira, pour l'équilibrer, de placer dans l'autre plateau des poids égaux à la somme du poids du vase et du poids total du liquide ; c'est là le paradoxe que Stevin a éclairci par l'étude des pressions latérales. Un paradoxe analogue se présente dans l'étude des vases communicants; si deux tubes verticaux de sections fort différentes sont réunis par un tube horizontal soudé à leur partie inférieure, et si l'on remplit de liquide ces deux vases communicants, l'équilibre s'établira lorsque le niveau du liquide sera le même dans les deux vases, bien que le poids du liquide contenu dans l'un d'eux soit très inférieur au poids du liquide contenu dans l'autre. Si l'on place au-dessus du liquide, dans le tube le plus large, un piston étanche et si l'on verse du liquide dans le tube le plus étroit, la pression exercée par ce liquide tendra à soulever le piston avec une force qui sera égale au rapport des sections des deux tubes, multipliée par le poids de la masse de liquide ajoutée dans le tube le plus étroit. Si le diamètre du tube le plus large est 10 fois plus grand que celui du tube le plus étroit, de sorte que sa section est centuple, on peut ainsi exercer sur le piston une pression de 100 kilogrammes en ajoutant un kilogramme d'eau dans le tube étroit. Pascal a approfondi de nombreuses questions de ce genre, par une méthode qui équivaut à celle des déplacements virtuels dont nous avons parlé en statique. Nous nous contenterons de mentionner, car elle n'introduit aucun principe vraiment nouveau, la théorie de l'équilibre des corps flottants et de la stabilité de cet équilibre.


13. La statique des gaz et la pression atmosphérique. - Les connaissances des anciens sur l'air et sur les gaz étaient fort vagues ; comme nous l'avons dit, Aristote pensait que, si les vapeurs s'êlèvent vers le ciel, tandis que les solides et les liquides tombent vers la terre, c'est parce que chaque élément tend vers son lieu naturel. Certaines expériences fort simples, qui prouvent que l'air a une certaine matérialité, étaient connues cependant depuis une haute antiquité; si l'on plonge une bouteille dans l'eau par le goulot, elle ne se remplit pas, à moins qu'on ne l'incline de telle sorte que l'air sorte par bulles. Les pompes et le siphon pour transvaser les liquides étaient connus également des anciens; mais l'explication qu'on en a donnée jusqu'au XVIIème siècle a été simplement l'horreur de la nature pour le vide. C'est Torricelli (1608-1647), qui réalisa le premier l'expérience fondamentale du baromètre à mercure. Cette expérience prouvait que la pression atmosphérique était équilibrée par une colonne d'environ 76 centimètres de mercure. Pascal connut cette expérience par Mersenne en 1644 et se passionna immédiatement pour cette question; il fit d'abord des expériences équivalentes à celles de Torricelli et imagina ensuite des expériences nouvelles dont la plus célèbre est l'expérience du Puy-de-Dôme (19 septembre 1648), qu'il réalisa avec le concours de son beau-frère Périer. Cette expérience, d'où il résultait que la hauteur de la colonne barométrique était sensiblement moins élevée au sommet de la montagne que dans la plaine, prouvait, sans contestation possible, que la cause du phénomène était bien le poids de la colonne d'air située au-dessus du baromètre ; les pressions dans l'atmosphère suivaient la même loi que dans une cuve remplie de liquide où la pression augmente à mesure que l'on s'éloigne de la surface libre. Il y avait toutefois une différence très grande, qui ne devait être complètement éclaircie que par Laplace, un siècle et demi plus tard : l'eau est sensiblement incompressible, tandis que l'air est compressible ; il devient plus léger, à volume égal, à mesure que l'altitude s'élève et que la pression diminue. La formule de Laplace fait connaître la variation de la pression avec l'altitude ; le problème se complique d'ailleurs du fait que la température n'est pas constante ; si l'on négligeait cette variation de la température, on arriverait à la conclusion que la pression atmosphérique devient deux fois plus faible à l'altitude de 5.500 mètres, 4 fois plus faible à une altitude double, 8 fois plus faible à une altitude triple, et ainsi de suite. C'est Boyle et Mariotte qui devaient énoncer la loi de compressibilité des gaz, loi, seulement approchée comme on l'a reconnu plus tard.


14. La statique, corps de doctrine. — A la fin du XVIIème siècle, la statique constituait un corps de doctrine cohérent ; les lois de la composition des forces appliquées à des corps solides, la théorie du centre de gravité qui en découle et les lois de l'hydrodynamique se complétaient mutuellement. Il était d'ailleurs possible de vérifier ces théories, obtenues indépendamment les unes par les autres. Si l'on considère un prisme droit triangulaire plongé dans un liquide, de manière que ses bases soient horizontales et, ses faces latérales verticales, les pressions qui s'exercent sur ces faces latérales doivent se faire équilibre ; on en conclut, que si trois forces sont appliquées aux milieux des côtés d'un triangle et proportionnelles à ces côtés, ces forces se font équilibre. Or les perpendiculaires aux côtés d'un triangle en leurs milieux concourent au centre O du cercle circonscrit au triangle et il est aisé de voir que l'équilibre de ces trois forces concourantes équivaut, lorsque le triangle est quelconque, au théorème général du parallélogramme des forces. Ce théorème se trouve ainsi obtenu comme conséquence des lois élémentaires de l'hydrostatique, déduites elles-mêmes par Stevin de l'expérience idéale de solidification d'une portion bien délimitée d'une masse liquide homogène. C'est seulement à la fin du XVIIIème siècle que la découverte des aérostats permet de réaliser, sur une grande échelle, des expériences sur l'extension aux gaz du principe d'Archimède. Un ballon d'un volume considérable et d'un poids assez faible, gonflé soit par de l'air chaud, soit par un gaz plus léger que l'air, a une force ascensionnelle considérable et peut élever une nacelle portant des passagers. Le volume du gaz qui gonfle le ballon augmente avec l'altitude et si l'enveloppe du ballon est, au départ, incomplètement gonflée, cette augmentation de volume compense exactement la diminution de densité de l'air, de sorte que la force ascensionnelle reste constante jusqu'au moment où l'augmentation du volume du gaz devient telle que l'enveloppe ne peut plus le contenir et que l'aéronaute doit le laisser s'échapper. De même que la navigation aérienne confirmait l'extension aux gaz des lois de l'hydrostatique, la navigation sous-marine confirmait ces mêmes lois, compte tenu de la compressibilité des liquides.


  • Chapitre II
  • Cinématique


15. Cinématique et géométrie. - On a donné le nom de cinématique à l'étude du mouvement, indépendamment des causes qui le produisent, c'est-à-dire indépendamment des forces. Il apparaît comme logique d'étudier d'abord les forces indépendamment du mouvement, ce qui est l'objet de la statique, puis le mouvement indépendamment des forces, c'est-à-dire la cinématique, avant d'aborder la dynamique, c'est-à-dire l'étude des relations entre les forces et le mouvement. En fait, les historiens de la Mécanique ne font guère mention des origines et des progrès de la cinématique et il semble bien que, jusqu'à une époque relativement récente, l'histoire de la cinématique ne soit confondue, soit avec celle de la géométrie, soit avec celle de la dynamique. Il y a cependant intérêt à rechercher comment les principes fondamentaux de la cinématique se sont dégagés peu à peu de l'empirisme primitif pour arriver à constituer une doctrine cohérente. Ce qui distingue nettement la cinématique de la géométrie, c'est la notion du temps. Si nous considérons un point mobile qui se déplace d'une manière quelconque dans le plan ou dans l'espace, il décrit une courbe dont l'étude appartient à la géométrie. Mais la connaissance de cette courbe ne suffit pas pour connaître le mouvement, car celui-ci peut être plus ou moins rapide. Cette notion de la rapidité est familière aux hommes les plus primitifs et même sans doute à beaucoup d'animaux ; lorsque l'on veut échapper à une poursuite, on doit tenter d'augmenter la vitesse avec laquelle on se déplace. La comparaison des vitesses parait appartenir au domaine de la géométrie : si le lièvre parcourt 100 mètres en même temps que la tortue parcourt 1 mètre, il va 100 fois plus vite que la tortue ; sa vitesse est 100 fois plus grande. Mais un lièvre peut, suivant les circonstances, courir plus ou moins vite ; il peut donc également modifier sa vitesse en l'accélérant ou, au contraire, en la diminuant. C'est en réfléchissant sur ces circonstances que l'on a acquis peu à peu la notion de mouvement uniforme, ou mouvement dans lequel la vitesse reste constante. Un bon marcheur qui se déplace d'un pas égal sur une bonne route, sensiblement horizontale, peut conserver pendant un temps assez long, aussi longtemps qu'il n'est pas fatigué, une vitesse sensiblement uniforme ; cette vitesse pourra être prise comme élément de comparaison pour évaluer les vitesses d'un lièvre, d'une tortue, d'un cheval et d'une voiture se déplaçant sur la même route. Telle fut la méthode empirique par laquelle les hommes purent acquérir la notion de vitesse et évaluer grossièrement les vitesses. Pour faire un pas de plus, et se rapprocher de la définition scientifique de la vitesse, il était nécessaire d'introduire explicitement la notion de temps et d'apprendre à mesurer le temps.


16. La mesure du temps. - Aussi loin que l'on puisse remonter dans l'histoire des civilisations, l'homme a eu la notion du temps et de son écoulement inéluctable et il est difficile de savoir à quelle époque, assurément fort reculée, on a commencé à mesurer le temps. L'observation des phénomènes astronomiques, dont les plus simples sont, sous nos climats, l'alternance régulière des jours et des nuits, des phases de la lune, des saisons, suffira pour évaluer la durée au moyen du jour, de la semaine, du mois, de l'année; mais ni le mois lunaire, ni l'année solaire ne renferment un nombre exact de jours; d'où, pour l'établissement des divers calendriers, des difficultés qui ne furent levées que progressivement; on sait que notre calendrier actuel, ou calendrier grégorien, date du pape Grégoire, en 1582. C'est seulement lorsque se répandit l'usage des horloges que l'on prit l'habitude de diviser le jour solaire en 24 parties égales, ou heures; on constata d'ailleurs que la durée de ce jour n'est pas constante et l'heure des horloges dut être définie comme la 24ème partie du jour solaire moyen; il n'y avait plus alors aucune difficulté à préciser les unités plus petites, minute et seconde. Mais dans l'antiquité, de nombreux peuples considéraient l'heure comme la douzième partie de l'intervalle qui s'écoule entre le lever et le coucher du soleil; tel est le sens adopté dans la parabole des ouvriers de la onzième heure. L'heure ainsi définie est plus longue en été qu'en hiver. Les anciens avaient cependant éprouvé le besoin d'établir avec une certaine précision de petits intervalles de temps égaux; c'est pour y parvenir que fut imaginé le sablier. On sait qu'un sablier est formé de deux ampoules de verre fermées, mais réunies par un orifice étroit, de telle manière qu'une certaine quantité de sable puisse s'écouler de l'ampoule supérieure dans l'ampoule inférieure; en retournant le sablier, l'ampoule inférieure devient supérieure, et inversement, de sorte que l'on peut s'en servir indéfiniment. Si, au lieu de sable, c'est de l'eau qui s'écoule, on a le clepsydre. Ces divers instruments, et aussi les horloges de toute espèce, reposent sur le même principe, considéré comme évident a priori : si l'on parvient à répéter à diverses reprises un même phénomène, toujours identique à lui-même, le temps nécessaire à l'accomplissement de ce phénomène reste constant. Tel est le cas lorsque l'on considère le temps nécessaire à l'écoulement total du sable renfermé dans le sablier, ou la durée de l'oscillation du balancier d'une horloge, oscillation dont l'amplitude est constante (1). Les progrès de l'astronomie, de Copernic à Galilée, ont conduit à regarder comme constante la durée de rotation de la Terre sur elle-même, durée mesurée en observant deux passages successifs d'une même étoile au méridien. Quel que soit le phénomène dont la durée est considérée comme constante, la même objection théorique peut être faite ; les Grecs disaient déjà : on ne se baigne jamais deux fois dans le même fleuve ; deux phénomènes ne se passent jamais dans des conditions identiques, du moment qu'ils ne sont pas simultanés à la fois dans le temps et dans l'espace ; mais on n'a pas alors deux phénomènes distincts. En fait, nous savons maintenant que l'intensité de la pesanteur n'est pas la même en tous les points du globe, qu'elle croît lorsqu'on se rapproche du pôle et décroît lorsque l'on marche vers l'équateur ; le temps mesuré par un même sablier n'est donc pas constant aux diverses latitudes. S'il s'agit d'une horloge, si parfaite soit-elle, son mécannisme s'use progressivement et la constance de sa marche ne peut être absolument garantie, sans parler des variations de la température, de la pression atmosphérique, du mouvement des astres (1), qui peuvent influer sur elle. La conclusion à laquelle étaient arrivés les créateurs de la Mécanique, c'est que la mesure du temps est pratiquement réalisable, au moyen des observations des étoiles et, des horloges, avec une approximation largement suffisante pour tous les besoins de la pratique. Nous verrons plus loin comment l'étude approfondie de la dynamique et de la mécanique céleste ont conduit les mécaniciens à une définition du temps qui ne dépend plus d'un seul phénomène, mais d'un vaste ensemble de phénomènes.

  • (1) Rappelons que c'est Galilée qui énonça le premier le principe de l'isochronisme des petites oscillations du pendule, qui permet d'omettre l'hypothèse de la constance de l'amplitude.


17. Newton et le temps absolu. — Citons, d'après Mach, un passage de Newton, qui nous fera connaître quelle conception du temps se faisait le plus illustre des mécaniciens et astronomes de la fin du XVIIème siècle. "Le temps absolu, vrai et mathématique, sans relation à rien d'extérieur, coule uniformément, et s'appelle durée. Le temps relatif, apparent et vulgaire est cette mesure sensible et externe d'une partie de durée quelconque (égale ou inégale), prise du mouvement : telles sont les mesures d'heures, de jours, de mois, dont on se sert ordinairement à la place du temps vrai car les jours naturels sont inégaux, quoiqu'on les prenne communément pour une mesure inégale du temps; et les astronomes corrigent cette inégalité afin de mesurer les mouvements célestes par un temps plus exact. Il est très possible qu'il n'y ait pas de mouvement parfaitement égal, qui puisse servir à la mesure exacte du temps, car tous les mouvements peuvent être accélérés ou retardés, mais le temps absolu doit couler toujours de la même manière." On voit que Newton considère comme évidente a priori l'existence d'un temps absolu, qui s'écoule uniformément, même si nous n'avons aucun moyen pratique d'arriver rigoureusement à la mesure de ce temps absolu au moyen de l'observation d'un phénomène déterminé. On ne peut nier que cette conception a quelque chose de métaphysique, car elle ne repose pas sur l'expérience physique ; elle est suggérée par cette expérience, de même que la géométrie d'Euclide est suggérée par des expériences sensibles, mais elle est une conception abstraite et non concrète, de même que la droite, le cercle, le plan d'Euclide sont de pures abstractions et non des réalités. Les conceptions de Newton ont dominé la science pendant plus de deux siècles et c'est grâce à elles qu'ont été réalisés les progrès de la mécanique, de la physique et de l'industrie qui ont si profondément modifié toute la civilisation matérielle au cours du XIXème siècle. Comme nous le verrons dans la troisième partie de ce livre, les progrès de la physique, depuis le début du XXème siècle, ont conduit à penser que la mécanique newtonienne est seulement une première approximation et ne peut expliquer tous les phénomènes ; mais, à titre de première approximation, cette mécanique newtonienne subsistera sans doute fort longtemps, sinon aussi longtemps que dureront notre science et notre civilisation. Comme nous l'avons dit, c'est l'étude de la dynamique qui a permis de définir, avec la précision la plus grande possible, le temps absolu de Newton. Pour l'étude de tous les mouvements sur la surface de la Terre, et pour celle de presque tous les phénomènes célestes, on peut adopter comme temps absolu le temps sidéral, défini par l'uniformité du mouvement de rotation apparent des étoiles (1) par rapport à la Terre. Les progrès de l'horlogerie ont permis de construire des montres et horloges grâce auxquelles le temps peut être mesuré avec une approximation tout à fait comparable à celle avec laquelle les instruments de mesure les plus précis permettent de mesurer les longueurs ; la cinématique est dès lors une science aussi exacte que peut l'être une science concrète, c'est-à-dire une science qui étudie des phénomènes concrets, phénomènes qui ne peuvent être mesurés et connus qu'avec une certaine approximation.

  • (1) On sait que les marées dépendent des positions relatives de la Lune et du Soleil par rapport à la Terre: il pourrait donc en être de même d'autres phénomènes terrestres, comme le mouvement du balancier d'une horloge; en fait le calcul montre que la perturbation existe, mais est extraordinairement petite.


18. Vitesse et accélération. Repères fixes. — Le temps étant défini, il a été facile de définir la vitesse et l'accélération d'un mouvement. Nous n'avons pas à développer ici les nombreux théorèmes de géométrie qui sont en relation avec la cinématique, ni à critiquer la notion d'espace, que nous empruntons à la géométrie euclidienne. Rappelons simplement que l'accélération étant définie comme la dérivée de la vitesse par rapport au temps, on doit considérer la vitesse comme un vecteur, de sorte que, dans un mouvement circulaire uniforme, il y a une accélération constante, dirigée vers le centre du cercle, bien que la valeur absolue de la vitesse soit constante. Mais nous n'insisterons pas sur la partie géométrique de la cinématique, laquelle nous paraît appartenir à la géométrie plus qu'à la mécanique: centre instantané de rotation dans le plan, représentation du mouvement plan par le roulement sans glissement d'une courbe sur une autre, axe instantané de rotation et de translation dans l'espace (mouvement hélicoïdal tangent) ; composition des translations et des rotations, groupes de mouvements. La notion de mouvement absolu et de mouvement relatif, par contre, est une notion essentielle de la cinématique et, en même temps, une de celles dont l'histoire, qui n'est peut-être pas terminée, est la plus intéressante. Lorsque nous étudions le mouvement d'un corps sur la surface de la terre, sur la mer ou dans les airs, nous utilisons, pour distinguer avec précision les unes des autres les positions successives du mobile, des repères fixes, par exemple des phares s'il s'agit d'un bateau se déplaçant le long des côtes. C'est par rapport à ces repères que se trouve fixée, à chaque instant, la position du mobile et la détermination de sa trajectoire, de sa vitesse, de son accélération deviennent de simples problèmes de géométrie lorsque la situation du corps mobile est bien connue en fonction du temps. Mais, jusqu'à l'invention de la poudre à canon, on n'a eu guère l'occasion d'observer, à la surface de la terre des mouvements dont la vitesse était considérable et qui duraient un temps appréciable ; aussi les premières recherches sérieuses de cinématique portèrent sur le mouvement des corps célestes. Les premières observations du ciel étoilé permirent aux hommes de distinguer les étoiles fixes, formant des constellations de forme invariable et les sept astres mobiles : le soleil, la lune,et les cinq planètes, Mercure, Vénus, Mars, Jupiter et Saturne. L'observation prolongée du lever et du coucher des étoiles fixes, faites d'un lieu élevé, permit de se rendre compte que, pour un observateur immobile, ce lever et ce coucher se produisent, pour une même étoile, en deux points bien déterminés de l'horizon. Tout se passe donc comme si le ciel étoilé tournait autour d'un axe fixe invariablement lié à la Terre et passant par un point du ciel très voisin de l'étoile polaire et cette remarque établit une relation étroite entre les mouvements du soleil, de la lune et des planètes par rapport au ciel étoilé et leurs mouvements par rapport à la terre. Par oxemple, la durée qui s'écoule entre le lever et le coucher du soleil dépend de la position du soleil par rapport aux étoiles fixes et, comme l'on dit, de la position du soleil sur le zodiaque. Tels furent les premiers problèmes de cinématique qui se trouvèrent résolus par les Chaldéens et les Grecs. C'est seulement beaucoup plus tard quo des progrès importants furent accomplis, d'abord par Ptolémée, puis par Copernic, Tycho-Brahé et Képler.

  • (1) Les étoiles ne sont pas rigoureusement immobiles les unes par rapport aux autres; on peut, soit se référer aux étoiles les plus éloignées (nébuleuses galactiques), soit prendre la moyenne des résultats obtenus par l'observation de nombreuses étoiles.


19. Le système du Monde, de Ptolémée à Képler. — Ptolémée eut le grand mérite de décrire pour la première fois, d'une manière correcte, les mouvements du soleil et des planètes par rapport à la Terre, considérée comme fixe. On ne peut s'étonner du fait que Ptolémée rapporte les mouvements des astres aux seuls repères fixes qui nous sont donnés par notre observation quotidienne, c'est-à-dire aux repères terrestres. Il est naturel et logique de se demander comment les astres se déplacent par rapport à nous, puisque c'est nous qui les observons et que cela ne nous intéresse guère de savoir quel serait l'aspect du ciel étoilé pour un observateur situé sur la Lune ou sur Jupiter. Il fallut de nombreux siècles et le génie de Copernic pour formuler une hypothèse hardie, dont les conséquences devaient jouer un rôle essentiel dans les progrès de l'Astronomie et de la Mécanique. Ne pourrait-on, au lieu de regarder la Terre comme immobile et décrire les mouvements des astres par rapport à elle, regarder le soleil comme immobile, regarder également les étoiles fixes comme immobiles, et décrire le mouvement de tous les astres par rapport à ces repères fixes, la Terre étant simplement considérée comme une planète analogue aux autres planètes ? Cette hypothèse de Copernic simplifiera immédiatement le système de Ptolémée ; le système de Copernic dans lequel toutes les planètes, y compris la Terre, tournent autour du soleil, est beaucoup plus simple que le système de Ptolémée et cet argument de simplicité devait suffire pour entraîner l'adhésion aux idées de Copernic de tous les esprits réfléchis. Mais, ceux-ci sont loin d'être la majorité et certains préjugés sont difficiles à vaincre ; il fallut plusieurs siècles pour que le système de Copernic recueille l'adhésion unanime. Cependant, en habile observateur et patient calculateur, Tycho-Brahé accumulait les observations et les calculs afin de préciser la nature exacte des trajectoires des planètes. Ne voulant pas rompre ouvertement avec les préjugés de son temps, Tycho-Brahé évite de prendre parti entre Ptolémée et Copernic et sa prudence le conduit à formuler une remarque dont l'intérêt scientifique est considérable. Il observe, en effet, que si le mouvement des astres, y compris le soleil, est bien connu par rapport à la Terre supposée immobile, il n'y a aucune difficulté à décrire les mêmes mouvements en supposant le soleil immobile et la Terre mobile. Du point de vue géométrique et cinématique, les systèmes de Ptolémée et de Copernic sont, au fond, équivalents et il n'y a pas lieu, pour le calculateur, de prendre parti pour l'un plutôt que pour l'autre. Il lui est donc permis de faire tous ses calculs en admettant l'hypothèse de Copernic qui conduit à des calculs plus simples, car il lui sera ensuite facile de traduire les résultats de ces calculs dans le langage de Ptolémée. Tycho-Brahé est ainsi le premier des relativistes ; il affirme qu'il n'y a pas de mouvements absolus, mais seulement des mouvements relatifs, pur rapport à certains repères arbitrairement choisis comme fixes ; ces repères peuvent être, selon que cela nous parait plus commode, choisis sur la Terre ou dans le ciel. Suivant le choix que l'on aura fait, on aura deux descriptions différentes, de même que deux hommes décriront différemment un même paysage suivant qu'ils l'observent de deux points de vue différents; mais rien ne permet de dire qu'une de ces descriptions est vraie tandis que l'autre est fausse; chacune d'elles est vraie lorsque l'on adopte les hypothèses auxquelles elle est liée; chacun reste absolument libre de choisir les hypothèses qui lui conviennent et un habitant de la Lune, s'il y en a, pourrait, construire pour son usage un système du monde dans lequel la Lune serait immobile. Dans ce système, la Terre occuperait une place fixe dans le ciel (1), s'agrandissant ou se rapetissant légèrement au cours du mois, de sorte que le mouvement de la Terre consisterait seulement à s'éloigner et se rapprocher un peu de la Lune sans que sa position apparente soit modifiée par rapport à l'horizon. Ce serait assurément un problème très difficile, pour le Ptolémée lunaire, d'imaginer par quel mécanisme peut se produire ce mouvement très singulier de la Terre, alors que les apparences de mouvement de tous les autres astres seraient assez analogues é celles que nous observons nous-mêmes, la durée du jour étant seulement bien plus longue. Képier arriva, grâce à des calculs difficiles et à une intuition géniale, à déduire des observations de Tycho-Brahé les lois du mouvement des planètes. Ces célèbres lois de Képler doivent être rappelées :

  • I. — Les planètes décrivent des courbes planes, dont le plan passe par le centre S du soleil ; ce sont des ellipses dont le point S est l'un des foyers.
  • II. — Les aires balayées par le rayon vecteur SP qui joint le centre du soleil au centre de la planète sont proportionnelles aux temps.
  • III. — Pour deux planètes différentes, les carrés des temps des révolutions sont proportionnels aux cubes des grands axes.

Ces lois donnent la solution du plus important des problèmes de cinématique que l'observation des phénomènes naturels ait posé aux hommes. On a souvent observé que Képler n'aurait pu donner à ses lois cette forme si simple si l'ellipse n'avait pas été déjà connue par les géomètres ; il lui aurait fallu inventer l'ellipse et en trouver les propriétés ; ce qui était loin d'être un problème simple à une époque où la géométrie analytique n'était pas inventée. Il faut donc rendre hommage aux géomètres grecs, qui ont étudié les propriétés des sections coniques, et en particulier de l'ellipse ; cette étude a pu apparaître, pendant des siècles, comme une pure spéculation abstraite, sans aucun rapport avec la réalité ; ils avaient cependant créé l'instrument qui devait permettre à Kepler de décrire avec précision le système solaire. C'est là l'exemple le plus célèbre d'un fait très fréquent dans l'histoire des mathématiques et de leurs applications ; il arrive très souvent que des découvertes, faites par les mathématiciens et considérées pendant des années ou pendant des siècles comme purement théoriques, se révèlent brusquement nécessaires, ou même indispensables, pour certaines applications.

  • (1) Nous supposons notre habitant lunaire situé sur la face qui regarde la Terre ; sinon, il ne la verrait jamais.


20. L'espace absolu de Galilée et de Newton. — Nous verrons au prochain chapitre comment les progrès essentiels de la dynamique, réalisés par Galilée et par Newton, conduisent naturellement que les droites qui vont du centre du soleil vers les étoiles dites fixes restent constamment parallèles à elles-mêmes, et doivent être considérées comme définissant des directions fixes. Si l'on considère des axes dont l'origine est au centre du soleil et qui passent par des points fixes du ciel étoilé, ces axes pourront être regardés comme fixes ou comme définissant ce que l'on peut appeler l'espace absolu pour les mécaniciens. Cette définition est justifiée par le fait que les équations fondamentales de la dynamique prennent une forme particulièrement simple lorsque cet espace est choisi comme espace de référence. Nous devons toutefois ajouter à ceci deux remarques essentielles. Tout d'abord, si l'on considère un autre système d'axes parallèles aux précédents, mais animés par rapport à eux d'un mouvement de translation uniforme, de vitesse d'ailleurs quelconque, ce second système d'axes aura les mêmes propriétés et pourra être considéré également comme définissant l'espace absolu. De plus, pour que les équations de la dynamique aient une forme simple, il ne suffit pas de faire choix de l'espace absolu que nous avons défini, il faut, en outre, comme nous le verrons, définir convenablement le temps absolu. Dès lors, il est aisé de définir la vitesse absolue et l'accélération absolue. Nous avons dit que l'espace absolu n'était défini qu'à un mouvement près de translation uniforme; si v0 est la vitesse de ce mouvement (vitesse vectorielle), les vitesses absolues ne sont définies qu'à une constante (vectorielle) additive près ; les accélérations absolues conservent la même valeur quelle que soit v0 ; c'est cette constance des accélérations absolues qui importe pour la dynamique. Nous verrons, dans la troisième partie, quelles restrictions la découverte de la théorie de la relativité a obligé d'apporter à ces définitions newtoniennes de l'espace et du temps absolu ; celles-ci ne conservent cependant pas uniquement une valeur historique ; les progrès de la mécanique qu'elles ont permis de réaliser restent acquis à la science, de même que les progrès de la technique qui en ont résulté restent acquis à la civilisation. De plus, il n'est pas douteux que, même aujourd'hui, compte tenu des progrès les plus récents de la physique, l'espace et le temps, que Newton appelait absolus, continuent à jouer un rôle privilégié dans la science mécanique et la relativité indifférente de Tycho-Brahé n'est pas devenue plus raisonnable qu'elle ne l'était au XVIème siècle.


  • Chapitre III
  • Dynamique


21. Galilée, créateur de la dynamique. - On peut considérer Galilée comme le véritable créateur de la dynamique, grâce à ses profondes et ingénieuses recherches sur le mouvement des corps pesants. Les anciens n'avaient eu, sur la dynamique, que des idées confuses et incertaines, car des circonstances accessoires, comme le frottement des corps solides ou la résistance de l'air leur avaient masqué la loi véritable des phénomènes. Ce fut la gloire de Galilée d'avoir su le premier dégager ces lois, notamment grâce au plan incliné et au pendule. Quelques-uns des prédécesseurs de Galilée les avaient partiellement entrevues; le plus illustre de tous est Léonard de Vinci qui, en cette matière comme en beaucoup d'autres, aurait joué un rôle bien plus grand dans l'histoire de la science si ses écrits avaient été publiés plus tôt et compris par ses contemporains. La méthode de Galilée est celle qui a toujours guidé ceux qui ont fait de grandes découvertes dans la connaissance des lois de la nature; tout d'abord l'intuition leur suggère des hypothèses, puis l'expérimentation leur permet de vérifier ces hypothèses et enfin, le raisonnement ou le calcul leur permettent de formuler avec précision et de généraliser les résultats fragmentaires déduits de leurs expériences. Les intuitions de Galilée reposent, comme c'est le plus souvent le cas, sur l'interprétation et la généralisation d'expériences vulgaires ; lorsqu'un corps pesant tombe, sa vitesse s'accroît avec la chute ; cette chute est plus lente lorsqu'elle se produit sur un plan incliné, et d'autant plus lente que le plan est moins incliné ; Galilée ajoute l'hypothèse que la loi de la chute, c'est-à-dire la forme de la relation entre les espaces et les temps, est la même pour la chute le long d'un plan incliné que dans le cas de la chute libre. Son intuition le conduit en outre à une autre hypothèse, et c'est là sans doute que son génie le guide et lui fournit la clef du problème : lorsqu'un corps est tombé d'une certaine hauteur, le long d'un plan incliné, il a acquis une certaine vitesse ; l'hypothèse fondamentale de Galilée est que cette vitesse lui permettrait de remonter d'une hauteur égale le long d'un plan incliné symétrique du premier. Cette hypothèse lui a sans doute été suggérée par l'observation du pendule simple, formé d'un corps pesant assez lourd, boule de métal par exemple, suspendu à un fil ; si ce pendule est écarté de la position verticale, le fil restant tendu, il la regagne et arrive au bas de sa chute avec une vitesse qui lui permet, de remonter à une hauteur égale à celle d'où il est parti. En fait, après un grand nombre d'oscillations, l'amplitude de ces oscillations diminue et, par suite, la hauteur diminue également, mais cette faible diminution doit être attribuée aux résistances passives (notamment à la résistance de l'air) et Galilée conçoit qu'un pendule parfait, s'il est soumis à ces résistances, permettrait d'observer un mouvement rigoureusement symétrique à la montée et à la descente. Nous voyons ici, dans une seule et même expérience, l'emploi successif de l'intuition, de l'observation et du raisonnement abstrait.


22. Les lois de la chute des corps. — Galilée ayant admis que la vitesse acquise par la descente le long d'un plan incliné permet au mobile de remonter à la même hauteur d'où il est descendu, il en conclut que cette vitesse acquise est indépendante de la pente du plan incliné, mais ne dépend que de la hauteur de chute. S'il en était autrement, en effet, et si certaines pentes du plan incliné permettaient d'obtenir une vitesse plus grande pour la même hauteur de chute, on pourrait, en faisant descendre un mobile sur une de ces pentes privilégiées et en le faisant ensuite remonter sur une autre pente, l'élever à une hauteur plus grande que celle dont il est descendu; on arriverait ainsi à créer gratuitement du travail, ce qui est depuis longtemps reconnu comme impossible. Une expérience simple, réalisée avec le pendule, confirme d'ailleurs ces vues de Galilée. Après avoir écarté le pendule de sa position verticale en AB, il l'abandonne à lui-même sans vitesse jusqu'à ce qu'il y revienne; mais au moment où le fil est redevenu vertical, il vient buter contre un obstacle fixe O, de telle manière que la partie supérieure du fil se trouve immobilisée et que tout se passe comme si la masse constituant le pendule était suspendue à un fil plus court OC; la seconde partie CD de la trajectoire se trouve ainsi formée d'un arc de cercle de rayon plus petit que celui de la première partie; (fig. 10) on constate que les points B et D sont sur une même droite horizontale. Ces inductions, observations et raisonnements préliminaires permettaient à Galilée, pour découvrir la loi de la chute des corps, d'observer des billes roulant dans des rainures sur un plan incliné ; les distances parcourues étaient mesurées et les temps étaient mesurés également au moyen d'une horloge à eau : Galilée pesait l'eau qui passait par un petit orifice (1) pendant le temps que la bille parcourait une certaine distance. C'est ainsi que Galilée arriva à formuler la loi fondamentale de la chute d'un corps pesant qui est abandonné sans vitesse initiale : les espaces parcourus à partir de l'origine du mouvement sont proportionnels aux carrés des temps employés à les parcourir. Les espaces parcourus pendant les temps 1, 2, 3, 4, ... sont donc égaux, si l'unité de longueur est convenablement choisie, à 1, 4, 9, 16, ... Galilée conclut de là que les espaces parcourus pendant des temps égaux croissent comme les nombres impairs 1, 3, 5, 7, ... (car on a 4 — 1 = 3 ; 9 — 4 = 5 ; 16 — 9 = 7 etc., etc.), d'où il arrive à conclure, par des raisonnements arithmétiques simples, que les vitesses croissent proportionnellement au temps, c'est-à-dire que la vitesse acquise au bout de dix secondes est dix fois plus grande que la vitesse acquise au bout d'une seconde. Ces raisonnements arithmétiques de Galilée sont entièrement équivalents aux formules par lesquelles nous exprimons les lois du mouvement uniformément accéléré

v = g*t;

e = (1/2)*g*(t^2).

De ces équations, on déduit facilement la relation entre e et rho :

e = (rho^2)/(2*g).

Mais cette relation, dont les conséquences sont fort importantes, ne paraît pas avoir été donnée explicitement par Galilée ; c'est Huyghens qui attira sur elle l'attention. Il ne faut pas s'étonner de la lenteur opparente avec laquelle se sont réalisés les progrès de la pensée scientifique ; il faut se rendre compte du fait que des notions qui nous sont aujourd'hui familières devaient être créées de toutes pièces, que l'algèbre faisait ses premiers pas et que la géométrie analytique de Descartes n'existait pas encore. Pour en terminer avec ces premiers travaux de Galilée, qui marquent une étape essentielle dans les progrès de la Mécanique, observons qu'on pourrait les considérer comme étant de la pure cinématique et non de la dynamique; Galilée observe le mouvement des corps pesants en lui-même, sans s'inquiéter en apparence des causes de ce mouvement, de la force que nous appelons pesanteur. Il faut cependant observer que l'existence de cette force est constamment présente à l'esprit de Galilée ; c'est à cette force qu'est due l'augmentation progressive de la vitesse ; c'est aussi à la résistance opposée par la pesanteur qu'est dû le fait essentiel que la vitesse acquise permet au mobile de remonter précisément à la même hauteur dont il est descendu. Il ne s'agit pas de l'étude purement géométrique d'un mouvement abstrait, qui pourrait se produire dans n'importe quelle direction, mais d'un mouvement concret, dans lequel les directions de la verticale et de l'horizontale jouent un rôle essentiel. Ces recherches devaient, en fait, conduire Galilée à formuler, dans un cas particulier, la loi de l'inertie, dont l'importance en Dynamique est absolument fondamentale.

  • (1) L'eau s'écoulait d'un ballon assez grand pour que le niveau de l'eau y reste sensiblement constant pendant l'expérience : la pression était constante et le poids de l'eau écoulée proportionnel au temps.


23. La loi de l'inertie. — Revenons à la remarque de Galilée, d'après laquelle la vitesse acquise par la chute le long d'un plan incliné permet au mobile de remonter à la même hauteur verticale, le long d'un autre plan incliné, quelle que soit la pente de ce deuxième plan. Ainsi, (fig. 11), le corps qui descend la pente AM peut remonter les pentes MB, MC, MD, les points ABCD étant situés sur une même horizontale. On voit que, à mesure que la pente diminue, la longueur parcourue augmente ; MD est plus long que MB. Si nous passons à la limite et considérons un plan horizontal Mx, c'est-à-dire un plan incliné de pente nulle, la vitesse acquise en M devra permettre au mobile de continuer indéfiniment sa route sur le plan horizontal Mx et nous devons ajouter que sa vitesse restera constante, car elle devra lui permettre de remonter à la hauteur d'où il est descendu si le plan se relève par une pente lui permettant d'atteindre cette hauteur. Galilée arrive ainsi, dans un cas particulier fort important, à la loi de l'inertie ; un mobile pesant qui se déplace dans un plan horizontal, et qui se trouve ainsi soustrait A l'action de la pesanteur, conserve indéfiniment sa vitesse. On se rend compte que cette loi ait été complètement ignorée des anciens et qu'il ait fallu des siècles pour la formuler, si l'on réfléchit que c'est une loi abstraite, démentie par toute notre expérience quotidienne. Celle-ci nous apprend, en effet, que si nous lançons un objet avec une vitesse quelconque, cette vitesse diminue progressivement et le mouvement s'arrête après un temps généralement assez court. Il a fallu le génie de Galilée pour mettre en évidence que ce ralentissement progressif du mouvement est, en réalité, un phénomène secondaire, dû au frottement des corps solides, s'il s'agit d'une bille qui roule sur une surface polie, à la résistance de l'air s'il s'agit d'un projectile lancé à très grande vitesse par une bouche à feu. Il est possible de diminuer beaucoup l'importance de ce phénomène secondaire en réduisant la valeur du frottement; mais c'est seulement par un raisonnement abstrait que l'on peut passer à la limite, c'est-à-dire au cas où le frottement serait rigoureusement nul et où, par suite, le mobile ne serait soumis à aucune force, ni active, ni passive. Galilée affirme qu'en ce cas, la vitesse resterait constante et que, par suite, le mouvement persisterait indéfiniment dans la même direction ou, tout au moins, aussi longtemps que n'interviendrait pas une circonstance nouvelle ou un obstacle imprévu. Il semble bien, d'ailleurs, que Galilée n'arriva pas à formuler la loi d'inertie sous sa forme la plus générale; une telle loi était, en effet, tellement éloignée des conceptions courantes, qu'un tel énoncé serait apparu comme un défi au bon sens; mais le seul fait d'avoir énoncé la loi dans un cas particulier important, celui du mouvement horizontal des corps pesants, suffit à désigner Galilée comme le fondateur de la Dynamique. Grâce à sa découverte de l'attraction universelle et à ses calculs de mécanique céleste, Newton devait montrer que la loi d'inertie s'étend aux mouvements des corps célestes et la formuler d'une manière tout à fait générale. On a souvent fait observer, avec juste raison, que la loi d'inertie est un simple cas particulier de la loi générale de la dynamique, dont nous parlerons tout à l'heure, loi d'après laquelle les accélérations sont proportionnelles aux forces. Si la force est nulle, l'accélération est nulle et la vitesse est donc constante : c'est la loi de l'inertie. Mais il serait, à mon avis, peu raisonnable de conclure de là que la loi de l'inertie ne mérite pas d'être formulée à part, comme la loi la plus importante de la dynamique. Si l'on admettait, en effet, comme l'ont cru les anciens, que l'action permanente d'une force est nécessaire pour entretenir un mouvement, on serait conduit à rechercher une relation, non pas entre la force et l'accélération, mais entre la force et la vitesse et on ne pourrait pas soupçonner la loi fondamentale de la dynamique. Lorsque, au contraire, on pose la loi de l'inertie comme principe essentiel, on sait que, en l'absence de toute force, le mouvement d'un corps continue, toujours dans la même direction et avec la même vitesse, c'est-à-dire rectiligne et uniforme ; si donc on observe des variations dans la grandeur ou dans la direction de la vitesse, c'est-à-dire des accélérations, on est bien forcé d'attribuer ces variations à l'action des forces mises en jeu et l'on se trouve naturellement conduit, par l'expérience, à constater la proportionnalité des accélérations aux forces mises en jeu.


24. La notion de masse. — La loi de l'inertie devait permettre de concevoir et d'éclaircir la notion de masse. C'est une expérience fort ancienne qui a appris aux hommes que les corps opposent une certaine résistance lorsqu'on veut les mettre en mouvement ; cette résistance est d'autant plus grande, pour des corps de même nature, que ceux-ci sont plus volumineux ; un homme ne peut, à lui seul, déplacer un énorme bloc de rocher ; mais il pourra déplacer un ballot de laine de mêmes dimensions que ce rocher. Cette résistance à la mise en mouvement, cette inertie, existe indépendamment de la pesanteur, car elle se manifeste, même lorsqu'il s'agit de déplacer les corps sur un plan horizontal, sans les soulever. Il a fallu cependant bien des siècles avant que soit bien comprise la notion de la masse des corps conçue indépendamment de leur poids. Ce sont les expériences de Galilée sur le plan incliné qui ont permis, pour la première (ois, d'éclaircir cette question. Imaginons un plan incliné dont la pente est de 300, c'est-à-dire qui a la forme de la moitié d'un triangle équilatéral (fig. 12) ; l'hypoténuse AB est le double de la longueur AC. Si nous plaçons sur ce plan incliné une bille qui pèse 2 grammes, nous savons que la force qui s'exerce sur elle, dans la direction AB, est seulement de 1 gramme, c'est-à-dire est la même qui s'exerce sur un poids d'un gramme qui peut tomber librement suivant la verticale. Or, on constate que l'accélération de la bille de 2 grammes qui roule sur le plan incliné est la moitié de l'accélération de la bille d'un gramme qui tombe en chute libre. On doit en conclure que la même force imprime une accélération deux fois plus petite à une masse double, c'est-à-dire que l'accélération, proportionnelle à la force est, d'autre part, inversement proportionnelle à la masse. Cette conclusion fut confirmée par la machine d'Atwood (fig. 13). Celle-ci consiste essentiellement en une poulie A sur laquelle passe un fil aux deux extrémités duquel sont suspendus des poids égaux P. Ce système est donc en équilibre, mais il se met en mouvement si l'on ajoute à l'un des poids P une surcharge p ; ce poids surchargé tombe verticalement, tandis que l'autre poids remonte avec une vitesse égale. La force mise en jeu est p et la masse mise en mouvement est 2P + p ; on constate effectivement que l'accélération observée est à l'accélération en chute libre dans le rapport de p à 2P + p. Le mouvement ainsi ralenti est beaucoup plus facile à observer et c'est ainsi que la machine d'Atwood est un excellent appareil de démonstration pour mettre en évidence les lois de la chute des corps et notamment la proportionnalité des espaces parcourus aux carrés des temps employés pour les parcourir ; mais, en outre, comme l'on peut faire varier la valeur de la surcharge p, la machine d'Atwood permet de vérifier, sur de nombreux exemples, que l'accélération est à la fois proportionnelle à la force mise en jeu et inversement proportionnelle à la masse mise en mouvement, ce qui est la loi fondamentale de la dynamique. En se basant sur un petit nombre d'expériences mal interprétées, les anciens avaient pensé que les corps lourds tombaient plus vite que les corps légers, de sorte qu'un corps devait tomber d'autant plus vite qu'il était plus lourd. Ce n'est que peu à peu que l'on comprit le rôle de la résistance de l'air, grâce à laquelle les corps très légers par rapport à leur volume, tombent lentement et parfois d'une manière très irrégulière, si l'air est agité. C'est seulement dans la seconde moitié du XVIIIème siècle que l'invention, par Otto de Guericke, de la machine pneumatique, permit d'observer la chute des corps dans le vide et de constater que la plume tombe aussi vite que le plomb, du moment que la résistance de l'air est supprimée. Mais, avant cette expérienee décisive, le simple raisonnement avait conduit à la conclusion que la vitesse de chute des corps lourds tels que les métaux, ne dépend pas de leur poids ; il est évident, en effet, que si l'on juxtapose deux masses de métal de même forme, par exemple deux cubes, ces deux masses tomberont avec la même vitesse et ne se sépareront pas ; il est donc indifférent de les laisser séparées, ou bien de les réunir, soit en les soudant, soit en les liant au moyen d'une ficelle légère. Les lois de la chute d'un double cube sont donc les mêmes que celles de la chute d'un cube simple. Cette remarque conduit à la proportionnalité de la masse et du poids, la masse étant la qualité du corps qui cause son inertie, sa résistance au mouvement, tandis que le poids est l'intensité de la force mise en jeu par la pesanteur lorsque le corps peut tomber en chute libre.


25. Les observations du pendule à diverses latitudes. - Aussi longtemps que les observations sur les masses et les poids sont faites en un même lieu ou dans des lieux voisins, l'intensité de la pesanteur étant constante, la distinction entre la masse et le poids pouvait apparaître comme purement verbale et sans intérêt réel, puisque ces deux grandeurs sont pratiquement mesurées par les mêmes nombres : un poids marqué d'un kilogramme a également une masse d'un kilogramme. C'est seulement au cours des années 1671-1673 qu'une circonstance fortuite permit de réaliser une observation très importante. Richer ayant transporté de Paris à Cayenne une horloge à balancier, de bonne construction et réglée d'une manière précise, constata que l'horloge retardait. C'est Huyghens qui donna l'explication du retard en observant que l'intensité de la pesanteur se trouvait réduite à l'équateur en raison de la force centrifuge due au mouvement de la terre ; la masse du pendule restant donc la même, son poids est diminué, ce qui explique la lenteur relative de son mouvement. Ainsi, tandis que la masse d'un corps reste invariable lorsque ce corps est déplacé d'un point à un autre, son poids varie suivant la latitude, augmentant vers le pôle et diminuant vers l'équateur. Cette variation du poids avec la latitude pourrait être mise en évidence au moyen d'un dynamomètre suffisamment précis, c'est-à-dire au moyen d'un ressort auquel on accroche un poids, la déformation du ressort pouvant être mesurée et faisant ainsi connaître l'intensité de la force qui s'exerce sur lui. Si l'on prend comme unité de force l'erg, unité du système C. G. S., c'est-à-dire la force qui, appliquée à une masse d'un gramme lui imprime une accélération d'un centimètre par seconde, le poids d'une masse d'un gramme évalué en ergs est égal à l'accélération de la pesanteur, évaluée en centimètres par seconde. Cette accélération est d'environ 978 centimètres à l'équateur, 981 sous nos latitudes et 983 au pôle. Une masse d'un kilogramme a donc un poids équivalent à une force qui varie de 978 ergs à l'équateur à 983 ergs au voisinage du pôle ; la variation de ce poids est donc d'environ 3 pour 1.000 entre l'équateur et la zone tempérée. D'après la formule classique, qui donne la durée de l'oscillation d'un pendule simple, cette durée est inversement proportionnelle à la racine carrée de la force et augmente donc d'environ 1,5 pour 1.000 quand on passe de la zone tempérée à l'équateur. Un jour comprenant 86.400 secondes, la pendule doit donc retarder, lorsqu'elle est transportée de France vers l'équateur, d'environ 1 fois et demie 86 secondes, soit de plus de 2 minutes par jour. Cette expérience, comme celle du pendule de Foucault, met en évidence la rotation de la Terre autour de son axe, par rapport aux axes absolus des mécaniciens. Nous reviendrons sur ce point à la fin de ce chapitre.


26. L'équation fondamentale de la dynamique. — Les travaux des successeurs de Galilée, notamment ceux de Huyghens et de Newton, dont nous parlerons tout à l'heure, ont contribué à éclaircir et à préciser les notions fondamentales de force, de masse et d'aceélération. On peut cependant admettre que ces idées étaient suffisamment connues de Galilée pour que l'on puisse le regarder comme ayant, le premier, découvert et démontré la formule fondamentale de la mécanique :

F = mg.

Dans cette formule, la force F qui s'exerce sur un corps (assez petit pour être regardé comme un point ; ce que les mécaniciens appellent un point matériel), peut être mesurée au moyen d'un dynamomètre; la masse peut être mesurée au moyen d'une balance par comparaison avec l'unité de masse arbitrairement définie (dans le système C.G.S., cette unité est le millième du kilogramme étalon) et, enfin, l'accélération est définie par rapport à un espace absolu et à un temps absolu sur la définition desquels nous reviendrons. L'unité de longueur et l'unité de temps peuvent être choisies arbitrairement, comme l'on a choisi l'unité de masse; mais pour que la formule fondamentale soit exacte, il est nécessaire que l'unité de force soit choisie en concordance avec les unités de masse, de temps et de longueur : c'est la force qui imprime à l'unité de masse une accélération égale à l'unité, c'est-à-dire une accélération égale à l'unité de longueur pendant l'unité de temps. Si l'unité de force était choisie autrement, il faudrait introduire un multiplicateur numérique au second membre de la formule fondamentale. Les travaux des successeurs de Galilée, notamment ceux de Huyghens et ceux de Newton, dont nous allons parler, et surtout les progrès du calcul différentiel et du calcul intégral, à la suite des découvertes mémorables de Newton et de Leibniz, ont permis aux mathématiciens de traiter un nombre de plus en plus grand de problèmes, en prenant comme unique point de départ la formule fondamentale de la dynamique ; c'est ainsi que les XVIIIème et XIXème siècles connurent le développement prodigieux de la Mécanique, auquel est consacrée la seconde partie de cet ouvrage.


27. Huyghens et le pendule composé. — Le pendule simple, étudié par Galilée, est un corps pesant de faibles dimensions, qu'on peut assimiler à un point matériel, suspendu à un fil dont la masse est négligeable. On donne le nom de pendule composé à un corps solide quelconque pouvant osciller autour d'un axe ; c'est Huyghens qui étudia le premier les oscillations du pendule composé, tout au moins dans un cas particulier, celui où le pendule est formé d'une barre métallique homogène MN qui peut osciller autour d'un axe horizontal AB qui lui est perpendiculaire (fig. 14). Un pendule composé peut être considéré comme la réunion d'un très grand nombre de pendules simples, dont chacun correspond à une petite portion de la masse du pendule composé ; les durées des oscillations de ces pendules simples sont différentes entre elles ; mais, comme ils sont solidaires les uns des autres, puisqu'ils constituent un même corps solide, il y a certainement une durée d'oscillation unique, laquelle doit être, en quelque manière, la moyenne des diverses durées relatives h tous les pendules simples. Huyghens a résolu ce problème nu moyen de la théorie des moments d'inertie, laquelle remplace, pour le mouvement d'oscillation, la théorie du centre de gravité dans le cas des forces parallèles. Cette théorie a permis le développement ultérieur de la dynamique du corps solide.


28. Newton et la gravitation universelle. - La découverte par Newton de la gravitaion universelle a marqué l'étape la plus importante dans les progrès de la dynamique, car elle a permis d'étendre aux corps célestes l'équation fondamentale établie par Galilée pour les mouvements à la surface de la Terre. Le progrès ainsi accompli était considérable à de nombreux points de vue, dont les deux principaux sont la généralité et la précision. Il n'était nullement évident à priori, et les anciens auraient même considéré comme peu vraisemblable que les mouvements des corps célestes sont régis par les mêmes lois fondamentales que les mouvements observés à la surface de la Terre. Grâce à l'hypothèse géniale de Newton, connue sous le nom de loi de l'attraction universelle, l'équation fondamentale de la dynamique permet de calculer avec précision les mouvements des planètes et de leurs satellites. L'observation des étoiles doubles a montré que les trajectoires apparentes sont des coniques et que la loi des aires de Képler est vérifiée ; les calculs des géomètres du XIXème siècle (Halphen et Darboux) ont permis d'en conclure que ces mouvements sont également régis par la loi de Newton et l'équation fondamentale de la dynamique. Celle-ci apparaît donc comme une équation absolument générale dans tout l'univers qui nous est accessible. Les observations astronomiques permettent, en outre, d'attribuer à cette équation une précision rigoureuse qui ne pouvait résulter d'observations faites à la surface de la Terre. Celles-ci, en effet, ne peuvent être débarrassées complètement de l'action de causes secondaires, comme la résistance de l'air ou le frottement des corps solides. Par suite, dans les cas les plus favorables et les expériences les mieux conçues, c'est seulement avec une certaine approximation que peuvent être vérifiées les conséquences des équations de la dynamique. Cette erreur peut, il est vrai, être rendue très faible et c'est ainsi que, en passant à la limite, on peut induire l'allure exacte qu'aurait le phénomène si l'erreur était nulle ; les oscillations d'un pendule simple bien suspendu s'amortissent très lentement et l'on est conduit à admettre qu'elles ne s'amortiraient pas et resteraient identiques à elles-mêmes si toutes les résistances passives pouvaient être supprimées. Il y a néanmoins, dans cette conclusion, une part faite à l'hypothèse qui ne peut être complètement éliminée. Au contraire, lorsqu'il s'agit du mouvement des corps célestes, la résistance du milieu interplanétaire ou interstellaire est rigoureusement nulle, comme il résulte de la concordance exacte des observations les plus précises avec les calculs exécutés en partant de la loi de Newton. On se trouve donc exactement dans les conditions postulées pur les mathématiciens : ce ne sont plus là des abstractions pures, mais des réalités visibles, sinon tangibles. C'est seulement au début du XXème siècle qu'il a été jugé nécessaire de faire appel à une théorie nouvelle (théorie de la relativité) pour donner l'explication d'un phénomène unique (mouvement du périhélie de Mercure), dans lequel se manifestait une discordance, assurément minime, mais cependant observable (43 secondes d'arc par siècle), entre la théorie et l'observation. Nous reviendrons donc sur ce point particulier dans la troisième partie, mais nous n'avons à retenir, pour l'instant, que les innombrables observations du soleil, des planètes et de leurs satellites, ainsi que de nombreuses comètes, lesquelles confirment rigoureusement à la fois la loi de Newton et l'équation fondamentale de la Dynamique.


29. L'espace et le temps absolus. — Lorsque nous disons que les observations des corps célestes concordent avec la loi fondamentale de la dynamique, il est sous-entendu que les accélérations sont mesurées par rapport à certaines définitions précises du temps et de l'espace, lesquelles se rapportent à l'espace et au temps absolu de Galilée et de Newton. Il est clair en effet qu'au point de vue cinématique, comme l'avait remarqué Tycho-Brahé, on peut aussi bien décrire les mouvements des corps célestes en supposant la Terre immobile, comme le faisair Ptolémée, qu'en supposant le Soleil immobile comme l'a fait Copernic. Mais si l'on veut que soit vérifiée la loi fondamentale de la dynamique, il faudra calculer les accélérations dans l'hypothèse de l'immobilité de la Terre et définir les forces comme le produit des masses par les accélérations. On constatera alors que les forces qui devraient être mises en jeu pour produire les mouvements décrits par Ptolémée sont à la fois énormes et extraordinairement compliquée, tandis que, dans l'hypothèse de Copernic, le Soleil étant immobile, ainsi que les étoiles fixes, la très simple loi de Newton suffit à définir les forces et à expliquer les accélérations. Ainsi, les définitions de l'espace et du temps absolu de Galilée et de Newton sont une conséquence à la fois des équations de la dynamique et de la loi de Newton ; les définitions de l'espace et du temps sont choisies de telle manière que les mouvements observés du système solaire s'expliquent au moyen d'une hypothèse très simple, la loi de l'attraction universelle et non pas au moyen de forces inextricablement compliquées. Le temps absolu adopté par les astronomes est le temps sidéral, le jour sidéral étant défini comme l'intervalle de temps qui s'écoule entre deux passages successifs au méridien d'une même étoile fixe. En fait, l'unité pratique de temps, ou seconde, est la 86.400ème partie du jour solaire moyen, lequel est lié au jour sidéral par des conventions pour le détail desquelles nous renvoyons aux Traités de Cosmographie ou à l'Annuaire du Bureau des Longitudes. La constance du jour sidéral est, à une première approximation, considérée comme absolue et cette première approximation permet d'expliquer avec une très grande précision les observations du système solaire. Une étude approfondie de ces observations, poursuivie pendant plusieurs siècles, a cependant conduit à admettre que le mouvement de rotation de la Terre autour de son axe n'est pas rigoureusement uniforme, mais, sous l'action du freinage produit par les marées, se ralentit peu à peu au cours des siècles. Ce ralentissement est extraordinairement lent et peut être négligé dans la plupart des observations et des calculs astronomiques. Si nous le mentionnons, c'est pour bien marquer que la définition du temps absolu de Galilée et de Newton est liée à l'ensemble des observations astronomiques, combinées avec la loi de Newton et l'équation fondamentale de la dynamique et non pas à l'observation d'un phénomène particulier, si important et si régulier qu'il nous apparaisse, comme le mouvement apparent du ciel étoilé autour de la Terre. Si l'accumulation des observations fait apparaître une très légère divergence entre le jour sidéral et la durée, telle qu'elle doit figurer dans les équations de la dynamique, c'est la définition de la durée d'après ces équations qui doit être conservée, dut-on renoncer pour cela au dogme de la constance absolue du jour sidéral. Quant à l'espace absolu, il est défini, à une première approximation, par des axes dont l'origine est au centre du Soleil et dont les directions sont déterminées par des étoiles fixes (ou par rapport à ces étoiles). Ces axes peuvent d'ailleurs être remplacés, sans que les équations de la dynamique soient modifiées, par d'autres axes qui leur sont parallèles, mais dont l'origine est animée par rapport à eux d'un mouvement de translation rectiligne et uniforme (1). Il n'est pas possible, en utilisant les équations de la dynamique, de distinguer entre les divers systèmes d'axes que l'on obtient en variant la vitesse et la direction de ce mouvement uniforme : tous ces systèmes d'axes sont équivalents et l'un quelconque d'entre aux peut être regardé comme absolument fixe. Ce sont de simples raisons de commodité qui nous font choisir comme origine des axes fixes le centre du Soleil. Les perfectionnements introduits dans la précision des observations astronomiques, ainsi que la connaissance plus parfaite des corrections qui doivent y être apportées, en raison notamment de l'aberration, de la nutation et de la parallaxe (déplacement de la Terre autour du Soleil), ont permis, dès le XVIIIème siècle, de déceler les mouvements propres d'un certain nombre d'étoiles. L'étude de ces mouvements conduisit, en 1783, William Herschell à l'hypothèse que le Soleil se déplace d'un mouvement rectiligne et uniforme vers un point de la sphère céleste auquel on a donné le nom d'Apex. Cette hypothèse d'Herschell a comme conséquence de modifier les mouvements propres des étoiles qui doivent être évalués, non par rapport au Soleil, mais par rapport aux axes fixes qui permettent de définir le mouvement propre du soleil admis par Herschell ; cette modification a pour conséquence d'introduire plus d'uniformité dans la répartition de ces mouvements propres entre les diverses directions de l'espace, c'est-à-dire de supprimer le fait singulier et inexplicable constaté par Herschell, à savoir que les mouvements apparents d'un assez grand nombre d'étoiles étaient dirigés vers l'Apex ; ce fait s'explique par un effet de parallaxe dû au déplacement du Soleil. L'hypothèse d'Herschell paraît devoir être admise pour les raisons de simplification qu'elle apporte dans l'étude des mouvements stellaires ; mais elle est indémontrable et elle ne peut, d'autre part, être formulée avec une précision absolue ; les déterminations de l'Apex reposent sur des calculs de moyennes. Il n'entre pas dans notre cadre de décrire les méthodes optiques qui ont permis de déterminer les vitesses radiales des étoiles (composantes de la vitesse dirigée vers la Terre), ni les travaux relativement récents qui ont permis d'étudier les mouvements d'ensemble de notre Galaxie et de l'Univers (rotation de la Galaxie, expansion de l'Univers). Il nous suffit de savoir que les accélérations mises en jeu dans ces mouvements sont suffisamment faibles pour qu'on puisse et doive les négliger dans les équations de la mécanique céleste au degré de précision de nos observations. Ces mouvements, dont la découverte a marqué une étape importante de notre connaissance de l'Univers, sont, donc sans intérêt au point de vue de la Mécanique (1) ; en tout, cas, ils n'exercent aucune action mesurable, ni sur les mouvements observés à l'intérieur du système solaire ni, à fortiori, sur les mouvements observés à la surface de la Terre. Tous ces mouvements doivent être rapportés aux axes fixes de Galilée et de Newton, le mouvement uiforme de translation du Soleil vers l'Apex étant, indifférent c'est-à-dire que l'on peut le négliger et regarder le centre du Soleil comme fixe. Quant aux étoiles, on regardera comme absolument fixes celles dont les mouvements propres sont tellement faibles qu'ils n'ont pu être observés. Le temps absolu et l'espace absolu de Galilée et de Newton sont ainsi bien définis ; c'est par rapport à ce temps et à cet espace que les principes de la Mécanique ont pu être formulés d'une manière précise par Newton.

  • (1) Il suffirait de dire mouvement uniforme, c'est-à-dire mouvement dont la vitesse est constante en grandeur et en direction ; un tel mouvement est nécessairement rectiligne ; mais il n'y a pas d'inconvénient à le redire.


30. Newton et la loi d'inertie. - La loi d'inertie formulée par Galilée pour les mouvements des corps pesants à la surface de la Terre a été étendue par Newton aux mouvements des corps célestes et apparaît ainsi comme une loi générale de l'univers. Son énoncé précis consiste en ce qu'un corps qui n'est soumis à aucune force se meut d'un mouvement uniforme (rectiligne) par rapport au temps et à l'espace absolus. C'est l'abolition définitive des préjugés tenaces sur le mouvement circulaire uniforme, longtemps considéré par les anciens comme un mouvement parfait, de même que la forme sphérique, qui est celle des corps célestes et que prennent spontanément, dans certaines conditions les gouttes de liquide et les bulles de savon, leur apparaissait comme une forme parfaite. Ce n'est que très lentement que s'est dégagée l'idée qu'une force était nécessaire pour entretenir un mouvement circulaire uniforme. Lorsque cette force cesse d'agir, le corps solide s'échappe par la tangente d'un mouvement rectiligne uniforme : c'est l'expérience de la fronde, très anciennement connue, mais dont l'interprétation correcte fut longtemps ignorée. Lorsqu'un corps solide tourne autour d'un axe, comme c'est le cas pour la Terre et les autres corps célestes, comme c'est le cas également pour la toupie, ce mouvement de rotation tend à persister indéfiniment, dans certaines conditions. La détermination précise de ces conditions et de la stabilité du mouvement de rotation ne fut faite d'une manière définitive que par Poinsot, au début du XIXème siècle ; on sait que l'axe de rotation doit être un axe principal d'inertie et que la rotation n'est stable que si cet axe est, soit le plus petit, soit le plus grand, des trois axes principaux d'inertie. La stabilité de l'axe de rotation dans l'espace absolu est une des applications les plus intéressantes de la loi d'inertie. La célèbre expérience du pendule de Foucault, dans laquelle le plan dans lequel oscille le pendule accomplit une révolution complète de 360 degrés en 36 heures environ, met ainsi en évidence la rotation de la Terre autour de son axe ; si la Terre était immobile, le plan d'oscillation en vertu de la loi d'inertie, devrait rester invariable. La théorie du gyroscope et celle des compas gyroscopiques, qui permettent aux marins de s'orienter sans utiliser la boussole, sont aussi des applications de la loi d'inertie. Comme nous l'avons déjà dit, la loi d'inertie peut être regardée comme un cas particulier de l'équation générale de la dynamique : si la force est nulle, l'accélération est également nulle. Mais ce point de vue parfaitement légitime en théorie, ne tient pas suffisamment compte de l'importance capitale de la loi d'inertie dans la genèse des idées qui ont abouti à la création de la Mécanique, à la définition correcte de l'accélération absolue et des forces. C'est seulement lorsque la loi de l'inertie a été bien comprise que l'on a pu songer à formuler l'équation générale de la dynamique ; il n'est donc pas raisonnable de déduire celle-là de celle-ci.

(1) Peut-être, toutefois, sera-t-il possible d'ici quelques années, en précisant les résultats déjà obtenus, de vérifier que le mouvement de rotation de la galaxie s'effectue en conformité de la loi de l'attraction universelle, compte tenu des dimensions de la Galaxie et de la répartition des masses des étoiles qui la composent.


31. L'égalité de l'action et de la réaction. - On doit également à Newton l'énoncé général d'un principe déjà soupçonné des anciens et dont le rôle en mécanique est fondamental : le principe de l'égalité de l'action et de la réaction. Ce principe comme la loi d'inertie, ne pouvait être formulé correctement dans toute sa généralité qu'au moyen de définitions correctes des forces, lesquelles exigent une connaissance exacte des accélérations, c'est-à-dire du temps et de l'espace absolus. C'est la loi de l'attraction universelle qui fournit à Newton la première occasion de formuler d'une manière précise le principe de l'action et de la réaction. Considérons deux corps, par exemple la Terre et la Lune; nous sommes conduits à admettre que l'attraction exercée par la Lune sur la Terre est exactement égale et directement opposée à l'attraction exercée par la Terre sur la Lune; si, à défaut de la connaissance exacte de ces masses, on connaissait tout au moins leur rapport, on pourrait déduire de l'égalité des forces d'attraction que les accélérations sont inversement proportionnelles aux masses, c'est-à-dire que le rapport des accélérations est l'inverse du rapport des masses; ce rapport est 81,45 c'est-à-dire que la masse de la Terre est un peu supérieure à 81 fois la masse de la Lune; l'accélération imprimée à la Terre par l'attraction de la Lune sera donc environ 81 fois plus faible que l'attraction imprimée à la Lune par l'attraction de la Terre. En fait, c'est par la mesure des accélérations qu'ont pu être connus les rapports des masses des divers corps du système solaire : soleil, planètes et satellites ; la vérification des principes sur lesquels repose cette détermination résulte de l'ensemble des calculs de la Mécanique céleste dans lesquels interviennent les attractions réciproques de tous ces corps, pris deux à deux. Certaines de ces attractions sont négligeables, mais le calcul des perturbations permet cependant de vérifier, par exemple, que si le rapport des masses de Jupiter et de la Terre a été calculé en prenant pour base l'attraction du Soleil (c'est-à-dire d'après la troisième loi de Kepler), ce rapport ainsi calculé permet de calculer exactement les attractions exercées sur Mars par la Terre et par Jupiter. Quant à la détermination exacte de la masse de la Terre, elle a pu être faite, à la fin du XVIIIème siècle, par Cavendish (1798), qui a mesuré directement l'attraction exercée l'une sur l'autre par deux masses connues et a pu ainsi déterminer la constante de l'attraction universelle. La définition exacte des masses conduisit Newton à la définition précise de la quantité de mouvement, ou produit de la masse par la vitesse. Lorsqu'un corps part du repos, la quantité de mouvement m*v, qu'il acquiert au bout de l'unité de temps (en général la seconde), est égale au produit m*g de la masse par l'accélération g ; le corps partant du repos, la vitesse v acquise au bout d'une seconde est, en effet, égale à l'accélération g. La quantité de mouvement (au bout d'une seconde) est donc égale à la force, et le principe de l'égalité de l'action et de la réaction se traduit par le fait que l'action réciproque exercée par deux corps l'un sur l'autre a pour effet de communiquer à ces deux corps des quantités de mouvements égales et de sens contraires, ceci restant vrai, quelle que soit l'unité de temps. On peut ainsi conclure que la somme géométrique des quantités de mouvements (considérées comme des vecteurs), est égale à zéro et ceci met sur la voie des théorèmes généraux dont nous parlerons au prochain chapitre. C'est grâce à la compréhension claire des effets de l'attraction universelle que put être donnée l'explication claire du phénomène des marées, phénomène bien connu de tous les riverains des océans, mais que Galilée lui-même n'avait pas su expliquer. Il fallut arriver à comprendre que l'attraction du Soleil et celle de la Lune sur le centre de la Terre produisent une accélération qui se traduit par le mouvement réel du centre de la Terre. Sur le centre ainsi en mouvement, les attractions du Soleil et de la Lune ne se traduisent par aucune force observable pour un observateur lié à ce centre, car cet observateur participe au mouvement produit par ces forces. Si donc les dimensions de la Terre étaient très faibles, aucune expérience terrestre ne pourrait déceler l'attraction du Soleil ni celle de la Lune. Mais les dimensions de la Terre sont assez grandes pour que les attractions du Soleil et de la Lune sur les points de la surface terrestre qui en sont les plus rapprochés ou les plus éloignés diffèrent assez notablement de leur attraction sur le centre. Comme tous les points de la surface participent au mouvement du centre, la Terre étant un corps solide, l'attraction subie par ces points n'est pas exactement compensée par l'accélération; et la différence peut produire des phénomènes observables, dont les plus importants sont les marées des océans. L'étude théorique des marées, qui serait relativement très simple si la Terre était recouverte d'un unique océan de profondeur constante se trouve singulièrement compliquée par l'existence des continents et des îles, la très grande irrégularité du dessin des côtes ainsi que la profondeur des mers. C'est par la combinaison ingénieuse de la théorie et de l'observation que l'on est arrivé à prévoir avec précision l'heure et l'amplitude de la marée en chaque point des côtes.


32. La composition dynamique des forces. — Nous avons dit que Newton traduit le théorème fondamental de la dynamique en affirmant que la quantité de mouvement est proportionnelle à la force, cet énoncé impliquant que l'on envisage un corps partant du repos et ayant la signification précise que la direction de la quantité de mouvement, c'est-à-dire de la vitesse, est la même que celle de la force. On peut déduire de cet énoncé le théorème du parallélogramme des forces envisagé, non plus du point de vue point de vue dynamique. Si l'on considère en effet (fig. 15), deux forces agissant sur un même point A, ces deux forces F1 et F2 produisent au bout de l'unité de temps deux quantités de mouvement mv1 et mv2; l'action combinée des deux forces produit donc une quantité de mouvement mv qui est la résultante géométrique de mv1 et de mv2, c'est-à-dire qui est la diagonale du parallélogramme construit sur mv1 et mv2 ; cette résultante mv est précisément la quantité de mouvement qui serait produite par la force F, diagonale du parallélogramme construit sur F1 et F2; donc, cette force F produit le même mouvement que l'action combinée de F1 et de F2; elle est la résultante dynamique de F1 et de F2. On savait déjà qu'elle en était la résultante statique, c'est-à-dire qu'une force égale et directement opposée à F équilibre rigoureusement l'ensemble des deux forces F1 et F2. Mais on ne pouvait considérer comme évidente à priori la superposition exacte de la notion statique de la force et de la notion dynamique : comme la règle du parallélogramme suffit à elle seule pour démontrer toutes les propriétés relatives à la composition d'un nombre quelconque de forces, on peut conclure que les règles ainsi obtenues au moyen de l'étude statique des forces, sont également valables en ce qui concerne leurs effets dynamiques. Cette concordance a certainement beaucoup contribué à créer chez les mécaniciens la croyance en la réalité des forces, bien que ce soient, à certains égards, de pures abstractions, dont on observe seulement les effets. En fait, tout ce que l'on peut affirmer, comme Newton s'en rendit parfaitement compte, c'est que tout se passe comme si "il existait des forces, si ces forces se composaient suivant certaines lois et produisaient certains effets : équilibre ou accélération". De plus, tout se passe comme si "les forces qui s'exercent entre deux masses matérielles étaient une attraction mutuelle proportionnelle au produit des masses et inversement proportionnelle au carré de la distance". Tout se passe également comme si "les accélérations produites par les forces, et définies par l'équation générale de la dynamique, devaient être mesurées par rapport à l'espace et au temps absolus de Galilée et de Newton". La composition dynamique des forces, déduite par Newton de la relation entre la force et la quantité de mouvement, complète donc l'ensemble des principes sur lesquels les mathématiciens ont pu, en toute sécurité, élever l'édifice imposant qui constitue la Mécanique rationnelle.


33. La force vive. — L'étude purement algébrique des formules de la chute des corps, obtenues par Galilée, avait cependant conduit Huyghens à une notion importante, celle de la force vive, définie comme le produit de la masse par le carré de la vitesse. Cette notion est en quelque sorte concurrente de la notion de quantité de mouvement, ou produit de la masse par la vitesse ; on a pu légitimement se demander laquelle des deux est la plus importante ; il vaut la peine d'y réfléchir un peu. Galilée avait obtenu les lois de la chute des corps sous la forme suivante ; si un corps tombe en chute libre, en partant du repos, la vitesse v qu'il acquiert au bout de t secondes est égale à g*t et la hauteur h dont il tombe pendant la même durée est (1/2)*g*(t^2). C'est Huyghens qui eut l'idée, fort simple pour ceux qui sont maintenant familiers avec l'algèbre élémentaire, d'éliminer t entre les deux équations :

v = g*t ; h = (1/2)*g*(t^2).

On obtient ainsi l'importante équation

v^2 = 2*g*h;

qui fait connaître la vitesse v d'un corps pesant qui, partant du repos, tombe d'une hauteur h. Envisagée à un autre point de vue, la même équation fait connaître la hauteur verticale h qu'atteindra un corps pesant lancé vers le haut avec une vitesse verficale v. On voit que cette hauteur est proportionnelle au carré de la vitesse initiale. Ce fait justifie le nom de force vive donné au produit m*(v^2) de la masse d'un corps par le carré de sa vitesse. Une étude plus approfondie montre aisément que, lorsqu'un corps pesant se trouve lancé, soit verticalement, soit obliquement, auquel cas il décrit une trajectoire parabolique (lorsqu'on néglige la résistance de l'air), la différence des forces vives en deux points de la trajectoire est proportionnelle à la distance verticale des deux points, c'est-à-dire à la différence de leurs altitudes au-dessus d'un plan horizontal fixe. Nous avons déjà vu, en statique, qu'un corps pesant possède une énergie potentielle qui augmente avec son altitude; cette énergie consiste en la possibilité d'exécuter un certain travail en perdant de l'altitude; lorsque le corps tombe en chute libre, ce travail n'apparaît que sous la forme de l'augmentation de la force vive et est précisément égal à la moitié de l'augmentation de la force vive. Si l'on donne à la demi-force vive le nom d'énergie cinétique, on pourra dire que la perte d'énergie potentielle du corps qui est tombé se trouve exactement compensée par l'acquisition d'une quantité exactement égale d'énergie cinétique. Telle est la conclusion à laquelle conduit l'équation obtenue par Huyghens. C'est un cas particulier important du théorème général de la conservation de l'énergie, dont nous parlerons au cours du prochain chapitre. On conclut, de là que, quelle que puisse être l'importance du rôle joué dans certains énoncés par la quantité de mouvement m*v, c'est cependant la force vive m*(v^2) qui est la caractéristique la plus importante d'un corps en mouvement, car elle représente exactement le double du travail que peut exécuter ce corps en passant de l'état de mouvement à l'état de repos. Si ce passage du mouvement au repos s'effectue brusquement, comme dans le cas d'une balle arrêtée par une plaque de blindage, l'énergie cinétique se trouve transformée en énergie moléculaire, c'est-à-dire en chaleur ; nous reviendrons plus loin sur ce cas ; mais, s'il est possible de ralentir progressivement le mouvement par un dispositif convenable, qui actionne une machine, on récupérera effectivement, sinon la totalité, du moins la plus grande partie de l'énergie cinétique sous forme de travail ; c'est ce qui se produit lorsque l'on fait agir une chute d'eau sur les roues à aubes d'un moulin ou sur une turbine. On voit quelle est l'immense portée du progrès réalisé par Huyghens par la simple idée d'évaluer la vitesse acquise par un corps pesant, non pas en fonction de la durée de la chute, mais en fonction de la hauteur de la chute. La durée de la chute est, en réalité, un phénomène accessoire, qui peut être modifié par de nombreux artifices (plan incliné de Galilée, machine d'Atwood, etc.), tandis que la hauteur de chute est le fait essentiel, qui correspond à une certaine dépense, bien déterminée, d'énergie potentielle : lorsqu'un corps pesant est descendu d'une certaine hauteur, il ne sera possible de recommencer l'expérience que si on a le pouvoir de le faire remonter à la hauteur d'où il est descendu, et ceci exige une dépense de travail d'autant plus grande que cette hauteur est plus grande et que la masse du corps elle-même est plus grande. Si Huyghens n'a pas énoncé le principe de la conservation de l'énergie avec les termes mêmes qui sont employés de nos jours, il le conçut avec clarté et avec précision, tout au moins dans le cas particulier qu'il étudia. A ce point de vue, il apparaît comme un précurseur dont les idées devancent celles de son siècle et notamment celles de Newton ; ce ne fut que très lentement que ces idées firent leur chemin et prirent dans la science la place qui leur est due. Jusqu'à la fin de sa vie, c'est-à-dire dans la seconde moitié du XVIIIème siècle, Voltaire soutint, avec toute son ardeur de polémiste, l'importance primordiale à ses yeux de la notion de quantité de mouvement par rapport à celle de force vive, à laquelle il déniait toute valeur.

(1) Voir notamment: "Doutes sur la mesure des forces motrices et sur leur nature, présentés à l'Académie des Sciences de Paris en 1741" et "Des singularités de la nature (1768) chapitre XXV: Des méprises en mathématiques". Ces deux ouvrages se trouvent reproduits dans les Oeuvres complètes de Voltaire, édition Firmin Didot, 1876, tome V.


  • Deuxième partie
  • L'Apogée de la Mécanique


  • Chapitre IV
  • Les Equations de la dynamique et les théorèmes généraux


34. Les équations de la dynamique. - L'invention par Descartes de la géométrie analytique et celle du calcul différentiel par Newton et Leibniz rendaient possible et même facile le développement de la Mécanique analytique, que l'on appelle aussi Mécanique rationnelle. L'équation fondamentale de la dynamique, d'après laquelle la force est égale au produit de la masse par l'accélération, se traduisait, en effet, par trois équations différentielles, dont chacune était obtenue en égalant les projections de la force et celles de l'accélération (multipliée par la masse) sur l'un des trois axes de coordonnées cartésiennes. Si l'on avait un système formé d'un nombre quelconque de masses matérielles, chacune d'elles étant assez petite pour être assimilée à ce point, on avait ainsi 3*n équations différentielles et l'étude mécanique du mouvement du système se trouvait ramenée à l'étude analytique d'un système d'équations différentielles, c'est-à-dire à un problème purement mathématique. A vrai dire, la théorie des équations différentielles ne progressa que très lentement et c'est seulement dans des cas extrêmement particuliers, comme celui des équations différentielles à coefficients constants, que l'on sut tout d'abord intégrer ces équations. C'est seulement au XIXème siècle que l'extension et le perfectionnement des méthodes de l'analyse, et notamment de la méthode des approximations successives, permit de calculer, dans des cas très généraux, les valeurs des inconnues et de résoudre ainsi, d'une manière pratique, les problèmes de mécanique traduits par ces équations. Ce sont surtout les équations de la mécanique céleste qui ont été ainsi progressivement résolues par des méthodes de plus en plus simples et une précision de plus en plus grande. Il ne nous est naturellement pas possible d'exposer ici, même sommairement, les innombrables travaux par lesquels les mathématiciens ont fait progresser depuis plus de deux siècles, la Mécanique rationnelle et la Mécanique céleste. Nous ne pouvons que renvoyer nos lecteurs aux ouvrages classiques, tels que le Traité de Mécanique rationnelle de Paul Appel en cinq volumes, aux ouvrages de Mécanique céleste de Tisserand et de Henri Poincaré, où se trouve exposé l'état de ces sciences au début du XXème siècle. Encore faudrait-il y ajouter, pour embrasser tout le développement de la Mécanique analytique au cours des XVIIIème et XIXème siècles, des ouvrages tels que la Mécanique statistique de Gibbs, ainsi que de nombreux ouvrages consacrés aux théories physiques, à la thermodynamique, à l'optique, à l'électromagnétisme, tels que les cours de Physique Mathématique de Henri Poincaré, ouvrages dans lesquels sont constamment utilisées les méthodes et les équations de la mécanique rationnelle. Il ne nous est pas possible d'exposer ni de résumer toutes ces théories et toutes ces équations, du moins pouvons-nous essayer d'en dégager les résultats essentiels, qui peuvent être traduits en langage ordinaire, ceux de nos lecteurs qui sont familiers avec l'analyse mathématique pouvant toujours retrouver les équations correspondantes dans les ouvrages que nous avons cités, ouvrages dont la lecture exige une sérieuse initiation aux mathématiques supérieures.


35. L'intégration approchée des équations de la dynamique. - Essayons de faire comprendre sur un exemple comment peut être résolu, par des calculs approchés, le problème du mouvement d'un système soumis à des forces connues, forces qui se modifient suivant certaines lois lorsque les corps du système se déplacent. Prenons comme exemple le système solaire : nous supposerons connues, à un instant donné, les positions et les vitesses des corps qui le composent, c'est-à-dire du Soleil, des planètes et de leurs satellites. Nous savons que tous ces corps s'attirent réciproquement suivant la loi de Newton, de sorte que les forces mises en jeu sont exactement connues lorsque les positions et les masses de ces corps sont elles-mêmes connues. Pour étudier le mouvement de l'un de ces corps, par exemple de la Terre, il nous suffira de déterminer la composante de toutes les forces d'attraction exercées sur la Terre ; nous en déduisons l'accélération et, connaissant sa vitesse actuelle, nous pouvons connaître les variations de cette vitesse, de dixième de seconde en dixième de seconde, au cours de la seconde qui va s'écouler ; nous aurons ainsi la trajectoire de la Terre au cours de cette seconde. Mais pendant cette seconde, les autres corps se sont également déplacés ; les distances, et par suite, les attractions se sont modifiées ; nous devrons donc calculer ces nouvelles forces et la nouvelle accélération qu'elles produisent pour étudier le mouvement au cours de la seconde suivante, et ainsi de suite. On constatera, dans certains cas, que les variations dans les accélérations au cours d'une seconde sont assez faibles pour être négligées et l'on pourra calculer d'un seul coup le mouvement au cours de plusieurs secondes ; si, au contraire, ces variations apparaissent, comme trop considérables, on fractionnera davantage le mouvement et on recommencera les calculs à chaque dixième de seconde. Il est à peine besoin d'ajouter que tous ces calculs peuvent être exécutés en série par des méthodes simplifiées sans lesquelles ils seraient inextricables. Mais le principe sur lequel ils reposent est toujours le même : les forces mises en jeu peuvent être regardées comme constantes pendant un certain intervalle de temps, si cet intervalle est choisi suffisamment petit ; les accélérations, et par suite, les vitesses, sont donc exactement connues au cours de ce petit intervalle et l'on peut, connaissant l'état du système au début de cet intervalle, connaître également son état, c'est-à-dire les positions et les vitesses de tous les corps, à la fin de ce petit intervalle. En fait, le problème se trouve considérablement simplifié par la connaissance approximative que l'on a depuis longtemps des mouvements des corps du système solaire, les uns par rapport aux autres ; les trajectoires définies par les lois de Kepler peuvent d'ailleurs être déduites, par des intégrations relativement aisées, des équations de Newton. La connaissance approximative des positions au cours de la journée qui va s'écouler permet de déterminer, avec une approximation suffisante, les forces mises en jeu au cours de cette journée par les attractions mutuelles exercées entre elles par les planètes, chacune d'elles se déplaçant suivant la trajectoire de Képler correspondant à l'attraction solaire. Il est ainsi possible d'analyser séparément les perturbations produites sur le mouvement de la Terre par l'action des autres planètes, notamment par l'action de Jupiter, dont la masse est la plus considérable et par celle de Mars, dont la distance est de beaucoup la plus faible, à certaines époques du moins. Les Mathématiques sont un outil singulièrement perfectionné qui permet d'exécuter avec une très grande simplicité une suite de calculs liés les uns aux autres, mais dont l'exécution détaillée serait presque inexécutable, tellement elle serait longue et compliquée. C'est ainsi qu'en Arithmétiqiie élémentaire, la théorie de la multiplication permet d'obtenir la somme de 125.753 nombres égaux chacun à 226.317 sans qu'il soit nécessaire d'éerire les uns sous les autres ces 125.753 nombres pour les additionner, ce qui exigerait des journées entières au comptable le plus rapide, lequel risquerait, en outre, bien des chances d'erreur. Les méthodes effectivement employées pour l'intégration des équations de la dynamique sont, par rapport, à la méthode théorique et un peu schématique que nous venons d'esquisser, ce qu'est la multiplication par rapport à l'addition.


36. Attraction des masses continues. - Nous avons raisonné, dans tout ce qui précède, comme si les corps célestes étaient réduits à des points coïncidant avec leur centre. En fait, on démontre que le mouvement du centre de gravité de la Terre, par exemple, peut être calculé comme si ce point sans dimensions avait une masse égale à celle de la Terre et se trouvait soumis à des forces que l'on sait calculer à partir de la loi de Newton. Mais il reste encore à étudier le mouvement de la Terre autour de son centre de gravité ; ce mouvement est, on le sait, à une première approximation, une rotation uniforme autour d'un axe fixe, la ligne des pôles, axe qui perce la sphère céleste au voisinage de l'étoile polaire. On sait maintenant que la direction de cet axe n'est pas rigoureusement fixe ; le point où il perce la sphère céleste décrit, en 25.000 ans, un petit cercle, de sorte qu'il passera dans 12.000 ans près de l'étoile Véga de la Lyre fort éloignée de l'étoile polaire (à 46 degrés environ) ; c'est le phénomène dit de la précession des équinoxes. Ce phénomène est dû à l'attraction du Soleil et à celle de la Lune sur la Terre, ou plus exactement, à la petite différence qui existe entre l'attraction réelle et l'attraction fictive qui se produirait si les astres étaient rigoureusement sphériques (et formés, en outre, de couches sphériques homogènes). On démontre, en effet, que l'attraction d'une couche sphérique homogène sur une autre couche sphérique homogène, entièrement extérieure à elle, se réduit à une force unique, qui équivaut exactement à l'attraction qu'exerceraient l'un sur l'autre les centres des deux couches sphériques, si la masse de chacune de ces couches était concentrée en son centre. Si, par suite, deux corps célestes étaient formés de couches sphériques homogènes, leur attraction réciproque serait exactement celle qui s'exercerait entre leurs centres, chaque centre étant regardé comme un point matériel dont la masse serait celle du corps céleste correspondant. C'est ainsi que l'étude du mouvement d'une planète, autour du Soleil se ramène, en première approximation, à l'étude du mouvement du centre de la planète autour du centre du Soleil ; c'est ce mouvement qui est défini par les lois de Képler. Lorsque deux corps ne sont pas rigoureusement sphériques, le problème de leur attraction mutuelle devient beaucoup plus compliqué. La méthode générale pour le résoudre est la méthode classique du calcul intégral ; on décompose chacun des corps donnés en éléments dont toutes les dimensions sont de plus en plus petites ; chacun des éléments du soleil exerce ainsi une attraction sur chacun des éléments de la Terre ; du moment que les éléments sont assez petits, chacun d'eux est considéré comme réduit à un point ; l'attraction est proportionnelle à la masse des deux éléments, inversement proportionnelle à leur distance et s'exerce suivant la droite qui joint leurs centres de gravité. Le volume de la Terre est de 1.083.320 X 10^6 kilomètres cubes et celui du Soleil 1409 x 10^15 kilomètres cubes. Si donc nous donnons à nos "petits éléments" la dimension d'environ un kilomètre cube, nous en aurons plus de 10^9, soit un peu plus d'un milliard pour la Terre et près d'une fois et demie un milliard de milliards pour le Soleil ; ce qui ferait, en les combinant deux à deux, un milliard de milliards de milliards de forces à composer entre elles. En fait, le Soleil peut être regardé, dans ce calcul, comme sensiblement sphérique et par suite, l'attraction du Soleil sur chacun des éléments du globe terrestre est égale à l'attraction qu'exercerait sur cet élément le centre du Soleil où serait concentrée toute la masse de cet astre. Il n'y a donc plus qu'un milliard environ de forces à composer ; ce nombre est encore considérablement réduit si l'on observe que la Terre diffère peu d'une sphère ; on est, en définitive, ramené à calculer la différence entre l'attraction exercée par le Soleil sur la Terre réelle et l'attraction qui serait exercée sur la sphère de même masse et de même volume, mais rigoureusement sphérique et homogène. On a donné le nom de théorie du potentiel à l'ensemble des méthodes de calcul intégral qui permettent de calculer l'attraction exercée par une masse de forme quelconque et de densité variable. Cette théorie a donné lieu à des travaux mathématiques fort intéressants en eux-mêmes et dont l'influence sur les progrès de l'analyse mathématique a été considérable. La notion même de fonction potentielle ou de potentiel s'est dégagée peu à peu et a joué un très grand rôle en mécanique et en physique.


37. Potentiel défini par l'attraction universelle. — On a été conduit à admettre que la présence dans l'espace de masses attirantes définit, dans tout l'espace, une certaine fonction, dite fonction potentielle, dont la valeur se trouve bien déterminée en chaque point et qui devient nulle lorsque le point s'éloigne indéfiniment des masses attirantes. Le lieu des points de l'espace où le potentiel a une valeur déterminée est une surface ; de telles surfaces sont dites surfaces équipotentielles. La force due aux attractions est, en chaque point, normale à la surface équipotentielle qui passe par ce point ; elle est dirigée dans le sens des potentiels croissants et son intensité est égale à la dérivée du potentiel suivant la normale, c'est-à-dire au rapport de l'accroissement de potentiel, pour un petit déplacement suivant cette normale, à la longueur de ce déplacement. La théorie du potentiel n'est pas moins importante pour l'étude des attractions exercées les unes sur les autres par les corps électrisés, que pour l'étude de l'attraction universelle ; les phénomènes de magnétisme, c'est-à-dire l'attraction du fer par les aimants, donnent lieu à une théorie analogue, bien que différente en des points essentiels, en raison du fait que tout aimant a deux pôles. Nous devons nous contenter de signaler brièvement ces théories qui sont du domaine de la physique. Revenons à l'attraction universelle et prenons comme exemple les phénomènes bien connus qui se passent à la surface de la Terre ; nous savons que l'attraction exercée par la Terre est alors prédominante ; par rapport à elle, les attractions exercées par les autres astres sont très faibles, en raison de leur éloignement. Seules, les attractions du Soleil et de la Lune ne sont pas totalement négligeables, puisqu'elles produisent le phénomène des marées, en raison de la très grande masse du Soleil et de la proximité relative de la Lune. Cependant, ces attractions mêmes sont tellement faibles qu'on peut les négliger à une première approximation. Si, de plus, nous considérons la Terre comme sphérique, les surfaces équipotentielles seront des sphères concentriques à la Terre. Lorsqu'on se place en un point déterminé de la surface du globe, les surfaces équipotentielles, au voisinage de ce point, se confondent pratiquement avec les plans horizontaux qui sont les plans tangents à ces sphères de très grand rayon. La surface d'équilibre d'un liquide pesant prend d'elle-même la forme d'une surface équipotentielle ; elle est horizontale si les dimensions en sont faibles et sphérique s'il s'agit de la surface d'un océan ou d'un lac de grandes dimensions. La pesanteur des corps, phénomène connu depuis toujours, est un exemple d'un champ de forces qui dérive d'un potentiel ou, comme on dit aussi parfois, d'une fonction de forces. Elle est normale en chaque point à la surface équipotentielle et, les surfaces équipotentielles étant ici équidistantes, elle est constante (1). Nous pouvons nous représenter la pesanteur comme une force existant virtuellement en tous les points de la surface terrestre, à toute altitude dans l'atmosphère. Cette force ne se manifeste pas en un point où ne se trouve aucun corps pesant, par exemple dans les régions de la haute atmosphère où l'air est très raréfié. Mais si, en l'un de ces points, nous plaçons un corps pesant, par exemple un projectile, nous constatons que la force virtuelle définie par le potentiel devient une force réelle, qui agit sur toute masse proportionnellement à cette masse. Un autre exemple de champ de forces naturel, connu depuis l'invention de la boussole, est celui du magnétisme terrestre, qui oriente, suivant une direction déterminée toute aiguille aimantée convenablement suspendue. A la notion physique de force, notion déduite de notre expérience de l'effort musculaire, se trouve ainsi substituée une notion purement abstraite et mathématique : la connaissance en chaque point de l'espace de la valeur de la fonction dite potentielle ou fonction de forces, suffit à définir la valeur de la force en tous les points ; cette fonction peut donc être prise comme définition même de la force, qui devient alors une pure abstraction mathématique ; elle se trouve, en fait, définie au moyen des dérivées de la fonction potentielle. Nous verrons au chapitre VIII, comment la théorie de la relativité a donné une forme géométrique plus concrète à cette conception abstraite de la fonction de forces; en fait,les mêmes équations peuvent être interprétées dans des langages différents.

  • (1) Une étude plus approfondie, tenant compte de la non-sphéricité de la Terre et surtout de la force centrifuge due à sa rotation, permettrait de déceler les variations de l'intensité de la pesanteur à la surface du globe et de sa diminution progressive avec l'altitude.


38. Les équations de Lagrange. — Lagrange, qui vécut A la fin du XVIIIème siècle et au début du XIXème, peut être regardé comme le créateur de la Mécanique analytique, dont il fit un corps de doctrine cohérent. II donna une méthode fort générale pour obtenir les équations du mouvement d'un système quelconque, lorsque les forces qui agissent sur ce système satisfont à certaines conditions qui se trouvent pratiquement vérifiées lorsqu'il s'agit, par exemple, d'astres soumis aux lois de l'attraction universelle. Bornons-nous au cas où les forces dérivent toutes d'un potentiel, lequel dépend d'un nombre fini de paramètres, paramètres dont dépend la position du système à chaque instant. Lagrange calcule alors, en les exprimant au moyen des paramètres qui définissent la position du système, deux fonctions fondamentales, que l'on désigne généralement par les lettres T et U. La fonction T est la demi-force vive totale du système, c'est-à-dire la moitié de la somme des produits m*(v^2) obtenus en multipliant la masse de chaque élément du système, par le carré de la vitesse. On peut dire également que T est l'énergie cinétique totale du système. La fonction U est la fonction potentielle au moyen de laquelle sont définies les forces ; nous choisissons son signe de telle manière que U augmente lorsque l'énergie potentielle du système augmente. Le théorème de la conservation de l'énergie, dont nous avons déjà rencontré un cas particulier, se traduit alors par l'équation:

T + U = h,

dans laquelle h désigne une constante, à laquelle on donne le nom de constante des forces vives. Le résultat essentiel obtenu par Lagrange est que toutes les équations du mouvement peuvent être obtenues aisément lorsque l'on connaît les fonctions T et U; les équations de Lagrange s'écrivent, en effet, exclusivement au moyen des fonctions T et U et de leurs dérivées.


39. Equations de Jacobi et de Hamilton. - A la suite de Lagrange, l'étude théorique des équations les plus générales de la Mécanique rationnelle prit un grand développement. Nous ne mentionnerons que les travaux de Jacobi, qui montra comment le système d'équations différentielles, auquel avait abouti Lagrange, peut être remplacé par une équation unique aux dérivées partielles, et étudia d'une manière approfondie la théorie générale de telles équations. De son côté, Hamilton montra que l'introduction de nouvelles variables, à la place des variables de Lagrange, permettait de donner aux équations une forme plus élégante et plus symétrique ; c'est au moyen de ces nouvelles variables que se trouve exprimée la fonction de Hamilton, que l'on désigne généralement par la lettre H. Tous ces travaux théoriques donnèrent lieu, au cours du XIXème siècle à de nombreuses recherches purement mathématiques, où la théorie des équations de la mécanique se confondait souvent avec l'étude générale des propriétés des équations différentielles et aux dérivées partielles. Dans ces recherches, la mécanique et l'analyse pure se prêtent un appui mutuel ; c'est ainsi qu'Henri Poincaré, à propos du problème de stabilité des trajectoires des planètes, s'est trouvé conduit à des recherches sur les équations différentielles, et à des problèmes d'analyse pure, dont la solution complète n'est pas encore trouvée, mais qui ont déjà conduit à des découvertes très importantes en théorie de fonctions, en théorie de ensembles et en topologie. Nous devons nous borner à ces brèves indications, qu'il ne serait possible de compléter qu'en supposant connues, non seulement les théories de la mécanique, mais celles de l'analyse mathématique et leurs plus récents progrès. Contentons-nous donc de retenir que l'équation générale de la dynamique, d'après laquelle la force est égale au produit de la masse par l'accélération, a été le germe d'où sont sorties successivement des théories mathématiques bien ordonnées, concernant des systèmes d'équations différentielles ou aux dérivées partielles dont les propriétés particulières ont donné lieu à des découvertes mathématiques très importantes. D'autre part, l'étude de ces équations a conduit les mécaniciens à des théorèmes généraux dont nous indiquerons les principaux, et a joué un rôle essentiel dans le développement abstrait des théories nouvelles qui ont marqué le début du XXème siècle et dont nous parlerons dans la troisième partie de cet ouvrage.


40. L'Hydrodynamique des fluides parfaits. - L'hydrodynamique des fluides parfaits, c'est-à-dire incompressibles, est une branche de la mécanique rationnelle. Alors que les équations de Lagrange permettent d'étudier les mouvements d'un nombre quelconque de corps solides, c'est-à-dire d'un système de corps dont la position et les vitesses ne dépendent, en définitive, que d'un nombre limité de paramètres variables, un liquide est un milieu continu, en chaque point duquel la vitesse aura, en général, une valeur différente ; on s'en rend bien compte lorsque l'on examine de près l'écoulement d'un fleuve ; les vitesses sont plus grandes au milieu du lit qu'au voisinage des rives. Le problème mathématique est donc ici d'une nature toute différente ; il ne s'agit pas seulement de calculer les variations des positions et des vitesses d'un certain nombre de points en fonction du temps, c'est-à-dire, en somme, de calculer des fonctions d'une seule variable ; il faut, connaître la vitesse en tous les points de l'espace occupé par le liquide que l'on étudie ; cette vitesse dépend en général, non seulement du temps, mais de la position dans l'espace du point considéré ; c'est une fonction de plusieurs variables. Il est d'ailleurs possible de se placer à deux points de vue différents, dont le premier est surtout intéressant lorsqu'il s'agit d'un régime permanent, c'est-à-dire indépendant du temps, comme c'est le cas pour un fleuve en régime normal, lorsque son débit est constant. On peut alors considérer un point fixe par rapport aux rives du fleuve ; la vitesse du liquide qui passe en ce point est constante, bien que ce ne soit jamais le même liquide, puisqu'il se renouvelle sans cesse. On peut étendre ce point de vue au cas où le régime n'est pas constant, mais, en ce cas, la vitesse en un point ne dépendra pas seulement de la position de ce point, mais du temps ; de plus, il y aura des points qui, suivant l'époque, seront occupés par le liquide ou seront vides. Un autre point de vue consiste à porter son attention sur une masse déterminée de liquide, suffisamment petite pour que, au moins pendant un certain temps, elle se déplace sans déformation sensible ; on peut essayer de matérialiser ce point de vue en incorporant à cette petite masse, soit un colorant, soit une poussière fine qu'elle entraîne et qui permet de suivre ses déplacements. En ce cas, les positions et les vitesses de cette petite masse sont des fonctions qui dépendent du temps et qui dépendent aussi des positions et des vitesses des masses voisines, c'est-à-dire qu'on ne peut résoudre isolément le problème du mouvement d'une fraction du liquide sans étudier en même temps le mouvement du liquide tout entier ; on retrouve donc des fonctions de plusieurs variables, puisqu'il faut calculer simultanément les fonctions successives et les vitesses de toutes les masses très petites en lesquelles on peut idéalement décomposer le liquide. A ces deux points de vue correspondent deux méthodes pour écrire les équations de l'hydrodynamique, méthodes que l'on doit rattacher respectivement aux noms d'Euler et de Lagrange. Quelle que soit la méthode suivie, un rôle important est joué, en hydrodynamique, par le principe de continuité, d'après lequel il ne peut se produire de vide à l'intérieur d'un liquide ; si un tel vide était produit artificiellement par un moyen quelconque, par exemple au moyen d'une vessie remplie de gaz que l'on crèverait, ce vide tendrait à se combler très rapidement par la pression des régions voisines du liquide.


41. Propagation des ondes. — L'un des phénomènes les plus intéressants de l'hydrodynamique est celui de la propagation des ondes, connu d'abord par des expériences simples qui remontent à la plus haute antiquité. Lorsque l'on jette un petit caillou sur la surface immobile d'un bassin rempli d'eau, on voit immédiatement se former des ondes circulaires qui se propagent successivement jusqu'aux bords du bassin ; une observation plus approfondie montre alors qu'elles se réfléchissent suivant des lois simples, mais, si le bassin est petit, les ondes réfléchies successivement arrivent rapidement à s'entremêler au point qu'il devient difficile de les distinguer. Il n'est pas inutile d'étudier d'abord le phénomène simple qui se produit lorsque l'on dispose d'une surface très étendue d'eau calme, comme c'est souvent le cas pour un lac et même parfois pour la mer dans le voisinage des rivages ; il est alors possible de constater la propagation des ondes jusqu'à une grande distance et de mesurer la vitesse de cette propagation. Cette vitesse de propagation des ondes se trouve bien définie lorsque l'on porte son attention sur l'un des cercles qui apparaissent dessinés à la surface de l'eau ; on a l'impression que ce cercle ne cesse de s'agrandir progressivement, de sorte qu'il prend bientôt la place du cercle plus grand qui l'entourait et est remplacé lui-même par le cercle plus petit qui se trouvait à son intérieur. Si l'on a ainsi suivi des yeux un même cercle pendant une seconde, on aura pu constater qu'il s'est agrandi notablement ; son rayon qui était R, est devenu R + a et l'on peut donc dire que chacun de ses points s'est déplacé d'une distance a dans le sens du rayon ; la vitesse de propagation par seconde est donc a. Si cependant on place à la surface de l'eau un léger corps flottant, un petit morceau de liège ou de papier, on constate immédiatement que ce corps ne se déplace pas avec les ondes liquides ; il se trouve simplement alternativement élevé et abaissé sur place lors du passage de ces ondes. Le mouvement observé de ces ondes n'est donc pas un mouvement de la matière ; c'est seulement le déplacement d'un certain mouvement, d'une certaine vibration de l'eau. On peut distinguer à la surface de l'eau des points qui sont plus élevés que le niveau moyen du lac et des points qui sont moins élevés ; les premiers s'abaissent et les seconds s'élèvent, de sorte qu'au bout d'un moment les mouvements qui se produisent en un point ont changé de sens ; ce sont ces mouvements qui produisent les apparences observées, qui constituent les ondes et ce qui se déplace, c'est le point précis où se produit un mouvement d'une nature bien déterminée, c'est-à-dire, par exemple, le point où le liquide,, après s'être élevé commence à s'abaisser. Ce déplacement se produit avec une certaine vitesse, qui est la vitesse de propagation de l'onde. Le mouvement alternatif, qui constitue l'onde, est un mouvement périodique, c'est-à-dire qui se répète, identique à lui-même, au cours d'une série d'intervalles de temps égaux entre eux. La période est l'intervalle de temps qui s'écoule entre deux instants lorsque le second de ces instants voit se reproduire pour la première fois le même état du phénomène qu'à l'instant précédent. La phase du mouvement est définie comme l'état particulier du mouvement périodique en un instant déterminé, par exemple à l'instant choisi comme origine des temps et au lieu choisi comme origine des espaces. L'unité de phase est la longueur de la circonférence de rayon unité, c'est-à-dire 2*Pi ; la phase augmente de 2*Pi, en un point donné, au cours d'un temps égal à une période. L'amplitude du mouvement périodique est la longueur du déplacement vertical, dans le cas des ondes qui se propagent sur une surface liquide horizontale, par rapport à la position d'équilibre, c'est-à-dire par rapport au niveau moyen de la surface horizontale. La longueur d'onde est la distance qui sépare les points analogues de deux ondes voisines, c'est-à-dire leurs sommets ou leurs creux (1). La vitesse de propagation de l'onde a déjà été définie comme la vitesse avec laquelle on voit se déplacer un point déterminé de cette onde, par exemple le point le plus élevé. On peut définir également cette vitesse de propagation, en observant que le déplacement, au cours d'une période, est égal à la longueur d'onde. La vitesse de propagation est donc égale à la longueur d'onde, multipliée par le nombre des périodes par une unité de temps. Si nous considérons par exemple une onde hertzienne dont la longueur d'onde est de 1.000 mètres, si elle présente 300.000 périodes par seconde (ou, comme on dit aussi, 300 kilocycles), on en conclura que sa vitesse est de 300.000 kilomètres par seconde. Inversement, si on connaît la vitesse de propagation et la période, on en déduit la longueur d'onde. Si l'on considère par exemple, une onde sonore qui se propage dans l'air avec une vitesse de 340 mètres par seconde, et si l'on sait que cette onde est émise par un diapason effectuant 680 vibrations par seconde, on conclura que la longueur d'onde dans l'air est de 50 centimètres. Nous reviendrons, au chapitre VI, sur le développement des théories des ondes lumineuses et électromagnétiques ; ce n'est que peu à peu qu'ont été comprises à la fois les analogies et les différences entre ces ondes, les ondes acoustiques et les ondes observées sur la surface d'un lac tranquille. Nous verrons également plus loin comment l'emploi des variables imaginaires permet de représenter par une formule unique les caractéristiques essentielles de l'onde : amplitude, phase, vitesse de propagation et longueur d'onde.

  • (1) Sur la figure 16, qui représente une coupe verticale des ondes, ANBCD est une sinusoïde, MN est l'amplitude et AC la longueur d'onde.


42. La propagation de la lumière et les théorèmes de minima. — Si nous avons dû parler dès à présent des analogies entre les ondes mécaniques observées sur les fluides et les ondes lumineuses, c'est parce que ces analogies, plus ou moins précisément perçues, ont été à l'origine de résultats très importants obtenus, dès le XVIIIème siècle, sur le rôle que l'on peut faire jouer en mécanique à des considérations sur le minimum de certaines quantités ; c'est, en effet, l'étude de l'optique qui a conduit aux premiers énoncés où figure cette notion de minimum. Déjà, dans l'antiquité, Héron avait montré que les lois de la réflexion de la lumière sur un miroir plan peuvent se déduire de l'hypothèse que le rayon lumineux émis par une source lumineuse et qui atteint notre oeil après s'être réfléchi dans le miroir, choisit le chemin le plus court parmi tous les chemins possibles qui peuvent aller de la source lumineuse à notre oeil en passant par un point quelconque du miroir. Il est clair, en effet, que si S désigne la source lumineuse, O, notre oeil et M un point quelconque du miroir AB (fig. 17), les parcours SM et MO doivent être rectilignes, si l'on veut que le parcours SMO soit le plus court ; ce point étant acquis, un raisonnement très simple de géométrie élémentaire montre que les deux droites SM et MO, dont la somme est la plus petite, sont dans un même plan perpendiculaire au miroir et admettent comme bissectrice en M la normale au miroir. C'est Fermat qui étendit à la réfraction de la lumière le principe du minimum. Il suffit d'admettre que les vitesses de la lumière dans deux milieux différents, tels que l'air et l'eau séparés par un plan CD, sont différentes (fig. 18); leur rapport n est l'indice de réfraction de l'eau. On démontre alors que le chemin AMB suivi par la lumière est tel que le temps employé pour le parcourir est minimum lorsqu'on donne les points A et B ; ceci entraîne tout d'abord, la conséquence que le trajet AM dans l'air est rectiligne et que le trajet MB dans l'eau est également rectiligne. Un raisonnement géométrique simple conduit alors à la loi du rapport des sinus de l'angle d'incidence et de l'angle de réfraction r, rapport qui doit être égal à l'indice de réfraction n, c'est-à-dire au rapport des vitesses. On conçoit, en effet, que pour effectuer le parcours dans le temps minimum, on se trouve conduit à allonger le parcours dans le milieu où la vitesse est la plus grande, de manière à diminuer le parcours dans le milieu où la vitesse est la plus faible, c'est-à-dire dans l'eau. Le trajet réel du rayon lumineux correspond donc, non au minimum du trajet, mais au minimum du temps. Huyghens montre que cette conclusion subsiste lorsque l'on envisage un rayon lumineux se propageant dans un milieu hétérogène, dans lequel l'indice de réfraction, et par suite la vitesse, varient constamment d'un point à l'autre. Le parcours du rayon lumineux est alors une ligne courbe, qui se trouve exactement définie par la condition que le temps employé par la lumière à la parcourir est inférieur au temps qui serait nécessaire pour toute autre courbe ayant les deux mêmes extrémités. Bien que les analogies entre les phénomènes lumineux et les phénomènes mécaniques fussent loin d'apparaître aux savants du XVIIème siècle, sous la forme précise qu'elles ont prise dans la science du XIXème siècle, il n'est pas douteux que les résultats ainsi acquis en optique ont exercé une influence considérable sur le progrès des idées en mécanique et ont puissamment contribué à pousser les mécaniciens à rechercher et à trouver des théorèmes de minimum.

43. Les conceptions finalistes. — La recherche de ces propriétés de minimum a été certainement dominée par des conceptions finalistes, dont on ne peut nier qu'elles ont exercé une influence utile sur les progrès de la science. Déjà, les anciens, et notamment Archimède, paraissent avoir connu les propriétés de maximum et de minimum du cercle et de la sphère : parmi les courbes fermées de même surface, le cercle est la plus courte, et inversement, parmi les courbes fermées de même longueur, c'est le cercle qui a la plus grande surface. De même, la sphère a une surface minimum pour un volume donné et, inversement, a un volume maximum pour une surface donnée. Un finaliste en conclut volontiers que c'est la raison pour laquelle, si l'on gonfle un ballon de baudruche, il prend naturellement la forme sphérique, à moins qu'il n'en soit empêché par une contrainte extérieure. L'étude de l'équilibre des corps pesants devait conduire également à des théorèmes de maximum et de minimum d'une nature un peu différente, car on peut facilement y faire intervenir la notion de travail et rattacher ainsi le théorème du maximum ou minimum à une notion mécanique simple. Un corps solide ayant la forme d'un oeuf plus ou moins régulier, placé sur un plan horizontal, prend de lui-même une position d'équilibre telle que son centre de gravité soit le plus bas possible. Il en est de même dans un cas théoriquement fort différent : celui d'une chaîne déformable suspendue par ses deux extrémités ; elle prend la forme géométrique qui correspond à l'altidude minimum de son centre de gravité. C'est seulement au XIXème siècle que l'on étudia un problème plus compliqué au point de vue théorique, bien qu'il corresponde à une expérience très simple. Si l'on plonge dans un liquide glycérique un contour polygonal gauche, puis qu'on le retire lentement, une lame liquide se forme et peut subsister longtemps. Le contour le plus simple que l'on puisse utiliser est un quadrilatère gauche, formé par la juxtaposition de deux triangles ABC et ABD ayant un côté commun AB, mais dont les autres côtés AC, BC, AD, BD sont seuls matérialisés. Si ces triangles sont équilatéraux, et si leurs plans font un angle voisin, d'un angle droit, la surface formée par le liquide glycérique a grossièrement la forme d'une selle (fig. 19). On démontre que les surfaces ainsi obtenues sont des surfaces minima, c'est-à-dire des surfaces d'aire minimum passant par le contour donné. Ces surfaces sont à courbures opposées, comme c'est le cas d'une selle : si le cavalier la considère d'avant en arrière, elle est courbe vers le haut, tandis que si le cavalier la considère de sa droite vers sa gauche, elle est courbe vers le bas ; les géomètres ont démontré que, pour une surface minimum, les rayons de courbure principaux sont égaux et de signes contraires ; de cette définition purement géométrique, on a déduit la fort intéressante théorie des surfaces minima. Si nous restons au point de vue expérimental, nous constatons que l'expérience de Plateau permet de réaliser facilement la surface d'aire minimum qui passe par un contour donné ; dans ce cas, comme dans les précédents, tout se passe comme si la nature était gouvernée par certaines lois mystérieuses d'économie : le liquide glycérique adhérent à la carcasse métallique se dispose lui-même de telle manière que la surface soit aussi petite que possibl, de sorte que son épaisseur moyenne, pour une masse donnée de liquide, est aussi grande qu'il est possible.


44. Les mouvements sur une surface. - L'étude du mouvement d'un point matériel assujetti à se déplacer sur une surface fixe, sans être soumis à aucune force, est particulièrement intéressante au point de vue qui nous occupe. Les seules forces mises en jeu sont alors les forces de liaison qui obligent le point à rester sur la surface ; si l'on admet que le frottement est rigoureusement nul, ces forces de liaison étant normales à la surface, sont normales à la trajectoire du point et, par suite, leur travail est nul ; d'après le théorèmes des forces vives, la valeur absolue de la vitesse v du point matériel est constante, bien que la direction de cette vitesse soit forcément variable (sauf dans le cas très particulier où la trajectoire du point est rectiligne, ce qui ne peut se produire que dans le cas où une droite se trouve tout entière contenue sur la surface donnée ; nous laissons de côté ce cas). L'accélération a la direction de la force, c'est-à-dire est normale à la surface ; la trajectoire du point est donc une ligne telle que sa normale principale, c'est-à-dire la normale dirigée vers son centre de courbure (1), soit normale à la surface ; une telle courbe est dite une ligne géodésique de la surface et l'on démontre qu'une telle ligne a la propriété d'être la ligne la plus courte entre deux quelconques de ses points (à condition cependant que ces points ne soient pas trop éloignés). Par exemple, sur la sphère, les lignes géodésiques sont les grands cercles ; si l'on considère un arc de grand cercle AB inférieur à une demi-circonférence, cet arc est le plus court chemin entre les deux points A et B. Si l'arc AB était égal à une demi-circonférence, il y aurait une infinité d'autres arcs, égaux aussi à une demi-circonférence et joignant A et B ; si l'arc ABB' était supérieur à une demi-circonférence, il y aurait entre A et B' beaucoup de chemins plus courts que cet arc (fig. 20). Du point de vue mécanique, nous voyons que la trajectoire suivie par un point qui se déplace librement sur une surface fixe (sans être soumis à aucune force), a la propriété remarquable d'être la ligne la plus courte entre deux de ses points (tout au moins, si ces points ne sont pas trop éloignés) ; si donc on suppose que le mobile qui part de A, sait qu'il ira passer par un point B, on en conclut qu'il choisit, pour aller de A en B, le chemin le plus court, c'est-à-dire celui qui est parcouru dans le temps minimum, puisque la vitesse est constante. En fait, nous savons que la propriété, pour une courbe tracée sur une surface, d'être une géodésique, c'est-à-dire d'être la ligne la plus courte entre deux de ses points A et B (pas trop éloignés l'une de l'autre), se traduit par une propriété infinitésimale, c'est-à-dire par une propriété qui ne concerne qu'un arc très petit de la courbe ; le plan oscillateur de la courbe, c'est-à-dire le plan mené par la tangente parallèlement à la tangente infiniment voisine, normal à la surface. Telle est la condition à laquelle doit satisfaire l'arc infiniment petit que l'on peut tracer à partir du point A ; si cette condition est vérifiée successivement pour tous les arcs infiniment petits d'une courbe, on est certain que la courbe est une géodésique, c'est-à-dire est le plus court chemin entre deux de ses points (pourvu qu'ils ne soient pas trop éloignés).

(1) Aux infiniment petits de second ordre près, une courbe se confond avec son cercle de courbure et l'on sait que l'accélération d'un mouvement circulaire uniforme est dirigée vers le centre de ce cercle.


45. La propriété de minimum est une propriété locale. - Lorsque l'on a bien compris que la propriété de minimum de la ligne finie est, en réalité, une propriété infinitésimale ou locale qui appartient à chaque portion, si petite soit-elle, de la ligne, le fait que la trajectoire d'un point libre sur une surface est une géodésique apparaît comme beaucoup moins mystérieux ; il n'est pas nécessaire que le mobile placé en A sache qu'il doit passer en B et que, le sachant, il choisisse le plus court des chemins qui vont de A vers B ; il suffit que, ayant choisi une direction de départ (c'est-à-dire étant animé d'une certaine vitesse initiale), il se dirige dans cette direction en suivant un chemin qui, en chaque point, satisfait à une certaine condition locale, à savoir que son plan osculateur est normal à la surface. Or, ceci est une conséquence immédiate des équations de la dynamique, d'où il résulte que l'accélération est normale à la surface. Si l'on se représente un homme debout sur la surface et attentif à rester constamment normal à la surface au cours de son déplacement, cette condition qui lui est imposée lui donnera l'impression qu'il marche constamment droit devant lui et que, par suite, ne faisant pas de détours, il suit la route la plus courte. Ce résultat étant acquis sans l'intervention d'aucun appel à une cause finale, celle-ci s'avère comme pour le moins inutile. Nous ne devons cependant pas méconnaître le rôle qu'elle a pu jouer comme moyen de découverte. Dans le cas de la réfraction de la lumière, on constate bien que tous les rayons lumineux émis d'un point A situé dans l'air, suivent, jusqu'à ce qu'ils arrivent à la surface de l'eau, un chemin rectiligne ; ce chemin est donc fixé par la seule considération du minimum local (la ligne droite est le plus court chemin), sans qu'intervienne aucune considération relative au minimum de la longueur totale du trajet parcouru dans l'air et dans l'eau. De même, lorsque le rayon aura pénétré dans l'eau et pris sa nouvelle direction, il suivra un chemin rectiligne. C'est donc seulement au moment du passage d'un milieu dans l'autre, c'est-à-dire du trajet du rayon entre deux points C et D extrêmement voisins (fig. 21), dont le premier est dans l'air et le second dans l'eau, que le trajet CMD se trouve une ligne brisée, le point M choisi de telle manière que le temps employé à parcourir le trajet CMD se trouve minimum, compte tenu de la différence des vitesses de la lumière dans l'air et dans l'eau. Aussi petite que soit la distance CD, cette condition de minimum suffit pour déterminer la déviation du rayon qui constitue le phénomène de la réfraction. L'économie de temps qui résulte de cette déviation est d'ailleurs évidemment d'autant plus faible que la distance CD est plus petite, et nous avons le droit de choisir cette distance CD aussi petite que nous le voulons ; c'est cependant cette économie infinitésimale qui suffit à imposer la loi de la réfraction. Il est d'ailleurs aisé de démontrer que la ligne ACMDB formée des deux portions rectilignes ACM et MDB est bien le chemin parcouru dans le temps le plus court, parmi tous les chemins qui joignent A à B. C'est une conséquence de ce que nous savons que les trois portions du chemin AC, CMD et DB réalisent, chacune pour son compte, la condition de minimum de temps parmi tous les chemins ayant mêmes origines et mêmes extrémités. Il y a là un fait qui peut paraître singulier, mais que l'on comprend bien lorsque l'on compare entre eux, dans un plan, les longueurs des divers chemins formés de lignes droites et qui joignent deux points A et B. Nous savons que la droite AB (fig. 22) est plus courte que la somme des deux côtés d'un triangle quelconque AMB, c'est-à-dire plus courte que AM + MB. La droite AM est cependant le plus court chemin entre A et M et la droite MB est le plus court chemin entre M et B ; mais, si nous considérons deux points C et D extrêmement voisins de M, le point C étant sur AM et le point D sur MB, le chemin CMD n'est pas le plus court chemin entre C et D ; l'allongement est infinitésimal par rapport à la droite CD, si les distances CM et MD sont extraordinairement petites ; mais cet allongement infinitésimal suffit à enlever à la ligne brisée AMB la propriété de minimum que possèdent ses deux portions rectilignes AM et MB. Il n'est pas possible, d'ailleurs, de faire disparaître ce coude CMD en le remplaçant par la ligne droite CD ; car on créerait alors deux autres coudes, l'un en C et l'autre en D et, si l'on voulait les faire disparaître de la même manière, on se trouverait conduit, après un nombre suffisamment grand d'opérations analogues, à la ligne droite AB qui, seule, ne présente pas de coude. Ainsi, la propriété de minimum de la ligne droite est une conséquence de la propriété de minimum de chacune de ses portions ; mais cette propriété ne subsiste pas pour une ligne brisée AMB, parce qu'elle n'est pas vérifiée au voisinage immédiat du point M, bien qu'elle soit vérifiée au voisinage de tout autre point de la ligne brisée ; la singularité unique qui se manifeste en M suffit pour enlever la propriété de minimum à la ligne brisée tout entière, bien que cette propriété appartienne à chacune de ses portions EF, à la seule condition que le point M ne soit pas entre E et F. Il est évident que si une ligne a une propriété de minimum par rapport à ses deux extrémités A et B, cette propriété doit exister également entre deux points quelconques C et D de la ligne car si on pouvait remplacer la portion CD de la ligne par une ligne plus courte joignant C et D (ou par une ligne parcourue par un temps plus court), il suffirait de remplacer dans la ligne ACDB, la portion CD par la ligne plus courte pour constater que la ligne donnée n'était pas la plus courte entre les deux pointu A et B. Il est beaucoup plus malaisé de démontrer la réciproque, c'est-à-dire qu'une ligne possède effectivement une propriété de minimum lorsque chacun de ses éléments possède cette propriété ; cela n'est d'ailleurs pas exact d'une manière tout à fait générale, comme on le voit par l'exemple du grand cercle de la sphère supérieur à une demi-circonférence. On peut cependant affirmer que, s'il y a une ligne ayant effectivement la propriété de minimum, cette ligne ne peut être choisie que parmi celles dont chaque élément possède cette propriété. Chacune de ces dernières lignes est donc une solution "possible" du problème du minimum et, dans certains cas, cette remarque permet de démontrer notre réciproque. Nous n'insisterons pas davantage car il faudrait, pour préciser ces indications sommaires, exposer la théorie mathématique connue sous le nom de Calcul des Variations.


46. Le principe de la moindre action. - Nous venons de voir que lorsqu'un point se déplace sur une surface sans être soumis à aucune force, c'est-à-dire lorsque sa vitesse est constante en valeur absolue, sa trajectoire est définie par la condition d'être la ligne la plus courte entre deux de ses points. Maupertuis a cherché à étendre cet énoncé au cas où il existe une force agissant sur le point, de sorte que sa vitesse est variable ; on suppose que cette force dérive d'un certain potentiel, comme c'est le cas pour les forces de Newton. Maupertuis donne le nom d'action élémentaire pour un déplacement très petit du point, au produit de sa quantité de mouvement par son déplacement, c'est-à-dire au produit m*v*ds, si l'on désigne par ds le déplacement infiniment petit du point, par m sa masse et par v sa vitesse. L'action le long d'une trajectoire est la somme des actions élémentaires relatives aux divers points de la trajectoire. Comme les forces dérivent d'un potentiel, l'intégrale des forces vives fait connaître en chaque point la vitesse v en fonction des coordonnées de ce point, sans qu'il soit nécessaire de connaître la trajectoire (il est nécessaire de connaître la constante des forces vives). Ceci posé, considérons toutes les courbes qui joignent deux points A et B, courbes qui sont des trajectoires possibles ; si nous supposons donnée la constante des forces vives (qui peut être calculée au moyen de la vitesse initiale), nous connaîtrons la vitesse v que devrait posséder le mobile en chaque point d'une de ces trajectoires possibles, si cette trajectoire était la trajectoire réelle ; nous pouvons donc calculer l'action le long de toutes les trajectoires possibles. La trajectoire réellement suivie par le point, en vertu des équations de la dynamique, est celle des trajectoires possibles pour lesquelles l'action, ainsi définie, est minimum. Tel est le principe de la moindre action de Maupertuis. Ce principe peut être généralisé et étendu au mouvement d'un système quelconque de points, sous la condition que les forces dérivent d'un potentiel, de sorte que le théorème des forces vives est applicable. La définition de l'action peut alors être généralisée. Dans le cas d'un point, nous avons dit que l'action est le produit de la quantité de mouvement m*v par le déplacement très petit ; ce déplacement très petit est lui-même égal au produit de la vitesse v par l'accroissement du temps, c'est-à-dire au produit v*dt ; l'action est donc égale au produit m*(v^2)*dt, c'est-à-dire au produit de la force vive par la différentielle du temps. Cette nouvelle définition s'étend à un système quelconque, dans lequel la force vive peut être calculée au moyen du potentiel, mais, pour calculer l'intégrale de l'action le long des trajectoires décrites par les divers points, il faut calculer la différentielle dt au moyen du théorème des forces vives. Nous ne pouvons développer ici ces calculs, pour lesquels nous renverrons nos lecteurs au tome II du Traité de Mécanique rationnelle de Paul Appell et au tome II des Leçons sur la Théorie des Surfaces de Gaston Darboux. La notion d'action, introduite par Maupertuis, est restée pendant plus de deux siècles sans être utilisée, en dehors du principe de la moindre action, pour lequel elle avait été inventée ; elle n'a pas, en effet, d'interprétation mécanique simple et immédiate, comme c'est le cas pour la force vive ou même pour la quantité de mouvement, qui intervient notamment dans les recherches sur les chocs et percussions. C'est seulement la découverte par Planck de la théorie des quanta, qui mit en relief la notion d'action, car la constante universelle h de Planck, dont nous parlerons au chapitre VIII, a les dimensions d'une action.


47. La conservation de l'énergie. - Nous avons déjà attiré l'attention sur l'énoncé du théorème des forces vives, d'après lequel la somme de l'énergie cinétique et de l'énergie potentielle reste constante. Au cours du XVIIIème et du XIXème siècle, cet énoncé particulier fut généralisé de manière à englober dans un même énoncé les énergies de toute nature (énergie thermique, énergie électrique ou magnétique, énergie chimique, etc.). On arriva ainsi peu à peu à l'énoncé général du principe de la conservation de l'énergie d'après lequel l'énergie totale d'un régime fermé est constante. On a pu objecter à ce principe très général qu'il ne peut exister de système fermé, car les parties les plus éloignées de l'univers ne sont pas sans action les unes sur les autres ; le rayonnement des étoiles nous apporte une certaine quantité d'énergie, assurément faible, mais cependant mesurable et même utilisable : on a pu déclencher un mouvement en concentrant en un point donné, au moyen d'un objectif de grandes dimensions la lumière issue d'une étoile et en produisant ainsi un courant électrique. Nous devrions donc, pour être sûrs d'avoir un système fermé, annexer l'univers entier et la question se pose alors de savoir s'il est fini ; s'il est infini, l'énergie totale est également infinie et sa constance n'a plus aucun sens. D'autre part, Henri Poincaré a fait observer fort justement que les créateurs du principe de la conservation de l'énergie sont partis de l'idée préconçue que ce principe devait être vrai et ont défini les énergies qui avaient échappé à leurs prédécesseurs, précisément comme elles devaient l'être pour que le principe soit vrai, do sorte que, si l'on n'accepte pas d'avance ces définitions, tout ce que l'on peut affirmer, c'est qu'il est possible de définir quelque chose qui reste constant. Mais, même sous cette forme abstraite, le principe général de la conservation de l'énergie est loin d'être sans intérêt. Il convient de le rapprocher du principe de la conservation de la matière, mis par Lavoisier à la base de la chimie et aussi de la conservation de l'électricité, plus complexe en raison de l'existence de deux fluides électriques de signes contraires, qui peuvent se neutraliser. Les progrès de la physique au début du XXème siècle devaient conduire à envisager ces principes sous des aspects nouveaux.


48. Les invariants intégraux. — Pour en terminer avec ces brèves indications sur les théorèmes généraux de la dynamique, nous devons dire quelques mots des invariants intégraux, dont la théorie s'est développée surtout à la fin du XIXème siècle, grâce à Henri Poincaré. Mais on doit les rattacher aux recherches de Jacobi sur les équations canoniques et notamment à sa théorie du multiplicateur, dont une des applications les plus importantes est basée sur ce que Jacobi a nommé le dernier multiplicateur. Nous ne pouvons citer ici que la définition des invariants intégraux, dont nous donnerons un exemple au chapitre VI, à propos de la théorie cinétique des gaz et de la mécanique statistique. Ce sont des intégrales définies dans lesquelles figurent les variables qui définissent le mouvement et éventuellement leurs dérivées par rapport au temps, et qui conservent la même valeur pendant toute la durée du mouvement.


49. La mécanique rationnelle, corps de doctrine mathématique. - La mécanique rationnelle apparaissait ainsi, à la fin du XIXème siècle, comme une branche des mathématiques analogue, à bien des égards, à la géométrie. En partant d'un petit nombre de définitions et d'hypothèses, les mathématiciens obtenaient des équations dont l'étude contribuait au progrès de la théorie des équations différentielles, des équations aux dérivées partielles, de la théorie des fonctions. L'application de ces équations à l'étude des phénomènes naturels était particulièrement satisfaisante en mécanique céleste où, par des méthodes sans cesse perfectionnées, on arrivait à prédire les phénomènes avec une précision dépassant la précision même des observations. Les résultats obtenus dans l'étude des phénomènes terrestres, notamment les observations du pendule, confirmaient également la concordance parfaite entre les équations et les phénomènes réels. La perfection et l'élégance des équations de la Mécanique, les succès que nous venons de rappeler, devaient naturellement inciter les savants à étendre le champ des applications de ces équations. C'est ainsi que se sont constituées, au cours du XIXème siècle, pour la lumière et l'électromagnétisme, des théories basées sur des équations qui étaient calquées sur les équations de la mécanique. En même temps, se développait l'étude mécanique des mouvements des molécules gazeuses et cette étude de la théorie cinétique des gaz aboutissait à une nouvelle science, la mécanique statistique, par laquelle se rattachaient à la mécanique tous les phénomènes relevant de la théorie de la chaleur ou thermodynamique. D'autre part, de nombreux chercheurs travaillaient à développer des branches de la science qui pouvaient être considérées comme des annexes de la mécanique rationnelle, en faisant subir aux équations les modifications nécessaires pour tenir compte du fait que les gaz, les liquides, les solides réels n'ont pas les mêmes propriétés que les corps parfaits de la mécanique rationnelle. C'est ainsi que se sont développées, en marge de la mécanique, l'acoustique, l'élasticité, la capillarité, l'hydraulique, la théorie du frottement, celle des chocs et percussions. Nous allons, dans les trois chapitres qui suivent, résumer rapidement ce développement prodigieux, qui tendait à faire de la mécanique, à la fin du XIXème siècle, la science universelle de la nature.


  • Chapitre V
  • La propagation des ondes lumineuses et électromagnétiques


50. Les théories de la lumière, de Newton à Fresnel. — Nous ne pouvons donner ici une histoire détaillée des progrès de l'optique, science de la lumière. Rappelons que, dès le XVIIème siècle, se sont heurtées deux théories, celle de l'émission soutenue par Newton et celle des ondulations, soutenue par Huyghens. D'après la première, les phénomènes lumineux étaient produits par l'émission de corpuscules extraordinairement petits, traversant l'espace vide et les corps transparents avec une vitesse prodigieuse ; d'après la seconde, ces phénomènes étaient dus à la propagation d'ondes dans un milieu hypothétique remplissant tout l'espace et auquel on avait donné le nom d'éther lumineux. Les travaux d'Young et ceux de Fresnel, à la fin du XVIIIème siècle et au début du XIXème siècle, tranchèrent définitivement le débat en faveur de la théorie des ondulations. Les équations qui définissent, d'après Fresnel, les ondulations lumineuses sont tout à fait analogues aux équations de la mécanique rationnelle et obtenues par des raisonnements calqués sur ceux de la mécanique. Ces équations expliquent tous les phénomènes que l'on a groupés sous le nom d'optique physique, par opposition à l'optique géométrique, laquelle étudie la propagation reetiligne des rayons lumineux dans un milieu homogène et les lois de leur réflexion et de leur réfraction lorsqu'ils atteignent la surface de séparation de deux milieux différents (air, eau, verres d'optique). Les plus importants phénomènes étudiés par Fresnel sont relatifs aux interférences et à la polarisation de la lumière. Les résultats du calcul, parfois en apparence paradoxaux, se trouvèrent toujours constamment confirmés par l'observation.


51. Vitesse de la lumière. — Parallèlement à ces recherches sur le mode de propagation de la lumière, les astronomes et les physiciens étudiaient la vitesse de propagation. C'est l'observation des éclipses des satellites qui a conduit Roemer à la première évaluation sérieuse de la vitesse de la lumière. Ces éclipses sont fréquentes et se succèdent à des intervalles de temps réguliers et connus. Si on les observe à environ six mois d'intervalle, d'abord lorsque la Terre est aussi rapprochée que possible de Jupiter, puis lorsque la Terre en est aussi éloignée que possible, on peut mesurer le temps employé par la lumière pour parcourir une longueur égale au diamètre de l'orbite terrestre (considérée comme circulaire). On constate que ce temps dépasse 16 minutes et l'on en conclut que le temps nécessaire à la lumière pour aller du Soleil à la Terre est un peu supérieur à 8 minutes. Par des observations répétées des éclipses des satellites de Jupiter, Delambre avait obtenu 8 minutes 13 secondes ; aujourd'hui, la vitesse de la lumière est connue avec une grande précision par d'autres méthodes et l'on en conclut que la valeur exacte est de 8 minutes 18 secondes et quelques dixièmes de seconde. La mesure précise de la vitesse de la lumière a joué un rôle fondamental dans l'élaboration de la théorie de la relativité (Ch. VIII). Contentons-nous de rappeler les méthodes de la roue dentée (Fizeau), celles du miroir tournant (Foucault et Fizeau) et enfin les admirables travaux de Michelson et de ses collaborateurs. D'après les mesures les plus récentes, la vitesse de la lumière dans le vide est de 299.774 kilomètres par seconde. Dans la plupart des cas, on peut adopter le nombre rond bien connu de 300.000 kilomètres par seconde.


52. L'aberration. — Le phénomène de l'aberration de la lumière a une très grande importance au point de vue des relations entre la mécanique et l'optique ; il est, en effet, le premier des phénomènes qui aient été observés et dont l'explication exige la combinaison de données dont les unes sont mécaniques (mouvement des astres) et les autres physiques (vitesse de la lumière). Dans l'étude du phénomène de l'aberration, on peut faire abstraction du mouvement d'ensemble du système solaire dans l'espace ; ce mouvement est, à très peu de chose près, un mouvement de translation dont la vitesse est toujours la même en grandeur et en direction ; si donc ce mouvement modifie, comme il paraît certain, la direction dans laquelle nous apparaissent les étoiles, cette modification est constante, c'est-à-dire indépendante du temps ; elle ne peut donc pas être observée. Il n'en est pas de même pour les deux mouvements propres de la terre, sa rotation autour de son axe et sa révolution autour du Soleil. Un point de l'équateur terrestre se trouve, au bout de douze heures, dans une position diamétralement opposée à celle qu'il occupait ; la vitesse dont il est animé, en vertu du mouvement de rotation de la Terre, est donc devenue parallèle à sa direction primitive, mais de sens opposé. (Nous faisons ici abstraction du déplacement de la Terre autour du Soleil qui, pendant le court intervalle de 12 heures, est assimilable à une translation et, par suite, négligeable). Un fait analogue se produit lorsque l'on considère les vitesses dont est animée la Terre, dans son mouvement autour du Soleil, à six mois d'intervalle ; la Terre se trouve, en effet, avoir passé d'une extrémité à l'autre d'un diamètre de son orbite et ses vitesses sont à peu près parallèles, égales en valeur absolue et de directions opposées. Ce second phénomène, qui produit l'aberration annuelle, est beaucoup plus important que le premier, qui produit l'aberration diurne. La vitesse de la rotation de la Terre ne dépasse pas, en effet, à l'équateur, 465 mètres par seconde, tandis que la vitesse de la Terre dans son mouvement autour du Soleil, atteint 30 kilomètres par seconde, soit environ la dixième partie de la vitesse de la lumière. Le déplacement de la direction dû à l'aberration est d'environ un tiers de seconde d'arc pour l'aberration diurne et de 20,47, soit à peu près 20 secondes et demi pour l'aberration annuelle ; chaque étoile paraît décrire, autour de sa position moyenne au cours de l'année, une petite éllipse dont le demi grand axe, parallèle au plan de l'écliptique, a pour valeur 20,47. Le phénomène de l'aberration s'explique grossièrement en le comparant aux apparences qui le produisent, lorsque l'on voit tomber la pluie par la vitre d'un wagon de chemin de fer en marche. S'il n'y a pas de vent, les gouttes de pluie tracent, en tombant, des lignes verticales ; mais ces lignes apparaissent comme inclinées au voyageur en raison du mouvement du train ; la valeur de cette inclinaison s'obtient en prenant le rapport de la vitesse du train avec la vitesse de chute des gouttes d'eau. Tout se passe comme si le wagon étant immobile, l'air se trouvait animé, en sens inverse, d'une vitesse égale à celle du train ; ce vent apparent aurait pour effet de produire l'inclinaison des lignes d'eau que l'on observe. Si l'on recherche quelle déviation produirait sur les rayons lumineux un "vent d'éther" de vitesse égale et opposée à la vitesse de la terre, le calcul donne précisément la constante de l'aberration. Cette vitesse étant, en effet, la dix-millième partie de la vitesse de la lumière, l'angle de déviation maximum correspond à un arc égal à la dix-millième partie du rayon, ce qui donne bien 20 secondes et demi, environ. Le phénomène de l'aberration a donné lieu à de très nombreuses discussions et a joué un rôle important dans le développement des théories de la lumière ; qu'il nous suffise de constater que c'est le plus important et de beaucoup le plus fréquemment observé des phénomènes où interviennent à la fois l'optique et la mécanique, phénomènes qui dépendent de ce que l'on appelait au XIXème siècle les rapports entre l'éther lumineux et la matière. Le fait que ce phénomène paraît régi par les mêmes lois que si les phénomènes lumineux étaient des phénomènes purement mécaniques, a certainement beaucoup contribué à donner aux savants du XIXème siècle l'espoir qu'il était possible d'arriver à une explication mécanique de tous les phénomènes physiques.


53. Le déplacement des raies du spectre. — Cet espoir ne pouvait qu'être confirmé par la découverte d'un autre phénomène auquel on a donné le nom d'effet Doppler-Fizeau et qui s'explique également bien par des analogies purement mécaniques. Si nous considérons les ondes qui se produisent à la surface de l'eau, il nous est possible, en fixant les yeux sur un point de la surface où se trouve, par exemple, un bouchon de liège qui flotte, de compter combien d'ondes passent, pendant une seconde, en ce point déterminé et nous pourrons, connaissant la vitesse de déplacement des ondes, en déduire la longueur d'onde. Nous pouvons imaginer que ce compte et ce calcul pourraient être faits par le bouchon, si celui-ci était un être comme nous et si ses sens lui permettaient de compter le nombre des ondes qui passent pendant l'unité de temps, ondes qui ont pour effet de lui imprimer un mouvement périodique le soulevant et l'abaissant alternativement. Supposons maintenant que notre bouchon soit surmonté d'un mât et d'une voile minuscules et soit poussé par le vent, de manière qu'il chemine à la rencontre des ondes ; si, en une seconde, il a parcouru un intervalle égal à trois longueurs d'ondes, il est évident qu'il aura rencontré trois ondes de plus que s'il était resté immobile ; il aura perçu trois fois de plus le mouvement alternatif par lequel se manifeste pour lui le passage de l'onde. Appliquons ceci aux ondes sonores, que nous percevons par l'oreille et aux ondes lumineuses que nous percevons par l'oeil ; ces organes des sens nous permettent de percevoir la hauteur des sons et la couleur de la lumière et nous savons que certaines qualités du son et de la lumière sont liées à la longueur d'onde ou, ce qui revient au même, à la fréquence des vibrations sonores et lumineuses. Ces qualités sont la hauteur pour le son et la couleur pour la lumière. Dans le cas du son, les vitesses que nous pouvons aisément atteindre sont tout à fait comparables à la vitesse du son, qui est, dans l'air, de 340 mètres par second ; une vitesse de 34 mètres par seconde correspond à 122 kilomètres environ à l'heure, qui peut être celle d'un train ou d'une voiture automobile ; si deux trains se croisent sur deux voies parallèles, leur vitesse relative est égale à la somme de leurs vitesses et, pour le voyageur situé dans l'un des trains, cette vitesse change de sens au moment du croisement, puisque, après s'être approché de l'autre train, il s'en éloigne. Si donc un signal sonore continu, par exemple le sifflet d'une locomotive, se trouve émis par l'un des trains, la hauteur du son perçu par le voyageur de l'autre train changera brusquement au moment du croisement ; lorsque les deux trains se rapprochent, le nombre d'ondes rencontrées en une seconde dépasse de 20 % le nombre normal qui serait perçu si les deux trains étaient immobiles, tandis que le nombre d'ondes est, au contraire, inférieur de 20 % au nombre normal lorsque les deux trains s'éloignent, chacun avec la vitesse de 122 kilomètres. La hauteur du son perçu change donc brusquement ; si le nombre normal des ondes par seconde est 500, il passera brusquement, au moment du croisement de 600 à 400, c'est-à-dire que l'intervalle musical qui séparera les deux sons sera celui du sol et du do ; l'oreille percevra la baisse instantanée du sol au do au moment du croisement. Lorsqu'il s'agit des phénomènes lumineux, l'effet analogue est beaucoup moins apparent, car la vitesse de la lumière est, comme nous le savons, près d'un million de fois plus grande que celle du son. Cette vitesse est indépendante de la longueur d'onde, de sorte que l'effet Doppler-Fizeau se traduit par une augmentation ou une diminution apparente de longueur d'onde, qui peut être décelée au moyen du spectroscope ; cet appareil, comme on le sait, fait apparaître dans le spectre de toute source lumineuse des raies parfois très fines qui sont caractéristiques de certaines substances chimiques ; les positions de ces raies sont invariables dans le spectre, de sorte qu'une raie connue correspond à une fréquence bien déterminée ; les raies peuvent, d'ailleurs, être individualisées, c'est-à-dire distinguées les unes des autres par leurs distances mutuelles, qui sont assez différentes les unes des autres pour que les dessins formés par les raies successives soient aisément reconnues. Si nous allons à la rencontre de la lumière avec une vitesse de 30 kilomètres par seconde, qui est la vitesse de la Terre sur son orbite, soit avec une vitesse qui est la dix-millième partie de la vitesse de la lumière, nous devrons constater une augmentation d'un dix-millième dans la fréquence, c'est-à-dire une diminution d'un dix-millième de la longueur d'onde. La raie alpha de l'hydrogène a une longueur d'onde normale (1) de 6563,04 ; elle sera diminuée de 0,656 et deviendra 6562,38 environ ; la précision du spectroscope permet d'apprécier cette diminution, tandis que notre oeil serait insensible à la modification de couleur entre deux régions du spectre aussi voisines l'une de l'autre.

  • (1) Les longueurs d'onde sont exprimées en Angströms. Le décimètre vaut un milliard d'angströms.
  • (2) En combinant la vitesse radiale avec la vitesse apparente, c'est-à-dire au déplacement apparent de l'étoile par rapport à d'autres eupposées fixes, on arrive à mesurer la vitesse réelle de l'étoile par rapport A notre système solaire.


54. Application à l'étude des mouvements stellaires. — La connaissance de l'effet Doppler-Fizeau permet de mesurer les vitesses radiales des étoiles par rapport à la Terre, c'est-à-dire la vitesse avec laquelle l'étoile s'approche ou s'éloigne du télescope avec lequel on l'observe (2). Un très précieux moyen d'investigation dans l'astronomie stellaire a été ainsi obtenu et a puissamment contribué, au cours de ces dernières décades, à faire progresser notre connaissance de l'Univers. Le dernier de ces progrès a été la confirmation de la théorie de l'expansion de l'univers, dont nous reparlerons plus loin, par l'observation de certaines nébuleuses fort éloignées de nous et qui sont, en réalité, d'énormes amas d'étoiles ou galaxies, analogues à la Galaxie à laquelle appartient notre Soleil, et qui nous apparaît sous l'aspect de la voie lactée déjà observée et baptisée par les anciens. Ces galaxies s'éloignent de nous avec des vitesses qui atteignent 40.000 kilomètres par seconde, dépassant le dixième de la vitesse de la lumière. L'effet Doppler-Fizeau produit alors un déplacement des raies spectrales assez important pour que notre oeil perçoive aisément la différence de couleur entre la partie du spectre où ces raies figurent normalement et la partie du spectre où elles nous apparaissent lorsque nous examinons au spectroscope ces nébuleuses spirales.


55. Le mystère de l'éther. — Comme nous l'avons déjà dit, les magnifiques progrès de l'optique physique au cours du XIXème siècle, à la suite des mémorables découvertes de Fresnel, ont été réalisés, au point de vue théorique, par l'étude des équations de la propagation des ondes lumineuses, équations analogues aux équations de la mécanique. C'est la concordance entre les résultats déduits de ces équations et les résultats des observations et des expériences, qui soutint l'effort des mathématiciens et des physiciens en leur persuadant qu'ils étaient engagés dans une voie féconde, malgré les difficultés auxquelles donnaient cependant lieu parfois certains détails de la théorie. C'est ainsi que l'on discuta longtemps sur la question de savoir si les vibrations de l'éther lumineux étaient longitudinales ou transversales, c'est-à-dire parallèles ou perpendiculaires au rayon lumineux. Quant à l'éther lumineux, il semble bien que les savants du XIXème siècle l'aient considéré comme une entité indispensable à leurs équations, entité que l'on restait libre de douer des propriétés qui apparaîtraient nécessaires ou commodes pour faciliter la concordance entre la théorie et l'expérience ; cette liberté était justifiée puisque l'éther échappait à toute expérience directe ; il ne nous était connu que par les phénomènes lumineux, dont on le regardait comme le support. Cet éther mystérieux doit donc, lorsqu'on y réfléchit, être regardé comme n'ayant d'autre réalité que les équations mathématiques qui permettent de définir et de prévoir les phénomènes de l'optique. Ces équations ont une réalité, puisqu'on peut les écrire sur le papier et effectuer sur elles des calculs ; c'est, il est vrai, une réalité assez abstraite, fort différente des réalités physiques observées par nos sens ; le mathématicien qui ne possède ni papier, ni crayon, peut, avec un certain effort mental, penser les équations et même effectuer sur elles des calculs dont il peut ensuite énoncer pour lui-même les résultats et prévoir ainsi certains phénomènes. L'éther n'a pas, en fait, plus de réalité que ces équations ; il est, comme elles, un moyen commode imaginé par notre esprit pour nous permettre de relier entre eux certains faits expérimentaux dont les liaisons réciproques ne sont pas assez simples pour être énoncées dans le langage ordinaire : ce sont les équations qui nous font connaître ces liaisons avec une grande précision, en nous permettant de calculer telle frange d'interférence, par exemple. Il est donc fort naturel que le physicien ne s'inquiète pas du fait qu'il ne peut rien connaître de l'éther lumineux, ni même de ce que ces propriétés lui apparaissent comme absurdes ou contradictoires ; la seule chose qui lui importe, c'est la correspondance établie par les équations entre certaines données réelles et certaines apparences non moins réelles. On donne certaines sources lumineuses, disposées de telle manière et certains objets matériels, lentilles, prismes, écrans, réseaux, etc., disposés également d'une manière connue par rapport aux sources et l'on observe, sur certains écrans, tels phénomènes de lumière et d'obscurité, qui peuvent être mesurés. Si, lorsque l'on fournit aux équations les données, ces équations restituent les mesures, on doit se déclarer satisfait, sans qu'il soit nécessaire de se préoccuper de la signification ou de l'absence de signification des opérations intermédiaires ou des symboles qui figurent dans les équations.


56. L'emploi des variables imaginaires. — Les considérations précédentes justifient le rôle important que les mathématiciens ont fait jouer, pour des raisons de simplicité à certaines solutions imaginaires des équations de Physique mathématique. On sait que l'étude des équations du second degré a conduit les mathématiciens à définir des nombres qu'ils ont appelés imaginaires par opposition aux nombres réels. Le type le plus simple de l'équation du second degré, auquel se ramène d'ailleurs le cas général, consiste simplement à demander de trouver un nombre x dont le carré est égal à un nombre donné a. Si ce nombre a est un nombre positif, par exemple 4 ou 9, la réponse est 2 ou 3 ; elle est aussi —2 et —3 car le produit des deux nombres négatifs —2 et —2 est le nombre positif 4. Si le nombre a n'est pas carré parfait, mais reste positif, est égal par exemple à 2, on sait extraire sa racine carrée avec autant de décimales que l'on désire ; les deux nombres dont le carré est égal à 2 sont 1,4142... et —1,4142... Mais si le nombre a est négatif, est égal par exemple à —4, il n'y a aucun nombre réel dont le carré est égal à -4, car le produit de deux nombre négatifs, tout comme le produit de deux nombres positifs, est un nombre positif. Cependant, pour bien des raisons, qu'il est difficile d'expliquer en détail, il apparaît comme choquant aux mathématiciens que des équations ayant dans certains cas deux solutions, puissent dans d'autres cas, n'en avoir aucune ; ne peut-on s'arranger pour qu'une équation du second degré ait toujours deux solutions, qu'une équation du troisième degré en ait toujours trois, qu'une équation du quatrième degré en ait toujours quatre, etc. Pour l'équation du second degré, la solution est très facile ; encore fallait-il y penser, comme pour l'oeuf de Colomb. Il suffit de décréter arbitrairement que l'on désigne par la lettre i (initiale du mot imaginaire), une quantité dont le carré est égal à —1. Alors le carré de 2i sera égal à —4, le carré de 3i sera égal à —9, le carré de ai sera égal à —(a^2). Et l'on appellera nombre imaginaire toute expression de la forme a + bi, dans laquelle a et b sont des nombres réels. Cette invention des imaginaires s'est trouvé être d'une fécondité merveilleuse ; on aurait pu craindre qu'après avoir été conduit à créer une imaginaire i pour l'équation du second degré, on fût forcé de créer d'autres imaginaires pour les équations de degré supérieur : il n'en est rien. Une équation algébrique de degré n, dont les coefficients sont des nombres réels ou imaginaires, a toujours n solutions, réelles ou imaginaires. (Parfois, certaines solutions doivent être regardées comme multiples.) L'introduction en analyse mathématique des variables imaginaires a simplifié bien des problèmes et permis de coordonner bien des théories. Comme en algèbre, bien des questions se présentent d'une manière bien plus simple et plus naturelle avec les variables imaginaires. Il en est de même en géométrie ; l'introduction dans les raisonnements d'éléments géométriques imaginaires, points, droites, plans, permet de donner plus de généralité aux théories et de simplifier bien des démonstrations. Par exemple la théorie des coniques homofocales, les propriétés des foyers de l'ellipse et de l'hyperbole se présentent sous la forme la plus simple lorsque l'on définit les coniques homofocales comme toutes les coniques inscrites dans un quadrilatère imaginaire dont deux sommets sont les points (imaginaires) à l'infini communs à tous les cercles du plan, ce quadrilatère admettant en outre, comme sommets réels, les foyers des coniques. Les équations de la physique mathématique, comme un grand nombre d'autres équations différentielles, admettent, en même temps que des solutions réelles, des solutions imaginaires et, là aussi, la considération des solutions imaginaires permet souvent de simplifier les énoncés et de faciliter la solution de problèmes réels. De même que le géomètre, dans ses démonstrations, a intérêt à utiliser des droites imaginaires, le mécanicien et le physicien peuvent avoir intérêt à utiliser des ondes imaginaires. Dans un cas, comme dans l'autre, il s'agit d'un langage commode qui traduit sous une forme imagée les propriétés de certaines formules et de certaines équations. Il peut paraître singulier d'introduire des êtres imaginaires dans des théories dont le but final est de connaître et de prévoir des phénomènes réels. Mais il faut laisser de côté toute préoccupation métaphysique ; il ne s'agit nullement d'expliquer le réel par l'imaginaire, il s'agit simplement d'utiliser les ressources que fournit à l'analyse la théorie des imaginaires pour exposer avec plus de clarté et de simplicité les propriétés de certaines équations réelles. Ce sont ces équations qui constituent la théorie mathématique des phénomènes réels, c'est-à-dire que l'on constate entre les mesures accessibles à nos sens et à nos instruments, certaines relations qui sont précisément exprimées par ces équations ; mais il est commode, dans bien des cas, de remplacer certains calculs par un langage abrégé, de même que le géomètre parle de plans, de droites, de courbes et de surfaces imaginaires, au lieu d'écrire et de combiner les équations correspondantes. L'emploi des imaginaires simplifie beaucoup, notamment certaines formules d'électrotechnique, par exemple dans la théorie des courants alternatifs. Les physiciens se sont ainsi habitués peu à peu à l'idée qu'il pouvait être commode d'introduire dans les raisonnements certains êtres imaginaires, doués de propriétés bien définies, bien que l'ensemble de ces propriétés fût incompatible avec leur existence réelle ; en d'autres termes, au point de vue réel, ces propriétés sont absurdes et contradictoires, comme est absurde et contradictoire l'existence d'un nombre i dont le carré serait égal à moins un. Ces êtres imaginaires peuvent cependant jouer un rôle important dans des raisonnements qui, s'ils sont corrects, conduisent à des conclusions certaines et vérifiables par l'expérience. On peut ainsi avoir l'impression que l'on explique des faits réels à l'aide de ces êtres imaginaires, alors que ceux-ci jouent simplement le rôle d'intermédiaire, de moyen commode pour éviter d'écrire de longs calculs et des équations compliquées. Les physiciens se trouvaient ainsi préparés à accepter les théories audacieuses et parfois déconcertantes qui ont provoqué la révolution scientifique du début du XXème siècle, dont nous parlerons dans notre troisième partie.


57. Les ondes électromagnétiques. - Les progrès expérimentaux réalisés par l'électricité et le magnétisme dans la première moitié du XIXème siècle, grâce aux découvertes célèbres d'Ampère et de Faraday, ont été rapidement accompagnées d'un développement concomitant des théories mathématiques de l'électromagnétisme, théories qui se sont traduites par des équations présentant de grandes analogies avec les équations déjà utilisées en Mécanique et dans les autres branches de la physique mathématique (optique, élasticité, propagation de la chaleur, etc.). C'est Maxwell qui mit un terme à une série de tâtonnements et qui donna aux équations de l'électromagnétisme une forme qui fut pendant un demi-siècle, regardée comme définitive. Ce sont les équations de Maxwell qui ont permis à Hertz de découvrir les ondes qui portent son nom et dont on sait l'importance qu'elles ont prise à la suite de la découverte de la T. S. F. par Marconi, découverte préparée par les travaux de Branly et d'autres précurseurs. Le fait capital, qui fut à l'origine de tous les progrès réalisés par la physique depuis un demi-siècle, est le suivant : la vitesse de propagation des ondes hertziennes est la même que la vitesse de la lumière. Cette vitesse de la lumière peut ainsi être calculée par des méthodes purement électriques, méthodes dont les résultats concordent d'une manière parfaite avec les méthodes optiques. La théorie nouvelle de l'électromagnétisme paraissait ainsi pouvoir se rattacher aux théories relativement anciennes de l'optique ; en fait, c'est le contraire qui se produisit et c'est la théorie ancienne qui fut rapidement absorbée par la théorie nouvelle : ce fut la théorie électromagnétique de la lumière qui prit naissance à la suite des découvertes de Maxwell.


58. Les analogies avec la Mécanique. — Les analogies de l'électromagnétisme avec les théories mécaniques apparaissaient comme moins naturelles que pour les théories optiques : la dualité même et les relations intimes entre l'électricité et le magnétisme introduisaient des complications inévitables. Il subsistait néanmoins d'importantes analogies : d'une part, la théorie du potentiel électrostatique continuait, malgré la complication due à l'existence de deux fluides électriques de signes contraires, à s'apparenter de très près à la théorie du potentiel newtonien ; d'autre part, soit la propagation le long des conducteurs, soit la propagation des ondes, conduisaient à des équations obtenues par des raisonnements analogues aux raisonnements de la mécanique. L'introduction dans les raisonnements d'atomes d'électricité (électrons) et d'atomes matériels chargés d'électricité (ions) conduisait à des théories relevant de la mécanique statistique, dont nous parlerons dans le prochain chapitre. Rien ne paraissait donc s'opposer à ce que des explications calquées sur les théories de la mécanique permettent d'expliquer les phénomènes électromagnétiques aussi bien que les phénomènes optiques.


  • Chapitre VI
  • La Mécanique Statistique


59. La théorie cinétique des gaz. — On peut faire remonter à l'antiquité l'histoire de l'hypothèse atomique (Epicure, Lucrèce). Mais c'est seulement au XVIIIème siècle que cette hypothèse a pris place dans la science avec Bernoulli, qui a suggéré que la pression exercée par un gaz contre une paroi pouvait s'expliquer par le choc contre cette paroi des molécules du gaz en mouvement incessant. La pression du gaz augmentant lorsque s'accroît la température, on devait en conclure que cette élévation de la température a pour effet d'augmenter la vitesse des molécules, c'est-à-dire leur énergie cinétique. On devait ainsi être conduit à étendre à la chaleur le principe de la conservation de l'énergie ; il y a équivalence entre l'énergie calorique fournie à un gaz par un corps plus chaud ou par une réaction chimique (la combustion, par exemple) et l'augmentation de l'énergie cinétique des molécules de ce gaz. En même temps, l'intervention des machines à vapeur montrait que l'énergie calorique pouvait, par l'intermédiaire d'un gaz et d'une vapeur, être transformée en énergie mécanique, se traduisant par la mise en marche d'une locomotive ou d'un bateau. L'étude des machines à feu a donné naissance à la thermodynamique, qui s'est développée d'abord indépendamment de la théorie cinétique des gaz, jusqu'au moment où cette théorie cinétique, sous l'impulsion de Maxwell et de Boltzmann, a pris un grand développement et a conduit Gibbs à créer la Mécanique statistique, laquelle n'est autre chose qu'une thermodynamique fondée sur la Mécanique rationnelle et sur le calcul des probabilités.


60. Maxwell et la répartition des vitesses. — Le progrès fondamental réalisé par Maxwell dans la théorie cinétique des gaz est la découverte de la loi de répartition des vitesses entre les molécules d'un gaz à une température déterminée. Lorsque l'on considère une certaine masse de gaz, renfermée dans un récipient, à une température déterminée, les molécules de ce gaz ont une certaine vitesse moyenne ; plus exactement, la somme des énergies cinétiques de ces molécules est constante, c'est-à-dire que la somme des carrés de leurs vitesses est constante, ce qui revient à dire que la moyenne des carrés de ces vitesses est constante. Mais ces vitesses sont forcément inégales, si l'on admet que les molécules se rencontrent très fréquemment deux à deux et que ces chocs produisent des échanges de vitesse suivant les lois obtenues par les mécaniciens pour les sphères parfaitement élastiques ; d'après ces lois, il doit y avoir, après le choc, conservation de la force vive totale des deux molécules et conservation de la somme de leurs quantités de mouvement ; ces deux conditions définissent les vitesses après le choc, lorsque l'on connaît les vitesses avant le choc. Maxwell a montré que l'effet des chocs devait amener, au bout d'un temps extrêmement court, à établir pour les vitesses une répartition stable moyenne, suivant une loi bien déterminée à laquelle est resté attaché le nom de Maxwell. Voici comment l'on peut se représenter la loi de Maxwell. Prenons (fig. 23) un point fixe O et, pour chaque molécule M du gaz, menons par O un vecteur OV égal et parallèle à la vitesse de M ; nous obtiendrons ainsi autant de points V qu'il y a de molécules et la répartition de ces points V autour du point fixe O donnera une représentation exacte de la répartition des vitesses. Imaginons deux plans parallèles extrêmement voisins P et P' de part et d'autre du point O ; si la distance de ces deux plans est très petite, nous pourrons regarder tous les points V situés entre ces deux plans comme situés dans un plan passant par O. La distribution des points V dans ce plan (fig. 24) est alors exactement comparable à la distribution des points d'impact d'un très grand nombre de balles tirées avec un même fusil par un tireur qui viserait le point O, en supposant toutefois que la dispersion du tir est isotrope, c'est-à-dire est la même dans toutes les directions (1) autour de O. On sait que cette répartition a lieu suivant la loi connue sous le nom de la loi de Laplace-Gauss, représentée géométriquement par une courbe dite chapeau de gendarme. (fig. 25). Les vitesses moyennes des molécules sont, pour les gaz usuels et à la température ordinaire, de plusieurs centaines de mètres par seconde (elles dépassent mille pour l'hydrogène) ; on pourra, pour construire les points V, prendre une échelle réduite, par exemple d'un centimètre par mètre et les points V se répartiront alors dans un voisinage de quelques mètres autour du point O, ce qui peut correspondre à la dispersion d'un tir effectué à plusieurs kilomètres de distance. La densité des points V c'est-à-dire le nombre de ces points par millimètre cube, diminue à mesure que l'on s'éloigne du point O ; si l'on considère des sphères concentriques de centre O et dont les rayons croissent millimètre par millimètre, le volume compris entre deux sphères consécutives croît proportionnellement aux carrés de leurs rayons ; cette augmentation de volume compense d'abord fort largement la diminution de densité et le nombre des points V compris entre deux sphères augmente d'abord quand le rayon des sphères augmente ; il atteint son maximum lorsque le rayon de la sphère est égal à la vitesse moyenne et il commence alors à décroître, d'abord lentement, puis très rapidement, jusqu'à devenir à peu près nul lorsque la vitesse dépasse 4 ou 5 fois la vitesse moyenne.

  • (1) Si l'on suppose, comme c'est le cas ordinaire, le plan qui sert de cible perpendiculaire à la ligne de tir, il arrivera en général que la dispersion latérale du tir ne sera pas la même que la dispersion en hauteur, de sorte que les régions où la densité des balles sera la même seront distribuées sur des ellipses de centre O et non sur des cercles. On peut ramener les ellipses à être des cercles en inclinant le plan cible par rapport à la ligne de tir ; c'est ce que nous supposons.


61. La loi de Maxwell est une loi statistique. — Les explications que nous venons de donner mettent en évidence le caractère essentiel de la loi de Maxwell : c'est une loi statistique, c'est-à-dire une loi dont l'énoncé fait appel à la notion de probabilité. C'est le premier exemple de l'introduction des probabilités dans une loi physique dont les conséquences sont expérimentalement vérifiables avec une rigoureuse exactitude. Insistons un peu sur ce caractère statistique de la loi de Maxwell. Cette loi fait connaître, en chaque région de l'espace qui entoure le point O, la densité moyenne des points V dans cette région. Comme les molécules d'un gaz sont très nombreuses, de l'ordre de millions de milliards de milliards pour un litre, la densité des points V est très considérable : si, comme nous l'avons fait, nous choisissons les unités de manière que les points V soient situés pour la plupart dans un rayon d'une dizaine de mètres autour du point O, un tel volume renfermera des milliers de milliards de millimètres cubes ; il y aura néanmoins dem milliers de milliards de points V dans chaque millimètre cube. On sait que, lorsque l'on connaît une répartition moyenne due au hasard, les écarts par rapport à cette répartition moyenne sont de l'ordre de grandeur de la racine carrée des nombres moyens, c'est-à-dire que si le nombre moyen est de 1.000 milliards, on devra considérer comme normal un écart d'un million. Mais, un écart dix fois supérieur, c'est-à-dire de 10 millions, sera extrêmement peu probable et un écart de 100 millions aura, une probabilité si faible qu'il ne se produira jamais. Or, de tels écarts sont relativement insignifiants par rapport à mille milliards, et c'est pourquoi la loi de Maxwell, bien qu'étant une loi de probabilité, conduit cependant à des conséquences rigoureusement exactes.


62. Mélange des gaz. — On se rendra mieux compte encore de ce fait qu'une loi statistique peut être aussi rigoureuse que toute autre loi, en étudiant un problème plus simple que celui de la répartition des vitesses, celui du mélange de deux gaz. Si l'on fait communiquer par une large ouverture deux récipients égaux, d'un litre chacun, renfermant sous la même pression deux gaz, azote et oxygène par exemple, on constate qu'au bout d'un temps assez court les deux gaz se sont mélangés ; si l'on ferme alors l'ouverture qui faisait communiquer les deux récipients, chacun d'eux renferme des proportions sensiblement égales d'azote et d'oxygène. On peut dire que les mouvements désordonnés des molécules ont eu pour effet de donner à chacune des molécules d'azote ou d'oxygène des chances égales de se trouver dans l'un ou l'autre des récipients ; on devait donc s'attendre à ce que environ la moitié du nombre des molécules d'oxygène se trouve dans chacun des récipients et de même pour l'azote. Supposons maintenant que nous fassions à nouveau communiquer les récipients par la même large ouverture ; peut-on espérer qu'au cours du temps, il pourra arriver que tout l'oxygène se trouve à nouveau dans le récipient de droite et tout l'azote dans le récipient de gauche. Le simple bon sens nous assure qu'un tel espoir est illusoire ; le calcul des probabilités permet de préciser cette réponse et d'affirmer que la composition du mélange sera la même dans les deux récipients, à moins d'un milliardième près ; c'est-à-dire que nos méthodes d'analyse les plus précises ne pourront, à aucun moment, les deux récipients ayant été séparés, déceler une différence appréciable entre la composition du mélange contenu dans le premier et dans le second récipient. Nous devons admettre que tout se passe comme si, pour chaque molécule d'azote et d'oxygène, on tirait au sort pour savoir si elle doit se trouver à droite ou à gauche. Nous devrons faire autant de tirages au sort qu'il y a de molécules, c'est-à-dire des millions de milliards de milliards. Chacun de ces tirages au sort peut désigner la droite D ou la gauche G et nous obtenons ainsi une suite telle que la suivante :

(S) DDGGGDGGDDGDDDGGGD...

où les lettres D et G alternent irrégulièrement. Nous ne savons rien des lois de cette alternance et nous devons admettre que toutes les suites analogues à (S), comprenant des millions de milliards de milliards de lettres D ou G sont toutes aussi probables les unes que les autres. Mais, parmi ces suites, celles dans lesquelles les nombres de D et de G sont à peu près égales (leur écart étant très petit par rapport au nombre total et étant inférieur à un million de milliard) sont infiniment plus nombreuses que les autres, ces dernières étant tellement rares qu'on n'a aucune chance de les rencontrer. La probabilité pour que l'on rencontre une suite (S) dans laquelle la proportion des G dépasserait d'un milliardième la proportion des D est analogue à la probabilité pour que s'accomplisse le miracle des singes dactylographes, c'est-à-dire pour que des millions de singes, en tapant au hasard sur des machines à écrire, reconstituent exactement tous les ouvrages qui sont à la Bibliothèque Nationale (1).

  • (1) Voir Emile Borel, "Le Hasard".


63. Les phénomènes irréversibles. — Le mélange de deux gaz, dont nous venons de parler, est un des exemples les plus simples des phénomènes irréversibles, c'est-à-dire tels que, lorsqu'ils se sont produits naturellement, le retour à l'état initial est beaucoup moins naturel et ne peut être obtenu que par des méthodes compliquées, nécessitant une dépense d'énergie souvent considérable. Les physiciens et les chimistes ont effectivement de nombreuses méthodes pour séparer l'azote et l'oxygène mélangés dans un récipient, de telle manière que l'azote se trouve tout entier dans un nouveau récipient et l'oxygène tout entier dans un autre ; mais ces méthodes sont bien plus coûteuses et plus compliquées que le procédé fort simple avec lequel a été obtenu le mélange ; il a suffi d'enlever une cloison qui séparait deux récipients et ce mélange s'est fait, en quelque sorte, tout seul. Il en est de même d'un phénomène fort important en thermodynamique, l'équilibre de température qui se produit spontanément, après un temps plus ou moins long, lorsqu'on met en présence deux ou plusieurs corps de températures différentes. Ce phénomène est irréversible car on ne peut revenir à l'état initial qu'en dépensant du travail. C'est là un cas particulier du second principe de la thermodynamique, dû à Clausius et qui exprime que l'entropie d'un système va constamment en croissant. On peut le traduire avec Jeans, d'une manière pittoresque, en disant qu'il est impossible de chauffer un four avec de la glace, en espérant que le refroidissement de la glace compenserait le réchauffement du four. Dans le cas des gaz, l'équilibre de température dans un mélange s'établit rapidement grâce aux chocs très fréquents des molécules entre elles ; la loi de distribution des vitesses évolue très vite en se conformant aux prévisions de Maxwell. On peut observer que, d'après la loi même de Maxwell, les vitesses des molécules d'un même gaz, à une température donnée, sont très différentes entre elles, ce que l'on peut exprimer en disant que les températures de ces molécules sont différentes, si l'on convient, comme il est naturel, d'appeler température d'une molécule un nombre proportionnel à son énergie cinétique. Pour séparer un gaz en deux portions, dont les températures seraient différentes, il suffirait donc de savoir trier les molécules, de manière à mettre à droite les plus rapides et à gauche les plus lentes. Maxwell imagine un récipient séparé en deux par une cloison percée de trous très petits ; à côté de chacun de ces trous, se trouve un être minuscule, le démon de Maxwell, qui peut, à volonté, obturer ce trou ou le laisser ouvert. Ce démon a les yeux assez perçants pour voir venir les molécules et apprécier leur vitesse ; il peut donc manoeuvrer l'obturateur mobile de manière que les molécules les plus rapides s'accumulent à droite et les molécules les plus lentes à gauche ; il réalise ainsi la séparation de deux grammes de gaz à 50 degrés en un gramme à 0 degrés et un gramme à 100 degrés. Il est à peine besoin de dire que l'expérience idéale imaginée par Maxwell est irréalisable ; avec les hypothèses les plus favorables, le travail dépensé serait énorme par rapport au résultat obtenu : c'est bien d'ailleurs ce que n'ignorait pas Maxwell.


64. La mécanique statistique. — Gibbs a généralisé la théorie cinétique des gaz en étudiant les propriétés statistiques d'un système mécanique quelconque dépendant d'un nombre très grand de paramètres, les hypothèses sur la nature de ce système étant fort générales, pourvu toutefois que l'on puisse l'étudier au moyen des équations générales de la Mécanique. Il est alors possible de définir la probabilité pour que les paramètres qui définissent le système soient compris entre certaines limites ; la définition correcte de cette probabilité exige qu'elle soit invariante au cours du mouvement ; cette invariance, lorsque l'on choisit les variables canoniques de Hamilton, est une conséquence de la théorie des invariants intégraux. Le résultat fondamental de la mécanique statistique est alors tellement simple, qu'il apparaît comme une vérité presque évidente : les états du système que l'on a quelque chance d'observer sont les états les plus probables, à l'exclusion des états dont la probabilité est extraordinairement petite. Cet énoncé se trouve être équivalent au deuxième principe de la thermodynamique, ou principe de l'accroissement de l'entropie. On démontre, en effet, que l'entropie est égale au logarithme de la probabilité (à une constante additive près) et que, par suite, l'entropie croît lorsque la probabilité croît. Le principe de Clausius ou principe d'évolution s'énonce alors sous la forme simple : tout système évolue vers les états les plus probables. Il ne faut cependant pas se tromper à la simplicité apparente de ces énoncés, qui apparaissent presque comme des tautologies ; ils n'auraient aucun sens, si des calculs difficiles basés sur la théorie générale des équations de la dynamique n'avaient permis de démontrer qu'il est possible de donner de la probabilité une définition correcte c'est-à-dire une définition qui ne conduit pas à des absurdités et à des contradictions.


65. Le paradoxe de la réversibilité. — Si l'on admet, comme l'ont fait les créateurs de la théorie cinétique des gaz, que les propriétés des gaz peuvent être déduites des équations de la Mécanique, appliquées aux molécules regardées comme des solides parfaits, parfaitement élastiques, il se présente une difficulté en apparence insurmontable. Les équations de la mécanique expriment une relation entre les forces, les masses et les accélérations ; elles conservent donc exactement la même forme lorsqu'on change le signe du temps, c'est-à-dire lorsqu'on change t en —t ; tous les phénomènes mécaniques sont donc réversibles et il en est donc ainsi, en particulier, des propriétés des gaz ; il n'est donc pas possible que l'entropie croisse avec le temps, car elle devrait croître également lorsque le temps croît par valeurs négatives, c'est-à-dire décroît en réalité. Cette objection, dite objection de Loschmidt, a beaucoup préoccupé les théoriciens ; elle a beaucoup moins de valeur lorsqu'on se place au point de vue pratique. Considérons, par exemple, comme nous l'avons déjà fait, le cas du mélange de deux gaz, oxygène et azote. Il n'est pas douteux que si, après avoir laissé s'effectuer ce mélange, il était possible de renverser exactement les vitesses de toutes les molécules, les conditions extérieures, c'est-à dire les parois, restant exactement semblables à elles-mêmes, les mouvements qui se sont produits se reproduiraient exactement en sens inverse et l'on reviendrait à l'état initial (séparation complète des deux gaz) au bout d'un temps précisément égal à celui qui a été nécessaire pour produire le mélange. Mais, outre que nous ne voyons pas du tout comment pourrait être pratiquement réalisée cette modification brusque des vitesses qui ferait rebrousser chemin à chaque molécule, il est aisé de voir que, même si l'on supposait résolue cette difficulté initiale, la conclusion ne subsisterait pas, car il est impossible d'admettre que les conditions extérieures sont rigoureusement les mêmes. Or, la plus minime variation dans les propriétés physiques de la paroi, l'élévation ou la diminution de la température d'un millième de degré, par exemple, aurait pour résultat de modifier les mouvements des molécules. Si minime que soit cette modification, elle serait très rapidement amplifiée par les chocs innombrables qui se produisent entre les molécules et, au bout d'une fraction de seconde, le mouvement renversé serait devenu entièrement différent du mouvement initial ; ce ne seraient plus les mêmes molécules qui se rencontreraient et il n'y aurait aucune raison pour que l'on reconstitue l'état primitif : il y aurait, au contraire, toutes les raisons pour que l'on n'obtienne pas cet état fort peu probable. Il y a une certaine analogie entre cette impossibilité d'obtenir un état fort peu probable et l'impossibilité pour un corps de rester dans une position d'équilibre instable. Si, avec beaucoup d'adresse, nous arrivons à mettre en équilibre une toupie sur sa pointe, il suffira du plus léger souffle d'air, du moindre tremblement du sol, peut-être de la chute d'un grain de poussière, pour qu'elle s'écarte de cette position d'équilibre et, si faible que soit cet écart, il tendra à s'accroître rapidement, la toupie tombera sur le flanc et ne se relèvera pas.


66. L'équipartition de l'énergie. — L'un des résultats les plus intéressants de la théorie cinétique des gaz et de la mécanique statistique est le théorème de l'équipartition do l'énergie, d'après lequel l'énergie totale d'un système se répartit en moyenne d'une manière égale entre les divers degrés de liberté. Précisons cette notion de degré de liberté : une sphère homogène a trois degrés de liberté, car sa position est bien déterminée lorsque l'on connaît les coordonnées de son centre ; au contraire, un cube a six degrés de liberté, car, lorsque son centre est fixé, on peut l'orienter autour de ce centre d'une triple infinité de manières différentes ; s'il reçoit des chocs, certains d'entre eux le feront tourner sur lui-même, tandis que les chocs élastiques (sans frottement) ne peuvent imprimer de rotation à la sphère. Les vitesses moyennes des molécules gazeuses, à une température donnée, sont donc inversement proportionnelles à la racine carrée des poids atomiques, car le produit m*(v^2) doit être le même. C'est ainsi que la vitesse moyenne des molécules d'hydrogène est quadruple de la vitesse moyenne des molécules d'oxygène à la même température, car le poids atomique de l'oxygène est égal à 16 fois celui de l'hydrogène. Jean Perrin a eu l'idée d'étudier les mouvements de grains suspendus dans un liquide et aussi petits que possible, tout en étant observables au microscope. Ces grains sont énormes par rapport aux molécules et leurs vitesses moyennes sont, par suite, beaucoup plus faibles. Les mouvements irréguliers de ces grains, appelés mouvements browniens, du nom de Brown qui attira le premier l'attention sur ce phénomène, sont une image agrandie de l'agitation moléculaire. L'observation patiente de ces phénomènes conduisit Jean Perrin à une évaluation précise des dimensions et des vitesses des molécules ; et cette magnifique série d'expériences put être considérée comme la première preuve expérimentale de la réalité des atomes et des molécules. L'étude des chaleurs spécifiques des corps solides confirme la théorie de l'équipartition de l'énergie ; une étude purement géométrique démontre qu'une molécule, considérée comme un corps solide de forme inconnue, peut avoir 3 degrés de liberté (si elle est sphérique), 5 degrés de liberté (si elle est de révolution autour d'un axe), ou 6 degrés de liberté (si elle n'a pas d'axe de révolution) ; le cas de 4 degrés de liberté ne peut se présenter. L'expérience prouve que les chaleurs spécifiques moléculaires des corps solides sont effectivement proportionnelles aux nombres 3, 5 et 6, à l'exclusion du nombre 4. L'expérience confirme donc entièrement les conclusions de la théorie cinétique des gaz, conclusions basées sur l'application des équations classiques de la mécanique à l'étude des mouvements des molécules.


67. La mécanique à la fin du XIXème siècle. - A la fin du XIXème siècle, la mécanique apparaissait ainsi à beaucoup de savants comme la science universelle qui dominait toutes les autres, et dont les méthodes devaient permettre d'expliquer, c'est-à-dire de prévoir, tous les phénomènes naturels. Malgré des difficultés occasionnelles, malgré certaines obscurités, les équations fondamentales de la mécanique dominaient la science ; comme nous venons de le voir, elles permettaient aux astronomes de prévoir avec précision tous les phénomènes observés dans le ciel ; elles fournissaient aux physiciens des modèles pour bâtir les théories de la lumière et de l'électricité ; la thermodynamique elle-même, grâce à la théorie cinétique des gaz et à la mécanique statistique, était devenue une branche de la mécanique. Pour compléter ce tableau, il convient d'énumérer rapidement quelques branches de la science qui ne sont que des rameaux de la mécanique et de dire également quelques mots du progrès des arts mécaniques.


68. L'élasticité. — Nous savons déjà que le corps solide absolument indéformable de la mécanique rationnelle est une pure abstraction. Il est cependant certains corps qui, grâce à leur rigidité, se comportent pratiquement comme s'ils étaient indéformables, aussi longtemps du moins qu'ils ne sont pas soumis à des forces trop considérables. Tel est le cas d'un bloc d'acier. Cependant, ces corps qui réalisent l'image la plus parfaite du corps solide théorique des mécaniciens, subissent de légères déformations sous l'action de forces suffisamment grandes et reprennent ensuite leur état primitif lorsque ces forces cessent d'agir. L'élasticité est la branche de la mécanique qui s'occupe de ces déformations temporaires, auxquelles on a donné le nom de déformations élastiques ; les forces élastiques sont les forces qui se trouvent mises en jeu, à l'intérieur des corps, par les déformations élastiques et qui font équilibre aux forces extérieures sous l'action desquelles se produisent ces déformations. Pour mettre en équations les problèmes posés par les phénomènes d'élasticité, on fait l'hypothèse qu'un corps élastigue, tel qu'une masse d'acier, peut être décomposé en éléments assez petits pour qu'on puisse leur appliquer les formules du calcul différentiel et intégral, formules qui supposent les éléments infiniment petits. On doit supposer, en outre, que ces éléments très petits sont homogènes, ce qui revient à admettre qu'ils sont grands par rapport aux dimensions des molécules ; celles-ci n'interviennent donc pas dans les formules, sinon par la valeur des forces élastiques, lesquelles sont évidemment dues à leurs réactions mutuelles : mais il n'est pas nécessaire d'étudier en détail le mécanisme par lequel ces forces sont produites ; il suffit d'admettre que l'on connaît leurs valeurs en fonction des déformations très petites que l'on a à étudier. C'est la comparaison des résultats théoriques avec l'expérience qui permettra de calculer les valeurs exactes des forces élastiques et l'exactitude de la théorie sera confirmée par le fait que des phénomènes divers (flexion, allongement, torsion, etc.) se trouvent numériquement calculés au moyen des mêmes valeurs des forces élastiques. Comme en Mécanique générale, on peut distinguer en élasticité une statique, une cinématique, une dynamique. La première étude dynamique des phénomènes élastiques a été celle des cordes vibrantes ; l'équation qui régit leurs vibrations a été établie au XVIIIème siècle ; son étude approfondie a montré que les vibrations complexes que l'on peut observer peuvent être regardées comme résultant de la superposition d'un certain nombre de vibrations simples, dont les périodes sont caractéristiques de la corde étudiée ; ces périodes sont la période principale et ses harmoniques, liées avec elle par des relations numériques simples. Dans le cas d'un corps élastique quelconque il y a également un grand nombre de périodes propres (théoriquement, une infinité, comme il y a théoriquement une infinité d'harmoniques), mais ces périodes sont reliées entre elles par des relations moins simples que dans le cas de la corde vibrante.


69. La capillarité. — Les phénomènes de capillarité, observés dès la plus haute antiquité, sont des phénomènes qui se produisent au contact d'un corps liquide et d'un corps solide, en particulier lorsque le corps solide a une forme ou une structure particulières qui permettent au liquide de pénétrer dans de petits interstices artificiels ou naturels. C'est ainsi que, si l'on plonge verticalement dans une surface d'eau horizontale un tube de verre très étroit, ouvert aux deux bouts, l'eau s'élève dans le tube une certaine hauteur au-dessus du niveau horizontal de l'eau ; on observe un fait analogue si l'on plonge dans l'eau un morceau de sucre ou, dans l'huile, une mèche de coton. ll se produit également des phénomènes de capillarité au contact de deux liquides différents ; une goutte d'huile qui surnage sur l'eau peut, dans certaines conditions, conserver sa cohésion au lieu de former, comme on aurait dû s'y attendre d'après les lois de l'hydrostatique, une surface plane horizontale. Les phénomènes de capillarité ont été étudiés par des méthodes analogues aux méthodes de l'élasticité ; on décompose par la pensée les corps en présence, solides et liquides, en éléments très petits et cependant assez grands par rapport aux molécules, pour qu'on puisse les considérer comme homogènes ; on admet l'existence de forces, dites forces capillaires, qui s'exercent entre ces éléments lorsqu'ils sont suffisamment voisins. On peut considérer l'étude des lames minces de liquides, lames dont les dimensions sont de l'ordre des dimensions moléculaires, comme se rattachant également à la capillarité.


70. L'acoustique. — L'acoustique est une science très complexe dont le développement n'a été possible que grâce aux progrès de la Mécanique. Ce sont les équations de la mécanique qui permettent d'étudier d'une manière précise la nature des vibrations sonores produites par les instruments de musique, qu'il s'agisse d'instruments à cordes ou d'instruments à vent. La vibration principale est généralement accompagnée de vibrations secondaires ou harmoniques auxquelles est due une qualité particulière du son musical que l'on appelle timbre. La propagation des vibrations sonores, tout comme leur production, relève directement des équations de la mécanique. On peut ainsi étudier la vitesse du son dans les gaz, ses variations avec la nature du gaz et avec sa température, la vitesse du son dans les liquides et dans les solides. L'audition des sons au moyen de l'oreille est un phénomène physiologique, mais dans lequel interviennent également des phénomènes purement mécaniques ; la perception, grâce à nos deux oreilles, de la direction d'où vient le son, peut être améliorée au moyen d'instruments spécialement inventés à cet effet. La musique, ou art de combiner les sons de manière à plaire aux auditeurs, relève de l'esthétique et non de la mécanique ; il est cependant remarquable que les intervalles musicaux, que combinent les compositeurs, soient caractérisés par des rapports numériques simples entre les nombres de vibrations sonores. La reproduction du son par le phonographe et sa transmission à distance par le téléphone ou par les ondes hertziennes, font intervenir également des phénomènes qui relèvent de la mécanique.


71. Les phénomènes de frottement. — L'étude du frottement est une des parties les plus importantes de la mécanique pratique, car, en bien des cas, c'est au frottement que sont dues les différences principales entre les phénomènes que prédit la mécanique rationnelle et les phénomènes réellement observés. Le frottement statique a pour effet de maintenir immobiles des corps qui devraient se mettre en mouvement, lorsque les forces appliquées sont suffisamment faibles. Tel est le cas, par exemple, pour un lourd pavé reposant par une surface plane sur un plan incliné ; si l'inclinaison du plan est faible, comme c'est le cas pour une route même lorsque la pente de la route paraît considérable à un bicycliste, le pavé reste immobile au lieu de glisser le long de la pente. Si, au lieu d'un pavé, nous avons une sphère, comme une bille, qui peut rouler au lieu de glisser, elle pourra se mettre en mouvement sur une pente telle que le pavé reste immobile ; la bille elle-même restera immobile si la pente devient assez faible, surtout si le sol est rugueux. De telles expériences, banales depuis des siècles, ont mené à distinguer le frottement de glissement et le frottement de roulement ; cette distinction subsiste dans l'étude dynamique du frottement. C'est pour substituer le frottement de roulement au frottement de glissement que les hommes ont, depuis des siècles, inventé et utilisé la roue. Le ski ou le traîneau peuvent cependant être employés avec profit sur des surfaces de neige pour lesquelles le frottement de glissement est très faible. Nous ne pouvons énumérer et discuter ici toutes les recherches théoriques des mécaniciens sur le frottement ; ces recherches ont donné lieu à des objections et même à des contradictions qui ont été élucidées seulement à la fin du XIXème siècle, par les beaux travaux de Painlevé. Parallèlement à ces recherches théoriques, les praticiens de la mécanique s'efforçaient de diminuer les frottements en modifiant la nature physique ou chimique des corps mis en présence : emploi des surfaces polies, roues munies de bandages en caoutchouc, etc, etc. Le frottement des liquides en contact avec les solides et les frottements internes des liquides, ou phénomènes de viscosité, ont été également étudiés par les mécaniciens. Ces phénomènes jouent un grand rôle dans l'hydraulique et notamment dans l'étude des phénomènes dont sont le siège les canalisations où circulent les liquides.


72. La balistique. — L'étude du mouvement des projectiles lancés par les armes à feu se divise en deux parties : la balistique intérieure, qui étudie le mouvement du projectile à l'intérieur du canon et la balistique extérieure, qui étudie le mouvement dans l'air libre. La balistique intérieure doit faire intervenir surtout la nature physique et chimique des explosifs, tandis que la balistique extérieure, une fois les conditions initiales connues, n'a à tenir compte que de l'influence de l'air, en repos ou en mouvement. S'il est possible de connaître avec quelque exactitude la densité de l'air et même la vitesse du vent aux diverses altitudes, il est de nombreuses circonstances de détail qui ne peuvent être prévues ; les conditions initiales elles-mêmes ne sont pas rigoureusement connues, car elles sont influencées par les plus minimes variations dans la fabrication du projectile et de la cartouche d'explosif. Les calculs balistiques les plus précis ne permettent donc que de déterminer les trajectoires moyennes ; les points de chute réellement observés sont toujours plus ou moins dispersés autour d'un point moyen. Cette dispersion suit les lois du calcul des probabilités ; c'est l'exemple le plus répandu d'un phénomène dont les équations de la mécanique ne permettent pas la prévision exacte, mais seulement une prévision statistique. L'étude expérimentale de la résistance opposée par l'atmosphère au mouvement des projectiles a contribué à faire progresser l'aérodynamique ; l'étude des phénomènes sonores particuliers, qui se produisent lorsque la vitesse du projectile est supérieure à la vitesse du son dans l'air (onde de choc), est également fort instructive.


73. La navigation. — La navigation pose de nombreux problèmes mécaniques, dont le plus important est celui de la stabilité de l'équilibre d'une masse flottante, stabilité qui fut obtenue en abaissant le centre de gravité du navire et de son chargement au moyen du lest. D'autres problèmes se posent dès que l'on désire augmenter la vitesse des embarcations ; leur forme doit être choisie de manière à diminuer le plus possible les résistances. Ce problème fut tout d'abord résolu d'une manière empirique ; ce n'est qu'à une époque relativement récente que se sont réellement développées les recherches théoriques et expérimentales sur les meilleures formes de carènes. On a souvent fait remarquer que les progrès réalisés dans la construction navale ont été réalisés d'une manière en quelque sorte automatique en copiant ou imitant les embarcations qui avaient survécu à de nombreuses années de navigation ; celles qui présentaient de graves défauts ont été brisées ou englouties par la mer et n'ont donc pu servir de modèles. Le problème de la navigation sous-marine et celui de la navigation aérienne sont beaucoup plus difficiles que celui de la navigation à la surface de séparation de l'eau et de l'air ; la construction des sous-marins et des aéroplanes, outre le problème de la forme des carènes, pose de nombreux autres problèmes de mécanique et fait intervenir la compressibilité de l'eau et les lois de la résistance de l'air. Le problème de la propulsion a été résolu pendant des siècles au moyen de la navigation à voile, bien plus économique que l'aviron, puisqu'elle utilisait une force naturelle gratuite, le vent. On peut observer qu'un vent régulier crée un champ de forces tout à fait analogue à celui de la pesanteur, avec cette différence que les lignes de force, au lieu d'être verticales, sont horizontales et parallèles à la direction du vent. La méthode du louvoyage qui permet de diriger un bateau pourvu d'une quille et d'un gouvernail vers une direction quelconque par rapport à la direction du vent, pose de nombreux problèmes de mécanique fort intéressants. Il est assez curieux d'observer que de nombreuses expressions employées par les marins naviguant à la voile (être sous le vent, monter au vent), sont calquées sur le langage ordinaire qui est relatif au champ de force de la pesanteur, mais sont transposées dans le champ de force créé par le vent, seul champ de force intéressant pour le navigateur à la voile, qui n'a pas à tenir compte de la pesanteur, puisqu'il se meut dans un plan horizontal. Le vol des planeurs ou aéroplanes sans moteur, pose des problèmes qui ne sont pas sans analogie avec ceux de la navigation à voile. L'utilisation des machines à feu, dont nous parlerons au prochain paragraphe, a permis l'emploi de moyens de propulsion mécanique, roues à aubes et surtout hélices ; là encore, se sont posés et ont été résolus d'intéressants problèmes de mécanique.


74. Les machines à feu. — L'invention des machines à vapeur ne fut pas seulement l'origine d'un développement extraordinaire des machines de toute espèce, en fournissant à ces machines la force motrice nécessaire ; elle fut également l'origine de recherches théoriques qui mirent en évidence les analogies et les différences de l'énergie thermique et de l'énergie mécanique. Les analogies se traduisent par le premier principe de la thermodynamique, qui fixe l'équivalent mécanique de la chaleur ; c'est le principe d'équivalence. Les différences se traduisent par le second principe, ou principe d'évolution, d'après lequel l'entropie ne cesse d'augmenter, de sorte que tout phénomène conduisant à une augmentation d'entropie est irréversible. La combinaison des deux principes permet de calculer le rendement théorique d'une machine à feu, c'est-à-dire la fraction de l'énergie calorique qui peut être effectivement transformée en énergie mécanique ; ce rendement est d'autant plus élevé que l'écart de température réalisé par la machine à feu est plus grand par rapport à la température absolue : d'où la supériorité du moteur à explosion sur la machine à vapeur. L'augmentation des vitesses des locomotives et des automobiles conduisit au progrès des études sur les moyens de diminuer la résistance de l'air ; ce n'est que récemment que fut mise en évidence l'importance de la forme de la partie arrière du corps qui se déplace dans l'air, importance qu'aurait pu faire deviner l'observation des formes des poissons et des oiseaux. La plupart des machines à feu produisent le mouvement alternatif d'un piston ; la transformation de ce mouvement en mouvement circulaire continu, sensiblement uniforme, a posé bien des problèmes de cinématique et de dynamique. L'emploi des turbines permet d'éviter, lorsque les puissances en jeu sont très considérables, les inconvénients qui pourraient résulter du calcul approché de certaines solutions de ces problèmes, cependant excellentes pour des puissances moyennes.


75. Le perfectionnement des appareils mécaniques. - Les progrès de la cinématique, les progrès réalisés dans la fabrication et la qualité des métaux, notamment des aciers, les puissances considérables mises à la disposition de l'homme par les machines à feu, ont eu pour conséquence, au cours du XIXème siècle un développement prodigieux des machines de toute sorte. Le XVIIIème siècle avait connu la mode des automates ; d'ingénieux constructeurs avaient, à force de patience, réalisé des mécanismes compliqués qui imitaient assez bien certains gestes des hommes et s'étaient amusés à habiller ces mécanismes d'une apparence humaine ; il était réservé au XIXème siècle de développer à l'infini le véritable automate, c'est-à-dire la machine qui ne ressemble pas à l'homme, mais qui, sous la conduite d'un seul ouvrier, exécute le travail de dizaines, parfois de centaines d'hommes. D'ingénieuses combinaisons de mécanismes, dans lesquelles le courant électrique joue parfois un rôle auxiliaire, permettent aux machines d'exécuter les instructions fort compliquées qui leur sont données au moyen de cartons perforés de trous ingénieusement disposés, ou par des mouvements simples de manettes sur des cadrans : c'est ainsi qu'une machine peut tisser une étoffe brodée de dessins compliqués et qu'une autre machine nous permet d'obtenir en quelques secondes le correspondant que nous désirons parmi les centaines de milliers d'abonnés au téléphone d'une grande ville ou d'une région. Dans ces derniers exemples, la machine ne se contente pas d'épargner à l'homme un effort purement physique ; elle permet également d'économiser le travail intellectuel et de libérer ainsi, pour des travaux plus utiles, non seulement des bras, mais des cerveaux. Cette substitution de la machine à l'homme, pour des opérations qui paraissaient exiger l'intervention de l'intelligence, se manifeste également grâce aux machines à calculer, de natures diverses, utilisées dans le commerce et l'industrie ; elle se manifeste surtout dans l'utilisation des machines pour des travaux statistiques. La méthode employée consiste, après avoir recueilli des renseignements statistiques fort variés sur une nombreuse population, par exemple sur les habitants de la France, à traduire ces renseignements au moyen de trous percés à des endroits, désignés d'avance sur des fiches de carton. Pour chaque individu, la fiche indiquera donc le sexe, l'âge, l'état civil, avec, s'il y a lieu, la date du mariage, le nombre et l'âge des enfants, et tous autres renseignements qui comportent un nombre limité de réponses possibles. On peut, dès lors, disposer la machine à statistiques de manière que, si on lui fournit les fiches, elle donne la réponse à une foule de questions telles que la suivante : combien y a-t-il d'hommes de 30 ans (âge compris entre 30 et 31 ans), qui sont pères de trois enfants ? On pourrait même imaginer des questions plus compliquées, pourvu que la réponse à ces questions résulte des renseignements portés sur des fiches et ainsi fournis à la machine.


76. La chronométrie et les appareils de précision. — Parmi les progrès des arts mécaniques, ceux qui intéressent le perfectionnement des horloges et chronomètres ainsi que des appareils de précision utilisés dans les recherches scientifiques sont particulièrement importants par leurs répercussions sur les progrès de la science. D'ingénieuses dispositions ont permis depuis longtemps d'éliminer l'influence exercée par la dilatation des métaux sur la période des oscillations des balanciers des horloges ; la découverte du métal invar, alliage dont le coefficient de dilatation est sensiblement nul, permit une pécision encore plus grande dans l'horlogerie. Quant aux appareils de mesure, dont l'étude constitue une véritable science, la métrologie, les perfectionnements qui leur ont été apportés, permettent d'atteindre une précision qui aurait paru invraisemblable aux créateurs de la mécanique. Pour en donner un exemple précis, indiquons la comparaison qui a été faite entre les unités métriques et les longueurs d'onde lumineuses ; on a utilisé, pour cette comparaison, la longueur d'onde de la radiation rouge du cadmium, qui est remarquablement monochromatique et que l'on a comparée directement avec l'étalon métrique (Benoît, Fabry et Pérot). Sa valeur, dans l'air à 15 degrés et sous la pression normale est, évaluée en microns, c'est-à-dire en millièmes de millimètre, égale à 0,64384696. La mesure des longueurs peut ainsi être effectuée au moyen d'un étalon absolu, à savoir la longueur d'onde qui vient d'être définie et la précision de la mesure ne paraît être limitée que par la précision même avec laquelle la longueur à mesurer peut être définie. Pratiquement, la définition la plus précise d'un étalon métrique a été obtenue en utilisant une règle de métal convenablement fabriquée, sur laquelle se trouvent tracés deux traits parallèles extrêmement fins ; c'est la distance de ces deux traits qui définit la longueur de l'étalon métrique ; la précision de cette définition dépend évidemment de l'épaisseur et de l'irrégularité des traits. La précision des appareils scientifiques a exigé un perfectionnement corrélatif des méthodes industrielles utilisées pour la fabrication des pièces métalliques qui doivent avoir une forme géométrique déterminée (plans, hélices, etc.) ; ces perfectionnements ont eu une répercussion presque immédiate sur les fabrications industrielles, dont la précision accrue a permis les progrès extraordinairement rapides réalisés en quelques dizaines d'années dans les industries telles que l'automobile et l'aviation, pour ne citer que ces deux exemples.


77. Les expériences et observations des fondateurs de la Mécanique. — Le Tableau que nous venons d'esquisser du développement prodigieux de la Mécanique, devenue véritablement une science universelle, nous conduit naturellement à réfléchir sur l'origine de ce développement, dû aux découvertes des fondateurs de la mécanique. Ces découvertes ont été suggérées par l'observation et l'expérience ; elles ont utilisé également les progrès réalisés dans les mathématiques, mais les mathématiques ne sont qu'un moyen, à la vérité très puissant et souvent indispensable, mais qui ne peut être fécond que s'il utilise comme point de départ la connaissance des phénomènes naturels. C'est parce que cette connaissance des phénomènes naturels était devenue plus complète et plus exacte que la mécanique a pu être créée au XVIème siècle, alors qu'elle n'avait pu l'être auparavant. Les progrès réalisés dans la connaissance de la nature peuvent être, en gros, classés en deux catégories : la découverte de phénomènes nouveaux et la connaissance plus précise de phénomènes déjà connus ; nous ne mentionnons pas ici une source importante de progrès, la liaison établie par l'esprit humain entre deux phénomènes déjà connus, mais qui paraissaient être sans rapport ; car nous quitterions le domaine de l'expérience et de l'observation pour entrer dans celui du raisonnement et de la théorie. Les fondateurs de la mécanique n'ont guère connu de phénomènes vraiment nouveaux, c'est-à-dire qui aient été complètement inconnus des anciens ; on pourrait citer la découverte de la poudre à canon, qui a permis de donner à des projectiles une vitesse très grande et a pu contribuer ainsi à faire soupçonner les lois de l'inertie ; mais il ne s'agit là que d'une question de degré dans la vitesse : on savait déjà, par des moyens mécaniques, lancer des pierres ou des flèches avec une vitesse considérable. La découverte des moyens de faire le vide, obtenu d'abord par le baromètre à mercure, puis, par la machine pneumatique, mit en évidence un phénomène nouveau, dont la connaissance ne fut certainement pas sans influence sur le développement de la science nouvelle. Les progrès essentiels et rapides de cette science ont été cependant dus surtout à la perfection accrue des moyens d'observation et d'expérimentation. Les calculs de Tycho-Brahé et de Képler, qui permirent la découverte fondamentale de Newton, n'ont été possibles que grâce à la précision avec laquelle furent observés le Soleil et les planètes ; la faible excentricité des orbites planétaires rendait particulièrement difficile la reconnaissance du fait que ces orbites sont elliptiques. D'autre part, c'est parce que Galilée put observer la chute des corps et les mouvements du pendule avec beaucoup de précision, qu'il lui fut possible de formuler avec certitude des lois numériques simples. Ces observations et ces expériences, quelqu'imparfaites qu'elles puissent apparaltre de nos jours, ont suffi à Galilée et à Newton pour établir les fondements solides sur lesquels devait s'élever la mécanique ; les progrès prodigieux de la science mathématique, à la suite de Descartes, de Leibniz, de Newton, ont permis l'essor des théories, en même temps que le perfectionnement méthodique des observations astronomiques permettait de vérifier avec une précision accrue les résultats des calculs. C'est ainsi qu'on arriva au début du XIXème siècle ; la découverte de phénomènes vraiment nouveaux allait alors transformer la physique et réagir sur la mécanique.


78. La science expérimentale au XIXème siècle. — La découverte par Volta du courant électrique mit en évidence un phénomène entièrement différent par sa nature de tous les phénomènes observés jusque-là par les hommes ; l'électromagnétisme d'Ampère et l'intuition de Faraday allaient bientôt permettre le développement que nous connaissons de la science nouvelle ; en même temps, l'optique physique créée par Fresnel, étudiait aussi des phénomènes insoupçonnés jusque-là. Enfin, à la fin du XIXème siècle et au début du XXème, une foule de phénomènes entièrement nouveaux furent découverts, par l'étude des relations mutuelles entre les phénomènes mécaniques, lumineux et électromagnétiques ou, pour parler un autre langage, par l'étude des relations entre la matière, la lumière, l'électricité et le magnétisme. Enumérer et décrire ces phénomènes, auxquels il faut joindre tous ceux qui se rattachent à la découverte de la radioactivité reviendrait à écrire l'histoire des progrès de la physique depuis un demi-siècle. Un grand nombre des phénomènes ainsi découverts n'ont pu être décelés que grâce à la perfection accrue des instruments de mesure, perfection due elle-même aux progrès de la construction mécanique. Ces progrès, en même temps qu'ils facilitaient la découverte de phénomènes nouveaux, permettaient également d'étudier avec une précision notablement accrue les phénomènes déjà connus, de déterminer, par exemple, avec beaucoup d'exactitude, la vitesse de la lumière. La puissance accrue des instruments d'optique, l'utilisation de moyens d'investigation basés sur la découverte de nouveaux phénomènes, permettaient de mieux connaître d'une part le monde stellaire et d'autre part des corpuscules de plus en plus petits. Quelles allaient être les répercussions sur le développement de la mécanique de ces importants progrès dans notre connaissance de l'Univers ?


79. Les succès et les lacunes des explications mécaniques. Dans de nombreuses directions, les découvertes nouvelles furent l'occasion de nouveaux succès pour les explications mécaniques. Par exemple, les expériences de Jean Perrin sur le mouvement brownien confirmèrent expérimentalement les conséquences de la théorie cinétique des gaz, notamment en ce qui concerne l'équipartition de l'énergie. Dans bien des cas, des modèles mécaniques simples, tels que des résonateurs de période déterminée, calqués sur le pendule simple et ses oscillations isochrones, permirent de rendre compte des phénomènes dus à la lumière et à la chaleur rayonnante. L'infinie variété des mécanismes déjà inventés suggérait d'ailleurs irrésistiblement l'idée que, quelle que fût la complication d'un phénomène naturel, il devait être possible d'imaginer un modèle mécanique qui rende compte du phénomène, c'est-à-dire dont l'étude se traduise, en définitive, par des équations identiques à celles qui régissent le phénomène. Jusqu'à la fin du XIXème siècle, il fut ainsi permis de penser, malgré certaines difficultés sporadiques, que la mécanique, science universelle, dominait toutes les sciences et que ses équations convenablement interprétées et combinées, devaient donner le modèle de toutes les équations donnant la loi des phénomènes naturels. C'est alors que se produisit la révolution scientifique dont nous avons maintenant à parler, révolution qui introduisait une véritable discontinuité dans le développement de la physique et, par répercussion, de la mécanique. Au point de vue de notre connaissance générale de l'Univers, cette révolution est comparable à celle qui, à la suite des découvertes de Copernic, de Galilée, de Pascal, de Newton, renouvela complètement les idées des hommes sur le ciel, la Terre, les mers et les airs. Certains des phénomènes qui se trouvaient ainsi expliqués étaient d'ailleurs, en apparence, insignifiants par rapport à l'importance des idées nouvelles : tel est le cas pour le phénomène des marées, minuscule si on le compare à la masse des océans (1) et pratiquement nul dans une mer aussi vaste que la Méditerranée ; tel est le cas également pour la modification dans la durée de l'oscillation d'un pendule lorsqu'on le transporte vers l'équateur, ou pour la rotation lente du plan d'oscillation d'un pendule (expérience du pendule de Foucault). De tels phénomènes doivent cependant être regardés comme des preuves irréfutables que la Terre tourne autour de son axe et auraient conduit les hommes à cette certitude, même si l'observation du ciel étoilé avait été constamment rendue impossible par des nuages. Nous ne devrons donc pas nous étonner si la nouvelle révolution scientifique a été imposée par l'étude de certains phénomènes assez petits pour avoir longtemps échappé aux expérimentateurs les plus habiles.

  • (1) Une marée d'un mètre sur les rives de l'Atlantique, large de plus de 3000 kilomètres est semblable à une variation d'un centième de millimètre qui serait observée aux bords d'un bassin de 30 mètres de diamètre.


  • Troisième partie
  • La révolution scientifique du XXème siècle
  • Chapitre VIII
  • La relativité et les quanta


80. La vitesse de la lumière. — Nous avons déjà indiqué que les mesures astronomiques (éclipses des satellites de Jupiter) et les mesures terrestres (expériences de Foucault et de Fizeau) donnent la même valeur pour la vitesse de la lumière ; mais la précision de ces mesures n'est pas très grande, de sorte que bien des questions restaient posées et non résolues. L'une de ces questions est relative à la vitesse des lumières de couleur différente ; la vitesse est-elle rigoureusement la même, quelle que soit la couleur ? L'observation des occultations de certaines étoiles doubles, où une étoile brillante nous est périodiquement cachée par un astre obscur, permet de répondre affirmativement à cette question. Si la vitesse des rayons rouges, par exemple, était supérieure à celle des rayons violets, on devrait, lorsqu'une étoile réapparaît après une occultation, observer d'abord les rayons rouges qui arriveraient avant les rayons violets, c'est-à-dire que l'étoile ne serait pas vue avec sa couleur blanche habituelle ; inversement, lorsqu'elle serait occultée à nouveau, on continuerait à voir pendant un certain temps une lueur violette après la disparition des radiations rouges. Si la distance de l'étoile observée est de 50 années lumière, ce qui fait plus d'un milliard et demi de secondes, il suffirait d'une différence d'un milliardième entre la vitesse des rayons rouges et celle des rayons violets pour que la différence de couleur apparaisse pendant une seconde et demie, ce qui suffirait pour la rendre observable. La différence des vitesses entre les diverses radiations visibles du spectre est donc sûrement inférieure à un milliardième, c'est-à-dire à 30 centimètres par seconde, la vitesse étant de 300.000 kilomètres ; il n'est pas téméraire d'en conclure que cette différence est rigoureusement nulle. Une seconde question, à laquelle répond également, l'observation des étoiles doubles, est l'influence éventuelle que pourrait exercer sur la vitesse de la lumière le mouvement de la source lumineuse. Si une mitrailleuse est en action sur un avion en marche, la direction du tir étant parallèle à la vitesse de l'avion, il est évident que la vitesse de l'avion s'ajoute à la vitesse initiale qu'auraient les balles si la mitrailleuse était au repos ; si cette vitesse initiale est de 1.000 mètres à la seconde et, la vitesse de l'avion de 100 mètres à la seconde, les balles sortent du canon de la mitrailleuse avec une vitesse de 1.100 mètres par seconde ; par contre, cette vitesse ne serait que de 900 mètres si le tir était dirigé vers l'arrière, en sens inverse du mouvement de l'avion. Si la lumière était assimilable à des projectiles lancés avec une certaine vitesse par les corps lumineux, cette vitesse à l'émission restant constante à travers les espaces interstellaires, on devrait admettre également que la vitesse est influencée par la vitesse de la source. Mais, ceci entraînerait, dans le cas des étoiles doubles animées d'un mouvement elliptique autour de leur centre de gravité, suivant les lois de Képler et de Newton, des résultats en contradiction absolue avec l'observation. Essayons, en effet, de nous représenter ce qui se produirait dans le cas où l'une des étoiles serait animée par rapport à l'autre d'une vitesse de 30 kilomètres par seconde, égale à celle de la Terre sur son orbite ; nous supposons que le plan de l'orbite n'est pas perpendiculaire à notre rayon visuel ; si, pour simplifier les raisonnements, nous admettons que ce plan de l'orbite passe par la Terre, il arrivera à chaque demi-révolution que la vitesse de 30 kilomètres par seconde sera dirigée vers la Terre ou, au contraire, en direction opposée : la mitrailleuse tirera tantôt vers l'avant, tantôt vers l'arrière. La vitesse des projectiles sera ainsi augmentée ou diminuée de 30 kilomètres par seconde, soit de la dix-millième partie de sa valeur. Si la lumière met 10.000 ans pour nous parvenir de l'étoile double, il y aurait un an de différence en plus ou en moins dans le temps mis par la lumière pour venir de l'étoile mobile. Or, on peut par des méthodes spectroscopiques, basées sur l'effet Doppler-Fizeau, mesurer avec précision les durées de révolution des étoiles doubles, même lorsque ces étoiles sont si lointaines que les deux composantes ne puissent être distinguées et on n'observe jamais les singularités qui se produiraient si les vitesses de la lumière émise par les deux étoiles étaient différentes. Les astronomes évaluent à un millionième la précision de ce résultat, c'est-à-dire que la vitesse de la lumière varie de moins de 30 mètres par seconde, alors que la variation de la vitesse de la source lumineuse est mille fois plus considérable. On doit donc admettre que la vitesse de la lumière est indépendante de la vitesse de la source lumineuse. Ainsi, la vitesse de la lumière dans le vide est une constante physique indépendante de la longueur d'onde et également indépendante de la vitesse de la source qui a émis la lumière. Il reste toutefois une question importante à résoudre, qui ne peut être tranchée par des observations astronomiques, mais seulement par des expériences effectuées à la surface de la Terre : comment doit-on choisir l'espace absolu par rapport auquel est définie la vitesse de la lumière ? On sait, en effet, que la vitesse d'un corps matériel dépend essentiellement du choix du système fixe par rapport auquel est mesurée cette vitesse ; nous mesurons la vitesse d'un projectile ou celle d'un avion en supposant la terre immobile, tandis que nous mesurons la vitesse de la Terre sur son orbite en supposant le soleil immobile et la vitesse du Soleil lui-même par rapport aux étoiles en faisant d'autres hypothèses un peu plus compliquées. Si l'on considère, comme le faisaient les physiciens du XIXème siècle, que les phénomènes lumineux sont dus aux ondulations de l'éther, on est conduit à regarder cet éther immobile et immuable comme définissant l'espace absolu. Le problème se pose alors de déterminer la vitesse du système solaire par rapport à cet espace absolu, dans lequel se propage la lumière ; si cette vitesse est considérable, on devra constater que la lumière se propage plus vite dans une certaine direction que dans la direction opposée car, dans l'un des cas, la vitesse du système solaire par rapport à l'éther s'ajoute à la vitesse propre de la lumière, tandis que dans l'autre cas, elle s'en retranche. On pourrait considérer comme vraisemblable que cette vitesse du système solaire par rapport à l'éther n'est pas nulle, car on observe que les étoiles sont animées de vitesses relativement considérables les unes par rapport aux autres, et il n'y a aucune raison pour que notre Soleil ait ce privilège unique d'être immobile par rapport à l'éther ; ce fait ne serait cependant pas absolument invraisemblable et on n'en pourrait tirer aucune conséquence importante. Les observations des satellites de Jupiter permettent de mesurer la vitesse de la lumière dans certaines directions, variables avec les positions respectives de Jupiter avec la Terre ; les résultats obtenus pour la vitesse de la lumière ne paraissent pas dépendre des variations de la direction et ce serait une présomption en faveur de l'immobilité du système solaire par rapport à l'éther. Mais, dans le cas où le Soleil serait immobile par rapport à l'éther, il ne pourrait en être de même de la Terre, dont la vitesse sur son orbite est d'environ 30 kilomètres par seconde ; la direction de cette vitesse varie d'ailleurs au cours de l'année ; à un intervalle de six mois, les vitesses de la Terre sont sensiblement égales, parallèles et de sens opposés. On devrait donc pouvoir déceler une variation de 30 kilomètres en plus ou en moins dans la vitesse de la lumière, suivant la direction dans laquelle cette vitesse serait observée ; c'est-à-dire une variation d'un dix-millième dans la valeur de cette vitesse.


81. L'expérience de Michelson. — Malheureusement, il est fort difficile par des expériences terrestres, de mesurer la vitesse de la lumière sur un trajet simple ; les méthodes les plus précises utilisent un trajet aller et retour. Si l'on considère deux stations distantes de 300 kilomètres, la durée de trajet de la lumière est d'un millième de seconde ; le mouvement de la Terre devrait produire une variation d'un dix-millionième de seconde, correspondant à une distance de 30 mètres. Il faudrait donc, pour faire des mesures absolues, connaître la distance des deux stations à quelques mètres près et avoir, aux deux stations, des horloges dont l'accord serait réalisé au dix-millionième de seconde. Les méthodes optiques basées sur les interférences des rayons lumineux permettent, au contraire, d'évaluer des différences extraordinairement petites, dans certaines conditions, entre les durées des trajets de deux rayons lumineux émanant de la même source. C'est sur cette méthode des franges d'interférence qu'est basé le dispositif ingénieux imaginé par Michelson pour comparer le temps mis par la lumière à parcourir deux trajets différents aller et retour, les directions de ces deux trajets étant perpendiculaires entre elles. Il y a cependant, dans l'utilisation des trajets aller et retour, une grave difficulté ; si nous supposons la direction commune des deux trajets parallèle à la vitesse de la Terre, cette vitesse s'ajoutera bien à la vitesse de la lumière dans l'un des trajets, mais elle se retranchera dans le trajet inverse et ces deux effets tendront à se compenser. Fort heureusement, cette compensation n'est pas totale. Pour parcourir un trajet aller et retour de 1.200 kilomètres à la vitesse de 100 kilomètres à l'heure, il faut 24 heures ; si la vitesse est de 120 kilomètres à l'aller et de 80 kilomètres au retour, il faut 10 heures à l'aller et 15 heures au retour, soit au total 25 heures ; la durée totale du trajet est donc accrue, mais elle est accrue seulement d'environ 4% alors que les variations de la vitesse en plus ou en moins sont de 20% ; en d'autres termes, l'accroissement relatif de la durée est 1/25 alors que la variation de la vitesse est 1/5 ; l'accroissement relatif de la durée est le carré de l'accroissement de la vitesse ; un calcul facile montre que cette formule est générale ; comme la vitesse de la Terre est la dix-millième partie de la vitesse de la lumière, la différence des durées des trajets aller et retour, suivant que l'on tient compte ou non de cette vitesse de la Terre, sera le carré du dix-millième, soit la cent-millionième partie de la durée totale. Il faut observer d'autre part que, si l'on considère un trajet perpendiculaire à la direction de la vitesse de la Terre, cette vitesse n'est pas sans influence sur la durée du trajet de la lumière, si l'on admet les lois ordinaires de la cinématique. C'est ainsi que l'existence d'un courant augmente le temps nécessaire à un nageur pour traverser un fleuve, même si ce nageur a soin de se diriger de manière à aborder la rive opposée au point situé exactement en face de son point de départ ; le calcul montre que l'effet transversal ainsi produit est à peu près exactement la moitié de l'effet produit sur le mouvement aller et retour dans le sens du mouvement de la Terre (en supposant, comme c'est le cas, que la vitesse de ce mouvement est très petite par rapport à celle de la lumière) ; l'effet à déceler serait donc environ la moitié d'un cent-millionième. Or, la sensibilité de l'appareil de Michelson, basé sur l'observation des franges d'interférence, permet de déceler des différences de parcours inférieures à un milliardième du parcours total (de l'ordre du dix-milliardième) ; or, cet appareil se trouvant disposé de manière à flotter sur un bain de mercure, on peut faire varier son orientation par rapport à la direction du mouvement de la Terre et on ne constate pas le plus minime changement dans les apparences observées ; le changement observé devrait cependant être d'un cent-millionième pour une rotation de 90 degrés, puisque la différence d'un demi cent-millionième change de signe par cette rotation. Ce résultat rigoureusement nul de l'expérience de Michelson conduit à cette conséquence absolument inattendue que les raisonnements cinématiques ordinaires ne sont pas applicables à la vitesse de la lumière, alors que ces mêmes raisonnements avaient conduit à des résultats entièrement conformes à l'expérience pour le phénomène de l'aberration et pour l'effet Doppler-Fizeau. Il était donc nécessaire de faire des hypothèses nouvelles pour expliquer ce fait singulier : la vitesse d'un rayon lumineux reste la même, quelle que soit la vitesse de l'observateur qui mesure cette vitesse, cet observateur transportant avec lui, bien entendu, tous les appareils qu'il utilise pour mesurer l'espace et pour mesurer le temps. Le raisonnement cinématique élémentaire ne peut cependant pas être contesté ; il n'y a donc qu'une issue : c'est d'admettre que le déplacement de l'observateur a comme conséquence de modifier le résultat de la mesure ; or, la vitesse est le quotient de l'espace par la durée ; le déplacement doit donc modifier, soit la mesure de l'espace, soit la mesure de la durée, soit l'une et l'autre.


82. La contraction de Lorentz. — Il ne paraissait guère possible d'admettre que la mesure du temps puisse être modifiée par le mouvement ; la notion du temps absolu et universel apparaissait comme tellement claire et évidente qu'il ne pouvait être contesté que la mesure du temps soit la même pour tous les observateurs imaginables dans l'univers, pourvu que ces observateurs s'entendent une fois pour toutes pour choisir la même unité. Cette unité pouvait être la durée de tel phénomène céleste observable, au moins théoriquement, par les observateurs de l'univers entier ; on pouvait remédier à l'imperfection des observations en observant un nombre suffisamment grand de fois une même durée, tel que l'intervalle qui s'écoule entre les éclipses des satellites de Jupiter. C'est ainsi que Lorentz et Fitz Gérald imaginèrent que les corps en mouvement se contractent dans le sens du mouvement ; cette contraction ne peut pas être mesurée, puisque les appareils de mesure se contractent également ; mais la lumière ne se contracte pas et parcourt, par suite, en un temps plus court la même distance apparente, car cette distance est devenue réellement plus courte. Cette hypothèse singulière était assez difficile à admettre au point de vue physique ; il était assez peu vraisemblable que le mouvement relatif par rapport à l'éther dépourvu de masse produise une même contraction sur tous les corps, quelle que soit leur nature physique ou chimique, que l'acier se comporte comme le bois et l'eau comme le mercure. Cependant, grâce à cette hypothèse, Lorentz établit des formules, restées célèbres sous le nom de "groupe de Lorentz", formules qui rendaient compte du phénomène singulier observé par Michelson. Comme toutes les formules mathématiques, celles de Lorentz peuvent être interprétées de bien des manières ; c'est ainsi qu'elles ont conduit Einstein à formuler la théorie de la relativité, d'après laquelle ce n'est pas la mesure de l'espace, mais la mesure du temps, qui se trouve modifiée par le mouvement de l'observateur.


83. La relativité du temps et de l'espace. — Il en est de la relativité comme de toutes les découvertes qui ont consisté à regarder avec des yeux neufs, sans idée préconçue, des phénomènes que les hommes observaient depuis des siècles sans y réfléchir ; tel fut le cas, par exemple pour la gravitation universelle. Lorsque la découverte est faite, il est aisé de l'exposer d'une manière telle qu'elle apparaît comme évidente et que l'on se demande comment on a pu ne pas penser pendant des siècles à des remarques aussi simples. Il n'est cependant rien de plus difficile que de s'évader des modes de pensée qui s'imposent à nous par suite d'habitudes séculaires ; telle était la notion du temps universel, c'est-à-dire le même en tous les points de l'Univers. Il suffisait cependant de se poser la question suivante : comment deux observateurs situés l'un sur la Terre, l'autre sur une autre planète ou sur une étoile, peuvent-ils régler leurs montres, c'est-à-dire se mettre d'accord sur la chronologie, ou désignation de l'époque actuelle commune à tous les hommes, qui s'entendent bien lorsqu'ils disent que tel événement s'est produit le ler janvier 1942, à 0 h., temps moyen de l'Europe occidentale. Il est évident que c'est seulement en communiquant entre eux que deux observateurs éloignés peuvent régler leurs montres ; les seuls moyens de communication utilisables à longue distance et qui nous soient connus, sont la lumière et les ondes hertziennes ; leur vitesse commune est d'ailleurs la même, 300.000 kilomètres par seconde. Si les distances sont connues, on peut utiliser la valeur absolue de cette vitesse ; c'est ce qui se passerait, par exemple, si des observateurs situés sur la Terre et sur Mars, qui auraient pu se mettre d'accord par des conversations préalables, observaient une même éclipse d'un satellite de Jupiter ; ils pourraient utiliser cette observation pour régler leurs montres à condition que chacun d'eux, au moment de l'observation, connaisse exactement la distance qui le sépare de Jupiter ou, plus exactement, connaisse la distance qui sépare sa position actuelle de la position qu'occupait Jupiter au moment où s'est produit le phénomène observé. Si nous convenons de désigner arbitrairement par zéro l'époque de ce phénomène et si la durée du trajet de la lumière est 20 minutes pour l'observateur de Mars et 25 minutes pour l'observateur de la Terre, les montres devront être réglées de manière qu'au moment de l'observation, la montre de Mars marque 20 minutes et celle de la Terre 25 minutes, c'est-à-dire avance de 5 minutes. Dans le cas purement théorique où les deux observateurs seraient immobiles l'un par rapport à l'autre (ce cas ne peut être réalisé pratiquement que si les deux observateurs sont sur un même astre) une méthode plus simple et plus précise consiste à utiliser un trajet aller et retour ; si un signal fait en A se réfléchit en B sur un miroir et retourne ensuite en A, l'époque où il est reçu en B est exactement intermédiaire entre l'époque où il quitte A et celle où il y revient. Nous savons en effet, d'après l'expérience de Michelson, que la durée du trajet de la lumière de A vers B ou de B vers A ne dépend que de la distance AB et nullement du mouvement relatif, par rapport à un éther hypothétique, de l'astre sur lequel sont situés les points A et B. Imaginons maintenant deux observateurs animés d'un mouvement de translation l'un par rapport à l'autre ; l'un de ces observateurs, par exemple, est dans un train rapide, tandis que l'autre est sur la voie. A un instant donné, oes deux observateurs A et A' (fig. 26) sont en face l'un de l'autre et constatent que leurs montres marquent la même heure (nous admettons que leur distance est considérée comme nulle, de sorte que chacun d'eux voit simultanément les deux montres) ; à ce moment chacun d'eux émet un signal lumineux qui sera reçu par un autre observateur B situé à 30 mètres de là sur la voie, s'il s'agit du signal émis par l'observateur A qui était sur la voie et par un observateur B' situé à 30 mètres de A' dans le train, s'il s'agit du signal émis par l'observateur A' du train. Ces signaux sont perçus en A' et B' respectivement, au bout du même temps car la vitesse de la lumière ne dépend pas de la vitesse de la source qui l'émet ; si les signaux issus de A et de A' sont simultanés, ils sont perçus en même temps aux deux points qui coïncident B et B', c'est-à-dire un dix-millionième de seconde après leur émission. Mais, pendant ce temps, le train a avancé. Si sa vitesse est de 30 mètres par seconde, il a parcouru 3 millièmes de millimètre, de sorte que le point B' n'est pas exactement en face de B, mais est 3 millièmes de millimètre plus loin ; si nous appelons B" le point du train qui est exactement en face de B, le signal y arrive donc un peu plus tôt qu'en B' ; le temps que met la lumière pour parcourir 3 millièmes de millimètre est bien petit, puisqu'il est égal au dix-millionième du dix-millionième d'une seconde. L'observateur situé en B" devra donc, au moment où il perçoit le signal issu de A', régler sa montre en retard de cette faible fraction de seconde sur la montre que règle B lorsqu'il perçoit le signal issu de A. Nous sommes ainsi conduits à la conséquence suivante : du fait que le train est en mouvement par rapport au sol, il n'est pas possible de régler les horloges du train et les horloges du sol de manière que deux horloges situées en face l'une de l'autre marquent la même heure ; si cet accord est réalisé pour les points A et A', il ne le sera pas pour les points B et B". La différence est, à la vérité, extraordinairement petite dans l'exemple que nous avons donné ; il suffit qu'elle existe pour que soit ruiné le dogme du temps universel. La définition du temps est forcément relative, c'est-à-dire dépend du mouvement de l'observateur qui le définit : le temps ne pourrait pas être exactement le même pour les habitants de Jupiter ou les habitants du Soleil que pour les habitants de la Terre. La différence constatée dans la définition du temps entraîne une différence dans la définition de l'espace, c'est-à-dire de la distance de deux points. Lorsque nous définissons la distance de deux points A et B de la surface de la Terre, nous admettons implicitement qu'il s'agit de la distance entre les positions que les objets qui définissent ces points occupent, au même instant, car ces objets sont l'un et l'autre entraînés par le double mouvement de la Terre et leurs positions varient très rapidement par rapport au Soleil. Dans l'hypothèse du temps absolu, la distance des deux objets, mesurée par un observateur situé sur le Soleil, sera la même que pour un observateur situé sur la Terre. Mais, s'il y a un désaccord entre les horloges de B lorsqu'il y a accord entre les horloges de A suivant que l'horloge de B est liée à la Terre ou au Soleil, ce désaccord entraînera un désaccord dans la mesure de la distance. Nous renverrons aux ouvrages sur la Relativité pour le détail des calculs, détail qui importe peu pour la compréhension du résultat fondamental : les mesures de l'espace et du temps sont relatives, c'est-à-dire dépendent des mouvements dont sont animés les uns par rapport aux autres les groupes d'observateurs qui effectuent les mesures.


84. Les vitesses et les masses. — Les formules de la théorie de la relativité ont des conséquences dont les plus importantes peuvent être facilement énoncées en langage ordinaire. Tout d'abord, la loi de la composition des vitesses ne peut conserver sa forme classique ; on devait s'y attendre, puisque l'expérience de Michelson a précisément prouvé que cette loi classique de la composition des vitesses ne s'applique pas à la lumière. En fait, la loi relativiste de la composition des vitesses est telle qu'aucune vitesse observée ne peut dépasser la vitesse de la lumière. En cinématique classique, si un mobile est animé d'une vitesse v dans un système qui a lui-même la vitesse v par rapport à un système en repos, le mobile aura la vitesse 2*v par rapport au système en repos. C'est ainsi que si l'on monte les marches d'un escalier roulant, on peut s'élever deux fois plus vite que si l'on montait un escalier fixe ou que si l'on restait immobile sur l'escalier roulant. Si donc on peut concevoir et réaliser des mouvements avec la vitesse v, on pourra, en les combinant, obtenir un mouvement de vitesse 2*v ; en combinant deux mouvements de vitesse 2*v, on obtiendra un mouvement de vitesse 4*v, et ainsi de suite. En répétant assez souvent la même opération, on peut ainsi obtenir des vitesses dépassant toute valeur imaginable. Il en est tout autrement en cinématique relativiste ; la formule de composition des vitesses renferme un terme complémentaire, qui est négligeable lorsque les vitesses sont faibles par rapport à la vitesse de la lumière, mais qui deviendrait sensible à l'expérience si le produit des deux vitesses, évaluées en kilomètres par seconde, atteignait un million ; si, par exemple, les deux vitesses étaient de 1.000 kilomètres par seconde, la vitesse résultante est inférieure de 22 mètres à 2.000 kilomètres ; elle est de 1.999.978 mètres par seconde et non de 2.000.000 de mètres. Il ne semble pas possible, dans l'état actuel de nos moyens d'expérimentation, de vérifier un tel résultat par des expériences mécaniques ; mais il a été possible de vérifier la loi de composition des vitesses par des expériences physiques, notamment par l'expérience, due à Fizeau, par laquelle la vitesse de la lumière a été mesurée dans un liquide en mouvement. La formule de composition des vitesses prend une forme très simple lorsqu'on prend pour unité de vitesse la vitesse la lumière ; la vitesse est alors définie comme 1e nombre de kilomètres parcourus en un trois-cent-millième de seconde. La vitesse v3 résultant de la composition des vitesses v1 et v2 est alors donnée par la formule

v3 = (v1 + v2)/(1 + v1*v2)

et l'on vérifie aisément que, si v1 et v2 sont inférieurs à l'unité, v3 est également inférieur à l'unité. Si v1 est égal à 1, v3 serait aussi égal à 1, quel que soit v2 : c'est l'invariance de la vitesse de la lumière, qui a servi de point de départ à la théorie. La modification de la loi de composition des vitesses entraîne une modification dans la définition de la force vive, si l'on désire, comme il est naturel, que l'accroissement de la force vive reste égal au produit de la quantité de mouvement par l'accroissement de la vitesse. On est ainsi conduit à admettre que la masse d'un corps en mouvement croît avec la vitesse ; c'est-à-dire est relative, comme le temps et l'espace. La masse d'un même corps situé sur la Terre, par exemple, n'est donc pas la même pour un observateur situé sur la Terre ou pour un observateur situé sur le Soleil ; cela paraît moins paradoxal si l'on réfléchit que ces deux observateurs ne mesurent pas de la même manière les espaces et les temps ; sans parler des forces, dont nous dirons quelques mots dans un instant, à propos de la relativité générale (les résultats que nous venons d'exposer relèvent de ce que l'on appelle la relativité restreinte).


85. La relativité générale. — Nous ne pouvons exposer ici la théorie de la relativité générale, qui exige un appareil mathématique assez complexe, mais nous pouvons en indiquer l'idée essentielle, qui se rattache à une remarque fort simple. Nous avons déjà mentionné l'expérience, exécutée pour la première fois par Richer, d'après laquelle le mouvement du balancier d'une horloge se ralentit lorsque l'on se rapproche de l'équateur ; ce ralentissement est dû à la diminution de la valeur de l'accélération due à la pesanteur, c'est-à-dire à la diminution du champ de forces dû à l'attraction de la Terre ; cette diminution s'explique par la force centrifuge due au mouvement de rotation de la Terre, force qui est directement opposée à la pesanteur. Un calcul facile montre que, si le mouvement de rotation de la Terre était environ 17 fois plus rapide, la force centrifuge serait environ 289 fois plus forte (289 = 17*17) et, à l'équateur, équilibrerait complètement la pesanteur. Dès lors, les corps situés à l'équateur ne pèseraient pas : un projectile poursuivrait son mouvement en ligne droite, sans que sa trajectoire soit infléchie vers la Terre par la pesanteur. Il serait sans doute difficile à des hommes de réaliser de telles expériences, car l'atmosphère serait dissipée, la pesanteur n'existant plus ; si le mouvement de rotation de la Terre était aussi rapide, la vie n'y serait possible qu'à une grande distance de l'équateur. Nous pouvons cependant imaginer ces expériences ; si l'homme ignorait la force centrifuge et regardait la Terre comme immobile, il devrait en conclure que la pesanteur n'existe pas. Ainsi, le champ de forces, comme l'espace, comme le temps, comme la masse, est relatif, c'est-à-dire dépend de l'hypothèse que l'on fait sur le mouvement et le repos ; si l'observateur admet que la Terre tourne, il dira qu'il y a un champ de forces, mais que ce champ est annulé par la force centrifuge ; si l'observateur admet que la Terre est immobile, il devra admettre qu'il n'y a pas de champ de forces. Cet exemple, fort saisissant au point de vue pratique, présente des défauts théoriques graves : on ne peut concevoir un mouvement de rotation de la Terre entraînant tout l'espace et on ne peut concevoir non plus que la Terre soit en repos, car les étoiles fixes devraient alors être animées de vitesses prodigieuses et inacceptables. Une expérience, à la rigueur réalisable, quoique fort dangereuse, serait celle d'un ascenseur qui descendrait avec les mêmes vitesses qu'un corps tombant en chute libre ; il parcourrait environ 5 mètres pendant la première seconde, 15 mètres pendant la deuxième, 25 mètres pendant la troisième ; l'expérience se terminerait alors et on freinerait progressivement le mouvement pour arrêter l'ascenseur sans accident. Pendant les trois secondes de chute libre, les hommes et tous les objets situés dans l'ascenseur se comporteraient comme si la pesanteur n'existait pas : un objet lourd resterait en apparence suspendu immobile dans l'air, car il ne bougerait pas par rapport aux parois de l'ascenseur, tombant avec la même vitesse que ces parois. Ainsi, le champ de gravitation se trouve supprimé pour les observateurs qui seraient dans l'ascenseur et qui se considéreraient comme situés dans un système immobile. On peut donc interpréter les forces de gravitation de Newton, produites par la présence de la matière, comme équivalentes à une modification dans la définition de l'espace et du temps ; si l'espace et le temps sont mesurés par les observateurs de l'ascenseur, ces forces cessent d'exister ; l'effet de la gravitation est donc simplement de substituer aux mesures de l'espace et du temps qui seraient effectuées par les observateurs immobiles par rapport à la Terre, les mesures qui seraient effectuées par les voyageurs de l'ascenseur. Dans l'espace-temps de ces voyageurs, les lois du mouvement sont aussi simples que possible : tout corps, ou bien reste en repos, ou bien se déplace en ligne droite d'un mouvement uniforme. La relativité générale consiste à définir pour l'Univers entier l'espace et le temps, de manière que les lois du mouvement prennent, en toute circonstance, cette même forme simple, c'est-à-dire que tout mouvement se produise avec une vitesse uniforme et suivant la ligne la plus courte, par rapport à l'espace et au temps que l'on a définis. Cette conception éclaire d'un jour nouveau des conséquences que des mathématiciens du XIXème siècle avaient tirées des équations générales de la dynamique (voir notamment Darboux, "Leçons sur la théorie générale des surfaces"). Bornons-nous au cas le plus simple, celui du mouvement dans un plan d'un point matériel sous l'action d'une fonction de forces. Nous devons imaginer que le plan est une surface extensible et déformable, comme une feuille de caoutchouc très mince et très élastique et que l'existence du champ de forces a comme effet de faire subir au plan des déformations qui le transforment en une surface courbe d'une nature plus ou moins compliquée, suivant la nature du champ de forces. Le problème du mouvement dans le plan, sous l'action du champ de forces, équivaut alors exactement au problème du mouvement sur la surface courbe, en l'absence de toute force, c'est-à-dire que le mouvement, sur cette surface courbe, a lieu avec une vitesse absolue constante et suivant les lignes les plus courtes (lignes géodésiques). La théorie de la relativité générale donne de ce résultat purement abstrait une interprétation concrète ; lorsque nous passons du plan à la surface courbe, nous constatons, avec nos instruments de mesure habituels, que les longueurs sont modifiées, puisque le caoutchouc est déformé ; en relativité générale, ce sont toutes les mesures de l'espace et du temps qui sont modifiées par la présence de la matière et, lorsque l'on tient compte de ces modifications des mesures, il n'y a plus lieu de faire intervenir les forces de gravitation : le mouvement est défini suivant les géodésiques, ou lignes les plus courtes, de l'expression mathématique (ou forme quadratique de différentielles), qui correspond exactement à la définition nouvelle de l'espace et du temps.


86. La mécanique relativiste. — La théorie de la relativité a ainsi, en quelques années, créé une mécanique nouvelle, la mécanique relativiste, entièrement différente de la mécanique classique : toutes les définitions fondamentales : temps, espace, vitesse, accélération ou masse, force, etc., se trouvent complètement modifiées. Observons cependant, dès à présent, pour y revenir au prochain chapitre, que les conséquences expérimentales des deux mécaniques, en ce qui concerne les phénomènes purement mécaniques, c'est-à-dire les mouvements des corps terrestres ou célestes, sont rigoureusement les mêmes, à une seule exception : la mécanique relativiste permet de prévoir un déplacement du périhélie de Mercure , de 43 secondes d'arc par siècle, déplacement constaté par les observations et qui est en désaccord avec les formules de la Mécanique céleste, déduit de la loi de Newton. Mais si ce mouvement du périhélie de Mercure est le seul phénomène mécanique prévu par la théorie de la relativité, la liste des phénomènes physiques que cette théorie a permis de prévoir est fort longue et s'allonge chaque jour. La théorie nouvelle a rendu compte de bien des phénomènes déjà connus et restés inexplicables et a permis de prédire des phénomènes nouveaux, prévisions confirmées par l'expérience. Ces phénomènes sont du domaine de la physique, que nous n'abordons pas dans cet ouvrage ; citons cependant la déviation des rayons lumineux au voisinage d'une masse importante, déviation que l'on constate en observant une étoile voisine du contour apparent du Soleil, observation qui peut être faîte pendant une éclipse de Soleil.


87. La relativité et l'Univers. - Les phénomènes prédits par la théorie de la relativité et réalisables par des expériences purement terrestres sont, il faut le reconnaître, des phénomènes très petits, car nous ne pouvons pas aisément faire intervenir dans nos expériences terrestres de très grandes vitesses. Nous avons déjà cité les variations de la vitesse de la lumière dans un liquide, produites par le mouvement de ce liquide ; on peut citer également la théorie relativiste de Dirac qui améliore les résultats de Sommerfeld sur les structures fines de raies spectrales et permet d'interpréter des effets Zeeman anormaux. Par contre, les conséquences de la théorie de la relativité sont très importantes, lorsque l'on applique cette théorie à l'Univers entier, ou tout au moins, à la portion de l'Univers qui est accessible à nos moyens d'investigation. La plus importante de ces conséquences ne peut être présentée que comme une hypothèse, à la vérité assez plausible, mais qui restera bien longtemps invérifiable : c'est l'hypothèse de l'Univers fini, qui s'oppose à la notion courante de l'espace géométrique euclidien qui fournirait une image adéquate de l'espace réel, c'est-à-dire de l'Univers. C'est l'existence de masses matérielles dans l'Univers qui entraîne comme conséquence la courbure de l'espace, et cette courbure rend vraisemblable sinon certaine, l'hypothèse de l'Univers fini. Ce fait géométrique est assez malaisé à expliquer, sans formules mathématiques, autrement que par une comparaison. Supposons que la Terre soit constamment entourée de nuages, de manière que les observations des astres soient possibles et que, d'autre part, il n'existe pas de vastes océans, mais seulement de grands lacs séparés par des régions montagneuses et accidentées. Les hommes seraient ainsi amenés à considérer la Terre comme plate et à la regarder comme un plan illimité dans tous les sens, jusqu'au jour où la rapidité accrue des moyens de communication leur aurait permis de constater qu'il était possible de revenir au point de départ après avoir fait le tour de la Terre. D'autre part, dans l'état actuel du globe terrestre, les observations classiques que l'on peut faire au bord de la mer et qui mettent en évidence la courbure de la Terre auraient permis à des hommes, même dépourvus de tout moyen d'effectuer de longs déplacements, de soupçonner que la Terre était sphérique et que, par suite, il était possible d'en faire le tour. C'est dans une situation analogue que se trouvent les observateurs des espaces célestes, lorsqu'ils tiennent compte des théories relativistes ; si la courbure de la partie de l'Univers qu'ils connaissent persiste dans les parties inexplorées, l'Univers est fini et sans bords ; un voyageur qui marcherait droit devant lui, par la ligne la plus courte, finirait par revenir à son point de départ, tout comme un voyageur qui fait le tour de la Terre, sans avoir rencontré aucun obstacle ni aucune singularité. Aux hypothèses précédentes est lié un phénomène fort important, découvert d'abord par les théoriciens et confirmé par l'observation ; c'est le phénomène de l'expansion de l'Univers. Les galaxies spirales, qui sont les amas stellaires les plus éloignés de nous, sont animées de vitesses radiales de l'ordre de 40.000 kilomètres par seconde, qui les éloignent de notre galaxie. Ces vitesses énormes ont pu être mesurées par l'effet Doppler-Fizeau ; elles entraînent un déplacement des raies spectrales dont l'ampleur atteint près de la moitié des dimensions du spectre solaire visible.


88. La théorie des quanta. — Pendant que se développait la théorie de la relativité, une nouvelle théorie, de nature tout à fait différente, la théorie des quanta, venait bouleverser à son tour tous les principes de la mécanique, au point que la mécanique relativiste pouvait, au même titre que la mécanique classique, être dénommée ancienne mécanique, par opposition avec la nouvelle mécanique ou mécanique ondulatoire. La théorie de la relativité avait fait table rase des notions classiques d'espace, de temps, de masse et des notions communes de vitesse, accélération, force, etc. Mais les nouvelles notions substituées aux anciennes conservaient cependant un caractère essentiel commun à toutes les grandeurs mesurables ; ce caractère est la continuité, c'est-à-dire la possibilité d'augmenter ou de diminuer par degrés insensibles. Cette continuité qui implique la divisibilité à l'infini de l'espace et du temps, avait déjà préoccupé les géomètres et les philosophes grecs : les célèbres sophismes de Zénon d'Elée traduisent sous une forme saisissante ces préoccupations. Si Achille, pour atteindre la tortue qui marche moins vite que lui, doit réduire de moitié la distance qui les sépare, puis, réduire encore de moitié la nouvelle distance, et ainsi de suite, comment pourrait-il arriver à exécuter effectivement cette infinité de réductions successives ? L'objection vaut contre tout mouvement, qui implique le passage du mobile par une infinité de positions intermédiaires. La synthèse mathématique avait permis de donner aux problèmes de cette nature des solutions d'où disparaît l'infini ; de même la somme de séries infinies, la valeur des intégrales définies pouvaient être exactement calculées. La commodité des méthodes du calcul intégral était telle qu'on avait avantage à les introduire dans les théories, comme celle de l'élasticité, bien que l'on considère que les corps élastiques ont en réalité une structure discontinue ; on admettait que l'on pouvait cependant les diviser en portions sensiblement homogènes et regardées, au point de vue du calcul intégral, comme infiniment petites. La théorie des quanta fait une brèche dans cette conception générale de la continuité, base de toutes les théories géométriques, mécaniques et physiques ; elle impose l'introduction dans les formules de certains éléments discontinus et semble ainsi préparer une véritable révolution dans les applications des mathématiques à l'étude des phénomènes naturels, les mathématiques du discontinu devant jouer un rôle qui avait semblé jusqu'ici réservé aux mathématiques du continu. La théorie des quanta, plus encore que la théorie de la relativité, est essentiellement une théorie physique et son exposition tant soit peu détaillée exige la connaissance des progrès les plus récents de la physique ; nous devons cependant essayer d'en esquisser au moins les principes essentiels, afin de nous rendre compte des modifications qu'elle entraîne, au point de vue qui nous intéresse ici, c'est-à-dire au point de vue des théories mécaniques.


89. L'équipartition de l'énergie et le rayonnement. — C'est l'étude du rayonnement du corps noir, c'est-à-dire d'un corps qui absorbe entièrement le rayonnement, qui a conduit Planck à la découverte des quanta. Si l'on applique, en effet à un rayonnement noir, la théorie de l'équipartition de l'énergie, dont nous avons parlé en mécanique statistique, on se trouve conduit à calculer la répartition de l'énergie totale du rayonnement entre les diverses longueurs d'onde du spectre, c'est-à-dire entre les diverses fréquences des vibrations lumineuses et ultra-lumineuses. Le calcul conduit à cette conséquence attendue que l'énergie moyenne absorbée par une certaine longueur d'onde est proportionnelle à la fréquence et, par suite, augmente indéfiniment lorsque la fréquence augmente indéfiniment (la longueur d'onde tendant vers zéro). Toute l'énergie du spectre se trouverait donc concentrée vers les longueurs d'onde infinitésimales, ce qui est absolument contraire à l'expérience. Pour échapper à cette contradiction, Planck fit une hypothèse hardie qui se trouva rapidement confirmée par de nombreuses conséquences expérimentales. Il admit que l'énergie émise par un corps quelconque, dont le rayonnement a une fréquence déterminée nu, est nécessairement égale à un multiple entier du quantum h*nu, h étant une constante universelle qui a reçu le nom de constante de Planck ; la valeur de h dans le système C. G. S. est 6,55.10^(-27). Le produit de h par une fréquence étant une énergie, cette constante h a les mêmes dimensions que l'action, c'est-à-dire que le produit d'une quantité de mouvement m*v par une longueur l. Si l'on multiplie, en effet, l'action par une fréquence, ce qui revient à la diviser par un temps, on obtient le produit de m*v par le quotient de l par le temps, c'est-à-dire le produit de m*v par une vitesse, ou le produit de m par le carré d'une vitesse, c'est-à-dire une force vive ou une énergie. Il est assez remarquable qu'une constante ayant les dimensions d'une action, joue ainsi un rôle de premier plan dans la physique moderne, car l'action, introduite par Maupertuis dans le principe de la moindre action, avait été jusqu'à présent considérée par les mécaniciens et les physiciens comme une grandeur abstraite, dont on connaissait la dèfinition mathématique, mais dont on n'avait jamais mesuré directement de valeurs concrètes ; personne n'avait songé à donner un nom à l'unité d'action C. G. S. En fait, la constante de Planck, égale à 6,55.10^(-27) unités d'action C. G. S. apparaît comme l'unité naturelle d'action qui s'impose dans l'étude des phénomènes de rayonnement et de tous les phénomènes physiques qui s'y rattachent.


90. L'effet photo-électrique. — Nous ne pouvons indiquer tous les développements de la théorie des quanta, ni surtout faire l'histoire des modifications grâce auxquelles elle se perfectionna peu à peu et permit de rendre compte d'un plus grand nombre de phénomènes et d'en prévoir de nouveaux. Il est cependant nécessaire de dire quelques mots d'un phénomène important, l'effet photo-électrique, qui joua un rôle décisif dans la rapidité avec laquelle les physiciens admirent la théorie des quanta, bien qu'elle choquât toutes les idées antérieurement conçues. La matière soumise à l'action d'un rayonnement lumineux émet, dans certaines conditions, des électrons ; cette émission d'électrons exige, pour chaque électron émis, une certaine quantité d'énergie qui a pu être calculée, d'où l'on conclut que le nombre des électrons émis au cours d'une certaine durée est proportionnel à l'énergie lumineuse absorbée par la matière au cours de cette durée. Si l'on admet, avec Fresnel et les physiciens du XIXème siècle, le caractère ondulatoire de la lumière, l'énergie d'un faisceau lumineux se trouve également répartie en tous les points de l'onde lumineuse et, pour une source donnée l'énergie qui se trouve dans une certaine unité de volume (ou qui traverse l'unité de surface pendant l'unité de temps (1)) est inversement proportionnelle au carré de la distance de la source lumineuse. Si donc cette source est très éloignée, est une étoile de faible éclat, l'énergie absorbée par la matière ne sera, en aucun point, suffisante pour amener l'émission d'un électron. Il en sera autrement si l'énergie lumineuse est condensée en grains très petits, qu'on appellera photons, et dont chacun transporte une quantité d'énergie suffisante pour produire l'émission d'un électron ; à une grande distance de la source lumineuse, ces photons seront plus rares, mais chacun d'eux produira le même effet photo-électrique, c'est-à-dire l'émission d'un électron. On constatera donc que le nombre des électrons émis pendant une certaine durée reste proportionnel à l'énergie lumineuse totale absorbée pendant cette durée, ce qui est conforme à l'expérience. Le calcul montre que l'énergie transportée par chaque photon est précisément égale au quantum de Planck, c'est-à-dire au produit h*nu, nu désignant toujours la fréquence de la vibration lumineuse, c'est-à-dire le nombre de périodes par seconde. Il est donc nécessaire et suffisant, pour que l'effet photo-électrique se produise, que la fréquence nu soit assez grande pour que le quantum h*nu soit égal ou supérieur à la quantité d'énergie nécessaire pour produire l'expulsion d'un électron.

  • (1) Nous prenons comme unité de volume le parallélépipède qui a pour base l'unité de surface et pour hauteur la distance parcourue par la lumière pendant l'unité de temps, qui sera donc supposée extrêmement petite.


91. La mécanique ondulatoire. — Les résultats que nous venons de rappeler imposaient donc le retour à la théorie de l'émission de Newton, théorie qu'on avait crue définitivement supplantée par la théorie des ondulations de Fresnel. Mais les nombreux résultats expérimentaux qui corroboraient la théorie des ondulations, subsistaient ; il fallait donc concilier les théories en apparence contradictoires de l'émission et des ondulations. C'est Louis de Broglie qui, par sa mécanique ondulatoire, résolut ce difficile problème. Nous ne pouvons exposer ici cette théorie nouvelle, essentiellement mathématique ; les ondes et les corpuscules y sont inséparables ; le caractère essentiel est le rôle fondamental que joue la notion de probabilité. Pour reprendre l'exemple de l'effet photo-électrique produit par la lumière qui nous vient d'une étoile, nous devons nous représenter les ondes de Fresnel comme une abstraction mathématique exprimant une certaine probabilité pour qu'un photon se trouve dans une région donnée de l'espace, à un moment donné ; l'effet photo-électrique se produira au point où se trouvera le photon ; mais ce point n'est pas déterminé par les équations, de même que le point de chute d'un projectile n'est pas exactement déterminé par les équations de la balistique. Les équations de la mécanique ondulatoire présentent des analogies avec celles de la mécanique classique, mais aussi des différences profondes. Les fonctions fondamentales qui y figurent sont des fonctions imaginaires et les résultats, ainsi que les données, doivent être regardés comme exprimant des probabilités. Cette introduction des probabilités est ici plus essentielle qu'en mécanique statistique, et se présente sous une forme très différente. En mécanique statistique, on admet que la vitesse de chacune des molécules d'un gaz a, à chaque instant, une valeur bien déterminée ; c'est l'impossibilité matérielle où nous sommes d'écrire et de calculer des milliards d'équations qui nous oblige à ne faire porter nos calculs que sur des moyennes ; en mécanique statistique, les probabilités sont, dans certains cas, les seules réalités que nous puissions atteindre et cela n'a aucun sens de prétendre connaître exactement les coordonnées et la vitesse d'un corpuscule (incertitudes de Heisenberg).


92. Impossibilité d'une image cohérente. — S'il a été impossible jusqu'ici de donner de la mécanique ondulatoire un exposé, autrement qu'en langage mathématique, cela tient à ce que les notions fondamentales de la nouvelle mécanique sont bien exprimées par des mots, qui correspondent à des variables introduites dans les équations, mais ces mots n'évoquent pas pour nous des images simples, qui nous permettraient de raisonner sur eux sans avoir recours aux équations. Dans un de ses ouvrages les plus récents (1) M. Louis de Broglie écrit à ce sujet : "le quantum d'action, dont la découverte nous a fait comprendre tant de faits mystérieux, nous ne le comprenons guère. Son existence implique une solidarité entre l'aspect spatio-temporel des phénomènes et leur aspect dynamique, solidarité qui, non seulement était ignorée de la science classique, mais qui aussi, il faut bien l'avouer, est restée à peu près lettre close pour notre raison. Nous ne voyons aucunement, même aujourd'hui, pourquoi l'énergie d'un mouvement et sa durée, la quantité de mouvement d'un mobile et l'extension spatiale où il évolue sont des choses si intimement liées que nous n'avons pas le droit de les dissocier et de les considérer isolément. Nous sommes sûrs cependant qu'il en est bien ainsi dans la réalité, nous savons traduire des circonstances dans nos théories, mais franchement nous ne comprenons pas bien ce que cela veut dire". Après avoir évoqué les progrès récents de la mécanique ondulatoire, M. Louis de Broglie poursuit : "Et cependant, ici, de nouveau, l'idée de base, si fructueuse et si bien vérifiée qu'elle ait été, reste par bien des côtés d'une certaine obscurité. Le dualisme des ondes et des corpuscules n'est pas douteux : nous savons l'exprimer en formules où apparaît le quantum d'action et, de ces formules, nous tirons d'admirables conséquences. Mais les images que nous nous faisons des deux termes de ce dualisme, de l'onde et du corpuscule, sont devenues beaucoup plus floues que par le passé. Le corpuscule n'est plus un petit objet bien défini et son existence ne se manifeste plus pour nous d'après la nouvelle théorie que par le caractère discontinu et localisé de ses manifestations successives. Quant à l'onde, elle n'est plus, en mécanique ondulatoire, la vibration de quelque milieu plus ou moins subtil : elle a revêtu un caractère symbolique et mathématique de plus en plus accentué. Ainsi, chaque synthèse nouvelle en nous faisant pénétrer plus avant dans les harmonies du monde physique nous apprend aussi combien les éléments mêmes de nos interprétations dépassent notre intuition et combien nous parvenons plus aisément à établir des relations entre ces éléments qu'à en comprendre entièrement la nature". En fait, il semble bien que, pour la plupart des savants du XIXème siècle, l'onde lumineuse était réellement l'image d'une sinusoïde plutôt que la vibration d'un milieu hypothétique et doué de propriétés invraisemblables. Et nous avons déjà rappelé que les mathématiciens ont, depuis longtemps, l'habitude de raisonner sur des êtres géométriques imaginaires, par exemple sur les droites isotropes, sans que l'absence de réalité de ces êtres les gêne le moins du monde et les empêche d'obtenir des résultats, absolument réels et vérifiables. Il faut souhaiter que le développement des nouvelles théories permette de les traduire un jour en langage dépouillé de tout appareil mathématique, langage dont les termes seraient liés entre eux par des relations logiques simples et en apparence intuitives, comme c'est le cas pour les propriétés des droites, plans et autres figures géométriques imaginaires. Ce que l'on peut retenir d'essentiel, c'est que, dans ce langage nouveau, la notion de la probabilité jouera un rôle fondamental et prendra la place qu'occupe dans la mécanique classique le déterminisme qui résulte de l'existence de solutions uniques à certains systèmes d'équations différentielles, lorsque l'on donne, sous une forme convenable, les conditions initiales.

  • (1) Continu et discontinu en physique moderne (1941).


  • Chapitre IX
  • L'avenir de la mécanique


93. Les limites des notions fondamentales. - Parmi les innombrables idées nouvelles mises à jour par la révolution scientifique du XXème siècle, il en est une qui est essentielle et qui paraît définitivement acquise : les notions fondamentales de la géométrie et de la mécanique : espace, temps, vitesse, masse, etc., ne nous sont connues et ne pourront jamais nous être connues qu'entre certaines limites ; cette limitation, dans certains cas, paraît même être dans la nature des choses et ne pas être relative à nos dimensions et à nos sens ; il convient cependant d'être prudent lorsque l'on atteint les limites de ce qui est pour nous l'inconnaissable. Les démonstrations de la géométrie euclidienne sont indépendantes des dimensions des figures ; le théorème de Pythagore, à ce point de vue, est vrai, quelque soient les dimensions du triangle rectangle ; il nous serait cependant impossible d'en concevoir la vérification expérimentale pour un triangle dont les côtés seraient inférieurs au milliardième d'un millimètre ou dépasseraient des milliards de kilomètres. Il nous est également impossible de concevoir et de mesurer une durée inférieure au milliardième d'un millième de seconde ou supérieure à des milliards de siècles. Les limites que nous venons d'indiquer sont dans le rapport d'un milliard environ avec les plus grandes et plus petites grandeurs qui nous sont directement accessibles. Les limites sont un peu plus larges pour les masses puisqu'on a pu mesurer les masses des atomes et celles des étoiles ; mais, même en tenant compte des progrès possibles de nos moyens de mesure, on se rend compte qu'il y a des limites qui ne pourront jamais être dépassées : on peut les fixer avec certitude entre 10^(-30) et 10^(30) par rapport à nos limites usuelles. Devrait-on adopter 10^(-50) et 10^(50), ces limites resteraient fort étroites par rapport aux nombres très petits et très grands sur lesquels les mathématiciens peuvent très facilement faire porter leurs calculs. Pour la masse, les recherches récentes d'astronomie stellaire semblent indiquer qu'il y a effectivement une limite supérieure à la masse que peut atteindre un corps céleste : au delà de cette limite, il se produit des phénomènes physiques qui entraînent une décomposition et une dispersion de la matière. Nous avons vu, d'autre part, que la théorie de la relativité impose une certaine limite infranchissable à la vitesse et peut-être même une limite aux dimensions de l'Univers et à sa masse totale. Nous devons donc nous souvenir, chaque fois que cela sera nécessaire, que les équations mathématiques qui relient entre elles les diverses grandeurs mesurables, grandeurs déduites de l'observation ou de l'expérience, ne doivent pas être appliquées sans discernement à des valeurs quelconques de ces grandeurs, mais seulement à des valeurs comprises entre certaines limites. A vrai dire, les mathématiciens n'ont jamais ignoré que la réalité impose des limites au nombre, bien que ce nombre puisse être conçu par eux, d'une manière abstraite, comme pouvant croître ou décroître indéfiniment. On connaît ce problème d'arithmétique élémentaire : quelle serait la valeur actuelle d'un centime placé à intérêts composés à 5%, au début de l'ère chrétienne ? On sait que le calcul donne comme réponse la valeur d'une masse d'or qui dépasserait de beaucoup la masse de la Terre. On obtiendrait une masse d'or dépassant celle de la Terre, même en tenant compte des dévaluations successives de la monnaie et en supposant le placement initial égal à un millième de centime. L'impossibilité d'assurer un placement sûr, dont le capital ne soit pas perdu ou volé, au cours de vingt siècles, suffit pour dénier toute valeur pratique à ce résultat ; mais on peut observer également, que l'on n'a pas le droit d'appliquer aux placements de l'ordre d'une fraction de centime, ni à ceux dont la valeur dépasserait des centaines de milliards des formules d'intérêt composé qui sont légitimes lorsqu'il s'agit de centaines ou de milliers de francs que l'on peut déposer à la caisse d'épargne ou prêter sur hypothèque. Tout comme les formules de la géométrie et de la mécanique, les formules des intérêts composés ont des limites d'application assez étroites, bien qu'elles restent théoriquement exactes, quelles que soient les valeurs de la somme placée, du taux et de la durée du placement.


94. L'avenir de la mécanique classique. — Comme nous l'avons vu, la mécanique classique a eu comme double objet, dès ses origines, l'étude des mouvements des corps à la surface de la Terre : machines, véhicules, projectiles, ainsi que l'étude des mouvements des corps célestes, en particulier de notre système solaire. L'étude de phénomènes tels que les marées, des phénomènes d'hydraulique, d'élasticité, de frottement, etc., rentrent aussi dans le cas de la mécanique. Pour tous ces phénomènes, auxquels on peut même adjoindre le mouvement brownien, et les mouvements inobservables des molécules des gaz, auxquels on peut joindre également la plus grande partie des mouvements propres des étoiles, nous restons dans les limites que nous venons d'assigner aux grandeurs qui interviennent dans les formules de la géométrie et de la mécanique. En fait, pour tous les phénomènes dont nous venons de parler, l'accord est parfait entre l'expérience et les conclusions tirées des équations de la Mécanique. La seule exception est le mouvement du périhélie de Mercure, d'environ 43 secondes d'arc par siècle, pour lequel l'accord entre la théorie et l'expérience ne peut être rétabli qu'en utilisant les formules et les hypothèses de la théorie de la relativité. C'est là un phénomène d'un ordre de grandeur comparable à l'influence du mouvement de rotation de la Terre sur la trajectoire de la balle d'un fusil. Si le tireur est instruit, il n'ignorera pas cette influence, mais il saura également qu'elle est assez petite pour que, lorsqu'il vise son but, il n'ait pas à en tenir compte, ce qui l'obligerait à se demander si sa ligne de tir est dirigée vers le nord ou vers le sud. De même, suivant une comparaison qui a été souvent reprise, les architectes et les maçons n'ignorent pas que la Terre est ronde, mais, lorsqu'ils construisent une maison, ils pensent et agissent comme si la Terre était plate et les verticales parallèles. Il n'y a aucune raison pour que, pendant des siècles, aussi loin que nous pouvons essayer de prévoir l'avenir de l'humanité, les mécaniciens ne puissent agir comme le font les tireurs au fusil et les architectes qui, pratiquement, ignorent la forme et le mouvement de la Terre ; il faut souhaiter que le plus grand nombre d'entre eux m'ont assez instruits pour connaître l'existence de la révolution scientifique qui vient de transformer notre connaissance générale de l'Univers, de même que Copernic avait transformé notre connaissance du système solaire ; mais cette révolution scientifique n'aura pas d'influence sur la conduite pratique des mécaniciens, de même que la révolution de Copernic n'a pas modifié la manière de tirer à l'arbalète ou au fusil.


95. Faut-il modifier le langage de la mécanique? — On peut se demander toutefois s'il n'y aurait pas lieu de modifier le langage de la mécanique pour le mettre en harmonie avec les progrès de la physique. Doit-on continuer à définir le temps, la vitesse, la masse, la force vive, comme elles ont été définies jusqu'à la fin du XIXème siècle, alors que nous savons maintenant comment ces définitions devraient être modifiées pour cadrer avec les idées nouvelles ? Je ne le crois pas, car on perdrait beaucoup en clarté et en simplicité, sans gagner rien en rigueur et en précision. Tout au plus faut-il demander, avec plus d'insistance que jamais, à chacun, de ne pas oublier la célèbre restriction mentale de Newton : "Tout se passe comme si". Ces quelques mots, clé de la science expérimentale, doivent toujours être regardés comme sous-entendus. "Tout se passe comme" : s'il y avait un temps absolu, un espace absolu, défini par le centre de gravité du système stellaire et les positions moyennes des étoiles fixes, s'il y avait des masses invariables et si les équations de Lagrange définissaient avec exactitude les mouvements. Les notions que nous utilisons sont des notions usuelles car elles sont la traduction en langage plus précis des notions vulgaires familières aux hommes depuis des siècles. Nous ne devons pas oublier que la première de ces notions, celle de l'espace, sur laaquelle est basée la géométrie, a son origine dans ce fait d'expérience que les repères invariablement fixés au sol, comme les bornes qui limitent les champs, restent rigoureusement immobiles au cours des siècles. L'art du topographe n'a été en rien modifié, lorsque les hommes ont su qu'ils sont tous emportés dans le mouvement vertigineux de la Terre et qu'en réalité, la borne qui limite un champ ne se retrouvera jamais plus au point de l'espace qu'elle occupe en ce moment ; les tribunaux continuent cependant, avec juste raison, à condamner le propriétaire qui déplacerait cette borne de quelques mètres pour agrandir son champ au détriment du voisin. Ainsi, nous n'avons presque rien à modifier et à retrancher à la conclusion de notre deuxième partie, du moins en ce qui concerne l'objet propre et traditionnel de la mécanique ; celle-ci reste l'un des plus beaux exemples d'une science parfaite si la perfection d'une science se mesure à la précision avec laquelle elle permet de prévoir un grand nombre de phénomènes. Mais, contrairement à ce qu'avaient pensé certains savants du XIXème siècle, la mécanique ne peut absorber toutes les autres sciences, devenir la science universelle ; il semble, au contraire, que ce soit la physique, et plus particulièrement sa branche la plus récente, l'électromagnétisme, dont le développement a conduit à la connaissance la plus univer-selle et la plus profonde de l'Univers.


96. La notion d'intervalle. — La théorie de la relativité a conduit Langevin à introduire une notion nouvelle, celle d'intervalle entre deux événements ; cette notion, bien qu'étrangère à toute expérience directe, est certainement assez simple pour pouvoir être utilisée dans le langage ordinaire et comprise même de ceux qui n'ont que des connaissances élémentaires d'algèbre. Considérons deux événements qui se produisent en deux points A et B de la surface de la Terre (1) ; nous pouvons mesurer leur distance AB dans l'espace et leur éloignement dans le Temps ; pour cette seconde mesure, nous utilisons des signaux lumineux qui vont de A en B et reviennent immédiatement de B en A ; l'instant t1 où ils arrivent en B est exactement intermédiaire entre l'instant t0, de leur départ de A et l'instant t2 de leur retour ; l'horloge de B doit marquer en t1 la demi-somme des temps marqués de A par l'horloge de A aux deux instants tO et t2. Soit d la distance AB, t l'intervalle de temps entre les deux événements et c la vitesse de la lumière ; si d est exprimée en kilomètres et t en secondes, c sera égal à 300.000. Le carré de l'intervalle entre les deux événements est alors, par définition, c2*t2 — d2. Si t n'est pas extrêmement petit, ce carré est positif ; l'intervalle est alors un nombre réel ; on choisira son signe de manière que l'intervalle entre A et B soit positif lorsque B est postérieur à A ; l'intervalle entre B et A est alors négatif. Si un signal est émis de A au moment où se produit l'évènement A, ce signal arrive en B avant que se produise l'évènement B ; celui-ci connaît donc A et peut être influencé par lui. Si, au contraire, c2*t2 - d2 est négatif, le signal lumineux issu de A au moment de l'événement A arrive en B après l'évènement B, et inversement, le signal lumineux issu de B au moment de l'événement B arrive en A après l'événement A ; on ne peut pas affirmer, au point de vue de la relativité, que l'un des événements A ou B est antérieur à l'autre ; en fait, cela dépend du mouvement relatif de l'observateur qui mesure l'espace et le temps ; ce mouvement peut être choisi de manière que les événements coïncident dans le temps. Cette circonstance se traduit par le fait mathématique que le carré de l'intervalle étant négatif, cet intervalle est imaginaire. La notion d'intervalle permet d'éclaircir l'exposé de bien des phénomènes, envisagés au point de vue de la théorie de la relativité ; à ce titre, cette notion mériterait de figurer parmi les notions simples de la mécanique, si l'on était amené à appliquer effectivement la mécanique à des phénomènes pour lesquels la théorie de la relativité introduirait des modifications qui ne seraient pas négligeables.

  • (1) Il serait plus correct de considérer, au lieu de la Terre, un système galiléen animé d'un mouvement de translation par rapport aux axes fixes de Newton ; mais cela n'a paa d'importance pour notre but, qui est de donner une idée de la notion d'intervalle.


97. Le langage de la nouvelle mécanique. — Comme nous l'avons dit à la fin du précédent chapitre, on n'est pas encore arrivé à traduire les notions fondamentales de la nouvelle mécanique ondulatoire, en un langage simple, évoquant pour nous des images qui faciliteraient le raisonnement et rendraient possible d'exposer certaines déductions sans utiliser les formules mathématiques. L'avenir de la nouvelle mécanique dépend en partie de la possibilité de trouver un tel langage ; si on y parvient, on aura fait un grand pas dans notre connaissance de la nature ; s'il est impossible d'y arriver, on devra se contenter de l'image qui nous est fournie par les équations ; malheureusement, cette image est compliquée et ne peut être véritablement connue qu'au prix d'un effort considérable, nécessaire pour assimiler de difficiles théories mathématiques. Ce serait là, à mon avis, une raison suffisante pour conserver, dans toutes les circonstances où cela est possible, l'ancienne mécanique, dans laquelle les formules sont susceptibles d'une interprétation simple, dans un langage qui évoque pour nous des notions auxquelles nous sommes habitués. Le fait que les formules de l'ancienne mécanique ne représente qu'une approximation est loin de leur enlever toute valeur, surtout lorsque l'on sait que l'erreur commise, en acceptant comme rigoureuse cette approximation, est tellement faible, que les expériences les plus précises ne permettraient pas de la déceler.


98. La valeur absolue d'une connaissance approchée. — L'étude des lois mathématiques des phénomènes naturels, c'est-à-dire des lois qui se traduisent en nombres fournit, en effet, de nombreux exemples de lois simples, qui sont seulement des lois approchées, c'est-à-dire que les observations et expériences ne vérifient pas d'une manière rigoureuse, mais avec des erreurs systématiques relativement faibles. Dans ces cas là, surtout lorsque les erreurs sont très faibles, toute notre expérience scientifique montre que ce serait une grave erreur de dénier toute valeur à la loi simple, sous le prétexte qu'elle n'est pas absolument rigoureuse ; la véritable méthode consiste à chercher, d'une part, l'explication de la loi simple et d'autre part, l'explication des petites erreurs. Un exemple bien connu est fourni par les poids atomiques ; on a cru, pendant des années, qu'ils étaient proportionnels à des nombres entiers simples ; des expériences plus précises ont montré que cette loi n'était exacte qu'à une certaine approximation ; si l'oxygène est représenté par 16, l'hydrogène le sera par 1,008 et non par 1. Néanmoins, il suffisait d'avoir un peu réfléchi au calcul des probabilités pour se rendre compte que, si les poids atomiques étaient sans relation avec les entiers, il était infiniment peu probable (1) que leurs rapports soient aussi voisins qu'ils le sont des rapports de nombres entiers simples ; il fallait donc chercher, d'une part, la raison pour laquelle interviennent des nombres entiers qui définissent, à peu de chose près, les rapports des poids atomiques, et, d'autre part, la raison des petites différences. Les nouvelles théories des isotopes et de la mécanique atomique confirment entièrement l'exactitude de cette manière de poser la question. Il en est de même pour l'invariance de la distance des points fixes situés à la surface de la Terre, points définis par des masses rocheuses. Cette invariance n'est pas absolument rigoureuse ; il semble bien qu'indépendamment des séismes, il existe des mouvements d'ensemble, à la vérité très faibles, des continents les uns par rapport aux autres. Il est raisonnable d'admettre, d'une part, que la Terre est un solide invariable et, d'autre part, de rechercher les causes qui peuvent produire les petites différences observées. La mécanique céleste de Newton donne, de même, une première approximation des mouvements des corps du système solaire ; cette approximation est tellement voisine des observations, les différences fort rares sont tellement faibles, que les théories qui conduisent à cette approximation ne doivent pas être inconsidérément rejetées ; elles ont certainement une grande valeur et doivent être conservées, quitte à être complétées, dans la mesure où cela est nécessaire, par d'autres théories qui rendent compte des minimes différences. Cette méthode des approximations successives s'est d'ailleurs toujours imposée aux astronomes : ils ont tout d'abord étudié le mouvement de la Terre comme s'il était dû au Soleil seul, et ils ont considéré l'action de la Lune et des planètes comme produisant des perturbations de ce mouvement, d'autres perturbations étant dues à ce que la Terre n'est pas rigoureusement sphérique, comme on l'avait admis en première première approximation. Essayer de résoudre du premier coup le problème complexe de tous les mouvements des corps du système solaire, compte tenu de toutes les circonstances, aurait conduit à des calculs inextricables et à des équations insolubles. Il n'y a donc aucune exagération à affirmer que les théories simples qui conduisent à des résultats suffisamment approchés doivent être regardées comme conservant une valeur absolue, malgré les corrections qui peuvent être nécessaires : le mouvement elliptique de la Terre autour du Soleil est un fait bien plus important que les perturbations produites dans ce mouvement par l'action de Jupiter ou par celles de Neptune ou de Pluton, encore bien plus faibles. De même, le mouvement de Mercure, tel qu'il est déduit des calculs de Newton, de Laplace et de leurs successeurs, est un fait bien plus important que le déplacement du périhélie de 43 secondes par siècle, qu'explique seule la théorie de la relativité. Il est cependant incontestable que l'astronome qui néglige Pluton lorsqu'il étudie le mouvement de la Terre ou qui néglige la relativité lorsqu'il étudie le mouvement de Mercure, est dans l'erreur ; ses équations sont fausses et en désaccord avec la réalité ; mais ces équations fausses renferment cependant beaucoup plus de vérité que d'erreur et ce serait une folie de les détruire et de sacrifier ainsi toute la vérité qu'elles contiennent à seule fin de supprimer en même temps l'erreur infinitésimale, au lieu de se contenter de corriger cette erreur par un calcul auxiliaire.

  • (1) J'ai fait cette remarque, en 1908, dans mes "Eléments de la Théorie des probabilités" (Hermann) ; elle était confirmée peu de temps après par la découverte de la théorie des isotopes et par celle des relations entre la masse et l'énergie atomique.


99. Les théories de l'atome. — L'emploi de la nouvelle mécanique est, par contre, indispensable lorsque l'on étudie la théorie des mouvements intra-atomiques et que l'on cherche à se rendre compte des phénomènes par lesquels se produisent les transmutations des corps jusqu'ici regardés comme simples. La théorie des quanta joue, en effet, un rôle essentiel dans ces études, lesquelles ont fourni quelques-unes des plus belles confirmations des théories nouvelles. Les modèles mécaniques qui ont été imaginés pour représenter l'atome sont, jusqu'à présent, de pures abstractions mathématiques, aucune vérification expérimentale directe n'étant possible pour des éléments aussi petits. Il est donc loisible de traduire en langage ordinaire les propriétés attribuées à ces éléments infinitésimaux, sans avoir à se préoccuper de mettre ces propriétés en harmonie avec nos notions vulgaires de l'espace et du temps, ni avec les notions de masse et de force de la mécanique classique ; il importe même peu que certaines de ces propriétés apparaissent comme contradictoires à notre bon sens, qui n'est autre chose que le résumé de nos expériences à l'échelle humaine. Sera-t-il possible un jour d'imaginer des modèles atomiques qui soient plus proches de notre expérience vulgaire ? Cela n'est nullement certain ; il semble bien, au contraire, que la notion de quantum est définitivement acquise à la science et subsistera, même si sa forme et son interprétation devaient être modifiées, le fait essentiel étant la valeur numérique de la constante h de Planck.


100. Les théories cosmogoniques. — I1 en est pour les théories cosmogoniques comme pour les théories atomiques : aucune expérience directe ne nous est possible ; nous pouvons cependant effectuer quelques observations précises sur les amas stellaires les plus éloignés de nous, à des milliards d'années-lumière ; la plus importante de ces observations, dont nous avons déjà parlé, est le déplacement des raies spectrales, dû à l'effet Doppler-Fizeau, et qui met en évidence une vitesse radiale qui atteint 40.000 kilomètres par seconde et qui éloigne de nous ces galaxies. Ce phénomène de l'expansion de l'Univers ne parait pas explicable par la mécanique newtonienne ; il ne s'agit pas ici de corrections infinitésimales, d'un mouvement également important par l'énormité de la vitesse et l'énormité des masses déplacées. Combien faudra-t-il d'années ou de siècles d'observation pour augmenter nos connaissances sur ce mouvement, pour savoir, notamment, si sa vitesse varie au cours du temps, et suivant quelle loi ? Nous devons regarder ces recherches de cosmogonie stellaire comme parmi les plus belles et les plus nobles préoccupations de l'esprit humain. Elles élargissent singulièrement notre connaissance du monde où nous vivons, nous ont déjà conduits et nous conduiront sans doute encore à la découverte de lois insoupçonnées de la nature. Il est prodigieusement intéressant pour l'homme de pouvoir imaginer et connaître des phénomènes qui se sont produits bien avant l'apparition de la vie sur notre globe ou qui se produiront bien après que notre Soleil sera éteint et toute vie depuis longtemps disparue sur la Terre. Il faut cependant reconnaître que, si ces recherches cosmogoniques élargissent le champ de nos connaissances et peuvent ainsi faire faire à la science des progrès pouvant avoir des répercussions même sur des questions pratiques, il ne semble pas jusqu'ici que des modifications accessibles à nos appareils de mesure doivent être apportées de ce fait aux résultats déduits des équations de la mécanique, que ces équations concernent les phénomènes mécaniques qui se passent sur la Terre ou les mouvements qui se produisent dans notre système solaire et dans son voisinage.


101. Conclusion. — Nous ne reviendrons pas sur le fait que la Mécanive de Galilée, de Newton, de Lagrange, de Laplace, subsiste et subsistera encore longtemps comme l'édifice théorique le plus simple rendant compte d'innombrables phénomènes, avec une précision atteignant ou dépassant celle de nos mesures les plus exactes. C'est grâce à cette science qu'ont été réalisés quelques-uns des plus importants progrès qui ont transformé notre civilisation. Mais, quelle que puisse être l'importance de tels résultats pratiques, l'admiration et la reconnaissance que doivent avoir tous les hommes qui pensent à l'égard des créateurs de la Mécanique ont une source bien plus noble et plus haute : c'est grâce au développement de la mécanique que les savants et les philosophes ont conçu la possibilité pour l'homme de chercher et de trouver une explication générale de tous les phénomènes naturels. Pendant près d'un siècle, on a espéré qu'une telle explication pourrait être fournie par les théories mécaniques ; comme nous l'avons vu, des difficultés insurmontables se sont présentées et, actuellement, ce sont les nouvelles théories de la relativité et de la mécanique ondulatoire qui paraissent pouvoir donner une telle explication ; ces nouvelles théories se distinguent essentiellement des théories mécaniques par le rôle fondamental qu'y joue la notion de probabilité ; cette introduction do la probabilité ne contredit d'ailleurs nullement le déterminisme des phénomènes observés à l'échelle humaine, déterminisme qui, comme le faisait remarquer Henri Poincaré, est le postulat nécessaire de toute science. Il peut se faire que les nouvelles théories rencontrent un jour des obstacles imprévus, comme ce fut le cas pour la Mécanique de Newton, et doivent céder la place à d'autres théories dont nous ne pouvons soupçonner la nature. Il n'importe ; de même que les plus importants des résultats de la mécanique rationnelle subsistent, même s'ils sont dépassés ou contredits par de légères retouches; de même subsisteront certainement quelques-unes des idées essentielles des théories nouvelles : la relativité du temps, le quantum d'action, le rôle de la probabilité, même si une nouvelle révolution vient à nouveau bouleverser les fondements de la Science. Et l'esprit humain conservera la conviction, renforcée par les succès obtenus depuis trois siècles, qu'il lui est possible de comprendre et d'expliquer l'Univers, c'est-à-dire de construire des édifices de symboles mathématiques dont l'analogie avec la réalité est assez grande pour être justifiée par des concordances numériques extraordinairement précises. L'évolution de la Mécanique rationnelle est terminée, comme l'est, depuis un siècle, l'évolution de la géométrie euclidienne, qui a pris une forme définitive : des corps de connaissance ont été constitués, qui resteront aussi longtemps que les hommes cultiveront la science. Mais, l'évolution de la science se poursuit et ne s'arrêtera que lorsque l'espèce humaine disparaîtra, à moins qu'elle ne se condamne à une décadence irrémédiable en renonçant à la recherche de la vérité, qui est le seul but vraiment digne de son activité.



  • Bibliothèque de philosophie scientifique, dirigée par Paul Gaultier, de l'Institut.
    • Noël Bernard, M. Blanchard, Georges Duhamel, Legroux, Lemierre : Les Initiateurs français en pathologie Infectieuse : Pasteur, Roux, Nicolle, Widal, Calmette, Laveran. Préface de Pasteur Vallery-Radot, de l'Académie de Médecine.
    • Léon Bertrand, professeur à la Sorbonne et à l'Ecole Centrale : Les Grandes Régions géologiques du sol français. Illustré.
    • Maurice Blondel, professeur honoraire à l'Université d'Aix-Marseille : Lutte pour la civilisation et philosophie de la paix.
    • G. Bouligand, Ch. Brunold, A. Grumbach, M. Morand, P. Sergescu, M. Taboury, A. Turpain : L'Evolution des sciences physiques et mathématiques.
    • A. Boutaric, professeur à la Faculté des Sciences de Dijon : Les Conceptions actuelles de la physique.
    • Louis de Broglie, de l'Institut : La Physique nouvelle et les Quanta.
    • Maurice de Broglie, de l'Académie française et de l'Académie des Sciences : Atomes, radioactivité et transmutations. Illustré.
    • Maurice Caullery, de l'Institut : Les Conceptions modernes de l'hérédité. Illustré. — Les Progrès récents de l'embryologie expérimentale. Illustré.
    • Jacques Chevalier, doyen de la Faculté des Lettres de Grenoble, correspondant de l'Institut : La Vie morale et l'au-delà.
    • L. Cuénot, de l'Institut : Invention et finalité en biologie. Illustré.
    • Docteur Maurice Dire, directeur médecin des asiles publics d'aliénés: L'Hystérie et l'évolution humaine.
    • L. Dumont-Wilden, Correspondant de l'Institut : L'Evolution de l'esprit européen.
    • Charles Fabry, de l'Académie des Sciences : Physique et astrophysique.
    • Philipp Frank, professeur à l'Université de Prague: Le Principe de causalité et ses limites, traduction de J. du Plessis de Grenedan.
    • Paul Gaultier, de l'Institut : L'Ame française.
    • Armand de Gramont, de l'Académie des Sciences : Problèmes de la vision. Illustré.
    • Paul Guillaume, chargé de cours à la Faculté des Lettres de Paris: La Psychologie de la Forme. Illustré.
    • Léon Guillet, de l'Institut, Directeur de l'Ecole centrale des Arts et Manufactures : Les grands problèmes de la métallurgie moderne. Illustré.
    • Johan Hjort, professeur à l'Université d'Oslo : La Crise de la vérité, traduction du colonel Cros, ancien élève de l'Ecole Polytechnique.
    • L-O. Howard, ancien chef du bureau d'Entomologie des Etats-Unis. La Menace des insectes, traduction de L. Berland, Sous-directeur du Laboratoire d'Entomologie du Muséum de Paris. Préface de E.-L. Bouvier, de l'Institut.
    • Docteur Pierre Janet, de l'Institut : Lee Débuts de l'Intelligence. Illustré. L'Intelligence avant le langage.
    • André Joussain, agrégé de philosophie, docteur ès lettres : Psychologie des masses.
    • Louis Lapicque, de l'Institut : La Machine nerveuse. Illustré.
    • Lecomte du Nouy : L'Homme devant la science.
    • Jules Legras, professeur à la Sorbonne : L'Ame russe.
    • Henri Lichtenberger, professeur à la Sorbonne : L'Allemagne nouvelle.
    • Docteur René Martial, chargé de cours d'immigration à la Faculté de Médecine de Paris : Les Métis.
    • Général Maurin : L'Armée moderne.
    • Pasteur Vallery-Radot, de l'Académie de Médecine : Quelques grands Problèmes de la médecine contemporaine, fondateurs et doctrines, Préf. de M. Paléologue, de l'Académie française.
    • Max Planck : Initiations à la physique. Traduction de J. du Plessis de Grenedan.
    • Paul Portier, de l'Institut : Physiologie des animaux marins.
    • Docteur Etienne Rabaud, professeur à la Faculté des Sciences : Transformisme et adaptation.
    • Hans Reichenbach : Atome et Cosmos. Illustré. Traduction de Maurice Lecat.
    • Louis Reynaud, Faculté des Lettres de Lyon : L'Ame allemande. La Démocratie en France.
    • Henri Roger, de l'Académie de Médecine : Physiologie de l'Instinct et de l'intelligence. Illustré.
    • Edmond Rothe, correspondant de l'Institut : Les tremblements de terre, leurs causes, leurs effets. Illustré.
    • J. Rouch : La Mer.
    • Louis Roule, professeur au Muséum d'Histoire Naturelle : Biologie des poissons.
    • Comte Sforza : L'Ame Italienne.
    • Achille Urbain, professeur au Muséum d'Histoire Naturelle. Direct. de la ménagerie du Jardin des Plantes et du Parc Zool. du Bois de Vinc.: Psychologie des animaux sauvages. Instinct, intelligence. Illustré.
    • Paul Valéry, G. Lecomte, P. Gaultier, Émile Borel, Ch. Fabry, M. Caullery, G. Roussy, L. Hourticq, G. Samazeuilh, Mgr J. Calvet : La France et la civilisation contemporaine.
    • Henri Wallon, prof. au Collège de France, Directeur à l'Ecole des Hautes-Etudes : De l'acte à la pensée. Essai de psychologie comparée.
    • Docteur Arthur Vernes : Mesure et Médecine. illustré.


  • Source: "Editions Flammarion", "Bibliothèque de philosophie scientifique".