🍪
We use cookies for website functionality and analytics only. We do not share any information with third parties. Policies
Open main menu

wikilivres β

Statistique et déterminisme

Statistique et déterminisme
written by Paul Langevin
1935
  • STATISTIQUE ET DÉTERMINISME

Ce que j'ai à dire aujourd'hui n'a d'autre but que de contribuer à la discussion commencée hier après le très bel exposé de Max Born. Je voudrais rappeler quelques faits et insister sur l'intervention de plus en plus importante de la statistique en physique ainsi que sur le changement d'aspect qui en est le résultat dans notre conception du déterminisme. Je souligne tout d'abord le fait que le service le plus important peut-être rendu aux physiciens par la crise des quanta, non encore terminée d'ailleurs, sera de les avoir obligés à une critique de la notion du déterminisme, analogue à la critique des notions de temps et d'espace imposée par la crise de la relativité. Ce qui concerne le déterminisme définit l'esprit même, les buts, de notre Science et joue un rôle peut-être plus fondamental encore que les caractères de l'espace-temps, relatifs au cadre dans lequel se construit notre représentation de la réalité. Les remarques pénétrantes d' Albert Einstein dans le cas de la relativité, de Bohr, d' Heisenberg, de Born, dans le cas des quanta, ont toutes été inspirées par des faits expérimentaux. Dans le premier cas, on a pu dire, nases injustement d'ailleurs, que ces faits étaient quelquefois bien ténus, pour l'expérience de Michelson, par exemple, ou pour la déviation de la lumière des étoiles au voisinage du soleil. Dans le cas des quanta, au contraire, il s'agit de faits énormes, comme celui qui concerne la composition spectrale et l'énergie du rayonnement à l'intérieur d'un four en équilibre de température, pour lequel l'optique et l'électromagnétisme classiques prévoient, en contradiction flagrante avec l'expérience, une énergie indéfiniment croissante vers les courtes longueurs d'onde, à toute température ; contradiction formelle également à propos de l'effet photo-électrique où l'énergie individuelle des électrons arrachés à la matière par une lumière de longueur d'onde suffisamment courte se montre uniquement fonction de cette longueur d'onde, alors que la théorie classique la voudrait également fonction de l'intensité du rayonnement. Ces contradictions ont imposé l'idée entièrement nouvelle d'une discontinuité fondamentale dans les échanges d'énergie entre la matière et la lumière et même d'une structure discontinue, granulaire, de celle-ci. La nécessité où se sont trouvés les physiciens de concilier cet aspect corpusculaire du rayonnement avec son indéniable aspect ondulatoire, la fécondité de l'effort parallèle commencé par M. Louis de Broglie en ce qui concerne la matière, ont provoqué un mouvement d'idées d'où la physique sortira profondément transformée, et qui marquera une étape essentielle dans l'évolution du déterminisme. Il me faut, pour la clarté de ce qui va suivre, revenir un moment sur les temps principaux de cotte évolution et en souligner certains aspects, particulièrement importants à mon avis. Je voudrais, par exemple, insister sur le fait que cette évolution se poursuit dans un sens toujours plus proche de l'expérience et où tend à se réaliser, de plus en plus, la synthèse nécessaire du sujet et de l'objet. De même que la théorie de la relativité a substitué aux idoles classiques de l'espace et du temps absolue des conceptions relatives à l'observateur, la théorie des quanta nous a conduits à donner au déterminisme un caractère plus subjectif et par conséquent plus humain, sans diminuer en rien, il importe de le souligner, sa rigueur scientifique et sa valeur d'action qui se trouve au contraire exaltée. La Science, sans rien perdre de sa grandeur et de sa majesté, consent à cesser de vivre chez les dieux et à poser devant les mortels un idéal moins inaccessible dans un Univers fini et moins écrasant pour eux.

Le déterminisme mécaniste. — Vous savez que la première expression vraiment scientifique du déterminisme a pris sa forme précise à la suite du succès de la mécanique de Galilée et de Newton, dans l'interprétation des phénomènes célestes, en particulier. On a conçu et conservé pondant deux siècles l'espoir de construire toute la physique et même, pour certains, toute notre représentation du monde, sur les bases mêmes qui avaient servi à Newton et à ses continuateurs pour construire la mécanique céleste. Il en est résulté une sorte do mystique, de confiance excessive dans les possibilités d'explication do ce qui apparaissait comme le type parfait de toute science de la nature. La philosophie même s'inspirait de cette confiance et considérait comme des catégories a priori, connue des absolus nécessaires à tout usage de la raison, les notions fondamentales dé cette mécanique : espace et temps absolus, objet individualisable et de masse constante, possible à suivre sur sa trajectoire au cours do son comportement dans l'espace et dans le temps. Et pourtant ces notions traduisaient, synthétisaient seulement l'expérience macroscopique ancestrale, singulièrement enrichie depuis par notre conquête du microscopique. Le postulat fondamental de la mécanique céleste est que la connaissance des conditions initiales de position et de mouvement d'un système matériel composé d'objets, système qu'un suppose pouvoir être soustrait à toute perturbation extérieure et dans lequel interviennent seulement les actions mutuelles, supposées connues, des corps qui le composent, suffit pour permettre d'en décrire toute l'évolution, d'en prévoir l'avenir comme d'en reconstituer le passé. Dans le cas du système solaire, en raison de l'énorme distance des étoiles les plus proches par rapport à ses dimensions, l'isolement peut être considéré comme assez bien réalisé. l'action de la nébuleuse lointaine se traduisant par un mouvement d'ensemble qui ne modifie pas les déplacements relatifs des cotres composant le système, et le succès apparaissait complet. Il nous est plus difficile, dans nos expériences terrestres, de réaliser un isolement comparable, mais l'idéal de toute science n'en était pas moins celui que la mécanique céleste semblait avoir atteint. L'expression la plus pure et la plus suggestive de cette foi déterministe est peut-être celle de l'énoncé bien connu qu'en a donné Laplace, en y introduisant, très justement d'ailleurs, l'hypothèse atomique dont il a fait lui-même un si excellent usage dans l'interprétation des effets capillaires : Une intelligence qui, pour un instant donné, connaîtrait toutes les forces dont la nature est animée et la structure respective des êtres qui le composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'univers et ceux du plus léger atome ; rien ne serait incertain pour elle, et l'avenir comme le passé serait présent à ses yeux. Tous les efforts de l'esprit humain tendent à le rapprocher sans cesse de l'intelligence que nous venons de concevoir, mais dont il restera toujours infiniment éloigné. Il est à peine besoin de souligner le caractère surhumain et quasi inhumain de l'idéal ainsi proposé à la Science, et l'allusion explicite à un esprit supérieur et omniscient dont Laplace, un peu contradictoirement, jugeait, paraît-il, l'hypothèse inutile. Si j'insiste sur cette liaison, qui paraît nécessaire, entre la notion même d'un déterminisme absolu du type mécaniste et celle de l'existence d'une conscience assez vaste pour le suivre dans tous ses détails, c'est que, tout récemment, Max Planck lui-même, à propos des difficultés soulevées par la théorie des quanta qu'il a créée, renouvelant dé manière assez paradoxale la fameuse preuve ontologique, déduit de sa foi dans un déterminisme absolu la nécessité d'existence de la conscience universelle postulée dans la définition même de ce déterminisme. J'ajoute encore que, sur le plan de l'action, cette conception du déterminisme absolu conduit au fatalisme, à l'inutilité de tout effort humain devant l'implacable déroulement des faits contenus, jusqu'au moindre détail, dans l'impulsion initialement reçue par l'Univers. Notre Science, issue des besoins de l'action et qui s'est avérée si puissante pour féconder l'action, ne peut pas, sans s'exposer à de graves contradictions internes, placer à sa base une doctrine qui aboutit à nier la possibilité même de l'action. Une confrontation de plus eu plus large avec l'expérience ne devait pas tarder à modifier l'ambitieux idéal proposé par le mécanisme à la Science en le ramenant à des proportions plus humaines, à travers des conflits d'idées qui dominent toute l'histoire de la physique depuis plus d'un siècle. Pour concilier avec le déterminisme absolu la précision limitée de nos moyens d'information et d'action, les physiciens, à l'exemple des astronomes, faisaient jouer un rôle important à la théorie des erreurs, par laquelle la statistique et le calcul des probabilités se sont introduits tout d'abord dans notre Science. Le problème essentiel est de savoir comment des erreurs clans l'information sur l'état initial se répercutent sur la prévision de l'état final, comment des erreurs sur les causes se traduisent en erreurs sur les effets. On s'efforce, en général, de combiner le dispositif expérimental de manière à réduire au minimum ces erreurs sur les résultats. Mais il arrive que de très petites modifications de l'état initial conduisent à des variations considérables de l'état final, de sorte que des erreurs même faibles sur les conditions initiales équivalent à une ignorance complète de celles-ci ; la théorie permet alors seulement de prévoir la distribution statistique des états ultérieurs entre les diverses possibilités qui les concernent ; on dit, dans ces conditions, que le phénomène est soumis aux lois du hasard. Il en est ainsi, par exemple, dans les jeux dits de hasard, roulette ou dés, et l'application à ces jeux du calcul des probabilités constitue un autre aspect de l'intervention de la statistique dans le mécanisme. Ainsi que l'a fait remarquer hier Max Born, l'intervention des erreurs représente pour le déterminisme absolu une limitation de fait, mais non de principe, à la précision possible des prévisions. L'idéal d'une connaissance parfaite subsiste et la possibilité reste ouverte de s'en rapprocher indéfiniment. Il est, en quelque sorte, à l'expérience réelle, ce qu'est la géométrie pure aux figures que nous savons tracer ou construire pratiquement.

Le déterminisme énergétiste et la thermodynamique. — Le mécanisme fixait à la Science un double but, celui de prévoir et celui d'expliquer, c'est-à-dire de construire une représentation adéquate des phénomènes les plus complexes, au moins en apparence, comme ceux de l'optique ou de l'électricité, à partir de notions et d'images tirées des aspects plus familiers de la réalité, comme ceux de la mécanique. A partir du milieu et jusque vers la fin du XIXème siècle, sous diverses influences, le courant général des idées s'oriente dans un sens différent. D'une part, les préoccupations utilitaires de l'époque, dominée par le développement rapide de la grande industrie, se traduisant par l'apparition d'une philosophie positive qui prétend fixer des limites aux ambitions de la Science et qui lui demande uniquement de prévoir ; d'autre part, le triomphe momentané de la théorie ondulatoire de la lumière sur la théorie newtonienne de l'émission, plus proche du mécanisme ; l'insuccès des tentatives faites pour ramener à celui-ci les propriétés du milieu qui transmet les actions électriques ou magnétiques et à travers lequel se propage la lumière ; enfin l'apparition d'une science nouvelle et singulièrement féconde, la thermodynamique, exactement conforme par sa structure même, aux exigences et à l'idéal do la doctrine positiviste, ont fait prévaloir pendant une cinquantaine d'années les conceptions dites énergétistes. Ces conceptions sont dépassées aujourd'hui, mais elles laisseront deux apports essentiels : le principe de conservation de l'énergie, base inébranlée jusqu'ici de toute la physique et, dans le domaine du macroscopique, le second principe ou principe d'évolution, qui fixe, par le critérium d'accroissement constant de l'entropie, le sens dans lequel tout système matériel doit évoluer spontanément. Les succès de la thermodynamique ont provoqué, comme ç'avait été le cas un siècle plus tôt pour la mécanique, une exagération de la confiance dans ses principes. Celui de la conservation de l'énergie a résisté jusqu'ici à toutes les épreuves, mais il n'en est pas de même du second principe auquel nous n'attachons plus qu'une valeur d'ordre statistique, d'autant plus grande que le système auquel on l'applique est plus complexe, composé d'un plus grand nombre de molécules ou d'atomes. C'est en effet la doctrine atomique, source d'explication plus encore que de prévision, combattue et même niée pour cette raison par les énergétistes ou positivistes intransigeants, qui a permis de comprendre le sens profond du principe de Carnot, d'en fixer les limites d'applicabilité et de tirer de l'observation de ces limites la preuve la plus convaincante de la réalité moléculaire. C'est la théorie cinétique, et plus précisément la mécanique statistique de Gibbs et de Boltzmann, construite par application du calcul des probabilités aux mouvements désordonnés, mais soumis aux lois de la mécanique classique, d'un grand nombre de molécules, qui a permis d'obtenir ces résultats. Elle attribue une probabilité à chaque configuration du système, c'est-à-dire à chaque distribution des molécules qui le composent entre les diverses positions et les divers états de mouvement possibles, et constate qu'il existe, pour chaque ensemble de conditions imposées au système, quand le nombre de molécules cet grand, une configuration infiniment plus probable que toutes les autres et vers laquelle le système reviendra spontanément lorsqu'il en aura été écarté. La mécanique statistique définit en effet la probabilité de chaque configuration par le nombre de manières différentes dont celle-ci peut être réalisée et interprète l'entropie correspondante comme étant elle-même proportionnelle au logarithme de cette probabilité, avec un coefficient qui est une constante universelle, la constante de Boltzmann. La configuration la plus probable se trouve bien ainsi avoir l'entropie maximum. Tant que le nombre des molécules est suffisamment grand, et c'est le cas pour tous les systèmes à notre échelle, la configuration la plus probable l'emporte de moulière si écrasante sur toutes les autres, que la théorie cinétique est entièrement d'accord avec le principe de Carnot, ne prévoit aucun écart appréciable aux résultats de la thermodynamique, ou, plus exactement, prévoit des écarts ou fluctuations, dont l'importance. relative est mesurée, au moins dans le cas des gaz, par l'inverse. de la racine carrée du nombre des molécules présentes dans le système. Comme la moindre trace de matière directement perceptible à nos sens contient un nombre énorme de molécules, les fluctuations qui la concernent seront complètement insensibles. Par exemple, le nombre des molécules contenues, en moyenne, dans chaque millimètre cube à l'intérieur d'un récipient plein d'air en équilibre normal de température et de pression, est tellement grand qu'il ne varie guère que d'un milliardième d'un instant à l'autre, du fait de l'agitation désordonné. des molécules d'air qui traversent constamment, pour entrer ou sortir, les limites qui séparent notre millimètre cube des éléments de volume voisins. C'est dire que, si nous prenions la peine d'isoler et de mesurer, de temps en temps, la masse d'air contenue dans un semblable millimètre cube, elle ne manifesterait que des variations de l'ordre du milliardième, complètement insensibles à nos moyens de mesure. A l'échelle du millimètre cube, l'air contenu dans un récipient à la pression atmosphérique peut donc être considéré comme ayant une densité pratiquement uniforme, conformément aux conclusions de la thermodynamique, qui prévoit l'uniformité complète de la distribution de l'air dans le récipient. Passons maintenant à l'échelle microscopique, celle du dixième de micron, ou dix-millième de millimètre par exemple. Le nombre des molécules contenues en moyenne à l'intérieur du gaz dans un cube ayant ce côté sera un million de millions do fois moindre qu'à l'intérieur d'un millimètre cube et les fluctuations du nombre de molécules, inversement proportionnelles à la racine carrée de ce nombre, y seront un million de fois plus importantes, c'est-à-dire de l'ordre du millième au lieu de l'ordre du milliardième. Les fluctuations, par un raisonnement analogue, atteindraient l'ordre de l'unité à l'échelle du millième de micron ou millionième de millimètre. Plus exactement, d'après ce que nous savons maintenant sur les grandeurs moléculaires, un cube ayant trois fois ce côté, découpé à l'intérieur du récipient, a autant de chance de contenir une molécule que de n'en contenir aucune. L'air, parfaitement homogène à notre échelle, doit donc être considéré comme un milieu d'autant plus hétérogène, d'autant plus trouble, qu'on l'examine à une échelle plus réduite. Ces considérations de pure statistique sur les fluctuations de concentration à l'intérieur d'un gaz à l'équilibre, sont venues, de manière aussi imprévue que précise, apporter l'explication d'un phénomène considérable, celui du bleu du ciel. En effet, un milieu matériel comme l'atmosphère, traversé par de la lumière, celle qui vient du soleil, par exemple, diffuse celle-ci dans toutes les directions dans la mesure où il est inhomogène, trouble, à l'échelle de la longueur d'onde du rayonnement dont il s'agit. Or la lumière, dont la longueur d'onde varie de trois à six dixièmes de micron quand on passe du bleu au rouge fournit un excellent moyen d'exploration microscopique, et les fluctuations de concentration dans l'air, qui sont, à cette échelle, de l'ordre du millième, sont suffisantes pour que l'atmosphère diffuse une portion appréciable de la lumière qui lui vient directement du soleil ; la proportion de lumière diffusée est plus importante pour le bleu que pour le rouge puisque la longueur d'onde dans le bleu est à peu près moitié de celle du rouge et que l'atmosphère est par conséquent plus trouble pour le bleu que pour le rouge. Voilà pourquoi le ciel est bleu. Et de l'observation de la lumière qui nous en vient, quand il est pur, on peut déduire le degré de trouble de l'air à l'échelle de chaque longueur d'onde et remonter de là au nombre des molécules contenues dans un cube ayant cette longueur d'onde pour côté, puis à celui des molécules contenues dans un volume quelconque de gaz, et enfin au nombre N d'Avogadro, nombre des molécules contenues dans une molécule-gramme d'un corps pur quelconque. On conçoit quelle peut être la diversité de ces effets de fluctuations autour des configurations d'équilibre prévues par la thermodynamique : fluctuations de concentration dans l'opalescence critique, mouvements browniens de particules en suspension dans un fluide en équilibre de température, etc. L'agitation que représente le mouvement brownien de translation ou de rotation, correspond, en vertu d'un résultat fondamental de la théorie cinétique, le théorème d'équipartition, à une énergie cinétique moyenne égale à 2*k*T par degré de liberté de ce mouvement, T étant la température absolue et k cette même constante de Boltzmann qui figure dans l'expression donnée par la mécanique statistique pour l'entropie d'une configuration en fonction de sa probabilité. La constante de Boltzmann traduisant l'existence des molécules auxquelles s'appliquent les raisonnements de la mécanique statistique, on conçoit qu'elle puisse être étroitement liée au nombre de ces molécules, au nombre N d' Avogadro. La connaissance de k entraîne celle de N et réciproquement. Il en résulte que l'observation d'un phénomène de fluctuation quelconque, observation le plus souvent microscopique, sauf dans les cas comme celui du bleu du ciel où l'élément microscopique nécessaire est représenté par la longueur d'onde de la lumière, apporte une possibilité de mesurer N et d'en déduire toute la série des grandeurs moléculaires, masses et dimensions individuelles des atomes par exemple. Jean Perrin a insisté sur la remarquable convergence des résultats ainsi obtenus, et enlevé les derniers retranchements des énergétistes intransigeants.

Le déterminisme statistique. — Ces résultats marquaient un triomphe et une revanche pour le mécanisme combiné à l'atomisme, et l'introduction d'un nouvel aspect du déterminisme, plus proche du point de vue humain et qu'on peut appeler le déterminisme ou mécanisme statistique. Tout en maintenant la conception de Laplace et l'hypothèse d'un univers composé de molécules soumises aux lois de la mécanique newtonienne, on admet franchement, non plus la possibilité d'erreurs sur les conditions initiales, mais, comme dans les jeux de hasard, notre ignorance complète de ce qui concerne les cas individuels, et le rôle prépondérant de la statistique dans la prévision des résultats d'observation qui portent en général sur des foules de corpuscules extraordinairement nombreuses. Dans la plupart des cas, le nouveau déterminisme est entièrement d'accord avec la thermodynamique, qu'il domine en l'interprétant, et la plupart des lois de la physique ont le caractère de lois statistiques concernant les configurations les plus probables, seules pratiquement réalisées. Dans le domaine du microscopique, en raison de la moindre complexité des systèmes, la probabilité des configurations autres que la plus probable cesse d'être négligeable et des fluctuations apparaissent autour de cette dernière ; l'importance de ces fluctuations permet d'évaluer le degré de complexité du système et par conséquent d'atteindre les grandeurs moléculaires. Ces résultats se sont trouvés confirmés et précisés lorsque, à la fin du siècle dernier et au commencement de celui-ci, en même temps que se développait l'atomisme statistique, la découverte de l'électron et celle des rayons de Röntgen sont venues permettre la détermination directe, individuelle, et non plus statistique, de certaines de ces grandeurs : charge électrique élémentaire ou grain d'électricité, dimensions des cellules occupées par les atomes dans les divers réseaux cristallins ; puis, par leur intermédiaire, la détermination précise du nombre N d' Avogadro et de la constante k de Boltzmann. Le déterminisme statistique, non seulement réalisait la synthèse nécessaire entre le mécanisme et la thermodynamique, mais venait encore offrir à la spéculation philosophique la possibilité d'échapper au fatalisme impliqué dans le déterminisme absolu et de laisser sa place à l'action. Il suffisait d'admettre la faculté pour l'être vivant de mettre à profit, à la façon du démon de Maxwell ou d'un joueur heureux, les fluctuations favorables, et d'aiguiller, en quelque sorte, l'évolution du monde dans un sens déterminé par sa volonté ou par son instinct. Cette solution du problème de la liberté, vraiment trop facile, me semble fallacieuse en tant qu'elle reporte la difficulté sur l'aiguillage, sur la trappe du démon de Maxwell et sur la manière, nécessairement mécanique, dont il la manoeuvre. Je n'y fais allusion que parce qu'elle a été sérieusement proposée. Ce triomphe du mécanisme, sous sa forme atomique et statistique, devait être sans lendemain. En même temps qu'il se produisait, commençait à se développer la crise des quanta, issue des progrès de nos connaissances des faits qui concernent les interactions ai complexes de la matière et de la lumière et de la nécessité de concilier le double aspect corpusculaire et ondulatoire de la réalité.

Le déterminisme ondulatoire. - Parallèlement aux conceptions mécaniste et énergétiste, et à peu près indépendamment, s'est développée, tout au long du XIXème siècle, une troisième synthèse de plus en plus puissante et dominatrice, celle de l'électromagnétisme, enrichie par sa conquête de l'optique, science que le mécanisme, malgré de multiples efforts, depuis Fresnel jusqu'à Lord Kelvin et Larmor, s'était avéré incapable d'interpréter. Dans ce nouveau domaine, où la continuité règne en maîtresse, se sont introduites dès l'abord des notions entièrement nouvelles, de charge et de potentiel électriques, de masse et de moment magnétique, grandeurs de nature vectorielle dont la distribution dans l'espace et la variation dans le temps font l'objet de lois fondamentales déduites de l'expérience. Depuis la conquête de l'optique, dont la liaison intime avec l'électromagnétisme, la nature électromagnétique, a-t-on pu dire, sont définitivement établies, ce sont surtout les variations périodiques de ces champs dans l'espace et dans le temps et les phénomènes d'oscillations et d'ondes électromagnétiques, qui ont pris l'importance essentielle, les phénomènes statiques n'en apparaissant plus que comme des cas limites ou des cas particuliers. Il s'est ainsi constitué une physique des champs, une physique ondulatoire, avec ses lois et son déterminisme propres où les équations aux dérivées partielles jouent le même rôle que les équations différentielles ordinaires en mécanique. Moyennant la connaissance de conditions initiales bien définies, l'évolution d'un système électromagnétique se trouve entièrement déterminée et s'obtient par la superposition d'ondes de diverses fréquences se propageant toutes, dans le vide, avec la vitesse de la lumière. On sait comment le fait expérimental que cette propagation se fait de la même manière isotrope pour tous les observateurs liés à des systèmes de référence galiléens, a donné naissance à la crise de la relativité et à l'abandon, entièrement justifié par toutes les expériences ultérieures, de la mécanique newtonienne classique dès que les vitesses des mobiles cessent d'être très petites par rapport à la vitesse de la lumière.

Le déterminisme ondulatoire, sous sa forme classique, représente admirablement la plupart des faits observés à notre échelle dans les relations de la lumière avec la matière, et nous ne pouvons observer la lumière que par l'intermédiaire de semblables interactions, action photochimique sur l'oeil ou la plaque photographique, action photoélectrique sur la cellule sensible dont l'usage se répand de plus en plus dans les applications. Tous les phénomènes qui concernent la propagation des ondes électromagnétiques dans la matière avec une vitesse inversement proportionnelle à l'indice de réfraction, les interférences, les diffractions, sont représentés avec une extrême précision par le déterminisme ondulatoire, mais seulement, et il y a ici encore une restriction, tant qu'on ne cherche pas à vérifier de trop près la continuité des effets observée. Déjà la découverte de l'électron avait montré quo les charges ou lis courants électriques auxquels nous avons affaire en pratique ne doivent leur apparente continuité qu'au nombre immense de grains d'électricité, tous égaux entre eux, qui y interviennent. On peut maintenant, par la technique des compteurs, déceler et dénombrer les passages individuels de particules émises par les substances radioactives ou présentes dans les rayons cosmiques, et, par la technique de la chambre de Wilson où une goutte d'eau se condense sur chaque grain d'électricité présent soue forme d'ion dans un gaz, saisir et photographier individuellement les trajectoires de ces particules. Mais cette discontinuité concerne seulement la matière, seule capable de porter des charges électriques, même sous sa forme la plus ténue, celle de l'électron. J'ai rappelé tout à l'heure comment la mesure directe du grain d'électricité constitue le moyen le plus précis pour atteindre les grandeurs atomiques et moléculaires. Bien plus imprévus et plus troublants sont les faits qui imposent l'idée d'une discontinuité dans la structure du rayonnement lui-même, sous forme du grain de lumière ou photon, d'énergie proportionnelle à la fréquence du rayonnement auquel il est associé, et doué de propriétés telles que la matière, quelle qu'elle soit, ne peut émettre ou absorber de rayonnement que par nombres entiers de photons ou quanta. Une expérience très simple va nous permettre de manifester cette discontinuité fondamentale dans la structure de la lumière. Prenons une plaque photographique ayant servi à enregistrer des franges d'interférence ou de diffraction. Un premier examen, de la distance entre les franges ou du noircissement de la plaque au micro-photomètre, nous montrera l'accord parfait des résultats avec les prévisions de la théorie ondulatoire. Regardons maintenant de plus près la plaque avec un microscope suffisamment grossissant pour permettre de voir séparément les grains d'argent, plus nombreux là où le noircissement est plus fort, qui proviennent de la réduction par le développateur des grains de bromure ou d'iodure d'argent contenus dans l'émulsion et impressionnés par la lumière. On constate immédiatement que le nombre de ces grains noirs d'argent, surtout dans les régions les plus claires de l'image, est bien inférieur au nombre des grains sensibles à la lumière initialement contenus dans l'émulsion et dont la plupart ont été dissous par le fixateur sans avoir été réduits au développement, sans avoir, par conséquent, été impressionnés par la lumière. Si celle-ci a la structure continue que lui attribue la théorie ondulatoire, quelle que soit l'intensité du rayonnement, tous les grains de l'émulsion doivent avoir été soumis à la même action électromagnétique et devraient tous montrer après développement le même noircissement proportionnel à l'intensité du rayonnement. Au lieu de cette moyenne, ce que montre l'expérience est au contraire du tout ou rien, certains grains seulement sont impressionnés, en nombre qui semble exactement proportionnel à l'intensité du rayonnement, tant que celle-ci n'est pas trop grande. Cet examen éveille immédiatement l'idée de ce que donnerait, sur un pavage à peu près régulier, une petite pluie dont le nombre des gouttes serait insuffisant pour mouiller tous les pavés. Comme il y a peu de chances, si le nombre des gouttes est assez petit par rapport à celui des pavés, pour qu'un pavé reçoive deux gouttes, le nombre des pavés mouillés peut être considéré comme sensiblement égal au nombre des gouttes, c'est-à-dire proportionnel à l'intensité de la pluie. Notre microscope semble donc bien imposer l'idée que, de même que la pluie est composée de gouttes, la lumière est composée d'un nombre fini de grains d'énergie ou photons qui, si l'émulsion est suffisamment compacte, sont. absorbés par un nombre égal de grains dont ils provoquent la réduction par le révélateur, produisant ainsi un noircissement d'ensemble proportionnel à l'intensité du rayonnement. Si on connaît cette intensité en énergie par unité de surface de la plaque, le dénombrement des grains d'argent, et par conséquent des photons, permettra d'avoir une mesure, au moins approximative, de l'énergie transportée par chacun de ceux-ci, de même qu'une mesure au pluviomètre de la quantité d'eau tombée et le dénombrement des pavés mouillés permettrait de connaître la grosseur moyenne des gouttes. On pourra constater, par des mesures de ce genre, que l'énergie du grain de lumière ne dépend que de la couleur de la lumière, c'est-à-dire de la fréquence du rayonnement, et augmente avec celle-ci suivant une loi de proportionnalité. Des résultats analogues, mais beaucoup plus précis, sont obtenus quand on s'adresse à l'effet photoélectrique d'arrachement d'électrons à un métal par une lumière de fréquence supérieure à une certaine limite, variable avec le métal. En mesurant l'énergie cinétique des électrons par la différence de potentiel qu'ils sont capables de remonter, on constate, comme l'a fait Millikan, que ces électrons arrachés ont tous une même énergie. et que celle-ci augmente proportionnellement à la fréquence du rayonnement avec un coefficient h que nous appelons la constante de Planck. La théorie ondulatoire classique ne permet pas de comprendre pourquoi, de même que certains grains seulement de l'émulsion photographique étaient impressionnés, certains électrons seulement sont arrachés du métal avec une énergie égale pour tous, fonction seulement de la fréquence et complètement indépendante de l'intensité du rayonnement. Comme pour l'impression photographique, cette intensité influe seulement sur le nombre d'électrons, qui lui est exactement proportionnel. La lumière se comporte ici encore comme une pluie d'un nombre fini de grains dont chacun cède son énergie à un seul électron pour l'arracher du métal. Ces expériences, conformément à des prévisions de M. Einstein, mettent en évidence un véritable caractère corpusculaire du rayonnement, ou plutôt un caractère discontinu, granulaire, des échanges d'énergie entre le rayonnement et la matière. Antérieurement déjà, M. Planck avait été conduit à introduire cette même idée, sous forme d'hypothèse, pour expliquer l'écart énorme, que j'ai rappelé plus haut, entre la composition du rayonnement à l'intérieur d'un four en équilibre de température, et les prévisions de la théorie électromagnétique classique avec sa distribution continue des champs et de l'énergie dans l'espace occupé par l'onde. M. Planck avait montré qu'il suffit, pour retrouver la loi expérimentale, d'admettre que l'émission ou l'absorption du rayonnement par la matière se fait par degrés discontinus, par quanta d'énergie proportionnelle à la fréquence avec un coefficient h dont il put calculer la valeur et qui, de manière bien remarquable, se trouve exactement égal à celui que fournissent les expériences photoélectriques de Millikan rappelées plus haut, ou, de manière plus grossière, les expériences sur l'impression des plaques photographiques. Depuis le développement des théories relatives à la structure des atomes, et de la nouvelle mécanique ondulatoire ou quantique, cette quantité h s'est révélée comme une des constantes universelles les plus importantes, que nous appelons le quantum d'action. Elle règne en maitresse sur tout le monde intra-atomique ou moléculaire. Tout état stationnaire, ainsi que tout changement, y est dominé par elle et obéit à des lois dans l'énoncé desquelles elle figure.

Un grand pas aura été fait en philosophie naturelle quand nous comprendrons mieux sa nature profonde et sa signification. De même que l'examen an microscope des phénomènes de fluctuation auxquels donne lieu la matière met en évidence l'intervention dans tous d'une même constante universelle, k, de Boltzmann, immédiatement reliée aux grandeurs moléculaires et permettant leur détermination, en même temps qu'elle fixe les limites du déterminisme thermodynamique, l'examen au microscope des effets de la lumière, ainsi que certains phénomènes d'ordre plus macroscopique comme l'effet photoélectrique ou le rayonnement thermique, mettent en évidence l'intervention dans tous d'une même constante universelle, h, de Planck, qui vient fixer les limites du déterminisme ondulatoire tel que l'exprime la théorie classique de l'électromagnétisme et du rayonnement. Nous avons vu comment la mécanique statistique, développée par Gibbs et Boltzmann, avait permis de réaliser la synthèse du mécanisme et de la thermodynamique, en justifiant cette dernière dans le domaine macroscopique où elle s'avère conforme aux faits, en tirant de son insuffisance dans le microscopique des moyens tous concordants d'atteindre la réalité moléculaire, et enfin en donnant au mécanisme conjugué à l'atomistique un aspect plus humain par l'admission explicite de notre ignorance des comportements moléculaires individuels. Néanmoins, le succès de cette interprétation statistique laissait subsister, en lui apportant même ce qui pouvait apparaître comme une justification nouvelle, l'image laplacienne du monde et son déterminisme absolu, avec les conséquences paradoxales qu'il comporte ; il aboutissait seulement à creuser plus profondément l'abîme qui sépare l'idéal correspondant de la Science et nos possibilités humaines, en faisant jouer, par l'intermédiaire de la statistique, un rôle fondamental à notre ignorance. Ne s'expose-t-on pas à des difficultés de divers ordres en introduisant d'emblée la contradiction qui consiste à fixer un but à la Science en même temps qu'on déclare ce but inaccessible? L'introduction du quantum d'action h et la découverte connexe des aspects corpusculaires du rayonnement ont très vite conduit à deux perfectionnements essentiels de la mécanique statistique. Sous sa forme primitive, en effet, celle-ci laissait subsister deux difficultés de principe, portant toutes deux sur la définition même de la probabilité d'une configuration du système considéré. Cette définition se fait en deux temps tout d'abord chaque configuration macroscopiquement discernable du système peut être obtenue par un certain nombre de distributions microscopiquement différentes (ou complexions également probables) des particules qui le composent entre les différents états dont chacune de ces particules est susceptible, et la probabilité d'une configuration est définie comme proportionnelle au nombre des cas favorables, c'est-à-dire au nombre des complexions différentes qui correspondent à cette configuration. Avant de pouvoir faire ce dénombrement des distributions ou complexions favorables, il est nécessaire de bien définir chacune de celles-ci. Chaque particule est considérée comme pouvant prendre toute une série d'états également probables a priori, et une première difficulté se présente, même lorsqu'on laisse de côté la question des états internes de la particule, atome ou molécule, ou des mouvements de rotation de celle-ci, et qu'on l'assimile à un simple point matériel dont l'état, au sens de la mécanique, est défini par sa position et sa vitesse, ou sa quantité de mouvement, c'est-à-dire est susceptible de variations continues. Chaque état du point matériel peut être représenté par un point déplaçable en principe de façon continue à l'intérieur d'un domaine à six dimensions ou extension en phase, toute position de ce point représentatif étant définie par trois coordonnées d'espace (position du point matériel) et trois coordonnées d'impulsion, conjuguées des premières (quantité de mouvement du point matériel). Il résulte des lois de la mécanique que des domaines égaux d'extension en phase sont également probables a priori pour la présence du point représentatif. On est donc conduit à découper le domaine total en éléments égaux dont chacun correspondra à l'un des états également probables de la particule. Mais à quelle valeur commune fixer l'extension en phase de chacun de ces éléments ? Cette valeur devrait être infiniment petite pour respecter la continuité admise dans les variations possibles de position et de vitesse de la particule, mais on s'aperçoit bien vite que le nombre des complexions correspondant à une configuration macroscopique quelconque tend vers l'infini en même temps que le nombre des états possibles pour chaque particule, quand on fait tendre vers zéro la valeur commune à tous les domaines élémentaires d'extension en phase. En mécanique statistique classique, on éludait plutôt qu'on ne résolvait cette difficulté, en laissant indéterminée cette grandeur du domaine élémentaire, ce qui revient, au moins dans le cas d'un gaz parfait, à ne définir la valeur théorique de l'entropie qu'à une constante additive près. Il n'en résulte aucun inconvénient tant qu'on ne fait intervenir que des différences d'entropie, dans lesquelles cette constante disparaît. Mais depuis l'introduction du théorème de Nernst, qui fait intervenir la valeur même de l'entropie, certaines données expérimentales, comme celles qui concernent les tensions de vapeur, permettent d'atteindre cette constante, et par conséquent la valeur, différente de zéro, qu'il convient d'attribuer an domaine élémentaire d'extension en phase. De manière aussi simple que remarquable, ainsi que l'avait prévu Planck dès le début du développement de la théorie des quanta, cette valeur est directement liée au quantum d'action h et égale à h*f, si f est le nombre des degrés de liberté de chaque particule, trois par exemple si celle-ci se comporte comme un simple point matériel ; c'est le cas pour les molécules monoatomiques à température suffisamment basse pour qu'aucun changement d'état interne ne puisse résulter de l'agitation thermique. La valeur ainsi obtenue est bien conforme aux conditions d'homogénéité puisque, pour chaque degré de liberté, une variation delta p de la coordonnée de position et une variation delta q de la composante correspondante de l'impulsion contribuent par leur produit delta(p)*delta(q) à déterminer la grandeur du domaine élémentaire delta(w), d'extension en phase :

delta(w) = delta(p(1))*delta(q(1))*delta(p(2))*delta(q(2))* ... *delta(p(j))*delta(q(j)).

Or le produit delta p delta q d'une coordonnée par l'impulsion correspondante est homogène au produit d'une énergie par un temps, c'est-à-dire à une action, précisément comme la constante h elle-même d'après la définition du quantum de Planck. Ainsi l'expérience vient manifester une intervention profonde et générale de la constante h alors même qu'il ne s'agit plus, au moins explicitement, d'échanges entre matière et rayonnement, mais simplement de définir les états dont la mécanique statistique doit considérer qu'une particule matérielle quelconque est susceptible, quand on ne considère que son mouvement d'ensemble. L'introduction du quantum d'action permet donc de lever, de manière aussi imprévue que précise, une difficulté que les fondateurs de la mécanique statistique avaient laissée dans l'ombre et qui prend, à la lumière de ce que nous savons maintenant, une importance fondamentale. L'expérience en effet, comme nous venons de le voir, impose à la mécanique statistique de renoncer à la continuité dans la série des états de position et de mouvement d'une particule, continuité postulée à la base même de la géométrie et de la mécanique classiques. Nous ne devons envisager qu'une série discontinue d'états correspondant chacun à un domaine élémentaire d'extension en phase d'étendue h. Cela revient à dire que deux états de position et de mouvement trop voisins ne doivent pas être considérés comme distincts ; de manière plus précise, si l'on ne considère qu'un seul degré de liberté, deux états ne peuvent être considérés comme distincts, comme expérimentalement séparables, que si leurs écarts delta(p) en position et delta(q) en impulsion satisfont à la condition : delta(p)*delta(q)> h. On voit, par cet énoncé, le lien qui existe entre les résultats précédents et le fameux principe d'indétermination de Heisenberg, que j'appellerais plus volontiers, en raison de ce qui précède, le principe de discontinuité. Je rappellerai plus loin la substitution introduite par Bohr pour interpréter les faits de la spectroscopie, d'une succession discontinue d'états internes pour chaque espèce de particule, à la succession continue imposée par l'application de la mécanique classique au système des corpuscules électrisés dont l'expérience avait révélé la présence à l'intérieur de tout atome ou molécule. Il est très remarquable que cette idée, d'apparence si paradoxale et qui s'est montrée si féconde, puisse apparaître comme le prolongement de ce que l'expérience vient imposer pour les états externes. Et la succession discontinue des états internes est dominée, ainsi que l'a montré pour la première fois Bohr, comme celle des états externes, par l'intervention du quantum d'action. Remarquons encore ceci : les énoncés de Bohr et ceux, plus satisfaisants, de la mécanique ondulatoire, définissent de manière précise, au point de vue des énergies, la série discontinue des états internes permanents dont une particule complexe est susceptible ; au contraire, la notion classique du corpuscule-objet et du point représentatif de ses états de position et de mouvement dans l'extension en phase, se prête mal à la définition de la série discontinue des états externes. Chacun de ces états n'y est défini en effet qu'avec le flou correspondant à la présence du point représentatif à l'intérieur d'une cellule finie d'extension en phase, cellule dont l'étendue seule, et non la forme, est bien déterminée par la constante h. L'image ondulatoire, au contraire, permet de donner, pour la série discontinue des états externes, des énoncés et une représentation aussi simples et satisfaisants que dans le cas des états internes ; elle rend possible une synthèse à laquelle ne se prête pas l'image corpusculaire. Nous venons de voir, à propos de cette première difficulté à laquelle s'est heurtée la mécanique statistique classique fondée sur la notion du corpuscule-objet ou du point matériel, apparaître la pénombre dans laquelle se perd cette notion dès qu'on veut en poursuivre l'application dans le domaine ultra-microscopique où nous amène la constante h égale à 6,55.10-27 unités C. G. S. L'examen de la seconde difficulté va nous conduire, comme pour la précédente, à des perfectionnements importants de la statistique au point de vue accord avec l'expérience, en même temps qu'à des conclusions analogues en ce qui concerne la notion de corpuscule. Après avoir défini au moyen de la constante de Planck la série des états que peut prendre chaque particule, il faut, nous l'avons vu, pour évaluer la probabilité d'une configuration de l'ensemble des particules, dénombrer les complexions correspondantes, c'est-à-dire les manières différentes dont cette configuration peut être obtenue par distribution des particules entre les différents états possibles, ces diverses manières devant être considérées comme également probables a priori. Il reste à préciser à quelles conditions deux complexions devront et pourront être considérées comme différentes. A chaque particule correspond un point représentatif dans l'extension en phase, et à l'existence de la particule dans un état déterminé correspond la présence de son point représentatif dans le domaine élémentaire, dans la cellule d'extension en phase caractéristique de cet état. Le nombre total des points représentatifs est égal au nombre N des particules qui composent le système. Si ses particules sont considérées comme identiques, et par conséquent indiscernables, il peut sembler naturel de définir entièrement une complexion ou distribution par le nombre des points représentatifs présents dans chaque domaine élémentaire, par le nombre des particules qui se trouvent dans chacun des états possibles. Deux distributions ne seraient considérées comme différentes que si une au moins des cellules renferme des nombres différents de points représentatifs dans ces deux distributions. Par une contradiction qui nous parait aujourd'hui singulière depuis que l'expérience est venue leur donner tort, les fondateurs de la mécanique statistique classique ont dé-nombré les complexions en attribuant une individualité à chaque particule, en raisonnant comme s'il était possible de distinguer les unes des autres ces particules pourtant définies comme identiques et par conséquent indiscernables, comme s'il était possible d'affecter chacune d'elles et son point représentatif d'une étiquette, d'un numéro depuis 1 jusqu'à N, permet-tant de la reconnaître au sein de la foule et de la suivre dans son comportement. Deux complexions doivent être, à ce point de vue, considérées comme différentes même lorsqu'elles correspondent au même nombre de particules dans chaque état, si ces particules ne sont pas les mêmes pour tous les états dans les deux distributions. La simple permutation de deux points représentatifs entre deux cellules est considérée comme suffisante pour changer la complexion, bien que rien, en réalité, ne permette de distinguer ces deux points ni les particules qu'ils représentent. Le contact avec l'expérience est venu pour la première fois dénoncer cette contradiction lorsque, comme vous l'a rappelé hier M. Born, on a voulu poursuivre les conséquences de la découverte des photons, en appliquant la mécanique statistique an rayonnement présent à l'intérieur d'un récipient où l'énergie rayonnante est supposée constituée par une assemblée de photons se mouvant en tous sens comme les molécules d'un gaz, avec une même vitesse égale à celle de la lumière, mais avec des énergies différentes suivant la fréquence nu qui leur est associée. La distribution la plus probable de l'énergie entre les fréquences doit donner la composition du rayonnement thermique. En utilisant la statistique classique, c'est-à-dire en attribuant une individualité à chaque photon, on trouve une loi de distribution dite loi de Wien, qui concorde bien avec la loi expérimentale aux grandes fréquences, mais s'en écarte d'autant plus que la fréquence est plus basse, ou la longueur d'onde plus grande. M. Bose a montré qu'on retrouve bien, au contraire, la loi conforme à l'expérience, dite loi de Planck, en renonçant à l'individualité du photon et en ne considérant deux complexions comme différentes, ainsi qu'il nous a paru tout d'abord raisonnable de le faire, que si les nombres de points représentatifs y sont différents, au moins dans un des domaines élémentaires. M. Einstein a montré, aussitôt après, que si l'on applique cette même méthode de dénombrement des complexions, dite statistique de Bose-Einstein, au cas d'un gaz matériel, on retrouve bien les résultats de la statistique classique, en particulier la loi des gaz parfaits, mais qu'on s'en écarte aux basses températures suivant une loi dite de dégénérescence que l'expérience semble bien confirmer, en particulier dans le cas de l'hélium. Bose, pour les photons, et Einstein, pour les molécules d'un gaz, admettaient que chaque cellule d'extension en phase peut contenir un nombre quelconque de pointa représentatifs, que chaque état possible pour les corpuscules peut être occupé par un nombre quelconque d'entre eux. M. Fermi a montré que lorsqu'il s'agit d'un gaz composé d'électrons, par exemple des électrons libres à l'intérieur d'un métal et auxquels celui-ci doit sa conductibilité électrique et thermique, il faut appliquer à ces corpuscules une statistique différente, tenant compte du principe d'exclusion si heureusement introduit par M. Pauli représenter la structure et les propriétés des atomes.

Conformément à ce principe, un même état ne peut être occupé simultanément par plus d'un électron ; le nombre des points représentatifs des corpuscules qui composent le gaz électro-nique ne pourra donc prendre, à l'intérieur de chaque cellule d'extension en phase, que les valeurs zéro ou un. La nouvelle statistique retrouve bien, comme les deux autres, la loi des gaz parfaits, aux températures élevées ou aux faibles concentrations, mais prévoit à basse température ou à forte concentration, comme c'est le cas pour les électrons libres dans les métaux, une dégénérescence qui s'écarte des résultats de la statistique classique dans un sens opposé à celui do la dégénérescence Bose-Einstein, et que l'expérience vient confirmer, en particulier dans le cas de la conductibilité métallique. II est bien établi maintenant que l'expérience n'est d'accord, suivant les cas, qu'avec l'une ou l'autre des deux statistiques, Bose-Einstein ou Pauli-Fermi, qui ont ce caractère commun, conforme au postulat d'indiscernabilité, de n'attribuer aucune individualité aux corpuscules, matériels ou lumineux, et de ne distinguer entre eux que les états différents dans lesquels ces corpuscules peuvent se trouver. L'expérience ne connaît, et la théorie ne doit introduire, que les nombres de corpuscules se trouvant dans chacun de ces états. Ainsi se trouvent résolues, en accord avec l'expérience, les deux difficultés fondamentales que laissait subsister la mécanique statistique sous la forme primitive que lui avaient donnée Gibbs et Boltzmann. Le résultat le plus imprévu et le plus étranger aux notions purement mécaniques, est celui qui concerne la nécessité de donner aux domaines élémentaires caractéristiques des divers états possibles de la particule, une extension en phase finie, égale pour tous et uniquement déterminée par la constante de Planck. Cette nécessité, qui s'est imposée au cours du développement de la représentation corpusculaire, de la matière d'abord, du rayonnement ensuite, va nous apparaître sous un jour nouveau et beaucoup plus satisfaisant lorsque nous aurons compris que, dans le cas du rayonnement et des photons qui le composent, elle est une conséquence du double aspect ondulatoire et corpusculaire de l'énergie rayonnante. En effet, Lord Rayleigh avait montré, il y a quelque cinquante ans, que si l'on analyse, au point de vue ondulatoire, la structure du rayonnement à l'intérieur d'une enceinte à parois réfléchissantes, on peut la représenter, de manière analogue à la décomposition d'une fonction quelconque en série de Fourier, par la superposition d'une série discontinue d'ondes stationnaires ayant chacune sa fréquence propre et différant les unes des autres par la fréquence ou par l'orientation des plans nodaux. Chacune de ces ondes correspond à l'un des modes propres d'oscillation électromagnétique de l'espace intérieur à l'enceinte, à l'un des états que peut y prendre l'énergie rayonnante. la théorie électromagnétique classique suppose que l'amplitude de chacun de ces modes d'oscillation propre peut varier de façon continue. Lord Rayleigh, Jeans, et, de façon plus complète, Hendrik Antoon Lorentz, ont montré qu'il est légitime d'appliquer à l'ensemble do ces modes les raisonnements et les résultats généraux de la mécanique statistique, que chacun d'eux est équivalent à un degré de liberté auquel est applicable le théorème d'équipartition de l'énergie. II en résulte que, dans la distribution la plus probable, qui correspond à l'équilibre thermique, tous ces modes propres doivent être excités avec une même énergie, proportionnelle à la température absolue, et égale à k*T, k étant la constante de Boltzmann. Comme le nombre de ces modes propres est infini, quoique dénombrable, il en résulte la conséquence paradoxale signalée plus haut, que l'énergie rayonnée à l'intérieur d'une enceinte en équilibre thermique devrait être infinie à toute température. La loi de distribution de l'énergie du rayonnement thermique entre les fréquences, dite loi de Rayleigh-Jeans, ainsi obtenue en appliquant la statistique classique à l'aspect ondulatoire du rayonnement, concorde avec la loi expérimentale aux basses fréquences et s'en écarte de plus en plus aux fréquences élevées, exactement à l'inverse de ce que fait la loi de Wien, obtenue en appliquant la statistique classique à l'état corpusculaire du rayonnement. Planck d'abord, et Debye ensuite sous une forme plus précise, ont montré que, pour retrouver la loi expérimentale exacte, il faut abandonner l'hypothèse de la continuité dans les variations possibles de l'amplitude ou de l'énergie pour chacun des modes de vibration électromagnétique propres à l'enceinte et supposer que l'énergie peut varier seulement par nombre entier de quanta de grandeur h*nu, si nu est la fréquence du propre considéré. Dans le langage des photons, ceci revient à dire que chacun des modes de vibration propre, chacun des états possibles de l'énergie rayonnante à l'intérieur de l'enceinte, ne peut être occupé que par un nombre entier de photons. Ce résultat, obtenu en partant de l'aspect ondulatoire pour édifier une statistique du rayonnement conforme à l'expérience, recouvre exactement celui que nous avons obtenu d'après Bose en panant de l'aspect corpusculaire, à condition que chacun des modes de vibration propre introduite par Rayleigh corresponde à l'une des cellules d'extension en phase de grandeur introduites par Bose d'après Planck. Et l'on constate effectivement qu'il en est bien ainsi : le nombre des cellules de Bose dans un intervalle donné d'énergie du photon est exactement égal au nombre des modes de vibration propre de Rayleigh dans l'intervalle correspondant de fréquence, si l'on tient compte de la relation de Planck entre l'énergie du photon et la fréquence des ondes associées. Ainsi se manifeste, sur le plan statistique, le lien indissoluble, la complémentarité, comme dit Bohr, des deux aspects ondulatoire et corpusculaire, imposés par l'expérience, et des deux points de vue correspondants de la théorie du rayonnement. Si nous partons du point de vue ondulatoire qui introduit la discontinuité entre les modes de vibration propre ou les états correspondants de l'énergie, nous devons, avec Planck et Debye, quantifier les énergies présentes dans chaque état, et affirmer que chacun de ces états ne peut être occupé que par un nombre entier de quanta ou de photons. Si nous partons au contraire avec Bose de la conception corpusculaire, en introduisant une première discontinuité par l'hypothèse de l'existence d'un nombre entier de photons dans toute manifestation du rayonnement, il nous faut en introduire une seconde sous forme d'une série discontinue d'états, de cellules d'extension en phase dont chacune peut et doit être occupée par un nombre entier de photons, auxquels les raisonnements statistiques ne doivent d'ailleurs attribuer aucune individualité. Le flou qui subsiste dans la définition de ces états quand on part du point de vue corpusculaire, disparaît quand on les envisage du point de vue ondulatoire, comme correspondant chacun à l'un des modes propres de vibration électromagnétique, le photon étant alors représenté par l'un des degrés nécessairement égaux et discontinus dont est susceptible l'excitation du mode de vibration propre, considéré. Ainsi se révèle, pour rendre compte des faits, la nécessité d'introduire, dans un cas comme dans l'autre, mais dans des ordres différents, une double discontinuité dans la structure du rayonnement, l'une d'origine ondulatoire, celle des états, l'autre d'origine ou d'aspect corpusculaire, celle des photons. On conçoit que, selon la nature de l'expérience, l'un ou l'autre de ces aspects se montre prédominant, mais ils s'avèrent inséparables dans une représentation théorique de l'ensemble des propriétés de la lumière. C'est là le sens qu'il faut attacher à la nécessité d'une double quantification. On voit d'ailleurs, par la précision et la clarté beaucoup plus grandes avec lesquelles y apparaît la discontinuité entre les états, considérés comme modes ondulatoires propres, l'avantage que présente la voie Rayleigh-Planck-Debye pour introduire cette double discontinuité : le photon n'apparaît qu'en second lieu, comme degré discontinu d'excitation d'un état, susceptible de se manifester sous l'aspect corpusculaire d'une localisation spatiale de l'énergie rayonnante, dans les phénomènes photo-électriques par exemple. Cette façon de présenter la statistique du rayonnement est conforme à l'ordre historique du développement de nos connaissances sur les propriétés de la lumière. Noue allons voir qu'il en est autrement en ce qui concerne la matière, dont les propriétés font l'objet d'une synthèse exactement calquée sur la précédente, et connue aujourd'hui sous le nom de mécanique ondulatoire. Une circonstance a été signalée par M. Einstein où se manifeste avec une clarté particulière le lien profond entre les deux discontinuités ondulatoire et corpusculaire, celle des états et celle des photons. Elle concerne les fluctuations dans la distribution spatiale de l'énergie rayonnante à l'intérieur d'une enceinte en équilibre thermique. L'énergie rayonnante présente à l'intérieur d'un volume déterminé de l'enceinte dans un petit intervalle de fréquente autour de la fréquence nu varie d'un instant à l'autre autour de sa valeur moyenne. L'application de la théorie générale des fluctuations à la loi expérimentale ou loi de Planck qui donne la distribution de cette énergie entre les fréquences conduit, pour ces variations, à une formule à deux termes, dont l'un, dit terme ondulatoire, est le seul auquel conduirait la loi de Rayleigh-Jeans où intervient seule la discontinuité des états, et l'autre, dit terme corpusculaire, est le seul auquel conduirait la loi de Wien où intervient seule la discontinuité des photons. L'expérience impose donc bien, à ce point de vue aussi, la double discontinuité, et la loi des fluctuations a l'intérêt de faire figurer côte à côte, en les traduisant par deux termes additifs et indépendants, l'aspect ondulatoire et l'aspect corpusculaire du rayonnement. La formule montre immédiatement que les deux termes ont des importances comparables pour les fréquences du même ordre que celle qui correspond au maximum d'énergie dans le spectre du rayonnement thermique, c'est-à-dire dans la région des fréquences lumineuses ou infra-rouges pour les températures réalisables au laboratoire. Le terme ondulatoire devient le plus important aux basses fréquences, le terme corpusculaire, au contraire, aux fréquences élevées. En liaison avec ce résultat, on peut placer le fait expérimental que le caractère ondulatoire du rayonnement prédomine aux basses fréquences, celles des ondes hertziennes par exemple où le photon est extrêmement petit et toujours présent en nombres énormes dans toutes les manifestations observables ; au contraire, le caractère corpusculaire devient de plus en plus manifeste aux fréquences élevées pour s'imposer à peu près exclusivement dans le domaine des rayons cosmiques où le photon intervient en général isolément.

Le déterminisme statistique et la radioactivité. — Cette intervention de la statistique avait au début un caractère auxiliaire et son but était seulement, sans modifier la conception fondamentale du déterminisme mécanique, de suppléer, dans l'interprétation des faits expérimentaux, à notre ignorance de ce qui concernait les particules individuelles. Elle a pris bientôt un aspect plus fondamental en substituant à la statistique primitive des statistiques nouvelles, imposées et confirmées par les faits, où la particule, molécule, atome, électron ou photon, cesse d'être considérée comme un objet identifiable s'estomper et se perdre dans le cadre d'une cellule d'extension en phase, d'un état énergétique ou ondulatoire dont nous avons vu, au moins jusqu'ici pour le photon, que le corpuscule présente seulement un échelon dans la série discontinue des degrés possibles d'excitation ou d'occupation. La découverte de la radioactivité est venue révéler un aspect nouveau des propriétés de l'atome où la statistique joue un rôle prépondérant, où les transformations spontanées se poursuivent sans être influencées par aucune action extérieure, ne paraissant soumises qu'aux seules lois du hasard, à un véritable déterminisme statistique. En effet, l'énoncé de la loi fondamentale qui régit ces transformations a un caractère purement statistique: la probabilité pour un atome radioactif d'une espèce donnée de subir une des transformations dont il est susceptible, au coure d'un intervalle de temps infiniment petit, est exactement proportionnelle à la durée dt de cet intervalle avec un coefficient qui est une constante caractéristique de l'espèce d'atomes et de la transformation considérées. Les conséquences de cette loi, déduites par l'intermédiaire du calcul des probabilités, sont exactement vérifiées par l'expérience. Tout d'abord en ce qui concerne les lois de moyennes ou lois de grands nombres : une quantité d'une matière radioactive contenant un grand nombre d'atomes de même espèce, disparait au cours du temps suivant une loi exponentielle décroissante satisfaisant à la condition que la quantité transformée pendant l'intervalle de temps compris entre t et t + dt est proportionnelle à la quantité existante à l'instant t et à la durée de l'intervalle. Ce sont également des lois déduites du calcul des probabilités qui régissent la distribution dans le temps des transformations individuelles, enregistrées au moyen de compteurs que traversent les particules alpha ou beta émises lors de chacune de ces transformations, soit en ce qui concerne la distribution des intervalles de temps entre deux émissions successives, soit en ce qui concerne les fluctuations autour de la valeur moyenne du nombre des émissions pendant des intervalles de temps successifs d'égale durée. Exactement comme, au jeu, un écart trop important à partir des lois du hasard peut faire soupçonner une tricherie, un écart à partir des conséquences de l'application du calcul des probabilités dans le domaine de la radioactivité fera conclure à une erreur d'expérience ou à l'apparition d'un fait nouveau. Tout cet ensemble de faits s'interprète par un déterminisme de forme purement statistique.

Le développement de cet important domaine a exercé une influence profonde sur toute l'histoire récente de la physique, puisque c'est grâce à la découverte des phénomènes radioactifs et des lois si simples qui les régissent que nos conceptions modernes de l'atome, de la structure des lois physiques et par conséquent du déterminisme, ont pu se constituer. Non seulement, cette découverte nous a fourni, sous la forme des particules alpha, le premier moyen d'investigation intra-atomique et de transmutation provoquée, permettant la découverte du noyau et de ses constituants, proton et neutron, ainsi que celle de la radioactivité artificielle, mais encore, les transformations radioactives ont apporté le premier exemple de ces transitions à déterminisme purement statistique qui sont aujourd'hui à la base de toute représentation physique et permettent d'interpréter les lois les plus fondamentales d'action entre particules ainsi que les transformations de celles-ci.

L'atome de Bohr et la mécanique ondulatoire. — Vous savez comment la découverte par Rutherford de la structure nucléaire de l'atome a été suivie par les tentatives de Bohr pour exprimer les lois auxquelles sont soumis les électrons entourant le noyau et qui régissent les échanges d'énergie entre l'atome et le rayonnement. L'application aux électrons péri-nucléaires des lois de la mécanique classique ou même relativiste, conduisait pour l'atome à une série continue d'états possibles et à une structure continue de ses spectres d'émission ou d'absorption, en contradiction formelle avec tous les résultats de la spectroscopie, et conduisait aussi à une instabilité fondamentale des atomes même les plus simple alors que l'instabilité radioactive, d'origine toute différente d'ailleurs et nucléaire, ne se manifeste que dans les atomes déjà très complexes. La manière dont Bohr a procédé pour surmonter ces difficultés est tout à fait analogue à celle dont nous avons vu évoluer la mécanique statistique. De même que la première difficulté rencontrée par celle-ci tenait à la continuité de la série d'états externes prévus pour chaque particule par la mécanique classique et qu'il a fallu y substituer, pour rendre compte des faits, une série discontinue dans la définition de laquelle la constante de Planck joue le rôle essentiel, Bohr, tout en conservant aussi, dans la mesure du possible, le cadre général fourni par la mécanique, a prolongé dans le domaine des états intentes de l'atome ou de la molécule, la substitution à la continuité classique, d'une série discontinue d'états dans la définition de laquelle la constante de Planck intervient aussi de manière fondamentale. Admettant d'autre part que l'émission et l'absorption de rayonnement par l'atome sont liées à des transition entre ces états, il a rencontré un succès considérable dans cette première période, qu'on peut appeler celle de la quantification des orbites, où la liaison de principe avec la mécanique classique et son déterminisme absolu n'était pas encore définitivement rompue. Dès 1917, au milieu de cette première période qui a duré de 1911 à 1924, M. Einstein avait montré, de façon tout à fait intéressante, que sans l'introduction d'aucune autre hypothèse que celle de l'existence des états internes discontinus de Bohr et de la possibilité de transitions entre eux, spontanées ou provoquées et toutes soumises à un déterminisme purement statistique, on retrouvait la loi du rayonnement de Planck ainsi que celle donnée par Boltzmann pour la distribution des atomes entre les différents états possibles.

La mécanique ondulatoire et la physique quantique. — La tentative de Bohr pour édifier une théorie de l'atome conservant un minimum de liaison avec la mécanique corpusculaire et procédant par quantification des solutions de celle-ci, avait pleinement réussi dans le cas où l'atome ne renferme qu'un seul électron autour de son noyau, mais s'est avérée impossible à poursuivre en conformité avec les faits spectroscopiques, dès que le nombre des électrons devient égal à deux, comme c'est le cas pour l'atome d'hélium non ionisé. Il n'a été possible de surmonter cette difficulté qu'en renonçant à développer le point de vue corpusculaire sur les bases de la mécanique classique, et en substituant à celle-ci une mécanique ondulatoire inaugurée par M. Louis de Broglie. L'idée fondamentale, qui apparut en 1924 comme un trait de lumière aussi imprévu qu'efficace, nous semble aujourd'hui s'insérer de manière naturelle dans l'évolution que je retraçais tout à l'heure. Je viens de dire que la série discontinue introduite par Bohr pour les états internes prolongeait exactement la série discontinue des états externes qui avait dû être insérée, de manière assez arbitraire et peu satisfaisante pour l'esprit, dans le cadre de la mécanique statistique corpusculaire, par l'intermédiaire des cellules finies d'extension en phase. Nous avons vu également que, dans le cas du rayonnement, la théorie ondulatoire, antérieure à la découverte du photon, donnait de cette série discontinue d'états une interprétation aussi précise que simple par l'intermédiaire de la série, naturellement discontinue, des modes stationnaires de vibration propre. Nous avons vu que l'aspect actuel de la liaison entre le photon et les ondes associées se présente de la manière la plus claire si l'on introduit d'abord le point de vue ondulatoire pour quantifier ensuite par nombres entiers de photons l'énergie présente dans chacun des états ou modes de vibration propre. La mécanique statistique des particules matérielles donnant lieu exactement aux mêmes difficultés que celle du photon, il peut sembler naturel d'utiliser une même solution dans les deux cas, et d'associer à chaque espèce de particules matérielles des ondes, par un lien analogue à celui qui unit le photon aux ondes lumineuses. C'est bien là l'idée fondamentale de M. de Broglie qui l'appliqua tout d'abord à l'interprétation des états internes de l'atome de Bohr et montra que, dans les cas où l'accord existait entre cette représentation et les faits, la série discontinue des états correspondait exactement à la série des états stationnaires possibles, autour du noyau de l'atome, d'ondes associées à l'électron de manière remarquablement simple. Cette conception reçut très vite une éclatante confirmation par l'observation des phénomènes de diffraction des électrons, entièrement insoupçonnés jusque-là et qui présentaient tous les caractères prévus par la théorie. Ce fut ensuite le rapide développement d'une mécanique ondulatoire, applicable à des systèmes matériels quelconques, et en particulier, avec succès, à l'atome contenant plus d'un électron, devant lequel la conception purement corpusculaire de Bohr était restée impuissante. Ainsi, pour la matière comme pour la lumière, l'expérience est venue imposer à la théorie de tenir compte, dans une même synthèse, de deux aspects, ondulatoire et corpusculaire, indissolublement liés. La présentation la plus claire de cette synthèse commence par le point de vue ondulatoire, conformément à l'ordre historique en ce qui concerne la lumière, mais en opposition avec lui dans le cas de la matière. Ce qu'avait fait Planck pour la lumière, en associant les photons aux ondes, a été fait dans l'ordre inverse pour la matière par Louis de Broglie en associant des ondes aux corpuscules qui la composent. Dans les deux cas la synthèse a le même aspect, et le même lien unit les corpuscules aux ondes. C'est tout d'abord la même relation exprimée par la formule de Planck entre l'énergie du corpuscule et la fréquence de l'onde. C'est, d'autre part, dans un cas comme dans l'autre, un déterminisme ondulatoire, une propagation d'ondes, qui régit la distribution dans l'espace et dans le temps des manifestations individuelles de l'aspect corpusculaire ; mais, comme peut le faire prévoir le caractère de plus en plus statistique de toute l'évolution que je viens de retracer, la liaison entre ondes et corpuscules est de nature essentiellement statistique ; le lien entre la théorie et l'expérience a de plus en plus l'aspect d'un déterminisme ondulatoire statistique. Ainsi que l'a souligné M. Born, la propagation spatio-temporelle de l'onde donne, par le carré du module de l'amplitude phi de celle-ci, c'est-à-dire par son intensité, la probabilité d'apparition d'une manifestation corpusculaire au point et à l'instant considérés. On ne doit pas être surpris que l'amplitude p de l'onde prenne la forme d'une variable imaginaire, généralisant ainsi pour toute la physique une représentation familière à l'optique et à l'électrotechnique des courants alternatifs, puisque cette forme permet de réunir en une seule variable complexe les deux indications relatives à l'intensité de l'onde et à sa phase. C'est l'addition des amplitudes complexes qui donne l'interprétation, lorsqu'il y a superposition d'ondes, de ces phénomènes d'Interférence si particuliers au déterminisme ondulatoire. Le fait que l'intensité de l'onde résultante est en général différente de la somme des intensités des ondes composantes se trouve représenté par la propriété des variables complexes que le carré du module d'une somme est en général différent de la somme des carrés des modules de ses termes ; ainsi, l'introduction de la fonction d'onde imaginaire phi permet de représenter les phénomènes d'interférence et de diffraction auxquels donnent lieu la matière comme la lumière. En liaison avec la signification statistique de l'intensité de l'onde, on dira qu'il y a interférence des probabilités quand il y a superposition des ondes correspondantes et addition de leurs fonctions phi. La connaissance de la fonction d'onde phi et le déterminisme ondulatoire de son évolution spatio-temporelle, de sa propagation, permettent de prévoir, toujours sous forme statistique, non seulement la probabilité de présence des corpuscules qui composent le système, mais encore, pour toute autre donnée expérimentale relative au système, pour toute grandeur observable, la probabilité pour que cette grandeur prenne chacune des valeurs dont elle est susceptible. Ce calcul se fait par application à la fonction phi d'un opérateur caractéristique de chaque observable et les valeurs que peut prendre l'observable sont dites les valeurs propres de l'opérateur correspondant. Ces valeurs forment, selon l'observable, soit une série continue, comme c'est le cas pour les coordonnées de position ou les composantes de quantité de mouvement, soit une série discontinue comme c'est le cas pour le nombre de particules ou pour la charge électrique, soit un ensemble composé d'une partie continue et d'une partie discontinue comme c'est le cas pour l'énergie de l'atome le plus simple, celui d'hydrogène, composé d'un proton et d'un électron. A chaque valeur propre d'une observable est associée une forme particulière de la fonction d'onde, dite fonction propre correspondante, telle que, soumise à l'opérateur caractéristique de l'observable, elle conduise à une probabilité égale à un, c'est-à-dire à la certitude, pour la valeur propre considérée, et à une probabilité nulle pour toutes les autres. La fonction d'onde la plus générale relative au système peut être considérée comme résultant de la superposition des fonctions propres relatives à chacune des valeurs propres d'une observable donnée, chacune de ces fonctions étant affectée d'un coefficient égal à la probabilité que la fonction totale doit donner pour la valeur propre correspondante. Ce résultat simple est lié au caractère linéaire des opérateurs introduits par la mécanique ondulatoire. En général, d'ailleurs, le caractère de fonction propre est relatif à un certain instant et ne se maintient pas au cours du temps. Exactement comme une onde lumineuse qui a dû traverser une petite ouverture s'épanouit au delà par diffraction, de sorte que si la position d'un photon associé a pu être connue avec précision au moment où il traversait l'ouverture, cette précision diminue de plus en plus à mesure que le temps s'écoule et que l'onde se propage, la connaissance précise d'une observable à un instant donné ne suffit pas, en général, pour permettre la prévision avec certitude de la valeur que prendra cette même observable à un instant ultérieur. La diffraction, le flou croissant qu'introduit le temps autour d'une certitude acquise, est un fait général et fondamental en mécanique ondulatoire et dans le déterminisme statistique dont elle pénètre toute la physique. Il est d'ailleurs conforme à l'expérience humaine qu'une certitude acquise à un moment donné ne permette que des conjectures sur ce qui suivra, le halo d'incertitude, l'étalement des probabilités augmentant au cours du temps, à moins qu'une information ultérieure, équivalente à l'interposition d'un second écran percé d'une ouverture sur le trajet du photon, ne vienne renouveler les possibilités de prévision précise, et modifier la fonction d'onde pour tenir compte de la nouvelle information. On voit apparaître ici la différence essentielle entre l'ancienne conception mécaniste du déterminisme et la conception nouvelle, ondulatoire et statistique à sa base.

Alors que, selon la mécanique classique, dont les lois s'expriment par des équations différentielles ordinaires, la connaissance des conditions initiales dans lesquelles se trouve un mobile ou un système matériel quelconque permet de prévoir son état ultérieur à un instant quelconque avec une précision d'autant plus grande que les erreurs sur les données initiales sont elles-mêmes plus faibles, la physique ondulatoire nouvelle, par suite des effets de diffraction. caractéristiques des propagations régies par des équations aux dérivées partielles, introduit, par sa fonction d'onde à signification statistique, une diffraction de la certitude qui fait que, quelle que soit la précision avec laquelle sont connues les conditions initiales, il n'est possible d'en tirer que des probabilités, pour le système, de se trouver à un instant ultérieur dans l'un des états dont il est susceptible, probabilités d'autant plus largement réparties entre ces différents états que l'intervalle de temps est plus long entre l'information et la prévision. Alors que la conception laplacienne du déterminisme assimilait l'univers à un projectile infiniment complexe qui, lancé au départ d'une manière connue, devait suivre une trajectoire inéluctable et prévisible jusqu'à l'infini du temps, la nouvelle physique ne permet à aucune conscience, si vaste et bien informée qu'elle soit, que des prévisions de probabilités, de plus en plus floues à mesure que le temps s'écoule. Elle ne permet qu'une prévision de proche en proche, à échéance variable avec la nature du système, mais toujours finie. Il est impossible de prévoir avec quelque précision, sans un renouvellement de l'information par l'expérience et par la mesure. Ainsi donc s'évanouit l'idéal inhumain fixé à la science par la conception mécaniste du déterminisme absolu, et disparaît l'idée même d'une conscience omnisciente pour laquelle le destin du monde serait prédéterminé. Notre conception de la science en est rendue plus large et plus humaine à divers points de vue que je voudrais brièvement examiner. Alors que l'ancienne physique opposait l'un à l'autre l'Univers et l'homme, l'objet plus ou moins connaissable et le sujet plus ou moins pensant, la nouvelle physique, suivant en cela l'exemple de la relativité, met au premier plan le rôle de l'observateur et de son information. Elle réalise une véritable synthèse du sujet et de l'objet par l'intermédiaire de la fonction d'onde, subjective en ce qu'elle dépend de l'information initiale de l'observateur, et objective en ce qu'elle dépend du système sur lequel porte l'observation. Il n'y a donc pas lieu de se demander si l'onde que définit la.fonction possède ou non une existence objective : elle est un intermédiaire employé par la théorie pour permettre à l'observateur de déduire, des données relatives à l'état initial d'un système, des prévisions relatives à son état final, c'est-à-dire aux résultats d'expériences faites sur le système à un instant ultérieur. Le problème fondamental qui caractérise la nouvelle physique est le suivant : sachant qu'une observable avait initialement une valeur connue (par un ou plusieurs nombres) à laquelle correspond une fonction d'onde propre connue d'après la nature du système, quelle est la probabilité pair qu'à un instant ultérieur cette même observable, ou toute autre, prenne une des valeurs particulières dont elle est susceptible. La fonction d'onde apparaît ainsi comme le lien entre l'information de l'observateur et ses possibilités de prévision, toujours exprimées en probabilités. Un flou dans l'information initiale, une erreur sur les données, se traduira par l'introduction, comme fonction d'onde, de la somme des fonctions propres correspondant aux diverses valeurs possibles pour les observables auxquelles correspondent les données initiales, affectées de coefficients égaux aux probabilités attribuées à ces valeurs. L'intervention de la fonction d'onde traduit en langage précis cette affirmation qu'elle met explicitement à la base de toute science : nos possibilités de prévision dépendent avant tout de notre information. L'intervention des probabilités, au lieu d'apparaître surajoutée par l'intermédiaire de la théorie des erreurs, et comme simple correctif, à un idéal inaccessible de connaissance parfaite, joue au contraire ici un rôle fondamental, conformément d'ailleurs à tout ce que nous enseigne l'expérience humaine. La science se trouve ainsi rapprochée de la vie. En toute circonstance, en effet, nous ne pouvons prévoir que des probabilités et nous ne nous déterminons que sur des probabilités évaluées plus ou moins exactement d'après notre information du moment. Il n'y a de certitude que du présent et celle-ci se diffracte quand nous voulons en suivre les répercussions dans l'avenir. Chaque instant nous apporte l'expérience et l'information nouvelle pour modifier la fonction d'onde que nous essayons constamment de projeter devant nous pour prévoir le comportement probable des systèmes vivants ou inertes avec lesquels la vie nous met en contact, pour prévoir le résultat probable des expériences proches ou lointaines où nous interviendrons avec eux. Je rejoins ici une remarque faite l'autre jour par M. Émile Borel en insistant sur le fait que la probabilité d'événements tels que l'arrivée d'un cheval dans une course, l'apparition d'une des faces d'un dé ou d'une carte dans un jeu est essentiellement subordonnée à l'information de l'observateur et varie avec celui-ci. La possession essentiellement subjective d'un « tuyau » modifie la fonction d'onde et par conséquent la répartition des probabilités entre les diverses valeurs possibles pour l'observable qu'est le numéro du cheval gagnant. Le tricheur qui a pipé un dé ou biseauté une carte dispose, pour prévoir le résultat probable du jeu, d'une fonction d'onde autre que celles des autres joueurs, et ceux-ci ont chacun la leur, dépendant de leur habileté personnelle et de leurs observations antérieures sur le comportement de leurs partenaires ; encore faut-il pour ne pas apporter trop de flou dans les prévisions, que ces observations ne soient pas trop anciennes. Un autre aspect également important de la nouvelle physique a été souligné par M. Heisenberg : celle-ci, contrairement à l'ancienne, tient compte, de manière fondamentale et toujours par l'intermédiaire de la fonction d'onde, du fait que l'observateur, pour obtenir sur telle ou telle observable l'information destinée à améliorer ses possibilités de prévision, doit nécessairement entrer en interaction avec le système observé et qu'il en peut résulter une modification objective du système, c'est-à-dire du résultat des mesures faites ultérieurement sur lui par d'autre. observateurs aussi bien que par celui qui a fait la première observation. Dans la plupart des cas de nos sciences physiques, cette action nécessaire pour l'observation, l'expérience ou la mesure, est ou peut être rendue complètement négligeable, ce qui est particulièrement commode pour conserver à la science son caractère d'objectivité, d'indépendance à l'égard de l'observateur. Il en est ainsi, bien évidemment, pour l'observation des astres et aussi, en général, dans l'étude des systèmes à notre échelle où l'on s'efforce de réduire au minimum l'intervention de l'observateur et de conserver à celui-ci l'attitude contemplative dominante en astronomie, science qui, arrivée la première à un haut degré de perfection, a servi tout naturellement, mais provisoirement ainsi que nous venons de le voir, de prototype aux autres sciences physiques, non seulement en ce qui concerne leur but et leur structure, mais encore au point de vue de l'attitude de l'observateur et de l'insensibilité complète du système observé aux interventions nécessaires pour les mesures. Le fait d'éclairer un objet inerte pour pouvoir l'observer ne le trouble pas plus, en général, que ne le fait pour une étoile l'astronome qui la regarde, fût-ce avec un télescope géant. Dans les études de balistique par la méthode des photographies instantanées, on néglige, à bon droit, l'action sur le projectile de la lumière qu'on lui envoie. Dans un autre domaine, l'habitué du turf qui reçoit un renseignement de bonne source peut, en général, considérer que l'amélioration éprouvée par sa fonction d'onde est de nature purement subjective et ne réagit en aucune manière sur le résultat observable de l'expérience à laquelle il s'intéresse.

Remarquons encore ceci : alors que le but de la science est le perfectionnement constant, par son aspect subjectif et grâce à l'accumulation de résultats d'observations et d'expériences passées, de notre fonction d'onde concernant l'Univers et les divers systèmes qu'on y peut découper, de manière que les prévisions de nature statistique permises par cette fonction serrent de plus en plus près la réalité, on s'efforce au contraire dans les jeux de hasard, pour qu'ils soient équitables, de construire des systèmes tels qu'il n'y ait aucune répercussion, subjective ni objective, sur la fonction d'onde, de l'expérience acquise et du résultat des coups déjà joués. Cette fonction d'onde doit rester invariable pour que restent fixes les probabilités qu'elle permet de calculer concernant les diverses valeurs que peut prendre, à chaque expérience nouvelle, l'observable qu'est le numéro sortant aux dés, à la loterie ou aux petits chevaux, la carte tirée ou la couleur sur laquelle la roulette vient s'arrêter. Sur cette fonction d'onde, sur ces probabilités fixes sont calculés les barèmes qui proportionnent les gains aux mises. C'est l'illusion perpétuellement renouvelée des joueurs que ces jeux peuvent faire l'objet d'une science, que l'information sur les résultats des expériences déjà faites peut permettre d'améliorer la fonction d'onde, le calcul des probabilités concernant les expériences à venir.

Dans l'ancienne physique, rien ne s'opposait, en principe, à ce que l'absence de répercussion de l'observation sur le système observé puisse être maintenue même lorsqu'il s'agit de systèmes de plus en plus petits, de plus en plus simples, de corpuscules isolés, en particulier ; aucun minimum d'action ne limitait l'intervention nécessaire à la mesure. Il en est autrement dans la physique nouvelle, du fait de l'existence du quantum h au-dessous duquel aucune action ne peut descendre. On connaît l'exemple donné par M. Heisenberg de l'électron qui, pour être repéré en position, doit être éclairé, c'est-à-dire rencontré au moins par un photon, et dévié par effet Compton au hasard de cette rencontre, d'une manière qui dépend de l'énergie du photon, dont la valeur finie résulte de l'existence du quantum d'action h. Cette nécessité d'intervention pour la mesure et l'importance des répercussions objectives qu'elle peut avoir est particulièrement nette quand il s'agit du photon lui-même. J'ai déjà indiqué que pour connaître avec précision la position d'un photon, il faut interposer sur le trajet des ondes lumineuses associées un écran percé d'une petite ouverture et que la perturbation objective résultante se manifeste, au delà de l'ouverture, par un effet de diffraction d'autant plus marqué que la précision sur la mesure de position est plus grande, c'est-à-dire que l'ouverture est plus petite. De la même façon, M. Born a pris hier comme exemple de la manière dont la fonction d'onde est influencée par l'information de l'observateur, celui des deux trous d' Young, où la fonction d'onde qui permet de prévoir la répartition des photons au delà des ouvertures correspond à des franges hyperboliques d'interférence lorsque l'observateur ignore par lequel des deux troue le photon est passé, et correspond au contraire à des franges circulaires de diffraction si l'observateur sait par quel trou le photon est passé. Il me paraît important de remarquer que la modification de la fonction d'onde comporte, au sens de M. Heisenberg, un aspect objectif; puisque le complément d'information de l'observateur lui permettant de prévoir les franges de diffraction d'un trou exige qu'il soit intervenu pour boucher l'autre trou. Les sciences de la vie, histoire naturelle des êtres vivants, anatomie, physiologie, psychologie, présentent à ce point de vue des difficultés particulières puisqu'il est quasiment impossible d'observer et à plus forte raison d'expérimenter dans ces domaines sans que l'objet, et son comportement, soient plus ou moins profondément troublés par l'intervention du sujet. J'insiste encore sur le fait que les nouvelles conceptions rodent également la science plus humaine et plus proche de la vie grâce à leurs conséquences d'ordre moral. Loin de conduire au fatalisme devant la marche inéluctable de l'Univers-projectile au sens de Laplace, le nouveau déterminisme est une doctrine d'action, bien conforme au rôle que doit jouer la science, à ses origines et à ses buts. Tout d'abord, l'action devient possible puisque, grâce au halo ondulatoire, le présent ne détermine, ne contient l'avenir qu'avec une précision décroissante à mesure que celui-ci devient plus lointain ; aucune connaissance du présent, si parfaite soit-elle, ne permet de prévoir que des probabilités de plus en plus éloignées de la certitude à mesure que l'anticipation devient plus importante. De plus, les possibilités de prévision nécessaires pour diriger l'action et la rendre efficace augmentent avec l'importance de notre information et celle-ci exige l'intervention de l'observateur, c'est-à-dire l'action. Au lieu de nous écraser sous le poids d'un Univers qui nous est étranger et dont le destin est déterminé une fois pour toutes en dehors de nous, le nouveau déterminisme réalise la synthèse du sujet et de l'objet, de l'homme et du monde qu'il lui appartient de transformer grâce à une information et par conséquent à des moyens d'action constamment enrichis par le développement de la science, c'est-à-dire par l'action elle-même.

Le principe d'indétermination et la notion d'objet. — La crise que viennent de traverser nos idées sur le déterminisme doit-elle nous amener à conclure, comme on l'a fait quelquefois, à une indétermination fondamentale des lois de la nature, exprimée en particulier, par le principe d'incertitude énoncé par Heisenberg en 1927 ? Pour pouvoir répondre à cette question, examinons de plus près l'énoncé et le contenu de ce principe. Sous sa forme primitive, il concerne une particule quelconque, matérielle ou lumineuse, et affirme qu'il n'est pas possible de connaître avec précision à la fois la position et la vitesse ou, ce qui revient au même, la quantité de mouvement de la particule. Sous une forme plus précise, si delta(p) est l'erreur commise sur une coordonnée de position et delta(q) l'erreur sur la composante correspondante de l'impulsion, le produit de ces erreurs ne peut pas descendre au-dessous d'une certaine limite, fixée par la constante h de Planck. Le contenu physique est relié par M. Heisenberg à l'intervention de l'observateur nécessaire pour la mesure ; le résultat de cette intervention, lorsqu'elle permet la connaissance précise de p est de troubler le système de manière à rendre incertaine la variable complémentaire q, et réciproquement. L'exemple choisi par M. Heisenberg est celui de l'électron, que j'ai déjà rappelé et dont la position est donnée de manière d'autant plus précise par le photon qui l'a rencontré que la longueur d'onde de celui-ci est plus courte ; mais en même temps, d'après la relation de Planck, l'énergie du photon augmente ainsi que la violence du choc reçu par l'électron et par conséquent le trouble et l'incertitude qui en résultent pour son état de mouvement. Un autre exemple concerne le photon. Un train d'ondes planes de fréquence nu et de direction de propagation bien définies, correspond à des photons de quantité de mouvement bien définie, égale à (h*nu)/c, c étant la vitesse de la lumière, et dirigée suivant la normale aux plans d'onde ; mais en même temps la position du photon est mal définie puisque sa présence est également probable en tous les points du plan d'onde. Si nous voulons au contraire être bien fixés sur la position, nous devons intervenir en plaçant sur le trajet du rayonnement un écran percé d'une petite ouverture par laquelle le photon est obligé de passer, mais en même temps nous donnons lieu à un phénomène de diffraction et à une dispersion de la quantité de mouvement dans toutes les directions d'autant plus marquée que l'ouverture est plus petite et par conséquent que la précision sur la position est plus grande. Dans l'un comme dans l'autre de ces exemples, pour l'électron comme pour le photon, on trouve pour le produit des incertitudes une limite inférieure fixée par la constante de Planck. On voit immédiatement que ce principe est étroitement lié à l'étendue finie imposée par l'expérience aux cellules d'extension en phase, dont l'introduction permet de donner au principe une forme plus précise, quoique moins concrète, que les considérations précédentes. Ainsi que nous l'avons vu, la théorie, pour se conformer aux faits, ne doit faire intervenir dans les raisonnements statistiques que les nombres de points représentatifs de particules présents à l'intérieur de chaque cellule. La position du point représentatif dans l'extension en phase, qui fait intervenir à la fois la position et l'état de mouvement de la particule, ne peut donc être fixée avec plus de précision que ce qui concerne sa présence dans une cellule. Mais si la grandeur de celle-ci est bien déterminée par la constante h, sa forme reste imprécise et peut être modifiée au gré de l'observateur. Si on veut Ia rendre plus étroite dans la direction d'une coordonnée de position, elle s'allonge nécessairement dans la direction de la coordonnée correspondante d'impulsion, et c'est bien là une expression précise du principe d'incertitude. De même que la nécessité d'introduire une succession discontinue de cellules d'extension finies se représente de la manière la plus simple et la plus claire dans la conception ondulatoire qui fait correspondre à chaque cellule un état de la particule, un des modes propres d'oscillation dont l'onde associée est susceptible, c'est dans ce même langage que le principe d'incertitude trouve son expression la plus adéquate et qu'il apparaît comme une conséquence nécessaire de la structure même du déterminisme ondulatoire et statistique. Il est lié aux propriétés des opérateurs mathématiques que la nouvelle théorie fait correspondre à chacune des grandeurs observables. Deux de ces observables ne peuvent être connues en temps avec précision que si les opérateurs correspondants commutent, c'est-à-dire mi le résultat de leur application successive à une fonction d'onde quelconque est indépendant de l'ordre dans lequel cette application est faite, et l'on vérifie facilement que les opérateurs liés à une coordonnée de position et à l'impulsion correspondante ne possèdent pas la propriété de commutativité. Autrement dit, une fonction d'onde ne peut pas être fonction propre à la fois pour ces deux opérateurs. Cela se ramène, en dernière analyse, au fait suivant qui traduit exactement, en langage mathématique, l'exemple du photon que j'indiquais tout à l'heure : l'impulsion ne peut être définie avec précision ou certitude que si la fonction d'onde est sinusoïdale dans tout l'espace, tandis que Ia position peut être bien connue seulement si la fonction d'onde ne diffère de zéro que dans une petite région, et les deux caractères sont évidemment incompatibles. Un fait aussi fondamental et simple peut-il être considéré comme traduisant une indétermination fondamentale des lois de la nature, ou, comme on l'a dit quelquefois, la possibilité d'un libre choix de la particule ? Je ne le crois pas pour les raisons suivantes : tout d'abord, s'il y a indétermination, elle est singulièrement déterminée puisqu'elle se définit avec précision par l'intermédiaire de la constante h, laquelle est connue actuellement au millième près et pourra certainement l'être mieux encore ; la signification profonde des faits qui sont liés à son existence et à sa grandeur pourra être bien comprise seulement lorsque nous serons mieux renseignés sur l'origine de cette constante dont l'intervention de plus en plus générale en physique pourrait bien traduire une structure fine de l'espace-temps, traité jusqu'ici comme un continu. D'autre part, l'aspect d'incertitude que présente l'énoncé du principe me semble lié à la manière dont la question à laquelle il répond est posée. Cette question postule l'existence d'un corpuscule dont on cherche à suivre le comportement dans le cadre d'un espace-temps continu de la façon dont nous pouvons macroscopiquement suivre un projectile sur sa trajectoire. Si rien dans la réalité ne correspond à cette hypothèse, il n'est pas étonnant que la réponse de l'expérience à une question mal posée soit ambiguë. Plutôt qu'à une indétermination des lois de la nature, ne devons-nous pas plus modestement conclure que l'image d'un corpuscule-objet ne convient pas à une représentation adéquate de la réalité ? En fait, nous avons déjà dû renoncer à l'individualité du corpuscule pour obtenir des statistiques conformes à l'expérience et vu le point représentatif se perdre dans la cellule d'extension en phase. S'il est vrai que l'individualité apparaît seulement lorsqu'une complexité suffisante de l'objet permet de l'identifier et de le suivre dans son comportement, la notion même d'objet conçue pour représenter les faits à notre échelle peut très bien s'estomper d'abord, se diffracter puis s'évanouir quand nous arrivons à la particule élémentaire, molécule, atome, électron ou photon. Nous avons déjà vu que le langage corpusculaire ne paraît pas le mieux adapté à une représentation fine de la réalité. M. Born signalait hier que le langage ondulatoire, par l'intermédiaire des états ou modes de vibration propres semble devoir lui être préféré, la discontinuité incontestable que s'efforce de traduire l'image corpusculaire correspondant à l'existence de degrés quantifiés seuls possibles dans l'excitation ou l'occupation de chacun de ces états. L'état est effectivement individualisable alors que le corpuscule ou le quantum d'excitation qui le remplace ne l'est pas, puisque seul le nombre des corpuscules a un sens dans une théorie conforme aux faits. Les phénomènes d'émission et d'absorption, connus d'abord pour le photon et où celui-ci prend naissance ou disparaît, et ceux analogues de matérialisation et d'annihilation récemment découverts pour l'électron, vraisemblables aussi pour les autres particules élémentaires, contribuent encore à disqualifier le corpuscule pour jouer le rôle fondamental dans une représentation adéquate du monde. Une chose est certaine : le formalisme statistique de la mécanique ondulatoire permet de rendre compte dans leurs moindres détails de tous les faits physiques actuellement connus : il n'est pas surprenant qu'en raison de la rapidité même de son développement, il se présente encore sous une forme très abstraite et que nous manquions d'un langage concret pour en suivre la marche et pour en exprimer le contenu, de manière analogue à ce qu'a fait la géométrie de Chasles et de Poncelet pour la géométrie analytique de Descartes. L'histoire de la physique montre que, dans ce domaine au moins, les notions nouvelles se présentent d'abord sous forme abstraite avant que l'usage les colore de concret et les transforme en images. Il en sera de même pour nos équations et nos fonctions d'onde. En attendant, leur introduction, loin de conduire la science à se renoncer elle-même, marque au contraire un progrès essentiel dans son efficacité, dans la manière dont elle nous permet de représenter les faits. La conception du déterminisme auquel nous sommes conduits, par son aspect statistique à la fois subjectif et objectif, traduit mieux que l'ancienne les possibilités humaines, réalise mieux qu'elle la synthèse nécessaire de l'homme et de son milieu, de l'observateur et de l'observé. De même que la crise de la relativité est venue, au début de ce siècle, sanctionner le triomphe de la théorie électromagnétique fondée, depuis Faraday, sur la conception des actions de proche en proche, propagées par des ondes, sur l'idée newtonienne d'action instantanée à distance, le nouveau déterminisme, avec ses ondes de probabilité, peut être considéré comme un déterminisme de proche en proche, plus conforme aux faits que le déterminisme ancien, issu du mécanisme, qui proposait à la science l'idéal inaccessible de prévoir instantanément à distance. Je veux enfin souligner cet aspect important de la nouvelle science qu'elle permet à l'effort humain de s'insérer dans la marche du monde, et l'exprimer par ces deux formules : il n'est de certitude que dans le présent et c'est l'action qui seule permet la certitude.

  • Collège de France.