La Physique moderne et le déterminisme

Free texts and images.
Jump to: navigation, search
La Physique moderne et le déterminisme
written by Paul Langevin
1939


  • LA PHYSIQUE MODERNE ET LE DETERMINISME

Depuis une douzaine d'années, la physique atomique a fait des progrès incessants aussi bien dans l'exploration expérimentale de l'atome que dans l'interprétation théorique des faits. Dans le domaine de la théorie, cette période a été marquée par le développement de la théorie des quanta et de la mécanique ondulatoire. La théorie des quanta a été, avec son fameux principe dit d'indétermination, l'occasion d'une reprise de ces discussions qui, au début du siècle, avaient marqué les premiers pas de la théorie moderne de l'atome ; Il a beaucoup été question de nouveau d'une « crise » de la physique. Les philosophes idéalistes, ainsi que les physiciens qui partagent leurs conceptions, comme Arthur Eddington, Jeans, Jordan, Dirac et d'autres, ont affirmé, une fois de plus, que les progrès récents de la physique prouvent qu'il n'existe pas un monde réel indépendant de la pensée, que notre volonté de connaître le réel se heurte à des limites infranchissables, que la causalité et le déterminisme ne peuvent être cherchés que dans notre esprit ou ne sont valables qu'à l'intérieur de certaines frontières au delà desquelles il n'existe que l'indétermination dans les faits eux-mêmes. Ces divers thèmes, et plus particulièrement le dernier, ont été développés dans les nombreux commentaires consacrés aux relations d'indétermination découvertes par Heisenberg. Les commentateurs ont voulu y voir l'aveu fait par la physique des limites de la connaissance scientifique en général et de la valeur du déterminisme en particulier. Qu'elles fussent dues à des physiciens ou à des philosophes, ces thèses étaient présentées avec une telle précipitation que leurs auteurs furent amenés à formuler des prédictions qui ne tardèrent pas à recevoir les démentis les plus catégoriques. C'est ainsi que, durant les années qui ont suivi l'énoncé du principe « d'indétermination », certains physiciens n'ont pas hésité à affirmer que nos connaissances concernant les atomes ne dépasseraient plus le niveau atteint aux environs de 1931. On connaissait alors l'atome, l'existence du noyau, mais non sa structure. Or, depuis cette « limitation », nous avons élaboré les lois de la physique atomique avec une telle précision que ce nouveau chapitre devient, au point de vue de la rigueur, comparable à la mécanique céleste de Laplace. Mais, en même temps, nous avons fait des progrès dans l'exploration du noyau atomique prétendument inconnaissable. Un nouveau domaine de la physique s'est constitué ainsi : la physique nucléaire. En fait, aucune limite infranchissable n'a donc été imposée à notre connaissance de la matière. De la même façon, il est inexact de dire qu'à l'échelle de l'atome, il n'y a plus de causalité objective et que le domaine de l'atome est le secteur du réel où le cours des événements n'obéit à aucune détermination. Les conclusions de ce genre reposent, en réalité, sur une interprétation erronée des connaissances réellement acquises. C'est ce que permet de montrer l'étude de l'évolution de la nouvelle physique atomique. En trente ans, nous sommes passés de l'étude des objets macroscopiques, à notre échelle, où se sont constituées les notions fondamentales que nous avons utilisées jusqu'ici dans notre science, à des régions beaucoup plus profondes de la réalité que le perfectionnement incessant de nos méthodes expérimentales, nous permet aujourd'hui d'atteindre et d'explorer. Ce fut tout d'abord le monde de l'atome autour du noyau, où nous avons rencontré et étudié les électrons qui donnent lieu à l'émission et à l'absorption du rayonnement lumineux, et qui permettent, par leur échange entre atomes, d'interpréter les lois des réactions chimiques. Puis nous sommes passés à l'étude du domaine nucléaire. Tout naturellement, en passant d'un étage au suivant, les physiciens commençaient par essayer d'utiliser les conceptions qui leur avaient réussi à l'étage précédent. Après avoir découvert, il y a vingt-cinq ans, la structure nucléaire de l'atome, nous avons essayé de la concevoir sur un modèle planétaire, c'est-à-dire en considérant l'atome comme un système composé d'un soleil central chargé positivement (le noyau de l'atome), entouré d'un certain nombre de satellites, sous forme d'électrons chargés négativement et gravitant autour de lui sous l'action attractive du noyau positif, et répulsive des autres électrons, cette dernière action étant analogue à la perturbation du mouvement d'une planète par les autres planètes. L'atome était donc un système solaire en miniature, auquel devait s'appliquer, semblait-il, la conception laplacienne du déterminisme : la position et la vitesse de chacun des constituants de l'atome étant fixées à un instant donné, tout le comportement ultérieur de l'atome serait par là complètement déterminé. C'est à Bohr que l'on doit d'avoir développé théoriquement les conséquences de cette conception atomique. Mais on se heurtait de suite à de grosses difficultés. Dans la conception mécanique de Laplace, toutes les orbites sont possibles pour les électrons, autrement dit les dimensions de l'atome peuvent être quelconques : il y a indétermination de la taille de l'atome alors que l'expérience nous affirme au contraire, avec une grande précision, que tous les atomes d'un même élément chimique ont exactement les mêmes dimensions. D'ailleurs, même si par un moyen quelconque on imaginait qu'à un instant donné tous les atomes aient la même grandeur, on se heurterait à de grosses difficultés que l'on saisit bien sur le cas le plus simple, celui de l'atome d'hydrogène constitué par un noyau porteur d'une seule charge positive (ou proton) et par un seul électron qui tourne autour de lui. Ici, il n'y a pas de perturbation par d'autres électrons : seule intervient l'attraction par le noyau central. Or, dans ce domaine, l'application de la théorie électromagnétique de Maxwell et de Hendrik Antoon Lorentz, qui, par ailleurs, donne une explication si admirable de simplicité et d'unité des phénomènes de la lumière, de l'électricité et du magnétisme, conduit à des difficultés essentielles. Tout d'abord, d'après cette théorie, une particule électrisée qui est soumise à une accélération doit émettre de la lumière ; elle doit donc perdre une fraction de son énergie. Mais l'électron qui tourne autour du noyau est constamment accéléré, il doit donc perdre constamment de son énergie : par suite, son orbite doit sans cesse se rapprocher du noyau, jusqu'à ce que, ayant perdu toute son énergie, il tombe sur le noyau, mettant fin ainsi à l'existence de l'atome. Et le calcul nous indique que ce serait l'affaire d'une très petite fraction de seconde. Nous savons cependant que l'atome d'hydrogène est stable, qu'il dure vraisemblablement pendant des milliards et des milliards d'années. D'autre part, cette théorie nous indique également que le rayonnement émis par l'électron au cours de sa rotation autour du noyau doit avoir une fréquence égale au nombre de révolutions par seconde. Ce rayonnement devrait donc changer de fréquence de façon continue à mesure que l'électron se rapprocherait du noyau en perdant son énergie : l'atome n'émettrait donc pas une lumière de couleur déterminée, mais la couleur de la lumière émise changerait de façon continue : ce serait un spectre continu. La théorie électromagnétique appliquée à l'atome planétaire nous conduit donc à deux conséquences en contradiction grossière avec l'expérience : tout d'abord l'atome ne serait pas stable, il perdrait rapidement son énergie par rayonnement ; d'autre part, ce rayonnement aurait un spectre continu, alors qu'il est bien connu que tous les atomes, y compris celui d'hydrogène, émettent des spectres de raies, des spectres discontinus. La solution proposée par Bohr à ces difficultés consistait à s'appuyer sur l'existence des quanta de rayonnement, sur le fait admis depuis 1900 avec Max Planck, que l'atome ne peut rayonner, que la matière ne peut émettre de lumière que par quanta finis : si v est la fréquence de cette lumière, l'énergie lumineuse émise est égale à un multiple entier de h*nu, h étant une constante universelle extraordinairement petite, la célèbre constante de Planck. Bohr a admis qu'il fallait introduire du discontinu, là où là théorie électromagnétique ne connaissait que du continu ; que, sans abandonner complètement la mécanique classique, il était nécessaire de faire un choix parmi la série continue des mouvements possibles qu'elle prévoit pour l'électron, de n'en retenir qu'une série discontinue dont chacun des termes correspondrait à un état stable de l'atome : c'est ce que nous appelons aujourd'hui quantifier ces mouvements. Chacun de ces états stables devait correspondre à l'un des termes que les spectroscopistes avaient dû introduire pour représenter, par leurs différences, des fréquences des diverses raies d'un spectre atomique (principe de combinaison). Bohr admet alors que l'atome ne peut émettre ou absorber de rayonnement que lorsqu'il passe d'un état, stable à un autre, la quantité d'énergie émise ou absorbée étant égale à la différence des énergies de l'atome dans les deux états initial et final : ce qui correspond au fait que la fréquence de la raie correspondante du rayonnement est spectroscopiquement égale à la différence des termes associés aux deux états de l'atome. Le choix parmi la série continue des solutions possibles au sens de la mécanique, de celles qui fournissent les mouvements d'électrons considérés comme stables, a été fait par Bohr, au moyen d'une règle de quantification fort simple, qu'on a cherché par la suite à généraliser pour les atomes à un nombre quelconque d'électrons. Les conceptions de Bohr étaient donc en contradiction avec la théorie électromagnétique, puisqu'elles admettaient que ces mouvements privilégiés pouvaient se poursuivre sans rayonnement et que, dans des conditions d'ailleurs obscures, les électrons pouvaient passer d'un mouvement quantifié à un autre, soit en émettant un quantum de lumière si le passage a heu d'un état d'énergie plus élevé à un état d'énergie moins élevé, soit au contraire en absorbant un quantum de lumière incidente, si le passage à lieu d'un état d'énergie moins élevé à un état d'énergie plus élevé. Mais les physiciens passèrent sur cette contradiction devant le succès remarquable de Bohr pour le cas de l'atome d'hydrogène. Ce fut là une transition utile entre les notions anciennes de la mécanique et de l'électromagnétisme, notoirement insuffisantes dans le domaine intra-atomique, et les notions nouvelles, plus adéquates à la réalité, que devaient élaborer dans leur développement ultérieur la théorie quantique, la mécanique ondulatoire. On sait comment la quantification par Bohr de l'atome d'hydrogène en utilisant la mécanique newtonienne, et, mieux encore, la quantification par Sommerfeld de cet atome, en utilisant la mécanique nouvelle introduite par la théorie de la relativité, ont permis l'interprétation complète du spectre atomique de l'hydrogène, rendant possible par la suite le remarquable développement de la spectroscopie. Ainsi, nous venons de le voir, les dimensions de l'atome dans la conception ancienne étaient complètement indéterminées, au contraire de l'expérience. L'introduction du quantum d'action h vient fixer ces dimensions atomiques : c'est sa grandeur qui les détermine. Si l'on pense que, comme nous le verrons plus loin, c'est la grandeur de h qui fixerait une prétendue « indétermination » de l'atome, ce simple fait doit nous amener à quelques doutes sur la valeur d'une telle conclusion. Mais, nous l'indiquons plus haut, la théorie primitive de Bohr était encore fort imparfaite. Son application aux atomes plus complexes que celui d'hydrogène rencontra des difficultés qui parurent insurmontables.

Toutefois, après plusieurs années d'hésitation, se sont développées d'une part, la mécanique des quanta, avec Heisenberg, Max Born, Jordan, Dirac, et de manière concordante, la mécanique ondulatoire, grâce aux efforts de Louis de Broglie, de Schrödinger, etc.

Rappelons qu'on appelle mécanique quantique l'ensemble des travaux qui se sont développés, pour tenir compte d'une manière systématique du quantum d'action dans l'étude des systèmes atomiques. La mécanique quantique traite des mêmes grandeurs que la mécanique classique, à savoir des positions et des vitesses, des points matériels. Mais dans la mécanique classique, les positions et les vitesses sont représentées par des nombres algébriques, alors que dans la mécanique quantique, elles le sont par des nombres d'un ordre supérieur, appelés matrices. Ce sont des tableaux à double entrée qui représentent l'ensemble des valeurs que la grandeur considérée peut prendre d'une manière discontinue. L'interprétation physique de cette opposition est que la mécanique classique traite de positions et de vitesses qui peuvent prendre, indépendamment, des valeurs quelconques, alors que la mécanique quantique traite de positions et de vitesses dont les valeurs ne peuvent plus être quelconques, mais varient d'une manière discontinue, en relation avec la constante de Planck. Mais il ne faut pas croire qu'il y ait entre la mécanique classique et la mécanique quantique une contradiction absolue. La mécanique classique est un cas particulier de la mécanique quantique, le cas où la constante de Planck peut être négligée. La mécanique classique est relative à une certaine connaissance du réel dont la mécanique quantique fournit une connaissance plus approfondie. Nous n'avons nullement découvert que la mécanique classique est "fausse" Nous avons découvert les limites dans lesquelles elle est valable et le moyen de dépasser ces limites. En ce qui concerne la mécanique ondulatoire, on sait en quoi consiste l'idée initiale de Louis de Broglie : il a suivi en quelque sorte la marche inverse, dans le cas de la matière, de ce qui s'était passé dans le cas de la lumière. En effet, à côté des ondes lumineuses qui représentaient admirablement un aspect de l'optique, — l'aspect « classique », interférences, diffraction, etc., — on a été conduit pour expliquer un certain nombre de phénomènes nouveaux (effet photoélectrique, effet Compton, etc., à admettre une structure corpusculaire de la lumière. La question fondamentale de la théorie du rayonnement est celle de la synthèse nécessaire entre les deux conceptions ondulatoire et corpusculaire, entre les ondes et les photons (ou corpuscules de lumière) qui rendent compte des aspects différents de la réalité.

Quelques remarques à ce sujet ne seront peut-être pas inutiles, d'autant que nous en arrivons là à la racine même du fameux «principe d'indétermination ». L'histoire de la théorie de la lumière nous montre les physiciens adoptant successivement les conceptions corpusculaire et ondulatoire de la lumière. La théorie corpusculaire est celle qu'expose Lucrèce ; nous voyons aux XVIIème et XVIIIème siècles Huyghens et Newton soutenir l'un la théorie ondulatoire, le second la théorie corpusculaire, qui va être unanimement reconnue par les physiciens jusqu'à ce que Fresnel lui substitue sa théorie ondulatoire mécanique de l'éther.

Celle-ci sera remplacée par la théorie ondulatoire électromagnétique de Maxwell. La théorie corpusculaire primitive de la lumière se rapportait à la propriété la plus simple de celle-ci : sa propagation en ligne droite.

Mais au bout d'un certain temps on s'est aperçu, de son incapacité à expliquer nombre de phénomènes plus compliqués, tels ceux de diffraction. C'est pourquoi la théorie de Fresnel lui a succédé qui explique la propagation en ligne droite, plus les phénomènes de diffraction et d'interférences. Mais elle n'a pas été exempte non plus de difficultés, et c'est pourquoi la théorie électromagnétique de Maxwell l'a remplacée, qui expliquait tout ce que la théorie de Fresnel expliquait, et qui de plus montrait les relations étroites de la lumière avec les phénomènes de l'électricité et du magnétisme. Cette théorie a remporté nombre de succès ;

il suffit de rappeler ici les expériences de Hertz sur les ondes électromagnétiques. Mais elle s'est heurtée à des difficultés, quand les progrès de la recherche expérimentale ont conduit à l'étude des rayonnements de très faible intensité. C'est alors que la théorie quantique de la lumière apparaît, qui se pose pour tâche d'expliquer à la fois ce qu'expliquait si bien la théorie de Maxwell et les phénomènes nouveaux, « quantiques ». Il est donc clair que si l'on parle largement de corpuscules lumineux, de photons, il ne peut ici s'agir d'un retour pur et simple à la conception newtonienne : la théorie électromagnétique est passée par là et le photon en porte l'empreinte. D'ailleurs, nous savons déjà que cette conception se heurte à des difficultés quand la fréquence de la lumière est trop élevée, mais les conceptions qui doivent succéder à nos théories actuelles ne se laissent point encore entrevoir. Toujours est-il que nous connaissons ainsi de mieux en mieux les propriétés de la lumière. Rappelons seulement que c'est depuis bien peu d'années que nous avons pu mettre en évidence la transformation de la lumière en matière et réciproquement. C'est pourquoi il ne paraît pas conforme à l'esprit de la science, à son mouvement, d'arguer de ces transformations théoriques pour nier la possibilité même de la connaissance.

On notera par ailleurs que, dans la conception corpusculaire comme dans la conception ondulatoire, oh se trouve en présence de types assez différents de déterminisme. C'est ainsi que le déterminisme de l'optique ondulatoire, fixant dans son ensemble l'aspect de la figure d'interférences ou de diffraction, est fort différent du déterminisme de l'optique géométrique qui fixe le mouvement de chaque corpuscule lumineux pris isolément (rayon lumineux). Déjà ce fait nous indique que dans le domaine ondulatoire lumineux, le déterminisme n'a pas le même aspect que le déterminisme mécanique laplacien. C'est ce que nous allons voir se confirmer pour la matière. La recherche d'une théorie de l'atome conforme à l'ensemble des faits connus avait abouti, comme nous l'avons vu, à la mécanique quantique. Les mêmes préoccupations ont amené Louis de Broglie à élaborer la mécanique ondulatoire, en associant des ondes aux divers corpuscules (électrons, protons, etc.), comme en optique on avait été conduit à associer des corpuscules aux ondes. Puis il a appliqué la relation de Planck, citée plus haut, entre l'énergie et la fréquence de l'onde pour déduire, en suivant un chemin inverse de celui que nous avons adopté pour la lumière, la fréquence de l'onde de l'énergie du corpuscule. Cette idée, que la théorie de la relativité restreinte a permis de développer, a conduit tout de suite aux remarquables confirmations expérimentales de Davisson et Germer, ainsi que de G. P. Thomson, qui rendent visible l'aspect ondulatoire de la matière si éloigné, au moins en apparence, de son aspect corpusculaire « classique ». Nous nous trouvons donc en présence d'un double aspect que présentent à la fois la lumière et la matière : ondulatoire dans certains cas, corpusculaire dans d'autres. La liaison entre ces deux aspects a été recherchée dans une conception statistique. À ce point de vue, l’onde, dans le cas de la lumière comme dans celui de la matière, détermine les probabilités de présence des corpuscules (photons pour la lumière, électrons, protons, neutrons, etc. pour la matière), la manière dont les corpuscules se distribuent sur une plaque photographique entre les différentes franges d'interférence ou de diffraction, ou encore la manière dont ils se répartissent dans le temps ou dans l'espace entre les différents états individuels possibles. Mais cette conception statistique est en contradiction complète avec la conception corpusculaire ancienne, la conception mécaniste, à tel point que Heisenberg a pu, il y a douze ans, exprimer cette situation sous la forme de ce qu'il a appelé le « principe d'indétermination », en employant une expression que je trouve quelque peu malheureuse en raison des abus d'interprétation auxquels elle a donné lieu. De ce «principe d'indétermination », je voudrais donner ici une idée. Il résulte précisément de cette coexistence de l'aspect corpusculaire et de l'aspect ondulatoire. On sait que si, au point de vue corpusculaire, nous caractérisons une particule par sa position au moyen d'une coordonnée telle que q, la dynamique associe à cette coordonnée une variable conjuguée de la première, la quantité de mouvement correspondante qu'on représente par p. Dans la conception classique, on admet que la coordonnée q peut être déterminée, à chaque instant, avec une précision aussi grande qu'on le veut, que l'erreur Δq dont elle est susceptible, peut être réduite indéfiniment. De même cette conception implique que nous pouvons déterminer au même instant la vitesse, par conséquent la quantité de mouvement, avec une précision illimitée. Les erreurs Δp et Δq commises sur la quantité de mouvement et sur la coordonnée sont considérées comme indépendantes, et on admet que leur produit peut être rendu aussi petit que l'on veut. Au contraire, le « principe d'indétermination » consiste à affirmer qu'à un même instant, il n'est pas possible de connaître à la fois avec une précision illimitée p et q, que le produit Δp*Δq des erreurs commises sur ces deux éléments ne peut en aucun cas être rendu inférieur à la constante h de Planck. Voici, dans un cas simple, comment se présente ce « principe d'indétermination ». Supposons que nous ayons affaire à un faisceau d'électrons dont la vitesse est bien définie en grandeur et en direction, qui sera horizontale par exemple. Dans le langage de la mécanique ondulatoire, cela veut dire qu'une onde électronique plane, de fréquence et de longueur d'onde bien définies, se propage dans cette direction. Un électron appartenant au faisceau pourra se trouver dans n'importe quel point de l'espace occupé par celle-ci. Considérons sa coordonnée q verticale : la position de notre électron est indéterminée, donc Δq est très grand. Si nous voulons augmenter la précision sur la position dans le sens vertical, nous prendrons deux lames et nous les rapprocherons de manière à réaliser une fente horizontale perpendiculaire à la direction de propagation. Plus cette fente sera étroite et plus nous aurons de précision au sujet de la position de l'électron dans la direction verticale. L'erreur sur la position Δp sera en effet égale à la largeur de la fente. Mais si nous obligeons les électrons et l'onde qui leur est associée à passer par une fente étroite, l'onde va être diffractée (tout comme une onde lumineuse).

Au delà de la fente, les électrons auront des vitesses dans des directions différentes (alors qu'elles étaient toutes parallèles avant la fente). L'ordre de grandeur de la déviation thêta correspondant à cette diffraction est, d'après les lois mêmes de la diffraction, donnée par le rapport de la longueur d'onde X de l'onde électronique, à la largeur de la fente Δq ; la diffraction est d'autant plus importante que la longueur d'onde est plus grande et la fente plus étroite. Cela signifie que la quantité de mouvement, horizontale avant le passage à travers la fente, va prendre après ce passage une direction différente en général. Dans la direction verticale, l'incertitude sur la quantité de mouvement sera égale à la composante dans cette direction de la quantité de mouvement déviée de l'angle thêta. Comme la quantité de mouvement est, d'après la relation fondamentale de Louis de Broglie, h/lambda, l'incertitude Δp sera :

delta(p) = (h/lambda)*(thêta) = (h/lambda)*(lambda/(delta(q))) = h/(delta(q))

d'où

(delta(p))*(delta(q)) = h.

C'est bien là la relation d'incertitude d' Heisenberg obtenue comme conséquence du fait expérimental de la diffraction des ondes électroniques. On retrouve encore cette relation lorsqu'on cherche à préciser au maximum la position d'un électron au moyen d'un appareil analogue à un microscope : c'est le célèbre microscope de Heisenberg. Nous envoyons de la lumière sur l'électron:

l'électron la renvoie dans la direction de l'observateur, et le point où se forme la tache lumineuse sur l'oculaire du microscope nous indique la position de l'électron au moment considéré. Plus la tache sera petite, mieux sera connue la position. Or les dimensions de cette tache lumineuse sont, toujours en raison des phénomènes de diffraction, fixées par la longueur d'onde de la lumière utilisée. Si l'on veut avoir une grande précision sur la position de l'électron, il faut réduire au maximum les dimensions de la tache et, pour cela, utiliser une lumière de longueur d'onde la plus faible possible. Mais alors la loi des quanta nous indique que l'énergie de cette radiation sera très grande : lorsqu'elle va rencontrer notre électron, celui-ci va subir un recul très important, d'autant plus important que la longueur d'onde sera plus petite : si nous voulons connaître très exactement la position de l'électron, sa vitesse, par suite du recul, sera très mal connue. Inversement, si nous voulons connaître très exactement la vitesse de l'électron, il suffira de l'éclairer avec de la lumière de très grande longueur d'onde et de mesurer les modifications que l'électron lui fait subir (effet Doppler) ; mais la tache de diffraction est alors énorme, et la position de l'électron est très mal définie. On a toujours, comme précédemment, Δp * Δq = h. On est parti de ce résultat pour proclamer la faillite du déterminisme.

On a affirmé que le mouvement des corpuscules de toute nature n'est pas déterminé, puisqu'il serait impossible de définir expérimentalement au même instant la position et la vitesse d'un corpuscule quelconque. C'était justement dire qu'il n'était qu'un déterminisme possible, celui de Laplace, et que, du moment que celui-ci ne se vérifiait pas dans le nouveau domaine étudié, il n'y avait pas de déterminisme du tout. Nous avons vu pourtant que déjà l'aspect ondulatoire de la lumière nous met en présence d'un déterminisme différent de celui de Laplace : il suffit ici de rappeler les tentatives nombreuses de la fin du siècle dernier pour donner une « explication mécanique » de la théorie de Maxwell. Du fait que le déterminisme laplacien n'était plus vérifié, il en était qui parlaient du libre arbitre « des électrons », du « libre choix » que faisait la Nature dans telle ou telle éventualité.

L'électron était assimilé à un individu humain. Ces interprétations allaient assez loin pour qu' Arthur Eddington pût écrire dans son livre intitulé La nature du monde physique : « On pourra peut-être dire, comme conclusion à tirer de ces arguments fournis par la science moderne, que la religion est devenue acceptable pour un esprit scientifique raisonnable à partir de 1927... Si notre prévision se confirme que 1927 aura vu l'élimination définitive de la causalité stricte par Heisenberg, Bohr, Max Born et d'autres, cette année représentera certainement l'une des plus grandes époques dans le développement de la pensée scientifique.

Un livre récent de Jordan (La physique du XXème siècle, 1938) abonde en formules définitives : « liquidation du matérialisme », « possibilités positives tout à fait nouvelles pour garantir au religieux son espace vital (Lebensraum !) sans contradiction avec la pensée scientifique », renoncement à l'objectivité, etc. On a encore proposé, — c'est aussi Jordan qui a particulièrement insisté sur ce point, — de tirer de ce « principe » le moyen de résoudre certaines difficultés à une tout autre échelle. Nous avons autour de nous la matière dite morte et la matière vivante régies la première par les lois de la physico-chimie, la seconde par les lois de la biologie. Dans ces conditions, voilà comment on expliquerait ce qui fait le fond de la différence entre ces deux aspects de la réalité : la physico-chimie n'a affaire qu'à des systèmes où la statistique (par suite du grand nombre de particules) intervient tout de suite pour limiter les manifestations de la liberté électronique, tandis que la structure des êtres vivants contient, en quelque sorte, des amplificateurs du « libre choix » de certains électrons : nous aurions ainsi, dans notre système nerveux central, des régions privilégiées où des électrons particuliers effectueraient de façon continuelle leur libre choix, et la vie ne serait pas autre chose que l'organisation amplificatrice de ce choix ! Essayons maintenant de nous rendre compte plus exactement de la situation. En explorant le domaine atomique, nous avons découvert beaucoup de choses nouvelles : électrons, photons, noyaux. Nous avons essayé de transposer à cette nouvelle échelle les conceptions, qui nous étaient familières, de la mécanique et de l'électromagnétisme « classiques ». Nous avons essayé d'utiliser la notion de mouvement mécanique simple, le déterminisme mécanique de Laplace ; nous avons vu dans les électrons, comme dans les autres particules, une sorte d'extrapolation jusqu'à une ténuité extrême des objets auxquels nous sommes habitués. L'expérience nous apprend alors qu'il n'est pas possible de connaître avec précision à la fois la position et la vitesse d'un corpuscule, en vue de la prévision de son mouvement ultérieur. Et nous en concluons tout de suite : les lois de la nature comportent une indétermination fondamentale ! Pourquoi ne pas admettre plutôt que notre conception corpusculaire est inadéquate, qu'il n'est pas possible de représenter le monde intraatomique en extrapolant jusqu'à l'extrême limite notre conception macroscopique, mécaniste du mobile? Si la nature ne répond pas de manière précise lorsque nous lui posons une question sur l'électron assimilé au corpuscule de la mécanique classique, il y a. beaucoup de prétention de notre part à conclure : le déterminisme n'existe pas dans la nature. Il serait plus juste de dire : la question est mal posée, l'électron n'est pas assimilable au corpuscule de la mécanique classique. Il ne doit donc pas s'agir d'incriminer la nature, mais de changer, — ce qui est plus difficile, en tout cas plus fécond, — la façon même dont est formulée la question. Ce dont il s'agit en réalité, ce n'est pas du tout d'une crise du déterminisme en général, mais bien d'une crise du mécanisme que nous essayons d'utiliser pour représenter un domaine nouveau. Nous constatons en fait l'insuffisance, dans le domaine microscopique, des conceptions qui avaient réussi dans le domaine macroscopique, qui avaient été créées à son usage et à son contact prolongé pendant tant de générations. Le monde devant lequel nous nous trouvons est donc infiniment plus riche que ne l'imaginait Blaise Pascal lorsqu'il admettait une même structure, de l'infiniment grand à l'infiniment petit, à une échelle de plus en plus réduite. A ce point de vue nous devrions retrouver les mêmes aspects à tous les étages et pouvoir utiliser partout les mêmes notions. Mais la réalité est beaucoup plus riche ; chaque étage nouveau où l'expérience nous permet de descendre nous apporte des vérités nouvelles, exige de nous un effort nouveau de construction théorique. J'ai la conviction profonde que cet effort doit se poursuivre dans la voie qui nous a déjà conduits si loin,;, je suis convaincu qu'en renonçant à la conception déterministe, nous priverions la science de son ressort essentiel, de ce qui a fait jusqu'ici sa force et son succès, la confiance dans l'intelligibilité du monde. Rien dans les difficultés actuelles ne justifie ou n'impose un changement d'attitude qui équivaudrait, selon moi, à une abdication. Souvent, on interprète, par exemple, la constante h de Planck comme fixant les limites du domaine dans lequel règnent l'indéterminisme, le «hasard pur ». Mais cette limite de l'indétermination est singulièrement déterminée, par cette constante connue à un millième près. Cette constante h joue un rôle fondamental dans les lois profondes de la nature et dans les phénomènes les plus divers : on aimerait savoir un peu mieux sa signification profonde et ne pas renoncer à l'attitude scientifique au moment où elle n'a jamais été plus nécessaire ni probablement plus féconde. Il n'est pas suffisant de dire que la constante h détermine l'indétermination. Le succès même de la théorie moderne de l'atome montre la nécessité pour le physicien de rester fidèle au guide le plus sûr de son activité, qui est d'aller toujours plus loin dans la recherche d'un déterminisme. Nous ne devons pas être autrement surpris de ces difficultés dont l'importance est en proportion des progrès accomplis ou en préparation. Il nous faut travailler avec les conceptions dont nous avions l'habitude, avec tout l'équipement intellectuel constitué par notre science au cours d'une histoire encore toute récente. C'est ainsi que nous pourrons résoudre la tâche qui s'impose à nous : interpréter tout un monde de faits entièrement nouveaux, tout d'abord dans le domaine atomique, puis dans le nouveau domaine de la physicochimie nucléaire. Peut-être, avec les nouvelles particules que cette science a permis de découvrir, — neutrons, mésotons, neutrinos, — aurons-nous autant de surprises dans ce deuxième sous-sol par rapport au premier, que nous en avons eu dans celui-ci par rapport à notre expérience macroscopique. Cela veut dire que nous aurons à forger des instruments nouveaux comme nos ancêtres ont forgé les notions dont nous avons l'habitude de nous servir. Ces dernières notions nous paraissent concrètes et simples parce qu'elles nous sont familières. Mais nous avons vu dans notre expérience récente des notions très abstraites et difficilement assimilables au début se colorer de concret par la pratique : qu'il me suffise, ici de rappeler des notions comme celle du potentiel ou de l'entropie, dont l'usage est courant aujourd'hui, mais qui, dans ma jeunesse, paraissaient d'une très grande abstraction. Nous ne devons pas nous refuser à admettre des possibilités analogues dans notre physique de l'atome ou du noyau. Je suis convaincu que la confrontation prolongée avec l'expérience nous permettra de colorer, de rendre toujours plus concrètes les notions qui sont contenues en puissance dans les équations dé la nouvelle dynamique et que nous devons en dégager. Nous assistons à un moment particulièrement important du développement de cette chose vivante qu'est notre raison. Elle n'est pas donnée a priori, elle n'a pas les cadres rigides qu'on croyait pouvoir lui imposer autrefois. Reflétant toujours mieux le monde extérieur, cette raison évolue, s'insinue de plus en plus près de cette réalité que nous connaissons et que nous dominons toujours davantage. Il y a une quarantaine d'années, il n'était question que de la « crise de l'atomisme », et le progrès de la Physique a définitivement attesté la réalité des atomes. Aujourd'hui on parle de « crise du déterminisme » alors qu'au vrai, la détermination objective des faits est mieux connue aujourd'hui qu'elle ne l'était hier. Certes, à mesure que notre connaissance du réel progresse, nous sommes amenés à modifier la conception que nous nous faisons du déterminisme. Mais ceux qui présentent l'évolution de notre connaissance du déterminisme comme la faillite de celui-ci ont beau se réclamer de la science la plus moderne, ce n'est pas d'elle qu'ils tirent cette idée ; ils la tirent d'une vieille philosophie hostile à la science qu'ils cherchent à réintroduire dans la science. Et lorsque les philosophes idéalistes se réclament de tel ou tel physicien idéaliste, ils ne font que reprendre chez lui les conceptions qu'ils lui ont prêtées eux-mêmes. La puissance de la science à connaître le réel tel qu'il est, voilà en fait la leçon qui se dégage d'une manière particulièrement saisissante de tous les progrès que la physique moderne a déjà accomplis et de tous ceux qu'annoncent dès à présent les recherches actuellement en cours.

  • Source: Revue la Pensée, édition numérique sur Gallica