Hasard, chaos et déterminisme :
les limites des prédictions

Mise à jour : 16/07/2015

 

Chacun de nous a des définitions du hasard, du chaos et du déterminisme. J'ai pris la liberté de modifier et compléter ces définitions par souci de rigueur et pour les rendre cohérentes entre elles. Le but de ce texte est de bien cerner les limites de ce qu'on peut prédire lors d'une évolution.

Après une définition étendue du déterminisme, je conjecture une restriction de la contrainte de stabilité des lois d'évolution, conjecture lourde de conséquences.

Ce texte sert d'introduction au livre [1].

 

Table des matières

1.      Prédiction d'évolutions physiques. 3

1.1   Premières définitions du déterminisme. 3

1.1.1        Définition et promesses du déterminisme philosophique. 4

1.1.2        Le déterminisme philosophique est contredit par des faits. 4

1.2   Postulat de causalité. 5

1.3   Principe d'homogénéité. 6

1.3.1        Seul l'esprit humain peut ignorer le principe d'homogénéité. 7

1.3.2        Le modèle informatique de l'homme. 8

1.3.3        Déterminisme et principe d'homogénéité. 9

1.3.4        Domaine de vérité d'une science et principe d'homogénéité. 9

1.4   Le déterminisme scientifique. 9

1.4.1        Règle de stabilité. 9

1.4.1.1              Importance de la vitesse et de l'amplitude d'une évolution.. 10

1.4.2        Définition du déterminisme scientifique. 10

1.4.2.1              Déterminisme des évolutions régies par des équations différentielles. 11

1.4.2.2              Déterminisme des formules, algorithmes et logiciels. 11

1.4.3        Déterminisme scientifique et obstacles à la prédiction.. 12

1.4.3.1              L'ignorance. 13

1.4.3.2              L'imprécision.. 13

1.4.3.3              La complexité. 17

1.4.4        Déterminisme statistique de l'échelle macroscopique. 19

1.4.5        Ensemble de définition d'une loi déterministe. 20

1.4.5.1              Le hasard dans l'évolution selon une loi de la nature. 22

1.5   Le hasard.. 22

1.5.1        Définitions du hasard.. 22

1.5.1.1              Définition par conformité à une loi de distribution statistique. 23

1.5.1.2              Définition de René Thom.. 23

1.5.1.3              Définition par rencontre de chaînes de causalité indépendantes - Hasard par ignorance. 24

1.5.1.3.1          Impossibilité d'existence de chaînes de causalité indépendantes  24

1.5.1.3.2          Rencontre imprévisible de chaînes de causalité distinctes  25

1.5.1.4              Définition par la quantité d'information.. 25

1.5.2        Des nombres, suites et ensembles sont-ils aléatoires ?.. 26

1.5.3        Hasard postulé et hasard prouvé. 26

1.5.4        Le déterminisme statistique, complément du déterminisme scientifique. 28

1.5.5        Différences entre déterminisme statistique, fluctuations quantiques et hasard   29

1.5.6        Hasard et niveau de détail d'une prédiction.. 29

1.5.7        Premières conclusions sur le hasard et la prédictibilité. 30

1.5.8        Différences entre hasard, imprécision et indétermination en Mécanique quantique  31

1.5.9        Résumé des conclusions sur le hasard dans l'évolution naturelle. 31

1.5.10     Evolutions attribuées à tort au hasard.. 32

1.5.10.1           Le hasard pour raisons psychologiques. 32

1.5.10.2           Le hasard par raison de contingence – Principe d'identité. 33

1.5.11     Conséquences multiples d'une situation donnée - Décohérence. 34

1.5.12     Il faut admettre les dualités de comportement 35

1.6   Chaos. 36

1.6.1        Définition.. 36

1.6.2        Conditions d'apparition d'une évolution chaotique – Série de Fourier. 37

1.6.3        Fluctuations faussement aléatoires d'un phénomène apériodique. 38

1.6.4        Domaines où on connaît des évolutions chaotiques. 41

1.7   Turbulence. 42

1.8   Le déterminisme étendu.. 42

1.8.1        Propriétés des lois de l'Univers. 43

1.8.2        Définition constructive du déterminisme étendu.. 44

1.8.2.1              Validité de cette approche. 45

1.8.3        Universalité du déterminisme étendu.. 46

1.9   Restriction du postulat de causalité. 46

1.9.1        Limites de la règle de stabilité du déterminisme. 46

1.9.2        Stabilité des lois d'évolution et situations nouvelles. 47

1.9.3        Restriction du postulat de causalité. 47

1.9.4        Exemples d'apparitions. 48

1.9.5        Conséquences philosophiques. 49

1.10          Déterminisme étendu : un principe et un objectif 49

1.10.1     Apports du déterminisme étendu aux prédictions d'évolution physique. 50

2.      Imprédictibilité de la pensée humaine. 53

2.1   La barrière de complexité. 54

2.2   Imprédictibilité des décisions économiques et boursières. 54

3.      Références. 55

4.      Résumé des cas d'imprédictibilité. 64

 

 

1.              Prédiction d'évolutions physiques

Avant d'agir, l'homme a besoin de comprendre la situation, ainsi que de prévoir son évolution et les conséquences d'une éventuelle action. Après le cas simple d'une situation où n'interviennent que des lois physiques de la nature, nous aborderons la prédictibilité des raisonnements humains.

 

Ce que sont la compréhension, la prévision et la prédiction d'une évolution :

§   comprendre une situation nécessite la connaissance du passé et de l'évolution depuis ce passé, pour situer l'état actuel par rapport à eux ;

§   prévoir une évolution, c'est en construire une représentation mentale. Cela nécessite la connaissance des lois d'évolution qui s'appliquent à l'état actuel ;

§   prédire une évolution ou une situation future, c'est en énoncer un état futur.

 

Le principe dont l'application permet la compréhension d'une situation physique et la prévision de son évolution est le déterminisme, objet de ce texte.

1.1             Premières définitions du déterminisme

Comme il y a plusieurs définitions du déterminisme parce qu'il y a plusieurs cas d'évolution, en voici un exposé succinct qui sera développé dans la suite de l'ouvrage.

 

Le déterminisme est un principe scientifique selon lequel tout phénomène physique (fait objectif, observé, susceptible de se reproduire) est régi par des lois d'évolution stables (telles que les mêmes causes produisent les mêmes effets, toujours et partout). On distingue :

§   Le déterminisme philosophique, défini par Laplace en 1814, affirmant à tort qu'une connaissance parfaite du présent permet toujours de prévoir l'avenir et de reconstituer mentalement le passé qui y a conduit.

§   Le déterminisme scientifique, affirmant que tout état d'un système physique déclenche nécessairement et immédiatement une évolution selon des lois connues et stables. Les évolutions successives produisent un état (valeurs des variables du système) fonction du temps.

§   Le déterminisme statistique, affirmant que, dans certains cas, l'état à un instant t d'un système qui évolue est un élément choisi selon une probabilité statistique dans un ensemble prévisible. Exemples :

·            (En première approximation) le résultat d'un lancer de dé est un nombre choisi avec une probabilité de 1/6 dans l'ensemble {1, 2, 3, 4, 5, 6}.

·            En Mécanique quantique, l'état d'un système (position, vitesse…) est un élément d'un ensemble fini ou non de solutions de l'équation d'évolution de Schrödinger.

§   Le déterminisme étendu, regroupant le déterminisme scientifique et le déterminisme statistique pour gérer toutes les lois d'évolution de la nature inanimée.

 

Mais attention : la nature déterministe des lois d'évolution physique n'entraîne pas la prédictibilité par calcul de toutes les évolutions, bien qu'elle exclue le hasard (possibilité pour la nature de « faire n'importe quoi »).

1.1.1          Définition et promesses du déterminisme philosophique

La définition traditionnelle du déterminisme philosophique a été publiée par Laplace en 1814 dans l'Essai philosophique sur les probabilités, où on lit pages 3 et 4 :

"Nous devons donc envisager l'état présent de l'Univers comme l'effet de son état antérieur et comme la cause de celui qui va suivre. Une intelligence qui pour un instant donné, connaîtrait toutes les forces dont la nature est animée, et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'Univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l'avenir comme le passé, serait présent à ses yeux. L'esprit humain offre, dans la perfection qu'il a su donner à l'Astronomie, une faible esquisse de cette intelligence. Ses découvertes en Mécanique et en Géométrie, jointes à celle de la pesanteur universelle, l'ont mis à portée de comprendre dans les mêmes expressions analytiques les états passés et futurs du système du monde."

 

Le déterminisme philosophique affirme donc :

§   Que l'avenir est complètement déterminé par le présent ;

§   Qu'il est complètement prévisible connaissant parfaitement le présent ;

§   Qu'une connaissance parfaite d'une situation présente permettrait de reconstituer en pensée tout le passé qui y a conduit ;

§   Qu'il existe, pour toute situation présente, une chaîne de causalité unique commençant infiniment loin dans le passé et se poursuivant infiniment loin dans l'avenir.

 

Le postulat de déterminisme philosophique a été construit par induction à partir de constatations d'évolution d'une situation à ses conséquences dans la vie courante, tout particulièrement en considérant les mouvements des planètes, prévisibles avec précision. En affirmant qu'il s'applique - et s'est toujours appliqué - à toutes les évolutions, on en a fait un principe philosophique régissant les lois d'évolution.

1.1.2          Le déterminisme philosophique est contredit par des faits

Le déterminisme philosophique, qui nous promet la possibilité de prévoir tout l'avenir et de retrouver mentalement tout le passé, est contredit par de nombreux phénomènes de la nature cités dans le livre [1]. Comme un seul contre-exemple suffit pour contredire une affirmation qui ne peut être que vraie ou fausse, en voici un.

Décomposition radioactive (fission nucléaire)

Un échantillon d'uranium 238 voit ses atomes se décomposer spontanément, sans aucune cause autre que le temps qui passe ; un atome d'uranium se transforme alors en un atome d'hélium et un atome de thorium. Le nombre d'atomes qui se décomposent par unité de temps suit une loi connue, qui prévoit que 50 % des atomes d'un échantillon de taille quelconque se décomposeront en un temps fixe T appelé « demi-vie de l'uranium 238 », puis la moitié du reste (c'est-à-dire ¼) dans le même temps T, puis la moitié du reste (1/8) dans le même temps T, etc.

La décomposition radioactive naturelle, c'est-à-dire spontanée, s'explique par l'instabilité de l'énergie de liaison des neutrons et protons du noyau d'un atome radioactif. Ce phénomène est inexplicable dans le cadre de la physique macroscopique, mais il s'explique en Mécanique quantique sous le nom d'effet tunnel : l'énergie d'excitation d'un noyau peut parfois dépasser l'énergie potentielle appelée « barrière de fission » de l'élément, entraînant une déformation si grande du noyau que celui-ci se décompose.

 

Contrairement à la promesse de prédiction de l'avenir du déterminisme philosophique, on ne peut savoir quels atomes se décomposeront pendant un intervalle de temps donné, ni à quel instant un atome particulier se décomposera, ni quel est le premier atome qui se décomposera, ni quand cela se produira. A l'échelle macroscopique, la décomposition radioactive suit une loi statistique, valable pour une population d'atomes mais ne permettant pas de prévoir l'évolution d'un atome donné. A l'échelle atomique, la stabilité d'un noyau dépend d'une énergie de liaison instable, qui varie sans cause externe à l'atome et ne permet de prévoir l'évolution de celui-ci (et son éventuelle décomposition) que de manière probabiliste. Le déterminisme philosophique de Laplace excluant les variations spontanées et imprévisibles ne s'applique donc pas aux décompositions radioactives naturelles.

 

En outre, lorsqu'un échantillon contient des atomes résultant d'une décomposition, on ne peut savoir à quel instant chacun d'eux s'est décomposé, ce qui contredit le déterminisme philosophique au sens reconstitution du passé.

 

Le déterminisme philosophique ne peut donc tenir ses promesses ni concernant la prédiction de l'avenir, ni concernant la reconstitution mentale du passé : c'est donc un principe faux dans le cas de la décomposition radioactive. Et comme, d'après le rationalisme critique expliqué dans le livre [1], il suffit d'un seul contre-exemple pour qu'une affirmation qui ne peut être que vraie ou fausse soit fausse, nous considérons le déterminisme philosophique comme erroné bien que la définition ci-dessus figure dans certains dictionnaires philosophiques.

 

Nous allons donc reprendre le problème de compréhension du présent et prédiction de l'avenir sur une base moins ambitieuse, en repartant de la causalité à la base du déterminisme philosophique et en abandonnant provisoirement sa promesse de prédiction et de reconstitution.

1.2             Postulat de causalité

Depuis qu'il existe, l'homme a remarqué certains enchaînements : une même situation S est toujours suivie du phénomène P. Par une démarche naturelle d'induction, il en a déduit un postulat général : « Les mêmes causes produisent toujours les mêmes conséquences ». Et en réfléchissant aux conditions qui régissaient les enchaînements observés, il en a déduit le postulat de causalité que j'énonce comme suit sous forme de condition nécessaire et suffisante.

Définition du postulat de causalité

§   Condition nécessaire : Toute situation a nécessairement une cause qui l'a précédée et dont elle résulte ; rien ne peut exister sans avoir été créé auparavant.

Donc, si je constate un phénomène ou une situation, je suis sûr qu'il ou elle a une cause dans le passé, mais je renonce pour le moment à pouvoir reconstituer mentalement ce passé en déduisant cette cause de sa conséquence observée, comme le promet le déterminisme philosophique.

§   Condition suffisante : il suffit que la cause existe au départ pour que la conséquence ait lieu (c'est une certitude).

Notons que cette conséquence est un phénomène d'évolution, pas une situation finale : nous renonçons ainsi à la promesse de prédiction du résultat de l'évolution, en ne conservant que le postulat du déclenchement de celle-ci.

 

Exemple : je tiens une pierre dans ma main ;

§   Pour qu'elle tombe je dois la lâcher, condition nécessaire ;

§   Si je la lâche elle tombe, condition suffisante.

 

Dans certains cas favorables, le postulat de causalité répond aux besoins de la pensée rationnelle de comprendre et de prévoir :

§   La condition nécessaire permet d'expliquer une conséquence (phénomène ou situation), en remontant le temps jusqu'à sa cause ;

§   La condition suffisante permet de prévoir une conséquence, en suivant le temps depuis sa cause : l'évolution est déclenchée à coup sûr.

 

Certains philosophes appellent la cause ci-dessus cause efficace. Dans ce texte il ne sera jamais question de cause finale, cause matérielle ou cause formelle.

 

Avant de poursuivre notre propos sur le hasard, le chaos et le déterminisme, nous avons besoin d'évoquer le principe d'homogénéité.

1.3             Principe d'homogénéité

Ce principe de logique est dû à Aristote, qui l'a énoncé sous forme d'interdit : "On n'a pas le droit de conclure d'un genre à un autre". Il voulait dire qu'une relation logique ne peut exister qu'entre deux objets du même genre. Exemples :

§   Relation de physique : une comparaison n'est possible qu'entre grandeurs de même type :

·            Les comparaisons A = B ; A ³ B et A ¹ B ne sont possibles que si A et B sont tous deux des masses (ou des longueurs, etc.).

·            Toute mesure comparant une grandeur à une unité, on ne peut mesurer une masse en unités de charge électrique ou de longueur : on dit que ces grandeurs sont incommensurables entre elles.

§   Concepts d'ordres différents

Une masse et une charge électrique sont de genres (on dit aussi "d'ordres") différents ; aucun des deux ne peut se déduire directement de l'autre, aucun ne peut être directement cause ou conséquence de l'autre (une masse ne devient pas une charge électrique et ne résulte pas d'une charge électrique).

Toutefois, on peut passer d'un genre à un autre lorsqu'on dispose d'un intermédiaire qui est des deux genres. Ainsi, lorsqu'on parle de l'aire d'un champ de blé (exemple : 100 hectares) et d'un poids récolté en quintaux, on peut passer de l'aire à la récolte correspondante par l'intermédiaire d'un rendement (exemple : 70 quintaux à l'hectare) qui est à la fois du genre aire et du genre poids.

§   Action de l'esprit sur la matière

Cette action, estimée possible par certains spiritualistes, est contraire au principe d'homogénéité. Du reste, elle contredirait la physique : une action matérielle n'est possible qu'avec un échange d'énergie, et on ne voit pas comment une idée abstraite ou une pensée humaine pourraient fournir ou absorber l'énergie mise en jeu.

Une idée n'est cause ou conséquence que par l'intermédiaire d'un esprit humain, ou de Dieu pour les croyants. Une réalité ne peut être cause d'une idée que dans un esprit qui pense.

1.3.1          Seul l'esprit humain peut ignorer le principe d'homogénéité

L'esprit humain peut créer des relations d'un genre vers un autre sans difficulté, sans la moindre impression d'erreur ; c'est un effet de son aptitude à associer n'importe quel concept à n'importe quel autre car son imagination est libre.

La pensée en tant que processus d'interprétation

Beaucoup de philosophes contestent à tort l'origine matérialiste de la pensée en tant qu'effet du fonctionnement du cerveau. Ils raisonnent comme ceci : puisque ce fonctionnement (matériel) est d'un genre différent de la pensée (abstraite), la pensée ne peut provenir seulement de causes matérielles, en raison du principe d'homogénéité, il doit y avoir « autre chose ».           Ils se trompent : les neurosciences expliquent que la pensée est la perception humaine du fonctionnement du cerveau lorsque celui-ci interprète ses connexions de neurones. C'est cette interprétation qui transforme un état matériel de neurones en abstractions ; elle constitue la seule mise en relation entre concepts de genres différents qui ne viole pas le principe d'homogénéité. En reliant des abstractions, l'esprit humain peut créer n'importe quelle relation, même fantaisiste ou absurde ; il suffit que certains groupes de neurones (appelés « cliques ») créent, modifient ou suppriment diverses connexions entre eux. Le besoin intuitif d'« autre chose » de ces philosophes résulte du caractère imprévisible de certaines pensées, dû à notre incapacité de décrire rationnellement les mécanismes subconscients ; ils considèrent comme « besoin » un effet de l'ignorance humaine de ces mécanismes.

 

Le processus d'interprétation de notre pensée n'est pas déterministe, d'abord parce qu'il comprend des parties subconscientes, ensuite parce qu'il subit l'influence de conditions non conscientes (donc non maîtrisables) venues de nos perceptions, de notre état de santé du moment et des émotions qui apparaissent spontanément.

1.3.2          Le modèle informatique de l'homme

C'est un modèle du psychisme ressemblant à un logiciel à niveaux hiérarchiques. Du niveau le plus élevé au moins élevé :

§   Logiciel (en anglais : software) :

·            La conscience ;

·            Le subconscient ;

·            Les processus automatiques du système nerveux (cervelet, moelle épinière, etc.) ;

§   Microcode (en anglais : firmware) : le code génétique et son interprétation par la machinerie cellulaire : duplication et expression des gènes, fabrication et utilisation des protéines, etc. ;

 

Le "matériel" sous-jacent, nécessaire à l'existence et au fonctionnement de ce logiciel, est l'ensemble des cellules du cerveau, avec leurs processus biologiques basés sur des protéines générées par interprétation du génome.

 

Ce modèle informatique ne peut se ramener à un modèle physique, basé sur la biologie et/ou la génétique. C'est une description complémentaire, basée sur de l'information et des relations entre informations, ainsi que des générations, comparaison et interprétations d'informations par notre esprit. Tenter de déduire des pensées dans un esprit humain de mécanismes neuronaux est impossible.

 

Ce n'est pas parce que la pensée est impossible sans un cerveau et ses mécanismes physiques qu'elle peut se ramener à eux : ils en sont une condition nécessaire, mais pas suffisante pour en décrire le déroulement.

Transcendance avec et sans caractère surnaturel

La nécessité ci-dessus d'une description complémentaire des processus de l'esprit, en plus de sa description physique basée sur le génome et les neurones, implique la transcendance d'une partie des mécanismes de la pensée, leur caractère non réductible à son modèle physique. Ce n'est pas plus choquant que la nécessité du concept de charge électrique, en plus de celui de masse, pour décrire les mouvements d'un électron dans un champ électrique.

        Cette transcendance est l'œuvre de notre entendement, lorsqu'il se donne les concepts nécessaires à la description des processus psychiques, concepts qu'on ne peut réduire aux seuls concepts physiologiques.

 

Il y a une autre transcendance, celle qui fait intervenir le surnaturel. On la trouve par exemple dans l'Idée de Platon, la description par une religion monothéiste du concept de Dieu ou les croyances magiques ; c'est une caractéristique de ce qui est extérieur et « supérieur » à notre Univers.

 

Dans ce texte, c'est le premier sens ci-dessus qui décrit l'irréductibilité de la pensée à des processus physiologiques. Croire en la nécessité d'une telle transcendance est compatible avec la vue moderne du matérialisme, vue qui dépasse celle qui tente sans succès de ramener la pensée aux seuls mécanismes physiques.

1.3.3          Déterminisme et principe d'homogénéité

Le déterminisme ne s'applique qu'aux évolutions physiques ; il ne s'applique pas à la pensée parce que celle-ci comprend une partie subconsciente dont nous ne pouvons décrire le fonctionnement.

§   L'évolution d'une situation (d'un état) physique ne peut aboutir qu'à une autre situation (un autre état) physique.

§   Comme toutes les situations physiques sont délimitées par notre Univers (dont l'espace-temps comprend, par définition, tout ce qui existe ou a existé), aucune situation de notre Univers ne peut avoir une conséquence externe à l'Univers, aucune ne peut être causée par quelque chose d'extérieur à l'Univers.

Nous pouvons cependant voir dans nos télescopes la lumière d'astres qui l'ont émise il y a si longtemps que l'expansion de l'Univers les situe aujourd'hui au-delà de la limite de ce qui est observable.

§   L'esprit humain peut imaginer un franchissement des frontières de l'Univers, mais ce sera un calcul cosmologique ou une pure spéculation.

§   Même si un jour une théorie sur d'autres univers affirme des choses vérifiables dans le nôtre, elle ne prouve pas que ces univers existent, car cette existence ne peut être ni vérifiée ni infirmée expérimentalement.

1.3.4          Domaine de vérité d'une science et principe d'homogénéité

Un intérêt majeur de la règle du respect de l'homogénéité est la délimitation du domaine de vérité d'une science : une affirmation n'a de sens qu'à l'intérieur d'un domaine homogène ; on ne peut en vérifier la véracité que dans un tel domaine.

Husserl écrit : "L'empire de la vérité s'articule objectivement en domaines ; c'est d'après ces unités objectives que les recherches doivent s'orienter et se grouper en sciences."

Kant écrit : "On n'étend pas, mais on défigure les sciences quand on fait chevaucher leurs frontières." Cette affirmation provient du caractère axiomatique [1-z10] des sciences exactes, dont chacune a des axiomes et règles de déduction propres qu'on ne doit pas mélanger avec ceux d'une autre science.

 

La connaissance scientifique n'a commencé à progresser que lorsque l'humanité a réussi à la séparer des considérations philosophiques, morales et religieuses [212].

1.4             Le déterminisme scientifique

Pour comprendre et prévoir, la pensée rationnelle a besoin d'ajouter au postulat de causalité ci-dessus une règle de stabilité dans le temps et l'espace, c'est-à-dire de reproductibilité.

1.4.1          Règle de stabilité

Règle : Les mêmes causes produisent toujours les mêmes effets (reproductibilité). Les lois physiques dont l'application est déclenchée par une cause donnée sont stables, elles sont les mêmes en tous lieux et à tout instant.

 

Conséquence de la stabilité : une situation stable n'a jamais évolué et n'évoluera jamais ! Pour prendre en compte, alors, une évolution à partir d'un instant t il faut changer la définition du système observé. En fait, l'écoulement du temps ne se manifeste que lorsque quelque chose évolue ; si rien n'évolue tout se passe comme si le temps s'arrêtait. La règle de stabilité n'a rien d'anodin : elle a pour conséquence la première loi du mouvement de Newton, la loi d'inertie :

"Un corps immobile ou se déplaçant en ligne droite à vitesse constante restera immobile ou gardera le même vecteur vitesse tant qu'une force n'agit pas sur lui."

Au point de vue déterminisme, un mouvement linéaire uniforme est une situation stable, qui ne changera pas tant qu'une force n'agira pas sur le corps. Et une situation stable est sa propre cause et sa propre conséquence.

 

Grâce à la règle de stabilité on peut induire une loi physique de la nature d'un ensemble d'enchaînements cause-conséquence constatés : si j'ai vu plusieurs fois le même enchaînement, je postule que la même cause (la même situation, le même état d'un système) produit toujours la même conséquence (la même évolution dans le temps). On peut alors regrouper le postulat de causalité et la règle de stabilité en un principe qui régit toutes les lois de la nature décrivant une évolution dans le temps, le postulat de déterminisme scientifique énoncé ci-dessous.

1.4.1.1               Importance de la vitesse et de l'amplitude d'une évolution

En pratique, la stabilité d'une loi physique d'évolution est soumise à des incertitudes, comme une variable physique : ses paramètres sont entachés d'erreurs.

§   Une loi d'évolution décrit celle-ci à partir d'une situation initiale en appliquant des règles de calcul. Mais une variable des données initiales, des règles de calcul et de l'heure de l'instant initial n'est connue avec une précision parfaite que lorsque c'est une unité internationale, définie arbitrairement, comme la vitesse de la lumière c ; toutes les autres variables sont entachées d'erreurs : la prédiction d'une évolution est donc, en pratique, entachée d'erreurs.

§   Un système est stable lorsque ses variations sont trop petites et/ou trop lentes pour être observées. Un système qui paraît stable en ce moment a peut-être évolué de manière perceptible dans le passé, mais de plus en plus lentement ou avec de moins en moins d'amplitude jusqu'à paraître stable en ce moment ; et peut-être évoluera-t-il de plus en plus vite ou de plus en plus fort à l'avenir.

1.4.2          Définition du déterminisme scientifique

Le déterminisme scientifique est un postulat qui régit l'évolution dans le temps d'une situation sous l'effet des lois de la nature, conformément au postulat de causalité et à la règle de stabilité.

 

Par rapport au déterminisme philosophique, le déterminisme scientifique :

§   Prédit qu'une situation évoluera certainement sous l'action d'une loi naturelle, pas qu'on en connaîtra la valeur future des variables d'état ;

§   N'affirme pas la possibilité de reconstituer mentalement le passé.

Remarque importante

Le déterminisme scientifique affirme donc que la nature déclenche automatiquement et instantanément une évolution lorsque ses conditions sont réunies ; les conséquences de ces conditions sont le déclenchement et le déroulement d'une évolution bien définie, pas une situation à un instant futur (qui est une représentation, une abstraction humaine).

 

Le déterminisme scientifique n'affirme rien sur la prédictibilité des valeurs des variables d'état d'un système aux divers instants futurs, ni sur l'unicité de valeur d'une variable à un instant donné. Nous verrons que la prévision de la valeur d'une variable d'un système physique à un instant donné est parfois impossible ou imprécise, et parfois que cette valeur n'est même pas unique.

1.4.2.1               Déterminisme des évolutions régies par des équations différentielles

Dans de nombreux phénomènes physiques, l'évolution d'un système est modélisée par une équation différentielle ou un système d'équations différentielles comprenant des dérivations par rapport au temps. Lorsque c'est le cas, la connaissance des conditions initiales permet de déterminer toute l'évolution ultérieure de ses variables, soit parce qu'on peut exprimer celles-ci comme fonctions du temps, soit parce qu'on peut calculer les valeurs successives de ces variables de proche en proche. L'évolution du système est alors déterministe au sens scientifique traditionnel et on peut même parler de déterminisme mathématique.

Exemples souvent cités : les équations différentielles de la dynamique (2ème loi de Newton) et de Schrödinger [1-w] (Mécanique quantique).

1.4.2.2               Déterminisme des formules, algorithmes et logiciels

Un cas particulier d'évolution est la traduction instantanée d'un concept en un autre, par application d'une formule ou d'un algorithme. Le déterminisme de la nature régit donc, en plus de ses lois d'évolution, des lois et méthodes de calcul traduisant des données initiales en un résultat final qui est leur conséquence, sans délai d'évolution.

 

Un algorithme est écrit dans le cadre d'une axiomatique [1-z10] et un programme est écrit avec un langage informatique. Chacune des règles de déduction de l'axiomatique et chacune des instructions du programme respecte les conditions du postulat de causalité et de la règle de stabilité : l'algorithme et le programme étant donc des suites de processus déterministes, sont globalement déterministes.

 

Pourtant, leur résultat n'est pas prédictible à la seule vue de leur texte. En particulier, on ne peut savoir s'ils produisent les résultats attendus qu'en déroulant l'algorithme par la pensée et en exécutant le programme. On ne peut pas, non plus, savoir si la progression vers ce résultat est rapide ou non : un programme peut se mettre à boucler, repassant indéfiniment sur la même séquence d'instructions, et un algorithme peut converger très lentement ou même ne pas converger du tout ; si l'exécution d'un programme doit durer 100 ans aucun homme ne l'attendra.

 

Il existe donc des processus déterministes :

§   dont le résultat est imprévisible avant leur déroulement ;

§   dont le déroulement peut durer si longtemps qu'on ne peut se permettre de l'attendre pour avoir le résultat.

 

Nous voyons donc, sur cet exemple, que le déterminisme d'un processus n'entraîne pas nécessairement la prédictibilité de son résultat. Approfondissons ce problème.

1.4.3          Déterminisme scientifique et obstacles à la prédiction

Résultat d'une évolution physique

Le résultat à un instant donné de l'évolution physique d'un système est un état caractérisé par les valeurs d'un certain nombre de variables. Chacune de ces variables a un ensemble de définition et une unité de mesure. Exemples d'ensembles de définition :

§   Une longueur est un nombre réel positif de mètres ;

§   Une énergie électromagnétique échangée à l'aide de photons de fréquence n  est un nombre de joules multiple entier de hn, où h est la constante de Planck [1-i] ;

§   En Mécanique quantique, une mesure ne peut donner comme résultat qu'une valeur propre de l'observable [1-z23] du dispositif de mesure.

 

Prédire un résultat d'évolution d'une variable consiste, en physique macroscopique, à prédire quel élément de son ensemble de définition résultera de l'application de la loi d'évolution, c'est-à-dire quel élément de cet ensemble elle choisira. En physique atomique, la prédiction utilise la Mécanique quantique et a pour résultat un ensemble connu de valeurs, munies de probabilités d'apparition s'il y a décohérence en fin d'expérience.

Déterminisme et prédictibilité

Dans le cas général, le déterminisme d'une loi de la nature n'entraîne ni la prédictibilité de ses résultats, ni leur précision. Voici pourquoi.

 

Dans les définitions du postulat de causalité et du déterminisme scientifique nous avons renoncé à prédire un résultat d'évolution. Mais comme nous savons que toute situation non stable est une cause qui déclenche l'application d'une loi de la nature, le problème de prédire un résultat d'évolution devient celui de prédire le résultat de l'application d'une telle loi.

Déterminisme statistique : avec la définition ci-dessus du déterminisme, on ne peut pas opposer les adjectifs déterministe et stochastique [31] : nous verrons, par exemple, que la loi d'évolution de Mécanique quantique appelée décohérence [1-j] produit des résultats probabilistes - donc qualifiés habituellement de stochastiques. Cette loi sera dite déterministe parce qu'elle respecte le principe de causalité et la règle de stabilité, mais comme elle produit des résultats multiples distribués selon une loi de probabilité il s'agira d'un déterminisme statistique.

 

Voir en fin de texte la table résumant les cas d'imprédictibilité.

Les conséquences du postulat matérialiste [1-e] sur la prédictibilité

Selon le matérialisme, la nature n'a pas de conscience comme un homme. Ses lois ignorent les notions humaines de résultat et de valeur, et n'ont aucune finalité. On peut aussi éliminer l'intervention dans notre Univers de quelque chose d'externe ou surnaturel : son résultat serait par essence imprévisible et toute loi d'évolution basée sur lui serait infalsifiable ; cette intervention est d'ailleurs impossible, car interdite par la Relativité Générale. Si nous admettions la possibilité qu'une intervention surnaturelle déclenche, empêche ou modifie le déroulement d'une évolution naturelle, nous renoncerions en même temps à prévoir rationnellement son résultat. Nous exclurons aussi toute intervention provenant de l'intérieur de l'Univers mais n'obéissant à aucune loi de la nature, en nous réservant de préciser plus bas la notion de hasard et sa portée.

 

Voici quatre types de raisons qui empêchent de prédire le résultat d'une loi déterministe d'évolution : l'ignorance, l'imprécision, la complexité et le hasard.

1.4.3.1               L'ignorance

Pour prédire le résultat d'une loi il faut d'abord la connaître. Il y a beaucoup de phénomènes que la science ne sait ni expliquer, ni même décrire ; exemple : le déclenchement et l'enchaînement des pensées dans le subconscient. Et malgré Internet qui, de nos jours, permet de trouver beaucoup de renseignements et de poser des questions à beaucoup de gens, une personne donnée a nécessairement des lacunes. De toute manière, la méconnaissance d'un phénomène ne nous autorise pas à l'attribuer au hasard, c'est-à-dire à affirmer que la nature fait n'importe quoi, qu'il y a évolutions où elle ne suit aucune loi, mais improvise. Nous supposerons donc ci-dessous que toute tentative de prédiction est faite dans un contexte où les lois d'évolution sont connues et stables.

1.4.3.2               L'imprécision

Le postulat de causalité et le déterminisme scientifique ne promettant pas la prédictibilité d'un résultat, ils ne promettent pas à fortiori sa précision lorsqu'on a pu le prévoir ; pourtant la précision est une préoccupation humaine. Voici des cas où la précision du résultat (calculé ou mesuré) de l'application d'une loi d'évolution peut être jugée insuffisante par l'homme.

Imprécision des paramètres et hypothèses simplificatrices d'une loi d'évolution

Une loi d'évolution a une formulation mathématique et des paramètres. Si ceux-ci sont connus avec une précision insuffisante, le résultat calculé sera lui-même entaché d'imprécision. C'est le cas notamment lorsqu'une loi d'évolution fait des hypothèses simplificatrices (exemple : [2]).

Imprécision ou non-convergence des calculs dans un délai acceptable

Si le calcul d'une formule ou d'une solution d'équation est insuffisamment précis, le résultat peut être lui-même imprécis. Il arrive aussi que l'algorithme du modèle mathématique du phénomène ne puisse fournir son résultat, par exemple parce qu'il converge trop lentement. Il peut enfin arriver que le modèle mathématique d'un processus déterministe ait un cas où le calcul de certaines évolutions est impossible, le livre en cite un concernant une propagation d'onde [1-a].

Sensibilité du modèle d'évolution aux conditions initiales

Il peut arriver qu'une variation minime, physiquement non maîtrisable, de ses données initiales, produise une variation considérable et imprévisible du résultat d'un phénomène dont la loi d'évolution a pourtant une forme précise et une évolution calculable. C'est le cas, par exemple, pour la direction dans laquelle va chuter un crayon posé verticalement sur sa pointe et qu'on vient de lâcher. C'est le cas, aussi, des « systèmes dissipatifs à évolution apériodique sur un attracteur étrange dans un espace des phases (définition : [1-c]) ayant au moins 3 dimensions » (explication : [1-b])

 

Il y a là un phénomène mathématique d'amplification d'effet : l'évolution parfaitement déterministe, précise et calculable à partir d'un ensemble d'états initiaux extrêmement proches, peut aboutir, après un certain temps, à des états finaux très différents. Ce type d'évolution est appelé « chaos déterministe ». On peut, dans ce cas-là, démontrer l'impossibilité de prévoir avec une précision suffisante l'évolution et son état final après un temps donné : il ne peut exister d'algorithme de calcul prévisionnel de cet état final qui soit peu sensible à une petite variation des données initiales. Il ne peut même pas exister d'intervalle statistique de confiance encadrant une variable de l'état final. Le déterminisme n'est pas en cause en tant que principe, mais une prédiction précise d'état final demande une précision infinie dans la connaissance et la reproductibilité de l'état initial et des paramètres d'évolution, précision physiquement inaccessible.

 

Cette impossibilité traduit un refus de la nature de satisfaire notre désir de prévoir avec précision l'évolution de certains systèmes.

Exemples. Ce phénomène se produit dans certains écoulements turbulents et dans l'évolution génétique des espèces, avec apparition de solutions regroupées autour de points particuliers de l'espace des phases [1-c] appelés attracteurs étranges [1-d]. En pratique, cette amplification d'effet réduit beaucoup l'horizon de prévisibilité.

 

Toutefois, si on connaît en plus des conditions initiales le début de l'évolution, pendant un court instant, l'imprécision sur la suite de l'évolution est souvent moindre.

Instabilité dans le temps d'une loi d'évolution

Même s'ils sont bien connus à un instant donné, certains paramètres d'une loi d'évolution peuvent être instables d'une situation à une autre, entraînant l'impossibilité de prédire une évolution trop longtemps à l'avance. C'est le cas, par exemple, pour une loi d'évolution qui bifurque (se transforme en deux autres lois) du fait d'un paramètre qui franchit ou non une valeur critique [1-z16] à cause d'un autre phénomène.

Imprécision due à la Mécanique quantique, outil mathématique de la physique quantique

En physique quantique, la précision sur l'état d'un système est limitée par la représentation par fonctions d'ondes de probabilité de la Mécanique quantique [1-z18]. Exemples :

§   La position et la vitesse d'un corpuscule en mouvement dans un champ de force électromagnétique ne peuvent être déterminées avec une incertitude meilleure que la moitié de la largeur du paquet d'ondes de probabilité [1-z14] qui l'accompagne. Quelle que soit la petitesse du temps de pose d'une photographie instantanée (théorique) du corpuscule, celui-ci apparaîtra toujours flou.

Pire, même : plus la détermination de la position est précise, plus celle de la vitesse est imprécise, et réciproquement : c'est le « principe d'incertitude de Heisenberg » [1-l].

§   Un résultat de Mécanique quantique est inséparable des conditions expérimentales. La Mécanique quantique prédit la fréquence statistique d'apparition de chaque valeur qu'on peut mesurer dans une expérience donnée, dont la reproductibilité des résultats n'est que statistique. En Mécanique quantique, le déterminisme n'est que statistique, il ne permet de prédire que des résultats distribués selon une loi statistique, pas un résultat unique précis ; il contient donc une part de hasard.

§   En Mécanique quantique, non seulement toute mesure perturbe le système mesuré, mais en l'absence de mesure ou avant la mesure la variable mesurée n'a aucune probabilité d'avoir quelque valeur que ce soit : c'est la mesure qui « crée » la valeur d'une variable, et en son absence cette valeur n'existe pas.

Il y a là une énorme différence avec la physique macroscopique, où la position d'un corps existe qu'on la mesure ou non, et où une mesure ne perturbe pas nécessairement l'objet mesuré.

§   L'évolution qu'est l'établissement ou la rupture d'une liaison chimique entre atomes, molécules, ou atome et molécule est régie par l'équation de Schrödinger [1-w] et le principe d'exclusion de Pauli [1-z6]. Cette évolution se fait vers la structure la plus stable, celle de moindre énergie potentielle, comme le veut la thermodynamique. La Mécanique quantique montre qu'il y a souvent plusieurs résultats d'évolution possibles, chacun avec sa probabilité.

Cette possibilité qu'une liaison chimique s'établisse ou se rompe avec une certaine probabilité a des conséquences importantes en biologie moléculaire, où elle peut être cause d'anomalies génétiques ou de variations d'expressions de gènes.

On a montré expérimentalement dans les années 1920 qu'en favorisant les perturbations accidentelles de l'énergie de liaison moléculaire du génome de l'orge au moyen de rayons X on provoquait de multiples mutations artificielles. On a ainsi obtenu des plantes de couleur blanche, jaune pâle ou à bandes de couleurs alternées. Depuis cette date, des mutations artificielles sont déclenchées dans de nombreux pays, pour obtenir des espèces nouvelles de plantes ayant des propriétés intéressantes. On a ainsi obtenu des espèces plus résistantes et d'autres donnant de meilleurs rendements.

§   Le refus de précision de la nature peut se manifester par des fluctuations quantiques. Exemple : en un point de l'espace vide dans un atome ou même entre galaxies, l'énergie peut brusquement varier sans cause autre que le fait que la nature refuse qu'elle soit définie avec une valeur précise et stable. Cette variation d'énergie ΔE peut être d'autant plus grande que sa durée Δt sera brève. En moyenne, toutefois, l'énergie au point de fluctuation reste constante : si la nature a "emprunté" une énergie ΔE au vide environnant, elle la restitue en totalité Δt secondes après.

Ce phénomène d'instabilité viole la règle de stabilité et ne permet pas de définir des conditions de causalité ! Il survient brusquement, de manière imprévisible, sans cause identifiable. C'est une instabilité dans le temps, traduisant l'impossibilité de définir l'énergie en un point de l'espace vide avec une incertitude sur l'énergie et un intervalle de temps tous deux arbitraires. Ce phénomène important, puisqu'il est cause de l'expansion de l'Univers peu après sa naissance, échappe donc au déterminisme [1-z20] ; il est dû au hasard, si on définit celui-ci comme René Thom. Du point de vue prédictibilité, on ne peut prévoir ni une fluctuation se produira, ni quand, ni avec quelle variation d'énergie.

Conclusion philosophique : toute variation naturelle n'est pas une évolution et n'est pas nécessairement déterministe.

Imprécision par évolutions simultanées à partir d'un même état initial - Décohérence

A l'échelle atomique, la nature permet des superpositions (combinaisons linéaires) de solutions d'équation d'état décrivant l'évolution d'un système dans le temps et l'espace.

§   C'est ainsi qu'un atome peut parcourir plusieurs trajectoires à la fois, produisant des franges d'interférence avec lui-même lorsqu'il passe à travers deux fentes parallèles distantes de milliers de diamètres atomiques.

§   C'est ainsi qu'une molécule peut être dans plusieurs états (position, énergie…) à la fois.

Exemple : la molécule d'ammoniac NH3 a une structure en forme de tétraèdre, où le sommet azote N peut être « au-dessus » ou « au-dessous » du plan des 3 atomes d'hydrogène. A un instant donné, la forme de la molécule peut être « plutôt au-dessus et un peu au-dessous » ou le contraire, du fait de l'effet tunnel (effet statistique de présence au-delà d'une barrière de potentiel sans cause physique de type force entraînant un quelconque déplacement). Les deux formes, « au-dessus » et « au-dessous » de la molécule existent alors simultanément : on dit qu'elles sont « en superposition », « cohérentes ».

Lorsque le temps passe, la molécule peut évoluer progressivement d'une forme à l'autre par effet tunnel à une certaine fréquence, dite d'inversion. Lorsqu'un dispositif macroscopique détermine cette forme à l'instant t, il la trouve dans un seul des états, devenu stable, arrêtant alors l'oscillation d'inversion : on dit alors que le dispositif a détruit la cohérence de la superposition, qu'il y a eu « décohérence ». Si on refait l'expérience un grand nombre de fois, on trouvera statistiquement 50% de molécules « au-dessus » et 50% de molécules « au-dessous ».

Lorsqu'une expérience détermine l'état de la molécule NH3, la nature choisit au hasard celui des deux états symétriques qu'elle révélera à l'homme. Notons que dans ce cas l'état révélé n'est pas quelconque, c'est un élément d'un ensemble parfaitement prédéfini de solutions appelé spectre des valeurs propres du dispositif de mesure : le hasard naturel est alors limité au choix d'une des valeurs du spectre, valeurs toutes connues avec précision avant chaque choix. Dans le cas de la molécule d'ammoniac précédente, la nature choisit entre 2 solutions symétriques de même forme géométrique.

Ce phénomène est général en physique quantique : lorsqu'une expérience mesure une grandeur qui a plusieurs valeurs superposées, il en choisit une au hasard sans que l'expérimentateur puisse prédire laquelle. Toutefois, les valeurs possibles parmi lesquelles l'expérience choisit appartiennent à un ensemble connu à l'avance : l'ensemble des valeurs propres de l'appareil de mesure ; en répétant l'expérience un grand nombre de fois, les diverses valeurs propres "sortiront" avec une probabilité (ou une densité de probabilité) connue à l'avance. (Voir postulats 3 et 4 de la Mécanique quantique [1-f].) Du point de vue déterminisme, le hasard se limite au choix d'une valeur appartenant à un ensemble prédéterminé et affectée d'une probabilité (ou une densité de probabilité) également prédéterminée. On peut appeler hasard ce déterminisme de l'échelle atomique, mais comme les résultats finaux ne sont pas quelconques puisqu'ils respectent une distribution statistique, je préfère l'appeler déterminisme statistique, une forme du déterminisme étendu.

§   Le refus de la nature de satisfaire le besoin de l'homme de distinguer deux photons à trajectoires différentes atteint un sommet avec le phénomène de non-séparabilité. Dans une expérience [1-g], deux photons qui ont la propriété d'ensemble d'avoir des polarisations en sens opposé (photons dits intriqués ou corrélés) restent un ensemble indivisible du fait de cette propriété même quand ils se sont éloignés l'un de l'autre de 144 km : on constate que les propriétés de l'un et de l'autre restent corrélées comme dans l'ensemble de départ, qui conserve son unité tout en se déformant même si on agit sur l'un des photons.

En somme, toute mesure faite au point A sur une particule peut instantanément influencer une mesure en un point B, même très distant, sur une autre particule si les deux particules ont interagi avant ; et après la mesure, l'interaction qui a corrélé les particules a disparu de manière irréversible.

Imprécision par étalement d'un paquet d'ondes

Les ondes de probabilité accompagnant le déplacement d'un corpuscule se rattrapent et se chevauchent, et le paquet d'ondes [1-z14] s'étale tout en se déplaçant. Cet étalement fait croître progressivement l'indétermination sur la position du corpuscule.

 

En somme, en physique quantique, beaucoup d'exigences humaines concernant la prédiction d'un résultat, son unicité, sa précision ou sa stabilité sont refusées par la nature.

Incertitude relativiste sur la relation de causalité entre deux événements

Il y a une propriété de l'espace-temps liée à la vitesse de la lumière, propriété qui fait réfléchir à la définition même de la causalité qui fait passer d'un événement à un autre. Dans certains cas précis, deux événements A et B peuvent être vus par certains observateurs dans l'ordre A puis B, et par d'autres observateurs dans l'ordre B puis A ! Les premiers auront connaissance de A avant B et en tireront des prédictions différentes des seconds, qui verront apparaître B avant A [1-z15].

1.4.3.3               La complexité

L'effet global d'un grand nombre de phénomènes parfaitement déterministes peut être imprévisible, même si chacun est simple et à résultat prévisible.

Exemple : considérons une petite enceinte fermée qui contient un nombre immense de molécules identiques de liquide ou de gaz. Le seul fait que ces molécules aient une température supérieure au zéro absolu fait qu'elles s'agitent sans cesse, l'énergie cinétique associée à leur vitesse provenant de la température. Cette agitation, appelée mouvement brownien [1-h], les fait rebondir les unes sur les autres et sur les parois, les lois des chocs élastiques correspondantes étant parfaitement connues et déterministes, sans intervention du hasard. Mais il est impossible de connaître la position et la vitesse à l'instant t d'une molécule donnée, car :

§   Elle a subi trop de rebonds contre d'autres molécules en mouvement et contre les parois de l'enceinte pour que les calculs soient à la portée d'un ordinateur, même très puissant ;

§   A l'échelle atomique, chaque rebond de molécule est affecté par sa forme irrégulière, la rugosité locale de la paroi, et l'imprécision sur la position d'un choc due à la largeur du paquet d'ondes [1-z14] accompagnant chaque molécule. La loi des chocs élastiques est donc difficile à appliquer, les conditions initiales de chaque choc étant entachées d'erreurs non négligeables et aucune approche statistique n'étant possible.

 

Cette impossibilité de connaître le mouvement précis d'une molécule donnée est très générale : la combinaison d'un grand nombre de phénomènes déterministes à évolution individuelle prévisible produit une évolution imprévisible, que ces phénomènes soient ou non du même type. Par combinaison il faut entendre ici :

§   soit une succession de phénomènes de même type comme les chocs élastiques d'une molécule donnée ;

§   soit la simultanéité de phénomènes déterministes différents qui agissent indépendamment ou interagissent pour produire un effet global ;

§   soit l'instabilité d'un phénomène qui change de loi d'évolution selon un paramètre critique soumis à un autre phénomène d'évolution lors d'une bifurcation [1-z16].

 

En résumé, la complexité d'un phénomène à composantes déterministes produit en général une évolution imprévisible, et encore plus imprévisible si on prend en compte les imprécisions dues à la Mécanique quantique.

Il faut pourtant se garder d'attribuer au hasard une évolution qui n'est imprévisible que parce que la complexité du phénomène d'origine rend trop difficile la prédiction de son résultat. Nous verrons ci-dessous que ce hasard caractérise un choix d'élément d'un ensemble prédéterminé, alors que l'imprévisibilité caractérise une inexistence d'algorithme à résultats utilisables.

 

L'imprévisibilité par excès de complexité, qui n'existe pas en théorie avec des lois physiques d'évolution déterministes, sévit hélas en pratique. Elle n'affecte pas la nature, qui jamais n'hésite ou ne prévoit l'avenir, mais elle empêche l'homme de prédire ce qu'elle va faire. Et l'imprévisibilité est d'autant plus grande que le nombre de phénomènes successifs ou simultanés est grand, que leur diversité est grande, que leurs interactions sont nombreuses et que l'imprécision quantique intervient.

 

Les interactions entre phénomènes ont un effet sur leur déterminisme lui-même. Une évolution dont le résultat impacte les conditions initiales d'une autre évolution joue sur la reproductibilité de cette dernière, ce qui handicape encore plus la prédiction de son résultat.

 

C'est pourquoi les phénomènes les plus complexes (ceux des êtres vivants, du psychisme de l'homme et de sa société) ont beau ne comporter au niveau biologie moléculaire que des évolutions physiques déterministes, leurs résultats sont en général si imprévisibles que l'homme a l'impression que la nature fait n'importe quoi.

La limite des modèles statistiques

L'économiste Prix Nobel Von Hayek distinguait deux types de domaines complexes.

§   Dans les domaines « à complexité non organisée », les difficultés de compréhension et de modélisation du comportement dues à la complexité peuvent être contournées grâce à des variables statistiques. C'est le cas, par exemple, en Mécanique statistique, où le comportement d'un volume de gaz comportant un nombre immense de molécules animées de mouvements browniens peut être modélisé statistiquement à l'aide de moyennes de variables comme la température absolue, la pression et l'énergie d'une molécule. Les lois d'évolution de ces variables statistiques sont déterministes. Exemple : la loi des gaz parfaits  pv=nRT.

§   Dans les domaines « à complexité organisée », les divers éléments d'un système ont, en plus de propriétés individuelles et de fréquences d'apparition, des interactions complexes et de types différents qu'on ne peut déterminer quantitativement ou modéliser statistiquement. C'est le cas, par exemple, des marchés d'une économie, où interviennent de nombreux acteurs interdépendants, et où les hypothèses économiques traditionnelles de rationalité et de concurrence pure et parfaite sont loin d'être satisfaites. Dans ce cas, on ne pourra jamais connaître exhaustivement toutes les variables décrivant les divers agents économiques et leurs interactions, et on ne pourra donc pas – même avec un ordinateur puissant – modéliser le marché et prévoir son évolution avec précision [7].

C'est pourquoi l'économie communiste de l'ex-URSS n'a jamais pu avoir une planification centralisée de la production et de la consommation qui fonctionne. L'organisme administratif de planification n'a jamais pu connaître les détails précis de ce qu'il était vraiment possible de produire et de transporter, ce qui était effectivement produit, où et à quelle date, etc. Ce qu'il a pu savoir était toujours fragmentaire et très en retard sur la réalité. Il ne pouvait tenir compte d'aléas climatiques locaux impactant l'agriculture ou les transports. Bref, il n'a jamais pu disposer d'informations suffisantes pour piloter la production, le transport et la consommation, d'où des pénuries et des gaspillages énormes.

 

En fait, la totalité des informations nécessaires pour déterminer l'évolution d'un marché à partir d'une situation donnée n'est disponible que pour le marché lui-même, pas pour un être humain ou une organisation humaine. Et comme le comportement humain est souvent imprévisible parce que soumis à des émotions irrationnelles et des anticipations, l'évolution d'un marché à partir d'une situation donnée est non déterministe. Hayek a montré qu'on ne pouvait alors établir que des lois qualitatives décrivant des relations entre variables économiques et permettant de prévoir des tendances d'évolution ; en aucun cas on ne pouvait prévoir le comportement d'un agent économique donné ou la survenance d'un événement particulier comme la date d'éclatement d'une bulle spéculative ou un effondrement boursier [7].

1.4.4          Déterminisme statistique de l'échelle macroscopique

Les résultats d'évolution de certains phénomènes déterministes ne peuvent être décrits correctement que de manière statistique portant sur toute une population de particules microscopiques, pas par des informations sur une particule individuelle. Exemples :

§   Lorsque des atomes d'un corps naturellement radioactif se décomposent, on peut prédire quel pourcentage se décomposera par unité de temps, mais pas de quels atomes précis il s'agira.

§   Le mouvement d'une molécule donnée d'un gaz qui en a des milliards de milliards dans les quelques cm3 d'une petite enceinte ne peut être prédit du fait de sa complexité. Mais le comportement de la totalité du gaz de l'enceinte, notamment sa température et sa pression, peut être prédit de manière précise par la Mécanique statistique, dans le cadre des lois de la thermodynamique [25].

 

Nous verrons aussi plus loin un cas très important de déterminisme statistique, celui de l'état des systèmes à l'échelle atomique.

1.4.5          Ensemble de définition d'une loi déterministe

Structure

Une structure est une représentation mentale d'un ensemble d'éléments qui en fait un tout cohérent. Elle a des propriétés statiques, qui décrivent les règles d'assemblage de ses éléments, et des propriétés dynamiques qui décrivent leur comportement d'ensemble.

Exemple : un atome d'hydrogène est une structure comprenant un noyau (proton) et un électron.
        Parmi les propriétés statiques de cet atome on peut citer la
structure en couches de niveaux d'énergie potentielle : on ne peut trouver un proton et son électron sous forme d'atome d'hydrogène qu'à des niveaux d'énergie précis.
        Parmi les propriétés dynamiques de cet atome on peut citer l'aptitude de deux d'entre eux à se grouper sous forme de molécule d'hydrogène en dégageant une énergie de 4.45 eV (électrons-volts, 1 eV = 1.6 10-19 joule).

 

Les propriétés (statiques ou dynamiques) d'une structure sont en général plus riches que la réunion de celles de ses éléments, dont on ne peut les déduire.

On ne peut déduire des propriétés réunies du proton et de l'électron ni la possibilité de lier deux atomes d'hydrogène en molécule, ni l'énergie dégagée. Mais toutes les propriétés de l'atome et de la molécule d'hydrogène sont décrites par la Mécanique quantique.

 

Une structure contient donc en général plus d'informations que ses éléments considérés séparément. Ce supplément d'informations décrit les interactions des éléments de la structure entre eux et les interactions de l'ensemble de la structure avec l'extérieur. Chaque définition d'interaction peut exiger une description en langage ordinaire et un énoncé d'algorithme.

Les règles fiscales nous fournissent un bon exemple de ce type de situation. Le calcul du montant d'une taxe particulière peut nécessiter plusieurs variables et un algorithme aux cas particuliers complexes.

 

On peut résumer l'existence du supplément d'informations dû aux interactions par :

« Le tout est plus riche que la somme des parties ».

Ensemble de définition d'une loi déterministe

Une loi déterministe est définie pour une situation de départ avec ses variables, dont elle décrit l'évolution. Cette situation constitue son ensemble de définition ; une situation différente évoluera autrement.

 

Considérons un ensemble E, réunion de plusieurs sous-ensembles a, b, c, etc., chacun muni de sa propre loi d'évolution. En général on ne peut pas déduire la loi d'évolution de E de celles de a, b, c, etc., parce que leur regroupement en structure E a des propriétés supplémentaires irréductibles à celles de a, b, c, etc.

Ainsi, un gène humain est une longue chaîne de bases (molécules) dont il n'existe que 4 types : A, C, G et T. Chacune de ces bases a ses propriétés, mais les propriétés d'un gène sont bien plus riches : elles sont définies par des suites de bases définissant des programmes de génération de milliers de protéines par la machinerie cellulaire. Et celle-ci prend en compte, en général, plusieurs gènes à la fois.

 

Il est impossible de déduire de l'ensemble des propriétés des 4 bases ci-dessus celles du génome humain : par sa structure en chaînes de bases celui-ci constitue un programme très riche qui régit les mécanismes cellulaires. Le fonctionnement de chacun de ces mécanismes résulte de l'ordre des bases d'une chaîne particulière, comme GAAGACT… Le déterminisme d'un tel mécanisme agit au niveau de sa chaîne entière, constituant son ensemble de définition, pas au niveau d'une base.

Une erreur de certains philosophes

Certains philosophes ont oublié l'enrichissement en propriétés d'un objet dû à sa structure : ils ont essayé de déduire directement les propriétés de l'objet de celles de ses parties, évidemment sans réussir.

 

Certains ont ainsi affirmé que le matérialisme était incapable d'expliquer les propriétés d'un être vivant à partir de celles des molécules de ses cellules, donc que la vie était « quelque chose de plus ». Raisonnement non probant : à chaque niveau d'abstraction (de structuration) lorsqu'on monte des molécules aux cellules vivantes ou aux êtres humains il apparaît des propriétés nouvelles, irréductibles à celles des niveaux inférieurs ; au dernier niveau, les propriétés dynamiques de la vie sont l'interprétation humaine de propriétés de ce niveau, ce ne sont pas des lois physiques. Cette interprétation est la manière de notre conscience de percevoir le fonctionnement de son propre cerveau.

        La démarche intellectuelle nécessaire est semblable à celle permettant de comprendre et prévoir le mouvement d'un électron dans un champ électrique à l'échelle atomique : il faut utiliser les concepts et outils de la Mécanique quantique, et en tirer une « compréhension mathématique », probabiliste ; aucun ensemble de lois de physique macroscopique ne permet cette compréhension et cette prédiction.

 

Le matérialisme n'a qu'un seul rapport avec cette démarche : il exclut les explications magiques, basées sur des concepts fumeux comme « l'esprit » ou « l'âme ». Et sa conséquence en matière d'évolution physique, le déterminisme, n'entraîne pas la prédictibilité, ne serait-ce qu'à cause des mécanismes du subconscient.

 

1.4.5.1               Le hasard dans l'évolution selon une loi de la nature

Par manque de rigueur, beaucoup de gens opposent évolution déterministe (qu'ils considèrent à tort comme prédictible) et évolution au hasard (considérée comme imprédictible). En précisant la notion de déterminisme scientifique nous avons déjà vu que le résultat d'une évolution déterministe n'était pas toujours prédictible. Nous allons à présent préciser la notion de hasard.

 

Je ne veux pas attribuer au hasard une évolution naturelle que personne ne sait décrire ou prédire : ce serait attribuer à la nature un hasard résultant de l'ignorance humaine. Pour moi, une évolution naturelle au hasard est une caractéristique objective (indépendante de l'homme) et dont l'imprédictibilité est soit démontrée, soit explicitement postulée pour des raisons scientifiques.

 

Remarque : hasard ou pas, la nature ne peut pas violer ses propres lois, par exemple de conservation de l'énergie, de la charge électrique, de la quantité d'information (probabilité totale) en Mécanique quantique, etc.

 

Nous allons maintenant étudier en détail le hasard.

1.5             Le hasard

Nous considérons comme aléatoires des suites de nombres ou de chiffres :

§   Dont chaque élément a la même probabilité d'apparaître.

Exemple : dans une longue suite de décimales successives de Pi, chacun des chiffres 0 ; 1 ; 2 ; … ; 9 apparaît à peu près le même nombre fois.

§   Dont on ne peut calculer un élément avec un algorithme (par exemple connaissant un nombre, fini ou non, d'autres éléments) ; cette propriété s'appelle « absence de régularité ».

Selon cette définition, la suite des décimales successives de Pi n'est pas aléatoire car Pi est calculable.

1.5.1          Définitions du hasard

J'observe que nous considérons comme aléatoires des suites ou des distributions de nombres qui diffèrent selon les circonstances.

§   Nous attendons d'un dé, d'une roulette de casino et d'une machine à boules de tirage de loto qu'ils produisent des nombres équiprobables.

§   Nous pensons que la distribution des résultats d'une même expérience entachés d'erreurs expérimentales répartit ces résultats selon la loi de Gauss, appelée d'ailleurs aussi loi normale. Dans d'autres cas, nous nous attendons à des distributions selon d'autres lois statistiques, comme la loi de Poisson ou la loi binomiale…

 

A moins de se contenter d'une prédictibilité statistique comme en physique quantique (le résultat appartient à un ensemble prédéterminé où il a une certaine probabilité ou densité de probabilité), un résultat d'évolution au hasard est imprédictible.

 

Compte tenu de la variété des cas où nous pensons qu'une valeur est due au hasard, il me semble qu'un consensus existe pour considérer comme aléatoire une variable dont les valeurs isolées sont imprévisibles, donc dont les suites de valeurs sont dépourvues de régularité. Si c'est bien le cas, il n'existe pas de raisonnement capable de prédire une valeur au hasard (par exemple la valeur propre d'une observable [1-z23] choisie par la nature dans une expérience de décohérence en physique quantique, qui relève d'une prédictibilité statistique) ; il n'existe pas, non plus, d'algorithme capable de générer une suite de nombres dont le caractère aléatoire soit certain : un tel caractère devra toujours être postulé. De toute manière, la conformité du modèle statistique associé arbitrairement à une distribution de valeurs devra être estimée (par calcul) en probabilité.

1.5.1.1               Définition par conformité à une loi de distribution statistique

On peut qualifier une variable d'aléatoire si la fréquence d'apparition de chacune de ses valeurs suit une loi statistique, dont on peut calculer le(s) paramètre(s) et leur intervalle de confiance à X %. On parlera, par exemple, de distribution de probabilités conforme à la loi de Poisson, parce qu'on aura testé la conformité de ce modèle avec les couples (valeur, fréquence d'apparition) disponibles. Mais même si cette conformité est vérifiée avec une forte probabilité, elle ne sera pas certaine.

1.5.1.2               Définition de René Thom

Le mathématicien René Thom a défini le hasard dans [4] comme suit :

"Est aléatoire un processus qui ne peut être simulé par aucun mécanisme, ni décrit par aucun formalisme".

 

René Thom qualifie donc d'aléatoire tout processus non modélisable par un algorithme de calcul. Selon cette définition, la suite des décimales d'un nombre irrationnel – que l'on sait générer par algorithme – n'est pas aléatoire, bien qu'elle n'ait aucune régularité ; l'irrégularité n'est donc pas un critère suffisant de hasard. En complément, voir ci-dessous la définition des nombres normaux de Borel.

 

Nous considérons comme aléatoires (constituant un hasard à résultats équiprobables) les tirages du jeu de loto générés par une machine qui agite des boules. René Thom considèrerait-il une telle machine comme un mécanisme, donc ses tirages comme non aléatoires ? Leur caractère aléatoire vient de la complexité de ses processus, où chaque boule subit de nombreux chocs, trop nombreux pour que l'on puisse prédire si elle sortira ou non ; ce caractère aléatoire résulte donc de l'imprévisibilité par complexité, sujet que nous avons abordé ci-dessus.

 

En postulant plus bas le déterminisme étendu, je restreins les processus aléatoires de la nature à des opérations de choix d'un des éléments d'un ensemble de solutions d'équation d'évolution prédéterminé, c'est-à-dire à un déterminisme statistique à ensemble prédictible de résultats possibles.

1.5.1.3               Définition par rencontre de chaînes de causalité indépendantes - Hasard par ignorance

Deux chaînes de causalité déterministes issues d'origines indépendantes peuvent se rencontrer, créant alors une situation nouvelle qui n'était prévisible dans le déroulement d'aucune des deux chaînes prise isolément.

Exemple : un jour de tempête, une tuile tombe d'un toit au moment précis où un homme passait par là, et elle le blesse. Si on considère la chaîne de causalité tempête-tuile indépendante de celle de l'homme, leur rencontre est imprévisible.

 

Une personne qui n'avait pas prévu cette rencontre peut l'attribuer de manière erronée au hasard. Mais une définition plus large du système, prenant en compte l'ensemble des deux phénomènes, élimine le hasard : toutes les conditions étaient réunies pour que la tuile blesse l'homme. L'étonnement d'un homme ou la rareté d'un phénomène ne justifient pas qu'on attribue au hasard le résultat global de processus qui respectent tous les lois déterministes de la nature (la seule loi naturelle où il se produit une évolution comprenant une part de hasard statistique est la décohérence, phénomène de Mécanique quantique relevant d'une prédictibilité statistique).

 

Cet exemple montre qu'une prévision basée sur le déterminisme doit prendre en compte tous les paramètres susceptibles d'intervenir dans l'évolution à prévoir. Refuser de prendre en compte la situation d'ensemble, c'est se complaire dans l'ignorance et accepter le risque de prédictions fausses.

 

J'ai vu beaucoup de cas où des gens attribuaient au hasard un phénomène qu'ils ne comprenaient pas ou n'avaient pas prévu, pour pouvoir d'abord se justifier en expliquant pourquoi ils n'avaient pu le comprendre, et trouver ensuite une raison de ne pas chercher une explication ; ce cas fréquent d'attribution au hasard est un « hasard par ignorance ».

1.5.1.3.1          Impossibilité d'existence de chaînes de causalité indépendantes

Si nous admettons, comme les astrophysiciens, que l'Univers est né et a commencé son expansion à partir d'une région infiniment petite, en un instant initial appelé Big Bang [1-z20], il n'y avait en cet instant-là qu'une situation unique (les atomes n'étaient pas encore formés), cause première [1-z22] de toute l'histoire ultérieure de l'Univers. Toutes les évolutions physiques ont commencé à ce moment-là. L'Univers a donc une unité d'existence et d'évolution depuis cet instant-là, et si notre pensée y distingue, à un autre moment, des sous-situations séparées, celles-ci sont pures abstractions humaines, conséquences déterministes (au sens déterminisme étendu) d'une même cause première, le Big Bang.

 

Des chaînes de causalité particulières, issues de sous-situations particulières par évolutions déterministes, ne peuvent être indépendantes puisqu'elles ont même origine. C'est notre esprit qui les considère parfois comme indépendantes, pour permettre ou simplifier certains raisonnements.

 

Voir aussi le paragraphe "Restriction du postulat de causalité".

1.5.1.3.2          Rencontre imprévisible de chaînes de causalité distinctes

En considérant arbitrairement comme distinctes deux situations S1 et S2 à des instants qui précèdent l'instant actuel t, l'évolution de chacune de ces situations peut être une chaîne de situations reliées par des évolutions. Mais il faut tenir compte de la possibilité de multiples évolutions à partir d'une situation donnée, parce qu'une décohérence peut se produire avec un résultat (élément de l'ensemble déterministe des valeurs propres du dispositif qui évolue) aléatoire : en toute rigueur, l'évolution à partir d'une situation donnée n'est pas une chaîne, mais une arborescence dont la branche parcourue lors d'une décohérence est choisie au hasard par la nature. Si nous pouvons prédire qu'il y aura une décohérence et l'ensemble de ses résultats possibles, nous ne pouvons prédire celui que nous observerons.

 

Il peut aussi se produire qu'une évolution ait un point de départ si sensible aux conditions de l'instant initial t0 que, malgré son déterminisme parfait, son résultat à l'instant ultérieur t qui nous intéresse soit imprévisible. Ce résultat peut aussi être trop imprécis à l'instant t, même si nous essayons de le calculer connaissant la manière dont l'évolution a débuté pendant sa première fraction de seconde. Nous verrons cela en parlant de chaos déterministe. Le résultat d'une évolution chaotique est imprévisible comme celui d'une décohérence, mais pour des raisons différentes : hasard du déterminisme statistique dans le cas de la décohérence, calcul et mesures imprécis dans le cas de la sensibilité aux conditions initiales.

 

L'existence de ces deux cas d'évolution imprévisible entraîne l'impossibilité de prévoir le résultat de la rencontre de deux arborescences de causalité qui contiennent au moins une évolution imprévisible. Mais il faut savoir qu'à l'échelle macroscopique on n'observe pas de décohérence parce qu'on n'observe pas de superposition quantique, et que toutes les évolutions ne sont pas chaotiques. A l'échelle humaine, donc, les seules rencontres imprévisibles de chaînes de causalité sont celles où l'une au moins a subi une évolution chaotique. Et comme ce type d'évolution ne doit rien au hasard (son imprédictibilité est due à une impossibilité de mesurer et calculer avec une précision infinie), on peut dire qu'à l'échelle macroscopique il n'y a pas de rencontre de chaînes de causalité qui soit entachée de hasard, même quand son résultat est imprévisible.

1.5.1.4               Définition par la quantité d'information

On peut aussi définir comme aléatoire un nombre dont l'écriture est plus concise (en nombre de signes, par exemple) que le texte de tout algorithme capable de le générer ; un tel nombre a donc une représentation écrite incompressible. Et en admettant qu'il est absurde d'écrire en un langage informatique un algorithme plus long que le nombre que son exécution générerait, il n'existe pas d'algorithme intéressant capable de générer un nombre aléatoire, ce qui justifie la définition de René Thom.

 

Le problème de cette définition est d'ordre pratique : étant donné un nombre et un algorithme qui le génère, comment être certain que cet algorithme est le plus concis ? C'est impossible !

 

A part le cas où il est défini par conformité à un modèle statistique, le hasard qui régit une évolution ne peut être défini que de manière négative : le caractère inexplicable qu'il implique ne peut être défini que par une impossibilité de déduction ou de caractérisation algorithmique.

1.5.2          Des nombres, suites et ensembles sont-ils aléatoires ?

On ne peut le savoir :

§   Il n'existe pas d'algorithme capable, étant donné un nombre, de déterminer si on peut ou non générer sa suite de chiffres par un programme plus concis que lui. On peut malgré tout chercher s'il est absolument normal au sens de Borel.

§   Il n'existe pas, non plus, d'algorithme capable de déterminer si une suite donnée de nombres est aléatoire. On peut en étudier le spectre de Fourier et le coefficient d'auto-corrélation [1-v], mais cela ne donnera qu'une idée d'éventuelles périodicités, pas une preuve rigoureuse d'origine aléatoire ou non.

§   Enfin, étant donné un ensemble de n-uples de nombres, on peut étudier leur éventuelle conformité à un modèle statistique, mais sans jamais avoir de certitude : un tel modèle est toujours probable (avec une probabilité calculée pour chacun de ses paramètres), jamais certain.

Nombres normaux de Borel

Pour préciser la notion de suite aléatoire de chiffres d'un nombre, c'est-à-dire l'absence de régularité, le mathématicien Emile Borel a défini la notion de nombre normal comme suit dans [8]. Un nombre est dit normal dans une base b si :

§   Chacun des b chiffres possibles apparaît, dans le développement du nombre selon cette base, avec la même fréquence 1/b ;

§   Chacun des b2 groupes de 2 chiffres successifs possibles apparaît, dans le développement du nombre selon cette base, avec la même fréquence 1/b2 ;

§   Chacun des b3 groupes de 3 chiffres successifs possibles apparaît, dans le développement du nombre selon cette base, avec la même fréquence 1/b3 ;

§   Etc.

 

Un nombre est dit absolument normal s'il est normal dans toute base b.

 

Emile Borel a démontré en 1909 que presque tous les nombres réels sont absolument normaux (« presque tous » a un sens précis en mathématiques : dans n'importe quel intervalle donné, la probabilité de trouver un réel non absolument normal est infiniment faible, alors que la probabilité de trouver un réel absolument normal est aussi proche de 1 que l'on voudra ; cela vient de ce que l'ensemble des nombres non absolument normaux de l'intervalle est de mesure nulle). Mais bien que les constatations sur de longues suites de décimales montrent que "racine de 2", p et e sont normaux en base 10, nous ne connaissons pas de démonstration de cette propriété.

1.5.3          Hasard postulé et hasard prouvé

Le déroulement ou le résultat d'une évolution régie par une loi physique de la nature ne peut être entaché que de deux sortes de hasard, le hasard postulé et le hasard prouvé. Pour préciser les conditions d'application du hasard, nous allons utiliser cette dichotomie.

Le hasard postulé

Le hasard postulé intervient lorsqu'il existe un consensus de la communauté scientifique postulant le caractère imprévisible du choix de l'élément, et où il n'existe pas de contre-exemple prouvant que ce choix peut être prédit.

 

C'est ainsi que tous les physiciens postulent un choix au hasard d'une valeur propre d'opérateur dans chaque évolution par décohérence : ils admettent alors les postulats 3 et 4 de la Mécanique quantique [1-f]. A ma connaissance, il n'y a pas en physique d'autre cas d'évolution où la communauté scientifique postule un choix au hasard de résultat.

 

L'évolution par décohérence n'existe que dans des expériences de physique quantique. C'est un cas intéressant (dit « de déterminisme statistique » ou « à prédictibilité statistique ») où le résultat, une valeur propre, fait partie d'un ensemble dont tous les éléments sont prédictibles au départ de l'expérience, chacun avec une probabilité connue. La prédictibilité du résultat est alors limitée à cet ensemble, la nature refusant de choisir un résultat unique tant que l'évolution n'a pas détruit la cohérence, comme le fait une mesure, nécessairement brutale et irréversible.

Un autre phénomène de physique quantique, l'effet tunnel, produit des comportements analogues à la décohérence en permettant le choix au hasard d'une valeur propre parmi plusieurs valeurs propres possibles, correspondant à des états d'énergie entre lesquels un corpuscule peut passer, osciller où simplement se trouver simultanément, chaque état avec sa probabilité. Dans cet exposé nous rattacherons l'effet tunnel à la décohérence parce qu'il conduit au même type de choix au hasard, au même déterminisme statistique.

 

Ne connaissant pas d'autre cas où on a postulé qu'une évolution naturelle produit un résultat au hasard, je dois supposer que c'est le seul au moins provisoirement.

Le hasard prouvé

Pour une variable donnée affectée par une évolution naturelle donnée, un résultat au hasard est considéré comme prouvé si et seulement si il existe une démonstration de l'impossibilité de trouver un algorithme de prédiction.

 

Une éventuelle démonstration ayant nécessairement été faite dans le cadre d'une axiomatique [1-z10], elle a une valeur théorique qui doit, si possible, être validée par une expérience. Et là il y a une difficulté : on ne peut pas prouver qu'une valeur est choisie au hasard, c'est-à-dire qu'il n'existe pas de raison logique de ce choix.

Si une répétition d'expériences identiques pour une variable donnée produit des résultats distribués selon une loi stable, et que la distribution ne résulte pas d'erreurs expérimentales, le caractère aléatoire peut être supposé ; on peut alors tenter de voir s'ils suivent une certaine loi statistique, avec des tests conformes à la théorie des probabilités. Mais on n'aura pas une démonstration axiomatique d'évolution au hasard, il ne s'agira pas de hasard prouvé.

 

Il n'y a pas, non plus, de critère pour prouver qu'une suite de valeurs ne présentant pas de régularité évidente est une suite aléatoire.

 

Le déterminisme scientifique est incompatible avec un hasard prouvé. Si un résultat d'évolution n'est pas reproductible et que cette évolution n'est pas une décohérence, il n'y a que deux possibilités : ou la règle de stabilité des lois de la nature est en défaut, ou il y a une erreur dans la réalisation de l'expérience ou la mesure d'un paramètre.

Cas particulier intéressant d'« erreur expérimentale » : l'évolution sensible aux conditions initiales ci-dessus, où le calcul de l'évolution est possible mais son résultat est inutilisable. Le hasard qui affecte le résultat n'est pas dû, dans ce cas, à la loi d'évolution, qui reste déterministe au sens scientifique et à résultat calculable avec une précision arbitraire. Il est dû aux erreurs expérimentales inévitables, amplifiées par le modèle mathématique de la loi d'évolution.

 

Conclusion : en postulant le déterminisme scientifique et sa règle de stabilité, une loi d'évolution autre que la décohérence en physique quantique ne peut avoir de résultat relevant d'un hasard prouvé ; et dans le cas de la décohérence, le caractère aléatoire est celui d'un déterminisme statistique.

 

A part les phénomènes de physique quantique, où la nature choisit au hasard un résultat dans un ensemble prédéterminé dont chaque élément est associé à une probabilité (phénomènes régis par le déterminisme statistique), la nature n'a pas d'évolution au hasard.

1.5.4          Le déterminisme statistique, complément du déterminisme scientifique

L'équation fondamentale de la Mécanique quantique, dite « de Schrödinger » [1-w], qui prévoit l'évolution d'un système à l'échelle atomique dans le temps et l'espace, donne des résultats multiples (voire une infinité) distribués selon une loi statistique. C'est une équation déterministe, mais ses solutions étant distribuées statistiquement, on doit parler d'un nouveau type de déterminisme, le déterminisme statistique.

 

Si dans une expérience de physique atomique nous mesurons une variable, nous pouvons trouver une ou plusieurs valeurs, la Mécanique quantique précisant leur nombre exact lorsqu'il n'y en a pas une infinité. Et si nous répétons la même expérience un très grand nombre de fois en mesurant chaque fois la même variable, nous constatons que chacun des résultats prévus par la théorie apparaît un pourcentage prévu de fois ; selon l'expérience, les divers résultats possibles sont parfois équiprobables et parfois associés à des probabilités différentes.

Prédictions de résultats du déterminisme statistique

Le déterminisme statistique complète le déterminisme scientifique à l'échelle atomique, en prédisant la distribution des résultats de mesures éventuelles et l'évolution dans le temps et l'espace des valeurs des variables d'état d'un système.

 

Selon les postulats 3 et 4 de la Mécanique quantique [1-f], la mesure d'une grandeur physique ne peut donner comme résultat qu'une des valeurs propres de son observable [1-z23].

§   Si le nombre de ces valeurs propres est fini (cas des variables discrètes), chacune est affectée d'une probabilité de "sortir" définie par le postulat 4 (spectre discret).

§   Si le nombre de ces valeurs propres est infini (variables continues), chacune est affectée d'une densité de probabilité définie par le postulat 4 (spectre continu) ; dans chaque volume dV autour d'une valeur propre, la probabilité que le résultat soit dans ce volume est le produit de la densité par dV.

Stabilité du déterminisme statistique

Comme le déterminisme scientifique qu'il complète, le déterminisme statistique respecte la règle de stabilité.

1.5.5          Différences entre déterminisme statistique, fluctuations quantiques et hasard

Evolutions régies par un déterminisme statistique

§   Lorsqu'une évolution de Mécanique quantique est régie par l'équation de Schrödinger, une variable d'état continue a un nombre infini de valeurs, chacune avec sa densité de probabilité ; une variable discrète a un nombre fini de valeurs, chacune avec sa probabilité.

§   Quand une décohérence (phénomène ne relevant pas de l'équation de Schrödinger) se termine par un choix au hasard de la valeur d'une variable, celle-ci est unique, stable et appartient à un ensemble prédictible de valeurs propres.

 

Dans ces deux cas, l'évolution est régie par un déterminisme statistique. Elle a une cause connue et elle est reproductible : une même cause (même dispositif expérimental) produit une même évolution déterministe, qui produit le même ensemble de résultats avec les mêmes probabilités ou densités de probabilités.

Fluctuation quantique

Lors d'une fluctuation quantique, il y a deux variables : le temps (l'instant) et l'énergie empruntée à un champ du vide. En outre, la fluctuation d'énergie produit une particule de matière et une particule d'antimatière qui s'attirent et s'annihilent en restituant l'énergie empruntée : l'évolution s'annule par retour à la situation initiale.

(Le seul contre-exemple connu est celui de la théorie « d'évaporation » des trous noirs [1-k], évolution réelle où l'annihilation est incertaine parce qu'une particule peut retomber dans le trou noir alors que son antiparticule s'échappe.)

 

Une fluctuation quantique n'a pas de cause autre que l'instabilité de l'énergie du vide, qui n'a de valeur définie à aucun instant, conformément au principe d'incertitude de Heisenberg [1-l]. Elle n'est pas déterministe, car elle ne relève ni du postulat de causalité ni de la règle de stabilité. Mais comme elle respecte le principe d'incertitude, ainsi que la conservation de l'énergie et de la charge électrique moyennes d'un volume d'espace et d'un intervalle de temps, ce n'est pas un cas où la nature fait n'importe quoi. Elle est imprévisible et ne peut être qualifiée de hasard que selon la définition de René Thom.

1.5.6          Hasard et niveau de détail d'une prédiction

On peut interpréter le choix statistique de la nature lors d'une décohérence comme une impossibilité de prédire la valeur choisie à un niveau plus fin que l'ensemble des valeurs propres. Ce choix lui-même constitue une évolution de type particulier, le déterminisme statistique, qui ne se manifeste qu'au niveau microscopique, en physique quantique. De même, la mesure d'une variable continue ne sera précise qu'à une demi-largeur de son paquet d'ondes [1-z14] près.

 

Une limite inférieure de niveau de prédiction intervient aussi dans la décomposition radioactive d'un échantillon d'uranium 238, où le déterminisme régit la proportion de décompositions par unité de temps, pas le choix d'un atome particulier qui se décomposera ou l'instant de sa décomposition. Il ne peut y avoir de loi qui prédit quel atome se décomposera, ou à quel moment un atome donné se décomposera. Nous pouvons parler de choix au hasard de l'atome dans l'ensemble des atomes de l'échantillon, ou de choix au hasard de l'instant de décomposition d'un atome donné dans le futur (choix vague !). Mais de telles affirmations évidentes ne nous apportent rien, en attribuant au hasard soit un refus de précision de la nature dont le déterminisme s'applique au niveau de tout l'échantillon, soit notre ignorance d'une loi de choix ; affirmer le hasard par ignorance est stérile.

 

La notion de niveau de prédiction intervient également lorsqu'on distingue le niveau atomique (où les prédictions viennent de la Mécanique quantique) et le niveau macroscopique (où elles viennent des lois de la physique macroscopique). En appliquant une loi de physique macroscopique on ne peut prévoir quel atome évoluera d'une certaine façon, et l'application de la Mécanique quantique au domaine macroscopique est en général impossible par excès de complexité. Non que les lois de ces deux niveaux se contredisent : à la frontière entre eux elles doivent permettre les mêmes prédictions, d'après le principe de correspondance [1-m]. Il faut comprendre qu'une loi a un domaine de prédiction dont on ne doit pas sortir.

 

Certaines personnes attribuent à tort au hasard le résultat imprédictible d'une évolution entre un point situé avant une bifurcation [1-z16] dans l'espace des phases [1-c] et un point après cette bifurcation. La bifurcation se produit lorsqu'un paramètre de la loi d'évolution franchit une valeur critique, franchissement qui entraîne le choix d'une nouvelle loi au point de bifurcation ; aucun hasard n'intervient dans ce choix.

 

Le fait qu'on étudie des gaz ou des liquides à l'aide des méthodes et théorèmes de la Mécanique statistique ne vient pas d'une évolution aléatoire des molécules de ces fluides, qui se déplacent selon des lois de mouvement et de choc élastique déterministes (et d'ailleurs symétriques par renversement du sens du temps) ; c'est parce qu'on ne s'intéresse qu'à des propriétés macroscopiques de ces fluides (température, pression, entropie, turbulence, etc.).

1.5.7          Premières conclusions sur le hasard et la prédictibilité

Je pense donc qu'il faut cesser de croire au hasard en tant que principe de comportement imprévisible de la nature. Ce n'est pas parce que je ne sais pas expliquer un phénomène ou prévoir son évolution que je peux invoquer le hasard. L'attribuer au hasard est aussi peu justifié que l'attribuer à Dieu, et faire du hasard un refuge pour mon ignorance ne serait pas rationnel.

 

Une variable qui suit une loi d'évolution ne peut ni échapper à son ensemble de définition, ni évoluer en violant une loi de la physique.

 

La nature limite ce que l'homme peut prévoir, mais elle n'est jamais fantaisiste : dans une situation donnée elle réagit toujours de la même façon (stabilité de l'ensemble des valeurs de chaque variable, éventuellement probabiliste) et obéit toujours à des lois de conservation (de l'énergie, du moment cinétique, etc.) ; seule exception au déterminisme de la nature, qui n'est pas une évolution : la fluctuation quantique.

1.5.8          Différences entre hasard, imprécision et indétermination en Mécanique quantique

Il n'y a pas de hasard dans la position ou la vitesse d'un corpuscule de Mécanique quantique, il y a de l'imprécision, c'est-à-dire un refus de la nature de nous accorder la possibilité de précision infinie qui satisferait notre esprit. Ce refus est dû à la nature probabiliste de l'état de chaque corpuscule. Il ne faut donc pas confondre le déterminisme statistique, avec son choix d'élément et son imprécision (flou par superposition pour une variable continue), et le hasard (où la nature ferait n'importe quoi).

En pensant à la « probabilité de position » d'un corpuscule qui se déplace, on risque de se le représenter comme un objet matériel qui a une dimension précise et des chances de se trouver ici plutôt que là, représentation inexacte. Cette dimension n'est pas précise, et il vaut mieux penser à un corpuscule de forme vague, sorte de nuage dont une infinité de réalisations sont superposées dans le paquet d'ondes [1-z14] qui accompagne son déplacement, infinité qui lui donnerait un aspect flou si on pouvait en faire une photo instantanée.

 

L'imprévisibilité associée aux fluctuations ponctuelles d'énergie n'est due au hasard que selon la définition de René Thom. C'est une instabilité (indétermination) permise par le principe d'incertitude de Heisenberg : pendant un court intervalle de temps Δt une énergie n'est pas définie à mieux que ΔE près, où ΔE.Δ ½ä (ä est une constante de l'Univers). Les fluctuations quantiques manifestent seulement un refus de stabilité de la nature, refus qui ne dure qu'un court instant et ne change pas l'énergie moyenne au point considéré. Il faut accepter ces fluctuations comme on accepte l'imprécision sur la position d'un corpuscule en mouvement, situé « partout » en même temps dans son paquet d'ondes : dans aucun cas la nature n'agit au hasard en faisant n'importe quoi, ni à l'échelle macroscopique ni à l'échelle atomique.

Une erreur fréquente

L'imprécision et l'indétermination de Heisenberg sont des propriétés naturelles et objectives d'une évolution, alors que l'imprédictibilité de son résultat est une conséquence humaine. Trop de gens parlent d'une « évolution au hasard » dans tous les cas où ils ne peuvent en prévoir le résultat, décrivant ainsi une propriété d'une transformation naturelle au moyen de son imprédictibilité par l'homme.

1.5.9          Résumé des conclusions sur le hasard dans l'évolution naturelle

La nature est parfaitement déterministe

Selon le phénomène, la nature inanimée est régie soit par déterminisme scientifique, soit par le déterminisme statistique. Répétons-le, elle ne fait jamais n'importe quoi. Cette affirmation est confirmée par le mathématicien et philosophe des sciences Husserl dans [4b] page 226 :

« Ce monde n'est pas le même pour l'homme ordinaire et pour l'homme de science ; pour le premier il est un ensemble d'une ordonnance simplement approximative, parsemé de mille hasards ; pour le second il est la nature, entièrement régie par des lois d'une rigueur absolue. »

Résumé des autres conclusions sur le déterminisme des évolutions naturelles

§   Le hasard et le déterminisme statistique affectent la prédictibilité des conséquences, pas les conséquences (lois d'évolution ou situations) elles-mêmes ; la prédictibilité est un besoin humain ignoré par la nature.

§   Le déterminisme statistique de la décohérence est un choix par la nature d'un élément dans un ensemble prédéfini de valeurs propres de l'opérateur associé à une grandeur mesurable, ensemble où chaque valeur a une probabilité prédéfinie. Ce choix ne se produit que dans un seul type d'évolution naturelle, la décohérence, phénomène de physique quantique.

Dans le déterminisme statistique des évolutions où une variable d'état (comme la position) est continue, la nature produit une infinité de valeurs en superposition.

§   Une évolution ne viole jamais une loi de la nature ; elle ne viole jamais, notamment, la thermodynamique ou la conservation de l'énergie+masse.

§   Ne pas confondre hasard (valeur choisie sans contrainte), imprécision (refus de précision) et incertitude quantique (instabilité, non-définition).

§   Il faut séparer déterminisme et prédictibilité, le premier n'entraînant pas toujours la seconde.

Il y a des lois d'évolution parfaitement déterministes (échappant à tout hasard), à résultat calculable à tout instant t postérieur à un instant initial t0, qui pourtant interdisent en pratique la prédiction de ce résultat à cause d'une sensibilité énorme, non bornée, aux conditions initiales. Dans ce cas d'imprécision on parle de chaos déterministe.

 

Voir en fin de texte la table résumant les cas d'imprédictibilité.

1.5.10       Evolutions attribuées à tort au hasard

Je me suis permis de limiter le hasard des évolutions naturelles à l'évolution particulière de physique quantique appelée décohérence parce que j'ai précisé ci-dessus des limitations de prédictibilité dues à l'ignorance, l'imprécision ou la complexité. Je considère donc comme erronées des attributions au hasard d'évolutions qu'on ne comprend pas (ignorance), dont on ne peut prédire le résultat avec autant de précision qu'on voudrait (superposition, imprécision ou sensibilité aux conditions initiales), ou dont le déroulement est trop complexe pour pouvoir être modélisé et calculé par un algorithme prédictif.

 

Le cas particulier des fluctuations quantiques, qui ne sont des évolutions que lors de l'évaporation des trous noirs [1-k], ne relèvent pas du déterminisme et ne sont régies que par l'inégalité de Heisenberg  ΔE.Δ ½ä,  permet d'attribuer celles-ci au hasard, mais seulement si on le définit comme René Thom.

1.5.10.1            Le hasard pour raisons psychologiques

J'ai maintes fois constaté qu'une personne attribue des évolutions incomprises au hasard pour des raisons purement psychologiques :

§   Le besoin humain de cohérence rend pénible la non-compréhension d'un phénomène, c'est-à-dire l'impossibilité de le relier à des faits ou phénomènes connus par des relations de causalité, certaines ou au moins probabilistes.

L'esprit humain aime mieux, alors, inventer des relations de causalité (en raisonnant par analogie ou induction, ou même en faisant confiance à son intuition) qu'admettre son ignorance ; il n'est même pas capable de s'en empêcher. Il faut à un homme un sérieux entraînement à la rigueur pour admettre son ignorance, mettre en cause son intuition et vivre l'esprit en paix sans comprendre.

§   Le besoin humain de non-culpabilité, de rejet de responsabilité : je prétends qu'un phénomène relève du hasard parce que je ne sais pas l'expliquer et qu'admettre mon ignorance me rabaisserait, aux yeux des autres comme aux miens.

1.5.10.2            Le hasard par raison de contingence – Principe d'identité

Beaucoup de gens, y compris des scientifiques, oublient le principe d'identité.

Principe d'identité : énoncé et conséquences

Le principe philosophique d'identité s'énonce : « Ce qui est, est ; ce qui n'est pas, n'est pas. » Une chose (objet, situation, événement) est (existe, a lieu ou a eu lieu) ou n'existe pas, n'a pas eu lieu. Si la chose est, elle est identique à elle-même, pas à autre chose. Le monde ne saurait être autre que ce qu'il est, c'est le seul possible. On peut toujours imaginer un monde différent, mais ce sera une imagination, c'est-à-dire une abstraction, quelque chose d'irréel.

 

A un instant donné l'Univers est ce qu'il est, avec ses lois physiques et les valeurs précises de leurs constantes. Toute considération de situation en cet instant autre que la situation actuelle est possible, mais seulement en tant que spéculation ; c'est le cas notamment pour le principe anthropique (voir définition et critique [5]) et pour une partie de la métaphysique. Enfin, toute considération à un instant du passé de situation autre que ce qu'elle fut à cet instant-là est aussi spéculative.

 

Application aux ensembles, aux descriptions et aux comparaisons :

§   Un ensemble ne peut être une partie non exhaustive de lui-même.

Un objet matériel de l'Univers - ou l'Univers tout entier - ne peut être une partie non exhaustive de lui-même.

Une description matérielle complète (texte, par exemple) d'un objet matériel ne peut pas faire partie de cet objet car elle se contiendrait elle-même ; l'Univers ne peut contenir de description complète de lui-même, une telle description se contenant elle-même.

§    « L'essence » (ou « chose en soi ») d'un être ou d'un objet constitue sa description complète, avec toutes ses propriétés. C'est une abstraction, comme toute description. Une même essence (même description) peut décrire un objet imaginaire, non encore créé, ou un objet réel, ou plusieurs objets identiques.

L'essence peut exister, en tant que description abstraite, pour un objet physique qui existe réellement ou non. Mais elle ne peut comprendre parmi ses propriétés l'existence réelle de l'objet, qui est une information séparée. Donc ce n'est pas parce que j'imagine la description détaillée et précise d'un couteau que celui-ci existe ; il existera, par exemple, si je le fabrique. Et ce n'est pas parce que quelqu'un imagine Dieu qu'Il existe, comme Kant l'a si bien remarqué.

§   Conséquences du principe d'homogénéité :

·            Il ne peut exister aucune causalité reliant une abstraction et une réalité matérielle, parce qu'ils appartiennent à des domaines disjoints ; une causalité n'est possible qu'entre deux éléments du même domaine. Une idée d'un esprit humain n'est cause d'aucune réalité matérielle et une telle réalité n'est cause d'aucune idée en l'absence d'un homme pour la penser.

·            Une idée n'est cause ou conséquence que par l'intermédiaire d'un esprit humain, ou de Dieu pour les croyants.

·            Une réalité ne peut être cause d'une idée que dans un esprit qui pense.

§   Une axiomatique [1-z10] ne peut inclure ses propres critères de jugement global, qui impliquent la comparaison avec quelque chose d'externe ; par contre, elle peut contenir des règles permettant certains jugements de cohérence ou l'établissement de relations (d'implication, d'ordre, etc.) entre deux ou plus de ses propositions. L'adéquation d'une axiomatique (système formel) à un ensemble de lois physiques qu'elle modéliserait ne peut donc se juger sans comparaison de ses résultats à quelque chose d'externe à l'axiomatique, comparaison qui implique une sémantique.

§   D'après ce qui précède, la cause première d'un phénomène ou d'un objet (création, première apparition) ne peut être qu'externe à ce phénomène ou cet objet. Un objet ne peut se créer lui-même, il doit résulter d'un phénomène extérieur ; car pour se créer lui-même, il devrait exister avant et pendant cette création, ce qui est impossible ; par contre, un objet créé peut se transformer ensuite sans intervention extérieure. En conséquence, la notion de cause première dépourvue de cause est logiquement absurde.

Si on admet Dieu en tant que cause première de l'Univers au moment où Il l'a créé, Dieu existait déjà et l'a créé sans utiliser quoi que ce soit de l'Univers, soit à partir de rien, soit en transformant une partie de Lui-même et/ou de quelque chose d'autre. Pour nous, sont inconcevables en respectant la logique :

·            Une création physique à partir de rien (sauf si on postule des apparitions) ;

·            La création de l'Univers (Univers veut dire « tout ce qui existe et a jamais existé ») à partir d'autre chose, ou d'un acteur extérieur préexistant comme Dieu.

Le hasard par raison de contingence

Oubliant le principe d'identité, beaucoup de gens considèrent qu'un événement du passé ou du présent dont l'existence est certaine aurait pu ne pas se produire ou avait une certaine probabilité de ne pas se produire. C'est là une faute de logique, une spéculation pure. On se trompe donc en croyant comme Platon que le possible précède le réel et le structure ; au contraire, c'est le réel et son déterminisme qui définissent ce qui est possible pour la nature et prévisible pour l'homme.

1.5.11       Conséquences multiples d'une situation donnée - Décohérence

Nous avons vu qu'à part l'ignorance il y a trois types de raisons qui empêchent ou limitent la prédiction des conséquences d'une évolution : l'imprécision, la complexité et le choix statistique en Mécanique quantique. L'existence de ce choix oblige d'ores et déjà à préciser le postulat de causalité : dans la phrase « si la cause existe au départ, la conséquence a lieu » il faut entendre par conséquence d'une situation la possibilité d'une multiplicité de conséquences superposées au sens des fonctions d'onde [1-z18].

 

Imprécision, complexité et choix statistique sont dus à la nature même des lois de l'Univers, qu'il n'est pas question d'ignorer - particulièrement lors d'une prédiction d'évolution.

 

Allons au fond des choses. Nous avons vu plus haut que dans certaines situations la nature réagissait de manière multiple :

§   Soit en déclenchant plusieurs lois d'évolution à la fois, dont chacune a un déroulement indépendant et un résultat unique.

C'est le cas en physique quantique lorsque la trajectoire d'un corpuscule entre un point de départ A et un point d'arrivée B peut être considérée comme une infinité de trajectoires simultanées, empruntant des chemins différents avec des vecteurs vitesse fonctions différentes du temps, mais qui se terminent tous en B en même temps.

C'est aussi le cas lorsque la trajectoire d'un corpuscule est définie à chaque instant par un paquet d'ondes [1-z14] superposées, ondes de matière décrivant des amplitudes de probabilité de présence qui s'ajoutent en amplitude et en phase. Vu à un instant donné le corpuscule paraît alors flou, comme s'il était composé d'une infinité de corpuscules superposés avec un décalage.

Mais, à son échelle macroscopique, l'homme ne voit jamais plusieurs conséquences à la fois, il ne peut voir que leur résultat, nécessairement unique ; et dans le cas d'un corpuscule accompagné d'un paquet d'ondes, ce résultat à un instant donné est une position floue et une vitesse imprécise.

§   Soit en déclenchant une seule loi d'évolution donnant des résultats multiples superposés, c'est-à-dire existant en même temps.

Cette superposition d'états simultanés n'est pérenne qu'à l'échelle atomique. L'interaction entre la superposition microscopique et l'environnement macroscopique (par exemple lors d'une mesure physique) met fin à la superposition et choisit de révéler à l'échelle macroscopique un seul des états superposés, choisi au hasard ; le passage de l'état superposé à l'état unique est appelé « décohérence » et il est irréversible. Compléments sur la décohérence : voir [1-j].

1.5.12       Il faut admettre les dualités de comportement

La Mécanique quantique, outil mathématique de la physique quantique, permet aussi d'expliquer pourquoi certains corpuscules apparaissent tantôt comme de petits objets matériels (particules), tantôt comme des ondes de probabilité capables de provoquer des phénomènes d'interférences.

 

L'explication de cette dualité repose sur le « principe de complémentarité », énoncé en 1928 par Niels Bohr. Selon ce principe, le comportement de phénomènes comme les électrons ou la lumière est tantôt corpusculaire, tantôt ondulatoire, selon l'expérience ; il y a donc une dualité onde-particule. On ne peut observer à la fois un comportement corpusculaire et un comportement ondulatoire, ces deux comportements s'excluant mutuellement et constituant des descriptions complémentaires des phénomènes auxquels ils s'appliquent [1-m].

 

De son côté, la Relativité montre que l'énergie et la matière sont deux formes complémentaires d'un même système ou d'une même région de l'espace, formes qui peuvent se transformer l'une dans l'autre selon l'équation d'Einstein e=mc2. Elle montre aussi que la gravitation peut être interprétée comme un champ de force ou comme une courbure de l'espace-temps due à la présence d'une masse.

 

La physique moderne nous oblige donc à considérer que la nature peut présenter deux aspects très différents à la fois, aspects qui se complètent lorsqu'on veut comprendre ou prédire certaines évolutions.

1.6             Chaos

Par manque de rigueur, on considère souvent un phénomène naturel chaotique comme régi par le hasard. Nous allons voir qu'en précisant les évolutions chaotiques il n'en est rien.

1.6.1          Définition

Je ne connais pas de définition précise du mot « chaos » en matière d'évolution. Les divers textes sur la dynamique des systèmes dont j'ai connaissance s'accordent pour qualifier de chaotique une évolution déterministe au sens mathématique :

§   Qui est non linéaire : l'effet d'une variation d'un paramètre n'est pas proportionnel à cette variation ;

§   Qui est si sensible aux conditions initiales qu'on ne peut en prévoir le déroulement à long terme avant son début, mais seulement un instant après, quand elle est « lancée » ;

§   Ou dont la connaissance pendant un temps aussi long qu'on veut ne permet pas de prévoir le déroulement ultérieur à long terme, ce déroulement étant apériodique (c'est-à-dire dépourvu de régularité) ;

§   Ou dont la courbe d'évolution dans l'espace des phases [1-c] :

·            N'est ni réduite à un point, comme celle d'un système qui n'évolue pas ;

·            Ni convergente vers un attracteur ponctuel [1-d], comme un système dissipatif qui perd de l'énergie (définition de « dissipatif » : [1-z8]) ;

·            Ni fermée, comme celle d'un pendule simple, système périodique conservatif (définition de « conservatif » : [1-z8]) ;

·            Ni inscrite sur un tore, comme celle des systèmes quasi périodiques [1-n] ;

·            Converge (lorsque le système est dissipatif) vers un attracteur étrange [1-b], courbe à structure fractale où toute évolution qui commence reste confinée mais ne peut être prédite avant son départ, du fait de sa sensibilité aux conditions initiales.

 

Exemple de phénomène chaotique : le "problème des 3 corps" [1-o].

Remarques sur la prédictibilité des phénomènes chaotiques – Chaos déterministe

§   La définition d'une évolution chaotique ne fait pas intervenir le hasard : on parle souvent de « chaos déterministe ». Un phénomène chaotique reste à tout moment régi par une loi déterministe à évolution calculable, même s'il peut aussi, comme tout phénomène, changer de loi d'évolution sous l'influence d'un paramètre qui change.

§   Un phénomène chaotique est apériodique, mais la réciproque n'est pas toujours vraie. Un phénomène apériodique :

·            A une évolution prévisible à long terme si on connaît toutes les fréquences d'amplitude non négligeable de sa décomposition en série de Fourier ;

·            N'a la sensibilité aux conditions initiales d'un phénomène chaotique que lorsqu'il est dissipatif, sur l'attracteur étrange vers lequel il converge.

1.6.2          Conditions d'apparition d'une évolution chaotique – Série de Fourier

Toute évolution dans le temps d'une variable peut être décomposée en série de Fourier, somme f(t) d'un nombre fini ou infini de fonctions sinusoïdales de fréquences multiples d'une fréquence de base, chacune avec son amplitude et sa phase :

 

f(t) = a0 + a1sin(wt+j1) + a2sin(2wt+j2) + a3sin(3wt+j3) +….

 

L'ensemble des fréquences composantes est appelé spectre de Fourier.

 

Exemple de représentation graphique d'un phénomène apériodique somme de fonctions périodiques [1-p].

 

Chaque évolution périodique est un comportement régulier, prévisible. Mais la composition de plusieurs fonctions périodiques de fréquence, amplitude et phase différentes peut être apériodique si les périodes des phénomènes composants sont incommensurables entre elles (c'est-à-dire si leurs rapports deux à deux sont toujours irrationnels) comme dans l'exemple du graphique [1-p]. Voici trois cas d'évolution vers un régime chaotique de systèmes dynamiques à petit nombre de degrés de liberté.

§   Un régime périodique pendant un long intervalle de temps peut se déstabiliser brusquement, devenir chaotique pendant un moment, puis redevenir périodique, avant de se déstabiliser de nouveau au bout d'un temps qui n'est pas nécessairement égal au précédent. Une telle évolution « par bouffées » a été observée dans certains cas de convection thermique et de réaction chimique évolutive.

§   Un régime périodique peut évoluer par des doublements successifs de sa période sous l'effet d'un paramètre de contrôle, jusqu'à atteindre un point d'accumulation où la période est infinie et où commence l'évolution chaotique. On rencontre ce type d'évolution en dynamique des populations.

§   Un régime périodique peut devenir quasi périodique sous l'effet d'un paramètre de contrôle. L'évolution correspond alors à 2 fréquences, puis peut-être à 3, etc. Si ces fréquences sont indépendantes et incommensurables (l'une au moins n'étant une fraction exacte d'aucune autre), le régime peut devenir chaotique.

 

Dans un système dynamique à nombre de degrés de liberté plus important, le chaos peut être à la fois temporel (comme les cas que nous avons vus jusqu'à présent) et spatial (le comportement différant d'un point du système à un autre, le système ayant des régions ordonnées et des régions désordonnées).

 

Conclusion : une évolution déterministe peut passer d'un régime stable et prévisible à un régime chaotique, imprévisible en pratique, sous l'influence de divers paramètres, sans cesser d'être déterministe (et décrite par des équations différentielles ou des équations à dérivées partielles).

1.6.3          Fluctuations faussement aléatoires d'un phénomène apériodique

Certains auteurs ont attribué à tort au hasard des effets considérables, voire catastrophiques, dus aux fluctuations d'un phénomène apériodique ou chaotique. Voici des exemples de ce qui peut arriver.

Fluctuations périodiques dont les amplitudes s'ajoutent

Un phénomène apériodique peut comporter, dans sa décomposition en série de Fourier, une composante de période très longue et d'amplitude non négligeable. Il peut alors arriver, même si c'est rare, que cette amplitude s'ajoute à d'autres amplitudes de phénomènes composants pour donner une amplitude totale considérable, susceptible de provoquer une catastrophe. Il peut aussi arriver qu'un nombre élevé de phénomènes composants ajoutent leurs amplitudes à des instants précis, même si ces instants sont rares.

 

Ainsi, des « vagues scélérates » océaniques peuvent atteindre des hauteurs de plusieurs dizaines de mètres, par empilement d'oscillations verticales d'eau qui se déplacent à des vitesses différentes et arrivent à se rattraper. Ces vagues endommagent gravement même de très gros bateaux. Elles sont rares, imprévisibles et font l'objet d'une surveillance internationale par satellite pour avertir les navires menacés.

 

Le hasard n'est pour rien dans de telles fluctuations. Tous les phénomènes périodiques composant un phénomène apériodique ont une évolution calculable, donc prévisible. L'attribution au hasard vient de l'ignorance des auteurs, ignorance due en partie à la rareté des phénomènes d'amplification catastrophique, rareté qui gêne leur étude scientifique. Encore une fois, la nature ne connaît le hasard que lors du choix d'un élément dans l'ensemble des valeurs de la solution du modèle mathématique d'évolution, valeurs toutes prédéterminées et à probabilités connues.

Amplification d'une fluctuation par franchissement de valeur critique

Une fluctuation exceptionnelle mais d'amplitude intrinsèquement modeste (comme une fluctuation moléculaire) peut entraîner une évolution d'ampleur spectaculaire lorsqu'elle fait franchir une valeur critique à un paramètre, mettant alors en jeu une énergie importante et changeant une loi d'évolution par bifurcation dans l'espace des phases [1-z16]. Exemples :

§   Un lac à l'eau très pure qui devrait être gelé est en surfusion à une température largement inférieure à zéro degré C. S'il n'y a pas de vent, sa surface est très calme. Si on y lance un caillou minuscule l'eau peut geler instantanément, avec une énergie de solidification des millions de fois plus importante que l'énergie apportée par la chute du petit caillou.

§   Un rocher de plusieurs milliers de tonnes est en équilibre instable à flanc de montagne. Le gel peut déstabiliser une petite pierre située au-dessus, et cette pierre en tombant va desceller le rocher qui va tomber à son tour, avec un échange d'énergie potentielle en énergie cinétique infiniment supérieur à celui de la petite pierre.

 

Une variable macroscopique qui fluctue du fait d'évolutions microscopiques peut donc subir :

§   Soit une évolution masquée par les incertitudes sur les autres paramètres macroscopiques.

§   Soit une évolution amplifiée par une sensibilité à des conditions initiales et/ou une bifurcation entraînant un changement de loi d'évolution ; des bifurcations en cascade peuvent alors changer un système stable en système chaotique, comme c'est le cas pour certaines formes de turbulence.

 

Dans ce cas comme dans le précédent, le hasard n'est pour rien : les conditions (énergie, instabilité) du déclenchement du phénomène spectaculaire existaient au départ, avec un paramètre à valeur critique dépendant d'un phénomène fluctuant plus modeste.

Fluctuations d'énergie dues au principe d'incertitude de Heisenberg

La Mécanique quantique montre qu'au voisinage de tout point de l'Univers l'énergie n'est pas définie et stable, mais qu'elle a une plage de variation qui dépend de la largeur de l'intervalle de temps où on l'observe : l'énergie peut varier d'autant plus que l'intervalle de temps est réduit. Bien entendu, le principe de conservation de l'énergie reste respecté en moyenne : un « emprunt » momentané d'énergie à l'espace environnant est restitué l'instant d'après. Ce phénomène a été évoqué plus haut et l'est plus en détail dans [1-q]. Nous avons vu que ce n'est une évolution aléatoire que selon la définition de René Thom.

Fluctuations de variables macroscopiques dues à des variations microscopiques

Pour présenter et analyser ce phénomène nous allons raisonner sur un exemple.

 

La complexité du mouvement brownien [1-h] de molécules de gaz dans une enceinte fermée, due au nombre de molécules (des milliards) et au nombre de chocs par seconde subis par chacune (des milliers), rend illusoire toute prédiction déterministe du mouvement d'une molécule donnée connaissant sa position et son vecteur vitesse à l'instant initial, bien que les lois des mouvements et des chocs élastiques de la molécule soient déterministes au sens traditionnel. En outre, le sort d'une molécule particulière étant de peu d'intérêt car toutes les molécules sont identiques, on a pris l'habitude de considérer des grandeurs statistiques caractérisant l'ensemble du gaz de l'enceinte : vitesse moyenne d'une molécule, température et entropie du gaz de l'enceinte, etc.

 

Bien que, pour une enceinte isolée, le 2ème principe de la thermodynamique affirme que son entropie ne peut que croître jusqu'au « désordre maximum », sa valeur instantanée fluctue constamment un peu autour de ce maximum, du fait du mouvement brownien des molécules. On peut donc se demander si cette fluctuation d'entropie (c'est-à-dire d'organisation-désorganisation) n'est pas un exemple de hasard dans la nature, comme le croît notamment Prigogine.

 

En fait, il n'en est rien. L'entropie n'existe pas dans la nature : c'est une abstraction commode pour modéliser l'état d'organisation d'un ensemble de molécules. Ses fluctuations n'existent que parce qu'on fait des calculs probabilistes sur des populations de molécules, ce ne sont pas des réalités physiques comme une variation de l'énergie totale, impossible pour un système isolé.

 

Les travaux d'Ehrenfest sur des systèmes isolés, à l'équilibre thermodynamique, constitués d'un grand nombre N de molécules indépendantes, montrent que le système s'écarte sans cesse de l'équilibre et y revient. Ces travaux modélisent l'état d'organisation du système et la diffusion de molécules par les transitions d'état d'un processus markovien, modèle théorique arbitraire qui montre (si on lui fait confiance) que l'entropie peut décroître en dessous de son maximum selon une loi de probabilité binomiale en 2‑N.

 

Mais les calculs numériques et l'expérimentation ont montré que le temps nécessaire pour qu'une décroissance non négligeable de l'entropie se produise (c'est-à-dire pour que le système s'organise davantage) sont supérieurs à l'âge de l'Univers. Considérons, par exemple, le cas - très favorable à la décroissance d'entropie - d'un système constitué de N=100 molécules seulement subissant 1 million de transitions par seconde (10 000 en moyenne par molécule). Pour passer d'un état d'équilibre, où les N molécules sont réparties aléatoirement dans une enceinte, à un état plus organisé où elles sont toutes dans une moitié prédéfinie de l'enceinte, il faut alors environ 1015 ans, soit environ 70 000 fois l'âge de l'Univers. Les expériences ont confirmé qu'un système macroscopique isolé ne voit jamais son entropie décroître de manière mesurable : il ne s'organise pas davantage tout seul.

 

L'irréversibilité d'une évolution macroscopique d'un fluide (prévue par la thermodynamique et qui semble contredire l'évolution réversible prévue molécule par molécule) s'explique théoriquement par le fait que la probabilité pour que toutes ses molécules reviennent à leur position de départ après un certain temps est fantastiquement faible. (En fait, cette explication probabiliste n'est pas certaine : comme toute explication probabiliste, elle est postulée. Heureusement, l'irréversibilité macroscopique n'a jamais été démentie expérimentalement, personne n'ayant jamais constaté un événement aussi improbable qu'une tasse de café où on a fait fondre du sucre et qui se sépare spontanément en café sans sucre et sucre hors de la tasse !)

 

Conclusions :

§   Il n'y a pas de hasard dans un phénomène macroscopique résultant de phénomènes déterministes à l'échelle atomique. Le hasard auquel croient certains est un hasard par ignorance due à l'impossibilité de mesurer et calculer les évolutions élémentaires.

§   Les fluctuations ponctuelles d'une variable statistique comme l'entropie, regroupant des milliards de réalisations d'une variable à l'échelle moléculaire, ont une amplitude dont la probabilité varie exponentiellement en raison inverse du nombre de ces dernières. Elle décroît donc si vite qu'aucune mesure ne peut en détecter un effet à une échelle accessible aux expériences.

Amplification génétique et évolution du vivant vers la complexité

Nous venons de voir que des fluctuations d'entropie d'origine microscopique ne peuvent avoir d'effet macroscopique. Mais ce que ces fluctuations ne peuvent faire en physique est possible dans un être vivant, en deux étapes d'amplification :

§   Des accidents de réplication du génome [1-r] sont inévitables du fait des solutions multiples de la Mécanique quantique, chacune associée à une probabilité d'apparition. C'est ainsi que des liaisons chimiques peuvent s'établir ou non, modifiant ainsi un gène de 3 milliards de bases ou son expression : il suffit parfois qu'un minuscule radical CH3 de 4 atomes soit lié ou non pour faire une différence [1-s].

Un tel accident de réplication peut ne pas avoir d'effet ; il peut aussi produire un être non viable, ou souffrant d'une infériorité par rapport à d'autres espèces qui le fera éliminer par la sélection naturelle. Mais il produit parfois un être parfaitement adapté, qui pourra avoir une descendance.

§   Du point de vue thermodynamique, la complexification (organisation de plus en plus poussée) est possible pour des êtres vivants, car ceux-ci sont des systèmes dissipatifs loin de l'équilibre et le 2ème principe ne s'applique pas [1-t].

1.6.4          Domaines où on connaît des évolutions chaotiques

Les évolutions chaotiques d'un système peuvent intervenir dans de nombreux domaines. Exemples :

§   En physiologie, le fonctionnement synchrone des cellules musculaires du cœur peut se désynchroniser, provoquent une arythmie accompagnée d'une tachycardie que l'on soigne par défibrillation et avec des médicaments comme le Cordarone ou le Sotalex.

§   En dynamique des populations animales, la densité d'une population dépend de facteurs internes comme la résistance aux agressions de l'environnement, la fécondité ou les habitudes de vie, et de facteurs externes comme les ressources alimentaires, les prédateurs, etc. Les interactions de tous ces facteurs sont complexes et mal connues. Des modèles mathématiques simplifiés montrent qu'une densité de population peut être stable, ou varier de manière périodique ou même chaotique (exemple : [1-u]).

§   Les propriétés optiques d'un milieu sont affectées par des variations de sa température, de sa densité ou de sa concentration en particules opaques. De telles variations affectent la vitesse de propagation de la lumière dans le milieu, donc son indice de réfraction, et déclenchent des phénomènes d'absorption ou de diffusion à certaines longueurs d'onde. Si ces variations sont chaotiques, les images vues à travers le milieu (par exemple en astronomie) peuvent être fortement perturbées ; c'est ainsi que les mouvements atmosphériques, l'humidité et la pollution brouillent la vision des télescopes.

§   La turbulence d'un fluide accroît souvent ses échanges de chaleur ou ses réactions chimiques avec les parois. Nous avons plus froid, par exemple, dans un vent en rafales que dans un air calme à la même température. Les poils sur la peau de certains animaux diminuent les échanges de température et d'humidité en diminuant la turbulence des mouvements d'air. La peau des requins a des écailles dont la taille, la forme et la rugosité diminuent fortement les frottements lorsqu'il nage, augmentant ainsi considérablement l'efficacité de ses efforts.

1.7             Turbulence

Un phénomène physique turbulent :

§   A un comportement de chaos déterministe, donc ne devant rien au hasard. Il apparaît dans la plupart des systèmes non linéaires par franchissement de bifurcations [1-z16] successives dans l'espace des phases.

§   Est irrégulier à petite échelle (au sens dimension ou durée), mais plus régulier à grande échelle, les comportements aux diverses échelles étant interdépendants. Cette différence de comportement entre échelles caractérise la non-linéarité.

§   N'a ni régularité, ni mémoire des états passés, ce qui en rend l'évolution imprédictible malgré le caractère déterministe des équations différentielles de son modèle mathématique (qui sont parfois des équations aux dérivées partielles non linéaires). En pratique, l'intégration même numérique de ces équations différentielles peut être si difficile qu'on recourt à des approximations statistiques ou à une étude purement expérimentale.

 

L'évolution d'un système devient turbulente du fait de valeurs de certains paramètres qui franchissent un seuil critique ; la loi d'évolution bifurque alors dans l'espace des phases. Le diagramme des phases d'un fluide turbulent présente des bifurcations successives correspondant à des valeurs critiques des paramètres de bifurcation [1-z16]. L'étude générale des bifurcations relève de la théorie des bifurcations. Les conditions d'établissement, de maintien et de disparition des états entre deux bifurcations successives relève de la théorie de la stabilité. Ces deux théories sont déterministes, dénuées de hasard.

 

Les facteurs qui facilitent l'établissement d'un écoulement turbulent d'un fluide sont un nombre de Reynolds grand [1-z17], un nombre élevé de degrés de liberté et la non-linéarité du système d'équations différentielles de son modèle.

(Animations montrant de la turbulence : voir [3].)

 

1.8             Le déterminisme étendu

Le déterminisme philosophique promettait de prédire toutes les évolutions, avec leurs résultats, à un horizon arbitrairement lointain ; il promettait aussi la reconstitution en pensée du passé. Mais ces promesses étaient utopiques...

 

Le déterminisme scientifique a permis plus de conformité aux lois de la nature en réduisant les promesses de prédiction à celles du postulat de causalité et en ne promettant plus de reconstituer le passé.

 

Le déterminisme statistique a permis de réduire le hasard des évolutions de physique quantique au choix d'un élément d'un ensemble prévisible où il a une probabilité d'apparition calculable.

 

Nous avons besoin d'un principe de déterminisme adapté à toutes les évolutions de la nature, connues ou à découvrir. Un tel principe doit aussi être compatible avec le déterminisme scientifique et le déterminisme statistique, dont on ne peut nier la valeur. Nous allons en construire un par induction à partir de propriétés de l'Univers, et nous l'appellerons « déterminisme étendu ».

1.8.1          Propriétés des lois de l'Univers

La nature que les lois physiques décrivent est uniforme. Cette uniformité de l'Univers a des conséquences fondamentales, comme la conservation de la quantité de mouvement, du moment cinétique, de l'énergie et de la charge électrique. Voici des caractéristiques de cette uniformité.

§   L'espace est homogène et isotrope : il a les mêmes propriétés en tout point et dans toutes les directions. (détails et justification : [1-x])

§   Les lois physiques sont stables (invariantes) dans le temps et l'espace. [1-y]
C'est l'origine de la règle de stabilité associée au postulat de causalité du déterminisme.

§   Les lois physiques de l'Univers sont cohérentes (non contradictoires) ; elles se complètent sans jamais se contredire. Elles respectent les trois principes fondamentaux de la logique, formulés par induction à partir d'observations de la nature : principe de non-contradiction, principe du tiers exclu et principe d'identité. Nous savons, en plus, que certaines lois de la nature s'appliquent à un certain niveau de détail sans jamais contredire une loi d'un autre niveau.

Nous savons, en plus, que certaines lois de la nature s'appliquent à un certain niveau de détail sans jamais contredire une loi d'un autre niveau. Exemples :

·            Les lois de la thermodynamique, par exemple, s'appliquent à un niveau macroscopique sans contredire les lois mécaniques des mouvements et chocs des molécules du niveau microscopique.

·            Le Principe de moindre action de Maupertuis [1-z13] constitue une loi globale de mouvement qui ne contredit pas les lois locales de Newton.

§   La nature est complète : elle a toutes les lois qu'il faut pour réagir à toutes les situations et expliquer tous les phénomènes ; c'est le postulat de détermination complète de Kant.

 

L'existence et la stabilité des lois de l'Univers nous suggèrent le postulat de causalité qu'on peut résumer sous la forme :

Tout ce qui existe et tout ce qui se produit dans l'Univers a une cause et obéit à des lois.

§   D'une part, l'existence d'un état initial donné et l'action d'une loi donnée étant toujours suivies d'un état final qui ne dépend que de l'état initial et de la loi (ce qui constitue une condition suffisante) ;

§   d'autre part, puisqu'on n'observe jamais un état final donné qui, ayant été précédé de l'état initial observé, n'a pas subi l'action de la loi d'évolution postulée (qui est donc nécessaire à la transition entre ces deux états),

 

on peut postuler par induction que cette évolution est régie par un principe général, le principe de causalité, qu'on peut aussi résumer sous la forme :

Une situation observée résulte nécessairement d'une évolution ou création, elle-même conséquence d'une situation précédente.

 

Ce postulat est légitime dans la mesure où il est vérifié par d'innombrables expériences et n'est contredit par aucune (voir la construction empirique d'une axiomatique [1-z]). D'après la définition de la vérité scientifique du rationalisme critique [1-z1] ce postulat peut être considéré comme une loi de causalité jusqu'à preuve du contraire.

Phénomènes ou situations inexpliqués

Le fait que certains phénomènes ou situations soient inexpliqués ne contredit pas nécessairement le déterminisme, il nous incite à faire des efforts de recherche pour les comprendre ; il nous incite aussi à rester vigilants pour le cas où la découverte d'un fait inexplicable dans le cadre d'une loi de calcul ou d'évolution censée l'expliquer, ou qui la contredit, nous oblige à modifier ou remplacer cette loi. On peut aussi envisager d'attribuer un phénomène inexpliqué ou une situation inexpliquée à l'application d'une restriction du postulat de causalité.

Fluctuations quantiques

Ce phénomène naturel (déjà décrit) ne respecte pas le postulat de causalité ! Il survient brusquement, de manière imprévisible, sans cause identifiable. C'est une instabilité dans le temps, traduisant l'impossibilité de définir l'énergie en un point de l'espace vide avec à la fois une incertitude et un intervalle de temps arbitrairement petits. Ce phénomène important, puisqu'il est cause de la naissance des galaxies peu après le Big Bang, échappe donc au déterminisme ; il est dû au hasard, si on définit celui-ci comme René Thom. Du point de vue prédictibilité, on ne peut prévoir ni une fluctuation se produira, ni quand, ni avec quelle variation d'énergie. Et à part le cas de l'évaporation des trous noirs, ce n'est pas une évolution car chaque fluctuation s'annule d'elle-même rapidement.

1.8.2          Définition constructive du déterminisme étendu

Dans la suite de ce texte nous allons donc postuler l'uniformité, la stabilité, la cohérence et la complétude des lois physiques de l'Univers, et nous définirons le déterminisme étendu comme suit :

Le déterminisme étendu est le principe qui régit l'évolution d'une cause à ses conséquences sous l'action de toute loi naturelle.

 

Cet énoncé du principe de déterminisme étendu doit être compatible avec la définition du déterminisme scientifique donnée précédemment (condition nécessaire et suffisante et règle de stabilité) et avec celle du déterminisme statistique, bien que subsistent les obstacles à la prédiction cités. Le déterminisme statistique (introduit précédemment) complète le déterminisme scientifique pour constituer le déterminisme étendu.

Définition constructive du déterminisme étendu

D'habitude, une définition décrit la signification d'un mot. Ne pouvant me contenter d'une telle définition descriptive pour le déterminisme étendu, j'utilise ci-dessous une définition constructive permettant une extension infinie de cette notion déduite de propriétés des lois de l'Univers.

Construction

Le déterminisme étendu, comprenant le déterminisme scientifique et le déterminisme statistique définis ci-dessus, peut à ma connaissance régir toutes les lois de la physique, pour faire toutes les prédictions d'évolution possibles compte tenu des obstacles cités.

 

Si toutefois on trouve une loi d'évolution de la nature, respectant la règle de stabilité, qui échappe à la fois au déterminisme scientifique et au déterminisme statistique, on incorporera ses règles au déterminisme étendu comme suit.

§   Nous prenons toutes les lois d'évolution de l'Univers, une par une, dans un ordre quelconque.

§   Considérons une de ces lois. Si sa règle d'évolution fait déjà partie du déterminisme étendu, nous l'ignorons et passons à la suivante ; sinon nous incorporons cette règle d'évolution à la définition du déterminisme étendu.

§   Chaque fois que nous incorporons la règle d'évolution d'une loi supplémentaire, nous vérifions sa cohérence avec les règles déjà incorporées, de manière à rester conforme à la nature, dont aucune règle d'évolution n'en contredit une autre. En principe, cette vérification est inutile si les énoncés des lois respectent bien la règle de cohérence des lois de l'Univers.

 

La définition du déterminisme étendu sera ainsi complétée progressivement, au fur et à mesure des découvertes scientifiques… si nécessaire.

1.8.2.1               Validité de cette approche

Le déterminisme étendu défini comme ci-dessus constitue une axiomatique [1-z10] dont les axiomes (règles de faits) sont les conditions initiales des diverses lois d'évolution et les règles de déduction (d'inférence) sont les règles d'évolution correspondantes, selon la sémantique suivante : si une situation répond à telle(s) condition(s), alors elle évolue selon telle règle - une règle correspondant à une seule loi d'évolution sauf en physique quantique où plusieurs lois peuvent être déclenchées simultanément.

 

La validité théorique de cette approche a été étudiée et justifiée par les logiciens qui ont montré comment on peut compléter une axiomatique au fur et à mesure qu'apparaissent des vérités ou des règles de déduction qu'on ne peut déduire des axiomes existants, mais que la sémantique du sujet impose de prendre en compte. Ce point est abordé dans [1-z2].

 

La validité pratique de cette approche résulte de son respect de la méthode scientifique, qui ajoute des lois nouvelles aux lois existantes ou les remplace, au fur et à mesure du progrès des connaissances. Concernant le déterminisme étendu, on ajoute de nouvelles règles d'évolution des causes aux conséquences au fur et à mesure que de nouvelles lois l'exigent, en excluant les redondances et les contradictions.

 

Par construction, le déterminisme étendu n'exclut ni les distributions statistiques de valeurs, ni l'imprécision, ni l'indétermination de la Mécanique quantique.

 

Enfin, la définition constructive du déterminisme étendu n'en fait pas un système interprétatif [1-z3].

1.8.3          Universalité du déterminisme étendu

L'universalité du déterminisme étendu résulte de sa définition constructive, qui prend bien en compte toutes les lois de l'Univers, toutes celles qui sont connues à un instant donné et toutes celles que l'on découvrira, au fur et à mesure de leur découverte.

1.9             Restriction du postulat de causalité

1.9.1          Limites de la règle de stabilité du déterminisme

La règle de stabilité des lois du déterminisme scientifique, reprise dans le déterminisme statistique et le déterminisme étendu, n'a pas besoin d'être absolue. Son respect n'est nécessaire que pour assurer la cohérence des évolutions dans le temps et l'espace, ce qui exige :

§   que l'évolution d'une situation S ne dépende que des valeurs initiales de ses variables, pas de l'instant ou de la position de départ (qu'elle soit la même pour deux situations S et S' déduites l'une de l'autre par un déplacement dans le temps ou l'espace) ;

§   qu'une évolution commencée se poursuive avec la même loi pendant toute sa durée et dans tout l'espace concerné.

Considérations relativistes

J'explique, en décrivant les propriétés relativistes de l'espace-temps dans l'annexe [1-z4] du livre [1], qu'un événement A ne peut être cause d'un événement B que si, dans le diagramme d'espace-temps, B est dans le cône de lumière de A, c'est-à-dire si la lumière partant du lieu de l'événement A et se propageant à sa vitesse habituelle (c = 299 792 458 m/s dans le vide) a le temps d'arriver au lieu de l'événement B avant la survenance de ce dernier.

 

Si B est hors du cône de lumière de A il ne peut avoir été causé ou influencé par A, et des lois physiques différentes pourraient s'appliquer aux lieux et instants de A et B sans conséquence sur la cohérence de l'Univers pour des observateurs en A et B. Par contre un autre observateur, C, capable de voir les deux événements A et B (donc situé dans leurs deux cônes de lumière) pourrait s'apercevoir d'une éventuelle différence entre les lois de la nature s'appliquant en A et en B si cette différence n'était pas négligeable.

 

Donc, vue de notre Terre à notre époque, une éventuelle variation d'une loi de l'Univers peut être visible ou invisible, selon son emplacement et sa date dans l'espace-temps de l'Univers.

 

L'expansion de l'Univers visible se produit à la vitesse de la lumière, c [9]. Elle n'affecte que l'espace entre amas de galaxies : la gravitation qui domine dans ces amas en empêche l'expansion. Un événement actuel situé à plus de 13.8 milliards d'années-lumière de notre galaxie nous restera donc à jamais inconnu, sa lumière ne pouvant nous atteindre parce que moins rapide que l'expansion. Une éventuelle différence de loi physique entre le lieu et l'époque de cet événement et notre Terre à notre époque serait sans conséquence pour nous et indétectable.

La règle de stabilité n'a pas besoin d'être absolue

Une éventuelle différence entre lois de la nature peut rester invisible pour nous et notre déterminisme, soit pour des raisons relativistes, soit tout simplement si ses effets sont négligeables aux échelles (de temps, de longueur, d'énergie, etc.) où nous pouvons en être impactés. La règle de stabilité n'a donc pas besoin d'être absolue.

1.9.2          Stabilité des lois d'évolution et situations nouvelles

Apparition d'une loi d'évolution

La règle de stabilité du déterminisme scientifique implique ceci : à l'apparition d'une situation donnée S, une certaine loi physique d'évolution L est appliquée automatiquement par la nature ; et si la même situation S réapparaît à un autre moment et/ou dans un autre lieu, c'est la même loi d'évolution L qui sera appliquée.

 

Mais nous n'avons nullement postulé que la loi L doit exister avant la première survenance de la situation S. Si elle existait avant, cette loi serait, au moins provisoirement, sans objet ; un spiritualiste comme Platon pourrait en envisager l'existence, un matérialiste non. Pour l'homme, une loi physique est une abstraction destinée à décrire un phénomène ou son évolution, ou à calculer un résultat. Si l'homme imagine une loi s'appliquant à des situations qui ne se sont jamais produites et ne sont pas des conséquences futures certaines de situations existantes ou passées, comme il peut toujours le faire, cette loi restera pure spéculation jusqu'à ce que ses conditions d'application soient réunies, ce qui arrivera ou non. Donc :

§   Nous limiterons la période d'application de la règle de stabilité d'une loi d'évolution au temps qui suit l'apparition de la première situation où elle s'applique.

§   Une loi d'évolution d'une situation qui ne s'est jamais produite, et dont la survenance n'est pas certaine, est pure spéculation car elle est sans objet ; et son énoncé est infalsifiable.

1.9.3          Restriction du postulat de causalité

En affirmant qu'en l'absence de cause la conséquence n'a pas lieu, notre postulat de causalité exclut la possibilité de situations « vraiment nouvelles », sans cause physique existante ou ayant existé dans notre Univers : toute situation a une chaîne de causalité remontant jusqu'à la naissance de l'Univers ; c'est une conséquence déterministe de cette situation initiale.

        Il ne peut exister de chaîne de causalité indépendante, car si elle avait commencé après le Big Bang son début aurait résulté d'un enchaînement de situations existant avant elle, ce qui est contradictoire ; et si elle avait commencé avant, elle aurait été prise en compte lors de la naissance de l'Univers, événement ponctuel dans l'espace et le temps. Du reste, imaginer un avant le Big Bang est pure spéculation, nos connaissances de physique ne remontent pas si loin.

 

Or la contrainte « pas de situation vraiment nouvelle » n'est en rien nécessaire à la stabilité des lois d'évolution dans le temps et l'espace. Celle-ci exige seulement qu'une fois apparue lors de son application à une situation S, une loi s'applique à l'identique à toute situation S' déduite de S par une translation dans le temps et/ou l'espace. S'imposer qu'il n'y ait jamais de situation nouvelle dans l'Univers est un apriori inutile du moment que :

§   la structure de cette situation (ses composantes et leurs relations) ne contredit pas de loi de structure existante ;

§   son évolution postérieure ne contredit pas de loi d'évolution existante.

 

Bref, notre principe de causalité est fait pour prévoir l'avenir à partir du passé. Il n'exige nullement que la chaîne de causalité remonte à l'infini dans le passé, tant pis pour les philosophes qui ne s'en sont pas aperçu et se sont crus obligés de postuler une « cause première », une « cause sans cause » comme Dieu.

        Rien n'interdit que l'Univers ait toujours existé, si toutes ses lois d'évolution sont stables après leur première application. Rien n'oblige une loi d'évolution physique d'avoir existé avant la première fois où il existe une situation à laquelle elle doit s'appliquer ; la physique n'a pas besoin des Idées éternelles de Platon.

 

Nous allons donc, dans le reste de cette section, conjecturer que des situations vraiment nouvelles peuvent apparaître dans l'Univers, pour voir si cela permet une explication plausible de situations constatées sans en contredire d'autres ; nous appellerons apparitions de telles situations. Une apparition est nécessairement accompagnée de sa loi d'évolution, qui peut être nouvelle sans contredire de loi préexistante puisqu'elle s'applique à une situation nouvelle.

 

Affirmer qu'une situation est une apparition parce que nous n'en connaissons aucune cause et qu'elle n'a pas d'équivalent peut, évidemment, résulter d'une ignorance de notre part, et se trouver démenti ultérieurement ; l'existence d'apparitions n'est donc qu'une conjecture, conséquence d'une restriction du postulat de causalité.

 

Voici quelques cas que l'on peut considérer comme des apparitions.

1.9.4          Exemples d'apparitions

La naissance de l'Univers

Rien ne prouve qu'elle résulte d'une situation préexistante dans un Univers extérieur préexistant, par application de lois préexistantes. On peut conjecturer que les lois d'évolution de l'Univers sont nées avec lui, car leur existence antérieure est pure spéculation indémontrable et leur existence ultérieure une certitude.

 

Nous savons [1-z20] que, au commencement de l'Univers, des lois fondamentales de notre Univers actuel ne s'appliquaient pas, notamment parce que des concepts de base comme le temps et l'espace étaient d'une autre nature qu'aujourd'hui (discontinue, quantifiée…) ; mais nous ne savons pas (ou pas encore) quelles lois s'appliquaient. Ce commencement peut donc être considéré comme une apparition, la première.

L'inflation

La courte période dite d'inflation [1-z20], peu après le commencement de l'Univers, a vu une expansion de l'Univers fantastiquement rapide, dilatation de l'espace des milliards de fois plus rapide que la vitesse de la lumière et accompagnée de création de matière.

 

Nous ne connaissons pas la cause précise de l'inflation. Nous pouvons seulement conjecturer qu'elle est due à une fluctuation quantique. Cette énergie a pu apparaître sans cause, pendant un temps très bref, par transformation d'énergie potentielle du milieu environnant. L'inflation s'est terminée par la situation que nous appelons Big Bang, elle-même suivie d'une expansion de l'Univers à un rythme beaucoup plus lent et sans création de matière, expansion qui se poursuit de nos jours.

Les fluctuations quantiques

Ce phénomène, que nous avons évoqué plus haut, est une variation d'énergie sans cause autre que l'affirmation que « l'énergie du vide est instable », ce qui n'explique rien. Ce n'est pas une véritable évolution, car « l'emprunt » d'énergie ΔE (matérialisé par l'apparition d'une une paire particule+antiparticule) est restitué au plus tard Δt secondes après par fusion d'une particule et d'une antiparticule, en respectant la contrainte ΔE.Δ ½ä conformément au principe d'incertitude de Heisenberg [1-l]. C'est donc une apparition.

1.9.5          Conséquences philosophiques

Restreindre la contrainte de stabilité en admettant la possibilité d'apparitions a d'importances conséquences philosophiques. Exemples :

§   Certaines chaînes de causalité peuvent apparaître après la naissance de l'Univers. L'opposition entre matérialisme (qui refuse les phénomènes sans cause interne à l'Univers) et spiritualisme (qui croit possibles des phénomènes dont la cause est externe à l'Univers, comme la volonté d'un Créateur) n'est plus aussi totale.

§   Des situations et des phénomènes peuvent rester éternellement inexpliqués, parce que ce sont des apparitions.

§   L'ensemble des lois d'évolution de l'Univers peut s'enrichir progressivement. Certaines situations ou évolutions considérées comme impossibles avec les lois physiques actuelles peuvent ne plus l'être éternellement.

§   Des lois de conservation comme la conservation de l'énergie peuvent être violées à l'occasion d'une apparition.

1.10          Déterminisme étendu : un principe et un objectif

L'expression « déterminisme étendu » désigne un principe régissant les lois d'évolution de la nature. L'homme l'applique pour prévoir le futur. Nous savons que le caractère déterministe n'entraîne pas toujours la prédictibilité ; c'est ainsi que l'action d'un grand nombre de processus déterministes simultanés ne change pas leur nature globale déterministe, mais rend inaccessible par excès de complexité la prédiction du futur.

 

Le déterminisme étendu constitue un pont entre science et philosophie destiné à mieux comprendre ce qui est et mieux anticiper ce qui sera.

1.10.1       Apports du déterminisme étendu aux prédictions d'évolution physique

Que mes lecteurs soient ou non d'accord avec mes définitions du déterminisme scientifique, du déterminisme étendu, du hasard et du chaos n'est pas essentiel. Seule compte la connaissance des limites de la prédiction des évolutions physiques, avec ce qu'elle implique de culture scientifique.

 

Voici un résumé d'affirmations concernant la causalité et le déterminisme étendu des lois de la nature (détails : [1-z5]).

§   Une cause est une situation à un instant donné, avec tous ses paramètres.

Cette définition n'est pas triviale. Considérons une situation de Mécanique quantique avec superposition d'états qui évolue par décohérence pour devenir un état unique. On pourrait penser qu'il s'agit d'un cas où plusieurs causes (les états superposés) ont évolué vers une conséquence unique, ce qui constituerait une causalité différente de celle où une cause unique évolue vers un ensemble de conséquences. En fait, la superposition d'états constitue bien une situation à considérer dans son ensemble, donc une cause unique.

§   La conséquence d'une cause est tirée, automatiquement et immédiatement, par la nature sous forme d'un ensemble d'évolutions simultanées de certaines variables (si aucune n'était affectée, il n'y aurait pas d'évolution).

·            Cet ensemble d'évolutions peut ne comprendre qu'une évolution unique ou plusieurs évolutions simultanées en superposition. Cette superposition prend fin par une décohérence, au bout d'un temps en général court, et d'autant plus court que le système considéré interagit fortement avec son environnement et que les états superposés sont différents, rendant ainsi la superposition instable.

·            La décohérence est le seul cas d'évolution dans la nature où le hasard intervient (par déterminisme statistique), si l'on considère les fluctuations quantiques comme étant des phénomènes sans cause préalable qui ne sont pas des évolutions, parce qu'ils reviennent toujours à l'état initial sauf dans le cas des trous noirs qui s'évaporent.

·            Une particule peut parcourir une infinité de trajectoires à la fois, solutions de l'équation de Schrödinger [1-w], autour d'une trajectoire la plus probable calculée en pondérant chacune des trajectoires individuelles avec sa probabilité.

Cas particulier intéressant : un ensemble de particules décrites par un état quantique [1-z18] global, comme une paire de photons corrélés (on dit aussi "intriqués"), conservent certaines propriétés de cet état global même lorsque les particules s'éloignent les unes des autres. Si un événement affecte alors l'une des particules (exemple : l'absorption d'un photon de l'ensemble intriqué) ses conséquences sont propagées instantanément à toutes les autres particules « à une vitesse infinie » : on dit qu'il y a non-séparabilité.

§   Dans la nature, l'instabilité peut constituer une cause d'évolution.

·            L'instabilité peut résulter d'une énergie cinétique traduisant la température, source de l'agitation incessante appelée mouvement brownien.

·            L'instabilité peut se manifester par des fluctuations énergétiques ; il s'agit alors d'une indétermination régie par le principe d'incertitude.

·            L'instabilité des systèmes non linéaires (par exemple les systèmes dissipatifs comme les êtres vivants, en déséquilibre thermodynamique), peut être source d'auto-organisation (comme l'évolution des espèces).

·            L'instabilité peut résulter d'une solution particulière d'un modèle d'évolution, comme l'inflation de l'Univers qui résulte de la Relativité Générale [1-z20].

·            L'instabilité peut résulter de la nature même d'un système dynamique ; ses lois d'évolution peuvent changer en certains points de bifurcation [1-z16].

§   La nature ne connaît pas le concept humain de « résultat d'une évolution » ; et elle n'a pas de finalité (contrairement à la doctrine spiritualiste).

§   Une cause donnée ne fait que déclencher un ensemble d'évolutions, dont elle ne garantit ni la durée, ni la prédictibilité des résultats, ni la précision de chaque résultat, qui sont des préoccupations strictement humaines.

§   Chaque évolution déclenchée est gouvernée par une loi physique, selon le principe déterministe « les mêmes causes produisent les mêmes effets » , principe qui implique ce qui suit :

·            La stabilité (l'invariance) des lois physiques dans le temps et l'espace.

·            L'absence de hasard dans le choix de la loi unique à appliquer.

·            En Mécanique quantique, lors d'une évolution dont le modèle peut avoir plusieurs solutions, celles-ci constituent un ensemble prédéterminé, dont chaque élément a une probabilité connue d'apparaître si on fait un grand nombre d'expériences identiques.

Ce choix statistique d'une valeur est donc un type d'évolution naturelle particulier, faisant passer d'une superposition de valeurs à une valeur unique. C'est le seul cas, dans la nature, où le hasard intervient.

·            Dans le cas d'une bifurcation [1-z16], la loi choisie dépend d'un paramètre de contrôle qui a une valeur critique au point de bifurcation.

·            En cas d'évolution sensible aux conditions initiales, le résultat est imprédictible à long terme du fait d'une amplification mathématique d'inévitables imprécisions physiques.

§   La nature a toutes les lois qu'il faut pour réagir à toutes les situations. Elle n'improvise jamais de conséquence et n'en oublie jamais.

§   Les lois physiques constituent un ensemble cohérent : leurs effets se complètent sans jamais se contredire.

Exemple : les trajectoires éventuelles (de longueurs différentes) d'une particule unique qui les emprunte toutes à la fois sont parcourues à des vitesses telles que la particule arrive en une fois à une destination unique, pas à plusieurs dates dépendant des diverses trajectoires. Mais les différences de longueur des trajectoires peuvent produire des interférences.

§   La nature ignore les concepts d'échelle d'espace ou de temps, qui ne sont que des abstractions commodes de l'esprit humain : c'est le principe de correspondance [1-m].

·            Une loi physique s'applique à toutes les échelles, mais ses effets peuvent être négligeables ou trop difficiles à calculer à certaines échelles.

·            Certains phénomènes sont modélisés par des structures géométriques dites fractales, qui ont la même forme quelle que soit l'échelle, c'est-à-dire « le grossissement ».

§   Les lois physiques respectent un certain nombre de symétries (invariances) résultant de l'uniformité de l'Univers (homogénéité du temps et de l'espace, isotropie), de la symétrie droite-gauche de l'espace, etc.

§   La causalité et le déterminisme tiennent compte de la Relativité, de la Mécanique quantique, de l'Electrodynamique quantique et de la Chromodynamique quantique, dont les lois sont des lois de la nature.

§   La causalité et le déterminisme s'appliquent aux situations et aux évolutions physiques de la nature, pas à la pensée humaine. Nous allons voir maintenant que celle-ci est non déterministe et imprévisible.

2.              Imprédictibilité de la pensée humaine

Nous avons vu ci-dessus à propos de la complexité que les phénomènes des êtres vivants, qu'ils soient physiologiques ou psychiques, reposent sur les phénomènes physiques des cellules, chacun déterministe et à évolution et résultat prévisibles.

Le déterminisme et la prédictibilité s'entendent ici au sens du déterminisme étendu, à cause du caractère probabiliste de nombreuses liaisons chimiques intervenant en biologie.

 

Mais le nombre de ces phénomènes physiques et leurs innombrables interactions rendent les phénomènes du vivant d'une redoutable complexité. C'est cette complexité qui a expliqué pour nous ci-dessus l'imprévisibilité de la pensée humaine. Voyons quelques détails.

 

D'après une interprétation simpliste de la doctrine matérialiste, la pensée est un simple aspect de mécanismes des neurones : établissement et ruptures de connexions par synapses, et communications à travers ces synapses. Ces mécanismes sont eux-mêmes basés sur des réactions chimiques régies par le logiciel génétique. Celui-ci n'est que l'interprétation par notre esprit de processus de biologie moléculaire, science exacte déterministe (au sens étendu) basée sur la physique quantique.

 

Mais ce logiciel génétique coordonne des milliers de réactions chimiques, qui dépendent d'innombrables paramètres appartenant à des domaines dont je ne peux citer que quelques-uns : perceptions remontant des sens et du corps vers le cerveau, santé du corps, informations mémorisées dans les neurones, etc. Ces milliers de réactions interdépendantes donnent aux mécanismes physiologiques de la pensée une immense complexité. C'est ainsi que, d'après les recherches récentes citées dans [1-z21] :

§   les synapses des vertébrés contiennent environ 1000 protéines, mises en œuvre dans 13 mécanismes moléculaires, dont l'un utilise 183 protéines différentes ;

§   le cerveau humain compte environ 100 milliards de neurones reliés par 100 trillions de synapses (oui, cent mille milliards de synapses).

§   Un neurone peut dialoguer avec un millier d'autres en même temps : comme les ordinateurs multitâches et/ou multiprocesseurs, beaucoup de processus psychiques se déroulent en parallèle ; un processus peut en démarrer d'autres et communiquer avec eux.

 

Au-dessus de cette complexité physique, la pensée elle-même représente toute une « hiérarchie logicielle », avec ses mécanismes conscients ou non de mémorisation et recherche d'informations, de jugement de valeur de chaque pensée, d'enchaînement de pensées par analogie, induction, déduction et synthèse, etc. Le fonctionnement de ces mécanismes psychiques ne se déduit pas des seuls mécanismes physiques qui les supportent, on ne peut les décrire qu'en ajoutant des algorithmes décrivant des pensées et leur enchaînement : le tout est plus riche que la somme des parties.

Le subconscient entretient constamment des pensées qui échappent à tout contrôle de la conscience. Il y a, par exemple, la formation de valeurs de l'individu qui vont ensuite guider toute sa pensée et toutes ses actions en définissant les affects, et notamment tout ce qui est désiré et ce qui ne l'est pas. Il y a aussi un très grand nombre de vérités et d'opinions à priori, injustifiables logiquement mais accessibles à la conscience. La connaissance des processus subconscients progresse, mais elle est encore très embryonnaire. L'influence du subconscient est une des raisons de l'imprévisibilité humaine.
Le paragraphe
[1-z7] développe ce sujet.

 

Le subconscient et la complexité fantastique des mécanismes de la pensée expliquent l'essentiel de son caractère généralement imprévisible, malgré une base physique déterministe. Le nombre de mécanismes élémentaires interdépendants est tel que la condition de stabilité (reproductibilité) de la définition du déterminisme scientifique est rarement satisfaite ; par exemple, certains mécanismes qui dépendent d'autres ne se déclenchent même pas lorsque des résultats de ces autres mécanismes changent. Selon la quantité de neurotransmetteurs comme la dopamine et l'acétylcholine dans certaines zones du cerveau, les pensées sont très différentes. La mémoire à long terme, soumise elle aussi à un environnement chimique et à des stimulations qui varient avec les circonstances, peut oublier ou déformer les souvenirs. Le cerveau fabrique souvent des pensées par intuition ou analogie sans que l'individu soit conscient de leur élaboration, et certaines sont erronées ou indécidables tout en paraissant acceptables au mécanisme automatique de jugement de valeur.

 

Voilà pourquoi le cheminement et les conclusions de la pensée humaine sont le plus souvent imprévisibles. Voilà pourquoi la pensée d'un individu est tellement soumise à ses affects que sa raison elle-même n'est qu'un outil à leur service, et que l'individu préfère souvent des décisions qu'il sait irrationnelles ou immorales à des décisions rationnelles ou morales.

2.1             La barrière de complexité

Depuis que l'homme primitif savait évaluer un danger en un instant, sans prendre le temps de réfléchir à ce qu'il devait faire, l'homme a dans ses gènes une fonction d'évaluation au premier coup d'œil. Cette fonction est si automatique qu'on ne peut la bloquer, et il faut l'effort d'un raisonnement délibéré pour en changer les conclusions.

 

Cet effort est d'autant plus important que la situation est complexe. L'homme doit alors trouver un compromis entre la qualité d'une décision et sa rapidité. L'habitude de juger au premier coup d'œil est si forte que, face à une situation complexe, l'homme adopte souvent la première idée qui lui vient, sans prendre le temps de faire le tour des paramètres et des contraintes du contexte. La plupart des citoyens, par exemple, votent pour un programme électoral qu'ils n'ont pas analysé en détail, voire dont ils n'ont lu que le nom du candidat.

2.2             Imprédictibilité des décisions économiques et boursières

L'imprédictibilité des décisions humaines se manifeste de manière spectaculaire en économie et sur les marchés de titres, où on peut montrer qu'aucun modèle mathématique, même statistique, ne peut permettre des prédictions fiables. C'est pourquoi, par exemple, tant de fonds hautement spéculatifs (hedge funds) basés sur les modèles de mathématiciens de haut niveau (les quants) ont disparu lors de la crise de 2007-2008 [7].

3.              Références

Attention

Les liens ci-dessous vers un emplacement particulier de http://www.danielmartin.eu/Philo/Determinisme.htm  chargent des textes dont les graphiques sont souvent absents ou dégradés. Ce phénomène est dû à des restrictions dans le traducteur en format HTML de WORD, qui n'existent pas dans le traducteur en format PDF. Pour trouver la page PDF correspondant à l'emplacement défectueux de la page HTML, charger cette dernière puis charger le document http://www.danielmartin.eu/Philo/Determinisme.pdf et y rechercher un texte au voisinage du graphique incriminé.

 

Cette manœuvre désagréable est due à l'impossibilité d'accéder directement à une page donnée d'un texte PDF à partir d'une adresse extérieure à ce texte, contrairement à HTML.

Références

 

[0]   Principes de logique : causalité, homogénéité, raison suffisante, etc.
http://www.danielmartin.eu/Philo/CausalitePPS.pdf

 

[1]   Livre "Le déterminisme étendu pour mieux comprendre et prévoir
   Un pont entre science et philosophie pour la pensée rationnelle"  (558 pages)

http://www.danielmartin.eu/Philo/Determinisme.pdf

 

[1-a]       Exemple de calcul impossible d'une propagation d'onde déterministe :

http://www.danielmartin.eu/Philo/Determinisme.htm#DttNonCalculable

 

[1-b]       Exemple d'attracteur étrange :

http://www.danielmartin.eu/Philo/Determinisme.htm#AttracteurEtrange

 

[1-c]        Espace des phases :

http://www.danielmartin.eu/Philo/Determinisme.htm#EspacePhases

 

[1-d]       Attracteur

http://www.danielmartin.eu/Philo/Determinisme.htm#AttracteurDefinition

 

[1-e]       Matérialisme et spiritualisme : définitions

http://www.danielmartin.eu/Philo/Determinisme.htm#DefinitionsMaterialismeSpiritualisme

 

[1-f]        Postulats 3 et 4 de la Mécanique quantique :

http://www.danielmartin.eu/Philo/Determinisme.htm#Postulat3

 

[1-g]       Expérience de non-séparabilité :

http://www.danielmartin.eu/Philo/Determinisme.htm#R10

 

[1-h]       Mouvement brownien :

http://www.danielmartin.eu/Philo/Determinisme.htm#TemperatureAbsolue

 

[1-i]         Constante de Planck :

http://www.danielmartin.eu/Philo/Determinisme.htm#CteDePlanck

 

[1-j]         Superposition d'états et décohérence :

http://www.danielmartin.eu/Philo/Determinisme.htm#Decoherence

 

[1-k]        Evaporation des trous noirs :

http://www.danielmartin.eu/Philo/Determinisme.htm#Evaporation

 

[1-l]         Incertitudes sur les déterminations simultanées de 2 variables :

http://www.danielmartin.eu/Philo/Determinisme.htm#Heisenberg

 

[1-m]      Principes de correspondance et de complémentarité :

http://www.danielmartin.eu/Philo/Determinisme.htm#PpeCorrespondance

 

[1-n]       Système à évolution quasi périodique :

http://www.danielmartin.eu/Philo/Determinisme.htm#QuasiPeriodique

 

[1-o]       Exemple de phénomène chaotique : le problème des 3 corps :

http://www.danielmartin.eu/Philo/Determinisme.htm#TroisCorps

 

[1-p]       Exemple de phénomène apériodique somme de fonctions périodiques :

http://www.danielmartin.eu/Philo/Determinisme.htm#SerieFourier

 

[1-q]       Fluctuations quantiques :

http://www.danielmartin.eu/Philo/Determinisme.htm#Fluctuation

 

[1-r]        « Accidents » de la réplication du génome et évolution vers la complexité :

http://www.danielmartin.eu/Philo/Determinisme.htm#Accidents

 

[1-s]        Evolution due à une modification de l'expression de gènes :

http://www.danielmartin.eu/Philo/Determinisme.htm#ExpressionGenes

 

[1-t]         L'évolution des espèces selon la théorie de Prigogine. Attracteurs étranges :

http://www.danielmartin.eu/Philo/Determinisme.htm#ExplicationPrigogine

 

[1-u]       Dynamique des populations :

http://www.danielmartin.eu/Philo/Determinisme.htm#SuiteLogistique

 

[1-v]        Déterminisme et prédictibilité des systèmes – Auto-corrélation :

http://www.danielmartin.eu/Philo/Determinisme.htm#Autocorrelation

 

[1-w]       Exemples d'équations différentielles :

§   2ème loi de Newton (loi fondamentale de la dynamique) :
Le vecteur dp/dt, dérivée par rapport au temps du vecteur quantité de mouvement p=Mv d'un corps de masse M animé d'une vitesse de vecteur v, est égal à la force de vecteur F agissant sur le corps :  = dp/dt = Ma, où a est le vecteur accélération du corps, dérivé de v.

§   Equation de Schrödinger (équation fondamentale de la Mécanique quantique) :

        http://www.danielmartin.eu/Philo/Determinisme.htm#EquationFondamentaleMQ

        Cette équation est linéaire et ses solutions sont déterministes.

 

[1-x]        L'espace est homogène et isotrope : détails et justification :

http://www.danielmartin.eu/Philo/Determinisme.htm#HomogeneIsotrope

 

[1-y]        Les lois physiques sont stables (invariantes) dans le temps et l'espace :

http://www.danielmartin.eu/Philo/Determinisme.htm#VitesseExpansion

 

[1-z]        Construction empirique d'une axiomatique :

http://www.danielmartin.eu/Philo/Determinisme.htm#R241

 

[1-z1]     Définition d'une vérité scientifique :

http://www.danielmartin.eu/Philo/Determinisme.htm#DefinitionVeriteScientifique

 

[1-z2]     Théorème de Goodstein - Comment compléter une axiomatique :

http://www.danielmartin.eu/Philo/Determinisme.htm#R92

 

[1-z3]     Les systèmes interprétatifs :

http://www.danielmartin.eu/Philo/Determinisme.htm#SystemesIntepretatifs

 

[1-z4]     L'espace-temps :

http://www.danielmartin.eu/Philo/Determinisme.htm#EspaceTemps

 

[1-z5]     Résumé d'affirmations concernant la causalité et le déterminisme étendu des lois de la nature : http://www.danielmartin.eu/Philo/Determinisme.htm#QueComprendre

 

[1-z6]     Principe d'exclusion de Pauli :

http://www.danielmartin.eu/Philo/Determinisme.htm#Pauli

 

[1-z7]     Mécanismes psychiques non algorithmiques ou imprévisibles :

http://www.danielmartin.eu/Philo/Determinisme.htm#MecanismesNonDeterministes

 

[1-z8]     Symétrie temporelle et réversibilité. Systèmes conservatifs ou dissipatifs :

http://www.danielmartin.eu/Philo/Determinisme.htm#Conservatif

 

[1-z9]     Le rationalisme critique de Karl Popper :

http://www.danielmartin.eu/Philo/Determinisme.htm#Popper

 

[1-z10]   Axiomatique : définitions et applications :

http://www.danielmartin.eu/Philo/Determinisme.htm#R67

 

[1-z11]   Les 4 types d'interactions :

http://www.danielmartin.eu/Philo/Determinisme.htm#R18

 

[1-z12]   Faiblesse de la preuve téléologique :

http://www.danielmartin.eu/Philo/Determinisme.htm#ErreurFinalisme

 

[1-z13]   Principe de moindre action de Maupertuis :

http://www.danielmartin.eu/Philo/Determinisme.htm#Maupertuis

 

[1-z14]   Paquet d'ondes et étalement dans le temps :

http://www.danielmartin.eu/Philo/Determinisme.htm#PaquetDondes

Voir aussi la notion de fonction d'onde [1-z18].

 

[1-z15]   Condition de causalité entre deux événements :

http://www.danielmartin.eu/Philo/Determinisme.htm#ConditionCausalite

 

[1-z16]   Changement de loi d'évolution par bifurcation – Valeur critique :

http://www.danielmartin.eu/Philo/Determinisme.htm#Bifurcation

 

[1-z17]   Nombres de Reynolds, de Prandtl et de Rayleigh :

http://www.danielmartin.eu/Philo/Determinisme.htm#R293

 

[1-z18]   Etat quantique d'un système - Fonction d'onde

L'état quantique d'un système à un instant donné est l'ensemble de ses variables de Mécanique quantique, chacune ayant une certaine valeur à cet instant-là. Ainsi, l'état quantique d'un électron comprend ses variables de position, de vitesse et de spin (moment cinétique intrinsèque de la rotation de l'électron sur lui-même). Toutes ces variables sont scalaires.

 

L'état quantique représente tout ce que l'on peut savoir sur le système à l'instant donné (toute l'information à son sujet), il prend en compte toutes les variables ; il n'y a pas de variable supplémentaire (cachée) qui pourrait nous apprendre quelque chose de plus sur le système ; on dit que la Mécanique quantique est complète.

 

Deux électrons ont même masse et même charge électrique, caractéristiques qui sont constantes et identiques pour tous les électrons, donc ne sont pas des variables, donc ne font pas partie de leur état quantique. On peut distinguer deux électrons seulement par une différence d'état quantique, c'est-à-dire une différence de position, de vitesse ou de spin. Même remarque pour deux protons ou d'autres paires de particules : deux particules de même type sont toujours identiques, interchangeables, elles ne diffèrent que par une ou plusieurs valeurs de variables de leur état quantique.

 

L'état quantique d'un système est décrit par sa fonction d'onde y(r, t), prenant ses valeurs dans le corps des nombres complexes, et qui contient toutes les informations que l'on peut connaître sur le système. Dans y(r, t), la variable t représente le temps (l'instant), et la variable vectorielle r a pour composantes les coordonnées rx ; ry ; rz dans un espace de position, ou dans un espace produit tensoriel de l'espace de position et de l'espace de spin si on prend en compte ce dernier.

 

La fonction d'onde évolue dans le temps de manière parfaitement déterministe au sens traditionnel. Elle est interprétée comme une amplitude de probabilité de présence, nombre complexe ayant un module et une phase. Les positions possibles r formant un continuum (espace continu), la probabilité pour que la particule soit, à l'instant t, dans un élément de volume d3r = dxdydz autour du point r(rx ; ry ; rz) est proportionnelle à d3r et infinitésimale : on la note dP(r, t). La densité de probabilité correspondante est |y(r, t)|².

 

Au concept classique de trajectoire d'un corpuscule la Mécanique quantique substitue celui d'état dépendant du temps t. L'évolution dans le temps de l'état du corpuscule (notion qui se substitue à celle de trajectoire) est alors décrite par les solutions de l'équation linéaire de Schrödinger [1-w] - solutions déterministes au sens traditionnel - et toute combinaison linéaire de telles solutions correspondant à une distribution de probabilités.

 

[1-z19]   Equation différentielle du mouvement d'un pendule simple

http://www.danielmartin.eu/Philo/Determinisme.htm#PenduleSimple

 

[1-z20]            Inflation, Big Bang, puis expansion - L'Univers selon nos connaissances début 2014 - http://www.danielmartin.eu/Physique/Inflation.pdf

 

[1-z21]   Complexité des connexions par neurones et des mécanismes des synapses : voir http://www.danielmartin.eu/Philo/Determinisme.htm#R307

 

[1-z22]   Principe d'identité et cause première

http://www.danielmartin.eu/Philo/Determinisme.htm#R16

 

[1-z23]   Observable : grandeur physique mesurable représentée par un être mathématique appelé opérateur linéaire auto-adjoint. Voir :

http://www.danielmartin.eu/Philo/Determinisme.htm#R30

 

[2]   Exemple d'approximation

La dynamique d'un pendule simple est décrite par une équation différentielle non linéaire [1-z19]. Pour simplifier la résolution de cette équation, on recourt à « l'approximation des petites oscillations », qui assimile un sinus à son angle en radians. Cette simplification entraîne des erreurs de prédiction du mouvement qui croissent avec l'angle considéré.

 

[3]   Animations montrant de la turbulence :

§   Site efluids media galleries http://media.efluids.com/galleries/turbulence?filter_by=image

§   CENTER FOR TURBULENCE RESEARCH http://www.stanford.edu/group/ctr/gallery.html

 

[4]   René Thom, mathématicien médaille Fields, "Halte au hasard, silence au bruit", article publié dans "La querelle du déterminisme" (1990), éditions Gallimard.

Extrait :

"Je voudrais dire d'emblée que cette fascination de l'aléatoire témoigne d'une attitude antiscientifique par excellence. De plus, dans une large mesure, elle procède d'un certain confusionnisme mental, excusable chez les auteurs à formation littéraire, mais difficilement pardonnable chez des savants en principe rompus aux rigueurs de la rationalité scientifique.

Qu'est-ce en effet que l'aléatoire ? On ne peut en donner une définition que purement négative : est aléatoire un processus qui ne peut être simulé par aucun mécanisme, ni décrit par aucun formalisme. Affirmer que "le hasard existe", c'est donc prendre cette position ontologique qui consiste à affirmer qu'il y a des phénomènes naturels que nous ne pourrons jamais décrire, donc jamais comprendre. C'est renouveler le célèbre ignorabimus de Du Bois-Reymond...

Le monde est-il astreint à un déterminisme rigoureux, ou y a-t-il un "hasard" irréductible à toute description ? Ainsi posé, évidemment, le problème est de nature métaphysique et seule une option également métaphysique est en mesure de le trancher. En tant que philosophe, le savant peut laisser la question ouverte ; mais en tant que savant, c'est pour lui une obligation de principe - sous peine de contradiction interne - d'adopter une position optimiste et de postuler que rien, dans la nature, n'est inconnaissable à priori."

 

Voir aussi ci-dessous [4b].

 

[4b] Edmund Husserl (1859-1938), mathématicien et philosophe de la science, fondateur de la phénoménologie (méthode pour décrire et analyser sans présuppositions les phénomènes présents à la conscience ; cette méthode fait de la philosophie de la logique une science rigoureuse).

"Recherches logiques - Tome 1 : Prolégomènes à la logique pure", publié aux PUF.

 

[5]   Le principe anthropique

Les physiciens ont remarqué des coïncidences troublantes entre diverses constantes de l'Univers et la possibilité d'une vie terrestre. En voici deux parmi bien d'autres (concernant l'âge de l'Univers, la masse du proton, la constante universelle de gravitation G, etc.) :

§   L'astronome anglais Fred Hoyle a remarqué qu'une valeur à peine différente de l'intensité de l'interaction nucléaire [1-z11] aurait pratiquement réduit à néant la génération de carbone dans les réactions de fusion stellaires, les seules dans l'Univers à en fabriquer. Puisque sans carbone la vie telle que nous la connaissons est inconcevable, il semble que l'interaction nucléaire ait « juste l'intensité qu'il faut » pour que la vie apparaisse dans l'Univers.

Pour les tenants du principe anthropique, cela ne peut s'expliquer que par l'influence d'une volonté divine, si l'on tient compte du fait qu'il y a de nombreuses coïncidences comme celle-là.

§   Le physicien prix Nobel Steven Weinberg a remarqué dans son livre "Dreams of a Final Theory: The Scientist's Search for the Ultimate Laws of Nature" qu'il y a un rapport entre la valeur de la constante cosmologique (introduite par Einstein dans ses équations de la Relativité générale) et l'existence de la vie sur la Terre. Une valeur trop élevée de cette constante aurait empêché toute formation de galaxie, donc aussi la formation du système solaire. Sa valeur connue est compatible avec la répartition de matière observée et l'expansion de l'Univers, donc la vie terrestre.

 

Ces coïncidences sont si nombreuses et si troublantes que des physiciens comme Robert Dicke ont postulé l'existence d'un « principe anthropique », selon lequel elles ne sont pas le fruit du hasard. Ce principe postule que ces constantes ont exactement « les bonnes valeurs » pour que la vie apparaisse et se développe vers la complexité que nous constatons dans l'homme, sans avoir besoin de la sélection naturelle de Darwin. Tout se passe comme si l'Univers était soumis à un déterminisme global, comme si une volonté téléologique externe à l'Univers l'avait fait tel qu'il est, avec les lois qu'il a, pour que la vie apparaisse et évolue en complexité jusqu'à l'homme qui l'observe aujourd'hui. Le principe anthropique est donc une forme moderne de la « preuve » téléologique de l'existence de Dieu [1-z12].

Discussion

Le principe anthropique est-il un déterminisme divin ?

Les coïncidences de valeurs de constantes ci-dessus étant réelles, chacun est libre de les interpréter comme il veut, notamment en postulant l'existence à l'échelle de l'Univers d'un déterminisme de niveau supérieur à tous les autres. Ce déterminisme-là régirait les divers déterminismes des lois physiques, comme le principe physique de moindre action de Maupertuis [1-z13] détermine globalement un choix de trajectoire au lieu de la détermination de proche en proche résultant du déterminisme ponctuel des lois de Newton. On peut aussi y voir une manifestation du dessein d'un Créateur.

Il faut rappeler le principe d'identité

Le principe d'identité fait que la réalité à un instant donné est ce qu'elle est et ne peut être autre, même si notre esprit s'en étonne, le regrette ou y trouve des coïncidences. Considérons alors les diverses constantes et lois de l'Univers telles que si l'une était un tant soit peu différente l'homme ne pourrait exister. Sachant qu'il existe, il est impossible de trouver le moindre fait qui contredise cette existence ; si on en trouvait un, ce serait à coup sûr une erreur ! Toutes les valeurs de constantes et lois physiques remarquables que certains ont associées à l'existence de l'homme n'auraient pu être différentes, du fait du principe d'identité. S'étonner, alors, que telle constante ait une valeur très proche d'une limite qui rendrait la vie impossible est humain, mais ne prouve rien car elle ne peut avoir que la valeur exacte qu'elle a.

Des probabilités qui n'ont pas de sens

Un autre argument faux que j'ai vu en faveur du principe anthropique fait intervenir une probabilité pour qu'une constante de l'Univers importante pour l'existence de l'homme ait (ou n'ait pas) la valeur précise qu'elle a.

Caractère humain, artificiel, de la notion d'échelle
La notion d'échelle est une abstraction humaine dont la nature n'a que faire. L'homme s'en sert pour mieux se représenter les situations et les phénomènes, notamment lorsqu'il compare une chose à une autre. Mais la nature ne juge pas que quelque chose est "grand" ou "petit" par rapport à autre chose ; dans chaque situation elle applique la loi d'évolution qui convient : elle prend en compte l'ensemble des paramètres qui s'appliquent, que l'homme considère cet ensemble comme local ou global.

Dire qu'entre deux valeurs d'une même variable la différence relative est minime, car elle n'est que de 10-15 (un millionième de milliardième), n'a pas de sens pour la nature. Si cette différence suffit pour qu'une évolution soit autre, elle le sera d'après le principe d'identité.

Pour la nature, la notion de proximité d'une valeur n'a donc pas de sens ; à un instant donné une grandeur physique a la valeur exacte qu'elle a. Juger qu'elle est proche d'une autre valeur, ou qu'une différence relative d'un millionième changerait la face du monde sont des réactions humaines sans rapport avec les lois physiques.

 

La probabilité d'une situation étant le rapport du nombre de cas favorables au nombre de cas équiprobables possibles, on ne peut la calculer que si l'on connaît ces deux nombres ; par exemple, la probabilité pour qu'un lancer de dé donne un 3 est calculable car ce cas "favorable" unique fait partie de 6 cas "possibles" équiprobables. On calcule aussi, par exemple, une telle probabilité en Mécanique quantique, lorsque la valeur d'une variable mesurée est une valeur propre d'un ensemble (le spectre de l'observable [1-z23]) qui en a un nombre connu, chacune assortie d'une probabilité calculable.

 

Lorsque la constante de l'Univers est un nombre réel, le nombre de cas possibles est infini. La probabilité d'une valeur donnée n'a alors de sens que pour un certain intervalle autour de cette valeur et si l'on connaît la loi de densité de probabilité de la constante ; sans cette densité de probabilité, la notion de « faible différence entre une variable et une valeur critique » n'a pas de sens. Or je n'ai jamais vu qu'un partisan du principe anthropique qui s'étonne de la proximité d'une valeur de constante avec une valeur critique pour l'existence de la vie ait pris soin de citer la densité de probabilité dans leur voisinage ; et je ne l'ai pas vu parce que la loi de densité de probabilité d'une constante n'existe pas !

 

Ce que j'ai vu, en revanche, c'est l'argument qu'une constante « a une valeur contingente car elle aurait pu en avoir une autre ». C'est là pure spéculation, puisque la constante ne peut pas, justement, avoir une valeur autre que celle qu'elle a.

 

Tout calcul de la probabilité pour qu'une situation qui s'est produite se soit effectivement produite car on peut imaginer qu'elle ne se fut pas produite, est une spéculation sans valeur lorsqu'il est impossible de connaître ou de dénombrer toutes les évolutions qui ont fait qu'elle s'est produite et toutes celles qui auraient pu se produire. De même, calculer la probabilité de non-survenance d'un événement du passé qui ne s'est pas produit est absurde.

Le besoin de l'homme que l'Univers ait un sens conforme aux valeurs morales

Le principe anthropique a souvent été utilisé par des spiritualistes, pour qui l'idée matérialiste que l'homme est le produit d'un Univers dominé par des forces aveugles et indifférentes est insupportable. Certains rejettent cette idée parce qu'elle ne permet pas de justifier l'origine des valeurs morales, origine qui pour eux ne peut être que divine parce que ces valeurs sont par essence universelles et éternelles, conformément (par exemple) à l'enseignement de Saint Thomas d'Aquin.

 

Les matérialistes répondent à cette objection que les scientifiques savent aujourd'hui – preuves ethnologiques à l'appui - que les principes de morale humains sont des conséquences de l'évolution des sociétés humaines, qui les ont définis progressivement siècle après siècle.

Origine de la supériorité de l'homme sur les autres êtres vivants

Pour sa part, Darwin répond aux spiritualistes dans [6] page 448 en attribuant la noblesse de la lignée humaine à son ancienneté, à qui des centaines de milliers d'années de perfectionnements successifs ont permis de résister à la sélection naturelle. Pour lui, la morale humaine, indissociable de sa pensée, est consubstantielle de l'être social qu'est l'homme. Elle représente une des supériorités de son espèce, qui ont permis sa survie et finalement sa domination.

Un principe infalsifiable

Le principe anthropique est comme l'existence de Dieu, un énoncé infalsifiable ; en vertu du rationalisme critique [1-z9] il n'a donc rien de scientifique. C'est donc un émerveillement de spiritualiste ou le fruit de l'imagination. On peut toujours spéculer que, dans un autre Univers où les lois seraient différentes, l'homme n'aurait pu apparaître, mais c'est là pure spéculation métaphysique et il n'y aura jamais d'avancée scientifique permettant de le savoir ; nous ne saurons jamais rien de scientifique concernant un hypothétique espace extérieur à l'Univers ou l'ayant précédé.

Conclusion

Le principe anthropique est une spéculation spiritualiste irrationnelle qui introduit un déterminisme divin, finalité destinée à combattre le déterminisme matérialiste.

La recherche d'exoplanètes

On peut cependant interpréter l'existence d'un ensemble de conditions à satisfaire pour que la vie apparaisse pour délimiter des régions, au voisinage d'autres étoiles que le Soleil, où une vie telle que nous la connaissons serait possible. Dans une telle région, par exemple, la température doit permettre l'existence de l'eau à l'état liquide, l'étoile ne doit pas émettre de rayonnement mortel, etc. Sous cette forme-là (ensemble de conditions de la vie) le principe anthropique est utile aux astronomes qui cherchent des planètes (appelées exoplanètes) où la vie pourrait exister.

 

[6]   "De l'origine des espèces" (Charles Darwin, 1859) disponible gratis en français à l'adresse http://www.danielmartin.eu/Arg/Darwin.pdf

 

[7]   "Economie : rationalité des décisions et validité des théories traditionnelles" (Daniel MARTIN, 2009) : http://www.danielmartin.eu/Economie/RatDecEco.pdf

 

[8]   "Démonstration élémentaire du théorème de M. Borel sur les nombres absolument normaux et détermination effective d'un tel nombre" (W. Sierpinski, Bulletin de la S. M. F., tome 45 (1917), p. 125-132)

http://archive.numdam.org/article/BSMF_1917__45__125_1.pdf

 

[9]   Le rayon R de l'Univers visible est déterminé par son expansion : la vitesse v d'éloignement d'un astre situé à cette distance R est v = c, vitesse de la lumière ; on trouve R = 13.8 milliards d'années-lumière. Mais l'Univers existe au-delà de R ; la lumière de certains astres partie il y a très longtemps nous en parvient encore, la distance maximum étant de 47 milliards d'années-lumière.

 

 

Daniel MARTIN

4.              Résumé des cas d'imprédictibilité

Type
d'imprédictibilité

Détermination ou évolution impactée

Probabilité de choix
ou imprécision

Hasard (déterminisme statistique, Mécanique quantique seulement)

Choix d'un élément dans un ensemble de valeurs propres par décohérence, effet tunnel, solution stationnaire, etc. lors d'une interaction entre échelles atomique et macroscopique

Probabilité selon le 4ème principe de la Mécanique quantique :

·   Spectre discret :

·   Spectre continu non dégénéré :

dP(a) = |<va|y>|² da

Imprécision à l'échelle atomique (en Mécanique quantique seulement)

·   Etat d'un corpuscule dans son paquet d'ondes :
Corpuscule en
mouvement ou stationnaire,
orbitale électronique




·   Extension spatiale de la fonction d'onde associée au corpuscule



·   Imprécision = demi-largeur d'un paquet d'ondes d'équation :



d'où aspect flou, étalement dans le temps du paquet d'ondes de position

 

·   Erreur possible sur la position ou la dimension de l'ordre de la longueur d'onde de Compton :

 

Indétermination
("incertitude") à l'échelle atomique
et contextualisme
(en
Mécanique quantique seulement)

·   Détermination de variable(s) lorsque des observables ne commutent pas (Heisenberg, Kochen-Specker)

·   Instabilité énergétique : noyaux atomiques, fluctuation quantique…

Δ. Δpx ³ ½ä
Δ. Δ³ ½ä,
Δa . Δl ³ ½ä,
etc.

Violation temporaire de la conservation d'énergie

Sensibilité aux conditions initiales (à l'échelle macroscopique)

Amplification mathématique d'une erreur physique
(chaos déterministe)

L'erreur possible croît avec l'éloignement du début de l'évolution

Erreur physique (à l'échelle macroscopique)

Connaissance des constantes ou paramètres, erreurs de mesure

Prédiction de variables statistiques si on a un modèle et un nombre de déterminations suffisant

Calcul ou raisonnement algorithmique impossible

·   Complexité (nombre de processus ou d'interactions entre eux)

·   Algorithme non convergent ou trop lent

·   Proposition prouvée indécidable

·   Problème ou nombre prouvé non calculable

·   Phénomène extérieur à l'Univers

-