RUELLE, David

Hasard et Chaos

Ed. Odile Jacob, Paris 1991

1. Ouvrage de vulgarisation sur les domaines scientifiques récents, dont le but est de se mettre par dessus les spécialisation, et conduire une réflexion pluridisciplinaire. L'auteur est professeur de physique théorique à Paris, et il est connu pour ses contributions à la physique mathématique (physique statistique et utilisation des attracteurs étranges, notamment).

2. Le thème de base est le hasard, et l'auteur passe en revue tous les domaines où celui-ci est actuellement invoqué: la théorie des jeux, le chaos déterministe des systèmes dynamiques et les essais d'appliquer ce modèle ailleurs qu'en physique (économie, biologie), la physique quantique, les systèmes irréversibles (l'ordre global naissant du désordre au niveau des "individus") et la théorie de l'information (appliquée à la complexité algorithmique, aux théorèmes d'incomplétude et à l'évolution de la vie).

3. On peut conseiller la lecture de ce livre à des personnes assez bien formées, car il est un bon résumé de presque tous les débats scientifiques actuels. Cependant, ses défauts sont nombreux:

En définitive, les chapitres dignes de considération sont ceux qui concernent le domaine de travail de l'auteur: sa vision des systèmes dynamiques et du chaos déterministe est très intéressante. Malheureusement, je crois qu'elle est un peu technique: il faut avoir lu d'autres ouvrages ou reçu des cours pour pouvoir l'apprécier.

En revanche, les deux chapitres sur la mécanique quantique sont plutôt décevants: les débats actuels ne sont nullement abordés, et l'auteur se limite à des détails de mathématiques, intéressants en soi, mais pratiquement sans liaison avec le reste de l'ouvrage.

Quant aux chapitres traitant d'autres domaines, l'auteur y perd la sérénité qu'il avait montré quand il était "dans son assiette". Malheureusement, il s'agit justement des chapitres philosophiquement profonds: la vie, l'intelligence, la connaissance... Les termes y sont à peine définis, les références s'appauvrissent (essentiellement, un ouvrage par chapitre, et c'est souvent un ouvrage de vulgarisation; tandis qu'ailleurs Ruelle cite beaucoup d'articles scientifiques "sérieux"). Typiquement, dans le chapitre "Intelligence", qui est censé être l'aboutissement de cette réflexion sur la science, les considérations développées sont intéressantes mais le terme "intelligence" est défini de façon ambiguë: au début, c'est quelque chose de strictement lié au fonctionnement "mécanique" du cerveau, c'est en somme ce que l'intelligence artificielle imite; à la fin c'est ce qui nous permet de comprendre le monde, c'est donc l'intelligence dans le sens intuitif que l'on donne à ce mot.

Les mérites de ce livre résident essentiellement dans la précision des références (Ruelle cite toujours ses sources), et dans les notes hors-texte aux chapitres plus physiques qui, encore une fois, n'intéressent que l'initié mais qui contiennent des développements intéressants.

ANNEXE: résumé, chapitre par chapitre.

1. Le hasard

Introduction au livre: se mettre par dessus les spécialisation, et conduire une réflexion philosophique pluridisciplinaire.

2. Mathématique et physique

Description rapide des deux méthodes. Les maths: dériver des théorèmes à partir de quelques assertions de base; la longueur des preuves, et renvoi aux chap. 22 et 23. La physique: idéalisations, approximations; définitions opérationnelles vs. définitions rigoureuses.

3. Probabilités

Construction rapide sous les yeux du lecteur de la théorie élémentaire des probabilités. A la recherche d'une définition opérationnelle de celles-ci (répéter l'expérience un grand nombre de fois, ou faire des simulations en variant quelque peu les paramètres), et surtout du concept d'indépendance (vérifier expérimentalement que Prob(A et B) = Prob(A)*Prob(B)).

4. Loteries et horoscopes

Application ironique des probabilités conditionnelles et du concept d'indépendance; renvoi aux chap. 6 et 7.

5. Le déterminisme classique

Relation entre la mécanique (description de l'évolution temporelle des systèmes physiques) et le hasard. Thèse: hasard (en tant que paradigme de notre conception du monde) et déterminisme stricte (citation de Laplace) ne sont pas incompatibles, le hasard pouvant intervenir sur les conditions initiales. La thèse de René Thom sur la mécanique: "puisque la nature de la science est de formuler des lois, toute étude scientifique de l'évolution de l'univers débouchera nécessairement sur une formulation déterministe" (ces lois déterministes pouvant gouverner des distributions de probabilités, non pas forcément le système physique en soi).

Le problème du libre arbitre: thèse de Schrödinger: le hasard n'aide pas à comprendre le libre arbitre. Raisonnement: ce qui fait problème est notre libre arbitre, qui engage notre responsabilité. Or, "un choix responsable, douloureux peut-être, [...] n'a certainement pas les caractéristiques du hasard". Ici le thème de la prédestination est amorcé. La thèse de l'auteur: "ce qui explique notre libre arbitre, et ce qui en fait une notion utile, c'est la complexité de l'univers, ou, plus précisément, notre propre complexité" (à remarquer que dans la "démonstration" de cette affirmation, on identifie la sensation de libre arbitre avec l'impossibilité de contrôler ou prédire le futur).

6. Jeux

L'utilité d'un comportement aléatoire dans une situation compétitive: théorie des jeux et stratégies. Le théorème du minimax.

7. Dépendance sensitive des conditions initiales

Croissance exponentielle (taux constant): le crayon en équilibre sur sa pointe. Systèmes qui dépendent de manière sensitive des CI, quelles que soient ces CI. P.e.: les billiards avec obstacles convexes à collisions élastiques. Idée intéressante: souvent la divergence est telle que le modèle lui-même n'est plus adéquat.

8. Hadamard, Duhem et Poincaré

Systèmes dynamiques (càd avec évolution temporelle déterministe); la dépendance sensitive des CI n'est pas générale. Précurseurs du "chaos": Hadamard, flot géodésique sur des surfaces à courbure négative; Duhem, Exemple de déduction mathématique à tout jamais inutilisable; Poincaré, Science et méthode (exemples du gaz et de la météorologie).

9. Turbulence: modes

Discussion du paradigme des modes; la théorie de Landau-Hopf sur la turbulence. Histoire autobiographique: le doute sur cette théorie (Thom et Smale: p.e., les modes ne peuvent pas décrire un système à dépendance sensitive des CI); les articles scientifiques.

10. Turbulence: attracteurs étranges

La théorie Ruelle-Takens. Représentation géométrique des modes (boucles dans l'espace de phase); attracteurs étranges: dimension fractale, finie mais spectre des fréquences continu; on a toujours dépendance sensitive des CI.

11. Le chaos: un nouveau paradigme

L'acceptation de nouvelles théories par la communauté scientifique. Le "chaos": évolution temporelle avec dépendance sensitive des CI. La cascade des doublements de Feigenbaum. Chaos en chimie. La mode du chaos et ses conséquences.

12. Le chaos: conséquences

La turbulence et l'invariance d'échelle (turbulence développée). La circulation générale de l'atmosphère; petite histoire sur la dépendance des CI. Autres sujets d'étude: le changement de polarité du champ magnétique terrestre (comportement chaotique pas certain); les trous dans la ceinture d'astéroïdes. La difficulté de l'application en biologie, économie, écologie: le manque de bonnes équations d'évolution temporelle.

13. Economie

Oscillateurs: couplage entre modes: chaos à partir de trois oscillateurs. L'éternel retour (le système retourne à des états proches d'états déjà visités dans le passé) se présente pour des système modérément complexes; pour les systèmes très complexes, on n'a pas cette récurrence, et on a dépendance sensitive des CI; le problème se pose donc de savoir si cette dernière est limitée par des mécanismes régulateurs ou si elle donne lieu à des effets importants à long terme. Applications à l'économie: niveau de développement technologique et apparition de périodicités. Analogie économie-syst. dynamique: peu prédictive, mais quelques points d'intérêt (par exemple, on pourrait chercher une situation d'équilibre et se trouver dans le chaos: couplages entre les économies de différents pays!)

14. Evolutions historiques

Eternel retour vs. irréversibilité (une puce vs. cent puces sur un damier). Hasard sur les individus, ordre sur l'ensemble.

15. Les quanta: cadre conceptuel

Quelques problèmes: les probabilités "nouvelles" (la relation "A et B" souvent ne peut pas être définie; Bell: application des probas traditionnelles: contradiction!), la discussion sur la réduction du paquet d'onde.

16. Les quanta: comptage d'états

Introduction à l'entropie comme quantité de hasard du système.

17. Entropie

Boltzmann et Gibbs: mécanique statistique; entropie: eau chaude, eau froide et eau tiède; irréversibilité de l'ensemble et réversibilité des lois régissant les chocs (sur ce point très intéressant, Ruelle n'est pas très clair; mieux vaut consulter: R.P. Feynman, Cours de physique, vol.1, chap. 46)

18. Irréversibilité

Idées préconçues sur la science qui se sont avérées fructueuses: les atomes chez Boltzmann, les maths chez Galilée, le meilleur des mondes chez Leibniz, l'esthétisme des loi de la nature chez Einstein. Irréversibilité et volume dans l'espace de phase.

19. La mécanique statistique de l'équilibre

Conditions globales simples entraînent habituellement des configurations rendues uniques par leurs caractéristiques probabilistes.

20. L'eau bouillante et les portes de l'enfer

Le problème des changement de phase (intéressant: le changement intervient de manière abrupte, ce n'est pas une "rigidification" progressive des liaisons); quelques amorces (systèmes sur un réseau: Ising; invariance d'échelle de Wilson) mais pas de compréhension générale. Application de la mécanique statistique aux trous noirs: rayonnement et température de Hawking.

21. Information

La longueur du message n'est pas une bonne mesure de la quantité d'information. Idée: numéroter les messages permis: quantité d'information = nbre de chiffres du nbre de messages permis = K*log(nbre de messages permis); exprimée en bits (K=1/log2). Shannon: théorie de l'information: comment transmettre un message avec efficience. Liaison entropie (hasard) — quantité d'information: en choisissant un message, on se débarasse de l'incertitude sur toute la classe à laquelle ce message appartient. Attention: quantité d'information différent de signification! (exemple de la mélodie céleste: musique créée en posant un pentagramme sur une carte du ciel, et en marquant une note là où il y a une étoile: bcp d'information, mais ce n'est pas forcément de la bonne musique).

22. Complexité algorithmique

Déf: un objet est complexe s'il contient de l'information difficile à obtenir. Exemple de complexité en maths: la complexité algorithmique. Description de la machine de Turing. Algorithmes efficients: à temps polynomial: s'il existe C et n tq T<C(L+1)n, où T = temps = nbre de cycles de la machine de Turing universelle, L = longueur du message. Un problème pour lequel il n'existe pas d'algorithme polynomial est considéré comme intraitable. On parle de problèmes NP complets et NP difficiles, où NP signifie Nondeterministic Polynomial (car on peut obtenir une réponse positive en temps polynomial, mais seulement si "un oracle vous fournit le bon tuyau"). Exemples: voyageur de commerce qui doit passer par plusieures villes sans dépasser un kilométrage alloué (facile de tester pour chaque parcours, intraitable a priori); problème du verre de spin (maximaliser une expression contenant des +1 et des -1), le prototype des systèmes désordonnés.

23. Complexité et théorème de Gödel

Théorème d'incomplétude: donné un ensemble d'axiomes non contradictoires, il y a des vraies propriétés des nombres entiers (rappel: correspondance entiers-logique: dixième problème de Hilbert) qui ne peuvent être déduites des axiomes. Explication intuitive avec l'information: le paradoxe de la KC-complexité (Kolmogorov-Chaitin). La KC-complexité d'un message est définie comme la longueur du plus petit programme d'ordinateur qui produira le message voulu comme réponse. Chaitin a montré que des affirmations du type "tel message a une KC-compl. au moins égale à N" sont fausses ou indécidables (ceci équivaut au problème de l'arrêt d'une machine de Turing). Relation avec le hasard: on peut produire, en se basant sur des propriétés des entiers, des suites en code binaire qui donnent 0 ou 1 avec proba 1/2 à chaque pas: ces suites, et donc les propriété des entiers qui y correspondent, sont donc aléatoires!

24. La vrai signifiaction du sexe

Une vision de la vie en termes de théorie de l'information: on espère que l'évolution du message est telle qu'elle maximalise une fonction e du message même (méthode par mutation et sélection, ou Monte-Carlo). Cette méthode risque de conduire à un maximum relatif, surtout si le message est long, car dans ce cas soit on admet beaucoup de mutations (donc perte de l'information initiale), soit on en admet peu (mais alors rien n'évolue). Mais si maintenant on découpe le message en phrases A,B,C..., on peut prévoir un mécanisme qui provoque une mutation de quelques phrases; cette mutation ne devrait pas être catastrophique, càd que si e(A,B,...) est élevé alors e(A*,B,...) le sera encore. Ce mécanisme s'appelle sexe. Il faut encore mentionner une étude de Dawkins, The Selfish Gene: chaque gène vise à assurer sa propre reproduction, ce qui entrave le processus décrit précédemment. Conclusion: "Parce qu'il y a des régularités dans la structure de l'univers [les phrases], et parce que la vie peut les exploiter à son avantage, une nouvelle caratéristique de la vie est apparue lentement. C'est ce que nous appelons l'intelligence":

25. Intelligence

Idée de Marr dans son livre Vision: notre système visuel est structuré de manière à traiter un certain type d'information visuelle, correspondant à une réalité physique bien définie. La vision comme partie de l'intelligence (traitement d'information). Comparaison avec l'analyse freudienne de l'instinct sexuel. "En mettant ensemble un instinct sexuel, un système visuel et quelques autres mécanismes du même genre, on obtiendrait sans doute un cerveau raisonnable pour un rat ou un singe", et l'auteur avance l'hypothèse qu'à ce moment-là on pourrait ne pas être trop loin de l'homme, car "notre cerveau et notre intelligence sont basés sur des mécanismes strictement liés au problème de la survie dans un certain type d'environnement". La capacité de faire de la science ne serait qu'une qualité secondaire, et par ailleurs pas très performante. "Malgré ces insuffisances, la science humaine s'est développée et nous permet d'analyser bien plus profondément la nature des choses que nous n'aurions pu raisonnablement l'espérer", et le chapitre termine: "Et la chose incroyable est que nous puissions sonder les profondeurs de cet univers, et le comprendre".

26. Epilogue: la science

Conclusion fort peu intéressante, sauf lorsque l'auteur fait remarquer que la science a progressé différemment des autres "domaines de la curiosité humaine, non parce que la curiosité était d'une autre nature, mais parce que les objets et les concepts mis en cause étaient différents".

OUVRAGES CITÉS INTÉRESSANTS pour approfondir l'un ou l'autre thème

R. Westfall, Never at rest, Cambridge UP, 1980: une biographie de Newton

La querelle du déterminisme, Gallimard, Paris, 1990: avec articles de Thom, Morin, Prigogine

S. Jorna, Topics in nonlinear dynamics. A Tribute to Sir Edward Bullard, Amer. Inst. of Physics, 1978

Anderson, Arrow, Pines, The economy as an evolving complex system, Addison-Wesley, 1988: ouvrage paru à la suite d'une réunion d'économistes et physiciens

R.P. Feynman, QED, Princeton UP, 1985

J.S. Bell, Speakable and unspeakable in quantum mechanics, Cambridge UP, 1987

D. Ruelle, Statisical mechanics, rigorous results, Benjamin, 1969

Ya G. Sinai, Theory of phase transition: rigorous results, Pergamon, 1982

D.J. Amit, Field theory, the renormalisation group, and critical phenomena, World Scientific, 1984

P. Billingsley, Ergodic theory and information, John Wiley, 1965

Garey, Johnson, Computers and intractability, Freeman, 1979: ouvrage de référence sur la complexité algorithmique

Mézard, Parisi, Virasoro, Spin glass theory and beyond, World Scientific, 1987

G.J. Chaitin, Information, randomness and incompleteness, World Scientific, 1987

 

                                                                                                                  V.S. (1995)

 

Volver al Índice de las Recensiones del Opus Dei

Ver Índice de las notas bibliográficas del Opus Dei

Ir al INDEX del Opus Dei

Ir a Libros silenciados y Documentos internos (del Opus Dei)

Ir a la página principal