RUELLE, David
Hasard et Chaos
Ed. Odile Jacob, Paris 1991
1. Ouvrage de vulgarisation sur les domaines
scientifiques récents, dont le but est de se mettre par dessus les
spécialisation, et conduire une réflexion pluridisciplinaire. L'auteur est
professeur de physique théorique à Paris, et il est connu pour ses
contributions à la physique mathématique (physique statistique et utilisation
des attracteurs étranges, notamment).
2. Le thème de base est le hasard, et l'auteur
passe en revue tous les domaines où celui-ci est actuellement invoqué: la
théorie des jeux, le chaos déterministe des systèmes dynamiques et les essais
d'appliquer ce modèle ailleurs qu'en physique (économie, biologie), la physique
quantique, les systèmes irréversibles (l'ordre global naissant du désordre au
niveau des "individus") et la théorie de l'information (appliquée à
la complexité algorithmique, aux théorèmes d'incomplétude et à l'évolution de
la vie).
3. On peut conseiller la lecture de ce livre à des
personnes assez bien formées, car il est un bon résumé de presque tous les
débats scientifiques actuels. Cependant, ses défauts sont nombreux:
En définitive, les chapitres dignes de
considération sont ceux qui concernent le domaine de travail de l'auteur: sa
vision des systèmes dynamiques et du chaos déterministe est très intéressante. Malheureusement,
je crois qu'elle est un peu technique: il faut avoir lu d'autres ouvrages ou
reçu des cours pour pouvoir l'apprécier.
En revanche, les deux chapitres sur la mécanique
quantique sont plutôt décevants: les débats actuels ne sont nullement abordés,
et l'auteur se limite à des détails de mathématiques, intéressants en soi, mais
pratiquement sans liaison avec le reste de l'ouvrage.
Quant aux chapitres traitant d'autres domaines,
l'auteur y perd la sérénité qu'il avait montré quand il était "dans son
assiette". Malheureusement, il s'agit justement des chapitres
philosophiquement profonds: la vie, l'intelligence, la connaissance... Les
termes y sont à peine définis, les références s'appauvrissent (essentiellement,
un ouvrage par chapitre, et c'est souvent un ouvrage de vulgarisation; tandis
qu'ailleurs Ruelle cite beaucoup d'articles scientifiques "sérieux").
Typiquement, dans le chapitre "Intelligence", qui est censé être
l'aboutissement de cette réflexion sur la science, les considérations
développées sont intéressantes mais le terme "intelligence" est
défini de façon ambiguë: au début, c'est quelque chose de strictement lié au
fonctionnement "mécanique" du cerveau, c'est en somme ce que
l'intelligence artificielle imite; à la fin c'est ce qui nous permet de
comprendre le monde, c'est donc l'intelligence dans le sens intuitif que l'on
donne à ce mot.
Les mérites de ce livre résident essentiellement
dans la précision des références (Ruelle cite toujours ses sources), et dans
les notes hors-texte aux chapitres plus physiques qui, encore une fois,
n'intéressent que l'initié mais qui contiennent des développements
intéressants.
ANNEXE: résumé, chapitre par chapitre.
1. Le hasard
Introduction au livre: se mettre par dessus les
spécialisation, et conduire une réflexion philosophique pluridisciplinaire.
2. Mathématique et physique
Description rapide des deux méthodes. Les maths:
dériver des théorèmes à partir de quelques assertions de base; la longueur des
preuves, et renvoi aux chap. 22 et 23. La physique: idéalisations,
approximations; définitions opérationnelles vs. définitions rigoureuses.
3. Probabilités
Construction rapide sous les yeux du lecteur de la
théorie élémentaire des probabilités. A la recherche d'une définition
opérationnelle de celles-ci (répéter l'expérience un grand nombre de fois, ou
faire des simulations en variant quelque peu les paramètres), et surtout du
concept d'indépendance (vérifier expérimentalement que Prob(A et B) =
Prob(A)*Prob(B)).
4. Loteries et horoscopes
Application ironique des probabilités
conditionnelles et du concept d'indépendance; renvoi aux chap. 6 et 7.
5. Le déterminisme classique
Relation entre la mécanique (description de
l'évolution temporelle des systèmes physiques) et le hasard. Thèse: hasard (en
tant que paradigme de notre conception du monde) et déterminisme stricte
(citation de Laplace) ne sont pas incompatibles, le hasard pouvant intervenir
sur les conditions initiales. La thèse de René Thom sur la mécanique:
"puisque la nature de la science est de formuler des lois, toute étude
scientifique de l'évolution de l'univers débouchera nécessairement sur une
formulation déterministe" (ces lois déterministes pouvant gouverner des
distributions de probabilités, non pas forcément le système physique en soi).
Le problème du libre arbitre: thèse de
Schrödinger: le hasard n'aide pas à comprendre le libre arbitre. Raisonnement:
ce qui fait problème est notre libre arbitre, qui engage notre
responsabilité. Or, "un choix responsable, douloureux peut-être, [...] n'a
certainement pas les caractéristiques du hasard". Ici le thème de la
prédestination est amorcé. La thèse de l'auteur: "ce qui explique notre libre
arbitre, et ce qui en fait une notion utile, c'est la complexité de l'univers,
ou, plus précisément, notre propre complexité" (à remarquer que dans la
"démonstration" de cette affirmation, on identifie la sensation
de libre arbitre avec l'impossibilité de contrôler ou prédire le futur).
6. Jeux
L'utilité d'un comportement aléatoire dans une
situation compétitive: théorie des jeux et stratégies. Le théorème du minimax.
7. Dépendance sensitive des conditions initiales
Croissance exponentielle (taux constant): le
crayon en équilibre sur sa pointe. Systèmes qui dépendent de manière sensitive
des CI, quelles que soient ces CI. P.e.: les billiards avec obstacles
convexes à collisions élastiques. Idée intéressante: souvent la divergence est
telle que le modèle lui-même n'est plus adéquat.
8. Hadamard, Duhem et Poincaré
Systèmes dynamiques (càd avec évolution temporelle
déterministe); la dépendance sensitive des CI n'est pas générale. Précurseurs
du "chaos": Hadamard, flot géodésique sur des surfaces à courbure
négative; Duhem, Exemple de déduction mathématique à tout jamais
inutilisable; Poincaré, Science et méthode (exemples du gaz et de la
météorologie).
9. Turbulence: modes
Discussion du paradigme des modes; la théorie de
Landau-Hopf sur la turbulence. Histoire autobiographique: le doute sur cette
théorie (Thom et Smale: p.e., les modes ne peuvent pas décrire un système à
dépendance sensitive des CI); les articles scientifiques.
10. Turbulence: attracteurs étranges
La théorie Ruelle-Takens. Représentation géométrique
des modes (boucles dans l'espace de phase); attracteurs étranges: dimension
fractale, finie mais spectre des fréquences continu; on a toujours dépendance
sensitive des CI.
11. Le chaos: un nouveau paradigme
L'acceptation de nouvelles théories par la
communauté scientifique. Le "chaos": évolution temporelle avec
dépendance sensitive des CI. La cascade des doublements de Feigenbaum. Chaos en
chimie. La mode du chaos et ses conséquences.
12. Le chaos: conséquences
La turbulence et l'invariance d'échelle
(turbulence développée). La circulation générale de l'atmosphère; petite
histoire sur la dépendance des CI. Autres sujets d'étude: le changement de
polarité du champ magnétique terrestre (comportement chaotique pas certain);
les trous dans la ceinture d'astéroïdes. La difficulté de l'application en
biologie, économie, écologie: le manque de bonnes équations d'évolution
temporelle.
13. Economie
Oscillateurs: couplage entre modes: chaos à partir
de trois oscillateurs. L'éternel retour (le système retourne à des états
proches d'états déjà visités dans le passé) se présente pour des système
modérément complexes; pour les systèmes très complexes, on n'a pas cette
récurrence, et on a dépendance sensitive des CI; le problème se pose donc de
savoir si cette dernière est limitée par des mécanismes régulateurs ou si elle
donne lieu à des effets importants à long terme. Applications à l'économie:
niveau de développement technologique et apparition de périodicités. Analogie
économie-syst. dynamique: peu prédictive, mais quelques points d'intérêt (par
exemple, on pourrait chercher une situation d'équilibre et se trouver dans le
chaos: couplages entre les économies de différents pays!)
14. Evolutions historiques
Eternel retour vs. irréversibilité (une puce vs. cent
puces sur un damier). Hasard sur les individus, ordre sur l'ensemble.
15. Les quanta: cadre conceptuel
Quelques problèmes: les probabilités
"nouvelles" (la relation "A et B" souvent ne peut pas être
définie; Bell: application des probas traditionnelles: contradiction!), la
discussion sur la réduction du paquet d'onde.
16. Les quanta: comptage d'états
Introduction à l'entropie comme quantité de hasard
du système.
17. Entropie
Boltzmann et Gibbs: mécanique statistique;
entropie: eau chaude, eau froide et eau tiède; irréversibilité de l'ensemble et
réversibilité des lois régissant les chocs (sur ce point très intéressant,
Ruelle n'est pas très clair; mieux vaut consulter: R.P. Feynman, Cours de
physique, vol.1, chap. 46)
18. Irréversibilité
Idées préconçues sur la science qui se sont
avérées fructueuses: les atomes chez Boltzmann, les maths chez Galilée, le
meilleur des mondes chez Leibniz, l'esthétisme des loi de la nature chez
Einstein. Irréversibilité et volume dans l'espace de phase.
19. La mécanique statistique de l'équilibre
Conditions globales simples entraînent
habituellement des configurations rendues uniques par leurs caractéristiques
probabilistes.
20. L'eau bouillante et les portes de l'enfer
Le problème des changement de phase (intéressant:
le changement intervient de manière abrupte, ce n'est pas une
"rigidification" progressive des liaisons); quelques amorces
(systèmes sur un réseau: Ising; invariance d'échelle de Wilson) mais pas de
compréhension générale. Application de la mécanique statistique aux trous
noirs: rayonnement et température de Hawking.
21. Information
La longueur du message n'est pas une bonne mesure
de la quantité d'information. Idée: numéroter les messages permis: quantité
d'information = nbre de chiffres du nbre de messages permis = K*log(nbre de
messages permis); exprimée en bits (K=1/log2). Shannon: théorie de
l'information: comment transmettre un message avec efficience. Liaison entropie
(hasard) — quantité d'information: en choisissant un message, on se débarasse
de l'incertitude sur toute la classe à laquelle ce message appartient. Attention:
quantité d'information différent de signification! (exemple de la mélodie
céleste: musique créée en posant un pentagramme sur une carte du ciel, et en
marquant une note là où il y a une étoile: bcp d'information, mais ce n'est pas
forcément de la bonne musique).
22. Complexité algorithmique
Déf: un objet est complexe s'il contient de
l'information difficile à obtenir. Exemple de complexité en maths: la
complexité algorithmique. Description de la machine de Turing. Algorithmes
efficients: à temps polynomial: s'il existe C et n tq T<C(L+1)n, où T =
temps = nbre de cycles de la machine de Turing universelle, L = longueur du
message. Un problème pour lequel il n'existe pas d'algorithme polynomial est
considéré comme intraitable. On parle de problèmes NP complets et NP
difficiles, où NP signifie Nondeterministic Polynomial (car on peut
obtenir une réponse positive en temps polynomial, mais seulement si "un
oracle vous fournit le bon tuyau"). Exemples: voyageur de commerce qui
doit passer par plusieures villes sans dépasser un kilométrage alloué (facile
de tester pour chaque parcours, intraitable a priori); problème du verre de
spin (maximaliser une expression contenant des +1 et des -1), le prototype des
systèmes désordonnés.
23. Complexité et théorème de Gödel
Théorème d'incomplétude: donné un ensemble
d'axiomes non contradictoires, il y a des vraies propriétés des nombres entiers
(rappel: correspondance entiers-logique: dixième problème de Hilbert) qui ne
peuvent être déduites des axiomes. Explication intuitive avec l'information: le
paradoxe de la KC-complexité (Kolmogorov-Chaitin). La KC-complexité d'un
message est définie comme la longueur du plus petit programme d'ordinateur qui
produira le message voulu comme réponse. Chaitin a montré que des affirmations
du type "tel message a une KC-compl. au moins égale à N" sont fausses
ou indécidables (ceci équivaut au problème de l'arrêt d'une machine de Turing).
Relation avec le hasard: on peut produire, en se basant sur des propriétés des
entiers, des suites en code binaire qui donnent 0 ou 1 avec proba 1/2 à chaque
pas: ces suites, et donc les propriété des entiers qui y correspondent, sont
donc aléatoires!
24. La vrai signifiaction du sexe
Une vision de la vie en termes de théorie de
l'information: on espère que l'évolution du message est telle qu'elle
maximalise une fonction e du message même (méthode par mutation et sélection,
ou Monte-Carlo). Cette méthode risque de conduire à un maximum relatif, surtout
si le message est long, car dans ce cas soit on admet beaucoup de mutations
(donc perte de l'information initiale), soit on en admet peu (mais alors rien
n'évolue). Mais si maintenant on découpe le message en phrases A,B,C..., on
peut prévoir un mécanisme qui provoque une mutation de quelques phrases; cette
mutation ne devrait pas être catastrophique, càd que si e(A,B,...) est élevé
alors e(A*,B,...) le sera encore. Ce mécanisme s'appelle sexe. Il faut encore
mentionner une étude de Dawkins, The Selfish Gene: chaque gène vise à
assurer sa propre reproduction, ce qui entrave le processus décrit
précédemment. Conclusion: "Parce qu'il y a des régularités dans la
structure de l'univers [les phrases], et parce que la vie peut les exploiter à
son avantage, une nouvelle caratéristique de la vie est apparue lentement. C'est
ce que nous appelons l'intelligence":
25. Intelligence
Idée de Marr dans son livre Vision: notre
système visuel est structuré de manière à traiter un certain type d'information
visuelle, correspondant à une réalité physique bien définie. La vision comme
partie de l'intelligence (traitement d'information). Comparaison avec l'analyse
freudienne de l'instinct sexuel. "En mettant ensemble un instinct sexuel,
un système visuel et quelques autres mécanismes du même genre, on obtiendrait
sans doute un cerveau raisonnable pour un rat ou un singe", et l'auteur
avance l'hypothèse qu'à ce moment-là on pourrait ne pas être trop loin de
l'homme, car "notre cerveau et notre intelligence sont basés sur des
mécanismes strictement liés au problème de la survie dans un certain type
d'environnement". La capacité de faire de la science ne serait qu'une
qualité secondaire, et par ailleurs pas très performante. "Malgré ces
insuffisances, la science humaine s'est développée et nous permet d'analyser
bien plus profondément la nature des choses que nous n'aurions pu
raisonnablement l'espérer", et le chapitre termine: "Et la chose
incroyable est que nous puissions sonder les profondeurs de cet univers, et le
comprendre".
26. Epilogue: la science
Conclusion fort peu intéressante, sauf lorsque
l'auteur fait remarquer que la science a progressé différemment des autres
"domaines de la curiosité humaine, non parce que la curiosité était d'une
autre nature, mais parce que les objets et les concepts mis en cause étaient
différents".
OUVRAGES CITÉS INTÉRESSANTS pour approfondir l'un
ou l'autre thème
R. Westfall, Never at rest, Cambridge
UP, 1980: une biographie de Newton
La querelle du déterminisme, Gallimard, Paris, 1990: avec articles de
Thom, Morin, Prigogine
S. Jorna, Topics in nonlinear dynamics. A
Tribute to Sir Edward Bullard, Amer. Inst. of Physics, 1978
Anderson, Arrow, Pines, The economy as an
evolving complex system, Addison-Wesley, 1988: ouvrage paru à la suite
d'une réunion d'économistes et physiciens
R.P. Feynman, QED, Princeton UP, 1985
J.S. Bell, Speakable and unspeakable in
quantum mechanics, Cambridge UP, 1987
D. Ruelle, Statisical mechanics, rigorous
results, Benjamin, 1969
Ya G. Sinai, Theory of phase transition:
rigorous results, Pergamon, 1982
D.J. Amit, Field theory, the renormalisation
group, and critical phenomena, World Scientific, 1984
P. Billingsley, Ergodic theory and
information, John Wiley, 1965
Garey, Johnson, Computers and intractability,
Freeman, 1979: ouvrage de référence sur la complexité algorithmique
Mézard, Parisi, Virasoro, Spin glass theory
and beyond, World Scientific, 1987
G.J. Chaitin, Information, randomness and
incompleteness, World Scientific, 1987
V.S. (1995)
Volver al Índice de las Recensiones del Opus Dei
Ver Índice de las notas bibliográficas del Opus Dei
Ir a Libros silenciados y Documentos
internos (del Opus Dei)