Compte-rendu de Mathématiques et sciences de la nature ; la singularité physi... - 12 views
-
On peut présenter le champ mathématique de l'incomplétude comme résultant de la découverte selon laquelle les principes de preuve ne peuvent pas constitutivement capturer toutes les conséquences des principes de construction.
-
lucky semiosis on 30 Jun 11l'incomplétude vide la preuve
-
-
Le recours au jugement géométrique n'apparaît donc ni comme un appel à un réalisme des objets mathématiques qui seraient déjà donnés ni comme un appel à l'intuition confondue avec une introspection psychologique d'objets mathématiques qu'il suffirait d'apprendre à « voir » : il relève d'un retour des principes de construction au sein même des preuves, retour justiciable d'une analyse en termes cognitifs à laquelle il conviendra de revenir après avoir exposé le cas de la physique.
-
La proposition : « il existe des variables cachées non locales » joue alors en physique quantique, estiment les auteurs, le même rôle qu'une proposition indécidable en logique, dans la mesure où elle est vraie dans un modèle et fausse dans un autre. Une comparaison entre incomplétude logique et incomplétude quantique devient dès lors possible en suivant les trois points de la typologie dégagée par EPR : (i) aux éléments de réalité en physique correspondent les preuves constructives en logique ; (ii) à l'existence d'un principe de causalité en physique correspond la norme de l'effectivité de la preuve en logique ; (iii) à la localité des objets en physique correspond la décidabilité locale des théories en logique.
- ...24 more annotations...
-
L'idée centrale consiste à soutenir que la mise en phase des principes de construction et des principes de preuve ne résulte pas d'un acte purement intellectuel émanant d'une âme ou de son succédané profane mais d'une géométrie de gestes socialement capitalisés, à la fois linguistiquement et techniquement, ce qui a pour effet de changer leur régime temporel.
-
En tant qu'ébauche à compléter, le symbole mobilise la mémoire de l'attention collective qui l'a fait naître tout en rendant possible sa propre plasticité de par son aspect normatif et ce, même dans le cas le plus stable et le plus univoque, celui du symbole mathématique. C'est pourquoi la marque matérielle du nombre ne peut-elle devenir collectivement instituée comme faisant partie d'un répertoire technique mécaniquement exécutable que si le geste qui la constitue est entouré d'un halo de virtualité qui en fait une totalité ouverte. Aussi, à vouloir cantonner le rôle de la norme propre au symbole mathématique à la simple exécution d'un schéma intégralement pré-défini, comme c'est le cas lors de l'exécution d'un programme informatique, prend-on le risque de briser la mise en phase de ce qui relève de la construction et du sens d'une part et de ce qui relève de la preuve et de l'exécution de l'autre. Non que l'informatique, dont la puissance et l'efficacité ont révolutionné la pratique scientifique, ne soit pas en soi l'un des succès les plus patents de la deuxième moitié du vingtième siècle ; mais la thèse épistémologiquement forte des auteurs est qu'en détruisant l'architecture géométrique des déductions, son usage exclusivement formel ne permet pas de développer toute la puissance symbolique de l'informatique qui exige au contraire qu'on y réintroduise des principes de construction susceptibles d'étendre son champ phénoménal en y faisant surgir de nouveaux objets.
-
Le déterminisme prédictif - dont la figure éminente est Laplace mais qui constitue le fond épistémologique de la mathesis universalis de Newton à Einstein - suppose que tout système physique déterminé à un degré d'approximation quelconque continuera à n'importe quel moment ultérieur d'être déterminable avec une approximation du même ordre de grandeur.
-
L'exemple de l'ordinateur montre bien, cependant, que le déterminisme prédictif n'est pas le dernier mot dans la détermination de la nature de l'espace : Turing - et dans une moindre mesure, von Neumann - assumait déjà explicitement dès la fin de la seconde guerre mondiale le fait que le déterminisme prédictif écartait une dimension capitale dans cette détermination, celle de la non-linéarité des processus physiques responsables de l'élaboration des formes organisées qui dépend, elle, et de façon cruciale, de brisures de symétrie, c'est-à-dire d'une structure de l'espace géométriquement différenciée [7].
-
On voit donc que l'extension du cadre épistémologique mathématico-physique à la biologie n'est pas simplement un exercice d'école de la part des deux auteurs : il relève bien d'une nécessité propre à l'évolution des sciences de la nature et à leurs problèmes épistémologiques internes, en particulier celui de l'articulation problématique du déterminisme prédictif et du déterminisme non-prédictif auquel il faut faire appel pour rendre compte de l'idée de forme.
-
En termes de diagnostic tout d'abord, c'est bien sur le terrain de la biologie que se situe aujourd'hui la forme la plus aigue de cette incompatibilité puisque les deux points de vue y sont appliqués aux mêmes objets : tout ce qui est susceptible de s'apparenter à du codage dans le vivant relevant du déterminisme prédictif d'une part et tout ce qui a trait au développement environnemental des formes vivantes relevant déterminisme non-prédictif de l'autre.
-
L'articulation entre l'espace-temps continu du repérage géométrique externe et les variations énergétiques discrètes dépendant du système de coordonnées interne pose problème, comme en témoignent les effets de non-localité des particules quantiques identifiées à des champs de matière, effets qui défient complètement l'intuition. Le problème vient de ce que les mesures des évolutions physiques sont explicitées, de façon classique, par des nombres réels et que les évolutions sont bien, de ce fait, localement déterminées mais que ce sont des nombres complexes qui gouvernent les probabilités associées aux états quantiques discrets, et qui, de ce fait, ne se raccordent pas aux mesures continues des évolutions locales dans l'espace-temps puisque les champs de matière ne s'y réduisent pas à des singularités.
-
La fonction de régulation engage un temps de type itératif qui est celui des horloges internes propres à un individu, une espèce ou même un phylum. Il s'agit des cycles métaboliques, des battements cardiaques, des cycles de respiration, des durées de gestation et même de la durée de vie à travers tout le règne animal, qui semblent obéir à une loi d'échelle dans laquelle la durée d'un cycle se calcule en puissance ¼ de la masse de l'organisme considéré.
-
La différence capitale qui se fait jour entre la conception physique et la conception biologique du temps est donc que, dans le cas de la physique, la situation présente et future d'un système dépend exclusivement de la situation passée, et ce, même dans le cas des processus irréversibles, alors que, dans le cas biologique, intervient un tout autre régime temporel qui, loin de s'écouler selon une direction, semble plutôt actualiser des compossibles : c'est dans cette mesure que le temps est bien un observable, surplombant en quelque sorte toute transformation, qu'elle soit passée, présente ou à venir et non pas un simple paramètre qui rendrait compte d'un déroulement linéaire. Cette conception du temps permet de rendre explicite une dimension capitale de l'organisation propre au vivant : le champ des forces qui rend compte de l'apparition de formes vivantes n'est pas donné mais il est lui-même en voie d'auto-constitution.
-
il est par exemple possible de reproduire physiquement dans un champ magnétique au moyen de supraconducteurs sur un treillis l'arrangement spatial des feuilles sur la tige des plantes - selon la suite de Fibonacci, comme le veut la description phyllotaxique standard -, mais on ne donne encore, ce faisant, aucune raison de la dynamique évolutive qui a présidé à sa constitution.
-
D'une part, un argument empirique : encoder en une suite binaire la structure tridimensionnelle de toutes les protéines échangées dans les cascades post-synaptiques ou les flux biochimiques dans le système nerveux ou bien encore les déplacements de 1015 synapses dans le cerveau n'a proprement aucun sens informatique, compte tenu du nombre d'événements en jeu et sans même mentionner le problème physique de la dynamique évolutive des formes évoqué à l'instant. D'autre part, un argument physique : si le codage binaire doit aller jusqu'au niveau micro-physique, alors le niveau supposé ultime est celui de la mécanique quantique. Mais dans ce cas, on doit quitter le domaine du déterminisme prédictif et on perd, du même coup, tout le bénéfice d'une stratégie réductionniste qui fait de la détermination prédictive son idéal épistémologique.
-
c'est la dimension topologique de l'élémentaire qui doit orienter la recherche des principes transcendantaux rendant compte de l'espace-temps propre au vivant.
-
S'il y a une leçon sur l'espace et le temps que les sciences de la nature contemporaines peuvent nous apprendre, c'est bien la modernité des recherches finales du Kant de l'Opus posthumum (1804) qui retrouvait l'idée leibnizienne selon laquelle l'espace et le temps ne s'opposent pas, respectivement, comme les formes du sens externe et du sens interne mais que le partage doit dorénavant être conçu autrement : l'espace et le temps possèdent en eux-mêmes des formes intrinsèques, ce qui implique de concevoir le rapport externe / interne au sein même de l'objet, le sens externe régissant les relations entre objets et le sens interne les conditions de possibilité de l'individuation de l'objet.
-
épistémologiquement, le renouvellement de la distinction entre sens interne et sens externe fait que l'espace-temps n'apparaît plus sous l'aspect d'une intuition homogène propre aux conditions de possibilité de la détermination de l'objet en général mais qu'il relève lui-même d'une construction, variable selon le type d'outils théoriques sollicités.
-
un premier groupe d'invariants biologiques composé de deux types apparaît : analogique quand des organes différents convergent par pression de sélection vers des formes semblables ayant des fonctions identiques et homologique quand un même organe évolue dans des formes différentes mais dont l'origine commune reste pourtant reconnaissable.
-
les auteurs caractérisent tout organisme vivant à partir de quatre points de vue : le point de vue topologique fondé sur la distinction entre intérieur et extérieur ; le point de vue énergétique fondé sur la notion de métabolisme ; le point de vue informationnel fondé sur la notion de patrimoine génétique ; le point de vue que l'on pourrait qualifier d'aptatif-adaptatif fondé sur la possibilité d'une transmission de ce patrimoine tout en restant doté d'une aptitude à l'évolution.
-
Le pivot de l'arithmétisation prédictible du monde repose donc sur l'idée que l'effectivité du calcul au niveau informatique correspond à la matérialité des processus présents dans la réalité physique.
-
Et si l'on s'en tient, dans la mesure des conditions initiales, à des valeurs exactes réitérables parce que c'est ce qu'impose la discrétisation arithmétique propre à l'informatique, alors on assure une trop grande stabilité de l'évolution des systèmes physiques et on perd radicalement en intelligibilité dans la description de certains phénomènes critiques qui deviennent proprement invisibles : qu'on songe aux orbites trop régulières du système solaire reconstruit informatiquement ou même aux oscillations pour toujours identiques d'un double pendule, à partir de conditions initiales à jamais inchangées, alors qu'il s'agit en réalité d'un système chaotique.
-
Le rôle de l'informatique et des mathématiques discrètes qui en constituent l'ossature est donc bien de simuler des phénomènes physiques mais elle ne peut jouer de rôle constituant, au sens que ce terme prend en physique, dans la mesure où l'informatique ne rend pas intégralement raison des différents régimes de causalité propres à la physique.
-
Les auteurs proposent alors, pour la rendre intelligible, une schématisation dynamique composée de trois types d'éléments : des domaines-sources, qui représentent les organes mobilisables en vue d'un but ; des domaines-cibles qui sont les buts à remplir et des flèches qui représentent les modes de fonctionnement des organes en vue des buts assignés.
-
Le schéma général topologico-métrique décrit un ensemble-cible composé de domaines-cibles, tous atteints par une flèche au moins, et un ensemble-source composé de domaines-sources d'où partent au moins une flèche vers un ou plusieurs domaines-cibles (le terme d'« ensemble » n'a pas ici de signification technique pas plus que celui de « flèche », qui ne représente pas une fonction au sens mathématique du terme). Plusieurs domaines-sources peuvent contribuer à un même domaine-cible au moyen de flèches assurant des transferts ; par exemple, les deux métabolismes, oxygène et glucose, assurent la régulation du tissu musculaire du cœur par des moyens de transport différenciés, plus important dans le cas du transfert d'oxygène que dans celui du glucose (outre le nombre et la direction des flèches, leur épaisseur peut donc varier pour un même domaine-cible). Un même domaine-source peut aussi contribuer à plusieurs domaines-cibles, comme dans le cas des cellules-souches et plus généralement, dans tous les cas où des potentialités vont finir par s'exprimer au cours du développement.
-
La notion de finalité contingente peut alors être représentée comme une structure abstraite, composée d'un triplet (domaines-source, flèches, domaines-cible), munie d'une mesure indexée sur les nombres réels (rendant compte de l'épaisseur relative des flèches) et assurant une stabilité structurelle des domaines-cible (c'est-à-dire pour lesquels l'épaisseur des flèches est non nulle). Le schéma peut alors servir à décrire les grands processus dynamiques du vivant, en particulier le régime de « développement » et le régime « stationnaire » : le début du développement se caractérise par la prévalence des flèches partant d'un domaine-source vers plusieurs domaines-cible qu'elles contribuent à créer (comme dans le cas de la différenciation des tissus, ou des systèmes anatomique et physiologique) ; ces flèches maigrissent au fur et à mesure du développement tandis que commencent à prendre de l'importance les flèches partant de plusieurs domaines-source pour aboutir à un domaine-cible (établissement des fonctions). Une fois la maturité atteinte, c'est-à-dire une fois une topologie stabilisée, le vieillissement se manifeste de façon métrique par la variation de l'épaisseur des flèches. On remarque alors que les flux allant dans le sens source-cible ont principalement un caractère énergétique (transferts de matière ou d'énergie), tandis que les flux allant dans le sens cible-source ont un caractère d'information (gradients, différence de pression) rétroagissant sur la source, la direction des flèches permettant de représenter cette différence de sens.
-
Ces propositions relèvent de la science en train de se faire et elles seront, en tant que telles, soumises à discussion, réélaboration et critique, comme toutes les propositions conceptuelles nouvelles dans le cadre de l'élaboration scientifique. Sans préjuger de leur destin qui appartient à la communauté en question, ce travail de commentaire a eu pour but de participer à leur mise en circulation.