En défense du sens commun

ou comment s’affranchir de la méthode logico-déductive

lundi 8 octobre 2018, par Lyndon LaRouche

[sommaire]

Ce texte a été écrit en 1989 alors que l’auteur purgeait une peine de quinze ans de prison dans le pénitencier de Rochester aux Etats-Unis. L’incarcération de l’économiste Lyndon LaRouche faisait suite à une chasse aux sorcières menée contre lui et plusieurs de ses collaborateurs. L’ancien ministre de la Justice sous l’administration Johnson, le très respecté Ramsey Clark, raconte, qu’à sa connaissance, la condamnation de LaRouche a mobilisé les plus grands moyens de police et de justice américains, en toute mauvaise foi et aux fins d’éliminer un ennemi politique.

Cette vendetta politique a été menée en particulier par l’entourage de George Bush père ainsi que certains milieux de Wall Street. En effet, comme l’a expliqué le Wall Street Journal du19 septembre 1997, « M. LaRouche est depuis longtemps en lutte avec la classe politique américaine qui le considère extrémiste en raison de ses propositions de réforme du système financier international ». Ses propositions « extrémistes » consistent, en fait, à abandonner la politique d’usure mise en place par le Fonds monétaire international et revenir à un système monétaire similaire à celui de Bretton Woods. Dans la tradition de Franklin Delano Roosevelt, LaRouche défend également une politique ambitieuse de grands projets infrastructurels pour les pays de l’Est et du Sud.

LaRouche a été libéré sur parole en 1994, peu de temps après l’élection de Bill Clinton à la présidence.

Ibykus revisité [1]

Le 19 avril 1989. Un bon vent m’a apporté quelques dialogues de Platon dans ma cellule. Depuis la prison dans laquelle s’achève la carrière de l’homme politique, l’influence de l’homme d’Etat atteint le sommet du cours providentiel de son existence. Depuis Solon, la méthode socratique est devenue la marque des grands hommes d’Etat occidentaux. Sans la réapparition d’un leadership de ce genre, notre civilisation en péril ne survivra pas aux dernières années de ce siècle.

Les traductions de Platon auxquelles j’ai eu accès étaient dignes des falsifications de Benjamin Jowett : il s’agit de quelques dialogues issus d’une édition concoctée récemment par la collection Penguin Classics. Je voudrais soulever ici une question cruciale liée à la traduction du Théétète par Robin Waterford [2].

En page 23, Waterford traduit ainsi cet extrait :

Théétète : [...] les nombres qui peuvent être formés par la multiplication de facteurs égaux, nous les avons représentés sous la figure du carré et les avons appelés "carrés et équilatères".

Sachons faire bon usage de l’ineptie que Waterford introduit dans la note de bas de page qui accompagne ce passage : « L’un des termes de Théétète ["carré et équilatère"] est redondant [sic !]. Cette légère maladresse, ainsi que quelques autres dans son exposé, a été voulue pour suggérer le fait que l’on dépeint un écolier et non pas un mathématicien accompli. »

Ce qui nous intéresse ici, c’est la bévue mathématique de Waterford. Elle montre que l’auteur de cette traduction est incapable de saisir le fil essentiel de l’argument qui articule ce passage du dialogue.

L’élaboration d’une définition géométrique préliminaire des grandeurs irrationnelles montre qu’il existe des cas pour lesquels l’examen critique d’une traduction (en anglais, par exemple) n’a pas besoin d’avoir en référence le texte grec original. Nous allons voir que cela peut également être le cas pour les idées platoniciennes en général, et pour la notion même de méthode socratique.

Dans l’essai qui accompagne sa traduction, Waterford s’efforce surtout de discréditer la méthode socratique et les idées platoniciennes. Le masque du traducteur est tombé. En fait, d’une manière plus générale, l’empirisme britannique et l’héritage néokantien de Marbourg ont acquis, dans le monde anglophone d’aujourd’hui, un monopole de soi-disant autorité intellectuelle sur les questions académiques liées à la traduction et à l’interprétation de l’œuvre de Platon.

Le texte grec original a, à juste titre, une fonction spécifique irremplaçable. C’est une composante essentielle de l’histoire vivante de la civilisation de ce siècle et des suivants. C’est un élément central de l’ensemble de l’histoire de la Grèce classique ; c’est une caractéristique centrale de l’histoire universelle de ces deux mille cinq cents dernières années ; il joue un rôle prépondérant dans le développement de la philologie indoeuropéenne classique. Néanmoins, nous voulons, ici, nous concentrer sur des conceptions qui sont susceptibles d’une représentation intelligible complète, en prenant pour référence les éditions anglaises comme si les textes grecs n’existaient plus.

Le cas en question (la définition géométrique des irrationnels simples donnée par Théétète) est un exemple rudimentaire du sujet qui nous intéresse. Chaque fois que Platon utilise des mots pour décrire une conception qu’il pense devoir être également représentée par des méthodes de géométrie constructive, la géométrie constructive nous fournit une base rigoureuse pour critiquer la manière dont l’édition anglaise traite cet aspect du dialogue [3].

Il se trouve que toutes les idées platoniciennes s’inscrivent dans la classe des représentations intelligibles construites de façon géométrique [4]. C’est également vrai pour la méthode socratique elle-même. Les pages qui suivent vont illustrer ce point. Ces pages ne sont pas une répétition du Théétète, elles lui servent de complément d’une manière qui sera plus claire en comparant directement les deux textes.

Qu’entend-on par « sens commun » ?

Il y a peut-être quelque vérité dans le vieux dicton selon lequel l’herbe est toujours plus verte dans le jardin du voisin. Au cours de mes soixante-six années, j’ai pu constater que ceux qui vantaient le sens commun le plus haut et le plus fort se sont avérés posséder très peu de cette virtù particulière. A tel point que d’autres, autour de moi, avaient honte de défendre le sens commun sous son nom véritable.

Il semble parfois que les perspectives d’avenir du sens commun soient à peu près les mêmes que celles de la race éteinte des dodos. Nous avons sans doute ici l’une des dernières occasions à saisir pour le sauver avant que notre nation ne disparaisse à son tour. Prenons donc ouvertement la défense du sens commun sous son nom véritable. Elaborons à cette fin une définition acceptable de cette expression.

Commençons par prendre deux résolutions simples. D’abord, nous ne devons pas hésiter à écarter toute connotation de « bon sens paysan » ; l’image de nettoyer le tapis du salon avec une fourche nous confirme dans cette résolution. Il devrait être évident que nous devons aussi rejeter toute définition dont les axiomes reposent sur la notion d’une personne individuelle « suffisamment intelligente pour survivre ». Les sociétés peuvent être ou ne pas être immortelles ; aucun individu ne l’est.

Nous avons besoin d’une définition qui n’indique pas seulement les préconditions nécessaires à la survie réussie de sociétés entières. Cette définition doit également inclure la preuve qu’une certaine qualité, que posséderaient au moins certaines personnes impliquées dans le processus décisionnel de cette société, est indispensable pour la survie réussie de l’ensemble de cette société.

La survie ne constitue-t-elle pas en tant que telle la réussite ? Il existe certains états de sociétés qui peuvent ressembler à une survie momentanée mais qui s’avèrent être une étape de progrès sur un chemin menant à la ruine sur le long terme.

Quelle que soit la définition que l’on donne au « sens commun », le terme « commun » signifie qu’une société a peu de chance de parvenir à une survie réussie si le « sens commun » n’y est pas plus ou moins communément répandu. Cela n’est pas contradictoire avec ce qu’exprimaient plusieurs des pères fondateurs de notre république fédérale, en disant qu’une certaine qualité d’éducation publique universelle était indispensable pour permettre aux générations futures de préserver la liberté qu’ils venaient de gagner au prix d’un grand péril et de grandes souffrances.

Telles sont les généralités et les lignes directrices qui doivent circonscrire la recherche que nous allons entreprendre pour une définition adéquate du véritable sens commun. Nous devons d’abord nous pencher sur la question de la survie réussie d’une société dans son ensemble. C’est dans ce cadre de référence que nous devrons définir cette qualité essentielle de l’individu sans laquelle la société dans son ensemble ne pourrait pas survivre.

Survie réussie

Un nageur a été sauvé de la noyade juste avant que ses forces ne l’abandonnent. Voilà ce qu’est la survie momentanée. Est-ce un paradigme pour la survie réussie de toute une société ? Comment devons-nous faire la distinction entre survie momentanée et survie durable ?

Ce qui précède engendre, à présent, ce qui suit.

Sélectionnons un moment d’un processus continu de survie d’une société dans son ensemble. Ce processus est l’agrégation et l’interaction des décès, des arrivées à l’âge adulte, des naissances et des conceptions qui, pris ensemble, définissent une collection d’individus fonctionnant comme un tout indivisible.

Ce moment servira comme instant de départ pour un voyage continu vers le futur. Appelons « A » ce moment. Appelons B, C, D, etc., les termes de la série de chacun des moments ultérieurs sélectionnés dans ce voyage.

La survie du nageur à l’instant B augure-t-elle de la probabilité de sa survie continue à travers les étapes C, D, etc. ? Peut-être permet-elle une postérité réussie ? C’est ici que se trouve la différence sommaire entre survie momentanée et survie réussie.

Considérons ce voyage vers le futur comme s’il s’agissait d’une sorte de fonction continue de physique mathématique. C’est de manière continue que la cause engendre l’effet et que l’effet a une relation de causalité avec les effets suivants. Cette fonction s’exprime en termes d’augmentation, ou de diminution, d’une grandeur appelée potentiel de densité démographique.

Il ne s’agit pas d’un type de fonction ordinaire ou « linéaire » ; elle est « non linéaire » mais elle est néanmoins une fonction continue efficiente en termes expérimentaux de référence. Nous approfondirons ce point en temps utile, après avoir examiné les notions de densité démographique et de potentiel de densité démographique.

Densité démographique est prise ici dans son sens habituel. Elle correspond assez grossièrement au nombre moyen de personnes habitant sur un kilomètre carré de territoire. A y regarder de près, ce rapport s’avère bien plus intéressant qu’il ne semble à première vue.

Certains anthropologues nous enseignent qu’il était une fois, alors que la Terre était encore une utopie sauvage, l’humanité vivant dans un état d’innocence infantile en harmonie avec la nature, état appelé « société simple de chasse et de cueillette ». Il ne reste plus de preuve permettant d’affirmer qu’une telle société primitive ait pu exister, bien que l’on connaisse de nombreux cas de sociétés défaillantes qui se sont effondrées dans des états ressemblant à cette utopie.

Au-delà de notre simple obligation de noter l’existence de ces faits, il n’est pas pertinent ici de savoir si de tels états de société ne sont que les derniers degrés d’un processus de régression d’une culture ou s’ils peuvent également exister en tant que moments dans le développement d’une société en croissance. Pour un tel état de société, les caractéristiques démographiques et économiques qui lui sont attachées sont connues avec un assez bon degré d’estimation.

On estime que la densité démographique y est d’une personne par dix kilomètres carrés de territoire sauvage. En d’autres termes, la société utopique « de chasse et de cueillette » ressemble à une « tribu » de babouins ou de « Yahoos » (en référence aux Yahoos rencontrés par Gulliver lors de son voyage chez les Houyhnhnms. Jonathan Swift, Les Voyages de Gulliver, traduction de Jacques Pons, Gallimard, 1984). L’espérance de vie après l’enfance y est, de manière significative, inférieure à une moyenne de vingt ans. On estime que la limite supérieure de la population d’une telle utopie est environ de 10 millions de personnes pour toute la surface de la Terre.

Estimation de la population européenne entre 400 avant J.-C. et 1975.

La population humaine actuelle est cependant supérieure à 5 milliards de personnes. Si l’humanité dans son ensemble avait mis en œuvre les niveaux de technologie déjà disponibles en 1970, et cela à un degré où elle pouvait le faire, non seulement cette population serait bien plus grande aujourd’hui mais, de plus, le niveau de vie par tête serait voisin de celui de l’Amérique du nord de 1970, et la population potentielle (à ne pas confondre avec la population réelle) serait de l’ordre de 25 milliards de personnes.

L’augmentation simultanée des densités démographiques réelle et potentielle au cours des derniers millénaires est le résultat de processus continus et interdépendants de génération, de transmission et d’assimilation efficiente de progrès scientifiques et technologiques.

Cela signifie que la transformation du territoire et des pouvoirs productifs du travail, qui reflète directement l’impact causal du progrès scientifique en tant que tel, présente les qualités suivantes d’impact sur la densité démographique potentielle :

  1. La fertilité du territoire, en matière de production et d’habitations pour la population, est augmentée.
  2. La productivité physique du travail est augmentée.
  3. Le niveau de vie des ménages par tête (panier de la ménagère) est amélioré.
    La quantité de territoire nécessaire pour faire vivre en moyenne une personne diminue, alors que les niveaux de consommation physique requis et réalisés augmentent.
    Nous découvrons également que les changements suivants se produisent avec l’augmentation de la productivité physique potentielle du travail et l’augmentation du besoin de consommation par tête qui l’accompagne :
  4. La quantité d’énergie consommée par tête et par hectare augmente.
  5. La quantité d’énergie concentrée sur un secteur du domaine de travail tend à être augmentée.
    Les changements sociaux suivants sont également corrélés aux augmentations de la productivité physique :
  6. Le rapport de la population urbaine à la population rurale augmente vers ce qui semble être une limite asymptotique supérieure.
  7. Le rapport du travail utilisé dans la production de biens d’équipement, au travail utilisé dans la production de biens de consommation, augmente.
    Ces changements se produisent sous réserve que la production, par hectare et par tête, des biens du secteur rural et des biens de consommation augmente et ne diminue jamais. Ces préconditions sont associées à d’autres changements démographiques :
  8. L’âge de maturité (c’est-à-dire l’âge d’arrivée sur le marché du travail) augmente vers ce qui semble être une limite asymptotique.
  9. Il y a une tendance générale à une mutation des travailleurs engagés dans la production physique qui passent de types d’emploi à main-d’œuvre intensive à des types d’emploi à forte densité capitalistique.

Une survie réussie signifie que toutes ces préconditions soient satisfaites. Ces préconditions déterminent le lien de causalité entre les progrès technologiques et les augmentations du potentiel de densité démographique.

Considérons la série A, B, C, D, ... , Z, sous cet éclairage. Assignons à chacun de ces termes un moment spécifique du développement de l’humanité, ainsi qu’une estimation appropriée du potentiel de densité démographique.

Pour consoler les anthropologues qui nous lisent, assignons à « A » un temps – il était une fois dans la préhistoire imaginaire – où l’on trouverait son utopie de « simple chasse et cueillette ». Plus tardivement dans la série, on trouve des moments de la véritable histoire de véritables sociétés, comme Athènes en 479 av. J.-C., l’Europe occidentale au moment du recensement de Charlemagne, l’Italie en 1439, l’Angleterre en 1588, la France en 1672, la France en 1776, les Etats-Unis en 1866, les Etats-Unis en 1946, etc. Chacun des termes de cette série représente, pour l’humanité dans son ensemble, une valeur relativement plus élevée du potentiel implicite de densité démographique que celle de tous les termes précédents.

La question qui se pose de façon implicite est la suivante : tout progrès du potentiel en B est-il la cause des progrès ultérieurs se produisant en C, D, etc. ? S’il y a une certaine nécessité causale reliant l’apparition d’un potentiel relativement plus élevé au moment M, au potentiel encore plus grand au moment suivant N, et si cela est également vrai des relations causales entre N et le moment suivant O, entre O et P, P et Q, etc., alors l’augmentation du potentiel en M est une cause implicite des augmentations en N, O, P, Q, etc.

Il s’agit d’une approche sommaire d’un paradigme pour la survie réussie de toute une société.

Ce n’est pas une sorte de fonction algébrique ordinaire. Nous allons maintenant procéder à une première exploration pertinente de l’esprit de l’individu humain et trouver une preuve de la raison pour laquelle seuls des nombres géométriques non algébriques peuvent nous donner un reflet du potentiel de densité démographique tel que nous l’avons exposé jusqu’ici.

Le potentiel de densité démographique

Jusqu’au début des années 70, pratiquement aucune personne saine d’esprit et instruite selon notre tradition culturelle européenne occidentale n’aurait eu besoin de l’explication qui précède sur la corrélation causale entre le progrès scientifique et technologique, en tant que cause immédiate, et l’augmentation du potentiel de densité démographique momentané, en tant qu’effet.

Nous ne pouvons pas en rester là. La manière dont nous avons défini le potentiel de densité démographique, non pas simplement en tant que survie momentanée mais en tant que survie réussie, remet tout en question.

Avant de définir la fonction pour une survie réussie, nous devons examiner deux sujets annexes. Le premier est la signification profonde du progrès scientifique et technologique. Après cela, nous nous intéresserons au fait que toute véritable loi naturelle doit être cohérente avec la caractéristique centrale des fonctions géométriques non algébriques : l’isochronie.

Le progrès scientifique et technologique reflète une qualité de l’individu humain qui place l’humanité à part et au-dessus de toutes les autres créatures vivantes. Ce progrès entraîne l’accroissement de son potentiel de densité démographique.

En ce qui concerne le progrès technologique, c’est un simple fait qu’aucune espèce animale ne peut présenter un tel comportement. Le progrès scientifique et technologique reflète une qualité de l’individu humain qui place l’humanité à part et au-dessus de toutes les autres créatures vivantes. Chez les animaux, le type de changement de comportement que l’espèce peut générer d’elle-même pour son propre profit est délimité, pour ainsi dire, par un instinct fixe. En conséquence, le potentiel de densité démographique de l’espèce peut être changé localement, ou globalement, par des changements introduits dans l’environnement de l’animal, mais celui-ci ne peut pas augmenter volontairement ce potentiel de manière significative.

Du fait que nous examinons cette qualité unique du comportement de l’espèce humaine du point de vue d’une fonction continue de physique mathématique, il semble approprié que nous définissions le progrès scientifique comme une classe d’événements mathématiques. C’est lorsque l’on décide de faire cela que l’on commence à s’amuser.

Aucun système mathématique formel, c’est-à-dire aucune mathématique basée sur la logique déductive, ne peut représenter le plus élémentaire acte de découverte scientifique. Ainsi, la logique déductive est inutile pour représenter la vie mentale de l’être humain ; cependant, en montrant ce que la logique déductive ne peut pas faire, nous comprendrons plus clairement ce qui se passe dans tout véritable acte créateur scientifique, ou analogue, de l’esprit humain.

A première vue, la densité démographique est un simple rapport : celui du nombre calculable de personnes sur le nombre calculable de kilomètres carrés de territoire qu’elles habitent. On peut l’admirer comme un moyen de représenter certaines idées très utiles concernant la survie momentanée, à l’instant B ; mais il est inutile en tant que terme, lorsque l’on s’intéresse à la survie réussie, c’est-à-dire les valeurs imputées de chacun des instants B, C, D, etc., au moment B.

A titre d’exemple, on peut citer le système d’inéquations linéaires de John von Neumann qui semble s’appliquer avec succès pour estimer les potentiels de densité démographique d’écologies animales ; ces méthodes mathématiques sont pires qu’inutiles dans le cas d’ « écologies » humaines.

La difficulté suprême dans ces deux cas réside dans le comportement mental de l’être humain : le rôle du progrès scientifique et technologique, en tant que principe causal, pour générer l’augmentation du potentiel de densité démographique comme effet. Une orientation de progrès scientifique et technologique entraîne assurément une tendance à augmenter son potentiel de densité démographique. Nous allons examiner l’élaboration d’une représentation intelligible de cette fonction continue.

Cette fonction, dont nous cherchons ici les grandes lignes de construction, est caractéristique de l’ensemble du comportement humain qui est lié à une survie réussie. Elle ne convient pour aucun type de comportement animal.

La forme générale de cette fonction est donnée de la manière suivante :

  1. Le progrès technologique favorise une augmentation du potentiel de densité démographique.
  2. L’augmentation de potentiel de densité démographique qui en résulte favorise les conditions pour faire progresser le niveau technologique des activités courantes.
  3. Cela, s’il est réalisé, favorise à son tour une augmentation du potentiel de densité démographique.

Ce qui précède suppose que soient remplies les préconditions corrélées spécifiées plus haut.

Dans les cas où une telle fonction est continue en effet, la direction de progrès scientifique et technologique contenue dans une impulsion exercée sur l’intervalle entre A et B va définir une « trajectoire » de progrès successifs dans la technologie et dans le potentiel de densité démographique. Cette « trajectoire » représente une fonction mathématique continue en termes de taux d’accroissement du taux d’accroissement du potentiel de densité démographique. Ainsi, une valeur de cette fonction au moment B exprime aussi une valeur imputée pour les instants C, D, etc.

Elaborons maintenant une représentation intelligible de cette fonction continue. Nous allons le faire en réfutant la thèse principale des Critiques d’Emmanuel Kant.

Ce que nous allons réfuter, c’est l’erreur de Kant en ce qui concerne la possibilité de donner une représentation intelligible de ces formes d’activité mentale créatrice exprimées par une découverte fondamentale valide en physique mathématique. Le théorème néo-aristotélicien de Kant présente le mérite relatif et pervers d’être le plus exhaustivement rigoureux parmi les représentants modernes de la même opinion sur le sujet, c’est-à-dire Francis Bacon, Hobbes, Galilée, Descartes, Locke, Hume, Laplace, Cauchy, Kelvin, Maxwell, Kronecker, Bertrand Russell, etc. En réfutant le dogme de Kant sur ce point, nous exposerons donc l’erreur et l’absurdité de tous les dogmes anti-platoniciens en général.

La caractéristique centrale du dogme fallacieux de Kant, ainsi que celui de son plus important prédécesseur sur ce point, Descartes, est une foi aveugle dans la logique déductive.

Comme nous allons le montrer maintenant, la logique déductive, la base de ce qui est enseigné aujourd’hui en mathématiques dans les écoles, ne permet pas d’élaborer une représentation intelligible d’une véritable fonction non linéaire ; ainsi, la logique déductive (ainsi que toute mathématique enfermée dans son formalisme) ne permet pas de comprendre les fonctions vraiment élémentaires de l’univers physique.

Emmanuel Kant affirme que les processus créateurs qui génèrent des découvertes fondamentales valides en science physique sont intrinsèquement incompréhensibles en tant que processus.

Kant a eu au moins le mérite relatif de reconnaître l’existence de découvertes fondamentales valides en physique. Cependant, tout en reconnaissant l’existence de ce phénomène, il reconnaissait aussi que le processus par lequel de telles découvertes sont engendrées dans l’esprit humain ne peut pas être, en tant que tel, sujet d’une représentation intelligible dans le cadre de la méthode déductive.

Selon la méthode déductive, les processus mentaux créateurs n’ont pas d’existence valide dans notre Univers. Le mieux que la déduction puisse faire est de reconnaître que de tels phénomènes existent. Résumons maintenant, d’un point de vue moderne, ce qui constitue le cœur de l’argument de Kant.

Tout système idéal de logique déductive commence avec un ensemble d’axiomes et de postulats.

Les axiomes sont des théorèmes adoptés sans preuve et sur la base de l’affirmation qu’ils sont vrais de façon « auto-évidente » [self-evident]. Les postulats sont des théorèmes adoptés sans autre preuve que l’indication suivant laquelle de telles suppositions doivent être ajoutées à l’ensemble d’axiomes afin d’éliminer arbitrairement toute ambiguïté dans le système dérivé d’un ensemble combiné d’axiomes et de postulats.

Un premier niveau de théorèmes est dérivé d’un ensemble initial d’axiomes et de postulats. Un second niveau de théorèmes est à son tour déduit de la combinaison du premier niveau de théorèmes et de l’ensemble d’axiomes et de postulats. C’est ainsi que se développe l’édifice des théorèmes, niveau par niveau, sur la fondation des axiomes et postulats initiaux.

Il en résulte ce que l’on appelle un réseau de théorèmes (déductif). Tout théorème possible dans ce « réseau » est déductivement consistant avec chacun des axiomes et postulats de l’ensemble sous-jacent. Le corollaire de cela est : aucun théorème d’un réseau de théorèmes déductif véritablement consistant n’affirme rien qui ne soit déjà implicite dans l’ensemble sous-jacent d’axiomes et de postulats. Cette « propriété » est connue sous le nom de « principe d’hérédité » de tous les réseaux de théorèmes déductifs consistants.

Dans un tel contexte, considérons les implications d’une simple expérience physique décisive valide qui viendrait contredire un seul théorème du corps d’un dogme de physique-mathématique.

Une forme déductivo-formelle de mathématique domine actuellement la physique mathématique et l’enseignement. Bien que dans la pratique, aucune branche enseignée de la physique mathématique ne soit consistante comme le « principe d’hérédité » déductif exigerait qu’elle le soit, l’intention implicite de l’enseignement et de la pratique de la physique mathématique formelle est qu’une telle consistance parfaite doit prévaloir. A ce jour, dans de telles conditions, l’enseignement de la physique mathématique est principalement, dans le moins pire des cas, kantienne.

Ainsi, cet ensemble de pratiques courantes est obligé de remplir tous les critères de preuve de consistance que l’on trouve implicitement dans la méthode déductive kantienne.

Si une seule expérience physique décisive montrait qu’un théorème quelconque, défendu avec véhémence par l’école de physique mathématique actuelle, est faux, cette preuve physique impliquerait, en vertu du « principe d’hérédité » déductif, que l’ensemble d’axiomes et de postulats, sur lequel repose toute cette physique mathématique, est erroné.

Dans la pratique, lorsque se présente une telle preuve expérimentale décisive, il ne faut pas immédiatement sauter à la conclusion que le principe d’hérédité s’applique d’une manière aussi dévastatrice. Aucun dogme de physique mathématique existant (en dehors peut-être de certains très obscurs et abstraits) n’est déductivement consistant. Cette inconsistance, comme elle concerne n’importe quel théorème connu, doit d’abord être examinée avant de conclure qu’il faut procéder à une révolution scientifique.

Supposons que nous ayons pris toutes les précautions nécessaires. Supposons, par conséquent, que nous disposions d’un fait établi, d’une expérience décisive contredisant au moins l’une des affirmations inscrites dans l’ensemble d’axiomes et de postulats sous-jacent. Dans ce cas, en se servant du « langage » des ordinateurs, la correction suivrait de façon implicite les étapes décrites ci-après :

  1. L’affirmation axiomatique mise en défaut est remplacée à l’aide d’une hypothèse adéquate.
  2. Le réseau de théorèmes existant est revu en totalité, pour ainsi dire théorème par théorème, afin de répercuter ce changement sur une « base héréditaire ».
  3. Chacun de ces théorèmes révisés est soumis à une expérience décisive appropriée, au moins implicitement.
  4. Si cela ne donne pas un résultat valide, une nouvelle hypothèse corrective est nécessaire, et le processus recommence.
  5. Si la reconstruction est réussie, en vertu du critère de l’expérience décisive, la « révolution scientifique » correspondante peut être considérée comme un succès.

Une telle « révolution scientifique » peut maintenant nous permettre de caractériser les types de transformations, comme celles de A vers B, qui sont liées à l’impact causal du progrès scientifique et technologique par rapport à l’augmentation de potentiel de densité démographique qui en résulte.

Définissons l’erreur de Kant du point de vue que nous venons d’ébaucher.

Considérons une série de telles transformations scientifiques et technologiques d’une société : A → B ; B → C ; C → D ; D → ... Définissons chacune de ces transformations « axiomatiquement » par une expérience cruciale comme on l’a vu ci-dessus. Dans cette représentation, A, B, C, D, etc., sont définis comme dans le cas hypothétique du nageur vu précédemment.

Accordez-moi la ruse suivante. Supposons que chacun des moments A, B, C, D, etc., corresponde à un ensemble spécifique d’axiomes et postulats déductivo-formels, tel qu’aucun ensemble associé à n’importe quel terme de cette série ne soit déductivement consistant avec l’ensemble associé à aucun autre des moments en question.

Cette ruse va nous faire tomber dans l’erreur mais cette erreur est notre objectif immédiat. Nous apprendrons plus en faisant l’expérience de cette erreur que si nous ne l’avions pas risquée.

Supposons que, dans chacun des cas, l’ensemble d’axiomes et de postulats se trouve dans une certaine forme de correspondance avec le niveau de « l’état de l’art » scientifique et technologique du moment en question. Formellement, ce niveau scientifique et technologique peut être, ou pas, représenté différemment que par le choix corrélé de l’ensemble d’axiomes et de postulats. On suppose seulement que l’ensemble choisi décrit autant que possible le niveau réel de l’état de l’art du point de vue des réseaux de théorèmes déductifs.

L’événement qui nous intéresse, c’est lorsque se produit une transformation décisive et expérimentale qui nous oblige à remplacer l’ensemble d’axiomes et de postulats α0 par α1, α1 par α2, etc. Nous prenons ici comme convention que A, B, C, D, etc., sont tels que A → B représente un intervalle au cours duquel α0 est implicitement remplacé par α1 etc. Donc A ≡ [l’ensemble] α0, B ≡ α1, C ≡ α2, etc.

L’événement qui devient le sujet élémentaire (la « variable ») de notre fonction historique continue, c’est le processus de transformation représenté par la flèche reliant chaque paire de termes successifs (les moments). Comparons alors α0 et α1. Cherchons, de cette manière, à définir la nature de l’événement dont dépend la notion de cette fonction continue.

Aucun théorème du réseau de théorèmes A n’est consistant avec aucun théorème du réseau de théorèmes B. Il n’y a pas de continuité déductive entre les deux réseaux. Ils sont séparés par un gouffre logique dont les bords ne peuvent être reliés par aucune méthode déductive.

Dans le langage de la mathématique formelle, celle que l’on enseigne habituellement dans les écoles, ce gouffre logique portera le nom d’une simple discontinuité mathématique.

Cette discontinuité est la substance (c’est-à-dire la « matière », la « substance matérielle » de cette action qui définit cette fonction continue dont nous sommes en train d’élaborer une représentation intelligible : le taux d’accroissement du potentiel de densité démographique. Du fait qu’elle est clef pour définir la survie réussie, cette fonction est indispensable pour élaborer ensuite une véritable définition du sens commun.

Transformation continue

Cette action est la transformation du réseau A en réseau B, et ainsi de suite. Nous sommes donc obligés de représenter le problème du point de vue de la théorie de réseaux déductifs. Toute découverte fondamentale validée par une expérience décisive, en science physique par exemple, sera de cette forme, dans la mesure où celle-ci doit être reconnue de ce point de vue déductif.

Cette action, même si elle n’est considérée que de manière abstraite, est en soi une qualité qui place l’humanité absolument en dehors et au-dessus du règne animal. Considérons, une fois encore, le processus de phase que l’on a pu dégager en termes de ces étapes :

  1. Le progrès scientifique et technologique, réalisé par la génération de la discontinuité décrite ci-dessus, est la cause d’une augmentation par tête du pouvoir de la société sur l’ensemble de la nature, effet qui s’exprime par un accroissement du potentiel de densité démographique.
  2. Ainsi, une activité mentale en tant que telle, la pensée créatrice, est une cause physique puissante d’un effet physique.
  3. La transformation de la connaissance et de l’activité, dont la cause est la transformation du potentiel de densité démographique due elle-même au progrès scientifique et technologique, est à son tour la condition d’une nouvelle vague de génération, transmission et assimilation efficiente de progrès scientifique et technologique.
  4. Cela génère implicitement, à son tour, un nouvel accroissement de potentiel de densité démographique.

Et ainsi de suite.

Si nous avions tracé cette séquence de causes et d’effets en nous arrêtant à la seconde étape, cela aurait signifié que le résultat du progrès scientifique et technologique se limitait à la survie momentanée. En poursuivant avec la troisième et la quatrième étape, nous décrivons un cycle complet dans lequel le résultat est mesuré en termes de concept de survie réussie.

A la différence de l’étendue relativement fixe de potentiel de densité démographique (relative) [5] de chaque espèce et variété animales, pour lesquelles l’étendue des variations possibles semble être fixée par « instinct », l’homme transforme l’« instinct » de son espèce à volonté. Bien que notre espèce ne puisse pas transformer son « instinct » de façon arbitraire, les sociétés peuvent réaliser de tels changements en suivant des chemins légitimes et en utilisant des moyens légitimes.

Ce que nous avons jusqu’à présent considéré à ce sujet nous montre qu’à n’importe quel moment A, nous pouvons choisir, implicitement, parmi un certain nombre de différents voyages vers le futur :

 A0 → B1 → C1 → D1
    → B2 → C2 → D2
    → B3 → C3 → D3
    → ...       …       …

Et ainsi de suite. De même, n’importe quel des B, des C, des D, etc., dans ce tableau, de n’importe quel choix de série, peut devenir un nouveau point de départ, Ai, après lequel un choix quelconque parmi un certain nombre de Bi peut déterminer un nouvel embranchement, une nouvelle trajectoire vers le futur.

Cela signifie que nous considérons la transformation (A → B) comme relativement décisive, et que nous la considérons à la lumière de notre cycle en quatre étapes définissant implicitement une action de survie réussie. Le fait que la transformation (A → B) a comme effet de conditionner la cause de la transformation (B → C) est ce qui définit implicitement le caractère continu, donc la transformation continue que nous examinons ici.

De telles fonctions ne peuvent pas être comprises dans le cadre d’une physique mathématique qui serait consistante avec les principes d’une logique déductive. Résumons cette question au regard des faits que nous avons notés jusqu’à présent.

L’action qui exprime la transformation du réseau A en réseau B ne se situe que dans la discontinuité mathématique séparant absolument le domaine du réseau B du domaine déductif du réseau A. Cette discontinuité est la division qui définit le caractère discret de B par rapport à A. Cependant, cette action que constitue la transformation ne peut être représentée de façon intelligible par aucune forme de logique déductive.

Pour s’assurer que ce qui devrait être évident le soit véritablement, nous ajouterons ce qui suit. Pour être compris dans un schéma déductif quelconque, le sujet en question doit être défini sous la forme d’un théorème consistant dans un réseau de théorèmes déductif. Or, par définition – par construction – il n’existe aucun réseau de théorèmes déductif qui puisse subsumer la discontinuité en tant que proposition de théorème consistante, sauf pour affirmer, comme Kant l’a fait, l’incompréhensibilité de la discontinuité dans un cadre déductif.

Le sujet principal des Critiques de Kant se résume à affirmer que les processus créateurs qui génèrent des découvertes fondamentales valides en science physique sont intrinsèquement incompréhensibles en tant que processus. Il montre que cela est vrai pour toute analyse déductive et nie la possibilité d’élaborer toutes autres représentations intelligibles que la déduction.

A cet effet, il démarre son argument en concédant le fait que la découverte créatrice existe. Il reconnaît que de telles découvertes dans les sciences physiques sont des faits rationnellement compréhensibles, mais seulement après qu’elles se soient produites – a posteriori. Ainsi, il aurait concédé a posteriori que le réseau B est le successeur du réseau A. Il se serait forcé à reconnaître que B est analytiquement distinct de A. De même, il se serait forcé à reconnaître que, du point de vue de la théorie de réseaux déductifs, B est partout inconsistant déductivement avec A.

De la même manière, la méthode kantienne est obligée de reconnaître l’existence d’une discontinuité en tant que caractéristique de cette transformation qui génère B à partir de A. Cependant, bien que la méthode de Kant puisse reconnaître l’existence de la discontinuité en tant que telle, elle ne peut la reconnaître que comme un abîme sans fond dans l’étendue de l’espace logico-déductif, un gouffre dont les bords ne peuvent être reliés mais seulement franchis d’un bond, par intuition, si toutefois il se trouve quelqu’un capable de le faire. La méthode kantienne ne peut pas élaborer une représentation intelligible de cet abîme apparent.

Considérons cette question dans un autre cadre de référence.

Au mieux, l’analyse déductive peut reconnaître l’existence de la discontinuité en tant que forme mais non en tant que substance. Elle peut reconnaître l’existence de la discontinuité dans le sens où l’on reconnaît une ligne de longueur indéfinie séparant deux aires générales d’une surface plane, ou une surface enveloppant un volume d’espace, empêchant ainsi l’espace intérieur de trouver une continuité avec le volume de l’espace extérieur. Dans la mesure où la déduction limite la notion de « matière » à des particules discrètes (des singularités délimitées) dans un espace vide et un temps vide, elle ne peut pas tolérer que l’on attribue les qualités de matière, mis à part le caractère discret lui-même (la forme), à une discontinuité.

Axiomatiquement, l’analyse reconnaît les points, les lignes, les surfaces, les solides et les hypersolides comme des singularités, et reconnaît que la discontinuité est une propriété essentielle de la singularité. Cependant, axiomatiquement, la pondérabilité n’est pas permise pour le point, la ligne ou la surface elle-même, etc.

Toutefois, comme nous l’avons indiqué, la singularité exprimée par la discontinuité de (A → B) est l’action efficiente au moyen de laquelle le réseau A est transformé en réseau B. Cette transformation, ainsi décrite, n’est autre que l’expression déductive de l’action du progrès scientifique et technologique. L’effet de cette action, en tant que cause, est une augmentation du potentiel de densité démographique de la société. Laquelle est un effet très pondérable ; le progrès scientifique et technologique est une « force » très pondérable ; la transformation qui engendre la force du progrès, est une « force » physiquement efficiente.

Partant de là, tout ce qui suit dépend de notre compréhension du type de discontinuité mathématique que nous avons identifié. Nous devons résoudre, étape par étape, les questions difficiles concernant la nature de son existence, et la possibilité d’une représentation intelligible de cette existence.

On pourrait penser que la discontinuité suggère quelque chose qui n’a pas d’existence, dans le sens où l’on pense habituellement la notion d’existence.

Par exemple, l’idée que deux objets diffèrent n’est pas en soi une existence. De même, l’idée simple selon laquelle un objet fini cesse de s’étendre au-delà de ses limites extérieures n’est pas non plus une existence distincte. Attribuer une existence à de tels objets serait du même ordre que de dire : « J’emmène avec moi ma non-femme pour une promenade, afin de me promener tout seul » ; de telles phrases ont beaucoup de sens pour un véritable logicien mais pas pour une personne ayant un véritable sens commun.

Cependant, si une limite a une forme distincte, cette forme représente un certain type d’existence pour cette limite. Cette forme peut être négative, dans le sens d’une délimitation imposée de l’extérieur, ou positive, dans le sens d’une limite auto générée.

Considérons maintenant la notion d’existence matérielle. Il serait absurde d’attribuer la qualité de matière à n’importe quelle propriété exprimée autre qu’un agent causal efficient. Cela suggère, du fait que la discontinuité est la cause de la transformation du réseau A en réseau B, que la discontinuité est un agent efficient et, en conséquence, matériel.

Avant de pouvoir exploiter ces observations concernant l’existence, nous devons aborder une seconde strate de questions.

En faisant ici référence à une forme distincte, nous soulevons un problème : comment définissons-nous cette forme en tant que « distincte » ? Nos idées sur les « formes distinctes » conduisent à deux sous-classes. La première sous-classe est celle des formes que nous pouvons reproduire par l’usage d’un principe cohérent de construction. Cette construction d’une forme observée est une représentation intelligible de cette forme. Le caractère distinct démontré au moyen d’une telle représentation intelligible génère une sous-classe générale des formes distinctes.

La seconde sous-classe de formes distinctes comprend ces exemples qui semblent défier toute forme adéquate de représentation intelligible de ce type. Bernhard Riemann parle de telles formes comme exprimant une fonction arbitraire [6].

Néanmoins, les formes de la deuxième classe sont implicitement compréhensibles. Si nous tentons de les reproduire par construction, nous créons des représentations intelligibles que l’on peut qualifier de « in extremis ». La différence entre de telles représentations « in extremis » et la « courbe » apparemment arbitraire peut être quantifiée par un nombre distinct de singularités (discontinuités) pour chacune des classes considérées. Cette nouvelle sorte d’intelligibilité de marges de différence constitue un type particulier de représentation intelligible, suffisant pour faciliter la reconnaissance.

Si nous trouvons dans l’Univers, hors de nos propres conjectures, la forme apparemment arbitraire, nous pouvons être certains que, tôt ou tard, une représentation intelligible sera construite.

Le second aspect concernant l’existence est que l’on associe substance à « matière ». C’est la question de la substantialité hypothétique des discontinuités (singularités) dans les fonctions de transformation implicites dans (A → B), (B → C), etc., qui concerne au plus haut point la définition stricte de la survie réussie et, par là, du véritable sens commun. Intéressons-nous maintenant à la question de substantialité.

Action circulaire et maximum-minimum

A ce stade, nous devons prendre un détour. A partir du moment où nous soutenons, comme nous allons le faire, que le rôle du progrès scientifique et technologique, en tant que cause efficiente, définit la fonction de transformation (A → B) comme existante aussi bien en tant que forme que substance, nous nous exposons à déclencher hurlements, jappements et grognements dans les chenils du formalisme déductif. Cela nous oblige à aborder brièvement un chapitre de l’histoire géométrique de la physique mathématique moderne.

Voici donc ce qui motive spécifiquement ce détour.

Pour être qualifiée non seulement d’existence formelle mais aussi d’existence ontologique, une singularité doit satisfaire à certaines conditions élémentaires. Tout d’abord, son existence doit être une cause efficiente d’un changement d’état dans un processus physique.

Considérons l’aspect le plus simple de notre ébauche de fonction pour l’augmentation du potentiel de densité démographique, la transformation élémentaire locale T(A → B) pour laquelle :

  1. T : désigne arbitrairement une fonction de transformation, implicitement une fonction continue d’un certain type.
  2. A : représente le taux d’accroissement du potentiel de densité démographique sur lequel s’exerce la transformation.
  3.  : représente la transformation.
  4. B : représente le taux d’accroissement du potentiel de densité démographique réalisé par la transformation de A.

est représentée, du point de vue formel (déductif), comme une discontinuité mathématique (logique) et que nous allons désormais qualifier principalement par un terme plus général que discontinuité : singularité. Cette singularité (→) est la cause efficiente de la transformation du taux d’accroissement du potentiel de densité démographique B - A.

Jusque-là, ça va. Enfin, ça semble être le cas, jusqu’à ce que nous allions au-delà de ce que nous avons dit concernant ce contexte immédiat. A partir du moment où nous voulons être cohérent avec ce qui précède au sujet de la substantialité inhérente de notre singularité, nous devons implicitement rejeter les représentations de matière, d’espace et de temps conçues par Galilée, Descartes, Newton, etc., pour les remplacer par la notion d’espace-temps physique de Kepler, Leibniz et Riemann.

Du point de vue de la géométrie euclidienne ou de l’arithmétique déductive (de Kronecker) présente dans les manuels scolaires, la correction semble être impossible. Nous sommes obligés de considérer une géométrie différente, une géométrie dite constructive ou véritable géométrie non euclidienne. Afin de réorganiser les éléments en vue d’un examen critique, considérons le bref historique qui suit.

La période de l’histoire de l’Europe depuis la mort de l’empereur Frédéric II en 1250 jusqu’au début de la Grande Peste noire représente, en un siècle, le plus brutal effondrement vers un âge des ténèbres de toute l’histoire connue de ce continent. La population a été réduite de moitié, et les niveaux de productivité ainsi que les niveaux culturels et moraux ont atteint des profondeurs épouvantables en comparaison à la première moitié du XIIIe siècle.

L’héritage augustinien, que l’on retrouve ancré dans le projet de Dante Alighieri, a conduit à la recréation de l’Eglise chrétienne et à la vie laïque puis à la Renaissance du XVe siècle. C’est à cette Renaissance que nous devons l’établissement et les premiers développements fructueux de la science physique moderne.

Bien que Brunelleschi, Toscanelli, Alberti, Léonard de Vinci et d’autres aient fait des contributions indispensables à différents niveaux, c’est l’apport fondamental du cardinal Nicolas de Cues, avec notamment sa De Docta Ignorantia (Nicolas de Cusa, De la docte ignorance, Ed. de la Maisnie, 1979), qui a rendu possible l’existence d’une physique mathématique complète.

Lors des deux premiers siècles pendant lesquels émergeait la physique mathématique, la méthode déductive n’a pratiquement joué aucun rôle. L’élaboration d’une physique mathématique complète a presque été achevée par Johannes Kepler, avant que ne soit connu le premier déductionniste notable : Galilée. Des déductionnistes tels que Galilée, Descartes, Newton et Boyle n’ont presque rien apporté de valable qui n’ait déjà été réalisé, en mieux, par des savants tels que Kepler, Gilbert, Desargues, Fermat, Pascal, Huygens et Leibniz.

C’est ainsi que Newton a produit une pseudo version incompétente de calcul infinitésimal environ onze ans après que Leibniz ait présenté le premier exposé détaillé d’un calcul différentiel à son imprimeur de Paris (1676). C’est ainsi que la gravitation de Newton n’a été qu’une pâle copie de la découverte antécédente de Kepler, réécrivant la formulation de Kepler à sa manière. Son travail ne vaut rien, tout comme celui de Francis Bacon.

La découverte capitale du Cusain fut celle du principe « maximum-minimum », duquel découlent par exemple le principe isopérimétrique de la topologie ainsi que le principe de moindre action de Leibniz. Ce principe « maximum-minimum » a libéré la géométrie et la physique de tout axiome et postulat ainsi que de la méthode déductive. C’est la seule définition exprimant une géométrie non euclidienne.

Figure 1. L’action circulaire est ce qui permet de contenir la plus grande surface (maximum) pour le plus petit périmètre donné (minimum). Ce principe isopérimétrique découle du principe maximum-minimum. Ce qui importe ici, c’est l’action circulaire et non le cercle en tant que tel, celui-ci n’étant qu’une image de cette action.

Ce principe maximum-minimum, appliqué à la question de cause et d’effet, correspond par exemple, à l’action minimale (périmétrique) générant l’aire (ou le volume) maximale relative en tant que travail accompli (généré) par cette action. Plutôt que de dire : « Cela revient à montrer que le cercle est la seule forme auto évidente en topologie », contentons-nous de dire que l’action circulaire exprime l’action minimale et que l’aire circulaire exprime (positivement) le travail maximal. Le cercle a cependant une signification particulière. Celle-ci ne fait pas intervenir des idées euclidiennes ou quasi euclidiennes mais seulement des idées topologiques. Le cercle est la base permettant d’introduire la notion de quantité dans l’espace-temps physique. La période d’un cycle de l’action minimale générant le travail effectué est la première étape vers la quantification de l’espace-temps physique.

Nous devons également relier ces quelques points au potentiel de densité démographique.

Si l’« action circulaire » est la seule action élémentaire évidente en soi dans l’espace-temps physique, alors l’action relève de la forme de l’action circulaire agissant réciproquement sur l’action circulaire dans tout intervalle arbitrairement petit de chaque action : c’est l’action circulaire multiplement connexe.

Ainsi, une représentation intelligible de la ligne droite est la génération de son existence par une action circulaire multiplement connexe. Il en est de même pour un point. Les points et les lignes droites ont donc des représentations intelligibles construites de leur existence ; aucun des deux n’a d’existence axiomatique « auto-évidente ».

Tous les axiomes et postulats euclidiens disparaissent de cette manière, et avec eux la synthèse déductive. Seule subsiste la construction réalisée selon le principe « maximum-minimum ».

L’interprétation de l’Univers physique dans sa totalité peut être accomplie implicitement à partir de « rien d’autre » que la preuve du principe « maximum-minimum ». Cela n’a jamais été – et bien entendu ne sera jamais – achevé par l’humanité mortelle. De plus, tout ce que l’homme élabore ainsi, dans la mesure où cela approche ce but inaccessible, constitue une représentation intelligible de cet Univers décrit de manière incomplète. Voilà implicitement la tâche et la nature de la véritable science physique ; voilà les limitations de ce qui peut être accompli.

Nous nous contenterons pour l’instant de souligner quelques caractères saillants. Nous les présentons comme des étapes successives pour affiner notre approche.

Imaginons que nous ne partons de rien d’autre que de l’« action circulaire » telle que le principe maximum-minimum définit cette action. Aucune forme d’existence « auto-évidente » n’est supposée, que ce soit sous couvert d’axiomes ou de postulats, ou d’une quelconque autre manière. De même, toute existence axiomatique d’un système de dénombrement est prohibée ; l’existence de nombres et de théorie arithmétique ne doit être dérivée que par construction géométrique, par aucun autre moyen direct ou annexe.

A partir de l’« action circulaire multiplement connexe », nous générons l’existence de « points » et de « lignes droites ». Poursuivant à partir de là, toutes les formes associées à la géométrie euclidienne sont construites comme représentations intelligibles, sans tolérer d’axiomes, de postulats, de méthodes déductives ou quelque autre moyen que ce soit, mis à part un principe de construction en accord avec le principe maximum-minimum de Nicolas de Cues.

Figure 2. L’action circulaire suivant l’axe du temps T.

Nous pouvons également construire une seconde classe d’existences objectives, les cycloïdes, la courbure négative générée par l’action circulaire appliquée sur des objets tels que des lignes droites et des sections coniques. Ces cycloïdes, et leur relation au système de développées et de développantes, définissent ce que l’on appelle les fonctions non algébriques, dont le principe déterminant des véritables lois physiques, l’isochronie, est un exemple.

Il faut préciser que nous sommes ici en présence d’une autre sorte de « principe d’hérédité » que celle qui est caractéristique des réseaux de théorèmes déductifs. Ici, le « principe d’hérédité » est le principe de maximum-minimum du Cusain, exprimé comme un pur principe de construction géométrique-physique.

Figure 3. Quand l’action circulaire suivant l’axe du temps est en croissance, on obtient une action spirale autosimilaire.

La phase suivante d’élaboration d’une géométrie physique est l’élaboration de l’action circulaire en tant qu’action spirale auto similaire (FIGURES 1, 2, 3 et 4). Cette généralisation, l’action spirale auto similaire, devient intéressante à partir du moment où l’on prend en compte le fait qu’en matière d’espace-temps physique, on a affaire à l’action spirale auto similaire multiplement connexe.

L’action spirale auto similaire multiplement connexe a comme particularité pertinente de générer des discontinuités mathématiques (des singularités). Il s’agit de la caractéristique du domaine complexe de Gauss-Riemann, dont la représentation intelligible est sa construction, au moyen de l’action spirale auto similaire multiplement connexe, selon le principe maximum-minimum de géométrie constructive.

Figure 4. Le double cône, tel qu’il est généré par une action spirale autosimilaire en directions opposées.

Cela nous conduit directement à la question ontologique cruciale qui nous intéresse : l’efficience physique de la singularité comme caractéristique de la transformation (A → B).

Toute une classe de fonctions continues non linéaires, pour lesquelles il est impossible de fournir une représentation intelligible avec moins de moyens, peut être représentée du point de vue du domaine complexe de Gauss-Riemann compris comme une expression de la géométrie synthétique non euclidienne [7].

Cette solution peut être caractérisée, avec certaines limitations, par la fonction riemannienne de surface. Ainsi, de telles fonctions continues non linéaires peuvent être représentées de manière intelligible en tant que fonctions continues (FIGURE 5).

Figure 5. Modèle de fonction riemanienne de surface. De gauche à droite, surface simplement connexe, surface doublement connexe, surface triplement connexe.

La question que nous venons de présenter de manière très sommaire nous conduit à un point déterminant. L’idée qui domine dans les écoles, selon laquelle la science moderne commence avec Francis Bacon, Galilée, Descartes et Newton, est une idée fausse. De plus, lorsque certaines contributions de Léonard de Vinci, Kepler, Gilbert, Huygens, Leibniz, Gauss ou Riemann sont malgré tout admises, ce n’est que d’un point de vue déductif. Ainsi, les cours de mathématiques répandent l’erreur selon laquelle la mathématique du formalisme déductif serait le seul langage de la physique mathématique.

Ici encore, nous devons insister sur le fait que la littérature de la science physique moderne se divise en deux camps. Le premier camp, qui a fondé la science physique moderne avec comme point de référence Platon et Archimède, est l’école de Nicolas de Cues, Léonard de Vinci, Kepler, Leibniz, Monge, Gauss et Riemann, reposant sur le « principe d’hérédité » de la géométrie physique synthétique. Le second camp, qui a envahi le domaine de la science physique depuis le XVIIe siècle, soit environ deux siècles plus tard, repose sur le « principe d’hérédité » des réseaux de théorèmes déductifs.

Bien que la littérature des deux camps semble souvent coïncider, un examen plus approfondi met en évidence un gouffre infranchissable entre les deux. Nous allons maintenant en examiner les conséquences.

Entropie et néguentropie*

[* L’auteur utilise aujourd’hui plutôt le terme d’« anti-entropie », NdT.]

Nous avons examiné plus haut certaines caractéristiques des séries, respectivement inconsistantes, de réseaux de théorèmes déductifs, désignées par leurs moments associés A, B, C, D, etc. Nous avons qualifié ces réseaux de théorèmes déductifs de discrets (finis), en vertu du fait que chacun d’entre eux est délimité, par rapport aux précédents et aux suivants, par un obstacle que l’on ne peut déductivement « franchir ». Nous avons identifié cet obstacle comme étant de la forme d’une discontinuité déductive (mathématique).

Nous avons ensuite introduit un terme plus général – la singularité – qui subsume la discontinuité mathématique formelle, celle-ci étant un cas particulier de la classe générale des singularités.

Cela étant posé, nous allons maintenant nous intéresser à une autre sous-classe de singularités, le gouffre « infranchissable », mais non insurmontable, qui sépare deux « principes d’hérédité » : le principe de la déduction en général et le principe de la géométrie constructive (c’est-à-dire la véritable géométrie non euclidienne), ce dernier étant conforme au principe maximum-minimum de Nicolas de Cues [8].

Il nous faut maintenant examiner les similitudes apparentes et les différences qualitatives entre ce dernier principe, l’ordre supérieur de singularités constructives, et le précédent, les ordres déductifs inférieurs.

Considérons tout d’abord ce qui distingue les deux espèces différentes de réseaux de théorèmes dans la manière dont elles sont séparées par des singularités.

Dans les cas déductifs, les discontinuités séparant des réseaux de théorèmes différents sont formellement des « gouffres dont on ne peut relier les bords ».

La géométrie physique constructive est un domaine subsumant des réseaux de théorèmes relativement distincts. Par exemple :

  1. La géométrie synthétique élémentaire ébauchée par Jacob Steiner : c’est-à-dire, essentiellement, le champ de la géométrie euclidienne déductive « redéfini » d’une manière constructive, non euclidienne.
  2. Une géométrie synthétique élémentaire avancée faisant appel au principe maximum-minimum en termes de principes isopérimétriques multiplement connexes.
  3. Une géométrie synthétique élémentaire avancée comprenant la génération de cycloïdes, et de relations entre cycloïdes en termes de développées, développantes et d’enveloppes leibniziennes et mongiennes.
  4. Une géométrie synthétique avancée, reposant sur l’action spirale auto-similaire multiplement connexe, le domaine de Gauss, Dirichlet, Weierstrass, Riemann, etc. C’est le domaine complexe de la fonction riemannienne.
  5. La géométrie synthétique physique plus avancée du domaine complexe qui remplace une fonction riemannienne par une fonction de surface de Riemann-Beltrami. Celle-ci prend en compte les implications profondes de la courbure non algébrique de l’espace-temps physique. Eugenio Beltrami, le collaborateur de Riemann, avait en effet expliqué qu’il fallait une extension correctrice, la courbure négative, pour une version plus adéquate de la fonction riemannienne.

Aucune consistance réciproque n’est possible entre deux réseaux de théorèmes déductifs A, B, C, D, etc. Deux singularités séparées par un gouffre ne peuvent pas être « reliées ». Cette difficulté disparaît – devient surmontable – dans le domaine de construction conformément au principe maximum-minimum.

A gauche, étude analytique de la surface enveloppe engendrée par une sphère dont le centre parcourt une courbe plane donnée. Planche tirée des cours de Gaspard Monge. A droite, pseudosphère hyperbolique. Modèle d’Eugenio Beltrami.

Tout d’abord, la différence entre n’importe lequel de ces modes et son successeur immédiat est l’acte d’intégration géométrique physique : l’ajout d’un « degré de liberté », d’une « dimension », à la forme dans laquelle l’action génératrice élémentaire est représentée. Ainsi, la singularité est parfaitement définie mais on peut la relier.

Ensuite, le point de vue de la géométrie synthétique nous permet de relier les discontinuités formelles séparant A, B, C, D, etc., grâce à la méthode découlant de la fonction riemannienne, alors que la méthode déductive ne le peut pas. Cette relation peut être illustrée par la projection élémentaire (riemannienne) stéréographique conforme, entre un plan dans un mode euclidien et une sphère dans un mode constructif.

Cela nous permet alors de procéder de la manière suivante.

Cela nous conduit à un objectif intermédiaire déterminant dans notre recherche d’une véritable définition moderne du sens commun. Il s’agit de l’opposition entre entropie et entropie négative (néguentropie). Dans le problème que nous allons soulever, nous devons dénoncer le programme d’enseignement des mathématiques d’avoir adopté le modèle d’Isaac Newton.

Newton avait averti ses lecteurs qu’il avait intégré dans sa physique mathématique une vision totalement absurde de l’Univers. Cette absurdité est ce que l’on désigne aujourd’hui dans le programme universitaire sous le nom d’« entropie universelle » ou seconde loi de la thermodynamique. Newton avait averti ses lecteurs qu’il est absurde de représenter notre Univers comme s’arrêtant à la manière du ressort d’une horloge mécanique. Il expliquait que la source de cette idée absurde en physique ne provenait pas d’une preuve expérimentale ; elle provenait du type de mathématique qu’il avait décidé d’utiliser.

Les défenseurs ultérieurs de l’« entropie universelle » tels que Kelvin, Maxwell et Boltzmann, étaient des admirateurs de Newton mais, à l’évidence, étaient moins intelligents ou moins honnêtes que ce dernier.

L’idée d’entropie universelle est inhérente à l’utilisation d’un quelconque choix de réseau de théorèmes déductif, en tant que base pour tenter de construire une représentation intelligible des processus physiques. C’est ainsi que tous ceux qui, comme Galilée, Descartes, Newton, Laplace, Cauchy, Clausius, Kelvin, Maxwell, Boltzmann, etc., ont adopté une mathématique déductive formelle comme base d’élaboration et d’interprétation expérimentales, semblent mettre en évidence une entropie universelle dans les processus physiques. Ceux qui, comme Nicolas de Cues, Léonard de Vinci, Kepler, Leibniz, Monge, Gauss et Riemann, ont au contraire adopté la méthode constructive, nous présentent un Univers dominé et imprégné par la néguentropie universelle.

Tant que l’on s’imagine qu’il n’existe qu’une seule sorte de mathématique, la déductive, il est presque impossible de voir quelles sont les implications ontologiques inhérentes à chacune des deux mathématiques. Ce n’est qu’après avoir saisi quelques-unes des différences fondamentales entre les méthodes déductive et constructive que l’on peut comprendre les observations de Leibniz au sujet de l’avertissement de Newton mentionné ci-dessus [9]. Voilà ce sujet mis en place dans notre réflexion.

Considérons deux aspects que l’on retrouve dans toute tentative de construire une physique mathématique selon le principe d’un réseau de théorèmes déductif quelconque.

La déduction commence par la supposition axiomatique selon laquelle l’existence du point idéal est évidente en soi, et n’est pas sujette à l’analyse. Cela conduit cependant à l’absurdité du point matériel qui, s’il n’a aucune masse, représente en revanche une densité de masse infinie par centimètre cube.

Dans la méthode constructive, le point ne nous conduit pas à un paradoxe. Il est créé et non évident en soi ; il est engendré par moindre action multiplement connexe.

Dans la physique déductive, le point matériel, ou la propagation le long d’une ligne « droite » auto-évidente, est la supposition minimale dans la forme de moindre action. Avec cette supposition, la physique devient une sorte de parodie idéologique de la géométrie déductive euclidienne, comme la méthode analytique de Descartes en est une illustration. Dans la physique constructive du Cusain et de ses successeurs, on a dès le départ un espace-temps physique non euclidien.

Pour la même raison, toute physique mathématique reposant sur le modèle des réseaux de théorèmes déductifs tend vers une représentation idéale sous la forme de solutions à un système d’inéquations linéaires, comme celles que John von Neumann a proposées de façon incompétente en économie [10]. En fait, la méthode déductive interdit la construction d’une représentation intelligible d’un processus continu non linéaire, processus du même type que celui représenté de manière plus ou moins adéquate par la fonction riemannienne.

Cela suffit pour affirmer un point : la méthode déductive impose à la physique mathématique un ensemble de suppositions ontologiques. Si nous soumettons les mêmes faits expérimentaux à la méthode constructive, nous aurons à la place une autre image ontologique. D’où l’avertissement de Newton : l’utilisation de la méthode déductive impose certaines suppositions ontologiques linéaires à la physique mathématique. L’idée d’entropie universelle n’est rien de plus qu’une autre manière d’énoncer les suppositions ontologiques de la méthode déductive.

Définir le type de fonction continue pour une survie réussie requiert un examen plus approfondi des fonctions reposant sur la néguentropie universelle. Nous allons maintenant nous concentrer sur la néguentropie universelle en tant que telle. Commençons par un survol rapide de l’histoire moderne de cette question.

La section d’or

L’idée de néguentropie universelle en tant que trait caractéristique des fonctions mathématiques (constructives géométriques) remonte aux débuts de la science physique moderne en Italie, au cours de la première moitié du XVe siècle. La méthode scientifique requise a été élaborée par Nicolas de Cues, comme nous l’avons déjà mentionné. Le travail du Cusain, ainsi que celui de Léonard de Vinci, ont directement conduit à la première élaboration d’une physique mathématique complète par Kepler. La question de néguentropie universelle est inséparable de celle de section d’or, comme on peut le voir dans la Divina Proportione de Luca Pacioli, et chez Kepler ensuite.

La relation entre l’idée de néguentropie universelle et celle de section d’or a été rendue possible quand le Cusain a élaboré, initialement dans son De Docta Ignorantia, de nouvelles fondations pour la physique mathématique : le principe maximum-minimum a servi de base pour une véritable géométrie physique constructive non euclidienne.

Comme nous l’avons indiqué dans le chapitre précédent, c’est notre connaissance de l’existence d’une méthode totalement opposée à la déductive qui nous encourage à découvrir la qualité axiomatique des suppositions ontologiques contenues dans la méthode déductive. Ainsi, nous sommes également capables de reconnaître les implications ontologiques élémentaires de la géométrie physique constructive. Elle nous permet donc de penser à la science comme un tout, d’une manière nouvelle, plus profonde, plus complète et bien plus efficiente.

Passons donc aux implications modernes de la section d’or.

Le Cusain avait déjà reconnu la caractéristique ontologique centrale qui découle de son principe maximum-minimum. Il associait sa méthode à sa vision d’un Univers noétique caractérisé par une évolution vers le progrès. Par ailleurs, ses travaux sur les fondements d’une science physique moderne ont rendu possibles ceux de ses successeurs directs tels que Léonard de Vinci, Kepler et Leibniz.

A partir du moment où nous admettons que chaque type de méthode mathématique mutuellement inconsistante possède un ensemble inhérent et exclusif de qualité axiomatique de suppositions ontologiques, nous comprenons que ce caractère exclusif lui est universel (« héréditaire »). Cet aspect exclusif est par ailleurs ce que l’on appelle le type spécifique de caractère auto-délimité de l’Univers physique, implicite dans chacun des types spécifiques de méthode mathématique choisie.

Dès que l’on commence à examiner la mathématique comme une physique implicite tout en gardant ce qui précède à l’esprit, nous pouvons considérer la mathématique elle-même d’un nouveau point de vue.

A titre d’exemple, regardons rapidement la question des nombres premiers. Il y a deux manières de voir ce phénomène : l’une déductive, l’autre basée sur la géométrie constructive.

Le point de vue scolaire et futile est celui, déductif, de la foi cabalistique de Léopold Kronecker dans l’auto-évidence magique du comptage des nombres. Avec le point de vue déductif, la recherche sur les nombres premiers est entraînée vers la quête, sans espoir, de la fin inexistante du labyrinthe orphique de la théorie des nombres.

A l’opposé, l’approche géométrique constructive, mise en œuvre successivement par Leonhard Euler, Lejeune-Dirichlet et Riemann, débouche sur la fonction Euler-Dirichlet-Riemann pour déterminer la densité de nombres premiers dans un intervalle. Les déductionnistes, obligés de reconnaître la réussite de la fonction riemannienne, ignorent les moyens par lesquels cette fonction a été construite mais utilisent, par contre, des ordinateurs pour éprouver la fonction riemannienne selon les critères déductifs de la théorie des nombres. Ces déductionnistes ont réussi à apprendre comment échapper à la compréhension de quoi que ce soit de fondamental en matière de méthode scientifique !

Riemann montre que la détermination du « caractère premier » de ces nombres appartient au domaine complexe de Gauss-Riemann qui est construit sur la base de l’action spirale auto-similaire multiplement connexe.

De même, nous avons d’autres formes de phénomènes, possédant cette qualité expérimentale fondamentale, qui mettent en évidence les incapacités axiomatiques de la méthode déductive. Construisons par exemple, à partir de la géométrie euclidienne, une représentation intelligible de l’existence nécessaire d’un heptagone régulier ; c’est impossible dans cette géométrie, mais cela peut être réalisé de manière élémentaire dans une géométrie constructive reposant sur l’action spirale auto-similaire multiplement connexe.

Les cinq solides platoniciens : le tétraèdre, le cube, l’octaèdre, le dodécaèdre, l’icosaèdre.

Le phénomène le plus important du domaine euclidien en géométrie, est la section d’or. Sa signification s’impose à nous par le fait qu’il n’est pas possible de construire plus de cinq espèces de polyèdres réguliers dans l’espace euclidien, ou dans un espace constructif reposant sur l’action circulaire triplement connexe. Parmi ces cinq solides réguliers (platoniciens), un seul possède un caractère unique, le dodécaèdre ; les quatre autres sont simplement dérivés, par construction, de celui-là. La construction du dodécaèdre, ainsi que des douze pentagones réguliers qui forment ses faces, est déterminée par la construction de la caractéristique de l’action circulaire multiplement connexe de la section d’or.

Ceci nous montre que la géométrie euclidienne et l’espace-temps physique de l’action circulaire triplement connexe partagent une délimitation correspondante. Nous dirons donc que de tels espaces sont finis, en réalité délimités extérieurement mais également auto-délimités.

Le pentagone régulier et la section d’or (A:B).

Ces exemples, tels que les nombres premiers, l’heptagone régulier, les solides platoniciens, mettent en évidence des discontinuités séparant le monde intérieur de ces géométries de la réalité universelle bien plus large dans laquelle ces géométries se trouvent. Ainsi, ces géométries prises comme un tout sont finies. Du fait qu’elles sont délimitées par des singularités qui n’ont pas de représentations intelligibles constructibles dans ces géométries elles-mêmes, ces géométries sont finies par délimitation externe. Cependant, dans la mesure où elles ne peuvent pas atteindre et inclure leurs propres limites de manière intelligible, elles sont auto-délimitées par une limite presque au seuil des délimitations externes.

En matière de physique mathématique, ce dont nous avons besoin, c’est d’une méthode qui définisse notre Univers physique comme fini et délimité, mais de telle sorte que ces délimitations soient construites comme des représentations intelligibles par la méthode de cette même physique mathématique complète. Dans cette recherche, la section d’or a une signification empirique particulière.

La signification physique surprenante de la section d’or a été élaborée par les associés de Léonard de Vinci : à l’échelle macroscopique ordinaire (de l’homme) tous les processus vivants sains présentent des formes de croissance et de mouvement qui sont déterminés harmoniquement par, et donc en congruence avec, les ordonnancements harmoniques subsumés par la section d’or. A cette échelle ordinaire d’observation, tous les processus vivants sont ordonnés de cette manière, mais ce n’est pas le cas pour les processus non vivants.

Cette caractéristique harmonique des processus vivants a été la définition empirique originelle de la conception que l’on désigne aujourd’hui par néguentropie. Par contre, l’harmonie des processus non vivants est la référence empirique originelle de la notion mathématique d’entropie.

Cette distinction entre ce que nous appelons entropie et néguentropie n’a pas seulement été soutenue par Kepler [11] ; elle est également la caractéristique centrale de toute la physique mathématique de Kepler et de ses successeurs tels que Leibniz, Gauss et Riemann [12]

Cette question de néguentropie et d’entropie prend une signification plus riche lorsque nous étendons notre champ d’observation aux échelles extrêmes que sont l’astrophysique et la microphysique. La physique de Kepler, dont la justesse a été prouvée par Gauss en ce qui concerne les astéroïdes, montre également de manière concluante que l’Univers, dans son ensemble, est gouverné et imprégné par un principe de néguentropie, dans le sens exactement opposé à ce que défendaient avec insistance Clausius, Kelvin, Maxwell et Boltzmann. C’est ainsi que confronté à un choix entre la vie (néguentropie) et la mort (entropie), Boltzmann a choisi la mort.

Nous retrouvons le même résultat dans le domaine de la microphysique : les ordonnancements géométriques caractéristiques des processus relativement élémentaires aux échelles atomiques et subatomiques sont « keplériens ».

On voit ainsi à trois échelles – la vie, l’astrophysique et la microphysique – que l’Univers dans son ensemble est néguentropique. L’entropie existe dans un tel Univers mais seulement en tant que caractéristique nécessaire et subordonnée à la néguentropie universelle. Cette néguentropie est la nature de la substance.

Cela nous ramène à la fonction exprimant le taux d’accroissement du potentiel de densité démographique. Cette fonction, exprimée en tant que fonction continue, présente la caractéristique harmonique d’un processus néguentropique (vivant). L’augmentation du pouvoir de l’humanité sur la nature, exprimée comme une augmentation du potentiel de densité démographique, est la néguentropie.

Pour localiser la source du gain de néguentropie pour l’homme, nous devons enquêter sur la source du progrès scientifique et technologique. On en revient donc à notre examen de Kant.

Cas d’étude : l’économie américaine

Pour définir le véritable sens commun, nous devons connaître les conditions dans lesquelles on forge l’opinion d’une société afin de rendre celle-ci capable d’une survie réussie. Nous devons savoir comment l’homme – la société – est capable de maîtriser l’Univers afin d’accomplir une survie réussie. Nous devons déterminer où se situe la faculté de l’homme à savoir ce qu’il doit maîtriser en vue d’un tel effet ; nous devons situer le choix conscient des moyens par lesquels l’individu dans la société peut reconnaître une telle faculté, et décider effectivement de l’exercer.

A cette fin, nous allons continuer à explorer certaines des plus importantes caractéristiques de l’esprit et de la nature.

J’ai déjà signalé plus haut que l’activité mentale créatrice est exprimée par la transformation (A → B) à condition que cette dernière génère, au moment B, une condition (un potentiel) déterminant la survie réussie future, en terme des effets de transformation (B → C), (C → D), etc.

L’impressionnante difficulté à définir une conception appropriée de potentiel au moment B, n’est qu’apparente. Le concept de « hiérarchie » d’ordonnancements transfinis nous donne une indication sur la solution recherchée [13].

Tournons maintenant notre attention vers le domaine de l’art de gouverner.

Depuis 1963 jusqu’aujourd’hui en 1989, une faction majoritaire dans l’establishment libéral anglo-américain, favorable au « nouvel âge », a ouvertement encouragé à ce qu’une révolution contre-culturelle fondée sur « l’âge du Verseau » de Nietzsche et de Crowley soit imposée au sein des institutions publiques et des faiseurs d’opinion populaire en général. Au cours de cette période, on a connu de nombreux changements de politique, parfois très marqués, mais allant presque toujours dans la même direction : de plus en plus éloignés des traditions économiques, morales et culturelles de la civilisation judéo-chrétienne de l’Europe occidentale, et de plus en plus proches de l’utopie gnostique, parfois ouvertement satanique et toujours malthusienne de la « société postindustrielle ».

Considérons le point de vue philosophique et politique des incitations fiscales à l’investissement et du programme aérospatial à marche forcée du Président Kennedy comme caractéristique du moment A. Soit donc A ≡ 1961, et l’année fiscale 1966-1967 représentant B, pour la transformation « entropique » T(A → B).

L’ adoption par le Président Lyndon Johnson d’un programme malthusien (comprenant l’abandon de l’aérospatial) a conduit l’économie des États-Unis à des taux de croissance réelle inférieurs à ceux des politiques précédentes de Kennedy. Plus grave que les changements économiques assez désastreux que Johnson a effectués en 1966-1967 : un changement d’orientation dans la politique américaine et atlantique s’est opéré au même moment. La résurgence du dogme religieux gnostique, sous forme d’« environnementalisme » et de « consumérisme », a remplacé les critères d’orientation politique correspondant à une société civilisée.

Or, à quelques rares exceptions près (qui, selon le proverbe, confirment la règle), la survie humaine dépend relativement moins des politiques du moment que du choix d’orientation politique qu’effectue la société.

Considérons donc les processus économiques en tant que tels dans les termes de ce qui précède.

Pour avancer dans la discussion, identifions deux conséquences du moment B, l’une est la conséquence objective, c’est-à-dire les changements physiques dans le processus économique au cours du moment B, et l’autre est l’état synchronisé (« subjectif »).

A partir d’un certain point de la continuité du moment B, la politique en action depuis le début de B produira un certain effet. L’esprit doit répondre à cet effet. Nous devons donc considérer ce que sera cet effet physique, ainsi que la manière variable dont l’esprit réagira à cet effet physique. C’est sur ce dernier point que les caractéristiques philosophiques de cet état d’esprit variable montrent leur rapport décisif avec la détermination de la survie réussie. Nous sommes près de définir le véritable sens commun.

Examinons l’exemple suivant.

A partir des années 60, une contre-culture hédoniste a été fortement encouragée par certains milieux de l’establishment anglo-américain. Le concert de Woodstock (photo) et la comédie musicale Hair, cette dernière promouvant explicitement l’âge du Verseau, en sont deux symboles phares.

Au cours de la période 1963-1969, la tendance politique des Etats-Unis a progressivement dérivé vers une contre-culture radicale antioccidentale ; un des éléments a été la mise en œuvre combinée d’une usure contre le secteur agro-industriel et d’une utopie malthusienne « postindustrielle ». Toute réponse politique influencée par cette combinaison de tendances, que celles-ci soient subjectives ou dans leur mise en œuvre, va nécessairement vers l’effondrement physique de la société, vers l’entropie, et favorise une profonde immoralité ainsi qu’un pessimisme culturel au sein de la population.

Comment ce double « déterminisme » pourrait-il être exprimé dans l’objectif de construire une représentation intelligible de notre fonction continue pour le potentiel de densité démographique ? Considérons la définition de l’« action mentale créatrice » du point de vue du paradoxe kantien présenté plus haut.

L’action mentale créatrice est exprimée de la manière la plus simple comme étant la singularité caractéristique de la transformation : T(A → B). Une autre définition de cette même singularité est ce que Socrate, dans les dialogues de Platon, appelle « ma méthode dialectique ». Et celle-ci est présente dans chaque dialogue de Platon. Examinons cette méthode dialectique.

Au lieu de réfuter directement une proposition, le dialogue socratique mène une enquête : quelles sont les suppositions axiomatiques nécessairement et implicitement sous-jacentes à la proposition, « par hérédité » ? Il examine alors ces suppositions axiomatiques du même point de vue que celui exprimé par la géométrie constructive (physique). En général, tous les dialogues de Platon constituent, de cette façon, une réfutation tant de la méthode déductive que des suppositions ontologiques implicites de cette méthode.

Platon fait affirmer au Socrate de ses dialogues que toute conception élaborée au moyen des dialogues peut être représentée de manière adéquate, et même davantage, par une construction géométrique (physique) appropriée. Ainsi, dans ce même esprit, et sous une forme moderne du même point de vue, nous dirons que la singularité de T(A → B) n’est pas seulement la cause efficiente mais également la substance de l’action mentale créatrice.

Revenons à notre paradoxe kantien. La méthode dialectique de Platon est congruente aux processus créateurs de l’esprit qui engendrent le progrès scientifique. Du moins cela est vrai, pour ainsi dire, dans un sens de direction ; la méthode platonicienne est, dans ses objectifs et en approximation, une représentation intelligible des processus créateurs. Elle est intelligible dans le sens où Kant certifiait qu’une telle représentation était impossible.

Comme nous l’avons déjà signalé, cette méthode dialectique intervient à deux « niveaux » de « pensée axiomatique ».

Elle intervient tout d’abord au niveau relativement le plus superficiel des deux. En ce qui concerne les modes déductifs, il s’agit de l’ensemble nécessairement implicite d’axiomes et de postulats sous-jacents à la proposition. En ce qui concerne la méthode constructive, il s’agit du choix de principe constructif. A ce « niveau », l’esprit conçoit, dans le meilleur des cas, les expériences décisives futures qui pourraient renverser le réseau de théorèmes « A ».

Au second « niveau », relativement plus profond, cette même méthode dialectique concerne les suppositions subsumant nécessairement les vues aussi bien déductive que constructive de la géométrie physique, et gouvernant également le choix de l’une sur l’autre. C’est la classe des suppositions qui sont les sujets de ce niveau, laquelle correspond aux suppositions d’orientation politique.

Le premier « niveau » est la génération d’un ensemble d’ordonnancements transfinis : un « principe d’hérédité » subsumant par « ordonnancement » un ensemble de « principes d’hérédité ».

En ce qui concerne le niveau « le plus profond » (niveau d’ordonnancement supérieur), il faut insister sur les points suivants :

  1. Tous les systèmes déductifs sont entropiques, comme cela a déjà été signalé.
  2. Tous les systèmes constructifs satisfaisant aux conditions du principe maximum-minimum de Nicolas de Cues sont implicitement néguentropiques, mais subsument aussi la génération de sous-phases entropiques de tels processus néguentropiques.

Tirons une illustration simple de l’histoire de l’économie physique.

A première vue, un accroissement du potentiel de densité démographique devrait simplement entraîner une augmentation de la productivité physique moyenne du travail par tête et par hectare. Dans certaines limites, il est possible d’augmenter la productivité moyenne en augmentant l’intensité physique du travail, tout en maintenant constantes les intensités capitalistiques par tête et par hectare, et sans progrès technologique.

Cependant, une telle « augmentation » de la productivité moyenne va, sur un plus long terme, résulter en un effondrement de la productivité ! Nous avons ici un effet de la relation entre les « deux facteurs », une philosophie assurant à moyen terme un déclin de la productivité tout en provoquant sur le court terme une augmentation apparente de la productivité.

Le recours à une intensification physique du travail, comme substitut pour satisfaire aux contraintes de l’augmentation du potentiel de densité démographique que nous avons énoncées plus haut, est une politique régressive sur le moyen et le long terme. Il s’agit en fait de la mise en place d’une orientation politique entropique.

Ainsi, si T(A → B) est de cette forme entropique, alors la volonté d’augmenter nominalement la productivité au moment B provoquera une transformation analogue et entropique T(B → C), et ainsi de suite. Les politiques d’austérité de Hjalmar Schacht sous l’Allemagne de Weimar ont créé de cette manière le régime nazi d’Hitler : la poursuite des « conditionnalités » entropiques de Schacht pendant les années 30 a permis le système esclavagiste nazi avec ses assassinats de masse. De la même manière, le soutien des Etats-Unis aux politiques actuelles de « conditionnalités » du Fonds monétaire international va créer les conditions de crimes contre l’humanité d’une ampleur dépassant ceux commis par les nazis eux-mêmes.

On peut dire, par abstraction seulement, que chaque transformation de la forme T(A → B) a deux moments : le changement immédiat, visible, du taux de croissance (ou de décroissance) du potentiel de densité démographique, et le caractère de l’orientation de la décision politique par laquelle le changement en question a eu lieu.

Cette orientation de la décision politique déterminera comment la société réagira, avec l’innovation politique, aux effets pratiques du moment B.

Récapitulons l’exemple précédent en le développant. Commençons par certains aspects pris séparément, puis voyons l’impact de leur combinaison.

La méthode actuellement en vigueur pour comptabiliser le revenu national s’appuie sur le Produit intérieur brut (PIB) ou le Produit national brut (PNB). Cet instrument de mesure repose sur la définition de la valeur ajoutée, c’est-à-dire le prix de la marge du revenu accumulé, que l’on obtient après avoir déduit les « exportations » (les bénéfices accumulés) des « importations » (coût du matériel, fournitures, machines, équipement, outils, maintenance, produits semi-finis et services).

Sous certaines conditions, les données du PNB des Etats-Unis étaient utiles, bien qu’il s’agisse d’un outil biaisé. Ces données étaient communiquées par le gouvernement fédéral américain, et d’autres données provenant de différentes sources étaient destinées à s’engrener aux définitions comptables du revenu national utilisées par l’Etat américain. Le système de PIB, promu par l’Onu et utilisé par d’autres nations, était plus ou moins compatible. Sous réserve d’avoir compris l’aspect fallacieux inhérent au système de la valeur ajoutée, on pouvait utiliser cette donnée avec les précautions d’usage.

La fiabilité du PNB et des données associées commença à décliner aux environs de l’année fiscale 1966-1967, sous la présidence Johnson. La situation a empiré au cours des décennies suivantes. Le gouvernement fédéral et la Réserve fédérale ont eu de plus en plus recours à ce genre de « cosmétique » politique que la plupart des mortels ordinaires auraient tendance à qualifier de « manipulation de statistiques ». Au cours de l’année 1983, et surtout à partir du début de 1984, les rapports concernant une certaine « reprise américaine » ont reposé sur des données grossièrement truquées et presque inutiles.

Avant 1983, bien que les statistiques du PNB aient été manipulées, les agences fédérales truquaient leurs chiffres d’une manière relativement cohérente. Il y avait suffisamment de cohérence pour que l’on puisse inclure une variation trimestrielle significative dans les tendances annuelles. Bien que les statistiques officielles fussent erronées dans l’absolu, la marge d’erreur arbitraire augmentait de manière graduelle d’année en année, et des tendances significatives pouvaient être détectées et anticipées [14].

Après 1983, la manipulation des données à laquelle s’étaient livrées la Réserve fédérale et d’autres agences, était devenue tellement arbitraire, qu’aucune tendance significative pour l’économie physique (l’économie réelle) ne pouvait être déduite de leurs statistiques publiées.

A partir de 1970, et en particulier à partir de l’entrée en fonction du président Jimmy Carter, issu de la Commission trilatérale, l’économie réelle des Etats-Unis s’est effondrée sans interruption. Il y a certes eu des variations d’une année à l’autre dans le taux de décroissance, mais il n’y a eu aucune année sans que cet effondrement ne se poursuive. En fait, depuis 1966-1967, il n’y a eu aucune reprise américaine. La valeur du capital net de l’infrastructure économique de base des Etats-Unis a atteint son maximum, en taux de croissance, avant 1966-1967. Ce taux est tombé à zéro en 1970, et a continué à décliner depuis. Pour retrouver aujourd’hui une telle qualité d’infrastructure économique de base par tête et par hectare, il faudrait sans doute investir 4000 milliards de dollars.

Depuis les années relativement plus heureuses d’avant Carter, l’agriculture américaine a été entraînée dans une spirale de faillites sur tout le territoire. Notre tissu industriel autrefois si puissant est aujourd’hui en lambeaux. La valeur du panier de biens physiques pour la consommation par tête, des ménages, des exploitations agricoles et des manufactures s’est effondrée.

Ce qui a augmenté, en apparence, c’est le revenu financier par tête, surtout à cause d’un accroissement de l’endettement et du pillage de toutes les catégories combinées de revenu, par la charge du service de la dette. Ce sont les revenus du trafic de drogue combinés à la croissance parasitaire de l’« industrie » financière qui constituent la principale source de croissance nominale.

Il s’avère donc qu’en termes physiques, les Etats-Unis se sont effondrés depuis 1970, en production et en potentiel, par tête et par hectare, bien que le PNB ait considérablement augmenté pendant la même période. La différence entre l’effondrement de la productivité physique par tête et la croissance par tête du PNB nominal, est une marge de croissance fictive, le revenu national fictif.

Cela nous amène à un problème important : ceux qui dirigent les politiques économiques, fiscales et monétaires des Etats Unis cherchent à « optimiser » le PNB, en mettant l’accent sur la croissance des marges de revenus fictifs, ce qui est cohérent avec la mise en place d’une utopie « postindustrielle ». Ainsi, tout ce qui « optimise » le revenu fictif est considéré comme un succès ; à chaque problème sérieux qui se pose, les décideurs croient que le défi à relever est de modifier la politique en vue d’augmenter la croissance du revenu fictif.

Cet accent mis sur le revenu fictif est bien entendu une politique entropique. Du fait que le calcul du PNB est linéaire, toute politique élaborée dans le cadre d’une comptabilité de revenu national de style PNB est donc également entropique. Il est possible que, dans certains cas, la promotion de certains grands investissements militaires ou civils, basés sur le progrès technologique, puisse compenser l’influence entropique d’impulsions politiques de type PNB. Le monétarisme, et toutes les théories cohérentes avec le dogme du « libre échange » d’Adam Smith, sont intrinsèquement, axiomatiquement, « héréditairement » des impulsions politiques entropiques. Elles sont une assurance de ruine économique si on les tolère trop longtemps.

Ainsi, toute politique économique issue de la transformation T(A → B) a un double effet. Au niveau le plus bas, le plus immédiat, le plus évident, elle détermine un potentiel de densité démographique momentané, du moins en apparence en rapport avec la densité démographique réelle. En même temps, au niveau le plus élevé, elle affecte la philosophie des dirigeants politiques de telle manière qu’elle tendra à gouverner les choix politiques au cours des transformations T(B → C), etc.

En d’autres termes, en ce qui concerne T(A → B), nous ne devons pas seulement considérer les changements dans ce que nous pensons, qui apparaissent entre les moments A et B. Nous devons aussi considérer les changements dans la manière de penser les effets efficients, présents et futurs des changements dans notre manière de penser.

La courbure de l’espace-temps physique

Il est essentiel que certaines considérations soient résumées ici, même si leur difficulté empêche quelques lecteurs de les comprendre en profondeur.

Nous disposons d’un autre moyen, implicitement quantifiable, de représenter les distinctions et relations qui existent entre les changements dans la manière de penser et les changements dans ce que l’on pense. Revenons à Kepler.

Nicolas de Cues et ses successeurs, tels que Léonard de Vinci et Luca Pacioli, ont mis Kepler sur la voie d’une notion connue aujourd’hui sous le nom de « courbure de l’espace-temps physique ». Nous revenons ici encore à ce sujet pour montrer l’intelligibilité du principe universel de néguentropie et, ainsi, expliquer également ce que l’on entend par courbure lorsque cette idée est utilisée dans l’élaboration d’orientations politiques, en économie physique par exemple.

Les lecteurs qui connaissent l’expression « courbure de l’espace-temps physique » l’ont en général rencontrée en étudiant les débats du début du XXème siècle sur la relativité restreinte. Malheureusement, la signification correcte de cette expression est souvent mal comprise, même par des personnes aussi douées qu’Hermann Minkowski. Ce dernier point est très important pour notre définition du véritable sens commun ; nous n’exagérons en rien quand nous évoquons l’erreur de Minkowski et autres.

L’expression « courbure de l’espace-temps physique » contient deux idées combinées en une. L’espace-temps physique est la première et l’idée selon laquelle l’espace-temps physique a une courbure est la seconde. Commençons tout d’abord avec l’espace-temps physique. Dans sa célèbre présentation, Minkowski n’a pas réussi à saisir la différence fondamentale entre une véritable géométrie non euclidienne et une géométrie néo euclidienne. Il a choisi la représentation néo euclidienne déductive d’une géométrie hyperbolique de Lobatchevski. L’erreur exemplaire de Minkowski, tout comme son échec, provient du fait qu’il est impossible de construire une représentation intelligible de l’espace-temps physique sur la base de la méthode déductive.

L’exemple de Minkowski est particulièrement utile car il montre comment un scientifique de premier plan a été victime de la méthode déductive alors qu’il était, par ailleurs, en train d’accomplir un travail d’une force exceptionnelle. Cet exemple présente aussi l’avantage d’attirer notre attention sur les problématiques liées respectivement à la forme (courbure) et à la substance (espace-temps physique).

« Par hérédité », toute méthode déductive considère la « matière » – la substance – dans l’existence axiomatiquement auto-évidente du point matériel, d’un point infinitésimalement petit. De plus, toute action efficiente dans le domaine physique implique une interaction réciproque entre paires de points matériels.

Le point matériel est une singularité auto-délimitée, un objet en soi [Ding an sich, NdT] kantien et donc, en ce sens, une quantité auto-finie. Le caractère fini ainsi posé inscrit la qualité de « matière » (substance) à l’intérieur des frontières du domaine de l’auto-fini, de telle sorte qu’au sein de l’univers prit dans son ensemble, la qualité de « matière » n’existe pas au-delà des auto-délimitations des points matériels axiomatiques.

Il en découle que l’espace et la matière apparaissent comme des qualités mutuellement exclusives. On trouve le même genre de séparation entre l’espace, la matière et le temps.

Pour des raisons analogues, si l’on construit un univers déductif dans lequel on donne la qualité de matière à l’espace plutôt qu’à des points, on ne peut pas déterminer l’existence de singularités et notre mathématique devient un labyrinthe silencieux sans fin, une tombe dans laquelle on peut vivre un cauchemar éternel sans conséquence.

Comparons le point de vue déductif néo euclidien de Minkowski à celui de la géométrie physique non euclidienne. La substance est cette forme d’existence dont la génération, la persistance et la dissolution sont des effets causalement efficients du processus permanent avec lequel leur existence est associée.

Bernhard Riemann. Sa dissertation d’habilitation de 1854 constitue la première étude mathématique publiée de la notion de relativité restreinte. Dans la conclusion de ce texte, Riemann décrit quelle peut être la nature d’un effet expérimentalement mesurable et démontrable d’un changement relativiste.{{}}

La dissertation d’habilitation de Bernhard Riemann de 1854 constitue la première étude mathématique publiée de la notion de relativité restreinte. [15] Dans la conclusion de ce texte, Riemann décrit quelle peut être la nature d’un effet expérimentalement mesurable et démontrable d’un changement relativiste.

Cette mesure a été comprise de deux manières. Riemann voyait toutes ses contributions à la physique mathématique du point de vue d’une génération géométrique physique constructive du domaine non déductif de Gauss-Riemann. Dans ce domaine, et cela dès le début de son travail à Göttingen, Riemann considérait que l’univers était régi par un principe universel de néguentropie, dans le sens où nous avons défini la néguentropie ci-dessus. [16] Minkowski l’a interprété différemment, d’un point de vue déductif : c’est la cause de son erreur. [17]

Eugenio Beltrami, le collaborateur de Riemann à qui ce dernier avait assigné la tâche de dévoiler le paradoxe dévastateur prouvant l’erreur de l’électrodynamique de Maxwell, nous donne la meilleure représentation de la construction d’une géométrie de Lobatchevski d’espace-temps à courbure négative ; Minkowski aurait dû étudier plus attentivement le travail de Beltrami. [18] Au lieu de cela, Minkowski a vu dans la « courbure négative », qui est par ailleurs en soi une notion très utile, un mandat pour ne rien faire de plus que de modifier certains postulats de ce bourbier que constitue le formalisme déductif kantien tant admiré dans l’enseignement de la science aujourd’hui, celui du formalisme de Descartes, Newton, Laplace et Cauchy.

Le cas de Minkowski est remarquable à cause de son incomparable supériorité sur les formalistes des « mathématiques pures » que l’on rencontre habituellement au cours de notre siècle. Comme la plupart des meilleurs scientifiques d’aujourd’hui, une espèce en voie de disparition, il était handicapé par sa dépendance envers les mathématiques en vogue à son époque, bien qu’il soit par ailleurs capable d’une véritable pensée scientifique géométrique. Il n’existe aucune preuve nous permettant de douter que lorsqu’il disait « espace-temps physique », il pointait dans la même direction que nous. La raison de son échec, c’est qu’il s’est égaré en essayant de décrire l’espace-temps physique en termes déductifs de référence.

Minkowski utilisait une géométrie néo euclidienne au lieu d’une géométrie non euclidienne : une méthode euclidienne déductive dans laquelle il avait simplement modifié les postulats – un choix erroné pour T(A → B). C’est ainsi que son choix d’une mathématique déductive l’a ramené aux erreurs ontologiques auxquelles il avait voulu échapper.

Ceux qui se cramponnent à la méthode déductive formulent leur objection ultime en posant une question du genre « comment allons-nous mesurer ? ». Si l’on ne s’autorise rien d’autre que la continuité géométrique pour construire une géométrie physique, d’où tirerons-nous l’instrument de mesure dont a besoin une physique ? C’est ici que la section d’or est déterminante.

Comme nous l’avons vu plus haut, depuis le principe maximum-minimum, toute la géométrie physique constructive est élaborée à partir de l’action circulaire multiplement connexe. Dans une physique conçue de cette manière, la notion de quantité trouve sa source élémentaire dans cette courbe définie topologiquement. Elle part de la notion de cycle circulaire et est élaborée en termes de construction de divisions et de multiples de ce cycle circulaire.

Ainsi, l’action circulaire multiplement connexe génère les formes d’existence connues telles que le « point » et la « ligne ». Par la suite, à partir de la création de telles singularités primitives ainsi construites, la génération de toutes les singularités se mesure en termes de fractions ou de multiples d’un ou de plusieurs cycles d’action circulaire. A l’époque de Platon, on savait déjà que la plus importante des fractions ou sections de cycles circulaires est ce que l’on appelle la section d’or.

Platon faisait assez souvent référence à la découverte d’une preuve, qu’il considérait fondamentale, selon laquelle seulement cinq espèces de polyèdres réguliers peuvent être construits dans l’espace défini par la vision humaine. La notion de réalisme platonicien se trouve au cœur de cette preuve ; le développement de la physique moderne, depuis Nicolas de Cues, est indissociable de ses implications. Le fait que seulement cinq espèces de polyèdres réguliers puissent être construites, montre que l’espace-temps physique ainsi conçu est fini, délimité, et cela en vertu de cette délimitation manifeste.

A notre connaissance, Platon a été le premier à vouloir construire une physique mathématique complète reposant sur les implications du caractère unique des cinq solides platoniciens. Platon mettait l’accent sur l’harmonie musicale, en disant que les lois d’action dans l’Univers doivent être gouvernées par ces ordonnancements harmoniques implicites dans la section d’or. On a là en germe la première forme moderne réussie d’une physique mathématique globale. [19]

Nous avons mentionné et souligné le fait que des proches de Léonard de Vinci avaient démontré que les ordonnancements harmoniques platoniciens plaçaient les processus vivants sains à part des processus non vivants. Nous avons aussi mentionné et souligné le fait que les cinq solides platoniciens étaient la preuve du caractère fini, délimité – et du caractère auto-délimité – de l’espace-temps physique considéré en tant qu’espace-temps visuel. Nous avons par ailleurs insisté sur le fait que tout processus ordonné harmoniquement en congruence avec la section d’or d’action circulaire est néguentropique.

Pour établir une physique mathématique globale, Kepler a fait reposer l’ordonnancement légitime dominant et imprégnant l’Univers sur la distinction entre ordonnancements harmoniques de processus néguentropiques d’une part, et entropiques d’autre part, et a défini l’univers dans son ensemble comme étant néguentropique.

La forme algébrique, dans laquelle les trois lois de Kepler de « gravitation » universelle sont représentées, constitue une description algébrique de fonctions de position en géométrie constructive. Tout d’abord, les corps planétaires générés par la formation du système solaire sont situés sur des orbites, les unes par rapport aux autres, à des distances déterminées (pour simplifier les choses) par l’ordonnancement des solides platoniciens. Par ailleurs, la répartition des vitesses angulaires relatives pour ces orbites elliptiques comprend, dans ses rapports, une espèce musicale d’intervalles harmoniques. Ces rapports sont ordonnés, avec un degré suffisamment bon d’approximation, en conformité avec les séries d’intervalles caractéristiques de la polyphonie bien tempérée des musiciens classiques. [20] C’est de ce point de vue que l’on peut dire que la notion de courbure caractéristique de l’espace-temps physique se trouve déjà au cœur de la physique de Kepler.

Les travaux de Léonard de Vinci, Pacioli et autres, sont d’une importance capitale dans ce contexte. Pour conceptualiser les implications ontologiques de la méthode déductive, il est indispensable de comprendre celles qui sont différentes de la méthode constructive. Ce n’est qu’à l’aide de telles oppositions que l’on peut enseigner la physique et la métaphysique en étant sûr que l’on transmet bien ces notions aux élèves. Ce n’est qu’en opposant les harmonies entropiques et néguentropiques, comme Kepler l’a fait à partir du travail de Pacioli, que l’on peut enseigner avec assurance les notions élémentaires de courbure de l’espace-temps physique.

A partir du moment où cette distinction primordiale est faite, on peut alors s’imaginer, sans se troubler l’esprit, ce que veut dire chercher à mesurer le degré relatif de néguentropie ou d’entropie d’une courbure. Le rapport entre ceci et l’aspect erroné du « PIB » est implicite ; nous devons maintenant rendre cette relation fonctionnelle explicite.

Isochronisme, moindre action et paradoxe de Parménide

Poursuivons le chemin que nous avons emprunté au début. Il est temps de conduire à leur conclusion les questions mathématiques intermédiaires que nous avons explorées. Notre objectif immédiat est triple : l’isochronisme, la moindre action et le paradoxe de Parménide.

Leibniz a mis l’accent sur les implications essentielles de la courbure non algébrique, la phase de la courbure de l’espace-temps physique associée à des constructions telles que les cycloïdes, les développées et les enveloppes. La courbure non algébrique est rapidement devenue l’un des principaux points d’opposition entre l’école de Leibniz et celle antagoniste des déductionnistes. [La question de courbure non algébrique a été établie par Leibniz qui était redevable à ce sujet à Huygens, lequel était lui-même redevable à Pascal. Les sujets qui en dépendent sont l’isochronie, les cycloïdes, les développées, la courbure négative et les enveloppes.] L’isochronisme et la courbure négative de l’espace-temps physique constituent les deux aspects de ce sujet les plus pertinents dans cette réflexion sur la survie réussie. [Voir E. Beltrami, La teoria matematica dei solenoidi elettrodinamici (1871) ; Saggio di interpretazione della geometrica non-euclidea (1868), pour des écrits sur la courbure négative et la courbure négative des singularités dans une surface de Riemann.]

Considérons la FIGURE 7.

Figure 7. Isochronisme et moindre temps.

L1 L2 est un rail « presque sans frottement » dont la courbure est une simple cycloïde. O est le point le plus bas de ce rail. P est un point quelconque sur ce rail différent de O, et P’ en est un autre différent de O et de P. La ligne droite inclinée P’O est un autre rail « presque sans frottement ».

On lâche au même moment deux billes pouvant rouler librement depuis le point P’. La bille qui roule sur le rail courbe P’O atteindra le point O avant celle qui roule le long du plan incliné P’O. L’arc P’O est un chemin de moindre temps. On laisse ensuite rouler les deux billes simultanément le long de la courbe mais, cette fois-ci, l’une de P et l’autre de P’. Les deux arrivent en O en même temps. On dit que la courbe est isochrone.

La manière la plus superficielle d’analyser ce phénomène, ou d’autres du même genre, consiste à dire que l’égalité des temps de descente libre le long des arcs P’O et PO est un reflet du facteur d’accélération. La réalité est exactement contraire.
Ce n’est pas le principe d’accélération qui détermine une telle courbure ; c’est la courbure isochrone caractéristique de l’espace-temps physique qui est reflétée dans le phénomène d’accélération.

Imaginez un univers défini selon la courbure du rail décrit dans cette figure. Imaginez toutes les fonctions possibles dans un univers ayant une telle courbure d’espace-temps physique. Exprimez les effets de telles fonctions par rapport au point O, et toutes les causes immédiates de ces effets en termes des points P0, P1, P2, etc., pris tour à tour. Ce qui nous intéresse ici, c’est cet aspect de ces relations de cause à effet qui ne change pas lorsque l’on substitue successivement les points P1, P2, etc., au point P0. L’aspect inchangé de cette relation de cause à effet, appelons-la « caractéristique invariante du processus ».

Concentrons maintenant notre attention sur la notion de loi physique. Une véritable loi physique doit satisfaire deux critères d’invariance ; le premier se dégage immédiatement de notre exemple ; nous examinerons plus loin le second qui est plus profond, mais identifions-le déjà ici.

  1. Une loi physique doit être invariante par rapport aux processus et aux positions dans lesquels son action est observée.
  2. Une loi physique correctement définie par rapport à ses relations avec des processus considérés dans une certaine partie de l’univers, doit être vraie de façon isochrone à cet instant pour l’état changé de l’univers dans son ensemble.

Comme nous le verrons plus loin, ce second point est lié au paradoxe de Parménide tel qu’il est abordé, par exemple, dans le De docta ignorantia de Nicolas de Cues. Cela étant dit, intéressons-nous d’abord à la courbure négative.

Nous avons considéré plus haut l’une des implications du principe maximum-minimum du Cusain : l’action minimale requise pour générer le travail (le « volume ») accompli relativement maximal. Considérons maintenant la notion complémentaire suivante : le travail minimal requis pour générer l’action relativement maximale. Associons la première avec l’expression, dont le choix est évident, de courbure positive. Associons la courbure positive avec l’expression de forces faibles, et la courbure négative avec les forces fortes. Examinons cet ensemble dans un premier temps en ayant en tête la fonction riemannienne, puis en ayant en perspective la construction de la fonction de surface plus adéquate de Beltrami-Riemann. Quelques remarques historiques sont nécessaires au préalable.

On fait habituellement remonter la découverte de la courbure non algébrique (et la controverse à ce sujet), à l’époque des travaux de Christiaan Huygens et de Gottfried Leibniz à Paris au cours des années 1670. [Voir Huygens, Horologium oscillatorium, 1673.] Non seulement ces derniers étaient redevables des travaux préliminaires de Pascal mais, en plus, la signification physique de la courbure négative a été identifiée et employée avec succès par Filippo Brunelleschi et Léonard de Vinci, près de deux siècles auparavant.

Figure 8. On obtient une cycloïde en suivant un point fixé sur un cercle qui roule sur une ligne droite.

Formellement, l’étude des courbures non algébriques commence en géométrie constructive (projective) avec la plus élémentaire des cycloïdes (FIGURE 8). On passe ensuite aux cycloïdes engendrées à partir de courbes régulières (des sections coniques) autres que des lignes droites. Viennent ensuite les développées, puis le domaine des enveloppes de Leibniz et de Monge.

Construisons une figure dont la surface a partout une courbure positive continue, une figure qui représente le plus grand volume possible pour une surface courbe d’une aire donnée. Posons ce problème d’une manière plus simple. Faisons tourner un cercle : on obtient une sphère. Comparons cela à une pseudosphère (FIGURE 9). A la courbure positive, nous associons la génération du plus grand travail (volume) par l’action minimale (surface) ; à la courbure négative, nous associons la génération de l’action (surface) relativement la plus grande par le travail (volume) minimal.

Figure 9. Une pseudosphère parabolique, elliptique et hyperbolique. Modèles réalisés par Beltrami.

Ensemble, elles génèrent la néguentropie. On génère le travail relativement le plus grand avec l’action minimale ; avec ce travail, on génère la surface (action) la plus grande. Considérons la fonction de surface riemannienne et les problèmes qu’elles soulèvent de ce point de vue.

Chez Kepler, la néguentropie de l’Univers est définie par la caractéristique harmonique d’ordonnancement des lois de cet Univers, un ordonnancement harmonique congruent avec la section d’or d’action circulaire. En remplaçant l’action circulaire par l’action spirale auto-similaire, on génère le domaine complexe de Gauss - domaine supérieur dont celui de Kepler est une image projetée.

Le problème formel est double. Tout domaine construit au moyen de l’action spirale auto-similaire continue multiplement connexe est densément peuplé de singularités. En effet, tout processus physique élémentaire ne peut être représenté de manière adéquate, à ce titre, que par des fonctions continûment non linéaires. Cela nous conduit à ce que l’on appelle le principe de (Lejeune) Dirichlet.

La projection stéréographique d’une série de discontinuités (singularités) harmoniquement ordonnées sur la sphère riemannienne supprime l’« infini cartésien ».

Revenons à un passage antérieur de notre réflexion au sujet des formes distinctes et indistinctes de singularités. La caractéristique formelle d’une impulsion continue d’action spirale auto-similaire multiplement connexe est d’« interrompre » l’apparence de continuité de cette action par le moyen d’une série harmoniquement ordonnée de singularités. Ces singularités sont de la forme de lignes hyperboliques ou portions de lignes hyperboliques. Sur une sphère de projection conforme, la discontinuité elle-même prend la forme de ce que l’on pourrait considérer comme un point ou une indentation venant perturber la surface lisse de la sphère. Ce lieu interrompt la continuité parfaite du mouvement (l’action) le long de cette surface.

Est-ce une singularité distincte ou indistincte ? La singularité est-elle susceptible d’une représentation intelligible dans les limites du domaine complexe de Gauss ? Cette question a été étudiée par Lejeune-Dirichlet et Karl Weierstrass ; les deux ont montré, dans des termes généraux, que de telles délimitations (singularités) étaient implicitement compréhensibles dans le cadre du domaine de Gauss. A partir de là, en acceptant l’existence d’un ordre relativement supérieur d’espace-temps physique, la singularité demeure mais pas sa « propriété » de discontinuité ; nous « relions » la discontinuité de la manière dont la fonction de Weierstrass le suggère. Ceci contient en germe ce que Riemann a identifié comme étant le principe de Dirichlet. Riemann a employé ce principe pour développer pleinement le potentiel du domaine de Gauss : ce que nous appelons le domaine de Gauss-Riemann.

Figure 10. La fonction de surface riemanienne appliquée à des structures dans l’espace. La projection topologique d’un cercle (courbure positive constante) est simplement connexe ; il n’y a pas de singularités (trous) ni pôles. La projection du tore est triplement connexe. La projection de la forme bretzel est quintuplement connexe.

La fonction riemannienne constitue le genre d’application du principe de topologie de Dirichlet (FIGURE 10).

La méthode de Riemann est telle que chaque fois que la représentation d’un processus physique rencontre une telle singularité, il dit, en effet, « si le processus se poursuit à travers et au-delà de ce point d’interruption apparente, il le fera sous la forme suggérée par la fonction riemannienne ».

Une illustration utile d’une telle tactique se trouve dans sa dissertation de 1859 intitulée Sur la propagation des ondes atmosphériques planes ayant une amplitude de vibration finie. Ceci était déjà implicitement clair dans sa dissertation d’habilitation Sur les hypothèses qui servent de base à la géométrie.

La prémisse sur laquelle Riemann a fondé sa méthode optimiste, est la démonstration que la caractéristique de son univers, qui est aussi celui de Kepler, Leibniz et Gauss, est néguentropique. Ses notes posthumes sur les discours de Herbart à Göttingen l’attestent.

Ainsi, la tactique associée à la fonction riemannienne repose sur la proposition selon laquelle si la continuité est réalisée en une certaine singularité et au-delà, alors cette continuité aura une forme prévisible. Moyennant certaines restrictions, ce processus est exprimé en termes de fonctions de courbure positive, avant et après la génération de la singularité en question. Cependant, la singularité hyperbolique elle-même exprime une courbure négative. Le développement de l’onde de choc transsonique illustre, dans le texte de Riemann de 1859, l’apparition de la courbure négative.

En bref, dans le cas où la singularité cesse d’être une discontinuité dans la fonction appropriée, le résultat suivant peut être exprimé en termes de référence de courbure positive. Riemann n’aborde pas fonctionnellement le cas de la courbure négative ; il se limite à montrer la forme correspondant à une solution du problème mais pas la solution fonctionnelle explicite elle-même.

Nous cherchons une véritable solution adéquate. Quand, par exemple, la solution présentée par la méthode de Riemann sera-t-elle le résultat qui doit nécessairement avoir lieu ? La possibilité d’une chose n’est pas suffisante pour que cette chose existe. L’existence de la singularité est-elle la cause pour qu’une telle solution soit générée ? Nous devons examiner la singularité elle-même plus attentivement.

Figure 11. Génération d’une singularité dans une surface riemanienne. A gauche, photographie de l’implosion d’un liquide par ultrason. Au milieu, représentation du processus de transformation lors de l’implosion. A droite, modèle de Beltrami.
FUSION

Cette singularité n’est pas une forme indistincte de délimitation, ni un simple point, pas plus qu’un simple abîme logique ayant la forme d’un trou. De par la manière dont cette singularité est générée, par une impulsion continue d’action spirale auto-similaire multiplement connexe, cette singularité est hyperbolique (ou un hyperboloïde) et a une courbure négative caractéristique de ce genre de fonction. Eugenio Beltrami a montré comment cela doit apparaître comme une région de singularité dans une surface riemannienne (FIGURE 11).

Considérons la néguentropie de l’univers de Kepler. Notez que cette néguentropie est caractéristique de l’ensemble du domaine complexe de Gauss-Riemann. Cette invariance commune aux deux régimes, est associée à la section d’or et à ses harmonies en tant que caractéristique métrique de l’action spirale auto-similaire. De même, c’est l’ordonnancement harmonique de la génération de singularités hyperboliques, au cours de l’impulsion continue d’action spirale auto-similaire multiplement connexe, qui exprime la néguentropie caractéristique des domaines complexes de Gauss-Riemann et de Gauss-Riemann -Beltrami. Cette dernière caractéristique est l’ordonnancement harmonique d’augmentation de densité (accumulée) de singularités par intervalle d’action (cycloïde).

Cette caractéristique est implicitement la mesure de l’accroissement technologique et du potentiel de densité démographique.

Cependant, ces diverses mesures de la néguentropie définissent des processus qui sont délimités par la néguentropie, sans représenter la néguentropie elle-même. Une fois notre attention concentrée sur la séquence causale de « forces » alternées faibles et fortes, l’intelligibilité de la néguentropie devient une idée géométrique distincte ; le processus néguentropique est alors représenté de manière intelligible en tant que processus auto-délimité.

Toutes ces considérations prises ensemble définissent des idées au sujet de la mesure et de la substance différentes de celles que l’on a l’habitude de trouver dans les salles de classe et dans la conversation courante. Nicolas de Cues et Leibniz auraient été, implicitement, en accord avec ces changements. Platon aurait suivi et compris notre développement, et aurait également été en accord avec celui -ci. On peut nier un tel accord que si l’on perd de vue l’essentiel du contenu des dialogues de Platon.

Faisons maintenant quelques rappels.

Les idées de métrique comprennent les caractéristiques suivantes :

  • Action circulaire (action isopérimétrique) :
    • taux constant d’action circulaire continue ;
    • comptage en cycles ;
  • Sections d’action circulaire :
    • harmonie (courbure) de la section d’or (néguentropie) ;
    • harmonie entropique ;
    • invariance de la néguentropie dans des correspondances projectives de la section d’or et de l’action spirale auto-similaire ;
  • Néguentropie :
    • augmentation de la densité de singularités par intervalle d’action ;
    • alternance des « forces » faibles et fortes ;
  • Isochronisme.

Substance : espace-temps physique, comme essentiellement et universellement néguentropique mais subsumant l’entropie sous les traits de « néguentropie négative ». La cause efficiente est substance ; la substance est cause efficiente.

Sur le caractère mortel de l’homme

Un célèbre sot a dit « Je pense, donc je suis ». Un être totalement avili a dit et répété que l’intérêt personnel se définit par le fait de rechercher du plaisir et d’éviter la souffrance.

La vie mortelle d’un individu est un moment entre la conception et la mort. Tous les souvenirs de plaisirs et de souffrances sensuels sont enterrés avec lui dans la tombe. Qu’y a-t-il dans de tels individus mortels qui ait de la valeur, et en vertu de laquelle la société devrait considérer qu’une quelconque de ces existences mérite d’être tolérée ? Les définitions du moi chez Descartes et Adam Smith ne placent pas l’individu mortel au-dessus du niveau d’un porc doué de parole.

L’essence de la mortalité de la personne humaine est la brièveté de sa vie. Une fois que cette vie est achevée, quelle valeur demeure pour la société ? Quelle valeur est potentiellement inhérente à chaque vie individuelle, pour laquelle la société souhaiterait la conception, la naissance, l’adolescence et la vie adulte d’encore un autre individu de ce type ?

N’abordons-nous pas la question, ici encore, de la complémentarité et de la similitude de l’isochronisme et de la loi naturelle ?

L’intérêt personnel, et la définition appropriée de l’individu, l’identité de la personne, s’enracine dans la qualité de se comporter en humain. Cette qualité distingue celui qui se comporte en humain de celui qui est presque humain sans pour autant l’être. Il est suffisant que cette distinction soit celle qui sépare l’humanité de toutes les espèces et variétés d’animaux. Cette distinction est définie comme étant la faculté de l’humanité à générer, transmettre et assimiler efficacement le progrès scientifique et technologique. Par assimilation efficace, nous voulons dire l’effet d’augmenter le potentiel de densité démographique, ce par quoi nous avons défini la survie réussie.

En première approximation, cette distinction est une singularité, telle que nous l’avons illustrée par la singularité de la transformation T(A → B). C’est cette singularité qui reflète la différence fonctionnelle essentielle entre l’humanité et chacune des espèces animales. Cette singularité place l’humanité absolument à part et absolument au-dessus de toutes les espèces animales.

De par sa nature, cette transformation ainsi que la singularité qui lui est liée constituent l’activité intellectuelle de l’individu humain. Ainsi, cette activité intellectuelle définit le caractère fini et particulier de l’individu par rapport à toutes les autres personnes de toute l’histoire passée et future.

C’est ici que se trouve la clef de la nature de l’identité personnelle de l’individu. Comme la définition de l’identité du moi [self] individuel de la personne délimite la définition de l’intérêt personnel [self-interest], cette singularité nous donne la définition délimitante des distinctions et du caractère fini du moi individuel et de l’intérêt personnel individuel.

Cette singularité ne peut exister que dans la mesure où elle est amenée à l’existence et entretenue en tant que forme « non linéaire « d’activité représentée par la transformation T(A → B). L’existence du moi tout comme l’existence et la réalisation de l’intérêt personnel se trouvent dans le processus par lequel on développe et manifeste la capacité exprimée sous la forme de génération, de transmission et d’assimilation efficiente du progrès scientifique et technologique.

Si cette activité n’est vue que dans le sens étroit de l’expression « progrès scientifique et technologique », nous ne voyons qu’un aspect d’un processus plus large. Il est plus correct de dire que l’on ne voit alors qu’une facette d’un gemme précieux. Nous pouvons maintenant dire que toutes les autres facettes de la pierre complètent avec cohérence (comme par un « principe d’hérédité » de géométrie constructive) les qualités de la facette sur laquelle notre attention est concentrée à ce moment-là.

La génération, la transmission et l’assimilation efficiente du progrès scientifique a lieu par et entre des esprits humains individuels. La fonction de transformation, représentée par T(A → B), ne peut avoir lieu au départ, en tant que génération, que comme activité interne d’un esprit humain individuel ; elle ne peut avoir lieu d’aucune autre manière. Seul l’esprit individuel peut recevoir une telle transmission, et l’assimilation efficiente comme inclination à transformer le comportement humain n’a lieu également que par l’esprit humain individuel.

Bref, l’occurrence de la singularité T(A → B) représente ce qui dans la vie intellectuelle de l’individu place l’espèce humaine à part et au-dessus de toutes les espèces animales.

A ce point, nous allons effectuer un petit détour pour relever un aspect important concernant la définition du véritable sens commun. Le sens commun ne réside pas dans le domaine de la logique déductive ; celui dont dépendent absolument, essentiellement, l’espèce humaine et la société, est l’« essence » proverbiale de cette sorte de « non-linéarité » qui défie toute compréhension par les méthodes déductives.

Nous devons donc bien établir la distinction entre véritable raison et simple logique.

Ce qui existe au-dessus de la logique, hors de portée de sa compréhension, et qui pourtant gouverne toute logique acceptable, c’est la raison. Ce domaine métalogique (métaphysique de la raison) est représenté par cette activité de progrès scientifique efficient qui est à l’origine d’une augmentation générale du potentiel de densité démographique de la société, et qui l’accomplit là où la logique déductive formelle ne permet pas un tel résultat bénéfique.

Ainsi, du fait que la survie réussie de la société dépend de cette action supérieure « non linéaire » ( la qualité de raison), le véritable sens commun ne doit être rien d’autre qu’une inclination commune visant à ce que le comportement des individus dans la société soit gouverné par la raison - la raison telle que nous l’opposons à l’irrationalisme empirique et hédoniste d’Adam Smith, et telle que nous la surimposons, en tant qu’autorité supérieure, à la simple logique.

Bien qu’elle ne soit pas adéquate, cette définition provisoire est utile. Intéressons-nous maintenant à la relation paradoxale entre la personne et la société. Considérons tout d’abord l’aspect le plus simple, avant de nous pencher sur l’isochronisme qui lie la personne du présent à la société non seulement du présent mais également celle du passé et du futur.

Le potentiel de densité démographique est une caractéristique de la société dans son ensemble. Il détermine combien de personnes peuvent exister, et à quel niveau de qualité d’existence. Il détermine le pouvoir relatif de la société à résister à des catastrophes, naturelles ou autres, ainsi qu’à y remédier. Il s’agit aussi d’un pouvoir dont est doté l’individu, comme l’illustre le niveau de connaissance individuelle scientifique et d’activités technologiques.

Avec une telle relation entre l’individu et la société apparaît un fait singulier. La contribution d’un esprit individuel effectuant une découverte scientifique fondamentale valide ne bénéficie pas seulement aux générations présentes et futures, mais également aux générations disparues du passé. On peut dire ainsi que les morts eux-mêmes ne doivent jamais mourir.

La contribution par un individu d’une telle découverte fondamentale valide est un acte universel : par une telle action, l’individu singulier agit directement sur la société dans son ensemble. Cet acte transforme le caractère de toute la société d’une façon « non linéaire ». La personne, en tant qu’individu, agit sur la société, ainsi qu’en tant qu’individualité conceptuellement indivisible, d’une manière directe.

Cette conception élémentaire nécessite une élaboration rigoureuse.

L’individu et la société

La société peut et doit être conçue comme une individualité indivisible. Plus simplement, l’addition ou la soustraction d’un nombre quelconque de personnes individuelles ne change pas la caractéristique et la qualité les plus essentielles d’une société : celle-ci n’apparaît, n’existe et ne se perpétue qu’en tant que société. A cela, nous ajoutons certaines idées fonctionnelles propres à la notion de société en tant qu’entité indivisible dans ce sens.

C’est ainsi que la personne individuelle indivisible doit être vue fonctionnellement comme n’interagissant avec rien d’autre que cette notion de société en tant qu’indivisibilité fonctionnelle. Tournons maintenant notre attention vers les principales implications de cette relation fonctionnelle.

Bien que ce ne soit qu’en première approximation, nous avons maintenant identifié, en principe, la solution du paradoxe de Parménide. Ce que nous avons considéré, et ce que nous allons considérer, doit avoir comme point de référence le De docta ignorantia de Nicolas de Cues, ouvrage dans lequel cette même solution de principe est largement mise en œuvre, et cela avec une pertinence essentielle. Nous devrons aussi prendre comme cadre de référence notre examen des formes de représentation continue d’une fonction de surface « non linéaire » néguentropique de Riemann et de Riemann-Beltrami.

Avec la société conçue comme processus continu indivisible, la personne individuelle constitue, topologiquement, une véritable singularité dans cette société. L’existence de cette singularité détruit la continuité (la connectivité) du processus, du moins dans l’approche formaliste de la topologie. Ce dommage est réparé par l’action créatrice humaine telle que nous l’avons définie dans ses grandes lignes.

Par exemple, l’action de réaliser et de transmettre une découverte scientifique fondamentale valide, établit une connexion parfaite, efficiente et omniprésente dans la société considérée en tant que processus indivisible. Cette action « répare le dommage » et la manière dont elle y parvient est illustrée par la fonction riemannienne (ou, de manière plus adéquate, par la fonction de surface de Riemann-Beltrami requise).

Les deux paragraphes qui précèdent peuvent aussi être lus comme un énoncé du paradoxe de Parménide et de sa solution.

Cette action que nous avons décrite a pour effet d’augmenter le potentiel de densité démographique de la société en tant que tout indivisible. Ne considérons pas seulement T(A → B), mais aussi T [(B → C), (C → D), (D → E)] comme correspondant à T(A → B), dans le sens de la survie réussie telle que nous l’avons décrite. Dans ce sens, la fonction pour le découvreur individuel, T0(A0 → B1) intersecte la transformation T0 (A0 → B2) avec B1 désignant le nouvel état momentané de l’individu et B2 l’effet du même acte de transformation que produit cet individu sur la société.

Ainsi, les processus mentaux créateurs de l’individu agissent directement sur l’état fonctionnel de la société dans son ensemble, en tant que T(A → B).

Est-ce à dire que l’individu particulier, la singularité, agit directement et de manière efficiente sur le tout afin de produire l’effet de transformer ce tout ? Ou s’agit-il plutôt, comme le diraient certains formalistes, d’une liaison médiée ? Si je projette une impulsion laser à travers un certain milieu, est-ce que l’impact sur ma cible doit être vu comme une relation médiée par ce milieu ?

Les recommandations pour l’utilisation de laser dans le projet américain baptisé Initiative de défense stratégique (IDS) prescrivent, par exemple, que l’impulsion laser tirée depuis le sol sur un missile arrivant, doit présenter une interaction minimale avec le milieu, c’est-à-dire l’atmosphère. Ces contraintes peuvent être satisfaites de l’une des deux manières les plus notables suivantes, ou des deux à la fois. On peut réduire la quantité d’atmosphère entre le laser et la cible ; on peut également accorder l’impulsion laser pour éviter les canaux de fréquence d’interaction de l’atmosphère. Il existe d’autres tactiques, mais ces deux-là nous suffisent pour illustrer le point en question.

Une autre analogie utile est la méthode permettant de réaliser la fusion thermonucléaire à partir, par exemple, de petits « boulets » de tritium et de deutérium afin de maximiser la compression isentropique, de la manière décrite implicitement pour la physique des plasmas dans le texte de Riemann de 1859, Sur la propagation des ondes atmosphériques planes ayant une amplitude de vibration finie.

Pour faire en sorte que la singularité (la particularité relativement petite) exerce l’impact maximal sur le processus considéré comme une unité, on accorde l’action harmoniquement de manière à suivre la trajectoire isochrone de moindre action physique.

Gardons simplement cela en mémoire ; considérons maintenant une autre implication que nous avons gardée de côté et concentrons-nous suffisamment pour la relier à celle qui précède.

L’action transmise au moyen d’un certain milieu s’interposant, doit-elle nécessairement être une relation médiée, une simple relation médiée ? C’est la question immédiate à laquelle nous devons répondre.

L’« idée » associée à la transformation individuelle T0(A0 → B1) a pour effet relativement universel T0 (A0 → B2). La transmission de cette « idée », aboutissant de manière efficiente à l’augmentation du potentiel de densité démographique de la société, est-elle une médiation, dans le sens où l’entendrait par exemple la théorie statistique des gaz ?

Imaginons un gigantesque raz-de-marée se développant sur presque toute la longueur de la côte du Pacifique. Supposons qu’une secousse sismique naissant près des Andes envoie un tel effet sur une île asiatique. Cet effet peut-il vraiment être décrit comme un « effet médié » ? Dans une hydrodynamique conçue dans le cadre d’une géométrie constructive « non euclidienne », il ne peut pas s’agir d’un effet médié mais d’un effet direct (le potentiel retardé de la propagation d’un effet). En d’autres termes, une fois que nous avons compris le rôle de l’isochronisme dans la définition du principe de moindre action (physique), et la nature de toute représentation valide d’une loi physique élémentaire, nous ne pouvons plus considérer cette relation comme médiée.

Une transformation néguentropique non médiée de la société réalisée par les pouvoirs mentaux créateurs souverains de la personne individuelle est possible dans les termes des fonctions implicites dans T(A → B). C’est la seule manière par laquelle cette transformation néguentropique peut être effectuée. L’existence des processus mentaux créateurs souverains singuliers de la personne individuelle, n’est pas seulement une source d’un avantage de ce type pour la société ; c’est la seule source de cet avantage, un avantage dont la survie réussie continue de la société dépend de manière absolue. Au cours de l’histoire, chaque fois qu’une société a cessé de favoriser le progrès scientifique et technologique, elle a souffert de certaines des conséquences suivantes (ou de toutes à la fois) :

  1. La société est prise d’assaut par une puissance usurpatrice autochtone ou étrangère.
  2. La société s’engouffre dans un âge des ténèbres, comme cela s’est produit en Europe au début du XIVe siècle.
  3. La société s’est mise à disparaître, ou presque.

La suppression du progrès scientifique et technologique, résultant de la suppression de la distinction singulière et naturelle de l’homme par rapport au règne animal, élimine les comportements qui placent la société au-dessus d’une troupe de babouins, et tend donc à transformer ses membres en une bande de « yahoos » barbares et brutaux.

La science de l’économie physique montre que tout mode fixe de production épuise légèrement les ressources naturelles dont ce mode de production dépend.

On ne remédie à ce léger épuisement que par le progrès technologique. L’aspect le plus visible de ce progrès se manifeste autour de la densité de consommation d’énergie utilisable, et celle-ci se mesure selon trois critères : a) par tête, b) par hectare, c) par nombre d’angströms (ou de microns) de l’aire de production sur laquelle est appliqué le travail. La capacité de générer et d’assimiler de façon efficiente de telles augmentations de « densité de flux énergétique » est liée à la vitesse à laquelle progresse le niveau technologique.

Ainsi, une société à « croissance technologique zéro » est un processus économique entropique, une culture mourante, une population qui a perdu sa capacité morale de survivre.

La valeur de la personne individuelle singulière ne se trouve que dans ce qui place l’homme et l’ensemble de l’humanité à part et au-dessus de toutes les espèces animales. L’existence de la société dépend uniquement de cette valeur. C’est la valeur du moi ; celle qui définit le véritable intérêt personnel, afin de préserver et améliorer notre véritable valeur ; celle qui définit ce dont on nécessite pour satisfaire les besoins de l’intérêt personnel de l’individu.

« Je transforme par mon action singulière, donc j’existe » est la bonne proposition à opposer à Descartes. « Ma valeur se mesure par les conséquences pratiques de mon existence présente, pour les générations présentes, futures et passées, chacune et toutes considérées comme un tout indivisible » est la bonne proposition à opposer à l’immoral et irrationnel Adam Smith.

Il est temps maintenant de nous tourner vers la question du présent, du futur et du passé considérés comme une unité indivisible.

En ce qui concerne la société présente, sa qualité et son potentiel pour une survie réussie dépendent de notre fonction singulière. En ce qui concerne la société future, peu importe ses progrès par rapport au niveau présent, notre contribution singulière reste scellée de façon active dans les fondations de cet état futur plus avancé. En ce qui concerne les générations passées, nous les enrichissons par notre propre contribution singulière en agissant directement ou indirectement sur leurs contributions singulières.

C’est ainsi que nous construisons un pont par-dessus le gouffre du temps, pour établir une forme directe d’échange entre des personnes se trouvant dans les recoins les plus distants du passé et du futur de l’humanité.

De l’existence de cette relation, il découle que l’humanité nous apparaît comme une singularité indivisible de notre univers. L’étendue qui relie les temps passé et futur, qui est la durée d’existence de l’humanité, ne permet pas de diviser l’humanité en périodes temporelles. Du fait que je suis en relation directe avec mon ancêtre le plus éloigné et, au même moment, avec votre postérité la plus lointaine, l’image que l’on se fait du temps absolu disparaît pour être remplacée par la notion adéquate de relativité de l’espace-temps physique.

Il en est de même pour la relation de toute l’humanité à l’univers dans son ensemble, l’existence néguentropique efficiente de l’humanité en tant que singularité de cet univers néguentropique. C’est ainsi que nous pouvons avoir dans notre esprit une approximation de la vision que le Créateur a de Son univers, et mieux informer notre esprit de Son travail dans cet univers.

Dans notre relation singulière, presque atemporelle, à l’ensemble de notre univers, établie au moyen de notre pouvoir mental créateur, c’est-à-dire la relation singulière néguentropique à toute l’humanité passée, présente et future, nous devrions voir ce que signifie la notion de loi physique universelle, et l’isochronisme caractéristique d’une loi physique représentée de façon correcte.

Dans la vision ultime, ou quasi ultime, à laquelle des mortels peuvent s’élever, l’étendue de l’espace-temps physique devient comme une entité singulière atemporelle et indivisible. Avec elle, toute l’existence de l’humanité est une singularité et chacun de nous une singularité dans l’espace-temps physique indivisible, parce que chacun d’entre nous est une singularité au sein de l’existence de l’humanité.

« Bonjour Socrate ! Agissons ensemble pour sauver l’humanité de 1992 en péril. » Voilà une proposition très concrète, dans la mesure où nous comprenons les moyens par lesquels cet objectif peut être effectivement atteint.

Agapè

Ceux qui ont l’habitude d’exercer une activité intellectuelle créatrice sont en mesure d’observer certaines congruences esthétiques curieuses, provocatrices et très plaisantes entre la découverte scientifique, la musique classique et d’autres domaines. L’amour de Dieu, l’amour de l’humanité, l’amour de la vérité et l’amour de la beauté classique partagent une certaine qualité empyréenne de joie appelée agapè dans le texte grec original du Nouveau Testament, caritas dans sa traduction latine et donc charité dans l’épître aux Corinthiens 1:13 (Bible du roi Jacques).

Cette qualité émotionnelle – l’agapè – peut être rendue plus sensible en évoquant l’émotion associée à certains types d’expériences. Ce sont nos « larmes de joie » en voyant un enfant heureux d’avoir découvert une solution rationnelle à un problème de construction avec ses jouets. C’est l’ardente lueur, la lumière qui s’allume soudain dans notre esprit, lorsque l’on réalise une découverte valide en science, en musique, en art plastique, etc. C’est la joie d’amour que l’on éprouve envers le défunt, telle qu’elle nous gagne quand on écoute une belle interprétation du Requiem de Mozart. C’est l’émotion associée à une activité consciente qui est cohérente, en termes de principe directeur, avec la vision du moi de l’humanité et de l’Univers que nous avons résumée ci-dessus.

Dans la culture classique platonicienne d’Athènes, la beauté esthétique était inséparable d’une congruence avec les ordonnancements harmoniques sous-tendus par la section d’or. C’était là la règle d’esthétique appliquée explicitement aux beaux-arts plastiques et à la polyphonie bien tempérée telle qu’elle était connue à l’époque de Platon. Aujourd’hui, nous en savons davantage que Platon mais cette connaissance nous permet d’admirer son œuvre de façon plus appropriée.

Les ordonnancements harmoniques congruents avec la section d’or sont beaux, tout simplement parce qu’ils expriment la vie par opposition à la mort. Toute composition artistique n’étant pas congruente avec cette harmonie n’est que laideur et, de ce fait, ne relève pas du véritable art. La vie exprime et représente la néguentropie. La vie, en tant que néguentropie, exprime le référent pour le verbe « créer ».

Kant dans sa dernière Critique, la Critique du jugement, réaffirme son argument selon lequel les processus créateurs ne sont pas compréhensibles. Dans le même ouvrage, partant des mêmes prémisses, il affirme qu’il n’existe pas de critère rationnel pour la beauté artistique et que, par conséquent, seuls existent les critères pragmatiques des irrationalistes.

Bien que les variétés franco-suisses du romantisme du XVIIIe siècle reposaient sur l’irrationalisme « œdipien » des correspondants de Voltaire, la dégénérescence morale rousseauiste (le romantisme du XIXe siècle) a pu se répandre en Allemagne à cause de l’influence du dogme esthétique, axiomatiquement irrationnel, de Kant. A ce sujet, le poète antiromantique Heinrich Heine a dénoncé avec une précision chirurgicale le rôle malveillant de Madame de Staël et de Kant. Il est pertinent, d’un point de vue historique particulier pour notre recherche présente, de s’intéresser aux « néokantiens » lâchés sur l’Allemagne pour y promouvoir l’irrationalisme radical du positivisme ainsi que pour y corrompre et détruire la morale à l’époque de Bismarck.

Aujourd’hui, partout où prévaut le dogme irrationnel de Francis Bacon, David Hume, Voltaire, Rousseau, Kant et des positivistes, on retrouve la prépondérance du dogme esthétique absurde de « l’art pour l’art ». Les irrationalistes fanatiques de l’art affirment, parce qu’ils ont été conditionnés à le répéter, que Kepler n’a rien à voir avec le diapason musical car, comme Savigny l’a décrété, il y a un gouffre insurmontable entre la Naturwissenschaft [la science de la nature] et la Geisteswissenschaft [la science de l’esprit] ; c’est le dogme selon lequel la raison scientifique ne doit pas entrer dans le domaine axiomatiquement irrationnel des professionnels de l’opinion artistique. Cette psychose romantique a régné, grâce au concours de Helmholtz et d’Ellis, dans les cours d’arts plastiques et de musique tout au long de ce siècle-là. C’est ainsi que prévalent en musique la laideur et la cacophonie pour la plus grande gloire de la laideur malveillante, exilant le bel canto dans des lieux de refuges de plus en plus exigus.

Nous devons insister ici sur le fait qu’évaluer la qualité d’Agapè dans le grand art classique dépend de l’expression artistique de deux qualités de composition interdépendantes.

La première est que toute composition artistique classique se manifeste par la congruence d’espace-temps physique avec les harmonies de la section d’or ; toute œuvre qui s’écarte de cette règle n’est pas classique et elle est d’autant plus arbitraire, irrationnelle et laide que cet écart est grand.

La deuxième est qu’une simple congruence avec les harmonies de la section d’or n’est pas suffisante. Cette congruence ne fait que définir les règles qui doivent être satisfaites par le talent de l’artiste. Ce n’est de l’art que lorsque la composition est subsumée par une idée artistique de la même qualité que celle d’une découverte scientifique fondamentale valide réalisée par un esprit créateur.

Une forme humaine a, au moment de sa mort, tout comme le squelette humain, l’organisation harmonique que la vie lui a donnée. Ce n’est pas vivant, de même qu’une composition harmonique plastique ou musicale n’est pas de l’art, mais seulement un exercice d’élève et s’efforçant de suivre les règles de l’art, tant que l’étincelle du génie créateur n’illumine pas ces harmonies.

Ainsi, dans l’art classique, le compositeur n’a pas le droit de se livrer à ce que des anarchistes irrationalistes, tels que les romantiques ou les modernistes ouvertement satanistes, considèrent être « la liberté artistique individuelle » . Aucune « liberté » n’est permise en composition classique autre que la véritable liberté humaine, la découverte créatrice valide, dont le critère est le niveau le plus élevé de la science physique.

Il en est de même pour l’« émotion » artistique.

Autoportrait de Rembrandt en saint Paul. La véritable « émotion artistique » est cet état d’esprit qui est suscité en observant cette qualité humaine singulière que nous devrions aimer chez toutes les autres personnes. C’est l’émotion de l’amour de la vérité, et de la beauté classique.

La véritable « émotion artistique » (classique) est cet état d’esprit qui est suscité par la stimulation de la faculté associée à T(A → B). Cet état est suscité par les moments de génération, de transmission et d’assimilation efficiente de découvertes scientifiques fondamentales valides. Cette émotion suscitée est la capacité de concentration soutenue et prolongée dont nous avons besoin pour exercer une telle activité mentale. C’est l’émotion, telle que les « larmes de joie », suscitée en observant cette qualité humaine singulière que nous devrions aimer chez toutes les autres personnes. C’est, par conséquent, l’émotion de l’amour de la vérité, et de la beauté classique.

Nous, humains, avons besoin du progrès scientifique et technologique comme impulsion directrice continue pour déterminer l’orientation politique de la société. Sans cela, il est impossible d’accomplir une survie réussie. Nous en avons besoin pour maintenir la vie humaine ; mais une question se pose alors : « Pourquoi la vie humaine devrait-elle être maintenue ? Pourquoi le Créateur devrait-il garantir qu’elle existe, et qu’elle soit maintenue ? »

Maintenir la vie au moyen du progrès scientifique et technologique requiert que la société et ses membres cultivent les potentialités mentales créatrices au moyen desquelles la société a maintenu un flot de génération, de transmission et d’assimilation efficiente de vagues successives de tels progrès révolutionnaires. Pour favoriser cette activité, nous devons l’inciter à ce qu’elle tende à répondre en apparence de façon spontanée, et que cette réponse soit partagée par de nombreux individus de la société.

En d’autres termes, la société a besoin d’un mode de vie cohérent dans tous ses aspects avec cette tâche : c’est la culture dans la meilleure définition de ce terme. Cette culture a pour effet de cultiver l’individu et la société dans le mode le plus cohérent avec le comportement humain et, dans l’exercice et le développement de cette qualité, l’homme crée, c’est-à-dire qu’il est à l’image du Créateur.

L’Univers n’a pas besoin d’une espèce humaine dont l’activité n’exprimerait pas, avant tout, cette activité mentale créatrice qui place l’homme à part et absolument au-dessus de toutes les espèces et variétés d’animaux. Si l’activité de la société venait à négliger cette exigence de l’existence de notre espèce, nous risquerions, comme nous tendons à le faire aujourd’hui, de créer les circonstances dans lesquelles les lois de l’univers agiraient presque, de manière légitime, pour effacer l’espèce humaine qui se serait montrée immorale et inutile à la Création, comme le « malthusianisme » a conduit les Etats-Unis à le devenir ces vingt dernières années.

Ce choix d’inclination, entre participer au « malthusianisme » et promouvoir le progrès scientifique et technologique, correspond à une orientation politique – la qualité de l’impulsion qui gouverne la manière par laquelle nous formulons une succession d’initiatives politiques en réponse aux circonstances changeantes. Ainsi, une telle orientation correspond à une survie réussie. Par contre, le choix réussi d’une politique particulière du moment correspond à une survie momentanée.

Bien entendu, une orientation politique correspondant à une survie réussie n’est qu’une manière générale d’exprimer un engagement efficace visant à favoriser une augmentation néguentropique du potentiel de densité démographique. Cette généralité subsume divers degrés de cette qualité générale. Réciproquement, les orientations politiques entropiques varient en degré.

Bien que nous ayons mis l’accent sur l’économie physique en tant que telle, nous avons indiqué, sans doute en accord avec notre objectif, qu’en considérant l’engagement dans une orientation politique néguentropique, nous entendons impliquer les éléments culturels corrélatifs présentés ici comme étant cohérents avec la singularité de l’acte mental créateur de transformation « non linéaire », qui constitue le moyen d’augmenter le potentiel de densité démographique par la génération, la transmission et l’assimilation efficiente du progrès scientifique et technologique.

Une fois que nous aurons commencé à établir une colonie permanente sur Mars sur des bases solides, ce que nous pourrions faire d’ici une quarantaine d’années, le point de vue philosophique dans l’art de gouverner, que nous avons représenté ici, sera hégémonique dans l’humanité. Une fois que nous nous serons engagés à devenir l’homme dans l’Univers, nous aurons considérablement changé notre manière de nous voir nous-mêmes et pour le meilleur. Le problème qui se pose aujourd’hui est d’atteindre le point pour lequel l’orientation politique que j’ai décrite ici soit reconnue comme le seul véritable sens commun.


[1En référence à la ballade de Friedrich Schiller Les Grues d’Ibykus. Œuvres de Schiller, traduction de Ad. Regnier, Tome l, 1859.

[2Platon, Théétète, traduit en anglais par Robin A.H. Waterford, New York, 1987.

[3L’expression géométrie « constructive » ou « synthétique » correspond à un système de représentation intelligible aussi bien d’un domaine de géométrie abstraite que physique, ne s’effectuant par aucun autre moyen qu’une construction basée originellement et exclusivement sur un principe unique d’action universelle : par exemple, le principe « isopérimétrique » ou « maximum-minimum » de Nicolas de Cues (De docta Ignorantia), ou encore le principe de moindre action de Leibniz. C’est aussi la définition d’une véritable « géométrie non euclidienne », c’est-à-dire une géométrie qui exclut toute dépendance d’un ensemble d’axiomes et de postulats, et qui interdit l’usage des méthodes de la logique déductive, sauf de manière négative.

[4C’est une caractéristique centrale de l’œuvre de Nicolas de Cues, que l’on retrouve au cœur des travaux de Leibniz. Rien n’est connu tant qu’il n’est pas prouvé que son existence soit possible et nécessaire du point de vue d’une géométrie physique congruente à une géométrie synthétique. Par ailleurs, l’expression représentation intelligible convient mieux pour une telle représentation constructive d’une conception.

[5Cf. Lyndon LaRouche, Alors, vous voulez tout savoir sur l’économie ?, Editions Alcuin, 1998. Il n’est pas utile ici de considérer les raisons pour lesquelles la densité démographique relative doit être employée dans l’application concrète de l’économie physique.

[6Il est implicitement le cas que toute forme correspondant à un processus existant dans l’Univers, est finalement susceptible d’une représentation intelligible.

[7Cette utilisation de l’expression « géométrie synthétique » fait référence au professeur de géométrie de Bernhard Riemann, Jacob Steiner. Du fait que Riemann a associé explicitement son propre travail à la méthode constructive de géométrie synthétique de Steiner, cette expression est la plus appropriée aujourd’hui.

[8L’expression « géométrie non euclidienne » est aujourd’hui associée en général à ce que l’on devrait qualifier de « géométries néo-euclidiennes ». Il s’agit de géométries euclidiennes pour lesquelles un ou plusieurs postulats ont été changés. Dans une véritable « géométrie non euclidienne », il n’y a ni axiomes ni postulats et l’utilisation de méthodes déductives n’est pas autorisée, excepté pour des fonctions négatives.

[9Voir la correspondance de Leibniz-Clarke de 1715- 1716.

[10John von Neumann, The Theory of Parlor Games, 1928 ; John von Neumann et Oskar Morgenstern, Theory of Games and Economic Behaviour, Princeton, 1944.

[11Kepler, L’étrenne, ou la neige sexangulaire, (1611), Vrin, 1975.

[12Du fait que l’existence de la ceinture d’astéroïdes, avec des valeurs orbitales harmoniques prescrites par Kepler, est une caractéristique nécessaire de l’ensemble de la physique de ce dernier, la découverte de ces astéroïdes environ deux siècles après les spécifications de Kepler a été une preuve expérimentale déterminante que la physique de Kepler était correcte et que celle de Newton et des cartésiens était fausse.

[13Voir Georg Cantor, Fondements d’une théorie générale des multiplicités, (Grundlagen einer allgemeinen Mannigfaltigkeitslehre), traduction de Laurent Rosenfeld, revue Fusion, première partie, n°14, septembre 1985 ; deuxième partie, n°15, décembre 1985. Ce qui apparaît le plus immédiatement dans mes contributions à la science de l’économie physique de Leibniz, c’est l’énumérabilité cantorienne (implicite) de la densité de discontinuités se trouvant dans un intervalle arbitrairement petit.

[14A partir de la fin de l’année 1979 jusqu’au début de 1983, le magazine international Executive Intelligence Review a produit une prévision économique trimestrielle utilisant la méthode LaRouche-Riemann. Ce rapport était construit essentiellement à partir d’une base de donnée définie à partir du PNB et mettant en œuvre un ensemble de contraintes que j’avais fournies. Au cours de cette période, ce fut la seule source publiée et disponible de prévision économique fiable et consistante provenant des Etats-Unis. Ce travail de prévision a cessé au début de 1988 à ma demande. La marge de manipulation des données du gouvernement fédéral et de la Réserve fédérale rendait tout rapport basé sur de tels chiffres, sans valeur.

[15Bernhard Riemann, Sur les hypothèses qui servent de base à la géométrie.

[16Voir les notes posthumes de Riemann sur Herbart.

[17Voir Note on so-called « non-Euclidean » geometries, Executive Intelligence Review, Vol. 13, N°21, 20 mai 1988.

[18Voir Beltrami, Considérations Hydrodynamiques (Considerazioni idrodinamiche,1889).

[19Presque deux siècles avant la découverte de l’existence de la ceinture des astéroïdes, l’astrophysique solaire de Kepler rendait simultanément nécessaires l’existence et l’autodestruction d’une planète se trouvant sur l’orbite de la ceinture d’astéroïdes entre Mars et Jupiter. Kepler en fournit les paramètres orbitaux harmoniques. Lorsque Gauss montra que les astéroïdes avaient ces valeurs harmoniques prévues par Kepler, ce fut la preuve définitive que tous les opposants à Kepler, dont Galilée, Descartes et Newton, étaient dans l’erreur et que l’ensemble de leur physique était axiomatiquement fausse par rapport à celle de Kepler.

[20Un musicologisme absurde mais répandu classe le célèbre compositeur antiromantique Johannes Brahms dans la même catégorie romantique que l’adversaire de ce dernier, Richard Wagner. Influencés par l’héritage de Hegel, les critiques musicaux croient que le Zeitgeist de l’Europe s’est converti à la religion esthétique du romantisme au moment du Congrès de Vienne de 1815 et s’est maintenu ainsi tout au cours du XIXe siècle. C’est ainsi que des compositeurs classiques tels que Franz Schubert, Frédéric Chopin, Robert Schumann et Brahms sont étiquetés « romantiques » et, pire encore, sont souvent interprétés comme s’ils l’étaient réellement.