Les écrits de Lyndon LaRouche

Comment la plupart des économistes de notre époque sont devenus incultes :
Science et puissance de prospérer

mardi 2 août 2005, par Lyndon LaRouche

Lyndon LaRouche lors d’une conférence sur internet le 16 juin 2005.

Dans ce texte, rédigé le 16 avril 2005, Lyndon LaRouche se propose de démonter les erreurs les plus courantes de la pensée économique actuelle et de fournir des connaissances solides du bon fonctionnement d’une économie moderne.

Ce rapport a pour sujet la science économique, cette forme de science sans laquelle il serait impossible de se remettre de l’effondrement monétaro-financier mondial actuel. Cependant, en science, comme dans la préparation d’un bon repas, il faut d’abord débarrasser la cuisine des débris malsains.

Toutefois, ce rapport n’a pas pour seule intention de vider les ordures. Considérez le nettoyage de ces éléments nocifs de l’opinion générale comme une attaque nécessaire contre certains groupes d’économistes qui continuent à jouer le rôle de charlatans, aux dépens du public. Il est nécessaire de dénoncer ces prédateurs en raison des dommages qu’ils continueraient, sinon, à infliger aux Etats-Unis et à d’autres nations, de par l’influence de leurs impostures, notamment sur le gouvernement. J’ai placé cette attaque au début de mon rapport, même s’il ne s’agit que d’un aspect secondaire de la question, car omettre de dénoncer ces dogmes constituerait une négligence fatale, au regard des fraudes que, dans leur désespoir grandissant, ces individus ne manqueront pas de commettre en cette période. A moins de dénoncer leurs fraudes sur les sujets que je soulève ici, non seulement les dégâts causés par leurs opinions erronées persisteront, mais ils s’aggraveront.

Sur ce point, dès 1971, j’ai accusé nombre des professeurs d’économie les plus influents d’être des « quackademics ». Dans les décennies qui suivirent, il a été démontré maintes fois que le choix de ce terme n’était pas seulement correct, mais aussi nécessaire. Rétrospectivement, il est clair que si, à l’époque, on avait davantage écouté mes mises en garde, les Etats-Unis et le monde entier ne seraient pas plongés aujourd’hui dans cette terrible crise.

Cependant, et c’est le principal sujet abordé ici, le fait est que même des personnes honnêtes et intelligentes dans le gouvernement comme dans le monde universitaire ou des affaires n’ont tout simplement pas le type de savoir nécessaire pour choisir des politiques compétentes dans les circonstances de crise actuelles. Ce rapport met donc l’accent sur l’urgente nécessité d’étudier et de mettre en pratique la science économique en tant que science, essentiellement comme une branche de la science physique expérimentale.

Je me vois donc obligé de compléter le mémorandum que j’ai récemment destiné aux membres du Sénat américain et à leurs collaborateurs, en fournissant aux personnes concernées, dans la profession et ailleurs, une introduction concise à certains principes dont la nécessité est patente mais dont on ne tient généralement pas compte. Dans ce rapport, toutes les questions abordées sont subsumées par la nécessité de remédier à l’absence générale de ce savoir, afin de permettre de sortir notre république et le monde de la catastrophe qui se profile.

Alors que j’écris ces lignes, la plupart des grands économistes reconnus ignorent, ostensiblement, les erreurs systémiques les plus élémentaires de leur façon de penser. Ces erreurs se manifestent dans leur complicité à nous entraîner sur la fausse route que nous suivons depuis trois décennies, nous menant à l’abîme que représente l’effondrement économique en chaîne du système monétaro-financier mondial. Je vais donc présenter ici les nécessaires principes de la science économique comme d’une science démontrant que l’effondrement actuel n’aurait pas été possible si ces économistes professionnels et leurs disciples n’avaient ignoré ou, le cas échéant, contesté les principes autrefois bien connus du Système américain d’économie politique. Il y a plus de deux cents ans, il représentait déjà un modèle d’économie moderne, voué à un succès durable.

Par conséquent, face au péril immédiat qui menace l’économie mondiale, l’influence persistante de l’idéologie de ces économistes égarés sur les décisions politiques de certains gouvernements, dont le nôtre, doit être considérée comme la drogue toxique et toxicomanogène ayant provoqué la dégénérescence du système monétaro-financier mondial. Il y a des décennies qu’on aurait dû prévoir, ou du moins reconnaître, qu’il s’agissait là de la recette aboutissant à la catastrophe générale que nous avons effectivement vécue au cours du dernier quart de siècle.

Aussi, pour surmonter la crise actuelle de l’économie américaine et mondiale, devons-nous entreprendre deux choses. D’abord, en matière économique, nous débarrasser des raisonnements débiles qui ont dominé la politique de certains gouvernements, américain et autres, et provoqué la ruine de notre économie depuis trente-cinq ans. Deuxièmement, fournir aux économistes professionnels et aux hommes d’affaires le savoir qui leur fait défaut à propos du bon fonctionnement d’une économie moderne, mais ce n’est pas tout ; on doit aussi assurer que l’éducation secondaire et universitaire fournisse des connaissances solides en la matière. Ce deuxième objectif est le thème principal de mon rapport.

Pour illustrer ces deux points, j’ai choisi l’exemple, très actuel, de la nécessité de diagnostiquer l’état d’effondrement de l’industrie automobile et d’y remédier. Où était l’erreur ? Par quoi la remplacer ? De quelle façon aborder la science économique afin de répondre à ce défi ? Comment devons-nous envisager la reconstruction de l’économie américaine et mondiale au cours des cinquante ans à venir et au-delà ?

Dans des écrits antérieurs, j’ai recensé quelques-unes des raisons essentielles de l’échec de la gestion de General Motors et d’autres sociétés, ainsi que les remèdes. Dans ce rapport, j’aborde surtout les principes scientifiques qui devraient être appliqués en lieu et place des politiques erronées qui ont causé l’effondrement actuel de l’industrie. Dans ce contexte, j’attirerai l’attention sur certains principes essentiels, et tout à fait pertinents, de la science économique, généralement ignorés des grands économistes avant qu’ils n’aient lu ce rapport. Je donnerai quelques exemples de cette ignorance générale, choisis parce qu’ils sont facilement compréhensibles par le public auquel je m’adresse ici.

Je noterai aussi la nature des principes scientifiques plus profonds, qui doit guider la manière dont l’éducation transmet les principes économiques depuis le niveau universitaire jusqu’au secondaire et à la population en général.

Pour parler franchement, le « lavage de cerveau » virtuel infligé aux échelons supérieurs des gestionnaires d’entreprise et du gouvernement en matière économique nous a menés à une situation extrême : le krach de l’ensemble de l’industrie automobile reflète un conditionnement qui entrave, chez le cadre supérieur ou le dirigeant politique, toute capacité de réflexion rationnelle sur les aspects cruciaux de la crise dans cette branche. On trouve un exemple illustrant bien l’attitude typique de ces dernières années chez celui qui, sentant venir la crise de l’économie physique, tourne le dos à la réalité, par exemple en reprochant à son interlocuteur de « ne pas parler de la performance du marché ».

Ainsi, alors que dans ce secteur, la réaction des responsables syndicaux face à la crise tend à être rationnelle, saine et réaliste, le responsable politique censé représenter leurs intérêts tendra trop souvent à réagir à la même information en changeant de sujet pour s’enquérir de la santé du marché. Or c’est ce marché qui s’obstine à affirmer que le secteur industriel en question est sur la voie de la reprise, alors même qu’il s’approche du krach. Ce désir d’éviter la réalité physique, que l’on rencontre couramment chez les « cols blancs », se reflète dans leur tendance à se tourner vers « le marché » chaque fois que la réalité leur fait peur. (...)

La manière dont les conditions d’effondrement imminent ont été créées au cours des dernières années dans l’industrie automobile, en particulier, montre bien la nécessité de changer l’orientation du débat sur la politique économique - de le sortir du domaine monétaro-financier afin de resituer les mécanismes monétaro-financiers du point de vue des processus à l’œuvre dans l’économie physique en tant que telle.

Ceci dit, la première question que le lecteur réfléchi voudrait voir aborder maintenant concerne mon niveau de compétence. Je livrerai donc ici, en préface, quelques remarques utiles sur les aspects les plus pertinents de ma formation dans ce domaine, avant de revenir au point central de la science à laquelle ce rapport est dédié.

Quelques données personnelles

Souvent, dans le cadre des décisions politiques prises par nos dirigeants, leurs succès notables ou, au contraire, leurs échecs regrettables reflètent un tournant décisif du développement de leur personnalité dans leur enfance ou leur adolescence.

Rétrospectivement, il est juste de dire que ma carrière d’économiste est l’aboutissement d’un processus commencé au cours de mon adolescence, à l’occasion d’un incident survenu le jour où j’assistai à mon premier cours de géométrie plane à l’école secondaire. Lorsque l’enseignante nous demanda pourquoi on devait étudier la géométrie, j’ai évoqué un sujet qui m’avait fasciné depuis ma visite aux chantiers navals de Charleston, dans le Massachusetts. Voici donc comment j’ai répondu au défi de l’enseignante : on doit étudier pourquoi le fait de laisser des trous dans les poutres métalliques renforce la structure qu’ils soutiennent. C’est le genre de question qu’un garçon, dans ce genre de circonstances, pose à son père. Je le lui avais effectivement demandé, mais sans obtenir de réponse satisfaisante : il s’était borné à dire que j’apprendrais la réponse à l’école, le moment voulu. J’étais donc à l’école, et j’ai posé la question.

Malgré le ridicule, aussi prompt que stupide, dont voulaient me couvrir certains de mes camarades de classe, mes réflexions sur leur réaction, que je considérais déjà comme irrationnelle, me convainquirent que je ne pourrais jamais accepter l’idée d’une géométrie, ou d’une physique, qui reposerait sur des définitions, axiomes et postulats « évidents en soi », que ce soit de la doctrine euclidienne ou autre. Et, effectivement, je ne l’ai jamais accepté.

Avant cette anecdote, déjà, des questions similaires m’avaient poussé à lire des écrits représentatifs des grands noms de la philosophie anglaise, française et allemande, datant du XVIème au XVIIIème siècles. De ce point de vue, ma fascination pour l’étude des philosophies en tant que systèmes, à la différence des opinions, est restée intacte jusqu’à ce jour. Cette expérience de l’étude de la philosophie, dans la période restante de mon adolescence, me montra la portée de cet incident survenu en classe de géométrie : à savoir qu’adolescent, j’étais déjà en passe de devenir un admirateur de Gottfried Leibniz, plus que de tout autre auteur que j’avais lu au cours de mon exploration des philosophies européennes modernes. Ces recherches dans l’histoire des idées furent graduellement complétées par des traductions d’œuvres de Grecs antérieurs à Aristote et par des commentaires contradictoires sur ces œuvres.

Quelque deux ans après cet incident en classe, j’étais devenu, de fait, un converti à la science de la géométrie physique et plus d’une décennie plus tard, je devais reconnaître qu’il s’agissait d’une géométrie anti-euclidienne riemannienne1.

L’importance de cet épisode d’adolescence pour l’essai présent ne consiste pas seulement à mettre en évidence que la plupart des « professionnels » que j’ai eu à connaître, qu’ils soient de ma génération ou de la suivante, ont atteint l’âge adulte en suivant un parcours intellectuel systémiquement contraire au mien. C’est en adoptant l’approche que j’avais exprimée à l’époque dans cette classe, que j’ai pu développer des méthodes qui se sont avérées supérieures en matière économique.

Ainsi, depuis mon adolescence, l’adoption de cette approche controversée de la géométrie physique m’a amené à suivre la voie, spécifiquement américaine et essentiellement leibnizienne, de la science économique associée à la tradition que le premier secrétaire au Trésor des Etats-Unis, Alexander Hamilton, nommait le Système américain d’économie politique. Par contre, presque tout ce qui passe pour la doctrine globalement acceptée aujourd’hui, même dans les universités américaines, repose sur l’école libérale anglo-hollandaise de science économique. C’était déjà contre cette doctrine que fut menée la Guerre d’Indépendance américaine.

Ma préférence pour le Système américain, dès mon adolescence, exprime une coïncidence non accidentelle avec certains aspects de mon legs familial, que j’ai connus encore enfant, en tant que descendant de cercles associés aux Whigs américains du début du XIXème siècle et à la continuation de cette tradition chez Abraham Lincoln. La convergence entre cet aspect de l’histoire familiale et la preuve scientifique fait que je me suis toujours senti personnellement à l’aise avec l’accord entre ces deux influences, encore aujourd’hui.

Cette expérience est à l’origine des succès répétés que j’allais connaître en matière de prévision économique à long terme, au cours des décennies, alors que les écoles de pensée représentées par mes rivaux putatifs dans le domaine de la prévision ont régulièrement échoué, souvent de manière patente.

La différence philosophique que j’ai exprimée dans cette salle de classe il y a près de soixante-dix ans a une signification de principe essentielle pour la science en général, et plus particulièrement pour la science économique, qui peut, à bon escient, être énoncée comme suit : « Un simple mathématicien, comme René Descartes, rend compte statistiquement, comme le fit Copernic, du mouvement qui a été observé ; par contre, un expert de la science physique suit des précurseurs comme Johannes Kepler. Le deuxième ne découvre pas seulement ce qui est à l’origine du mouvement de l’objet observé, il fonde ses conclusions et ses preuves sur la découverte de la puissance spécifique2 - le principe physique universel spécifique - qui génère le mouvement observable qu’il n’aurait pas été possible de prédire avec les méthodes du simple mathématicien3. » Nous observons le mouvement d’une planète. Galilée dit qu’elle se déplace ; Kepler recherche, et découvre, ce qui la fait se déplacer4.

Ainsi, dès le début de ce qui allait devenir mes succès d’économiste, j’avais été amené à définir, à l’instar de Leibniz, toute science économique compétente comme une science de l’économie physique, dont la pratique la plus caractéristique est l’art de la prévision à long terme. Le statisticien, dans sa tentative de prévisionniste, cherche à prédire le mouvement, tandis que le scientifique dans la tradition de Kepler, Leibniz, Gauss et Riemann se demande ce qui cause le mouvement, quitte à produire un état de mouvement qui n’a jamais, à sa connaissance, existé auparavant. C’est cette dernière sorte de mouvement, prévoyant correctement un processus qui ne s’était jamais produit auparavant, que les méthodes statistiques du réductionniste excluent inévitablement ; c’est le mouvement qui exprime tous les développements correspondant au plus important d’entre eux.

Ce sont ces développements que le statisticien va forcément manquer de considérer comme probables5. Un principe dont la découverte et l’application génèrent une catégorie de phénomènes inconnus jusqu’alors, est ce qui définit, pour l’expérimentaliste, un principe physique universel. Voilà la véritable définition de la méthode scientifique ; voilà la puissance du progrès. Cette notion de puissance est le principe essentiel de toute science économique compétente6.

Dans ma transition du stade de jeune admirateur du concept de la géométrie physique à celui d’économiste professionnel, le premier pas formel eut lieu au début de 1948, lorsque l’on me prêta un exemplaire en prépublication de La Cybernétique de Norbert Wiener. Une bonne partie de ce livre me parut intéressante, mais je ne pouvais pas avaler sa doctrine extraordinairement réductionniste, et franchement absurde, de « théorie de l’information ». J’ai résolu, dès ce moment, d’élaborer une réfutation stricte de son intervention habilement séductrice dans la science économique, depuis sa « tour d’ivoire ».

Plus tard, en 1952 et 1953, lisant et relisant les premiers paragraphes de la thèse d’habilitation de Bernard Riemann de 1854, j’ai pu recentrer mes travaux antérieurs sur la mise au point d’une thèse réfutant Wiener (ainsi que John von Neumann) dans le domaine économique. Une convalescence m’ayant imposé un loisir forcé, j’ai connu ma première expérience « Eureka ! » ; j’acquis ainsi la ferme conviction de ma propre compétence spécifique en tant qu’économiste, qui allait être démontrée quelques années plus tard, lors de ma première prévision économique générale.

En 1956, donc, je rendais publique la première prévision opérationnelle basée sur ces études, en annonçant à des collègues plutôt étonnés, et pour la plupart incrédules, que nous, consultants en gestion, devions prévoir l’éclatement d’une grave récession de l’économie américaine aux alentours de février 19577. Cette récession se produisit effectivement à cette date, et pour les raisons que j’avais indiquées. Ses effets, que j’avais correctement prévus, furent assez peu appréciés parmi ces cercles. Evidemment, la récession n’avait pas été provoquée par mes doutes quant à la saine gestion de l’industrie automobile ; mais il y a des périls que le prévisionniste doit accepter et donc, pour certains collaborateurs et autres, je devais être tenu pour responsable, émotionnellement, des effets que la réalité, et non pas mon intervention personnelle, avait produits et livrés devant la porte. Les pauvres gars rivés à leurs illusions antérieures sur l’économie pouvaient bien m’accuser d’avoir provoqué la récession par mes propos !

Avant de formuler cette prévision, j’avais étudié certaines méthodes, pathologiques du point de vue économique, utilisées par de grands constructeurs automobiles pour la commercialisation de leurs produits. Cette observation attira mon attention sur d’autres manifestations plus larges de la fraude virtuelle commise par les créanciers, alors comme aujourd’hui, notamment l’abus du crédit à la consommation dans l’économie américaine. D’où ma prévision.

Toutes les prévisions de ce genre que j’ai formulées depuis se basent sur la découverte d’un trait systémique caractéristique du processus économique. La plupart du temps, comme ce fut le cas pour mes prévisions de 1956 et par la suite, cet élément systémique correspond à la découverte d’une supposition majeure de type axiomatique, et habituellement fausse, faite par les intérêts dominants du système actuel. Tout comme le processus ayant mené depuis 1954 au tournant de février 1957, la plupart des prévisions importantes se fondent sur la découverte d’une telle illusion systématique - comme la folie du « club des Pyramides » de la fin des années 40, ou les dépenses extravagantes, financées à crédit, d’avant la récession de 1957 - dont chacune, tout comme la « bulle de John Law » du début du XVIIIème siècle, imprègne le comportement des masses.

Comme le montre le cas de la crise actuelle de General Motors, les imbéciles tendent à ne considérer que les avantages monétaro-financiers apparents à court terme, tout en délaissant les facteurs de l’économie physique à moyen et long termes. Or, ce sont eux qui, tôt ou tard, prendront leur revanche, comme on le voit maintenant, sur les illusions monétaro-financières ayant temporairement séduit l’opinion dominante.

A titre d’exemple, le fait que la population américaine, dans son ensemble, se soit laissée transformer d’épargnants en emprunteurs surendettés, ne se souciant que de l’argent à dépenser aujourd’hui au détriment de la dette à rembourser demain, montre bien comment les illusions à court terme de l’opinion publique mènent à des catastrophes à moyen et long termes. Cela se manifeste clairement dans les différentes bulles des années 90, celles de la technologie de l’information, des titres financiers à base hypothécaire, du financement de l’achat d’une automobile et des hedge funds plus généralement, ainsi que dans la dette fiscale et le déficit des comptes courants américains. Dans toutes les bulles et la plupart des cycles boom-krach, intervient un élément systémique d’illusion populaire, opérant comme un axiome du comportement que les masses sont amenées à adopter.

Ironiquement, le même type d’erreur, à une échelle supérieure, est un élément décisif du krach de l’industrie automobile et d’autres secteurs. Toutefois, si la prévision des désastres est importante et, plus encore, nécessaire, c’est la capacité de prévoir les moyens d’organiser une reprise, avant que le désastre ne frappe, qui touche au cœur même de la qualité scientifique régissant la pratique professionnelle de l’économie physique. Pour illustrer cette qualité, voir un aspect central du rapport sur les perspectives de reprise que je viens de rédiger et de soumettre, sous forme de motion, aux membres du Sénat américain, et auquel ce texte-ci est destiné à fournir un complément technique.

Ce n’est pas un hasard si l’erreur systémique à l’origine de la mauvaise gestion dont nous voyons aujourd’hui les effets dans le secteur automobile mondial, est du même type, quoique à une échelle plus grande, que celle qui avait attiré mon attention en 1956 dans l’industrie automobile. De toute évidence, la gestion financière actuelle de General Motors n’a rien appris des erreurs de l’industrie d’il y a cinquante ans.

Comme je l’ai déjà indiqué, en 1956, ma prévision de la grave récession à venir l’année suivante fut faite dans le cadre de mes fonctions de responsable au sein de l’entreprise qui m’employait à l’époque. Cependant, cette étude, qui s’avéra correcte, me poussa à entreprendre à titre personnel une recherche plus profonde, plus intense et plus vaste sur les différentes tendances économiques, que j’ai intégrée dans une prévision ultérieure, à partir de 1959-60. Il était clair pour moi, à l’époque, que si l’on persévérait dans cette idéologie, cela déclencherait une série de crises monétaires internationales dans la deuxième moitié des années 60 et ferait peser, en outre, le danger d’un effondrement du système monétaire mondial, par voie de conséquence. Cela se produisit comme je l’avais effectivement prévu, à partir du milieu des années 60, jusqu’en 1971 et au-delà. C’est pour cette prévision, plus largement diffusée, que je suis connu dans le monde depuis la deuxième moitié des années 60. Cette prévision se confirma en 1967-68, avec la crise de la livre sterling et du dollar américain, puis avec le démantèlement du système monétaire de Bretton Woods, en 1971-72.

Mes déclarations postérieures à cette décision prise par l’administration Nixon, le 16 août 1971, définirent la base à long terme des différentes prévisions à moyen terme que j’allais élaborer à divers moments au cours des décennies suivantes, jusqu’à celle diffusée dans certains médias peu avant l’entrée en fonctions du nouveau Président américain en 2001. Aucune des prévisions que j’ai faites durant cette période ne s’est révélée fausse.

Les crises qui éclatent aujourd’hui démontrent pleinement le bien-fondé de la méthode associée à cette prévision générale.

Je ne nie pas par là qu’il existe, dans différentes branches de l’économie, de nombreux spécialistes témoignant d’une véritable autorité d’expert en faisant des déclarations justes, et parfois tout à fait valables, sur la signification des événements d’actualité. Il y a souvent une coïncidence d’opinion notable entre mon travail et le leur, et aussi une certaine coopération entre nous. Toutefois, ma capacité de prévision a une qualité unique, déjà mentionnée, en ce qu’elle fournit la base scientifique pour la prise de décisions politiques à long terme, telle qu’elle se reflète dans le succès de mes prévisions à long terme. C’est cette base scientifique de mes succès distincts en la matière que doivent, en fin de compte, acquérir ceux qui veulent se qualifier pour diriger le monde à l’avenir, notamment les dirigeants futurs qui auront suivi le programme d’études de certains fondamentaux, en science comme en art classique, mené par le Mouvement des jeunes larouchistes.

Mon travail a pour but d’informer et d’éduquer les dirigeants actuels, issus de générations plus anciennes, tout en cherchant à développer un nouveau contingent de dirigeants nationaux amenés à savoir ce que je sais aujourd’hui, mais bien mieux encore. Et ils seront là pour diriger bien après que ma génération ait disparu.

1. Qu’est-ce que la science économique ?

Avant de discuter des maladies et des remèdes de nos systèmes économiques modernes, internationaux et nationaux, nous devons d’abord définir ce que les économistes devraient entendre par « science économique ». En effet, très peu d’économistes et de manuels d’économie en fournissent une définition valable. En général, les débats sur le sujet tendent à échouer dès le départ, se transformant le plus souvent en une tour de Babel de confusion quant aux fondamentaux. Pour éviter une telle confusion à propos des définitions elles-mêmes, je commencerai, avant d’aborder dans ce chapitre les problèmes techniques posés par l’actuelle débâcle de General Motors, par donner la définition correcte du terme de science économique.

Toute étude compétente de la pratique économique doit partir du fait historique décisif qu’il n’existait aucune science de l’économie avant la naissance de l’Etat-nation moderne, au cours de la Renaissance dans l’Europe du XVème siècle. Les premières véritables économies, appelées aussi républiques d’intérêt général (commonwealths en anglais), furent fondées au cours de la deuxième moitié du XVème siècle, d’abord par Louis XI en France, puis par Henri VII d’Angleterre. Toute discussion sur les principes à reconnaître pour traiter de manière compétente les causes de l’effondrement global du système monétaire mondial à taux de change flottants qui s’abat sur nous et y remédier, doit s’appuyer préalablement sur la compréhension des différences de principe scientifique entre les diverses formes de société européenne existant avant, pendant et après la Renaissance du XVème siècle.

Le cas de la France de Louis XI et de l’Angleterre de Henri VII est d’une importance fondamentale pour trier les éléments historiques permettant de situer les causes et le remède de la crise globale qui se manifeste aujourd’hui chez General Motors et d’autres exemples analogues. Il est impossible d’appréhender ce que le terme Etat-nation souverain devrait signifier pour tout économiste compétent, sans examiner avec lucidité l’histoire de l’humanité avant la Renaissance du XVème siècle. Faute d’avoir fait la lumière sur ce point, toute compréhension compétente des principes de l’économie moderne s’avérera impossible.

Je procède donc en conséquence. Tout d’abord, bien que la définition valable de l’idée de république constitutionnelle remonte à l’œuvre de Solon d’Athènes, il n’existait pas de véritable république, au sens où nous l’entendons, avant les développements décisifs de la Renaissance du XVème siècle. Une véritable république (qui a pour synonyme anglais commonwealth), comme celles fondées par Louis XI ou Henri VII, est un Etat-nation dont le droit constitutionnel se base sur le triple principe de la souveraineté pleine et entière, la défense de cette souveraineté et l’obligation pour la société de promouvoir le bien-être général de tout le peuple et de sa postérité. On en trouve l’équivalent fonctionnel dans le Préambule de la Constitution des Etats-Unis et la notion correspondante de loi naturelle qui se trouve au cœur de la Déclaration d’indépendance américaine de 1776, sous la formulation « poursuite du bonheur », reprise de l’attaque de Leibniz contre la folie de John Locke.

Pour autant que l’on sache, il n’existait aucune forme de société remplissant les conditions de cette définition, où ce que ce soit, avant le développement de cette réforme au XVème siècle8.

Celle-ci ne fut pas le fruit d’une génération spontanée, mais l’aboutissement d’un très long processus, entamé notamment dans la région géographique d’Europe et de l’Asie proche, vers 10 000 avant notre ère.

C’est une période qui commença par un événement catastrophique, une énorme inondation provoquée par la lente fonte des glaces à grande échelle, signalant la fin d’une longue période de glaciation dans l’hémisphère Nord. Au cours de toute cette période de fonte, c’est-à-dire du processus de post-glaciation ayant démarré plus de 6000 ans auparavant, le niveau des océans du monde s’éleva de quelque 100 à 130 mètres. Une fois atteint ce niveau approximatif, les principales données géographiques sont restées les mêmes depuis.

En même temps que ce processus de changement post-glaciaire, de profondes modifications successives du climat et d’autres facteurs contextuels se sont produites au cours de la période précédant les événements pour lesquels subsistent des récits historiques, soit une période de l’histoire du territoire européen et sud-ouest asiatique remontant à environ 4000 ans avant notre ère9.

Pour comprendre comment la civilisation européenne développa la conception précise et fonctionnelle d’Etat-nation souverain, il faut considérer la manière dont le monothéisme inspira le développement des conceptions de l’humanité et de la société qui donnèrent naissance à l’Etat-nation.

Les régions d’Asie du Sud-Ouest, d’Afrique et d’Europe où se développèrent des cultures humaines au cours des 4000 ans précédant la naissance de Jésus-Christ, furent un foyer de conflits d’où émergea un courant spécifique, constituant la civilisation européenne. Ce processus de développement se concentra dans ce qu’on appelle aujourd’hui la civilisation de la Grèce classique.

Le facteur central de ce processus fut l’émergence, chez l’homme, de la connaissance consciente d’un univers et d’une déité universelle, dotés d’une volonté. Profondément enterrée quelque part dans la préhistoire du monde connu de l’Egypte, berceau du monothéisme de Moïse, préexistait la notion d’un dieu monothéiste - d’une personnalité dont l’esprit humain est le miroir. Cependant, percer l’obscurité des origines de la connaissance du principe monothéiste n’est pas seulement un défi à relever ; identifier une notion plus précise et rigoureuse du concept lui-même est scientifiquement nécessaire au bon fonctionnement du monde moderne.

Il est essentiel d’examiner les pouvoirs créateurs, uniques à l’espèce humaine, qui nous permettent de traiter divers indices nous montrant comment l’esprit humain, tel que nous le connaissons, peut avoir réellement connaissance de l’existence vérifiable d’un tel Dieu. C’est cette notion de Dieu, telle que Platon la présente dans le Timée, qui représente le fondement sur lequel s’est bâtie la civilisation européenne, depuis ses débuts.

Exemplaire à cet égard est l’argument en faveur d’un Dieu activement créateur, développé par Philon d’Alexandrie et les Chrétiens, qui raisonnaient avec cette qualité et ce degré d’exactitude que nous assimilons à la certitude scientifique, plutôt que de recourir à un amalgame anecdotique de légendes et autres chroniques. Le Timée de Platon, lorsqu’on le situe dans le cadre des travaux sur les méthodes de conceptualisation des universaux, tels ceux des pythagoriciens, et plus généralement, au sein de ses dialogues, va dans le sens d’une telle connaissance scientifiquement précise de Dieu et de la notion de société qui lui est associée.

Il est curieux, mais non fortuit, que le travail de Riemann sur les implications du principe de Dirichlet (que je traiterai dans le prochain chapitre de ce rapport) montre la manière dont l’esprit humain peut réellement connaître et définir, avec un sentiment de certitude scientifique systématique, la notion d’existence ontologique d’un Dieu monothéiste. Comme je le soulignerai dans le chapitre suivant, en science comme en économie moderne, toutes les notions rationnelles exigent une capacité de conceptualiser la notion de principe universel en tant qu’objet de la conscience humaine spécifique et ontologique dans ses effets. La redéfinition rigoureuse par Riemann de ces universaux - énoncée d’abord dans sa dissertation révolutionnaire de 1854, puis dans son élaboration de cette notion dans sa Théorie des Fonctions abéliennes sous forme du principe de Dirichlet - nous permet de considérer, avec une plus grande perspicacité, le développement antérieur de la science physique dans la Grèce classique et en remontant encore plus loin, dans l’astronomie égyptienne et les notions d’astrophysique implicites dans le rapport de Bal Gangadhar Tilak sur l’astronomie d’Asie centrale, plus de 4000 ans avant Jésus-Christ.

Cette élaboration par Riemann de la notion du principe de Dirichlet représente une amélioration qualitative moderne de notre capacité de conceptualiser les universaux que les Egyptiens anciens, ainsi que les pythagoriciens et Platon, définissaient comme des puissances (ou dynamis) et qu’on appelle dans la science et l’art classiques des principes physiques universels - sans commune mesure avec la qualité simplement descriptive des formules mathématiques. Il est essentiel de comprendre clairement cette notion, de ce point de vue, pour pouvoir définir la notion de science économique, pour une science de l’économie physique. Cette conception est également indispensable si l’on veut obtenir une notion ontologique claire de la créativité, et aussi de la personnalité d’un Créateur. Enfin, elle est indispensable pour mieux comprendre la spécificité qualitative de la civilisation européenne moderne, qui est apparue pour la première fois dans le contexte de la Renaissance européenne du XVème siècle.

Ce que nous savons des origines de la civilisation européenne, c’est le rôle central joué, précisément, par cette idée d’un Créateur, dans la formation du courant de pensée ayant adopté certains aspects particuliers de la civilisation européenne, aspects qui nous aident à comprendre la longue lutte, tout au long des époques anciennes et médiévales, pour la naissance de l’Etat-nation républicain souverain. Le Timée de Platon incarne l’exemple fondamental des liens en question. La conception de l’homme en tant qu’être fait à l’image du Créateur et partie intégrante du processus continu de Création universelle, est la notion qui différencie le christianisme, par exemple, des formes dépravées de la société médiévale, dominée par le courant vénéto-normand ; de ces formes, l’humanité fut en grande partie libérée par la fondation révolutionnaire, au XVème siècle, de l’Etat-nation républicain souverain10.

Cette conception théologique de l’homme, telle qu’elle est consacrée dans l’oeuvre du cardinal Nicolas de Cues, notamment dans la Concordance catholique et La docte ignorance, constitue à la fois le fondement du type de science physique exemplifié plus tard par les travaux de Riemann, et de la notion de l’homme dans la société sur laquelle repose l’organisation des relations entre citoyens d’une république européenne moderne. C’est toujours Cues qui, partant de la même conception, contribua à l’organisation des futures grandes explorations outre Atlantique, puis de l’Atlantique à l’océan Indien, qui engendrèrent la notion moderne de développement d’une civilisation véritablement universelle11.

Contrairement aux doctrines empiristes et autrement réductionnistes, ces questions relatives à l’histoire du monothéisme ne sont pas seulement de nature formellement théologique. Elles ont inéluctablement trait aux conceptions de l’homme dans l’univers, un homme créé à l’image de Dieu, qui comportent des implications laïques et ont à voir avec la distinction catégorique entre l’homme et la bête. Faute de comprendre que les racines de la civilisation européenne moderne remontent à la notion de l’homme à l’image du Créateur, on ne pourra rien comprendre d’essentiel, ni de vrai, concernant l’existence humaine et la société moderne.

La conception de l’homme

Cette conception de l’homme en tant que créateur, à la ressemblance du Dieu créateur, constitue le fondement essentiel à la fois de toute science physique et de toute conception systémique compétente de l’Etat souverain moderne et de l’économie qui s’y rapporte. La plus importante contribution qui fut apportée au cours du siècle dernier au développement d’un concept intégré de l’économie et de l’homme à la ressemblance de Dieu, est le concept de noosphère développé par Vladimir Ivanovitch Vernadski.

Savant nucléaire russe et fondateur de la biogéochimie, Vernadski présenta une conception riemannienne de l’organisation physique de l’univers composé, d’après lui, de trois espaces-phases universels multiplement connectés : le domaine abiotique, la biosphère et la noosphère12. Cette conception était fondée sur des éléments, obtenus à partir d’expériences cruciales, montrant que les agrégats fossiles de notre planète sont le produit d’un principe universel n’entrant pas dans la définition des processus non vivants et que les agrégats fossiles formés à la suite de la découverte de principes universels (appartenant à la noosphère) furent le fait d’une puissance n’appartenant pas aux processus vivants. Cette notion de « puissance », qui constitue le cœur même de toute science économique compétente, est analogue à l’utilisation originale du terme par les Grecs, comme les pythagoriciens et Platon, et plus tard par Leibniz.

Cette notion de puissances implique que l’univers, tout comme la noosphère de Vernadski, est un système. Un système dans le sens où le fonctionnement de l’univers n’est pas seulement influencé, il est déterminé par un ensemble de principes physiques universels fournis par le Créateur, que l’homme est capable de découvrir. Ainsi, en découvrant ces principes universels (puissances), nous acquérons une part de la puissance totale que représente l’univers du Créateur13.

Ce que nous savons - ou croyons savoir - de ce principe constitue également un système qui, sans être celui du Créateur, en contient néanmoins une partie. Bien sûr, cela nous laisse avec des erreurs que nous avons produites, ou adoptées, mais aussi, par rapport à nos connaissances, avec beaucoup de choses à découvrir !

Comme le montre la découverte de la gravitation par Kepler, ou encore celle de la vis viva (puissances) par Leibniz, venant réfuter l’erreur de Descartes, l’univers dans lequel nous vivons réellement n’est pas le monde de nos perceptions sensibles naïves, mais un univers de principes universels, physiques et autres. C’est un univers que nous ne pouvons appréhender directement par les sens, mais par des méthodes expérimentales ; nous pouvons même prouver, au moyen d’expériences, qu’il s’agit d’une image de l’univers réel, alors que ce que nous suggèrent nos sens n’en est que l’ombre projetée sur eux.

Le concept de domaine complexe, tel que l’élaborent Gauss, Riemann, etc., illustre bien la façon dont toute science physique moderne compétente représente à la fois la différence et le lien entre l’univers réel et le monde obscur de la perception sensible.

La distinction caractéristique entre l’homme et la bête, du point de vue de la science physique, est la puissance que nous associons aux principes physiques universels découverts et dont la découverte est transmise par l’esprit souverain du découvreur à ses contemporains et aux générations futures14. Cette puissance de l’esprit humain, ainsi exprimée, représente l’aspect immortel de l’être humain biologique, c’est l’expression de sa participation à ce même principe créateur présent chez le Créateur monothéiste.

Le fondement de la science moderne compétente repose sur la notion selon laquelle nous vivons dans un univers ainsi ordonné par la volonté de ce Créateur unique ; elle constitue aussi le principe moral sur lequel reposent le développement et l’existence d’un Etat-nation souverain moderne et son économie.

Cependant, l’instauration de la république moderne, même sous sa forme imparfaite actuelle, a été une longue lutte, entre la notion de l’homme fait à l’image du Créateur et celle, opposée, inscrite dans le modèle de société oligarchique. Des exemples typiques de ce modèle nous sont donnés par les systèmes associés à l’ancienne Babylone, à Sparte, à l’image du Zeus de l’Olympe, à l’Empire romain et au système ultramontain médiéval, marqué par une alliance entre l’oligarchie financière vénitienne et la chevalerie normande. L’Etat-nation souverain moderne, la république telle que Cues la définit dans La Concordance catholique, se veut au contraire la réalisation imparfaite de l’objectif consistant à établir une forme de société conforme à la notion de l’être humain fait à l’image monothéiste du Créateur.

Le principal adversaire de cette notion est donc le modèle oligarchique découlant, sous ses diverses formes modernes, de la tyrannie ultramontaine médiévale de l’oligarchie financière vénitienne.

Le concept de république se caractérise par la transmission des découvertes de principes universels, physiques et autres, d’une génération à l’autre ; c’est ce qui constitue la distinction spirituelle et fonctionnelle essentielle entre l’espèce humaine et toute espèce animale. C’est la participation consciente au processus universel ainsi défini, qui exprime le bonheur spécifiquement humain, évoqué par Leibniz ainsi que dans la Déclaration d’indépendance américaine. A lui s’oppose la bestialité exprimée dans la doctrine de « propriété » d’un John Locke et de ses disciples partisans de l’esclavage.

Le conflit entre systèmes républicain et oligarchique se présente, aujourd’hui encore, sous la forme élémentaire présentée dans la célèbre tragédie grecque Prométhée enchaîné d’Eschyle. Prométhée s’y fait l’avocat de l’humanité en tant qu’espèce capable de recevoir et d’utiliser la découverte des principes physiques universels, qualité par laquelle la société humaine se distingue de celle des singes. Pour le Zeus de l’Olympe, le « crime » de Prométhée est de donner à l’humanité la connaissance du principe du feu15. Nier aux êtres humains le droit d’accéder à la connaissance de principes physiques universels, (la puissance du feu, dans le cas de Prométhée enchaîné) est un exemple type de la manière dont le principe d’usure oligarchique s’infiltre dans une république moderne, tels les Etats-Unis d’aujourd’hui.

L’adversaire le plus influent de cette approche prométhéenne, basée sur des principes physiques orientés sur la vérité, est l’idéologie réductionniste du Vénitien Paolo Sarpi et de ses disciples, dont Galilée, René Descartes, Francis Bacon, Thomas Hobbes, John Locke et, plus généralement, les empiristes du XVIIIème siècle comme Emmanuel Kant. D’où l’importance de la dissertation doctorale de Gauss, en 1799, dans laquelle il présente une preuve concluante réfutant l’empirisme de D’Alembert, Euler et Lagrange. (...)

Le conflit entre les intérêts du peuple américain et les intérêts financiers qui ont ravagé l’industrie automobile est une expression du conflit entre l’intérêt général et la survivance de l’oligarchie financière dans la société européenne moderne, en tant que legs du courant ultramontain de l’oligarchie financière vénitienne médiévale.

Le but moral du travail humain

Suivant la conception oligarchique, qui considère l’homme en tant qu’objet d’un gouvernement qui est lui-même l’instrument du pouvoir de l’oligarchie financière, le travail est considéré comme le but de l’existence humaine. Cette notion du travail fait peu de différence entre le travail de l’homme et celui du bœuf. Pour l’oligarchie, le travail consiste à procurer un profit financier et des loisirs aux membres de la société, notamment aux propriétaires, et à assurer les revenus dont dépendent en grande partie la subsistance et le plaisir de l’individu et de sa famille.

Pour celui qui a une conscience morale supérieure, la définition du travail est bien différente. Selon sa conception, qui fait écho à la parabole du talent dans le Nouveau Testament, le travail doit, d’une manière ou d’une autre, améliorer les conditions de vie de ceux qui vivront après qu’il ait disparu, bienfaiteur ayant quitté la vie le sourire aux lèvres. Ce principe veut que l’univers, qui nous a « employés », devienne meilleur du fait que nous ayons vécu. Ceux d’entre nous qui vouent leur existence mortelle à ce dessein s’efforcent durant toute leur vie de « s’améliorer », afin d’augmenter leur potentiel de se rendre utiles, pour la seule raison que l’opportunité s’en présente déjà ou pourrait être découverte.

Contrairement à l’idée du travail que se font les physiocrates ou les libéraux, qui assimilent la majorité de l’humanité à du bétail humain, la notion sublime du but du travail a directement trait à une distinction spécifique entre l’homme et la bête - l’option de l’immortalité cognitive dont peut se prévaloir l’individu mortel. En ce sens, nous sommes ceux qui « apportons le feu » à notre société, ou qui fabriquons les outils pour l’usine d’automobiles.

Regardez la condition misérable encore imposée à la majorité de la population de notre planète. Est-ce le sens de notre vie de laisser ces gens et leurs descendants dans de telles conditions, voire pires, pour des générations encore ? Ce qui nous touche d’abord, c’est la misère des conditions de vie auxquelles ils sont soumis ; c’est le niveau de compassion le plus bas, presque méprisable, que nous puissions ressentir. Regardons cependant la misère intérieure que ces conditions tendent à promouvoir. Devront-ils vivre ainsi pendant plusieurs générations encore ? Accepter de laisser nos semblables dans un tel état de pauvreté interne, intellectuelle et morale, n’est-ce pas la pire trahison vis-à-vis de l’humanité et du Créateur ?

Le développement de l’humanité, faite à l’image du Créateur, et l’engagement à réaliser le bien, telle est essentiellement la forme de travail qui devrait nous motiver.

Toutefois, pour faciliter le développement de l’humanité, nous devons chercher à améliorer les conditions dans lesquelles vivent les nations. A cette fin, nous devons améliorer la planète, mais aussi le système solaire.

Nous devons donc améliorer notre société de façon à permettre un tel rehaussement des conditions mêmes de vie familiale et de travail.

Cette définition du travail a une ramification dans la qualité unique propre à la civilisation européenne moderne, qui la distingue de toutes celles l’ayant précédée à notre connaissance, et réciproquement. C’est la manière dont cette notion de travail s’inscrit dans cette nouvelle forme de société, comme caractéristique systémique, qui fournit la distinction cruciale. C’est dans cette définition de la civilisation moderne, telle qu’elle émergea de la Renaissance du XVème siècle, que nous devons puiser aujourd’hui la capacité de répondre au défi immédiat posé par des cas comme celui de General Motors.

Le travail doit être conçu comme un véritable universel. La société accomplit le travail en vue d’augmenter son pouvoir sur la part de l’univers habitée par l’homme. C’est cette qualité universelle de transformation du travail de la société qui fournit, à son tour, le critère permettant de définir l’implication universelle à la fois du travail de l’individu et de sa motivation morale à l’accomplir. Cette motivation est associée à sa satisfaction relative par rapport à la profession choisie, ainsi qu’à la satisfaction pratique de la société bénéficiant des bienfaits de la profession de cet individu.

Tel est l’objectif du bonheur, comme Leibniz le précise dans son objection à la bestialité inhérente à la notion de « propriété » (ou « valeur aux actionnaires"), tant admirée par le juge de la Cour suprême Antonin Scalia et d’autres.

Cette notion, ancrée dans le concept de vrais universaux, constitue la différence marquant la naissance de l’Etat-nation souverain au XVème siècle. Remplaçant une société conforme à celle du Zeus de l’Olympe présenté dans le Prométhée enchaîné d’Eschyle, règne d’une oligarchie sur une masse de bétail humain, l’émergence d’une nouvelle forme de société, la République, à partir de la Renaissance du XVème siècle, modifia fondamentalement la relation entre l’individu et la société et, par conséquent, la notion du travail. C’est cette conception de l’homme, reflétée dans la Déclaration d’Indépendance des Etats-Unis et le Préambule de la Constitution fédérale, qui est le trait essentiel de l’intention nécessaire de la civilisation européenne moderne. Les institutions de la société et chaque citoyen doivent être conscients de cette différence, car c’est cette attitude qui fournit la clé permettant de remédier à la terrible crise qui est en train de s’abattre sur la civilisation mondiale.

2. Le travail et comment l’organiser comme puissance

Dans la comptabilité purement financière ou sa pratique analytique afférente, on utilise le terme productivité pour décrire un effet perçu, mais très mal compris. Contrairement aux comptables, pour la science économique, tout comme pour les fonctions économiques du gouvernement, toute augmentation de productivité résulte de la découverte et de l’application adéquate d’un principe physique universel, ou de ce que nous appelons, en référence aux pythagoriciens et à Platon, des puissances.

La meilleure façon d’initier le profane à cette conception consiste à examiner la manière dont le progrès technologique, tel qu’il est intégré dans l’infrastructure économique de base, détermine les niveaux de productivité pouvant être atteints et maintenus dans l’agriculture et l’industrie. Ce lien peut être considéré, et illustré le plus simplement possible, comme l’interaction entre les principes physiques universels appliqués dans l’infrastructure économique de base et dans la production de biens physiques.

Le rôle de puissances ainsi comprises peut alors être défini comme la distribution du potentiel, dans le sens où Gottfried Leibniz utilisait ce terme. Cette distribution du potentiel est exprimée principalement dans l’infrastructure économique de base et dans l’application d’une technologie à la production, ou dans un bien destiné, par exemple, à la consommation.

Cette utilisation du terme potentiel, associée à Leibniz, fait immédiatement penser à la manière dont Gauss et Riemann traitèrent respectivement le principe de Dirichlet, que j’ai évoqué ci-dessus.

Considérons le principe de Dirichlet tel que Gauss l’aborda implicitement en deux occasions qui fournissent les exemples les plus pertinents pour notre argument. D’abord, son traitement général du magnétisme terrestre et deuxièmement sa collaboration avec Wilhelm Weber dans la détermination du principe expérimental connu comme le principe Ampère-Weber de l’électrodynamique. Comparons ces réalisations de la science physique du XIXème siècle avec les erreurs réductionnistes du cercle Clausius-Kelvin-Grassmann-Helmholtz-Maxwell. Le traitement par Riemann des fonctions abéliennes dénote une conception plus élevée de ce principe.

La seule manière que nous connaissions de traiter rationnellement la relation efficiente avec un principe physique universel consiste à exprimer les liens de cause à effet en termes de champ. Pour obtenir une première approximation d’une telle représentation, on traitera, comme le fait Gauss, le problème pédagogique relativement plus simple, consistant à définir la distribution du potentiel à l’intérieur d’une zone hypothétiquement circulaire, en mesurant le potentiel le long du périmètre de ce cercle16.

Etendons ensuite cette première illustration de la notion à une surface riemannienne à connexions multiples, le développement par Riemann de la notion des fonctions abéliennes s’appliquant à de tels cas.

Pour retracer le développement de la notion de champ dans la science européenne moderne, étudions la manière dont Kepler développa, en pionnier, la conception de gravitation universelle, depuis sa Nouvelle Astronomie jusqu’aux implications de son Harmonie du monde, mais en l’abordant à la lumière des travaux de Gauss et Riemann. Appliquons ensuite la même approche à la notion du processus économique physique de toute une nation, comme les Etats-Unis, ou de l’ensemble du monde.

Tout principe physique universel découvert et valable définit implicitement un champ, ce champ étant la notion fonctionnelle de l’extension de l’efficacité de ce principe dans l’ensemble de l’univers. C’est l’action exprimée par l’impact du potentiel du champ sur le cadre dans lequel se déroule la production qui est l’objet de notre attention dans l’ensemble de ce rapport.

Par exemple, l’application du principe de Dirichlet à un champ d’action quelconque élève le point de vue expérimental ; au lieu de voir une collection de calculs, on obtient un seul acte de pensée conceptuelle. Une conception qui, comme la notion de gravitation universelle développée par Kepler, subsume, implicitement, cette foule de calculs détaillés. Il est impossible de développer une compréhension compétente du fonctionnement d’une économie moderne, du point de vue physique, sans employer la conception de champ, à l’instar de la manière dont Riemann traita le principe de Dirichlet.

Saisir l’argument que je présente ici nous permet de comprendre pourquoi le transfert de la production d’un bien d’une économie développée vers une économie moins développée - tout en conservant la même technologie de conception et de production - a mené, au cours du dernier quart de siècle, à une chute nette du taux de génération de la productivité par tête dans le monde ! Transférer la production d’une nation ayant une infrastructure avancée vers une autre dont la population est relativement pauvre et l’infrastructure générale modeste, tend à causer un effondrement de l’économie physique de la planète dans son ensemble. Le rôle du champ que représente l’infrastructure économique de base a été laissé de côté et les conséquences économiques tendent à être, en fin de compte, fatales pour tous.

En choisissant un champ d’application qui représente une zone de potentiel moindre, on réduit, relativement, la productivité effective du travail, par tête et par kilomètre carré. Au nom de la « globalisation », par exemple, on déplace l’acte de production, d’une zone de potentiel supérieur, comme l’économie américaine, vers une économie au potentiel beaucoup plus restreint. Bien que la technologie exportée puisse être compétitive en elle-même, son transfert vers une zone au potentiel moindre aura pour effet de diminuer le potentiel et la productivité de toute l’économie mondiale.

Autre facteur à considérer : l’ordre dans lequel la technologie avancée est appliquée à divers points du cycle de production de la société comme un tout. On doit aussi considérer, encore une fois, l’effet d’une technologie relativement moins avancée ou simplement non améliorée, appliquée à l’infrastructure économique de base, sur la productivité effective (par tête et par kilomètre carré) de l’économie en question. En général, des progrès technologiques rapides au niveau de l’infrastructure économique de base et dans le secteur de la machine-outil ont un effet optimal sur l’ensemble de l’économie.

Pour réfuter ce que je viens de dire, certains argumenteront que puisque la majorité des dirigeants et du personnel des entreprises n’en comprennent pas le sens, mes propos ne peuvent avoir la moindre importance pour le véritable fonctionnement de la production. Je leur répondrai que l’ignorance n’excuse pas les résultats catastrophiques dus aux erreurs de gestion, si évidentes dans la faillite de General Motors et de bien d’autres entreprises aujourd’hui. Le champ dans lequel se situe la production (dans le sens implicite des références de Riemann au principe de Dirichlet), constitue la mesure décisive du progrès de la productivité et de la croissance d’une économie moderne ou, a contrario, de son effondrement.

La règle doit être : ne jamais laisser des personnes incultes en matière scientifique, comme le sont les managers types aujourd’hui, occuper des positions importantes de la vie économique ou bancaire. Or c’est justement ce que nous avons fait en Europe et dans les Amériques au cours des dernières décennies.

Je traite ici cette question dans deux contextes différents, mais liés : la manière dont l’infrastructure économique de base définit la variabilité de la productivité potentielle de l’économie (par exemple d’une économie physique nationale) et, plus directement, la manière dont le champ d’application d’un principe détermine la productivité agricole et industrielle.

Un exemple : Leibniz et Bach

Fort de mes connaissances dans ce domaine, j’ai préconisé de bâtir le programme commun d’éducation du Mouvement des jeunes larouchistes (LYM) sur deux piliers de référence : la réfutation par Gauss de la fraude des fanatiques empiristes d’Alembert, Euler et Lagrange, en 1799, et l’élaboration par Jean-Sébastien Bach des principes de la composition classique et de son interprétation. Le premier pôle, l’exposé de Gauss contre l’escroquerie d’Euler et autres, concerne la relation entre l’esprit humain individuel et l’univers qui l’entoure. Le second, la composition musicale classique, porte sur le champ du processus social, par exemple l’interprétation d’œuvres chorales classiques, favorisant la coopération qui encourage la découverte individuelle de principes physiques.

A titre d’exemple, dans le cas de la composition classique et de son interprétation, le musicien parfaitement formé mais intellectuellement mort, pense en termes d’accords présentés comme une suite de cadavres. Un vrai disciple du système de contrepoint bien tempéré de Bach considère la composition comme un champ, dans lequel le développement de l’unité de la composition se situe principalement dans les modalités plus complexes des relations de voix croisées inhérentes au contrepoint, qui permettent de réaliser l’unité d’effet appropriée17. L’objet est le même que dans l’approche de Riemann de la notion du principe de Dirichlet, selon laquelle le détail est subsumé par une seule conception universelle ; dans le cas de l’interprétation d’une œuvre de Beethoven, tels les quatuors Opus 131 ou 132, la conception est celle d’une seule idée, essentiellement individuelle, d’un principe de composition.

Le rôle du développement en voix croisées avec intervalles lydiens que l’on trouve dans l’Ave Verum de Mozart, par rapport à l’Opus 132 de Beethoven, fournit un exemple de l’unité d’un champ exprimée par un processus unifié de développement selon un principe.

Comme le souligne Héraclite dans son aphorisme, et Platon après lui, dans l’univers réel, seul le changement constant existe, et rien d’autre. Ce sont les changements dans un champ, compte tenu des implications que j’ai précisées pour l’emploi ce terme, qui constituent la réalité primaire véritablement efficiente, et non, contrairement à la supposition habituelle, une expérience secondaire.

Ce qui vaut pour la composition et l’interprétation d’œuvres musicales classiques, depuis la révolution de Bach, est valable aussi pour toute composition artistique classique, y compris la poésie et l’art dramatique. Au lieu de l’expression « jouer entre les notes », utilisée à bon escient par Furtwängler, nous rencontrons le terme d’ironie « poétique » ou « dramatique » - terme souvent extrêmement mal compris.

Le crétin, l’idiot ou le pédant (ce sont en général les différents costumes du même sot) souhaite avoir une explication claire et nette, de type dictionnaire, pour chaque terme utilisé. Jamais aucun artiste compétent, qu’il soit compositeur ou interprète, ne se dégraderait au point de tenter de tout réduire à un sens littéral (contrairement à ce que fait le malheureux juge de la Cour suprême Antonin Scalia en évoquant le dogme implicitement satanique du « texte »).[Pour le juge Scalia, il faut interpréter la Constitution des Etats-Unis suivant le sens strict des mots, sans chercher à en comprendre le principe ni à le respecter fidèlement. C’est une forme extrême de suivre la lettredela loi, et non l’esprit. ndt]

Les personnes cultivées, qui réfléchissent réellement, utilisent des termes et des images déjà connus pour communiquer un sens que ces mots n’ont encore jamais exprimé auparavant. Cette réalité de l’ironie classique, trop douloureuse à soulever lors des funérailles d’un grammairien, est un exemple type de la manière dont les pouvoirs créateurs de l’esprit humain s’expriment dans la communication.

Seul un pédant mentalement moribond aurait pu rêver de l’invention et de l’utilisation d’une pseudo-langue comme l’esperanto pour remplacer les langues vivantes de peuples réels vivant dans des cultures réelles. Tel fut le problème du latin, que Dante décela et pour lequel il proposa un remède en ouvrant la voie au développement d’une culture d’Etat-nation souverain. L’idée exprimée dans une langue peut être reproduite dans une autre langue, à l’aide de modes appropriés. Mais la traduction compétente d’une véritable idée ne peut se faire par un processus de traduction mécanique à l’aide de dictionnaires généraux et de livres de grammaire. Le sens réside non pas dans les mots en tant que tels, mais dans la réalité à laquelle les mots font allusion. La musique de toute langue réside, comme le soulignait Furtwängler, « entre les notes », autrement dit, dans les ironies du champ, comme l’indique la référence de Riemann au principe de Dirichlet.

Prenons par exemple « l’énergie »

L’énergie, dans le sens défini par les cercles réductionnistes de Clausius, Grassmann et Kelvin, n’existe pas dans la réalité. Elle est l’empreinte du pied - et non le pied ou la puissance qui laisse l’empreinte. Pour rendre plus claire cette distinction, on pourrait suggérer d’employer le terme « densité de flux énergétique » à la place de la notion grossièrement scalaire d’« énergie ». C’est le terme que nous utilisions, par exemple, dans les travaux de la Fondation pour l’énergie de fusion, une association scientifique internationale. Nous l’avons utilisé en science économique pour communiquer un sens de l’ordonnancement des sources d’équivalent calorifique sur l’échelle des technologies relativement plus efficaces. Ce qui donne cet ordonnancement de combustion : bois, charbon de bois, charbon, pétrole et gaz naturel, fission nucléaire, fusion thermonucléaire et réactions matière-antimatière ; nous avons là des ordres de technologie successivement supérieurs et relativement plus efficaces et plus performants. Ces règles générales trouvent des applications pratiques distinctes au sein des généralités de la chimie et des domaines de la physique nucléaire et subnucléaire. Elles correspondent de manière approximative mais significative à la notion d’un ordonnancement de technologies relativement inférieur ou supérieur.

Ainsi, en nous efforçant de comprendre la nature principielle des processus régissant l’univers, et les technologies correspondantes, nous sommes obligés de sonder le domaine de l’infiniment petit. Pour comprendre le plus petit, nous devons conceptualiser le processus sous ses aspects astronomiques les plus grands imaginables, par exemple les paradoxes de la nébuleuse du Crabe qui nous taquinent. C’est de cette manière que pensait Kepler.

Le domaine dans lequel la puissance et le potentiel qui en dépend ont relativement le plus de poids est celui de l’infrastructure économique de base, qui devrait représenter environ la moitié des investissements capitalistiques totaux d’une économie moderne, notamment l’américaine. Une bonne partie de ce développement doit relever du secteur public de l’économie, plutôt que des entreprises privées ; l’exemple de l’électrification rurale est là pour nous montrer comment l’augmentation du potentiel sur de vastes zones a l’effet multiplicateur relativement le plus puissant sur la productivité nette et la qualité des produits. Les investissements de haute qualité dans l’éducation publique ont également un puissant effet multiplicateur, notamment la réduction du nombre d’élèves par classe (ne devant pas dépasser, en règle générale, quinze à vingt-cinq), des objectifs plus ambitieux en matière de technologie et de culture classique et, pour les enseignants, un meilleur équilibre entre temps de préparation des cours et temps d’enseignement. On insistera sur les avantages des transports en commun par rapport aux véhicules privés et l’on aménagera le territoire de façon à minimiser les temps de trajet, tout en cherchant à réduire les coûts, le temps et l’effort consacrés à tout ce qui a trait aux fonctions essentielles les plus courantes de l’économie et de la vie personnelle au sein de ce territoire.

Il serait, par exemple, tout à fait bénéfique pour les Etats-Unis, notamment sur une période supérieure à une génération, d’assurer un développement plus dense des grandes aires, de façon à ce que l’approvisionnement alimentaire soit produit, dans la mesure du possible, localement et que d’autres mesures soient prises pour décentraliser la production et les services dont chaque région a besoin. Ceci va, bien sûr, à l’encontre du processus de concentration étroite encouragé par la globalisation.

Dans le monde de la gestion contemporaine, les « brillants idiots » ont cherché à éliminer la véritable activité de la machine-outil en favorisant des méthodes linéaires, intellectuellement mortes, pour concevoir et tester des produits, notamment à l’aide de la synthèse informatique de technologies ; par conséquent, le taux de développement de la puissance et le taux de distribution du potentiel ont subi une forte contraction, par tête et par kilomètre carré, au niveau de l’industrie et de l’économie entière.

De manière générale, l’accroissement du taux de progrès technologique et l’augmentation du pourcentage de la force de travail employé dans la recherche et le développement aux frontières de la science, tendront à exercer un effet relativement optimal sur la productivité, ce qui favorisera à son tour la génération et la réalisation du progrès technologique. Habituellement, on obtient le plus fort taux d’effets bénéfiques en intervenant en amont du cycle de production, à savoir dans l’infrastructure économique de base et dans la conception des produits et des procédés, pour passer à chaque fois à des densités de flux énergétique supérieures.

Dès lors que nous appliquons la notion de puissance et de potentiel à la structure de l’économie américaine, on constate aussitôt que les Etats-Unis d’aujourd’hui sont, à bien des égards, pratiquement déjà en faillite. Ceci est dû, entre autres, aux aspects suivants des schémas de l’emploi et de l’investissement.

La répartition des emplois est complètement inversée. Dans la science, l’ingénierie et l’activité de la machine-outil, secteurs en amont du processus de production nationale, il y a beaucoup trop peu d’emplois (et de formation). Le pourcentage d’emplois dits « cols blancs » par rapport aux « cols bleus » est beaucoup trop élevé. La part des emplois dans l’infrastructure économique de base est bien trop faible, notamment dans les catégories d’investissement touchant aux technologies avancées.

De même, la part de la force de travail totale employée dans le développement physique de l’infrastructure économique de base est beaucoup trop faible. Nous devons ramener la part des investissements dans l’infrastructure économique de base, secteurs public et privé confondus, à environ la moitié du total, de même que le nombre d’emploi. Nous devons insister moins sur les « technologies douces » pour privilégier les technologies capitalistiques haut placées sur l’échelle des densités de flux énergétique.

On peut énoncer le même objectif général d’une autre manière.

Notre programme de reconstruction nationale doit donner la priorité à l’accroissement du potentiel, exprimé sous forme de puissances concentrées dans la phase initiale du cycle de production. L’objectif consiste à développer la base du potentiel productif national, au niveau des cycles d’investissement à long terme associés aux phases initiales du cycle des opérations successives constituant notre économie nationale. C’est le taux de progrès technologique (comme puissance et potentiel) dans cette catégorie de base qui doit être prioritaire, puisque c’est cela qui a le plus grand impact sur l’économie comme un tout, de la manière la plus durable dans le temps et la plus large dans l’espace. Dans cette catégorie, les cycles d’investissement à long terme dans l’infrastructure économique de base sont dominants. En complément, un autre domaine de grande priorité est le secteur de la machine-outil, puisqu’il sert de passerelle entre l’infrastructure économique de base et le secteur dit privé.

Ce que je viens de présenter sommairement donne une idée suffisante des modifications à opérer dans nos politiques budgétaires et d’investissement. L’expérience récente aurait dû nous faire comprendre qu’un tel changement est nécessaire, quoique insuffisant en soi. Nous devons nous débarrasser de la mentalité relevant des suppositions axiomatiques fausses associées aux prémisses empiristes du libéralisme anglo-hollandais moderne. Nous devons concevoir l’univers, pour l’essentiel, comme un système de principes physiques universels.

 

Notes

1. Le terme "anti-euclidien", au lieu de "non-euclidien", se réfère en fait à une notion antérieure aux écrits d’Aristote ou d’Euclide. Dans la culture européenne, il remonte à l’influence exercée par l’astronomie égyptienne, connue parmi les pythagoriciens et Platon comme la sphérique. Bien que Nicolas de Cues et ses disciples aient effectué un retour implicite à la géométrie anti-euclidienne, en science physique, le terme "anti-euclidien" fut utilisé par l’un des principaux professeurs de Carl Gauss, Abraham Kästner. Ce concept est développé, mais pas sous cette appellation, dans l’œuvre de Gauss à partir de sa dissertation de 1799 contre d’Alembert, Euler et Lagrange ; il apparaît ensuite en tant que tel, franchement énoncé, dans la dissertation de 1854 de Riemann et dans sa Théorie des fonctions abéliennes. Les conceptions de Riemann exercèrent une influence décisive sur le développement de mes propres notions anti-euclidiennes concernant l’économie physique. Ce terme signifie le rejet de toute notion de principes "auto-évidents" (soit a priori) en mathématiques.

2. Le terme de puissance [power en anglais] tel que je l’emploie ici, qui diffère de la notion erronée d’énergie comme force élémentaire défendue par le réductionniste, est la traduction habituelle du terme allemand Kraft tel que Leibniz l’emploie en science. Ce terme signifie la même notion que le terme dynamis, utilisé par certains adversaires des écoles réductionnistes comme les Pythagoriciens et Platon. La forme moderne de l’utilisation classique de la notion de puissance remonte, entre autres, à des écrits du cardinal Nicolas de Cues, comme De la docte ignorance, qui lancèrent la science physique expérimentale moderne sur la voie du développement suivie par ses disciples directs, tels Luca Pacioli, Léonard de Vinci, Johannes Kepler et Leibniz. Cette notion de puissance fut réaffirmée, à l’encontre des Lumières empiristes et des disciples de Descartes, grâce à l’influence, en Allemagne, du mathématicien Abraham Kästner, de son élève Carl Gauss, de l’Ecole polytechnique de Lazare Carnot, Arago, etc., et des cercles d’Alexandre de Humboldt qui nous donnèrent les travaux de Bernhard Riemann et la défense de Kepler et Riemann faite par Albert Einstein vers la fin de sa vie.

3. Par exemple, la découverte par Carl Gauss de l’orbite de l’astéroïde Cérès.

4. Cette différence qualitative entre Descartes et Leibniz est exprimée de manière systémique dans la réfutation de Descartes par Leibniz au sujet de la vis viva, où l’argument de ce dernier reflète le notion de puissance (dynamis) adoptée, en tant que principe de ce que les pythagoriciens et Platon appelaient la sphérique.

5. Comme je l’ai souligné à de nombreuses reprises dans d’autres écrits, le cas typique de comportement irrationnel de l’individu et du groupe peut être classé dans la catégorie du "syndrome du bocal à poissons". Les réactions de la personne atteinte sont conditionnées par un ensemble de suppositions de type axiomatique concernant l’univers, qui limitent son comportement aux paramètres du type d’univers imaginé en accord avec ces suppositions. Par conséquent, cet individu "ne peut pas voir" l’univers plus vaste existant au-delà de celles-ci. Ainsi, la découverte d’un principe physique universel ou d’un principe afférent libère l’esprit de l’individu, lui permettant de voir au-delà des limites névrotiques de son propre syndrome de "bocal à poissons".

6. La question de la puissance est abordée directement par Gauss dans son attaque de 1799 contre la fraude de D’Alembert, Euler, Lagrange, etc., qui utilisaient l’absurde terme "imaginaire" pour tenter de cacher l’existence physique bien réelle du domaine complexe. Le concept de domaine complexe, tel qu’il fut développé de Gauss à Riemann, constitue la forme d’expression mathématique du principe ontologique de puissance que l’on associe à la découverte de principes physiques universels efficients et uniques. Voir la conception de Riemann du principe de Dirichlet.

7. Dans ce contexte, je proposai que l’entreprise qui m’employait privilégie plutôt l’entrée dans les rudiments du système, qui allait devenir de plus en plus important, de traitement électronique de l’information au niveau de la production, de la distribution et de l’administration.

8. Le fondement de l’Etat-nation moderne par Louis XI et Henri VII fut très directement le résultat du nouvel ordre juridique établi en Europe dans le contexte du grand Concile œcuménique de Florence, au XVème siècle, où le cardinal Nicolas de Cues joua un rôle central indispensable. La création des conditions immédiates permettant de fonder des Etats-nations modernes fut influencée en particulier par deux œuvres de Cues, sa Concordance catholique et sa Docte ignorance, dans laquelle il posa les fondements de la science expérimentale moderne, ainsi que par son rôle dans le lancement de la politique d’exploration et de développement transocéanique débouchant notamment sur les voyages de Colomb. L’histoire des efforts antérieurs, déployés au Moyen-âge pour établir des Etats souverains à la place du règne impérial de type romain et ultramontain, a été décrite du point de vue du droit international moderne par le professeur Friedrich A. von der Heydte dans Die Geburtsstunde des souveränen Staates (La naissance de l’Etat souverain - Regensburg : Druck und Verlag Josef Habbel, 1952). Citons parmi les précurseurs de cette grande réforme de la Renaissance Solon d’Athènes, Platon, saint Augustin, Charlemagne dans son opposition à l’ultramontanisme, Abélard et Dante Alighieri.

9. Les rapports concernant d’anciens calendriers astronomiques, comme le soulignent l’Indien Bal Gangadhar Tilak et d’autres, montrent l’existence d’une astronomie fortement développée en Asie centrale il y a plus de 6000 ans. D’autres éléments afférents indiquent l’importance primordiale de cultures maritimes ayant recours à une astro-navigation sophistiquée dans les temps préhistoriques. Les éléments dont nous disposons indiquent que la civilisation se développa à partir de colonies établies en bordure d’océans et de mers, avant de remonter le long des grands fleuves, et non le contraire. Près des régions côtières de ces temps anciens, on trouve aujourd’hui des traces de colonies à des centaines de mètres sous la surface actuelle de la mer, notamment là où se trouvait l’embouchure de grands fleuves. Par conséquent, étudier ce genre de site actuellement submergé, notamment au large des côtes de l’Inde dont on sait que sa culture maritime joua, au début de la période historique, un rôle important pour les régions avoisinantes, est crucial pour approfondir nos connaissances de la préhistoire de l’humanité. Ceci nous aiderait beaucoup à comprendre le développement préhistorique des formes de culture relativement avancées qui durent laisser une empreinte significative sur les cultures de l’époque, comme celle de la basse Mésopotamie.

10. Philon est connu pour son attaque contre le syllogisme gnostique, à savoir que si Dieu était parfait, sa Création aurait été parfaite, de sorte que même Lui n’eût pas à intervenir dans un scénario ainsi prédéterminé, dès lors que la Création fut accomplie. Ce dogme est aussi la caractéristique du paganisme sordide du culte de Zeus, évoqué dans le Prométhée enchaîné d’Eschyle, qui interdit à l’homme l’utilisation consciente du feu. L’argument de Philon en la matière illustre bien la méthode générale reflétée dans les formes compétentes de la science physique moderne. La Création ne fut pas un événement, ni un drame fermé, mais un processus sans fin, dans le sens du célèbre aphorisme d’Héraclite tel que Platon l’adopta. L’histoire de l’évolution du système solaire à partir d’un soleil solitaire, en rotation rapide, est une illustration du problème. Le concept de la noosphère développé par Vernadski est à la fois une conception essentielle de la science physique et une déclaration théologique sur le rôle de l’homme dans l’organisation de notre univers.

11. Certains écrits de Cues proposant de telles explorations se retrouvèrent dans les mains de Christophe Colomb. Après les avoir étudiés, ce dernier engagea une correspondance avec le savant Paolo dal Pozzo Toscanelli, un collaborateur de Cues qui fournit à Colomb, en 1480, la carte qu’il devait utiliser pour planifier son voyage ultérieur dans les Caraïbes.

12. Cf. Lyndon LaRouche, Jr. The Economics of the Noosphere (Washington, D.C., EIR News Service, Inc.) 2001.

13. C’est l’argument, révolutionnaire à l’époque, présenté par Riemann au début de sa thèse de 1854.

14. Ibid.

15. Le même mépris pour l’homme se retrouvait, à l’époque suivant l’abolition de l’esclavage aux Etats-Unis, chez ceux qui prétendaient que l’éducation des enfants d’anciens esclaves devait se limiter à l’apprentissage du métier auquel ils étaient destinés. On trouve un reflet de cette idéologie dans la réforme actuelle de l’éducation adoptée par George W. Bush (No child left behind),

16. Le défi consistant à représenter un système de relations d’ordre supérieur sur le périmètre et à l’intérieur d’une zone circulaire est le premier pas pédagogique vers une clarification des implications générales de la notion du principe de Dirichlet tel que Riemann le définit.

17. Le chef d’orchestre Wilhelm Furtwängler évoquait parfois l’idée de "jouer entre les notes". Dans une œuvre polyphonique classique réunissant de nombreux interprètes, contrairement à un quatuor à cordes accompli, la voix interprète individuelle n’entend pas l’interaction fonctionnelle de sa propre voix avec l’ensemble des autres voix. Ce qu’on entend, c’est l’impact de la polyphonie sur le volume de l’espace dans lequel l’œuvre est jouée et entendue. On ne l’entend pas comme une collection de voix, mais comme un champ, tel que je l’ai décrit dans le cas des grandes découvertes de Kepler et du principe de Dirichlet. Le chef d’orchestre particulièrement doué, comme Furtwängler, entend le tout d’une manière inaccessible à l’interprète individuel, et il peut donc voir et façonner les subtilités qui déterminent l’effet du champ de la composition ainsi interprétée, dans ce cadre acoustique, comme un tout indivisible.