Solidarité & progrès est un parti politique qui milite pour la paix par le développement économique mondial, contre le féodalisme financier et les idéologies du sol, du sang et de la race. Les informations que nous diffusons visent à vous faire joindre notre combat en le faisant devenir aussi le vôtre.

La campagne
présidentielle
Cheminade 2017
Dialogue avec la Nation - 16 novembre 2016 Notre dossier éducation, en vente ici Au Yémen, on assassine les hommes et leur mémoire. La France complice. terrorisme / 11 septembre, les 28 pages qui démasquent... La mer, avenir de l’homme
dimanche 30 septembre 2012
646 visites

Comment la technologie est produite

Le livre référence sur la méthode LaRouche-Riemann en économie physique

JPEG - 38.6 ko

Les principes fondamentaux des percées scientifiques — et technologiques — fondamentales sont encore aujourd’hui identiques à ce qu’ils étaient quand Platon les a élaborés, il y a plus de 2300 ans. C’est ce qui ressort de l’ensemble des dialogues de Platon, au travers de ses nombreuses références à la question de l’hypothèse. Sans hypothèse, rien de véritable et de fondamental sur les rapports de l’homme à l’Univers ne saurait être découvert. C’est la méthode employée par Nicolas de Cues [1], Léonard de Vinci [2], Kepler, Leibniz, Gauss, Riemann et alia. Dans notre étude intensive de l’histoire du développement de la science moderne, il ne s’est pas trouvé un seul chercheur qui ont travaillé depuis approximativement une dizaine d’années sur les archives du monde entier et les sources originales publiées, qui ait jamais trouvé un cas où une découverte fondamentale valable soit effectuée d’une autre manière que par cette méthode de l’hypothèse [3].

Platon désigne le principe de la vie mentale gouvernant les découvertes scientifiques fondamentales par le terme d’hypothèse de l’hypothèse supérieure, conception présente au cœur de toute son œuvre. Quiconque ignore ce principe ne sait rien d’essentiel sur l’œuvre de Platon, ne peut pas « pénétrer sa pensée ». Nous allons préciser ici ce principe en termes plus modernes. Nous poursuivrons ensuite en montrant la relation entre la vie mentale organisée selon ce principe, et l’origine de la valeur économique dans les processus sociaux (économies).

La notion d’Hypothèse de l’Hypothèse Supérieure définit trois niveaux de formation des hypothèses. Nous identifions le premier de ces niveaux comme l’hypothèse simple, le deuxième étant l’hypothèse supérieure et le troisième l’hypothèse de l’hypothèse supérieure. Nous décrivons maintenant ces formes d’hypothèses en les comparant à la forme de pensée associée à un réseau logique déductif de théorèmes interconnectés, tous et chacun d’entre eux reposant sur un ensemble sous-jacent d’axiomes et de postulats [ Appendice 4 ].

Dans le cas de l’hypothèse simple, la doctrine correspondant à un corps donné de connaissances ou d’opinions est appliquée à un phénomène choisi comme sujet d’observation simple ou expérimentale. Dans l’hypothèse expérimentale, « l’expérience » se trouvant ainsi conçue, on ne tolère rien qui puisse contredire les axiomes et les postulats sous-jacents à la doctrine employée. La preuve est établie dans la mesure où les résultats expérimentaux sont cohérents, logiquement et déductivement, avec l’intégralité de la doctrine existante.

Dans le cas de l’hypothèse supérieure, on rejette l’autorité d’une doctrine existante. L’observation simple ou expérimentale porte alors sur la pertinence d’une ou plusieurs des suppositions axiomatiques de cette doctrine. On sélectionne un cas expérimental tel que, si l’on obtient les résultats expérimentaux escomptés, on aura prouvé que les caractéristiques axiomatiques de la doctrine sont toujours fausses. Une telle preuve signifie que l’on doit écarter tous les théorèmes dépendant, au sens « héréditaire », des implications de cette caractéristique axiomatique de la doctrine, et que l’on doit reconstruire toute sa trame sur la base du nouveau principe découvert. Telle est la nature des découvertes scientifiques fondamentales. Toutes les découvertes scientifiques fondamentales sont accomplies en employant le type de processus mentaux définis par l’Hypothèse Supérieure.

Le fait historique du progrès humain, interprété à l’aide de l’histoire interne des progrès de la science, montre que la succession des découvertes fondamentales à l’origine du progrès humain est implicitement une série ordonnable. Chaque découverte fondamentale établit un corps renouvelé du savoir scientifique ; le développement de ce savoir, à des fins concrètes, conduit à des paradoxes provoquant une nouvelle découverte fondamentale, et amenant un nouveau corps de connaissances, surpassant le précédent. Par conséquent, l’autorité de la science ne peut être située dans les limites de quelque corps particulier de savoir scientifique, présent ou passé. L’autorité de la science réside dans les principes de découverte fondamentale et ces principes ne sont contenus dans aucune des caractéristiques mutuellement contradictoires des générations successives de l’opinion scientifique. L’autorité de la science réside dans les principes de découverte propres à engendrer chacun et la totalité des éléments de la série des révolutions scientifiques successives.

Une hypothèse supérieure valide ne jaillit pas de nulle part, comme une intuition aveugle. Une hypothèse supérieure est produite par une méthode, une méthode permettant d’aboutir à de telles découvertes. Une observation simple ou expérimentale qui teste les critères présumés pour la formulation d’hypothèses supérieures valides est une recherche empirique sur un ensemble de principes correspondant à une hypothèse de l’Hhypothèse supérieure.

Bien que les principes de découverte ainsi prouvés empiriquement soient universellement valides, ils ne sont jamais achevés. Ils demeurent une forme d’hypothèse dans le sens où ils ne sont pas achevés. A mesure que la science progresse par révolutions successives, l’imperfection de ces principes tend à s’amoindrir, sans qu’ils soient cependant jamais achevés. Ces principes sont ceux inhérents à la conception d’une méthode géométrique synthétique de pensée rigoureuse. Le principe isopérimétrique est un exemple de découverte d’une hypothèse de l’hypothèse supérieure inachevée. Les travaux de Gauss, Dirichlet, Riemann et alia, sur la géométrie synthétique d’une variété continue (du domaine complexe) constituent un exemple du processus de perfectionnement de l’hypothèse de l’hypothèse supérieure. La dissertation d’habilitation de Riemann de 1854, Des hypothèses qui servent de fondement à la géométrie, est une hypothèse sur la formation d’hypothèses supérieures en géométrie synthétique et est, par conséquent, un énoncé explicite portant sur le perfectionnement de l’hypothèse de l’hypothèse supérieure. De fait, les principales découvertes de l’auteur en science économique ont été essentiellement effectuées en suivant le programme de cette dissertation d’habilitation, en comprenant son importance dans le sens ici précisé, et grâce à une familiarité intellectuelle acquise de longue date avec la conception des ordonnancements transfinis de Cantor.
Toute découverte fondamentale accomplie volontairement ne saurait être réalisée autrement que par l’autodiscipline consciente d’une vie mentale en accord avec l’intelligence d’un principe correspondant à une hypothèse de l’hypothèse supérieure. D’autres, dépourvus de cette intelligence consciente, peuvent en fait contribuer à des découvertes très importantes portant sur des points fondamentaux. Ils peuvent savoir en grande mesure comment leur découverte a été accomplie. Mais dans cet état d’esprit, ils ne peuvent et pourront jamais savoir pourquoi ils ont fait cette découverte.

Vous désirez modifier un des axiomes fondamentaux d’une doctrine scientifique généralement acceptée ? Il vous ennuie qu’une odeur de faux ou de superficiel entoure cette supposition axiomatique ? Comment alors révolutionnerez-vous la science ? Allez-vous porter vos coups aveuglément, au hasard, contre cette supposition suspecte ? Serez-vous guidé par vos « sensations », par votre « intuition » ? Alors, bonne chance, car en tâtonnant ainsi à l’aveuglette, vous aurez besoin de beaucoup de chance pour trouver l’approche adéquate. Ou, plutôt, soumettrez-vous cette supposition axiomatique offensante à une « analyse épistémologique profonde » et demanderez-vous alors quel état d’esprit peut bien conduire quelqu’un à introduire une telle supposition axiomatique ? Qu’est-ce qui, dans cet état d’esprit, est contraire à l’ordre légitime de l’Univers ? Quelle est la supposition fausse sous-jacente à la formulation d’un tel axiome ? Cette supposition cachée, mais nécessairement présente, est le « talon d’Achille » de votre victime désignée ! Frappez-la à cet endroit et, si cet assaut se révèle infructueux, essayez alors de frapper encore plus précisément ! Vous devez agir en ayant bien conscience des principes fondamentaux sous-jacents à la production d’hypothèses supérieures réussies. Voilà tracée votre route vers la découverte.

Ceci nous amène directement à notre point suivant, qui se juxtapose avec le précédent. Quelques personnes, par ailleurs respectables et sensées, sont fermement attachées à une croyance superstitieuse, voire religieuse, en l’existence d’une entité, qu’aucune preuve expérimentale n’a jamais justifiée : je veux parler du légendaire quark. Une quantité considérable d’énergie est gaspillée chaque année par nombre de mathématiciens et de physiciens au profit de ce petit machin inexistant, qu’on dénomme quark ; il a même fait l’objet d’un Prix Nobel [4]. Pourquoi cette obsession mise à tailler des habits neufs à un machin minuscule dont, pour le dire très poliment, personne n’a jusqu’ici prouvé l’existence réelle ?

Après avoir lu une partie des écrits publiés par la secte du quark, on est tout étonné de découvrir que quelques-uns de ses adhérents sont par ailleurs des personnes tout à fait sensées, quelques-unes véritablement douées, voire même brillantes. Leur théologie du quark semble parfaitement sensée du point de vue mathématique, ou, pour être plus précis, très, très logique. Le quark est une pure création de la déduction formelle, au même titre que le coupable dans un roman de Sherlock Holmes. L’existence du quark et ses vertus mathématiques ultra-complexes sont équivalentes à la date estimée du prétendu « Big Bang » universel du cosmos. Ni le quark, ni le Big Bang ne résultent de la physique expérimentale. Ils ne doivent leur existence qu’aux caractéristiques axiomatiques dissimulées derrière le choix de la mathématique utilisée, dont ils sont les sous-produits. Le quark et le Big Bang n’existent qu’en tant que postulats d’un réseau syllogistique ; il s’agit de suppositions posées en postulats, arbitrairement introduites, dont le seul objet est de combler quelque faille béante dans le système mathématique en question. Si, par exemple, nous employons une mathématique complètement dérivée de la géométrie synthétique, le quark imaginaire et le Big Bang imaginaire apparaissent sous leur vrai jour, des éléments qui n’ont tout simplement jamais existé.

Le dogme du Big Bang est très ancien. Sa première élaboration, dans sa forme moderne, a été présentée par Aristote ; la première réfutation du Big Bang d’Aristote que l’on connaisse a été énoncée par Philon d’Alexandrie, qui a prouvé que l’argumentation d’Aristote repose sur la thèse d’une « mort de Dieu », de même espèce que celle ressuscitée par Friedrich Nietzsche, le précurseur du nazisme. Aucune des prétendues preuves, récemment fournies par certains astrophysiciens, ne contient le moindre élément qui n’ait été déjà révélé comme incompétent il y a 2000 ans. A chaque fois que l’on emploie pour la physique une mathématique cohérente avec les principes d’Aristote, on annonce tôt ou tard détenir la preuve mathématique de la réalité du Big Bang ; l’existence du quark est une fiction postulée, de la même espèce que celle du Big Bang.

La raison pour laquelle la superstition du quark a persisté aussi longtemps est que les défenseurs de l’existence de cette petite créature exigent qu’on ne leur soumette aucun argument contraire qui ne soit énoncé dans les termes mathématiques employés pour inventer leur petite chose. Naturellement, aussi longtemps que la discussion est limitée à une telle mathématique, les membres de la secte du quark sont renforcés dans leur foi ; une preuve valide et définitive susceptible de détruire leur illusion doit en effet employer un langage mathématique que ces vieux croyants refusent de parler. Tout se passe comme si toute leur mathématique avait été construite sur l’article de foi affirmant l’existence du quark ; ensuite, cette mathématique est employée pour prouver que le quark existe bien.

Malheureusement, nombre parmi ceux qui en savent beaucoup sur les mathématiques supérieures ne savent rien des axiomes (hypothèses) desquels dépend toute leur construction. Il faut ajouter en complément qu’ils n’ont aucune compréhension efficace de ce que l’on appelle parfois « le principe héréditaire » des réseaux de théorèmes, le fait que chaque théorème ajouté à un tel réseau est imprégné des suppositions axiomatiques employées pour commencer la construction de ce réseau. Si on gobe aveuglément la représentation terriblement erronée du monde physique cartésien, l’image de petites balles dures se baladant dans l’espace vide euclidien, et si on accepte également les suppositions axiomatiques arithmétiques d’individus tels que Kronecker ou Dedekind, on est alors implicitement porté à croire en même temps en l’existence du Big Bang et du quark, que l’on ait ou non jamais procédé à une observation astronomique ou à toute autre expérience physique.

Nous avons cité le cas clinique du quark pour rendre plus sensuelle l’importance pour la science du point que nous abordons maintenant.

Panini [5], le grand philologue du sanscrit, a affirmé que tous les mots sont dérivés des verbes. La thèse contraire, aristotélicienne, au cœur de la grammaire latine et ses dérivées, soutient que les noms, donnés à des objets que l’on peut pointer du doigt, sont antérieurs à tout. Le nominalisme aristotélicien est la caractéristique inhérente au principe du syllogisme : l’action causale, que l’on substitue par le principe du terme moyen, est exclue du système aristotélicien. On rencontre la même caractéristique dans le système cartésien. On fait l’hypothèse que ce sont les propriétés (c’est-à-dire les attributs) des choses (noms) qui déterminent l’interaction, plutôt que quelque principe causal de l’espace physique pris dans son ensemble. Pour comprendre à la fois l’Hypothèse Supérieure et l’Hypothèse de l’Hypothèse Supérieure, il est indispensable d’explorer la différence essentielle entre les faits empiriques définis du point de vue des verbes transitifs et le fait défini différemment dans le cadre nominaliste. Le lecteur nous pardonnera, mais il nous faut ici aborder des éléments de théologie, car c’est dans le cadre de la théologie que l’humanité a traditionnellement situé ses réflexions sur ces questions scientifiques.

Un fait empirique, défini par référence à la notion de verbe transitif, définit une transformation spécifique, exercée en un espace fini sur une durée finie, comme étant irréductible. Les « points » axiomatiques n’existent pas, seuls existent les « points » définis comme singularités obtenues en pliant deux fois un cercle sur lui-même. Ainsi, physique a le sens de transformation (opposée à l’existence particulière, instantanée, statique). La transformation existe seulement dans une durée finie sur un déplacement spatial fini. En conséquence, ni la matière, ni l’espace, ni le temps ne peuvent être séparés, ne peuvent exister indépendamment des autres. La matière en elle-même, l’espace par lui-même et le temps en lui-même sont des constructions sans signification, édifiées par une pensée erronée. Seul existe l’espace-temps physique.

Les faits empiriques, définis en termes de verbes transitifs, ont des liens de parenté avec d’autres faits, soit parce qu’ils partagent le même verbe transitif, soit parce que ce verbe est relié à d’autres verbes transitifs, par une connexion que l’on peut découvrir. Ainsi, pour Platon, les faits empiriques correspondant tous à un choix particulier d’utilisation d’un verbe transitif, constituent une espèce. C’est le principe de base de cette caractéristique de la méthode platonicienne, appelée habituellement « idée platonicienne ».

La « forme-espèce » de la transformation est généralement celle de la « venue au monde ». Toutes les transformations possèdent cette qualité commune. Elles exigent un verbe transitif pour l’universalité de la venue au monde, correspondant à l’existence de l’univers tout entier en tant que transformation de l’espace-temps physique. Puisqu’il s’agit de l’univers, le verbe doit être soi-réflexif : « Ce qui élabore sa propre transformation continue » est probablement l’intention originelle pour exprimer Jéhovah/Yahweh, plutôt que la traduction officielle qu’offre la Bible du Roi Jacques. L’usage de cette forme de verbe soi-réflexif est bien défini dans les langues existantes, particulièrement dans ces formes évoluées de langue dont la conception philosophique est congruente à celle de Panini sur la question du verbe.

L’on reconnaît facilement que nous nous trouvons, comme Platon, face à la nécessité d’un principe universel, « non-hypothétisé », vers lequel conduit le perfectionnement de l’hypothèse de l’hypothèse supérieure. La reconnaissance de la soi-évidence de l’action circulaire dans l’espace visible, à l’aide du principe isopérimétrique, et la découverte corrigée (plus achevée) de la géométrie synthétique de la variété continue, dont la prémisse est l’existence soi-évidente de l’action conique spirale soi-similaire, mènent à approcher la forme du verbe soi-réflexif : « Ce qui élabore sa propre transformation continue ». Ici se trouve identifié par son nom un principe universel « non-hypothétisé » ; les méthodes de la géométrie synthétique identifient une hypothèse de l’hypothèse supérieure, perfectible, mais néanmoins conforme.

Contrairement aux nominalistes, pour nous la causalité existe et elle est contenue dans les faits empiriques du travail scientifique, les espèces-transformations de l’espace-temps physique. Ces espèces-transformations constituent nos données empiriques ; cet espace-temps physique est pour nous la substantialité, ce qui est ontologiquement réel. Pour nous, « l’objet » des nominalistes est simplement une « singularité topologique » d’une transformation, une singularité de l’espace-temps physique. La science, pour eux, consiste à relier des objets soi-évidents imaginaires, comme les grains d’un chapelet, sur le réseau d’un réseau nominaliste de théorèmes déductifs, ou, de façon similaire, à découper les objets en constituants toujours plus petits, tels les légendaires quarks. Pour nous, l’objet premier de la science est la création de singularités ; le travail que nous admirons le plus entre nous est la création de nouvelles espèces de singularités dans l’espace-temps physique, comme l’illustre le traité de Riemann de 1859 sur la propagation des ondes de choc acoustiques.

On trouve un prototype de la production d’une singularité dans l’itération implicitement finie des sections elliptiques d’intervalles d’action conique spirale soi-similaire, la fin de cette série itérative d’ellipses définissant une amplitude finie de déplacement : un volume fini, une longueur finie. Physiquement, par exemple, dans le cas d’une forme quasi-cylindrique d’action conique spirale soi-similaire dans l’espace-temps physique, cette grandeur finie est équivalente à la plus courte longueur d’onde à laquelle peut se propager un rayonnement électromagnétique cohérent. Pour des raisons d’ordre physique-mathématique, particulièrement eu égard aux caractéristiques différentielles de l’action électrodynamique, une singularité comme cette longueur d’onde minimale présumée doit être l’expression complémentaire d’une vitesse finie de la lumière. Si elle est valide, cette proposition signifie que notre univers doit être topologiquement fini, comme cela est démontré par ailleurs par d’autres voies [6]. Ceci signifie que toute action néguentropique agit sur un nombre fini de conditions de l’univers, déterminant ainsi une subdivision elliptique itérative finie de l’action néguentropique. Le point de vue du verbe transitif nous amène à explorer de telles directions. L’univers s’est créé lui-même comme un processus continu d’auto-transformation néguentropique ; en conséquence, la forme élémentaire de l’action universelle doit être le travail de l’univers sur lui-même, et ainsi la « complexité » élaborée de l’auto-élaboration de l’univers jusqu’à ce jour doit être la seule et ultime condition limite agissant sur chaque nouvelle action néguentropique.

Lorsqu’elle se penche sur ces sujets fondamentaux, la science doit prendre du champ par rapport à un travail scientifique particulier, sans cependant perdre de vue cette particularité. Les termes « fondamental » et « universel » sont cohérents. Dans l’universalité, nous recherchons des espèces de transformations communes à des classes d’expérience extrêmement dissemblables, qui sont, de façon démontrable, caractéristiques de chacune et de toutes. De telles espèces de transformations, démontrables et démontrées, constituent les faits fondamentaux de la science.

Dans la vie terrestre, nous n’avons à notre disposition que deux classes bien définies d’expériences particulières, qui correspondent, dans leurs spéciations fondamentales, à l’univers néguentropique dont l’existence est implicitement démontrée par les lois astronomiques de Kepler. Ce sont les processus vivants en général, et le comportement néguentropique des sociétés (économies) tout entières. En biologie, nous n’avons que peu progressé dans notre compréhension des principes des processus vivants en tant que processus vivants, essentiellement par omission et parce que nous avons emprunté une mauvaise direction. Sur ce point, nous avons davantage progressé en Economie Physique (science économique). Par conséquent, dès que nous prouvons un principe de transformation néguentropique dans le domaine de la science économique, nous devons nous précipiter sur l’astronomie, en jetant au passage un regard à la biologie ; nous devons débusquer dans l’universalité de l’astronomie les espèces de transformation que nous avons découvertes dans le domaine autrement limité de la science économique. Pour cette raison, nous devons aller dans les laboratoires et découvrir quelle direction de recherche se rapproche le plus près, de par sa nature, de quelque aspect important des processus néguentropiques. Ce que nous cherchons à débusquer n’est jamais quelque chose de très compliqué, du moins dans le sens où les réseaux de théorèmes des nominalistes le sont. Ce que nous cherchons se révélera toujours être quelque chose de très élémentaire une fois que nous l’aurons découvert.

Dans ces problèmes, il n’est pas nécessaire de toujours conjecturer la bonne réponse. Il vaudrait mieux être légèrement « extravagant », à la condition que les principes rigoureux contenant cette « extravagance » soient toujours présents comme sa conscience active. Attaquez simultanément sur tous les fronts intéressants, secouez chaque arbre pour découvrir le fruit qu’il porte ; cultivez un appétit « sauvagement » omnivore pour des découvertes sensationnelles, un appétit aussi universel que nous permettent de le maîtriser l’éducation et l’expérience. Dans cette voie, guidé par une conscience rigoureuse de ce que l’on considère comme une hypothèse probable ou prouvée, recherchez les espèces de transformations qui sont les plus universelles et, par conséquent, les plus fondamentales.

Appelons les nominalistes « les enfileurs de perles ». On ne peut produire aucune découverte nouvelle et valide par de telles méthodes, avec cet « enfilage de perles » aristotélicien — du moins aucune découverte profonde. Sans doute, de temps en temps, une personne entraînée et apparemment habituée à ce genre d’« enfilage de perles » peut-elle produire quelque chose d’importance, une découverte significative. Il arrive qu’une telle découverte ne soit pas rare. Souvent, quand il se sent sommé d’expliquer une telle découverte, un « enfileur de perles » honnête et réfléchi rapportera que, de fait, la découverte n’a pas été accomplie par les procédures « d’enfilage de perles » accréditées ; elle est arrivée dans le monde de l’« enfilage de perles » comme si elle venait de l’extérieur, d’une source qui n’existe pas, et dont l’existence n’est pas tolérée dans le domaine de l’« enfilage de perles ». Peut-être appellera-t-il cette source extérieure « l’intuition ». Il pourra se défendre en disant qu’il s’agissait de vacances intellectuelles occasionnelles bien méritées, au cours d’une vie passée à « enfiler des perles », vacances ayant pris la forme d’excursions apparemment extravagantes de l’intellect. Il vaut mieux laisser de côté la plupart des interprétations populaires de « l’intuition » en tant que source de découverte scientifique ; il n’y a aucune rigueur dans celles qui ont été jusqu’ici examinées. Dans le cas que nous venons d’évoquer, nous avons affaire à une assimilation inconsciente du principe de l’hypothèse supérieure, quelque chose qui a été « censuré » et rejeté de la conscience par le besoin d’obtenir quelque chose de mieux que la mention passable aux examens qui rythment l’endoctrinement par une physique mathématique syllogistique (par exemple). On pousse l’étudiant à considérer la région de son esprit qui se révolte contre ce processus de conditionnement comme une part honteuse de lui-même, un aspect de sa « vie imaginaire » qu’il doit cacher aux autorités et à ses pairs s’il ne veut pas être ridiculisé dans sa profession. C’est cet aspect de la pensée du découvreur qui peut être considéré, à tort, mais de façon compréhensible, comme « l’intuition ».

« L’intuition », en supposant que cette épithète s’applique à quelque chose d’existant, est une impulsion infantile, irrationnelle, une relique de ce que Adam Smith a décrit comme « les instincts originaux et immédiats ». Il est contraire à la nature même de cette relique bestiale demeurant en nous de s’occuper de la production d’hypothèses supérieures, de penser de façon universelle ou sur un mode géométrique synthétique. Ce que certains découvreurs scientifiques identifient comme la faculté d’« intuition », est en fait un aspect éduqué, même s’il est plus ou moins inconscient, de leur vie mentale. Cette éducation doit tendre à intervenir « silencieusement », mais assez efficacement, dans le cours de la vie de l’étudiant, à mesure que celui-ci développe un sens de la construction géométrique d’espèces de conceptions : dans le cas d’un étudiant « sur la voie » d’une carrière de physicien, cela peut passer par l’aide de ses maîtres ou d’autres, qui insistent pour que l’étudiant établisse par lui-même, étape par étape, la preuve de chaque idée assimilée. L’étudiant vit ainsi l’expérience de la redécouverte de ce que les scientifiques ont découvert avant lui. Si un étudiant suivait le programme d’études de Jacob Steiner en géométrie synthétique et acquérait l’habitude de penser par une telle méthode, même inconsciemment, il assimilerait alors, même inconsciemment, le genre d’aptitude éduquée non-consciente à cette perspicacité rigoureuse qu’on attribue parfois à « l’intuition ».

La plupart des personnes civilisées font, d’une façon ou d’une autre, l’expérience du principe de découverte. La plupart du temps, il s’apparente à quelque chose « que l’on a sur le bout de la langue ». Lorsque l’on découvre quelque chose de nouveau, et non dans le cas où nous avons affaire aux tours que nous joue parfois notre mémoire, on s’entend soudainement penser quelque chose que l’on n’a jamais pensé auparavant ; tout d’un coup, c’est simplement « là », et l’on a le sentiment émotionnellement très fort que ce quelque chose est « juste », exactement comme l’on reconnaît la justesse du nom ou de la chose que l’on cherchait à extirper du « bout de sa langue ». Ce sentiment émotionnel de la « justesse » de la découverte ne signifie pas que la découverte est valide, mais simplement qu’il s’agit d’une découverte.

Habituellement, le pouvoir latent de découverte est inconscient. Dans notre propre expérience, nous nous le représentons comme une créature invisible tapie derrière quelque porte close menant à une chambre de notre esprit. On communique des notes sous la porte à cette créature invisible tapie dans cette chambre ; on attend dans l’espoir qu’elle nous adresse un message en retour. On l’entend s’impatienter de l’autre côté de la porte ; on est en alerte ; on a quelque chose sur le bout de la langue ; on est sur le point de recevoir le message espéré de la créature, quelle qu’elle soit, qui se tapit derrière la porte.

Parfois, nous parvenons à instruire cette créature, quelle qu’elle soit. Nos pensées conscientes l’informent ; nous conduisons avec elle une curieuse forme de dialogue silencieux. Si nous avons de la chance, nous découvrons que la créature, quoi qu’elle puisse être par ailleurs, a un talent naturel pour la géométrie synthétique. Que ce soit consciemment ou involontairement, nous pouvons agir de façon à instruire la créature en lui soumettant des problèmes de géométrie qui éveillent son attention, ou en organisant l’information que nous lui transmettons dans des termes de référence géométriques. Dans le même temps, on dirait qu’elle est toujours en train d’écouter à la porte, surprenant tout ce que nous pensons. Si nous gardons des relations raisonnablement aimables avec la créature et si nous lui fournissons le matériel nécessaire à son instruction, nous ferons preuve, aux yeux du monde extérieur, d’une intelligence créatrice d’un ordre relativement supérieur.

Si nous maîtrisons l’hypothèse de l’hypothèse supérieure de façon adéquate, la porte s’ouvre, et nous découvrons que la créature en face de nous n’est autre que nous-même.

Nous utilisons cette image dans le but de donner au lecteur une illustration pratique, aussi sensuelle que possible, du développement des pouvoirs créateurs de l’esprit. Outre qu’il est fortement désirable de fournir à tous nos enfants les types d’éducation implicitement proposées par ce texte, nous devrions également nous préoccuper de l’éducation implicite de chaque être humain dans notre société, faisant en sorte que la créature derrière la porte fermée soit instruite aussi bien que possible.

Nous avons tous déjà noté combien la portée de notre concentration est limitée en profondeur et en durée. Certains sujets et types de pensées nous sont déplaisants : sur eux, l’esprit refuse de se concentrer. Même pour les sujets qui nous sont les plus agréables, au bout d’une certain temps, notre concentration s’évanouit. Si nous réfléchissons plus soigneusement à ces phénomènes, nous pouvons reconnaître que les limites à notre capacité de concentration sont fortement liées à notre vie émotionnelle. Nous pouvons admettre à l’évidence que l’aspect caractéristique de ce processus émotionnel — les caractéristiques-espèces communes aux différentes couleurs de l’émotion en question — constitue un sentiment d’identité personnelle. Quand un sujet nous transporte de joie ou de colère, ses couleurs deviennent plus éclatantes. Autre exemple : la rage aveugle peut faire disparaître les sujets dont nous ne voulons pas. Et ainsi de suite. Quant à la durée de notre concentration, le phénomène est similaire, bien que quelque peu différent. En partie, c’est la même chose ; les sujets auxquels nous conduit notre concentration sur un sujet initial entraînent des réactions de la même sorte que celles provoquées par le sujet initial. Il y a cependant quelque chose d’autre, quelque chose d’une importance particulière en ce qui concerne les processus de découverte. Non contents de réagir aux sujets sous-jacents abordés au cours d’une période de concentration, nous réagissons aussi aux aspects caractéristiques du processus qui sous-tend l’ordonnancement de ces sujets. Aussi bien, nous réagissons émotionnellement à ces caractéristiques. De nouveau, c’est autour de notre sens d’identité personnelle sociale que pivotent ces émotions.

Par exemple, l’idée d’être un travailleur scientifique nous amène à donner la préférence non seulement à certains sujets, mais aussi au plaisir de ressentir dans son esprit la qualité de concentration généralement associée à l’identité d’un tel travailleur scientifique. Si une personne rejette une telle identité sociale pour elle-même, comme la jeune femme conditionnée à croire que la pensée scientifique n’est pas « féminine », qu’elle fera d’elle une « femme moins désirable », alors, pour elle, le fait de rencontrer une telle pensée dans l’élaboration de sa concentration devient en lui-même quelque chose de répugnant. Son esprit interrompra tout effort, et sa concentration s’évanouira.

Pour éduquer implicitement des populations humaines en vue de niveaux élevés de progrès technologique, il faut faire proliférer un sens d’identité sociale cohérent avec la forme d’activité mentale créatrice de capacité de concentration élargie. Ceci est nécessaire pour la résolution des problèmes liés à l’assimilation, l’application et la propagation de nouvelles découvertes. On l’encourage en attribuant une plus grande valeur sociale aux personnes qui réussissent dans ces efforts qu’à celles qui les fuient. Ceci n’est pas simplement une question de paradigmes culturels de l’« other-directedness » [Ce mot a été créé par le sociologue Riesman pour décrire, dans la population américaine, la qualité des personnes dont l’opinion est forgée par autrui, NdT] ; on ne doit pas réduire l’image qu’une personne a d’elle-même à l’opinion qu’une autre peut avoir sur elle. L’objectif doit être, à l’opposé de l’exo-détermination, d’encourager la conviction « intérieure » suivant laquelle l’individu qui contribue de cette manière à la société est un individu important et utile, non seulement à cause de ses pouvoirs créateurs, mais aussi par son engagement à développer plus loin ces pouvoirs et à les utiliser pour le bien commun. On n’a pas besoin d’une image miroir de l’opinion supposée que les autres (les autorités, les pairs, etc) ont de nous, mais d’un sens moral intérieur de notre identité.

On comprendra ce point plus clairement en examinant la façon dont la culture dominante des Etats-Unis a été détruite au cours des deux dernières décennies. Depuis le milieu des années 60, plus particulièrement, il y a eu un changement de paradigme culturel dans le sens moral de « l’opinion populaire » (comme en témoignent les grands médias de l’information et du spectacle), celle-ci s’éloignant des valeurs de la rationalité, du progrès technologique et de la maîtrise de l’avenir, pour se rapprocher des valeurs contre-culturelles d’une génération du « Ici » et « Moi d’abord ». En résumé : une régression de la culture vers l’irrationalité hédoniste, et l’existentialisme radical. Plutôt que tenter d’aborder la discussion nécessairement longue sur ce changement de paradigme culturel, nous nous limiterons à en résumer quelques points essentiels, qui suffiront à clarifier la question.

Au cœur de la manipulation de l’opinion et de la morale publiques se trouve l’interaction entre la « libération sexuelle » telle qu’elle a été promue depuis le début des années 50 par le magazine pornographique Playboy, contrôlé par le lobby de la drogue, et la relégation croissante des ouvriers à un statut de « classe inférieure ». « Playboy » constituait la bonne appellation pour l’ensemble du mouvement contre-culturel. Le principe en était et reste l’hédonisme irrationnel, une régression vers un état d’esprit intellectuellement et moralement infantile, caractérisé par la multiplication de fantasmes associés à des orgies sexuelles. Cette évolution s’est imbriquée avec celle du mouvement de fuite vers les banlieues, également au cours des années 50, qui a abouti à un abandon des valeurs de la vie urbaine industrielle, principalement au sein des foyers ouvriers.

L’exclamation : « Je suis le vice-président de ma compagnie, et mon plombier gagne un salaire horaire supérieur au mien ! » traduit bien ce changement de valeurs. Le « jeune cadre dynamique », bureaucrate bardé de diplômes, en est alors venu à demander un formulaire d’inscription à la John Birch Society, ou à quelque chose du même genre, après avoir entendu, pour la dixième fois au moins, que les membres des syndicats de telle usine gagnaient des salaires supérieurs à celui d’un important contributeur à la prospérité de la nation tel que lui. L’observation générale à faire est suffisamment claire. Ces couches sociales inquiètes des « cols blancs » ont constitué la base sociale de la révolution « Playboyenne ». En science économique, rien ne peut justifier le changement dans la composition de la population active qui s’est trouvé associé à cette mutation des valeurs culturelles. Simultanément, les « qualifications » de la classe naissante des « cols blancs » n’étaient pas vraiment indispensables à l’économie, dans le sens où les opérateurs industriels qualifiés, eux, le sont. Nombre des nouveaux « cols blancs » ont rêvé qu’ils étaient en ascension sur l’échelle sociale, vers les niveaux inférieurs des classes riches, mais beaucoup d’entre eux ont ressenti cette ascension comme une marche sur une corde raide, et la peur de tomber rôdait constamment. Leur statut, tel qu’il était et tel qu’ils l’imaginaient, était un statut précaire. De surcroît, apparaissait alors la philosophie selon laquelle « tricher est le secret de la réussite ». Le message était : trichez chaque jour, d’une manière ou d’une autre, y compris sous les espèces de la « révolution sexuelle ». La chose la plus importante n’était pas le fait que ces choses aient eu lieu, mais les valeurs sociales attachées au fait qu’elles aient eu lieu.

Ce qui définit l’essence d’un homme est passé de « l’ouvrage que vous construisez » à la « récréation » que vous pouvez vous offrir, et la récréation est devenue une sorte de plongeon écœurant dans ce qui avait auparavant constitué les délices interdits. Les enfants de la banlieue et de sa mystique explosèrent vers le milieu et la fin des années 60, et les parents s’adaptèrent à ce qu’ils désespérèrent rapidement de pouvoir changer. En 1969, Henry Kissinger prit symboliquement et nominalement la charge de Conseiller à la Sécurité Nationale. Alors, les mouvements « écologistes » pullulèrent et les plans de réduction de la population, qui étaient de simples projets pilotes sous Johnson, furent lâchés en pâture sur une jeunesse démoralisée par l’image d’une société empêtrée au Vietnam dans une guerre interminable et sans objet. L’image d’Etats-Unis dotés d’un projet global d’existence s’émietta ; la transmutation des valeurs proposée par Friedrich Nietzsche se fit à une allure rapide et accélérée, et le fruit de la mystique banlieusarde et de la « révolution anticulturelle de Playboy » (l’irrationalisme hédoniste infantile) fut la transformation des jeunes, et plus généralement des « libéraux » [7], en une horde Jacobine n’aimant rien mieux que déchirer le tissu industriel du pays morceau après morceau, tous au nom, soit de causes néo-malthusiennes anti-technologiques, soit du plaisir prouvé par la victoire des « sensibilités » irrationalistes de quelque « groupe militant » sur l’image de l’autorité du progrès technologique.

Le changement de paradigme culturel induit au sein de la plus grande partie de la population américaine n’est pas sans rappeler des précédents tels que la Terreur Jacobine en France ou le vaste mouvement insurectionnel de la Jeune Europe dirigée par Giuseppe Mazzini au milieu du XIXème siècle.

La potentialité créatrice de l’esprit humain n’est plus une source de valeur ou de mérite aux yeux de « l’opinion publique ». Les aspects caractéristiques de la capacité de concentration humaine associés à la faculté d’assimiler de nouvelles découvertes sont étouffés par l’effet d’un choix irrationnel d’identité sociale personnelle. Sans un renversement de cette tendance dans l’opinion publique, sans un retournement du paradigme social vers un sens d’identité moral, rationnel, réétabli dans le contexte du progrès technologique, les Etats-Unis seront bientôt condamnés à virtuellement s’éteindre, du fait de la décadence morale qu’ils recèlent.

Si nous voulons voir l’avènement d’un véritable changement de paradigme culturel, nous devons porter notre attention sur trois points critiques concernant la structure de l’emploi :

1. porter au-delà de 50% le pourcentage des ouvriers dans la population active totale ;

2. concentrer cet accroissement dans la production de biens d’équipement ;

3. accroître l’emploi dans la recherche et le développement jusqu’à atteindre 5% de la population active.

Ce triple effort doit être soutenu par des changements correspondants dans la fiscalité, l’orientation du crédit et les politiques salariales. Afin qu’il réussisse, un renversement des tendances récentes de l’enseignement public sera nécessaire, avec pour référence les programmes d’éducation classique de Humboldt, incluant un enseignement obligatoire de la géométrie synthétique à partir de l’école primaire (en commençant par des jeux pédagogiques basés sur la géométrie constructive). Le changement de paradigme culturel, outre qu’il est économiquement et pratiquement nécessaire, doit être consciemment encouragé, parce qu’il affecte le sens de l’identité personnelle de l’individu dans la société.

Dans ce but, il faut développer des centres de formation et de recherche, institutions séminales visant à donner aux jeunes travailleurs scientifiques les plus prometteurs un enseignement de haut niveau en physique mathématique, conçu du point de vue de la géométrie synthétique. Il faut en outre avoir constamment recours à l’histoire intrinsèque des sciences à partir de l’étude des sources originales.
C’est dans un tel contexte, que les principes de l’hypothèse de l’hypothèse supérieure doivent être rendus conscients. Cette démarche, prenant modèle sur le succès des « brigades d’enseignement » de Monge à l’Ecole Polytechnique, devrait viser à former des « brigades » de chercheurs et d’enseignants pour les laboratoires, les universités et les programmes industriels de recherche et développement à travers toute la République. Ces centres ne doivent pas se contenter d’éveiller les potentiels créateurs de leurs membres et de leurs diplômés. On doit y développer un sens de la direction à prendre, vers ces frontières au-delà desquelles notre science doit accomplir des percées fondamentales dans la génération à venir.

Ajoutée à cela, la large diffusion de la connaissance et de l’utilisation d’une forme de science économique établissant un lien direct entre la production de valeur économique et les questions fondamentales de la recherche scientifique assurera la cohérence entre gestion économique et recherche. Cette cohérence découle de toute politique nationale guidée par un « vecteur scientifique ».


[1concernant la méthode scientifique de Nicolas de Cues, l’on se penchera de préférence sur son De Docta Ignorantia (De la docte ignorance). Par ailleurs, s’il a repris et développé l’hypothèse de l’hypothèse supérieure de Platon dans plusieurs de ses ouvrages, son expression la plus dense sur ce sujet se trouve dans son De Non Aliud (Du Non-Autre)

[2La source sans doute la plus utile pour étudier dans tout son ampleur l’œuvre de Léonard de Vinci est un ouvrage publié en Italie en 1938 ; une édition en anglais en a été tirée : Leonardo da Vinci, New York (non datée, copyright italien), 534 pages, folio, avec une excellente reproduction de peintures et de croquis. S’y trouvent rassemblés les interventions de divers spécialistes lors d’un symposium tenu à Milan. Ces spécialistes se trompent parfois sur des points importants ou du moins significatifs, mais le vues propres à Léonard et celles des commentateurs sont la plupart du temps honnêtement séparées. Dans un programme d’éducation bien conçu, chaque élève devrait avoir travaillé sur le contenu de ce livre avant son baccalauréat. Il faut souligner ici que non seulement l’énorme fertilité scientifique de Léonard provenait de sa maîtrise de la méthode de Platon et du Cusain, mais qu’il fut toujours parfaitement conscient du rapport entre sa méthode et ses découvertes.

Parmi ses nombreuses découvertes, directement effectuées à partir de cette méthode, on trouve celle suivant laquelle l’énergie (par exemple, la lumière) rayonne à une vitesse de propagation bien déterminée et qu’elle a la forme d’un mouvement ondulatoire transversal. Il a insisté sur le fait que tout mouvement ondulatoire, y compris les ondes sonores, est transversal. Cela fut longtemps considéré comme une erreur, jusqu’au traité de 1859 de Riemann sur la propagation des ondes de choc acoustiques. (Léonard a basé la plupart de ses travaux concernant les phénomènes de rayonnement énergétique sur le principe de la propagation d’ondes de choc.) En travaillant à partir de ses réalisations en électrodynamique (par exemple, le principe du potentiel retardé de la propagation du rayonnement), Riemann prouva que la cause de la nature manifestement ondulatoire d’une onde sonore identifiable dans la simple expérience d’un diapason est engendrée par une onde ayant la forme d’un rayonnement électromagnétique. La vitesse à laquelle le milieu aérien peut être rendu « autotransparent » pour la propagation d’un effet électromagnétique, dont la configuration ne peut être reproduite à une vitesse supérieure à la vitesse moyenne des molécules d’air. Sur cette base, Riemann décrit dans son traité la génération de tels fronts de choc comme des « bangs hypersoniques ». La démonstration expérimentale de l’exceptionnelle exactitude du traité de Riemann montre maintenant que Léonard avait raison aussi bien sur le principe de la nature transversale du processus de propagation des ondes acoustiques, que dans le choix de la méthode par laquelle il développa ses vues sur la propagation du rayonnement sous forme d’ondes transversales.

Dans un autre exemple, le Dr Steven Bardwell a reconnu, en voyant l’un des dessins de Léonard sur la turbulence hydrodynamique, que Léonard avait obtenu des résultats qui ne furent reproduits que dans les années 70, par le Dr Fred Tappert et ses collaborateurs, et ce à l’aide de simulations informatiques ! Dino De Paoli, un chercheur travaillant à Paris sur des documents de l’Ecole polytechnique et de Léonard, a découvert que la méthode employée par Léonard pour les observations qu’il a dessinées fut d’utiliser des eaux colorées, en ayant recours à des teintures ou à d’autres produits « traceurs ».

[3Cette affirmation n’est pas exagérée ; il s’est agit en effet d’une grande enquête théorique et de terrain, entreprise sous la direction et avec la coopération de nombreux spécialistes. Commencées approximativement en 1970, poursuivies sur quatre continents, concernant des centaines de personnes et explorant des documents d’archives restés jusque-là en grande partie inexploités, ces recherches ont été, à la connaissance de l’auteur, parmi les plus fructueuses et les plus passionnantes jamais menées.

Nous devons admettre que leurs conclusions contredisent les légendes et les simples falsifications ou erreurs devenues populaires dans les amphithéâtres et les manuels scolaires. La soi-disant controverse Leibniz-Newton est une illustration de la manière dont persistent ces mythologies populaires. Il existe des documents prouvant que Leibniz a soumis son premier rapport sur le calcul différentiel à un imprimeur parisien en 1676, au moment de son départ pour l’Allemagne. Ce document a été retrouvé et les travaux de Leibniz sur le développement du calcul étaient déjà parfaitement connus de la Royal Society de Londres dans la période 1672-1676, pendant laquelle il travailla en France. Les fluxions de Newton apparurent une décennie plus tard, et bien que le coffret réunissant ses papiers de laboratoire ait jusqu’ici survécu, il n’y a pas d’indication qu’il ait fait beaucoup plus, sur les fluxions, que compiler les travaux de Hooke (principalement) et d’autres. Ainsi que le cercle de Charles Babbage l’a souligné dans un écrit du début de XIXe siècle resté célèbre, Dotage and D-ism, le calcul de Leibniz marche, alors que celui de Newton ne marche pas, en dépit des efforts combinés de Laplace et Cauchy pour réviser le calcul de Leibniz en lui surimposant une « théorie des limites ». Néanmoins, le mythe de la « simultanéité approximative » des travaux de Leibniz et de Newton est soit naïvement considéré comme un fait établi, soit comme l’occasion de rouvrir un débat… sur l’antériorité de Newton. C’est peut-être là l’exemple le plus extrême de tels errements, mais il n’est hélas pas exceptionnel vu l’état déplorable de la théorie scientifique et des manuels scolaires actuels.

Une partie du problème tient ici à la primauté des manuels scolaires par rapport au travail personnel des étudiants sur les œuvres originales mises à leur disposition. Les manuels devraient être rédigés soit par les auteurs mêmes des découvertes, soit comme une aide à un programme d’études des sources originales. Le problème que l’on retrouve généralement avec les manuels, c’est qu’ils sont écrits comme une série successive de commentaires sur des formulations sorties de leur contexte original. Le pastiche qui en résulte rappelle souvent les commérages d’un chroniqueur sautant d’un sujet à l’autre. « Maintenant nous en arrivons à la formule d’Un tel ou d’Une telle… » On ne présente jamais à l’étudiant la continuité réelle du travail mené par des courants factionnels fortement opposés, ni la nature dess différences profondes dans la méthode et les suppositions « axiomatiques » de ces parties opposées. Les « équations de Riemann-Cauchy » sont une illustration du genre de conséquences auxquelles on aboutit de cette manière. Le mariage de la carpe et du lapin. Dans la physique mathématique du XIXe siècle, peu de personnalités furent en effet aussi radicalement opposées que Riemann et Cauchy. A leur opposition de méthode et de conception ontologique, il faut ajouter la célèbre propension de Cauchy à plagier l’œuvre de ses opposants et à présenter ce plagiat comme sa propre invention, non sans avoir dénaturé l’original au passage… Pour trouver un prédécesseur immédiat de Riemann à Paris, l’on doit se référer à l’adversaire philosophique et scientifique direct de Cauchy qu’était Legendre.

Le problème est que cette lamentable méthode de transmission de semi-légendes d’un professeur A à un étudiant B qui deviendra plus tard le professeur B qui transmettra la rumeur légèrement altérée à un étudiant crédule C, est tellement incrustée dans les habitudes de l’éducation « supérieure » que se référer au véritable travail des personnalités en cause et au contexte de ce travail est même considéré aujourd’hui par nombre d’experts comme un crime de lèse-majesté.

[4Depuis qu’a été institué le prix Nobel d’économie, aucun candidat n’a été élu sans que son « œuvre principale » dans ce domaine n’ait fait montre d’une incompétence abominable et sans que cette incompétence n’ait été démontrée par quelque catastrophe nationale causée quelque part par l’adoption de sa doctrine. On diot recopnnaître qu’en physique et chimie, par exemple, le choix du comité Nobel a été un peu plus judicieux. Les auteurs du "dogme du quark" auraient donc plutôt dû recevoir le prix Nobel d’« économie ». [Cette note a été écrite avant l’attribution du prix Nobel à Maurice Allais, avec qui Lyndon LaRouche a publiquement exprimé son accord sur l’analyse fondamentale de la crise économique actuelle, NdT.

[5Pour des raisons historiques, compte tenu de certaines références qu’on peut y relever, les écrits de Panini sont probablement à dater du Ve siècle av. J-C.

[6L’état actuel du développement de l’Univers, ou de l’espace de phase de référence, devrait être indiqué comme étant de l’ordre d’un certain nombre N. L’action néguentropique augmente l’ordre de cet espace de phase (par exemple) jusqu’à l’ordre N + 1. Ceci survient ontologiquement au sein de la variété continue. Ceci se reflète dans la variété discrète par l’adjonction d’une nouvelle singularité et également en tant que changement dans les caractéristiques métriques de l’action observée dans l’espace de la variété discrète. Ce changement métrique est le fait expérimental portant sur les hypothèses concernant la variété continue (cf. la dissertation d’habilitation de Riemann de 1854). Autrement, si l’Univers était « infiniment étendu » en tant qu’espace-temps physique, le ciel nocturne devrait être plus lumineux que le soleil puisque, en tout point, le ciel serait rempli du rayonnement provenant de plus d’une étoile. Si l’action néguentropique est divisée dans ses effets comme le détermine l’ordre N, alors ceci doit être le déterminant de la division de l’action néguentropique sur elle-même. De là, la conjecture soulignée dans ce texte. Si tel est le cas, alors un changement relativiste doit altérer les caractéristiques de l’espace-temps physique, de telle façon que les valeurs quantiques et la vitesse de la lumière soient modifiées de manière relativiste. Cette conjecture est fournie ici pour illustrer ce que nous devons garder, comme une pensée persistante, derrière la tête, quand nous procédons à l’élaboration d’hypothèses expérimentales dans nos investigations quotidiennes.

[7[ Un « libéral », au sens américain du terme, est un individu faisant passer son bon plaisir et la tolérance envers n’importe quel « style de vie » avant tout engagement moral ou social, et qui, si un engagement moral ou social entrave son bon plaisir ou son « style de vie », s’empressera de crier au « fascisme », au « totalitarisme » et à l’« autoritarisme », comme un enfant qui craint de perdre son hochet. NdT]

  • 2525€
  • 5050€
  • 100100€
  • 250250€
  • 500500€
  • 10001000€
  • 20002000€
 

Écrire un commentaire

Un message, un commentaire ?

modération a priori

Attention, votre message n’apparaîtra qu’après avoir été relu et approuvé.

Qui êtes-vous ?

Pour afficher votre trombine avec votre message, enregistrez-la d’abord sur gravatar.com (gratuit et indolore) et n’oubliez pas d’indiquer votre adresse e-mail ici.

Ajoutez votre commentaire ici
  • Ce formulaire accepte les raccourcis SPIP [->url] {{gras}} {italique} <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.

Déplier les commentaires||Replier les commentaires