Explication du CTMU (Cognitive Theoretic Model Of The Universe).

Le CTMU de Chris Langan est une théorie métaphysique/philosophique de tout, une « théorie des théories » dans un autre terme. Elle explique la nature profonde de la réalité, son émergence, où elle se dirige et quel est son but.

La théorie est tristement célèbre pour être difficile à comprendre et cela a injustement attiré (au lieu d’un discours équitable) un mépris ad-hominem par la culture matérialiste réductionniste qui imprègne notre époque moderne. Mais comme je vais espérer montrer (si l’on a simplement un esprit ouvert) les idées de base sont faciles à saisir, mais se débattre avec leurs implications est une passerelle qui nécessitera une étude avide des concepts fondateurs et de la théorie elle-même afin d’y entrer.

Si vous voulez sauter ma tentative d’explication plus facile, l’article complet est disponible ici : http://hology.org/ comme il l’est depuis 2002.

Dans les mots de Chris, « la réalité est un langage qui se parle à lui-même à propos de lui-même ».

Sans plus d’ouverture, allons-y.

La naissance de l’univers.

Préalablement au Big bang (ce que l’on comprend comme étant la naissance de l’univers), les physiciens, les philosophes et les théologiens ont tous tenté d’expliquer (avec plus ou moins de succès) ce qui existait avant l’univers et ce qui lui a donné naissance (ce qui l’a prémédité). Pour les philosophes, beaucoup seraient forcés d’admettre qu’il ne pouvait pas littéralement n’y avoir rien qui ait précédé et donné naissance à l’univers (rien comme dans aucune chose unique).

Tout ce qui commence à exister a une cause, la principale source de controverse sur cette prémisse est de savoir si la cause est externe ou interne (c’est-à-dire si elle est auto causée ou exo causée (causée par quelque chose d’autre)). Je pense que nous sommes tous d’accord sur le fait que quelque chose doit exister afin de générer une cause. Cela exclut sérieusement la période pré-big bang comme un endroit où aucune chose n’a existé, et rend expressément clair que quelque chose devait être là.

Ce quelque chose prend la nature de ce que les physiciens appellent la mousse quantique. Définie comme une théorie quantique de la gravité où l’espace-temps aurait une nature mousseuse et agitée et serait constitué de nombreuses petites régions en perpétuel changement, dans lesquelles l’espace et le temps ne sont pas définis mais fluctuent.

Comme vous pouvez le dire à partir de sa description ci-dessus, la mousse quantique semble très indéfinie, dans le sens où aucun espace-temps ou tout type de structure n’y a été défini. Nous pouvons voir que c’est une description raisonnable à lui donner puisque l’univers, sa structure d’espace et de temps (notre réalité) n’avait pas encore été défini donc logiquement avant d’être défini il était indéfini. Simple et indéniable.

Entrez dans l’UBT:

La mousse quantique fait en fait place à un concept plus riche que l’on retrouve dans le CTMU connu sous le nom de Unbound Telesis (UBT) signifiant littéralement, but non borné. L’UBT ressemble beaucoup à la mousse quantique en ce sens qu’il s’agit d’un domaine purement indéfini et libre de toute contrainte informationnelle, c’est-à-dire qu’il est complètement non contraint et est capable de prendre la nature de n’importe quelle définition, signification, ontologie ou structure.

Pour vraiment avoir un sens de ce concept, imaginez si vous voulez, les lois de la physique étant soudainement quelque chose d’autre, l’énergie n’est plus égale à la masse par la vitesse de la lumière au carré, chaque force n’a plus une force égale et opposée, la masse de l’électron pourrait être n’importe quoi. De même pour la logique, imaginez que la logique sententielle ne soit pas définie, les énoncés logiques de premier ordre comme x = x ne peuvent pas exister parce que x et même les propositions elles-mêmes n’ont pas été définies.

En UBT x peut être x ∧ ¬ x. C’est-à-dire que x peut être égal à lui-même et non égal à lui-même en même temps, une contradiction. Si vous imaginez ce scénario de part en part, on peut en venir à voir UBT comme une sorte de royaume de pur paradoxe, où la structure et l’être n’ont pas été définis parce que les règles de leur existence doivent d’abord être définies et bornées.

Alors, qu’est-ce qui a défini les règles d’existence de notre univers ? La réponse doit être qu’il le fait lui-même, il les cause lui-même, puisque pour qu’une cause externe génère la réalité, elle doit affecter la réalité, et par conséquent elle est contenue dans la réalité elle-même puisque la réalité contient tout ce qui est réel.

Une cause ne peut pas vraiment être séparée de l’effet qu’elle crée, puisque pour qu’une cause génère un effet, elle doit exister dans un milieu relationnel qui lui permet de le faire (un milieu qui relie la cause et l’effet) et ce milieu doit être la réalité. Ainsi, nous pouvons voir que les causes externes ne peuvent pas être distinctement séparées de la réalité, car elles nécessitent une interaction avec la réalité afin de la causer (ce qui implique qu’elles doivent être suffisamment similaires à la réalité afin de l’affecter, si elles sont complètement différentes de la réalité, alors la cause ne peut pas interagir avec la réalité afin de la causer), ce qui rend la réalité « auto causée » ou comme elle émerge de l’UBT « auto définie ».

Mais pourquoi a-t-elle choisi les lois de la physique et de la logique comme règles fondatrices ? La réponse est qu’elle doit se conformer à la cohérence logico-mathématique afin d’avoir une structure stable et de ne pas s’effondrer sous sa propre auto contradiction. Une amorce utile pour mieux comprendre cela est ici : https://youtu.be/edwYu20SMFc

Si la réalité se contredit quelque part (les lois de la physique varient, les lois de la logique varient) alors elle se serait déjà effondrée (par exemple beaucoup, beaucoup plus tôt que plus tard). Parce que si la nature n’est pas toujours uniforme, le mécanisme qui contrôle son uniformité serait un mécanisme arbitraire (un mécanisme mathématiquement aléatoire) au lieu d’un mécanisme choisi, ce qui signifie que l’univers serait maximalement entropique, se détruisant instantanément.

Ainsi, le problème de l’induction en science, où par la nature est seulement supposée être uniforme, est résolu par la déduction que la nature doit être uniforme, sinon aucune de ces phrases et pensées que vous et moi avons n’existerait.

Imaginez que vous avez un ami appelé Dan qui mesure 6’2, dans cette réalité vous pouvez le percevoir comme mesurant 6’2 car il existe des lois qui permettent à la perception d’être possible. Maintenant, imaginez une autre réalité ou un autre monde qui pourrait exister et dans lequel vous pourriez percevoir Dan comme mesurant 1,80 m et 1,80 m en même temps, une contradiction. Un tel monde ne peut pas se former à partir de l’UBT parce qu’il est incohérent, il est auto-contradictoire ou totalement paradoxal par nature. Si même une partie d’un système est contradictoire, alors le système entier est auto contradictoire et donc ne serait pas capable de se maintenir et s’effondrerait, l’empêchant d’être une réalité où les observateurs peuvent se former et donc rendant impossible qu’il soit une réalité dans laquelle nous pourrions être.

Cela signifie que la réalité doit être configurée pour permettre aux observateurs de surgir en son sein, impliquant que l’esprit détermine la réalité. Et puisque ces observateurs ne peuvent pas être séparés de la réalité (parce qu’ils sont en elle), ils sont, dans un sens littéral, la réalité dans l’acte de s’observer elle-même.

La réalité se percevant elle-même.

La cohérence est un bien, l’incohérence est un mal.

Avec un dernier mot sur l’UBT, puisqu’il existe toujours (est toujours présent) parce qu’il est la négation logique de la logique (l’antithèse de la logique) il existe comme un complément nécessaire à la logique, et la réalité se définit constamment à partir de lui.

Cela peut être compris en termes plus poétiques comme l’absence de lumière est l’obscurité, ou l’obscurité est l’absence de lumière. Il s’ensuit que la réalité est dans un processus de choix de ce qu’elle est (ce qui implique toujours de choisir ce qu’elle n’est pas). C’est-à-dire qu’elle se décide par négation, en se niant elle-même.

Le problème du mal peut être résolu alors en comprenant que le mal est tout ce qui est incohérent (UBT) (puisque l’incohérence détruit le sens) le bien peut être compris comme étant tout ce qui est cohérent, ce qui est entier et que la réalité choisit de ne pas être le mal en résolvant son propre sens par rapport à la contrainte. Cela signifie que le mal sera finalement détruit, mais que cette destruction doit logiquement être un processus (une série d’événements séquentiels) qui doit avoir lieu, il est logiquement requis pour que la destruction du mal ait lieu.

Une bonne façon d’avoir une idée de ceci, dans le style des conseils de vie, est la discussion du physicien David Bohm sur la totalité https://youtu.be/mDKB7GcHNac

La réalité en tant qu’esprit.

La CTMU prouve que la réalité est une construction consciente d’elle-même, auto-consciente, aka elle est intelligente. Afin de démontrer cela, il faudra avoir une définition de ce qu’est l’intelligence. L’apprentissage profond est un domaine de l’apprentissage automatique qui utilise des réseaux neuronaux à plusieurs couches (objets mathématiques qui se rapprochent des réseaux neuronaux du cerveau, qui sont eux-mêmes mathématiques).

(On voit ci-dessous les similitudes structurelles et mathématiques entre un neurone basé sur le silicium et un neurone biologique) :

Les neurones sont des objets mathématiques qui prennent des entrées (données ou informations)(voir sous la rubrique entrée dans l’image) et les combinent avec des poids (Biais ou le biais du neurone) et sortent une fonction qui est une combinaison de ces entrées et biais par rapport à un taux d’apprentissage. Le cerveau humain contient environ 100 milliards de ces neurones fonctionnant en parallèle afin de calculer une classification de sortie, basée sur l’entrée qu’il reçoit et sa supposition sur la pertinence de cette entrée (son biais ou ses croyances).

À partir de cette explication, nous pouvons comprendre que l’intelligence est un système de traitement de l’information et de génération d’information. Comme elle prend de l’information (c’est-à-dire de l’information dans le sens de certaines possibilités sélectionnées, à l’exclusion d’autres possibilités qui pourraient être sélectionnées) lui applique une procédure mathématique, et la transforme en un état de sortie, générant de l’information.

Si le cerveau traite de l’information, alors tous ses sous-composants doivent l’être aussi (bien qu’à différents niveaux de complexité).

Il s’ensuit donc que si l’on peut montrer que ce type de capacité généralisée de traitement de l’information existe au niveau des blocs fondateurs de la réalité (particules composantes), alors on peut montrer que la réalité est partout, à tout moment, en train de traiter et de générer de l’information.

Voyons si nous pouvons montrer qu’un atome traite l’information:

Un diagramme des transferts d’énergie des électrons.

Lorsqu’un électron est frappé par un rayonnement électromagnétique (entrée d’information), l’électron saute vers le haut ou vers le bas dans une orbite d’énergie inférieure ou supérieure selon la longueur d’onde (le type d’entrée) du rayonnement qu’il reçoit. Il sort ensuite (génération d’information ou transformation d’état) un photon dont la longueur d’onde dépend de la longueur d’onde du niveau d’énergie du photon qui lui a été entré et donc de l’énergie maximale ou minimale possible qu’il peut sortir (biais).

Dans ce cas, le biais serait le seuil d’énergie du système atomique, s’il dépasse une certaine borne inférieure ou supérieure, alors nous aurons une désintégration radioactive. Il s’agit d’un exemple de limite invariante de ce qui peut être actualisé dans la réalité, avec une grande place pour la variance entre les deux.

Le biais dans les opérateurs neuronaux du cerveau humain peut évidemment aussi être varié (comme les croyances vraies ou fausses) mais pas au-delà des limites qui sont fixées par les limites invariantes. C’est une forme de contrainte qui permet à la liberté d’exister, la contrainte est nécessaire à la liberté, car contraindre quelque chose, c’est le définir, et le définir, c’est lui donner des règles (les lois de la physique). Si elle n’était pas définie, nous n’existerions pas, et la réalité s’effondrerait à nouveau dans le domaine primordial de l’UBT.

Si un atome ne faisait rien qui ressemble au traitement de l’information, alors les cerveaux ne peuvent pas faire de traitement de l’information. Les parties forment le tout.

Cela montre que ce que font les atomes est finalement du traitement de l’information aussi, leur attribuant une forme réelle, mais très basique, d’intelligence et de conscience de soi. Parce que le rayonnement qui est reçu par l’électron d’un atome ne provient pas d’un autre électron sur un atome qui existe en dehors de la réalité, (puisque la réalité contient tout ce qui est réel) cela fait que la réalité est partout, à tout moment, se percevant elle-même dans un acte de contemplation ou de modélisation de soi (ce que font les esprits).

Puisque l’information doit exister pour être traitée, l’information doit se traiter elle-même, à différents niveaux de variantes (Humain)et d’invariants (Physique).

Cela fait de la réalité un continuum stratifié de traitement de l’information intelligente, avec la capacité de se percevoir distribuée partout à différents niveaux de capacité. Être c’est être perçu, être c’est être en communion (communication) avec soi, être comme communion.

La réalité est partout autosimilaire et autotraitement, une symétrie.

Elle existe comme un système méta-cybernétique. Méta, signifiant quelque chose d’un genre supérieur ou de second ordre et Cybernétique, signifiant un système de communication et de contrôle automatique dans les machines et les êtres vivants.

De plus puisque ce que ces processus font est en fin de compte mathématique et que les mathématiques sont un langage (et que le langage est le seul moyen possible de communiquer) la réalité est un langage auto-processeur auto-configuré (SCSPL).

Auto référence inévitable en logique.

Un exemple de tautologie sémantique.

Le langage SCSPL peut être réduit à ses parties logiques mathématiques de base, les tautologies (puisque tout langage repose sur des tautologies pour exister car une tautologie est un énoncé qui est vrai par nécessité ou en vertu de sa forme logique).

A ∨ ¬A

1 ou 0.

Pour générer de l’information, il faut sélectionner dans une matrice tautologique, donc sélectionner A parmi A ou non A est une procédure mathématique qui génère de l’infromation. Mais d’où viennent les tautologies qui permettent de générer de l’information ? Elles viennent d’elles-mêmes. A ou pas A ne peut être réduit qu’à une tautologie, ce qui signifie que les tautologies se contiennent partout elles-mêmes.

A titre d’exemple :

(A ∨ ¬A) ⇒ ¬(A ∧ ¬A)

Pour qu’une expression logique quelconque se produise, les primitifs de base de l’expression du langage doivent nécessairement se contenir eux-mêmes, ou ils seront empêchés de permettre tout type d’expression cohérente.

Puisqu’ils se contiennent eux-mêmes, ils s’expriment toujours eux-mêmes.

Cette logique auto-inclusive valide la proposition « la réalité contient tout ce qui est réel » car si l’ensemble de tous les ensembles ne peut pas se contenir lui-même, alors même un confinement partiel est impossible, prouvant que la logique est impossible à utiliser pour percevoir.

A=A.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.