Wissen ist ein Privileg. Die Weitergabe eine Pflicht. |
Ein überfälliges Rendezvous mit ursächlicher Rationalität
|
|
Autor Dirk Freyling unabhängiger Forscher & Künstler [Künstlername AlexD, daher auch adf als Autorenkürzel] |
|
[BASISSUCHE AlexDirkFreyling 59ndf Foto von T.B.] |
Worum geht es? Um einen nachhaltigen Paradigmenwechsel.
Was ist hier mit Paradigmenwechsel gemeint? Das Ersetzen der Standard-Denkmodelle [SM ΛCDM] der Theoretischen Physik. [SM] Standardmodell der (Elementar)-Teilchenphysik (SM) [ΛCDM] Kosmologisches Standardmodell (ΛCDM-Modell)
Was tritt an deren Stelle?
Welche Argumente sprechen für diesen Paradigmenwechsel? Das Parsimonieprinzip [: Ockhams Rasiermesser lex parsimoniae Sparsamkeitsprinzip]
Die streng analytisch ↓ motivierte Verwendung des Prinzips der Parsimonie in den vorliegenden Ausführungen
|
«Interdisziplinäres Umfeld»
Angewandte Soziologie statt wissenschaftlicher Argumentation Wer einigermaßen neutral die Geschichte der Elementarteilchenphysik “studiert”, wird kaum glauben können, dass es sich um naturwissenschaftliche Betrachtungen und Bemühungen im Sinne einer zielführenden Vereinfachung und Vereinheitlichung handelt. Immer dann, wenn die Experimentalphysik die Theorie(n) widerlegte, wurde die Theorie mittels neuer Elementarteilchen, erneuter Substrukturierung und, wenn nötig, neuer Quantenzahlen erweitert, die die fehlenden Eigenschaften, die fehlende Energie oder die fehlende Symmetrie “erledigten”. Das hat mit Wissenschaft wenig zu tun und erinnert mehr an (zeitgenössische) Politik. Statt die Probleme mit einem neuen radikalen (Theorie-)Ansatz zu bewältigen, werden kleine und große Schönheitskorrekturen kontinuierlich durchgeführt. Statt zu vereinfachen und zu vereinheitlichen wird “gnadenlos” erweitert und “spezialisiert”. Es entsteht ein Sammelsurium von Teilchen(eigenschaften). Plakativ formuliert: Für jeden Fall einer unerwünschten Abweichung, für jedes Teilchen, etc. werden bei Bedarf theorieerhaltende Sonderregelungen nachgelegt. Der mathematische Formalismus ist in diesem Fantasieprozess das kleinste Problem. Nötigenfalls werden divergente Terme regularisiert und renormalisiert oder gleich als “unphysikalisch” deklariert, schlicht “weggelassen”. Das damit die axiomatische Grundstruktur zerstört wird, scheint entweder nur Wenigen klar zu sein bzw. ist offensichtlich dem Gros der Theoretiker ergebnisorientiert egal. Inhalts-analytisch folgt daraus die Tatsache, dass die "großen" Standardmodelle der Physik sprich das Standardmodell der Elementarteilchenphysik (SM) und (wie später ausführlich erörtert wird) das Standardmodell der Kosmologie (ΛCDM-Modell), sowie vermeintlich konkurrierende Modelle (Stringtheorien) und die gewünschte SM-"Erweiterung" SUSY (Supersymmetrie) bei genauer Sicht keinerlei rational logischer Kritik standhalten, wie noch ausführlich, im Rahmen der vorliegenden Standardmodell-Bestandsaufnahmen an zahlreichen Beispielen, argumentativ begründet nachgewiesen wird. Einzig das »soziologisch erprobte Argument«, dass sich doch nicht zehntausende mathematisch hervorragend ausgebildete Wissenschaftler, über mittlerweile mehrere Generationen, mit Modellen beschäftigen, wenn diese auf Grund immenser innerer Widersprüche bedeutungslos wären, wird „argumentativ“ zum finalen Schlag ins Felde geführt. Da diese Standardmodelle das wissenschaftlich und populärwissenschaftlich propagierte Non plus ultra der Theoretischen Denkmodell-Physik sind, brauchen wir uns nicht zu wundern, dass wir seit Jahrzehnten tief in einem "erkenntnistheoretischen (Schwarzen) Loch" sitzen. Wie egozentrisch, arrogant, dekadent, sinnfrei und folgenlos widersprüchlich die »Protagonisten des Standards« in ihren Arbeiten mit Apologeten, Fans, Kritikern und sich selbst umgehen, haben sie eindrucksvoll mit folgender »Erkenntnis-Pathologie« bewiesen: 2013 gab es einen Nobelpreis für den "Higgs-Machanismus" der masselose Neutrinos fordert. 2015 gab es einen Nobelpreis für den (angeblichen) Nachweis von Neutrino-Oszillationen, die Neutrinomassen benötigen. Zum Verständnis: Im Rahmen des Standardmodells gehören Neutrinos zu den Leptonen und sind als exakt masselose Fermionen definiert. Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben. In Anbetracht der dokumentierten, mit dem Nobelpreis gewürdigten, Schizophrenie wäre es u.a. keine schlechte Idee, die »Macher« und »Entscheider« psychologisch, psychiatrisch, neurologisch untersuchen zu lassen.
Warum nehmen Menschen generell solch' widersprüchlichen Schwachsinn hin? Heutiges hysterisches, getriggertes Denken, Wünschen und Handeln der Massen ist nicht neu: Der Psychologe Solomon Asch (1907 - 1996) bemerkte aufgrund seiner Versuche, „Für die meisten Menschen hat die Anpassung an das, was andere sagen und tun – egal wie objektiv falsch oder absurd es ist –Vorrang vor der Anpassung an die Realität und der Entdeckung der Wahrheit.“ Wesenszüge der Masse nach Gustave Le Bon (1841 - 1931): Eine Masse ist grundsätzlich impulsiv, beweglich, irritierbar, suggestibel, leichtgläubig, besessen von schlichten Ideen, intolerant und diktatorisch. Der Geist der Massen ist konservativ („Konservativismus der Masse“). Leichtgläubig gegenüber alten, skeptisch gegenüber neuen Ideen und Idealen. Es existiert eine spezifische »Religiosität der Massen«, die die Religiosität einzelner Individuen außerhalb der Masse bei weitem übertrifft. Das Individuum kann in der Masse in moralische Höhen aufsteigen oder in Tiefen hinabsinken (meist Letzteres). Es existiert eine allen Massenbestandteilen eigene „Massenseele“. Die Masse denkt nicht logisch, sondern in Bildern, die häufig durch einfache Sprachsymbolik hervorgerufen werden. Die Masse ist nur wenig kreativ und vermindert intelligent. Sie denkt einseitig grob und undifferenziert. Die Masse ist leicht erregbar, leichtgläubig und sprunghaft. Ihre Emotionalität ist schlicht. Das hier bewusst inszenierte, extrem unwissenschaftliche und übergeordnet a-soziale Verhalten↑ der Standardmodell-Protagonisten und "im Anschluss" der »servilen Verkünder populärwissenschaftlicher Publikationen«, des im Aussage-Ergebnis interdisziplinär leicht verstehbaren »Standardmodell-Widerspruch-Nonsens«, erinnert stark an die Bestandsaufnahme von Klaus Gebler: …“Auf dem Gipfel der Macht und der Anerkennung werden Menschen plötzlich gesprächig, kokettieren mit ihren Tricks und kleinen Mogeleien, spötteln über Ethik und Moral und brüsten sich ihrer Fähigkeit, ein ganz spezielles persönliches Interesse mit Hilfe von Manipulation und geschickter Propaganda durchgesetzt zu haben. Manche Vermutung über das wahre Wesen eines erfolgreichen Menschen findet durch derart eitle Selbstenthüllung ihre Bestätigung, vermag aber keineswegs die Machtposition des Menschen zu erschüttern. Etabliert ist etabliert.“ Quelle: Als der Urknall Mode war - Erinnerungen an ein kurioses Weltmodell - Klaus Gebler 2005 ISBN 3-8334-3983-1
Keine Gnade Letztendlich könnte man sich tolerant zeigen und darauf hinweisen, dass ein Denkmodell eben nur ein Denkmodell ist. Mit der Konsequenz, das die Standardmodelle im Vergleich zur Elementarkörpertheorie, gemäß dem Prinzip der Parsimonie, zwar eindeutig verlieren, aber ihre Existenzberechtigung behalten (könn(t)en). Nun, was "soll ich sagen", nein, dem ist nicht so. Nicht weil ich das (emotional motiviert) nicht will, sondern weil es zahlreich argumentative Gründe gibt, die die Standardmodell-Postulate, derzeit 31(!) freie Parameter (25 SM, 6 ΛCDM), mehrere Dutzend postuliert essentielle Theorieobjekte]pet, assoziierte Verknüpfungszahlen (Quantenzahlen), diverse Substrukturierungs-Thesen, Confinement-These,…, deren postulierte Wechselwirkungs-Szenarien und die resultierenden Aussage-Ergebnisse der Standardmodelle als reine Versuchs-Märchen-Interpretationen identifizieren. ]pet Zählt man die Teilchen nach einer Regel, die zwischen Teilchen und ihren entsprechenden Antiteilchen sowie zwischen den vielen Farbzuständen von Quarks und Gluonen unterscheidet, ergibt sich eine Gesamtzahl von 61 Elementarteilchen. Wenn Neutrinos ihre eigenen Antiteilchen sind, dann würde die Gesamtzahl der Elementarteilchen nach denselben Zählkonventionen 58 betragen. Fazit: Es handelt sich bei dem SM und dem ΛCDM-Modell um philosophisch-mathematische Modelle. Die Standardmodelle sind keine physikalischen Denkmodelle! Somit haben sie keine Modell-Daseinsberechtigung zur Beschreibung der physikalischen Welt, auch losgelöst von der Existenz der EKT.
Bevor ich mit den vergleichenden Denkmodell-Anatomie-Ausführungen beginne, möchte ich noch den Nobelpreisträger Burton Richter zu Wort kommen lassen, dem Niemand vorwerfen kann, er wäre ein Outsider des Standardmodells der Teilchenphysik. Burton Richter: ein Pionier der Teilchenphysik und Nobelpreisträger schrieb 2006 u.a. „Für mich ist etwas, was heute für die am weitesten fortgeschrittene Theorie der Teilchenphysik gilt, nicht wirklich Wissenschaft. Als ich mich kürzlich mit drei angesehenen Theoretikern auf einem Podium befand, konnte ich der Gelegenheit nicht widerstehen zu diskutieren, was ich als Hauptproblem in der Philosophie hinter der Theorie sehe, die scheinbar in eine Art metaphysisches Wunderland übergegangen ist. Vereinfacht gesagt, scheint es sich bei vielen der aktuellsten Theorien um theologische Spekulationen und um die Entwicklung von Modellen ohne überprüfbare Konsequenzen zu handeln…“ Quelle: Theory in particle physics: Theological speculation versus practical knowledge Physics Today October 2006 |
Stell' Dir vor es geht!
in Anlehnung an das expressionistische Stirb & Werde Prinzip
Konsequenzen einer Masse-Raum gekoppelten fundamentalen Erweiterung des Energieerhaltungssatzes zur Kenntnisnahme, zur Selbstanalyse und zum Verstehen. |
Lesetechnisches
|
|
Der vorliegende - interdisziplinär "eröffnete" - Inhalt ist primär für Menschen bestimmt, die ohne Schöntuerei und falsche Rücksichtnahme auf Bestehendes, Neues suchen und im Sinne der Aufklärung - gemäß des Prinzips der Parsimonie - Neues wünschen, dass sowohl die interdisziplinäre als auch die fachliche Qualität und Charakteristik für einen nachhaltigen Paradigmenwechsel in der »Denkmodellwelt der formalisierbaren Materiewechselwirkungen« besitzt. |
"Natur lässt sich nicht formalisieren. Was sich formalisieren lässt, sind ausschließlich Denkmodelle zur Beschreibung der Natur." Dirk Freyling |
Freude an der Wirklichkeit
Auch wenn es sich hier um eine wissenschaftliche Betrachtung der Materie handelt, sollen ergänzend Humor und interdisziplinäre Verweise nicht zu kurz kommen. Die mathematisch-physikalischen Ausführungen sind bewusst mit künstlerischen Bild-Elementen ausgeschmückt, da es Spaß macht die Vitalität der Theorie respektive des alternativen Denkmodells zu illustrieren. Authentizität und Egozentrik des Theorievaters sollen und werden kein Geheimnis bleiben. |
[BASISSUCHE AlexDirkFreyling 45ndf Foto von T.B. ARTSTOFF Galerie Südturm] |
Zeitreichtum ist in jedem Fall ein Muß. Leser die bereits Schwierigkeiten haben längere Online-Medien-Texte "gängiger" populärwissenschaftlicher Anbieter konzentriert und nachhaltig verstehend zu lesen, kommen mit diesem Handicap hier nicht weit. |
Terminologie & Notation
Verwendung von Fachbegriffen Vorliegende Ausführungen sind nicht nur für Themenvertraute geschrieben (worden). Das bedeutet u.a., dass Interessierte mit wenig "Fachwissen" unvermeidlich mit Begriffen konfrontiert werden, die nicht selten zum nachhaltigen Verstehen implizit eine ganze Schar von weiteren Informationen und Zusammenhängen beinhalten. Das ist unvermeidbar. Einige dieser Begriffe werden im direkten inhaltlichen Zusammenhang erklärt, andere nicht. Im Zweifelsfall sollte der erst einmal unverstandene Begriff "hingenommen werden". »phänomenologisch begründet« In den vorliegenden Ausführungen wird des Öfteren der Terminus »phänomenologisch begründet« verwendet. Was bedeutet das? Im Gegensatz zu den vorherrschenden Standardmodellen der (Elementar-)Teilchenphysik (SM) und dem Kosmologischen Standardmodell (ΛCDM-Modell) ist das alternative Denkmodell (Elementarkörpertheorie, kurz EKT) mathematisch einfach und anschaulich. Die Modell-Gleichungen sind plausibel-geometrisch »sinnerfahrbar«. Was das im Detail bedeutet, ist Gegenstand aller folgenden Betrachtungen und resultierenden Berechnungen im Rahmen der EKT. |
Didaktisches
Insgesamt betrachtet, werden im weiteren Verlauf, Schritt für Schritt, die phänomenologischen Zusammenhänge erklärt. Spätestens jedoch am Ende der Ausführungen wird für jede Herleitung, für jede Berechnung die Verknüpfung zu den ausführlichen Beschreibungen und Herleitungen angegeben. Nichts bleibt ungeklärt, nichts bleibt im Rahmen des Denkmodells unbewiesen. Die einen oder anderen "frühen" Erklärungen respektive Ausführungen im Text, beispielsweise zur postulierten inflationären überlichtschnellen Expansion des Universums, gemäß dem Standardmodell der Kosmologie (ΛCDM-Modell) und vergleichend die Masse-Raum Kopplung als alternative Denkmodellgrundlage, sind insofern früh im Text erwähnenswert, um die willkürlichen Konstruktionen der Standardmodelle exemplarisch zu begreifen und im direkten Vergleich die Voraussagefähigkeit der wortwörtlich um Dimensionen einfacheren formalisierten Denkmodellalternative selbst testen zu können. Inkonsistenzen und willküraffine Erweiterungen bezüglich der postulierten Theorieentitäten und deren Wechselwirkungen innerhalb der Standardmodelle werden sozusagen "portioniert" mit dem »Alternativmodell« verglichen. |
Der Paradigmenwechsel »information-abstract«
|
|
Informationen zum Präsentationsstand Ich arbeite (in Buchstärke) an zusammenfassenden Ausführungen bezüglich des interdisziplinär (zumindest in Hinblick auf wesentliche Aussagen) verstehbaren konkreten Paradigmenwechsels im Bereich der Denkmodelle der Theoretischen Physik auf Grundlage der Elementarkörpertheorie (EKT). Diese zusammenfassende Ausarbeitung wird noch einige Zeit in Anspruch nehmen. Die hier vorliegende unfertige, frei verfügbare Version (sozusagen „on the fly“) als Webseite respektive Webseiten-Ensemble unterliegt einer dynamischen Überarbeitung, mit dem Ziel möglichst präzise vorzutragen. Testleser(innen) untersuchen derzeit die Präsentation u.a. auf Verständlichkeit, Konsistenz etc. Da die Erfahrung zeigt bzw. gezeigt hat, dass im Dialog mit Lesern, die eine oder andere Formulierung zum Verständnis hätte besser und genauer sein können. Trotz der bereits großen Informationsfülle sind die fachlichen Ausführungen im Hinblick auf die Gesamtausführungen hier (im Sinne aller Phänomene und Wechselwirkungen sowie quantitativ) noch unvollständig. Die extensive Grundlage des Vortrags ist die Elementarkörpertheorie→, die alle Denkmodellaspekte eines Masse-Radius gekoppelten Raumes detailliert vorstellt. Es ist jedoch nicht empfehlenswert "hier und jetzt" sprich sofort mittels des angegebenen externen Links, aus Neugierde oder parallel zur Orientierung, dort nachzuschauen. Denn da wird noch viel mehr, als in den folgenden Denkmodellanatomie-Betrachtungen, die hier bereits umfangreich ausgeführt werden, Zeitreichtum, Geduld und Aufmerksamkeit gefordert. Bezüglich der hier vorliegenden interdisziplinären Vorstellung bedeutet das: Die fachlichen Inhalte und Aussagen bleiben gemäß Modellvergleichen und den Charakteristika der Elementarkörpertheorie unverändert, da diese den verbindlichen Kern des Vortrags darstellen, was sich mitunter ändert, sind die Ausformulierungen sowie die Präsentations-Reihenfolge dieser. Insbesondere am Ende der hier vorgestellten Ausführungen zum Paradigmenwechsel sind Text-Fragmente, Grafiken, Gleichungen,... zur Zeit - hier und da - nur "lose arrangiert", "geparkt", unvollständig, teils redundant "aufgelistet". Ein Inhaltsverzeichnis mit direkten Verknüpfungen zu den aufgeführten Inhalten folgt erst dann, wenn die Präsentation vollständig ist. |
Was macht einen Paradigmenwechsel so schwierig? Sofern die phänomenologisch-formalen Aspekte im Hinblick auf überprüfbare Voraussagefähigkeiten gemäß dem »Prinzip der Parsimonie« deutlich für einen Denkmodellwechsel sprechen, sind es, realistisch betrachtet, ausschließlich "banale" wirtschafts-existentielle sowie psychologische Gründe, die einen Paradigmenwechsel verhindern. i) Alle, die bisher als Protagonisten (Wissenschaftler, Dozenten, Techniker,..., Wissenschaftsberichter,...) auf Grundlage des bestehenden Denkens (herrschende »Denkdogmen«) ihr materielles Leben bestritten haben, verlieren ihre Arbeitsgrundlage sprich ihre wirtschaftliche Existenz. Des Weiteren ist der Reputations- respektive Ego-Schaden immens. ii) Der »Prinzip der Parsimonie-Gewinner« schlägt (auch) alle kreativen Kritiker, deren Denkmodelle nun nicht mehr in Betracht kommen (können), aus dem Feld. Sie verlieren ihre Daseinsberechtigung. Das bedeutet das finale Aus für deren geistige Arbeit. Das führt u.a. zu erheblichen Ego-Kränkungen.
»Das Prinzip der Parsimonie kennt keine Koexistenz.«
Ausgangssituation Trotz gegensätzlicher Anfangs-Positionierung wollen im Ergebnis weder die jetzigen »Denk-Dogmatiker« noch die Dogma kritischen »Alternativ-Denkmodell-Kreativen« einen Paradigmenwechsel. Wer kann, will und/oder sollte sich also einen erfolgreichen, nachhaltigen Paradigmenwechsel, außer dem »Prinzip der Parsimonie-Gewinner«, wünschen? iii) Auf den ersten Blick könnte man annehmen, das "so etwas" wie freudige, dankbare (insbesondere Fach-)Wissende existieren, die, gemäß ihrer eigenen Betrachtungen, ("schon lange") realisierten, welche immensen Widersprüche und brachiale Willkür den herrschenden Denkmodellen innewohnt. Diese sind jedoch höchstwahrscheinlich, bis auf sehr wenige Ausnahmen, von einer weit verbreiteten, antrainierten, etablierten "Menschlichkeit beseelt", die im Bereich der Theoretischen Denkmodellphysik konkret besagt, dass man sich - nach mehr als 100 Jahren »Moderner Theoretischer Physik« - schlicht nicht vorstellen kann, das diese im Kern fundamental - plakativ formuliert - denkmodell-falsch ist. [Warum falsch? Kann ein Denkmodell überhaupt falsch sein?] Die richtige Antwort befindet sich ausschließlich im Denkmodell. Ein Denkmodell ist dann falsch, wenn es im Rahmen der Denkmodellpostulate verwendeten Axiome nachweislich widersprüchlich ist. Im analytischen Ergebnis sind, wie argumentativ aufgezeigt wird, das Standardmodell der Elementar-Teilchenphysik (SM) und das Standardmodell der Kosmologie (ΛColdDarkMatter Modell) falsch. Bevor hier unnötig Mißverstände entstehen, ein Paradigmenwechsel, gemäß dem »Prinzip der Parsimonie«, ist losgelöst davon, ob Denkmodelle in sich widersprüchlich sind oder nicht, begründet. Vorliegend sind jedoch SM und ΛCDM-Modell auch (noch) falsch.
Wie kann, trotz der benannten schwierigen Randbedingungen, ein argumentativ begründeter Paradigmenwechsel von "außen" unterstützt werden? Hier kommen »interdisziplinär Informierte« ins Spiel, die zwar (erst einmal) nicht wissen, was Aussagen wie beispielsweise... "Das Standardmodell der Elementarteilchenphysik zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen." bedeuten, aber sehr wohl sofort daraus realphysikalisch erfahrbare Konsequenzen verstehen, wie... "Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten, liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität, in der Masse und Ausdehnung Fundamentaleigenschaften darstellen." Aus diesem »Pool«, vom Paradigmenwechsel nicht (nachteilig) betroffenen »interdisziplinär Informierten«, kann, insbesondere wenn es sich um Wissenschaftler handelt, mittels Fachveröffentlichungen und allgemeiner, im Rahmen medial inszenierter Aufmerksamkeit, in populärwissenschaftlichen Magazinen, eine weitreichende Aufklärung erfolgen.
Wie erklärt man das vollkommen Unerwartete? Es existiert ein Informations-Dilemma. Einerseits macht es Sinn, formal-analytisch exakt, kurz und knapp die signifikanten Vorteile des Denkmodells der Masse-Raum Kopplung erst einmal - sozusagen aphoristisch - vorzustellen. Das geht jedoch zu Lasten des Verständnisses auf der Leserseite und läßt den Autor fragwürdig erscheinen, da für eine stringente, konsistente, formal sachgerechte Denkmodell-Vorstellung jeder Entwicklungsschritt, bis hin zum Formalismus, lückenlos aufgezeigt werden sollte. So oder so ist es für viele Interessierte eher schwierig, hinderlich bis abschreckend, wenn man mit etwas Neuem konfrontiert wird, aber die Hintergründe, Herleitungen etc. noch nicht kennt respektive (noch) nicht versteht. Andererseits sind zu lange Ausführungen, "bis man zum Punkt kommt", in denen es, im Sinne eines konsistent begründeten Paradigmenwechsels, richtig interessant wird, auch problematisch. Leser vermuten dann meist das aus den (Zeitgeist-)(Mainstream-)Medien "gut" bekannte "Um den heißen Brei reden", um am Ende festzustellen zu müssen, das es eigentlich doch nichts relevantes Neues gibt. Hand aufs Herz, insgesamt kann sich eh kaum jemand vorstellen, das es nachhaltige, komplett andersartige Beschreibungsmöglichkeiten im Rahmen von Theoretischen Modellen geben kann, die, gemäß des Prinzips der Parsimonie, den etablierten Denkmodellen deutlich überlegen sind. Insbesondere kann sich niemand, allen voran Theoretische Physiker, vorstellen, das ein alternatives Denkmodell konsistent und skalenübergreifend zur langersehnten Vereinheitlichung führt und alle diesbezüglich relevanten Meßwerte in Form von mathematisch einfachen, formal-analytischen Gleichungen voraussagt. Sowas "hört sich" respektive liest sich wie ein Fantasie-Märchen. »Denkmodell-Neues«, insbesondere mit solchen unvorstellbaren Ankündigungen, wird in der Regel ungelesen ignoriert. Wie auch immer, was sich das Gros der Menschen nicht vorstellen konnte und vorstellen kann, ist für die Wissens-Besitzer dessen, offensichtlich inhaltlich ohne Belang. Es wird folgender »Informationsweg« zur Rezeption angeboten: Sollten die hier - "früh im Text" - expliziten Gleichungen, insbesondere für Nicht-Mathematiker/Nicht-Physiker, irritieren oder den Leser zu sehr "strapazieren", so können diese erst einmal nur überflogen werden. Es folgen im Rahmen der weiteren extensiven interdisziplinären Ausführungen noch genügend Möglichkeiten diese anschaulich zu verstehen. Um "Neues" aufnehmen zu können ist hier eine gewisse »Informations-Redundanz« gewollt. Der eine oder andere Sachverhalt wird wiederholt erörtert. Auch fachwissenschaftliche "Einschübe", fachwissenschaftliche Details die (erst einmal) kaum oder nicht verstehbar sind, sollten nur "kreativ überflogen" werden. Auch ohne ein tieferes Verständnis lassen sich aus den allgemein verständlichen Text-Fragmenten wissenschaftliche Kernaussagen erkennen. Was alle Leser in jedem Fall so früh wie möglich sehen und realisieren sollen, ist die Tatsache, dass ohne Übertreibung, ohne "Schöntuerei", das anschauliche Denkmodell der Masse-Raum Kopplung und der daraus resultierenden exakten Berechnungen - im Vergleich mit nur genäherten, stark freie Parameter lastigen Standardmodellgleichungen - mathematisch extrem einfachst, formal-analytisch exakt und experimentell bestätigt werden. Ob und inwieweit (folgend) argumentativ begründete Bestandsaufnahmen in der Rezeption massentauglich sind, ist aus analytischer Sicht ohne Belang. Mit diesen Randbedingungen beginnt die interdisziplinär verständliche Wissensreise hier und jetzt...
|
|
|
statt 4
Grundkräften → Masse
-
Raum
-
Kopplung
|
|
Umfang und Art der Ausführungen Es existiert kein Anspruch auf Vollständigkeit. Übersteigerungen, plakative Aussagen und - hier und da - Satire, dienen der unterhaltsamen Wahrheitsfindung in einem, aus wissenschaftlicher Sicht, meist unwissenschaftlichen Umfeld. Diesbezügliche Textaussagen sollen als »Reflexionskeime« zum eigenständigen Nachdenken und Recherchieren anregen. Anders als ein Buch oder ein pdf-Dokument ist die vorliegende html-basierende Präsentation (quantitativ) in Buchstärke erst genannten deutlich überlegen. Quellenhinweise können durch Link-Klicks direkt gelesen und deren Inhalte aufgenommen werden, es lassen sich zum Verständnis Videosequenzen einbauen, nachträgliche Text-Korrekturen und Informationserweiterungen sind technisch schnell und einfach durchzuführen. Wiederholungen Zum Kennenlernen werden einige Sachverhalte und Denkanstöße an verschiedenen Stellen bewusst wiederholt. Der Leser mag selbst entscheiden, ob er bereits Bekanntes nochmals liest. Die Texte sind so geschrieben, dass mit etwas Geduld auch weniger vorgebildete Leser einen roten Faden aufnehmen können. Sollte, an der einen oder anderen Stelle, ein Begriff nicht bekannt sein, oder ein Resultat nicht sofort verstanden werden, so empfiehlt es sich erst einmal weiter zu lesen. Denn im weiteren Kontext wird das eine oder andere Unverstandene bereits verständlich.
Wikipedia
|
Was ich nicht weiß, macht mich nicht heiß oder so ähnlich...
Hier und da werden Wikipedia-Ausführungen zur Inhalts- und Begriffsbestimmung im Text angegeben. Dies sind jedoch meist die englischen Varianten. Wie informationsreduziert - umgangssprachlich ohne Übertreibung grottenschlecht - deutsche Wikipedia-Artikel im Vergleich mit den englischen sind, verdeutlicht exemplarisch: Fermi's interaction im Vergleich zu Fermi-Wechselwirkung Auch das so genannte Hierarchie-Problem des Standardmodells wird in der deutschen Wikipedia im Vergleich zur englischen unzureichend erklärt. Zum Verstehen, u.a. von Standard-Denkmodell-Unzulänglichkeiten gibt es zu extrem wichtigen Themen, nicht einmal eine deutsche Beschreibung, wie zur Physik jenseits des Standardmodells, siehe Physics beyond the Standard Model Sofern es sich um kosmologische Inhalte handelt, sieht die Situation folgendermaßen aus... Vergleiche exemplarisch die deutschen und englischen Wikipedia-Ausführungen zur Raumzeit. Vergleiche die deutschen und englischen Ausführungen zum Minkowski-Raum. Und vergleiche die deutschen und englischen Ausführungen zur Lorentz-Transformation. Hier fällt auf, dass der „Laie“ mittels der deutschen Wikipedia im wahrsten Sinne des Wortes unzureichend informiert wird. Es ist kaum zu glauben, dass die »Galionsfiguren der Raumzeit«, der deutsche Albert Einstein und der deutsche Hermann Minkowski waren. Warum ist die deutsche Wikipedia „so schlecht“ im Verhältnis zur englischen? Das Englisch die Sprache der Wissenschaft ist, daran kann es nicht liegen, da die Idee von Wikipedia ja die Vermittlung von Information sein soll. „Brauchen“ deutschsprachige Interessierte keine ausreichende, themen-adäquate Information? Kein Wunder, wenn sich die Leute alles Mögliche zu diesen Themen „zusammenspinnen“, da ihnen nicht einmal die notwendigen Grundlagen von deutschen Wikipedia-Autoren vermittelt werden. Bei Personeninformationen kann man kaum glauben, dass es sich um ein und dieselbe Person handelt. Siehe hier stellvertretend Augustin Jean Fresnel (1788 – 1827), deutsch, englisch, französisch. |
Meinungen sind keine Argumente Skepsis ist eigentlich eine gute "Sache". Aber, Skepsis wird dann zum Problem, wenn die Aufnahmefähigkeit des Betrachters dadurch signifikant gestört wird. Jemand der sich einem Denkmodell inhaltlich nähert und (wiederholt) die Frage stellt, ob das Denkmodell seinen eigenen bisherigen Vorstellungen entspricht oder anfängt selbst (ergänzend) zu spekulieren, bevor das Denkmodell hinreichend verstanden wurde, ist kaum in der Lage sich den neuen Gedanken mit der nötigen Aufmerksamkeit zu nähern. Die eigentlichen Probleme des Verstehens kommen dann, selbst bei einem leicht verständlichen Denkmodell mit wenig Mathematik, von der Egozentrik des Betrachters. Das zu jeder Meinung Gegner und Befürworter existieren, ist nichts Neues. Aus wissenschaftlicher und erkenntnistheoretischer Sicht sind jedoch subjektive Meinungen über physikalische Zusammenhänge kategorisch abzulehnen, da letztendlich eine Realphysik orientierte Beschreibung stets in Einklang mit der Beobachtung stehen muß und eine Meinung mit dieser Wissens-Normforderung kohärent ist oder nicht. Fatal wird es, wenn Betrachter Aussagen und Postulate bestehender Modelle als Grundlage der Bewertung des neuen Denkmodells "annehmen" respektive fordern. Nicht selten waren/sind die Betrachter gar nicht in der Lage die formalen Grundlagen und die Fülle an Inkonsistenzen bestehender Modelle zu erfassen. In der Regel sind dem Gros der Betrachter die Randbedingungen der bestehenden Modelle gar nicht (ausreichend) bekannt. |
|
|
|
ein überfälliges Rendezvous mit ursächlicher Rationalität
* ...und bitte
Alles, was Sie über Physik wissen müssen, um zu beginnen...
Die zeitabhängigen Elementarkörper-Entwicklungs-Gleichungen leiten sich aus der beobachteten Invarianz der (Vakuum-)Lichtgeschwindigkeit ab. Ein formal fundamentaler Unterschied zur (Speziellen) Relativitätstheorie respektive zur Lorentztransformation ist der wechselwirkungsnotwendige radialsymmetrisch-dynamische Charakter dieser Gleichungen.
Für ein anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine substrukturierte Zeit noch mathematische Raum-Zeit-Konstrukte notwendig.
Die Elementarkörper-Theorie stellt einen Energie erhaltenden fundamentalen Zusammenhang u.a. zwischen dem «Phänomen Bewegung» und dem «Phänomen Raum» her.
Die Essenz der Fourier-Analysis als elementarer Bildungsbaustein
"Reine" SINUS-Funktion Das stetige „Analyse- und Synthese-System“ in Form der Fourier-Reihe respektive Fouriertransformation ist heute im Rahmen der "Modernen" Physik allgegenwärtig. Die Basis-Funktion ist die Sinusfunktion. Konsequent minimalistisch gedacht, ist es also nahe liegend, nicht die Fourier-Transformation als Methode der Fourier-Analysis als einfachste Abbildungsmöglichkeit zur Formalisierung zu Grunde zu legen, sondern minimalistisch die „reine“ Sinusfunktion selbst.
Masse-Raum Kopplung
"Am Rande bemerkt"...
(Die) »Elektrische Ladung« ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse (und dem Radius) des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Elementarkörpertheorie basierend sind jedoch alle Ladungswechselwirkungen anschaulich auf Masse-Raum-Kopplungen zurückzuführen. Elektrische Ladungen im Elementarkörper-Denkmodell kommen als (formales) Resultat der Masse-Raum-Kopplung bequemerweise nur (implizit) über Funktionen der Sommerfeldschen Feinstrukturkonstanten α vor.
Beispiel Grundzustandsenergie des Wasserstoffatoms
Raumenergie = 0 Vereinheitlichte Korrespondenz Gibt man in die Gleichung [ER] für mx und r die Werte mG und rG ein, so wird die Raumenergie zu Null, gleiches folgt für mx= mUni(max): maximale Universumsmasse und rG= rUni(max) : maximaler Universumsradius. Hier kommt die Universalität und Skalenkorrespondenz zwischen dem kleinsten Elementar-Körper (Elementarquant G) und dem größten makroskopischen Gebilde (Kosmos), formal vermittelt durch die Gleichung [ER], deutlich zum Ausdruck.
Resultierend einige kosmische Zusammenhänge und Berechnungsergebnisse Wasserstoff ist mit Abstand die am häufigsten vorkommende Materieform des Universums. Wasserstoff macht ungefähr 90% der interstellaren Materie aus. Wie gezeigt wird, ist der im Universum omnipräsent vorhandene Wasserstoff u.a. die "Quelle" der 3K-Hintergrundstrahlung. Was könnte nahe liegender sein als die Alleinstellungsmerkmale des Wasserstoffatoms als Grundlage für die Verbindung zwischen dem »Längenkleinsten« und Universumsgrössen zu verwenden. Korrespondierend gedacht ist das Verhältnis von Protonenmasse zu Elektronenmasse (mp/me) ein maßsystemunabhängiger, einzigartiger Bildungsparameter. Eine Addition von »Längenkleinsten« und Universum macht keinen "beschreibenden" Sinn, weder phänomenologisch noch mathematisch, also kommt hier als "nächste einfache" mathematische Rechenoperation die Multiplikation in Betracht (rG · rUni). Die »längen-charakteristische« Grösse ist die Wasserstoff-Atom basierende Rydberg-Energie und daraus der inhärente Radius der Rydberg-Energie-Verkörperung: rRy. Dimensionsanalytisch kommt in der kleinsten Potenz (rRy/2) in der 2.Potenz vor, damit dies (rG · rUni) entspricht. Das Verhältnis (mp/me) beschreibt ein H-Atom, also folgt gemäß einfachster mathematischer Konstruktionsmöglichkeit : (rRy/2)² · (mp/me)² = (rG · rUni) [U1]. Die Grundgedanken, die zu der Gleichung [U1] führen, sind intuitiv-logisch. Jeder Folgegedanke ist - mit der strikten Vorgabe sowohl Realobjekt orientiert phänomenologisch als auch mathematisch minimalistisch zu sein - "zwingend". In der makroskopischen Masse-Raum gekoppelten Erweiterung läßt sich Gravitation anschaulich weitreichend konsistent formalisieren und führt zu analytisch exakten Berechnungen, wie beispielsweise zur Berechnung der (maximalen) Universums-Masse [mUni(max) ≈ 1,1829498·1053 kg muni(max) = runi(max) · (c²/γG) gemäß Forderung ER=0 ↑], der damit Masse-Raum gekoppelten inhärenten (maximalen) Größe des Universums : [rUni(max) ≈ 8,784775 ·1025 m]:
einem daraus assoziierten maximalen Universums-Alter von [tuni(max) ≈ 4,602881715·1017 [s] ~ 14,596 Milliarden Jahre] gemäß r(t) = rUni · sin(c·t/rUni) folgt: (π/2c) · rUni = tmax ...und beispielsweise zur Berechnung der Temperatur der Hintergrundstrahlung, basierend auf den Masse-Raum gekoppelten Proton-Elektron-Wasserstoff-Wechselwirkungs-Parametern in Abhängigkeit der Grundzustandsenergie etc. An dieser Stelle ergebnisorientiert (nur) so viel dazu: Die Temperatur der "3K"-Hintergrundstrahlung beträgt, gemäß Masse-Raum Kopplung basierender Proton-Elektron-Grundzustandswechselwirkung, ausgedrückt durch die Thermische De-Broglie-Materiewelle ~ 2,67342 °K [Gleichungen: λTHE und λT], mit der Annahme, dass Wasserstoff 100 % der interstellaren Materie ausmacht. In Gleichung [λT] ausgedrückt mittels rRy ↑ (siehe Rydberg-Energie ERy (Grundzustandsenergie des H-Atoms).
Da jedoch kosmisch nur ~ 90% der Materie Wasserstoff basierend ist, ergibt sich hier eine reale Unsicherheit von 10%, die sich offensichtlich nicht beseitigen lässt, da der Kosmos nicht zu einem 100%igen Wasserstofflabor modifiziert werden kann. Wie auch immer, der exakt berechnete (Wasserstoff basierende) Wert im Rahmen der EKT weicht nur um ca. 2% vom derzeitigen Wert des Kosmologischen Standardmodells mit 2,72548 ± 0.00057 K ab. ABER: Alle Standardmodell-Ansichten zur Hintergrundstrahlung "kranken" bereits daran, dass, unberechtigter Weise, "im Kern" der theoretischen Annahmen und Berechnungen, davon ausgegangen wird, dass das Universum ein perfekter Hohlraumstrahler ist. Historisches: Die Hintergrundstrahlung (CMBR) wurde zwar auch von der Urknall-Theorie vorhergesagt, aber wenig bekannt ist, dass die ersten Vorhersagen bei 50° K lagen und erst nachdem die Messwerte 1965 bekannt waren, wurde die Theorie "angepasst". Andere Wissenschaftler, die alternativ zur Urknall-These versuchten, die Theorie der Schwarzkörperstrahlung auf den Weltraum anzuwenden, errechneten Werte zwischen 0,75° K (Nernst 1938) und 6° K (Guillaume 1896). »Vordergrundproblematik« Bei allen Messungen zur Rotverschiebung und assoziierten 3-K-Hintergrundstrahlung sollte klar sein, dass der inhomogene Vordergrund in einem Simulationsmodell (Computerprogramm) "entfernt" werden muß, um das 3-K-Temperaturspektrum als solches aufzufinden. Nur wie soll das praktisch realisiert werden? Die Vordergrundsignale sind um einige Dimensionen größer als das zu messende "Ereignis" der Hintergrundstrahlung. Des Weiteren strahlen alle kosmischen Objekte auch im Infrarotbereich und die Intensitäten der Strahlquellen sind und bleiben geschätzt. Fazit Das Wasserstoff basierende EKT-Ergebnis resultiert phänomenologisch aus der Annahme, dass die Proton-Elektron-Wechselwirkung zu einem massegekoppelten Raum führt, der formal durch die Thermische De-Broglie-Materiewelle ausgedrückt wird. Die 3K-Hintergrundstrahlung respektive die Energie der 3K-Hintergrundstrahlung repräsentiert somit nicht ein expandierendes Raumzeit-Relikt des inflationären Urknalls, sondern das Ergebnis einer fortwährenden, statischen Wechselwirkung. Später mehr dazu. |
Makro- & Mikrokosmos im (Teil-) »Aphoristischem Bild«
"Das Prinzip der Parsimonie kennt keine Koexistenz." Dirk Freyling 59ndf |
Wortgewordenes
|
Wir verfügen über keine allgemein anerkannte Wahrheitstheorie. Die Übereinstimmung von Aussage und Wirklichkeit kann nicht objektiv festgestellt werden. Dieser Sachverhalt wird insbesondere dann problematisch, wenn – wie im Fall der Standardmodelle - die Theorie bestimmt, was gemessen werden soll.
Es existieren zahlreich paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Widersprüche, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe. Daraus resultierende Vorteile aus Sicht eines ergebnisoffenen Erkenntnissuchenden: In einem motivierenden, konstruktiven Sinne enthalten die Standardmodelle so viele "Reflexionskeime" brachialer Inkonsistenzen und Widersprüche, dass es dem Konstrukteur eines Alternativmodells nie an (emotionaler) Energie fehlte bzw. fehlen wird. Da in den Denkmodellen der Quantenfeldtheorien (QED, QCD) und dem Kosmologischen Standardmodell keine Realphysik stattfindet, sind im Rahmen der Denkmodellalternative (Elementarkörpertheorie) phänomenologische Aspekte sozusagen aus der puren Notwendigkeit entstanden, erst zu denken und dann zu formulieren respektive zu formalisieren.
Form und Inhalt Es gibt nicht wenige Stellvertreter der "Modernen Physik" die vorliegende gestalterische Wahl kategorisch ablehnen. Es wird eine wissenschaftliche Präsentation verlangt, so wie man sie kennt, ansonsten wird »Alles« ungesehen respektive ungelesen als unwissenschaftlich bewertet. Diese Norm-Forderung ist jedoch inhaltlich belanglos, wenn man den dazugehörigen, andauernden, weltweiten "Feldversuch" betrachtet. Denn, auch dann, wenn Prof. Dr. »x...y...z« der Physik oder/und Mathematik ein "normgestaltetes" Dokument (»scientific paper«) präsentiert, wird er, sofern seine Denkmodellvorstellungen von den Standardmodellansichten signifikant abweichen, schlicht ignoriert, wie jeder Interessierte an zahlreichen Beispielen der "jüngeren" Wissenschaftsgeschichte selbst recherchieren kann. Aus Sicht des neuen Denkmodells werden schon "früh" im Text teils umfangreiche ergänzende geschichtliche sowie vergleichende Ausführungen zu den bestehenden Standardmodellen zum Lesen angeboten. Diese sind für das Verständnis des Denkmodells der Masse-Raum Kopplung im Sinne der Konsistenz, Phänomenologie und Formalisierung nützlich, aber - plakativ formuliert - nicht zwingend. Da diese Ausführungen den Lesern jedoch einen guten Überblick über die Beliebigkeiten, Inkonsistenzen, Widersprüche und teils esoterisch-metaphysischen SpekulationenBR des bestehenden Denkens in der theoretischen Physik geben, empfehle ich diese weitestgehend zu lesen. Tatsache ist, den wenigsten Interessierten, nicht einmal Physikern und Mathematikern, sind die zahlreichen - rational analytisch betrachtet - Absurditäten der Standardmodelle bekannt. Entsprechende »Informationseinschübe der Aufklärung« sind mit ☼ gekennzeichnet.
Stell' Dir vor es geht
Wie findet man schnellstmöglich heraus, ob es sich überhaupt lohnt, einem unbekannten physikalischen Denkmodell Zeit und Beachtung zu schenken? Es geht übergeordnet nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige formalisierte Lösungen liefert, die sich als Meßwerte experimentell bestätigen lassen. Der einfachste und schnellste Weg ist ein Blick auf die aus dem Modell heraus gebildeten Gleichungen und die daraus ermittelten Ergebnisse, in Form von konkreten Werten für meßbare physikalische Größen. a) Existieren keine Modell basierenden formalisierten Berechnungen die mit meßbaren Werten korrespondieren, handelt es sich nicht um ein brauchbares physikalisches Erklär-Modell. b) Wurden diese experimentell bestätigt, so ist zumindest die erste Hürde genommen. Doch leider tendier(t)en viele Denkmodell-Gestalter dazu, in Anbetracht der geforderten Meßwertgenauigkeit, ihre Gleichungen ergebnisorientiert "weiter zu modellieren", ohne jedoch konsistente, nachvollziehbare Erklärungen innerhalb ihres Denkmodells dafür zu liefern. Beziehungsweise, es werden (weitere) freie Parameter eingeführt, die gleichfalls ohne Erklärung ergebnisorientiert in ihrer "Theorie" zum ersehnten, bekannten Meßwertziel führ(t)en. Sind solche Modellierungen nicht vorhanden und wurden auch keine (weiteren) freien Parameter eingeführt, so lohnt sich ein Blick auf das Denkmodell.
|
Masse-Raum gekoppelte (erste) Motivationshappen
[ Jäger und Sammler AlexDirkFreyling no1 c-print director of photography : adf foto by T.B. 47ndf ] |
Vorweg, an dieser Stelle ohne weitere Erklärungen, vier weitere Beispiele, wie einfach sich Physik formalisieren, herleiten und berechnen lässt, "wenn man weiß, wie es geht"...
Wie konsistent und "einfach" realobjektorientierte Grundlagenphysik sein kann, verdeutlichen vier Beispiele im aphoristischen Bild ... |
Bedeutung der Elementarkörperüberlagerung im Hinblick auf Wechselwirkungen Die Berechnung von Grundzustandsenergien ist weder quantenmechanisch noch quantenelektrodynamisch begründet, da, sowohl phänomenologisch wie auch energetisch, ein signifikant maßgebender Anteil von dem Verhältnis der wechselwirkenden Massen bestimmt wird. Es gibt weder QM und schon gar nicht QED basierend die Möglichkeit die reduzierte Masse mred = mA / (1 + mA/mB) quantenfeld-phänomenologisch einzuführen. Der reduzierte Masseterm mred = mA / (1 + mA/mB) wirkt sich auf die energetischen Verhältnisse aus. Das wird „wertemäßig“ besonders deutlich, wenn man die Massenverhältnisse beim myonischen Wasserstoff betrachtet, da der reduzierte Masseterm dort deutlich größer ist als beim Wasserstoffatom. Die reduzierte Masse ist – ob man es wahr haben will oder nicht – im Rahmen der Standardphysik historisch aus der Himmelsmechanik abgeleitet. Das bedeutet im Klartext, dass im Sinne atomarer Wechselwirkungen, diese weder QM noch QED begründet ist. Folgt man dem Wikipedia-Eintrag zur »reduzierten Masse« wird der hier relevante energetische Aspekt nicht (nachvollziehbar) thematisiert. Dort beginnen die Ausführungen mit: „Die reduzierte Masse ist eine fiktive Masse, die unter bestimmten Voraussetzungen die Eigenschaften zweier Einzelmassen eines Systems repräsentiert….“ Energetisch handelt es sich bei der Berechnung der Grundzustandsenergie zweier wechselwirkender Körper, beispielsweise des Protons mit einem Elektron (Wasserstoffatom), jedoch um nichts Fiktives. Um überhaupt phänomenologisch verstehen zu können, das sich die Einführung des Terms mred = mA / (1 + mA/mB) begründen lässt, existiert eine solche Anschauung ausschließlich im Rahmen der Elementarkörper-Wechselwirkungen.
Neutron: Proton-Elektron basierend im Bild der Elementarkörper(-Theorie)
Theoretische Berechnung der Neutronenmasse
Es wurden zur Berechnung der Neutronenmasse folgende Werte verwendet: me = 9,1093837015e-31 kg : Elektronenmasse me(q0)= (4/α) · me = 4,99325398628715e-28 kg mp = 1,67262192369e-27 kg : Protonenmasse c = 2,99792458e+08 m/s α = 0,0072973525693 0,77010243595795497 = 1/(1 + me(q0)/mp) ∆m = 1,4056007019747e-30 kg[0] ∆Eee = 1,2632909101359e-13 J ~ 0,78848416793 MeV
|
Warum glauben so viele Menschen, dass die bestehenden theoretischen Modelle sehr gut sind? Warum denken so viele Wissenschaftler, dass es keine besseren Alternativen gibt?
Psychologie der Masse(n)
Es wäre naiv und töricht weit verbreitete Erwartungshaltungen zu ignorieren. Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, dass dem oft nicht so ist, insbesondere wenn es sich um wissenschaftliche Themen handelt. Das betrifft sowohl Laien als auch Wissenschaftsexperten. Besonders eklatant ist der Umstand, dass im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik" samt assoziierter theoriebeladener Experimentalphysik suggeriert, ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an/auf denen man Glaubensbekenntnisse statt Wissenschaft vermutet. Ein weiterer wichtiger Grund ist inhaltlich die Tatsache, dass kaum jemand weiß, worum es in den Standardmodellen geht.
Populärwissenschaftliche Ausführungen zur Allgemeinen Relativitätstheorie (ART) und in einem größeren Rahmen des Standardmodells der Kosmologie (Lambda-CDM-Modell) sind allesamt unzulässige Interpretationen, da die zum Verständnis notwendige Komplexität nicht berücksichtigt wird. Das ist so, als wenn jemand chinesische Schriftzeichen einem diesbezüglich nicht schriftkompetenten Publikum zur Anschauung und Diskussion vorstellt. Da kann dann alles und nichts hineininterpretiert werden, da niemand die Voraussetzungen zur Dekodierung sowie niemand die Voraussetzungen der Schriftgestaltung hat. Plakativ formuliert: In der ART führen auch Schreibfehler zu neuen Lösungen und das gilt (bereits) für Leute, die Differentialgeometrie professionell betreiben. |
Mythos »Theorieschaft« [Theorie schafft]
Praktisch orientierte Ägypter, Römer und Griechen erschufen lange vor Einführung der Integral- und Differentialrechnung, lange vor theoretischen Modellen zur Tragfähigkeit und Biegemöglichkeit von Balken und Säulen, komplexe Bauwerke, deren Fragmente teils auch heute noch zu besichtigen sind. Nicht die Theorie zum Halbleiter schuf den Halbleiter, der Halbleiter als elektrotechnisches Bastel- und Tüftler-Objekt ließ Spielraum für theoretische Betrachtungen. Funktionierende Technik als Innovation Angewandter Physik bedarf und bedurfte versuchsfreudiger „Macher“, (Miß-)Erfolge (trial & error) zeigten den Weg. Physik und Philosophie - Thesen und Realität
„Die Physik beantwortet Wie-Fragen, die Philosophie
beantwortet Warum-Fragen.“ Um übergeordnet verstehen zu können, warum sich das Standardmodell der (Elementar-)Teilchenphysik (SM) und das Kosmologische Standardmodell (ΛC[old]D[ark]M[atter]-Modell) ohne große Gegenwehr etablieren konnten, ist zu bemerken, dass diese Modellbetrachtungen für die Realphysikforschung sprich Material- und Anwendungs-Forschung keinerlei Bedeutung hatten und haben. Das gilt sowohl für die „Diagnostik“ (Materialuntersuchungen), als auch für die Konstruktion von (Material-)Anwendungen (später „am Rande“ mehr dazu). Tatsache ist : Theoretische Modelle hink(t)en stets der (meßbaren) Realität hinterher. Der Mythos, das hochkomplexe, mathematische Theorien die Wirklichkeit beschreiben und Neues generieren konnten und können, lebt. Dass jedoch die Voraussagefähigkeiten der theoretischen Modelle, bei genauer Sicht, Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, erschließt sich den meisten Interessierten nicht. Realobjekt-Interpretationen werden im Rahmen der Standardmodelle aus mathematisch formalisierten (mitunter esoterischen) [BR]) Konzepten geboren. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und neuen Substrukturthesen, sowie extrem zeitintensiven, iterativ-algorithmisch nachkorrigierten Ergebnissen mittels Cluster-Rechenanlagen respektive »Super-Computern«SC.
Experimentelle Seite Im heutigen Standardmodell orientierten Denken werden theoretische Befunde postuliert, nach denen dann mittels computersimulierten „Versuchsaufbauten“ selektiv gesucht wird. Diese stark theoriebeladene Suche kennt keinen einzigen direkten Nachweis und lässt sich auf Grund der vielen freien Parameter, nicht detektierbaren postulierten Theorieobjekte und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretierenSME.
In der modernen Physik geht es bei genauer Betrachtung häufig um die Bewahrung bestehender Denk-Dogmen. Argumente der Vernunft werden Denkgewohnheiten und Vorurteilen geopfert. Ein psychologischer Grund liegt im Glauben und Hoffen. Die Mehrzahl der „forschenden“ Physiker sind nahezu ausnahmslos Anhänger der Quantenfeldtheorien. Ein echtes Verständnis dieser undurchsichtigen Theorien ist nicht möglich. Aufbauend auf unverstandenen Arbeiten anderer planen sie Experimente, für die es nur zwei Resultate gibt: Erfolg und Bestätigung oder Misserfolg und kurze Ratlosigkeit, die dann in der Regel in neuen Teilchen, neuen Quantenzahlen und Theorieerweiterungen endet(e). Wie wir alle tendieren auch die (theorieaffinen) Experimentatoren dazu, einen Misserfolg bewusst sowie unbewusst zu vermeiden und weichen einer Widerlegung ihres Theorie beladenen Glaubens durch ein Experiment (oder durch Denken) instinktiv aus. Anstatt die Experimente auf das Wesentliche zu beschränken und sie so einfach und effizient wie möglich zu gestalten, wird oft vom Wesentlichen abgelenkt. Moderne Theorien basierend auf Quantenfeldtheorien haben alle eins gemeinsam: Sie entpuppen sich nicht selten in theorierelevanten Experimenten, "früher oder später", als Mogelpackungen. Statt nun die Theorie zu verwerfen, werden lediglich Theorie-Korrekturen vorgenommen. Das können beispielsweise Postulate über neue virtuelle Teilchen sein, die "kurzzeitig" den Energieerhaltungssatz mit Hinweis auf die Heisenbergsche Unschärferelation verletzen. Obwohl diese Verletzung den wichtigsten Erhaltungssatz der Physik ignoriert. In dem Zusammenhang ist es erstaunlich, wie viele „Interessierte“ und „Wissenschaftsprofis“ festen Glaubens sind, Quantenfeldtheorien wären experimentell überprüfbare, innovative theoretische Konzepte, die praktische Anwendungen generier(t)en. |
[ FKK "Formalisierung ist nicht »Alles«" Frau Kunst Kater c-print adf ]
SM steht übrigens nicht nur als Abkürzung für das Standardmodell der Teilchenphysik sondern auch für Sadomasochismus, sowohl im Deutschen als auch im Englischen. In beiden Fällen besitze ich u.a. exzellente analytische, theoretische, kritische sowie ("angesiedelte") gestalterische Fähigkeiten, wie noch später ergänzend erörtert wird. |
|
Interdisziplinäres
Auch wenn vermeintlich berechtigt kritisiert werden könnte, das teils sehr ausführliche menschliche, geschichtliche und politische Aspekte im Folgenden nicht zum Kern-Thema der Ausführungen eines Paradigmenwechsels gehören (sollten), so ist diese Kritik " jedoch zu kurz gedacht", denn Wissenschaft war und ist ein Abbild gesellschaftlich-sozialer Macht-Verhältnisse. Kirche und Staat (früher auch Herrscher, wie Kaiser, Könige und der angesiedelte Adel) finanzier(t)en, einst wie heute, insbesondere die Denkmodell-Wissenschaft. Wobei seit Jahrzehnten »"moderne" Theorien« fast ausschließlich durch öffentliche Mittel der steuerzahlenden Allgemeinheit finanziert werden.
Zusätzliche (allgemeine/interdisziplinäre) Ausführungen sind mit gekennzeichnet. Letztendlich entscheidet jeder selbst, ob fragmentarisch eingefügte, begleitende Inhalte gelesen werden, die nicht unmittelbar mit der Physik und Mathematik der Standardmodelle und dem Prinzip der Parsimonie zusammenhängen. Im Zweifelsfall ist »Scrollen« immer möglich.
|
Lassen wir - schon hier und jetzt - "die Katze aus dem Sack"...
Erweiterung des Energieerhaltungssatzes Die im Folgenden "beschriebene" Materie-Raum Kopplung führt zu einer fundamentalen Erweiterung des Energieerhaltungssatzes. Mit der Konsequenz, dass nicht nur Masse, sondern auch der Raum selbst eine Energieform ist. Bedeutet: Das sich Masse in Raum und Raum in Masse transformieren lässt.
Herleitung des erweiterten Energieerhaltungssatzes
Weiterführend resultiert, aus der Energie-Gesamtbetrachtung, das (auch) Information eine Energieform ist. Experimentelle Sachlage An dieser Stelle sei bereits bemerkt, das alle - und ich meine wortwörtlich alle - bekannten Experimente zur Natur der Materie und deren Wechselwirkungen die Materie-Raum Kopplung bestätig(t)en. Das war weder im Rahmen der Quantenmechanik (QM) noch im Rahmen der Relativitätstheorie (RT) und folgend unter dem Denk-Dogma der Standardmodelle, mit dem Postulat eines Materie entkoppelten Raumes und dem postulierten Neutrino als nahezu nicht wechselwirkenden Energieträger, erkennbar. Es konnte offensichtlich nicht einmal gedacht werdenNB.
Die zeitabhängigen Elementarkörper-Entwicklungs-Gleichungen leiten sich aus der beobachteten Invarianz der (Vakuum-)Lichtgeschwindigkeit ab.
Der fundamentale Unterschied zur (Speziellen) Relativitätstheorie respektive zur Lorentztransformation ist der wechselwirkungsnotwendige radialsymmetrisch-dynamische Charakter dieser Gleichungen.
Für ein anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine substrukturierte* Zeit noch mathematische Raum-Zeit-Konstrukte notwendig.
Besondere physikalische und epistemologische Bedeutung erlangt das Modell der phänomenologisch begründeten Masse-Radius gekoppelten Elementarkörper durch die Ergebnis-Genauigkeit und Einfachheit der resultierenden Gleichungen, die stets auf leicht verständlichen, konsistenten Denkansätzen beruhen. Die zugrunde liegenden Gleichungen sind korrespondierend skalen- und mengeninvariant.
Masse-Radius-Konstanten-Gleichung Einfache Herleitung der Masse-Radius-Konstanten-Gleichung [F1] Betrachten wir das Plancksche Wirkungsquantum h als kleinste skalare Wirkung, so hat diese Wirkung die Dimension Energie mal Zeit. Diese Aussage ist nicht trivial, da das Plancksche Wirkungsquantum auch der kleinsten Wirkung des axialen Drehimpulsvektors entsprechen könnte. Division durch die Zeit ergibt eine Energie. Setzen wir für die Energie, die Masse abhängige Ruhe-Energie E0 = m0c² ein, so ergibt sich für jede Ruhe-Masse eine spezifische Zeit t(m0). Diese Zeit lässt sich auch durch die Comptonwellenlänge λ0 der Ruhemasse ausdrücken.
t(m0) = h/(m0c²) = λ0/c [tm0]
Betrachten wir nun die Elementarkörper-Entwicklungsgleichung r(t) = r0·sin(ct/r0): Der Elementarkörper ist dann voll ausgebildet, wenn der Sinus von (ct/r0) gleich eins ist, dass ist für (ct/r0) = π/2 der Fall. Daraus resultiert eine vom maximalen Elementarkörper-Radius r0 abhängige Entwicklungszeit t0...
t0= (π/2)(r0/c) [tr0] Gleichsetzen von t(m0) und t0
oder "etwas anders" betrachtet:
Licht & Materie Eine grundsätzliche Elementarkörper basierende Denkmodell-Forderung besteht darin, dass möglichst minimalistische Gleichungen, sowohl das masselose Photon als auch massebehaftete Materie abbilden. Die Entstehungsgleichungen r(t) = r0·sin(c ·t/r0) und m(t) = m0·sin(c·t/r0) leisten genau das.
Information als materieller Zustand = Elementarkörper Zustand als Information = Photon
Die zeitlose Lichtgeschwindigkeit - als Zustand reiner Bewegung - steht nicht im Widerspruch mit der raumgekoppelten Materie-Energie-Verkörperung.
Standardmodell-Irrglaube Aus Sicht einer nur an Masse gekoppelten Energie, erschien respektive erscheint den so Denkenden, dass - insbesondere bei TeilchenzerfällenTZ - bezüglich der Massenbilanz, Energie verloren gegangen ist. Daraus resultierte (fatalerweise) die Neutrinothese.
Konsequenzen der beobachtbaren Masse-Raum Kopplung Bei allen "Teilchenzerfällen" (richtiger Teilchenumwandlungen) wird masse-abhängige Energie in raum-abhängige Energie umgewandelt. Der Energieerhaltungssatz der herrschenden Physik ist schlicht falsch, da dieser nur an Masse gekoppelte Energie berücksichtigt. Was in allen Umwandlungs-Experimenten beobachtet wird, ist eine Abnahme der Masse. Die Beobachtung ist in voller Übereinstimmung mit der Masse-Raum gekoppelten Gesamt-Energiebilanz.
Die Neutrinothese und die darauf aufbauende Schwache Wechselwirkung sind gegenstandslos. Somit kollabiert das assoziierte Standardmodell der Teilchenphysik (SM).
In den folgenden Gesamtausführungen wird u.a. argumentativ begründet und experimentell bestätigt, dass es keine Neutrinos gibt.
Die Neutrino-These ist haltlos und wurde bzw. wird - bei detaillierter, genauer Betrachtung - auch experimentell nicht bestätigt. Warum die Materie-Raum Kopplung - wortwörtlich - als naheliegende omnipräsente Versuchsinterpretation nicht von den Experimental- sowie Theoretischen Physikern »(SM) theoriebeladen« wahrgenommen wurde, ist somit zum Standard-Modell-Verständnis der Physik (zwingend) "Gegenstand" des Folgenden. |
Neutrino-Psychologie
Hier haben wir eine konkrete Situation vorliegen, die äußerst schwer zu „verkraften“ ist. Psychologisch erst einmal nahezu unlösbar, weil sich so gut wie niemand vorstellen kann, dass eine tragende Hypothese eines über Jahrzehnte etablierten Denkmodells nachweislich falsch ist und als solche nicht korrigiert wurde. Zigtausende, gut ausgebildete Wissenschaftler über mehrere Generationen leben und arbeiten mit einer gravierenden Falschaussage? Viele Theoretische Physiker, insbesondere des SM, werden ungesehen der Argumente die Behauptung, das es keine Neutrinos gibt, gar nicht wahrnehmen wollen. Auch Laien und Physiker, die nicht mit dem Formalismus des SM vertraut sind, können sich schlicht nicht vorstellen, dass dies möglich ist. Man unterstellt dem kritischen Betrachter, der auf die nachweisbaren Zusammenhänge aufmerksam macht, dass dieser etwas übersehen hat, emotional begünstigt durch den Umstand, dass man ja selbst nicht über die nötige mathematisch-formale Sachkenntnis verfügt. Das sind äußerst schwierige Randbedingungen aus Sicht realitätssuchender Aufklärung. Es ist erst einmal davon auszugehen, dass sowohl die Protagonisten der Standardmodelle sowie deren Apologeten, Epigonen und Fans, die »Neutrino-Nichtexistenz« als Hirngespinst eines Außenseiters (im heutigen Sprachgebrauch auch als Verschwörungstheoretiker benannt und bekannt) ablehnen. Es liegt außerhalb ihrer Vorstellungskraft, dass Neutrinos nicht existieren. Nützen wird ihnen diese Haltung perspektivisch jedoch nichts, da die Masse-Raum Kopplung souverän mit plausibler, phänomenologisch begründeter »formaler Leichtigkeit« und experimentell bestätigt, letztendlich genauso „wirkt“, wie einst das »Heliozentrische Weltbild« gegenüber der »Geozentrik«. Die experimentellen Sachverhalte waren zu jedem Zeitpunkt allen bekannt. Es war und ist somit, insbesondere aus rational-analytischer Sicht, äußerst befremdlich, warum die »Gemeinde« der Physiker vollkommen irrational diese ausblendet(e). Der Begriff »Gemeinde« ist hier nicht zufällig gewählt. Physiker agier(t)en wiederholt als religiös Gläubige, wie noch erörtert wird. Um das Neutrino-Existenz-Problem argumentativ verständlich zu machen, ist es sehr wichtig eine der absurdesten (Fehl-)Interpretationen der "Modernen" Physik nachhaltig verstehen zu können.
[Auf diesen extrem wichtigen experimentell basierenden respektive meßtechnisch bestätigten Aspekt wird etwas später im Text nochmals "unter" »Warm up" zum Paradigmenwechsel« explizit hingewiesen. Also erst die Information hier aufrufen oder erst einmal weiterlesen, ist letztendlich »leser-optional«.] |
Das folgend beschriebene alternative Denk-Modell (Elementarkörpertheorie, kurz EKT) basiert plakativ-psychologisch auf der Annahme, das deutlich einfachere, konsistente Materie-Beschreibungen und daraus resultierend einfache Formalisierungen existieren, als in den Standardmodellen annonciert. Die folgende Bemerkung von Karl Popper (1902 - 1994) adressiert das psychologische Problem des »modernen Wissenschaftlers« im Rahmen hochkomplexer, mathematischer Modellvorstellungen: ..." Unsere Untersuchung läßt erkennen, dass selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, dass das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei." Karl Popper (1902 - 1994), Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4; The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959. "Wir kennen die „Beweggründe“ der Natur nicht. Wollen wir uns die Möglichkeit offenhalten, mehr von ihrem Geheimnis zu erfahren, dann müssen wir lernen, auch Wege zu überdenken, die wir unbewußt bisher ausgeschlossen haben, weil wir zu voreilig diese Wege für „undenkbar“ hielten." Rudolf Kießlinger (1921 - 2011)
|
|
|
Themeneinstieg(s)verschachtelung Die Sachsituationen als solche sind zwar aus analytischer Sicht - argumentativ begründet, sowohl theoretisch als auch experimentell - relativ einfach zu verstehen. Die "Schwierigkeiten" kommen hier mit den zahlreichen Möglichkeiten, einen Anfang zu machen. Für ergebnisoffene, professionelle »Physiktreibende« stellt sich die Situation - u.a. im Hinblick auf die initiale Grundlagenvermittlung - anders da, als für Interessierte ohne Fachwissen. In beiden Fällen bleibt jedoch - auch dann noch, die Beliebigkeit der Reihenfolge. Ich könnte dem neugierigen, ergebnisoffenen Theoretischen Physiker, ohne viele Worte zu machen, beispielsweise anhand von direkten Vergleichsaspekten der Herleitungen und Formalisierungen und den daraus resultierenden Voraussagemöglichkeiten, direkt aufzeigen, warum die Standardmodelle im Sinne des »Prinzips der Parsimonie« Verlierer sind. Um den gleichen Sachverhalt »mit Theoretischer Physik weniger "ausgestatteten" Lesern«, zu vermitteln, bedarf es erst einmal exemplarischer Bewusstseinsmachungen, u.a. wie beliebig und aussagelos die Standardmodelle bei genauer Sicht eigentlich sind. Der folgende »Mittelweg« zum Verständnis des notwendigen Paradigmenwechsels ist so gestaltet, dass »hier und da« punktuell entschieden werden kann, was zum Erstverständnis gelesen wird. Es folgen zu allen wichtigen Aspekten des Denkmodells Wiederholungen im Folgetext. |
|
"Warm up" zum Paradigmenwechsel
respektive
"Vorspiel" - Gedanken zum Paradigmenwechsel
...noch dürfen Protagonisten, Epigonen und Apologeten der Standardmodelle hoffen,
dass es sich hier nur um einen Meinungsartikel oder gar Satire handelt...
Der Paradigmenwechsel
ein überfälliges Rendezvous mit ursächlicher Rationalität
Da Mathematik nicht zwischen Staub und Staubsauger unterscheiden kann, ist in einem allgemein verständlichen Denkmodell Mathematik nur Mittel zum Zweck. Nichts weiter als ein plausibilitäts-resultierendes, praktisches Ordnungs- und Formalisierungsinstrument.
Des Weiteren: Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend phänomenologischer Betrachtungen und Erklärungen. Menschen im Allgemeinen und Wissenschaftler im Speziellen sind geprägt durch historisch entstandene Denknormen. Hin und wieder ändern sich diese, wie am Anfang des 20.Jahrhunderts. Relativitätstheorie (RT) und Quantenmechanik (QM) bilden seit nun mehr als 100 Jahren die, zwar wenig anschauliche, aber formale Denk-Grundlage für die physikalische Theorie-Welt. Insbesondere die Voraussagefähigkeiten der Quantenelektrodynamik (QCD) sowie der Quantenelektrodynamik (QCD) sollen ein "sehr gutes" Argument für die "Richtigkeit" dieser Theorie(n) sein. Doch das diese Voraussagefähigkeiten, bei genauer Sicht, Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, wissen viele nicht respektive erschließt sich den meisten Interessierten nicht. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und Substrukturthesen. Dies führte letztendlich u.a. zur Fragmentierung der elektrischen Elementarladung (siehe Quarks), die jedoch experimentell nie als solche fragmentiert in Erscheinung trat und tritt. Wie sehen die Standardmodell-Ergebnisse wirklich aus? Sparen wir uns an dieser Stelle erdachte Details, wie Gluonenpostulat, die postulierte Polarisation des Vakuums (spontane Bildung von virtuellen Elektron-Positron-Paaren und virtuellen Photonen) oder die Quark-Antiquark-Paar-These, so stellen wir fest, dass Quarks-Massen nur etwa 1% der Nukleonenmassen (Proton, Neutron) ausmachen. Der "Rest" ist unbestimmte Bindungsenergie. Das bedeutet, dass nach dem bekannten Masse-Energie-Äquivalenzprinzip Nukleonen fast gesamtheitlich aus phänomenologisch unbestimmter Bindungsenergie bestehen. Mit den Worten Richard Feynmans: "Es ist wichtig, einzusehen, dass wir in der heutigen Physik nicht wissen, was Energie ist." "It is important to realize that in physics today, we have no knowledge of what energy is." Noch gravierender ist die Tatsache, dass diese (Protonen, Elektronen, Bleikerne, ...) in üblichen Hochenergieexperimenten auf fast Lichtgeschwindigkeit beschleunigt werden, bevor sie kollidieren. Das bedeutet, es kommt zur Bindungsenergie auch noch eine beträchtliche Menge an äußerer Energie hinzu. An dieser Stelle ist das komplexe Glaubensmärchen jedoch noch nicht am Ende. In einem größeren Bild des Kosmologischen Standardmodells (ΛCDM-Modell) wird postuliert, dass die sichtbare Masse wiederum nur einen kleinen Teil der Masse im Universum ausmacht. Größtenteils besteht das Universum für heutige Standardmodell-Gläubige aus »Dunkler Materie« und »Dunkler Energie«. »Dunkel« steht hier für nicht nachweisbar/nicht detektierbar. Humor ist, wenn man trotzdem lacht. Unter diesen Randbedingungen entbehrt es nicht einer gewissen Ironie respektive Komik, wenn die so begründete Systemphysik von notwendiger Energieerhaltung "spricht".
Folgende widersprüchliche Aussagen des Standardmodells der Elementarteilchenphysik (SM) kommen möglicherweise in dieser "Informations-Tiefe" für einige Leser etwas früh, doch lassen sich an dem Neutrino-Beispiel wesentliche Inkonsistenzen und offensichtliche Widersprüche des SM unmißverständlich aufzeigen. Allgemeine Vorbetrachtungen Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess.
Ohne das an dieser Stelle bereits im Detail auszuführen, ist (auch) die Neutrinothese eine "energierettende" Hilfserklärung mit weit reichenden, fatalen Konsequenzen. Tatsache ist: Auch für Neutrinos gilt: Es gibt keinen einzigen direkten Neutrinonachweis. Es handelt sich stets um stark theoriebeladene Versuchsergebnisinterpretationen. Was "ES" seit Jahrzehnten gibt, sind eine Vielzahl von Versuchsaufbauten und theoriebeladene Interpretationen zu indirekten wunschgemäßen Neutrinonachweisen. Warum Neutrinos so beliebt sind, liegt, materiell gesehen, an der assoziierten Neutrino-Industrie. Es lassen sich gefahrlos Forschungsgelder für theoretische Spekulationen und Neutrinoexperimente abgreifen, da die Natur der Neutrinos „in den Sternen steht“. Der postuliert extrem kleine Wechselwirkungsquerschnitt macht Neutrinos „unsichtbar. Somit lassen sich alle Bemühungen, ob in Form theoretischer Konstrukte zum unsichtbaren Verhalten oder in Form von „Neutrino-Nachweis-Maschinen“ beliebig ausarbeiten und konfigurieren, ohne argumentative Gegenwehr befürchten zu müssen, also im wahrsten Sinne des Wortes honorieren.
Sein oder nicht sein? Um eine lange Denkmodellgeschichte so kurz wie möglich zu machen, kommen wir gleich zum Kern des Paradigmenwechsels bezüglich der Makrokosmos-Beschreibung. Das derzeitige Standardmodell der Kosmologie (ΛCDM-Modell) geht – einfach formuliert - davon aus, dass es im Rahmen der Raumzeit-Expansion eine so genannte inflationäre Phase gab, in der die »Raumzeit« materielos mit vielfacher Überlichtgeschwindigkeit expandierte. Das ist nur möglich, wenn man die »Massen des Raumes« von diesem trennt. Die heutigen Denkmodelle zur Materiebildung setzen also eine Trennung von Masse und Raum voraus. Im Rahmen des vorliegenden Denkmodells der Masse-Raum-Kopplung werden diese Annahmen "verworfen" und argumentativ durch deutliche einfachere ersetzt, u.a. mit dem formalisierten Ergebnis extrem genauer Voraussagen bezüglich experimenteller Größen und Werte.
Raum - Materie - (Ent-)Kopplung Um zu verstehen, warum die Standardmodelle, genauer die Entwickler und heutigen Protagonisten, davon ausgingen respektive ausgehen, das man (den) Raum von (der) Materie entkoppeln kann, bedarf es zum Verständnis einiger Überlegungen. Erst einmal ist festzustellen, das im Rahmen der Standardmodelle diese Entkopplung nicht nur möglich, sondern zwingend ist, wie folgend erörtert wirdMF. Wenn man so will, hat das SM "stillschweigend" diese primär postuliert "kosmologische Entkopplung" übernommen.
Standard-Denkmodellanatomie - "Vorspiel-Gedanken" [MF] Das führt u.a. zu folgender, extrem wichtiger Antwort auf die Frage: Was bleibt von der Allgemeinen Relativitätstheorie (ART) respektive dem daraus resultierenden Standardmodell der Kosmologie (ΛCDM-Modell)? Die englische Wikipedia weist, anders als die deutsche Version, auf den wesentlichen Aspekt des Modells hin: "Das Lambda-CDM, Lambda Cold Dark Matter oder ΛCDM-Modell ist ein mathematisches Modell der Urknalltheorie." "The Lambda-CDM, Lambda cold dark matter or ΛCDM model is a mathematical model of the Big Bang theory."
Offensichtlich ist nahezu niemandem klar, ob nun Laie oder Theoretischer Physiker, was »mathematisches Modell« hier bedeutet. Plakativ formuliert bedeutet es: Das einzig "Wahre" in diesem Modell ist die Differentialgeometrie. Alles andere in dem Modell sind Spekulationen, empirisch unbegründete Postulate und dies »Alles« aufbauend auf freien Parametern (wie später erklärt wird). Die Geschichte der Urknalltheorie ist so verlaufen, ohne das an dieser Stelle bereits näher auszuführen, dass neue hypothetische „Objekte“ eingeführt werden mussten, für die es keine Belege gab und nach wie vor gibt, außer dass sie die zugrunde liegende Theorie rette(te)n. Der Begriff »Inflation«, der ein Feld und eine Energie beinhaltet, die völlig unbekannt sind, wurde Anfang der 1980er Jahre eingeführt, um den Urknall trotz sehr schwerwiegender Widersprüche in der Beobachtung zu halten. Bald darauf kam die nichtbarionische »Dunkle Materie« als postulierte Theorie-"Entität" hinzu und in den 1998er Jahren die »Dunkle Energie«. Die dunkle Energie ist eine postulierte, nicht detektierbare (!?!) Form von Energie, die das Universum auf großen Skalen beeinflusst. Ihr postulierter Haupteffekt besteht darin, dass sie die beschleunigte Expansion des Universums auslöst respektive aufrecht erhält. Der Begriff wurde 1998 von dem Astrophysiker Michael S. Turner geprägt. U.a. bedingt durch die notwendige These zur Aufrechterhaltung des ΛCDM-Modells wurde die Inflationsphase (mit vielfacher Überlichtgeschwindigkeit) eingeführt, dazu musste der Raum von der Materie entkoppelt werden, ohne das explizit zu erwähnen. "Implizit" ist das klar, denn Materie kann auch im Rahmen der Standardmodelle nicht auf Lichtgeschwindigkeit und schon gar nicht auf Überlichtgeschwindigkeit beschleunigt werden. Das bedeutet jedoch, das diese Raum-Materie-Entkopplung auch vor und nach der postuliert kosmischen Inflation vorlag respektive vorliegt, also auch im Hier und Jetzt. Für diese Annahme gab und gibt es jedoch keine Beweise.
Materie-Raum-Kopplung Löst man sich von der »Standard-Modell-Masse-Raum-Entkopplungsfantasie«, sieht die Welt deutlich einfacher aus, als uns das die Theoretische Physik seit mehr als 100 Jahren mathematisiert "weis machen will". Das hat erhebliche Konsequenzen. Eine Materie-Raum-Kopplung führt, phänomenologisch begründet, sowohl für den Mikro- als auch für den Makro-Kosmos, zu sehr einfachen Berechnungsmöglichkeiten zahlreicher physikalischer Größen und zum plausiblen Verständnis der möglichen Wechselwirkungen. Es kommt letztendlich zu einer Vereinheitlichung der (postuliert vier) Grundkräfte und darüber hinaus zu einer konsistenten Beschreibung von Materie und Licht.
Erweiterung des Energieerhaltungssatzes Die Materie-Raum Kopplung führt zu einer fundamentalen Erweiterung des Energieerhaltungssatzes. Mit der Konsequenz, dass nicht nur Masse, sondern auch der Raum selbst eine Energieform ist und das sich Masse in Raum und Raum in Masse transformieren lässt. Weiterführend resultiert, aus der Gesamtbetrachtung, das auch Information eine Energieform ist. Herleitung und Details zum erweiterten Energieerhaltungssatzes
Information als materieller Zustand = Elementarkörper Zustand als Information = Photon
Die Basisaussagen des alternativen Denkmodells sind „glücklicherweise“ – sowohl sprachlich als auch inhaltlich – relativ einfach zu verstehen. Grundlegende Denkmodell-Aspekte lassen sich in Ankopplung an »globale Auffälligkeiten«, wie die Gravitationskonstante, die kleinste skalare Wirkung oder die Invarianz der Lichtgeschwindigkeit, intuitiv entwickeln. Ängste vor primärer Intuition sind unbegründet. Man muß eine Idee und weiterführend, aufbauend konsistente Ideen haben, um ein Denkmodell interdisziplinär verständlich gestalten zu können. Denkmodelle müssen absolut begriffstransformierbar sein, um eine epistemologische sowie allgemeine Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht außerhalb der Mathematik vermitteln lässt, ist im Rahmen eines physikalischen Denkmodells stets eine (erkenntnistheoretische) Nullnummer. Insbesondere die »allgemeinen Aphorismen« sind leicht verständlich. Beispiele: Ein Denkmodell ohne Mathematik ist ein philosophisches Denkmodell. Ein Denkmodell „aus“ Mathematik ist kein physikalisches Denkmodell.
Die experimentelle Sachlage Alle Versuche die - sowohl auf kleinen Skalen (Mikrokosmos) als auch makroskopisch - durchgeführt wurden, bestätigen gemäß Versuchsergebnissen, deren Berechnungsmöglichkeiten und Meßwerten das, was die Elementarkörpertheorie (kurz EKT) auf Grundlage der Masse-Raum-Kopplung phänomenologisch beschreibt und einfachst formal-analytisch in sehr guter Übereinstimmung mit Meßwerten berechnet.
Der vorliegende - teils interdisziplinär "eröffnete" - Inhalt ist primär für Menschen bestimmt, die ohne Schöntuerei und falsche Rücksichtnahme auf Bestehendes Neues suchen und im Sinne der Aufklärung - gemäß des Prinzips der Parsimonie - Neues wünschen, dass sowohl die interdisziplinäre als auch die fachliche Qualität und Charakteristik für einen nachhaltigen Paradigmenwechsel in der »Denkmodellwelt der formalisierbaren Materiewechselwirkungen« besitzt. Es folgt viel Text, genauer es folgen ausführliche Betrachtungen (Physikalisches, Mathematisches, Geschichtliches, Interdisziplinäres) zum Status Quo der Denkmodellsituation und einer argumentativ orientierten Alternative. Experimentalphysiker, angesiedelte Theoretiker, Apologeten, Epigonen und Fans des Bestehenden denken (erst einmal "gelernt") reflexartig, dass es sich vorliegend um einen Meinungsartikel handelt bzw. handeln muß, der entweder ungelesen ignoriert werden kann, oder sich die Inhalte, bei näherer Betrachtung, als unbedeutend "entpuppen" und letztendlich keine Gefahr für das bestehende Denken bedeuten. Ehrlicherweise verhält es sich in der Regel auch so. Kritiker mit "guten" Argumenten gegen Bestehendes hatten respektive haben meist keine oder "schlechte" Alternativen im Angebot. Darüber hinaus kann sich nahezu niemand, insbesondere Quantenfeldtheoretiker, vorstellen, das es je etwas anderes als Quantenmechanik (QM), Quantenelektrodynamik (QED), Quantenchromodynamik (QCD), Allgemeine Relativitätstheorie (ART), perspektivisch Quantengravitation (QG) zur Beschreibung der Natur geben wird. Diese Grundhaltung sorgt dafür, dass kein Kritiker ernst genommen wird, der ein alternatives Denkmodell vorstellen möchte, welches nicht mit den genannten, etablierten Beschreibungsmethoden arbeitet.
Wohliges Dauer-Baden im eigenen Denksaft Was passiert jedoch, wenn "plötzlich und unerwartet" der Stöpsel gezogen wird? Heute inszenieren sich Wissenschaftler vordergründig gerne als aufgeklärt, faktenfreundlich, ergebnisoffen und bereit für neue Gedanken. Das fällt ihnen leicht, denn sie können sich schlicht nicht vorstellen, dass es zu spektakulären, neuen Ansätzen kommen wird, die sie selbst "alt aussehen lassen". Was passiert jedoch, wenn das, was diese heute lebenden Wissenschaftler – teils über Jahrzehnte – praktizier(t)en, in Analogie zum geozentrischen Weltbild, nicht mehr gelten soll? Stellen wir uns vor, dass es sich nicht um eine überschaubare Korrektur handelt, sondern um einen gewaltigen »Umstoß« des Bestehenden, hin zu einem Denkmodell respektive Weltbild, welches das vermeintlich »Unumstößliche« nicht nur in Frage stellt sondern komplett ersetzt. „Schlimmer“ noch, dass es sich herausstellt, das – plakativ formuliert - mehr als 100 Jahre Theoretische Grundlagenforschung von völlig falschen Annahmen ausging und rückblickend, mit all den Erweiterungen und Nachkorrekturen, als - emotional betrachtet - peinlich und selbstbetrügerisch erscheint. Wir können uns sicher sein, dass alles Mögliche von den Betroffenen in Bewegung gesetzt wird, um die Verbreitung dieses Alternativmodells zu verhindern. Die Physiker und Mathematiker, die nicht selbst mit den Standardmodellen assoziiert sind, stehen »Alternativen Denkmodellen« kritisch gegenüber, sofern sie überhaupt über diese nachdenken, weil sie sich nicht vorstellen können, das ihre Kollegen-Experten falsch liegen können. Sie denken, dass am Ende Alternativen sich nicht durchsetzten können, weil sie glauben, was die Standardmodellmacher seit Jahrzehnten propagieren: Wie ausgereift, aussagekräftig und alternativlos doch ihre Modelle sein. Mitunter schwingt auch die Angst mit, sich mit öffentlich wahrnehmbarer Kritik zu blamieren. Das hat damit zu tun, dass die angewandte Mathematik so komplex und schwierig ist, dass sie erst einmal mit dem Vorwurf konfrontiert werden, dass sie ja gar nicht verstehen, was sie da kritisieren. Das ist auch in den meisten Fällen aus rein mathematisch-formaler Sicht zutreffend.
Wenn ein »Alternatives Denkmodell« doch so gut ist, wie propagiert, warum wird dem trotzdem wenig bis keine Beachtung geschenkt? Warum wird es nicht in Fachkreisen beachtet und darüber diskutiert?
Wenn Prüflinge gleichzeitig Prüfer sind oder so ähnlich...
Diejenigen, die hier am besten und schnellsten, im Hinblick auf Konsistenz und Aussagefähigkeit, untersuchen könn(t)en, ob ein »Alternativmodell« im Sinne des Prinzips der Parsimonie eine Existenzberechtigung hat, sind im 21. Jahrhundert fast ausnahmslos Theoretische Physiker und in diesem Bereich angesiedelte Mathematiker. Diese sind allesamt, sofern sie sich mit den Standardmodellen der Teilchenphysik und Kosmologie beschäftigen, Protagonisten, Apologeten oder Epigonen dieser. Es ist, sowohl für einen "unbetreuten" Quantenfeldtheoretiker, als auch für einen "unbetreuten" »ART affinen Differentialgeometriker«, schlicht unmöglich, sich vorstellen zu können, dass es brauchbare Denkmodellalternativen ohne Quantenfelder und Differentialgeometrie geben kann. Das ist keine Übertreibung. Es ist für diese "Standardmodell-Denker" komplett unmöglich einfach zu denken. Das bedeutet, diese haben keinen eigenen Primärimpuls etwas derartig »Anderes« auch nur im Geringsten zu betrachten. Aphoristisch lautet ihr Ausschließungs-Motto seit eh und je... Wir lesen nicht, wir schreiben selber!
Und der "Rest" der Physiker und Mathematiker? Kaum jemand traut sich, trotz der Vielzahl an Widersprüchen, willküraffinen Postulaten, Ergebnis orientierten Nachkorrekturen,... herrschende Theoretische Grundlagenforschung zu kritisieren. Auch „eingeweihte“ Physiker und Mathematiker tun dies nicht. Die einen, weil sie glauben, sie hätten nicht die nötige Kompetenz, die anderen aus Kalkül. Die Probleme als solche sind leicht identifiziert. Theoretische Grundlagenphysiker verlangen, ohne es explizit aussprechen zu müssen, dass nur Wissenschaftler mit der nötigen mathematischen Ausbildung etwas zum Formalismus sagen dürfen. Der Weg über den Formalismus führt aber unweigerlich zur Akzeptanz dessen, was man eigentlich kritisieren müsste. Und: Mathematik ist geduldig und kann den größten Unsinn korrekt bestimmen.
Volumen aus dem Nichts
Des Weiteren gibt es noch die egozentrischen Standardmodell-Kritiker, die neben ihrer Kritik auch gerne kreativ werden würden. Mit oder ohne sachrelevante Vorkenntnisse, fehlt es jedoch nahezu allen, bis auf die »one in a million« - Ausnahme, an »schöpferischem Geist« ein brauchbares physikalisches Denkmodell zu entwickeln. Die Fokussierung auf das ich, macht sie in dem Fall, das einer aus ihren Kritiker-Reihen, das schafft(e), was ihnen nicht gelang respektive gelingt und wohl auch perspektivisch nicht gelingen mag, zu Verdrängern und Ignoranten. Ihre Strategie: Sie vermeiden es, sich mit dem neuen alternativen Denkmodell auseinanderzusetzen. Sie haben Angst sich den Ausführungen im Detail zu nähern, da eine Kaskade von Gefahren besteht. Erst einmal, dass sie für sich erkennen müss(t)en, dass das Modell tauglich ist. Das bereitet vielen einen starken Egoschmerz. Als nächstes wären sie - früher oder später - in der Pflicht auch darüber im Rahmen ihrer Möglichkeiten zu berichten. Insbesondere öffentlich bekannte Kritiker wären dann verpflichtet, auf Grund ihrer medialen Reichweite für eine entsprechende Verbreitung zu sorgen oder müssten sich irgendwann erklären, warum sie das nicht taten. Die Geschichte zeigt zwar, dass diese Vermeidungs-Strategie selten erfolgreich ist, doch wie man so "schön" sagt: Die Hoffnung stirbt zuletzt. Tatsache ist: Es mag lange dauern, doch eines Tages kommt das »Neue« ans Tageslicht. Trotz dieser Erkenntnis sind (auch) die Egozentriker in den Reihen der Denkmodellphysiker diesbezüglich beobachtungs- und lernunfähig. Bei den Kritikern, die ihre Kritik professionalisiert haben und Geld mit Büchern, Vorträgern etc. verdienen, geht es offensichtlich nicht nur um Egoproblematiken sondern auch um Materielles. Spätestens an dem Tag, wo jedem klar ist, dass die alten Theorie-Konzepte nicht mehr relevant sind und das nicht nur in Fachkreisen sondern auch populärwissenschaftlich kommuniziert wird, ist auch die diesbezügliche Kritik obsolet. Das bedeutet - leicht verständlich - sie verdienen nichts mehr mit ihrer Kritik an den überholten Denkmodellen. Ein weiterer Grund die "Füsse still zu halten".
|
|
Lese(r)optionen
In den Textausführungen gibt es zahlreich weiterführende Hinweise, Ergänzungen, geschichtliche Beispiele, Analogien und daraus resultierend "Verlinkungen". Für ein zügiges Grundverständnis ist es jedoch empfehlenswert den Textausführungen fließend zu folgen und erst einmal keine oder wenige »Linkstopps« einzulegen. Ähnliches gilt für explizite Gleichungen und resultierende Berechnungen. Sofern diese noch nicht (im Kontext) verstanden werden können, ist es auch in diesen Zusammenhängen empfehlenswert die Ergebnisse erst einmal so hinzunehmen. Letztendlich bleibt im weiteren (Lese-)Verlauf nichts unerklärt respektive unbegründet.
Da es in diesem Sinne - im Hinblick auf das allgemeine sowie methodische Verständnis - sehr schnell zu speziell werden kann, wird dem Leser mitunter die Entscheidung überlassen, wie er gemäß seinen eigenen Wünschen agieren möchte. Es gibt optional an diversen Stellen die Möglichkeit punktuell weitere Informationen zu dem aktuell Erörterten direkt mit "einem Klick" in einem neuen zusätzlichen Browserfenster zu erhalten. |
ein Klick auf |
führt zu ergänzenden, ausführlicheren Betrachtungen |
öffnet ein zusätzliches Browserfenster |
[Beispielansicht Auszug zur Berechnung der Grundzustandsenergie des myonischen Wasserstoffs]
|
Das hier beschriebene alternative Denk-Modell basiert plakativ-psychologisch auf der Annahme, das deutlich einfachere, konsistente Materie-Beschreibungen und daraus resultierend einfache Formalisierungen existieren, als in den Standardmodellen annonciert. Die folgende Bemerkung von Karl Popper (1902 - 1994) adressiert das psychologische Problem: ..." Unsere Untersuchung läßt erkennen, dass selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, dass das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei." Karl Popper (1902 - 1994), Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4; The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959. "Wir kennen die „Beweggründe“ der Natur nicht. Wollen wir uns die Möglichkeit offenhalten, mehr von ihrem Geheimnis zu erfahren, dann müssen wir lernen, auch Wege zu überdenken, die wir unbewußt bisher ausgeschlossen haben, weil wir zu voreilig diese Wege für „undenkbar“ hielten." Rudolf Kießlinger Die fatale Einstellung Theoretischer Grundlagenphysiker, das »ALLES« nur im Rahmen "höherer", komplizierter, komplexer Mathematik verstanden und entwickelt werden kann, wird auch im Bereich der Mathematik von den dort agierenden vermeintlichen Experten vertreten.
|
☼ Mathematik einst und heute Wenn Euklid (…lebte wahrscheinlich im 3. Jahrhundert v. Chr.) noch nach plausibler Anschauung für mathematische Grundlagen suchte und somit eine interdisziplinäre Verbindung herstellte, die man als richtig oder falsch bewerten konnte, so stellt sich in der modernen Mathematik die Frage nach richtig oder falsch nicht. Euklids Definitionen sind explizit, sie verweisen auf außermathematische Objekte der „reinen Anschauung“ wie Punkte, Linien und Flächen. "Ein Punkt ist, was keine Breite hat. Eine Linie ist breitenlose Länge. Eine Fläche ist, was nur Länge und Breite hat." Als David Hilbert (1862 – 1943) im 20. Jahrhundert erneut die Geometrie axiomatisierte, verwendete er ausschließlich implizite Definitionen. Die Objekte der Geometrie hießen zwar weiterhin „Punkte“ und „Geraden“ doch sie waren lediglich Elemente nicht weiter explizierter Mengen. Angeblich soll Hilbert gesagt haben, dass man jederzeit anstelle von Punkten und Geraden auch von Tischen und Stühlen reden könnte, ohne dass die rein logische Beziehung zwischen diesen Objekten gestört wäre. Doch inwieweit axiomatisch begründete Abstraktionen an realphysikalische Objekte ankoppeln, steht auf einem ganz anderen Blatt. Mathematik schafft keine neuen Erkenntnisse, auch wenn das Theoretische Physiker im Rahmen der Standardmodelle der Kosmologie und Teilchenphysik gerne glauben. “Keine Kirche hält ihre Gläubigen so streng am Wickel wie die “moderne Wissenschaft” ihre Gemeinde.” stellte Christian Morgenstern (1871 – 1914) schon vor mehr als 100 Jahren fest. |
Einerseits führen, wie bereits erwähnt, zu früh thematisierte konkrete Alternativmodell-Ergebnisse im Text, umfangreiche Erörterungen, mittels hergeleiteter Gleichungen und detaillierten phänomenologischen Aspekten, zu einem Fokusverlust, im Sinne des übergeordneten Erst-Verständnisses und sind insbesondere für nicht so mathematisch versierte Leser tendenziell schwierig bis kontraproduktiv. Andererseits ist es wichtig, bereits früh explizit Berechnungsgleichungen vorzustellen und zumindest im Ansatz Beschreibungen zum Verständnis anzubieten - nicht zuletzt bezüglich der Motivation der Leser - da so exemplarisch Aussagekraft und Plausibilität des »Alternativmodells« konkret untermauert werden.
Das Denkmodell Masse-Raum gekoppelter Entitäten liefert - phänomenologisch begründet (geometrisch anschaulich nachvollziehbar) - beispielsweise nicht nur Berechnungsmöglichkeiten für die magnetischen Momente von Neutron, Elektron und Proton, sondern auch exakte, einfache formalanalytische Gleichungen zur Berechnung meßbarer Größen, ausschließlich auf Grundlage möglicher Elektron-Proton-Wechselwirkungen, wie exemplarisch ...die Masse des Neutrons, GrundzustandsenergienHA, den Protonenmasse inhärenten Protonenradiuspr, die Masse des Pions, allgemein Masseberechnungen diverser Entitäten (auch die des Higgs-Bosons), die Temperatur der Hintergrundstrahlung, maximale Masse und Radius des Universums.
[pr]
Wie noch ausführlich erörtert wird, kann weder das SM noch das Standardmodell der Kosmologie (ΛCDM-Modell) auch nur einen einzigen Wert näherungsfrei berechnen und es fehlen mitunter fundamentale Begründungen für QM/QED/QCD basierende Rechenvorschriften. Wortwörtlich wird »Alles« mittels Großrechner-Cluster-Anlagen solange "durchgerechnet", bis die gewünschten Werte den Meßwerten entsprechen. Nicht einmal die Grundzustandsenergie des Wasserstoffatoms kann quantenmechanisch begründet, sowie hinreichend genau berechnet werden (wie noch ausführlich argumentativ ausgeführt wird).
|
Ich beginne hier mit der Berechnungsgleichung der Masse des Neutrons, wobei - historisch betrachtet - dessen Masse-Raum gekoppelte, phänomenologisch begründete Gleichung, sowie die gleichfalls Masse-Raum gekoppelte, phänomenologisch begründete Gleichung zur Berechnung des (vermeintlich) anomalen magnetischen Moment des Neutrons innerhalb des Denkmodells erst später erfolgten. Der Vergleich mit den Berechnungsmöglichkeiten des Standardmodells zeigt, dass, gemäß des »Prinzips der Parsimonie«, die EKT der klare Sieger ist. |
Neutron: Proton-Elektron basierend im Bild der Elementarkörper(-Theorie)
Theoretische Berechnung der Neutronenmasse |
Allgemeine Vorbetrachtungen |
Aus praktischen Gründen werden Zehnerpotenzen zur Berechnung wie folgt geschrieben: 1,23·10-3 = 1,23e-3. Das hat den Vorteil, dass der interessierte Leser die entsprechenden Zahlenwerte "gleich" zur Kontrollrechnung übernehmen kann (Copy&Paste).
[CODATA-NIST Beispiel Wert der Protonenmasse]
Die Unsicherheiten der CODATA-Werte sind in den folgenden Berechnungen meist nicht explizit benannt respektive werden nicht explizit berücksichtigt. Beispiel: Masse des Elektrons: 9,1093837015e-31 kg 9,1093837015(28)e-31, bedeutet eine Standardabweichung von ± 0,00000028e-31kg wird hier nicht berücksichtigt. Es wird mit dem Wert 9,1093837015e-31 kg gerechnet. Das ist, wie wiederholt gezeigt wird, kein Problem, da u.a. die Standardmodellphysik-Ergebnisse im Vergleich eh nicht formal-analytisch erzielt wurden und im direkten Vergleich mit den phänomenologisch begründeten einfachen Gleichungen der Elementarkörpertheorie (EKT) sprichwörtlich um (Standardabweichungs-)Dimensionen schlechter sind (später mehr dazu).
Kommen wir - gemäß dem Prinzip der Parsimonie - nun exemplarisch zu exakter Wissenschaft im Sinne von phänomenologisch begründeter Physik, die zu exakten formal-analytischen Berechnungen führt: |
Theoretische Berechnung der Neutronenmasse
Es wurden zur Berechnung der Neutronenmasse folgende Werte verwendet:
me = 9,1093837015e-31 kg : Elektronenmasse
me(q0)= (4/α) · me = 4,99325398628715e-28 kg
mp = 1,67262192369e-27 kg : Protonenmasse
c = 2,99792458e+08 m/s α = 0,0072973525693 0,77010243595795497 = 1/(1 + me(q0)/mp)
∆m = 1,4056007019747e-30 kg[0] ∆Eee = 1,2632909101359e-13 J ~ 0,78848416793 MeV
|
[0] Ergebnis-Erweiterungs-Satire Übrigens, man könnte, genauer, man sollte sich die obige Berechnungspräzision, wie z.B. für ∆m = 1,4056007019747e-30 [kg], im Hinblick auf die versuchsbedingten - im Vergleich zu formal-analytischen Rechnungen extremen - Standardabweichungen der Einfluss nehmenden Größen sparen. Es ist hier also kein Akt meines Unverständnisses der Zusammenhänge, sondern eine Art gewollter »Ergebnis-Erweiterungs-Satire« im Hinblick auf das, was noch gemäß Standardmodell-Postulaten alles möglich sein soll (...Berechnung und Messung des Wertes des anomalen magnetischen Moments des Elektrons bis hin zu postulierten Gravitationswellenmessungen).
Zum direkten Vergleich mit den Berechnungsmöglichkeiten gemäß des SM Im Rahmen der Quantenchromodynamik (QCD) lässt sich die Neutronenmasse angeblich iterativ berechnen.. Das ist mehr als fragwürdig, da hier offensichtlich solange korrigiert-gerechnet wird, bis der bekannte Versuchswert für die Neutronenmasse grob erreicht wird.
|
Terminologie & Notation
Iterativ bedeutet (hier): Es werden Grundannahmen und/oder Ausgangsparameter variiert und algorithmisch so oft modelliert, bis ein gewünschtes Ergebnis vorliegt. Da dieses Ergebnis ein Meßergebnis ist, werden die Berechnungsgrundlagen in Form von Entwicklungsparametern und postulierten Wechselwirkungen immer wieder in Großrechenanlagen durchgerechnet, bis das gewünschte "theoretische" Ergebnis mit dem experimentell ermittelten Meßwert übereinstimmt. Egbert Scheunemann hat das sinngemäß so formuliert: Wir schießen auf ein Scheunentor und ziehen danach konzentrische Kreise so um den Pfeil, dass dieser in der Mitte "steht". |
... Siehe exemplarisch die Ausführungen: proton and neutron masses calculated from first principles, dort heißt es dann u.a.: ..."Die Berechnungen deuten darauf hin, dass die Masse des Nukleons (die Berechnung kann nicht zwischen Protonen und Neutronen unterscheiden) 936 MeV/c² mit statistischen und systematischen Unsicherheiten von ±25 bzw. ±22 MeV/c² beträgt." ..."Der Erfolg war möglich dank der kombinierten Leistung von zwei IBM Blue Gene Supercomputern und zwei Cluster-Rechenzentren." Mehr Details dazu: Ab initio calculation of the neutron-proton mass difference veröffentlicht 2015 Eine weitere Standardmodell-Methode ist die postuliert Quarks basierende theoretische Berechnung aus dem Vergleich der Protonen- und Neutronen-Masse. Siehe: Calculation of Neutron-Proton Mass Difference by the Monte Carlo Method mit folgenden Ergebnissen: Berechnungsergebnis im Freien Quark-Modell: 13% Fehler bezogen auf die Massendifferenz im Vergleich zum Meßwert. Berechnungsergebnis im Modell der starken Kopplung von Quarks: 0,78% Fehler bezogen auf die Massendifferenz im Vergleich zum Meßwert. Experimentelle Bestimmung der Neutronenmasse Die Masse eines Neutrons kann nicht massenspektrometrisch bestimmt werden, da es keine elektrische Ladung hat. Die Masse wird bestimmt, indem man die Protonenmasse von der Deuteronmasse subtrahiert, wobei die Differenz die Masse des Neutrons plus die Bindungsenergie des Deuteriums sein soll. Hier steckt viel postulierte Theorie im Meßverfahren. Selbstbewusst annonciere ich, dass der Wert der Elementarkörpertheorie ermittelten Neutronenmasse - realphysikalisch betrachtet - der wahrscheinlichste Wert ist. Wie auch immer, die theoretische Bestimmung gemäß Gleichung [nmass] ist im Sinne des Prinzips der Parsimonie unschlagbar. Particle Data Group zum Neutron
Was bedeutet dieser erste Vergleich für das SM? Wenn man die iterativ Meßwert orientierten groben QCD-Ergebnisse und die gemäß Quark-Modell theoretischen für die Berechnung der Neutronenmasse mit dem nahezu exakten EKT-Ergebnis gemäß [nmass] vergleicht, welches ein Proton-Elektron basierendes Neutron voraussetzt, kommt man aus dem Staunen nicht mehr heraus und ahnt hier schon bereits exemplarisch, was die Stunde (für das Standardmodell) geschlagen hat. Das Ende des SM ist in Sicht. |
☼ zum weiteren Verständnis: CODATA Variationen Es gibt für die dokumentierten Werteermittlungen, basierend auf präzisen formal-analytische Berechnungen der EKT, neben den generellen experimentellen Meßungenauigkeiten, absolut gesehen, die Problematik, dass sich die empfohlenen CODATA-Werte mit der Zeit ändern, ohne jedoch stringent die Meß(fehler)genauigkeit nachhaltig zu verbessern. Siehe exemplarisch die CODATA Werte von 1986 zum Verständnis und zum Vergleich: The 1986 CODATA Recommended Values Of the Fundamental Physical Constants [CODATA RECOMMENDED VALUES OF THE FUNDAMENTAL PHYSICAL CONSTANTS: Gesamtauflistung 2018] Ein neueres Postulat der Systemphysik: Das Proton ist signifikant leichter als bisher gedacht : Das belegt die (vermeintlich) bisher präziseste Messung der Protonenmasse. Siehe exemplarisch den deutschen scinexx.de-Artikel oder den englischen science.org-Artikel. Plakativ betrachtet, stellt sich hier, von außerhalb der System-Modell-Physik betrachtet, die Frage, ob das wissenschaftlich relevant ist oder ob es sich eher um mathematisch-experimentalphysikalisches Kokettieren der Protagonisten handelt. Wie auch immer, ob das Proton wirklich leichter ist und wie lange diese Aussage Bestand hat, kann niemand sagen. Man denke an den gemessenen Protonenradius, der über Jahrzehnte mit - für physikalische Messungen unglaublichen - mehr als + 4% Abweichung von den Standardmodell-Protagonisten falsch interpretiert war. Siehe später mehr dazu. Hat das eine Bedeutung? Für die EKT respektive deren exzellente Voraussagefähigkeit ist das (realphysikalisch) unerheblich, da hier die Denkmodellphänomenologie basierenden, formal-analytisch ermittelten Werte unschlagbar präzise mit den Meßwerten übereinstimmen, egal wer, wann, wie und warum an den CODATA-Standardabweichungen "dreht und fummelt". Das der lange Zeit "geltende" Protonenradiuswert "erschreckend" falsch war, war und ist gemäß EKT keine Überraschung. Wie schon bald hier im weiteren Leseverlauf gezeigt wird, gibt es eine im Rahmen der EKT konsistente exakte Protonenradiusberechnung, die nur von der Protonenmasse und Naturkonstanten gemäß eines einfachen formalen Zusammenhanges abhängig ist. SM Für die Standardmodellphysik ist das alles unerheblich, da, wie bereits erwähnt, im Rahmen der Systemphysik-Modelle eh keine formal analytischen Berechnungen möglich sind. Dort wird alles iterativ ergebnisorientiert angepasst (präzise schön gerechnet), wie noch im Rahmen diverser Beispiele konkret erörtert wird. |
Raum und Zeit
|
|
Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär »Ordnungsmuster des Verstandes«. Um aus diesen Ordnungsmustern Physik zu erhalten, bedarf es phänomenologischer Betrachtungen und Erklärungen. „Planck, Einstein, Heisenberg und Kollegen“ waren noch als Mitbegründer des neuen (mathematischen) Denkens mit den philosophischen Aspekten vertraut und konfrontiert. Die nachfolgenden Generationen der Theoretischen Teilchenphysiker und Theoretischen Astrophysiker scheinen jedoch wenig bis kein Verständnis für erkenntnistheoretische Spielregeln zu besitzen, was sich einfachst durch die große Anzahl freier Parameter, variabler Kopplungskonstanten und beliebiger Substrukturierungsthesen objektiv feststellen läßt. (Rhetorische) Frage? Was ist denn der Unterschied zwischen Phlogiston, Licht-Äther, Gluonen und dunkler Materie?
Schlicht betrachtet handelt(e) es sich stets um Fantasiekonstrukte, die die Fehlstellen des Wissens willküraffin füllen (sollen). Von einer autoritären Minderheit als „nützliche“ Theorieparameter eingeführt, wurden und werden diese sodann von servilen Mainstream-Wissenschaftsmagazinen und in der Folge populärwissenschaftlich weit verbreitet und letztendlich von der Masse als wissenschaftliche Errungenschaften "verdaut".
Für heutige Theoretiker ist die Welt der Mathematik identisch mit dem Erkenntnishorizont des Menschen. Moderner Mathematik wird mit festem Glauben eine konstruktive Komponente zugeschrieben. Diese neuen Glaubensbekenntnisse haben offensichtlich eine enorme Strahlkraft, obwohl die ihr zu Grunde liegenden Ideen allesamt irrational sind. Heutige Experimente zur Erweiterung des Standardmodells der Teilchenphysik (SM) verraten schon durch die Namensgebung »Supersymmetrie« welch Geistes Kind ihnen inne wohnt. Experimente sollen Symmetrien, nein müssen Supersymmetrien genügen. Neue zeitinstabile Super-Partner-Teilchen, die nie als solche, so wie ihre Vorgänger, direkt messbar sein werden, kommen eines Tages nach monatelangen Berechnungen mittels Super-Cluster-Rechnern als Teilchenbeschleuniger-Geburten aus vorselektierten Zerfallskanälen. Man kann offensichtlich in jeder beliebigen Theorie Widersprüche mit der Beobachtung dadurch "wegerklären", dass man weitere (unüberprüfbare) Postulate in die Theorie mit aufnimmt, die genau diese Beobachtung „erklären“. Diese stark theoriebeladene Suche lässt sich auf Grund der vielen freien Parameter, nicht detektierbaren postulierten Theorieobjekte und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretieren. Dass SM hat diese unwissenschaftliche Unart zur Standardprozedur etabliert und im Vergleich zu anderen Wissenschaftsdisziplinen "unerreicht" auf die Spitze getrieben. Die daraus resultierenden Verselbständigungen der mathematischen Abstraktionen führen nachweislich zu beliebigen Fantasiekonstrukten. Und die damit einhergehende Einschränkung des Blickwinkels erschwert es zunehmend, wichtige Fragen nach den kausalen Zusammenhängen zu klären, ohne welche die naturwissenschaftliche Forschung selbstgenügend zur irrelevanten Tätigkeit „verkommt“.
☼ Methodisch generierte Beliebigkeiten Folgendes Beispiel soll die »Standardmodell methodisch generierte Problematik« exemplarisch verdeutlichen. Zitieren wir fragmentarisch den Autor des Spektrum-Online-Artikels: Das Standardmodell der Teilchenphysik hält – mal wieder vom 21.12.2022, Davide Castelvecchi:
...„Ein viel versprechender Hinweis auf eine mögliche »neue Physik«, der sich in Experimenten am Large Hadron Collider (LHC) zeigte, dem größten Teilchenbeschleuniger der Welt, hat sich in Luft aufgelöst und Hoffnungen auf eine bedeutende Entdeckung zunichtegemacht. Vor einigen Jahren waren die Physikerinnen und Physiker am CERN in Genf auf einen unerwarteten Unterschied im Verhalten von Elektronen und ihren massereicheren Vettern, den Myonen, gestoßen, wenn sie aus dem Zerfall bestimmter Teilchen hervorgehen: Myonen waren dabei augenscheinlich etwas seltener entstanden als Elektronen – ein Widerspruch zum Standardmodell der Teilchenphysik, da solch eine Diskrepanz gegen die so genannte Leptonen-Universalität verstoßen würde. Die jüngsten Ergebnisse des LHCb-Experiments deuten nun allerdings darauf hin, dass Elektronen und Myonen doch im gleichen Verhältnis erzeugt werden. …Das LHCb-Team berichtete erstmals 2014 über eine geringfügige Abweichung bei der Produktion von Myonen und Elektronen… …Teilchenphysikalische Experimente liefern häufig Ergebnisse, die leicht vom Standardmodell abweichen, sich dann jedoch als statistische Zufallstreffer erweisen, wenn Forscherinnen und Forscher mehr Daten sammeln. Die B-Mesonen-Anomalie schien in den folgenden Jahren allerdings immer auffälliger zu werden, und eine Reihe verwandter Messungen an B-Mesonen zeigte ebenfalls Abweichungen von den theoretischen Vorhersagen, die auf dem Standardmodell der Teilchenphysik basieren… … Die neuesten Ergebnisse umfassen mehr Daten als die früheren LHCb-Messungen der B-Mesonen-Zerfälle und nehmen zugleich mögliche Störfaktoren genauer in den Blick. So ließen sich die offensichtlichen Diskrepanzen bei den früheren Messungen mit Kaonen zum Teil darauf zurückführen, dass einige andere Teilchen fälschlicherweise als Elektronen identifiziert worden seien, sagt LHCb-Sprecher Chris Parkes, Physiker an der University of Manchester in Großbritannien. Während die LHC-Experimente gut darin sind, Myonen aufzuspüren, ist es für sie schwieriger, Elektronen zu entdecken… ...Obwohl bereits seit Monaten darüber gemunkelt wurde, seien die jüngsten Ergebnisse überraschend gekommen, sagt der theoretische Physiker Gino Isidori von der Universität Zürich. Es schien sich ein kohärentes Bild aus verwandten Anomalien zu ergeben. Dies hätte auf die Existenz von bisher unbekannten Elementarteilchen hindeuten können, die den Zerfall von B-Mesonen beeinflussen. Isidori lobt die LHCb-Kollaboration dafür, dass sie die Probleme mit ihren früheren Analysen so »ehrlich« zugegeben hat. Gleichzeitig bedauert er jedoch, dass man die Schwierigkeiten nicht früher fand. Andererseits könnten sich einige der anderen Anomalien, auch bei B-Mesonen-Zerfällen, die keine Kaonen enthalten, immer noch als echt herausstellen, fügt Isidori hinzu: »Noch ist nicht alles verloren.« Die Experimentalphysikerin Marcella Bona von der Queen Mary University of London, die an einem weiteren LHC-Experiment beteiligt ist, stimmt dem zu. »Es sieht so aus, als würden die Theoretiker bereits darüber nachdenken, wie sie sich trösten und neu orientieren können.« Zu den verbleibenden hoffnungsvollen Hinweisen auf neue Physik gehört eine im April 2022 bekannt gegebene Messung, bei der sich die Masse des W-Bosons als etwas größer als erwartet herausstellte. Eine andere Anomalie, die Myonen betrifft, könnte sich hingegen ebenfalls in Luft auflösen: Das magnetische Moment des Myons schien stärker zu sein als vom Standardmodell vorhergesagt; die neuesten theoretischen Berechnungen lassen allerdings vermuten, dass dies doch nicht der Fall ist. Stattdessen könnte die Diskrepanz auf eine Fehlberechnung der Vorhersagen des Standardmodells zurückzuführen sein." Dekodieren wir die euphemistischen Aussagen des Autors respektive die Fördermittel verbrauchenden haltlosen Fantasiekonstruktversuche der SMer: ...Teilchenphysikalische Experimente liefern häufig Ergebnisse, die leicht vom Standardmodell abweichen, sich dann jedoch als statistische Zufallstreffer erweisen, wenn Forscherinnen und Forscher mehr Daten sammeln... Bedeutet: Nichts Neues, nichts weiter als eine Standardbeschäftigungstherapie mit Beliebigkeiten, die zu keinem Ergebnis führt. Nahezu perfide sowie realitätsverweigernd ist diesbezüglich die Aussage des LHCb-Sprecher Chris Parkes: "Das Ergebnis dürfte viele Theoretiker enttäuschen, die viel Zeit damit verbrachten, Modelle zu entwickeln, die die Anomalien erklären könnten. »Ich bin mir sicher, dass die Leute gerne einen Fehler im Standardmodell gefunden hätten«, sagt Parkes, aber letztlich »macht man die beste Analyse mit den Daten, die man hat, und sieht, was die Natur einem gibt. So funktioniert Wissenschaft wirklich.«" Er lobt implizit Theoretiker und hat Verständnis für deren Trauer, Theoretiker die sinnfrei Fehlmeßungen respektive Fehlinterpretationen zeitintensiv u.a. mathematisch aufarbeiten und propagiert, das das Standardmodell der Teilchenphysik jedoch, als Abbild der Natur, obsiegt hat. Zu den verbleibenden hoffnungsvollen Hinweisen auf neue Physik gehört eine im April 2022 bekannt gegebene Messung, bei der sich die Masse des W-Bosons als etwas größer als erwartet herausstellte. Eine andere Anomalie, die Myonen betrifft, könnte sich hingegen ebenfalls in Luft auflösen: Das magnetische Moment des Myons schien stärker zu sein als vom Standardmodell vorhergesagt; die neuesten theoretischen Berechnungen lassen allerdings vermuten, dass dies doch nicht der Fall ist. Stattdessen könnte die Diskrepanz auf eine Fehlberechnung der Vorhersagen des Standardmodells zurückzuführen sein." Bedeutet, von außen ergebnisoffen, rational-analytisch betrachtet, einfach und klar ausgedrückt: Das Standardmodell taugt nichts. Sowohl die involvierten, von Steuergeldern finanzierten, Experimentatoren sowie die angesiedelten gleichfalls steuergeldfinanzierten SM-Theoretiker sind nutznießende Gläubige ihrer selbst geschaffenen Glaubens-Fantasien, die als Wissenschaft wortwörtlich verkauft wird. Servile Wissenschafts-Magazine transportieren naiv und unkritisch diesen Nonsens.
☼ Sabine Hossenfelder schreibt auch unmißverständlich von Lügen und Blödsinn ihrer Kollegen ... Erwiderungs-Kommentar zu Ihrem Blogartikel: CERN produziert Marketingvideo für neuen Collider - und es ist voller Lügen (CERN produces marketing video for new collider and it’s full of lies) am 7.Dezember 2018 [7.28 AM]: Ein Video über ein neues wissenschaftliches Instrument, dessen Finanzierung diskutiert wird, sollte beim Zuschauer einen vernünftigen Eindruck hinterlassen, was das Instrument leisten wird... Natürlich sehen die Physiker, die das sehen, nichts Falsches daran. Denn sie wissen, dass es Blödsinn ist. Und sie haben sich an diesen Schwachsinn gewöhnt, so dass sie denken, dass es einfach zur Tagesordnung gehört. Die moralische Korruption, die hier stattgefunden hat, ist bemerkenswert. Am gleichen Tag schreibt Frau Hossenfelder [12.36 PM] einem Kommentator namens Tommaso Dorigo ... "Wir alle wissen, dass Sie Teilchenphysiker sind und an dem Thema beteiligt sind. Ich bin nicht im Entferntesten überrascht, dass es Ihnen nicht gefällt, dass ich öffentlich sage, was jeder in der Branche seit Jahrzehnten weiß."... Sie schreibt in einem weiteren Erwiderungskommentar am 8. Dezember [2.49 AM]... "Wir können nur dann klug entscheiden, wenn wir uns die Fakten ansehen, anstatt uns von Wunschdenken leiten zu lassen. Deshalb ist falsche Werbung wie die oben genannte ein Problem. Menschen, die die Theorien nicht verstehen, glauben sie. Selbst diejenigen, die die Theorien verstehen, lassen sich von der übermäßig optimistischen Sichtweise beeinflussen. Ich weiß, dass sie es nicht hören wollen, aber kognitive Verzerrungen und motivierte Wahrnehmung beeinflussen die Art und Weise, wie wir Entscheidungen treffen. Selbst als Wissenschaftler. Besonders in großen Gruppen."... ... Wie ich in meinem Buch darlege, funktioniert die Theorieentwicklung, insbesondere in der Hochenergiephysik, derzeit schlecht. Man kann "Vorhersagen" für alles konstruieren, was man will; deshalb sind diese Vorhersagen völlig wertlos"
|
Der Paradigmenwechsel
Konsequenzen der Masse-Raum gekoppelten fundamentalen Erweiterung des Energieerhaltungssatzes |
erweitertes Vorwort
Kurz und knapp
Inhalts-analytisch erstaunlich ist die Tatsache, dass die "großen" Standardmodelle der Physik sprich das Standardmodell der Elementarteilchenphysik (SM) und das Standardmodell der Kosmologie (ΛCDM-Modell) und die gewünschte SM-"Erweiterung" SUSY (Supersymmetrie), sowie vermeintlich konkurrierende Modelle (wie die prominenten Stringtheorien) keinerlei rational logischer Kritik standhalten, wie im weiteren Verlauf im Zusammenhang und Vergleich mit der Elementarkörpertheorie (EKT) an zahlreichen Beispielen ausgeführt wird. Einzig das soziologische Totschlagargument, dass sich doch nicht zehntausende mathematisch hervorragend ausgebildete Wissenschaftler, über mittlerweile mehrere Generationen, mit Modellen beschäftigen, wenn diese bedeutungslos wären, wird zum Rundumschlag ins Feld geführt. Interessanterweise sind viele der den Standardmodellen zu Grunde liegenden Experimente, an sich betrachtet, brauchbar. Die Probleme beginnen meist (erst) mit den theorieinduzierten, gewünschten Versuchsergebnis-Interpretationen. Wer einigermaßen neutral die Geschichte der Elementarteilchenphysik "studiert", wird kaum glauben können, dass es sich um naturwissenschaftliche Betrachtungen und Bemühungen im Sinne einer zielführenden Vereinfachung und Vereinheitlichung handelt. Immer dann, wenn die Experimentalphysik die Theorie(n) widerlegte, wurde die Theorie mittels neuer Elementarteilchen, erneuter Substrukturierung und wenn nötig neuer Quantenzahlen erweitert, die die fehlenden Eigenschaften, die fehlende Energie oder die fehlende Symmetrie "erledigten". Das hat mit Wissenschaft wenig zu tun und erinnert mehr an (zeitgenössische) Politik. Statt die Probleme mit einem neuen radikalen (Theorie-)Ansatz zu bewältigen, werden kleine und große Schönheitskorrekturen kontinuierlich durchgeführt. Statt zu vereinfachen und zu vereinheitlichen wird "gnadenlos" erweitert und "spezialisiert". Es entsteht ein Sammelsurium von Teilchen(-Eigenschaften). Plakativ formuliert: Für jeden Fall einer unerwünschten Abweichung, für jedes Teilchen, werden bei Bedarf Theorie erhaltende Sonderregelungen nachgelegt. Der mathematische Formalismus ist in diesem Fantasieprozess das kleinste Problem. Nötigenfalls werden divergente Terme regularisiert und renormalisiert oder gleich als "unphysikalisch" deklariert, schlicht "weggelassen". Das damit die axiomatische Grundstruktur zerstört wird, scheint nur Wenigen klar zu sein bzw. ist offensichtlich dem Gros der Theoretiker egal. Zur Erinnerung: Ob eine Mehrheit «Etwas» "praktiziert" und für "richtig" hält, sagt nichts über den (erkenntnistheoretischen) Wert der "Theorie zum Etwas". Eine Meinung kann jeder haben, dazu braucht es kein Wissen. Deshalb sind Meinungen auch deutlich populärer als Wissen. Das eine Gesellschaft mehrheitlich aus Meinungsträgern ohne Wissen besteht, ist ein gut dokumentiertes, psychologisch nachvollziehbares, machtsystemerhaltendes, leicht zu beobachtendes Phänomen, sofern man sich mit den sozialpolitischen Hintergründen der Meinungsmache und Machterhaltung beschäftigt. Aber warum basiert die aktuelle Theoretische Grundlagen-Physik auf Meinungen, statt auf begründeten Wissen? Sind es letztendlich nur - aus naturwissenschaftlicher Sicht inakzeptabel - wirtschaftliche Interessen der Nutznießer und Lobbyisten, die Forschungsgelder abgreifen und ihre materielle Existenz begründen wollen? Stellt man die enorme Anzahl von Veröffentlichungen im Bereich der Standardmodelle ins Verhältnis zu dem Erkenntnis-Gewinn, so handelt es sich - in unserer heutigen digitalisierten Zeit salopp formuliert - fast ausschließlich um Datenmüll. Das liegt schlicht daran, dass die vermeintlichen Meßergebnisse bereits stark theoriebeladen sind und die theoretischen Ansätze aus idealisierten, genäherten Gleichungen stammen, die in der Urform keine formal-analytischen Lösungen besitzen und deren näherungsreduzierte Gestaltungen nichts weiter als mathematische Möglichkeiten liefern, die realphysikalisch bedeutungslos sind, insbesondere da über die Rückkopplungen der theoriebeladenen selektiven Messungen, nur die gewünschten Meßergebnisse weiter verwendet werden. So entstand und entwickelt sich ein erkenntnisbefreites, formal und wirtschaftlich selbsterhaltendes System. Dass die Systementwickler und Profiteure jede halbwegs logische Alternativforschung schon im Ansatz beseitigen wollen, ist egoistisch menschlich nachvollziehbar. Jede formal-analytische Lösung, die realphysikalische Werte liefert, stellt eine existenzielle Bedrohung der Standardmodelle dar. Populärwissenschaftlich getragen wird das System von servilen Wissenschaftsmagazinen, deren indoktrinierten Lesern und unwissenden Epigonen, die jeden populären Theorie-Quatsch beklatschen. Es drängt sich der Verdacht auf, dass Menschen, deren Schaffensdrang nicht in geeigneter Weise befriedigt werden kann, weil real nichts Neues für sie zu finden ist, Trivialitäten dokumentieren und formalisieren, in neue Worte kleiden und Satzstrukturen verwenden, die ein Normalmensch nicht versteht und dessen Achtung der Autor quasi automatisch erhascht. Es macht im Ergebnis keinen Unterschied ob es in diesem System Wissenschaftler gibt, die "wirklich" voller Inbrunst an diese, an Naivität und Widersprüchen schwer zu überbietenden, "theoretischen Implikationen" glauben, oder ob es letztendlich banale wirtschaftliche Interessen gepaart mit akademischer Macht sind, die Wissenschaftler als elitäre Nutznießer ausnutzen, um baren Unsinn zelebrieren und verkünden zu können. Besonders eklatant ist der Umstand, dass im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik der Teilchen" für sich in Anspruch nimmt, ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Die Theoretische Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an denen man Glaubensbekenntnisse statt Wissenschaft vermutet. Interessant sind die psychologischen und soziologischen Aspekte, die inhärent mit den Machern und Anhängern der Standardmodelle verknüpft sind. Wie konnte es dazu kommen, dass ein eher kleiner Kreis von „Wissenschaftlern“ - trotz dokumentierter Erkenntnislosigkeit, die sich u.a. durch die qualitative wie quantitative inkonsistente Beliebigkeit der postulierten Theorieentitäten und deren postulierten Wechselwirkungen manifestiert - bestimmt, was die anderen zu denken haben? Und warum verhalten sich andere „Wissenschaftler“ so passiv? Die transparent absurden Standard-Theoriewelten bieten Riesenangriffsflächen für logische und argumentativ begründete Kritik, doch es gibt so gut wie keine wahrnehmbar aktiven Kritiker. Die schlichte, übergeordnete Antwort lautet gemäß Gustave le Bon: „Nie haben die Massen nach Wahrheit gedürstet. Von den Tatsachen, die ihnen mißfallen, wenden sie sich ab und ziehen es vor, den Irrtum zu vergöttern, wenn er sie zu verführen vermag. Wer sie zu täuschen versteht, wird leicht ihr Herr, wer sie aufzuklären sucht, stets ihr Opfer.“ Von vielen, möglicherweise fast von allen Physiktreibenden, vom Studenten bis zum Professor, vom Wissenschaftsneugierigen bis zum mathematisch (gut) vorgebildeten Anhänger, vom "irgendwie Versteher" bis zum ahnungslosen Laien geht eine omnipräsente Systemgläubigkeit aus, die je nach Bildungsstand, mit mehr oder weniger scheinbar fundierten Argumenten, "Dinge", wie überlichtschnelle Raumausdehnungen oder Kaskaden von virtuellen Teilchen "vertritt", deren Begründungen aber letztendlich nur einer Prämisse folgen: (Moderne) Wissenschaft ist das, worauf man sich geeinigt hat, auch wenn experimentelle Fakten, Inkonsistenzen und die Anzahl freier Parameter klar gegen herrschende Standardmodelle sprechen. Abgehoben und von der Masse glorifiziert leben die Protagonisten der Modernen Theoretischen Systemphysik bezüglich alternativer Denkmodelle nach dem Motto: »Wir lesen nicht, wir schreiben selber.« Doch was wissen diese Leute wirklich von dem, was sie da treiben und schätzen? Was "kennen" sie, außer den "Dingen", die sie anhimmeln, stetig nachkorrigieren und mit aller Kraft verteidigen und wenn es als letzte Untat die postulierte Unwiderlegbarkeit (Stichwort Confinement-These) selbst ist, die sie propagieren? Methodisch organisierter Realitätsverlust als Wissenschaftsgrundlage Die Ursprünge des Realitätsverlustes, welcher mannigfaltig im Standardmodell der Teilchenphysik zum Tragen kommt, stammt aus der Quantenmechanik. Im Zuge der Kopenhagener Interpretation der Quantenmechanik ist der Realitätsverlust methodisch und gewollt. Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität ohne selbst eine Realität zu besitzen. Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier Theorem es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab den physikalischen Prozeß zu erkunden. Anschaulichkeit und Phänomenologie werden ausgeblendet.
Je nach Vorwissen, zur Erinnerung, zur Kenntnisnahme und zur Selbstanalyse
Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Elektronen sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen". Da heißt es lapidar zum Thema „Quarkmischungen“: …Die CKM-Matrix (Cabibbo-Kobayashi-Maskawa-Matrix) wird physikalisch eindeutig durch drei reelle Parameter sowie eine komplexe Phase beschrieben (weitere fünf Phasen, die mathematisch auftreten, haben keine physikalische Bedeutung)…“ Das bedeutet schlicht und ergreifend, dass man sich ergebnisorientiert die mathematischen Elemente nimmt, die „irgendwie passen“ und andere einfach ignoriert. Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. U.a. Religiosität, "neurologische Auffälligkeiten", Größenwahn sowie wissenschaftsbefreite "Kindergartensprache" kommen mit dem Theoretiker als "verwirrten", (Mathematik) gläubigen Menschen ins "Spiel".
Kommen wir zu der Forderung der »SMer«SM, dass ein funktionierendes alternatives Modell hunderte Meßwerte formal reproduzieren muss, so wie es ja auch das SM "macht" (es darf gelacht werden). »SMer« sind sich siegessicher, dass das nie geschehen wird. Ihre absolute Trumpfkarte im Spiel der Forderungen ist die theoretische Berechnung des anomalen magnetischen Moments des Elektrons und der damit assoziierte Meßwert, sofern wir das - aus vielerlei Gründen absurde und argumentativ widerlegte - Postulat der (realphysikalisch möglichen) Messung von Gravitationswellen hier erst einmal nicht berücksichtigen und Physik begutachten wollen. Naja, ich "sage" es mal so, stell' Dir vor es geht. Ich möchte das an dieser Stelle nur thematisch "anreißen", da es gemäß inhaltlichen Umfangs, konkreter Ausführungen etc. weit weg vom Primären über Denkmodellaspekte führt. Eine sehr ausführliche Betrachtung mit einer unerwarteten phänomenologisch begründeten, formalanalytischen - ohne Übertreibung - sensationellen Alternative und im Ergebnis erstaunlichen Werteberechnungen findet sich später in den vorliegenden Ausführungen zu den magnetischen Momenten. Bevor »wir«, die Leser, jedoch diese komplexen Detail-Betrachtungen der Anomalen Magnetischen Momente erreichen, sind die Standardmodelle, nach dem »expressionistischen Stirb- und Werde-Prinzip« im Sinne des »Prinzips der Parsimonie« schon tot. Warum ist das so?
Die grundsätzliche, phänomenologisch begründete Elementarkörper basierende Denkmodell-Forderung besteht darin, dass möglichst minimalistische Gleichungen, sowohl das masselose Photon als auch massebehaftete Materie abbilden.
Sowie, dass der Masse-Raum gekoppelte Mikrokosmos-Formalismus gleichfalls (formal analog) makroskopische Wechselwirkungen und Größen beschreibt und berechnet, ohne das hier erst einmal näher auszuführen:
Mit anderen Worten Konträr zur Aussage der Standardphysik, die vier Grundkräfte postuliert, lässt sich Elementarkörper basierend - auf Grund der (skalenkorrespondierenden) Masse-Raum-Kopplung - jedwede Wechselwirkung auf das Masse-Radius-Verhältnis der interagierenden Wechselwirkungspartner reduzieren. Das führt zu einer »konstruktiven Beschreibungsverarmung«, die entweder durch die Radien oder deren reziprok proportionale Massen ausgedrückt werden kann. Mit Hilfe dieser einkomponentigen wortwörtlichen Minimalbeschreibung lassen sich Materiebildungsmöglichkeiten verstehen und formal analytisch exakt berechnen.
Einzig folgende Meßwerte werden für die EKT benötigt: Masse des Elektrons, Masse des Protons, Gravitationskonstante, Plancksches Wirkunsquantum (als kleinste skalare Wirkung), die Lichtgeschwindigkeit, der Wert der elektrischen Elementarladung, der Wert der Dieelektrizitätskonstanten. Das wären 7 freie Parameter, die von der Natur vorgegeben und relativ einfach meßbar sind. Da wir hier die Gravitationskonstante, Plancksches Wirkunsquantum (als kleinste skalare Wirkung), die Lichtgeschwindigkeit, den Wert der elektrischen Elementarladung, den Wert der Dieelektrizitätskonstanten zu den freien Parametern der EKT zählten, müssen wir diese gemäß der verwendeten Standardmodell-Terminologie jedoch wieder abziehen, da diese nicht als freie Parameter aus Sicht der Standardmodelle gelten. Bedeutet: Die EKT benötigt nur 2 (!!!) freie Parameter!
Die Masse des Protons und die Masse des Elektrons
"Andererseits"...
Zum Vergleich: Das Standardmodell der ElementarteilchenphysikSM zielt darauf ab Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen. Das Standardmodell der Teilchenphysik benötigt (derzeit) 25 freie ParameterFP, variable Kopplungskonstanten, mehreren Dutzend postuliert essentielle Theorieobjekte]pet, assoziierte Verknüpfungszahlen (Quantenzahlen), diverse Substrukturierungs-Thesen, Confinement-These,…
[FP]
]pet Zählt man die Teilchen nach einer Regel, die zwischen Teilchen und ihren entsprechenden Antiteilchen sowie zwischen den vielen Farbzuständen von Quarks und Gluonen unterscheidet, ergibt sich eine Gesamtzahl von 61 Elementarteilchen. Wenn Neutrinos ihre eigenen Antiteilchen sind, dann würde die Gesamtzahl der Elementarteilchen nach denselben Zählkonventionen 58 betragen.
SM Bei genauer Sicht gibt es das SM nicht. Es ist bereits in sich fragmentiert und diesbezüglich unvereinbar. Hintergrund Weder die Maxwell-Gleichungen noch irgendwelche mathematischen Neu-Konstrukte der zeitgenössischen Quantenelektrodynamik offerieren konsistente Denkmodell-Phänomenologien zur Natur der Strahlung. Zur Verdeutlichung soll hier denkmodell-exemplarisch die Definition des Photons im Rahmen der Elektroschwachen Theorie, die weder in der QED noch allgemein formuliert im SM existiert, skizziert werden. In der Elektroschwachen Theorie werden, wie bei allen quantenfeldtheoretischen Eichtheorien, die Wechselwirkungen durch Eichbosonen vermittelt. In der Elektroschwachen Theorie treten zunächst vier masselose Eichbosonen auf, die auftretenden Eichbosonen werden als "Mischungen" definiert. Grundidee ist eine formale Vereinigung von elektromagnetischer und schwacher Wechselwirkung. Wobei W1, W2 und W3 keinerlei "messtechnische Realität" besitzen. Das Z0-Boson ist nicht wie die W-Bosonen maximal paritätsverletzend, da es einen Anteil des W3-Bosons enthält. Man sagt, die Zustände des Photons γ0 und des Z0-Bosons sind um den so genannten Weinbergwinkel gedreht. Das Photon soll sich in der Elektroschwachen Theorie wie in der QED verhalten. Diese Annahme/Forderung ist (phänomenologisch) haltlos, da das »Photon der QED« nicht dem Mischzustand der elektroschwachen Theorie entspricht. Auch ohne mathematische Konkretisierung lässt sich der Widerspruch qualitativ verstehen. Es wird im Rahmen der QED ein punktförmiges Elektron als strukturloses (elementares) Teilchen postuliert, welches im Theorie-Ergebnis eine unendlich große Ladung besitzt. QED-Trick: Durch die postulierte Polarisation des Vakuums (spontane Bildung von virtuellen Elektron-Positron-Paaren und virtuellen Photonen) wird die unendliche Ladung des Elektrons abgeschirmt und es ergibt sich die endliche, beobachtbare elektrische Ladung. In diesem Zusammenhang kommt es zu einer Ergebnis orientierten Verselbständigung der Mathematik. Es werden als erstes die konstruierten Singularitäten abgespalten (Regularisierung) und dann renormiert (endlich gemacht). Der theoretische Erfolg ist somit selbstprophetisch, das Ergebnis war bekannt. Bedeutet: Statt unverstandene, phänomenologiebefreite Größen bzw. Begriffe, wie Ladung und Masse (bestenfalls) auf primäre Begriffe zu reduzieren, werden weitere willküraffine Theorie-Konstrukte postuliert. Außer einer fragwürdigen, Realphysik befreiten mathematischen "Struktur", die mal richtige und mal (sehr) falsche VoraussagenVE liefert, bleibt (erkenntnistheoretisch) »Nichts«.
Stirb- und Werde- Ausgangssituation Heute regt es höchstwahrscheinlich niemanden mehr auf, wenn rückblickend über den Wechsel vom »Ptolemäischen Weltbild« zum »Heliozentrischen Weltbild« berichtet wird. Das war jedoch zu der damaligen Zeit eine extreme Situation. Es gab zwar bereits im antiken Griechenland Überlegungen, dass die Erde um einen fixen Punkt kreist. Dennoch war es Nikolaus Kopernikus (1473–1543), der mit seinem Hauptwerk „De revolutionibus orbium coelestium“ 1543 für eine wissenschaftliche Sensation sorgte. Er stellte ein mathematisch-naturphilosophisches Modell vor, in dem sich die Erde und die anderen Planeten auf Ellipsen um die Sonne drehten. Bis heute wird daher das heliozentrische auch als kopernikanisches Weltbild bezeichnet.
☼ Das geozentrische Weltbild entsprach der alltäglichen Erfahrung des Beobachters und widersprach nicht der Bibel. Die christlichen Kirchen übernahmen und verteidigten es entschieden. Das geozentrische Weltbild wurde bis zum Beginn der Renaissance nicht öffentlich hinterfragt. Erst mit Nikolaus Kopernikus, Giordano Bruno und Galileo Galilei traten ernstzunehmende Kritiker auf, die wegen der Befürwortung des »heliozentrischen Systems des Kopernikus« von der Inquisition wegen Häresie angeklagt wurden. Es ging für die Kritiker wortwörtlich um »Leben und Tod«. Tod für die, die sich gegen bestehende Ansichten auflehnten. Fakten und wissenschaftliche Argumentationen waren dem Glauben untergeordnet. Interessant zu erwähnen. Kopernikus war ein Bibelgläubiger. Er glaubte daran, dass die Erde - und damit der Mensch - im Zentrum des Kosmos steht. Sein Ziel war es, das ptolemäische Weltbild zu vereinfachen. Kopernikus will Widersprüche des Systems aus der Welt schaffen.
Kopernikus wußte, was ihm wegen seiner Forschungs-Ergebnisse eines heliozentrischen Weltbildes von Seiten der katholischen Kirche droht. Im Vorwort der Abhandlung wendet er sich deshalb direkt an den Papst und verweist darauf, dass die gnädige katholische Kirche schon Wissenschaftlern vor ihm die Freiheit gegeben habe, über die Bahnen der Planeten nachzudenken. Tatsächlich erweist sich der Vatikan zu Kopernikus Lebzeiten gnädig – wohl auch deshalb, weil er zum Zeitpunkt des Erscheinens schon im Sterben liegt. Letztendlich kommt »De revolutionibus orbium coelestium« 1616 auf den Index verbotener Bücher, da ist Kopernikus schon lange tot: Er stirbt am 24. Mai 1543 an einem Schlaganfall.
☼ Ergebnisoffenheit heute - Was hat sich zu "damals" geändert? - Hat sich was geändert? Heute inszenieren sich Wissenschaftler vordergründig gerne als aufgeklärt, faktenfreundlich, ergebnisoffen und bereit für neue Gedanken. Das fällt ihnen leicht, denn sie können sich schlicht nicht vorstellen, dass es zu spektakulären, neuen Ansätzen kommen wird, die sie selbst "alt aussehen lassen". Was passiert jedoch, wenn das, was diese heute lebenden Wissenschaftler – teils über Jahrzehnte – praktizier(t)en, in Analogie zum geozentrischen Weltbild, nicht mehr gelten soll? Ob der Kritiker und Denkmodellkonstrukteur auch heute noch Folter und Tod fürchten muß? Höchst wahrscheinlich nicht. Aber, wer weiß, sage niemals nie. Sicher ist Folgendes: Heute werden Karrieren verhindert und Alternativdenker diskreditiert.
|