Wissen ist ein Privileg.                    Die Weitergabe eine Pflicht. 

 

Ein überfälliges Rendezvous mit ursächlicher Rationalität

Autor

Dirk Freyling unabhängiger Forscher & Künstler

[Künstlername AlexD,

daher auch adf als Autorenkürzel]

contact adf

data protection info

[BASISSUCHE  AlexDirkFreyling 59ndf  Foto von T.B.]

 

 

Worum geht es?

Um einen nachhaltigen Paradigmenwechsel.

Was ist hier mit Paradigmenwechsel gemeint?

Das Ersetzen der Standard-Denkmodelle [SM ΛCDM] der Theoretischen Physik.

[SM] Standardmodell der (Elementar)-Teilchenphysik (SM)

[ΛCDM] Kosmologisches Standardmodell (ΛCDM-Modell)

Was tritt an deren Stelle?

Ein deutlich anschaulicheres, effektiveres, interdisziplinär vermittelbares,  mathematisch einfacheres Denkmodell[EKT], welches vereinheitlichend und skalenübergreifend Mikro- und Makro-Kosmos voraussagefähig beschreibt.

[EKT] Die Elementarkörpertheorie (kurz EKT) befasst sich insbesondere mit Antworten auf die Frage, wie Masse und Raum basisnah miteinander verknüpft sind und im „Zusammenspiel“ zu verständlichen Materiebildungen führen, die sich formal-analytisch - sowohl mikroskopisch als auch korrespondierend makroskopisch - berechnen lassen. Für ein  anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine variable Zeit, noch mathematische Raum-Zeit-Konstrukte, noch irgendeine Form der Substrukturierung notwendig. 

 

Welche Argumente sprechen für diesen Paradigmenwechsel?

Das Parsimonieprinzip

[: Ockhams Rasiermesser     lex parsimoniae    Sparsamkeitsprinzip]

Die streng analytisch motivierte Verwendung

des Prinzips der Parsimonie

in den vorliegenden Ausführungen

              

Denkmodelle können (nur) auf Konsistenz, innerer axiomatischer Widerspruchsfreiheit, im Hinblick auf Aussagefähigkeit bezüglich konkreter Vorhersagen von tatsächlich gemessenen Größen und Minimalistik, bewertet werden.

Um experimentell überprüfbare Zusammenhänge formal-analytisch im Rahmen von Denkmodellen beschreiben zu können, ist das Denkmodell zu bevorzugen, dass mit den wenigsten (physikalischen) Variablen und mathematisch einfachsten Gleichungen möglichst exakte Voraussagen trifft. Des Weiteren ist das Denkmodell am geeignetsten, welches neben der verwendeten Mathematik phänomenologisch erfassbar und konsistent, sowohl (skalenübergreifend) den Mikro- als auch den Makro-Kosmos, beschreiben kann, sowie einen formalen und phänomenologisch begründbaren Zusammenhang zwischen Licht (genauer PhotonenPh) und Materie erfasst.

[Ph] Die Bezeichnung Photonen wurde zum ersten Mal im Jahre 1926 (21 Jahre nach Albert Einsteins Arbeit zum Photoelektrischen Effekt) von dem amerikanischen Physikochemiker Gilbert Lewis in einer Arbeit mit dem Titel „The Conservation of Photons“ vorgeschlagen. Er spekulierte, ob Licht aus einer neuen Atomsorte bestehe, die er Photonen nannte, die weder erzeugt noch vernichtet werden könnten, also einem Erhaltungssatz gehorchen [A. Pais  "’Raffiniert ist der Herrgott’… Albert Einstein  Eine wissenschaftliche Biographie“, Vieweg 1986, S. 413].

 

Wer bin ich fachlich in Richtung Theoretische Denkmodellphysik blickend?

 

zum "Abbildungsverständnis" (Wiedererkennung) bezüglich meiner Kopfhaut-Hornfäden, erst blonde kurze, folgend lange blonde, dann schwarzgefärbte lange, blonde, aktuell blonde, teilweise graue kurze...

Fragmentarisches in Kurzform zum „allgemeinen Verständnis“ zur Person  in 1964, Duisburg als Dirk Kurt Freyling geboren. Ich bin gelernter Chemielaborant und habe kurzzeitig in meinem Ausbildungsbetrieb (chemische Industrie, Analytik, Qualitätskontrolle) nach der Ausbildung als Wechselschichtlaborant gearbeitet, später während des Physikstudiums als Zeitarbeiter für diverse Firmen als Chemielaborant um mein Leben als Student zu finanzieren, sowie als studentische Hilfskraft im Bereich der Didaktik der Physik. Mein Physik-Diplom-Nebenfachprüfungsthema war im Bereich der Metallorganischen Chemie angesiedelt.

Arbeitstechnisch gesehen, der Vollständigkeit halber erwähnt, ich habe auch kurzzeitig für einen sehr engagierten finanziell erfolgreichen »Workaholic« im Strukturbetrieb gearbeitet und im Rahmen von „Kalt-Akquise“ „Klinken geputzt“ und kapitalbildende Lebens-Versicherungen für die Altersvorsorge und Immobilienfinanzierungen verkauft… Ohne hier auf irgendwelche (teils durchaus amüsante) Details einzugehen. Das fand ich trotz meines wirtschaftlichen Erfolges letztendlich nicht interessant (genug). Somit war es nur eine relativ kurze Arbeitsepisode in meinem Leben.

 

Danach folgten für eine lange Zeit (… mehr als 20 Jahre) andere Themen, die mein Leben „bestimmten“, insbesondere Kunst und Erotik. An diesen Aktivitäten schätz(t)e ich insbesondere den daraus resultierenden Zeitreichtum, der es mir gestattete und mir nach wie vor gestattet, mich intensiv mit Dingen zu beschäftigen, die mich interessieren.

 

«out of the box»

2012 stieß ich online auf die Protonenradius-Meßergebnisse von 2010 (siehe exemplarisch »The size of the proton«, Randolph Pohl et al.), die einen um ~ 4,4% kleineren Radius als den bis dahin etablierten Wert ergaben. Das erinnerte mich an meine eigenen theoretischen Ausführungen während meines Physikstudiums aus dem Jahr 1986. Ich hatte mich damals nicht weiter damit intensiver beschäftigt, da eine Abweichung von 4,4% im Rahmen von physikalischen Meßwerten im Mikrokosmosbereich Welten bedeuten. Ich lag damals mit meinen Berechnungs-Überlegungen im Hinblick auf den Literaturwert für den Protonenradius weit außerhalb des Erträglichen für einen Denkmodellanspruch meinerseits. In Wirklichkeit traf ich jedoch schon damals, wie man so „schön“ sagt, „den Nagel auf dem Kopf“, „ich lag goldrichtig“.

 

Elementarkörpertheorie

Ein fundamentales Ergebnis der Masse-Raum Kopplung  ist, das das Produkt aus der [Ruhe-]Masse m0 und dem [maximalen] Radius r0 eines «[Elementar-]Körpers» konstant ist und durch die Masse-Radius-Konstanten-Gleichung [F1] beschrieben wird.

                                                                        [F1]:  Masse-Radius-Konstanten-Gleichung

                                                                     h: Planck'sche Wirkungsquantum   c: Lichtgeschwindigkeit

    Für m0 = mp folgt somit für r0 einfachst, exakt berechnet rp : Protonenradius

Meine phänomenologisch begründete, formal einfache, exakte Voraussage des Protonenradius aus dem Jahr 1986 im Bild der Elementarkörpertheorie erzeugte 2012 bei mir große Freude und war der Auftakt zu intensiver Denkmodell basierender Forschung. Von da an beschäftig(t)e ich mich intensiv mit den wissenschaftlichen, historischen sowie „sozialen“ Aspekten der Theoriefindung im Bereich der Theoretischen Grundlagenphysik. Daraus resultierten im wahrsten Sinne des Wortes maßgebende, phänomenologisch begründete, formal-analytisch einfachste Berechnungsmöglichkeiten für charakteristische mikro- und makroskopische Größen.

 

QED und QCD zum Protonenradius

Im Rahmen von quantenfeldtheoretischen Betrachtungen (Stichworte QFT...QM...QED) respektive im Rahmen des Standardmodells der Elementarteilchenphysik lässt sich der Protonenradius nicht berechnen. Was "dort" an vermeintlichen Berechnungsmöglichkeiten, übrigens auch zur Protonenmasse, in der Literatur zu finden ist, basiert - "verkürzt gesagt" - auf Gittereich(feld)theorie-Simulationen. Das sind rein iterative Verfahren, die nach sehr langen Rechenzeiten mittels Cluster-Computersystemen selbstprophetisch bekannte Meßwerte im Ergebnis grob "simulieren".  

 

Vorweg, vorausschauend „am Rande bemerkt“...

Lange kämpften die Physiker, die in Elektron-Proton-Streuexperimenten einen um ~ 4% größeren Protonenradius vermeintlich meßtechnisch ermittelt hatten, gegen das »Team Randolf Pohl & Co«, die wiederholt den kleineren Protonenradius am myonischen Wasserstoff und später auch am regulären Wasserstoff bestätigt gemessen hatten.

 

Es stellte sich heraus, das die »Kämpfer auf verlorenen Posten« lange Zeit ignorierten, das der Meßfehler in ihren Streuexperimenten so groß war, dass der kleinere Protonenradius-Meßwert bereits darin enthalten war.

 

Elementarkörpertheorie (EKT) exakt berechneter Radius des Protons in fm

Diese kleine Versuchs-Interpretationsgeschichte ist ein Wink mit dem Zaunpfahl, wie später wiederholt aufgezeigt wird, dass einmal etablierte Versuchsinterpretationen nur ungern von den Standardmodellprotagonisten revidiert werden.[EPM]

_______________________________________________________

[EPM] Explizit bemerkt: Bringt man ältere Messungen der Elektron-Proton-Streuung konkret  ins “Spiel”, so wurden bereits 1997 Protonenradius-Werte (»dispersion fit«, 1996, … high energy part 0.832(12) fm, page 14…) „diskutiert“, die mit den spektroskopisch ermittelten Werten für myonischen und regulären Wasserstoff gut übereinstimmen. Auch bzw. bereits Robert Hofstadter ermittelte 1958(!) einen mit der Elementarkörpertheorie "verträglichen" Wert des Protonenradius, …Electron-Proton-Scattering   Hofstadter et al 1958   rp = 0,80 +/- 0,04 fm

_______________________________________________________

 

Geschichtliches zum Protonenmasse inhärenten Protonenradius

Es gab eine (vermutlich wenig beachtete) Bemerkung von Wolfgang Finkelnburg aus dem Jahre 1947 mit der Überschrift „Über das Maß von Kernentfernungen und eine merkwürdige Beziehung zwischen den Grundkonstanten der Physik“ siehe: Finkelnburg 1947 Hinweis

 

Eine Bemerkung von Prof. Dürr über die fundamentale Natur des Protons

Was dafür spricht, dass das Proton tatsächlich fundamental ist, ist eine spezielle Koinzidenz, auf die der Physiker Hans-Peter Dürr in seinem Aufsatz  »Neuere Entwicklungen in der Hochenergiephysik – das Ende des Reduktionismus? (1986)« aufmerksam gemacht hat. Er weist daraufhin, dass die Vorstellung einer Teilchenunterstruktur mit Erreichen einer charakteristischen Schranke versagt.

Diese charakteristische Schranke ergibt sich aus dem Verhältnis zwischen dem Planck’schen Wirkungsquantum und der Lichtgeschwindigkeit. Die sich daraus ergebende Größe hat die Dimension einer Masse mal einer Länge. Dürr zufolge versagt für Systeme, für die das Produkt aus ihrer Masse m und ihrer Größe R diese Maßzahl unterschreitet, die Vorstellung einer Teilchenstruktur: mR  << h/c » 10-37 g cm.

Wie Dürr betont, ist dies zum ersten Mal der Fall bei einem Proton, denn mit dem Proton ist gerade diese Grenze erreicht: R » 10-13 cm, m = 1.7 x 10-24g, woraus sich für mR » 10-37 g cm ergibt.

Dürr nimmt diese auffällige Koinzidenz zum Anlass, das Quark-Modell zu kritisieren. Es kommt ihm, wie er betont, reichlich merkwürdig vor, dass sich  die Natur,  um unserem Teilchenbild entgegenzukommen, auf ihren tieferen Ebenen in eine so spezielle Dynamik wie die Quantenchromodynamik flüchtet. Es erscheint ihm viel überzeugender, dass die Quarkstruktur wie auch eine Subquarkstruktur nur die Funktion einer effektiven Beschreibung im Sinne der Quasiteilchensprache der Mehrkörperphysik hat.

Quelle: DürrHans-Peter, Neuere Entwicklungen in der Hochenergiephysik – das Ende des Reduktionismus? in: Selbstorganisation – Die Entstehung von Ordnung in Natur und Gesellschaft, (hrsg. Andreas Dress, Hubert Hendrichs und Günter Küppers, München 1986, S. 15 – 34)

Hans-Peter Dürr (1929 - 2014) war u.a. Mitarbeiter von Werner Heisenberg und Direktor des Max Planck Institutes für Physik bis 1997.

 

Weiterführend

Michaele Suisse und Peter Cameron schreiben in Quantum Interpretation of the Proton Anomalous Magnetic Moment interessanterweise folgendes …

Die Rolle des anomalen Moments in der geometrischen Clifford-Algebra der topologischen Massenerzeugung des Protons legt nahe, dass die Anomalie keine intrinsische Eigenschaft des Protons im freien Raum ist, sondern vielmehr ein topologischer Effekt der Anwendung des elektromagnetischen Vorspannungsfeldes, das zur Definition der durch die Messung des magnetischen Moments ermittelten Eigenzustände erforderlich ist.“ [Februar 2017]

Der, im Vergleich zu der Elementarkörpertheorie, grundverschiedene Ansatz von Michaele Suisse und Peter Cameron kommt (also auch) zu dem Ergebnis, dass das magnetische Moment des Protons nicht intrinsisch ist. 

Das ist extrem bemerkenswert. Denn, wie noch ausführlich dargelegt wird, kollabiert im Rahmen der Elementarkörpertheorie der Standardmodellansatz Quarks basierender Protonen gemäß dem Prinzip der Parsimonie. Das anomale magnetische Moment des Protons läßt sich Masse-Radius gekoppelt einfachst berechnen.

 

 

Was mich seit Wiedereintritt in das Erkenntnis-Gebäude der Theoretischen Grundlagenphysik, beginnend Februar 2012, wirklich "aufgehalten hat" und nach wie vor, immer wieder punktuell, sehr zeitraubend ist, war herauszufinden bzw. ist herauszufinden, wieso die Protagonisten und Verkünder der Standardmodellphysik all diesen offensichtlich widersprüchlichen Konzepten folgten und folgen, die Beliebigkeit und Nichtnachweis zur "Norm" erklär(t)en. Es drängt(e) sich der Verdacht auf, dass insbesondere die Protagonisten der jüngsten Generation von Theoretischen Standardmodellphysikern ausschließlich im praktizierten (mathematisch-abstrakten) Formalismus verankert sind. Um jedoch die vielfältigen Zusammenhänge durchschauen und verstehen zu können, bedarf es u.a. beträchtlicher historischer Kenntnisse. Diese gehören jedoch seit mehreren Jahrzehnten nicht zur Schul- und Universitätsausbildung von Physikern und Mathematikern. Zentrale Fragen einfacher Anschauung werden also weder in einem historischen Kontext erörtert noch im Rahmen der herrschenden mathematischen Modelle adressiert.

 

Ein Vergleich

Denkmodellchemie und Denkmodellphysik

Erst einmal, gemäß meiner eigenen, authentischen Erfahrungen und Beobachtungen sind universitäre, praktische Veranstaltungen im Bereich Chemie nicht mit einer betrieblichen Ausbildung und nicht mit einem betrieblichen Alltag zu vergleichen. Sowohl für den Physik- als auch für den Chemie-Sektor gilt, dass die meisten Lehrer und viele akademisch Ausgebildete, wie auch Ärzte, in ihrem Berufsalltag keine Forscher sind. Angewandte Physik ist ähnlich wie Chemie. Der Versuch macht klug. Der Unterschied zwischen Chemie und Physik besteht darin, dass in der Chemie selbst der Erfolg der Theoretischen Chemie meist praktisch-konstruktiv ist, da Anwendungen folgen (Verfahrenstechnik, Produkte). In der Theoretischen Grundlagen-Physik (insbesondere Standardmodell der Kosmologie [ΛCDM-Modell] und Standardmodell der Elementarteilchenphysik [SM]) gibt es keine Anwendungen. Theoriefindung und Theorieerweiterung bleiben reine Spekulation.

Die Didaktik der Chemie sehe ich in der Oberstufe oder im Grundstudium als wenig problematisch an, da die vermittelten „einfachen“ Modelle praktisch gesehen zu guten Näherungen führen. In der Physik sieht das anders aus. Dort werden bereits (Ober-)Schülern vereinfachte Konzepte und Theorieelemente „verkauft“, die bei genauer Sicht philosophischen und nicht physikalischen Denkmodellen entspringen. Letztendlich definiert sich die Theoretische Physik durch den Glauben an eine gestalterische Mathematik und postulierten nicht direkt nachweisbaren Theorieobjekten und Wechselwirkungen, sowie einer großen Anzahl freier Parameter. Und wie gesagt, das ist nur möglich, weil keine Anwendungen folgen (müssen). Für die Wissensvermittlung werden Lehrer und Hochschul-Dozenten im Rahmen der gängigen Standardmodelle „gezwungen“ (sein), diese auch zu vermitteln. Persönliche Ansichten sind sozusagen „lehrbehördlich“ nicht gewünscht, wenn diese signifikant von der gängigen Methode oder/und von etablierten Denkmodellen abweichen.

 

 

«Interdisziplinäres Umfeld»

Angewandte Soziologie statt wissenschaftlicher Argumentation

Wer einigermaßen neutral die Geschichte der Elementarteilchenphysik “studiert”, wird kaum glauben können, dass es sich um naturwissenschaftliche Betrachtungen und Bemühungen im Sinne einer zielführenden Vereinfachung und Vereinheitlichung handelt. Immer dann, wenn die Experimentalphysik die Theorie(n) widerlegte, wurde die Theorie mittels neuer Elementarteilchen, erneuter Substrukturierung und, wenn nötig, neuer Quantenzahlen erweitert, die die fehlenden Eigenschaften, die fehlende Energie oder die fehlende Symmetrie “erledigten”. Das hat mit Wissenschaft wenig zu tun und erinnert mehr an (zeitgenössische) Politik. Statt die Probleme mit einem neuen radikalen (Theorie-)Ansatz zu bewältigen, werden kleine und große Schönheitskorrekturen kontinuierlich durchgeführt. Statt zu vereinfachen und zu vereinheitlichen wird “gnadenlos” erweitert und “spezialisiert”. Es entsteht ein Sammelsurium von Teilchen(eigenschaften). Plakativ formuliert: Für jeden Fall einer unerwünschten Abweichung, für jedes Teilchen, etc. werden bei Bedarf theorieerhaltende Sonderregelungen nachgelegt. Der mathematische Formalismus ist in diesem Fantasieprozess das kleinste Problem. Nötigenfalls werden divergente Terme regularisiert und renormalisiert oder gleich als “unphysikalisch” deklariert, schlicht “weggelassen”. Das damit die axiomatische Grundstruktur zerstört wird, scheint entweder nur Wenigen klar zu sein bzw. ist offensichtlich dem Gros der Theoretiker ergebnisorientiert egal.

Inhalts-analytisch folgt daraus die Tatsache, dass die "großen" Standardmodelle der Physik sprich das Standardmodell der Elementarteilchenphysik (SM) und (wie später ausführlich erörtert wird) das Standardmodell der Kosmologie (ΛCDM-Modell), sowie vermeintlich konkurrierende Modelle (Stringtheorien) und die gewünschte SM-"Erweiterung" SUSY (Supersymmetrie) bei genauer Sicht keinerlei rational logischer Kritik standhalten, wie noch ausführlich, im Rahmen der vorliegenden Standardmodell-Bestandsaufnahmen an zahlreichen Beispielen, argumentativ begründet nachgewiesen wird.

Einzig das »soziologisch erprobte Argument«, dass sich doch nicht zehntausende mathematisch hervorragend ausgebildete Wissenschaftler, über mittlerweile mehrere Generationen, mit Modellen beschäftigen, wenn diese auf Grund immenser innerer Widersprüche bedeutungslos wären, wird „argumentativ“ zum finalen Schlag ins Felde geführt. 

Da diese Standardmodelle das wissenschaftlich und populärwissenschaftlich propagierte Non plus ultra der Theoretischen Denkmodell-Physik sind, brauchen wir uns nicht zu wundern, dass wir seit Jahrzehnten tief in einem "erkenntnistheoretischen (Schwarzen) Loch" sitzen. Wie egozentrisch, arrogant, dekadent, sinnfrei und folgenlos widersprüchlich die »Protagonisten des Standards« in ihren Arbeiten mit Apologeten, Fans, Kritikern und sich selbst umgehen, haben sie eindrucksvoll mit folgender »Erkenntnis-Pathologie« bewiesen: 2013 gab es einen Nobelpreis für den "Higgs-Machanismus" der masselose Neutrinos fordert.  2015 gab es einen Nobelpreis für den (angeblichen) Nachweis von Neutrino-Oszillationen, die Neutrinomassen benötigen.

Zum Verständnis: Im Rahmen des Standardmodells gehören Neutrinos zu den Leptonen und sind als exakt masselose Fermionen definiert. Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben

In Anbetracht der dokumentierten, mit dem Nobelpreis gewürdigtenSchizophrenie wäre es u.a. keine schlechte Idee, die »Macher« und »Entscheider« psychologisch, psychiatrisch, neurologisch untersuchen zu lassen.

 

Warum nehmen Menschen generell solch' widersprüchlichen Schwachsinn hin?

Heutiges hysterisches, getriggertes Denken, Wünschen und Handeln der Massen ist nicht neu: Der Psychologe Solomon Asch (1907 - 1996) bemerkte aufgrund seiner Versuche, „Für die meisten Menschen hat die Anpassung an das, was andere sagen und tun – egal wie objektiv falsch oder absurd es ist –Vorrang vor der Anpassung an die Realität und der Entdeckung der Wahrheit.“

Wesenszüge der Masse nach Gustave Le Bon (1841 - 1931):

Eine Masse ist grundsätzlich impulsiv, beweglich, irritierbar, suggestibel, leichtgläubig, besessen von schlichten Ideen, intolerant und diktatorisch. Der Geist der Massen ist konservativ („Konservativismus der Masse“). Leichtgläubig gegenüber alten, skeptisch gegenüber neuen Ideen und Idealen. Es existiert eine spezifische »Religiosität der Massen«, die die Religiosität einzelner Individuen außerhalb der Masse bei weitem übertrifft. Das Individuum kann in der Masse in moralische Höhen aufsteigen oder in Tiefen hinabsinken (meist Letzteres). Es existiert eine allen Massenbestandteilen eigene „Massenseele“. Die Masse denkt nicht logisch, sondern in Bildern, die häufig durch einfache Sprachsymbolik hervorgerufen werden. Die Masse ist nur wenig kreativ und vermindert intelligent. Sie denkt einseitig grob und undifferenziert. Die Masse ist leicht erregbar, leichtgläubig und sprunghaft. Ihre Emotionalität ist schlicht.

Das hier bewusst inszenierte, extrem unwissenschaftliche und übergeordnet a-soziale Verhalten der Standardmodell-Protagonisten und "im Anschluss" der »servilen Verkünder populärwissenschaftlicher Publikationen«, des im Aussage-Ergebnis interdisziplinär leicht verstehbaren »Standardmodell-Widerspruch-Nonsens«, erinnert stark an die Bestandsaufnahme von Klaus Gebler:

…“Auf dem Gipfel der Macht und der Anerkennung werden Menschen plötzlich gesprächig, kokettieren mit ihren Tricks und kleinen Mogeleien, spötteln über Ethik und Moral und brüsten sich ihrer Fähigkeit, ein ganz spezielles persönliches Interesse mit Hilfe von Manipulation und geschickter Propaganda durchgesetzt zu haben. Manche Vermutung über das wahre Wesen eines erfolgreichen Menschen findet durch derart eitle Selbstenthüllung ihre Bestätigung, vermag aber keineswegs die Machtposition des Menschen zu erschüttern. Etabliert ist etabliert.“ Quelle: Als der Urknall Mode war  -  Erinnerungen an ein kurioses Weltmodell  -  Klaus Gebler 2005  ISBN 3-8334-3983-1

Wenn das alles noch nicht schlimm genug wäre, ...

kommen wir jetzt zur "Physik"

Higgs-BosonHiggs-Mechanismuswirtschaftliche Randbedingungen

zur Kenntnisnahme, zum Verständnis, zur Selbstanalyse

Es existiert bei genauer Betrachtung keine Prognoseleistung ausgehend von Peter Higgs (1929 – 2024) respektive ausgehend vom Higgs-Mechanismus (1964), weder axiomatisch noch real. Der experimentelle Nachweis des Higgs-Bosons (2012) ist indirekt und mehr als diskussionswürdig. Phänomenologisch unbegründete, mathematisch willkürliche Prozeduren liefern im Rahmen des “Higgs-Mechanismus” «Freie-Parameter-Gleichungen», die zu keinem konkreten Berechnungs-Ergebnis führen. Auf 10 Milliarden Fehlversuche kommt ein stark theoriebeladenes Ereignis, dass mittels postulierter Kaskadenereignisse in vorbezeichneten so genannten Zerfallskanälen als “Nachweis” postuliert wird.
 

Wirklich real war nur die monetäre Situation...

Massive wirtschaftliche Existenzängste waren die eigentliche Grundlage für einen notwendigen Higgs-Boson-Nachweis. Als im September 2008 der LargeHadronCollider (LHC, initiale Baukosten ~ 3 Milliarden Euro, übergeordnet CERN, Jahresbudget CERN 2000 ~ 650 Millionen Euro , Jahresbudget CERN 2013 ~ 1 Milliarde Euro) erstmals in Betrieb genommen wurde (…der übrigens wegen technischer Schwierigkeiten bereits nach 9 Tagen folgend für ein Jahr nicht in Betrieb war) existierte bereits eine sehr angespannte Situation, da dem Standardmodell der Teilchenphysik und noch mehr der experimentellen Seite nur ein Higgs-Boson-Nachweis helfen konnte, ansonsten würden beiden, da Higgs-Boson ergebnislos bezüglich der Nachweis-Erwartungen, sozusagen die - früher oder später - Lichter ausgehen“, genauer „die Lichter ausgepustet werden“. Das Higgs-Boson mußte her, koste es, was es wolle, sowohl theoretisch konstruiert als auch experimentell, sonst wären - früher oder später - die Forschungsgelder weitreichend gestrichen worden. Wie real die Gefahr des Verlustes der Forschungsgelder war, läßt sich im Rückblick "natürlich" nicht sagen, da es ja zum "Nachweis"[HBN] (es darf gelacht werden) kam.

[HBN] Es war von außen betrachtet - mit und ohne LHC-"Nachweis" - noch drastischer, surrealer und erkenntnistheoretisch, zu jedem Zeitpunkt, ein »Nonsensprojekt auf mathematisch hohem Niveau«. Denn...

Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten, liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität, in der Masse und Ausdehnung Fundamentaleigenschaften darstellen. Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung verletzt, zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch SM- postuliert Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% (!!!) ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung, sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen. Die einzig der herrschenden Physik bekannte direkte Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt nicht abbilden. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen. Die einzig der herrschenden Physik bekannte direkte Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt nicht abbilden.

Da geht noch was (!!!),...

Kommen wir zur Aussage, dass das Standardmodell keine theoretische Berechnung zur Masse des Higgs-Bosons "liefern" kann. Es existiert ein »paper« namens Higgs-mass predictions von Thomas Schücker, welches am 14.Dezember 2011, also ungefähr ein halbes Jahr vor der "Entdeckung" des Higgs-Bosons am LHC,  veröffentlicht wurde. In diesem »paper« stellt Schücker eine Sammlung von 96 Higgs-Massen-Berechnungen vor, welche erstaunlich viele "Abschätzungen" enthält, die sehr nah, mitunter "verdächtig nah", am "ermittelten" Massewert von mH(experimentell)  ~ 125 GeV/c² angesiedelt sind. Besonders auffällig und besonders bemerkenswert sind die Berechnungen von DEKahana und SHKahana, veröffentlicht im Dezember 1993 (!) Die brisante Erkenntnis, die sich aus den theoretischen Details ergibt, ist die, dass der Higgs-Mechanismus zur Berechnung nicht benötigt wird, zumal dieser keine Möglichkeit eröffnet, die Higgs-Masse zu berechnen. DEKahana und SHKahana berechnen nicht nur die Higgs-Masse 1993 (!) ohne freie Parameter, sie berechnen auch die Top-Quark-Masse präzise zwei Jahre vor dem experimentellen Nachweis, gleichfalls ohne freie Parameter.[KK]

[KK] Top and Higgs Masses in Dynamical Symmetry Breaking

David E. Kahana Center for Nuclear Research Kent State University Kent, OH 44242-0001 and Sidney H. Kahana Physics Department Brookhaven National Laboratory Upton, NY 11973    https://arxiv.org/pdf/hep-ph/9312316.pdf   21.Dec 1993

Abstract

A model for composite electroweak bosons is re-examined to establish approximate ranges for the initial predictions of the top and Higgs masses. Higher order corrections to this 4-fermion theory at a high mass scale where the theory is matched to the Standard Model have little effect, as do wide variations in this scale. However, including all one loop evolution and defining the masses self-consistently, at their respective poles, moves the top mass upward by some 10 GeV to near 175 GeV and the Higgs mass down by a similar amount to near 125 GeV.

..."4.Conclusions. In summary, one gets remarkably stable predictions for the top and Higgs masses and in a parameter free fashion. The only inputs were the experimentally known couplings and the W-mass. A characteristic prediction of this type of theory is mh < mt, so that the Higgs, which is practically a tt¯ condensate, is deeply bound. In view of the present dearth of events from the FNAL experiments with DØ and CDF, the above prediction for the top (near 175 GeV) may not be wholly wild. In light of the recent unfortunate developments at the SSC, the somewhat low prediction for the Higgs mass, near 125 GeV, may take considerably longer to test…

 

"Übrigens", die Kahana/Kahana-Berechnungsgrundlagen stammen aus dem Jahr 1961 von Y. Nambu and G. Jona-Lasinio, veröffentlicht in Physical Review Volume 122, Number 1 April 1. Quelle: Nambu Y and Jona-Lasinio G 1961 Phys. Rev. 122(1) 345–358 

Die Physiker D. E. Kahana und S. H. Kahana erkannten also spätestens 1993 (!) klar und deutlich, dass die theoretischen Berechnungsmöglichkeiten bereits in den veröffentlichten grundlegenden Ausführungen des Jahres 1961 (!), sozusagen mathematisch kodiert, vorlagen, also drei Jahre vor dem Higgs-Mechanismus-Geburtsjahr 1964.

 

Kannte Peter Higgs die präzisen Kahana-Kahana-Berechnungen?

Michael J. Tannenbaum macht in seinen Ausführungen Waiting for the W and the Higgs  dazu folgende Bemerkungen (Seiten 20 und 21):

…”At the 50th course of the ISSP from June 23–July 2,2012 [Zichichi 2012], there was an unusually large number of invited distinguished guests, such as Peter Higgs (Fig. 12) and Murray Gell-Mann, because it was also the 40th Anniversary of QCD. I presented a talk about “Highlights from BNL and RHIC” on Wednesday June 27; then something very interesting happened. In the question period after my talk, when I was asked about some theory calculation of the PHENIX data, I said that I didn’t discuss theory, I leave that to the theorists. I added that “I don’t even talk about the Higgs boson until I see one ...” (Strictly this was not true, as I did mention the Higgs boson because I doubted that it gives mass to fermions.) At dinner, I spoke to Peter Higgs and said that I hope he wasn’t offended by my statement—he wasn’t. Then he said, “You’re from Brookhaven, right. Make sure to tell Sid Kahana that he was right about the top quark 175 GeV and the Higgs boson 125 GeV” [Kahana and Kahana 1993].”…

Dass weder Peter Higgs noch irgendein Standardmodell-Vertreter auf die bemerkenswerten Arbeiten von D. E. Kahana und S. H. Kahana öffentlich hinwiesen und diese auch populärwissenschaftlichen Magazinen offensichtlich „unbekannt sind“, obwohl diese in Fachkreisen bekannt sein mussten, dokumentiert die Brisanz der exakten theoretischen Voraussagen aus dem Jahr 1993.

 

Spätestens seit der Higgs-Boson-"Entdeckung" sind die Kahana/Kahana-Arbeiten zum Higgs-Boson und zur Top-Quark-Masse "retrospektivisch" im Rahmen des SM als außergewöhnlich zu bezeichnen. Aber warum gibt es keine adäquate Erwähnung oder gar den Nobelpreis für diese Theorieleistungen?

Ein "Problem", welches aus den präzisen Kahana-Kahana-Berechnungen folgt, ist, dass man sich den immensen theoretischen und experimentellen Aufwand spätestens von 1993 bis heute hätte sparen können. Mit Verweis auf  Nambu Y and Jona-Lasinio G 1961 Phys. Rev. 122(1) 345–358  war das gesamte SM-Projekt bereits Anfang der 1960er Jahre im Ansatz erkenntnistheoretisch "mittels" methodischer Zirkelschlüsse abgeschlossen. 

Wir "reden" hier von mehreren Zehntausend Wissenschaftlern, deren materiellen Verdienst, deren Kapazitätsverschwendung und zweistelligen Milliardenbeträgen für alle möglichen Beschleuniger und deren Betrieb. Wir "reden physikalisch" von der uns bekannten naturphilosophischen Erkenntniskatastrophe schlechthin. Oder?

Wie noch im Detail ausgeführt wird, sind die Quantenmechanik (QM, daraus resultierend die Quantenelektrodynamik (QED) zusammen mit der Quantenchromodynamik (QCD) von Tag eins an, »axiomatisch formulierte Totgeburten«, sowie das Kosmologische Standardmodell.

 

Nicht bekannte dokumentierte Wahrheiten

Was kaum realisiert wird, da es populärwissenschaftlich nicht kommuniziert wird, ist die Tatsache, das sich nahezu alle Quantenmechanik-Konstrukteure von dieser im Nachhinein distanzierten.

Schrödinger-Gleichung

Exemplarisch drei QM-Heroen "im Nachgang"

Der QM-Mitbegründer Erwin Schrödinger (1887 - 1961) bemerkte rückblickend: „Ich wende mich nicht gegen ein paar spezielle Aussagen der heutigen Quantenphysik (1950er Jahre), ich wende mich sozusagen gegen die gesamte Quantenphysik, ich wende mich gegen ihre grundlegenden Ansichten, die vor 25 Jahren geprägt wurden, als Max Born seine Wahrscheinlichkeitsinterpretation vorlegte, die von fast allen akzeptiert wurde.“  ...Hätte ich gewusst, dass wir diesen verdammten Quantensprung nicht loswerden, hätte ich mich nie auf dieses Geschäft eingelassen! Quelle: »Dr Faustus of Modern Physics«

Der Mathematiker, John von Neumann (geb. Neumann János 1903 - 1957) publizierte 1932 sein opus magnum über die Mathematischen Grundlagen der Quantenmechanik. Das Datum der Publikation dieses Buchs hielt Carl-Friedrich von Weizsäcker für den Beginn der „Machtübernahme“ der Mathematik in der theoretischen Physik. Doch schon vor diesem Datum befielen von Neumann Zweifel an seiner Theorie. Dann im Jahr 1935 wies er nach, dass jede Theorie der Quantenmechanik, die auf dem »Hilbertraum« als Bezugsbasis entwickelt wird, physikalisch inakzeptabel ist. Jeden klaren Kommentar in der Öffentlichkeit darüber vermied er sein Leben lang, obwohl er zusammen mit F. J. Murray in einer Serie von mathematisch höchst innovativen Publikationen zur Algebra (Von-Neumann-Algebren) nachwies, wie eine zutreffende Fassung der Quantenmechanik zu gestalten sei.

Im wahrlich umfangreichen Bestand an Publikationen zur Quantentheorie findet man zu von Neumanns Dilemma kaum eine substantielle Notiz. Erst 44 Jahre nach seinem Tod im Jahr 1957 kann die Fachöffentlichkeit aus mehreren privaten Äußerungen erfahren, warum von Neumann niemals sein berühmtes Buch von 1932 widerrufen oder zurückgezogen hat. Das Motiv war einfach: Seine »Falsifikation« hätte niemand der Fachkollegen ernst genommen, da der »Hilbertraum« weltweit längst zum Grundbestand der Quantentheorie gehört. Aber auch gravierende thermodynamische Einwände spielten eine Rolle, mit denen sich außer von Neumann keiner der großen Quantenheroen in ihren Lehrbüchern befasste."... Quelle: Nichtmechanistische Darstellung der physikalischen Disziplinen als mathematische Systemtheorie   Vilmos Balogh
 

Interessanterweise war es Albert Einstein (1879 - 1955), der die Quantenmechanik "schon früh" - nachvollziehbar argumentativ begründet - als unbrauchbar identifizierte:

..."die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wäre. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne. Die statistische Theorie würde - im Fall des Gelingens solcher Bemühungen - im Rahmen der zukünftigen Physik eine einigermaßen analoge Stellung einnehmen wie die statistische Mechanik im Rahmen der klassischen Mechanik."... A. Einstein, Qut of my later years. Phil Lib. New York 1950  Seite 498

Einsteins unschlagbare Argumente wurden und werden bis heute "schlicht" ignoriert. Einsteins kritische Äußerungen, insbesondere zur Quantenmechanik, führten letztendlich zu seiner Isolation. Er war zwar später ein "Medienstar" aber wissenschaftlich ohne weitere Bedeutung.

Claes Johnson (Professor für Angewandte Mathematik) beschreibt das in seinem Buch »Dr Faustus of Modern Physics« u.a. wie folgt,

"Einstein: Die Ikone der modernen Physik

Die Beziehung zwischen der modernen Physik und Albert Einstein kann wie folgt zusammengefasst werden: Einstein initiierte die Entwicklung der modernen Physik als (inkompatible) Kombination von Quantenmechanik und Relativitätstheorie, als Patentangestellter im Alter von 25 Jahren. Die Physik-Community nutzte Einstein als Ikone der modernen Physik und beurteilte ihn im Alter von 45 Jahren senil zu sein und nicht verstehen zu können, welche Aladdin-Lampe er berührt hatte. Dies ist eine klassische griechische Tragödie, deren Erfolg untrennbar mit dem Scheitern verbunden ist und deren Scheitern letztendlich das Spiel ausmacht. Es ist eine wahre Geschichte über einen Doktor Faustus, der seine junge Seele an Luzifer den Teufel verkauft, um Zugang zur Magie der Wissenschaft zu erhalten, und den Preis dafür zahlt, der Hölle bereits auf dieser Welt gegenüberzutreten, wenn die Wissenschaft, die er am meisten schätzt im Leben von ihm genommen wurde."

 

 

Apropos Neutrinos

Allgemeine Vorbetrachtungen

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess.

Auch für Neutrinos gilt: Es gibt keinen einzigen direkten Neutrinonachweis. Es handelt sich stets um stark theoriebeladene Versuchsergebnisinterpretationen.

Niels Bohr (1885 - 1962) äußerte bereits 1931 auf einer Konferenz in Rom die Ansicht, dass zum Verständnis des Betazerfalls nicht neue Teilchen, sondern ein ähnlich schwerwiegender Umsturz der bestehenden Vorstellungen nötig sei, wie bei der Quantenmechanik. Er zweifelte den Satz von der Energieerhaltung an, ohne jedoch einen konkreten Gegenvorschlag entwickelt zu haben.

Bohr war bereits früher davon ausgegangen, dass der Energieerhaltungssatz im Rahmen der sogenannten BKS-Theorie (nach den Namen von Niels Bohr, Hendrik Kramers und John Slater) des Welle-Teilchen-Dualismus nur statistische Gültigkeit besitzt (On the quantum theory of radiation by N. Bohr, H. A. Kramers, and J. C. Slater 1924). Zweifel an der Gültigkeit des Energieerhaltungssatzes hatte Bohr schon viel früher geäußert, z.B. in seinem Briefwechsel mit Charles Galton Darwin, einem Enkel des Biologen, aus dem Jahr 1919.

1931 organisierte Enrico Fermi (1901 - 1954) den ersten Internationalen Kongress für Kernphysik, der unter der Schirmherrschaft der Accademia d'Italia und der Volta-Stiftung vom 11. bis 17. Oktober 1931 in Rom stattfand.

Ich mache es an dieser Stelle kurz. Es gab nie Neutrinos. Es gibt keine Neutrinos. Warum das argumentativ nachvollziehbar so ist, wird noch ausführlich erörtert. Ein fundamentaler Aspekt, phänomenologisch im Rahmen der Masse-Raum Kopplung interdisziplinär verständlich, führt zu wesentlichen Konsequenzen, die allesamt bereits experimentell bestätigt wurden. Dies bedeutet (somit auch) eine fundamentale Erweiterung des Energieerhaltungssatzes, auch wenn sich Niels Bohr das so nicht vorgestellt hatte.   

 

Keine Gnade

Letztendlich könnte man sich tolerant zeigen und darauf hinweisen, dass ein Denkmodell eben nur ein Denkmodell ist. Mit der Konsequenz, das die Standardmodelle im Vergleich zur Elementarkörpertheorie, gemäß dem Prinzip der Parsimonie, zwar eindeutig verlieren, aber ihre Existenzberechtigung behalten (könn(t)en). Nun, was "soll ich sagen", nein, dem ist nicht so. Nicht weil ich das (emotional motiviert) nicht will, sondern weil es zahlreich argumentative Gründe gibt, die die Standardmodell-Postulate, derzeit 31(!) freie Parameter (25 SM, 6 ΛCDM)mehrere Dutzend postuliert essentielle Theorieobjekte]pet, assoziierte Verknüpfungszahlen (Quantenzahlen), diverse Substrukturierungs-Thesen, Confinement-These,…, deren postulierte Wechselwirkungs-Szenarien und die resultierenden Aussage-Ergebnisse der Standardmodelle als reine Versuchs-Märchen-Interpretationen identifizieren. 

]pet Zählt man die Teilchen nach einer Regel, die zwischen Teilchen und ihren entsprechenden Antiteilchen sowie zwischen den vielen Farbzuständen von Quarks und Gluonen unterscheidet, ergibt sich eine Gesamtzahl von 61 Elementarteilchen. Wenn Neutrinos ihre eigenen Antiteilchen sind, dann würde die Gesamtzahl der Elementarteilchen nach denselben Zählkonventionen 58 betragen.

Fazit: Es handelt sich bei dem SM und dem ΛCDM-Modell  um philosophisch-mathematische Modelle. Die Standardmodelle sind keine physikalischen Denkmodelle! Somit haben sie keine Modell-Daseinsberechtigung zur Beschreibung der physikalischen Welt, auch losgelöst von der Existenz der EKT.

 

Bevor ich mit den vergleichenden Denkmodell-Anatomie-Ausführungen beginne, möchte ich noch den Nobelpreisträger Burton Richter zu Wort kommen lassen, dem Niemand vorwerfen kann, er wäre ein Outsider des Standardmodells der Teilchenphysik.

Burton Richter: ein Pionier der Teilchenphysik und Nobelpreisträger schrieb 2006 u.a. „Für mich ist etwas, was heute für die am weitesten fortgeschrittene Theorie der Teilchenphysik giltnicht wirklich Wissenschaft. Als ich mich kürzlich mit drei angesehenen Theoretikern auf einem Podium befand, konnte ich der Gelegenheit nicht widerstehen zu diskutieren, was ich als Hauptproblem in der Philosophie hinter der Theorie sehe, die scheinbar in eine Art metaphysisches Wunderland übergegangen istVereinfacht gesagt, scheint es sich bei vielen der aktuellsten Theorien um theologische Spekulationen und um die Entwicklung von Modellen ohne überprüfbare Konsequenzen zu handeln…“ Quelle: Theory in particle physics: Theological speculation versus practical knowledge  Physics Today October 2006

 

 

 

Stell' Dir vor es geht!

in Anlehnung an das expressionistische Stirb & Werde Prinzip

Konsequenzen einer Masse-Raum gekoppelten fundamentalen Erweiterung des Energieerhaltungssatzes zur Kenntnisnahme, zur Selbstanalyse und zum Verstehen.                                        

 

 

Lesetechnisches

Auf Grund der Informationsfülle und notwendigen verständnisfördernden Lesbarkeit sowie der Abbildungsästhetik eignet sich zum Betrachten der vorliegenden Webseite(n) ein Tablet mit geeigneter Auflösung aber kein Smartphone. Die erste Wahl ist ein Computermonitor.

Randnotiz

(Generelle) Browserempfehlung

BRAVE ist ein freier, datenschutzfreundlicher Webbrowser, der auf der Grundlage des Chromium-Webbrowsers entwickelt wurde und automatisch die meisten Werbeanzeigen und Website-Tracker blockiert. Auch wenn das hier nicht notwendig ist, da keinerlei Werbung etc. im Rahmen der Webseite existiert.

 
 
 

Der vorliegende - interdisziplinär "eröffnete" - Inhalt ist primär für Menschen bestimmt, die ohne Schöntuerei und falsche Rücksichtnahme auf Bestehendes, Neues suchen und im Sinne der Aufklärung - gemäß des Prinzips der Parsimonie - Neues wünschen, dass sowohl die interdisziplinäre als auch die fachliche Qualität und Charakteristik für einen nachhaltigen Paradigmenwechsel in der »Denkmodellwelt der formalisierbaren Materiewechselwirkungen« besitzt.

 
 
 

"Natur lässt sich nicht formalisieren. Was sich formalisieren lässt, sind ausschließlich Denkmodelle zur Beschreibung der Natur."           Dirk Freyling

Freude an der Wirklichkeit

Auch wenn es sich hier um eine wissenschaftliche Betrachtung der Materie handelt, sollen ergänzend Humor und interdisziplinäre Verweise nicht zu kurz kommen. Die mathematisch-physikalischen Ausführungen sind bewusst mit künstlerischen Bild-Elementen ausgeschmückt, da es Spaß macht die Vitalität der Theorie respektive des alternativen Denkmodells zu illustrieren. Authentizität und Egozentrik des Theorievaters sollen und werden kein Geheimnis bleiben.

                        

[BASISSUCHE  AlexDirkFreyling 45ndf  Foto von T.B. ARTSTOFF Galerie Südturm]

Zeitreichtum ist in jedem Fall ein Muß. Leser die bereits Schwierigkeiten haben längere Online-Medien-Texte "gängiger" populärwissenschaftlicher Anbieter konzentriert und nachhaltig verstehend zu lesen, kommen mit diesem Handicap hier nicht weit.

 

Terminologie & Notation

Verwendung von Fachbegriffen

Vorliegende Ausführungen sind nicht nur für Themenvertraute geschrieben (worden). Das bedeutet u.a., dass Interessierte mit wenig "Fachwissen" unvermeidlich mit Begriffen konfrontiert werden, die nicht selten zum nachhaltigen Verstehen implizit eine ganze Schar von weiteren Informationen und Zusammenhängen beinhalten. Das ist unvermeidbar. Einige dieser Begriffe werden im direkten inhaltlichen Zusammenhang erklärt, andere nicht. Im Zweifelsfall sollte der erst einmal unverstandene Begriff "hingenommen werden".

»phänomenologisch begründet«

In den vorliegenden Ausführungen wird des Öfteren der Terminus »phänomenologisch begründet« verwendet. Was bedeutet das?

Im Gegensatz zu den vorherrschenden Standardmodellen der (Elementar-)Teilchenphysik (SM) und dem Kosmologischen Standardmodell (ΛCDM-Modell) ist das alternative Denkmodell (Elementarkörpertheorie, kurz EKT) mathematisch einfach und anschaulich. Die Modell-Gleichungen sind plausibel-geometrisch »sinnerfahrbar«. Was das im Detail bedeutet, ist Gegenstand aller folgenden Betrachtungen und resultierenden Berechnungen im Rahmen der EKT.

Didaktisches

Insgesamt betrachtet, werden im weiteren Verlauf, Schritt für Schritt, die phänomenologischen Zusammenhänge erklärt. Spätestens jedoch am Ende der Ausführungen wird für jede Herleitung, für jede Berechnung die Verknüpfung zu den ausführlichen Beschreibungen und Herleitungen angegeben. Nichts bleibt ungeklärt, nichts bleibt im Rahmen des Denkmodells unbewiesen.

Die einen oder anderen "frühen" Erklärungen respektive Ausführungen im Text, beispielsweise zur postulierten inflationären überlichtschnellen Expansion des Universums, gemäß dem Standardmodell der Kosmologie (ΛCDM-Modell) und vergleichend die Masse-Raum Kopplung als alternative Denkmodellgrundlage, sind insofern früh im Text erwähnenswert, um die willkürlichen Konstruktionen der Standardmodelle exemplarisch zu begreifen und im direkten Vergleich die Voraussagefähigkeit der wortwörtlich um Dimensionen einfacheren formalisierten Denkmodellalternative selbst testen zu können.

Inkonsistenzen und willküraffine Erweiterungen bezüglich der postulierten Theorieentitäten und deren Wechselwirkungen innerhalb der Standardmodelle werden sozusagen "portioniert" mit dem »Alternativmodell« verglichen.

Der Paradigmenwechsel

»information-abstract«

 

Informationen zum Präsentationsstand

Ich arbeite (in Buchstärke) an zusammenfassenden Ausführungen bezüglich des interdisziplinär (zumindest in Hinblick auf wesentliche Aussagen) verstehbaren konkreten Paradigmenwechsels im Bereich der Denkmodelle der Theoretischen Physik auf Grundlage der Elementarkörpertheorie (EKT). Diese zusammenfassende Ausarbeitung wird noch einige Zeit in Anspruch nehmen. Die hier vorliegende unfertige, frei verfügbare Version (sozusagen „on the fly“) als Webseite respektive Webseiten-Ensemble unterliegt einer dynamischen Überarbeitung, mit dem Ziel möglichst präzise vorzutragen. Testleser(innen) untersuchen derzeit die Präsentation u.a. auf Verständlichkeit, Konsistenz etc. Da die Erfahrung zeigt bzw. gezeigt hat, dass im Dialog mit Lesern, die eine oder andere Formulierung zum Verständnis hätte besser und genauer sein können.

Trotz der bereits großen Informationsfülle sind die fachlichen Ausführungen im Hinblick auf die Gesamtausführungen hier (im Sinne aller Phänomene und Wechselwirkungen sowie quantitativ) noch unvollständig. Die extensive Grundlage des Vortrags ist die Elementarkörpertheorie→, die alle Denkmodellaspekte eines Masse-Radius gekoppelten Raumes detailliert vorstellt. Es ist jedoch nicht empfehlenswert "hier und jetzt" sprich sofort mittels des angegebenen externen Links, aus Neugierde oder parallel zur Orientierung, dort nachzuschauen. Denn da wird noch viel mehr, als in den folgenden Denkmodellanatomie-Betrachtungen, die hier bereits umfangreich ausgeführt werden, Zeitreichtum, Geduld und Aufmerksamkeit gefordert.

Bezüglich der hier vorliegenden interdisziplinären Vorstellung bedeutet das: Die fachlichen Inhalte und Aussagen bleiben gemäß Modellvergleichen und den Charakteristika der Elementarkörpertheorie unverändert, da diese den verbindlichen Kern des Vortrags darstellen, was sich mitunter ändert, sind die Ausformulierungen sowie die Präsentations-Reihenfolge dieser. Insbesondere am Ende der hier vorgestellten Ausführungen zum Paradigmenwechsel sind Text-Fragmente, Grafiken, Gleichungen,... zur Zeit - hier und da - nur "lose arrangiert", "geparkt", unvollständig, teils redundant "aufgelistet".

Ein Inhaltsverzeichnis mit direkten Verknüpfungen zu den aufgeführten Inhalten folgt erst dann, wenn die Präsentation vollständig ist.

 

Was macht einen Paradigmenwechsel so schwierig?

Sofern die phänomenologisch-formalen Aspekte im Hinblick auf überprüfbare  Voraussagefähigkeiten gemäß dem »Prinzip der Parsimonie« deutlich für einen Denkmodellwechsel sprechen, sind es, realistisch betrachtet, ausschließlich "banale" wirtschafts-existentielle sowie psychologische Gründe, die einen Paradigmenwechsel verhindern.

i) Alle, die bisher als Protagonisten (Wissenschaftler, Dozenten, Techniker,..., Wissenschaftsberichter,...) auf Grundlage des bestehenden Denkens (herrschende »Denkdogmen«) ihr materielles Leben bestritten haben, verlieren ihre Arbeitsgrundlage sprich ihre wirtschaftliche Existenz. Des Weiteren ist der Reputations- respektive Ego-Schaden immens.

ii) Der »Prinzip der Parsimonie-Gewinner« schlägt (auch) alle kreativen Kritiker, deren Denkmodelle nun nicht mehr in Betracht kommen (können), aus dem Feld. Sie verlieren ihre Daseinsberechtigung. Das bedeutet das finale Aus für deren geistige Arbeit. Das führt u.a. zu erheblichen Ego-Kränkungen.

»Das Prinzip der Parsimonie kennt keine Koexistenz

Ausgangssituation

Trotz gegensätzlicher Anfangs-Positionierung wollen im Ergebnis weder die jetzigen »Denk-Dogmatiker« noch die Dogma kritischen »Alternativ-Denkmodell-Kreativen« einen Paradigmenwechsel.

Wer kann, will und/oder sollte sich also einen erfolgreichen, nachhaltigen Paradigmenwechsel, außer dem »Prinzip der Parsimonie-Gewinner«, wünschen?

iii) Auf den ersten Blick könnte man annehmen, das "so etwas" wie freudige, dankbare (insbesondere Fach-)Wissende existieren, die, gemäß ihrer eigenen Betrachtungen, ("schon lange") realisierten, welche immensen Widersprüche und brachiale Willkür den herrschenden Denkmodellen innewohnt. Diese sind jedoch höchstwahrscheinlich, bis auf sehr wenige Ausnahmen, von einer weit verbreiteten, antrainierten, etablierten "Menschlichkeit beseelt", die im Bereich der Theoretischen Denkmodellphysik konkret besagt, dass man sich - nach mehr als 100 Jahren »Moderner Theoretischer Physik« - schlicht nicht vorstellen kann, das diese im Kern fundamental - plakativ formuliert - denkmodell-falsch ist.

[Warum falsch? Kann ein Denkmodell überhaupt falsch sein?]

Die richtige Antwort befindet sich ausschließlich im Denkmodell. Ein Denkmodell ist dann falsch, wenn es im Rahmen der Denkmodellpostulate verwendeten Axiome nachweislich widersprüchlich ist.

Im analytischen Ergebnis sind, wie argumentativ aufgezeigt wird, das Standardmodell der Elementar-Teilchenphysik (SM) und das Standardmodell der Kosmologie (ΛColdDarkMatter Modell) falsch.

Bevor hier unnötig Mißverstände entstehen, ein Paradigmenwechsel, gemäß dem »Prinzip der Parsimonie«, ist losgelöst davon, ob Denkmodelle in sich widersprüchlich sind oder nicht, begründet. Vorliegend sind jedoch SM und ΛCDM-Modell auch (noch) falsch.

 

Wie kann, trotz der benannten schwierigen Randbedingungen, ein argumentativ begründeter Paradigmenwechsel von "außen" unterstützt werden?

Hier kommen »interdisziplinär Informierte« ins Spiel, die zwar (erst einmal) nicht wissen, was Aussagen wie beispielsweise...

"Das Standardmodell der Elementarteilchenphysik zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen."

bedeuten, aber sehr wohl sofort daraus realphysikalisch erfahrbare Konsequenzen verstehen, wie...

"Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten, liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität, in der Masse und Ausdehnung Fundamentaleigenschaften darstellen."

Aus diesem »Pool«, vom Paradigmenwechsel nicht (nachteilig) betroffenen »interdisziplinär Informierten«, kann, insbesondere wenn es sich um Wissenschaftler handelt, mittels Fachveröffentlichungen und allgemeiner, im Rahmen medial inszenierter Aufmerksamkeit, in populärwissenschaftlichen Magazinen, eine weitreichende Aufklärung erfolgen.    

 

Wie erklärt man das vollkommen Unerwartete?

Es existiert ein Informations-Dilemma. Einerseits macht es Sinn, formal-analytisch exakt, kurz und knapp die signifikanten Vorteile des Denkmodells der Masse-Raum Kopplung erst einmal - sozusagen aphoristisch - vorzustellen. Das geht jedoch zu Lasten des Verständnisses auf der Leserseite und läßt den Autor fragwürdig erscheinen, da für eine stringente, konsistente, formal sachgerechte Denkmodell-Vorstellung jeder Entwicklungsschritt, bis hin zum Formalismus, lückenlos aufgezeigt werden sollte. 

So oder so ist es für viele Interessierte eher schwierig, hinderlich bis abschreckend, wenn man mit etwas Neuem konfrontiert wird, aber die Hintergründe, Herleitungen etc. noch nicht kennt respektive (noch) nicht versteht. Andererseits sind zu lange Ausführungen, "bis man zum Punkt kommt", in denen es, im Sinne eines konsistent begründeten Paradigmenwechsels, richtig interessant wird, auch problematisch. Leser vermuten dann meist das aus den (Zeitgeist-)(Mainstream-)Medien "gut" bekannte "Um den heißen Brei reden", um am Ende festzustellen zu müssen, das es eigentlich doch nichts relevantes Neues gibt.

Hand aufs Herz, insgesamt kann sich eh kaum jemand vorstellen, das es nachhaltige, komplett andersartige Beschreibungsmöglichkeiten im Rahmen von Theoretischen Modellen geben kann, die, gemäß des Prinzips der Parsimonie, den etablierten Denkmodellen deutlich überlegen sind. Insbesondere kann sich niemand, allen voran Theoretische Physiker, vorstellen, das ein alternatives Denkmodell konsistent und skalenübergreifend zur langersehnten Vereinheitlichung führt und alle diesbezüglich relevanten Meßwerte in Form von mathematisch einfachen, formal-analytischen Gleichungen voraussagt. Sowas "hört sich" respektive liest sich wie ein Fantasie-Märchen. »Denkmodell-Neues«, insbesondere mit solchen unvorstellbaren Ankündigungen, wird in der Regel ungelesen ignoriert. 

Wie auch immer, was sich das Gros der Menschen nicht vorstellen konnte und vorstellen kann, ist für die Wissens-Besitzer dessen, offensichtlich inhaltlich ohne Belang. Es wird folgender »Informationsweg« zur Rezeption angeboten:

Sollten die hier - "früh im Text" - expliziten Gleichungen, insbesondere für Nicht-Mathematiker/Nicht-Physiker, irritieren oder den Leser zu sehr "strapazieren", so können diese erst einmal nur überflogen werden. Es folgen im Rahmen der weiteren extensiven interdisziplinären Ausführungen noch genügend Möglichkeiten diese anschaulich zu verstehen. Um "Neues" aufnehmen zu können ist hier eine gewisse »Informations-Redundanz« gewollt. Der eine oder andere Sachverhalt wird wiederholt erörtert.

Auch fachwissenschaftliche "Einschübe", fachwissenschaftliche Details die (erst einmal) kaum oder nicht verstehbar sind, sollten nur "kreativ überflogen" werden. Auch ohne ein tieferes Verständnis lassen sich aus den allgemein verständlichen Text-Fragmenten wissenschaftliche Kernaussagen erkennen. 

Was alle Leser in jedem Fall so früh wie möglich sehen und realisieren sollen, ist die Tatsache, dass ohne Übertreibung, ohne "Schöntuerei", das anschauliche Denkmodell der Masse-Raum Kopplung und der daraus resultierenden exakten Berechnungen - im Vergleich mit nur genäherten, stark freie Parameter lastigen Standardmodellgleichungen - mathematisch extrem einfachst, formal-analytisch exakt und experimentell bestätigt werden.

Ob und inwieweit (folgend) argumentativ begründete Bestandsaufnahmen in der Rezeption massentauglich sind, ist aus analytischer Sicht ohne Belang.

Mit diesen Randbedingungen beginnt die interdisziplinär verständliche Wissensreise hier und jetzt...  

 

                            

statt  4 Grundkräften    →   Masse - Raum - Kopplung

 

 

 

 

Umfang und Art der Ausführungen

Es existiert kein Anspruch auf Vollständigkeit. Übersteigerungen, plakative Aussagen und - hier und da - Satire, dienen der unterhaltsamen Wahrheitsfindung in einem, aus wissenschaftlicher Sicht, meist unwissenschaftlichen Umfeld. Diesbezügliche Textaussagen sollen als »Reflexionskeime« zum eigenständigen Nachdenken und Recherchieren anregen. Anders als ein Buch oder ein pdf-Dokument ist die vorliegende html-basierende Präsentation (quantitativ) in Buchstärke erst genannten deutlich überlegen. Quellenhinweise können durch Link-Klicks direkt gelesen und  deren Inhalte aufgenommen werden, es lassen sich zum Verständnis Videosequenzen einbauen, nachträgliche Text-Korrekturen und Informationserweiterungen sind technisch schnell und einfach durchzuführen.

Wiederholungen

Zum Kennenlernen werden einige Sachverhalte und Denkanstöße an verschiedenen Stellen bewusst wiederholt. Der Leser mag selbst entscheiden, ob er bereits Bekanntes nochmals liest. Die Texte sind so geschrieben, dass mit etwas Geduld auch weniger vorgebildete Leser einen roten Faden aufnehmen können. Sollte, an der einen oder anderen Stelle, ein Begriff nicht bekannt sein, oder ein Resultat nicht sofort verstanden werden, so empfiehlt es sich erst einmal weiter zu lesen. Denn im weiteren Kontext wird das eine oder andere Unverstandene bereits verständlich.

 

Wikipedia

"Parallel" Wikipedia zu bemühen ist leider nur für den groben Überblick zu empfehlen. Wikipedia-Moderatoren sind systemtreu. Kritik an Standardmodellen wird zensiert, es sei denn, diese kommt als harmloser Selbstversuch, direkt von den Standard-Modell-Protagonisten, die dann früher oder später Standardmodell freundliche Lösungen bzw. meist Theorie-Erweiterungen präsentieren. Darüber hinaus ist die deutsche Wikipedia im Vergleich zur englischsprachigen Wikipedia oftmals deutlich weniger umfangreich und deutlich weniger kontrovers, sofern man überhaupt von Kontroverse sprechen kann

 

Was ich nicht weiß, macht mich nicht heiß oder so ähnlich...

Hier und da werden Wikipedia-Ausführungen zur Inhalts- und Begriffsbestimmung im Text angegeben. Dies sind jedoch meist die englischen Varianten. Wie informationsreduziert - umgangssprachlich ohne Übertreibung grottenschlecht - deutsche Wikipedia-Artikel im Vergleich mit den englischen sind, verdeutlicht exemplarisch: Fermi's interaction im Vergleich zu Fermi-Wechselwirkung  

Auch das so genannte Hierarchie-Problem des Standardmodells wird in der deutschen Wikipedia im Vergleich zur englischen unzureichend erklärt.

Zum Verstehen, u.a. von Standard-Denkmodell-Unzulänglichkeiten gibt es zu extrem wichtigen Themen, nicht einmal eine deutsche Beschreibung, wie zur Physik jenseits des Standardmodells, siehe Physics beyond the Standard Model

Sofern es sich um kosmologische Inhalte handelt, sieht die Situation folgendermaßen aus... Vergleiche exemplarisch die deutschen und englischen Wikipedia-Ausführungen zur Raumzeit. Vergleiche die deutschen und englischen Ausführungen zum Minkowski-Raum. Und vergleiche die deutschen und englischen Ausführungen zur Lorentz-Transformation. Hier fällt auf, dass der „Laie“ mittels der deutschen Wikipedia im wahrsten Sinne des Wortes unzureichend informiert wird. Es ist kaum zu glauben, dass die »Galionsfiguren der Raumzeit«, der deutsche Albert Einstein und der deutsche Hermann Minkowski waren. Warum ist die deutsche Wikipedia „so schlecht“ im Verhältnis zur englischen? Das Englisch die Sprache der Wissenschaft ist, daran kann es nicht liegen, da die Idee von Wikipedia ja die Vermittlung von Information sein soll. „Brauchen“ deutschsprachige Interessierte keine ausreichende, themen-adäquate Information? Kein Wunder, wenn sich die Leute alles Mögliche zu diesen Themen „zusammenspinnen“, da ihnen nicht einmal die notwendigen Grundlagen von deutschen Wikipedia-Autoren vermittelt werden. 

Bei Personeninformationen kann man kaum glauben, dass es sich um ein und dieselbe Person handelt. Siehe hier stellvertretend Augustin Jean Fresnel (1788 – 1827), deutsch, englisch, französisch

 

 

 

Meinungen sind keine Argumente

Skepsis ist eigentlich eine gute "Sache". Aber, Skepsis wird dann zum Problem, wenn die Aufnahmefähigkeit des Betrachters dadurch signifikant gestört wird. Jemand der sich einem Denkmodell inhaltlich nähert und (wiederholt) die Frage stellt, ob das Denkmodell seinen eigenen bisherigen Vorstellungen entspricht oder anfängt selbst (ergänzend) zu spekulieren, bevor das Denkmodell hinreichend verstanden wurde, ist kaum in der Lage sich den neuen Gedanken mit der nötigen Aufmerksamkeit zu nähern. Die eigentlichen Probleme des Verstehens kommen dann, selbst bei einem leicht verständlichen Denkmodell mit wenig Mathematik, von der Egozentrik des Betrachters.

Das zu jeder Meinung Gegner und Befürworter existieren, ist nichts Neues. Aus wissenschaftlicher und erkenntnistheoretischer Sicht sind jedoch subjektive Meinungen über physikalische Zusammenhänge kategorisch abzulehnen, da letztendlich eine Realphysik orientierte Beschreibung stets in Einklang mit der Beobachtung stehen muß und eine Meinung mit dieser Wissens-Normforderung kohärent ist oder nicht.

Fatal wird es, wenn Betrachter Aussagen und Postulate bestehender Modelle als Grundlage der Bewertung des neuen Denkmodells "annehmen" respektive fordern. Nicht selten waren/sind die Betrachter gar nicht in der Lage die formalen Grundlagen und die Fülle an Inkonsistenzen bestehender Modelle zu erfassen. In der Regel sind dem Gros der Betrachter die Randbedingungen der bestehenden Modelle gar nicht (ausreichend) bekannt.

 

ein überfälliges Rendezvous mit ursächlicher Rationalität

 

Das folgend beschriebene alternative Denk-Modell (Elementarkörpertheorie, kurz EKT) basiert »plakativ-psychologisch« auf der Annahme, das deutlich einfachere, konsistente Materie-Beschreibungen und daraus resultierend einfache Formalisierungen existieren*, als in den Standardmodellen annonciert. Die folgende Bemerkung von Karl Popper (1902 - 1994) adressiert das psychologische Problem des  »modernen Wissenschaftlers« im Rahmen hochkomplexer, mathematischer Modellvorstellungen:

..." Unsere Untersuchung läßt erkennen, dass selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, dass das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei."

Karl Popper, Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4; The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959.

 

Denkmodell-Geschichte

Das Verständigungs- bzw. Interpretations-Problem aus Sicht der Standardphysiker begann bzw. beginnt - wie so oft - mit einem Realphysik befreiten Formalismus. Die beobachtbare Invarianz der (Vakuum-)Lichtgeschwindigkeit ist keineswegs "direkt" mit der Speziellen Relativitätstheorie (SRT) verbunden, wie suggeriert wird. Das historisch viel zitierte Michelson-Morley-Experiment ist eindimensional konzipiert und sagt gar nichts über Masse behaftete Teilchen im Sinne der herrschenden Physik aus und behandelt auch keine transversalen Komponenten. Die mathematische Invarianz der transversalen Komponenten ist lediglich eine formale Konsequenz der geradlinig gleichförmig bewegten Beobachter bezüglich kräftefreier Teilchen in einem mathematischen Denkmodell. Mit anderen Worten, dass gesamte Konstrukt der Lorentztransformation(en) ist an Inertialsysteme gebunden. Phänomenologisch sagt die SRT nichts über die Invarianz der Lichtgeschwindigkeit.

Bevor Mißverständnisse aufkommen, es wird nicht behauptet, das die Mathematik der Relativitätstheorie falsch ist. Wie könnte auch eine axiomatisch begründete These falsch sein? Doch das mathematische Konstrukt besitzt - außer der zu Grunde liegenden beobachtbaren Invarianz der [Vakuum-]Lichtgeschwindigkeit - keine realphysikalische Basis. Es existieren zwar Beobachtungen aber es existiert keine Phänomenologie zur Mathematik der SRT. Die Inertialsystem behaftete »Relativität der Beobachter« ist eine "heikle Sache", da es in der Natur nur dann zu messbaren Systemänderungen kommt, wenn Energie ausgetauscht wird. Energieaustausch bedeutet aber grundsätzlich, dass Beschleunigungen auftraten. Mit der Beschleunigung "verabschiedet" sich das Inertialsystem und folgerichtig gleichfalls die Lorentztransformation in ihrer ursprünglichen Form. Die Mathematik der SRT ist nicht falsch sondern schon "per Definition" nicht dynamisch.

Mit einfachen Worten: Es stellte sich mir schon 1986, während meines Physikgrundstudiums, die Frage, welche mathematische (Ur-)Gleichung den "relativistischen" Faktor der dynamisierten Lorentztransformation abbildet. Fakt ist: Losgelöst von konkreten Denkmodellansätzen sind Realobjektwechselwirkungen stets dynamisch. Da die SRT „inertialsystembelastet“ ist, musste zwingend für einen dynamischen Entwicklungsprozess v = const. durch v = dr/dt ersetzt werden. Das Auffinden der Funktion r(t) = r0 · sin(c · t/ r0) war somit einfach. Die später erdachte Elementarkörper(re)konstruktion bildet einen der Denk-Versuche ab, wie man sich geometrisch "etwas" vorstellen kann. Doch primär und in letzter Konsequenz, war das "einfache" Ersetzen der "unnatürlich" stets konstanten Geschwindigkeit durch eine variable Geschwindigkeit der Schlüssel zu einem komplett neuen Verständnis.     

 

* ...und bitte

Alles, was Sie über Physik wissen müssen, um zu beginnen...

Die zeitabhängigen Elementarkörper-Entwicklungs-Gleichungen leiten sich aus der beobachteten Invarianz der (Vakuum-)Lichtgeschwindigkeit ab. Ein formal fundamentaler Unterschied zur (Speziellen) Relativitätstheorie respektive zur Lorentztransformation ist der wechselwirkungsnotwendige radialsymmetrisch-dynamische Charakter dieser Gleichungen.

                     

                           

Für ein  anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine substrukturierte Zeit noch mathematische Raum-Zeit-Konstrukte notwendig.

Eine grundsätzliche, phänomenologisch begründete Elementarkörper basierende Denkmodell-Forderung besteht darin, dass möglichst minimalistische Gleichungen sowohl das masselose Photon als auch massebehaftete Materie abbilden.

 

Ruhemasse

Die Ruhemasse (invariante Masse) der Speziellen Relativitätstheorie (SRT) ist inhärent mit Inertialsystemen verbunden. Zur Begriffsdefinition: Eine Größe, die sich bei Lorentz-Transformationen nicht ändert, heißt Lorentz-Invariante. In der Speziellen Relativitätstheorie wird Masse (mSRT) so definiert, dass sie eine lorentzinvariante Größe ist.

Im Rahmen vorliegender näherungsfreier, phänomenologisch begründeter Elementarkörper wird der Begriff Ruhemasse (m0) verwendet, dieser ist jedoch von dem Begriff der Ruhemasse der Speziellen Relativitätstheorie (SRT) zu unterscheiden.

Die Ruhemasse entspricht dem voll ausgebildeten Elementarkörper (m(t) = m0, r(t) = r0). Die innere Dynamik und alle möglichen Elementarkörperwechselwirkungen sind inertialsystembefreit.

Aus Sicht der Realphysik orientierten Elementarkörpertheorie bleibt von der Relativitätstheorie nur der Lorentzfaktor γSRT als eindimensionaler, statischer Fall einer Elementarkörpertheorie basierenden allgemein gültigen Formulierung γdyn "übrig":

γSRT = 

inertialsystembehaftet, statisch und eindimensional

γdyn = 

inertialsystembefreit, radialsymmetrisch, dynamisch

 

Formalität als Realität

Gedanken von Claes Johnson (Professor für Angewandte Mathematik)

"Moderne theoretische Physiker wurden zu der Überzeugung erzogen, dass mathematische Formeln eine tiefe Wahrheit über die Realität offenbaren können, die weit über das Verständnis der Physiker hinausgeht, die die Formeln aufschreiben: Es handelt sich um eine Form der kabbalistischen Wissenschaft, bei der Zeichen auf einem Stück Papier eine tiefe Bedeutung erhalten. Dies wird durch die Lorentz-Transformation der speziellen Relativitätstheorie demonstriert, die eine einfache lineare Koordinatentransformation ist, von der angenommen wird, dass sie einige tiefe Wahrheiten über den Raum und die Zeit, in denen wir leben, offenbart. Wahrheiten, die so verblüffend, widersprüchlich und kontraintuitiv sind, dass eine endlose Anzahl von Büchern geschrieben wurde, um zu erklären, was die Bedeutung ist, ohne irgendetwas zu klären." Quelle: »Dr Faustus of Modern Physics«

 

 

 

Die Elementarkörper-Theorie stellt einen Energie erhaltenden fundamentalen Zusammenhang u.a. zwischen dem «Phänomen Bewegung» und dem «Phänomen Raum» her.

 

Die Essenz der Fourier-Analysis als elementarer Bildungsbaustein

"Reine" SINUS-Funktion

Das stetige „Analyse- und Synthese-System“ in Form der Fourier-Reihe respektive Fouriertransformation ist heute im Rahmen der "Modernen" Physik allgegenwärtig. Die Basis-Funktion ist die Sinusfunktion. Konsequent minimalistisch gedacht, ist es also nahe liegend, nicht die Fourier-Transformation als Methode der Fourier-Analysis als einfachste Abbildungsmöglichkeit zur Formalisierung zu Grunde zu legen, sondern minimalistisch die „reine“ Sinusfunktion selbst.

 

Die Tatsache, dass wir in sehr guter Näherung  in Korrespondenz zu einem Masse-Raum gekoppelten Mikrokosmos –  auf einer Kugeloberfläche leben, führt nicht zu einer dreidimensionalen Raumkrümmung oder gar zu einem mathematisch konstruierten Raum-Zeitkontinuum (Raumzeit).

Die Tatsache, dass elementare Strukturen initial aus oszillierenden Kugeloberflächen bestehen, führt gleichfalls nicht zu einem vierdimensionalen Konzept mit Vertauschungsmöglichkeiten von Raum und Zeit. Es kommt ganz im Gegenteil zu einer konstruktiven „Beschreibungsverarmung“. Die Isotropie führt zu einer 2-dimensionalen Plausibilität, die sich »formal-konstruktiv« auf Zeit und Radius „verarmt“.

Die Selbstverständlichkeit, dass die Wegstrecke auf einer Kugeloberfläche nicht der euklidischen Entfernung zwischen den Punkten A und B entspricht bedarf keiner Abstraktion. Die kürzeste Entfernung zweier Punkte auf einer Kugeloberfläche ist die so genannte Orthodrome (griechisch: orthos für gerade und dromos für Lauf).

Comptonwellenlänge

Energie-äquivalent wird die Energie des Masse-Radius gekoppelten Realobjektes "alternativ" durch die Comptonwellenlänge λC = ½π · r0 definiert. Somit ergibt sich die Comptonwellenlänge »objekt-natürlich«.

Die Frage, wie "(werte-)sicher" die mit den Comptonwellenlängen assoziierten (Ruhe-)Massen inhärenten (Ruhe-)Radien (r0(m0)) sind, ist "leicht" zu beantworten: Comptonwellenlängen sind (auch) Meßgrössen.  [CODATAC(Proton)  CODATAC(Elektron)]

Dieses Elementarkörpertheorie basierende fundamentale Wissen wird u.a. durch Meßergebnisse im Rahmen (differentieller) Streuquerschnitte elastischer und inelastischer Streuungen bestätigt und steht gleichzeitig in einem eklatanten Widerspruch zu den Aussagen der Elementarteilchenphysik.

 

 

Masse-Raum Kopplung

Erst einmal nur zur Kenntnisnahme, ohne "das" an dieser Stelle herzuleiten, gilt: Das Produkt aus der [Ruhe-]Masse m0 und dem [maximalen] Radius r0 eines «[Elementar-]Körpers» ist konstant und wird durch die Masse-Radius-Konstanten-Gleichung [F1] beschrieben.

 

"Am Rande bemerkt"...

Ist die Quantenmechanik unverständlich?

Eine weit verbreitete und gern geäußerte Schutzbehauptung besagt, dass die Quantenmechanik (QM) zwar unverständlich, irgendwie "seltsam" sei, aber wissenschaftlich betrachtet, sehr voraussagepräzise ist.

Das hat(te) für die »QM-Bewahrer« den Vorteil, das sich nahezu niemand aufgerufen fühlt(e), sich kritisch mit Annahmen und Aussagepostulaten der QM zu beschäftigen. 

Erst einmal, die Quantenmechanik ist aus mathematischer Sicht nicht "seltsam". Es gibt im großen »Spektrum der Mathematik« deutlich schwierigere, komplexere und vor allen Dingen deutlich abstraktere Themenfelder. Siehe beispielsweise »Differentialtopologie« und »Abstrakte Algebra«.

Mathematische Hintergründe, ursprünglicher Sinn und Zweck, willentlicher Verzicht auf Anschauung

Gemäß dem Satz von Weierstraß lassen sich „beliebige“ Kurven durch „Sinus-Kosinus-Funktions-Kombinationen“  zumindest abschnittsweise nähern. Wenn die Funktion in einen neuen (Teil-)Abschnitt wechselt, werden im Grenzübergang die einzelnen Abschnitte immer kürzer und "schrumpfen" schließlich auf Punkte zusammen. Die Funktion wird punktweise angenähert. In diesem Grenzfall ist wieder das ursprüngliche Bild der differenzierbaren Mannigfaltigkeit erreicht, in dem jetzt die Eigenbasis des Bewegungsraums die Bausteine aus den Sinus- und Kosinus-Funktionen sind. Ohne auf weitere mathematische Fragen einzugehen folgt, dass jede mathematische Funktion f(t) durch folgende Gleichung entwickelt werden kann (Fourier-Reihe):

 

Räume mit dieser Struktur werden als Hilbert-Räume bezeichnet. Im 20. Jahrhundert wurde dieser Ansatz erst in die Atomspektroskopie und dann allgemein in Quantenfeldtheorien eingeführt.

So wie ein Klang in dem Grundton x und die Obertöne 2x, 3x, 4x ... darstellbar ist, wird in der Quantenfeldtheorie der Zustand eines Teilchens (z.B. eines Elektrons) in einen Grundzustand x und höhere Zustände zerlegt. Am Anfang steht also die qualitative Zerlegung in Grundelemente, dann folgt für jedes Grundelement die Zerlegung in die „Obertonreihe“ (Fourier-Reihe). Insgesamt können nun Wahrscheinlichkeiten definiert respektive (interpretiert) gemessen werden, mit denen sich das Elektron in einem der möglichen Zustände befindet. Wenn man genauer hinschaut folgt hier die ganzzahlige Quantisierung banalerweise aus der mathematischen Darstellung. Der Formalismus ermöglicht nun die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie der Quantisierung auseinandersetzen zu müssen um Ergebnisse zu erhalten.

Kopenhagener Deutung von 1927

Im Zuge der Kopenhagener Interpretation der Quantenmechanik ist der Realitätsverlust methodisch und gewollt. Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen. Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier-Theorems es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab, den physikalischen Prozeß zu erkunden, Anschaulichkeit und Phänomenologie werden ausgeblendet.

Interessanterweise war es Albert Einstein (1879 - 1955), wie bereits erwähnt, der die Quantenmechanik "schon früh" - nachvollziehbar argumentativ begründet - als unbrauchbar identifizierte:

..."die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wäre. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne. Die statistische Theorie würde - im Fall des Gelingens solcher Bemühungen - im Rahmen der zukünftigen Physik eine einigermaßen analoge Stellung einnehmen wie die statistische Mechanik im Rahmen der klassischen Mechanik."... A. Einstein, Qut of my later years. Phil Lib. New York 1950  Seite 498

Einsteins unschlagbare Argumente wurden und werden bis heute "schlicht" ignoriert. Einsteins kritische Äußerungen, insbesondere zur Quantenmechanik, führten letztendlich zu seiner Isolation. Er war zwar später ein "Medienstar" aber wissenschaftlich ohne weitere Bedeutung.

Claes Johnson (Professor für Angewandte Mathematik) beschreibt das in seinem Buch »Dr Faustus of Modern Physics« u.a. wie folgt,

Und nochmals zur Erinnerung,…

der große Mathematiker, John von Neumann (geb. Neumann János 1903 - 1957) publizierte 1932 sein opus magnum über die Mathematischen Grundlagen der Quantenmechanik. Das Datum der Publikation dieses Buchs hielt Carl-Friedrich von Weizsäcker für den Beginn der „Machtübernahme“ der Mathematik in der theoretischen Physik. Doch schon vor diesem Datum befielen von Neumann Zweifel an seiner Theorie. Dann im Jahr 1935 wies er nach, dass jede Theorie der Quantenmechanik, die auf dem »Hilbertraum« als Bezugsbasis entwickelt wird, physikalisch inakzeptabel ist. Jeden klaren Kommentar in der Öffentlichkeit darüber vermied er sein Leben lang, obwohl er zusammen mit F. J. Murray in einer Serie von mathematisch höchst innovativen Publikationen zur Algebra (Von-Neumann-Algebren) nachwies, wie eine zutreffende Fassung der Quantenmechanik zu gestalten sei.

Im wahrlich umfangreichen Bestand an Publikationen zur Quantentheorie findet man zu von Neumanns Dilemma kaum eine substantielle Notiz. Erst 44 Jahre nach seinem Tod im Jahr 1957 kann die Fachöffentlichkeit aus mehreren privaten Äußerungen erfahren, warum von Neumann niemals sein berühmtes Buch von 1932 widerrufen oder zurückgezogen hat. Das Motiv war einfach: Seine »Falsifikation« hätte niemand der Fachkollegen ernst genommen, da z. B. der »Hilbertraum« weltweit längst zum Grundbestand der Quantentheorie gehört. Aber auch gravierende thermodynamische Einwände spielten eine Rolle, mit denen sich außer von Neumann keiner der großen Quantenheroen in ihren Lehrbüchern befasste."... Quelle: Nichtmechanistische Darstellung der physikalischen Disziplinen als mathematische Systemtheorie   Vilmos Balogh

 

Voraussagefähigkeit der Quantenmechanik

Die innerhalb der Quantenmechanik (QM) und daraus folgend innerhalb der Quantenfeldtheorien (QFTn) verwendete, teils neu definierte Mathematik (Stichworte: Störungstheorie, Regularisierung, Renormierung), ist phänomenologisch unbegründet. Sie ist formal(-axiomatisch) deutlich komplexer und schwieriger verständlich als die bloße Erkenntnis, dass beispielsweise Energie-Niveaus in Abhängigkeit der Hauptquantenzahl n mit 1/((n²-(n+1)²)) "quantisiert" sind, kommt aber über den Status einer Rechenvorschrift nicht hinaus. Zudem gibt es im Rahmen der Störungstheorie keine formal-analytischen Lösungen. Wenn also Quantenelektrodynamik (QED) basierend von einer hervorragenden Übereinstimmung von Theorie und Experiment berichtet wird, dann handelt es sich um gigantische Lösungssysteme, dessen iterative Ergebnisse den Meßwerten immer wieder angepasst wurden. Die einen sagen es nicht, die anderen durchschauen es nicht.

Tatsache ist: Die Berechnung von Grundzustandsenergien ist weder quantenmechanisch noch quantenelektrodynamisch begründet respektive nicht möglich, da ein signifikant maßgebender Anteil von dem Verhältnis der wechselwirkenden Massen bestimmt wird. Es gibt weder QM und schon gar nicht QED basierend die Möglichkeit die »reduzierte Masse mred = mA / (1 + mA/mB)« quantenfeld-phänomenologisch einzuführen. Der reduzierte Masseterm mred = mA / (1 + mA/mB) wirkt sich auf die energetischen Verhältnisse aus. Die reduzierte Masse ist – ob man es wahr haben will oder nicht – im Rahmen der Standardphysik historisch aus der Himmelsmechanik abgeleitet. Das bedeutet im Klartext, dass im Sinne atomarer Wechselwirkungen, diese weder QM noch QED begründet ist.

Reduzierte Masse

Folgt man dem Wikipedia-Eintrag zur »reduzierten Masse« wird der hier relevante energetische Aspekt nicht (nachvollziehbar) thematisiert. Dort beginnen die Ausführungen mit:

Die reduzierte Masse ist eine fiktive Masse, die unter bestimmten Voraussetzungen die Eigenschaften zweier Einzelmassen eines Systems repräsentiert….“ 

Energetisch handelt es sich bei der Berechnung der Grundzustandsenergie zweier wechselwirkender Körper jedoch um nichts Fiktives. Schon beim Wasserstoffatom ist die reduzierte Masse maßgebend relevant. Deutlicher wird der Massen-Wechselwirkungseffekt beim myonischen Wasserstoff, da dort anstelle der Elektronenmasse, die Myonmasse tritt.

Und auch hier zur Erinnerung ... der QM-Mitbegründer Erwin Schrödinger (1887 - 1961) bemerkte rückblickend: „Ich wende mich nicht gegen ein paar spezielle Aussagen der heutigen Quantenphysik (1950er Jahre), ich wende mich sozusagen gegen die gesamte Quantenphysik, ich wende mich gegen ihre grundlegenden Ansichten, die vor 25 Jahren geprägt wurden, als Max Born seine Wahrscheinlichkeitsinterpretation vorlegte, die von fast allen akzeptiert wurde.“  ...Hätte ich gewusst, dass wir diesen verdammten Quantensprung nicht loswerden, hätte ich mich nie auf dieses Geschäft eingelassen! Quelle: »Dr Faustus of Modern Physics«

 

 

Ladungsabhängige Materiebildungen

(Die) »Elektrische Ladung« ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse (und dem Radius) des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Elementarkörpertheorie basierend sind jedoch alle Ladungswechselwirkungen anschaulich auf Masse-Raum-Kopplungen zurückzuführen. Elektrische Ladungen im Elementarkörper-Denkmodell kommen als (formales) Resultat der Masse-Raum-Kopplung bequemerweise nur (implizit) über Funktionen der Sommerfeldschen Feinstrukturkonstanten α vor. 

 

Beispiel

Grundzustandsenergie des Wasserstoffatoms

Übrigens, die angegebene Genauigkeit der berechneten Grundzustandsenergie ee ist kein "Genauigkeits-Scherz", da die Berechnungs(un)genauigkeit hier nur von den Meßwerten für Protonen- und Elektronen-Masse sowie von α (Feinstrukturkonstante) abhängen. c ist exakt festgelegt. Diese Meßunsicherheiten bestimmen in der exakten obigen Gleichung die Angabengenauigkeit.

Und, ∆ee ist kein Schreibfehler, wie man suggestiv vermuten könnte, das die Indizierung die Wechselwirkungspartner (p, e) angibt. ee steht hier (jedoch) für die Art der Wechselwirkung. Es gibt, im Rahmen der Masse-Raum-Kopplung, noch die q0e und die q0q0-Materie-Wechselwirkungen, wie später erörtert wird.

 

Schon Isaac Newton (1642 - 1727) hielt die Vorstellung, dass Gravitation durch den leeren Raum wirken könne, (berechtigterweise) für absurd. Es ist - übergeordnet und insgesamt betrachtet - alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend einer phänomenologischen Betrachtung und Erklärung.

Plakativ formuliert lässt sich das jetzige Universum (der Kosmos) anschaulich im Rahmen der Masse-Raum Kopplung, in formaler Analogie zum Elementarkörper des Mikrokosmos, ohne erst einmal auf die "makroskopischen Feinheiten" einzugehen, als gigantischer, noch in der Entwicklungsphase, jedoch "kurz vor Ende der Expansion, befindlicher Elementarkörper betrachten und formal analytisch einfachst erfassen und berechnen. Jedoch im Vergleich respektive konträr zum Urknall-Standardmodell der Kosmologie u.a. ohne freie Parameter, ohne überlichtschnelle Inflationsphase und ohne Raumzeitkonstrukt.

 

Kosmos & Gravitation im Bild der Masse-Raum Kopplung

»abstract«

Die im "bekannten" Newtonschen Gravitationsgesetz verwendete Gravitationskonstante γG bezieht sich auf den (denkbar) "längen-kleinsten", "massereichsten" [Elementar-]Körper G {Elementarquant} (dieser entspricht im historischen Zusammenhang respektive historischen Vergleich (energetisch) zwei Plancklängen und inhärent damit assoziiert 2 Planck-Massen). Dieser Sachverhalt ist nicht offensichtlich, da das "üblich formulierte" Gravitationsgesetz diesen ursprünglichen Zusammenhang nicht explizit offenbart.

 

Randnotizen

Ernst Mach (1838 - 1916) bemerkte, dass die "Schwäche" der Gravitation mit der "enormen" Grösse des Universums in Zusammenhang steht. Er vermutete eine Relation zwischen Universums-Masse, Universums-Radius und Gravitationskonstante. Sir Arthur Stanley Eddington (1882 - 1944) erhielt das Verhältnis von Universums-Radius zu Universums-Masse indem er die Gravitationskonstante durch c² dividierte (...formal-gleich im Rahmen der hier beschriebenen Korrespondenz zwischen »Längen-Kleinstem« und »Längen-Größtem«). Und auch Erwin Schrödinger hatte dies als Möglichkeit bereits 1925 geäußert. Warum sich diese einfache Annahme nicht durchsetzte hat höchstwahrscheinlich mit der (später) favorisierten (inflationären) Urknalltheorie zu tun. Dort war/ist kein Platz für »(korrespondierend) Einfaches«.  

 

 

Makrokosmos

Bekannte makroskopische Objekte (...Billardkugel, Fußball, Erde, Sonne,...) genügen nicht der Masse-Radius-Konstantengleichung. Ihre reale Ausdehnung ist (schon vor der Wechselwirkung) um viele Zehnerpotenzen größer, als es Gleichung [F1] Masse-Radius gekoppelt für Elementarkörper fordert.

Ohne die konkrete Natur der Vielteilchen-Verschachtelung zu kennen, lässt sich allgemein anschaulich verstehen, dass die scheinbar, im Verhältnis zur Ruhe-Energie, fehlende Raum-Energie ER der Gravitationswechselwirkung, in der realphysikalischen Objekt-Ausdehnung steckt, welche durch den Objektradius rO bzw. durch den Wechselwirkungs-Abstand r (Wechselwirkungsradius) zum Massenschwerpunkt gegeben ist. Mit dieser experimentell bestätigten Denkmodell-Annahme ist eine an Einfachheit und Aussagekraft nicht zu überbietende Gravitationstheorie im Rahmen der Masse-Raum-Kopplung geboren (worden).

              

                                     

Raumenergie = 0

Vereinheitlichte Korrespondenz

Gibt man in die Gleichung [ER] für mx und r die Werte mG und rG ein, so wird die Raumenergie zu Null, gleiches folgt für mx= mUni(max): maximale Universumsmasse und rG= rUni(max) : maximaler Universumsradius. Hier kommt die Universalität und Skalenkorrespondenz zwischen dem kleinsten Elementar-Körper (Elementarquant G) und dem größten makroskopischen Gebilde (Kosmos), formal vermittelt durch die Gleichung [ER], deutlich zum Ausdruck.

                         

 

Resultierend einige kosmische Zusammenhänge und Berechnungsergebnisse

Wasserstoff ist mit Abstand die am häufigsten vorkommende Materieform des Universums. Wasserstoff macht ungefähr 90% der interstellaren Materie aus. Wie gezeigt wird, ist der im Universum omnipräsent vorhandene Wasserstoff u.a. die "Quelle" der 3K-Hintergrundstrahlung. Was könnte nahe liegender sein als die Alleinstellungsmerkmale des Wasserstoffatoms als Grundlage für die Verbindung zwischen dem »Längenkleinsten« und Universumsgrössen zu verwenden. Korrespondierend gedacht ist das Verhältnis von Protonenmasse zu Elektronenmasse (mp/me) ein maßsystemunabhängiger, einzigartiger Bildungsparameter. Eine Addition von »Längenkleinsten« und Universum macht keinen "beschreibenden" Sinn, weder phänomenologisch noch mathematisch, also kommt hier als "nächste einfache" mathematische Rechenoperation die Multiplikation in Betracht (rG  · rUni). Die »längen-charakteristische« Grösse ist die Wasserstoff-Atom basierende Rydberg-Energie und daraus der inhärente Radius der Rydberg-Energie-Verkörperung: rRy. Dimensionsanalytisch kommt in der kleinsten Potenz (rRy/2) in der 2.Potenz vor, damit dies (rG  · rUni) entspricht. Das Verhältnis (mp/me) beschreibt ein H-Atom, also folgt gemäß einfachster mathematischer Konstruktionsmöglichkeit : (rRy/2)² · (mp/me)²  =  (rG  · rUni)  [U1]. Die Grundgedanken, die zu der Gleichung [U1] führen, sind intuitiv-logisch. Jeder Folgegedanke ist - mit der strikten Vorgabe sowohl Realobjekt orientiert phänomenologisch als auch mathematisch minimalistisch zu sein - "zwingend".     

In der makroskopischen Masse-Raum gekoppelten Erweiterung läßt sich Gravitation anschaulich weitreichend konsistent formalisieren und führt zu analytisch exakten Berechnungen, wie beispielsweise zur Berechnung der (maximalen) Universums-Masse [mUni(max)  1,1829498·1053 kg muni(max) = runi(max) · (c²/γG) gemäß Forderung ER=0 ], der damit Masse-Raum gekoppelten inhärenten (maximalen) Größe des Universums : [rUni(max)  8,784775 ·1025 m]:

einem daraus assoziierten maximalen Universums-Alter von [tuni(max)   4,602881715·1017 [s]  ~ 14,596 Milliarden Jahre] gemäß r(t) = rUni · sin(c·t/rUni) folgt:  (π/2c) · rUni = tmax 

...und beispielsweise zur Berechnung der Temperatur der Hintergrundstrahlung, basierend auf den Masse-Raum gekoppelten Proton-Elektron-Wasserstoff-Wechselwirkungs-Parametern in Abhängigkeit der Grundzustandsenergie etc.  An dieser Stelle ergebnisorientiert (nur) so viel dazu:

Die Temperatur der "3K"-Hintergrundstrahlung beträgt, gemäß Masse-Raum Kopplung basierender Proton-Elektron-Grundzustandswechselwirkung, ausgedrückt durch die Thermische De-Broglie-Materiewelle ~ 2,67342 °K [Gleichungen: λTHE und λT], mit der Annahme, dass Wasserstoff 100 % der interstellaren Materie ausmacht. In Gleichung [λT] ausgedrückt mittels rRy (siehe Rydberg-Energie ERy (Grundzustandsenergie des H-Atoms).

 

Da jedoch kosmisch nur ~ 90% der Materie Wasserstoff basierend ist, ergibt sich hier eine reale Unsicherheit von 10%, die sich offensichtlich nicht beseitigen lässt, da der Kosmos nicht zu einem 100%igen Wasserstofflabor modifiziert werden kann.

Wie auch immer, der exakt berechnete (Wasserstoff basierende) Wert im Rahmen der EKT weicht nur um ca. 2% vom derzeitigen Wert des Kosmologischen Standardmodells mit  2,72548 ± 0.00057 K ab.

ABER: Alle Standardmodell-Ansichten zur Hintergrundstrahlung "kranken" bereits daran, dass, unberechtigter Weise, "im Kern" der theoretischen Annahmen und Berechnungen, davon ausgegangen wird, dass das Universum ein perfekter Hohlraumstrahler ist.

Historisches: Die Hintergrundstrahlung (CMBR) wurde zwar auch von der Urknall-Theorie vorhergesagt, aber wenig bekannt ist, dass die ersten Vorhersagen bei 50° K lagen und erst nachdem die Messwerte 1965 bekannt waren, wurde die Theorie "angepasst". Andere Wissenschaftler, die alternativ zur Urknall-These versuchten, die Theorie der Schwarzkörperstrahlung auf den Weltraum anzuwenden, errechneten Werte zwischen 0,75° K (Nernst 1938) und 6° K (Guillaume 1896).

»Vordergrundproblematik«

Bei allen Messungen zur Rotverschiebung und assoziierten 3-K-Hintergrundstrahlung sollte klar sein, dass der inhomogene Vordergrund in einem Simulationsmodell (Computerprogramm) "entfernt" werden muß, um das 3-K-Temperaturspektrum als solches aufzufinden. Nur wie soll das praktisch realisiert werden? Die Vordergrundsignale sind um einige Dimensionen größer als das zu messende "Ereignis" der Hintergrundstrahlung. Des Weiteren strahlen alle kosmischen Objekte auch im Infrarotbereich und die Intensitäten der Strahlquellen sind und bleiben geschätzt.

Fazit

Das Wasserstoff basierende EKT-Ergebnis resultiert phänomenologisch aus der Annahme, dass die Proton-Elektron-Wechselwirkung zu einem massegekoppelten Raum führt, der formal durch die Thermische De-Broglie-Materiewelle ausgedrückt wird. Die 3K-Hintergrundstrahlung respektive die Energie der 3K-Hintergrundstrahlung repräsentiert somit nicht ein expandierendes Raumzeit-Relikt des inflationären Urknalls, sondern das Ergebnis einer fortwährenden, statischen Wechselwirkung. Später mehr dazu.

 

Makro- & Mikrokosmos im (Teil-) »Aphoristischem Bild«

 

 

 

"Das Prinzip der Parsimonie kennt keine Koexistenz."

Dirk Freyling  59ndf

 

Wortgewordenes

Wir verfügen über keine allgemein anerkannte Wahrheitstheorie. Die Übereinstimmung von Aussage und Wirklichkeit kann nicht objektiv festgestellt werden. Dieser Sachverhalt wird insbesondere dann problematisch, wenn – wie im Fall der Standardmodelle - die Theorie bestimmt, was gemessen werden soll.

 

"Objektivität ist die Wahnvorstellung, Beobachtungen könnten ohne Beobachter gemacht werden." Heinz von Foerster ( 1911 – 2002)

 

Es existieren zahlreich paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Widersprüche, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe.

Daraus resultierende Vorteile aus Sicht eines ergebnisoffenen Erkenntnissuchenden: In einem motivierenden, konstruktiven Sinne enthalten die Standardmodelle so viele "Reflexionskeime" brachialer Inkonsistenzen und Widersprüche, dass es dem Konstrukteur eines Alternativmodells nie an (emotionaler) Energie fehlte bzw. fehlen wird. Da in den Denkmodellen der Quantenfeldtheorien (QED, QCD) und dem Kosmologischen Standardmodell keine Realphysik stattfindet, sind im Rahmen der Denkmodellalternative (Elementarkörpertheorie) phänomenologische Aspekte sozusagen aus der puren Notwendigkeit entstanden, erst zu denken und dann zu formulieren respektive zu formalisieren.

 

Form und Inhalt

Es gibt nicht wenige Stellvertreter der "Modernen Physik" die vorliegende gestalterische Wahl kategorisch ablehnen. Es wird eine wissenschaftliche Präsentation verlangt, so wie man sie kennt, ansonsten wird »Alles« ungesehen respektive ungelesen als unwissenschaftlich bewertet. Diese Norm-Forderung ist jedoch inhaltlich belanglos, wenn man den dazugehörigen, andauernden, weltweiten "Feldversuch" betrachtet. Denn, auch dann, wenn Prof. Dr. »x...y...z« der Physik oder/und Mathematik ein "normgestaltetes" Dokument (»scientific paper«) präsentiert, wird er, sofern seine  Denkmodellvorstellungen von den Standardmodellansichten signifikant abweichen, schlicht ignoriert, wie jeder Interessierte an zahlreichen Beispielen der "jüngeren" Wissenschaftsgeschichte selbst recherchieren kann.

Aus Sicht des neuen Denkmodells werden schon "früh" im Text teils umfangreiche ergänzende geschichtliche sowie vergleichende Ausführungen zu den bestehenden Standardmodellen zum Lesen angeboten. Diese sind für das Verständnis des Denkmodells der Masse-Raum Kopplung im Sinne der Konsistenz, Phänomenologie und Formalisierung nützlich, aber - plakativ formuliert - nicht zwingend. Da diese Ausführungen den Lesern jedoch einen guten Überblick über die Beliebigkeiten, Inkonsistenzen, Widersprüche und teils esoterisch-metaphysischen SpekulationenBR des bestehenden Denkens in der theoretischen Physik geben, empfehle ich diese weitestgehend zu lesen. Tatsache ist, den wenigsten Interessierten, nicht einmal Physikern und Mathematikern, sind die zahlreichen - rational analytisch betrachtet - Absurditäten der Standardmodelle bekannt. Entsprechende »Informationseinschübe der Aufklärung« sind mit gekennzeichnet.

 

erstes Beispiel

[BRWas denken Pioniere der Teilchenphysik über die „heutige“ Teilchenphysik respektive über das „heutige“ Standardmodell der Elementarteilchenphysik?

Wobei „heute“ hier etwas grob gefasst mit dem Beginn des 21.Jahrhunderts startet. Ein Statement des Physiknobelträgres des Jahres 1976 Burton Richter aus dem Jahre 2006 beinhaltet eine klare Antwort.  

Burton Richter: „Für mich ist etwas, was heute für die am weitesten fortgeschrittene Theorie der Teilchenphysik gilt, nicht wirklich Wissenschaft. Als ich mich kürzlich mit drei angesehenen Theoretikern auf einem Podium befand, konnte ich der Gelegenheit nicht widerstehen zu diskutieren, was ich als Hauptproblem in der Philosophie hinter der Theorie sehe, die scheinbar in eine Art metaphysisches Wunderland übergegangen ist. Vereinfacht gesagt, scheint es sich bei vielen der aktuellsten Theorien um theologische Spekulationen und um die Entwicklung von Modellen ohne überprüfbare Konsequenzen zu handeln…“

Quote: “To me, some of what passes for the most advanced theory in particle physics these days is not really science. When I found myself on a panel recently with three distinguished theorists, I could not resist the opportunity to discuss what I see as major problems in the philosophy behind theory, which seems to have gone off into a kind of metaphysical wonderland. Simply put, much of what currently passes as the most advanced theory looks to be more theological speculation, the development of models with no testable consequences…“

QuelleTheory in particle physics: Theological speculation versus practical knowledge  Physics Today October 2006

 

Stell' Dir vor es geht

☼ Ein "kleiner" Vorgeschmack, auf das was kommt, aus dem Bereich der Mathematik...

Exemplarisches zur Leser-Motivation

Der folgende Kurz-Bericht über den unerwarteten Beweiserfolg des Mathematikers Thomas Royen ist ein appetitlicher Motivationshappen.

 

Thomas Royen ist ein deutscher Statistikprofessor, der  67-jährig und bereits vier Jahre im Ruhestand „verweilend“, in 2014 unerwartet die so genannte Gaußsche Korrelationsungleichung bewiesen hat: …Das Verblüffende an Thomas Royen's Beweis ist, dass er klassische Methoden nutzt, die im Grunde jeder Mathematikstudent verstehen kann. Der Beweis ist nur wenige Seiten lang…

Auch nach seinem letztendlichen Veröffentlichungserfolg ärgerte sich Royen noch lange im Hinblick auf die Tatsache, dass die etablierten Wissenschaftsjournale seine Arbeit ignorierten.

Hintergrund: Es gab diverse Mathematiker, die jahrzehntelang vergeblich versuchten den Beweis zu erbringen. Da sich Royen eher (out of the box) am Rande der mathematischen Fachkreise aufhielt, konnte er offensichtlich ergebnisoffener als seine Fachkollegen das Problem der Beweisführung angehen. Seine diesbezügliche Erstveröffentlichung wurde jedoch inhaltlich ignoriert, da diese nicht der gängigen Gestaltungsform entsprach. Erst als andere Mathematiker auf seinen Beweis aufmerksam wurden und in die normierte Veröffentlichungsform „transformierten“, wurde die Arbeit ernst genommen.

...viel einfacher als »Alle« behaupte(te)n

Übergeordnet wichtig ist hier der Hinweis, dass Royen exemplarisch das mittlerweile größte Problem der Wissensentwicklung - insbesondere im Rahmen Theoretischer Grundlagenforschung - exemplarisch offenlegt. Die etablierten Denkkonzepte lassen keinen Freiraum für zielführend einfache Gedanken. Die Standardtheoretiker denken und handeln so, als ob die von ihnen gewählten hochkomplexen, komplizierten Denkansätze alternativlos seien. Sie sind letztendlich nicht nur umgangssprachlich dumm, sie sind auch arrogant und ignorant. Diese Erwartungshaltung gepaart mit destruktiv emotionalen Charaktereigenschaften (später mehr dazu) ergeben eine fatale Mischung für den »Wissensbetrieb«.

 

 

Wie findet man schnellstmöglich heraus, ob es sich überhaupt lohnt, einem unbekannten physikalischen Denkmodell Zeit und Beachtung zu schenken?

Es geht übergeordnet nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige formalisierte Lösungen liefert, die sich als Meßwerte experimentell bestätigen lassen.

Der einfachste und schnellste Weg ist ein Blick auf die aus dem Modell heraus gebildeten Gleichungen und die daraus ermittelten Ergebnisse, in Form von konkreten Werten für meßbare physikalische Größen.

a) Existieren keine Modell basierenden formalisierten Berechnungen die mit meßbaren Werten korrespondieren, handelt es sich nicht um ein brauchbares physikalisches Erklär-Modell.

b) Wurden diese experimentell bestätigt, so ist zumindest die erste Hürde genommen. Doch leider tendier(t)en viele Denkmodell-Gestalter dazu, in Anbetracht der geforderten Meßwertgenauigkeit, ihre Gleichungen ergebnisorientiert "weiter zu modellieren", ohne jedoch konsistente, nachvollziehbare Erklärungen innerhalb ihres Denkmodells dafür zu liefern. Beziehungsweise, es werden (weitere) freie Parameter eingeführt, die gleichfalls ohne Erklärung ergebnisorientiert in ihrer "Theorie" zum ersehnten, bekannten Meßwertziel führ(t)en. Sind solche Modellierungen nicht vorhanden und wurden auch keine (weiteren) freien Parameter eingeführt, so lohnt sich ein Blick auf das Denkmodell.

 

                    

Vereinheitlichung          Masse-Raum gekoppelt sind die elementaren Gleichungen  m(t) und r(t), die den Makrokosmos beschreiben, formal "gleich" den ursprünglichen Mikrokosmos-Gleichungen↓   

                                           

 

 

Masse-Raum gekoppelte (erste) Motivationshappen

Jäger und Sammler AlexDirkFreyling     no1  c-print      director of photography : adf     foto by T.B.     47ndf ]

 

Vorweg, an dieser Stelle ohne weitere Erklärungen, vier weitere Beispiele, wie einfach sich Physik formalisieren, herleiten und berechnen lässt, "wenn man weiß, wie es geht"...

 

Wie konsistent und "einfach" realobjektorientierte Grundlagenphysik sein kann, verdeutlichen vier Beispiele im aphoristischen Bild ...

Bedeutung der Elementarkörperüberlagerung im Hinblick auf Wechselwirkungen

Die Berechnung von Grundzustandsenergien ist weder quantenmechanisch noch quantenelektrodynamisch begründet, da, sowohl phänomenologisch wie auch energetisch, ein signifikant maßgebender Anteil von dem Verhältnis der wechselwirkenden Massen bestimmt wird. Es gibt weder QM und schon gar nicht QED basierend die Möglichkeit die reduzierte Masse mred = mA / (1 + mA/mB) quantenfeld-phänomenologisch einzuführen. Der reduzierte Masseterm mred = mA / (1 + mA/mB) wirkt sich auf die energetischen Verhältnisse aus. Das wird „wertemäßig“ besonders deutlich, wenn man die Massenverhältnisse beim myonischen Wasserstoff betrachtet, da der reduzierte Masseterm dort deutlich größer ist als beim Wasserstoffatom.  Die reduzierte Masse ist – ob man es wahr haben will oder nicht – im Rahmen der Standardphysik historisch aus der Himmelsmechanik abgeleitet. Das bedeutet im Klartext, dass im Sinne atomarer Wechselwirkungen, diese weder QM noch QED begründet ist.

Folgt man dem Wikipedia-Eintrag zur »reduzierten Masse« wird der hier relevante energetische Aspekt nicht (nachvollziehbar) thematisiert. Dort beginnen die Ausführungen mit: Die reduzierte Masse ist eine fiktive Masse, die unter bestimmten Voraussetzungen die Eigenschaften zweier Einzelmassen eines Systems repräsentiert….“ 

Energetisch handelt es sich bei der Berechnung der Grundzustandsenergie zweier wechselwirkender Körper, beispielsweise des Protons mit einem Elektron (Wasserstoffatom), jedoch um nichts Fiktives. Um überhaupt phänomenologisch verstehen zu können, das sich die Einführung des Terms mred = mA / (1 + mA/mB) begründen lässt, existiert eine solche Anschauung ausschließlich im Rahmen der Elementarkörper-Wechselwirkungen.

 

                             

      

Neutron: Proton-Elektron basierend im Bild der Elementarkörper(-Theorie)

Theoretische Berechnung der Neutronenmasse

Allgemeine Vorbetrachtungen

Wie erfreulich aussagefähig das vorliegende Masse-Raum gekoppelte Denkmodell ist, lässt sich am konkreten Beispiel der Neutronenmasseberechnung "leicht" verstehen. Aus der (e-Proton)-(q0-Elektron)-Wechselwirkung entsteht das Neutron. Die Gesamt-Masse des Neutrons mn ergibt sich zu:    mn = mp + me + ∆m       [nmass]

Es handelt sich um die mit Abstand einfachste und genaueste Neutronenmasseberechnung überhaupt. Von solchen, phänomenologisch begründeten, formal-analytischen Gleichungen können Standardmodellprotagonisten nur träumen.

 

Aus praktischen Gründen werden Zehnerpotenzen zur Berechnung wie folgt geschrieben: 1,23·10-3 = 1,23e-3. Das hat den Vorteil, dass der interessierte Leser die entsprechenden Zahlenwerte "gleich" zur Kontrollrechnung übernehmen kann (Copy&Paste).

 

☼ kurz zum Verständnis zu CODATA und NIST

Das Committee on Data of the International Science Council (CODATA) wurde 1966 als Committee on Data for Science and Technology gegründet. Das National Institute of Standards and Technology (NIST) ist eine Behörde des US-Handelsministeriums, deren Aufgabe es ist, die amerikanische Innovation und industrielle Wettbewerbsfähigkeit zu fördern. Die Aktivitäten des NIST sind in physikalisch-wissenschaftlichen Laborprogrammen organisiert, die Wissenschaft und Technologie im Nanobereich, Ingenieurwesen, Informationstechnologie, Neutronenforschung, Materialmessung und physikalische Messungen umfassen. Von 1901 bis 1988 trug die Behörde den Namen National Bureau of Standards.

Für den Bereich der Physik, insbesondere der Experimentalphysik, ist relevant, das CODATA & NIST aktualisiert vorgeben, was die Referenzwerte für Meßgrößen und deren Standardabweichungen sind.

[CODATA-NIST Beispiel     Wert der Protonenmasse]

Die Unsicherheiten der CODATA-Werte sind in den folgenden Berechnungen meist nicht explizit benannt respektive werden nicht explizit berücksichtigt. Beispiel: Masse des Elektrons:  9,1093837015e-31  kg   9,1093837015(28)e-31, bedeutet eine Standardabweichung von ± 0,00000028e-31kg wird hier nicht berücksichtigt. Es wird mit dem Wert 9,1093837015e-31 kg gerechnet. Das ist, wie wiederholt gezeigt wird, kein Problem, da u.a. die Standardmodellphysik-Ergebnisse im Vergleich eh nicht formal-analytisch erzielt wurden und im direkten Vergleich mit den phänomenologisch begründeten einfachen Gleichungen der Elementarkörpertheorie (EKT) sprichwörtlich um (Standardabweichungs-)Dimensionen schlechter sind (später mehr dazu).

 

Theoretische Berechnung der Neutronenmasse

Es wurden zur Berechnung der Neutronenmasse folgende Werte verwendet:

me = 9,1093837015e-31  kg : Elektronenmasse

me(q0)=   (4/α) · m=  4,99325398628715e-28 kg

 mp = 1,67262192369e-27  kg  : Protonenmasse

=  2,99792458e+08 m/s      α = 0,0072973525693        0,77010243595795497 = 1/(1 + me(q0)/mp)

 ∆m = 1,4056007019747e-30 kg[0]       ∆Eee =    1,2632909101359e-13  J      ~    0,78848416793  MeV

mn =  mp + me + ∆m  = 1,674938462762e-27  kg

 Vergleich mit experimentell bestimmter Neutronenmasse

mn(exp) = (1,67492749804e-27 kg)  ~ 939,56542 MeV  [Quelle: CODATA 2018]

mn(EKT) / mn(exp) ~ 1,0000065463861

 

 

[0Ergebnis-Erweiterungs-Satire

Übrigens, man könnte, genauer, man sollte sich die obige Berechnungspräzision, wie z.B. für ∆m = 1,4056007019747e-30 [kg], im Hinblick auf die versuchsbedingten - im Vergleich zu formal-analytischen Rechnungen extremen - Standardabweichungen der Einfluss nehmenden Größen sparen. Es ist hier also kein Akt meines Unverständnisses der Zusammenhänge, sondern eine Art gewollter »Ergebnis-Erweiterungs-Satire« im Hinblick auf das, was noch gemäß Standardmodell-Postulaten alles möglich sein soll (...Berechnung und Messung des Wertes des anomalen magnetischen Moments des Elektrons bis hin zu postulierten Gravitationswellenmessungen).  

 

 

 

Warum glauben so viele Menschen,

dass die bestehenden theoretischen Modelle sehr gut sind?

Warum denken so viele Wissenschaftler, dass es keine besseren Alternativen gibt?

Psychologie der Masse(n)

[Gloria             Randy           KathleenWhite      MissEve   c-print   adf    40ndf]

Es wäre naiv und töricht weit verbreitete Erwartungshaltungen zu ignorieren. Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, dass dem oft nicht so ist, insbesondere wenn es sich um wissenschaftliche Themen handelt. Das betrifft sowohl Laien als auch Wissenschaftsexperten. Besonders eklatant ist der Umstand, dass im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik" samt assoziierter theoriebeladener Experimentalphysik suggeriert, ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an/auf denen man Glaubensbekenntnisse statt Wissenschaft vermutet.

Ein weiterer wichtiger Grund ist inhaltlich die Tatsache, dass kaum jemand weiß, worum es in den Standardmodellen geht.

            

Populärwissenschaftliche Ausführungen zur Allgemeinen Relativitätstheorie (ART) und in einem größeren Rahmen des Standardmodells der Kosmologie (Lambda-CDM-Modell) sind allesamt unzulässige Interpretationen, da die zum Verständnis notwendige Komplexität nicht berücksichtigt wird. Das ist so, als wenn jemand chinesische Schriftzeichen einem diesbezüglich nicht schriftkompetenten Publikum zur Anschauung und Diskussion vorstellt. Da kann dann alles und nichts hineininterpretiert werden, da niemand die Voraussetzungen zur Dekodierung sowie niemand die Voraussetzungen der Schriftgestaltung hat. Plakativ formuliert: In der ART führen auch Schreibfehler zu neuen Lösungen und das gilt (bereits) für Leute, die Differentialgeometrie professionell betreiben.

 

Mythos  »Theorieschaft« [Theorie schafft]

Praktisch orientierte Ägypter, Römer und Griechen erschufen lange vor Einführung der Integral- und Differentialrechnung, lange vor theoretischen Modellen zur Tragfähigkeit und Biegemöglichkeit von Balken und Säulen, komplexe Bauwerke, deren Fragmente teils auch heute noch zu besichtigen sind. Nicht die Theorie zum Halbleiter schuf den Halbleiter, der Halbleiter als elektrotechnisches Bastel- und Tüftler-Objekt ließ Spielraum für theoretische Betrachtungen. Funktionierende Technik als Innovation Angewandter Physik bedarf und bedurfte versuchsfreudiger „Macher“, (Miß-)Erfolge (trial & error) zeigten den Weg.

Physik und Philosophie - Thesen und Realität

Die Physik beantwortet Wie-Fragen, die Philosophie beantwortet Warum-Fragen.“
Naja, Philosophen äußern Meinungen, selten bis nie handelt es sich um Antworten, die inhaltlich über willkürliche, subjektive Bewertungen hinausgehen. Im Rahmen der Angewandten Physik gibt es praktische Antworten, die im Ergebnis beispielsweise Speichermedien, Kommunikation und realen Transport möglich machen. In der Modernen Theoretischen Physik gibt es seit mehr als 100 Jahren keine Antworten mehr, die phänomenologisch basierend begründet sind, sofern man anschauliche Realphysik fordert.

Um übergeordnet verstehen zu können, warum sich das Standardmodell der (Elementar-)Teilchenphysik (SM) und das Kosmologische Standardmodell (ΛC[old]D[ark]M[atter]-Modell) ohne große Gegenwehr etablieren konnten, ist zu bemerken, dass diese Modellbetrachtungen für die Realphysikforschung sprich Material- und Anwendungs-Forschung keinerlei Bedeutung hatten und haben. Das gilt sowohl für die „Diagnostik“ (Materialuntersuchungen), als auch für die Konstruktion von (Material-)Anwendungen (später „am Rande“ mehr dazu).

Tatsache ist : Theoretische Modelle hink(t)en stets der (meßbaren) Realität hinterher. Der Mythos, das hochkomplexe, mathematische Theorien die Wirklichkeit beschreiben und Neues generieren konnten und können, lebt. Dass jedoch die Voraussagefähigkeiten der theoretischen Modelle, bei genauer Sicht, Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, erschließt sich den meisten Interessierten nicht. Realobjekt-Interpretationen werden im Rahmen der Standardmodelle aus mathematisch formalisierten (mitunter esoterischen) [BR]) Konzepten geboren. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und neuen Substrukturthesen, sowie extrem zeitintensiven, iterativ-algorithmisch nachkorrigierten Ergebnissen mittels Cluster-Rechenanlagen respektive »Super-Computern«SC

[SC] Siehe exemplarisch: Calculating the five-loop QED contribution to the electron anomalous magnetic moment: Graphs without lepton loops   veröffentlicht im November 2019

Autor: Dr. Sergey Volkov [Fachgebiete u.a. Kern- und Elementarteilchen-Physik, Relativitätstheorie]

Screenshot aus dem benannten "scientific paper"

Da die Ergebnisse von den vom Autor vorgegebenen Anfangsparametern sowie den theoretischen Modellerwartungen im Hinblick auf ergebnisorientierte, experimentelle Werte abhängig sind, stellt sich hier, auch ohne jegliche Kenntnis der Berechnungs-Details, die zentrale Frage, ob der Autor - stellvertretend für alle Autoren dieser Art von "Berechnungen" - nicht realisiert, das die so erzielten Ergebnisse selbstprophetisch sind respektive einen methodischen Selbstbetrug abbildenSB.

 

[SB] Siehe dazu exemplarisch folgende Bemerkungen und Ausführungen:

Um einen Eindruck von der grundsätzlichen Theorie-Problematik der „Strahlungskorrekturen“ in einem historischen Zusammenhang zu bekommen, empfiehlt sich der Beitrag von Mario Bacelar Valente :

The renormalization of charge and temporality in quantum electrodynamics

An konkreten Beispielen zeigt Valente auf, wie ergebnisorientierte, teils willkürliche „mathematische Erweiterungen und Umformungen“ in die Berechnungen einfließen und wie „hier und da“ Terme als unphysikalisch erklärt und deren Divergenzen nicht weiter berücksichtigt werden. Das ist höchst problematisch, da keine verbindlich axiomatischen Regeln gelten. Des Weiteren wird deutlich, dass keine physikalischen Interpretationen existieren, die die mathematischen Prozeduren mit phänomenologischen Inhalten "füllen“. 

Meinungen (Textauszüge):

Selbst in Anbetracht der Genauigkeit der Theorie bei niedrigeren Energien vertrat Schwinger die Ansicht, dass das Renormierungsverfahren, das es ermöglicht, die Unendlichkeiten in den Berechnungsergebnissen zu vermeiden, letztendlich aus der Physik ausgeschlossen werden muss. Die Position von Paul Dirac war diesbezüglich noch weniger sympathisch: "Ich bin sehr unzufrieden mit der Situation, weil diese sogenannte "gute Theorie" die Vernachlässigung von Unendlichkeiten beinhaltet, die in ihren Gleichungen auftauchen.

…”Even considering the accuracy of the theory at lower energies, Schwinger considered that the renormalization procedure, that permits avoiding the infinites in the results of the calculations, ultimately has to be excluded from physics. Regarding this problem the position of Paul Dirac was even less sympathetic: “I am very dissatisfied with the situation, because this so-called “good theory” does involve neglecting infinities which appear in its equations.3 ”…

3 Kragh, H. (1990, 184). Dirac: a scientific biography. Cambridge : Cambridge University Press.

Landau vertrat die Auffassung, dass die Grenzen der Quantenelektrodynamik noch drastischer seien, weil sie auf sehr grundlegende strukturelle Probleme im Aufbau der Theorie zurückzuführen seien: "Für sie waren allein schon das Konzept eines lokalen Feldoperators und die Postulierung eines detaillierten Mechanismus für die Wechselwirkung in einer mikroskopischen Raumzeitregion völlig inakzeptabel."

…”Landau considered that the limitations of quantum electrodynamics were even more drastic, because they would be due to very basic structural problems in the design of the theory: “for them the very concept of a local field operator and the postulation of any detailed mechanism for interaction in a microscopic spacetime region were totally unacceptable” 4 ”…

4Cao, T. Y., & Schweber, S. S. (1993). The conceptual foundations and philosophical aspects of renormalization theory. Synthese, 97, 33-108.  

Richard Feynman schrieb in The Strange Theory of Light and Matter (1985)

Das Shell-Spiel, das wir spielen, wird technisch als "Renormalisierung" bezeichnet. Aber egal wie schlau das Wort ist, ich würde es immer noch als schwachen Prozess bezeichnen! Der Rückgriff auf einen solchen Hokuspokus hat uns daran gehindert zu beweisen, dass die Theorie der Quantenelektrodynamik mathematisch in sich konsistent ist. Es ist überraschend, dass sich die Theorie auf die eine oder andere Weise als in sich konsistent erwiesen hat. Ich vermute, dass Renormalisierung mathematisch nicht legitim ist.“ 

…”The shell game that we play is technically called 'renormalization'. But no matter how clever the word, it is still what I would call a dippy process! Having to resort to such hocus-pocus has prevented us from proving that the theory of quantum electrodynamics is mathematically self-consistent. It's surprising that the theory still hasn't been proved self-consistent one way or the other by now; I suspect that renormalization is not mathematically legitimate.”…

Paul Dirac schrieb 1963 in dem Artikel The Evolution of the Physicist's Picture of Nature

"Die meisten Physiker sind sehr zufrieden mit der Situation. Sie sagen: 'Die Quantenelektrodynamik ist eine gute Theorie, über die wir uns keine Gedanken mehr machen müssen.' Ich muss sagen, dass ich mit der Situation sehr unzufrieden bin, denn diese so genannte 'gute Theorie' beinhaltet die Vernachlässigung von Unendlichkeiten, die in ihren Gleichungen auftauchen, und zwar auf eine willkürliche Weise. Das ist einfach keine vernünftige Mathematik. Vernünftige Mathematik beinhaltet, dass man eine Größe vernachlässigt, wenn sie klein ist - und nicht, dass man sie vernachlässigt, nur weil sie unendlich groß ist und man sie nicht haben will"...!

…”Most physicists are very satisfied with the situation. They say: 'Quantum electrodynamics is a good theory and we do not have to worry about it any more.' I must say that I am very dissatisfied with the situation because this so-called 'good theory' does involve neglecting infinities which appear in its equations, ignoring them in an arbitrary way. This is just not sensible mathematics. Sensible mathematics involves disregarding a quantity when it is small – not neglecting it just because it is infinitely great and you do not want it“…!

Abdus Salam schrieb 1972  in Infinity Suppression Gravity Modified Quantum Electrodynamics II

"Die feldtheoretischen Unendlichkeiten, die erstmals bei der Berechnung der Eigenmasse des Elektrons durch Lorentz auftraten, halten sich in der klassischen Elektrodynamik seit siebzig und in der Quantenelektrodynamik seit etwa fünfunddreißig Jahren. Diese langen Jahre der Frustration haben in der Fachwelt eine merkwürdige Zuneigung zu den Unendlichkeiten und einen leidenschaftlichen Glauben daran hinterlassen, dass sie ein unvermeidlicher Teil der Natur sind; so sehr, dass sogar die Andeutung einer Hoffnung, dass sie vielleicht doch umgangen werden können - und endliche Werte für die Renormierungskonstanten berechnet werden können - als irrational angesehen wird."

Field-theoretic infinities — first encountered in Lorentz's computation of electron self-mass — have persisted in classical electrodynamics for seventy and in quantum electrodynamics for some thirty-five years. These long years of frustration have left in the subject a curious affection for the infinities and a passionate belief that they are an inevitable part of nature; so much so that even the suggestion of a hope that they may, after all, be circumvented — and finite values for the renormalization constants computed — is considered irrational.“

 

Paul Dirac:

"Die Renormierung ist nur ein Notbehelf. Unsere Vorstellungen müssen sich grundlegend ändern, wahrscheinlich so grundlegend wie der Übergang von der Bohrschen Bahntheorie zur Quantenmechanik. Wenn sich eine Zahl als unendlich herausstellt, die eigentlich endlich sein sollte, sollte man zugeben, dass mit den Gleichungen etwas nicht stimmt, und nicht hoffen, dass man eine gute Theorie bekommt, indem man die Zahl einfach aufbessert."

"Renormalization is just a stop-gap procedure. There must be some fundamental change in our ideas, probably a change just as fundamental as the passage from Bohr’s orbit theory to quantum mechanics. When you get a number turning out to be infinite which ought to be finite, you should admit that there is something wrong with your equations, and not hope that you can get a good theory just by doctoring up that number.”

Quelle: Something is wrong in the state of QED

 

 

Renormierung und Regularisierung (Fragmentarisches zum Grundverständnis)

In Quantenfeldtheorien werden Modelle durch die Lagrange-Dichte beschrieben. Diese enthält eine bestimmte Anzahl von freien Parametern, deren Zahlenwerte nicht durch die Theorie festgelegt sind, sondern experimentell bestimmt werden müssen. Im Grenzfall verschwindender Quantenkorrekturen (Bornschen Näherung), können viele freie Parameter direkt mit den physikalischen Größen, wie z. B. den Massen oder der elektrischen Ladung, identifiziert werden. Werden jedoch Quantenkorrekturen berücksichtigt, so wird der direkte Zusammenhang zwischen den freien Parametern der Lagrangedichte (den so genannten ”nackten“ (engl.: bare) Parametern) und den physikalischen Größen zerstört. Dies macht eine Redefinition (Renormierung) der Parameter und auch der Felder, notwendig. Im Verlauf der Berechnung des Zusammenhangs zwischen den (postuliert) „unphysikalischen“ und den (postuliert) physikalischen Parametern können Integrale auftreten, die divergieren. Die Art und Weise, wie die Konvergenz dieser Integrale gesichert wird, wird durch das Verfahren der so genannten Regularisierung festgelegt...

Gelingt es, durch die Renormierung endlich viele Parameter sämtlich auftretender UV-Divergenzen in allen Ordnungen der Störungstheorie zu beseitigen, so ist die jeweilige Theorie renormierbar. Die Renormierbarkeit des Standardmodells wurde von ’t Hooft bewiesen.

Bevor Felder und Parameter der Lagrange-Dichte renormiert werden können, müssen zunächst die bei der Berechnung der Schleifenintegrale auftretenden Divergenzen extrahiert werden. Prinzipiell würde eine Beschränkung der Energieintegration durch eine obere Grenze (engl.: cut-off) Λ bereits endliche Ergebnisse liefern, jedoch zerstört eine solche Beschränkung die Lorentz-Invarianz. Ein häufig angewandtes Verfahren ist die dimensionale Regularisierung, die Lorentz- und Eichinvarianz gewährleistet (Erhalt der inneren Symmetrien der Theorie).

Durch die dimensionale Regularisierung werden die auftretenden Divergenzen in negativen Potenzen des Regularisierungsparameters ε isoliert. Mittels Renormierung wird dann die Abhängigkeit von diesem unphysikalischen Parameter subtrahiert und der Zusammenhang zwischen den im Modell auftretenden freien Parametern und den experimentell bestimmbaren physikalischen Größen neu festgelegt. In der Praxis werden dazu so genannte Gegenterme (engl.: counterterm) verwendet, welche einen formalen und systematischen Zugang zur Renormierung bieten. Dabei werden die ”nackten“ Parameter (m0, e0) und Felder (Φ0) der Lagrange-Dichte mittels Renormierungskonstanten Zi multiplikativ renormiert.

Im so genannten On-Shell Schema (On-Shell-Renormierung) werden die Renormierungskonstanten so gewählt, dass die renormierten Parameter der Theorie den messbaren, physikalischen Größen in allen Ordnungen Störungstheorie entsprechen. Die renormierten Massen werden gleich den physikalischen gewählt. Werden alle Größen im On-Shell Schema bestimmt und erfolgt die Ladungsrenormierung in Thomson-Limes (Kopplung des Photons an das Elektron im Grenzfall eines verschwindenden Impulsübertrags), so hängt das endliche Ergebnis nicht mehr von der durch die Regularisierung eingeführten Massenskala ab.

Neben den UV-Divergenzen aus der Region großer Schleifenimpulse qi → treten in Quantenfeldtheorien sowohl innerhalb der Schleifenintegrale bei endlichen Impulsen, als auch innerhalb der Phasenraumintegrale weitere Divergenzen auf, die ihre Ursache in Polen der Propagatoren haben. Diese treten auf, wenn Impulse der Propagatoren auf ihrer Massenschale liegen und dadurch der Nenner des Propagators Null wird. Daher werden diese Singularitäten im Allgemeinen als Massensingularitäten bezeichnet, da ihr Auftreten mit dem Verschwinden der äußeren und inneren Massen verbunden ist. Das Auftreten von Massensingularitäten rührt nicht ausschließlich von Schleifenintegralen her, sondern auch von Integrationen im Phasenraum der externen Teilchen. Diese führen in bestimmten Phasenraumbereichen zu Divergenzen...

Zur Kenntnisnahme, Selbstanalyse, zur Erinnerung

Das "zauberhafte" fine-tuning   ... die an den Haaren herbeigezogene Feinabstimmung

Während die dimensionale Regularisierung aus Sicht des SM vor allem praktisch ist, kann man sich "dort" auf den Standpunkt stellen, das die Impulsintegrale bei einem bestimmten Maximalimpuls Λ abgeschnitten werden, da bei größeren Impulsen das Standardmodell durch eine andere (vereinheitlichende) Theorie ersetzt werden muss. Eine natürliche Wahl für Λ wäre dann Λ ~ mPlanck. Berechnet man die Strahlungskorrekturen zu den Fermionmassen, dann erhält man daraus einen zum Logarithmus von Λ proportionalen Korrekturterm, der auch bei Λ ~ mPlanck nur wenige Prozent der ”nackten“ Masse ausmacht. Anders bei der Higgs-Masse: Hier liefert die Strahlungskorrektur einen zu Λ proportionalen Anteil. Die Higgs-Masse mH ~ 125 GeV führt zu der Situation, dass sich die Strahlungskorrekturen und die nackte Masse auf 17 (siebzehn!!!) Nachkommastellen genau aufheben müssen!

 

[17]  Wikipedia "berichtet" zur Orientierung (für das "Gemeine Volk") zum fine-tuning "passenden" Hierachieproblem u.a.

[deutsche:] ..."Auch wenn das Higgs-Boson zentraler Bestandteil des Standardmodells der Elementarteilchenphysik ist, ist das Hierarchieproblem kein Problem des Standardmodells selbst... Streng genommen kann das Hierarchieproblem innerhalb des Standardmodells nicht einmal formuliert werden, da eine Berechnung der Higgs-Masse dort nicht möglich ist....

[englische:] ..."Angenommen, ein physikalisches Modell benötigt vier Parameter, die es ihm ermöglichen, ein sehr hochwertiges Arbeitsmodell zu erstellen, das Vorhersagen zu einigen Aspekten unseres physikalischen Universums ermöglicht. Angenommen, wir finden durch Experimente heraus, dass die Parameter Werte haben: 1,2, 1,31, 0,9 und 404.331.557.902.116.024.553.602.703.216,58 (ungefähr 4×1029). Wissenschaftler mögen sich fragen, wie solche Zahlen zustande kommen. Besonders neugierig sind sie aber auf eine Theorie, bei der drei Werte nahe bei eins liegen und der vierte so unterschiedlich ist, d. h. auf das enorme Missverhältnis, das zwischen den ersten drei Parametern und dem vierten zu bestehen scheint. Man könnte sich auch fragen, wenn eine Kraft so viel schwächer ist als die anderen, dass sie einen Faktor von 4×1029 benötigt, um mit ihnen in Bezug auf die Auswirkungen in Beziehung gesetzt werden zu können, wie kam es dann dazu, dass unser Universum bei der Entstehung seiner Kräfte so genau ausgeglichen war? In der gegenwärtigen Teilchenphysik sind die Unterschiede zwischen einigen Parametern viel größer als dieser Wert, so dass die Frage noch bemerkenswerter ist"...

..."Suppose a physics model requires four parameters which allow it to produce a very high-quality working model, generating predictions of some aspect of our physical universe. Suppose we find through experiments that the parameters have values: 1.2, 1.31, 0.9 and 404,331,557,902,116,024,553,602,703,216.58 (roughly 4×1029). Scientists might wonder how such figures arise. But in particular, might be especially curious about a theory where three values are close to one, and the fourth is so different; in other words, the huge disproportion we seem to find between the first three parameters and the fourth. We might also wonder if one force is so much weaker than the others that it needs a factor of 4×1029 to allow it to be related to them in terms of effects, how did our universe come to be so exactly balanced when its forces emerged? In current particle physics, the differences between some parameters are much larger than this, so the question is even more noteworthy."...

 

Nun, das das nichts mehr mit exakter Wissenschaft, sondern nur noch mit brachialem Wünsch-Dir-Was-Denken und Wünsch-Dir-Was-Machen, egal zu welchem absurden Preis, zu tun hat, steht - analytisch rational betrachtet - außer Frage.

Aphoristisch ausgedrückt:

Teilchenphysiker stecken tief in der Dekadenz; das Sensationelle gilt und nur einem strömen sie noch begeisterter zu: dem baren Unsinn.“

"Interdisziplinär" erst-formuliert"Wir stecken tief in der Dekadenz; das Sensationelle gilt und nur einem strömt die Menge noch begeistert zu: dem baren Unsinn.“ Theodor Fontane  (1819 - 1898)

Es gibt eine Vielzahl weiterer - wahrlich unglaublicher - Aspekte zur Renormierung und Regularisierung, deren explizite Erörterung bei Weitem den Rahmen sprengen und unnötig den Fokus verschieben würde.

Um es kurz und plakativ "zu machen": So definierte sich in den Anfängen bis heute insbesondere die Quantenelektrodynamik (QED) und die Quantenchromodynamik (QCD). Es wird solange (mathematisch) modelliert, bis die gewünschten Ergebnisse vorliegen, was mitunter - trotz "Super"-Computern - Jahre (total calculation time, GPU hours) dauert.

Des Weiteren: Es kommt noch "viel schlimmer". Wie sich im Bild der Masse-Raum Kopplung zeigt, sind die vermeintlich »anomalen magnetischen Momente« allesamt - phänomenologisch begründet - ohne Quantenfeld, willkürlicher Renormalisierung, etc. erklär- und berechenbar. All' die "schönen" quantenfeldtheoretischen Überlegungen zu den »anomalen magnetischen Momenten« sind - im wahrsten Sinne des Wortes - gegenstandslos.

An dieser Stelle nur soviel dazu: Die vermeintlich anomalen intrinsischen magnetischen Momente von Elektron und Proton sowie des Masse-Raum-Proton-Elektron-basierenden Neutrons sind letztendlich eine Kombination aus den »semi-klassisch«  - einfachst zu berechnenden - "normalen" magnetischen Momenten und messungsinhärenten Beiträgen, die von dem Magnetfeld, welches zur Messung verwendet wird, herrühren. Eine entsprechende  Phänomenologie und Formalisierung der Magnetfeldverkörperung und resultierende Magnetische-Moment-Berechnungen werden im Rahmen der Elementarkörpertheorie vorgestellt.   

 

Experimentelle Seite

Im heutigen Standardmodell orientierten Denken werden theoretische Befunde postuliert, nach denen dann mittels computersimulierten „Versuchsaufbauten“ selektiv gesucht wird. Diese stark theoriebeladene Suche kennt keinen einzigen direkten Nachweis und lässt sich auf Grund der vielen freien Parameter, nicht detektierbaren postulierten Theorieobjekte und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretierenSME

 

[SME] Der LHC (LargeHadronCollider) ist darauf ausgelegt, Protonen auf Energien von 7 TeV zu beschleunigen und so Kollisionen mit einer Schwerpunktsenergie von 14 TeV zu ermöglichen. Zur Auswertung dieser Ereignisse, mit denen das postulierte Quark-Gluon-Plasma untersucht werden soll, ist das ALICE-Experiment konstruiert. Das eigentliche Verständigungsproblem beginnt schon viel früher. Der Begriff Plasma ist bezogen auf die Theorieobjekte Quark und Gluon falsch. Die gemäß SM postulierten Quarkmassen ergeben in der Summe bei weitem nicht die Nukleonenmassen. Gluonen sind postuliert masselos.

           

Postulierte Up-Quark Masse: 2.3±0.7 ± 0.5 MeV/c² up (u)

Postulierte Down-Quark Masse: 4.8±0.5 ± 0.3 MeV/c² down (d)

938,272 0813(58) MeV/c² Protonmasse  duu  ~ 0,8  – 1,2 % (!!!) Quarksmassenanteil

939,565 4133(58) MeV/c² Neutronmasse ddu ~ 1,1  – 1,4 % (!!!) Quarksmassenanteil

Daraus folgt u.a. : Nicht gemäß einer Meinung, sondern nach dem Kenntnisstand und den Postulaten des SM kollidieren bei Teilchenkollisionen also hauptsächlich phänomenologisch unbestimmte beschleunigte Energiepakete sprich Bindungsenergien und hauptsächlich äußere Energie miteinander, von Elementarteilchenmassen existiert so gut wie keine »Spur«.

L(arge)H(adron)C(ollider) Informationen zur Kenntnisnahme und Selbstanalyse

LHC Datenverarbeitung ...von den ursprünglich 40 Millionen Strahlkreuzungen werden nur ca. 200 pro Sekunde gespeichert und für eine Analyse bereitgestellt...

Kollisionssimulationen   ...aus bestehenden Theorien werden Hypothesen aufgestellt, wie beispielsweise eine Erweiterung der Theorie aussehen könnte. Dann werden Detektorsimulationen berechnet, wie eine Teilchensignatur unter diesen hypothetischen Annahmen, bei einer Teilchenkollision aussehen müsste. Dann folgt der Vergleich. Pythia, die weissagende Priesterin im Orakel von Delphi ist Namensgeberin für ein Computerprogramm, das verwendet wird, um Kollisionen an Teilchenbeschleunigern zu simulieren.…

Wie sich SM-Gläubige die Entstehung der physikalischen Welt aus dem Urknall vorstellen, siehe den Abschnitt Was bisher geschah…“auf“ der „HOME“page

                  

Man kann offensichtlich in jeder beliebigen Theorie Widersprüche mit der Beobachtung dadurch "wegerklären", dass man weitere (unüberprüfbare) Postulate in die Theorie mit aufnimmt, die genau diese Beobachtung „erklären“. 

Brigitte Falkenburg schreibt in Particle Metaphysics: A Critical Account of Subatomic Reality (2007) u.a.

"Es muss Schritt für Schritt transparent gemacht werden, was Physikerinnen und Physiker selbst als empirische Basis für das heutige Wissen der Teilchenphysik ansehen. Und es muss transparent sein, was sie im Einzelnen meinen, wenn sie von subatomaren Teilchen und Feldern sprechen. Die Weiterverwendung dieser Begriffe in der Quantenphysik führt zu ernsthaften semantischen Problemen. Die moderne Teilchenphysik ist in der Tat der härteste Fall für Inkommensurabilität im Sinne Kuhns"....

..."Schließlich ist die Theorieabhängigkeit ein schlechtes Kriterium, um zwischen sicherem Hintergrundwissen und unsicheren Annahmen oder Hypothesen zu unterscheiden."

... "Die subatomare Struktur existiert an sich nicht wirklich. Sie zeigt sich nur in einem Streuexperiment mit einer bestimmten Energie, also aufgrund einer Wechselwirkung. Je höher der Energietransfer bei der Wechselwirkung ist, desto kleiner sind die gemessenen Strukturen. Hinzu kommt, dass nach den Gesetzen der Quantenfeldtheorie bei sehr hohen Streuenergien neue Strukturen entstehen. Die Quantenchromodynamik (d. h. die Quantenfeldtheorie der starken Wechselwirkung) besagt, dass je höher die Streuenergie ist, desto mehr Quark-Antiquark-Paare und Gluonen im Inneren des Nukleons entstehen. Nach dem Modell der Streuung in diesem Bereich führt dies wiederum zu Skalierungsverletzungen, die tatsächlich beobachtet wurden.44 Dies wirft ein neues Licht auf Eddingtons alte Frage, ob die experimentelle Methode zur Entdeckung oder zur Herstellung führt. Offenbart die Wechselwirkung bei einer bestimmten Streuenergie die gemessenen Strukturen oder erzeugt sie diese?

44 Perkins 2000, 154; Povh et al 1999, 107 - 111

...“Es ist nicht möglich, einen gemessenen Querschnitt auf seine individuelle Ursache zurück zu führen. Keine Kausalgeschichte setzt einen gemessenen Formfaktor oder eine Strukturfunktion mit seiner Ursache in Beziehung“...

...“Mit den in Teilchenbeschleunigern erzeugten Strahlen kann man weder in das Atom hineinschauen, noch subatomare Strukturen sehen, noch punktförmige Strukturen im Inneren des Nukleons beobachten. Solches Gerede ist metaphorisch. Das einzige, was ein Teilchen sichtbar macht, ist die makroskopische Struktur des Targets“... 

...“Niels Bohrs Quantenphilosophie... Bohrs Anspruch war, dass die klassische Sprache unverzichtbar ist. Dies hat bis heute Gültigkeit. Auf der individuellen Ebene von Klicks in Teilchendetektoren und Teilchenspuren auf Fotos müssen alle Messergebnisse in klassischen Begriffen ausgedrückt werden. Die Verwendung der bekannten physikalischen Größen Länge, Zeit, Masse und Impuls-Energie auf subatomarer Ebene ist in der Tat auf eine Extrapolation der Sprache der klassischen Physik auf den nichtklassischen Bereich zurückzuführen.“

"It must be made transparent step by step what physicists themselves consider to be the empirical basis for current knowledge of particle physics. And it must be transparent what the mean in detail when the talk about subatomic particles and fields. The continued use of these terms in quantum physics gives rise to serious semantic problems. Modern particle physics is indeed the hardest case for incommensurability in Kuhn’s sense."

…After all, theory-ladenness is a bad criterion for making the distinction between safe background knowledge and uncertain assumptions or hypotheses. 

… Subatomic structure does not really exist per se. It is only exhibited in a scattering experiment of a given energy, that is, due to an interaction. The higher the energy transfer during the interaction, the smaller the measured structures. In addition, according to the laws of quantum field theory at very high scattering energies, new structures arise. Quantum chromodynamics (i.e. the quantum field theory of strong interactions) tells us that the higher the scattering energy, the more quark antiquark pairs and gluons are created inside the nucleon. According to the model of scattering in this domain, this give rise once again to scaling violations which have indeed observed.44 This sheds new light on Eddington’s old question on whether the experimental method gives rise to discovery or manufacture. Does the interaction at a certain scattering energy reveal the measured structures or does it generate them?

44 Perkins 2000, 154; Povh et al 1999, 107 – 111

…It is not possible to trace a measured cross-section back to its individual cause. No causal story relates a measured form factor or structure function to its cause…

…With the beams generated in particle accelerators, one can neither look into the atom, nor see subatomic structures, nor observe pointlike structures inside the nucleon. Such talk is metaphorical. The only thing a particle makes visible is the macroscopic structure of the target…

…Niels Bohr’s quantum philosophy…Bohr’s claim was that the classical language is indispensable. This has remained valid up to the present day. At the individual level of clicks in particle detectors and particle tracks on photographs, all measurements results have to expressed in classical terms. Indeed, the use of the familiar physical quantities of length, time, mass and momentum-energy at a subatomic scale is due to an extrapolation of the language of classical physics to the non-classical domain."

 

In der modernen Physik geht es bei genauer Betrachtung häufig um die Bewahrung bestehender Denk-Dogmen. Argumente der Vernunft werden Denkgewohnheiten und Vorurteilen geopfert. Ein psychologischer Grund liegt im Glauben und Hoffen. Die Mehrzahl der „forschenden“ Physiker sind nahezu ausnahmslos Anhänger der Quantenfeldtheorien. Ein echtes Verständnis dieser undurchsichtigen Theorien ist nicht möglich. Aufbauend auf unverstandenen Arbeiten anderer planen sie Experimente, für die es nur zwei Resultate gibt: Erfolg und Bestätigung oder Misserfolg und kurze Ratlosigkeit, die dann in der Regel in neuen Teilchen, neuen Quantenzahlen und Theorieerweiterungen endet(e).

Wie wir alle tendieren auch die (theorieaffinen) Experimentatoren dazu, einen Misserfolg bewusst sowie unbewusst zu vermeiden und weichen einer Widerlegung ihres Theorie beladenen Glaubens durch ein Experiment (oder durch Denken) instinktiv aus. Anstatt die Experimente auf das Wesentliche zu beschränken und sie so einfach und effizient wie möglich zu gestalten, wird oft vom Wesentlichen abgelenkt. Moderne Theorien basierend auf Quantenfeldtheorien haben alle eins gemeinsam: Sie entpuppen sich nicht selten in theorierelevanten Experimenten, "früher oder später", als Mogelpackungen. Statt nun die Theorie zu verwerfen, werden lediglich Theorie-Korrekturen vorgenommen. Das können beispielsweise Postulate über neue virtuelle Teilchen sein, die "kurzzeitig" den Energieerhaltungssatz mit Hinweis auf die Heisenbergsche Unschärferelation verletzen. Obwohl diese Verletzung den wichtigsten Erhaltungssatz der Physik ignoriert.

In dem Zusammenhang ist es erstaunlich, wie viele „Interessierte“ und „Wissenschaftsprofis“ festen Glaubens sind, Quantenfeldtheorien wären experimentell überprüfbare, innovative theoretische Konzepte, die praktische Anwendungen generier(t)en.

 

 

[ FKK   "Formalisierung ist nicht »Alles«"      Frau Kunst Kater  c-print     adf ]

 

 

 

 

SM steht übrigens nicht nur als Abkürzung für das Standardmodell der Teilchenphysik sondern auch für Sadomasochismus, sowohl im Deutschen als auch im Englischen. In beiden Fällen besitze ich u.a. exzellente analytische, theoretische, kritische sowie ("angesiedelte") gestalterische Fähigkeiten, wie noch später ergänzend erörtert wird.  

 

 

 

 

 

Interdisziplinäres

Auch wenn vermeintlich berechtigt kritisiert werden könnte, das teils sehr ausführliche menschliche, geschichtliche und politische Aspekte im Folgenden nicht zum Kern-Thema der Ausführungen eines Paradigmenwechsels gehören (sollten), so ist diese Kritik " jedoch zu kurz gedacht", denn Wissenschaft war und ist ein Abbild gesellschaftlich-sozialer Macht-Verhältnisse. Kirche und Staat (früher auch Herrscher, wie Kaiser, Könige und der angesiedelte Adel) finanzier(t)en, einst wie heute, insbesondere die Denkmodell-Wissenschaft.  Wobei seit Jahrzehnten »"moderne" Theorien« fast ausschließlich durch öffentliche Mittel der steuerzahlenden Allgemeinheit finanziert werden.

                                                                        

Zusätzliche (allgemeine/interdisziplinäre) Ausführungen sind mit gekennzeichnet.

Letztendlich entscheidet jeder selbst, ob fragmentarisch eingefügte, begleitende Inhalte gelesen werden, die nicht unmittelbar mit der Physik und Mathematik der Standardmodelle und dem Prinzip der Parsimonie zusammenhängen. Im Zweifelsfall ist »Scrollen« immer möglich.

 

 

Geschichtlicher »fun fact« mit weitreichenden Konsequenzen

Als Peter Higgs (1929 - 2024) 1964 "seinen" »Higgs-Mechanismus« vorstellte befand er sich in der »LSD-Flower-Power-Zeit« deren damalige wissenschaftliche Zeitgeist-Bewertung von Protagonisten wie dem Wissenschaftsphilosophen Paul Feyerabend (1924 - 1994) geprägt waren, dessen Idee von Wissenschaft lautete: "Anything goes". Das erklärt möglicherweise warum Higgs seine, aus Standardmodellsicht "bahnbrechenden", Ausführungen mit irrealen Tachyonen startete.

[Tachyonen (altgr. ταχύς tachýs ‚schnell‘) sind hypothetische Teilchen, die sich schneller als mit Lichtgeschwindigkeit (superluminar) bewegen. Es gibt offensichtlich keine experimentellen Hinweise, dass solche Teilchen existieren.]

Higgs Irrationalität war damals gern gesehen, Peter Higgs war sozusagen ein Wissenschafts-Avantgardist im Sinne Feyerabends.

Feyerabend passt zu Feierabend mit der Bedeutung, die eigentliche Arbeit ist beendet. Rückblickend kreierte und lebte Peter Higgs im wissenschaftlichen Feierabend, bedeutet, phänomenologisch, rational begründete Denkmodellphysik-Arbeit fand fortan nicht mehr statt.

Auch das in den 1960er Jahren von Richard Feynman (1918 - 1988) entwickelte Quark-Parton-Modell (QPM) beschreibt Nukleonen als Zusammensetzung grundlegender punktförmiger Bauteile, die Feynman Partonen nannte. Diese Bauteile wurden daraufhin mit den wenige Jahre zuvor gleichzeitig von Gell-Mann (1929 - 2019) und George Zweig (geboren 1937) postulierten Quarks identifiziert.

Auch hier ist die Grundlage irrational, denn der daraus resultierende mathematische Ansatz des Standardmodells der Teilchenphysik (SM), ausgehend von nulldimensionalenmasselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen. Masselose Eichbosonen bewegen sich gemäß Formalismusforderung mit Lichtgeschwindigkeit.  Das SM beschreibt Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen).

Parametrische Glaubensbekenntnisse

Die "moderne" Elementarteilchenphysik "nährt(e)" sich von «Spekulations-Kaskaden». In keiner anderen Wissenschaftsdisziplin wird so "kreativ" postuliert, "entdeckt" und "modifiziert", wie in der Teilchenphysik. Das sich dieses Konstrukt aus Teilchen und Thesen erfolgreich befruchtet und innerhalb der eigenen Grenzen bestätigt, ist keine große Überraschung, da die Aktivisten jederzeit neue Teilchen und Thesen einbringen können, um "alte" Thesen und Teilchen zu "retten".

Zurück zum Higgs-Mechanismus...

Folgender Sachverhalt wird kaum thematisiert bzw. "teilweise verschwiegen": Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m² < 0). Merke: Das ursprüngliche Higgs-Feld ist ein Tachyon-Feld, mathematisch definierbar, physikalisch irreal. Um den Tachyon-Term „zu umgehen“, wird das Feld als eine Variation um einen Vakuumszustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms.  

Die geforderten Eigenschaften des Higgs-Feldes sind u.a.:

»Higgs-Teilchen« sind Bosonen, weil nur dann eine kohärente Wellenfunktion möglich ist. Aus dem gleichen Grund müssen »Higgs-Teilchen« untereinander wechselwirken. Das Higgs-Feld ist skalar, um die Symmetrie des Vakuums zu erhalten. Im vorliegenden Fall der U(1)em- Eichtheorie muß das Feld geladen sein, um an das Photon zu koppeln. Das Higgs-Feld erfüllt die Klein-Gordon-Gleichung:

Man postuliert, dass sich das Higgs-Feld im Grundzustand mit einem Vakuumerwartungswert IΨ0I² = const ≠ 0 befindet. Die Forderung eines im Grundzustand nicht verschwindenden Erwartungswertes ist nicht trivial und kann nur mit einer Selbstwechselwirkung des Feldes "erfüllt" werden.

Um die Massenerzeugung im Standardmodell durch den Higgs-Mechanismus zu realisieren, kann man als minimale Variante das Higgs-Feld als Isospin-Dublett ansetzen. Im Verlauf dieser mathematischen Prozedur zeigt sich, dass ein weiteres masseloses Vektorboson, dass so genannte Goldstone-Boson auftritt. Da es aber keinen experimentellen Hinweis für dieses Boson gibt, wird es als "unphysikalisch" erklärt und mathematisch eliminiert („weggeeicht“). 

Des Weiteren gilt jedoch zu bedenken: Das Higgs-Potential und damit die spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus.

Wir sparen uns den komplexen »Mexican hat« und reduzieren die »spontane Symmetriebrechung« auf eine zweidimensionale "Anschauung":  

[ Graphen Vakuum-Erwartungswerte (0)   v : spontane Symmetriebrechung ]  in Abhängigkeit von V und  f(μ)

 

 

Die vier Komponenten des Isospin-Dublett-Ansatzes "liefern" letztendlich drei Vektorbosonen mit einer longitudinalen Spinkomponente und ein skalares Higgs-Feld. Damit das Photon masselos bleibt, wird in diesem Fall der Vakuumerwartungswert (wieder) auf Null "gesetzt". Die "restlichen" Masseterme werden dann von der "neutralen" Komponente mit nichtverschwindenden Erwartungswert erzeugt. Nach (mathematischer) "Umordnung" ergibt sich die eichinvariante SU(2) x U(1) - Lagrange-Dichte mit den "gewünschten" Massentermen für das Higgs- und die Eichbosonen.

Allgemein auffällig: Grundsätzlich werden Masse und Masselosigkeit der Theorie-Objekte nach den Fantasiewünschen der Theoriebauer vergeben. "Fantasiewunsch" ist keine semantische Spitze sondern inhaltlich das richtige Wort. Denn bei neutraler Betrachtung des SM fällt auf, daß im Rahmen des Formalismus Masse und Masse-Losigkeit je nach Gutdünken der Theoriebauer vergeben werden. Das lässt sich grundsätzlich durch "Neu-Eichungen" realisieren. Doch dieses beliebige Handeln besitzt keinen realphysikalischen Nährwert im Sinne eines Erkenntnisgewinns über phänomenologische Zusammenhänge. Ganz im Gegenteil: Es wird eine physikalische Pseudo-Realität geschaffen, die dann als verbindliche Grundlage dient. Wie sinnlos dieses Unterfangen ist, zeigt exemplarisch die theoretische Forderung nach Masselosigkeit der Neutrinos, die aber - gemäß (anerkannter) Neutrinooszillationen - endliche Massen besitzen. Die theoretische Forderung läuft ins Leere, denn die neutralen Leptonen (Neutrinos) werden im Standardmodell als exakt masselose Weyl-Fermionen angenommen. Der Widerspruch zu experimentell geforderten Neutrinomassen ist evident. 

Später mehr zum Higgs-Mechanismus, SM, Higgs-Boson und anderen unbrauchbaren »Kleinigkeiten»...

 

 

Allgemeine Hinweise: Leider halten sich auch Lehreinrichtungen - hier und da - nicht an gängige Informationsstandards. Das bedeutet, dass beispielsweise die eine oder andere Universität „Links“ ohne Angabe von Gründen („plötzlich“) löscht. Das ist insbesondere unter dem Aspekt von aussageunterstützenden Quellenangaben „sehr unschön“. Gegebenenfalls muss der Leser selbst mittels geeigneten Suchbegriffen eine neue „Verknüpfung“ herstellen.

 

 

 

Lassen wir   - schon hier und jetzt -    "die Katze aus dem Sack"...

Erweiterung des Energieerhaltungssatzes

Die im Folgenden "beschriebene" Materie-Raum Kopplung führt zu einer fundamentalen Erweiterung des Energieerhaltungssatzes. Mit der Konsequenz, dass nicht nur Masse, sondern auch der Raum selbst eine Energieform ist. Bedeutet: Das sich Masse in Raum und Raum in Masse transformieren lässt.

 

Herleitung des erweiterten Energieerhaltungssatzes

 

Weiterführend resultiert, aus der Energie-Gesamtbetrachtung, das (auch) Information eine Energieform ist.

Experimentelle Sachlage

An dieser Stelle sei bereits bemerkt, das alle - und ich meine wortwörtlich alle - bekannten Experimente zur Natur der Materie und deren Wechselwirkungen die Materie-Raum Kopplung bestätig(t)en. Das war weder im Rahmen der Quantenmechanik (QM) noch im Rahmen der Relativitätstheorie (RT) und folgend unter dem Denk-Dogma der Standardmodelle, mit dem Postulat eines Materie entkoppelten Raumes und dem postulierten Neutrino als nahezu nicht wechselwirkenden Energieträger, erkennbar. Es konnte offensichtlich nicht einmal gedacht werdenNB.

 

[NB] Obwohl, ...Niels Bohr (1885 - 1962) äußerte 1931 auf einer Konferenz in Rom die Ansicht, dass zum Verständnis des Betazerfalls nicht neue Teilchen, sondern ein ähnlich schwerwiegender Umsturz der bestehenden Vorstellungen nötig sei, wie bei der Quantenmechanik. Er zweifelte den Satz von der Energieerhaltung an, ohne jedoch einen konkreten Gegenvorschlag entwickelt zu haben.

Bohr war bereits früher davon ausgegangen, dass der Energieerhaltungssatz im Rahmen der sogenannten BKS-Theorie (nach den Namen von Niels Bohr, Hendrik Kramers und John Slater) des Welle-Teilchen-Dualismus nur statistische Gültigkeit besitzt (On the quantum theory of radiation by N. Bohr, H. A. Kramers, and J. C. Slater 1924). Zweifel an der Gültigkeit des Energieerhaltungssatzes hatte Bohr schon viel früher geäußert, z.B. in seinem Briefwechsel mit Charles Galton Darwin, einem Enkel des Biologen, aus dem Jahr 1919.

   Kernphysik-Kongress                                                       Rom    Oktober 1931

1931 organisierte Enrico Fermi (1901 - 1954) den ersten Internationalen Kongress für Kernphysik, der unter der Schirmherrschaft der Accademia d'Italia und der Volta-Stiftung vom 11. bis 17. Oktober 1931 in Rom stattfand. Die Anwesenheit der bedeutendsten Wissenschaftler auf dem Gebiet der Kernphysik verlieh der Veranstaltung große wissenschaftliche Bedeutung.

Einige der Themen, die auf der Konferenz diskutiert wurden, waren: - Die Struktur und die Eigenschaften von Atomkernen - Die Natur und der Ursprung der kosmischen Strahlung - Die künstliche Transmutation von Elementen - Die Emission von Strahlung durch leichte Kerne - Die Quantentheorie der Kernphänomene - Die Anwendungen der Kernphysik in der Medizin und der Industrie. Die Konferenz hatte auch einen bedeutenden Einfluss auf die Entwicklung der Kernphysik in Italien, da Fermi und seine Gruppe junger Mitarbeiter (bekannt als die Via Panisperna-Jungs) ihre Forschungen über neutroneninduzierte Reaktionen fortsetzten, was 1934 zur Entdeckung der Kernspaltung führte.

 

 

Die zeitabhängigen Elementarkörper-Entwicklungs-Gleichungen leiten sich aus der beobachteten Invarianz der (Vakuum-)Lichtgeschwindigkeit ab.

                      

Der fundamentale Unterschied zur (Speziellen) Relativitätstheorie respektive zur Lorentztransformation ist der wechselwirkungsnotwendige radialsymmetrisch-dynamische Charakter dieser Gleichungen.

                  

Für ein  anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine substrukturierte* Zeit noch mathematische Raum-Zeit-Konstrukte notwendig.

 

*In der Elementarkörpertheorie ist die Zeit eine Variable ohne Substruktur, bedeutet u.a. Zeit ist nicht dilatierbar. Phänomenologisch: Zeitdilatation ist genauso wenig vorstellbar wie die Krümmung eines dreidimensionalen Raumes. Physik wird hier in einem dreidimensionalen, sinnlich vorstellbaren Raum beschrieben, die sich auf Grund der Radialsymmetrie variablenreduziert mit Hilfe des Radius »konstruktiv beschreibungsverarmt« abbilden und formalisieren läßt.

                                             

Besondere physikalische und epistemologische Bedeutung erlangt das Modell der phänomenologisch begründeten Masse-Radius gekoppelten Elementarkörper durch die Ergebnis-Genauigkeit und Einfachheit der resultierenden Gleichungen, die stets auf leicht verständlichen, konsistenten Denkansätzen beruhen. Die zugrunde liegenden Gleichungen sind korrespondierend skalen- und mengeninvariant.

 

Masse-Radius-Konstanten-Gleichung

Einfache Herleitung der Masse-Radius-Konstanten-Gleichung [F1]

Betrachten wir das Plancksche Wirkungsquantum h als kleinste skalare Wirkung, so hat diese Wirkung die Dimension Energie mal Zeit. Diese Aussage ist nicht trivial, da das Plancksche Wirkungsquantum auch der kleinsten Wirkung des axialen Drehimpulsvektors entsprechen könnte. Division durch die Zeit ergibt eine Energie. Setzen wir für die Energie, die Masse abhängige Ruhe-Energie E0 = m0c² ein, so ergibt sich für jede Ruhe-Masse eine spezifische Zeit t(m0). Diese Zeit lässt sich auch durch die Comptonwellenlänge λ0 der Ruhemasse ausdrücken.

 

t(m0) = h/(m0c²) = λ0/c   [tm0]

 

Betrachten wir nun die Elementarkörper-Entwicklungsgleichung r(t) = r0·sin(ct/r0):

Der Elementarkörper ist dann voll ausgebildet, wenn der Sinus von (ct/r0) gleich eins ist, dass ist für (ct/r0) = π/2 der Fall. Daraus resultiert eine vom maximalen Elementarkörper-Radius r0 abhängige Entwicklungszeit t0... 

t0= (π/2)(r0/c)   [tr0]

Gleichsetzen von t(m0) und t0

oder "etwas anders" betrachtet:

Elementarkörper und Masse-Radius-Konstanz aus Vergleich mit kleinster skalarer Wirkung [h]

Die Elementarkörpergleichung r(t) führt zum Elementarkörper mit der assoziierten Elementarkörper-Entwicklungszeit ∆t.

Die Gesamtenergie des Elementarkörpers mit r(t) = r0 ist ∆E = m0

Betrachten wir das Planck'sche Wirkungsquantum h als kleinste skalare Wirkung, so hat diese Wirkung die Dimension Energie mal Zeit.

               

 

Licht & Materie

Eine grundsätzliche Elementarkörper basierende Denkmodell-Forderung besteht darin, dass möglichst minimalistische Gleichungen, sowohl das masselose Photon als auch massebehaftete Materie abbilden. Die Entstehungsgleichungen r(t) = r0·sin(c ·t/r0) und m(t) = m0·sin(c·t/r0) leisten genau das.

   

         Information als materieller Zustand = Elementarkörper                    Zustand als Information = Photon

         

 

Historisches

Bereits Isaac Newton äußerte sich 1717* zur Umwandlung von Licht in Materie und umgekehrt,...

"Sind Körper und Licht nicht ineinander umwandelbar, und können Körper nicht viel von ihrer Aktivität von den Lichtteilchen empfangen, die in ihre Zusammensetzung eindringen? Die Umwandlung von Körpern in Licht und Licht in Körper ist sehr anpassungsfähig an den Verlauf der Natur, diese scheint begeistert von den Umwandlungen zu sein"

"Are not gross bodies and light convertible into another, and may not bodies receive much of their activity from the particles of light which enter their composition? The changing of bodies into light and light into bodies is very conformable to the course of Nature, which seems delighted with transmutations."

* Newton , I. (1717) Opticks, or, a Treatise of the Reflections, Refractions, Inflections and Colours of Light, Query 30.

 

Die zeitlose Lichtgeschwindigkeit - als Zustand reiner Bewegung -  steht nicht im Widerspruch mit der raumgekoppelten Materie-Energie-Verkörperung.

 

 

Standardmodell-Irrglaube

Aus Sicht einer nur an Masse gekoppelten Energie, erschien respektive erscheint den so Denkenden, dass  - insbesondere bei TeilchenzerfällenTZ - bezüglich der Massenbilanz, Energie verloren gegangen ist. Daraus resultierte (fatalerweise) die Neutrinothese.

 

[TZ] "Randbemerkung" zum SM-Sprachgebrauch

Teilchenphysiker benutzen generell den phänomenologisch falschen Begriff Zerfall, obwohl sie Umwandlungen meinen. Zerfall würde bedeuten, die Zerfallsprodukte waren (allesamt) Bestandteile des Zerfallenden. Dem ist aber nicht so, zumindest nicht im Rahmen der theoretischen Implikationen und Postulate des Standardmodells der Teilchenphysik (SM).

 

Des Weiteren... Auch der von der Standardphysik gebräuchliche Begriff Grundkraft ist irreführend, da es sich im Rahmen des Standardmodells der Kosmologie (ΛCDM-Modell) bei der Gravitation um Gleichungssysteme (Einstein, Friedmann) handelt, die in einem mechanischen Sinne keine Kraft beschreiben. Die Schwache und Starke Wechselwirkung sowie die elektromagnetische Wechselwirkung des Standardmodells der (Elementarteilchen-)Physik (SM) sind gleichfalls erst einmal masselose, "kraftlose", rein mathematische Gebilde.

 

 

Neutrino-Propaganda    Bereits Kindern und Jugendlichen wird von der Spektrum der Wissenschaft Verlagsgesellschaft mbH in Zusammenarbeit mit diversen Partnern "eingetrichtert", dass 1,8 · 1038 Neutrinos pro Sekunde die Sonne verlassen. (http://www.wissenschaft-schulen.de/sixcms/media.php/1308/neutrinos1.pdf) Von denen etwa 640 Billionen pro Sekunde und (Erdoberflächen-)Quadratmeter (ohne Auswirkung!) durch die Erde strömen.

Tatsache ist jedoch: Es gibt keinen einzigen direkten Neutrinonachweis. Es handelt sich stets um stark theoriebeladene Versuchsergebnisinterpretationen, wie noch später mehrfach erörtert wird. 

 

Konsequenzen der beobachtbaren Masse-Raum Kopplung

Bei allen "Teilchenzerfällen" (richtiger Teilchenumwandlungen) wird masse-abhängige Energie in raum-abhängige Energie umgewandelt. Der Energieerhaltungssatz der herrschenden Physik ist schlicht falsch, da dieser nur an Masse gekoppelte Energie berücksichtigt.

Was in allen Umwandlungs-Experimenten beobachtet wird, ist eine Abnahme der Masse. Die Beobachtung ist in voller Übereinstimmung mit der Masse-Raum gekoppelten Gesamt-Energiebilanz.

Die Neutrinothese und die darauf aufbauende Schwache Wechselwirkung sind gegenstandslos. Somit kollabiert das assoziierte Standardmodell der Teilchenphysik (SM).

 

In den folgenden Gesamtausführungen wird u.a. argumentativ begründet und experimentell bestätigt, dass es keine Neutrinos gibt.

                                                            

Die Neutrino-These ist haltlos und wurde bzw. wird - bei detaillierter, genauer Betrachtung - auch experimentell nicht bestätigt.

Warum die Materie-Raum Kopplung - wortwörtlich - als naheliegende omnipräsente Versuchsinterpretation nicht von den Experimental- sowie Theoretischen Physikern »(SM) theoriebeladen« wahrgenommen wurde, ist somit zum Standard-Modell-Verständnis der Physik (zwingend) "Gegenstand" des Folgenden. 

 

Neutrino-Psychologie

Hier haben wir eine konkrete Situation vorliegen, die äußerst schwer zu „verkraften“ ist. Psychologisch erst einmal nahezu unlösbar, weil sich so gut wie niemand vorstellen kann, dass eine tragende Hypothese eines über Jahrzehnte etablierten Denkmodells nachweislich falsch ist und als solche nicht korrigiert wurde. Zigtausende, gut ausgebildete Wissenschaftler über mehrere Generationen leben und arbeiten mit einer gravierenden Falschaussage? Viele Theoretische Physiker, insbesondere des SM, werden ungesehen der Argumente die Behauptung, das es keine Neutrinos gibt, gar nicht wahrnehmen wollen.

Auch Laien und Physiker, die nicht mit dem Formalismus des SM vertraut sind, können sich schlicht nicht vorstellen, dass dies möglich ist. Man unterstellt dem kritischen Betrachter, der auf die nachweisbaren Zusammenhänge aufmerksam macht, dass dieser etwas übersehen hat, emotional begünstigt durch den Umstand, dass man ja selbst nicht über die nötige mathematisch-formale Sachkenntnis verfügt. Das sind äußerst schwierige Randbedingungen aus Sicht realitätssuchender Aufklärung.

Es ist erst einmal davon auszugehen, dass sowohl die Protagonisten der Standardmodelle sowie deren Apologeten, Epigonen und Fans, die »Neutrino-Nichtexistenz« als Hirngespinst eines Außenseiters (im heutigen Sprachgebrauch auch als Verschwörungstheoretiker benannt und bekannt) ablehnen. Es liegt außerhalb ihrer Vorstellungskraft, dass Neutrinos nicht existieren. Nützen wird ihnen diese Haltung perspektivisch jedoch nichts, da die Masse-Raum Kopplung souverän mit plausibler, phänomenologisch begründeter »formaler Leichtigkeit« und experimentell bestätigt, letztendlich genauso „wirkt“, wie einst das »Heliozentrische Weltbild« gegenüber der »Geozentrik«.

Die experimentellen Sachverhalte waren zu jedem Zeitpunkt allen bekannt. Es war und ist somit, insbesondere aus rational-analytischer Sicht, äußerst befremdlich, warum die »Gemeinde« der Physiker vollkommen irrational diese ausblendet(e).

Der Begriff »Gemeinde« ist hier nicht zufällig gewählt. Physiker agier(t)en wiederholt als religiös Gläubige, wie noch erörtert wird.

Um das Neutrino-Existenz-Problem argumentativ verständlich zu machen, ist es sehr wichtig eine der absurdesten (Fehl-)Interpretationen der "Modernen" Physik nachhaltig verstehen zu können.

Warum  es  keine  Neutrinos  gibt

[Auf diesen extrem wichtigen experimentell basierenden respektive meßtechnisch bestätigten Aspekt wird etwas später im Text nochmals "unter" »Warm up"  zum  Paradigmenwechsel« explizit hingewiesen. Also erst die Information hier aufrufen oder erst einmal weiterlesen, ist letztendlich »leser-optional«.] 

 

 

Das folgend beschriebene alternative Denk-Modell (Elementarkörpertheorie, kurz EKT) basiert plakativ-psychologisch auf der Annahme, das deutlich einfachere, konsistente Materie-Beschreibungen und daraus resultierend einfache Formalisierungen existieren, als in den Standardmodellen annonciert. Die folgende Bemerkung von Karl Popper (1902 - 1994) adressiert das psychologische Problem des  »modernen Wissenschaftlers« im Rahmen hochkomplexer, mathematischer Modellvorstellungen:

..." Unsere Untersuchung läßt erkennen, dass selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, dass das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei."

Karl Popper (1902 - 1994), Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4; The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959.

"Wir kennen die „Beweggründe“ der Natur nicht. Wollen wir uns die Möglichkeit offenhalten, mehr von ihrem Geheimnis zu erfahren, dann müssen wir lernen, auch Wege zu überdenken, die wir unbewußt bisher ausgeschlossen haben, weil wir zu voreilig diese Wege für „undenkbar“ hielten." Rudolf Kießlinger (1921 - 2011)

 

 

Themeneinstieg(s)verschachtelung

Die Sachsituationen als solche sind zwar aus analytischer Sicht  - argumentativ begründet, sowohl theoretisch als auch experimentell - relativ einfach zu verstehen. Die "Schwierigkeiten" kommen hier mit den zahlreichen Möglichkeiten, einen Anfang zu machen. Für ergebnisoffene, professionelle »Physiktreibende« stellt sich die Situation  - u.a. im Hinblick auf die initiale Grundlagenvermittlung - anders da, als für Interessierte ohne Fachwissen.

In beiden Fällen bleibt jedoch - auch dann noch, die Beliebigkeit der Reihenfolge.

Ich könnte dem neugierigen, ergebnisoffenen Theoretischen Physiker, ohne viele Worte zu machen, beispielsweise anhand von direkten Vergleichsaspekten der Herleitungen und Formalisierungen und den daraus resultierenden Voraussagemöglichkeiten, direkt aufzeigen, warum die Standardmodelle im Sinne des »Prinzips der Parsimonie« Verlierer sind.

Um den gleichen Sachverhalt »mit Theoretischer Physik weniger "ausgestatteten" Lesern«, zu vermitteln, bedarf es erst einmal exemplarischer Bewusstseinsmachungen, u.a. wie beliebig und aussagelos die Standardmodelle bei genauer Sicht eigentlich sind.

Der folgende »Mittelweg« zum Verständnis des notwendigen Paradigmenwechsels ist so gestaltet, dass »hier und da« punktuell entschieden werden kann, was zum Erstverständnis gelesen wird. Es folgen zu allen wichtigen Aspekten des Denkmodells Wiederholungen im Folgetext.   

 

 

"Warm up"  zum  Paradigmenwechsel

respektive

"Vorspiel" - Gedanken zum Paradigmenwechsel

...noch dürfen Protagonisten, Epigonen und Apologeten der Standardmodelle hoffen,

dass es sich hier nur um einen Meinungsartikel oder gar Satire handelt...

Der Paradigmenwechsel

ein überfälliges Rendezvous mit ursächlicher Rationalität

Da Mathematik nicht zwischen Staub und Staubsauger unterscheiden kann, ist in einem allgemein verständlichen Denkmodell Mathematik nur Mittel zum Zweck. Nichts weiter als ein plausibilitäts-resultierendes, praktisches Ordnungs- und Formalisierungsinstrument.

 

In der Mathematik versteht man die Dinge nicht. Man gewöhnt sich einfach an sie.“  John von Neumann (1903 – 1957)

Soweit sich die Gesetze der Mathematik auf die Wirklichkeit beziehen, sind sie nicht sicher; und soweit sie sicher sind, beziehen sie sich nicht auf die Wirklichkeit."  Albert Einstein (1879 - 1955)

Ich bin der Meinung, dass wir überhaupt keine eindeutigen physikalischen Konzepte haben, wenn wir nur funktionierende mathematische Regeln anwenden; das ist nicht das, womit der Physiker zufrieden sein sollte."  Paul Dirac (1902 – 1984)

 

Des Weiteren: Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend phänomenologischer Betrachtungen und Erklärungen.

Menschen im Allgemeinen und Wissenschaftler im Speziellen sind geprägt durch historisch entstandene Denknormen. Hin und wieder ändern sich diese, wie am Anfang des 20.Jahrhunderts. Relativitätstheorie (RT) und Quantenmechanik (QM) bilden seit nun mehr als 100 Jahren die, zwar wenig anschauliche, aber formale Denk-Grundlage für die physikalische Theorie-Welt. Insbesondere die Voraussagefähigkeiten der Quantenelektrodynamik (QCD) sowie der Quantenelektrodynamik (QCD) sollen ein "sehr gutes" Argument für die "Richtigkeit" dieser Theorie(n) sein. Doch das diese Voraussagefähigkeiten, bei genauer Sicht, Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, wissen viele nicht respektive erschließt sich den meisten Interessierten nicht. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und Substrukturthesen. Dies führte letztendlich u.a. zur Fragmentierung der elektrischen Elementarladung (siehe Quarks), die jedoch experimentell nie als solche fragmentiert in Erscheinung trat und tritt.

Wie sehen die Standardmodell-Ergebnisse wirklich aus?

Sparen wir uns an dieser Stelle erdachte Details, wie Gluonenpostulat, die postulierte Polarisation des Vakuums (spontane Bildung von virtuellen Elektron-Positron-Paaren und virtuellen Photonen) oder die Quark-Antiquark-Paar-These, so stellen wir fest, dass Quarks-Massen nur etwa 1% der Nukleonenmassen (Proton, Neutron) ausmachen. Der "Rest" ist unbestimmte Bindungsenergie. Das bedeutet, dass nach dem bekannten Masse-Energie-Äquivalenzprinzip Nukleonen fast gesamtheitlich aus phänomenologisch unbestimmter Bindungsenergie bestehen.

Mit den Worten Richard Feynmans:

"Es ist wichtig, einzusehen, dass wir in der heutigen Physik nicht wissen, was Energie ist."

"It is important to realize that in physics today, we have no knowledge of what energy is."

Noch gravierender ist die Tatsache, dass diese (Protonen, Elektronen, Bleikerne, ...) in üblichen Hochenergieexperimenten auf fast Lichtgeschwindigkeit beschleunigt werden, bevor sie kollidieren. Das bedeutet, es kommt zur Bindungsenergie auch noch eine beträchtliche Menge an äußerer Energie hinzu. An dieser Stelle ist das komplexe Glaubensmärchen jedoch noch nicht am Ende. In einem größeren Bild des Kosmologischen Standardmodells (ΛCDM-Modell) wird postuliert, dass die sichtbare Masse wiederum nur einen kleinen Teil der Masse im Universum ausmacht. Größtenteils besteht das Universum für heutige Standardmodell-Gläubige aus »Dunkler Materie« und »Dunkler Energie«. »Dunkel« steht hier für nicht nachweisbar/nicht detektierbar.

Humor ist, wenn man trotzdem lacht. Unter diesen Randbedingungen entbehrt es nicht einer gewissen Ironie respektive Komik, wenn die so begründete Systemphysik von notwendiger Energieerhaltung "spricht".

 

Folgende widersprüchliche Aussagen des Standardmodells der Elementarteilchenphysik (SM) kommen möglicherweise in dieser "Informations-Tiefe" für einige Leser etwas früh, doch lassen sich an dem Neutrino-Beispiel wesentliche Inkonsistenzen und offensichtliche Widersprüche des SM unmißverständlich aufzeigen.

Allgemeine Vorbetrachtungen

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess.

 

 

...vom   postulierten »Theorie-Ereignis«            zum               »Zauber-Teilchen für alle Fälle«

 

Ohne das an dieser Stelle bereits im Detail auszuführen, ist (auch) die Neutrinothese eine "energierettende" Hilfserklärung mit weit reichenden, fatalen Konsequenzen. Tatsache ist: Auch für Neutrinos gilt: Es gibt keinen einzigen direkten Neutrinonachweis. Es handelt sich stets um stark theoriebeladene Versuchsergebnisinterpretationen.

Was "ES" seit Jahrzehnten gibt, sind eine Vielzahl von Versuchsaufbauten und theoriebeladene Interpretationen zu indirekten wunschgemäßen Neutrinonachweisen. Warum Neutrinos so beliebt sind, liegt, materiell gesehen, an der assoziierten Neutrino-Industrie. Es lassen sich gefahrlos Forschungsgelder für theoretische Spekulationen und Neutrinoexperimente abgreifen, da die Natur der Neutrinos „in den Sternen steht“. Der postuliert extrem kleine Wechselwirkungsquerschnitt macht Neutrinos „unsichtbar. Somit lassen sich alle Bemühungen, ob in Form theoretischer Konstrukte zum unsichtbaren Verhalten oder in Form von „Neutrino-Nachweis-Maschinen“ beliebig ausarbeiten und konfigurieren, ohne argumentative Gegenwehr befürchten zu müssen, also im wahrsten Sinne des Wortes honorieren.

 

 

 

SM-Existenz-Postulate

Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben.

Diese Grundbedingung steht in einem eklatanten Widerspruch zu (dogmatisch anerkannten) Neutrino-Oszillationen (Nobelpreis 2015), die zwingend Neutrinomassen voraussetzen. Logische Konsequenz: Man "verabschiedet" sich entweder vom Standardmodell der Teilchenphysik-Formalismus oder von massebehafteten Neutrinos. Nur Logik gibt es nicht in den Standardmodellen, wenn diese stört.

Standardmodell-Aussage: …“Neutrinos sind im Standardmodell der Teilchenphysik masselos. Neutrino-Oszillationen erfordern aber Massen und aus dem experimentellen Nachweis der Oszillationen folgt daher, dass das Standardmodell unvollständig ist.“…

Da haben wir es wieder. Die theoretischen Grundlagen sind nicht falsch (wo kämen wir denn da hin), nein, das SM ist "unvollständig". SM-Credo: Was kümmert uns die theoretische Grundlage der postulierten Masselosigkeit (von gestern).

Die Methodik der Zirkelschlüsse ist einfach zu verstehen. Egal was behauptet wird, der Neutrino-Glaube muß aufrechterhalten werden. Bedeutet hier: Unter Berücksichtigung der selbstdefinierten Neutrinobeteiligungen des Standardmodells musste man feststellen, dass die "quantitative" Erwartung des Neutrinoaufkommens nicht beobachtet wird. Man folgerte sodann, dass sich Neutrinos von der Entstehung bis zum "Nachweis" in eine nicht "messbare" andere Neutrinosorte umwandeln. (Pippi Langstrumpf lässt grüßen) Ohne dass an dieser Stelle genauer zu erörtern impliziert diese Annahme, dass Neutrinos eine Masse haben müssen. Den Vorgang der Umwandlung nennt man nicht Neutrinoumwandlung sondern Neutrino-Oszillation, das ist eine der „semantischen Spitzen“ im Rahmen des Verschleierungs-Programms, möglichst vage zu bleiben. Statt also Neutrinos auf Grund des fehlenden experimentellen Nachweises zu entsorgen, wird lieber das theoretische Modell abstrahiert. Diese erkenntnisfeindliche, methodische Programmatik fand schon ihre Anwendung bei den postulierten Quarks (wie später ausgeführt wird).

Da man sich vom Standardmodell nicht trennen will, gibt es im Rahmen mathematischer Ergänzungen stets die Möglichkeit NeutrinomassenNM "irgendwie" einzubauen. Das ist aber nur möglich, da das Konstrukt des SM bei genauer Betrachtung u.a. keinerlei überprüfbare realphysikalische Referenz besitzt, sprich alle SM-assoziierten vermeintlichen Objekt-Nachweise sind indirekte, stark theoriebeladene Versuchsinterpretationen.

 

[NM] erweiterte Neutrinopostulate  Bei "massetragenden" Neutrinos muss man, wie bei den Quarks, zwischen Eigenzuständen der schwachen Wechselwirkung und Massen-Eigenzuständen unterscheiden. Wenn ein Neutrino durch die schwache Wechselwirkung erzeugt wird, befindet es sich in einem definierten “flavor”-Eigenzustand, der eine kohärente Superposition von Masseneigenzuständen ist, d. h. das Neutrino kann während der Propagation spontan in einen anderen “flavor” übergehen. Diese Übergänge werden dann Neutrino-Oszillationen genannt.

Quarks hingegen sind nicht isolierbar, soll heißen, nicht direkt "messbar"QN. Quarksmassen werden aus ihrem Einfluß auf das Hadronenspektrum oder auf Streuquerschnitte "berechnet". Bei der Angabe der Resultate muß sorgfältig unterschieden werden, auf welchen Modellannahmen die Berechnungen beruhen und welches Renormierungsschema verwendet wurde. Die Literatur zum Thema ist entsprechend umfangreich und teilweise schwer zu vergleichen.

[QN] Diese Aussage des SM ist suggestiv irreführend, da Neutrinos auch nicht direkt gemessen werden können.

"Massetragende" Neutrinos können als Dirac- oder Majorana-Spinoren dargestellt werden. Für masselose Neutrinos sind diese beiden Darstellungen äquivalent. Falls Neutrinos massive Dirac-Teilchen sind, so ist nach wie vor die totale Leptonzahl eine Erhaltungsgröße, während die Leptonfamilienzahl durch die Neutrinomischung verletzt wird. Letzteres gilt ebenso für Majorana-Neutrinos, die aber zusätzlich auch die totale Leptonzahl verletzen würden, da Majorana-Neutrinos ihre eigenen Antiteilchen sind. Darüber hinaus ist die Unterscheidung von Dirac- und Majorana-Neutrinos experimentell äußerst schwierig. Majorana-Neutrinos können kein elektrisches oder magnetisches Dipolmoment besitzen, ebenfalls als Folge der Tatsache, dass Majorana-Neutrinos ihre eigenen Antiteilchen sind.

ABER zur Erinnerung: Der »Higgs-Mechanismus« und übergeordnet das Standardmodell der Teilchenphysik schließen Neutrinomassen aus.

 

Einfach ausgedrückt: Egal wie strukturiert »ihr« bisheriger Lieblingswunsch auch ausgesehen haben mag, natürlich können »sie« in ihrer Fantasie aus masselosen massebehaftete Objekte "erdenken". Doch mit den ursprünglichen Thesen und der ursprünglichen (mathematischen) Konzeption ist diese "neue" Idee nicht verträglich. Aber, wie sagt "man" so schön, was stört mich das (eigene) Geschwätz von gestern. Die schwerwiegenden Probleme der Widersprüchlichkeit werden möglichst nicht thematisiert oder einfach ausgeblendet.

 

Neutrino-Oszillationen

...und der Neutrino-Forscher sprach: "mein Wille geschehe, es werde umgewandelt...

…“Das Phänomen der Mischung von Neutrinos bedeutet, dass die so genannten Wechselwirkungszustände, d. h. die 3 Arten von Neutrinos, keine Teilchen mit wohldefinierter Masse sind, sondern eine quantenmechanische Überlagerung von Teilchen mit verschiedener Masse. Diese Mischung zwischen Wechselwirkungs- und Massenzuständen wird mit Mischungswinkeln beschrieben. Neutrinomischung kann zu dem Phänomen der Neutrinooszillationen führen, wenn Neutrinos in gewisser Entfernung vom Produktionsort wieder detektiert werden. Auf dem Weg vom Produktionsort zum Detektor erhalten die verschiedenen Massenzustände unterschiedliche quantenmechanische Phasen, und es kommt zu einer Interferenz... So kann ein Neutrino, das als Elektron-Neutrino produziert wurde, beim Detektor mit einer gewissen Wahrscheinlichkeit als Myon-Neutrino beobachtet werden.“… Quelle: Max Planck Gesellschaft 

Neutrinos sind «wildcards par excellence» der Teilchen-Physik. So wie «sie» gebraucht werden, erscheinen «sie». Und wenn «sie» mal nicht erscheinen, dann "mutieren" «sie» nachträglich "theoriegerecht", eleganter ausgedrückt nennt man das Neutrino-Oszillation. Da können religiöse Führer noch eine Menge von dogmatischen Neutrinomachern lernen...

Insgesamt wird der Glaube an Neutrinos und die resultierende Behauptung, Neutrinos würden existieren, damit begründet, dass es trotz der postulierten nahezu ausbleibenden Wechselwirkung, doch entsprechende Neutrinonachweis-Experimente gibt. Aus der Not heraus postulierte Neutrino-Selbst-Umwandlungen, die semantisch verschleiert Neutrino-Oszillationen "getauft" wurden, sind jedoch kein wissenschaftlicher Denk-Fortschritt sondern interdisziplinär eine freche Absage an wissenschaftliche Konzepte. Die vom SM theorieinduzierten "Neutrino-Ruhe-Massenuntergrenzen" von < 2 eV/c² bis < 15,5 MeV/c² sind absonderlich, da, wie bereits erwähnt, innerhalb der Theorie "Masselosigkeit" gefordert wird.

 

Wie werden Neutrinos nachgewiesen?

Die SM-Antwort lautet: Aufgrund der extrem kleinen Wirkungsquerschnitte hat man im Allgemeinen kaum eine Chance, ein Neutrino in einem Detektor nachzuweisen. Man bedient sich daher, speziell in Kollisionsexperimenten, eines experimentellen »Tricks«, für den Nachweis über die »fehlende Energie«. Man konstruiert den Detektor völlig hermetisch, so dass eine Energie/Impuls-Bilanz aufgestellt werden kann. Der fehlende Energie-Impuls-Vektor wird einem entweichenden Neutrino zugewiesen.

Ergebnisoffene, argumentative Versuchsinterpretation: Vorausgesetzt man könnte ein real-physikalisches System hermetisch gestalten, so verbleibt dieser vermeintliche Neutrino-Nachweis offensichtlich »Neutrinotheorie beladen« und im Sinne eines physikalischen Experimentes »methodisch völlig beliebig«. Denn, wenn es keine Neutrinos geben würde, ändert sich an dem Versuchsergebnis schlicht nichts. Das Einzige, was im "Experiment" festgestellt wird, ist fehlende (masse-abhängige) Energie gemäß vermuteter Energiebilanz.

Die "zweite Klasse" von vermeintlichen Neutrinonachweisen[NN] beruht auf theoretischen Annahmen, die besagen, dass bei Entstehungs- und Zerfallsprozessen Neutrinos beteiligt waren. Es handelt sich in allen Fällen um theoriebeladene, indirekte "Existenzbeweise". In keinem dieser "Experimente" werden Neutrinos direkt nachgewiesen. Das stört aber offensichtlich weder die SM-Bastler noch die SM-Anbeter (mit und ohne Fachwissen).

"Gehen" wir mal in die Praxis"...

Gemäß SM „bedeutet“ Neutrinonachweis beispielsweise:

…Man misst die Ströme der Kaonen und Pionen und bestimmt indirekt den Fluss der Neutrinos…

Nun sind aber schon Pionen (π0, π -, π+)  und erst recht Kaonen (K+, K-K0, K0) höchst konstruierte Gebilde (zum Erst-Verständnis siehe https://en.wikipedia.org/wiki/Kaonhttps://en.wikipedia.org/wiki/Pion) des Standardmodells. Bedeutet: Die Anzahl der Existenzpostulate, wie Masse, Ladung, Spin, flavor(s), Lebensdauern und Quarkzusammensetzung ist bereits „beachtlich“. Die möglichen Umwandlungen ergeben „ vielfältige“ »Wechsel-Wikungs-Spiel-Szenarien«. Des Weiteren: Das neutrale Kaon ist nicht sein eigenes „Antiteilchen“, dies führt (allgemeiner) zu der Konstruktion der Teilchen-Antiteilchen-Oszillation (siehe https://en.wikipedia.org/wiki/Neutral_particle_oscillation) und das neutrale Kaon soll in zwei Formen, einer langlebigen und einer kurzlebigen Form existieren. 

Daraus nun auf Eigenschaften „flavor-oszillierenderG Neutrinos zu schließen, potenziert die Beliebigkeit nochmals. Um das alles (reproduzierbar) zu verstehen, braucht man den absoluten Glauben an axiomatische Schöpfungen. Als Belohnung winkt dann jedoch der Freibrief, dass jedwedes Versuchsergebnis „erklärbar“ wird (…das wir bis dahin - in Verbindung mit der »experimentellen Seite« - grob geschätzt einige Dutzend weitere ergebnisorientierte Annahmen machen müssen,  … kümmert SM-Gläubige nicht).

[G] wie infantil verwahrlost das SM ist, wird hier - auch ohne Kenntnis irgendeiner theoretischen Spezifikation - sprachlich überdeutlich, wenn man rein "Deutsch" vorträgt:

geschmacks-oszillierend

...bedeutet also auch für das Theorieobjekt Neutrino: "barer Unsinn "ahead"...

 

 

 

Zum grundlegenden Verständnis detaillierte Informationen zur Neutrino-Nicht-Existenz

 

Die experimentellen Sachverhalte waren zu jedem Zeitpunkt allen bekannt. Es war und ist somit, insbesondere aus rational-analytischer Sicht, äußerst befremdlich, warum die »Gemeinde« der Physiker vollkommen irrational diese ausblendet(e).

Der Begriff »Gemeinde« ist hier nicht zufällig gewählt. Physiker agier(t)en wiederholt als religiös Gläubige, wie im Folgenden erörtert wird.

Um das Neutrino-Existenz-Problem argumentativ verständlich zu machen, ist es erst einmal zwingend eine der absurdesten (Fehl-)Interpretationen der "Modernen" Physik nachhaltig verstehen zu können.

Warum  es  keine  Neutrinos  gibt

 

 

Sein oder nicht sein?

Um eine lange Denkmodellgeschichte so kurz wie möglich zu machen, kommen wir gleich zum Kern des Paradigmenwechsels bezüglich der Makrokosmos-Beschreibung. Das derzeitige Standardmodell der Kosmologie (ΛCDM-Modell) geht – einfach formuliert - davon aus, dass es im Rahmen der Raumzeit-Expansion eine  so genannte inflationäre Phase gab, in der die »Raumzeit« materielos mit vielfacher Überlichtgeschwindigkeit expandierte. Das ist nur möglich, wenn man die »Massen des Raumes« von diesem trennt. Die heutigen Denkmodelle zur Materiebildung setzen also eine Trennung von Masse und Raum voraus.

Im Rahmen des vorliegenden Denkmodells der Masse-Raum-Kopplung werden diese Annahmen "verworfen" und argumentativ durch deutliche einfachere ersetzt, u.a. mit dem formalisierten Ergebnis extrem genauer Voraussagen bezüglich experimenteller Größen und Werte.

 

Raum - Materie - (Ent-)Kopplung

Um zu verstehen, warum die Standardmodelle, genauer die Entwickler und heutigen Protagonisten, davon ausgingen respektive ausgehen, das man (den) Raum von (der) Materie entkoppeln kann, bedarf es zum Verständnis einiger Überlegungen.

Erst einmal ist festzustellen, das im Rahmen der Standardmodelle diese Entkopplung nicht nur möglich, sondern zwingend ist, wie folgend erörtert wirdMF. Wenn man so will, hat das SM "stillschweigend" diese primär postuliert "kosmologische Entkopplung" übernommen.

 

Standard-Denkmodellanatomie  -  "Vorspiel-Gedanken"

[MF] Das führt u.a. zu folgender, extrem wichtiger Antwort auf die Frage:

Was bleibt von der Allgemeinen Relativitätstheorie (ART) respektive dem daraus resultierenden Standardmodell der Kosmologie (ΛCDM-Modell)?

Die englische Wikipedia weist, anders als die deutsche Version, auf den wesentlichen Aspekt des Modells hin:

"Das Lambda-CDM, Lambda Cold Dark Matter oder ΛCDM-Modell ist ein mathematisches Modell der Urknalltheorie."

"The Lambda-CDM, Lambda cold dark matter or ΛCDM model is a mathematical model of the Big Bang theory."

 

Insgesamt muss man sich als Interessierter die Frage stellen, warum die deutsche Wikipedia im Vergleich zur englischen Wikipedia zum ΛCDM-Modell nahezu "nichts zu sagen" hat. Deutschsprachige, sofern sie nicht auch die englische Version bemühen, bleiben "wissenstechnisch" außen vor.

 

Offensichtlich ist nahezu niemandem klar, ob nun Laie oder Theoretischer Physiker, was »mathematisches Modell« hier bedeutet. Plakativ formuliert bedeutet es: Das einzig "Wahre" in diesem Modell ist die Differentialgeometrie. Alles andere in dem Modell sind Spekulationen, empirisch unbegründete Postulate und dies »Alles« aufbauend auf freien Parametern (wie später erklärt wird).

Die Geschichte der Urknalltheorie ist so verlaufen, ohne das an dieser Stelle bereits näher auszuführen, dass neue hypothetische „Objekte“ eingeführt werden mussten, für die es keine Belege gab und nach wie vor gibt, außer dass sie die zugrunde liegende Theorie rette(te)n. Der Begriff »Inflation«, der ein Feld und eine Energie beinhaltet, die völlig unbekannt sind, wurde Anfang der 1980er Jahre eingeführt, um den Urknall trotz sehr schwerwiegender Widersprüche in der Beobachtung zu halten. Bald darauf kam die nichtbarionische »Dunkle Materie« als postulierte Theorie-"Entität" hinzu und in den 1998er Jahren die »Dunkle Energie«. Die dunkle Energie ist eine postulierte, nicht detektierbare (!?!) Form von Energie, die das Universum auf großen Skalen beeinflusst. Ihr postulierter Haupteffekt besteht darin, dass sie die beschleunigte Expansion des Universums auslöst respektive aufrecht erhält. Der Begriff wurde 1998 von dem Astrophysiker Michael S. Turner geprägt.

U.a. bedingt durch die notwendige These zur Aufrechterhaltung des ΛCDM-Modells wurde die Inflationsphase (mit vielfacher Überlichtgeschwindigkeit) eingeführt, dazu musste der Raum von der Materie entkoppelt werden, ohne das explizit zu erwähnen. "Implizit" ist das klar, denn Materie kann auch im Rahmen der Standardmodelle nicht auf Lichtgeschwindigkeit und schon gar nicht auf Überlichtgeschwindigkeit beschleunigt werden. Das bedeutet jedoch, das diese Raum-Materie-Entkopplung auch vor und nach der postuliert kosmischen Inflation vorlag respektive vorliegt, also auch im Hier und Jetzt. Für diese Annahme gab und gibt es jedoch keine Beweise.

 

Kosmologische Konstante Λ und postulierte Inflation

Die Kosmologische Konstante Λ,  die Albert Einstein im Glauben an ein statisches Universum einführte, welche dann im Zuge der "frühen Ideen" des expandierenden Universums abgeschafft wurde, kam zurück, da Λ theoretisch wieder gebraucht wurde. Doch die Kosmologische Konstante bedeutet schlicht und ergreifend, dass auch im Verständnis der Urknall-Theoretiker, das "Vakuum" eine Energiedichte besitzt. Vakuum ist hier eine weitere Wortspielerei für vermeintlich leeren Raum. Das Anheften von Λ an die Theorie führt aber unweigerlich zu »Materie im Raum«. Das Ergebnis ist leicht zu verstehen. Lassen wir mal außen vor, dass wir hier schon wenig kleinlich, das Attribut einer lichtschnellen Ausbreitung nicht thematisieren wollen. Der Raum expandiert mit Materie (nahezu lichtschnell) bis zum Beginn der postulierten überlichtschnellen Inflation, dann expandiert der Raum ohne Materie bis zum Ende der Inflation, um dann wieder mit Materie brav im Rahmen der Relativitätstheorie zu expandieren.

Detaillierter...

Inflationäre Modelle gehen davon aus, dass der Vakuumzustand des Universums etwa 10-36 Sekunden nach dem Urknall anders war als heute: Das inflationäre Vakuum hatte eine viel höhere Energiedichte. Nach der Allgemeinen Relativitätstheorie erzeugt jeder Vakuumzustand mit einer Energiedichte ungleich Null eine abstoßende Kraft, die zu einer Expansion des Raums führt. In inflationären Modellen verursacht der frühe hochenergetische Vakuumzustand somit extrem schnelle Expansion sprich eine Expansion mit vielfacher Lichtgeschwindigkeit. Diese Expansion erklärt verschiedene Eigenschaften des heutigen Universums, die ohne eine solche inflationäre Epoche nicht zu erklären sind. In den meisten Inflationsmodellen wird ein Skalarfeld, das so genannte Inflationsfeld, vorgeschlagen, das die notwendigen Eigenschaften besitzt.

Die Inflations-Theorien lassen offen, wann die Inflationsepoche endete, derzeit arbeitet man mit einer Dauer zwischen 10-33 und 10-32 Sekunden nach dem gleichfalls postulierten Urknall. Die schnelle Ausdehnung des Raums hat im Modell zur Folge, dass alle potenziellen Elementarteilchen (oder andere "unerwünschte" Artefakte wie topologische Defekte, was das auch immer sein mag), die aus der Zeit vor der Inflation "übrig geblieben waren", nun "sehr dünn" über das Universum verteilt waren. In der postulierten Inflationsphase vergrößern sich die linearen Dimensionen des frühen Universums um einen Faktor von mindestens 1026 (und möglicherweise um einen viel größeren Faktor, die Theorien lassen das offen) und das Universum vergrößerte sein Volumen um einen Faktor von mindestens 1078. Zum Vergleich: Eine Expansion um den Faktor 1026 entspricht der Ausdehnung eines Objekts von 1 Nanometer auf eine Länge von etwa 10,6 Lichtjahren postuliert in 10-33 bis 10-32 Sekunden.

Inflations-Fazit

Fantastischer und willkürlicher geht es in bekannten Sciencefiction-Filmen, wie Starwars, auch nicht zu. Der Unterschied: Es handelt sich um Theoretische Physiker, die nach dem Pippi Langstrumpf-Prinzip die Welt so machen, wie es ihnen gefällt. Warum? Weil sonst sprich ohne ultrakurze, überlichtschnelle Inflationsphase, für die es übrigens im Rahmen der Inflationstheorie keine phänomenologische Begründung gibt,  die selbstdefinierte Theorie sich, aus dann nicht erklärbaren Beobachtungsinterpretationen und - wenn man so will - assoziiert axiomatisch, selbst widerlegt. Was man, insbesondere als Laie, nicht erwarten würde und auch als Laie höchst wahrscheinlich als unseriös bewerten würde, sofern man es denn verstehen könnte. Was für Ärzte immer noch im Volksglauben gilt: Halb-Götter in Weiß, sind hier, da der Normalmensch Theoretische Physiker seriöser als Ärzte einschätzt, die Standardmodell-Experten Götter in Weiß. Hand aufs Herz, wer schon einmal explizit Gleichungen zur Allgemeinen Relativitätstheorie gesehen hat, wird sich sicherlich nicht mit denen "anlegen", die diese Gleichungen als ihr Arbeitsfeld betrachten.

Glücklicherweise läßt sich das Standardmodell der Kosmologie auch ohne differentialgeometrische Details sowie das Standardmodell der Elementarteilchenphysik, im Sinne des Prinzips der Parsimonie, spielend durch die Elementarkörpertheorie (EKT) komplett ersetzen.

Es bleibt nichts von dem einen noch von dem anderen Standardmodell übrig. Weder allgemein, noch epistemologisch oder in Bezug auf  Kompliziertheit und willkürliche Komplexität.

 

Übergeordnet betrachtet

Es müsste nicht nur Interessierte verblüffen, sondern insbesondere gut ausgebildete Wissenschaftler, wie Astrophysiker, das sie denken, genauer sich sicher sind, Aussagen über kosmische Vorgänge außerhalb unseres Sonnensystems machen zu können. Bei genauer Betrachtung ist dieses »Astrophysiker-Denken« nicht nur unwahrscheinlich sondern absurd.

 

 

            

Bei allen kosmologischen „Beobachtungsstudien“ handelt es sich nicht um kontrollierbare Laborexperimente. Die Ursachen und Phänomene aller möglichen Objekt-Beobachtungen außerhalb unseres Sonnensystems können nicht (einfach) als bekannt vorausgesetzt werden. Des Weiteren, die menschliche Beobachtungs-Zeitspanne ist verglichen mit den Zeitspannen, in denen sich kosmische Bewegungen abspielten und abspielen, extrem klein. Mit den Angaben aus der menschlichen Beobachtungsdauer Annahmen zu begründen, ist „weit hergeholt“ um es mal salopp zu formulieren. Alle derzeitigen vermeintlich empirischen Messungen sind stark (Urknall-)theoriebeladen. Postulierte Zeitspannen, Entfernungen und Energiedichten sind subjektiv-theorieabhängig.

 

Verbreitungsstrategie von Objekt- und Entstehungsmythen

Es beginnt grundsätzlich „ordentlich“, siehe exemplarisch das youtube-video Simulation of the neutron star coalescence GW170817 Die Beschreibung seitens des Max-Planck-Instituts für Gravitationsphysik (Albert-Einstein-Institut) beginnt mit …“The video shows a numerical simulation“…

Doch keiner der Verkünder, ob Wissenschaftler, Wissenschaftsjournalist, Nachrichtensprecher, …,  „meint“ letztendlich, dass es sich, sowohl theoretisch als auch physisch, um nichts weiter als Hypothesen und Simulationen handelt. Stark theoriebeladene Wünsche werden „im guten (doppeldeutig) materiellen Glauben“ materialisiert. Obwohl jeder sehen könnte, was er nie wirklich sehen wird…

 

Wahrnehmungsmöglichkeiten

In unserem Sonnensystem gibt es weder Neutronensterne, Gamma Ray Bursts (GRBs) noch Schwarze Löcher (respektive „Anomalien“, die als solche interpretiert werden können).

Eine Liste postuliert „erdnächster“ Schwarzer-Löcher-Kandidaten findet sich unter https://en.wikipedia.org/wiki/List_of_nearest_black_holes mit einer „kürzesten“ Entfernung von 2800 Lichtjahren. Zum Vergleich: Der nächste Stern „aus unserer Sicht“ ist mit 4,24 Lichtjahren Proxima Centauri (https://de.wikipedia.org/wiki/Proxima_Centauri). Objekt- und Entfernungs-Angaben beziehen sich auf die „Sicht des ΛCDM-Modells“.

Das angesiedelte soziologische Wahrnehmungsproblem „besteht“ darin, daß hier, nach einfachem psychologischem Glaubens-Muster, diverse postulierte Theorieobjekte unterschiedlichster Art, teils seit Jahrzehnten - der mit rudimentärem Wissen ausgestatteten Bevölkerung - als 100% real existent sprichwörtlich "verkauft" werden.  

Die Vorhersagen der »ART-Gleichungs-Anwender« sind im Sinne der ART-Axiomatik beliebig bis falsch. U.a. aus folgenden Gründen:

Ohne hier auf die zahlreichen Details, insbesondere die komplizierte und komplexe Mathematik (Stichworte Differentialgeometrie, Friedmann-Lemaître-Robertson-Walker-Metrik) explizit einzugehen und ohne die notwendige These des Standardmodells der Kosmologie (Lambda-CDM-Modell) der Inflationszeit (temporär vielfache Überlichtgeschwindigkeit für eine ultrakurze Zeitspanne) an dieser Stelle nochmals zu thematisieren…

Das basisverletzte Kovarianzprinzip

Die allgemeine Relativitätstheorie ist eine Gravitationstheorie und geht von der Gleichheit der trägen und der schweren Masse aus [»Äquivalenzprinzip«]. Aber die ART erklärt dieses Prinzip nicht sondern setzt es voraus. Die Allgemeine Relativitätstheorie wurde u.a. aus der Forderung geboren, zur Beschreibung der Naturgesetze beliebige Koordinatensysteme verwenden zu können. Entsprechend dem Kovarianzprinzip sollte die Form der Naturgesetze nicht entscheidend von der Wahl des speziellen Koordinatensystems abhängen. Diese Forderung ist ursächlich mathematisch und führt zu einer Vielfalt von möglichen Koordinatensystemen [Metriken] bleibt aber physikalisch “unmotiviert”. Schlimmer noch: Es ergeben sich je nach Wahl des Koordinatensystems phänomenologische Interpretationsspielräume (siehe oben). Der Grund ist “relativ” einfach: Koordinatensysteme sind mathematische Konstrukte, die keinerlei physikalische Eigenschaften besitzen (müssen). Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie, die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen. Erst Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen. Die unvermeidbaren (“kovarianten”) Widersprüche kommen mit den offensichtlich unzulässigen Idealisierungen und Näherungen des Systems von nichtlinearen, verketteten Differentialgleichungen.

Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung „entschwindet mit der Verstümmelung“ (Idealisierung und Näherung) der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch korrekten Gleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung. Mit anderen Worten: Das Kovarianzprinzip ist realphysikalisch betrachtet formales Blablabla und kann jeglichen theoretischen Mist hervorbringen. Selbst Schreibfehler können im Rahmen der Differentialgeometrie der ART Lösungen generieren.

Dazu ein exemplarischer Denkanstoß: Die zur “Schwarzschild-Metrik Lösungsmöglichkeit“ nach ihren Autoren benannte Eddington–Finkelstein–Koordinatentransformation beseitigt die Koordinatensingularität der Schwarzschildlösung und “sorgt” dafür, dass für die “avancierte” Lösung nach innen und für die “retardierte” Lösung nach außen Teilchen ins Schwarze Loch eindringen und austreten können! Mit anderen Worten: Die postulierten Schwarzen Löcher der „Ur-Version“ der Schwarzschild-Metrik waren bei genauer Betrachtung das Resultat zweier Integrationskonstanten des gewählten Koordinatensystems. Ein weiteres Koordinatensystem der Herrn Eddington und Finkelstein behebt das Koordinaten-Artefakt, “bringt” dem vermeintlich Schwarzen Loch aber nun die Eigenschaft, dass Teilchen das Schwarze Loch verlassen können. Bedeutet im Ergebnis: Kein Schwarzes Loch. Ausführlicher und genauer auf Spektrum der Wissenschaft online im Kommentarbereich des Artikels »Schwarze Löcher in Größe M«, 2. Kommentar vom 26.1.2016

Fazit: Schwarze Löcher sind populärwissenschaftlich ohne Frage sensationeller als keine Schwarzen Löcher. Doch es gibt keinen experimentellen Nachweis der Existenz auch nur eines einzigen Schwarzen Loches. Schwarze Löcher sind nichts weiter als Theorieobjekte eines mathematischen Formalismus, dessen gefordertes Kovarianzprinzip bedingt durch die Struktur der Gleichungssysteme nicht erfüllt werden kann, da nur Näherungen zu rechenbaren Lösungen führen.

 

Exemplarischer Nonsens: Gravitationswellen-Messungen

»Abstract zur Sache«

Bei der irdischen LIGO-Apparatur (Laser Interferometer Gravitation Wave Observatory) handelt es sich prinzipiell um ein Michelson-Interferometer, das angeblich Meßunterschiede in der Grössenordnung von 10-22 abbilden kann. Das verwendete “LIGO-Interferometer” “arbeitet” mit Laserlicht” und besteht aus “makroskopischen” Spiegeln und mißt keine Gravitationswellen, sondern “Verschiebungen” der Teilstrahlen im Spiegelsystem. Die immer wieder zu lesende Ansage, es handelt sich um einen direkten Nachweis von Gravitationswellen ist schlicht unwahr. Noch schwerwiegender ist der Umstand, daß die Interpretation der Messung Bestandteil der Meßkonzeption ist. Bereits die Kriterien der massiven Datenfilterung beinhalten die theoriebeladene Interpretation! Die dokumentierte Wahrheit ist, die “extrem winzige”, wunschgemäß der Gravitationswelle zugeschriebene, Längenänderung wurde nicht gemessen, sondern stark theoriebeladen “errechnet”. Die Theorie zur Gravitationswelle resultiert aus einer Kovarianzverletzung, wie bereits in einem vorherigen Kommentar ausgeführt, der zugrunde liegenden Gleichungen. Salopp formuliert wird u.a. zum Meßzweck die Raumzeit pseudoeuklidisch in einen absoluten Raum und messbare Zeit aufgespalten. Konträr zu Wunsch und Forderung der Standardmodellverkünder und dem ausgelösten Gravitationswellen-Hype in den populärwissenschaftlichen Medien existieren real weder Gravitationswellen noch Schwarze Löcher, letztere sind gleichfalls ein spezielles Produkt Schwarzschildmetrik kovarianzverletzter Gleichungen, wie gleichfalls bereits ausgeführt wurde. Mehr Details zur komplexen Problematik siehe exemplarisch »Gravitationswellen-Postulat und propagierte Nachweise«

Bereits Halton Arp brachte es auf den Punkt, was jeder wissen sollte, bevor man sich überlegt, wie eine Gravitationswelle wirken könnte.

Alle Daten über die extragalaktische Astronomie, die wir haben und die die Versuchs-Rahmenbedingungen für Messungen und Annahmen, auch der postulierten Gravitationswellen ausmachen, stammen aus elektromagnetischer Strahlung. Astrophysiker täten gut daran, sich diese einfache Tatsache immer wieder vor Augen zu halten. Allein die Tatsache, dass die Rotverschiebung von Quasaren nicht-kosmologisch sein könnte, würde das ganze Fundament der Entstehungstheorien für Galaxien und das übergeordnete Hubble Gesetz revisionsbedürftig machen.

Der Begriff respektive das Objekt Gravitationswelle ist bereits irreführend, da die mathematisch generierten Gravitationswellen der Einstein-Friedmann-Gleichungen keine materielle Qualität besitzen. Die Gravitationswelle ist ein Konstrukt der Raumzeit, diese ist meßtechnisch selbst nichts weiter als eine mathematische Abstraktion.

Bei allen kosmologischen „Beobachtungsstudien“ handelt es sich nicht um kontrollierbare Laborexperimente. Das ist eine allgemeingültige Aussage.

Ein sehr gutes Beispiel, welches diese Aussage untermauert, ist die Messung der Gravitationskonstanten, die mit einer relativen Standardabweichung von 4,7 ·10-5, die „schlechteste“ Wertbestimmung aller Natur-Konstanten aufweist.

Warum ist das so? „Ganz genau“ …, weil es keine menschliche Möglichkeit gibt, den Kosmos zum Labor aufzumotzen. Wie absurd lächerlich erscheint da im Vergleich die Annahme einer Mess-Genauigkeit von 10-22?

Wenn wir vom Kosmos – ohne Schöntuerei der Systempropaganda-Apparate – „sprechen“, dann endet derzeit die „irdische Mess-Genauigkeit“ wohl eher im Bereich der (Un-)Genauigkeit der “experimentellen” Gravitationskonstanten-Bestimmung.

Insbesondere im Zusammenhang mit dem rein theoretischen Konstrukt einer mathematisch generierten Gravitationswelle, gemäß genäherter Lösung und deren postulierter realer „Abbildung“ mittels Interferometer im Mess-Differenz-Bereich von 10-22, muß zwingend vorausgesetzt werden, das es sich bei dem »Kosmos«-Experiment um ein kontrolliertes Laborexperiment handelt, dessen versuchsrelevante Randbedingungen vollumfänglich bekannt sind. Diese Annahmen sind im Rahmen wissenschaftlicher Normen rational logisch mit Sicherheit auszuschließen.

Glaubte eigentlich Albert Einstein an die reale Existenz der mathematisch generierten Gravitationswellen?

Gläubige dieser Annahmen sind kritiklose Opfer ihrer selbsterzeugten Erhöhung, nur mit Wissenschaft, hier konkreter mit Physik, hat das nichts (mehr) zu tun.

Um 1936 schrieb Einstein an seinen engen Freund Max Born und teilte ihm mit, dass er zusammen mit Nathan Rosen zu dem interessanten Ergebnis gekommen sei, dass Gravitationswellen nicht existierten, obwohl man sie in erster Näherung für sicher gehalten hatte. Er hatte schließlich einen Fehler in seiner Arbeit von 1936 mit Rosen gefunden und glaubte, dass es Gravitationswellen gibt. Im Jahr 1938 kam Einstein jedoch erneut zu dem Ergebnis, dass es keine Gravitationswellen geben kann. Quelle: arxiv.org: Einstein and Gravitational Waves 1936-1938 Galina Weinstein 2016

Weiteres zum selbstständigen Mit- und Nachdenken

Die genaueste Längenmessung ergibt sich „spektroskopisch” mittels Proton-Myon-Wechselwirkung („myonischer Wasserstoff”) für die Messung des Protonenradius mit einer „Genauigkeit” von ~ 10-17 m

Zum Vergleich: Je nach dem, was und wie gemessen wird (…, Szintillator, Kaloriemeter,…, Penning-Falle …), ist ein QED-postuliertes, meßtechnisch erfasstes, „sehr gutes” Versuchs-Ergebnis, im Zusammenhang mit Naturkonstanten, die Messung des (anomalen) magnetischen Momentes des Elektrons mittels Doppel-Penning-Falle.

Anomales magnetisches Moment des Elektrons relative Standardabweichung 2,3 ·10-10

(Wobei sich die Frage stellt, inwieweit vermeintlich intrinsische Eigenschaften und deren Messwerte letztendlich aus Objekt- und versuchsinhärenten Beiträgen bestehen, siehe dazu die detaillierten Ausführungen Anatomie anomaler magnetischer Momente)

Sollte nun ein Theorieereignis der Raumzeit meßbar sein, so muß es sich als realphysikalisches „Messobjekt“ verhalten. Handelt es sich um ein solches, so stellt sich grundsätzlich die Frage, was denn gemessen wird. Nehmen wir mal unkritisch an, es handelt sich um Gravitationswellen. Hier kann es sich dann nur um eine Überlagerung aller vom Messinstrument lokal wahrgenommenen Gravitationswellen handeln. Da das Universum nicht isotrop ist und die Massen potentieller Objekte – soweit entdeckt – nur geschätzt sind, lässt sich weder die Anzahl noch die Stärke der Gravitationswellen-„Emitter“ im Rahmen eines gemessenen Gravitationswellenereignisses identifizieren, und u.a. auf Grund der angenommenen endlichen Lichtgeschwindigkeitsausbreitung für Gravitationswellen weder räumlich noch zeitlich „verorten“.

Selbst im Rahmen des ΛCDM-Modells kämen und kommen also argumentativ pro Gravitationswelle ja auch alle gravitationswellen-bildenden Ereignisse in Frage, die aus unterschiedlichsten Gründen nicht in den selbstgewählten Beobachtungsrahmen fallen, da sie insbesondere aus (Beobachtungs-)Unkenntnis schlicht unbekannt sind. Die suggestive Annahme, man wüsste genau, was sich kontinuierlich im Universum abgespielt hat und abspielt, zeugt von dekadenter Überheblichkeit und objektiv betrachtet ist diese (unmöglich zu realisierende) Annahme aber zwingend für eine “korrekte Versuchsauswertung”.

Mitbürger(innen) und was es sonst noch so woke-korrekt sprachzivilisatorisch mit eigener Atmung und eigenem Stoffwechsel gibt,

die staatliche Volksverdummung geschieht, obwohl die Faktenlage – öffentlich einsehbar – sachbezogen dokumentiert ist. Wer also glaubt, dass die Standardmodelle der Theoretischen Physik eine Berechtigung haben, weil sich nahezu alle „führenden“ Wissenschaftler dort tummeln, hat wesentliche Aspekte der vermeintlich „gemeinnützigen Meinungsbildung“ nicht verstanden. Ob CERN, LIGO oder die deutsche „alternative Energiepolitik“, nicht der Wunsch nach Erkenntnisgewinn oder praktischem Nutzen geben hier den Ton an, sondern letztendlich die von der Allgemeinheit subventionierten Nutznießer selbst, die konträr zur empirischen Gewissheit, Fakten leugnen und haltlose Aussagen verbreiten. Der Erhalt der Macht- und individuellen Versorgungsstruktur steht über allem anderen. Kritiker werden ignoriert, wenn nötig diskreditiert. Servile System-Medien verkünden und bewerben jeden denkmodell-theoretischen und anwendungstechnischen Mist der herrschenden Standardmodelle.

Die Massenpsychologie, die hier von den Fördergeldempfängern erfolgreich angewendet wird, hat Theodor Fontane aphoristisch so ausgedrückt: „Wir stecken tief in der Dekadenz; das Sensationelle gilt und nur einem strömt die Menge noch begeistert zu, dem baren Unsinn.“

Soviel zur kapitalistischen Psychologie des “Ganzen”.

 

Zum “Gravitations-Wellen-Ausklang”

Moderner Förster und „mathematische Feldhasen“

Stellen »Sie« sich vor, »Sie« sind ein Förster und beobachten jeden Morgen den nahe gelegenen Waldrand. Nur sind »Sie« nicht irgendein Förster, sondern »Sie« sind ein „moderner Förster“. Diese tragen eine „mathematische Brille“, die den Blickwinkel sehr stark einschränkt. Das führt dazu, dass »Sie« nur sehr selten Feldhasen sehen, die aus dem Wald ins Freie hoppeln. Eines Tages sehen »Sie« einen und erzählen stolz der ganzen Welt, »Sie« haben heute nicht nur einen Feldhasen, sondern einen „mathematischen Feldhasen“ beobachtet, der, anders als gewöhnliche Feldhasen, von dem Gleichungs-Impuls gelenkt wurde, der in der „mathematischen Hasenbibel“ steht, welche jeder „mathematische Feldhase“ neuronal-kodiert im Hasenhirn mit sich „rumträgt“. Nun, »Sie«, der besagte Förster, bekamen zu »Ihrer« Überraschung weder omnipräsente mediale Aufmerksamkeit und auch keinen Nobelpreis, sondern wurden neurologisch untersucht.

 

 

Materie-Raum-Kopplung

Löst man sich von der »Standard-Modell-Masse-Raum-Entkopplungsfantasie«, sieht die Welt deutlich einfacher aus, als uns das die Theoretische Physik seit mehr als 100 Jahren mathematisiert "weis machen will". Das hat erhebliche Konsequenzen. Eine Materie-Raum-Kopplung führt, phänomenologisch begründet, sowohl für den Mikro- als auch für den Makro-Kosmos, zu sehr einfachen Berechnungsmöglichkeiten zahlreicher physikalischer Größen und zum plausiblen Verständnis der möglichen Wechselwirkungen. Es kommt letztendlich zu einer Vereinheitlichung der (postuliert vier) Grundkräfte und darüber hinaus zu einer konsistenten Beschreibung von Materie und Licht.

Erweiterung des Energieerhaltungssatzes

Die Materie-Raum Kopplung führt zu einer fundamentalen Erweiterung des Energieerhaltungssatzes. Mit der Konsequenz, dass nicht nur Masse, sondern auch der Raum selbst eine Energieform ist und das sich Masse in Raum und Raum in Masse transformieren lässt. Weiterführend resultiert, aus der Gesamtbetrachtung, das auch Information eine Energieform ist.

Herleitung und Details zum erweiterten Energieerhaltungssatzes 

 

 

Wie einfach beispielsweise das Proton im Bild der Masse-Raum Kopplung im Vergleich zur Standardmodellsicht erscheint, verdeutlicht "grob" folgende Grafik:

f7 = (4 πε0c²) wurde "eingeführt", um suggestiv zu verdeutlichen, dass es sich bei der [Elementarkörper-]Ladung q(0) ("nur") um eine skalierte Masse-Radius-Funktion handelt. Banalerweise ist f7 auch numerisch (1·107) einfacher zu merken, als der Wert der Dielektrizitätskonstanten ε0. Am Rande bemerkt: Es gilt: ε0· μ0 = 1/c², μ0: magnetische Feldkonstante

 

 

Begriff der elektrischen Ladung(en) Masse-Radius gekoppelt(er Hintergrund)

Nahezu alle Berechnungen der EKT gehen von der Masse-Radius-Konstantengleichung [F1] aus...

Elektrische Ladung ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse (und dem Radius) des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Elementarkörpertheorie basierend sind jedoch alle Ladungswechselwirkungen anschaulich auf Masse-Radius-Kopplungen zurückzuführen. Elektrische Ladungen im Elementarkörper-Denkmodell kommen als (formales) Resultat der Masse-Radius-Kopplung bequemerweise nur implizit über Funktionen der Sommerfeldschen Feinstrukturkonstanten α vor. "Schlüssel" zum Verständnis der Materiebildungen sind die phänomenologisch begründeten Ladungsmöglichkeiten (...das wird später noch ausführlich erörtert). Zum einen die energetisch ruhemasse-äquivalente (starke) Elementarkörper-Ladung q0 und die elektrische Elementarladung e.

Im cgs-System (Zentimeter, Gramm, Sekunde) ist die elektrische Ladung "gleich" als Wurzel aus dem Produkt aus m0r0c² definiert:

 

Feinstrukturkonstante α

Die Frage nach der Herkunft und Bedeutung der Sommerfeldschen Feinstrukturkonstanten α führt im Bild der Elementarkörpertheorie zur elektrischen Elementarladung. α ist somit eine "abgeleitete" Größe, die aus der elektrischen Elementarladung "entstammt".

 

 

 

Keine Gnade

Letztendlich könnte man sich tolerant zeigen und darauf hinweisen, dass ein Denkmodell eben nur ein Denkmodell ist. Mit der Konsequenz, das die Standardmodelle im Vergleich zur Elementarkörpertheorie, gemäß dem Prinzip der Parsimonie, zwar eindeutig verlieren, aber ihre Existenzberechtigung behalten (könn(t)en). Nun, was "soll ich sagen", nein, dem ist nicht so. Nicht weil ich das (emotional motiviert) nicht will, sondern weil es zahlreich argumentative Gründe gibt, die die Standardmodell-Postulate, derzeit 31(!) freie Parameter (25 SM, 6 ΛCDM), mehrere Dutzend postuliert essentielle Theorieobjekte]pet, assoziierte Verknüpfungszahlen (Quantenzahlen), diverse Substrukturierungs-Thesen, Confinement-These,…, deren postulierte Wechselwirkungs-Szenarien und die resultierenden Aussage-Ergebnisse der Standardmodelle als reine Versuchs-Märchen-Interpretationen identifizieren. 

]pet Zählt man die Teilchen nach einer Regel, die zwischen Teilchen und ihren entsprechenden Antiteilchen sowie zwischen den vielen Farbzuständen von Quarks und Gluonen unterscheidet, ergibt sich eine Gesamtzahl von 61 Elementarteilchen. Wenn Neutrinos ihre eigenen Antiteilchen sind, dann würde die Gesamtzahl der Elementarteilchen nach denselben Zählkonventionen 58 betragen.

Fazit: Es handelt sich bei dem SM und dem ΛCDM-Modell  um philosophisch-mathematische Modelle. Die Standardmodelle sind keine physikalischen Denkmodelle! Somit haben sie keine Modell-Daseinsberechtigung zur Beschreibung der physikalischen Welt, auch losgelöst von der Existenz der EKT.

 

 

       

         Information als materieller Zustand = Elementarkörper                       Zustand als Information = Photon

                            

Die Basisaussagen des alternativen Denkmodells sind „glücklicherweise“ – sowohl sprachlich als auch inhaltlich – relativ einfach zu verstehen. Grundlegende Denkmodell-Aspekte lassen sich in Ankopplung an »globale Auffälligkeiten«, wie die Gravitationskonstante, die kleinste skalare Wirkung oder die Invarianz der Lichtgeschwindigkeit, intuitiv entwickeln. Ängste vor primärer Intuition sind unbegründet. Man muß eine Idee und weiterführend, aufbauend konsistente Ideen haben, um ein Denkmodell interdisziplinär verständlich gestalten zu können. Denkmodelle müssen absolut begriffstransformierbar sein, um eine epistemologische sowie allgemeine Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht außerhalb der Mathematik vermitteln lässt, ist im Rahmen eines physikalischen Denkmodells stets eine (erkenntnistheoretische) Nullnummer.

Insbesondere die »allgemeinen Aphorismen« sind leicht verständlich.

Beispiele:

Ein Denkmodell ohne Mathematik ist ein philosophisches Denkmodell.

Ein Denkmodell „aus“ Mathematik ist kein physikalisches Denkmodell.

 

 

Die experimentelle Sachlage

Alle Versuche die - sowohl auf kleinen Skalen (Mikrokosmos) als auch makroskopisch - durchgeführt wurden, bestätigen gemäß Versuchsergebnissen, deren Berechnungsmöglichkeiten und Meßwerten das, was die Elementarkörpertheorie (kurz EKT) auf Grundlage der Masse-Raum-Kopplung phänomenologisch beschreibt und einfachst formal-analytisch in sehr guter Übereinstimmung mit Meßwerten berechnet.

Der vorliegende - teils interdisziplinär "eröffnete" - Inhalt ist primär für Menschen bestimmt, die ohne Schöntuerei und falsche Rücksichtnahme auf Bestehendes Neues suchen und im Sinne der Aufklärung - gemäß des Prinzips der Parsimonie - Neues wünschen, dass sowohl die interdisziplinäre als auch die fachliche Qualität und Charakteristik für einen nachhaltigen Paradigmenwechsel in der »Denkmodellwelt der formalisierbaren Materiewechselwirkungen« besitzt.

Es folgt viel Text, genauer es folgen ausführliche Betrachtungen (Physikalisches, Mathematisches, Geschichtliches, Interdisziplinäres) zum Status Quo der Denkmodellsituation und einer argumentativ orientierten Alternative. Experimentalphysiker, angesiedelte Theoretiker, Apologeten, Epigonen und Fans des Bestehenden denken (erst einmal "gelernt") reflexartig, dass es sich vorliegend um einen Meinungsartikel handelt bzw. handeln muß, der entweder ungelesen ignoriert werden kann, oder sich die Inhalte, bei näherer Betrachtung, als unbedeutend "entpuppen" und letztendlich keine Gefahr für das bestehende Denken bedeuten.

Ehrlicherweise verhält es sich in der Regel auch so. Kritiker mit "guten" Argumenten gegen Bestehendes hatten respektive haben meist keine oder "schlechte" Alternativen im Angebot. Darüber hinaus kann sich nahezu niemand, insbesondere Quantenfeldtheoretiker, vorstellen, das es je etwas anderes als Quantenmechanik (QM), Quantenelektrodynamik (QED), Quantenchromodynamik (QCD), Allgemeine Relativitätstheorie (ART), perspektivisch Quantengravitation (QG) zur Beschreibung der Natur geben wird. Diese Grundhaltung sorgt dafür, dass kein Kritiker ernst genommen wird, der ein alternatives Denkmodell vorstellen möchte, welches nicht mit den genannten, etablierten Beschreibungsmethoden arbeitet.

 

Der Vollständigkeit halber erwähnt: Auch Stringtheorien basieren - plakativ formuliert - auf Annahmen der historischen QM als Beschreibungsmodell. Im grundlegenden Ansatz der Stringtheorie sind die fundamentalen Objekte der Physik jedoch keine Punktteilchen, sondern eindimensionale Objekte, so genannte Strings (englisch für Saiten).

Stringtheorien potenzieren (aus erkenntnistheoretischer Sicht) das „Phänomen der Unanschaulichkeit“. Stringtheorien sind u.a. ein „Sonderfall“ variabler Kopplungskonstanten. Jedoch sind diese Kopplungskonstanten keine vorbestimmten, anzupassenden oder universellen Parameter. String-Kopplungskonstanten sind Skalarfelder, die von der Position in Raum und der Zeit abhängen können, deren Werte so dynamisch festgelegt werden. Die eindimensionalen Strings sind zwar offensichtlich anders als die nulldimensionalen Punkte des SM,  aber Stringtheorien sind ergebnisorientiert, trotz der "Mehrdimensionen" in denen sich die Strings „breit machen“, keineswegs grundsätzlich verschiedene Konzepte im Vergleich zu den herrschenden Quantenfeldtheorien, wie häufig gedacht und behauptet wird. Auch Stringtheoretiker sind bemüht Quarks & Co theoretisch zu konstruieren. Das gesamte Arsenal an Beliebigkeit in Form nicht direkt messbarer instabiler „Teilchen“, die im Beschleuniger (theorie-)induziert werden, will die Stringtheorie „ungeprüft“ abbilden (formal nachbauen). Das Dogma der SM-Theorieobjekte bleibt also erhalten. Derzeitige Stringtheorie-Modelle sind jedoch so aussage- und gegenstandslos, dass selbst die Protagonisten des realobjektbefreiten Standardmodells keine („wirkliche“) Angst vor diesen haben.

Der letzte Schrei

Es werden - Zeitgeist orientiert - Eigenschaften von Quantengravitation und Stringtheorie theoretisch „erforscht“. Darin geht es unter anderem um die Frage, welche Quantenfeldtheorien bei niedrigen Energien eine konsistente Einbettung in die Stringtheorie bzw. bei hohen Energien in die Quantengravitation erlauben - und für welche Quantenfeldtheorien dies nicht der Fall ist.

 

Wohliges Dauer-Baden im eigenen Denksaft

Was passiert jedoch, wenn "plötzlich und unerwartet" der Stöpsel gezogen wird?

Heute inszenieren sich Wissenschaftler vordergründig gerne als aufgeklärt, faktenfreundlich, ergebnisoffen und bereit für neue Gedanken. Das fällt ihnen leicht, denn sie können sich schlicht nicht vorstellen, dass es zu spektakulären, neuen Ansätzen kommen wird, die sie selbst "alt aussehen lassen". Was passiert jedoch, wenn das, was diese heute lebenden Wissenschaftler – teils über Jahrzehnte – praktizier(t)en, in Analogie zum geozentrischen Weltbild, nicht mehr gelten soll? Stellen wir uns vor, dass es sich nicht um eine überschaubare Korrektur handelt, sondern um einen gewaltigen »Umstoß« des Bestehenden, hin zu einem Denkmodell respektive Weltbild, welches das vermeintlich »Unumstößliche« nicht nur in Frage stellt sondern komplett ersetzt. „Schlimmer“ noch, dass es sich herausstellt, das – plakativ formuliert - mehr als 100 Jahre Theoretische Grundlagenforschung von völlig falschen Annahmen ausging und rückblickend, mit all den Erweiterungen und Nachkorrekturen, als - emotional betrachtet - peinlich und selbstbetrügerisch erscheint.

Wir können uns sicher sein, dass alles Mögliche von den Betroffenen in Bewegung gesetzt wird, um die Verbreitung dieses Alternativmodells zu verhindern.

Die Physiker und Mathematiker, die nicht selbst mit den Standardmodellen assoziiert sind, stehen »Alternativen Denkmodellen« kritisch gegenüber, sofern sie überhaupt über diese nachdenken, weil sie sich nicht vorstellen können, das ihre Kollegen-Experten falsch liegen können. Sie denken, dass am Ende Alternativen sich nicht durchsetzten können, weil sie glauben, was die Standardmodellmacher seit Jahrzehnten propagieren: Wie ausgereift, aussagekräftig und alternativlos doch ihre Modelle sein. Mitunter schwingt auch die Angst mit, sich mit öffentlich wahrnehmbarer Kritik zu blamieren. Das hat damit zu tun, dass die angewandte Mathematik so komplex und schwierig ist, dass sie erst einmal mit dem Vorwurf konfrontiert werden, dass sie ja gar nicht verstehen, was sie da kritisieren. Das ist auch in den meisten Fällen aus rein mathematisch-formaler Sicht zutreffend.

 

Jäger und Sammler AlexDirk     no1  c-print      director of photography : adf     foto by T.B.     47ndf ]

Wenn ein »Alternatives Denkmodell« doch so gut ist, wie propagiert, warum wird dem trotzdem wenig bis keine Beachtung geschenkt? Warum wird es nicht in Fachkreisen beachtet und darüber diskutiert?

 

 

 

Wenn Prüflinge gleichzeitig Prüfer sind oder so ähnlich...

Diejenigen, die hier am besten und schnellsten, im Hinblick auf Konsistenz und Aussagefähigkeit, untersuchen könn(t)en, ob ein »Alternativmodell« im Sinne des Prinzips der Parsimonie eine Existenzberechtigung hat, sind im 21. Jahrhundert fast ausnahmslos Theoretische Physiker und in diesem Bereich angesiedelte Mathematiker. Diese sind allesamt, sofern sie sich mit den Standardmodellen der Teilchenphysik und Kosmologie beschäftigen, Protagonisten, Apologeten oder Epigonen dieser.

Es ist, sowohl für einen "unbetreuten" Quantenfeldtheoretiker, als auch für einen "unbetreuten" »ART affinen Differentialgeometriker«,  schlicht unmöglich, sich vorstellen zu können, dass es brauchbare Denkmodellalternativen ohne Quantenfelder und Differentialgeometrie geben kann. Das ist keine Übertreibung. Es ist für diese "Standardmodell-Denker" komplett unmöglich einfach zu denken. Das bedeutet, diese haben keinen eigenen Primärimpuls etwas derartig »Anderes« auch nur im Geringsten zu betrachten.

Aphoristisch lautet ihr Ausschließungs-Motto seit eh und je...

Wir lesen nichtwir schreiben selber!   

 

 

 

Und der "Rest" der Physiker und Mathematiker?

Kaum jemand traut sich, trotz der Vielzahl an Widersprüchen, willküraffinen Postulaten, Ergebnis orientierten Nachkorrekturen,... herrschende Theoretische Grundlagenforschung zu kritisieren. Auch „eingeweihte“ Physiker und Mathematiker tun dies nicht. Die einen, weil sie glauben, sie hätten nicht die nötige Kompetenz, die anderen aus Kalkül. Die Probleme als solche sind leicht identifiziert. Theoretische Grundlagenphysiker verlangen, ohne es explizit aussprechen zu müssen, dass nur Wissenschaftler mit der nötigen mathematischen Ausbildung etwas zum Formalismus sagen dürfen. Der Weg über den Formalismus führt aber unweigerlich zur Akzeptanz dessen, was man eigentlich kritisieren müsste. Und: Mathematik ist geduldig und kann den größten Unsinn korrekt bestimmen.

Volumen aus dem Nichts

 

 

"Der größte Fehler, den wir meiner Meinung nach immer wieder begehen, besteht darin, sich von der Theorie zum Modell leiten zu lassen. Nach einer lächerlich langen Zeit ist mir endlich klar geworden, dass etablierte Wissenschaftler tatsächlich davon ausgehen, dass Theorien einem sagen, was wahr ist und was nicht!Halton Arp (1927 - 2013), Astronom

The greatest mistake in my opinion, and the one we continually make, is to let the theory guide the model. After a ridiculously long time it has finally dawned on me that establishment scientists actually proceed on the belief that theories tell you what is true and not true! Halton Arp 

 

 

Des Weiteren gibt es noch die egozentrischen Standardmodell-Kritiker, die neben ihrer Kritik auch gerne kreativ werden würden. Mit oder ohne sachrelevante Vorkenntnisse, fehlt es jedoch nahezu allen, bis auf die »one in a million« - Ausnahme, an »schöpferischem Geist« ein brauchbares physikalisches Denkmodell zu entwickeln. Die Fokussierung auf das ich, macht sie in dem Fall, das einer aus ihren Kritiker-Reihen, das schafft(e), was ihnen nicht gelang respektive gelingt und wohl auch perspektivisch nicht gelingen mag, zu Verdrängern und Ignoranten.

Ihre Strategie: Sie vermeiden es, sich mit dem neuen alternativen Denkmodell auseinanderzusetzen. Sie haben Angst sich den Ausführungen im Detail zu nähern, da eine Kaskade von Gefahren besteht. Erst einmal, dass sie für sich erkennen müss(t)en, dass das Modell tauglich ist. Das bereitet vielen einen starken Egoschmerz. Als nächstes wären sie - früher oder später - in der Pflicht auch darüber im Rahmen ihrer Möglichkeiten zu berichten. Insbesondere öffentlich bekannte Kritiker wären dann verpflichtet, auf Grund ihrer medialen Reichweite für eine entsprechende Verbreitung zu sorgen oder müssten sich irgendwann erklären, warum sie das nicht taten. Die Geschichte zeigt zwar, dass diese Vermeidungs-Strategie selten erfolgreich ist, doch wie man so "schön" sagt: Die Hoffnung stirbt zuletzt. Tatsache ist: Es mag lange dauern, doch eines Tages kommt das »Neue« ans Tageslicht. Trotz dieser Erkenntnis sind (auch) die Egozentriker in den Reihen der Denkmodellphysiker diesbezüglich beobachtungs- und lernunfähig.

Bei den Kritikern, die ihre Kritik professionalisiert haben und Geld mit Büchern, Vorträgern etc. verdienen, geht es offensichtlich nicht nur um Egoproblematiken sondern auch um Materielles. Spätestens an dem Tag, wo jedem klar ist, dass die alten Theorie-Konzepte nicht mehr relevant sind und das nicht nur in Fachkreisen sondern auch populärwissenschaftlich kommuniziert wird, ist auch die diesbezügliche Kritik obsolet. Das bedeutet - leicht verständlich - sie verdienen nichts mehr mit ihrer Kritik an den überholten Denkmodellen. Ein weiterer Grund die "Füsse still zu halten".

 

 

Lese(r)optionen

In den Textausführungen gibt es zahlreich weiterführende Hinweise, Ergänzungen, geschichtliche Beispiele, Analogien und daraus resultierend "Verlinkungen".  Für ein zügiges Grundverständnis ist es jedoch empfehlenswert den Textausführungen fließend zu folgen und erst einmal keine oder wenige »Linkstopps« einzulegen. Ähnliches gilt für explizite Gleichungen und resultierende Berechnungen. Sofern diese noch nicht (im Kontext) verstanden werden können, ist es auch in diesen Zusammenhängen empfehlenswert die Ergebnisse erst einmal so hinzunehmen. Letztendlich bleibt im weiteren (Lese-)Verlauf nichts unerklärt respektive unbegründet.

 

Da es in diesem Sinne - im Hinblick auf das allgemeine sowie methodische Verständnis - sehr schnell zu speziell werden kann, wird dem Leser mitunter die Entscheidung überlassen, wie er gemäß seinen eigenen Wünschen agieren möchte. Es gibt optional an diversen Stellen die Möglichkeit punktuell weitere Informationen zu dem aktuell Erörterten direkt mit "einem Klick" in einem neuen zusätzlichen Browserfenster zu erhalten.

                                                

                                            
ein Klick auf

führt zu ergänzenden, ausführlicheren Betrachtungen

                                                             

öffnet ein zusätzliches Browserfenster

                                          

[Beispielansicht Auszug zur Berechnung der Grundzustandsenergie des myonischen Wasserstoffs]

 

 

Eine zunehmend unschöne übergeordnete Entwicklung

die mittlerweile auch akademisch Ausgebildete betrifft

Das Gros der Menschen des frühen 21.Jahrhunderts verfügt - konträr zum angewandten technischen Fortschritt - nur (noch) über eine einfache Lesefähigkeit. Im Vergleich mit herkömmlichen Textbotschaften (Twitter, WhatsApp, Mainstream-Artikeln, …)  sind vorliegende Ausführungen tendenziell sprachlich komplex. Die Fähigkeit diese Texte verstehen zu können, setzt einen spielerischen Umgang mit Sprache voraus.

Die (historisch) kurze Phase der Aufklärung ist schon lange beendet und hat sich mit »sozialen inneren Kräften« in eine beschleunigte faktenfeindliche respektive faktenfreie Zeitgeist-Periode katapultiert.

Wie sollen Jugendliche sowie (später eines Tages) „Erwachsene“ anspruchsvolle, komplexe geschriebene Inhalte begreifen, wenn sie nicht einmal Einfaches inhaltlich verstehen? Wie sollen sie selbst entsprechende Inhalte schriftlich oder mündlich formulieren? Wie wirkt sich diese Simplizität auf das Denkvermögen aus?

Weiter ist zu beobachten: Neben einem deutlich reduzierten Vokabular, sozusagen einer Art von »Pidgin-German«, beobachtet man eine extreme Unfähigkeit grammatikalische Zeitformen (v. A. Konjunktiv I und II) richtig zu verwenden, Adjektive und Adverbien adäquat einzusetzen und eine absolute Unfähigkeit in Texten gewisse Feinheiten wie Satire, Ironie, Euphemismen etc. richtig einzuordnen.

 

Um Sprache, Mathematik, Naturwissenschaften sowie gestalterische Grundlagen in einem historischen Kontext zu lernen, sind Bücher der digitalen Welt nicht unterlegen. Ganz im Gegenteil, Gestalter digitalisierter Versionen neigen zunehmend dazu – politisch korrekt – an sich sachlich zu erfassende Lerninhalte zu infantilisieren und gesellschaftspolitisch aufzuladen.

Beispiel

Es gibt offensichtlich inhaltlich nichts Neues zu fundamentalen mathematischen Techniken, wie beispielsweise zur Integral- und Differentialrechnung. Da jedoch im »Westwelt-Wokeness-Wahn« alle gleich "schlau" (blöd) sein sollen, wird gerne, auch bei mathematisch-wissenschaftlichen Ausführungen, "kindgerecht" vorgetragen. Mit dem Ergebnis: Infantile pädagogische Ansätze führen letztendlich zu Mißverständnissen und eingebildeten »Angebildeten« statt Ausgebildeten.

Leseempfehlung: Eine verstörende Bestandsaufnahme der (deutschen) Bildungspolitik, …“lustig erzählt“… siehe: DER SCHWANZ IST EINE MONOTON FALLENDE EXPONENTIALFUNKTION von Franz Emmermeyer

2006 war der Film Idiocracy zumindest teilweise noch “Science Fiction-Comedy”.  Aktuell ist es schwierig Zeitgenossen zu finden, die nicht zu den funktionalen Analphabeten gehören und einen einfachen Dreisatz beherrschen… Idiocracy wird Realität, wir schaffen das…

Es gilt heute, mehr denn je, sowohl in den Massenmedien als auch in populärwissenschaftlichen (Online-)Magazinen (Clickbait) gemäß Theodor Fontane (1819 - 1898): "Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn."

Etablierter Sprachunsinn

Beispiele

Die Frau von Nebenan, die Berichterstatterin im Fernsehen, die Fitness-Expertin sprechen meist fälschlicherweise von Kalorien statt Kilokalorien. (“Schenken” wir uns hier den Hinweis auf die international gültige Maßeinheit (Kilo-)Joule statt (Kilo-)Kalorien.) Tatsache ist: Den Faktor 1000 im Sprachgebrauch methodisch zu unterschlagen ist ohne Zweifel 1000mal falsch.

Der Begriff Klimawandel ist inhaltlicher Nonsens. Es muss (im Deutschen) Klimaveränderung und nicht Klimawandel heißen. Vollkommen losgelöst von der (Nicht-)Realität eines globalen, signifikanten, menschengemachten, postuliert monokausalen (CO2 basierenden) Klimawandels.  Denn worin sollte sich das Klima respektive in was sollte sich das Klima wandeln? Es handelt sich um Veränderungen der klimatischen Verhältnisse, nicht um eine (Ver-, Um-)Wandlung.

Teilchenphysiker benutzen generell den phänomenologisch falschen Begriff Zerfall bzw. decay im Englischen, obwohl sie damit Umwandlungen meinen. Zerfall würde bedeuten, die Zerfallsprodukte waren (allesamt) Bestandteile des Zerfallenden. Dem ist aber im Rahmen der theoretischen Implikationen und Postulate des Standardmodells der Teilchenphysik nicht so.

 

Das hier beschriebene alternative Denk-Modell basiert plakativ-psychologisch auf der Annahme, das deutlich einfachere, konsistente Materie-Beschreibungen und daraus resultierend einfache Formalisierungen existieren, als in den Standardmodellen annonciert. Die folgende Bemerkung von Karl Popper (1902 - 1994) adressiert das psychologische Problem:

..." Unsere Untersuchung läßt erkennen, dass selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, dass das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei."

Karl Popper (1902 - 1994), Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4; The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959.

"Wir kennen die „Beweggründe“ der Natur nicht. Wollen wir uns die Möglichkeit offenhalten, mehr von ihrem Geheimnis zu erfahren, dann müssen wir lernen, auch Wege zu überdenken, die wir unbewußt bisher ausgeschlossen haben, weil wir zu voreilig diese Wege für „undenkbar“ hielten." Rudolf Kießlinger

Die fatale Einstellung Theoretischer Grundlagenphysiker, das »ALLES« nur im Rahmen "höherer", komplizierter, komplexer Mathematik verstanden und entwickelt werden kann, wird auch im Bereich der Mathematik von den dort agierenden vermeintlichen Experten vertreten.

 

Mathematik einst und heute

Wenn Euklid (…lebte wahrscheinlich im 3. Jahrhundert v. Chr.) noch nach plausibler Anschauung für mathematische Grundlagen suchte und somit eine interdisziplinäre Verbindung herstellte, die man als richtig oder falsch bewerten konnte, so stellt sich in der modernen Mathematik die Frage nach richtig oder falsch nicht. Euklids Definitionen sind explizit, sie verweisen auf außermathematische Objekte der „reinen Anschauung“ wie Punkte, Linien und Flächen. "Ein Punkt ist, was keine Breite hat. Eine Linie ist breitenlose Länge. Eine Fläche ist, was nur Länge und Breite hat." Als David Hilbert (1862 – 1943) im 20. Jahrhundert erneut die Geometrie axiomatisierte, verwendete er ausschließlich implizite Definitionen. Die Objekte der Geometrie hießen zwar weiterhin „Punkte“ und „Geraden“ doch sie waren lediglich Elemente nicht weiter explizierter Mengen. Angeblich soll Hilbert gesagt haben, dass man jederzeit anstelle von Punkten und Geraden auch von Tischen und Stühlen reden könnte, ohne dass die rein logische Beziehung zwischen diesen Objekten gestört wäre.

Doch inwieweit axiomatisch begründete Abstraktionen an realphysikalische Objekte ankoppeln, steht auf einem ganz anderen Blatt. Mathematik schafft keine neuen Erkenntnisse, auch wenn das Theoretische Physiker im Rahmen der Standardmodelle der Kosmologie und Teilchenphysik gerne glauben.

Keine Kirche hält ihre Gläubigen so streng am Wickel wie die “moderne Wissenschaft” ihre Gemeinde.” stellte Christian Morgenstern (1871 – 1914) schon vor mehr als 100 Jahren fest.

 

 

Einerseits führen, wie bereits erwähnt, zu früh thematisierte konkrete Alternativmodell-Ergebnisse im Text, umfangreiche Erörterungen, mittels hergeleiteter Gleichungen und detaillierten phänomenologischen Aspekten, zu einem Fokusverlust, im Sinne des übergeordneten Erst-Verständnisses und sind insbesondere für nicht so mathematisch versierte Leser tendenziell schwierig bis kontraproduktiv. Andererseits ist es wichtig, bereits früh explizit Berechnungsgleichungen vorzustellen und zumindest im Ansatz Beschreibungen zum Verständnis anzubieten - nicht zuletzt bezüglich der Motivation der Leser - da so exemplarisch Aussagekraft und Plausibilität des »Alternativmodells« konkret untermauert werden.

                   

Das Denkmodell Masse-Raum gekoppelter Entitäten liefert - phänomenologisch begründet (geometrisch anschaulich nachvollziehbar) - beispielsweise nicht nur Berechnungsmöglichkeiten für die magnetischen Momente von Neutron, Elektron und Proton, sondern auch exakte, einfache formalanalytische Gleichungen zur Berechnung meßbarer Größen, ausschließlich auf Grundlage möglicher Elektron-Proton-Wechselwirkungen, wie exemplarisch ...die Masse des Neutrons, GrundzustandsenergienHA, den Protonenmasse inhärenten Protonenradiuspr, die Masse des Pions, allgemein Masseberechnungen diverser Entitäten (auch die des Higgs-Bosons), die Temperatur der Hintergrundstrahlung, maximale Masse und Radius des Universums.

 

 

[pr]

                              
Masse-Radius-Konstanten-Gleichung

                           Verwendete Fehlernotation [CODATA/NIST] exemplarisch für 8,335(95), bedeutet ± 0,095

                                                                  Meßwert im Bereich von 8,3240 · 10-16 [m]  bis   8,430 · 10-16 [m]

 


[HA] exemplarisch H-Atom

 

Wie noch ausführlich erörtert wird, kann weder das SM noch das Standardmodell der Kosmologie (ΛCDM-Modell) auch nur einen einzigen Wert näherungsfrei berechnen und es fehlen mitunter fundamentale Begründungen für QM/QED/QCD basierende Rechenvorschriften. Wortwörtlich wird »Alles« mittels Großrechner-Cluster-Anlagen solange "durchgerechnet", bis die gewünschten Werte den Meßwerten entsprechen. Nicht einmal die Grundzustandsenergie des Wasserstoffatoms kann quantenmechanisch begründet, sowie hinreichend genau berechnet werden (wie noch ausführlich argumentativ ausgeführt wird).

 

 

                                        

     

 

                             

Ich beginne hier mit der Berechnungsgleichung der Masse des Neutrons, wobei - historisch betrachtet - dessen Masse-Raum gekoppelte, phänomenologisch begründete Gleichung, sowie die gleichfalls Masse-Raum gekoppelte, phänomenologisch begründete Gleichung zur Berechnung des (vermeintlich) anomalen magnetischen Moment des Neutrons innerhalb des Denkmodells erst später erfolgten. Der Vergleich mit den Berechnungsmöglichkeiten des Standardmodells zeigt, dass, gemäß des »Prinzips der Parsimonie«, die EKT der klare Sieger ist.   

 

Neutron: Proton-Elektron basierend im Bild der Elementarkörper(-Theorie)

Theoretische Berechnung der Neutronenmasse

Allgemeine Vorbetrachtungen

Aus praktischen Gründen werden Zehnerpotenzen zur Berechnung wie folgt geschrieben: 1,23·10-3 = 1,23e-3. Das hat den Vorteil, dass der interessierte Leser die entsprechenden Zahlenwerte "gleich" zur Kontrollrechnung übernehmen kann (Copy&Paste).

 

 

kurz zum Verständnis zu CODATA und NIST

Das Committee on Data of the International Science Council (CODATA) wurde 1966 als Committee on Data for Science and Technology gegründet. Das National Institute of Standards and Technology (NIST) ist eine Behörde des US-Handelsministeriums, deren Aufgabe es ist, die amerikanische Innovation und industrielle Wettbewerbsfähigkeit zu fördern. Die Aktivitäten des NIST sind in physikalisch-wissenschaftlichen Laborprogrammen organisiert, die Wissenschaft und Technologie im Nanobereich, Ingenieurwesen, Informationstechnologie, Neutronenforschung, Materialmessung und physikalische Messungen umfassen. Von 1901 bis 1988 trug die Behörde den Namen National Bureau of Standards.

Für den Bereich der Physik, insbesondere der Experimentalphysik, ist relevant, das CODATA & NIST aktualisiert vorgeben, was die Referenzwerte für Meßgrößen und deren Standardabweichungen sind.

[CODATA-NIST Beispiel     Wert der Protonenmasse]

 

Die Unsicherheiten der CODATA-Werte sind in den folgenden Berechnungen meist nicht explizit benannt respektive werden nicht explizit berücksichtigt. Beispiel: Masse des Elektrons:  9,1093837015e-31  kg   9,1093837015(28)e-31, bedeutet eine Standardabweichung von ± 0,00000028e-31kg wird hier nicht berücksichtigt. Es wird mit dem Wert 9,1093837015e-31 kg gerechnet. Das ist, wie wiederholt gezeigt wird, kein Problem, da u.a. die Standardmodellphysik-Ergebnisse im Vergleich eh nicht formal-analytisch erzielt wurden und im direkten Vergleich mit den phänomenologisch begründeten einfachen Gleichungen der Elementarkörpertheorie (EKT) sprichwörtlich um (Standardabweichungs-)Dimensionen schlechter sind (später mehr dazu).

 

Kommen wir - gemäß dem Prinzip der Parsimonie  - nun exemplarisch zu exakter Wissenschaft im Sinne von phänomenologisch begründeter Physik, die zu exakten formal-analytischen Berechnungen führt:

Theoretische Berechnung der Neutronenmasse

Es wurden zur Berechnung der Neutronenmasse folgende Werte verwendet:

me = 9,1093837015e-31  kg : Elektronenmasse

me(q0)=   (4/α) · m 4,99325398628715e-28 kg

 mp = 1,67262192369e-27  kg  : Protonenmasse

c =  2,99792458e+08 m/s      α = 0,0072973525693        0,77010243595795497 = 1/(1 + me(q0)/mp)

 ∆m = 1,4056007019747e-30 kg[0]       ∆Eee =    1,2632909101359e-13  J      ~    0,78848416793  MeV

mn =  mp + me + ∆m  = 1,674938462762e-27  kg

 Vergleich mit experimentell bestimmter Neutronenmasse

mn(exp) = (1,67492749804e-27 kg)  ~ 939,56542 MeV  [Quelle: CODATA 2018]

mn(EKT) / mn(exp) ~ 1,0000065463861

 

 

[0] Ergebnis-Erweiterungs-Satire

Übrigens, man könnte, genauer, man sollte sich die obige Berechnungspräzision, wie z.B. für ∆m = 1,4056007019747e-30 [kg], im Hinblick auf die versuchsbedingten - im Vergleich zu formal-analytischen Rechnungen extremen - Standardabweichungen der Einfluss nehmenden Größen sparen. Es ist hier also kein Akt meines Unverständnisses der Zusammenhänge, sondern eine Art gewollter »Ergebnis-Erweiterungs-Satire« im Hinblick auf das, was noch gemäß Standardmodell-Postulaten alles möglich sein soll (...Berechnung und Messung des Wertes des anomalen magnetischen Moments des Elektrons bis hin zu postulierten Gravitationswellenmessungen).  

 

Zum direkten Vergleich mit den Berechnungsmöglichkeiten gemäß des SM

Im Rahmen der Quantenchromodynamik (QCD) lässt sich die Neutronenmasse angeblich iterativ berechnen.. Das ist mehr als fragwürdig, da hier offensichtlich solange korrigiert-gerechnet wird, bis der bekannte Versuchswert für die Neutronenmasse grob erreicht wird.

 

Terminologie & Notation

Iterativ bedeutet (hier): Es werden Grundannahmen und/oder Ausgangsparameter variiert und algorithmisch so oft modelliert, bis ein gewünschtes Ergebnis vorliegt. Da dieses Ergebnis ein Meßergebnis ist, werden die Berechnungsgrundlagen in Form von Entwicklungsparametern und postulierten Wechselwirkungen immer wieder in Großrechenanlagen durchgerechnet, bis das gewünschte "theoretische" Ergebnis mit dem experimentell ermittelten Meßwert übereinstimmt. Egbert Scheunemann hat das sinngemäß so formuliert: Wir schießen auf ein Scheunentor und ziehen danach konzentrische Kreise so um den Pfeil, dass dieser in der Mitte "steht"

 

... Siehe exemplarisch die Ausführungen: proton and neutron masses calculated from first principles, dort heißt es dann u.a.: ..."Die Berechnungen deuten darauf hin, dass die Masse des Nukleons (die Berechnung kann nicht zwischen Protonen und Neutronen unterscheiden) 936 MeV/c² mit statistischen und systematischen Unsicherheiten von ±25 bzw. ±22 MeV/c² beträgt." ..."Der Erfolg war möglich dank der kombinierten Leistung von zwei IBM Blue Gene Supercomputern und zwei Cluster-Rechenzentren."

Mehr Details dazu: Ab initio calculation of the neutron-proton mass difference veröffentlicht 2015

Eine weitere Standardmodell-Methode ist die postuliert Quarks basierende theoretische Berechnung aus dem Vergleich der Protonen- und Neutronen-Masse. Siehe: Calculation of Neutron-Proton Mass Difference by the Monte Carlo Method mit folgenden Ergebnissen:

Berechnungsergebnis im Freien Quark-Modell: 13% Fehler bezogen auf die Massendifferenz im Vergleich zum Meßwert.

Berechnungsergebnis im Modell der starken Kopplung von Quarks: 0,78% Fehler bezogen auf die Massendifferenz im Vergleich zum Meßwert.

Experimentelle Bestimmung der Neutronenmasse

Die Masse eines Neutrons kann nicht massenspektrometrisch bestimmt werden, da es keine elektrische Ladung hat. Die Masse wird bestimmt, indem man die Protonenmasse von der Deuteronmasse subtrahiert, wobei die Differenz die Masse des Neutrons plus die Bindungsenergie des Deuteriums sein soll. Hier steckt viel postulierte Theorie im Meßverfahren. Selbstbewusst annonciere ich, dass der Wert der Elementarkörpertheorie ermittelten Neutronenmasse - realphysikalisch betrachtet - der wahrscheinlichste Wert ist. Wie auch immer, die theoretische Bestimmung gemäß Gleichung [nmass] ist im Sinne des Prinzips der Parsimonie unschlagbar.

Particle Data Group zum Neutron

 

Was bedeutet dieser erste Vergleich für das SM?

Wenn man die iterativ Meßwert orientierten groben QCD-Ergebnisse und die gemäß Quark-Modell theoretischen für die Berechnung der Neutronenmasse mit dem nahezu exakten EKT-Ergebnis gemäß [nmass] vergleicht, welches ein Proton-Elektron basierendes Neutron voraussetzt, kommt man aus dem Staunen nicht mehr heraus und ahnt hier schon bereits exemplarisch, was die Stunde (für das Standardmodell) geschlagen hat. Das Ende des SM ist in Sicht.

 

 

zum weiteren Verständnis: CODATA Variationen

Es gibt für die dokumentierten Werteermittlungen, basierend auf präzisen formal-analytische Berechnungen der EKT, neben den generellen experimentellen Meßungenauigkeiten, absolut gesehen, die Problematik, dass sich die empfohlenen CODATA-Werte mit der Zeit ändern, ohne jedoch stringent die Meß(fehler)genauigkeit nachhaltig zu verbessern. Siehe exemplarisch die CODATA Werte von 1986 zum Verständnis und zum Vergleich: The 1986 CODATA Recommended Values Of the Fundamental Physical Constants

[CODATA RECOMMENDED VALUES OF THE FUNDAMENTAL PHYSICAL CONSTANTS: Gesamtauflistung 2018]

Ein neueres Postulat der Systemphysik: Das Proton ist signifikant leichter als bisher gedacht : Das belegt die (vermeintlich) bisher präziseste Messung der Protonenmasse. Siehe exemplarisch den deutschen scinexx.de-Artikel oder den englischen science.org-Artikel. Plakativ betrachtet, stellt sich hier, von außerhalb der System-Modell-Physik betrachtet, die Frage, ob das wissenschaftlich relevant ist oder ob es sich eher um mathematisch-experimentalphysikalisches Kokettieren der Protagonisten handelt. Wie auch immer, ob das Proton wirklich leichter ist und wie lange diese Aussage Bestand hat, kann niemand sagen. Man denke an den gemessenen Protonenradius, der über Jahrzehnte mit - für physikalische Messungen unglaublichen - mehr als + 4% Abweichung von den Standardmodell-Protagonisten falsch interpretiert war. Siehe später mehr dazu.

Hat das eine Bedeutung?

Für die EKT respektive deren exzellente Voraussagefähigkeit ist das (realphysikalisch) unerheblich, da hier die Denkmodellphänomenologie basierenden, formal-analytisch ermittelten Werte unschlagbar präzise mit den Meßwerten übereinstimmen, egal wer, wann, wie und warum an den CODATA-Standardabweichungen "dreht und fummelt". Das der lange Zeit "geltende" Protonenradiuswert "erschreckend" falsch war, war und ist gemäß EKT keine Überraschung. Wie schon bald hier im weiteren Leseverlauf gezeigt wird, gibt es eine im Rahmen der EKT konsistente exakte Protonenradiusberechnung, die nur von der Protonenmasse und Naturkonstanten gemäß eines einfachen formalen Zusammenhanges abhängig ist.   

SM  Für die Standardmodellphysik ist das alles unerheblich, da, wie bereits erwähnt, im Rahmen der Systemphysik-Modelle eh keine formal analytischen Berechnungen möglich sind. Dort wird alles iterativ ergebnisorientiert angepasst (präzise schön gerechnet), wie noch im Rahmen diverser Beispiele konkret erörtert wird.

 

 

 

Raum und Zeit

Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär »Ordnungsmuster des Verstandes«. Um aus diesen Ordnungsmustern Physik zu erhalten, bedarf es phänomenologischer Betrachtungen und Erklärungen.

Planck, Einstein, Heisenberg und Kollegen“ waren noch als Mitbegründer des neuen (mathematischen) Denkens mit den philosophischen Aspekten vertraut und konfrontiert. Die nachfolgenden Generationen der Theoretischen Teilchenphysiker und Theoretischen Astrophysiker scheinen jedoch wenig bis kein Verständnis für erkenntnistheoretische Spielregeln zu besitzen, was sich einfachst durch die große Anzahl freier Parameter, variabler Kopplungskonstanten und beliebiger Substrukturierungsthesen objektiv feststellen läßt.

(Rhetorische) Frage? Was ist denn der Unterschied zwischen Phlogiston, Licht-Äther, Gluonen und dunkler Materie?

 

Freier Parameter und Variable

Sie können die Lautstärke des Abspielgerätes variieren oder die Helligkeit des Fernsehens, dies sind „zweckmäßige Variablen“. Auch Autos und Flugzeuge lassen sich variabel steuern. Doch keine einzige Anwendung, kein einziges Naturereignis besitzt auch nur einen freien Parameter. Merke: Jede willkürlich gewählte Größe zerstört die Funktion der Anwendung. Einfach formuliert: Ihr Auto fährt, weil es eine wahrnehmbare Ausdehnung, ein messbares Gewicht besitzt und chemisch gebundene Energie in Bewegungsenergie umwandelt. Wasserstoff und Wasserstoffmoleküle nehmen gleichfalls Raum ein und haben ein Gewicht. Nun, wie im SM postuliert, zu behaupten, dass die Bausteine des Wasserstoffs aus Objekten bestehen, die teils keine Ausdehnung haben und unbeobachtbar sind, bringt die Verkünder und Gläubigen zurück ins „barocke 17.Jahrhundert“, … „außer Phlogiston nix gewesen“…  

Georg Ernst Stahl (1659 - 1734) war neben Johann Joachim Becher (1635 - 1682) ein Hauptbegründer der Phlogistontheorie

Die Phlogistontheorie konnte ausreichend (Oxidations- und Reduktions-) Prozesse verständlich machen.

Die Phlogistontheorie regte dazu an, „feinst verteiltes“ Phlogiston aufzufangen und zu untersuchen.

Die Theorie ermöglichte eine Systematisierung von Stoffgruppen…

Antoine Laurent de Lavoisier (1743 - 1793) „ersetzte“ das Phlogiston durch die „kalorische Substanz“, die gleichfalls unsichtbar sei, kein Gewicht besäße und sich zwischen den Molekülen aufhielte…

Später dann untersuchte Lavoisier die Gewichtsveränderungen verschiedener Stoffe bei Oxidation und bei Reduktion und entdeckte, dass das gerade aufgefundene Element Sauerstoff dabei die entscheidende Rolle spielt und widerlegte die Phlogistontheorie. Vergeblich versuchten die Verteidiger der Phlogistontheorie, wie Henry Cavendish, Joseph Priestley, Carl Wilhelm Scheele diese zu bewahren, indem sie modifizierte Phlogiston-Modelle kreierten.

 

Schlicht betrachtet handelt(e) es sich stets um Fantasiekonstrukte, die die Fehlstellen des Wissens willküraffin füllen (sollen). Von einer autoritären Minderheit als „nützliche“ Theorieparameter eingeführt, wurden und werden diese sodann von servilen Mainstream-Wissenschaftsmagazinen und in der Folge populärwissenschaftlich weit verbreitet und letztendlich von der Masse als wissenschaftliche Errungenschaften "verdaut".

 

 

Schon Ernst Mach (1838-1916) bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." Ernst Mach , Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

 

 

 

Für heutige Theoretiker ist die Welt der Mathematik identisch mit dem Erkenntnishorizont des Menschen. Moderner Mathematik wird mit festem Glauben eine konstruktive Komponente zugeschrieben. Diese neuen Glaubensbekenntnisse haben offensichtlich eine enorme Strahlkraft, obwohl die ihr zu Grunde liegenden Ideen allesamt irrational sind. Heutige Experimente zur Erweiterung des Standardmodells der Teilchenphysik (SM) verraten schon durch die Namensgebung »Supersymmetrie« welch Geistes Kind ihnen inne wohnt. Experimente sollen Symmetrien, nein müssen Supersymmetrien genügen. Neue zeitinstabile Super-Partner-Teilchen, die nie als solche, so wie ihre Vorgänger, direkt messbar sein werden, kommen eines Tages nach monatelangen Berechnungen mittels Super-Cluster-Rechnern als Teilchenbeschleuniger-Geburten aus vorselektierten Zerfallskanälen.

Man kann offensichtlich in jeder beliebigen Theorie Widersprüche mit der Beobachtung dadurch "wegerklären", dass man weitere (unüberprüfbare) Postulate in die Theorie mit aufnimmt, die genau diese Beobachtung „erklären“. Diese stark theoriebeladene Suche lässt sich auf Grund der vielen freien Parameter, nicht detektierbaren postulierten Theorieobjekte und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretieren. Dass SM hat diese unwissenschaftliche Unart zur Standardprozedur etabliert und im Vergleich zu anderen Wissenschaftsdisziplinen "unerreicht" auf die Spitze getrieben. 

Die daraus resultierenden Verselbständigungen der mathematischen Abstraktionen führen nachweislich zu beliebigen Fantasiekonstrukten. Und die damit einhergehende Einschränkung des Blickwinkels erschwert es zunehmend, wichtige Fragen nach den kausalen Zusammenhängen zu klären, ohne welche die naturwissenschaftliche Forschung selbstgenügend zur irrelevanten Tätigkeit „verkommt“.

 

Methodisch generierte Beliebigkeiten

Folgendes Beispiel soll die »Standardmodell methodisch generierte Problematik« exemplarisch verdeutlichen. Zitieren wir fragmentarisch den Autor des Spektrum-Online-Artikels: Das Standardmodell der Teilchenphysik hält mal wieder vom 21.12.2022, Davide Castelvecchi:

 

Davide Castelvecchi berichtet über Physik, Chemie, Kosmologie, Energie, Mathematik und Computerwissenschaften. Er kam 2012 zu »Nature« als Assistent des Online-Nachrichtenredakteurs und später als stellvertretender Nachrichtenredakteur, bevor er 2015 in seine aktuelle Position wechselte. Zuvor war er Reporter für physikalische Wissenschaften bei »Science News« und Senior Editor bei »Scientific American«. Er hat einen Doktortitel in Mathematik von der Stanford University und einen Abschluss in wissenschaftlichem Schreiben von der University of California, Santa Cruz. Spektrum-Magazin-Angaben zum Artikelautor

 

...„Ein viel versprechender Hinweis auf eine mögliche »neue Physik«, der sich in Experimenten am Large Hadron Collider (LHC) zeigte, dem größten Teilchenbeschleuniger der Welt, hat sich in Luft aufgelöst und Hoffnungen auf eine bedeutende Entdeckung zunichtegemacht. Vor einigen Jahren waren die Physikerinnen und Physiker am CERN in Genf auf einen unerwarteten Unterschied im Verhalten von Elektronen und ihren massereicheren Vettern, den Myonen, gestoßen, wenn sie aus dem Zerfall bestimmter Teilchen hervorgehen: Myonen waren dabei augenscheinlich etwas seltener entstanden als Elektronen – ein Widerspruch zum Standardmodell der Teilchenphysik, da solch eine Diskrepanz gegen die so genannte Leptonen-Universalität verstoßen würde. Die jüngsten Ergebnisse des LHCb-Experiments deuten nun allerdings darauf hin, dass Elektronen und Myonen doch im gleichen Verhältnis erzeugt werden.

…Das LHCb-Team berichtete erstmals 2014 über eine geringfügige Abweichung bei der Produktion von Myonen und Elektronen…

…Teilchenphysikalische Experimente liefern häufig Ergebnisse, die leicht vom Standardmodell abweichen, sich dann jedoch als statistische Zufallstreffer erweisen, wenn Forscherinnen und Forscher mehr Daten sammeln. Die B-Mesonen-Anomalie schien in den folgenden Jahren allerdings immer auffälliger zu werden, und eine Reihe verwandter Messungen an B-Mesonen zeigte ebenfalls Abweichungen von den theoretischen Vorhersagen, die auf dem Standardmodell der Teilchenphysik basieren…

… Die neuesten Ergebnisse umfassen mehr Daten als die früheren LHCb-Messungen der B-Mesonen-Zerfälle und nehmen zugleich mögliche Störfaktoren genauer in den Blick. So ließen sich die offensichtlichen Diskrepanzen bei den früheren Messungen mit Kaonen zum Teil darauf zurückführen, dass einige andere Teilchen fälschlicherweise als Elektronen identifiziert worden seien, sagt LHCb-Sprecher Chris Parkes, Physiker an der University of Manchester in Großbritannien. Während die LHC-Experimente gut darin sind, Myonen aufzuspüren, ist es für sie schwieriger, Elektronen zu entdecken…

...Obwohl bereits seit Monaten darüber gemunkelt wurde, seien die jüngsten Ergebnisse überraschend gekommen, sagt der theoretische Physiker Gino Isidori von der Universität Zürich. Es schien sich ein kohärentes Bild aus verwandten Anomalien zu ergeben. Dies hätte auf die Existenz von bisher unbekannten Elementarteilchen hindeuten können, die den Zerfall von B-Mesonen beeinflussen. Isidori lobt die LHCb-Kollaboration dafür, dass sie die Probleme mit ihren früheren Analysen so »ehrlich« zugegeben hat. Gleichzeitig bedauert er jedoch, dass man die Schwierigkeiten nicht früher fand.

Andererseits könnten sich einige der anderen Anomalien, auch bei B-Mesonen-Zerfällen, die keine Kaonen enthalten, immer noch als echt herausstellen, fügt Isidori hinzu: »Noch ist nicht alles verloren.« Die Experimentalphysikerin Marcella Bona von der Queen Mary University of London, die an einem weiteren LHC-Experiment beteiligt ist, stimmt dem zu. »Es sieht so aus, als würden die Theoretiker bereits darüber nachdenken, wie sie sich trösten und neu orientieren können.«

Zu den verbleibenden hoffnungsvollen Hinweisen auf neue Physik gehört eine im April 2022 bekannt gegebene Messung, bei der sich die Masse des W-Bosons als etwas größer als erwartet herausstellte. Eine andere Anomalie, die Myonen betrifft, könnte sich hingegen ebenfalls in Luft auflösen: Das magnetische Moment des Myons schien stärker zu sein als vom Standardmodell vorhergesagt; die neuesten theoretischen Berechnungen lassen allerdings vermuten, dass dies doch nicht der Fall ist. Stattdessen könnte die Diskrepanz auf eine Fehlberechnung der Vorhersagen des Standardmodells zurückzuführen sein."

Dekodieren wir die euphemistischen Aussagen des Autors respektive die Fördermittel verbrauchenden haltlosen Fantasiekonstruktversuche der SMer:

...Teilchenphysikalische Experimente liefern häufig Ergebnisse, die leicht vom Standardmodell abweichen, sich dann jedoch als statistische Zufallstreffer erweisen, wenn Forscherinnen und Forscher mehr Daten sammeln...

Bedeutet: Nichts Neues, nichts weiter als eine Standardbeschäftigungstherapie mit Beliebigkeiten, die zu keinem Ergebnis führt.

Nahezu perfide sowie realitätsverweigernd ist diesbezüglich die Aussage des LHCb-Sprecher Chris Parkes:

"Das Ergebnis dürfte viele Theoretiker enttäuschen, die viel Zeit damit verbrachten, Modelle zu entwickeln, die die Anomalien erklären könnten. »Ich bin mir sicher, dass die Leute gerne einen Fehler im Standardmodell gefunden hätten«, sagt Parkes, aber letztlich »macht man die beste Analyse mit den Daten, die man hat, und sieht, was die Natur einem gibt. So funktioniert Wissenschaft wirklich"

Er lobt implizit Theoretiker und hat Verständnis für deren Trauer, Theoretiker die sinnfrei Fehlmeßungen respektive Fehlinterpretationen zeitintensiv u.a. mathematisch aufarbeiten und propagiert, das das Standardmodell der Teilchenphysik jedoch, als Abbild der Natur, obsiegt hat.

Zu den verbleibenden hoffnungsvollen Hinweisen auf neue Physik gehört eine im April 2022 bekannt gegebene Messung, bei der sich die Masse des W-Bosons als etwas größer als erwartet herausstellte. Eine andere Anomalie, die Myonen betrifft, könnte sich hingegen ebenfalls in Luft auflösen: Das magnetische Moment des Myons schien stärker zu sein als vom Standardmodell vorhergesagt; die neuesten theoretischen Berechnungen lassen allerdings vermuten, dass dies doch nicht der Fall ist. Stattdessen könnte die Diskrepanz auf eine Fehlberechnung der Vorhersagen des Standardmodells zurückzuführen sein."

Bedeutet, von außen ergebnisoffen, rational-analytisch betrachtet, einfach und klar ausgedrückt: Das Standardmodell taugt nichts. Sowohl die involvierten, von Steuergeldern finanzierten, Experimentatoren sowie die angesiedelten gleichfalls steuergeldfinanzierten SM-Theoretiker sind nutznießende Gläubige ihrer selbst geschaffenen Glaubens-Fantasien, die als Wissenschaft wortwörtlich verkauft wird. Servile Wissenschafts-Magazine transportieren naiv und unkritisch diesen Nonsens.

                                                                     

Im Guardian schrieb die Theoretische Physikerin Sabine Hossenfelder am 26. September 2022 u.a. Folgendes:

..."Unter vier Augen geben viele Physiker zu, dass sie nicht an die Existenz der Teilchen glauben, für deren Suche sie bezahlt werden..."  ..."Sie rechtfertigen ihre Arbeit damit, dass es sich um eine gute Praxis handelt, oder dass ab und zu einer von ihnen zufällig auf eine Idee kommt, die für etwas anderes nützlich ist. ..."Als ehemalige Teilchenphysikerin macht es mich traurig zu sehen, dass dieses Gebiet zu einer Fabrik für nutzlose akademische Studien geworden ist....

Seit den 1980er Jahren haben die Physiker einen ganzen Teilchenzoo erfunden, dessen Bewohner Namen tragen wie Preonen, Sfermionen, Dyonen, magnetische Monopole, Simps, Wimps, Wimpzillas, Axionen, Flaxionen, Erebonen, Acceleronen, Cornucopionen, Riesenmagnonen, Maximonen, Makros, Wisps, Fips, Branonen, Skyrmionen, Chamäleons, Cuscutonen, Planckonen und sterile Neutrinos, um nur einige zu nennen... Alle Experimente, die nach diesen Teilchen suchten, gingen leer aus"...

"Experimentelle Teilchenphysiker wissen um das Problem und versuchen, sich von dem zu distanzieren, was ihre Kollegen in der Theorieentwicklung tun. Gleichzeitig profitieren sie davon, denn all diese hypothetischen Teilchen werden in Förderanträgen verwendet, um Experimente zu rechtfertigen. Und so halten auch die Experimentalphysiker ihren Mund. So bleiben Leute wie ich, die das Fachgebiet verlassen haben - ich arbeite jetzt in der Astrophysik - die einzigen, die in der Lage und willens sind, die Situation zu kritisieren"...

Es gibt viele Faktoren, die zu diesem traurigen Niedergang der Teilchenphysik beigetragen haben. Zum Teil ist das Problem sozialer Natur: Die meisten Menschen, die in diesem Bereich arbeiten (ich war früher einer von ihnen), glauben wirklich, dass die Erfindung von Teilchen ein gutes Verfahren ist, weil es das ist, was sie gelernt haben, und was alle ihre Kollegen tun.

In einigen Fällen besteht die Aufgabe der neuen Teilchen darin, eine Theorie ästhetisch ansprechender zu gestalten, aber in vielen Fällen besteht ihr Zweck darin, statistische Anomalien zu erklären. Jedes Mal, wenn eine Anomalie gemeldet wird, schreiben Teilchenphysiker schnell Hunderte von Artikeln darüber, wie neue Teilchen die Beobachtung angeblich erklären. Dieses Verhalten ist so üblich, dass es sogar einen Namen dafür gibt: "Ambulance-chasing", nach der anekdotischen Strategie von Anwälten, Krankenwagen zu verfolgen, in der Hoffnung, neue Mandanten zu finden.

Ambulance-chasing" ist eine gute Strategie, um die eigene Karriere in der Teilchenphysik voranzutreiben. Die meisten dieser Arbeiten bestehen die Peer Review und werden veröffentlicht, weil sie technisch nicht falsch sind. Und da die "Ambulance-Chaser" die Arbeiten der anderen zitieren, kann jeder von ihnen schnell Hunderte von Zitaten anhäufen. Aber für den wissenschaftlichen Fortschritt ist das eine schlechte Strategie. Nachdem die Anomalie verschwunden ist, werden diese Arbeiten irrelevant.

Dieses Verfahren, Teilchen zu erfinden und sie dann auszuschließen, wird schon so lange praktiziert, dass es Tausende von Professoren mit festen Stellen und Forschungsgruppen gibt, die davon leben. Es ist zu einer allgemein akzeptierten Praxis in der Physikgemeinschaft geworden. Niemand stellt auch nur in Frage, ob dies sinnvoll ist. Zumindest nicht in der Öffentlichkeit"...

 

Sabine Hossenfelder schreibt auch unmißverständlich von Lügen und Blödsinn ihrer Kollegen ...

Erwiderungs-Kommentar zu Ihrem Blogartikel: CERN produziert Marketingvideo für neuen Collider - und es ist voller Lügen (CERN produces marketing video for new collider and it’s full of lies) am 7.Dezember 2018 [7.28 AM]:

Ein Video über ein neues wissenschaftliches Instrument, dessen Finanzierung diskutiert wird, sollte beim Zuschauer einen vernünftigen Eindruck hinterlassen, was das Instrument leisten wird... Natürlich sehen die Physiker, die das sehen, nichts Falsches daran. Denn sie wissen, dass es Blödsinn ist. Und sie haben sich an diesen Schwachsinn gewöhnt, so dass sie denken, dass es einfach zur Tagesordnung gehört. Die moralische Korruption, die hier stattgefunden hat, ist bemerkenswert.

Am gleichen Tag schreibt Frau Hossenfelder [12.36 PM] einem Kommentator namens Tommaso Dorigo ... "Wir alle wissen, dass Sie Teilchenphysiker sind und an dem Thema beteiligt sind. Ich bin nicht im Entferntesten überrascht, dass es Ihnen nicht gefällt, dass ich öffentlich sage, was jeder in der Branche seit Jahrzehnten weiß."...

Sie schreibt in einem weiteren Erwiderungskommentar am 8. Dezember [2.49 AM]... "Wir können nur dann klug entscheiden, wenn wir uns die Fakten ansehen, anstatt uns von Wunschdenken leiten zu lassen. Deshalb ist falsche Werbung wie die oben genannte ein Problem. Menschen, die die Theorien nicht verstehen, glauben sie. Selbst diejenigen, die die Theorien verstehen, lassen sich von der übermäßig optimistischen Sichtweise beeinflussen. Ich weiß, dass sie es nicht hören wollen, aber kognitive Verzerrungen und motivierte Wahrnehmung beeinflussen die Art und Weise, wie wir Entscheidungen treffen. Selbst als Wissenschaftler. Besonders in großen Gruppen."...

... Wie ich in meinem Buch darlege, funktioniert die Theorieentwicklung, insbesondere in der Hochenergiephysik, derzeit schlecht. Man kann "Vorhersagen" für alles konstruieren, was man will; deshalb sind diese Vorhersagen völlig wertlos"

 

"CERN produces marketing video for new collider and it’s full of lies" am 7.Dezember 2018 [7.28 AM] u.a.

A video about a new scientific instrument whose funding is being discussed should leave the watcher with an reasonable impression what the instrument will do…

…Of course the physicists watching this see nothing wrong with this. Because they know it's bullshit. And they have gotten used to this bullshit, so they think it's just business as usual. The moral corruption that has happened here is remarkable. 

[12.36 PM] einem Kommentator namens Tommaso Dorigo   …”We all know you are a particle physicist and have stakes in the issue. I am not remotely surprised that you don't like me saying publicly what everyone in the business has known for decades.”… 

8. Dezember [2.49 AM] …”We can only make it wisely if we look at the facts rather than let ourselves be guided by wishful thinking. That's why false advertisement like the above is a problem. People who don't understand the theories believe it. Even those who understand the theories are influenced by the overly optimistic outlook. I know they don't want to hear it, but cognitive biases and motivated cognition does influence the way we make decisions. Even as scientists. Especially in large groups.“…

… As I lay out in my book, theory development especially in high-energy physics is presently working badly. You can construct "predictions" for anything you want; therefore those predictions are utterly worthless.”…

 

 

 

 

Der Paradigmenwechsel

Konsequenzen der Masse-Raum gekoppelten fundamentalen Erweiterung des Energieerhaltungssatzes

erweitertes Vorwort

Kurz und knapp

 

Es werden bereits hier (im »Kurz und knapp« - Vorwort) exemplarisch Berechnungsgleichungen und Herleitungen gezeigt, um zu dokumentieren, das die formalen Zusammenhänge, die sich stringent aus einer Masse-Raum-Kopplung ergeben, wahrlich einfach sind. In allen Fällen folgen dann später detailliert die dazugehörigen konsistenten Denkmodellaspekte, die zu den Gleichungen führen. Es gibt also erst einmal keine Notwendigkeit für Leser, verstehen zu können, warum die Gleichungen im Detail so aussehen. Wichtig ist nur, dass jeder unmißverständlich möglichst früh erkennen kann, das in den Textausführungen einfach ohne Schöntuerei wirklich für einfach steht.

 

Inhalts-analytisch erstaunlich ist die Tatsache, dass die "großen" Standardmodelle der Physik sprich das Standardmodell der Elementarteilchenphysik (SM) und das Standardmodell der Kosmologie (ΛCDM-Modell) und die gewünschte SM-"Erweiterung" SUSY (Supersymmetrie), sowie vermeintlich konkurrierende Modelle (wie die prominenten Stringtheorien) keinerlei rational logischer Kritik standhalten, wie im weiteren Verlauf im Zusammenhang und Vergleich mit der Elementarkörpertheorie (EKT) an zahlreichen Beispielen ausgeführt wird. Einzig das soziologische Totschlagargument, dass sich doch nicht zehntausende mathematisch hervorragend ausgebildete Wissenschaftler, über mittlerweile mehrere Generationen, mit Modellen beschäftigen, wenn diese bedeutungslos wären, wird zum Rundumschlag ins Feld geführt.

Interessanterweise sind viele der den Standardmodellen zu Grunde liegenden Experimente, an sich betrachtet, brauchbar. Die Probleme beginnen meist (erst) mit den theorieinduzierten, gewünschten Versuchsergebnis-Interpretationen.

Wer einigermaßen neutral die Geschichte der Elementarteilchenphysik "studiert", wird kaum glauben können, dass es sich um naturwissenschaftliche Betrachtungen und Bemühungen im Sinne einer zielführenden Vereinfachung und Vereinheitlichung handelt. Immer dann, wenn die Experimentalphysik die Theorie(n) widerlegte, wurde die Theorie mittels neuer Elementarteilchen, erneuter Substrukturierung und wenn nötig neuer Quantenzahlen erweitert, die die fehlenden Eigenschaften, die fehlende Energie oder die fehlende Symmetrie "erledigten". Das hat mit Wissenschaft wenig zu tun und erinnert mehr an (zeitgenössische) Politik. Statt die Probleme mit einem neuen radikalen (Theorie-)Ansatz zu bewältigen, werden kleine und große Schönheitskorrekturen kontinuierlich durchgeführt. Statt zu vereinfachen und zu vereinheitlichen wird "gnadenlos" erweitert und "spezialisiert". Es entsteht ein Sammelsurium von Teilchen(-Eigenschaften). Plakativ formuliert: Für jeden Fall einer unerwünschten Abweichung, für jedes Teilchen, werden bei Bedarf Theorie erhaltende Sonderregelungen nachgelegt. Der mathematische Formalismus ist in diesem Fantasieprozess das kleinste Problem. Nötigenfalls werden divergente Terme regularisiert und renormalisiert oder gleich als "unphysikalisch" deklariert, schlicht "weggelassen". Das damit die axiomatische Grundstruktur zerstört wird, scheint nur Wenigen klar zu sein bzw. ist offensichtlich dem Gros der Theoretiker egal.

Zur Erinnerung: Ob eine Mehrheit «Etwas» "praktiziert" und für "richtig" hält, sagt nichts über den (erkenntnistheoretischen) Wert der "Theorie zum Etwas". Eine Meinung kann jeder haben, dazu braucht es kein Wissen. Deshalb sind Meinungen auch deutlich populärer als Wissen. Das eine Gesellschaft mehrheitlich aus Meinungsträgern ohne Wissen besteht, ist ein gut dokumentiertes, psychologisch nachvollziehbares, machtsystemerhaltendes, leicht zu beobachtendes Phänomen, sofern man sich mit den sozialpolitischen Hintergründen der Meinungsmache und Machterhaltung beschäftigt. Aber warum basiert die aktuelle Theoretische Grundlagen-Physik auf Meinungen, statt auf begründeten Wissen?

Sind es letztendlich nur - aus naturwissenschaftlicher Sicht inakzeptabel -  wirtschaftliche Interessen der Nutznießer und Lobbyisten, die Forschungsgelder abgreifen und ihre materielle Existenz begründen wollen? Stellt man die enorme Anzahl von Veröffentlichungen im Bereich der Standardmodelle ins Verhältnis zu dem Erkenntnis-Gewinn, so handelt es sich - in unserer heutigen digitalisierten Zeit salopp formuliert -  fast ausschließlich um Datenmüll. Das liegt schlicht daran, dass die vermeintlichen Meßergebnisse bereits stark theoriebeladen sind und die theoretischen Ansätze aus idealisierten, genäherten Gleichungen stammen, die in der Urform keine formal-analytischen Lösungen besitzen und deren näherungsreduzierte Gestaltungen nichts weiter als mathematische Möglichkeiten liefern, die realphysikalisch bedeutungslos sind, insbesondere da über die Rückkopplungen der theoriebeladenen selektiven Messungen, nur die gewünschten Meßergebnisse weiter verwendet werden. So entstand und entwickelt sich ein erkenntnisbefreites, formal und wirtschaftlich selbsterhaltendes System.

Dass die Systementwickler und Profiteure jede halbwegs logische Alternativforschung schon im Ansatz beseitigen wollen, ist egoistisch menschlich nachvollziehbar. Jede formal-analytische Lösung, die realphysikalische Werte liefert, stellt eine existenzielle Bedrohung der Standardmodelle dar. Populärwissenschaftlich getragen wird das System von servilen Wissenschaftsmagazinen, deren indoktrinierten Lesern und unwissenden Epigonen, die jeden populären Theorie-Quatsch beklatschen. Es drängt sich der Verdacht auf, dass Menschen, deren Schaffensdrang nicht in geeigneter Weise befriedigt werden kann, weil real nichts Neues für sie zu finden ist, Trivialitäten dokumentieren und formalisieren, in neue Worte kleiden und Satzstrukturen verwenden, die ein Normalmensch nicht versteht und dessen Achtung der Autor quasi automatisch erhascht. Es macht im Ergebnis keinen Unterschied ob es in diesem System Wissenschaftler gibt, die "wirklich" voller Inbrunst an diese, an Naivität und Widersprüchen schwer zu überbietenden, "theoretischen Implikationen" glauben, oder ob es letztendlich banale wirtschaftliche Interessen gepaart mit akademischer Macht sind, die Wissenschaftler als elitäre Nutznießer ausnutzen, um baren Unsinn zelebrieren und verkünden zu können.

Besonders eklatant ist der Umstand, dass im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik der Teilchen" für sich in Anspruch nimmt, ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Die Theoretische Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an denen man Glaubensbekenntnisse statt Wissenschaft vermutet.

Interessant sind die psychologischen und soziologischen Aspekte, die inhärent mit den Machern und Anhängern der Standardmodelle verknüpft sind. Wie konnte es dazu kommen, dass ein eher kleiner Kreis von „Wissenschaftlern“ - trotz dokumentierter Erkenntnislosigkeit, die sich u.a. durch die qualitative wie quantitative inkonsistente Beliebigkeit der postulierten Theorieentitäten und deren postulierten Wechselwirkungen manifestiert - bestimmt, was die anderen zu denken haben? Und warum verhalten sich andere „Wissenschaftler“ so passiv? Die transparent absurden Standard-Theoriewelten bieten Riesenangriffsflächen für logische und argumentativ begründete Kritik, doch es gibt so gut wie keine wahrnehmbar aktiven Kritiker.

Die schlichte, übergeordnete Antwort lautet gemäß Gustave le Bon: „Nie haben die Massen nach Wahrheit gedürstet. Von den Tatsachen, die ihnen mißfallen, wenden sie sich ab und ziehen es vor, den Irrtum zu vergöttern, wenn er sie zu verführen vermag. Wer sie zu täuschen versteht, wird leicht ihr Herr, wer sie aufzuklären sucht, stets ihr Opfer.“ 

Von vielen, möglicherweise fast von allen Physiktreibenden, vom Studenten bis zum Professor, vom Wissenschaftsneugierigen bis zum mathematisch (gut) vorgebildeten Anhänger, vom "irgendwie Versteher" bis zum ahnungslosen Laien geht eine omnipräsente Systemgläubigkeit aus, die je nach Bildungsstand, mit mehr oder weniger scheinbar fundierten Argumenten, "Dinge", wie überlichtschnelle Raumausdehnungen oder Kaskaden von virtuellen Teilchen "vertritt", deren Begründungen aber letztendlich nur einer Prämisse folgen: (Moderne) Wissenschaft ist das, worauf man sich geeinigt hat, auch wenn experimentelle Fakten, Inkonsistenzen und die Anzahl freier Parameter klar gegen herrschende Standardmodelle sprechen. Abgehoben und von der Masse glorifiziert leben die Protagonisten der Modernen Theoretischen Systemphysik bezüglich alternativer Denkmodelle nach dem Motto: »Wir lesen nicht, wir schreiben selber.« Doch was wissen diese Leute wirklich von dem, was sie da treiben und schätzen? Was "kennen" sie, außer den "Dingen", die sie anhimmeln, stetig nachkorrigieren und mit aller Kraft verteidigen und wenn es als letzte Untat die postulierte Unwiderlegbarkeit (Stichwort Confinement-These) selbst ist, die sie propagieren?

Methodisch organisierter Realitätsverlust als Wissenschaftsgrundlage

Die Ursprünge des Realitätsverlustes, welcher mannigfaltig im Standardmodell der Teilchenphysik zum Tragen kommt, stammt aus der Quantenmechanik. Im Zuge der Kopenhagener Interpretation der Quantenmechanik ist der Realitätsverlust methodisch und gewollt. Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität ohne selbst eine Realität zu besitzen. Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier Theorem es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab den physikalischen Prozeß zu erkunden. Anschaulichkeit und Phänomenologie werden ausgeblendet.

 

Je nach Vorwissen, zur Erinnerung, zur Kenntnisnahme und zur Selbstanalyse

 

Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Elektronen sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen". Da heißt es lapidar zum Thema „Quarkmischungen“: …Die CKM-Matrix (Cabibbo-Kobayashi-Maskawa-Matrix) wird physikalisch eindeutig durch drei reelle Parameter sowie eine komplexe Phase beschrieben (weitere fünf Phasen, die mathematisch auftreten, haben keine physikalische Bedeutung)…“ Das bedeutet schlicht und ergreifend, dass man sich ergebnisorientiert die mathematischen Elemente nimmt, die „irgendwie passen“ und andere einfach ignoriert.

Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. U.a. Religiosität, "neurologische Auffälligkeiten", Größenwahn sowie wissenschaftsbefreite "Kindergartensprache" kommen mit dem Theoretiker als "verwirrten", (Mathematik) gläubigen Menschen ins "Spiel".

Kommen wir zu der Forderung der »SMer«SM, dass ein funktionierendes alternatives Modell hunderte Meßwerte formal reproduzieren muss, so wie es ja auch das SM "macht" (es darf gelacht werden).

»SMer« sind sich siegessicher, dass das nie geschehen wird. Ihre absolute Trumpfkarte im Spiel der Forderungen ist die theoretische Berechnung des anomalen magnetischen Moments des Elektrons und der damit assoziierte Meßwert, sofern wir das - aus vielerlei Gründen absurde und argumentativ widerlegte - Postulat der (realphysikalisch möglichen) Messung von Gravitationswellen hier erst einmal nicht berücksichtigen und Physik begutachten wollen.

Naja, ich "sage" es mal so, stell' Dir vor es geht.

Ich möchte das an dieser Stelle nur thematisch "anreißen", da es gemäß inhaltlichen Umfangs, konkreter Ausführungen etc. weit weg vom Primären über Denkmodellaspekte führt. Eine sehr ausführliche Betrachtung mit einer unerwarteten phänomenologisch begründeten, formalanalytischen - ohne Übertreibung - sensationellen Alternative und im Ergebnis erstaunlichen Werteberechnungen findet sich später in den vorliegenden Ausführungen zu den magnetischen Momenten.

Bevor »wir«, die Leser, jedoch diese komplexen Detail-Betrachtungen der Anomalen Magnetischen Momente erreichen, sind die Standardmodelle, nach dem »expressionistischen Stirb- und Werde-Prinzip« im Sinne des »Prinzips der Parsimonie« schon tot. Warum ist das so?

 

     

Die grundsätzliche, phänomenologisch begründete Elementarkörper basierende Denkmodell-Forderung besteht darin, dass möglichst minimalistische Gleichungen, sowohl das masselose Photon als auch massebehaftete Materie abbilden.

 

Sowie, dass der Masse-Raum gekoppelte Mikrokosmos-Formalismus gleichfalls (formal analog) makroskopische Wechselwirkungen und Größen beschreibt und berechnet, ohne das hier erst einmal näher auszuführen:

 

 

 

(Rückblickend eine mathematische Betrachtung respektive  eine formale Ankopplung)

Die Essenz der Fourier-Analysis als elementarer Bildungsbaustein

Das stetige „Analyse- und Synthese-System“ in Form der Fourier-Reihe respektive Fouriertransformation ist allgegenwärtig. Verstehen wir die Cosinusfunktion als eine um π/2 phasenverschobene Sinusfunktion, dann ist die Fourier-Basis-Funktion die Sinusfunktion. Konsequent minimalistisch gedacht, war/ist es also nahe liegend, nicht die Fourier-Reihe-Transformation als Methode der Fourier-Analysis als einfachste Abbildungsmöglichkeit zu Grunde zu legen, sondern minimalistisch die „reine“ Sinusfunktion selbst. Resultierend lassen sich intuitiv logische Randbedingungen, im Rahmen der Elementarkörpertheorie, für Basisbetrachtungen formulieren.

 

Mit anderen Worten

Konträr zur Aussage der Standardphysik, die vier Grundkräfte postuliert, lässt sich Elementarkörper basierend - auf Grund der (skalenkorrespondierenden) Masse-Raum-Kopplung - jedwede Wechselwirkung auf das Masse-Radius-Verhältnis der interagierenden Wechselwirkungspartner reduzieren. Das führt zu einer »konstruktiven Beschreibungsverarmung«, die entweder durch die Radien oder deren reziprok proportionale Massen ausgedrückt werden kann. Mit Hilfe dieser einkomponentigen wortwörtlichen Minimalbeschreibung lassen sich Materiebildungsmöglichkeiten verstehen und formal analytisch exakt berechnen.

 

Einzig folgende Meßwerte werden für die EKT benötigt:

Masse des ElektronsMasse des Protons, Gravitationskonstante, Plancksches Wirkunsquantum (als kleinste skalare Wirkung), die Lichtgeschwindigkeit, der Wert der elektrischen Elementarladung, der Wert der Dieelektrizitätskonstanten.

Das wären 7 freie Parameter, die von der Natur vorgegeben und relativ einfach meßbar sind.

Da wir hier die Gravitationskonstante, Plancksches Wirkunsquantum (als kleinste skalare Wirkung), die Lichtgeschwindigkeit, den Wert der elektrischen Elementarladung, den Wert der Dieelektrizitätskonstanten zu den freien Parametern der EKT zählten, müssen wir diese gemäß der verwendeten Standardmodell-Terminologie jedoch wieder abziehen, da diese nicht als freie Parameter aus Sicht der Standardmodelle gelten.

Bedeutet:

Die EKT benötigt nur 2 (!!!) freie Parameter!

Die Masse des Protons und die Masse des Elektrons

 

 

"Andererseits"...

Zum Vergleich: Das Standardmodell der ElementarteilchenphysikSM zielt darauf ab Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen. Das Standardmodell der Teilchenphysik benötigt (derzeit) 25 freie ParameterFP, variable Kopplungskonstanten, mehreren Dutzend postuliert essentielle Theorieobjekte]pet, assoziierte Verknüpfungszahlen (Quantenzahlen), diverse Substrukturierungs-Thesen, Confinement-These,…

 

[FP]

25 freie Parameter des Standardmodells der Teilchenphysik (SM)
3 Kopplungskonstanten
der starken Wechselwirkung ( 8 Gluonen, Farbladung) αs
der elektromagnetischen Wechselwirkung (Photon, elektrische Ladung) α
der Schwachen Wechselwirkung (W+, W-, Z0αW
6 Quarkmassen
3 Massen der geladenen Leptonen (Elektron, Myon, Tau)
4 Winkel zur Beschreibung von Quark-Zerfällen
1 Winkel zur Beschreibung der CP-Verletzung in der starken Wechselwirkung
Masse des Higgs-Bosons
3 Massen und 4 Mischungswinkel massebehafteter Neutrinos

                 

Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalenmasselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität, in der Masse und Ausdehnung Fundamentaleigenschaften darstellen.

Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung respektive der ursprüngliche Formalismus "verletzt", zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung, sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen. Die einzig der herrschenden Physik bekannte direkte Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt nicht abbilden. Des Weiteren: Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben. Diese Grundbedingung steht in einem eklatanten Widerspruch zu (postulierten) Neutrino-Oszillationen (Nobelpreis 2015), die zwingend Neutrinomassen voraussetzen. 

 

]pet Zählt man die Teilchen nach einer Regel, die zwischen Teilchen und ihren entsprechenden Antiteilchen sowie zwischen den vielen Farbzuständen von Quarks und Gluonen unterscheidet, ergibt sich eine Gesamtzahl von 61 Elementarteilchen. Wenn Neutrinos ihre eigenen Antiteilchen sind, dann würde die Gesamtzahl der Elementarteilchen nach denselben Zählkonventionen 58 betragen.

 

SM Bei genauer Sicht gibt es das SM nicht. Es ist bereits in sich fragmentiert und diesbezüglich unvereinbar.

Hintergrund

Weder die Maxwell-Gleichungen noch irgendwelche mathematischen Neu-Konstrukte der zeitgenössischen Quantenelektrodynamik offerieren konsistente Denkmodell-Phänomenologien zur Natur der Strahlung. Zur Verdeutlichung soll hier denkmodell-exemplarisch die Definition des Photons im Rahmen der Elektroschwachen Theorie, die weder in der QED noch allgemein formuliert im SM existiert, skizziert werden.

In der Elektroschwachen Theorie werden, wie bei allen quantenfeldtheoretischen Eichtheorien, die Wechselwirkungen durch Eichbosonen vermittelt. In der Elektroschwachen Theorie treten zunächst vier masselose Eichbosonen auf, die auftretenden Eichbosonen werden als "Mischungen" definiert. Grundidee ist eine formale Vereinigung von elektromagnetischer und schwacher Wechselwirkung. Wobei W1, W2 und W3 keinerlei "messtechnische Realität" besitzen. Das Z0-Boson ist nicht wie die W-Bosonen maximal paritätsverletzend, da es einen Anteil des W3-Bosons enthält. Man sagt, die Zustände des Photons γ0 und des Z0-Bosons sind um den so genannten Weinbergwinkel gedreht.

Das Photon soll sich in der Elektroschwachen Theorie wie in der QED verhalten. Diese Annahme/Forderung ist (phänomenologisch) haltlos, da das »Photon der QED« nicht dem Mischzustand der elektroschwachen Theorie entspricht.

Auch ohne mathematische Konkretisierung lässt sich der Widerspruch qualitativ verstehen. Es wird im Rahmen der QED ein punktförmiges Elektron als strukturloses (elementares) Teilchen postuliert, welches im Theorie-Ergebnis eine unendlich große Ladung besitzt. QED-Trick: Durch die postulierte Polarisation des Vakuums (spontane Bildung von virtuellen Elektron-Positron-Paaren und virtuellen Photonen) wird die unendliche Ladung des Elektrons abgeschirmt und es ergibt sich die endliche, beobachtbare elektrische Ladung. In diesem Zusammenhang kommt es zu einer Ergebnis orientierten Verselbständigung der Mathematik. Es werden als erstes die konstruierten Singularitäten abgespalten (Regularisierung) und dann renormiert (endlich gemacht). Der theoretische Erfolg ist somit selbstprophetisch, das Ergebnis war bekannt.

Bedeutet: Statt unverstandene, phänomenologiebefreite Größen bzw. Begriffe, wie Ladung und Masse (bestenfalls) auf primäre Begriffe zu reduzieren, werden weitere willküraffine Theorie-Konstrukte postuliert. Außer einer fragwürdigen, Realphysik befreiten mathematischen "Struktur", die mal richtige und mal (sehr) falsche VoraussagenVE liefert, bleibt (erkenntnistheoretisch) »Nichts«.

 

VE Die „gemessene“ Stärke der Vakuumenergie(dichte) stellt wortwörtlich eines der größten Probleme der modernen System-Physik dar, da die experimentell gefundenen und die theoretisch vorhergesagten Werte extrem voneinander abweichen. Aufgrund von Beobachtungen wird die Energiedichte des Vakuums auf einen Wert der Größenordnung 10−9 J/m3 geschätzt, dieser Wert ist damit etwa um den Faktor 10120 (!!!) niedriger als in den theoretischen Berechnungen des Standardmodells.

 

Des Rätsels Lösung zur Vakuumenergie liefert die Elementarkörpertheorie

 

Die Divergenzproblematiken, sowohl klassischer als auch quantenfeldtheoretischer Betrachtungen, finden ihre theoriebeladene Ursache in den jeweiligen Denkmodellen. Dort wird die innere Struktur der Energieträger (Gravitation, (elektrische) Ladung) schlicht nicht erfasst. Berücksichtigt man jedoch die endliche, realphysikalisch orientierte, phänomenologische Betrachtung der Objekte, lösen sich die "Unendlichkeiten" plausibel auf. Die von der Standardtheorie vorhergesagte, in unserem Universum aber nicht vorhandene, ungeheuer große Vakuumenergiedichte, "findet" eine plausible Erklärung in der Elementarkörpertheorie.

 

Stirb- und Werde- Ausgangssituation

Heute regt es höchstwahrscheinlich niemanden mehr auf, wenn rückblickend über den Wechsel vom »Ptolemäischen Weltbild« zum »Heliozentrischen Weltbild« berichtet wird. Das war jedoch zu der damaligen Zeit eine extreme Situation.

Es gab zwar bereits im antiken Griechenland Überlegungen, dass die Erde um einen fixen Punkt kreist. Dennoch war es Nikolaus Kopernikus (1473–1543), der mit seinem Hauptwerk „De revolutionibus orbium coelestium“ 1543 für eine wissenschaftliche Sensation sorgte. Er stellte ein mathematisch-naturphilosophisches Modell vor, in dem sich die Erde und die anderen Planeten auf Ellipsen um die Sonne drehten. Bis heute wird daher das heliozentrische auch als kopernikanisches Weltbild bezeichnet.

 

In unserem Sonnensystem bewegen sich die Planeten nicht um die Sonne, sondern um den gemeinsamen Schwerpunkt (Baryzentrum). Dass die reale Situation komplex ist, läßt sich leicht folgend u.a. aus folgenden faktischen Gründen verstehen, da nicht nur alle Planeten sondern u.a. auch deren Trabanten (Monde) im Gesamtbild (mit)wechselwirken. Weder die Massen der Sonnensystemobjekte sind hinreichend bekannt, noch ist darüber hinaus sicher, welche Objekte (Monde) noch gar nicht entdeckt wurden.

 

Das geozentrische Weltbild entsprach der alltäglichen Erfahrung des Beobachters und widersprach nicht der Bibel. Die christlichen Kirchen übernahmen und verteidigten es entschieden. Das geozentrische Weltbild wurde bis zum Beginn der Renaissance nicht öffentlich hinterfragt. Erst mit Nikolaus Kopernikus, Giordano Bruno und Galileo Galilei traten ernstzunehmende Kritiker auf, die wegen der Befürwortung des »heliozentrischen Systems des Kopernikus« von der Inquisition wegen Häresie angeklagt wurden. Es ging für die Kritiker wortwörtlich um »Leben und Tod«. Tod für die, die sich gegen bestehende Ansichten auflehnten. Fakten und wissenschaftliche Argumentationen waren dem Glauben untergeordnet. Interessant zu erwähnen. Kopernikus war ein Bibelgläubiger. Er glaubte daran, dass die Erde - und damit der Mensch - im Zentrum des Kosmos steht. Sein Ziel war es, das ptolemäische Weltbild zu vereinfachen. Kopernikus will Widersprüche des Systems aus der Welt schaffen.

 

Geozentrisches Weltbild - Epizykeltheorie

Die Erde steht im Zentrum des Kosmos, die Himmelskörper bewegen sich auf Kreisbahnen. Allerdings konnte z.B. die Bahn des Mars nicht eine einfache Kreisbahn um die Erde sein, denn die Bahn zeigte unerklärliche Schleifen, also stellenweise eine Rückwärtsbewegung. Um das Dogma von der natürlichen Kreisbahn aufrecht erhalten zu können, wurde ad hoc behauptet, dass die Marsbahn wohl ein Kreis sei, die Erde sei aber nicht Mittelpunkt seiner Bahn. Der Mittelpunkt der Kreisbahn des Mars (sein Epizykel) bewege sich selbst auf einem Kreis um die Erde, dem so genannten Trägerkreis oder Deferenten. Da die Geschwindigkeit des Mars aber nicht gleichförmig ist, wurde wieder ad hoc behauptet, dass die Erde nicht genau im Zentrum des Trägerkreises sei, die Erde sei somit exzentrisch angeordnet. Doch die Einführung von Epizykeln und Exzentritäten genügte für die exakte Bahnbeschreibung immer noch nicht. Ptolemäus führte als weiteren Parameter den Äquant ein. Nur vom Äquanten aus betrachtet stellen sich alle Bahnen als gleichförmige dar. Das Ptolemäische Modell liefert eine genaue Beschreibung der Phänomene, wenn die Parameter Epizykel, Exzentrizität und Äquant passend variiert werden. Eine kausale physikalische Erklärung für die Modellkonstruktion wurde nicht gegeben.

 

Kopernikus wußte, was ihm wegen seiner Forschungs-Ergebnisse eines heliozentrischen Weltbildes von Seiten der katholischen Kirche droht. Im Vorwort der Abhandlung wendet er sich deshalb direkt an den Papst und verweist darauf, dass die gnädige katholische Kirche schon Wissenschaftlern vor ihm die Freiheit gegeben habe, über die Bahnen der Planeten nachzudenken. Tatsächlich erweist sich der Vatikan zu Kopernikus Lebzeiten gnädig – wohl auch deshalb, weil er zum Zeitpunkt des Erscheinens schon im Sterben liegt. Letztendlich kommt »De revolutionibus orbium coelestium«  1616 auf den Index verbotener Bücher, da ist Kopernikus schon lange tot: Er stirbt am 24. Mai 1543 an einem Schlaganfall.

 

 

Ergebnisoffenheit heute - Was hat sich  zu "damals" geändert? - Hat sich was geändert?

Heute inszenieren sich Wissenschaftler vordergründig gerne als aufgeklärt, faktenfreundlich, ergebnisoffen und bereit für neue Gedanken. Das fällt ihnen leicht, denn sie können sich schlicht nicht vorstellen, dass es zu spektakulären, neuen Ansätzen kommen wird, die sie selbst "alt aussehen lassen". Was passiert jedoch, wenn das, was diese heute lebenden Wissenschaftler – teils über Jahrzehnte – praktizier(t)en, in Analogie zum geozentrischen Weltbild, nicht mehr gelten soll?

Ob der Kritiker und Denkmodellkonstrukteur auch heute noch Folter und Tod fürchten muß? Höchst wahrscheinlich nicht. Aber, wer weiß, sage niemals nie. Sicher ist Folgendes: Heute werden Karrieren verhindert und Alternativdenker diskreditiert.

 

 

 

Was passiert mit Kritikern der Standardmodelle?

Selten, dass sich Wissenschaftler in Blog-Kommentarfeldern äußern. Hier mal eine dieser Ausnahmen, wo Prof. Dr. Pavel Kroupa (Astrophysiker) u.a. auf massive Zensur im Wissenschaftsbetrieb hinweist:

…„Es gilt als riskant, “ketzerische” Arbeiten, zu zitieren.

Brillanten Wissenschaftlern, mit herausragenden akademischen Qualifikationen, wird z.T. Diskussionsverbot erteilt, wenn sie sich mit physikalisch interessanten alternativen Ansätzen beschäftigen. Erst letzte Woche hatte ich einen hochbegabten jungen Physiker zu Besuch, der mir schlimmstes berichten musste.“…

„Das obige ist beängstigend, weil nämlich einfachere Alternativen im gleichen Zuge unterdrückt werden. So kann es ja dann nicht überraschen, dass diese Alternativen nicht so gut ausgearbeitet sind, sodass Simon White “überzeugend” argumentieren kann, dass