Freude an der Wirklichkeit

Auch wenn es sich hier um eine wissenschaftliche Betrachtung der Materie handelt, sollen ergänzend Humor und interdisziplinäre Verweise nicht zu kurz kommen. Die mathematisch-physikalischen Ausführungen sind bewusst mit künstlerischen Bild-Elementen ausgeschmückt, da es Spaß macht die Vitalität der Theorie zu illustrieren. Authentizität und Egozentrik des Theorievaters sollen und werden kein Geheimnis bleiben.

[Technischer Hinweis: Sollten Sie ungewollt diese Webseite ohne Webseitenmenü ("frame-los") vorliegen haben, so gelangen Sie hier zur kompletten menügesteuerten Elementarkörpertheorie-Webseite]

(Objektorientierte) Einzelaspekte (zum Beispiel zum Wasserstoffatom), phänomenologische Zusammenhänge, detaillierte Angaben, konkrete Berechnungen finden sich in den Einzelkapiteln, die über das Webseiten-Menü wählbar sind. Zum Kennenlernen werden einige Sachverhalte und Denkanstösse an verschiedenen Stellen bewusst wiederholt. Der Leser mag selbst entscheiden, ob er bereits Bekanntes nochmals liest.

 

Zur Aussage-Form des Vortrages

"Wortgewordenes", teils in Form von Satire, Ironie und Zynismus, ist Ausdruck der Empörung und des Unverständnisses über die fragwürdige, etablierte Beliebigkeit heutiger Theoriemodelle zur Beschreibung der Materie. Sofern man nicht schon von den bestehenden Standardmodellen geistig gebrochen bzw. "vollständig assimiliert" wurde, lohnt es sich - Ästhetik und Schöngeist orientiert - "etwas" Abstraktion und Geduld für die folgenden Ausführungen aufzubringen.

 

Form und Inhalt

Es gibt nicht wenige Stellvertreter der "Modernen Physik" die vorliegende gestalterische Wahl kategorisch ablehnen. Es wird eine wissenschaftliche Präsentation verlangt, so wie man sie kennt, ansonsten wird Alles "ungesehen" als unwissenschaftlich bewertet. Diese Forderung ist jedoch inhaltlich belanglos, wenn man den dazugehörigen, andauernden, weltweiten "Feldversuch" betrachtet. Denn, auch dann, wenn »Prof.Dr.Tralala« ein "normgestaltetes" Dokument ("scientific paper") präsentiert, wird er, sofern seine Ergebnisse von den Standardmodellansichten signifikant abweichen, schlicht ignoriert, wie jeder Interessierte an zahlreichen Beispielen der "jüngeren" Wissenschaftsgeschichte selbst recherchieren kann.

Anfang des 20.Jahrhunderts waren im Bereich der Modell-Physik Max Planck und Albert Einstein Aktivisten radikal neuen Denkens. Planck und Einstein waren zeitlebens aber auch ihre (eigenen) größten Kritiker. Doch ihre Kritik, die sich darin begründete, daß  - plakativ formuliert -  keine ausreichende Phänomenologie zur verwendeten Mathematik existiert(e), wurde von den übrigen akademischen Zeitgenossen und akademischen Nachfolgern ergebnisorientiert ignoriert. Werner Heisenberg, Wolfgang Pauli, Paul Dirac, Julian Schwinger, Richard Feynman und Denkverwandte waren im Zuge indeterministischer Quantisierungsfantasien letztendlich von ihrem "mathematischen" Zauber so sehr berauscht, daß sie generell fehlende Phänomenologie durch bloße Rechenvorschriften ersetzten.

Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." [EM1]

[EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

Einsteins kritische Äußerungen insbesondere zur Quantenmechanik führten zu seiner Isolation. Er war zwar ein "Medienstar" aber wissenschaftlich ab Mitte 30 ohne (große) Bedeutung. Fatalerweise avancierten aus erkenntnistheoretischer Sicht Differentialgeometrie- und Quantenfeld-Fantasien zu neuen Denkdogmen. Heute bestimmen nicht messbare postulierte Theorieobjekte, deren gewünschte mathematische Symmetrien und willküraffine Substrukturthesen das Denken der Theoretischen Grundlagenphysik. Das diese Konstruktionen u.a. weder konsistent noch alternativlos sind, wird im Folgenden ausgeführt.     

 

 

Was ist und was darf sein?

Die mit der Elementarkörpertheorie verbundenen generellen inhaltlichen und begrifflichen Schwierigkeiten basieren auf ihrer "unglaublichen" Einfachheit.

                              

Ein phänomenologisch begründetes, konsistentes Denkmodell mit einer konstruktiven "Beschreibungsverarmung" auf eine sinnerfahr- und mess-bare Primärgrösse, mathematisch ausgedrückt durch einen Radius, welches exakte, formal-analytische Lösungen und konkrete Berechnungen zulässt, die in guter bis sehr guter Übereinstimmung mit experimentellen Grössen sind, erzeugt einen reflexartigen Denkmodell-Ablehnungsprozess. Dieser basiert nicht auf logischer Argumentation sondern ist das Ergebnis mehr als 100-jähriger Indoktrination in Richtung realobjekt-feindlicher Grundlagenphysik. Die negativ-soziologischen Aspekte wurden spätestens seit Beginn der Glaubensfestigung des Standardmodells der Teilchenphysik (SM) in den 1970er Jahren mit jedem weiteren postulierten Elementarteilchen und assoziierten neuen Theorieelementen potenziert.

Für einen unbetreuten Quantenfeldtheoretiker dürfte es sinnlos sein, hier weiterzulesen. Der interessierte Laie hat in der Regel die schwere Last der antrainierten Systemgläubigkeit zu tragen, die er nicht einfach so abwerfen kann.

Psychologie der Masse

Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, daß dem oft nicht so ist, insbesondere wenn es sich um wissenschaftliche Themen handelt. Alle verbreiteten Standardmodelle, insbesondere wenn diese über größere Zeiträume herrschen, beinhalten Machtpositionen und Versorgungsstrukturen. Die Machthalter und Nutznießer werden alles tun um diese Zustände aufrecht zu erhalten.

Inhalts-analytisch erstaunlich ist die Tatsache, daß die "großen" Standardmodelle der Physik sprich das Standardmodell der Elementarteilchenphysik (SM) und das Standardmodell der Kosmologie (ΛCDM-Modell) sowie vermeintlich konkurrierende Modelle (Stringtheorien) und die gewünschte SM-"Erweiterung" SUSY (Supersymmetrie) keinerlei rational logischer Kritik standhalten, wie im Zusammenhang mit der Elementarkörpertheorie an zahlreichen Beispielen ausgeführt wird. Einzig das soziologische "Argument", daß sich doch nicht zehntausende mathematisch hervorragend ausgebildete Wissenschaftler über mittlerweile mehrere Generationen, mit Modellen beschäftigen, wenn diese bedeutungslos wären, wird zum finalen Schlag ins Felde geführt. Dieses schwerwiegende allgemein-psychologische "Argument" ist sehr gut erprobt, wie die Beständigkeit und Macht der irrationalen Weltreligionen leidvoll bestätigen. Postulierte Quarks oder postulierte Superpartner sind exemplarisch wie Adam und Eva. SM und Artverwandtes sind heilige Schriften der Theoretiker. Dort herrscht die Lagrangedichte und produziert stetig Willkürliches.  

Die Zunahme der Existenz moderner, aufgeklärter Zeitgenossen ist ein Mythos. Das Gros der Menschen ist (auch) im 21.Jahrhundert weit entfernt von basisnahen analytischen Argumentationen. Das betrifft auf eine sehr spezielle Art und Weise Theoretische Physiker. Die literaturgelernten handwerklichen mathematischen Fertigkeiten dieser stehen in keinem Verhältnis zu den irrationalen Postulaten der Anwender.     

 

 

Bevor unnötig Mißverständnisse aufkommen, Spiritualität ist für den analytisch denkenden, von kulturreligiösen Indoktrinationen befreiten Selbst-Denker kein "Problem". Denn die Kernfrage, woher "wir" kommen, ist berechtigt.

Entstehungsmythen, egal welcher Ausrichtung, gehören jedoch nicht in Denkmodelle zur Materiebildung.

Die Welt der Götter ist "bestenfalls" ein unterhaltsames Psycho-Konzept für Glaubensabhängige aber kein meßtechnisch erfassbares Objekt. Die Unterschiede zwischen »Geistern und Dämonen« und »Dunkler Energie und Dunkler Materie« sind marginal. Die Verdrängung realphysikorientierter Plausibilität zu Gunsten Logik beraubter Denkmodelle (ΛCDM-Modell, SM, SUSY) charakterisiert ein seit Jahrzehnten anhaltendes modernes Trauerspiel. Wir erleben mit der heutigen etablierten Standardmodellphysik ein erneutes, doch diesmal deutlich komplexeres, Phlogiston-Drama. "Willkommen" im Barock 2.0 sozusagen. Nicht die Mathematik, die generell nicht zwischen Staub und Staubsauger unterscheiden kann, ist "falsch", sondern die mathematisch formulierten, willkürlich postulierten Denkkonstrukte sind es, die bei genauer Sicht schon einfachster Logik entbehren und letztendlich keinen Erkenntnisgewinn generieren.

Ein geschichtlicher Rückblick zeigt, daß Leute die auf Fehler aufmerksam machen, damit rechnen müssen, daß man ihnen jahrzehntelang nicht glaubt, während jene die im Rahmen bestehender Denkmodelle spektakuläre "Luftnummern" publizieren, honoriert und hofiert werden. Kritiker werden von der Masse als unliebsame Störer empfunden. Mit den Worten Gustave le Bons „Nie haben die Massen nach Wahrheit gedürstet. Von den Tatsachen, die ihnen mißfallen, wenden sie sich ab und ziehen es vor, den Irrtum zu vergöttern, wenn er sie zu verführen vermag. Wer sie zu täuschen versteht, wird leicht ihr Herr, wer sie aufzuklären sucht, stets ihr Opfer.“ 

Wer Gruppenzugehörigkeit anstrebt wird nicht zum kritischen Denker. Logische und methodische Analysefähigkeiten, das Wissen um historische Zusammenhänge, selbsterarbeitete Grundlagenkenntnisse statt literaturreproduzierter, Ehrgeiz, Selbstdisziplin und eine gute Portion Egozentrik sind Grundvoraussetzungen für selbständiges Denken und Handeln. 

 

 

Die Elementarkörpertheorie befasst sich insbesondere mit der Frage, wie Masse und Raum basisnah miteinander verknüpft sind und im „Zusammenspiel“ zu verständlichen Materiebildungen führen, die sich näherungsfrei und ohne freie Parameter formal-analytisch - sowohl mikroskopisch als auch korrespondierend makroskopisch - berechnen lassen.

Konträr zur Aussage der Standardphysik, die vier Grundkräfte postuliert, lässt sich Elementarkörper basierend - auf Grund der (skalenkorrespondierenden) Masse-Raum-Kopplung - jedwede Wechselwirkung auf das Masse-Radius-Verhältnis der interagierenden Wechselwirkungspartner reduzieren. Das führt zu einer konstruktiven Beschreibungsverarmung, die entweder durch die Radien oder deren reziprok proportionale Massen ausgedrückt werden kann. Mit Hilfe dieser einkomponentigen sprichwörtlichen Minimalbeschreibung lassen sich Materiebildungsmöglichkeiten verstehen und formal analytisch exakt berechnen.

statt  4 Grundkräften     →    Masse - Radius - Kopplung

 

 

Die Selbstverständlichkeit, daß die Wegstrecke auf einer Kugeloberfläche nicht der "geradlinigen" Entfernung zwischen den Punkten A und B entspricht, bedarf keiner Abstraktion.

 

Daraus ergibt sich Elementarkörper basierend anschaulich die Compton-Wellenlänge λC als Masse-Äquivalent. 

Aus dieser Betrachtung folgen "geometrisch" massespezifische Radien (λCr0). Die Frage, wie "(werte-)sicher" die mit den comptonwellenlängen-assoziierten (Ruhe-)Massen inhärenten (Ruhe-)Radien (r0(m0)) sind, ist "leicht" zu beantworten: Comptonwellenlängen sind (auch) Meßgrössen.  [ CODATAC(Proton)  CODATAC(Elektron) ]

Dieses Elementarkörpertheorie basierende fundamentale Wissen wird u.a. durch Meßergebnisse im Rahmen (differentieller) Streuquerschnitte elastischer und inelastischer Streuungen bestätigt und steht gleichzeitig in einem eklatanten Widerspruch zu den Aussagen der Elementarteilchenphysik.

 

Sekundäre Grössen

Losgelöst vom Denkmodell existiert keine Masse, die nicht auch eine Energie besitzt. Doch sowohl Masse- als auch Energie-Begriff sind sekundärer Art. Das heißt, "man" benutzt sie häufig, aber keiner kann im Rahmen der herrschenden Physik eine (konsistente) phänomenologische Erklärung liefern, was Masse und Energie eigentlich sind. Es existiert keine primäre Begrifflichkeit.

 

"Es ist wichtig, einzusehen, dass wir in der heutigen Physik nicht wissen, was Energie ist."...

Richard Feynman

"It is important to realize that in physics today, we have no knowledge of what energy is."...

 

Die Verwendung von sekundären Begriffen in der Physik ist nicht nur weit verbreitet, im Rahmen der (theoretischen) Grundlagenforschung gibt es auf diesem Gebiet ausschließlich sekundäre Begriffe".

Verkünder und Versteher sekundärer Begriffe glauben an die suggestive Strahlkraft. Sie haben "irgendwie" ein gutes Gefühl der wissenschaftlichen Nähe, wenn sie beispielsweise von elektrischer Ladung, Photonen, Masse, elektrischem Feld oder Gravitationsfeld hören, über diese sprechen und diese Begrifflichkeiten respektive Grössen in Formalismen einfügen. Doch alle Denkmodelle welche auf sekundäre Begriffe fussen sind  - insbesondere aus epistemologischer Sicht -  nicht erkenntnis-tragfähig.

Ohne Übertreibung kann behauptet werden, daß (nur) die Elementarkörpertheorie sekundäre Begriffe zur Materiebildung auf die primäre Grösse sprich (Objekt-)Radius der wechselwirkenden Körper konstruktiv beschreibungsverarmend "reduziert". Radialsymmetrie, ausgedrückt durch den Radius (r), steht hier für die sinnlich erfahrbare und physikalisch messbare Objekt- respektive Raum-Grösse. Räumliche Ausdehnung ist primär erfahr- und messbar. Mit dieser Annahme lassen sich sowohl charakteristische Grössen zweikörperbasierender mikroskopischer "Entitäten", wie das Wasserstoffatom oder das Neutron phänomenologisch konsistent erfassen und berechnen als auch charakteristische Grössen makroskopischer Vielteilchensysteme.

 

Theorieforderung und empirischer Befund

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch, wie im Rahmen der Standardmodelle üblich, die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen.

Beispiel: Das Standardmodell der Elementarteilchenphysik (SM) zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen. Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen. Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung "verletzt", zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch SM-postuliert Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen.

 

Quantenchromodynamik (QCD) - Quark-Parton-Modell (QPM)

Das in den sechziger Jahren von Richard Feynman entwickelte Quark-Parton-Modell (QPM) beschreibt Nukleonen als Zusammensetzung grundlegender Bauteile, die Feynman Partonen nannte. Diese Bauteile wurden daraufhin mit den wenige Jahre zuvor gleichzeitig von Gell-Mann und Zweig postulierten Quarks identifiziert.

Es handelt sich um eine komplexe Theorie-Situation und assoziierten theoriebeladenen (Hochenergie-)Experimenten, dessen Verständnis von diversen Aspekten und einer ganzen Reihe von Postulaten geprägt ist. Wie das (hier relativ einfach beschriebene) verschachtelte Theorie-Experiment-Konstrukt aussieht, siehe stellvertretend die Ausführungen (Teil 1 -3) des Instituts für Kern- und Teilchenphysik Dresden.

Teil1 scheitert früh an den auf „theorieinternen“ Annahmen beruhenden Interpretationen des vorgestellten Modells.

Dies ist bemerkenswert, insbesondere das Neutron als elektrisch neutrales Teilchen sollte verschwindendes magnetisches Moment aufweisen. Dies weist bereits darauf hin, dass Protonen und Neutronen nicht punktförmig sind, sondern eine innere Struktur besitzen

Ist das magnetische Moment des Neutrons wirklich ein Beweis für eine Substruktur? Oder ist diese Annahme nur eine theoriebeladene Meßwert-Interpretation des Standardmodells? 

Die Interpretation einer Neutron-Quarks-(Sub-)Struktur verliert ihre Bedeutung, wenn man die Situation (denkmodellunabhängig) zahlenanalytisch untersucht. Die vermeintlich anomalen magnetischen Momente von Elektron und Proton sowie des Neutrons sind letztendlich eine Kombination aus den "semi-klassisch"  - einfachst zu berechnenden - "normalen" magnetischen Momenten und messungsinhärenten Beiträgen, die von dem Magnetfeld, welches zur Messung verwendet wird herrühren. Diese qualitative Aussage läßt sich (im Einklang mit den Meßwerten) konkretisieren. Siehe weiterführend die Ausführungen zum Neutron aus Sicht eines masse-radius-gekoppelten Modells, mit dem sich sowohl die Masse als auch das magnetische Moment des Neutrons aus der neutronbildenden Wechselwirkung von Elektron und Proton phänomenologisch verständlich und genau berechnen lässt.

Das Quark-Parton-Modell ist ein exzellentes Lehrstück aus der Reihe der Glaubensbekenntnisse (wie einst die Epizykel- oder Phlogistontheorie). Versuchsergebnisinterpretationen führten zu einigen theoretischen Annahmen, die dann mittels weiterer Interpretationen mit Hilfe von neuen Theorieobjekten und postulierten Wechselwirkungen schnell eine substrukturierte Komplexität erreichen, die letztendlich jegliche unpassende Versuchsergebnisse durch entsprechende Maßnahmen eliminieren. Erst waren es die postulierten Quarks. Diese erforderten eine Zerstückelung der elektrischen Elementarladung. Dann folgten Gluonen, da Quarks keine entsprechenden Spinbeiträge der Nukleonen lieferten. Danach wurden ergänzend so genannte »Sea-Quarks« eingeführt, da auch die postulierten Gluonen keinen entsprechenden Spinbeitrag leisteten. Details des „etablierten“ Nukleonenmodells siehe Teil 2 und Teil 3 (Das Quark-Parton-Modell) … Die Analyse der Gläubigen endet dann mit dem Glaubensfinale

Das Nukleon ist demnach aufgebaut aus Valenzquarks, Seequarks und Gluonen. Für die Eigenschaften des Nukleons (und aller Hadronen) wie etwa Ladung, Masse und Spin ist aber nur die Zusammensetzung der Valenzquarks verantwortlich. Man spricht daher auch häufig von Konstituentenquarks und meint damit die Valenzquarks plus die sie umgebende Wolke von Seequarks und Gluonen. Seequarks und Gluonen tragen nicht zu den (Netto-) Quantenzahlen bei, wohl aber zur Masse des Hadrons, da sie Energie und Impuls tragen. Während die nackte Masse der Valenzquarks nur einige MeV/c² beträgt, tragen die Konstituentenquarks den jeweiligen Bruchteil der Hadronenmasse, im Falle des Nukleons also etwa 300 MeV/c². Diese wird also überwiegend durch die Gluonen und Seequarks aufgebracht. Mit anderen Worten: Der überwiegende Teil der Hadronmassen (und damit der sichtbaren Masse im Universum) wird nicht durch die nackten Massen der Konstituenten getragen, sondern dynamisch durch die Energie der Wechselwirkung generiert!  

Ist das nicht schön. Da gibt es Wolken und Nackte und das gottanaloge Unbestimmte, was ca. 99% ausmacht, wenn man die postulierten Massen der „materiebildenden“ Quarks zugrunde legt. Aber hier ist das Glaubensmärchen noch nicht wirklich am Ende. In einem größeren Bild (ΛCDM-Modell) wird nun postuliert, daß die sichtbare Masse wiederum nur einen kleinen Teil der Masse im Universum ausmacht. Größtenteils besteht das Universum für die heutigen Standardmodell-Gläubigen aus Dunkler Materie und Dunkler Energie. Dunkel steht hier für nicht nachweisbar. Kein Wunder das der Vatikan Jahr für Jahr hoch erfreut zum Wissenschaftsgebet einlädt. Daß weder den Verkündern noch dem Volk ein Licht aufgeht hat Theodor Fontane so formuliert:

Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.«

 

 

Wie weit sich die Standardmodellphysik von wesentlichen Fragestellungen und rational logischen Aspekten entfernt hat, verdeutlichen folgende Beispiele.

Der Radius eines postuliert asymmetrisch substrukturierten, ladungsfragmentierten Objektes ist eine phänomenologische Unmöglichkeit. Da macht es auch keinen Unterschied ob dieser theoriebeladen als elektrische oder magnetische Größe definiert wird. Siehe als prominentestes Beispiel den (Ladungs-)Radius des Protons.

Eine zentrale Frage der Physik lautet, warum ist das Masseverhältnis von Proton zu Elektron so, wie es ist? Diese Frage ist im Rahmen des Standardmodells sinnleer. Da das Elektron im SM als elementar(-strukturlos) angesehen wird. Ein Vergleich von einem strukturlosen mit einem substrukturierten Objekt ist - gleichgültig wie die Substrukturierung zustande kommt - "gegenstandslos".

Die Natur der Strahlung ist aus Sicht der herrschenden Denkmodelle vollkommen ungeklärt bzw. ein inkonsistentes Durcheinander. Hier stellt sich in einer konstruktiven erkenntnistheoretischen Auseinandersetzung die Frage, inwieweit das erweiterte Konzept der „Austauschteilchen“ respektive der Eichbosonen eine realphysikalische Gültigkeit besitzt. Denn das zeitstabile reale Photon ist als Entität grundlegend verschieden von den massebehafteten Vektorbosonen und dem Higgs-Boson, sowie von den selbstwechselwirkenden, masselosen Gluonen. Das Photon zum Austauschteilchen bzw. Vektorboson zu erklären, ist, außerhalb der elektroschwachen Theorie, QED bzw. des SM stark diskussionswürdig, um es moderat auszudrücken. Auch ohne Kenntnis der Elementarkörpertheorie stellt sich insgesamt die epistemologische Frage nach der Realität der innerhalb des SM theorienotwendigen Vektorbosonen und des theorienotwendigen Higgs-Bosons. Details zum Standardmodell und Higgs-Mechanismus siehe entsprechende Kapitel.

SM-"Ergebnisse": Die SM-basierenden postulierten theoretischen Implikationen beeinflussen stark die Versuchsinterpretationen der SM-Protagonisten... Das resultierende komplexe Erwartungskonstrukt führt zu einer reihe von fatalen Mißverständnissen...

                                                    

Exemplarisch sind nicht die "typischen" energieabhängigen Elektronenradien kleiner als 10-19 [m] in Verbindung mit Teilchenbeschleunigern "falsch" (gemessen), sondern die von der Elementarteilchenphysik resultierenden Schlußfolgerungen bezüglich ruhender Elektronen sind falsch.

                                                    

Die Elementarkörpertheorie (hingegen) „beschreibt“ konsistent sowohl das Verhalten bei „konventionellen“ Streu-Energien der Streu-Partner (des Elektrons) als auch hochenergetisch im Teilchenbeschleuniger.

Vorweg: Der differentielle Streuquerschnitt dσ/dΩ nimmt für Elektronen bei „konventionellen“ Streu-Energien stets die Gestalt dσ/dΩ = (e²/me4πε0c²)² · fW an, wobei der funktionale Zusammenhang fW die spezifische Art der Streuung angibt. Das Verständigungs-Problem der herrschenden Physik bezüglich des (ungeliebten) klassischen Elektronenradius re(kl) löst sich auf, wenn man den wiederkehrenden Term (e²/me4πε0c²) masse-radius-gekoppelt-energetisch analysiert.

                                                    

Letztendlich besteht die Beziehung (e²/me4πε0c²) aus dem Verhältnis: elektrischer Energie zur Gesamtenergie (α/4)  und dem Elektronenmasse inhärenten Elektronenradius re [in dσ/dΩ = re · (α/4) · fW], der multipliziert mit π/2 der Comptonwellenlänge des Elektrons entspricht (λe re · π/2).

Des Weiteren ändert sich der Objektradius mit der Geschwindigkeit radialsymmetrisch und nicht nur eindimensional in Bewegungsrichtung, wie aus mehrfacher Sicht fälschlicherweise SRT-basierend insbesondere für den Teilchenbeschleuniger im Rahmen der herrschenden Physik "gedacht" wird. Die Elementarkörpertheorie liefert auch hier ein phänomenologisch begründetes, konsistentes, realobjekt-orientiertes Denkmodell.  

Zu diesem Verständnisproblem gibt es die größten emotionalen Ausbrüche und eine methodische Plausibilitäts-Verweigerung der Standardphysiker und deren Anhänger (siehe zum "Kennenlernen" exemplarisch das Kapitel Elektronenradius). 

 

 

 

Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen so hoch wie möglich sein. Es geht nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige Lösungen liefert. Diese Frage ist stets beantwortbar.

Das Denkmodell masse-radius-gekoppelter, radialsymmetrischer, substrukturloser Elementarkörper und deren Wechselwirkungsmöglichkeiten ist nicht nur in Bezug auf Konsistenz, Einfachheit, realobjektorientierter Anschauung den Standardmodellen gegenüber "überlegen", es liefert auch genau das, was ein brauchbares Denkmodell liefern muß, dies sind konkrete phänomenologisch begründete Gleichungen ohne freie Parameter, dessen Ergebnisse in guter bis sehr guter Übereinstimmung mit experimentellen Messwerten sind.

                                                            

Die jetzige, auf Mathematik basierende, realobjektbefreite Grundlagen-Physik bedarf dringend einer naturphilosophisch orientierten Reglementierung. Hier ist (, wieder aktuell,) Karl Popper [KP] zu zitieren: ..." Unsere Untersuchung läßt erkennen, daß selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, daß das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei."

[KP] K. Popper, Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4;The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959.

Glücklicherweise löst sich das (erkenntnistheoretische) "neobarocke Phlogiston-Drama", welches eine Neuverkörperung durch derzeitige Standardmodelle und deren gewünschte Erweiterungen bekommen hat, masse-radius-gekoppelt in Nichts auf.

Wer glaubt, hier handelt es sich nur um "starke" Worte, die - "um sicher zu gehen" - letztendlich im Rahmen der hochpräzisen QED-Voraussagen nicht wirklich ernst zu nehmen sind, der wird zu seiner großen Überraschung im Rahmen der masse-radius-gekoppelten Denk-Analyse der anomalen magnetischen Momente "kalt erwischt" und in eine schwere SM-Glaubenskrise gestürzt, siehe das Kapitel Anatomie anomaler magnetischer Momente  

                                        

... Am Ende zerbröselt auch die mathematische Voraussage-Präzession der QED epizyklisch an der masse-radius-gekoppelten Realphysik.  

 

 

Für ein  anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine variable Zeit, noch mathematische Raum-Zeit-Konstrukte, noch irgendeine Form der Substrukturierung notwendig. Die spezielle Relativitätstheorie knüpft zwar an das physikalische Experiment von Michelson & Morley an, beruht aber lediglich auf dessen mathematischer Deutung durch Lorentz. Die Relativierung der Zeit ist physikalisch nicht begründet, sondern nur das Ergebnis einer mathematischen Annahme. Auch die Herleitung der Masse-Energie-Äquivalenz ist unter formalanalytischen Gesichtspunkten weit weniger "eindeutig geklärt", als es die Spezielle Relativitätstheorie (SRT) suggeriert. Ohne das Gedankenexperiment Einsteins und den Rechenweg an dieser Stelle explizit auszuführen, folgt gemäß Albert Einstein respektive gemäß SRT E = mc² aus einer  "klassischen Grenzfall" - Approximation mittels Taylorreihenentwicklung. Streng genommen ist diese Herleitung - salopp formuliert - nicht "zwingend", da hier ergebnisorientiert die gewünschte Lösung die Näherung (mit-)bestimmt.

Was (auch) jeder wissen könnte aber viele ungern wahrhaben wollen…

Die Berechnung von Grundzustandsenergien ist weder quantenmechanisch noch quantenelektrodynamisch möglich. Da ein signifikant maßgebender Anteil von dem Verhältnis der wechselwirkenden Massen bestimmt wird. Es gibt weder QM und schon gar nicht QED basierend die Möglichkeit die reduzierte Masse mred = mA / (1 + mA/mB) quantenfeld-phänomenologisch einzuführen. Die reduzierte Masse ist – ob man es wahr haben will oder nicht - im Rahmen der Standardphysik historisch aus der „Newtonschen Himmelsmechanik“ abgeleitet. Das bedeutet im Klartext, daß im Sinne atomarer Wechselwirkungen, diese weder QM noch QED begründet sind. QM und QED sind „epizyklisch“.

In diesen Zusammenhängen sind plakative Fragen… ob Spezielle Relativitätstheorie (SRT) und Allgemeine Relativitätstheorie (ART), Quantenmechanik (QM) und allgemein Quantenfeldtheorie(n) (QFTs) als Denkmodelle "richtig" oder "falsch" sind, irrelevant. Denn die Frage müsste im Einzelfall lauten, inwieweit ein Denkmodell konsistent ist und erkenntnistheoretisch wertvolle Antworten geben kann. Wenn wir über SRT, ART, QM und QFTs "reden", dann reden wir bei genauer Sicht ausschließlich über mathematische Konzepte und im "Kern" über axiomatische Randbedingungen. Es ist sinnleer ein axiomatisch begründetes Konzept in Frage zu stellen. Die fundamentalen Probleme der Standardmodelle kommen u.a. mit den theoriebedingten Näherungen und Idealisierungen, sowie inkonsistenten Erweiterungen und willkürlichen Zusatzannahmen. Keines dieser Denkmodelle liefert näherungsfreie Lösungen zur Materiebildung. SRT, ART, QM und QFTs sind nicht korrespondierend und auf Grund der postulierten theoretischen Implikationen wortwörtlich unvereinbar. [*Hier wird gegenargumentiert, daß z.B. die Dirac-Gleichung eine "Synthese" von SRT und QM darstellt. Warum das realobjektorientiert nicht der Fall ist, siehe hier.]

Zur Erinnerung: Auch die Epizykeltheorie als "frühes Standardmodell" scheiterte nicht an der verwendeten Mathematik, die war stets richtig, sondern letztendlich an der phänomenologisch anschaulichen Nichtgeozentrik. Wink mit dem Zaunpfahl: Es wäre für heutige Standardmodell-Mathematiker ein leichtes "Spiel" eine moderne Epizykeltheorie auf Grundlage zusätzlicher (freier) Parameter und einiger Zusatzannahmen ins Leben zu rufen. An der Mathematik und fehlender Willkürbereitschaft würde diese "Theorie" sicherlich nicht scheitern, wie noch ausführlich im Rahmen Moderner Standardmodelle erörtert wird.

 

 

(Historisch experimentelle) "Ausgangsbetrachtung"

Elementarkörper-Entwicklungs-Gleichungen

Die zeitabhängigen Elementarkörper-Entwicklungs-Gleichungen leiten sich aus der beobachteten Invarianz der (Vakuum-)Lichtgeschwindigkeit ab. Der fundamentale Unterschied zur (Speziellen) Relativitätstheorie respektive zur Lorentztransformation ist der wechselwirkungsnotwendige radialsymmetrisch-dynamische Charakter dieser Gleichungen.

 

                 

Aus Sicht der realphysikorientierten Elementarkörpertheorie bleibt von der Relativitätstheorie (nur) der Lorentzfaktor γSRT als eindimensionaler, statischer Fall einer Elementarkörpertheorie basierenden allgemein gültigen Formulierung γdyn ("übrig"):

γSRT =

inertialsystembehaftet, statisch und eindimensional

γdyn =

inertialsystembefreit, radialsymmetrisch, dynamisch

 

                 

Der dynamische Faktor γdyn ist inertialsystembefreit und wirkt radialsymmetrisch. γdyn lässt sich "einfachst" aus der Elementarkörpergleichung r(t) mittels dr/dt ableiten :

 

 

»eΥch«

[(Eich-)Basisgrössen der Elementarkörpertheorie]

Zeitstabiles Elektron und zeitstabiles Proton respektive Elektronen- und Protonenmasse ("alternativ" deren masseinhärente Radien) sind zwar gestalterisch von realteilchenursächlicher Bedeutung und führen in der makroskopischen Betrachtung (mittels Gravitationskonstante) zur Endgrösse (Gesamtmasse und Gesamtradius) des Universums, aber die (allgemeine) Elementarkörper-Phänomenologie als solche, ist nicht von diesen konkreten Massen abhängig.

Daraus folgt: Das Denkmodell der Elementarkörper begründet sich bzw. arbeitet  mit folgenden Beobachtungen respektive Beobachtungs-Größen: Invarianz der (Vakuum-)Lichtgeschwindigkeit c, der Gravitationskonstanten γ und der elektrischen Elementarladung e. Als (Mengen-)Postulat wird das Planksche Wirkungsquantum h als kleinste (skalare) Wirkung definiert, welche sich phänomenologisch und "rechnerisch" zwanglos aus der Elementarkörperdynamik ergibt : ΔE · Δt = (m0c²) · ( r0π/2c) = h. Details siehe exemplarisch die (exakte) Berechnung des Protonenradius. Auch der Term m0c² lässt sich direkt aus der Elementarkörperdynamik ableiten, Details siehe E = m0c² im Kapitel Energie-Erhaltungs-Satz.

 

 

[Der Vollständigkeit halber sei an dieser Stelle erwähnt, daß das Plancksche Wirkungsquantum h auch eine (indirekte) im Rahmen des Elementarkörpermodells phänomenologisch begründete Beobachtungsgrösse ist, wenn man als Ausgangssituation die ("korrekte") Massen- und Radius-Bestimmung des Protons als gegeben voraussetzt.]

 

 

 

Energetische Analogie

Bezogen auf den Elementarkörper drücken Größen wie Bahndrehimpuls, Spin, Geschwindigkeit, elektrische Ladung stets rein energetische Verhältnisse der radius-masse-gekoppelten, möglichen inneren Veränderungen bei Elementarkörper-Wechselwirkungen aus. In diesem Zusammenhang wird hier von energetischen Analogien gesprochen. Auf Grund der Radialsymmetrie reduziert sich die Betrachtung auf den (Elementarkörper-)Radius und im Rahmen von Elementarkörper-Wechselwirkungen plausibel auf die resultierende Veränderung des Radius, was in jedem Fall eine "konstruktive Beschreibungsverarmung" bedeutet.

 

 

 

Im Rahmen der Elementarkörpertheorie drückt die elektrische Elementarladung (e) und die damit assoziierte elektrische Energie E(e) ein anschauliches masse-radius-gekoppeltes energetisches Verhältnis aus.

Elektrische Ladung ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse (und dem Radius) des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Elementarkörpertheorie basierend sind jedoch alle Ladungswechselwirkungen anschaulich auf Masse-Radius-Kopplungen zurückzuführen. Elektrische Ladungen im Elementarkörper-Denkmodell kommen als (formales) Resultat der Masse-Radius-Kopplung bequemerweise nur implizit über Funktionen der Sommerfeldschen Feinstrukturkonstanten α vor. Von weiterer fundamentaler Bedeutung ist im direkten phänomenologischen Zusammenhang die Elementarkörperladung q0, die sich quantitativ aus dem Vergleich von elektrischer Energie zur Gesamtenergie ergibt, wie (noch) an verschiedenen Stellen explizit ausgeführt wird.

Konsequenterweise wird die Feinstrukturkonstante α Elementarkörper basierend energetisch bestimmt. Sie ergibt sich aus dem Vergleich von Gesamt-Energie und elektrischer Energie mittels der elektrischen Elementarladung e.

                        

Interessanterweise ist die »Planck-Skala« ein "früh-historisches" Indiz für die "Richtigkeit" der Masse-Radius-Konstantengleichung [F1]. Denn das Pendant zur "winzigen" Plancklänge ist die "riesige" Planckmasse, so wie es die Elementarkörpertheorie "voraussagt". Das Max Planck mittels Dimensionsanalyse nicht realisierte, daß aus energetischen Gründen nur die doppelte Planckmasse und nur die doppelte Plancklänge als maximale bzw. minimale  Einzelkörper-Dimensions-Grenze in Frage kommt, ändert nichts an der grundsätzlichen Masse-Raum-Kopplung der Planckgrössen. Details siehe: Planck-Grössen & Elementarquant

 

 

Besondere physikalische und epistemologische Bedeutung erlangt das Modell der phänomenologisch begründeten masse-radius-gekoppelten Elementarkörper durch die Ergebnis-Genauigkeit und Einfachheit der resultierenden Gleichungen, die stets auf leicht verständlichen, konsistenten Denkansätzen beruhen. Das exakte Ergebnisspektrum umfasst Größen vom Protonenradius, der Ionisierungsenergie des Wasserstoffatoms, der Herleitung der Sommerfeldschen Feinstrukturkonstanten aus Vergleich von elektrischer und Gesamt-Energie bis hin zu makroskopischen, wie der Temperatur der kosmischen Hintergrundstrahlung, um nur einige wichtige zu nennen. Die zugrunde liegenden Gleichungen sind korrespondierend skalen- und mengeninvariant.    

 

Elementarkörper basierende Korrespondenz im "aphoristischen Bild"

 

 

 

 

 

Allgemeiner Naturphilosophischer Ansatz

In einem allgemein verständlichen Denkmodell ist Mathematik nur Mittel zum Zweck. Nichts weiter als ein plausibilitäts-resultierendes, praktisches Ordnungs- und Formalisierungsinstrument.

Grundlegende Denkmodell-Aspekte lassen sich in Ankopplung an »globale Auffälligkeiten«, wie Gravitationskonstante, kleinste skalare Wirkung und Invarianz der Lichtgeschwindigkeit, nur intuitiv entwickeln. Ängste vor primärer Intuition sind unbegründet. Man muß eine Idee und weiterführend, aufbauend konsistente Ideen haben, um ein Denkmodell interdisziplinär verständlich gestalten zu können. Denkmodelle müssen absolut begriffstransformierbar sein, um eine epistemologische Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht außerhalb der Mathematik vermitteln lässt, ohne daß sie ihren exakten Bedeutungsanspruch verliert, ist im Rahmen eines physikalischen Denkmodells stets eine erkenntnistheoretische Nullnummer.  

Im Hinblick auf naturphilosophisch wertvolle Aspekte verkörpert die formal logische Argumentation die Basis des konstruktiv kritischen Denkens und Handelns. Der Kritik eines bestehenden Denkmodells „folgt“ zwingend ein "neues" Denkmodell, sofern ein nachhaltiger Erkenntnisgewinn angestrebt wird. Jede noch so fundierte Kritik bedarf einer konstruktiven Alternative, solange diese nicht existiert „verpufft“ selbst die „beste“ Kritik.

Zum konstruktiven kritischen Denken und Handeln gehören Fähigkeiten und Fertigkeiten

…die Fähigkeit Argumente zu identifizieren

…die Fähigkeit die Qualität der Argumente prüfen zu können

…die Fertigkeit Alternativen identifizieren zu können

…die Fertigkeit Alternativen formulieren zu können.  

Ein naturphilosophisch wertvolles physikalisches Denkmodell ist phänomenologisch begründet, konsistent, (sowohl mathematisch als auch plausibel verstehbar) minimalistisch, universell ("skalen-korrespondierend") und experimentell direkt überprüfbar.

Natur kann nur addieren oder subtrahieren. Eine „gesicherte“ »höhere mathematische Realität« existiert ausschließlich im Rahmen axiomatisch begründeter Sprache (Mathematik). Inwieweit eine korrekte mathematische Struktur (»höhere mathematische Realität«) physikalisch anwendbar ist, lässt sich mit den „Mitteln“ der Mathematik nicht entscheiden (siehe „unstrittig-exemplarisch“ Epizykeltheorie und Banach-Tarski-Paradoxon). Mathematik erfasst letztendlich Mengen und kann nicht zwischen Staubsauger und Staub unterscheiden.

"Hier" beginnt das fundamentale Mißverständnis über das, was Physik aus einem naturphilosophischen, respektive erkenntnistheoretischen Blickwinkel sein sollte, ohne den nützlichen, formalisierten Charakter der physikalischen Beschreibung zu verlieren. Den komplizierten Standardmodellausführungen fehlen letztendlich meist konkrete Berechnungsmöglichkeiten oder diese führen in einigen Fällen zwar zu Ergebnissen, doch der mathematische Weg zum "Rechenergebnis" bleibt phänomenologisch unverstanden.

Die Standard-Annahme der Standardmodelle, daß komplexe mathematische Formalismen einen erkenntnistheoretischen Gewinn „mathematik-selbstgestaltet“ generieren können, ist ein fataler Irrglaube, der zu theoriebeladenen Versuchen führt und in dessen Verlauf Versuchsergebnisse weder reproduzierbar noch direkt meßbar sind. Salopp formuliert: „Früher“ fielen bei einer Milliarde Einzelversuchen, eine Milliarden Mal die Äpfel vom Baum, was zur theoretischen Rechtfertigung einer anziehenden, gravitativen Kraft führte. Heute wird als Teilchen-Existenzbeweis ein Ereignis bei einer Milliarde Versuchen mit »einer Milliarde -1« Fehlversuchen gewertet und das postulierte Teilchen ist, anders als der Apfel, auch nicht direkter Bestandteil der Messung. Wie beliebig und nachvollziehbar grotesk die Moderne Teilchenphysik „aufgestellt“ ist, wird an verschiedenen Stellen und in einem eigenen Kapitel zum Standardmodell der Teilchenphysik (SM) ausgeführt.

Von vielen, möglicherweise fast von allen Physiktreibenden, vom Studenten bis zum Professor, vom Wissenschaftsneugierigen bis zum mathematisch (gut) vorgebildeten Anhänger, vom "irgendwie Versteher" bis zum ahnungslosen Laien geht eine omnipräsente Systemgläubigkeit aus, die je nach Bildungsstand, mit mehr oder weniger scheinbar fundierten Argumenten, "Dinge", wie überlichtschnelle Raumausdehnungen oder Kaskaden von virtuellen Teilchen "vertritt", deren Begründungen aber letztendlich nur einer Prämisse folgen: (Moderne) Wissenschaft ist das, worauf man sich geeinigt hat, auch wenn experimentelle Fakten, Inkonsistenzen und die Anzahl freier Parameter klar gegen herrschende Standardmodelle sprechen. Abgehoben und von der Masse glorifiziert leben die Protagonisten der Modernen Theoretischen Systemphysik bezüglich alternativer Denkmodelle nach dem Motto: »Wir lesen nicht, wir schreiben selber.« Doch was wissen diese Leute wirklich von dem, was sie da treiben und schätzen? Was "kennen" sie, außer den "Dingen", die sie anhimmeln, stetig nachkorrigieren und mit aller Kraft verteidigen und wenn es als letzte Untat die postulierte Unwiderlegbarkeit (Stichwort Confinement-These) selbst ist, die sie propagieren?

Konträr zur sachdienlichen Forderung erkenntnistheoretischer Betrachtungen sind die „Ergebnisse“ der Theoretischen Grundlagenphysik eher emotional statt wissenschaftlich begründete Antworten auf die ideologische Frage, auf welches theoretische Konzept man sich „heute und demnächst“ einigt. Die Natur hat sich gefälligst den aktuellen theoretischen Implikationen zu unterwerfen. Heute sind es beispielsweise noch postuliert elementare Quarks, morgen möglicherweise "Preonen-Substrukturierte". Gemessen wird stark selektiv in vorgezeichneten Zerfallskanälen. Beobachtet wird das, was die aktuell herrschende Theorie fordert.

Wirklich interessant sind die psychologischen und soziologischen Aspekte, die inhärent mit den Machern und Anhängern der Standardmodelle verknüpft sind. Wie konnte es dazu kommen, daß ein eher kleiner Kreis von „Wissenschaftlern“ trotz dokumentierter Erkenntnislosigkeit bestimmt, was die anderen zu denken haben? Und warum verhalten sich andere „Wissenschaftler“ so passiv? Die transparent absurden Standard-Theoriewelten bieten Riesenangriffsflächen für logische und formal-logische Kritik, doch es gibt so gut wie keine wahrnehmbar aktiven Kritiker.

Die Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen so hoch wie möglich sein. Es geht nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige Lösungen liefert. Diese Frage ist stets beantwortbar.

Die Standardmodelle der Teilchenphysik und Kosmologie gehören aus vielerlei rational logischen Gründen nicht zum Kreis erkenntnistheoretisch wertvoller Denkmodelle.

 

 

Plausibilität vs dynamischer Asymmetrie 

Die etablierte Meinung, daß theoretische Aspekte der Physik nur von Fachleuten bewertet werden können, ist unzutreffend. Jedwede erkenntnistheoretisch wertvolle, konsistente Theorie kann von intelligenten Menschen mit einem gewissen Grad an Vorbereitung verstanden werden. Es sind vielmehr die zeitgenössischen theoretischen Konzepte, denen es an formaler Logik fehlt.

Gibt es noch etwas "Konträres" in der Theoretischen Grundlagenphysik zu entdecken? Hat der herrschende Indeterminismus der Modernen Physik das "letzte Wort"?

Der Glaube an das Standardmodell der Teilchenphysik ist heute so selbstverständlich, wie "damals" der Glaube an die Epizykeltheorie des geozentrischen Weltbildes. Keiner kann sich auf Grund der weltweiten, jahrzehntelangen Beschäftigung der Theoretischen Physik mit Quantenfeldtheorien vorstellen, daß diese (noch) irgendwie fundamental "falsch" sein könnten…

Und doch, wenn man konsequent Masse und Radius (auch) mikroskopischer Körper als inhärente Fundamentaleigenschaften voraussetzt, stößt man auf eine determinierte Masse-Radius-Konstanz. Diese Konstanz führt zu einer tief greifenden Korrespondenz und zu exakten numerischen Voraussagen. ["Praktische" Beispiele sind u.a. die Elementarkörper basierende exakte, formal-analytische Berechnung des Protonenradius, die energetisch begründete Herleitung der Sommerfeldschen Feinstrukturkonstanten auf Grundlage der Masse-Radius-Konstanz der elektrischen Ladung beliebiger Elementarladungsträger, die Berechnung (vermeintlich) anomaler magnetischer Momente, Neutronenmasseberechnung, um nur einige zu nennen. Es wird, sowohl phänomenologisch als auch formal, anschaulich deutlich, daß u.a. die Konstanz und Invarianz der elektrischen Ladung, trotz erheblich unterschiedlicher Massen der Ladungsträger (Proton, Elektron, Pion, Myon, …), ihre Ursache in der konstanten Masse-Radius-Beziehung hat.

 

 

"abstract"

Die grundsätzliche, phänomenologisch begründete Elementarkörper basierende Denkmodell-Forderung besteht darin, daß möglichst minimalistische Gleichungen sowohl das masselose Photon als auch massebehaftete Materie abbilden. Die Entstehungsgleichungen r(t) = r0 ·sin(c ·t/r0) und m(t) = m0 ·sin(c ·t/r0) leisten genau das. Die zeitlose Lichtgeschwindigkeit - als Zustand reiner Bewegung -  steht nicht im Widerspruch mit der Materie-Energie-Verkörperung.

 

 

Die Transformation von einem Photon zu einem masse-radius-gekoppelten Raum entspricht phänomenologisch nicht einer Teilschwingung, wie anfänglich (auch) im Rahmen des Elementarkörperdenkmodells angenommen wurde. Die materiebildende Transformation von einem Photon entspricht einer irreversiblen Zustandsänderung. Zeitumkehr, wie sie „mechanistisch“ von der klassischen Physik bis hin zur Quantenmechanik gefordert wird, steht ganz allgemein im Widerspruch zur Meß-Realität thermodynamischer Prozesse. Der voll ausgebildete Elementarkörper (r(t) = r0 , m(t) = m0) kann aus sich heraus nicht wieder den Zustand des Photons erreichen. Die Wechselwirkungs-Reversibilität, die möglich ist, muß über eine Anregung von „aussen“ geschehen. Das könnte die Wechselwirkung mit weiteren Elementarkörpern, Photonen oder „verkörperten Feldern“ sein, die letztendlich bezogen auf (Feld-)Raum-Zustände energetisch stets als Elementarkörper(-Zustände) verstanden werden können.    

Für t = 0 handelt es sich somit um reine Bewegungsenergie (Photon). Für t = (π ·r0) / (2 ·c) ist die Umwandlung in masse-radius-gekoppelte Energie abgeschlossen, wir erhalten ein Realobjekt mit den charakteristischen Grössen r0 und m0. In diesem Zusammenhang ist die Invarianz der [Vakuum-]Lichtgeschwindigkeit auf eine phänomenologisch begründete Zustandsänderung zurückzuführen und nicht auf Mathematik in Form von Bezugssystemen und deren Verknüpfungen. Energie-äquivalent wird die Gesamtenergie des masse-radius-gekoppelten Realobjektes durch die Comptonwellenlänge ½π ·r0 definiert. Somit ergibt sich auch die Comptonwellenlänge "objekt-natürlich" als Ergebnis der Zustandsänderung. Detaillierte Ausführungen zur Herkunft und Dynamik des Elementarkörpers finden sich im gleichnamigen Kapitel: Elementarkörper. Auch wenn „Antiteilchen“ selten explizit benannt werden, gelten alle energetischen Beziehungen auch für diese.

 

                     

Die Essenz der Fourier-Analysis als elementarer Bildungsbaustein

Das stetige „Analyse- und Synthese-System“ in Form der Fourier-Reihe, respektive Fouriertransformation ist allgegenwärtig. Sowohl die Epizykeltheorie aus heutiger Sicht als auch das Standardmodell der Teilchenphysik (SM) als quantenfeldtheoretische Anwendung und Weiterentwicklung der Quantenmechanik basieren auf Fourier-Reihen, bzw. Fourier-Transformierte. Die Basis-Funktion ist die Sinusfunktion. Konsequent minimalistisch gedacht, ist es also nahe liegend, nicht die Fourier-Transformation als Methode der Fourier-Analysis als einfachste Abbildungsmöglichkeit zu Grunde zu legen, sondern minimalistisch die „reine“ Sinusfunktion selbst. Resultierend lassen sich intuitiv logische Randbedingungen für eine Basisbetrachtung formulieren.

Wie kommt man nun von einer abstrakten, menschengemachten Sinusfunktion zu einem elementaren Naturbeschreibungsmodell?

Um die Elemente der Sinusfunktion in Ankopplung an „unsere Welt“ realphysikalisch zu bestimmen, werden Alleinstellungsmerkmale der beobachteten Natur benötigt. Man braucht zur „Verkörperung“ der Sinusfunktion sozusagen „globale“ physikalische Auffälligkeiten. „Eine“ ist, wie oben beschrieben, die Konstanz und Invarianz der [Vakuum-]Lichtgeschwindigkeit, die andere ist die „Gravitationskonstante“. Es lässt sich nun („zwingend einfachst“) zeigen, daß die Funktion r(t) = r0 sin(ct/r0) und die Funktion m(t) = m0sin(ct/r0) ausreichen, um sowohl Einzelobjekt-mikroskopisch als auch vielteilchen-makroskopisch die Entstehung der Masse (Materie) aus reiner Bewegungsinformation (reiner Bewegungsenergie) zu gestalten. Daraus resultiert eine Zustandsänderung in Gestalt einer nichtinflationären Expansion (masse-radius-gekoppelte Kreation), die im Maximum mit einem statischen Universum endet (siehe das Kapitel Urknall und Universum).

Bemerkenswert ist die phänomenologisch begründete Elementarkörpertheorie basierende Aussage, daß erkenntnistheoretisch - und wenn man so will philosophisch - der Nullpunkt, die "Null", nicht für "Nichts steht", sondern den maximalen Bewegungszustand repräsentiert. Dieser Zustand entspricht der (zeitlosen) Lichtgeschwindigkeit. (Plausibilitätsbetrachtung und mathematische Ausführungen hiezu, siehe das Kapitel Impulsmasse-Inversion)

Die Divergenzproblematiken, sowohl klassischer als auch quantenfeldtheoretischer Betrachtungen, finden ihre theoriebeladene Ursache in den jeweiligen Denkmodellen. Dort wird die innere Struktur der Energieträger (Gravitation, (elektrische) Ladung) schlicht nicht erfasst. Berücksichtigt man jedoch die endliche, realphysikalisch orientierte, phänomenologische Natur der Objekte, lösen sich die "Unendlichkeiten" plausibel auf.

 

Motivation und Hintergründe

Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend einer phänomenologischen Betrachtung und Erklärung.

Die Elementarkörper-Theorie stellt einen Energie erhaltenden fundamentalen Zusammenhang zwischen dem «Phänomen Bewegung» und dem «Phänomen Raum» her.

Anfang 2012 "klebten" die Berechnungen noch am Protonenradius. Mit Entwicklungspausen entfaltete sich in den Folgejahren ein konsistentes Denkmodell welches, phänomenologisch begründet, korrespondierend Photon und radius-masse-gekoppelte Materie, sowie Mikro- und Makro-Kosmos vereint.

Denkmodell konsistent ist resultierend das Phänomen Energie der ursächlich von Elementarkörpern aufgespannte Raum selbst und äquivalent die zeitliche Änderung des Raumes. Die Masse-Energie-Äquivalenz entspricht anschaulich einer Raum-Bewegung-Äquivalenz. Vereinfacht: Raum läßt sich in Bewegung und Bewegung lässt sich in Raum transformieren.

In dem Zusammenhang ist die Invarianz der [Vakuum-]Lichtgeschwindigkeit, wie bereits erwähnt, auf eine Zustandsänderung der Materie zurückzuführen und nicht auf Mathematik in Form von Bezugssystemen und deren Verknüpfungen. Der Begriff Invarianz bekommt in der Elementarkörpertheorie eine phänomenologische Erklärung.

 

"Kurioses"

Es war - und ist nach wie vor - kein primäres Ziel der Elementarkörpertheorie zeitinstabile Materie kreieren/beschreiben zu können, dennoch ...

Ein unerwartetes Ergebnis ...

Higgs-Boson-Kreationen und andere Kleinigkeiten "am Rande bemerkt"(, ist mehrdeutig zu verstehen.)

"Kurios" ist u.a. der "Umstand", daß im Rahmen der «Ladungsabhängigen MateriebildungLM» Elementarkörper basierend aus der starken Proton-Antiproton-Wechselwirkung formal analytisch in Abhängigkeit der (Anti)Proton-Masse und der Sommerfeldschen Feinstrukturkonstante α eine Materiebildungsenergie von ~ 257 GeV folgt, die gemäß Ladungs-Erhaltung als Variationsmöglichkeit zwei masse-radius-gekoppelte "Massehäufchen" erzeugt, die ungeladene und geladene Higgs-Boson-Massen abbilden.

 

 

Aus praktischen Gründen werden "Zehnerpotenzen" exemplarisch wie folgt geschrieben: 1,23·10-3 = 1,23e-3. Das hat den Vorteil, daß der interessierte Leser die entsprechenden Zahlenwerte "gleich" in den "Computer" zur "Kontrolle" übernehmen kann (Copy&Paste).

Die Unsicherheiten der (CODATA)-(Masse-)Werte und der Naturkonstantenwerte sind nicht explizit benannt. Beispiel: Masse des Elektrons: 9,10938356(11)e-31 kg   Es wird hier mit dem Wert 9,10938356e-31 kg gerechnet. 

Beispiel: Feinstrukturkonstante α:   0,0072973525664    0,0072973525664(17)

 

LMDie final resultierende Gleichung zur Berechnung ist an Einfachheit nicht zu überbieten:

m = mp = 1,672621898e-27  kg  : (Anti-)Protonenmasse     α  = 0,0072973525664

∆E( p+, p- )  =  257,15410429801 GeV

∆m( p+, p- )     =   4,58418825946e-25   [kg]  [2q0q0]

(∆m( p+, p- ) / 2) / mH(0)  1,02861642

Das bedeutet, daß mit einem "Fehler" ~ 2,9%MU, bezogen auf die am LHC "detektierte" Higgs-Bosonen-Masse (mH(0)  ~ 125 GeV/c²), die Elementarkörpertheorie ein Ereignis voraussagt, welches im Standardmodell der Teilchenphysik (SM) nur als theoretisch vorbestimmtes Zirkelschluss-Ergebnis existiert. MUZur Erinnerung: Die "ungeschönte" Mess(un)genauigkeit der LHC Detektoren liegt in der Größenordnung von 5%...

...Das Higgs-Potential und damit die (postulierte) spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus. Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m² < 0). Um den Tachyon-Term „zu umgehen“ wird das Feld als eine Variation um einen Vakuumzustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms... Inkonsistenz, Beliebigkeit, "Zirkelschluß-Dynamik" der theoretischen Implikationen zum postulierten SM-Higgs-Mechanismus, sowie der kleinste Nenner mit der Elementarkörper werden im Kapitel

Higgs-Boson-Kreationen und andere Kleinigkeiten ausführlich erörtert.

 

 

 

 

Makroskopische Konsequenz

Das Geheimnis der "scheinbar" sehr schwachen Gravitation im Verhältnis zur elektrischen Wechselwirkung und starken Wechselwirkung liegt in der falschen Annahme begründet, daß es generell einen Masse entkoppelten Raum gibt. Berücksichtigt man den Raum, den makroskopische Körper sowohl durch ihre Objektausdehnung als auch durch ihren Wechselwirkungsradius aufspannen, dann wird deutlich, daß die "fehlende" Energie in dem Raum selbst "steckt". In diesem Sinne ist für makroskopische Körper die Gravitationskonstante γG das »Maß der Dinge«.

Mit anderen Worten: Die vermeintlich geringe Stärke der makroskopischen Gravitation ist darauf zurück zu führen, daß in der Betrachtung und Berechnung die Raumausdehnung der makroskopischen Körper nicht berücksichtigt wird. Elementarkörper basierend gibt es aber keinen Materie ( : Masse, respektive Energie) entkoppelten Raum. Dies wird nicht "wahrgenommen", da der Raum und somit die radius-abhängige Energie der makroskopischen Systeme phänomenologisch von der "etablierten" Physik nicht "realisiert" wird. Dieser fatale Irrglaube war und ist u.a. notwendig, um die überlichtschnelle masse-entkoppelte Raum-Expansion des "frühen" Universums während der so genannten Inflationsphase des Urknall-Modells zu rechtfertigen.

Nur wenn Körper einen Radius besitzen würden, der dem Masse abhängigen Gravitationsradius rG entspricht, dann ist die Gravitations-Energie EG gleich der Ruhe-Energie E0. Mit der Elementarkörpertheorie basierenden Annahme, daß eine Vergrößerung des (Objekt-)Radius masse-gekoppelte Energie in Raum-Energie ER transformiert, wird plausibel, daß die Gravitations-Energie, die ausschließlich die masse-gekoppelte Energie (E0 - ER) berücksichtigt um die Raum-Energie ER reduziert ist. Da makroskopische Objekte um viele Zehnerpotenzen größer sind, als ihr Gesamtmasse zugehöriger Gravitationsradius, steckt fast die gesamte Energie in dem vom »Objekt« aufgespannten Raum bzw. in dem Raum mit Wechselwirkungsradius r, entsprechend gering ist die masseabhängige Wirkung.

"Intuitiv-spielerisch" ist die Annahme, daß das Verhältnis von zeitabhängigen Universumsradius zu zeitabhängiger Universumsmasse zeitunabhängig (!) und konstant ist. Die Multiplikation von rUni/mUni mit c² ist gleich der Gravitationskonstanten γG. Diese Annahmen stellen u.a. eine "schöne" Korrespondenz zwischen Kosmos, Gravitationskonstante und den Planckgrössen für Masse (mPl) und Länge rPl (Radius) respektive dem Elementarquant { : G mit rG, mG } her.

Randnotizen: Schon Ernst Mach (1838 - 1916) bemerkte, daß die "Schwäche" der Gravitation mit der "enormen" Grösse des Universums in Zusammenhang steht. Er vermutete eine Relation zwischen Universums-Masse, Universums-Radius und Gravitationskonstante. Sir Arthur Stanley Eddington (1882 - 1944) erhielt das Verhältnis von Universums-Radius zu Universums-Masse indem er die Gravitationskonstante durch c² dividierte (...formal-gleich im Rahmen der hier beschriebenen Korrespondenz zwischen "Längen-Kleinsten" und Längen-Größten"). Und auch Erwin Schrödinger hatte dies als Möglichkeit bereits 1925 geäußert. Quelle: Mach’s Principle – Relating Gravity to the Universe

Warum sich diese einfache Annahme nicht durchsetzte hat höchstwahrscheinlich mit der (später) favorisierten (inflationären) Urknalltheorie zu tun. Dort ist kein Platz für "(korrespondierend) Einfaches".  

 

Die Elementarkörpertheorie bietet also sowohl für mikroskopische Objekte als auch für komplexe, dynamisch-verschachtelte Strukturen, bis hin zum »Universum«, einen Ergebnis orientierten Rahmen, in dem mit wenigen Annahmen bemerkenswerte analytische Ausdrücke abgeleitet werden können. Ein Ergebnis ist die Berechnung der Masse des Universums in Abhängigkeit der Zeit (Alter des Universums) ► Gleichung [MUNI]. Ohne an dieser Stelle näher auf die notwendigen Elementarkörpertheorie basierenden phänomenologischen Hintergründe einzugehen, folgt mittels der Elementarkörper-Entwicklungsgleichung r(t) eine Abschätzung der oberen zeitabhängigen Radius-Grenze, die mit der gleichfalls Elementarkörpertheorie basierenden Idee der verkörperten Gravitationskonstante zum allgemeinen Gravitationsradius und zu einem konkreten mathematischen Ausdruck führt, mit dem sich die Masse des Universums mUniversum(t) alleinig aus dem Alter des Universums ergibt.  

Der Fehler zu Gleichung [P2m] bei genauer Kenntnis der maximalen Universumsmasse beträgt hier zeitabhängig ~ -5%. Die Berechnung der maximalen Universumsmasse ergibt sich mittels der »Wasserstoff-Parameter« : Protonenmasse, Elektronenmasse, Rydberg-Energie und der Gravitationskonstanten verkörpert durch das Elementarquant, siehe das Kapitel: 3K-Hintergrundstrahlung.

Diese Elementarkörper basierende Abschätzung, die in sehr guter Übereinstimmung mit den Schätzwerten des Standardmodell der Kosmologie ist (ΛCDM-Modell ~ mUniversum 1·1053 [kg]), deutet an, welche Macht in realphysikalisch begründeten Plausibilitätsbetrachtungen "steckt", die im Gesamtbild konträr zu differential-geometrischen komplexen Formalismen und resultierenden Raum-Zeit-Kontinuum-Fantasien, mittels Masse-Raum-Kopplung zum Paradigmenwechsel führen. Denn im Gegensatz zur "gängigen" Urknall-Theorie notwendigen teils überlichtschnellen Materie entkoppelten Expansion des Raumes, basiert die Elementarkörpertheorie-Gleichung [MUNI] auf einer Masse-Raum-Kopplung, die zu keinem Zeitpunkt eine überlichtschnelle Ausbreitung besitzt. (Details siehe das Kapitel: Urknall

 

 

Randnotiz:

Aus den Daten des Planck-Weltraumteleskops (kurz "Planck" genannt) des Jahres 2013 wurde ein Alter des Universums von aktualisiert 13,80  ± 0,04 Milliarden Lichtjahren "ermittelt". 

Aber : "Berechnungen" ausgehend von dem ΛCDM-Modell sind grundsätzlich mit äußerster Vorsicht zu "genießen". Die Suggestion man wüsste genau, was sich wann, in welcher Größe ereignete, ist mehr Wunsch als Wirklichkeit. Hier bestimmt nach wie vor die Theorie des (inflationären) Urknalls, was gemessen werden soll bzw. wie Meßergebnisse zu interpretieren sind. Die geduldeten Fehler(grenzen) sind für die Maßstäbe der Grundlagen-Physik immens.

Beispiel: Die Meß-Resultate des Planck-Satelliten aus dem Jahre 2013 lieferten einen Wert für die Hubble-Konstante, der um ca. 10% kleiner ist, als der ("mittlere") Literaturwert.

Siehe:  Planck satellite 2013 results http://arxiv.org/pdf/1303.5062v1.pdf

Text-Auszug: ...Summary and Conclusions

…The Planck best-fit model is in excellent agreement with the most current BAO data. However, it requires a Hubble constant that is significantly lower (~67 kms−1Mpc−1) than expected from traditional measurement techniques, raising the possibility of systematic effects in the latter…   

update

27. Januar 2017

Die Nachricht [Eine neue “Messung” der Hubble-Konstanten] ist zwar erkenntnistheoretisch unbedeutend, da die vermeintliche (neue) Messung von H0 gleichfalls stark freie Parameter-theoriebeladen ist, wie jede "Beobachtung" innerhalb des ΛCDM-Modells, so gibt sie aber zumindest einen „aufgefrischten“ Aufschluss über das Hin- und Her-Beschäftigungsspiel der involvierten Nutznießer aus „Forschung und Technik“.

Hier der neueMesswert”: H0 ~ 71, 9 (+2,4) (-3,0) based on the joint analysis of three multiply-imaged quasar systems with measured gravitational time delays..., source: https://arxiv.org/pdf/1607.01790v2.pdf

Eine Liste [ΛCDM-Modell-]theoriebeladener "Messwerte" von 1929 bis 2013 findet sich beispielsweise unter https://en.wikipedia.org/wiki/Hubble's_law

 

 

Die zielführende [Elementarkörper-]Theorie, insbesondere ihr minimalistischer Formalismus, daraus resultierend analytische Ergebnisse und die interdisziplinär verstehbaren Aussagen führen zu einem heftigen Konflikt mit dem Standardmodell der Teilchenphysik (SM) und dem Standardmodell der Kosmologie (ΛCDM-Modell). Nicht die assoziierten spektroskopischen Meßergebnisse der Experimentalphysik werden angezweifelt bzw. sind falsch, sondern die Interpretationen basierend auf deren theoretischen Grundlagen. Die jetzige Situation der Standardmodelle ist ergebnisorientiert vergleichbar mit der Epizykeltheorie kurz vor ihrem Ende. Das Denkgebäude der Elementarkörpertheorie bedeutet nicht eine Korrektur oder Erweiterung der Standardmodelle sondern das Ende dieser Modelle. Elementarkörpertheorie steht für Paradigmenwechsel.  

 

 

 

Die Elementarkörpertheorie erweitert den Unschärfebegriff wesentlich. Es wird gezeigt, daß das "sinusförmige Ausschwingen" als Wechselwirkungs-Folge eine „natürliche“ Unschärfe erzeugt.

Interessanterweise "entsteht", Elementarkörpertheorie basierend, somit auch eine fundamentale Plausibilität für die «Wahrscheinlichkeitswelt» der Quantenmechanik, da der Elementarkörper in einem anschaulichen Bild eine atmende Kugel darstellt, dessen Physik sich auf der zeitabhängigen Oberfläche "abspielt" und somit verschiedene Entwicklungszustände existieren. Im gleichem Atemzuge ist die Elementarkörpertheorie bemüht, die (bisher) unanschauliche Quantenmechanik und allgemein Quantenfeldtheorien anschaulich zu "ersetzen". Es zeichnet sich ab, daß der oszillierende Elementarkörper gegenüber dem anfänglich minimalistischen, mathematischen Rüstzeug der "Quantenmechaniker des frühen 20.Jahrhunderts" aufgeschlossen ist, sich aber gegenüber den "späteren" rein mathematischen Quantenfeldtheorien verschließt.

 

 

Ist die Elementarkörpertheorie "relativistisch"?

Das Verständigungs- und Interpretations-Problem begann bzw. beginnt - wie so oft - mit einem Realphysik befreiten Formalismus. Die beobachtbare Invarianz der (Vakuum-)Lichtgeschwindigkeit ist keineswegs "direkt" mit der Speziellen Relativitätstheorie (SRT) verbunden, wie suggeriert wird. Das historisch viel zitierte Michelson-Morley-Experiment ist eindimensional konzipiert und sagt gar nichts über Masse behaftete Teilchen im Sinne der herrschenden Physik  aus und behandelt auch keine transversalen Komponenten. Die mathematische Invarianz der transversalen Komponenten ist lediglich eine formale Konsequenz der geradlinig gleichförmig bewegten Beobachter bezüglich kräftefreier Teilchen in einem mathematischen Denkmodell. Mit anderen Worten, daß gesamte Konstrukt der Lorentztransformation(en) ist an Inertialsysteme gebunden. Phänomenologisch sagt die SRT schlicht nichts über die Invarianz der Lichtgeschwindigkeit.

Bevor hier Mißverständnisse aufkommen, es wird nicht behauptet, das die Mathematik der Relativitätstheorie falsch ist. Wie könnte auch eine axiomatisch begründete These falsch sein? Doch das mathematische Konstrukt besitzt - außer der zu Grunde liegenden beobachtbaren Invarianz der [Vakuum-]Lichtgeschwindigkeit - keine realphysikalische Basis. Es existieren zwar Beobachtungen aber es existiert schlicht keine Phänomenologie zur Mathematik der SRT. Die inertialsystembehaftete »Relativität der Beobachter« ist eine "heikle Sache", da es in der Natur nur dann zu messbaren Systemänderungen kommt, wenn Energie ausgetauscht wird. Energieaustausch bedeutet aber grundsätzlich, daß "Kräfte" wirkten oder weniger mystisch ausgedrückt, daß Beschleunigungen auftraten. Mit der Beschleunigung "verabschiedet" sich das Inertialsystem und folgerichtig gleichfalls die Lorentztransformationen. Die Mathematik der SRT ist nicht falsch sondern schon "per Definition" nicht dynamisch.

Physik bedeutet Wechselwirkung und Energieaustausch. Koordinatensysteme und Koordinatentransformationen "sind" keine physikalischen Vorgänge, sondern Mathematik. Es wird nicht geklärt, wie die Energiedifferenz und die „Struktur der Energiespeicherung“ über Koordinatentransformationen erzeugt wird oder „verschwindet“. Gemäß Relativitätstheorie gilt: Der Energieinhalt eines Teilchens ist abhängig von der Geschwindigkeit dieses Teilchens und resultiert aus einer Beobachtung, all das relativ aus Sicht eines Inertialsystem behafteten Beobachters.

Wenn sich die Geschwindigkeit ändert, dann ändert sich auch der Energieinhalt. Dies bedeutet: Durch den veränderten Energieinhalt muß sich zwangsläufig auch die innere Struktur der Teilchen ändern, denn die Energie wird „irgendwie“ und „irgendwo“ gespeichert und ist abrufbar. Phänomene wie die Änderung des Massenwertes in Abhängigkeit der Geschwindigkeit können mit der Relativitätstheorie nicht erklärt werden. Die Relativitätstheorie liefert keine physikalische Rechtfertigung, die erklärt, warum und wie Masse größer oder kleiner wird.

Aus Sicht der Realphysik orientierten Elementarkörpertheorie bleibt, wie bereits eingangs erwähnt,  von der Relativitätstheorie nur der Lorentzfaktor γSRT als statischer Fall einer Elementarkörpertheorie basierenden allgemein gültigen Formulierung γdyn übrig:

γSRT =

γdyn =

Der dynamische Faktor γdyn ist inertialsystembefreit und wirkt radialsymmetrisch. γdyn lässt sich "einfachst" aus der Elementarkörpergleichung r(t) ableiten.

 

 

Elementarkörperdynamik bei äußerer Energiezufuhr

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die standardmodellübliche, falsche Anwendung der SRT auf dynamische Prozesse gehört ins Reich unerfüllter Wünsche der Liebhaber realobjektbefreiter Physik. Weder die propagierte "verbogene Axiomatik" noch die invalide Phänomenologie der Standardmodelldenker übersteht eine nähere dynamische Betrachtung. U.a. ist zu beachten, daß sich das theoriebeladene Versuchsergebnis der Kollisionsereignisse nicht auf zwei kollidierende Einzelkörper bezieht, sondern aus einer Vielzahl von Kollisionsereignissen in einem Zeitfenster besteht.

Dazu kommt die Tatsache, daß beschleunigte Ladungsträger einen Teil der Energie abstrahlen aber es keine (konsistente) Theorie zur Strahlung bewegter Ladungen gibt. Das bedeutet, daß die Ursachen der aufgezeichneten Signale weder "inhaltlich" qualitativ, quantitativ, räumlich noch zeitlich genau bestimmbar sind. Rationales Fazit: Eine Denkmodell-Reduktion auf den Streuquerschnitt zweier diskret kollidierender Teilchen ist mehr Wunsch als Wirklichkeit.      

Masse-radius-gekoppelt sind die Proton-Streuzentren bei hochenergetischen Kollisionen mit Wirkungsquerschnitten kleiner als der Wirkungsquerschnitt des Protons - die theorieinduziert als (Quarks-Gluonen)-Substruktur interpretiert werden - die radialsymmetrisch radius-verkleinerten Protonen selbst

                   

 

 

 

 

 

Eine interdisziplinäre Gesamtdarstellung der Elementarkörpertheorie...

Die Texte sind so geschrieben, daß mit etwas Geduld auch weniger vorgebildete Leser einen roten Faden aufnehmen können. Sollte an der einen oder anderen Stelle, ein Begriff nicht bekannt sein oder ein Resultat nicht sofort verstanden werden, so empfiehlt es sich erst einmal weiter zu lesen.

Eine gewisse Redundanz ist gewollt. Denn nicht selten führt eine wiederholte Betrachtung mit etwas anderen Randbedingungen zum Verstehen.

Parallel beispielsweise Wikipedia zu bemühen ist leider nur für den groben Überblick zu empfehlen. Wikipedia-Moderatoren sind systemtreu. Kritik an Standardmodellen wird zensiert, es sei denn, diese kommt als harmloser Selbstversuch, direkt von den Standard-Modell-Protagonisten, die dann früher oder später Standardmodell freundliche Lösungen bzw. meist Theorie-Erweiterungen präsentieren. Darüber hinaus ist die deutsche Wikipedia im Vergleich zur englischsprachigen Wikipedia oftmals deutlich weniger umfangreich und deutlich weniger kontrovers, sofern man überhaupt von Kontroverse sprechen kann. Das Internet als solches ist bei der bewussten und manchmal intuitiven, zielführenden Suchbegriffsgestaltung durchaus eine Fundgrube für alternative Ideen. In der Summe aller Ereignisse sind viele der relevanten Beiträge jedoch in Englisch. 

Die Elementarkörpertheorie liefert neben konkreten Voraussagen insbesondere Phänomenologie. Mathematik ist zwar "Denkmodell-inhärent", aber hier nur "Mittel zum Zweck". Die Elementarkörpertheorie baut auf Plausibilität und Minimalismus auf und ist nachvollziehbar weder an Wahrscheinlichkeiten noch methodischer Materiezersplitterung interessiert. Der inhaltliche Konflikt mit bestehenden Theorien und Modellen, insbesondere mit dem Standardmodell der Teilchenphysik (SM) und der ursächlichen Quantenmechanik (QM), ist unausweichlich. Um Wind, Feuer, Licht und Dunkel zu verstehen wurden „einst“ Dämonen und Götter geschaffen. In die reale Welt von „heute“ wurden irreale Objekte eingeführt, so daß der Mensch erst die Orientierung und dann die Realität verlor. Dunkle Energie und Neutrinos sind Artverwandte bzw. Nachfahren der Götter und Dämonen.

Das "moderne" Unverständnis basiert auf einer in der Theoretischen Physik omnipräsenten Fehlinterpretation der Natur. Es ist unzulässig, Realität ausschließlich in Form eines mathematischen Modells darzustellen und ein Weltbild nur mit den Aussagen und Beweisen der Mathematik zu begründen. Natur beruht eben nicht auf mathematischen Axiomen und Definitionen und kann deshalb auch nicht nach den formalen Regeln der Mathematik hergeleitet und bewiesen werden. Statt sich Gedanken über die Phänomenologie des Geschehens zu machen, wurde und wird nach mathematischen Lösungen gesucht. 

 

Wie erkenntnistheoretisch sinnleer heutzutage gearbeitet und argumentiert wird, offenbart folgendes Beispiel:

Berechnung der Vierschleifen-Beiträge zu Taylor-Reihen-Entwicklungskoeffizienten der Vakuumpolarisationsfunktion in perturbativer Quantenchromodynamik

führt zu ungefähr 700 Feynman-Diagrammen

Lösung eines linearen Gleichungssystems mit nicht konstanten Koeffizienten

Größenordnung: Gleichungssystem mit 25 Millionen Gleichungen

liefert Lösungen für 4 Millionen Integrale

"Ergebnis"

Reihen-Entwicklung der Vakuumpolarisation

 

Und nu?

Das es die Protagonisten in Brot und Arbeit stellt ist keine (wissenschaftliche) Rechtfertigung. 

Was soll dieses Ergebnis erkenntnistheoretisch aussagen?

 

Ohne Frage, Hypothesen und Gedankenexperimente waren und sind grundlegende "menschliche" Konzepte. Nur müssen sich diese früher oder später durch stringente, konsistente Denkmodelle mit einfachen mathematischen Mitteln belegen lassen, sofern sie einen erkenntnistheoretischen Wert besitzen sollen. Die Unart fehlendes Wissen und fehlende Phänomenologie im Rahmen parametrischer Glaubensbekenntnisse iterativ zu beschönigen, bedeutet Willkür und Erkenntnis-Stillstand. Renormierung, variable Kopplungskonstanten, freie Parameter, endlose Substrukturierung, taylorreihenaffine Störungstheorie und Artverwandtes korrigieren nur den "physikalischen Mist", den man sich durch fehlende Anschauung primär eingebrockt hat.

 

...am Rand des Wissens dem Wirrsein nah

stumm die mein Schweigen mehren

das Leben ist so wunderbar...

[Basissuche Dirk Freyling 47ndf]

 

Es hat sich in der Theoretischen Grundlagen-Physik seit mehr als 100 Jahren eine Denkmodell-Monokultur entwickelt, die den Realobjekt befreiten, angewandten mathematischen Formalismus der Quantenfeldtheorien selbst zum physikalischen Phänomen erklärt. Ähnliches lässt sich zur Beschreibung des Makrokosmos und der zur Anwendung kommenden Differentialgeometrie sagen. Aus einer großen Menge mathematischer Möglichkeiten wird eine sehr kleine Schnittmenge mit vermeintlich objektiven Meßdaten gebildet, obwohl jedem klar sein müsste, daß der Experimentator im Bereich des Mikrokosmos Bestandteil des Versuchsausganges ist, wie die Quantenmechaniker schon früh selbst feststellten. Suggestiv wird vermittelt, daß der verwendete mathematische Formalismus eine "natürliche" Daseinsberechtigung besitzt und Ausdruck einer wohlüberlegten Maßnahme ist. Die Wahrheit sieht jedoch weitaus uneffizienter und beliebig aus. Es wurden schlicht die mathematischen Gebilde, die nicht in Einklang mit "vorbestimmten" Experimenten stehen verworfen und im Nachhinein nicht mehr erwähnt.

Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." [EM1]

[EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

Übergeordnet scheint die Basisinformation verloren gegangen zu sein, daß selbst ein Realobjekt freundliches, plausibles Denkmodell nicht einer objektiven Realität entspricht, sondern stets ein subjektives Abbild "verkörpert". Die Fragen zur grundsätzlichen Qualität der Abbilder lassen sich jedoch leicht formulieren.

Führt das Modell zu einer konstruktiven Eigenschaftsverarmung, beispielsweise im Sinne einer Reduktion der freien Parameter?

Ist das Abbildungsmodell konsistent?

Ist es "ausnahmefrei"?

Lässt es sich so verallgemeinern, daß es ohne Substrukturierung Mikrokosmos und Makrokosmos verbindet?

Liefert es aus den theoretischen Annahmen, näherungsfreie, formal-analytische Gleichungen, die die einzig stabilen und Materie bildenden Teilchen, sprich Elektron und Proton, mit ihren fundamentalen Meß-Eigenschaften Masse, Radius und (elektrische) Ladung qualitativ und quantitativ beschreiben und verbinden kann?

 

Zur Freude Erkenntnissuchender können die Fragen 1 - 4 Elementarkörpertheorie basierend mit Ja und die Frage 5 derzeit mit "teilweise" beantwortet werden.  

 

Weder das Standardmodell der Teilchenphysik noch das Standardmodell der Kosmologie "besitzt" konstruktive, brauchbare Antworten auf obige Qualitäts-Fragen.

 

Am Rande bemerkt: Da nahezu alle erfolgreich Indoktrinierte bei dem Begriff Elektronenradius eine Krise bekommen und "instantan" an den ungeliebten klassischen Elektronenradius denken, sollen diese vorerst den -  wie sich zeigen wird, Elektronen-Masse inhärenten -  Radius re durch die "problemfreie" Comptonwellenlänge des Elektrons λe gedanklich ersetzen. Der postulierte, quantenmechanisch Theorie beladene Spin gehört nicht zu den fundamentalen Eigenschaften, da nicht der Spin, sondern stets ein magnetisches Moment gemessen wird. Das magnetische Moment lässt sich auf die Grössen elektrische Ladung und Masse zurückführen.

Anmerkungen zur Anregung des eigenständigen Denkens: Außerhalb des "Interpretationsspielraumes" des Teilchenbeschleunigers kommt der Elektronenmasse inhärente Elektronenradius re, respektive der klassische Elektronenradius re(klassisch)  ( =  ( α/4) re), in allen (!) verwendeten Gleichungen zur Berechnung der Streuquerschnitte bei elastischen und inelastischen Streuungen an Elektronen vor (Stichworte: Møller-Streuung, Compton-Streuung, Elektron-Positron-Paarbildung, Photoelektrischer Effekt, Klein-Nishina-Gleichung, Bethe-Bloch-Sternheimer-Gleichung, Kramers-Heisenberg-Formel) und steht in einem phänomenologischen Zusammenhang mit der Comptonwellenlänge (des Elektrons).

Der differentielle Streuquerschnitt dσ/dΩ nimmt für Elektronen stets die Gestalt dσ/dΩ = (e²/me4πε0c²)² · fW an, wobei der funktionale Zusammenhang fW die spezifische Art der Streuung angibt. Details zu fW finden sich exemplarisch zu den jeweiligen "Streugleichungen", von denen im Anschluss einige explizit aufgeführt sind. Das Verständigungs-Problem der herrschenden Physik bezüglich des (ungeliebten) klassischen Elektronenradius re(kl) löst sich auf, wenn man den wiederkehrenden Term (e²/me4πε0c²) masse-radius-gekoppelt-energetisch analysiert. Letztendlich besteht die Beziehung (e²/me4πε0c²) aus dem Verhältnis: elektrischer Energie zu Gesamtenergie (α/4)  und dem Elektronenmasse inhärenten Elektronenradius re, der multipliziert mit π/2 der Comptonwellenlänge des Elektrons entspricht (λe re · π/2).

Nicht die "typischen" energieabhängigen Elektronenradien kleiner als 10-18 [m] in Verbindung mit Teilchenbeschleunigern sind "falsch", sondern die von der Elementarteilchenphysik resultierenden Schlußfolgerungen bezüglich ruhender Elektronen.

Eigentlich gibt es "da" nicht viel zu verstehen. Das die Vertreter der Systemphysik und die "System-Nachplapperer" diesen plausiblen, phänomenologisch begründeten Zusammenhang nicht realisieren können bzw. nicht realisieren wollen, ist letztendlich keine formal-logische, sondern eine ideologische Entscheidung. Denn mit der Gewissheit, daß das ruhende Elektron offensichtlich eine meßbare Ausdehnung besitzt (Radius: re), die wie bereits mehrfach erwähnt, nachweislich in allen Elektronenstreuexperimenten vorkommt, zerbrechen "ihre" mathematischen Glaubens-Konzepte. Hier "rächt" sich sozusagen das Fehlen eines konsistent, phänomenologisch begründeten Konzepts der elektrischen Ladung. Siehe dazu die rein mathematischen Ansätze der klassischen Elektrodynamik, Quantenelektrodynamik (QED), Quantenchromodynamik (QCD) und der Elektroschwachen Theorie.

Die Elementarkörpertheorie „beschreibt“ konsistent sowohl das Verhalten bei „konventionellen“ Streu-Energien der Streu-Partner des Elektrons als auch hochenergetisch im Teilchenbeschleuniger. Hier gibt es die größten emotionalen Ausbrüche und eine methodische Plausibilitäts-Verweigerung der Standard(-Modell-)Physiker und deren Anhänger.

Eine ausführliche Diskussion des omnipräsenten Elektronenmasse inhärenten Elektronenradius re findet sich unter : Elektronenradius

 

 

Da diese Standardmodelle das Non plus ultra der Theoretischen Grundlagen-Physik sind, brauchen wir uns nicht zu wundern, daß wir seit Jahrzehnten tief in einem "erkenntnistheoretischen (Schwarzen) Loch" sitzen. Wie egozentrisch, arrogant und dekadent die Protagonisten des Standards jedoch  - trotz der erkenntnistheoretischen Null-Nummern ihrer Arbeiten -  mit Ungläubigen und sich selbst umgehen, haben sie eindrucksvoll mit der SM-These der theoriebedingten Unwiderlegbarkeit (Stichwort Confinement) "unter Beweis gestellt".

Bereits das geozentrische Weltbild zeigte exemplarisch, daß eine falsche Theorie über Jahrhunderte, ja sogar Jahrtausende als wahr und mit Hilfe von Zusatzannahmen wie den Epizyklen, trotz starker empirischer Indizien für ihre Falschheit, aufrechterhalten werden kann.

 

Anmerkungen zur Anregung des eigenständigen Denkens: Sowohl die Epizykeltheorie aus heutiger Sicht als auch das Standardmodell der Teilchenphysik (SM) als quantenfeldtheoretische Anwendung und Weiterentwicklung der Quantenmechanik basieren auf Fourier-Reihen, bzw. Fourier-Transformierte. Die Epizykeltheorie arbeitete mit 3 freien Parametern, war mathematisch „richtig“, phänomenologisch falsch und die Objekte der Beschreibung waren (sind) sichtbar (Auge, Fernrohr). Das SM arbeitet mit 25 freien Parametern, variablen Kopplungskonstanten, virtuellen Teilchen, theorieinduzierten, nicht realen Objekten und keines der Objekte ist sichtbar.

 

 

Tatsache ist: Wir verfügen über keine allgemein anerkannte Wahrheitstheorie. Wir haben jenseits von Tatsachenbehauptungen keinen intersubjektiven Zugriff auf die Wirklichkeit. D.h. die Übereinstimmung von Aussage und Wirklichkeit kann nicht objektiv festgestellt werden. Dieser Sachverhalt wird insbesondere dann problematisch, wenn die Theorie bestimmt, was gemessen werden soll.

 

   

Es gibt mehrere paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. "Extrem" willkürliche und verifizierbar falsche Behauptungen verdienen keine rein wissenschaftliche Aufmerksamkeit. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe. Die Argumentation der Protagonisten und Anhänger der ursprünglichen Quantenmechanik, folgend der Quantenfeldtheorien und letztendlich des Standardmodells der Teilchenphysik, daß diese durch experimentelle Ergebnisse Bestätigung fanden und finden, sagt wenig aus, da die Theorien immer wieder den Meßergebnissen angepasst wurden. Man kann sich einer derzeit "25-freien Parameter-", variablen Kopplungskonstanten-, stetig nachkorrigierten-, stetig nachparametrisierten-, mit einem ≈ 4,4% falschen Protonenradius- Theorie nicht moderat nähern. Zum Vergleich: Die geozentrische Epizykeltheorie benötigte 3 freie Parameter. In der angewandten Physik, die reale Ergebnisse im Sinne einer funktionierenden Anwendung ohne Wenn und Aber liefert, gibt es, neben gezielten Variablen im Rahmen des Funktionsumfanges, keine freien Parameter.

 

Die Tatsache, daß wir in sehr guter Näherung  - in Analogie zu modernen theoretischen Abstraktionen und in Korrespondenz zum Mikrokosmos –  auf einer Kugeloberfläche leben, führt nicht zu einem Raum-Zeitkontinuum.

Die Tatsache, daß elementare Strukturen aus oszillierenden Kugeloberflächen bestehen, führt gleichfalls nicht zu einem vierdimensionalen Konzept mit Vertauschungsmöglichkeiten von Raum und Zeit. Es kommt ganz im Gegenteil zu einer konstruktiven „Beschreibungsverarmung“. Die Isotropie führt zu einer 2-dimensionalen Plausibilität, die sich formal auf Zeit und Radius „verarmt“. Die Selbstverständlichkeit, daß die Wegstrecke auf einer Kugeloberfläche nicht der euklidischen Entfernung zwischen den Punkten A und B entspricht bedarf keiner Abstraktion.

Das Verständigungs- und Interpretations-Problem besteht darin, daß stillschweigend vorausgesetzt wird, daß es (im Mikrokosmos) die klassische Möglichkeit eines euklidischen Abstandes gibt und daß dieser euklidische Denk-Ansatz im Rahmen der Allgemeinen Relativitätstheorie (ART) durch einen „gekrümmten dreidimensionalen Raum mit (erweiterter) Zeitfunktion“ eine abstrakte differentialgeometrische Erfüllung findet. Aber weder der „quantenmechanische“ Spin, basierend auf einer postulierten Wahrscheinlichkeitswelle oder wahlweise postulierten Punktmasse (des Elektrons), noch die postulierte Krümmung des Raumes beinhalten physikalische Plausibilität, geschweige denn Realität. Der quantenmechanisch-theoriebeladene Spin ist keine Meßgrösse. Gemessen wird stets ein magnetisches Moment. Spätestens seit der Epizykeltheorie sollte man wissen, daß mathematische Möglichkeiten kein Auswahlkriterium für die „Richtigkeit“ physikalischer Denkmodelle sind. Der leere Raum besitzt weder eine Dynamik noch ein Energiereservoir. Die Mathematik der unendlichen Felder führt zu einer permanenten Verletzung des Energie-Erhaltungssatzes, bzw. führt diesen ad absurdum. Bemerkenswert ist hier die (mehrdeutige) Psychologie der Masse der Feldtheoretiker.

Schon Isaac Newton hielt die Vorstellung, daß Gravitation durch den leeren Raum wirken könne, (berechtigterweise) für absurd. Es ist - übergeordnet und insgesamt betrachtet - alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend einer phänomenologischen Betrachtung und Erklärung. Der Real-Objekt begründete Raum ist inhärent an Masse gekoppelt und transformierbar. Bedingt durch die reziproke Proportionalität lässt sich Masse- in Raum-Energie transformieren und umgekehrt. Salopp formuliert: Grosse Masse kleiner Raum. Grosser Raum, kleine Masse. Unter diesem Aspekt lösen sich „instantan“ Neutrinothese und Dunkle-(„whatever you like“)xxx-Konstrukte (xxx : Masse, Energie, Photonen) in Wohlgefallen auf. Der Masse gekoppelte Raum steht für einen Paradigmenwechsel und stürzt die Standardmodelle der Kosmologie und Teilchenphysik nicht in ein Schwarzes Loch, sondern in die Sinnlosigkeit. Wirklich erstaunlich ist nicht die Tatsache, daß es (welch ein Wunder) reale Objekte gibt, sondern wie wenig Theoretische Physiker von Real-Objekten verstehen.

Vor lauter Bäumen den Wald nicht sehen...

Die Frage, ob Energie verkörpert ist, sollte jeder, der schon einmal die Energie-Masse-Äquivalenz E = mc² gesehen hat, ohne große Überlegung mit Ja beantworten können (losgelöst von der Tatsache, daß die Gleichung primär E2 = m2c4 lautet, was Alles andere als trivial ist, da negative Energiewerte, respektive negative Massen im dualen Gesamtbild der Elementarkörpertheorie evident sind, der Elementarkörper "(re)präsentiert" sozusagen die ideale Vakuumfluktuation).

Es gibt keine Energie, die nicht an Masse gekoppelt ist. Die relativistische Massenzunahme in Abhängigkeit der Geschwindigkeit ist ein Indiz für die verkörperte Energie. Denn die Zunahme der kinetischen Energie führt unter Annahme einer Masse behafteten Energie-Verkörperung dazu, daß die zur kinetischen Energie äquivalente Masse nun mitbewegt werden muß. Das bedeutet: Mit Zunahme der kinetischen Energie wächst auch die Gesamtmasse resultierend aus Ruhe-Energie und kinetischer Energie.

 

Die deutlich längere Lebensdauer der "kosmischen" Myonen, die mit fast Lichtgeschwindigkeit die Atmosphäre durchqueren, ist keine Folge der postulierten Zeitdilation, sondern das Ergebnis der verringerten Streuquerschnitte als Folge der Radiusverkleinerung bei gleichzeitiger Massenzunahme.

Beschleunigte, hochenergetische Teilchen ändern auf Grund der zugeführten Energie radialsymmetrisch ihre Masse-Radius-Verhältnisse. Das bedeutet: Sie werden mit zunehmender Geschwindigkeit masse-schwerer und proportional radius-kleiner. Die Wirkungsquerschnitte werden mit r², respektive mit 1/m² kleiner.

Was ist Masse?

In der Elementarkörpertheorie ist die Ruhe-Masse m0 ein Maß für die Oszillationsfrequenz des Elementarkörpers. Die radius-kleineren Elementarkörper besitzen eine größere Masse, da diese äquivalent zur Bewegung der oszillierenden Oberfläche ist. Masse ist also im Bild des Elementarkörpers äquivalent zur inneren Bewegung und wird über die reziproke Proportionalität auf den Radius zurückgeführt. Details siehe das Kapitel: Impulsmasse-Inversion

Begriff der elektrischen Ladung

Elektrische Ladung ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse und dem Radius des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Das ist aber nicht der Fall. Elektrische Ladung ist "nichts weiter" als eine (skalierte) Masse-Radius-Funktion. Der Irrglaube über die (unbekannte) Natur der elektrischen Ladung bzw. Spekulationen über diese beruhen auf den historischen Denkmodell-Entwicklungen. Elementarkörpertheorie basierend sind alle vermeintlichen Ladungswechselwirkungen auf Masse-Radius-Kopplungen zurückzuführen. Elektrische Ladungen innerhalb der Elementarkörpertheorie kommen nur implizit über Funktionen der Sommerfeldschen Feinstrukturkonstanten α "rechnerisch" vor.

 

 

So gesehen, sieht schon seit mehr als 100 Jahren keiner der etablierten Theoretischen Physiker Wälder trotz der vielen Bäume. Das im Rahmen der Elementarkörperdynamik letztendlich Masse reziprok auf den Radius zurückzuführen ist, ist ein erkenntnistheoretischer Indikator für konsistente Plausibilität, mit der, statt neuer Parameter zur Strukturdeutung, konstruktive Eigenschaftsverarmung zum Ziel führt.  

    

DIE (expressionistisch formuliert) stirb und werde Frage

Es gab und gibt eine zentrale Frage, dessen frühe richtige Beantwortung die Katastrophe der generellen Unanschaulichkeit verhindert hätte bzw. verhindert. Gibt es einen Materie entkoppelten leeren Raum? Die Antwort lautet Nein. Die Antwort der ineinander übergreifenden, etablierten Standardmodelle der Teilchenphysik und Kosmologie war und ist Ja. Die latent vorhandene, richtige Antwort schloß sich spätestens mit der anerkannten These aus, daß die mit dem Urknall inhärente Inflationsphase eine überlichtschnelle Expansion des Raumes erfordert. Diese These wurde "akzeptiert" und in die Denkmodellstruktur einzementiert.

Die Pflicht, erst einmal plausibel und anschaulich ein minimalistisches Denkmodell zu erschaffen, bevor dieses formalisiert werden kann, wurde seitens der herrschenden Physik wiederholt - und immer noch - mit Füssen getreten. Spätestens seit Mitte des 20.Jahrhunderts bestimmt der mathematische Formalismus was gemessen wird, theoretisch Unpassendes wird substruktuiert und nachparametrisiert. Um diesen anhaltenden, methodischen Selbstbetrug zu verstehen, muß Niemand wissen was eine Lagrangedichte ist...

Sowohl die Epizykeltheorie aus heutiger Sicht als auch das Standardmodell der Teilchenphysik (SM) als quantenfeldtheoretische Anwendung und Weiterentwicklung der Quantenmechanik basieren auf Fourier-Reihen, bzw. Fourier-Transformierte. Das bedeutet, daß zumindest abschnittsweise alle Funktionen f(x) aus den gleichen "Bausteinen" sin x, cos x, sin 2x, cos 2x, ... aufgebaut sind und sich nur darin unterscheiden, mit welchen Faktoren a1, b1, a2, b2 ... die Bausteine gewichtet sind.

Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen.

Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier Theorem es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab den physikalischen Prozeß zu erkunden, denn es sind ja grundsätzlich nur Wahrscheinlichkeitsaussagen bei Quantenprozessen möglich.

Albert Einstein schrieb u.a. zur Quantenmechanik : [1] "die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wären. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne.

[1] A. Einstein, Qut of my later years. Phil Lib. New York 1950  Seite 498

In der Zeit nach dem zweiten Weltkrieg hatte sich die Kopenhagener Deutung durchgesetzt, in Lehrbüchern war jetzt nur noch die Heisenberg-Bohrsche Quantentheorie ohne kritische Anmerkungen zu finden.

Das Sammelsurium an »Wünsch Dir was Interpretationen« der modernen Physik ist eine komplex-beliebige Absage an Stringenz und Konsistenz.

Beispiele: Spalte und Beugungskanten werden in der Regel als phänomenologisch "Schwarze Boxen" betrachtet. Wenn man die Natur der Wechselwirkung aber über Rechenvorschriften hinaus verstehen möchte, ist es zwingend ein Denkmodell von der atomaren Struktur des Spaltes und der Beugungskanten zu entwickeln. Das ist im Bild der modernen Phänomenologie befreiten Grundlagenphysik überaus schwierig, da ein mathematisches, Quantenfeldtheorie geprägtes System aus Quantenzahlen, mathematischen Gruppen, deren Transformationen und Symmetriebeziehungen nicht den Hauch einer Real-Objekt-Anschauung inne haben. Im Ergebnis sind alle Prinzipien zur Beschreibung der Natur der Strahlung von Quantenfeldtheorien weit entfernte heuristische Standpunkte. Die Qualität der Mutmaßungen variiert stark mit dem Anwendungsgebiet. Des Weiteren ist die Strahlung in Versuchen ein Objekt-Ensemble. Im Versuch vermischen sich, geprägt durch theoretische Erwartungshaltungen kunterbunt Einzelobjekt-Eigenschaften mit statistischen Verteilungseffekten des Objekt-Ensembles. Die Interpretationen und Schlussfolgerungen sind haltlos. Beugungsexperimente bestätigen nicht die Wellennatur des Lichtes sondern lediglich die Periodizität des Lichtes. Bereits Ernst Mach [2] zeigte, daß alle Beugungs- und Interferenzexperimente nicht die Welle, sondern nur die Periodizität des Lichtes beweisen. Dabei wurde der Wellenbegriff viel zu weit gefasst.

[2]Ernst Mach, Die Prinzipien der physikalischen Optik. Barth, Leipzig 1921; The Principles of Physical Optics. New York 1926.

Ein einziges, „einsames“, stoßfähiges Teilchen ist "undifferenziert" weder eine Welle, noch erzeugt es eine Welle.

Dr. Helmut Nieke    Newtons Beugungsexperimente und ihre Weiterführung

[3]…In Nieke, „Newtons Beugungsexperimente und ihre Weiterführung“ Halle 1997, wird gezeigt, daß Fresnels angeblicher Beweis für Licht als Welle, auf einer unzulässigen und falschen Extrapolation der Gleichung für die Beugung am Spalt auf die Entfernung Null basiert. Seinerzeit wurde das nur akzeptiert, weil Newton mit punktförmigen Lichtteilchen und deren Mechanik eine Beugung nicht begründen konnte. So wurde ab etwa 1850 in Lehrbüchern die Beugung nach Fresnel mit Wellen als einzige Möglichkeit dargestellt. Newtons Beugungsexperimente hingegen wurden unterschlagen und so eine simplifizierte und irreführende Theorie manifestiert. Auch nach Entdeckung des lichtelektrischen Effektes am Anfang dieses Jahrhunderts hatte sich an der "manifestierten" Theorie nichts geändert, und es wurde lediglich ein Dualismus von Welle und Korpuskel gefolgert. Auch Bohr baute seine Quantentheorie mit der Kopenhagener Deutung auf dem Dualismus von Welle und Korpuskel auf, die er mit dem Indeterminismus bei Quantentheorie verband, aus dem die Unanschaulichkeit bei Quantenprozessen gefolgert wurde. Einstein legte dagegen Widerspruch ein, konnte aber seine Anschauung nicht begründen, da er die Newtonschen Beugungsexperimente nicht berücksichtigte. Aber auch wenn er sie berücksichtigt hätte, hätte er seinerzeit keine Alternative bieten können…

[3] http://www.gebeugtes-licht.de/histphil.htm

Wie u. a. Fresnel, Newton, Nieke bemerkten, stammen die zur Interferenz beitragenden Anteile der Beugung in erster Linie von den Spaltkanten.

Grimaldi [4] berichtete als erster 1665 über die Beugung und dabei auch über die leuchtende Kante, die man sieht, wenn eine Lichtquelle durch eine Halbebene verdeckt ist.

[4]  F. M. Grimaldi, Physico-mathesis de lumine, coloribus et iride. Bonniae 1665.

Fresnel [5] bestätigte in seiner ersten Arbeit über die Beugung ausdrücklich, daß er sich überzeugt habe, daß gebeugtes Licht ausschließlich von den Kanten kommt, was er später nie berücksichtigte. Die Existenz einer leuchtenden Kante als physikalisches Phänomen, war zur damaligen Zeit allgemein anerkannt. Die Folgerung, daß gebeugtes Licht nicht vom gesamten Spalt kommt, war selbstverständlich, sie brauchte nicht besonders betont zu werden.

[5] A. J. Fresnel, Oeuvres Complétes I. Paris 1866; Abhandlungen über die Beugung des Lichtes. Ostwalds Klassiker Nr. 215, Engelmann, Leipzig 1926.

Fresnel konnte mit dem von Fourier stammenden Theorem Grenzfälle der Beugung berechnen. Seine Messergebnisse teilte er nur mit, wenn sie mit seiner Theorie hinreichend übereinstimmten. War das nicht mehr der Fall, so brach er die Mitteilung ab, ohne die Diskrepanzen anzumerken.

Newton [6] berichtete im III. Buch seiner »opticks« umfassend über die Beugung. Hier interessiert die 5. Beobachtung, wo er nachweist, daß gebeugtes Licht nur aus der engen Umgebung der Kante kommt (Größenordnung einige 1/100 mm); sowie der Beobachtung 10, wo er am Dreieckspalt nachweist, daß in kurzen Entfernungen und großen Spaltweiten erst die inneren Beugungsstreifen des Spaltes entstehen, die der Beugung der Kanten als Halbebenen entsprechen (innerhalb der Schattengrenze-Beugungsstreifen mit ungleichmäßigen Abständen, außerhalb kontinuierlicher Abfall). Erst in großen Entfernungen oder bei kleinen Spaltweiten entstehen die äußeren Beugungsstreifen (außerhalb der Schattengrenzen), die seit etwa 1850 in Lehrbüchern als einzige Beugungsstreifen am Spalt beschrieben werden. Newton stellte nicht nur die Behauptung auf, sondern er wies mit den oben genannten Beobachtungen nach, daß Licht niemals eine Welle sein kann. Er konnte aber keine Theorie der Beugung bringen, denn für punktförmige Lichtteilchen konnte die Newtonsche Mechanik keine Begründung der Ablenkung senkrecht zur Ausbreitungsrichtung angeben. Die Newtonschen Beugungsexperimente zeigten, was außerhalb der Fresnelschen Theorie die Beugung noch kennzeichnete, aber dies passte nicht zu Fresnels Vorstellungen. Daher ließen die Lehrbuchautoren Newtons Beugungsexperiment einfach weg, sie wurden unterschlagen und blieben unberücksichtigt; man extrapolierte so über dieses Gebiet unzulässig und falsch hinweg. So wurde eine unvollständige und damit irreführende Theorie der Beugung propagiert.

[6] Newton , Opticks 1704; Opera quae exstant omnis, Tom. IV, London 1782; Optik II + III. Übers. W Abendroth, Ostwald’s Klassiker Nr. 97, Engelmann, Leipzig 1898; NeuaufIage Bd. 96/97, Vieweg, Braunschweig 1983; Optique. Trac. J. P. Marat 1787; Bourgois 1989 …online Dr. Helmut Nieke : http://www.gebeugtes-licht.de/downloads/ARBEIT19.pdf

Die Newtonschen Beugungsexperimente wurden von Nieke [7] in einer Schlierenapparatur nach Abbe weitergeführt, die eine Trennung von gebeugtem und nicht hinreichend gebeugtem Licht gestattet. Newtons Beobachtung 5 und 10 wurden bestätigt und weitergeführt. Durch Abdecken von Ordnungen in der Schlierenapparatur kann deren Zuordnung zu zwei Orten im Spaltbild gezeigt werden (aber nicht innerhalb einer Ordnung). Bei Nieke [8] wird das Babinetsche Prinzip für Beugungsstreifen am Spalt und Hindernis als kantensymmetrisch vertauscht gezeigt und nur in Spezialfällen sind die Beugungsfiguren gleich. Nieke [9] bewies die sog. Kohärenzbedingung als eine geometrische Bedingung. (Winkel zur Lichtquelle kleiner als zum Abstand der Beugungsstreifen). Nieke [10] zeigte, daß sich hintereinander folgende Beugungen von unbeeinflussten Beugungen unterscheiden. Weiter wird nachgewiesen, daß bei Abdeckung eines Spaltbildes des Doppelspaltes nach Zwischenabbildung sich trotzdem die Beugungsfigur des Doppelspaltes ergibt, wenn vor der Zwischenabbildung ein Weg größer als Dezimeter bestand.

[7] H. Nieke, Newtons Beugungsexperimente und ihre Weiterführung. Arbeit 1 und 2 [8] Wie [7] Arbeit 3 [9] Wie [7] Arbeit 4 [10] Wie [4] Arbeit 5.

 

Der Einfachspalt

Bei der Beugung am Einfachspalt ist die beugende Öffnung ein feiner Spalt mit konstanter Breite. Gemäß Lehrbücher verbreiteter Annahmen sind alle Punkte des Spaltes als Ausgangspunkt von Kugelwellen anzusehen (Huygens'sches Prinzip), die sich in der Beobachtungsebene überlagern und das Beugungsbild erzeugen.

Diese Annahme ist grundlegend falsch.

Wenn Heisenberg auf der Grundlage des ,,Kopenhagener Geistes der Quantentheorie" den Dualismus von Welle und Korpuskel benutzt, so hat er mit der Welle die unzulässige und falsche Extrapolation akzeptiert. Diesen Wellenbegriff brauchte Heisenberg aber zur Rechtfertigung der Benutzung des Fourier-Theorems, das er als „ein allgemeiner mathematischer Satz besagt" zitiert, mit dem er ein Wellenpaket von beliebiger Gestalt aufbauen kann, nämlich jede stückweise monotone Funktion. Da jedes experimentelle Ergebnis stückweise monoton ist, so dachte Heisenberg, daß ihm nichts passieren kann. Mit der Berücksichtigung der Newtonschen Beugungsexperimente muß aber die Welle in Abrede gestellt werden und damit verliert auch die generelle Anwendung des Fourier-Theorems seine universelle Begründung. Nieke [11] bemängelt, daß Teilchen mit Struktur nicht mit zwei Angaben wie Ort und Impuls oder eines Paares kanonisch konjugierter Variabler zu kennzeichnen sind, wie dies die Heisenbergsche Unbestimmtheitsrelation voraussetzt. Die Heisenbergsche Unbestimmtheitsrelation wäre danach nur für punktförmige Partikel anwendbar, und die gibt es nicht.

[11] Dr. Helmut Nieke : http://www.gebeugtes-licht.de/downloads/ARBEIT19.pdf     http://www.gebeugtes-licht.de/archiv.htm

 

 

 

 

"zur Erinnerung"

"Formaler Aphorismus"

Elementarkörpertheorie im Bild

 

 

 

 

 

 

Wie es ein «Freund» der Elementarkörpertheorie mit den Worten Goethes über den Elementarkörper(-Teil "unserer Welt") so schön sagte:

»Ich bin Teil eines Teils, der anfangs alles war.«

Ein Teil der Finsternis, die sich das Licht gebar, das stolze Licht, das nun der Mutter Nacht den alten Rang, den Raum ihr streitig macht. Und doch gelingst ihm nicht, da es, soviel es strebt, verhaftet an den Körpern klebt. Von Körpern strömts, die Körper macht es schön, ein Körper hemmt's auf seinem Gange; so, hoff ich, dauert es nicht lange, und mit den Körpern wirds zugrunde gehn.                             Johann Wolfgang von Goethe (1749 - 1832)

 

 

 

Eine kleine Pause von der Physik...

 

 

Wer es theoretischer mag...

Die Bedeutungslosigkeit "moderner" Kunst ist dank Marcel Duchamps Wirken inhärenter Begleiter des "modernen" Künstlers. Künstlerische Fertigkeiten sind zwar von Vorteil, lassen sich aber stets als "nur" Kunsthandwerk verstehen.

 

 

Konsequent zu "Ende" gedacht, ist der Preis für die Unabhängigkeit des Künstlers, die Befreiung vom Kapital. Wahre Kunst ist frei von Kapitalerträgen. Diese Freiheit lässt sich ohne "Goldene Löffel-Geburt" im Rahmen eines theoretischen Modells nur mit Einnahmen (nicht aus der Kunst direkt aber) aus dem kunstnahen Bereich verwirklichen. Soll heißen: Der Käufer sieht das interdisziplinär wirkende Funktional des [Kunst-]Produktes. Das Kunstobjekt als solches bleibt wertfrei. Der Erwerber bereichert sich intellektuell und "zahlt" für seine symbiotische "Anteilnahme". Erzielte Erträge des Künstlers für konkrete Werke sind existenziell hilfreich, haben aber mit dem Tatendrang primär nichts zu tun.

"Eins" sollte auch klar sein, Leben ist egoistisch. Künstler sind immer auch egozentrisch und wünschen sich Aufmerksamkeit. Inwieweit ein privat motiviertes Anliegen neben den Besitzerfreuden auch gemeinnützliche Aspekte generiert, steht auf einem anderen Blatt.

Soll Kunst einfach nur "schön" sein, dann reduziert sich die Wechselwirkung auf individuelle Befindlichkeiten. Soll Kunst »mehr« sein, dann stellt sich die Frage, was dieses »mehr« ist.

 

Kunst sollte mehr sein als «Allegoriengeschraube»   

Ein Werkzeug, um der etablierten Form- und Inhalts-Verwahrlosung der Kunst(-Produkte) entgegen zu treten, ist "die" bewusste, selbstinszenierte konzeptionelle Parodie auf moderne Kunst und deren Künstler. Analytische Anatomiestudien können so mehrdeutig verstanden werden.

 

Basissuche und freundliche Entschleunigung beginnen u.a. mit direkten, nicht materiell ausgerichteten Naturerfahrungen und Spaß an der Freude. Die Struktur eines Blattes, der Geruch einer „wildlebenden“ Pflanze, die Bewuchsvielfalt einer Wiese, das Insekt von "nebenan" und spielerisches Miteinander helfen (auch) sich selbst wahrzunehmen.