[Technischer Hinweis: Sollten Sie ungewollt diese Webseite ohne Webseitenmenü ("frame-los") vorliegen haben, so gelangen Sie hier zur kompletten menügesteuerten Elementarkörpertheorie-Webseite]

Wissen ist ein Privileg. Die Weitergabe eine Pflicht.

contact/data protection info

 

Freude an der Wirklichkeit

Auch wenn es sich hier um eine wissenschaftliche Betrachtung der Materie handelt, sollen ergänzend Humor und interdisziplinäre Verweise nicht zu kurz kommen. Die mathematisch-physikalischen Ausführungen sind bewusst mit künstlerischen Bild-Elementen ausgeschmückt, da es Spaß macht die Vitalität der Theorie zu illustrieren. Authentizität und Egozentrik des Theorievaters sollen und werden kein Geheimnis bleiben.

Gibt es noch etwas "Konträres" in der Theoretischen Grundlagenphysik zu entdecken? Hat der herrschende Indeterminismus der Modernen Physik das "letzte Wort"?

Der Glaube an das Standardmodell der Teilchenphysik (SM) ist heute so selbstverständlich, wie "damals" der Glaube an die Epizykeltheorie des geozentrischen Weltbildes. Keiner kann sich auf Grund der weltweiten, jahrzehntelangen Beschäftigung der Theoretischen Physik mit Quantenfeldtheorien (QFTn) vorstellen, daß diese (noch) irgendwie fundamental "falsch" sein könnten…

Und doch, wenn man konsequent Masse und (richtungsunabhängige) Ausdehnung sprich den Radius (auch) mikroskopischer Körper als inhärente Fundamentaleigenschaften voraussetzt, stößt man auf eine determinierte Masse-Radius-Konstanz. Diese Konstanz führt zu einer tief greifenden Korrespondenz und zu exakten Voraussagen. ["Praktische" Beispiele sind u.a. die Elementarkörper basierende exakte, formal-analytische Berechnung des Protonenradius, die energetisch begründete Herleitung der Sommerfeldschen Feinstrukturkonstanten auf Grundlage der Masse-Radius-Konstanz der elektrischen Ladung (beliebiger Elementarladungsträger), die Berechnung (vermeintlich) anomaler magnetischer Momente, Neutronenmasseberechnung, um nur einige zu nennen. Es wird, sowohl phänomenologisch als auch formal, anschaulich deutlich, daß u.a. die Konstanz und Invarianz der elektrischen Ladung, trotz erheblich unterschiedlicher Massen der Ladungsträger (Proton, Elektron, Pion, Myon, …), ihre Ursache in der konstanten Masse-Radius-Beziehung hat.

 

»abstract«

Die Elementarkörpertheorie befasst sich insbesondere mit der Frage, wie Masse und Raum basisnah miteinander verknüpft sind und im „Zusammenspiel“ zu verständlichen Materiebildungen führen, die sich näherungsfrei und ohne freie Parameter formal-analytisch - sowohl mikroskopisch als auch korrespondierend makroskopisch - berechnen lassen.

Konträr zur Aussage der Standardphysik, die vier Grundkräfte postuliert, lässt sich Elementarkörper basierend - auf Grund der (skalenkorrespondierenden) Masse-Raum-Kopplung - jedwede Wechselwirkung auf das Masse-Radius-Verhältnis der interagierenden Wechselwirkungspartner reduzieren. Das führt zu einer konstruktiven Beschreibungsverarmung, die entweder durch die Radien oder deren reziprok proportionale Massen ausgedrückt werden kann. Mit Hilfe dieser einkomponentigen sprichwörtlichen Minimalbeschreibung lassen sich Materiebildungsmöglichkeiten verstehen und formal analytisch exakt berechnen.

 

statt  4 Grundkräften     →    Masse - Radius - Kopplung

 

Die zeitabhängigen Elementarkörper-Entwicklungs-Gleichungen leiten sich aus der beobachteten Invarianz der (Vakuum-)Lichtgeschwindigkeit ab. Der fundamentale Unterschied zur (Speziellen) Relativitätstheorie respektive zur Lorentztransformation ist der wechselwirkungsnotwendige radialsymmetrisch-dynamische Charakter dieser Gleichungen. Für ein  anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine substrukturierte* Zeit, noch mathematische Raum-Zeit-Konstrukte notwendig.

*In der Elementarkörpertheorie ist die Zeit eine Variable ohne Substruktur, bedeutet u.a. Zeit ist nicht dilatierbar. Phänomenologisch: Zeitdilatation ist genauso wenig vorstellbar wie die Krümmung eines dreidimensionalen Raumes. Physik wird hier in einem dreidimensionalen, sinnlich vorstellbaren Raum beschrieben, die sich auf Grund der Radialsymmetrie räumlich konstruktiv reduziert und sich mit Hilfe des Radius abbilden und formalisieren läßt.

Besondere physikalische und epistemologische Bedeutung erlangt das Modell der phänomenologisch begründeten masse-radius-gekoppelten Elementarkörper durch die Ergebnis-Genauigkeit und Einfachheit der resultierenden Gleichungen, die stets auf leicht verständlichen, konsistenten Denkansätzen beruhen. Das exakte Ergebnisspektrum umfasst Größen vom Protonenradius, der Ionisierungsenergie des Wasserstoffatoms, der Herleitung der Sommerfeldschen Feinstrukturkonstanten aus Vergleich von elektrischer und Gesamt-Energie bis hin zu makroskopischen, wie der Temperatur der kosmischen Hintergrundstrahlung, um nur einige wichtige zu nennen. Die zugrunde liegenden Gleichungen sind korrespondierend skalen- und mengeninvariant.  

Die grundsätzliche, phänomenologisch begründete Elementarkörper basierende Denkmodell-Forderung besteht darin, daß möglichst minimalistische Gleichungen sowohl das masselose Photon als auch massebehaftete Materie abbilden. Die Entstehungsgleichungen r(t) = r0 ·sin(c ·t/r0) und m(t) = m0 ·sin(c ·t/r0) leisten genau das. Die zeitlose Lichtgeschwindigkeit - als Zustand reiner Bewegung -  steht nicht im Widerspruch mit der Materie-Energie-Verkörperung.

 

  

         Information als materieller Zustand = Elementarkörper                    Zustand als Information = Photon

                        

 

Die Elementarkörpertheorie liefert neben konkreten Voraussagen insbesondere Phänomenologie. Mathematik ist zwar "Denkmodell-inhärent", aber hier nur "Mittel zum Zweck". Die Elementarkörpertheorie baut auf Plausibilität und Minimalismus auf und ist nachvollziehbar weder an Wahrscheinlichkeiten noch methodischer Materiezersplitterung interessiert. Der inhaltliche Konflikt mit bestehenden Theorien und Modellen, insbesondere mit dem Standardmodell der Teilchenphysik (SM) und der ursächlichen Quantenmechanik (QM), ist unausweichlich.

(Objektorientierte) Einzelaspekte (zum Beispiel zum Wasserstoffatom), phänomenologische Zusammenhänge, detaillierte Angaben, konkrete Berechnungen finden sich in den Einzelkapiteln, die über das Webseiten-Menü wählbar sind. Zum Kennenlernen werden einige Sachverhalte und Denkanstösse an verschiedenen Stellen bewusst wiederholt. Der Leser mag selbst entscheiden, ob er bereits Bekanntes nochmals liest. Die Texte sind so geschrieben, daß mit etwas Geduld auch weniger vorgebildete Leser einen roten Faden aufnehmen können. Sollte, an der einen oder anderen Stelle, ein Begriff nicht bekannt sein oder ein Resultat nicht sofort verstanden werden, so empfiehlt es sich erst einmal weiter zu lesen.

"Parallel" Wikipedia zu bemühen ist leider nur für den groben Überblick zu empfehlen. Wikipedia-Moderatoren sind systemtreu. Kritik an Standardmodellen wird zensiert, es sei denn, diese kommt als harmloser Selbstversuch, direkt von den Standard-Modell-Protagonisten, die dann früher oder später Standardmodell freundliche Lösungen bzw. meist Theorie-Erweiterungen präsentieren. Darüber hinaus ist die deutsche Wikipedia im Vergleich zur englischsprachigen Wikipedia oftmals deutlich weniger umfangreich und deutlich weniger kontrovers, sofern man überhaupt von Kontroverse sprechen kann. Um zu verstehen, wie „schwach“ deutsche Wikipedia-Einträge im Vergleich zu englischen sind, bietet sich exemplarisch die Fermi-Wechselwirkung an. Vergleiche dazu Fermi’s interaction.

Das Internet als solches ist bei der bewussten und manchmal intuitiven, zielführenden Suchbegriffsgestaltung durchaus eine Fundgrube für alternative Ideen. In der Summe aller Ereignisse sind viele der relevanten Beiträge (jedoch) in Englisch.

[ Allgemeine Hinweise: Leider halten sich auch Lehreinrichtungen - hier und da - nicht an gängige Informationsstandards. Das bedeutet, daß beispielsweise die eine oder andere Universität „Links“ ohne Angabe von Gründen („plötzlich“) löscht. Das ist insbesondere unter dem Aspekt von aussageunterstützenden Quellenangaben „sehr unschön“. Gegebenenfalls muss der Leser selbst mittels geeigneten Suchbegriffen eine neue „Verknüpfung“ herstellen.

Verknüpfungen (Links) zu externen Artikeln und wissenschaftlichen Studien enthalten mitunter weitere zahlreiche weitere Links. So kann eine grosse selbständige Recherchentiefe erreicht werden. Leider sind - nach wie vor - viele Deutschsprachige nicht der englischen Sprache mächtig. Daraus folgt ein riesiges Informationsdefizit, weil viele wichtige Quellen unerschlossen bleiben bzw. zeitraubend mittels Online-Sprach-Übersetzern erschlossen werden. Hier bleiben jedoch Unsicherheiten und es ergeben sich teils Falschinterpretationen. Mein Rat: Englisch lernen! Es ist nie zu spät...denn auch in Zukunft ist die Sprache des Internets und der internationalen Wissenschaft Englisch.]

 

  Zur Aussage-Form des Vortrages

Eine präzisere Formulierung meinerseits ist zwar oftmals möglich, wird aber dann von dem Gros der Leser nicht verstanden, da das fachlich notwendige Detailwissen auf Grund der stark mathematisierten, formalen Inhalte meist nur von denen verstanden werden kann, die es nicht hören respektive lesen wollen, da es nachweislich die Standardmodelle ad absurdum führt, die von den Protagonisten dieser vertreten werden.

"Wortgewordenes", teils in Form von Satire, Ironie und Zynismus, ist Ausdruck der Empörung und des Unverständnisses über die fragwürdige, etablierte Beliebigkeit heutiger Theoriemodelle zur Beschreibung der Materie. Sofern man nicht schon von den bestehenden Standardmodellen geistig gebrochen bzw. "vollständig assimiliert" wurde, lohnt es sich - Ästhetik und Schöngeist orientiert - "etwas" Abstraktion und Geduld für die folgenden Ausführungen aufzubringen.

 

 

Das Gros der Menschen des frühen 21.Jahrhunderts verfügt - konträr zum angewandten technischen Fortschritt - nur über eine einfache Lesefähigkeit. Im Vergleich mit herkömmlichen Textbotschaften (Twitter, WhatsApp, Mainstream-Artikeln, …)  sind vorliegende Ausführungen tendenziell sprachlich komplex. Die Fähigkeit diese Texte verstehen zu können, setzt einen spielerischen Umgang mit Sprache voraus. Die Basisaussagen des vorliegenden Denkmodells sind „glücklicherweise“ - sowohl sprachlich als auch inhaltlich - einfach zu verstehen. Beispiel: Ein Denkmodell ohne Mathematik ist ein philosophisches Denkmodell. Ein Denkmodell „aus“ Mathematik ist kein physikalisches Denkmodell. Mathematik kann nicht zwischen Staub und Staubsauger unterscheiden. In einem allgemein verständlichen Denkmodell ist Mathematik nur Mittel zum Zweck. Nichts weiter als ein plausibilitäts-resultierendes, praktisches Ordnungs- und Formalisierungsinstrument.

Begriffe wie Heuristik, Approximation und Algorithmus machen nur dann Sinn, wenn diese sowohl in ihrer ursprünglichen als auch in der modernen Form verstanden werden. Darüber hinaus ist Sprache abstrakt und „verführerisch“. Eine beispielsweise heuristische Reduktion ist ein inhaltlich "unnötiges" Konstrukt, da die Heuristik bereits „die“ (Informations-)Reduktion enthält.

Obwohl die ein oder andere „Auffälligkeit“ seit Jahrhunderten bekannt ist, ist bis heute kein tiefer liegendes Verständnis modellmäßig entwickelt worden. Sehr bemerkenswert ist das Buffonsche Nadelproblem welches experimentell die Kreiszahl π bestimmt*. Das ist insbesondere unter dem Aspekt interessant, daß die Fragestellung der Wahrscheinlichkeit und die Konzeption des Versuches, indem „Linienobjekte“ (Nadeln) parallele Abstände „berühren“, keinen offensichtlichen Zusammenhang zum Kreis abbilden und der Versuch als solches das Ergebnis ohne eine begründete mathematische Berechnung liefert, insofern als das man schlicht das Verhältnis von linien-berührenden Nadeln (l) zur Gesamtanzahl (n) der im Versuch „geworfenen“ Nadeln (n) ausdrückt: l/n ≈ 2/ π.

*Konkret bedarf es hier einer (weiterführenden) analytischen Fähigkeit einen Zusammenhang zu π herzustellen, da die experimentell bestimmte Wahrscheinlichkeit, mit der Nadeln mindestens eine parallele Linie berühren, den Wert 2/π ergibt. Geschichtliche Einzelheiten zu Louis Leclerc de Buffon (1707 – 1788) von Ehrhard Behrends

Für die Elementarkörpertheorie ist der Faktor 2/π respektive der Kehrwert π/2 wortwörtlich von maßgebender Bedeutung:

 

Mittels der Masse-Radius-Konstantengleichung [F1] lässt sich der Protonenradius in Abhängigkeit der Protonenmasse und der (Natur-)Konstanten Plancksches Wirkungsquantum h und (Vakuum-)Lichtgeschwindigkeit c phänomenologisch begründet exakt berechnen (Details siehe das Kapitel Protonenradius). Diese Berechnung ist historisch gesehen die erste grundlegende Voraussage der Elementarkörpertheorie.

Siehe hierzu ("ergänzend") die Bemerkung von Prof. Dürr über die fundamentale Natur des Protons:

...Was dafür spricht, daß das Proton tatsächlich fundamental ist, ist eine spezielle Koinzidenz, auf die der Physiker Hans-Peter Dürr in seinem Aufsatz  Neuere Entwicklungen in der Hochenergiephysik – das Ende des Reduktionismus? 1986 aufmerksam gemacht hat. Er weist daraufhin, dass die Vorstellung einer Teilchenunterstruktur mit Erreichen einer charakteristischen Schranke versagt. Diese charakteristische Schranke ergibt sich aus dem Verhältnis zwischen dem Planckschen Wirkungsquantum h und der Lichtgeschwindigkeit c. Die sich daraus ergebende Größe hat die Dimension einer Masse mal einer Länge. Dürr zufolge versagt für Systeme, für die das Produkt aus ihrer Masse m und ihrer Größe R diese Maßzahl unterschreitet, die Vorstellung einer Teilchenstruktur: m · R  «h/c» 10-37 g cm.

Dürr nimmt diese auffällige Koinzidenz zum Anlass, das Quark-Modell zu kritisieren. Es kommt ihm, wie er betont, reichlich merkwürdig vor, daß sich  die Natur,  um unserem Teilchenbild entgegenzukommen, auf ihren tieferen Ebenen in eine so spezielle Dynamik wie die Quantenchromodynamik flüchtet.1

1Dürr, Hans-Peter, Neuere Entwicklungen in der Hochenergiephysik – das Ende des Reduktionismus? in: Selbstorganisation – Die Entstehung von Ordnung in Natur und Gesellschaft, (hrsg. Andreas Dress, Hubert Hendrichs und Günter Küppers, München 1986, S. 15 – 34) Hans-Peter Dürr (1929 - 2014) war u.a. Mitarbeiter von Werner Heisenberg und Direktor des Max Planck Institutes für Physik bis1997.

 

Es existieren sehr informative und interessante Betrachtungen zur Masse-Radius-Konstanz im Rahmen des Themas „Naturkonstanten und Artefakte“ von Prof. Dr. Walther Umstätter:

Die fundamentale Bedeutung der Informations- und Wissensmessung und ihre Beziehung zum System der Planckeinheiten.

 

 

Geschichtliches  zum protonenmasse-inhärenten Protonenradius

Es gab eine (vermutlich wenig beachtete) Bemerkung von Wolfgang Finkelnburg aus dem Jahre 1947 mit der Überschrift „Über das Maß von Kernentfernungen und eine merkwürdige Beziehung zwischen den Grundkonstanten der Physik“ siehe: Finkelnburg1947Hinweis

Wie wichtig zahlenanalytische Fertigkeiten ohne theoriebeladene Erwartungen sind, verdeutlicht die Bestandsaufnahme der experimentellen Werte zu den (vermeintlich anomalen) magnetischen Momenten. Bemerkenswert ist die Tatsache, daß die experimentellen Ergebnisse, sofern man diese ohne theoriebeladene Erwartungen in Richtung "leptonischer "Strukturlosigkeit" bzw. quarks-basierender Substruktur betrachtet, eine leicht feststellbare Gemeinsamkeit aufweisen. Die zusätzlichen (vermeintlich anomalen) magnetische Moment-Beiträge zu den semiklassisch zu erwartenden sind sowohl für Proton, Neutron als auch für das Elektron stets ~ 1·10-26 Joule/Tesla. Die erkenntnistheoretischen Folgen sind für die Quantenelektrodynamik (QED), die Quantenchromodynamik (QCD) und das bestehende Standardmodell der Teilchenphysik (SM) fatal. Zahlenanalytische Bestandsaufnahme und Denkmodell-Ausführungen mit konkreten Berechnungsmöglichkeiten, siehe die Anatomie anomaler magnetischer Momente.

 

 

Form und Inhalt

Es gibt nicht wenige Stellvertreter der "Modernen Physik" die vorliegende gestalterische Wahl kategorisch ablehnen. Es wird eine wissenschaftliche Präsentation verlangt, so wie man sie kennt, ansonsten wird Alles "ungesehen" als unwissenschaftlich bewertet. Diese Forderung ist jedoch inhaltlich belanglos, wenn man den dazugehörigen, andauernden, weltweiten "Feldversuch" betrachtet. Denn, auch dann, wenn »Prof.Dr.Tralala« ein "normgestaltetes" Dokument ("scientific paper") präsentiert, wird er, sofern seine Ergebnisse von den Standardmodellansichten signifikant abweichen, schlicht ignoriert, wie jeder Interessierte an zahlreichen Beispielen der "jüngeren" Wissenschaftsgeschichte selbst recherchieren kann.

Anfang des 20.Jahrhunderts waren im Bereich der Modell-Physik Max Planck und Albert Einstein Aktivisten radikal neuen Denkens. Wobei Planck im Vergleich zu Einstein in Bezug auf grundsätzliche Denkmodell-Erwartungen als "plausibilitätssuchend-konservativ" zu verstehen ist. Planck und Einstein waren zeitlebens aber auch ihre (eigenen) größten Kritiker. Doch ihre Kritik, die sich darin begründete, daß  - plakativ formuliert -  keine ausreichende Phänomenologie zur verwendeten Mathematik existiert(e), wurde von den akademischen Zeitgenossen und akademischen Nachfolgern ergebnisorientiert ignoriert. Werner Heisenberg, Wolfgang Pauli, Paul Dirac, Julian Schwinger, Richard Feynman und Denkverwandte waren im Zuge indeterministischer Quantisierungsfantasien letztendlich von ihrem "mathematischen" Zauber so sehr berauscht, daß sie generell fehlende Phänomenologie durch bloße Rechenvorschriften ersetzten.

Am Rande bemerkt: Die phänomenologische Bedeutung des Planckschen Wirkungsquantums ist nicht wirklich geklärt. Tatsache ist, daß die Unteilbarkeit des Wirkungsquantums seit über hundert Jahren bis zum heutigen Tage noch nie begründet wurde. Max Planck hat sie nicht begründet, weil er das Wirkungsquantum (notgedrungen) für eine elementare mathematische Größe hielt, deren "Notwendigkeit" aus der Theorie folgte. Einstein hielt eine Begründung nicht für notwendig, weil er an Plancks "Deduktion" glaubte. Er verschob die Bedeutung des Wirkungsquantums, indem er die mathematische Größe als eine physikalische Größe interpretierte.

 

Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." [EM1]

[EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

 

 

Zur menschlichen Orientierung

Das intellektuelle Viereck: Mach   Boltzmann   Planck   Einstein

eine "Einschätzung" von  Engelbert Broda

 

 

Ein Mythos bezüglich mathematischer Fähigkeiten

Lee Smolin schreibt in

Lessons from Einstein’s 1915 discovery of general relativity, December 2015 u.a.

  ..."Einstein war weder sehr gut in Mathematik ausgebildet, noch sehr gut darin. Er war auf Freunde wie Marcel Grossman angewiesen, um ihm die Mathematik zu erklären, auf der die allgemeine Relativitätstheorie beruht. Und er war auf andere Freunde wie Michael Besso angewiesen, um die richtige Interpretation der Mathematik zu finden. Zeitgenossen stellten in der Tat fest, dass es viele Kollegen gab, die viel besser in Mathematik waren, wie John von Neumann. Im Gegensatz zu Newton erfand Einstein keine neue Mathematik, mit der er seine neuen Theorien ausdrückte. Die Allgemeine Relativitätstheorie verwendet Mathematik, die für die Mathematik gekrümmter Flächen und allgemeiner Geometrien entwickelt wurde, die in der zweiten Hälfte des 19. Jahrhunderts von Mathematikern entwickelt wurde. Einstein war der erste Physiker, der diese neue Herangehensweise an die Geometrie zur Beschreibung physikalischer Systeme nutzte. Aber er folgte dem Unterricht von Marcel Grossman beim Erlernen und Anwenden der Mathematik. In der Tat war Einstein nicht sehr gut darin, diese neue Mathematik anzuwenden. Nachdem er die Gleichungen der allgemeinen Relativitätstheorie aufgeschrieben und veröffentlicht hatte, wurden schnell Lösungen gefunden, die einfache Beispiele beschreiben. Diese beschreiben sehr symmetrische Situationen wie kugelsymmetrische Sterne und homogene, expandierende Universen. Diese Lösungen abzuleiten sind nun Hausaufgabenübungen in Grundstudiengängen der Allgemeinen Relativitätstheorie. Aber Einstein hat keine dieser einfachen Lösungen gefunden, es gibt tatsächlich keinen Beweis, dass er überhaupt danach gesucht hat. Sie wurden von anderen innerhalb weniger Wochen nach Veröffentlichung seiner Artikel gefunden.

Warum webte Einstein einen Mythos um seine Schöpfung der allgemeinen Relativitätstheorie? Was war sein Motiv, eine Fabel über die Rolle der mathematischen Schönheit bei der Schaffung der allgemeinen Relativitätstheorie zu erzählen? Der Grund könnte sein, dass er Propaganda machte, um das Interesse an der Arbeit zu fördern, die er unternahm, um der allgemeinen Relativitätstheorie nachzugehen. Dies zielte darauf ab, über die allgemeine Relativitätstheorie zu einer Theorie zu gelangen, von der er hoffte, dass sie sein Meisterwerk sein würde, eine einheitliche Theorie aller Phänomene, die nicht nur die Schwerkraft, sondern auch den Elektromagnetismus einbezieht. Er nannte dies die einheitliche Feldtheorie. Sein Ziel war es, nicht nur alle Kräfte in der Natur zu beschreiben, sondern die Quantenmechanik zu ersetzen. Denn Einstein war ein enttäuschter „Elternteil“, als es um das zweite seiner „theoretischen Kinder“ ging. Er hatte zu Beginn des 20. Jahrhunderts mehr als jeder andere getan, um die Quantentheorie hervorzubringen. Aber als diese Theorie in den 1920er Jahren von anderen endgültig formuliert wurde, war er mit dem Ergebnis sehr unzufrieden. Die Quantentheorie machte Unbestimmtheit und Wahrscheinlichkeit grundlegend und Einstein lehnte dies ab. Er suchte eine tiefere Beschreibung, die eine vollständige und deterministische Beschreibung jedes einzelnen Phänomens liefern würde. Er hoffte, dass dies seine einheitliche Feldtheorie sein würde."...

 

Einsteins kritische Äußerungen insbesondere zur Quantenmechanik führten zu seiner Isolation. Er war zwar ein "Medienstar" aber wissenschaftlich ab Mitte 30 ohne (große) Bedeutung.

 

 

Claes Johnson beschreibt das in seinem Buch »Dr Faustus of Modern Physics« u.a. wie folgt,

"Einstein: Die Ikone der modernen Physik

Die Beziehung zwischen der modernen Physik und Albert Einstein kann wie folgt zusammengefasst werden: Einstein initiierte die Entwicklung der modernen Physik als (inkompatible) Kombination von Quantenmechanik und Relativitätstheorie, als Patentangestellter im Alter von 25 Jahren. Die Physik-Community nutzte Einstein als Ikone der modernen Physik und beurteilte ihn im Alter von 45 Jahren senil zu sein und nicht verstehen zu können, welche Aladdin-Lampe er berührt hatte. Dies ist eine klassische griechische Tragödie, deren Erfolg untrennbar mit dem Scheitern verbunden ist und deren Scheitern letztendlich das Spiel ausmacht. Es ist eine wahre Geschichte über einen Doktor Faustus, der seine junge Seele an Luzifer den Teufel verkauft, um Zugang zur Magie der Wissenschaft zu erhalten, und den Preis dafür zahlt, der Hölle bereits auf dieser Welt gegenüberzutreten, wenn die Wissenschaft, die er am meisten schätzt im Leben von ihm genommen wurde."

 

 

Fatalerweise avancierten aus erkenntnistheoretischer Sicht Differentialgeometrie- und Quantenfeld-Fantasien zu neuen Denkdogmen. Heute bestimmen nicht messbare postulierte Theorieobjekte, deren gewünschte mathematische Symmetrien und willküraffine Substrukturthesen das Denken der Theoretischen Grundlagenphysik. Das diese Konstruktionen u.a. weder konsistent noch alternativlos sind, wird im Folgenden ausgeführt.     

 

 

Was ist und was darf sein?

Die mit der Elementarkörpertheorie verbundenen generellen inhaltlichen und begrifflichen Schwierigkeiten basieren auf ihrer "unglaublichen" Einfachheit.

                              

Ein phänomenologisch begründetes, konsistentes Denkmodell mit einer konstruktiven "Beschreibungsverarmung" auf eine sinnerfahr- und mess-bare Primärgrösse, mathematisch ausgedrückt durch einen Radius, welches exakte, formal-analytische Lösungen und konkrete Berechnungen zulässt, die in guter bis sehr guter Übereinstimmung mit experimentellen Grössen sind, erzeugt einen reflexartigen Denkmodell-Ablehnungsprozess. Dieser basiert nicht auf logischer Argumentation sondern ist das Ergebnis mehr als 100-jähriger Indoktrination in Richtung realobjekt-feindlicher Grundlagenphysik. Die negativ-soziologischen Aspekte wurden spätestens seit Beginn der Glaubensfestigung des Standardmodells der Teilchenphysik (SM) in den 1970er Jahren mit jedem weiteren postulierten Elementarteilchen und assoziierten neuen Theorieelementen potenziert.

Für einen unbetreuten Quantenfeldtheoretiker dürfte es sinnlos sein, hier weiterzulesen. Der interessierte Laie hat in der Regel die schwere Last der antrainierten Systemgläubigkeit zu tragen, die er nicht einfach so abwerfen kann.

Psychologie der Masse

Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, daß dem oft nicht so ist, insbesondere wenn es sich um wissenschaftliche Themen handelt. Alle verbreiteten Standardmodelle, insbesondere wenn diese über größere Zeiträume herrschen, beinhalten Machtpositionen und Versorgungsstrukturen. Die Machthalter und Nutznießer werden alles tun um diese Zustände aufrecht zu erhalten.

Inhalts-analytisch erstaunlich ist die Tatsache, daß die "großen" Standardmodelle der Physik sprich das Standardmodell der Elementarteilchenphysik (SM) und das Standardmodell der Kosmologie (ΛCDM-Modell) sowie vermeintlich konkurrierende Modelle (Stringtheorien) und die gewünschte SM-"Erweiterung" SUSY (Supersymmetrie) keinerlei rational logischer Kritik standhalten, wie im Zusammenhang mit der Elementarkörpertheorie an zahlreichen Beispielen ausgeführt wird. Einzig das soziologische "Argument", daß sich doch nicht zehntausende mathematisch hervorragend ausgebildete Wissenschaftler über mittlerweile mehrere Generationen, mit Modellen beschäftigen, wenn diese bedeutungslos wären, wird zum finalen Schlag ins Felde geführt. Dieses schwerwiegende allgemein-psychologische "Argument" ist sehr gut erprobt, wie die Beständigkeit und Macht der irrationalen Weltreligionen leidvoll bestätigen. Postulierte Quarks oder postulierte Superpartner sind exemplarisch wie Adam und Eva. SM und Artverwandtes sind heilige Schriften der Theoretiker. Dort herrscht die Lagrangedichte und produziert stetig Willkürliches.  

Die Zunahme der Existenz moderner, aufgeklärter Zeitgenossen ist ein Mythos. Das Gros der Menschen ist (auch) im 21.Jahrhundert weit entfernt von basisnahen analytischen Argumentationen. Das betrifft auf eine sehr spezielle Art und Weise Theoretische Physiker. Die literaturgelernten handwerklichen mathematischen Fertigkeiten dieser stehen in keinem Verhältnis zu den irrationalen Postulaten der Anwender.     

 

 

Bevor unnötig Mißverständnisse aufkommen, Spiritualität ist für den analytisch denkenden, von kulturreligiösen Indoktrinationen befreiten Selbst-Denker kein "Problem". Denn die Kernfrage, woher "wir" kommen, ist berechtigt.

Metaphysische Betrachtungen können sicherlich eine große Strahlkraft besitzen und emotional attraktiv sein. Die grundsätzliche Problematik im Rahmen erkenntnistheoretischer Fragen ist die stets verbleibende Beliebigkeit. Um letztendlich als physikalisches Denkmodell existent sein zu können müssen Thesen formalisierbar und experimentell „meßbar“ sein.

Entstehungsmythen, egal welcher Ausrichtung, gehören nicht in Denkmodelle zur Materiebildung.

Die Welt der Götter ist "bestenfalls" ein unterhaltsames Psycho-Konzept für Glaubensabhängige aber kein meßtechnisch erfassbares Objekt. Die Unterschiede zwischen »Geistern und Dämonen« und »Dunkler Energie und Dunkler Materie« sind marginal. Die Verdrängung realphysikorientierter Plausibilität zu Gunsten Logik beraubter Denkmodelle (ΛCDM-Modell, SM, SUSY) charakterisiert ein seit Jahrzehnten anhaltendes modernes Trauerspiel. Wir erleben mit der heutigen etablierten Standardmodellphysik ein erneutes, doch diesmal deutlich komplexeres, Phlogiston-Drama. "Willkommen" im Barock 2.0 sozusagen. Nicht die Mathematik, die generell nicht zwischen Staub und Staubsauger unterscheiden kann, ist "falsch", sondern die mathematisch formulierten, willkürlich postulierten Denkkonstrukte sind es, die bei genauer Sicht schon einfachster Logik entbehren und letztendlich keinen Erkenntnisgewinn generieren.

Ein geschichtlicher Rückblick zeigt, daß Leute die auf Fehler aufmerksam machen, damit rechnen müssen, daß man ihnen jahrzehntelang nicht glaubt, während jene die im Rahmen bestehender Denkmodelle spektakuläre "Luftnummern" publizieren, honoriert und hofiert werden. Kritiker werden von der Masse als unliebsame Störer empfunden. Mit den Worten Gustave le Bons „Nie haben die Massen nach Wahrheit gedürstet. Von den Tatsachen, die ihnen mißfallen, wenden sie sich ab und ziehen es vor, den Irrtum zu vergöttern, wenn er sie zu verführen vermag. Wer sie zu täuschen versteht, wird leicht ihr Herr, wer sie aufzuklären sucht, stets ihr Opfer.“ 

Wer Gruppenzugehörigkeit anstrebt wird nicht zum kritischen Denker. Logische und methodische Analysefähigkeiten, das Wissen um historische Zusammenhänge, selbsterarbeitete Grundlagenkenntnisse statt literaturreproduzierter, Ehrgeiz, Selbstdisziplin und eine gute Portion Egozentrik sind Grundvoraussetzungen für selbständiges Denken und Handeln. 

 

 

Die Elementarkörpertheorie befasst sich insbesondere mit der Frage, wie Masse und Raum basisnah miteinander verknüpft sind und im „Zusammenspiel“ zu verständlichen Materiebildungen führen, die sich näherungsfrei und ohne freie Parameter formal-analytisch - sowohl mikroskopisch als auch korrespondierend makroskopisch - berechnen lassen.

Konträr zur Aussage der Standardphysik, die vier Grundkräfte postuliert, lässt sich Elementarkörper basierend - auf Grund der (skalenkorrespondierenden) Masse-Raum-Kopplung - jedwede Wechselwirkung auf das Masse-Radius-Verhältnis der interagierenden Wechselwirkungspartner reduzieren. Das führt zu einer konstruktiven Beschreibungsverarmung, die entweder durch die Radien oder deren reziprok proportionale Massen ausgedrückt werden kann. Mit Hilfe dieser einkomponentigen sprichwörtlichen Minimalbeschreibung lassen sich Materiebildungsmöglichkeiten verstehen und formal analytisch exakt berechnen.

statt  4 Grundkräften     →    Masse - Radius - Kopplung

 

 

Die Selbstverständlichkeit, daß die Wegstrecke auf einer Kugeloberfläche nicht der "geradlinigen" Entfernung zwischen den Punkten A und B entspricht, bedarf keiner Abstraktion.

 

Daraus ergibt sich Elementarkörper basierend anschaulich die Compton-Wellenlänge λC als Masse-Äquivalent. 

Aus dieser Betrachtung folgen "geometrisch" massespezifische Radien (λC→r0). Die Frage, wie "(werte-)sicher" die mit den comptonwellenlängen-assoziierten (Ruhe-)Massen inhärenten (Ruhe-)Radien (r0(m0)) sind, ist "leicht" zu beantworten: Comptonwellenlängen sind (auch) Meßgrössen.  [ CODATAC(Proton)  CODATAC(Elektron) ]

Dieses Elementarkörpertheorie basierende fundamentale Wissen wird u.a. durch Meßergebnisse im Rahmen (differentieller) Streuquerschnitte elastischer und inelastischer Streuungen bestätigt und steht gleichzeitig in einem eklatanten Widerspruch zu den Aussagen der Elementarteilchenphysik.

 

Sekundäre Grössen

Losgelöst vom Denkmodell existiert keine Masse, die nicht auch eine Energie besitzt. Doch sowohl Masse- als auch Energie-Begriff sind sekundärer Art. Das heißt, "man" benutzt sie häufig, aber keiner kann im Rahmen der herrschenden Physik eine (konsistente) phänomenologische Erklärung liefern, was Masse und Energie eigentlich sind. Es existiert keine primäre Begrifflichkeit.

 

"Es ist wichtig, einzusehen, dass wir in der heutigen Physik nicht wissen, was Energie ist."...

Richard Feynman

"It is important to realize that in physics today, we have no knowledge of what energy is."...

 

Die Verwendung von sekundären Begriffen in der Physik ist nicht nur weit verbreitet, im Rahmen der (theoretischen) Grundlagenforschung gibt es auf diesem Gebiet ausschließlich sekundäre Begriffe".

Verkünder und Versteher sekundärer Begriffe glauben an die suggestive Strahlkraft. Sie haben "irgendwie" ein gutes Gefühl der wissenschaftlichen Nähe, wenn sie beispielsweise von elektrischer Ladung, Photonen, Masse, elektrischem Feld oder Gravitationsfeld hören, über diese sprechen und diese Begrifflichkeiten respektive Grössen in Formalismen einfügen. Doch alle Denkmodelle welche auf sekundäre Begriffe fussen sind  - insbesondere aus epistemologischer Sicht -  nicht erkenntnis-tragfähig.

Ohne Übertreibung kann behauptet werden, daß (nur) die Elementarkörpertheorie sekundäre Begriffe zur Materiebildung auf die primäre Grösse sprich den (Objekt-)Radius der wechselwirkenden Körper konstruktiv beschreibungsverarmend "reduziert". Radialsymmetrie, ausgedrückt durch den Radius (r), steht hier für die sinnlich erfahrbare und physikalisch messbare Objekt- respektive Raum-Grösse. Räumliche Ausdehnung ist primär erfahr- und messbar. Mit dieser Annahme lassen sich sowohl charakteristische Grössen zweikörperbasierender mikroskopischer "Entitäten", wie das Wasserstoffatom oder das Neutron phänomenologisch konsistent erfassen und berechnen als auch charakteristische Grössen makroskopischer Vielteilchensysteme.

 

Was ist Masse?

In der Elementarkörpertheorie ist die Ruhe-Masse m0 ein Maß für die Oszillationsfrequenz des Elementarkörpers. Die radius-kleineren Elementarkörper besitzen eine größere Masse, da diese äquivalent zur (möglichen) Bewegung der oszillierenden Oberfläche ist. Masse ist also im Bild des Elementarkörpers äquivalent zur inneren Bewegung und wird über die reziproke Proportionalität auf den Radius zurückgeführt. Details siehe exemplarisch zum Verständnis die Ausführungen zur Impulsmasse-Inversion.

 

 

Theorieforderung und empirischer Befund

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch, wie im Rahmen der Standardmodelle üblich, die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen.

Beispiel: Das Standardmodell der Elementarteilchenphysik (SM) zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen. Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen. Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung "verletzt", zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch SM-postuliert Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen.

 

Quantenchromodynamik (QCD) - Quark-Parton-Modell (QPM)

Das in den sechziger Jahren von Richard Feynman entwickelte Quark-Parton-Modell (QPM) beschreibt Nukleonen als Zusammensetzung grundlegender Bauteile, die Feynman Partonen nannte. Diese Bauteile wurden daraufhin mit den wenige Jahre zuvor gleichzeitig von Gell-Mann und Zweig postulierten Quarks identifiziert.

Es handelt sich um eine komplexe Theorie-Situation und assoziierten theoriebeladenen (Hochenergie-)Experimenten, dessen Verständnis von diversen Aspekten und einer ganzen Reihe von Postulaten geprägt ist. Wie das (hier relativ einfach beschriebene) verschachtelte Theorie-Experiment-Konstrukt aussieht, siehe stellvertretend die Ausführungen (Teil 1 -3) des Instituts für Kern- und Teilchenphysik Dresden.

Teil1 scheitert früh an den auf „theorieinternen“ Annahmen beruhenden Interpretationen des vorgestellten Modells.

Dies ist bemerkenswert, insbesondere das Neutron als elektrisch neutrales Teilchen sollte verschwindendes magnetisches Moment aufweisen. Dies weist bereits darauf hin, dass Protonen und Neutronen nicht punktförmig sind, sondern eine innere Struktur besitzen

Ist das magnetische Moment des Neutrons wirklich ein Beweis für eine Substruktur? Oder ist diese Annahme nur eine theoriebeladene Meßwert-Interpretation des Standardmodells? 

Die Interpretation einer Neutron-Quarks-(Sub-)Struktur verliert ihre Bedeutung, wenn man die Situation (denkmodellunabhängig) zahlenanalytisch untersucht. Die vermeintlich anomalen magnetischen Momente von Elektron und Proton sowie des Neutrons sind letztendlich eine Kombination aus den "semi-klassisch"  - einfachst zu berechnenden - "normalen" magnetischen Momenten und messungsinhärenten Beiträgen, die von dem Magnetfeld, welches zur Messung verwendet wird herrühren. Diese qualitative Aussage läßt sich (im Einklang mit den Meßwerten) konkretisieren. Siehe weiterführend die Ausführungen zum Neutron aus Sicht eines masse-radius-gekoppelten Modells, mit dem sich sowohl die Masse als auch das magnetische Moment des Neutrons aus der neutronbildenden Wechselwirkung von Elektron und Proton phänomenologisch verständlich und genau berechnen lässt.

Das Quark-Parton-Modell ist ein exzellentes Lehrstück aus der Reihe der Glaubensbekenntnisse (wie einst die Epizykel- oder Phlogistontheorie). Versuchsergebnisinterpretationen führten zu einigen theoretischen Annahmen, die dann mittels weiterer Interpretationen mit Hilfe von neuen Theorieobjekten und postulierten Wechselwirkungen schnell eine substrukturierte Komplexität erreichen, die letztendlich jegliche unpassende Versuchsergebnisse durch entsprechende Maßnahmen eliminieren. Erst waren es die postulierten Quarks. Diese erforderten eine Zerstückelung der elektrischen Elementarladung. Dann folgten Gluonen, da Quarks keine entsprechenden Spinbeiträge der Nukleonen lieferten. Danach wurden ergänzend so genannte »Sea-Quarks« eingeführt, da auch die postulierten Gluonen keinen entsprechenden Spinbeitrag leisteten. Details des „etablierten“ Nukleonenmodells siehe Teil 2 und Teil 3 (Das Quark-Parton-Modell) … Die Analyse der Gläubigen endet dann mit dem Glaubensfinale

Das Nukleon ist demnach aufgebaut aus Valenzquarks, Seequarks und Gluonen. Für die Eigenschaften des Nukleons (und aller Hadronen) wie etwa Ladung, Masse und Spin ist aber nur die Zusammensetzung der Valenzquarks verantwortlich. Man spricht daher auch häufig von Konstituentenquarks und meint damit die Valenzquarks plus die sie umgebende Wolke von Seequarks und Gluonen. Seequarks und Gluonen tragen nicht zu den (Netto-) Quantenzahlen bei, wohl aber zur Masse des Hadrons, da sie Energie und Impuls tragen. Während die nackte Masse der Valenzquarks nur einige MeV/c² beträgt, tragen die Konstituentenquarks den jeweiligen Bruchteil der Hadronenmasse, im Falle des Nukleons also etwa 300 MeV/c². Diese wird also überwiegend durch die Gluonen und Seequarks aufgebracht. Mit anderen Worten: Der überwiegende Teil der Hadronmassen (und damit der sichtbaren Masse im Universum) wird nicht durch die nackten Massen der Konstituenten getragen, sondern dynamisch durch die Energie der Wechselwirkung generiert!  

Ist das nicht schön. Da gibt es Wolken und Nackte und das gottanaloge Unbestimmte, was ca. 99% ausmacht, wenn man die postulierten Massen der „materiebildenden“ Quarks zugrunde legt. Aber hier ist das Glaubensmärchen noch nicht wirklich am Ende. In einem größeren Bild (ΛCDM-Modell) wird nun postuliert, daß die sichtbare Masse wiederum nur einen kleinen Teil der Masse im Universum ausmacht. Größtenteils besteht das Universum für die heutigen Standardmodell-Gläubigen aus Dunkler Materie und Dunkler Energie. Dunkel steht hier für nicht nachweisbar. Kein Wunder das der Vatikan Jahr für Jahr hoch erfreut zum Wissenschaftsgebet einlädt. Daß weder den Verkündern noch dem Volk ein Licht aufgeht hat Theodor Fontane so formuliert:

Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.«

 

 

Wie weit sich die Standardmodellphysik von wesentlichen Fragestellungen und rational logischen Aspekten entfernt hat, verdeutlichen folgende Beispiele.

Der Radius eines postuliert asymmetrisch substrukturierten, ladungsfragmentierten Objektes ist eine phänomenologische Unmöglichkeit. Da macht es auch keinen Unterschied ob dieser theoriebeladen als elektrische oder magnetische Größe definiert wird. Siehe als prominentestes Beispiel den (Ladungs-)Radius des Protons.

Eine zentrale Frage der Physik lautet, warum ist das Masseverhältnis von Proton zu Elektron so, wie es ist? Diese Frage ist im Rahmen des Standardmodells sinnleer. Da das Elektron im SM als elementar(-strukturlos) angesehen wird. Ein Vergleich von einem strukturlosen mit einem substrukturierten Objekt ist - gleichgültig wie die Substrukturierung zustande kommt - "gegenstandslos".

 

 

Die Natur der Strahlung ist aus Sicht der herrschenden Denkmodelle vollkommen ungeklärt bzw. ein inkonsistentes Durcheinander. Hier stellt sich in einer konstruktiven erkenntnistheoretischen Auseinandersetzung die Frage, inwieweit das erweiterte Konzept der „Austauschteilchen“ respektive der Eichbosonen eine realphysikalische Gültigkeit besitzt. Denn das zeitstabile reale Photon ist als Entität grundlegend verschieden von den massebehafteten Vektorbosonen und dem Higgs-Boson, sowie von den selbstwechselwirkenden, masselosen Gluonen. Das Photon zum Austauschteilchen bzw. Vektorboson zu erklären, ist, außerhalb der elektroschwachen Theorie, QED bzw. des SM stark diskussionswürdig, um es moderat auszudrücken. Auch ohne Kenntnis der Elementarkörpertheorie stellt sich insgesamt die epistemologische Frage nach der Realität der innerhalb des SM theorienotwendigen Vektorbosonen und des theorienotwendigen Higgs-Bosons. Details zum Standardmodell und Higgs-Mechanismus siehe entsprechende Kapitel.

SM-"Ergebnisse": Die SM-basierenden postulierten theoretischen Implikationen beeinflussen stark die Versuchsinterpretationen der SM-Protagonisten... Das resultierende komplexe Erwartungskonstrukt führt zu einer reihe von fatalen Mißverständnissen...

                                                    

Exemplarisch sind nicht die "typischen" energieabhängigen Elektronenradien kleiner als 10-19 [m] in Verbindung mit Teilchenbeschleunigern "falsch" (gemessen), sondern die von der Elementarteilchenphysik resultierenden Schlußfolgerungen bezüglich ruhender Elektronen sind falsch.

                                                    

Die Elementarkörpertheorie (hingegen) „beschreibt“ konsistent sowohl das Verhalten bei „konventionellen“ Streu-Energien der Streu-Partner (des Elektrons) als auch hochenergetisch im Teilchenbeschleuniger.

Vorweg: Der differentielle Streuquerschnitt dσ/dΩ nimmt für Elektronen bei „konventionellen“ Streu-Energien stets die Gestalt dσ/dΩ = (e²/me4πε0c²)² · fW an, wobei der funktionale Zusammenhang fW die spezifische Art der Streuung angibt. Das Verständigungs-Problem der herrschenden Physik bezüglich des (ungeliebten) klassischen Elektronenradius re(kl) löst sich auf, wenn man den wiederkehrenden Term (e²/me4πε0c²) masse-radius-gekoppelt-energetisch analysiert.

                                                    

Letztendlich besteht die Beziehung (e²/me4πε0c²) aus dem Verhältnis: elektrischer Energie zur Gesamtenergie (α/4)  und dem Elektronenmasse inhärenten Elektronenradius re [in dσ/dΩ = re · (α/4) · fW], der multipliziert mit π/2 der Comptonwellenlänge des Elektrons entspricht (λe re · π/2).

Des Weiteren ändert sich der Objektradius mit der Geschwindigkeit radialsymmetrisch und nicht nur eindimensional in Bewegungsrichtung, wie aus mehrfacher Sicht fälschlicherweise SRT-basierend insbesondere für den Teilchenbeschleuniger im Rahmen der herrschenden Physik "gedacht" wird. Die Elementarkörpertheorie liefert auch hier ein phänomenologisch begründetes, konsistentes, realobjekt-orientiertes Denkmodell.  

Zu diesem Verständnisproblem gibt es die größten emotionalen Ausbrüche und eine methodische Plausibilitäts-Verweigerung der Standardphysiker und deren Anhänger (siehe zum "Kennenlernen" exemplarisch das Kapitel Elektronenradius). 

 

 

 

Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen so hoch wie möglich sein. Es geht nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige Lösungen liefert. Diese Frage ist stets beantwortbar.

Das Denkmodell masse-radius-gekoppelter, radialsymmetrischer, substrukturloser Elementarkörper und deren Wechselwirkungsmöglichkeiten ist nicht nur in Bezug auf Konsistenz, Einfachheit, realobjektorientierter Anschauung den Standardmodellen gegenüber "überlegen", es liefert auch genau das, was ein brauchbares Denkmodell liefern muß, dies sind konkrete phänomenologisch begründete Gleichungen ohne freie Parameter, dessen Ergebnisse in guter bis sehr guter Übereinstimmung mit experimentellen Messwerten sind.

                                                            

Die jetzige, auf Mathematik basierende, realobjektbefreite Grundlagen-Physik bedarf dringend einer naturphilosophisch orientierten Reglementierung. Hier ist (, wieder aktuell,) Karl Popper [KP] zu zitieren: ..." Unsere Untersuchung läßt erkennen, daß selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, daß das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei."

[KP] K. Popper, Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4;The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959.

Glücklicherweise löst sich das (erkenntnistheoretische) "neobarocke Phlogiston-Drama", welches eine Neuverkörperung durch derzeitige Standardmodelle und deren gewünschte Erweiterungen bekommen hat, masse-radius-gekoppelt in Nichts auf.

Wer glaubt, hier handelt es sich nur um "starke" Worte, die - "um sicher zu gehen" - letztendlich im Rahmen der hochpräzisen QED-Voraussagen nicht wirklich ernst zu nehmen sind, der wird zu seiner großen Überraschung im Rahmen der masse-radius-gekoppelten Denk-Analyse der anomalen magnetischen Momente "kalt erwischt" und in eine schwere SM-Glaubenskrise gestürzt, siehe das Kapitel Anatomie anomaler magnetischer Momente  

                                        

... Am Ende zerbröselt auch die mathematische Voraussage-Präzession der QED epizyklisch an der masse-radius-gekoppelten Realphysik.  

 

 

Für ein  anschauliches Verständnis und resultierend für die phänomenologisch begründeten Elementarkörpertheorie basierenden Gleichungen sind nachweislich weder eine variable Zeit, noch mathematische Raum-Zeit-Konstrukte, noch irgendeine Form der Substrukturierung notwendig. Die spezielle Relativitätstheorie knüpft zwar an das physikalische Experiment von Michelson & Morley an, beruht aber lediglich auf dessen mathematischer Deutung durch Lorentz. Die Relativierung der Zeit ist physikalisch nicht begründet, sondern nur das Ergebnis einer mathematischen Annahme. Auch die Herleitung der Masse-Energie-Äquivalenz ist unter formalanalytischen Gesichtspunkten weit weniger "eindeutig geklärt", als es die Spezielle Relativitätstheorie (SRT) suggeriert. Ohne das Gedankenexperiment Einsteins und den Rechenweg an dieser Stelle explizit auszuführen, folgt gemäß Albert Einstein respektive gemäß SRT E = mc² aus einer  "klassischen Grenzfall" - Approximation mittels Taylorreihenentwicklung. Streng genommen ist diese Herleitung - salopp formuliert - nicht "zwingend", da hier ergebnisorientiert die gewünschte Lösung die Näherung (mit-)bestimmt.

Was (auch) jeder wissen könnte aber viele ungern wahrhaben wollen…

Die Berechnung von Grundzustandsenergien ist weder quantenmechanisch noch quantenelektrodynamisch begründet. Da ein signifikant maßgebender Anteil von dem Verhältnis der wechselwirkenden Massen bestimmt wird. Es gibt weder QM und schon gar nicht QED basierend die Möglichkeit die reduzierte Masse mred = mA / (1 + mA/mB) quantenfeld-phänomenologisch einzuführen. Die reduzierte Masse ist – ob man es wahr haben will oder nicht - im Rahmen der Standardphysik historisch aus der „Newtonschen Himmelsmechanik“ abgeleitet. Das bedeutet im Klartext, daß im Sinne atomarer Wechselwirkungen, diese weder QM noch QED begründet sind. QM und QED sind „epizyklisch“. Übrigens: Auch das Gleichsetzen einer elektrischen Zentripetalkraft mit einer masse-abhängigen Zentrifugalkraft ist zwar mathematisch kein Problem aber im Rahmen der hiesigen Physik phänomenologisch unbegründet und erinnert an die Epizykeltheorie. Unabhängig von den Massen der Ladungsträger „erleiden“ zwei betragsmäßig gleiche Ladungen keine Massen-Verschiebung, da die gravitative Wechselwirkung (exemplarisch Proton-Elektron) um ~ 40 Zehnerpotenzen kleiner ist. Das verwendete suggestive Modell ist offensichtlich phänomenologisch unbegründet. Denn die Frage, wie wechselwirkt eine Masse mit einer Ladung bleibt unbeantwortet. 

In einem größeren Bild sind plakative Fragen… ob Spezielle Relativitätstheorie (SRT) und Allgemeine Relativitätstheorie (ART), Quantenmechanik (QM) und allgemein Quantenfeldtheorie(n) (QFTs) als Denkmodelle "richtig" oder "falsch" sind, irrelevant. Denn die Frage müsste im Einzelfall lauten, inwieweit ein Denkmodell konsistent ist und erkenntnistheoretisch wertvolle Antworten geben kann. Wenn wir über SRT, ART, QM und QFTs "reden", dann reden wir bei genauer Sicht ausschließlich über mathematische Konzepte und im "Kern" über axiomatische Randbedingungen. Es ist sinnleer ein axiomatisch begründetes Konzept in Frage zu stellen. Die fundamentalen Probleme der Standardmodelle kommen u.a. mit den theoriebedingten Näherungen und Idealisierungen, sowie inkonsistenten Erweiterungen und willkürlichen Zusatzannahmen. Keines dieser Denkmodelle liefert näherungsfreie Lösungen zur Materiebildung. SRT, ART, QM und QFTs sind nicht korrespondierend und auf Grund der postulierten theoretischen Implikationen wortwörtlich unvereinbar. [*Hier wird gegenargumentiert, daß z.B. die Dirac-Gleichung eine "Synthese" von SRT und QM darstellt. Warum das realobjektorientiert nicht der Fall ist, siehe hier.]

 

______________________________________________

Amüsant formuliert und auf den Punkt gebracht beschreibt Claes Johnson, ein Professor für Angewandte Mathematik, das quantenmechanische sowie das spezielle Relativitätstheorie Existenzproblem..

Claes Johnson über QM und RT

In Bezug auf die Krise der modernen Physik wird allgemein anerkannt, dass ein Grund dafür ist, dass die beiden Grundbausteine Relativitätstheorie und Quantenmechanik widersprüchlich / inkompatibel sind. Aber zwei Theorien, die physikalisch sind, können nicht widersprüchlich sein, weil die existierende Physik nicht widersprüchlich sein kann. Aber unphysische Theorien können durchaus widersprüchlich sein, da Geister widersprüchliche Eigenschaften haben können.

Die spezielle Relativitätstheorie von Einstein ist unphysikalisch, da die Lorentz-Transformation keine Transformation zwischen physikalischen Koordinaten ist, wie von ihrem Erfinder Lorentz betont wird, sondern vom Patentangestellten Einstein missverstanden wurde, der glaubt, dass die transformierte Zeit real und damit relativ ist. Die Quantenmechanik ist unphysisch, weil ihre Interpretation statistisch ist, was sie unphysisch macht, weil die Physik keine Versicherungsgesellschaft ist. Hier hatte Einstein Recht, dass Gott nicht würfelt.

Professor of Applied Mathematics, Royal Institute of Technology (KTH) Stockholm , Sweden

Claes Johnson Blog

______________________________________________

 

Zur Erinnerung: Auch die Epizykeltheorie als "frühes Standardmodell" scheiterte nicht an der verwendeten Mathematik, die war stets richtig, sondern letztendlich an der phänomenologisch anschaulichen Nichtgeozentrik. Wink mit dem Zaunpfahl: Es wäre für heutige Standardmodell-Mathematiker ein leichtes "Spiel" eine moderne Epizykeltheorie auf Grundlage zusätzlicher (freier) Parameter und einiger Zusatzannahmen ins Leben zu rufen. An der Mathematik und fehlender Willkürbereitschaft würde diese "Theorie" sicherlich nicht scheitern, wie noch ausführlich im Rahmen Moderner Standardmodelle erörtert wird.

 

 

(Historisch experimentelle) "Ausgangsbetrachtung"

Elementarkörper-Entwicklungs-Gleichungen

Die zeitabhängigen Elementarkörper-Entwicklungs-Gleichungen leiten sich aus der beobachteten Invarianz der (Vakuum-)Lichtgeschwindigkeit ab. Der fundamentale Unterschied zur (Speziellen) Relativitätstheorie respektive zur Lorentztransformation ist der wechselwirkungsnotwendige radialsymmetrisch-dynamische Charakter dieser Gleichungen.

 

                 

Aus Sicht der realphysikorientierten Elementarkörpertheorie bleibt von der Relativitätstheorie (nur) der Lorentzfaktor γSRT als eindimensionaler, statischer Fall einer Elementarkörpertheorie basierenden allgemein gültigen Formulierung γdyn ("übrig"):

γSRT =

inertialsystembehaftet, statisch und eindimensional

γdyn =

inertialsystembefreit, radialsymmetrisch, dynamisch

 

                 

Der dynamische Faktor γdyn ist inertialsystembefreit und wirkt radialsymmetrisch. γdyn lässt sich "einfachst" aus der Elementarkörpergleichung r(t) mittels dr/dt ableiten :

 

 

»eΥch«

[(Eich-)Basisgrössen der Elementarkörpertheorie]

Zeitstabiles Elektron und zeitstabiles Proton respektive Elektronen- und Protonenmasse ("alternativ" deren masseinhärente Radien) sind zwar gestalterisch von realteilchenursächlicher Bedeutung und führen in der makroskopischen Betrachtung (mittels Gravitationskonstante) zur Endgrösse (Gesamtmasse und Gesamtradius) des Universums, aber die (allgemeine) Elementarkörper-Phänomenologie als solche, ist nicht von diesen konkreten Massen abhängig.

Daraus folgt: Das Denkmodell der Elementarkörper begründet sich bzw. arbeitet  mit folgenden Beobachtungen respektive Beobachtungs-Größen: Invarianz der (Vakuum-)Lichtgeschwindigkeit c, der Gravitationskonstanten γ und der elektrischen Elementarladung e. Als (Mengen-)Postulat wird das Planksche Wirkungsquantum h als kleinste (skalare) Wirkung definiert, welche sich phänomenologisch und "rechnerisch" zwanglos aus der Elementarkörperdynamik ergibt : ΔE · Δt = (m0c²) · ( r0π/2c) = h. Details siehe das Kapitel Plancksches Wirkungsquantum. Auch der Term m0c² lässt sich direkt aus der Elementarkörperdynamik ableiten, Details siehe das Kapitel Herleitung der Masse-Energie-Äquivalenz.

 

 

[Der Vollständigkeit halber sei an dieser Stelle erwähnt, daß das Plancksche Wirkungsquantum h auch eine (indirekte) im Rahmen des Elementarkörpermodells phänomenologisch begründete Beobachtungsgrösse ist, wenn man als Ausgangssituation die ("korrekte") Massen- und Radius-Bestimmung des Protons als gegeben voraussetzt.]

 

 

 

Energetische Analogie

Bezogen auf den Elementarkörper drücken Größen wie Bahndrehimpuls, Spin, Geschwindigkeit, elektrische Ladung stets rein energetische Verhältnisse der radius-masse-gekoppelten, möglichen inneren Veränderungen bei Elementarkörper-Wechselwirkungen aus. In diesem Zusammenhang wird hier von energetischen Analogien gesprochen. Auf Grund der Radialsymmetrie reduziert sich die Betrachtung auf den (Elementarkörper-)Radius und im Rahmen von Elementarkörper-Wechselwirkungen plausibel auf die resultierende Veränderung des Radius, was in jedem Fall eine "konstruktive Beschreibungsverarmung" bedeutet.

 

 

 

Im Rahmen der Elementarkörpertheorie drückt die elektrische Elementarladung (e) und die damit assoziierte elektrische Energie E(e) ein anschauliches masse-radius-gekoppeltes energetisches Verhältnis aus.

Elektrische Ladung ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse (und dem Radius) des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Elementarkörpertheorie basierend sind jedoch alle Ladungswechselwirkungen anschaulich auf Masse-Radius-Kopplungen zurückzuführen. Elektrische Ladungen im Elementarkörper-Denkmodell kommen als (formales) Resultat der Masse-Radius-Kopplung bequemerweise nur implizit über Funktionen der Sommerfeldschen Feinstrukturkonstanten α vor. Von weiterer fundamentaler Bedeutung ist im direkten phänomenologischen Zusammenhang die Elementarkörperladung q0, die sich quantitativ aus dem Vergleich von elektrischer Energie zur Gesamtenergie ergibt, wie (noch) an verschiedenen Stellen explizit ausgeführt wird.

Konsequenterweise wird die Feinstrukturkonstante α Elementarkörper basierend energetisch bestimmt. Sie ergibt sich aus dem Vergleich von Gesamt-Energie und elektrischer Energie mittels der elektrischen Elementarladung e.

                        

Interessanterweise ist die »Planck-Skala« ein "früh-historisches" Indiz für die "Richtigkeit" der Masse-Radius-Konstantengleichung [F1]. Denn das Pendant zur "winzigen" Plancklänge ist die "riesige" Planckmasse, so wie es die Elementarkörpertheorie "voraussagt". Das Max Planck mittels Dimensionsanalyse nicht realisierte, daß aus energetischen Gründen nur die doppelte Planckmasse und nur die doppelte Plancklänge als maximale bzw. minimale  Einzelkörper-Dimensions-Grenze in Frage kommt, ändert nichts an der grundsätzlichen Masse-Raum-Kopplung der Planckgrössen. Details siehe: Planck-Grössen & Elementarquant

 

 

Besondere physikalische und epistemologische Bedeutung erlangt das Modell der phänomenologisch begründeten masse-radius-gekoppelten Elementarkörper durch die Ergebnis-Genauigkeit und Einfachheit der resultierenden Gleichungen, die stets auf leicht verständlichen, konsistenten Denkansätzen beruhen. Das exakte Ergebnisspektrum umfasst Größen vom Protonenradius, der Ionisierungsenergie des Wasserstoffatoms, der Herleitung der Sommerfeldschen Feinstrukturkonstanten aus Vergleich von elektrischer und Gesamt-Energie bis hin zu makroskopischen, wie der Temperatur der kosmischen Hintergrundstrahlung, um nur einige wichtige zu nennen. Die zugrunde liegenden Gleichungen sind korrespondierend skalen- und mengeninvariant.    

 

Elementarkörper basierende Korrespondenz im "aphoristischen Bild"

 

 

 

 

 

Allgemeiner Naturphilosophischer Ansatz

In einem allgemein verständlichen Denkmodell ist Mathematik nur Mittel zum Zweck. Nichts weiter als ein plausibilitäts-resultierendes, praktisches Ordnungs- und Formalisierungsinstrument.

Grundlegende Denkmodell-Aspekte lassen sich in Ankopplung an »globale Auffälligkeiten«, wie Gravitationskonstante, kleinste skalare Wirkung und Invarianz der Lichtgeschwindigkeit, nur intuitiv entwickeln. Ängste vor primärer Intuition sind unbegründet. Man muß eine Idee und weiterführend, aufbauend konsistente Ideen haben, um ein Denkmodell interdisziplinär verständlich gestalten zu können. Denkmodelle müssen absolut begriffstransformierbar sein, um eine epistemologische Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht außerhalb der Mathematik vermitteln lässt, ist im Rahmen eines physikalischen Denkmodells stets eine erkenntnistheoretische Nullnummer.

 

Objektivität ist die WahnvorstellungBeobachtungen könnten ohne Beobachter gemacht werden.

Heinz von Foerster ( 1911 – 2002)

Der Mond ist ein inhomogenes, makroskopisches Vielteilchenobjekt. Ohne seine Struktur zu kennen, lässt er sich aus der Ferne  - ohne Verwendung komplizierterer Denkmodelle – bereits im Rahmen der „Geometrischen Optik“ erkennen und als Objekt im „Lichtweg“ beschreiben. Bedeutet: Bezogen auf ein gewöhnliches Teleskop „sehen“ Beobachter diesen, wenn „Licht“ auf ihn „fällt“, welches in Richtung des Teleskops reflektiert wird. ABER: Kein „Licht“ bedeutet KEIN Mond bei Verwendung eines „Licht“-Teleskopes.

Was „da“ ist und was nicht ist grundsätzlich eine Frage der Wahrnehmungsmöglichkeiten. Auch wenn Sie den Mond nicht sehen, so wirkt dieser kontinuierlich gravitativ. Haben sie keine Möglichkeit Gravitation zu messen und wird der Mond nicht „bestrahlt“ ist er gemäß Ihrer Messmöglichkeiten auch nicht „da“.

Wie Brigitte Falkenburg bemerkt ist diese Aussage für subatomare Strukturen falsch (siehe "weiter unten").

Wir verfügen über keine allgemein anerkannte Wahrheitstheorie. Die Übereinstimmung von Aussage und Wirklichkeit kann nicht objektiv festgestellt werden. Dieser Sachverhalt wird insbesondere dann problematisch, wenn die Theorie bestimmt, was gemessen werden soll.

Mit den Worten Werner Heisenbergs (1931): „Zu jeder Messung einer quantentheoretischen Größe ist ein Eingriff in das zu messende System nötig, der das System unter Umständen empfindlich stört. Die Messung der Strahlungsenergie in einem mathematisch scharf begrenzten Teil eines Hohlraumes wäre nur möglich durch einen ”unendlichen“ Eingriff und ist deshalb eine nutzlose mathematische Fiktion. Ein praktisch durchführbares Experiment kann jedoch nur die Energie in einem Bereich mit verwaschenen Grenzen liefern.“ 

Zum Verständnis ein makroskopisches Gedankenexperiment: Stellen sie sich vor, sie verwenden zur Untersuchung des Mondes einen weiteren Mond und lassen nicht „etwas“ Licht sondern den Untersuchungsmond auf den zu untersuchenden Mond prallen (Kollision). U.a. in Anhängigkeit der Größe und Masse, des Aufprallwinkels und der Geschwindigkeit Ihres Testmondes wird Ihr zu untersuchendes Objekt nun während und „nach“ der Wechselwirkung mit Ihrem Testobjekt verformt, gespalten, …, (teils) zertrümmert und mit der Zeit werden die Trümmerteile gravitativ neue Strukturen bilden (können) oder „davon fliegen“…

 

Brigitte Falkenburg schreibt in Particle Metaphysics: A Critical Account of Subatomic Reality (2007) u.a.

"Es muss Schritt für Schritt transparent gemacht werden, was Physikerinnen und Physiker selbst als empirische Basis für das heutige Wissen der Teilchenphysik ansehen. Und es muss transparent sein, was sie im Einzelnen meinen, wenn sie von subatomaren Teilchen und Feldern sprechen. Die Weiterverwendung dieser Begriffe in der Quantenphysik führt zu ernsthaften semantischen Problemen. Die moderne Teilchenphysik ist in der Tat der härteste Fall für Inkommensurabilität im Sinne Kuhns".... Kuhn 1962. 1970

..."Schließlich ist die Theorieabhängigkeit ein schlechtes Kriterium, um zwischen sicherem Hintergrundwissen und unsicheren Annahmen oder Hypothesen zu unterscheiden."

... "Die subatomare Struktur existiert an sich nicht wirklich. Sie zeigt sich nur in einem Streuexperiment mit einer bestimmten Energie, also aufgrund einer Wechselwirkung. Je höher der Energietransfer bei der Wechselwirkung ist, desto kleiner sind die gemessenen Strukturen. Hinzu kommt, dass nach den Gesetzen der Quantenfeldtheorie bei sehr hohen Streuenergien neue Strukturen entstehen. Die Quantenchromodynamik (d. h. die Quantenfeldtheorie der starken Wechselwirkung) besagt, dass je höher die Streuenergie ist, desto mehr Quark-Antiquark-Paare und Gluonen im Inneren des Nukleons entstehen. Nach dem Modell der Streuung in diesem Bereich führt dies wiederum zu Skalierungsverletzungen, die tatsächlich beobachtet wurden.44 Dies wirft ein neues Licht auf Eddingtons alte Frage, ob die experimentelle Methode zur Entdeckung oder zur Herstellung führt. Offenbart die Wechselwirkung bei einer bestimmten Streuenergie die gemessenen Strukturen oder erzeugt sie diese?

44 Perkins 2000, 154; Povh et al 1999, 107 - 111

...“Es ist nicht möglich, einen gemessenen Querschnitt auf seine individuelle Ursache zurück zu führen. Keine Kausalgeschichte setzt einen gemessenen Formfaktor oder eine Strukturfunktion mit seiner Ursache in Beziehung“...

...“Mit den in Teilchenbeschleunigern erzeugten Strahlen kann man weder in das Atom hineinschauen, noch subatomare Strukturen sehen, noch punktförmige Strukturen im Inneren des Nukleons beobachten. Solches Gerede ist metaphorisch. Das einzige, was ein Teilchen sichtbar macht, ist die makroskopische Struktur des Targets“... 

...“Niels Bohrs Quantenphilosophie...Bohrs Anspruch war, dass die klassische Sprache unverzichtbar ist. Dies hat bis heute Gültigkeit. Auf der individuellen Ebene von Klicks in Teilchendetektoren und Teilchenspuren auf Fotos müssen alle Messergebnisse in klassischen Begriffen ausgedrückt werden. Die Verwendung der bekannten physikalischen Größen Länge, Zeit, Masse und Impuls-Energie auf subatomarer Ebene ist in der Tat auf eine Extrapolation der Sprache der klassischen Physik auf den nichtklassischen Bereich zurückzuführen.“

It must be made transparent step by step what physicists themselves consider to be the empirical basis for current knowledge of particle physics. And it must be transparent what the mean in detail when the talk about subatomic particles and fields. The continued use of these terms in quantum physics gives rise to serious semantic problems. Modern particle physics is indeed the hardest case for incommensurability in Kuhn’s sense.11 Kuhn 1962. 1970

After all, theory-ladenness is a bad criterion for making the distinction between safe background knowledge and uncertain assumptions or hypotheses. 

… Subatomic structure does not really exist per se. It is only exhibited in a scattering experiment of a given energy, that is, due to an interaction. The higher the energy transfer during the interaction, the smaller the measured structures. In addition, according to the laws of quantum field theory at very high scattering energies, new structures arise. Quantum chromodynamics (i.e. the quantum field theory of strong interactions) tells us that the higher the scattering energy, the more quark antiquark pairs and gluons are created inside the nucleon. According to the model of scattering in this domain, this give rise once again to scaling violations which have indeed observed.44 This sheds new light on Eddington’s old question on whether the experimental method gives rise to discovery or manufacture. Does the interaction at a certain scattering energy reveal the measured structures or does it generate them?

44 Perkins 2000, 154; Povh et al 1999, 107 – 111

It is not possible to trace a measured cross-section back to its individual cause. No causal story relates a measured form factor or structure function to its cause

With the beams generated in particle accelerators, one can neither look into the atom, nor see subatomic structures, nor observe pointlike structures inside the nucleon. Such talk is metaphorical. The only thing a particle makes visible is the macroscopic structure of the target  

Niels Bohr’s quantum philosophy…Bohr’s claim was that the classical language is indispensable. This has remained valid up to the present day. At the individual level of clicks in particle detectors and particle tracks on photographs, all measurements results have to expressed in classical terms. Indeed, the use of the familiar physical quantities of length, time, mass and momentum-energy at a subatomic scale is due to an extrapolation of the language of classical physics to the non-classical domain.

Bemerkenswert ist die Art und Weise wie Frau Hossenfelder Ihre Kollegen einschätzt. Sie schreibt in einem Erwiderungs-Kommentar zu Ihrem Blogartikel "CERN produces marketing video for new collider and it’s full of lies" am 7.Dezember 2018 [7.28 AM] u.a.

A video about a new scientific instrument whose funding is being discussed should leave the watcher with an reasonable impression what the instrument will do…

Of course the physicists watching this see nothing wrong with this. Because they know it's bullshit. And they have gotten used to this bullshit, so they think it's just business as usual. The moral corruption that has happened here is remarkable

Am gleichen Tag schreibt Frau Hossenfelder [12.36 PM] einem Kommentator namens Tommaso Dorigo   …”We all know you are a particle physicist and have stakes in the issue. I am not remotely surprised that you don't like me saying publicly what everyone in the business has known for decades.”… 

Dann wird es „noch spannender“. Sie schreibt in einem weiteren Erwiderungskommentar am 8. Dezember [2.49 AM]

…”We can only make it wisely if we look at the facts rather than let ourselves be guided by wishful thinking. That's why false advertisement like the above is a problem. People who don't understand the theories believe it. Even those who understand the theories are influenced by the overly optimistic outlook. I know they don't want to hear it, but cognitive biases and motivated cognition does influence the way we make decisions. Even as scientists. Especially in large groups.“…

… As I lay out in my book, theory development especially in high-energy physics is presently working badly. You can construct "predictions" for anything you want; therefore those predictions are utterly worthless.”…

Was man Frau Hossenfelder in jedem Fall zu Gute halten muß, ist ihre klare Sprache. Sie nennt die Dinge beim Namen. Siehe den Artikel von Kurt Marti aus August 2018 Teilchenphysik: Eine Physikerin spricht Klartext. Wie gut die öffentliche Meinung auf Linie mit der Systemphysik ist, läßt sich in den Kommentaren zu diesem Artikel feststellen. Die populärwissenschaftliche „Verklärung“ hat hier ganze Arbeit geleistet.

Im Hinblick auf naturphilosophisch wertvolle Aspekte verkörpert die formal logische Argumentation die Basis des konstruktiv kritischen Denkens und Handelns. Der Kritik eines bestehenden Denkmodells „folgt“ zwingend ein "neues" Denkmodell, sofern ein nachhaltiger Erkenntnisgewinn angestrebt wird. Jede noch so fundierte Kritik bedarf einer konstruktiven Alternative, solange diese nicht existiert „verpufft“ selbst die „beste“ Kritik.

Zum konstruktiven kritischen Denken und Handeln gehören Fähigkeiten und Fertigkeiten

…die Fähigkeit Argumente zu identifizieren

…die Fähigkeit die Qualität der Argumente prüfen zu können

…die Fertigkeit Alternativen identifizieren zu können

…die Fertigkeit Alternativen formulieren zu können.  

Ein naturphilosophisch wertvolles physikalisches Denkmodell ist phänomenologisch begründet, konsistent, (sowohl mathematisch als auch plausibel verstehbar) minimalistisch, universell ("skalen-korrespondierend") und experimentell direkt überprüfbar.

Natur kann nur addieren oder subtrahieren. Eine „gesicherte“ »höhere mathematische Realität« existiert ausschließlich im Rahmen axiomatisch begründeter Sprache (Mathematik). Inwieweit eine korrekte mathematische Struktur (»höhere mathematische Realität«) physikalisch anwendbar ist, lässt sich mit den „Mitteln“ der Mathematik nicht entscheiden (siehe „unstrittig-exemplarisch“ Epizykeltheorie und Banach-Tarski-Paradoxon). Mathematik erfasst letztendlich Mengen und kann nicht zwischen Staubsauger und Staub unterscheiden.

"Hier" beginnt das fundamentale Mißverständnis über das, was Physik aus einem naturphilosophischen, respektive erkenntnistheoretischen Blickwinkel sein sollte, ohne den nützlichen, formalisierten Charakter der physikalischen Beschreibung zu verlieren. Den komplizierten Standardmodellausführungen fehlen letztendlich meist konkrete Berechnungsmöglichkeiten oder diese führen in einigen Fällen zwar zu Ergebnissen, doch der mathematische Weg zum "Rechenergebnis" bleibt phänomenologisch unverstanden.

Die Standard-Annahme der Standardmodelle, daß komplexe mathematische Formalismen einen erkenntnistheoretischen Gewinn „mathematik-selbstgestaltet“ generieren können, ist ein fataler Irrglaube, der zu theoriebeladenen Versuchen führt und in dessen Verlauf Versuchsergebnisse weder reproduzierbar noch direkt meßbar sind. Salopp formuliert: „Früher“ fielen bei einer Milliarde Einzelversuchen, eine Milliarden Mal die Äpfel vom Baum, was zur theoretischen Rechtfertigung einer anziehenden, gravitativen Kraft führte. Heute wird als Teilchen-Existenzbeweis ein Ereignis bei einer Milliarde Versuchen mit »einer Milliarde -1« Fehlversuchen gewertet und das postulierte Teilchen ist, anders als der Apfel, auch nicht direkter Bestandteil der Messung. Wie beliebig und nachvollziehbar grotesk die Moderne Teilchenphysik „aufgestellt“ ist, wird an verschiedenen Stellen und in einem eigenen Kapitel zum Standardmodell der Teilchenphysik (SM) ausgeführt.

Von vielen, möglicherweise fast von allen Physiktreibenden, vom Studenten bis zum Professor, vom Wissenschaftsneugierigen bis zum mathematisch (gut) vorgebildeten Anhänger, vom "irgendwie Versteher" bis zum ahnungslosen Laien geht eine omnipräsente Systemgläubigkeit aus, die je nach Bildungsstand, mit mehr oder weniger scheinbar fundierten Argumenten, "Dinge", wie überlichtschnelle Raumausdehnungen oder Kaskaden von virtuellen Teilchen "vertritt", deren Begründungen aber letztendlich nur einer Prämisse folgen: (Moderne) Wissenschaft ist das, worauf man sich geeinigt hat, auch wenn experimentelle Fakten, Inkonsistenzen und die Anzahl freier Parameter klar gegen herrschende Standardmodelle sprechen. Abgehoben und von der Masse glorifiziert leben die Protagonisten der Modernen Theoretischen Systemphysik bezüglich alternativer Denkmodelle nach dem Motto: »Wir lesen nicht, wir schreiben selber.« Doch was wissen diese Leute wirklich von dem, was sie da treiben und schätzen? Was "kennen" sie, außer den "Dingen", die sie anhimmeln, stetig nachkorrigieren und mit aller Kraft verteidigen und wenn es als letzte Untat die postulierte Unwiderlegbarkeit (Stichwort Confinement-These) selbst ist, die sie propagieren?

Konträr zur sachdienlichen Forderung erkenntnistheoretischer Betrachtungen sind die „Ergebnisse“ der Theoretischen Grundlagenphysik eher emotional statt wissenschaftlich begründete Antworten auf die ideologische Frage, auf welches theoretische Konzept man sich „heute und demnächst“ einigt. Die Natur hat sich gefälligst den aktuellen theoretischen Implikationen zu unterwerfen. Heute sind es beispielsweise noch postuliert elementare Quarks, morgen möglicherweise "Preonen-Substrukturierte". Gemessen wird stark selektiv in vorgezeichneten Zerfallskanälen. Beobachtet wird das, was die aktuell herrschende Theorie fordert.

Wirklich interessant sind die psychologischen und soziologischen Aspekte, die inhärent mit den Machern und Anhängern der Standardmodelle verknüpft sind. Wie konnte es dazu kommen, daß ein eher kleiner Kreis von „Wissenschaftlern“ trotz dokumentierter Erkenntnislosigkeit bestimmt, was die anderen zu denken haben? Und warum verhalten sich andere „Wissenschaftler“ so passiv? Die transparent absurden Standard-Theoriewelten bieten Riesenangriffsflächen für logische und formal-logische Kritik, doch es gibt so gut wie keine wahrnehmbar aktiven Kritiker.

Die Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen so hoch wie möglich sein. Es geht nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige Lösungen liefert. Diese Frage ist stets beantwortbar.

Die Standardmodelle der Teilchenphysik und Kosmologie gehören aus vielerlei rational logischen Gründen nicht zum Kreis erkenntnistheoretisch wertvoller Denkmodelle.

 

 

Plausibilität vs dynamischer Asymmetrie 

Die etablierte Meinung, daß theoretische Aspekte der Physik nur von Fachleuten bewertet werden können, ist unzutreffend. Jedwede erkenntnistheoretisch wertvolle, konsistente Theorie kann von intelligenten Menschen mit einem gewissen Grad an Vorbereitung verstanden werden. Es sind vielmehr die zeitgenössischen theoretischen Konzepte, denen es an formaler Logik fehlt.

Gibt es noch etwas "Konträres" in der Theoretischen Grundlagenphysik zu entdecken? Hat der herrschende Indeterminismus der Modernen Physik das "letzte Wort"?

Der Glaube an das Standardmodell der Teilchenphysik ist heute so selbstverständlich, wie "damals" der Glaube an die Epizykeltheorie des geozentrischen Weltbildes. Keiner kann sich auf Grund der weltweiten, jahrzehntelangen Beschäftigung der Theoretischen Physik mit Quantenfeldtheorien vorstellen, daß diese (noch) irgendwie fundamental "falsch" sein könnten…

Und doch, wenn man konsequent Masse und Radius (auch) mikroskopischer Körper als inhärente Fundamentaleigenschaften voraussetzt, stößt man auf eine determinierte Masse-Radius-Konstanz. Diese Konstanz führt zu einer tief greifenden Korrespondenz und zu exakten numerischen Voraussagen. ["Praktische" Beispiele sind u.a. die Elementarkörper basierende exakte, formal-analytische Berechnung des Protonenradius, die energetisch begründete Herleitung der Sommerfeldschen Feinstrukturkonstanten auf Grundlage der Masse-Radius-Konstanz der elektrischen Ladung beliebiger Elementarladungsträger, die Berechnung (vermeintlich) anomaler magnetischer Momente, Neutronenmasseberechnung, um nur einige zu nennen. Es wird, sowohl phänomenologisch als auch formal, anschaulich deutlich, daß u.a. die Konstanz und Invarianz der elektrischen Ladung, trotz erheblich unterschiedlicher Massen der Ladungsträger (Proton, Elektron, Pion, Myon, …), ihre Ursache in der konstanten Masse-Radius-Beziehung hat.

 

 

"abstract"

Die grundsätzliche, phänomenologisch begründete Elementarkörper basierende Denkmodell-Forderung besteht darin, daß möglichst minimalistische Gleichungen sowohl das masselose Photon als auch massebehaftete Materie abbilden. Die Entstehungsgleichungen r(t) = r0 ·sin(c ·t/r0) und m(t) = m0 ·sin(c ·t/r0) leisten genau das. Die zeitlose Lichtgeschwindigkeit - als Zustand reiner Bewegung -  steht nicht im Widerspruch mit der Materie-Energie-Verkörperung.

 

 

Die Transformation von einem Photon zu einem masse-radius-gekoppelten Raum entspricht phänomenologisch nicht einer Teilschwingung, wie anfänglich (auch) im Rahmen des Elementarkörperdenkmodells angenommen wurde. Die materiebildende Transformation von einem Photon entspricht einer irreversiblen Zustandsänderung. Zeitumkehr, wie sie „mechanistisch“ von der klassischen Physik bis hin zur Quantenmechanik gefordert wird, steht ganz allgemein im Widerspruch zur Meß-Realität thermodynamischer Prozesse. Der voll ausgebildete Elementarkörper (r(t) = r0 , m(t) = m0) kann aus sich heraus nicht wieder den Zustand des Photons erreichen. Die Wechselwirkungs-Reversibilität, die möglich ist, muß über eine Anregung von „aussen“ geschehen. Das könnte die Wechselwirkung mit weiteren Elementarkörpern, Photonen oder „verkörperten Feldern“ sein, die letztendlich bezogen auf (Feld-)Raum-Zustände energetisch stets als Elementarkörper(-Zustände) verstanden werden können.    

Für t = 0 handelt es sich somit um reine Bewegungsenergie (Photon). Für t = (π ·r0) / (2 ·c) ist die Umwandlung in masse-radius-gekoppelte Energie abgeschlossen, wir erhalten ein Realobjekt mit den charakteristischen Grössen r0 und m0. In diesem Zusammenhang ist die Invarianz der [Vakuum-]Lichtgeschwindigkeit auf eine phänomenologisch begründete Zustandsänderung zurückzuführen und nicht auf Mathematik in Form von Bezugssystemen und deren Verknüpfungen. Energie-äquivalent wird die Gesamtenergie des masse-radius-gekoppelten Realobjektes durch die Comptonwellenlänge ½π ·r0 definiert. Somit ergibt sich auch die Comptonwellenlänge "objekt-natürlich" als Ergebnis der Zustandsänderung. Detaillierte Ausführungen zur Herkunft und Dynamik des Elementarkörpers finden sich im gleichnamigen Kapitel: Elementarkörper. Auch wenn „Antiteilchen“ selten explizit benannt werden, gelten alle energetischen Beziehungen auch für diese.

 

                     

Die Essenz der Fourier-Analysis als elementarer Bildungsbaustein

Das stetige „Analyse- und Synthese-System“ in Form der Fourier-Reihe, respektive Fouriertransformation ist allgegenwärtig. Sowohl die Epizykeltheorie aus heutiger Sicht als auch das Standardmodell der Teilchenphysik (SM) als quantenfeldtheoretische Anwendung und Weiterentwicklung der Quantenmechanik basieren auf Fourier-Reihen, bzw. Fourier-Transformierte. Die Basis-Funktion ist die Sinusfunktion. Konsequent minimalistisch gedacht, ist es also nahe liegend, nicht die Fourier-Transformation als Methode der Fourier-Analysis als einfachste Abbildungsmöglichkeit zu Grunde zu legen, sondern minimalistisch die „reine“ Sinusfunktion selbst. Resultierend lassen sich intuitiv logische Randbedingungen für eine Basisbetrachtung formulieren.

Wie kommt man nun von einer abstrakten, menschengemachten Sinusfunktion zu einem elementaren Naturbeschreibungsmodell?

Um die Elemente der Sinusfunktion in Ankopplung an „unsere Welt“ realphysikalisch zu bestimmen, werden Alleinstellungsmerkmale der beobachteten Natur benötigt. Man braucht zur „Verkörperung“ der Sinusfunktion sozusagen „globale“ physikalische Auffälligkeiten. „Eine“ ist, wie oben beschrieben, die Konstanz und Invarianz der [Vakuum-]Lichtgeschwindigkeit, die andere ist die „Gravitationskonstante“. Es lässt sich nun („zwingend einfachst“) zeigen, daß die Funktion r(t) = r0 sin(ct/r0) und die Funktion m(t) = m0sin(ct/r0) ausreichen, um sowohl Einzelobjekt-mikroskopisch als auch vielteilchen-makroskopisch die Entstehung der Masse (Materie) aus reiner Bewegungsinformation (reiner Bewegungsenergie) zu gestalten. Daraus resultiert eine Zustandsänderung in Gestalt einer nichtinflationären Expansion (masse-radius-gekoppelte Kreation), die im Maximum mit einem statischen Universum endet (siehe das Kapitel Urknall und Universum).

Bemerkenswert ist die phänomenologisch begründete Elementarkörpertheorie basierende Aussage, daß erkenntnistheoretisch - und wenn man so will philosophisch - der Nullpunkt, die "Null", nicht für "Nichts steht", sondern den maximalen Bewegungszustand repräsentiert. Dieser Zustand entspricht der (zeitlosen) Lichtgeschwindigkeit. (Plausibilitätsbetrachtung und mathematische Ausführungen hiezu, siehe das Kapitel Impulsmasse-Inversion)

Die Divergenzproblematiken, sowohl klassischer als auch quantenfeldtheoretischer Betrachtungen, finden ihre theoriebeladene Ursache in den jeweiligen Denkmodellen. Dort wird die innere Struktur der Energieträger (Gravitation, (elektrische) Ladung) schlicht nicht erfasst. Berücksichtigt man jedoch die endliche, realphysikalisch orientierte, phänomenologische Natur der Objekte, lösen sich die "Unendlichkeiten" plausibel auf.

 

Motivation und Hintergründe

Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend einer phänomenologischen Betrachtung und Erklärung.

Die Elementarkörper-Theorie stellt einen Energie erhaltenden fundamentalen Zusammenhang zwischen dem «Phänomen Bewegung» und dem «Phänomen Raum» her.

Anfang 2012 "klebten" die Berechnungen noch am Protonenradius. Mit Entwicklungspausen entfaltete sich in den Folgejahren ein konsistentes Denkmodell welches, phänomenologisch begründet, korrespondierend Photon und radius-masse-gekoppelte Materie, sowie Mikro- und Makro-Kosmos vereint.

Denkmodell konsistent ist resultierend das Phänomen Energie der ursächlich von Elementarkörpern aufgespannte Raum selbst und äquivalent die zeitliche Änderung des Raumes. Die Masse-Energie-Äquivalenz entspricht anschaulich einer Raum-Bewegung-Äquivalenz. Vereinfacht: Raum läßt sich in Bewegung und Bewegung lässt sich in Raum transformieren.

In dem Zusammenhang ist die Invarianz der [Vakuum-]Lichtgeschwindigkeit, wie bereits erwähnt, auf eine Zustandsänderung der Materie zurückzuführen und nicht auf Mathematik in Form von Bezugssystemen und deren Verknüpfungen. Der Begriff Invarianz bekommt in der Elementarkörpertheorie eine phänomenologische Erklärung.

 

"Kurioses"

Es war - und ist nach wie vor - kein primäres Ziel der Elementarkörpertheorie zeitinstabile Materie kreieren/beschreiben zu können, dennoch ...

Ein unerwartetes Ergebnis ...

Higgs-Boson-Kreationen und andere Kleinigkeiten "am Rande bemerkt"(, ist mehrdeutig zu verstehen.)

"Kurios" ist u.a. der "Umstand", daß im Rahmen der «Ladungsabhängigen MateriebildungLM» Elementarkörper basierend aus der starken Proton-Antiproton-Wechselwirkung formal analytisch in Abhängigkeit der (Anti)Proton-Masse und der Sommerfeldschen Feinstrukturkonstante α eine Materiebildungsenergie von ~ 257 GeV folgt, die gemäß Ladungs-Erhaltung als Variationsmöglichkeit zwei masse-radius-gekoppelte "Massehäufchen" erzeugt, die ungeladene und geladene Higgs-Boson-Massen abbilden.

 

 

Aus praktischen Gründen werden "Zehnerpotenzen" exemplarisch wie folgt geschrieben: 1,23·10-3 = 1,23e-3. Das hat den Vorteil, daß der interessierte Leser die entsprechenden Zahlenwerte "gleich" in den "Computer" zur "Kontrolle" übernehmen kann (Copy&Paste).

Die Unsicherheiten der (CODATA)-(Masse-)Werte und der Naturkonstantenwerte sind nicht explizit benannt. Beispiel: Masse des Elektrons: 9,10938356(11)e-31 kg   Es wird hier mit dem Wert 9,10938356e-31 kg gerechnet. 

Beispiel: Feinstrukturkonstante α:   0,0072973525664    0,0072973525664(17)

 

LMDie final resultierende Gleichung zur Berechnung ist an Einfachheit nicht zu überbieten:

m = mp = 1,672621898e-27  kg  : (Anti-)Protonenmasse     α  = 0,0072973525664

∆E( p+, p- )  =  257,15410429801 GeV

∆m( p+, p- )     =   4,58418825946e-25   [kg]  [2q0q0]

(∆m( p+, p- ) / 2) / mH(0)  1,02861642

Das bedeutet, daß mit einem "Fehler" ~ 2,9%MU, bezogen auf die am LHC "detektierte" Higgs-Bosonen-Masse (mH(0)  ~ 125 GeV/c²), die Elementarkörpertheorie ein Ereignis voraussagt, welches im Standardmodell der Teilchenphysik (SM) nur als theoretisch vorbestimmtes Zirkelschluss-Ergebnis existiert. MUZur Erinnerung: Die "ungeschönte" Mess(un)genauigkeit der LHC Detektoren liegt in der Größenordnung von 5%...

...Das Higgs-Potential und damit die (postulierte) spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus. Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m² < 0). Um den Tachyon-Term „zu umgehen“ wird das Feld als eine Variation um einen Vakuumzustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms... Inkonsistenz, Beliebigkeit, "Zirkelschluß-Dynamik" der theoretischen Implikationen zum postulierten SM-Higgs-Mechanismus, sowie der kleinste Nenner mit der Elementarkörper werden im Kapitel

Higgs-Boson-Kreationen und andere Kleinigkeiten ausführlich erörtert.

 

 

 

 

Makroskopische Konsequenz

Das Geheimnis der "scheinbar" sehr schwachen Gravitation im Verhältnis zur elektrischen Wechselwirkung und starken Wechselwirkung liegt in der falschen Annahme begründet, daß es generell einen Masse entkoppelten Raum gibt. Berücksichtigt man den Raum, den makroskopische Körper sowohl durch ihre Objektausdehnung als auch durch ihren Wechselwirkungsradius aufspannen, dann wird deutlich, daß die "fehlende" Energie in dem Raum selbst "steckt". In diesem Sinne ist für makroskopische Körper die Gravitationskonstante γG das »Maß der Dinge«.

Mit anderen Worten: Die vermeintlich geringe Stärke der makroskopischen Gravitation ist darauf zurück zu führen, daß in der Betrachtung und Berechnung die Raumausdehnung der makroskopischen Körper nicht berücksichtigt wird. Elementarkörper basierend gibt es aber keinen Materie ( : Masse, respektive Energie) entkoppelten Raum. Dies wird nicht "wahrgenommen", da der Raum und somit die radius-abhängige Energie der makroskopischen Systeme phänomenologisch von der "etablierten" Physik nicht "realisiert" wird. Dieser fatale Irrglaube war und ist u.a. notwendig, um die überlichtschnelle masse-entkoppelte Raum-Expansion des "frühen" Universums während der so genannten Inflationsphase des Urknall-Modells zu rechtfertigen.

Nur wenn Körper einen Radius besitzen würden, der dem Masse abhängigen Gravitationsradius rG entspricht, dann ist die Gravitations-Energie EG gleich der Ruhe-Energie E0. Mit der Elementarkörpertheorie basierenden Annahme, daß eine Vergrößerung des (Objekt-)Radius masse-gekoppelte Energie in Raum-Energie ER transformiert, wird plausibel, daß die Gravitations-Energie, die ausschließlich die masse-gekoppelte Energie (E0 - ER) berücksichtigt um die Raum-Energie ER reduziert ist. Da makroskopische Objekte um viele Zehnerpotenzen größer sind, als ihr Gesamtmasse zugehöriger Gravitationsradius, steckt fast die gesamte Energie in dem vom »Objekt« aufgespannten Raum bzw. in dem Raum mit Wechselwirkungsradius r, entsprechend gering ist die masseabhängige Wirkung.

"Intuitiv-spielerisch" ist die Annahme, daß das Verhältnis von zeitabhängigen Universumsradius zu zeitabhängiger Universumsmasse zeitunabhängig (!) und konstant ist. Die Multiplikation von rUni/mUni mit c² ist gleich der Gravitationskonstanten γG. Diese Annahmen stellen u.a. eine "schöne" Korrespondenz zwischen Kosmos, Gravitationskonstante und den Planckgrössen für Masse (mPl) und Länge rPl (Radius) respektive dem Elementarquant { : G mit rG, mG } her.

Randnotizen: Schon Ernst Mach (1838 - 1916) bemerkte, daß die "Schwäche" der Gravitation mit der "enormen" Grösse des Universums in Zusammenhang steht. Er vermutete eine Relation zwischen Universums-Masse, Universums-Radius und Gravitationskonstante. Sir Arthur Stanley Eddington (1882 - 1944) erhielt das Verhältnis von Universums-Radius zu Universums-Masse indem er die Gravitationskonstante durch c² dividierte (...formal-gleich im Rahmen der hier beschriebenen Korrespondenz zwischen "Längen-Kleinsten" und Längen-Größten"). Und auch Erwin Schrödinger hatte dies als Möglichkeit bereits 1925 geäußert. Quelle: Mach’s Principle – Relating Gravity to the Universe

Warum sich diese einfache Annahme nicht durchsetzte hat höchstwahrscheinlich mit der (später) favorisierten (inflationären) Urknalltheorie zu tun. Dort ist kein Platz für "(korrespondierend) Einfaches".  

 

Die Elementarkörpertheorie bietet also sowohl für mikroskopische Objekte als auch für komplexe, dynamisch-verschachtelte Strukturen, bis hin zum »Universum«, einen Ergebnis orientierten Rahmen, in dem mit wenigen Annahmen bemerkenswerte analytische Ausdrücke abgeleitet werden können. Ein Ergebnis ist die Berechnung der Masse des Universums in Abhängigkeit der Zeit (Alter des Universums) ► Gleichung [MUNI]. Ohne an dieser Stelle näher auf die notwendigen Elementarkörpertheorie basierenden phänomenologischen Hintergründe einzugehen, folgt mittels der Elementarkörper-Entwicklungsgleichung r(t) eine Abschätzung der oberen zeitabhängigen Radius-Grenze, die mit der gleichfalls Elementarkörpertheorie basierenden Idee der verkörperten Gravitationskonstante zum allgemeinen Gravitationsradius und zu einem konkreten mathematischen Ausdruck führt, mit dem sich die Masse des Universums mUniversum(t) alleinig aus dem Alter des Universums ergibt.  

Der Fehler zu Gleichung [P2m] bei genauer Kenntnis der maximalen Universumsmasse beträgt hier zeitabhängig ~ -5%. Die Berechnung der maximalen Universumsmasse ergibt sich mittels der »Wasserstoff-Parameter« : Protonenmasse, Elektronenmasse, Rydberg-Energie und der Gravitationskonstanten verkörpert durch das Elementarquant, siehe das Kapitel: 3K-Hintergrundstrahlung.

Diese Elementarkörper basierende Abschätzung, die in sehr guter Übereinstimmung mit den Schätzwerten des Standardmodell der Kosmologie ist (ΛCDM-Modell ~ mUniversum 1·1053 [kg]), deutet an, welche Macht in realphysikalisch begründeten Plausibilitätsbetrachtungen "steckt", die im Gesamtbild konträr zu differential-geometrischen komplexen Formalismen und resultierenden Raum-Zeit-Kontinuum-Fantasien, mittels Masse-Raum-Kopplung zum Paradigmenwechsel führen. Denn im Gegensatz zur "gängigen" Urknall-Theorie notwendigen teils überlichtschnellen Materie entkoppelten Expansion des Raumes, basiert die Elementarkörpertheorie-Gleichung [MUNI] auf einer Masse-Raum-Kopplung, die zu keinem Zeitpunkt eine überlichtschnelle Ausbreitung besitzt. (Details siehe das Kapitel: Urknall

 

 

Randnotiz:

Aus den Daten des Planck-Weltraumteleskops (kurz "Planck" genannt) des Jahres 2013 wurde ein Alter des Universums von aktualisiert 13,80  ± 0,04 Milliarden Lichtjahren "ermittelt". 

Aber : "Berechnungen" ausgehend von dem ΛCDM-Modell sind grundsätzlich mit äußerster Vorsicht zu "genießen". Die Suggestion man wüsste genau, was sich wann, in welcher Größe ereignete, ist mehr Wunsch als Wirklichkeit. Hier bestimmt nach wie vor die Theorie des (inflationären) Urknalls, was gemessen werden soll bzw. wie Meßergebnisse zu interpretieren sind. Die geduldeten Fehler(grenzen) sind für die Maßstäbe der Grundlagen-Physik immens.

Beispiel: Die Meß-Resultate des Planck-Satelliten aus dem Jahre 2013 lieferten einen Wert für die Hubble-Konstante, der um ca. 10% kleiner ist, als der ("mittlere") Literaturwert.

Siehe:  Planck satellite 2013 results http://arxiv.org/pdf/1303.5062v1.pdf

Text-Auszug: ...Summary and Conclusions

…The Planck best-fit model is in excellent agreement with the most current BAO data. However, it requires a Hubble constant that is significantly lower (~67 kms−1Mpc−1) than expected from traditional measurement techniques, raising the possibility of systematic effects in the latter…   

update

27. Januar 2017

Die Nachricht [Eine neue “Messung” der Hubble-Konstanten] ist zwar erkenntnistheoretisch unbedeutend, da die vermeintliche (neue) Messung von H0 gleichfalls stark freie Parameter-theoriebeladen ist, wie jede "Beobachtung" innerhalb des ΛCDM-Modells, so gibt sie aber zumindest einen „aufgefrischten“ Aufschluss über das Hin- und Her-Beschäftigungsspiel der involvierten Nutznießer aus „Forschung und Technik“.

Hier der neueMesswert”: H0 ~ 71, 9 (+2,4) (-3,0) based on the joint analysis of three multiply-imaged quasar systems with measured gravitational time delays..., source: https://arxiv.org/pdf/1607.01790v2.pdf

Eine Liste [ΛCDM-Modell-]theoriebeladener "Messwerte" von 1929 bis 2013 findet sich beispielsweise unter https://en.wikipedia.org/wiki/Hubble's_law

 

 

Die zielführende [Elementarkörper-]Theorie, insbesondere ihr minimalistischer Formalismus, daraus resultierend analytische Ergebnisse und die interdisziplinär verstehbaren Aussagen führen zu einem heftigen Konflikt mit dem Standardmodell der Teilchenphysik (SM) und dem Standardmodell der Kosmologie (ΛCDM-Modell). Nicht die assoziierten spektroskopischen Meßergebnisse der Experimentalphysik werden angezweifelt bzw. sind falsch, sondern die Interpretationen basierend auf deren theoretischen Grundlagen. Die jetzige Situation der Standardmodelle ist ergebnisorientiert vergleichbar mit der Epizykeltheorie kurz vor ihrem Ende. Das Denkgebäude der Elementarkörpertheorie bedeutet nicht eine Korrektur oder Erweiterung der Standardmodelle sondern das Ende dieser Modelle. Elementarkörpertheorie steht für Paradigmenwechsel.  

 

 

 

Die Elementarkörpertheorie erweitert den Unschärfebegriff wesentlich. Es wird gezeigt, daß das "sinusförmige Ausschwingen" als Wechselwirkungs-Folge eine „natürliche“ Unschärfe erzeugt.

Interessanterweise "entsteht", Elementarkörpertheorie basierend, somit auch eine fundamentale Plausibilität für die «Wahrscheinlichkeitswelt» der Quantenmechanik, da der Elementarkörper in einem anschaulichen Bild eine atmende Kugel darstellt, dessen Physik sich auf der zeitabhängigen Oberfläche "abspielt" und somit verschiedene Entwicklungszustände existieren. Im gleichem Atemzuge ist die Elementarkörpertheorie bemüht, die (bisher) unanschauliche Quantenmechanik und allgemein Quantenfeldtheorien anschaulich zu "ersetzen". Es zeichnet sich ab, daß der oszillierende Elementarkörper gegenüber dem anfänglich minimalistischen, mathematischen Rüstzeug der "Quantenmechaniker des frühen 20.Jahrhunderts" aufgeschlossen ist, sich aber gegenüber den "späteren" rein mathematischen Quantenfeldtheorien verschließt.

 

 

Ist die Elementarkörpertheorie "relativistisch"?

Das Verständigungs- und Interpretations-Problem begann bzw. beginnt - wie so oft - mit einem Realphysik befreiten Formalismus. Die beobachtbare Invarianz der (Vakuum-)Lichtgeschwindigkeit ist keineswegs "direkt" mit der Speziellen Relativitätstheorie (SRT) verbunden, wie suggeriert wird. Das historisch viel zitierte Michelson-Morley-Experiment ist eindimensional konzipiert und sagt gar nichts über Masse behaftete Teilchen im Sinne der herrschenden Physik  aus und behandelt auch keine transversalen Komponenten. Die mathematische Invarianz der transversalen Komponenten ist lediglich eine formale Konsequenz der geradlinig gleichförmig bewegten Beobachter bezüglich kräftefreier Teilchen in einem mathematischen Denkmodell. Mit anderen Worten, daß gesamte Konstrukt der Lorentztransformation(en) ist an Inertialsysteme gebunden. Phänomenologisch sagt die SRT schlicht nichts über die Invarianz der Lichtgeschwindigkeit.

Bevor hier Mißverständnisse aufkommen, es wird nicht behauptet, das die Mathematik der Relativitätstheorie falsch ist. Wie könnte auch eine axiomatisch begründete These falsch sein? Doch das mathematische Konstrukt besitzt - außer der zu Grunde liegenden beobachtbaren Invarianz der [Vakuum-]Lichtgeschwindigkeit - keine realphysikalische Basis. Es existieren zwar Beobachtungen aber es existiert schlicht keine Phänomenologie zur Mathematik der SRT. Die inertialsystembehaftete »Relativität der Beobachter« ist eine "heikle Sache", da es in der Natur nur dann zu messbaren Systemänderungen kommt, wenn Energie ausgetauscht wird. Energieaustausch bedeutet aber grundsätzlich, daß "Kräfte" wirkten oder weniger mystisch ausgedrückt, daß Beschleunigungen auftraten. Mit der Beschleunigung "verabschiedet" sich das Inertialsystem und folgerichtig gleichfalls die Lorentztransformationen. Die Mathematik der SRT ist nicht falsch sondern schon "per Definition" nicht dynamisch.

Physik bedeutet Wechselwirkung und Energieaustausch. Koordinatensysteme und Koordinatentransformationen "sind" keine physikalischen Vorgänge, sondern Mathematik. Es wird nicht geklärt, wie die Energiedifferenz und die „Struktur der Energiespeicherung“ über Koordinatentransformationen erzeugt wird oder „verschwindet“. Gemäß Relativitätstheorie gilt: Der Energieinhalt eines Teilchens ist abhängig von der Geschwindigkeit dieses Teilchens und resultiert aus einer Beobachtung, all das relativ aus Sicht eines Inertialsystem behafteten Beobachters.

Wenn sich die Geschwindigkeit ändert, dann ändert sich auch der Energieinhalt. Dies bedeutet: Durch den veränderten Energieinhalt muß sich zwangsläufig auch die innere Struktur der Teilchen ändern, denn die Energie wird „irgendwie“ und „irgendwo“ gespeichert und ist abrufbar. Phänomene wie die Änderung des Massenwertes in Abhängigkeit der Geschwindigkeit können mit der Relativitätstheorie nicht erklärt werden. Die Relativitätstheorie liefert keine physikalische Rechtfertigung, die erklärt, warum und wie Masse größer oder kleiner wird.

Aus Sicht der Realphysik orientierten Elementarkörpertheorie bleibt, wie bereits eingangs erwähnt,  von der Relativitätstheorie nur der Lorentzfaktor γSRT als statischer Fall einer Elementarkörpertheorie basierenden allgemein gültigen Formulierung γdyn übrig:

γSRT =

γdyn =

Der dynamische Faktor γdyn ist inertialsystembefreit und wirkt radialsymmetrisch. γdyn lässt sich "einfachst" aus der Elementarkörpergleichung r(t) ableiten.

 

 

Elementarkörperdynamik bei äußerer Energiezufuhr

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die standardmodellübliche, falsche Anwendung der SRT auf dynamische Prozesse gehört ins Reich unerfüllter Wünsche der Liebhaber realobjektbefreiter Physik. Weder die propagierte "verbogene Axiomatik" noch die invalide Phänomenologie der Standardmodelldenker übersteht eine nähere dynamische Betrachtung. U.a. ist zu beachten, daß sich das theoriebeladene Versuchsergebnis der Kollisionsereignisse nicht auf zwei kollidierende Einzelkörper bezieht, sondern aus einer Vielzahl von Kollisionsereignissen in einem Zeitfenster besteht.

Dazu kommt die Tatsache, daß beschleunigte Ladungsträger einen Teil der Energie abstrahlen aber es keine (konsistente) Theorie zur Strahlung bewegter Ladungen gibt. Das bedeutet, daß die Ursachen der aufgezeichneten Signale weder "inhaltlich" qualitativ, quantitativ, räumlich noch zeitlich genau bestimmbar sind. Rationales Fazit: Eine Denkmodell-Reduktion auf den Streuquerschnitt zweier diskret kollidierender Teilchen ist mehr Wunsch als Wirklichkeit.      

Masse-radius-gekoppelt sind die Proton-Streuzentren bei hochenergetischen Kollisionen mit Wirkungsquerschnitten kleiner als der Wirkungsquerschnitt des Protons - die theorieinduziert als (Quarks-Gluonen)-Substruktur interpretiert werden - die radialsymmetrisch radius-verkleinerten Protonen selbst

                   

 

 

 

 

 

Eine interdisziplinäre Gesamtdarstellung der Elementarkörpertheorie...

Die Texte sind so geschrieben, daß mit etwas Geduld auch weniger vorgebildete Leser einen roten Faden aufnehmen können. Sollte an der einen oder anderen Stelle, ein Begriff nicht bekannt sein oder ein Resultat nicht sofort verstanden werden, so empfiehlt es sich erst einmal weiter zu lesen.

Eine gewisse Redundanz ist gewollt. Denn nicht selten führt eine wiederholte Betrachtung mit etwas anderen Randbedingungen zum Verstehen.

Die Elementarkörpertheorie liefert neben konkreten Voraussagen insbesondere Phänomenologie. Mathematik ist zwar "Denkmodell-inhärent", aber hier nur "Mittel zum Zweck". Die Elementarkörpertheorie baut auf Plausibilität und Minimalismus auf und ist nachvollziehbar weder an Wahrscheinlichkeiten noch methodischer Materiezersplitterung interessiert. Der inhaltliche Konflikt mit bestehenden Theorien und Modellen, insbesondere mit dem Standardmodell der Teilchenphysik (SM) und der ursächlichen Quantenmechanik (QM), ist unausweichlich. Um Wind, Feuer, Licht und Dunkel zu verstehen wurden „einst“ Dämonen und Götter geschaffen. In die reale Welt von „heute“ wurden irreale Objekte eingeführt, so daß der Mensch erst die Orientierung und dann die Realität verlor. Dunkle Energie und Neutrinos sind Artverwandte bzw. Nachfahren der Götter und Dämonen.

Das "moderne" Unverständnis basiert auf einer in der Theoretischen Physik omnipräsenten Fehlinterpretation der Natur. Es ist unzulässig, Realität ausschließlich in Form eines mathematischen Modells darzustellen und ein Weltbild nur mit den Aussagen und Beweisen der Mathematik zu begründen. Natur beruht eben nicht auf mathematischen Axiomen und Definitionen und kann deshalb auch nicht nach den formalen Regeln der Mathematik hergeleitet und bewiesen werden. Statt sich Gedanken über die Phänomenologie des Geschehens zu machen, wurde und wird nach mathematischen Lösungen gesucht. 

 

Wie erkenntnistheoretisch sinnleer heutzutage gearbeitet und argumentiert wird, offenbart folgendes Beispiel:

Berechnung der Vierschleifen-Beiträge zu Taylor-Reihen-Entwicklungskoeffizienten der Vakuumpolarisationsfunktion in perturbativer Quantenchromodynamik

führt zu ungefähr 700 Feynman-Diagrammen

Lösung eines linearen Gleichungssystems mit nicht konstanten Koeffizienten

Größenordnung: Gleichungssystem mit 25 Millionen Gleichungen

liefert Lösungen für 4 Millionen Integrale

"Ergebnis"

Reihen-Entwicklung der Vakuumpolarisation

 

Und nu?

Das es die Protagonisten in Brot und Arbeit stellt ist keine (wissenschaftliche) Rechtfertigung. 

Was soll dieses Ergebnis erkenntnistheoretisch aussagen?

 

Ohne Frage, Hypothesen und Gedankenexperimente waren und sind grundlegende "menschliche" Konzepte. Nur müssen sich diese früher oder später durch stringente, konsistente Denkmodelle mit einfachen mathematischen Mitteln belegen lassen, sofern sie einen erkenntnistheoretischen Wert besitzen sollen. Die Unart fehlendes Wissen und fehlende Phänomenologie im Rahmen parametrischer Glaubensbekenntnisse iterativ zu beschönigen, bedeutet Willkür und Erkenntnis-Stillstand. Renormierung, variable Kopplungskonstanten, freie Parameter, endlose Substrukturierung, taylorreihenaffine Störungstheorie und Artverwandtes korrigieren nur den "physikalischen Mist", den man sich durch fehlende Anschauung primär eingebrockt hat.

 

...am Rand des Wissens dem Wirrsein nah

stumm die mein Schweigen mehren

das Leben ist so wunderbar...

[Basissuche Dirk Freyling 47ndf]

 

Es hat sich in der Theoretischen Grundlagen-Physik seit mehr als 100 Jahren eine Denkmodell-Monokultur entwickelt, die den Realobjekt befreiten, angewandten mathematischen Formalismus der Quantenfeldtheorien selbst zum physikalischen Phänomen erklärt. Ähnliches lässt sich zur Beschreibung des Makrokosmos und der zur Anwendung kommenden Differentialgeometrie sagen. Aus einer großen Menge mathematischer Möglichkeiten wird eine sehr kleine Schnittmenge mit vermeintlich objektiven Meßdaten gebildet, obwohl jedem klar sein müsste, daß der Experimentator im Bereich des Mikrokosmos Bestandteil des Versuchsausganges ist, wie die Quantenmechaniker schon früh selbst feststellten. Suggestiv wird vermittelt, daß der verwendete mathematische Formalismus eine "natürliche" Daseinsberechtigung besitzt und Ausdruck einer wohlüberlegten Maßnahme ist. Die Wahrheit sieht jedoch weitaus uneffizienter und beliebig aus. Es wurden schlicht die mathematischen Gebilde, die nicht in Einklang mit "vorbestimmten" Experimenten stehen verworfen und im Nachhinein nicht mehr erwähnt.

Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." [EM1]

[EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

Übergeordnet scheint die Basisinformation verloren gegangen zu sein, daß selbst ein Realobjekt freundliches, plausibles Denkmodell nicht einer objektiven Realität entspricht, sondern stets ein subjektives Abbild "verkörpert". Die Fragen zur grundsätzlichen Qualität der Abbilder lassen sich jedoch leicht formulieren.

Führt das Modell zu einer konstruktiven Eigenschaftsverarmung, beispielsweise im Sinne einer Reduktion der freien Parameter?

Ist das Abbildungsmodell konsistent?

Ist es "ausnahmefrei"?

Lässt es sich so verallgemeinern, daß es ohne Substrukturierung Mikrokosmos und Makrokosmos verbindet?

Liefert es aus den theoretischen Annahmen, näherungsfreie, formal-analytische Gleichungen, die die einzig stabilen und Materie bildenden Teilchen, sprich Elektron und Proton, mit ihren fundamentalen Meß-Eigenschaften Masse, Radius und (elektrische) Ladung qualitativ und quantitativ beschreiben und verbinden kann?

 

Zur Freude Erkenntnissuchender können die Fragen 1 - 4 Elementarkörpertheorie basierend mit Ja und die Frage 5 derzeit mit "teilweise" beantwortet werden.  

 

Weder das Standardmodell der Teilchenphysik noch das Standardmodell der Kosmologie "besitzt" konstruktive, brauchbare Antworten auf obige Qualitäts-Fragen.

 

Am Rande bemerkt: Da nahezu alle erfolgreich Indoktrinierte bei dem Begriff Elektronenradius eine Krise bekommen und "instantan" an den ungeliebten klassischen Elektronenradius denken, sollen diese vorerst den -  wie sich zeigen wird, Elektronen-Masse inhärenten -  Radius re durch die "problemfreie" Comptonwellenlänge des Elektrons λe gedanklich ersetzen. Der postulierte, quantenmechanisch Theorie beladene Spin gehört nicht zu den fundamentalen Eigenschaften, da nicht der Spin, sondern stets ein magnetisches Moment gemessen wird. Das magnetische Moment lässt sich auf die Grössen elektrische Ladung und Masse zurückführen.

Anmerkungen zur Anregung des eigenständigen Denkens: Außerhalb des "Interpretationsspielraumes" des Teilchenbeschleunigers kommt der Elektronenmasse inhärente Elektronenradius re, respektive der klassische Elektronenradius re(klassisch)  ( =  ( α/4) re), in allen (!) verwendeten Gleichungen zur Berechnung der Streuquerschnitte bei elastischen und inelastischen Streuungen an Elektronen vor (Stichworte: Møller-Streuung, Compton-Streuung, Elektron-Positron-Paarbildung, Photoelektrischer Effekt, Klein-Nishina-Gleichung, Bethe-Bloch-Sternheimer-Gleichung, Kramers-Heisenberg-Formel) und steht in einem phänomenologischen Zusammenhang mit der Comptonwellenlänge (des Elektrons).

Der differentielle Streuquerschnitt dσ/dΩ nimmt für Elektronen stets die Gestalt dσ/dΩ = (e²/me4πε0c²)² · fW an, wobei der funktionale Zusammenhang fW die spezifische Art der Streuung angibt. Details zu fW finden sich exemplarisch zu den jeweiligen "Streugleichungen", von denen im Anschluss einige explizit aufgeführt sind. Das Verständigungs-Problem der herrschenden Physik bezüglich des (ungeliebten) klassischen Elektronenradius re(kl) löst sich auf, wenn man den wiederkehrenden Term (e²/me4πε0c²) masse-radius-gekoppelt-energetisch analysiert. Letztendlich besteht die Beziehung (e²/me4πε0c²) aus dem Verhältnis: elektrischer Energie zu Gesamtenergie (α/4)  und dem Elektronenmasse inhärenten Elektronenradius re, der multipliziert mit π/2 der Comptonwellenlänge des Elektrons entspricht (λe re · π/2).

Nicht die "typischen" energieabhängigen Elektronenradien kleiner als 10-18 [m] in Verbindung mit Teilchenbeschleunigern sind "falsch", sondern die von der Elementarteilchenphysik resultierenden Schlußfolgerungen bezüglich ruhender Elektronen.

Eigentlich gibt es "da" nicht viel zu verstehen. Das die Vertreter der Systemphysik und die "System-Nachplapperer" diesen plausiblen, phänomenologisch begründeten Zusammenhang nicht realisieren können bzw. nicht realisieren wollen, ist letztendlich keine formal-logische, sondern eine ideologische Entscheidung. Denn mit der Gewissheit, daß das ruhende Elektron offensichtlich eine meßbare Ausdehnung besitzt (Radius: re), die wie bereits mehrfach erwähnt, nachweislich in allen Elektronenstreuexperimenten vorkommt, zerbrechen "ihre" mathematischen Glaubens-Konzepte. Hier "rächt" sich sozusagen das Fehlen eines konsistent, phänomenologisch begründeten Konzepts der elektrischen Ladung. Siehe dazu die rein mathematischen Ansätze der klassischen Elektrodynamik, Quantenelektrodynamik (QED), Quantenchromodynamik (QCD) und der Elektroschwachen Theorie.

Die Elementarkörpertheorie „beschreibt“ konsistent sowohl das Verhalten bei „konventionellen“ Streu-Energien der Streu-Partner des Elektrons als auch hochenergetisch im Teilchenbeschleuniger. Hier gibt es die größten emotionalen Ausbrüche und eine methodische Plausibilitäts-Verweigerung der Standard(-Modell-)Physiker und deren Anhänger.

Eine ausführliche Diskussion des omnipräsenten Elektronenmasse inhärenten Elektronenradius re findet sich unter : Elektronenradius

 

 

Da diese Standardmodelle das Non plus ultra der Theoretischen Grundlagen-Physik sind, brauchen wir uns nicht zu wundern, daß wir seit Jahrzehnten tief in einem "erkenntnistheoretischen (Schwarzen) Loch" sitzen. Wie egozentrisch, arrogant und dekadent die Protagonisten des Standards jedoch  - trotz der erkenntnistheoretischen Null-Nummern ihrer Arbeiten -  mit Ungläubigen und sich selbst umgehen, haben sie eindrucksvoll mit der SM-These der theoriebedingten Unwiderlegbarkeit (Stichwort Confinement) "unter Beweis gestellt".

Bereits das geozentrische Weltbild zeigte exemplarisch, daß eine falsche Theorie über Jahrhunderte, ja sogar Jahrtausende als wahr und mit Hilfe von Zusatzannahmen wie den Epizyklen, trotz starker empirischer Indizien für ihre Falschheit, aufrechterhalten werden kann.

 

Anmerkungen zur Anregung des eigenständigen Denkens: Sowohl die Epizykeltheorie aus heutiger Sicht als auch das Standardmodell der Teilchenphysik (SM) als quantenfeldtheoretische Anwendung und Weiterentwicklung der Quantenmechanik basieren auf Fourier-Reihen, bzw. Fourier-Transformierte. Die Epizykeltheorie arbeitete mit 3 freien Parametern, war mathematisch „richtig“, phänomenologisch falsch und die Objekte der Beschreibung waren (sind) sichtbar (Auge, Fernrohr). Das SM arbeitet mit 25 freien Parametern, variablen Kopplungskonstanten, virtuellen Teilchen, theorieinduzierten, nicht realen Objekten und keines der Objekte ist sichtbar.

 

 

Tatsache ist: Wir verfügen über keine allgemein anerkannte Wahrheitstheorie. Wir haben jenseits von Tatsachenbehauptungen keinen intersubjektiven Zugriff auf die Wirklichkeit. D.h. die Übereinstimmung von Aussage und Wirklichkeit kann nicht objektiv festgestellt werden. Dieser Sachverhalt wird insbesondere dann problematisch, wenn die Theorie bestimmt, was gemessen werden soll.

 

   

Es gibt mehrere paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. "Extrem" willkürliche und verifizierbar falsche Behauptungen verdienen keine rein wissenschaftliche Aufmerksamkeit. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe. Die Argumentation der Protagonisten und Anhänger der ursprünglichen Quantenmechanik, folgend der Quantenfeldtheorien und letztendlich des Standardmodells der Teilchenphysik, daß diese durch experimentelle Ergebnisse Bestätigung fanden und finden, sagt wenig aus, da die Theorien immer wieder den Meßergebnissen angepasst wurden. Man kann sich einer derzeit "25-freien Parameter-", variablen Kopplungskonstanten-, stetig nachkorrigierten-, stetig nachparametrisierten-, mit einem ≈ 4,4% falschen Protonenradius- Theorie nicht moderat nähern. Zum Vergleich: Die geozentrische Epizykeltheorie benötigte 3 freie Parameter. In der angewandten Physik, die reale Ergebnisse im Sinne einer funktionierenden Anwendung ohne Wenn und Aber liefert, gibt es, neben gezielten Variablen im Rahmen des Funktionsumfanges, keine freien Parameter.

 

Die Tatsache, daß wir in sehr guter Näherung  - in Analogie zu modernen theoretischen Abstraktionen und in Korrespondenz zum Mikrokosmos –  auf einer Kugeloberfläche leben, führt nicht zu einem Raum-Zeitkontinuum.

Die Tatsache, daß elementare Strukturen aus oszillierenden Kugeloberflächen bestehen, führt gleichfalls nicht zu einem vierdimensionalen Konzept mit Vertauschungsmöglichkeiten von Raum und Zeit. Es kommt ganz im Gegenteil zu einer konstruktiven „Beschreibungsverarmung“. Die Isotropie führt zu einer 2-dimensionalen Plausibilität, die sich formal auf Zeit und Radius „verarmt“. Die Selbstverständlichkeit, daß die Wegstrecke auf einer Kugeloberfläche nicht der euklidischen Entfernung zwischen den Punkten A und B entspricht bedarf keiner Abstraktion.

Das Verständigungs- und Interpretations-Problem besteht darin, daß stillschweigend vorausgesetzt wird, daß es (im Mikrokosmos) die klassische Möglichkeit eines euklidischen Abstandes gibt und daß dieser euklidische Denk-Ansatz im Rahmen der Allgemeinen Relativitätstheorie (ART) durch einen „gekrümmten dreidimensionalen Raum mit (erweiterter) Zeitfunktion“ eine abstrakte differentialgeometrische Erfüllung findet. Aber weder der „quantenmechanische“ Spin, basierend auf einer postulierten Wahrscheinlichkeitswelle oder wahlweise postulierten Punktmasse (des Elektrons), noch die postulierte Krümmung des Raumes beinhalten physikalische Plausibilität, geschweige denn Realität. Der quantenmechanisch-theoriebeladene Spin ist keine Meßgrösse. Gemessen wird stets ein magnetisches Moment. Spätestens seit der Epizykeltheorie sollte man wissen, daß mathematische Möglichkeiten kein Auswahlkriterium für die „Richtigkeit“ physikalischer Denkmodelle sind. Der leere Raum besitzt weder eine Dynamik noch ein Energiereservoir. Die Mathematik der unendlichen Felder führt zu einer permanenten Verletzung des Energie-Erhaltungssatzes, bzw. führt diesen ad absurdum. Bemerkenswert ist hier die (mehrdeutige) Psychologie der Masse der Feldtheoretiker.

Schon Isaac Newton hielt die Vorstellung, daß Gravitation durch den leeren Raum wirken könne, (berechtigterweise) für absurd. Es ist - übergeordnet und insgesamt betrachtet - alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend einer phänomenologischen Betrachtung und Erklärung. Der Real-Objekt begründete Raum ist inhärent an Masse gekoppelt und transformierbar. Bedingt durch die reziproke Proportionalität lässt sich Masse- in Raum-Energie transformieren und umgekehrt. Salopp formuliert: Grosse Masse kleiner Raum. Grosser Raum, kleine Masse. Unter diesem Aspekt lösen sich „instantan“ Neutrinothese und Dunkle-(„whatever you like“)xxx-Konstrukte (xxx : Masse, Energie, Photonen) in Wohlgefallen auf. Der Masse gekoppelte Raum steht für einen Paradigmenwechsel und stürzt die Standardmodelle der Kosmologie und Teilchenphysik nicht in ein Schwarzes Loch, sondern in die Sinnlosigkeit. Wirklich erstaunlich ist nicht die Tatsache, daß es (welch ein Wunder) reale Objekte gibt, sondern wie wenig Theoretische Physiker von Real-Objekten verstehen.

Vor lauter Bäumen den Wald nicht sehen...

Die Frage, ob Energie verkörpert ist, sollte jeder, der schon einmal die Energie-Masse-Äquivalenz E = mc² gesehen hat, ohne große Überlegung mit Ja beantworten können (losgelöst von der Tatsache, daß die Gleichung primär E2 = m2c4 lautet, was Alles andere als trivial ist, da negative Energiewerte, respektive negative Massen im dualen Gesamtbild der Elementarkörpertheorie evident sind, der Elementarkörper "(re)präsentiert" sozusagen die ideale Vakuumfluktuation).

Es gibt keine Energie, die nicht an Masse gekoppelt ist. Die relativistische Massenzunahme in Abhängigkeit der Geschwindigkeit ist ein Indiz für die verkörperte Energie. Denn die Zunahme der kinetischen Energie führt unter Annahme einer Masse behafteten Energie-Verkörperung dazu, daß die zur kinetischen Energie äquivalente Masse nun mitbewegt werden muß. Das bedeutet: Mit Zunahme der kinetischen Energie wächst auch die Gesamtmasse resultierend aus Ruhe-Energie und kinetischer Energie.

 

Die deutlich längere Lebensdauer der "kosmischen" Myonen, die mit fast Lichtgeschwindigkeit die Atmosphäre durchqueren, ist keine Folge der postulierten Zeitdilation, sondern das Ergebnis der verringerten Streuquerschnitte als Folge der Radiusverkleinerung bei gleichzeitiger Massenzunahme.

Beschleunigte, hochenergetische Teilchen ändern auf Grund der zugeführten Energie radialsymmetrisch ihre Masse-Radius-Verhältnisse. Das bedeutet: Sie werden mit zunehmender Geschwindigkeit masse-schwerer und proportional radius-kleiner. Die Wirkungsquerschnitte werden mit r², respektive mit 1/m² kleiner.

Was ist Masse?

In der Elementarkörpertheorie ist die Ruhe-Masse m0 ein Maß für die Oszillationsfrequenz des Elementarkörpers. Die radius-kleineren Elementarkörper besitzen eine größere Masse, da diese äquivalent zur (möglichen) Bewegung der oszillierenden Oberfläche ist. Masse ist also im Bild des Elementarkörpers äquivalent zur inneren Bewegung und wird über die reziproke Proportionalität auf den Radius zurückgeführt. Details siehe die Ausführungen zur Impulsmasse-Inversion.

Begriff der elektrischen Ladung

Elektrische Ladung ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse und dem Radius des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Das ist aber nicht der Fall. Elektrische Ladung ist "nichts weiter" als eine (skalierte) Masse-Radius-Funktion. Der Irrglaube über die (unbekannte) Natur der elektrischen Ladung bzw. Spekulationen über diese beruhen auf den historischen Denkmodell-Entwicklungen. Elementarkörpertheorie basierend sind alle vermeintlichen Ladungswechselwirkungen auf Masse-Radius-Kopplungen zurückzuführen. Elektrische Ladungen innerhalb der Elementarkörpertheorie kommen nur implizit über Funktionen der Sommerfeldschen Feinstrukturkonstanten α "rechnerisch" vor.

 

 

So gesehen, sieht schon seit mehr als 100 Jahren keiner der etablierten Theoretischen Physiker Wälder trotz der vielen Bäume. Das im Rahmen der Elementarkörperdynamik letztendlich Masse reziprok auf den Radius zurückzuführen ist, ist ein erkenntnistheoretischer Indikator für konsistente Plausibilität, mit der, statt neuer Parameter zur Strukturdeutung, konstruktive Eigenschaftsverarmung zum Ziel führt.  

    

DIE (expressionistisch formuliert) stirb und werde Frage

Es gab und gibt eine zentrale Frage, dessen frühe richtige Beantwortung die Katastrophe der generellen Unanschaulichkeit verhindert hätte bzw. verhindert. Gibt es einen Materie entkoppelten leeren Raum? Die Antwort lautet Nein. Die Antwort der ineinander übergreifenden, etablierten Standardmodelle der Teilchenphysik und Kosmologie war und ist Ja. Die latent vorhandene, richtige Antwort schloß sich spätestens mit der anerkannten These aus, daß die mit dem Urknall inhärente Inflationsphase eine überlichtschnelle Expansion des Raumes erfordert. Diese These wurde "akzeptiert" und in die Denkmodellstruktur einzementiert.

Die Pflicht, erst einmal plausibel und anschaulich ein minimalistisches Denkmodell zu erschaffen, bevor dieses formalisiert werden kann, wurde seitens der herrschenden Physik wiederholt - und immer noch - mit Füssen getreten. Spätestens seit Mitte des 20.Jahrhunderts bestimmt der mathematische Formalismus was gemessen wird, theoretisch Unpassendes wird substruktuiert und nachparametrisiert. Um diesen anhaltenden, methodischen Selbstbetrug zu verstehen, muß Niemand wissen was eine Lagrangedichte ist...

Sowohl die Epizykeltheorie aus heutiger Sicht als auch das Standardmodell der Teilchenphysik (SM) als quantenfeldtheoretische Anwendung und Weiterentwicklung der Quantenmechanik basieren auf Fourier-Reihen, bzw. Fourier-Transformierte. Das bedeutet, daß zumindest abschnittsweise alle Funktionen f(x) aus den gleichen "Bausteinen" sin x, cos x, sin 2x, cos 2x, ... aufgebaut sind und sich nur darin unterscheiden, mit welchen Faktoren a1, b1, a2, b2 ... die Bausteine gewichtet sind.

Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen.

Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier Theorem es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab den physikalischen Prozeß zu erkunden, denn es sind ja grundsätzlich nur Wahrscheinlichkeitsaussagen bei Quantenprozessen möglich.

Albert Einstein schrieb u.a. zur Quantenmechanik : [1] "die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wären. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne.

[1] A. Einstein, Out of my later years. Phil Lib. New York 1950  Seite 498

In der Zeit nach dem zweiten Weltkrieg hatte sich die Kopenhagener Deutung durchgesetzt, in Lehrbüchern war jetzt nur noch die Heisenberg-Bohrsche Quantentheorie ohne kritische Anmerkungen zu finden.

Das Sammelsurium an »Wünsch Dir was Interpretationen« der modernen Physik ist eine komplex-beliebige Absage an Stringenz und Konsistenz.

Beispiele: Spalte und Beugungskanten werden in der Regel als phänomenologisch "Schwarze Boxen" betrachtet. Wenn man die Natur der Wechselwirkung aber über Rechenvorschriften hinaus verstehen möchte, ist es zwingend ein Denkmodell von der atomaren Struktur des Spaltes und der Beugungskanten zu entwickeln. Das ist im Bild der modernen Phänomenologie befreiten Grundlagenphysik überaus schwierig, da ein mathematisches, Quantenfeldtheorie geprägtes System aus Quantenzahlen, mathematischen Gruppen, deren Transformationen und Symmetriebeziehungen nicht den Hauch einer Real-Objekt-Anschauung inne haben. Im Ergebnis sind alle Prinzipien zur Beschreibung der Natur der Strahlung von Quantenfeldtheorien weit entfernte heuristische Standpunkte. Die Qualität der Mutmaßungen variiert stark mit dem Anwendungsgebiet. Des Weiteren ist die Strahlung in Versuchen ein Objekt-Ensemble. Im Versuch vermischen sich, geprägt durch theoretische Erwartungshaltungen kunterbunt Einzelobjekt-Eigenschaften mit statistischen Verteilungseffekten des Objekt-Ensembles. Die Interpretationen und Schlussfolgerungen sind haltlos. Beugungsexperimente bestätigen nicht die Wellennatur des Lichtes sondern lediglich die Periodizität des Lichtes. Bereits Ernst Mach [2] zeigte, daß alle Beugungs- und Interferenzexperimente nicht die Welle, sondern nur die Periodizität des Lichtes beweisen. Dabei wurde der Wellenbegriff viel zu weit gefasst.

[2]Ernst Mach, Die Prinzipien der physikalischen Optik. Barth, Leipzig 1921; The Principles of Physical Optics. New York 1926.

Ein einziges, „einsames“, stoßfähiges Teilchen ist "undifferenziert" weder eine Welle, noch erzeugt es eine Welle.

Dr. Helmut Nieke    Newtons Beugungsexperimente und ihre Weiterführung

[3]…In Nieke, „Newtons Beugungsexperimente und ihre Weiterführung“ Halle 1997, wird gezeigt, daß Fresnels angeblicher Beweis für Licht als Welle, auf einer unzulässigen und falschen Extrapolation der Gleichung für die Beugung am Spalt auf die Entfernung Null basiert. Seinerzeit wurde das nur akzeptiert, weil Newton mit punktförmigen Lichtteilchen und deren Mechanik eine Beugung nicht begründen konnte. So wurde ab etwa 1850 in Lehrbüchern die Beugung nach Fresnel mit Wellen als einzige Möglichkeit dargestellt. Newtons Beugungsexperimente hingegen wurden unterschlagen und so eine simplifizierte und irreführende Theorie manifestiert. Auch nach Entdeckung des lichtelektrischen Effektes am Anfang dieses Jahrhunderts hatte sich an der "manifestierten" Theorie nichts geändert, und es wurde lediglich ein Dualismus von Welle und Korpuskel gefolgert. Auch Bohr baute seine Quantentheorie mit der Kopenhagener Deutung auf dem Dualismus von Welle und Korpuskel auf, die er mit dem Indeterminismus bei Quantentheorie verband, aus dem die Unanschaulichkeit bei Quantenprozessen gefolgert wurde. Einstein legte dagegen Widerspruch ein, konnte aber seine Anschauung nicht begründen, da er die Newtonschen Beugungsexperimente nicht berücksichtigte. Aber auch wenn er sie berücksichtigt hätte, hätte er seinerzeit keine Alternative bieten können…

[3] http://www.gebeugtes-licht.de/histphil.htm

Wie u. a. Fresnel, Newton, Nieke bemerkten, stammen die zur Interferenz beitragenden Anteile der Beugung in erster Linie von den Spaltkanten.

Grimaldi [4] berichtete als erster 1665 über die Beugung und dabei auch über die leuchtende Kante, die man sieht, wenn eine Lichtquelle durch eine Halbebene verdeckt ist.

[4]  F. M. Grimaldi, Physico-mathesis de lumine, coloribus et iride. Bonniae 1665.

Fresnel [5] bestätigte in seiner ersten Arbeit über die Beugung ausdrücklich, daß er sich überzeugt habe, daß gebeugtes Licht ausschließlich von den Kanten kommt, was er später nie berücksichtigte. Die Existenz einer leuchtenden Kante als physikalisches Phänomen, war zur damaligen Zeit allgemein anerkannt. Die Folgerung, daß gebeugtes Licht nicht vom gesamten Spalt kommt, war selbstverständlich, sie brauchte nicht besonders betont zu werden.

[5] A. J. Fresnel, Oeuvres Complétes I. Paris 1866; Abhandlungen über die Beugung des Lichtes. Ostwalds Klassiker Nr. 215, Engelmann, Leipzig 1926.

Fresnel konnte mit dem von Fourier stammenden Theorem Grenzfälle der Beugung berechnen. Seine Messergebnisse teilte er nur mit, wenn sie mit seiner Theorie hinreichend übereinstimmten. War das nicht mehr der Fall, so brach er die Mitteilung ab, ohne die Diskrepanzen anzumerken.

Newton [6] berichtete im III. Buch seiner »opticks« umfassend über die Beugung. Hier interessiert die 5. Beobachtung, wo er nachweist, daß gebeugtes Licht nur aus der engen Umgebung der Kante kommt (Größenordnung einige 1/100 mm); sowie der Beobachtung 10, wo er am Dreieckspalt nachweist, daß in kurzen Entfernungen und großen Spaltweiten erst die inneren Beugungsstreifen des Spaltes entstehen, die der Beugung der Kanten als Halbebenen entsprechen (innerhalb der Schattengrenze-Beugungsstreifen mit ungleichmäßigen Abständen, außerhalb kontinuierlicher Abfall). Erst in großen Entfernungen oder bei kleinen Spaltweiten entstehen die äußeren Beugungsstreifen (außerhalb der Schattengrenzen), die seit etwa 1850 in Lehrbüchern als einzige Beugungsstreifen am Spalt beschrieben werden. Newton stellte nicht nur die Behauptung auf, sondern er wies mit den oben genannten Beobachtungen nach, daß Licht niemals eine Welle sein kann. Er konnte aber keine Theorie der Beugung bringen, denn für punktförmige Lichtteilchen konnte die Newtonsche Mechanik keine Begründung der Ablenkung senkrecht zur Ausbreitungsrichtung angeben. Die Newtonschen Beugungsexperimente zeigten, was außerhalb der Fresnelschen Theorie die Beugung noch kennzeichnete, aber dies passte nicht zu Fresnels Vorstellungen. Daher ließen die Lehrbuchautoren Newtons Beugungsexperiment einfach weg, sie wurden unterschlagen und blieben unberücksichtigt; man extrapolierte so über dieses Gebiet unzulässig und falsch hinweg. So wurde eine unvollständige und damit irreführende Theorie der Beugung propagiert.

[6] Newton , Opticks 1704; Opera quae exstant omnis, Tom. IV, London 1782; Optik II + III. Übers. W Abendroth, Ostwald’s Klassiker Nr. 97, Engelmann, Leipzig 1898; NeuaufIage Bd. 96/97, Vieweg, Braunschweig 1983; Optique. Trac. J. P. Marat 1787; Bourgois 1989 …online Dr. Helmut Nieke : http://www.gebeugtes-licht.de/downloads/ARBEIT19.pdf

Die Newtonschen Beugungsexperimente wurden von Nieke [7] in einer Schlierenapparatur nach Abbe weitergeführt, die eine Trennung von gebeugtem und nicht hinreichend gebeugtem Licht gestattet. Newtons Beobachtung 5 und 10 wurden bestätigt und weitergeführt. Durch Abdecken von Ordnungen in der Schlierenapparatur kann deren Zuordnung zu zwei Orten im Spaltbild gezeigt werden (aber nicht innerhalb einer Ordnung). Bei Nieke [8] wird das Babinetsche Prinzip für Beugungsstreifen am Spalt und Hindernis als kantensymmetrisch vertauscht gezeigt und nur in Spezialfällen sind die Beugungsfiguren gleich. Nieke [9] bewies die sog. Kohärenzbedingung als eine geometrische Bedingung. (Winkel zur Lichtquelle kleiner als zum Abstand der Beugungsstreifen). Nieke [10] zeigte, daß sich hintereinander folgende Beugungen von unbeeinflussten Beugungen unterscheiden. Weiter wird nachgewiesen, daß bei Abdeckung eines Spaltbildes des Doppelspaltes nach Zwischenabbildung sich trotzdem die Beugungsfigur des Doppelspaltes ergibt, wenn vor der Zwischenabbildung ein Weg größer als Dezimeter bestand.

[7] H. Nieke, Newtons Beugungsexperimente und ihre Weiterführung. Arbeit 1 und 2 [8] Wie [7] Arbeit 3 [9] Wie [7] Arbeit 4 [10] Wie [4] Arbeit 5.

 

Der Einfachspalt

Bei der Beugung am Einfachspalt ist die beugende Öffnung ein feiner Spalt mit konstanter Breite. Gemäß Lehrbücher verbreiteter Annahmen sind alle Punkte des Spaltes als Ausgangspunkt von Kugelwellen anzusehen (Huygens'sches Prinzip), die sich in der Beobachtungsebene überlagern und das Beugungsbild erzeugen.

Diese Annahme ist grundlegend falsch.

Wenn Heisenberg auf der Grundlage des ,,Kopenhagener Geistes der Quantentheorie" den Dualismus von Welle und Korpuskel benutzt, so hat er mit der Welle die unzulässige und falsche Extrapolation akzeptiert. Diesen Wellenbegriff brauchte Heisenberg aber zur Rechtfertigung der Benutzung des Fourier-Theorems, das er als „ein allgemeiner mathematischer Satz besagt" zitiert, mit dem er ein Wellenpaket von beliebiger Gestalt aufbauen kann, nämlich jede stückweise monotone Funktion. Da jedes experimentelle Ergebnis stückweise monoton ist, so dachte Heisenberg, daß ihm nichts passieren kann. Mit der Berücksichtigung der Newtonschen Beugungsexperimente muß aber die Welle in Abrede gestellt werden und damit verliert auch die generelle Anwendung des Fourier-Theorems seine universelle Begründung. Nieke [11] bemängelt, daß Teilchen mit Struktur nicht mit zwei Angaben wie Ort und Impuls oder eines Paares kanonisch konjugierter Variabler zu kennzeichnen sind, wie dies die Heisenbergsche Unbestimmtheitsrelation voraussetzt. Die Heisenbergsche Unbestimmtheitsrelation wäre danach nur für punktförmige Partikel anwendbar, und die gibt es nicht.

[11] Dr. Helmut Nieke : http://www.gebeugtes-licht.de/downloads/ARBEIT19.pdf     http://www.gebeugtes-licht.de/archiv.htm

 

 

 

 

"zur Erinnerung"

"Formaler Aphorismus"

Elementarkörpertheorie im Bild

 

 

 

 

 

 

Wie es ein «Freund» der Elementarkörpertheorie mit den Worten Goethes über den Elementarkörper(-Teil "unserer Welt") so schön sagte:

»Ich bin Teil eines Teils, der anfangs alles war.«

Ein Teil der Finsternis, die sich das Licht gebar, das stolze Licht, das nun der Mutter Nacht den alten Rang, den Raum ihr streitig macht. Und doch gelingst ihm nicht, da es, soviel es strebt, verhaftet an den Körpern klebt. Von Körpern strömts, die Körper macht es schön, ein Körper hemmt's auf seinem Gange; so, hoff ich, dauert es nicht lange, und mit den Körpern wirds zugrunde gehn.                             Johann Wolfgang von Goethe (1749 - 1832)

 

 

 

Eine kleine Pause von der Physik...

 

 

Wer es theoretischer mag...

Die Bedeutungslosigkeit "moderner" Kunst ist dank Marcel Duchamps Wirken inhärenter Begleiter des "modernen" Künstlers. Künstlerische Fertigkeiten sind zwar von Vorteil, lassen sich aber stets als "nur" Kunsthandwerk verstehen.

 

 

Konsequent zu "Ende" gedacht, ist der Preis für die Unabhängigkeit des Künstlers, die Befreiung vom Kapital. Wahre Kunst ist frei von Kapitalerträgen. Diese Freiheit lässt sich ohne "Goldene Löffel-Geburt" im Rahmen eines theoretischen Modells nur mit Einnahmen (nicht aus der Kunst direkt aber) aus dem kunstnahen Bereich verwirklichen. Soll heißen: Der Käufer sieht das interdisziplinär wirkende Funktional des [Kunst-]Produktes. Das Kunstobjekt als solches bleibt wertfrei. Der Erwerber bereichert sich intellektuell und "zahlt" für seine symbiotische "Anteilnahme". Erzielte Erträge des Künstlers für konkrete Werke sind existenziell hilfreich, haben aber mit dem Tatendrang primär nichts zu tun.

"Eins" sollte auch klar sein, Leben ist egoistisch. Künstler sind immer auch egozentrisch und wünschen sich Aufmerksamkeit. Inwieweit ein privat motiviertes Anliegen neben den Besitzerfreuden auch gemeinnützliche Aspekte generiert, steht auf einem anderen Blatt.

Soll Kunst einfach nur "schön" sein, dann reduziert sich die Wechselwirkung auf individuelle Befindlichkeiten. Soll Kunst »mehr« sein, dann stellt sich die Frage, was dieses »mehr« ist.

 

[Dirk Freyling - AlexD    Berlin Oktober 59 ndf      c-print  foto by T.B. ] 

 

 

Kunst sollte mehr sein als «Allegoriengeschraube»   

Ein Werkzeug, um der etablierten Form- und Inhalts-Verwahrlosung der Kunst(-Produkte) entgegen zu treten, ist "die" bewusste, selbstinszenierte konzeptionelle Parodie auf moderne Kunst und deren Künstler. Analytische Anatomiestudien können so mehrdeutig verstanden werden.

 

Basissuche und freundliche Entschleunigung beginnen u.a. mit direkten, nicht materiell ausgerichteten Naturerfahrungen und Spaß an der Freude. Die Struktur eines Blattes, der Geruch einer „wildlebenden“ Pflanze, die Bewuchsvielfalt einer Wiese, das Insekt von "nebenan" und spielerisches Miteinander helfen (auch) sich selbst wahrzunehmen.

 

 

der Kollege                 paint on canvas  25 x 30 cm  adf  46ndf

 

 

 

 

 

 

 

 

 

 

 

 

 

 

[ art installation by adf    ARTSTOFF Berlin     September 2010 - Juli 2011   impression ]