Freude
an der Wirklichkeit
Auch
wenn es sich hier um eine wissenschaftliche Betrachtung der
Materie handelt, sollen ergänzend Humor und interdisziplinäre
Verweise nicht zu kurz kommen. Die mathematisch-physikalischen
Ausführungen sind bewusst mit künstlerischen Bild-Elementen
ausgeschmückt, da es Spaß macht die Vitalität der Theorie zu
illustrieren. Authentizität und Egozentrik des Theorievaters
sollen und werden kein Geheimnis bleiben.
Gibt
es noch etwas "Konträres" in der Theoretischen
Grundlagenphysik zu entdecken? Hat der herrschende
Indeterminismus der Modernen Physik das "letzte Wort"?
Der
Glaube an das Standardmodell der Teilchenphysik (SM) ist heute
so selbstverständlich, wie "damals" der Glaube an die
Epizykeltheorie des geozentrischen Weltbildes. Keiner kann sich
auf Grund der weltweiten, jahrzehntelangen Beschäftigung der
Theoretischen Physik mit Quantenfeldtheorien (QFTn) vorstellen,
daß diese (noch) irgendwie fundamental "falsch" sein
könnten…
Und
doch, wenn man konsequent Masse und (richtungsunabhängige)
Ausdehnung sprich den Radius (auch)
mikroskopischer Körper als inhärente Fundamentaleigenschaften
voraussetzt, stößt man auf eine determinierte
Masse-Radius-Konstanz. Diese Konstanz führt zu einer tief
greifenden Korrespondenz und zu exakten Voraussagen.
["Praktische" Beispiele sind u.a. die Elementarkörper
basierende exakte, formal-analytische Berechnung des
Protonenradius, die energetisch begründete Herleitung der
Sommerfeldschen Feinstrukturkonstanten auf Grundlage der
Masse-Radius-Konstanz der elektrischen Ladung (beliebiger
Elementarladungsträger), die Berechnung (vermeintlich) anomaler
magnetischer Momente, Neutronenmasseberechnung, um nur einige zu
nennen. Es wird, sowohl phänomenologisch als auch formal,
anschaulich deutlich, daß u.a. die Konstanz und Invarianz der
elektrischen Ladung, trotz erheblich unterschiedlicher Massen
der Ladungsträger (Proton, Elektron, Pion, Myon, …), ihre
Ursache in der konstanten Masse-Radius-Beziehung hat.

»abstract«
Die
Elementarkörpertheorie befasst sich insbesondere mit der
Frage, wie Masse und Raum basisnah miteinander verknüpft sind
und im „Zusammenspiel“ zu verständlichen Materiebildungen führen,
die sich näherungsfrei und ohne freie Parameter
formal-analytisch - sowohl mikroskopisch als auch
korrespondierend makroskopisch - berechnen lassen.
Konträr
zur Aussage der Standardphysik, die vier Grundkräfte
postuliert, lässt sich Elementarkörper basierend - auf Grund
der (skalenkorrespondierenden) Masse-Raum-Kopplung - jedwede
Wechselwirkung auf das Masse-Radius-Verhältnis der
interagierenden Wechselwirkungspartner reduzieren. Das führt zu
einer konstruktiven Beschreibungsverarmung, die entweder durch
die Radien oder deren reziprok proportionale Massen ausgedrückt
werden kann. Mit Hilfe dieser einkomponentigen sprichwörtlichen
Minimalbeschreibung lassen sich Materiebildungsmöglichkeiten
verstehen und formal analytisch exakt berechnen.
statt
4 Grundkräften →
Masse - Radius - Kopplung
Die
zeitabhängigen Elementarkörper-Entwicklungs-Gleichungen leiten
sich aus der beobachteten Invarianz der (Vakuum-)Lichtgeschwindigkeit
ab. Der fundamentale Unterschied zur (Speziellen) Relativitätstheorie
respektive zur Lorentztransformation ist der
wechselwirkungsnotwendige radialsymmetrisch-dynamische Charakter
dieser Gleichungen. Für ein anschauliches Verständnis
und resultierend für die phänomenologisch begründeten
Elementarkörpertheorie basierenden Gleichungen sind
nachweislich weder eine substrukturierte* Zeit, noch
mathematische Raum-Zeit-Konstrukte notwendig.
*In
der Elementarkörpertheorie ist die Zeit eine Variable ohne
Substruktur, bedeutet u.a.
Zeit
ist nicht dilatierbar. Phänomenologisch: Zeitdilatation ist
genauso wenig vorstellbar wie die Krümmung eines
dreidimensionalen Raumes. Physik wird hier in einem
dreidimensionalen, sinnlich vorstellbaren Raum beschrieben, die
sich auf Grund der Radialsymmetrie räumlich konstruktiv
reduziert
und sich
mit Hilfe des Radius abbilden und formalisieren läßt.
Besondere
physikalische und epistemologische Bedeutung erlangt das Modell
der phänomenologisch begründeten masse-radius-gekoppelten
Elementarkörper durch die Ergebnis-Genauigkeit und Einfachheit
der resultierenden Gleichungen, die stets auf leicht verständlichen,
konsistenten Denkansätzen beruhen. Das exakte Ergebnisspektrum
umfasst Größen vom Protonenradius,
der Ionisierungsenergie des Wasserstoffatoms, der Herleitung der
Sommerfeldschen Feinstrukturkonstanten aus Vergleich von
elektrischer und Gesamt-Energie bis hin zu makroskopischen, wie
der Temperatur
der kosmischen Hintergrundstrahlung, um nur einige wichtige
zu nennen. Die zugrunde liegenden Gleichungen sind
korrespondierend skalen- und mengeninvariant.
Die
grundsätzliche, phänomenologisch begründete Elementarkörper
basierende Denkmodell-Forderung besteht darin, daß möglichst
minimalistische Gleichungen sowohl das masselose Photon als auch
massebehaftete Materie abbilden. Die Entstehungsgleichungen
r(t) = r0 ·sin(c ·t/r0) und m(t) = m0
·sin(c ·t/r0) leisten genau das. Die zeitlose
Lichtgeschwindigkeit - als Zustand reiner Bewegung - steht
nicht im Widerspruch mit der Materie-Energie-Verkörperung.

Information
als materieller Zustand = Elementarkörper
Zustand
als Information = Photon

Die
Elementarkörpertheorie liefert neben konkreten Voraussagen
insbesondere Phänomenologie. Mathematik ist zwar
"Denkmodell-inhärent", aber hier nur "Mittel zum
Zweck". Die Elementarkörpertheorie baut auf Plausibilität
und Minimalismus auf und ist nachvollziehbar weder an
Wahrscheinlichkeiten noch methodischer Materiezersplitterung
interessiert. Der inhaltliche Konflikt mit bestehenden Theorien
und Modellen, insbesondere mit dem Standardmodell der
Teilchenphysik (SM) und der ursächlichen Quantenmechanik (QM),
ist unausweichlich.
(Objektorientierte)
Einzelaspekte (zum Beispiel zum Wasserstoffatom),
phänomenologische Zusammenhänge, detaillierte Angaben, konkrete
Berechnungen finden sich in den Einzelkapiteln, die über das
Webseiten-Menü wählbar sind. Zum
Kennenlernen werden einige Sachverhalte und Denkanstösse an
verschiedenen Stellen bewusst wiederholt. Der Leser mag selbst
entscheiden, ob er bereits Bekanntes nochmals liest. Die
Texte sind so geschrieben, daß mit etwas Geduld auch weniger
vorgebildete Leser einen roten Faden aufnehmen können. Sollte, an
der einen oder anderen Stelle, ein Begriff nicht bekannt sein oder
ein Resultat nicht sofort verstanden werden, so empfiehlt es sich
erst einmal weiter zu lesen.
"Parallel"
Wikipedia zu bemühen ist leider nur für den groben Überblick zu
empfehlen. Wikipedia-Moderatoren sind systemtreu. Kritik an
Standardmodellen wird zensiert, es sei denn, diese kommt als
harmloser Selbstversuch, direkt von den
Standard-Modell-Protagonisten, die dann früher oder später
Standardmodell freundliche Lösungen bzw. meist
Theorie-Erweiterungen präsentieren. Darüber hinaus ist die
deutsche Wikipedia im Vergleich zur englischsprachigen Wikipedia
oftmals deutlich weniger umfangreich und deutlich weniger
kontrovers, sofern man überhaupt von Kontroverse sprechen kann. Um zu verstehen, wie „schwach“ deutsche
Wikipedia-Einträge im Vergleich zu englischen sind, bietet sich
exemplarisch
die Fermi-Wechselwirkung
an. Vergleiche dazu Fermi’s
interaction.
Das
Internet als solches ist bei der bewussten und manchmal
intuitiven, zielführenden Suchbegriffsgestaltung durchaus eine
Fundgrube für alternative Ideen. In der Summe aller Ereignisse
sind viele der relevanten Beiträge (jedoch) in Englisch.
[ Allgemeine Hinweise: Leider halten sich
auch Lehreinrichtungen - hier und da - nicht an gängige
Informationsstandards. Das bedeutet, daß beispielsweise die eine
oder andere Universität „Links“ ohne Angabe von Gründen („plötzlich“)
löscht. Das ist insbesondere unter dem Aspekt von
aussageunterstützenden Quellenangaben „sehr unschön“.
Gegebenenfalls muss der Leser selbst mittels geeigneten
Suchbegriffen eine neue „Verknüpfung“ herstellen.
Verknüpfungen (Links) zu externen
Artikeln und wissenschaftlichen Studien enthalten mitunter
weitere zahlreiche weitere Links. So kann eine grosse
selbständige Recherchentiefe erreicht werden. Leider sind - nach
wie vor - viele Deutschsprachige nicht der englischen Sprache
mächtig. Daraus folgt ein riesiges Informationsdefizit, weil
viele wichtige Quellen unerschlossen bleiben bzw. zeitraubend
mittels Online-Sprach-Übersetzern erschlossen werden. Hier
bleiben jedoch Unsicherheiten und es ergeben sich teils
Falschinterpretationen. Mein Rat: Englisch lernen! Es ist nie zu
spät...denn auch in Zukunft ist die Sprache des Internets und
der internationalen Wissenschaft Englisch.]
Zur
Aussage-Form des Vortrages
"Wortgewordenes", teils in Form von Satire,
Ironie und Zynismus, ist Ausdruck der Empörung und des
Unverständnisses über die fragwürdige, etablierte
Beliebigkeit heutiger Theoriemodelle zur Beschreibung der
Materie. Sofern man nicht schon von den bestehenden
Standardmodellen geistig gebrochen bzw. "vollständig
assimiliert" wurde, lohnt es sich - Ästhetik und Schöngeist
orientiert - "etwas" Abstraktion und Geduld für die
folgenden Ausführungen aufzubringen.
Das
Gros der Menschen des frühen 21.Jahrhunderts
verfügt - konträr zum angewandten technischen
Fortschritt - nur über eine einfache Lesefähigkeit.
Im Vergleich mit herkömmlichen Textbotschaften
(Twitter, WhatsApp, Mainstream-Artikeln, …)
sind vorliegende Ausführungen
tendenziell sprachlich komplex. Die Fähigkeit
diese Texte verstehen zu können, setzt einen
spielerischen Umgang mit Sprache voraus. Die
Basisaussagen des vorliegenden Denkmodells sind
„glücklicherweise“ - sowohl sprachlich als
auch inhaltlich - einfach zu verstehen.
Beispiel: Ein
Denkmodell ohne Mathematik ist ein
philosophisches Denkmodell. Ein Denkmodell „aus“
Mathematik ist kein physikalisches Denkmodell.
Mathematik kann nicht zwischen Staub und
Staubsauger unterscheiden. In einem allgemein
verständlichen Denkmodell ist Mathematik nur
Mittel zum Zweck. Nichts weiter als ein
plausibilitäts-resultierendes, praktisches
Ordnungs- und Formalisierungsinstrument.
Begriffe
wie Heuristik, Approximation und Algorithmus
machen nur dann Sinn, wenn diese sowohl in ihrer
ursprünglichen als auch in der modernen Form
verstanden werden. Darüber hinaus ist Sprache
abstrakt und „verführerisch“. Eine
beispielsweise heuristische
Reduktion ist ein inhaltlich
"unnötiges" Konstrukt, da die
Heuristik bereits „die“
(Informations-)Reduktion enthält.
Obwohl
die ein oder andere „Auffälligkeit“ seit
Jahrhunderten bekannt ist, ist bis heute kein
tiefer liegendes Verständnis modellmäßig
entwickelt worden. Sehr bemerkenswert ist das Buffonsche
Nadelproblem welches experimentell die
Kreiszahl π bestimmt*. Das ist insbesondere
unter dem Aspekt interessant, daß die
Fragestellung der Wahrscheinlichkeit und die
Konzeption des Versuches, indem „Linienobjekte“
(Nadeln) parallele Abstände „berühren“,
keinen offensichtlichen Zusammenhang zum Kreis
abbilden und der Versuch als solches das
Ergebnis ohne eine begründete mathematische
Berechnung liefert, insofern als das man
schlicht das Verhältnis von linien-berührenden
Nadeln (l) zur Gesamtanzahl (n) der im Versuch
„geworfenen“ Nadeln (n) ausdrückt: l/n
≈ 2/ π.
*Konkret
bedarf es hier einer (weiterführenden)
analytischen Fähigkeit einen Zusammenhang zu
π herzustellen, da die experimentell
bestimmte Wahrscheinlichkeit, mit der Nadeln
mindestens eine parallele Linie berühren, den
Wert 2/π ergibt.
Geschichtliche
Einzelheiten zu Louis Leclerc de Buffon
(1707 – 1788) von Ehrhard Behrends
Für
die Elementarkörpertheorie ist der
Faktor 2/π respektive der
Kehrwert π/2 wortwörtlich
von maßgebender Bedeutung:
Mittels
der Masse-Radius-Konstantengleichung [F1] lässt
sich der Protonenradius in Abhängigkeit
der Protonenmasse und der (Natur-)Konstanten
Plancksches Wirkungsquantum h und
(Vakuum-)Lichtgeschwindigkeit c phänomenologisch
begründet exakt berechnen (Details siehe das
Kapitel Protonenradius).
Diese Berechnung ist historisch gesehen die erste
grundlegende Voraussage der Elementarkörpertheorie.
Siehe
hierzu ("ergänzend") die Bemerkung von Prof. Dürr
über die fundamentale Natur des Protons:
...Was
dafür spricht, daß das Proton tatsächlich
fundamental ist, ist eine spezielle Koinzidenz,
auf die der Physiker Hans-Peter
Dürr in seinem Aufsatz Neuere
Entwicklungen in der Hochenergiephysik – das
Ende des Reduktionismus? 1986 aufmerksam
gemacht hat. Er weist daraufhin, dass die
Vorstellung einer Teilchenunterstruktur mit
Erreichen einer charakteristischen Schranke
versagt. Diese charakteristische Schranke ergibt
sich aus dem Verhältnis zwischen dem
Planckschen Wirkungsquantum h und der
Lichtgeschwindigkeit c. Die sich daraus
ergebende Größe hat die Dimension einer Masse
mal einer Länge. Dürr zufolge versagt für
Systeme, für die das Produkt aus ihrer Masse m
und ihrer Größe R diese Maßzahl
unterschreitet, die Vorstellung einer
Teilchenstruktur: m · R
«h/c» 10-37
g cm.
Dürr
nimmt diese auffällige Koinzidenz zum Anlass,
das Quark-Modell zu kritisieren. Es kommt ihm,
wie er betont, reichlich merkwürdig vor, daß
sich die Natur, um
unserem Teilchenbild entgegenzukommen, auf ihren
tieferen Ebenen in eine so spezielle Dynamik wie
die Quantenchromodynamik flüchtet.1
1Dürr, Hans-Peter, Neuere
Entwicklungen in der Hochenergiephysik – das
Ende des Reduktionismus? in: Selbstorganisation
– Die Entstehung von Ordnung in Natur und
Gesellschaft, (hrsg. Andreas Dress, Hubert
Hendrichs und Günter Küppers, München 1986,
S. 15 – 34)
Hans-Peter Dürr (1929 - 2014) war u.a.
Mitarbeiter von Werner Heisenberg und
Direktor des Max Planck Institutes für Physik
bis1997.
Es existieren sehr informative und interessante
Betrachtungen zur Masse-Radius-Konstanz im
Rahmen des Themas „Naturkonstanten und
Artefakte“ von Prof. Dr. Walther Umstätter:
Die fundamentale Bedeutung der Informations- und
Wissensmessung und ihre Beziehung zum System der
Planckeinheiten.
Geschichtliches
zum protonenmasse-inhärenten Protonenradius
Es gab eine
(vermutlich wenig beachtete) Bemerkung von Wolfgang
Finkelnburg aus dem Jahre 1947 mit der Überschrift
„Über das Maß von Kernentfernungen und
eine merkwürdige Beziehung zwischen den
Grundkonstanten der Physik“ siehe: Finkelnburg1947Hinweis
Wie
wichtig zahlenanalytische Fertigkeiten ohne
theoriebeladene Erwartungen sind, verdeutlicht
die Bestandsaufnahme der experimentellen Werte
zu den (vermeintlich anomalen)
magnetischen
Momenten. Bemerkenswert
ist die Tatsache, daß die experimentellen
Ergebnisse, sofern man diese ohne
theoriebeladene Erwartungen in Richtung
"leptonischer "Strukturlosigkeit"
bzw. quarks-basierender Substruktur betrachtet,
eine leicht feststellbare Gemeinsamkeit
aufweisen. Die zusätzlichen (vermeintlich anomalen) magnetische Moment-Beiträge zu
den semiklassisch zu erwartenden sind sowohl für
Proton, Neutron als auch für das Elektron stets
~ 1·10-26 Joule/Tesla.
Die erkenntnistheoretischen Folgen sind für die
Quantenelektrodynamik (QED), die
Quantenchromodynamik (QCD) und das bestehende
Standardmodell der Teilchenphysik (SM) fatal.
Zahlenanalytische Bestandsaufnahme und
Denkmodell-Ausführungen mit konkreten
Berechnungsmöglichkeiten, siehe die Anatomie
anomaler magnetischer Momente.
|
|
Form
und Inhalt
Es
gibt nicht wenige Stellvertreter der "Modernen
Physik"
die vorliegende gestalterische Wahl kategorisch ablehnen. Es
wird eine wissenschaftliche Präsentation verlangt, so wie man
sie kennt, ansonsten wird Alles "ungesehen" als
unwissenschaftlich bewertet. Diese Forderung ist jedoch
inhaltlich belanglos, wenn man den dazugehörigen, andauernden,
weltweiten "Feldversuch" betrachtet. Denn, auch dann, wenn »Prof.Dr.Tralala«
ein "normgestaltetes" Dokument ("scientific
paper") präsentiert, wird er, sofern seine Ergebnisse von
den Standardmodellansichten signifikant abweichen, schlicht
ignoriert, wie jeder Interessierte an zahlreichen Beispielen der
"jüngeren" Wissenschaftsgeschichte selbst
recherchieren kann.
Anfang
des 20.Jahrhunderts waren im Bereich der Modell-Physik Max Planck und Albert Einstein
Aktivisten radikal neuen Denkens. Wobei Planck im Vergleich zu
Einstein in Bezug auf grundsätzliche Denkmodell-Erwartungen als
"plausibilitätssuchend-konservativ" zu verstehen ist.
Planck und
Einstein waren zeitlebens aber auch ihre (eigenen) größten
Kritiker. Doch ihre Kritik, die sich darin begründete,
daß - plakativ formuliert - keine ausreichende
Phänomenologie zur verwendeten Mathematik existiert(e), wurde von
den akademischen Zeitgenossen und akademischen
Nachfolgern ergebnisorientiert ignoriert. Werner Heisenberg,
Wolfgang Pauli, Paul Dirac, Julian Schwinger, Richard Feynman
und Denkverwandte waren im Zuge indeterministischer Quantisierungsfantasien
letztendlich von ihrem "mathematischen" Zauber so sehr
berauscht, daß sie generell fehlende Phänomenologie durch bloße
Rechenvorschriften ersetzten.
Am
Rande bemerkt: Die phänomenologische Bedeutung des Planckschen
Wirkungsquantums ist nicht wirklich geklärt. Tatsache ist, daß
die Unteilbarkeit des Wirkungsquantums seit über hundert Jahren
bis zum heutigen Tage noch nie begründet wurde. Max Planck hat
sie nicht begründet, weil er das Wirkungsquantum (notgedrungen)
für eine elementare mathematische Größe hielt, deren
"Notwendigkeit" aus der Theorie folgte. Einstein
hielt eine Begründung nicht für notwendig, weil er an Plancks
"Deduktion" glaubte. Er verschob die Bedeutung des
Wirkungsquantums, indem er die mathematische Größe als eine physikalische
Größe interpretierte.
Schon
Ernst Mach bemerkte: "Wer Mathematik treibt,
den kann zuweilen das unbehagliche Gefühl überkommen, als ob
seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit
überträfe, ein Eindruck, dessen selbst der große Euler
nach seinem Geständnisse sich nicht immer erwehren
konnte." [EM1]
[EM1]
Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen
Akademie der Wissenschaften zu Wien am 25. Mai 1882

Zur
menschlichen Orientierung
Das
intellektuelle Viereck: Mach Boltzmann
Planck Einstein
eine
"Einschätzung" von Engelbert Broda

Ein
Mythos bezüglich mathematischer Fähigkeiten
Lee
Smolin
schreibt in
Lessons
from Einstein’s 1915 discovery of general
relativity, December 2015 u.a.
..."Einstein
war weder sehr gut in Mathematik ausgebildet,
noch sehr gut darin. Er war auf Freunde wie
Marcel Grossman angewiesen, um ihm die
Mathematik zu erklären, auf der die allgemeine
Relativitätstheorie beruht. Und er war auf
andere Freunde wie Michael Besso angewiesen, um
die richtige Interpretation der Mathematik zu
finden. Zeitgenossen stellten in der Tat fest,
dass es viele Kollegen gab, die viel besser in
Mathematik waren, wie John von Neumann. Im
Gegensatz zu Newton erfand Einstein keine neue
Mathematik, mit der er seine neuen Theorien
ausdrückte. Die Allgemeine Relativitätstheorie
verwendet Mathematik, die für die Mathematik
gekrümmter Flächen und allgemeiner Geometrien
entwickelt wurde, die in der zweiten Hälfte des
19. Jahrhunderts von Mathematikern entwickelt
wurde. Einstein war der erste Physiker, der
diese neue Herangehensweise an die Geometrie zur
Beschreibung physikalischer Systeme nutzte. Aber
er folgte dem Unterricht von Marcel Grossman
beim Erlernen und Anwenden der Mathematik. In
der Tat war Einstein nicht sehr gut darin, diese
neue Mathematik anzuwenden. Nachdem er die
Gleichungen der allgemeinen Relativitätstheorie
aufgeschrieben und veröffentlicht hatte, wurden
schnell Lösungen gefunden, die einfache
Beispiele beschreiben. Diese beschreiben sehr
symmetrische Situationen wie kugelsymmetrische
Sterne und homogene, expandierende Universen.
Diese Lösungen abzuleiten sind nun Hausaufgabenübungen
in Grundstudiengängen der Allgemeinen Relativitätstheorie.
Aber Einstein hat keine dieser einfachen Lösungen
gefunden, es gibt tatsächlich keinen Beweis,
dass er überhaupt danach gesucht hat. Sie
wurden von anderen innerhalb weniger Wochen nach
Veröffentlichung seiner Artikel gefunden.
Warum
webte Einstein einen Mythos um seine Schöpfung
der allgemeinen Relativitätstheorie? Was war
sein Motiv, eine Fabel über die Rolle der
mathematischen Schönheit bei der Schaffung der
allgemeinen Relativitätstheorie zu erzählen?
Der Grund könnte sein, dass er Propaganda
machte, um das Interesse an der Arbeit zu fördern,
die er unternahm, um der allgemeinen Relativitätstheorie
nachzugehen. Dies zielte darauf ab, über die
allgemeine Relativitätstheorie zu einer Theorie
zu gelangen, von der er hoffte, dass sie sein
Meisterwerk sein würde, eine einheitliche
Theorie aller Phänomene, die nicht nur die
Schwerkraft, sondern auch den Elektromagnetismus
einbezieht. Er nannte dies die einheitliche
Feldtheorie. Sein Ziel war es, nicht nur alle Kräfte
in der Natur zu beschreiben, sondern die
Quantenmechanik zu ersetzen. Denn Einstein war
ein enttäuschter „Elternteil“, als es um
das zweite seiner „theoretischen Kinder“
ging. Er hatte zu Beginn des 20. Jahrhunderts
mehr als jeder andere getan, um die
Quantentheorie hervorzubringen. Aber als diese
Theorie in den 1920er Jahren von anderen endgültig
formuliert wurde, war er mit dem Ergebnis sehr
unzufrieden. Die Quantentheorie machte
Unbestimmtheit und Wahrscheinlichkeit
grundlegend und Einstein lehnte dies ab. Er
suchte eine tiefere Beschreibung, die eine
vollständige und deterministische Beschreibung
jedes einzelnen Phänomens liefern würde. Er
hoffte, dass dies seine einheitliche Feldtheorie
sein würde."...
|
|
Einsteins
kritische Äußerungen insbesondere zur Quantenmechanik führten
zu seiner Isolation. Er war zwar ein "Medienstar" aber
wissenschaftlich ab Mitte 30 ohne (große) Bedeutung.
Claes
Johnson beschreibt das in seinem Buch
»Dr
Faustus of Modern Physics« u.a. wie folgt,
"Einstein:
Die Ikone der modernen Physik
Die
Beziehung zwischen der modernen Physik und Albert
Einstein kann wie folgt zusammengefasst werden: Einstein
initiierte die Entwicklung der modernen Physik als
(inkompatible) Kombination von Quantenmechanik und
Relativitätstheorie, als Patentangestellter im Alter
von 25 Jahren. Die Physik-Community nutzte Einstein als
Ikone der modernen Physik und beurteilte ihn im Alter
von 45 Jahren senil zu sein und nicht verstehen zu können,
welche Aladdin-Lampe er berührt hatte. Dies ist eine
klassische griechische Tragödie, deren Erfolg
untrennbar mit dem Scheitern verbunden ist und deren
Scheitern letztendlich das Spiel ausmacht. Es ist eine
wahre Geschichte über einen Doktor Faustus, der seine
junge Seele an Luzifer den Teufel verkauft, um Zugang
zur Magie der Wissenschaft zu erhalten, und den Preis
dafür zahlt, der Hölle bereits auf dieser Welt gegenüberzutreten,
wenn die Wissenschaft, die er am meisten schätzt im
Leben von ihm genommen wurde."
|
Fatalerweise avancierten aus erkenntnistheoretischer Sicht
Differentialgeometrie- und Quantenfeld-Fantasien zu neuen
Denkdogmen. Heute bestimmen nicht messbare postulierte
Theorieobjekte, deren gewünschte mathematische Symmetrien und
willküraffine Substrukturthesen das Denken der Theoretischen
Grundlagenphysik. Das diese Konstruktionen u.a. weder konsistent
noch alternativlos sind, wird im Folgenden
ausgeführt.

Was
ist und was darf sein?
Die
mit der Elementarkörpertheorie verbundenen generellen
inhaltlichen und begrifflichen Schwierigkeiten basieren auf
ihrer "unglaublichen" Einfachheit.

Ein
phänomenologisch begründetes, konsistentes Denkmodell mit
einer konstruktiven "Beschreibungsverarmung" auf eine
sinnerfahr- und mess-bare Primärgrösse, mathematisch
ausgedrückt durch einen Radius, welches exakte,
formal-analytische Lösungen und konkrete Berechnungen zulässt,
die in guter bis sehr guter Übereinstimmung mit experimentellen
Grössen sind, erzeugt einen reflexartigen
Denkmodell-Ablehnungsprozess. Dieser basiert nicht auf logischer
Argumentation sondern ist das Ergebnis mehr als 100-jähriger
Indoktrination in Richtung realobjekt-feindlicher
Grundlagenphysik. Die negativ-soziologischen Aspekte wurden
spätestens seit Beginn der Glaubensfestigung des
Standardmodells der Teilchenphysik (SM) in den 1970er Jahren mit
jedem weiteren postulierten Elementarteilchen und assoziierten
neuen Theorieelementen potenziert.
Für
einen unbetreuten Quantenfeldtheoretiker dürfte es sinnlos
sein, hier weiterzulesen. Der interessierte Laie hat in
der Regel die schwere Last der antrainierten Systemgläubigkeit
zu tragen, die er nicht einfach so abwerfen kann.
Psychologie
der Masse
Es
ist nicht leicht einem Menschen, der zumindest im Kern einer
Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu
erklären, daß dem oft nicht so ist, insbesondere wenn es sich
um wissenschaftliche Themen handelt. Alle verbreiteten
Standardmodelle, insbesondere wenn diese über größere Zeiträume
herrschen, beinhalten Machtpositionen und Versorgungsstrukturen.
Die Machthalter und Nutznießer werden alles tun um diese Zustände
aufrecht zu erhalten.
Inhalts-analytisch
erstaunlich ist die Tatsache, daß die "großen"
Standardmodelle der Physik sprich das Standardmodell der
Elementarteilchenphysik (SM) und das Standardmodell der
Kosmologie (ΛCDM-Modell) sowie vermeintlich konkurrierende
Modelle (Stringtheorien) und die gewünschte
SM-"Erweiterung" SUSY (Supersymmetrie) keinerlei
rational logischer Kritik standhalten, wie im Zusammenhang mit
der Elementarkörpertheorie an zahlreichen Beispielen
ausgeführt wird. Einzig das soziologische "Argument",
daß sich doch nicht zehntausende mathematisch hervorragend
ausgebildete Wissenschaftler über mittlerweile mehrere
Generationen, mit Modellen beschäftigen, wenn diese
bedeutungslos wären, wird zum finalen Schlag ins Felde
geführt. Dieses schwerwiegende allgemein-psychologische
"Argument" ist sehr gut erprobt, wie die
Beständigkeit und Macht der irrationalen Weltreligionen
leidvoll bestätigen. Postulierte Quarks oder postulierte
Superpartner sind exemplarisch wie Adam und Eva. SM und
Artverwandtes sind heilige Schriften der Theoretiker. Dort herrscht die Lagrangedichte und
produziert stetig Willkürliches.
Die
Zunahme der Existenz moderner, aufgeklärter Zeitgenossen ist
ein Mythos. Das Gros der Menschen ist (auch) im 21.Jahrhundert
weit entfernt von basisnahen analytischen Argumentationen. Das
betrifft auf eine sehr spezielle Art und Weise Theoretische
Physiker. Die literaturgelernten handwerklichen mathematischen
Fertigkeiten dieser stehen in keinem Verhältnis zu den
irrationalen Postulaten der Anwender.

Bevor
unnötig Mißverständnisse aufkommen, Spiritualität
ist für den analytisch denkenden, von kulturreligiösen
Indoktrinationen befreiten Selbst-Denker kein
"Problem". Denn die Kernfrage, woher "wir"
kommen, ist berechtigt.
Metaphysische
Betrachtungen können sicherlich eine große Strahlkraft
besitzen und emotional attraktiv sein. Die grundsätzliche
Problematik im Rahmen erkenntnistheoretischer Fragen ist die
stets verbleibende Beliebigkeit. Um letztendlich als
physikalisches Denkmodell existent sein zu können müssen
Thesen formalisierbar und experimentell „meßbar“ sein.
Entstehungsmythen, egal welcher
Ausrichtung, gehören nicht in Denkmodelle zur
Materiebildung.
Die
Welt der Götter ist "bestenfalls" ein unterhaltsames
Psycho-Konzept für Glaubensabhängige aber kein meßtechnisch
erfassbares Objekt. Die Unterschiede zwischen »Geistern und
Dämonen« und »Dunkler Energie und Dunkler Materie« sind
marginal. Die Verdrängung realphysikorientierter Plausibilität
zu Gunsten Logik beraubter Denkmodelle (ΛCDM-Modell,
SM, SUSY) charakterisiert ein seit Jahrzehnten
anhaltendes modernes Trauerspiel. Wir erleben mit der heutigen
etablierten Standardmodellphysik ein erneutes, doch diesmal
deutlich komplexeres, Phlogiston-Drama.
"Willkommen" im Barock 2.0 sozusagen.
Nicht die Mathematik, die generell nicht zwischen Staub und
Staubsauger unterscheiden kann, ist "falsch", sondern
die mathematisch formulierten, willkürlich postulierten
Denkkonstrukte sind es, die bei genauer Sicht schon einfachster
Logik entbehren und letztendlich keinen Erkenntnisgewinn
generieren.
Ein
geschichtlicher Rückblick zeigt, daß Leute die auf Fehler
aufmerksam machen, damit rechnen müssen, daß man ihnen
jahrzehntelang nicht glaubt, während jene die im Rahmen
bestehender Denkmodelle spektakuläre "Luftnummern"
publizieren, honoriert und hofiert werden. Kritiker
werden von der Masse als unliebsame Störer empfunden. Mit den
Worten Gustave le Bons „Nie haben die Massen nach
Wahrheit gedürstet. Von den Tatsachen, die ihnen mißfallen,
wenden sie sich ab und ziehen es vor, den Irrtum zu vergöttern,
wenn er sie zu verführen vermag. Wer sie zu täuschen versteht,
wird leicht ihr Herr, wer sie aufzuklären sucht, stets ihr
Opfer.“
Wer
Gruppenzugehörigkeit anstrebt wird nicht zum kritischen Denker.
Logische und methodische Analysefähigkeiten, das Wissen um
historische Zusammenhänge, selbsterarbeitete
Grundlagenkenntnisse statt literaturreproduzierter, Ehrgeiz,
Selbstdisziplin und eine gute Portion Egozentrik sind
Grundvoraussetzungen für selbständiges Denken und Handeln.
Die
Elementarkörpertheorie befasst sich insbesondere mit der
Frage, wie Masse und Raum basisnah miteinander verknüpft sind
und im „Zusammenspiel“ zu verständlichen Materiebildungen
führen, die sich näherungsfrei und ohne freie Parameter
formal-analytisch - sowohl mikroskopisch als auch
korrespondierend makroskopisch - berechnen lassen.
Konträr
zur Aussage der Standardphysik, die vier Grundkräfte
postuliert, lässt sich Elementarkörper basierend - auf Grund
der (skalenkorrespondierenden) Masse-Raum-Kopplung - jedwede
Wechselwirkung auf das Masse-Radius-Verhältnis der
interagierenden Wechselwirkungspartner reduzieren. Das führt zu
einer konstruktiven Beschreibungsverarmung, die entweder durch
die Radien oder deren reziprok proportionale Massen ausgedrückt
werden kann. Mit Hilfe dieser einkomponentigen sprichwörtlichen
Minimalbeschreibung lassen sich Materiebildungsmöglichkeiten
verstehen und formal analytisch exakt berechnen.

 |
statt
4 Grundkräften
→
Masse - Radius -
Kopplung |
Die
Selbstverständlichkeit, daß die Wegstrecke auf einer Kugeloberfläche
nicht der "geradlinigen" Entfernung zwischen den Punkten
A und B entspricht, bedarf keiner Abstraktion.


Daraus
ergibt sich Elementarkörper basierend anschaulich die Compton-Wellenlänge
λC als Masse-Äquivalent.

Aus
dieser Betrachtung folgen "geometrisch" massespezifische
Radien (λC→r0).
Die Frage, wie "(werte-)sicher" die mit den
comptonwellenlängen-assoziierten (Ruhe-)Massen inhärenten
(Ruhe-)Radien (r0(m0)) sind, ist
"leicht" zu beantworten: Comptonwellenlängen
sind (auch) Meßgrössen. [ CODATA-λC(Proton)
CODATA-λC(Elektron)
]
Dieses
Elementarkörpertheorie basierende fundamentale Wissen wird u.a. durch
Meßergebnisse im Rahmen (differentieller)
Streuquerschnitte elastischer und inelastischer Streuungen bestätigt
und steht gleichzeitig in einem eklatanten Widerspruch zu den
Aussagen der Elementarteilchenphysik.
Sekundäre
Grössen
Losgelöst
vom Denkmodell existiert keine Masse, die nicht auch eine Energie
besitzt. Doch sowohl Masse- als auch Energie-Begriff sind sekundärer
Art. Das heißt, "man" benutzt sie häufig, aber
keiner kann im Rahmen der herrschenden Physik eine (konsistente)
phänomenologische Erklärung liefern, was Masse und Energie
eigentlich sind. Es existiert keine primäre Begrifflichkeit.
"Es
ist wichtig, einzusehen, dass wir in
der heutigen Physik nicht wissen,
was Energie ist."...
Richard
Feynman
"It
is important to realize that in
physics today, we have no knowledge
of what energy is."...
|
|
|
Die
Verwendung von sekundären Begriffen in der Physik ist nicht nur
weit verbreitet, im Rahmen der (theoretischen) Grundlagenforschung
gibt es auf diesem Gebiet ausschließlich sekundäre
Begriffe".
Verkünder
und Versteher sekundärer Begriffe glauben an die suggestive
Strahlkraft. Sie haben "irgendwie" ein gutes Gefühl der
wissenschaftlichen Nähe, wenn sie beispielsweise von elektrischer
Ladung, Photonen, Masse, elektrischem Feld oder Gravitationsfeld hören,
über diese sprechen und diese Begrifflichkeiten respektive Grössen
in Formalismen einfügen. Doch alle Denkmodelle welche auf sekundäre
Begriffe fussen sind - insbesondere aus epistemologischer
Sicht - nicht erkenntnis-tragfähig.
Ohne
Übertreibung kann behauptet werden, daß (nur) die
Elementarkörpertheorie sekundäre Begriffe zur Materiebildung auf
die primäre Grösse sprich den (Objekt-)Radius
der wechselwirkenden Körper konstruktiv beschreibungsverarmend
"reduziert". Radialsymmetrie,
ausgedrückt durch den Radius (r), steht hier für die sinnlich
erfahrbare und physikalisch messbare Objekt- respektive Raum-Grösse.
Räumliche Ausdehnung ist primär erfahr- und messbar. Mit
dieser Annahme lassen sich sowohl charakteristische Grössen
zweikörperbasierender mikroskopischer "Entitäten", wie
das Wasserstoffatom oder das Neutron phänomenologisch konsistent
erfassen und berechnen als auch charakteristische Grössen
makroskopischer Vielteilchensysteme.

Was
ist Masse?
In
der Elementarkörpertheorie ist die Ruhe-Masse
m0 ein Maß für die
Oszillationsfrequenz des Elementarkörpers.
Die radius-kleineren Elementarkörper
besitzen eine größere Masse, da diese äquivalent
zur (möglichen) Bewegung der oszillierenden Oberfläche
ist. Masse ist also im Bild des Elementarkörpers
äquivalent zur inneren Bewegung und wird über
die reziproke Proportionalität auf den
Radius zurückgeführt. Details siehe
exemplarisch zum Verständnis die Ausführungen zur Impulsmasse-Inversion.
Theorieforderung
und empirischer Befund
Ein
Experiment braucht zu seiner Konzeption eine konkrete
Fragestellung. Ist die Fragestellung das Ergebnis eines
mathematischen Formalismus so ist das Versuchsergebnis
entsprechend theoriebeladen. Wenn dann noch, wie im Rahmen der
Standardmodelle üblich, die messbaren Ergebnisse vorselektiert
und nur indirekt mit den postulierten Theorieobjekten „verbunden“
sind, ist der Interpretations-Beliebigkeit nichts mehr
entgegenzusetzen.
Beispiel:
Das Standardmodell der Elementarteilchenphysik (SM) zielt darauf
ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte
mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu
erfassen. Der mathematische Ansatz des Standardmodells der
Teilchenphysik, ausgehend von nulldimensionalen, masselosen
Objekten liefert offensichtlich keine Anbindung an die
wahrnehmbare physikalische Realität in der Masse und Ausdehnung
Fundamentaleigenschaften darstellen. Die euphemistische
Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im
Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens
dadurch die ursprüngliche Formulierung "verletzt",
zweitens stimmt die Aussage, das der Higgs-Formalismus den
Teilchen Masse gibt, gar nicht, da exemplarisch SM-postuliert
Quarks basierendes Proton und Neutron über das Higgs-Feld nur
ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die
vermeintlichen massegebenden Terme gar keine Massenberechnung
beinhalten. Die Massenwerte folgen hier nicht aus einer
physikalischen Gleichung sondern müssen als freie Parameter
bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“
Standardmodell der Teilchenphysik kann weder Masse(n) erklären
und schon gar nicht berechnen.

Quantenchromodynamik
(QCD) - Quark-Parton-Modell (QPM)
Das
in den sechziger Jahren von Richard Feynman
entwickelte Quark-Parton-Modell (QPM) beschreibt
Nukleonen als Zusammensetzung grundlegender
Bauteile, die Feynman Partonen nannte. Diese
Bauteile wurden daraufhin mit den wenige Jahre
zuvor gleichzeitig von Gell-Mann und Zweig
postulierten Quarks identifiziert.
Es
handelt sich um eine komplexe Theorie-Situation
und assoziierten theoriebeladenen
(Hochenergie-)Experimenten, dessen Verständnis
von diversen Aspekten und einer ganzen Reihe von
Postulaten geprägt ist. Wie das (hier relativ
einfach beschriebene) verschachtelte
Theorie-Experiment-Konstrukt aussieht, siehe
stellvertretend die Ausführungen (Teil 1 -3)
des Instituts für Kern- und Teilchenphysik
Dresden.
Teil1
scheitert früh an den auf „theorieinternen“
Annahmen beruhenden Interpretationen des
vorgestellten Modells.
…“Dies
ist bemerkenswert, insbesondere das Neutron als
elektrisch neutrales Teilchen sollte
verschwindendes magnetisches Moment aufweisen.
Dies weist bereits darauf hin, dass Protonen und
Neutronen nicht punktförmig sind, sondern eine innere Struktur besitzen…“
Ist
das magnetische Moment des Neutrons wirklich ein
Beweis für eine Substruktur? Oder ist diese
Annahme nur eine theoriebeladene Meßwert-Interpretation
des Standardmodells?
Die
Interpretation einer
Neutron-Quarks-(Sub-)Struktur verliert ihre Bedeutung,
wenn man die Situation (denkmodellunabhängig)
zahlenanalytisch untersucht. Die
vermeintlich anomalen magnetischen Momente von
Elektron und Proton sowie des Neutrons sind
letztendlich eine Kombination aus den
"semi-klassisch" - einfachst zu
berechnenden - "normalen" magnetischen
Momenten und messungsinhärenten Beiträgen, die
von dem Magnetfeld, welches zur Messung
verwendet wird herrühren. Diese qualitative
Aussage läßt sich (im Einklang mit den
Meßwerten) konkretisieren. Siehe
weiterführend die Ausführungen
zum Neutron aus Sicht eines
masse-radius-gekoppelten Modells, mit dem
sich sowohl die Masse als auch das magnetische
Moment des Neutrons aus der neutronbildenden
Wechselwirkung von Elektron und Proton phänomenologisch
verständlich und genau berechnen lässt.
Das
Quark-Parton-Modell ist ein exzellentes
Lehrstück aus der Reihe der
Glaubensbekenntnisse (wie einst die Epizykel-
oder Phlogistontheorie).
Versuchsergebnisinterpretationen führten zu
einigen theoretischen Annahmen, die dann mittels
weiterer Interpretationen mit Hilfe von neuen
Theorieobjekten und postulierten
Wechselwirkungen schnell eine substrukturierte
Komplexität erreichen, die letztendlich
jegliche unpassende Versuchsergebnisse durch
entsprechende Maßnahmen eliminieren. Erst waren
es die postulierten Quarks. Diese erforderten
eine Zerstückelung der elektrischen
Elementarladung. Dann folgten Gluonen, da Quarks
keine entsprechenden Spinbeiträge der Nukleonen
lieferten. Danach wurden ergänzend so genannte
»Sea-Quarks« eingeführt, da auch die
postulierten Gluonen keinen entsprechenden
Spinbeitrag leisteten. Details des „etablierten“
Nukleonenmodells siehe Teil
2 und Teil
3 (Das Quark-Parton-Modell) …
Die
Analyse der Gläubigen endet dann mit dem
Glaubensfinale
…“Das
Nukleon ist demnach aufgebaut aus Valenzquarks,
Seequarks
und Gluonen. Für die Eigenschaften des Nukleons (und aller Hadronen)
wie etwa Ladung, Masse und Spin ist aber nur die
Zusammensetzung der Valenzquarks verantwortlich.
Man spricht daher auch häufig von
Konstituentenquarks und meint damit die
Valenzquarks plus die sie umgebende Wolke von
Seequarks und Gluonen. Seequarks und Gluonen
tragen nicht zu den (Netto-) Quantenzahlen bei,
wohl aber zur Masse des Hadrons, da sie Energie
und Impuls tragen. Während die nackte
Masse der Valenzquarks nur einige MeV/c² beträgt,
tragen die Konstituentenquarks den jeweiligen
Bruchteil der Hadronenmasse, im Falle des
Nukleons also etwa 300 MeV/c². Diese wird also
überwiegend durch die Gluonen und Seequarks
aufgebracht. Mit anderen Worten: Der überwiegende
Teil der Hadronmassen (und damit der sichtbaren Masse im Universum) wird nicht durch die nackten Massen
der Konstituenten getragen, sondern dynamisch
durch die Energie der Wechselwirkung generiert!“
Ist das nicht schön. Da gibt es Wolken und Nackte und
das gottanaloge Unbestimmte, was ca. 99%
ausmacht,
wenn man die postulierten Massen der „materiebildenden“
Quarks zugrunde legt. Aber hier ist das
Glaubensmärchen noch nicht wirklich am Ende. In
einem größeren Bild (ΛCDM-Modell)
wird nun postuliert, daß die sichtbare
Masse wiederum nur einen kleinen Teil
der Masse im Universum ausmacht. Größtenteils
besteht das Universum für die heutigen
Standardmodell-Gläubigen aus Dunkler
Materie und Dunkler Energie. Dunkel steht hier für nicht nachweisbar. Kein
Wunder das der Vatikan Jahr für Jahr hoch
erfreut zum Wissenschaftsgebet
einlädt. Daß weder den Verkündern noch dem
Volk ein Licht aufgeht hat
Theodor Fontane so formuliert:
Wir stecken bereits tief in der
Dekadenz. Das Sensationelle gilt und nur
einem strömt die Menge noch begeisterter
zu, dem baren Unsinn.«
|
|

Wie
weit sich die Standardmodellphysik von wesentlichen
Fragestellungen und rational logischen Aspekten entfernt hat,
verdeutlichen folgende Beispiele.
Der
Radius eines postuliert asymmetrisch substrukturierten,
ladungsfragmentierten Objektes ist eine phänomenologische Unmöglichkeit.
Da macht es auch keinen Unterschied ob dieser theoriebeladen als
elektrische oder magnetische Größe definiert wird. Siehe als
prominentestes Beispiel den (Ladungs-)Radius
des Protons.
Eine
zentrale Frage der Physik lautet, warum ist das Masseverhältnis
von Proton zu Elektron so, wie es ist? Diese Frage ist im Rahmen
des Standardmodells sinnleer. Da das Elektron im SM als elementar(-strukturlos)
angesehen wird. Ein Vergleich von einem strukturlosen mit einem
substrukturierten Objekt ist - gleichgültig wie die
Substrukturierung zustande kommt - "gegenstandslos".
Die
Natur der Strahlung ist aus Sicht der herrschenden Denkmodelle
vollkommen ungeklärt bzw. ein inkonsistentes Durcheinander. Hier
stellt sich in einer konstruktiven erkenntnistheoretischen
Auseinandersetzung die Frage, inwieweit das erweiterte Konzept der
„Austauschteilchen“ respektive der Eichbosonen eine
realphysikalische Gültigkeit besitzt. Denn das zeitstabile reale
Photon ist als Entität grundlegend verschieden von den
massebehafteten Vektorbosonen und dem Higgs-Boson, sowie von den
selbstwechselwirkenden, masselosen Gluonen. Das Photon zum
Austauschteilchen bzw. Vektorboson zu erklären, ist, außerhalb
der elektroschwachen Theorie, QED bzw. des SM stark
diskussionswürdig, um es moderat auszudrücken. Auch ohne
Kenntnis der Elementarkörpertheorie stellt sich insgesamt die
epistemologische Frage nach der Realität der innerhalb des SM
theorienotwendigen Vektorbosonen und des theorienotwendigen
Higgs-Bosons. Details
zum Standardmodell und Higgs-Mechanismus siehe entsprechende
Kapitel.
SM-"Ergebnisse":
Die SM-basierenden postulierten theoretischen Implikationen
beeinflussen stark die Versuchsinterpretationen der
SM-Protagonisten... Das resultierende komplexe Erwartungskonstrukt
führt zu einer reihe von fatalen Mißverständnissen...

Exemplarisch
sind nicht die "typischen" energieabhängigen
Elektronenradien kleiner als 10-19 [m] in Verbindung
mit Teilchenbeschleunigern "falsch" (gemessen), sondern
die von der Elementarteilchenphysik resultierenden Schlußfolgerungen
bezüglich ruhender Elektronen sind falsch.

Die
Elementarkörpertheorie (hingegen) „beschreibt“ konsistent
sowohl das Verhalten bei „konventionellen“ Streu-Energien der
Streu-Partner (des Elektrons) als auch hochenergetisch im
Teilchenbeschleuniger.
Vorweg:
Der differentielle Streuquerschnitt dσ/dΩ nimmt für
Elektronen bei „konventionellen“ Streu-Energien stets die
Gestalt dσ/dΩ = (e²/me4πε0c²)²
· fW
an, wobei der funktionale Zusammenhang fW die
spezifische Art der Streuung angibt. Das
Verständigungs-Problem der herrschenden Physik bezüglich des
(ungeliebten) klassischen Elektronenradius re(kl)
löst sich auf, wenn man den wiederkehrenden Term (e²/me4πε0c²)
masse-radius-gekoppelt-energetisch analysiert.

Letztendlich
besteht die Beziehung (e²/me4πε0c²)
aus dem Verhältnis: elektrischer Energie zur Gesamtenergie (α/4)
und dem Elektronenmasse inhärenten Elektronenradius re
[in dσ/dΩ = re · (α/4)
· fW], der multipliziert mit π/2 der
Comptonwellenlänge des Elektrons entspricht (λe =
re ·
π/2).

Des
Weiteren ändert sich der Objektradius mit der Geschwindigkeit radialsymmetrisch
und nicht nur eindimensional in Bewegungsrichtung, wie aus
mehrfacher Sicht fälschlicherweise SRT-basierend insbesondere
für den Teilchenbeschleuniger im Rahmen der herrschenden Physik
"gedacht" wird. Die Elementarkörpertheorie liefert auch
hier ein phänomenologisch begründetes, konsistentes,
realobjekt-orientiertes Denkmodell.
Zu
diesem Verständnisproblem gibt es die größten emotionalen Ausbrüche
und eine methodische Plausibilitäts-Verweigerung der
Standardphysiker und deren Anhänger (siehe zum
"Kennenlernen" exemplarisch das Kapitel Elektronenradius).

Ansprüche
an »erkenntnistheoretische Verbindlichkeiten« müssen so
hoch wie möglich sein. Es geht nicht um die sinnlose Frage, was
(physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein
Denkmodell. Es geht aber sehr wohl um die ehrliche Frage,
inwieweit ein gegenwärtiges Modell, beispielsweise zur
Materiebildung, minimalistisch ist und zugleich eindeutige Lösungen
liefert. Diese Frage ist stets beantwortbar.

Das
Denkmodell masse-radius-gekoppelter, radialsymmetrischer, substrukturloser Elementarkörper und deren
Wechselwirkungsmöglichkeiten ist nicht nur in Bezug auf
Konsistenz, Einfachheit, realobjektorientierter
Anschauung den Standardmodellen gegenüber "überlegen",
es liefert auch genau das, was ein brauchbares Denkmodell liefern
muß, dies sind konkrete phänomenologisch begründete Gleichungen
ohne freie Parameter, dessen Ergebnisse in guter bis sehr
guter Übereinstimmung mit experimentellen Messwerten sind.

Die
jetzige, auf Mathematik basierende, realobjektbefreite
Grundlagen-Physik bedarf dringend einer naturphilosophisch
orientierten Reglementierung. Hier
ist (, wieder aktuell,) Karl Popper [KP] zu zitieren: ..." Unsere
Untersuchung läßt erkennen, daß selbst nahe liegende
Zusammenhänge übersehen werden können, wenn uns immer wieder
eingehämmert wird, daß das Suchen nach solchen Zusammenhängen
‘sinnlos’ sei."
[KP] K.
Popper, Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S.
196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd.
4;The Logic of scientific discovery. (1935); 2nd Ed.
London
,
New York
: Basic Books 1959.
Glücklicherweise
löst sich das (erkenntnistheoretische) "neobarocke Phlogiston-Drama",
welches eine Neuverkörperung durch derzeitige
Standardmodelle und deren gewünschte Erweiterungen bekommen hat,
masse-radius-gekoppelt in Nichts auf.
Wer
glaubt, hier handelt es sich nur um "starke" Worte, die
- "um sicher zu gehen" - letztendlich im Rahmen der
hochpräzisen QED-Voraussagen nicht wirklich ernst zu nehmen sind,
der wird zu seiner großen Überraschung im Rahmen der
masse-radius-gekoppelten Denk-Analyse der anomalen magnetischen
Momente "kalt erwischt" und in eine schwere SM-Glaubenskrise gestürzt, siehe das Kapitel Anatomie
anomaler magnetischer Momente

... Am
Ende zerbröselt auch die mathematische Voraussage-Präzession der
QED epizyklisch an der masse-radius-gekoppelten
Realphysik.
Für
ein anschauliches Verständnis und resultierend für die
phänomenologisch begründeten Elementarkörpertheorie
basierenden Gleichungen sind nachweislich weder eine variable
Zeit, noch mathematische Raum-Zeit-Konstrukte, noch irgendeine
Form der Substrukturierung notwendig. Die
spezielle Relativitätstheorie knüpft zwar an das physikalische
Experiment von Michelson & Morley an, beruht aber lediglich
auf dessen mathematischer Deutung durch Lorentz. Die
Relativierung der Zeit ist physikalisch nicht begründet,
sondern nur das Ergebnis einer mathematischen Annahme. Auch die
Herleitung der Masse-Energie-Äquivalenz
ist unter formalanalytischen Gesichtspunkten weit weniger
"eindeutig geklärt", als es die Spezielle Relativitätstheorie
(SRT) suggeriert. Ohne das Gedankenexperiment Einsteins und den
Rechenweg an dieser Stelle explizit auszuführen, folgt gemäß
Albert Einstein respektive gemäß SRT E = mc² aus einer
"klassischen Grenzfall" - Approximation mittels
Taylorreihenentwicklung. Streng genommen ist diese Herleitung -
salopp formuliert - nicht "zwingend", da hier
ergebnisorientiert die gewünschte Lösung die Näherung
(mit-)bestimmt.
Was
(auch) jeder wissen könnte aber viele ungern wahrhaben wollen…
Die
Berechnung von Grundzustandsenergien ist weder quantenmechanisch
noch quantenelektrodynamisch begründet. Da ein signifikant
maßgebender Anteil von dem Verhältnis der wechselwirkenden
Massen bestimmt wird. Es gibt weder QM und schon gar nicht QED
basierend die Möglichkeit die reduzierte Masse mred
= mA / (1 + mA/mB)
quantenfeld-phänomenologisch einzuführen. Die reduzierte
Masse ist – ob man es wahr haben will oder
nicht - im Rahmen der Standardphysik historisch aus der „Newtonschen
Himmelsmechanik“ abgeleitet. Das bedeutet im Klartext, daß im
Sinne atomarer Wechselwirkungen, diese weder QM noch QED
begründet sind. QM und QED sind „epizyklisch“. Übrigens:
Auch das
Gleichsetzen einer elektrischen Zentripetalkraft mit einer
masse-abhängigen Zentrifugalkraft ist zwar mathematisch kein
Problem aber im Rahmen der hiesigen Physik phänomenologisch
unbegründet und erinnert an die Epizykeltheorie. Unabhängig
von den Massen der Ladungsträger „erleiden“ zwei betragsmäßig
gleiche Ladungen keine Massen-Verschiebung, da die gravitative
Wechselwirkung (exemplarisch Proton-Elektron) um ~ 40
Zehnerpotenzen kleiner ist. Das verwendete suggestive Modell ist
offensichtlich phänomenologisch unbegründet. Denn die Frage,
wie wechselwirkt eine Masse mit einer Ladung bleibt
unbeantwortet.
In
einem größeren Bild sind plakative Fragen… ob Spezielle
Relativitätstheorie (SRT) und Allgemeine Relativitätstheorie
(ART), Quantenmechanik (QM) und allgemein Quantenfeldtheorie(n)
(QFTs) als Denkmodelle "richtig" oder
"falsch" sind, irrelevant. Denn die Frage müsste im
Einzelfall lauten, inwieweit ein Denkmodell konsistent ist und
erkenntnistheoretisch wertvolle Antworten geben kann. Wenn wir
über SRT, ART, QM und QFTs "reden", dann reden wir
bei genauer Sicht ausschließlich über mathematische Konzepte
und im "Kern" über axiomatische Randbedingungen. Es
ist sinnleer ein axiomatisch begründetes Konzept in Frage zu
stellen. Die fundamentalen Probleme der Standardmodelle kommen
u.a. mit den theoriebedingten Näherungen und Idealisierungen,
sowie inkonsistenten Erweiterungen und willkürlichen
Zusatzannahmen. Keines dieser Denkmodelle liefert
näherungsfreie Lösungen zur Materiebildung. SRT, ART, QM und
QFTs sind nicht korrespondierend und auf Grund der postulierten
theoretischen Implikationen wortwörtlich unvereinbar. [*Hier
wird gegenargumentiert, daß z.B. die Dirac-Gleichung eine
"Synthese" von SRT und QM darstellt. Warum das
realobjektorientiert nicht der Fall ist, siehe hier.]
______________________________________________
Amüsant
formuliert und auf den Punkt gebracht beschreibt Claes
Johnson, ein Professor für Angewandte Mathematik, das
quantenmechanische sowie das spezielle Relativitätstheorie
Existenzproblem..
Claes
Johnson über QM und RT
In
Bezug auf die Krise der modernen Physik wird allgemein
anerkannt, dass ein Grund dafür ist, dass die beiden
Grundbausteine Relativitätstheorie und Quantenmechanik widersprüchlich
/ inkompatibel sind. Aber zwei Theorien, die physikalisch sind,
können nicht widersprüchlich sein, weil die existierende
Physik nicht widersprüchlich sein kann. Aber unphysische
Theorien können durchaus widersprüchlich sein, da Geister
widersprüchliche Eigenschaften haben können.
Die
spezielle Relativitätstheorie von Einstein ist unphysikalisch,
da die Lorentz-Transformation keine Transformation zwischen
physikalischen Koordinaten ist, wie von ihrem Erfinder Lorentz
betont wird, sondern vom Patentangestellten Einstein
missverstanden wurde, der glaubt, dass die transformierte Zeit
real und damit relativ ist. Die Quantenmechanik ist unphysisch,
weil ihre Interpretation statistisch ist, was sie unphysisch
macht, weil die Physik keine Versicherungsgesellschaft ist. Hier
hatte Einstein Recht, dass Gott nicht würfelt.
Professor
of Applied Mathematics, Royal Institute of Technology (KTH)
Stockholm
, Sweden
Claes
Johnson Blog
______________________________________________
Zur Erinnerung: Auch
die Epizykeltheorie als "frühes Standardmodell"
scheiterte nicht an der verwendeten Mathematik, die war stets
richtig, sondern letztendlich an der phänomenologisch
anschaulichen Nichtgeozentrik. Wink mit dem Zaunpfahl: Es wäre
für heutige Standardmodell-Mathematiker ein leichtes
"Spiel" eine moderne Epizykeltheorie auf Grundlage
zusätzlicher (freier) Parameter und einiger Zusatzannahmen ins
Leben zu rufen. An der Mathematik und fehlender
Willkürbereitschaft würde diese "Theorie" sicherlich
nicht scheitern, wie noch ausführlich im Rahmen Moderner
Standardmodelle erörtert wird.


(Historisch
experimentelle) "Ausgangsbetrachtung"
Elementarkörper-Entwicklungs-Gleichungen
Die
zeitabhängigen Elementarkörper-Entwicklungs-Gleichungen leiten
sich aus der beobachteten Invarianz der (Vakuum-)Lichtgeschwindigkeit
ab. Der fundamentale Unterschied zur (Speziellen)
Relativitätstheorie
respektive zur Lorentztransformation ist der
wechselwirkungsnotwendige radialsymmetrisch-dynamische Charakter
dieser Gleichungen.


Aus
Sicht der realphysikorientierten Elementarkörpertheorie bleibt
von der Relativitätstheorie (nur) der Lorentzfaktor γSRT
als eindimensionaler, statischer Fall einer Elementarkörpertheorie
basierenden allgemein gültigen Formulierung γdyn
("übrig"):
γSRT =

|
inertialsystembehaftet,
statisch und eindimensional
|
γdyn
= 
|
inertialsystembefreit,
radialsymmetrisch, dynamisch |

Der
dynamische Faktor γdyn
ist inertialsystembefreit und wirkt radialsymmetrisch. γdyn
lässt sich "einfachst" aus der
Elementarkörpergleichung r(t) mittels dr/dt ableiten :


»eΥch«
[(Eich-)Basisgrössen
der Elementarkörpertheorie]
Zeitstabiles
Elektron und zeitstabiles Proton respektive
Elektronen- und Protonenmasse ("alternativ" deren
masseinhärente Radien) sind zwar gestalterisch von realteilchenursächlicher
Bedeutung und führen in der makroskopischen Betrachtung
(mittels Gravitationskonstante) zur Endgrösse (Gesamtmasse und
Gesamtradius) des Universums, aber die (allgemeine)
Elementarkörper-Phänomenologie als solche, ist nicht von
diesen konkreten Massen abhängig.
Daraus
folgt: Das
Denkmodell der Elementarkörper begründet sich bzw.
arbeitet mit folgenden Beobachtungen respektive
Beobachtungs-Größen: Invarianz der
(Vakuum-)Lichtgeschwindigkeit c, der
Gravitationskonstanten γ und der elektrischen
Elementarladung e. Als (Mengen-)Postulat wird das
Planksche Wirkungsquantum h
als kleinste (skalare) Wirkung definiert, welche sich
phänomenologisch und "rechnerisch" zwanglos aus der
Elementarkörperdynamik ergibt : ΔE · Δt
= (m0c²) · ( r0π/2c)
= h. Details siehe das Kapitel Plancksches
Wirkungsquantum. Auch der Term m0c²
lässt sich direkt aus der Elementarkörperdynamik ableiten,
Details siehe das Kapitel Herleitung
der Masse-Energie-Äquivalenz.

[Der
Vollständigkeit halber sei an dieser Stelle erwähnt, daß das
Plancksche Wirkungsquantum h auch eine (indirekte) im Rahmen des
Elementarkörpermodells phänomenologisch begründete
Beobachtungsgrösse ist, wenn man als Ausgangssituation die
("korrekte") Massen- und Radius-Bestimmung des Protons
als gegeben voraussetzt.]

Energetische
Analogie
Bezogen
auf den Elementarkörper drücken Größen wie Bahndrehimpuls,
Spin, Geschwindigkeit, elektrische Ladung stets rein energetische
Verhältnisse der radius-masse-gekoppelten, möglichen inneren Veränderungen
bei Elementarkörper-Wechselwirkungen aus. In diesem Zusammenhang
wird hier von energetischen Analogien gesprochen. Auf Grund
der Radialsymmetrie reduziert sich die Betrachtung auf den
(Elementarkörper-)Radius und im Rahmen von Elementarkörper-Wechselwirkungen
plausibel auf die resultierende Veränderung des Radius, was in
jedem Fall eine "konstruktive Beschreibungsverarmung"
bedeutet.

Im
Rahmen der Elementarkörpertheorie drückt die elektrische
Elementarladung (e) und die damit assoziierte elektrische
Energie E(e) ein anschauliches
masse-radius-gekoppeltes energetisches Verhältnis aus.
Elektrische
Ladung ist ein Sekundärbegriff der herrschenden Physik,
der eine von der Masse (und dem Radius) des Ladungsträgers
abgekoppelte "phänomenologische Entität" suggeriert.
Elementarkörpertheorie basierend sind jedoch alle
Ladungswechselwirkungen anschaulich auf Masse-Radius-Kopplungen
zurückzuführen. Elektrische Ladungen im
Elementarkörper-Denkmodell kommen als (formales) Resultat der
Masse-Radius-Kopplung bequemerweise nur implizit über
Funktionen der Sommerfeldschen Feinstrukturkonstanten α
vor. Von weiterer fundamentaler Bedeutung ist im direkten
phänomenologischen Zusammenhang die Elementarkörperladung
q0, die sich quantitativ aus dem Vergleich von
elektrischer Energie zur Gesamtenergie ergibt, wie (noch) an
verschiedenen Stellen explizit ausgeführt wird.
Konsequenterweise
wird die Feinstrukturkonstante α Elementarkörper
basierend energetisch bestimmt. Sie ergibt sich
aus dem Vergleich von Gesamt-Energie und elektrischer Energie
mittels der elektrischen Elementarladung e.



Interessanterweise
ist die »Planck-Skala« ein "früh-historisches"
Indiz für die "Richtigkeit" der
Masse-Radius-Konstantengleichung [F1]. Denn das Pendant zur
"winzigen" Plancklänge ist die "riesige"
Planckmasse, so wie es die Elementarkörpertheorie "voraussagt".
Das Max Planck mittels Dimensionsanalyse nicht realisierte, daß
aus energetischen Gründen nur die doppelte Planckmasse und nur
die doppelte Plancklänge als maximale bzw. minimale
Einzelkörper-Dimensions-Grenze in Frage kommt, ändert nichts
an der grundsätzlichen Masse-Raum-Kopplung der Planckgrössen.
Details siehe: Planck-Grössen
& Elementarquant

Besondere
physikalische und epistemologische Bedeutung erlangt das Modell
der phänomenologisch begründeten masse-radius-gekoppelten
Elementarkörper durch die Ergebnis-Genauigkeit und Einfachheit
der resultierenden Gleichungen, die stets auf leicht
verständlichen, konsistenten Denkansätzen beruhen. Das exakte
Ergebnisspektrum umfasst Größen vom Protonenradius, der
Ionisierungsenergie des Wasserstoffatoms, der Herleitung der
Sommerfeldschen Feinstrukturkonstanten aus Vergleich von
elektrischer und Gesamt-Energie bis hin zu makroskopischen, wie
der Temperatur der kosmischen
Hintergrundstrahlung, um nur
einige wichtige zu nennen. Die zugrunde liegenden Gleichungen
sind korrespondierend skalen- und
mengeninvariant.

Elementarkörper
basierende Korrespondenz im "aphoristischen Bild"



Allgemeiner
Naturphilosophischer
Ansatz
In
einem allgemein verständlichen Denkmodell ist Mathematik nur
Mittel zum Zweck. Nichts weiter als ein
plausibilitäts-resultierendes, praktisches Ordnungs- und Formalisierungsinstrument.
Grundlegende Denkmodell-Aspekte
lassen sich in Ankopplung an »globale Auffälligkeiten«, wie
Gravitationskonstante, kleinste skalare Wirkung und Invarianz
der Lichtgeschwindigkeit, nur intuitiv entwickeln. Ängste
vor primärer Intuition sind unbegründet. Man muß eine
Idee und weiterführend, aufbauend konsistente Ideen haben, um
ein Denkmodell interdisziplinär verständlich gestalten zu können.
Denkmodelle müssen absolut begriffstransformierbar
sein, um eine epistemologische Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht
außerhalb der Mathematik vermitteln lässt, ist im Rahmen eines
physikalischen Denkmodells stets eine erkenntnistheoretische Nullnummer.
Objektivität ist die Wahnvorstellung, Beobachtungen
könnten ohne Beobachter gemacht werden.
Heinz von Foerster ( 1911 – 2002)
Der Mond ist ein
inhomogenes, makroskopisches Vielteilchenobjekt. Ohne seine
Struktur zu kennen, lässt er sich aus der Ferne - ohne
Verwendung komplizierterer Denkmodelle – bereits im Rahmen der
„Geometrischen Optik“ erkennen und als Objekt im „Lichtweg“
beschreiben. Bedeutet: Bezogen auf ein gewöhnliches Teleskop
„sehen“ Beobachter diesen, wenn „Licht“ auf ihn „fällt“, welches
in Richtung des Teleskops reflektiert wird. ABER: Kein „Licht“
bedeutet KEIN Mond bei Verwendung eines „Licht“-Teleskopes.
Was „da“ ist und was nicht
ist grundsätzlich eine Frage der Wahrnehmungsmöglichkeiten. Auch
wenn Sie den Mond nicht sehen, so wirkt dieser kontinuierlich
gravitativ. Haben sie keine Möglichkeit Gravitation zu messen
und wird der Mond nicht „bestrahlt“ ist er gemäß Ihrer
Messmöglichkeiten auch nicht „da“.
Wie Brigitte Falkenburg
bemerkt ist diese Aussage für subatomare Strukturen falsch
(siehe "weiter unten").
Wir verfügen über keine
allgemein anerkannte Wahrheitstheorie. Die Übereinstimmung von
Aussage und Wirklichkeit kann nicht objektiv festgestellt
werden. Dieser Sachverhalt wird insbesondere dann problematisch,
wenn die Theorie bestimmt, was gemessen werden soll.
Mit den Worten Werner
Heisenbergs (1931): „Zu jeder Messung einer quantentheoretischen
Größe ist ein Eingriff in das zu messende System nötig, der das
System unter Umständen empfindlich stört. Die Messung der
Strahlungsenergie in einem mathematisch scharf begrenzten Teil
eines Hohlraumes wäre nur möglich durch einen ”unendlichen“
Eingriff und ist deshalb eine nutzlose mathematische Fiktion.
Ein praktisch durchführbares Experiment kann jedoch nur die
Energie in einem Bereich mit verwaschenen Grenzen liefern.“
Zum Verständnis ein
makroskopisches Gedankenexperiment: Stellen sie sich vor, sie
verwenden zur Untersuchung des Mondes einen weiteren Mond und
lassen nicht „etwas“ Licht sondern den Untersuchungsmond auf den
zu untersuchenden Mond prallen (Kollision). U.a. in Anhängigkeit
der Größe und Masse, des Aufprallwinkels und der Geschwindigkeit
Ihres Testmondes wird Ihr zu untersuchendes Objekt nun während
und „nach“ der Wechselwirkung mit Ihrem Testobjekt verformt,
gespalten, …, (teils) zertrümmert und mit der Zeit werden die
Trümmerteile gravitativ neue Strukturen bilden (können) oder
„davon fliegen“…

Brigitte
Falkenburg schreibt in Particle Metaphysics:
A Critical Account of Subatomic Reality
(2007) u.a.
"Es muss Schritt für
Schritt transparent gemacht werden, was
Physikerinnen und Physiker selbst als empirische
Basis für das heutige Wissen der Teilchenphysik
ansehen. Und es muss transparent sein, was sie
im Einzelnen meinen, wenn sie von subatomaren
Teilchen und Feldern sprechen. Die
Weiterverwendung dieser Begriffe in der
Quantenphysik führt zu ernsthaften semantischen
Problemen. Die moderne Teilchenphysik ist in der
Tat der härteste Fall für Inkommensurabilität im
Sinne Kuhns".... Kuhn 1962. 1970
..."Schließlich ist die
Theorieabhängigkeit ein schlechtes Kriterium, um
zwischen sicherem Hintergrundwissen und
unsicheren Annahmen oder Hypothesen zu
unterscheiden."
... "Die subatomare
Struktur existiert an sich nicht wirklich. Sie
zeigt sich nur in einem Streuexperiment mit
einer bestimmten Energie, also aufgrund einer
Wechselwirkung. Je höher der Energietransfer bei
der Wechselwirkung ist, desto kleiner sind die
gemessenen Strukturen. Hinzu kommt, dass nach
den Gesetzen der Quantenfeldtheorie bei sehr
hohen Streuenergien neue Strukturen entstehen.
Die Quantenchromodynamik (d. h. die
Quantenfeldtheorie der starken Wechselwirkung)
besagt, dass je höher die Streuenergie ist,
desto mehr Quark-Antiquark-Paare und Gluonen im
Inneren des Nukleons entstehen. Nach dem Modell
der Streuung in diesem Bereich führt dies
wiederum zu Skalierungsverletzungen, die
tatsächlich beobachtet wurden.44 Dies wirft ein
neues Licht auf Eddingtons alte Frage, ob die
experimentelle Methode zur Entdeckung oder zur
Herstellung führt. Offenbart die Wechselwirkung
bei einer bestimmten Streuenergie die gemessenen
Strukturen oder erzeugt sie diese?“
44 Perkins 2000, 154; Povh
et al 1999, 107 - 111
...“Es ist nicht
möglich, einen gemessenen Querschnitt auf seine
individuelle Ursache zurück zu führen. Keine
Kausalgeschichte setzt einen gemessenen
Formfaktor oder eine Strukturfunktion mit seiner
Ursache in Beziehung“...
...“Mit den in
Teilchenbeschleunigern erzeugten Strahlen kann
man weder in das Atom hineinschauen, noch
subatomare Strukturen sehen, noch punktförmige
Strukturen im Inneren des Nukleons beobachten.
Solches Gerede ist metaphorisch. Das einzige,
was ein Teilchen sichtbar macht, ist die
makroskopische Struktur des Targets“...
...“Niels Bohrs
Quantenphilosophie...Bohrs Anspruch war, dass
die klassische Sprache unverzichtbar ist. Dies
hat bis heute Gültigkeit. Auf der individuellen
Ebene von Klicks in Teilchendetektoren und
Teilchenspuren auf Fotos müssen alle
Messergebnisse in klassischen Begriffen
ausgedrückt werden. Die Verwendung der bekannten
physikalischen Größen Länge, Zeit, Masse und
Impuls-Energie auf subatomarer Ebene ist in der
Tat auf eine Extrapolation der Sprache der
klassischen Physik auf den nichtklassischen
Bereich zurückzuführen.“
It must be made transparent step by step what physicists themselves
consider to be the empirical basis for current
knowledge of particle physics. And it must be
transparent what the mean in detail when the
talk about subatomic particles and fields. The
continued use of these terms in quantum physics
gives rise to serious semantic problems.
Modern particle physics is indeed the hardest
case for incommensurability in Kuhn’s sense.1…
1 Kuhn 1962. 1970
…After
all, theory-ladenness is a bad criterion for
making the distinction between safe background
knowledge and uncertain assumptions or
hypotheses.
… Subatomic structure does not really exist per se. It is only
exhibited in a scattering experiment of a given
energy, that is, due to an interaction. The
higher the energy transfer during the
interaction, the smaller the measured structures.
In addition, according to the laws of quantum
field theory at very high scattering energies,
new structures arise. Quantum chromodynamics (i.e.
the quantum field theory of strong interactions)
tells us that the higher the scattering energy,
the more quark antiquark pairs and gluons are
created inside the nucleon. According to the
model of scattering in this domain, this give
rise once again to scaling violations which have
indeed observed.44
This
sheds new light on Eddington’s old question on
whether the experimental method gives rise to
discovery or manufacture. Does the
interaction at a certain scattering energy
reveal the measured structures or does it
generate them?
44
Perkins
2000, 154; Povh et al 1999, 107 – 111
…It
is not possible to trace a measured
cross-section back to its individual cause. No
causal story relates a measured form factor or
structure function to its cause…
…With
the beams generated in particle accelerators,
one can neither look into the atom, nor see
subatomic structures, nor observe pointlike
structures inside the nucleon. Such talk is
metaphorical. The only thing a particle makes
visible is the macroscopic structure of the
target…
…Niels
Bohr’s quantum philosophy…Bohr’s claim
was that the classical language is indispensable.
This has remained valid up to the present day.
At the individual level of clicks in particle
detectors and particle tracks on photographs,
all measurements results have to expressed in
classical terms. Indeed, the use of the familiar
physical quantities of length, time, mass and
momentum-energy at a subatomic scale is due to
an extrapolation of the language of classical
physics to the non-classical domain.
Bemerkenswert
ist die Art und Weise wie Frau
Hossenfelder Ihre Kollegen einschätzt. Sie
schreibt in einem Erwiderungs-Kommentar zu Ihrem
Blogartikel "CERN
produces marketing video for new collider and it’s
full of lies" am 7.Dezember 2018 [7.28
AM] u.a.
A
video about a new scientific instrument whose
funding is being discussed should leave the
watcher with an reasonable impression what the
instrument will do…
…Of
course the physicists watching this see nothing
wrong with this. Because they know it's
bullshit. And they have gotten used to this
bullshit, so they think it's just business as
usual. The moral corruption that has happened
here is remarkable.
Am
gleichen Tag schreibt Frau Hossenfelder [12.36
PM] einem Kommentator namens Tommaso
Dorigo …”We
all know you are a particle physicist and have
stakes in the issue. I am not remotely surprised
that you don't like me saying publicly what
everyone in the business has known for decades.”…
Dann
wird es „noch spannender“. Sie schreibt in
einem weiteren Erwiderungskommentar am 8.
Dezember [2.49 AM]
…”We
can only make it wisely if we look at the facts
rather than let ourselves be guided by wishful
thinking. That's why false advertisement like
the above is a problem. People who don't
understand the theories believe it. Even
those who understand the theories are influenced
by the overly optimistic outlook. I know they
don't want to hear it, but cognitive biases and
motivated cognition does influence the way we
make decisions. Even as scientists. Especially
in large groups.“…
…
As I lay out in my book,
theory development especially in high-energy
physics is presently working badly. You can
construct "predictions" for anything
you want; therefore those predictions are
utterly worthless.”…
Was
man Frau Hossenfelder in jedem Fall zu
Gute halten muß, ist ihre klare Sprache. Sie
nennt die Dinge beim Namen. Siehe den Artikel
von Kurt Marti aus August 2018 Teilchenphysik:
Eine Physikerin spricht Klartext. Wie gut
die öffentliche Meinung auf Linie mit der
Systemphysik ist, läßt sich in den Kommentaren
zu diesem Artikel feststellen. Die
populärwissenschaftliche „Verklärung“ hat
hier ganze Arbeit geleistet. |
|
Im
Hinblick auf naturphilosophisch wertvolle Aspekte verkörpert
die formal logische Argumentation die Basis des konstruktiv
kritischen Denkens und Handelns. Der Kritik eines bestehenden
Denkmodells „folgt“ zwingend ein "neues"
Denkmodell, sofern ein nachhaltiger Erkenntnisgewinn angestrebt
wird. Jede noch so fundierte Kritik bedarf einer konstruktiven
Alternative, solange diese nicht existiert „verpufft“ selbst
die „beste“ Kritik.
Zum
konstruktiven kritischen Denken und Handeln
gehören Fähigkeiten und Fertigkeiten
…die
Fähigkeit Argumente zu identifizieren
…die
Fähigkeit die Qualität der Argumente prüfen zu können
…die
Fertigkeit Alternativen identifizieren zu können
…die
Fertigkeit Alternativen formulieren zu können.
Ein
naturphilosophisch wertvolles physikalisches Denkmodell ist
phänomenologisch begründet, konsistent, (sowohl mathematisch
als auch plausibel verstehbar) minimalistisch, universell
("skalen-korrespondierend") und experimentell direkt
überprüfbar.
Natur
kann nur addieren oder subtrahieren. Eine „gesicherte“
»höhere mathematische Realität« existiert ausschließlich im
Rahmen axiomatisch begründeter Sprache (Mathematik). Inwieweit
eine korrekte mathematische Struktur (»höhere mathematische
Realität«) physikalisch anwendbar ist, lässt sich mit den „Mitteln“
der Mathematik nicht entscheiden (siehe „unstrittig-exemplarisch“
Epizykeltheorie und Banach-Tarski-Paradoxon). Mathematik erfasst
letztendlich Mengen und kann nicht zwischen Staubsauger und
Staub unterscheiden.
"Hier" beginnt das fundamentale Mißverständnis
über das, was Physik aus einem naturphilosophischen, respektive
erkenntnistheoretischen Blickwinkel sein sollte, ohne den nützlichen,
formalisierten Charakter der physikalischen Beschreibung zu
verlieren. Den komplizierten Standardmodellausführungen fehlen
letztendlich meist konkrete Berechnungsmöglichkeiten oder diese
führen in einigen Fällen zwar zu Ergebnissen, doch der
mathematische Weg zum "Rechenergebnis" bleibt
phänomenologisch unverstanden.
Die
Standard-Annahme der Standardmodelle, daß komplexe
mathematische Formalismen einen erkenntnistheoretischen Gewinn
„mathematik-selbstgestaltet“ generieren können, ist ein
fataler Irrglaube, der zu theoriebeladenen Versuchen führt und
in dessen Verlauf Versuchsergebnisse weder reproduzierbar noch
direkt meßbar sind. Salopp formuliert: „Früher“ fielen bei
einer Milliarde Einzelversuchen, eine Milliarden Mal die Äpfel
vom Baum, was zur theoretischen Rechtfertigung einer
anziehenden, gravitativen Kraft führte. Heute wird als
Teilchen-Existenzbeweis ein Ereignis bei einer Milliarde
Versuchen mit »einer Milliarde -1« Fehlversuchen gewertet und
das postulierte Teilchen ist, anders als der Apfel, auch nicht
direkter Bestandteil der Messung. Wie beliebig und
nachvollziehbar grotesk die Moderne Teilchenphysik „aufgestellt“
ist, wird an verschiedenen Stellen und in einem eigenen Kapitel
zum Standardmodell der Teilchenphysik (SM) ausgeführt.
Von
vielen, möglicherweise fast von allen Physiktreibenden, vom
Studenten bis zum Professor, vom Wissenschaftsneugierigen bis
zum mathematisch (gut) vorgebildeten Anhänger, vom
"irgendwie Versteher" bis zum ahnungslosen Laien geht
eine omnipräsente Systemgläubigkeit aus, die je nach
Bildungsstand, mit mehr oder weniger scheinbar fundierten
Argumenten, "Dinge", wie überlichtschnelle
Raumausdehnungen oder Kaskaden von virtuellen Teilchen
"vertritt", deren Begründungen aber letztendlich nur
einer Prämisse folgen: (Moderne) Wissenschaft ist das, worauf
man sich geeinigt hat, auch wenn experimentelle Fakten,
Inkonsistenzen und die Anzahl freier Parameter klar gegen
herrschende Standardmodelle sprechen. Abgehoben und von der
Masse glorifiziert leben die Protagonisten der Modernen
Theoretischen Systemphysik bezüglich alternativer Denkmodelle
nach dem Motto: »Wir lesen nicht, wir schreiben selber.«
Doch was wissen diese Leute wirklich von dem, was sie da treiben
und schätzen? Was "kennen" sie, außer den
"Dingen", die sie anhimmeln, stetig nachkorrigieren
und mit aller Kraft verteidigen und wenn es als letzte Untat die
postulierte Unwiderlegbarkeit (Stichwort Confinement-These)
selbst ist, die sie propagieren?
Konträr
zur sachdienlichen Forderung erkenntnistheoretischer
Betrachtungen sind die „Ergebnisse“ der Theoretischen
Grundlagenphysik eher emotional statt wissenschaftlich
begründete Antworten auf die ideologische Frage, auf welches
theoretische Konzept man sich „heute und demnächst“ einigt.
Die Natur hat sich gefälligst den aktuellen theoretischen
Implikationen zu unterwerfen. Heute sind es beispielsweise noch
postuliert elementare Quarks, morgen möglicherweise
"Preonen-Substrukturierte". Gemessen wird stark
selektiv in vorgezeichneten Zerfallskanälen. Beobachtet wird
das, was die aktuell herrschende Theorie fordert.
Wirklich
interessant sind die psychologischen und soziologischen Aspekte,
die inhärent mit den Machern und Anhängern der Standardmodelle
verknüpft sind. Wie konnte es dazu kommen, daß ein eher
kleiner Kreis von „Wissenschaftlern“ trotz dokumentierter
Erkenntnislosigkeit bestimmt, was die anderen zu denken haben?
Und warum verhalten sich andere „Wissenschaftler“ so passiv?
Die transparent absurden Standard-Theoriewelten bieten
Riesenangriffsflächen für logische und formal-logische Kritik,
doch es gibt so gut wie keine wahrnehmbar aktiven Kritiker.
Die
Ansprüche an »erkenntnistheoretische Verbindlichkeiten«
müssen so hoch wie möglich sein. Es geht nicht um die sinnlose
Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist
eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche
Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur
Materiebildung, minimalistisch ist und zugleich
eindeutige Lösungen liefert. Diese Frage ist stets
beantwortbar.
Die
Standardmodelle der Teilchenphysik und Kosmologie gehören aus
vielerlei rational logischen Gründen nicht zum Kreis
erkenntnistheoretisch wertvoller Denkmodelle.

Plausibilität
vs dynamischer Asymmetrie
Die
etablierte Meinung, daß theoretische Aspekte der Physik nur von
Fachleuten bewertet werden können, ist unzutreffend. Jedwede
erkenntnistheoretisch wertvolle, konsistente Theorie kann von
intelligenten Menschen mit einem gewissen Grad an Vorbereitung
verstanden werden. Es sind vielmehr die zeitgenössischen
theoretischen Konzepte, denen es an formaler Logik fehlt.
Gibt
es noch etwas "Konträres" in der Theoretischen
Grundlagenphysik zu entdecken? Hat der herrschende
Indeterminismus der Modernen Physik das "letzte Wort"?
Der
Glaube an das Standardmodell der Teilchenphysik ist heute so
selbstverständlich, wie "damals" der Glaube an die
Epizykeltheorie des geozentrischen Weltbildes. Keiner kann sich
auf Grund der weltweiten, jahrzehntelangen Beschäftigung der
Theoretischen Physik mit Quantenfeldtheorien vorstellen, daß
diese (noch) irgendwie fundamental "falsch" sein
könnten…
Und
doch, wenn man konsequent Masse und Radius (auch)
mikroskopischer Körper als inhärente Fundamentaleigenschaften
voraussetzt, stößt man auf eine determinierte
Masse-Radius-Konstanz. Diese Konstanz führt zu einer tief
greifenden Korrespondenz und zu exakten numerischen Voraussagen.
["Praktische" Beispiele sind u.a. die Elementarkörper
basierende exakte, formal-analytische Berechnung des
Protonenradius, die energetisch begründete Herleitung der
Sommerfeldschen Feinstrukturkonstanten auf Grundlage der
Masse-Radius-Konstanz der elektrischen Ladung beliebiger
Elementarladungsträger, die Berechnung (vermeintlich) anomaler
magnetischer Momente, Neutronenmasseberechnung, um nur einige zu
nennen. Es wird, sowohl phänomenologisch als auch formal,
anschaulich deutlich, daß u.a. die Konstanz und Invarianz der
elektrischen Ladung, trotz erheblich unterschiedlicher Massen
der Ladungsträger (Proton, Elektron, Pion, Myon, …), ihre
Ursache in der konstanten Masse-Radius-Beziehung hat.


"abstract"
Die
grundsätzliche, phänomenologisch begründete Elementarkörper
basierende Denkmodell-Forderung besteht darin, daß möglichst
minimalistische Gleichungen sowohl das masselose Photon als auch
massebehaftete Materie abbilden. Die Entstehungsgleichungen
r(t) = r0 ·sin(c ·t/r0) und m(t) = m0
·sin(c ·t/r0) leisten genau das. Die zeitlose
Lichtgeschwindigkeit - als Zustand reiner Bewegung - steht
nicht im Widerspruch mit der Materie-Energie-Verkörperung.

Die
Transformation von einem Photon zu einem
masse-radius-gekoppelten Raum entspricht phänomenologisch nicht
einer Teilschwingung, wie anfänglich (auch) im Rahmen des
Elementarkörperdenkmodells angenommen wurde. Die
materiebildende Transformation von einem Photon entspricht einer
irreversiblen Zustandsänderung. Zeitumkehr, wie sie „mechanistisch“
von der klassischen Physik bis hin zur Quantenmechanik gefordert
wird, steht ganz allgemein im Widerspruch zur Meß-Realität
thermodynamischer Prozesse. Der voll ausgebildete
Elementarkörper (r(t) = r0 , m(t) = m0)
kann aus sich heraus nicht wieder den Zustand des Photons
erreichen. Die Wechselwirkungs-Reversibilität, die
möglich ist, muß über eine Anregung von „aussen“
geschehen. Das könnte die Wechselwirkung mit weiteren
Elementarkörpern, Photonen oder „verkörperten Feldern“
sein, die letztendlich bezogen auf (Feld-)Raum-Zustände
energetisch stets als Elementarkörper(-Zustände) verstanden
werden können.
Für
t = 0 handelt es sich somit um reine Bewegungsenergie (Photon).
Für t = (π ·r0) / (2 ·c) ist die Umwandlung
in masse-radius-gekoppelte Energie abgeschlossen, wir erhalten
ein Realobjekt mit den charakteristischen Grössen r0
und m0. In diesem
Zusammenhang ist die Invarianz der [Vakuum-]Lichtgeschwindigkeit
auf eine phänomenologisch begründete Zustandsänderung zurückzuführen
und nicht auf Mathematik in Form von Bezugssystemen und deren
Verknüpfungen. Energie-äquivalent wird die
Gesamtenergie des masse-radius-gekoppelten Realobjektes durch
die Comptonwellenlänge ½π ·r0 definiert.
Somit ergibt sich auch die Comptonwellenlänge "objekt-natürlich"
als Ergebnis der Zustandsänderung. Detaillierte Ausführungen
zur Herkunft und Dynamik des Elementarkörpers finden sich im
gleichnamigen Kapitel: Elementarkörper.
Auch wenn „Antiteilchen“ selten explizit
benannt werden, gelten alle energetischen Beziehungen auch für
diese.

Die
Essenz der Fourier-Analysis als elementarer Bildungsbaustein
Das
stetige „Analyse- und Synthese-System“ in Form der Fourier-Reihe,
respektive Fouriertransformation ist allgegenwärtig. Sowohl die
Epizykeltheorie aus heutiger Sicht als auch das Standardmodell der
Teilchenphysik (SM) als quantenfeldtheoretische Anwendung und
Weiterentwicklung der Quantenmechanik basieren auf Fourier-Reihen,
bzw. Fourier-Transformierte. Die Basis-Funktion ist die
Sinusfunktion. Konsequent minimalistisch gedacht, ist es also nahe
liegend, nicht die Fourier-Transformation als Methode der
Fourier-Analysis als einfachste Abbildungsmöglichkeit zu Grunde zu
legen, sondern minimalistisch die „reine“ Sinusfunktion selbst.
Resultierend lassen sich intuitiv logische Randbedingungen für eine
Basisbetrachtung formulieren.
Wie
kommt man nun von einer abstrakten, menschengemachten Sinusfunktion
zu einem elementaren Naturbeschreibungsmodell?
Um
die Elemente der Sinusfunktion in Ankopplung an „unsere Welt“
realphysikalisch zu bestimmen, werden Alleinstellungsmerkmale der
beobachteten Natur benötigt. Man braucht zur „Verkörperung“ der
Sinusfunktion sozusagen „globale“ physikalische Auffälligkeiten.
„Eine“ ist, wie oben beschrieben, die Konstanz und Invarianz der
[Vakuum-]Lichtgeschwindigkeit, die andere ist die „Gravitationskonstante“.
Es lässt sich nun („zwingend einfachst“) zeigen, daß die
Funktion r(t) = r0 sin(ct/r0) und die Funktion
m(t) = m0sin(ct/r0) ausreichen, um sowohl
Einzelobjekt-mikroskopisch als auch vielteilchen-makroskopisch die
Entstehung der Masse (Materie) aus reiner Bewegungsinformation (reiner
Bewegungsenergie) zu gestalten. Daraus resultiert eine Zustandsänderung
in Gestalt einer nichtinflationären Expansion (masse-radius-gekoppelte
Kreation), die im Maximum mit einem statischen Universum endet (siehe
das Kapitel Urknall
und Universum).
Bemerkenswert
ist die phänomenologisch begründete Elementarkörpertheorie basierende Aussage, daß erkenntnistheoretisch
- und wenn man so will philosophisch - der Nullpunkt, die
"Null", nicht für "Nichts steht", sondern
den maximalen Bewegungszustand repräsentiert. Dieser Zustand
entspricht der (zeitlosen) Lichtgeschwindigkeit.
(Plausibilitätsbetrachtung und mathematische Ausführungen
hiezu, siehe das Kapitel Impulsmasse-Inversion►)
Die
Divergenzproblematiken, sowohl klassischer als auch
quantenfeldtheoretischer Betrachtungen, finden ihre
theoriebeladene Ursache in den jeweiligen Denkmodellen. Dort
wird die innere Struktur der Energieträger (Gravitation,
(elektrische) Ladung) schlicht nicht erfasst. Berücksichtigt
man jedoch die endliche, realphysikalisch orientierte,
phänomenologische Natur der Objekte, lösen sich die
"Unendlichkeiten" plausibel auf.
Motivation
und Hintergründe
Es
ist alles andere als trivial, Raum und Zeit als
physikalische "Gegenstände" zu betrachten. Raum und
Zeit sind primär "Ordnungsmuster des Verstandes". Um
aus diesen Ordnungsmustern Physik zu "erhalten",
bedarf es zwingend einer phänomenologischen Betrachtung und
Erklärung.
Die
Elementarkörper-Theorie stellt einen Energie erhaltenden
fundamentalen Zusammenhang zwischen dem «Phänomen Bewegung»
und dem «Phänomen Raum» her.
Anfang
2012 "klebten" die Berechnungen noch am
Protonenradius. Mit Entwicklungspausen entfaltete sich in den
Folgejahren ein konsistentes Denkmodell welches, phänomenologisch
begründet, korrespondierend Photon und radius-masse-gekoppelte
Materie, sowie Mikro- und Makro-Kosmos vereint.
Denkmodell
konsistent ist resultierend das Phänomen Energie der ursächlich
von Elementarkörpern aufgespannte Raum selbst und äquivalent
die zeitliche Änderung des Raumes. Die Masse-Energie-Äquivalenz
entspricht anschaulich einer Raum-Bewegung-Äquivalenz.
Vereinfacht: Raum läßt sich in Bewegung und Bewegung lässt
sich in Raum transformieren.
In
dem Zusammenhang ist die Invarianz der
[Vakuum-]Lichtgeschwindigkeit, wie bereits erwähnt, auf eine Zustandsänderung der
Materie zurückzuführen und nicht auf Mathematik in Form von
Bezugssystemen und deren Verknüpfungen. Der Begriff Invarianz
bekommt in der Elementarkörpertheorie eine phänomenologische
Erklärung.
"Kurioses"
Es
war - und ist nach wie vor - kein primäres Ziel der Elementarkörpertheorie
zeitinstabile Materie kreieren/beschreiben zu können, dennoch
...
Ein
unerwartetes Ergebnis ...
Higgs-Boson-Kreationen
und andere Kleinigkeiten "am Rande
bemerkt"(, ist mehrdeutig zu verstehen.)
"Kurios"
ist u.a. der "Umstand", daß im Rahmen der «Ladungsabhängigen
MateriebildungLM» Elementarkörper basierend
aus der starken Proton-Antiproton-Wechselwirkung
formal analytisch in Abhängigkeit der (Anti)Proton-Masse und
der Sommerfeldschen Feinstrukturkonstante α
eine Materiebildungsenergie von ~ 257 GeV folgt,
die gemäß Ladungs-Erhaltung als Variationsmöglichkeit zwei
masse-radius-gekoppelte "Massehäufchen" erzeugt, die
ungeladene und geladene Higgs-Boson-Massen abbilden.
Aus
praktischen Gründen werden
"Zehnerpotenzen" exemplarisch wie
folgt geschrieben: 1,23·10-3 =
1,23e-3. Das hat den Vorteil, daß der
interessierte Leser die entsprechenden
Zahlenwerte "gleich" in den
"Computer" zur
"Kontrolle" übernehmen kann
(Copy&Paste).
Die
Unsicherheiten der (CODATA)-(Masse-)Werte
und der Naturkonstantenwerte sind nicht
explizit benannt. Beispiel: Masse des
Elektrons: 9,10938356(11)e-31 kg
Es wird hier mit dem Wert 9,10938356e-31
kg gerechnet.
Beispiel:
Feinstrukturkonstante α:
0,0072973525664 0,0072973525664(17)
|
|
LMDie
final resultierende Gleichung zur Berechnung ist an Einfachheit
nicht zu überbieten:

m
= mp = 1,672621898e-27 kg :
(Anti-)Protonenmasse α
= 0,0072973525664

∆E(
p+, p- ) = 257,15410429801
GeV
∆m(
p+, p- )
= 4,58418825946e-25 [kg] [2q0q0]
(∆m(
p+, p- ) / 2) / mH(0)
~
1,02861642
Das
bedeutet, daß mit einem "Fehler" ~ 2,9%MU,
bezogen auf die am LHC "detektierte"
Higgs-Bosonen-Masse (mH(0)
~ 125
GeV/c²), die Elementarkörpertheorie ein Ereignis voraussagt,
welches im Standardmodell der Teilchenphysik (SM) nur als
theoretisch vorbestimmtes Zirkelschluss-Ergebnis existiert. MUZur
Erinnerung: Die "ungeschönte" Mess(un)genauigkeit der
LHC Detektoren liegt in der Größenordnung von 5%...
...Das
Higgs-Potential und damit die (postulierte) spontane
Symmetriebrechung der elektroschwachen Symmetrie wird „per
Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung
für diesen Mechanismus. Der Higgs-Mechanismus startet mit einem
Tachyonfeld und damit inhärent verbunden mit einem negativen
Massenquadrat (m² < 0). Um den Tachyon-Term „zu
umgehen“ wird das Feld als eine Variation um einen
Vakuumzustand neu parametrisiert. Dadurch ändert sich das
Vorzeichen des Massenterms... Inkonsistenz, Beliebigkeit,
"Zirkelschluß-Dynamik" der theoretischen
Implikationen zum postulierten SM-Higgs-Mechanismus, sowie der
kleinste Nenner mit der Elementarkörper werden im Kapitel

Higgs-Boson-Kreationen
und andere Kleinigkeiten ausführlich erörtert.


Makroskopische
Konsequenz
Das
Geheimnis der "scheinbar" sehr schwachen Gravitation
im Verhältnis zur elektrischen Wechselwirkung und starken
Wechselwirkung liegt in der falschen Annahme begründet, daß es
generell einen Masse entkoppelten Raum gibt. Berücksichtigt man
den Raum, den makroskopische Körper sowohl durch ihre
Objektausdehnung als auch durch ihren Wechselwirkungsradius
aufspannen, dann wird deutlich, daß die "fehlende"
Energie in dem Raum selbst "steckt". In diesem Sinne
ist für makroskopische Körper die Gravitationskonstante
γG das »Maß der Dinge«.
Mit
anderen Worten: Die vermeintlich geringe Stärke der makroskopischen
Gravitation ist darauf zurück zu führen, daß in der
Betrachtung und Berechnung die Raumausdehnung der
makroskopischen Körper nicht berücksichtigt wird. Elementarkörper
basierend gibt es aber keinen Materie ( : Masse, respektive
Energie) entkoppelten Raum. Dies wird nicht
"wahrgenommen", da der Raum und somit die radius-abhängige
Energie der makroskopischen Systeme phänomenologisch von der
"etablierten" Physik nicht "realisiert"
wird. Dieser fatale Irrglaube war und ist u.a. notwendig, um die
überlichtschnelle masse-entkoppelte Raum-Expansion des "frühen"
Universums während der so genannten Inflationsphase des
Urknall-Modells zu rechtfertigen.

Nur
wenn Körper einen Radius besitzen würden,
der dem Masse abhängigen Gravitationsradius rG entspricht, dann ist die
Gravitations-Energie EG gleich der Ruhe-Energie E0.
Mit der Elementarkörpertheorie basierenden Annahme, daß eine
Vergrößerung des (Objekt-)Radius masse-gekoppelte Energie in
Raum-Energie ER transformiert, wird plausibel, daß
die Gravitations-Energie, die ausschließlich die
masse-gekoppelte Energie (E0 - ER) berücksichtigt
um die Raum-Energie ER reduziert ist. Da
makroskopische Objekte um viele Zehnerpotenzen größer sind,
als ihr Gesamtmasse zugehöriger Gravitationsradius, steckt fast
die gesamte Energie
in dem vom »Objekt« aufgespannten Raum bzw. in dem Raum mit
Wechselwirkungsradius r, entsprechend gering ist die
masseabhängige Wirkung.
"Intuitiv-spielerisch"
ist die Annahme, daß das Verhältnis von zeitabhängigen
Universumsradius zu zeitabhängiger Universumsmasse
zeitunabhängig (!) und konstant ist. Die Multiplikation
von rUni/mUni
mit c² ist gleich der Gravitationskonstanten γG.
Diese Annahmen stellen u.a. eine
"schöne" Korrespondenz zwischen Kosmos,
Gravitationskonstante und den Planckgrössen für Masse (mPl)
und Länge rPl (Radius) respektive dem Elementarquant
{ : G mit rG, mG } her.

Randnotizen:
Schon Ernst Mach (1838 - 1916)
bemerkte, daß die "Schwäche" der
Gravitation mit der "enormen" Grösse
des Universums in Zusammenhang steht. Er
vermutete eine Relation zwischen
Universums-Masse, Universums-Radius und
Gravitationskonstante. Sir Arthur Stanley
Eddington (1882 - 1944) erhielt das Verhältnis
von Universums-Radius zu Universums-Masse
indem er die Gravitationskonstante durch c²
dividierte (...formal-gleich im Rahmen der
hier beschriebenen Korrespondenz zwischen
"Längen-Kleinsten" und Längen-Größten").
Und auch Erwin Schrödinger hatte
dies als Möglichkeit bereits 1925 geäußert.
Quelle:
Mach’s
Principle – Relating Gravity to the
Universe
Warum
sich diese einfache Annahme nicht
durchsetzte hat höchstwahrscheinlich mit
der (später) favorisierten (inflationären)
Urknalltheorie zu tun. Dort ist kein Platz für
"(korrespondierend) Einfaches".
|
|
Die
Elementarkörpertheorie bietet also sowohl für mikroskopische
Objekte als auch für komplexe, dynamisch-verschachtelte
Strukturen, bis hin zum »Universum«, einen Ergebnis
orientierten Rahmen, in dem mit wenigen Annahmen bemerkenswerte
analytische Ausdrücke abgeleitet werden können. Ein Ergebnis
ist die Berechnung der Masse des Universums in
Abhängigkeit der Zeit (Alter des Universums) ►
Gleichung [MUNI]. Ohne an dieser Stelle näher auf die
notwendigen Elementarkörpertheorie basierenden
phänomenologischen Hintergründe einzugehen, folgt mittels der
Elementarkörper-Entwicklungsgleichung r(t) eine Abschätzung
der oberen zeitabhängigen Radius-Grenze, die mit der
gleichfalls Elementarkörpertheorie basierenden Idee der
verkörperten Gravitationskonstante zum allgemeinen
Gravitationsradius und zu einem konkreten mathematischen
Ausdruck führt, mit dem sich die Masse des Universums mUniversum(t)
alleinig aus dem Alter des Universums ergibt.


Der
Fehler zu Gleichung [P2m] bei genauer Kenntnis der maximalen
Universumsmasse beträgt hier zeitabhängig ~ -5%. Die Berechnung
der maximalen Universumsmasse ergibt sich mittels der »Wasserstoff-Parameter«
: Protonenmasse, Elektronenmasse, Rydberg-Energie und der
Gravitationskonstanten verkörpert durch das Elementarquant, siehe
das Kapitel: 3K-Hintergrundstrahlung.
Diese
Elementarkörper basierende Abschätzung, die in sehr guter
Übereinstimmung mit den Schätzwerten des Standardmodell der Kosmologie
ist (ΛCDM-Modell
~ mUniversum
1·1053 [kg]), deutet an, welche Macht in
realphysikalisch begründeten Plausibilitätsbetrachtungen "steckt",
die im Gesamtbild konträr zu differential-geometrischen
komplexen Formalismen und resultierenden
Raum-Zeit-Kontinuum-Fantasien, mittels Masse-Raum-Kopplung zum
Paradigmenwechsel führen. Denn im Gegensatz zur
"gängigen" Urknall-Theorie notwendigen teils
überlichtschnellen Materie entkoppelten Expansion des Raumes,
basiert die Elementarkörpertheorie-Gleichung [MUNI] auf einer
Masse-Raum-Kopplung, die zu keinem Zeitpunkt eine
überlichtschnelle Ausbreitung besitzt. (Details siehe das
Kapitel: Urknall)
Randnotiz:
Aus
den Daten des Planck-Weltraumteleskops (kurz
"Planck" genannt) des Jahres 2013
wurde ein Alter des Universums von
aktualisiert 13,80 ±
0,04
Milliarden
Lichtjahren "ermittelt".
Aber
: "Berechnungen" ausgehend von dem ΛCDM-Modell
sind grundsätzlich mit äußerster Vorsicht
zu "genießen". Die Suggestion man
wüsste genau, was sich wann, in welcher
Größe ereignete, ist mehr Wunsch als
Wirklichkeit. Hier bestimmt nach wie vor die Theorie des
(inflationären) Urknalls, was gemessen
werden soll bzw. wie Meßergebnisse zu
interpretieren sind. Die geduldeten
Fehler(grenzen) sind für die Maßstäbe der
Grundlagen-Physik immens.
Beispiel:
Die Meß-Resultate des Planck-Satelliten aus
dem Jahre 2013 lieferten einen Wert für die
Hubble-Konstante, der um ca. 10% kleiner ist,
als der ("mittlere") Literaturwert.
Siehe:
Planck
satellite 2013 results ► http://arxiv.org/pdf/1303.5062v1.pdf
Text-Auszug:
...Summary
and Conclusions
…The
Planck best-fit model is in excellent
agreement with the most current BAO data.
However, it requires a Hubble constant that is
significantly lower (~67
kms−1Mpc−1)
than expected from traditional measurement
techniques, raising the possibility of
systematic effects in the latter…
update
27.
Januar 2017
Die
Nachricht [Eine neue “Messung”
der Hubble-Konstanten] ist
zwar erkenntnistheoretisch
unbedeutend, da die vermeintliche
(neue) Messung von H0
gleichfalls stark freie Parameter-theoriebeladen
ist, wie jede
"Beobachtung" innerhalb
des ΛCDM-Modells, so gibt sie
aber zumindest einen „aufgefrischten“
Aufschluss über das Hin- und
Her-Beschäftigungsspiel der
involvierten Nutznießer aus „Forschung
und Technik“.
Hier
der neue “Messwert”:
H0 ~ 71, 9
(+2,4) (-3,0) based on
the joint analysis of three
multiply-imaged quasar systems with
measured gravitational time delays...,
source: https://arxiv.org/pdf/1607.01790v2.pdf
Eine
Liste [ΛCDM-Modell-]theoriebeladener
"Messwerte" von 1929 bis
2013 findet sich beispielsweise
unter https://en.wikipedia.org/wiki/Hubble's_law
|
|
|
Die
zielführende [Elementarkörper-]Theorie, insbesondere ihr
minimalistischer Formalismus, daraus resultierend analytische
Ergebnisse und die interdisziplinär verstehbaren Aussagen
führen zu einem heftigen Konflikt mit dem Standardmodell der
Teilchenphysik (SM) und dem Standardmodell der Kosmologie (ΛCDM-Modell). Nicht die
assoziierten spektroskopischen Meßergebnisse der
Experimentalphysik werden angezweifelt bzw. sind falsch, sondern
die Interpretationen basierend auf deren theoretischen Grundlagen. Die jetzige Situation
der Standardmodelle ist ergebnisorientiert vergleichbar mit der
Epizykeltheorie kurz vor ihrem Ende. Das Denkgebäude der
Elementarkörpertheorie bedeutet nicht eine Korrektur oder
Erweiterung der Standardmodelle sondern das Ende dieser Modelle.
Elementarkörpertheorie steht für Paradigmenwechsel.

Die
Elementarkörpertheorie erweitert den Unschärfebegriff wesentlich.
Es wird gezeigt, daß das "sinusförmige Ausschwingen" als
Wechselwirkungs-Folge eine „natürliche“ Unschärfe erzeugt.
Interessanterweise
"entsteht", Elementarkörpertheorie basierend, somit auch eine
fundamentale Plausibilität für die «Wahrscheinlichkeitswelt» der
Quantenmechanik, da der Elementarkörper in einem anschaulichen Bild
eine atmende Kugel darstellt, dessen Physik sich auf der zeitabhängigen
Oberfläche "abspielt" und somit verschiedene Entwicklungszustände
existieren. Im gleichem Atemzuge ist die Elementarkörpertheorie bemüht,
die (bisher) unanschauliche Quantenmechanik und allgemein
Quantenfeldtheorien anschaulich zu "ersetzen". Es zeichnet
sich ab, daß der oszillierende Elementarkörper gegenüber dem anfänglich
minimalistischen, mathematischen Rüstzeug der "Quantenmechaniker
des frühen 20.Jahrhunderts" aufgeschlossen ist, sich aber
gegenüber den "späteren" rein mathematischen
Quantenfeldtheorien verschließt.

Ist
die Elementarkörpertheorie "relativistisch"?
Das
Verständigungs- und Interpretations-Problem begann bzw. beginnt
- wie so oft - mit einem Realphysik befreiten Formalismus. Die
beobachtbare Invarianz der (Vakuum-)Lichtgeschwindigkeit ist
keineswegs "direkt" mit der Speziellen Relativitätstheorie
(SRT) verbunden, wie suggeriert wird. Das historisch viel
zitierte Michelson-Morley-Experiment ist eindimensional
konzipiert und sagt gar nichts über Masse behaftete Teilchen im
Sinne der herrschenden Physik aus und behandelt auch keine
transversalen Komponenten. Die mathematische Invarianz der
transversalen Komponenten ist lediglich eine formale Konsequenz
der geradlinig gleichförmig bewegten Beobachter bezüglich kräftefreier
Teilchen in einem mathematischen Denkmodell. Mit anderen Worten,
daß gesamte Konstrukt der Lorentztransformation(en) ist an
Inertialsysteme gebunden. Phänomenologisch sagt die SRT
schlicht nichts über die Invarianz der Lichtgeschwindigkeit.
Bevor hier Mißverständnisse
aufkommen, es wird
nicht behauptet, das die Mathematik der Relativitätstheorie
falsch ist. Wie könnte auch eine axiomatisch begründete These
falsch sein? Doch das mathematische Konstrukt besitzt - außer
der zu Grunde liegenden beobachtbaren Invarianz der
[Vakuum-]Lichtgeschwindigkeit - keine realphysikalische Basis.
Es existieren zwar Beobachtungen aber es existiert schlicht
keine Phänomenologie zur Mathematik der SRT. Die
inertialsystembehaftete »Relativität der Beobachter« ist eine
"heikle Sache", da es in der Natur nur dann zu
messbaren Systemänderungen kommt, wenn Energie ausgetauscht
wird. Energieaustausch bedeutet aber grundsätzlich, daß
"Kräfte" wirkten oder weniger mystisch ausgedrückt,
daß Beschleunigungen auftraten. Mit der Beschleunigung
"verabschiedet" sich das Inertialsystem und
folgerichtig gleichfalls die Lorentztransformationen. Die
Mathematik der SRT ist nicht falsch sondern schon "per
Definition" nicht dynamisch.
Physik
bedeutet Wechselwirkung und Energieaustausch. Koordinatensysteme
und Koordinatentransformationen "sind" keine
physikalischen Vorgänge, sondern Mathematik. Es wird nicht
geklärt, wie die Energiedifferenz und die „Struktur der
Energiespeicherung“ über Koordinatentransformationen erzeugt
wird oder „verschwindet“. Gemäß Relativitätstheorie gilt:
Der Energieinhalt eines Teilchens ist abhängig von der
Geschwindigkeit dieses Teilchens und resultiert aus einer
Beobachtung, all das relativ aus Sicht eines Inertialsystem
behafteten Beobachters.
Wenn
sich die Geschwindigkeit ändert, dann ändert sich auch der
Energieinhalt. Dies bedeutet: Durch den veränderten
Energieinhalt muß sich zwangsläufig auch die innere Struktur
der Teilchen ändern, denn die Energie wird „irgendwie“ und
„irgendwo“ gespeichert und ist abrufbar. Phänomene wie die
Änderung des Massenwertes in Abhängigkeit der Geschwindigkeit
können mit der Relativitätstheorie nicht erklärt werden. Die
Relativitätstheorie liefert keine physikalische Rechtfertigung,
die erklärt, warum und wie Masse größer oder kleiner wird.
Aus
Sicht der Realphysik orientierten Elementarkörpertheorie bleibt,
wie bereits eingangs erwähnt, von der Relativitätstheorie nur der Lorentzfaktor γSRT
als statischer Fall einer Elementarkörpertheorie basierenden
allgemein gültigen Formulierung γdyn
übrig:
γSRT =

γdyn
= 
Der
dynamische Faktor γdyn
ist inertialsystembefreit und wirkt radialsymmetrisch. γdyn
lässt sich "einfachst" aus der
Elementarkörpergleichung r(t) ableiten.

Elementarkörperdynamik
bei äußerer Energiezufuhr
Ein
Experiment braucht zu seiner Konzeption eine konkrete
Fragestellung. Ist die Fragestellung das Ergebnis eines
mathematischen Formalismus so ist das Versuchsergebnis
entsprechend theoriebeladen. Wenn dann noch die messbaren
Ergebnisse vorselektiert und nur indirekt mit den postulierten
Theorieobjekten „verbunden“ sind, ist der
Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die
standardmodellübliche, falsche Anwendung der SRT auf dynamische
Prozesse gehört ins Reich unerfüllter Wünsche der Liebhaber
realobjektbefreiter Physik. Weder die propagierte "verbogene
Axiomatik" noch die invalide Phänomenologie der
Standardmodelldenker übersteht eine nähere dynamische
Betrachtung. U.a. ist zu beachten, daß sich das theoriebeladene
Versuchsergebnis der Kollisionsereignisse nicht auf zwei
kollidierende Einzelkörper bezieht, sondern aus einer Vielzahl
von Kollisionsereignissen in einem Zeitfenster besteht.

Dazu
kommt die Tatsache, daß beschleunigte Ladungsträger einen Teil
der Energie abstrahlen aber es keine (konsistente) Theorie zur
Strahlung bewegter Ladungen gibt. Das bedeutet, daß die Ursachen
der aufgezeichneten Signale weder "inhaltlich"
qualitativ, quantitativ, räumlich noch zeitlich genau bestimmbar
sind. Rationales Fazit: Eine Denkmodell-Reduktion auf den
Streuquerschnitt zweier diskret kollidierender Teilchen ist mehr
Wunsch als Wirklichkeit.
Masse-radius-gekoppelt
sind die Proton-Streuzentren bei hochenergetischen Kollisionen mit
Wirkungsquerschnitten kleiner als der Wirkungsquerschnitt des
Protons - die theorieinduziert als (Quarks-Gluonen)-Substruktur
interpretiert werden - die radialsymmetrisch radius-verkleinerten
Protonen selbst.



Eine interdisziplinäre Gesamtdarstellung der
Elementarkörpertheorie...
Die Texte sind so geschrieben, daß mit etwas Geduld
auch weniger vorgebildete Leser einen roten Faden aufnehmen können.
Sollte an der einen oder anderen Stelle, ein Begriff nicht bekannt sein
oder ein Resultat nicht sofort verstanden werden, so empfiehlt es sich
erst einmal weiter zu lesen.
Eine gewisse Redundanz ist gewollt.
Denn nicht selten führt eine wiederholte Betrachtung mit etwas anderen
Randbedingungen zum Verstehen.
Die
Elementarkörpertheorie liefert neben konkreten Voraussagen
insbesondere Phänomenologie. Mathematik ist zwar
"Denkmodell-inhärent", aber hier nur "Mittel
zum Zweck". Die Elementarkörpertheorie baut auf
Plausibilität und Minimalismus auf und ist nachvollziehbar
weder an Wahrscheinlichkeiten noch methodischer
Materiezersplitterung interessiert. Der inhaltliche Konflikt
mit bestehenden Theorien und Modellen, insbesondere mit dem
Standardmodell der Teilchenphysik (SM) und der ursächlichen
Quantenmechanik (QM), ist unausweichlich.
Um Wind, Feuer,
Licht und Dunkel zu verstehen wurden „einst“ Dämonen und
Götter geschaffen. In die reale Welt von „heute“ wurden
irreale Objekte eingeführt, so daß der Mensch erst die
Orientierung und dann die Realität verlor. Dunkle Energie und
Neutrinos sind Artverwandte bzw. Nachfahren der Götter und
Dämonen.
Das
"moderne" Unverständnis basiert auf einer in der
Theoretischen Physik omnipräsenten Fehlinterpretation der
Natur. Es
ist unzulässig, Realität ausschließlich in Form eines
mathematischen Modells darzustellen und ein Weltbild nur mit
den Aussagen und Beweisen der Mathematik zu begründen. Natur
beruht eben nicht auf mathematischen Axiomen und Definitionen
und kann deshalb auch nicht nach den formalen Regeln der
Mathematik hergeleitet und bewiesen werden. Statt sich
Gedanken über die Phänomenologie des Geschehens zu machen, wurde
und wird nach mathematischen Lösungen gesucht.

Wie
erkenntnistheoretisch sinnleer heutzutage gearbeitet und
argumentiert wird, offenbart folgendes Beispiel:
Berechnung
der Vierschleifen-Beiträge zu
Taylor-Reihen-Entwicklungskoeffizienten der
Vakuumpolarisationsfunktion in perturbativer
Quantenchromodynamik

führt
zu ungefähr 700 Feynman-Diagrammen

Lösung
eines linearen Gleichungssystems mit nicht konstanten
Koeffizienten
Größenordnung:
Gleichungssystem mit 25 Millionen Gleichungen
liefert
Lösungen für 4 Millionen Integrale

"Ergebnis"
Reihen-Entwicklung
der Vakuumpolarisation

Und
nu?
Das
es die Protagonisten in Brot und Arbeit stellt ist keine
(wissenschaftliche) Rechtfertigung.
Was
soll dieses Ergebnis erkenntnistheoretisch aussagen?
Ohne
Frage, Hypothesen und Gedankenexperimente waren und sind
grundlegende "menschliche" Konzepte. Nur müssen sich
diese früher oder später durch stringente, konsistente
Denkmodelle mit einfachen mathematischen Mitteln belegen lassen,
sofern sie einen erkenntnistheoretischen Wert besitzen sollen. Die
Unart fehlendes Wissen und fehlende Phänomenologie im Rahmen
parametrischer Glaubensbekenntnisse iterativ zu beschönigen,
bedeutet Willkür und Erkenntnis-Stillstand. Renormierung,
variable Kopplungskonstanten, freie Parameter, endlose
Substrukturierung, taylorreihenaffine Störungstheorie und
Artverwandtes korrigieren nur den "physikalischen Mist",
den man sich durch fehlende Anschauung primär eingebrockt hat.

...am
Rand des Wissens dem Wirrsein nah
stumm
die mein Schweigen mehren
das
Leben ist so wunderbar...
[Basissuche
Dirk Freyling 47ndf]
Es
hat sich in der Theoretischen Grundlagen-Physik seit mehr als 100
Jahren eine Denkmodell-Monokultur entwickelt, die den Realobjekt
befreiten, angewandten mathematischen Formalismus der
Quantenfeldtheorien selbst zum physikalischen Phänomen erklärt.
Ähnliches lässt sich zur Beschreibung des Makrokosmos und der
zur Anwendung kommenden Differentialgeometrie sagen. Aus einer
großen Menge mathematischer Möglichkeiten wird eine sehr kleine
Schnittmenge mit vermeintlich objektiven Meßdaten gebildet,
obwohl jedem klar sein müsste, daß der Experimentator im Bereich
des Mikrokosmos Bestandteil des Versuchsausganges ist, wie die
Quantenmechaniker schon früh selbst feststellten. Suggestiv wird
vermittelt, daß der verwendete mathematische Formalismus eine
"natürliche" Daseinsberechtigung besitzt und Ausdruck
einer wohlüberlegten Maßnahme ist. Die Wahrheit sieht jedoch
weitaus uneffizienter und beliebig aus. Es wurden schlicht die
mathematischen Gebilde, die nicht in Einklang mit
"vorbestimmten" Experimenten stehen verworfen und im
Nachhinein nicht mehr erwähnt.
Schon
Ernst Mach bemerkte: "Wer Mathematik treibt, den kann
zuweilen das unbehagliche Gefühl überkommen, als ob seine
Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe,
ein Eindruck, dessen selbst der große Euler nach seinem
Geständnisse sich nicht immer erwehren konnte." [EM1]
[EM1]
Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen
Akademie der Wissenschaften zu Wien am 25. Mai 1882

Übergeordnet
scheint die Basisinformation verloren gegangen zu sein, daß
selbst ein Realobjekt freundliches, plausibles Denkmodell nicht
einer objektiven Realität entspricht, sondern stets ein
subjektives Abbild "verkörpert". Die Fragen zur
grundsätzlichen Qualität der Abbilder lassen sich jedoch leicht
formulieren.
Führt das Modell zu einer konstruktiven Eigenschaftsverarmung,
beispielsweise im Sinne einer Reduktion der freien Parameter?
Ist das Abbildungsmodell konsistent?
Ist es "ausnahmefrei"?
Lässt es sich so verallgemeinern, daß es ohne Substrukturierung
Mikrokosmos und Makrokosmos verbindet?
Liefert es aus den theoretischen Annahmen, näherungsfreie,
formal-analytische Gleichungen, die die einzig stabilen und
Materie bildenden Teilchen, sprich Elektron und Proton, mit ihren
fundamentalen Meß-Eigenschaften Masse, Radius und (elektrische)
Ladung qualitativ und quantitativ beschreiben und verbinden kann?
Zur
Freude Erkenntnissuchender können die
Fragen 1 - 4 Elementarkörpertheorie
basierend mit Ja und die Frage 5 derzeit
mit "teilweise" beantwortet
werden. |
|
|
Weder
das Standardmodell der Teilchenphysik noch das Standardmodell der
Kosmologie "besitzt" konstruktive, brauchbare Antworten auf obige
Qualitäts-Fragen.

Am
Rande bemerkt: Da nahezu alle erfolgreich
Indoktrinierte bei dem Begriff Elektronenradius
eine Krise bekommen und "instantan" an
den ungeliebten klassischen Elektronenradius
denken, sollen diese vorerst den - wie sich
zeigen wird, Elektronen-Masse inhärenten -
Radius re durch die
"problemfreie" Comptonwellenlänge des
Elektrons λe gedanklich ersetzen.
Der postulierte, quantenmechanisch Theorie
beladene Spin gehört nicht zu den fundamentalen
Eigenschaften, da nicht der Spin, sondern stets
ein magnetisches Moment gemessen wird. Das
magnetische Moment lässt sich auf die Grössen
elektrische Ladung und Masse zurückführen.
Anmerkungen
zur Anregung des eigenständigen Denkens: Außerhalb
des "Interpretationsspielraumes" des
Teilchenbeschleunigers kommt der Elektronenmasse
inhärente Elektronenradius re,
respektive der klassische Elektronenradius re(klassisch)
( = ( α/4) re), in allen (!)
verwendeten Gleichungen zur Berechnung der
Streuquerschnitte bei elastischen und
inelastischen Streuungen an Elektronen vor
(Stichworte: Møller-Streuung, Compton-Streuung,
Elektron-Positron-Paarbildung, Photoelektrischer
Effekt, Klein-Nishina-Gleichung,
Bethe-Bloch-Sternheimer-Gleichung,
Kramers-Heisenberg-Formel) und steht in einem
phänomenologischen Zusammenhang mit der
Comptonwellenlänge (des Elektrons).
Der
differentielle Streuquerschnitt dσ/dΩ
nimmt für Elektronen stets die Gestalt dσ/dΩ
= (e²/me4πε0c²)²
·
fW
an, wobei der funktionale Zusammenhang fW
die spezifische Art der Streuung angibt. Details
zu fW finden sich exemplarisch zu den
jeweiligen "Streugleichungen", von denen
im Anschluss einige explizit aufgeführt sind.
Das
Verständigungs-Problem der herrschenden Physik
bezüglich des (ungeliebten) klassischen
Elektronenradius re(kl) löst sich auf,
wenn man den wiederkehrenden Term (e²/me4πε0c²)
masse-radius-gekoppelt-energetisch analysiert.
Letztendlich besteht die Beziehung (e²/me4πε0c²)
aus dem Verhältnis: elektrischer Energie zu
Gesamtenergie (α/4) und dem
Elektronenmasse inhärenten Elektronenradius re,
der multipliziert mit π/2 der
Comptonwellenlänge des Elektrons entspricht (λe =
re ·
π/2).
Nicht die
"typischen" energieabhängigen
Elektronenradien kleiner als 10-18 [m]
in Verbindung mit Teilchenbeschleunigern sind
"falsch", sondern die von der
Elementarteilchenphysik resultierenden Schlußfolgerungen
bezüglich ruhender Elektronen.
Eigentlich
gibt es "da" nicht viel zu verstehen.
Das die Vertreter der Systemphysik und die
"System-Nachplapperer" diesen
plausiblen, phänomenologisch begründeten
Zusammenhang nicht realisieren können bzw. nicht
realisieren wollen, ist letztendlich keine
formal-logische, sondern eine ideologische
Entscheidung. Denn mit der Gewissheit, daß das
ruhende Elektron offensichtlich eine meßbare
Ausdehnung besitzt (Radius: re), die
wie bereits mehrfach erwähnt, nachweislich in
allen Elektronenstreuexperimenten vorkommt,
zerbrechen "ihre" mathematischen
Glaubens-Konzepte. Hier
"rächt" sich sozusagen das Fehlen eines
konsistent, phänomenologisch begründeten
Konzepts der elektrischen Ladung. Siehe dazu die
rein mathematischen Ansätze der klassischen
Elektrodynamik, Quantenelektrodynamik (QED),
Quantenchromodynamik (QCD) und der
Elektroschwachen Theorie.
Die
Elementarkörpertheorie „beschreibt“
konsistent sowohl das Verhalten bei „konventionellen“
Streu-Energien der Streu-Partner des Elektrons als
auch hochenergetisch im Teilchenbeschleuniger.
Hier gibt es die größten emotionalen Ausbrüche
und eine methodische Plausibilitäts-Verweigerung
der Standard(-Modell-)Physiker und deren
Anhänger. Eine
ausführliche Diskussion des omnipräsenten
Elektronenmasse inhärenten Elektronenradius re
findet sich unter : Elektronenradius |
|
Da
diese Standardmodelle das Non plus
ultra der Theoretischen Grundlagen-Physik sind, brauchen wir uns
nicht zu wundern, daß wir seit Jahrzehnten tief in einem
"erkenntnistheoretischen (Schwarzen) Loch" sitzen. Wie
egozentrisch, arrogant und dekadent die Protagonisten des
Standards jedoch - trotz der erkenntnistheoretischen
Null-Nummern ihrer Arbeiten - mit Ungläubigen und sich
selbst umgehen, haben sie eindrucksvoll mit der SM-These der
theoriebedingten Unwiderlegbarkeit (Stichwort Confinement)
"unter Beweis gestellt".
Bereits
das geozentrische Weltbild zeigte exemplarisch, daß eine falsche
Theorie über Jahrhunderte, ja sogar Jahrtausende als wahr und mit
Hilfe von Zusatzannahmen wie den Epizyklen, trotz starker
empirischer Indizien für ihre Falschheit, aufrechterhalten werden
kann.
Anmerkungen
zur Anregung des eigenständigen Denkens: Sowohl
die Epizykeltheorie aus heutiger Sicht als auch
das Standardmodell der Teilchenphysik (SM) als
quantenfeldtheoretische Anwendung und
Weiterentwicklung der Quantenmechanik basieren auf
Fourier-Reihen, bzw. Fourier-Transformierte. Die
Epizykeltheorie arbeitete mit 3 freien Parametern,
war mathematisch „richtig“, phänomenologisch
falsch und die Objekte der Beschreibung waren
(sind) sichtbar (Auge, Fernrohr). Das SM arbeitet
mit 25 freien Parametern, variablen
Kopplungskonstanten, virtuellen Teilchen,
theorieinduzierten, nicht realen Objekten und
keines der Objekte ist sichtbar.
|
|
Tatsache
ist: Wir verfügen über keine allgemein anerkannte
Wahrheitstheorie. Wir haben jenseits von Tatsachenbehauptungen
keinen intersubjektiven Zugriff auf die Wirklichkeit. D.h. die Übereinstimmung
von Aussage und Wirklichkeit kann nicht objektiv festgestellt
werden. Dieser Sachverhalt wird insbesondere dann problematisch,
wenn die Theorie bestimmt, was gemessen werden soll.
Es
gibt mehrere paradoxe Forderungen und Vorstellungen der
Systemphysik, die auf Grund der erkennbaren Inkonsistenzen,
Wirklichkeitsleugnung und fehlender Phänomenologie eine rein
wissenschaftliche Auseinandersetzung unmöglich machen.
"Extrem" willkürliche und verifizierbar falsche
Behauptungen verdienen keine rein wissenschaftliche
Aufmerksamkeit. Nur an Rationalität "gekoppelte"
Ironie und Satire schaffen hier eine ertragbare
Diskussionsnähe. Die Argumentation der Protagonisten und
Anhänger der ursprünglichen Quantenmechanik, folgend der
Quantenfeldtheorien und letztendlich des Standardmodells der
Teilchenphysik, daß diese durch experimentelle Ergebnisse
Bestätigung fanden und finden, sagt wenig aus, da die Theorien
immer wieder den Meßergebnissen angepasst wurden. Man kann sich
einer derzeit "25-freien Parameter-", variablen
Kopplungskonstanten-, stetig nachkorrigierten-, stetig
nachparametrisierten-, mit einem ≈
4,4% falschen Protonenradius- Theorie nicht moderat nähern.
Zum
Vergleich: Die geozentrische Epizykeltheorie benötigte 3 freie
Parameter. In der angewandten Physik, die reale Ergebnisse im
Sinne einer funktionierenden Anwendung ohne Wenn und Aber
liefert, gibt es, neben gezielten Variablen im Rahmen des
Funktionsumfanges, keine freien Parameter.
Die Tatsache, daß wir in sehr guter Näherung -
in Analogie zu modernen theoretischen Abstraktionen und in
Korrespondenz zum Mikrokosmos –
auf einer Kugeloberfläche leben, führt nicht zu einem
Raum-Zeitkontinuum.
Die
Tatsache, daß elementare Strukturen aus oszillierenden
Kugeloberflächen bestehen, führt gleichfalls nicht zu einem
vierdimensionalen Konzept mit Vertauschungsmöglichkeiten von
Raum und Zeit. Es kommt ganz im Gegenteil zu einer konstruktiven
„Beschreibungsverarmung“. Die Isotropie führt zu einer
2-dimensionalen Plausibilität, die sich formal auf Zeit und
Radius „verarmt“. Die Selbstverständlichkeit, daß die
Wegstrecke auf einer Kugeloberfläche nicht der euklidischen
Entfernung zwischen den Punkten A und B entspricht bedarf keiner
Abstraktion.

Das Verständigungs- und Interpretations-Problem besteht darin,
daß stillschweigend vorausgesetzt wird, daß es (im
Mikrokosmos) die klassische Möglichkeit eines euklidischen
Abstandes gibt und daß dieser euklidische Denk-Ansatz im Rahmen
der Allgemeinen Relativitätstheorie (ART) durch einen „gekrümmten
dreidimensionalen Raum mit (erweiterter) Zeitfunktion“ eine
abstrakte differentialgeometrische Erfüllung findet. Aber weder
der „quantenmechanische“ Spin, basierend auf einer
postulierten Wahrscheinlichkeitswelle oder wahlweise
postulierten Punktmasse (des Elektrons), noch die postulierte
Krümmung des Raumes beinhalten physikalische Plausibilität,
geschweige denn Realität. Der quantenmechanisch-theoriebeladene
Spin ist keine Meßgrösse. Gemessen wird stets ein magnetisches
Moment. Spätestens seit der Epizykeltheorie sollte man wissen,
daß mathematische Möglichkeiten kein Auswahlkriterium für die
„Richtigkeit“ physikalischer Denkmodelle sind. Der leere
Raum besitzt weder eine Dynamik noch ein Energiereservoir. Die
Mathematik der unendlichen Felder führt zu einer permanenten
Verletzung des Energie-Erhaltungssatzes, bzw. führt diesen ad
absurdum. Bemerkenswert ist hier die (mehrdeutige) Psychologie
der Masse der Feldtheoretiker.
Schon
Isaac Newton hielt die Vorstellung, daß Gravitation durch den
leeren Raum wirken könne, (berechtigterweise) für absurd. Es
ist - übergeordnet und insgesamt betrachtet - alles andere als
trivial, Raum und Zeit als physikalische
"Gegenstände" zu betrachten. Raum und Zeit sind
primär "Ordnungsmuster des Verstandes". Um aus diesen
Ordnungsmustern Physik zu "erhalten", bedarf es
zwingend einer phänomenologischen Betrachtung und Erklärung.
Der Real-Objekt begründete Raum ist inhärent an Masse
gekoppelt und transformierbar. Bedingt durch die reziproke
Proportionalität lässt sich Masse- in Raum-Energie
transformieren und umgekehrt. Salopp formuliert: Grosse Masse
kleiner Raum. Grosser Raum, kleine Masse. Unter diesem Aspekt
lösen sich „instantan“ Neutrinothese und Dunkle-(„whatever
you like“)xxx-Konstrukte
(xxx : Masse, Energie, Photonen) in Wohlgefallen auf. Der Masse
gekoppelte Raum steht für einen Paradigmenwechsel und stürzt
die Standardmodelle der Kosmologie und Teilchenphysik nicht in
ein Schwarzes Loch, sondern in die Sinnlosigkeit. Wirklich
erstaunlich ist nicht die Tatsache, daß es (welch ein Wunder)
reale Objekte gibt, sondern wie wenig Theoretische Physiker von
Real-Objekten verstehen.
Vor
lauter Bäumen den Wald nicht sehen...
Die
Frage, ob Energie verkörpert ist, sollte jeder, der schon
einmal die Energie-Masse-Äquivalenz E = mc² gesehen hat, ohne
große Überlegung mit Ja beantworten können (losgelöst von
der Tatsache, daß die Gleichung primär E2 = m2c4
lautet, was Alles andere als trivial ist, da negative
Energiewerte, respektive negative Massen im dualen Gesamtbild der
Elementarkörpertheorie evident sind, der Elementarkörper
"(re)präsentiert" sozusagen die ideale Vakuumfluktuation).
Es gibt keine Energie,
die nicht an Masse gekoppelt ist. Die relativistische
Massenzunahme in Abhängigkeit der Geschwindigkeit ist ein Indiz
für die verkörperte Energie. Denn die Zunahme der
kinetischen Energie führt unter Annahme einer Masse behafteten
Energie-Verkörperung dazu, daß die zur kinetischen Energie
äquivalente Masse nun mitbewegt werden muß. Das bedeutet: Mit
Zunahme der kinetischen Energie wächst auch die Gesamtmasse
resultierend aus Ruhe-Energie und kinetischer Energie.
Die
deutlich längere Lebensdauer der
"kosmischen" Myonen, die mit fast
Lichtgeschwindigkeit die Atmosphäre
durchqueren, ist keine Folge der
postulierten Zeitdilation, sondern das
Ergebnis der verringerten Streuquerschnitte
als Folge der Radiusverkleinerung bei
gleichzeitiger Massenzunahme.
Beschleunigte,
hochenergetische Teilchen ändern auf Grund
der zugeführten Energie radialsymmetrisch
ihre Masse-Radius-Verhältnisse. Das
bedeutet: Sie werden mit zunehmender
Geschwindigkeit masse-schwerer und
proportional radius-kleiner. Die
Wirkungsquerschnitte werden mit r²,
respektive mit 1/m² kleiner.
Was
ist Masse?
In
der Elementarkörpertheorie ist die
Ruhe-Masse m0 ein Maß für die
Oszillationsfrequenz des Elementarkörpers.
Die radius-kleineren Elementarkörper
besitzen eine größere Masse, da diese äquivalent
zur (möglichen) Bewegung der oszillierenden Oberfläche
ist. Masse ist also im Bild des Elementarkörpers
äquivalent zur inneren Bewegung und wird über
die reziproke Proportionalität auf den
Radius zurückgeführt. Details siehe die
Ausführungen zur Impulsmasse-Inversion.
Begriff
der elektrischen Ladung
Elektrische
Ladung ist ein Sekundärbegriff der
herrschenden Physik, der eine von der Masse
und dem Radius des Ladungsträgers
abgekoppelte "phänomenologische
Entität" suggeriert. Das ist aber
nicht der Fall. Elektrische Ladung ist
"nichts weiter" als eine
(skalierte) Masse-Radius-Funktion. Der
Irrglaube über die (unbekannte) Natur der
elektrischen Ladung bzw. Spekulationen über
diese beruhen auf den historischen
Denkmodell-Entwicklungen.
Elementarkörpertheorie basierend sind alle
vermeintlichen Ladungswechselwirkungen auf
Masse-Radius-Kopplungen zurückzuführen.
Elektrische Ladungen innerhalb der
Elementarkörpertheorie kommen nur implizit
über Funktionen der Sommerfeldschen
Feinstrukturkonstanten α
"rechnerisch" vor.
|
|
So gesehen, sieht schon seit
mehr als 100 Jahren keiner der etablierten Theoretischen
Physiker Wälder trotz der vielen Bäume. Das im Rahmen der
Elementarkörperdynamik letztendlich Masse reziprok auf den
Radius zurückzuführen ist, ist ein erkenntnistheoretischer
Indikator für konsistente Plausibilität, mit der, statt neuer
Parameter zur Strukturdeutung, konstruktive
Eigenschaftsverarmung zum Ziel führt.
 DIE
(expressionistisch formuliert)
stirb und werde Frage Es
gab und gibt eine zentrale Frage, dessen frühe richtige
Beantwortung die Katastrophe der generellen Unanschaulichkeit
verhindert hätte bzw. verhindert. Gibt es einen Materie
entkoppelten leeren Raum? Die Antwort lautet Nein.
Die Antwort der ineinander übergreifenden, etablierten
Standardmodelle der Teilchenphysik und Kosmologie war und ist
Ja. Die latent vorhandene, richtige Antwort schloß sich spätestens
mit der anerkannten These aus, daß die mit dem Urknall inhärente
Inflationsphase eine überlichtschnelle Expansion des Raumes
erfordert. Diese These wurde "akzeptiert" und in die
Denkmodellstruktur einzementiert. 
Die
Pflicht, erst einmal plausibel und anschaulich ein
minimalistisches Denkmodell zu erschaffen, bevor dieses
formalisiert werden kann, wurde seitens der herrschenden Physik
wiederholt - und immer noch - mit Füssen getreten. Spätestens
seit Mitte des 20.Jahrhunderts bestimmt der mathematische
Formalismus was gemessen wird, theoretisch Unpassendes wird
substruktuiert und nachparametrisiert. Um diesen anhaltenden,
methodischen Selbstbetrug zu verstehen, muß Niemand wissen was
eine Lagrangedichte ist...
Sowohl
die Epizykeltheorie aus heutiger Sicht als auch das
Standardmodell der Teilchenphysik (SM) als
quantenfeldtheoretische Anwendung und Weiterentwicklung der
Quantenmechanik basieren auf Fourier-Reihen, bzw.
Fourier-Transformierte. Das bedeutet, daß zumindest
abschnittsweise alle Funktionen f(x) aus den gleichen
"Bausteinen" sin x, cos x, sin 2x, cos 2x, ...
aufgebaut sind und sich nur darin unterscheiden, mit welchen
Faktoren a1, b1, a2, b2 ...
die Bausteine gewichtet sind.
Gemäß
der Kopenhagener Deutung von 1927 ist der
Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen
nicht Ausdruck der Unvollkommenheit der Theorie, sondern des
prinzipiell indeterministischen (unvorhersagbaren) Charakters
von quantenphysikalischen Naturvorgängen. Des Weiteren
"ersetzen" die »Objekte des Formalismus« die Realität,
ohne selbst eine Realität zu besitzen.
Die
Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit
aus, die sie ihren »Gläubigen« liefert. Der
Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf
die "Welle" mit einer e-Funktion mit komplexem Exponent,
welcher gemäß Fourier Theorem es wiederum gestattet »ALLES« stückweise
monotone, also auch jedes experimentelle Ergebnis, formal mathematisch
darzustellen. Die statistische Deutung hält von der Mühe ab den
physikalischen Prozeß zu erkunden, denn es sind ja grundsätzlich nur
Wahrscheinlichkeitsaussagen bei Quantenprozessen möglich.
Albert
Einstein schrieb u.a. zur Quantenmechanik : [1]
"die ψ-Funktion
ist als Beschreibung nicht eines Einzelsystems, sondern einer
Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies
Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine
vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so
sagen: Der Versuch, die quantentheoretische Beschreibung der
individuellen Systeme aufzufassen, führt zu unnatürlichen
theoretischen Interpretationen, die sofort unnötig werden, wenn man
die Auffassung akzeptiert, daß die Beschreibung sich auf die
Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann
der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’
überflüssig. Es gibt jedoch einen einfachen physiologischen Grund
dafür, warum diese naheliegende Interpretation vermieden wird. Wenn
nämlich die statistische Quantentheorie das Einzelsystem (und seinen
zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann
erscheint es unvermeidlich, anderweitig nach einer vollständigen
Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß
die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas
der statistischen Quantentheorie nicht enthalten wären. Damit
würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der
theoretischen Physik dienen könne.
[1]
A. Einstein, Out of my later years. Phil Lib. New York 1950
Seite 498
In
der Zeit nach dem zweiten Weltkrieg hatte sich die Kopenhagener
Deutung durchgesetzt, in Lehrbüchern war jetzt nur noch die
Heisenberg-Bohrsche Quantentheorie ohne kritische Anmerkungen zu
finden.
Das
Sammelsurium an »Wünsch Dir was Interpretationen« der modernen
Physik ist eine komplex-beliebige Absage an Stringenz und Konsistenz.
Beispiele:
Spalte und Beugungskanten werden in der Regel als phänomenologisch
"Schwarze Boxen" betrachtet. Wenn man die Natur der
Wechselwirkung aber über Rechenvorschriften hinaus verstehen möchte,
ist es zwingend ein Denkmodell von der atomaren Struktur des Spaltes
und der Beugungskanten zu entwickeln. Das ist im Bild der modernen Phänomenologie
befreiten Grundlagenphysik überaus schwierig, da ein mathematisches,
Quantenfeldtheorie geprägtes System aus Quantenzahlen, mathematischen
Gruppen, deren Transformationen und Symmetriebeziehungen nicht den
Hauch einer Real-Objekt-Anschauung inne haben. Im Ergebnis sind alle
Prinzipien zur Beschreibung der Natur der Strahlung von
Quantenfeldtheorien weit entfernte heuristische Standpunkte. Die
Qualität der Mutmaßungen variiert stark mit dem Anwendungsgebiet.
Des Weiteren ist die Strahlung in Versuchen ein Objekt-Ensemble. Im
Versuch vermischen sich, geprägt durch theoretische
Erwartungshaltungen kunterbunt Einzelobjekt-Eigenschaften mit
statistischen Verteilungseffekten des Objekt-Ensembles. Die
Interpretationen und Schlussfolgerungen sind haltlos. Beugungsexperimente bestätigen nicht die Wellennatur des Lichtes
sondern lediglich die Periodizität des Lichtes. Bereits Ernst Mach [2]
zeigte, daß alle Beugungs- und Interferenzexperimente nicht die
Welle, sondern nur die Periodizität des Lichtes beweisen. Dabei wurde
der Wellenbegriff viel zu weit gefasst.
[2]Ernst
Mach, Die Prinzipien der physikalischen Optik. Barth,
Leipzig
1921;
The Principles of Physical Optics.
New York
1926.
Ein
einziges, „einsames“, stoßfähiges Teilchen ist
"undifferenziert" weder eine Welle, noch erzeugt es eine
Welle.

Dr.
Helmut Nieke Newtons
Beugungsexperimente und ihre Weiterführung
[3]…In
Nieke, „Newtons Beugungsexperimente und ihre Weiterführung“ Halle
1997, wird gezeigt, daß Fresnels angeblicher Beweis für Licht als
Welle, auf einer unzulässigen und falschen Extrapolation der
Gleichung für die Beugung am Spalt auf die Entfernung Null basiert.
Seinerzeit wurde das nur akzeptiert, weil Newton mit punktförmigen
Lichtteilchen und deren Mechanik eine Beugung nicht begründen konnte.
So wurde ab etwa 1850 in Lehrbüchern die Beugung nach Fresnel mit
Wellen als einzige Möglichkeit dargestellt. Newtons
Beugungsexperimente hingegen wurden unterschlagen und so eine
simplifizierte und irreführende Theorie manifestiert. Auch nach
Entdeckung des lichtelektrischen Effektes am Anfang dieses
Jahrhunderts hatte sich an der "manifestierten" Theorie
nichts geändert, und es wurde lediglich ein Dualismus von Welle und
Korpuskel gefolgert. Auch Bohr baute seine Quantentheorie mit der
Kopenhagener Deutung auf dem Dualismus von Welle und Korpuskel auf,
die er mit dem Indeterminismus bei Quantentheorie verband, aus dem die
Unanschaulichkeit bei Quantenprozessen gefolgert wurde. Einstein legte
dagegen Widerspruch ein, konnte aber seine Anschauung nicht begründen,
da er die Newtonschen Beugungsexperimente nicht berücksichtigte. Aber
auch wenn er sie berücksichtigt hätte, hätte er seinerzeit keine
Alternative bieten können…
[3]
http://www.gebeugtes-licht.de/histphil.htm
Wie
u. a. Fresnel, Newton, Nieke bemerkten, stammen die zur Interferenz
beitragenden Anteile der Beugung in erster Linie von den Spaltkanten.
Grimaldi
[4] berichtete als erster 1665 über die Beugung und dabei auch über
die leuchtende Kante, die man sieht, wenn eine Lichtquelle durch eine
Halbebene verdeckt ist.
[4]
F. M. Grimaldi, Physico-mathesis de lumine, coloribus et iride.
Bonniae 1665.
Fresnel
[5] bestätigte in seiner ersten Arbeit über die Beugung ausdrücklich,
daß er sich überzeugt habe, daß gebeugtes Licht ausschließlich von
den Kanten kommt, was er später nie berücksichtigte. Die Existenz
einer leuchtenden Kante als physikalisches Phänomen, war zur
damaligen Zeit allgemein anerkannt. Die Folgerung, daß gebeugtes
Licht nicht vom gesamten Spalt kommt, war selbstverständlich, sie
brauchte nicht besonders betont zu werden.
[5]
A. J. Fresnel, Oeuvres Complétes I. Paris 1866; Abhandlungen über
die Beugung des Lichtes. Ostwalds Klassiker Nr. 215, Engelmann,
Leipzig 1926.
Fresnel
konnte mit dem von Fourier stammenden Theorem Grenzfälle der
Beugung berechnen. Seine Messergebnisse teilte er nur mit, wenn
sie mit seiner Theorie hinreichend übereinstimmten. War das nicht
mehr der Fall, so brach er die Mitteilung ab, ohne die
Diskrepanzen anzumerken.
Newton
[6] berichtete im III. Buch seiner »opticks« umfassend über die
Beugung. Hier interessiert die 5. Beobachtung, wo er nachweist, daß
gebeugtes Licht nur aus der engen Umgebung der Kante kommt (Größenordnung
einige 1/100 mm); sowie der Beobachtung 10, wo er am Dreieckspalt
nachweist, daß in kurzen Entfernungen und großen Spaltweiten
erst die inneren Beugungsstreifen des Spaltes entstehen, die der
Beugung der Kanten als Halbebenen entsprechen (innerhalb der
Schattengrenze-Beugungsstreifen mit ungleichmäßigen Abständen,
außerhalb kontinuierlicher Abfall). Erst in großen Entfernungen
oder bei kleinen Spaltweiten entstehen die äußeren
Beugungsstreifen (außerhalb der Schattengrenzen), die seit etwa
1850 in Lehrbüchern als einzige Beugungsstreifen am Spalt
beschrieben werden. Newton stellte nicht nur die Behauptung auf,
sondern er wies mit den oben genannten Beobachtungen nach, daß
Licht niemals eine Welle sein kann. Er konnte aber keine Theorie
der Beugung bringen, denn für punktförmige Lichtteilchen konnte
die Newtonsche Mechanik keine Begründung der Ablenkung senkrecht
zur Ausbreitungsrichtung angeben. Die Newtonschen
Beugungsexperimente zeigten, was außerhalb der Fresnelschen
Theorie die Beugung noch kennzeichnete, aber dies passte nicht zu
Fresnels Vorstellungen. Daher ließen die Lehrbuchautoren Newtons
Beugungsexperiment einfach weg, sie wurden unterschlagen und
blieben unberücksichtigt; man extrapolierte so über dieses
Gebiet unzulässig und falsch hinweg. So wurde eine unvollständige
und damit irreführende Theorie der Beugung propagiert.
[6]
Newton
, Opticks 1704; Opera quae exstant omnis, Tom. IV,
London
1782; Optik II + III. Übers. W Abendroth, Ostwald’s
Klassiker Nr. 97, Engelmann, Leipzig 1898; NeuaufIage Bd. 96/97,
Vieweg, Braunschweig 1983; Optique. Trac. J. P. Marat 1787;
Bourgois 1989 …online Dr. Helmut Nieke : http://www.gebeugtes-licht.de/downloads/ARBEIT19.pdf
Die Newtonschen
Beugungsexperimente wurden von Nieke [7] in einer
Schlierenapparatur nach Abbe weitergeführt, die eine Trennung von
gebeugtem und nicht hinreichend gebeugtem Licht gestattet. Newtons
Beobachtung 5 und 10 wurden bestätigt und weitergeführt. Durch
Abdecken von Ordnungen in der Schlierenapparatur kann deren
Zuordnung zu zwei Orten im Spaltbild gezeigt werden (aber nicht
innerhalb einer Ordnung). Bei Nieke [8] wird das Babinetsche
Prinzip für Beugungsstreifen am Spalt und Hindernis als
kantensymmetrisch vertauscht gezeigt und nur in Spezialfällen
sind die Beugungsfiguren gleich. Nieke [9] bewies die sog. Kohärenzbedingung
als eine geometrische Bedingung. (Winkel zur Lichtquelle kleiner
als zum Abstand der Beugungsstreifen). Nieke [10] zeigte, daß
sich hintereinander folgende Beugungen von unbeeinflussten
Beugungen unterscheiden. Weiter wird nachgewiesen, daß bei
Abdeckung eines Spaltbildes des Doppelspaltes nach
Zwischenabbildung sich trotzdem die Beugungsfigur des
Doppelspaltes ergibt, wenn vor der Zwischenabbildung ein Weg größer
als Dezimeter bestand.
[7] H. Nieke,
Newtons Beugungsexperimente und ihre Weiterführung. Arbeit 1 und
2 [8] Wie [7] Arbeit 3 [9] Wie [7] Arbeit 4 [10] Wie [4] Arbeit 5.

Der
Einfachspalt
Bei der Beugung am Einfachspalt
ist die beugende Öffnung ein feiner Spalt mit konstanter Breite.
Gemäß Lehrbücher verbreiteter Annahmen sind alle Punkte des
Spaltes als Ausgangspunkt von Kugelwellen anzusehen (Huygens'sches
Prinzip), die sich in der Beobachtungsebene überlagern und das
Beugungsbild erzeugen. Diese
Annahme ist grundlegend falsch.
Wenn
Heisenberg auf der Grundlage des ,,Kopenhagener Geistes der
Quantentheorie" den Dualismus von Welle und Korpuskel
benutzt, so hat er mit der Welle die unzulässige und falsche
Extrapolation akzeptiert. Diesen Wellenbegriff brauchte Heisenberg
aber zur Rechtfertigung der Benutzung des Fourier-Theorems, das er
als „ein allgemeiner mathematischer Satz besagt" zitiert,
mit dem er ein Wellenpaket von beliebiger Gestalt aufbauen kann, nämlich
jede stückweise monotone Funktion. Da jedes experimentelle
Ergebnis stückweise monoton ist, so dachte Heisenberg, daß ihm
nichts passieren kann. Mit der Berücksichtigung der Newtonschen
Beugungsexperimente muß aber die Welle in Abrede gestellt werden
und damit verliert auch die generelle Anwendung des
Fourier-Theorems seine universelle Begründung. Nieke [11] bemängelt,
daß Teilchen mit Struktur nicht mit zwei Angaben wie Ort und
Impuls oder eines Paares kanonisch konjugierter Variabler zu
kennzeichnen sind, wie dies die Heisenbergsche
Unbestimmtheitsrelation voraussetzt. Die Heisenbergsche
Unbestimmtheitsrelation wäre danach nur für punktförmige
Partikel anwendbar, und die gibt es nicht.
[11] Dr. Helmut
Nieke : http://www.gebeugtes-licht.de/downloads/ARBEIT19.pdf
http://www.gebeugtes-licht.de/archiv.htm
"zur
Erinnerung"
"Formaler
Aphorismus"
Elementarkörpertheorie
im Bild


|