![]() |
![]() |
![]() |
![]()
|
[Technischer Hinweis: Sollten Sie ungewollt diese Webseite ohne Webseitenmenü ("frame-los") vorliegen haben, so gelangen Sie hier zur kompletten menügesteuerten Elementarkörpertheorie-Webseite.... |
Realobjekt-Forschung
geht von reproduzierbaren, empirischen Befunden aus und bemüht sich
dann um Systematisierung, Verallgemeinerung und ein „theoretisches
Verständnis“. Im heutigen standardmodell-orientierten Denken werden hingegen theoretisch Befunde postuliert, nach denen dann mittels computersimulierten „Versuchsaufbauten“ selektiv gesucht wird. Diese stark theoriebeladene Suche kennt keinen einzigen direkten Nachweis und lässt sich auf Grund der vielen freien Parameter, nicht detektierbaren postulierten Theorieobjekten und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretieren. Man kann offensichtlich in jeder beliebigen Theorie Widersprüche mit der Beobachtung dadurch "wegerklären", daß man weitere (unüberprüfbare) Postulate in die Theorie mit aufnimmt, die genau diese Beobachtung „erklären“. Daß SM hat diese unwissenschaftliche Unart zur Standardprozedur etabliert und "unerreicht" auf die Spitze getrieben. Dort thront stellvertretend für allerlei Unwissenschaftliches die Confinement-These.
Zur Form des Vortrages Es existieren zahlreiche paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe.
Selbst für Physiker dürften die hier vorliegenden Ausführungen zum SM - häufiger als zunächst gedacht - "erste Erkenntnisse" sein. Viele leben in dem naiven Glauben, daß das Standardmodell der Teilchenphysik trotz der derzeit 25 freien Parameter]1, variablen Kopplungskonstanten, mehreren Dutzend postuliert essentiellen Theorieobjekten]2, assoziierter Verknüpfungszahlen (Quantenzahlen), diverser Substrukturierungs-Thesen, Confinement-These, ... auf rational logischen, konsistenten, experimentell bestätigten, formal berechenbaren Zusammenhängen basiert. Das dieser Glaube nachweislich haltlos ist, wird an zahlreichen Beispielen explizit erörtert. Zum Kennenlernen werden einige Sachverhalte und Denkanstösse bewusst an verschiedenen Stellen wiederholt. Der Leser mag selbst entscheiden, ob er bereits Bekanntes nochmals liest.
]1
...25 freie Parameter des Standardmodells der
Teilchenphysik (SM) 3 Kopplungskonstanten der
starken Wechselwirkung ( 8 Gluonen, Farbladung) αs
der
elektromagnetischen Wechselwirkung (Photon, elektrische Ladung) α der
Schwachen Wechselwirkung (W+, W-, Z0) αW 6 Quarkmassen 3 Massen der geladenen Leptonen
(Elektron, Myon, Tau) 4 Winkel zur Beschreibung von
Quark-Zerfällen 1 Winkel zur Beschreibung der
CP-Verletzung in der starken Wechselwirkung Masse des Higgs-Bosons 3 Massen und 4 Mischungswinkel
massebehafteter Neutrinos
]2 ..."Counting particles by a rule that distinguishes between particles and their corresponding antiparticles, and among the many color states of quarks and gluons, gives a total of 61 elementary particles. If neutrinos are their own antiparticles, then by the same counting conventions the total number of elementary particles would be 58... Quelle Ein sehr guter Überblick über die Standardmodelle findet sich „unter“ Review of Particle Physics der Particle Data Group. Dort findet man neben experimentellen Methoden und Theoriebeschreibungen der derzeitigen Teilchenphysik, grundlegende Informationen zu Quarks, Neutrinos, Formfaktoren, … sowie Informationen zu „noch“ hypothetischeren Teilchen, wie beispielsweise Leptoquarks oder Axionen. Astrophysikalische „Konzepte“, kosmologische Parameter, experimentelle Tests von Gravitationstheorien etc. Des Weiteren werden (apparative) Aspekte der Beschleuniger-Physik, Monte-Carlo-Simulationen und vieles mehr vorgestellt. Die
Particle
Data Group (PDG) ist
eine internationale Kollaboration, die eine ausführliche
Zusammenfassung der Teilchenphysik und verwandter Bereiche der
Kosmologie bietet. Die PDG-Kollaboration
besteht aus 227 Autoren aus 159 Institutionen in 24 Ländern (Stand
2017). Sie wird von einem Koordinationsteam geleitet, das sich hauptsächlich
am Lawrence
Berkeley National Laboratory (LBNL)
befindet, das seit Gründung der PDG
als Hauptsitz dient. Die Grundlagen der Quantenchromodynamik (QCD) siehe hier .
Lagrange-Dichte Um einen ungefähren Eindruck von der Komplexität des SM zu bekommen, wird hier folgend "kurz" die Lagrange-Dichte "vorgestellt". Neben dieser konkreten »Formulierung« gibt es noch weitere "Abbildungs-Varianten" ...
Erste "Randbemerkung" zum SM-Sprachgebrauch Teilchenphysiker benutzen generell den phänomenologisch falschen Begriff Zerfall, obwohl sie Umwandlungen meinen. Zerfall würde bedeuten, die Zerfallsprodukte waren (allesamt) Bestandteile des Zerfallenden. Dem ist aber nicht so, zumindest nicht im Rahmen der theoretischen Implikationen und Postulate des Standardmodells der Teilchenphysik.
Das das Taktieren mit mehr als 20 freien Parametern "Alles" möglich macht, dürfte selbst für Normalbegabte verständlich sein. Streng genommen ist das Standardmodell der Teilchenphysik (SM) mit derzeit 25 freien Parametern, stetiger Nachparametrisierung, wiederholter Substrukturierung, Confinement-These,... ein philosophisches und kein physikalisches Denkmodell. Mit anderen Worten: Die deutlich weniger, genauer spärlich, voraussagefähige Quantenchromodynamik (QCD) ist als anerkanntes Theoriekonzept naturphilosophisch betrachtet, im Verhältnis zur QED, nicht der Rede wert, da die Anzahl der freien Parameter und die Anzahl der mit den Jahren auf Grund von Unstimmigkeiten zu Meßergebnissen dazugekommenen postulierten Theorie-Objekte jeden argumentativ vertretbaren Rahmen sprengen. Elektroschwache Theorie und das Konzept der Eichbosonen als "Wechselwirkungsvermittler" sowie "energieerhaltungssatzverletzendes Virtuelles" und nicht (direkt) beobachtbare "Energieräuber" sprich Neutrinos, sind mathematik-generierte Emotionen überforderter "Wissenschaftler", die Fantasien aber schon lange kein Wissen mehr schaffen. Realphysikalisch und erkenntnistheoretisch ist das SM eine "methodische Nullnummer". Die Diskrepanzen zwischen experimentellen Daten und nicht passenden Theorien wurden und werden nachträglich passend gemacht. SM-übliche "Maßnahmen" waren und sind die Einführung weiterer Theorieobjekte samt neuer Quantenzahlen. Siehe exemplarisch die »Quark-Erweiterungen«:
Anfang und Ende des SM Eine richtungweisende, weit reichende Fehlentscheidung wurde im Jahre 1988 getroffen.
... vom SM selbst nachgewiesene fatale Theoriefehler Quarks sind keine Fermionen - Der nicht vorhandene Spin der Quarks und Gluonen Ich möchte und "muß" das an dieser Stelle nicht im Detail fachlich vertiefen, weil es gar nicht notwendig ist, da es sich sprichwörtlich leicht aufzeigen lässt, daß sich aus übergeordnet rational logischen Gründen, die These das Quarks Fermionen sind (und insbesondere innerhalb der Struktur und Implikationen des SM) eindeutig widerlegen lässt, da entsprechende Standardmodell induzierte Versuche existieren, die das aussagen. Und hier haben wir eine konkrete Situation vorliegen, die äußerst schwer zu „verkraften“ ist. Psychologisch erst einmal nahezu unlösbar, weil sich niemand vorstellen kann, daß eine tragende Hypothese eines über Jahrzehnte etablierten Denkmodells nachweislich falsch ist und als solche nicht korrigiert wird. Zigtausende, gut ausgebildete Wissenschaftler über mehrere Generationen leben und arbeiten mit einer gravierenden Falschaussage? Insbesondere Laien aber auch Physiker, die nicht mit dem Formalismus des SM vertraut sind, können sich schlicht nicht vorstellen, daß dies möglich ist. Man unterstellt dem kritischen Betrachter, der auf die nachweisbaren Zusammenhänge aufmerksam macht, daß dieser etwas übersehen hat, emotional begünstigt durch den Umstand, das man ja selbst nicht über die nötige mathematisch-formale Sachkenntnis verfügt. Das sind äußerst schwierige Randbedingungen aus Sicht realitätssuchender Aufklärung. Wie auch immer, ich bin der Meinung, daß der Sachverhalt sehr wohl erklär- und verstehbar ist. Ich versuche es mal: Die erste Annahme war, bedingt durch die theoretischen Vorgaben Mitte der 1960er Jahre, daß im Bild des SM der postulierte Protonenspin sich zu 100% aus den Spinanteilen der Quarks zusammensetzt. Diese Annahme wurde 1988 bei den EMC-Experimenten nicht bestätigt. Ganz im Gegenteil, es wurden sehr viel kleinere, sogar mit Null verträgliche Anteile gemessen ( ∆∑ = 0.12 ± 0.17 European Muon Collaboration). Die Quark-These von fermionischen Spin-½-Teilchen wurde experimentell nicht bestätigt. Hier hätte man aus wissenschaftlicher Sicht die "Quark-Idee" - experimentell basierend - argumentativ überprüfen müssen. Man kann diesen verpassten (möglichen) Wendepunkt gar nicht genug "strapazieren". Mit welcher Berechtigung werden (auch heute noch) Quarks als Spin-½-Teilchen "vorgestellt"? Psychologisch ist das insofern leicht
verständlich, da das SM Ende der 1980er Jahre bereits mehr als 20 Jahre
existierte. Das in den sechziger Jahren von Richard Feynman entwickelte
Quark-Parton-Modell (QPM) beschreibt Nukleonen als Zusammensetzung
grundlegender punktförmiger Bauteile, die Feynman Partonen
nannte. Diese Bauteile wurden daraufhin mit den wenige Jahre zuvor
gleichzeitig von Gell-Mann und Zweig postulierten Quarks identifiziert. Man
hoffte also Ende der 1980er Jahre darauf, dass es zukünftig Experimente
geben wird, die den halbzahligen Spin der Quarks bestätigen. Eine
Abkehr von der Hypothese das Quarks Fermionen sind, wäre das Ende des
SM gewesen. Dann „passierte“ etwas phänomenologisch Merkwürdiges.
Weitere Denkansätze und Versuche brachten neue Theorieelemente ins
Spiel. Merkwürdig in dem Sinne, daß mit dieser Idee das Quark als Träger
eines intrinsischen Spinbeitrages bei genauer Sicht bereits gedanklich
abgeschafft wurde.
Aber auch die daraus entstandene Annahme, daß die ins Leben gerufenen Gluonen zum Protonenspin beitragen, ergab nicht das gewünschte Ergebnis. In der dritten, derzeit aktuellen Theorie-Fassung sollen nun Quarks, Gluonen und deren dynamisch-relativistische Bahndrehimpulse im Ergebnis fein säuberlich den Protonenspin ausmachen.
Was
den stark theoriebeladenen experimentellen Teil der postulierten
relativistischen Quarks-„Bahndrehimpulse“ angeht, siehe die Ausführungen
zum COMPASS-Experiment. Zur Computersimulation siehe exemplarisch
The nucleon spin
and momentum decomposition using lattice QCD simulations …Man
beachte trotz der ergebnisorientierten Berechnungen die enormen
Fehlergrenzen, wenn man in einem größeren Bild diese mit den
Fehlergrenzen für (realphysikalische) magnetische Momente vergleicht
(Doppel-Penning-Falle, QED). Wie ein postuliert masseloses, nichtreales Theorieobjekt, sprich Gluon, einen "suggestiven" (relativistischen) Bahndrehimpuls generiert, soll ruhig Geheimnis des SM bleiben (psst).
Bei genauer Betrachtung besitzt diese 2.Nachkorrektur den "Vorteil", daß das Ergebnis im Rahmen der Gitter-Eichfeld-Theorie und Konstrukten, wie "Pionenwolken", rein algorithmisch in Großrechner-Anlagen "errechnet" wird und aus Sicht der SM-Gläubigen nicht falsifiziert werden kann. Es wird also solange "kombiniert", bis das gewünschte Ergebnis iterativ vorliegt. Aber hier kommt das riesengroße, übermächtige, logisch rational begründete
diese
Maßnahme rechtfertigt offensichtlich keine Klassifizierung der Quarks
als Fermionen. Denn egal wie konstruiert das asymmetrische Ensemble aus
nicht beobachtbaren postulierten Theorieobjekten und Wechselwirkungen
auch immer annonciert wird, die Quarks selbst werden dadurch nicht
zu Spin-½-Teilchen-Entitäten. Der Sachverhalt lässt sich (glücklicherweise) allgemein formulieren. Die Behauptung eine Entität (Quark) besitzt einen meßbaren intrinsischen Wert ist widerlegt, wenn Messungen keine solchen Ergebnisse liefern. Die Addition von weiteren postulierten Theorieobjekten (postulierte Gluonen) und weiteren postulierten Wechselwirkungen (relativistische Effekte) mögen in der Summe der Ereignisse den theoriegewünschten Wert ergeben, aber dadurch erhält respektive enthält die ursprüngliche Entität nicht den postulierten intrinsischen Wert. Diese Argumentation ist so einfach wie sie verständlich ist. Und nun? Ohne Quarks als Fermionen ist das SM am Ende. Dieser Umstand wird nicht thematisiert, verdrängt und wenn nötig verschwiegen. Es ist naiv zu glauben, daß die rational-logisch zu verstehende Erkenntnis Quarks sind keine Fermionen sich „einfach“ so durchsetzen wird. Denn dann sind alle bisherigen SM-Bemühungen „Geschichte“. Epizykeltheorie und Phlogistontheorie grüssen. Es bedarf öffentlich wahrnehmbarer „sozialer“ Situationen, die mit erfahrenen und kompetenten Moderatoren weite Verbreitung finden, um den seit Jahrzehnten bekannten Fake News des SM, die einen SuperGau der Erkenntnistheorie und SuperGau der Logik entsprechen ein Ende zu bereiten. (Ein Beispiel am Rande bemerkt: Frau Hossenfelder hat, trotz der Tatsache, daß sie in Teilen eine Kritikerin des SM ist, meine diesbezüglichen Kommentare in ihren themenrelevanten Blogbeiträgen nicht veröffentlicht. Ein möglicher Grund: Frau Hossenfelder "mag" Quarks als Fermionen oder genauer, auch Frau Hossenfelder braucht Quarks im Hinblick auf die von ihr favorisierten Quantengravitation, da ohne fermionische Quarks das SM und letztendlich jede assoziierte aktuelle Quantenfeldtheorievariation mangels Fermionenbasis nichtig ist.)
Das Standardmodell der Elementarteilchenphysik beginnt und endet mit Quarks, die Fermionen sein sollen aber keine sind. Theorieakte geschlossen. Was kommt als nächstes? Um aufzuzeigen, daß es sich hier nicht um einen fatalen "Ausnahmefehler" handelt, sondern das das SM in weiten Teilen methodisch aus erstaunlich vielen "Denk-Fehlern" besteht, wird nachfolgend erörtert.
Darüber hinaus ist auch die postulierte Asymmetrie der Quark-Ladungsträger in Form stark unterschiedlicher Massen(-Grenzen) und unterschiedlich fragmentierter elektrischer Elementarladung eine erkenntnistheoretische Zumutung, insbesondere unter dem Aspekt das Quarks nicht detektiert werden können (Confinement-These).
Diese Leute sind so überzeugt von ihrem Glauben, daß sie das Wesentliche offensichtlich aus den Augen verloren haben. Wieso sollte eine komplexe, mehrobjekt-asymmetrisch, ladungsfragmentierte, dynamische Substruktur einen Spinwert ½ und eine ganze Elementarladung e über dynamische Zustände im zeitlichen bzw. statistischen Mittel erschaffen? Der Vergleich mit dem SM-postuliert punktverarmten, "leptonischen" Elektron, mit Spinwert ½ und ganzer Elementarladung e, welches ohne "dynamische Mühe" und Struktur dieses "schafft", identifiziert die Quarks-Gluonen-These als Glaubensmärchen. Dieses Märchen dürfte selbst Normalbegabten als solches erscheinen.
Zur Erinnerung: Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Elektronen sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen"). Da heißt es lapidar zum Thema „Quarkmischungen“: …Die CKM-Matrix (Cabibbo-Kobayashi-Maskawa-Matrix) wird physikalisch eindeutig durch drei reelle Parameter sowie eine komplexe Phase beschrieben (weitere fünf Phasen, die mathematisch auftreten, haben keine physikalische Bedeutung)…“ Das bedeutet schlicht und ergreifend, daß man sich ergebnisorientiert die mathematischen Elemente nimmt, die „irgendwie passen“ und andere einfach ignoriert. Dieses beliebige Vorgehen im Rahmen mathematischer Modelle hat mit exakter Wissenschaft nichts mehr zu tun. Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. U.a. Religiosität, "neurologische Auffälligkeiten", Größenwahn sowie wissenschaftsbefreite "Kindergartensprache" kommen mit dem Theoretiker als "verwirrten", (mathematik-)gläubigen Menschen ins "Spiel". Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." [EM1] [EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882
[Theorieobjekte der Nahrung, ... ich sah was, was auch du jetzt siehst, ..., kein Quark aber (ein) Fisch "im" Käse]
Grundsätzliches Detailwissen ist eine Grundvoraussetzung um sachdienlich substanzielle Kritik üben zu können, doch der Leser, allgemeiner der Interessierte, muss erst einmal keineswegs im Detail wissen, was eine Symmetriebrechung, ein Eichboson, eine CKM-Mischung, Flavour, Hyperladung oder Quarkonia ist. Denn offensichtlich werden im Standardmodell der Teilchenphysik diverse theoretische Konzepte, respektive deren Theorieparameter verknüpft, verschachtelt und vermischt, so daß jedwede (experimentell resultierende) Konstellation theoretisch erfasst werden kann. Mit anderen Worten: Ratlosigkeit und Phänomenologieferne wurden und werden durch virtuelle Teilchen und postulierte Schnittstellen zwischen theoretischer Fiktion und Realphysik „ersetzt“. Da dies nicht gelingen kann, bedarf es, mit fortschreitender Komplexität, vieler freier Parameter, variabler Kopplungskonstanten und „wilder Substrukturierung“. Aus einem Austauschteilchen (Photon) werden schnell mal acht (Gluonen), die dann zusätzlich mit weiteren Quantenzahlen ausgestattet werden müssen. Da aber keines dieser Theoriekonzepte eine konsistent begründete physikalische Realität abbildet, ergibt sich auch bei geschickter „Wahl der Mittel“ kein Erkenntnisgewinn. Es sei denn, man bewertet ein Konstrukt aus frei wählbaren mathematischen Beliebigkeiten als geistreiche Errungenschaft. Nur in diesem Fall ist das "Freiwählbare" dann kein physikalisches Denkmodell mit naturwissenschaftlichen Standards sondern lediglich ein philosophisches Glaubensbekenntnis. Zur Erinnerung: Alle standardmodell-assoziierten, angeblich experimentellen Beweise sind indirekt. Keiner der experimentellen Befunde besitzt eine eindeutige Zuordnung. Die Detektoren registrieren in letzter Konsequenz schlicht Strahlungsenergie (Photonen) oder beispielsweise Elektronen, Positronen, Protonen. Alle dazwischenliegenden postulierten Kaskadenereignisse sind bei genauer Betrachtung nahezu beliebig wählbar. "Randnotiz": Das Problem ist aus energetischer Sicht sowohl qualitativ als auch quantitativ deutlich größer und komplexer als hier "skizziert" wird. An dieser Stelle nur soviel: Die masseabhängig-postulierte Energieerhaltung wird über postulierte Neutrinos beliebig "vervollständigt".
Konträr zu den willküraffinen Standardmodellentwicklungen lassen sich ein funktionaler Beginn und ein naturphilosophischer Beginn definieren. Funktionaler Beginn Denkmodelle (zur Materiebeschreibung) können nur wissenschaftliche Relevanz besitzen, wenn sie auf einem theoretischen Fundament beruhen, dessen Axiome untereinander logisch konsistent sind und zu einer mathematisch hinreichend widerspruchsfreien Theorie führen. Naturphilosophischer Beginn Grundlegende Denkmodell-Aspekte lassen sich in Ankopplung an globale Auffälligkeiten, wie Gravitationskonstante, kleinste (skalare*) Wirkung oder Invarianz der Lichtgeschwindigkeit, nur intuitiv entwickeln. Man muß eine Idee und weiterführend, aufbauend-konsistente Ideen haben, um ein Denkmodell interdisziplinär verständlich gestalten zu können. Denkmodelle müssen absolut begriffstransformierbar sein, um eine epistemologische Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht außerhalb der Mathematik vermitteln lässt, ohne daß sie ihren exakten Bedeutungsanspruch verliert, ist im Rahmen eines physikalischen Denkmodells stets eine erkenntnistheoretische Nullnummer.
Die Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen so hoch wie möglich sein. Es geht nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige Lösungen liefert. Diese Frage ist stets beantwortbar. Die etablierte Annahme der Standardmodell-Vertreter, daß komplexe mathematische Formalismen einen erkenntnistheoretischen Gewinn „mathematik-selbstgestaltet“ generieren können, ist ein fataler Irrglaube, der zu theoriebeladenen Versuchen führt und in dessen Verlauf Versuchsergebnisse weder reproduzierbar noch direkt messbar sind. Salopp formuliert: „Früher“ fielen bei einer Milliarde Einzelversuchen, eine Milliarden Mal die Äpfel vom Baum, was zur theoretischen Rechtfertigung einer anziehenden, gravitativen Kraft führte. Heute wird als Teilchen-Existenzbeweis ein Ereignis bei einer Milliarde Versuchen mit einer »Milliarde -1« Fehlversuchen gewertet und das postulierte Teilchen ist, anders als der Apfel, auch nicht direkter Bestandteil der Messung. Wie beliebig und nachvollziehbar grotesk die Moderne Teilchenphysik „aufgestellt“ ist, wird im Folgenden erörtert. Um die vielfältigen Zusammenhänge
gesamtheitlich durchschauen und
verstehen zu können, bedarf es u.a. beträchtlicher historischer
Kenntnisse. Diese gehören leider nicht zur Schul- und Universitätsausbildung
von Physikern und Mathematikern. Zentrale Fragen einfacher Anschauung
werden also weder in einem historischen Kontext erörtert noch im Rahmen
der herrschenden mathematischen Modelle adressiert. Das Sammelsurium an
mathematischen Möglichkeiten führt(e) u.a. zu einer stetigen Veröffentlichungswelle
von theoretischen Beliebigkeiten.
Am Rande bemerkt...
Globale Verständigungs-Probleme Es
existieren fundamentale Wissenslücken, dessen Ursachen mit dem politisch gewollten
Ausschleichen primärer Bildung in direkter Verbindung stehen. Die Lesefähigkeit
nähert sich Schritt für Schritt dem funktionalen Analphabetismus und
die Fertigkeit kurze, formal präzise Mitteilungen im Sinne rational
logischer Möglichkeiten weiterdenken zu können wird nur selten
erlernt. Das Gros der Menschen des frühen 21.Jahrhunderts verfügt nur über
eine einfache Lesefähigkeit, die durch den täglichen Gebrauch von
„SMS und Twitter“ genährt wird. Dieser, aus vielerlei Sicht,
traurige Ist-Zustand gilt auch für akademisch ausgebildete (junge)
Leute, zumal dessen reales Bildungsniveau, bis auf Ausnahmen, nicht
(mehr) den Standards einer fundierten Wissenschaftsorientierung
entspricht. Somit kommt weder eine komplexere Aussagegestaltung noch
eine aphoristische Form der Beschreibung in Betracht. Das Verstehen
einer „Schrift“ – insbesondere mit neuen, ungewohnten,
alternativen Ansätzen – lebt von der notwendigen Leichtigkeit des
Betrachters im Umgang mit Textobjekten. Jemand der schon Schwierigkeiten
hat, überhaupt lesen zu können, fehlen die spielerischen Möglichkeiten.
Es fehlt sozusagen die freie Kapazität sich auf den Inhalt
konzentrieren zu können.
Ausgangssituation Der Glaube an die naturwissenschaftliche Relevanz des Standardmodells der Elementarteilchenphysik ist geprägt durch die historisch gewachsene Erwartungshaltung. Physik bedeutet(e) für Laien als auch für professionell Interessierte, das das Streben nach Erkenntnis zu rational logischen Denkmodellen und resultierenden Gleichungen führt, die Messereignisse abbilden und berechnen können, so wie man es von einer exakten Naturwissenschaft selbstverständlich erwartet. Die grundsätzliche Problematik begann jedoch mit der »experimentellen Wirklichkeit« der Beschleuniger. Alle im Teilchenbeschleuniger produzieren Kollisionsereignisse führen zu einer Kaskade von energetischen Möglichkeiten. Nun dominierte ziemlich bald die theoretische Erwartungshaltung wonach gesucht wurde und wie die Messergebnisse phänomenologisch interpretiert wurden.
Randnotiz zum Neutrino ... diese war nur solange eine Notiz am Rande, bis "eines Tages" auch die Vertreter des Standardmodells, spätestens mit Würdigung des Nobelpreises für Physik im Jahre 2015, anerkannten, daß Neutrinos eine Masse besitzen. Es existieren nun zwei Ausschließungsprinzipien, eines davon formal, ausgehend von der mathematischen Konzeption des SM und ein sprichwörtlich weiterreichenderes, ausgehend von dem Wechselspiel zwischen Phänomenologie und experimenteller Nachweisbarkeit.
Widerlegung der Neutrinothesen Allgemeine Vorbetrachtungen Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess. Auch für Neutrinos gilt: Es gibt keinen einzigen direkten Neutrinonachweis. Es handelt sich stets um stark theoriebeladene Versuchsergebnisinterpretationen. "Gehen
wir gleich mal in die Praxis"...
Gemäß
SM „bedeutet“ Neutrinoforschung beispielsweise: …Man
misst die Ströme der Kaonen und Pionen und bestimmt indirekt den Fluss
der Neutrinos… Nun
sind aber schon Pionen (π0, π -, π+)
und erst recht Kaonen (K+, K-, K0,
K0) höchst konstruierte Gebilde (zum Erst-Verständnis siehe
https://en.wikipedia.org/wiki/Kaon,
https://en.wikipedia.org/wiki/Pion)
des Standardmodells. Bedeutet: Die Anzahl der Existenzpostulate, wie
Masse, Ladung, Spin, flavor(s), Lebensdauern und Quarkzusammensetzung
ist bereits „beachtlich“. Die möglichen Umwandlungen ergeben „
vielfältige“ Wechsel-Wikungs-Spiel-Szenarien. Des Weiteren: Das
neutrale Kaon ist nicht sein eigenes „Antiteilchen“, dies führt
(allgemeiner) zu der Konstruktion der Teilchen-Antiteilchen-Oszillation
(siehe https://en.wikipedia.org/wiki/Neutral_particle_oscillation)
und das neutrale Kaon soll in zwei Formen, einer langlebigen und einer
kurzlebigen Form existieren. Daraus
nun auf Eigenschaften „flavor-oszillierender“[G]
Neutrinos zu schließen,
potenziert die Beliebigkeit nochmals. Um das alles (reproduzierbar) zu
verstehen, braucht man den absoluten Glauben an axiomatische
Schöpfungen. Als Belohnung winkt dann jedoch der Freibrief, daß
jedwedes Versuchsergebnis „erklärbar“ wird (…das wir bis dahin -
in Verbindung mit der »experimentellen Seite« - grob geschätzt einige
Dutzend weitere ergebnisorientierte Annahmen machen müssen, … kümmert
SM-Gläubige nicht).
Mit der von der "etablierten Physik" (nun) vertretenden Meinung, daß Neutrinos Masse besitzen, ändern sich die phänomenologischen Randbedingungen fundamental.
SM basierendes formales Problem Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben. Diese Grundbedingung steht in einem eklatanten Widerspruch zu Neutrino-Oszillationen (Nobelpreis 2015), die zwingend Neutrinomassen voraussetzen. Konsequenz: Man verabschiedet sich entweder vom Standardmodell der Teilchenphysik oder von massebehafteten Neutrinos. Der Vollständigkeit halber sei erwähnt, ...da man sich vom Standardmodell nicht trennen will, gibt es im Rahmen mathematischer Ergänzungen stets die Möglichkeit Neutrinomassen "irgendwie" einzubauen. Das ist aber nur möglich, da das Konstrukt des SM bei genauer Betrachtung keinerlei überprüfbare realphysikalische Referenz besitzt, sprich alle SM-assoziierten vermeintlichen Objekt-Nachweise sind indirekte, stark theoriebeladene Versuchsinterpretationen. Einfach ausgedrückt: Egal wie strukturiert ihr bisheriger Lieblingswunsch auch ausgesehen haben mag, natürlich können sie in ihrer Fantasie aus masselosen massebehaftete Objekte "erdenken". Doch mit den ursprünglichen Thesen und der ursprünglichen (mathematischen) Konzeption ist diese "neue" Idee nicht verträglich. Aber, wie sagt "man" so schön, was stört mich das (eigene) Geschwätz von gestern.
Phänomenologisches Problem "Zur Erinnerung": Das Standardmodell der Elementarteilchenphysik zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen. Die
Definition der Masse eines Teilchens bezieht sich im Rahmen des
Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre
Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt,
wie auch die Gravitationswechselwirkung die im Standardmodell nicht
beschrieben werden kann. Die kinematische Wirkung der Masse manifestiert
sich im Propagator des Teilchens.
Neutrino-Oszillationen ...und der Neutrino-Forscher sprach: mein Wille geschehe, es werde umgewandelt... …“Das
Phänomen der Mischung von Neutrinos bedeutet, dass die so genannten
Wechselwirkungszustände, d. h. die 3 Arten von Neutrinos, keine
Teilchen mit wohldefinierter Masse sind, sondern eine quantenmechanische
Überlagerung von Teilchen mit verschiedener Masse. Diese Mischung
zwischen Wechselwirkungs- und Massenzuständen wird mit Mischungswinkeln
beschrieben. Neutrinomischung kann zu dem Phänomen der
Neutrinooszillationen führen, wenn Neutrinos in gewisser Entfernung vom
Produktionsort wieder detektiert werden. Auf dem Weg vom Produktionsort
zum Detektor erhalten die verschiedenen Massenzustände unterschiedliche
quantenmechanische Phasen, und es kommt zu einer Interferenz... So kann
ein Neutrino, das als Elektronneutrino produziert wurde, beim Detektor
mit einer gewissen Wahrscheinlichkeit als Myonneutrino beobachtet
werden.“… Da können religiöse Führer noch eine Menge von Neutrinomachern lernen...
Mit der von der "etablierten Physik" (nun) vertretenden Meinung, daß Neutrinos Masse besitzen, ändern sich die phänomenologischen Randbedingungen fundamental. Es existiert eine – ausgehend von den Postulaten zur Schwachen Wechselwirkung - Unbestimmtheit des Beta-Minus-Zerfalls, die eine spezifische Neutrinoexistenz aus phänomenologischer Sicht stark diskussionswürdig macht.
Am Rande bemerkt: Die „geforderten“ Erhaltungssätze (Energie, Impuls, Ladung und Leptonenzahl) sind bei einem „Zerfall“ zu beachten. Es resultiert ein Anti-Elektron-Neutrino (Leptonenzahl -1 gemäß Elektron (Leptonenzahl +1), da auf der „anderen“ Seite des „Zerfalls“ das Neutron steht (Leptonenzahl 0). Sollte sich das Neutrino als Majorana-Teilchen (eigenes Antiteilchen) "herausstellen" (...heißt eigentlich: ...wenn man sich darauf einigt), so ist diese Unterscheidung hinfällig. Mehr noch: Die Leptonenzahlerhaltung wäre verletzt und würde als Erhaltungssatz nicht mehr gelten!
Neutrinomassen ≠ 0
Es existiert energetisch kein verbindlicher Prozess der Umwandlung eines d-Quarks in ein u-Quark Unabhängig
von der SM-konstruierten Leptonenzahl gilt folgendes: Das Neutrino wurde
historisch eingeführt weil das Energiespektrum der (emittierten)
Elektronen keine diskrete sondern eine kontinuierliche Verteilung zeigt.
Doch wenn das Anti-Elektron-Neutrino, mit welcher unteren Massegrenze
auch immer, die „fehlende“ Energie aus dem Laborsystem „entführt“
und nur durch die Schwache Wechselwirkung (effektiv*) „wirken“ kann,
dann bedeutet das schlicht und ergreifend, daß bereits bei dem Prozess
der Schwachen Wechselwirkung ein kinetisches Energie-Kontinuum des
postulierten Neutrinos vorhanden sein musste. Denn nach diesem Prozess
gibt es gemäß Postulat keine weitere Wechselwirkungsmöglichkeit. Nur
wie soll dies phänomenologisch erklärt werden? * da die postulierte Graviationswechselwirkung hier nicht "ins Gewicht fällt" Die lapidare Aussage des SM, daß der Beta-Minus-Zerfall des Neutrons gemäß Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen W-Bosons stattfindet sagt nichts über den konkreten Ablauf aus, wie, woher und warum das Anti-Elektron-Neutrino nun während der Schwachen Wechselwirkung unterschiedliche Energiemengen aufnimmt um die „fehlende“ Energie im Elektronenspektrum zu kompensieren.
Bei genauer Betrachtung ist die Situation weitaus komplexer, da sowohl postuliert Quarks basierendes Neutron als auch das Quarks basierende Proton zu ~ 99% aus undefinierter Bindungsenergie besteht und sich die Schwache Wechselwirkung (energetisch) somit nur auf ~ 1% des Zerfallsprozesses auswirkt. Die Masse des d-Quarks [qm] beträgt 4,8 (+0,5 / - 0,3) MeV/c², die Masse des u-Quarks beträgt 2,3 (+0,7 / - 0,5) MeV/c² [qm]. [qm] Quarkmassen : http://pdg.lbl.gov/2013/tables/rpp2013-sum-quarks.pdf Das bedeutet, der Massenunterschied beträgt zwischen 1,5 bis 3,5 MeV/c². Das Elektron-Anti-Neutrino mit einer Masse(nuntergrenze) von ≤ 2.2 eV/c² kann maximal ~ 0,78 MeV aufnehmen. Gemäß Elektronenenergiespektrum ist die mittlere Energie aber deutlich kleiner als 0,78 MeV, die vom Neutrino "aus dem Laborsystem entführt wird". Was ist mit der fehlenden Energie der Schwachen Wechselwirkung geschehen? "Gluonische Bindungsenergie" kann es nicht geworden sein, da Gluonen nicht an der postulierten Umwandlung eines d-Quarks in ein U-Quark teilhaben. Auch der virtuelle Zauber des ~ 80,4 GeV/c² schweren W-Bosons kann real-energetisch nichts aufnehmen. Hier gilt für die herrschende Physik mehr denn je:
Wir haben also im Bild des SM anfangs 1 u-Quark und 2 d-Quarks, zwischenzeitlich ein W-Boson und ~ 99% Bindungsenergie (was das auch immer phänomenologisch sein soll) und nach der Umwandlung 2 u-Quarks, 1d-Quark, 99% Bindungsenergie, 1 Anti-Elektron-Neutrino, 1 Elektron und zusätzlich ~ 0,78 MeV Energie. Egal wie die Energieverteilungsmöglichkeiten der ~ 0,78 MeV auf Proton (2 u-Quarks, 1d-Quark, 99% Bindungsenergie), Elektron und Anti-Elektron-Neutrino auch aussehen mögen, der Prozess der Schwachen Wechselwirkung müsste bereits so geartet sein, daß diese Verteilungsmöglichkeiten gewährleistet sind, da nach der Schwachen Wechselwirkung keine Energieabgabe des Neutrinos an das Proton und Elektron mehr möglich ist. Das bedeutet aber, daß es keinen diskreten Umwandlungsprozess eines d-Quarks in ein u-Quark geben kann. Nicht Diskret bedeutet hier insbesondere: Es existiert energetisch kein verbindlicher Prozess der Umwandlung eines d-Quarks in ein u-Quark. Aus einem Neutron-u-Quark entstehen durch die Schwache Wechselwirkung energetisch unterschiedliche Elektron-Anti-Neutrinos, da ja nach der Entstehung außer der Schwachen Wechselwirkung weitere Wechselwirkungsmöglichkeiten ausgeschlossen werden. Somit existiert keine energetisch eindeutige Umwandlung eines u-Quarks in ein d-Quark. Losgelöst von dieser Problematik sei der Vollständigkeit halber auch daran erinnert, daß es sich experimentell nicht um Einzelobjekte sondern um Vielteilchenobjekte (mehr als 1 Neutron) handelt und beschleunigte Ladungen Energie abstrahlen. Es ist wohl nicht davon auszugehen, daß die entstandenen Protonen und Elektronen „plötzlich“ mit einer konstanten Geschwindigkeit vorliegen. „Wo“ ist das assoziierte Photonenspektrum des Beta-Minus-Zerfalls? Wie sieht es aus?
Und noch "ETWAS"... Nach de Broglie kann jedem Teilchen und jedem zusammengesetzten Körper eine Materiewelle zugeordnet werden.
Das Konzept der de Broglie Materiewelle liefert einige sehr interessante Aspekte. Erst einmal ist zu beachten, daß de-Broglie-Materiewellen der (zur Ruhe-Energie additiven) kinetischen Energie der Teilchen entsprechen und nicht den Teilchen selbst, die durch ihre ruhemassespezifischen Comptonwellenlängen charakterisiert sind. Im Gegensatz zu den Comptonwellenlängen sind de-Broglie-Materiewellen nicht teilchencharakteristisch, da beispielsweise für Neutronen, Elektronen und Protonen, Moleküle bei passender Geschwindigkeit de-Broglie-Materiewellen teilchenunspezifisch als Äquivalent der kinetischen Energien identisch sein können. De Broglie Materiewellen sind interferenzfähig. Das Konzept der Materiewelle und dessen „Meßbarkeit“ sind im Vergleich zu Neutrinoexistenz- und Neutrinowechselwirkungs-Postulaten experimentell gesichert und experimentell reproduzierbar.
Experimentell-phänomenologisches Problem Es gab keine Realobjektphänomenologie für das masselose Neutrino und auch die "Mischkalkulation" für Neutrinomassen ist nichts weiter als eine formalisierte Fiktion. Hier gilt rational logisch und folgend das unlösbare Neutrino-(Nicht-)Existenz-Problem bedingt durch die Phänomenologie der Masse, bedeutet: Wer bewegte Massen will, bekommt auch masseninhärente Materiewellen. Der Wunsch der Neutrinogläubigen, daß auch massebehaftete Neutrinos nur der Schwachen Wechselwirkung und der Gravitation unterliegen ist eine Theorie-(Schutz-)Behauptung. Hier zeigt sich wieder einmal, wie eklatant sich fehlende Denkmodell-Phänomenologie auswirkt.
Da die de Broglie Materiewelle ohne Einfluss einer möglichen (Sub-)Strukturierung nur von der Ruhemasse und der Geschwindigkeit des "Teilchens" abhängt, gilt das Konzept der Materiewelle allgemein. Hier wäre, in Hinblick auf SM postulierte Theorieobjekte und Wechselwirkungsszenarien noch zu bemerken, daß nachweislich die postulierte komplexe (eingekapselte) Quarks-Gluonen-xxx-Struktur keinen Einfluß auf die de Broglie Materiewelle hat, Beweise: de Broglie Materiewellen des Neutrons, Protons, Molekül- und Fullerene- de Broglie Materiewellen.
Es spricht aus Sicht der Materiewelle nichts gegen massebehaftete Neutrinos.
Ein massebehaftetes Neutrino besitzt eine von der Gesamtenergie abhängige de-Broglie-Materiewelle. Um das plastischer zu machen, betrachten wir den Beta-Minus-Zerfall, der ursächlich zu Wolfgang Paulis Neutrinothese aus dem Jahre 1930 führte.
Nehmen wir an, daß die Masse des postulierten Elektron-Anti-Neutrinos ~2,2 eV/c2 beträgt. Das entspricht einer Masse von ~ 3,92e-36 kg und einer Comptonwellenlänge von 3,59e-7 m. [M] Für den Fall, das die kinetische Energie viel größer als die Ruheenergie des Neutrinos ist, folgt für die de Broglie Materiewelle λdeB (Ekin » E0) ~ h ·c / Ekin . In diesen Fällen spielt die (Elektron-Anti-Neutrino)-Masse keine Rolle. Der Beta-Minus-Zerfall des Neutrons, der SM basierend als Schwache Wechselwirkung, gemäß Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen W-Bosons stattfinden soll, führt im Extrem* zu einer (relativistischen) Gesamtenergie des postulierten Neutrinos von ~ 0,78 MeV, daß entspricht ~ 1,4e-30 kg. *im Extrem bedeutet, daß Proton und Elektron nach der Umwandlung ruhen, davon ist zwar praktisch nicht auszugehen, hier geht es aber gedanklich um die Bestimmung der kurzwelligsten Neutrinomateriewelle gemäß zur Verfügung stehender Energie. Daraus ergibt sich ein nahezu „lichtschnelles“ Neutrino mit einem relativistischen Faktor von γ ~ 3,55e5 (γ ~ Eges/E0) und einer resultierenden De-Broglie-Materiewelle von ~ 1,59e-12 m. Zum Vergleich: Die Comptonwellenlänge des Elektrons beträgt ~ 2,43e-12 m. Gemäß Beta-Zerfall-(kinetische)Energie-Elektron-Spektrums müssen weitere langwelligere Neutrino-De-Broglie-Materiewellen auftreten, die daraus resultieren, das die zunehmende kinetische Energie im Elektronenspektrum, den Neutrinos nicht zur Verfügung steht. Wie bereits oben erwähnt, kann das vom SM postulierte Elektron-Anti-Neutrino keine diskrete Gesamtenergie besitzen, da es nur über die Schwache Wechselwirkung agiert. Das bedeutet, daß reziprok zum Energiespektrum der Elektronen ein Energiespektrum des Elektron-Anti-Neutrinos bereits bei der Schwachen Wechselwirkung, sprich bei der Umwandlung eines d-Quarks in ein u-Quark, auftritt, gleichgültig welche Masse das Elektron-Anti-Neutrino besitzt.
Losgelost vom Betazerfall besitzen alle bewegten massebehafteten Neutrinos, ungeachtet ihrer postulierten Entstehung, Materiewellen. Nun zu behaupten, es gäbe u.a. kontinuierliche kosmische Neutrinoströme, die nicht wechselwirken, widerspricht dem Konzept der Materiewelle. Gäbe es massebehaftete Neutrinos, so würde die Materienwellen assoziierte (kinetische) Energie dieser letztendlich auf vielfältige Weise dazu führen, daß uns allen sehr heiß werden würde. De Broglie Materiewellen sind interferenzfähig. Die einzige Möglichkeit der Neutrinomacher aus diesem phänomenologischen Neutrinodesaster neutrinogläubig zu entkommen, ist die De-Broglie-Materiewelle für Neutrinos als nicht existent zu erklären.
Das Konzept der Materiewelle und dessen „Meßbarkeit“ sind im Vergleich zu den Neutrinopostulaten experimentell gesichert und experimentell reproduzierbar. Materiewellen sind experimentell nachweisbar. Die "Sache" der Neutrinos hat sich mit "Anerkennung" der Neutrino-Oszillationen, die Neutrinomassen voraussetzen, erledigt. Ironie des Neutrinoschicksals: Quantenmechanik und ein klassisch verstehbares Konzept (Bragg & Co lassen grüssen) lösen das Neutrino in erkenntnistheoretisches Wohlgefallen auf. Die Theorie der Schwachen Wechselwirkung und alle damit assoziierten theoretischen Implikationen, Theorieparameter, Vektorbosonen, ...sind (mehrdeutig) gegenstandslos. Glücklicherweise ist im Rahmen eines masse-radius-gekoppelten Denkmodells die Umwandlung von einem masseschwereren zu einem masseleichteren Körper ohne Neutrino verstehbar. Konkrete Ausführungen folgen im Rahmen der anschließenden Langversion zur Neutrinothesen-Widerlegung. Neugierige klicken hier
"frühes" SM Mit den argumentativ haltlosen Quark-Entitäts-Postulat als Elementarteilchen, nicht messbaren Teilchen-Eigenschaften, willküraffinen Ergänzungspostulaten (Gluonen-These, Sea-Quarks-Postulat, postulierte Wechselwirkungen) und Confinement-These werden gleich mehrere Wissenschaftsnormen und das Minimalprinzip brachial verletzt. Bereits mit dieser kurzen "Quark-Analyse" fehlen dem SM alle Charakteristika Bestandteil einer exakten Wissenschaft zu sein. Schon aus diesen Gründen ist das Quarks-basierende Standardmodell der Elementarteilchenphysik ein (schlechter) Witz. Noch "witziger" sind die Leute, die diesen naturphilosophisch feindlichen Theorie-Murks glauben und verbreiten. Und auch die nicht SM-involvierten fehlenden Kritiker sollten zu denken geben. Woher kommt diese generationenübergreifende Arroganz bzw. Ignoranz? Offensichtlich sind hier existenzielle Ängste "am Werk". Wie naiv muss man sein, allen Ernstes zu glauben, daß dieser »Quark« aufrechterhalten werden kann. Der epizyklische SM-Absturz kommt, "Quark-Analyse", Proton-Desaster und Neutrino-Denkmodellunfall sind erste Hinweise auf das, was da noch kommt... Es folgen weitere dokumentierte Beliebigkeiten und Belanglosigkeiten, die vom System (pseudo-)axiomatisch sowie populärwissenschaftlich als große Wissenschaft verkauft werden.
Die (Un-)Art der stark theoriebeladenen Messungen und
gekoppelten "Theorie-Entwicklungen" war und ist aber nur möglich,
weil keines der postulierten und dann vermeintlich gefundenen
„Teilchen“ direkt messbar ist. Der thematisch und experimentell
nicht involvierte, naive Wissenschaftler ging jedoch davon aus, daß es stets
verbindliche Messungen gegeben hat, die gemäß wissenschaftlichen
Standards die Behauptung einer Teilchenexistenz und dessen
Teilcheneigenschaften rechtfertigten. Das war und ist aber in keinem Fall der "Beschleunigerphysik" so (gewesen). Die
Unmöglichkeit einer direkten Messung ist inhärent mit dem
Standardmodell der Teilchenphysik verknüpft. Beispiel LHC (Large Hadron Collider): Die Datenmenge bestehend aus aufgezeichneten Detektorsignalen und Computersimulationen wird auf 15 Millionen Gigabyte pro Jahr geschätzt. Die Datenmenge wäre extrem größer, wenn nicht auf Hard- und Softwareebene ein Großteil der Messsignale bereits vor der Verarbeitung dauerhaft verworfen würde. Die Teilchendichten und Kollisionsraten führen zu einer Datenmenge von 1 bis 2 MB pro Ereignis. Insgesamt resultiert aus den Kollisionen ein Informationsstrom in der Größenordnung von 100 TB pro Sekunde. Durch ein Selektionssystem - Trigger genannt - werden von 40 Millionen Strahlkreuzungen pro Sekunde lediglich 200 Ereignisse pro Sekunde aufgezeichnet. Das bedeutet schlicht und ergreifend, daß nahezu das gesamte Ereignisspektrum bewusst ausgeblendet wird. Die Bemerkung Albert Einsteins zu Werner Heisenberg: "Die Theorie bestimmt, was beobachtbar ist", "entfaltet" sich somit im Standard-Betrieb eines Teilchenbeschleunigers auf extreme Art und Weise. Zur
Verdeutlichung: Die Detektoren messen kalorisch, mittels Photonenimpuls
oder teilchenspezifisch. Man unterscheidet beispielsweise zwischen elektromagnetischen
und hadronischen
Kalorimetern. In elektromagnetischen Kalorimetern erzeugen Elektronen
bzw. Photonen durch Bremsstrahlung und Paarerzeugung eine
Teilchenkaskade, und ein Teil der Teilchenenergie kann in Form von
Szintillationslicht oder Ionisation nachgewiesen werden. Das Energieauflösungsvermögen
hadronischer Kalorimeter ist sehr viel schlechter als das der
elektromagnetischen, zur Verringerung der nachweisbaren Energie trägt
z.B. bei, daß bis zu 20 % der (postulierten) hadronischen Energie zum
Aufbrechen der Kernbindungen aufgewendet wird. Bei einer einzigen
Strahlkollision mit „üblicherweise“ 1011 Protonen pro
Teilchenpaket finden im Mittel etwa 10 Ereignisse statt, in denen
jeweils eine Vielzahl von Teilchen entstehen. Aufgrund des geringen
Kollisionsabstandes von 25 ns, befinden sich diese Teilchen größtenteils
noch im Detektor, während die nächste Kollision bereits neue Teilchen
produziert. „Teilchenphysik für Fortgeschrittene“ Seite 68… „In der e+e- -Streuung werden in 10 % der Fälle nicht nur zwei sondern 3 Jets beobachtet, wobei die Winkelverteilung der Jets untereinander mit der Erwartung für die Abstrahlung eines Spin 1 Teilchens (“Gluon”) von einem Spin 1/2 Teilchen (Quark) übereinstimmt. Auf diese Weise wurde das Gluon am PETRA Beschleuniger bei DESY entdeckt.“... [Hier
„sieht“ man exemplarisch, wie aus einem „objektiven“
Versuchsergebnis ein vollkommen subjektives Interpretations-Ergebnis
erhalten wird. 10% Ereigniswahrscheinlichkeit fallen vom Himmel und ohne
Gluonenpostulat widerlegt das Versuchsergebnis schlicht die Theorie der
Quarks. Nach diesem Muster werden theoriebeladen alle „abweichenden“
Versuchsergebnisse „interpretations-gestrickt“.] …“Die
Häufigkeit von etwa 10% dieser 3-Jet Ereignisse deutet auf eine große
Kopplungskonstante zwischen Quarks und Gluonen hin“, … [10% fielen
vom Himmel und das Versuchsergebnis wird aus Sicht der Selbst-Gläubigen
mit einer variablen Kopplungskonstante theoriefreundlich versehen.]
…„Teilchenphysik für Fortgeschrittene“ Seite 78… „In der
4-Jet Produktion ist der Wirkungsquerschnitt sensitiv auch auf die
Selbstwechselwirkung der Gluonen, da sowohl die Quarks als auch Gluonen
weitere Gluonen abstrahlen können.“…[Diese Art der
selbstprophetischen Argumentation ist offensichtlich nicht widerlegbar.] Postulierte Existenz und postulierter Zerfall des Top-Quarks Die Willkür und letztendlich der naturphilosophische Selbstbetrug besteht in der transparent vorliegenden theoriebeladenen Deutung des Experimentes. Konkret werden als Versuchs-Ergebnisse der Proton-Antiproton-Kollision ausschließlich kalorimetrische (energetische) und leptonische Ergebnisse „gezählt“. Alle anderen von der Standardphysik genannten (teils postuliert hadronischen) Prozess-Teilchen sind hypothetisch gedachte (Materie)-Konstrukte. Ausser dem Glauben an diese im Rahmen eines mathematischen Denkmodells, gibt es keine direkten messtechnischen Ereignisse. Das Denkmodell als solches ist aus vielerlei Gründen widersprüchlich, inkonsistent und stets quantitativ beliebig. Insbesondere der Übergang von „quarks-basierenden Zuständen“ zu „leptonischen Gebilden“ geschieht mittels der postulierten Schwachen Wechselwirkung. Diese ist zwar im Rahmen des SM eine zwingende zusatztheoretische Annahme, außerhalb des Standardmodells jedoch nichts weiter als ein „Theorieretter“. 1…"Die entstehenden Teilchen bzw., im Fall von Quarks, deren Zerfallsprodukte (als Jets), werden in den beiden Detektoren nachgewiesen… Die Spuren der geladenen Teilchen werden in der Spurkammer aufgezeichnet, Elektronen/Positronen und Photonen im elektromagnetischen Kalorimeter nachgewiesen, die Teile der Jets im Hadron-Kalorimeter und zuletzt die Myonen in den Myonenkammern. Neutrinos bleiben wegen ihrer geringen elektroschwachen Wechselwirkung unbeobachtet; der transversale Gesamtimpuls aller Neutrinos kann nur indirekt üb er den fehlenden transversalen Impuls (Impulserhaltung) festgestellt werden."... [Es gibt bis heute nicht einen einzigen direkten Neutrinonachweis. Des Weiteren: Reproduzierbarkeit ist ein fundamentales Kriterium für mögliche Falsifizierbarkeit. Diese elementare Notwendigkeit wird vom SM u.a. im Zusammenhang mit Neutrinos mit Füssen getreten.] Am Rande bemerkt: Neutrinos stehen nicht im Widerspruch zur Elementarkörpertheorie, wenn man unter einem Neutrino einen hochrelativistischen, somit nahe an der Lichtgeschwindigkeit bewegten Elementarkörper versteht, da dessen Masse-Radius-Verhältnis zu einem sehr kleinen Wirkungsquerschnitt führt. Diese „Elementarkörper-Neutrinos“ besitzen aber keine von anderen Elementarkörpern verschiedene Alleinstellungsmerkmale, die sie als „neue Entität“ auszeichnet. Für den Zerfall von massereicheren zu masseärmeren Teilchen, wie beim Myonen-Zerfall - der zum Elektron führt - werden Neutrinos zur Erklärung nicht benötigt. Details siehe das Kapitel Neutrinos 1Der Impuls in Flugrichtung der Protonen/Antiprotonen kann nicht festgestellt werden, da aufgrund der Quark- und Gluonstruktur der Protonen/Antiprotonen der Impuls der Top-Antitop Reaktion in Flugrichtung nicht bekannt ist."... [Das bedeutet schlichtweg, daß das Experiment unvollständig ist und im Resultat als wissenschaftlicher Nachweis unbrauchbar ist.] 1Zur Nachweiseffizienz der einzelnen Teilchen: Jets von Gluonen und leichteren Quarks sind mit nahezu 100% Effizienz nachweisbar, Elektronen und Myonen mit ungefähren 90 %. Tauonen zerfallen entweder leptonisch (36% der Fälle) oder hadronisch (64%). Wegen der beiden entstehenden Neutrinos ist der erste Fall kaum nachweisbar, letzterer auch nur mit 50% Effizienz und dabei, u.a. wegen des entstehenden Neutrinos, nur schwer vom Untergrund unterscheidbar; insgesamt lässt man wegen dieser Schwierigkeiten im Allgemeinen Kanäle mit Tau-Leptonen aus der Betrachtung heraus."... [Hier wird das komplexe Desaster deutlich. Es gibt weder experimentell entkoppelte, „gesicherte“ theoretische Voraussagen für die experimentellen Wahrscheinlichkeiten, im Zweifelsfall wird das „unmessbare“ Neutrino bemüht und wenn das auch nichts hilft, wird „souverän“ auf einen Teil des Versuchsergebnisses verzichtet.] 1…"Am wichtigsten ist der Nachweise der Bottom-Quarks, da sie sehr charakteristisch für Top-Ereignisse sind. Bottom-Quarks hadronisieren fast sofort in B-Mesonen, die im Mittel ungefähr 0.5 mm vom Haupt-Vertex entfernt in einen Jet zerfallen. Die Bestandteile des Jets sind dann auf den gemeinsamen, im Vergleich zum Haupt-Vertex versetzten Ursprung zurückzuführen. Man nennt dies Bottom-Markierung / B-Markierung oder b-tagging. Alternativ zerfallen Bottom Quarks (20% der Fälle) in unter anderem ein Lepton, das einen niedrigeren Impuls als das Lepton aus dem Zerfall des W- Bosons hat. Zusammen beträgt die Nachweis-Effizienz für Bottom Quarks ungefähr 60%."... [Vorliegende Angaben sind außerhalb des Standardmodells ohne Relevanz. Jedwede andere Theorie ließe sich mit freien Parametern, variablen Kopplungskonstanten und Substruktierungsthesen den Teilchenbeschleuniger-Ergebnissen anpassen.] 1Textauszüge Seite 5 und 6/Quelle: http://web.physik.rwth-aachen.de/~klein/seminar/JanSteggemann_ausarbeitung.pdf 2…"die Ungenauigkeiten in der absoluten Energieskala sind relativ groß, weshalb die Jet-Energien ungenau bestimmt werden. Z. B. kann aber auch ein Jet durch das Strahlrohr verloren gehen. Dann gibt es Probleme, die eher mit dem Prozess als solchen zu tun haben: Die Reste des Protons und des Antiprotons bilden einen recht großen Untergrund, und sie können zu Einflüssen auf die Messungen beim Hauptereignis führen. So können zwei Jets als einer gemessen werden (der zweite beispielsweise resultierend aus Untergrundprozessen); aber auch der umgekehrte Fall, dass sich ein Jet in zwei Jets aufspaltet, kann auftreten. Die Effekte zusammen können in außergewöhnlichen Gesamtereignissen resultieren, in jedem Fall müssen sie als Fehlerquellen beachtet werden"… 2Textauszug Seite 8 und 9/Quelle: http://web.physik.rwth-aachen.de/~klein/seminar/JanSteggemann_ausarbeitung.pdf [Mit anderen Worten: Es ist völlig egal wie das Experiment ausgeht, „unsere“ Theorie passt immer.]
Zum Mitdenken Natur kann nur addieren oder subtrahieren.
Eine „gesicherte“ höhere
mathematische Realität existiert ausschließlich im Rahmen
axiomatisch begründeter Sprache (Mathematik). Inwieweit eine korrekte
mathematische Struktur (höhere
mathematische Realität) physikalisch anwendbar ist, lässt sich mit
den „Mitteln“ der Mathematik nicht entscheiden (siehe
„unstrittig-exemplarisch“ Epizykeltheorie und
Banach-Tarski-Paradoxon). Es gibt beispielsweise keine physikalische
Grundlage für die Herleitung der Feldquantisierung.
Quantenfeldtheoretische Betrachtungen sind „realobjektbefreite“
mathematische Denkmodelle. Mathematik erfasst letztendlich Mengen und
kann nicht zwischen Staubsauger und Staub unterscheiden.
Parametrische Glaubensbekenntnisse Die "moderne" Elementarteilchenphysik "nährt(e)" sich von «Spekulations-Kaskaden». In keiner anderen Wissenschaftsdisziplin wird so "kreativ" postuliert, "entdeckt" und "modifiziert", wie in der Teilchenphysik. Das sich dieses Konstrukt aus Teilchen und Thesen erfolgreich befruchtet und innerhalb der eigenen Grenzen bestätigt, ist keine große Überraschung, da die Aktivisten jederzeit neue Teilchen und Thesen einbringen können, um "alte" Thesen und Teilchen zu "retten". Auch wenn es verwunderlich scheint, daß es kaum auffällt, was eigentlich jedem einigermaßen selbständig denkenden Menschen schon nach kurzem Studium des Standardmodells auffallen müsste: Das Standardmodell der Teilchenphysik kann nur existieren, solange es keine Lösungen liefert. Das eine Theorie mit 25 freien Parametern nie Lösungen liefern wird, sollte auch interdisziplinär verstehbar sein. Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen. Masselose Eichbosonen bewegen sich mit Lichtgeschwindigkeit. Die
euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im
Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch
die ursprüngliche Formulierung "verletzt"1, zweitens stimmt die Aussage, das der
Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch
Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr
1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen
massegebenden Terme gar keine Massenberechnung beinhalten. Die
Massenwerte folgen hier nicht aus einer physikalischen Gleichung sondern
müssen als freie Parameter bekannt sein. Das bedeutet schlicht und
ergreifend, auch das „higgs-korrigierte“ Standardmodell der
Teilchenphysik kann weder Masse(n) erklären und schon gar nicht
berechnen. Die einzig der herrschenden Physik bekannte direkte
Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt
nicht abbilden. Des Weiteren: Um die Fermionenmassen durch Kopplung der
Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen
erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen
gleich sein. Das
Neutrino muß masselos bleiben. Diese
Grundbedingung steht in einem eklatanten Widerspruch zu
Neutrinooszillationen (Nobelpreis 2015), die zwingend Neutrinomassen
voraussetzen. 1 Diese Aussage bezieht sich nicht auf die rein mathematische Konzeption, sondern ist erkenntnistheoretisch zu verstehen. Warum sollte man "mit Stolz" einen invaliden Formalismus einführen, der letztendlich massebehaftet nachkorrigiert werden muß. Es drängt sich die Frage nach der primär richtigen Wahl auf. Wenn man alle Terme in der Lagrangedichte
des SM berücksichtigt, die möglich sind (lorentzinvariante,
eichinvariante und renormierbare), existieren keine, die
Neutrinomassen beschreiben. Das liegt daran, daß das SM keine rechtshändigen
Neutrinos enthält. D.h. um Neutrinomassen zu beschreiben, muss man
entweder nicht-renormierbare Terme einführen, die dann auf
Majorana-Massenterme führen, oder man muss neue Freiheitsgrade einführen,
sprich rechtshändige Neutrinos. Beides würde über das SM hinausgehen
und zur Folge haben, daß Neutrinos ihre eigenen Antiteilchen wären
(Majorana-Neutrinos). SM-Postulat:
Es
existiert ein Higgs-Feld an jedem Punkt der Raumzeit, das an die W- und
Z-Bosonen und die Fermionen koppelt. Durch diese Kopplung erhalten diese
Teilchen Masse. Zusätzlich existiert ein massiver Freiheitsgrad des
Feldes, welcher als Higgs-Boson bezeichnet wird. Dieses ist jedoch nicht
als solches für die Massen verantwortlich, wechselwirkt aber mit den
Fermionen und Bosonen und kann somit erzeugt und gemessen werden.
Mit
anderen Worten: Es
gibt 3 verschiedene Arten von Termen, die das Higgs-Feld nach der
spontanen Symmetriebrechung enthalten: Kopplung des Higgs-Feldes an
Fermionen (Yukawa-Terme), Kopplung des Higgs-Feldes an die W- und
Z-Bosonen, kinetische- und Massen-Terme für das Higgs-Boson. Aber die
„Higgs-Terme“ sind eigentlich keine Massenterme, sondern
Wechselwirkungsterme. Erst nach der spontanen Symmetriebrechung
"simuliert" ein Teil des Higgs-Feldes „mittels“
Erwartungswert Ausdrücke, die wie Massenterme aussehen. Ohne
Übertreibung kann man wohl „sagen“: Das widersprüchliche,
„axiomatisch bedenkliche“, stark inkonsistente SM kann praktisch
nichts Reales erklären und schon gar nicht berechnen. Der
Higgs-Mechanismus "lebt" salopp formuliert zu 99% von
unbegründeter Bindungsenergie postulierter (nicht [direkt] beobachtbarer)
Gluonen. Das Attribut [direkt] kann man sich eigentlich sparen, da auch
die folgend postulierten "gluonenbasierenden"
Kaskadenereignisse, die zu vermeintlichen Detektionsereignissen werden,
auch nicht beobachtbar sind. Streng genommen ist der Umstand, daß das SM mittels
Higgs-Mechanismus nur ein Prozent Masse „hinbekommt“ schon eine
Widerlegung dieses theoretischen Ansatzes. Derzeit 25 freie
Parameter, variable Kopplungskonstanten und willküraffine
Substrukturierungen liefern über postulierte Verknüpfungszahlen
(Quantenzahlen) eine „Katalogisierung“ theoriefreundlich
selektierter Energiepeaks, respektive (ultra-)kurzlebiger Massehäufchen,
welche fast immer nur indirekt detektiert werden können. Die gesamte
Theorie reduziert sich fast ausschließlich auf die Interpretation nicht zu
beobachtender, postulierter
Teilchenbeschleunigerereignisse, wie noch ausführlich erörtert wird.
„Und nu“? Auf
Grund einer ganzen Reihe von (theorieinduzierten) Widersprüchen und
Inkonsistenzen, die selbst von SM-Gläubigen (an)erkannt werden, wünschen
die SM-Aktivisten, daß mathematische Erweiterungen „Abhilfe“
schaffen. Die angestrebte theoretische Zukunft der
Standardmodellphysiker ist u.a. die Supersymmetrie (SUSY). Unter einer
Supersymmetrie versteht man eine verallgemeinerte Raum-Zeit-Symmetrie,
die eine Transformation zwischen Bosonen und Fermionen beschreibt.
Supersymmetrie (verniedlichend und „cute“ SUSY genannt) bedeutet
aber bei schlichter Betrachtung u.a. die Aufhebung der
theorieinduzierten Trennung von Fermionen und Bosonen. Des Weiteren
fordert SUSY eine Substrukturierung der postuliert „Strukturlosen“,
derzeit als Leptonen bekannt. Standardmodelltheoretiker und deren Anhänger
scheinen, berauscht von ihren Fantasien, nicht zu verstehen, daß das
„SUSY-Konzept der Vereinigung“ das (noch) bestehende Standardmodell
der Teilchenphysik (SM) nicht, wie gewünscht, konstruktiv erweitert
sondern demontiert. Ein erkennbarer Vorteil der SUSY-Forscher:
Die unvermeidliche SUSY-inhärente Anzahl-Aufblähung freier Parameter
garantiert Vollbeschäftigung. Ein
anderer – logisch durchaus nachvollziehbarer - nahe liegender Gedanke
ist, sich von den jetzigen Elementarteilchen (Quarks, Leptonen) zu
verabschieden und diese mittels so genannter Preonen
zu substrukturieren. Nur wenn Quarks und Leptonen jetzt schon
nulldimensional sind, welche „infinitesimale Steigerung“ haben dann
Preonen inne? Soweit
zu den ersten „Auffälligkeiten“.
Die Ursprünge des Realitätsverlustes, welcher mannigfaltig im Standardmodell der Teilchenphysik zum Tragen kommt, stammen aus der Quantenmechanik (QM). Im Zuge der Kopenhagener Interpretation der Quantenmechanik ist der Realitätsverlust methodisch und gewollt. Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen. Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier Theorem es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab den physikalischen Prozeß zu erkunden, Anschaulichkeit und Phänomenologie werden ausgeblendet.
Wer einigermaßen neutral die Geschichte der Elementarteilchenphysik "studiert", wird kaum glauben können, daß es sich um naturwissenschaftliche Betrachtungen und Bemühungen im Sinne einer zielführenden Vereinfachung und Vereinheitlichung handelt. Immer dann, wenn die Experimentalphysik die Theorie(n) widerlegte, wurde die Theorie mittels neuer Elementarteilchen, erneuter Substrukturierung und wenn nötig neuer Quantenzahlen erweitert, die die fehlenden Eigenschaften, die fehlende Energie oder die fehlende Symmetrie "erledigten". Das hat mit Wissenschaft wenig zu tun und erinnert mehr an (zeitgenössische) Politik. Statt die Probleme mit einem neuen radikalen (Theorie-)Ansatz zu bewältigen, werden kleine und große Schönheitskorrekturen kontinuierlich durchgeführt. Statt zu vereinfachen und zu vereinheitlichen wird "gnadenlos" erweitert und "spezialisiert". Es entsteht ein Sammelsurium von Teilchen(eigenschaften). Plakativ formuliert: Für jeden Fall einer unerwünschten Abweichung, für jedes Teilchen werden bei Bedarf theorieerhaltende Sonderregelungen nachgelegt. Der mathematische Formalismus ist in diesem Fantasieprozess das kleinste Problem. Nötigenfalls werden divergente Terme regularisiert und renormalisiert oder gleich als "unphysikalisch" deklariert, schlicht "weggelassen". Das damit die axiomatische Grundstruktur zerstört wird, scheint entweder nur Wenigen klar zu sein bzw. ist offensichtlich dem Gros der Theoretiker egal.
Zur
Erinnerung: Ob eine Mehrheit «Etwas» "praktiziert" und für
"richtig" hält, sagt nichts über den erkenntnistheoretischen
Wert der "Theorie zum Etwas". Eine
Meinung kann jeder haben, dazu braucht es kein Wissen. Deshalb sind
Meinungen auch deutlich populärer als Wissen. Das eine Gesellschaft
mehrheitlich aus Meinungsträgern ohne Wissen besteht, ist ein gut
dokumentiertes, psychologisch nachvollziehbares, machtsystemerhaltendes,
leicht zu beobachtendes Phänomen, sofern man sich mit
den sozialpolitischen Hintergründen der Meinungsmache und Machterhaltung beschäftigt. Besonders eklatant ist der Umstand, daß im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik der Teilchen" für sich in Anspruch nimmt, ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Die Theoretische Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an denen man Glaubensbekenntnisse statt Wissenschaft vermutet.
Didaktisch ist die herrschende erkenntnistheoretische Leere seit Jahrzehnten fester Bestandteil der Ausbildung. Der Denk-Monotheismus wird schon Schülern populärwissenschaftlich verordnet. Sollten diese dann, trotz der immensen Indoktrination und gegen alle Erwartung, das Quarks-basierende Protonenmärchen eines Tages realisieren, stehen sie ganz alleine dar. Wer glaubt schon, daß sich zehntausende Wissenschaftler über nun drei Generationen mit Etwas beschäftigten, wenn es nicht das Non plus ultra darstellt? "Milliardenschwere" Teilchenbeschleuniger wurden und werden doch nicht gebaut, wenn das Alles Unsinn ist? Diese "psychologischen Komponenten" wiegen schwer.
Standardmodelle einst und heute
Sowohl
die Epizykeltheorie aus heutiger Sicht als auch das Standardmodell der
Teilchenphysik (SM) als quantenfeldtheoretische Anwendung und
Weiterentwicklung der Quantenmechanik basieren auf Fourier-Reihen, bzw.
Fourier-Transformierte. Die Epizykeltheorie arbeitete mit 3 freien
Parametern, war mathematisch „richtig“, phänomenologisch falsch und
die Objekte der Beschreibung waren (sind) sichtbar. Das SM arbeitet mit 25
freien Parametern, variablen Kopplungskonstanten, virtuellen Teilchen,
theorieinduzierten nicht realen Objekten und keines der postulierten
Theorie-Objekte ist sichtbar (direkt messbar). Geozentrisches
Weltbild Die
Erde steht im Zentrum des Kosmos, die Himmelskörper
bewegen sich auf Kreisbahnen. Allerdings konnte z.B. die
Bahn des Mars nicht eine einfache Kreisbahn um die Erde
sein, denn die Bahn zeigte unerklärliche Schleifen, also
stellenweise eine Rückwärtsbewegung. Um das Dogma von
der natürlichen Kreisbahn aufrecht erhalten zu können,
wurde ad hoc behauptet, daß die Marsbahn wohl ein
Kreis sei, die Erde sei aber nicht Mittelpunkt seiner
Bahn. Der Mittelpunkt der Kreisbahn des Mars (sein Epizykel)
bewege sich selbst auf einem Kreis um die Erde, dem so
genannten Trägerkreis oder Deferenten. Da die
Geschwindigkeit des Mars aber nicht gleichförmig ist,
wurde wieder ad hoc behauptet, daß die Erde nicht
genau im Zentrum des Trägerkreises sei, die Erde sei
somit exzentrisch angeordnet. Doch die Einführung von
Epizykeln und Exzentritäten genügte für die exakte
Bahnbeschreibung immer noch nicht. Ptolemäus führte als
weiteren Parameter den Äquant ein. Nur vom Äquanten aus
betrachtet stellen sich alle Bahnen als gleichförmige
dar. Das Ptolemäische Modell liefert eine genaue
Beschreibung der Phänomene, wenn die Parameter Epizykel,
Exzentrizität und Äquant passend variiert werden. Eine
kausale physikalische Erklärung für die
Modellkonstruktion wurde nicht gegeben.
Einige
"SM-Postulate" Das Standardmodell der Elementarteilchenphysik zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen. Die Definition der Masse eines Teilchens bezieht sich im
Rahmen des Standardmodells ausschließlich auf ihre kinematische
Wirkung. Ihre Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen
unberücksichtigt, wie auch die Gravitationswechselwirkung die im
Standardmodell nicht beschrieben werden kann. Die kinematische Wirkung
der Masse manifestiert sich im Propagator des Teilchens. Alle
»Materieteilchen« im Standardmodell sind Fermionen (Spinwert: ½) und
werden durch vierkomponentige Spinoren beschrieben. Die vier Einträge
entsprechen – grob gesagt – der Beschreibung von Teilchen und
Antiteilchen mit jeweils zwei möglichen Spineinstellungen. Unter der (nicht mehr gültigen) Annahme das Neutrinos masselos sind, besitzt das minimale Standard-Modell mit 3 Familien 18 freie Parameter. Die Kopplungskonstanten: αs, α, sinθW. Die Massen der Leptonen: me, mµ, mτ Die Massen der Quarks: md, mu, ms, mc, mb, mt Die Massen der Bosonen: mZ, mW Die Parameter der CKM-Matrix für den Quarksektor: λ, A, ρ, η. Im Falle massiver Neutrinos erhöht sich die Anzahl der freien Parameter um sieben, einerseits für deren Massen, andererseits für die Mischungsmatrix im leptonischen Sektor. Weitere freie Parameter können „auftauchen“, wenn man von dem minimalen Higgs-Sektor zu einem komplizierteren Mechanismus übergeht. Es gibt drei Familien von Teilchen und der einzige Unterschied zwischen den Familien besteht in den Teilchenmassen, ansonsten sind die Eigenschaften von Familie zu Familie gleich. Teilchen aus der zweiten und dritten Familie (Generation) können in Teilchen der ersten Familie zerfallen und Materie besteht nur aus Teilchen der ersten Generation: Up- und Down-Quarks bilden die Protonen und Neutronen der Atomkerne, die von Elektronen umgeben sind.
Lässt man die Neutrinomassen "beiseite", dann unterscheiden sich die Massen des leichtesten Fermions (Elektron) und des schwersten (Top-Quark) um einen Faktor von ca. 400.000, obwohl die Massenterme mit der spontanen Symmetriebrechung denselben Ursprung haben. Die Eichbosonen (Austauschteilchen) sind (erst einmal) masselos, da entsprechende explizite Massenterme die Eichinvarianz verletzen würden. Versucht man einen (zusätzlichen) Masseterm einzuführen, geht die Invarianz verloren und die Theorie wird nicht renormalisierbar. D.h. die Störungsrechnung divergiert.
Merke:
Die Eichgruppe des Standardmodells SU(3)C x SU(2)W x
U(1)Y kann nur masselose Fermionen beschreiben. C steht für
Farbe (die Ladung der starken Wechselwirkung), W für Schwache
Wechselwirkung und Y für Hyperladung. Die elektroschwache
Yang-Mills-Theorie wird durch SU(2)W x U(1)Y
beschrieben, die SU(2)W enthält drei
Eichbosonen. Die zunächst masselosen Fermionen können durch ihre Helizität
charakterisiert werden. Rechtshändige Fermion-Zustände haben Helizität
+½, linkshändige Fermionen den Wert -½. Nur bei masselosen Teilchen ist
die Helizität eine lorentzinvariante Größe. Es gibt Erzeugungs- und
Vernichtungsoperatoren für rechts- und linkshändige Teilchen und für
die jeweilige Händigkeit von Antiteilchen. Die Ladung des rechtshändigen
Antiteilchens ist entgegengesetzt der Ladung des linkshändigen Teilchens.
Es ist eine zentrale Eigenschaft aller Fermionen des SM, daß sie chiral
sind. Definition: Ein Fermion ist chiral, wenn die rechts- und linkshändigen
Teilchen-Zustände nicht dieselben Ladungen tragen. Chirale Fermionen sind
masselose Fermionen. Durch spontane Symmetriebrechung erhalten Fermionen
Masse und SU(3)C x SU(2)W x U(1)Y
reduziert sich auf die Eichgruppe SU(3)C x U(1)em ,
die bei niedrigen Energien beobachtet wird.
QuantenChromoDynamik Die QCD ist im Gegensatz zur QED eine nicht-abelsche Eichtheorie, das heißt die Multiplikation von zwei Gruppenelementen ist im Allgemeinen nicht kommutativ. Das führt dazu, daß in der Lagrange-Dichte Terme auftreten, die eine Wechselwirkung der Austauschteilchen miteinander bewirken. Konkret: Die Austauschteilchen (masselose Gluonen) tragen selbst »Farbladungen« und wechselwirken auch untereinander. Als eine Folge nimmt die Kopplungskonstante αs mit steigender Wechselwirkungsenergie logarithmisch ab („asymptotische Freiheit“). Die Genauigkeit der Theorie-Vorhersagen liegt im Prozentbereich. [Wobei sich die Vorhersagen nur auf die selbstdefinierten Theorieaspekte beziehen. Allgemein kann man "festhalten": Das SM somit QCD inklusive hat u.a. "nichts zu sagen" über konkrete Teilchenmassen, assoziierte Lebensdauern, Massenrelationen, zur Gravitation, zur Natur der Feinstrukturkonstanten, zur Phänomenologie des Spins] In der Quantenfeldtheorie ist ein Elektron nicht nur ein »nacktes Elektron«, sondern von einer Wolke von virtuellen Teilchen (Photonen und Elektron-Positron-Paaren, bei höheren Energien auch anderen Fermion-Antifermion-Paaren) umgeben (Vakuumpolarisation), die es ständig emittiert und wieder absorbiert. Diese schirmen die negative Ladung des nackten Elektrons ab. In unmittelbarer Nähe der nackten Ladung werden die Elektron-Positron-Paare polarisiert, d.h., die virtuellen Positronen werden angezogen und die virtuellen Elektronen abgestoßen. Die nackte Ladung wird dadurch zum Teil kompensiert und in größerer Entfernung misst man nur noch die Differenz zwischen der nackten Ladung und der Gesamtladung der virtuellen Positronen (bzw. Antileptonen und entsprechenden Quarks je nach Energie). Die Messung der Testladung hängt also vom Abstand ab. Wenn man sich dem Elektron nähert, durchdringt man die Positronwolke, die die Elektronladung abschirmt.
Die
durch die Ladung verursachte Polarisation des Vakuums in der Region um die
Elementarladung sorgt für einen Abschirmungseffekt. Das führt dazu, daß
die beobachtete Ladung keine Konstante mehr ist, sondern vom Abstand bzw.
der entsprechenden Energieskala Q abhängt, bei welcher ein Prozess
stattfindet. Dies wird als Laufen der Kopplung bezeichnet. In der QED
nimmt die Stärke der Kopplung mit steigender Energieskala Q zu. Die so genannte effektive
Kopplungskonstante wird definiert durch: "QED-Analoges" SM-Postulat: Wie das Elektron ist auch ein Quark von einer Wolke virtueller Teilchen umgeben, und zwar von Gluonen und Quark-Antiquark-Paaren. Die Farbladung eines Quarks wird durch die Farbladungen der Quark-Antiquark-Paare in der Wolke teilweise kompensiert. Anders als die elektrisch neutralen virtuellen Photonen in der Umgebung eines Elektrons haben die virtuellen Gluonen in der Umgebung eines Quarks ihre eigenen Farbladungen und können daher in Paare von Gluonen übergehen (Selbstkopplung). Als Folge dieser zusätzlichen Beiträge wird im Falle der QCD die Farbladung des Quarks nicht abgeschirmt, sondern erhöht (antiscreening). [Es gibt keine erklärende Phänomenologie zum antiscreening!]
Elektroschwache
Wechselwirkung
Das
Modell von Glashow, Weinberg und Salam vereinigt die elektromagnetische
und die schwache Wechselwirkung zur elektroschwachen Wechselwirkung. Ihre
Struktur ist durch eine nicht-abelsche Eichsymmetrie der Gruppe SU(2)L×U(1)Y
bestimmt. Die Wechselwirkungen der fundamentalen Teilchen werden durch den
Austausch der Eichbosonen (Spin 1) vermittelt, die über lokale innere
Symmetrien in die Theorie eingeführt werden. Die „Rolle“ der
Materiefelder übernehmen Fermionen. Die Materiefelder sind durch jeweils
drei Generationen von links- und rechts-chiralen Quarks und Leptonen
gegeben. Zu den Leptonen gehören Elektron, Myon und Tau sowie ein
Neutrino in jeder Generation. Die sechs Quarks sind Up-, Down-, Charm-, Strange-,
Top- und Bottom-Quark. Quarks wechselwirken sowohl elektroschwach als auch
stark. Die Quarks der ersten Generation (Up und Down) bilden die Bausteine der
Protonen und Neutronen. Leptonen wechselwirken dagegen ausschließlich
elektroschwach.
Das Postulat eines unterschiedlichen Transformationsverhaltens der links-
und rechts-chiralen Fermionen theorieinduziert eine Quantenzahl die als
schwacher Isospin bezeichnet wird, der für die obere Komponente eines
SU(2)-Dubletts den Wert I = +½ und für die untere Komponente I = −
½ hat. SU(2)-Singuletts werden durch I = 0 gekennzeichnet. Aus der
Annahme, dass die schwache Wechselwirkung die Parität, sprich die
Symmetrie unter Raumspiegelung, maximal verletzt, ergeben sich
unterschiedliche Kopplungen der Eichbosonen der schwachen Wechselwirkung
an links- und rechtshändige Fermionen. Die Quantenzahl der U(1)Y
-Symmetrie, welche die Invarianz der Lagrange-Dichte unter lokalen
Phasentransformationen der Felder angibt, ist die Hyperladung Y, die mit
der elektrischen Ladung Q und der dritten Komponente des schwachen
Isospins I3W durch die Gell-Mann-Nishijima-Relation
Q = I3W + ½Y zusammenhängt. Aus dem etablierten SM-Formalismus resultieren quadratisch divergente Beiträge zur skalaren Masse von Eichbosonschleifen sowie Fermionschleifen. Ohne das an dieser Stelle näher auszuführen, lässt sich der so genannte Abschneideparameter Λ nicht aus der Theorie bestimmen. Die großen Λ2 Korrekturen implizieren, daß, wenn man die Hochenergietheorie, von der das SM als effektive Niederenergietheorie abstammt, benutzt, um Vorhersagen bei TeV-Energien zu machen, diese Vorhersagen extrem sensitiv auf die Parameter der Hochenergietheorie sein würden, wenn Λ » 1 TeV ist. Dies ist das so genannte fine-tuning problem (Feinadjustierungsproblem) des SM.
Renormierung
und Regularisierung In
Quantenfeldtheorien werden Modelle durch die Lagrange-Dichte beschrieben.
Diese enthält eine bestimmte Anzahl von freien Parametern, deren
Zahlenwerte nicht durch die Theorie festgelegt sind, sondern experimentell
bestimmt werden müssen. Im Grenzfall verschwindender Quantenkorrekturen
(Bornschen Näherung), können viele freie Parameter direkt mit den
physikalischen Größen, wie z. B. den Massen oder der elektrischen
Ladung, identifiziert werden. Werden jedoch Quantenkorrekturen berücksichtigt,
so wird der direkte Zusammenhang zwischen den freien Parametern der
Lagrangedichte (den so genannten ”nackten“ (engl.: bare) Parametern)
und den physikalischen Größen zerstört. Dies macht eine Redefinition
(Renormierung) der Parameter und auch der Felder, notwendig. Im Verlauf
der Berechnung des Zusammenhangs zwischen den „unphysikalischen“ und
den physikalischen Parametern können Integrale auftreten, die
divergieren. Die Art und Weise, wie die Konvergenz dieser Integrale
gesichert wird, wird durch das Verfahren der so genannten Regularisierung
festgelegt. Es ist essentiell, daß die auftretenden Divergenzen durch
eine Redefinition der Theorieparameter absorbiert werden können, ohne
dabei die Symmetrien der Theorie oder die Unitarität der Amplitude zu
verletzen. Dies führt dazu, daß die freien Parameter der Lagrange-Dichte
nicht direkt mit den Observablen identifiziert werden können, sondern
dynamische, also energie- und skalen-abhängige Beiträge erhalten und in
jeder weiteren Ordnung der Störungstheorie erneut mit den physikalischen
Größen in Verbindung gebracht werden müssen. Gelingt es, durch die
Renormierung endlich viele Parameter sämtlich auftretender UV-Divergenzen
in allen Ordnungen der Störungstheorie zu beseitigen, so ist die
jeweilige Theorie renormierbar. Die Renormierbarkeit des Standardmodells
wurde von ’t Hooft bewiesen. Bevor
Felder und Parameter der Lagrange-Dichte renormiert werden können, müssen
zunächst die bei der Berechnung der Schleifenintegrale auftretenden
Divergenzen extrahiert werden. Prinzipiell würde eine Beschränkung der
Energieintegration durch eine obere Grenze (engl.: cut-off) Λ bereits
endliche Ergebnisse liefern, jedoch zerstört eine solche Beschränkung
die Lorentz-Invarianz. Ein häufig angewandtes Verfahren ist die dimensionale
Regularisierung, die Lorentz- und Eichinvarianz gewährleistet (Erhalt
der inneren Symmetrien der Theorie). Durch
die dimensionale Regularisierung werden die auftretenden Divergenzen in
negativen Potenzen des Regularisierungsparameters ε isoliert. Mittels
Renormierung wird dann die Abhängigkeit von diesem unphysikalischen
Parameter subtrahiert und der Zusammenhang zwischen den im Modell
auftretenden freien Parametern und den experimentell bestimmbaren
physikalischen Größen neu festgelegt. In der Praxis werden dazu so
genannte Gegenterme (engl.: counterterm) verwendet, welche einen formalen
und systematischen Zugang zur Renormierung bieten. Dabei werden die
”nackten“ Parameter (m0, e0) und Felder (Φ0)
der Lagrange-Dichte mittels Renormierungskonstanten Zi
multiplikativ renormiert.
Im so genannten On-Shell Schema (On-Shell-Renormierung) werden die
Renormierungskonstanten so gewählt, daß die renormierten Parameter der
Theorie den messbaren, physikalischen Größen in allen Ordnungen Störungstheorie
entsprechen. Die renormierten Massen werden gleich den physikalischen gewählt.
Werden alle Größen im On-Shell Schema bestimmt und erfolgt die
Ladungsrenormierung in Thomson-Limes (Kopplung des Photons an das Elektron
im Grenzfall eines verschwindenden Impulsübertrags), so hängt das
endliche Ergebnis nicht mehr von der durch die Regularisierung eingeführten
Massenskala ab. Neben
den UV-Divergenzen aus der Region großer Schleifenimpulse qi
→ ∞ treten in Quantenfeldtheorien sowohl innerhalb der
Schleifenintegrale bei endlichen Impulsen, als auch innerhalb der
Phasenraumintegrale weitere Divergenzen auf, die ihre Ursache in Polen der
Propagatoren haben. Diese treten auf, wenn Impulse der Propagatoren auf
ihrer Massenschale liegen und dadurch der Nenner des Propagators Null
wird. Daher werden diese Singularitäten im Allgemeinen als
Massensingularitäten bezeichnet, da ihr Auftreten mit dem Verschwinden
der äußeren und inneren Massen verbunden ist. Zur Erinnerung: das "zauberhafte" fine-tuning ... die an den Haaren herbeigezogene Feinabstimmung ... Während die dimensionale Regularisierung aus Sicht des SM vor allem praktisch ist, kann man sich "dort" auf den Standpunkt stellen, das die Impulsintegrale bei einem bestimmten Maximalimpuls Λ abgeschnitten werden, da bei größeren Impulsen das Standardmodell durch eine andere (vereinheitlichende) Theorie ersetzt werden muss. Eine natürliche Wahl für Λ wäre dann Λ ~ mPlanck. Berechnet man die Strahlungskorrekturen zu den Fermionmassen, dann erhält man daraus einen zum Logarithmus von Λ proportionalen Korrekturterm, der auch bei Λ ~ mPlanck nur wenige Prozent der ”nackten“ Masse ausmacht. Anders bei der Higgsmasse: Hier liefert die Strahlungskorrektur einen zu Λ proportionalen Anteil. Die Higgsmasse mH ~ 125 GeV führt zu der Situation, daß sich die Strahlungskorrekturen und die nackte Masse auf 17 (siebzehn) Nachkommastellen genau aufheben (müssen). Es
gibt eine Vielzahl weiterer - wahrlich unglaublicher - Aspekte zur Renormierung und Regularisierung,
deren explizite Erörterung bei Weitem den Rahmen sprengen und unnötig
den Fokus verschieben würde. Schenken wir uns also noch mehr Details (die jeder nach Belieben in zahlreichen Ausführungen online selbst nachlesen kann), schenken wir uns weitere Kritik zur Renormalisierung und Renormierung und betrachten an dieser Stelle nur die theorie-konstruierte Ursache: Die Divergenzproblematiken, sowohl klassischer als auch quantenfeldtheoretischer Betrachtungen, finden ihre theoriebeladene Ursache in den jeweiligen Denkmodellen. Dort wird die innere Struktur der Energieträger schlicht nicht erfasst. Berücksichtigt man jedoch eine endliche, realphysikalisch orientierte, phänomenologische „Natur der Objekte“, lösen sich die "Unendlichkeiten" plausibel auf.
Bei der Proton-Proton-Wechselwirkung kann auf Grund der Ladungserhaltung offensichtlich kein neutrales Higgs-Boson alleinig entstehen. Des Weiteren bedarf es (nach Angaben der "Standardmodell-Verkünder") experimentell mindestens 10 Milliarden Kollisionsereignisse um ein Higgs-Boson zu erhalten. Dieses wird aber keineswegs detektiert. Der vermeintliche "Nachweis" geschieht indirekt über die von der "Theorie" postulierten Zerfallskanäle. Ein 125 GeV/c²-Teilchen zerfällt gemäß SM zu 57% in bottom/antibottom-Quarks, 21% in W±, 9% in zwei Gluonen, 6% in Tau/Anti-Tau, 3% Charm/Anticharm, 3% in 2 Z-Bosonen, 0,2% in zwei Photonen, 0,2% in Z-Boson und Photon, 0,6% in "Anderes". Aber: Die angeblichen Beobachtungen mit grosser Higgs-Boson-Existenz-Signifikanz beziehen sich nicht auf die häufigsten Zerfallskanäle - allen voran nicht auf H→bb̅ mit 57% -. Somit reduziert sich der Stand der Dinge auf folgende Situation. Es wurden im Verhältnis 1 Ereignis zu 10 Milliarden Nichtereignissen Zerfälle eines "neuen Bosons" im "Energiefenster um 125 GeV" in zwei
Z-Bosonen (führt zu zwei Paaren von elektrisch geladenen Leptonen) zwei
Photonen zwei
W-Bosonen (führt zu zwei elektrisch geladenen Leptonen und zwei
Neutrinos) Zerfall
in zwei Tau-Leptonen Es gibt eine Vielzahl von "Abhandlungen" zum Higgs-Mechanismus. Jeder kann sich seine Lieblingsbeschreibung (im Internet) aussuchen. Hier sollen nur der formale Werdegang und die Beliebigkeit des "Verfahrens" grob skizziert werden. Eine ausführlichere Betrachtung mit Elementarkörpertheorie basierenden konstruktiven "Elementen" zum Higgs-Mechanismus ist im Kapitel Higgs-Boson-Kreationen und andere Kleinigkeiten zu finden. Seit
mehr als fünf Jahrzehnten werden mit steigendem Aufwand Forschungen in
der Teilchenphysik betrieben, ohne daß die wirkliche Natur der Teilchen
erkannt wurde. Die herrschende Physik meidet aus Kalkül eine
„Teilchendefinition“. So ist es Gang und Gebe, Teilchen allein auf
Grund „überzeugender theoretischer Argumente“ zu erfinden und als
feste Größen in Theorien „einzubauen“. So wird fehlende, elementare,
ursächliche Erkenntnis durch theoretische Kreisschlüsse ausgeblendet.
Um die Massenerzeugung im Standardmodell durch den Higgs-Mechanismus zu realisieren, kann man als minimale Variante das Higgs-Feld als Isospin-Dublett ansetzen. Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m² < 0). Merke: Das ursprüngliche Higgs-Feld ist ein Tachyon-Feld, mathematisch definierbar, physikalisch irreal. Das Higgs-Potential und damit die spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus. Um den Tachyon-Term „zu umgehen“, wird das Feld als eine Variation um einen Vakuumszustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms. Im weiteren Verlauf dieser mathematischen Prozedur zeigt sich jedoch, dass ein weiteres masseloses Vektorboson, dass so genannte Goldstone Boson auftritt. Da es aber keinen experimentellen Hinweis für dieses Boson gibt, wird es als "unphysikalisch" erklärt und mathematisch eliminiert („weggeeicht“).
In der elektroschwachen Theorie werden, wie bei allen quantenfeldtheoretischen Eichtheorien, die Wechselwirkungen durch Eichbosonen vermittelt. In der elektroschwachen Theorie treten zunächst vier masselose Eichbosonen auf, die auftretenden Eichbosonen werden als "Mischungen" definiert. Grundidee ist eine formale Vereinigung von elektromagnetischer und schwacher Wechselwirkung. Wobei W1, W2 und W3 keinerlei "messtechnische Realität" besitzen. Das Z0-Boson ist nicht wie die W-Bosonen maximal paritätsverletzend, da es einen Anteil des W3-Bosons enthält. Man sagt, die Zustände des Photons γ0 und des Z0-Bosons sind um den so genannten Weinbergwinkel gedreht. Das Photon soll sich in der elektroschwachen Theorie wie in der QED verhalten. [Diese Annahme/Forderung ist phänomenologisch haltlos, da das "Photon der QED" nicht dem Mischzustand der elektroschwachen Theorie entspricht.] Mischungen der elektroschwachen Theorie
Auffällig ist die Diskrepanz zwischen gemessenem Weinberg-Winkel [CODATA-Wert 2014] und der formalen Wertbestimmung [Wθc] [Wθ]. Insgesamt variiert der Weinberg-Winkel in Abhängigkeit der experimentellen "Energiefenster". Hier würde sich in einer
konstruktiven erkenntnistheoretischen Auseinandersetzung beispielsweise
die Frage stellen, inwieweit das erweiterte Konzept der
„Austauschteilchen“, respektive der Eichbosonen überhaupt Gültigkeit
besitzt. Denn das zeitstabile reale Photon ist als Entität grundlegend
verschieden von den massebehafteten Vektorbosonen und dem Higgs-Boson,
sowie von den selbstwechselwirkenden, masselosen Gluonen. Das Photon zum
Austauschteilchen bzw. Vektorboson zu erklären, ist, außerhalb der QED
bzw. des SM stark diskussionswürdig. Insgesamt stellt sich
epistemologisch die Frage nach der Realität der innerhalb des SM
theorienotwendigen Vektorbosonen und des theorienotwendigen
Higgs-Bosons. Wobei hier zu bemerken ist, daß 99% der Masse des Protons
sowie des Neutrons energetisch als Bindungsenergie definiert werden. Der
Higgs-Mechanismus ist also selbst im Rahmen des SM
voraussageunspezifisch und massegebend extrem ineffizient. Hier gilt
auch zu bemerken, daß ausnahmslos alle experimentellen Nachweise
indirekte, stark theoriebeladene Nachweise sind, wie noch ausführlich
erörtert wird. Auch auf die Vektorbosonen verwandten Problematiken der
postulierten asymmetrisch, ladungsfragmentierten
Quarks-Gluonen-Existenz, deren postulierte Wechselwirkungen, auf den
fehlenden Spin der Quarks und Gluonen, Confinement-These, Neutrinothese,
Delta-Baryonen und auf das Hilfs-Theorie-Konzept virtueller Teilchen
kommen "wir" noch ausführlicher "zu sprechen“. Von den im Standardmodell als fundamental angesehenen Fermionen sind die Massen der geladenen Leptonen – Elektron, Myon, Tau – nur experimentell bekannt, sie treten als freie Teilchen auf. Die neutralen Leptonen (Neutrinos) werden im Standardmodell als exakt masselose Weyl-Fermionen angenommen. Der Widerspruch zu experimentell geforderten Neutrinomassen ist evident. Halten wir fest: Das Higgs-Feld, der Higgs-Mechanismus oder was es sonst noch so an semantischen Higgs-Möglichkeiten gibt, soll allen "Teilchen" und auch dem Higgs-Boson selbst Masse "geben". Analytisch, rational logisch denkend erwartet man mit der Aussage "Masse geben", daß es formale Zusammenhänge gibt, die es "erlauben" qualitativ und quantitativ theoretische Teilchenmassen in Übereinstimmung mit gemessenen Teilchenmassen berechnen zu können. Das ist aber in keinem Fall, ausgehend von Higgs-Mechanismus, möglich !!! Mit freien Parametern bestückte Gleichungen anzuschreiben und dann zu behaupten, diese Gleichungen würden "Masse geben" ist realphysikalisch nichts weiter als eine "Luftnummer". In Anbetracht der "1% - Situation" wird daraus - interdisziplinär gesehen - eine Lachnummer. Wer lässt sich auf solch einen Quatsch ein? Warum lässt sich jemand auf solchen Quatsch ein? Warum gibt es kaum Kritiker? Haben alle die Hosen voll, weil sie in Furcht vor dem Formalismus und mangels eigener (Grund-)Kenntnisse lieber den Mund halten, statt sich konkret mit den mathematischen Konstrukten zu beschäftigen? Was bleibt denn von den phänomenologisch unbegründeten "axiomatischen" Fantasiekonstrukten ausser Willkür und Beliebigkeit? Wie man so schön umgangssprachlich sagt: "Butter bei die Fische". Standardmodell-Physiker sollten in Anbetracht der Realsituation kleinlaut, besser noch stumm, erst einmal ihre "Hausaufgaben" machen, bevor sie mit leeren Versprechungen umherziehen. Grundsätzlich werden im SM auftretende mathematische Objekte "gewünscht" massebehaftet oder masselos "geeicht". "Gewünscht" ist keine semantische Spitze sondern inhaltlich das richtige Wort. Denn bei neutraler Betrachtung des SM fällt auf, daß im Rahmen des Formalismus Masse und Masse-Losigkeit je nach Gutdünken der Theoriebauer vergeben werden. Das lässt sich grundsätzlich durch "(Neu-)Eichungen" realisieren. Doch dieses beliebige Handeln besitzt keinen realphysikalischen Nährwert im Sinne eines Erkenntnisgewinns über phänomenologische Zusammenhänge. Ganz im Gegenteil: Es wird eine physikalische Pseudo-Realität geschaffen, die dann als verbindliche Grundlage dient. Wie sinnlos dieses Unterfangen ist, zeigt exemplarisch die theoretische Forderung nach Masselosigkeit der Neutrinos, die aber - gemäß Neutrinooszillationen - (auch von SM-Vertretern anerkannt) endliche Massen besitzen. Die theoretische Forderung läuft ins Leere. Die Verselbständigung der mathematischen Abstraktionen führt (auch im Rahmen des Higgs-Mechanismus) nachweislich zu beliebigen Fantasiekonstrukten. Der Formalismus ermöglicht die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie des Geschehens auseinandersetzen zu müssen um "Ergebnisse" zu erhalten. "Praktisch" braucht es mindestens zehn Milliarden Kollisionen, um ein einziges »Higgs-Teilchen« zu produzieren. Dieses wird aber gar nicht direkt nachgewiesen, da es, wie alle anderen instabilen (postulierten) Teilchen, nur indirekt "nachweisbar" ist. Halten wir fest: Phänomenologisch vollkommen unbegründete mathematische Prozeduren liefern «Freie-Parameter-Gleichungen», die zu keinem Ergebnis führen. Auf 10 Milliarden Fehlversuche kommt ein stark theoriebeladenes Ereignis, daß als "Nachweis" postuliert wird. Ohne Übertreibung ist offensichtlich die herrschende Theoretische Grundlagenphysik samt zuständigem Nobelpreis-Komitee in einer - rational logisch erfassbaren - unvergleichlichen Krise. Kein Forschungsgeld der Welt, kein Nobelpreis rechtfertigt diesen konstruierten »Fantasie-Murks«, der durch stark theoriebeladene, methodisch vorselektierte Messungen im Verhältnis 1 zu 10 Milliarden "bestätigt" wird. Ein grundsätzliches Problem der Zuordnung und Identifikation möglicher Energie-Peaks ergibt sich aus der Eigenschaft beschleunigter Ladungen. Die Vielzahl der "detektierten" Ereignisse ist einerseits auf das gewählte Energiespektrum zurückzuführen und andererseits auf die Tatsache, daß beschleunigte Ladungen stetig Energie abstrahlen, die teilweise wieder von den "benachbarten" geladenen Teilchen aufgenommen wird. Das heißt, zum Zeitpunkt der Kollision gibt es eine statistische Verteilung der Energie der kollidierenden Teichen. Die daraus resultierenden Ereignisse wurden und werden dann offensichtlich nach Lust und Laune der Theoretiker als gewünschte Elementarteilchen "gezählt". Da hin und wieder "überraschende", unerwartete, neue Ereignisse gut zu gebrauchen sind, um weiter "forschen" zu können, was gleichbedeutend mit der Absicherung der eigenen wirtschaftlichen Existenz gekoppelt ist, wird von Zeit zu Zeit der Zerfallskanal für "Neues" geöffnet. Insgesamt stellt sich die Frage, wie aus einer Vielteilchenkollision Informationen über ein einzelnes Ereignis erhalten werden können. Die Frage ist einfach zu beantworten. Es ist unmöglich. Hier wird - berauscht von den eigenen SM- Fantasien - schlicht die Realität ausgeblendet und so getan, als ob ein einzelner Streuprozess aus Millionen von statistisch unbekannt verteilten Streuprozessen beobachtbar wäre. Randnotiz zur Pathologie: 2013 gab es einen Nobelpreis für den "Higgs-Machanismus". 2015 gab es einen Nobelpreis für den (angeblichen) Nachweis der Neutrino-Oszillationen, sprich Neutrinomassen. Nur der "Higgs-Mechanismus" und übergeordnet das Standardmodell der Teilchenphysik schließt Neutrinomassen aus. Man muß sich sehr ernste Gedanken über den Zustand der Protagonisten und Anhänger dieser dekadenten, dreist-frechen und letztendlich erkenntnistheoretisch nutzlosen Interpretation von Wissenschaft machen. In Anbetracht der dokumentierten "Schizophrenie" wäre es vielleicht keine schlechte Idee, die "Macher" und "Entscheider" neurologisch untersuchen zu lassen. Neutrino-Propaganda Der
Nobelpreis für Physik des Jahres 2015 für den (angeblichen) Nachweis der
Neutrinooszillationen ist eine weitere psychologische Hürde, die man erst
einmal nehmen muß, um sich inhaltlich der Kernproblematik nähern zu können,
daß es schlicht keine Neutrinooszillationen geben kann, da es keine
Neutrinos gibt. Auch hier führte – wie bei allen anderen rein
theorieinduzierten Grössen - die über Jahrzehnte kontinuierliche,
experimentelle Suche und vermeintliche experimentelle Bestätigung, das
Gesuchte gefunden zu haben, zu einem - aus erkenntnistheoretischer Sicht
– fatalen, selbstprophetischen Neutrinobefund. Mantraartig wird
interessierten Laien, Physikstudenten und allgemein der Forschergemeinde
eingehämmert, Neutrinos seien so real, wie das irdische Leben selbst. Es gibt aber bis heute keinen einzigen direkten experimentellen Neutrinonachweis. Was "ES" seit Jahrzehnten gibt, sind eine Vielzahl von Versuchsaufbauten und theoriebeladene Interpretationen zu indirekten wunschgemäßen Neutrinonachweisen. Warum Neutrinos so beliebt sind, liegt, materiell gesehen, an der assoziierten Neutrino-Industrie. Es lassen sich gefahrlos Forschungsgelder für theoretische Spekulationen und Neutrinoexperimente abgreifen, da die Natur der Neutrinos „in den Sternen steht“. Der postuliert extrem kleine Wechselwirkungsquerschnitt macht Neutrinos „unsichtbar“, ganz zu schweigen von der nicht vorhandenen experimentellen Reproduzierbarkeit. Somit lassen sich alle Bemühungen, ob in Form theoretischer Konstrukte zum unsichtbaren Verhalten oder in Form von „Neutrino-Nachweis-Maschinen“ beliebig ausarbeiten und konfigurieren, ohne argumentative Gegenwehr befürchten zu müssen, also im wahrsten Sinne des Wortes honorieren.
Bei "massetragenden" Neutrinos muss man, wie bei den Quarks, zwischen Eigenzuständen der schwachen Wechselwirkung und Masseneigenzuständen unterscheiden. Wenn ein Neutrino durch die schwache Wechselwirkung erzeugt wird, befindet es sich in einem definierten “flavor”-Eigenzustand, der eine kohärente Superpostion von Masseneigenzuständen ist, d. h. das Neutrino kann während der Propagation spontan in einen anderen “flavor” übergehen. Diese Übergänge werden dann Neutrino-Oszillationen genannt. Quarks
hingegen sind nicht isolierbar, soll heißen, nicht direkt
"messbar". Quarksmassen werden aus ihrem Einfluß auf das Hadronenspektrum oder auf
Streuquerschnitte "berechnet". Bei der Angabe der Resultate muß sorgfältig unterschieden
werden, auf welchen Modellannahmen die Berechnungen beruhen und welches
Renormierungsschema verwendet wurde. Die Literatur zum Thema ist
entsprechend umfangreich und teilweise schwer zu vergleichen. "Massetragende" Neutrinos können als Dirac- oder
Majorana-Spinoren dargestellt werden. Für masselose Neutrinos sind diese
beiden Darstellungen äquivalent. Falls Neutrinos massive Dirac-Teilchen
sind, so ist nach wie vor die totale Leptonzahl eine Erhaltungsgröße,
während die Leptonfamilienzahl durch die Neutrinomischung verletzt
wird. Letzteres gilt ebenso für Majorana-Neutrinos, die aber zusätzlich
auch die totale Leptonzahl verletzen würden, da Majorana-Neutrinos ihre
eigenen Antiteilchen sind. Diese Leptonzahlverletzung könnte sich in
einem neutrinolosen doppelten Betazerfall zeigen. Die Beobachtung eines
solchen Zerfalls wäre ein eindeutiger Hinweis auf die Existenz von
Majorana-Neutrinos. Darüber hinaus ist die Unterscheidung von Dirac-
und Majorana-Neutrinos experimentell äußerst schwierig.
Majorana-Neutrinos können kein elektrisches oder magnetisches
Dipolmoment besitzen, ebenfalls als Folge der Tatsache, daß
Majorana-Neutrinos ihre eigenen Antiteilchen sind. [Nur warum sollte man sich mit der Frage nach "massetragenden" Neutrinos und theoretischen Konstrukten a la Dirac- oder Majorana-Spinoren beschäftigen, wenn es eh keine Neutrinos gibt?]
Randnotiz zur Pathologie: 2013 gab es einen Nobelpreis für den "Higgs-Machanismus". 2015 gab es einen Nobelpreis für den (angeblichen) Nachweis der Neutrino-Oszillationen, sprich Neutrinomassen. Nur der "Higgs-Mechanismus" und übergeordnet das Standardmodell der Teilchenphysik schließt Neutrinomassen aus. Standardmodell-Aussage: …“Neutrinos sind im Standardmodell der Teilchenphysik masselos. Oszillationen erfordern aber Massen und aus dem experimentellen Nachweis der Oszillationen folgt daher erstmals, dass das Standardmodell unvollständig ist.“… Da haben wir es wieder. Die theoretischen Grundlagen sind nicht falsch (wo kämen wir denn da hin), nein, das SM ist "unvollständig". Was kümmert uns die theoretische Grundlage der postulierten Masselosigkeit von Gestern.
Zum Mitdenken Gedankenexperiment: Nehmen wir Neutrino-Massen als gegeben hin und betrachten wir die Masse der Neutrinos. Die aktuelle These, die zur „felsenfesten“ Annahme der Theoretischen Systemphysik führt(e), hält einige Implikationen bereit, die die Behauptung der extrem kleinen Wirkungsquerschnitte diskussionswürdig macht. Um das plastischer zu machen, betrachten wir den Beta-Minus-Zerfall, der ursächlich zu Wolfgang Paulis Neutrinothese aus dem Jahre 1930 führte. Masse bedeutet, daß der Träger der Masse energetisch ein Masse-Äquivalent besitzt, welches sich durch die Comptonwellenlänge manifestiert. Stellen wir uns vor, daß die Massenuntergrenze - wie in einem Artikel der Max-Planck-Gesellschaft behauptet (https://www.mpg.de/443025/forschungsSchwerpunkt1) - des Neutrinos bei 0,05 eV/c2 liegt. Das entspricht einer Masse von ~ 8,9e-38 kg und einer Comptonwellenlänge von 2,5e-5 m (0,025 mm). Der Beta-Minus-Zerfall des Neutrons, der SM basierend als Schwache Wechselwirkung, gemäß Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen W-Bosons stattfinden soll, führt im Extrem zu einer Gesamtenergie (relativistische Ruhe-Energie und kinetische Energie) des postulierten Neutrinos von ~ 0,78 MeV, daß entspricht ~ 1,4e-30 kg. Daraus ergibt sich ein nahezu „lichtschnelles“ Neutrino mit einem relativistischen Faktor von ~ 1,56e7 (Gamma = 1/(Ekin/E0 + 1)) und einer resultierenden De-Broglie-Materiewelle von ~ 1,6e-12 m. Zum Vergleich: Die Comptonwellenlänge des Elektrons beträgt ~ 2,43e-12 m. Die Massenuntergrenze des Neutrinos spielt hier praktisch keine Rolle, weil in allen Fällen die vermeintlich vom Neutrino aus dem Laborsystem maximal „entführte“ Energie durch die gemessene Energiedifferenz vorgegeben wird und diese den Wert der De-Broglie-Materiewelle festlegt, eine weitere Verschiebung der Neutrinomassenuntergrenze macht letztere Aussage „noch absoluter“. De-Broglie-Materiewellen sind im Gegensatz zu den teilcheninhärenten Comptonwellenlängen offensichtlich nicht teilchenspezifisch. Warum sollte nun ein Neutrino mit der De-Broglie-Materiewelle von ~ 1,6e-12 m nicht nachweisbar wechselwirken? Kleinere kinetische Energien weiterer Neutrinos gemäß Betaspektrum mit weniger als maximaler Energiezufuhr, „erzeugen“ langwelligere Neutrino-Materiewellen, die gleichfalls aus Sicht der Materiewellenbetrachtung wechselwirkungsfähig sind. Die Antwort der Vertreter des Standardmodells der Teilchenphysik wäre wohl, das das Neutrino nur der Schwachen Wechselwirkung und der Gravitation unterliegt, diese Antwort ist jedoch keine unabhängig begründende Antwort, da diese Annahme postuliert wird. Neutrinopostulat und die Theorie der Schwachen Wechselwirkung bedingen einander. Das Konzept der Materiewelle und dessen „Meßbarkeit“ sind im Vergleich zum Neutrinopostulat und dem daraus abgeleiteten theoriebeladenen Neutrinowirkungsquerschnitt experimentell gesichert und experimentell reproduzierbar. Was ist also aus Sicht der Impulsbetrachtung (p = m(v)·v) so fundamental anders? Antwort: (Eigentlich) NICHTS! Das SM unterscheidet zwischen, zumindest theoretisch nachweisbaren Objekten, wie beispielsweise den Neutrinos und den generell nicht nachweisbaren Quarks (Confinement-These). Eine Materiewelle, egal wie sich das Produkt aus Masse und Geschwindigkeit zusammensetzt (welche nicht der Confinement-These unterliegt), sollte experimentell nachweisbar streu- und stoßfähig sein. Weitere Details zu Neutrinos im gleichnamigen Kapitel.
Zur Erinnerung: Mit anderen Worten zum "Einprägen" von "SM-Sichten"... Im
Standardmodell existieren drei Generationen von Leptonen und Quarks, sowie
vier elektroschwach und acht stark wechselwirkende Eichbosonen und ein
skalares Boson, das Higgs-Boson. Die elektromagnetische
Wechselwirkung zwischen Leptonen und dem Photon wird mittels der
Quantenelektrodynamik (QED) beschrieben. Die Theorie der starken
Wechselwirkung ist die Quantenchromodynamik (QCD). Die Teilchen, die die
starke Wechselwirkung vermitteln, sind die acht Gluonen, diese koppeln
an die Farbladung (rot, grün, blau), die von den Quarks getragen wird.
Die schwache Wechselwirkung wird mittels der W- und Z-Bosonen
vermittelt. Das Standardmodell ist eine Quantenfeldtheorie (QFT):
Teilchen und Felder sind quantisiert und werden einheitlich und
relativistisch beschrieben. Im Jahre 1964 postulierte Murray Gell-Mann auf Grund von Argumenten zur (mathematischen) Symmetrie der SU(3)-Gruppe eine Struktur der Nukleonen, die aus drei Partonen – diesen Namen hat Richard Feynman geprägt – bestehen. Basierend auf literarischen Vorbildern wurden die Partonen von Gell-Mann als ” Quarks“ bezeichnet, nach James Joyce in” Finnegans Wake“: Three quarks for master Mark. Antiquarks haben die gleichen Massen wie Quarks, aber entgegengesetzte elektrischer Ladung und entgegengesetzte Farbladung. So hat ein Anti-u-Quark die Ladung −2/3 e und existiert in den Farbladungszuständen antirot, antiblau und antigrün. Zwischen den Quarks agieren als Feldquanten die Gluonen, die die Masse Null und den Spin eins haben sollen. Auch sie tragen Farbladungen. Gluonen sollen untereinander wechselwirken können. Die »fundamentale Lagrange-Funktion« der Quantenchromodynamik beschreibt die Wechselwirkung der Quarks. Die dabei auftretenden Felder, die mit den u- und d-Quarks gekoppelt sind, verlangen für diese beiden Quarks Massen-Werte von ca. 5 MeV/c². Diese als Stromquarks bezeichneten Größen sind jedoch nicht diejenigen, die gemeint sind, wenn der Aufbau eines Nukleons aus drei Quarks beschrieben wird. Die drei ein Nukleon bildenden Quarks sind theoriebedingt nicht isolierbar (nicht nachweisbar, Stichwort Confinement). Ihre Massen lassen sich nicht mit den oben genannten Massen der Lagrange-Funktion gleichsetzen. Man muß zur Beschreibung der Nukleonen effektive Massen einsetzen, die den Einschluss der Quarks berücksichtigen. Man nennet diese Valenz- oder Konstituenten-Quarks“. Des Weiteren wird vom SM angenommen, daß die Quarks auch mit virtuellen Quark-Anti-Quark-Paaren (Seequarks) und virtuellen Gluonen wechselwirken. Das Nukleon ist somit ein komplexes System, das sich aus drei Konstituentenquarks, einer Mesonenwolke aus Quark–Antiquark–Paaren und Gluonen zusammensetzt. Eine konsistente und quantitative Beschreibung des Nukleons im Rahmen der QCD ist nicht möglich, da aufgrund der großen Kopplungskonstante ein störungstheoretischer Potenzreihenansatz nicht konvergiert.
Fragmentierte
Beliebigkeiten Die
schwache Wechselwirkung koppelt an Leptonen und an Quarks. Bei der
schwachen Wechselwirkung unterscheidet man zwischen geladenen und
neutralen Strömen. Die geladenen Ströme unterteilt man in leptonische,
semileptonische und nichtleptonische Prozesse. Bei leptonischen
Prozessen koppelt das W-Boson nur an Leptonen, bei semileptonischen
Prozessen sowohl an Leptonen als auch an Quarks und bei
nichtleptonischen Prozessen nur an Quarks. Die Leptonzahl ist bei
Reaktionen, die über die schwache Wechselwirkung ablaufen, eine
Erhaltungsgröße. Nicht nur der β -Zerfall geschieht aufgrund der
schwachen Wechselwirkung. Auch viele Leptonen wie das Myon und einige
Hadronen zerfallen über die schwache Wechselwirkung. Bei einigen Zerfällen
der Hadronen ändert sich die Strangeness. Die Strangeness ist bei der
elektromagnetischen und bei der starken Wechselwirkung eine Erhaltungsgröße,
nicht aber bei der schwachen Wechselwirkung. So zerfällt z.B. das Kaon
über die schwache Wechselwirkung. …Cabibbo hat das down-Quark ersetzt durch eine Linearkombination aus einem down-Quark und einem strange-Quark Das
liest sich dann wie folgt: In der elektroschwachen Theorie treten zunächst
vier masselose Eichbosonen auf. Nach einer spontanen Symmetriebrechung
erhält man vier Bosonen, die sich als Mischung der masselosen Bosonen
darstellen lassen, diese sind das masselose, ungeladene Photon, das
neutrale Z-Boson und geladene W-Bosonen. Diese sind aber nicht
elementar, da sie sich als Linearkombinationen darstellen lassen. Bei
der Kollision von Protonen kann Alles oder Wenig entstehen. Eine große
Anzahl von Teilchen kann erzeugt werden. Kollisionen
können auch zu Teilchenschauern, so genannten Jets, führen, ohne Z-
und W-Teilchen oder Top-Quarks zu enthalten. Ereignisse mit W-Bosonen, Top-Quarks
oder Jets, die wie ein Signalereignis aussehen, werden als "Untergrundereignis"
bezeichnet. Das W--Boson entsteht aus der Kollision zwischen
einen Gluon und einem Down-Quark und zerfällt in ein Elektron und ein
Antineutrino. Dies ist nur einer von vielen möglichen Wegen, wie ein W--Boson
gebildet wird und wieder zerfällt. Der
Leser, allgemeiner der Interessierte, muss keineswegs wissen was eine
Symmetriebrechung, ein Eichboson, eine CKM-Mischung, Flavour,
Hyperladung oder Quarkonia ist. Denn offensichtlich werden im
Standardmodell der Teilchenphysik diverse theoretische Konzepte,
respektive deren Theorieparameter verknüpft, verschachtelt und
vermischt, so dass jedwede (experimentell resultierende) Konstellation
theoretisch erfasst werden kann. Da aber keines dieser Theoriekonzepte
eine konsistent begründete physikalische Realität abbildet, ergibt
sich auch bei geschickter „Wahl der Mittel“ kein Erkenntnisgewinn.
Es sei denn, man bewertet ein Konstrukt aus frei wählbaren
mathematischen Beliebigkeiten als geistreiche Errungenschaft. In dem
Zusammenhang sind alle angeblichen experimentellen Beweise indirekt.
Keiner der experimentellen Befunde besitzt eine eindeutige Zuordnung.
Die Detektoren registrieren in letzter Konsequenz schlicht
Strahlungsenergie oder beispielsweise Elektronen, Positronen, Protonen.
Alle dazwischenliegenden Kaskadenereignisse sind bei genauer Betrachtung
nahezu beliebig wählbar. Das
Ausleihen von Energie aus dem Nichts (Vakuum) klappt mit den Bosonen
nicht so ganz, wie man es exemplarisch am Beispiel des Neutronenzerfalls
nachprüfen kann. Nimmt man die vom SM „theoriebeladen gemessenen“
Werte für die „Ruhe-Energie“ des W- und die mittlere
Lebensdauer des W-, so ergibt sich keineswegs die
Energie-Zeit-Unschärfe, so wie es die QM nahe legt. Insgesamt
ist die Annahme, daß sich bei einem physikalischen Prozess, die
Prozessteilnehmer virtuell Energie aus dem Nichts besorgen, um damit
eine beobachtbare real-physikalische Umwandlung auslösen, ein
etabliertes Märchen. Zur Erinnerung: Märchen sind meist irreal und
brauchen nicht logisch sein. Physik sollte stets logisch und real sein.
Eine Energie-Erhaltungssatz-Verletzung ist auch dann eine
Energie-Erhaltungssatz-Verletzung, wenn die assoziierte „Leih-Zeit“
sehr klein ist. Mischungswinkel Es ist fragwürdig warum Mesonen mit unterschiedlichen Massen
als gleiche „Teilchenart“ behandelt werden. Siehe z.B. Pionen und η-Mesonen.
Mischungswinkel täuschen darüber hinweg, dass es keine Phänomenologie
zwischen den betreffenden Teilchen(konstruktionen) gibt. Siehe
exemplarisch das η-Meson (Eta-Meson). Die
geladenen Pionen zerfallen durch schwache Kernkraft und werden dabei in
Leptonen umgewandelt. Der häufigste Zerfall des positiven Pions besteht
darin, dass Up-Quark und Anti-Down-Quark in ein positives Anti-Myon und
ein Myon-Neutrino zerfallen. Überträger dieser Umwandlung ist das
positive W-Boson. Negative Pionen zerfallen durch das negative W-Boson
zu einem Myon und einem Anti-Myonen-Neutrino. Die ungeladenen Pionen
zerfallen durch die elektromagnetische Kraft etwa eine Milliarde mal
schneller. Solch ein neutrales Pion zerfällt fast immer in zwei
Photonen. Es gibt auch schwerere Mesonen, die ebenfalls aus Up- und
Down-Quarks aufgebaut sind. Diese zerfallen aber viel schneller und
erzeugen dabei wieder Pionen. Ein Beispiel für Mesonen, die auch andere
Quark enthalten sind die K-Mesonen. Dieser Alles-kann-Nichts-muß-pseudowissenschaftliche-Murks ist für einen freien Denker mit Hang zu erkenntnistheoretischer Klarheit nichts weiter als eine tragikomische Nullnummer der Erkenntnis. Erst einmal soweit zu den Alleinstellungsmerkmalen des »Asymmetrischen Märchens«. Schon die Anzahl der freien Parameter (derzeit 25!) des Standardmodells lässt den Schluss zu, daß es sich nicht um ein fundamentales Modell handelt. Die stetige Aufspaltung, Nachkorrektur und Ergänzung der „Theorie-Entitäten von gestern“ und die inkonsistente Behandlung von messbarer elektrischer Ladung, Masse und Radius führt zu einem Theoriesammelsurium. Verschiedene mathematische Grundannahmen und vermeintliche Lösungen, wie die Chirale Störungstheorie funktionieren nur für ausgesuchte Energiebereiche. Ratlosigkeit
und Phänomenologieferne werden durch virtuelle Teilchen und postulierten
Schnittstellen zwischen theoretischer Fiktion und Realphysik
„ersetzt“. Da dies nicht gelingen kann, bedarf es mit fortschreitender
Komplexität vieler freier Parameter, variabler Kopplungskonstanten und
„wilder Substrukturierung“. Aus einem Austauschteilchen (Photon)
werden schnell mal acht (Gluonen), die dann zusätzlich mit weiteren
Quantenzahlen ausgestattet werden müssen. Um die vielfältigen Zusammenhänge durchschauen und verstehen zu können, bedarf es u.a. beträchtlicher historischer Kenntnisse. Diese gehören leider seit mehreren Jahrzehnten nicht zur Schul- und Universitätsausbildung von Physikern und Mathematikern. Zentrale Fragen einfacher Anschauung werden also weder in einem historischen Kontext erörtert noch im Rahmen der herrschenden mathematischen Modelle adressiert. Es hat sich in der Theoretischen Grundlagen-Physik seit mehr als 100 Jahren eine Denkmodell-Monokultur entwickelt, die den realobjektbefreiten, angewandten mathematischen Formalismus der Quantenfeldtheorien selbst zum physikalischen Phänomen erklärt. In dieser Welt der realobjektbefreiten Wahrscheinlichkeiten und Lagrangedichten führ(t)en auch Schreibfehler zu neuen Lösungen. Übergeordnet scheint die Basisinformation verloren gegangen zu sein, daß selbst ein realobjektfreundliches, plausibles Denkmodell nicht einer objektiven Realität entspricht, sondern stets ein subjektives Abbild "verkörpert".
Large
Hadron Collider [LHC] Um
ein "Gefühl" und einen technischen Eindruck von der experimentellen
Seite des »Hoch-Energie-Physik-Problems« stark beschleunigter Teilchen zu
kommen, eignet sich exemplarisch die Online-Präsentation : LargeHadronCollider.
Relativ ausführlich und informativ werden einzelne Aspekte der
"Teilchenbeschleunigermaschine" erörtert. Als
LHC-Highlight wurde u.a. die erste 8 [TeV] Kollision im April 2012 von den
"Betreibern" gewertet. Zukünftig soll der LHC noch größere
Energien liefern können. Aktuell sollen Proton-Proton-Kollisionen mit 13
[TeV] möglich sein. ...Da
war doch was... Die Datenmenge bestehend aus aufgezeichneten
Detektorsignalen und Computersimulationen wird auf 15 Millionen Gigabyte
pro Jahr geschätzt. Die Datenmenge wäre extrem größer, wenn
nicht auf Hard- und Softwareebene ein Großteil der Messsignale bereits vor
der Verarbeitung dauerhaft verworfen würde. Die
Teilchendichten und Kollisionsraten führen zu einer Datenmenge von 1 bis 2 MB
pro Ereignis. Insgesamt resultiert aus den Kollisionen ein Informationsstrom
in der Größenordnung von 100 TB pro Sekunde. Durch ein Selektionssystem -
Trigger genannt - werden von 40 Millionen Strahlkreuzungen pro Sekunde
lediglich 200 Ereignisse pro Sekunde aufgezeichnet. Das bedeutet schlicht und
ergreifend, daß nahezu das gesamte Ereignisspektrum bewusst ausgeblendet
wird. Die Bemerkung Albert Einsteins zu Werner Heisenberg: "Die
Theorie bestimmt, was beobachtbar ist", "entfaltet"
sich somit im Standard-Betrieb eines Teilchenbeschleunigers auf
extreme Art und Weise. Diese systematisch "vorselektierten"
Messungen seit Jahrzehnten als Grundlage für die Überprüfung von
theoretischen Ansätzen „einzusetzen“, spiegelt die erkenntnistheoretische
Bedeutungslosigkeit des Standardmodells der Teilchenphysik (SM) wider,
insbesondere wenn man sich verdeutlicht, daß nur indirekt Teilchen gemessen
werden. Ein
Weg der »Denkmodell-Erweiterung« ergibt sich aus dem Wunsch die Theorie im
Sinne einer gruppentheoretischen Betrachtung „symmetrieschöner“ zu
machen. Es "entstehen" theorieinduziert, neue Teilchen, die als
projiziertes „Ereignis“ im Beschleuniger gefunden werden müssen.
Nichts leichter als das, da die Wahrscheinlichkeit dass einige der
postulierten „Kollisions-Strahlungs-Trümmerstücke“ eine entsprechende
Energie besitzen, sich zwingend aus der statistischen Verteilung
beschleunigter Ladungen ergibt, sofern im richtigen Energiebereich gesucht und
selektiert wird. Die so „gebildete“ Behauptung der
Elementarteilchenphysiker, die experimentellen „Befunde“ der
hochenergetischen Teilchenkollisionen würden hervorragend mit der Theorie des
Standardmodells zusammenpassen, ist nichts weiter als ein banaler
Zirkelschluss. Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, daß dem oft nicht so ist, insbesondere wenn es sich um (vermeintlich) wissenschaftliche Themen handelt. Alle verbreiteten Standardmodelle, insbesondere wenn diese über größere Zeiträume herrschen, beinhalten Machtpositionen und Versorgungsstrukturen. Die Machthalter und Nutznießer werden alles tun um diese Zustände aufrecht zu erhalten. Das gilt nicht nur für organisierte Weltreligionen oder politische Systeme. Pluralismus, Selbstkritik und Erkenntniswunsch sind keine Charakteristika erfolgreicher Standardmodelle. Es macht im Ergebnis keinen Unterschied ob es in diesen Systemen Wissenschaftler gibt, die wirklich voller Inbrunst an diese, an Beliebigkeiten und Widersprüchen schwer zu überbietende, "Theorien" glauben oder ob es letztendlich banale wirtschaftliche Interessen der Protagonisten gepaart mit akademischer Macht sind... Die Kompliziertheit quantenfeldtheoretischer Formalismen
erzeugt bei vielen "Kollegen" Ängste sich im Zuge einer SM-Kritik zu
blamieren. Aufklärung ist hier wichtig. Es gibt schwerwiegende
Inkonsistenzen, die sich auch perspektivisch nicht beseitigen lassen, da
sich das Konstrukt des SM gemäß eigener Postulate und
Wechselwirkungs-Thesen letztendlich mit den eigenen Widersprüchlichkeiten
zersetzt. Weder der nächste Grad der Substrukturierung noch Confinement
retten, was nicht zu retten ist. Rechenvorschriften, insbesondere wenn diese
von komplexer Gestalt sind, ersetzen keine fehlende Phänomenologie.
Die innerhalb der Quantenmechanik (QM) und daraus folgend innerhalb der
Quantenfeldtheorien (QFTs) verwendete, teils neu definierte Mathematik
(Stichworte: Störungstheorie, Regularisierung, Renormierung), ist phänomenologisch
unbegründet. Sie ist zwar formal(-axiomatisch) deutlich komplexer und
schwieriger verständlich als die bloße Erkenntnis, daß beispielsweise
Energie-Niveaus in Abhängigkeit der Hauptquantenzahl n mit 1/((n²-(n+1)²)
"quantisiert" sind, kommt aber über den Status einer
Rechenvorschrift nicht hinaus. Zudem gibt es im Rahmen der Störungstheorie
keine formal-analytischen Lösungen. Wenn also Quantenelektrodynamik
(QED) basierend von einer hervorragenden Übereinstimmung von Theorie
und Experiment berichtet wird, dann handelt es sich um gigantische Lösungssysteme,
dessen iterative Ergebnisse den Versuchs-Ergebnissen angepasst wurden. Die
einen sagen es nicht, die anderen durchschauen es nicht. Virtuelle
Theorie-Objekte sind Ergebnis orientierte Platzhalter für fehlendes
Wissen und erkenntnistheoretisch wertlos. Eine Anregung: Die Suggestion einer
realmessbaren Situation für Theorieobjekte der Standardmodelle scheint
mantramäßig auf „die Masse(n)“ zu wirken. Um hier eine selbständige
Analyse vornehmen zu können, sollten Aussagen selbständig überprüft
werden: Ob Neutrino, Higgs-Boson oder denken sie sich ein beliebiges
Teilchen aus dem Beschleuniger aus, keines ist zeitstabil, keines wurde
je direkt gemessen. Umso tiefer sie in die konkrete Konzeption und die
technische Realisation des Messvorganges „eindringen“ werden, umso
deutlicher wird verständlich, wie theoriebeladen, beliebig und
aussagelos die Experimente sind. Glauben sie nicht einfach an die
Existenz, prüfen sie selbst die messtechnischen Randbedingungen sowie
theoretischen „Implikationen“ die die angeblichen Existenzbeweise
liefern. Der nicht vorhandene Spin der Quarks und Gluonen Die erste Annahme war, daß im Bild des SM der postulierte Protonenspin sich zu 100% aus den Spinanteilen der Quarks zusammensetzt. Dies wurde viele Jahre nach der ersten Annahme 1988 bei den EMC-Experimenten nicht bestätigt. Entgegen aller Annahmen wurden damals sehr viel kleinere, sogar mit Null verträgliche Anteile gemessen ( ∆∑ = 0.12 ± 0.17 European Muon Collaboration). Diese Entdeckung war so unerwartet, daß eine Zeit lang von einer Spin-Krise gesprochen wurde. Aber auch die zweite Annahme, daß die ins Leben gerufenen Gluonen zum Protonenspin beitragen, ergaben nicht das gewünschte Ergebnis. In der dritten, derzeit aktuellen Theorie-Fassung sollen nun die Quarks, Gluonen und deren dynamisch-relativistische Bahndrehimpulse im Ergebnis fein säuberlich den Protonenspin ausmachen : Wie ein postuliert masseloses, nichtreales Theorieobjekt, sprich Gluon, einen "suggestiven" Bahndrehimpuls generiert, soll ruhig Geheimnis des SM bleiben (psst). Bei genauer Betrachtung besitzt diese 2.Nachkorrektur den Vorteil, daß das Ergebnis im Rahmen der Gitter-Eichfeld-Theorie und hübschen neuen Konstrukten, namens "Pionenwolken", rein algorithmisch in Großrechner-Anlagen "errechnet" wird. Es wird also solange "kombiniert", bis das gewünschte Ergebnis vorliegt. Diese Leute sind so überzeugt von ihren Taten, daß sie das Wesentliche offensichtlich aus den Augen verloren haben. Wieso sollte die Natur eine komplexe Mehrobjekt asymmetrisch, ladungsfragmentierte, dynamische Substruktur schaffen, die nur im statistischen Mittel das Gleiche liefert, wie das postuliert punktverarmte, "leptonische" Elektron, daß ohne "Mühe" und Struktur, sowohl einen "diskreten" halbzahligen Spin als auch eine betragsmäßig gleiche Ladung liefert? Auch die stark unterschiedlichen Quark-Massen (die letztendlich in der Summe nur ein Prozent der Protonenmasse ausmachen !?!) sowie die -1/3- bzw. +2/3-Zerstückelung der Elementarladung bestätigen die brachiale Methodik die zur Anwendung kommt, um die vorhandene Theorie um jeden Preis zu erhalten, oder wie es Georg Wilhelm Friedrich Hegel formulierte, „um so schlimmer für die Tatsachen, wenn sie nicht meiner Philosophie (Theorie) entsprechen". Rhetorische Frage? Wie kann der Higgs-Mechanismus, respektive das Higgs-Boson Masse erklären, wenn die "Higgs-Feld-basierenden" Quarks nur ein Prozent der Protonenmasse ausmachen? "Grössenähnliches" gilt für das SM postuliert Quarks basierende Neutron. Auch hier besteht die Masse fast gänzlich aus Bindungsenergie. Die Frage müsste eigentlich lauten, warum lassen sich Wissenschaftler mit solch plumpen Beliebigkeitsaussagen abspeisen? Oder: Was ist aus wissenschaftlichen Standards geworden? Der quantenmechanische Spin steht in Zusammenhang mit der elektrischen Ladung. Warum sollten Elektronen und Positronen mit "ganzer" Elementarladung die gleiche Spinquantenzahl besitzen, wie ladungsfragmentierte Quarks? Zur Erinnerung: Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die postuliert quarks-basierenden physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Postuliert „Strukturlose“, wie das Elektron, sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "weitere 5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen". Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. Religiosität und Psychologie kommen mit dem Theoretiker als Mensch mit ins "Spiel".
[Anomale] Magnetische Momente Wenn man von dem experimentellen Wert des magnetischen Momentes des Protons den "theoretischen" Erwartungswert (Gleichung [μintm]) subtrahiert und diese Differenz mit dem experimentellen Wert des magnetischen Moments des Elektrons minus den theoretischen Wert des magnetischen Moments des Elektrons vergleicht, stellt man fest, daß diese "größenordnungs-ähnlich" (1/1.18) sind.
∆μBp = 1,4106067873e-26 J/T - 5,0507836982111e-27 J/T = 9,0552841747889e-27 J/T ∆μBe = 9,284764620e-24 J/T - 9,27400999205404e-24J/T = 1,075462794596e-26 J/T 1,18766321833414 = ∆μBe / ∆μBp
Mit anderen Worten: Verkörpert man das magnetische Feld in einer "energetischen Analogie" so resultieren das messtechnisch erfasste magnetische Moment des Protons und des Elektrons aus der jeweiligen energetischen Überlagerung mit dem Magnetfeld. Das Magnetfeld selbst als „Energiegeber“ ist in Wechselwirkung mit Elektron und Proton und liefert einen "teilchenspezifischen" Beitrag in der Größenordnung von 1e-26 Joule/Tesla zum gemessenen magnetischen Moment. Diese Annahme wird bestens formal bestätigt, wie explizit gezeigt wird. Gibt es, neben dem offensichtlich plausiblen Argument, das man nicht einfach den Energiebeitrag des Magnetfeldes ignorieren kann (so wie in der QM, QED und QCD üblich), noch weitere Anhaltspunkte für einen additiven Beitrag zum magnetischen Moment der Testkörper ? Ja, den gibt es. Es ist das magnetische Moment des elektrisch ungeladenen Neutrons, welches im Rahmen der semiklassischen Betrachtung nicht existiert und im Rahmen der postulierten Neutron-Quarks-(Sub-)Struktur auf diese zurückzuführen ist. Nur ist das magnetische Moment des Neutrons wirklich ein Beweis für eine Substruktur? Oder ist es viel mehr nur eine theoriebeladene Messwert-Interpretation des Standardmodells? Ein Blick auf die "nackten" Zahlen bestätigt die These, daß das magnetische Moment des elektrisch neutralen Neutrons ausschließlich aus dem Magnetfeldbeitrag resultiert, den das Neutron im (angelegten) Magnetfeld induziert. Denn obwohl die Massenwerte von Elektron zu Neutron/Proton stark unterschiedlich sind ( Faktor ~ 1840 ), sowie die Gesamtwerte ( 658,2107 ~ μBe(exp) / μBp(exp) und 960,9205 ~ μBe(exp) / μBn(exp) ), so sind die additiven Magnetfeld-Beitrags-Unterschiede nur im Bereich von 1.07 - 1.19 ! Mit anderen Worten: Die elementarkörperbasierende denkmodell-analytische „Bestandsaufnahme“ ist in sehr guter Übereinstimmung mit dem gemessenen magnetischen Moment des Neutrons. Ergebnis: Das neutrale Neutron besitzt kein eigenes magnetisches Moment, so wie es im Rahmen semiklassischer und elementarkörper-basierender Grundlage für ungeladene Objekte gilt:
∆μBn = μBn(exp) - μBn(th) 9,6623650e-27 J/Tesla - 0 J/Tesla μBn(exp)
= ∆μBn
= 9,6623650e-27 J/Tesla - 0
J/Tesla =
9,6623650e-27 J/Tesla
Konsistente Annahme: Der gemessene Wert μBn(exp) = ∆μBn ~ 9,66237e-27 J/Tesla ist „nichts weiter“ als der messungsinhärente Beitrag des Magnetfeldes, den das Neutron, welches gemäß Elementarkörper basierender materiebildender Ladungswechselwirkung aus Elektron und Proton entstanden ist, im Magnetfeld „ induziert“. "Beweis"-Führung: Wenn die Annahme zutrifft, dann muß sich das magnetische Moment des Neutrons (μBn(exp) = ∆μBn) aus den messungsinhärenten Magnetfeldbeiträgen von Elektron und Proton (∆μBe und ∆μBp) berechnen lassen. Eine "einfache" Möglichkeit die drei Größen ∆μBn, ∆μBe und ∆μBp ohne explizite Kenntnis der Magnetfeldverkörperung zu verbinden ist : (∆μBn)² mit ∆μBe · ∆μBp gleichzusetzen. Hier gilt zu berücksichtigen, daß das Neutron aus der q0-Elektron und e-Proton Ladungswechselwirkung zusammengesetzt ist. (Details siehe die Kapitel Ladungsabhängige Materiebildung und Neutron) Das lässt sich durch den Faktor 1 + (e/q0) = 1 + (√α/2) ausdrücken. Das resultierende - konsistent phänomenologisch begründete - Ergebnis [μn] sollte Alle aufhorchen lassen.
∆μBp ~ ∆μBn ~ ∆μBe [ ! ] 9,055284175e-27 ~ 9,6623650e-27 ~ 1,075462794596e-26 1 : 1,06704161 : 1,18766322 : additive [Joule/Tesla] - Magnet - Beiträge für Proton, Neutron und Elektron stammen aus dem "Feld" selbst.
Vorliegende experimentell gestützte Analyse demontiert die Annahme substrukturierter Protonen und Neutronen.
An dieser Stelle sei daran erinnert, daß sich die Neutronen(-Ruhe-)masse mn als masse-radius-gekoppelte Größe aus der ladungsabhängigen, materiebildenden Proton-Elektron-Wechselwirkung berechnen lässt. Die phänomenologischen Details die zur der Berechnung führen, sprengen hier - im Hinblick auf die weiteren Betrachtungen zu den magnetischen Momenten der Elementarkörper Elektron und Proton - den Rahmen bzw. verschieben den Fokus auf die Proton-Elektron-Überlagerungsstruktur des Neutrons. (Details zur ladungsabhängigen Materiebildung finden sich im gleichnamigen Kapitel).
Ein kleiner Ausflug in die QED-Welt der leptonischen magnetischen Momente von Elektron, Myon und Tauon Man unterscheidet massenabhängige und massenunabhängige (universelle) Beiträge zum anomalen magnetischen Moment.
Universelle Beiträge sind Beiträge
von Feynman-Diagrammen höherer Ordnung mit zusätzlichen virtuellen
Photonen. Massenabhängige Beiträge treten erst ab 2.Ordnung
(2-Schleifen) auf, da erst ab 2.Ordnung geschlossene Fermionenschleifen
auftreten können, deren Beitrag von der Masse der virtuellen Fermionen
abhängt. Wenn die virtuellen Teilchen in den Fermionenschleifen und das
äußere Lepton gleich sind, zählt man diese Beiträge auch zu den
universellen Beiträgen. Zu den massenabhängigen Beiträgen der QED zu
ae tragen Leptonenschleifen mit virtuellen Myonen und Tauonen
bei. Zu aµ tragen Leptonenschleifen mit virtuellen
Elektronen und Tauonen bei. Wenn man alle bekannten Wechselwirkungen des
Standardmodells berücksichtigt (QED, QCD, Elektroschwache Theorie)
liefern alle Teilchen des Standardmodells über interne Schleifen Beiträge
zum magnetischen Moment von Leptonen. Um die gleiche Genauigkeit in der theoretischen Berechnung zu erreichen wie in der experimentellen Bestimmung, muss man derzeit die Terme bis zur 5.Ordnung berechnen. Beiträge höherer Ordnungen wurden bisher noch nicht berechnet. Zur Berechnung wurde der Wert der Feinstrukturkonstante aus Experimenten mit Atominterferometrie α -1 (87Rb) = 137, 035 999 049 (90) verwendet. In
alle störungstheoretischen Berechnungen der anomalen (leptonischen)
magnetischen Momente geht die Sommerfeldsche Feinstrukturkonstante α
ein. Den genausten Wert erhält man über das anomale magnetische Moment
des Elektrons. Um die gleiche Genauigkeit in der theoretischen Berechnung
zu erreichen wie in der experimentellen Bestimmung, muss man derzeit die
Terme bis zur 5.Ordnung berechnen. Beiträge höherer Ordnungen wurden
bisher noch nicht berechnet. Zur Berechnung wurde der Wert der
Feinstrukturkonstante aus Experimenten mit Atominterferometrie α -1
( 87Rb) = 137, 035 999 049 (90) verwendet. 1Observing light-by-light
scattering at the Large Hadron Collider 2016
Es ist auffällig und nicht erklärbar, warum die Beiträge in Abhängigkeit der Ordnung n ± alternieren.
Hadronische
Beiträge
Ab Feynman-Diagrammen mit 2-Schleifen liefert neben der QED auch die Quantenchromodynamik Beiträge zum anomalen magnetischen Moment al. Der führende Beitrag (”leading order“ = LO) der hadronischen Vakuumpolarisation zum anomalen magnetischen Moment des Elektrons ae und des Myons aµ beträgt: Der Beitrag des hadronischen ”Light-by-Light-Scattering“ zum anomalen magnetischen Moment des Elektrons ae und des Myons aµ beträgt: Neben
der QED und der QCD trägt auch die elektroschwache
Wechselwirkung zum anomalen magnetischen Moment der Leptonen bei. [Quelle und weitere detaillierte Ausführungen]
Am Beispiel der magnetischen Momente wird deutlich, wie fatal sich falsche (Substruktur-)Annahmen auf die Entwicklung der Grundlagen-Physik auswirk(t)en. Im Ergebnis ist das SM am Ende und wir stehen wieder am Anfang. Es galt und gilt die Phänomenologie und Wechselwirkung des „Feldes“ denkmodell-plausibel zu gestalten, bevor eine Formalisierung erfolgt.
Es
geht noch deutlich beliebiger, siehe exemplarisch Frank Anthony
Wilczek’s Axionen, die er nach einem Waschmittel benannte, und
die „Axionen-erzeugende“ Peccei-Quinn-Weinberg-Wilczek-Theorie (http://www.physik.uzh.ch/lectures/astro/10/vorlesung/Schumann_Axions.pdf
) Am Rande bemerkt: 1973 führte Frank Wilczek
zusammen mit David Gross die Asymptotische Freiheit ein. Diese besagt,
daß die Starke Wechselwirkung zwischen Quarks umso schwächer ist, je näher
diese beieinander sind. Falls zwei Quarks extrem nah zusammen sind, ist
die Wechselwirkung so schwach, daß sie sich nahe zu wie „freie
Teilchen“ verhalten. Die Asymptotische Freiheit wurde auch von David
Politzer „entdeckt“. Alle drei bekamen dafür 2004 den Nobelpreis.
Das
Tauon (τ-Lepton) ist das schwerste der drei geladenen Leptonen des Standardmodells der
Elementarteilchen. Seine Masse beträgt ~ 1777 MeV/c2, die
Lebenszeit ~ 2,906 ± 0,010 · 10−13 s.
SCHMERZBEFREIT Wie "schmerzbefreit" SM-Protagonisten sind, wird auch an den angeblich experimentell nachgewiesenen so genannten Delta-Baryonen überdeutlich. Es erübrigt sich die Bemerkung, daß es, wie könnte es auch anders sein, keine direkten Delta-Baryonen-Nachweise gibt. Es existieren gemäß SM vier verschiedene Δ-Baryonen mit Spin3/2 und folgenden Ladungsmöglichkeiten: Δ++, Δ+, Δ0, Δ−. Die asymmetrisch gestückelten Quarks-Ladungen bilden in Form der Δ++ also Ladungsträger mit zweifacher Elementarladung. Weitere SM-Aussage: ..." Δ+ und Δ0 besitzen denselben Quarkinhalt wie die Nukleonen Proton und Neutron und können deshalb als deren Spinanregung aufgefasst werden."...Übersetzt in die reale Welt heißt das soviel wie: Wissenschaft ist das, worauf man sich geeinigt hat... anything goes.
Die an sich schon erkenntnistheoretisch aussichtslose Beliebigkeits-Situation des Standardmodells wird noch sinnfreier, wenn man sich anschaut, wie im Rahmen der Quantenelektrodynamik (QED) die elektrische Ladung "verstanden" wird. Postulat der QED: Das Elektron ist von einer „Wolke“ aus virtuellen Photonen und virtuellen Elektron-Positron-Paaren umgeben. Was man als Elektronenladung gemäß QED mißt, ist die abgeschirmte Ladung. Die Ladung eines nackten Elektrons (d.h. eines Elektrons ohne Vakuumpolarisationswolke) wird QED basierend als unendlich berechnet. Erst die Subtraktion der gleichfalls unendlichen Ladung der abschirmenden Wolke ergibt die gemessene elektrische Elementar-Ladung. Am Rande bemerkt: Im Rahmen der Mathematik der QFT hat (schon) das Vakuum eine unendlich große Ladung (die wieder verschwinden muß und "Theorie sei dank, wieder verschwindet").
Da die QED ein "Vorbild" für die Quantenchromodynamik (QCD) war (ist), drängt sich zur Ausgestaltung der Verwirrung die Frage auf, was im Standardmodell der Teilchenphysik denn nun als punktförmig, respektive strukturlos verstanden wird. Ist ein Elektron umgeben von virtuellen Photonen und virtuellen Elektron-Positronen-Paaren punktförmig und ohne Struktur? Man könnte, nein man muß im guten Glauben an minimalistische Wissenschaftsstandards zu der Erkenntnis kommen, daß SM-Physiker nicht wissen, wie die elektrische Ladung QED basierend "verstanden" wird, denn "alles andere" führt erkenntnistheoretisch geradlinig in eine pathologische Situation. Denn losgelöst von der Tatsache, daß dieses mathematische moderne QFT-Theater insgesamt haltlos ist, ist ein Konstrukt aus Theorieobjekten (virtuelle was auch immer...) und einer realphysikalisch vorhandenen Masse und realphysikalisch meßbaren Ladung weder Punkt noch strukturlos! Ohne das hier durchzuexerzieren gilt „Ähnliches“ für den gleichen Spin von Elektron und Proton. Nur soviel an dieser Stelle: Der postulierte, quantenmechanisch Theorie beladene Spin wurde noch nie gemessen, die Theoriegrösse Spin ist keine Meßgrösse. Gemessen wird stets ein magnetisches Moment. Das magnetische Moment lässt sich auf die Grössen elektrische Ladung und Masse zurückführen. Was sie auch immer mit welchen auch immer postulierten Theorieobjekten treiben - und wenn sie sich im Gedankenexperiment selbst in Pionenwolken-Konstrukte setzen und die Steuerung übernehmen - daß Einzige was sie im Angesicht der unüberwindbaren Kluft zwischen SM-postulierter Substruktur und SM-postulierter leptonischer Strukturlosigkeit finden werden, ist vorprogrammiertes erkenntnistheoretisches "Versagen", es sei denn, "ihnen" geht ein Licht auf und sie verabschieden sich von parametrischen Glaubensbekenntnissen. Der "Sprung" von der Quantenelektrodynamik (QED) mit der Sommerfeldschen Feinstrukturkonstanten als „kleine“ Kopplungskonstante (k ~1/137) der Störungstheorie zur Quantenchromodynamik (QCD) mit k~1 erfolgt mittels der „Idee der Asymptotischen Freiheit“. Es wird „bequemerweise“ postuliert, daß die wachsende Energie kleinerer Abstände auch die Kopplungskonstante verkleinert. Auch hier wird Ergebnis orientiert theoretisch postuliert und ein beabsichtigtes „Ereignis“ konstruiert. Im Rahmen von 25 freien Parametern, wenn nötig neuen Quantenzahlen und wählbarem Substrukturierungsgrad kein Problem. Die Frage was experimentell überhaupt gemessen wird, erschließt sich nicht einer Quantenfeldtheorie freien Bewertung. Das
bedeutet (zumindest für den Erkenntnistheoretiker mit Anspruch auf
wissenschaftliche Standards): Eine Theorie, die bereits auf formal
logischer Ebene in sich widersprüchlich ist, braucht im Grunde nicht
empirisch überprüft zu werden, da aus einer falschen Annahme jede
beliebige Aussage folgt und damit die Theorie unwiderlegbar bzw. mit
jeder Beobachtung vereinbar ist. An diesen Beispielen wird klar, daß realphysikalisch orientierte Alternativ-Denkmodelle niemals von Quantenfeldtheoretikern geduldet werden können, da diese das gesamte quantenmechanisch-mathematische Denkgebäude der letzten 100 Jahre zerstören und Gegenwarts- sowie Zukunfts-Perspektive der Quantenfeldtheorien auslöschen. Mit „umgangssprachlichen“ Worten: Die „schlichte“ Realität das weltliche Objekte Masse besitzen und Raum ausfüllen wird im Denkmodell der Modernen Grundlagenphysik mikroskopischer Dimensionen programmatisch verdrängt, damit Egozentrik und Axiomatik der herrschenden Systemphysiker erhalten bleiben. Die Epizykeltheorie lässt grüssen. Physikalisch wäre es interessant zu wissen, wie denn nun die elementaren Punkt-Objekte der Quantenfeldtheorien zu dem werden, was im realphysikalischen Alltag (erlebbar) existent ist. Hier stellt sich für besonders Neugierige im Sinne massenpsychologischer Konzepte (…siehe u.a. Die Psychologie der Masse, Gustave Le Bon…) grenzüberschreitend die Frage, ob man Quantenfeldtheoretiker neurologisch untersuchen lassen sollte? Das grundsätzliche Problem steckt omnipräsent in dem "Umstand", daß alle Theorie-Parameter und meßtechnisch erfassbaren Grössen im Rahmen der Quantenfeldtheorien sekundäre Begriffe "verkörpern". Mathematische Zeichen sind sekundäre Begriffe und stehen nur für sich selbst und bekommen erst durch ihr Vorkommen in Definitionen, Axiomen, Postulaten,... eine Bedeutung. Wenn man ein Wort oft hört oder liest, es aber nicht gelingt, das Wort mit einem primären Begriff zu verknüpfen, übernimmt leicht der sekundäre Begriff die Funktion des primären. Das Wort steht dann für einen Begriff, der nur für sich selbst steht. Man entwickelt ein Gefühl für den Begriff und glaubt ihn schließlich zu verstehen. Masse und elektrische Ladung sind "prominente" unverstandene sekundärere Begriffe. Felder, Photonen, erst recht virtuelle Photonen und virtuelle Elektronen-Positronen-Paare und weitere "sekundär-artverwandte", postulierte Theorieobjekte machen offensichtlich jeden mathematischen Nonsens mit. Für heutige Theoretiker scheint die Welt der Mathematik identisch mit dem Erkenntnishorizont des Menschen zu sein. Moderner Mathematik wird mit festem Glauben eine konstruktive Komponente zugeschrieben. Die neuen Glaubensbekenntnisse haben offensichtlich eine enorme Strahlkraft, obwohl die ihr zu Grunde liegenden Ideen allesamt irrational sind. Heutige Experimente zur Erweiterung des Standardmodells der Teilchenphysik verraten schon durch die Namensgebung »Supersymmetrie« (SUSY) welch Geistes Kind ihnen inne wohnt. Ohne das an dieser Stelle weiter auszuführen, zeichnet sich schon „jetzt“ vordergründig ab, daß das den Experimenten am LHC zu Grunde liegende theoretische Modell durch »formalistische Machenschaften« jedwede Abweichung vom theoretischen Erwartungswert zu kompensieren vermag. Sei es durch weitere Quantenzahlen, mittels neuer Theoriegrössen, durch beliebiges Weglassen von - als unphysikalisch bezeichneten (stets mathematisch generierten) - Theoriegrössen, variablen Kopplungskonstanten, einer Vielzahl freier Parameter, wenn nötig bzw. gewünscht neuen Wechselwirkungsmechanismen und postulierten asymmetrischen Substrukturierungen. (Moderne) Wissenschaft ist dann aber nichts weiter, als etwas, worauf man sich geeinigt hat.
Tatsache ist: Wir verfügen über keine
allgemein anerkannte Wahrheitstheorie. Die Übereinstimmung von Aussage
und Wirklichkeit kann nicht objektiv festgestellt werden. Dieser
Sachverhalt wird insbesondere dann problematisch, wenn – wie im Fall
des SM - die Theorie bestimmt, was gemessen werden soll. Zum Mitdenken:
Eine Theorie, die bereits auf formal logischer Ebene in sich
widersprüchlich ist, braucht im Grunde nicht empirisch überprüft zu
werden, da aus einer falschen Annahme jede beliebige Aussage folgt und
damit die Theorie unwiderlegbar bzw. mit jeder Beobachtung vereinbar
ist.
Auf Grund einer ganzen Reihe von (theorieinduzierten) Widersprüchen und Inkonsistenzen, die selbst von SM-Gläubigen anerkannt werden, wünschen die SM-Aktivisten, daß mathematische Erweiterungen „Abhilfe“ schaffen. Die angestrebte theoretische Zukunft der Standardmodellphysiker ist die Supersymmetrie (SUSY) aber: …
the discovery of the Higgs boson is a nightmare scenario for
everything else, including supersymmetry, extra dimensions, and
string theory. Because finding the standard model Higgs at this energy
means that there’s no need for any of those things. A Higgs at 125 GeV
and nothing else at the LHC, totally consistent with the standard model,
mean that if supersymmetry exists, it needs to be at such a high energy
that it no longer solves the problem it was designed to solve!...
SUSY Supersymmetrie (verniedlichend und „cute“ SUSY genannt) bedeutet bei schlichter Betrachtung u.a. die Aufhebung der theorieinduzierten Trennung von Fermionen und Bosonen. Des Weiteren fordert SUSY eine Substrukturierung der postuliert „Strukturlosen“, derzeit als Leptonen bekannt. Standardmodelltheoretiker und deren Anhänger scheinen, berauscht von ihren Fantasien, nicht zu verstehen, daß das „SUSY-Konzept der Vereinigung“ das (noch) bestehende Standardmodell der Teilchenphysik (SM) nicht, wie gewünscht, konstruktiv erweitert sondern demontiert. Die unvermeidliche SUSY-inhärente Anzahl-Aufblähung freier Parameter garantiert Vollbeschäftigung. Mathematikgläubig liest sich das ungefähr so... Supersymmetrische
Theorien Unter einer Supersymmetrie versteht man eine verallgemeinerte Raum-Zeit-Symmetrie, die eine Transformation zwischen Bosonen und Fermionen beschreibt. Nach dem Coleman-Mandula-Theorem ist dies die einzige Klasse von Symmetrien der S-Matrix, die neben den Raum-Zeit-Symmetrien und den durch halbeinfache Lie-Gruppen beschriebene Eichsymmetrien noch denkbar ist. Wenn die Natur exakt supersymmetrisch wäre, so müssten die durch eine supersymmetrische Transformation verbundenen Bosonen und Fermionen in der Masse entartet sein. Die beobachteten Bosonen und Fermionen zeigen eine solche Massenentartung jedoch nicht, so daß die Supersymmetrie gebrochen sein muß und allenfalls eine näherungsweise Symmetrie der Natur sein kann. Ein phänomenologisch zulässiges supersymmetrisches Modell der Teilchenphysik ist durch die minimale supersymmetrische Erweiterung des Standardmodells (MSSM) gegeben. Die Brechung der Eichsymmetrie beruht in diesem Modell, wie bei dem Standardmodell, auf dem Higgs-Mechanismus, so daß alle Aussagen zum Massenproblem im Standardmodell prinzipiell zunächst auch für das MSSM gelten. Als zusätzliches Problem taucht im MSSM die Frage auf, wie die Supersymmetrie gebrochen wird. Aufgrund dieser ungelösten Frage kommen zu den 25 freien Parametern des Standardmodells im MSSM weitere 106 freie Parameter hinzu, die überwiegend die Massen und die Mischungswinkel der Superpartner beschreiben. Ohne weitere Annahmen erlaubt die Supersymmetrie keinerlei tiefergehendes Verständnis der Fermionmassen. Unter der Voraussetzung, daß die Supersymmetrie unterhalb einer Skala von etwa 1 TeV gebrochen wird, läßt sich jedoch eine Obergrenze von ca. 130 GeV für das leichteste Higgs-Boson ableiten. Dunkle
Materie Die Annahme der Existenz von dunkler Materie stellt das
Standardmodell vor ein unlösbares Problem. Keines der
„Standardmodellteilchen“, auch nicht das Neutrino, ist ein
geeigneter Kandidat für dunkle Materie. In der Supersymmetrie hingegen
kommt das Neutralino, der Superpartner der neutralen Eich- und
Higgsbosonen, in Betracht. Zwei
Higgsdubletts Das Higgs-Boson muss also auch im MSSM explizit eingeführt
werden. Wie die anderen Teilchen erhält es einen Superpartner, das
Higgsino. Allerdings führt die Existenz von nur einem Higgsdublett und
seinem Higgsino zu einer Eichanomalie im elektroschwachen Sektor. Dies
kann durch die Einführung zweier Higgsdubletts und dazugehörigen
Higgsinos behoben werden. Ein weiterer Grund für die Existenz von
mindestens zwei Higgsdubletts im MSSM sind die Yukawakopplungen, die aus
den trilinearen Termen des Superpotentials stammen. Brechung
der Supersymmetrie Da man keine gleichschweren Superpartnerpaare in der Natur
beobachtet, müssen die Superpartner der Standardmodellteilchen
wesentlich höhere Massen haben. Eine Brechung der Supersymmetrie ist
demnach erforderlich. Aus theoretischer Sicht wäre eine spontane
Brechung durch ein asymmetrisches Vakuum wünschenswert, denn so könnte
die Lagrangedichte des MSSM weiterhin invariant unter
Supersymmetrietransformationen bleiben. Um das Natürlichkeitskriterium
der Superpartnermassen zu erfüllen, müsste eine solche Brechung bei
der Energieskala der Symmetriebrechung der schwachen Wechselwirkung
stattfinden. Dies ist allerdings phänomenologisch ausgeschlossen. Die
Supersymmetrie wird daher durch explizite Terme in der Lagrangedichte
gebrochen. Um die Natürlichkeit zu gewährleisten, dürfen durch die
Brechung keine quadratischen Divergenzen in den Strahlungskorrekturen
der Superpartnermassen auftreten. Man spricht von einer sanften
Brechung. Teilcheninhalt
und Masseneigenzustände Die gegenüber dem Standardmodell hinzugekommenen Teilchen
verdienen eine genauere Betrachtung, vor allem hinsichtlich ihrer
Massen. So liefert die Verdopplung der Higgsdubletts weitere skalare
Moden, die zu massiven Higgsbosonen mischen. Ähnliche Mischungen treten
bei den Superpartnern der Higgs- und Eichbosonen und denen der Fermionen
auf. Wie die Eichbosonen der SU(2)L und U(1)Y
mischen auch die dazugehörigen Gauginos dank der elektroschwache
Symmetriebrechung zu Eigenzuständen der elektrischen Ladung. Die
geladenen Winos bilden mit den zwei geladenen Higgsinos gemischte
Masseneigenzustände.
An dieser Stelle sparen wir uns weitere Märchen zu Neutralinos, Sfermionen, usw. und zitieren Theodor Fontane,
Experimente sollen Symmetrien, nein müssen perspektivisch Supersymmetrien genügen. Neue zeitinstabile Super-Partner-Teilchen, die nie als solche, so wie ihre Vorgänger, direkt messbar sein werden, kommen eines Tages nach monatelangen Berechnungen mittels Super-Cluster-Rechnern als Teilchenbeschleuniger-Geburten aus vorselektierten Zerfallskanälen. Das große erkenntnistheoretische ABER Werden die richtigen Fragen gestellt, erweist sich der reine mathematische Formalismus als Nullnummer der Erkenntnis. Selbst einfachste Sachverhalte stellen im Rahmen der herrschenden modernen Physik (nach wie vor) unlösbare Denk-Konstrukte dar. Beispiel: Ob elektrisches oder magnetisches Feld, das Gleichsetzen elektromagnetischer Grössen mit (mechanischer) Masse ist im Rahmen der "Modernen Physik" sinnfrei. Das Gleichsetzen einer elektrischen Zentripetalkraft mit einer (nur) masse-abhängigen Zentrifugalkraft ist mathematisch unproblematisch aber im Rahmen der hiesigen Physik phänomenologisch vollkommen unbegründet und erinnert, wie so oft, an die Epizykeltheorie. Assoziierte mathematische Gleichungen sagen auch nichts über den Grad der Näherung im Hinblick auf die real gemessenen Wechselwirkungs-Energien. Die zentrale Frage lautet: Wie wechselwirkt eine Masse, phänomenologisch anschaulich begründet, mit einer elektrischen Ladung? Das „reine“ mathematische Gleichsetzen von massebehafteter und elektrischer Kraft beinhaltet keine Information über die Phänomenologie. Hier liefert das Denkmodell der Elementarkörpertheorie eines stets inhärent massegekoppelten Raumes anschauliche, phänomenologisch begründete Lösungen, die rechnerisch aus einfachen formal-analytischen Gleichungen bestehen.
Masse-Radius gekoppelter realphysikalischer Vorgeschmack
Zur Erinnerung: Was ist eine physikalische Gleichung? Eine physikalische Gleichung besteht aus maßgebenden Größen (Ladung, Masse, Radius,...), möglicherweise Naturkonstanten, Koeffizienten und Rechenvorschriften. Der Sinn einer physikalischen Gleichung besteht darin, in Abhängigkeit der vorkommenden Gleichungsbestandteile eine qualitative und quantitative Aussage zu treffen. Begriff der elektrischen Ladung Elektrische Ladung ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse und dem Radius des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Das ist aber nicht der Fall. Elektrische Ladung ist "nichts weiter" als eine (skalierte) Masse-Radius-Funktion. Der Irrglaube über die (unbekannte) Natur der elektrischen Ladung bzw. Spekulationen über diese beruhen auf den historischen Denkmodell-Entwicklungen. Elementarkörpertheorie basierend sind alle Ladungswechselwirkungen auf Masse-Radius-Kopplungen zurückzuführen. Im cgs-System (Zentimeter, Gramm, Sekunde) ist die elektrische Ladung "gleich" als Wurzel aus dem Produkt aus m0r0c² definiert. Hier ist natürlich zu beachten, daß alle verwendeten Größen in Zentimeter, Gramm und Sekunde richtig dimensioniert werden (müssen).
Sommerfeldsche Feinstrukturkonstante Konsequenterweise wird die Feinstrukturkonstante α Elementarkörpertheorie basierend energetisch bestimmt. Sie ergibt sich aus dem Vergleich von Gesamt-Energie (Elementarkörperladung q0 als (Funktion des) Radius-Masse-Äquivalent) und elektrischer Energie mittels der elektrischen Elementarladung e. Hier ist zu bemerken, daß quantitativ nicht α sondern α/4 das "Maß der Dinge" ist.
Vergleich: Elementarkörpertheorie und "herrschende Physik" und "Herkunft/Bedeutung" der Sommerfeldschen Feinstrukturkonstanten α f7 wurde eingeführt, um suggestiv zu verdeutlichen, daß es sich bei der [Elementarkörper-]Ladung ("nur") um eine skalierte Masse-Radius-Funktion handelt. Banalerweise ist f7 auch numerisch (1·107) einfacher zu merken als der Wert der Dielektrizitätskonstanten. Die Frage nach der Herkunft und Bedeutung der Sommerfeldschen Feinstrukturkonstanten führt zur elektrischen Elementarladung. α ist somit nur eine sekundäre Grösse, die aus der elektrischen Elementarladung "entstammt".
Was ist Masse? In der Elementarkörpertheorie ist die Ruhe-Masse m0 ein Maß für die Oszillationsfrequenz des Elementarkörpers. Die radius-kleineren Elementarkörper besitzen eine größere Masse, da diese äquivalent zur Bewegung der oszillierenden Oberfläche ist. Masse ist also im Bild des Elementarkörpers äquivalent zur inneren Bewegung und wird über die reziproke Proportionalität auf den Radius zurückgeführt. Details siehe das Kapitel: Impulsmasse-Inversion
Die Comptonwellenlänge λC entspricht energetisch dem Elementarkörper-Radius r0 der inhärent mit der Elementarkörper-Masse m0 gekoppelt ist :
Energetisch ist die Compton-Wellenlänge λC also nicht das Resultat einer vollen Periode 2π, wie in der "herrschenden" Physik, sondern nur einer Viertelperiode ½ π. Diese "Äquivalenzbeziehung" ergibt sich direkt aus der Elementarkörper-Dynamik. Formal entspricht das einer reziproken Proportionalität, welche durch die Masse-Radius-Konstanten-Gleichung [F1] ausgedrückt wird :
Nicht die assoziierten spektroskopischen Meßergebnisse der Experimentalphysik werden generell angezweifelt, sondern die resultierenden Interpretationen basierend auf deren theoretischen Grundlagen. Die Argumentation der Protagonisten und Anhänger der ursprünglichen Quantenmechanik, folgend der Quantenfeldtheorien und letztendlich des Standardmodells der Teilchenphysik (SM), daß diese durch experimentelle Ergebnisse Bestätigung fanden und finden, sagt also wenig aus, da die Theorien immer wieder den Meßergebnissen angepasst wurden. Realphysikalische Sachsituationen zu Ladung und Spin, 25 freie Parameter, variable Kopplungskonstanten und Confinement-These reichen bereits aus, um die Entscheidung zu treffen, sich nicht weiter mit dem SM als physikalisches Denkmodell zu beschäftigen. Wir könnten das Quark-Gluonen-Seequark-Proton-Modell ohne weitere Gedanken entsorgen. Wir müssten es entsorgen. Diesem logisch rationalen Schritt stehen aber 50 Jahre Standardmodell-Entwicklung, einige assoziierte Nobelpreise für Physik, tausende Lehrstühle für Theoretische Physik, abertausende beteiligte Wissenschaftler, milliardenteure Apparaturen, populärwissenschaftlich indoktrinierte SM-Anhänger, servile Wissenschaftsmedien und keine Alternativmodelle, die sich das SM einverleiben könnte, entgegen. Die jetzige Situation des Standardmodells der Teilchenphysik ist ergebnisorientiert vergleichbar mit der Epizykeltheorie kurz vor ihrem Ende. Aber wer schmerzbefreit ist und Spaß am Lesen hat...noch ein paar Bemerkungen zum "SM".
und bitte...
In einem großen Bild sind nicht nur (physikalische) Denkmodelle sondern auch die (axiomatische) Mathematik unvermeidbare "Artefakte des menschlichen Denkens". Wenn Physiker von Artefakten in ihren Theorien sprechen, dann sprechen sie eigentlich vom Artefakt im Artefakt. Moderne Mathematik hat im Bereich der Theoretischen Grundlagenforschung die physikalische Anschauung fast komplett abgeschafft. Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." [EM1] [EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882
„Zu
jeder Messung einer quantentheoretischen Größe ist ein Eingriff in das
zu messende System nötig, der das System unter Umständen empfindlich stört.
Die Messung der Strahlungsenergie in einem mathematisch scharf begrenzten
Teil eines Hohlraumes wäre nur möglich durch einen ”unendlichen“
Eingriff und ist deshalb eine nutzlose mathematische Fiktion. Ein
praktisch durchführbares Experiment kann jedoch nur die Energie in einem
Bereich mit verwaschenen Grenzen liefern.“
[Aussage Werner Heisenberg 1931] Theorien werden von ihren Autoren im Hinblick auf schon bekannte oder richtig vermutete, empirisch prüfbare Phänomene entwickelt. Dass diese Phänomene sich dann aus den Theorien, zwar nicht immer sehr überzeugend, wieder ableiten lassen, ist wenig erstaunlich. Unliebsame mathematische Lösungen der von der Standardphysik gewählten Mathematik, wie negative Energien oder nicht gewünschte Polstellen werden der Zeit geopfert oder als Koordinaten-Artefakte „identifiziert“. Aus negativer Energie wird negative Zeit und positive Energie konstruiert und Polstellen werden mittels „geeigneterer“ Koordinatentransformationen „eliminiert“. Physikalische Theorien sind Idealisierungen. Nur die Genauigkeit, mit der eine Theorie mit den Phänomenen übereinstimmt, kann empirisch festgestellt werden. Die grundsätzliche Wechselwirkung zwischen theoretischer Erwartung und Versuchsgestaltung ist in der experimentellen Teilchenphysik sehr problematisch, da der Experimentator und "seine" Versuchsapparaturen meist einen komplexen Einfluss auf die Messung nehmen. Folgende Frage entlarvt das Vorgehen der Teilchenphysiker als selbstprophetischen Akt: Wie
reduziert man in einem Teilchen-Ensemble die Aussage über Streuzentren
während der Kollisionen auf die innere Struktur eines einzigen
Teilchens? Das
ist offensichtlich bei der Anzahl der Teilchen nur durch den
theoriebeladenen Wunsch möglich. Die Interpretationen der
Versuchsergebnisse sind somit nahezu frei wählbar.
Beispiel: Was man sich unter angewandter »Quantenfeldtheorie« vorstellen kann und wie die Theorie starken Einfluss auf die experimentelle Erwartung hat, „erörtert“ folgende exemplarische Ausführung: „Teilchenphysik für Fortgeschrittene“ Quelle ...Annahmen
und Postulate „Teilchenphysik
für Fortgeschrittene“ Seite 68… „In der e+e-
-Streuung werden in 10 % der Fälle nicht nur zwei sondern 3 Jets
beobachtet, wobei die Winkelverteilung der Jets untereinander mit der
Erwartung für die Abstrahlung eines Spin 1 Teilchens (“Gluon”) von
einem Spin 1/2 Teilchen (Quark) übereinstimmt. Auf diese Weise wurde
das Gluon am PETRA Beschleuniger bei DESY entdeckt.“...
Mehr denn je müssen wir uns die Frage stellen, was wird im Standard Modell eigentlich postuliert und gemessen? Wie konnte bzw. kann man das "Falsche" so gut "verkaufen" ohne die Theorie aufzugeben? Eine emotionale, unphysikalische Erklärung liefert die Seelennatur des Menschen. U.a. Eitelkeit, Opportunismus und Ideologie der herrschenden Physik-Protagonisten führten zu einer starken Lobby. Vergleichbar mit den Machern und Mächtigen eines monotheistischen Weltbilds. Glaubensstrukturen sind weder "belehrbar" noch reformierbar. Merke: Anstatt eine Theorie auf Grund schwerwiegender Inkonsistenzen und theorie-konträrer meßtechnischer Ereignisse als widerlegt zu betrachten, werden neue Teilchen und mitunter neue Eigenschafts- und Verknüpfungszahlen, "Mischwinkel" und »Ähnliches« postuliert, um die jeweils auftretenden Diskrepanzen zwischen Theorie und Messergebnissen zu erklären. Für diese Methodik gibt es offensichtlich keine "natürlichen", formalen und schon gar keine menschlichen Grenzen. Die Wenigsten sägen den Ast ab, auf dem sie sitzen. Doch irgendetwas ist gehörig schief gelaufen. Standardmodell-Herrscher und Standardmodell-Macher haben eine Karte gespielt, die sie nie hätten spielen dürfen. Die Tabu-Karte heißt Confinement. Das Postulat, daß wesentliche Theorieobjekte gemäß des theoretischen Ansatzes nicht beobachtet werden können, bedeutet, sich jegliche, mögliche Kritik für immer vom Leibe zu halten. Das passt zwar sehr gut zu dem unübertroffen naiven Vorgehen der SM-Lenker und SM-Denker und zeugt von größtmöglicher Dekadenz, doch diese Form der Erkenntnisverachtung ruft früher oder später Kritiker auf den Plan, die konzentriert und hochmotiviert, rhetorisch und fachlich das tun, was sie schon längst hätten tun müssen. Es ist nur noch eine Frage der Zeit bis dieses, aus erkenntnistheoretischer Sicht, freche und zugleich hochpeinliche "Beliebigkeits-Denkmodell-Kondensat" in den »großen Quark« kommt und sich dort auflöst. Stell´ Dir vor es geht.
erst einmal soweit...
Eine weitere Konkretisierung der Probleme des Standard Modells findet sich bei der Darstellung und Wechselwirkung der Neutrinos, siehe DAS NEUTRINOPROBLEM
Das Kapitel Spin & Magnetische Momente offenbart das omnipräsente Dilemma phänomenologiefreier Formalismen. Es wird u.a. plausibel gezeigt, daß die experimentellen Werte der magnetischen Momente von Proton und Neutron kein Indizien für eine Substruktur liefern. Ganz im Gegenteil.
|