[Technischer Hinweis: Sollten Sie ungewollt diese Webseite ohne Webseitenmenü ("frame-los") vorliegen haben, so gelangen Sie hier zur kompletten menügesteuerten Elementarkörpertheorie-Webseite....]

 

Zur Form des Vortrages: Auch für den "Higgs-Mechanismus" gilt, wie für das Standardmodell der Teilchenphysik (SM) insgesamt, daß eine rein wissenschaftliche Auseinandersetzung unmöglich ist. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen eine ertragbare Diskussionsnähe.

Hintergründe

Aus Realphysik-Sicht phänomenologisch vollkommen unbegründete mathematische Prozeduren liefern im Rahmen des "Higgs-Mechanismus" «Freie-Parameter-Gleichungen», die zu keinem konkreten Berechnungs-Ergebnis führen. Auf 10 Milliarden Fehlversuche kommt ein stark theoriebeladenes Ereignis, daß mittels postulierter Kaskadenereignisse in vorbezeichneten Zerfallskanälen als "Nachweis" postuliert wird. Wesentliche Inkonsistenzen, die angewandte Willkür, axiomatische Verletzungen usw. der Standardmodellphysik werden im Folgenden explizit benannt,...  

Des Weiteren wird aufgezeigt, daß der (ergebnisunfähige) Higgs-Mechanismus nicht benötigt wird. Das Higgs-Boson müsste im Sinne der präzisen Berechnungsmöglichkeit Kahana-Boson heißen! D. E. Kahana und S. H. Kahana berechnen nicht nur die Higgs-Masse aus 2012 bereits 1993 (!) ohne freie Parameter, sie berechnen auch die Top-Quark-Masse aus 1995 bereits 1993 (!) präzise, gleichfalls ohne freie Parameter. Higgs- und Top-Quark-Masse resultieren aus stringenten Überlegungen (siehe folgend entsprechende Ausführungen und Quellen unter "Der etwas andere Interessenkonflikt").

 

 

Übergeordnet stellt sich die Frage, was im Rahmen der theoretischen Implikationen der Lagrangedichte-Phsik überhaupt berechnet wird. Denn im Rahmen der masse-radius-gekoppelten Proton-Antiproton-Materiebildung ist das vermeintliche Higgs-Boson eine phänomenologisch begründete Materiebildungsmöglichkeit, die sich zwanglos aus der Elementarkörpertheorie ableitet und einfachst berechnen lässt. Daraus folgt, daß der gesamte Lagrangedichte-Phsik basierende theoretische und experimentelle Aufwand seit den 1970er Jahren keinerlei Erkenntnis-Mehrwert besitzt. Die mathematischen Spielereien des SM "entpuppen" sich als Zirkelschlüsse.    

 

 

 

Higgs-Boson-Kreationen und andere Kleinigkeiten

Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen.

Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung "verletzt"1, zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen. Die einzig der herrschenden Physik bekannte direkte Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt nicht abbilden. Des Weiteren: Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben. Diese Grundbedingung steht in einem eklatanten Widerspruch zu Neutrino-Oszillationen (Nobelpreis 2015), die zwingend Neutrinomassen voraussetzen.  

1 Diese Aussage bezieht sich nicht primär auf die mathematische Konzeption, sondern ist erkenntnistheoretisch zu verstehen. Warum sollte man einen invaliden Formalismus einführen, der letztendlich massebehaftet nachkorrigiert werden muß. Es drängt sich die Frage nach der ursächlich richtigen Wahl auf.

Was es mit Vektorbosonen, dem skalaren Higgs-Boson und "Artverwandten" auf sich hat, wird im Folgenden "geklärt". "Später" wird im vorliegendem Kapitel der Higgs-Mechanismus aus Sicht des Standardmodells "skizziert" und (nochmals) unter erkenntnistheoretischen Gesichtspunkten "analysiert".

 

 

Aus praktischen Gründen werden "Zehnerpotenzen" exemplarisch wie folgt geschrieben: 1,23·10-3 = 1,23e-3. Das hat den Vorteil, daß der interessierte Leser die entsprechenden Zahlenwerte "gleich" in den "Computer" zur "Kontrolle" übernehmen kann (Copy&Paste).

Die Unsicherheiten der (CODATA)-(Masse-)Werte und der Naturkonstantenwerte sind nicht explizit benannt. Beispiel: Masse des Elektrons: 9,10938356(11)e-31 kg   Es wird hier mit dem Wert 9,10938356e-31 kg gerechnet. 

Beispiel: Feinstrukturkonstante α:   0,0072973525664    0,0072973525664(17)

 

Bei der Proton-Proton-Wechselwirkung kann auf Grund der Ladungserhaltung offensichtlich kein neutrales Higgs-Boson alleinig entstehen. Wobei diese denkmodellübergreifende Aussage im Standardmodell an Relevanz verliert, da das experimentelle Higgs-Boson am LHC über postulierte Theorieobjekte generiert wird (beispielsweise über die indirekte Fusion von Gluonen). Des Weiteren bedarf es (nach Angaben der "Standardmodell-Verkünder") experimentell mindestens 10 Milliarden Kollisionsereignisse um ein Higgs-Boson zu erhalten. Dieses wird aber keineswegs detektiert. Der vermeintliche "Nachweis" geschieht indirekt über die von der "Theorie" postulierten Zerfallskanäle.

 

"Randbemerkung" zum SM-Sprachgebrauch

Teilchenphysiker benutzen generell den phänomenologisch falschen Begriff Zerfall obwohl sie jedoch Umwandlungen meinen. Zerfall würde bedeuten, die Zerfallsprodukte waren (allesamt) Bestandteile des Zerfallenden. Dem ist aber nicht so, zumindest nicht im Rahmen der theoretischen Implikationen und Postulate des Standardmodells der Teilchenphysik.

 

Standardmodell-Sicht: Am LHC kann das Higgs-Boson auf verschiedene Arten produziert werden. Die Fusion zweier Gluonen ist dabei der dominierende Prozess, wobei die Produktion des Higgs-Bosons aufgrund der Masselosigkeit der Gluonen nur über eine Schleife aus massebehafteten Teilchen stattfindet.  

 

Das Standardmodell trifft keine Aussage über die Masse des Higgs-Bosons. Die Argumentation zum „Nachweis“ des Higgs-Bosons ist jedoch relativ simpel. Gibt man die Masse dieses Teilchens (125 GeV/c²) vor, so sagt die Theorie vorher, mit welcher Häufigkeit es in Teilchenkollisionen erzeugt und in welche bekannten Teilchen es zerfallen wird:

Ein 125 GeV/c²-Teilchen zerfällt gemäß SM zu 57% in bottom/antibottom-Quarks*, 21% in W±, 9% in zwei Gluonen, 6% in Tau/Anti-Tau, 3% Charm/Anticharm, 3% in 2 Z-Bosonen, 0,2% in zwei Photonen, 0,2% in Z-Boson und Photon, 0,6% in "Anderes".

Aber: Die angeblichen Beobachtungen mit großer Higgs-Boson-Existenz-Signifikanz beziehen sich nicht auf die häufigsten Zerfallskanäle  - allen voran  H→bb̅ mit 57% -. Wie nicht anders zu erwarten, sind die Standardmodell-Macher um keine Ausrede verlegen bzw. arrangierten Theorie und experimentellen Aufbau in der Gestalt, daß Messungen möglichst diffus bleiben. Soll heißen: Der (theorieinduzierte) 57%-Zerfalls-Kanal führt zur Ausbildung von zwei (Teilchen-)Jets. Diese Signatur ist wesentlich schwieriger von der SM-postuliert viel häufiger auftretenden Produktion von gewöhnlichen (nicht vom Zerfall des Higgs-Bosons stammenden) Jets aus Prozessen der starken Wechselwirkung zu unterscheiden. Diese Situation wäre jedoch vermeidbar, wenn man statt eines Hadronenbeschleunigers einen e+-e--Linearbeschleuniger gewählt hätte, der einen im Verhältnis zum LHC viel geringeren "Hintergrund" erzeugt.

 

Das Mißverständnis der SM-Denker kommt aus der fehlenden, respektive falschen Annahme, wie sich Materie bildet. Nach dem Motto viel nützt viel glauben diese, man müsse TeV in "Etwas" stecken, wobei die Teilchen nur im GeV-Bereich erwartet werden. Aber es existiert noch ein ganz anderes Problem. Wie gezeigt wird, führt die q0-Elektron-q0-Positron-Wechselwirkung im primären Maximum zu einer Energie von ~ 140 MeV , die nur ungeladene Pionen0 bildet.

0 Inwieweit die stark theoriebeladene experimentelle Teilchenphysik ruhende Pionenmassen hinreichend genau bestimmen kann, wird stark bezweifelt. Des Weiteren: Das neutrale Pion ist auf Grund der von den geladenen Pionen unterschiedlichen Masse nur im Rahmen der SM-Forderung ein „Pion“. Die Abstraktion, das Teilchen mit unterschiedlichen Massen gemäß postulierter QM-Überlagerung (Stichwort: Quarkonia) „gleich“ sind, ist innerhalb des SM eine der vielen Beliebigkeitsthesen (siehe u.a. SM-Quarkmassen-Unbestimmtheit im Prozent-Fehler-Bereich) und außerhalb des mathematischen Formalismus des SM unbegründet.

 

Erst die möglichen Konstellationen der ladungsabhängigen Materiebildung des sekundären und tertiären Maximums der e+-e--Wechselwirkung schaffen die gewünschten 125 GeV (wie gezeigt wird). Die Wahrscheinlichkeit daß dies geschieht, wird aber mit jeder weiteren Wechselwirkungsstufe deutlich kleiner. Ein Grund warum der LEP (Large Electron-Positron Collider, deutsche Bezeichnung Großer Elektron-Positron-Speicherring) war ein - bis zum Jahre 2000 - Teilchenbeschleuniger am Europäischen Kernforschungszentrum CERN) trotz der erreichten 209 GeV Bildungsenergie keine Teilchen mit 125 GeV "produzierte". Später mehr dazu.

Somit reduziert(e) sich der Stand der Dinge auf folgende Situation. ATLAS und CMS haben im Verhältnis 1 Ereignis zu 10 Milliarden Nichtereignissen Zerfälle eines "neuen Bosons" im "Energiefenster um 125 GeV" in   

zwei Z-Bosonen (führt zu zwei Paaren von elektrisch geladenen Leptonen)

zwei Photonen

zwei W-Bosonen (führt zu zwei elektrisch geladenen Leptonen und zwei Neutrinos)

Zerfall in zwei Tau-Leptonen beobachtet.

["Herzlichen Glückwunsch" zur Macht der SM-Protagonisten das beliebige (relative) Nichts in die Welt der Physik eingeführt zu haben.]

update* zum 57% in bottom/antibottom-Quarks Zerfallskanal

...nach Jahren der »simulation and reconstruction - Schönrechnerei« wurde auch dieser "Kanal  mit einer Genauigkeit von 3,6σ besetzt", siehe die Ausführungen zu Kalter Kaffee neu gefiltert unter Neuigkeiten Juli-August-2017.

Was ist aus den - vom System selbst festgelegten - "nötigen" 5σ "Genauigkeit" geworden?

Ein weitere Ausnahme nach dem Motto "Was kümmert uns unser Geschwätz von gestern"?

 

 

Der ATLAS (A Toroidal LHC AparatuS)-Detektor enthält ein System von Toroid-Magneten. Im Innern des Detektors treffen zwei Teilchenpakete (mit jeweils 100 Milliarden Protonen) aufeinander, nachdem sie in entgegen gesetzte Richtung im LHC beschleunigt wurden. An ATLAS-Experimenten nehmen mehr als 7600 Forscher teil. Webseite: http://atlas.cern/ 

Compact-Muon-Solenoid (CMS) ist ein Teilchendetektor am Large Hadron Collider (LHC).

 

Widersprüche und Merkwürdiges zum Higgs-Boson

…“Is the lifetime of the Higgs irrelevant? The standard model predicts the lifetime of the Higgs to be 1.56 · 10−22 s. However, the photon excess at 125 GeV has an approximate width of about 8 GeV. According to Heisenberg’s uncertainty relation, this is also consistent with a lifetime a few hundred times shorter. Is this missing piece of evidence really irrelevant? We are concerned about this point since a particle with lifetime in the order of 10−25 s (incidentally, the top quark is assumed to have such a short lifetime) could not even leave the collision point.”… Quelle:http://vixra.org/pdf/1212.0100v1.pdf , The Discovery of What? Ten Questions About the Higgs to the Particle Physics Community. Alexander Unzicker, Munich, Germany Sheilla Jones, Winnipeg, Canada December 2012   

Die auf „Modern“ getrimmte Webseite (http://atlas.physicsmasterclasses.org/de/index.htm) duzt die interessierten Leser. Zielgruppe sind offensichtlich junge Menschen. Auf der Unterseite (Stand 10. Mai 2016)  http://atlas.physicsmasterclasses.org/de/zpath_hevents.htm steht u.a., Textauszug ...

„… Higgs-Ereignisse

Deine Herausforderung besteht nun darin, Ereignisse auszuwählen, in denen möglicherweise ein Higgs-Boson produziert wurde. Doch wie gelingt dies praktisch, wenn die Lebensdauer aufgrund der hohen Masse (125 GeV) doch gerade mal 3×10-25 s beträgt? …“

 

 

Der etwas andere Interessenkonflikt

Kommen wir noch einmal zurück auf die Aussage, daß das Standardmodell keine theoretische Berechnung zur Masse des Higgs-Bosons "liefern" kann. Diese von den Standardmodell-Theoretikern verbreitete Unmöglichkeits-These ist durchaus obskur, wie im Folgenden erörtert wird. Es existiert ein »paper« namens Higgs-mass predictions von Thomas Schücker, welches am 14.Dezember 2011, also ungefähr ein halbes Jahr vor der "Entdeckung" des Higgs-Bosons am LHC,  veröffentlicht wurde. In diesem »paper« stellt Schücker eine Sammlung von 96 Higgs-Massen-Voraussagen vor, welche erstaunlich viele "Abschätzungen" enthält, die sehr nah, mitunter "verdächtig nah", am "ermittelten" Massewert von mH(experimentell)  ~ 125 GeV/c² angesiedelt sind. An dieser Stelle soll auch erwähnt werden, daß die "ungeschönte" Messgenauigkeit* in der Größenordnung von ~ 5% liegt. Die Angabe eines "Messwertes" für mH(experimentell) von ~ 125 GeV/c² ist also mit "äußerster Vorsicht zu genießen", es könnten bei 5% "apparativer (methodischer) Ungenauigkeit"  auch "leicht" 119 oder 131 GeV/c² sein.

* “…the energy resolution is expected to be better than 6%...” Quelle siehe insgesamt LHC-Detektoren im Detail

 

Besonders auffällig und besonders bemerkenswert sind die Berechnungen von D. E. Kahana und S. H. Kahana, veröffentlicht im Dezember 1993 (!)

Der ergebnisunfähige Higgs-Mechanismus wird nicht benötigt !

Die brisante Erkenntnis, die sich aus den theoretischen Details ergibt, ist die, daß der Higgs-Mechanismus nicht benötigt wird, zumal dieser keine Möglichkeit eröffnet, die Higgs-Masse zu berechnen. D. E. Kahana und S. H. Kahana berechnen nicht nur die Higgs-Masse 1993 (!) ohne freie Parameter, sie berechnen auch die Top-Quark-Masse präzise, gleichfalls ohne freie Parameter.

The authors model itself is based on the NJL model of Nambu and Jona-Lasinio (http://www.scholarpedia.org/article/Nambu-Jona-Lasinio_model). The NJL model is an ancestor of the standard model's electroweak+ Higgs sectors, and it's also an approximation to the low-energy scalar sector of QCD (i.e. pions and sigma meson. Kahana and Kahana modify it in an unusual way. The NJL model has emergent scalars and pseudoscalars. Kahana and Kahana add vector interactions in order to produce the electroweak gauge bosons as bound states. As results D. E. Kahana und S. H. Kahana get the Higgs boson mass, the top quark mass, and even the weak mixing angle.  

 

Top and Higgs Masses in Dynamical Symmetry Breaking

David E. Kahana Center for Nuclear Research Kent State University Kent, OH 44242-0001 and Sidney H. Kahana Physics Department Brookhaven National Laboratory Upton, NY 11973    https://arxiv.org/pdf/hep-ph/9312316.pdf   21.Dec 1993

Abstract

A model for composite electroweak bosons is re-examined to establish approximate ranges for the initial predictions of the top and Higgs masses. Higher order corrections to this 4-fermion theory at a high mass scale where the theory is matched to the Standard Model have little effect, as do wide variations in this scale. However, including all one loop evolution and defining the masses self-consistently, at their respective poles, moves the top mass upward by some 10 GeV to near 175 GeV and the Higgs mass down by a similar amount to near 125 GeV.

..."4.Conclusions.In summary, one gets remarkably stable predictions for the top and Higgs masses and in a parameter free fashion. The only inputs were the experimentally known couplings and the W-mass. A characteristic prediction of this type of theory is mh < mt, so that the Higgs, which is practically a tt¯ condensate, is deeply bound. In view of the present dearth of events from the FNAL experiments with DØ and CDF, the above prediction for the top (near 175 GeV) may not be wholly wild. In light of the recent unfortunate developments at the SSC, the somewhat low prediction for the Higgs mass, near 125 GeV, may take considerably longer to test…

 

Aktualisierte Quelle siehe: Higgs and Top Masses from Dynamical Symmetry Breaking – Revisited

... "predictions by the authors D. E. Kahana and S. H. Kahana , mH = 125 GeV/c² uses dynamical symmetry breaking with the Higgs being a deeply bound state of two top quarks. At the same time (1993) this model predicted two years prior to the discovery to the top its mass to be mt = 175 GeV/c²..."   Die Berechnungen von D. E. Kahana und S. H. Kahana führten letztendlich zu parameterfreien, einfachsten Gleichungen. Zum Vergleich: Die experimentelle Top-Quark-Masse wird (heute) mit 173.34 ± 0.27 (stat) ± 0.71 GeV/c² angegeben.

…”In later work [2] we evaluated the masses self-consistently at the mass-poles, which resulted in predictions of mt ~ 175 GeV, and mH ~ 125 GeV as central values within ranges produced by varying the measured strong coupling”…

  …”The variation of the predicted masses for a range of the strong and electro-weak couplings αs, αW at mW are exhibited in Figure (3) and Figure (4) reproduced from the last work [2], which was submitted to PRD well before the first FNAL publications [3,4] suggesting evidence for the top.”…

[1] Kahana D E and Kahana S H 1991 Phys. Rev. D43 2361–2368

[2] Kahana D E and Kahana S H 1995 Phys. Rev. D52 3065–3071 (Preprint hep-ph/9312316)

[3] Unal G (CDF) 1995 Nucl. Phys. Proc. Suppl. 39BC 343–347

[4] Peryshkin A (D0 Collaboration) 1995 Nucl.Phys.Proc.Suppl. 39BC 353–356  

 

 

 

Konträr zur Aussage des Standardmodells sind die milliardenschweren Teilchenbeschleuniger-Versuche, die allesamt nur zu indirekten Messungen in vorselektierten Zerfallskanälen mit Wahrscheinlichkeiten in der Größenordnung von 1 zu 10 Milliarden führen, gegenstandlos, da die exakten theoretischen Berechnungen von D. E. Kahana und S. H. Kahana, veröffentlicht im Dezember 1993 (!) keinerlei empirischen Befund benötigten.

Michael J. Tannenbaum (http://www.phenix.bnl.gov/~sapin/) macht in seinen Ausführungen:

Waiting for the W and the Higgs (https://arxiv.org/pdf/1608.06934.pdf) folgende Bemerkungen (Seiten 20 und 21):

…”At the 50th course of the ISSP from June 23–July 2,2012 [Zichichi 2012], there was an unusually large number of invited distinguished guests, such as Peter Higgs (Fig. 12) and Murray Gell-Mann, because it was also the 40th Anniversary of QCD. I presented a talk about “Highlights from BNL and RHIC” on Wednesday June 27; then something very interesting happened. In the question period after my talk, when I was asked about some theory calculation of the PHENIX data, I said that I didn’t discuss theory, I leave that to the theorists. I added that “I don’t even talk about the Higgs boson until I see one ...” (Strictly this was not true, as I did mention the Higgs boson because I doubted that it gives mass to fermions.) At dinner, I spoke to Peter Higgs and said that I hope he wasn’t offended by my statement—he wasn’t. Then he said, “You’re from Brookhaven, right. Make sure to tell Sid Kahana that he was right about the top quark 175 GeV and the Higgs boson 125 GeV” [Kahana and Kahana 1993].”…


Dass weder Peter Higgs noch irgendein SM-Vertreter auf die bemerkenswerten Arbeiten von D. E. Kahana und S. H. Kahana öffentlich hinwiesen und diese auch populärwissenschaftlichen Magazinen offensichtlich „unbekannt sind“, obwohl diese in Fachkreisen bekannt sein mussten, dokumentiert die Brisanz der exakten theoretischen Voraussagen aus dem Jahre 1993.

Man würde wohl annehmen, daß die äußerst präzisen Berechnungen des Autoren-Teams Kahana/Kahana  als Top-Meldungen, beispielsweise von der SM-"Pressestelle", zu der Top-Quark-Masse- und Higgs-Boson-Masse-"Detektion" verkündet wurden. Aber nichts dergleichen passierte. Spätestens seit der Higgs-Boson-"Entdeckung" sind die Kahana/Kahana-Arbeiten "retrospektivisch" im Rahmen des SM als außergewöhnlich zu bezeichnen. Aber warum gibt es keine adäquate Erwähnung oder gar den Nobelpreis für diese Theorieleistungen? An dieser Stelle drängt sich ein unschöner Verdacht auf, dessen Begründung im Folgenden skizziert wird.

 

Measurement of the top quark mass using proton-proton data at √ s = 7 and 8 TeV

14 April 2016 CERN/CMS Collaboration

The most precise measurements of mt have been derived from combinations of the results from the CDF and D0 experiments at the Tevatron, and ATLAS and CMS at the CERN LHC. The current combination from the four experiments gives a top quark mass of 173.34 ± 0.76 GeV [7], while the latest combination from the Tevatron experiments gives a mass of 174.34±0.64 GeV [8]. The Tevatron combination is currently the most precise measurement and it includes all of the current Tevatron measurements. In contrast, the current four experiment combination has not been updated since 2013 and does not include the latest Tevatron and LHC measurements, in particular the measurement from ATLAS using a combination of the lepton+jets and dilepton channels [9].

A new set of measurements of the top quark mass are presented, based on the proton-proton data recorded by the CMS experiment at the LHC at √ s = 8 TeV corresponding to a luminosity of 19.7 fb−1 . The top quark mass is measured using the lepton+jets, all-jets and dilepton decay channels, giving values of 172.35 ± 0.16 (stat) ± 0.48 (syst) GeV, 172.32 ± 0.25 (stat) ± 0.59 (syst) GeV, and 172.82 ± 0.19 (stat) ± 1.22 (syst) GeV, respectively. When combined with the published CMS results at √ s = 7 TeV, they provide a top quark mass measurement of 172.44 ± 0.13 (stat) ± 0.47 (syst) GeV. The top quark mass is also studied as a function of the event kinematical properties in the lepton+jets decay channel. No indications of a kinematic bias are observed and the collision data are consistent with a range of predictions from current theoretical models of tt production.

  Data sets The measurements presented in this paper are based on the data recorded at a center-of-mass energy of 8 TeV during 2012, and correspond to an integrated luminosity of 19.7 fb−1 .

 

Die Berechnungsgrundlagen des Autoren-Teams Kahana/Kahana stammen aus dem Jahre 1961 von Y.Nambu and G. Jona-Lasinio, veröffentlicht in Physical Review Volume 122, Number 1 April 1. Quelle: Nambu Y and Jona-Lasinio G 1961 Phys. Rev. 122(1) 345–358 

Ein "Problem", welches aus den präzisen K-K-Berechnungen folgt, ist, daß man sich den immensen theoretischen und experimentellen Aufwand spätestens von 1993 bis heute hätte sparen können. Mit Verweis auf  Nambu Y and Jona-Lasinio G 1961 Phys. Rev. 122(1) 345–358  war das gesamte SM-Projekt bereits Anfang der 1960er Jahre erkenntnistheoretisch "mittels" methodischer Zirkelschlüsse abgeschlossen. 

Wir "reden" hier von mehreren Zehntausend Wissenschaftlern, deren materiellen Verdienst, deren Kapazitätsverschwendung und Milliardenbeträgen für alle möglichen Beschleuniger]2. Wir "reden" physikalisch von der uns bekannten naturphilosophischen Erkenntniskatastrophe schlechthin.

]2 List of Particle Accelerators Around the World

K-K führten weiter aus, daß ihre theoretischen Berechnungen letztendlich die nächste, von den SM-Protagonisten gewünschte SM-Modifikationsstufe namens Supersymmetrie (SUSY) "logisch" ausschließt. Mit anderen Worten: Die Voraussagen von K-K identifizieren spätestens seit 1993 das SUSY-Vorhaben als haltlos.

..."The latter in its unbroken form preserves the very chiral symmetry, the breaking of which, after all, yields all of our results. Moreover the early efforts of Buchmuller and Love ]3 in demonstrating the apparent incompatibility of SUSY and dynamical chiral symmetry breaking deserve recognition. One could, of course, break SUSY in the presently accepted ”soft” form but not without loss of the naturalness of dynamical chiral symmetry breaking."...

]3 Chiral symmetry and supersymmetry in the Nambu-Jona-Lasinio model  Max-Planck-Institut für Physik und Astrophysik, Munich, Fed. Rep. Germany , Received 13 April 1982

..."The connection between chiral symmetry and supersymmetry is investigated in the context of a supersymmetric extension of the Nambu-Jona-Lasinio model. A supersymmetric gap equation is found and it is shown that no solution exists which breaks chiral symmetry. A simple physical argument for this phenomenon is given and possible implications for the dynamics of composite models are discussed"...

 

Hier zwei aktuelle "Stimmen" zur inhaltlichen Untermauerung...

Stimme 1   … the discovery of the Higgs boson is a nightmare scenario for everything else, including supersymmetry, extra dimensions, and string theory. Because finding the standard model Higgs at this energy means that there’s no need for any of those things. A Higgs at 125 GeV and nothing else at the LHC, totally consistent with the standard model, mean that if supersymmetry exists, it needs to be at such a high energy that it no longer solves the problem it was designed to solve!...    Quelle: Ethan Siegel  theoretical astrophysicist

 

Stimme 2   ..."The ground-state Higgs amplitude is indeed very much like the 19th century ether. According to theory, it is constant everywhere in the universe. It does not exert drag, however. The only effect of the universal Higgs field background is to give everything a mass. So why not just drop this whole Higgs theory, and simply say that every particle has some mass? For most purposes, one could of course do this. The reason to care about whether mass comes from a Higgs field, instead of just existing fundamentally, is the technical but very important problem of renormalizability. With fundamental particle masses, interacting relativistic quantum field theory just does not work. Even the simplest calculations lead to infinite integrals. It’s not just an unlucky accident, either; it’s built deeply into quantum mechanics and relativity....

...Finding the Higgs boson is indeed not very much like finding a stable particle. The Higgs is a rare and exotic, highly unstable resonance, at a very high frequency...

...Was it worth all the money it cost, to find an interesting phantom? To be honest, I would not say so. I think there are lots of other scientific problems that would have given us more bang for our buck...

...The last point, perhaps, is that the Higgs discovery is actually a catastrophe for particle physics. It’s the last nail in the coffin. The good scenario would have been to find no Higgs, but instead a zoo of quite unexpected other phantoms. Then there would have been more papers to write and more tunnels to dig. As it is, we give the Nobel prize to a couple of very old guys, and the rest of the entire field has nothing left to do. There could in principle be lots of new things to discover with bigger accelerators, but we see no sign of them, so the scientific case for investing billions more in bigger tunnels is too hard to make. There will be no next generation after the LHC...

...Huge problems remain unsolved. What determines the constants of nature? What (if anything) is dark matter? How does quantum mechanics deal with gravity? Where does the ‘arrow of time’ come from? Particle physics has never made any contribution to those questions, but at one time it seemed that perhaps it might, if we just built a bigger ring. Now the only thing we can do is simply find some big new ideas. That’s even harder than building something like CERN."

Stimme 2 Quelle: Textauszüge der ersten (unzensierten) Antwort des Physikers I (Lehrstuhl für Theoretische Physik) aus dem »Scheunemann-Antwort-Fragen-paper«

Nun, die SM-Protagonisten befanden und befinden sich also von Anbeginn des Higgs-Mechanismus des Jahres 1964 in einer aussichtslosen Situation, aussichtslos insofern man wissenschaftliche Standards berücksichtigt bzw. aufrechterhalten möchte und insofern man sich ein naturphilosophisch konsistentes Denkmodell wünscht. Damit CERN mit dem LHC nicht das gleiche Schicksal ereilte, wie das Fermilab in den USA, musste endlich das Higgs-Boson gefunden werden. Da selbst im Rahmen des selbstprophetischen stark theoriebeladenen Detektionsprozesses  keine "Spuren" von supersymmetrischen Teilchen (S-Teilchen) in den untersuchten Energie-Fenstern zu finden waren, war die Zeit gekommen, ein fundamentales Ereignis, das Higgs-Boson, zu "entdecken". So wie es die Theorie fordert und so wie es viele gemäß ihrer Berechnungen auch gerne sehen wollten (siehe oben benanntes »Schücker-paper«). Wie wir alle wissen, geschah dies nach aufwendiger Rechnerarbeit (iterativ) Mitte 2012. 

Nur die 125 GeV/c²-Higgs-Boson-Detetektion ist das endgültige Aus für die Supersymmetrie. Das war eigentlich vom ersten Tag des Higgs-Mechanismus bekannt. Das die SM-Protagonisten nun mit aller Macht krampfhaft versuchen die Energien postulierter supersymmetrischer Partner-Teilchen in, aus heutiger Sicht, unerreichbare Energiefenster erweiterungs-formalistisch zu verschieben entspricht einem "nackten" Existenzkampf. Sie wollen größere Beschleuniger, damit sie ihre Arbeit nicht verlieren und in der Supersymmetrie "weiterleben" können. Sie wollen aus banalen, materiellen Gründen ein erkenntnistheoretischen Schrecken ohne Ende, »wir« jedoch sollten endlich einen Punkt machen und dem Schrecken ein Ende bereiten.  

Die Standardmodell-Arbeit war vom ersten Tag an naturphilosophisch wertlos. Das SM ist eine seit mehr als 50 Jahren anhaltende "beschleunigerendemische" Inszenierung, "bestenfalls" ein Akt naiver Konzeptkunst ohne Gemeinnutz, der Forschungsgelder mit allerlei dokumentierter irreführender Suggestionen, theoriefreundlicher Meßergebnisselektion und theoriebeladener Thesenwillkür abgriff, abgreift und abgreifen möchte. D. E. Kahana und S. H. Kahana erkannten spätestens 1993 klar und deutlich, daß die theoretischen Berechnungsmöglichkeiten bereits in den veröffentlichten grundlegenden Ausführungen des Jahre 1961, sozusagen mathematisch kodiert, vorlagen, also drei Jahre vor dem Higgs-Mechanismus-Geburtsjahr 1964. Ob sie selbst diesen Sachverhalt erkenntnistheoretisch in aller Deutlichkeit realisierten, ist ergebnisorientiert ein nebensächlicher Aspekt. Fazit: Die extrem präzisen Voraussagen zur versuchsinterpretierten Top-Quark-Masse und zur versuchsinterpretierten Higgs-Boson-Masse waren zu keinem Zeitpunkt unbestimmt und anders als die offizielle Aussage der SM-Vertreter bereits im ursprünglichen »Formalismus« enthalten. Die experimentelle Bestätigung der Higgs- und Top-Quark-Masse, gemäß indirekter Detektion im Rahmen der Zerfallskanalanalyse war (und ist) effektiver, aktiver Bestandteil der Zirkelschlussdynamik.

Inwieweit jüngere Wissenschaftler, die im SM-Projekt involviert sind, selbständig sehen und verstehen können, was sich hier abgespielt hat und sich demnächst abspielen soll, ist schwer zu sagen, da diese schon als Schüler mit Quarks-Märchen und artverwandten baren SM-Unsinn infiltriert wurden. Die ältere Generation sollte sich jedoch schämen. Und wenn das bisher "Skizzierte" nicht ausreicht um Scham zu empfinden, dann helfen die weiteren Ausführungen in diesem Kapitel und im Standardmodell-Kapitel. Erst einmal soweit zum etwas anderen Interessenkonflikt.

 

Das aus Sicht der Elementarkörpertheorie Kuriose an obigen Ausführungen ist die Tatsache, daß die Ergebnisse für die Higgs-Bosonen-Masse von D. E. Kahana und S. H. Kahana (nahezu) denkmodellunabhängig sind. Denn masse-radius-gekoppelt kommt man ohne freie Parameter und ohne "theoretische Ausweichmöglichkeit" formal analytisch bei der elementarkörper-phänomenologisch begründeten (starken) Proton-Antiproton-Wechselwirkung gemäß

wobei für massegleiche Wechselwirkungspartner m = mA = mB sich die Gleichungen reduzieren

m = mp = 1,672621898e-27  kg  : (Anti-)Protonenmasse     α  = 0,0072973525664

zu ∆E( p+, p- )  =  257,15410429801 GeV

∆m( p+, p- )     =   4,584188259456e-25   [kg]  [2q0q0]

(∆m( p+, p- ) / 2) = 128,57705215 GeV/c²

mH(0)  ~ 2,228e-25 kg   ~  125 GeV/c²

(∆m( p+, p- ) / 2) / mH(0)  1,02861642

 

Das bedeutet, daß mit einem "Fehler" ~ (+) 2,9%, bezogen auf die am LHC* "detektierte" Higgs-Bosonen-Masse, respektive die von  D. E. Kahana und S. H. Kahana theoretisch berechnete Masse, die Elementarkörpertheorie ein Ereignis voraussagt, welches im SM nur als theoretisch vorbestimmtes Zirkelschluss-Ergebnis existiert.

LHC*, die sehr "präzise" Higgs-Boson-Masse-Angabe "verblüfft", wenn man die detektorspezifische Messungenauigkeit von ~ 5% berücksichtigt.

Es drängt sich (für Außenstehende) durchaus erst einmal der Verdacht auf, daß das Elementarkörper-Ergebnis konstruiert das LHC-Ergebnis bestätigen möchte. Doch das ist auf Grund der Phänomenologie und der daraus resultierenden masse-radius-gekoppelten Gleichungen unmöglich, die zur Erinnerung, gleichfalls sowohl Grundzustandsenergien, Neutronen- und Pionenmassen, ausschließlich in Abhängigkeit der Wechselwirkungsmassen mA und mB, in sehr guter Übereinstimmung mit experimentellen Ergebnissen, formal analytisch exakt berechnen. Die Antwort auf die Frage, wie das hier möglich ist, ist viel einfacher als gedacht. So wie im Rahmen der Elementarkörpertheorie sich exakt und eindeutig u.a. der Protonenradius, Grundzustandsenergien (siehe die Kapitel Wasserstoffatom & allgemein Ladungswechselwirkungen und Ladungsabhängige Materiebildung)   masse-radius-gekoppelt berechnen lassen, so lassen sich auch gleichfalls exakte Ergebnisse für die (starke) Proton-Antiproton-Wechselwirkung [E2q0q0],[2q0q0] konsistent angeben. Die verwendete Gleichung ist ausschließlich von der [Anti-]Protonen-Masse abhängig!  Zur Erinnerung:

 

 

Die mögliche Variation ergibt sich aus der Ladungs-Erhaltung. Ist die Wechselwirkung im Teilchenendstadium elastisch, so müssen aus der Proton-Antiproton-Wechselwirkung zwei Wechselwirkungsteilchen entstehen. Diese besitzen die Ladungsmöglichkeit (0)(0) oder (-1)(+1) und die "Masse" (∆m( p+, p- ) / 2) / mH  1,02861642 . Ist die Wechselwirkung inelastisch, so entsteht ausschließlich ein Wechselwirkungsteilchen mit der Ladungsmöglichkeit (0) und der Masse m =   4,58418826e-25  [kg] . Hier kommt u.a. die Frage auf, ob das Massehäufchen, welches als "Higgs-Boson" deklariert wird, wirklich neutral ist. Oder ist die Ladungsneutralität nur ein SM-theoriegewünschtes Ergebnis. Die theoriebeladenen, postulierten SM-Zerfallskanalereignisse liefern kein objektives Ladungs-Ergebnis für das nicht detektierbare "Higgs-Boson".

 

Randnotiz

Wie “extravagant” u.a. die »2/α-Gleichung« "fantasie-aufgebläht" werden kann, lässt sich mit etwas Abstraktion exemplarisch „nachlesen“ unter:

Higgs mass and vacuum stability in the Standard Model at NNLO

September 2013…”first complete next-to-next-to-leading order (NNLO) analysis of the Standard Model Higgs potential.”...

 

 

 

...ausführlichere, allgemeinere Betrachtungen zu Wechselwirkungsereignissen

 

Der phänomenologisch begründete Elementarkörper-Wechselwirkungs-basierende, unstrittige Aspekt zum Higgs-Boson

Es war - und ist nach wie vor - kein primäres Ziel der Elementarkörpertheorie zeitinstabile Materie kreieren/beschreiben zu können, dennoch ...

 

 

Die ladungsabhängige [q0]Proton-[q0]Antiproton-Wechselwirkung liefert primär mit ~ 257 GeV gemäß allgemeiner Gleichungen: [E2q0q0],[2q0q0], die wohl an Einfachheit nicht zu überbieten sind, genügend Materiebildungs-Energie um theoretisch* alle "bekannten" ((ultra-)kurzlebigen) Massehäufchen (Top-Quark, W±, Z(0), ...) und exemplarisch zwei neutrale Higgs-Bosonen zu generieren.

* zu den theoretischen Möglichkeiten folgen weiter unten die entsprechenden Ausführungen zu Kaskadenereignissen der 2. und 3.Generation. 

 

q0-q0 ( = "starke") Proton-Antiproton-Wechselwirkung

m = mp = 1,672621898e-27  kg  : (Anti-)Protonenmasse     α  = 0,0072973525664

∆E( p+, p- )    =      257,15410429801 GeV    [E2q0q0]

∆m( p+, p- )     =   4,58418825945573e-25   [kg]  [2q0q0]

 

Aus Ladungserhaltungsgründen wäre auch nur ein neutrales Teilchen ( nennen wir es gemäß etablierten infantilen Stils des SM kurz Max(0) ) als Resultat der [q0]Proton-[q0]Antiproton-Wechselwirkung denkbar.

p+ + p Max(0) 

Max(0) hätte eine Masse von ~ 4,58e-25 kg.

 

Jedoch scheint sich Niemand der Standardmodell-Physik-Vertreter realitätsnah die Frage zu stellen, wie, anders als bei der "ladungserhaltenden" Proton-Antiproton Wechselwirkung, aus einer Kollision von zwei gleich geladenen Teilchen primär ein neutrales Teilchen entstehen soll? In einer naheliegend "naiven" Betrachtung muß die Proton-Proton-Kollision gemäß Ladungserhaltung in der Ladungsbilanz neben dem neutralen Higgs-Boson mindestens zwei positiv geladene "Objekte" bis zum "bitteren" Versuchsende bereithalten. Im einfachsten Fall agierten die Protonen lediglich als Energietransporteure und sind letztendlich bezüglich ihrer Energiefracht nur um den Beitrag der Higgs-Boson-Energie (~ 125 GeV) energiereduziert. 

 

[ Ebeschleuniger(p+, p-) ]/c² + p+ + p p+ + p + H(0) + [ Ebeschleuniger(p+, p+) - E(H(0)) ]/c²

 

Wie sich dann die "Restenergie" [ Ebeschleuniger(p+, p+) - E( H(0)) ] erst einmal primär auf (Ruhe-)Massen und "Impulse" diverser "Massehäufchen" verteilt, steht in den Sternen. Das weitere sekundäre, tertiäre,... "Kaskadenereignisse" alles mögliche Niederenergetische hervorbringen können, dürfte gemäß Ladungsabhängiger Materiebildung leicht verständlich sein. 

Nochmals: Es ist phänomenologisch alles andere als trivial, daß zwei elektrisch gleich geladene, postuliert inelastisch wechselwirkende Objekte primär ein neutrales Objekt generieren (sollen). Welches "natürliche" Minimalprinzip soll denn hier "zur Stelle" sein? Des Weiteren: Der von der Standardphysik postulierte Abschirmeffekt der elektrischen Ladung mittels "Vakuumpolarisation" ist stark diskussionswürdig, da er die Ladungskonstanz, respektive Ladungserhaltung "relativiert". Darüber hinaus ist die Vakuumpolarisation als "geistiges Kind der leptonischen" Ladungsdefinition der QED nicht konsistent mit der Quarks-basierenden der QCD.

"QED-Analoges" SM-Postulat: Wie das Elektron ist auch ein Quark von einer Wolke virtueller Teilchen umgeben, und zwar von Gluonen und Quark-Antiquark-Paaren. Die Farbladung eines Quarks wird durch die Farbladungen der Quark-Antiquark-Paare in der Wolke teilweise kompensiert. Anders als die elektrisch neutralen virtuellen Photonen in der Umgebung eines Elektrons haben die virtuellen Gluonen in der Umgebung eines Quarks ihre eigenen Farbladungen und können daher in Paare von Gluonen übergehen (Selbstkopplung). Als Folge dieser zusätzlichen Beiträge wird im Falle der QCD die Farbladung des Quarks nicht abgeschirmt, sondern erhöht (antiscreening). [Es gibt keine erklärende Phänomenologie zum antiscreening!] 

Die Inkonsistenz der postulierten Betrachtungen erkennt man exemplarisch auch daran, daß der "leptonische" Spin und die elektrische Ladung des postuliert strukturlosen Elektrons betragsmäßig der elektrischen Ladung und dem Spin des postuliert asymmetrisch quarksfragmentierten Protons entsprechen. Darüber hinaus liefern Quarks keine (ausreichenden) Spinbeiträge zum Protonenspin (später mehr dazu). Es scheint hier seitens der herrschenden Physik der Überblick verloren gegangen zu sein, was wie und warum mit welchen Theorie-Objekten konstruiert wurde. Somit ist es alles andere als trivial, daß die Proton-Proton-"Coulomb-Abstoßung" "überwunden" wird, sofern man sich von den widersprüchlichen, inkonsistenten "eichsymmetrischen" (es darf gelacht werden) SM-Ansätzen verabschiedet.

Da die Kombination aus mathematischen Möglichkeiten und Fantasie (u.a. postuliert Virtuelles) im Rahmen des SM mit freien Parametern, variablen Kopplungen und beliebiger Substrukturierung samt neuer Quantenzahlen Alles und Nichts generieren kann, ist somit auch die teilchenbeschleuniger-basierende Higgs-Boson-"Erzeugung" und der Higgs-Mechanismus -  wie gezeigt wird, aus erkenntnistheoretischer Sicht eine willkürliche "Nullnummer".

Versuchen wir das Beste daraus zu machen

Das phänomenologisch begründete Mäxchen

Wir haben also eine aus mehrfacher Sicht teils widersprüchliche, teils interessante Situation vorliegen. Ja es könnten im Teilchenbeschleuniger Massehäufchen mit ~ 125 GeV/c² kurzzeitig generiert werden, ob Ring- oder Linearbeschleuniger ist egal, solange eine adäquate Schwerpunkt-Energie erreicht wird, die mit ~ 257 GeV deutlich kleiner ist, als das "Energiefenster" des TeV-LHC-Konstruktes, sofern man denn Protonen und Antiprotonen statt Protonen mit Protonen zur Kollision bringen würde. Nur welchen Sinn sollte dieser Versuch machen? Das Higgs-Boson ist zu nichts nütze, sieht man mal von den konstruierten Problemen masseloser »Eichtheorien« ab, die irgendwie an realphysikalisch vorhandene Masse ankoppeln müssen. Ein sinnvoller Aspekt wäre die mögliche Detektion des Max(0) , als Sargnagel für das SM und ... dann gibt es noch etwas »Anderes« zu bedenken. Die 257-GeV-Proton-Antiproton-Kollision könnte auch zwei »geladene Higgs-Bosonen« H± hervorbringen. Wobei der Name Higgs-Boson dann (SM-)inhaltlich falsch und im Rahmen der Elementarkörpertheorie für einen "massehalben Max" deplaziert wäre. Wie steht's mit: Die q0-Proton-q0-Antiproton-Wechselwirkung führt zu zwei elektrisch unterschiedlich geladenen Mäxchen, da werden dann womöglich die Steilchen der SUSY noch ganz verrückt. Oder wären generell Mäxchen verboten, weil die amerikanisierte Teilchenphysik keine Umlaute "kennt"? Wir werden sehen. Mäxchen wäre eine weitere "schöne" Ausnahme nach Eigenvalues, Bremsstrahlung und kindergarten.    

 

Im Folgenden wird Elementarkörpertheorie basierend die Proton-Antiproton-Wechselwirkung energetisch "durchgespielt". Wie bereits erwähnt, Grundlagen siehe das Kapitel Ladungsabhängige Materiebildung.    

 

                

Der kleinste (gemeinsame) Nenner für das SM und die Elementarkörpertheorie 

Lassen wir mal an dieser Stelle die Frage unbeantwortet, inwieweit die vom SM benötigten massetragenden Eichbosonen (W±, Z(0)) und das (neutrale) Higgs-Boson H(0) außerhalb des SM irgendeine Relevanz besitzen, ausser das sie energetische Möglichkeiten der Proton-Antiproton-Wechselwirkungen darstellen.  

Wobei hier zu berücksichtigen ist, daß die Frage ungeklärt bleibt, ob Proton und Antiproton additiv in der Massebilanz ergänzt werden (müssen). Im additiven Fall folgt:

p+ + p ► 2 H(0) + 8,4188259456e-27 [kg] + 2 · (1,672621898e-27  [kg] )

dann würden insgesamt ~ 1,176407e-26 [kg], respektive 6,6 GeV für weitere instabile Teilchen oder/und kinetische Energie zur Verfügung stehen.

Die Auswahl hängt offensichtlich von der Ladungserhaltung ab. Inwieweit "Impulserhaltung" gewährleistet ist, lässt sich pauschal in keinem Fall beantworten, da die inelastischen masse-radius-gekoppelten Wechselwirkungen zu diversen temporären (zeitinstabilen) Möglichkeiten führen, die sich durch die assoziierten Radius-Masse-Verhältnisse definieren. Hier erkennt man qualitativ das Dilemma der beschleuniger-generierten Teilchen. Zwischenzustände sind aus Sicht einer fälschlicherweise nur massekoppelten Energie energieerhaltungsverletzend. Daraus resultieren dann wieder die beliebten Geisterteilchen (Neutrinos) für eine masseadäquate Energiebilanz. Masse-Radius-gekoppelt werden keine Neutrinos "benötigt". Masse-abhängige Energie hat sich in radius-abhängige Energie gewandelt.

     

 

 

                                                                        Weitere Betrachtungen

Insgesamt stellt sich epistemologisch die Frage nach der Realität der innerhalb des SM theorienotwendigen Vektorbosonen und des theorienotwendigen Higgs-Bosons. Hier ist zu bemerken, daß ~ 99% der Masse des Protons sowie des Neutrons energetisch als Bindungsenergie definiert werden. Der Higgs-Mechanismus ist also - praktisch gesehen - selbst im Rahmen des Standardmodells der Teilchenphysik "voraussageunspezifisch" und "massegebend" extrem ineffizient. Theoretisch ist die mickrige "1% - Situation" noch katastrophaler, denn das Higgs-Feld, der Higgs-Mechanismus oder was es sonst noch so an semantischen Higgs-Möglichkeiten gibt, soll allen "Teilchen" und auch dem Higgs-Boson selbst Masse "geben". Analytisch, rational logisch denkend erwartet man mit der Aussage "Masse geben", daß es formale Zusammenhänge gibt, die es "erlauben" qualitativ und quantitativ theoretische Teilchenmassen in Übereinstimmung mit gemessenen Teilchenmassen berechnen zu können. Das ist aber in keinem Fall, ausgehend von Higgs-Mechanismus, möglich !!! Mit freien Parametern bestückte Gleichungen anzuschreiben und dann zu behaupten, diese Gleichungen würden "Masse geben" ist realphysikalisch nichts weiter als eine "Luftnummer". In Anbetracht der "1% - Situation" wird daraus - interdisziplinär gesehen - eine Lachnummer. Wer lässt sich auf solch einen Quatsch ein? Warum lässt sich jemand auf solchen Quatsch ein? Warum gibt es kaum Kritiker? Haben alle die Hosen voll, weil sie in Furcht vor dem Formalismus lieber den Mund halten, statt sich konkret mit den mathematischen Konstrukten zu beschäftigen? Was bleibt denn von den phänomenologisch unbegründeten "axiomatischen" Fantasiekonstrukten ausser Willkür und Beliebigkeit? Wie man so schön umgangssprachlich sagt: "Butter bei die Fische". Standardmodell-Physiker sollten in Anbetracht der Realsituation kleinlaut, besser noch stumm, erst einmal ihre "Hausaufgaben" machen, bevor sie mit leeren Versprechungen umherziehen.

 

Theoretiker geben nicht so leicht auf “…

Letztendlich sind die „Ergebnisse“ der Theoretischen Grundlagenphysik zu den vermeintlichen „Elementarteilchen“ die emotionale Antwort auf die ideologische Frage, auf welches theoretische Konzept man sich „heute und demnächst“ einigt. Die Natur hat sich gefälligst den theoretischen Implikationen zu unterwerfen. Gemessen wird stark selektiv in vorgezeichneten Zerfallskanälen. Beobachtet wird das, was die aktuell herrschende Theorie fordert.

Ein kleiner Einblick in die Welt der Fantasieprodukte:

Hier am Beispiel der Analyse zur Elektroschwachen Symmetriebrechung mittels diverser Modelltypen von Wolfgang Kilian (DESY) und Maria Laach September 2005 (Schwach wechselwirkende Modelle (SM und „Artverwandte“), direkte dynamische Brechung der elektroschwachen Symmetrie, Little-Higgs-, Extra-Dimension- und supersymmetrische Modelle).

 

Die Verselbständigung der mathematischen Abstraktionen führt (auch im Rahmen des Higgs-Mechanismus) nachweislich zu beliebigen Fantasiekonstrukten. Der Formalismus ermöglicht die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie des Geschehens auseinandersetzen zu müssen um "Ergebnisse" zu erhalten. "Praktisch" braucht es mindestens zehn Milliarden Kollisionen, um ein einziges »Higgs-Teilchen« zu produzieren. Dieses wird aber gar nicht direkt nachgewiesen, da es, wie alle anderen instabilen (postulierten) Teilchen, nur indirekt "nachweisbar" ist. Halten wir fest: Phänomenologisch vollkommen unbegründete mathematische Prozeduren liefern «Freie-Parameter-Gleichungen», die zu keinem Ergebnis führen. Auf 10 Milliarden Fehlversuche kommt ein stark theoriebeladenes Ereignis, daß als "Nachweis" postuliert wird.

Ohne Übertreibung ist offensichtlich die herrschende Theoretische Grundlagenphysik samt zuständigem Nobelpreis-Komitee in einer  - rational logisch erfassbaren - unvergleichlichen Krise. Kein Forschungsgeld der Welt, kein Nobelpreis rechtfertigt diesen konstruierten »Fantasie-Murks«, der durch stark theoriebeladene, methodisch vorselektierte Messungen im Verhältnis 1 zu 10 Milliarden "bestätigt" wird.

Randnotiz zur Pathologie: 2013 gab es einen Nobelpreis für den "Higgs-Machanismus". 2015 gab es einen Nobelpreis für den (angeblichen) Nachweis der Neutrino-Oszillationen, sprich Neutrinomassen. Nur der "Higgs-Mechanismus" und übergeordnet das Standardmodell der Teilchenphysik schließt Neutrinomassen aus. In Anbetracht der dokumentierten "Schizophrenie" wäre es vielleicht keine schlechte Idee, die "Macher" und "Entscheider" neurologisch untersuchen zu lassen.

Man muß sich sehr ernste Gedanken über den Zustand der Protagonisten und Anhänger dieser dekadenten, dreist-frechen und letztendlich erkenntnistheoretisch nutzlosen Interpretation von Wissenschaft machen. 

Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte."

Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

 

... mit den Worten Theodor Fontanes:

»Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.« 

 

Randnotiz

Egbert Scheunemann hat im Rahmen der "Higgs-Boson-Detektion" einige Fragen an Physiker gestellt. Die Fragen selbst und die  "Art und Weise" wie Physiker antworten, offenbaren das komplexe Dilemma willküraffiner "Forschung". Des Weiteren wird die Überheblichkeit der "Forscher" deutlich. 

Fragen an die Physiker aus erkenntnistheoretischer und naturphilosophischer Sicht :

http://www.egbert-scheunemann.de/Higgs-Boson-Fragen-Scheunemann.pdf

Antworten von Physikern auf Fragen zum Higgs-Boson :

http://www.egbert-scheunemann.de/Higgs-Boson-Antworten-von-Physikern-Scheunemann.pdf

 

Was ist und was darf sein 

Phänomenologisch besitzen die im Teilchenbeschleuniger "erzeugten" Teilchen, ausser zeitstabiles Elektron, Proton und Photon (als masseloser Zustand des energetisch äquivalenten Elementarkörpers) keine materiebildende Relevanz. Überflüssig zu erwähnen, daß Elektronen, Protonen und Photonen omnipräsent sind. Ihr "Vorkommen" als "Beschleunigerergebnisse" sind also nicht sonderlich überraschend.

 

 

 

Elementarkörpertheorie

Die Proton-(Anti-)Proton-Wechselwirkung erzeugt primär mit ~ 257 GeV die größte Materiebildungsenergie (diese entspricht phänomenologisch der Schwerpunktenergie der Beschleuniger). Im Hinblick auf den von der theoretischen Systemphysik "errechneten" Vakuum-Energie-Wert von ~ 246 GeV ein interessantes Ergebnis. Somit lassen sich theoretisch Top-Quark-, Higgs-Bosonen-, W- und Z-Bosonen-Masse sowie alle weiteren weniger energetischen "Masse-Möglichkeiten" generieren. Insgesamt gilt jedoch für alle denkbaren Wechselwirkungskonstellationen, die beschleunigertypisch zu (ultra-)kurzlebigen "Massehäufchen" führen, daß der Sinn und Zweck dieser Vorhaben sich keiner ernsthaften Betrachtung erschließt, sofern man auf der Suche nach fundamentalen Zusammenhängen ist.       

Die wirklich interessanten (erkenntnistheoretisch wertvollen) phänomenologisch begründeten Wechselwirkungen resultieren aus der Proton-Elektron-Konstellation, die sowohl die Grundzustandsenergie des Wasserstoffatoms (Ionisierungsenergie), sowie die Massenberechnung des Neutrons ermöglicht. "Natürlich" ist in dem Zusammenhang auch bemerkenswert, daß von den zeitinstabilen Möglichkeiten Pionen(-Massen) "bevorzugt" entstehen.

 

 

» Details der Untersuchungsergebnisse «

Standardmodell der Teilchenphysik (SM) und Higgs-Mechanismus  

Das Standardmodell der Elementarteilchenphysik zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen.

Die Definition der Masse eines Teilchens bezieht sich im Rahmen des Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt, wie auch die Gravitationswechselwirkung die im Standardmodell nicht beschrieben werden kann. Die kinematische Wirkung der Masse manifestiert sich im Propagator des Teilchens.  

Im Standardmodell existieren drei Generationen von Leptonen und Quarks, sowie vier elektroschwach und acht stark wechselwirkende Eichbosonen und ein skalares Boson, das Higgs-Boson. Die elektromagnetische Wechselwirkung zwischen Leptonen und dem Photon wird mittels der Quantenelektrodynamik (QED) beschrieben. Die Theorie der starken Wechselwirkung ist die Quantenchromodynamik (QCD). Die Teilchen, die die starke Wechselwirkung vermitteln, sind die acht Gluonen, diese koppeln an die Farbladung (rot, grün, blau), die von den Quarks getragen wird. Die schwache Wechselwirkung wird mittels der W- und Z-Bosonen vermittelt. Das Standardmodell ist eine Quantenfeldtheorie (QFT): Teilchen und Felder sind quantisiert und werden einheitlich und relativistisch beschrieben. Die Eichbosonen sind (erst einmal) masselos, da entsprechende explizite Massenterme die Eichinvarianz verletzen würden.

Es gibt eine Vielzahl von "Abhandlungen" zum Higgs-Mechanismus. Jeder kann sich seine Lieblingsbeschreibung selbst im Internet aussuchen. Im weiteren Verlauf werden hier der formale Werdegang und die Beliebigkeit des "Verfahrens" skizziert.

Das Higgs-Boson ist keine direkte Folge einer Eichsymmetrie, vermittelt daher keine Wechselwirkung im Sinne des Standardmodells und wird daher auch nicht als Austauschteilchen angesehen. Das Higgs-Boson wird jedoch „benötigt“, um die elektroschwache SU(2)x(U(1)-Symmetrie zu brechen und so sowohl dem Z- als auch den W-Bosonen Masse zu verleihen.

Auffällig ist, daß folgender Sachverhalt kaum thematisiert wird: Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m² < 0). Merke: Das ursprüngliche Higgs-Feld ist ein Tachyon-Feld, mathematisch definierbar, physikalisch irreal.

Es gilt generell zu bedenken: Das Higgs-Potential und damit die spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus. Um den Tachyon-Term „zu umgehen“ wird das Feld als eine Variation um einen Vakuumzustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms. Im Verlauf der mathematischen Prozedur zeigt sich, daß ein weiteres masseloses Vektorboson, daß so genannte Goldstone Boson auftritt. Da es aber keinen experimentellen Hinweis für dieses Boson gibt, wird es als "unphysikalisch" erklärt und mathematisch eliminiert („weggeeicht“). 

Allgemein auffällig: Grundsätzlich werden Masse und Masselosigkeit der Theorie-Objekte nach den Fantasieweünschen der Theoriebauer vergeben.

"Fantasiewunsch" ist keine semantische Spitze sondern inhaltlich das richtige Wort. Denn bei neutraler Betrachtung des SM fällt auf, daß im Rahmen des Formalismus Masse und Masse-Losigkeit je nach Gutdünken der Theoriebauer vergeben werden. Das lässt sich grundsätzlich durch "Neu-Eichungen" realisieren. Doch dieses beliebige Handeln besitzt keinen realphysikalischen Nährwert im Sinne eines Erkenntnisgewinns über phänomenologische Zusammenhänge. Ganz im Gegenteil: Es wird eine physikalische Pseudo-Realität geschaffen, die dann als verbindliche Grundlage dient. Wie sinnlos dieses Unterfangen ist, zeigt exemplarisch die theoretische Forderung nach Masselosigkeit der Neutrinos, die aber - gemäß Neutrinooszillationen - auch von SM-Vertretern anerkannt endliche Massen besitzen. Die theoretische Forderung läuft ins Leere.

Hintergründe: Von den im Standardmodell als fundamental angesehenen Fermionen sind die Massen der geladenen Leptonen – Elektron, Myon, Tau – nur experimentell bekannt, sie treten als freie Teilchen auf. Die neutralen Leptonen (Neutrinos) werden im Standardmodell als exakt masselose Weyl-Fermionen angenommen. Der Widerspruch zu experimentell geforderten Neutrinomassen ist evident. 

Bei "massetragenden" Neutrinos muss man, wie bei den Quarks, zwischen Eigenzuständen der schwachen Wechselwirkung und Masseneigenzuständen unterscheiden. Wenn ein Neutrino durch die schwache Wechselwirkung erzeugt wird, befindet es sich in einem definierten “flavor”-Eigenzustand, der eine kohärente Superpostion von Masseneigenzuständen ist, d. h. das Neutrino kann während der Propagation spontan in einen anderen “flavor” übergehen. Diese Übergänge werden dann Neutrino-Oszillationen genannt.

Quarks hingegen sind nicht isolierbar, soll heißen, nicht direkt "messbar". Quarksmassen werden aus ihrem Einfluß auf das Hadronenspektrum oder auf Streuquerschnitte berechnet. Bei der Angabe der Resultate muß sorgfältig unterschieden werden, auf welchen Modellannahmen die Berechnungen beruhen und welches Renormierungsschema verwendet wurde. Die Literatur zum Thema ist entsprechend umfangreich und teilweise schwer zu vergleichen.

In der Quantenfeldtheorie ist ein Elektron nicht nur ein »nacktes Elektron«, sondern von einer Wolke von virtuellen Teilchen (Photonen und Elektron-Positron-Paaren, bei höheren Energien auch anderen Fermion-Antifermion-Paaren) umgeben (Vakuumpolarisation), die es ständig emittiert und wieder absorbiert. Diese schirmen die negative Ladung des nackten Elektrons ab. In unmittelbarer Nähe der nackten Ladung werden die Elektron-Positron-Paare polarisiert, d.h., die virtuellen Positronen werden angezogen und die virtuellen Elektronen abgestoßen. Die nackte Ladung wird dadurch zum Teil kompensiert und in größerer Entfernung misst man nur noch die Differenz zwischen der nackten Ladung und der Gesamtladung der virtuellen Positronen (bzw. Antileptonen und entsprechenden Quarks je nach Energie). Die Messung der Testladung hängt also vom Abstand ab. Wenn man sich dem Elektron nähert, durchdringt man die Positronwolke, die die Elektronladung abschirmt.

SM-Postulat: Wie das Elektron ist auch ein Quark von einer Wolke virtueller Teilchen umgeben, und zwar von Gluonen und Quark-Antiquark-Paaren. Die Farbladung eines Quarks wird durch die Farbladungen der Quark-Antiquark-Paare in der Wolke teilweise kompensiert. Anders als die elektrisch neutralen virtuellen Photonen in der Umgebung eines Elektrons haben die virtuellen Gluonen in der Umgebung eines Quarks ihre eigenen Farbladungen und können daher in Paare von Gluonen übergehen (Selbstkopplung). Als Folge dieser zusätzlichen Beiträge wird im Falle der QCD die Farbladung des Quarks nicht abgeschirmt, sondern erhöht (antiscreening). [Es gibt keine erklärende Phänomenologie zum antiscreening!] 

Zur Erinnerung: Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die postuliert quarks-basierenden physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Postuliert „Strukturlose“, wie das Elektron, sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "weitere 5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen". Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden.

Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. Religiosität und Psychologie kommen mit dem Theoretiker als Mensch mit ins "Spiel".

"Massetragende" Neutrinos können als Dirac- oder Majorana-Spinoren dargestellt werden. Für masselose Neutrinos sind diese beiden Darstellungen äquivalent. Falls Neutrinos massive Dirac-Teilchen sind, so ist nach wie vor die totale Leptonzahl eine Erhaltungsgröße, während die Leptonfamilienzahl durch die Neutrinomischung verletzt wird. Letzteres gilt ebenso für Majorana-Neutrinos, die aber zusätzlich auch die totale Leptonzahl verletzen würden, da Majorana-Neutrinos ihre eigenen Antiteilchen sind. Diese Leptonzahlverletzung könnte sich in einem neutrinolosen doppelten Betazerfall zeigen. Die Beobachtung eines solchen Zerfalls wäre ein eindeutiger Hinweis auf die Existenz von Majorana-Neutrinos. Darüber hinaus ist die Unterscheidung von Dirac- und Majorana-Neutrinos experimentell äußerst schwierig. Majorana-Neutrinos können kein elektrisches oder magnetisches Dipolmoment besitzen, ebenfalls als Folge der Tatsache, daß Majorana-Neutrinos ihre eigenen Antiteilchen sind. 

[Nur warum sollte man sich mit der Frage nach "massetragenden" Neutrinos und theoretischen Konstrukten a la Dirac- oder Majorana-Spinoren beschäftigen, da es eh keine Neutrinos gibt?]   

Willkür als Gestaltungselement: Auftretende mathematische Objekte, die den Theoretikern nicht ins Konzept passen, werden als "unphysikalisch" erklärt, sodann "weggelassen", respektive "weggeeicht" (siehe hier Goldstone-Boson oder anderenorts beispielsweise "nichtbrauchbare" Phasen der CKM-Matrix).

 

Unendlichkeiten werden regularisiert und sodann renormiert.

 

„Zur Erinnerung“: Bei der Berechnung von so genannten Schleifenkorrekturen treten (ultraviolette) Divergenzen auf. Im ersten Schritt werden diese Divergenzen regularisiert. Eine Regularisierung macht die auftretenden Schleifenintegrale vorübergehend endlich, was dazu führt, diese berechnen zu können. Methoden zur Regularisierung sind beispielsweise Cutoff, Gitter-Regularisierung und Dimensionale Regularisierung.

Um ein physikalisch interpretierbares Ergebnis zu erhalten, müssen die Divergenzen sodann renormiert werden. Die Grundidee der Renormierung ist, daß die unendliche Summe aller Korrekturen ein endliches Ergebnis sein muss. Folglich können die divergenten Anteile einer Schleifenkorrekturrechnung in höhere Ordnungen verschoben werden, ohne das Ergebnis der Summe aller Korrekturen zu verändern. Um eine solche Renormierung durchzuführen, werden zunächst die Felder, Massen, Kopplungskonstanten und Eichparameter in der Lagrangedichte reskaliert.

Aus einem zusätzlichen Anteil der Lagrangedichte können »Gegenterme« bestimmt werden. Die Gegenterme und divergenten Termen werden mittels Renormierungskonstanten addiert, um ein endliches Ergebnis zu erhalten. Die Wahl der Renormierungskonstanten ist nicht eindeutig, da auch konstante Anteile in höhere Ordnungen verschoben werden können. Daraus resultiert eine Abhängigkeit des Ergebnisses von dem gewählten Renormierungsschema. Häufig verwendete Schemata sind die Minimale Subtraktion und die modifizierte Minimale Subtraktion.

Im Rahmen des Standardmodells der Teilchenphysik (SM) existieren quadratisch divergente Beiträge zur skalaren Masse von Eichbosonschleifen sowie Fermionschleifen. Ohne das an dieser Stelle näher auszuführen, lässt sich der so genannte Abschneideparameter Λ nicht aus der Theorie bestimmen. Die großen Λ2 Korrekturen implizieren, daß, wenn man die Hochenergietheorie, von der das SM als effektive Niederenergietheorie abstammt, benutzt, um Vorhersagen bei TeV-Energien zu machen, diese Vorhersagen extrem sensitiv auf die Parameter der Hochenergietheorie sein würden, wenn Λ » 1 TeV ist. Dies ist das so genannte fine-tuning problem (Feinadjustierungsproblem) des SM.

 

Die Verselbständigung der mathematischen Abstraktionen führt nachweislich zu beliebigen Fantasiekonstrukten. Der Formalismus ermöglicht die vermeintliche „Bequemlichkeitsich nicht realobjekt-inhaltlich mit der Phänomenologie des Geschehens auseinandersetzen zu müssen um Ergebnisse zu erhalten. Später mehr dazu.

Die meisten Wissenschaftler, vielleicht fast alle, die sich mit Grundsatzfragen der Materiebildung und Annihilation dieser beschäftigen, haben offensichtlich verdrängt, daß Nulldimensionalität keiner Naturbeobachtung entspricht, sondern ein (abstraktes) theoretisches Konzept ist. Nur das unbeobachtete (nichtwechselwirkende) Photon hat die räumliche Dimension Null. Um das im Rahmen eines konsistenten Denkmodells „zu verstehen“ bietet sich die Elementarkörpertheorie an.

 

 

Information als materieller Zustand = Elementarkörper           Zustand als Information = Photon

Die grundsätzliche Denkmodell-Forderung besteht darin, daß möglichst minimalistische Gleichungen sowohl das masselose Photon als auch massebehaftete Materie abbilden. Die Entstehungsgleichungen r(t) = r0 ·sin(c ·t/r0) und m(t) = m0 ·sin(c ·t/r0) leisten genau das.

 

 

Die zeitlose Lichtgeschwindigkeit - als Zustand reiner Bewegung -  steht nicht im Widerspruch mit der Materie-Energie-Verkörperung. Für t = 0 handelt es sich um reine Bewegungsenergie (Photon). Für t0 = (π ·r0) / (2 ·c) ist die Umwandlung in masse-radius-gekoppelte Energie abgeschlossen, wir erhalten ein Realobjekt mit den charakteristischen Grössen r0 und m0. In diesem Zusammenhang ist die Invarianz der [Vakuum-]Lichtgeschwindigkeit auf eine phänomenologisch begründete Zustandsänderung zurückzuführen und nicht auf Mathematik in Form von Bezugssystemen und deren Verknüpfungen.

Die Masse-Bildung ist an die zeitabhängige Radius-Vergrößerung r =r(v(t)) gekoppelt. In einfachen Worten: Aus der anfänglichen, reinen Bewegungs-Energie entstehen stetig zeitabhängige Kugeloberflächen, die als solche einen Raum aufspannen, dessen Größe ein Maß für die äquivalente Masse ist. Nach einer Viertelperiode (½π) ist der Elementarkörper voll ausgebildet (r(t) = r0 , m(t) = m0), daß bedeutet das die Expansionsgeschwindigkeit v(t) gleich Null ist.

                

 

Statischer Zustand des Elementarkörpers und (Teil-)Annihilation

Phänomenologisch ist die Umwandlung von Bewegungsinformation in Rauminformation abgeschlossen. Ohne äußere Wechselwirkung bleibt der Elementarkörper nun in diesem Zustand. Wird der Elementarkörper von außen "angeregt", kommt es zu verschiedenen Wechselwirkungs-Szenarien, die je nach Energie der Wechselwirkungspartner zur Teil-Annihilation oder (Voll-)Annihilation führen. Materiebildende Teil-Annihilationen kommen in der einfachsten Form durch die Proton-Elektron-Wechselwirkung zustande (Stichworte: Rydberg-Energie, Wasserstoffspektrum). Masse-gekoppelter Raum annihiliert gemäß r(t) und m(t). "Strahlung" wird aufgenommen oder abgegeben.

Bei der vollständigen Annihilation kontrahiert der Elementarkörper gemäß r(t) und m(t) wieder bis zum Ursprung und liegt sodann in Form reiner Bewegungs-Energie (Strahlung) vor.

Energie-äquivalent wird die Gesamtenergie des masse-radius-gekoppelten Realobjektes durch die Comptonwellenlänge ½π · r0 definiert. Somit ergibt sich auch die Comptonwellenlänge "objekt-natürlich" als Ergebnis der Zustandsänderung. Detaillierte Ausführungen finden sich u.a. im Kapitel: Elementarkörper. Auch wenn „Antiteilchen“ selten explizit benannt werden, gelten alle energetischen Beziehungen auch für diese.

 

 

Teilchenbeschleuniger und Materiebildungen

Größere (Beschleuniger-)Energien erzeugen im Bild der Elementarkörpertheorie im Hinblick auf die mittleren Lebensdauern der (kaskadenartig) erzeugten Teilchen kaum neue "Materie-Quellen", sondern mit fortschreitender Wechselwirkungsstufe (siehe weiter unten: primäres, sekundäres, tertiäres energetisches Maximum) überwiegend Translationsenergie.

Der Large Electron-Positron Collider (LEP, deutsche Bezeichnung Großer Elektron-Positron-Speicherring) war ein - bis zum Jahre 2000 - Teilchenbeschleuniger am Europäischen Kernforschungszentrum CERN. Er erreichte Schwerpunktenergien von bis zu 209 GeV. Die Schwerpunktsenergie steht zur Verfügung, um in Anregungsenergie oder in die Masse neuer Teilchen umgewandelt zu werden. Es hätte also energetisch ein Higgs-Boson erzeugt werden können. Gemäß Elementarkörpertheorie-Gleichungen [Eq0q0] und [mq0q0] ist aber primär nur die Bildung eines neutralen π-Mesons aus der q0-Elektron-q0Positron-Wechselwirkung möglich. Was absolut gesehen nicht bedeutet, daß keine massereicheren (stets zeitinstabilen) Wechselwirkungsmassen produziert werden können. Die Wahrscheinlichkeit daß dies geschieht, wird aber mit jeder weiteren Wechselwirkungsstufe deutlich kleiner.

Beispiel: Primär bildet sich aus der Elektron-Positron-Wechselwirkung maximal ein π0 mit einer mittleren Lebensdauer von ca. 8,52e-17 [s]. Dieses neutrale Pion zerfällt zu fast 99% in zwei Photonen. In 1% zerfällt es wieder in ein Elektron und ein Positron sowie ein Photon. Das sekundäre energetische Maximum erreichen nur wenige neutrale Pionen. Aber erst im tertiären Maximum steht eine ausreichend große Energie zur Bildung von Higgs-Boson & Co zur Verfügung. Es kommt jedoch während der Phase des sekundären energetischen Maximums über die e-q0-Elektron-Positron-Wechselwirkung zur Bildung von geladenen Pionen. Diese haben zumindest eine deutlich längere Lebensdauer von ~ 2,6e-8 [s]. Aber auch diese müssen erst die 3.Wechselwirkungsstufe erreichen, bis sie genügend Energie für schwere Massen im Bereich von 1e-25 [kg] besitzen. Leider lassen sich hier nur grob qualitative Aussagen zu den Wechselwirkungswahrscheinlichkeiten machen, da die Phänomenologie sowie die "Geometrie der Streuung" der Teilchen, realphysikalisch betrachtet, unbekannt ist.

     

Elementarkörpertheorie: Das energetisch effektivste Ergebnis resultiert aus der primären Proton-Antiproton-Wechselwirkung mit einer Materiebildungsenergie von ~ 257 GeV, daß entspricht einer Masse von ungefähr 4,6e-25 [kg]. [Randnotiz: Der mittels "Higgs-Mechanismus" definierte Vakuumenergiewert beträgt ungefähr 246 GeV] Höhere Schwerpunktenergien führen zwar theoretisch zur Bildung größerer Massen, doch die sehr kleinen bis ultrakurzen Lebensdauern der "Entstehungsprodukte" stehen in keinem Verhältnis zu dem energetischen Aufwand. Da Proton-Antiproton-Kollisionen derzeit nur in Ringbeschleunigern durchgeführt werden, muß hier berücksichtigt werden, daß über die Synchrotonstrahlung während der Beschleunigungsphase permanent (relativ viel) Energie abgestrahlt wird. Die jetzige "14 TeV -Phase des LHC" ist aus Sicht der Elementarkörpertheorie-Erkenntnisse deutlich überdimensioniert. 

Insgesamt sind Beschleuniger-Ergebnisse erkenntnistheoretisch wertlos. Siehe hierzu die Ausführungen im Kapitel Standardmodell der Teilchenphysik. Im Folgenden werden schlicht energetische Möglichkeiten aufgeführt die sich meist aus der q0-q0-Wechselwirkung ergeben.

Zur Erinnerung:

Das erweiterte Ladungs-Prinzip führt über die Elementarkörpertheorie basierende Wasserstoffatom bildende Proton-Elektron-Wechselwirkung hinaus. Aus dem verallgemeinerten, anschaulich-phänomenologischen Prozess folgen stringent das Neutron und Pionen als energetisch mögliche (zeitinstabile) "Teilchen".

Wie gezeigt wird, kommen elektrische Ladungen innerhalb der Elementarkörpertheorie nur implizit über Funktionen der Sommerfeldschen Feinstrukturkonstanten α "rechnerisch" vor. Elektrische Ladungen (q0 und e) definieren das Verhältnis von Masse- zu Radius-Energie.

Im cgs-System (Zentimeter, Gramm, Sekunde) ist die elektrische (Elementar-)Ladung "gleich" als Wurzel aus dem Produkt aus m0r0c² definiert. Hier ist natürlich zu beachten, daß alle verwendeten Größen in Zentimeter, Gramm und Sekunde richtig dimensioniert werden (müssen).

"Schlüssel" zum Verständnis der Materiebildungen sind die phänomenologisch begründeten Ladungsmöglichkeiten. Zum einen die energetisch ruhemasse-ruheradius-äquivalente (starke) Elementarkörper-Ladung q0 und die elektrische Elementarladung e.

                                  

f7 wurde eingeführt, um suggestiv zu verdeutlichen, daß es sich bei der [Elementarkörper-]Ladung q0 ("nur") um eine skalierte Masse-Radius-Funktion handelt. Banalerweise ist f7 auch numerisch (1·107) einfacher zu merken als der Wert der Dielektrizitätskonstanten. Die Frage nach der Herkunft und Bedeutung der Sommerfeldschen Feinstrukturkonstanten führt zur elektrischen Elementarladung. α ist somit eine "abgeleitete" Grösse, die aus der elektrischen Elementarladung "entstammt".

Konsequenterweise wird die Feinstrukturkonstante α Elementarkörpertheorie basierend energetisch bestimmt. Sie ergibt sich aus dem Vergleich ↑ von Gesamt-Energie (Elementarkörperladung q0 als (Funktion des) Radius-Masse-Äquivalent) und elektrischer Energie mittels der elektrischen Elementarladung e. Hier ist zu bemerken, daß quantitativ nicht α sondern α/4 das "Maß der Dinge" ist.

 

Als formales Ergebnis zur Materiebildung resultieren drei Energie- und drei Masse-Gleichungen, die, wenn man so will, die Schwerpunktenergie im Beschleuniger abbilden, daß ist die Energie, die zur Materiebildung zur Verfügung steht.

Gleichungs-Überblick des erweiterten Ladungsprinzips

Obige näherungsfreie Gleichungen führen mittels Proton-Elektron-Wechselwirkungen zwanglos zu Wasserstoffatom, Neutron und geladenen Pionen, siehe das Kapitel Materiebildung.

 

 

Energetisch analoge Drehimpulsbeträge der erweiterten materiebildenden Ladungsmöglichkeiten

Die "bekannte" Drehimpuls-Betrags-Quantelung lässt sich direkt aus der Elementarkörperbetrachtung (in "energetischer Analogie") ableiten. Der Ausdruck energetische Analogie weist darauf hin, daß im Falle des Elementarkörpers, dieser weder rotiert noch sich sonst wie bewegt. Vergleiche dazu die inkonsistente Annahme der QED das das Elektron als Ladungs- und Masse-Punkt keine realphysikalische Rotation  "ausführt" und das das SM-postuliert quarksbasierende asymmetrisch, ladungsfragmentierte Proton keinen quarksbasierenden Spin besitzt. Die größte gedankliche Herausforderung besteht somit in der Abstraktion, daß der klassische Bahn-Drehimpuls L = r x p , ILI = r·m·v in Verbindung mit Ladungsträgern phänomenologisch keine Bahnbewegung beschreibt, sondern ein energetisches Verhältnis ausdrückt. Das mag ohne Kenntnis der Elementarkörperdynamik (erst einmal) unbefriedigend erscheinen, obwohl aus Sicht der herrschenden Physik, die ungeklärte phänomenologische "Ansicht" etablierter Bestandteil des Denkens seit Einführung des quantenmechanischen Spins ist. Der quantenmechanische Spin "existiert" seit  ~ 1930 betrachtungsinkonsistent und ohne "Spin-Phänomenologie" rein mathematisch. 

Kapitel 10.2 Diracsche Elektronentheorie 1928 Seite 10006  Zitat …“Denn der neue Drehimpuls hat mit dem, was man sich unter diesem Namen als mechanische Größe vorstellen kann, nichts mehr gemein. Er entsteht aus keiner Bewegung, sondern aus dem Zusammenwirken eines räumlichen Vektors mit den Dirac-Matrizen in dem Raum ihrer vier abstrakten Dimensionen.“…

Quelle:  http://www.iup.uni-bremen.de/~bleck/lecture_notes/KT-15Kap.pdf/Kap-10-Elektron_Positron_Leptonen.pdf 

(Details siehe das Kapitel Magnetische Momente und Spin) Es ergeben sich konsistent zur e-e-Wechselwirkung energetisch analoge Drehimpulsbeträge für die e-q0- und q0-q0-Wechselwirkung.

 

 

Im Hinblick auf die energetischen Verhältnisse des Beschleunigers, der relativistischen bis ultrarelativistischen Teilchen, werden in den folgenden Betrachtungen meist nur q0-q0-Wechselwirkungen behandelt.

Es wird verständlich, daß sich aus den phänomenologisch begründeten, masse-radius-gekoppelten Elementarkörper-Wechselwirkungen ein Quasi-Kontinuum diskreter Teilchen "erzeugen" lässt, so wie es, mehr oder weniger, im Teilchenbeschleuniger beobachtet wird. Das im Rahmen des Standardmodells der Teilchenphysik - historisch gesehen - sukzessive eine Vielzahl diverser Unterscheidungsmöglichkeiten (Theorieparameter wie Flavour-Quantenzahlen),  eingeführt wurden bzw. eingeführt werden mussten, ist den theoretischen Implikationen "geschuldet". Wie inkonsistent, erkenntnistheoretisch wertlos und beliebig dies geschieht, wird im Kapitel Standardmodell ausführlich erörtert. Ein besonders "tragikomisches Ereignis" ist das Tauon.

Das Tauon (τ-Lepton) ist das schwerste der drei geladenen Leptonen des Standardmodells der Elementarteilchen. Seine Masse beträgt ~ 1777 MeV/c2   ~ 3,16779e-27 kg, die Lebenszeit ~ 2,906 ± 0,010 · 10−13 s.

Für das Tauon gilt: „Die Brechstange muss ran“ oder sinngemäß nach Georg Wilhelm Friedrich Hegel (1770 - 1831):

„Wenn die Tatsachen nicht mit der Theorie übereinstimmen, umso schlimmer für die Tatsachen.“

Schaut man sich die möglichen Zerfälle des Tauons an (http://pdg.lbl.gov/2015/listings/rpp2015-list-tau.pdf), so wird (zumindest jedem nicht-SM-Gläubigen) Denker schnell klar, daß es aus analytischer Sicht keinen Zusammenhang zwischen „leptonischem“ Elektron bzw. Myon und dem Tauon gibt. Die Theorie des SM verbaut offensichtlich den Blick auf eine rational-logische Sicht der „Dinge“. Das Elektron zerfällt gar nicht, das gleichfalls negativ geladene Myon wandelt sich hauptsächlich in ein Elektron um. Definitiv gibt es keine - ausgehend vom Elektron und Myon -  „ergebnis-hadronischen“ Umwandlungen. Das Tauon wandelt sich zwar zu ungefähr 17,8% direkt in ein Elektron und Neutrinos, zu ca. 17,4% in ein Myon, aber hauptsächlich in diverse Hadronen, z.B. mit 25% in ein π-, π0 und postuliert ein ντ. Am Beispiel des Tauons lassen sich die Inkonsistenz der Theorie sowie die assoziierte „SM-Katalogisierungs-Euphorie“ sehr gut ablesen. Hier gilt „Vieles und Nichts“ wird auf derzeit (Stand 2015) 89 Seiten präsentiert. Das Myon schafft 15 (http://pdg.lbl.gov/2015/listings/rpp2015-list-muon.pdf) und das Elektron bringt es im direkten Vergleich gerade mal auf mickrige 6 Seiten (http://pdg.lbl.gov/2015/listings/rpp2015-list-electron.pdf). In dem Zusammenhang ist es auch mehr als verwunderlich, daß sich „Theoretiker“ ausführliche Gedanken über den g-Faktor des Tauons machen (siehe exemplarisch: Electron, muon and tau magnetic moments: a theoretical update 2007 ), wobei es gar keine (aussagekräftigen) Messungen zum magnetischen Moment des Tauons gibt.   

 

 

 

starke Proton-Antiproton-Wechselwirkung

mp = 1,672621898e-27  kg  : (Anti-)Protonenmasse     α  = 0,0072973525664

∆E( p+, p- )    =      257,15410429801 GeV    [E2q0q0]

∆m( p+, p- )     =   4,58418825945573e-25   [kg]  [2q0q0]

 

Die im Folgenden exemplarisch aufgeführten Wechselwirkungsergebnisse unter e-Ladungserhaltung "rekonstruieren" vom SM postulierte zeitinstabile Teilchen. Inwieweit deren angegebene Massen korrekte Ruhemassen im Sinne der Elementarkörpertheorie abbilden, ist diskussionswürdig. Sowohl die Zerfallsbreiten als auch die Massenwerte sind stark SM-theoriebeladen. Inwieweit die "überschüssige" Wechselwirkungsenergie gleichfalls zu Massebildungen oder aber zu kinetischer Energie der entstandenen Teilchen führt, ist ungeklärt.

 

neutrales Higgs-Boson, SM-Annahme: mH(0) = 2,25e-25 [kg]

Higgs-Bosonen-Erzeugung aus Proton-Antiproton-Wechselwirkung

Einige energetisch mögliche Wechselwirkungsergebnisse unter Berücksichtigung der e-Ladungserhaltung:

p+ + p ► 2 H(0) + 8,4188259456e-27 [kg]

∆m( p+, p- ) / 2 = 2,2920941297279e-25 [kg]

(∆m( p+, p- ) / 2) / mH(0)  1,02861642

 

Higgs- und Z-Boson-Erzeugung aus Proton-Antiproton-Wechselwirkung

p+ + p ►  H(0) + Z(0) + 7,08621259456e-26   [kg]

Z-Boson  m(Z0)   = 1,625567e-25  kg   91187,6  ±2,1 MeV

 

W± - und Z-Boson-Erzeugung aus Proton-Antiproton-Wechselwirkung

p+ + p ► Z(0) + W- + W+ + 9,2635711456e-27 [kg]

W-Bosonen W+ W-    m(W±) = 1,432992774e-25 kg   80385 ±15 MeV  

 

"Energetisch denkbar" ist auch die "Produktion" eines neutralen Higgs-Bosons mit der Masse von ~ 125 GeV/c² und zwei geladenen Bosonen mit der Einzelmasse mB± von ~ 66 GeV.

p+ + p ►  H(0) + B- + B+

 

usw.

 

Ohne die diskreten Wechselwirkungsmöglichkeiten der Proton-Antiproton-Konstellation hier weiter auszuführen, sollte klar werden, wie das SM-alternative Elementarkörpermodell ergebnisorientiert "SM-analog" funktioniert. Wobei noch berücksichtigt werden muß, daß in niederenergetischen Bereichen gemäß e-q0 und e-e-Wechselwirkungen an den "energetischen Rändern" der Teilchen-Kollisionen quasikontinuierlich noch einiges an SM-bekannten "Zeug" entsteht.

 

Anatomie des wissenschaftlichen Selbstbetruges am Beispiel des Zerfalls des Top-Quarks

Der Selbstbetrug besteht in der transparent vorliegenden theoriebeladenen Deutung des Experimentes. Denn letztendlich werden als Versuchs-Ergebnisse der Proton-Antiproton-Kollision ausschließlich kalorimetrische (energetische) und leptonische Ergebnisse „gezählt“. Alle anderen von der Standardphysik genannten (teils postuliert hadronischen) Prozess-Teilchen sind hypothetisch gedachte (Materie-)Konstrukte. Ausser dem Glauben an diese im Rahmen eines mathematischen Denkmodells, gibt es keine direkten messtechnischen Ereignisse. Das Denkmodell als solches ist aus vielerlei Gründen widersprüchlich, inkonsistent und stets quantitativ beliebig. Insbesondere der Übergang von „quarks-basierenden Zuständen“ zu „leptonischen Gebilden“ geschieht mittels der postulierten Schwachen Wechselwirkung. Diese ist zwar im Rahmen des SM eine zwingende zusatztheoretische Annahme, außerhalb des Standardmodells jedoch nichts weiter als ein „Theorieretter“. In dem Zusammenhang kann man gar nicht oft genug erwähnen, daß die postuliert strukturlose, leptonische elektrische Elementarladung konträr zur asymmetrisch fragmentierten quarksbasierenden elektrischen Ladung des Protons aus formal logischen Gründen die Substrukturierungsannahmen des herrschenden Standardmodells der Teilchenphysik nachweislich als grundlegend falsche These „entlarvt“.

1…"Die entstehenden Teilchen bzw., im Fall von Quarks, deren Zerfallsprodukte (als Jets), werden in den beiden Detektoren nachgewiesen… Die Spuren der geladenen Teilchen werden in der Spurkammer aufgezeichnet, Elektronen/Positronen und Photonen im elektromagnetischen Kalorimeter nachgewiesen, die Teile der Jets im Hadron-Kalorimeter und zuletzt die Myonen in den Myonenkammern. Neutrinos bleiben wegen ihrer geringen elektroschwachen Wechselwirkung unbeobachtet; der transversale Gesamtimpuls aller Neutrinos kann nur indirekt üb er den fehlenden transversalen Impuls (Impulserhaltung) festgestellt werden."...

[Es gibt bis heute nicht einen einzigen direkten Neutrinonachweis. Des Weiteren: Reproduzierbarkeit ist ein fundamentales Kriterium für mögliche Falsifizierbarkeit. Diese elementare Notwendigkeit wird vom SM u.a. im Zusammenhang mit Neutrinos mit Füssen getreten. Im Rahmen der Elementarkörpertheorie wird plausibel, phänomenologisch begründet und rechnerisch gezeigt, daß es keine Neutrinos gibt.

Am Rande bemerkt: Neutrinos stehen nicht im Widerspruch zur Elementarkörpertheorie, wenn man unter einem Neutrino einen hochrelativistischen, somit nahe an der Lichtgeschwindigkeit bewegten Elementarkörper versteht, da dessen Masse-Radius-Verhältnis zu einem sehr kleinen Wirkungsquerschnitt führt. Diese „Elementarkörper-Neutrinos“ besitzen aber keine von anderen Elementarkörpern verschiedene Alleinstellungsmerkmale, die sie als „neue Entität“ auszeichnet. Für den Zerfall von massereicheren zu masseärmeren Teilchen, wie beim Myonen-Zerfall - der zum Elektron führt - werden Neutrinos zur Erklärung nicht benötigt. Details siehe das Kapitel Neutrinos]

1Der Impuls in Flugrichtung der Protonen/Antiprotonen kann nicht festgestellt werden, da aufgrund der Quark- und Gluonstruktur der Protonen/Antiprotonen der Impuls der Top-Antitop Reaktion in Flugrichtung nicht bekannt ist."...

[Das bedeutet schlichtweg, daß das Experiment unvollständig ist und im Resultat als wissenschaftlicher Nachweis unbrauchbar ist.]

1Zur Nachweiseffizienz der einzelnen Teilchen: Jets von Gluonen und leichteren Quarks sind mit nahezu 100% Effizienz nachweisbar, Elektronen und Myonen mit ungefähren 90 %. Tauonen zerfallen entweder leptonisch (36% der Fälle) oder hadronisch (64%). Wegen der beiden entstehenden Neutrinos ist der erste Fall kaum nachweisbar, letzterer auch nur mit 50% Effizienz und dabei, u.a. wegen des entstehenden Neutrinos, nur schwer vom Untergrund unterscheidbar; insgesamt lässt man wegen dieser Schwierigkeiten im Allgemeinen Kanäle mit Tau-Leptonen aus der Betrachtung heraus."...

[Hier wird das komplexe Dilemma deutlich. Es gibt weder theoretische Voraussagen für die experimentellen Wahrscheinlichkeiten, im Zweifelsfall wird das „unmessbare“ Neutrino bemüht und wenn das auch nichts hilft, wird „souverän“ auf einen Teil des Versuchsergebnisses verzichtet."...

 1…"Am wichtigsten ist der Nachweise der Bottom-Quarks, da sie sehr charakteristisch für Top-Ereignisse sind. Bottom-Quarks hadronisieren fast sofort in B-Mesonen, die im Mittel ungefähr 0.5 mm vom Haupt-Vertex entfernt in einen Jet zerfallen. Die Bestandteile des Jets sind dann auf den gemeinsamen, im Vergleich zum Haupt-Vertex versetzten Ursprung zurückzuführen. Man nennt dies Bottom-Markierung / B-Markierung oder b-tagging. Alternativ zerfallen Bottom Quarks (20% der Fälle) in unter anderem ein Lepton, das einen niedrigeren Impuls als das Lepton aus dem Zerfall des W- Bosons hat. Zusammen beträgt die Nachweis-Effizienz für Bottom Quarks ungefähr 60%."...

  [Vorliegende Angaben sind außerhalb des Standardmodells ohne Relevanz. Jedwede andere Theorie ließe sich mit freien Parametern, variablen Kopplungskonstanten und Substruktierungsthesen den Teilchenbeschleuniger-Ergebnissen anpassen.]   

1Textauszüge Seite 5 und 6/Quelle: http://web.physik.rwth-aachen.de/~klein/seminar/JanSteggemann_ausarbeitung.pdf

2…"die Ungenauigkeiten in der absoluten Energieskala sind relativ groß, weshalb die Jet-Energien ungenau bestimmt werden. Z. B. kann aber auch ein Jet durch das Strahlrohr verloren gehen. Dann gibt es Probleme, die eher mit dem Prozess als solchen zu tun haben: Die Reste des Protons und des Antiprotons bilden einen recht großen Untergrund, und sie können zu Einflüssen auf die Messungen beim Hauptereignis führen. So können zwei Jets als einer gemessen werden (der zweite beispielsweise resultierend aus Untergrundprozessen); aber auch der umgekehrte Fall, dass sich ein Jet in zwei Jets aufspaltet, kann auftreten. Die Effekte zusammen können in außergewöhnlichen Gesamtereignissen resultieren, in jedem Fall müssen sie als Fehlerquellen beachtet werden"…

2Textauszug Seite 8 und 9/Quelle: http://web.physik.rwth-aachen.de/~klein/seminar/JanSteggemann_ausarbeitung.pdf

[Mit anderen Worten: Es ist völlig egal wie das Experiment ausgeht, „unsere“ Theorie passt immer. Glückwunsch.]

 

 

 

Elektron-Positron-Wechselwirkungen

Verlassen wir "bildlich" den Hadronenbeschleuniger und schauen uns den Elektron-Positron-Linearbschleuniger an. Es wird sofort deutlich, daß aus energetischen Gründen aus einer primären Elektron-Positron-Wechselwirkung weder massetragende Eichbosonen noch das Higgs-Boson resultieren können.

 

 

q0-q0-Elektron-Positron

m = me± = 9,10938356e-31  kg : Elektronenmasse - Positronenmasse

primäres energetisches Maximum (entspricht Schwerpunktenergie zur zeitinstabilen Materiebildung)

∆E( e+, e- )    =      140,05050232093 MeV    [E2q0q0]

∆m( e+, e- )         =   2,496626955355e-28   [kg]  [2q0q0]

2,4061764315e-28 [kg]  mπ0  

sekundäres energetisches Maximum

6,842555386046422e-26 [kg]

tertiäres energetisches Maximum

1,875352827970064e-23 [kg]

 

(additive) Wechselwirkung

Es kommt während der Phase des sekundären energetischen Maximums über die e-q0-Elektron-Positron-Wechselwirkung zur Bildung von geladenen Pionen.

 

∆m = 2,49664361973507e-28 [kg]

mπ± = 2,48806443231e-28  [kg]

 

 

(additive) Wechselwirkung

Die tertiäre Phase liefert über die e-e-Elektron-Positron-Wechselwirkung, wie die primäre q0-q0-Wechselwirkung ungeladene Pionen mπ0  mit  mA = mB = 1,875352827970064e-23 [kg]

∆m = 2,496660193432e-28 [kg]

Auch für die Positron-Elektron-Wechselwirkung gilt unter Berücksichtigung aller möglichen Mischwechselwirkungen (generierte Massenwerte, respektive Teilchen, der verschiedenen Phasen), daß in niederenergetischen Bereichen gemäß e-q0 und e-e-Wechselwirkungen, an den "energetischen Rändern" der Teilchen-Kollisionen quasikontinuierlich noch einiges an SM-bekannten "Zeug" entsteht.

Ohne das hier explizit auszuführen, wird deutlich, daß die Elektron-Positron-Kollision im Vergleich zur Proton-Antiproton-Kollision deutlich uneffektiver ist, wenn es darum geht "massereichere Zeitmomente" zu kreieren.

 

Insgesamt gilt für alle denkbaren Wechselwirkungskonstellationen, die beschleunigertypisch zu zeitinstabilen "Massehäufchen" führen, daß der Sinn und Zweck dieser Vorhaben sich keiner ernsthaften Betrachtung erschließt, sofern man auf der Suche nach fundamentalen Zusammenhängen ist. Die Elementarkörpertheorie zeigt auf, daß ein diskretes, quasikontinuierliches Massenspektrum erzeugt wird, daß mit einfachen formalen Mitteln der ladungsabhängigen Materiebildung darstellbar ist. Die wirklich interessanten (erkenntnistheoretisch wertvollen) Wechselwirkungen resultieren jedoch aus der Proton-Elektron-Konstellation, die sowohl die Grundzustandsenergie des Wasserstoffatoms (Ionisierungsenergie), sowie die Massenberechnung des Neutrons ermöglicht. "Natürlich" ist in dem Zusammenhang auch bemerkenswert, daß von den zeitinstabilen Möglichkeiten Pionen(-Massen) "bevorzugt" entstehen.     

 

 

Zur Erinnerung

Formales Ergebnis zur Grundzustands-Energie zweier beliebiger e-Ladungsträger mit den Massen mA und mB

 

Die Grundzustands-Energie ∆Eee (Rydberg-Energie ERy) ergibt sich gemäß Gleichung [Eee]. Es wurden zur Berechnung folgende Werte verwendet:

mA  = me = 9,10938356e-31  kg : Elektronenmasse                       mB  = mp = 1,672621898e-27  kg  : Protonenmasse

c: 2,99792458e+08 m/s       α: 0,0072973525664

  2,6626031711955e-5  : ( 1- √( 1 - α² ) )   0,99945567942486 : 1/(1 + me/mp)

 

 

Rydberg-Energie

       ∆Eee =    2,1787147814124e-18 J      ~    13,5984681909  eV

∆m = 2,4241471236633e-35 kg

Vergleich mit experimentell bestimmter Rydberg-Energie ERy(exp)= 13,59843400*  eV

∆Eee / ERy(exp) ~ 1,00000251433

 

* Die Literaturangaben zum Grundzustand in Hinblick auf die Ionisierungsenergie sind "etwas ungenau". Siehe exemplarisch folgende Quellen: 

13.598434005136 eV  http://physics.nist.gov/PhysRefData/ASD/ionEnergy.html , ..., (falls nicht voreingestellt wähle INFORMATION Ground States & Ionization Energies) Spectra: wähle H für Hydrogen... 13,598434005136 eV

..."Experimental Ionization Energy is 13,59844 eV..." und umfangreiche Übersicht theoretisch verschieden berechneter Ionisierungsenergien …  http://cccbdb.nist.gov/ie2.asp?casno=12385136 

13,598433 eV  Seite 1763  http://www.nist.gov/data/PDFfiles/jpcrd690.pdf 

13,598433 eV http://physics.nist.gov/PhysRefData/Handbook/Tables/hydrogentable1.htm

 

 

 

 

Aus der e-Proton-q0-Elektron-Wechselwirkung entsteht das Neutron. Die Gesamt-Masse des Neutrons mn ergibt sich zu: 

mn = mp + me + ∆m ( : Gleichung [mq0e] )         [mn1]

 

Es wurden zur Berechnung folgende Werte verwendet:

mA  = me = 9,10938356e-31  kg : Elektronenmasse

q0mA =   (4/α) · me =  4,99325391071e-28 kg

mB  = mp = 1,672621898e-27  kg  : Protonenmasse

c: 2,99792458e+08 m/s      α: 0,0072973525664   0,00365535710097  : ( 1- √( 1 - α ) )

0,77010243592 : 1/(1 + q0me/mp)

∆m = 1,405600680072e-30 kg       ∆Eee =    1,263290890450e-13 J      ~    0,78848416 MeV

mn(e-Proton-s-Elektron-Wechselwirkung) =  mp + me + ∆m  = 1,6749384370361e-27  kg

Vergleich mit experimentell bestimmter Neutronenmasse mn(exp) (1,674927351e-27 kg)

mn(e-Proton-s-Elektron-Wechselwirkung) / mn(exp) ~ 1,000006619

Unter Berücksichtigung des phänomenologisch begründeten, näherungsfreien Lösungsweges, in formal-analytischer Gestalt der Gleichung(en) : mn = mp + me + ∆m [mq0e], ist das "theoretische" Ergebnis der Elementarkörpertheorie basierenden Neutronenmasse-Berechnung gemäß ladungsabhängiger Proton-Elektron-Wechselwirkung als sensationell zu bezeichnen. 

Weitere Details zum Neutron finden sich im gleichnamigen Kapitel.

 

 

Aus der Proton-Elektron-q0-q0-Wechselwirkung ergeben sich zwanglos 2 Pionen.

 

Es wurden zur Berechnung folgende Werte verwendet:

mA  = me = 9,10938356e-31  kg : Elektronenmasse

q0mA =   (4/α) · me =  4,99325391071e-28 kg

mB  = mp = 1,672621898e-27  kg  : Protonenmasse

q0mB =   (4/α) · mp =  9,16837651891e-25 kg

c: 2,99792458e+08 m/s      α: 0,0072973525664   0,999455679425 : 1/(1 + q0me/q0mp)

 

          

Pionen: ∆m = 4,99053598e-28  kg siehe [mq0q0]  ~  2mπ  (Ladungen +/- 1e) mπ(exp) * = 2,48806443e-28 kg

(∆m/2) / mπ(exp)  ~  1,00289525

*Inwieweit die stark theoriebeladene experimentelle Teilchenphysik überhaupt ruhende Pionenmassen hinreichend genau bestimmen kann, wird stark bezweifelt. Das neutrale Pion ist auf Grund der von den geladenen Pionen unterschiedlichen Masse nur im Rahmen der SM-Forderung ein „Pion“. Die Abstraktion, das Teilchen mit unterschiedlichen Massen gemäß postulierter QM-Überlagerung (Stichwort: Quarkonia) „gleich“ sind, ist innerhalb des SM eine der vielen Beliebigkeitsthesen (siehe u.a. SM-Quarkmassen-Unbestimmtheit im Prozent-Fehler-Bereich) und außerhalb des mathematischen Formalismus des SM unbegründet. Interessant ist noch zu erwähnen, daß in "guter" Näherung gilt: Elektronenmasse me = ½ α mπ(me) [memπ] .

mπ(me) = 2,496626955355e-28   [kg]  [memπ]

~ + 0,34% bezogen auf mπ± und ~ + 3,76% auf mπ

mπ± = 2,48806443231e-28  [kg]  

mπ0 = 2,4061764315e-28    [kg]  

Weitere Details zu Pionen, insbesondere zu dem "Kaskadenzerfall": Pion►Myon►Elektron, finden sich im Kapitel Pionen. Um ein logisch argumentiertes Ergebnis vorweg zu nehmen: Pion, Myon und Elektron sind Elementarkörper. Deren Umwandlungen lassen sich energetisch begründet ohne Neutrinos plausibel erklären. Der Zerfall des SM-postuliert mesonischen Pions in ein leptonisches Myon ruft die Schwache Wechselwirkung auf den Plan, die jedoch außerhalb des SM keine realphysikalische Relevanz besitzt.   

 

Fazit: Oben benannte Gleichungen zur Materiebildung bilden primär drei diskrete formale Möglichkeiten ab. Es gibt keinen weiteren Interpretationsspielraum gemäß phänomenologisch begründeten theoretischem Denkmodell-Ansatzes. Für die konkreten Proton-Elektron-Berechnungen werden initial nur die Protonenmasse (für mB), Elektronenmasse (für mA) und die Feinstrukturkonstante benötigt. Es ist leicht verständlich, daß aus den energetischen Möglichkeiten Kaskaden (...2., 3., ...n-te Misch-Generation(en)) von weiteren diskreten Energien, respektive diskreten Teilchen folgen können. Geladene Pionen können exemplarisch (folgend) mit Pionen, Elektronen, Positronen oder Protonen, Antiprotonen, wechselwirken usw. Die daraus resultierenden geladenen und ungeladenen (Energie-)Körper können "analog" der primären Proton-Elektron-Wechselwirkungen gleichfalls weitere "Teilchen" produzieren. Genauso gut, können aber auch neue Teilchen der n-ten Generation beispielsweise mit Elektron oder Proton wechselwirken. Rückblickend ohne "besondere Motivation" folgt also aus der Elementarkörper basierenden Ladungserweiterung ein "diskreter Teilchenzoo". Der Riesenunterschied zum Standardmodell der Teilchenphysik ist offensichtlich. Die Massen(-Grenzen) dieser "neuen" Teilchen lassen sich aus den materiebildenden Gleichungen näherungsfrei und einfachst berechnen.

 

 

 

Standardmodell und Higgs-Mechanismus

 

Das Standardmodell der Elementarteilchenphysik (SM) zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen.

 

Einige "SM-Postulate"

Die Definition der Masse eines Teilchens bezieht sich im Rahmen des Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt, wie auch die Gravitationswechselwirkung die im Standardmodell nicht beschrieben werden kann. Die kinematische Wirkung der Masse manifestiert sich im Propagator des Teilchens.  

Die Eichbosonen sind (erst einmal) masselos, da entsprechende explizite Massenterme die Eichinvarianz verletzen würden. Versucht man einen (zusätzlichen) Masseterm einzuführen, geht die Invarianz verloren und die Theorie wird nicht renormalisierbar. D.h. die Störungsrechnung divergiert.

Ein „erkenntnistheoretisch wertiges“ Problem ist in diesem Zusammenhang, die meßtechnisch begründete Tatsache, daß es einen fundamentalen Unterschied zwischen dem stabilen Photon, welches losgelöst vom SM real (masselos) direkt nachweisbar existiert, und den mathematisch generierten Photon als SM-postulierten Mischzustand (Stichwort Weinbergwinkel) gibt, sowie, daß es einen fundamentalen Unterschied zwischen dem realen Photon und letztendlich massegewünschten instabilen Eichbosonen (W±, Z0) sowie dem instabilen Higgs-Boson H(0) und den 8 postulierten, selbstwechselwirkenden - vom SM gewünscht masselosen - Gluonen gibt.

"Gewünscht" ist keine semantische Spitze sondern inhaltlich das richtige Wort. Denn bei neutraler Betrachtung des SM fällt auf, daß im Rahmen des Formalismus Masse und Masse-Losigkeit je nach Gutdünken der Theoriebauer vergeben werden. Das lässt sich grundsätzlich durch "Neu-Eichungen" realisieren. Doch dieses beliebige Handeln besitzt keinen realphysikalischen Nährwert im Sinne eines Erkenntnisgewinns über phänomenologische Zusammenhänge. Ganz im Gegenteil: Es wird eine physikalische Pseudo-Realität geschaffen, die dann als verbindliche Grundlage dient. Wie sinnlos dieses Unterfangen ist, zeigt exemplarisch die theoretische Forderung nach Masselosigkeit der Neutrinos, die aber - gemäß Neutrinooszillationen - auch von SM-Vertretern anerkannt endliche Massen besitzen. Die theoretische Forderung läuft ins Leere. Das es mathematische Auswege geben wird, dürfte als sicher gelten und wenn es in nächster Konsequenz Supersymmetrie (SUSY) oder eine GUT (Grand Unified Theory) "richten" muß.

Interdisziplinär betrachtet: Interessant ist der grundsätzliche Sprachgebrauch mathematikgläubiger SM-Physiker: ..."In der elektromagnetischen Theorie hat die Forderung nach lokaler Eichinvarianz die Existenz eines masseslosen Spin-1 Teilchens, des Photons, zur Folge. Auf ähnliche Weise führt die Forderung nach lokaler »SUSY-Eichinvarianz« zur Existenz eines masselosen Spin-2 Teilchens, des Gravitons. Diese Theorie ist zwar nicht renormierbar, gibt aber möglicherweise einen Hinweis darauf, wie Gravitation mit der Beschreibung der übrigen Wechselwirkungen vereinigt werden kann."...

Also die Natur hat gefälligst Austauschteilchen gemäß theoretischer Vorbestimmungen zu generieren. Theoriebeladene Experimente dienen ausschließlich der Bestätigung theoretischer Vorgaben. Dieses dekadente und zugleich dummdreiste Gehabe "Theoretischer Grundlagenphysiker" erinnert stark an Master-Servant-Scenarios. Hier bekommt die Abkürzung SM eine weitere Bedeutung.

 

Randnotizen zu möglichen, nächsten Stufen der (mathematischen) Beliebigkeiten

Während es im Rahmen des SM keine Erklärung dafür gibt, weshalb das Higgs-Potential einen nichtverschwindenden Vakuumerwartungswert (VEV) hat, oder anders gesagt, weshalb es die typische Minimaxform aufweisen sollte, die für die Generierung der Eichbosonenmassen verantwortlich ist, ohne die Eichinvarianz zu verletzen, so wird im Rahmen von SUSY-GUT-Konstrukten das negative Massenquadrat des typischen Minimax-Higgs-Potentials durch Strahlungskorrekturen generiert, falls die Top-Quark-Masse in der „richtigen“ Größenordnung von 100 – 200 GeV liegt.

Als Grundlage supersymmetrischer Theorien dient eine Erweiterung der Poincaré- Algebra. Darauf folgt die Einführung des Superraums und der verschiedenen Sorten von Superfeldern, mit deren Hilfe sich die allgemeine supersymmetrische Lagrange-Dichte konstruieren lässt.

 

Tensoren oder (relativistische) Bosonen transformieren sich nach der Tensordarstellung der Lorentzgruppe. Spinoren oder (relativistische) Fermionen transformieren sich nach der Spinordarstellung der Lorentzgruppe. Die Lorentzgruppe ermöglicht also zwischen Bosonen und Fermionen zu unterscheiden und alle Teilchen einer dieser beiden Kategorien zuzuordnen. Um die Elementarteilchen des SM zu behandeln benötigt man noch die Poincaré-Gruppe. Die Poincaré-Gruppe beschreibt die Struktur der Raum-Zeit. Sie ist die Gruppe der Lorentztransformationen und der Verschiebungen im Minkowskiraum. Ihre irreduziblen Darstellungen sind gekennzeichnet durch die fundamentalen Eigenschaften, Masse und Spin, der Elementarteilchen.

Lie-Algebra der Poincaré-Gruppe

Die Lie-Algebra der Poincaré-Gruppe, kurz Poincaré-Algebra, wird von 10 Generatoren aufgespannt, den 6 Generatoren der Lorentzgruppe und den 4 Generatoren der Translationsgruppe...

 

"Zur Erinnerung": Die QED beschreibt die Wechselwirkungen zwischen Fermionen und Photon. Diese Wechselwirkungen erhalten die Chiralität. Ein linkshändiges Fermion bleibt linkshändig, wenn es ein Photon emittiert oder absorbiert, ein rechtshändiges Fermion bleibt ein rechtshändiges. Der kinetische Term erhält auch die Chiralität. Da die Emission oder Absorption eines Photons die Chiralität des Fermions nicht ändern kann, hat dies zur Folge, daß jegliche Strahlungskorrektur zur Fermionmasse bis in alle Ordnungen der Störungstheorie verschwinden muß, wenn die Fermionmasse gleich null ist. Die Schleifenintegrale, die in die Berechnungen der Strahlungskorrekturen eingehen, sind divergent. Die chirale Symmetrie „schützt“ Fermionmassen vor großen Strahlungskorrekturen. In analoger Weise „schützt“ die Eichinvarianz das Photon davor, eine Masse zu erhalten. In der QED ist die führende Divergenz der Fermionen in allen Größen logarithmisch.  

Die Eichgruppe des Standardmodells SU(3)C x SU(2)W x U(1)Y kann nur masselose Fermionen beschreiben. C steht für Farbe (die Ladung der starken Wechselwirkung), W für Schwache Wechselwirkung und Y für Hyperladung. Die elektroschwache Yang-Mills-Theorie wird durch SU(2)W x U(1)Y beschrieben, die SU(2)W  enthält drei Eichbosonen. Die zunächst masselosen Fermionen können durch ihre Helizität charakterisiert werden. Rechtshändige Fermion-Zustände haben Helizität +½, linkshändige Fermionen den Wert -½. Nur bei masselosen Teilchen ist die Helizität eine lorentzinvariante Größe. Es gibt Erzeugungs- und Vernichtungsoperatoren für rechts- und linkshändige Teilchen und für die jeweilige Händigkeit von Antiteilchen. Die Ladung des rechtshändigen Antiteilchens ist entgegengesetzt der Ladung des linkshändigen Teilchens. Es ist eine zentrale Eigenschaft aller Fermionen des SM, daß sie chiral sind. Definition: Ein Fermion ist chiral, wenn die rechts- und linkshändigen Teilchen-Zustände nicht dieselben Ladungen tragen. Chirale Fermionen sind masselose Fermionen. Durch spontane Symmetriebrechung erhalten Fermionen Masse und SU(3)C x SU(2)W x U(1)Y reduziert sich auf die Eichgruppe SU(3)C x U(1)em , die bei niedrigen Energien beobachtet wird.

Im Rahmen des Standardmodells der Teilchenphysik (SM) gibt es jedoch quadratisch divergente Beiträge zur skalaren Masse von Eichbosonschleifen sowie Fermionschleifen. Ohne das an dieser Stelle näher auszuführen, lässt sich der so genannte Abschneideparameter Λ nicht aus der Theorie bestimmen. Die großen Λ2 Korrekturen implizieren, daß, wenn man die Hochenergietheorie, von der das SM als effektive Niederenergietheorie abstammt, benutzt, um Vorhersagen bei TeV-Energien zu machen, diese Vorhersagen extrem sensitiv auf die Parameter der Hochenergietheorie sein würden, wenn Λ » 1 TeV ist. Dies ist das so genannte fine-tuning problem (Feinadjustierungsproblem) des SM.

Schenken wir uns des Weiteren die Kritik zur Renormalisierung und Renormierung und betrachten an dieser Stelle nur die theorie-konstruierte Ursache: Die Divergenzproblematiken, sowohl klassischer als auch quantenfeldtheoretischer Betrachtungen finden ihre theoriebeladene Ursache in den jeweiligen Denkmodellen. Dort wird die innere Struktur der Energieträger schlicht nicht erfasst. Berücksichtigt man jedoch eine endliche, realphysikalisch orientierte, phänomenologische „Natur der Objekte“, lösen sich die "Unendlichkeiten" plausibel auf.

 

Higgs-Mechanismus

Es gibt eine Vielzahl von "Abhandlungen" zum Higgs-Mechanismus. Jeder kann sich seine Lieblingsbeschreibung aussuchen. Hier sollen nur der formale Werdegang und die Beliebigkeit des "Verfahrens" skizziert werden.

Folgender Sachverhalt wird kaum thematisiert bzw. "teilweise verschwiegen": Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m² < 0). Merke: Das ursprüngliche Higgs-Feld ist ein Tachyon-Feld, mathematisch definierbar, physikalisch irreal. Um den Tachyon-Term „zu umgehen“, wird das Feld als eine Variation um einen Vakuumszustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms.  

Die geforderten Eigenschaften des Higgs-Feldes sind:

»Higgs-Teilchen« sind Bosonen, weil nur dann eine kohärente Wellenfunktion möglich ist. Aus dem gleichen Grund müssen »Higgs-Teilchen« untereinander wechselwirken. Das Higgs-Feld ist skalar, um die Symmetrie des Vakuums zu erhalten. Im vorliegenden Fall der U(1)em- Eichtheorie muß das Feld geladen sein, um an das Photon zu koppeln. Das Higgs-Feld erfüllt die Klein-Gordon-Gleichung:

 

Zur Erinnerung: Vom Standpunkt der Relativitätstheorie aus erscheint die Klein-Gordon-Gleichung zwingend als die einzig mögliche Form der quantenmechanischen Bewegungsgleichung für ein freies Teilchen der Masse m. Es gibt dabei jedoch ein Problem: Die Zeitentwicklung ist nicht linear; das aber steht im Gegensatz zur Gruppenstruktur der Zeittranslationen zusammen mit der Wahrscheinlichkeitsinterpretation der Hilbertraum-Vektoren. Das war der Grund für Schrödinger, die –  von ihm selbst aufgestellte  –  Klein-Gordon-Gleichung schließlich wieder zu verwerfen und sich resignierend auf den nichtrelativistischen Fall der Schrödinger-Gleichung zu beschränken. Eine Lösung der formalen Probleme "gelingt" im Rahmen der Quantenfeldtheorie, in der man die Idee von einzelnen, isoliert voneinander existierenden Teilchen aufgibt.

Die allgemeine Lösung der freien Klein-Gordon-Gleichung ist eine Superposition von ebenen Wellen:

Zu einem vorgegebenen Impuls gibt es ("gleichberechtigt") Lösungen mit positiver und negativer Energie. Diese Tatsache wird ideologisch im Rahmen der herrschenden Physik methodisch ausgeblendet und durch willküraffine Interpretationen "relativiert".

Dem so genannten »Dirac-See« folgte die Feynman-Stückelberg-Interpretation für "unerklärliche" negative Energiewerte der Dirac-Gleichung. Im Bild der Quantenmechanik "löste" man dieses Problem vermeintlich mit Hilfe der Heisenbergschen Unschärferelation, indem man die entsprechenden Lösungen willkürlich als Entitäten mit positiver Energie interpretiert, die sich rückwärts in der Zeit bewegen. Das negative Vorzeichen der Energie wird auf die Zeit übertragen (Feynman-Stückelberg-Interpretation). Dirac verstand unter dem Dirac-See das Vakuum als einen unendlichen "See" von Teilchen mit negativer Energie, ohne weitere freie Plätze für negative Energien (?!?). Man muß(te) wahrscheinlich Dirac, Feynman oder Stückelberg heißen, um sich solch naiven "Zauber" leisten zu können. Der Wille fehlende Anschauung durch formale Hilfskonstruktionen bzw. wilde Fantasie zu ersetzen ist überdeutlich. Mathematisch ist das kein Problem, erkenntnistheoretisch schon. 

 

Man postuliert, daß sich das Higgs-Feld im Grundzustand mit einem Vakuumerwartungswert IΨ0I² = const ≠ 0 befindet. Die Forderung eines im Grundzustand nicht verschwindenden Erwartungswertes ist nicht trivial und kann nur mit einer Selbstwechselwirkung des Feldes "erfüllt" werden.

 

Um die Massenerzeugung im Standardmodell durch den Higgs-Mechanismus zu realisieren, kann man als minimale Variante das Higgs-Feld als Isospin-Dublett ansetzen. Im Verlauf dieser mathematischen Prozedur zeigt sich, daß ein weiteres masseloses Vektorboson, daß so genannte Goldstone Boson auftritt. Da es aber keinen experimentellen Hinweis für dieses Boson gibt, wird es als "unphysikalisch" erklärt und mathematisch eliminiert („weggeeicht“). 

Es gilt jedoch zu bedenken: Das Higgs-Potential und damit die spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus.

 

Wir sparen uns den "komplexen Mexican hat" und reduzieren die »spontane Symmetriebrechung« auf eine zweidimensionale "Anschauung":  

[ Graphen Vakuum-Erwartungswerte (0)   v : spontane Symmetriebrechung ]  in Abhängigkeit von V und  f(μ)

 

Symmetrie und Symmetriebrechung

Symmetrie ist die Eigenschaft eines Systems, invariant unter einer Transformation zu bleiben. Jede Symmetrie führt zu Entartung, d.h. zu einem Eigenwert gehören zwei oder mehrere Zustände, die ein Multiplett bilden.

Diskrete Symmetrietransformationen: Raumspiegelung, Zeitumkehr, Ladungskonjugation

Kontinuierliche Symmetrietransformationen: Lorentz-Transformation

Eine Symmetrie kann auf verschiedene Weise gebrochen sein. Unterschieden wird danach, ob das System selbst oder sein Grundzustand eine Symmetrie bricht.

Beispiel: Spontane Symmetriebrechung beim Ferromagneten

Ein Ferromagnet stellt ein System dar, in dem keine Richtung ausgezeichnet ist und das Rotationssymmetrie aufweist. Die Spins der Atome sind statistisch verteilt. Doch unterhalb der Curie-Temperatur TC ordnen sich die Spins symmetrisch oder antisymmetrisch an, so entsteht eine spontane Magnetisierung und es bildet sich eine Vorzugsrichtung aus. Der Grundzustand befindet sich im Minimum der Freien Energie, doch in diesem Paramterbereich gibt es zwei mögliche Grundzustände und „das System muss sich für einen entscheiden“. Damit ist die ursprüngliche Symmetrie spontan gebrochen. Die ursprüngliche Rotationssymmetrie des Ferromagneten wurde gebrochen zu einer Drehsymmetrie um die Magnetisierungsrichtung.

Dieses gern gewählte, anschauliche Beispiel für eine Symmetriebrechung hat aber mit dem konstruierten, "künstlichen" Symmetriebruch des Higgs-Mechanismus nichts zu tun. Es entsteht der Eindruck, das mit dem Beispiel des Ferromagnetismus eine emotionale Nähe, sozusagen ein gutes Gefühl, für den Higgs-Mechanismus erzeugt werden soll.

Formal besteht eine Ähnlichkeit zwischen der Beschreibung der Supraleitung durch Ginsburg und Landau und dem Higgs(-Kibble)-Mechanismus. Der Meißner-Ochsenfeld-Effekt der Supraleitung wird mit Hilfe einer endlichen Eindringtiefe der magnetischen Induktion beschrieben. Dies entspricht einem Masseterm bei den elektromagnetischen Eichfeldern der Hochenergiephysik, wenn man die Eindringtiefe mit der Compton-Wellenlänge der Masse interpretiert.  

 

"Zur Erinnerung"

In der elektroschwachen Theorie werden, wie bei allen quantenfeldtheoretischen Eichtheorien, die Wechselwirkungen durch Eichbosonen vermittelt. In der elektroschwachen Theorie treten zunächst vier masselose Eichbosonen auf, die auftretenden Eichbosonen werden als "Mischungen" definiert. Grundidee ist eine formale Vereinigung von elektromagnetischer und schwacher Wechselwirkung. Wobei W1, W2 und W3 keinerlei "messtechnische Realität" besitzen. Das Z0-Boson ist nicht wie die W-Bosonen maximal paritätsverletzend, da es einen Anteil des W3-Bosons enthält. Man sagt, die Zustände des Photons γ0 und des Z0-Bosons sind um den so genannten Weinbergwinkel gedreht. Das Photon soll sich in der elektroschwachen Theorie wie in der QED verhalten. [Diese Annahme/Forderung ist phänomenologisch haltlos, da das "Photon der QED" nicht dem Mischzustand der elektroschwachen Theorie entspricht.]

Mischungen der elektroschwachen Theorie

 

Auffällig ist die Diskrepanz zwischen gemessenem Weinberg-Winkel [CODATA-Wert 2014] und der formalen Wertbestimmung [Wθc] [Wθ]. Insgesamt variiert der Weinberg-Winkel in Abhängigkeit der experimentellen "Energiefenster".

Hier würde sich in einer konstruktiven erkenntnistheoretischen Auseinandersetzung beispielsweise die Frage stellen, inwieweit das erweiterte Konzept der „Austauschteilchen“, respektive der Eichbosonen überhaupt Gültigkeit besitzt. Denn das zeitstabile reale Photon ist als Entität grundlegend verschieden von den massebehafteten Vektorbosonen und dem Higgs-Boson, sowie von den selbstwechselwirkenden, masselosen Gluonen. Das Photon zum Austauschteilchen bzw. Vektorboson zu erklären, ist, außerhalb der elektroschwachen Theorie, QED bzw. des SM stark diskussionswürdig. Auch ohne Kenntnis der Elementarkörpertheorie stellt sich insgesamt die epistemologische Frage nach der Realität der innerhalb des SM theorienotwendigen Vektorbosonen und des theorienotwendigen Higgs-Bosons. Wobei hier rational-logisch zu bemerken ist, daß 99% der Masse des Protons sowie des Neutrons energetisch als Bindungsenergie definiert werden. Der Higgs-Mechanismus ist also selbst im Rahmen des SM voraussageunspezifisch und massegebend ineffizient. Hier gilt auch zu bemerken, daß ausnahmslos alle experimentellen Nachweise indirekte, stark theoriebeladene Nachweise sind. Auf die Vektorbosonen verwandten Problematiken der postulierten asymmetrisch, ladungsfragmentierten Quarks-Gluonen-Existenz, deren postulierte Wechselwirkungen, auf den fehlenden Spin der Quarks und Gluonen, Confinement-These, Neutrinothese, Delta-Baryonen und auf das Hilfs-Theorie-Konzept virtueller Teilchen kommen wir noch ausführlicher zu „sprechen“. Siehe Kapitel: Standardmodell und Neutrinos.    

 

Die vier Komponenten des Isospin-Dublett-Ansatzes "liefern" letztendlich drei Vektorbosonen mit einer longitudinalen Spinkomponente und ein skalares Higgs-Feld. Damit das Photon masselos bleibt, wird in diesem Fall der Vakuumerwartungswert (wieder) auf Null "gesetzt". Die "restlichen" Masseterme werden dann von der "neutralen" Komponente mit nichtverschwindenden Erwartungswert erzeugt. Nach (mathematischer) "Umordnung" ergibt sich die eichinvariante SU(2) x U(1) - Lagrange-Dichte mit den "gewünschten" Massentermen für das Higgs- und die Eichbosonen.

 

Allgemein auffällig: Grundsätzlich werden Masse und Masselosigkeit der Theorie-Objekte nach den Fantasieweünschen der Theoriebauer vergeben. "Fantasiewunsch" ist keine semantische Spitze sondern inhaltlich das richtige Wort. Denn bei neutraler Betrachtung des SM fällt auf, daß im Rahmen des Formalismus Masse und Masse-Losigkeit je nach Gutdünken der Theoriebauer vergeben werden. Das lässt sich grundsätzlich durch "Neu-Eichungen" realisieren. Doch dieses beliebige Handeln besitzt keinen realphysikalischen Nährwert im Sinne eines Erkenntnisgewinns über phänomenologische Zusammenhänge. Ganz im Gegenteil: Es wird eine physikalische Pseudo-Realität geschaffen, die dann als verbindliche Grundlage dient. Wie sinnlos dieses Unterfangen ist, zeigt exemplarisch die theoretische Forderung nach Masselosigkeit der Neutrinos, die aber - gemäß (anerkannter) Neutrinooszillationen - endliche Massen besitzen. Die theoretische Forderung läuft ins Leere, denn die neutralen Leptonen (Neutrinos) werden im Standardmodell als exakt masselose Weyl-Fermionen angenommen. Der Widerspruch zu experimentell geforderten Neutrinomassen ist evident. 

 

 

Fermionen- und Quarks-Massen

Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein:

Das Neutrino muß masselos bleiben.

Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein.

(Formale) "Ergebnisse"

Die Kopplung ist proportional zur Fermionenmasse, doch für jedes Fermion ein freier Parameter

Quarkmassen werden "ähnlich" erzeugt, nur daß beide Komponenten der Quark-Dubletts eine Masse erhalten.

 

 

Die Verselbständigung der mathematischen Abstraktionen führt (auch im Rahmen des Higgs-Mechanismus) nachweislich zu beliebigen Fantasiekonstrukten. Der Formalismus ermöglicht die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie des Geschehens auseinandersetzen zu müssen um "Ergebnisse" zu erhalten.

Jede Sprache, auch die deutsche Sprache, hält angesichts dieser - an Beliebigkeit, Willkür und Inkonsistenzen nur so strotzenden - ergebnislosen »Higgs-Konstruktion« Kraftausdrücke parat, die hier angebracht wären. Der Leser möge seiner Fantasie diesbezüglich freien Lauf lassen. Ist dieser Higgs-Wirrwarr wirklich ernst gemeint? Das kann doch nicht sein, oder? Dafür gab es einen Nobelpreis? Hier "reden" wir im Moment nur von der Theorie. Die Praxis sieht ähnlich düster aus. Es braucht mindestens zehn Milliarden Kollisionen, um ein einziges »Higgs-Teilchen« zu produzieren. Dieses wird aber gar nicht nachgewiesen, da es, wie alle anderen instabilen (postulierten) Teilchen nur indirekt "nachweisbar" ist.

Halten wir fest: Phänomenologisch vollkommen unbegründete mathematische Prozeduren liefern «Freie-Parameter-Gleichungen», die zu keinem Ergebnis führen. Auf 10 Milliarden Fehlversuche kommt ein Meßereignis.

 

Wunsch und Wirklichkeit

Die grundsätzliche Problematik, ausgehend von historisch entstandenen Annahmen zur »Natur der Dinge« exemplarisch zur Natur der Strahlung, die je nach theoretischer Vorlage beispielsweise der (semi-klassischen) Maxwellschen Elektrodynamik, der Quantenelektrodynamik oder der „Elektroschwachen Theorie“ zuzuordnen ist, entstammt der fixen Idee, das ein mathematischer Formalismus ohne Ankopplung an plausible Anschauung aus sich selbst heraus die Wirklichkeit nicht nur abbilden, sondern auch formen kann. Wie sonst sind die mathematischen Mischkonstrukte der Elektroschwachen Theorie zu interpretieren, die dem Photon die beobachtbare Entität bzw. Identität rauben. Hier werden brachial Axiomatik und mathematische Objekte zur realphysikalischen Wahrheit erklärt.

Doch inwieweit axiomatisch begründete Abstraktionen an realphysikalische Objekte ankoppeln, steht auf einem ganz anderen Blatt. Bei genauer Betrachtung stellt sich heraus, daß dies nicht gelingen kann und auch nicht gelingt. Die rechenbaren Lösungen, insbesondere der Standardmodelle, basieren allesamt auf Idealisierungen und Näherungen. Das diese Eingriffe grundsätzlich den ursprünglichen Formalismus zerstören bedarf aus logischer Sicht zwar keiner weiteren Erklärung aber ist erstaunlicherweise leider Alltagsgeschäft der Theoretischen Physik. Das mag übergeordnet solange vertretbar sein, wie praktische Dinge trotz Näherung ihren Nutzen besitzen und keine erkenntnistheoretischen Aspekte aufgeworfen werden. Wobei hier zu bemerken ist, daß auch in der „banalen Welt“ nicht die angewandte Physik der Theorie folgte, sondern die Theorie der Anwendung. Römer haben schon lange bevor sie auch nur einen Hauch von moderner Mathematik inne hatten, monumentale Bauwerke erschaffen, lange bevor sich „Physiker“ und „Mathematiker“ im 16.Jahrhundert erste Gedanken zur Theorie der Tragfähigkeit eines Balkens gemacht haben. Auch zeitgenössische Datenspeicher und Transportsysteme wurden und werden nach dem Ingenieursprinzip „Ausprobieren“ (Versuch und Irrtum) entwickelt. Das Märchen, daß Theorien einen gestalterischen Ersteinfluss auf „praktische“ Dinge besitzen, ist weit verbreitet aber eben nur ein Märchen.

Die Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen so hoch wie möglich sein. Es geht nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich parameterfreie, eindeutige Lösungen liefert. Diese Frage ist stets beantwortbar.

Rein mathematische Ansätze scheiden erkenntnistheoretisch komplett aus,

da Mathematik nichts weiter als eine Sprache ist. Eine Sprache ist ein Kommunikationsinstrument um weltliche Dinge „beschreiben“ zu können. Voraussetzung für eine Beschreibung ist eine Wahrnehmung. Fehlt die Wahrnehmung (Beobachtung) so setzt offensichtlich die menschliche Fantasie ein. Auch die Fantasie lässt sich mittels Sprache „beschreiben“ und vermitteln, sofern die Übersetzungsfähigkeit in andere Sprachen gewährleistet ist und es „spricht“ auch erst einmal nichts gegen eine starke Formalisierung, wie im Falle der Mathematik. Ein mathematischer Formalismus ist letztendlich aber nichts weiter als ein - im Vergleich zu anderen Sprachen - komprimiertes Sprachsystem. Lässt sich der mathematische Formalismus aber mangels Anschauung nicht in eine gängige Sprache übersetzen, so ist er kommunikationslos. Alles und Nichts kann zwar formalisiert aber nicht mehr in eine allgemeinverständliche Plausibilität transformiert werden. Eine spezielle Sprache bildet nur dann wahrnehmbare „Realität“ ab, wenn diese in beliebig andere Sprachen übersetzt werden kann. Sprache selbst gestaltet nie. Hier drängt sich argumentativ rational logisch die Frage auf, wie es möglich ist, daß Physiker und Mathematiker der Standardmodelle diese fundamentalen Erkenntnisse methodisch verdrängen.

Fazit: Die Standardmodelle der Kosmologie und der Teilchenphysik sind erkenntnistheoretisch wertlos, da diese auf rein mathematischen Ansätzen beruhen, die sich auf Grund der Nichttransformierbarkeit der Sprachelemente (Theorieobjekte) in andere Sprachen nicht abbilden lassen, nicht vermitteln lassen.

Aber sind SM und ΛCDM-Modell zumindest „rechnerisch“ brauchbar? Auch diese Frage kann in beiden Fällen mit einem klarem Nein beantwortet werden. Grundlage des ΛCDM-Modells sind die Einstein-Friedmann-Gleichungen. Diese "mathematisch" korrekten, nichtlinearen, verketteten Differentialgleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierungen) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung (Details siehe u.a. das Kapitel ΛCDM-Modell).

Wirklich interessant sind die psychologischen und soziologischen Aspekte, die inhärent mit den Machern und Anhängern der Standardmodelle verknüpft sind. Wie konnte es dazu kommen, daß ein eher kleiner Kreis von „Wissenschaftlern“ trotz dokumentierter Erkenntnislosigkeit bestimmt, was die anderen zu denken haben? Und warum verhalten sich andere „Wissenschaftler“ so passiv? Die transparent absurden Standard-Theoriewelten bieten Riesenangriffsflächen für logische und formal-logische Kritik, doch es gibt so gut wie keine aktiven Kritiker.

 

 

Die herrschende Theoretische Grundlagenphysik samt zuständigem Nobelpreis-Komitee befindet sich in einer rational logisch fassbaren, unvergleichlichen Krise. Kein Forschungsgeld der Welt, kein Nobelpreis rechtfertigt diesen konstruierten »theoretischen Murks«, der durch stark theoriebeladene, methodisch vorselektierte Messungen im Verhältnis 1 zu 10 Milliarden "bestätigt wird. Man muß sich sehr ernste Gedanken über den Zustand der Protagonisten und Anhänger dieser dekadenten, frechen und letztendlich erkenntnistheoretisch nutzlosen Interpretation von Wissenschaft machen. 

An dieser Stelle sparen "wir uns" weitere Märchen und zitieren Theodor Fontane,

»Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.« 

 

 

 

Interdisziplinäre Schlussbetrachtungen

Wenn man so will, die »Wurzeln« allen Übels, ...

Mathematische Hintergründe, ursprünglicher Sinn und Zweck, Verzicht der Anschauung, "Unsinn"

Gemäß dem Satz von Weierstraß lassen sich „beliebige“ Kurven durch „Sinus-Kosinus-Funktions-Kombinationen“  zumindest abschnittsweise nähern. Wenn die Funktion in einen neuen (Teil-)Abschnitt wechselt, werden im Grenzübergang die einzelnen Abschnitte immer kürzer und "schrumpfen" schließlich auf Punkte zusammen. Die Funktion wird punktweise durch Sinus-Funktionen angenähert. In diesem Grenzfall ist wieder das ursprüngliche Bild der differenzierbaren Mannigfaltigkeit erreicht, indem jetzt die Eigenbasis des Bewegungsraums die Bausteine aus den Sinus- und Kosinus-Funktionen sind. Ohne auf weitere mathematische Fragen einzugehen folgt, dass jede mathematische Funktion f(t) durch folgende Gleichung "entwickelt" werden kann (Fourier-Reihe):

Räume mit dieser Struktur werden als Hilbert-Räume bezeichnet. Im 20. Jahrhundert wurde dieser Ansatz erst in die Atomspektroskopie und dann allgemein in Quantenfeldtheorien eingeführt.

So wie ein Klang in dem Grundton x und die Obertöne 2x, 3x, 4x ... darstellbar ist, wird in der Quantenfeldtheorie der Zustand eines Teilchens (z.B. eines Elektrons) in einen Grundzustand x und höhere Zustände zerlegt. Am Anfang steht also die qualitative Zerlegung in Grundelemente, dann folgt für jedes Grundelement die Zerlegung in die „Obertonreihe“ (Fourier-Reihe). Insgesamt können nun Wahrscheinlichkeiten gemessen werden, mit denen sich das Elektron in einem der möglichen Zustände befindet. Wenn man genauer hinschaut folgt hier die (ganzzahlige) Quantisierung „banalerweise“ aus der mathematischen Darstellung. Der Formalismus ermöglicht nun die vermeintliche „Bequemlichkeitsich nicht realobjekt-inhaltlich mit der Phänomenologie der Quantisierung und allgemein betrachtet mit der Phänomenologie des Geschehens auseinandersetzen zu müssen um Ergebnisse zu erhalten.

Wenn in der Quantenelektrodynamik (QED) nur ein Teilchen (Elektron) und ein Feldquant (Photon) nötig sind, so erfordert die Quantenchromodynamik (QCD) auf Grund der postulierten Theorieobjekte und deren Wechselwirkungen einen ganzen Satz von diversen „Teilchen“ und Feldquanten (Gluonen). Im Gegensatz zum Photon sollen Gluonen auch untereinander wechselwirken. Resultierende „innere Wechselwirkungs-Strukturen“ werden dann auf (mögliche) Symmetrien (Eichgruppen) zwischen den Grundelementen untersucht.

Wenn Euklid (…lebte wahrscheinlich im 3. Jahrhundert v. Chr.) noch nach plausibler Anschauung für mathematische Grundlagen suchte und somit eine interdisziplinäre Verbindung herstellte, die man als richtig oder falsch bewerten konnte, so stellt sich in der modernen Mathematik die Frage nach richtig oder falsch nicht. Euklids Definitionen sind explizit, sie verweisen auf außermathematische Objekte der „reinen Anschauung“ wie Punkte, Linien und Flächen. "Ein Punkt ist, was keine Breite hat. Eine Linie ist breitenlose Länge. Eine Fläche ist, was nur Länge und Breite hat." Als David Hilbert (1862 – 1943) im 20. Jahrhundert erneut die Geometrie axiomatisierte, verwendete er ausschließlich implizite Definitionen. Die Objekte der Geometrie hießen zwar weiterhin „Punkte“ und „Geraden“ doch sie waren lediglich Elemente nicht weiter explizierter Mengen. Angeblich soll Hilbert gesagt haben, dass man jederzeit anstelle von Punkten und Geraden auch von Tischen und Stühlen reden könnte, ohne dass die rein logische Beziehung zwischen diesen Objekten gestört wäre.

Doch inwieweit axiomatisch begründete Abstraktionen an realphysikalische Objekte ankoppeln, steht auf einem ganz anderen Blatt. Mathematik schafft keine neuen Erkenntnisse, auch wenn das Theoretische Physiker im Rahmen der Standardmodelle der Kosmologie und Teilchenphysik gerne glauben.

Es ist immer zu fragen, was das Symbolisierte in den Symbolen ist. Beispielsweise treten quantenfeldtheoriebasierend Felder und differenzierbare Mannigfaltigkeiten an die Stelle des euklidischen Raums. Auch an die Symmetrie ist die Frage zu stellen, was eigentlich das "Symmetrische" ist. Diese Frage führt zu der mathematischen Technik des Aufbaus komplexer Funktionen und Funktionssystemen aus einfachen periodischen Funktionen.

Exemplarisch über Johann Carl Friedrich Gauß (1777 – 1855), Georg Friedrich Bernhard Riemann (1826 – 1866), der u.a. den Begriff der Metrik einführte…welcher modern bedeutet: Eine Metrik ist ein Skalarprodukt auf dem Tangentialraum einer Mannigfaltigkeit M, die in differenzierbarer Weise vom Punkt p M abhängt. Die euklidische Metrik ist dabei lediglich ein Spezialfall… Geometrie ist im Riemannschen Sinne »innere Geometrie«, deren Objekte Größen sind, die nur von den lokalen Eigenschaften einer Metrik abhängen… 

folgen Felix Christian Klein’s (1849 – 1925) Ausführungen …zu Veränderungen der Lage - Drehungen, Spiegelungen, Verschiebungen, … - diese sind die Wirkung einer Gruppe, die er als „Transformationsgruppe“ bezeichnet. Die geometrischen Objekte sind Invarianten gewisser Gruppen, die auf Mengen operieren. Mit Rückführung der Geometrie auf die Algebra konnte man Geometrien klassifizieren, indem man eine Grundmenge und die darauf operierende Gruppe angab. Zwischen 1870 und 1920 wurden die mathematischen Axiome neu geschrieben (Dedekind, Cantor), es entstanden die Differentialgeometrie (Poincare, Einstein) und neue Algebren mit bisher unerforschten Symmetrien (Tensorkalkül, Lie-Algebra, Kristallographie). Die ersten Experimente zur Atom- und Quantenphysik ließen sich gut mit den bis dahin rein abstrakten mathematischen Formalismen verbinden, was erst zur bekannten Symbiose führte, welche sich sodann im Zuge der Begeisterung für mathematische Möglichkeiten letztendlich von der Realphysik abspaltete und diese im Zuge der Standardmodelle beherrschte. Von da an, musste die Natur der Mathematik genügen.

William Thurston (1946 – 2012) griff die Ideen von Klein auf. In seiner grundlegenden Definition einer Modellgeometrie verbindet er einen topologischen Raum mit der Wirkung einer Lie-Gruppe, welche gewissen Maximalitätsbedingungen genügt. Dieses Werkzeug führte zur vollständigen Charakterisierung aller möglichen Geometrien in der Dimension 3 und zur Klassifizierung aller kompakten, 3-dimensionalen Mannigfaltigkeiten. Lie-Gruppen und Lie-Algebren wurden um 1870 von Sophus Lie (1842 – 1899) in der Lie-Theorie zur Untersuchung von Symmetrien in Differentialgleichungen eingeführt. Unabhängig von Lie entwickelte Wilhelm Killing (1847 – 1923) ähnliche Ideen zum Studium nichteuklidischer Geometrien. Hermann (Klaus Hugo) Weyl (1885 – 1955)  veröffentlichte 1913 das Buch Die Idee der Riemannschen Fläche, in dem u.a. das moderne Konzept der Mannigfaltigkeiten erstmals systematisch eingesetzt wurde. In seinem Aufsatz Gravitation und Elektrizität von 1918 führt er erstmals das Konzept einer Eichtheorie ein, zunächst nicht in der heutigen Form, sondern durch einen lokal veränderlichen Skalenfaktor. In Weyl’s Vorlesungen Raum, Zeit, Materie entwickelt er systematisch den Riccischen Tensorkalkül und benutzt die Parallelverschiebung (Levi-Civita) von Vektoren als fundamentalen Begriff. Das Eichprinzip wurde seit seiner Entdeckung lange nur als Nebeneffekt angesehen, der einige Rechnungen vereinfachen kann, aber ansonsten nur wenig Bedeutung hat. Die eigentliche Bedeutung des Eichprinzips wurde erst 1918 von Hermann Weyl erkannt, der mit Hilfe einer Eichtheorie (Invarianz unter Änderung der Längenskala) versuchte, Maxwells Theorie mit der allgemeinen Relativitätstheorie zu vereinen. Dieser Versuch scheiterte, aber Weyl begründete damit eine ganz neue Herangehensweise an physikalische Probleme. Hermann Weyl ist der Begründer der Eichtheorien im heutigen Sinn.  

1954 veröffentlichten Robert L. Mills (1927 – 1999) und Chen Ning Yang (1922 -) eine Arbeit, in der sie die Eichinvarianz der Elektrodynamik verallgemeinerten und dadurch eine Theorie der schwachen und starken Wechselwirkung schufen. In den 1960ern erkannte man, dass alle bisher beobachteten Wechselwirkungen von Elementarteilchen durch Eichtheorien beschrieben werden können.

Exemplarisch zum Thema Eichtheorien und Standardmodell (SM) siehe: http://www.physik.uzh.ch/~kmueller/text/vorlesung/eich1.pdf

„Heisenberg und Kollegen“ waren noch als Mitbegründer des neuen (mathematischen) Denkens mit den philosophischen Aspekten vertraut und konfrontiert, die heutige Generation der Theoretischen Teilchenphysiker und Theoretischen Astrophysiker scheinen wenig Verständnis für erkenntnistheoretische Spielregeln zu besitzen, was sich einfachst durch die große Anzahl freier Parameter, variabler Kopplungskonstanten und beliebiger Substrukturierungsthesen objektiv feststellen läßt. (Rhetorische) Frage? Was ist denn der Unterschied zwischen Phlogiston, Licht-Äther, Gluonen und dunkler Materie? Schlicht betrachtet handelt(e) es sich stets um Fantasiekonstrukte, die als Fehlstellen des Wissens von einer autoritären Minderheit als „nützliche“ Theorieparameter eingeführt wurden und dann von der "Masse verdaut" wurden.

Für heutige Theoretiker ist die Welt der Mathematik identisch mit dem Erkenntnishorizont des Menschen. Moderner Mathematik wird mit festem Glauben eine konstruktive Komponente zugeschrieben. Diese neuen Glaubensbekenntnisse haben offensichtlich eine enorme Strahlkraft, obwohl die ihr zu Grunde liegenden Ideen allesamt irrational sind. Heutige Experimente zur Erweiterung des Standardmodells der Teilchenphysik verraten schon durch die Namensgebung »Supersymmetrie« welch Geistes Kind ihnen inne wohnt. Experimente sollen Symmetrien, nein müssen Supersymmetrien genügen. Neue zeitinstabile Super-Partner-Teilchen, die nie als solche, so wie ihre Vorgänger, direkt messbar sein werden, kommen eines Tages nach monatelangen Berechnungen mittels Super-Cluster-Rechnern als Teilchenbeschleuniger-Geburten aus vorselektierten Zerfallskanälen.  

Die Verselbständigung der mathematischen Abstraktionen führt nachweislich zu beliebigen Fantasiekonstrukten. Und die damit einhergehende Einschränkung des Blickwinkels erschwert es zunehmend, wichtige Fragen nach den kausalen Zusammenhängen zu klären, ohne welche die naturwissenschaftliche Forschung selbstgenügend zur irrelevanten Tätigkeit „verkommt“.

Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." [EM1]

[EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882