[Technischer Hinweis: Sollten Sie ungewollt diese Webseite ohne Webseitenmenü ("frame-los") vorliegen haben, so gelangen Sie hier zur kompletten menügesteuerten Elementarkörpertheorie-Webseite....

 

Realobjekt-Forschung geht von reproduzierbaren, empirischen Befunden aus und bemüht sich dann um Systematisierung, Verallgemeinerung und ein „theoretisches Verständnis“.

Im heutigen standardmodell-orientierten Denken werden hingegen theoretisch Befunde postuliert, nach denen dann mittels computersimulierten „Versuchsaufbauten“ selektiv gesucht wird. Diese stark theoriebeladene Suche kennt keinen einzigen direkten Nachweis und lässt sich auf Grund der vielen freien Parameter, nicht detektierbaren postulierten Theorieobjekten und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretieren.

Selbst für Teilchen-Physiker dürften die hier vorliegenden Ausführungen zum SM - häufiger als zunächst gedacht -  "erste Erkenntnisse" sein. Viele leben in dem naiven Glauben, daß das Standardmodell der Teilchenphysik trotz der derzeit 25 freien Parameter, variablen Kopplungskonstanten, mehreren Dutzend postuliert essentiellen Theorieobjekten]1, assoziierter Verknüpfungszahlen (Quantenzahlen), diverser Substrukturierungs-Thesen, Confinement-These, ... auf rational logischen, konsistenten, experimentell bestätigten, formal berechenbaren Zusammenhängen basiert. Das dieser Glaube nachweislich haltlos ist, wird an zahlreichen Beispielen explizit erörtert. Zum Kennenlernen werden einige Sachverhalte und Denkanstösse bewusst an verschiedenen Stellen wiederholt. Der Leser mag selbst entscheiden, ob er bereits Bekanntes nochmals liest.

]1 ..."Counting particles by a rule that distinguishes between particles and their corresponding antiparticles, and among the many color states of quarks and gluons, gives a total of 61 elementary particles. If neutrinos are their own antiparticles, then by the same counting conventions the total number of elementary particles would be 58... Quelle

 

 

Erste "Randbemerkung" zum SM-Sprachgebrauch

Teilchenphysiker benutzen generell den phänomenologisch falschen Begriff Zerfall, obwohl sie Umwandlungen meinen. Zerfall würde bedeuten, die Zerfallsprodukte waren (allesamt) Bestandteile des Zerfallenden. Dem ist aber nicht so, zumindest nicht im Rahmen der theoretischen Implikationen und Postulate des Standardmodells der Teilchenphysik.

 

 

                                      Zur Form des Vortrages

Es existieren zahlreiche paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe. Das das Taktieren mit mehr als 20 freien Parametern "Alles" möglich macht, dürfte selbst für Normalbegabte verständlich sein. Streng genommen ist das Standardmodell der Teilchenphysik (SM) mit derzeit 25 freien Parametern, stetiger Nachparametrisierung, wiederholter Substrukturierung, Confinement-These,... ein philosophisches und kein physikalisches Denkmodell. Mit anderen Worten: Die deutlich weniger, genauer spärlich, voraussagefähige Quantenchromodynamik (QCD) ist als anerkanntes Theoriekonzept naturphilosophisch betrachtet, im Verhältnis zur QED, nicht der Rede wert, da die Anzahl der freien Parameter und die Anzahl der mit den Jahren auf Grund von Unstimmigkeiten zu Meßergebnissen dazugekommenen postulierten Theorie-Objekte jeden argumentativ vertretbaren Rahmen sprengen. Elektroschwache Theorie und das Konzept der Eichbosonen als "Wechselwirkungsvermittler" sowie "energieerhaltungssatzverletzendes Virtuelles" und nicht (direkt) beobachtbare "Energieräuber" sprich Neutrinos, sind mathematik-generierte Emotionen überforderter "Wissenschaftler", die Fantasien aber schon lange kein Wissen mehr schaffen. Realphysikalisch und erkenntnistheoretisch ist das SM eine "methodische Nullnummer".

 

Erste Bemerkungen zur willküraffinen Methodik des SM

Eine richtungweisende, weit reichende Fehlentscheidung wurde im Jahre 1988 getroffen.

                                  

Der nicht vorhandene Spin der Quarks und Gluonen

Die erste Annahme war, bedingt durch die theoretischen Vorgaben Mitte der 1960er Jahre, daß im Bild des SM der postulierte Protonenspin sich zu 100% aus den Spinanteilen der Quarks zusammensetzt. Diese Annahme wurde 1988 bei den EMC-Experimenten nicht bestätigt. Ganz im Gegenteil, es wurden sehr viel kleinere, sogar mit Null verträgliche Anteile gemessen ( ∆∑ = 0.12 ± 0.17 European Muon Collaboration). Die Quark-These von fermionischen Spin-1/2-Teilchen war somit widerlegt. Hier hätte man aus wissenschaftlicher Sicht die "Quark-Idee" experimentell basierend, argumentativ "begraben" müssen. Man kann diesen verpassten (möglichen) Wendepunkt gar nicht genug "strapazieren". Mit welcher Berechtigung werden (auch heute noch) Quarks als Spin-1/2-Teilchen "vorgestellt"? 

Auch die zweite Annahme, daß die ins Leben gerufenen Gluonen zum Protonenspin beitragen, ergab nicht das gewünschte Ergebnis. In der dritten, derzeit aktuellen Theorie-Fassung sollen nun Quarks, Gluonen und deren dynamisch-relativistische Bahndrehimpulse im Ergebnis fein säuberlich den Protonenspin ausmachen :

Wie ein postuliert masseloses, nichtreales Theorieobjekt, sprich Gluon, einen "suggestiven" (relativistischen) Bahndrehimpuls generiert, soll ruhig Geheimnis des SM bleiben (psst). Bei genauer Betrachtung besitzt diese 2.Nachkorrektur den Vorteil, daß das Ergebnis im Rahmen der Gitter-Eichfeld-Theorie und hübschen neuen Konstrukten, wie "Pionenwolken", rein algorithmisch in Großrechner-Anlagen "errechnet" wird und aus Sicht der SM-Gläubigen nicht falsifiziert werden kann. Es wird also solange "kombiniert", bis das gewünschte Ergebnis iterativ vorliegt. Aber selbst diese, an den Haaren herbeigezogene Maßnahme, rechtfertigt offensichtlich keine Klassifizierung der Quarks als Fermionen. Denn egal wie konstruiert das asymmetrische Ensemble aus nicht beobachtbaren postulierten Theorieobjekten und Wechselwirkungen auch immer annonciert wird, die Quarks selbst wurden (schon 1988) nicht als Spin-1/2-Teilchen "gemessen".

 

 

Quark-Parton-Modell und tiefinelastische Streuung

Das in den sechziger Jahren von Richard Feynman entwickelte Quark-Parton-Modell (QPM) beschreibt Nukleonen als Zusammensetzung grundlegender punktförmiger Bauteile, die Feynman Partonen nannte. Diese Bauteile wurden daraufhin mit den wenige Jahre zuvor gleichzeitig von Gell-Mann und Zweig postulierten Quarks identifiziert. Gemäß Quark-Parton-Modell ist ein tiefinelastisches Streuereignis (:DIS deep inelastic scattering) als eine inkohärente Überlagerung elastischer Lepton-Parton Streuprozesse zu verstehen. Dieses Bild gilt aber nur, wenn der Impulsübertrag durch das Photon ausreichend groß ist, so dass die einzelnen Partonen aufgelöst werden können; d.h., dass man sich in dem als tiefinelastisch bezeichneten Bereich der Lepton-Nukleon-Streuung befindet.

Eine Kaskade von Wechselwirkungs-Mutmaßungen, Näherungen, Korrekturen und zusätzlichen Theorieobjekten „verfeinerten“ in der Folgezeit das theoretische Nukleonen-Modell. Es ergeben sich u.a. Nukleonstrukturfunktionen als Summationen der Partonstrukturfunktionen über postulierte Helizitäts- und Ladungszustände aller im Nukleon postulierten „Quarksorten“. Im quantenchromodynamik-erweiterten Partonmodell sollen Quarks Gluonen abstrahlen, die entweder von den Quarks selber wieder absorbiert werden, oder aber Quark-Antiquark-Paare erzeugen oder weitere Gluonen abstrahlen. Diese „Folge-Partonen“ bilden eine „Wolke“ um das Ursprungsquark. Im Rahmen dieses Modells ist ein Quark kein punktförmiges Objekt mehr, wie im ursprünglichen QPM. Ohne hier auf das Sammelsurium von weiteren Annahmen und resultierenden vermeintlichen Gleichungen des SM zur erweiterten postulierten Substruktur der Nukleonen einzugehen, folgt ein klares Statement:   Ein grundsätzliches (erkenntnistheoretisches) Problem ist sofort erkennbar. Alle experimentellen Aufbauten, Durchführungen und Interpretationen zur tiefenelastischen Streuung sind extrem stark theoriebeladen. Siehe zur Verdeutlichung dieser Aussage exemplarisch das Kapitel 2.1 Kinematik der tiefinelastischen Streuung der Ausführungen zu *Compass-Experimenten.

*Das 2001 am europäischen Kernforschungszentrum CERN in Genf/Schweiz in Betrieb genommene COMPASS-Experiment erforscht in einem weit reichenden Programm die Spinstruktur des Nukleons mittels der tiefinelastischen Streuung. 

Ein Beispiel eines relativ aktuellen „theoretischen Versuches“, freie Parameter und willkürliche Theorie-Objekte so zu arrangieren, daß am Ende das herauskommt, was bekannt ist…

Spin Crisis of Proton and Baryon’s Magnetic Moment DP Tiwari and RS Gupta 2015  

 

 

Zur Erinnerung, Geschichte wiederholt sich...

Georg Ernst Stahl war neben Johann Joachim Becher ein Hauptbegründer der Phlogistontheorie

Die Phlogistontheorie konnte ausreichend (Oxidations- und Reduktions-) Prozesse verständlich machen.

Die Phlogistontheorie regte dazu an, „feinst verteiltes“ Phlogiston aufzufangen und zu untersuchen.

Die Theorie ermöglichte eine Systematisierung von Stoffgruppen…

Antoine Laurent de Lavoisier „ersetzte“ das Phlogiston durch die „kalorische Substanz“, die gleichfalls unsichtbar sei, kein Gewicht besäße und sich zwischen den Molekülen aufhielte…

Später dann untersuchte Lavoisier die Gewichtsveränderungen verschiedener Stoffe bei Oxidation und bei Reduktion und entdeckte, daß das gerade aufgefundene Element Sauerstoff dabei die entscheidende Rolle spielt und widerlegte die Phlogistontheorie. Vergeblich versuchten die Verteidiger der Phlogistontheorie, wie Henry Cavendish, Joseph Priestley, Carl Wilhelm Scheele diese zu bewahren, indem sie modifizierte Phlogiston-Modelle kreierten.

Selbstversuch:  Ersetze Phlogiston durch „moderne Theorieobjekte“ (Quarks, Gluonen, dunkle Materie, dunkle Energie, Neutrinos,…)

„Brennt da was“? "Willkommen" im Barock 2.0

 

 

Darüber hinaus ist auch die postulierte Asymmetrie der Quark-Ladungsträger in Form stark unterschiedlicher Massen(-Grenzen) und unterschiedlich fragmentierter elektrischer Elementarladung eine erkenntnistheoretische Zumutung, insbesondere unter dem Aspekt das Quarks nicht detektiert werden können (Confinement-These). 

Diese Leute sind so überzeugt von ihrem Glauben, daß sie das Wesentliche offensichtlich aus den Augen verloren haben. Wieso sollte eine komplexe, mehrobjekt-asymmetrisch, ladungsfragmentierte, dynamische Substruktur einen Spinwert 1/2 und eine ganze Elementarladung e über dynamische Zustände im zeitlichen bzw. statistischen Mittel erschaffen? Der Vergleich mit dem SM-postuliert punktverarmten, "leptonischen" Elektron, mit Spinwert 1/2 und ganzer Elementarladung e, welches ohne "dynamische Mühe" und Struktur dieses "schafft", identifiziert die Quarks-Gluonen-These als Glaubensmärchen. Dieses Märchen dürfte selbst Normalbegabten als solches erscheinen.

      

 

Alternativ Weiterführendes   Im Rahmen der Elementarkörper basierenden Masse-Radius-Kopplung lässt sich der Protonenradius und das Magnetische Moment des Protons berechnen, siehe das Kapitel exakte Protonenradiusberechnung und das Kapitel Die Anatomie anomaler magnetischer Momente.

 

Zur Erinnerung: Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Elektronen sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen"). Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. U.a. Religiosität, "neurologische Auffälligkeiten", Größenwahn sowie wissenschaftsbefreite "Kindergartensprache" kommen mit dem Theoretiker als "verwirrten", (mathematik-)gläubigen Menschen ins "Spiel".

Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." [EM1]

[EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

 

[Theorieobjekte der Nahrung, ... ich sehe was, was du nicht siehst, ..., kein Quark aber (ein) Fisch im Käse]

 

Grundsätzliches

Detailwissen ist eine Grundvoraussetzung um sachdienlich substanzielle Kritik üben zu können, doch der Leser, allgemeiner der Interessierte, muss erst einmal keineswegs im Detail wissen, was eine Symmetriebrechung, ein Eichboson, eine CKM-Mischung, Flavour, Hyperladung oder Quarkonia ist. Denn offensichtlich werden im Standardmodell der Teilchenphysik diverse theoretische Konzepte, respektive deren Theorieparameter verknüpft, verschachtelt und vermischt, so daß jedwede (experimentell resultierende) Konstellation theoretisch erfasst werden kann. Mit anderen Worten: Ratlosigkeit und Phänomenologieferne wurden und werden durch virtuelle Teilchen und postulierte Schnittstellen zwischen theoretischer Fiktion und Realphysik „ersetzt“. Da dies nicht gelingen kann, bedarf es, mit fortschreitender Komplexität, vieler freier Parameter, variabler Kopplungskonstanten und „wilder Substrukturierung“. Aus einem Austauschteilchen (Photon) werden schnell mal acht (Gluonen), die dann zusätzlich mit weiteren Quantenzahlen ausgestattet werden müssen. Da aber keines dieser Theoriekonzepte eine konsistent begründete physikalische Realität abbildet, ergibt sich auch bei geschickter „Wahl der Mittel“ kein Erkenntnisgewinn. Es sei denn, man bewertet ein Konstrukt aus frei wählbaren mathematischen Beliebigkeiten als geistreiche Errungenschaft. Nur in diesem Fall ist das "Freiwählbare" dann kein physikalisches Denkmodell mit naturwissenschaftlichen Standards sondern lediglich ein philosophisches Glaubensbekenntnis. Zur Erinnerung: Alle standardmodell-assoziierten, angeblich experimentellen Beweise sind indirekt. Keiner der experimentellen Befunde besitzt eine eindeutige Zuordnung. Die Detektoren registrieren in letzter Konsequenz schlicht Strahlungsenergie (Photonen) oder beispielsweise Elektronen, Positronen, Protonen. Alle dazwischenliegenden postulierten Kaskadenereignisse sind bei genauer Betrachtung nahezu beliebig wählbar.

"Randnotiz": Das Problem ist aus energetischer Sicht sowohl qualitativ als auch quantitativ deutlich größer und komplexer als hier "skizziert" wird. An dieser Stelle nur soviel: Die masseabhängig-postulierte Energieerhaltung wird über postulierte Neutrinos beliebig "vervollständigt".

 

 

 

Konträr zu den willküraffinen Standardmodellentwicklungen lassen sich ein funktionaler Beginn und ein naturphilosophischer Beginn definieren.

Funktionaler Beginn

Denkmodelle (zur Materiebeschreibung) können nur wissenschaftliche Relevanz besitzen, wenn sie auf einem theoretischen Fundament beruhen, dessen Axiome untereinander logisch konsistent sind und zu einer mathematisch hinreichend widerspruchsfreien Theorie führen.

Naturphilosophischer Beginn

Grundlegende Denkmodell-Aspekte lassen sich in Ankopplung an globale Auffälligkeiten, wie Gravitationskonstante, kleinste (skalare*) Wirkung oder Invarianz der Lichtgeschwindigkeit, nur intuitiv entwickeln. Man muß eine Idee und weiterführend, aufbauend-konsistente Ideen haben, um ein Denkmodell interdisziplinär verständlich gestalten zu können. Denkmodelle müssen absolut begriffstransformierbar sein, um eine epistemologische Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht außerhalb der Mathematik vermitteln lässt, ohne daß sie ihren exakten Bedeutungsanspruch verliert, ist im Rahmen eines physikalischen Denkmodells stets eine erkenntnistheoretische Nullnummer.

 

* Bereits die etablierten Verwirrungen und teils bewussten Falschsuggestionen der herrschenden Physik zur kleinsten (skalaren) Wirkung, die einheitengemäß dem Betrag des vermeintlich quantenmechanischen Drehimpulses entspricht, sind im negativen Sinne als fundamental zu bezeichnen. Die resultierenden Denkmodellprobleme werden exemplarisch  in dem Kapitel Protonenradius und dem Kapitel Spin & Magnetische Momente erörtert. 

      

Die Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen so hoch wie möglich sein. Es geht nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige Lösungen liefert. Diese Frage ist stets beantwortbar.

Die etablierte Annahme der Standardmodell-Vertreter, daß komplexe mathematische Formalismen einen erkenntnistheoretischen Gewinn „mathematik-selbstgestaltet“ generieren können, ist ein fataler Irrglaube, der zu theoriebeladenen Versuchen führt und in dessen Verlauf Versuchsergebnisse weder reproduzierbar noch direkt messbar sind. Salopp formuliert: „Früher“ fielen bei einer Milliarde Einzelversuchen, eine Milliarden Mal die Äpfel vom Baum, was zur theoretischen Rechtfertigung einer anziehenden, gravitativen Kraft führte. Heute wird als Teilchen-Existenzbeweis ein Ereignis bei einer Milliarde Versuchen mit einer »Milliarde -1« Fehlversuchen gewertet und das postulierte Teilchen ist, anders als der Apfel, auch nicht direkter Bestandteil der Messung. Wie beliebig und nachvollziehbar grotesk die Moderne Teilchenphysik „aufgestellt“ ist, wird im Folgenden erörtert.

Um die vielfältigen Zusammenhänge gesamtheitlich durchschauen und verstehen zu können, bedarf es u.a. beträchtlicher historischer Kenntnisse. Diese gehören leider nicht zur Schul- und Universitätsausbildung von Physikern und Mathematikern. Zentrale Fragen einfacher Anschauung werden also weder in einem historischen Kontext erörtert noch im Rahmen der herrschenden mathematischen Modelle adressiert. Das Sammelsurium an mathematischen Möglichkeiten führt(e) u.a. zu einer stetigen Veröffentlichungswelle von theoretischen Beliebigkeiten.  

 

                                                                                                                       Am Rande bemerkt...

Globale Verständigungs-Probleme

Es existieren fundamentale Wissenslücken, dessen Ursachen mit dem politisch gewollten Ausschleichen primärer Bildung in direkter Verbindung stehen. Die Lesefähigkeit nähert sich Schritt für Schritt dem funktionalen Analphabetismus und die Fertigkeit kurze, formal präzise Mitteilungen im Sinne rational logischer Möglichkeiten weiterdenken zu können wird nur selten erlernt. Das Gros der Menschen des frühen 21.Jahrhunderts verfügt nur über eine einfache Lesefähigkeit, die durch den täglichen Gebrauch von „SMS und Twitter“ genährt wird. Dieser, aus vielerlei Sicht, traurige Ist-Zustand gilt auch für akademisch ausgebildete (junge) Leute, zumal dessen reales Bildungsniveau, bis auf Ausnahmen, nicht (mehr) den Standards einer fundierten Wissenschaftsorientierung entspricht. Somit kommt weder eine komplexere Aussagegestaltung noch eine aphoristische Form der Beschreibung in Betracht. Das Verstehen einer „Schrift“ – insbesondere mit neuen, ungewohnten, alternativen Ansätzen – lebt von der notwendigen Leichtigkeit des Betrachters im Umgang mit Textobjekten. Jemand der schon Schwierigkeiten hat, überhaupt lesen zu können, fehlen die spielerischen Möglichkeiten. Es fehlt sozusagen die freie Kapazität sich auf den Inhalt konzentrieren zu können.

Es kann also sein, daß ein (junger) theoretischer Physiker Supersymmetrie fordert aber keinen Satz formulieren kann, der interdisziplinär verstehbar und argumentativ nachvollziehbar diese Forderung beschreibt sowie begründet. Wobei hier „gerechterweise“ bemerkt werden sollte, daß der Wunsch respektive die Forderung, das sich Natur nach einem mathematisch formalen Diktat zeigen muß, aus rational logischer und erkenntnistheoretischer Sicht eh nicht realisieren lässt. Der supersymmetrienotwendige Denkstatus verbleibt lokal in einer abstrakten Glaubensuntermenge und erreicht u.a. „mangels Masse“ nicht einmal die Konzeptionsebene religiöser Bekenntnisse.

 

Ausgangssituation

Der Glaube an die naturwissenschaftliche Relevanz des Standardmodells der Elementarteilchenphysik ist geprägt durch die historisch gewachsene Erwartungshaltung. Physik bedeutet(e) für Laien als auch für professionell Interessierte, das das Streben nach Erkenntnis zu rational logischen Denkmodellen und resultierenden Gleichungen führt, die Messereignisse abbilden und berechnen können, so wie man es von einer exakten Naturwissenschaft selbstverständlich erwartet. Die grundsätzliche Problematik begann jedoch mit der »experimentellen Wirklichkeit« der Beschleuniger. Alle im Teilchenbeschleuniger produzieren Kollisionsereignisse führen zu einer Kaskade von energetischen Möglichkeiten. Nun dominierte ziemlich bald die theoretische Erwartungshaltung wonach gesucht wurde und wie die Messergebnisse phänomenologisch interpretiert wurden.

 

Randnotiz zum Neutrino

... diese war nur solange eine Notiz am Rande, bis "eines Tages" auch die Vertreter des Standardmodells, spätestens mit Würdigung des Nobelpreises für Physik im Jahre 2015, anerkannten, daß Neutrinos eine Masse besitzen. Es existieren nun zwei Ausschließungsprinzipien, eines davon formal, ausgehend von der mathematischen Konzeption des SM und ein sprichwörtlich weiterreichenderes, ausgehend von dem Wechselspiel zwischen Phänomenologie und experimenteller Nachweisbarkeit.

 

Aus praktischen Gründen werden "Zehnerpotenzen" exemplarisch wie folgt geschrieben: 1,23·10-3 = 1,23e-3. Das hat den Vorteil, daß der interessierte Leser die entsprechenden Zahlenwerte "gleich" in den "Computer" zur "Kontrolle" übernehmen kann (Copy&Paste).

 

 

Widerlegung der Neutrinothesen

Allgemeine Vorbetrachtungen

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess.

Auch für Neutrinos gilt: Es gibt keinen einzigen direkten Neutrinonachweis. Es handelt sich stets um stark theoriebeladene Versuchsergebnisinterpretationen.

"Gehen wir gleich mal in die Praxis"... Gemäß SM „bedeutet“ Neutrinoforschung beispielsweise:

…Man misst die Ströme der Kaonen und Pionen und bestimmt indirekt den Fluss der Neutrinos…

Nun sind aber schon Pionen (π0, π -, π+)  und erst recht Kaonen (K+, K-, K0, K0) höchst konstruierte Gebilde (zum Erst-Verständnis siehe https://en.wikipedia.org/wiki/Kaon, https://en.wikipedia.org/wiki/Pion) des Standardmodells. Bedeutet: Die Anzahl der Existenzpostulate, wie Masse, Ladung, Spin, flavor(s), Lebensdauern und Quarkzusammensetzung ist bereits „beachtlich“. Die möglichen Umwandlungen ergeben „ vielfältige“ Wechsel-Wikungs-Spiel-Szenarien. Des Weiteren: Das neutrale Kaon ist nicht sein eigenes „Antiteilchen“, dies führt (allgemeiner) zu der Konstruktion der Teilchen-Antiteilchen-Oszillation (siehe https://en.wikipedia.org/wiki/Neutral_particle_oscillation) und das neutrale Kaon soll in zwei Formen, einer langlebigen und einer kurzlebigen Form existieren. 

Daraus nun auf Eigenschaften „flavor-oszillierender[G]  Neutrinos zu schließen, potenziert die Beliebigkeit nochmals. Um das alles (reproduzierbar) zu verstehen, braucht man den absoluten Glauben an axiomatische Schöpfungen. Als Belohnung winkt dann jedoch der Freibrief, daß jedwedes Versuchsergebnis „erklärbar“ wird (…das wir bis dahin - in Verbindung mit der »experimentellen Seite« - grob geschätzt einige Dutzend weitere ergebnisorientierte Annahmen machen müssen,  … kümmert SM-Gläubige nicht).

„Glaubt man nicht“, dann lässt sich ein SM-Versuch vereinfacht (nach Egbert Scheunemann) so ausdrücken: Sie schießen erst einen Pfeil auf ein Scheunentor, malen dann konzentrische Kreise um den Einschuss und jubeln über ihren „Volltreffer“.  

 

[G] wie infantil verwahrlost das SM ist, wird hier - auch ohne Kenntnis irgendeiner theoretischen Spezifikation - sprachlich überdeutlich, wenn man rein "Deutsch" vorträgt:

geschmacks-oszillierend

...bedeutet also auch für das Theorieobjekt Neutrino: "barer Unsinn "ahead"...

 

 

 

Mit der von der "etablierten Physik" (nun) vertretenden Meinung, daß Neutrinos Masse besitzen, ändern sich die phänomenologischen Randbedingungen fundamental. 

 

Neutrino-Wechselwirkung und Elementarkörpertheorie

Neutrinos stehen nicht im Widerspruch zur Elementarkörpertheorie, wenn man unter einem Neutrino einen hochrelativistischen, somit nahe an der Lichtgeschwindigkeit bewegten Elementarkörper versteht, da dessen Masse-Radius-Verhältnis zu einem sehr kleinen Wirkungsquerschnitt führt. Diese „Elementarkörper-Neutrinos“ besitzen aber keine von anderen Elementarkörpern verschiedene Alleinstellungsmerkmale, die sie als „neue Entität“ auszeichnet.

 

 

               

SM basierendes formales Problem

Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben. Diese Grundbedingung steht in einem eklatanten Widerspruch zu Neutrino-Oszillationen (Nobelpreis 2015), die zwingend Neutrinomassen voraussetzen. Konsequenz: Man verabschiedet sich entweder vom Standardmodell der Teilchenphysik oder von massebehafteten Neutrinos.

Der Vollständigkeit halber sei erwähnt, ...da man sich vom Standardmodell nicht trennen will, gibt es im Rahmen mathematischer Ergänzungen stets die Möglichkeit Neutrinomassen "irgendwie" einzubauen. Das ist aber nur möglich, da das Konstrukt des SM bei genauer Betrachtung keinerlei überprüfbare realphysikalische Referenz besitzt, sprich alle SM-assoziierten vermeintlichen Objekt-Nachweise sind indirekte, stark theoriebeladene Versuchsinterpretationen. Einfach ausgedrückt: Egal wie strukturiert ihr bisheriger Lieblingswunsch auch ausgesehen haben mag, natürlich können sie in ihrer Fantasie aus masselosen massebehaftete Objekte "erdenken". Doch mit den ursprünglichen Thesen und der ursprünglichen (mathematischen) Konzeption ist diese "neue" Idee nicht verträglich. Aber, wie sagt "man" so schön, was stört mich das (eigene) Geschwätz von gestern. 

               

Phänomenologisches Problem

"Zur Erinnerung": Das Standardmodell der Elementarteilchenphysik zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen.

Die Definition der Masse eines Teilchens bezieht sich im Rahmen des Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt, wie auch die Gravitationswechselwirkung die im Standardmodell nicht beschrieben werden kann. Die kinematische Wirkung der Masse manifestiert sich im Propagator des Teilchens.   

 

Neutrino-Oszillationen ...und der Neutrino-Forscher sprach: mein Wille geschehe, es werde umgewandelt...

…“Das Phänomen der Mischung von Neutrinos bedeutet, dass die so genannten Wechselwirkungszustände, d. h. die 3 Arten von Neutrinos, keine Teilchen mit wohldefinierter Masse sind, sondern eine quantenmechanische Überlagerung von Teilchen mit verschiedener Masse. Diese Mischung zwischen Wechselwirkungs- und Massenzuständen wird mit Mischungswinkeln beschrieben. Neutrinomischung kann zu dem Phänomen der Neutrinooszillationen führen, wenn Neutrinos in gewisser Entfernung vom Produktionsort wieder detektiert werden. Auf dem Weg vom Produktionsort zum Detektor erhalten die verschiedenen Massenzustände unterschiedliche quantenmechanische Phasen, und es kommt zu einer Interferenz... So kann ein Neutrino, das als Elektronneutrino produziert wurde, beim Detektor mit einer gewissen Wahrscheinlichkeit als Myonneutrino beobachtet werden.“… Quelle: https://www.mpg.de/443025/forschungsSchwerpunkt1

Da können religiöse Führer noch eine Menge von Neutrinomachern lernen...

 

 

Mit der von der "etablierten Physik" (nun) vertretenden Meinung, daß Neutrinos Masse besitzen, ändern sich die phänomenologischen Randbedingungen fundamental. 

Es existiert eine – ausgehend von den Postulaten zur Schwachen Wechselwirkung - Unbestimmtheit des Beta-Minus-Zerfalls, die eine spezifische Neutrinoexistenz aus phänomenologischer Sicht stark diskussionswürdig macht.

                

Am Rande bemerkt: Die „geforderten“ Erhaltungssätze (Energie, Impuls, Ladung und Leptonenzahl) sind bei einem „Zerfall“ zu beachten. Es resultiert ein Anti-Elektron-Neutrino (Leptonenzahl -1 gemäß Elektron (Leptonenzahl +1), da auf der „anderen“ Seite des „Zerfalls“ das Neutron steht (Leptonenzahl 0).

Sollte sich das Neutrino als Majorana-Teilchen (eigenes Antiteilchen) "herausstellen" (...heißt eigentlich: ...wenn man sich darauf einigt), so ist diese Unterscheidung hinfällig. Mehr noch: Die Leptonenzahlerhaltung wäre verletzt und würde als Erhaltungssatz nicht mehr gelten!

 

Neutrinomassen 0

              

Es existiert energetisch kein verbindlicher Prozess der Umwandlung eines d-Quarks in ein u-Quark

Unabhängig von der SM-konstruierten Leptonenzahl gilt folgendes: Das Neutrino wurde historisch eingeführt weil das Energiespektrum der (emittierten) Elektronen keine diskrete sondern eine kontinuierliche Verteilung zeigt. Doch wenn das Anti-Elektron-Neutrino, mit welcher unteren Massegrenze auch immer, die „fehlende“ Energie aus dem Laborsystem „entführt“ und nur durch die Schwache Wechselwirkung (effektiv*) „wirken“ kann, dann bedeutet das schlicht und ergreifend, daß bereits bei dem Prozess der Schwachen Wechselwirkung ein kinetisches Energie-Kontinuum des postulierten Neutrinos vorhanden sein musste. Denn nach diesem Prozess gibt es gemäß Postulat keine weitere Wechselwirkungsmöglichkeit. Nur wie soll dies phänomenologisch erklärt werden?    

* da die postulierte Graviationswechselwirkung hier nicht "ins Gewicht fällt"

Die lapidare Aussage des SM, daß der Beta-Minus-Zerfall des Neutrons gemäß Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen W-Bosons stattfindet sagt nichts über den konkreten Ablauf aus, wie, woher und warum das Anti-Elektron-Neutrino nun während der Schwachen Wechselwirkung unterschiedliche Energiemengen aufnimmt um die „fehlende“ Energie im Elektronenspektrum zu kompensieren.

 

Beta-Minus-Zerfall des Neutrons gemäß Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen W-Bosons

 

Bei genauer Betrachtung ist die Situation weitaus komplexer, da sowohl postuliert Quarks basierendes Neutron als auch das Quarks basierende Proton zu ~ 99% aus undefinierter Bindungsenergie besteht und sich die Schwache Wechselwirkung (energetisch) somit nur auf ~ 1% des Zerfallsprozesses auswirkt.

Die Masse des d-Quarks [qm] beträgt 4,8 (+0,5 / - 0,3) MeV/c², die Masse des u-Quarks beträgt 2,3 (+0,7 / - 0,5) MeV/c² [qm].

[qm] Quarkmassen : http://pdg.lbl.gov/2013/tables/rpp2013-sum-quarks.pdf

Das bedeutet, der Massenunterschied beträgt zwischen 1,5 bis 3,5 MeV/c². Das Elektron-Anti-Neutrino mit einer Masse(nuntergrenze) von ≤ 2.2 eV/c² kann maximal ~ 0,78 MeV aufnehmen. Gemäß Elektronenenergiespektrum ist die mittlere Energie aber deutlich kleiner als 0,78 MeV, die vom Neutrino "aus dem Laborsystem entführt wird". Was ist mit der fehlenden Energie der Schwachen Wechselwirkung geschehen? "Gluonische Bindungsenergie" kann es nicht geworden sein, da Gluonen nicht an der postulierten Umwandlung eines d-Quarks in ein U-Quark teilhaben. Auch der virtuelle Zauber des ~ 80,4 GeV/c² schweren W-Bosons kann real-energetisch nichts aufnehmen. Hier gilt für die herrschende Physik mehr denn je:

 

"Es ist wichtig, einzusehen, dass wir in der heutigen Physik nicht wissen, was Energie ist."...

Richard Feynman

"It is important to realize that in physics today, we have no knowledge of what energy is."...

 

Wir haben also im Bild des SM anfangs 1 u-Quark und 2 d-Quarks, zwischenzeitlich ein W-Boson und ~ 99% Bindungsenergie (was das auch immer phänomenologisch sein soll) und nach der Umwandlung 2 u-Quarks, 1d-Quark, 99% Bindungsenergie, 1 Anti-Elektron-Neutrino, 1 Elektron und zusätzlich ~ 0,78 MeV Energie. Egal wie die Energieverteilungsmöglichkeiten der ~ 0,78 MeV auf Proton (2 u-Quarks, 1d-Quark, 99% Bindungsenergie), Elektron und Anti-Elektron-Neutrino auch aussehen mögen, der Prozess der Schwachen Wechselwirkung müsste bereits so geartet sein, daß diese Verteilungsmöglichkeiten gewährleistet sind, da nach der Schwachen Wechselwirkung keine Energieabgabe des Neutrinos an das Proton und Elektron mehr möglich ist. Das bedeutet aber, daß es keinen diskreten Umwandlungsprozess eines d-Quarks in ein u-Quark geben kann.

Nicht Diskret bedeutet hier insbesondere: Es existiert energetisch kein verbindlicher Prozess der Umwandlung eines d-Quarks in ein u-Quark. Aus einem Neutron-u-Quark entstehen durch die Schwache Wechselwirkung energetisch unterschiedliche Elektron-Anti-Neutrinos, da ja nach der Entstehung außer der Schwachen Wechselwirkung weitere Wechselwirkungsmöglichkeiten ausgeschlossen werden. Somit existiert keine energetisch eindeutige Umwandlung eines u-Quarks in ein d-Quark. 

Losgelöst von dieser Problematik sei der Vollständigkeit halber auch daran erinnert, daß es sich experimentell nicht um Einzelobjekte sondern um Vielteilchenobjekte (mehr als 1 Neutron) handelt und beschleunigte Ladungen Energie abstrahlen. Es ist wohl nicht davon auszugehen, daß die entstandenen Protonen und Elektronen „plötzlich“ mit einer konstanten Geschwindigkeit vorliegen. „Wo“ ist das assoziierte Photonenspektrum des Beta-Minus-Zerfalls? Wie sieht es aus?

 

 

Und noch "ETWAS"...

Nach de Broglie kann jedem Teilchen und jedem zusammengesetzten Körper eine Materiewelle zugeordnet werden.

 

Das Konzept der de Broglie Materiewelle liefert einige sehr interessante Aspekte.

Erst einmal ist zu beachten, daß de-Broglie-Materiewellen der (zur Ruhe-Energie additiven) kinetischen Energie der Teilchen entsprechen und nicht den Teilchen selbst, die durch ihre ruhemassespezifischen Comptonwellenlängen charakterisiert sind.

Im Gegensatz zu den Comptonwellenlängen sind de-Broglie-Materiewellen nicht teilchencharakteristisch, da beispielsweise für Neutronen, Elektronen und Protonen, Moleküle bei passender Geschwindigkeit de-Broglie-Materiewellen teilchenunspezifisch als Äquivalent der kinetischen Energien identisch sein können.

De Broglie Materiewellen sind interferenzfähig.

Das Konzept der Materiewelle und dessen „Meßbarkeit“ sind im Vergleich zu Neutrinoexistenz- und Neutrinowechselwirkungs-Postulaten experimentell gesichert und experimentell reproduzierbar.

                    

 

Experimentell-phänomenologisches Problem

Es gab keine Realobjektphänomenologie für das masselose Neutrino und auch die "Mischkalkulation" für Neutrinomassen ist nichts weiter als eine formalisierte Fiktion. Hier gilt rational logisch und folgend das unlösbare Neutrino-(Nicht-)Existenz-Problem bedingt durch die Phänomenologie der Masse, bedeutet: Wer bewegte Massen will, bekommt auch masseninhärente Materiewellen.

Der Wunsch der Neutrinogläubigen, daß auch massebehaftete Neutrinos nur der Schwachen Wechselwirkung und der Gravitation unterliegen ist eine Theorie-(Schutz-)Behauptung. Hier zeigt sich wieder einmal, wie eklatant sich fehlende Denkmodell-Phänomenologie auswirkt.

 

                         

Da die de Broglie Materiewelle ohne Einfluss einer möglichen (Sub-)Strukturierung nur von der Ruhemasse und der Geschwindigkeit des "Teilchens" abhängt, gilt das Konzept der Materiewelle allgemein. Hier wäre, in Hinblick auf SM postulierte Theorieobjekte und Wechselwirkungsszenarien noch zu bemerken, daß nachweislich die postulierte komplexe (eingekapselte) Quarks-Gluonen-xxx-Struktur keinen Einfluß auf die de Broglie Materiewelle hat, Beweise: de Broglie Materiewellen des Neutrons, Protons, Molekül- und Fullerene- de Broglie Materiewellen.

                         

Es spricht aus Sicht der Materiewelle nichts gegen massebehaftete Neutrinos.

                         

Ein massebehaftetes Neutrino besitzt eine von der Gesamtenergie abhängige de-Broglie-Materiewelle.

Um das plastischer zu machen, betrachten wir den Beta-Minus-Zerfall, der ursächlich zu Wolfgang Paulis Neutrinothese aus dem Jahre 1930 führte.

 

Aus praktischen Gründen werden "Zehnerpotenzen" exemplarisch wie folgt geschrieben: 1,23·10-3 = 1,23e-3. Das hat den Vorteil, daß der interessierte Leser die entsprechenden Zahlenwerte "gleich" in den "Computer" zur "Kontrolle" übernehmen kann (Copy&Paste)

 

 

Nehmen wir an, daß die Masse des postulierten Elektron-Anti-Neutrinos ~2,2 eV/c2 beträgt. Das entspricht einer Masse von ~ 3,92e-36 kg und einer Comptonwellenlänge von 3,59e-7 m.

[M] Für den Fall, das die kinetische Energie viel größer als die Ruheenergie des Neutrinos ist, folgt für die de Broglie Materiewelle λdeB (Ekin » E0) ~ h ·c / Ekin . In diesen Fällen spielt die (Elektron-Anti-Neutrino)-Masse keine Rolle.

Der Beta-Minus-Zerfall des Neutrons, der SM basierend als Schwache Wechselwirkung, gemäß Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen W-Bosons stattfinden soll, führt im Extrem* zu einer (relativistischen) Gesamtenergie des postulierten Neutrinos von ~ 0,78 MeV, daß entspricht ~ 1,4e-30 kg.

*im Extrem bedeutet, daß Proton und Elektron nach der Umwandlung ruhen, davon ist zwar praktisch nicht auszugehen, hier geht es aber gedanklich um die Bestimmung der kurzwelligsten Neutrinomateriewelle gemäß zur Verfügung stehender Energie.

Daraus ergibt sich ein nahezu „lichtschnelles“ Neutrino mit einem relativistischen Faktor von γ ~ 3,55e5 (γ ~ Eges/E0) und einer resultierenden De-Broglie-Materiewelle von ~ 1,59e-12 m. Zum Vergleich: Die Comptonwellenlänge des Elektrons beträgt ~ 2,43e-12 m.

Gemäß Beta-Zerfall-(kinetische)Energie-Elektron-Spektrums müssen weitere langwelligere Neutrino-De-Broglie-Materiewellen auftreten, die daraus resultieren, das die zunehmende kinetische Energie im Elektronenspektrum, den Neutrinos nicht zur Verfügung steht.

Wie bereits oben erwähnt, kann das vom SM postulierte Elektron-Anti-Neutrino keine diskrete Gesamtenergie besitzen, da es nur über die Schwache Wechselwirkung agiert. Das bedeutet, daß reziprok zum Energiespektrum der Elektronen ein Energiespektrum des Elektron-Anti-Neutrinos bereits bei der Schwachen Wechselwirkung, sprich bei der Umwandlung eines d-Quarks in ein u-Quark, auftritt, gleichgültig welche Masse das Elektron-Anti-Neutrino besitzt.

 

Losgelost vom Betazerfall besitzen alle bewegten massebehafteten Neutrinos, ungeachtet ihrer postulierten Entstehung, Materiewellen. Nun zu behaupten, es gäbe u.a. kontinuierliche kosmische Neutrinoströme, die nicht wechselwirken, widerspricht dem Konzept der Materiewelle. Gäbe es massebehaftete Neutrinos, so würde die Materienwellen assoziierte (kinetische) Energie dieser letztendlich auf vielfältige Weise dazu führen, daß uns allen sehr heiß werden würde. De Broglie Materiewellen sind interferenzfähig.

Die einzige Möglichkeit der Neutrinomacher aus diesem phänomenologischen Neutrinodesaster neutrinogläubig zu entkommen, ist die De-Broglie-Materiewelle für Neutrinos als nicht existent zu erklären.

 

Wie bereits erwähnt, ist die Wellenlänge einer (relativistischen) Materiewelle nicht von der Massenuntergrenze abhängig, wenn die Gesamtenergie, wie im Fall der Neutrinos, aus dem "Laborsystem entführt" wird. Nehmen wir an, daß die Massenuntergrenze - wie in einem Artikel der Max-Planck-Gesellschaft angegeben (https://www.mpg.de/443025/forschungsSchwerpunkt1) - eines Neutrinos bei 0,05 eV/c2 liegt. Wir ersetzen nun die Masse des Elektron-Anti-Neutrinos von ~ 2,2 eV/c2 durch die Massenuntergrenze von 0,05 eV/c2. Das entspricht einer Masse von ~ 8,9e-38 kg. Daraus ergibt sich dann ein nahezu „lichtschnelles“ Neutrino mit einem relativistischen Faktor von γ ~ 1,56e7 (γ ~ Eges/E0) und einer resultierenden De-Broglie-Materiewelle von gleichfalls  ~ 1,58e-12 m.

 

 

Randnotiz Magnetisches Moment der Neutrinos

In einfachen Worten: Ein magnetisches Moment der Neutrinos ist aus mathematischen Gründen im Rahmen des Standardmodells „verboten“. Nicht mehr und nicht weniger ist diesem „Gebot“ zu entnehmen. Es existierten aber keine Experimente, die ein magnetisches Moment der Neutrinos ausschließen. 

Zum „Kennenlernen der Situation“ siehe z.B. NeutrinoMagneticMoment, Magnetic Moments of Dirac Neutrinos, LIMIT ON THE MUON NEUTRINO MAGNETIC MOMENT AND A MEASUREMENT OF THE CCPIP TO CCQE CROSS SECTION RATIO

Auch bei der „denkbaren“ Betrachtung eines magnetischen Moments des (massebehafteten) Neutrinos werden die fundamentalen Wechselwirkungs-Aspekte unter einem Berg von willkürlicher Mathematik begraben. Ein magnetisches Moment eines Neutrinos würde zwar im isolierten Laborexperiment auf Grund der postulierten „Kleinheit“ nicht messbar sein aber im Rahmen kosmischer Dimensionen auf eine Vielzahl von Wechselwirkungspartnern treffen. Sämtliche Materieansammlungen interagieren "massenhaft" in der Detailsicht mit dem magnetischen Moment des Neutrinos. Hier stellen sich übergeordnet „Wesensfragen“? Ist die Masse eines postulierten Quarks eine andere als die Masse eines Elektrons oder die Masse eines Neutrinos? Ist die Wechselwirkung des magnetischen Moments eines Neutrinos „irgendwie anders“ als die des magnetischen Moments eines (postuliert Quarks basierenden) Protons oder Elektrons?

Eine grundsätzliche Standardmodell-Fiktion besteht in der Annahme, daß Masseträger unterschiedlichen mathematischen Regeln folgen müssen. Diese Regeln werden dann in vermeintlich physikalischen Theorien zusammengefasst. Doch keiner dieser theoretischen Ansätze ist auf Grund der Vielzahl von freien Parametern und postulierten, nicht beobachtbaren Theorieobjekten physikalischer „Natur“. Das Standardmodell ist eine Ansammlung von philosophischen Modellvorstellungen, die Erweiterung des Standardmodells, wobei Neutrinomassen als brachiale Erweiterung und Supersymmetrie als „Standardmodell-Killer“ verstanden werden müssen, "verschärft" diesen Aspekt noch wesentlich. Die „Standard-Konzeptansicht“ war und ist erkenntnistheoretisch zum Scheitern verurteilt, da, einfach gesprochen, schlicht keine verbindliche Phänomenologie der Masse, des Raumes oder der elektrischen Ladung existiert.

Wie „einfach“ und „unerwartet“ moderne epizyklische Standardmodell-Fantasien sich in Nichts auflösen wird anhand der vermeintlich anomalen magnetischen Momente eindrucksvoll verstehbar aufgezeigt. Die postulierte Substruktur des Neutrons und Protons zerbröselt an der realobjekt-orientierten Deutung der Meß-Realität im Rahmen der Elementar-Verkörperung. Siehe das erkenntnistheoretisch freundliche Kapitel Betrachtungen zur Anatomie anomaler magnetischer Momente

...Die üblichen Quarks basierenden 1%-u-d-SM-Fantasien der Materie enden keineswegs mit dem stabilen Proton und langlebigen Neutron. Wer Spaß an noch mehr „Fantasie“ hat, findet „in“ Delta-Baryonen so etwas wie Käfer a la Franz Kafka. Wobei Kafkas Käfer den Vorteil besitzen als Fiktion gelten zu dürfen. Delta-Baryonen hingegen bilden die „harte“ Realität der SM-Gläubigen ab, wenn auch nur für angenommene ~ 6 ·10-24 Sekunden als Spinanregungen des Neutrons und Protons.

Es erübrigt sich die Bemerkung, daß es, wie könnte es auch anders sein, keine direkten Delta-Baryonen-Nachweise gibt. Es existieren gemäß SM vier verschiedene Δ-Baryonen mit Spin3/2 und folgenden Ladungsmöglichkeiten: Δ++, Δ+, Δ0, Δ. Die asymmetrisch gestückelten Quarks-Ladungen bilden in Form der Δ++ also Ladungsträger mit zweifacher Elementarladung.

...Übersetzt in die reale Welt heißt das soviel wie: Wissenschaft ist das, worauf man sich geeinigt hat... anything goes.

 

 

Das Konzept der Materiewelle und dessen „Meßbarkeit“ sind im Vergleich zu den Neutrinopostulaten experimentell gesichert und experimentell reproduzierbar.

Materiewellen sind experimentell nachweisbar. Die "Sache" der Neutrinos hat sich mit "Anerkennung" der Neutrino-Oszillationen, die Neutrinomassen voraussetzen, erledigt.

Ironie des Neutrinoschicksals: Quantenmechanik und ein klassisch verstehbares Konzept (Bragg & Co lassen grüssen) lösen das Neutrino in erkenntnistheoretisches Wohlgefallen auf.

Die Theorie der Schwachen Wechselwirkung und alle damit assoziierten theoretischen Implikationen, Theorieparameter, Vektorbosonen, ...sind (mehrdeutig) gegenstandslos.

Glücklicherweise ist im Rahmen eines masse-radius-gekoppelten Denkmodells die Umwandlung von einem masseschwereren zu einem masseleichteren Körper ohne Neutrino verstehbar. Konkrete Ausführungen folgen im Rahmen der anschließenden Langversion zur Neutrinothesen-Widerlegung. Neugierige klicken hier

 

 

"frühes" SM

Mit den argumentativ haltlosen Quark-Entitäts-Postulat als Elementarteilchen, nicht messbaren Teilchen-Eigenschaften, willküraffinen Ergänzungspostulaten (Gluonen-These, Sea-Quarks-Postulat, postulierte Wechselwirkungen) und Confinement-These werden gleich mehrere Wissenschaftsnormen und das Minimalprinzip brachial verletzt. Bereits mit dieser kurzen "Quark-Analyse" fehlen dem SM alle Charakteristika Bestandteil einer exakten Wissenschaft zu sein. Schon aus diesen Gründen ist das Quarks-basierende Standardmodell der Elementarteilchenphysik ein (schlechter) Witz. Noch "witziger" sind die Leute, die diesen naturphilosophisch feindlichen Theorie-Murks glauben und verbreiten. Und auch die nicht SM-involvierten fehlenden Kritiker sollten zu denken geben. Woher kommt diese generationenübergreifende Arroganz bzw. Ignoranz? Offensichtlich sind hier existenzielle Ängste "am Werk". Wie naiv muss man sein, allen Ernstes zu glauben, daß dieser »Quark« aufrechterhalten werden kann. Der epizyklische SM-Absturz kommt, "Quark-Analyse", Proton-Desaster und Neutrino-Denkmodellunfall sind erste Hinweise auf das, was da noch kommt...  Es folgen weitere dokumentierte Beliebigkeiten und Belanglosigkeiten, die vom System (pseudo-)axiomatisch sowie populärwissenschaftlich als große Wissenschaft verkauft werden. 

 

 

Grundlagen methodischen Glaubens

Die (Un-)Art der stark theoriebeladenen Messungen und gekoppelten "Theorie-Entwicklungen" war und ist aber nur möglich, weil keines der postulierten und dann vermeintlich gefundenen „Teilchen“ direkt messbar ist. Der thematisch und experimentell nicht involvierte, naive Wissenschaftler ging jedoch davon aus, daß es stets verbindliche Messungen gegeben hat, die gemäß wissenschaftlichen Standards die Behauptung einer Teilchenexistenz und dessen Teilcheneigenschaften rechtfertigten. Das war und ist aber in keinem Fall der "Beschleunigerphysik" so (gewesen). Die Unmöglichkeit einer direkten Messung ist inhärent mit dem Standardmodell der Teilchenphysik verknüpft.  

Letztendlich werden in Detektoren nur die Objekte gemessen, die ursprünglich zur Kollision gebracht wurden. Das sind meist Elektronen, Protonen und indirekt Photonen. Die Photonen stammen aus dem elektromagnetischen Feld der Beschleunigermagneten.

Beispiel LHC (Large Hadron Collider): Die Datenmenge bestehend aus aufgezeichneten Detektorsignalen und Computersimulationen wird auf 15 Millionen Gigabyte pro Jahr geschätzt. Die Datenmenge wäre extrem größer, wenn nicht auf Hard- und Softwareebene ein Großteil der Messsignale bereits vor der Verarbeitung dauerhaft verworfen würde. Die Teilchendichten und Kollisionsraten führen zu einer Datenmenge von 1 bis 2 MB pro Ereignis. Insgesamt resultiert aus den Kollisionen ein Informationsstrom in der Größenordnung von 100 TB pro Sekunde. Durch ein Selektionssystem - Trigger genannt - werden von 40 Millionen Strahlkreuzungen pro Sekunde lediglich 200 Ereignisse pro Sekunde aufgezeichnet. Das bedeutet schlicht und ergreifend, daß nahezu das gesamte Ereignisspektrum bewusst ausgeblendet wird. Die Bemerkung Albert Einsteins zu Werner Heisenberg: "Die Theorie bestimmt, was beobachtbar ist", "entfaltet" sich somit im Standard-Betrieb eines Teilchenbeschleunigers auf extreme Art und Weise.

Zur Verdeutlichung: Die Detektoren messen kalorisch, mittels Photonenimpuls oder teilchenspezifisch. Man unterscheidet beispielsweise zwischen elektromagnetischen und hadronischen Kalorimetern. In elektromagnetischen Kalorimetern erzeugen Elektronen bzw. Photonen durch Bremsstrahlung und Paarerzeugung eine Teilchenkaskade, und ein Teil der Teilchenenergie kann in Form von Szintillationslicht oder Ionisation nachgewiesen werden. Das Energieauflösungsvermögen hadronischer Kalorimeter ist sehr viel schlechter als das der elektromagnetischen, zur Verringerung der nachweisbaren Energie trägt z.B. bei, daß bis zu 20 % der (postulierten) hadronischen Energie zum Aufbrechen der Kernbindungen aufgewendet wird. Bei einer einzigen Strahlkollision mit „üblicherweise“ 1011 Protonen pro Teilchenpaket finden im Mittel etwa 10 Ereignisse statt, in denen jeweils eine Vielzahl von Teilchen entstehen. Aufgrund des geringen Kollisionsabstandes von 25 ns, befinden sich diese Teilchen größtenteils noch im Detektor, während die nächste Kollision bereits neue Teilchen produziert.

Was man sich unter angewandter »Quantenfeldtheorie« vorstellen kann und wie die Theorie starken Einfluss auf die experimentelle Erwartung hat, „erörtern“ folgende exemplarische Ausführungen: „Teilchenphysik für FortgeschritteneQuelle  ...Annahmen und Postulate

„Teilchenphysik für Fortgeschrittene“ Seite 68… „In der e+e- -Streuung werden in 10 % der Fälle nicht nur zwei sondern 3 Jets beobachtet, wobei die Winkelverteilung der Jets untereinander mit der Erwartung für die Abstrahlung eines Spin 1 Teilchens (“Gluon”) von einem Spin 1/2 Teilchen (Quark) übereinstimmt. Auf diese Weise wurde das Gluon am PETRA Beschleuniger bei DESY entdeckt.“...

[Hier „sieht“ man exemplarisch, wie aus einem „objektiven“ Versuchsergebnis ein vollkommen subjektives Interpretations-Ergebnis erhalten wird. 10% Ereigniswahrscheinlichkeit fallen vom Himmel und ohne Gluonenpostulat widerlegt das Versuchsergebnis schlicht die Theorie der Quarks. Nach diesem Muster werden theoriebeladen alle „abweichenden“ Versuchsergebnisse „interpretations-gestrickt“.]

…“Die Häufigkeit von etwa 10% dieser 3-Jet Ereignisse deutet auf eine große Kopplungskonstante zwischen Quarks und Gluonen hin“, … [10% fielen vom Himmel und das Versuchsergebnis wird aus Sicht der Selbst-Gläubigen mit einer variablen Kopplungskonstante theoriefreundlich versehen.] …„Teilchenphysik für Fortgeschrittene“ Seite 78… „In der 4-Jet Produktion ist der Wirkungsquerschnitt sensitiv auch auf die Selbstwechselwirkung der Gluonen, da sowohl die Quarks als auch Gluonen weitere Gluonen abstrahlen können.“…[Diese Art der selbstprophetischen Argumentation ist offensichtlich nicht widerlegbar.]  

Postulierte Existenz und postulierter Zerfall des Top-Quarks

Die Willkür und letztendlich der naturphilosophische Selbstbetrug besteht in der transparent vorliegenden theoriebeladenen Deutung des Experimentes. Konkret werden als Versuchs-Ergebnisse der Proton-Antiproton-Kollision ausschließlich kalorimetrische (energetische) und leptonische Ergebnisse „gezählt“. Alle anderen von der Standardphysik genannten (teils postuliert hadronischen) Prozess-Teilchen sind hypothetisch gedachte (Materie)-Konstrukte. Ausser dem Glauben an diese im Rahmen eines mathematischen Denkmodells, gibt es keine direkten messtechnischen Ereignisse. Das Denkmodell als solches ist aus vielerlei Gründen widersprüchlich, inkonsistent und stets quantitativ beliebig. Insbesondere der Übergang von „quarks-basierenden Zuständen“ zu „leptonischen Gebilden“ geschieht mittels der postulierten Schwachen Wechselwirkung. Diese ist zwar im Rahmen des SM eine zwingende zusatztheoretische Annahme, außerhalb des Standardmodells jedoch nichts weiter als ein „Theorieretter“.

1…"Die entstehenden Teilchen bzw., im Fall von Quarks, deren Zerfallsprodukte (als Jets), werden in den beiden Detektoren nachgewiesen… Die Spuren der geladenen Teilchen werden in der Spurkammer aufgezeichnet, Elektronen/Positronen und Photonen im elektromagnetischen Kalorimeter nachgewiesen, die Teile der Jets im Hadron-Kalorimeter und zuletzt die Myonen in den Myonenkammern. Neutrinos bleiben wegen ihrer geringen elektroschwachen Wechselwirkung unbeobachtet; der transversale Gesamtimpuls aller Neutrinos kann nur indirekt üb er den fehlenden transversalen Impuls (Impulserhaltung) festgestellt werden."...

[Es gibt bis heute nicht einen einzigen direkten Neutrinonachweis. Des Weiteren: Reproduzierbarkeit ist ein fundamentales Kriterium für mögliche Falsifizierbarkeit. Diese elementare Notwendigkeit wird vom SM u.a. im Zusammenhang mit Neutrinos mit Füssen getreten.] Am Rande bemerkt: Neutrinos stehen nicht im Widerspruch zur Elementarkörpertheorie, wenn man unter einem Neutrino einen hochrelativistischen, somit nahe an der Lichtgeschwindigkeit bewegten Elementarkörper versteht, da dessen Masse-Radius-Verhältnis zu einem sehr kleinen Wirkungsquerschnitt führt. Diese „Elementarkörper-Neutrinos“ besitzen aber keine von anderen Elementarkörpern verschiedene Alleinstellungsmerkmale, die sie als „neue Entität“ auszeichnet. Für den Zerfall von massereicheren zu masseärmeren Teilchen, wie beim Myonen-Zerfall - der zum Elektron führt - werden Neutrinos zur Erklärung nicht benötigt. Details siehe das Kapitel Neutrinos

1Der Impuls in Flugrichtung der Protonen/Antiprotonen kann nicht festgestellt werden, da aufgrund der Quark- und Gluonstruktur der Protonen/Antiprotonen der Impuls der Top-Antitop Reaktion in Flugrichtung nicht bekannt ist."...

[Das bedeutet schlichtweg, daß das Experiment unvollständig ist und im Resultat als wissenschaftlicher Nachweis unbrauchbar ist.]

1Zur Nachweiseffizienz der einzelnen Teilchen: Jets von Gluonen und leichteren Quarks sind mit nahezu 100% Effizienz nachweisbar, Elektronen und Myonen mit ungefähren 90 %. Tauonen zerfallen entweder leptonisch (36% der Fälle) oder hadronisch (64%). Wegen der beiden entstehenden Neutrinos ist der erste Fall kaum nachweisbar, letzterer auch nur mit 50% Effizienz und dabei, u.a. wegen des entstehenden Neutrinos, nur schwer vom Untergrund unterscheidbar; insgesamt lässt man wegen dieser Schwierigkeiten im Allgemeinen Kanäle mit Tau-Leptonen aus der Betrachtung heraus."...

[Hier wird das komplexe Desaster deutlich. Es gibt weder experimentell entkoppelte, „gesicherte“ theoretische Voraussagen für die experimentellen Wahrscheinlichkeiten, im Zweifelsfall wird das „unmessbare“ Neutrino bemüht und wenn das auch nichts hilft, wird „souverän“ auf einen Teil des Versuchsergebnisses verzichtet.]

1…"Am wichtigsten ist der Nachweise der Bottom-Quarks, da sie sehr charakteristisch für Top-Ereignisse sind. Bottom-Quarks hadronisieren fast sofort in B-Mesonen, die im Mittel ungefähr 0.5 mm vom Haupt-Vertex entfernt in einen Jet zerfallen. Die Bestandteile des Jets sind dann auf den gemeinsamen, im Vergleich zum Haupt-Vertex versetzten Ursprung zurückzuführen. Man nennt dies Bottom-Markierung / B-Markierung oder b-tagging. Alternativ zerfallen Bottom Quarks (20% der Fälle) in unter anderem ein Lepton, das einen niedrigeren Impuls als das Lepton aus dem Zerfall des W- Bosons hat. Zusammen beträgt die Nachweis-Effizienz für Bottom Quarks ungefähr 60%."...

[Vorliegende Angaben sind außerhalb des Standardmodells ohne Relevanz. Jedwede andere Theorie ließe sich mit freien Parametern, variablen Kopplungskonstanten und Substruktierungsthesen den Teilchenbeschleuniger-Ergebnissen anpassen.] 1Textauszüge Seite 5 und 6/Quelle: http://web.physik.rwth-aachen.de/~klein/seminar/JanSteggemann_ausarbeitung.pdf

2"die Ungenauigkeiten in der absoluten Energieskala sind relativ groß, weshalb die Jet-Energien ungenau bestimmt werden. Z. B. kann aber auch ein Jet durch das Strahlrohr verloren gehen. Dann gibt es Probleme, die eher mit dem Prozess als solchen zu tun haben: Die Reste des Protons und des Antiprotons bilden einen recht großen Untergrund, und sie können zu Einflüssen auf die Messungen beim Hauptereignis führen. So können zwei Jets als einer gemessen werden (der zweite beispielsweise resultierend aus Untergrundprozessen); aber auch der umgekehrte Fall, dass sich ein Jet in zwei Jets aufspaltet, kann auftreten. Die Effekte zusammen können in außergewöhnlichen Gesamtereignissen resultieren, in jedem Fall müssen sie als Fehlerquellen beachtet werden"…

2Textauszug Seite 8 und 9/Quelle: http://web.physik.rwth-aachen.de/~klein/seminar/JanSteggemann_ausarbeitung.pdf

[Mit anderen Worten: Es ist völlig egal wie das Experiment ausgeht, „unsere“ Theorie passt immer.]

Zum Mitdenken

Natur kann nur addieren oder subtrahieren. Eine „gesicherte“ höhere mathematische Realität existiert ausschließlich im Rahmen axiomatisch begründeter Sprache (Mathematik). Inwieweit eine korrekte mathematische Struktur (höhere mathematische Realität) physikalisch anwendbar ist, lässt sich mit den „Mitteln“ der Mathematik nicht entscheiden (siehe „unstrittig-exemplarisch“ Epizykeltheorie und Banach-Tarski-Paradoxon). Es gibt beispielsweise keine physikalische Grundlage für die Herleitung der Feldquantisierung. Quantenfeldtheoretische Betrachtungen sind „realobjektbefreite“ mathematische Denkmodelle. Mathematik erfasst letztendlich Mengen und kann nicht zwischen Staubsauger und Staub unterscheiden.  

 

 

Parametrische Glaubensbekenntnisse

Die "moderne" Elementarteilchenphysik "nährt(e)" sich von «Spekulations-Kaskaden». In keiner anderen Wissenschaftsdisziplin wird so "kreativ" postuliert, "entdeckt" und "modifiziert", wie in der Teilchenphysik. Das sich dieses Konstrukt aus Teilchen und Thesen erfolgreich befruchtet und innerhalb der eigenen Grenzen bestätigt, ist keine große Überraschung, da die Aktivisten jederzeit neue Teilchen und Thesen einbringen können, um "alte" Thesen und Teilchen zu "retten".

Auch wenn es verwunderlich scheint, daß es kaum auffällt, was eigentlich jedem einigermaßen selbständig denkenden Menschen schon nach kurzem Studium des Standardmodells auffallen müsste: Das Standardmodell der Teilchenphysik kann nur existieren, solange es keine Lösungen liefert. Das eine Theorie mit 25 freien Parametern nie Lösungen liefern wird, sollte auch interdisziplinär verstehbar sein.  

Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen. Masselose Eichbosonen bewegen sich mit Lichtgeschwindigkeit. 

Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung "verletzt"1, zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen. Die einzig der herrschenden Physik bekannte direkte Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt nicht abbilden. Des Weiteren: Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben. Diese Grundbedingung steht in einem eklatanten Widerspruch zu Neutrinooszillationen (Nobelpreis 2015), die zwingend Neutrinomassen voraussetzen.  

1 Diese Aussage bezieht sich nicht auf die rein mathematische Konzeption, sondern ist erkenntnistheoretisch zu verstehen. Warum sollte man "mit Stolz" einen invaliden Formalismus einführen, der letztendlich massebehaftet nachkorrigiert werden muß. Es drängt sich die Frage nach der primär richtigen Wahl auf. 

Wenn man alle Terme in der Lagrangedichte des SM berücksichtigt, die möglich sind (lorentzinvariante, eichinvariante und renormierbare), existieren keine, die Neutrinomassen beschreiben. Das liegt daran, daß das SM keine rechtshändigen Neutrinos enthält. D.h. um Neutrinomassen zu beschreiben, muss man entweder nicht-renormierbare Terme einführen, die dann auf Majorana-Massenterme führen, oder man muss neue Freiheitsgrade einführen, sprich rechtshändige Neutrinos. Beides würde über das SM hinausgehen und zur Folge haben, daß Neutrinos ihre eigenen Antiteilchen wären (Majorana-Neutrinos).  

SM-Postulat: Es existiert ein Higgs-Feld an jedem Punkt der Raumzeit, das an die W- und Z-Bosonen und die Fermionen koppelt. Durch diese Kopplung erhalten diese Teilchen Masse. Zusätzlich existiert ein massiver Freiheitsgrad des Feldes, welcher als Higgs-Boson bezeichnet wird. Dieses ist jedoch nicht als solches für die Massen verantwortlich, wechselwirkt aber mit den Fermionen und Bosonen und kann somit erzeugt und gemessen werden.  

 

Mit anderen Worten: Es gibt 3 verschiedene Arten von Termen, die das Higgs-Feld nach der spontanen Symmetriebrechung enthalten: Kopplung des Higgs-Feldes an Fermionen (Yukawa-Terme), Kopplung des Higgs-Feldes an die W- und Z-Bosonen, kinetische- und Massen-Terme für das Higgs-Boson. Aber die „Higgs-Terme“ sind eigentlich keine Massenterme, sondern Wechselwirkungsterme. Erst nach der spontanen Symmetriebrechung "simuliert" ein Teil des Higgs-Feldes „mittels“ Erwartungswert Ausdrücke, die wie Massenterme aussehen.

Ohne Übertreibung kann man wohl „sagen“: Das widersprüchliche, „axiomatisch bedenkliche“, stark inkonsistente SM kann praktisch nichts Reales erklären und schon gar nicht berechnen. Der Higgs-Mechanismus "lebt" salopp formuliert zu 99% von unbegründeter Bindungsenergie postulierter (nicht [direkt] beobachtbarer) Gluonen. Das Attribut [direkt] kann man sich eigentlich sparen, da auch die folgend postulierten "gluonenbasierenden" Kaskadenereignisse, die zu vermeintlichen Detektionsereignissen werden, auch nicht beobachtbar sind.  Streng genommen ist der Umstand, daß das SM mittels Higgs-Mechanismus nur ein Prozent Masse „hinbekommt“ schon eine Widerlegung dieses theoretischen Ansatzes. Derzeit 25 freie Parameter, variable Kopplungskonstanten und willküraffine Substrukturierungen liefern über postulierte Verknüpfungszahlen (Quantenzahlen) eine „Katalogisierung“ theoriefreundlich selektierter Energiepeaks, respektive (ultra-)kurzlebiger Massehäufchen, welche fast immer nur indirekt detektiert werden können. Die gesamte Theorie reduziert sich fast ausschließlich auf die Interpretation nicht zu beobachtender, postulierter Teilchenbeschleunigerereignisse, wie noch ausführlich erörtert wird.  

                                                  „Und nu“?

Auf Grund einer ganzen Reihe von (theorieinduzierten) Widersprüchen und Inkonsistenzen, die selbst von SM-Gläubigen (an)erkannt werden, wünschen die SM-Aktivisten, daß mathematische Erweiterungen „Abhilfe“ schaffen. Die angestrebte theoretische Zukunft der Standardmodellphysiker ist u.a. die Supersymmetrie (SUSY). Unter einer Supersymmetrie versteht man eine verallgemeinerte Raum-Zeit-Symmetrie, die eine Transformation zwischen Bosonen und Fermionen beschreibt. Supersymmetrie (verniedlichend und „cute“ SUSY genannt) bedeutet aber bei schlichter Betrachtung u.a. die Aufhebung der theorieinduzierten Trennung von Fermionen und Bosonen. Des Weiteren fordert SUSY eine Substrukturierung der postuliert „Strukturlosen“, derzeit als Leptonen bekannt. Standardmodelltheoretiker und deren Anhänger scheinen, berauscht von ihren Fantasien, nicht zu verstehen, daß das „SUSY-Konzept der Vereinigung“ das (noch) bestehende Standardmodell der Teilchenphysik (SM) nicht, wie gewünscht, konstruktiv erweitert sondern demontiert. Ein erkennbarer Vorteil der SUSY-Forscher: Die unvermeidliche SUSY-inhärente Anzahl-Aufblähung freier Parameter garantiert Vollbeschäftigung.

Ein anderer – logisch durchaus nachvollziehbarer - nahe liegender Gedanke ist, sich von den jetzigen Elementarteilchen (Quarks, Leptonen) zu verabschieden und diese mittels so genannter Preonen zu substrukturieren. Nur wenn Quarks und Leptonen jetzt schon nulldimensional sind, welche „infinitesimale Steigerung“ haben dann Preonen inne?

Soweit zu den ersten „Auffälligkeiten“.

 

 

 

Die Ursprünge des Realitätsverlustes, welcher mannigfaltig im Standardmodell der Teilchenphysik zum Tragen kommt, stammen aus der Quantenmechanik (QM). Im Zuge der Kopenhagener Interpretation der Quantenmechanik ist der Realitätsverlust methodisch und gewollt. Gemäß der Kopenhagener Deutung von 1927 ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen. Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier Theorem es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab den physikalischen Prozeß zu erkunden, Anschaulichkeit und Phänomenologie werden ausgeblendet.

 

 

Was ist und was darf sein 

1..."Die meisten »master–theories« der Physik sind widerlegt – in aller Regel ohne jegliche Folgen. So genießen die Maxwellschen Gleichungen der Elektrodynamik in der Heaviside-Hertz-Version nach wie vor Kultstatus, obwohl sie weder die Lorentzkraft oder gar die Joulesche Wärme als weltweite Lichtquelle berücksichtigen..."

..."P. K. Feyerabend verweist darauf, dass sich nach der klassischen Elektrodynamik von Maxwell und Lorentz „ein bewegtes freies Teilchen selbst beschleunigt“! Trotzdem wird an der Theorie festgehalten, der Sachverhalt verdrängt – mit der Selbstverpflichtung, „die Schwierigkeiten zu vergessen, nie über sie zu reden und zu verfahren, als wäre die Theorie fehlerlos. Diese Haltung ist heute weit verbreitet.“ [FEYERABEND, K. P. (1986), S. 77]"....

..."Der bemerkenswerteste Fall betrifft die Quantenmechanik: Der große Mathematiker, John von Neumann (geb. Neumann János) publizierte 1932 sein opus magnum über die Mathematischen Grundlagen der Quantenmechanik. Das Datum der Publikation dieses Buchs hielt Carl-Friedrich von Weizsäcker für den Beginn der „Machtübernahme“ der Mathematik in der theoretischen Physik. Doch schon vor diesem Datum befielen von Neumann Zweifel an seiner Theorie. Dann im Jahr 1935 wies er nach, dass jede Theorie der Quantenmechanik, die auf dem »Hilbertraum« als Bezugsbasis entwickelt wird, physikalisch inakzeptabel ist [RÉDEI, M. (1996)]. Jeden klaren Kommentar in der Öffentlichkeit darüber vermied er sein Leben lang, obwohl er zusammen mit F. J. Murray in einer Serie von mathematisch höchst innovativen Publikationen zur Algebra (Von-Neumann-Algebren) nachwies, wie eine zutreffende Fassung der Quantenmechanik zu gestalten sei.

Im wahrlich umfangreichen Bestand an Publikationen zur Quantentheorie findet man zu von Neumanns Dilemma kaum eine substantielle Notiz. Erst 44 Jahre nach seinem Tod im Jahr 1957 kann die Fachöffentlichkeit aus mehreren privaten Äußerungen erfahren, warum von Neumann niemals sein berühmtes Buch von 1932 widerrufen oder zurückgezogen hat. Das Motiv war einfach: Seine »Falsifikation« hätte niemand der Fachkollegen ernst genommen, da z. B. der »Hilbertraum« weltweit längst zum Grundbestand der Quantentheorie gehört. Aber auch gravierende thermodynamische Einwände spielten eine Rolle, mit denen sich außer von Neumann keiner der großen Quantenheroen in ihren Lehrbüchern befasste. "...

 1Quelle: Nichtmechanistische Darstellung der physikalischen Disziplinen als mathematische Systemtheorie   Vilmos Balogh

 

Zwei Klassen Standardmodelle

Was vom Nobelkomitee ausgezeichnet und zementiert wird, ist stets die vorherrschende Lehre.

Das der Nobelpreis für Physik zum ersten Mal 1901, „damals“ für die Untersuchung der nach ihm benannten Strahlung an (Wilhelm Conrad) Röntgen, vergeben wurde, ändert nichts an der Ideologie zur Bewertung theoretischer Konzepte. Waren die Folgejahre noch geprägt durch die Würdigung experimenteller Physik, so begann in den 1930er Jahren die „Zeit der Wahrscheinlichkeiten und freien Parameter“.

Die, aus naturphilosophischer Sicht tragikomische Denkrevolution ist, spätestens seit Vergabe des Nobelpreises für Physik des Jahres 1932 an Werner Heisenberg für die Begründung der Quantenmechanik, auch ein Denkdogma. Die Nobelpreisträger des Jahres 1933 Erwin Schrödinger und Paul Dirac (1932 wurde kein Nobelpreis für Physik verliehen) untermauerten die Würdigung phänomenologiebefreiter Theoriekonzepte. Bemerkenswert ist die Tatsache, daß bis heute jedoch kein Nobelpreis für die von Einstein und Friedmann begründeten Theoriearbeiten, Allgemeine Relativitätstheorie (ART) und folgend das Standardmodell der Kosmologie (ΛCDM-Modell), vergeben wurden. In diesem Bereich sind bisher nur experimentelle Entdeckungen mit einem Nobelpreis gewürdigt worden, wie 1978, für die Entdeckung der Kosmischen Hintergrundstrahlung (Penzias und Wilson) des Jahres 1964. Hier drängt sich der Verdacht auf, das es keine Nobelpreise für Ausarbeitungen des seit fast 100 Jahren herrschenden (wenn man die originären Anfänge zu Grunde legt) kosmologischen Denkmodells gibt, weil es unvereinbar mit dem Standardmodell der Teilchenphysik ist. Die Nobelpreiswürdigungen für Theoretische Physik sind extrem teilchenphysikfixiert.

 

 

 

Wer einigermaßen neutral die Geschichte der Elementarteilchenphysik "studiert", wird kaum glauben können, daß es sich um naturwissenschaftliche Betrachtungen und Bemühungen im Sinne einer zielführenden Vereinfachung und Vereinheitlichung handelt. Immer dann, wenn die Experimentalphysik die Theorie(n) widerlegte, wurde die Theorie mittels neuer Elementarteilchen, erneuter Substrukturierung und wenn nötig neuer Quantenzahlen erweitert, die die fehlenden Eigenschaften, die fehlende Energie oder die fehlende Symmetrie "erledigten". Das hat mit Wissenschaft wenig zu tun und erinnert mehr an (zeitgenössische) Politik. Statt die Probleme mit einem neuen radikalen (Theorie-)Ansatz zu bewältigen, werden kleine und große Schönheitskorrekturen kontinuierlich durchgeführt. Statt zu vereinfachen und zu vereinheitlichen wird "gnadenlos" erweitert und "spezialisiert". Es entsteht ein Sammelsurium von Teilchen(eigenschaften). Plakativ formuliert: Für jeden Fall einer unerwünschten Abweichung, für jedes Teilchen werden bei Bedarf theorieerhaltende Sonderregelungen nachgelegt. Der mathematische Formalismus ist in diesem Fantasieprozess das kleinste Problem. Nötigenfalls werden divergente Terme regularisiert und renormalisiert oder gleich als "unphysikalisch" deklariert, schlicht "weggelassen". Das damit die axiomatische Grundstruktur zerstört wird, scheint entweder nur Wenigen klar zu sein bzw. ist offensichtlich dem Gros der Theoretiker egal.

 

[ In Analogie zum Standardmodell braucht jedes Frühstücks-Arrangement eine eigene Theorie ]

 

Zur Erinnerung: Ob eine Mehrheit «Etwas» "praktiziert" und für "richtig" hält, sagt nichts über den erkenntnistheoretischen Wert der "Theorie zum Etwas". Eine Meinung kann jeder haben, dazu braucht es kein Wissen. Deshalb sind Meinungen auch deutlich populärer als Wissen. Das eine Gesellschaft mehrheitlich aus Meinungsträgern ohne Wissen besteht, ist ein gut dokumentiertes, psychologisch nachvollziehbares, machtsystemerhaltendes, leicht zu beobachtendes Phänomen, sofern man sich mit den sozialpolitischen Hintergründen der Meinungsmache und Machterhaltung beschäftigt. Aber warum basiert die aktuelle Theoretische Grundlagen-Physik auf Meinungen, statt auf Wissen?

Sind es letztendlich nur - aus naturwissenschaftlicher Sicht inakzeptabel -  wirtschaftliche Interessen der Nutznießer und Lobbyisten, die Forschungsgelder abgreifen und ihre materielle Existenz begründen wollen? Stellt man die enorme Anzahl von Veröffentlichungen im Bereich der Standardmodelle ins Verhältnis zu dem erkenntnistheoretischen Gewinn, so handelt es sich - in unserer heutigen digitalisierten Zeit salopp formuliert -  fast ausschließlich um Datenmüll. Das liegt schlicht daran, daß die vermeintlichen Meßergebnisse bereits stark theoriebeladen sind und die theoretischen Ansätze aus idealisierten, genäherten Gleichungen stammen, die in der Urform keine formal-analytischen Lösungen besitzen und deren näherungsreduzierte Gestaltungen nichts weiter als mathematische Möglichkeiten liefern, die realphysikalisch bedeutungslos sind, insbesondere da über die Rückkopplungen der theoriebeladenen selektiven Messungen, nur die gewünschten Meßergebnisse weiter verwendet werden. So entstand und entwickelt sich ein erkenntnisbefreites, formal und wirtschaftlich selbsterhaltendes System. Das die Systementwickler und Profiteure jede halbwegs logische Alternativforschung schon im Ansatz beseitigen wollen, ist egoistisch menschlich nachvollziehbar. Jede formal-analytische Lösung, die realphysikalische Werte liefert, stellt eine existenzielle Bedrohung der Standardmodelle dar. Populärwissenschaftlich getragen wird das System von servilen Wissenschaftsmagazinen deren indoktrinierten Lesern und unwissenden Epigonen, die jeden populären Theorie-Quatsch beklatschen. Es drängt sich der Verdacht auf, daß Menschen, deren Schaffensdrang nicht in geeigneter Weise befriedigt werden kann, weil real nichts Neues für sie zu finden ist, Trivialitäten dokumentieren und formalisieren, in neue Worte kleiden und Satzstrukturen verwenden, die ein Normalmensch nicht versteht und dessen Achtung der Autor quasi automatisch erhascht. Es macht im Ergebnis keinen Unterschied ob es in diesem System Wissenschaftler gibt, die "wirklich" voller Inbrunst an diese, an Naivität und Widersprüchen schwer zu überbietenden, "theoretischen Implikationen" glauben oder ob es letztendlich banale wirtschaftliche Interessen gepaart mit akademischer Macht sind, die Wissenschaftler als elitäre Nutznießer ausnutzen um baren Unsinn zelebrieren und verkünden zu können.

Besonders eklatant ist der Umstand, daß im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik der Teilchen" für sich in Anspruch nimmt, ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Die Theoretische Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an denen man Glaubensbekenntnisse statt Wissenschaft vermutet.

 

 

Kirche und Physik  

Kurt Marti zeigt fragmentarisch auf, wie der Vatikan und CERN-Forscher sich Hand in Hand die Glaubens-Zukunft der Teilchenphysik und Kosmologie vorstellen.

…“Dem Vatikan geht es nicht primär um Elementarteilchen und Schwarze Löcher, sondern um Metaphysik. Mit ihrem exzellenten Spürsinn für das scheinbar Wesentliche haben die Theologen in Rom längst begriffen, dass die Teilchen- und Astrophysik immer mehr in der dünnen Luft der experimentfreien Metaphysik operiert.“…

  siehe Wahlverwandtschaften von CERN und Vatikan von Kurt Marti

 

…“Auf dem Gipfel der Macht und der Anerkennung werden Menschen plötzlich gesprächig, kokettieren mit ihren Tricks und kleinen Mogeleien, spötteln über Ethik und Moral und brüsten sich ihrer Fähigkeit, ein ganz spezielles persönliches Interesse mit Hilfe von Manipulation und geschickter Propaganda durchgesetzt zu haben. Manche Vermutung über das wahre Wesen eines erfolgreichen Menschen findet durch derart eitle Selbstenthüllung ihre Bestätigung, vermag aber keineswegs die Machtposition des Menschen zu erschüttern. Etabliert ist etabliert.“[1]

Euphemistische Botschaft der Deutschen Physikalischen Gesellschaft (DPG):

...„Die Deutsche Physikalische Gesellschaft soll ausschließlich und unmittelbar der reinen und angewandten Physik dienen. ...“

»Wahre Botschaft« der Deutschen Physikalischen Gesellschaft (2000):

"Die Urknall-Kosmologie ist gewissermaßen die moderne, physikalische Version der Schöpfungsgeschichte."[2]

[1]  Als der Urknall Mode war    Erinnerungen an ein kurioses Weltmodell

Klaus Gebler 2005  ISBN 3-8334-3983-1

[2] [1] Eine an alle höheren Schulen ausgelieferte umfangreiche Denkschrift „PHYSIK – Themen, Bedeutung und Perspektiven physikalischer Forschung, ein Bericht an Gesellschaft, Politik und Industrie“ im Jahre 2000 enthielt diesen denkwürdigen Satz: „Die Urknall-Kosmologie ist gewissermaßen die moderne, physikalische Version der Schöpfungsgeschichte. ...“

Klaus Gebler verdeutlicht in seinem bemerkenswerten Buch ►Als der Urknall Mode war   Erinnerungen an ein kurioses Weltmodell u.a. wie sehr die "Moderne Physik" von der kirchlichen Sicht beeinflusst ist.    Webseite: ►Klaus Gebler

 

 

Didaktisch ist die herrschende erkenntnistheoretische Leere seit Jahrzehnten fester Bestandteil der Ausbildung. Der Denk-Monotheismus wird schon Schülern populärwissenschaftlich verordnet. Sollten diese dann, trotz der immensen Indoktrination und gegen alle Erwartung, das Quarks-basierende Protonenmärchen eines Tages realisieren, stehen sie ganz alleine dar. Wer glaubt schon, daß sich zehntausende Wissenschaftler über nun drei Generationen mit Etwas beschäftigten, wenn es nicht das Non plus ultra darstellt? "Milliardenschwere" Teilchenbeschleuniger wurden und werden doch nicht gebaut, wenn das Alles Unsinn ist? Diese "psychologischen Komponenten" wiegen schwer.

 

Weitere Standardmodelle

Beispiel Geld: Die wenigsten Menschen wissen von der Programmatik und Zielvorgabe des weltweit existenten Giralgeld-Systems. Dieses ist so angelegt, daß es zyklisch kollabiert. Wirtschaftskrise, Krieg oder Wirtschaftskrise und Krieg führen zur Währungsreform und letztendlich zur Verelendung und Enteignung der arbeitenden Klasse. Nach dem "Reset" gibt es wieder "Fleißige", die den nächsten Zyklus vorantreiben. Der (nächste) Kollaps ist nicht durch eine Verkettung von unglücklichen Zuständen entstanden sondern Giralgeld-System-inhärent. ...zu diesem tragikomischen Thema gibt es sehr informative, unterhaltsame online-Video-Ausführungen auf youtube

Konkretes zur Orientierung...

Hummes Dilemma – oder : Was ist Geld?

„Geldschöpfung“ der Banken als Vermögensrechtverletzung

von Michael Köhler, em. Professor für Strafrecht, Strafprozeßrecht und Rechtsphilosophie an der Universität Hamburg

Monetative e.V.

…„Anders als viele Menschen meinen, wird heute die wichtigste Geldart, das Giral- oder Buchgeld, durch private Geschäftsbanken geschaffen und in Umlauf gebracht. Das Geld auf unseren Bankkonten stammt also nicht von der Zentralbank, obwohl diese das alleinige Recht hat, gesetzliche Zahlungsmittel zu schaffen“… siehe Webseite des Vereins Monetative e.V.

Wissensmanufaktur

Die Wissensmanufaktur ist ein unabhängiges Institut für Wirtschaftsforschung und Gesellschaftspolitik. Unsere Unabhängigkeit von öffentlichen Geldern sowie von der Gunst von Werbekunden, Auftraggebern und den Eigentümern der Massenmedien ermöglicht uns eine ergebnisoffene Forschung und auch die Veröffentlichung von Ergebnissen, die nicht der „political correctness“ entsprechen. Webseite:  http://www.wissensmanufaktur.net/

 

Beispiel Politik: Eine parlamentarische Demokratie ist indirekt, hierarchisch und führt nach einer kurzen Entwicklungsphase stets zu einer Zementierung der Macht und zu einer Interessensättigung. Zu süß sind die Früchte der Lobbyisten. Es macht zeitgenössisch keinen Unterschied wer oder was gewählt wird. Der "freie Parameter" ist, wenn nichts mehr geht, die große Koalition. Natürlich kann jeder eine neue Partei gründen. Nur wie viele Stimmen sind notwendig um eine große Koalition zu "stürzen"? Bevor dies geschieht, kommt es in der Regel zur systemerhaltenden Assimilation der "zu-wenig-Prozent-Störer". Früher oder später, wertfrei und exemplarisch werden aus vormals "RAF-Anwälten", "Grüne" die sich zu systemkonservativen Innenministern entwickeln. Vermehrt werden aus Politikern der "Volksparteien", die zeitgleich Aufsichtsräte in Wirtschaftsunternehmen sind, häufig nach der "politischen Karriere", selbst Wirtschafts-Lobbyisten.

Beispiel: Kosmologie: Ausgehend vom Quantenfeldvakuum besteht eine große Schwierigkeit darin, daß eine Energie im Vakuum angenommen werden muss, die ihre Auswirkungen in die ART „verschleppt“. Es stellt sich in Verbindung mit der kosmologischen Konstante die Frage: Ist die Nullpunktenergie real? Oder verflüchtigt sie sich eines Tages, so wie zuvor Phlogiston,  Lichtäther und Dirac-See. Zur Beliebigkeits-Problematik der freien Parameter gesellt sich die unvermeidbare „axiomatische Verletzung“ des Kovarianzprinzips. Salopp "formulierter" Hintergrund: Die Allgemeine Relativitätstheorie wurde u.a. aus der Forderung geboren, zur Beschreibung der Naturgesetze beliebige Koordinatensysteme verwenden zu können. Entsprechend dem Kovarianzprinzip sollte die Form der Naturgesetze nicht entscheidend von der Wahl des speziellen Koordinatensystems abhängen. Diese Forderung ist ursächlich mathematisch und führt zu einer Vielfalt von möglichen Koordinatensystemen [Metriken]. Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie (ART), die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen. Gemäß ART-Postulat trägt nicht nur Masse, sondern auch jede Form von Energie zur Krümmung der Raumzeit bei. Dies gilt einschließlich der mit der Gravitation selber verbundenen Energie. Daher sind die einsteinschen Feldgleichungen nichtlinear. Erst Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen. Die unvermeidbaren ("kovarianten") Widersprüche kommen mit den offensichtlich unzulässigen Idealisierungen und Näherungen des Systems von nichtlinearen, verketteten Differentialgleichungen. Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung „entschwindet mit der Verstümmelung“ (Idealisierung und Näherung) der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch korrekten Gleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung. Diese Art des Mathematikgebrauches ist willkürlich, da je nach „Geschmack“ der (selbst)gewählten Metrik andere Ergebnisse erhalten werden.

 

Moderne Zahlenspiele

Wäre das Schicksal von Burkhard Heim (1925 - 2001) weniger tragisch, könnte man Heims Massenformeln zur Berechnung von postulierten und vermeintlich experimentell bestätigten Elementarteilchenmassen des Standardmodells (SM) als fröhliches Musterbeispiel für die selbstprophetische Natur der „Modernen Theoretischen Physik“ verstehen.

Burkhard Heims Ansatz wird als 6-dimensionale polymetrische Strukturquanten-Theorie bezeichnet, die eine geometrische Struktur der Elementarteilchen offenbart. Heims Massenformeln wurden Anfang der 1980er Jahre am DESY programmiert und „gerechnet“ und laut Aussagen der DESY-Mitarbeiter Dr.Schmid und Dr.Ribgen als „beachtlich“ eingestuft.

Nur war Heim in vielerlei Hinsicht ein Außenseiter. Die Anerkennung der Heimschen Theorie hätte das Aus anderer Theorieansätze bedeutet und konsequent gedacht, die bis dahin vorgestellten theoretischen Arbeiten der SM-Physiker als falsch identifiziert. Des Weiteren wären bestehende und daraus folgend heutige mathematische Ansätze überflüssig. Auch die Urknall-Theorie ist nach Heims Theorie ein Märchen.

Um es auf den Punkt zu bringen: Heims 6-dimensionales mathematisches Konstrukt liefert(e) Massenwerte und Lebensdauern von experimentell beobachteten Teilchenbeschleuniger-Resonanzen. Das war und ist für den „Rest“ der Theoretischen Elementarteilchenphysiker“ gefährlich und existenzgefährdend. Es verwundert also nicht, daß Burkhard Heim kaum Erwähnung fand und letztendlich in der Versenkung verschwand.

Der "Heim-generierte" erkenntnistheoretische Wert liegt letztendlich in der Aussage, daß 6 Dimensionen das Standardmodell der Teilchenphysik ordnen. Jedoch liefern die von Heim verwendeten Formeln im Detail nichts außer Gleichungsfragmente, die so arrangiert sind, daß Übereinstimmungen mit Teilchenbeschleuniger-Ergebnissen erzielt werden können. Der erkenntnistheoretische Wert für den kritischen Beobachter begründet sich durch die mehr oder weniger transparente Gestaltung der Heimschen Gleichungen. Es wird exemplarisch deutlich, wie mathematische Konstrukte funktionieren, ohne auch nur eine Spur von Erkenntnis zu generieren. Die menschliche Komponente der SM-Aktivisten und die Methodik des Verschleierns werden am Beispiel Burkhard Heims überdeutlich. Ein besserer theoretischer Ansatz als der eigene wird als emotionale Katastrophe verstanden, der im Rahmen der eigenen Forschungspläne banalisiert und unterdrückt werden muß.

Beispiel SdAEV

Viele Menschen können sich nicht vorstellen, wie unglaublich realitätsverleugnend politisch Verantwortliche in Tateinheit mit Wissenschaftlern agieren und durch omnipräsente Dauerpropaganda Bürger bewusst getäuscht werden.

„Die Förderung erneuerbarer Energien wird einen Haushalt nur einen Euro im Monat kosten – so viel wie eine Kugel Eis.“ verkündete 2004 der damalige deutsche Umweltminister, Jürgen Trittin. In Wirklichkeit hat sich die monatliche Stromrechnung für deutsche Haushalte seit 2000 etwa verdoppelt. Elektrizität ist in Deutschland für Konsumenten mit fast 30 Cent je Kilowattstunde sogar um die Hälfte teurer als im Hochpreisland Schweiz [1].

Und diese staatliche Volksverdummung geschieht, obwohl die Faktenlage - öffentlich einsehbar - sachbezogen dokumentiert ist. Wer also glaubt, daß die Standardmodelle der Theoretischen Physik eine Berechtigung haben, weil sich nahezu alle „führenden“ Wissenschaftler dort tummeln, hat wesentliche Aspekte der vermeintlich  „gemeinnützigen Meinungsbildung“ nicht verstanden. Ob CERN oder exemplarisch die deutsche „alternative Energiepolitik“, nicht der Wunsch nach Erkenntnisgewinn oder praktischem Nutzen geben hier den Ton an, sondern letztendlich die von der Allgemeinheit subventionierten Nutznießer selbst, die konträr zur empirischen Gewissheit, Fakten leugnen und haltlose Aussagen verbreiten. Der Erhalt der Macht- und individuellen Versorgungsstruktur steht über Allem anderen. Kritiker werden ignoriert, wenn nötig diskreditiert. Servile System-Medien verkünden und bewerben jeden denkmodell-theoretischen und anwendungstechnischen Mist der herrschenden Standardmodelle. Wie eindeutig die Beweislage ist, verdeutlicht exemplarisch die Situation des Standardmodells der deutschen alternativen Energiepolitik (SdAEV).

Während der Frostwetterperiode wurden im Zeitraum 16. bis 26. Januar 2017 von den über 26.000 Windenergieanlagen mit einer installierten Nennleistung von 50 Gigawatt nur minimale Leistungseinspeisungen für die Stromversorgung bereitgestellt. Kernenergie-, Kohle- und Gaskraftwerke übernahmen fast vollständig die Stromversorgung in Deutschland [2].

Wer es noch genauer braucht um den gelebten Irrsinn zu begreifen: Am 24.1.2017 um 7.00Uhr war die Stromnachfrage (Netzlast) 70 GW hoch. An Photovoltaik und Windkraftanlagen sowie Wasserkraft standen rein theoretisch 89,5 GW Kapazität zur Verfügung. Die tatsächliche Erzeugung am 24.1.2017 um 7.00Uhr von Photovoltaikanlagen lag bei Null, die der Windkraftanlagen bei 0,8 GW. Die thermischen Kraftwerke, vornehmlich Kohle, Gas und Kernkraft waren hoch ausgelastet und gewährleisteten die Versorgungssicherheit.[3]

Dieses Beispiel zeigt, ohne Wenn und Aber, die brachiale Wahrheit, daß die deutsche Stromversorgung zwingend zwei Systeme erfordert. Ohne „konventionelle“ regelbare und jederzeit verfügbare Kraftwerke, gäbe es gar keine parallele alternative Energieversorgung, diese jedoch hatte und hat ohne lokal vorhandene Energiezwischenspeicher keine Daseinsberechtigung. Das Standardmodell der deutschen alternativen Energieversorgung ist untauglich. Wenn man das nun mit der Lügen-Propaganda der Macher und Nutznießer des SddAEV und der tendenziell positiven Volksmeinung vergleicht, wird klar wie katastrophal ausweglos die Situation mittlerweile ist.  

„Wertfrei“ betrachtet: Politiker schlagen „Strategien“ vor, Experten beurteilen diese, Industrie-Manager entscheiden (sofern es sich um Industrieprozesse privatwirtschaftlicher Unternehmen handelt), die „angestellte Basis“ setzt um. Das Volk bekommt letztendlich, was es “verdient“ hat. Das ist mehrdeutig zu verstehen. Wann die Schmerzgrenze erreicht ist und die Basis sich kollektiv verweigert, „steht in den Sternen“. Bildung und Sach-Aufklärung sind von Vorteil um Argumente verstehen und vortragen zu können. Doch diese gibt es bewusst nicht von den jetzigen „Nutznießern der Ungebildeten“. In Sachen Energiepolitik kann man wählen was man will oder nicht wählen, es wird sich nichts ändern, da auch die zukünftige politische „Opposition“ (es darf gelacht werden) mehrheitlich den gleichen ideologischen Unsinn propagiert.

Hier stellt sich unweigerlich die Sinnfrage, wie es möglich war/ist, daß ein Energieversorgungssystem mit dem faktischen Wissen der Unmöglichkeit des praktischen Betriebes konzipiert und fatalerweise umgesetzt wurde. Das bedeutet aber auch, daß die projektinvolvierten Wissenschaftler, Ingenieure und Techniker entweder keine „Stimme“ haben oder ihnen „Alles“ egal  ist, solange jemand ihre Arbeit vergütet.

Genauer betrachtet sind es die entscheidungsmächtigen  „Kaufmänner“ der Energiekonzerne, die ihr (technisches) Personal befragen und dann instruieren, letztendlich mit der finalen Gewissheit, daß die „geplante“ Technik nie zu einer effizienten, noch nicht einmal annähernd, ausreichenden Stromversorgung führen wird.

Hatten denn zumindest die technisch "Aufgeklärten" des SdAEV eine "moralische" Verpflichtung gehabt, die Umsetzung des Vorhabens zu verhindern, indem sie vehement die Wahrheit über alle erdenklichen Medien kundtun bevor es zu spät war. Die schlichte Antwort ist, ja, die hätten sie gehabt, aber aus rein egoistischen, materiell-existentiellen Motiven heraus, geschah dies nicht, lassen wir mal den ein oder anderen Einzelfall außer Betracht. Losgelöst davon, wäre es nicht Aufgabe der Wissenschaftsredaktionen gewesen, das nutzlose SdAEV in Grund und Boden zu schreiben? Es macht ergebnisorientiert keinen Unterschied ob die Herren und Damen der Redaktionen unqualifiziert sind oder auch hier über Werbe-Verbindungen zwischen Magazin, Politik und Industrie nicht den Ast absägen, auf dem sie sitzen.   

Da es sich bei der Stromnetz-„Wissenschaft“ um eine anwendungsorientierte Technik handelt, deren Systemparameter seit mehr als einem Jahrhundert gut bekannt sind, sollte man sich auch die Frage stellen, inwieweit der gezielte Einsatz bekannterweise nichtfunktionierender Technik strafrechtlich relevant ist, da neben der materiellen Bereicherung der „Nutzlostechnik-Profiteure“ im Rahmen des SdAEV keinerlei Nutzen für die zahlenden Kunden existiert, die stromversorgungsbedingt mehrheitlich keine Alternative haben. Sie müssen zahlen.

Zum Mitdenken: Beim SdAEV handelt es sich um ein - bezüglich der Konzeption und in der Wirkung - leichtverständliches Standardmodell mit direkten Beweisen. Die Standardmodelle der Physik (Lambda-CDM-Modell und SM) und deren (mathematische) „Erweiterungen“, wie Supersymmetrie (SUSY) oder Stringtheorie können nicht einen einzigen direkten experimentellen Nachweis postulierter Theorieobjekte erbringen! In zahlreichen Wissenschaftsshows und Wissenschaftsmagazinen rund um den Globus wird gebetsmühlenartig, hübsch aufbereitet, der bare Unsinn bezüglich der Materiebildung und Materiewechselwirkung verbreitet. Egozentrik, Macht- und Habgier der Standardmodellmacher werden u.a. über milliardenteure wissenschaftliche Kathedralen, wie den LargeHadronCollider (LHC), verkündet und das gläubige, unwissende Volk befruchtet diese erkenntnis-impotente Wissenschaft mit Anerkennung und Beifall.

 

 

 

 

 

Erweiterte Betazerfall - Utopie: Zwei down-Quarks und ein up-Quark schwach wechselwirkend an der Nasenperipherie oder doch nur eine (neu)expressionistische Gesichts-Komposition? In jedem Fall ein ADF-Kunst-Produkt (noview phead 42ndf)

 

 

Standardmodelle einst und heute

Sowohl die Epizykeltheorie aus heutiger Sicht als auch das Standardmodell der Teilchenphysik (SM) als quantenfeldtheoretische Anwendung und Weiterentwicklung der Quantenmechanik basieren auf Fourier-Reihen, bzw. Fourier-Transformierte. Die Epizykeltheorie arbeitete mit 3 freien Parametern, war mathematisch „richtig“, phänomenologisch falsch und die Objekte der Beschreibung waren (sind) sichtbar. Das SM arbeitet mit 25 freien Parametern, variablen Kopplungskonstanten, virtuellen Teilchen, theorieinduzierten nicht realen Objekten und keines der postulierten Theorie-Objekte ist sichtbar (direkt messbar).  

 

Geozentrisches Weltbild

Die Erde steht im Zentrum des Kosmos, die Himmelskörper bewegen sich auf Kreisbahnen. Allerdings konnte z.B. die Bahn des Mars nicht eine einfache Kreisbahn um die Erde sein, denn die Bahn zeigte unerklärliche Schleifen, also stellenweise eine Rückwärtsbewegung. Um das Dogma von der natürlichen Kreisbahn aufrecht erhalten zu können, wurde ad hoc behauptet, daß die Marsbahn wohl ein Kreis sei, die Erde sei aber nicht Mittelpunkt seiner Bahn. Der Mittelpunkt der Kreisbahn des Mars (sein Epizykel) bewege sich selbst auf einem Kreis um die Erde, dem so genannten Trägerkreis oder Deferenten. Da die Geschwindigkeit des Mars aber nicht gleichförmig ist, wurde wieder ad hoc behauptet, daß die Erde nicht genau im Zentrum des Trägerkreises sei, die Erde sei somit exzentrisch angeordnet. Doch die Einführung von Epizykeln und Exzentritäten genügte für die exakte Bahnbeschreibung immer noch nicht. Ptolemäus führte als weiteren Parameter den Äquant ein. Nur vom Äquanten aus betrachtet stellen sich alle Bahnen als gleichförmige dar. Das Ptolemäische Modell liefert eine genaue Beschreibung der Phänomene, wenn die Parameter Epizykel, Exzentrizität und Äquant passend variiert werden. Eine kausale physikalische Erklärung für die Modellkonstruktion wurde nicht gegeben.

 

Einige "SM-Postulate"

Das Standardmodell der Elementarteilchenphysik zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen.

Die Definition der Masse eines Teilchens bezieht sich im Rahmen des Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt, wie auch die Gravitationswechselwirkung die im Standardmodell nicht beschrieben werden kann. Die kinematische Wirkung der Masse manifestiert sich im Propagator des Teilchens.  

Alle »Materieteilchen« im Standardmodell sind Fermionen (Spinwert: ½) und werden durch vierkomponentige Spinoren beschrieben. Die vier Einträge entsprechen – grob gesagt – der Beschreibung von Teilchen und Antiteilchen mit jeweils zwei möglichen Spineinstellungen.  

Unter der (nicht mehr gültigen) Annahme das Neutrinos masselos sind, besitzt das minimale Standard-Modell mit 3 Familien 18 freie Parameter. Die Kopplungskonstanten: αs, α, sinθW. Die Massen der Leptonen: me, mµ, mτ  Die Massen der Quarks: md, mu, ms, mc, mb, mt Die Massen der Bosonen: mZ, mW  Die Parameter der CKM-Matrix für den Quarksektor: λ, A, ρ, η. Im Falle massiver Neutrinos erhöht sich die Anzahl der freien Parameter um sieben, einerseits für deren Massen, andererseits für die Mischungsmatrix im leptonischen Sektor. Weitere freie Parameter können „auftauchen“, wenn man von dem minimalen Higgs-Sektor zu einem komplizierteren Mechanismus übergeht.

Es gibt drei Familien von Teilchen und der einzige Unterschied zwischen den Familien besteht in den Teilchenmassen, ansonsten sind die Eigenschaften von Familie zu Familie gleich. Teilchen aus der zweiten und dritten Familie (Generation) können in Teilchen der ersten Familie zerfallen und Materie besteht nur aus Teilchen der ersten Generation: Up- und Down-Quarks bilden die Protonen und Neutronen der Atomkerne, die von Elektronen umgeben sind.

 

Lässt man die Neutrinomassen "beiseite", dann unterscheiden sich die Massen des leichtesten Fermions (Elektron) und des schwersten (Top-Quark) um einen Faktor von ca. 400.000, obwohl die Massenterme mit der spontanen Symmetriebrechung denselben Ursprung haben.

Die Eichbosonen (Austauschteilchen) sind (erst einmal) masselos, da entsprechende explizite Massenterme die Eichinvarianz verletzen würden. Versucht man einen (zusätzlichen) Masseterm einzuführen, geht die Invarianz verloren und die Theorie wird nicht renormalisierbar. D.h. die Störungsrechnung divergiert. 

 

Merke: Die Eichgruppe des Standardmodells SU(3)C x SU(2)W x U(1)Y kann nur masselose Fermionen beschreiben. C steht für Farbe (die Ladung der starken Wechselwirkung), W für Schwache Wechselwirkung und Y für Hyperladung. Die elektroschwache Yang-Mills-Theorie wird durch SU(2)W x U(1)Y beschrieben, die SU(2)W  enthält drei Eichbosonen. Die zunächst masselosen Fermionen können durch ihre Helizität charakterisiert werden. Rechtshändige Fermion-Zustände haben Helizität +½, linkshändige Fermionen den Wert -½. Nur bei masselosen Teilchen ist die Helizität eine lorentzinvariante Größe. Es gibt Erzeugungs- und Vernichtungsoperatoren für rechts- und linkshändige Teilchen und für die jeweilige Händigkeit von Antiteilchen. Die Ladung des rechtshändigen Antiteilchens ist entgegengesetzt der Ladung des linkshändigen Teilchens. Es ist eine zentrale Eigenschaft aller Fermionen des SM, daß sie chiral sind. Definition: Ein Fermion ist chiral, wenn die rechts- und linkshändigen Teilchen-Zustände nicht dieselben Ladungen tragen. Chirale Fermionen sind masselose Fermionen. Durch spontane Symmetriebrechung erhalten Fermionen Masse und SU(3)C x SU(2)W x U(1)Y reduziert sich auf die Eichgruppe SU(3)C x U(1)em , die bei niedrigen Energien beobachtet wird.

  

QuantenChromoDynamik

Die QCD ist im Gegensatz zur QED eine nicht-abelsche Eichtheorie, das heißt die Multiplikation von zwei Gruppenelementen ist im Allgemeinen nicht kommutativ. Das führt dazu, daß in der Lagrange-Dichte Terme auftreten, die eine Wechselwirkung der Austauschteilchen miteinander bewirken. Konkret: Die Austauschteilchen (masselose Gluonen) tragen selbst »Farbladungen« und wechselwirken auch untereinander. Als eine Folge nimmt die Kopplungskonstante αs mit steigender Wechselwirkungsenergie logarithmisch ab („asymptotische Freiheit“). Die Genauigkeit der Theorie-Vorhersagen liegt im Prozentbereich. [Wobei sich die Vorhersagen nur auf die selbstdefinierten Theorieaspekte beziehen. Allgemein kann man "festhalten": Das SM somit QCD inklusive hat u.a. "nichts zu sagen" über konkrete Teilchenmassen, assoziierte Lebensdauern, Massenrelationen, zur Gravitation, zur Natur der Feinstrukturkonstanten, zur Phänomenologie des Spins]

In der Quantenfeldtheorie ist ein Elektron nicht nur ein »nacktes Elektron«, sondern von einer Wolke von virtuellen Teilchen (Photonen und Elektron-Positron-Paaren, bei höheren Energien auch anderen Fermion-Antifermion-Paaren) umgeben (Vakuumpolarisation), die es ständig emittiert und wieder absorbiert. Diese schirmen die negative Ladung des nackten Elektrons ab. In unmittelbarer Nähe der nackten Ladung werden die Elektron-Positron-Paare polarisiert, d.h., die virtuellen Positronen werden angezogen und die virtuellen Elektronen abgestoßen. Die nackte Ladung wird dadurch zum Teil kompensiert und in größerer Entfernung misst man nur noch die Differenz zwischen der nackten Ladung und der Gesamtladung der virtuellen Positronen (bzw. Antileptonen und entsprechenden Quarks je nach Energie). Die Messung der Testladung hängt also vom Abstand ab. Wenn man sich dem Elektron nähert, durchdringt man die Positronwolke, die die Elektronladung abschirmt.

           

Postulierte Ladungsrelativierung

Die durch die Ladung verursachte Polarisation des Vakuums in der Region um die Elementarladung sorgt für einen Abschirmungseffekt. Das führt dazu, daß die beobachtete Ladung keine Konstante mehr ist, sondern vom Abstand bzw. der entsprechenden Energieskala Q abhängt, bei welcher ein Prozess stattfindet. Dies wird als Laufen der Kopplung bezeichnet. In der QED nimmt die Stärke der Kopplung mit steigender Energieskala Q zu.

Die so genannte effektive Kopplungskonstante wird definiert durch:

"QED-Analoges" SM-Postulat: Wie das Elektron ist auch ein Quark von einer Wolke virtueller Teilchen umgeben, und zwar von Gluonen und Quark-Antiquark-Paaren. Die Farbladung eines Quarks wird durch die Farbladungen der Quark-Antiquark-Paare in der Wolke teilweise kompensiert. Anders als die elektrisch neutralen virtuellen Photonen in der Umgebung eines Elektrons haben die virtuellen Gluonen in der Umgebung eines Quarks ihre eigenen Farbladungen und können daher in Paare von Gluonen übergehen (Selbstkopplung). Als Folge dieser zusätzlichen Beiträge wird im Falle der QCD die Farbladung des Quarks nicht abgeschirmt, sondern erhöht (antiscreening). [Es gibt keine erklärende Phänomenologie zum antiscreening!] 

 

 

Elektroschwache Wechselwirkung

Das Modell von Glashow, Weinberg und Salam vereinigt die elektromagnetische und die schwache Wechselwirkung zur elektroschwachen Wechselwirkung. Ihre Struktur ist durch eine nicht-abelsche Eichsymmetrie der Gruppe SU(2)L×U(1)Y bestimmt. Die Wechselwirkungen der fundamentalen Teilchen werden durch den Austausch der Eichbosonen (Spin 1) vermittelt, die über lokale innere Symmetrien in die Theorie eingeführt werden. Die „Rolle“ der Materiefelder übernehmen Fermionen. Die Materiefelder sind durch jeweils drei Generationen von links- und rechts-chiralen Quarks und Leptonen gegeben. Zu den Leptonen gehören Elektron, Myon und Tau sowie ein Neutrino in jeder Generation. Die sechs Quarks sind Up-, Down-, Charm-, Strange-, Top- und Bottom-Quark. Quarks wechselwirken sowohl elektroschwach als auch stark. Die Quarks der ersten Generation (Up und Down) bilden die Bausteine der Protonen und Neutronen. Leptonen wechselwirken dagegen ausschließlich elektroschwach.

Das Postulat eines unterschiedlichen Transformationsverhaltens der links- und rechts-chiralen Fermionen theorieinduziert eine Quantenzahl die als schwacher Isospin bezeichnet wird, der für die obere Komponente eines SU(2)-Dubletts den Wert I = +½ und für die untere Komponente I = − ½ hat. SU(2)-Singuletts werden durch I = 0 gekennzeichnet. Aus der Annahme, dass die schwache Wechselwirkung die Parität, sprich die Symmetrie unter Raumspiegelung, maximal verletzt, ergeben sich unterschiedliche Kopplungen der Eichbosonen der schwachen Wechselwirkung an links- und rechtshändige Fermionen. Die Quantenzahl der U(1)Y -Symmetrie, welche die Invarianz der Lagrange-Dichte unter lokalen Phasentransformationen der Felder angibt, ist die Hyperladung Y, die mit der elektrischen Ladung Q und der dritten Komponente des schwachen Isospins I3W durch die Gell-Mann-Nishijima-Relation Q = I3W + ½Y  zusammenhängt.

Aus dem etablierten SM-Formalismus resultieren quadratisch divergente Beiträge zur skalaren Masse von Eichbosonschleifen sowie Fermionschleifen. Ohne das an dieser Stelle näher auszuführen, lässt sich der so genannte Abschneideparameter Λ nicht aus der Theorie bestimmen. Die großen Λ2 Korrekturen implizieren, daß, wenn man die Hochenergietheorie, von der das SM als effektive Niederenergietheorie abstammt, benutzt, um Vorhersagen bei TeV-Energien zu machen, diese Vorhersagen extrem sensitiv auf die Parameter der Hochenergietheorie sein würden, wenn Λ » 1 TeV ist. Dies ist das so genannte fine-tuning problem (Feinadjustierungsproblem) des SM.

 

 

 

Glück gehabt.

Auch die leeren Eier haben ein endliches Volumen. Nichts divergiert. Wie undankbar doch realphysikalische Objekte aus Sicht des Standardmodells sind.

 

 

 

 

Renormierung und Regularisierung

In Quantenfeldtheorien werden Modelle durch die Lagrange-Dichte beschrieben. Diese enthält eine bestimmte Anzahl von freien Parametern, deren Zahlenwerte nicht durch die Theorie festgelegt sind, sondern experimentell bestimmt werden müssen. Im Grenzfall verschwindender Quantenkorrekturen (Bornschen Näherung), können viele freie Parameter direkt mit den physikalischen Größen, wie z. B. den Massen oder der elektrischen Ladung, identifiziert werden. Werden jedoch Quantenkorrekturen berücksichtigt, so wird der direkte Zusammenhang zwischen den freien Parametern der Lagrangedichte (den so genannten ”nackten“ (engl.: bare) Parametern) und den physikalischen Größen zerstört. Dies macht eine Redefinition (Renormierung) der Parameter und auch der Felder, notwendig. Im Verlauf der Berechnung des Zusammenhangs zwischen den „unphysikalischen“ und den physikalischen Parametern können Integrale auftreten, die divergieren. Die Art und Weise, wie die Konvergenz dieser Integrale gesichert wird, wird durch das Verfahren der so genannten Regularisierung festgelegt. Es ist essentiell, daß die auftretenden Divergenzen durch eine Redefinition der Theorieparameter absorbiert werden können, ohne dabei die Symmetrien der Theorie oder die Unitarität der Amplitude zu verletzen. Dies führt dazu, daß die freien Parameter der Lagrange-Dichte nicht direkt mit den Observablen identifiziert werden können, sondern dynamische, also energie- und skalen-abhängige Beiträge erhalten und in jeder weiteren Ordnung der Störungstheorie erneut mit den physikalischen Größen in Verbindung gebracht werden müssen. Gelingt es, durch die Renormierung endlich viele Parameter sämtlich auftretender UV-Divergenzen in allen Ordnungen der Störungstheorie zu beseitigen, so ist die jeweilige Theorie renormierbar. Die Renormierbarkeit des Standardmodells wurde von ’t Hooft bewiesen.

Bevor Felder und Parameter der Lagrange-Dichte renormiert werden können, müssen zunächst die bei der Berechnung der Schleifenintegrale auftretenden Divergenzen extrahiert werden. Prinzipiell würde eine Beschränkung der Energieintegration durch eine obere Grenze (engl.: cut-off) Λ bereits endliche Ergebnisse liefern, jedoch zerstört eine solche Beschränkung die Lorentz-Invarianz. Ein häufig angewandtes Verfahren ist die dimensionale Regularisierung, die Lorentz- und Eichinvarianz gewährleistet (Erhalt der inneren Symmetrien der Theorie).

Durch die dimensionale Regularisierung werden die auftretenden Divergenzen in negativen Potenzen des Regularisierungsparameters ε isoliert. Mittels Renormierung wird dann die Abhängigkeit von diesem unphysikalischen Parameter subtrahiert und der Zusammenhang zwischen den im Modell auftretenden freien Parametern und den experimentell bestimmbaren physikalischen Größen neu festgelegt. In der Praxis werden dazu so genannte Gegenterme (engl.: counterterm) verwendet, welche einen formalen und systematischen Zugang zur Renormierung bieten. Dabei werden die ”nackten“ Parameter (m0, e0) und Felder (Φ0) der Lagrange-Dichte mittels Renormierungskonstanten Zi multiplikativ renormiert.

Im so genannten On-Shell Schema (On-Shell-Renormierung) werden die Renormierungskonstanten so gewählt, daß die renormierten Parameter der Theorie den messbaren, physikalischen Größen in allen Ordnungen Störungstheorie entsprechen. Die renormierten Massen werden gleich den physikalischen gewählt. Werden alle Größen im On-Shell Schema bestimmt und erfolgt die Ladungsrenormierung in Thomson-Limes (Kopplung des Photons an das Elektron im Grenzfall eines verschwindenden Impulsübertrags), so hängt das endliche Ergebnis nicht mehr von der durch die Regularisierung eingeführten Massenskala ab.

Neben den UV-Divergenzen aus der Region großer Schleifenimpulse qi → ∞ treten in Quantenfeldtheorien sowohl innerhalb der Schleifenintegrale bei endlichen Impulsen, als auch innerhalb der Phasenraumintegrale weitere Divergenzen auf, die ihre Ursache in Polen der Propagatoren haben. Diese treten auf, wenn Impulse der Propagatoren auf ihrer Massenschale liegen und dadurch der Nenner des Propagators Null wird. Daher werden diese Singularitäten im Allgemeinen als Massensingularitäten bezeichnet, da ihr Auftreten mit dem Verschwinden der äußeren und inneren Massen verbunden ist. Das Auftreten von Massensingularitäten rührt nicht ausschließlich von Schleifenintegralen her, sondern auch von Integrationen im Phasenraum der externen Teilchen. Diese führen in bestimmten Phasenraumbereichen zu Divergenzen.

Zur Erinnerung: das "zauberhafte" fine-tuning   ... die an den Haaren herbeigezogene Feinabstimmung

... Während die dimensionale Regularisierung aus Sicht des SM vor allem praktisch ist, kann man sich "dort" auf den Standpunkt stellen, das die Impulsintegrale bei einem bestimmten Maximalimpuls Λ abgeschnitten werden, da bei größeren Impulsen das Standardmodell durch eine andere (vereinheitlichende) Theorie ersetzt werden muss. Eine natürliche Wahl für Λ wäre dann Λ ~ mPlanck. Berechnet man die Strahlungskorrekturen zu den Fermionmassen, dann erhält man daraus einen zum Logarithmus von Λ proportionalen Korrekturterm, der auch bei Λ ~ mPlanck nur wenige Prozent der ”nackten“ Masse ausmacht. Anders bei der Higgsmasse: Hier liefert die Strahlungskorrektur einen zu Λ proportionalen Anteil. Die Higgsmasse mH ~ 125 GeV führt zu der Situation, daß sich die Strahlungskorrekturen und die nackte Masse auf 17 (siebzehn) Nachkommastellen genau aufheben (müssen).

Es gibt eine Vielzahl weiterer - wahrlich unglaublicher - Aspekte zur Renormierung und Regularisierung, deren explizite Erörterung bei Weitem den Rahmen sprengen und unnötig den Fokus verschieben würde.

Schenken wir uns also noch mehr Details (die jeder nach Belieben in zahlreichen Ausführungen online selbst nachlesen kann), schenken wir uns weitere Kritik zur Renormalisierung und Renormierung und betrachten an dieser Stelle nur die theorie-konstruierte Ursache: Die Divergenzproblematiken, sowohl klassischer als auch quantenfeldtheoretischer Betrachtungen, finden ihre theoriebeladene Ursache in den jeweiligen Denkmodellen. Dort wird die innere Struktur der Energieträger schlicht nicht erfasst. Berücksichtigt man jedoch eine endliche, realphysikalisch orientierte, phänomenologische „Natur der Objekte“, lösen sich die "Unendlichkeiten" plausibel auf. 

 

 

Higgs-Boson und Higgs-Mechanismus

Bei der Proton-Proton-Wechselwirkung kann auf Grund der Ladungserhaltung offensichtlich kein neutrales Higgs-Boson alleinig entstehen. Des Weiteren bedarf es (nach Angaben der "Standardmodell-Verkünder") experimentell mindestens 10 Milliarden Kollisionsereignisse um ein Higgs-Boson zu erhalten. Dieses wird aber keineswegs detektiert. Der vermeintliche "Nachweis" geschieht indirekt über die von der "Theorie" postulierten Zerfallskanäle.

Das Standardmodell trifft keine Aussage über die Masse des Higgs-Bosons. Die Argumentation zum „Nachweis“ des Higgs-Bosons ist jedoch relativ simpel. Gibt man die Masse dieses Teilchens (125 GeV/c²) vor, so sagt die Theorie vorher, mit welcher Häufigkeit es in Teilchenkollisionen erzeugt und in welche bekannten Teilchen es zerfallen wird:

Ein 125 GeV/c²-Teilchen zerfällt gemäß SM zu 57% in bottom/antibottom-Quarks, 21% in W±, 9% in zwei Gluonen, 6% in Tau/Anti-Tau, 3% Charm/Anticharm, 3% in 2 Z-Bosonen, 0,2% in zwei Photonen, 0,2% in Z-Boson und Photon, 0,6% in "Anderes".

Aber: Die angeblichen Beobachtungen mit grosser Higgs-Boson-Existenz-Signifikanz beziehen sich nicht auf die häufigsten Zerfallskanäle  - allen voran nicht auf   H→bb̅ mit 57% -.

Somit reduziert sich der Stand der Dinge auf folgende Situation. Es wurden im Verhältnis 1 Ereignis zu 10 Milliarden Nichtereignissen Zerfälle eines "neuen Bosons" im "Energiefenster um 125 GeV" in   

zwei Z-Bosonen (führt zu zwei Paaren von elektrisch geladenen Leptonen)

zwei Photonen

zwei W-Bosonen (führt zu zwei elektrisch geladenen Leptonen und zwei Neutrinos)

Zerfall in zwei Tau-Leptonen beobachtet.

Es gibt eine Vielzahl von "Abhandlungen" zum Higgs-Mechanismus. Jeder kann sich seine Lieblingsbeschreibung (im Internet) aussuchen. Hier sollen nur der formale Werdegang und die Beliebigkeit des "Verfahrens" grob skizziert werden. Eine ausführlichere Betrachtung mit Elementarkörpertheorie basierenden konstruktiven "Elementen" zum Higgs-Mechanismus ist im Kapitel Higgs-Boson-Kreationen und andere Kleinigkeiten zu finden.

Seit mehr als fünf Jahrzehnten werden mit steigendem Aufwand Forschungen in der Teilchenphysik betrieben, ohne daß die wirkliche Natur der Teilchen erkannt wurde. Die herrschende Physik meidet aus Kalkül eine „Teilchendefinition“. So ist es Gang und Gebe, Teilchen allein auf Grund „überzeugender theoretischer Argumente“ zu erfinden und als feste Größen in Theorien „einzubauen“. So wird fehlende, elementare, ursächliche Erkenntnis durch theoretische Kreisschlüsse ausgeblendet. Das SM, als real-objekt-befreiter, masseloser Formalismus, benötigt(e) eine (weitere) mathematische Abstraktion um irgendwie an die Wirklichkeit anzukoppeln. Massen mussten her. Chapeau! Welch eine geniale Folgerung. Und siehe da, knapp 50 Jahre nach Einführung des Higgs-Feldes und "assoziierter Begleiterscheinungen" wird das postulierte Higgs-Boson, in von der Theorie vorbestimmten Zerfallskanälen, aus einer Heerschar von energetischen Möglichkeiten als gewünschtes "Kaskadenereignis", weiterer SM-postulierter Zwischen-Zerfallsprodukte in monatelanger Groß-Computer-Arbeit "errechnet".

 

Randnotizen

Egbert Scheunemann hat im Rahmen der "Higgs-Boson-Detektion" einige Fragen an Physiker gestellt. Die Fragen selbst und die  "Art und Weise" wie Physiker antworten, offenbaren das komplexe Dilemma willküraffiner "Forschung". Des Weiteren wird die Überheblichkeit der "Forscher" deutlich. 

Fragen an die Physiker aus erkenntnistheoretischer und naturphilosophischer Sicht :

http://www.egbert-scheunemann.de/Higgs-Boson-Fragen-Scheunemann.pdf

Antworten von Physikern auf Fragen zum Higgs-Boson :

http://www.egbert-scheunemann.de/Higgs-Boson-Antworten-von-Physikern-Scheunemann.pdf  

 

Ökonomischer Druck in der Physik ein Beitrag von Rüdiger Heescher erschienen Anfang Februar 2016 in Freitag.de. Heescher beschreibt „exemplarisch“ das Dogma und unlösbare Probleme der Standardphysik am Beispiel des Standardmodells der Teilchenphysik.

 

Um die Massenerzeugung im Standardmodell durch den Higgs-Mechanismus zu realisieren, kann man als minimale Variante das Higgs-Feld als Isospin-Dublett ansetzen. Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m² < 0). Merke: Das ursprüngliche Higgs-Feld ist ein Tachyon-Feld, mathematisch definierbar, physikalisch irreal. Das Higgs-Potential und damit die spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus. Um den Tachyon-Term „zu umgehen“, wird das Feld als eine Variation um einen Vakuumszustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms. Im weiteren Verlauf dieser mathematischen Prozedur zeigt sich jedoch, dass ein weiteres masseloses Vektorboson, dass so genannte Goldstone Boson auftritt. Da es aber keinen experimentellen Hinweis für dieses Boson gibt, wird es als "unphysikalisch" erklärt und mathematisch eliminiert („weggeeicht“). 

                        

In der elektroschwachen Theorie werden, wie bei allen quantenfeldtheoretischen Eichtheorien, die Wechselwirkungen durch Eichbosonen vermittelt. In der elektroschwachen Theorie treten zunächst vier masselose Eichbosonen auf, die auftretenden Eichbosonen werden als "Mischungen" definiert. Grundidee ist eine formale Vereinigung von elektromagnetischer und schwacher Wechselwirkung. Wobei W1, W2 und W3 keinerlei "messtechnische Realität" besitzen. Das Z0-Boson ist nicht wie die W-Bosonen maximal paritätsverletzend, da es einen Anteil des W3-Bosons enthält. Man sagt, die Zustände des Photons γ0 und des Z0-Bosons sind um den so genannten Weinbergwinkel gedreht. Das Photon soll sich in der elektroschwachen Theorie wie in der QED verhalten. [Diese Annahme/Forderung ist phänomenologisch haltlos, da das "Photon der QED" nicht dem Mischzustand der elektroschwachen Theorie entspricht.]

Mischungen der elektroschwachen Theorie

 

Auffällig ist die Diskrepanz zwischen gemessenem Weinberg-Winkel [CODATA-Wert 2014] und der formalen Wertbestimmung [Wθc] [Wθ]. Insgesamt variiert der Weinberg-Winkel in Abhängigkeit der experimentellen "Energiefenster".

Hier würde sich in einer konstruktiven erkenntnistheoretischen Auseinandersetzung beispielsweise die Frage stellen, inwieweit das erweiterte Konzept der „Austauschteilchen“, respektive der Eichbosonen überhaupt Gültigkeit besitzt. Denn das zeitstabile reale Photon ist als Entität grundlegend verschieden von den massebehafteten Vektorbosonen und dem Higgs-Boson, sowie von den selbstwechselwirkenden, masselosen Gluonen. Das Photon zum Austauschteilchen bzw. Vektorboson zu erklären, ist, außerhalb der QED bzw. des SM stark diskussionswürdig. Insgesamt stellt sich epistemologisch die Frage nach der Realität der innerhalb des SM theorienotwendigen Vektorbosonen und des theorienotwendigen Higgs-Bosons. Wobei hier zu bemerken ist, daß 99% der Masse des Protons sowie des Neutrons energetisch als Bindungsenergie definiert werden. Der Higgs-Mechanismus ist also selbst im Rahmen des SM voraussageunspezifisch und massegebend extrem ineffizient. Hier gilt auch zu bemerken, daß ausnahmslos alle experimentellen Nachweise indirekte, stark theoriebeladene Nachweise sind, wie noch ausführlich erörtert wird. Auch auf die Vektorbosonen verwandten Problematiken der postulierten asymmetrisch, ladungsfragmentierten Quarks-Gluonen-Existenz, deren postulierte Wechselwirkungen, auf den fehlenden Spin der Quarks und Gluonen, Confinement-These, Neutrinothese, Delta-Baryonen und auf das Hilfs-Theorie-Konzept virtueller Teilchen kommen "wir" noch ausführlicher "zu sprechen“.    

Von den im Standardmodell als fundamental angesehenen Fermionen sind die Massen der geladenen Leptonen – Elektron, Myon, Tau – nur experimentell bekannt, sie treten als freie Teilchen auf. Die neutralen Leptonen (Neutrinos) werden im Standardmodell als exakt masselose Weyl-Fermionen angenommen. Der Widerspruch zu experimentell geforderten Neutrinomassen ist evident.

Halten wir fest: Das Higgs-Feld, der Higgs-Mechanismus oder was es sonst noch so an semantischen Higgs-Möglichkeiten gibt, soll allen "Teilchen" und auch dem Higgs-Boson selbst Masse "geben". Analytisch, rational logisch denkend erwartet man mit der Aussage "Masse geben", daß es formale Zusammenhänge gibt, die es "erlauben" qualitativ und quantitativ theoretische Teilchenmassen in Übereinstimmung mit gemessenen Teilchenmassen berechnen zu können. Das ist aber in keinem Fall, ausgehend von Higgs-Mechanismus, möglich !!! Mit freien Parametern bestückte Gleichungen anzuschreiben und dann zu behaupten, diese Gleichungen würden "Masse geben" ist realphysikalisch nichts weiter als eine "Luftnummer". In Anbetracht der "1% - Situation" wird daraus - interdisziplinär gesehen - eine Lachnummer. Wer lässt sich auf solch einen Quatsch ein? Warum lässt sich jemand auf solchen Quatsch ein? Warum gibt es kaum Kritiker? Haben alle die Hosen voll, weil sie in Furcht vor dem Formalismus und mangels eigener (Grund-)Kenntnisse lieber den Mund halten, statt sich konkret mit den mathematischen Konstrukten zu beschäftigen? Was bleibt denn von den phänomenologisch unbegründeten "axiomatischen" Fantasiekonstrukten ausser Willkür und Beliebigkeit? Wie man so schön umgangssprachlich sagt: "Butter bei die Fische". Standardmodell-Physiker sollten in Anbetracht der Realsituation kleinlaut, besser noch stumm, erst einmal ihre "Hausaufgaben" machen, bevor sie mit leeren Versprechungen umherziehen.

Grundsätzlich werden im SM auftretende mathematische Objekte "gewünscht" massebehaftet oder masselos "geeicht". "Gewünscht" ist keine semantische Spitze sondern inhaltlich das richtige Wort. Denn bei neutraler Betrachtung des SM fällt auf, daß im Rahmen des Formalismus Masse und Masse-Losigkeit je nach Gutdünken der Theoriebauer vergeben werden. Das lässt sich grundsätzlich durch "(Neu-)Eichungen" realisieren. Doch dieses beliebige Handeln besitzt keinen realphysikalischen Nährwert im Sinne eines Erkenntnisgewinns über phänomenologische Zusammenhänge. Ganz im Gegenteil: Es wird eine physikalische Pseudo-Realität geschaffen, die dann als verbindliche Grundlage dient. Wie sinnlos dieses Unterfangen ist, zeigt exemplarisch die theoretische Forderung nach Masselosigkeit der Neutrinos, die aber - gemäß Neutrinooszillationen - (auch von SM-Vertretern anerkannt) endliche Massen besitzen. Die theoretische Forderung läuft ins Leere.  

Die Verselbständigung der mathematischen Abstraktionen führt (auch im Rahmen des Higgs-Mechanismus) nachweislich zu beliebigen Fantasiekonstrukten. Der Formalismus ermöglicht die vermeintliche „Bequemlichkeit“ sich nicht realobjekt-inhaltlich mit der Phänomenologie des Geschehens auseinandersetzen zu müssen um "Ergebnisse" zu erhalten. "Praktisch" braucht es mindestens zehn Milliarden Kollisionen, um ein einziges »Higgs-Teilchen« zu produzieren. Dieses wird aber gar nicht direkt nachgewiesen, da es, wie alle anderen instabilen (postulierten) Teilchen, nur indirekt "nachweisbar" ist. Halten wir fest: Phänomenologisch vollkommen unbegründete mathematische Prozeduren liefern «Freie-Parameter-Gleichungen», die zu keinem Ergebnis führen. Auf 10 Milliarden Fehlversuche kommt ein stark theoriebeladenes Ereignis, daß als "Nachweis" postuliert wird.

Ohne Übertreibung ist offensichtlich die herrschende Theoretische Grundlagenphysik samt zuständigem Nobelpreis-Komitee in einer  - rational logisch erfassbaren - unvergleichlichen Krise. Kein Forschungsgeld der Welt, kein Nobelpreis rechtfertigt diesen konstruierten »Fantasie-Murks«, der durch stark theoriebeladene, methodisch vorselektierte Messungen im Verhältnis 1 zu 10 Milliarden "bestätigt" wird.

Ein grundsätzliches Problem der Zuordnung und Identifikation möglicher Energie-Peaks ergibt sich aus der Eigenschaft beschleunigter Ladungen. Die Vielzahl der "detektierten" Ereignisse ist einerseits auf das gewählte Energiespektrum zurückzuführen und andererseits auf die Tatsache, daß beschleunigte Ladungen stetig Energie abstrahlen, die teilweise wieder von den "benachbarten" geladenen Teilchen aufgenommen wird. Das heißt, zum Zeitpunkt der Kollision gibt es eine statistische Verteilung der Energie der kollidierenden Teichen. Die daraus resultierenden Ereignisse wurden und werden dann offensichtlich nach Lust und Laune der Theoretiker als gewünschte Elementarteilchen "gezählt". Da hin und wieder "überraschende", unerwartete, neue Ereignisse gut zu gebrauchen sind, um weiter "forschen" zu können, was gleichbedeutend mit der Absicherung der eigenen wirtschaftlichen Existenz gekoppelt ist, wird von Zeit zu Zeit der Zerfallskanal für "Neues" geöffnet. Insgesamt stellt sich die Frage, wie aus einer Vielteilchenkollision Informationen über ein einzelnes Ereignis erhalten werden können. Die Frage ist einfach zu beantworten. Es ist unmöglich. Hier wird - berauscht von den eigenen SM- Fantasien - schlicht die Realität ausgeblendet und so getan, als ob ein einzelner Streuprozess aus Millionen von statistisch unbekannt verteilten Streuprozessen beobachtbar wäre.

Randnotiz zur Pathologie: 2013 gab es einen Nobelpreis für den "Higgs-Machanismus". 2015 gab es einen Nobelpreis für den (angeblichen) Nachweis der Neutrino-Oszillationen, sprich Neutrinomassen. Nur der "Higgs-Mechanismus" und übergeordnet das Standardmodell der Teilchenphysik schließt Neutrinomassen aus. Man muß sich sehr ernste Gedanken über den Zustand der Protagonisten und Anhänger dieser dekadenten, dreist-frechen und letztendlich erkenntnistheoretisch nutzlosen Interpretation von Wissenschaft machen. In Anbetracht der dokumentierten "Schizophrenie" wäre es vielleicht keine schlechte Idee, die "Macher" und "Entscheider" neurologisch untersuchen zu lassen.

Neutrino-Propaganda

Der Nobelpreis für Physik des Jahres 2015 für den (angeblichen) Nachweis der Neutrinooszillationen ist eine weitere psychologische Hürde, die man erst einmal nehmen muß, um sich inhaltlich der Kernproblematik nähern zu können, daß es schlicht keine Neutrinooszillationen geben kann, da es keine Neutrinos gibt. Auch hier führte – wie bei allen anderen rein theorieinduzierten Grössen - die über Jahrzehnte kontinuierliche, experimentelle Suche und vermeintliche experimentelle Bestätigung, das Gesuchte gefunden zu haben, zu einem - aus erkenntnistheoretischer Sicht – fatalen, selbstprophetischen Neutrinobefund. Mantraartig wird interessierten Laien, Physikstudenten und allgemein der Forschergemeinde eingehämmert, Neutrinos seien so real, wie das irdische Leben selbst.

Es gibt aber bis heute keinen einzigen direkten experimentellen Neutrinonachweis. Was "ES" seit Jahrzehnten gibt, sind eine Vielzahl von Versuchsaufbauten und theoriebeladene Interpretationen zu indirekten wunschgemäßen Neutrinonachweisen. Warum Neutrinos so beliebt sind, liegt, materiell gesehen, an der assoziierten Neutrino-Industrie. Es lassen sich gefahrlos Forschungsgelder für theoretische Spekulationen und Neutrinoexperimente abgreifen, da die Natur der Neutrinos „in den Sternen steht“. Der postuliert extrem kleine Wechselwirkungsquerschnitt macht Neutrinos „unsichtbar“, ganz zu schweigen von der nicht vorhandenen experimentellen Reproduzierbarkeit. Somit lassen sich alle Bemühungen, ob in Form theoretischer Konstrukte zum unsichtbaren Verhalten oder in Form von „Neutrino-Nachweis-Maschinen“ beliebig ausarbeiten und konfigurieren, ohne argumentative Gegenwehr befürchten zu müssen, also im wahrsten Sinne des Wortes honorieren.

 

 

Niels Bohr äußerte 1931 auf einer Konferenz in Rom die Ansicht, dass zum Verständnis des Betazerfalls nicht neue Teilchen, sondern ein ähnlich schwerwiegender Umsturz der bestehenden Vorstellungen nötig sei wie bei der Quantenmechanik. Er zweifelte den Satz von der Energieerhaltung an, ohne jedoch einen konkreten Gegenvorschlag entwickelt zu haben. Quelle

 

Bei "massetragenden" Neutrinos muss man, wie bei den Quarks, zwischen Eigenzuständen der schwachen Wechselwirkung und Masseneigenzuständen unterscheiden. Wenn ein Neutrino durch die schwache Wechselwirkung erzeugt wird, befindet es sich in einem definierten “flavor”-Eigenzustand, der eine kohärente Superpostion von Masseneigenzuständen ist, d. h. das Neutrino kann während der Propagation spontan in einen anderen “flavor” übergehen. Diese Übergänge werden dann Neutrino-Oszillationen genannt.

Quarks hingegen sind nicht isolierbar, soll heißen, nicht direkt "messbar". Quarksmassen werden aus ihrem Einfluß auf das Hadronenspektrum oder auf Streuquerschnitte "berechnet". Bei der Angabe der Resultate muß sorgfältig unterschieden werden, auf welchen Modellannahmen die Berechnungen beruhen und welches Renormierungsschema verwendet wurde. Die Literatur zum Thema ist entsprechend umfangreich und teilweise schwer zu vergleichen.

"Massetragende" Neutrinos können als Dirac- oder Majorana-Spinoren dargestellt werden. Für masselose Neutrinos sind diese beiden Darstellungen äquivalent. Falls Neutrinos massive Dirac-Teilchen sind, so ist nach wie vor die totale Leptonzahl eine Erhaltungsgröße, während die Leptonfamilienzahl durch die Neutrinomischung verletzt wird. Letzteres gilt ebenso für Majorana-Neutrinos, die aber zusätzlich auch die totale Leptonzahl verletzen würden, da Majorana-Neutrinos ihre eigenen Antiteilchen sind. Diese Leptonzahlverletzung könnte sich in einem neutrinolosen doppelten Betazerfall zeigen. Die Beobachtung eines solchen Zerfalls wäre ein eindeutiger Hinweis auf die Existenz von Majorana-Neutrinos. Darüber hinaus ist die Unterscheidung von Dirac- und Majorana-Neutrinos experimentell äußerst schwierig. Majorana-Neutrinos können kein elektrisches oder magnetisches Dipolmoment besitzen, ebenfalls als Folge der Tatsache, daß Majorana-Neutrinos ihre eigenen Antiteilchen sind.  

[Nur warum sollte man sich mit der Frage nach "massetragenden" Neutrinos und theoretischen Konstrukten a la Dirac- oder Majorana-Spinoren beschäftigen, wenn es eh keine Neutrinos gibt?]   

Randnotiz zur Pathologie: 2013 gab es einen Nobelpreis für den "Higgs-Machanismus". 2015 gab es einen Nobelpreis für den (angeblichen) Nachweis der Neutrino-Oszillationen, sprich Neutrinomassen. Nur der "Higgs-Mechanismus" und übergeordnet das Standardmodell der Teilchenphysik schließt Neutrinomassen aus.

Standardmodell-Aussage: …“Neutrinos sind im Standardmodell der Teilchenphysik masselos. Oszillationen erfordern aber Massen und aus dem experimentellen Nachweis der Oszillationen folgt daher erstmals, dass das Standardmodell unvollständig ist.“…

Da haben wir es wieder. Die theoretischen Grundlagen sind nicht falsch (wo kämen wir denn da hin), nein, das SM ist "unvollständig". Was kümmert uns die theoretische Grundlage der postulierten Masselosigkeit von Gestern. 

 

 

Aus praktischen Gründen werden "Zehnerpotenzen" exemplarisch wie folgt geschrieben: 1,23·10-3 = 1,23e-3. Das hat den Vorteil, daß der interessierte Leser die entsprechenden Zahlenwerte "gleich" in den "Computer" zur "Kontrolle" übernehmen kann (Copy&Paste).

 

 

Zum Mitdenken

Gedankenexperiment: Nehmen wir Neutrino-Massen als gegeben hin und betrachten wir die Masse der Neutrinos. Die aktuelle These, die zur „felsenfesten“ Annahme der Theoretischen Systemphysik führt(e), hält einige Implikationen bereit, die die Behauptung der extrem kleinen Wirkungsquerschnitte diskussionswürdig macht. Um das plastischer zu machen, betrachten wir den Beta-Minus-Zerfall, der ursächlich zu Wolfgang Paulis Neutrinothese aus dem Jahre 1930 führte. Masse bedeutet, daß der Träger der Masse energetisch ein Masse-Äquivalent besitzt, welches sich durch die Comptonwellenlänge manifestiert. Stellen wir uns vor, daß die Massenuntergrenze - wie in einem Artikel der Max-Planck-Gesellschaft behauptet (https://www.mpg.de/443025/forschungsSchwerpunkt1) - des Neutrinos bei 0,05 eV/c2 liegt. Das entspricht einer Masse von ~ 8,9e-38 kg und einer Comptonwellenlänge von 2,5e-5 m (0,025 mm). Der Beta-Minus-Zerfall des Neutrons, der SM basierend als Schwache Wechselwirkung, gemäß Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen W-Bosons stattfinden soll, führt im Extrem zu einer Gesamtenergie (relativistische Ruhe-Energie und kinetische Energie) des postulierten Neutrinos von ~ 0,78 MeV, daß entspricht ~ 1,4e-30 kg. Daraus ergibt sich ein nahezu „lichtschnelles“ Neutrino mit einem relativistischen Faktor von ~ 1,56e7 (Gamma = 1/(Ekin/E0 + 1)) und einer resultierenden De-Broglie-Materiewelle von ~ 1,6e-12 m. Zum Vergleich: Die Comptonwellenlänge des Elektrons beträgt ~ 2,43e-12 m. Die Massenuntergrenze des Neutrinos spielt hier praktisch keine Rolle, weil in allen Fällen die vermeintlich vom Neutrino aus dem Laborsystem maximal „entführte“ Energie durch die gemessene Energiedifferenz vorgegeben wird und diese den Wert der De-Broglie-Materiewelle festlegt, eine weitere Verschiebung der Neutrinomassenuntergrenze macht letztere Aussage „noch absoluter“.

De-Broglie-Materiewellen sind im Gegensatz zu den teilcheninhärenten Comptonwellenlängen offensichtlich nicht teilchenspezifisch. Warum sollte nun ein Neutrino mit der De-Broglie-Materiewelle von ~ 1,6e-12 m nicht nachweisbar wechselwirken? Kleinere kinetische Energien weiterer Neutrinos gemäß Betaspektrum mit weniger als maximaler Energiezufuhr, „erzeugen“ langwelligere Neutrino-Materiewellen, die gleichfalls aus Sicht der Materiewellenbetrachtung wechselwirkungsfähig sind.  

Die Antwort der Vertreter des Standardmodells der Teilchenphysik wäre wohl, das das Neutrino nur der Schwachen Wechselwirkung und der Gravitation unterliegt, diese Antwort ist jedoch keine unabhängig begründende Antwort, da diese Annahme postuliert wird. Neutrinopostulat und die Theorie der Schwachen Wechselwirkung bedingen einander. Das Konzept der Materiewelle und dessen „Meßbarkeit“ sind im Vergleich zum Neutrinopostulat und dem daraus abgeleiteten theoriebeladenen Neutrinowirkungsquerschnitt experimentell gesichert und experimentell reproduzierbar. Was ist also aus Sicht der Impulsbetrachtung (p = m(v)·v) so fundamental anders? Antwort: (Eigentlich) NICHTS!

Das SM unterscheidet zwischen, zumindest theoretisch nachweisbaren Objekten, wie beispielsweise den Neutrinos und den generell nicht nachweisbaren Quarks (Confinement-These). Eine Materiewelle, egal wie sich das Produkt aus Masse und Geschwindigkeit zusammensetzt (welche nicht der Confinement-These unterliegt), sollte experimentell nachweisbar streu- und stoßfähig sein. Weitere Details zu Neutrinos im gleichnamigen Kapitel.

 

 

Wie unbrauchbar Mathematik ohne Anbindung an physikalische Realität sein kann, „illustriert“ ein Beispiel. Es lässt sich mathematisch beweisen, daß durch Zerlegung einer Kugel, aus dieser zwei neue Kugeln entstehen, die jeweils der Ausgangskugel entsprechen.

Es handelt sich um das so genannte Banach-Tarski-Paradoxon, welches besagt, daß man eine Kugel in drei oder mehr Dimensionen zerlegen kann und daraus zwei neue identische Kugeln erhält. Das Volumen verdoppelt sich, ohne dass anschaulich ersichtlich ist, wie Volumen aus dem Nichts entsteht.

Der Unterschied zwischen moderner Mathematik und moderner Physik besteht darin, daß Mathematiker sich innerhalb ihrer Disziplin ihrer Unvollkommenheit bewusst sind, während sie im Bereich der Theoretischen Physik Hand in Hand mit ihren Physikerkollegen mitunter sinnentleert jede noch so absurde These vertreten und durchsetzen.

 

 

Zur Erinnerung: Mit anderen Worten zum "Einprägen" von "SM-Sichten"...

Im Standardmodell existieren drei Generationen von Leptonen und Quarks, sowie vier elektroschwach und acht stark wechselwirkende Eichbosonen und ein skalares Boson, das Higgs-Boson. Die elektromagnetische Wechselwirkung zwischen Leptonen und dem Photon wird mittels der Quantenelektrodynamik (QED) beschrieben. Die Theorie der starken Wechselwirkung ist die Quantenchromodynamik (QCD). Die Teilchen, die die starke Wechselwirkung vermitteln, sind die acht Gluonen, diese koppeln an die Farbladung (rot, grün, blau), die von den Quarks getragen wird. Die schwache Wechselwirkung wird mittels der W- und Z-Bosonen vermittelt. Das Standardmodell ist eine Quantenfeldtheorie (QFT): Teilchen und Felder sind quantisiert und werden einheitlich und relativistisch beschrieben.  

Im Jahre 1964 postulierte Murray Gell-Mann auf Grund von Argumenten zur (mathematischen) Symmetrie der SU(3)-Gruppe eine Struktur der Nukleonen, die aus drei Partonen – diesen Namen hat Richard Feynman geprägt – bestehen. Basierend auf literarischen Vorbildern wurden die Partonen von Gell-Mann als ” Quarks“ bezeichnet, nach James Joyce in” Finnegans Wake“: Three quarks for master Mark.

Nukleonen bestehen aus drei Quarks, die Mesonen aus einem Quark-Antiquark-Paar. Gemäß Pauli-Prinzips wurde den fermionischen Quarks und deren 8 Austauschteilchen (Gluonen) eine weitere Quantenzahl "angeheftet". Diese "zusätzliche Quantisierung" wird Farbladung genannt. Die Quarks befinden sich in Farbladungszuständen. 

Antiquarks haben die gleichen Massen wie Quarks, aber entgegengesetzte elektrischer Ladung und entgegengesetzte Farbladung. So hat ein Anti-u-Quark die Ladung −2/3 e und existiert in den Farbladungszuständen antirot, antiblau und antigrün. Zwischen den Quarks agieren als Feldquanten die Gluonen, die die Masse Null und den Spin eins haben sollen. Auch sie tragen Farbladungen. Gluonen sollen untereinander wechselwirken können.

Die »fundamentale Lagrange-Funktion« der Quantenchromodynamik beschreibt die Wechselwirkung der Quarks. Die dabei auftretenden Felder, die mit den u- und d-Quarks gekoppelt sind, verlangen für diese beiden Quarks Massen-Werte von ca. 5 MeV/c². Diese als Stromquarks bezeichneten Größen sind jedoch nicht diejenigen, die gemeint sind, wenn der Aufbau eines Nukleons aus drei Quarks beschrieben wird. Die drei ein Nukleon bildenden Quarks sind theoriebedingt nicht isolierbar (nicht nachweisbar, Stichwort Confinement). Ihre Massen lassen sich nicht mit den oben genannten Massen der Lagrange-Funktion gleichsetzen. Man muß zur Beschreibung der Nukleonen effektive Massen einsetzen, die den Einschluss der Quarks berücksichtigen. Man nennet diese Valenz- oder Konstituenten-Quarks“. Des Weiteren wird vom SM angenommen, daß die Quarks auch mit virtuellen Quark-Anti-Quark-Paaren (Seequarks) und virtuellen Gluonen wechselwirken.

Das Nukleon ist somit ein komplexes System, das sich aus drei Konstituentenquarks, einer Mesonenwolke aus Quark–Antiquark–Paaren und Gluonen zusammensetzt. Eine konsistente und quantitative Beschreibung des Nukleons im Rahmen der QCD ist nicht möglich, da aufgrund der großen Kopplungskonstante ein störungstheoretischer Potenzreihenansatz nicht konvergiert.

 

Fragmentierte Beliebigkeiten

Die schwache Wechselwirkung koppelt an Leptonen und an Quarks. Bei der schwachen Wechselwirkung unterscheidet man zwischen geladenen und neutralen Strömen. Die geladenen Ströme unterteilt man in leptonische, semileptonische und nichtleptonische Prozesse. Bei leptonischen Prozessen koppelt das W-Boson nur an Leptonen, bei semileptonischen Prozessen sowohl an Leptonen als auch an Quarks und bei nichtleptonischen Prozessen nur an Quarks. Die Leptonzahl ist bei Reaktionen, die über die schwache Wechselwirkung ablaufen, eine Erhaltungsgröße. Nicht nur der β -Zerfall geschieht aufgrund der schwachen Wechselwirkung. Auch viele Leptonen wie das Myon und einige Hadronen zerfallen über die schwache Wechselwirkung. Bei einigen Zerfällen der Hadronen ändert sich die Strangeness. Die Strangeness ist bei der elektromagnetischen und bei der starken Wechselwirkung eine Erhaltungsgröße, nicht aber bei der schwachen Wechselwirkung. So zerfällt z.B. das Kaon über die schwache Wechselwirkung.

…Cabibbo hat das down-Quark ersetzt durch eine Linearkombination aus einem down-Quark und einem strange-Quark

Das liest sich dann wie folgt: In der elektroschwachen Theorie treten zunächst vier masselose Eichbosonen auf. Nach einer spontanen Symmetriebrechung erhält man vier Bosonen, die sich als Mischung der masselosen Bosonen darstellen lassen, diese sind das masselose, ungeladene Photon, das neutrale Z-Boson und geladene W-Bosonen. Diese sind aber nicht elementar, da sie sich als Linearkombinationen darstellen lassen.

Die W±-Bosonen tragen, im Gegensatz zum Z-Boson, eine elektrische Ladung. Die zugehörigen Teilchenprozesse bezeichnet man deswegen auch als „geladene Ströme“. Bei Quarks ist im Zusammenhang mit den zwei W-Bosonen zusätzlich die CKM-Mischung (benannt nach Nicola Cabibbo, Makoto Kobayashi und Toshihide Maskawa) zu beachten. Zum Beispiel kann ein u-Quark durch ein W nicht nur in ein d-Quark umgewandelt werden. Es besteht mit geringerer Wahrscheinlichkeit auch die Möglichkeit ein s-Quark oder b-Quark zu erhalten. Die W-Bosonen können also auch das Flavour ändern.

Bei der Kollision von Protonen kann Alles oder Wenig entstehen. Eine große Anzahl von Teilchen kann erzeugt werden. Kollisionen können auch zu Teilchenschauern, so genannten Jets, führen, ohne Z- und W-Teilchen oder Top-Quarks zu enthalten. Ereignisse mit W-Bosonen, Top-Quarks oder Jets, die wie ein Signalereignis aussehen, werden als "Untergrundereignis" bezeichnet. Das W--Boson entsteht aus der Kollision zwischen einen Gluon und einem Down-Quark und zerfällt in ein Elektron und ein Antineutrino. Dies ist nur einer von vielen möglichen Wegen, wie ein W--Boson gebildet wird und wieder zerfällt. Zum Beispiel könnten...oder... außerdem ein W-Boson oder ein Top-Quark-Paar aus der Kollision resultieren. Auch diese Teilchen zerfallen "augenblicklich" nach ihrer Entstehung.

Der Leser, allgemeiner der Interessierte, muss keineswegs wissen was eine Symmetriebrechung, ein Eichboson, eine CKM-Mischung, Flavour, Hyperladung oder Quarkonia ist. Denn offensichtlich werden im Standardmodell der Teilchenphysik diverse theoretische Konzepte, respektive deren Theorieparameter verknüpft, verschachtelt und vermischt, so dass jedwede (experimentell resultierende) Konstellation theoretisch erfasst werden kann. Da aber keines dieser Theoriekonzepte eine konsistent begründete physikalische Realität abbildet, ergibt sich auch bei geschickter „Wahl der Mittel“ kein Erkenntnisgewinn. Es sei denn, man bewertet ein Konstrukt aus frei wählbaren mathematischen Beliebigkeiten als geistreiche Errungenschaft. In dem Zusammenhang sind alle angeblichen experimentellen Beweise indirekt. Keiner der experimentellen Befunde besitzt eine eindeutige Zuordnung. Die Detektoren registrieren in letzter Konsequenz schlicht Strahlungsenergie oder beispielsweise Elektronen, Positronen, Protonen. Alle dazwischenliegenden Kaskadenereignisse sind bei genauer Betrachtung nahezu beliebig wählbar.

Das Ausleihen von Energie aus dem Nichts (Vakuum) klappt mit den Bosonen nicht so ganz, wie man es exemplarisch am Beispiel des Neutronenzerfalls nachprüfen kann. Nimmt man die vom SM „theoriebeladen gemessenen“ Werte für die „Ruhe-Energie“ des W- und die mittlere Lebensdauer des W-, so ergibt sich keineswegs die Energie-Zeit-Unschärfe, so wie es die QM nahe legt.  

Insgesamt ist die Annahme, daß sich bei einem physikalischen Prozess, die Prozessteilnehmer virtuell Energie aus dem Nichts besorgen, um damit eine beobachtbare real-physikalische Umwandlung auslösen, ein etabliertes Märchen. Zur Erinnerung: Märchen sind meist irreal und brauchen nicht logisch sein. Physik sollte stets logisch und real sein. Eine Energie-Erhaltungssatz-Verletzung ist auch dann eine Energie-Erhaltungssatz-Verletzung, wenn die assoziierte „Leih-Zeit“ sehr klein ist.   

Mischungswinkel

Es ist fragwürdig warum Mesonen mit unterschiedlichen Massen als gleiche „Teilchenart“ behandelt werden. Siehe z.B. Pionen und η-Mesonen. Mischungswinkel täuschen darüber hinweg, dass es keine Phänomenologie zwischen den betreffenden Teilchen(konstruktionen) gibt. Siehe exemplarisch das η-Meson (Eta-Meson).

Die geladenen Pionen zerfallen durch schwache Kernkraft und werden dabei in Leptonen umgewandelt. Der häufigste Zerfall des positiven Pions besteht darin, dass Up-Quark und Anti-Down-Quark in ein positives Anti-Myon und ein Myon-Neutrino zerfallen. Überträger dieser Umwandlung ist das positive W-Boson. Negative Pionen zerfallen durch das negative W-Boson zu einem Myon und einem Anti-Myonen-Neutrino. Die ungeladenen Pionen zerfallen durch die elektromagnetische Kraft etwa eine Milliarde mal schneller. Solch ein neutrales Pion zerfällt fast immer in zwei Photonen. Es gibt auch schwerere Mesonen, die ebenfalls aus Up- und Down-Quarks aufgebaut sind. Diese zerfallen aber viel schneller und erzeugen dabei wieder Pionen. Ein Beispiel für Mesonen, die auch andere Quark enthalten sind die K-Mesonen.

Dieser Alles-kann-Nichts-muß-pseudowissenschaftliche-Murks ist für einen freien Denker mit Hang zu erkenntnistheoretischer Klarheit nichts weiter als eine tragikomische Nullnummer der Erkenntnis.  

Erst einmal soweit zu den Alleinstellungsmerkmalen des »Asymmetrischen Märchens«.

Schon die Anzahl der freien Parameter (derzeit 25!) des Standardmodells lässt den Schluss zu, daß es sich nicht um ein fundamentales Modell handelt. Die stetige Aufspaltung, Nachkorrektur und Ergänzung der „Theorie-Entitäten von gestern“ und die inkonsistente Behandlung von messbarer elektrischer Ladung, Masse und Radius führt zu einem Theoriesammelsurium. Verschiedene mathematische Grundannahmen und vermeintliche Lösungen, wie die Chirale Störungstheorie funktionieren nur für ausgesuchte Energiebereiche.

Ratlosigkeit und Phänomenologieferne werden durch virtuelle Teilchen und postulierten Schnittstellen zwischen theoretischer Fiktion und Realphysik „ersetzt“. Da dies nicht gelingen kann, bedarf es mit fortschreitender Komplexität vieler freier Parameter, variabler Kopplungskonstanten und „wilder Substrukturierung“. Aus einem Austauschteilchen (Photon) werden schnell mal acht (Gluonen), die dann zusätzlich mit weiteren Quantenzahlen ausgestattet werden müssen.

Um die vielfältigen Zusammenhänge durchschauen und verstehen zu können, bedarf es u.a. beträchtlicher historischer Kenntnisse. Diese gehören leider seit mehreren Jahrzehnten nicht zur Schul- und Universitätsausbildung von Physikern und Mathematikern. Zentrale Fragen einfacher Anschauung werden also weder in einem historischen Kontext erörtert noch im Rahmen der herrschenden mathematischen Modelle adressiert. Es hat sich in der Theoretischen Grundlagen-Physik seit mehr als 100 Jahren eine Denkmodell-Monokultur entwickelt, die den realobjektbefreiten, angewandten mathematischen Formalismus der Quantenfeldtheorien selbst zum physikalischen Phänomen erklärt. In dieser Welt der realobjektbefreiten Wahrscheinlichkeiten und Lagrangedichten führ(t)en auch Schreibfehler zu neuen Lösungen. Übergeordnet scheint die Basisinformation verloren gegangen zu sein, daß selbst ein realobjektfreundliches, plausibles Denkmodell nicht einer objektiven Realität entspricht, sondern stets ein subjektives Abbild "verkörpert".

 

Large Hadron Collider [LHC]

Um ein "Gefühl" und einen technischen Eindruck von der experimentellen Seite des »Hoch-Energie-Physik-Problems« stark beschleunigter Teilchen zu kommen, eignet sich exemplarisch die Online-Präsentation : LargeHadronCollider.  Relativ ausführlich und informativ werden einzelne Aspekte der "Teilchenbeschleunigermaschine" erörtert.

Als LHC-Highlight wurde u.a. die erste 8 [TeV] Kollision im April 2012 von den "Betreibern" gewertet. Zukünftig soll der LHC noch größere Energien liefern können. Aktuell sollen Proton-Proton-Kollisionen mit 13 [TeV] möglich sein.

...Da war doch was...

Die Datenmenge bestehend aus aufgezeichneten Detektorsignalen und Computersimulationen wird auf 15 Millionen Gigabyte pro Jahr geschätzt. Die Datenmenge wäre extrem größer, wenn nicht auf Hard- und Softwareebene ein Großteil der Messsignale bereits vor der Verarbeitung dauerhaft verworfen würde. 

Die Teilchendichten und Kollisionsraten führen zu einer Datenmenge von 1 bis 2 MB pro Ereignis. Insgesamt resultiert aus den Kollisionen ein Informationsstrom in der Größenordnung von 100 TB pro Sekunde. Durch ein Selektionssystem - Trigger genannt - werden von 40 Millionen Strahlkreuzungen pro Sekunde lediglich 200 Ereignisse pro Sekunde aufgezeichnet. Das bedeutet schlicht und ergreifend, daß nahezu das gesamte Ereignisspektrum bewusst ausgeblendet wird. Die Bemerkung Albert Einsteins zu Werner Heisenberg: "Die Theorie bestimmt, was beobachtbar ist", "entfaltet" sich somit im Standard-Betrieb eines Teilchenbeschleunigers auf extreme Art und Weise. Diese systematisch "vorselektierten" Messungen seit Jahrzehnten als Grundlage für die Überprüfung von theoretischen Ansätzen „einzusetzen“, spiegelt die erkenntnistheoretische Bedeutungslosigkeit des Standardmodells der Teilchenphysik (SM) wider, insbesondere wenn man sich verdeutlicht, daß nur indirekt Teilchen gemessen werden.

Ein Weg der »Denkmodell-Erweiterung« ergibt sich aus dem Wunsch die Theorie im Sinne einer gruppentheoretischen Betrachtung „symmetrieschöner“ zu machen. Es "entstehen" theorieinduziert, neue Teilchen, die als projiziertes  „Ereignis“ im Beschleuniger gefunden werden müssen. Nichts leichter als das, da die Wahrscheinlichkeit dass einige der postulierten „Kollisions-Strahlungs-Trümmerstücke“ eine entsprechende Energie besitzen, sich zwingend aus der statistischen Verteilung beschleunigter Ladungen ergibt, sofern im richtigen Energiebereich gesucht und selektiert wird. Die so „gebildete“ Behauptung der Elementarteilchenphysiker, die experimentellen „Befunde“ der hochenergetischen Teilchenkollisionen würden hervorragend mit der Theorie des Standardmodells zusammenpassen, ist nichts weiter als ein banaler Zirkelschluss. Gemäß Teilchenbeschleuniger-Selektionsprogramme könnte jeder «Alles» oder «Nichts» im postulierten (nicht meßbaren) Kaskadenteilchenstrom finden. Gewünschte Theorien bestätigen und unerwünschte Theorien widerlegen, sofern „sie“ der herrschenden Teilchenphysiker-Lobby angehören.

Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, daß dem oft nicht so ist, insbesondere wenn es sich um (vermeintlich) wissenschaftliche Themen handelt. Alle verbreiteten Standardmodelle, insbesondere wenn diese über größere Zeiträume herrschen, beinhalten Machtpositionen und Versorgungsstrukturen. Die Machthalter und Nutznießer werden alles tun um diese Zustände aufrecht zu erhalten. Das gilt nicht nur für organisierte Weltreligionen oder politische Systeme. Pluralismus, Selbstkritik und Erkenntniswunsch sind keine Charakteristika erfolgreicher Standardmodelle. Es macht im Ergebnis keinen Unterschied ob es in diesen Systemen Wissenschaftler gibt, die wirklich voller Inbrunst an diese, an Beliebigkeiten und Widersprüchen schwer zu überbietende, "Theorien" glauben oder ob es letztendlich banale wirtschaftliche Interessen der Protagonisten gepaart mit akademischer Macht sind...

Die Kompliziertheit quantenfeldtheoretischer Formalismen erzeugt bei vielen "Kollegen" Ängste sich im Zuge einer SM-Kritik zu blamieren. Aufklärung ist hier wichtig. Es gibt schwerwiegende Inkonsistenzen, die sich auch perspektivisch nicht beseitigen lassen, da sich das Konstrukt des SM gemäß eigener Postulate und Wechselwirkungs-Thesen letztendlich mit den eigenen Widersprüchlichkeiten zersetzt. Weder der nächste Grad der Substrukturierung noch Confinement retten, was nicht zu retten ist.  

Rechenvorschriften, insbesondere wenn diese von komplexer Gestalt sind, ersetzen keine fehlende Phänomenologie. Die innerhalb der Quantenmechanik (QM) und daraus folgend innerhalb der Quantenfeldtheorien (QFTs) verwendete, teils neu definierte Mathematik (Stichworte: Störungstheorie, Regularisierung, Renormierung), ist phänomenologisch unbegründet. Sie ist zwar formal(-axiomatisch) deutlich komplexer und schwieriger verständlich als die bloße Erkenntnis, daß beispielsweise Energie-Niveaus in Abhängigkeit der Hauptquantenzahl n mit 1/((n²-(n+1)²) "quantisiert" sind, kommt aber über den Status einer Rechenvorschrift nicht hinaus. Zudem gibt es im Rahmen der Störungstheorie keine formal-analytischen Lösungen. Wenn also Quantenelektrodynamik (QED) basierend von einer hervorragenden Übereinstimmung von Theorie und Experiment berichtet wird, dann handelt es sich um gigantische Lösungssysteme, dessen iterative Ergebnisse den Versuchs-Ergebnissen angepasst wurden. Die einen sagen es nicht, die anderen durchschauen es nicht. Virtuelle Theorie-Objekte sind Ergebnis orientierte Platzhalter für fehlendes Wissen und erkenntnistheoretisch wertlos.  

Eine Anregung: Die Suggestion einer realmessbaren Situation für Theorieobjekte der Standardmodelle scheint mantramäßig auf „die Masse(n)“ zu wirken. Um hier eine selbständige Analyse vornehmen zu können, sollten Aussagen selbständig überprüft werden: Ob Neutrino, Higgs-Boson oder denken sie sich ein beliebiges Teilchen aus dem Beschleuniger aus, keines ist zeitstabil, keines wurde je direkt gemessen. Umso tiefer sie in die konkrete Konzeption und die technische Realisation des Messvorganges „eindringen“ werden, umso deutlicher wird verständlich, wie theoriebeladen, beliebig und aussagelos die Experimente sind. Glauben sie nicht einfach an die Existenz, prüfen sie selbst die messtechnischen Randbedingungen sowie theoretischen „Implikationen“ die die angeblichen Existenzbeweise liefern.

KnockOut-Beispiele: Keine noch so angepasste, ergebnisorientierte, iterative Berechnung postulierter Quarks basierender Strukturen, mit einer oder mehreren Gluonensorten, relativistischen Interaktionen oder was ihnen auch immer einfällt, wird aus allgemein anerkannt logischen Gründen erklären können, warum ein solch asymmetrisch-verschachteltes Gebilde im resultierend unvermeidbar nur statistischen Mittel“ das Gleiche liefert, wie das vom SM postuliert strukturlose „leptonische“ Elektron. Der ganze Fantasie-Quatsch des Standardmodells der Teilchenphysik zerbricht schlicht an der Tatsache, daß Elektron und Proton betragsmäßig eine gleiche elektrische Ladung besitzen. Für diese simple Denkmodell-Qualitäts-Analyse muß sich Niemand mit Lagrangedichte, taylorreihenaffinen Entwicklungskoeffizienten, assoziierten millionenfachen Rechenschritten und Theorien rumschlagen, in denen selbst Schreibfehler neue Lösungen generieren.

Der nicht vorhandene Spin der Quarks und Gluonen

Die erste Annahme war, daß im Bild des SM der postulierte Protonenspin sich zu 100% aus den Spinanteilen der Quarks zusammensetzt. Dies wurde viele Jahre nach der ersten Annahme 1988 bei den EMC-Experimenten nicht bestätigt. Entgegen aller Annahmen wurden damals sehr viel kleinere, sogar mit Null verträgliche Anteile gemessen ( ∆∑ = 0.12 ± 0.17 European Muon Collaboration). Diese Entdeckung war so unerwartet, daß eine Zeit lang von einer Spin-Krise gesprochen wurde. Aber auch die zweite Annahme, daß die ins Leben gerufenen Gluonen zum Protonenspin beitragen, ergaben nicht das gewünschte Ergebnis. In der dritten, derzeit aktuellen Theorie-Fassung sollen nun die Quarks, Gluonen und deren dynamisch-relativistische Bahndrehimpulse im Ergebnis fein säuberlich den Protonenspin ausmachen :

Wie ein postuliert masseloses, nichtreales Theorieobjekt, sprich Gluon, einen "suggestiven" Bahndrehimpuls generiert, soll ruhig Geheimnis des SM bleiben (psst). Bei genauer Betrachtung besitzt diese 2.Nachkorrektur den Vorteil, daß das Ergebnis im Rahmen der Gitter-Eichfeld-Theorie und hübschen neuen Konstrukten, namens "Pionenwolken", rein algorithmisch in Großrechner-Anlagen "errechnet" wird. Es wird also solange "kombiniert", bis das gewünschte Ergebnis vorliegt.

Diese Leute sind so überzeugt von ihren Taten, daß sie das Wesentliche offensichtlich aus den Augen verloren haben. Wieso sollte die Natur eine komplexe Mehrobjekt asymmetrisch, ladungsfragmentierte, dynamische Substruktur schaffen, die nur im statistischen Mittel das Gleiche liefert, wie das postuliert punktverarmte, "leptonische" Elektron, daß ohne "Mühe" und Struktur, sowohl einen "diskreten" halbzahligen Spin als auch eine betragsmäßig gleiche Ladung liefert?

Auch die stark unterschiedlichen Quark-Massen (die letztendlich in der Summe nur ein Prozent der Protonenmasse ausmachen !?!) sowie die -1/3- bzw. +2/3-Zerstückelung der Elementarladung bestätigen die brachiale Methodik die zur Anwendung kommt, um die vorhandene Theorie um jeden Preis zu erhalten, oder wie es Georg Wilhelm Friedrich Hegel formulierte, „um so schlimmer für die Tatsachen, wenn sie nicht meiner Philosophie (Theorie) entsprechen". 

Rhetorische Frage? Wie kann der Higgs-Mechanismus, respektive das Higgs-Boson Masse erklären, wenn die "Higgs-Feld-basierenden" Quarks nur ein Prozent der Protonenmasse ausmachen? "Grössenähnliches" gilt für das SM postuliert Quarks basierende Neutron. Auch hier besteht die Masse fast gänzlich aus Bindungsenergie. Die Frage müsste eigentlich lauten, warum lassen sich Wissenschaftler mit solch plumpen Beliebigkeitsaussagen abspeisen? Oder: Was ist aus wissenschaftlichen Standards geworden?

Der quantenmechanische Spin steht in Zusammenhang mit der elektrischen Ladung. Warum sollten Elektronen und Positronen mit "ganzer" Elementarladung die gleiche Spinquantenzahl besitzen, wie ladungsfragmentierte Quarks?

Zur Erinnerung: Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die postuliert quarks-basierenden physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Postuliert „Strukturlose“, wie das Elektron, sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "weitere 5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen". Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden.

Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. Religiosität und Psychologie kommen mit dem Theoretiker als Mensch mit ins "Spiel".

 

Randnotizen

Vereinheitlichung der Wechselwirkungen    Es gibt Bestrebungen, die Theorien der elektroschwachen und starken Wechselwirkung in einer gemeinsamen Eichtheorie zu vereinheitlichen. Das Standardmodell kann dies nicht leisten, da die drei laufenden Kopplungen auf keiner Renormierungsskala denselben Wert annehmen.

Feinabstimmungsproblem   Die Masse des Higgs-Bosons erhält Schleifenkorrekturen, die quadratisch in der hohen Energieskala von Physik jenseits des Standardmodells sind. Um den experimentell beobachteten Wert an der elektroschwachen Skala zu erklären, ist bei der Renormierung daher eine starke Feinabstimmung notwendig, die sehr künstlich erscheint.

"Weiterführendes"

Eine Bestandsaufnahme zur „Herkunft“ der Masse aus Sicht des SM

http://arxiv.org/pdf/1206.7114v2.pdf  Origins of Mass by Frank Wilczek 2012

Wer mehr erfahren möchte über innere Theorie-Probleme des SM bekommt hier einen Einblick:

Review of some outstanding puzzles and experimental anomalies in hadron physics

Published in Ann. Rev. Nucl. Part. Sci. 2012, 62 (2012)

http://www.slac.stanford.edu/cgi-wrap/getdoc/slac-pub-15274.pdf

 

[Anomale] Magnetische Momente

Wenn man von dem experimentellen Wert des magnetischen Momentes des Protons den "theoretischen" Erwartungswert (Gleichung [μintm]) subtrahiert und diese Differenz mit dem experimentellen Wert des magnetischen Moments des Elektrons minus den theoretischen Wert des magnetischen Moments des Elektrons vergleicht, stellt man fest, daß diese "größenordnungs-ähnlich" (1/1.18) sind.

 

μBp   =      1,4106067873e-26 J/T    -    5,0507836982111e-27  J/T          =    9,0552841747889e-27  J/T  

           μBe    =  9,284764620e-24 J/T    -  9,27400999205404e-24J/T   =   1,075462794596e-26  J/T  

1,18766321833414  = μBe / μBp

 

Mit anderen Worten: Verkörpert man das magnetische Feld in einer "energetischen Analogie" so resultieren das messtechnisch erfasste magnetische Moment des Protons und des Elektrons aus der jeweiligen energetischen Überlagerung mit dem Magnetfeld. Das Magnetfeld selbst als „Energiegeber“ ist in Wechselwirkung mit Elektron und Proton und liefert einen "teilchenspezifischen" Beitrag in der Größenordnung von 1e-26 Joule/Tesla zum gemessenen magnetischen Moment. Diese Annahme wird bestens formal bestätigt, wie explizit gezeigt wird.

Gibt es, neben dem offensichtlich plausiblen Argument, das man nicht einfach den Energiebeitrag des Magnetfeldes ignorieren kann (so wie in der QM, QED und QCD üblich), noch weitere Anhaltspunkte für einen additiven Beitrag zum magnetischen Moment der Testkörper ? Ja, den gibt es. Es ist das magnetische Moment des elektrisch ungeladenen Neutrons, welches im Rahmen der semiklassischen Betrachtung nicht existiert und im Rahmen der postulierten Neutron-Quarks-(Sub-)Struktur auf diese zurückzuführen ist. Nur ist das magnetische Moment des Neutrons wirklich ein Beweis für eine Substruktur? Oder ist es viel mehr nur eine theoriebeladene Messwert-Interpretation des Standardmodells?

Ein Blick auf die "nackten" Zahlen bestätigt die These, daß das magnetische Moment des elektrisch neutralen Neutrons ausschließlich aus dem Magnetfeldbeitrag resultiert, den das Neutron im (angelegten) Magnetfeld induziert. Denn obwohl die Massenwerte von Elektron zu Neutron/Proton stark unterschiedlich sind ( Faktor ~ 1840 ), sowie die Gesamtwerte ( 658,2107  ~  μBe(exp) / μBp(exp) und 960,9205 ~  μBe(exp) / μBn(exp) ), so sind die additiven Magnetfeld-Beitrags-Unterschiede nur im Bereich von 1.07 - 1.19 !

Mit anderen Worten: Die  elementarkörperbasierende denkmodell-analytische „Bestandsaufnahme“ ist in sehr guter Übereinstimmung mit dem gemessenen magnetischen Moment des Neutrons. Ergebnis: Das neutrale Neutron besitzt kein eigenes magnetisches Moment, so wie es im Rahmen semiklassischer und elementarkörper-basierender Grundlage für ungeladene Objekte gilt:

 

                  ∆μBn    =                        μBn(exp)               -    μBn(th)

                                               9,6623650e-27 J/Tesla    -   0   J/Tesla

μBn(exp)  =  ∆μB =   9,6623650e-27 J/Tesla    -   0   J/Tesla       =     9,6623650e-27 J/Tesla        

                                                                                    [CODATA 2014]

 

Konsistente Annahme: Der gemessene Wert μBn(exp)  =  ∆μB  ~ 9,66237e-27 J/Tesla ist „nichts weiter“ als der messungsinhärente Beitrag des Magnetfeldes,  den das Neutron, welches gemäß Elementarkörper basierender materiebildender Ladungswechselwirkung aus Elektron und Proton entstanden ist, im Magnetfeld „ induziert“.

"Beweis"-Führung: Wenn die Annahme zutrifft, dann muß sich das magnetische Moment des Neutrons (μBn(exp)  =  ∆μBn) aus den messungsinhärenten Magnetfeldbeiträgen von Elektron und Proton (μBe und μBp) berechnen lassen. Eine "einfache" Möglichkeit die drei Größen ∆μBn, ∆μBe und μBp ohne explizite Kenntnis der Magnetfeldverkörperung zu verbinden ist : (∆μBn)² mit ∆μBe · μBp gleichzusetzen. Hier gilt zu berücksichtigen, daß das Neutron aus der q0-Elektron und e-Proton Ladungswechselwirkung zusammengesetzt ist. (Details siehe die Kapitel Ladungsabhängige Materiebildung und Neutron) Das lässt sich durch den Faktor 1 + (e/q0) = 1 + (√α/2) ausdrücken. Das resultierende - konsistent phänomenologisch begründete - Ergebnis [μn] sollte Alle aufhorchen lassen.

 

                                                                        

                            ∆μBp         ~          ∆μBn                ~      ∆μBe  [ ! ]

                            9,055284175e-27    ~      9,6623650e-27              ~ 1,075462794596e-26

                                        1                :           1,06704161                 :        1,18766322

: additive  [Joule/Tesla] - Magnet - Beiträge für Proton, Neutron und Elektron stammen aus dem "Feld" selbst.

 

Vorliegende experimentell gestützte Analyse demontiert die Annahme substrukturierter Protonen und Neutronen.

 

An dieser Stelle sei daran erinnert, daß sich die Neutronen(-Ruhe-)masse mn als masse-radius-gekoppelte Größe aus der ladungsabhängigen, materiebildenden Proton-Elektron-Wechselwirkung berechnen lässt. Die phänomenologischen Details die zur der Berechnung führen, sprengen hier - im Hinblick auf die weiteren Betrachtungen zu den magnetischen Momenten der Elementarkörper Elektron und Proton - den Rahmen bzw. verschieben den Fokus auf die Proton-Elektron-Überlagerungsstruktur des Neutrons. (Details zur ladungsabhängigen Materiebildung finden sich im gleichnamigen Kapitel).

 

 

 

Ein kleiner Ausflug in die QED-Welt der leptonischen magnetischen Momente von Elektron, Myon und Tauon

Man unterscheidet massenabhängige und massenunabhängige (universelle) Beiträge zum anomalen magnetischen Moment.

                                                        

 

Universelle Beiträge sind Beiträge von Feynman-Diagrammen höherer Ordnung mit zusätzlichen virtuellen Photonen. Massenabhängige Beiträge treten erst ab 2.Ordnung (2-Schleifen) auf, da erst ab 2.Ordnung geschlossene Fermionenschleifen auftreten können, deren Beitrag von der Masse der virtuellen Fermionen abhängt. Wenn die virtuellen Teilchen in den Fermionenschleifen und das äußere Lepton gleich sind, zählt man diese Beiträge auch zu den universellen Beiträgen. Zu den massenabhängigen Beiträgen der QED zu ae tragen Leptonenschleifen mit virtuellen Myonen und Tauonen bei. Zu aµ tragen Leptonenschleifen mit virtuellen Elektronen und Tauonen bei. Wenn man alle bekannten Wechselwirkungen des Standardmodells berücksichtigt (QED, QCD, Elektroschwache Theorie) liefern alle Teilchen des Standardmodells über interne Schleifen Beiträge zum magnetischen Moment von Leptonen.

Um die gleiche Genauigkeit in der theoretischen Berechnung zu erreichen wie in der experimentellen Bestimmung, muss man derzeit die Terme bis zur 5.Ordnung berechnen. Beiträge höherer Ordnungen wurden bisher noch nicht berechnet. Zur Berechnung wurde der Wert der Feinstrukturkonstante aus Experimenten mit Atominterferometrie α -1 (87Rb) = 137, 035 999 049 (90) verwendet.

In alle störungstheoretischen Berechnungen der anomalen (leptonischen) magnetischen Momente geht die Sommerfeldsche Feinstrukturkonstante α ein. Den genausten Wert erhält man über das anomale magnetische Moment des Elektrons. Um die gleiche Genauigkeit in der theoretischen Berechnung zu erreichen wie in der experimentellen Bestimmung, muss man derzeit die Terme bis zur 5.Ordnung berechnen. Beiträge höherer Ordnungen wurden bisher noch nicht berechnet. Zur Berechnung wurde der Wert der Feinstrukturkonstante aus Experimenten mit Atominterferometrie α -1 ( 87Rb) = 137, 035 999 049 (90) verwendet.

In der 2.Ordnung existieren 11 Feynman-Diagramme mit 2-Schleifen. Die Feynman-Diagramme liefern je nachdem ob das Lepton der Leptonenschleife das gleiche wie das äußere Lepton ist oder nicht, einen universellen oder massenabhängigen Beitrag. Zum universellen Beitrag 3.Ordnung tragen 72 Diagramme bei. Die massenabhängigen Beiträge erhält man indem man in den Feynman-Diagrammen mit Leptonenschleifen das virtuelle Lepton austauscht. So resultieren noch einmal 45 Diagramme für die massenabhängigen Beiträge 3.Ordnung. Ab 3.Ordnung liefern auch Diagramme mit  Light-by-Light-Scattering1 einen Beitrag zu al. Eine interne Leptonenschleife in einem Feynman-Diagramm nennt man Photon-Vakuumpolarisation oder Photon-Selbstenergie.

1Observing light-by-light scattering at the Large Hadron Collider 2016

Es existieren 891 Diagramme 4.Ordnung, 373 mit und 518 ohne Leptonenschleifen. Es wurden bisher nur einige Diagramme analytisch berechnet und der komplette Wert numerisch mittels Monte-Carlo-Integration bestimmt. Zur 5.Ordnung tragen 12672 Feynman-Diagramme zum universellen Beitrag von al bei. 2012 wurde deren Beitrag erstmals numerisch mittels Monte-Carlo-Integration berechnet.  

                     

Es ist auffällig und nicht erklärbar, warum die Beiträge in Abhängigkeit der Ordnung n ± alternieren.

 

Hadronische Beiträge

Ab Feynman-Diagrammen mit 2-Schleifen liefert neben der QED auch die Quantenchromodynamik Beiträge zum anomalen magnetischen Moment al.

Der führende Beitrag (”leading order“ = LO) der hadronischen Vakuumpolarisation zum anomalen magnetischen Moment des Elektrons ae und des Myons aµ beträgt:

Der Beitrag des hadronischenLight-by-Light-Scattering“ zum anomalen magnetischen Moment des Elektrons ae und des Myons aµ beträgt:

Neben der QED und der QCD trägt auch die elektroschwache Wechselwirkung zum anomalen magnetischen Moment der Leptonen bei. Nach der Bestimmung der Higgs-Masse, mH = 125, 9 (0, 4) GeV, am LHC beträgt der gesamte elektroschwache Beitrag zu ae und aµ inklusive höherer Ordnungen:

[Quelle und weitere detaillierte Ausführungen]

 

Magnetische Moment des Myons

Das Myon wird vom Standardmodell als strukturloses Lepton mit einer mittleren Lebensdauer von ~ 2,19698e-6s  betrachtet. Das "anomale" magnetische Moment des Myons wird im Standardmodell wie folgt "berechnet".

Massenabhängige QED-Beiträge: In dieser Klasse sind Schleifenbeiträge mit virtuellen Photonen und anderen Leptonen zusammenfasst. Sie treten erst ab dem Zweischleifenniveau auf. Beim Myon kann man zwischen Schleifeneinsetzungen mit dem leichteren Elektron und dem schwereren Tauon unterscheiden. Erstere führen auf große Logarithmen der Form log(mµ/me), während letztere vergleichsweise geringe Korrekturen aufbringen, die bei der Präzision des Brookhaven-Experiments jedoch relevant sind. Die Ungenauigkeiten dieser Klasse von Beiträgen stammen aus der Ungenauigkeit der Massenverhältnisse mµ/me und mµ/mτ. Insgesamt stellen die QED-Beiträge die größten Korrekturen dar. Zum heutigen Zeitpunkt sind sie auf Dreischleifenniveau analytisch und auf Vierschleifenniveau numerisch bekannt.

Hadronische Vakuumpolarisation: Da Quarks keine freien Teilchen sind, sondern hadronisieren, lassen sich ihre Beiträge nicht durch eine Schleifenentwicklung ermitteln. Im Falle der Vakuumpolarisation kann man sich allerdings behelfen und die relevante Photon-Selbstenergiefunktion aus Messungen von e +e − → γ* → hadrons bestimmen.

Hadronische Photon-Photon-Streuung: Im Gegensatz zur Vakuumpolarisation kann sich die hadronische Photon-Photon-Streuung nicht auf experimentelle Daten berufen. Hier muss man sich daher auf effektive Niedrigenergiebeschreibungen der QCD wie die Chirale Störungstheorie stützen, in denen der Hauptbeitrag zu dieser Klasse von Diagrammen durch den Austausch von π0 und anderen Mesonen beschrieben wird. Ingesamt sind die hadronischen Beiträge für den Großteil der Ungenauigkeit des theoretischen Ergebnisses verantwortlich.

Elektroschwache Beiträge: Aufgrund der hohen Masse der W± -, Z0 - und Higgsbosonen sind diese Beiträge stark unterdrückt, jedoch beim Brookhaven-Experiment wegen dessen hoher Präzision erstmals nicht vernachlässigbar. Generell lässt sich diese Klasse von Diagrammen in bosonische Beiträge und Beiträge mit geschlossenen Fermionschleifen unterteilen. Letztere sind besonders kritisch, da hier Auslöschungen mit den verwandten Quarkschleifenbeiträgen zur Erhaltung der Anomaliefreiheit in der SU(3)C x SU(2)L x U(1)Y Eichtheorie stattfinden. Die Ungenauigkeit der elektroschwachen Beiträge ist hauptsächlich durch die Ungenauigkeit von sin θw und der Higgsmasse begründet.

Die Abweichung zwischen Standardmodell-Vorhersage und dem Ergebnis des Brookhaven-Experimentes entspricht einer Diskrepanz von 3,2 σ. Andere Auswertungen haben eine Diskrepanz von 3,4 σ bis 3,6 σ ergeben.

Theorie und Experiment zur Bestimmung des magnetischen Moments des Myons werden in http://www-com.physik.hu-berlin.de/~fjeger/gm2review.pdf nachvollziehbar beschrieben.

 

Elementarkörper basierend ist das Myon schlicht ein instabiler Elementarkörper. Das Myon wandelt sich gemäß der inhärenten Masse-Radius-Kopplung in ein Elektron, masseabhängige Energie des Myons wandelt sich in radiusabhängige Energie des Elektrons.

Zum Thema Elektronenmasse inhärenter Elektronenradius

Es ist bzw. war eine spannende Frage, warum Teilchenphysiker glauben und messen, daß das Elektron einen Radius kleiner als 10 -19 [m] besitzt und theoretisch als »Punkt ohne Struktur« behandelt werden kann. Nicht die "typischen" energieabhängigen Elektronenradien kleiner als 10-19 [m] in Verbindung mit Teilchenbeschleunigern sind "falsch" gemessen, sondern die von der Elementarteilchenphysik resultierenden Schlußfolgerungen bezüglich ruhender Elektronen. Die Elementarkörpertheorie „beschreibt“ konsistent sowohl das Verhalten bei „konventionellen“ Streu-Energien der Streu-Partner des Elektrons als auch hochenergetisch im Teilchenbeschleuniger. Hier gibt es die größten emotionalen Ausbrüche und eine methodische Plausibilitäts-Verweigerung der Standard(-Modell-)Physiker und deren Anhänger. Eine ausführliche Diskussion des omnipräsenten Elektronenmasse inhärenten Elektronenradius re findet sich unter : Elektronenradius 

Da sich das Myon offensichtlich nicht spontan in ein Elektron umwandeln kann, ist die Angabe eines konkreten magnetischen Moments des Myons eine „Meß-Fiktion“. Insgesamt ist zu bemerken, daß das magnetische Moment des Myons nicht direkt gemessen wird. 

„Interessanterweise“ ist bei der indirekten experimentellen Bestimmung des magnetischen Moments des relativistischen Myons im Ergebnis das magnetische Moment –anders als bei Proton, Elektron und Neutron – von dem additiven Magnetfeldbeitrag befreit. Die relativistische Bewegungsenergie kompensiert (nahezu) den Energiebeitrag des Magnetfeldes zum magnetischen Moment. Dieser Sachverhalt erschließt sich den Standardmodelldenkern nicht, da das Magnetfeld nicht als Energieträger „wahrgenommen“ wird. Konsequent weiter gedacht, stellt sich die Frage nach der effektiven Masse des Myons in den g2-Experimenten (exemplarisch am Brookhaven National Laboratory 1997-2001). Aus Sicht der Elementarkörpertheorie bestätigt somit auch die Messung des magnetischen Moments des Myons die bisherige Sicht der Dinge.

Zum Mitdenken: In Verbindung mit der „ g=2 - erzeugenden“ Dirac-Gleichung gibt es ein fundamentales „Näherungs-Problem“ erster Instanz für das Myon. In der Dirac-Gleichung wird zur Berechnung von g = 2 vorausgesetzt, daß das zu beobachtende „Dirac-Teilchen“ sich langsam bewegt, daß ist im Falle der experimentellen Bestimmung des magnetischen Moments des Myons, welches sich im Speicherring mit einer relativistischen Geschwindigkeit (Ekin ~ 30 · E0 !)  bewegt definitiv nicht der Fall. Aus diesem Grunde kann die Dirac-Gleichung formal logisch für das Myon gar kein Ergebnis für g liefern. Ohne g = 2 existiert aber kein „normales“ magnetisches Moment des Myons und folgerichtig ist das „anomale“ magnetische Moment des Myons ohne („normale“) Referenz gegenstandslos. Will man also mittels Dirac-Gleichung eine Aussage über das (normale) magnetische Moment des Myons machen, dann kommen nur Experimente in Frage, in denen sich das Myon „langsam“ bewegt.

 

 

Am Beispiel der magnetischen Momente wird deutlich, wie fatal sich falsche (Substruktur-)Annahmen auf die Entwicklung der Grundlagen-Physik auswirk(t)en. Im Ergebnis ist das SM am Ende und wir stehen wieder am Anfang. Es galt und gilt die Phänomenologie und Wechselwirkung des „Feldes“ denkmodell-plausibel zu gestalten, bevor eine Formalisierung erfolgt. 

 

Es geht noch deutlich beliebiger, siehe exemplarisch Frank Anthony Wilczek’s Axionen, die er nach einem Waschmittel benannte, und die „Axionen-erzeugende“ Peccei-Quinn-Weinberg-Wilczek-Theorie (http://www.physik.uzh.ch/lectures/astro/10/vorlesung/Schumann_Axions.pdf )

Am Rande bemerkt: 1973 führte Frank Wilczek zusammen mit David Gross die Asymptotische Freiheit ein. Diese besagt, daß die Starke Wechselwirkung zwischen Quarks umso schwächer ist, je näher diese beieinander sind. Falls zwei Quarks extrem nah zusammen sind, ist die Wechselwirkung so schwach, daß sie sich nahe zu wie „freie Teilchen“ verhalten. Die Asymptotische Freiheit wurde auch von David Politzer „entdeckt“. Alle drei bekamen dafür 2004 den Nobelpreis.  

 

Das Tauon (τ-Lepton) ist das schwerste der drei geladenen Leptonen des Standardmodells der Elementarteilchen. Seine Masse beträgt ~ 1777 MeV/c2, die Lebenszeit ~ 2,906 ± 0,010 · 10−13 s.

Für das Tauon gilt: „Die Brechstange muss ran“ oder sinngemäß nach Georg Wilhelm Friedrich Hegel (1770 - 1831):

„Wenn die Tatsachen nicht mit der Theorie übereinstimmen, umso schlimmer für die Tatsachen.“

Schaut man sich die möglichen Zerfälle des Tauons an (http://pdg.lbl.gov/2015/listings/rpp2015-list-tau.pdf), so wird (zumindest jedem nicht-SM-Gläubigen) Denker schnell klar, daß es aus analytischer Sicht keinen Zusammenhang zwischen „leptonischem“ Elektron bzw. Myon und dem Tauon gibt. Die Theorie des SM verbaut offensichtlich den Blick auf eine rational-logische Sicht der „Dinge“. Das Elektron zerfällt gar nicht, das gleichfalls negativ geladene Myon wandelt sich hauptsächlich in ein Elektron um. Definitiv gibt es keine - ausgehend vom Elektron und Myon -  „ergebnis-hadronischen“ Umwandlungen zu Mesonen oder Baryonen. Das Tauon wandelt sich zwar zu ungefähr 17,8% direkt in ein Elektron und Neutrinos, zu ca. 17,4% in ein Myon, aber hauptsächlich in diverse Hadronen, z.B. mit 25% in ein π-, π0 und postuliert ein ντ. Am Beispiel des Tauons lassen sich die Inkonsistenz der Theorie sowie die assoziierte „SM-Katalogisierungs-Euphorie“ sehr gut ablesen. Hier gilt „Vieles und Nichts“ wird auf derzeit (Stand 2015) 89 Seiten präsentiert. Das Myon schafft 15 (http://pdg.lbl.gov/2015/listings/rpp2015-list-muon.pdf) und das Elektron bringt es im direkten Vergleich gerade mal auf mickrige 6 Seiten (http://pdg.lbl.gov/2015/listings/rpp2015-list-electron.pdf). In dem Zusammenhang ist es auch mehr als verwunderlich, daß sich „Theoretiker“ ausführliche Gedanken über den g-Faktor des Tauons machen (siehe exemplarisch: Electron, muon and tau magnetic moments: a theoretical update 2007 ), wobei es gar keine (aussagekräftigen) Messungen zum magnetischen Moment des Tauons gibt.

 

Weiterührendes zu Magnetischen Momenten

Das generelle Problem - aus naturphilosophischer Sicht - der theoretischen Verfeinerung zur Ermittlung (vermeintlich anomaler) magnetischer Momente im Rahmen der Quantenelektrodynamik (QED) und der Quantenchromodynamik (QCD) ergibt sich aus dem phänomenologischen „Umstand“, daß der anomale Teil nicht intrinsisch ist, sondern stets aus dem  messungsinhärenten Magnetfeld selbst stammt, wie explizit bei Elektron, Proton und Neutron gezeigt wird. In einfachen Worten: Es wird von den Standardmodell-Protagonisten zur Anatomie der magnetischen Momente kolossal epizyklisch das Thema verfehlt. Des Weiteren: Die experimentell gestützte (Zahlen-)Analyse und die resultierend phänomenologisch begründete Formalisierung - im Denkmodell radius-masse-gekoppelter Objekte - demontieren die Annahme (asymmetrisch) Quarks-Seaquarks-Gluonen-substrukturierter Protonen und Neutronen.

Bemerkenswert ist die Tatsache, daß bereits die experimentellen Ergebnisse, sofern man diese ohne theoriebeladene Erwartungen in Richtung "leptonischer "Strukturlosigkeit" bzw. quarks-basierender Substruktur betrachtet, eine leicht feststellbare Gemeinsamkeit aufweisen. Das fundamentale Ergebnis lässt sich - wie folgt - kurz beschreiben: Die additiven (vermeintlich anomalen) magnetische Moment-Beiträge zu den semiklassisch zu erwartenden sind sowohl für Proton, Neutron als auch für das Elektron stets ~ 1·10-26 Joule/Tesla. Das magnetische Moment des Neutrons lässt sich aus den inhärenten Magnetfeldbeiträgen zu den magnetischen Momenten von Elektron und Proton in guter Übereinstimmung mit dem Meßwert - phänomenologisch begründet - berechnen. Eine denkbare Phänomenologie der Magnetfeldverkörperung wird im Rahmen der Elementarkörpertheorie vorgestellt und teils formalisiert. 

Detaillierte Ausführungen zur Anatomie magnetischer Momente 

  

 

 

SCHMERZBEFREIT

Wie "schmerzbefreit" SM-Protagonisten sind, wird auch an den angeblich experimentell nachgewiesenen so genannten Delta-Baryonen überdeutlich. Es erübrigt sich die Bemerkung, daß es, wie könnte es auch anders sein, keine direkten Delta-Baryonen-Nachweise gibt. Es existieren gemäß SM vier verschiedene Δ-Baryonen mit Spin3/2 und folgenden Ladungsmöglichkeiten: Δ++, Δ+, Δ0, Δ. Die asymmetrisch gestückelten Quarks-Ladungen bilden in Form der Δ++ also Ladungsträger mit zweifacher Elementarladung.

Weitere SM-Aussage: ..." Δ+ und Δ0 besitzen denselben Quarkinhalt wie die Nukleonen Proton und Neutron und können deshalb als deren Spinanregung aufgefasst werden."...Übersetzt in die reale Welt heißt das soviel wie: Wissenschaft ist das, worauf man sich geeinigt hat... anything goes.

 

Es drängt sich die Frage auf: Was treiben Modellaktivisten "heute", nach mehr als 50 Jahren „modernem SM“?

Von den folgenden, mehr oder weniger ähnlich-artverwandten, „Fantasieberechnungen“ gibt es abertausende Weitere, die sich allesamt im Rahmen rein mathematischer Überlegungen stark theoriebeladen „im Kreise drehen“ ohne an phänomenologisch begründete, realphysikalische Materiebildungen anknüpfen zu können. Wenn diese Berechnungen eines nicht können, dann ist es etwas Relevantes zu Elektron und Proton „auszudrücken“. Selbstprophetisch werden vorselektierte Energiebereiche gerne mit zeitinstabilen „Momenterscheinungen“ bestückt. Siehe exemplarisch:   

Chiraler Phasenübergang und Expansion des Universums in einem phänomenologischen Modell der QCD http://th.physik.uni-frankfurt.de/~giacosa/chiralgroup-Dateien/masterdiplom/daanfinal.pdf

Grundlagen, respektive verknüpfte Arbeiten: Meson vacuum phenomenology in a three-flavor linear sigma model with (axial-)vector mesons http://arxiv.org/pdf/1208.0585.pdf

Quarkonium Phenomenology in Vacuum http://xxx.lanl.gov/pdf/1208.0204v1  

SM-Exempalrisch-„Historisch“: Störungstheoretische Untersuchung eines gitterregularisierten abelschen Higgs-Yukawa-Modells von 1994 http://pauli.uni-muenster.de/tp/fileadmin/Arbeiten/viola.pdf

     

Die an sich schon erkenntnistheoretisch aussichtslose Beliebigkeits-Situation des Standardmodells wird noch sinnfreier, wenn man sich anschaut, wie im Rahmen der Quantenelektrodynamik (QED) die elektrische Ladung "verstanden" wird. Postulat der QED: Das Elektron ist von einer „Wolke“ aus virtuellen Photonen und virtuellen Elektron-Positron-Paaren umgeben. Was man als Elektronenladung gemäß QED mißt, ist die abgeschirmte Ladung. Die Ladung eines nackten Elektrons (d.h. eines Elektrons ohne Vakuumpolarisationswolke) wird QED basierend als unendlich berechnet. Erst die Subtraktion der gleichfalls unendlichen Ladung der abschirmenden Wolke ergibt die gemessene elektrische Elementar-Ladung. Am Rande bemerkt: Im Rahmen der Mathematik der QFT hat (schon) das Vakuum eine unendlich große Ladung (die wieder verschwinden muß und "Theorie sei dank, wieder verschwindet").

 

Hintergründe    Bereits in der klassischen Elektrodynamik von Maxwell begegnet man Divergenzen. Betrachtet man ein Elektron ohne sein eigenes elektromagnetisches Feld, so spricht man von einer rein mechanischen Masse des Elektrons. Nach Lorentz setzt sich entsprechend dieser Überlegung die experimentelle Masse des Elektrons aus der mechanischen Masse plus der trägen Masse des elektromagnetischen Eigenfeldes des Elektrons zusammen. Jedoch die Energie dieses Eigenfeldes (klassische Selbstenergie) des punktförmigen Elektrons, welcher einer rein elektromagnetischen Masse des Elektrons entsprechen würde, divergiert in der Maxwell-Theorie. Die Frage nach der Natur oder Endlichkeit einer rein mechanischen Masse des Elektrons hat in der Maxwell-Theorie keinen Sinn, denn es existiert kein entsprechender mathematischer Ausdruck in der Theorie. Auf Grund der Divergenz auch bei kleinen Raum-Zeitabständen, ist auch der Begriff einer rein elektromagnetischen Masse des Elektrons im Rahmen der Maxwell-Theorie nicht sinnvoll. Es wird, obwohl es sich um eine nichtstörungstheoretische Berechnung handelt, oft argumentiert, daß in dieser Unendlichkeit der klassischen Maxwell-Theorie eine Ursache der UV-Divergenzen zu suchen sei, welche in der Störungstheorie der quantisierten Elektrodynamik auftreten. Allerdings sollte man dabei nicht die Aussagen der Störungstheorie der QED, sondern vielmehr eine nichtstörungstheoretische Berechnung der Selbstenergie des Elektrons in der QED mit dem klassischen Resultat vergleichen. Jedoch gerade dieser Punkt ist nicht genügend erforscht. Es ist unklar, ob die QED in ihrer exakten, d.h. nichtstörungstheoretischen Lösung des Problems der rein elektromagnetischen Masse des Elektrons endlich ist oder divergiert.

Dennoch gibt es einen wesentlichen Zusammenhang zwischen den UV-Divergenzen der klassischen Theorie und den UV-Divergenzen in der Störungstheorie der QED. Sowohl in der klassischen Elektrodynamik als auch in der QED ist die rein elektromagnetische Masse ebenso wie die rein mechanische Masse des Elektrons eine physikalisch nicht messbare Größe. Einzig die experimentelle Masse m des Elektrons hat physikalische Bedeutung. Ebenso verhält es sich mit der nicht beobachtbaren, so genannten nackten Ladung des Elektrons. Die nackte Ladung entspricht einer Ladung, welche das Elektron hätte, wenn das elektromagnetische Feld des Elektrons abgeschaltet würde. Die grundlegende Feststellung der Nichtbeobachtbarkeit dieser unendlichen Größen erlaubt es, eine unendliche Skalentransformation der Masse und der Ladung vorzunehmen und so die QED zu renormieren. Im Ergebnis dieser Prozedur erhält man endliche, physikalisch beobachtbare Größen e und m. Ganz allgemein ist festzustellen, daß die Ultraviolett-Divergenzen der QFT eine Konsequenz des verwendeten Konzepts lokaler Wechselwirkungen punktförmiger Teilchen sind. Es wird aber allgemein angenommen, daß die den Theorien zugrunde liegende Minkowski-Raum-Zeit im Bereich der Planck-Länge ihre Gültigkeit verliert und Einflüsse der Quantengravitation wesentlich werden. Die Divergenzen könnten dann irrelevant werden. In diesem Zusammenhang ist es erwähnenswert, daß eine Berücksichtigung der klassischen Gravitationstheorie von Einstein in der klassischen Maxwell-Theorie bereits eine endliche Selbstenergie des Elektrons ergibt. Das elektrische Eigenfeld krümmt den Minkowski-Raum zu einer »Reissner-Nordström-Raum-Zeit«. Das theoretische Ergebnis ist eine endliche Selbstenergie des klassischen Elektrons. Deshalb ist in diesem Zugang auch die rein mechanische Masse eine endliche Größe. Einen etwas anderen Aspekt der Renormierungsproblematik stellt die unendliche Ladung Q und Energie E (Masse) des Vakuums der QED dar. Ebenso wie im Fall der Selbstenergie und der nackten Ladung des Elektrons sind diese Größen physikalisch nicht beobachtbar. Von der unendlichen Ladung und Energie des Vakuums des Dirac- und des Photonenfeldes wird eine unendliche Ladung und Energie subtrahiert. Das Resultat solch einer Umskalierung (Renormierung) ist, daß das Vakuum die physikalisch sinnvollen Werte E = 0 und Q = 0 erhält. Mathematisch findet diese Art der Renormierung seine Umsetzung in der so genannten Normalordnung. Bindet man den Normalordnungsoperator bereits zu Beginn in die Lagrangedichte der Theorie ein, dann ergeben sich keine unendlichen Werte des Vakuumzustandes.

Am Rande bemerkt:

Die schlechteste skalenübergreifende theoretische Voraussage aller Zeiten  

Die von der Standardtheorie vorhergesagte, in unserem Universum aber nicht vorhandene, "ungeheuere" Vakuumenergiedichte ist ohne Zweifel numerisch die größte bisher bekannte Absage an das Konstrukt Quantenfeldtheorie basierender Berechnungen. Aufgrund von Beobachtungen wird die Energiedichte des Vakuums auf einen Wert der Größenordnung 10−9 J/m3 geschätzt, dieser Wert ist damit etwa um den Faktor 10120 niedriger als in den theoretischen Berechnungen des Standardmodells. 

 

Der mathematische „Weg“ einer konstruierten Divergenz

Fassen wir noch einmal zusammen: Auch ohne mathematische Konkretisierung lässt sich die Vorgehensweise qualitativ verstehen. Es wird ein punktförmiges Elektron als strukturloses (elementares) Teilchen postuliert, welches im Ergebnis eine unendlich große Ladung besitzt. Trick: Durch die postulierte Polarisation des Vakuums (spontane Bildung von virtuellen Elektron-Positron-Paaren und virtuellen Photonen) wird die unendliche Ladung des Elektrons abgeschirmt und es ergibt sich die endliche beobachtbare elektrische Ladung. In diesem Zusammenhang kommt es zu einer Ergebnis orientierten Verselbständigung der Mathematik. Es werden als erstes die konstruierten Singularitäten abgespalten (Regularisierung) und dann renormiert (endlich gemacht). Der theoretische Erfolg ist somit selbstprophetisch, daß Ergebnis war bekannt.

Statt unverstandene, Phänomenologie befreite Grössen bzw. Begriffe wie Ladung und Masse (bestenfalls) auf primäre Begriffe zu reduzieren, werden weitere willküraffine Theorie-Konstrukte postuliert. Ausser einer fragwürdigen, Realphysik befreiten mathematischen "Struktur", die mal richtige und mal (sehr) falsche Voraussagen liefert, bleibt erkenntnistheoretisch "Nichts".

Die Divergenzproblematiken, sowohl klassischer als auch quantenfeldtheoretischer Betrachtungen, finden also ihre theoriebeladene Ursache in den jeweiligen Denkmodellen. Dort wird die innere Struktur der Energieträger (Gravitation, (elektrische) Ladung) schlicht nicht erfasst. Berücksichtigt man jedoch die endliche, realphysikalisch orientierte, phänomenologische Natur der Objekte, lösen sich die "Unendlichkeiten" plausibel auf.  Impulsmasse-Inversion

 

 

Da die QED ein "Vorbild" für die Quantenchromodynamik (QCD) war (ist), drängt sich zur Ausgestaltung der Verwirrung die Frage auf, was im Standardmodell der Teilchenphysik denn nun als punktförmig, respektive strukturlos verstanden wird. Ist ein Elektron umgeben von virtuellen Photonen und virtuellen Elektron-Positronen-Paaren punktförmig und ohne Struktur? Man könnte, nein man muß im guten Glauben an minimalistische Wissenschaftsstandards zu der Erkenntnis kommen, daß SM-Physiker nicht wissen, wie die elektrische Ladung QED basierend "verstanden" wird, denn "alles andere" führt erkenntnistheoretisch geradlinig in eine pathologische Situation. Denn losgelöst von der Tatsache, daß dieses mathematische moderne QFT-Theater insgesamt haltlos ist, ist ein Konstrukt aus Theorieobjekten (virtuelle was auch immer...) und einer realphysikalisch vorhandenen Masse und realphysikalisch meßbaren Ladung weder Punkt noch strukturlos! 

Ohne das hier durchzuexerzieren gilt „Ähnliches“ für den gleichen Spin von Elektron und Proton. Nur soviel an dieser Stelle: Der postulierte, quantenmechanisch Theorie beladene Spin wurde noch nie gemessen, die Theoriegrösse Spin ist keine Meßgrösse. Gemessen wird stets ein magnetisches Moment. Das magnetische Moment lässt sich auf die Grössen elektrische Ladung und Masse zurückführen.

Was sie auch immer mit welchen auch immer postulierten Theorieobjekten treiben  - und wenn sie sich im Gedankenexperiment selbst in Pionenwolken-Konstrukte setzen und die Steuerung übernehmen - daß Einzige was sie im Angesicht der unüberwindbaren Kluft zwischen SM-postulierter Substruktur und SM-postulierter leptonischer Strukturlosigkeit finden werden, ist vorprogrammiertes erkenntnistheoretisches "Versagen", es sei denn, "ihnen" geht ein Licht auf und sie verabschieden sich von parametrischen Glaubensbekenntnissen.

Der "Sprung" von der Quantenelektrodynamik (QED) mit der Sommerfeldschen Feinstrukturkonstanten als „kleine“ Kopplungskonstante (k ~1/137) der Störungstheorie zur Quantenchromodynamik (QCD) mit k~1 erfolgt mittels der „Idee der Asymptotischen Freiheit“. Es wird „bequemerweise“ postuliert, daß die wachsende Energie kleinerer Abstände auch die Kopplungskonstante verkleinert. Auch hier wird Ergebnis orientiert theoretisch postuliert und ein beabsichtigtes „Ereignis“ konstruiert. Im Rahmen von 25 freien Parametern, wenn nötig neuen Quantenzahlen und wählbarem Substrukturierungsgrad kein Problem. Die Frage was experimentell überhaupt gemessen wird, erschließt sich nicht einer Quantenfeldtheorie freien Bewertung.

Das bedeutet (zumindest für den Erkenntnistheoretiker mit Anspruch auf wissenschaftliche Standards): Eine Theorie, die bereits auf formal logischer Ebene in sich widersprüchlich ist, braucht im Grunde nicht empirisch überprüft zu werden, da aus einer falschen Annahme jede beliebige Aussage folgt und damit die Theorie unwiderlegbar bzw. mit jeder Beobachtung vereinbar ist.  

An diesen Beispielen wird klar, daß realphysikalisch orientierte Alternativ-Denkmodelle niemals von Quantenfeldtheoretikern geduldet werden können, da diese das gesamte quantenmechanisch-mathematische Denkgebäude der letzten 100 Jahre zerstören und Gegenwarts- sowie Zukunfts-Perspektive der Quantenfeldtheorien auslöschen. Mit „umgangssprachlichen“ Worten: Die „schlichte“ Realität das weltliche Objekte Masse besitzen und Raum ausfüllen wird im Denkmodell der Modernen Grundlagenphysik mikroskopischer Dimensionen programmatisch verdrängt, damit Egozentrik und Axiomatik der herrschenden Systemphysiker erhalten bleiben. Die Epizykeltheorie lässt grüssen.

Physikalisch wäre es interessant zu wissen, wie denn nun die elementaren Punkt-Objekte der Quantenfeldtheorien zu dem werden, was im realphysikalischen Alltag (erlebbar) existent ist. Hier stellt sich für besonders Neugierige im Sinne massenpsychologischer Konzepte (…siehe u.a. Die Psychologie der Masse, Gustave Le Bon…) grenzüberschreitend die Frage, ob man Quantenfeldtheoretiker neurologisch untersuchen lassen sollte?

Das grundsätzliche Problem steckt omnipräsent in dem "Umstand", daß alle Theorie-Parameter und meßtechnisch erfassbaren Grössen im Rahmen der Quantenfeldtheorien sekundäre Begriffe "verkörpern".

Mathematische Zeichen sind sekundäre Begriffe und stehen nur für sich selbst und bekommen erst durch ihr Vorkommen in Definitionen, Axiomen, Postulaten,... eine Bedeutung. Wenn man ein Wort oft hört oder liest, es aber nicht gelingt, das Wort mit einem primären Begriff zu verknüpfen, übernimmt leicht der sekundäre Begriff die Funktion des primären. Das Wort steht dann für einen Begriff, der nur für sich selbst steht. Man entwickelt ein Gefühl für den Begriff und glaubt ihn schließlich zu verstehen. Masse und elektrische Ladung sind "prominente" unverstandene sekundärere Begriffe. Felder, Photonen, erst recht virtuelle Photonen und virtuelle Elektronen-Positronen-Paare und weitere "sekundär-artverwandte", postulierte Theorieobjekte machen offensichtlich jeden mathematischen Nonsens mit.

Für heutige Theoretiker scheint die Welt der Mathematik identisch mit dem Erkenntnishorizont des Menschen zu sein. Moderner Mathematik wird mit festem Glauben eine konstruktive Komponente zugeschrieben. Die neuen Glaubensbekenntnisse haben offensichtlich eine enorme Strahlkraft, obwohl die ihr zu Grunde liegenden Ideen allesamt irrational sind. Heutige Experimente zur Erweiterung des Standardmodells der Teilchenphysik verraten schon durch die Namensgebung »Supersymmetrie« (SUSY) welch Geistes Kind ihnen inne wohnt.

Ohne das an dieser Stelle weiter auszuführen, zeichnet sich schon „jetzt“ vordergründig ab, daß das den Experimenten am LHC zu Grunde liegende theoretische Modell durch »formalistische Machenschaften« jedwede Abweichung vom theoretischen Erwartungswert zu kompensieren vermag. Sei es durch weitere Quantenzahlen, mittels neuer Theoriegrössen, durch beliebiges Weglassen von - als unphysikalisch bezeichneten (stets mathematisch generierten) - Theoriegrössen, variablen Kopplungskonstanten, einer Vielzahl freier Parameter, wenn nötig bzw. gewünscht neuen Wechselwirkungsmechanismen und postulierten asymmetrischen Substrukturierungen. (Moderne) Wissenschaft ist dann aber nichts weiter, als etwas, worauf man sich geeinigt hat.

 

Anatomie des wissenschaftlichen Selbstbetruges am Beispiel des Zerfalls des Top-Quarks

Der Selbstbetrug besteht in der transparent vorliegenden theoriebeladenen Deutung des Experimentes. Denn letztendlich werden als Versuchs-Ergebnisse der Proton-Antiproton-Kollision ausschließlich kalorimetrische (energetische) und leptonische Ergebnisse „gezählt“. Alle anderen von der Standardphysik genannten (teils postuliert hadronischen) Prozess-Teilchen sind hypothetisch gedachte (Materie)-Konstrukte. Ausser dem Glauben an diese im Rahmen eines mathematischen Denkmodells, gibt es keine direkten messtechnischen Ereignisse. Das Denkmodell als solches ist aus vielerlei Gründen widersprüchlich, inkonsistent und stets quantitativ beliebig. Insbesondere der Übergang von „quarks-basierenden Zuständen“ zu „leptonischen Gebilden“ geschieht mittels der postulierten Schwachen Wechselwirkung. Diese ist zwar im Rahmen des SM eine zwingende zusatztheoretische Annahme, außerhalb des Standardmodells jedoch nichts weiter als ein „Theorieretter“. In dem Zusammenhang kann man gar nicht oft genug erwähnen, daß die postuliert strukturlose, leptonische elektrische Elementarladung konträr zur asymmetrisch fragmentierten quarksbasierenden elektrischen Ladung des Protons aus formal logischen Gründen die Substrukturierungsannahmen des herrschenden Standardmodells der Teilchenphysik nachweislich als grundlegend falsche These „entlarvt“.

1…"Die entstehenden Teilchen bzw., im Fall von Quarks, deren Zerfallsprodukte (als Jets), werden in den beiden Detektoren nachgewiesen… Die Spuren der geladenen Teilchen werden in der Spurkammer aufgezeichnet, Elektronen/Positronen und Photonen im elektromagnetischen Kalorimeter nachgewiesen, die Teile der Jets im Hadron-Kalorimeter und zuletzt die Myonen in den Myonenkammern. Neutrinos bleiben wegen ihrer geringen elektroschwachen Wechselwirkung unbeobachtet; der transversale Gesamtimpuls aller Neutrinos kann nur indirekt üb er den fehlenden transversalen Impuls (Impulserhaltung) festgestellt werden."...

[Es gibt bis heute nicht einen einzigen direkten Neutrinonachweis. Des Weiteren: Reproduzierbarkeit ist ein fundamentales Kriterium für mögliche Falsifizierbarkeit. Diese elementare Notwendigkeit wird vom SM u.a. im Zusammenhang mit Neutrinos mit Füssen getreten. Im Rahmen der Elementarkörpertheorie wird plausibel, phänomenologisch begründet und rechnerisch gezeigt, daß es keine Neutrinos gibt.

Am Rande bemerkt: Neutrinos stehen nicht im Widerspruch zur Elementarkörpertheorie, wenn man unter einem Neutrino einen hochrelativistischen, somit nahe an der Lichtgeschwindigkeit bewegten Elementarkörper versteht, da dessen Masse-Radius-Verhältnis zu einem sehr kleinen Wirkungsquerschnitt führt. Diese „Elementarkörper-Neutrinos“ besitzen aber keine von anderen Elementarkörpern verschiedene Alleinstellungsmerkmale, die sie als „neue Entität“ auszeichnet. Für den Zerfall von massereicheren zu masseärmeren Teilchen, wie beim Myonen-Zerfall - der zum Elektron führt - werden Neutrinos zur Erklärung nicht benötigt. Details siehe das Kapitel Neutrinos]

1Der Impuls in Flugrichtung der Protonen/Antiprotonen kann nicht festgestellt werden, da aufgrund der Quark- und Gluonstruktur der Protonen/Antiprotonen der Impuls der Top-Antitop Reaktion in Flugrichtung nicht bekannt ist."...

[Das bedeutet schlichtweg, daß das Experiment unvollständig ist und im Resultat als wissenschaftlicher Nachweis unbrauchbar ist.]

1Zur Nachweiseffizienz der einzelnen Teilchen: Jets von Gluonen und leichteren Quarks sind mit nahezu 100% Effizienz nachweisbar, Elektronen und Myonen mit ungefähren 90 %. Tauonen zerfallen entweder leptonisch (36% der Fälle) oder hadronisch (64%). Wegen der beiden entstehenden Neutrinos ist der erste Fall kaum nachweisbar, letzterer auch nur mit 50% Effizienz und dabei, u.a. wegen des entstehenden Neutrinos, nur schwer vom Untergrund unterscheidbar; insgesamt lässt man wegen dieser Schwierigkeiten im Allgemeinen Kanäle mit Tau-Leptonen aus der Betrachtung heraus."...

[Hier wird das komplexe Dilemma deutlich. Es gibt weder theoretische Voraussagen für die experimentellen Wahrscheinlichkeiten, im Zweifelsfall wird das „unmessbare“ Neutrino bemüht und wenn das auch nichts hilft, wird „souverän“ auf einen Teil des Versuchsergebnisses verzichtet."...

 1…"Am wichtigsten ist der Nachweise der Bottom-Quarks, da sie sehr charakteristisch für Top-Ereignisse sind. Bottom-Quarks hadronisieren fast sofort in B-Mesonen, die im Mittel ungefähr 0.5 mm vom Haupt-Vertex entfernt in einen Jet zerfallen. Die Bestandteile des Jets sind dann auf den gemeinsamen, im Vergleich zum Haupt-Vertex versetzten Ursprung zurückzuführen. Man nennt dies Bottom-Markierung / B-Markierung oder b-tagging. Alternativ zerfallen Bottom Quarks (20% der Fälle) in unter anderem ein Lepton, das einen niedrigeren Impuls als das Lepton aus dem Zerfall des W- Bosons hat. Zusammen beträgt die Nachweis-Effizienz für Bottom Quarks ungefähr 60%."...

[Vorliegende Angaben sind außerhalb des Standardmodells ohne Relevanz. Jedwede andere Theorie ließe sich mit freien Parametern, variablen Kopplungskonstanten und Substruktierungsthesen den Teilchenbeschleuniger-Ergebnissen anpassen.]   

1Textauszüge Seite 5 und 6/Quelle: http://web.physik.rwth-aachen.de/~klein/seminar/JanSteggemann_ausarbeitung.pdf

2…"die Ungenauigkeiten in der absoluten Energieskala sind relativ groß, weshalb die Jet-Energien ungenau bestimmt werden. Z. B. kann aber auch ein Jet durch das Strahlrohr verloren gehen. Dann gibt es Probleme, die eher mit dem Prozess als solchen zu tun haben: Die Reste des Protons und des Antiprotons bilden einen recht großen Untergrund, und sie können zu Einflüssen auf die Messungen beim Hauptereignis führen. So können zwei Jets als einer gemessen werden (der zweite beispielsweise resultierend aus Untergrundprozessen); aber auch der umgekehrte Fall, dass sich ein Jet in zwei Jets aufspaltet, kann auftreten. Die Effekte zusammen können in außergewöhnlichen Gesamtereignissen resultieren, in jedem Fall müssen sie als Fehlerquellen beachtet werden"…

2Textauszug Seite 8 und 9/Quelle: http://web.physik.rwth-aachen.de/~klein/seminar/JanSteggemann_ausarbeitung.pdf

[Mit anderen Worten: Es ist völlig egal wie das Experiment ausgeht, „unsere“ Theorie passt immer. Glückwunsch.]

 

 

Tatsache ist: Wir verfügen über keine allgemein anerkannte Wahrheitstheorie. Die Übereinstimmung von Aussage und Wirklichkeit kann nicht objektiv festgestellt werden. Dieser Sachverhalt wird insbesondere dann problematisch, wenn – wie im Fall des SM - die Theorie bestimmt, was gemessen werden soll. Zum Mitdenken: Eine Theorie, die bereits auf formal logischer Ebene in sich widersprüchlich ist, braucht im Grunde nicht empirisch überprüft zu werden, da aus einer falschen Annahme jede beliebige Aussage folgt und damit die Theorie unwiderlegbar bzw. mit jeder Beobachtung vereinbar ist.

 

Wir schießen auf ein Scheunentor und malen dann um das Einschlussloch die konzentrischen Ringe der Zielscheibe1. Vorhersage-Volltreffer sind garantiert. Leider fehlt, trotz methodisch genialer Zirkelschluss-Schusstechnik, die Trennung von Theorie und Experiment, sagen zumindest böse (erkenntnistheoriefreundliche) Kritiker. Es fehlt generell der direkte Nachweis, giften sie. Selbst die postulierte Nichtwiderlegbarkeit (Confinement-These) lässt die SM-Ungläubigen kalt. Widerlich diese Kritiker. Vermutete Hintergründe seitens des SM-Lagers: Es ist stets zu dunkel. Überall Dunkles, Dunkle Materie, Dunkle Energie, Dunkle Photonen, das hält auf Dauer keiner aus und macht die SM-Ungläubigen „rattenscharf“ auf erkenntnistheoretisch wertvolle Alternativen. Positronen und Elektronen trauen sich, bedingt durch die anhaltende Umnachtung, einfach nicht, ihr wahres Gesicht zu zeigen. Ihr postuliert teil-virtueller Charakter machte ihnen vom ersten Tag an schwer zu schaffen. Weder gutes Zureden noch Feynman-Diagramme konnten die psychische Not lindern.  Perspektivische Lösung: SUSY statt Superman.

1dieser "schöne" Satz von Egbert Scheunemann findet sich unter Quelle…„Wir schießen erst auf ein Scheunentor – und malen danach um das Einschlussloch die konzentrischen Ringe der Zielscheibe.“…

 

Auf Grund einer ganzen Reihe von (theorieinduzierten) Widersprüchen und Inkonsistenzen, die selbst von SM-Gläubigen anerkannt werden, wünschen die SM-Aktivisten, daß mathematische Erweiterungen „Abhilfe“ schaffen. Die angestrebte theoretische Zukunft der Standardmodellphysiker ist die Supersymmetrie (SUSY) aber:

the discovery of the Higgs boson is a nightmare scenario for everything else, including supersymmetry, extra dimensions, and string theory. Because finding the standard model Higgs at this energy means that there’s no need for any of those things. A Higgs at 125 GeV and nothing else at the LHC, totally consistent with the standard model, mean that if supersymmetry exists, it needs to be at such a high energy that it no longer solves the problem it was designed to solve!...

Quelle: Ethan Siegel  theoretical astrophysicist

 

SUSY

Supersymmetrie (verniedlichend und „cute“ SUSY genannt) bedeutet bei schlichter Betrachtung u.a. die Aufhebung der theorieinduzierten Trennung von Fermionen und Bosonen. Des Weiteren fordert SUSY eine Substrukturierung der postuliert „Strukturlosen“, derzeit als Leptonen bekannt. Standardmodelltheoretiker und deren Anhänger scheinen, berauscht von ihren Fantasien, nicht zu verstehen, daß das „SUSY-Konzept der Vereinigung“ das (noch) bestehende Standardmodell der Teilchenphysik (SM) nicht, wie gewünscht, konstruktiv erweitert sondern demontiert. Die unvermeidliche SUSY-inhärente Anzahl-Aufblähung freier Parameter garantiert Vollbeschäftigung.

Mathematikgläubig liest sich das ungefähr so...

Supersymmetrische Theorien

Unter einer Supersymmetrie versteht man eine verallgemeinerte Raum-Zeit-Symmetrie, die eine Transformation zwischen Bosonen und Fermionen beschreibt. Nach dem Coleman-Mandula-Theorem ist dies die einzige Klasse von Symmetrien der S-Matrix, die neben den Raum-Zeit-Symmetrien und den durch halbeinfache Lie-Gruppen beschriebene Eichsymmetrien noch denkbar ist. Wenn die Natur exakt supersymmetrisch wäre, so müssten die durch eine supersymmetrische Transformation verbundenen Bosonen und Fermionen in der Masse entartet sein. Die beobachteten Bosonen und Fermionen zeigen eine solche Massenentartung jedoch nicht, so daß die Supersymmetrie gebrochen sein muß und allenfalls eine näherungsweise Symmetrie der Natur sein kann. Ein phänomenologisch zulässiges supersymmetrisches Modell der Teilchenphysik ist durch die minimale supersymmetrische Erweiterung des Standardmodells (MSSM) gegeben. Die Brechung der Eichsymmetrie beruht in diesem Modell, wie bei dem Standardmodell, auf dem Higgs-Mechanismus, so daß alle Aussagen zum Massenproblem im Standardmodell prinzipiell zunächst auch für das MSSM gelten. Als zusätzliches Problem taucht im MSSM die Frage auf, wie die Supersymmetrie gebrochen wird. Aufgrund dieser ungelösten Frage kommen zu den 25 freien Parametern des Standardmodells im MSSM weitere 106 freie Parameter hinzu, die überwiegend die Massen und die Mischungswinkel der Superpartner beschreiben. Ohne weitere Annahmen erlaubt die Supersymmetrie keinerlei tiefergehendes Verständnis der Fermionmassen. Unter der Voraussetzung, daß die Supersymmetrie unterhalb einer Skala von etwa 1 TeV gebrochen wird, läßt sich jedoch eine Obergrenze von ca. 130 GeV für das leichteste Higgs-Boson ableiten.

Dunkle Materie

Die Annahme der Existenz von dunkler Materie stellt das Standardmodell vor ein unlösbares Problem. Keines der „Standardmodellteilchen“, auch nicht das Neutrino, ist ein geeigneter Kandidat für dunkle Materie. In der Supersymmetrie hingegen kommt das Neutralino, der Superpartner der neutralen Eich- und Higgsbosonen, in Betracht.

Zwei Higgsdubletts

Das Higgs-Boson muss also auch im MSSM explizit eingeführt werden. Wie die anderen Teilchen erhält es einen Superpartner, das Higgsino. Allerdings führt die Existenz von nur einem Higgsdublett und seinem Higgsino zu einer Eichanomalie im elektroschwachen Sektor. Dies kann durch die Einführung zweier Higgsdubletts und dazugehörigen Higgsinos behoben werden. Ein weiterer Grund für die Existenz von mindestens zwei Higgsdubletts im MSSM sind die Yukawakopplungen, die aus den trilinearen Termen des Superpotentials stammen.

Brechung der Supersymmetrie

Da man keine gleichschweren Superpartnerpaare in der Natur beobachtet, müssen die Superpartner der Standardmodellteilchen wesentlich höhere Massen haben. Eine Brechung der Supersymmetrie ist demnach erforderlich. Aus theoretischer Sicht wäre eine spontane Brechung durch ein asymmetrisches Vakuum wünschenswert, denn so könnte die Lagrangedichte des MSSM weiterhin invariant unter Supersymmetrietransformationen bleiben. Um das Natürlichkeitskriterium der Superpartnermassen zu erfüllen, müsste eine solche Brechung bei der Energieskala der Symmetriebrechung der schwachen Wechselwirkung stattfinden. Dies ist allerdings phänomenologisch ausgeschlossen. Die Supersymmetrie wird daher durch explizite Terme in der Lagrangedichte gebrochen. Um die Natürlichkeit zu gewährleisten, dürfen durch die Brechung keine quadratischen Divergenzen in den Strahlungskorrekturen der Superpartnermassen auftreten. Man spricht von einer sanften Brechung.

Teilcheninhalt und Masseneigenzustände

Die gegenüber dem Standardmodell hinzugekommenen Teilchen verdienen eine genauere Betrachtung, vor allem hinsichtlich ihrer Massen. So liefert die Verdopplung der Higgsdubletts weitere skalare Moden, die zu massiven Higgsbosonen mischen. Ähnliche Mischungen treten bei den Superpartnern der Higgs- und Eichbosonen und denen der Fermionen auf. Von den acht skalaren Feldern sind die drei Bosonen unphysikalisch, denn sie bilden wie im Falle des Standardmodells die longitudinalen Moden der massiven Vektorbosonen. Es verbleiben fünf massive Higgsbosonen im MSSM.

Charginos

Wie die Eichbosonen der SU(2)L und U(1)Y mischen auch die dazugehörigen Gauginos dank der elektroschwache Symmetriebrechung zu Eigenzuständen der elektrischen Ladung. Die geladenen Winos bilden mit den zwei geladenen Higgsinos gemischte Masseneigenzustände.

 

An dieser Stelle sparen wir uns weitere Märchen zu Neutralinos, Sfermionen, usw. und zitieren Theodor Fontane,

»Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.« 

 

 

Alles Super oder Was?

Aus der einfachst möglichen supersymmetrischen Erweiterung des Standardmodells resultiert das minimale supersymmetrische Standardmodell (MSSM). In diesem vergrößert sich das Teilchenspektrum um einen bosonischen bzw. fermionischen Superpartner für jedes bekannte elementare Fermion bzw. Eichboson. Durch diese Superteilchen erfolgt eine Modifikation der theoretischen Vorhersagen, so dass das MSSM einige Probleme des Standardmodells lösen kann. Im Gegensatz zum Standardmodell werden für die Konsistenz des minimalen supersymmetrischen Standardmodells zwei Higgs-Dubletts benötigt, die im Rahmen der elektroschwachen Symmetriebrechung beide einen Vakuumerwartungswert erhalten. Das Verhältnis dieser beiden Werte wird mit tan β bezeichnet und stellt einen wichtigen Parameter des Modells dar. Szenarien mit sehr großem tan β wurden bereits untersucht und sind auf der konzeptionellen Ebene interessant, da sie die im Vergleich zum Tauon und Bottom-Quark sehr hohe Masse des Top-Quarks durch eine Hierarchie der Vakuumerwartungswerte erklären können.

Als Grundlage supersymmetrischer Theorien dient eine Erweiterung der Poincaré- Algebra. Darauf folgt die Einführung des Superraums und der verschiedenen Sorten von Superfeldern, mit deren Hilfe sich die allgemeine supersymmetrische Lagrange-Dichte konstruieren lässt.

Supersymmetrietransformationen auf dem Superraum

Um eine Darstellung der Supersymmetriealgebra in Form von Differentialoperatoren auf einem Funktionenraum zu finden, erweitert man den Minkowski-Raum mit vier Koordinaten um weitere vier Koordinaten, einen links-chiralen und einen rechts-chiralen Weyl-Spinor, zum so genannten Superraum. Allgemeine Superfelder werden als Funktionen eingeführt und man kann sie wegen der Nilpotenz der antikommutierenden Koordinaten als endliche Potenzreihen schreiben. Die assoziierten Koeffizienten sind hierbei Funktionen auf dem Minkowski-Raum und werden als Komponentenfelder bezeichnet. Die infinitesimalen Supersymmetrietransformationen der Superfelder können durch die Darstellung der Generatoren in Form von Differentialoperatoren verwirklicht werden.

Chirale Superfelder   Um irreduzible Supermultipletts zu erhalten, muss die allgemeine Form von Superfeldern eingeschränkt werden. Dafür definiert man zunächst die supersymmetriekovarianten Ableitungen.

Vektorsuperfelder    sind definitionsgemäß reelle Superfelder. Ausgehend von einem chiralen Superfeld kann man das Vektorsuperfeld konstruieren  

Steilchen, ich habe dich bei deinem Namen gerufen. Du bist mein.“ Quelle: Die Geburt SUSY.

 

Von zahlreich vorhandenen Online-Kommentar-Feld-aktiven SM-Epigonen (Energie 0, Spin 6)  bejubeltes SM-Theoretiker-Glaubensbekenntnis

„Freie Parameter im Himmel, geheiligt werden unsere Namen. Unsere Theorie komme. Unser Dogma geschehe, wie im Himmel so auf Erden. Unser täglich Fördergeld gib uns heute. Und vergib uns unsere Schuld, wie auch wir vergeben unsern Kritikern. Und führe uns nicht in erkenntnistheoretische Versuchung, sondern erlöse uns von jeglicher Vernunft. Denn unser ist das Reich, die nächste Kraft und die irrationale Herrlichkeit in alle Ewigkeit."

 

 

Experimente sollen Symmetrien, nein müssen perspektivisch Supersymmetrien genügen. Neue zeitinstabile Super-Partner-Teilchen, die nie als solche, so wie ihre Vorgänger, direkt messbar sein werden, kommen eines Tages nach monatelangen Berechnungen mittels Super-Cluster-Rechnern als Teilchenbeschleuniger-Geburten aus vorselektierten Zerfallskanälen.

Das große erkenntnistheoretische ABER

Werden die richtigen Fragen gestellt, erweist sich der reine mathematische Formalismus als Nullnummer der Erkenntnis. Selbst einfachste Sachverhalte stellen im Rahmen der herrschenden modernen Physik (nach wie vor) unlösbare Denk-Konstrukte dar. Beispiel: Ob elektrisches oder magnetisches Feld, das Gleichsetzen elektromagnetischer Grössen mit (mechanischer) Masse  ist im Rahmen der "Modernen Physik" sinnfrei. Das Gleichsetzen einer elektrischen Zentripetalkraft mit einer (nur) masse-abhängigen Zentrifugalkraft ist mathematisch unproblematisch aber im Rahmen der hiesigen Physik phänomenologisch vollkommen unbegründet und erinnert, wie so oft, an die Epizykeltheorie. Assoziierte mathematische Gleichungen sagen auch nichts über den Grad der Näherung im Hinblick auf die real gemessenen Wechselwirkungs-Energien. Die zentrale Frage lautet: Wie wechselwirkt eine Masse, phänomenologisch anschaulich begründet, mit einer elektrischen Ladung? Das „reine“ mathematische Gleichsetzen von massebehafteter und elektrischer Kraft beinhaltet keine Information über die Phänomenologie. 

Hier liefert das Denkmodell der Elementarkörpertheorie eines stets inhärent massegekoppelten Raumes anschauliche, phänomenologisch begründete Lösungen, die rechnerisch aus einfachen formal-analytischen Gleichungen bestehen.

Masse-Radius gekoppelter realphysikalischer Vorgeschmack

 

Zur Erinnerung:  Was ist eine physikalische Gleichung?

Eine physikalische Gleichung besteht aus maßgebenden Größen (Ladung, Masse, Radius,...), möglicherweise Naturkonstanten, Koeffizienten und Rechenvorschriften. Der Sinn einer physikalischen Gleichung besteht darin, in Abhängigkeit der vorkommenden Gleichungsbestandteile eine qualitative und quantitative Aussage zu treffen.

Begriff der elektrischen Ladung

Elektrische Ladung ist ein Sekundärbegriff der herrschenden Physik, der eine von der Masse und dem Radius des Ladungsträgers abgekoppelte "phänomenologische Entität" suggeriert. Das ist aber nicht der Fall. Elektrische Ladung ist "nichts weiter" als eine (skalierte) Masse-Radius-Funktion. Der Irrglaube über die (unbekannte) Natur der elektrischen Ladung bzw. Spekulationen über diese beruhen auf den historischen Denkmodell-Entwicklungen. Elementarkörpertheorie basierend sind alle Ladungswechselwirkungen auf Masse-Radius-Kopplungen zurückzuführen.

Im cgs-System (Zentimeter, Gramm, Sekunde) ist die elektrische Ladung "gleich" als Wurzel aus dem Produkt aus m0r0c² definiert. Hier ist natürlich zu beachten, daß alle verwendeten Größen in Zentimeter, Gramm und Sekunde richtig dimensioniert werden (müssen).

 

Sommerfeldsche Feinstrukturkonstante

Konsequenterweise wird die Feinstrukturkonstante α Elementarkörpertheorie basierend energetisch bestimmt. Sie ergibt sich aus dem Vergleich von Gesamt-Energie (Elementarkörperladung q0 als (Funktion des) Radius-Masse-Äquivalent) und elektrischer Energie mittels der elektrischen Elementarladung e. Hier ist zu bemerken, daß quantitativ nicht α sondern α/4 das "Maß der Dinge" ist.

 

Vergleich: Elementarkörpertheorie und "herrschende Physik"

und "Herkunft/Bedeutung" der Sommerfeldschen Feinstrukturkonstanten α

f7 wurde eingeführt, um suggestiv zu verdeutlichen, daß es sich bei der [Elementarkörper-]Ladung ("nur") um eine skalierte Masse-Radius-Funktion handelt. Banalerweise ist f7 auch numerisch (1·107) einfacher zu merken als der Wert der Dielektrizitätskonstanten. Die Frage nach der Herkunft und Bedeutung der Sommerfeldschen Feinstrukturkonstanten führt zur elektrischen Elementarladung. α ist somit nur eine sekundäre Grösse, die aus der elektrischen Elementarladung "entstammt".

 

Was ist Masse?

In der Elementarkörpertheorie ist die Ruhe-Masse m0 ein Maß für die Oszillationsfrequenz des Elementarkörpers. Die radius-kleineren Elementarkörper besitzen eine größere Masse, da diese äquivalent zur Bewegung der oszillierenden Oberfläche ist. Masse ist also im Bild des Elementarkörpers äquivalent zur inneren Bewegung und wird über die reziproke Proportionalität auf den Radius zurückgeführt. Details siehe das Kapitel: Impulsmasse-Inversion

 

Die Comptonwellenlänge λC entspricht energetisch dem Elementarkörper-Radius r0 der inhärent mit der Elementarkörper-Masse m0 gekoppelt ist :

 

Energetisch ist die Compton-Wellenlänge λalso nicht das Resultat einer vollen Periode 2π, wie in der "herrschenden" Physik, sondern nur einer Viertelperiode ½ π. Diese "Äquivalenzbeziehung" ergibt sich direkt aus der Elementarkörper-Dynamik. Formal entspricht das einer reziproken Proportionalität, welche durch die Masse-Radius-Konstanten-Gleichung [F1] ausgedrückt wird : 

 

Nicht die assoziierten spektroskopischen Meßergebnisse der Experimentalphysik werden generell angezweifelt, sondern die resultierenden Interpretationen basierend auf deren theoretischen Grundlagen. Die Argumentation der Protagonisten und Anhänger der ursprünglichen Quantenmechanik, folgend der Quantenfeldtheorien und letztendlich des Standardmodells der Teilchenphysik (SM), daß diese durch experimentelle Ergebnisse Bestätigung fanden und finden, sagt also wenig aus, da die Theorien immer wieder den Meßergebnissen angepasst wurden. Realphysikalische Sachsituationen zu Ladung und Spin, 25 freie Parameter, variable Kopplungskonstanten und Confinement-These reichen bereits aus, um die Entscheidung zu treffen, sich nicht weiter mit dem SM als physikalisches Denkmodell zu beschäftigen. Wir könnten das Quark-Gluonen-Seequark-Proton-Modell ohne weitere Gedanken entsorgen. Wir müssten es entsorgen. Diesem logisch rationalen Schritt stehen aber 50 Jahre Standardmodell-Entwicklung, einige assoziierte Nobelpreise für Physik, tausende Lehrstühle für Theoretische Physik, abertausende beteiligte Wissenschaftler, milliardenteure Apparaturen, populärwissenschaftlich indoktrinierte SM-Anhänger, servile Wissenschaftsmedien und keine Alternativmodelle, die sich das SM einverleiben könnte, entgegen. Die jetzige Situation des Standardmodells der Teilchenphysik ist ergebnisorientiert vergleichbar mit der Epizykeltheorie kurz vor ihrem Ende. Aber wer schmerzbefreit ist und Spaß am Lesen hat...noch ein paar Bemerkungen zum "SM". 

 

 

und bitte...  

 

 

In einem großen Bild sind nicht nur (physikalische) Denkmodelle sondern auch die (axiomatische) Mathematik unvermeidbare "Artefakte des menschlichen Denkens". Wenn Physiker von Artefakten in ihren Theorien sprechen, dann sprechen sie eigentlich vom Artefakt im Artefakt

Moderne Mathematik hat im Bereich der Theoretischen Grundlagenforschung die physikalische Anschauung fast komplett abgeschafft. Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." [EM1]

[EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

 

„Zu jeder Messung einer quantentheoretischen Größe ist ein Eingriff in das zu messende System nötig, der das System unter Umständen empfindlich stört. Die Messung der Strahlungsenergie in einem mathematisch scharf begrenzten Teil eines Hohlraumes wäre nur möglich durch einen ”unendlichen“ Eingriff und ist deshalb eine nutzlose mathematische Fiktion. Ein praktisch durchführbares Experiment kann jedoch nur die Energie in einem Bereich mit verwaschenen Grenzen liefern.“  [Aussage Werner Heisenberg 1931]

Theorien werden von ihren Autoren im Hinblick auf schon bekannte oder richtig vermutete, empirisch prüfbare Phänomene entwickelt. Dass diese Phänomene sich dann aus den Theorien, zwar nicht immer sehr überzeugend, wieder ableiten lassen, ist wenig erstaunlich. Unliebsame mathematische Lösungen der von der Standardphysik gewählten Mathematik, wie negative Energien oder nicht gewünschte Polstellen werden der Zeit geopfert oder als Koordinaten-Artefakte „identifiziert“. Aus negativer Energie wird negative Zeit und positive Energie konstruiert und Polstellen werden mittels „geeigneterer“ Koordinatentransformationen „eliminiert“. Physikalische Theorien sind Idealisierungen. Nur die Genauigkeit, mit der eine Theorie mit den Phänomenen übereinstimmt, kann empirisch festgestellt werden. Die grundsätzliche Wechselwirkung zwischen theoretischer Erwartung und Versuchsgestaltung ist in der experimentellen Teilchenphysik sehr problematisch, da der Experimentator und "seine" Versuchsapparaturen meist einen komplexen Einfluss auf die Messung nehmen.

Folgende Frage entlarvt das Vorgehen der Teilchenphysiker als selbstprophetischen Akt: 

Wie reduziert man in einem Teilchen-Ensemble die Aussage über Streuzentren während der Kollisionen auf die innere Struktur eines einzigen Teilchens?

Das ist offensichtlich bei der Anzahl der Teilchen nur durch den theoriebeladenen Wunsch möglich. Die Interpretationen der Versuchsergebnisse sind somit nahezu frei wählbar.

 

Beispiel: Was man sich unter angewandter »Quantenfeldtheorie« vorstellen kann und wie die Theorie starken Einfluss auf die experimentelle Erwartung hat, „erörtert“ folgende exemplarische Ausführung: „Teilchenphysik für FortgeschritteneQuelle 

...Annahmen und Postulate

„Teilchenphysik für Fortgeschrittene“ Seite 68… „In der e+e- -Streuung werden in 10 % der Fälle nicht nur zwei sondern 3 Jets beobachtet, wobei die Winkelverteilung der Jets untereinander mit der Erwartung für die Abstrahlung eines Spin 1 Teilchens (“Gluon”) von einem Spin 1/2 Teilchen (Quark) übereinstimmt. Auf diese Weise wurde das Gluon am PETRA Beschleuniger bei DESY entdeckt.“...

Hier „sieht“ man exemplarisch, wie aus einem „objektiven“ Versuchsergebnis ein vollkommen subjektives Interpretations-Ergebnis erhalten wird. 10% Ereigniswahrscheinlichkeit fallen vom Himmel und ohne Gluonenpostulat widerlegt das Versuchsergebnis schlicht die Theorie der Quarks. Nach diesem Muster werden theoriebeladen alle „abweichenden“ Versuchsergebnisse „interpretations-gestrickt“. Weitere Kostprobe: …“Die Häufigkeit von etwa 10% dieser 3-Jet Ereignisse deutet auf eine große Kopplungskonstante zwischen Quarks und Gluonen hin“, … na wer sagt es denn. 10% fielen vom Himmel und das Versuchsergebnis wird aus Sicht der Selbst-Gläubigen mit einer variablen Kopplungskonstante theoriefreundlich versehen.“ …„Teilchenphysik für Fortgeschrittene“ Seite 78… „In der 4-Jet Produktion ist der Wirkungsquerschnitt sensitiv auch auf die Selbstwechselwirkung der Gluonen, da sowohl die Quarks als auch Gluonen weitere Gluonen abstrahlen können.“… also plumpe Frechheit siegt. Diese Art der selbstprophetischen Argumentation ist offensichtlich nicht widerlegbar. Welchen Erkenntnisgewinn kann man daraus ableiten? Das eine gewisse Anzahl von Menschen es geschafft haben, im Rahmen selbstdefinierter Willkür letztendlich egoistisch motivierte wirtschaftliche Existenzen zu begründen? Herzlichen Glückwunsch!

 

Mehr denn je müssen wir uns die Frage stellen, was wird im Standard Modell eigentlich postuliert und gemessen? Wie konnte bzw. kann man das "Falsche" so gut "verkaufen" ohne die Theorie aufzugeben? Eine emotionale, unphysikalische Erklärung liefert die Seelennatur des Menschen. U.a. Eitelkeit, Opportunismus und Ideologie der herrschenden Physik-Protagonisten führten zu einer starken Lobby. Vergleichbar mit den Machern und Mächtigen eines monotheistischen Weltbilds. Glaubensstrukturen sind weder "belehrbar" noch reformierbar.

Merke: Anstatt eine Theorie auf Grund schwerwiegender Inkonsistenzen und theorie-konträrer meßtechnischer Ereignisse als widerlegt zu betrachten, werden neue Teilchen und mitunter neue Eigenschafts- und Verknüpfungszahlen, "Mischwinkel" und »Ähnliches« postuliert, um die jeweils auftretenden Diskrepanzen zwischen Theorie und Messergebnissen zu erklären. Für diese Methodik gibt es offensichtlich keine "natürlichen", formalen und schon gar keine menschlichen Grenzen. Die Wenigsten sägen den Ast ab, auf dem sie sitzen. Doch irgendetwas ist gehörig schief gelaufen. Standardmodell-Herrscher und Standardmodell-Macher haben eine Karte gespielt, die sie nie hätten spielen dürfen. Die Tabu-Karte heißt Confinement. Das Postulat, daß wesentliche Theorieobjekte gemäß des theoretischen Ansatzes nicht beobachtet werden können, bedeutet, sich jegliche, mögliche Kritik für immer vom Leibe zu halten. Das passt zwar sehr gut zu dem unübertroffen naiven Vorgehen der SM-Lenker und SM-Denker und zeugt von größtmöglicher Dekadenz, doch diese Form der Erkenntnisverachtung ruft früher oder später Kritiker auf den Plan, die konzentriert und hochmotiviert, rhetorisch und fachlich das tun, was sie schon längst hätten tun müssen. Es ist nur noch eine Frage der Zeit bis dieses, aus erkenntnistheoretischer Sicht, freche und zugleich hochpeinliche "Beliebigkeits-Denkmodell-Kondensat" in den »großen Quark« kommt und sich dort auflöst. Stell´ Dir vor es geht.    

 

 

erst einmal soweit...

 

Eine weitere Konkretisierung der Probleme des Standard Modells findet sich bei der Darstellung und Wechselwirkung der Neutrinos, siehe DAS NEUTRINOPROBLEM

 

Das Kapitel Spin & Magnetische Momente offenbart das omnipräsente Dilemma phänomenologiefreier Formalismen. Es wird u.a. plausibel gezeigt, daß die experimentellen Werte der magnetischen Momente von Proton und Neutron kein Indizien für eine Substruktur liefern. Ganz im Gegenteil.