Spektrum der Wissenschaft(online)-Zensur und Weiterführendes

Wenn Redakteure der Onlineausgabe von Spektrum der Wissenschaft es für nötig befinden einen moderaten, schwerpunktmäßig faktenorientierten Leserkommentar* ohne Angabe von Gründen  - und für Artikelleser nicht erkennbar - zu entfernen, dann ist es mitunter an der Zeit klare Fronten zu schaffen.

Besonders perfide ist der Umstand, daß »Spektrum« suggeriert, jeder Leser könne seine Meinung äußern, sofern diese im Rahmen eines akzeptablen Diskussions-Rahmens liegt.

*Artikel(-Adresse), Email an den Autor und zensierter Kommentar siehe [1]

Da weder der Artikel-Autor (Robert Gast), noch »Spektrum der Wissenschaft« antworteten, öffnet sich nun ein größerer Kreis von «Zensur-Mitwissern».

Zur Erinnerung

Zensur ist ein undemokratisches, brachiales Instrument um unliebsame Meinungen auszulöschen. Insbesondere im Zusammenhang mit wissenschaftsjournalistischen Veröffentlichungen demaskieren Zensurmaßnahmen den Autor respektive die im Auftrag handelnde Person und identifizieren diese(n) als Ideologen. Ideologiebasierende Zensur ist im Bereich der Naturwissenschaften eine äußerst schwerwiegende Verfehlung.

Des Weiteren: Wer Argumente nicht danach beurteilt, ob sie plausibel sind, sondern danach, wer sie vorträgt, muß zwar seinen Verstand nicht mehr bemühen, sorgt aber auch dafür, daß eine sachliche Auseinandersetzung unmöglich ist. Es geht dem Autor und der »Redaktion« offensichtlich nicht um die Plausibilität von Argumenten, sondern darum, auf der richtigen Seite zu stehen. In Anbetracht der medialen Meinungs-Vorherrschaft, die, wenn nötig durch Zensurmaßnahmen durchgesetzt wird, ist die Gegen-Zensur-Reaktion weitläufige Aufklärung. Die redaktionelle Zensur wird öffentlich gemacht.

 

[1]

-------------------------------------------------------------Email an Robert Gast

Zeitarmut Datenverlust Zensur

From:   Dirk Freyling dfreyling@fastmail.net

To:       r.gast@die-fachwerkstatt.de

Tue, 11 Apr 2017

 

Guten Tag Herr Gast,

ist mein Kommentar vom 8.April 2017 „verloren gegangen“? Ist er aus Zeitgründen noch nicht „gegengelesen“ worden? Oder wurde dieser zensiert?

Zur Erinnerung:

Auf der Jagd nach Mr. Axion http://www.spektrum.de/news/auf-der-jagd-nach-mr-axion/1446097 vom 6.April 2017 (Autor: Robert Gast)

________________________________ Kommentar von Dirk Freyling, vom 8.April 2017

Axionen, Steilchen und artverwandt Spekulatives

Das "führende“ deutsche Populär-Wissenschafts-Magazin (Spektrum) sollte sich - im Rahmen erkenntnistheoretischer Forderungen – deutlich kritischer mit Modellfantasien auseinandersetzen. Denn der Wunsch, respektive die Forderung, dass sich Natur nach einem mathematisch formalen Diktat zeigen muß, ist aus rational logischer und erkenntnistheoretischer Sicht irreal. 

Fragmentarisch einige Denkanstösse

„Früher“ fielen bei einer Milliarde Einzelversuchen, eine Milliarden Mal die Äpfel vom Baum, was zur theoretischen Rechtfertigung einer anziehenden, gravitativen Kraft führte. Heute wird als Teilchen-Existenzbeweis ein einziges Ereignis bei einer Milliarde Fehlversuchen gewertet und das postulierte Teilchen ist, anders als der Apfel, auch nicht direkter Bestandteil der Messung (siehe exemplarisch das Higgs-Boson).

Viele leben in dem naiven Glauben, daß das Standardmodell der Teilchenphysik (SM) trotz der derzeit 25 freien Parameter, variablen Kopplungskonstanten, mehreren Dutzend postuliert essentiellen Theorieobjekten, assoziierter Verknüpfungszahlen (Quantenzahlen), diverser Substrukturierungs-Thesen, Confinement-These, ... auf rational logischen, konsistenten, experimentell bestätigten, formal berechenbaren Zusammenhängen basiert.

Streng genommen ist das Standardmodell der Teilchenphysik (SM) mit derzeit 25 freien Parametern, stetiger Nachparametrisierung, wiederholter Substrukturierung, Confinement-These,... jedoch ein philosophisches und kein physikalisches Denkmodell.

Eine richtungweisende, weit reichende Fehlentscheidung wurde im Jahre 1988 getroffen. Die erste Annahme war, bedingt durch die theoretischen Vorgaben Mitte der 1960er Jahre, daß im Bild des SM der postulierte Protonenspin sich zu 100% aus den Spinanteilen der Quarks zusammensetzt. Diese Annahme wurde 1988 bei den EMC-Experimenten nicht bestätigt. Ganz im Gegenteil, es wurden sehr viel kleinere, sogar mit Null verträgliche Anteile gemessen ( ∆∑ = 0.12 ± 0.17 European Muon Collaboration). Die Quark-These von fermionischen Spin-1/2-Teilchen war somit widerlegt. Hier hätte man aus wissenschaftlicher Sicht die "Quark-Idee" experimentell basierend, argumentativ "begraben" müssen.

Man kann diesen verpassten (möglichen) Wendepunkt gar nicht genug "strapazieren". Mit welcher Berechtigung werden (auch heute noch) Quarks als Spin-1/2-Teilchen "vorgestellt"?  Auch die zweite Annahme, daß die ins Leben gerufenen Gluonen zum Protonenspin beitragen, ergab nicht das gewünschte Ergebnis. In der dritten, derzeit aktuellen Theorie-Fassung sollen nun Quarks, Gluonen und deren dynamisch-relativistische Bahndrehimpulse im Ergebnis fein säuberlich den Protonenspin ausmachen. Es wird also solange "kombiniert", bis das gewünschte Ergebnis iterativ vorliegt. Aber selbst diese, an den Haaren herbeigezogene Maßnahme, rechtfertigt offensichtlich keine Klassifizierung der Quarks als Fermionen. Denn egal wie konstruiert das asymmetrische Ensemble aus nicht beobachtbaren postulierten Theorieobjekten und postulierten Wechselwirkungen auch immer annonciert wird, die Quarks selbst wurden (schon 1988) nicht als Spin-1/2-Teilchen "gemessen".

Von vielen, möglicherweise fast von allen Physiktreibenden, vom Studenten bis zum Professor, vom Wissenschaftsneugierigen bis zum mathematisch (gut) vorgebildeten Anhänger, vom "irgendwie Versteher" bis zum ahnungslosen Laien geht eine omnipräsente Systemgläubigkeit aus, die je nach Bildungsstand, mit mehr oder weniger scheinbar fundierten Argumenten, "Dinge", wie überlichtschnelle Raumausdehnungen oder Kaskaden von virtuellen Teilchen "vertritt", deren Begründungen aber letztendlich nur einer Prämisse folgen: (Moderne) Wissenschaft ist das, worauf man sich geeinigt hat, auch wenn experimentelle Fakten, Inkonsistenzen und die Anzahl freier Parameter klar gegen herrschende Standardmodelle sprechen.

Die Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen so hoch wie möglich sein. Es geht nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige Lösungen liefert.

Konträr zur sachdienlichen Forderung erkenntnistheoretischer Betrachtungen sind die „Ergebnisse“ der Theoretischen Grundlagenphysik eher emotional statt wissenschaftlich begründete Antworten auf die ideologische Frage, auf welches theoretische Konzept man sich „heute und demnächst“ einigt. Die Natur hat sich gefälligst den aktuellen theoretischen Implikationen zu unterwerfen. Heute sind es beispielsweise noch postuliert elementare Quarks, morgen möglicherweise "Preonen-Substrukturierte". Gemessen wird stark selektiv in vorgezeichneten Zerfallskanälen. Beobachtet wird das, was die aktuell herrschende Theorie fordert.

Jedwede "freie-parameterlastige" Ansätze sind schon aus rational logischer Sicht erkenntnistheoretische Nullnummern.

Wirklich interessant sind die psychologischen und soziologischen Aspekte, die inhärent mit den Machern und Anhängern der Standardmodelle verknüpft sind. Wie konnte es dazu kommen, daß ein eher kleiner Kreis von Wissenschaftlern trotz dokumentierter Erkenntnislosigkeit bestimmt, was die anderen zu denken haben? Und warum verhalten sich andere Wissenschaftler so passiv? Die transparent beliebigen Standard-Theoriewelten bieten Riesenangriffsflächen für logische und formal-logische Kritik, doch es gibt so gut wie keine wahrnehmbar aktiven Kritiker.

Dirk Freyling

_________________________________________________________________________

 

Hier erinnere ich Sie (Autor, Redaktion) daran, daß redaktionell folgende "Botschaft" nach Abschicken eines Kommentares auf der Spektrum-Seite erscheint:

Sehr geehrte Leserin, sehr geehrter Leser,

vielen Dank für Ihren Beitrag. Bitte haben Sie Verständnis dafür, dass dieser nicht direkt veröffentlicht wird. Wir behalten uns vor, diesen erst gegenzulesen, um einen Missbrauch unserer Seiten zu verhindern. Außerdem übernehmen wir keine Verantwortung für die Inhalte von Leserzuschriften.

Für Ihr Verständnis dankt die Redaktion

Im Falle eines redaktionell erkannten Missbrauches, wäre es aus vielerlei Gründen wissenswert, wie sich dieser Missbrauch - bezogen auf meinen Kommentar -  redaktionell begründet.

In Erwartung einer zeitnahen Antwort,

Dirk Freyling

-------------------------------------------------------------------------------

 

Ergänzungen 19.Mai 2017 

Kurz zum Autor Robert Gast (ARG) und zur Öffentlichkeitsarbeit der »Spektrum der Wissenschaft«-Redaktion (SdWR)

Man kann Herrn Gast die grundsätzliche theoretische Beliebigkeit der Standardmodelle und Infantilität im Sprachgebrauch (WIMP, MACHO, SUSY, Beauty, Charme, Higgsino, Steilchen, Quarkonium, …) nicht vorwerfen, da er offensichtlich nicht an diesen Entwicklungen aktiv teilnahm.

Preisträger 2013 des Georg von Holtzbrinck Preis für Wissenschaftsjournalismus [2]

Robert Gast wird von der Jury gewürdigt für seine in DIE ZEIT erschienen Beiträge „Scotland Yard jagt Mr. Wimp“ (http://www.zeit.de/2013/10/Urknall-Kosmos-Dunkle-Materie-Mister-Wimp/komplettansicht), „Der unsichtbare Pfleger“, und „Curiosity“ zum Thema Nutzen der Weltraumforschung. der sich mit der Suche nach der dunklen Materie beschäftigt, …

…“Mit seinen fundiert recherchierten und spannend aufbereiteten Beiträgen gelingt es Robert Gast eindrucksvoll beim Leser Begeisterung und Neugier für Wissenschaftsthemen zu wecken. Er trägt damit wesentlich zur Vermittlung von Wissenschaft an eine breite Öffentlichkeit bei.“…

[2] https://idw-online.de/de/news563321

 

Zum Gestaltungs- und Zensoren-Team (ARG)-(SdWR)

Fehlende Kritikbereitschaft, fehlende inhaltliche Klarheit und eine - wie mir scheint -  „methodisch zwanghafte Neigung“, hochkomplexe mathematische Konstruktionen durch beliebige, mitunter wenig intelligente und teils inhaltlich unzulässige Vergleiche im Rahmen von populärwissenschaftlichen Artikeln den Spektrumlesern schmackhaft zu machen, verdeutlicht den Entwicklungs-Zustand der Wissenschaftsredaktion. Vergleiche dazu ähnliche Artikel, wie „WIMP, wo bist Du?“ (http://www.spektrum.de/news/wimp-wo-bist-du/1195598)

Eine Aussage über die geistige (Durchschnitts-)Aufnahmefähigkeit und Intelligenz der Leser, ist aus den bemüht „(über)witzigen“ (Spektrum)-Artikeln kaum abzuleiten, alleine schon aus dem Grund der willkürlichen Kommentar-Zensur, … „wir würden ja nie erfahren“, wie „blöd“ der ein oder andere Leser die Textabsonderungen findet.

Nicht nur bei dem Autor Robert Gast, sondern allgemein redaktionell entfaltet sich eine grundsätzliche, journalistische, u.a. auch didaktische Problematik für den wissensneugierigen Leser. Nur wenige Betrachter sind in der Lage, die eingekapselte Botschaft - seitens der fast ausschließlich standardmodellfreundlichen Publikationen (Spektrum, Zeit,…) - zu verstehen.

Die systemphysiktreue Redaktion respektive der systemphysiktreue Autor, sorgen dafür, daß mathematische Konzepte ohne physikalische Beweiskraft, insbesondere ohne Wechselwirkung und Nachweismöglichkeit, sprachlich so aufbereitet werden, daß die Frage der Theorieexistenzberechtigung in den Hintergrund rückt oder meist gar nicht gestellt wird. Die Aussage, daß würde beim Leser Begeisterung und Neugier wecken und zur Vermittlung von Wissenschaft wesentlich beitragen [2], ist in Anbetracht stark Freier Parameter lastiger Denkmodelle mit einer Vielzahl von postulierten, nicht beobachtbaren Theorieobjekten letztendlich nur ein innerer, Selbstbeweihräucherungs-Akt der schreibenden Zunft und nach aussen nichts weiter als unwissenschaftliche Glaubensformung.

Realistisch betrachtet gilt: Nicht nur die Kenntnisse der »Spektrum-Leser«, sondern auch die Kenntnisse vieler Wissenschaftler, Physiker mit einbezogen, über die Konzeption der Standardmodelle sind rudimentär. Das hat im Kern mit der rein mathematischen Struktur der Beschreibungen zu tun.

Hier wäre es grundsätzlich hilfreich, wesentliche Aussagen zur Axiomatik „inhaltlich neutral“ in verstehbarer Sprache zu übersetzen, sowie einen geschichtlichen Überblick zu geben, der auch die dokumentierte Konfusion und Beliebigkeit der Theorieobjekt-Ansichten (mit der Zeit) nicht verschweigt. Das sind u.a. zentrale Aufgaben eines Wissenschaftsmagazins. Das derzeitige Artikeltagesgeschäft, sprich „artikelzufälliges“ Benennen und Aneinanderreihen von „etablierten“ Denkmodellfantasien und deren Erweiterungen, bleibt jedoch reine Systemphysik-Propaganda, solange die Redaktion (der Autor) es nicht schafft, den Lesern auch begleitend argumentativ wertvolle Modell-Kritik innerhalb des Artikels mit „auf den Weg“ zu geben.  

 

Glaubensbekenntnisse

Um den Mechanismus der Indoktrinations- und – man muß es leider so sagen – Verblödungs-Maßnahmen von Spektrum der Wissenschaft mittels News-Artikel schreibender Autoren zu verstehen, bietet sich eine Analyse (Neudeutsch: ein Faktencheck) einer weiteren Veröffentlichung von Robert Gast an.

 

Spektrum der Wissenschaft News 15.03.2017

Teilchenphysik: Krise im Kern des Protons von Robert Gast

 

Erste (technische) Auffälligkeit: Alle im Artikel genannten Quellen (Links) führen nicht auf freie Komplett-Veröffentlichungen. Einzig die „Abstracts“ (Inhaltsangaben) und einige Grafiken sind verfügbar. Diese „inhaltslosen“ Quellenangaben sind allesamt vermeidbar, da in allen Fällen frei verfügbare pdf-Dokumente existieren, die, warum auch immer, von Herrn Gast nicht genannt werden.

 

Gast schreibt: …“So rätseln Physiker seit Jahrzehnten, woher genau der Spin des Protons kommt. Diese quantenmechanische Eigenschaft, die man sich stark vereinfacht als Drehung um die eigene Achse vorstellen kann,“…

Das ist eine fatale Falschaussage! Insbesondere unter dem Aspekt, daß sie Leser aus "didaktischer" und wissenschaftlicher Sicht bewusst in die Irre führt. Der quantenmechanische Spin hat rein gar nichts mit einer Eigendrehung zu tun. Es wäre die Aufgabe eines Wissenschaftsmagazines, dies unmissverständlich klar zu stellen.     

[10] Kapitel 10.2 Diracsche Elektronentheorie 1928 Seite 10006  Zitat …“Denn der neue Drehimpuls hat mit dem, was man sich unter diesem Namen als mechanische Größe vorstellen kann, nichts mehr gemein. Er entsteht aus keiner Bewegung, sondern aus dem Zusammenwirken eines räumlichen Vektors mit den Dirac-Matrizen in dem Raum ihrer vier abstrakten Dimensionen.“…

[10] Quelle:  http://www.iup.uni-bremen.de/~bleck/lecture_notes/KT-15Kap.pdf/Kap-10-Elektron_Positron_Leptonen.pdf 

"Einfach" ausgedrückt: Der quantenmechanische Spin hat nichts mit einer Rotation zu tun und ist sozusagen nichts weiter als eine notwendige aber vollkommen unbegründete (sprich ohne realphysikalische Anschauung) Eigenschaft, die rein mathematisch generiert wird (vierkomponentiges Dirac-Spinorfeld mit vier Dirac-Matrizen).  

Die omnipräsenten, "sachbefund-pathologischen" Beschreibungs-Prozeduren herrschender Physik(-Didaktik) mittels Begrifflichkeiten, wie Spin oder Spin-Bahn-Kopplung suggestiv an realphysikalische Objekte gedanklich "anzukoppeln", die Masse besitzen, Raum einnehmen und rotieren, ist seit Einführung der Quantenmechanik schizophren. Aus dieser Betrachtung folgt, daß alle theoretischen Ausführungen und Berechnungen zu Spin-Wechselwirkungen ("Spin-Bahn-Kopplung" ► Feinstruktur, Kernspin-"HüllenDrehimpuls" ► Hyperfeinstruktur)  keine Anschaulichkeit besitzen. Es sind lediglich  - mehr oder weniger - komplexe Rechenvorschriften ohne Realobjekt-Anbindung.

Gast's Aussage: ...Diese quantenmechanische Eigenschaft, die man sich stark vereinfacht als Drehung um die eigene Achse vorstellen kann,“…ist ein Verdummungsakt. Es bleibt die Frage, ob er das zumindest für sich selbst realisiert. Es wäre interessant zu wissen, wie viele Physiker einerseits den quantenmechanischen Spin als Theorieparameter "verstehen" aber in ihrer Vorstellung stets unterbewusst selbst an (Realobjekt-)Drehungen denken.

Da es weder in der Quantenmechanik noch in den Quantenfeldtheorien realphysikalische Objekte gibt und auch keine Bewegungen auf Kreisbahnen existieren, kommt man aus dem Staunen nicht mehr heraus, sofern man konsistent, formal-logisch denkt. Fakt ist: Es wurde noch nie ein quantenmechanischer Spin gemessen, es wird auch in Zukunft kein quantenmechanischer Spin gemessen. Gemessen wird stets ein magnetisches Moment, dem mathematisch ein quantenmechanischer Spin zur Berechnung angeheftet wird. Das magnetische Moment basiert realphysikalisch aber auf Masse und Radius. Sowohl bei quantenmechanischen Spinberechnungen und daraus resultierend Folgeberechnungen erinnern die rein mathematischen Vorgänge an die Epizykeltheorie des Geozentrischen Weltbildes. Die Berechnungen der Epizykeltheorie, mit "damals" 3 freien Parametern waren nie falsch, das dem zu Grunde liegende Weltbild jedoch eine Erkenntnis-Katastrophe.   

Es stellt sich psychologisch die Frage, warum mehrere Generationen von Physikern Selbst-Theorie leugnend von Bahnen und Drehimpulsen sprechen, schreiben und höchstwahrscheinlich auch denken, wenn "ihre" Theorien weder Bahnen noch Drehimpulse enthalten (dürfen). Eigenrotation setzt räumliche Ausdehnung, Masse und Drehachse voraus. Der "gemeine" Denker sollte sich selbstmotiviert schlicht mal die Frage stellen, warum die Theoretische Physik realphysikalische Objekte programmatisch ablehnt bzw. so sehr "fürchtet".

 

Gast: …„Experimente an Teilchenbeschleunigern zeigten in den 1980er Jahren [11]  jedoch, dass so allenfalls ein kleiner Teil des Spins erklärt werden kann.“…

[11Gasts Artikel-Link

Diese Aussage respektive die euphemistische Interpretation der (insgesamt stark theoriebeladenen indirekten) Messungen ist sachlich und sprachlich ungenau. Es wurden sehr viel kleinere, sogar mit Null verträgliche Anteile gemessen ( ∆∑ = 0.12 ± 0.17 European Muon Collaboration). Siehe: A measurement of the spin asymmetry and … vom 23.Dezember 1987

Übrigens: Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Streuquerschnitte und Objekt-Ladungsverteilungen, daraus resultierend Formfaktoren und Strukturfunktionen sind keine Mess-Eigenschaften der Teilchen selbst, sondern stets Näherungen stark theoriebeladener Wechselwirkungsszenarien.

"Wie auch immer", quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. U.a. Religiosität, (zweideutiger) »Größenwahn« sowie wissenschaftsbefreite "Kindergartensprache" kommen mit dem Theoretiker als (mathematik-)gläubigen Menschen ins "Spiel".

Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte." 

Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

 

Wie weit sich die Standardmodellphysik von wesentlichen Fragestellungen und rational logischen Aspekten entfernt hat, verdeutlicht folgendes Beispiel. Der Radius eines postuliert asymmetrisch substrukturierten, ladungsfragmentierten Objektes ist eine phänomenologische Unmöglichkeit. Da macht es auch keinen Unterschied ob dieser theoriebeladen als elektrische oder magnetische Größe definiert wird. Prominentestes Beispiel: Der (Ladungs-)Radius des Protons.

 

 

„Aktuell bestes“ Beispiel: Der Protonenradius

Die Unsicherheit und folgend die „Variation“ der Kern- und Nukleonenradien, exemplarisch des Protonenradius, basierend auf Theoriemodellen und assoziiert unterschiedlichen Experimenten, führt zu Ergebnisunterschieden im Prozentbereich.

Aldo Antognini hat im Rahmen der jährlich stattfindenden Tagung Rencontres de Moriond  (18.März bis 1.April 2017, La Thuile, Aosta valley, Italy, http://moriond.in2p3.fr/) „erneut“ auf Ursachen der Fehlinterpretationen „konventioneller“ Protonenradiusmessungen (meist e-p-Streuung) hingewiesen, siehe https://indico.in2p3.fr/event/13763/session/1/contribution/27/material/slides/1.pdf

Damit „knüpft“  Antognini  u.a. an die Veröffentlichung von Jan C. Bernauer und Michael O. Distler (Juni 2016)  Avoiding common pitfalls and misconceptions in extractions of the proton radius: http://arxiv.org/pdf/1606.02159.pdf an.

Jan C. Bernauer und Michael O. Distler zeigen „ihren Kollegen“ auf,  (…“The extraction of the proton radius from scattering data is a treacherous business“…) wie „trügerisch“ die theoretischen Annahmen zu den Messergebnisinterpretationen aus Streuexperimenten sind.  

Das der Protonen(-Ladungs-)Radius auch bei „typischen“ Elektronenstreuversuchen mit ~ 0,84 fm gemessen werden kann und somit diese Meßergebnisse im Einklang mit den Messungen am myonischen Wasserstoff sind, wird exemplarisch auch in Extracting the Proton Radius from Electron Scattering Data / Douglas W. Higinbotham (http://www.phys.virginia.edu/Files/fetch.asp?EXT=Seminars:2947:SlideShow)  erörtert.

 

 

Gast: …“Nun haben Physiker einen nennenswerten Fortschritt bei der Beilegung dieser "Proton-Spin-Krise" gemacht: Ein Team um Yi-Bo Yang von der University of Kentucky [12] hat berechnet, dass so genannte Gluonen für etwa die Hälfte des Protonen-Schwungs aufkommen müssten.“

[12]   Gasts Artikel-Link

Der Satz ist – losgelöst vom wissenschaftlichen Gehalt – sprachlich „unsauber“. Denn, entweder die postulierten Gluonen sind (gemäß theoretischer Ausführungen [13]) verantwortlich, dann müssen sie nicht aufkommen, sondern kommen auf.

[13] https://arxiv.org/pdf/1609.05937.pdf   …es handelt sich um eine, im Rahmen der Gittereichtheorie (Lattice gauge theory), reine Computersimulation. Keines der (mathematisch) vorkommenden Theorieobjekte ist direkt messbar, theorieverwendete freie Parameter ergeben ein Ergebnisspektrum. Die Ergebnisse sind stark an die verwendeten Algorithmen gebunden, diese wiederum sind stark theoriebeladen. Wünsche dominieren die Reduktion auf „passende“ Simulationsergebnisse.

  Gast: …“Bereits vor einigen Jahren konnten Wissenschaftler den Beitrag der drei Quarks des Protons auf etwa 30 Prozent [14] festlegen. Yi-Bo Yangs Team ist nun erstmals eine seriöse Schätzung für den genauen Beitrag der Gluonen gelungen, den die Forscher auf 50 Prozent bemessen. Die Forscher berechneten hierzu die komplizierten Wechselwirkungen im Proton mit Hilfe aufwändiger Computersimulationen.“…

[14]   Gasts Artikel-Link

Gast’s Wortwahl der ersten seriösen Schätzung lässt tief und verständnislos blicken. Waren vorherige und sind sonstige Schätzungen im Vergleich unseriös? 

Im „Original“ (The Spin Structure of the Nucleon https://arxiv.org/pdf/1209.2803.pdf   2013)  heißt es schlicht: …”This article reviews our present understanding of QCD spin physics: the proton spin puzzle and new developments aimed at understanding the transverse structure of the nucleon. We discuss present experimental investigations of the nucleon’s internal spin structure, the theoretical interpretation of the different measurements and the open questions and challenges for future investigation.

Gasts Schlussworte …“Und die verbleibenden 20 Prozent? Ein Teil davon kommt vermutlich von dem Schwung, den die umhersausenden Elementarteilchen ihrem Atomkern geben, schätzen Forscher. Was die Details angeht, bleiben aus Sicht der Experten aber noch genügend Fragen für weitere Studien offen.“

…bringt uns in den Spektrum der Wissenschaft Sprachkindergarten. Vermutete Schwünge umhersausender Elementarteilchen, Forscher schätzen, Experten fragen, …

Und es sind nicht "20% die fehlen", wie der Autor suggeriert, es fehlt seit Einführung des quantenmechanischen Spins (Ende der 1920er Jahre***), nach wie vor, daß gesamte Konzept zum quantenmechanischen Spin…

Fazit: »Spektrum der Wissenschaft Artikel-Details« sind beliebig. Spektrum der Wissenschaft (hier mittels Robert Gast) verbreitet Glaubensbekenntnisse zur Kosmologie und Teilchenphysik, statt ausgewogenen, sach-kritischen, pro und kontra Wissenschafts-Journalismus zu praktizieren.

Das bringt uns alle zurück zu einem Textfragment des redaktionell zensierten Leserkommentares:

  …“ Mit welcher Berechtigung werden (auch heute noch) Quarks als Spin-1/2-Teilchen "vorgestellt"?  Auch die zweite Annahme, daß die ins Leben gerufenen Gluonen zum Protonenspin beitragen, ergab nicht das gewünschte Ergebnis. In der dritten, derzeit aktuellen Theorie-Fassung sollen nun Quarks, Gluonen und deren dynamisch-relativistische Bahndrehimpulse im Ergebnis fein säuberlich den Protonenspin ausmachen. Es wird also solange "kombiniert", bis das gewünschte Ergebnis iterativ vorliegt. Aber selbst diese, an den Haaren herbeigezogene Maßnahme, rechtfertigt offensichtlich keine Klassifizierung der Quarks als Fermionen. Denn egal wie konstruiert das asymmetrische Ensemble aus nicht beobachtbaren postulierten Theorieobjekten und postulierten Wechselwirkungen auch immer annonciert wird, die Quarks selbst wurden (schon 1988) nicht als Spin-1/2-Teilchen "gemessen"...

  *** Am Rande bemerkt: Wolfgang Pauli schlug 1924 vor einen »quantenmechanischen Freiheitsgrad« für das Elektron einzuführen, der zwei Werte annehmen kann, um die Emissionsspektren von Alkalimetallen beschreiben zu können. Ralph Kronig (1904 - 1995), ein Assistent Alfred Landés, schlug 1925 vor, dieser unbekannte Freiheitsgrad werde von der Eigenrotation des Elektrons hervorgerufen. Aufgrund der Kritik Paulis an dieser Idee blieb Kronigs Vorschlag unveröffentlicht. Ebenfalls 1925 postulierten Samuel Abraham Goudsmit und George Eugene Uhlenbeck den Elektronenspin zur Erklärung der Linienaufspaltung in den Spektren sowie des anomalen Zeeman-Effekts. Im Jahre 1927 formulierte Pauli einen Formalismus für den quantenmechanischen Spin des Elektrons. Mit Hilfe der Pauli-Matrizen konnte er Elektronen-Wellenfunktionen als 2-komponentige Spinoren darstellen. 1928 stellte Paul Dirac eine relativistische Bewegungsgleichung für das Elektron auf. Die nach ihm benannte Dirac-Gleichung beschreibt u.a. den halbzahligen quantenmechanischen Spin. In all diesen rein mathematischen Beschreibungen existiert keine phänomenologische Grundlage.

 

… „Früher“ ging es auch ohne Zensur… siehe exemplarisch Artikelkommentar 2. zu „Schwarze Löcher in Grösse Mhttp://www.spektrum.de/news/schwarze-loecher-in-groesse-m/1395720

…dachte ich zumindest. Doch wer „sagt mir jetzt“, ob und was „damals“ der redaktionellen Zensur zum Opfer gefallen ist?

Erst einmal soweit zu Herrn Gast, Spektrum der Wissenschaft und der Artikel-Kommentarzensur.  

 

 

Weiterführendes

Fragmente des Standardmodellglaubens

 

Zum Kennenlernen: Das standardmodell-postulierte Proton-Desaster im "aphoristischen" Bild

 

 

 

Hinweis zur (weiteren) Form des Vortrages

Es existieren zahlreiche paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen „hier und da“ eine ertragbare Diskussionsnähe.  

 

Was ist der phänomenologische Unterschied zwischen einem beobachtbaren Photon und einem (postulierten) nicht beobachtbaren Gluon, wenn das Gluon auf Wunsch des symmetriesuchenden Theoretikers, so wie das Photon masselos ist und sich mit Lichtgeschwindigkeit bewegt? Sparen wir uns an dieser Stelle den Hingucker auf gluonische Details, wie deren acht wechselwirkende Ausformungen und diverse theorienotwendige Verknüpfungszahlen. Sparen wir uns auch den Hingucker auf das Photonenpostluat im Rahmen der Elektroschwachen Theorie, welches dem Photon die Entität raubt und durch eine irreale mathematische Mischung ersetzt. Am photon-gluonischen Beispiel wird deutlich, wie beliebig und sinnleer theoretische Physiker „postulieren“. Zur Erinnerung: Mathematik kann nicht zwischen Staubsauger und Staub unterscheiden. Die mit „Füssen“ brachial getretene naturphilosophische Betrachtung heult hier „gluonisch“ auf.

Einige "SM-Postulate"

Das Standardmodell der Elementarteilchenphysik zielt darauf ab, Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen.

Die Definition der Masse eines Teilchens bezieht sich im Rahmen des Standardmodells ausschließlich auf ihre kinematische Wirkung. Ihre Wirkung als Quelle eines Gravitationsfeldes bleibt dagegen unberücksichtigt, wie auch die Gravitationswechselwirkung die im Standardmodell nicht beschrieben werden kann. Die kinematische Wirkung der Masse manifestiert sich im Propagator des Teilchens.  

Alle »Materieteilchen« im Standardmodell sind Fermionen (Spinwert: ½) und werden durch vierkomponentige Spinoren beschrieben. Die vier Einträge entsprechen – grob gesagt – der Beschreibung von Teilchen und Antiteilchen mit jeweils zwei möglichen Spineinstellungen.  

Unter der (nicht mehr gültigen) Annahme das Neutrinos masselos sind, besitzt das minimale Standard-Modell mit 3 Familien 18 freie Parameter. Die Kopplungskonstanten: αs, α, sinθW. Die Massen der Leptonen: me, mµ, mτ  Die Massen der Quarks: md, mu, ms, mc, mb, mt Die Massen der Bosonen: mZ, mW  Die Parameter der CKM-Matrix für den Quarksektor: λ, A, ρ, η. Im Falle massiver Neutrinos erhöht sich die Anzahl der freien Parameter um sieben, einerseits für deren Massen, andererseits für die Mischungsmatrix im leptonischen Sektor. Weitere freie Parameter können „auftauchen“, wenn man von dem minimalen Higgs-Sektor zu einem komplizierteren Mechanismus übergeht.

Es gibt drei Familien von Teilchen und der einzige Unterschied zwischen den Familien besteht in den Teilchenmassen, ansonsten sind die Eigenschaften von Familie zu Familie gleich. Teilchen aus der zweiten und dritten Familie (Generation) können in Teilchen der ersten Familie zerfallen und Materie besteht nur aus Teilchen der ersten Generation: Up- und Down-Quarks bilden die Protonen und Neutronen der Atomkerne, die von Elektronen umgeben sind.

 

Lässt man die Neutrinomassen "beiseite", dann unterscheiden sich die Massen des leichtesten Fermions (Elektron) und des schwersten (Top-Quark) um einen Faktor von ca. 400.000, obwohl die Massenterme mit der spontanen Symmetriebrechung denselben Ursprung haben.

Die Eichbosonen (Austauschteilchen) sind (erst einmal) masselos, da entsprechende explizite Massenterme die Eichinvarianz verletzen würden. Versucht man einen (zusätzlichen) Masseterm einzuführen, geht die Invarianz verloren und die Theorie wird nicht renormalisierbar. D.h. die Störungsrechnung divergiert. 

 

Merke: Die Eichgruppe des Standardmodells SU(3)C x SU(2)W x U(1)Y kann nur masselose Fermionen beschreiben.

 

QuantenChromoDynamik

Die QCD ist im Gegensatz zur QED eine nicht-abelsche Eichtheorie, das heißt die Multiplikation von zwei Gruppenelementen ist im Allgemeinen nicht kommutativ. Das führt dazu, daß in der Lagrange-Dichte Terme auftreten, die eine Wechselwirkung der Austauschteilchen miteinander bewirken. Konkret: Die Austauschteilchen (masselose Gluonen) tragen selbst »Farbladungen« und wechselwirken auch untereinander. Als eine Folge nimmt die Kopplungskonstante αs mit steigender Wechselwirkungsenergie logarithmisch ab („asymptotische Freiheit“). Die Genauigkeit der Theorie-Vorhersagen liegt im Prozentbereich. [Wobei sich die Vorhersagen nur auf die selbstdefinierten Theorieaspekte beziehen. Allgemein kann man "festhalten": Das SM, somit QCD inklusive, hat u.a. "nichts zu sagen" über konkrete Teilchenmassen, assoziierte Lebensdauern, Massenrelationen, zur Gravitation, zur Natur der Feinstrukturkonstanten, zur Phänomenologie des Spins]

Elektroschwache Wechselwirkung

Das Modell von Glashow, Weinberg und Salam vereinigt die elektromagnetische und die schwache Wechselwirkung zur elektroschwachen Wechselwirkung. Ihre Struktur ist durch eine nicht-abelsche Eichsymmetrie der Gruppe SU(2)L×U(1)Y bestimmt. Die Wechselwirkungen der fundamentalen Teilchen werden durch den Austausch der Eichbosonen (Spin 1) vermittelt, die über lokale innere Symmetrien in die Theorie eingeführt werden. Die „Rolle“ der Materiefelder übernehmen Fermionen. Die Materiefelder sind durch jeweils drei Generationen von links- und rechts-chiralen Quarks und Leptonen gegeben. Zu den Leptonen gehören Elektron, Myon und Tau sowie ein Neutrino in jeder Generation. Die sechs Quarks sind Up-, Down-, Charm-, Strange-, Top- und Bottom-Quark. Quarks wechselwirken sowohl elektroschwach als auch stark. Die Quarks der ersten Generation (Up und Down) bilden die Bausteine der Protonen und Neutronen. Leptonen wechselwirken dagegen ausschließlich elektroschwach.

Das Postulat eines unterschiedlichen Transformationsverhaltens der links- und rechts-chiralen Fermionen theorieinduziert eine Quantenzahl die als schwacher Isospin bezeichnet wird, der für die obere Komponente eines SU(2)-Dubletts den Wert I = +½ und für die untere Komponente I = − ½ hat. SU(2)-Singuletts werden durch I = 0 gekennzeichnet. Aus der Annahme, dass die schwache Wechselwirkung die Parität, sprich die Symmetrie unter Raumspiegelung, maximal verletzt, ergeben sich unterschiedliche Kopplungen der Eichbosonen der schwachen Wechselwirkung an links- und rechtshändige Fermionen. Die Quantenzahl der U(1)Y -Symmetrie, welche die Invarianz der Lagrange-Dichte unter lokalen Phasentransformationen der Felder angibt, ist die Hyperladung Y, die mit der elektrischen Ladung Q und der dritten Komponente des schwachen Isospins I3W durch die Gell-Mann-Nishijima-Relation Q = I3W + ½Y  zusammenhängt.

Aus dem etablierten SM-Formalismus resultieren quadratisch divergente Beiträge zur skalaren Masse von Eichbosonschleifen sowie Fermionschleifen. Ohne das an dieser Stelle näher auszuführen, lässt sich der so genannte Abschneideparameter Λ nicht aus der Theorie bestimmen. Die großen Λ2 Korrekturen implizieren, daß, wenn man die Hochenergietheorie, von der das SM als effektive Niederenergietheorie abstammt, benutzt, um Vorhersagen bei TeV-Energien zu machen, diese Vorhersagen extrem sensitiv auf die Parameter der Hochenergietheorie sein würden, wenn Λ » 1 TeV ist. Berechnet man die Strahlungskorrekturen zu den Fermionmassen, dann erhält man daraus einen zum Logarithmus von Λ proportionalen Korrekturterm, der auch bei Λ ~ mPlanck nur wenige Prozent der ”nackten“ Masse ausmacht. Anders bei der Higgsmasse: Hier liefert die Strahlungskorrektur einen zu Λ proportionalen Anteil. Die Higgsmasse mH ~ 125 GeV führt zu der Situation, daß sich die Strahlungskorrekturen und die nackte Masse auf 17 (siebzehn) Nachkommastellen genau aufheben (müssen). Dies ist das so genannte fine-tuning problem (Feinjustierungsproblem) des SM. 

 

 

In der elektroschwachen Theorie werden Wechselwirkungen (siehe oben) durch Eichbosonen vermittelt. In der elektroschwachen Theorie treten zunächst vier masselose Eichbosonen auf, die auftretenden Eichbosonen werden als "Mischungen" definiert. Grundidee ist eine formale Vereinigung von elektromagnetischer und schwacher Wechselwirkung. Wobei W1, W2 und W3 keinerlei "messtechnische Realität" besitzen. Das Z0-Boson ist nicht wie die W-Bosonen maximal paritätsverletzend, da es einen Anteil des W3-Bosons enthält. Man sagt, die Zustände des Photons γ0 und des Z0-Bosons sind um den so genannten Weinbergwinkel gedreht. Das Photon soll sich in der elektroschwachen Theorie wie in der QED verhalten. [Diese Annahme/Forderung ist phänomenologisch haltlos, da das "Photon der QED" nicht dem Mischzustand der elektroschwachen Theorie entspricht.]

Mischungen der elektroschwachen Theorie

 

Auffällig ist die Diskrepanz zwischen gemessenem Weinberg-Winkel [CODATA-Wert 2014] und der formalen Wertbestimmung [Wθc] [Wθ]. Insgesamt variiert der Weinberg-Winkel in Abhängigkeit der experimentellen "Energiefenster".

Hier stellt sich in einer konstruktiven erkenntnistheoretischen Auseinandersetzung die Frage, inwieweit das erweiterte Konzept der „Austauschteilchen“, respektive der Eichbosonen eine realphysikalische Gültigkeit besitzt. Denn das zeitstabile reale Photon ist als Entität grundlegend verschieden von den massebehafteten Vektorbosonen und dem Higgs-Boson, sowie von den selbstwechselwirkenden, masselosen Gluonen. Das Photon zum Austauschteilchen bzw. Vektorboson zu erklären, ist, außerhalb der elektroschwachen Theorie, QED bzw. des SM stark diskussionswürdig.

Die grundsätzliche Problematik, ausgehend von historisch entstandenen Annahmen zur »Natur der Dinge« exemplarisch zur Natur der Strahlung, die je nach theoretischer Vorlage beispielsweise der (semi-klassischen) Maxwellschen Elektrodynamik, der Quantenelektrodynamik oder der „Elektroschwachen Theorie“ zuzuordnen ist, entstammt der fixen Idee, das ein mathematischer Formalismus ohne Ankopplung an plausible Anschauung aus sich selbst heraus die Wirklichkeit nicht nur abbilden, sondern auch formen kann. Wie sonst sind die mathematischen Mischkonstrukte der Elektroschwachen Theorie zu interpretieren, die dem Photon die beobachtbare Entität bzw. Identität rauben. Hier werden brachial Axiomatik und mathematische Objekte zur realphysikalischen Wahrheit erklärt.

 

 

Wie wir alle wissen (sollten) wurde der Lichtäther kollektiv verbindlich abgeschafft. Das ätherassoziierte lichtschnelle, masselose Photon durfte jedoch bleiben. Welchen Sinn macht es „nun“ ein Higgs-Feld samt massebehafteten Higgs-Bosons in „Analogie einzuführen“? Zumal der „Higgs-Mechanismus“ den Teilchen bis auf ein mickriges Prozent gar keine Masse geben kann, nicht einmal in der frei formulierbaren mathematischen Fantasie. Was soll man mit einer ursprünglich masselosen dann „higgskorrigierten“ Theorie anfangen, die 99% der bekannten Masse als „gluonische“ Bindungsenergie in die Welt setzt? Das ist aus epistemologischer Sicht nicht einmal mehr epizyklisch, hier grüsst mit breitem Grinsen die Phlogistontheorie.

 

Zum Kennenlernen: Wunsch und Wirklichkeit der theoretischen Higgs-Mechanismus-Konzeption

Der mathematische Ansatz des Standardmodells der Teilchenphysik (SM), ausgehend von nulldimensionalen, masselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität, in der Masse und Ausdehnung Fundamentaleigenschaften darstellen.

Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung "verletzt"15, zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen. Die einzig der herrschenden Physik bekannte direkte Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt nicht abbilden. Des Weiteren: Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben. Diese Grundbedingung steht in einem eklatanten Widerspruch zu Neutrino-Oszillationen (Nobelpreis 2015), die zwingend Neutrinomassen voraussetzen.  

15 Diese Aussage bezieht sich nicht primär auf die mathematische Konzeption, sondern ist erkenntnistheoretisch zu verstehen. Warum sollte man einen invaliden Formalismus einführen, der letztendlich massebehaftet nachkorrigiert werden muß. Es drängt sich die Frage nach der ursächlich richtigen Wahl auf.

 

 

 

  Widersprüche werden zur Absurdität wenn wir uns den Neutrinos „nähern“.

Neutrinos soll(t)en trotz ihrer von Null verschiedenen Massen mit Lichtgeschwindigkeit „fliegen“. Die Euphorie war im September 2011 groß, als Meßfehler dazu führten, daß sich Neutrinos angeblich „sogar“ mit Überlichtgeschwindigkeit „bewegten“. Die nicht oder nur ungerne kommunizierte Wahrheit ist: Die ansonsten „beschworene, heilige“ Relativitätstheorie wurde und wird von den Theoretischen Physikern des Standardmodells seit eh und je methodisch ignoriert. Daß wird zumindest menschlich verständlicher, wenn man sich vor Augen führt, daß das Standardmodell Gravitation mathematisch nicht „integrieren“ kann.

So wie in allen anderen Lebensbereichen wird früher oder später jegliche Forderung nach Neutralität und Disziplin der Eitelkeit der Macher geopfert. Man könnte hier auch „speziell“ sagen, daß die Protagonisten des Standardmodells die eigentlichen Kritiker der Relativitätstheorie sind, die insbesondere ihr »Theorie-Ereignis« namens Neutrino zum finalen Schlag gegen die Relativitätstheorie seit Jahrzehnten „aufrüsten“. Die Chancen sind perspektivisch gar nicht so schlecht, wenn man sich verdeutlicht wie „unwissenschaftlich“ und beliebig Neutrinos gemäß Standardmodell "geartet" sind.

 

[Real-] Satire "[nahm]/nimmt" ihren Lauf...

Theatergruppe OPERA zwischen Wunsch und Wirklichkeit

Der «Wilde Westen der Teilchenphysik» ist die Neutrinoforschung. Dort wird schnell geschossen. Auch schon mal mit Über-Lichtgeschwindigkeit zumindest bei der Theatergruppe OPERA  [Oscillation Project with Emulsion-tRacking Apparatus]. Der erste Hinweis auf „ungewöhnlicheKreativität im Teilchentheater steckt im Namen. Da tRacking nicht zu OpeRa passt, wird „kurzer Hand“ der zweite Buchstabe verwendet. [Die Psychologen unter uns erkennen an solchen vermeintlich kleinen Handlungsanomalien „instantan“ "Größenwahn und Wahrnehmungsstörung" mit großer Meßgenauigkeit.]

 

Wenn schnelle Teilchen reisen...

Ein Track von ca.15.000 Neutrinos machte sich auf den grenzüberschreitenden Weg von der Schweiz nach Italien. Lassen wir mal die Frage außen vor, wie man die Anzahl von 15.000 Neutrinos misst, wenn diese gemäß Postulat der SM-Gestalter, praktisch nicht wechselwirken.

Die Europäische Organisation für Kernforschung (CERN) hatte im September 2011 Daten dieses Experiments vorgelegt, die darauf hindeuteten, dass sich Neutrinos schneller als das Licht bewegten. Genauer gesagt waren die Teilchen auf dem Weg vom Large Hadron Collider (LHC) zum 730 Kilometer entfernten Gran Sasso Labor in Italien 60 Nanosekunden schneller als sie eigentlich sollten. Bei einer Wiederholung des Experiments wurden die Ergebnisse bestätigt. Die Highway-Patrol-Sheriffs der Relativitätstheorie waren (zu Recht) entsetzt.

Leider (oder der Weltenschöpferin sei Dank) ALLES nur Theater. Ein nicht richtig verbundenes Glasfaserkabel im GPS-System zur Zeitmessung oder für die Zeitmessung verwendeter Oszillator könnten dafür verantwortlich sein, hieß es. Bei einem weiteren Experiment mit einer vom ursprünglichen OPERA-Experiment unabhängigen Zeitmessung wurden keine überlichtschnellen Neutrinos registriert.

 

Da war doch noch was? Das noch nicht einmal Neutrinos mit Lichtgeschwindigkeit auf Grund der Energie-Masse-Äquivalenz hätten auftreten dürfen, wurde offensichtlich im Eifer des Gefechtes vergessen. Relativistische Massenzuwächse sind für emotionalisierte Physiker ganz offensichtlich "Schnee von gestern", den es zu "schmelzen" gilt. Also selbst die parallel etablierten Bekundungen der Neutrino-Forscher zur Masse der Neutrinos, auf Grund der gleichfalls postulierten Neutrinooszillationen, wurden im Vor-Rausch der sensationell wirkenden Überlichtgeschwindigkeit erinnerungslos.

Zwischenbilanz    In der Elementarteilchenphysik häufen sich nicht nur die Elementarteilchen, sondern auch die Probleme. Dies gilt nicht nur für "neuere" Elementarteilchen, sondern insbesondere für den oben erwähnten "Erstling" (nach Proton und Elektron), dem «Neutrino». Ein Teilchen mit "ungebrochen" viel Interpretationspotential. Trotz der langen Neutrinogeschichte, die mit dem «Neutrinoerfinder» Wolfgang Pauli vor mehr als 80 Jahren im Dezember 1930 begann, sind bis heute die Massen(werte) der «Neutrinovarianten» [Elektron-, Myon-, Tau-Neutrinos] nicht bekannt. 1998 wurde die Evidenz der Neutrino-Masse vom «Super-Kamiokande-Team» verkündet. Neutrino-Massen werden je nach Versuchsergebnis "variiert" und "ergeben" sich theoretisch durch «Matrixelemente», die wiederum stark vom verwendeten physikalischen Modell abhängen. Das Standardmodell der Elementarteilchenphysik hätte «sie» lieber "masselos und unbestimmt". Hier könnte man sich sicherlich die Frage stellen: Wie ist, oder wird, ein Teilchen masselos? Diese Frage impliziert Anschauung und Plausibilität, die die Vertreter des Standardmodells der Elementarteilchenphysik "ungerne" bzw. gar nicht "verkörpern" wollen, Matrizen sei Dank. Neutrinos sind «wildcards par excellence» der theoretischen Teilchen-Physik. So wie «sie» gebraucht werden, erscheinen «sie». Und wenn «sie» mal nicht erscheinen, dann "mutieren" «sie» nachträglich "theoriegerecht", eleganter ausgedrückt nennt man das Neutrino-Oszillation.

 

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess.

Auch für Neutrinos gilt: Es gibt keinen einzigen direkten Neutrinonachweis. Es handelt sich stets um stark theoriebeladene Versuchsergebnisinterpretationen.

"Gehen wir gleich mal in die Praxis"... Gemäß SM „bedeutet“ Neutrinoforschung beispielsweise:

…Man misst die Ströme der Kaonen und Pionen und bestimmt indirekt den Fluss der Neutrinos…

Nun sind aber schon Pionen (π0, π -, π+)  und erst recht Kaonen (K+, K-, K0, K0) höchst konstruierte Gebilde (zum Erst-Verständnis siehe https://en.wikipedia.org/wiki/Kaon, https://en.wikipedia.org/wiki/Pion) des Standardmodells. Bedeutet: Die Anzahl der Existenzpostulate, wie Masse, Ladung, Spin, flavor(s), Lebensdauern und Quarkzusammensetzung ist bereits „beachtlich“. Die möglichen Umwandlungen ergeben „ vielfältige“ Wechsel-Wikungs-Spiel-Szenarien. Des Weiteren: Das neutrale Kaon ist nicht sein eigenes „Antiteilchen“, dies führt (allgemeiner) zu der Konstruktion der Teilchen-Antiteilchen-Oszillation (siehe https://en.wikipedia.org/wiki/Neutral_particle_oscillation) und das neutrale Kaon soll in zwei Formen, einer langlebigen und einer kurzlebigen Form existieren. 

Daraus nun auf Eigenschaften („flavor-oszillierender“) Neutrinos zu schließen, potenziert die Beliebigkeit nochmals. Um das alles (reproduzierbar) zu verstehen, braucht man den absoluten Glauben an axiomatische Schöpfungen. Als Belohnung winkt dann jedoch der Freibrief, daß jedwedes Versuchsergebnis „erklärbar“ wird (…das wir bis dahin - in Verbindung mit der »experimentellen Seite« - grob geschätzt einige Dutzend weitere ergebnisorientierte Annahmen machen müssen,  … kümmert SM-Gläubige nicht).

„Glaubt man nicht“, dann lässt sich ein SM-Versuch vereinfacht (nach Egbert Scheunemann) so ausdrücken: Sie schießen erst einen Pfeil auf ein Scheunentor, malen dann konzentrische Kreise um den Einschuss und jubeln über ihren „Volltreffer“.  

 

Neutrino-Oszillationen ...und der Neutrino-Forscher sprach: mein Wille geschehe, es werde umgewandelt...

…“Das Phänomen der Mischung von Neutrinos bedeutet, dass die so genannten Wechselwirkungszustände, d. h. die 3 Arten von Neutrinos, keine Teilchen mit wohldefinierter Masse sind, sondern eine quantenmechanische Überlagerung von Teilchen mit verschiedener Masse. Diese Mischung zwischen Wechselwirkungs- und Massenzuständen wird mit Mischungswinkeln beschrieben. Neutrinomischung kann zu dem Phänomen der Neutrinooszillationen führen, wenn Neutrinos in gewisser Entfernung vom Produktionsort wieder detektiert werden. Auf dem Weg vom Produktionsort zum Detektor erhalten die verschiedenen Massenzustände unterschiedliche quantenmechanische Phasen, und es kommt zu einer Interferenz... So kann ein Neutrino, das als Elektronneutrino produziert wurde, beim Detektor mit einer gewissen Wahrscheinlichkeit als Myonneutrino beobachtet werden.“… Quelle: https://www.mpg.de/443025/forschungsSchwerpunkt1

Da können religiöse Führer noch eine Menge von Neutrinomachern lernen...

 

Mit der von der "etablierten Physik" (nun) vertretenden Meinung, daß Neutrinos Masse besitzen, ändern sich die phänomenologischen Randbedingungen fundamental. 

       

SM-internes Problem

Massebehaftete Neutrinos sind nicht kompatibel mit dem Standardmodell. Zwangsläufig führen massetragende Neutrinos zum Auftreten von rechtshändigen Neutrinos oder von Majorana-Neutrinos. Rechtshändige Neutrinos unterliegen aber nicht der elektroschwachen oder der starken Wechselwirkung (steriles Neutrino) sondern nur der Gravitation. Majorana-Neutrinos sind ihre eigenen Antiteilchen, so daß die Leptonenzahlerhaltung nicht mehr gewährleistet ist.

Mit anderen Worten: Die „geforderten“ Erhaltungssätze (Energie, Impuls, Ladung und Leptonenzahl) sind bei einem „Zerfall“[Z] zu beachten. Beim Beta-Minus-Zerfall resultiert ein Anti-Elektron-Neutrino (Leptonenzahl -1 gemäß Elektron (Leptonenzahl +1), da auf der „anderen“ Seite des „Zerfalls“ das Neutron steht (Leptonenzahl 0).

Sollte sich das Neutrino als Majorana-Teilchen (eigenes Antiteilchen) "herausstellen" (...heißt eigentlich: ...wenn man sich darauf einigt), so ist diese Unterscheidung hinfällig. Mehr noch: Die Leptonenzahlerhaltung wäre verletzt und würde als Erhaltungssatz nicht mehr gelten!

[Z] SM-Sprachgebrauch

Teilchenphysiker benutzen generell den phänomenologisch falschen Begriff Zerfall obwohl sie Umwandlungen meinen. Zerfall würde bedeuten, die Zerfallsprodukte waren (allesamt) Bestandteile des Zerfallenden. Dem ist aber nicht so, zumindest nicht im Rahmen der theoretischen Implikationen und Postulate des Standardmodells der Teilchenphysik.

 

 

Es existiert eine – ausgehend von den Postulaten zur Schwachen Wechselwirkung - Unbestimmtheit des Beta-Minus-Zerfalls, die eine spezifische Neutrinoexistenz aus phänomenologischer Sicht stark diskussionswürdig macht.

               

Neutrinomassen 0

              

Es existiert energetisch kein verbindlicher Prozess der Umwandlung eines d-Quarks in ein u-Quark

Unabhängig von der SM-konstruierten Leptonenzahl gilt folgendes: Das Neutrino wurde historisch eingeführt weil das Energiespektrum der (emittierten) Elektronen keine diskrete sondern eine kontinuierliche Verteilung zeigt. Doch wenn das Anti-Elektron-Neutrino, mit welcher unteren Massegrenze auch immer, die „fehlende“ Energie aus dem Laborsystem „entführt“ und nur durch die Schwache Wechselwirkung (effektiv*) „wirken“ kann, dann bedeutet das schlicht und ergreifend, daß bereits bei dem Prozess der Schwachen Wechselwirkung ein kinetisches Energie-Kontinuum des postulierten Neutrinos vorhanden sein musste. Denn nach diesem Prozess gibt es gemäß Postulat keine weitere Wechselwirkungsmöglichkeit. Nur wie soll dies phänomenologisch erklärt werden?  

* da die postulierte Graviationswechselwirkung hier nicht "ins Gewicht fällt"

Die lapidare Aussage des SM, daß der Beta-Minus-Zerfall des Neutrons gemäß Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen W-Bosons stattfindet sagt nichts über den konkreten Ablauf aus, wie, woher und warum das Anti-Elektron-Neutrino nun während der Schwachen Wechselwirkung unterschiedliche Energiemengen aufnimmt um die „fehlende“ Energie im Elektronenspektrum zu kompensieren.

 

Beta-Minus-Zerfall des Neutrons gemäß Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen W-Bosons

 

Bei genauer Betrachtung ist die Situation weitaus komplexer, da sowohl postuliert Quarks basierendes Neutron als auch das Quarks basierende Proton zu ~ 99% aus undefinierter Bindungsenergie besteht und sich die Schwache Wechselwirkung (energetisch) somit nur auf ~ 1% des Zerfallsprozesses auswirkt.

Die Masse des d-Quarks [qm] beträgt 4,8 (+0,5 / - 0,3) MeV/c², die Masse des u-Quarks beträgt 2,3 (+0,7 / - 0,5) MeV/c² [qm].

[qm] Quarkmassen : http://pdg.lbl.gov/2013/tables/rpp2013-sum-quarks.pdf

Das bedeutet, der Massenunterschied beträgt zwischen 1,5 bis 3,5 MeV/c². Das Elektron-Anti-Neutrino mit einer Masse(nuntergrenze) von ≤ 2.2 eV/c² kann maximal ~ 0,78 MeV aufnehmen. Gemäß Elektronenenergiespektrum ist die mittlere Energie aber deutlich kleiner als 0,78 MeV, die vom Neutrino "aus dem Laborsystem entführt wird". Was ist mit der fehlenden Energie der Schwachen Wechselwirkung geschehen? "Gluonische Bindungsenergie" kann es nicht geworden sein, da Gluonen nicht an der postulierten Umwandlung eines d-Quarks in ein U-Quark teilhaben. Auch der virtuelle Zauber des ~ 80,4 GeV/c² schweren W-Bosons kann real-energetisch nichts aufnehmen. Hier gilt für die herrschende Physik mehr denn je:

 

"Es ist wichtig, einzusehen, dass wir in der heutigen Physik nicht wissen, was Energie ist."...

Richard Feynman

"It is important to realize that in physics today, we have no knowledge of what energy is."...

 

Wir haben also im Bild des SM anfangs 1 u-Quark und 2 d-Quarks, zwischenzeitlich ein W-Boson und ~ 99% Bindungsenergie (was das auch immer phänomenologisch sein soll) und nach der Umwandlung 2 u-Quarks, 1d-Quark, 99% Bindungsenergie, 1 Anti-Elektron-Neutrino, 1 Elektron und zusätzlich ~ 0,78 MeV Energie. Egal wie die Energieverteilungsmöglichkeiten der ~ 0,78 MeV auf Proton (2 u-Quarks, 1d-Quark, 99% Bindungsenergie), Elektron und Anti-Elektron-Neutrino auch aussehen mögen, der Prozess der Schwachen Wechselwirkung müsste bereits so geartet sein, daß diese Verteilungsmöglichkeiten gewährleistet sind, da nach der Schwachen Wechselwirkung keine Energieabgabe des Neutrinos an das Proton und Elektron mehr möglich ist. Das bedeutet aber, daß es keinen diskreten Umwandlungsprozess eines d-Quarks in ein u-Quark geben kann.

Nicht Diskret bedeutet hier insbesondere: Es existiert energetisch kein verbindlicher Prozess der Umwandlung eines d-Quarks in ein u-Quark. Aus einem Neutron-u-Quark entstehen durch die Schwache Wechselwirkung energetisch unterschiedliche Elektron-Anti-Neutrinos, da ja nach der Entstehung außer der Schwachen Wechselwirkung weitere Wechselwirkungsmöglichkeiten ausgeschlossen werden. Somit existiert keine energetisch eindeutige Umwandlung eines u-Quarks in ein d-Quark. 

Losgelöst von dieser Problematik sei der Vollständigkeit halber auch daran erinnert, daß es sich experimentell nicht um Einzelobjekte sondern um Vielteilchenobjekte (mehr als 1 Neutron) handelt und beschleunigte Ladungen Energie abstrahlen. Es ist wohl nicht davon auszugehen, daß die entstandenen Protonen und Elektronen „plötzlich“ mit einer konstanten Geschwindigkeit vorliegen. „Wo“ ist das assoziierte Photonenspektrum des Beta-Minus-Zerfalls? Wie sieht es aus?

 

Und noch "ETWAS"...

Nach de Broglie kann jedem Teilchen und jedem zusammengesetzten Körper eine Materiewelle zugeordnet werden.

 

Das Konzept der de Broglie Materiewelle liefert einige sehr interessante Aspekte.

Erst einmal ist zu beachten, daß de-Broglie-Materiewellen der (zur Ruhe-Energie additiven) kinetischen Energie der Teilchen entsprechen und nicht den Teilchen selbst, die durch ihre ruhemassespezifischen Comptonwellenlängen charakterisiert sind.

Im Gegensatz zu den Comptonwellenlängen sind de-Broglie-Materiewellen nicht teilchencharakteristisch, da beispielsweise für Neutronen, Elektronen und Protonen, Moleküle bei passender Geschwindigkeit de-Broglie-Materiewellen teilchenunspezifisch als Äquivalent der kinetischen Energien identisch sein können.

De Broglie Materiewellen sind interferenzfähig.

Das Konzept der Materiewelle und dessen „Meßbarkeit“ sind im Vergleich zu Neutrinoexistenz- und Neutrinowechselwirkungs-Postulaten experimentell gesichert und experimentell reproduzierbar.

                    

Experimentell-phänomenologisches Problem

Es gab keine Realobjektphänomenologie für das masselose Neutrino und auch die "Mischkalkulation" für Neutrinomassen ist nichts weiter als eine formalisierte Fiktion. Hier gilt rational logisch und folgend das unlösbare Neutrino-(Nicht-)Existenz-Problem bedingt durch die Phänomenologie der Masse, bedeutet: Wer bewegte Massen will, bekommt auch masseninhärente Materiewellen.

Der Wunsch der Neutrinogläubigen, daß auch massebehaftete Neutrinos nur der Schwachen Wechselwirkung und der Gravitation unterliegen ist eine Theorie-(Schutz-)Behauptung. Hier zeigt sich wieder einmal, wie eklatant sich fehlende Denkmodell-Phänomenologie auswirkt.

 

                         

Da die de Broglie Materiewelle ohne Einfluss einer möglichen (Sub-)Strukturierung nur von der Ruhemasse und der Geschwindigkeit des "Teilchens" abhängt, gilt das Konzept der Materiewelle allgemein. Hier wäre, in Hinblick auf SM postulierte Theorieobjekte und Wechselwirkungsszenarien noch zu bemerken, daß nachweislich die postulierte komplexe (eingekapselte) Quarks-Gluonen-xxx-Struktur keinen Einfluß auf die de Broglie Materiewelle hat, Beweise: de Broglie Materiewellen des Neutrons, Protons, Molekül- und Fullerene- de Broglie Materiewellen.

                         

Es spricht aus Sicht der Materiewelle nichts gegen massebehaftete Neutrinos.

                         

Ein massebehaftetes Neutrino besitzt eine von der Gesamtenergie abhängige de-Broglie-Materiewelle.

Um das plastischer zu machen, betrachten wir den Beta-Minus-Zerfall, der ursächlich zu Wolfgang Paulis Neutrinothese aus dem Jahre 1930 führte.

 

Aus praktischen Gründen werden "Zehnerpotenzen" exemplarisch wie folgt geschrieben: 1,23·10-3 = 1,23e-3. Das hat den Vorteil, daß der interessierte Leser die entsprechenden Zahlenwerte "gleich" in den "Computer" zur "Kontrolle" übernehmen kann (Copy&Paste)

 

 

Nehmen wir an, daß die Masse [M] des postulierten Elektron-Anti-Neutrinos ~2,2 eV/c2 beträgt. Das entspricht einer Masse von ~ 3,92e-36 kg und einer Comptonwellenlänge von 3,59e-7 m.

[M] Für den Fall, das die kinetische Energie viel größer als die Ruheenergie des Neutrinos ist, folgt für die de Broglie Materiewelle λdeB (Ekin » E0) ~ h ·c / Ekin . In diesen Fällen spielt die (Elektron-Anti-Neutrino)-Masse keine Rolle.

Der Beta-Minus-Zerfall des Neutrons, der SM basierend als Schwache Wechselwirkung, gemäß Umwandlung eines d-Quarks in ein u-Quark, mittels negativ-geladenen W-Bosons stattfinden soll, führt im Extrem* zu einer (relativistischen) Gesamtenergie des postulierten Neutrinos von ~ 0,78 MeV, daß entspricht ~ 1,4e-30 kg.

*im Extrem bedeutet, daß Proton und Elektron nach der Umwandlung ruhen, davon ist zwar praktisch nicht auszugehen, hier geht es aber gedanklich um die Bestimmung der kurzwelligsten Neutrinomateriewelle gemäß zur Verfügung stehender Energie.

Daraus ergibt sich ein nahezu „lichtschnelles“ Neutrino mit einem relativistischen Faktor von γ ~ 3,55e5 (γ ~ Eges/E0) und einer resultierenden De-Broglie-Materiewelle von ~ 1,59e-12 m. Zum Vergleich: Die Comptonwellenlänge des Elektrons beträgt ~ 2,43e-12 m.

Gemäß Beta-Zerfall-(kinetische)Energie-Elektron-Spektrums müssen weitere langwelligere Neutrino-De-Broglie-Materiewellen auftreten, die daraus resultieren, das die zunehmende kinetische Energie im Elektronenspektrum, den Neutrinos nicht zur Verfügung steht.

Wie bereits oben erwähnt, kann das vom SM postulierte Elektron-Anti-Neutrino keine diskrete Gesamtenergie besitzen, da es nur über die Schwache Wechselwirkung agiert. Das bedeutet, daß reziprok zum Energiespektrum der Elektronen ein Energiespektrum des Elektron-Anti-Neutrinos bereits bei der Schwachen Wechselwirkung, sprich bei der Umwandlung eines d-Quarks in ein u-Quark, auftritt, gleichgültig welche Masse das Elektron-Anti-Neutrino besitzt.

 

Losgelost vom Betazerfall besitzen alle bewegten massebehafteten Neutrinos, ungeachtet ihrer postulierten Entstehung, Materiewellen. Nun zu behaupten, es gäbe u.a. kontinuierliche kosmische Neutrinoströme, die nicht wechselwirken, widerspricht dem Konzept der Materiewelle. Gäbe es massebehaftete Neutrinos, so würde die Materienwellen assoziierte (kinetische) Energie dieser letztendlich auf vielfältige Weise dazu führen, daß uns allen sehr heiß werden würde. De Broglie Materiewellen sind interferenzfähig.

Die einzige Möglichkeit der Neutrinomacher aus diesem phänomenologischen Neutrinodesaster neutrinogläubig zu entkommen, ist die De-Broglie-Materiewelle für Neutrinos als nicht existent zu erklären.

 

 

 

Higgs-Mechanismus und Higgs Boson

Das Higgs-Boson ist keine direkte Folge einer Eichsymmetrie, vermittelt daher keine Wechselwirkung im Sinne des Standardmodells und wird daher auch nicht als Austauschteilchen angesehen. Das Higgs-Boson wird jedoch „benötigt“, um die elektroschwache SU(2)x(U(1)-Symmetrie zu brechen und so sowohl dem Z- als auch den W-Bosonen Masse zu verleihen.

Formal besteht eine Ähnlichkeit zwischen der Beschreibung der Supraleitung durch Ginsburg und Landau und dem Higgs(-Kibble)-Mechanismus. Der Meißner-Ochsenfeld-Effekt der Supraleitung wird mit Hilfe einer endlichen Eindringtiefe der magnetischen Induktion beschrieben. Dies entspricht einem Masseterm bei den elektromagnetischen Eichfeldern der Hochenergiephysik, wenn man die Eindringtiefe mit der Compton-Wellenlänge der Masse interpretiert. Dieses gern gewählte, anschauliche Beispiel für eine Symmetriebrechung hat aber mit dem konstruierten, "künstlichen" Symmetriebruch des Higgs-Mechanismus phänomenologisch nichts zu tun. Es entsteht der Eindruck, daß mit dem Beispiel des Ferromagnetismus eine emotionale Nähe, sozusagen ein gutes Gefühl, für den Higgs-Mechanismus erzeugt werden soll.

Auffällig ist, daß folgender Sachverhalt kaum thematisiert wird: Der Higgs-Mechanismus startet mit einem Tachyonfeld und damit inhärent verbunden mit einem negativen Massenquadrat (m² < 0). Merke: Das ursprüngliche Higgs-Feld ist ein Tachyon-Feld, mathematisch definierbar, physikalisch irreal. Es gilt generell zu bedenken: Das Higgs-Potential und damit die spontane Symmetriebrechung der elektroschwachen Symmetrie wird „per Hand“ zum SM hinzugefügt. Es gibt keine dynamische Erklärung für diesen Mechanismus. Um den Tachyon-Term „zu umgehen“ wird das Feld als eine Variation um einen Vakuumzustand neu parametrisiert. Dadurch ändert sich das Vorzeichen des Massenterms. Im Verlauf der mathematischen Prozedur zeigt sich, daß ein weiteres masseloses Vektorboson, daß so genannte Goldstone Boson auftritt. Da es aber keinen experimentellen Hinweis für dieses Boson gibt, wird es als "unphysikalisch" erklärt und mathematisch eliminiert („weggeeicht“). 

Allgemein auffällig: Grundsätzlich werden Masse und Masselosigkeit der Theorie-Objekte nach den Fantasiewünschen der Theoriebauer vergeben.

"Fantasiewunsch" ist keine semantische Spitze sondern inhaltlich das richtige Wort. Denn bei neutraler Betrachtung des SM fällt auf, daß im Rahmen des Formalismus Masse und Masselosigkeit je nach Gutdünken der Theoriebauer vergeben werden. Das lässt sich grundsätzlich durch "Neu-Eichungen" realisieren. Doch dieses beliebige Handeln besitzt keinen realphysikalischen Nährwert im Sinne eines Erkenntnisgewinns über phänomenologische Zusammenhänge. Ganz im Gegenteil: Es wird eine physikalische Pseudo-Realität geschaffen, die dann als verbindliche Grundlage dient. Wie sinnlos dieses Unterfangen ist, zeigt exemplarisch die theoretische Forderung nach Masselosigkeit der Neutrinos, die aber - gemäß Neutrinooszillationen - auch von SM-Vertretern anerkannt endliche Massen besitzen. Die theoretische Forderung läuft ins Leere.  

Wenn man alle Terme in der Lagrangedichte des SM berücksichtigt, die möglich sind (lorentzinvariante, eichinvariante und renormierbare), existieren keine, die Neutrinomassen beschreiben. Das liegt daran, daß das SM keine rechtshändigen Neutrinos enthält. D.h. um Neutrinomassen zu beschreiben, muss man entweder nicht-renormierbare Terme einführen, die dann auf Majorana-Massenterme führen, oder man muss neue Freiheitsgrade einführen, sprich rechtshändige Neutrinos. Beides würde über das SM hinausgehen und zur Folge haben, daß Neutrinos ihre eigenen Antiteilchen wären (Majorana-Neutrinos).   

SM-Postulat: Es existiert ein Higgs-Feld an jedem Punkt der Raumzeit, das an die W- und Z-Bosonen und die Fermionen koppelt. Durch diese Kopplung erhalten diese Teilchen Masse. Zusätzlich existiert ein massiver Freiheitsgrad des Feldes, welcher als Higgs-Boson bezeichnet wird. Dieses ist jedoch nicht als solches für die Massen verantwortlich, wechselwirkt aber mit den Fermionen und Bosonen und kann somit erzeugt und gemessen werden.   

 

Mit anderen Worten: Es gibt 3 verschiedene Arten von Termen, die das Higgs-Feld nach der spontanen Symmetriebrechung enthalten: Kopplung des Higgs-Feldes an Fermionen (Yukawa-Terme), Kopplung des Higgs-Feldes an die W- und Z-Bosonen, kinetische- und Massen-Terme für das Higgs-Boson. Aber die „Higgs-Terme“ sind eigentlich keine Massenterme, sondern Wechselwirkungsterme. Erst nach der spontanen Symmetriebrechung "simuliert" ein Teil des Higgs-Feldes „mittels“ Erwartungswert Ausdrücke, die wie Massenterme aussehen.

Ohne Übertreibung kann man wohl „sagen“: Das widersprüchliche, „axiomatisch bedenkliche“, stark inkonsistente SM kann praktisch nichts Reales erklären und schon gar nicht berechnen. Der Higgs-Mechanismus "lebt", salopp formuliert, zu 99% von unbegründeter Bindungsenergie postulierter (nicht [direkt] beobachtbarer) Gluonen. Das Attribut [direkt] kann man sich eigentlich sparen, da auch die folgend postulierten "gluonenbasierenden" Kaskadenereignisse, die zu vermeintlichen Detektionsereignissen werden, auch nicht beobachtbar sind.  Streng genommen ist der Umstand, daß das SM mittels Higgs-Mechanismus nur ein Prozent Masse „hinbekommt“ schon eine Widerlegung dieses theoretischen Ansatzes. Derzeit 25 freie Parameter, variable Kopplungskonstanten und willküraffine Substrukturierungen liefern über postulierte Verknüpfungszahlen (Quantenzahlen) eine „Katalogisierung“ theoriefreundlich selektierter Energiepeaks, respektive (ultra-)kurzlebiger Massehäufchen, welche fast immer nur indirekt detektiert werden können. Die gesamte Theorie reduziert sich fast ausschließlich auf die Interpretation nicht zu beobachtender, postulierter Teilchenbeschleunigerereignisse.

 

Welche Austauschteilchen wohl zwischen mir und den Pferden vermittelt haben?

 

 

Higgs-Boson-Detektion    Wunsch und Wirklichkeit

Bei der Proton-Proton-Wechselwirkung kann auf Grund der Ladungserhaltung offensichtlich kein neutrales Higgs-Boson alleinig entstehen. Wobei diese denkmodellübergreifende Aussage im Standardmodell an Relevanz verliert, da das experimentelle Higgs-Boson am LHC über postulierte Theorieobjekte generiert wird (beispielsweise über die indirekte Fusion von Gluonen). Des Weiteren bedarf es (nach Angaben der "Standardmodell-Verkünder") experimentell mindestens 10 Milliarden Kollisionsereignisse um ein Higgs-Boson zu erhalten. Dieses wird aber keineswegs detektiert. Der vermeintliche "Nachweis" geschieht indirekt über die von der "Theorie" postulierten Zerfallskanäle.

"Randbemerkung" zum SM-Sprachgebrauch

Teilchenphysiker benutzen generell den phänomenologisch falschen Begriff Zerfall obwohl sie jedoch Umwandlungen meinen. Zerfall würde bedeuten, die Zerfallsprodukte waren (allesamt) Bestandteile des Zerfallenden. Dem ist aber nicht so, zumindest nicht im Rahmen der theoretischen Implikationen und Postulate des Standardmodells der Teilchenphysik.

Standardmodell-Sicht: Am LHC kann das Higgs-Boson auf verschiedene Arten produziert werden. Die Fusion zweier Gluonen ist dabei der dominierende Prozess, wobei die Produktion des Higgs-Bosons aufgrund der Masselosigkeit der Gluonen nur über eine Schleife aus massebehafteten Teilchen stattfindet.

 

Das Standardmodell trifft keine Aussage über die Masse des Higgs-Bosons. Die Argumentation zum „Nachweis“ des Higgs-Bosons ist jedoch relativ simpel. Gibt man die Masse dieses Teilchens (125 GeV/c²) vor, so sagt die Theorie vorher, mit welcher Häufigkeit es in Teilchenkollisionen erzeugt und in welche bekannten Teilchen es zerfallen wird:

Ein 125 GeV/c²-Teilchen zerfällt gemäß SM zu 57% in bottom/antibottom-Quarks, 21% in W±, 9% in zwei Gluonen, 6% in Tau/Anti-Tau, 3% Charm/Anticharm, 3% in 2 Z-Bosonen, 0,2% in zwei Photonen, 0,2% in Z-Boson und Photon, 0,6% in "Anderes".

Aber: Die angeblichen Beobachtungen mit großer Higgs-Boson-Existenz-Signifikanz beziehen sich nicht auf die häufigsten Zerfallskanäle  - allen voran  H→bb̅ mit 57% -. Der (theorieinduzierte) 57%-Zerfalls-Kanal führt zur Ausbildung von zwei (Teilchen-)Jets. Diese Signatur ist wesentlich schwieriger von der SM-postuliert viel häufiger auftretenden Produktion von gewöhnlichen (nicht vom Zerfall des Higgs-Bosons stammenden) Jets aus Prozessen der starken Wechselwirkung zu unterscheiden. Diese Situation wäre jedoch vermeidbar, wenn man statt eines Hadronenbeschleunigers einen e+-e--Linearbeschleuniger gewählt hätte, der einen im Verhältnis zum LHC viel geringeren "Hintergrund" erzeugt.

Somit reduziert sich der Stand der Dinge auf folgende Situation. ATLAS und CMS haben im Verhältnis 1 Ereignis zu 10 Milliarden Nichtereignissen Zerfälle eines "neuen Bosons" im "Energiefenster um 125 GeV" in   

zwei Z-Bosonen (führt zu zwei Paaren von elektrisch geladenen Leptonen)

zwei Photonen

zwei W-Bosonen (führt zu zwei elektrisch geladenen Leptonen und zwei Neutrinos)

Zerfall in zwei Tau-Leptonen beobachtet.

["Glückwunsch" zur Macht der SM-Protagonisten das beliebige (relative) Nichts in die Welt der Physik eingeführt zu haben.]  

 

Der etwas andere Interessenkonflikt

Kommen wir noch einmal zurück auf die Aussage, daß das Standardmodell keine theoretische Berechnung zur Masse des Higgs-Bosons "liefern" kann. Diese von den Standardmodell-Theoretikern verbreitete Unmöglichkeits-These ist durchaus obskur, wie im Folgenden erörtert wird. Es existiert ein »paper« namens Higgs-mass predictions von Thomas Schücker, welches am 14.Dezember 2011, also ungefähr ein halbes Jahr vor der "Entdeckung" des Higgs-Bosons am LHC,  veröffentlicht wurde. In diesem »paper« stellt Schücker eine Sammlung von 96 Higgs-Massen-Voraussagen vor, welche erstaunlich viele "Abschätzungen" enthält, die sehr nah, mitunter "verdächtig nah", am "ermittelten" Massewert von mH(experimentell)  ~ 125 GeV/c² angesiedelt sind.

Besonders auffällig und besonders bemerkenswert sind die Berechnungen von D. E. Kahana und S. H. Kahana, veröffentlicht im Dezember 1993 (!)

Top and Higgs Masses in Dynamical Symmetry Breaking

David E. Kahana Center for Nuclear Research Kent State University Kent, OH 44242-0001 and Sidney H. Kahana Physics Department Brookhaven National Laboratory Upton, NY 11973    https://arxiv.org/pdf/hep-ph/9312316.pdf   21.Dec 1993

Abstract

A model for composite electroweak bosons is re-examined to establish approximate ranges for the initial predictions of the top and Higgs masses. Higher order corrections to this 4-fermion theory at a high mass scale where the theory is matched to the Standard Model have little effect, as do wide variations in this scale. However, including all one loop evolution and defining the masses self-consistently, at their respective poles, moves the top mass upward by some 10 GeV to near 175 GeV and the Higgs mass down by a similar amount to near 125 GeV.

..."4.Conclusions.In summary, one gets remarkably stable predictions for the top and Higgs masses and in a parameter free fashion. The only inputs were the experimentally known couplings and the W-mass. A characteristic prediction of this type of theory is mh < mt, so that the Higgs, which is practically a tt¯ condensate, is deeply bound. In view of the present dearth of events from the FNAL experiments with DØ and CDF, the above prediction for the top (near 175 GeV) may not be wholly wild. In light of the recent unfortunate developments at the SSC, the somewhat low prediction for the Higgs mass, near 125 GeV, may take considerably longer to test…

 

Aktualisierte Quelle siehe: Higgs and Top Masses from Dynamical Symmetry Breaking – Revisited

... "predictions by the authors D. E. Kahana and S. H. Kahana , mH = 125 GeV/c² uses dynamical symmetry breaking with the Higgs being a deeply bound state of two top quarks. At the same time (1993) this model predicted two years prior to the discovery to the top its mass to be mt = 175 GeV/c²..."   Die Berechnungen von D. E. Kahana und S. H. Kahana führten letztendlich zu parameterfreien, einfachsten Gleichungen. Zum Vergleich: Die experimentelle Top-Quark-Masse wird (heute) mit 173.34 ± 0.27 (stat) ± 0.71 GeV/c² angegeben.

…”In later work [2] we evaluated the masses self-consistently at the mass-poles, which resulted in predictions of mt ~ 175 GeV, and mH ~ 125 GeV as central values within ranges produced by varying the measured strong coupling”…

  …”The variation of the predicted masses for a range of the strong and electro-weak couplings αs, αW at mW are exhibited in Figure (3) and Figure (4) reproduced from the last work [2], which was submitted to PRD well before the first FNAL publications [3,4] suggesting evidence for the top.”…

[1] Kahana D E and Kahana S H 1991 Phys. Rev. D43 2361–2368

[2] Kahana D E and Kahana S H 1995 Phys. Rev. D52 3065–3071 (Preprint hep-ph/9312316)

[3] Unal G (CDF) 1995 Nucl. Phys. Proc. Suppl. 39BC 343–347

[4] Peryshkin A (D0 Collaboration) 1995 Nucl.Phys.Proc.Suppl. 39BC 353–356

 

Man würde wohl annehmen, daß die äußerst präzisen Berechnungen des Autoren-Teams Kahana/Kahana  als Top-Meldungen, beispielsweise von der SM-"Pressestelle", zu der Top-Quark-Masse- und Higgs-Boson-Masse-"Detektion" verkündet wurden. Aber nichts dergleichen passierte. Spätestens seit der Higgs-Boson-"Entdeckung" sind die Kahana/Kahana-Arbeiten "retrospektivisch" im Rahmen des SM als außergewöhnlich zu bezeichnen. Aber warum gibt es keine adäquate Erwähnung oder gar den Nobelpreis für diese Theorieleistungen? An dieser Stelle drängt sich ein unschöner Verdacht auf, dessen Begründung im Folgenden skizziert wird.

Die Berechnungsgrundlagen des Autoren-Teams Kahana/Kahana stammen aus dem Jahre 1961 von Y.Nambu and G. Jona-Lasinio, veröffentlicht in Physical Review Volume 122, Number 1 April 1. Quelle: Nambu Y and Jona-Lasinio G 1961 Phys. Rev. 122(1) 345–358 

Ein "Problem", welches aus den präzisen K-K-Berechnungen folgt, ist, daß man sich den immensen theoretischen und experimentellen Aufwand spätestens von 1993 bis heute hätte sparen können. Mit Verweis auf  Nambu Y and Jona-Lasinio G 1961 Phys. Rev. 122(1) 345–358  war das gesamte SM-Projekt bereits Anfang der 1960er Jahre erkenntnistheoretisch "mittels" methodischer Zirkelschlüsse abgeschlossen. 

Wir "reden" hier von mehreren Zehntausend Wissenschaftlern, deren materiellen Verdienst, deren Kapazitätsverschwendung und Milliardenbeträgen für alle möglichen Beschleuniger]2. Wir "reden" physikalisch von der uns bekannten naturphilosophischen Erkenntniskatastrophe schlechthin.

]2 List of Particle Accelerators Around the World

K-K führten weiter aus, daß ihre theoretischen Berechnungen letztendlich die nächste, von den SM-Protagonisten gewünschte SM-Modifikationsstufe namens Supersymmetrie (SUSY) "logisch" ausschließt. Mit anderen Worten: Die Voraussagen von K-K identifizieren spätestens seit 1993 das SUSY-Vorhaben als haltlos.

..."The latter in its unbroken form preserves the very chiral symmetry, the breaking of which, after all, yields all of our results. Moreover the early efforts of Buchmuller and Love ]3 in demonstrating the apparent incompatibility of SUSY and dynamical chiral symmetry breaking deserve recognition. One could, of course, break SUSY in the presently accepted ”soft” form but not without loss of the naturalness of dynamical chiral symmetry breaking."...

]3 Chiral symmetry and supersymmetry in the Nambu-Jona-Lasinio model  Max-Planck-Institut für Physik und Astrophysik, Munich, Fed. Rep. Germany , Received 13 April 1982

..."The connection between chiral symmetry and supersymmetry is investigated in the context of a supersymmetric extension of the Nambu-Jona-Lasinio model. A supersymmetric gap equation is found and it is shown that no solution exists which breaks chiral symmetry. A simple physical argument for this phenomenon is given and possible implications for the dynamics of composite models are discussed"...

 

Hier zwei aktuelle "Stimmen" zur inhaltlichen Untermauerung...

Stimme 1   … the discovery of the Higgs boson is a nightmare scenario for everything else, including supersymmetry, extra dimensions, and string theory. Because finding the standard model Higgs at this energy means that there’s no need for any of those things. A Higgs at 125 GeV and nothing else at the LHC, totally consistent with the standard model, mean that if supersymmetry exists, it needs to be at such a high energy that it no longer solves the problem it was designed to solve!...     Quelle: Ethan Siegel  theoretical astrophysicist

Stimme 2   ..."The ground-state Higgs amplitude is indeed very much like the 19th century ether. According to theory, it is constant everywhere in the universe. It does not exert drag, however. The only effect of the universal Higgs field background is to give everything a mass. So why not just drop this whole Higgs theory, and simply say that every particle has some mass? For most purposes, one could of course do this. The reason to care about whether mass comes from a Higgs field, instead of just existing fundamentally, is the technical but very important problem of renormalizability. With fundamental particle masses, interacting relativistic quantum field theory just does not work. Even the simplest calculations lead to infinite integrals. It’s not just an unlucky accident, either; it’s built deeply into quantum mechanics and relativity....

...Finding the Higgs boson is indeed not very much like finding a stable particle. The Higgs is a rare and exotic, highly unstable resonance, at a very high frequency...

...Was it worth all the money it cost, to find an interesting phantom? To be honest, I would not say so. I think there are lots of other scientific problems that would have given us more bang for our buck...

...The last point, perhaps, is that the Higgs discovery is actually a catastrophe for particle physics. It’s the last nail in the coffin. The good scenario would have been to find no Higgs, but instead a zoo of quite unexpected other phantoms. Then there would have been more papers to write and more tunnels to dig. As it is, we give the Nobel prize to a couple of very old guys, and the rest of the entire field has nothing left to do. There could in principle be lots of new things to discover with bigger accelerators, but we see no sign of them, so the scientific case for investing billions more in bigger tunnels is too hard to make. There will be no next generation after the LHC...

...Huge problems remain unsolved. What determines the constants of nature? What (if anything) is dark matter? How does quantum mechanics deal with gravity? Where does the ‘arrow of time’ come from? Particle physics has never made any contribution to those questions, but at one time it seemed that perhaps it might, if we just built a bigger ring. Now the only thing we can do is simply find some big new ideas. That’s even harder than building something like CERN."

Stimme 2 Quelle: Textauszüge der ersten (unzensierten) Antwort des Physikers I (Lehrstuhl für Theoretische Physik) aus dem »Scheunemann-Antwort-Fragen-paper«

Nun, die SM-Protagonisten befanden und befinden sich also von Anbeginn des Higgs-Mechanismus des Jahres 1964 in einer aussichtslosen Situation, aussichtslos insofern man wissenschaftliche Standards berücksichtigt bzw. aufrechterhalten möchte und insofern man sich ein naturphilosophisch konsistentes Denkmodell wünscht. Damit CERN mit dem LHC nicht das gleiche Schicksal ereilte, wie das Fermilab in den USA, musste endlich das Higgs-Boson gefunden werden. Da selbst im Rahmen des selbstprophetischen stark theoriebeladenen Detektionsprozesses  keine "Spuren" von supersymmetrischen Teilchen (S-Teilchen) in den untersuchten Energie-Fenstern zu finden waren, war die Zeit gekommen, ein fundamentales Ereignis, das Higgs-Boson, zu "entdecken". So wie es die Theorie fordert und so, wie es viele gemäß ihrer Berechnungen auch gerne sehen wollten (siehe oben benanntes »Schücker-paper«). Wie wir alle wissen, geschah dies letztendlich nach aufwendiger Rechnerarbeit (iterativ)  2012. 

Nur die 125 GeV/c²-Higgs-Boson-Detetektion ist das endgültige Aus für die Supersymmetrie. Das war eigentlich vom ersten Tag des Higgs-Mechanismus bekannt. Das die SM-Protagonisten nun mit aller Macht krampfhaft versuchen die Energien postulierter supersymmetrischer Partner-Teilchen in, aus heutiger Sicht, unerreichbare Energiefenster erweiterungs-formalistisch zu verschieben entspricht einem "nackten" Existenzkampf. Sie wollen größere Beschleuniger, damit sie ihre Arbeit nicht verlieren und in der Supersymmetrie "weiterleben" können. Sie wollen aus banalen, materiellen Gründen ein erkenntnistheoretischen Schrecken ohne Ende, »wir« jedoch sollten endlich einen Punkt machen und dem Schrecken ein Ende bereiten.  

Die Standardmodell-Arbeit war vom ersten Tag an naturphilosophisch wertlos. Das SM ist eine seit mehr als 50 Jahren anhaltende "beschleunigerendemische" Inszenierung, "bestenfalls" ein Akt naiver Konzeptkunst ohne Gemeinnutz, der Forschungsgelder mit allerlei dokumentierter irreführender Suggestionen, theoriefreundlicher Meßergebnisselektion und theoriebeladener Thesenwillkür abgriff, abgreift und abgreifen möchte. D. E. Kahana und S. H. Kahana erkannten spätestens 1993 klar und deutlich, daß die theoretischen Berechnungsmöglichkeiten bereits in den veröffentlichten grundlegenden Ausführungen des Jahre 1961, sozusagen mathematisch kodiert, vorlagen, also drei Jahre vor dem Higgs-Mechanismus-Geburtsjahr 1964. Ob sie selbst diesen Sachverhalt erkenntnistheoretisch in aller Deutlichkeit realisierten, ist ergebnisorientiert ein nebensächlicher Aspekt. Fazit: Die extrem präzisen Voraussagen zur versuchsinterpretierten Top-Quark-Masse und zur versuchsinterpretierten Higgs-Boson-Masse waren zu keinem Zeitpunkt unbestimmt und anders als die offizielle Aussage der SM-Vertreter bereits im ursprünglichen »Formalismus« enthalten. Die experimentelle Bestätigung der Higgs- und Top-Quark-Masse, gemäß indirekter Detektion im Rahmen der Zerfallskanalanalyse war (und ist) effektiver, aktiver Bestandteil der Zirkelschlussdynamik.

Inwieweit jüngere Wissenschaftler, die im SM-Projekt involviert sind, selbständig sehen und verstehen können, was sich hier abgespielt hat und sich demnächst abspielen soll, ist schwer zu sagen, da diese schon als Schüler mit Quarks-Märchen und artverwandten baren SM-Unsinn infiltriert wurden...

Didaktisch ist die herrschende erkenntnistheoretische Leere seit Jahrzehnten fester Bestandteil der Ausbildung. Der Denk-Monotheismus wird schon Schülern populärwissenschaftlich verordnet. Sollten diese dann, trotz der immensen Indoktrination und gegen alle Erwartung, das Quarks-basierende Protonenmärchen eines Tages realisieren, stehen sie ganz alleine dar. Wer glaubt schon, daß sich zehntausende Wissenschaftler über nun drei Generationen mit Etwas beschäftigten, wenn es nicht das Non plus ultra darstellt? "Milliardenschwere" Teilchenbeschleuniger wurden und werden doch nicht gebaut, wenn das Alles Unsinn ist? Diese "psychologischen Komponenten" wiegen schwer.

 

Neben den oben beschriebenen Zirkelschlussaktivitäten halten wir fest:

... Aus formal-logischer Sicht sind die betragsmäßige Ladungsgleichheit und "Spingleichheit" der Leptonen im Vergleich mit den quarks-basierenden, asymmetrisch ladungsfragmentierten Baryonen fundamentale Indizien für die Widerlegung des Standardmodells. Dieser Sachverhalt ist auch ohne Standardmodell-Detailkenntnis klar verständlich. Preonen, Lepto-Quarks und SUSY als "Auswege" sind gewünscht, aber auch hier verstehen die "Macher" des SM nicht, worauf sie sich einlassen.

"Mit einfachen Worten"... Keine noch so angepasste, ergebnisorientierte, iterative Berechnung postulierter Quarks-basierender Strukturen, mit einer oder mehreren Gluonensorten, relativistischen Interaktionen oder was den Theoriemachern auch immer einfällt, wird aus allgemein anerkannt logischen Gründen erklären können, warum ein solch asymmetrisch-verschachteltes Gebilde im resultierend unvermeidbar nur statistischen Mittel“ das Gleiche liefert, wie das vom SM postuliert strukturlose „leptonische“ Elektron[L]. Der ganze Fantasie-Quatsch des Standardmodells der Teilchenphysik zerbricht schlicht an der Tatsache, daß Elektron und Proton betragsmäßig eine gleiche elektrische Ladung besitzen. Für diese simple Denkmodell-Qualitäts-Analyse muß sich Niemand mit Lagrangedichte, taylorreihenaffinen Entwicklungskoeffizienten, assoziierten millionenfachen Rechenschritten und Theorien rumschlagen, in denen selbst Schreibfehler neue Lösungen generieren.

[L] Wobei, wie könnte es auch anders sein, die propagierte Strukturlosigkeit des Elektrons "relatives" SM-Blablabla ist.

Zur Erinnerung: 

Postulat der QED: Das Elektron ist von einer „Wolke“ aus virtuellen Photonen und virtuellen Elektron-Positron-Paaren umgeben. Was man als Elektronenladung gemäß QED mißt, ist die abgeschirmte Ladung. Die Ladung eines nackten Elektrons (d.h. eines Elektrons ohne Vakuumpolarisationswolke) wird QED basierend als unendlich berechnet. Erst die Subtraktion der gleichfalls unendlichen Ladung der abschirmenden Wolke ergibt die gemessene elektrische Elementar-Ladung. Am Rande bemerkt: Im Rahmen der Mathematik der QFT hat (schon) das Vakuum eine unendlich große Ladung (, die wieder verschwinden muß ...).

Postulierte Ladungsrelativierung

Die durch die Ladung verursachte Polarisation des Vakuums in der Region um die Elementarladung sorgt für einen Abschirmungseffekt. Das führt dazu, daß die beobachtete Ladung keine Konstante mehr ist, sondern vom Abstand bzw. der entsprechenden Energieskala Q abhängt, bei welcher ein Prozess stattfindet. Dies wird als Laufen der Kopplung bezeichnet. In der QED nimmt die Stärke der Kopplung mit steigender Energieskala Q zu.

Die so genannte effektive Kopplungskonstante wird definiert durch:

Der "Sprung" von der Quantenelektrodynamik (QED) mit der Sommerfeldschen Feinstrukturkonstanten α als „kleine“ Kopplungskonstante (k ~1/137) der Störungstheorie zur Quantenchromodynamik (QCD) mit k~1 erfolgt mittels der „Idee der Asymptotischen Freiheit“ (1973 Frank Anthony Wilczek, David Gross, David Politzer, Nobelpreis 2004) . Es wird „bequemerweise“ postuliert, daß die wachsende Energie kleinerer Abstände auch die Kopplungskonstante verkleinert. Auch hier wird Ergebnis orientiert theoretisch postuliert und ein beabsichtigtes „Ereignis“ konstruiert.

"QED-Analoges" SM-Postulat: Wie das Elektron ist auch ein Quark von einer Wolke virtueller Teilchen umgeben, und zwar von Gluonen und Quark-Antiquark-Paaren. Die Farbladung eines Quarks wird durch die Farbladungen der Quark-Antiquark-Paare in der Wolke teilweise kompensiert. Anders als die elektrisch neutralen virtuellen Photonen in der Umgebung eines Elektrons haben die virtuellen Gluonen in der Umgebung eines Quarks ihre eigenen Farbladungen und können daher in Paare von Gluonen übergehen (Selbstkopplung). Als Folge dieser zusätzlichen Beiträge wird im Falle der QCD die Farbladung des Quarks nicht abgeschirmt, sondern erhöht (antiscreening). [Es gibt keine erklärende Phänomenologie zum antiscreening!] 

 

 

Am Rande bemerkt: Die schlechteste skalenübergreifende theoretische Voraussage aller Zeiten  

Die von der Standardtheorie vorhergesagte, in unserem Universum aber nicht vorhandene, "ungeheuere" Vakuumenergiedichte ist ohne Zweifel numerisch die größte bisher bekannte Absage an das Konstrukt quantenfeldtheoriebasierender Berechnungen. Aufgrund von Beobachtungen wird die Energiedichte des Vakuums auf einen Wert der Größenordnung 10−9 J/m3 geschätzt, dieser Wert ist damit etwa um den Faktor 10120 niedriger als in den theoretischen Berechnungen des Standardmodells.

 

Der mathematische „Weg“ einer konstruierten Divergenz

Fassen wir noch einmal zusammen: Auch ohne mathematische Konkretisierung lässt sich die Vorgehensweise qualitativ verstehen. Es wird ein punktförmiges Elektron als strukturloses (elementares) Teilchen postuliert, welches im Ergebnis eine unendlich große Ladung besitzt. Trick: Durch die postulierte Polarisation des Vakuums (spontane Bildung von virtuellen Elektron-Positron-Paaren und virtuellen Photonen) wird die unendliche Ladung des Elektrons abgeschirmt und es ergibt sich die endliche beobachtbare elektrische Ladung. In diesem Zusammenhang kommt es zu einer Ergebnis orientierten Verselbständigung der Mathematik. Es werden als erstes die konstruierten Singularitäten abgespalten (Regularisierung) und dann renormiert (endlich gemacht). Der theoretische Erfolg ist somit selbstprophetisch, daß Ergebnis war bekannt.

Statt unverstandene, phänomenologiebefreite Grössen bzw. Begriffe, wie Ladung und Masse (bestenfalls) auf primäre Begriffe zu reduzieren, werden weitere willküraffine Theorie-Konstrukte postuliert. Außer einer fragwürdigen, realphysikbefreiten mathematischen "Struktur", die mal richtige und mal (sehr) falsche Voraussagen liefert, bleibt erkenntnistheoretisch "Nichts".

Zentrale Fragen werden von den Protagonisten der herrschenden Physik erst gar nicht thematisiert bzw. können gar nicht gestellt werden.

Warum ist das Massenverhältnis von Proton zu Elektron so, wie es ist? Diese Frage ist im Rahmen des Standardmodells sinnleer. Da das Elektron als elementar-strukturlos* angesehen wird. Ein Vergleich von einem strukturlosen mit einem substrukturierten Objekt ist "gegenstandslos".

Warum sollten von allen postuliert »Substruktuierten« nur das Proton zeitstabil sein? "Gleiches" gilt für das postuliert strukturlose ("leptonische") Elektron. Elektron und Proton werden erst konsistent verständlich, wenn man ein Denkmodell verwendet, in dem  eine »elementare Wesensgleichheit« vorausgesetzt wird, die "zwanglos" zum (masselosen) Photon führt und wenn aus diesen Betrachtungen u.a. formal-analytische Gleichungen folgen.

 

 

Wie "schmerzbefreit" SM-Protagonisten sind, wird auch an den angeblich experimentell nachgewiesenen so genannten Delta-Baryonen überdeutlich. Es erübrigt sich die Bemerkung, daß es, wie könnte es auch anders sein, keine direkten Delta-Baryonen-Nachweise gibt. Es existieren gemäß SM vier verschiedene Δ-Baryonen mit Spin3/2 und folgenden Ladungsmöglichkeiten: Δ++, Δ+, Δ0, Δ. Die asymmetrisch gestückelten Quarks-Ladungen bilden in Form der Δ++ also Ladungsträger mit zweifacher Elementarladung.

...Die üblichen Quarks basierenden 1%-u-d-SM-Fantasien der Materie enden also keineswegs mit dem stabilen Proton und langlebigen Neutron. Wer Spaß an noch mehr „Fantasie“ hat, findet „in“ Delta-Baryonen so etwas wie Käfer a la Franz Kafka. Wobei Kafkas Käfer den Vorteil besitzen als Fiktion gelten zu dürfen. Delta-Baryonen hingegen bilden die „harte“ Realität der SM-Gläubigen ab, wenn auch nur für angenommene ~ 6 ·10-24 Sekunden als Spinanregungen des Neutrons und Protons.

Das Tauon (τ-Lepton) ist das schwerste der drei geladenen Leptonen des Standardmodells der Elementarteilchen. Seine Masse beträgt ~ 1777 MeV/c2, die "Lebenszeit" ~ 2,906 ± 0,010 · 10−13 s.

Für das Tauon gilt: „Die Brechstange muss ran“ oder sinngemäß nach Georg Wilhelm Friedrich Hegel (1770 - 1831):

„Wenn die Tatsachen nicht mit der Theorie übereinstimmen, umso schlimmer für die Tatsachen.“

Schaut man sich die möglichen Zerfälle des Tauons an (http://pdg.lbl.gov/2015/listings/rpp2015-list-tau.pdf), so wird (zumindest jedem nicht-SM-Gläubigen) Denker schnell klar, daß es aus analytischer Sicht keinen Zusammenhang zwischen „leptonischem“ Elektron bzw. Myon und dem Tauon gibt. Die Theorie des SM verbaut offensichtlich den Blick auf eine rational-logische Sicht der „Dinge“. Das Elektron zerfällt gar nicht, das gleichfalls negativ geladene Myon wandelt sich hauptsächlich in ein Elektron um. Definitiv gibt es keine - ausgehend vom Elektron und Myon -  „ergebnis-hadronischen“ Umwandlungen zu Mesonen oder Baryonen. Das Tauon wandelt sich zwar zu ungefähr 17,8% direkt in ein Elektron und Neutrinos, zu ca. 17,4% in ein Myon, aber hauptsächlich in diverse Hadronen, z.B. mit 25% in ein π-, π0 und postuliert ein ντ. Am Beispiel des Tauons lassen sich die Inkonsistenz der Theorie sowie die assoziierte „SM-Katalogisierungs-Euphorie“ sehr gut ablesen. Hier gilt „Vieles und Nichts“ wird auf derzeit (Stand 2015) 89 Seiten präsentiert. Das Myon schafft 15 (http://pdg.lbl.gov/2015/listings/rpp2015-list-muon.pdf) und das Elektron bringt es im direkten Vergleich gerade mal auf mickrige 6 Seiten (http://pdg.lbl.gov/2015/listings/rpp2015-list-electron.pdf). In dem Zusammenhang ist es auch mehr als verwunderlich, daß sich „Theoretiker“ ausführliche Gedanken über den g-Faktor des Tauons machen (siehe exemplarisch: Electron, muon and tau magnetic moments: a theoretical update 2007 ), wobei es gar keine (aussagekräftigen) Messungen zum magnetischen Moment des Tauons gibt.  

 

Übergeordnet und deutlich abstrakter als der theoretische Ansatz der folgend skizzierten  „Supersymmetrie“ ist der naive Super-Glaube der Macher und Fans an axiomatische Schöpfungen. Es drängt sich die Frage auf, wie es dazu kommen konnte, daß eine Gruppe von wissenschaftlich Ausgebildeten allen Ernstes fest daran glauben, daß sich die messbare Realität „demnächst“ an SUSY orientiert. SUSY ist interdisziplinär betrachtet ein endemisches Loch im Wissenschaftsbetrieb. Physisch reduziert sich die Welt der SM- und SUSY-Anhänger auf Teilchenbeschleuniger und deren methodisch vorselektierte „Ergebnisse“. Diese werden monatelang in Rechner-Clustern algorithmisch „aufgearbeitet“, bis die von der Theorie gewünschten Resultate vorliegen.

 

 

"Kurz zur SUSY"

Alles super oder was?…

Unter einer Supersymmetrie versteht man eine verallgemeinerte Raum-Zeit-Symmetrie, die eine Transformation zwischen Bosonen und Fermionen beschreibt. Nach dem Coleman-Mandula-Theorem ist dies die einzige Klasse von Symmetrien der S-Matrix, die neben den Raum-Zeit-Symmetrien und den durch halbeinfache Lie-Gruppen beschriebene Eichsymmetrien noch denkbar ist. Wenn die Natur exakt supersymmetrisch wäre, so müssten die durch eine supersymmetrische Transformation verbundenen Bosonen und Fermionen in der Masse entartet sein. Die beobachteten Bosonen und Fermionen zeigen eine solche Massenentartung jedoch nicht, so daß die Supersymmetrie gebrochen sein muß und allenfalls eine näherungsweise Symmetrie der Natur sein kann.

Analytisch betrachtet, „praktisch“ gedacht und vereinfacht ausgedrückt…

Supersymmetrie (verniedlichend und „cute“ SUSY genannt) bedeutet bei schlichter Betrachtung u.a. die Aufhebung der theorieinduzierten Trennung von Fermionen und Bosonen. Des Weiteren fordert SUSY eine Substrukturierung der postuliert „Strukturlosen“, derzeit als Leptonen bekannt. Standardmodelltheoretiker und deren Anhänger scheinen, berauscht von ihren Fantasien, nicht zu verstehen, daß das „SUSY-Konzept der Vereinigung“ das (noch) bestehende Standardmodell der Teilchenphysik (SM) nicht, wie gewünscht, konstruktiv erweitert, sondern demontiert. Die unvermeidliche SUSY-inhärente Anzahl-Aufblähung freier Parameter garantiert zumindest Vollbeschäftigung.

 

 

Steilchen, ich habe Dich bei Deinem Namen gerufen. Du bist mein.“ Quelle: Die Geburt SUSY.

Natur fein aufgepasst, …  „Kurz und fragmentarisch“ zu SUSYs Naturdiktat

Die Annahme der Existenz von dunkler Materie stellt das Standardmodell vor ein unlösbares Problem. Keines der „Standardmodellteilchen“, auch nicht das Neutrino, ist ein geeigneter Kandidat für dunkle Materie. In der Supersymmetrie hingegen kommt das postulierte Neutralino, der Superpartner der neutralen gleichfalls postulierten Eich- und Higgsbosonen, in Betracht.

Ein „phänomenologisch zulässiges“ (es darf gelacht werden) supersymmetrisches Modell der Teilchenphysik ist durch die minimale supersymmetrische Erweiterung des Standardmodells (MSSM) gegeben. Die Brechung der Eichsymmetrie beruht in diesem Modell, wie bei dem Standardmodell, auf dem Higgs-Mechanismus, so daß alle Aussagen zum Massenproblem im Standardmodell prinzipiell zunächst auch für das MSSM gelten. Als zusätzliches Problem taucht im MSSM die Frage auf, wie die Supersymmetrie gebrochen wird. Aufgrund dieser ungelösten Frage kommen zu den 25 freien Parametern des Standardmodells im MSSM weitere 106 freie Parameter hinzu, die überwiegend die Massen und die Mischungswinkel der Superpartner beschreiben. Ohne weitere Annahmen erlaubt die Supersymmetrie keinerlei tiefergehendes Verständnis der Fermionmassen.

Das Higgs-Boson muss also auch im MSSM explizit eingeführt werden. Wie die anderen Teilchen erhält es einen Superpartner, das Higgsino. Allerdings führt die Existenz von nur einem Higgsdublett und seinem Higgsino zu einer Eichanomalie im elektroschwachen Sektor. Dies kann durch die Einführung zweier Higgsdubletts und dazugehörigen Higgsinos behoben werden. Ein weiterer Grund für die Existenz von mindestens zwei Higgsdubletts im MSSM sind die Yukawakopplungen, die aus den trilinearen Termen des Superpotentials stammen.  

Da man keine gleichschweren Superpartnerpaare in der Natur beobachtet, müssen die Superpartner der Standardmodellteilchen wesentlich höhere Massen haben. Eine Brechung der Supersymmetrie ist demnach erforderlich. Aus theoretischer Sicht wäre eine spontane Brechung durch ein asymmetrisches Vakuum wünschenswert, denn so könnte die Lagrangedichte des MSSM weiterhin invariant unter Supersymmetrietransformationen bleiben. Um das Natürlichkeitskriterium der Superpartnermassen zu erfüllen, müsste eine solche Brechung bei der Energieskala der Symmetriebrechung der schwachen Wechselwirkung stattfinden. Dies ist allerdings phänomenologisch ausgeschlossen. Die Supersymmetrie wird daher durch explizite Terme in der Lagrangedichte gebrochen. Um die Natürlichkeit zu gewährleisten, dürfen durch die Brechung keine quadratischen Divergenzen in den Strahlungskorrekturen der Superpartnermassen auftreten. Man spricht von einer sanften Brechung.

Die gegenüber dem Standardmodell hinzugekommenen Teilchen führen u.a. zu einer Verdopplung der Higgsdubletts, daraus resultierend zu weiteren skalaren Moden, die zu massiven Higgsbosonen mischen. Ähnliche Mischungen treten bei den Superpartnern der Higgs- und Eichbosonen und denen der Fermionen auf. Von den acht skalaren Feldern sind die drei Bosonen unphysikalisch, denn sie bilden wie im Falle des Standardmodells die longitudinalen Moden der massiven Vektorbosonen. Es verbleiben fünf massive Higgsbosonen im MSSM. Wie die Eichbosonen der SU(2)L und U(1)Y mischen auch die dazugehörigen Gauginos dank der elektroschwachen Symmetriebrechung zu Eigenzuständen der elektrischen Ladung. Die geladenen Winos bilden mit den zwei geladenen Higgsinos gemischte Masseneigenzustände…(Mensch nicht Lachen, ich kann nichts dafür…, die Kindersprache kommt aus dem Glaubens-Zentrum der Hochphysik-Intelligenz…also bitte politisch korrekt ernst bleiben oder wir brechen jetzt ab…)

...An dieser Stelle sparen wir uns weitere SM-Fantasien im Detail zu Neutralinos, Sfermionen, … und zitieren Theodor Fontane, »Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn. « 

 

 

                              Zwischenklang

„Hintergründe“ zum Mitdenken  …Geschichte wiederholt sich…

Georg Ernst Stahl war neben Johann Joachim Becher ein Hauptbegründer der Phlogistontheorie

Die Phlogistontheorie konnte ausreichend (Oxidations- und Reduktions-) Prozesse verständlich machen.

Die Phlogistontheorie regte dazu an, „feinst verteiltes“ Phlogiston aufzufangen und zu untersuchen.

Die Theorie ermöglichte eine Systematisierung von Stoffgruppen…

Antoine Laurent de Lavoisier „ersetzte“ das Phlogiston durch die „kalorische Substanz“, die gleichfalls unsichtbar sei, kein Gewicht besäße und sich zwischen den Molekülen aufhielte…

Später dann untersuchte Lavoisier die Gewichtsveränderungen verschiedener Stoffe bei Oxidation und bei Reduktion und entdeckte, daß das gerade aufgefundene Element Sauerstoff dabei die entscheidende Rolle spielt und widerlegte die Phlogistontheorie. Vergeblich versuchten die Verteidiger der Phlogistontheorie, wie Henry Cavendish, Joseph Priestley, Carl Wilhelm Scheele diese zu bewahren, indem sie modifizierte Phlogiston-Modelle kreierten.

Selbstversuch: Ersetze Phlogiston durch „moderne Theorieobjekte“ (Quarks, Gluonen,…, Axionen, WIMPs, dunkle Materie, dunkle Energie, dunkle Photonen, …)

„Brennt da was“? „Willkommen im Barock 2.0

Nun stellen Sie sich vor, daß Sie – trotz omnipräsenter Indoktrination der Standardmodellverkünder und  weit verbreiteter SM-generierter moderner Objekt-Märchen – rationales Denken wieder finden… „Plötzlich“ fliegen Ihnen freie Parameter, postulierte Theorieobjekte, postulierte Wechselwirkungen, Nichtbeobachtbares, axiomatische Verletzungen, postulierte Nichtwiderlegungsfrechheit, Beliebigkeitsthesen, »taylorreihenaffines Zeug« und was Sie sonst noch so „drauf haben“ ohne Unterlass solange um die Ohren, bis die Steilchen im Köpfchen komplett verrückt werden und mit Neutrinos wild kopulieren, als wenn es kein Morgen geben würde. Virtuelles beginnt so stark zu glühen, daß selbst die dunklen Photonen traumatisiert das Weite suchen und völlig falsch im Zerfallskanal abbiegen. Dann beginnt das große leptonische Zittern, gefolgt von der Angst kosmischen Ausmaßes, der ohnehin gebrechlichen WIMPs, die aber doch irgendwie auch Lust verspüren. Jetzt zeigt das »SM« seine wahre Bedeutung. Erste Todesahnungen kommen auf. Nun gibt es kein Halten mehr. Verstörte Quarks fressen Gluonen, die Folgen sind fatal. Verstopfte Verdauungskanäle rufen viel zu schwere Vektorbosonen auf den Plan, die eilig an einem neuen Symmetriebruch arbeiten um den alten Zustand wieder herzustellen. Zu spät. All’ das und noch viel mehr endet orgastisch mit einer Flut von Theorie-Objekt-Suiziden, durchaus nicht ungewöhnlich für die 2. und 3. Generation der einst expressionistisch entstandenen Erst-Fantasien. Gleichgeschaltet und völlig enthemmt singt der Beauty-Quarks-Chor politisch inkorrekt „Auferstanden aus Ruinen…“  So abgedroschen es auch klingen mag, jetzt sind sich alle einig, „Lieber ein Ende mit Schrecken als ein Schrecken ohne Ende.“  

Ausblick

Die (Un-)Art der stark theoriebeladenen Messungen und gekoppelten "Theorie-Entwicklungen" war und ist nur möglich, weil keines der postulierten und dann vermeintlich gefundenen „Teilchen“ direkt messbar ist. Der thematisch und experimentell nicht involvierte, naive Wissenschaftler ging und geht jedoch davon aus, daß es stets verbindliche Messungen gegeben hat, die gemäß wissenschaftlichen Standards die Behauptung einer Teilchenexistenz und dessen Teilcheneigenschaften rechtfertigten. Das war und ist aber in keinem Fall der "Beschleunigerphysik" so (gewesen). Die Unmöglichkeit einer direkten Messung ist inhärent mit dem Standardmodell der Teilchenphysik verknüpft.  

Die "Zersplitterung der Materie" als Selbstzweck mathematischer Theorien und die zwangsläufige Zunahme irrelevanten Wissens, insbesondere in Form von unbeständigen virtuellen Teilchen, ist mittlerweile etabliertes Standarddenken. Statt in Vereinfachung endet dieses formale Postulieren und "Theorie-Verfeinern" offensichtlich nicht im Erkenntniszuwachs, sondern in wissenschaftlicher Beliebigkeit. Die auf Mathematik basierende Grundlagen-Physik bedarf dringend einer naturphilosophisch orientierten Reglementierung.

Physikalisch reale Körper-Wechselwirkungen und Viel-Objekt-Strukturen manifestieren die physikalische Realität. Reale Materie besitzt Masse und Ausdehnung (Radius). Realobjektinteraktionen sind meist nichtlinear, dissipativ und irreversibel. Umso stärker Modell-Idealisierungen von diesen natürlichen „Randbedingungen“ abweichen, desto weniger brauchbar sind die Denk-Modelle. Rational logisch folgt: Die mit den Standardmodellen inhärent verbundene real nicht existente Zeitumkehr ist ein starkes Argument gegen diese Modelle (zur Naturbeschreibung). Des Weiteren ist das nicht energieerhaltende Konzept virtueller Theorieobjekte und resultierend virtueller Wechselwirkungen erkenntnistheoretisch gleichfalls ohne Realitätsbezug.

 Der „springende Punkt“: Den Standardmodellen fehlt es generell an plausibler Phänomenologie. Die Behauptung diese wäre nicht mehr denkbar, weil die theoretischen Implikationen, wie die Raum-Zeit, die menschliche Vorstellung sprengen sind Zirkelschlüsse, da hier abstrakte theoretische Modelle zur realphysikalischen Wahrheit erklärt wurden.

Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es phänomenologischer Betrachtungen und Erklärungen.

Das omnipräsente, inhaltliche Problem der herrschenden (Grundlagen-)Physik besteht im Wesentlichen darin, daß im Denken und in resultierenden Formalismen Energie ausschließlich an Masse koppelt. Sobald man jedoch berücksichtigt, daß der Raum eine der Masse entsprechende Energie besitzt, ergeben sich gänzlich neue Betrachtungsmöglichkeiten.