Was ist und was darf sein?

Es geht u.a. um die zentrale Frage, inwieweit konservative Denkstrukturen einem effizienten Erkenntniszuwachs im Bereich der Grundlagenforschung im Wege stehen. Welche realistischen Chancen haben (junge) Physiker, die nicht die gängigen Theorien vertreten? Vorausgesetzt, sie könnten sich von den theoretischen Dogmen selbstmotiviert lösen und ein eigenes Theoriegebäude entwickeln. Die traurige Antwort ist, in der etablierten Physik ist schon lange kein Platz mehr für standardmodellferne Gedanken und deren Protagonisten.

Zur Form des Vortrages: Es gibt mehrere paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe. Ratlosigkeit und Phänomenologieferne werden durch virtuelle Teilchen und postulierte Schnittstellen zwischen theoretischer Fiktion und Realphysik „ersetzt“. Da dies nicht gelingen kann, bedarf es mit fortschreitender Komplexität vieler freier Parameter, variabler Kopplungskonstanten, „wilder Substrukturierung“ und beliebig deutbarer, nicht nachweisbarer Theorieobjekte, wie der »Dunklen Materie« und der »Dunklen Energie«. Aus einem postulierten Austauschteilchen (Photon) werden schnell mal acht (Gluonen), die dann zusätzlich mit weiteren Quantenzahlen ausgestattet werden müssen. Das das Taktieren mit mehr als 20 freien Parametern "Alles" möglich macht, dürfte selbst für "Normalbegabte" verständlich sein. Streng genommen ist exemplarisch das Standardmodell der Teilchenphysik (SM) mit derzeit 25 freien Parametern, stetiger Nachparametrisierung, wiederholter Substrukturierung, Confinement-These,... ein philosophisches und kein physikalisches Denkmodell.

 

Persönliche Motivation und Hintergründe zur Elementarkörpertheorie  von Dirk Freyling

» Distanz schafft Nähe «    Dirk Freyling 48ndf

Korrespondenz und Basisnähe entfalten sich erst mit der nötigen Distanz zur Norm. 

 

Philosophie ist nicht in Sichtweite

Seit Einführung der Quantenmechanik sind Philosophen im Bereich der Theoretischen Grundlagenphysik so gut wie abgemeldet. Das hat offensichtlich stark mit der rein mathematischen Struktur der Beschreibungen zu tun. Gleiches gilt für die „Theoretische Kosmologie“ mittels "äußerst schwieriger" differentialgeometrischer Betrachtungen, "wo" eben auch „Schreibfehler“ neue Lösungen generieren können. Es fehlt den meisten Philosophen schlicht an formalen Kenntnissen um überhaupt Kritik ernsthaft üben zu können. Aber auch wenn Philosophen die angewandte „Mathematik“ verstehen würden, was sollten sie kritisieren? Phänomenologiebefreite Rechenvorschriften bieten keine "naturphilosophisch erreichbare" Angriffsfläche, man kann diese als Denkmodell-Grundlage nur kategorisch ablehnen.

Zur Verdeutlichung: Auch das Standardmodell der Kosmologie (Lambda-CDM-Modell) basiert auf einem mathematisch-theoretischen Konstrukt mit einer großen Anzahl freier Parameter. Mit diesen, stetig nachkorrigierten freien Parametern entsteht eine komplexe Deutungs-Beliebigkeit, die jede Theorie unterstützt, die gewünscht ist.

Ausgehend vom Quantenfeldvakuum besteht eine der wortwörtlich großen Schwierigkeiten darin, daß eine Energie im Vakuum angenommen werden muss, die ihre Auswirkungen in die ART „verschleppt“. Es stellt sich in Verbindung mit der kosmologischen Konstante die Frage: Ist die Nullpunktenergie real? Oder verflüchtigt sie sich eines Tages, so wie zuvor Lichtäther und Dirac-See.  

Der Urknall ist nur Marketing  (Robert Betts Laughin)

Spiegel-Interview mit Physik-Nobelpreisträger Robert Betts Laughlin …“ich bin es satt, in Seminaren zu sitzen und mir Spekulationen über Schwarze Löcher und Superstrings anzuhören. Niemand redet da über Experimente. Wer wirklich originelle Dinge hervorgebracht hat, der weiß: Du musst dich zu disziplinieren wissen. Rede nur über Dinge, die auch messbar sind.“…

Zur Beliebigkeits-Problematik der freien Parameter gesellt sich noch die unvermeidbare „axiomatische Verletzung“ des Kovarianzprinzips. Salopp "formulierter" Hintergrund: Die Allgemeine Relativitätstheorie wurde u.a. aus der Forderung geboren, zur Beschreibung der Naturgesetze beliebige Koordinatensysteme verwenden zu können. Entsprechend dem Kovarianzprinzip sollte die Form der Naturgesetze nicht entscheidend von der Wahl des speziellen Koordinatensystems abhängen. Diese Forderung ist ursächlich mathematisch und führt zu einer Vielfalt von möglichen Koordinatensystemen [Metriken].

Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie (ART), die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen. Gemäß ART-Postulat trägt nicht nur Masse, sondern auch jede Form von Energie zur Krümmung der Raumzeit bei. Dies gilt einschließlich der mit der Gravitation selber verbundenen Energie. Daher sind die einsteinschen Feldgleichungen nichtlinear.

Erst Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen. Die unvermeidbaren ("kovarianten") Widersprüche kommen mit den offensichtlich unzulässigen Idealisierungen und Näherungen des Systems von nichtlinearen, verketteten Differentialgleichungen. Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung „entschwindet mit der Verstümmelung“ (Idealisierung und Näherung) der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch korrekten Gleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung. Diese Art des Mathematikgebrauches ist willkürlich, da je nach „Geschmack“ der (selbst)gewählten Metrik andere Ergebnisse erhalten werden.

(Gegen-)Beispiele: Ein zum Standardmodell der Kosmologie "alternatives" Denkmodell, wie »MOND« (Modified Newtonian Dynamics), siehe exemplarisch die „Streitschrift“ von Pavel Kroupa  „The failures of the standard model of cosmology require a new paradigm” http://arxiv.org/pdf/1301.3907v1.pdf, arbeitet letztendlich (leider) auch mit variablen Kopplungen.

Stringtheorien potenzieren aus erkenntnistheoretischer Sicht nochmals das „Phänomen der Unanschaulichkeit“. Stringtheorien sind u.a. ein „Sonderfall“ variabler Kopplungskonstanten. Jedoch sind diese Kopplungskonstanten keine vorbestimmten, anzupassenden oder universellen Parameter. String-Kopplungskonstanten sind Skalarfelder, die von der Position in Raum und der Zeit abhängen können, deren Werte so dynamisch festgelegt werden. Die eindimensionalen Strings sind zwar offensichtlich anders als die nulldimensionalen Punkte des SM,  aber Stringtheorien sind ergebnisorientiert, trotz der "Mehrdimensionen" in denen sich die Strings „breit machen“, keineswegs grundsätzlich verschiedene Konzepte im Vergleich zu den herrschenden Quantenfeldtheorien, wie häufig gedacht und behauptet wird. Auch Stringtheoretiker sind bemüht Quarks & Co theoretisch zu konstruieren. Das gesamte Arsenal an Beliebigkeit in Form nicht direkt messbarer instabiler „Teilchen“, die im Beschleuniger (theorie-)induziert werden, will die Stringtheorie „ungeprüft“ abbilden (formal nachbauen). Das Dogma der SM-Theorieobjekte bleibt also erhalten. Derzeitige Stringtheorie-Modelle sind so aussage- und gegenstandslos, daß selbst die Protagonisten des realobjektbefreiten Standardmodells keine („wirkliche“) Angst vor diesen haben.

Logisches Fazit: Der Wechsel von einem mathematischen Fokus auf einen anderen mathematischen Fokus stellt keinen Paradigmenwechsel dar.

Denkmodelle müssen absolut begriffstransformierbar sein, um eine epistemologische Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht außerhalb der Mathematik vermitteln lässt, ohne daß sie ihren exakten Bedeutungsanspruch verliert, ist im Rahmen eines physikalischen Denkmodells stets eine erkenntnistheoretische Nullnummer. Es wäre die Aufgabe der Philosophen, diese erkenntnistheoretischen Aspekte "klar zu machen". Das würde aber voraussetzen, daß Philosophen verstehen, was Standardmodelle eigentlich sind. Es ist zu befürchten, daß die abgekoppelte Neuzeitphilosophie keine Kapazitäten in Form von adäquat (aus-)gebildeten Denkern besitzt, um das sozusagen mit jungen Kräften zu realisieren.

Was wäre ein Paradigmenwechsel?

U.a. bedingt durch die These der Inflationszeit (temporär vielfache Überlichtgeschwindigkeit) ist der Raum, die Raumzeit von der Materie in den Standardmodellen entkoppelt worden.

Grundlage eines Paradigmenwechsels, in Form eines konsistenten Denkmodells, das als solches erkenntnistheoretisch grundlegend verschieden von herrschenden Modellen ist, ist ein masse-gekoppelter Raum, statt eines derzeit propagiert masse-entkoppelten Raumes.

 

 

 

 

"out of the box"   Was mich seit Wiedereintritt in das Erkenntnis-Gebäude der Theoretischen Grundlagenphysik, beginnend Februar 2012, wirklich aufgehalten hat und nach wie vor sehr zeitraubend ist, war herauszufinden bzw. ist herauszufinden, wieso die Verkünder der Standardmodellphysik all diesen offensichtlich widersprüchlichen Konzepten folgten und folgen, die Beliebigkeit und Nichtnachweis zur "Norm" erklären. Es drängt sich der Verdacht auf, daß insbesondere die Protagonisten der jüngsten Generation von Theoretischen Standardmodellphysikern ausschließlich im praktizierten Formalismus verankert sind. Um jedoch die vielfältigen Zusammenhänge durchschauen und verstehen zu können, bedarf es u.a. beträchtlicher historischer Kenntnisse. Diese gehören leider seit mehreren Jahrzehnten nicht zur Schul- und Universitätsausbildung von Physikern und Mathematikern. Zentrale Fragen einfacher Anschauung werden also weder in einem historischen Kontext erörtert noch im Rahmen der herrschenden mathematischen Modelle adressiert.

Es ist nicht leicht einem Menschen, der zumindest im Kern einer Sache Realitätsnähe und Verhältnismäßigkeit erwartet, zu erklären, daß dem oft nicht so ist, insbesondere wenn es sich um (vermeintlich) wissenschaftliche Themen handelt. Alle verbreiteten Standardmodelle, insbesondere wenn diese über größere Zeiträume herrschen, beinhalten Machtpositionen und Versorgungsstrukturen. Die Machthalter und Nutznießer werden alles tun um diese Zustände aufrecht zu erhalten. Das gilt nicht nur für organisierte Weltreligionen oder politische Systeme. Pluralismus, Selbstkritik und Erkenntniswunsch sind keine Charakteristika erfolgreicher Standardmodelle. Es macht im Ergebnis keinen Unterschied ob es in diesen Systemen Wissenschaftler gibt, die wirklich voller Inbrunst an diese, an Beliebigkeiten und Widersprüchen schwer zu überbietende, "Theorien" glauben oder ob es letztendlich banale wirtschaftliche Interessen der Protagonisten gepaart mit akademischer Macht sind...

Besonders eklatant ist der Umstand, daß im Vergleich zu organisierten Religionen, die Theoretische "Grundlagen-Physik der Teilchen" für sich in Anspruch nimmt, ein hohes Maß an Objektivität und Glaubensfreiheit zu verkörpern. Und so sieht es auch die interessierte Bevölkerung. Die Theoretische Physik ist sicherlich in vielen Köpfen einer der letzten Schau-Plätze an denen man Glaubensbekenntnisse statt Wissenschaft vermutet. Der wissenschaftliche "Denkmodell-Monotheismus" wird schon Schülern populärwissenschaftlich verordnet. Sollten diese dann, trotz der immensen Indoktrination und gegen alle Erwartung, im Rahmen eines Physikstudiums das quarksbasierende Protonenmärchen eines Tages realisieren, stehen sie ganz alleine dar. Wer glaubt schon, daß sich zehntausende Wissenschaftler über nun drei Generationen mit Etwas beschäftigten, wenn es nicht das Non plus ultra darstellt? "Milliardenschwere" Teilchenbeschleuniger wurden und werden doch nicht gebaut, wenn das Alles Unsinn ist? Es gibt doch keine Physik-Nobelpreise für Falschaussagen, oder*. Diese "psychologischen Komponenten" wiegen schwer.

 

 

*Der nobelpreisgekrönte Irrtum    1938 erhielt Enrico Fermi für seine Arbeiten den Nobelpreis für Physik, obwohl seine Interpretation des Neutronenexperiments (Erzeugung von „Transuranen“) nach späterem Kenntnisstand eine fehlerhafte Spekulation ohne Beleg war. Bedenken gegen Fermis Resultate erschienen allenthalben in wissenschaftlichen Mitteilungen. Aristide von Grosse, ein früherer Mitarbeiter Hahns, machte geltend, daß es sich bei einem der angeblichen Transurane um Vertreter des von Meitner und Hahn sechs Jahre zuvor entdeckten Protaktiniums mit der Ordnungszahl 91 handeln könne. Die Gruppe Meitner-Hahn-Straßmann verwarf diesen Gedanken. Sie entschied: Fermi hat recht. Das Trio selbst glaubte weitere Transurane mit Ordnungszahlen bis zu 96 gefunden zu haben und entwickelte eine plausible Theorie für ihre Entstehung. Die Erfolgsmeldungen aus Berlin mögen dazu beigetragen haben, daß alsbald an mehreren anderen Instituten Transurane gefunden wurden und schließlich Enrico Fermi 1938 den Nobelpreis für seine Entdeckung erhielt. In Wirklichkeit aber waren diese neuen Stoffe allesamt keineswegs „transuran“, sondern Vertreter längst bekannter Elemente mit mittleren Plätzen im Periodensystem. An der verwendeten Mathematik in der falschen Theorie zur Erzeugung von Transuranen lag es jedenfalls nicht.

 

Eine Anregung: Die Suggestion einer realmessbaren Situation für Theorieobjekte der Standardmodelle scheint mantramäßig auf „die Masse(n)“ zu wirken. Um hier eine selbständige Analyse vornehmen zu können, sollten Aussagen selbständig überprüft werden: Ob Neutrino, Higgs-Boson oder man denke sich ein beliebiges Teilchen aus dem Beschleuniger aus, keines ist zeitstabil, keines wurde je direkt gemessen. Umso tiefer man in die konkrete Konzeption und die technische Realisation des Messvorganges „eindringt“, umso deutlicher wird verständlich, wie theoriebeladen, beliebig und aussagelos die Experimente sind. Man sollte nicht einfach an eine korrekte Meß-Existenz glauben, sondern selbst die messtechnischen Randbedingungen sowie theoretischen „Implikationen“ die die angeblichen Existenzbeweise liefern überprüfen.

Die eigene Modellforschung ist somit zwangsweise mit den Postulaten, Thesen und stark theoriebeladenen Experimenten der bestehenden Modelle konfrontiert. Sofern etwas Geduld und Neugierde vorhanden sind, lassen sich dem thematisch Interessierten die wesentlichen Unstimmigkeiten und schwerwiegenden logischen Denkfehler der Standardmodelle plausibel machen.

Logisch erfassbare Randbedingungen   Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus der auf abstrakte Symmetriebeziehungen baut, so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess ohne realphysikalisch basierenden Hintergrund.

Eigene Geschichte   „Schuld ist“ Nobelpreisträger für Physik (des Jahres 1985) Klaus von Klitzing. Er hielt im Rahmen einer Jubiläumsfeier an der Universität Duisburg einen Gast-Vortrag und referierte u.a. über das Thema Naturkonstanten und in dem Zusammenhang bekräftigte er die Idee des Zufalls in der Natur. Das widersprach und widerspricht meinem Denken über Natur. Da ich mich fragte ( heute ist diese Frage "politisch inkorrekt" ), warum jemand überhaupt einen Nobelpreis für Experimente zur Quantelung des Magnetfeldes bekam, da ich das «quantisierte Magnetfeld», im Rahmen quantenfeldtheorie-basierender Formalismen als stringent weiter gedacht, voraussetzte, entstand eine gewisse sportliche, nonkonforme Motivation, mich intensiv mit dem Sein der Materie zu beschäftigen. So entstanden im Jahre 1986 die ersten Ausführungen zur Elementarkörpertheorie.

 

                 Anders als erwartet...

Da ich als „Arbeiterkind“ über den zweiten Bildungsweg - sprich „mittlere Reife“, Ausbildung zum Chemielaboranten, kurzzeitig Schichtlaborant, parallel zur Ausbildung und zur Schichtarbeit Fachabitur in Abendform und Brückenkurse - meinen Weg zum Studienplatz selbstmotiviert, nicht selten autodidaktisch und „hart“ erarbeiteten musste, war die freiwillige Aufgabe des Physik-Studiums alles andere als absehbar und für die meisten Beobachter nicht nachvollziehbar. Insbesondere, wenn man berücksichtigt, daß ich nach meinem Vordiplom, u.a. mit sehr guter Leistung in der Theoretischen Physik, auch meine Diplom-Abschlussprüfung im gewählten Nebenfach der Metallorganischen Chemie schon erfolgreich „hinter“ mich gebracht hatte. Mein selbstmotivierter Abbruch während der Diplomarbeit im Bereich Festkörperphysik/Konversions-Elektronen-Mößbauerspektroskopie war u.a. die Folge meiner damaligen Lebensumstände und der Erkenntnis zuzuschreiben, daß der Wissenschaftsbetrieb unter dem Dogma der Quantenfeldtheorie basierenden Wahrscheinlichkeitsbetrachtungen sozusagen als "Standard des Verstehens" erkenntnistheoretisch nichts wesentlich Neues generiert. Festkörperphysik als solche interessierte mich nur am Rande. [...Es gibt nach wie vor keine befriedigende Theorie für die Häufigkeit und den Prozess der Konversionselektronen(-Entstehung).]

 

 

Es folgten mehr als zwei Jahrzehnte grundlagenphysikferner intensiver Beschäftigung mit Erotik, Kunst und assoziierter Gesellschaft. U.a. mit dem Versuchsergebnis: Nahezu alle Probanden der so genannten freien Gesellschaft sind bei genauer Betrachtung Hilfserotiker. Tagelöhner der Lust ohne erotische Kultur und ohne Aussicht auf Entwicklung. Mit der erschwerenden Randbedingung, daß sie sich dessen so gut wie gar nicht bewusst sind.

 

Diese Ergebnisse haben vielerlei Gründe. An anderer Stelle findet man im „Netz“ Fragmente zu diesem tragischen Körperverlust des Neuzeitmenschen.

 

 

 

"Wiedereintritt"

Anfang 2012 stieß ich durch Zufall auf das Ergebnis der Protonenradiusmessung am myonischen Wasserstoff aus Juli 2010 am Schweizer Paul Scherrer Institut. Mit dem Ergebnis: Jetzt will ich es wissen. Die Abweichung von  ~ 4,4% zum CODATA-Wert ist bis heute der "etablierten Physik" ein Rätsel. Die sensationelle, formal einfache Voraussage des Protonenradius im Bild der Elementarkörpertheorie erzeugt(e) Freude und war der Auftakt zu intensiver Elementarkörper-Denkmodell basierender Forschung. Mein Kontaktversuch mit Dr.Randolf Pohl vom Max-Planck-Institut für Quantenoptik, einem der benannten Physiker der Protonenradiusmessung, war ergebnislos. Das Telefonat ergab, daß sich Herr Pohl kategorisch nur für die in einschlägigen Magazinen „ordentlich“ veröffentlichten „scientific papers“ interessiert.

[ http://www.psi.ch/media/proton-size-puzzle-reinforced ]

[ http://www.psi.ch/media/weiter-raetsel-um-das-proton ]

 

Denkmodell-Geschichte Ursprünglich stellte ich mir schon 1986 die Frage, welche mathematische (Ur-)Gleichung den relativistischen Faktor der Lorentztransformation abbildet. Darüber hinaus: Da die SRT „inertialsystembelastet“ ist, musste zwingend für einen dynamischen Entwicklungsprozess v = const. durch v = dr/dt ersetzt werden. Im Umkehr-Ergebnis folgt Elementarkörpertheorie basierend der dynamisierte „relativistische“ Faktor aus der Entstehungsgleichung r(t).

 

Rein „mathematisch“ betrachtet handelt es sich um eine Schwingung. Der fundamentale Unterschied ist, daß es hier zu einer Zustandsänderung kommt. Reine Bewegungsenergie wandelt sich zeitabhängig in einen masse-radius-gekoppelten "Raum". Diese Zustandsänderung ist abgeschlossen, wenn r(t) = r0 und m(t) = m0 ist. Wobei der Raumbegriff sich hier auf die Überlagerung zweidimensionaler Kugeloberflächen bezieht. Die bis zu einem Maximum expandierende Kugeloberfläche, die im Grenzfall eine infinitesimale Oberflächendicke besitzt, dürfte (fast) jedem anschaulich erscheinen.. Das eingeschlossene Raumvolumen als solches ist leer. Die Physik spielt sich auf der zeit-, respektive wechselwirkungsabhängigen Oberfläche ab.

Anfang 2012 "klebten" die Berechnungen noch am Protonenradius. Mit Entwicklungspausen entfaltete sich in den Folgejahren ein konsistentes Denkmodell welches, phänomenologisch begründet, korrespondierend Photon und radius-masse-gekoppelte Materie, sowie Mikro- und Makro-Kosmos vereint. 

Modern ausgedrückt: Die grundsätzliche Denkmodell-Forderung besteht darin, daß möglichst minimalistische Gleichungen sowohl das masselose Photon als auch massebehaftete Materie abbilden. Die Entstehungsgleichungen r(t) = r0 ·sin(c ·t/r0) und m(t) = m0 ·sin(c ·t/r0) leisten genau das. Die zeitlose Lichtgeschwindigkeit - als Zustand reiner Bewegung -  steht nicht im Widerspruch mit der Materie-Energie-Verkörperung. Für t = 0 handelt es sich um reine Bewegungsenergie (Photon). Für t = (π ·r0) / (2 ·c) ist die Umwandlung in masse-radius-gekoppelte Energie abgeschlossen, wir erhalten ein Realobjekt mit den charakteristischen Grössen r0 und m0. In diesem Zusammenhang ist die Invarianz der [Vakuum-]Lichtgeschwindigkeit auf eine phänomenologisch begründete Zustandsänderung zurückzuführen und nicht auf Mathematik in Form von Bezugssystemen und deren Verknüpfungen. Energie-äquivalent wird die Gesamtenergie des masse-radius-gekoppelten Realobjektes durch die Comptonwellenlänge ½π ·r0 definiert. Somit ergibt sich auch die Comptonwellenlänge "objekt-natürlich" als Ergebnis der Zustandsänderung.

Der relativistische Faktor der Lorentztransformation war für mich so etwas wie ein von aussen bestehender (mathematisch formulierter) „Reflexionskeim“, der mich dann, losgelöst von der SRT, zur Dynamik der Materiebildung „führte“.

Der Formalismus der SRT bildet nach einem subjektiven Denkmuster die physikalische Realität der Invarianz der (Vakuum-)Lichtgeschwindigkeit ab, macht aber keine Aussage zur bekannten Materiebildung. Auch die ART erbringt keine Aussagen zur Materie. Hier kam/kommt die (fast) verlorene Denk-Neutralität ins Spiel, wenn man so will, ein ergebnisorientierter Denkmodellpluralismus. Entkoppeln wir die bestehende, assoziierte Theorie vom Experiment, so bleibt nur die Invarianz der (Vakuum-)Lichtgeschwindigkeit. An dieser Stelle ist es eher hinderlich (im Hinterkopf) Begrifflichkeiten der RT wie Zeitdilatation oder Raum-Zeit-Kontinuum stets „vor Augen“ zu haben. Denn es zeigt sich, dass die „verkörperten“ Sinusfunktionen (r(t) und m(t))  viel „mächtigere Reflexionskeime“ sind, als der daraus abgeleitete relativistische Faktor der Lorentztransformation, der nur eingeschränkt für v = const. („inertialsystembelastet“) gilt. Plakativ formuliert hat das wesentliche Element der Lorentztransformation (relativistischer Faktor) einst seinen „denkauslösenden“ Zweck erfüllt. Von der Relativitätstheorie als solche, fließen keine weiteren „Theoriefragmente“ in die Elementarkörpertheorie ein.

 

Am Rande bemerkt: Glaubenspsychologische Aspekte

Es ist nahezu sinnlos einem Relativitätstheoriebefürworter argumentativ-kritisch gegenüberzutreten, so wie es sinnlos ist, einem Relativitätstheoriegegner zu erklären, daß Teilaspekte der RT zumindest als "Reflexionskeime brauchbar" sind. In keinem Fall werden von den Protagonisten der gespaltenen Lager Argumente realisiert. Das liegt nicht daran, daß meine Argumentation schwierig ist und meist auch nicht darin begründet, daß die Meinungsvertreter geistig nicht in der Lage wären, logische Schlüsse zu ziehen, es handelt sich vielmehr um eine fundamentale, emotionale Ablehnung des "anderen Glaubens".

Was mich persönlich zu Tode langweilt, sind beispielsweise Gedankenexperimente die mit Beobachter-Uhren beginnen. Es scheint den Relativitätsgegnern nicht möglich zu sein, zu verstehen, daß auf Grund der "freien" RT-Parameter Zeitdilatation, (eindimensionaler) Längenkontraktion und geschwindigkeitsabhängiger (relativer) Massenzunahme im Rahmen der Theorie-Axiomatik die RT nie falsch sein kann. Das bedeutet aber eben nicht, daß die (S)RT realphysikalisch brauchbar ist. Brauchbar in dem Sinne, daß aus dem mathematischen Theorie-Konzept Berechnungen zur Materiebildung ableitbar wären.

Der Sachverhalt, daß die Invarianz der Lichtgeschwindigkeit materiebildend eine radialsymmetrische Zustandsänderung "verkörpert" erschließt sich weder den RT-Befürwortern noch den Gegnern. Das liegt letztendlich daran, daß mit dieser Erkenntnis ein weitreichender emotionaler Bruch einhergeht, denn beide Lager verlieren mit dieser rational fassbaren Erklärung ihr "geistiges Spielzeug", alle sind Verlierer ihrer Standpunkte.

Form und Inhalt

Es gibt nicht wenige Stellvertreter der "Modernen Physik" die meine gestalterische Wahl kategorisch ablehnen. Es wird eine wissenschaftliche Präsentation verlangt, so wie man sie kennt. Diese Forderung ist inhaltlich belanglos, wenn man den dazugehörigen, andauernden, weltweiten "Feldversuch" betrachtet. Selbst wenn »Prof.Dr.Tralala« ein "normgestaltetes" Dokument präsentiert, wird er, sofern seine Ergebnisse von den Standardmodellansichten signifikant abweichen, schlicht ignoriert, wie jeder Interessierte an zahlreichen Beispielen der Wissenschaftsgeschichte selbst recherchieren kann.

Die formalanalytischen Ergebnisse meiner Arbeit sind transparent nachvollziehbar. Ich präsentiere meine Ergebnisse so, wie ich es interdisziplinär für zweckmäßig halte. 

 

System-Verkünder und Epigonen  

Aufschlussreich ist in diesem Zusammenhang auch die generelle Methodik vieler systemtreuer Blogbetreiber gegenüber Systemkritikern. Es existiert meist ein signifikanter Unterschied zwischen dem suggerierten Anspruch, den Blogbetreiber auf Grund ihrer akademischen Ausbildung und verfassten Artikel "einwerfen", und der „Qualität“ ihrer Kommentatoren. Wobei hin und wieder starke Zweifel aufkommen, ob die "akademischen Blogbetreiber", neben dem gelernten, rein faktischen Wissen im Sinne der Systemphysik, eine eigene nennenswerte logisch-formale Denk-Ebene erreichen können. Die »Blog-Kommentar-Epigonen« fühlen sich methodisch dazu berufen, ihr meist rudimentäres Wissen mit allerlei Emotionen und Beleidigungen gegen Alternativ-Denker in Kommentarfeldern auszuschmücken. Es gibt eine Reihe von bekannten Systemkritikern, die ein solches "Schicksal erleiden". Die Psychologie der Masse(n) wird hier von web-lokalen Meinungsführern (Blogbetreibern) instrumentalisiert um Systemkritiker auf einem modern-medial inszenierten bedenklich schlechten menschlichen Niveau niederzumachen.

 

"Exemplarisches"

Ein „Freund“ der Stringtheorie(n) unter Standardmodellgläubigen

Insbesondere aus psychologischer Sicht sind die in den artikelfolgenden [1 2] Kommentarfeldern abgesonderten Glaubensbekenntnisse exemplarische Kennenlernfragmente für weit verbreitete wissenschaftsferne Denkhaltungen. Positiv: Heescher verweist auf das ein oder andere Problem der Standardmodelle. Heeschers Schreib-Engagement ist als „fleißig“ zu bewerten. Heescher bewahrt insbesondere auf 2 Haltung und lässt plattformübliche Beleidigungen der Kommentatoren gegen ihn als Andersdenkenden meist unkommentiert im Raum stehen.

Was kann man aus [1 2] lernen?  Offensichtlich weder die (hier nichtartikelschreibenden,) grundlagenbildenden Akteure und schon gar nicht die Nachplapperer der Stringtheorie(n) und Standardmodelle „kennen“ realphysikalisch orientierte phänomenologische Begründungen oder „kennen“ irgendeine Form des direkten Nachweises. Dringliche Fragen und gravierende Denkmodell-Inkonsistenzen der Glaubensrichtungen „String“ und „Standard“ werden in den Artikeln erst gar nicht thematisiert. Um besser verstehen zu können, warum es im Rahmen der Standardmodelle und Stringtheorien keine phänomenologisch begründete Modell-Physik und u.a. ausschließlich „Abstrakt-Gläubige“ gibt, eignen sich die Artikel [1 2] als dokumentierte Lehrbeispiele.

1 Higgs to be or not to be? Ein Blog-Beitrag von Freitag-Community-Mitglied Rüdiger Heescher

2 Dunkle Photonen und protophobische X-Bosonen: Die Entdeckung einer neuen Fundamentalkraft? von Florian Freistetter

 

Merke: Ehrgeiz, Selbstdisziplin und eine gute Portion Egozentrik sind Grundvoraussetzungen für selbständiges Denken und Handeln. Die in heutiger Zeit angestrebte Gleichmacherei wertet diese zunehmend als politisch unkorrekte Eigenschaften. In der „Spitze“ könnte man sagen: Ein nachplappernder, noch nicht ganz funktionaler Analphabet mit immerhin ausreichender Twitter-Fähigkeit ist deutlich massentauglicher als ein kritischer Individualist, der komplexere Sätze schreiben, lesen, verstehen kann und selbständig denkt.   

Kurz gesagt: Wer Gruppenzugehörigkeit anstrebt wird nicht zum kritischen Denker. Kritiker werden von der Masse als unliebsame Störer empfunden. Mit den Worten Gustave le Bons „Nie haben die Massen nach Wahrheit gedürstet. Von den Tatsachen, die ihnen mißfallen, wenden sie sich ab und ziehen es vor, den Irrtum zu vergöttern, wenn er sie zu verführen vermag. Wer sie zu täuschen versteht, wird leicht ihr Herr, wer sie aufzuklären sucht, stets ihr Opfer.“

Oder wie es Theodor Fontane trefflich formulierte...

»Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.« 

 

 

Um die Elemente der Sinusfunktion in Ankopplung an „unsere Welt“ realphysikalisch zu bestimmen, werden Alleinstellungsmerkmale der beobachteten Natur benötigt. Man braucht zur „Verkörperung“ der Sinusfunktion sozusagen „globale“ physikalische Auffälligkeiten. „Eine“ ist die Invarianz der [Vakuum-]Lichtgeschwindigkeit, die andere ist die „Gravitationskonstante“, die in der Verkörperung implizit (auch) das Plancksche Wirkungsquantum enthält. Es lässt sich zeigen, daß die Funktion r(t) = r0 sin(ct/r0) und die Funktion m(t) = m0sin(ct/r0) dann ausreichen, um sowohl einzelobjekt-mikroskopisch als auch vielteilchen-makroskopisch die Entstehung der Masse (Materie) aus reiner Bewegungsinformation (reiner Bewegungsenergie) zu gestalten. Dies führt unweigerlich zu einem masse-radius-gekoppelten Raum.

 

 

Mittlerweile sind die aktuellen Konsistenzbetrachtungen und formal-analytischen Berechnungsmöglichkeiten des Elementarkörper-Denkmodells, sowie die Forschungs-Ergebnisse der Jahre 2012 - 2018 zum Thema Mikrokosmos und Makrokosmos bemerkenswert. Die große Stärke der Elementarkörpertheorie ist eine skalenübergreifende (aus Sicht der Standardmodelle unvermutete, für nicht möglich "erklärte") Anschaulichkeit, die stets zu formal analytischen Gleichungen führt, die näherungsfrei und in sehr guter Übereinstimmung mit bekannten Messwerten zu konkreten Ergebnissen führt.

Hier ist, wieder aktuell, Karl Popper [KP] zu zitieren: ,,Insofern ist die Kausalmetaphyik in ihren Auswirkungen viel fruchtbarer als eine indeterministische Metaphysik, wie sie z. B von Heisenberg vertreten wird; wir sehen in der Tat, daß die Heisenbergschen Formulierungen lähmend auf die Forschung gewirkt haben. Unsere Untersuchung läßt erkennen, daß selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, daß das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei."

[KP] K. Popper, Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4;The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959.

Wenn man aus Symmetriegründen Radialsymmetrie für elementare Objekte fordert, kann es offensichtlich nur zu einer isotropen Dynamik kommen, die konstruktiv eine Beschreibungsverarmung mittels Radius erhält. Und hier „liegt der Hund begraben“. Denn dann sind die (relativistisch) bewegten Energieträger im Teilchenbeschleuniger, der definitiv kein Inertialsystem ist, nicht „SRT-beladen“ in Schwerpunktsbewegungsrichtung eindimensional verkürzt und „massevergrößert“, sondern aus Gründen der Gesamt-Energie-Erhaltung, radialsymmetrisch verkleinert und äquivalent massereicher.

Zur Erinnerung: Streuquerschnitte und Objekt-Ladungsverteilungen, daraus resultierend Formfaktoren und Strukturfunktionen gemäß Standardmodell der Teilchenphysik (SM) sind keine Eigenschaften der Teilchen selbst, sondern stets Näherungen theoriebeladener Wechselwirkungsszenarien. Nicht die "typischen" energieabhängigen Elektronenradien kleiner als 10-19 [m] in Teilchenbeschleunigern sind "falsch" (gemessen), sondern die von der Elementarteilchenphysik resultierenden Schlußfolgerungen bezüglich der Ausdehnung ruhender Elektronen (, ruhender Protonen und allgemein der ruhenden Ladungsträger).

 

Die Ansprüche an »erkenntnistheoretische Verbindlichkeiten« müssen so hoch wie möglich sein. Es geht nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige Lösungen liefert. Diese Frage ist stets beantwortbar.

Ursprünge

Ein wesentlicher Teil der Inspiration für den Elementarkörper entsprang 1986 der, mir in Grundzügen, bekannten vereinfachten Urknalltheorie. Die stringente Expansion eines «Etwas» aus einer Singularität war für mich ein interessanter Gedanke. Damals wusste ich so gut wie nichts von den «Asymmetrien» der Theorie, der Inflation mit Überlichtgeschwindigkeit und Dunkler Materie. Ich hätte es damals auch als angehender „guter“ Naturwissenschaftler nicht für möglich gehalten, daß, insbesondere innerhalb der Physik, so immens nichtssagend argumentiert werden kann, wie zum Thema Urknall, so grob fahrlässig empirische Werte nicht ernst genommen werden und in letzter Konsequenz wissenschaftlich nicht haltbare Theorien zum inflationären Urknall und zur Elementarteilchenphysik zur reinen „Glaubensfrage“ avancieren. Als leidenschaftlicher Befürworter und Freund plausibler Wissenschaft, lehnte und lehne ich das hoch spekulative,  "lieblos" zusammengeschusterte, derzeitige Weltbild der Grundlagenphysik vehement ab.

 

 

Gegenstand meiner Betrachtungen ist der inhärent masse-gekoppelte Raum, mit der Forderung das anschauliche, realphysikorientierte Phänomenologien sowie formal einfache Berechnungen der materiebildenden Entitäten (sprich Photon, Elektron und Proton) und eine Korrespondenz zwischen Mikro- und Makrokosmos existieren, die ohne freie Parameter im Rahmen eines konsistenten Denkmodells abbildbar sind.

Einen interdisziplinären Denkmodell-Überblick findet man unter Elementarkörpertheorie.