Was ist und was darf sein?

Die Welt der Götter ist "bestenfalls" ein unterhaltsames Psycho-Konzept für Glaubensabhängige aber kein meßtechnisch erfassbares Objekt. Die Unterschiede zwischen »Geistern und Dämonen« und »Dunkler Energie und Dunkler Materie« sind marginal. Die Verdrängung realphysikorientierter Plausibilität zu Gunsten Logik beraubter Denkmodelle (ΛCDM-Modell, SM, SUSY) charakterisiert ein seit Jahrzehnten anhaltendes modernes Trauerspiel. Wir erleben mit der heutigen etablierten Standardmodellphysik ein erneutes, doch diesmal deutlich komplexeres, Phlogiston-Drama. "Willkommen" im Barock 2.0 sozusagen. Ein sehr guter Weg aus diesem zeitgenössischen Denkelend "fußt" auf einer plausiblen Modell-Alternative, die mit wenigen Annahmen formal-analytische Ergebnisse voraussagt und eine Korrespondenz zwischen Mikro- und Makrokosmos aufzeigt.

Das omnipräsente, inhaltliche Problem der herrschenden (Grundlagen-)Physik besteht im Wesentlichen darin, daß im Denken und in resultierenden Formalismen Energie ausschließlich an Masse koppelt. Sobald man jedoch berücksichtigt, daß der Raum eine der Masse entsprechende Energie besitzt, ergeben sich gänzlich neue Betrachtungsmöglichkeiten.

Zur Form des Vortrages: Es gibt mehrere paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe.

 

[Technischer Hinweis: Sollten Sie ungewollt diese Webseite als Solo-Webseite ohne Webseitenmenü ("frame-los") vorliegen haben, so gelangen Sie hier zur kompletten menügesteuerten Elementarkörpertheorie-Webseite....           

 

Worum geht es? Eine einführende "formelfreie" Bestandsaufnahme

Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es phänomenologischer Betrachtungen und Erklärungen.

Das Standardmodell der Kosmologie (Lambda-CDM-Modell) basiert auf einem mathematisch-theoretischen Konstrukt mit einer großen Anzahl freier Parameter. Mit diesen, stetig nachkorrigierten freien Parametern entsteht eine komplexe Deutungs-Beliebigkeit, die jede Theorie unterstützt, die gewünscht ist.

 

Glaube statt Wissenschaft

Äther, Dirac-See, Quantenfeldvakuum und jetzt wird es (sehr) dunkel...

Ratlosigkeit und Phänomenologieferne werden durch virtuelle Teilchen und postulierte Schnittstellen zwischen theoretischer Fiktion und Realphysik „ersetzt“. Da dies nicht gelingen kann, bedarf es mit fortschreitender Komplexität vieler freier Parameter, variabler Kopplungskonstanten und „wilder Substrukturierung“. Aus einem Austauschteilchen (Photon) werden schnell mal acht (Gluonen), die dann zusätzlich mit weiteren Quantenzahlen ausgestattet werden müssen.

Im Fall des Lichtäthers erhielt man ein Trägermedium, das Licht leitet, im Fall des (negativen) Dirac-Sees erhielt man ein Medium im Vakuum, das voll von negativen Energieteilchen ist, die die Fluktuationen im Vakuum verursachen. In beiden Fällen lässt sich das postulierte Medium weder begründen noch nachweisen. "Lustigerweise" lehnen Standardmodell-Anhänger den nicht beobachteten Lichtäther ab und führen ohne mit der Wimper zu zucken sodann die gleichfalls nicht nachweisbare Dunkle Energie und Dunkle Materie ein. Nüchtern betrachtet wird schlicht ein Glaubenskonzept durch ein anderes Glaubenskonzept ersetzt. 

Ausgehend vom Quantenfeldvakuum besteht eine der wortwörtlich großen Schwierigkeiten darin, daß eine Energie im Vakuum angenommen werden muss, die ihre Auswirkungen in die ART „verschleppt“. Es stellt sich in Verbindung mit der kosmologischen Konstante die Frage: Ist die Nullpunktenergie real? Oder verflüchtigt sie sich eines Tages, so wie zuvor Lichtäther und Dirac-See.  

 

Der Urknall ist nur Marketing  

Spiegel-Interview mit Physik-Nobelpreisträger Robert Betts Laughlin …“ich bin es satt, in Seminaren zu sitzen und mir Spekulationen über Schwarze Löcher und Superstrings anzuhören. Niemand redet da über Experimente. Wer wirklich originelle Dinge hervorgebracht hat, der weiß: Du musst dich zu disziplinieren wissen. Rede nur über Dinge, die auch messbar sind.“…

 

Zur Beliebigkeits-Problematik der freien Parameter gesellt sich noch die unvermeidbare „axiomatische Verletzung“ des Kovarianzprinzips. Salopp "formulierter" Hintergrund: Die Allgemeine Relativitätstheorie wurde u.a. aus der Forderung geboren, zur Beschreibung der Naturgesetze beliebige Koordinatensysteme verwenden zu können. Entsprechend dem Kovarianzprinzip sollte die Form der Naturgesetze nicht entscheidend von der Wahl des speziellen Koordinatensystems abhängen. Diese Forderung ist ursächlich mathematisch und führt zu einer Vielfalt von möglichen Koordinatensystemen [Metriken].

Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie (ART), die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen.

Gemäß ART-Postulat trägt nicht nur Masse, sondern auch jede Form von Energie zur Krümmung der Raumzeit bei. Dies gilt einschließlich der mit der Gravitation selber verbundenen Energie. Daher sind die einsteinschen Feldgleichungen nichtlinear.

Erst Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen. Die unvermeidbaren ("kovarianten") Widersprüche kommen mit den offensichtlich unzulässigen Idealisierungen und Näherungen des Systems von nichtlinearen, verketteten Differentialgleichungen. Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung „entschwindet mit der Verstümmelung“ (Idealisierung und Näherung) der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch korrekten Gleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung. Diese Art des Mathematikgebrauches ist willkürlich, da je nach „Geschmack“ der (selbst)gewählten Metrik andere Ergebnisse erhalten werden.  

 

Allgemeine Relativitätstheorie und Alternativen

Losgelöst von der Elementarkörpertheorie existieren alternative Denkansätze, die gleichfalls kosmologische Beobachtungen sowohl phänomenologisch als auch formal beschreiben. Das bedeutet, daß die Allgemeine Relativitätstheorie (ART) nicht die einzige Theorie ist, die zur Interpretation und Berechnung „brauchbar“ ist, wie gerne vom »Mainstream« suggeriert wird.

Inwieweit die ART und alternative Theorien jedoch die realphysikalische Wirklichkeit abbilden, steht auf einem anderen Blatt. Bei allen kosmologischen Beobachtungen handelt es sich eben nicht um kontrollierbare Laborexperimente. Sowohl in der Newtonschen Interpretation der Gravitation als auch in den „ART-üblichen“ differentialgeometrischen Betrachtungen wird stark idealisiert. Die wahren energetischen Verhältnisse (lokal und teils in (periodisch-)dynamischer Überlagerung) lassen sich im wahrsten Sinne der Worte „aus Sicht“ der Erde oder erdnaher Satelliten nicht ermitteln, wobei selbst die von der Erde weit entfernten Satelliten für kosmische Verhältnisse als erdnah zu verstehen sind. Das bedeutet, die Ursachen könnten gänzlich anderer Natur sein. Mit steigender Beobachtungskomplexität, die heutzutage durch iterative Nachbearbeitungen stark theoriebeladen „(nach-)belastet“ ist, können vermeintliche Beobachtungs-Effekte von mathematischen Artefakten der genäherten „Lösungen“ nicht separiert werden. Schlicht formuliert, man sieht das, was man theoretisch sehen möchte.   

Um einen konkreten Eindruck von der Qualität der Alternativen zu bekommen, sind folgend einige aufgeführt und mit Linkverweisen auf die „Originalarbeiten“ verknüpft. Ob Periheldrehung des Merkur, „Verlangsamung der Zeit“ und Lichtablenkung auf Grund „gravitativer Einflüsse“ oder Gravitationswellen, zu jeder (vermeintlichen) Beobachtung existieren ART-„rechenbare“ Alternativen, die zu gleichen oder sehr ähnlichen Rechenergebnissen führen. 

Rudolf Kiesslinger (1921 - 2011) dürfte den meisten Interessierten vollkommen unbekannt sein. Kießlinger zeigt eindrucksvoll, wie eine Erweiterung des Newtonschen Gravitationsgesetzes die ART als nur 2.Näherung „dastehen“ lässt. Sowohl die Periheldrehung des Merkurs, die gravitative Lichtablenkung, die gravitative Rotverschiebung und einige weitere Aspekte wie die Hintergrundstrahlung werden von Kiesslinger alternativ zum Standardmodell der Kosmologie, respektive zur ART berechnet. Details zur Motivation, Idee, Herleitung und einer Fülle von Konsequenzen siehe  Gravitation verknüpft mit Eigenschaften des Lichts 1993/94, 2010

 

Gravitationswellen

Allgemeine Vorbetrachtungen

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess.

Gravitationswellen sind kein spezifischer Nachweis für die Allgemeine Relativitätstheorie. Auch andere Theorien, wie MOND, sind gravitationswellen-geeignet. Unterschiede existieren beispielsweise bei den Annahmen, welche Vorgänge bzw. Objekte Gravitationswellen auslösen. 

Gravitational waves in bimetric MOND http://arxiv.org/pdf/1308.5388v2.pdf

…”MOND is a paradigm that replaces Newtonian dynamics and general relativity (GR); its goal is to account for all the mass discrepancies in the Universe without invoking dark matter (and “dark energy”).”…

Was ist MOND? Siehe Exemplarische Ausführungen: Modified Newtonian Dynamics (MOND): Observational Phenomenology and Relativistic Extensions http://arxiv.org/pdf/1112.3960.pdf

Ein Überblick über Theorieerweiterungen findet sich z.B. unter: https://inspirehep.net/record/842520/citations?ln=de 

"Fast banal", Newtonsche Herleitung der Friedmann-Gleichungen, siehe exemplarisch: http://pulsar.sternwarte.uni-erlangen.de/wilms/teach/cosmosemi/kromer_handout.pdf

weitere Ausführungen und "historische Verweise" zu Gravitationswellen finden sich (ganz) am Ende dieses Kapitels...

 

Noch einige Worte zu einem Hauptproblem der ART und allgemein zu theoretischen Ansätzen...

Die »thermodynamische Unverträglichkeit«

1..."Sowohl Stephen Hawking als auch Sir Roger Penrose kümmern sich auffällig wenig um zeitgenössische Thermodynamik! Ihr diesbezügliches Weltbild endet bei Boltzmanns früh gescheitertem Versuch, die mechanistische Tradition der Lagrange-Hamiltonschen Theorie in der Thermodynamik zu verankern. Dafür gibt es einen schier untrüglichen Beweis: In keinem ihrer Bücher wird auch nur einmal der Name desjenigen Gelehrten erwähnt, der nicht nur die Thermodynamik, sondern letztlich durch seine Elementary Principles in Statistical Mechanics auch die Quantentheorie vom Kopf auf die Füße gestellt hat: Der US-amerikanische Eisenbahn-Ingenieur und erste Doktorin-genieur in den USA und spätere Yale-Professor Josiah Willard Gibbs (1839 - †1903). Ein solcher Fehler ist nicht nachvollziehbar!...

1...die Fata Morgana: die Verbindung zwischen Information und Entropie. Zwei Worte, die man – laut John von Neumann  – beide nicht versteht, werden durch einen Logarithmus und eine dimensionsstiftende Konstante miteinander verknüpft. Was noch mehr verblüfft: Viele Kosmologen glauben allen Ernstes, dadurch die Thermodynamik und deren ganzen begrifflichen Apparat mit ins Boot zu holen. Daher Hawkings ‚Logik’: „Das Problem in Bekensteins Argumentation war, dass ein Schwarzes Loch, besäße es eine endliche Entropie proportional zur Fläche seines Ereignishorizonts, auch eine endliche Temperatur haben müsste. Daraus würde folgen, dass sich ein Schwarzes Loch bei irgendeiner Temperatur ungleich Null mit der thermischen Strahlung im Gleichgewicht befinden könnte. Doch nach klassischen Begriffen ist kein solches Gleichgewicht möglich, da das Schwarze Loch… absorbieren würde, ohne… zu emittieren.“ [HAWKING, S. W. (1998), S. 103].

1...Was die internationale Elite der theoretischen Kosmologen nie zur Kenntnis genommen hat – weil ihre Nachwuchsleute bei der vielen Konkurrenz wahrscheinlich nie Gibbs’ Hauptwerke studiert haben – war die simple Tatsache, dass ‚ihre Entropie’ eher eine 'Shannonsche Entropie' ist, nämlich Informationen betreffend, indes keine thermodynamische Entropie. Somit ist sie keiner absoluten, d.h. thermodynamischen Temperatur konjugiert. Folglich existiert auch kein Problem mit einer thermischen Strahlung. Natürlich steht es jedermann frei – wie Bekenstein und Hawking – Formeln für ‚ihre Entropie und Temperatur’ z. B. aus dem ›Ereignishorizont‹ ‚abzuleiten’. Nur mit der Systemtheorie nach Gibbs, Falk u. a. hat das alles nichts zu tun! Dort ist die Entropie eine ›Allgemeinphysikalische Größe‹ mit eigenständiger Bedeutung, die Temperatur T nichts anderes als die partielle Ableitung (∂E/∂S )A, B, C…bei konstant gehaltenen ‚aktiven’ ›Allgemeinphysikalischen Größen‹ A, B, C … des betreffenden Systems. Zudem sind die Hauptsätze der Thermodynamik und die daraus abgeleiteten Bewegungsgleichungen mit Prozessgrößen formuliert, die lokal nichts mit der Einstein-Geometrie der ART zu tun haben. Das führt sofort zum Problem, inwieweit der Zweite Hauptsatz überhaupt mit der ART kompatibel ist...

1...Wenn man unbedingt eine zur Information konjugierte 'informelle Temperatur' will, muss man sie aus der 'Informationstheorie' ableiten; gewiss hat sie aber nichts mit der Kelvintemperatur zu tun und somit schon gar nichts mit physikalischen Strahlungsprozessen...

1...Das ‚Urknall-Problem’ als ‚Ur-Singularität’ tritt theoretisch nur dann auf, wenn Einsteins Credo (: Irreversibilität sei eine Illusion) zutrifft. Dieser Schluss bedeutet dann aber, dass man die Thermodynamik von vorneherein konsequent negiert und sich auf die lupenreine Hamilton-Mechanik als Basis der ART beschränkt, oder zumindest nur isentrope Prozesse (keine Entropieänderung) ins Auge fasst, um wenigstens das Phänomen der Hintergrundstrahlung zu ‚retten’...

1Quelle: Nichtmechanistische Darstellung der physikalischen Disziplinen als mathematische Systemtheorie   Vilmos Balogh

 

"Berechnungen" ausgehend von dem ΛCDM-Modell sind grundsätzlich mit äußerster Vorsicht zu "genießen". Die Suggestion man wüsste genau, was sich wann, in welcher Größe ereignete, ist mehr Wunsch als Wirklichkeit. Hier bestimmt nach wie vor die Theorie des (inflationären) Urknalls, was gemessen werden soll bzw. wie Meßergebnisse zu interpretieren sind. Die geduldeten Fehler(grenzen) sind für die Maßstäbe der Grundlagen-Physik immens. Beispiel: Die Meß-Resultate des Planck-Satelliten aus dem Jahre 2013 lieferten einen Wert für die Hubble-„Konstante“ (~67 kms−1Mpc−1), der um ca. 10% kleiner ist, als der bisherige ("mittlere") Literaturwert. Siehe:  Planck satellite 2013 results: http://arxiv.org/pdf/1303.5062v1.pdf  

 

 

update

27. Januar 2017

Die Nachricht [Eine neue “Messung” der Hubble-Konstanten] ist zwar erkenntnistheoretisch unbedeutend, da die vermeintliche (neue) Messung von H0 gleichfalls stark freie Parameter-theoriebeladen ist, wie jede "Beobachtung" innerhalb des ΛCDM-Modells, so gibt sie aber zumindest einen „aufgefrischten“ Aufschluss über das Hin- und Her-Beschäftigungsspiel der involvierten Nutznießer aus „Forschung und Technik“.

Hier der neueMesswert”: H0 ~ 71, 9 (+2,4) (-3,0) based on the joint analysis of three multiply-imaged quasar systems with measured gravitational time delays..., source: https://arxiv.org/pdf/1607.01790v2.pdf

Eine Liste ΛCD-Modell-theoriebeladener Messwerte von 1929 bis 2013 findet sich beispielsweise unter https://en.wikipedia.org/wiki/Hubble's_law

 

Randnotizen: Die Hintergrundstrahlung wurde zwar von der (inflationären) Urknall-Theorie vorhergesagt, aber wenig bekannt ist, daß die ersten Vorhersagen bei 50° K lagen und erst nachdem die Messwerte 1965 bekannt waren, wurde die Theorie "angepasst". Andere Wissenschaftler, die alternativ zur Urknall-These versuchten, die Theorie der Schwarzkörperstrahlung auf den Weltraum anzuwenden, errechneten Werte zwischen 0,75° K (Nernst 1938) und 6° K (Guillaume 1896). Wenn “jemand” nun ergebnisorientiert im Rahmen des ΛCDM-Modells  “seinen” “Best-Fit” mit einem 10% kleineren Wert „berechnet“, erübrigt sich die Frage nach der Voraussagefähigkeit der verwendeten Theorie.

Fazit: „Jede“ so (mathematisch) begründete Theorie wird formal richtige Ergebnisse liefern, wenn "sie" die Macht und Lobby haben, daß man sich auf "diese Form der Wissenschaft“ einigt. Das ist der derzeitige Status Quo der Standardmodelle der Kosmologie und der quantenfeldtheorie-basierenden Teilchenphysik. Doch keine dieser mathematisch "richtigen" Theorien ist phänomenologisch begründet und somit im wahrsten Sinne des Wortes gegenstandslos. Die Epizykeltheorie des geozentrischen Weltbildes lässt dauerhaft grüssen. 

Masse-Radius-gekoppelt sehen die phänomenologisch begründeten Lösungen denkbar einfach aus:

Beispiel: Phänomenologie und formal-analytische Berechnung der «3K-Hintergrundstrahlung»

Wasserstoff ist mit Abstand die am häufigsten vorkommende Materieform des Universums. Wasserstoff macht ungefähr 90% der interstellaren Materie aus. Die 3K-Hintergrundstrahlung, respektive die Energie der 3K-Hintergrundstrahlung repräsentiert nicht ein expandierendes Raumzeit-Relikt des inflationären Urknalls, sondern das Ergebnis einer fortwährenden Dynamik.

Im Rahmen einer stringent masse-radius-gekoppelten Objekttheorie repräsentiert der Radius der Thermischen De-Broglie Materiewelle des Elektrons die Rydberg-Energie Das bedeutet, daß durch die Proton-Elektron-Wechselwirkung ein Raum aufgespannt wird, der mit der assoziierten Temperatur von ~ 2,673421 °K als Hohlraumstrahler fungiert. Durch die Häufigkeit und Omnipräsenz des kosmischen Wasserstoffs "strahlt" das Universum mit dieser Temperatur. Diese 3K-Hintergrundstrahlung ist somit "zeitlos" und hat nichts mit einer expandierenden Raum-Zeit-Konstruktion zu tun.

Die Abweichung zum "Best-fit"-Resultat des Standardmodells der Kosmologie mit dem Wert TCMB ~ 2,726 °K resultiert u.a. aus der falschen Annahme des Standardmodells, daß das Universum ein idealer Hohlraumstrahler ist. Denn nur für diesen gilt die „verwendete“ Plancksche Strahlungskurve und idealisiert das Kirchhoffsche Gesetz. Das Universum ist aber "Alles" andere als ein perfekter Hohlraumstrahler.

Details und exakte, formal-analytische Berechnungen zur Hintergrundstrahlung siehe das Kapitel: 3K-Hintergrundstrahlung.

 

 

                     Einfacher als gedacht

Universums-Masse "mittels" Elementarkörper-Entstehungsgleichungen und deren zeitliche Ableitungen :

Obwohl diese im Rahmen der Elementarkörpertheorie ursprünglich nicht für den Kosmos "gemacht" wurden, liefern sie eine bemerkenswerte Korrespondenz-Betrachtung.

"Intuitiv-spielerisch" ist die Annahme, daß das Verhältnis von zeitabhängigen Universumsradius zu zeitabhängiger Universumsmasse zeitunabhängig (!) und konstant ist. Die Multiplikation von rUni/mUni mit c² ist gleich der Gravitationskonstanten γG. Diese Annahmen stellen u.a. eine "schöne" Korrespondenz zwischen Kosmos, Gravitationskonstante und den Planckgrössen für Masse (mPl) und Länge rPl (Radius), respektive dem Elementarquant { : G mit rG, mG } her.

Randnotizen: Schon Ernst Mach (1838 - 1916) bemerkte, daß die "Schwäche" der Gravitation mit der "enormen" Grösse des Universums in Zusammenhang steht. Er vermutete eine Relation zwischen Universums-Masse, Universums-Radius und Gravitationskonstante. Sir Arthur Stanley Eddington (1882 - 1944) erhielt das Verhältnis von Universums-Radius zu Universums-Masse indem er die Gravitationskonstante durch c² dividierte (...formal-gleich im Rahmen der hier beschriebenen Korrespondenz zwischen "Längen-Kleinsten" und Längen-Größten"). Und auch Erwin Schrödinger hatte dies als Möglichkeit bereits 1925 geäußert. Quelle: Mach’s Principle – Relating Gravity to the Universe

Warum sich diese einfache Annahme nicht durchsetzte hat höchstwahrscheinlich mit der (später) favorisierten (inflationären) Urknalltheorie zu tun. Dort ist kein Platz für "(korrespondierend) Einfaches".  

 

Des Weiteren ergibt sich (Elementarkörper basierend) entsprechend der mittleren Geschwindigkeit v von (dr/dt) "analog" für die Ableitung dm/dt ein Mittelwert dm/dt  ► Gleichung : [MUNI].

  

"Abseits" vom Maximum gilt Gleichung [MUNIM]. Der Fehler zu Gleichung [P2m] bei genauer Kenntnis der maximalen Universumsmasse beträgt hier zeitabhängig ~ -5%. Die exakte Berechnung der maximalen Universumsmasse ergibt sich mittels der »Wasserstoff-Parameter« : Protonenmasse, Elektronenmasse, Rydberg-Energie und der Gravitationskonstanten verkörpert durch den Radius des Elementarquants rG (entspricht 2 Plancklängen).

                                        

Es folgt phänomenologisch begründet ein maximaler Universumsradius von rUni = 8,78507806 1025  [m] 

und eine radius-gekoppelte maximale Masse des Universums : mUni = 1,183072174 1053  [kg],

das Alter des maximal ausgedehnten Universums beträgt  tuni4,60304053 1017 [s]  ~ 14,596 Milliarden Jahre, 13,8014 Milliarden Jahre für das derzeitige Alter des Universums, eine derzeitige Masse von ~ 1,179001·1053 [kg] und ein Radius von ~ 8,7548447 1025 [m], konkrete Berechnungen siehe das Kapitel: 3K-Hintergrundstrahlung.  

Phänomenologischer Vorgang: Es hat sich Bewegung(s-Energie) in Raum(-Energie) umgewandelt (Details siehe u.a. das Kapitel Impulsmasse-Inversion). An diesen Raum ist inhärent Masse gekoppelt. Das Universum als solches manifestiert sich primär auf einer Kugelschale, dessen Radius bis zum Maximum zeitabhängig ist. Im Ergebnis werden Informationen zweidimensional gespeichert. Das erinnert an das holografische Prinzip. Die "Dicke" der Kugelschale und somit der darin befindliche dreidimensionale Raum ist aus irdischer Sicht nicht von einem "Volumenuniversum" zu unterscheiden. Da sich die gebildeten Objekte (lokale Inhomogenitäten wie Gashaufen, ..., Planeten,...,Galaxien,...) auf der Kugelschale durch ihre gravitative Dynamik in alle Richtungen bewegen konnten und können. Das bedeutet eine Massenansammlung auf der Kugelschale hatte und hat  3 Translationsfreiheitsgrade zusätzlich zur radialen Expansion. Im Gegensatz zur "gängigen" Urknall-Theorie notwendigen teils überlichtschnellen Materie entkoppelten Expansion des Raumes, respektive der Raum-Zeit (Inflationsphase), basiert die Elementarkörpertheorie-Gleichung [MUNI] auf einer Masse-Raum-Kopplung, die zu keinem Zeitpunkt eine überlichtschnelle Ausbreitung besitzt.

 

Randnotizen: Gemäß Halton Arps Ausführungen wird Masse lokal im Inneren der Galaxien erzeugt und bewegt sich mit fast Lichtgeschwindigkeit und wird sodann mit zunehmender Masse auf Grund der Impulserhaltung abgebremst. Diese Masse entkommt der Galaxie oder umkreist diese.

Quelle: Seite 231, Seeing Red Redshifts, Cosmology and Academic Science 1997 von Halton Arp

Weitere Ausführungen zu Arps Gedanken bezüglich der Masse-Kreation/Masse-Evolution finden sich exemplarisch im Kapitel 15.Empirical Attempts to Understand Matter Creation/Evolution. Quelle: Intrinsic Redshifts in Quasars and Galaxies   H. Arp C. Fulton D. Carosati 

Arps "Bild" der Masse-Erzeugung entspricht "grob-qualitativ" dem Elementarkörper-Bild.

 

Wie "abstrakt" sind obige Ausführungen?

Ohne an dieser Stelle die theoretischen Grundlagen Anfang des 20.Jahrhunderts zu erörtern und ohne die bemerkenswerten analytischen Ausführungen Rudolf Kiesslingers1, die hier den Rahmen der Betrachtung sprengen würden, aufzuzeigen, lagen wesentliche Erkenntnisse über den Zusammenhang zwischen kosmischen Radius, kosmischer Masse und Gravitationskonstante offensichtlich bereits vor. Der Zugang zu diesem Wissen war verbaut, da die Natur der Gravitationskonstanten nicht "denkbar" war. Die Gravitationskonstante wird als eine eigenständige, unabhängige Konstante - so wie die Lichtgeschwindigkeit oder das Plancksche Wirkungsquantum, verstanden. Diese Annahme ist schlicht falsch (Weitere Details siehe auch das Kapitel Gravitation).

Interessanterweise führt die Friedmanngleichung in Albert Einsteins statischen Universum zu einer Radius-Gleichung [AER], die wie Rudolf Kiesslingers Ausführungen zu dem Ergebnis kommt, daß die Gravitationskonstante γG durch das Radius-Masse-Verhältnis von Universums-Radius zu Universums-Masse festgelegt ist, da alle anderen Grössen (Zahlenfaktor und Lichtgeschwindigkeit) konstant sind. Weiter ist bemerkenswert, daß die ("phänomenologischen") Annahmen von Friedmann/Einstein, Kiesslinger und Freyling sehr unterschiedlich sind. Das stets eine Konstantengleichung der Gravitation als Ergebnis "erscheint" liegt darin begründet, daß trotz der Zeitabhängigkeit von Masse und Radius, daß Radius-Masse-Verhältnis zeitunabhängig ist.

 

Weder der (leider) wenig bekannte Kiesslinger1 noch Einstein, Friedmann,... erkannten die offensichtliche Botschaft, daß die Gravitationskonstante skaleninvariant mikroskopisch durch das Verhältnis von Plancklänge zu Planckmasse - energetisch richtiger durch das Verhältnis von Elementarquant-Radius zu Elementarquant-Masse - sowie makroskopisch durch das Verhältnis von Universums-Radius zu Universums-Masse festgelegt ist. Die Faktoren gemäß Einstein/Friedmann 1/3 und Kiesslinger 1/2 ändern nichts an dieser Feststellung. Der Vollständigkeit halber sei erwähnt, daß auch eine andere Volumendefinition gemäß nichteuklidischer "Raum-Zeit-Metrik" an der dritten Potenz der Radius - Abhängigkeit (r3)  nichts ändert und somit stets zu dem Ergebnis γG = k·(r/m)·c² führt. Für k=1 folgt die Kosmische Konstanten-Gleichung [K1].

1Gravitation verknüpft mit Eigenschaften des Lichts 1993/94, 2010  Seiten 36 - 38 Rudolf Kiesslinger (1921 - 2011)

 

Die Gravitationskonstante γG offenbart somit  -  "verkörpert" durch die Tatsache, daß sie makroskopisch ein Vielteilchensystem repräsentiert (Universum) und mikroskopisch ein Einzelobjekt (Elementarquant) -  eine "wunderschöne" intensive Korrespondenz.

Intensive Korrespondenz bedeutet: skaleninvariant und unabhängig von der Anzahl der Objekte.

 

Die Gravitationskonstante ist konstant, zeitunabhängig, skaleninvariant, intensiv und korrespondierend.

 

Selbst-Energie des Universums

Das bedeutet, daß lokal zwar die Gravitationsenergie  - auf Grund der inhomogenen Masseverteilungen und deren Verhältnisse von Objektradius zu Gravitationsradius -  im Verhältnis zur Ruhe-Energie, experimentell bestätigt, "sehr klein" ist, aber das Vielteilchen-Gesamtsystem des Universums das gleiche Radius zu Masse Verhältnis aufweist, wie der längenkleinste Einzel-Körper (Elementarquant). Somit ist die gravitative Selbst-Energie des Universums gleich der Ruhe-Energie des Universums.

Inwieweit Eigenrotationen und Bahndrehimpulse kosmisch vorhanden sind, ist gesamtenergetisch ohne Belang, da diese Energie energieerhaltend nur aus der primär verfügbaren Gesamt-Energie stammen kann. 

Das Geheimnis der "scheinbar" sehr schwachen Gravitation im Verhältnis zur elektrischen Wechselwirkung und starken Wechselwirkung liegt in der falschen Annahme begründet, daß es generell einen Masse entkoppelten Raum gibt. Berücksichtigt man den Raum, den makroskopische Körper sowohl durch ihre Objektausdehnung als auch durch ihren Wechselwirkungsradius aufspannen, dann wird deutlich, daß die "fehlende" Energie in dem Raum selbst "steckt". In diesem Sinne ist für makroskopische Körper die Gravitationskonstante γG das »Maß der Dinge«. Aus der Gravitationskonstanten lässt sich ein Körper {Elementarquant G} konstruieren, der sowohl die größtmögliche Einzelmasse {mG} vorgibt, als auch einen "natürlich" Masse gekoppelten inhärenten Körperradius {rG}.

Für Körper mit von rG/mG abweichenden Radius-Masse-Verhältnissen bedeutet dies umgangssprachlich schlicht, daß "Arbeit" verrichtet werden musste, um einen größeren (Körper-)Raum aufzuspannen, als er im längenkleinsten, massereichsten Elementarquant {G} natürlich-kodiert vorliegt. Unter Berücksichtigung des Energie-Erhaltungssatzes kann diese Energie nur aus der masseabhängigen Ruhe-Energie E0 stammen. In der masseabhängigen Wechselwirkung der Gravitation kommt nur der Masseanteil (effektive Masse) zu tragen, der nach Abzug der Masse äquivalenten Raum-Energie zur Verfügung steht.

 

 

Bevor dieses konstruktive Elementarkörpertheorie basierende Denkmodell weiter erörtert wird, folgt eine kritische "Einführung" zum inflationären Urknall des ΛCDM-Modells.   

 

 

Alle kosmologischen Modelle basieren auf mathematisch-physikalischen Theorien ohne direkten empirischen Beweis. Das gesamte gegenwärtige physikalische Weltbild baut auf dem Paradigma der „physikalischen Raumzeit“ auf. Die Theorie des geschlossenen sich ausdehnendem Universums und die Urknalltheorie sind das Resultat mathematischer Berechnungen dieser konstruierten vierdimensionalen Raumzeit, die aus der Allgemeinen Relativitätstheorie (ART) abgeleitet wird. Die Auswahl der Mathematik bzw. Geometrie auf der alle Raumberechnungen des Universums erfolgen ist subjektiv nicht objektiv. Diese Berechnungen sind mathematisch "korrekt" aber können physikalisch vollkommen falsch sein.

 

Die vierdimensionale "physikalische Raumzeit" wurde nicht von Albert Einstein entwickelt sondern vom Mathematiker Hermann Minkowski (1864-1909). Minkowski hielt am 21.09.1908 in Köln auf der 80. Versammlung der Deutschen Gesellschaft der Naturforscher und Ärzte seinen Vortrag »Raum und Zeit«. In diesem Vortrag führt Minkowski die mathematischen Notationen ein, mit denen die Spezielle Relativitätstheorie Einsteins zur Allgemeinen Relativitätstheorie erweitert werden kann. Aufgrund des Relativitätsprinzips und der daraus folgenden Invarianz gegenüber Lorentztransformationen trägt nicht nur Masse, sondern auch jede Form von Energie zur Krümmung der Raumzeit bei. Dies gilt einschließlich der mit der Gravitation selber verbundenen Energie. Daher sind die einsteinschen Feldgleichungen nichtlinear. Sie lassen sich im Bereich schwacher Krümmung durch lineare Gleichungen annähern, in denen sich das newtonsche Gravitationsgesetz wieder finden lässt.

 

Die menschliche Beobachtungs-Zeitspanne ist verglichen mit den Zeitspannen, in denen sich kosmische Bewegungen abspielten und abspielen, extrem klein. Mit den Angaben aus der menschlichen Beobachtungsdauer Annahmen zu begründen, ist „weit hergeholt“ um es mal salopp zu formulieren. Alle derzeitigen vermeintlich empirischen Messungen sind stark (Urknall-)theoriebeladen. Postulierte Zeitspannen, Entfernungen und Energiedichten sind subjektiv-theorieabhängig.

Die der Urknall-Theorie primär zu Grunde liegenden Einstein'schen Feldgleichungen sind ein System von nichtlinearen, verketteten Differentialgleichungen ohne allgemeine analytische Lösungen. Exakte Lösungen sind nur in sehr wenigen Spezialfällen mit stark idealisierenden Annahmen möglich. Eine solche Lösung ist beispielsweise die Schwarzschildmetrik. Ausgehend von idealisierten Abstraktionen zu behaupten, daß dieser (kovariante) mathematische Formalismus das Universum „gut“ beschreibt verdeutlicht erst einmal nur arrogante Überheblichkeit. 

Die ursprüngliche Urknall-Theorie, daß das Universum vor endlicher Zeit aus einer Singularität “entsprang“, stammt vom belgischen Abbé Georges Edouard Lemaitre, einem wissenschaftlich ausgebildeten Mann der katholischen Kirche, der schon in jungen Jahren von der Idee beflügelt war, eine Theorie zu schaffen, mit der Wissenschaft und katholische Schöpfungslehre in Übereinstimmung gebracht werden kann.  

Das Konzept eines expandierenden Universums, wie wir es heute kennen, war von dem russischen Wissenschaftler Alexander Friedmann und Lemaitre unabhängig voneinander entwickelt worden. Mit ihren Lösungen wendeten sie die Einsteinsche Allgemeine Relativitätstheorie auf das kosmische Medium an. Ihre Arbeiten über das Thema wurden in den Jahren 1922 und 1924 sowie auch 1927 und 1931 veröffentlicht. Die scheinbare Rotverschiebungs-Helligkeits-Relation wurde von Edwin Hubble im Jahre 1929 entdeckt und erklärte das neue theoretische Bild gut. Das so genannte Hubble-Gesetz wurde sowohl von Friedmanns und Lemaitres Modellen theoretisch bestätigt. Es wurde sofort auf den Status einer „beobachteten“ Entdeckung eines expandierenden Universums gehoben obwohl die Idee einer Expansion vor allem eine theoretische Idee ist. Hubbles Beobachtungen sind konsistent mit dieser Idee, aber kein Beweis dafür. Hubble selbst war sich dessen bewusst und suchte während seines ganzen Lebens eine Antwort auf die gestellte Frage nach seiner Entdeckung: Was ist die Ursache für die Rotverschiebung?

Lemaitres Überlegungen waren im Sinne des Klerus, der in ihnen die glänzende Bestätigung der Schöpfungsidee sah. Nachdem diese Idee anfangs unter den Wissenschaftlern keine Anerkennung fand und man Lemaitre zum Teil verspottete, wurde er im Dezember 1940 aufgrund seiner wissenschaftlichen Leistungen an die Päpstliche Akademie der Wissenschaften berufen. Auf einer Tagung im November 1951 befürwortete die Päpstliche Akademie der Wissenschaften Lemaitres Theorie. Papst Pius XII. sprach am 23.11.1951 vor den Mitgliedern der Akademie und erklärte in einem abschließenden Vortrag, daß der mit dem Urknall zeitlich festlegbare Anfang der Welt einem göttlichen Schöpfungsakt entspränge. Die Ergebnisse "moderner Wissenschaft", auf die sich Papst Pius XII. beruft, wurden so mit der kirchlichen Doktrin zusammengeführt. Von 1960 bis zu seinem Tod war Lemaitre Präsident der Akademie. Mit dem Amt verbunden war die Verleihung des Titels eines päpstlichen Prälaten. 1964 wurde Abbé Georges Edouard Lemaitre emeritiert.

Die Geschichte der Urknalltheorie ist so verlaufen, daß neue hypothetische „Objekte“ eingeführt wurden, für die es keine Belege gibt, außer daß sie die zugrunde liegende Theorie retten. Der Begriff »Inflation«, der ein Feld und eine Energie beinhaltet, die völlig unbekannt sind, wurde vor 25 Jahren eingeführt, um den Urknall trotz vieler sehr schwerwiegender Widersprüche in der Beobachtung zu halten. Bald darauf kam die nichtbarionische »Dunkle Materie« hinzu und in den letzten zehn Jahren die »Dunkle Energie«. Das Vorgehen erinnert sehr an die Epizyklen des ptolemäischen Weltbildes.  

 

Wunsch und Wirklichkeit der "Dunklen Theorie"

Nielsen, J. T. et al. Marginal evidence for cosmic acceleration from Type Ia supernovae. Sci. Rep. 6, 35596; doi: 10.1038/srep35596 (2016).

…”Taking account of the empirical procedure by which corrections are made to their absolute magnitudes to allow for the varying shape of the light curve and extinction by dust, we find, rather surprisingly, that the data are still quite consistent with a constant rate of expansion”…

published 21 October 2016

"Wissenschaftsjournalistische, kritikfreundliche Reaktionen" ...

Beschleunigte Expansion im Zwielicht

Supernova-Daten sind statistisch weniger eindeutig als bisher angenommen

..."Wir stellen fest, dass die Daten auch mit einer konstanten Rate der Expansion ziemlich gut übereinstimmen – überraschenderweise", ... "Unsere Arbeit demonstriert damit, dass einer der Grundpfeiler für das kosmologische Standardmodell ziemlich wackelig ist."...

Für ihre Studie haben Sarkar und seine Kollegen die vorhandenen Daten für die beschleunigte Ausdehnung des Universums statistisch überprüft. Sie nutzten dafür einen Katalog von 740 Supernovae des Typs 1a (http://www.scinexx.de/dossier-767-1.html). Diese Sternenexplosionen gelten wegen ihrer festen Helligkeit als besonders gut geeignete "Messlatten" für kosmische Entfernungen und damit auch die Expansion.

The universe is expanding at an accelerating rate – or is it?

…“So it is quite possible that we are being misled and that the apparent manifestation of dark energy is a consequence of analysing the data in an oversimplified theoretical model – one that was in fact constructed in the 1930s, long before there was any real data. A more sophisticated theoretical framework accounting for the observation that the universe is not exactly homogeneous and that its matter content may not behave as an ideal gas – two key assumptions of standard cosmology – may well be able to account for all observations without requiring dark energy. Indeed, vacuum energy is something of which we have absolutely no understanding in fundamental theory.“…

…“An analogous example in this context would be the recent suggestion for a new particle weighing 750 GeV based on data from the Large Hadron Collider at CERN. It initially had even higher significance – 3.9 and 3.4 sigma in December last year – and stimulated over 500 theoretical papers. However, it was announced in August that new data shows that the significance has dropped to less than 1 sigma. It was just a statistical fluctuation, and there is no such particle."...  

 

"Vorgeschichte" 2015 „Zweifel kommen auf

Wurde die Expansion des Universums überschätzt?

…“Für die Kosmologie könnte das bedeutende Folgen haben. Denn wenn die Standardkerzen des Kosmos gar nicht so standardisiert sind, dann sind auch die auf ihnen basierenden Werte für die Expansion des Universums möglicherweise nicht korrekt,…“ wissenschaftliche Ausführungen siehe THE CHANGING FRACTIONS OF TYPE IA SUPERNOVA NUV–OPTICAL SUBCLASSES WITH REDSHIFT  

Astrophysiker Pavel Kroupa... „Es gibt keine Dunkle Materie. Das bedeutet, dass alles, was wir über das Universum wissen, falsch ist“, sagt Pavel Kroupa, Professor für Astrophysik am Helmholtz-Institut für Strahlen- und Kernphysik der Universität Bonn.

 

 

Abweichende Daten über die Rotverschiebung, die Lithium- und Heliumhäufigkeit, die Verteilung der Galaxien und andere Unstimmigkeiten auf Basis des inflationären Urknall-Modells werden entweder beiseite geschoben oder lächerlich gemacht. Dies reflektiert ein zunehmend dogmatisches Vorurteil, das dem Geist einer freien wissenschaftlichen Untersuchung fremd ist. Heute sind praktisch alle finanziellen und experimentellen Möglichkeiten in der Kosmologie auf die Untersuchung des Urknalls ausgerichtet. Forschungsgelder kommen nur von wenigen Stellen, und alle Begutachtungskomitees, die sie kontrollieren, werden von Befürwortern des Urknalls dominiert. Dadurch wurde die Vorherrschaft des Urknalls innerhalb des Faches selbst erhaltend, unabhängig von der Gültigkeit der Theorie.

Das Standardmodell der Kosmologie (ΛCDM-Modell) "lebt", wie das Standardmodell der Teilchenphysik (SM), seit Jahrzehnten von paradoxen Vorstellungen, grotesken Thesen und methodischen Nachkorrekturen. Auf Grund leicht erkennbarer Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie ist eine rein wissenschaftliche Auseinandersetzung unmöglich. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe. Systemtreue, servile Wissenschaftsmagazine boykottieren kritische Beiträge zur Urknall-Theorie und indoktrinierte, zahlreich vorhandene Epigonen beten jeden Theorie-Quatsch nach, der von Urknall-Lobbyisten verbreitet wird. Wie bereits erwähnt fließen fast sämtliche Forschungsgelder zum Thema Kosmologie in die Taschen der Urknall-Protagonisten (»Knallisten«). Also genügend Gründe hier kein Blatt vor den Mund zu nehmen.

 

Betrachtungen zur Anatomie des Universums

Was ist und was darf sein?

Kaum jemand traut sich, trotz der Vielzahl an Widersprüchen, willküraffinen Postulaten, Ergebnis orientierten Nachkorrekturen,... herrschende Theoretische Grundlagenforschung zu kritisieren. Auch „eingeweihte“ Physiker und Mathematiker tun dies nicht. Die einen, weil sie glauben, sie hätten nicht die nötige Kompetenz, die anderen aus Kalkül. Die Probleme als solche sind leicht identifiziert. Theoretische Grundlagenphysiker verlangen, ohne es explizit aussprechen zu müssen, daß nur Wissenschaftler mit der nötigen mathematischen Ausbildung etwas zum Formalismus sagen dürfen. Der Weg über den Formalismus führt aber unweigerlich zur Akzeptanz dessen, was man eigentlich kritisieren möchte. Doch: Mathematik ist geduldig und kann den größten Unsinn korrekt bestimmen.

“The greatest mistake in my opinion, and the one we continually make, is to let the theory guide the model. After a ridiculously long time it has finally dawned on me that establishment scientists actually proceed on the belief that theories tell you what is true and not true!” Halton Arp, Seeing Red

Die etablierte Meinung, daß theoretische Aspekte der Physik und Kosmologie nur von Fachleuten bewertet werden können, ist unzutreffend. Jedwede erkenntnistheoretisch wertvolle, konsistente Theorie kann von intelligenten Menschen mit einem gewissen Grad an Vorbereitung verstanden werden. Es sind vielmehr die zeitgenössischen theoretischen Konzepte, denen es an formaler Logik fehlt. Jeder freie Parameter ist ein freier Parameter zuviel. Die beliebte Unart bereits vorhandene sekundäre Grössen und Begriffe, durch weitere sekundäre Grössen und Begriffe oder weiterer postulierter Substrukturierung vermeintlich zu erklären, führt unweigerlich in die Beliebigkeit. Überlichtschnelle Expansion, seit Jahrzehnten undefinierte, unbeobachtete Theorie-Objekte wie Dunkle Energie, Dunkle Materie und Dunkle Photonen lassen sich schnell auf einen Nenner bringen. Es gelten ganz aktuell und verstärkt die Worte Theodor Fontanes :

»Wir stecken bereits tief in der Dekadenz.

Das Sensationelle gilt, und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.«   

 

Theoretische Wünsche kontra realphysikalischer Logik 

Wie schon an anderer Stelle bemerkt ist es alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend einer phänomenologischen Betrachtung und Erklärung.

Die zentrale Frage lautet : Gibt es einen Materie entkoppelten Raum? Die unmissverständlich klare Antwort lautet NEIN. Es existiert kein Materie entkoppelter Raum. Daraus folgt, daß es keine überlichtschnelle Expansion (Stichwort: Inflationsphase) des Raumes, der Raum-Zeit oder sonstiger "raum-assoziierter" Konstrukte gab und gibt. Somit ist die "progressive" Urknall-Theorie kurz und schmerzlos entsorgt.

Bezeichnender Weise bedarf es noch nicht einmal einer Betrachtung von "Aussen" um diese Aussagen zu treffen. Die Kosmologische Konstante Λ,  die Albert Einstein im Glauben an ein statisches Universum einführte, welche dann im Zuge der "frühen Ideen" des expandierenden Universums abgeschafft wurde, kam zurück, da Λ theoretisch wieder gebraucht wurde. Doch die Kosmologische Konstante bedeutet schlicht und ergreifend, daß auch im Verständnis der Urknall-Theoretiker, daß "Vakuum" eine Energiedichte besitzt. Vakuum ist hier eine weitere Wortspielerei für vermeintlich leeren Raum. Das Anheften von Λ an die Theorie führt aber unweigerlich zu "Materie im Raum". Das Ergebnis ist leicht zu verstehen. Lassen wir mal aussen vor, daß wir hier schon wenig kleinlich, das Attribut einer lichtschnellen Ausbreitung nicht thematisieren wollen. Der Raum expandiert mit Materie (nahezu lichtschnell) bis zum Beginn der postulierten überlichtschnellen Inflation, dann expandiert der Raum ohne Materie bis zum Ende der Inflation, um dann wieder mit Materie brav im Rahmen der Relativitätstheorie zu expandieren. Pippi Langstrumpf lässt grüssen, ich mache mir die Welt so wie ich will.

Nicht minder problematisch ist die Frage, wie das Universum aus der Singularität, sprich Schwarzen Loch kommt, sofern sie an Schwarze Löcher glauben. Schwarze Löcher sind gewollte Objekte der »Knallisten«, denen "Nichts und Niemand" entweichen kann. Naiv wird "argumentiert", daß das Schwarze Loch kein Hindernis für den Urknall darstellt, weil unterhalb der Planckzeit- und Planklängen-Grenze ( ~ 10-44 [s], ~ 10-35 [m] ) Physik, wie wir sie kennen (?), nicht stattfindet. Ohne auf diese Aussage einzugehen, bleibt jedoch das Grundproblem bestehen. Fragen wir also, wie das Universum kurz nach der Planck-Grenze aus dem Schwarzen Loch kommt. Erstaunlich ist die Tatsache, daß NIEMAND »Knallisten« im Zuge wissenschaftlicher Logik-Standards "zwingt" diese Frage zu beantworten. Die Argumentation der »Knallisten« zerbricht auch hier innerhalb der von ihnen selbst definierten Randbedingungen und Postulate, in diesem Fall ohne Antwort.

Kosmologische Rotverschiebung

Postulate der Systemphysik

1) Es ist die Raumzeit selbst, die sich ausdehnt, die Galaxien werden mitbewegt. Gravitativ gebundene Objekte wie Galaxien oder Galaxienhaufen expandieren nicht.

2) Die Energie einer elektromagnetischen Welle, die sich frei durch eine sich ausdehnende Raumzeit ausbreitet, wird geringer, was sich durch eine Wellenlängenvergrößerung (»Rotverschiebung«) manifestiert.

3) Die aus der kosmologischen Rotverschiebung abgeleiteten Fluchtgeschwindigkeiten ferner Galaxien sind direkt auf die Ausdehnung der Raumzeit zurückzuführen.

4) Die beobachteten Fluchtgeschwindigkeiten rufen keine relativistischen Zeiteffekte hervor, wie sie von der speziellen Relativitätstheorie (SRT) für Bewegungen im Raum beschrieben werden. Eine kosmologische Zeitdilatation findet dennoch statt, da die später ausgesandten Photonen eines Objektes aufgrund der Expansion eine größere Wegstrecke zurücklegen müssen. Physikalische Prozesse erscheinen daher bei rotverschobenen Objekten zunehmend verlangsamt abzulaufen.

Keines dieser Postulate ist in Stein gemeißelt. Soll bedeuten: Es sind Theorie-Notwendigkeiten eines mathematischen Modells. Insbesondere Postulat 2) hat es in sich. Denn wo ist die Energie hin verschwunden? Hier geht es nicht um Relativgrössen die sich in der postulierten Raum-Zeit oder in relativ zueinander bewegten Koordinatensystemen "mathematisch bewegen" sondern um realphysikalische Objekte. Wie und an was haben die Photonen ihre Energie abgegeben? Denn »Knallisten« behaupten ja, daß die kosmologische Rotverschiebung nichts mit dem Doppler-Effekt zu tun hat, der sich durch voneinander entfernende "Quelle-Beobachter-Situationen" ergibt und auch nichts damit zu tun hat, daß bedingt durch Gravitation realphysikalisch die Energie des Photons je nach Photonen-Bewegungsrichtung zum Gravitationszentrum variiert. Also wo ist die Energie der kosmologischen Rotverschiebung geblieben?

Postulat 4) ist nach bekannten Muster der Pippi-Welt gestrickt. Aus keine wird eine.

Es wird "später" im Rahmen der Elementarkörpertheorie gezeigt, daß es eine energetische Lösung zur 3K-Hintergrundstrahlung gibt, die für jederman plausibel ist. Mit dieser Alternative bedarf es keines der obigen Postulate.

Halten wir Beobachtung basierend fest, daß alle Orte und Objekte des Universums entdecken, das sich ALLES um sie herum von ihnen wegbewegt. Lokal muß das nicht so sein, da die Gravitation Cluster aller Art zusammenhält. Um dieses Phänomen zu verstehen bedarf es nicht einer abstrakten expandierenden Raum-Zeit. Jeder Punkt einer expandierenden Kugelschale erfährt das gleiche Schicksal, daß ist im Rahmen einer "klassischen" Betrachtung für jederman nachvollziehbar. Dieses leicht verständliche Phänomen bedarf keiner 4-dimensionalen Neukonstruktion. Ganz im Gegenteil: Da alle Punkte auf einer Kugeloberfläche gleichberechtigt sind, kommt es zu einer konstruktiven Eigenschaftsverarmung. Konkret beschreibt im Rahmen der Elementarkörpertheorie der zeitabhängige Radius r(t)  =r0·sin(ct/r0) einfachst den Zustand der Expansion. Und sollte sich mal nichts bewegen, dann sind wir schlicht im "großen Bild" am Maximum der Ausdehnung : r0 =  c ·t · (2/π) angelangt. 

Ist es jetzt dumm oder frech oder dumm und frech, die durch nichts gerechtfertigten, in sich widersprüchlichen, logisch falschen Thesen der »Knallisten«, die bis auf Details und Zeitfenster dem Kreationismus (Intelligent Design) stark ähneln, zu konstruieren? Insbesondere unter dem Aspekt, daß die (nachträglich erfundene) Inflationsphase als »Theorieretter« genau so lange dauerte, wie es die dazu gehörige Theorie fordert. Denn die ursprüngliche Theorie "kannte" keine überlichtschnelle Expansion und wäre ohne diese Nachkorrektur aus Sicht der »Knallisten« widerlegt.

 

 

 

Fazit : Das "Wiedereinbringen" der Kosmologische Konstante Λ führt zu einer von Null verschiedenen Energiedichte und macht die überlichtschnelle Inflationsphase physikalisch unmöglich, sofern man die Relativitätstheorie nicht ausser Kraft setzen möchte. Unnötiges, unanschauliches, vierdimensionales Raum-Zeit-Kontinuum, verloren gegangene Energie und »"Schwarz-Loch"-Problematik« tun ihr übriges. Primäre (formal) logische Fehler der herrschenden Urknall-Theorie sind somit auch ohne konkrete Kenntnis der Differentialgeometrie verständlich und vermittelbar.

Am Rande bemerkt: Das Schwarze Loch ist eigentlich kein Problem. 

Metriken, Schwarze Löcher und ihre Bedeutung(slosigkeit)

In der üblichen "physikalischen Auswertung" des Linienelementes ds² der Schwarzschild-Metrik der ART wird eine Nullstelle bzw. Polstelle als Schwarzschild-Radius interpretiert. In einer mehr oder weniger assoziierten Plausibilitätsbetrachtung wird danach gefragt, ab welcher Entfernung (auch) Photonen/elektromagnetische Wellen im Feld einer "gravitierenden Masse" ( Raum-Zeit-Krümmung [?] ) energetisch nicht mehr entweichen können.

Ohne alternative Theorien zu bemühen, folgt im Rahmen der »Knallisten«-Theorien : Die zur "Schwarzschild-Metrik" theoretisch gleichberechtigte Lösungsmöglichkeit der so genannten Eddington-Finkelstein-Koordinatentransformation beseitigt die Koordinatensingularität der Schwarzschildlösung, "sorgt" aber auch dafür, daß für die "avancierte" Lösung nach innen und für die "retardierte" Lösung nach außen Teilchen ins Schwarze Loch eindringen und austreten können !  Mit anderen Worten: Die postulierten Schwarzen Löcher der Ur-Version der Schwarzschild-Metrik waren bei genauer Betrachtung das Resultat zweier Integrationskonstanten eines beliebig gewählten Koordinatensystems. Ein weiteres Koordinatensystem der Herrn Eddington und Finkelstein behebt das Koordinaten-Artefakt, "bringt" dem vermeintlich Schwarzen Loch aber nun die Eigenschaft, daß Teilchen das Schwarze Loch verlassen können.

Der Vollständigkeit halber sei erwähnt, daß "man" mit den Eddington-Finkelstein-Koordinaten "unzufrieden" war. Es folgten 1960 die Kruskal-Szekeres-Koordinaten. "Man" charakterisiert die Kruskal-Szekeres-Koordinaten als die maximale analytische Fortsetzung der Schwarzschild-Lösung. Das bedeutet, daß in diesen Koordinaten die größte Information über die Schwarzschild-Raumzeit steckt. In der Relativitätstheorie heißt die übergeordnete Mannigfaltigkeit, die die Schwarzschild-Lösung einschließt, die Kruskal-Lösung. Die assoziierte duale Struktur der Schwarzschild-Geometrie fand J.L. Synge bereits 1950, zehn Jahre vor Einführung der Kruskal-Szekeres-Koordinaten.

Weitere Hintergründe: Die allgemeine Relativitätstheorie (ART) ist eine Gravitationstheorie und geht von der Gleichheit der trägen und der schweren Masse aus [»Äquivalenzprinzip«]. Aber die ART erklärt dieses Prinzip nicht, sondern setzt es voraus. Die Allgemeine Relativitätstheorie wurde u.a. aus der Forderung geboren, zur Beschreibung der Naturgesetze beliebige Koordinatensysteme verwenden zu können. Entsprechend dem Kovarianzprinzip sollte die Form der Naturgesetze nicht entscheidend von der Wahl des speziellen Koordinatensystems abhängen. Diese Forderung ist ursächlich mathematisch und führt zu einer Vielfalt von möglichen Koordinatensystemen [Metriken] bleibt aber physikalisch "unmotiviert". Schlimmer noch: Es ergeben sich je nach Wahl des Koordinatensystems phänomenologische Interpretationsspielräume. Der Grund ist "relativ" einfach: Koordinatensysteme sind mathematische Konstrukte, die keinerlei physikalische Eigenschaften besitzen (müssen). Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie (ART), die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen. Erst Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen. Die unvermeidbaren ("kovarianten") Widersprüche kommen mit den offensichtlich unzulässigen Idealisierungen und Näherungen des Systems von nichtlinearen, verketteten Differentialgleichungen. Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung „entschwindet mit der Verstümmelung“ (Idealisierung und Näherung) der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch korrekten Gleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung. Mit anderen Worten: Das Kovarianzprinzip ist realphysikalisch betrachtet formales Blablabla und kann jeglichen theoretischen Mist hervorbringen. Selbst Schreibfehler können im Rahmen der Differentialgeometrie der ART "neue" Lösungen generieren. 

 

 
Am Rande bemerkt: Das "pulsierende" Weltbild des Universums von Prof. Dr. Walter Greiner

Walter Greiner dürfte allen Physikern bekannt sein, da er eine umfangreiche Lehrbuchsammlung zur Theoretischen Physik veröffentlichte, die seit einigen Jahrzehnten wissenschaftliche Grundlage für Physikstudierende darstellt. Er ist 2010 in Ungnade gefallen, weil er gemäß seinen aktuellen, eigenständigen Berechnungen ein pulsierendes Universum propagiert.

Im Ergebnis kann die Dichte von Materiezusammenballungen nicht gegen Unendlich gehen, wie dies bei Schwarzen Löchern der Fall sein soll. Nach seiner festen Überzeugung stößt sich Materie, wenn sie eine bestimmte Dichte erreicht hat, wieder ab. Aus Gravitation wird Antigravitation.

Greiners plakatives Fazit: Es gibt keine Schwarzen Löcher. Siehe exemplarisch : http://symposium-cindro.irb.hr/talks/Greiner.pdf

Auch Prof. Stephen Hawking ist mittlerweile der Meinung, daß es keine Schwarzen Löcher gibt. Siehe exemplarisch : http://arxiv.org/pdf/1401.5761v1.pdf

Greiner und Hawking sind Urgesteine und "Schwergewichte" der Theoretischen Physik, somit der ihr zu Grunde liegenden Mathematik. Da man diese nicht als Cranks, Spinner, etc. verunglimpfen kann, wird ihnen als "adäquates Mittel der Unterdrückung" schlicht so wenig wie möglich Aufmerksamkeit zum Thema "Schwarze Löcher gibt es nicht" gewidmet.

Computersimulationen der Rotation der Milchstraße, die weit gehend auf Näherungen verzichten, können die Bewegung der Sterne und der Sonne auf Basis der Newtonschen Gravitationstheorie erklären, ohne auf Dunkle Materie zurückgreifen zu müssen. In der gesamten sichtbaren Milchstraße ist keine Dunkle Materie erforderlich, um die Bewegung der Sterne zu beschreiben. Die Ergebnisse sind auf der Webseite der Astronomischen Gesellschaft Magdeburg im Wissenschaftsteil veröffentlicht… direkter Artikel-Link

Projektleiter Dr. Klaus Retzlaff
Astronomische Gesellschaft Magdeburg

 

Vielleicht ist es "gut" "nicht zu wissen", wer Walter Orlov ist. Der „Interessierte“ kann sich selbst ein Bild davon machen, was ist und was sein darf. Orlov bestätigt in diversen Ausführungen, wie schöntuerisch und beliebig - im Sinne gewünschter Denkmodelle - agiert wird, siehe exemplarisch: ART 

Wie schnell und „einfach“ sicher geltende Annahmen im „Nichts“ verschwinden (könnten), offenbaren folgende Sachverhalte… siehe Links Rhenium 187 und Orlovs Bemerkungen  

 

Es hätte übrigens auffallen müssen, daß die Interpretation der Null- und Polstelle als Schwarze-Loch-Bedingung der klassischen Fluchtgeschwindigkeit exakt entspricht, wenn man für v c einsetzt. Daß, was also in der speziellen Relativitätstheorie (SRT) jedem klar ist und ausschließlich als klassischer Grenzfall für v « c in Näherung gilt, soll in der ART nun eine hervorragende Koinzidenz sein. Irgendwie lustig sind sie schon die Relativisten.

Mit anderen Worten, die Schwarzen Löcher der "einen" Metrik, sind keine Schwarzen Löcher der "anderen" Metrik. Fazit: Mathematik ersetzt keine Phänomenologie. Das Schwarze Löcher spektakulärer sind als keine ist eine massenpsychologische Entscheidung, so zu tun als ob sie physisch mit Sicherheit existieren, ist unbegründet.

Auch die Katholische Kirche hat die Urknalltheorie anerkannt, da nach „katholischem“ Verständnis ein derartiger Schöpfungsakt zwangsläufig eines Schöpfers bedarf. Nur Gott kann aus Nichts etwas schaffen. Das Einbringen der Theoretischen Physiker nicht detektierbarer Materie und nicht messbarer Energie schreit förmlich nach Glaubensbekenntnis. Das mystisch Dunkle in Gestalt komplexer, von Menschenhand gemachter, mathematischer Formalismen ist Öl ins Glaubensfeuer. Die von vermeintlichen Wissenschaftlern inszenierte, späte Rache für den schmerzlichen Verlust der geozentrischen Welt-Sicht, massakriert schon im Keim jedwede Vernunft. Aus rational-logischer Sicht hätte es kaum schlimmer „kommen“ können, kann es kaum schlimmer sein.

 

Kirche und Physik

…“Auf dem Gipfel der Macht und der Anerkennung werden Menschen plötzlich gesprächig, kokettieren mit ihren Tricks und kleinen Mogeleien, spötteln über Ethik und Moral und brüsten sich ihrer Fähigkeit, ein ganz spezielles persönliches Interesse mit Hilfe von Manipulation und geschickter Propaganda durchgesetzt zu haben. Manche Vermutung über das wahre Wesen eines erfolgreichen Menschen findet durch derart eitle Selbstenthüllung ihre Bestätigung, vermag aber keineswegs die Machtposition des Menschen zu erschüttern. Etabliert ist etabliert.“[1]

Euphemistische Botschaft der Deutschen Physikalischen Gesellschaft (DPG):

...„Die Deutsche Physikalische Gesellschaft soll ausschließlich und unmittelbar der reinen und angewandten Physik dienen. ...“

»Wahre Botschaft« der Deutschen Physikalischen Gesellschaft (2000):

"Die Urknall-Kosmologie ist gewissermaßen die moderne, physikalische Version der Schöpfungsgeschichte."[2]

[1]  Als der Urknall Mode war    Erinnerungen an ein kurioses Weltmodell

Klaus Gebler 2005  ISBN 3-8334-3983-1

[2] [1] Eine an alle höheren Schulen ausgelieferte umfangreiche Denkschrift „PHYSIK – Themen, Bedeutung und Perspektiven physikalischer Forschung, ein Bericht an Gesellschaft, Politik und Industrie“ im Jahre 2000 enthielt diesen denkwürdigen Satz: „Die Urknall-Kosmologie ist gewissermaßen die moderne, physikalische Version der Schöpfungsgeschichte. ...“

Klaus Gebler verdeutlicht in seinem bemerkenswerten Buch ►Als der Urknall Mode war   Erinnerungen an ein kurioses Weltmodell u.a. wie sehr die "Moderne Physik" von der kirchlichen Sicht beeinflusst ist.    Webseite: ►Klaus Gebler

 

Servilismus „meets“ Glaubensfetisch

Dunkle Photonen und die Dunkle Materie  5.Mai 2014

Textauszüge: …“Bei der Suche nach einem Partikel, das die Dunkle Materie erklären könnte, sind die Physiker des HADES-Experiments nun einen Schritt weiter gekommen - allerdings indem sie nichts gefunden haben…“

…“Ohne Dunkle Energie und Materie können weder die Ausdehnung des Universums noch dessen Dichteverteilung - und damit Strukturen wie Galaxien, Sterne, Planeten und andere kompakte Objekte – erklärt werden. Dabei weiß man von der Existenz der Dunklen Energie und Dunklen Materie nur theoretisch; einen direkten Nachweis gibt es bislang nicht…“

http://www.astronews.com/news/artikel/2014/05/1405-005.shtml

Kurze Übersetzung für nicht ganz so Gläubige: „Oh Du herrliches Standardmodell der Kosmologie, wie sehr lieben wir Dich und Dein unmessbares Unwesen.“

Von zahlreich vorhandenen Online-Kommentar-Feld-Epigonen (Energie 0, Spin 6)  bejubeltes CDM-Modell-Theoretiker-Glaubensbekenntnis

„Freie Parameter im Himmel, geheiligt werden unsere Namen. Unsere Theorie komme. Unser Dogma geschehe, wie im Himmel so auf Erden. Unser täglich Fördergeld gib uns heute. Und vergib uns unsere Schuld, wie auch wir vergeben unsern Kritikern. Und führe uns nicht in erkenntnistheoretische Versuchung, sondern erlöse uns von jeglicher Vernunft. Denn unser ist das Reich, die nächste Kraft und die irrationale Herrlichkeit in alle Ewigkeit."

Des Weiteren beispielhaft: The Case Against Cosmology Michael John Disney 2000 astrophysicist 

Page 6 …“Cold Dark Matter” now sounds to me like a religious liturgy which its adherents chant like a mantra in the mindless hope that it will spring into existence”…

 Page 8 … “…the word ‘cosmologist’ should be expunged from the scientific dictionary and returned to the priesthood where it properly belongs.”

...Reassigning cosmology from the astronomical priesthood to the religious priesthood would solve nothing. They were never really separate. For example, physicists like Paul Davies, author of God and the New Physics and The Mind of God, receive the £1,000,000 Templeton Prize. Until 2001 the name of the prize was Templeton Prize for Progress in Religion! The miraculous creation story of the Big Bang originated from the Belgian Roman Catholic priest and scientist Monsignor Georges LeMaître...

source: http://www.holoscience.com/wp/astronomy-has-little-to-celebrate-in-2009/

 

Und bevor das vollkommen falsch verstanden wird, es ist nicht Aufgabe des Naturwissenschaftlers über die „sinngestaltete“ Natur der Ursache reflektieren zu können. Sicherlich gibt es Fragen zu den Ursachen der physikalischen Erscheinungen. Und es ist keineswegs abwegig, daß es „etwas“ initial Schöpferisches gibt. Doch das ist kein Grund im Bereich der menschlichen Möglichkeiten die weiße Fahne zu hissen indem man inkonsistente, phänomenologiebefreite Formalismen erschafft, die willküraffin auf freien Parametern basieren und sich nur im Detail von x-beliebigem Glauben unterscheiden.  

 

Was passiert(e) mit Urknall-Theorie-Gegnern?

Was passiert(e) (mit) Standardmodell-Kritikern?

Eine Gesellschaft die die demokratische Fähigkeit verloren hat, Andersdenkenden einen wertigen Raum für Kritik zu geben, ist schlicht eine Meinungsdiktatur. Peer-Review-Zensur ist eine Form der wissenschaftlichen Meinungsunterdrückung. Eine andere Unterdrückungsform ist das Totschweigen (Nichtveröffentlichen) von systemkritischen, alternativen Denkansätzen.

Sir Roger Penrose (1931 geboren) Mathematiker und Theoretischer Physiker (u.a. „Vater der Spin-Netzwerke“, Mitentwickler der Loop-Quantengravitations-Theorie) ist einer der berühmtesten noch lebenden Kritiker der Inflationsthese.

Sir Roger Penrose calls string theory a "fashion," quantum mechanics "faith," and cosmic inflation a "fantasy."  Link

Es fällt » Knallisten « schwer Penroses Kritik zu erwidern. Ein "guter" Grund Penrose besser unerwähnt zu lassen.

Der schwedische Physiker und Nobelpreisträger (1970) Hannes Olof Gösta Alfvén (1908 – 1995) war ein entschiedener Gegner der Urknall-Theorie. Alfvén erhielt zahlreiche Auszeichnungen (...ihm "zu Ehren" ist u.a. der Preis für Plasmaphysik der Europäischen Physikalischen Gesellschaft nach ihm benannt...), trotzdem wurden seine Ideen von der Systemphysik ignoriert oder abgelehnt.

Zum Mitdenken: Nach Alfvéns Tod im Jahre 1999 wird ein Jahr später ihm "zu Ehren" ein Physik-Preis benannt. Da mit seinem Ableben sicher gestellt ist, daß er sich definitiv nicht mehr kritisch äußern kann. So wird taktisch klug suggeriert, daß Alfvén und seine Leistungen Bestandteil der Systemphysik sind. Was für eine perfide Handlung, denn zu Lebzeiten war Alfvén oft gezwungen seine wissenschaftlichen Abhandlungen in unbedeutenden Fachzeitschriften zu veröffentlichen. Insbesondere die Kritik des angesehenen britischen Astronomen und Geophysikers Sydney Chapman an Alfvéns Theorien zur magnetosphärischen Physik machte es Alfvén schwer, Unterstützung für seine Arbeit zu bekommen. Selbst heute noch ist nur Wenigen bekannt, wie stark er die Physik, insbesondere die Magnetohydrodynamik und Plasmaphysik, durch seine Arbeiten geprägt hat.

Alfven sagte sinngemäß: „Es gibt gute und böse Experimente. Die guten bestätigen die herrschende Theorie und werden sogleich veröffentlicht. Die bösen widerlegen die Theorie und werden verschwiegen. Auf diese Weise wird die Theorie immer wieder bestätigt.“

 

Halton Arp ( 1927 - 2013 ) war ein respektierter, leitender amerikanischer Astronom bis er bemerkte, daß einige Quasar-Paare, die physisch nah beisammen sind, sehr unterschiedliche Rotverschiebungen haben. Er entdeckte »uralte« Quasare mit einer hohen Rotverschiebung, die sich eigentlich schon jenseits des sichtbaren Universums befinden müssten, in nächster Nähe zu sehr jungen, schwach rötlichen Galaxien. Das bedeutet u.a., daß die Kalkulationen über die Expansion des Universums überarbeitet werden müssen. Arp zeigte anhand seines methodischen Vorgehens, sich möglichst an Beobachtungen zu orientieren und nicht nur von Theorien geleitet zu sein. Er war der Ansicht, daß es beim Betrachten astronomischer Konstellationen möglich sei, durch Mustererkennung den Kern des astronomischen Geschehens zu erkennen. So kommt er zu Aussagen wie: „Ein einfacher Blick auf das diskutierte Beweismaterial zeigt, daß extragalaktische Rotverschiebung im Allgemeinen keine Geschwindigkeiten repräsentieren kann. Folglich ist das ganze Fundament der extragalaktischen Rotverschiebung und der Urknall-Theorie nichtig. Als erste Konsequenz seiner Kritik am Urknall-Modell wurde Arp keine Teleskop-Zeit mehr zugeteilt.

“...The greatest mistake in my opinion, and the one we continually make, is to let the theory guide the model. After a ridiculously long time it has finally dawned on me that establishment scientists actually proceed on the belief that theories tell you what is true and not true!...” Halton Arp, Seeing Red Redshifts, Cosmology and Academic Science 1997

…”Some theorists will say, „What’s wrong with making a model to see if it works.“ But in this field the adjustable parameters are endless and one never hears the crucial words: „It just won’t work, we have to go back and reconsider our fundamental assumptions.”…Halton Arp, Seeing Red Redshifts, Cosmology and Academic Science 1997

“…if it turns out that mass is primarily a phenomenon of frequency, that means we might affect it by subtle wave and resonance interventions. If we live in a Machian universe, the atoms in our bodies are in communication with the far universe. If our matter was materialized from a previously diffuse state we carry the information of an enormously complex pattern that is somehow connected with everything else...”  Halton Arp, Seeing Red Redshifts, Cosmology and Academic Science 1997

…”Regardless of how scientists think they do it, they start with a theory – actually worse – a simplistic and counter-indicated assumption that extragalactic redshifts only mean velocity. Then they only accept observations which can be interpreted in terms of this assumption. This is why I feel it is so important to go as far as possible with empirical relations and conclusions.”…Halton Arp, Seeing Red Redshifts, Cosmology and Academic Science 1997

…”But if the cause of these redshifts is misunderstood, then distances can be wrong by factors of 10 to 100, and luminosities and masses will be wrong by factors up to 10000. We would have a totally erroneous picture of extragalactic space, and be faced with one of the most embarrassing boondoggles in our intellectual history."...alton Arp, Seeing Red Redshifts, Cosmology and Academic Science 1997

Seeing red page 195…“So a simple glance at the evidence discussed in this chapter shows that extragalactic redshifts, in general, cannot be velocities. Hence the whole foundation of extragalactic astronomy and Big Bang theory is swept away.”…

Seeing red page 214 …”And yet extragalactic astronomy has gone on ignoring the evidence and investing more and more money, careers and societal trust in a fundamental assumption which is completely disproven by just a glance at a few published pictures.”…

Weiterführend: Intrinsic Redshifts in Quasars and Galaxies   H. Arp C. Fulton D. Carosati

Fazit zu Halton Arps beobachtungsbegründeten Feststellungen: Arp bringt es auf den Punkt: Alle Daten über die extragalaktische Astronomie, die wir haben und jemals haben werden, stammen aus (elektromagnetischer) Strahlung. Astrophysiker täten gut daran, sich diese einfache Tatsache immer wieder vor Augen zu halten. Allein die Tatsache, daß die Rotverschiebung von Quasaren nicht-kosmologisch sein könnte, würde das ganze Fundament der Entstehungstheorien für Galaxien und das übergeordnete Hubble Gesetz revisionsbedürftig machen. Arp zeigt mit seiner eigenen Geschichte, die durch Widerstand und Zensur seitens der wissenschaftlichen Gesellschaft geprägt ist, daß es auch in der kosmologischen Grundlagenforschung - analog zur Teilchenphysik - nicht primär um eine wissenschaftliche Fragestellung geht. Stünden wirklich wissenschaftliche Fragestellungen im Zentrum, wäre es erkenntnistheoretisch zwingend  die kontroversen Aspekte zu diskutieren und auf Schwachstellen zu prüfen, dies geschieht aber nicht.

 

 

Was "man" (auch) wissen sollte:

Fragmente der Glaubens-Basis der Standard- oder Friedmannkosmologie

Das Weltpostulat verlangt Isotropie und Homogenität im ganzen All.

Die ART (Allgemeine Relativitätstheorie) gelte auf allen Skalen, auch kosmischen.

Die Kosmologische Konstante Λ kann sowohl als Vakuumenergie-Dichte, als auch als Form des Raumes aufgefasst werden. Wobei das "plakativ" zu verstehen ist, da die Einheit der Kosmologischen Konstante 1/Meter² ist. Einstein hat die Konstante eingeführt, da er an einer Beschreibung eines statischen Universums interessiert war. Aus der Rotverschiebung interpretierte Geschwindigkeiten führten zu der Feststellung, dass das Universum nicht statisch ist. Die Konstante wurde unnötig. Da das Universum sich beschleunigt ausdehnt, wurde die Kosmologische Konstante wieder zur Theorie hinzugefügt.

Die Expansion des Universums darf nicht so verstanden werden, dass sich Galaxien in der Raumzeit voneinander entfernen (Relativbewegung). Es ist die Raumzeit selbst, die sich ausdehnt, die Galaxien werden mitbewegt. Gravitativ gebundene Objekte wie Galaxien oder Galaxienhaufen expandieren nicht, denn sie sind durch ihre Eigengravitation von der allgemeinen Expansionsbewegung (beschrieben durch die Friedmann-Gleichungen) entkoppelt.

Die Hintergrundstrahlung (CMBR) wurde zwar von der Urknall-Theorie vorhergesagt, aber wenig bekannt ist, daß die ersten Vorhersagen bei 50° K lagen und erst nachdem die Messwerte 1965 bekannt waren, wurde die Theorie "angepasst". Andere Wissenschaftler, die alternativ zur Urknall-These versuchten, die Theorie der Schwarzkörperstrahlung auf den Weltraum anzuwenden, errechneten Werte zwischen 0,75° K (Nernst 1938) und 6° K (Guillaume 1896).

Die kosmologische Rotverschiebung ist keine Doppler-Rotverschiebung, sondern ein postuliert allgemein relativistischer Effekt durch die Ausdehnung der Raumzeit. Man kann dem zwar formal eine Geschwindigkeit zuordnen (siehe Hubble-Gesetz) und damit rechnen, aber es ist keine Doppler-Geschwindigkeit!

Es "heißt" u.a., daß die genaue Beziehung zwischen Kosmologischer Rotverschiebung und der Entfernung kosmischer Objekte nichtlinear ist und eine Integration über den zeitlichen Verlauf des (zusätzlich eingeführten) Skalenfaktors a(t) erfordert. 

 

Im Alter von 56 emigrierte Halton Arp nach Deutschland, um seine Arbeit am Max-Planck-Institut für Astrophysik fortzusetzen. Arp war nicht allein mit seiner Ansicht. 34 leitende Astronomen aus zehn Ländern, wie Hermann Bondi, Thomas Gold, Amitabha Ghosh und Jayant Narlikar schickten „Nature“ einen Brief, in dem sie darauf hinwiesen, dass sich die Urknall-Theorie auf eine wachsende Zahl von hypothetischen Dingen stützt, die nie beobachtet worden sind. Dass alternative Theorien viele grundlegenden Phänomene des Kosmos ebenfalls erklären können und dass dennoch alle finanziellen und experimentellen Ressourcen in der Kosmologie den Urknall-Studien zugesprochen werden. „Nature“ weigerte sich, den Brief zu veröffentlichen. Harp und andere Urknall-Zweifler wurden und werden "schlicht" methodisch nicht veröffentlicht, bekommen keine Zuschüsse und keine Anstellung.

 

März 2015   Prof.Dr. Pavel Kroupa führt am Beispiel von Prof. George Djorgovski aus, wie herablassend über alternative Theorien und deren Vertreter hergezogen wird. Das ist insbesondere unter dem Aspekt, daß Prof. George Djorgovski's Ausführungen online weltweit verbreitet werden, eine sehr bedenkliche Ausdrucksform des gegenwärtigen Diskurses.  

Prof.Dr. Pavel Kroupa, Textauszug aus scilogs-Quelle:

..."Prof. George Djorgovski teaches Cosmology at CalTech and his course can be followed by students world wide. In order to dismiss alternatives to the standard cosmological model, he recently used in a public forum (see below) the argument that General Relativity is "conformal", and that this is "well tested", while MOND is not. He further writes that "Cosmology tends to attract a certain type of crackpots, and some of them even have PhD's." "Some were great scientists, before sinking into the downward spiral" thereby implying, it seems from the context, researchers who work on MOND."...  

 

 

Blog-Anmerkungen zur Dunkle-Materie-Debatte: Kroupa vs. White

Artikel und gesamter Diskussionsverlauf auf Scilogs-Quelle:

September 2010 Kommentar-Auszüge, Prof.Dr. Pavel Kroupa  …“Brillanten Wissenschaftlern, mit herausragenden akademischen Qualifikationen, wird z.T. Diskussionsverbot erteilt, wenn sie sich mit physikalisch interessanten alternativen Ansaetzen beschaeftigen. Erst letzte Woche hatte ich einen hochbegabten jungen Physiker zu Besuch, der mir _Schlimmstes _berichten musste.

Verblueffend ist umso mehr, wie im gleichen Zuge die _unbekannte_ Physik der Inflation, der dunklen Materie und der dunklen Energie, als auch der neuen "dunklen" Kraefte, welche neuerdings in der Fachwelt (z.B. in Nature) diskutiert werden (um eben das Modell noch irgendwie zu retten), als reale Fakten hingestellt werden. Als Erinnerung: jede dieser dunklen Additionen sind notwendig, um Einstein's Feldgleichungen irgendwie zu retten. Dabei ist die brillante mathematische Formulierung durch Einstein lediglich erst einmal die einfachste Art, um Raumzeit und Energie zu beschreiben.“…

…“Das Obige ist beaengstigend, weil naemlich einfachere Alternativen im gleichen Zuge unterdrueckt werden. So kann es ja dann nicht ueberraschen, dass diese Alternativen nicht so gut ausgearbeitet sind, sodass Simon White "ueberzeugend" argumentieren kann, dass es eben keine ueberzeugende Alternativen gibt. Dieses ist ein zirkulares Argument, welches den Steuerzahler, der unsere Forschung finanziert, eigentlich interessieren sollte.“…

…“Wie bitte sehr soll denn der hochbegabte junge Physiker seine Forschung zu Ende fuehren, wenn er keine Unterstuetzung bekommt? Es ist so, als wuerde man Galileo verbieten, durch sein Teleskop zu schaeuen, weil er Dinge sehen koennte, die nicht ins Weltbild passen...“…

…“Es geht erst einmal alleine um die Frage, ob das heutige kosmologische Standardweltbild (= Einstein's ART + Inflation + kalte Dunkle Materie + Dunkle Energie) erfolgreich die Natur beschreibt. Und hier ist die ganz klare Erkenntnis: nein! Diese meine Feststellung basiert auf ca. 15 Jahren Forschung _im Rahmen des Standardmodells_! Diese objektive Erkenntnis steht unabhaengig davon, ob wir bereits ein ausgearbeitetes alternatives kosmologisches Modell haben. Diese Tatsache wird nicht nur durch meine eigene Forschung etabliert. Auch der fuehrende Kosmologe Jim Peebles, zusammen mit Adi Nusser, stellen dieses in einer Arbeit, welche zeitnah in Nature erschien, fest.“…

 

Mitte der achtziger Jahre des letzten Jahrhunderts wurden Strukturen entdeckt, z.B. Galaxien-Cluster, Supercluster und Wände aus Galaxien, die sich über bis zu einem Viertel des beobachteten Universums hinziehen. Das Problem für die Urknall-Theorie ist, daß die Objekte, die diese Strukturen ausmachen, sich mit zu geringer Geschwindigkeit bewegen, damit sich diese regelmäßigen Strukturen in der zur Verfügung stehenden Zeit hätten bilden können. Da hilft auch keine „Inflation“.

In neuerer Zeit interpretiert man die Rotverschiebung (Ergebnis orientiert, Urknall-Theorie rettend nachkorrigiert) als andauernde Expansion des Raumes, wobei die Expansion nur im kosmischen Maßstab stattfinden soll, nicht aber innerhalb eines Sonnensystems. »Knallisten« fordern die Existenz von »Dunkler Materie« und »Dunkler Energie«, die mindestens 72% der gesamten Energie des Universums betragen soll, um diese Expansion respektive die beschleunigte Expansion zu erklären oder genauer um die Hypothese zu retten.

Eine weitere gern vermittelte falsche These lautet: Nach dem Dritten Keplerschen Gesetz und dem Gravitationsgesetz müsste die Rotationsgeschwindigkeit der äußeren Bereiche von Galaxien abnehmen. Sie bleibt jedoch konstant oder steigt sogar an. Dies legt die Vermutung nahe, daß es in Galaxien Masse gibt, die nicht in Form von Sternen, Staub oder Gas sichtbar ist, eben Dunkle Materie. Diese Annahme ist ohne nähere (lokale) Strukturkenntnis phänomenologisch unbegründet ...da sich die Kepler-Gesetze gemäß Ursache-Wirkung auf Zentralmassen "beziehen" (was für eine "bahnbrechende" Überraschung). Ist eine Galaxie ein Zentralmassensystem oder "gleicht" sie eher einem starren Körper, bei dem sich die Massen, grob betrachtet, auf einer zentrumsfernen Kreisscheibe "häufen", zumindest wenn man die Galaxie als solche erhalten möchte? Offensichtlich fehlt es den »Knallisten«  - ohne und mit akademischen Grad -  an denkmodellneutralen, physikalischen Kenntnissen. An diesem Beispiel sieht man, daß der Urknall-Glaubens-Zustand irrationale Interpretationsräume geschaffen hat.

Bevor wir uns der Vollständigkeit halber weiter mit der Dunklen Seite der Macht beschäftigen, folgt nun ("didaktisch wertvoll wiederholt") ein Elementarkörper basierender Denkmodell-Ansatz zur Beschreibung des Universums. 

 

 

 

Elementarkörper basierende Plausibilitätsbetrachtungen und resultierende Gleichungen zum Universum

Wie gezeigt wird, gibt es bemerkenswerte "Analogien" zwischen Mikro- und Makrokosmos, die einzig auf der Masse-Radius-Kopplung der zu untersuchenden Objekte basiert. Obwohl makroskopische Vielteilchensysteme nicht der Masse-Radius-Konstanten-Gleichung [F1] genügen, existiert eine Korrespondenz, die zu exakten mathematischen Gleichungen führt.

Alles beginnt damit, daß reine Bewegungsinformation zum Zeitpunkt t = 0 mit v(t) = c·cos(ct/r0) = v(t=0) = c einen Masse-Radius gekoppelten Raum mit r(t) = r0·sin(ct/r0) aufspannt. Das bedeutet, daß kontinuierlich Bewegungs-Energie in Raum-Energie und somit gekoppelt in Masse-Energie m(t) = m0·sin(ct/r0) transformiert wird. Da das Verhältnis von r(t) zu m(t) stets gleich bleibt, folgt für die Gravitationskonstante, daß diese zeitunabhängig und konstant ist :  γ(r,m)  =  (r(t)/m(t))·c²  (r0/m0)· 

Der Unterschied zur mikroskopischen Elementarkörper-Dynamik (siehe das Kapitel Impuls-Masse-Inversion) besteht nun darin, daß für makroskopische Objekte die Masse-Radius-Konstanten-Gleichung [F1]  : FEK=m0r0= 2h/πc nicht gilt. Und da makroskopische Objekte um viele Zehnerpotenzen größer sind, als ihr Gesamtmasse zugehöriger Gravitationsradius, steckt fast die gesamte Energie bezogen auf die Ruhe-Energie E0 in dem vom »Objekt« aufgespannten Raum bzw. in dem Raum mit Wechselwirkungsradius r. Das äußert sich dann in der zur elektrischen und starken Wechselwirkung um viele Zehnerpotenzen schwächeren Gravitations-Wechselwirkung.

Fazit: Kosmisch wird zeitabhängig Bewegungs-Energie in Raum und Masse transformiert, bis das Maximum der Expansion erreicht ist. Die mittlere Expansionsgeschwindigkeit beträgt (2/π)·c. Die mathematisch assoziierte radius-zeitabhängige Beschleunigung gibt bei der möglichen Kontraktion zeitabhängig determinierte Werte an. Aber phänomenologisch ist die Kontraktion nicht zwingend, da die Umwandlung von Bewegungsinformation in Rauminformation (► inhärent Masse)  abgeschlossen ist und vermeintliche Rückstellungskräfte zwar mathematisch definiert sind, aber im Gegensatz zu gewöhnlichen harmonischen Schwingungen eine Zustandsänderung erfolgte.

In den vorliegenden Betrachtungen wird mit einer Abschätzung gearbeitet, die das Maximum der Expansion abbildet. Ob wir uns im Rahmen dieses einfachen Modells noch im Zustand der Expansion, in Ruhe (Maximum) oder möglicherweise im Zustand der beschleunigten Kontraktion befinden, ist - insbesondere Nahe des Maximums - ungeklärt. Die grundsätzlichen Schwierigkeiten Temperaturen und Distanzen im (lokal anisotropen) Universum zu messen, werden zu einem "späteren" Zeitpunkt erörtert. Alle bisherigen Resultate der Kosmologie sind stark theoriebeladen. Abschätzungen und Nachkorrekturen führen nicht selten zu Ungenauigkeiten in der Größenordnung von 10%. 

 

Zeitabhängige Masse des Universums

Das Elementarkörper basierende Denkmodell ist nicht von konkreten Zahlenmaterial abhängig. Doch sofern eine Variable, wie die (Entwicklungs-)Zeit - hier das Alter des Universums - festgelegt ist, folgen ohne Schnickschnack und "Wenn und Aber" einfache, exakte mathematische Gleichungen mit konkreten Ergebnissen.

Ein Ergebnis ist die Berechnung der Masse des Universums in Abhängigkeit der Zeit (Alter des Universums) ► Gleichung [MUNI].

Es erscheint auf den ersten Blick widersprüchlich mit dem Alter des Universums "zu rechnen" welches das ΛCDM-Modell propagiert. Um jedoch aufzuzeigen, wie einfach Elementarkörpertheorie basierende Gleichungen aussehen und welche quantitative Kraft in ihnen steckt, lohnt es sich als Vergleich mit dem Alters-Wert des Universums des ΛCDM-Modells zu rechnen. Zumal eine spektrale Altersabschätzung des Universums mittels der Halbwertszeit von Uran 238 (Halbwertszeit ~ 4,47 Milliarden Jahre) am Beispiel des Sterns CS 31082-001 grob das Alter des Universums vorgibt. Genauer:  Das Verhältnis von Thorium 232 zu Uran 238 ermöglicht die Altersbestimmung des Sterns von etwa 12,5 Milliarden Jahren. Da der Stern nicht älter als das Gesamtsystem (Universum) sein kann, ist der vom Standardmodell vorgegebene Wert zumindest größenordnungsmäßig vertretbar.

Zur Erinnerung: Mittels Elementarkörper-Entwicklungsgleichung r(t) erhalten wir eine Abschätzung der oberen zeitabhängigen Radius-Grenze, die mit der gleichfalls Elementarkörpertheorie basierenden Idee der verkörperten Gravitationskonstante zum allgemeinen Gravitationsradius und zu einem konkreten mathematischen Ausdruck führt, mit dem sich die Masse des Universums mUniversum(t) alleinig aus dem Alter des Universums ergibt.

  

Der Fehler zu Gleichung [P2m] bei genauer Kenntnis der maximalen Universumsmasse beträgt hier zeitabhängig ~ -5%. Die Berechnung der maximalen Universumsmasse ergibt sich mittels der »Wasserstoff-Parameter« : Protonenmasse, Elektronenmasse, Rydberg-Energie und der Gravitationskonstanten verkörpert durch das Elementarquant, siehe das Kapitel: 3K-Hintergrundstrahlung.  "Abseits" vom Maximum gilt Gleichung [MUNIM].

Im Gegensatz zur "gängigen" Urknall-Theorie notwendigen, teils überlichtschnellen Materie entkoppelten Expansion des Raumes, basiert die Elementarkörpertheorie-Gleichung [MUNI] auf einer Masse-Raum-Kopplung, die zu keinem Zeitpunkt eine überlichtschnelle Ausbreitung besitzt : r(t) = r0 sin(ct/r0)   ►   dr/dt = v(t) = c cos(ct/r0)  ≤ c

 

Zeitabhängiger und maximaler Radius des Universums

Mit Gleichung [rt] folgt, daß das Universum mit der zeitabhängigen Masse gemäß Gleichung [MUNI] einen (maximalen) Radius von ~ 8,3046928  1025 [m] besitzt. Daraus berechnet sich die Gravitationskonstante γG zu 6,67384 10-11 [m3s-2kg-1] gemäß γG = c²(rUni/mUni), was nicht verwunderlich ist, da der Berechnung ja die verkörperte Gravitationskonstante zu Grunde lag.

 

 

Gravitationskonstante ist  invariant

Interessant ist, daß für jeden Zeitpunkt gilt:

[MUNI]/[rt] = γG

Die Gravitationskonstante γG bleibt trotz zeitabhängiger Masse und zeitabhängigen Radius des Universums stets gleich!

 

Es ließe sich somit in Abhängigkeit von r0 ein kleineres Universum in weniger Zeit oder ein größeres Universum mit mehr Zeit konstruieren. Interessant an diesem minimalistischen Modell ist die Tatsache, daß sich so auch "kleinere" makroskopische Objekte dynamisch bilden lassen, die in Analogie, respektive Korrespondenz zum Universum entstehen.  

 

 

Energie-Dichte des Universums

Das Verhältnis von zeitabhängiger Masse des Universums ( m(t) ~ t ) multipliziert mit c² führt zur mittleren Energiedichte ρEUni ~ 4,1895875 10-9  [J/m3]. Diese Masse abhängige Energie-Dichte ( ~ t-2 ) entspricht dem jetzigen angenommenen Alter des Universums und nahm stetig auf Grund der Radiusvergrößerung (~r3 ►~t3 ) mit 1/Zeit² ab. Gemäß obiger Annahme-Abschätzung [rt] befinden wir uns mit vorliegenden Werten im Expansions-Maximum. 

Des Weiteren liefert Gleichung [MUNI] (rückblickend) für die Planckmasse (m(t) = mPl) ~ 2,1765093 10-8 [kg] die Zeit ~ 8,46825791 10-44  [s]. Dieser Zeitwert ist um den Faktor π/2 größer, als die so genannte Planck-Zeit. Hintergrund ist die Definition des Wertes der Planck-Zeit, die sich durch das Verhältnis von Planck-Länge zu Lichtgeschwindigkeit ergibt : tPl = rPl/c, ... aber gemäß Elementarkörper-Entwicklungsgleichung (und inhärenter Masse-Kopplung) die mittlere Expansionszeit nur 2/π der Lichtgeschwindigkeit beträgt.

Herkunft der schlechtesten skalenübergreifenden theoretischen Standardmodell-Voraussage aller Zeiten 

Was die "Sache" so interessant macht, ist der Vergleich des so gewonnen Masse-Radius-Produktes des Universums mit dem konstanten Masse-Radius-Produkt des Elementarkörpers gemäß Masse-Radius-Konstanten-Gleichung [F1] : FEK=m0r0= 2h/πc

rUnimUni /(m0r0)  = rUnimUni /(mGrG)  =  rUnimUni /(2h/πc) ~ 6,60 10120  [UNIVE]

mG = 2 mPlanck :Planckmasse     rG = 2 rPlanck : Planck-Länge

Hintergrund: Die von der Standardtheorie vorhergesagte, in unserem Universum aber nicht vorhandene, "ungeheuere" Vakuumenergiedichte ist ohne Zweifel numerisch die größte bisher bekannte Absage an das Konstrukt Quantenfeldtheorie basierender Berechnungen. Aufgrund von Beobachtungen wird die Energiedichte des Vakuums auf einen Wert der Größenordnung 10−9 J/m3 geschätzt, dieser Wert ist etwa um den Faktor 10120 niedriger als in den theoretischen Berechnungen des Standardmodells.

Offensichtlich haben Quantenfeldtheoretiker, ohne es zu realisieren, die Masse-Radius-Kopplung und die daraus resultierende Masse-Radius-Konstanz [F1] mikroskopischer Körper auf kosmische Verhältnisse extrapoliert. Die enorme Diskrepanz zwischen Quantenfeldtheorie (QFT) und (experimenteller) Realphysik kommt daher, daß im Rahmen der herrschenden Physik - QFT basierend -  nicht verstanden wird, daß eine Raum-Vergrößerung elementarer Strukturen eine äquivalente Masse-Verkleinerung zur Folge hat, was sich durch die effektive Masse mittels Gravitations-Energie qualitativ und quantitativ Elementarkörper basierend exakt berechnen lässt, siehe das Kapitel Gravitation. Vorliegende Betrachtungen sind somit ein eindrucksvolles Indiz für die von der Elementarkörpertheorie propagierte Masse-Radius-Kopplung und dem Zusammenhang zu makroskopischen Vielteilchen-Strukturen.

Planck-Einheiten   QFT   Vakuum-Energie    Elementar-Quant   Elementarkörpertheorie   und   Universum

Werden wir nun konkreter. Mit der Literaturgleichung [QFTVE] der herrschenden Physik zur Berechnung der Vakuum-Energie-Dichte mittels Planck-Masse mPl, Lichtgeschwindigkeit und Plancksche Wirkungsquantum lässt sich der Quotient zur Energie-Dichte des Universums gemäß Elementarkörper basierender Gleichung [EKVE] bilden. Als erstes "transformieren" wir Gleichung [QFTVE] in das Bild des Elementarkörpers. Zwei Planckmassen entsprechen der Masse des Elementar-Quants mG und zwei Planck-Längen entsprechen dem Radius des Elementar-Quants rG. Es gilt : 2mPl2rPl = mGrG = 2h/πc. Hintergrund: Max Planck ermittelte gemäß Dimensionsanalyse der Gravitationskonstanten im Hinblick auf den postulierten Spinwert Ergebnis orientiert  h/2π. Diese Methode ist minimalistisch und effizient, aber berücksichtigt keine Vorfaktoren, bzw. diese können beliebig gewählt werden. Energetisch ist diese Wahl jedoch um den Faktor 2·2 = 4 falsch! (Siehe dazu das Kapitel Planck-Grössen und weiterführend das Kapitel Gravitation)

Wie wir sehen entspricht das Verhältnis von [QFTVE]/[EKVE] bis auf den Faktor 2/3π² dem Verhältnis von rUnimUni /(2h/πc) ~ 6,60·10120  [UNIVE]. Ein weiteres Indiz für die Masse-Radius-Kopplung, die in anderen Zusammenhängen zur exakten Berechnung des Protonenradius in Abhängigkeit der Protonenmasse und zur Berechnung der Feinstrukturkonstanten in Abhängigkeit der elektrischen Elementarladung führt.     

 

 

Kritische Massen-Dichte und Einsteins Radiusberechnung des Universums

Eine weitere Möglichkeit eine Masse-Dichte [MDKR], respektive Energie-Dichte [EDKR] des Universums zu definieren, ergibt sich aus der Radius-Masse-Dichte gemäß Einsteins Gleichung [AER]. Setzen wir diese mit der Elementarkörperabschätzung des Radius des Universums [rt] gleich, so folgt eine kritische Massen-Dichte (Energie-Dichte) die im Raum-Zeit-Denkmodell ein "flaches" Universum charakterisiert. Die kritische Massendichte entspricht 1/3 der mittleren Energie-Dichte gemäß Elementarkörpertheorieabschätzung.

Der Faktor 1/3 bzw. 3 ergibt sich auch losgelöst von der Elementarkörpertheorieabschätzung, wenn man hier die Universums-Gravitationskonstante : (rUni/mUni)c² mit der Gravitationskonstanten γG vergleicht! Das ist insofern interessant, da hier der Parameter Zeit nicht "zum Einsatz kommt".

 

 

Zusammenhänge Hubble-Konstante, Kosmologische Konstante und Dynamik des Universums

Bevor die Konsequenzen des bisher Erörterten diskutiert werden, folgen einige "Worte" zur Hubble-Konstanten H0 und zur Kosmologischen Konstanten Λ. Beschränken wir uns hier im Wesentlichen auf die formalen Zusammenhänge. Geschichte und Esoterik von H0 und Λ wurden und werden ausführlich in der systemtreuen (Online-)Literatur vorgestellt. Je nach Theorie-"Mode" werden die Werte für H0 und Λ so angepasst, daß diese den aktuellen »Knallisten«-Trends entsprechen. Das der Kehrwert der Hubblekonstanten nicht dem Alter des Universums entspricht, wird von den Urknall-Freunden so interpretiert, daß die Hubblekonstante eine nichtlineare Korrektur in Hinblick auf die Allmacht der Dunklen Seite erfährt.    

 

Noch in den 1990er Jahren schwankte der Zahlenwert der Hubble-Konstanten zwischen 50 und 100 km/s/Mpc und sorgte für heftigen Streit zwischen den Kosmologen. Die Meß-Resultate des Planck-Satelliten aus dem Jahre 2013 lieferten einen Wert für die Hubble-Konstante, der um ca. 10% kleiner ist, als der "anerkannte" Literaturwert ( 74,3 +/-1 kms−1Mpc−1).

Siehe:  Planck satellite 2013 results http://arxiv.org/pdf/1303.5062v1.pdf

Dieser signifikant kleinere Meßwert ist entweder eine klare Absage an bisherige Theorien oder zeigt auf, wie beliebig Meßergebnisse erzielt werden. Denn hätte der Meßwert dem bisherigen Wert entsprochen, wäre Niemand auf die Idee gekommen, daß hier etwas "sehr falsch" ist.

Die Urknall-Hypothese steht und fällt mit der Annahme, daß die gesamte beobachtete Rotverschiebung allein auf der Raum-Zeit-Expansion basierenden Fluchtgeschwindigkeit beruht. Nur dann kann man aus der Hubble-Konstanten auf ein Alter des Universums von ca. 13,7 Mrd. Jahren schließen. Sobald man einen prozentualen Anteil der Rotverschiebung zulässt, der von physikalischen Prozessen verursacht wird, verabschiedet sich das ΛCDM-Modell.

Bei allen Messungen zur Rotverschiebung und assoziierten 3-K-Hintergrundstrahlung sollte klar sein, daß der inhomogene Vordergrund "entfernt" werden muß, um das 3-K-Temperaturspektrum als solches aufzufinden. Nur wie soll das praktisch realisiert werden? Die Vordergrundsignale sind 1000-mal größer als das zu messende "Ereignis" der Hintergrundstrahlung. Des Weiteren strahlen alle kosmischen Objekte auch im Infrarotbereich. Ohnehin sind die Intensitäten der Strahlquellen geschätzt.

Das wäre in Analogie so, als ob das Rauschsignal ihrer Stereo-Anlage 1000-mal größer ist, als das Lied, das sie hören wollen. Niemand wird das Lied hören, es sei denn, sie glauben daran. Das bedeutet nicht, daß es nicht da ist, es bedeutet schlicht, daß sie es mit einem Rauschsignal zu Meßsignal von 1000 : 1 nicht messen können, so wie es für wissenschaftliche Zwecke notwendig wäre.

Es ist also absurd, wenn behauptet wird, die Temperatur der Hintergrundstrahlung (TCMB) beträgt  2,7255 [K] ± 0.001[K] . Die der Messung zu Grunde liegende Plancksche Strahlungskurve ist eine Idealisierung für einen perfekten Hohlraumstrahler. Das Universum ist alles mögliche aber mit Sicherheit dies nicht. Der so genannte best fit ist Nonsens, da hier ein nicht existenter theoretischer Körper als Vorlage dient.

Es macht keinen erkenntnistheoretischen Unterschied ob man nun diese Art von Wissenschaft als naiv oder "berechnend" identifiziert. Berechnend in dem Sinne, daß dieses offensichtlich "falsche Spiel" massiv genutzt wird um Forschungsgelder abzukassieren, die dann die falschen Propheten, im wahrsten Sinne des Wortes, am Leben halten.

 

 

 

Am Rande bemerkt: Der Radiologe Prof. Dr. Pierre-Marie Luc Robitaille hat sich zur Aufgabe gemacht, die artverwandten Messungen (Infrarot-"Bilder") der Kosmologie zu analysieren. Sein Fazit: Aus Sicht eines Experten für die Auswertung der gewonnen "Images" machen diese als Auswertungsgrundlage keinen Sinn, sie sind allesamt unbrauchbar.

…”WMAP images are obtained by attempting to remove a galactic foreground contamination which is 1,000 times more intense than the desired signal.”…

Siehe dazu: youtube Video und  WMAP : A Radiological Analysis 

Professor Robitaille  ist nicht „Irgendwer“, sondern ein international bekannter Radiologe dessen Haupt-Arbeitsfeld die Optimierung und Auswertung von spektroskopischen Messungen ist. Auf diesem Gebiet hat er u.a. erhebliche Beiträge zur Weiterentwicklung der Auflösung und des Kontrastverhältnisses geleistet. Mit anderen Worten: Er ist ein Experte.  

Pierre-Marie Robitaille, a Professor of Radiology at Ohio State University is actually an experimental scientist, an expert in imaging science, radiation, instrumentation, and inorganic chemistry, with an impressive scientific career.

He is an expert when it comes to instrumentation and signal analysis. It was Robitaille who conceived and directed the construction of the world's first 8 Tesla Magnetic Resonance Imaging (MRI) scanner. In doing so, he nearly doubled the maximum field strength in MRI and gave birth to Ultra High Field Magnetic Resonance Imaging (UHFMRI). Robitaille’s scanner immediately revealed anatomical structures within the human brain that were previously never seen on human scans.

Robitailles nicht widerlegbare Argumente bezüglich der Unmöglichkeit einer wissenschaftlich begründeten „seriösen“ Auswertung der Messergebnisse zur Hintergrundstrahlung werden nach üblichem Muster angegriffen und lächerlich gemacht.

Da Robitaille u.a. behauptet, daß das Sonnenplasma eher dem Zustand des metallischen Wasserstoffs entspricht und die 3K-Hintergrundstrahlung auf mögliche Bewegungs-Zustände von Wassermolekülen zurückzuführen ist, die ja reichlich auf der Erde vorhanden sind, glaubt man seine Kritik zur Messung der Hintergrundstrahlung banalisieren zu können, indem man aufzeigt wie vermeintlich „wissenschaftlich blöd“ seine Aussagen im Allgemeinen sind, wenn es sich um (Astro-)Physik handelt. Daß diese Form der partiellen Realitätsverweigerung die johlende Masse der Standardphysik-Anhänger in Entzücken versetzt ändert aber letztendlich rein gar nichts an den Fakten zur Meßsituation des „kosmischen“ Hintergrundes.

Das er sich damit keine Freunde unter den »Knallisten« gemacht hat, ist verständlich. Reflexartig wird er als Crank bezeichnet. Er sei ja nur Nuklearmediziner aber weder Astronom noch Physiker. Das erinnert an Alfred Wegener, wohlgemerkt "nur" ausgebildeter Meteorologe, der für seine These der Kontinentaldrift von führenden Geologen damals abgekanzelt wurde: "Wenn wir uns Wegener anschließen wollten, müssten wir alles vergessen, was wir in den letzten siebzig Jahren gelernt haben, und völlig von vorne anfangen." Nun, wir wissen wie es ausging... Im Zuge seiner Recherche hat Robitaille die Datenauswertung der Satellitenexperimente COBE, WMAP und Planck stark kritisiert und die Ergebnisse als Fantasiekonstrukte identifiziert. Seine Argumentation ist fundiert, zumindest, was die behauptete Genauigkeit der Daten betrifft. Tatsächlich wundert man sich, nicht nur als Physiker, wie das tausendfach stärkere Vordergrundsignal der Milchstraße so perfekt herausgefiltert werden kann.

Robitaille wird von den Protagonisten der Standardmodellphysik lächerlich gemacht, weil er u.a. behauptet, daß das Kirchhoffsche Strahlungsgesetz falsch sei. Das Kirchhoffsche Gesetz sagt übrigens nicht "viel" aus, lediglich daß im thermischen Gleichgewicht ein guter Absorber auch ein guter Emitter ist. Was Robitaille "eigentlich" sagen will und auch sagt, ist die Tatsache, daß es keine perfekten Schwarzen Körper gibt. Damit hat er ohne Wenn und Aber recht. Fazit: Keine schwarzen Körper bedeutet keine Eichmöglickeit aus meßtechnischer Sicht. Lächerlich machen sich somit die Gestalter und Gläubigen des Standardmodells der Kosmologie, die dumm-dreist einfachste, formal logische Argumente ignorieren, um »DAS« zu verstehen braucht man wahrlich kein Physiker oder Astronom zu sein.

Zum eigenständigen Mitdenken: Ein Lichtsignal  ist kein Leuchtkörper. Beispiel: Die Sonne sendet Lichtsignale zum Mond, die erst sichtbar werden, wenn sie vom Mond reflektiert werden! Der Lichtsignalweg ist unsichtbar.

Strahlungsquellen, wie z. B. Sterne, emittieren radial (in alle Richtungen). Die emittierten Photonen sind auf ihrem Weg durch den Raum nicht sichtbar, sondern erzeugen erst bei einer Wechselwirkung mit einem „Hindernis“ (Mond, Auge, künstliche Messapparatur) den Eindruck der Helligkeit, wobei sie einen Teil der Energie abgeben. Auch ohne die genaue „Natur“ der Wechselwirkung zu kennen geht thermodynamisch betrachtet bei diesen Prozessen stets Energie „verloren“. Der Verlust bezieht sich auf das ursprüngliche Lichtsignal. Die „verlorene“ Energie wird auf die möglichen Freiheitsgrade des Absorbers übertragen. Sollte also ein Meßergebnis vorliegen, muß es einen (bis zur Wechselwirkung) kontinuierlichen „Energiestrom“ gegeben haben… Da das Universum von „unzähligen“ strahlenden lokalen Objekten inhomogen besetzt ist, ist der interstellare Raum erfüllt von Photonen, die nicht registriert werden können, solange sie keinen wechselwirkenden Absorber treffen. Hier gilt, daß der Absorber sodann selbst zum Emitter wird. Dieser inhomogene, messtechnisch unbestimmte spektrale Vordergrund überstrahlt die Hintergrundstrahlung um mehrere Zehnerpotenzen.   

 

 

 

Die räumliche Anatomie des Universums

Das Universum als solches manifestiert sich primär auf einer Kugelschale, dessen Radius bis zum Maximum zeitabhängig ist. Im Ergebnis wird Information zweidimensional gespeichert. Das erinnert an das holografische Prinzip.

Die "Dicke" der Kugelschale und somit der darin befindliche dreidimensionale Raum ist aus "irdischer" Sicht nicht von einem "Volumenuniversum" zu unterscheiden. Da sich die gebildeten Objekte (lokale Inhomogenitäten wie Gashaufen, ..., Planeten,...,Galaxien,...) auf der Kugelschale durch ihre gravitative Dynamik in alle Richtungen bewegen konnten und können. Der Kugel-Oberflächen basierende Raum war und ist dreidimensional dynamisch. Das diese Dynamik einer Kugelschalenexpansion überlagert ist, können wir nicht (mehr) wahrnehmen, weil dieser anhaltende Prozeß zeitgleich zur primären Expansion einsetzte. Das bedeutet eine Massenansammlung auf der Kugelschale hatte und hat  3 Translationsfreiheitsgrade zusätzlich zur radialen Expansion. Abstrakt lässt sich qualitativ "so" - phänomenologisch begründet - eine expandierende Raum-Zeit-Konstruktion bilden. Nur wozu?

Insgesamt stellt sich die Frage, ob die aus der Bewegung entstandene (neue) raumgekoppelte Masse einem Selbstähnlichkeitsprozess unterliegt. Soll heißen: Entsteht neue Masse fraktal? Kann jeder Raumpunkt auch "Quelle" einer neuen Elementarkörperbildung sein? Energetisch ist das im Bild der Elementarkörperdynamik "kein" phänomenologisches Problem (siehe das Kapitel über die innere Dynamik des Elementarkörpers).  

 

Die Wahrnehmungsmöglichkeiten der Menschheit und apparativ der Experimentellen Physik, respektive der Experimentellen Astronomie sind in eine Ära hineingeboren, die wesentliche Bildungsprozesse verpasst hat, daß darf auch zweideutig verstanden werden, wenn man sich die Theoriekonstrukte der »Knallisten« verdeutlicht.

 

Es hat sich somit reine Bewegung(s-Energie) in Raum(-Energie) umgewandelt. An diesen Raum ist inhärent Masse gekoppelt. Die zeitabhängigen Entstehungsgleichungen und daraus resultierend die Kosmische Konstanten-Gleichung [K1] sind :

 

Um nun festzustellen in welchem Stadium wir uns befinden, müssen wir als erstes die Richtungs-Ebene bestimmen, die der Kugeloberfläche entspricht und dort dann die Ebenen-Fluchtgeschwindigkeit genügend weit entfernter Objekte ermitteln, um aus unserer Sicht "nahe" lokale Gravitationseinflüsse vernachlässigen zu können. Beides ist nicht einfach. Sollten wir uns am Maximum befinden, dann geht die radiale Expansionsgeschwindigkeit und die resultierende Fluchtgeschwindigkeit der Objekte "auf" der expandierenden Ebene gegen Null. Inwieweit bereits vorhandene Daten relevant für eine diesbezügliche Auswertung sind, ist schwer zu sagen, da diese höchstwahrscheinlich Urknalltheorie beladen sind.

 

Wie bereits erwähnt ist es nicht zwingend, daß das Universum nach Erreichen des Maximums gemäß [rUni] kollabiert. Da die mathematisch-formale Beschreibung [rUni] unberücksichtigt lässt, daß der Umwandlungsprozess : Bewegung ► Raum einer Zustandsänderung entspricht. Mathematisch-formal würde nicht nur der Raum zugunsten der Bewegung kollabieren, sondern auch die rauminhärente Masse kleiner werden.

"Überleitend" sei darauf hingewiesen, daß im Bild der Elementarkörpertheorie Energie stets verkörpert ist. Das bedeutet u.a., daß Photonen mit Lichtgeschwindigkeit schwerpunktbewegte Elementarkörper sind. Das ist nicht im Widerspruch mit der Relativitätstheorie, da die konstant "lichtschnelle" Translation des Schwerpunktes keine Auswirkung auf die innere Energie des Elementarkörpers hat (Details siehe die Kapitel Anatomie des Photons und deBroglie-Materiewelle).

 

Apropos Lichtgeschwindigkeit           Ist die Elementarkörpertheorie "relativistisch"?

Das Verständigungs- und Interpretations-Problem begann bzw. beginnt - wie so oft - mit einem Realphysik befreiten Formalismus. Die beobachtbare Invarianz der (Vakuum-)Lichtgeschwindigkeit ist keineswegs "direkt" mit der Speziellen Relativitätstheorie (SRT) verbunden, wie suggeriert wird. Das historisch viel zitierte Michelson-Morley-Experiment ist eindimensional konzipiert und sagt gar nichts über Masse behaftete Teilchen im Sinne der herrschenden Physik  aus und behandelt auch keine transversalen Komponenten. Die mathematische Invarianz der transversalen Komponenten ist lediglich eine formale Konsequenz der geradlinig gleichförmig bewegten Beobachter bezüglich kräftefreier Teilchen in einem mathematischen Denkmodell. Mit anderen Worten, daß gesamte Konstrukt der Lorentztransformation(en) ist an Inertialsysteme gebunden. Phänomenologisch sagt die SRT schlicht nichts über die Invarianz der Lichtgeschwindigkeit.

Mit anderen Worten: Bevor hier Mißverständnisse aufkommen. Es wird nicht behauptet, das die Mathematik der Relativitätstheorie falsch ist. Wie könnte auch eine axiomatisch begründete These falsch sein? Doch das mathematische Konstrukt besitzt - außer der zu Grunde liegenden beobachtbaren Invarianz der [Vakuum-]Lichtgeschwindigkeit - keine realphysikalische Basis. Es existieren zwar Beobachtungen aber es existiert schlicht keine Phänomenologie zur Mathematik der SRT. Die inertialsystembehaftete »Relativität der Beobachter« ist eine "heikle Sache", da es in der Natur nur dann zu messbaren Systemänderungen kommt, wenn Energie ausgetauscht wird. Energieaustausch bedeutet aber grundsätzlich, daß "Kräfte" wirkten oder weniger mystisch ausgedrückt, daß Beschleunigungen auftraten. Mit der Beschleunigung "verabschiedet" sich das Inertialsystem und folgerichtig gleichfalls die Lorentztransformationen. Die Mathematik der SRT ist nicht falsch sondern schon "per Definition" nicht dynamisch.

Physik bedeutet Wechselwirkung und Energieaustausch. Koordinatensysteme und Koordinatentransformationen "sind" keine physikalischen Vorgänge, sondern Mathematik. Es wird nicht geklärt, wie die Energiedifferenz und die „Struktur der Energiespeicherung“ über Koordinatentransformationen erzeugt wird oder „verschwindet“. Gemäß Relativitätstheorie gilt: Der Energieinhalt eines Teilchens ist abhängig von der Geschwindigkeit dieses Teilchens und resultiert aus einer Beobachtung, all das relativ aus Sicht eines Inertialsystem behafteten Beobachters.

Wenn sich die Geschwindigkeit ändert, dann ändert sich auch der Energieinhalt. Dies bedeutet: Durch den veränderten Energieinhalt muß sich zwangsläufig auch die innere Struktur der Teilchen ändern, denn die Energie wird „irgendwie“ und „irgendwo“ gespeichert und ist abrufbar. Phänomene wie die Änderung des Massenwertes in Abhängigkeit der Geschwindigkeit können mit der Relativitätstheorie nicht erklärt werden. Die Relativitätstheorie liefert keine physikalische Rechtfertigung, die erklärt, warum und wie Masse größer oder kleiner wird.

Aus Sicht der Realphysik orientierten Elementarkörpertheorie bleibt von der Relativitätstheorie nur der Lorentzfaktor γSRT als statischer Fall einer Elementarkörpertheorie basierenden allgemein gültigen Formulierung γdyn übrig:

γSRT =

γdyn =

Der dynamisierte Faktor γdyn ist Inertialsystem befreit und wirkt radialsymmetrisch. γdyn lässt sich "einfachst" und elegant aus der Elementarkörpergleichung r(t) ableiten.

 

 

 

Die Natur der 3K-Hintergrundstrahlung

Wasserstoff ist mit Abstand die am häufigsten vorkommende Materieform des Universums. Wasserstoff macht ungefähr 90% der interstellaren Materie aus. Wie gezeigt wird, ist der im Universum omnipräsent vorhandene Wasserstoff die "Quelle" der 3k-Hintergrundstrahlung. Dieses Ergebnis resultiert phänomenologisch aus der Annahme, daß die Proton-Elektron-Wechselwirkung zu einem massegekoppelten Raum führt, der formal durch die Thermische De-Broglie-Materiewelle ausgedrückt wird. Die 3K-Hintergrundstrahlung, respektive die Energie der 3K-Hintergrundstrahlung repräsentiert somit nicht ein expandierendes Raumzeit-Relikt des inflationären Urknalls, sondern das Ergebnis einer fortwährenden Dynamik.

Das «STIRB und WERDE» der Kosmologie

Auch Masse, Radius, Alter und Expansionsgeschwindigkeit des Universums lassen sich aus der materiebildenden Proton-Elektron-Wechselwirkung ohne freie Parameter bestimmen.

 

 

 

    Weiterführendes

Bemerkungen zu Gravitationswellen  

LIGO Pressemitteilung vom 11. Februar 2016 zur Gravitationswellen-Detektion vom 14.September 2015, siehe: https://www.ligo.caltech.edu/news/ligo20160211

Aus Sicht der Elementarkörpertheorie ist die Gravitationswelle ein weiteres „epizyklisches Artefakt“. Von der ahnungslosen, sensationsgeilen Boulevardpresse und den indoktrinierten „Massen“ mit rudimentärem oder keinem Wissen euphorisch bejubelt, ist der indirekte Gravitationswellennachweis für Nutznießer des Standardmodells der Kosmologie ein zukünftiger, weiterer Forschungsmittelsegen.  

Zur Erinnerung

Allgemeine Vorbetrachtungen

Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Die so theorieinduzierte, „erfundene“ Wissenschaft ist dann nichts weiter als ein (dogmatischer) Einigungsprozess.

Die Gravitationswelle ist ein Konstrukt der Raumzeit, welche (hier) ein „Theorieelement“ der Relativitätstheorie (RT)* ist.

 

* Gravitationswellen sind kein spezifischer Beweis für die Allgemeine Relativitätstheorie. Auch andere Theorien, wie MOND, sind gravitationswellen-geeignet. Unterschiede existieren beispielsweise bei den Annahmen, welche Vorgänge bzw. Objekte Gravitationswellen auslösen. 

Gravitational waves in bimetric MOND

http://arxiv.org/pdf/1308.5388v2.pdf

…”MOND is a paradigm that replaces Newtonian dynamics and general relativity (GR); its goal is to account for all the mass discrepancies in the Universe without invoking dark matter (and “dark energy”).”…

Was ist MOND? Siehe Exemplarische Ausführungen: Modified Newtonian Dynamics (MOND): Observational Phenomenology and Relativistic Extensions http://arxiv.org/pdf/1112.3960.pdf

Ein Überblick über Theorieerweiterungen findet sich z.B. unter: https://inspirehep.net/record/842520/citations?ln=de 

 

 

"Historisches"

Einstein and the Gravitational Waves Wolfgang Steinicke 2005

…”In 1918 Einstein published the paper ÜBER GRAVITATIONSWELLEN1 in which, for the first time, the effect of gravitational waves was calculated, resulting in his famous “quadrupole formula” (QF). Einstein was forced to this publication due to a serious error in his 1916 paper2…”

1Einstein, A.: Über Gravitationswellen. In: Sitzungsberichte der Königlich Preußischen Akademie der Wissenschaften Berlin (1918), 154–167.

http://www.hs.uni-hamburg.de/DE/GNT/events/pdf/steinicke05.pdf

 

2 Näherungsweise Integration der Feldgleichungen der Gravitation von Albert Einstein 22.Juni 1916

  …”In Eddingtons 1922 paper, "The Propagation of Gravitational Waves"3, Eddington re-derived Einstein's 1918 quadrupole formula and concluded that there is a discrepancy between the two formulas, his and Einstein's, and explained that it was due to a numerical slip in one or the other investigation. It turned out that the numerical slip was in Einstein's 1918 investigation where he had accidently introduced the factor 1/2, because of a minor calculation mistake.”… Source: https://arxiv.org/ftp/arxiv/papers/1602/1602.04040.pdf

  3Eddington, Arthur Stanley (1922) "The Propagation of Gravitational Waves." Proceedings of the Royal Society of London A 102, 268-282.v  

…”Around 1936, Einstein wrote to his close friend Max Born telling him that, together with Nathan Rosen, he had arrived at the interesting result that gravitational waves did not exist, though they had been assumed a certainty to the first approximation. He finally had found a mistake in his 1936 paper with Rosen and believed that gravitational waves do exist. However, in 1938, Einstein again obtained the result that there could be no gravitational waves!...” Source: Einstein and Gravitational Waves 1936-1938 Galina Weinstein 2016

 

…”Beginning in the early 1950s, experts in the theory of general relativity debated vigorously whether the theory predicted the emission of gravitational radiation from binary star systems. For a time, doubts also arose on whether gravitational waves could carry any energy. Since radiation phenomena have played a key role in the development of 20th century field theories”…

Source: Controversies in the History of the Radiation Reaction problem in General Relativity

Daniel Kennefick 1997

 

Der Formalismus der RT bildet nach einem subjektiven Denkmuster, beispielsweise die physikalische Meß-Realität der Invarianz der (Vakuum-)Lichtgeschwindigkeit ab, macht aber insgesamt keine Aussage zur konkreten Materiebildung. Sollte nun ein Theorieereignis der Raumzeit meßbar sein, so muß es sich als realphysikalisches „Messobjekt“ verhalten. Handelt es sich um ein solches, so stellt sich grundsätzlich die Frage, was denn gemessen wird. Nehmen wir mal unkritisch an, es handelt sich um Gravitationswellen. Hier kann es sich dann nur um eine Überlagerung aller vom Messinstrument lokal wahrgenommenen Gravitationswellen handeln. Da das Universum nicht isotrop ist und die Massen potentieller Objekte – soweit entdeckt - nur geschätzt sind, lässt sich weder die Anzahl noch die Stärke der Gravitationswellen-„Emitter“ im Rahmen eines gemessenen Gravitationswellenereignisses identifizieren, und auf Grund der angenommenen endlichen Lichtgeschwindigkeitsausbreitung für Gravitationswellen weder räumlich noch zeitlich „verorten“. Es stellt sich hier (zumindest für logisch Denkende) die Frage, warum sollten nur Ereignisse vor postuliert ~ 1,3 Milliarden Jahren ein Meßsignal „ausgestoßen“ haben? Mit der gleichen Argumentation kämen ja auch alle gravitationswellen-bildenden Ereignisse in Frage, die aus unterschiedlichsten Gründen nicht in den selbstgewählten Beobachtungsrahmen fallen, da sie insbesondere aus (Beobachtungs-)Unkenntnis schlicht unbekannt sind. Die suggestive Annahme, man wüsste genau, was sich kontinuierlich im Universum abspielt, zeugt von dekadenter Überheblichkeit und objektiv betrachtet ist diese (unmöglich zu realisierende) Annahme aber zwingend für die "korrekte Versuchsauswertung".

Denkmodellübergreifend ist fehlende Meß-Reproduzierbarkeit (insbesondere erkenntnistheoretisch) immer ein „schlechtes Signal". Meß-Unabhängig und übergeordnet lassen sich Gravitationswellengleichungen nicht exakt herleiten. Es gibt nur „grobe“ Näherungen im Rahmen der Einsteinschen Feldgleichungen. Das ist – salopp formuliert – der Anfang vom Ende des Gravitationswellennachweises. Denn an diesem Punkt lässt sich folgendes allgemein bemerken:    Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie, die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen. Erst Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen. Die unvermeidbaren (“kovarianten”) Widersprüche kommen mit den offensichtlich unzulässigen Idealisierungen und Näherungen des Systems von nichtlinearen, verketteten Differentialgleichungen. Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung „entschwindet mit der Verstümmelung“ (Idealisierung und Näherung) der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch korrekten Gleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung. Diese Art des Mathematikgebrauches ist willkürlich, da je nach „Geschmack“ der (selbst)gewählten Metrik andere Ergebnisse erhalten werden.

Zur vermeintlichen Messung von Gravitationswellen

Wie bei allen Versuchen zu den Standardmodellen der Kosmologie und der Teilchenphysik wird nie ein postuliertes Theorieobjekt direkt gemessen, daß gilt auch für die postulierten Gravitationswellen.

Die einzig realphysikalisch abbildbaren, relevanten Messobjekte für extragalaktische „Vermessungen“ waren und sind im Denkmodell der herrschenden Physik elektromagnetische Strahlen, im Denkmodell der Elementarkörpertheorie sind das Photonen, die sich mathematisch mittels der Entwicklungsgleichungen r(t) und m(t) beschreiben lassen.

Bei der irdischen LIGO-Apparatur (Laser Interferometer Gravitation Wave Observatory) handelt es sich prinzipiell um ein Michelson-Interferometer. Das Messobjekt ist „Laserlicht“. Was ist Laserlicht? Was sind Laserstrahlen? Ach ja, kohärente Lichtstrahlen.

Es wird nun von den Protagonisten des herrschenden Standardmodells postuliert, daß Gravitationswellen die relativen(?) Längen der Arme des Interferometers ändern. Ein Arm wird gedehnt, der andere Arm wird verkürzt. Die messbaren Unterschiede sollen in der Größenordnung von 10-22 liegen. Konkreter, es soll sich der 4000 Meter Spiegel-Abstand um 10-18 Meter ändern. Es kommt zu Phasenverschiebungen der Teilstrahlen, die dann mittels Interferenz-, respektive Intensitätsverteilung gemessen werden. Hört sich plausibel an. Wäre da nicht die Tatsache, daß der extrem ausgeprägte „Vordergrund“, daß könnte bei diesen kleinen Messunterschieden so ziemlich „Alles“ sein, gleichfalls ein Meßergebnis erzeugt, was auch unvermeidbar geschieht, und gravitationswellen-theoriefreundlich herausgerechnet werden muß.

Die Frage, was ist eine Gravitationswelle in der Raumzeit(?), lässt sich realphysikalisch nicht beantworten. Eine Gravitationswelle ist ein mathematisches Konstrukt.  

Kommen wir zu der entscheidenden "Meß-Tatsache": Es werden keine Gravitationswellen gemessen, sondern Phasenunterschiede, Laufzeitunterschiede, Intensitätsunterschiede von Laserlicht. Das bedeutet: Die Ursache könnte Irgendetwas sein. Das Meßsignal wird größenordnungsmäßig von allen möglichen Störsignalen extrem stark "überschattet". Man könnte auch sagen, daß bißchen Meßsignal ist da, weil es gewünscht wurde. Man könnte sich auch das Konterfei  von Helmut Kohl in eine Möhre schnitzen (sofern man diese gestalterische Gabe und ein entsprechendes Werkzeug hat) und sagen, das hätte man im Rahmen eines komplizierten mathematischen Formalismus vorausgesehen. Wie bereits aufgeführt, lässt sich -  im Gegensatz zum Möhrenschnitzer - das Experiment weder wiederholen, noch wird erklärt, warum nur die postulierten Ereignisse vor ~ 1,3 Milliarden Jahren ein Meßsignal „ausgestoßen“ haben sollen? Der Kosmos ist sozusagen gravitationswellentot, bis wieder eine neue spektakuläre Messung ansteht. Wann steht eine neue Messung an? Sie steht dann an, wenn die Herrschaften des Standardmodells es wieder so wünschen.

Weiterführendes: Rudolf Kiesslinger (1921 - 2011) hat sich im Rahmen seiner Arbeiten zur Gravitation intensiv mit diversen Aussagen der Relativitätstheorie beschäftigt. Ob Periheldrehung des Merkur oder zeitrelativistische Effekte, daß energieerhaltende Gravitationsgesetz erklärt nicht nur relativistische Effekte, es ermöglicht auch konkrete Berechnungen, die den Ergebnissen der RT entsprechen. Jeder kann sich unter Gravitation verknüpft mit Eigenschaften des Lichts 1993/94, 2010 selbst ein Bild davon machen.

 

Zum "Gravitations-Wellen-Ausklang"

Moderner Förster und „mathematische Feldhasen“

Stellen »Sie« sich vor, »Sie« sind ein Förster und beobachten jeden Morgen den nahe gelegenen Waldrand. Nur sind »Sie« nicht irgendein Förster, sondern »Sie« sind ein „moderner Förster“. Diese tragen eine „mathematische Brille“, die den Blickwinkel sehr stark einschränkt. Das führt dazu, daß »Sie« nur sehr selten Feldhasen sehen, die aus dem Wald ins Freie hoppeln. Eines Tages sehen »Sie« einen und erzählen stolz der ganzen Welt, »Sie« haben heute nicht nur einen Feldhasen, sondern einen „mathematischen Feldhasen“ beobachtet, der, anders als gewöhnliche Feldhasen, von dem Gleichungs-Impuls gelenkt wurde, der in der „mathematischen Hasenbibel“ steht, welche jeder „mathematische Feldhase“ neuronal-kodiert im Hasenhirn mit sich „rumträgt“. Nun, »Sie«, der besagte Förster, bekamen zu »Ihrer« Überraschung weder omnipräsente mediale Aufmerksamkeit und auch keinen Nobelpreis, sondern wurden neurologisch untersucht.