Stört obige Animation beim Lesen?  »Bewegliche Leser«  "scrollen" so weit wie nötig...

Wenn Dein einziges Werkzeug ein Hammer ist, sieht die ganze Welt wie ein Nagel aus.

 

Zur Form des Vortrages: Es gibt mehrere paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen eine ertragbare Diskussionsnähe.

Die "Zersplitterung der Materie" als Selbstzweck mathematischer Theorien und die zwangsläufige Zunahme irrelevanten Wissens, insbesondere in Form von unbeständigen virtuellen Teilchen, ist mittlerweile etabliertes Standarddenken. Statt in Vereinfachung endet dieses formale Postulieren und "Theorie-Verfeinern" offensichtlich nicht im Erkenntniszuwachs, sondern in wissenschaftlicher Beliebigkeit. Die auf Mathematik basierende Grundlagen-Physik bedarf dringend einer naturphilosophisch orientierten Reglementierung. 

 

 

 

Mythos  »Theorieschaft« [ Theorie schafft ]

Praktisch orientierte Ägypter, Römer und Griechen erschufen lange vor Einführung der Integral- und Differentialrechnung, lange vor theoretischen Modellen zur Tragfähigkeit und Biegemöglichkeit von Balken und Säulen, komplexe Bauwerke, deren Fragmente teils auch heute noch zu besichtigen sind. Nicht die Theorie zum Halbleiter schuf den Halbleiter, der Halbleiter als elektrotechnisches Bastel- und Tüftler-Objekt ließ Spielraum für theoretische Betrachtungen. Funktionierende Technik als Innovation Angewandter Physik bedarf und bedurfte versuchsfreudiger „Macher“, Misserfolge zeigten den Weg. Theoretische Modelle hink(t)en stets der (meßbaren) Realität hinterher. In dem Zusammenhang ist es erstaunlich, wie viele „Interessierte“ und „Wissenschaftsprofis“ glauben, Quantenfeldtheorien wären innovative theoretische Konzepte, die praktische Anwendungen generieren.           

Moderne Mathematik hat im Bereich der Theoretischen Grundlagenforschung die physikalische Anschauung fast komplett abgeschafft. Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große EULER nach seinem Geständnisse sich nicht immer erwehren konnte." [EM1]

[EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

Theorien werden von ihren Autoren im Hinblick auf schon bekannte oder richtig vermutete, empirisch prüfbare Phänomene entwickelt. Dass diese Phänomene sich dann aus den Theorien, zwar nicht immer sehr überzeugend, wieder ableiten lassen, ist wenig erstaunlich. Unliebsame mathematische Lösungen der von der Standardphysik gewählten Mathematik, wie negative Energien oder nicht gewünschte Polstellen werden der Zeit geopfert oder als Koordinaten-Artefakte „identifiziert“. Aus negativer Energie wird negative Zeit und positive Energie konstruiert und Polstellen werden mittels „geeigneterer“ Koordinatentransformationen „eliminiert“. Die grundsätzliche Wechselwirkung zwischen theoretischer Erwartung und Versuchsgestaltung ist insbesondere in der experimentellen Teilchenphysik sehr problematisch, da Experimentatoren und "ihre" Versuchsapparaturen meist einen komplexen Einfluss auf die Messung nehmen.

Wenn Physiker also glauben, physikalische Grundgleichungen gingen den physikalischen Phänomenen voraus, oder die Realität setze sich aus mathematischen Formeln zusammen, begehen sie einen analogen Fehler wie Platon, der die Realität aus den Begriffen, anstatt die Begriffe aus der Realität ableitete.

 

 

 

Mehrere Standardabweichungen weit weg von der erfassbaren Norm

Baden im eigenen Denksaft

Wer Erkenntnisse verfälscht oder verheimlicht, für eigene Zwecke auslegt, oder lediglich einer Minderheit Zugang zu diesen gewährt, hat im Wissenschaftsbetrieb nichts zu suchen.

Freie-Parameter-Physik ist rational logisch - und aus naturphilosophischer Sicht – betrachtet, trotz der vielen „Zahlen“, ausnahmslos eine Nullnummer der Erkenntnis. Zur Erinnerung: Alle theoretischen Beschreibungen zu fassbaren Ergebnissen angewandter Physik beinhalten nicht einen einzigen freien Parameter.  

Freier Parameter und Variable

Sie können die Lautstärke des Abspielgerätes variieren oder die Helligkeit des Fernsehens, dies sind „zweckmäßige Variablen“. Auch Autos und Flugzeuge lassen sich variabel steuern. Doch keine einzige Anwendung, kein einziges Naturereignis besitzt auch nur einen freien Parameter. Merke: Jede willkürlich gewählte Grösse zerstört die Funktion der Anwendung. Es ist sinnleer Objekte und Wechselwirkungen zu postulieren, die unbeobachtbar sind. Plakativ formuliert: Ihr Auto fährt, weil es eine wahrnehmbare Ausdehnung und ein messbares Gewicht besitzt. Wasserstoff und Wasserstoffmoleküle nehmen gleichfalls Raum ein und haben ein Gewicht. Nun zu behaupten, daß die Bausteine des Wasserstoffs aus Objekten bestehen, die teils keine Ausdehnung haben und unbeobachtbar sind, bringt die Verkünder und Gläubigen zurück ins „barocke 17.Jahrhundert“, … „außer Phlogiston nix gewesen“…     

Georg Ernst Stahl war neben Johann Joachim Becher ein Hauptbegründer der Phlogistontheorie…

Die Phlogistontheorie konnte ausreichend (Oxidations- und Reduktions-) Prozesse verständlich machen.

Die Phlogistontheorie regte dazu an, „feinst verteiltes“ Phlogiston aufzufangen und zu untersuchen.

Die Theorie ermöglichte eine Systematisierung von Stoffgruppen…

Antoine Laurent de Lavoisier „ersetzte“ das Phlogiston durch die „kalorische Substanz“, die gleichfalls unsichtbar sei, kein Gewicht besäße und sich zwischen den Molekülen aufhielte…

Später dann untersuchte Lavoisier die Gewichtsveränderungen verschiedener Stoffe bei Oxidation und bei Reduktion und entdeckte, daß das gerade aufgefundene Element Sauerstoff dabei die entscheidende Rolle spielt und widerlegte die Phlogistontheorie. Vergeblich versuchten die Verteidiger der Phlogistontheorie, wie Henry Cavendish, Joseph Priestley, Carl Wilhelm Scheele diese zu bewahren, indem sie modifizierte Phlogiston-Modelle kreierten.

Selbstversuch:  Ersetze Phlogiston durch „moderne Theorieobjekte“ (Quarks, Gluonen, dunkle Materie, dunkle Energie, Neutrinos,…)

„Brennt da was“? "Willkommen" im Barock 2.0

Nun stellen Sie sich vor, daß Sie – trotz omnipräsenter Indoktrination der Standardmodellverkünder und  weit verbreiteter SM-generierter moderner Objekt-Märchen - rationales Denken wieder finden... "Plötzlich" fliegen Ihnen freie Parameter, postulierte Theorieobjekte, postulierte Wechselwirkungen, Nichtbeobachtbares, axiomatische Verletzungen, postulierte Nichtwiderlegungsfrechheit, Beliebigkeitsthesen, »taylorreihenaffines Zeug« und was Sie sonst noch so „drauf haben“ ohne Unterlass solange um die Ohren, bis die Steilchen im Köpfchen komplett verrückt werden und mit Neutrinos wild kopulieren, als wenn es kein Morgen geben würde. Virtuelles beginnt so stark zu glühen, daß selbst die dunklen Photonen traumatisiert das Weite suchen und völlig falsch im Zerfallskanal abbiegen. Dann beginnt das große leptonische Zittern, gefolgt von der Angst kosmischen Ausmaßes, der ohnehin gebrechlichen WIMPs, die aber doch irgendwie auch Lust verspüren. Jetzt zeigt das »SM« seine wahre Bedeutung. Erste Todesahnungen kommen auf. Nun gibt es kein Halten mehr. Verstörte Quarks fressen Gluonen, die Folgen sind fatal. Verstopfte Verdauungskanäle rufen viel zu schwere Vektorbosonen auf den Plan, die eilig an einem neuen Symmetriebruch arbeiten um den alten Zustand wieder herzustellen. Zu spät. All’ das und noch viel mehr endet orgastisch mit einer Flut von Theorie-Objekt-Suiziden, durchaus nicht ungewöhnlich für die 2. und 3. Generation der einst expressionistisch entstandenen Erst-Fantasien. Gleichgeschaltet und völlig enthemmt singt der Beauty-Quarks-Chor politisch inkorrekt „Auferstanden aus Ruinen…“  So abgedroschen es auch klingen mag, jetzt sind sich alle einig, „Lieber ein Ende mit Schrecken als ein Schrecken ohne Ende.“  

Zum leichteren Verständnis...

Was den Standardmodellen fehlt ist die über willkürliche mathematische Konstruktionen hinausgehende Wirkung. Dem Standardmodell der Elementarteilchenphysik (SM) und dem kosmologischen Standardmodell (ΛCDM) fehlen die Poesie. Lieblos aneinandergereite, unvereinbare Abstraktionen, die fernab von realphysikalischer Sinneserfahrung im Rahmen freier Parameter als philosophische Denkmodelle inkonsistent dahindümpeln. Diese entpuppen sich bei genauer Sicht als moderne epizyklische Dogmen, die schon seit Jahrzehnten ohne naturphilosophische Bedeutung existieren. Erkennbarer Sinn und Zweck sind wirtschaftlicher Natur. Sie dienen einer elitären Gruppe von vermeintlichen Wissen_schaft_lern und assoziierten Technikern als Existenzgrundlage. 

 

 

Wie weit sich die Standardmodellphysik von wesentlichen Fragestellungen und rational logischen Aspekten entfernt hat, verdeutlichen folgende Beispiele.

Der Radius eines postuliert asymmetrisch substrukturierten, ladungsfragmentierten Objektes ist eine phänomenologische Unmöglichkeit. Da macht es auch keinen Unterschied ob dieser theoriebeladen als elektrische oder magnetische Größe definiert wird. Siehe als prominentestes Beispiel den (Ladungs-)Radius des Protons.

Eine zentrale Frage der Physik lautet, warum ist das Masseverhältnis von Proton zu Elektron so, wie es ist? Diese Frage ist im Rahmen des Standardmodells sinnleer. Da das Elektron als elementar-strukturlos* angesehen wird. Ein Vergleich von einem strukturlosen mit einem substrukturierten Objekt ist - gleichgültig wie die Substrukturierung zustande kommt - "gegenstandslos".

Die Natur der Strahlung ist aus Sicht der herrschenden Denkmodelle vollkommen ungeklärt bzw. ein inkonsistentes Durcheinander. Hier stellt sich in einer konstruktiven erkenntnistheoretischen Auseinandersetzung die Frage, inwieweit das erweiterte Konzept der „Austauschteilchen“ respektive der Eichbosonen** eine realphysikalische Gültigkeit besitzt. Denn das zeitstabile reale Photon ist als Entität grundlegend verschieden von den massebehafteten Vektorbosonen und dem Higgs-Boson, sowie von den selbstwechselwirkenden, masselosen Gluonen. Das Photon zum Austauschteilchen bzw. Vektorboson zu erklären, ist, außerhalb der elektroschwachen Theorie, QED bzw. des SM stark diskussionswürdig. Auch ohne Kenntnis der Elementarkörpertheorie stellt sich insgesamt die epistemologische Frage nach der Realität der innerhalb des SM theorienotwendigen Vektorbosonen und des theorienotwendigen Higgs-Bosons. Wobei hier rational-logisch zu bemerken ist, daß 99% der Masse des Protons sowie des Neutrons energetisch als Bindungsenergie definiert werden. Der Higgs-Mechanismus ist also selbst im Rahmen des SM voraussageunspezifisch und massegebend ineffizient.

 

*Diese Aussage zur Strukturlosigkeit wird im Rahmen der Quantenelektrodynamik (QED) "verworfen". Postulat der QED: Das Elektron ist von einer „Wolke“ aus virtuellen Photonen und virtuellen Elektron-Positron-Paaren umgeben. Was man als Elektronenladung gemäß QED mißt, ist die abgeschirmte Ladung. Die Ladung eines nackten Elektrons (d.h. eines Elektrons ohne Vakuumpolarisationswolke) wird QED basierend als unendlich berechnet. Erst die Subtraktion der gleichfalls unendlichen Ladung der abschirmenden Wolke ergibt die gemessene elektrische Elementar-Ladung.

QED-Analoges" SM-Postulat: Wie das Elektron ist auch ein Quark von einer Wolke virtueller Teilchen umgeben, und zwar von Gluonen und Quark-Antiquark-Paaren. Die Farbladung eines Quarks wird durch die Farbladungen der Quark-Antiquark-Paare in der Wolke teilweise kompensiert. Anders als die elektrisch neutralen virtuellen Photonen in der Umgebung eines Elektrons haben die virtuellen Gluonen in der Umgebung eines Quarks ihre eigenen Farbladungen und können daher in Paare von Gluonen übergehen (Selbstkopplung). Als Folge dieser zusätzlichen Beiträge wird im Falle der QCD die Farbladung des Quarks nicht abgeschirmt, sondern erhöht (antiscreening). [Es gibt keine erklärende Phänomenologie zum antiscreening!] 

**In der elektroschwachen Theorie werden, wie bei allen quantenfeldtheoretischen Eichtheorien, die Wechselwirkungen durch Eichbosonen vermittelt. In der elektroschwachen Theorie treten zunächst vier masselose Eichbosonen auf, die auftretenden Eichbosonen werden als "Mischungen" definiert. Grundidee ist eine formale Vereinigung von elektromagnetischer und schwacher Wechselwirkung. Wobei W1, W2 und W3 keinerlei "messtechnische Realität" besitzen. Das Z0-Boson ist nicht wie die W-Bosonen maximal paritätsverletzend, da es einen Anteil des W3-Bosons enthält. Man sagt, die Zustände des Photons γ0 und des Z0-Bosons sind um den so genannten Weinbergwinkel gedreht. Das Photon soll sich in der elektroschwachen Theorie wie in der QED verhalten. [Diese Annahme/Forderung ist phänomenologisch haltlos, da das "Photon der QED" nicht dem Mischzustand der elektroschwachen Theorie entspricht.]

 

Mischungen der elektroschwachen Theorie

Auffällig ist die Diskrepanz zwischen gemessenem Weinberg-Winkel [CODATA-Wert 2014] und der formalen Wertbestimmung [Wθc] [Wθ]. Insgesamt variiert der Weinberg-Winkel in Abhängigkeit der experimentellen "Energiefenster".

 

 

Warum sollten von allen postuliert »Substruktuierten« nur das Proton zeitstabil sein? "Gleiches" gilt für das postuliert "leptonische" Elektron. Elektron und Proton werden erst konsistent verständlich, wenn man ein Denkmodell verwendet, in dem  eine »elementare Wesensgleichheit« vorausgesetzt wird, die "zwanglos" zum (masselosen) Photon führt und wenn dann aus dieser Betrachtung u.a. formal-analytische Gleichungen folgen, die zu konkreten Berechnungen führen (...wie z.B. der Protonenradius, Rydberg-Energie, allgemein Grundzustandsenergien,..., die Masse des Neutrons,...)

 

 

 

 

Schriftverkehr heute

Sprache ist abstrakt. Wortfolgen können mehrdeutig interpretierbar sein, oft entscheidet der gesamte Kontext über die Aussage. Losgelöst von der Unart, daß Lobbyisten gerne Textfragmente isolieren um Polemik, Propaganda, Falschaussagen und «Emotionalitäten», wie Hass und Abscheu gegen Autoren auszulösen, reicht eine einfache Lesefähigkeit nicht aus, um die hier vorliegende deutschsprachige Schrift im Sinne der beabsichtigten Aussagen vollständig und richtig zu „dekodieren“. Das „zwischen den Zeilen lesen“ können, ist die Kunst. Das setzt einen sicheren und geübten Umgang mit Texten voraus. Die stetig steigende Anzahl funktionaler Analphabeten ist das Ergebnis (miß)bildungsstaatlicher Vorsorge zur Bekämpfung der Freiheit und Individualität der Bürger. Der Lese- und Schreibunfähige bleibt hilflos, ungebildet und ist leichter beherrschbar. Kritische Schriften können sehr mächtig sein. Die öffentlich verbreitete, unzensierte Wahrheit wird von Politikern und Zensoren besonders gefürchtet. Zustandsbeschreibungen in Form guter Aphorismen sind wie wissenschaftliche Gleichungen. Mit wenigen «Zeichen» werden effektiv komplexe Erscheinungen beschrieben.

 

 

 

 

Zensurfantasien und Sprachgebrauch im [Neuen] Deutschland des Jahres 2017

... leider nur anfänglich Satire

 

Das Spiegelei 

Symbolik, Wirkung und zukünftiges Verbot

Die Integrationsbeauftragten der Europäischen Union machen sich große Sorgen. Die bedingungslose Homogenisierung Europas kann derzeit nicht umgesetzt werden. Nach wie vor sind Spiegeleier weit verbreitete, gern gesehene „Leckerbissen“. Das Spiegelei symbolisiert jedoch, wie kaum eine andere „Speise“, politische Unkorrektheit. Statt einer ordentlichen Vermischung von Eiweiß und Eigelb, wie beim politisch korrekten Rührei, besteht das Spiegelei aus klar erkennbaren „Strukturen“, die sich voneinander abgrenzen. Des Weiteren ist die unvermeidbare »Gettoisierung des Eigelbs« im Spiegelei in einem zukünftigen homogenen Europa, so wie es sich führende Sozialromantiker und Ausbeuter wünschen, nicht tragbar. Insbesondere Kinder und Jugendliche werden durch den Anblick von Spiegeleiern langfristig in ihrer Entwicklung zu europäischen Herdentieren schwer gestört. Die europäische Zensur-Kommission (EZK*) schlägt vor, die  „Sonderstellung“ des Eigelbs unter Strafe zu stellen. Zubereiter und Konsumenten von Spiegeleiern werden zukünftig mit einem Bußgeld in Höhe von 1000€ für jedes sichtbare Eigelb bestraft. Im Wiederholungsfall folgt Freiheitsentzug mit begleitender Anti-Spiegelei-Therapie. Altbewährte Foltermethoden, wie z.B. Elektroschocks und Schlafentzug, werden solange angewandt, bis der Anblick eines Spiegeleies hysterische Weinkrämpfe auslöst.

* European Censorship Commission (ECC) wurde von allen europäischen Mitgliedsländern einstimmig durch den deutschbasierenden Begriff mit der Abkürzung EZK “ersetzt”, da die deutsche Zensur auf eine lange Tradition zurückblicken kann und brandaktuell im Bereich Meinungszensur in Europa führend ist.

In diesem Sinne wünschen wir uns die totale Vermischung. Auf das auch unsere letzten Freiheiten als bald der inhomogenen Vergangenheit angehören... 

Am Rande bemerkt: „Gerüchte“, daß deutsche Hauptstrommedien bereits so weit links sind, daß sie rechts wieder rauskommen, werden seitens der Altparteien-Regierung und der „Presse“ dementiert. Einige „deutschlandferne“ Beobachter glauben jedoch, daß die Abhängigkeitsverhältnisse hinter den Kulissen im unkritischen Nahbereich zwischen Politik und Presse, wenn nötig, auch mit Gewalt aufrechterhalten werden, wenn die Gesinnungsstaats-Konzepte nicht „alternativlos“ umgesetzt werden. Wie schnell diese Gewalt auch nach „aussen“ strömen kann wurde kurz nach der Bundestagswahl 2017 deutlich. Mit den Worten einer Vertreterin des vermeintlich schwachen Geschlechts namens Frau Andrea Nahles, gibt es jetzt auch von der Pseudoopposition „auf die Fresse“. „Sprachbeobachter“ befürchten schon seit einiger Zeit eine irreversible Verrohung der deutschen Sprache, angeheizt und vermittelt durch vermeintlich gut Integrierte.

 

Diverse Systemfreunde und - hier und da - systembegünstigte Pseudostörer sehen das anders und klären uns exemplarisch mit Buchtiteln, wie NewtonWie ein Arschloch das Universum neu erfand (von Florian Freistetter, „bloggender“ Astronom) oder Selbstverfickung (von Oskar Roehler, Filmregisseur, Journalist und Autor) auf, daß die deutsche Sprache generell in die Gosse gehört. Es kommt also so, wie es kommen muß im Neuen Deutschland, (selbst)verfickte Arschlöcher kriegen auf die Fresse. „Da guckst Du“.

 

Weiterführendes

 

 

 

 

 

Fatale Standardmodelle Beispiel SdAEV

Viele Menschen können sich nicht vorstellen, wie unglaublich realitätsverleugnend politisch Verantwortliche in Tateinheit mit Wissenschaftlern agieren und durch omnipräsente Dauerpropaganda Bürger bewusst getäuscht werden.

„Die Förderung erneuerbarer Energien wird einen Haushalt nur einen Euro im Monat kosten – so viel wie eine Kugel Eis.“ verkündete 2004 der damalige deutsche Umweltminister, Jürgen Trittin. In Wirklichkeit hat sich die monatliche Stromrechnung für deutsche Haushalte seit 2000 etwa verdoppelt. Elektrizität ist in Deutschland für Konsumenten mit fast 30 Cent je Kilowattstunde sogar um die Hälfte teurer als im Hochpreisland Schweiz [1].

Und diese staatliche Volksverdummung geschieht, obwohl die Faktenlage - öffentlich einsehbar - sachbezogen dokumentiert ist. Wer also glaubt, daß die Standardmodelle der Theoretischen Physik eine Berechtigung haben, weil sich nahezu alle „führenden“ Wissenschaftler dort tummeln, hat wesentliche Aspekte der vermeintlich  „gemeinnützigen Meinungsbildung“ nicht verstanden. Ob CERN oder exemplarisch die deutsche „alternative Energiepolitik“, nicht der Wunsch nach Erkenntnisgewinn oder praktischem Nutzen geben hier den Ton an, sondern letztendlich die von der Allgemeinheit subventionierten Nutznießer selbst, die konträr zur empirischen Gewissheit, Fakten leugnen und haltlose Aussagen verbreiten. Der Erhalt der Macht- und individuellen Versorgungsstruktur steht über Allem anderen. Kritiker werden ignoriert, wenn nötig diskreditiert. Servile System-Medien verkünden und bewerben jeden denkmodell-theoretischen und anwendungstechnischen Mist der herrschenden Standardmodelle. Wie eindeutig die Beweislage ist, verdeutlicht exemplarisch die Situation des Standardmodells der deutschen alternativen Energiepolitik (SdAEV).

Während der Frostwetterperiode wurden im Zeitraum 16. bis 26. Januar 2017 von den über 26.000 Windenergieanlagen mit einer installierten Nennleistung von 50 Gigawatt nur minimale Leistungseinspeisungen für die Stromversorgung bereitgestellt. Kernenergie-, Kohle- und Gaskraftwerke übernahmen fast vollständig die Stromversorgung in Deutschland [2].

Wer es noch genauer braucht um den gelebten Irrsinn zu begreifen: Am 24.1.2017 um 7.00Uhr war die Stromnachfrage (Netzlast) 70 GW hoch. An Photovoltaik und Windkraftanlagen sowie Wasserkraft standen rein theoretisch 89,5 GW Kapazität zur Verfügung. Die tatsächliche Erzeugung am 24.1.2017 um 7.00Uhr von Photovoltaikanlagen lag bei Null, die der Windkraftanlagen bei 0,8 GW. Die thermischen Kraftwerke, vornehmlich Kohle, Gas und Kernkraft waren hoch ausgelastet und gewährleisteten die Versorgungssicherheit.[3]

Dieses Beispiel zeigt, ohne Wenn und Aber, die brachiale Wahrheit, daß die deutsche Stromversorgung zwingend zwei Systeme erfordert. Ohne „konventionelle“ regelbare und jederzeit verfügbare Kraftwerke, gäbe es gar keine parallele alternative Energieversorgung, diese jedoch hatte und hat ohne lokal vorhandene Energiezwischenspeicher keine Daseinsberechtigung. Das Standardmodell der deutschen alternativen Energieversorgung ist untauglich. Wenn man das nun mit der Lügen-Propaganda der Macher und Nutznießer des SddAEV und der tendenziell positiven Volksmeinung vergleicht, wird klar wie katastrophal ausweglos die Situation mittlerweile ist.  

„Wertfrei“ betrachtet: Politiker schlagen „Strategien“ vor, Experten beurteilen diese, Industrie-Manager entscheiden (sofern es sich um Industrieprozesse privatwirtschaftlicher Unternehmen handelt), die „angestellte Basis“ setzt um. Das Volk bekommt letztendlich, was es “verdient“ hat. Das ist mehrdeutig zu verstehen. Wann die Schmerzgrenze erreicht ist und die Basis sich kollektiv verweigert, „steht in den Sternen“. Bildung und Sach-Aufklärung sind von Vorteil um Argumente verstehen und vortragen zu können. Doch diese gibt es bewusst nicht von den jetzigen „Nutznießern der Ungebildeten“. In Sachen Energiepolitik kann man wählen was man will oder nicht wählen, es wird sich nichts ändern, da auch die zukünftige politische „Opposition“ (es darf gelacht werden) mehrheitlich den gleichen ideologischen Unsinn propagiert.

Hier stellt sich unweigerlich die Sinnfrage, wie es möglich war/ist, daß ein Energieversorgungssystem mit dem faktischen Wissen der Unmöglichkeit des praktischen Betriebes konzipiert und fatalerweise umgesetzt wurde. Das bedeutet aber auch, daß die projektinvolvierten Wissenschaftler, Ingenieure und Techniker entweder keine „Stimme“ haben oder ihnen „Alles“ egal  ist, solange jemand ihre Arbeit vergütet.

Genauer betrachtet sind es die entscheidungsmächtigen  „Kaufmänner“ der Energiekonzerne, die ihr (technisches) Personal befragen und dann instruieren, letztendlich mit der finalen Gewissheit, daß die „geplante“ Technik nie zu einer effizienten, noch nicht einmal annähernd, ausreichenden Stromversorgung führen wird.

Hatten denn zumindest die technisch "Aufgeklärten" des SdAEV eine "moralische" Verpflichtung gehabt, die Umsetzung des Vorhabens zu verhindern, indem sie vehement die Wahrheit über alle erdenklichen Medien kundtun bevor es zu spät war. Die schlichte Antwort ist, ja, die hätten sie gehabt, aber aus rein egoistischen, materiell-existentiellen Motiven heraus, geschah dies nicht, lassen wir mal den ein oder anderen Einzelfall außer Betracht. Losgelöst davon, wäre es nicht Aufgabe der Wissenschaftsredaktionen gewesen, das nutzlose SdAEV in Grund und Boden zu schreiben? Es macht ergebnisorientiert keinen Unterschied ob die Herren und Damen der Redaktionen unqualifiziert sind oder auch hier über Werbe-Verbindungen zwischen Magazin, Politik und Industrie nicht den Ast absägen, auf dem sie sitzen.   

Da es sich bei der Stromnetz-„Wissenschaft“ um eine anwendungsorientierte Technik handelt, deren Systemparameter seit mehr als einem Jahrhundert gut bekannt sind, sollte man sich auch die Frage stellen, inwieweit der gezielte Einsatz bekannterweise nichtfunktionierender Technik strafrechtlich relevant ist, da neben der materiellen Bereicherung der „Nutzlostechnik-Profiteure“ im Rahmen des SdAEV keinerlei Nutzen für die zahlenden Kunden existiert, die stromversorgungsbedingt mehrheitlich keine Alternative haben. Sie müssen zahlen.

Zum Mitdenken: Beim SdAEV handelt es sich um ein - bezüglich der Konzeption und in der Wirkung - leichtverständliches Standardmodell mit direkten Beweisen. Die Standardmodelle der Physik (Lambda-CDM-Modell und SM) und deren (mathematische) „Erweiterungen“, wie Supersymmetrie (SUSY) oder Stringtheorie können nicht einen einzigen direkten experimentellen Nachweis postulierter Theorieobjekte erbringen! In zahlreichen Wissenschaftsshows und Wissenschaftsmagazinen rund um den Globus wird gebetsmühlenartig, hübsch aufbereitet, der bare Unsinn bezüglich der Materiebildung und Materiewechselwirkung verbreitet. Egozentrik, Macht- und Habgier der Standardmodellmacher werden u.a. über milliardenteure wissenschaftliche Kathedralen, wie den LargeHadronCollider (LHC), verkündet und das gläubige, unwissende Volk befruchtet diese erkenntnis-impotente Wissenschaft mit Anerkennung und Beifall. Wie beliebig, sinnleer und aussagelos die Standardmodelle der Physik sind, wird in den folgenden Ausführungen skizziert und exemplarisch in den Kapiteln Standardmodell der Teilchenphysik, Standardmodell der Kosmologie und dem Kapitel Higgs-Boson-Kreationen und andere Kleinigkeiten detailliert erörtert.

 

Was "man" sonst noch wissen sollte ... aber "keinem gesagt" wird ... 

Wenn das menschliche Wirken einen signifikanten Einfluss* auf das globale Klima hat, dann ist festzustellen, daß der mit Abstand größte „klimaschädliche“ Aspekt der Mensch selber ist, was grundsätzlich nicht kommuniziert wird. Eine Reduktion der Weltbevölkerung durch stark verminderte Reproduktionsraten ist der effizienteste „Klimaschutz“. Ob im ("westlichen") Europa jemand mehr oder weniger Auto fährt, mehr oder weniger Strom verbraucht, … ist in Anbetracht der Bevölkerungsexplosion und massiver Industrialisierung insbesondere Asiens und Afrikas ohne wirkliche Bedeutung.

Weiterführende Aufklärung

*Der menschliche Faktor

The climate mitigation gap

education and government recommendations miss the most effective individual actions       published 2017 

Reproduction and the carbon legacies of individuals

published 2009

ein "linkführender" Spiegel-Artikel

veröffentlicht im Juli 2017

 

 

Des Weiteren

 Hysteriker und mainstreamgeformte Ideologen aufgepasst !

Grundsatzpapier Klima  

Dilemma-Warnung! Dieses »Grundsatzpapier« zum Klima sollte nicht von Ökoreligiösen konsumiert werden, da es entweder die Propaganda-Fundamente ihres Glaubens mit dokumentierten Fakten zertrümmert oder alternativ noch tiefer den faktenfreien Abgrund "bemüht", der nur mit noch weitreichenderer Selbst-Verblödung des Ökoreligiösen machbar ist. 

 

Moderne Bücherverbrennung

 

 

 

 

 

Am Rande bemerkt...

Wunsch und Wirklichkeit »Moderner Kunst«

Vermeintlich politisch motivierte Gegenwartskünstler suggerieren u.a. Anteilnahme und Empathie für „WEN“ auch immer. Doch jeder sollte wissen: Leben ist egoistisch. Künstler sind egozentrisch und wünschen sich Aufmerksamkeit. Inwieweit jedoch ein privat motiviertes Anliegen neben „Aufklärung und Besitzerfreuden“ auch gemeinnützliche Aspekte generiert, steht auf einem anderen Blatt.

„Politischer Künstler unserer Zeit“ und deren Produkte sind „gesellschafts-endemische Artefakte“. Denn wäre Kunst „vor Ort“ wirklich systemgefährlich, so würde diese nicht „positiv medial“ in Erscheinung treten.

Zur Erinnerung: Die Bedeutungslosigkeit „moderner“ Kunst ist „dank“ Marcel Duchamp’s Wirken – Anfang des 20.Jahrhunderts – inhärenter Begleiter des „modernen“ Künstlers. Künstlerische Fertigkeiten sind zwar von Vorteil, lassen sich aber stets als „nur“ Kunsthandwerk verstehen. Soll Kunst einfach nur „schön“ sein, dann reduziert sich die Wechselwirkung auf individuelle Befindlichkeiten. Soll Kunst »mehr« sein, dann stellt sich die Frage, was dieses »mehr« ist. Kunst sollte mehr sein als Allegoriengeschraube.

In der Kunst werden gerne folgende drei Ausdrücke verwendet: Diskurs, Allegorie und Rezeption. Alle drei sind „Bullshit“. Erstens gibt es real weder Meinungs- noch Kunstfreiheit, schon gar nicht in Deutschland im Hinblick auf das Arsenal der (Internet-)Zensurbestrebungen der deutschen Regierung und deren „Medienvertretungen“ (ZEIT, SPIEGEL; FAZ; SÜDDEUTSCHE,…), zweitens ist die Bewertung von Kunst, insbesondere aufgrund der fehlenden „Qualitätskriterien“ und der gängigen „Aussageverweigerung“ der Künstler, Kuratoren, Galeristen eine reine Kapitalmarktangelegenheit.

Banken, Versicherungen, Energiekonzerne und deren „Manager“ sponsern, selektieren und kapitalisieren beliebig Kunst. Die vermeintlich erfolgreiche Kunst „wandert“ dann auf Halde. Hinter verschlossenen Safetüren soll sie möglichst viel Rendite abwerfen. Kunstfonds sind beliebte Finanzierungs- und Kapitalmodelle. Dass in diesem Markt kein Platz für gesellschaftsanalytische, basisnahe, „natürliche“ Künstler ist, versteht sich von selbst.

Ein Werkzeug, um der etablierten Form- und Inhalts-Verwahrlosung der Kunst(-Produkte) entgegen zu treten, ist „die“ bewusste, selbstinszenierte konzeptionelle Parodie auf moderne Kunst und deren Künstler.

 

 

 

 

 

 

 

 

Glaubensbekenntnisse in Theorie und Praxis  

Der Glaube an etwas ist erst einmal nichts Schlechtes. Der Innovation geht der Glaube voran. Grundlage für jede Entwicklung, ob in der Physik, Mathematik, Medizin oder Gesellschaft ist kompromissloses Überdenken, Hinterfragen und gegebenenfalls Kritisieren und Verändern der Zustände. Die Installation eines Glaubens ist im Bereich der Wissenschaft eine Vorstufe zum Wissen. Physikalisch-mathematische Denkmodelle, Vorschriften, Axiome sind Glaubensbekenntnisse. Was folgt ist der Vergleich des wissenschaftlichen Glaubens mit der Natur. Das Experiment wird zeigen, ob der Glaube berechtigt ist. Neue wissenschaftliche Denkmodelle ersetzen alte wissenschaftliche Glaubensbekenntnisse. Fortschritt und bestenfalls nachhaltige Erkenntnis bilden immer wieder neue Grundlagen. Die Unbeständigkeit des Glaubens der Vordenker ist die Basis des wissenschaftlichen Fortschritts, der sich dann eines Tages in Automobilen, Flugzeugen, Massenspeichern, Smartphones manifestiert. Auch die natürliche Evolution mit den Charakteristika Selektion und Mutation ist ein hervorragendes Beispiel für Vitalität, Vielfalt, Fortschritt und biologischen Pluralismus.

Übergeordnet kommen stets wiederkehrende Glaubens-Denkmuster zum Einsatz. Resultierende zentrale Fragen sind in allen Lebensbereichen und Wissenschaftsdisziplinen gleich. Wozu nützt der Glaube an etwas? Was bewirkt der Glaube an etwas? Was sind die Konsequenzen des Glaubens an etwas? In wissenschaftlichen Bereichen ist dieses »Etwas« klar definiert, sollte man zumindest idealisiert meinen. Glauben an Atomkerne, Elektronen, Protonen, Photonen führten letztendlich zum technischen Fortschritt beispielsweise im Bereich der medizinischen Diagnostik. Atomkerne, Elektronen, Protonen, Photonen waren insbesondere in den Anfängen reine Glaubensmodelle. Sie konnten nicht direkt beobachtet werden. Noch heute ist die Struktur ungeklärt. Quarks, Neutrinos und andere virtuelle Teilchen werden „bemüht“ um die Struktur und Wechselwirkung von Protonen und Elektronen zu beschreiben. Quarks und Neutrinos sind aber noch weniger beobachtbar und aus dieser Sicht noch ungeeigneter als Elektronen und Protonen und doch glaubt die Mehrzahl der Physiker an diese Teilchen. Religiöser Glaube und wissenschaftlicher Glaube sind sich in diesem Punkt sehr nahe. Es wurden weder Quarks gesehen noch irgendein Gott. Die Glaubenskriege innerhalb der theoretischen Physik, die bei genauer Betrachtung mittlerweile aus rein mathematischen Konstrukten befeuert werden, beinhalten ähnliche Tabus und unüberwindbare Glaubensunterschiede wie religiöse Glaubensmodelle in der Gesellschaft. Stringtheorien und das dominierende Standardmodell der Teilchenphysik sind konkurrierende Denkmodelle. Es gibt perspektivisch keine Parallelität oder Glaubenstoleranz. Auch in der Physik werden favorisierte Glaubensbekenntnisse unwissenschaftlich verteidigt. Populäre Beispiele sind die Urknall- und Neutrinothese.

Als Geburtsjahr der Quantentheorie gilt das Jahr 1900 mit der Veröffentlichung von Plancks Strahlungsgesetz, das das Spektrum idealer Temperaturstrahler (Hohlraumstrahler) in Abhängigkeit der Temperatur angibt. Trotz mehr als 100 Jahren moderner Physik - unter dem Dogma der Quantenmechanik und weiterführend der Quantenelektrodynamik (QED), Quantenchromodynamik (QCD) -  sind fundamentale [Hilfs-]Grössen wie Masse oder Ladung einer greifbaren Erklärung fern geblieben. Die isoliert betrachtete Eleganz und Stringenz mathematischer Denkprozesse und beherrschender Axiome verwandelte sich in Ankopplung an beobachtbare Physik in eine maximale «Unanschaulichkeit der Wahrscheinlichkeiten» und förderte je nach Motivation jedwede Theorie. Die Urknallthese von dem belgischen Priester und Astrophysiker Georges Edouard Lemaître, erstmals veröffentlicht 1927 und die von Wolfgang Pauli stammende Neutrinothese des Jahres 1930 sind Eckpfeiler der modernen Physik. Neutrinos sind «wildcards par excellence» der theoretischen Teilchen-Physik. So wie «sie» gebraucht werden, erscheinen «sie». Und wenn «sie» mal nicht erscheinen, dann "mutieren" sie nachträglich "theoriegerecht", eleganter ausgedrückt nennt man das Neutrino-Oszillation. Der teils magische, "überlichtschnelle" Urknall ist abstrakt formuliert ein subtiler Kreationismus. Die omnipräsenten, "energiereichen", variablen Neutrinos penetrieren zwar «Alles» und "befruchten" hin und wieder mal «Etwas» (siehe Betazerfalltheorie), bleiben ansonsten aber nahezu "göttlich" unbeobachtet. Dieses Neutrino- «Thesen- und Wirk-Schema» "erinnert" an die unbefleckte Empfängnis der Jungfrau Maria. Das mag Gläubige der Bibel in Entzücken versetzen, ist aber der Physik nicht dienlich. Das Standardmodell der Teilchenphysik erweitert diesen abendländisch-christlichen Glauben der Physiker an Natur, indem es "schöpfungsgerecht" «sozialistische Artenvielfalt» (Stichwort: Elementarteilchenzoo) erzeugt. Friedrich Nietzsche hätte großen Spaß an dem «Vergläubigen der Physik» und würde sich bestätigt fühlen, daß unsere Hochkultur sich früher oder später selbst dahinrafft. Die so eingemauerte Grundlagenphysik hat keine Chance auf Erkenntnis.

In der modernen Physik geht es bei genauer Betrachtung seltsamerweise häufig um die Bewahrung bestehender Dogmen. Argumente der Vernunft werden Denkgewohnheiten und Vorurteilen geopfert. Ein psychologischer Grund liegt im Glauben und Hoffen. Die Mehrzahl der „forschenden“ Physiker sind meist Anhänger der Quantenfeldtheorien. Ein echtes Verständnis dieser undurchsichtigen Theorien ist nicht möglich. Aufbauend auf unverstandenen Arbeiten anderer planen sie Experimente, für die es nur zwei Resultate gibt: Erfolg und Bestätigung oder Misserfolg und kurze Ratlosigkeit, die dann in der Regel in neuen Teilchen, neuen Quantenzahlen und Theorieerweiterungen endet. Wie wir alle tendieren auch die (theorieaffinen) Experimentatoren dazu, einen Misserfolg bewusst und unbewusst zu vermeiden, und weichen einer Widerlegung ihres Glaubens durch ein Experiment (oder durch Denken) instinktiv aus. Anstatt die Experimente auf das Wesentliche zu beschränken und sie so einfach und effizient wie möglich zu gestalten, wird auch oft vom Wesentlichen abgelenkt. Moderne Theorien basierend auf Quantenfeldtheorien haben alle eins gemeinsam: Sie entpuppen sich nicht selten in theorierelevanten Experimenten "früher oder später" als Mogelpackungen. Statt nun die Theorie zu verwerfen, werden lediglich Korrekturen vorgenommen. Das können (neue) virtuelle Teilchen sein, die "kurzzeitig" den Energieerhaltungssatz mit Hinweis auf die Heisenbergsche Unschärferelation verletzen. Obwohl diese Verletzung den wichtigsten Erhaltungssatz der Physik konterkariert.

 

 

Am Rande bemerkt: Die phänomenologische Bedeutung des Planckschen Wirkungsquantums ist nicht wirklich geklärt. Tatsache ist, daß die Unteilbarkeit des Wirkungsquantums seit über hundert Jahren bis zum heutigen Tage noch nie begründet wurde. Max Planck hat sie nicht begründet, weil er das Wirkungsquantum für eine elementare mathematische Größe hielt, deren "Notwendigkeit" aus der Theorie folgte.

Einstein hielt eine Begründung nicht für notwendig, weil er an Plancks "Deduktion" glaubte. Er verschob die Bedeutung des Wirkungsquantums, indem er die mathematische Größe als eine physikalische Größe interpretierte.

Kleinste skalare Wirkung ≠ Energie-Zeit-Unschärfe der QM

Oft wird im Zusammenhang mit der Orts-Impuls-Unschärferelation auch eine Energie-Zeit-Unschärferelation leichtfertig genannt. In der Quantenmechanik ist die Zeit t keine Observable, sondern eine Zahl, die den zeitlichen Ablauf der Quantenvorgänge parametrisiert. Also gibt es keinen Zeit-Operator, dessen Vertauschungsrelation man mit dem Energieoperator der Hamiltonschen Funktion untersuchen könnte.

 

 

 

 

Etwas interpretierter Aphorismus zum Kennenlernen und Mitdenken

Ein Denkmodell ohne Mathematik ist ein philosophisches Denkmodell.

Ein Denkmodell „aus“ Mathematik ist kein physikalisches Denkmodell.

 

Erkenntnistheoretisch ist der Weg eines realobjektorientierten Denkmodells vorgezeichnet.

Der Beobachtung folgt die Formalisierung.

In einem allgemein verständlichen Denkmodell ist Mathematik nur Mittel zum Zweck. Nichts weiter als ein plausibilitäts-resultierendes, praktisches Ordnungs- und Formalisierungsinstrument.

(aber)

Mathematik kann nicht zwischen Staub und Staubsauger unterscheiden.

... 

»Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt und nur einem strömt die Menge 

noch begeisterter zu, dem baren Unsinn.« 

Theodor Fontane

Die inversive Methodik

Sowohl das Standardmodell der Kosmologie (ΛCDM-Modell), exemplarische Stichworte Einstein-Friedmann-Gleichungen, Robertson-Walker-Metrik, Dunkle Energie als auch das Standardmodell der Teilchenphysik (SM), Stichworte Lagrangedichte, Higgs-Mechanismus, Neutrinos, zeichnen sich dadurch aus, daß zahlreich postulierte Theorieobjekte und postulierte Wechselwirkungen dieser als "Resultate" eines mathematischen Modells, indirekt beobachtet werden. Der Formalisierung folgt die (gewünschte) Beobachtung. Bei genauer Sicht handelt es sich aber stets um stark theoriebeladene Versuchsergebnisinterpretationen. Das SM kennt keinen einzigen direkten Nachweis einer postulierten Theoriegröße. Das ΛCDM-Modell krankt – losgelöst von konkreten Ansätzen - an einer fundamentalen Randbedingung. Bei allen kosmologischen Beobachtungen handelt es sich nicht um kontrollierbare Laborexperimente. Sowohl in der Newtonschen Interpretation der Gravitation als auch in den „ART-üblichen“ differentialgeometrischen Betrachtungen wird stark idealisiert. Die wahren energetischen Verhältnisse (lokal und teils in (periodisch-)dynamischer Überlagerung) lassen sich im wahrsten Sinne der Worte „aus Sicht“ der Erde oder erdnaher Satelliten nicht ermitteln, wobei selbst die von der Erde weit entfernten Satelliten für kosmische Verhältnisse als erdnah zu verstehen sind. Das bedeutet, die Ursachen könnten gänzlich anderer Natur sein als vermutet. Mit steigender Beobachtungskomplexität, die heutzutage durch iterative Nachbearbeitungen stark „(nach-)belastet“ ist, können vermeintliche Beobachtungs-Effekte von mathematischen Artefakten der genäherten „Lösungen“ nicht separiert werden. Schlicht formuliert, man sieht das, was man theoretisch sehen möchte.

 

Botschaft an alle »realobjektbefreiten Denker«

We're sorry, but your brain has been disconnected from reality. Please hang up and try again.

 

 

 

 

 

 

Globale Verständigungs-Probleme

Es existiert ein Dilemma[*], dessen Ursachen mit dem politisch gewollten Ausschleichen primärer Bildung in direkter Verbindung stehen. Die Lesefähigkeit nähert sich Schritt für Schritt dem funktionalen Analphabetismus und die Fertigkeit kurze, formal präzise Mitteilungen im Sinne rational logischer Möglichkeiten weiterdenken zu können wird nur selten erlernt. Das Gros der Menschen des frühen 21.Jahrhunderts verfügt - "konträr zum angewandten technischen Fortschritt" - nur über eine einfache Lesefähigkeit, die durch den täglichen Gebrauch von „SMS und Twitter“ genährt wird. Dieser, aus vielerlei Sicht, traurige Ist-Zustand gilt auch für akademisch ausgebildete (junge) Leute, zumal dessen reales Bildungsniveau, bis auf Ausnahmen, nicht (mehr) den Standards einer fundierten Wissenschaftsorientierung entspricht.

 

..."Kriese, schwehr, sesonal, Vortschritt, proffesionel, anderst, außländisch, akresiv, expliziet, ziehmlich, imäns: So schreiben heutzutage nicht Grundschüler, sondern Studenten. . .." Siehe den Beitrag Akademisches Prekariat von Josef Kraus, April 2017 ...

Eine verstörende Bestandsaufnahme der (deutschen) Bildungspolitik, …“lustig erzählt“… siehe: DER SCHWANZ IST EINE MONOTON FALLENDE EXPONENTIALFUNKTION von FRANZ LEMMERMEYER

 

 

[*] Somit kommt weder eine komplexere Aussagegestaltung noch eine aphoristische Form der Beschreibung in Betracht. Das Verstehen einer „Schrift“ – insbesondere mit neuen, ungewohnten, alternativen Ansätzen – lebt von der notwendigen Leichtigkeit des Betrachters im Umgang mit Textobjekten. Jemand der schon Schwierigkeiten hat, überhaupt lesen zu können, fehlen die spielerischen Möglichkeiten. Es fehlt sozusagen die freie Kapazität sich auf den Inhalt konzentrieren zu können.

 

 

Es kann also sein, daß ein (junger) theoretischer Physiker Supersymmetrie fordert aber keinen Satz formulieren kann, der interdisziplinär verstehbar und argumentativ nachvollziehbar diese Forderung beschreibt sowie begründet. Wobei hier „gerechterweise“ bemerkt werden sollte, daß der Wunsch respektive die Forderung, das sich Natur nach einem mathematisch formalen Diktat zeigen muß, aus rational logischer und erkenntnistheoretischer Sicht eh nicht realisieren lässt. Der supersymmetrienotwendige Denkstatus verbleibt lokal in einer abstrakten Glaubensuntermenge und erreicht u.a. „mangels Masse“ nicht einmal die Konzeptionsebene religiöser Bekenntnisse.

 

 

Das [Un-]Wesen der Modernen Physik

 

Ein geschichtlicher Rückblick zeigt, daß Leute die auf Fehler aufmerksam machen, damit rechnen müssen, daß man ihnen jahrzehntelang nicht glaubt, während jene die im Rahmen bestehender Denkmodelle spektakuläre "Luftnummern" publizieren, honoriert und hofiert werden.

... mit den (zeitlosen) Worten Theodor Fontanes:

»Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.« 

 

Naturphilosophischer Ansatz

Grundlegende Denkmodell-Aspekte lassen sich in Ankopplung an globale Auffälligkeiten, wie Gravitationskonstante, kleinste skalare Wirkung und Invarianz der Lichtgeschwindigkeit, nur intuitiv entwickeln. Man muß eine Idee und weiterführend, aufbauend konsistente Ideen haben, um ein Denkmodell interdisziplinär verständlich gestalten zu können. Denkmodelle müssen absolut begriffstransformierbar sein, um eine epistemologische Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht außerhalb der Mathematik vermitteln lässt, ohne daß sie ihren exakten Bedeutungsanspruch verliert, ist im Rahmen eines physikalischen Denkmodells stets eine Nullnummer der Erkenntnis.   

Natur kann nur addieren oder subtrahieren. Eine „gesicherte“ »höhere mathematische Realität« existiert ausschließlich im Rahmen axiomatisch begründeter Sprache (Mathematik). Inwieweit eine korrekte mathematische Struktur (»höhere mathematische Realität«) physikalisch anwendbar ist, lässt sich mit den „Mitteln“ der Mathematik nicht entscheiden (siehe „unstrittig-exemplarisch“ Epizykeltheorie und Banach-Tarski-Paradoxon). Mathematik erfasst letztendlich Mengen und kann nicht zwischen Staubsauger und Staub unterscheiden.

Die Standard-Annahme der Standardmodelle, daß komplexe mathematische Formalismen einen erkenntnistheoretischen Gewinn „mathematik-selbstgestaltet“ generieren können, ist ein fataler Irrglaube, der zu theoriebeladenen Versuchen führt und in dessen Verlauf Versuchsergebnisse weder reproduzierbar noch direkt meßbar sind.

Es gibt keine „reine“ Beobachtung. Jede Beobachtung wird aus Sicht bestehender Theorien interpretiert, ist also „theorie-beladen“. Theorien, die bereits auf formal logischer Ebene in sich widersprüchlich sind, brauchen im Grunde nicht empirisch überprüft zu werden, da aus einer falschen Annahme jede beliebige Aussage folgt und damit die Theorie unwiderlegbar bzw. mit jeder Beobachtung vereinbar ist. Das geozentrische Weltbild zeigt, daß eine falsche Theorie über Jahrhunderte, ja sogar Jahrtausende als wahr und mit Hilfe von Zusatzannahmen wie den Epizyklen, trotz starker empirischer Indizien für ihre Falschheit aufrechterhalten werden kann. Wir verfügen über keine allgemein anerkannte Wahrheitstheorie. Wir haben jenseits von Tatsachenbehauptungen keinen intersubjektiven Zugriff auf die Wirklichkeit. D.h. die Übereinstimmung von Aussage und Wirklichkeit kann nicht objektiv festgestellt werden. Dieser Sachverhalt wird insbesondere dann problematisch, wenn die Theorie bestimmt, was gemessen werden soll.

Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend einer phänomenologischen Betrachtung und Erklärung.

Und das ist der „springende Punkt“. Den Standardmodellen fehlt es generell an plausibler Phänomenologie. Die Behauptung diese wäre nicht mehr denkbar, weil die theoretischen Implikationen, wie die Raum-Zeit, die menschliche Vorstellung sprengen sind Zirkelschlüsse, da hier abstrakte theoretische Modelle zur realphysikalischen Wahrheit erklärt wurden. Die Axiomatik ist nie falsch, was aber nicht bedeutet, daß damit eine physikalische Realität verbunden ist, siehe hier das überdeutliche Beispiel des Banach-Tarski-Paradoxons.

 

Wie unbrauchbar Mathematik ohne Anbindung an physikalische Realität sein kann, „illustriert“ ein Beispiel. Es lässt sich mathematisch beweisen, daß durch Zerlegung einer Kugel, aus dieser zwei neue Kugeln entstehen, die jeweils der Ausgangskugel entsprechen.

Es handelt sich um das so genannte Banach-Tarski-Paradoxon, welches besagt, daß man eine Kugel in drei oder mehr Dimensionen zerlegen kann und daraus zwei neue identische Kugeln erhält. Das Volumen verdoppelt sich, ohne dass anschaulich ersichtlich ist, wie Volumen aus dem Nichts entsteht.

Der Unterschied zwischen moderner Mathematik und moderner Physik besteht darin, daß Mathematiker sich innerhalb ihrer Disziplin ihrer Unvollkommenheit bewusst sind, während sie im Bereich der Theoretischen Physik Hand in Hand mit ihren Physikerkollegen mitunter sinnentleert jede noch so absurde These vertreten und durchsetzen.

 

Das Standardmodell der Teilchenphysik (SM) und das Standardmodell der Kosmologie (ΛCDM-Modell) erreichen in der praktischen Ausführung diese „axiomatische Qualität“ gar nicht, da erst Näherungen und Idealisierungen zu rechenbaren Lösungen führen, doch diese Eingriffe zerstören die Axiomatik.

 

[Basis of Modern Physics is bullshit]

...das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu: dem baren Unsinn...

 

Im Jahre 1964 postulierte Murray Gell-Mann auf Grund von Argumenten zur (mathematischen) Symmetrie der SU(3)-Gruppe eine Struktur der Nukleonen, die aus drei Partonen – diesen Namen hat Richard Feynman geprägt – bestehen. Basierend auf literarischen Vorbildern wurden die Partonen von Gell-Mann als ” Quarks“ bezeichnet, nach James Joyce in” Finnegans Wake“: Three quarks for master Mark.

Ratlosigkeit und Phänomenologieferne wurden und werden durch virtuelle Teilchen und postulierten Schnittstellen zwischen theoretischer Fiktion und Realphysik „ersetzt“. Da dies nicht gelingen kann, bedarf es mit fortschreitender Komplexität vieler freier Parameter, variabler Kopplungskonstanten und „wilder Substrukturierung“. Aus einem Austauschteilchen (Photon) werden schnell mal acht (Gluonen), die dann zusätzlich mit weiteren Quantenzahlen ausgestattet werden müssen.

Im Fall des Lichtäthers erhielt man ein Trägermedium, das Licht leitet, im Fall des (negativen) Dirac-Sees erhielt man ein Medium im Vakuum, das voll von negativen Energieteilchen ist, die die Fluktuationen im Vakuum verursachen. In beiden Fällen lässt sich das postulierte Medium weder begründen noch nachweisen. "Lustigerweise" lehnen Standardmodell-Anhänger den nicht beobachteten Lichtäther ab und führen ohne mit der Wimper zu zucken sodann die gleichfalls nicht nachweisbare Dunkle Energie und Dunkle Materie ein. Nüchtern betrachtet wird schlicht ein Glaubenskonzept durch ein anderes Glaubenskonzept ersetzt. 

Ausgehend vom Quantenfeldvakuum besteht eine der wortwörtlich großen Schwierigkeiten darin, daß eine Energie im Vakuum angenommen werden muss, die ihre Auswirkungen in die ART „verschleppt“. Es stellt sich in Verbindung mit der kosmologischen Konstante die Frage: Ist die Nullpunktenergie real? Oder verflüchtigt sie sich eines Tages, so wie zuvor Lichtäther und Dirac-See.

Was ist der phänomenologische Unterschied zwischen einem beobachtbaren Photon und einem (postulierten) nicht beobachtbaren Gluon, wenn das Gluon auf Wunsch des symmetriesuchenden Theoretikers, so wie das Photon, masselos, raumlos ist und sich mit Lichtgeschwindigkeit bewegt? Sparen wir uns an dieser Stelle den Hingucker auf gluonische Details, wie deren acht wechselwirkende Ausformungen und diverse theorienotwendige Verknüpfungszahlen. Sparen wir uns auch den Hingucker auf das Photonenpostluat im Rahmen der Elektroschwachen Theorie, welches dem Photon die Entität raubt und durch eine irreale mathematische Mischung ersetzt. Am photon-gluonischen Beispiel wird deutlich, wie beliebig und sinnleer theoretische Physiker „postulieren“. Zur Erinnerung: Mathematik kann nicht zwischen Staubsauger und Staub unterscheiden. Die mit „Füssen“ brachial getretene naturphilosophische Betrachtung heult hier „gluonisch“ auf.

Wie wir alle wissen (sollten) wurde der Lichtäther kollektiv verbindlich abgeschafft. Das ätherassoziierte lichtschnelle, masselose Photon durfte jedoch bleiben. Welchen Sinn macht es „nun“ ein Higgs-Feld samt massebehafteten Higgs-Bosons in „Analogie einzuführen“? Zumal der „Higgs-Mechanismus“ den Teilchen bis auf ein mickriges Prozent gar keine Masse geben kann, nicht einmal in der frei formulierbaren mathematischen Fantasie. Was soll man mit einer ursprünglich masselosen dann „higgskorrigierten“ Theorie anfangen, die 99% der bekannten Masse als „gluonische“ Bindungsenergie in die Welt setzt? Das ist aus epistemologischer Sicht nicht einmal mehr epizyklisch, hier grüsst mit breitem Grinsen die Phlogistontheorie. Fazit: Theodor Fontanes „frühe“ Erkenntnis ist in der Modernen Theoretischen Teilchenphysik ein Dauerbrenner: » Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn. « 

Zur Beliebigkeits-Problematik der freien Parameter gesellt sich noch die unvermeidbare „axiomatische Verletzung“ des Kovarianzprinzips. Salopp "formulierter" Hintergrund: Die Allgemeine Relativitätstheorie wurde u.a. aus der Forderung geboren, zur Beschreibung der Naturgesetze beliebige Koordinatensysteme verwenden zu können. Entsprechend dem Kovarianzprinzip sollte die Form der Naturgesetze nicht entscheidend von der Wahl des speziellen Koordinatensystems abhängen. Diese Forderung ist ursächlich mathematisch und führt zu einer Vielfalt von möglichen Koordinatensystemen [Metriken].

Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie (ART), die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen.

Gemäß ART-Postulat trägt nicht nur Masse, sondern auch jede Form von Energie zur Krümmung der Raumzeit bei. Dies gilt einschließlich der mit der Gravitation selber verbundenen Energie. Daher sind die einsteinschen Feldgleichungen nichtlinear.

Erst Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen. Die unvermeidbaren ("kovarianten") Widersprüche kommen mit den offensichtlich unzulässigen Idealisierungen und Näherungen des Systems von nichtlinearen, verketteten Differentialgleichungen. Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung „entschwindet mit der Verstümmelung“ (Idealisierung und Näherung) der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch korrekten Gleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung. Diese Art des Mathematikgebrauches ist willkürlich, da je nach „Geschmack“ der (selbst)gewählten Metrik andere Ergebnisse erhalten werden.

Das mathematische Konzept der Eich-Symmetrie(-Forderung) entspringt einer im Kern realphysikbefreiten Abstraktion. Resultat: Konträr zur sachdienlichen Forderung erkenntnistheoretischer Betrachtungen sind die „Ergebnisse“ der Theoretischen Grundlagenphysik zu den vermeintlichen „Elementarteilchen“ eher emotional statt wissenschaftlich begründete Antworten auf die ideologische Frage, auf welches theoretische Konzept man sich „heute und demnächst“ einigt. Die Natur hat sich gefälligst dann den theoretischen Implikationen zu unterwerfen. Heute sind es beispielsweise noch postuliert elementare Quarks, morgen möglicherweise "Preonen-Substrukturierte". Gemessen wird stark selektiv in vorgezeichneten Zerfallskanälen. Beobachtet wird das, was die aktuell herrschende Theorie fordert.  

 

Was ist und was darf sein 

Physikalisch reale Wechselwirkungen einzelner Körper (n=2) und Viel-Objekt-Strukturen (n=N) manifestieren die physikalische Realität. Realobjektinteraktionen sind meist nichtlinear, dissipativ und irreversibel. Umso stärker Modell-Idealisierungen von diesen natürlichen „Randbedingungen“ abweichen, desto weniger brauchbar sind die Denk-Modelle. Rational logisch folgt: Die mit den Standardmodellen inhärent verbundene real nicht existente Zeitumkehr ist ein starkes Argument gegen diese Modelle (zur Naturbeschreibung). Des Weiteren ist das nicht energieerhaltende Konzept virtueller Theorieobjekte und resultierend virtueller Wechselwirkungen erkenntnistheoretisch gleichfalls ohne Realitätsbezug. Es existieren (also sehr wohl) objektive Bewertungskriterien zur Brauchbarkeit eines Denkmodells.

1..."Die meisten »master–theories« der Physik sind widerlegt – in aller Regel ohne jegliche Folgen. So genießen die Maxwellschen Gleichungen der Elektrodynamik in der Heaviside-Hertz-Version nach wie vor Kultstatus, obwohl sie weder die Lorentzkraft oder gar die Joulesche Wärme als weltweite Lichtquelle berücksichtigen..."

..."P. K. Feyerabend verweist darauf, dass sich nach der klassischen Elektrodynamik von Maxwell und Lorentz „ein bewegtes freies Teilchen selbst beschleunigt“! Trotzdem wird an der Theorie festgehalten, der Sachverhalt verdrängt – mit der Selbstverpflichtung, „die Schwierigkeiten zu vergessen, nie über sie zu reden und zu verfahren, als wäre die Theorie fehlerlos. Diese Haltung ist heute weit verbreitet.“ [FEYERABEND, K. P. (1986), S. 77]"....

..."Der bemerkenswerteste Fall betrifft die Quantenmechanik: Der große Mathematiker, John von Neumann (geb. Neumann János) publizierte 1932 sein opus magnum über die Mathematischen Grundlagen der Quantenmechanik. Das Datum der Publikation dieses Buchs hielt Carl-Friedrich von Weizsäcker für den Beginn der „Machtübernahme“ der Mathematik in der theoretischen Physik. Doch schon vor diesem Datum befielen von Neumann Zweifel an seiner Theorie. Dann im Jahr 1935 wies er nach, dass jede Theorie der Quantenmechanik, die auf dem »Hilbertraum« als Bezugsbasis entwickelt wird, physikalisch inakzeptabel ist [RÉDEI, M. (1996)]. Jeden klaren Kommentar in der Öffentlichkeit darüber vermied er sein Leben lang, obwohl er zusammen mit F. J. Murray in einer Serie von mathematisch höchst innovativen Publikationen zur Algebra (Von-Neumann-Algebren) nachwies, wie eine zutreffende Fassung der Quantenmechanik zu gestalten sei.

Im wahrlich umfangreichen Bestand an Publikationen zur Quantentheorie findet man zu von Neumanns Dilemma kaum eine substantielle Notiz. Erst 44 Jahre nach seinem Tod im Jahr 1957 kann die Fachöffentlichkeit aus mehreren privaten Äußerungen erfahren, warum von Neumann niemals sein berühmtes Buch von 1932 widerrufen oder zurückgezogen hat. Das Motiv war einfach: Seine »Falsifikation« hätte niemand der Fachkollegen ernst genommen, da z. B. der »Hilbertraum« weltweit längst zum Grundbestand der Quantentheorie gehört. Aber auch gravierende thermodynamische Einwände spielten eine Rolle, mit denen sich außer von Neumann keiner der großen Quantenheroen in ihren Lehrbüchern befasste."...

 1Quelle: Nichtmechanistische Darstellung der physikalischen Disziplinen als mathematische Systemtheorie   Vilmos Balogh

 

 

 

Weitere Beispiele   Das Elektron ist quantenfeldtheoretisch ohne Ausdehnung, somit ohne Trägheitsmoment daraus folgend realphysikalisch „eigendrehlos“. Es existiert eine rein energetische Analogie, die sich durch Energieniveau-Aufspaltungen manifestiert. Mit einer Eigendreh-Dynamik des Elektrons hat das nichts zu tun. Spin-Bahn-Wechselwirkung gemäß Dirac und "semiklassische" relativistische Korrektur ohne Spin sind im Ergebnis gleich! Der Spin "entsteht rein mathematisch" mittels so genannter γ-Matrizen "innerhalb" eines Gleichungssystems. Wer Freude an mathematischen Spielchen hat, kann dies in zahlreichen Online-Ausführungen selbst recherchieren. Die pathologische Prozedur mittels Begrifflichkeiten wie Spin oder Spin-Bahn-Wechselwirkung suggestiv an realphysikalische Objekte "anzukoppeln", die Masse besitzen und Raum einnehmen, ist schizophren. Da es weder in der Quantenmechanik noch in den Quantenfeldtheorien diese Objekte gibt. Ganz im Gegenteil: Dem Elektron wird per Postulat ein Radius "abgesprochen". Fakt ist: Es wurde noch nie ein quantenmechanischer Spin gemessen, es wird auch in Zukunft kein quantenmechanischer Spin gemessen. Gemessen wird stets ein magnetisches Moment, dem mathematisch sodann ein quantenmechanischer Spin zur Berechnung angeheftet wird. Das magnetische Moment basiert realphysikalisch aber auf radiusgekoppelter Masse, auch wenn das Systemphysiker nicht wahrhaben wollen. Sowohl bei quantenmechanischen Spinberechnungen und daraus resultierend Folgeberechnungen erinnern die rein mathematischen Vorgänge an die Epizykeltheorie des Geozentrischen Weltbildes. Die Berechnungen der Epizykeltheorie mit damals 3 freien Parametern waren nie falsch, das dem zu Grunde liegende Weltbild jedoch eine Erkenntnis-Katastrophe.   

Es stellt sich psychologisch die Frage, warum mehrere Generationen von Physikern Selbst-Theorie leugnend von Bahnen und Drehimpulsen sprechen, schreiben und höchstwahrscheinlich auch denken, wenn "ihre" Theorien weder Bahnen noch Drehimpulse enthalten (dürfen). Eigenrotation setzt räumliche Ausdehnung, Masse und Drehachse voraus. Der "gemeine" Denker sollte sich selbstmotiviert schlicht mal die Frage stellen, warum die Theoretische Physik realphysikalische Objekte programmatisch ablehnt bzw. so sehr "fürchtet".

Der nicht vorhandene Spin der Quarks und Gluonen

Die erste Annahme war, daß im Bild des SM der postulierte Protonenspin sich zu 100% aus den Spinanteilen der Quarks zusammensetzt. Dies wurde viele Jahre nach der ersten Annahme 1988 bei den EMC-Experimenten nicht bestätigt. Entgegen aller Annahmen wurden damals sehr viel kleinere, sogar mit Null verträgliche Anteile gemessen ( ∆∑ = 0.12 ± 0.17 European Muon Collaboration). Diese Entdeckung war so unerwartet, daß eine Zeit lang von einer Spin-Krise gesprochen wurde. Aber auch die zweite Annahme, daß die ins Leben gerufenen Gluonen zum Protonenspin beitragen, ergaben nicht das gewünschte Ergebnis. In der dritten, derzeit aktuellen Theorie-Fassung sollen nun die Quarks, Gluonen und deren dynamisch-relativistische Bahndrehimpulse im Ergebnis fein säuberlich den Protonenspin ausmachen :

Wie ein postuliert masseloses, nichtreales Theorieobjekt, sprich Gluon, einen "suggestiven" Bahndrehimpuls generiert, soll ruhig Geheimnis des SM bleiben (psst). Bei genauer Betrachtung besitzt diese 2.Nachkorrektur den Vorteil, daß das Ergebnis im Rahmen der Gitter-Eichfeld-Theorie und hübschen neuen Konstrukten, namens "Pionenwolken", rein algorithmisch in Großrechner-Anlagen "errechnet" wird. Es wird also solange "kombiniert", bis das gewünschte Ergebnis vorliegt.

Diese Leute sind so überzeugt von ihren Taten, daß sie das Wesentliche offensichtlich aus den Augen verloren haben. Wieso sollte die Natur eine komplexe Mehrobjekt asymmetrisch, ladungsfragmentierte, dynamische Substruktur schaffen, die nur im statistischen Mittel das Gleiche liefert, wie das postuliert punktverarmte, "leptonische" Elektron, daß ohne "Mühe" und Struktur, sowohl einen "diskreten" halbzahligen Spin als auch eine betragsmäßig gleiche Ladung liefert?

 

 

Es geht noch deutlich beliebiger, siehe exemplarisch Frank Anthony Wilczek’s Axionen, die er nach einem Waschmittel benannte, und die „Axionen-erzeugende“ Peccei-Quinn-Weinberg-Wilczek-Theorie (http://www.physik.uzh.ch/lectures/astro/10/vorlesung/Schumann_Axions.pdf )

Am Rande bemerkt: 1973 führte Frank Wilczek zusammen mit David Gross die Asymptotische Freiheit ein. Diese besagt, daß die Starke Wechselwirkung zwischen Quarks umso schwächer ist, je näher diese beieinander sind. Falls zwei Quarks extrem nah zusammen sind, ist die Wechselwirkung so schwach, daß sie sich nahe zu wie „freie Teilchen“ verhalten. Die Asymptotische Freiheit wurde auch von David Politzer „entdeckt“. Alle drei bekamen dafür 2004 den Nobelpreis.   

 

Das Tauon (τ-Lepton) ist das schwerste der drei geladenen Leptonen des Standardmodells der Elementarteilchen. Seine Masse beträgt ~ 1777 MeV/c2, die Lebenszeit ~ 2,906 ± 0,010 · 10−13 s.

Für das Tauon gilt: „Die Brechstange muss ran“ oder sinngemäß nach Georg Wilhelm Friedrich Hegel (1770 - 1831):

„Wenn die Tatsachen nicht mit der Theorie übereinstimmen, umso schlimmer für die Tatsachen.“

Schaut man sich die möglichen Zerfälle des Tauons an (http://pdg.lbl.gov/2015/listings/rpp2015-list-tau.pdf), so wird (zumindest jedem nicht-SM-Gläubigen) Denker schnell klar, daß es aus analytischer Sicht keinen Zusammenhang zwischen „leptonischem“ Elektron bzw. Myon und dem Tauon gibt. Die Theorie des SM verbaut offensichtlich den Blick auf eine rational-logische Sicht der „Dinge“. Das Elektron zerfällt gar nicht, das gleichfalls negativ geladene Myon wandelt sich hauptsächlich in ein Elektron um. Definitiv gibt es keine - ausgehend vom Elektron und Myon -  „ergebnis-hadronischen“ Umwandlungen zu Mesonen oder Baryonen. Das Tauon wandelt sich zwar zu ungefähr 17,8% direkt in ein Elektron und Neutrinos, zu ca. 17,4% in ein Myon, aber hauptsächlich in diverse Hadronen, z.B. mit 25% in ein π-, π0 und postuliert ein ντ. Am Beispiel des Tauons lassen sich die Inkonsistenz der Theorie sowie die assoziierte „SM-Katalogisierungs-Euphorie“ sehr gut ablesen. Hier gilt „Vieles und Nichts“ wird auf derzeit (Stand 2015) 89 Seiten präsentiert. Das Myon schafft 15 (http://pdg.lbl.gov/2015/listings/rpp2015-list-muon.pdf) und das Elektron bringt es im direkten Vergleich gerade mal auf mickrige 6 Seiten (http://pdg.lbl.gov/2015/listings/rpp2015-list-electron.pdf). In dem Zusammenhang ist es auch mehr als verwunderlich, daß sich „Theoretiker“ ausführliche Gedanken über den g-Faktor des Tauons machen (siehe exemplarisch: Electron, muon and tau magnetic moments: a theoretical update 2007 ), wobei es gar keine (aussagekräftigen) Messungen zum magnetischen Moment des Tauons gibt.  

 

Wie "schmerzbefreit" SM-Protagonisten sind, wird auch an den angeblich experimentell nachgewiesenen so genannten Delta-Baryonen überdeutlich. Es erübrigt sich die Bemerkung, daß es, wie könnte es auch anders sein, keine direkten Delta-Baryonen-Nachweise gibt. Es existieren gemäß SM vier verschiedene Δ-Baryonen mit Spin3/2 und folgenden Ladungsmöglichkeiten: Δ++, Δ+, Δ0, Δ. Die asymmetrisch gestückelten Quarks-Ladungen bilden in Form der Δ++ also Ladungsträger mit zweifacher Elementarladung.

Weitere SM-Aussage: ..." Δ+ und Δ0 besitzen denselben Quarkinhalt wie die Nukleonen Proton und Neutron und können deshalb als deren Spinanregung aufgefasst werden."...Übersetzt in die reale Welt heißt das soviel wie: Wissenschaft ist das, worauf man sich geeinigt hat... anything goes.

Es macht aus Elementarkörpertheorie-Sicht wenig Spaß sich mit realphysikbefreiten Abhandlungen zu beschäftigen, die letztendlich in einem Zeitfenster von mehr als 100 Jahren nichts weiter als selbstprophetische Konstrukte beinhalten, die aus erkenntnistheoretischer Sicht der »Natur der Dinge« keinen Schritt näher gekommen sind. Welchen Sinn macht es über die 10.Stelle hinter dem Komma ernsthaft zu philosophieren und dies zu allem Nonsens-Überfluss auch angeblich experimentell messen zu können, wenn der Protonenradius seit Jahrzehnten um fast 4,4% falsch gemessen wurde? Welchen Sinn macht es iterativ taylorreihenaffine Entwicklungskoeffizienten in der Größenordnung von mehreren Zehnmillionen Gleichungen zu definieren? Denn "zeitgleich" liefert die "grandios präzise" Quantenfeldtheorie basierende Berechnung der Vakuum-Energie einen Wert der um den Faktor  10120 falsch ist! Diese "Falschheit" sprengt interdisziplinär jeglichen Rahmen (der Vernunft).

Welchen Sinn macht es über Feinheiten des Universums zu diskutieren, wenn noch nicht einmal die "Basics" von den Protagonisten der Standardphysik verstanden wurden? Bei allen kosmologischen Beobachtungen handelt es sich eben nicht um kontrollierbare Laborexperimente. Sowohl in der Newtonschen Interpretation der Gravitation als auch in den „ART-üblichen“ differentialgeometrischen Betrachtungen wird stark idealisiert. Die wahren energetischen Verhältnisse (lokal und teils in (periodisch-)dynamischer Überlagerung) lassen sich im wahrsten Sinne der Worte „aus Sicht“ der Erde oder erdnaher Satelliten nicht ermitteln, wobei selbst die von der Erde weit entfernten Satelliten für kosmische Verhältnisse als erdnah zu verstehen sind. Das bedeutet, die Ursachen könnten gänzlich anderer Natur sein. Mit steigender Beobachtungskomplexität, die heutzutage durch iterative Nachbearbeitungen stark theoriebeladen „(nach-)belastet“ ist, können vermeintliche Beobachtungs-Effekte von mathematischen Artefakten der genäherten „Lösungen“ nicht separiert werden. Schlicht formuliert, man sieht das, was man theoretisch sehen möchte.

Eine gern vermittelte falsche These lautet: Nach dem Dritten Keplerschen Gesetz und dem Gravitationsgesetz müsste die Rotationsgeschwindigkeit der äußeren Bereiche von Galaxien abnehmen. Sie bleibt jedoch konstant oder steigt sogar an. Dies legt die Vermutung nahe, daß es in Galaxien Masse gibt, die nicht in Form von Sternen, Staub oder Gas sichtbar ist, eben Dunkle Materie. Diese Annahme ist ohne nähere (lokale) Strukturkenntnis phänomenologisch unbegründet ...da sich die Kepler-Gesetze in ihrer Wirkung auf Zentralmassen "beziehen" (was für eine "bahnbrechende" Überraschung). Ist eine Galaxie ein Zentralmassensystem oder "gleicht" sie eher einem starren Körper, bei dem sich die Massen, grob betrachtet, auf einer zentrumsfernen Kreisscheibe "häufen", zumindest wenn man die Galaxie als solche erhalten möchte? Es ist nicht die Dunkle Energie, die hier postuliert zum Einsatz kommt, sondern wohl eher Tendenzen zur kollektiven geistigen Umnachtung. Die derzeitige Fehlerungenauigkeit liegt für kosmische Dimensionen in der Größenordnung von 10% und mehr, sofern man beispielsweise die Ergebnisse des Planck-Satelliten aus dem Jahre 2013 ernst nimmt. Die vom ΛCDM-Modell theoriegenerierte "nichtlineare" Hubble-Konstante besitzt gemäß Planck-Satelitt-Meßung einen Wert von ~ 67 kms−1Mpc−1 statt des zuvor propagierten Literaturwertes von 74,3 +/-1 kms−1Mpc−1.

Wie tief müssen die Selbstzweifel möglicher Kritiker sein, wie ängstlich bzw. wie ignorant ist der moderne Forscher? Die Quark-These ist Quark, nicht weil der deutsche Begriff es schon vorwegnimmt, sondern weil es streng verboten ist, daß postulierte Materieformen nicht meßbar sind. Gleiches gilt materiell und energetisch für Neutrinos und Dunkles Zeug der »Knallisten« (Vertreter und Anhänger des inflationären Urknalls). Es gab und gibt keinen einzigen primären Neutrinonachweis. Dunkle Energie, Dunkle Materie sind nicht anders als Götter und Dämonen. Zukünftige Wissenschaftler-Generationen werden uns für diesen Quatsch im besten Fall "verlachen", denn substanziell gibt es für diese kommerziell motivierten Dark Ages of Modern Physics  nur tiefe Verachtung. Sofern "wir" es schaffen, "uns" an wissenschaftliche Normen zu erinnern und diese ausnahmslos anzuwenden, ergibt sich mit Leichtigkeit die formal logische Gewißheit, daß Confinement-These, Endlos-Substrukturierung, variable Kopplungskonstanten, dutzende freie Parameter, Neutrino-Postulat, Dunkle Materie, Dunkle Energie, Dunkle Photonen nicht die Wissenschaftsnorm erfüllen.

Zur Erinnerung: Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen also keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat massselos, andere nicht. Elektronen sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen"). Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. Religiosität und Psychologie kommen mit dem Theoretiker als Mensch mit ins "Spiel".

Das Paradebeispiel für ein Glaubensbekenntnis statt empirisch begründeter Wissenschaft, ist das Proton. Selbst die vom Standardmodell inszenierten Versuche widerlegen die Substruktur-These im Rahmen der postulierten Konstituenten. Des Weiteren: Quarks sind keine Spin-½-Teilchen und trotzdem wird weiter so getan als ob die Meßergebnisse nicht existieren würden...

 

"[Bild -] Aphoristische Betrachtung" des Proton - Desasters

 

Ein mathematisches Ordnungssystem welches methodisch Versuchsergebnisse ignoriert, ist erkenntnistheoretisch unbrauchbar. Theorien, wie das Standardmodell der Teilchenphysik, welches mit 25 (!) freien Parametern „arbeitet“ ist keine wissenschaftliche Theorie sondern in mehrfacher Hinsicht ein willküraffines, komplexes Glaubensbekenntnis. Die Annahme von realitätsverneinenden Punktmassen, die Forderung nach unbeobachtbaren Teilchen, die beliebig viel Energie aufnehmen und „entfernen“ können und ein mathematischer Formalismus der realitätsbefreit das physikalische Denkmodell ersetzt hat, taugen bestenfalls als mathematische Spielerei. Um Wind, Feuer, Licht und Dunkel zu verstehen wurden „einst“ Dämonen und Götter geschaffen. In die reale Welt von „heute“ wurden irreale Objekte eingeführt, so daß der Mensch erst die Orientierung und dann die Realität verlor. Dunkle Energie und Neutrinos sind Artverwandte bzw. Nachfahren der Götter und Dämonen. Die Theoretischen Physiker des SM sind in einem schlechten Sinne „archaisch“, beratungsresistent und „wirken“ nach dem Motto: Wir lesen nicht, wir schreiben selber…, oder wie es Georg Wilhelm Friedrich Hegel formulierte, „um so schlimmer für die Tatsachen“, wenn sie nicht meiner Philosophie bzw. Theorie entsprechen.

Naiv könnte man glauben, daß zumindest in den „exakten“ Naturwissenschaften widerlegbare Theorien im Namen des wissenschaftlichen Fortschritts ausrangiert werden. Leider ist das Gegenteil der Fall. Das Totschweigen der Gegenargumente war schon immer die effizienteste Verteidigung des Falschen. Wobei es höchst erstaunlich ist, wie unterwürfig, servil und hörig sich „Fachmagazine“ dem Establishment gegenüber verhalten. Das elementare Problem der Theoretischen Physik besteht darin, daß eine verifizierbar falsche Theorie als Denkdogma die Grundlagenphysik beherrscht. Das Dilemma der selbst-prophetischen, willküraffinen Quantenmechanik und deren Erweiterungen läßt sich nur lösen, wenn man sich gesamtheitlich von ihnen trennt. Paradigmenwechsel sind sowohl erkenntnistheoretisch als auch für den wissenschaftlichen Fortschritt essentiell. Und doch wird der hier angestrebte Denkmodell-Wechsel zum ersten Mal in der Geschichte der Physik zurück in die Vergangenheit führen. Modern könnte man sagen, Newton und Boltzmann erleben eine Renaissance. Ihre Ideen und Ergebnisse werden benötigt, um die seit 100 Jahren überfällige Phänomenologie verständlich zu machen, die seit Einführung des methodischen Indeterminismus als überflüssig und störend empfunden wird. Jeder der sich intensiver mit dem Konstrukt der „modernen“ Standardphysik beschäftigt, ahnt schnell, daß neben der geforderten inhärenten Wahrscheinlichkeit auch große Portionen Willkür und Glaube von Nöten sind. Kaum jemand traut sich jedoch, die herrschende Theoretische Grundlagenforschung zu kritisieren. Auch „eingeweihte“ Physiker und Mathematiker tun dies nicht. Die einen, weil sie glauben, sie hätten nicht die nötige Kompetenz, die anderen aus Kalkül. Die Probleme als solche sind leicht identifiziert. Theoretische Grundlagenphysiker verlangen, ohne es explizit aussprechen zu müssen, daß nur Wissenschaftler mit der nötigen mathematischen Ausbildung etwas zum Formalismus sagen dürfen. Der Weg über den Formalismus führt unweigerlich zur Akzeptanz dessen, was man eigentlich kritisieren möchte. Die Prinzipien der Quantenmechanik sind heute so selbstverständlich, wie damals der Glaube an ein geozentrisches Weltbild. Keiner kann sich auf Grund der weltweiten, jahrzehntelangen Beschäftigung der Theoretischen Physik mit Quantenfeldtheorien vorstellen, daß diese (noch) irgendwie fundamental falsch sein könnten. Der große Unterschied ist der, daß sowohl die damaligen Vertreter prinzipiell wussten und aktuell die heutigen Vertreter der modernen Physik auf Grund von zusammengetragenem Wissen und „abseits“ existierenden Theorien wissen (müssten), daß die Basis der Quantenmechanik grundlegend falsch ist.

Nun nimmt die Physik für sich zu allem Übel auch noch in Anspruch glaubensbefreit zu sein. Jeder der sich mit der Geschichte der Physik beschäftigt weiß, daß das noch nie stimmte. Denken sie wirklich, daß die jetzigen Herrscher der Theoretischen Physik zugeben werden, daß die Denkmodelle die ihre Egos streicheln, ihre wirtschaftliche Existenzen begründen und dauerhaft sichern falsch sind? Können sie sich die kleinen und großen Katastrophen und Peinlichkeiten vorstellen, die damit verknüpft sind? 100 Jahre nachweisbar „falsche“ Physik sind  der SuperGAU. Auf der anderen Seite können wir keine Rücksicht nehmen. Die im Rahmen der hier vorgestellten Elementarkörpertheorie vorgestellte Minimalistik und spielerische Voraussagekraft haben das nötige Potential um die Erde erneut rund zu machen.

 

Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen. Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die ursprüngliche Formulierung "verletzt"1, zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen. Die einzig der herrschenden Physik bekannte direkte Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt nicht abbilden. Des Weiteren: Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben. Diese Grundbedingung steht in einem eklatanten Widerspruch zu Neutrinooszillationen (Nobelpreis 2015), die zwingend Neutrinomassen voraussetzen.  

1 Diese Aussage bezieht sich nicht auf die rein mathematische Konzeption, sondern ist erkenntnistheoretisch zu verstehen. Warum sollte man "mit Stolz" einen invaliden Formalismus einführen, der letztendlich massebehaftet nachkorrigiert werden muß. Es drängt sich die Frage nach der primär richtigen Wahl auf. 

Ohne Übertreibung kann man wohl „sagen“: Das widersprüchliche, „axiomatisch bedenkliche“, stark inkonsistente SM kann praktisch nichts Reales erklären und schon gar nicht berechnen. Derzeit 25 freie Parameter, variable Kopplungskonstanten und willküraffine Substrukturierungen liefern über postulierte Verknüpfungszahlen (Quantenzahlen) eine „Katalogisierung“ theoriefreundlich selektierter Energiepeaks, respektive (ultra-)kurzlebiger Massehäufchen, welche fast immer nur indirekt detektiert werden können. Die gesamte Theorie reduziert sich fast ausschließlich auf die Interpretation nicht zu beobachtender, postulierter Teilchenbeschleunigerereignisse.

Bei der Proton-Proton-Wechselwirkung kann auf Grund der Ladungserhaltung offensichtlich kein neutrales Higgs-Boson alleinig entstehen. Wobei diese denkmodellübergreifende Aussage im Standardmodell an Relevanz verliert, da das experimentelle Higgs-Boson am LHC über postulierte Theorieobjekte generiert wird (beispielsweise über die indirekte Fusion von Gluonen). Des Weiteren bedarf es (nach Angaben der "Standardmodell-Verkünder") experimentell mindestens 10 Milliarden Kollisionsereignisse um ein Higgs-Boson zu erhalten. Dieses wird aber keineswegs detektiert. Der vermeintliche "Nachweis" geschieht indirekt über die von der "Theorie" postulierten Zerfallskanäle.

Standardmodell-Sicht: Am LHC kann das Higgs-Boson auf verschiedene Arten produziert werden. Die Fusion zweier Gluonen ist dabei der dominierende Prozess, wobei die Produktion des Higgs-Bosons aufgrund der Masselosigkeit der Gluonen nur über eine Schleife aus massebehafteten Teilchen stattfindet.  

 

 

Das Standardmodell trifft keine Aussage über die Masse des Higgs-Bosons. Die Argumentation zum „Nachweis“ des Higgs-Bosons ist jedoch relativ simpel. Gibt man die Masse dieses Teilchens (125 GeV/c²) vor, so sagt die Theorie vorher, mit welcher Häufigkeit es in Teilchenkollisionen erzeugt und in welche bekannten Teilchen es zerfallen wird:

Ein 125 GeV/c²-Teilchen zerfällt gemäß SM zu 57% in bottom/antibottom-Quarks, 21% in W±, 9% in zwei Gluonen, 6% in Tau/Anti-Tau, 3% Charm/Anticharm, 3% in 2 Z-Bosonen, 0,2% in zwei Photonen, 0,2% in Z-Boson und Photon, 0,6% in "Anderes".

Aber: Die angeblichen Beobachtungen mit grosser Higgs-Boson-Existenz-Signifikanz beziehen sich nicht auf die häufigsten Zerfallskanäle  - allen voran  H→bb̅ mit 57% -. Wie nicht anders zu erwarten, sind die Standardmodell-Macher um keine Ausrede verlegen bzw. arrangierten Theorie und experimentellen Aufbau in der Gestalt, daß Messungen möglichst diffus bleiben. Soll heißen: Der (theorieinduzierte) 57%-Zerfalls-Kanal führt zur Ausbildung von zwei (Teilchen-)Jets. Diese Signatur ist wesentlich schwieriger von der SM-postuliert viel häufiger auftretenden Produktion von gewöhnlichen (nicht vom Zerfall des Higgs-Bosons stammenden) Jets aus Prozessen der starken Wechselwirkung zu unterscheiden. Diese Situation wäre jedoch vermeidbar, wenn man statt eines Hadronenbeschleunigers einen e+-e--Linearbeschleuniger gewählt hätte, der einen im Verhältnis zum LHC viel geringeren "Hintergrund" erzeugt. Das Mißverständnis der SM-Denker kommt aus der fehlenden, respektive falschen Annahme, wie sich Materie bildet. Nach dem Motto viel nützt viel glauben diese, man müsse TeV in "Etwas" stecken, wobei die Teilchen nur im GeV-Bereich erwartet werden. Aber es existiert noch ein ganz anderes Problem. Wie gezeigt wird, führt die q0-Elektron-q0-Positron-Wechselwirkung im primären Maximum zu einer Energie von ~ 140 MeV, die - im Bilde des SM - nur ungeladene Pionen bildet. Erst die möglichen Konstellationen der ladungsabhängigen Materiebildung des sekundären und tertiären Maximums der e+-e--Wechselwirkung schaffen die gewünschten 125 GeV. Die Wahrscheinlichkeit daß dies geschieht, wird aber mit jeder weiteren Wechselwirkungsstufe deutlich kleiner. Ein Grund warum der LEP (Large Electron-Positron Collider, deutsche Bezeichnung Großer Elektron-Positron-Speicherring) war ein - bis zum Jahre 2000 - Teilchenbeschleuniger am Europäischen Kernforschungszentrum CERN) trotz der erreichten 209 GeV Bildungsenergie keine Teilchen mit 125 GeV "produzierte". Später mehr dazu.

Somit reduziert sich der Stand der Dinge auf folgende Situation. ATLAS und CMS haben im Verhältnis 1 Ereignis zu 10 Milliarden Nichtereignissen Zerfälle eines "neuen Bosons" im "Energiefenster um 125 GeV" in   

zwei Z-Bosonen (führt zu zwei Paaren von elektrisch geladenen Leptonen)

zwei Photonen

zwei W-Bosonen (führt zu zwei elektrisch geladenen Leptonen und zwei Neutrinos)

Zerfall in zwei Tau-Leptonen beobachtet.

["Herzlichen Glückwunsch" zur Macht der SM-Protagonisten das beliebige (relative) Nichts in die Welt der Physik eingeführt zu haben.] 

 

Der ATLAS (A Toroidal LHC AparatuS)-Detektor enthält ein System von Toroid-Magneten. Im Innern des Detektors treffen zwei Teilchenpakete (mit jeweils 100 Milliarden Protonen) aufeinander, nachdem sie in entgegen gesetzte Richtung im LHC beschleunigt wurden. An ATLAS-Experimenten nehmen mehr als 7600 Forscher teil. Webseite: http://atlas.cern/ 

Compact-Muon-Solenoid (CMS) ist ein Teilchendetektor am Large Hadron Collider (LHC).

 

 

 

Glück gehabt.

Auch die leeren Eier haben ein endliches Volumen. Nichts divergiert. Wie undankbar doch realphysikalische Objekte aus Sicht des Standardmodells der Teilchenphysik (SM) sind.

Am Rande bemerkt: Hinter vorgehaltener Hand munkelt man schon länger, ... ob es sich beim "SM der Teilchen", doch auch "irgendwie" um etwas anderes "dreht". Da die Natur über die Art des Missbrauchs nur Lachen kann, kommt die Konsensfrage zumindest aus dieser Richtung nicht auf. Das SM-vermittelte Leid SM-befreiter Erkenntnissucher hingegen, die derzeit u.a. mit 25 freien Parametern, Confinement-These und willkürlichen Substrukturierungsthesen malträtiert werden, ist eine besondere Art des " Sadismus ohne Konsens".

 

 

Die "Zersplitterung der Materie" als Selbstzweck mathematischer Theorien und die zwangsläufige Zunahme irrelevanten Wissens, insbesondere in Form von unbeständigen virtuellen Teilchen, ist mittlerweile etabliertes Standarddenken. Statt in Vereinfachung endet dieses formale Postulieren und "Theorie-Verfeinern" nicht im Erkenntniszuwachs, sondern in wissenschaftlicher Beliebigkeit. Die auf Mathematik basierende Grundlagen-Physik bedarf dringend einer philosophischen Ergänzung.

 

 

Von kritischen Wissenschaftsberichten keine Spur

Kurt Marti / 19. Okt 2013 - Die Beiträge der Schweizer Medien zum Physik-Nobelpreis sind ein Armutszeugnis für den Journalismus: Null Kritik, null Analyse…

http://www.infosperber.ch/Medien/Von-kritischen-Wissenschaftsberichten-keine-Spur

 

Forscher, ETH und Unis berieseln mit PR-Propaganda

Beate Kittl / 06. Mrz 2013 - Medien haben kapituliert: Es gibt kaum noch kritische journalistische Informationen über das Milliardengeschäft der Wissenschaft.

http://www.infosperber.ch/Medien/Forscher-ETH-und-Unis-berieseln-mit-PR-Propaganda

Wunsch und Wirklichkeit der "Dunklen Theorie"

Nielsen, J. T. et al. Marginal evidence for cosmic acceleration from Type Ia supernovae. Sci. Rep. 6, 35596; doi: 10.1038/srep35596 (2016).

…”Taking account of the empirical procedure by which corrections are made to their absolute magnitudes to allow for the varying shape of the light curve and extinction by dust, we find, rather surprisingly, that the data are still quite consistent with a constant rate of expansion”…

published 21 October 2016

"Wissenschaftsjournalistische, kritikfreundliche Reaktionen" ...

Beschleunigte Expansion im Zwielicht

Supernova-Daten sind statistisch weniger eindeutig als bisher angenommen

..."Wir stellen fest, dass die Daten auch mit einer konstanten Rate der Expansion ziemlich gut übereinstimmen – überraschenderweise", ... "Unsere Arbeit demonstriert damit, dass einer der Grundpfeiler für das kosmologische Standardmodell ziemlich wackelig ist."...

Für ihre Studie haben Sarkar und seine Kollegen die vorhandenen Daten für die beschleunigte Ausdehnung des Universums statistisch überprüft. Sie nutzten dafür einen Katalog von 740 Supernovae des Typs 1a (http://www.scinexx.de/dossier-767-1.html). Diese Sternenexplosionen gelten wegen ihrer festen Helligkeit als besonders gut geeignete "Messlatten" für kosmische Entfernungen und damit auch die Expansion.

The universe is expanding at an accelerating rate – or is it?

…“So it is quite possible that we are being misled and that the apparent manifestation of dark energy is a consequence of analysing the data in an oversimplified theoretical model – one that was in fact constructed in the 1930s, long before there was any real data. A more sophisticated theoretical framework accounting for the observation that the universe is not exactly homogeneous and that its matter content may not behave as an ideal gas – two key assumptions of standard cosmology – may well be able to account for all observations without requiring dark energy. Indeed, vacuum energy is something of which we have absolutely no understanding in fundamental theory.“…

…“An analogous example in this context would be the recent suggestion for a new particle weighing 750 GeV based on data from the Large Hadron Collider at CERN. It initially had even higher significance – 3.9 and 3.4 sigma in December last year – and stimulated over 500 theoretical papers. However, it was announced in August that new data shows that the significance has dropped to less than 1 sigma. It was just a statistical fluctuation, and there is no such particle."...   

 

"Vorgeschichte" 2015 „Zweifel kommen auf

Wurde die Expansion des Universums überschätzt?

…“Für die Kosmologie könnte das bedeutende Folgen haben. Denn wenn die Standardkerzen des Kosmos gar nicht so standardisiert sind, dann sind auch die auf ihnen basierenden Werte für die Expansion des Universums möglicherweise nicht korrekt,…“ wissenschaftliche Ausführungen siehe THE CHANGING FRACTIONS OF TYPE IA SUPERNOVA NUV–OPTICAL SUBCLASSES WITH REDSHIFT

 

Astrophysiker Pavel Kroupa... „Es gibt keine Dunkle Materie. Das bedeutet, dass alles, was wir über das Universum wissen, falsch ist“, sagt Pavel Kroupa, Professor für Astrophysik am Helmholtz-Institut für Strahlen- und Kernphysik der Universität Bonn.

 

 

 

"Die Theorie bestimmt, was beobachtbar ist."

Die Bemerkung Albert Einsteins zu Werner Heisenberg: "Die Theorie bestimmt, was beobachtbar ist." "entfaltet" sich in der herrschenden Physik auf eine besonders traurige Art und Weise, sofern man Anhänger minimalistischer, symmetrischer, plausibler Denkmodelle ist.

Die postulierte aber nicht verstandene Baryonenasymmetrie ist ein tragischer Ausgangspunkt. Aus dieser ungesicherten Annahme entstanden und entstehen Kaskaden von hoch spekulativen ("wechselwirkenden"), meist virtuellen Teilchen und Thesen. Der mathematische Formalismus selbst wird zum physikalischen Phänomen.

 

 

Wenn Unanschaulichkeit zum Prinzip wird

Unliebsame mathematische Lösungen der von der Standardphysik gewählten Mathematik, wie negative Energien oder nicht gewünschte Polstellen werden der Zeit geopfert oder als Koordinaten-Artefakte „identifiziert“. Aus negativer Energie wird negative Zeit und positive Energie konstruiert und Polstellen werden mittels „geeigneterer“ Koordinatentransformationen „eliminiert“. Zu mehr reicht es nicht. Erkenntnisse wie, daß es auch negative Energien (Elementarkörpertheorie) geben kann und nicht interpretierbare Polstellen möglicherweise schlicht den falschen Weg als solchen charakterisieren sind unerwünscht. Traurig im Sinne von Fortschritt ist die Tatsache, daß zumindest die eingeweihten und „fitten“ Theoretischen Physiker ihre Probleme und Widersprüche sehr genau kennen. Die Gemeinde der theoretischen Physiker ist sich keinem noch so offensichtlichen Widerspruch zu Schade. Ein Postulat der herrschenden Theoretischen Physik, gemäß quantenfeldtheoretischer Symmetrieforderung, ist die Annahme von Antiteilchen. Diese unterscheiden sich von ihren „Teilchen-Partnern“ in ihren additiven Quantenzahlen wie elektrische Ladung, Baryonenzahl, Leptonenzahl. Hingegen sind im Weltbild dieser herrschenden Physik „insbesondere“ Spin, Masse und Lebensdauer identisch. Es sei denn...

 

Jeder wie er kann und will, wenn er den einen »Namen« hat

Antiteilchen

Mit dem Ziel, eine in sich konsistente relativistische Wellenmechanik zu konstruieren, stellte Dirac nach dem Vorbild der nichtrelativistischen Schrödinger-Gleichung eine relativistische Wellengleichung auf, die die Zeitableitung nur in erster Ordnung enthält. Aus Gründen der Lorentz-Symmetrie mussten auch die Ortsableitungen in erster Ordnung in die Gleichung eingehen. Es zeigte sich, daß dies nur mit einem vierkomponentigen Dirac-Spinorfeld mit der Hilfe von vier Dirac-Matrizen möglich war.

Die Dirac-Gleichung beschreibt mit ihren 4 Komponenten Teilchen entgegengesetzter Ladung (aber gleicher Masse!) in einer gemeinsamen Gleichung. Die Vertauschung der oberen und unteren Komponenten bedeutet physikalisch den Übergang zum ‘Gegenteil’: ¨ umgekehrte Ladung, umgekehrter Impuls, negative Energie, alles in allem einfach das ‘Fehlen’ eines Teilchens, ein Antiteilchen.

Dem so genannten »Dirac-See« folgte die Feynman-Stückelberg-Interpretation für "unerklärliche" negative Energiewerte der Dirac-Gleichung. Im Bild der Quantenmechanik "löste" man dieses Problem vermeintlich mit Hilfe der Heisenbergschen Unschärferelation, indem man die entsprechenden Lösungen willkürlich als Entitäten mit positiver Energie interpretiert, die sich rückwärts in der Zeit bewegen. Das negative Vorzeichen der Energie wird auf die Zeit übertragen (Feynman-Stückelberg-Interpretation). Dirac verstand unter dem Dirac-See das Vakuum als einen unendlichen "See" von Teilchen mit negativer Energie, ohne weitere freie Plätze für negative Energien (?!?). Man muß(te) wahrscheinlich Dirac, Feynman oder Stückelberg heißen, um sich solch naiven "Zauber" leisten zu können. Der Wille fehlende Anschauung durch formale Hilfskonstruktionen bzw. wilde Fantasien zu ersetzen ist überdeutlich. Mathematisch ist das kein Problem, erkenntnistheoretisch schon. 

Der offensichtliche Selbstbetrug der herrschenden Physik besteht nun darin, daß eine Umkehrung der Ladung aus einem Elektron kein Antiteilchen gemäß Einstein-, Dirac- oder Klein-Gordon-Gleichung mit negativer Energie macht. Die „Antiteilchen“ der herrschenden Physik, wie Positronen und Anti-Protonen sind somit keine Antiteilchen. Schon dieses einfache Beispiel zeigt sowohl die sprachliche als auch inhaltliche  „Definitions-Unbestimmtheit“, sprich „Verwirrung“, sprich Sinnleere innerhalb der herrschenden Physik auf.  

Hawking-Strahlung

So genannte Hawking-Strahlung (1975 postuliert) soll von einem Schwarzen Loch abgestrahlt werden, indem („eigentlich“ virtuelle) Teilchen-Anti-Teilchen-Paare am Ereignishorizont entstehen, von denen die Teilchen dem Schwarzen Loch entkommen und die Anti-Teilchen mit negativer Energie(!), was unweigerlich einer negativen Masse entsprechen würde, in das Schwarze Loch fallen und die dort vorhandene (positive) Energie (Masse) mit der Zeit neutralisieren und somit sich das Schwarze Loch allmählich auflöst. Ohne hier näher auf den Mechanismus der Hawking-Strahlung einzugehen haben wir also im Ergebnis plötzlich Antiteilchen mit negativer Energie, die diese zuvor auf keinen Fall haben sollten. Warum ist das so? Die Antwort beinhaltet keine mathematisch sinnvolle und schon gar nicht eine physikalische Erklärung, da ohne weitere Betrachtung übergeordnet die eigene fundamentale Regel der Anti-Teilchen-These verletzt wurde. Es geht um Macht und Gleichgültigkeit im Land der »Mathematik-Gläubigen«. Es geht um «Menschliches». Die eine Krähe pickt der anderen kein Auge aus, wie man so schön unter Lobbyisten sagt. Da Hawking ein berühmter theoretischer Physiker ist und es keiner wirklich ernst nimmt, mit dem was „mal“ gesagt wurde oder „ansonsten“ gelten soll, wird hier eine Ausnahme von der eigenen Regel gemacht. Das liest sich nicht nur merkwürdig, daß ist auch merkwürdig. Konsequenter Weise bedeutet hier merkwürdig falsch. Die Grundidee der Hawking-Strahlung ist übrigens Elementarkörpertheorie freundlich. Da das duale Minus-Plus-Konzept der Elementarkörpertheorie die von Hawking „geforderten“ „wirklichen“ Teilchen-Antiteilchen allgemeingültig voraussetzt. Nur mit dem „kleinen Unterschied“ das jedes Anti-Teilchen in „unserer“ Welt auch ein (Anti-)Teilchen in der MinusWelt „besitzt“ und somit nicht wie in der herrschenden Physik den Energieerhaltungssatz verletzt.

 

Widersprüche werden zur Absurdität wenn wir uns den Neutrinos „nähern“. Neutrinos sollen trotz ihrer von Null verschiedenen Massen mit Lichtgeschwindigkeit „fliegen“. Die Euphorie war im September 2011 groß, als Meßfehler dazu führten, daß sich Neutrinos angeblich „sogar“ mit Überlichtgeschwindigkeit „bewegten“. Die nicht oder nur ungerne kommunizierte Wahrheit ist: Die ansonsten „beschworene, heilige“ Relativitätstheorie wurde und wird von den Theoretischen Physikern des Standardmodells seit eh und je methodisch ignoriert. Daß wird zumindest menschlich verständlicher, wenn man sich vor Augen führt, daß das Standardmodell Gravitation mathematisch nicht „integrieren“ kann. Physik ist leider keine Ausnahme. So wie in allen anderen Lebensbereichen wird früher oder später jegliche Forderung nach Neutralität und Disziplin der Eitelkeit der Macher geopfert. Man könnte hier auch „speziell“ sagen, daß die Protagonisten des Standardmodells die eigentlichen Kritiker der Relativitätstheorie sind, die insbesondere ihr »Theorie-Ereignis« namens Neutrino zum finalen Schlag gegen die Relativitätstheorie seit Jahrzehnten „aufrüsten“. Die Chancen sind perspektivisch gar nicht so schlecht, wenn man sich verdeutlicht wie „unwissenschaftlich“ und beliebig Neutrinos gemäß Standardmodell "geartet" sind, siehe das Kapitel Neutrinos.

 

      Nun, es geht auch anders...

 

...«Man(n)» "sieht" «wenig», behauptet aber «vieles» zu "wissen". Nachfolgendes Experiment verdeutlicht stark vereinfacht den "weltlich reduzierten Blick"...