Stört obige Animation beim Lesen? »Bewegliche Leser« "scrollen" so weit wie nötig... |
Wissen ist ein Privileg. Die Weitergabe eine Pflicht. Dirk Freyling unabhängiger Forscher & Künstler
Wenn Dein einziges Werkzeug ein Hammer ist, sieht die ganze Welt wie ein Nagel aus.
Zur Form des Vortrages: Es gibt mehrere paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität "gekoppelte" Ironie und Satire schaffen eine ertragbare Diskussionsnähe. [Wer glaubt, (insbesondere) Mainstream-Medien würden objektiv, verantwortlich und faktentreu berichten, irrt (sich) gewaltig... Wer glaubt heutige Theorien und neue Theorieansätze respektive Theorieerweiterungen zur Materiebeschreibung seien experimentell begründet, kennt offensichtlich nur das, was populärwissenschaftliche Mainstream-Medien (MSM) absondern ...] "Am Rande bemerkt" : Meinung vs. Wahrheit Recht zu haben ist nicht „schön“. Erst wird man angefeindet oder ausgelacht, wenn sich dann jedoch herausstellt, dass man richtig lag, will keiner mehr was mit einem zu tun haben. Die „Masse“ fühlt sich durch den “Rechthaber” an ihre eigene Dummheit erinnert und das kann sie ihm nicht verzeihen. Generell ist der Narzissmus stärker als die Wahrheit, egal welch törichte Meinungen (von der "Masse") vertreten werden.
Natur kann nur addieren oder subtrahieren. Eine „gesicherte“ »höhere mathematische Realität« existiert ausschließlich im Rahmen axiomatisch begründeter Sprache (Mathematik). Inwieweit eine korrekte mathematische Struktur (»höhere mathematische Realität«) physikalisch anwendbar ist, lässt sich mit den „Mitteln“ der Mathematik nicht entscheiden (siehe „unstrittig-exemplarisch“ Epizykeltheorie und Banach-Tarski-Paradoxon). Mathematik erfasst letztendlich Mengen und kann nicht zwischen Staubsauger und Staub unterscheiden. Ein geschichtlicher Rückblick zeigt, daß Leute die auf Fehler aufmerksam machen, damit rechnen müssen, daß man ihnen jahrzehntelang nicht glaubt, während jene die im Rahmen bestehender Denkmodelle spektakuläre “Luftnummern” publizieren, honoriert und hofiert werden. Kritiker werden von der Masse als unliebsame Störer empfunden. Mit den Worten Gustave le Bons „Nie haben die Massen nach Wahrheit gedürstet. Von den Tatsachen, die ihnen mißfallen, wenden sie sich ab und ziehen es vor, den Irrtum zu vergöttern, wenn er sie zu verführen vermag. Wer sie zu täuschen versteht, wird leicht ihr Herr, wer sie aufzuklären sucht, stets ihr Opfer.“ Wer Gruppenzugehörigkeit anstrebt wird nicht zum kritischen Denker. Logische und methodische Analysefähigkeiten, das Wissen um historische Zusammenhänge, selbsterarbeitete Grundlagenkenntnisse statt literaturreproduzierter, Ehrgeiz, Selbstdisziplin und eine gute Portion Egozentrik sind Grundvoraussetzungen für selbständiges Denken und Handeln. Theorieforderung und empirischer Befund Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch, wie im Rahmen der Standardmodelle üblich, die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen. Denkmodelle müssen absolut begriffstransformierbar sein, um eine epistemologische Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht außerhalb der Mathematik vermitteln lässt, ist im Rahmen eines physikalischen Denkmodells stets eine erkenntnistheoretische Nullnummer.
Es ist oft anders, wenn man selber denkt. Apropos
Objektivität Objektivität ist die Wahnvorstellung,
Beobachtungen könnten ohne
Beobachter gemacht werden. Heinz
von Foerster ( 1911 – 2002) Merke:
Bei genauer Betrachtung ist Wahrnehmung
immer persönlicher Natur. Realität lässt sich nicht formalisieren.
Was sich formalisieren lässt, sind ausschließlich Denkmodelle zur
Beschreibung der Natur. Doch all diese mathematisch begründeten
formalen (sprich ursprünglich
axiomatischen) Konstruktionen der Naturbeschreibung beinhalten
Idealisierungen und Näherungen, die in letzter Konsequenz auch das viel
zitierte Kovarianzprinzip der Allgemeinen Relativitätstheorie zunichte
machen. Das Banach-Tarski-Paradoxon
offenbart exemplarisch noch eine viel tiefer liegende Problem-Ebene.
Mathematische Grundprobleme „lauern“ überall und entfalten sich auf
unangenehme Art und Weise. Siehe beispielhaft das »Plancksche
Strahlungsgesetz«. Dieses „kennt“ kein mathematisch-objektives
Maximum. Plausibilitätsbetrachtungen
fallen mathematischen Symmetrien und Wahrscheinlichkeitsbetrachtungen
zum Opfer. Ein Quantenfeldtheoretiker kann und „darf“ neben
quantisierten Observablen nur im Rahmen quantisierter Felder denken.
Vereinfacht ist leicht festzustellen: Die „zweite Quantisierung“
macht den Zugang zu einfachen Lösungen unmöglich. Ludwig
Wittgenstein's (1889 – 1951) Aussage: Die
Grenzen meiner Sprache sind die Grenzen meiner Welt lautet für
einen Quantenfeldtheoretiker, die Grenzen meiner Theorie sind die Grenzen meiner Welt. Menschen im Allgemeinen und Wissenschaftler im Speziellen sind geprägt durch historisch entstandene Denknormen. Hin und wieder ändern sich diese, wie am Anfang des 20.Jahrhunderts. Relativitätstheorie (RT) und Quantenmechanik (QM) bilden seit nun mehr als 100 Jahren die zwar wenig anschauliche aber formale Denk-Grundlage für die physikalische Welt. Insbesondere die Voraussagefähigkeiten der Quantenelektrodynamik (QED) sind ein "gutes" Argument für die "Richtigkeit" dieser Theorie. Doch das diese Voraussagefähigkeiten bei genauer Sicht Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, erschließt sich den meisten Interessierten nicht. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und Substrukturthesen. Konsistente Realobjektbetrachtungen werden im Rahmen der Standardmodelle aus mathematisch formalisierten (esoterischen) Konzepten geboren. Manchmal muß der Begriff Emergenz für diese neobarocken Fantasien herhalten. Früher war es das Phlogistonpostulat, heute ist es – wenn gar nichts anderes „mehr geht“ – die Confinement-These. Wer jedoch realitätsobjektfreundlich hinschaut, erkennt mit Leichtigkeit als natürliches Prinzip die Selbstähnlichkeit.
Die "Zersplitterung der Materie" als Selbstzweck mathematischer Theorien und die zwangsläufige Zunahme irrelevanten Wissens, insbesondere in Form von unbeständigen virtuellen Teilchen, ist mittlerweile etabliertes Standarddenken. Statt in Vereinfachung endet dieses formale Postulieren und "Theorie-Verfeinern" offensichtlich nicht im Erkenntniszuwachs, sondern in wissenschaftlicher Beliebigkeit. Die auf Mathematik basierende Grundlagen-Physik bedarf dringend einer naturphilosophisch orientierten Reglementierung. |
|
|
Mythos »Theorieschaft«
[
Theorie schafft ] Praktisch orientierte Ägypter, Römer und Griechen erschufen lange vor Einführung der Integral- und Differentialrechnung, lange vor theoretischen Modellen zur Tragfähigkeit und Biegemöglichkeit von Balken und Säulen, komplexe Bauwerke, deren Fragmente teils auch heute noch zu besichtigen sind. Nicht die Theorie zum Halbleiter schuf den Halbleiter, der Halbleiter als elektrotechnisches Bastel- und Tüftler-Objekt ließ Spielraum für theoretische Betrachtungen. Funktionierende Technik als Innovation Angewandter Physik bedarf und bedurfte versuchsfreudiger „Macher“, Misserfolge zeigten den Weg. Theoretische Modelle hink(t)en stets der (meßbaren) Realität hinterher. In dem Zusammenhang ist es erstaunlich, wie viele „Interessierte“ und „Wissenschaftsprofis“ glauben, Quantenfeldtheorien wären innovative theoretische Konzepte, die praktische Anwendungen generieren.
Einige Worte zur Entstehung der QM und zum SM Stellen Sie sich vor, Sie "müssten" die Erde in unserem Sonnensystem quantenmechanisch beschreiben. Die elliptische Erdbahn um die Sonne würde als wahrscheinlichster quantenmechanischer Erwartungswert gedeutet. Die von anderen Planeten, „Monden“, Kometen hervorgerufenen Bahnunregelmäßigkeiten würden als Feinstruktur bzw. je nach Effektgröße als Hyperfeinstruktur interpretiert. Eine Extrapolation ihrer quantenmechanischen Sonne-Erde-Theorie würde folgerichtig zur quantenmechanischen Beschreibung des Sonnensystems führen. Eine Erweiterung dieses Denkmodells könnte dann unter Zuhilfenahme weiterer freier Parameter, wie Sonnen-, Planeten- und "Mond"-Massen anderer zu beobachteter Himmelssysteme allgemein gelten. Letztendlich erhalten sie in Analogie zum Standardmodell der Teilchenphysik auf Wunsch ein indeterminstisches, quantenfeldtheoretisches Standardmodell der Planetenbewegungen. Ist die Erdlaufbahn um die Sonne quantenmechanisch, weil sie ein quantenmechanisches System zur Beschreibung gewählt haben? Ist die Erdlaufbahn um die Sonne quantenmechanisch, weil sie diskret ist? Wohl kaum. Dem rationalen Verstand ist zeitlebens die Irrationalität der Emotion im Weg. "Gute" Absichten und neues Denken mutieren sehr schnell zu neuen Dogmen. Insbesondere die Kopenhagener Interpretation der Quantenmechanik, Neutrinothese und Welle-Teilchen-Dualismus waren der Anfang vom Ende der Physik als Denkmodell. Das mystische Feld, wundersame Neutrinos und "Dunkle Mächte" (Dunkle Materie, Dunkle Energie, Dunkle Kräfte, Dunkle Photonen ...) waren und sind Ausdruck einer Befreiung, eines ungestillten Lebenshungers und ausgebrochener Egomanie. Der angewandte, mathematische Formalismus selbst wurde zum Phänomen erklärt. Die Natur musste fortan der Theorie folgen. Mittlerweile ist sowohl die heutige Gesellschaft als auch die Theoretische Physik deutlich konservativer und restriktiver als sie es vor der "kleinen" Flower-Power-Revolution des 20.Jahrhunderts waren. Quantenfeldtheoretiker hatten und haben offenbar mit dem Standardmodell der Teilchenphysik (SM) in einem großen Anflug von Narzissmus Natur gegen selbstdefinierte Mathematik eingetauscht und "schießen" nun gegen diese in Teilchenbeschleunigern und gegen ihre Kritiker, mit der Konsequenz des Ausschlusses aus der bezahlten Mainstream-Physik, wenn diese nicht das Glaubensbekenntnis des SM nachplappern. Die Verneinung der [Körper-]Form in der Kunst, bekannt als abstrakte Kunst, ist Geschmackssache, die Verneinung der [Körper-]Form in der (Theoretischen) Physik macht aus Grundlagenphysikern beratungsresistente Gläubige. Neben der Dominanz der Mathematik innerhalb der "Modernen Physik" sind wirtschaftliche Aspekte der Protagonisten der Grund für eine Grundlagen-Physik, die sich seit mehr als 50 Jahren nur unwesentlich entwickelt hat. "Vorteile" aus Sicht der Erkenntnistheorie: In einem motivierenden, konstruktiven Sinne enthält das Standardmodell der Teilchenphysik so viele "Reflexionskeime" brachialer Inkonsistenzen und Widersprüche, daß es dem Konstrukteur eines Alternativmodells nie an (emotionaler) Energie fehlt bzw. fehlen wird. Da in den Denkmodellen der Quantenfeldtheorien (QED, QCD) keine Realphysik stattfindet, sind im Rahmen der Elementarkörpertheorie phänomenologische Aspekte aus der puren Notwendigkeit entstanden, erst zu denken und dann zu formulieren. Es
ist nicht leicht einem "normal-konditionierten" Menschen zu
erklären, der zumindest im Kern einer Sache Vernunft, Logik,
Konsistenz, Verstand und Verhältnismäßigkeit erwartet, daß dem oft
nicht so ist. Nun alle verbreiteten Standardmodelle, insbesondere wenn
diese über größere Zeiträume herrschen, beinhalten Machtpositionen
und Versorgungsstrukturen. Die Machthalter und Nutznießer werden alles
tun um diese Zustände aufrecht zu erhalten. Moderne Mathematik hat im Bereich der Theoretischen Grundlagenforschung die physikalische Anschauung fast komplett abgeschafft. Schon Ernst Mach bemerkte: "Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große EULER nach seinem Geständnisse sich nicht immer erwehren konnte." [EM1] [EM1] Ernst Mach (1838-1916), Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882 Theorien werden von ihren Autoren im Hinblick auf schon bekannte oder richtig vermutete, empirisch prüfbare Phänomene entwickelt. Dass diese Phänomene sich dann aus den Theorien, zwar nicht immer sehr überzeugend, wieder ableiten lassen, ist wenig erstaunlich. Unliebsame mathematische Lösungen der von der Standardphysik gewählten Mathematik, wie negative Energien oder nicht gewünschte Polstellen werden der Zeit geopfert oder als Koordinaten-Artefakte „identifiziert“. Aus negativer Energie wird negative Zeit und positive Energie konstruiert und Polstellen werden mittels „geeigneterer“ Koordinatentransformationen „eliminiert“. Die grundsätzliche Wechselwirkung zwischen theoretischer Erwartung und Versuchsgestaltung ist insbesondere in der experimentellen Teilchenphysik sehr problematisch, da Experimentatoren und "ihre" Versuchsapparaturen meist einen komplexen Einfluss auf die Messung nehmen. Wenn Physiker also glauben, physikalische Grundgleichungen gingen den physikalischen Phänomenen voraus, oder die Realität setze sich aus mathematischen Formeln zusammen, begehen sie einen analogen Fehler wie Platon, der die Realität aus den Begriffen, anstatt die Begriffe aus der Realität ableitete.
Mehrere Standardabweichungen weit weg von der erfassbaren Norm Baden
im eigen Wer Erkenntnisse verfälscht oder verheimlicht, für
eigene Zwecke auslegt, oder lediglich einer Minderheit Zugang zu diesen
gewährt, hat im Wissenschaftsbetrieb nichts zu suchen. Freie-Parameter-Physik
ist rational logisch - und aus naturphilosophischer Sicht –
betrachtet, trotz der vielen „Zahlen“, ausnahmslos eine Nullnummer
der Erkenntnis. Zur Erinnerung: Alle theoretischen Beschreibungen zu
fassbaren Ergebnissen angewandter Physik beinhalten nicht einen einzigen
freien Parameter.
Freier Parameter und Variable Sie
können die Lautstärke des Abspielgerätes variieren oder die
Helligkeit des Fernsehens, dies sind „zweckmäßige Variablen“. Auch
Autos und Flugzeuge lassen sich variabel steuern. Doch keine einzige
Anwendung, kein einziges Naturereignis besitzt auch nur einen freien
Parameter. Merke: Jede willkürlich gewählte Grösse zerstört die
Funktion der Anwendung. Es ist sinnleer Objekte und Wechselwirkungen zu
postulieren, die unbeobachtbar sind. Plakativ formuliert: Ihr Auto fährt,
weil es eine wahrnehmbare Ausdehnung und ein messbares Gewicht besitzt.
Wasserstoff und Wasserstoffmoleküle nehmen gleichfalls Raum ein und
haben ein Gewicht. Nun zu behaupten, daß die Bausteine des Wasserstoffs
aus Objekten bestehen, die teils keine Ausdehnung haben und
unbeobachtbar sind, bringt die Verkünder und Gläubigen zurück ins
„barocke 17.Jahrhundert“, … „außer Phlogiston nix gewesen“…
Georg
Ernst Stahl war neben Johann Joachim Becher ein Hauptbegründer der
Phlogistontheorie… Die
Phlogistontheorie konnte ausreichend (Oxidations- und Reduktions-)
Prozesse verständlich machen. Die
Phlogistontheorie regte dazu an, „feinst verteiltes“ Phlogiston
aufzufangen und zu untersuchen. Die
Theorie ermöglichte eine Systematisierung von Stoffgruppen… Antoine
Laurent de Lavoisier „ersetzte“ das Phlogiston durch die „kalorische
Substanz“, die gleichfalls unsichtbar sei, kein Gewicht besäße und
sich zwischen den Molekülen aufhielte… Später
dann untersuchte Lavoisier die Gewichtsveränderungen verschiedener
Stoffe bei Oxidation und bei Reduktion und entdeckte, daß das gerade
aufgefundene Element Sauerstoff dabei die entscheidende Rolle spielt und
widerlegte die Phlogistontheorie. Vergeblich versuchten die Verteidiger
der Phlogistontheorie, wie Henry Cavendish, Joseph Priestley, Carl
Wilhelm Scheele diese zu bewahren, indem sie modifizierte
Phlogiston-Modelle kreierten. Selbstversuch:
Ersetze Phlogiston durch „moderne Theorieobjekte“ (Quarks,
Gluonen, dunkle Materie, dunkle Energie, Neutrinos,…) „Brennt
da was“? "Willkommen" im Barock 2.0 Nun stellen Sie sich vor, daß Sie – trotz omnipräsenter Indoktrination der Standardmodellverkünder und weit verbreiteter SM-generierter moderner Objekt-Märchen - rationales Denken wieder finden... "Plötzlich" fliegen Ihnen freie Parameter, postulierte Theorieobjekte, postulierte Wechselwirkungen, Nichtbeobachtbares, axiomatische Verletzungen, postulierte Nichtwiderlegungsfrechheit, Beliebigkeitsthesen, »taylorreihenaffines Zeug« und was Sie sonst noch so „drauf haben“ ohne Unterlass solange um die Ohren, bis die Steilchen im Köpfchen komplett verrückt werden und mit Neutrinos wild kopulieren, als wenn es kein Morgen geben würde. Virtuelles beginnt so stark zu glühen, daß selbst die dunklen Photonen traumatisiert das Weite suchen und völlig falsch im Zerfallskanal abbiegen. Dann beginnt das große leptonische Zittern, gefolgt von der Angst kosmischen Ausmaßes, der ohnehin gebrechlichen WIMPs, die aber doch irgendwie auch Lust verspüren. Jetzt zeigt das »SM« seine wahre Bedeutung. Erste Todesahnungen kommen auf. Nun gibt es kein Halten mehr. Verstörte Quarks fressen Gluonen, die Folgen sind fatal. Verstopfte Verdauungskanäle rufen viel zu schwere Vektorbosonen auf den Plan, die eilig an einem neuen Symmetriebruch arbeiten um den alten Zustand wieder herzustellen. Zu spät. All’ das und noch viel mehr endet orgastisch mit einer Flut von Theorie-Objekt-Suiziden, durchaus nicht ungewöhnlich für die 2. und 3. Generation der einst expressionistisch entstandenen Erst-Fantasien. Gleichgeschaltet und völlig enthemmt singt der Beauty-Quarks-Chor politisch inkorrekt „Auferstanden aus Ruinen…“ So abgedroschen es auch klingen mag, jetzt sind sich alle einig, „Lieber ein Ende mit Schrecken als ein Schrecken ohne Ende.“
Zum leichteren Verständnis... |
Was den Standardmodellen fehlt ist die über willkürliche mathematische Konstruktionen hinausgehende Wirkung. Jeglicher Anflug von Erkenntnis wird intuitiv von den SM-Gläubigen abgelehnt, weil man spürt, daß ansonsten das schöne, heile Weltbild zusammen brechen würde. Burton Richter: ein Pionier der Teilchenphysik und Nobelpreisträger schrieb 2006 u.a. „Für mich ist etwas, was heute für die am weitesten fortgeschrittene Theorie der Teilchenphysik gilt, nicht wirklich Wissenschaft. Als ich mich kürzlich mit drei angesehenen Theoretikern auf einem Podium befand, konnte ich der Gelegenheit nicht widerstehen zu diskutieren, was ich als Hauptproblem in der Philosophie hinter der Theorie sehe, die scheinbar in eine Art metaphysisches Wunderland übergegangen ist. Vereinfacht gesagt, scheint es sich bei vielen der aktuellsten Theorien um theologische Spekulationen und um die Entwicklung von Modellen ohne überprüfbare Konsequenzen zu handeln…“ Quelle:Theory in particle physics: Theological speculation versus practical knowledge Physics Today October 2006 Dem Standardmodell der Elementarteilchenphysik (SM) und dem kosmologischen Standardmodell (ΛCDM) fehlen die Poesie. Lieblos aneinandergereite, unvereinbare Abstraktionen, die fernab von realphysikalischer Sinneserfahrung im Rahmen freier Parameter als philosophische Denkmodelle inkonsistent dahindümpeln. Diese entpuppen sich bei genauer Sicht als moderne epizyklische Dogmen, die schon seit Jahrzehnten ohne naturphilosophische Bedeutung existieren. Erkennbarer Sinn und Zweck sind wirtschaftlicher Natur. Sie dienen einer elitären Gruppe von vermeintlichen Wissen_schaft_lern und assoziierten Technikern als Existenzgrundlage. |
Wie weit sich die Standardmodellphysik von wesentlichen Fragestellungen und rational logischen Aspekten entfernt hat, verdeutlichen folgende Beispiele. Der Radius eines postuliert asymmetrisch substrukturierten, ladungsfragmentierten Objektes ist eine phänomenologische Unmöglichkeit. Da macht es auch keinen Unterschied ob dieser theoriebeladen als elektrische oder magnetische Größe definiert wird. Siehe als prominentestes Beispiel den (Ladungs-)Radius des Protons. Eine zentrale Frage der Physik lautet, warum ist das Masseverhältnis von Proton zu Elektron so, wie es ist? Diese Frage ist im Rahmen des Standardmodells sinnleer. Da das Elektron als elementar-strukturlos* angesehen wird. Ein Vergleich von einem strukturlosen mit einem substrukturierten Objekt ist - gleichgültig wie die Substrukturierung zustande kommt - "gegenstandslos". Die Natur der Strahlung ist aus Sicht der herrschenden Denkmodelle vollkommen ungeklärt bzw. ein inkonsistentes Durcheinander. Hier stellt sich in einer konstruktiven erkenntnistheoretischen Auseinandersetzung die Frage, inwieweit das erweiterte Konzept der „Austauschteilchen“ respektive der Eichbosonen** eine realphysikalische Gültigkeit besitzt. Denn das zeitstabile reale Photon ist als Entität grundlegend verschieden von den massebehafteten Vektorbosonen und dem Higgs-Boson, sowie von den selbstwechselwirkenden, masselosen Gluonen. Das Photon zum Austauschteilchen bzw. Vektorboson zu erklären, ist, außerhalb der elektroschwachen Theorie, QED bzw. des SM stark diskussionswürdig. Auch ohne Kenntnis der Elementarkörpertheorie stellt sich insgesamt die epistemologische Frage nach der Realität der innerhalb des SM theorienotwendigen Vektorbosonen und des theorienotwendigen Higgs-Bosons. Wobei hier rational-logisch zu bemerken ist, daß 99% der Masse des Protons sowie des Neutrons energetisch als Bindungsenergie definiert werden. Der Higgs-Mechanismus ist also selbst im Rahmen des SM voraussageunspezifisch und massegebend ineffizient.
Warum sollten von allen postuliert »Substruktuierten« nur das Proton zeitstabil sein? "Gleiches" gilt für das postuliert "leptonische" Elektron. Elektron und Proton werden erst konsistent verständlich, wenn man ein Denkmodell verwendet, in dem eine »elementare Wesensgleichheit« vorausgesetzt wird, die "zwanglos" zum (masselosen) Photon führt und wenn dann aus dieser Betrachtung u.a. formal-analytische Gleichungen folgen, die zu konkreten Berechnungen führen (...wie z.B. der Protonenradius, Rydberg-Energie, allgemein Grundzustandsenergien,..., die Masse des Neutrons,...)
|
![]() |
![]() ![]() |
Schriftverkehr
heute Sprache
ist abstrakt. Wortfolgen können mehrdeutig interpretierbar sein, oft
entscheidet der gesamte Kontext über die Aussage. Losgelöst von der
Unart, daß Lobbyisten gerne Textfragmente isolieren um Polemik,
Propaganda, Falschaussagen und «Emotionalitäten», wie Hass und
Abscheu gegen Autoren auszulösen, reicht eine einfache Lesefähigkeit
nicht aus, um die hier vorliegende deutschsprachige Schrift im Sinne der
beabsichtigten Aussagen vollständig und richtig zu „dekodieren“.
Das „zwischen den Zeilen lesen“ können, ist die Kunst. Das setzt
einen sicheren und geübten Umgang mit Texten voraus. Die stetig
steigende Anzahl funktionaler Analphabeten ist das Ergebnis (miß)bildungsstaatlicher
Vorsorge zur Bekämpfung der Freiheit und Individualität der Bürger.
Der Lese- und Schreibunfähige bleibt hilflos, ungebildet und ist
leichter beherrschbar. Kritische Schriften können sehr mächtig sein.
Die öffentlich verbreitete, unzensierte Wahrheit wird von Politikern
und Zensoren besonders gefürchtet. Zustandsbeschreibungen in Form guter
Aphorismen sind wie wissenschaftliche Gleichungen. Mit wenigen «Zeichen»
werden effektiv komplexe Erscheinungen beschrieben. |
22. August 2021
Schon "klar"...
Adjektive "Schmückung" von Banalitäten
oder
Semantischer Auswurf einer Kompetenzlosen
dazu folgender exemplarischer Artikel...
Zur Kenntnisnahme und Selbstanalyse »Glückliche Sklaven«, Medien und »Das Joe Biden Experiment« Hintergrund Oft hört man von (den) »glücklichen Sklaven« den Satz, uns geht es doch (im Vergleich noch) gut. Tatsache ist jedoch, ohne den etablierten Sumpf aus übergriffigen, sanktionsbefreiten, kompetenzlosen, korrupten Politikern, Haltungsjournalisten und Ideologen aller Couleur diverser NGOs, die unser aller Leben stark negativ beeinflussen, würde es jedem Einzelnen deutlich besser gehen. So genannte alternative Medien sind – bei genauer Sicht - in der jetzigen Form keine nennenswerte Alternative. Viele haben ihre Regierungs- und Gesellschaftskritik zum Geschäftsmodell hin entwickelt. Täglich benennen sie zwar Mißstände und Irrationalitäten aller Art der Herrschenden und Einflussnehmenden, doch sie belassen es dabei, kritische Worte zu formulieren. Ihr Geschäftsmodell-Widerstand verpufft in „hauseigenen“ Kommentarfeld-Blasen, die von einer überschaubaren Anzahl von Wiederholungsschreibern täglich gefüttert werden. Statt auf die Strasse zu gehen und neue realitätsbasierende Gruppierungen zu bilden, entladen sich die Kommentarfeldfüller inflationär mittels -mehr oder weniger - informativen, semi-veröffentlichten Aussagen, die außerhalb der Stammleserschaft des „individuell“ kritischen Mediums von niemanden wahrgenommen werden. Statt die Energie der selbsterlebten, berechtigten Frustration und Wut effektiv zu kanalisieren und real werden zu lassen, entleeren sie sich mit nicht nachhaltigen, in der Wirkung bedeutungslosen Kommentierungen „egonett“ sprich zur eigenen („schnellen“) Gewissensberuhigung. Aufklärung Seit Ende August 2022 gibt es für einen authentischen, nachhaltigen Neuanfang der Meinungsbildung exemplarisch eine filmische Zusammenstellung nicht zu widerlegender Argumente, die nahezu alle bisher bekannten Medien – ohne Wenn und Aber - als Lügenpresse nachweislich identifizieren respektive überführen. Gibt es „wortwörtlich“ für alle - losgelöst von rational begründeten oder unbegründeten individuellen Denkvorlieben – allgemein wahrnehmbare Wahrheiten respektive allgemein wahrnehmbare Lügen, die bei konkreten Erscheinen auf Grund ihrer Dimension und Strahlkraft das Potential besitzen einen selbstbestimmten Sinneswandel auszulösen, der letztendlich vereint statt - wie so oft - spaltet? Zur Kenntnisnahme und Selbstanalyse… Der Wahrheit ins Gesicht schauen
|
17. Mai 2023
Zur Kenntnisnahme und Selbstanalyse
Markus Krall über Politiker(innen) heute
|
Zur Kenntnisnahme und Selbstanalyse
Bundestagsabgeordnete Emilia Fester
Vertreterin des infantilen deutschen Totalitarismus
...arbeitete als freischaffende Regieassistentin im Kinder- und Jugendtheater und bewarb sich erfolglos auf einen Studienplatz an der Hochschule für Musik und Theater Hamburg. Von 2018 bis 2019 arbeitete sie als Regieassistentin und Bühnenhelferin am Jungen Schauspielhaus Hamburg... In ihrer ersten Rede im Bundestag am 17. März 2022 sprach sie sich für eine allgemeine Impfpflicht aus, wie sie mit dem Gruppenantrag auf der Bundestags-Drucksache Nummer 20/899 beantragt wurde und begründete dies mit dem Wiedererlangen der Freiheit von allen. Sie setzt sich für ein allgemeines, altersunabhängiges Wahlrecht bereits für Kleinkinder ein.
|
|
Zur Kenntnisnahme und Selbstanalyse
Doppeldeutig "Grüne" Herrscher(innen) über indoktrinierte Massen, mit der Tendenz zum funktionalen Analphabetismus, die mit Mühe und Not noch Kurznachrichten konsumieren können und sich demütig von einer geistigen Umnachtung zur nächsten schleppen...
|
|
Zur Kenntnisnahme und Selbstanalyse
Das »Neue Normal«
Beispiele
Zur Kenntnisnahme und Selbstanalyse
Deutschland hat Russland den Krieg erklärt,
genauer:
Allen voran
"DIE GRÜNEN"
haben Russland den Krieg erklärt...
Grüne Kriegspropaganda und Grüne Russlandhetze
die jegliche Vorgeschichte
zum Ukraine-Konflikt ausblendet,
"grüne" Impfpflichtfantasien und "grüner" Ökototalitarismus
erinnern stark an folgenden Aphorismus:
"GRÜNE sind wie Melonen. Außen grün, innen rot mit braunen Kernen."
|
|
zur Erinnerung
Bonhoeffers Theorie der Dummheit
[youtube video]
25.07.2022
Zur Kenntnisnahme und Selbstanalyse
Deutscher Totalitarismus vs. Nikolai Binner
7. Oktober 2021
Antarktis-Station Neumayer - 2021 kältester Winter seit 1985 Der Südwinter (Juni – August) 2021 gemessen an der deutschen Antarktis-Station Neumayer war der kälteste seit Beginn der Messreihe im Jahre 1985. Der Trend seit Aufzeichnungsbeginn ist negativ – es wird dort zunehmend kälter… Zur Orientierung Die größten Eisflächen der Erde liegen rund um den Nordpol und den Südpol. ... Der Südpol liegt auf einem Kontinent, der Antarktis. Die Antarktis ist der kälteste Ort auf der Erde. Ihre Landmasse liegt fast völlig unter einem Panzer aus Eis und Schnee, der bis zu 4 Kilometer dick ist... |
Übrigens: Der April 2021 in Deutschland war so kalt, wie seit 40 Jahren nicht mehr… 2021 lag der Durchschnittswert bei 6,1 Grad. Der kälteste April war im Jahr 1917 mit durchschnittlich 4,3 Grad. Kälter als 2021 waren nur noch 1929 mit 4,5 Grad und 1903 mit durchschnittlich 4,6 Grad. "Normal“ wären nach dem „neuen Klimamittel“ 1991 bis 2020 gemäß Klimamodell 9 Grad. Interessanterweise war der April 2021 aber ein sehr sonniger Monat mit 185 statt im Aprildurchschnitt 154 Sonnenstunden. Also zum Mitdenken: Trotz rund 20% mehr Sonnenstunden ein deutlicher Temperaturabfall. Die Erde brennt? Sieht in der Antarktis und auch in Deutschland gemäß Klimawandelgläubigen ehrlicherweise eher wie eine einsetzende Kaltzeit aus. Des Weiteren Mit rund 175 Sonnenstunden war auch der deutsche Winter 2020/2021 insgesamt überdurchschnittlich sonnig. Mit 180 Liter Niederschlag pro Quadratmeter war der Winter durchschnittlich nass. Mit einer Mitteltemperatur von 1,8 Grad geht der Winter 2020/2021 0,4 Grad milder zu Ende als im Schnitt der vergangenen 30 Jahre. Auch wenn der Winter mild zu Ende ging, so gab es viel und lange Schnee. Im Mittel waren Schneedecke an 28 Tagen und die durchschnittliche maximale Schneehöhe betrug 21 Zentimeter. Dies ist deutlich mehr als im Mittel der vergangenen 30 Jahre. Mit rund 175 Sonnenstunden präsentierte sich auch der deutsche Winter 2020/2021 überdurchschnittlich sonnig. Mit 180 Liter Niederschlag pro Quadratmeter war der Winter durchschnittlich nass. Mit einer Mitteltemperatur von 1,8 Grad geht der Winter 0,4 Grad milder zu Ende als im Schnitt der vergangenen 30 Jahre. Auch wenn der Winter mild zu Ende geht, so gab es doch recht viel und lange Schnee. Im Mittel gab es an 28 Tagen eine Schneedecke und die durchschnittliche maximale Schneehöhe betrug 21 Zentimeter. Dies ist deutlich mehr als im Mittel der vergangenen 30 Jahre. Was äußern (deutsche) Klimamodelltheoretiker zu all dem? Die Erde brennt! Sie meinen damit: »Wenn die Tatsachen nicht mit der Theorie übereinstimmen – umso schlimmer für die Tatsachen.« Soll schon Georg Wilhelm Friedrich Hegel so gesagt haben. |
"Rückblick" 12. Juli 2021
...zum Zustand Deutschlands ein Brief von Dr. Florian Sturmfall an Markus Söder
Zensurfantasien und Sprachgebrauch im [Neuen] Deutschland des Jahres 2017
... leider nur anfänglich Satire
Das Spiegelei
Symbolik,
Wirkung und zukünftiges Verbot Die
Integrationsbeauftragten der Europäischen Union machen sich große
Sorgen. Die bedingungslose Homogenisierung Europas kann derzeit nicht
umgesetzt werden. Nach wie vor sind Spiegeleier weit verbreitete, gern
gesehene „Leckerbissen“. Das Spiegelei symbolisiert jedoch, wie kaum
eine andere „Speise“, politische Unkorrektheit. Statt einer
ordentlichen Vermischung von Eiweiß und Eigelb, wie beim politisch
korrekten Rührei, besteht das Spiegelei aus klar erkennbaren
„Strukturen“, die sich voneinander abgrenzen. Des Weiteren ist die
unvermeidbare »Gettoisierung des Eigelbs« im Spiegelei in einem zukünftigen
homogenen Europa, so wie es sich führende Sozialromantiker und
Ausbeuter wünschen, nicht tragbar. Insbesondere Kinder und Jugendliche
werden durch den Anblick von Spiegeleiern langfristig in ihrer
Entwicklung zu europäischen Herdentieren schwer gestört. Die europäische
Zensur-Kommission (EZK*) schlägt vor, die
„Sonderstellung“ des Eigelbs unter Strafe zu stellen.
Zubereiter und Konsumenten von Spiegeleiern werden zukünftig mit einem
Bußgeld in Höhe von 1000€ für jedes sichtbare Eigelb bestraft. Im
Wiederholungsfall folgt Freiheitsentzug mit begleitender
Anti-Spiegelei-Therapie. Altbewährte Foltermethoden, wie z.B.
Elektroschocks und Schlafentzug, werden solange angewandt, bis der
Anblick eines Spiegeleies hysterische Weinkrämpfe auslöst. * European Censorship Commission (ECC) wurde von allen europäischen Mitgliedsländern einstimmig durch den deutschbasierenden Begriff mit der Abkürzung EZK “ersetzt”, da die deutsche Zensur auf eine lange Tradition zurückblicken kann und brandaktuell im Bereich Meinungszensur in Europa führend ist. In diesem Sinne wünschen wir uns die totale Vermischung. Auf das auch unsere letzten Freiheiten als bald der inhomogenen Vergangenheit angehören...
jüngste Aktualisierungen 23. Oktober 2021
KLARTEXT - Meinung
29. Januar 2021 Es ist Zeit für ein erstes kurz-analytisches Trump-Ära-Nachwort Von Cicero über Wallenstein und Napoleon zu Trump immer wieder das gleiche Muster: Der Außenseiter im Politbetrieb bringt durch sein bloßes Außenseitertum automatisch und über sämtliche ideologischen Grenzen hinweg alle überrundeten Wasserträger und braven Parteisoldaten gegen sich auf, bis alles sonstige Gezänk zurückgestellt wird hinter dem einen Projekt: Der Spaßverderber muss erst mal weg, dann diskutieren wir weiter. Republikaner und „Demokraten“ werden wieder Parteien der Oligarchen sein, die Demokraten zusätzlich die Interessenvertretung der aggressiven Minderheiten, die Mitte der Gesellschaft hat keine Stimme und ist eigentlich auch unerwünscht.
Übrigens, erstaunlich wie kurzsichtig viele Zeitgenossen sind, die sich selbst für intelligent halten und es stark befürworten, wenn andere als ihre eigenen Ansichten zensiert werden. Das sie eines Tages selbst zu den Zensierten gehören werden, erschließt sich diesen Meinungsfaschisten nicht.
Zur Orientierung und zum Mitdenken: Weiterführendes zum Thema »Monetarisierung von Zensur« siehe exemplarisch Die Zensur-Industrie und ihre Handlanger [I] Die Zensur-Industrie – ein Milliardengeschäft [II]
„Mal was in eigener Sache“ Bin ich ein Trump-Fan? Ich schätze seine Ausdauer, Willensstärke (stell Dir vor es geht) und Beharrlichkeit im Kampf gegen zementierte Strukturen und Meinungskartelle. Trump war und ist ein Macher. Seine mittels erfolgreichen massiven Wahlbetruges durchgeführte Abwahl ist ein herber Schlag für alle Freiheit orientierten Selbstbestimmten. U.a. mit seinen religiösen Anwandlungen kann ich jedoch nichts anfangen.
Kurz zum Thema des religiösen Glaubens Spiritualität ist für analytisch orientierte, von kulturreligiösen Indoktrinationen befreiten, Selbst-Denker kein "Problem". Denn die Kernfrage, woher "wir" kommen und „wohin wir gehen“, ist berechtigt. Entstehungsmythen, egal welcher Ausrichtung, die allesamt irrational sind, gehören jedoch nicht in freiheitlich ausgerichtete Denkmodellkonstruktionen zur Lebensgestaltung. Insbesondere monotheistische Glaubensbekenntnisse bringen auf Grund der propagierten Einzigartigkeit Elend und Tod für Anders- und Ungläubige, wie die Geschichte zeigt. Richard Dawkins ist einer der wichtigsten, argumentativ stärksten Kritiker des vielfältigen globalen, jahrtausendlangen Glaubenswahns. Jeder kann das wesentliche, rationale Fundament* seiner Kritik begreifen. *Wir werden alle als «Atheisten» geboren. Erst durch Indoktrination werden Menschen zu «Gläubigen». Die omnipräsente Leugnung der eigenen Natürlichkeit und fehlende Basisnähe sind negativ gesetzte Grundbausteine für den religiös motivierten Entwicklungsstau der Menschheit. Organisierte Religion, egal welcher Couleur, ist eine große Hürde, die die Wenigsten überspringen (werden). Wir sind die Zuchtmasse für die wirtschaftliche Elite. Zunehmend kontrolliert, „demokratisch“ entmachtet“, verdummt und der Natürlichkeit beraubt. Religion ist in dem Zusammenhang ein gerngesehenes ergebnisorientiertes Instrument Macht auszuüben und zu erhalten.
Zur Erinnerung und Orientierung Die Bibel und ihre „späten“ Funktionäre Die Bibel wird gern als ein Buch gerühmt, das gottgegeben die Welt bewegt und widerstandslos die Herzen der Menschen feurig entfacht haben soll, diesem Wort Gottes sei der Erfolg des Christentums zu verdanken. Wir sollten aber bedenken, dass es fast 400 Jahre gedauert hat, bis die biblischen Geschichten zum Buch der Christen zusammengefasst wurden und weitere Jahrhunderte vergingen, in denen es inhaltlich immer wieder berichtigt und verändert worden ist. Bis zu diesem Zeitpunkt hat also noch niemand eine Bibel gelesen und trotzdem wurde das Christentum um das Jahr 400 per Gesetz zur Staatsreligion erklärt. Trotzdem konnte weitere 1000 Jahre kaum jemand diese Bibel lesen. Sie war in Latein geschrieben und nur wenigen Gelehrten zugänglich. Sie haben daraus dem einfachen Volk jene Texte vorgelesen, die ihnen und ihren Vorhaben gerade passten. Das Buch wurde immer wieder von Hand kopiert, hatte den vergleichbaren Wert eines heutigen Einfamilienhauses und war nur hohen Kirchenführern zugänglich. Ein Dorfpfarrer jener Zeit konnte in der Regel kaum lesen. Abermillionen Menschen sind fest davon überzeugt die Bibel sei Gottes Wort. Die dokumentierte Wahrheit sieht anders aus: Unterschiedliche, heute meist unbekannte Autoren haben die Bibeltexte geschrieben und was der späteren Priesterschaft nicht mehr gefiel, wurde eliminiert oder immer wieder zurechtgetextet. Noch heute werden Veränderungen und Anpassungen vorgenommen. Bei der Bibel handelt es sich um zusammenhanglose Schriften, die von Hunderten anonymer Autoren, Herausgebern und Kopisten verfasst, umgearbeitet, übersetzt, verfälscht und »verbessert« wurden, von Personen die wir nicht kennen, die sich meist auch untereinander nicht kannten und deren Lebenszeiten sich über neun Jahrhunderte erstrecken. Bibeltreue Gläubige zitieren für ihre Ausgrenzungen, Völkermordabsichten und ähnlich „Böses“ Gottes Wille, in Form entsprechender Bibelstellen und werfen Kritikern andererseits gerne vor, die Bibel doch nicht allzu wörtlich zu nehmen und sprechen von Symbolik und Gleichnis. Je nach Motivation, Mehrheitslage und Taktik werden also Gegenpole besetzt. Weiterführendes und Details über den Machtmissbrauch der "Kirche" berichtet u.a. die Webseite www.theologe.de ...eine umfangreiche Sammlung über die Verbrechen und Machenschaften der Katholischen Kirche aus Sicht zeitgenössischer Christen... Die Geschichte Jesu, seine Geburt, sein Leben, seine Taten und auch seine Auferstehung waren in der Welt der Antike nichts Einmaliges. Die Menschen im Römischen Reich, außerhalb der großen Metropolen, waren größtenteils kaum gebildet. Sie waren unkritisch und in ihrem entbehrungsreichen Leben beseelt von der Hoffnung auf eindrucksvolle Wunder. Die Sehnsucht danach war in der religiösen Landschaft jener Zeit allgegenwärtig. Immer wieder sollen Heilige, aber auch Nicht-Heilige Kranke geheilt, Tote zum Leben erweckt, Nahrung vermehrt, Wetter und Elemente beeinflusst und Dämonen besiegt haben. Das gilt für Herakles, Dionysos, Buddha, Pythagoras und Apollonios genauso wie für Jesus. Die Mythen eines Attis, Adonis, Dionysus, Herakles weisen, trotz unterschiedlicher Einzelheiten, im Kern das gleiche Grundmuster auf wie die Überlieferung über Tod und Auferstehung Jesu. Klage- und Auferstehungsfeiern für Adonis, Attis und andere Kultgottheiten waren über den ganzen Mittelmeerraum verbreitet und fanden teilweise zu derselben Zeit statt wie Karwoche und Ostern. Das Christentum hat den Grundgedanken des sterbenden und auferstehenden Mysteriengottes mit dem des auf die Erde kommenden und wieder zum Himmel fahrenden gnostischen Erlösers kombiniert und daraus einen eigenen Mythos geschaffen. Der war ursprünglich noch ohne zeitliche Fixierung. Erst gegen Mitte des 2. Jahrhundert entstanden daraus die heutigen Evangelien. Darin wird Jesus als geschichtliche Person unter Pontius Pilatus dargestellt. Zugleich wurden dabei die kirchlichen Auseinandersetzungen des 2. Jahrhunderts in die vermeintlichen Anfänge im ersten Jahrhundert zurückprojiziert. Die Weichen für diese ganze Entwicklung wurden in Rom gestellt. Die ersten Evangelien wurden als Gleichnisse und nicht als Geschichte verfasst…
Erst im Jahr 353 erklärte die Kirche den 25. Dezember zum Geburtstag Jesu. Diesem Beschluss gingen jahrzehntelange Diskussionen voraus. Im Jahr 200 hatte Clemens von Alexandrien noch den 17. November für das Geburtsdatum gehalten, andere tendierten zum 20. Mai oder 19. April. Die religionspolitisch kluge Wahl des 25. Dezember setzte sich schließlich durch. An diesem Tag feierten nämlich die Römer nach alter Tradition die Wintersonnenwende, bei welcher der Sonnengott Mithras aus einem Felsen geboren und von Hirten beschenkt wurde. In unterirdischen Kultstätten feierten die Menschen den Mythos von der Geburt der Sonne. Bei Tagesanbruch traten sie hinaus in die Morgendämmerung, wobei sie als Symbol des wiedergeborenen Sonnengottes oft die Statue eines Kindes bei sich trugen und jubelten: “Der große König, der Wohltäter ist geboren.” Genauso frohlocken die Engel bei Lukas (Lk 2,11): “Heute wurde euch der Heiland geboren.” Man wollte mit der Festlegung gerade dieses Geburtsdatums den damals noch sehr populären Mithras (römische Gottheit, die eine mythologische Personifizierung der Sonne darstellte) aus dem Bewusstsein des Volkes verdrängen. Die mit staatlicher Macht neu bekehrten Heidenchristen sollten den alten Götterglauben endgültig ablegen und trotzdem ein Gefühl religiöser Vertrautheit mitnehmen.
Es ist für einen Atheisten beispielsweise unbegründet, beleidigend, ausgrenzend und Opfer verhöhnend, wenn „staatliche Anteilnahme“ mittels Merkel und & Co nach einem islamischen Terroranschlag in christlichen Einrichtungen sprich Kirchen zelebriert wird. Zur Erinnerung: Jedes so genannte Menschenrecht musste der Kirche im Kampf abgerungen werden. Martin Luther versprach jedem Soldaten, der beim Krieg gegen aufständische Bauern einen Bauern ermordete, und selbst ums Leben kam, einen Platz im Himmel. (Man vergleiche Verheißungen an islamische Selbstmordattentäter) Nicht Gott hat die Menschen erschaffen, Menschen haben Gott erschaffen. Meine Frage. Was ist Gott? Der Welt(en)schöpfer? Eine Metapher? Realsatire? Die postulierte nicht stoffliche «Hauptfigur» monotheistischer kollektiver Wahnvorstellungen? Der spirituelle metaphysische «kosmische Held» ausbeutender Eliten? Der «Romanvater» „böser Männermärchen“ auf dessen (überirdischen, allmächtigen) Wunsch hin Frauen, Andersgläubige, Andersdenkende, postulierte «Systemfeinde» politisch, kulturell und sonst wie unterdrückt werden? |
5. Juli 2021
President Biden is going 'to decline' every month and every day
The free world is run by a person who 'probably couldn't find his way home after dark'
Was genau und wann berichteten ARD, ZDF, „dritte Programme“, ARTE, private Fernsehsender, ZEIT, SPIEGEL, FAZ, Süddeutsche und der schweigende »Mainstream-Rest« darüber?
Wann beginnt respektive was ist eine Lüge? THESE Journalisten, Redakteure, Blogger, Wissenschaftler, Politiker die wesentliche Informationen zurückhalten um gezielt falsche Abbilder der (gesellschaftlichen) Realität zu verbreiten sind »Super-Lügner«. |
Moderner Zensurbetrieb
18.November 2020
Josh Hawley uncovers SECRET Facebook Content Monitoring...
"WHY DO YOU CENSOR US?"
Ted Cruz SLAMS Twitter And Facebook
During Election Suppression Hearing
13. März 2021 Auch Britische Medien sprechen jetzt offen über Bidens Demenz
Prof. Dr. Wolfgang Meins u.a. Neuropsychologe und Arzt für Psychiatrie und Neurologie zur fortschreitenden Demenz des amerikanischen Präsidenten 8. März 2021
9. März 2021
Bumbling Biden White House cringes as Biden makes another gaffe
8. März 2021
Biden vs Teleprompter: Semifinal.
Joe Biden's 'communication skills' on show in recent address 7. März 2021
...was (linke) Trump-Hasser in Kauf nehmen, zeigte eine neue Dimension des ideologisch basierenden geistigen Untergangs der Massen auf...
Was genau und wann berichteten ARD, ZDF, „dritte Programme“, ARTE, private Fernsehsender, ZEIT, SPIEGEL, FAZ,
Süddeutsche und der
schweigende »Mainstream-Rest« darüber?
Confused, Stumbling and Weak Biden ...erste Pressekonferenz nach 65 Tagen im Amt...
26. März 2021
...1m02s
|
November 2020
ELECTION THEFT Of The Century | Rudy Giuliani 4 Nov. 2020
|
ELECTION THEFT Of The Century | Rudy Giuliani 6 Nov. 2020
|
5 Nov. 2020 US election’s ‘potential for voter fraud’ is ‘concerning’ |
‘We want a fair election’: Donald Trump Jr 6 Nov. 2020 |
Vernon Jones says the media is “worse than Russia and China combined” in terms of suppressing voters
|
Senator Cruz on Hannity: The Outcome I Want To See Is To Count Every Vote That Was Legally Cast
|
Do you remember?
...exemplarisch eine der schönsten, dokumentierten Zusammenstellungen,
wie Realität (im November 2016) dazu führte, dass "Etablierte" sich selbst
"kräftig in den Arsch getreten haben". Well done Mr.Trump
|
|
...was (linke) Trump-Hasser in Kauf nehmen, zeigt
eine neue Dimension des ideologisch basierenden geistigen Untergangs der Massen
auf...
...bevor «es» vergessen wird
Filmempfehlung zum Thema Politiker im Allgemeinen
U.a. die weiterbreitete Heuchelei, die von Berufs-Politikern ausgeht und das Verschweigen der eigentlichen - teils sehr stark ausgeprägten egoistischen - Motive wird in dem Film Bulworth von und mit Warren Beatty eindringlich, inhaltlich authentisch und sehr unterhaltsam abgebildet. Der Film aus dem Jahre 1998 ist aktueller denn je. Ein Muss, wenn man bereit ist, die politische Wahrheit in Wort und Bild unzensiert zu vertragen. Der Film wurde im Jahr 1999 für den Oscar in der Kategorie Bestes Originaldrehbuch nominiert. Er wurde 1999 in den Kategorien Bester Film – Komödie oder Musical, Bester Hauptdarsteller – Komödie oder Musical und Bestes Filmdrehbuch für den Golden Globe Award nominiert. Das Drehbuch gewann im Jahr 1998 den Los Angeles Film Critics Association Award und wurde 1999 für den Writers Guild of America Award sowie für den Chicago Film Critics Association Award nominiert. Er gewann 1999 den Political Film Society Award für Exposé. Warren Beatty wurde u.a. im Jahr 1998 für den Goldenen Löwen nominiert.
BULWORTH
|
|
|
|
|
Corona und die Grippe
Der kollektive Wahnsinn tobt (lokal und global)
all images © by AlexDirkFreyling respectively courtesy of ARTSTOFF
|
"Am Rande bemerkt"
29. April 2022
Für den Klimawandel
In Paris detonierte am 29.04.2022 ein Elektrobus. Es ist die dritte Explosion eines Elektrobusses im Großraum Paris. In Deutschland brannten 2021 drei Bus-Depots wegen E-Bussen aus. |
Mehrheits-Behauptung: „Unter den Wissenschaftlern besteht Konsens bezüglich der starken Wirkung des CO2 und der IPCC-Temperaturprognosen.“ Falsch: Etliche von der IPCC-Meinung abweichende Wissenschaftler haben sich mittlerweile aus dem IPCC frustriert zurückgezogen, da ihre Interpretationen ignoriert wurden. Die Auswahl der vom IPCC ausgewerteten wissenschaftlichen Arbeiten ist unvollständig. Das globale Wetter respektive Klima ist grundsätzlich ein unzulässiges Konstrukt, da aus sehr unterschiedlichen lokalen Ereignissen in mehr oder weniger willkürlich festgelegten Bereichen besteht. Wichtige klimatische Prozesse im Bereich der natürlichen Klimafaktoren bleiben vom Weltklimarat unberücksichtigt und werden auch nicht als mögliches Szenario in den Klimamodellen durchgespielt. Die IPCC-Sichtweise kann daher keinesfalls einen Konsens darstellen. Allgemein zur Orientierung Aus der Wissenschaftsgeschichte sind zahlreiche Beispiele bekannt, wo eine Mehrheit der Wissenschaftler irrte und sich letztendlich die Interpretation einer Minderheit durchsetzte (z.B. Plattentektonik in der Geologie). Wissenschaftliche Wahrheiten können nicht durch demokratische Mehrheits-Abstimmungen herbeigeführt werden. |
19. September 2022
Zur Erinnerung, Kenntnisnahme und Selbstanalyse
Widerlegung der apokalyptischen Klimawandel-Prognosen …siehe die peer reviewed Studie: A critical assessment of extreme events trends in times of global warming |
16. September 2022
Zur Erinnerung, Kenntnisnahme und Selbstanalyse
Carbon and Climate Catastrophe by Dr. Patrick Moore, Co-Founder and former President of Greenpeace, Director of the CO2 Coalition, Senior Fellow of The Heartland Institute and author of "Fake Invisible Catastrophes and Threats of Doom" |
13. Oktober 2021
KLIMAWIRKLICHKEITEN und FAKE-NEWS
Die Abweichung der globalen Mitteltemperatur der satellitengestützten Messungen vom Durchschnitt der Jahre 1991–2020 stieg im September 2021 auf 0,25 Grad Celsius. Jedoch die sich entwickelnde La Nina wird sich mit einer Verzögerung von 2 bis 3 Monaten in sinkenden globalen Temperaturen bemerkbar machen. Einen größeren Einfluss auf das nordeuropäische Winterwetter hat allerdings die nordatlantische Oszillation NAO (Druckluftunterschied zwischen Azorenhoch und Islandtief), die sich in einer negativen Phase befindet und damit einen kälteren Spätherbst begünstigt. Alles Weitere bleibt vorerst Spekulation. Wenn dem Leser im nächsten Winter, wie im letzten Schnee-Winter 2020/2021, „arschkalt“ wird, erinnere man und „Grünfrau“ sich zur gefühlten Erwärmung an die Worte von Mojib Latif (Max-Planck-Institut. für Meteorologie, Hamburg) aus dem Jahr 2000 der prognostizierte… „Winter mit starkem Frost und viel Schnee wie noch vor zwanzig Jahren wird es in unseren Breiten nicht mehr geben" Mojib Latif
Mojib Latif tätigte auch 2012 drei historische Falsch-Aussagen, die es wert sind, in Erinnerung gebracht zu werden. Drei Aussagen, drei Mal voll daneben… |
12. September 2021
Mythos Klimakatastrophe
Aktualisierung August 2021
Die Erde brennt... zumindest "brennt" es in den Hirnen der Erderwärmungsgläubigen
... die Hysteriesicherungen sind schon lange durchgebrannt ...
Outsiders Weather and Ice Age Watch: 'The Sun runs on 11-year cycles'
Historische Kälte setzt sich in Brasilien fort: In mehr als 33 Gemeinden von Rio Grande do Sul hat es am Mittwoch geschneit Mitte Juni kam es in Argentinien zu historischen Schneefällen, während im Juli auf dem gesamten südamerikanischen Kontinent eine Reihe neuer Tiefsttemperaturen gemessen wurden, darunter die zweitniedrigste Temperatur, die jemals in den Tropen gemessen wurde. Diese Woche wurde der Süden Brasiliens von einer neuen Frostperiode heimgesucht, die u. a. die Kaffee- und Maisernte des Landes weiter schädigte. Des Weiteren Sommerschnee in den europäischen Alpen und Australische und neuseeländische Skigebiete mit enormen Schneefällen ... |
![]() |
|
Am Rande bemerkt... Wunsch und Wirklichkeit »Moderner Kunst« Vermeintlich
politisch motivierte Gegenwartskünstler suggerieren u.a. Anteilnahme
und Empathie für „WEN“ auch immer. Doch jeder sollte wissen: Leben
ist egoistisch. Künstler sind egozentrisch und wünschen sich
Aufmerksamkeit. Inwieweit jedoch ein privat motiviertes Anliegen neben
„Aufklärung und Besitzerfreuden“ auch gemeinnützliche Aspekte
generiert, steht auf einem anderen Blatt. „Politischer
Künstler unserer Zeit“ und deren Produkte sind
„gesellschafts-endemische Artefakte“. Denn wäre Kunst „vor Ort“
wirklich systemgefährlich, so würde diese nicht „positiv medial“
in Erscheinung treten. Zur
Erinnerung: Die Bedeutungslosigkeit „moderner“ Kunst ist „dank“
Marcel Duchamp’s Wirken – Anfang des 20.Jahrhunderts – inhärenter
Begleiter des „modernen“ Künstlers. Künstlerische Fertigkeiten
sind zwar von Vorteil, lassen sich aber stets als „nur“
Kunsthandwerk verstehen. Soll Kunst einfach nur „schön“ sein, dann
reduziert sich die Wechselwirkung auf individuelle Befindlichkeiten.
Soll Kunst »mehr« sein, dann stellt sich die Frage, was dieses »mehr«
ist. Kunst sollte mehr sein als Allegoriengeschraube. In
der Kunst werden gerne folgende drei Ausdrücke verwendet: Diskurs,
Allegorie und Rezeption. Alle drei sind „Bullshit“. Erstens gibt es
real weder Meinungs- noch Kunstfreiheit, schon gar nicht in Deutschland
im Hinblick auf das Arsenal der (Internet-)Zensurbestrebungen der
deutschen Regierung und deren „Medienvertretungen“ (ZEIT, SPIEGEL;
FAZ; SÜDDEUTSCHE,…), zweitens ist die Bewertung von Kunst,
insbesondere aufgrund der fehlenden „Qualitätskriterien“ und der gängigen
„Aussageverweigerung“ der Künstler, Kuratoren, Galeristen eine
reine Kapitalmarktangelegenheit. Banken,
Versicherungen, Energiekonzerne und deren „Manager“ sponsern,
selektieren und kapitalisieren beliebig Kunst. Die vermeintlich
erfolgreiche Kunst „wandert“ dann auf Halde. Hinter verschlossenen
Safetüren soll sie möglichst viel Rendite abwerfen. Kunstfonds sind
beliebte Finanzierungs- und Kapitalmodelle. Dass in diesem Markt kein
Platz für gesellschaftsanalytische, basisnahe, „natürliche“ Künstler
ist, versteht sich von selbst. Ein Werkzeug, um der etablierten Form- und Inhalts-Verwahrlosung der Kunst(-Produkte) entgegen zu treten, ist „die“ bewusste, selbstinszenierte konzeptionelle Parodie auf moderne Kunst und deren Künstler. |
Glaubensbekenntnisse
in Theorie und Praxis
Der
Glaube an etwas ist erst einmal nichts Schlechtes. Der Innovation geht
der Glaube voran. Grundlage für jede Entwicklung, ob in der Physik,
Mathematik, Medizin oder Gesellschaft ist kompromissloses Überdenken,
Hinterfragen und gegebenenfalls Kritisieren und Verändern der Zustände.
Die Installation eines Glaubens ist im Bereich der Wissenschaft eine
Vorstufe zum Wissen. Physikalisch-mathematische Denkmodelle,
Vorschriften, Axiome sind Glaubensbekenntnisse. Was folgt ist der
Vergleich des wissenschaftlichen Glaubens mit der Natur. Das Experiment
wird zeigen, ob der Glaube berechtigt ist. Neue wissenschaftliche
Denkmodelle ersetzen alte wissenschaftliche Glaubensbekenntnisse.
Fortschritt und bestenfalls nachhaltige Erkenntnis bilden immer wieder
neue Grundlagen. Die Unbeständigkeit des Glaubens der Vordenker ist die
Basis des wissenschaftlichen Fortschritts, der sich dann eines Tages in
Automobilen, Flugzeugen, Massenspeichern, Smartphones manifestiert. Auch
die natürliche Evolution mit den Charakteristika Selektion und Mutation
ist ein hervorragendes Beispiel für Vitalität, Vielfalt, Fortschritt
und biologischen Pluralismus. Übergeordnet kommen stets wiederkehrende Glaubens-Denkmuster zum Einsatz. Resultierende zentrale Fragen sind in allen Lebensbereichen und Wissenschaftsdisziplinen gleich. Wozu nützt der Glaube an etwas? Was bewirkt der Glaube an etwas? Was sind die Konsequenzen des Glaubens an etwas? In wissenschaftlichen Bereichen ist dieses »Etwas« klar definiert, sollte man zumindest idealisiert meinen. Glauben an Atomkerne, Elektronen, Protonen, Photonen führten letztendlich zum technischen Fortschritt beispielsweise im Bereich der medizinischen Diagnostik. Atomkerne, Elektronen, Protonen, Photonen waren insbesondere in den Anfängen reine Glaubensmodelle. Sie konnten nicht direkt beobachtet werden. Noch heute ist die Struktur ungeklärt. Quarks, Neutrinos und andere virtuelle Teilchen werden „bemüht“ um die Struktur und Wechselwirkung von Protonen und Elektronen zu beschreiben. Quarks und Neutrinos sind aber noch weniger beobachtbar und aus dieser Sicht noch ungeeigneter als Elektronen und Protonen und doch glaubt die Mehrzahl der Physiker an diese Teilchen. Religiöser Glaube und wissenschaftlicher Glaube sind sich in diesem Punkt sehr nahe. Es wurden weder Quarks gesehen noch irgendein Gott. Die Glaubenskriege innerhalb der theoretischen Physik, die bei genauer Betrachtung mittlerweile aus rein mathematischen Konstrukten befeuert werden, beinhalten ähnliche Tabus und unüberwindbare Glaubensunterschiede wie religiöse Glaubensmodelle in der Gesellschaft. Stringtheorien und das dominierende Standardmodell der Teilchenphysik sind konkurrierende Denkmodelle. Es gibt perspektivisch keine Parallelität oder Glaubenstoleranz. Auch in der Physik werden favorisierte Glaubensbekenntnisse unwissenschaftlich verteidigt. Populäre Beispiele sind die Urknall- und Neutrinothese. Als Geburtsjahr der Quantentheorie gilt das Jahr 1900 mit der Veröffentlichung von Plancks Strahlungsgesetz, das das Spektrum idealer Temperaturstrahler (Hohlraumstrahler) in Abhängigkeit der Temperatur angibt. Trotz mehr als 100 Jahren moderner Physik - unter dem Dogma der Quantenmechanik und weiterführend der Quantenelektrodynamik (QED), Quantenchromodynamik (QCD) - sind fundamentale [Hilfs-]Grössen wie Masse oder Ladung einer greifbaren Erklärung fern geblieben. Die isoliert betrachtete Eleganz und Stringenz mathematischer Denkprozesse und beherrschender Axiome verwandelte sich in Ankopplung an beobachtbare Physik in eine maximale «Unanschaulichkeit der Wahrscheinlichkeiten» und förderte je nach Motivation jedwede Theorie. Die Urknallthese von dem belgischen Priester und Astrophysiker Georges Edouard Lemaître, erstmals veröffentlicht 1927 und die von Wolfgang Pauli stammende Neutrinothese des Jahres 1930 sind Eckpfeiler der modernen Physik. Neutrinos sind «wildcards par excellence» der theoretischen Teilchen-Physik. So wie «sie» gebraucht werden, erscheinen «sie». Und wenn «sie» mal nicht erscheinen, dann "mutieren" sie nachträglich "theoriegerecht", eleganter ausgedrückt nennt man das Neutrino-Oszillation. Der teils magische, "überlichtschnelle" Urknall ist abstrakt formuliert ein subtiler Kreationismus. Die omnipräsenten, "energiereichen", variablen Neutrinos penetrieren zwar «Alles» und "befruchten" hin und wieder mal «Etwas» (siehe Betazerfalltheorie), bleiben ansonsten aber nahezu "göttlich" unbeobachtet. Dieses Neutrino- «Thesen- und Wirk-Schema» "erinnert" an die unbefleckte Empfängnis der Jungfrau Maria. Das mag Gläubige der Bibel in Entzücken versetzen, ist aber der Physik nicht dienlich. Das Standardmodell der Teilchenphysik erweitert diesen abendländisch-christlichen Glauben der Physiker an Natur, indem es "schöpfungsgerecht" «sozialistische Artenvielfalt» (Stichwort: Elementarteilchenzoo) erzeugt. Friedrich Nietzsche hätte großen Spaß an dem «Vergläubigen der Physik» und würde sich bestätigt fühlen, daß unsere Hochkultur sich früher oder später selbst dahinrafft. Die so eingemauerte Grundlagenphysik hat keine Chance auf Erkenntnis.
In der modernen Physik geht es bei genauer Betrachtung seltsamerweise häufig um die Bewahrung bestehender Dogmen. Argumente der Vernunft werden Denkgewohnheiten und Vorurteilen geopfert. Ein psychologischer Grund liegt im Glauben und Hoffen. Die Mehrzahl der „forschenden“ Physiker sind meist Anhänger der Quantenfeldtheorien. Ein echtes Verständnis dieser undurchsichtigen Theorien ist nicht möglich. Aufbauend auf unverstandenen Arbeiten anderer planen sie Experimente, für die es nur zwei Resultate gibt: Erfolg und Bestätigung oder Misserfolg und kurze Ratlosigkeit, die dann in der Regel in neuen Teilchen, neuen Quantenzahlen und Theorieerweiterungen endet. Wie wir alle tendieren auch die (theorieaffinen) Experimentatoren dazu, einen Misserfolg bewusst und unbewusst zu vermeiden, und weichen einer Widerlegung ihres Glaubens durch ein Experiment (oder durch Denken) instinktiv aus. Anstatt die Experimente auf das Wesentliche zu beschränken und sie so einfach und effizient wie möglich zu gestalten, wird auch oft vom Wesentlichen abgelenkt. Moderne Theorien basierend auf Quantenfeldtheorien haben alle eins gemeinsam: Sie entpuppen sich nicht selten in theorierelevanten Experimenten "früher oder später" als Mogelpackungen. Statt nun die Theorie zu verwerfen, werden lediglich Korrekturen vorgenommen. Das können (neue) virtuelle Teilchen sein, die "kurzzeitig" den Energieerhaltungssatz mit Hinweis auf die Heisenbergsche Unschärferelation verletzen. Obwohl diese Verletzung den wichtigsten Erhaltungssatz der Physik konterkariert. |
|
Etwas
interpretierter Aphorismus zum Kennenlernen und Mitdenken Ein Denkmodell ohne Mathematik ist ein philosophisches Denkmodell. Ein Denkmodell „aus“ Mathematik ist kein physikalisches Denkmodell.
Erkenntnistheoretisch ist der Weg eines realobjektorientierten Denkmodells vorgezeichnet. Der Beobachtung folgt die
Formalisierung. In einem allgemein verständlichen Denkmodell ist Mathematik nur Mittel zum Zweck. Nichts weiter als ein plausibilitäts-resultierendes, praktisches Ordnungs- und Formalisierungsinstrument. (aber) Mathematik kann nicht zwischen Staub und Staubsauger unterscheiden. ...
Die inversive Methodik Sowohl das Standardmodell der Kosmologie (ΛCDM-Modell), exemplarische Stichworte Einstein-Friedmann-Gleichungen, Robertson-Walker-Metrik, Dunkle Energie als auch das Standardmodell der Teilchenphysik (SM), Stichworte Lagrangedichte, Higgs-Mechanismus, Neutrinos, zeichnen sich dadurch aus, daß zahlreich postulierte Theorieobjekte und postulierte Wechselwirkungen dieser als "Resultate" eines mathematischen Modells, indirekt beobachtet werden. Der Formalisierung folgt die (gewünschte) Beobachtung. Bei genauer Sicht handelt es sich aber stets um stark theoriebeladene Versuchsergebnisinterpretationen. Das SM kennt keinen einzigen direkten Nachweis einer postulierten Theoriegröße. Das ΛCDM-Modell krankt – losgelöst von konkreten Ansätzen - an einer fundamentalen Randbedingung. Bei allen kosmologischen Beobachtungen handelt es sich nicht um kontrollierbare Laborexperimente. Sowohl in der Newtonschen Interpretation der Gravitation als auch in den „ART-üblichen“ differentialgeometrischen Betrachtungen wird stark idealisiert. Die wahren energetischen Verhältnisse (lokal und teils in (periodisch-)dynamischer Überlagerung) lassen sich im wahrsten Sinne der Worte „aus Sicht“ der Erde oder erdnaher Satelliten nicht ermitteln, wobei selbst die von der Erde weit entfernten Satelliten für kosmische Verhältnisse als erdnah zu verstehen sind. Das bedeutet, die Ursachen könnten gänzlich anderer Natur sein als vermutet. Mit steigender Beobachtungskomplexität, die heutzutage durch iterative Nachbearbeitungen stark „(nach-)belastet“ ist, können vermeintliche Beobachtungs-Effekte von mathematischen Artefakten der genäherten „Lösungen“ nicht separiert werden. Schlicht formuliert, man sieht das, was man theoretisch sehen möchte.
Botschaft an alle »realobjektbefreiten Denker« We're sorry, but your brain has been disconnected from reality. Please hang up and try again.
|
Globale Verständigungs-Probleme Es existiert ein Dilemma[*], dessen Ursachen mit dem politisch gewollten Ausschleichen primärer Bildung in direkter Verbindung stehen. Die Lesefähigkeit nähert sich Schritt für Schritt dem funktionalen Analphabetismus und die Fertigkeit kurze, formal präzise Mitteilungen im Sinne rational logischer Möglichkeiten weiterdenken zu können wird nur selten erlernt. Das Gros der Menschen des frühen 21.Jahrhunderts verfügt - "konträr zum angewandten technischen Fortschritt" - nur über eine einfache Lesefähigkeit, die durch den täglichen Gebrauch von „SMS und Twitter“ genährt wird. Dieser, aus vielerlei Sicht, traurige Ist-Zustand gilt auch für akademisch ausgebildete (junge) Leute, zumal dessen reales Bildungsniveau, bis auf Ausnahmen, nicht (mehr) den Standards einer fundierten Wissenschaftsorientierung entspricht.
[*] Somit kommt weder eine komplexere Aussagegestaltung noch eine aphoristische Form der Beschreibung in Betracht. Das Verstehen einer „Schrift“ – insbesondere mit neuen, ungewohnten, alternativen Ansätzen – lebt von der notwendigen Leichtigkeit des Betrachters im Umgang mit Textobjekten. Jemand der schon Schwierigkeiten hat, überhaupt lesen zu können, fehlen die spielerischen Möglichkeiten. Es fehlt sozusagen die freie Kapazität sich auf den Inhalt konzentrieren zu können.
Es kann also sein, daß ein (junger) theoretischer Physiker Supersymmetrie fordert aber keinen Satz formulieren kann, der interdisziplinär verstehbar und argumentativ nachvollziehbar diese Forderung beschreibt sowie begründet. Wobei hier „gerechterweise“ bemerkt werden sollte, daß der Wunsch respektive die Forderung, das sich Natur nach einem mathematisch formalen Diktat zeigen muß, aus rational logischer und erkenntnistheoretischer Sicht eh nicht realisieren lässt. Der supersymmetrienotwendige Denkstatus verbleibt lokal in einer abstrakten Glaubensuntermenge und erreicht u.a. „mangels Masse“ nicht einmal die Konzeptionsebene religiöser Bekenntnisse.
|
Das [Un-]Wesen der Modernen Physik
Ein
geschichtlicher Rückblick zeigt, daß Leute die auf Fehler aufmerksam
machen, damit rechnen müssen, daß man ihnen jahrzehntelang nicht
glaubt, während jene die im Rahmen bestehender Denkmodelle
spektakuläre "Luftnummern" publizieren, honoriert und hofiert werden. ... mit den (zeitlosen) Worten Theodor Fontanes: »Wir stecken bereits tief in der Dekadenz. Das Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu, dem baren Unsinn.«
Naturphilosophischer Ansatz Grundlegende
Denkmodell-Aspekte lassen sich in Ankopplung an globale Auffälligkeiten,
wie Gravitationskonstante, kleinste skalare Wirkung und Invarianz der
Lichtgeschwindigkeit, nur intuitiv entwickeln. Man muß eine Idee und
weiterführend, aufbauend konsistente Ideen haben, um ein Denkmodell
interdisziplinär verständlich gestalten zu können. Denkmodelle müssen
absolut begriffstransformierbar sein, um eine epistemologische
Bedeutung zu erlangen. Eine mathematische Gleichung, die sich nicht außerhalb
der Mathematik vermitteln lässt, ohne daß sie ihren exakten
Bedeutungsanspruch verliert, ist im Rahmen eines physikalischen
Denkmodells stets eine Nullnummer der Erkenntnis. Natur
kann nur addieren oder subtrahieren. Eine „gesicherte“ »höhere
mathematische Realität« existiert ausschließlich im Rahmen axiomatisch
begründeter Sprache (Mathematik). Inwieweit eine korrekte mathematische
Struktur (»höhere mathematische Realität«) physikalisch anwendbar ist,
lässt sich mit den „Mitteln“ der Mathematik nicht entscheiden (siehe
„unstrittig-exemplarisch“ Epizykeltheorie und
Banach-Tarski-Paradoxon). Mathematik erfasst letztendlich Mengen und kann
nicht zwischen Staubsauger und Staub unterscheiden. Die Standard-Annahme der Standardmodelle, daß komplexe mathematische Formalismen einen erkenntnistheoretischen Gewinn „mathematik-selbstgestaltet“ generieren können, ist ein fataler Irrglaube, der zu theoriebeladenen Versuchen führt und in dessen Verlauf Versuchsergebnisse weder reproduzierbar noch direkt meßbar sind. Es gibt keine „reine“ Beobachtung. Jede Beobachtung wird aus Sicht bestehender Theorien interpretiert, ist also „theorie-beladen“. Theorien, die bereits auf formal logischer Ebene in sich widersprüchlich sind, brauchen im Grunde nicht empirisch überprüft zu werden, da aus einer falschen Annahme jede beliebige Aussage folgt und damit die Theorie unwiderlegbar bzw. mit jeder Beobachtung vereinbar ist. Das geozentrische Weltbild zeigt, daß eine falsche Theorie über Jahrhunderte, ja sogar Jahrtausende als wahr und mit Hilfe von Zusatzannahmen wie den Epizyklen, trotz starker empirischer Indizien für ihre Falschheit aufrechterhalten werden kann. Wir verfügen über keine allgemein anerkannte Wahrheitstheorie. Wir haben jenseits von Tatsachenbehauptungen keinen intersubjektiven Zugriff auf die Wirklichkeit. D.h. die Übereinstimmung von Aussage und Wirklichkeit kann nicht objektiv festgestellt werden. Dieser Sachverhalt wird insbesondere dann problematisch, wenn die Theorie bestimmt, was gemessen werden soll. Es ist alles andere als trivial, Raum und Zeit als physikalische "Gegenstände" zu betrachten. Raum und Zeit sind primär "Ordnungsmuster des Verstandes". Um aus diesen Ordnungsmustern Physik zu "erhalten", bedarf es zwingend einer phänomenologischen Betrachtung und Erklärung. Und das ist der „springende Punkt“. Den Standardmodellen fehlt es generell an plausibler Phänomenologie. Die Behauptung diese wäre nicht mehr denkbar, weil die theoretischen Implikationen, wie die Raum-Zeit, die menschliche Vorstellung sprengen sind Zirkelschlüsse, da hier abstrakte theoretische Modelle zur realphysikalischen Wahrheit erklärt wurden. Die Axiomatik ist nie falsch, was aber nicht bedeutet, daß damit eine physikalische Realität verbunden ist, siehe hier das überdeutliche Beispiel des Banach-Tarski-Paradoxons.
Das Standardmodell der Teilchenphysik (SM) und das Standardmodell der Kosmologie (ΛCDM-Modell) erreichen in der praktischen Ausführung diese „axiomatische Qualität“ gar nicht, da erst Näherungen und Idealisierungen zu rechenbaren Lösungen führen, doch diese Eingriffe zerstören die Axiomatik.
Im Jahre 1964 postulierte Murray Gell-Mann auf Grund von Argumenten zur (mathematischen) Symmetrie der SU(3)-Gruppe eine Struktur der Nukleonen, die aus drei Partonen – diesen Namen hat Richard Feynman geprägt – bestehen. Basierend auf literarischen Vorbildern wurden die Partonen von Gell-Mann als ” Quarks“ bezeichnet, nach James Joyce in” Finnegans Wake“: Three quarks for master Mark. Ratlosigkeit
und Phänomenologieferne wurden und werden durch virtuelle Teilchen und postulierten
Schnittstellen zwischen theoretischer Fiktion und Realphysik
„ersetzt“. Da dies nicht gelingen kann, bedarf es mit fortschreitender
Komplexität vieler freier Parameter, variabler Kopplungskonstanten und
„wilder Substrukturierung“. Aus einem Austauschteilchen (Photon)
werden schnell mal acht (Gluonen), die dann zusätzlich mit weiteren
Quantenzahlen ausgestattet werden müssen. Im Fall des Lichtäthers erhielt man ein Trägermedium, das Licht leitet, im Fall des (negativen) Dirac-Sees erhielt man ein Medium im Vakuum, das voll von negativen Energieteilchen ist, die die Fluktuationen im Vakuum verursachen. In beiden Fällen lässt sich das postulierte Medium weder begründen noch nachweisen. "Lustigerweise" lehnen Standardmodell-Anhänger den nicht beobachteten Lichtäther ab und führen ohne mit der Wimper zu zucken sodann die gleichfalls nicht nachweisbare Dunkle Energie und Dunkle Materie ein. Nüchtern betrachtet wird schlicht ein Glaubenskonzept durch ein anderes Glaubenskonzept ersetzt. Ausgehend vom Quantenfeldvakuum besteht eine der wortwörtlich großen Schwierigkeiten darin, daß eine Energie im Vakuum angenommen werden muss, die ihre Auswirkungen in die ART „verschleppt“. Es stellt sich in Verbindung mit der kosmologischen Konstante die Frage: Ist die Nullpunktenergie real? Oder verflüchtigt sie sich eines Tages, so wie zuvor Lichtäther und Dirac-See. Was
ist der phänomenologische Unterschied zwischen einem beobachtbaren Photon
und einem (postulierten) nicht beobachtbaren Gluon, wenn das Gluon auf
Wunsch des symmetriesuchenden Theoretikers, so wie das Photon, masselos,
raumlos ist und sich mit Lichtgeschwindigkeit bewegt? Sparen wir uns an
dieser Stelle den Hingucker auf gluonische Details, wie deren acht
wechselwirkende Ausformungen und diverse theorienotwendige Verknüpfungszahlen.
Sparen wir uns auch den Hingucker auf das Photonenpostluat im Rahmen der
Elektroschwachen Theorie, welches dem Photon die Entität raubt und durch
eine irreale mathematische Mischung ersetzt. Am photon-gluonischen
Beispiel wird deutlich, wie beliebig und sinnleer theoretische Physiker
„postulieren“. Zur Erinnerung: Mathematik kann nicht zwischen
Staubsauger und Staub unterscheiden. Die mit „Füssen“ brachial
getretene naturphilosophische Betrachtung heult hier „gluonisch“ auf. Wie
wir alle wissen (sollten) wurde der Lichtäther kollektiv verbindlich
abgeschafft. Das ätherassoziierte lichtschnelle, masselose Photon durfte
jedoch bleiben. Welchen Sinn macht es „nun“ ein Higgs-Feld samt
massebehafteten Higgs-Bosons in „Analogie einzuführen“? Zumal der
„Higgs-Mechanismus“ den Teilchen bis auf ein mickriges Prozent gar
keine Masse geben kann, nicht einmal in der frei formulierbaren
mathematischen Fantasie. Was soll man mit einer ursprünglich masselosen
dann „higgskorrigierten“ Theorie anfangen, die 99% der bekannten Masse
als „gluonische“ Bindungsenergie in die Welt setzt? Das ist aus
epistemologischer Sicht nicht einmal mehr epizyklisch, hier grüsst mit
breitem Grinsen die Phlogistontheorie. Fazit: Theodor Fontanes „frühe“
Erkenntnis ist in der Modernen Theoretischen Teilchenphysik ein
Dauerbrenner: » Wir stecken bereits tief in der Dekadenz. Das
Sensationelle gilt und nur einem strömt die Menge noch begeisterter zu,
dem baren Unsinn. « Zur
Beliebigkeits-Problematik der freien Parameter gesellt sich noch
die unvermeidbare „axiomatische Verletzung“ des Kovarianzprinzips.
Salopp "formulierter" Hintergrund: Die Allgemeine Relativitätstheorie
wurde u.a. aus der Forderung geboren, zur Beschreibung der Naturgesetze
beliebige Koordinatensysteme verwenden zu können. Entsprechend dem
Kovarianzprinzip sollte die Form der Naturgesetze nicht entscheidend von
der Wahl des speziellen Koordinatensystems abhängen. Diese Forderung ist ursächlich
mathematisch und führt zu einer Vielfalt von möglichen
Koordinatensystemen [Metriken]. Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie (ART), die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen. Gemäß ART-Postulat trägt nicht nur Masse, sondern auch jede Form von Energie zur Krümmung der Raumzeit bei. Dies gilt einschließlich der mit der Gravitation selber verbundenen Energie. Daher sind die einsteinschen Feldgleichungen nichtlinear. Erst Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen. Die unvermeidbaren ("kovarianten") Widersprüche kommen mit den offensichtlich unzulässigen Idealisierungen und Näherungen des Systems von nichtlinearen, verketteten Differentialgleichungen. Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung „entschwindet mit der Verstümmelung“ (Idealisierung und Näherung) der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch korrekten Gleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung. Diese Art des Mathematikgebrauches ist willkürlich, da je nach „Geschmack“ der (selbst)gewählten Metrik andere Ergebnisse erhalten werden.
Das
mathematische Konzept der Eich-Symmetrie(-Forderung) entspringt einer im
Kern realphysikbefreiten Abstraktion. Resultat: Konträr zur
sachdienlichen Forderung erkenntnistheoretischer Betrachtungen sind die
„Ergebnisse“ der Theoretischen Grundlagenphysik zu den vermeintlichen
„Elementarteilchen“ eher emotional statt wissenschaftlich begründete
Antworten auf die ideologische Frage, auf welches theoretische Konzept man
sich „heute und demnächst“ einigt. Die Natur hat sich gefälligst
dann den theoretischen Implikationen zu unterwerfen. Heute sind es
beispielsweise noch postuliert elementare Quarks, morgen möglicherweise
"Preonen-Substrukturierte". Gemessen wird stark selektiv in
vorgezeichneten Zerfallskanälen. Beobachtet wird das, was die aktuell
herrschende Theorie fordert.
Weitere Beispiele Das Elektron ist quantenfeldtheoretisch ohne Ausdehnung, somit ohne Trägheitsmoment daraus folgend realphysikalisch „eigendrehlos“. Es existiert eine rein energetische Analogie, die sich durch Energieniveau-Aufspaltungen manifestiert. Mit einer Eigendreh-Dynamik des Elektrons hat das nichts zu tun. Spin-Bahn-Wechselwirkung gemäß Dirac und "semiklassische" relativistische Korrektur ohne Spin sind im Ergebnis gleich! Der Spin "entsteht rein mathematisch" mittels so genannter γ-Matrizen "innerhalb" eines Gleichungssystems. Wer Freude an mathematischen Spielchen hat, kann dies in zahlreichen Online-Ausführungen selbst recherchieren. Die pathologische Prozedur mittels Begrifflichkeiten wie Spin oder Spin-Bahn-Wechselwirkung suggestiv an realphysikalische Objekte "anzukoppeln", die Masse besitzen und Raum einnehmen, ist schizophren. Da es weder in der Quantenmechanik noch in den Quantenfeldtheorien diese Objekte gibt. Ganz im Gegenteil: Dem Elektron wird per Postulat ein Radius "abgesprochen". Fakt ist: Es wurde noch nie ein quantenmechanischer Spin gemessen, es wird auch in Zukunft kein quantenmechanischer Spin gemessen. Gemessen wird stets ein magnetisches Moment, dem mathematisch sodann ein quantenmechanischer Spin zur Berechnung angeheftet wird. Das magnetische Moment basiert realphysikalisch aber auf radiusgekoppelter Masse, auch wenn das Systemphysiker nicht wahrhaben wollen. Sowohl bei quantenmechanischen Spinberechnungen und daraus resultierend Folgeberechnungen erinnern die rein mathematischen Vorgänge an die Epizykeltheorie des Geozentrischen Weltbildes. Die Berechnungen der Epizykeltheorie mit damals 3 freien Parametern waren nie falsch, das dem zu Grunde liegende Weltbild jedoch eine Erkenntnis-Katastrophe. Es stellt sich psychologisch die Frage, warum mehrere Generationen von Physikern Selbst-Theorie leugnend von Bahnen und Drehimpulsen sprechen, schreiben und höchstwahrscheinlich auch denken, wenn "ihre" Theorien weder Bahnen noch Drehimpulse enthalten (dürfen). Eigenrotation setzt räumliche Ausdehnung, Masse und Drehachse voraus. Der "gemeine" Denker sollte sich selbstmotiviert schlicht mal die Frage stellen, warum die Theoretische Physik realphysikalische Objekte programmatisch ablehnt bzw. so sehr "fürchtet". Der nicht vorhandene Spin der Quarks und Gluonen Die erste Annahme war, daß im Bild des SM der postulierte Protonenspin sich zu 100% aus den Spinanteilen der Quarks zusammensetzt. Dies wurde viele Jahre nach der ersten Annahme 1988 bei den EMC-Experimenten nicht bestätigt. Entgegen aller Annahmen wurden damals sehr viel kleinere, sogar mit Null verträgliche Anteile gemessen ( ∆∑ = 0.12 ± 0.17 European Muon Collaboration). Diese Entdeckung war so unerwartet, daß eine Zeit lang von einer Spin-Krise gesprochen wurde. Aber auch die zweite Annahme, daß die ins Leben gerufenen Gluonen zum Protonenspin beitragen, ergaben nicht das gewünschte Ergebnis. In der dritten, derzeit aktuellen Theorie-Fassung sollen nun die Quarks, Gluonen und deren dynamisch-relativistische Bahndrehimpulse im Ergebnis fein säuberlich den Protonenspin ausmachen : Wie ein postuliert masseloses, nichtreales Theorieobjekt, sprich Gluon, einen "suggestiven" Bahndrehimpuls generiert, soll ruhig Geheimnis des SM bleiben (psst). Bei genauer Betrachtung besitzt diese 2.Nachkorrektur den Vorteil, daß das Ergebnis im Rahmen der Gitter-Eichfeld-Theorie und hübschen neuen Konstrukten, namens "Pionenwolken", rein algorithmisch in Großrechner-Anlagen "errechnet" wird. Es wird also solange "kombiniert", bis das gewünschte Ergebnis vorliegt. Diese Leute sind so überzeugt von ihren Taten, daß sie das Wesentliche offensichtlich aus den Augen verloren haben. Wieso sollte die Natur eine komplexe Mehrobjekt asymmetrisch, ladungsfragmentierte, dynamische Substruktur schaffen, die nur im statistischen Mittel das Gleiche liefert, wie das postuliert punktverarmte, "leptonische" Elektron, daß ohne "Mühe" und Struktur, sowohl einen "diskreten" halbzahligen Spin als auch eine betragsmäßig gleiche Ladung liefert?
Es
geht noch deutlich beliebiger, siehe exemplarisch Frank Anthony
Wilczek’s Axionen, die er nach einem Waschmittel benannte, und
die „Axionen-erzeugende“ Peccei-Quinn-Weinberg-Wilczek-Theorie (http://www.physik.uzh.ch/lectures/astro/10/vorlesung/Schumann_Axions.pdf
) Am
Rande bemerkt: 1973 führte Frank Wilczek zusammen mit David Gross die
Asymptotische Freiheit ein. Diese besagt, daß die Starke Wechselwirkung
zwischen Quarks umso schwächer ist, je näher diese beieinander sind.
Falls zwei Quarks extrem nah zusammen sind, ist die Wechselwirkung so
schwach, daß sie sich nahe zu wie „freie Teilchen“ verhalten. Die
Asymptotische Freiheit wurde auch von David Politzer „entdeckt“. Alle
drei bekamen dafür 2004 den Nobelpreis.
Das
Tauon (τ-Lepton) ist das schwerste der drei geladenen
Leptonen des Standardmodells der Elementarteilchen. Seine Masse beträgt ~
1777 MeV/c2, die Lebenszeit ~ 2,906 ± 0,010 · 10−13 s.
Wie "schmerzbefreit" SM-Protagonisten sind, wird auch an den angeblich experimentell nachgewiesenen so genannten Delta-Baryonen überdeutlich. Es erübrigt sich die Bemerkung, daß es, wie könnte es auch anders sein, keine direkten Delta-Baryonen-Nachweise gibt. Es existieren gemäß SM vier verschiedene Δ-Baryonen mit Spin3/2 und folgenden Ladungsmöglichkeiten: Δ++, Δ+, Δ0, Δ−. Die asymmetrisch gestückelten Quarks-Ladungen bilden in Form der Δ++ also Ladungsträger mit zweifacher Elementarladung. Weitere SM-Aussage: ..." Δ+ und Δ0 besitzen denselben Quarkinhalt wie die Nukleonen Proton und Neutron und können deshalb als deren Spinanregung aufgefasst werden."...Übersetzt in die reale Welt heißt das soviel wie: Wissenschaft ist das, worauf man sich geeinigt hat... anything goes. Es macht aus Elementarkörpertheorie-Sicht wenig Spaß sich mit realphysikbefreiten Abhandlungen zu beschäftigen, die letztendlich in einem Zeitfenster von mehr als 100 Jahren nichts weiter als selbstprophetische Konstrukte beinhalten, die aus erkenntnistheoretischer Sicht der »Natur der Dinge« keinen Schritt näher gekommen sind. Welchen Sinn macht es über die 10.Stelle hinter dem Komma ernsthaft zu philosophieren und dies zu allem Nonsens-Überfluss auch angeblich experimentell messen zu können, wenn der Protonenradius seit Jahrzehnten um fast 4,4% falsch gemessen wurde? Welchen Sinn macht es iterativ taylorreihenaffine Entwicklungskoeffizienten in der Größenordnung von mehreren Zehnmillionen Gleichungen zu definieren? Denn "zeitgleich" liefert die "grandios präzise" Quantenfeldtheorie basierende Berechnung der Vakuum-Energie einen Wert der um den Faktor 10120 falsch ist! Diese "Falschheit" sprengt interdisziplinär jeglichen Rahmen (der Vernunft). Welchen Sinn macht es über Feinheiten des Universums zu diskutieren, wenn noch nicht einmal die "Basics" von den Protagonisten der Standardphysik verstanden wurden? Bei allen kosmologischen Beobachtungen handelt es sich eben nicht um kontrollierbare Laborexperimente. Sowohl in der Newtonschen Interpretation der Gravitation als auch in den „ART-üblichen“ differentialgeometrischen Betrachtungen wird stark idealisiert. Die wahren energetischen Verhältnisse (lokal und teils in (periodisch-)dynamischer Überlagerung) lassen sich im wahrsten Sinne der Worte „aus Sicht“ der Erde oder erdnaher Satelliten nicht ermitteln, wobei selbst die von der Erde weit entfernten Satelliten für kosmische Verhältnisse als erdnah zu verstehen sind. Das bedeutet, die Ursachen könnten gänzlich anderer Natur sein. Mit steigender Beobachtungskomplexität, die heutzutage durch iterative Nachbearbeitungen stark theoriebeladen „(nach-)belastet“ ist, können vermeintliche Beobachtungs-Effekte von mathematischen Artefakten der genäherten „Lösungen“ nicht separiert werden. Schlicht formuliert, man sieht das, was man theoretisch sehen möchte. Eine gern vermittelte falsche These lautet: Nach dem Dritten Keplerschen Gesetz und dem Gravitationsgesetz müsste die Rotationsgeschwindigkeit der äußeren Bereiche von Galaxien abnehmen. Sie bleibt jedoch konstant oder steigt sogar an. Dies legt die Vermutung nahe, daß es in Galaxien Masse gibt, die nicht in Form von Sternen, Staub oder Gas sichtbar ist, eben Dunkle Materie. Diese Annahme ist ohne nähere (lokale) Strukturkenntnis phänomenologisch unbegründet ...da sich die Kepler-Gesetze in ihrer Wirkung auf Zentralmassen "beziehen" (was für eine "bahnbrechende" Überraschung). Ist eine Galaxie ein Zentralmassensystem oder "gleicht" sie eher einem starren Körper, bei dem sich die Massen, grob betrachtet, auf einer zentrumsfernen Kreisscheibe "häufen", zumindest wenn man die Galaxie als solche erhalten möchte? Es ist nicht die Dunkle Energie, die hier postuliert zum Einsatz kommt, sondern wohl eher Tendenzen zur kollektiven geistigen Umnachtung. Die derzeitige Fehlerungenauigkeit liegt für kosmische Dimensionen in der Größenordnung von 10% und mehr, sofern man beispielsweise die Ergebnisse des Planck-Satelliten aus dem Jahre 2013 ernst nimmt. Die vom ΛCDM-Modell theoriegenerierte "nichtlineare" Hubble-Konstante besitzt gemäß Planck-Satelitt-Meßung einen Wert von ~ 67 kms−1Mpc−1 statt des zuvor propagierten Literaturwertes von 74,3 +/-1 kms−1Mpc−1. Wie tief müssen die Selbstzweifel möglicher Kritiker sein, wie ängstlich bzw. wie ignorant ist der moderne Forscher? Die Quark-These ist Quark, nicht weil der deutsche Begriff es schon vorwegnimmt, sondern weil es streng verboten ist, daß postulierte Materieformen nicht meßbar sind. Gleiches gilt materiell und energetisch für Neutrinos und Dunkles Zeug der »Knallisten« (Vertreter und Anhänger des inflationären Urknalls). Es gab und gibt keinen einzigen primären Neutrinonachweis. Dunkle Energie, Dunkle Materie sind nicht anders als Götter und Dämonen. Zukünftige Wissenschaftler-Generationen werden uns für diesen Quatsch im besten Fall "verlachen", denn substanziell gibt es für diese kommerziell motivierten Dark Ages of Modern Physics nur tiefe Verachtung. Sofern "wir" es schaffen, "uns" an wissenschaftliche Normen zu erinnern und diese ausnahmslos anzuwenden, ergibt sich mit Leichtigkeit die formal logische Gewißheit, daß Confinement-These, Endlos-Substrukturierung, variable Kopplungskonstanten, dutzende freie Parameter, Neutrino-Postulat, Dunkle Materie, Dunkle Energie, Dunkle Photonen nicht die Wissenschaftsnorm erfüllen. Zur Erinnerung: Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen also keine physikalischen Objekte. Also die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat massselos, andere nicht. Elektronen sind theoriegewünscht zum Masse- und Ladungspunkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. "5 Phasen" bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht "passen"). Wie auch immer, quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,...), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen 'tohu' und 'wabohu' aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen. Religiosität und Psychologie kommen mit dem Theoretiker als Mensch mit ins "Spiel". Das Paradebeispiel für ein Glaubensbekenntnis statt empirisch begründeter Wissenschaft, ist das Proton. Selbst die vom Standardmodell inszenierten Versuche widerlegen die Substruktur-These im Rahmen der postulierten Konstituenten. Des Weiteren: Quarks sind keine Spin-½-Teilchen und trotzdem wird weiter so getan als ob die Meßergebnisse nicht existieren würden...
"[Bild -] Aphoristische Betrachtung" des Proton - Desasters
Ein mathematisches Ordnungssystem welches
methodisch Versuchsergebnisse ignoriert, ist erkenntnistheoretisch
unbrauchbar. Theorien, wie das Standardmodell der Teilchenphysik,
welches mit 25 (!) freien Parametern „arbeitet“ ist keine
wissenschaftliche Theorie sondern in mehrfacher Hinsicht ein willküraffines,
komplexes Glaubensbekenntnis. Die Annahme von realitätsverneinenden
Punktmassen, die Forderung nach unbeobachtbaren Teilchen, die beliebig
viel Energie aufnehmen und „entfernen“ können und ein
mathematischer Formalismus der realitätsbefreit das physikalische
Denkmodell ersetzt hat, taugen bestenfalls als mathematische Spielerei.
Um Wind, Feuer, Licht und Dunkel zu verstehen wurden „einst“ Dämonen
und Götter geschaffen. In die reale Welt von „heute“ wurden irreale
Objekte eingeführt, so daß der Mensch erst die Orientierung und dann
die Realität verlor. Dunkle Energie und Neutrinos sind Artverwandte
bzw. Nachfahren der Götter und Dämonen. Die Theoretischen Physiker des
SM sind in einem schlechten Sinne „archaisch“, beratungsresistent
und „wirken“ nach dem Motto: Wir lesen nicht, wir schreiben
selber…, oder wie es Georg Wilhelm Friedrich Hegel formulierte, „um
so schlimmer für die Tatsachen“, wenn sie nicht meiner
Philosophie bzw. Theorie entsprechen. Naiv könnte man glauben, daß zumindest in den „exakten“ Naturwissenschaften widerlegbare Theorien im Namen des wissenschaftlichen Fortschritts ausrangiert werden. Leider ist das Gegenteil der Fall. Das Totschweigen der Gegenargumente war schon immer die effizienteste Verteidigung des Falschen. Wobei es höchst erstaunlich ist, wie unterwürfig, servil und hörig sich „Fachmagazine“ dem Establishment gegenüber verhalten. Das elementare Problem der Theoretischen Physik besteht darin, daß eine verifizierbar falsche Theorie als Denkdogma die Grundlagenphysik beherrscht. Das Dilemma der selbst-prophetischen, willküraffinen Quantenmechanik und deren Erweiterungen läßt sich nur lösen, wenn man sich gesamtheitlich von ihnen trennt. Paradigmenwechsel sind sowohl erkenntnistheoretisch als auch für den wissenschaftlichen Fortschritt essentiell. Und doch wird der hier angestrebte Denkmodell-Wechsel zum ersten Mal in der Geschichte der Physik zurück in die Vergangenheit führen. Modern könnte man sagen, Newton und Boltzmann erleben eine Renaissance. Ihre Ideen und Ergebnisse werden benötigt, um die seit 100 Jahren überfällige Phänomenologie verständlich zu machen, die seit Einführung des methodischen Indeterminismus als überflüssig und störend empfunden wird. Jeder der sich intensiver mit dem Konstrukt der „modernen“ Standardphysik beschäftigt, ahnt schnell, daß neben der geforderten inhärenten Wahrscheinlichkeit auch große Portionen Willkür und Glaube von Nöten sind. Kaum jemand traut sich jedoch, die herrschende Theoretische Grundlagenforschung zu kritisieren. Auch „eingeweihte“ Physiker und Mathematiker tun dies nicht. Die einen, weil sie glauben, sie hätten nicht die nötige Kompetenz, die anderen aus Kalkül. Die Probleme als solche sind leicht identifiziert. Theoretische Grundlagenphysiker verlangen, ohne es explizit aussprechen zu müssen, daß nur Wissenschaftler mit der nötigen mathematischen Ausbildung etwas zum Formalismus sagen dürfen. Der Weg über den Formalismus führt unweigerlich zur Akzeptanz dessen, was man eigentlich kritisieren möchte. Die Prinzipien der Quantenmechanik sind heute so selbstverständlich, wie damals der Glaube an ein geozentrisches Weltbild. Keiner kann sich auf Grund der weltweiten, jahrzehntelangen Beschäftigung der Theoretischen Physik mit Quantenfeldtheorien vorstellen, daß diese (noch) irgendwie fundamental falsch sein könnten. Der große Unterschied ist der, daß sowohl die damaligen Vertreter prinzipiell wussten und aktuell die heutigen Vertreter der modernen Physik auf Grund von zusammengetragenem Wissen und „abseits“ existierenden Theorien wissen (müssten), daß die Basis der Quantenmechanik grundlegend falsch ist. Nun nimmt die
Physik für sich zu allem Übel auch noch in Anspruch glaubensbefreit zu
sein. Jeder der sich mit der Geschichte der Physik beschäftigt weiß,
daß das noch nie stimmte. Denken sie wirklich, daß die jetzigen
Herrscher der Theoretischen Physik zugeben werden, daß die Denkmodelle
die ihre Egos streicheln, ihre wirtschaftliche Existenzen begründen und
dauerhaft sichern falsch sind? Können sie sich die kleinen und großen
Katastrophen und Peinlichkeiten vorstellen, die damit verknüpft sind?
100 Jahre nachweisbar „falsche“ Physik sind
der SuperGAU. Auf der anderen Seite können wir keine Rücksicht
nehmen. Die im Rahmen der hier vorgestellten Elementarkörpertheorie
vorgestellte Minimalistik und spielerische Voraussagekraft haben das nötige
Potential um die Erde erneut rund zu machen. |
Der
mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend
von nulldimensionalen, masselosen Objekten liefert
offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität
in der Masse und Ausdehnung Fundamentaleigenschaften darstellen.
Die
euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im
Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch
die ursprüngliche Formulierung "verletzt"1,
zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen
Masse gibt, gar nicht, da exemplarisch Quarks basierendes Proton und
Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen
erhalten und drittens die vermeintlichen massegebenden Terme gar keine
Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer
physikalischen Gleichung sondern müssen als freie Parameter bekannt
sein. Das bedeutet schlicht und ergreifend, auch das
„higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder
Masse(n) erklären und schon gar nicht berechnen. Die einzig der
herrschenden Physik bekannte direkte Massen-Wechselwirkung, die
Gravitation, kann das Standardmodell überhaupt nicht abbilden. Des
Weiteren: Um die Fermionenmassen durch Kopplung der Fermionen an das
Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die
Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das
Neutrino muß masselos bleiben. Diese Grundbedingung steht in einem
eklatanten Widerspruch zu Neutrinooszillationen (Nobelpreis 2015), die
zwingend Neutrinomassen voraussetzen. 1 Diese Aussage bezieht sich nicht auf die rein mathematische Konzeption, sondern ist erkenntnistheoretisch zu verstehen. Warum sollte man "mit Stolz" einen invaliden Formalismus einführen, der letztendlich massebehaftet nachkorrigiert werden muß. Es drängt sich die Frage nach der primär richtigen Wahl auf. Ohne Übertreibung kann man wohl „sagen“: Das widersprüchliche, „axiomatisch bedenkliche“, stark inkonsistente SM kann praktisch nichts Reales erklären und schon gar nicht berechnen. Derzeit 25 freie Parameter, variable Kopplungskonstanten und willküraffine Substrukturierungen liefern über postulierte Verknüpfungszahlen (Quantenzahlen) eine „Katalogisierung“ theoriefreundlich selektierter Energiepeaks, respektive (ultra-)kurzlebiger Massehäufchen, welche fast immer nur indirekt detektiert werden können. Die gesamte Theorie reduziert sich fast ausschließlich auf die Interpretation nicht zu beobachtender, postulierter Teilchenbeschleunigerereignisse. Bei der Proton-Proton-Wechselwirkung kann auf Grund der Ladungserhaltung offensichtlich kein neutrales Higgs-Boson alleinig entstehen. Wobei diese denkmodellübergreifende Aussage im Standardmodell an Relevanz verliert, da das experimentelle Higgs-Boson am LHC über postulierte Theorieobjekte generiert wird (beispielsweise über die indirekte Fusion von Gluonen). Des Weiteren bedarf es (nach Angaben der "Standardmodell-Verkünder") experimentell mindestens 10 Milliarden Kollisionsereignisse um ein Higgs-Boson zu erhalten. Dieses wird aber keineswegs detektiert. Der vermeintliche "Nachweis" geschieht indirekt über die von der "Theorie" postulierten Zerfallskanäle. Standardmodell-Sicht:
Am LHC kann das Higgs-Boson auf verschiedene Arten produziert werden.
Die Fusion zweier Gluonen ist dabei der dominierende Prozess, wobei die
Produktion des Higgs-Bosons aufgrund der Masselosigkeit der Gluonen nur
über eine Schleife aus massebehafteten Teilchen stattfindet.
Das Standardmodell trifft keine Aussage über die Masse des Higgs-Bosons. Die Argumentation zum „Nachweis“ des Higgs-Bosons ist jedoch relativ simpel. Gibt man die Masse dieses Teilchens (125 GeV/c²) vor, so sagt die Theorie vorher, mit welcher Häufigkeit es in Teilchenkollisionen erzeugt und in welche bekannten Teilchen es zerfallen wird: Ein 125 GeV/c²-Teilchen zerfällt gemäß SM zu 57% in bottom/antibottom-Quarks, 21% in W±, 9% in zwei Gluonen, 6% in Tau/Anti-Tau, 3% Charm/Anticharm, 3% in 2 Z-Bosonen, 0,2% in zwei Photonen, 0,2% in Z-Boson und Photon, 0,6% in "Anderes". Aber: Die angeblichen Beobachtungen mit grosser Higgs-Boson-Existenz-Signifikanz beziehen sich nicht auf die häufigsten Zerfallskanäle - allen voran H→bb̅ mit 57% -. Wie nicht anders zu erwarten, sind die Standardmodell-Macher um keine Ausrede verlegen bzw. arrangierten Theorie und experimentellen Aufbau in der Gestalt, daß Messungen möglichst diffus bleiben. Soll heißen: Der (theorieinduzierte) 57%-Zerfalls-Kanal führt zur Ausbildung von zwei (Teilchen-)Jets. Diese Signatur ist wesentlich schwieriger von der SM-postuliert viel häufiger auftretenden Produktion von gewöhnlichen (nicht vom Zerfall des Higgs-Bosons stammenden) Jets aus Prozessen der starken Wechselwirkung zu unterscheiden. Diese Situation wäre jedoch vermeidbar, wenn man statt eines Hadronenbeschleunigers einen e+-e--Linearbeschleuniger gewählt hätte, der einen im Verhältnis zum LHC viel geringeren "Hintergrund" erzeugt. Das Mißverständnis der SM-Denker kommt aus der fehlenden, respektive falschen Annahme, wie sich Materie bildet. Nach dem Motto viel nützt viel glauben diese, man müsse TeV in "Etwas" stecken, wobei die Teilchen nur im GeV-Bereich erwartet werden. Aber es existiert noch ein ganz anderes Problem. Wie gezeigt wird, führt die q0-Elektron-q0-Positron-Wechselwirkung im primären Maximum zu einer Energie von ~ 140 MeV, die - im Bilde des SM - nur ungeladene Pionen bildet. Erst die möglichen Konstellationen der ladungsabhängigen Materiebildung des sekundären und tertiären Maximums der e+-e--Wechselwirkung schaffen die gewünschten 125 GeV. Die Wahrscheinlichkeit daß dies geschieht, wird aber mit jeder weiteren Wechselwirkungsstufe deutlich kleiner. Ein Grund warum der LEP (Large Electron-Positron Collider, deutsche Bezeichnung Großer Elektron-Positron-Speicherring) war ein - bis zum Jahre 2000 - Teilchenbeschleuniger am Europäischen Kernforschungszentrum CERN) trotz der erreichten 209 GeV Bildungsenergie keine Teilchen mit 125 GeV "produzierte". Später mehr dazu. Somit reduziert sich der Stand der Dinge auf folgende Situation. ATLAS und CMS haben im Verhältnis 1 Ereignis zu 10 Milliarden Nichtereignissen Zerfälle eines "neuen Bosons" im "Energiefenster um 125 GeV" in zwei
Z-Bosonen (führt zu zwei Paaren von elektrisch geladenen Leptonen) zwei
Photonen zwei
W-Bosonen (führt zu zwei elektrisch geladenen Leptonen und zwei
Neutrinos) Zerfall
in zwei Tau-Leptonen ["Herzlichen Glückwunsch" zur Macht der SM-Protagonisten das beliebige (relative) Nichts in die Welt der Physik eingeführt zu haben.]
|
Aktualisierung - Ergänzungen - Nachträge 27.03.2021
"Die Videoplattform Vimeo hat am 25. März 2021 ohne Vorwarnung den neuen Dokumentarfilm von OVALmedia „CORONA.FILM – Prologue“ gelöscht. Der Film, der von führenden Epidemiologen als eine der besten filmischen Aufarbeitungen der aktuellen Coronakrise eingestuft wird, ist damit auch für viele zahlende Kunden nicht länger abrufbar. Es bleibt eine offene Frage, warum der Film gelöscht wurde. Fest steht, dass mit ihm mehr als 100 Videos von OVALmedia ebenfalls vom Netz genommen worden sind. Der gesamte Vimeo-Kanal, den OVALmedia seit 10 Jahren betreibt, wurde ohne Vorwarnung abgeschaltet. OVALmedia hat angesichts dieses beispiellosen Angriffs auf die Existenz ihres Unternehmens entschlossen zu handeln. Heute wird der Film »CORONA.FILM – Prologue« auf verschiedenen freien Plattformen zur Verfügung gestellt. Anstatt mittels einer Bezahlschranke einen kleinen Beitrag zu verlangen, bittet OVALmedia die Zuschauer nun direkt um eine freiwillige finanzielle Unterstützung. |
![]() |
|
Die Bemerkung Albert Einsteins zu Werner Heisenberg: "Die Theorie bestimmt, was beobachtbar ist." "entfaltet" sich in der herrschenden Physik auf eine besonders traurige Art und Weise, sofern man Anhänger minimalistischer, symmetrischer, plausibler Denkmodelle ist. Die postulierte aber nicht verstandene Baryonenasymmetrie ist ein tragischer Ausgangspunkt. Aus dieser ungesicherten Annahme entstanden und entstehen Kaskaden von hoch spekulativen ("wechselwirkenden"), meist virtuellen Teilchen und Thesen. Der mathematische Formalismus selbst wird zum physikalischen Phänomen.
Wenn
Unanschaulichkeit zum Prinzip wird Unliebsame mathematische Lösungen der von der Standardphysik gewählten Mathematik, wie negative Energien oder nicht gewünschte Polstellen werden der Zeit geopfert oder als Koordinaten-Artefakte „identifiziert“. Aus negativer Energie wird negative Zeit und positive Energie konstruiert und Polstellen werden mittels „geeigneterer“ Koordinatentransformationen „eliminiert“. Zu mehr reicht es nicht. Erkenntnisse wie, daß es auch negative Energien (Elementarkörpertheorie) geben kann und nicht interpretierbare Polstellen möglicherweise schlicht den falschen Weg als solchen charakterisieren sind unerwünscht. Traurig im Sinne von Fortschritt ist die Tatsache, daß zumindest die eingeweihten und „fitten“ Theoretischen Physiker ihre Probleme und Widersprüche sehr genau kennen. Die Gemeinde der theoretischen Physiker ist sich keinem noch so offensichtlichen Widerspruch zu Schade. Ein Postulat der herrschenden Theoretischen Physik, gemäß quantenfeldtheoretischer Symmetrieforderung, ist die Annahme von Antiteilchen. Diese unterscheiden sich von ihren „Teilchen-Partnern“ in ihren additiven Quantenzahlen wie elektrische Ladung, Baryonenzahl, Leptonenzahl. Hingegen sind im Weltbild dieser herrschenden Physik „insbesondere“ Spin, Masse und Lebensdauer identisch. Es sei denn...
Jeder wie er kann und will, wenn er den einen »Namen« hat Antiteilchen Mit
dem Ziel, eine in sich konsistente relativistische Wellenmechanik zu
konstruieren, stellte Dirac nach dem Vorbild der nichtrelativistischen
Schrödinger-Gleichung eine relativistische Wellengleichung auf, die die
Zeitableitung nur in erster Ordnung enthält. Aus Gründen der
Lorentz-Symmetrie mussten auch die Ortsableitungen in erster Ordnung in
die Gleichung eingehen. Es zeigte sich, daß dies nur mit einem vierkomponentigen
Dirac-Spinorfeld mit der Hilfe von vier Dirac-Matrizen möglich
war. Die Dirac-Gleichung beschreibt mit ihren 4 Komponenten Teilchen entgegengesetzter Ladung (aber gleicher Masse!) in einer gemeinsamen Gleichung. Die Vertauschung der oberen und unteren Komponenten bedeutet physikalisch den Übergang zum ‘Gegenteil’: ¨ umgekehrte Ladung, umgekehrter Impuls, negative Energie, alles in allem einfach das ‘Fehlen’ eines Teilchens, ein Antiteilchen. Dem so genannten »Dirac-See« folgte die Feynman-Stückelberg-Interpretation für "unerklärliche" negative Energiewerte der Dirac-Gleichung. Im Bild der Quantenmechanik "löste" man dieses Problem vermeintlich mit Hilfe der Heisenbergschen Unschärferelation, indem man die entsprechenden Lösungen willkürlich als Entitäten mit positiver Energie interpretiert, die sich rückwärts in der Zeit bewegen. Das negative Vorzeichen der Energie wird auf die Zeit übertragen (Feynman-Stückelberg-Interpretation). Dirac verstand unter dem Dirac-See das Vakuum als einen unendlichen "See" von Teilchen mit negativer Energie, ohne weitere freie Plätze für negative Energien (?!?). Man muß(te) wahrscheinlich Dirac, Feynman oder Stückelberg heißen, um sich solch naiven "Zauber" leisten zu können. Der Wille fehlende Anschauung durch formale Hilfskonstruktionen bzw. wilde Fantasien zu ersetzen ist überdeutlich. Mathematisch ist das kein Problem, erkenntnistheoretisch schon. Der offensichtliche Selbstbetrug der herrschenden Physik besteht nun darin, daß eine Umkehrung der Ladung aus einem Elektron kein Antiteilchen gemäß Einstein-, Dirac- oder Klein-Gordon-Gleichung mit negativer Energie macht. Die „Antiteilchen“ der herrschenden Physik, wie Positronen und Anti-Protonen sind somit keine Antiteilchen. Schon dieses einfache Beispiel zeigt sowohl die sprachliche als auch inhaltliche „Definitions-Unbestimmtheit“, sprich „Verwirrung“, sprich Sinnleere innerhalb der herrschenden Physik auf. Hawking-Strahlung So genannte Hawking-Strahlung (1975 postuliert) soll von einem Schwarzen Loch abgestrahlt werden, indem („eigentlich“ virtuelle) Teilchen-Anti-Teilchen-Paare am Ereignishorizont entstehen, von denen die Teilchen dem Schwarzen Loch entkommen und die Anti-Teilchen mit negativer Energie(!), was unweigerlich einer negativen Masse entsprechen würde, in das Schwarze Loch fallen und die dort vorhandene (positive) Energie (Masse) mit der Zeit neutralisieren und somit sich das Schwarze Loch allmählich auflöst. Ohne hier näher auf den Mechanismus der Hawking-Strahlung einzugehen haben wir also im Ergebnis plötzlich Antiteilchen mit negativer Energie, die diese zuvor auf keinen Fall haben sollten. Warum ist das so? Die Antwort beinhaltet keine mathematisch sinnvolle und schon gar nicht eine physikalische Erklärung, da ohne weitere Betrachtung übergeordnet die eigene fundamentale Regel der Anti-Teilchen-These verletzt wurde. Es geht um Macht und Gleichgültigkeit im Land der »Mathematik-Gläubigen«. Es geht um «Menschliches». Die eine Krähe pickt der anderen kein Auge aus, wie man so schön unter Lobbyisten sagt. Da Hawking ein berühmter theoretischer Physiker ist und es keiner wirklich ernst nimmt, mit dem was „mal“ gesagt wurde oder „ansonsten“ gelten soll, wird hier eine Ausnahme von der eigenen Regel gemacht. Das liest sich nicht nur merkwürdig, daß ist auch merkwürdig. Konsequenter Weise bedeutet hier merkwürdig falsch. Die Grundidee der Hawking-Strahlung ist übrigens Elementarkörpertheorie freundlich. Da das duale Minus-Plus-Konzept der Elementarkörpertheorie die von Hawking „geforderten“ „wirklichen“ Teilchen-Antiteilchen allgemeingültig voraussetzt. Nur mit dem „kleinen Unterschied“ das jedes Anti-Teilchen in „unserer“ Welt auch ein (Anti-)Teilchen in der MinusWelt „besitzt“ und somit nicht wie in der herrschenden Physik den Energieerhaltungssatz verletzt.
Widersprüche werden zur Absurdität wenn wir uns den Neutrinos „nähern“. Neutrinos sollen trotz ihrer von Null verschiedenen Massen mit Lichtgeschwindigkeit „fliegen“. Die Euphorie war im September 2011 groß, als Meßfehler dazu führten, daß sich Neutrinos angeblich „sogar“ mit Überlichtgeschwindigkeit „bewegten“. Die nicht oder nur ungerne kommunizierte Wahrheit ist: Die ansonsten „beschworene, heilige“ Relativitätstheorie wurde und wird von den Theoretischen Physikern des Standardmodells seit eh und je methodisch ignoriert. Daß wird zumindest menschlich verständlicher, wenn man sich vor Augen führt, daß das Standardmodell Gravitation mathematisch nicht „integrieren“ kann. Physik ist leider keine Ausnahme. So wie in allen anderen Lebensbereichen wird früher oder später jegliche Forderung nach Neutralität und Disziplin der Eitelkeit der Macher geopfert. Man könnte hier auch „speziell“ sagen, daß die Protagonisten des Standardmodells die eigentlichen Kritiker der Relativitätstheorie sind, die insbesondere ihr »Theorie-Ereignis« namens Neutrino zum finalen Schlag gegen die Relativitätstheorie seit Jahrzehnten „aufrüsten“. Die Chancen sind perspektivisch gar nicht so schlecht, wenn man sich verdeutlicht wie „unwissenschaftlich“ und beliebig Neutrinos gemäß Standardmodell "geartet" sind, siehe das Kapitel Neutrinos.
Nun, es geht auch anders...
|
|
![]() ...«Man(n)» "sieht" «wenig», behauptet aber «vieles» zu "wissen". Nachfolgendes Experiment verdeutlicht stark vereinfacht den "weltlich reduzierten Blick"... |