Gedanken zur 

Die Bezeichnung Photonen wurde zum ersten Mal im Jahre 1926 (21 Jahre nach Einsteins Arbeit zum Photoelektrischen Effekt) von dem amerikanischen Physikochemiker Gilbert Lewis in einer Arbeit mit dem Titel „The Conservation of Photons“ vorgeschlagen. Er spekulierte, ob Licht aus einer neuen Atomsorte bestehe, die er Photonen nannte, die weder erzeugt noch vernichtet werden könnten, also einem Erhaltungssatz gehorchen [A. Pais  „’Raffiniert ist der Herrgott’… Albert Einstein  Eine wissenschaftliche Biographie“, Vieweg 1986, S. 413].

 

Widersprüchliche, inkonsistente Betrachtungsversuche der Natur der Strahlung im Rahmen der herrschenden Physik 

Nicht weiter phänomenologisch bestimmtes Objekt der Geometrischen Optik, statisches Ensemble beispielsweise im Sinne der mathematischen Beschreibung der Interferenzfähigkeit oder (doch auch) Einzelobjekt, (randbegrenzte) Elektromagnetische Welle, formal postulierte »mathematische Mischung« der Elektroschwachen Theorie, Photon real und/oder virtuell...

 

 

"abstract"

Die grundsätzliche, phänomenologisch begründete Elementarkörper basierende Denkmodell-Forderung besteht darin, daß möglichst minimalistische Gleichungen sowohl das masselose Photon als auch massebehaftete Materie abbilden. Die Entstehungsgleichungen r(t) = r0 ·sin(c ·t/r0) und m(t) = m0 ·sin(c ·t/r0) leisten genau das. Die zeitlose Lichtgeschwindigkeit - als Zustand reiner Bewegung -  steht nicht im Widerspruch mit der Materie-Energie-Verkörperung.

Für t = 0 handelt es sich um reine Bewegungsenergie (Photon). Für t = (π ·r0) / (2 ·c) ist die Umwandlung in masse-radius-gekoppelte Energie abgeschlossen, wir erhalten ein Realobjekt mit den charakteristischen Grössen r0 und m0. In diesem Zusammenhang ist die Invarianz der [Vakuum-]Lichtgeschwindigkeit auf eine phänomenologisch begründete Zustandsänderung zurückzuführen und nicht auf Mathematik in Form von Bezugssystemen und deren Verknüpfungen. Energie-äquivalent wird die Gesamtenergie des masse-radius-gekoppelten Realobjektes durch die Comptonwellenlänge ½π ·r0 definiert. Somit ergibt sich auch die Comptonwellenlänge "objekt-natürlich" als Ergebnis der Zustandsänderung. Detaillierte Ausführungen zur Herkunft und Dynamik des Elementarkörpers finden sich im gleichnamigen Kapitel: Elementarkörper. Auch wenn „Antiteilchen“ selten explizit benannt werden, gelten alle energetischen Beziehungen auch für diese.

Das fundamentale Mißverständnis ("außerhalb" der Elementarkörpertheorie) besteht darin, daß die Eigenschaften eines wechselwirkenden Photons auf den »Ruhezustand« des Photons projiziert werden. Der »Ruhezustand« des Photons ist jedoch der raum- und masselose, „lichtschnelle“ (Energie-)Zustand maximaler Bewegung. Das bedeutet: Das sich gerichtet eine Information ausbreitet, die sich erst bei Absorption des Photons „entfaltet“ (Ausschwingung) und dann die zeitabhängigen messtypischen Phänomene der Interferenz und des (massebehafteten) Stoßes zeigt.

 

Vorbetrachtungen zur Natur der Strahlung

(Sehr Neugierige können diese auf Wunsch überspringen und hier direkt zur Elementarkörper-Lösung des Photons "vordringen")

 

Wünsche, Beliebigkeiten und Wirklichkeit

Das größte Problem der Objekt-Bewertung besteht in der schlichten Feststellung, daß es keine bzw. je nach Versuchsbedingung inhaltlich stark reduzierte, inkonsistente "Wünsch Dir Was" Beschreibungen zur Anatomie der Strahlung gibt. Die - im Sinne der Phänomenologie -  Kapitulation des Denkens gipfelt im anerkannten "bald" 100-jährigen Welle-Teilchen-Dualismus. Die Quantenelektrodynamik (QED) beseitigt keineswegs die Welle-Teilchen-Dualismus-Problematik, wie so gerne von der herrschenden Physik propagiert wird. Das mathematische Konzept der QED blendet schlicht den Anspruch auf Anschaulichkeit aus. Die Suggestion, das ein mathematisches Gebilde Plausibilität überflüssig macht, wirkt. Die komplexen Rechenvorschriften der QED liefern zwar Ergebnisse, aber bringen erkenntnistheoretisch wenig.

 

Randnotizen: Die innerhalb der Quantenmechanik (QM) und daraus folgend innerhalb der Quantenfeldtheorien (QFTs) verwendete, teils neu definierte Mathematik (Stichworte: Störungstheorie, Regularisierung, Renormierung), ist phänomenologisch unbegründet. Sie ist zwar formal(-axiomatisch) deutlich komplexer und schwieriger verständlich als die bloße Erkenntnis, daß Energie-Niveaus in Abhängigkeit der Hauptquantenzahl n mit 1/((n²-(n+1)²) "quantisiert" sind, Balmer, Lyman, Paschen und Co lassen grüssen, kommt aber über den Status einer Rechenvorschrift nicht hinaus. Zudem gibt es im Rahmen der Störungstheorie keine formal-analytischen Lösungen. Wenn also Quantenelektrodynamik (QED) basierend von einer hervorragenden Übereinstimmung von Theorie und Experiment berichtet wird, dann handelt es sich um gigantische Lösungssysteme, deren iterative Ergebnisse den Versuchs-Ergebnissen angepasst wurden. Die einen sagen es nicht, die anderen durchschauen es nicht.

Die Divergenzproblematiken, sowohl klassischer als auch quantenfeldtheoretischer Betrachtungen, finden ihre theoriebeladene Ursache in den jeweiligen Denkmodellen. Dort wird die innere Struktur der Energieträger (Gravitation, (elektrische) Ladung) schlicht nicht erfasst. Berücksichtigt man jedoch die endliche, realphysikalisch orientierte, phänomenologische Natur der Objekte, lösen sich die "Unendlichkeiten" plausibel auf.  Impulsmasse-Inversion

 

 

Weder die Maxwell-Gleichungen noch irgendwelche mathematischen Neu-Konstrukte der zeitgenössischen Quantenelektrodynamik offerieren konsistente Denkmodell-Phänomenologien zur Natur der Strahlung. Zur Verdeutlichung soll hier denkmodell-exemplarisch die Definition des Photons im Rahmen der Elektroschwachen Theorie skizziert werden.

In der elektroschwachen Theorie werden, wie bei allen quantenfeldtheoretischen Eichtheorien, die Wechselwirkungen durch Eichbosonen vermittelt. In der elektroschwachen Theorie treten zunächst vier masselose Eichbosonen auf, die auftretenden Eichbosonen werden als "Mischungen" definiert. Grundidee ist eine formale Vereinigung von elektromagnetischer und schwacher Wechselwirkung. Wobei W1, W2 und W3 keinerlei "messtechnische Realität" besitzen. Das Z0-Boson ist nicht wie die W-Bosonen maximal paritätsverletzend, da es einen Anteil des W3-Bosons enthält. Man sagt, die Zustände des Photons γ0 und des Z0-Bosons sind um den so genannten Weinbergwinkel gedreht. Das Photon soll sich in der elektroschwachen Theorie wie in der QED verhalten. [Diese Annahme/Forderung ist phänomenologisch haltlos, da das "Photon der QED" nicht dem Mischzustand der elektroschwachen Theorie entspricht.]

Mischungen der elektroschwachen Theorie

 

Auffällig ist die Diskrepanz zwischen gemessenem Weinberg-Winkel [CODATA-Wert 2014] und der formalen Wertbestimmung [Wθc] [Wθ]. Insgesamt variiert der Weinberg-Winkel in Abhängigkeit der experimentellen "Energiefenster".

Hier stellt sich in einer konstruktiven erkenntnistheoretischen Auseinandersetzung die Frage, inwieweit das erweiterte Konzept der „Austauschteilchen“, respektive der Eichbosonen eine realphysikalische Gültigkeit besitzt. Denn das zeitstabile reale Photon ist als Entität grundlegend verschieden von den massebehafteten Vektorbosonen und dem Higgs-Boson, sowie von den selbstwechselwirkenden, masselosen Gluonen. Das Photon zum Austauschteilchen bzw. Vektorboson zu erklären, ist, außerhalb der elektroschwachen Theorie, QED bzw. des SM stark diskussionswürdig. Auch ohne Kenntnis der Elementarkörpertheorie stellt sich insgesamt die epistemologische Frage nach der Realität der innerhalb des SM theorienotwendigen Vektorbosonen und des theorienotwendigen Higgs-Bosons. Wobei hier rational-logisch zu bemerken ist, daß 99% der Masse des Protons sowie des Neutrons energetisch als Bindungsenergie definiert werden. Der Higgs-Mechanismus ist also selbst im Rahmen des SM voraussageunspezifisch und massegebend ineffizient. Hier gilt auch zu bemerken, daß ausnahmslos alle experimentellen Nachweise indirekte, stark theoriebeladene Nachweise sind. Auf die Vektorbosonen verwandten Problematiken der postulierten asymmetrisch, ladungsfragmentierten Quarks-Gluonen-Existenz, deren postulierte Wechselwirkungen, auf den fehlenden Spin der Quarks und Gluonen, Confinement-These, Neutrinothese, Delta-Baryonen und auf das Hilfs-Theorie-Konzept virtueller Teilchen kommen wir noch ausführlicher zu „sprechen“. Siehe Kapitel: Standardmodell und Neutrinos.  

 

Randnotizen

Higgs-Boson-Kreationen und andere Kleinigkeiten

Der mathematische Ansatz des Standardmodells der Teilchenphysik, ausgehend von nulldimensionalen, masselosen Objekten liefert offensichtlich keine Anbindung an die wahrnehmbare physikalische Realität in der Masse und Ausdehnung Fundamentaleigenschaften darstellen. Die euphemistische Nachkorrektur mittels Higgs-Mechanismus verleiht zwar im Denkmodell des SM Teilchen theoretisch Masse, nur wird erstens dadurch die Axiomatik des Formalismus verletzt, sprich Verlust der ursprünglich notwendigen Eichinvarianz, zweitens stimmt die Aussage, das der Higgs-Formalismus den Teilchen Masse gibt, gar nicht, da exemplarisch Quarks basierendes Proton und Neutron über das Higgs-Feld nur ungefähr 1% ihrer jeweiligen Massen erhalten und drittens die vermeintlichen massegebenden Terme gar keine Massenberechnung beinhalten. Die Massenwerte folgen hier nicht aus einer physikalischen Gleichung sondern müssen als freie Parameter bekannt sein. Das bedeutet schlicht und ergreifend, auch das „higgs-korrigierte“ Standardmodell der Teilchenphysik kann weder Masse(n) erklären und schon gar nicht berechnen. Die einzig der herrschenden Physik bekannte direkte Massen-Wechselwirkung, die Gravitation, kann das Standardmodell überhaupt nicht abbilden. Des Weiteren: Um die Fermionenmassen durch Kopplung der Fermionen an das Higgs-Feld zu erzeugen, müssen folgende Bedingungen erfüllt sein: Die Massen der rechts- und linkshändigen Fermionen müssen gleich sein. Das Neutrino muß masselos bleiben. Diese Grundbedingung steht in einem eklatanten Widerspruch zu Neutrinooszillationen (Nobelpreis 2015), die zwingend Neutrinomassen voraussetzen.

Was es mit Vektorbosonen, dem skalaren Higgs-Boson und "Artverwandten" auf sich hat, wird im (neuen) Kapitel Higgs-Boson-Kreationen und andere Kleinigkeiten diskutiert.

 

 

Ohne an dieser Stelle weiter auf die Fülle an Widersprüchen der herrschenden Physik zur "Natur der  Strahlung" einzugehen folgt eine konsistente Denkmodell-Lösung.

                    

 

Die minimalistische Elementarkörpergleichung r(t) :

    [P2.3] 

erfüllt offensichtlich die Grundvoraussetzung für Superpositionen, wie diese in der Quantenmechanik (QM) und allgemein in Quantenfeldtheorien (QFT) über Wellenfunktionen üblich sind. Der wesentliche Unterschied besteht in der Tatsache, daß die Elementarkörpergleichung r(t) einen deterministischen Real-Objekt bezogenen Charakter besitzt, während hingegen die indeterministische "quantenmechanische Wahrscheinlichkeits-Wellenfunktion" ψ u.a. "objektbefreit" ist.

Ein einziges, „einsames“, stoßfähiges Teilchen ist "undifferenziert" weder eine Welle, noch erzeugt es eine Welle. Die zentrale Frage lautet: Was muß "geschehen", daß »es« als Teilchen und Welle wahrgenommen wird?

Elementarkörpertheorie basierende Erklärung zur Anatomie der Strahlung

Eine Elementarkörpertheorie naheliegende, zwanglose Konsequenz ist, daß ein Photon ein Elementarkörper ist, dessen Schwerpunkt sich mit Lichtgeschwindigkeit bewegt. Somit verfügt auch ein einzelnes Photon, dessen radialsymmetrische Ausdehnung im Zustand der möglichen Wechselwirkung gemäß der Radiusgleichung :

   [P2.3]

"teil-oszilliert" über "Unschärfe", "Welleneigenschaften" und mit Gleichung [P2m↓] über eine (stoßfähige") Masse.

Die qualitativen Ergebnisse von Beugungsexperimenten an Spalten bestätigen diese Annahme, da die Interferenzmuster (Intensitäts-Verteilungen) für Photonen und bewegte Materie qualitativ gleich sind.

Im Bild der Elementarkörpertheorie ist das Photon sowohl phänomenologisch als auch formal leicht zu "erfassen".

 

Information als materieller Zustand = Elementarkörper          Zustand als Information = Photon

Erkenntnistheoretisch - und wenn man so will philosophisch - "steht" der Nullpunkt, die "Null", nicht für "Nichts", sondern repräsentiert den maximalen Bewegungszustand. Dieser Zustand entspricht der (zeitlosen) Lichtgeschwindigkeit.

Das grundsätzliche Mißverständnis ("außerhalb" der Elementarkörpertheorie) besteht darin, daß die Eigenschaften eines wechselwirkenden Photons auf den »Ruhezustand« des Photons projiziert werden. Der »Ruhezustand« des Photons ist jedoch gemäß Gleichung [P2.3] und deren zeitlicher Ableitung [P2.3b], sowie [P2m] der raum- und masselose, „lichtschnelle“ (Energie-)Zustand maximaler Bewegung. Das bedeutet: Das sich gerichtet eine Information ausbreitet, die sich erst bei Absorption des Photons gemäß Gleichungen [P2.3], [P2m] und deren Ableitungen „entfaltet“ und dann die zeitabhängigen messtypischen Phänomene der Interferenz und des (massebehafteten) Stoßes zeigt.

 

Die vermeintlich immerwährende Wechselwirkungs-Wellennatur des Lichtes ist eine falsche Annahme.

 

Am Rande bemerkt: In den "Niederungen der Realität" herrscht Beliebigkeit und (destruktive) Naivität

Spalte und Beugungskanten werden in der Regel phänomenologisch als "Schwarze Boxen" betrachtet. Wenn man die Natur der Wechselwirkung aber über Rechenvorschriften hinaus verstehen möchte, ist es zwingend ein Denkmodell von der atomaren Struktur des Spaltes und der Beugungskanten zu entwickeln. Das ist im Bild der modernen phänomenologiebefreiten Grundlagenphysik überaus schwierig, da ein mathematisches, Quantenfeldtheorie geprägtes System aus Quantenzahlen, mathematischen Gruppen, deren Transformationen und Symmetriebeziehungen nicht den Hauch einer Real-Objekt-Anschauung inne hat. Im Ergebnis sind alle Quantenfeldtheorie beladenen Prinzipien zur Beschreibung realitätsferne heuristische Standpunkte. Die Qualität der Mutmaßungen variiert stark mit dem Anwendungsgebiet. Des Weiteren ist die Strahlung in Versuchen ein Objekt-Ensemble. Im Versuch vermischen sich, geprägt durch theoretische Erwartungshaltungen, kunterbunt Einzelobjekt-Eigenschaften mit statistischen Verteilungseffekten des Objekt-Ensembles. Die Interpretationen und Schlussfolgerungen sind haltlos.

Eine Aussage der herrschenden Physik besagt: Natürliches Licht (natürliche Strahlung) ist unpolarisiert weil... Begründung:  Die axiale Symmetrie (Statistische Gleichverteilung) entsteht aus der unkorrelierten Gesamtheit der radial beliebig positionierten transversalen elektromagnetischen Wirbelfelder-Paare, da auch die "Strahlungserzeuger" der elektromagnetischen Strahlung ohne bevorzugte Richtung abstrahlen.

Kommentar: Der statistische Aspekt ist ein durchaus nachvollziehbares Resultat eines Vielteilchensystems. Die der Statistik zugrunde liegende Idee zur Natur des Einzelereignisses ist jedoch falsch.

Konkreter Einwand: Mittels zweidimensionaler Lehrbuch-Abbildungen wird das zeitabhängige elektromagnetische Feld in senkrecht aufeinander stehende zeitabhängige, entkoppelte elektrische und magnetische "Flächenfelder" im wahrsten Sinne des Wortes "verbreitet". Die suggestive Wirkung ist immens. Nur wie soll das in der Realität funktionieren? "Reale" elektrische und magnetische Felder besitzen grundsätzlich eine räumliche Ausdehnung. Die wundersame zeitliche Flächenfeld-Entwicklung ohne erkennbare (Rückstell-)Kräfte ist eine Sache, das flächenartig angenommene Feld eine andere.  

Schon die Reduktion auf eine geschlossene elektrische Feldlinie und eine geschlossene magnetische Feldlinie ist irreführend, erst recht die Annahme eines scharf begrenzten zeitabhängigen "Flächenfeldes". Unter anderem die daraus resultierende naiv-bildliche Erklärung der Polarisation unterstützt zwar diesen Irrglauben, ändert aber nichts an der fundamentalen Problematik.

Beugungsexperimente bestätigen nicht die Wellennatur des Lichtes sondern lediglich die Periodizität des Lichtes. Bereits Ernst Mach [EM3] zeigte, daß alle Beugungs- und Interferenzexperimente nicht die Welle, sondern nur die Periodizität des Lichtes beweisen.

[EM3]Ernst Mach, Die Prinzipien der physikalischen Optik. Barth, Leipzig 1921; The Principles of Physical Optics. New York 1926.  

 

Die zeitlich begrenzte Interaktion des Photons reduziert sich auf die «sinusförmige Ausschwingung» des Photons. Es wird bei dieser materiebildenden Reaktion phänomenologisch raum- und masselose, „reine“ Bewegungsenergie in einen masse-gekoppelten Raum gemäß Gleichungen [P2.3] und [P2m] umgewandelt. Hier werden plausible Zusammenhänge zwischen Information (Entropie), Energie, Masse und Raum „sichtbar“. Daraus folgt, daß Information eine Energieform ist. E = m0c² steckt also nicht nur im masse-gekoppelten Raum sondern auch in der Information über diesen Zustand in Form eines Photons. Diese Information bewegt sich mit Lichtgeschwindigkeit.

Die Transformation von einem Photon zu einem masse-radius-gekoppelten Raum entspricht phänomenologisch nicht einer Teilschwingung, wie anfänglich (auch) im Rahmen des Elementarkörperdenkmodells angenommen wurde. Das ist unter thermodynamischen Gesichtspunkten eine wichtige Erkenntnis, respektive die Thermodynamik gibt diese notwendige Randbedingung vor. Die materiebildende Transformation von einem Photon entspricht einer irreversiblen Zustandsänderung. Zeitumkehr, wie sie „mechanistisch“ von der klassischen Physik bis hin zur Quantenmechanik gefordert wird, steht ganz allgemein im Widerspruch zur Meß-Realität thermodynamischer Prozesse (u.a. die physikalische Chemie lässt hier grüssen). Der voll ausgebildete Elementarkörper (r(t) = r0 , m(t) = m0) kann aus sich heraus nicht wieder den Zustand des Photons erreichen. Die Wechselwirkungs-Irreversibilität, die möglich ist, muß über eine Anregung von „aussen“ geschehen. Das könnte die Wechselwirkung mit weiteren Elementarkörpern, Photonen oder „verkörperten Feldern“ sein, die letztendlich bezogen auf (Feld-)Raum-Zustände energetisch stets als Elementarkörper(-Zustände) verstanden werden können.    

Wechselwirkungsbasierende sinusförmige Ausschwingung

Der durch eine Wechselwirkung ausgelöste Prozess der «sinusförmigen Ausschwingung» ist reversibel und fundamental von der im wahrsten Sinne des Wortes ursprünglichen theoretischen Zustandsänderung eines einzelnen Elementarkörper zu unterscheiden. Das heißt, daß ein massegekoppelter Raum gemäß Gleichungen [P2.3] und [P2m] und deren zeitlicher Ableitungen wieder zu einem Photon werden kann, welches als solches „abgestrahlt“ wird. Dieses Photon verbleibt im »Photonen-Ruhezustand« bis es (erneut) wechselwirkt. Einfachstes Beispiel wäre die Proton-Elektron-Wechselwirkung, die durch „Abgabe“ einer Energie-Information (Rydberg-Energie im Photonenzustand) zu einem Wasserstoff-Atom führt und bei „Ergänzung“ der Rydberg-Energie zur Lösung der Verbindung führt. Diese Wechselwirkung kann zu einem Zustand teil-reduzierter Energie-Information führen (beispielsweise Compton-Streuung), exemplarisch die „Energielücke“ der Bindung einer bestehenden Atom oder Molekül-Struktur ergänzen, so daß diese (wieder) aufgespalten wird oder eben es kommt zur Paarbildung. Die Paarbildung (und auch die Paarvernichtung) ist ein eindeutiges Indiz für die These, daß eine Elementarkörperwechselwirkung und inhärent eine (Teil-)Transformation des Zustandes stets die Anwesenheit von mindestens zwei Elementarkörpern erfordert. 

Stellt man sich die Elektromagnetische Welle (das Photon) als eine „lichtschnelle“ Schwerpunktsbewegung eines Elementarkörpers im Zustand maximaler Bewegung vor, so wird begründet, warum das elektrische und magnetische Feld im Zuge einer Wechselwirkung in energetischer Analogie zeitgleich periodisch oszillieren. Zweitens lassen sich Interferenzmuster qualitativ deuten. Maxima und Minima sind phasen- und zeitabhängig, da der Elementarkörper und somit das energetisch gleichwertige elektromagnetische Feld räumlich begrenzt (r0) wechselwirkt. Des Weiteren sind sowohl Strahlungsdruck als auch eine gravitative Wechselwirkung (nun) mit Gleichung [P2m] klar verständlich. Das nichtwechselwirkende Photon jedoch verbleibt im masse-, raum- und zeit-losen Zustand maximaler Bewegung. 

 

Philosophisches in Erinnerung an Rudolf Kiesslinger (1921-2011)

Quelle: Gravitation verknüpft mit Eigenschaften des Lichts 1993/94, 2010

Auszug aus "Dialog mit offenem Ausgang"

Jedesmal, wenn ein Lichtquant in einer fernen Galaxis emittiert wird, geht es auf eine Reise, die Milliarden Jahre dauern kann, bis das Quant absorbiert wird oder gar ein Teleskop erreicht, was sehr unwahrscheinlich ist. Das berichten seit vielen Jahren kluge Köpfe im Fernsehen oder in wunderschön bebilderten astronomischen Zeitschriften. Nur, die kleine Gerlinde hatte ihre Zweifel, denn kann das winzige Photon eine so lange Reise unbeschadet überdauern? Als sie eines Abends wieder durch das Fernrohr auf eine Galaxis starrte, konnte ein gerade ankommendes Photon die himmlische Geheimniskrämerei nicht mehr ertragen. "Was möchtest Du denn wissen?" fragte das Photon, und schnell fragte Gerlinde: "Konntest Du wirklich so lange ungestört reisen?" "Ach, Gerlinde", sagte das Photon, "ich war auf gar keiner Reise. Ich reise nie, ich komme immer direkt, so direkt wie jetzt zu Dir."

 

 

 

Bemerkenswertes und Weiterführendes

 

Albert Einstein schrieb u.a. zur Quantenmechanik...

...[1] "Die ψ-Funktion beschreibt überhaupt nicht einen Zustand, der dem einzelnen System zukommen könnte; sie bezieht sich vielmehr auf viele Systeme, eine »System-Gesamtheit« im Sinn der statistischen Mechanik. Wenn die ψ-Funktion abgesehen von besonderen Fällen, nur statistische Aussagen über meßbare Größen liefert, so liegt dies also nicht nur daran, daß der Vorgang der Messung unbekannte, nur statistisch erfassbare Elemente einführt, sondern eben daran, daß die ψ-Funktion überhaupt nicht den Zustand eines Einzelsystems beschreibt. Die Schrödinger-Gleichung bestimmt die zeitlichen Änderungen, welche die System-Gesamtheit erfährt, sei es ohne, sei es mit äußeren Einwirkungen auf das Einzelsystem.“...

...[2] "die ψ-Funktion ist als Beschreibung nicht eines Einzelsystems, sondern einer Systemgemeinschaft aufzufassen. Roh ausgesprochen lautet dies Ergebnis: Im Rahmen der statistischen Interpretation gibt es keine vollständige Beschreibung des Einzelsystems. Vorsichtig kann man so sagen: Der Versuch, die quantentheoretische Beschreibung der individuellen Systeme aufzufassen, führt zu unnatürlichen theoretischen Interpretationen, die sofort unnötig werden, wenn man die Auffassung akzeptiert, daß die Beschreibung sich auf die Systemgesamtheit und nicht auf das Einzelsystem bezieht. Es wird dann der ganze Eiertanz zur Vermeidung des ‘Physikalisch-Realen’ überflüssig. Es gibt jedoch einen einfachen physiologischen Grund dafür, warum diese naheliegende Interpretation vermieden wird. Wenn nämlich die statistische Quantentheorie das Einzelsystem (und seinen zeitlichen Ablauf) nicht vollständig zu beschreiben vorgibt, dann erscheint es unvermeidlich, anderweitig nach einer vollständigen Beschreibung des Einzelsystems zu suchen, dabei wäre von vornherein klar, daß die Elemente einer solchen Beschreibung innerhalb des Begriffsschemas der statistischen Quantentheorie nicht enthalten wären. Damit würde man zugeben, daß dieses Schema im Prinzip nicht als Basis der theoretischen Physik dienen könne. Die statistische Theorie würde - im Fall des Gelingens solcher Bemühungen - im Rahmen der zukünftigen Physik eine einigermaßen analoge Stellung einnehmen wie die statistische Mechanik im Rahmen der klassischen Mechanik. Ich bin fest davon überzeugt, daß von solcher Art die Entwicklung der theoretischen Physik sein wird: aber der Weg wird langwierig und beschwerlich sein."...

[1] A. Einstein, Qut of my later years. Phil Lib. New York 1950  Seite 97 und 98       [2] A. Einstein, Qut of my later years. Phil Lib. New York 1950  Seite 498

 

Das Manifest zum Sündenfall in der Physik    die Kopenhagener Deutung von 1927

Gemäß der Kopenhagener Deutung ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell indeterministischen (unvorhersagbaren) Charakters von quantenphysikalischen Naturvorgängen. Des Weiteren "ersetzen" die »Objekte des Formalismus« die Realität, ohne selbst eine Realität zu besitzen.

In der Zeit nach dem zweiten Weltkrieg hatte sich die Kopenhagener Deutung durchgesetzt, in Lehrbüchern war jetzt nur noch die Heisenberg-Bohrsche Quantentheorie ohne kritische Anmerkungen zu finden.

Die Kopenhagener Deutung zeichnet sich durch die Bequemlichkeit aus, die sie ihren »Gläubigen« liefert. Der Welle-Teilchen-Dualismus gestattet(e) ein "Umsteigen" auf die "Welle" mit einer e-Funktion mit komplexem Exponent, welcher gemäß Fourier Theorem es wiederum gestattet »ALLES« stückweise monotone, also auch jedes experimentelle Ergebnis, formal mathematisch darzustellen. Die statistische Deutung hält von der Mühe ab den physikalischen Prozeß zu erkunden, denn es sind ja grundsätzlich nur Wahrscheinlichkeitsaussagen bei Quantenprozessen möglich. Damit waren zwar gute Anfangserfolge zu erzielen, aber schon deBroglie [3] schrieb: ,,Viel mehr sollte man der Gefahr aus dem Wege gehen, daß ein zu fester Glaube an den statistischen Charakter der Quantentheorie diese schließlich unfruchtbar macht."

[3]  L. de Broglie, La Physique quantique restera-t-elle indéterministe? Gauthier-Villars, Paris 1953 Phys. Bl. 9 (1953)

 

Auf Grundlage der von Dr. Helmut Nieke († 2012) zusammengetragenen Informationen, die u.a. auf Newton und Fresnel zurückgehen und seiner eigenen Versuche wird hier fragmentarisch gezeigt, daß das Bild der herrschenden Physik von einer elektromagnetischen Welle falsch ist. Genauer: Licht und allgemein Strahlung sind keine elektromagnetischen Wellen. [Die Originalarbeiten von Dr.Helmut Nieke sind unter  http://www.gebeugtes-licht.de/ online.] Die mit dem Welle-Teilchen-Dualismus eng verknüpfte, teils begründete Quantenmechanik ist somit im Ansatz falsch.

Die verschwiegenen «experimentellen Wahrheiten» des 17.Jahrhunderts

Was ist von der heutigen Physik zu halten, wenn im Verhältnis zu Teilchenbeschleunigerexperimenten der Neuzeit „banale“ Versuchsaufbauten, wie z.B. der Einfachspalt, in der physikalischen Interpretation die physikalische Realität weit verfehlen?

Der Einfachspalt

Bei der Beugung am Einfachspalt ist die beugende Öffnung ein feiner Spalt mit konstanter Breite. Gemäß Lehrbücher verbreiteter Annahmen sind alle Punkte des Spaltes als Ausgangspunkt von Kugelwellen anzusehen (Huygens'sches Prinzip), die sich in der Beobachtungsebene überlagern und das Beugungsbild erzeugen.

Diese Annahme ist grundlegend falsch.

Dr. Helmut Nieke    Newtons Beugungsexperimente und ihre Weiterführung

[0]…In Nieke, „Newtons Beugungsexperimente und ihre Weiterführung“ Halle 1997, wird gezeigt, daß Fresnels angeblicher Beweis für Licht als Welle, auf einer unzulässigen und falschen Extrapolation der Formel für die Beugung am Spalt auf die Entfernung Null basiert. Seinerzeit wurde das nur akzeptiert, weil Newton mit punktförmigen Lichtteilchen und deren Mechanik eine Beugung nicht begründen konnte. So wurde ab etwa 1850 in Lehrbüchern die Beugung nach Fresnel mit Wellen als einzige Möglichkeit dargestellt. Newtons Beugungsexperimente hingegen wurden unterschlagen und so eine simplifizierte und irreführende Theorie manifestiert. Auch nach Entdeckung des lichtelektrischen Effektes am Anfang dieses Jahrhunderts hatte sich an der "manifestierten" Theorie nichts geändert, und es wurde lediglich ein Dualismus von Welle und Korpuskel gefolgert. Sogar Bohr baute seine Quantentheorie mit der Kopenhagener Deutung auf dem Dualismus von Welle und Korpuskel auf, die er mit dem Indeterminismus bei Quantentheorie verband, aus dem die Unanschaulichkeit bei Quantenprozessen gefolgert wurde. Einstein legte dagegen Widerspruch ein, konnte aber seine Anschauung nicht begründen, da er die Newtonschen Beugungsexperimente nicht berücksichtigte. Aber auch wenn er sie berücksichtigt hätte, hätte er seinerzeit keine Alternative bieten können…

[0] http://www.gebeugtes-licht.de/histphil.htm

Wie u. a. Fresnel, Newton, Nieke bemerkten, stammen die zur Interferenz beitragenden Anteile der Beugung in erster Linie von den Spaltkanten.

Grimaldi [1] berichtete als erster 1665 über die Beugung und dabei auch über die leuchtende Kante, die man sieht, wenn eine Lichtquelle durch eine Halbebene verdeckt ist.

[1]  F. M. Grimaldi, Physico-mathesis de lumine, coloribus et iride. Bonniae 1665.

Fresnel [2] bestätigte in seiner ersten Arbeit über die Beugung ausdrücklich, daß er sich überzeugt habe, daß gebeugtes Licht ausschließlich von den Kanten kommt, was er später nie berücksichtigte. Die Existenz einer leuchtenden Kante als physikalisches Phänomen, war zur damaligen Zeit allgemein anerkannt. Die Folgerung, daß gebeugtes Licht nicht vom gesamten Spalt kommt, war selbstverständlich, sie brauchte nicht besonders betont zu werden.

[2] A. J. Fresnel, Oeuvres Complétes I. Paris 1866; Abhandlungen über die Beugung des Lichtes. Ostwalds Klassiker Nr. 215, Engelmann, Leipzig 1926.

 

Fresnel konnte mit dem von Fourier stammenden Theorem Grenzfälle der Beugung berechnen. Seine Messergebnisse teilte er nur mit, wenn sie mit seiner Theorie hinreichend übereinstimmten. War das nicht mehr der Fall, so brach er die Mitteilung ab, ohne die Diskrepanzen anzumerken.

Newton [3] berichtete im III. Buch seiner »opticks« umfassend über die Beugung. Hier interessiert die 5. Beobachtung, wo er nachweist, daß gebeugtes Licht nur aus der engen Umgebung der Kante kommt (Größenordnung einige 1/100 mm); sowie der Beobachtung 10, wo er am Dreieckspalt nachweist, daß in kurzen Entfernungen und großen Spaltweiten erst die inneren Beugungsstreifen des Spaltes entstehen, die der Beugung der Kanten als Halbebenen entsprechen (innerhalb der Schattengrenze-Beugungsstreifen mit ungleichmäßigen Abständen, außerhalb kontinuierlicher Abfall). Erst in großen Entfernungen oder bei kleinen Spaltweiten entstehen die äußeren Beugungsstreifen (außerhalb der Schattengrenzen), die seit etwa 1850 in Lehrbüchern als einzige Beugungsstreifen am Spalt beschrieben werden. Newton stellte nicht nur die Behauptung auf, sondern er wies mit den oben genannten Beobachtungen nach, daß Licht niemals eine Welle sein kann. Er konnte aber keine Theorie der Beugung bringen, denn für punktförmige Lichtteilchen konnte die Newtonsche Mechanik keine Begründung der Ablenkung senkrecht zur Ausbreitungsrichtung angeben. Die Newtonschen Beugungsexperimente zeigten, was außerhalb der Fresnelschen Theorie die Beugung noch kennzeichnete, aber dies passte nicht zu Fresnels Vorstellungen. Daher ließen die Lehrbuchautoren Newtons Beugungsexperiment einfach weg, sie wurden unterschlagen und blieben unberücksichtigt; man extrapolierte so über dieses Gebiet unzulässig und falsch hinweg. So wurde eine unvollständige und damit irreführende Theorie der Beugung propagiert.

[3] Newton , Opticks 1704; Opera quae exstant omnis, Tom. IV, London 1782; Optik II + III. Übers. W Abendroth, Ostwald’s Klassiker Nr. 97, Engelmann, Leipzig 1898; NeuaufIage Bd. 96/97, Vieweg, Braunschweig 1983; Optique. Trac. J. P. Marat 1787; Bourgois 1989 …online Dr. Helmut Nieke : http://www.gebeugtes-licht.de/downloads/ARBEIT19.pdf

Die Newtonschen Beugungsexperimente wurden von Nieke [4] in einer Schlierenapparatur nach Abbe weitergeführt, die eine Trennung von gebeugtem und nicht hinreichend gebeugtem Licht gestattet. Newtons Beobachtung 5 und 10 wurden bestätigt und weitergeführt. Durch Abdecken von Ordnungen in der Schlierenapparatur kann deren Zuordnung zu zwei Orten im Spaltbild gezeigt werden (aber nicht innerhalb einer Ordnung). Bei Nieke [5] wird das Babinetsche Prinzip für Beugungsstreifen am Spalt und Hindernis als kantensymmetrisch vertauscht gezeigt und nur in Spezialfällen sind die Beugungsfiguren gleich. Nieke [6] bewies die sog. Kohärenzbedingung als eine geometrische Bedingung. (Winkel zur Lichtquelle kleiner als zum Abstand der Beugungsstreifen). Nieke [7] zeigte, daß sich hintereinander folgende Beugungen von unbeeinflussten Beugungen unterscheiden. Weiter wird nachgewiesen, daß bei Abdeckung eines Spaltbildes des Doppelspaltes nach Zwischenabbildung sich trotzdem die Beugungsfigur des Doppelspaltes ergibt, wenn vor der Zwischenabbildung ein Weg größer als Dezimeter bestand.

[4] H. Nieke, Newtons Beugungsexperimente und ihre Weiterführung. Arbeit 1 und 2 [5] Wie [4] Arbeit 3 [6] Wie [4] Arbeit 4 [7] Wie [4] Arbeit 5.

 Wenn Heisenberg auf der Grundlage des ,,Kopenhagener Geistes der Quantentheorie" den Dualismus von Welle und Korpuskel benutzt, so hat er mit der Welle die unzulässige und falsche Extrapolation akzeptiert. Diesen Wellenbegriff brauchte Heisenberg aber zur Rechtfertigung der Benutzung des Fourier-Theorems, das er als „ein allgemeiner mathematischer Satz besagt" zitiert, mit dem er ein Wellenpaket von beliebiger Gestalt aufbauen kann, nämlich jede stückweise monotone Funktion. Da jedes experimentelle Ergebnis stückweise monoton ist, so dachte Heisenberg, daß ihm nichts passieren kann. Mit der Berücksichtigung der Newtonschen Beugungsexperimente muß aber die Welle in Abrede gestellt werden und damit verliert auch die generelle Anwendung des Fourier-Theorems seine universelle Begründung. Nieke [8] bemängelte bereits, daß Teilchen mit Struktur nicht mit zwei Angaben wie Ort und Impuls oder eines Paares kanonisch konjugierter Variabler zu kennzeichnen sind, wie dies die Heisenbergsche Unbestimmtheitsrelation voraussetzt. Die Heisenbergsche Unbestimmtheitsrelation wäre danach nur für punktförmige Partikel anwendbar, und die gibt es nicht.

[8] Dr. Helmut Nieke : http://www.gebeugtes-licht.de/downloads/ARBEIT19.pdf     http://www.gebeugtes-licht.de/archiv.htm