Der Unterschied zwischen der Zensur der Medien in Diktaturen und der Pressefreiheit in den Demokratien besteht darin, dass die Zensur in den Diktaturen unbestritten ist.
Der CO2 - Skandal
Die Demonstrationen der "Letzten Generation" ließen sich leicht vermeiden, wenn es die Bundesregierung ermöglichen würde. der Bevölkerung mitzuteilen, dass wissenschaftlich unstrittig nachgewiesen ist, dass CO2 nicht für die derzeitige Erderwärmung verantwortlich ist. Siehe auch die Begründung weiter unten.
Darüber hinaus würden auch die Aktivitäten der "Friday for Future" eingestellt, wenn die Physiklehrer entsprechend dem Lehrplan für Physik der Oberstufen, ihren Schülern die drei Hauptsätze der Wärmelehre erklären würden, denn die Vermittlung von Lehrninhalten gehört schließlich zu ihren Hauptaufgaben. Ansonsten müssten die Demonstrationen in "Friday for Stupids" umbenannt werden.
Interessant wäre es auch, wenn die frühere Umweltministerin und spätere Klimakanzlerin, Frau Dr. Angela Merkel, eine diplomierte und promovierte
Physikerin, der Öffentlichkeit erklären würde, warum sie die physikalischen Gesetze ignoriert und sich für die falschen Behauptungen der Ideologen eingesetzt hat, unter denen wir heute leiden.
Ende des Klimatextes
********************************************************************************************************************
Kosmologie: Warum der Urknall eine unhaltbare Theorie ist..
********************************************************************************************************************
Friday for Stupids!
Da die Physiklehrer ganz offensichtlich nicht die Dienstordnung befolgen, ist zu überprüfen, ob hier nicht der Tatbestand der Arbeitsverweigerung zum Schaden der Bevölkerung vorliegt.
Allgemeine Dienstordnung für Lehrer und Lehrerinnen, Schulleiter und Schulleiterinnen an
öffentlichen Schulen (ADO)
Würden die Schüler entsprechend der oben angeführten Dienstordnung unterrichtet, Beweis weiter unten, würden sich die Schüler auch nicht von interessierten Kreisen missbrauchen lassen.
Der wissenschaftliche Beweis,
dass CO2 nicht für den Klimawandel verantwortlich ist.
Eine Blamage sowohl für die Medien, die Politiker und das Bildungswesen.
Würde die Öffentlichkeit seriös informiert und würden die Schüler pflichtgemäß unterrichtet, gäbe es keinen „Friday for Future“. So ist aber die Bezeichnung irreführend, denn es handelt sich in Wahrheit, um einen „Friday for Stupids“.
Aus diesem Grunde sind der Emissionshandel mit CO2 Zertifikaten und die beabsichtigte CO2 Steuer ein Schildbürgerstreich. Man kann nur hoffen, dass durch Gerichtsentscheide dieser grobe und in jeder Beziehung schädliche Unfug verboten wird. So kann allein schon aus formalen Gründen eigentlich keine CO2 Steuer erhoben werden, denn in Deutschland gibt es lediglich Verbrauchs-, Aufwands- oder Verkehrssteuern. Zu keiner dieser Kategorien passt nach Einschätzung des wissenschaftlichen Dienstes die CO2 - Steuer. Eine CO2-Emission ist aber "weder der Verbrauch eines Verbrauchsguts" - da CO2 emittiert und nicht verbraucht wird -, es ist aber auch kein Rechts- oder Wirtschaftsvorgang oder der Besitz einer Sache. Wie die Experten schreiben, sieht der Steuertypenkatalog des Grundgesetzes zwar ein "Steuerfindungsrecht, aber gerade kein Steuererfindungsrecht" vor. (MDR.DE Wissenschaftlicher Dienst).
Der Philosoph Professor Dr. Klaus Fischer von der Universität Trier stellte bereits in: „Die politische Konstruktion der Universitätskrise - Siebzehn Thesen zu einer merkwürdigen Diskussion.“ (November 1997, 51. Jahrgang, Heft 584, pp 1003-1011) Folgendes fest.
Seine 7. These lautet: „Das deutsche System der Forschungsförderung ist nicht auf das Erkennen des Außergewöhnlichen, sondern auf die Belohnung des konsensfähigen Mittelmaßes angelegt.“
Die These 15 lautet: „Die Zwänge des „peer- reviewing – Systems“ führen zu einer Konvergenz der Meinungen, die nicht durch Fakten und Überzeugungen, sondern von der Notwendigkeit geleitet wird, Verbündete im Kampf um Forschungsmittel zu suchen.“
Es nützte auch nichts, als bereits am 13. März 2001 der US-Präsident George W. Bush erklärt hatte: „I oppose the Kyoto Protocol!“, da er nicht an die CO2 – Lüge glaubte. Damit löste er kurzzeitig einigen Wirbel aus. So schrieb das als Organ der Deutschen Wirtschaft geltende Handelsblatt am 27. März 2001: „Bush dreht die Uhr beim Klimaschutz zurück“ und die Börsenzeitung schrieb in ihrer Thomas-Gebert-Kolumne voller Optimismus: „Der Irrsinn hat ein Ende ….. .Jedenfalls hat Georg Bush, der in einer Unterschriftenaktion von 31.487 amerikanischen Wissenschaftlern genau dazu aufgefordert worden ist, uns vor einer riesigen Dummheit bewahrt und uns allen viele hundert Milliarden Dollar eingespart. Bravo, George!“
Global Warming Petition Project
31,487 American scientists have signed this petition,
including 9,029 with PhDs
Bereits 2001 wurden von drei deutschen Behörden, nämlich der Bundesanstalt für Geowissenschaften und Rohstoffe in Hannover (eine nachgeordnete Behörde des Bundeswirtschaftsministeriums), dem Institut für Geowissenschaftliche Gemeinschaftsaufgaben und dem Niedersächsischen Landesamt für Boden-forschung, die Erkenntnisse ihrer wissenschaftlichen Mitarbeiter durch die Autoren Ulrich Berner und Hansjörg Streif in Buchform auf 238 Seiten dargelegt und veröffentlicht. Die Wissenschaftler dieser Behörden kamen im Hinblick auf den Zusammenhang zwischen der Zunahme des Treibhausgases CO2 und der Erderwärmung in den letzten 150 Jahre zu der Schlußfolgerung, dass „die beobachteten Temperaturanstiege bzw. -abnahmen ohne Bezug zu CO2 erfolgten.“ Das Buch erschien 2001 im Stuttgarter Fachverlag E. Schweizerbart unter dem Titel „Klimafakten. Der Rückblick - Ein Schlüssel für die Zukunft“.
Der Verlag schreibt zu dem Buch: „Wenige Themen nehmen heute in Politik und Medien ähnlich breiten Raum ein wie Klima - Klimaänderungen - Klimakatastrophen. Meist geht es dabei um mögliche Auswirkungen menschlicher Eingriffe in das Klimasystem. Oft unterschätzt man allerdings das Ausmaß und die Dynamik natürlicher Klimaschwankungen. Rückblickend auf die Erdgeschichte legen Geowissenschaftler im vorliegenden Sachbuch ihr umfangreiches Wissen über das Klima vergangener Zeiten vor. Aus den hinterlassenen Gesteinen, dem Grundwasser und dem Eis großer Gletscher gewinnen sie eine Fülle von Informationen, wie z.B. über Wassertemperaturen ehemaliger Ozeane, die Luftfeuchtigkeit bzw. Trockenheit untergegangener Kontinente oder die Gaszusammensetzung einer früheren Atmosphäre. Dieser Rückblick ist gleichzeitig auch ein Schlüssel für die Zukunft, weil er eine Bewertung der verschiedenen im Klimasystem wirksamen Faktoren erlaubt. Hervorzuheben ist dabei, dass nicht das oft zitierte Kohlendioxid bestimmender Faktor des Klimageschehens ist. Vielmehr treibt die Sonne wie ein Motor die klimawirksamen Prozesse in der Atmosphäre, den Ozeanen und in der Biosphäre an. Zahlreiche Belege aus der Natur sprechen für eine wahre "Achterbahnfahrt" des Klimas durch die Erdgeschichte. Wer mehr zum Thema Klima erfahren möchte, findet in diesem Buch umfassende, auch dem Laien verständliche Informationen. In anregender Form sprechen die Autoren offene Fragen an und vermitteln neue Denkanstöße. Erstmalig wird hier aus der Sicht der Geowissenschaft Stellung zur aktuellen Klimadiskussion bezogen. Mit dem hier vorgelegten, erheblich erweiterten Hintergrundwissen sind viele bisher getroffene Aussagen zum Thema Mensch und Klima höchst kritisch zu bewerten.“
Auch beim 58. Nobel Laureate Treffen in Lindau vom 29.06. - 04.07.2008 wurde durch den Vortrag des Klimaforschers von Dr. David Evans auf Grund fundierter Forschungsergebnisse der Nachweis erbracht, dass CO2 – nicht für die derzeitige Klimaerwärmung verantwortlich ist, wie interessierte Kreise glaubhaft machen wollen.
In seinem Vortrag „No smoking hot spot“ führte Dr. David Evans damals aus, dass die Ergebnisse der Eiskernbohrungen in der Antarktis und auf Grönland bezeugen, dass Temperaturerhöhungen im Durchschnitt 800 Jahre früher auftraten als der Anstieg des CO2 - Niveaus. Der späte Anstieg der CO2 - Werte beruhe darauf, dass sich die Erdatmosphäre schneller erwärmt, als das Wasser in den Meeren. Wenn sich Wasser erwärmt, wird das im Wasser gelöste CO2 freigesetzt und an die Erdatmosphäre abgegeben. Wenn sich die Atmosphäre zu einem späteren Zeitpunkt wieder abkühlt, kühlt sich entsprechend später das Wasser der Meere wieder ab und CO2 löst sich wieder aus der Erdatmosphäre. Der CO2 - Wert in der Erdatmosphäre sinkt folglich auch. Das sagt eigentlich alles über Ursache und Wirkung!
Die Öffentlichkeit und unsere Politiker kennen offensichtlich nicht die maßgebenden Zusammenhänge und Fakten: Denn keiner der von Dr. Evans erwähnten Punkte ist umstritten. Selbst die Klimaalarmisten stimmen ihnen zu, bezweifeln aber ihre Bedeutung.
Eine offene Diskussion zu diesem Thema wurde in den letzten 18 Jahren zu keinem Zeitpunkt geführt, die Öffentlichkeit wurde gebetsmühlenhaft von allen Medien und Parteien einseitig informiert und mit Panikmache, statt Durchsetzung gesicherter seriöser und effektiver Maßnahmen, riesige Geldsummen „verbrannt“.
Selbst das Bundesministerium für Bildung und Forschung stellte fest.
Kurz wir haben Zustände wie zur Zeit der Inquisition, allerdings ist die Vorgehensweise optimiert worden und weltweit wird die Menschheit indoktriniert. Dabei lässt sich allein mit dem gesunden Menschenverstand nachweisen, dass CO2 nicht für die Klimaerwärmung verantwortlich sein kann.
Es wundert mich, warum in Deutschland offensichtlich die Physiklehrer nicht ihren Pflichten nachkommen und auch kein Kultusministerium seiner Fachaufsicht nachkommt. Stattdessen verurteilt man die Protestbewegung der Schüler. Wenn die Schüler im Unterricht mit den Gesetzen der Thermodynamik vertraut gemacht worden wären, wären sie auch nicht auf die Straße gegangen. Bei der Protestbewegung „Friday for Future“ handelt es sich deshalb um “Friday for Stupids“, weil Medien, Politiker und Lehrer sträflich versagt haben. Offensichtlich wird von der Bundesregierung der § 5 des Grundgesetzes nur als Absichtserklärung verstanden, denn ansonsten hätten schon längst juristische Schritte gegen diese Indoktrinierung der Bevölkerung unternommen werden müssen.
Zurzeit werden 419 ppm CO2 in der Erdatmosphäre nachgewiesen. Das bedeutet in Zahlen, dass auf 100.000 Luftmoleküle 41,9 CO2 Moleküle kommen. Eine derart geringe Zahl an dem Spurenelement CO2 kann weder eine geschlossene CO2 Schicht bilden, wie die Scheiben in einem Gewächshaus, noch besitzen sie eine derartige „Heizkraft“ mit den re-reflektierten Infrarotstrahlen des Erdbodens um die Atmosphäre zu erwärmen.
Die Erde nimmt Strahlungsenergie von der Sonne auf und reflektiert einen Teil der Strahlungsenergie in Form von langwelligerer Wärmestrahlung in den Weltraum. Die einzelnen CO2 Moleküle sind sporadisch in der Erdatmosphäre verstreut und absorbieren einen geringen Teil dieser Erdwärmestrahlung, um sie dann erneut nach allen Seiten abzugeben. Das bedeutet, dass lediglich weniger als die Hälfte dieser aufgenommenen geringen Wärmeenergie überhaupt erneut zur Erde re-reflektiert wird.
CO2 kann mangels geeigneter Absorptionslinien das atmosphärische „Strahlungsfenster“ nicht schließen und hat daher keinen Einfluss auf das Wetter, auf das Klima! Anders formuliert: Es ist physikalisch unmöglich, dass ein „Schwarzer Körper“, der kontinuierlich über ein breites Wellenlängenspektrum Energie abstrahlt, von einer atmosphärischen Gashülle, die nur selektiv, vereinzelt und diskret Strahlung absorbiert, an seiner Abkühlung gehindert, geschweige denn erwärmt werden könnte.
Meteorologisches Elementarwissen: Die tagsüber vom Erdboden aufgenommene Energie entschwindet nachts bei klarem Himmel unsichtbar und ungehindert „direkt“ mittels „Temperaturstrahlung“ wieder in den Weltraum. Insbesondere die CO2 -Moleküle mit ihren besonderen stoffspezifischen Absorptionsbanden bei 2,8 m, 4,5 m und 15 m, die so unabänderlich und charakteristisch sind wie ein menschlicher „Fingerabdruck“, haben auf den täglichen Temperaturverlauf keinen Einfluss, weil sie das „offene Strahlungsfenster“ zwischen 7 m und 13 m nicht schließen können. Dies würde auch dann gelten, wenn die Erde von einer reinen CO2 -Atmosphäre umgeben wäre. Es kann also aus rein physikalischen Axiomen heraus keinen wie auch immer gearteten „Wärmestau“ unter dem fiktiven „Glasdach“ in 6 km Höhe geben. Der „Treibhauseffekt“ ist eine pure Erfindung interessierter Kreise, die Mathematiker beauftragten, für ihre Interessen geeignete Klimamodelle zu errechnen. Mathematiker rechnen „Wenn“ > „Dann“.
Man kann deshalb durch entsprechende Vorgaben ein erwünschtes Ergebnis mathematisch konstruieren. Sind aber die Vorgaben falsch, kann das Ergebnis nicht richtig sein. Deshalb fordern seriöse Wissenschaftler, dass mathematische Berechnungen mit der Realität abgeglichen werden müssen. Selbst wenn man die Atmosphäre wegdenken und wie dereinst Svante Arrhenius bei seiner „Eiszeithypothese“ 1896 rein modelltheoretisch annehmen würde, dass der gesamte CO2-Gehalt der Atmosphäre wie ein „Schwarzer Körper“ in 6 km Höhe die Erde umhülle, selbst dann kann es keinen „Treibhauseffekt“ geben, denn die -18 C kalte „Kohlendioxidschicht“ würde mit einer Leistung von 240 W/m2 die Erde „anstrahlen“, während die +15 C warme Erde permanent Energie in der Größenordnung von 390 W/m2 abstrahlen würde. Der 2. Hauptsatz der Thermodynamik lässt prinzipiell nicht zu, dass Wärme von kalt nach warm fließt. Das gasförmige CO2 als „Treibhausgas“ zu bezeichnen, welches wie ein „Glasdach“ in einem Gewächshaus die Wärmestrahlung „reflektiert“ und am Entweichen in den Weltraum hindert, ist physikalisch unhaltbar. Auch Gewächshäuser kühlen nachts aus und müssen im Winter beheizt werden. Zur Strahlungsabsorption in diesem Bereich stellte bereits im März 1989 die Enquete-Kommission „Vorsorge zum Schutz der Erdatmosphäre“ in ihrem Zwischenbericht physikalisch korrekt fest: „Die Gase in der Atmosphäre absorbieren die Infrarot-Strahlung der Erdoberfläche in den meisten Spektralbereichen stark, in einigen dagegen nur geringfügig, wie etwa im Spektralbereich 7 bis 13 m. In diesem Bereich stammt der größte Anteil der IR-Strahlung von der Erdoberfläche. Er wird als „offenes atmosphärisches Strahlungsfenster“ bezeichnet, da hier am wenigsten Wasserdampf- und CO2-Absorption stattfindet. 70 % bis 90 % der Abstrahlung von der Erde gelangen hier direkt in den Weltraum.“
Enquete-Kommissionen sind vom Deutschen Bundestag oder einem Landesparlament eingesetzte überfraktionelle Arbeitsgruppen, die umfangreiche und bedeutsame Sachkomplexe lösen sollen, in denen unterschiedliche rechtliche, wirtschaftliche, soziale oder ethische Aspekte abgewogen werden müssen.
Bei wolkenlosem Himmel entweichen 70 % bis 90 % der im Erdboden gespeicherten Wärme ungehindert ins Weltall und im „Idealfall“ werden rein hypothetisch 10 % bis 30 % von den „Treibhausgasen“ absorbiert, um dann zur Erde „re-emittiert“ zu werden.
Eine „Erwärmung“ der Erde über die eigene wieder reflektierte Energie ist deshalb völlig ausgeschlossen! Damit bricht die Hypothese, die Erhöhung des CO2-Gehaltes in der Atmosphäre würde eine „Erderwärmung“ hervorrufen und eine „Klimakatastrophe“ zur Folge haben, die nur durch eine drastische Reduzierung der „CO2 -Emissionen“ verhindert werden könnte, in sich zusammen. Deshalb sind der Handel mit Emissionszertifikaten und die Besteuerung von CO2 – Ausstoß ein ungeheuerlicher und willkürlicher Eingriff in die Wirtschaftspolitik, ganz davon abgesehen, dass ein nicht vom Menschen verursachter Klimawandel völlig andere Maßnahmen zur Vermeidung klimabedingter Schäden bedarf.
Aber schon Jesus, immerhin der Sohn Gottes, des Schöpfers dieser Welt, sagte: „Ein Prophet gilt nirgends weniger als in seinem Vaterland und in seinem Hause." Mt. 13,57, und Friedrich Schiller lässt Talbot in „Die Jungfrau von Orleans“ sagen: „Unsinn, du siegst und ich muss untergehn! Mit der Dummheit kämpfen Götter selbst vergebens.“
Wenn es nicht gelingen wird, durch Gerichtsentscheide die verhängnisvolle Klimalüge zu verbieten, wird es der Weltwirtschaft wie Talbot ergehen, denn selbst die öffentliche - rechtlichen Rundfunk- und Fernsehanstalten kommen ihrem Auftrag nicht nach.
Debatte im Bundestag - Schulze wirbt für Klimapaket.
Datum: 25.10.2019 11:42 Uhr
Der Bundestag hat in Berlin unter falschen Behauptungen mit den Beratungen der Gesetze zum Klimaschutz begonnen, die zu riesigen Fehlinvestitionen und einer falschen Ausrichtung der Energiepolitik führen werden.
Bundesumweltministerin Svenja Schulze (SPD) sagte, sie verstehe junge Menschen, die weiter auf den Straßen protestierten, und ihre Angst vor der Erderhitzung. Sie könne aber auch die Menschen verstehen, die sich existenzielle Sorgen machten über all die Veränderungen und um ihren Arbeitsplatz und den schnellen Wandel.
Diese ganze, zum Teil emotionsgeladenen aber von Fachkenntnis ungetrübte Debatte könnte man sich ebenso wie die Verunsicherung der Bevölkerung ersparen, wenn man die Bevölkerung nicht mit Fake News verunsichern, sondern über die gesicherten Fakten seriöser Wissenschaftler informieren würde.
Unter derÜberschrift: Schülerin, Klimaschützerin, globale Ikone:
Das ist Greta Thunberg: Swyrl.tv
wird der Leser informiert, dass Greta Thunberg väterlicherseits weitläufig mit Svante August Arrhenius verwandt sei, der 1903 als erster Schwede den Nobelpreis gewann. Unglaublich, aber wahr: Der Urahn der Klimaschützerin forschte tatsächlich über Treibhausgase und war der erste Wissenschaftler, der vorhersagte, dass der CO2 – Ausstoß der Menschheit zu globaler Erwärmung führen werde. (Hulton Archive / Getty Images) und damit begann die verhängnisvolle Entwicklung mit der wir es heute zu tun haben:
Die Theorie von Arrhenius wurde nur eine kurze Zeit, nämlich zwischen 1896 und Anfang des 20. Jh. ernsthaft diskutiert und 1909 durch den amerikanischen Physiker Robert W. Wood widerlegt. Die Theorie wurde erst Jahrzehnte später wieder neu aufgegriffen, um sie als Argument für den Bau von Atomreaktoren und gegen die Reaktorgegner zu verwenden. Fest steht ferner: Ein Zusammenhang zwischen einer Verdopplung im CO2 - Gehalt der Erdatmosphäre, gefolgt von globalen Temperaturveränderungen von einigen Grad ist ein rein mathematisches Konstrukt, für das es in der Realität keine Bestätigung gibt und auch nicht geben kann. Der Grund ist, dass Mathematiker grundsätzlich rechnen: „Wenn“ > „Dann“. Durch entsprechende Vorgaben, lässt sich auf jedes beliebige Ergebnis hinrechnen. Deshalb wird von der seriösen Wissenschaft stets ein Abgleich der mathematischen Ergebnisse mit der Realität gefordert.
Die 1896 von dem schwedischen Physiker Svante Arrhenius aufgestellte „Treibhaus-Theorie“ wurde bereits 1909 von dem amerikanischen Physiker Robert W. Wood widerlegt. Es gibt keinen „Treibhaus-Effekt“ in der Erdatmosphäre! Noch 1959 konnte man im „FRANCKE Lexikon der Physik“ nachlesen: „CO2 als Klimagas ist bedeutungslos“. Erst in den 60ger Jahren des vorigen Jahrhunderts wurde, wie bereits erwähnt, plötzlich CO2 als Argument gegen die Atomkraftgegner in dem luftverschmutzten Ruhrgebiet zum Klimagas proklamiert. Diese Luftverschnuzung wurde aber nicht durch CO2 sondern die Schadstoffaustoßungen der Industrie und dem steigenden Verbrennen von fossilen Energien verursacht. Hier laufen also zwei völlig voneinander unabhängige Prozesse ab. Unstrittig erhöht sich die Temperatur der Erdatmosphäre und unstrittig ist, dass der CO2 – Gehalt der Atmosphäre umso stärker ansteigt, je mehr fossile Energien verbrannt werden. Schließlich optimiert die Bundesregierung auch nicht die Biotope für Störche, um den Geburtenrückgang zu beheben. Es gilt also Zusammenhänge zu erkennen und nicht willkürlich Behauptungen unter das Volk zu bringen. Als dann der „saure Regen“ zu weiteren Umweltschäden führte, wurden erste Gegenmaßnahmen ergriffen aber CO2 – weiterhin in Verruf gebracht. Für Medien eine gute Einnahmequelle durch verbreiten von Ängsten und von Politikern, um von den Problemen mit den Atomkraftwerken abzulenken. So wurden wissenschaftliche Erkenntnisse, die die Volksverdummung gestört hätten nicht veröffentlicht und die Forschungsgelder nur an Einrichtungen vergeben, die weitgehend den gewünschten Mainstream unterstützten. Statt der angeblich anthropogen verursachten Klimaerwärmung handelte es sich in Wirklichkeit um eine mediogene und politogene Fehlinformation.
Entsprechend erarbeitet das Potsdamer-Institut für Klimaforschung, das unsere Bundeskanzlerin über die angebliche Klimaerwärmung durch CO2 berät, die gewünschten Ergebnisse und ignoriert Naturgesetze, wie den 2. Hauptsatz der Thermodynamik und ignoriert gesicherte Fakten. Mit Simulationsberechnungen, bei denen man willkürlich Werte einsetzen kann, um das gewünschte Ergebnis zu erhalten, werden gesicherte wissenschaftliche Erkenntnisse ignoriert und durch das Peer reviewing Verfahren werden unerwünschte Erkenntnisse unterdrück bzw. totgeschwiegen und in der Öffentlichkeit der Eindruck erweckt, dass die Berichte der Medien und die Argumente der Politiker dem aktuellen wissenschaftlichen Stand entsprechen. So schreibt Stefan Rahmstorf unter anderem: „ Erst seit den 50ger Jahren des vorigen Jahrhunderts wird die Gefahr einer anthropogenen (also vom Menschen verursachten) Erwärmung ernst genommen. Im Rahmen des internationalen geophysikalischen Jahres (IGY) 1957/58 gelang der Nachweis, dass die CO2 – Konzentration der Atmosphäre tatsächlich ansteigt. Die ersten Simulationsrechnungen mit einem Atmosphärenmodell in den 60ger Jahren ergaben einen Temperaturanstieg von 2 Grad Celsius für eine Verdoppelung der CO2 – Konzentration. In den 70ger Jahren warnte mit der National Academy of Sciences der USA erstmals eine Wissenschaftsorganisation vor der globalen Erwärmung; die Wirkung einer CO2 - Verdoppelung wurde auf 1,5 - 4,5 Grad Celsius abgeschätzt. Diese Unsicherheitsspanne gilt unverändert bis heute.“ Ende des Zitates.
Eine derartige Behauptung ist nicht das Papier wert, auf der sie geschrieben steht. Statistisch ist das eine „No go!“ Aussage. Aber die anthropogene Klimaerwärmung ist politisch gewollt und dann wird das auch durchgezogen, obwohl z.B. bereits 2001 von drei deutschen Behörden, nämlich der Bundesanstalt für Geowissenschaften und Rohstoffe in Hannover (eine nachgeordnete Behörde des Bundeswirtschaftsministeriums), dem Institut für Geowissenschaftliche Gemeinschaftsaufgaben und dem Niedersächsischen Landesamt für Bodenforschung, die Erkenntnisse ihrer wissenschaftlichen Mitarbeiter durch die Autoren Ulrich Berner und Hansjörg Streif in Buchform auf 238 Seiten dargelegt und veröffentlicht wurden. Die Wissenschaftler dieser Behörden kamen im Hinblick auf den Zusammenhang zwischen der Zunahme des Treibhausgases CO2 und der Erderwärmung in den letzten 150 Jahre zu der Schlussfolgerung, dass „die beobachteten Temperaturanstiege bzw. -abnahmen ohne Bezug zu CO2 erfolgten.“ Das Buch erschien 2001 im Stuttgarter Fachverlag E. Schweizerbart unter dem Titel „Klimafakten. Der Rückblick - Ein Schlüssel für die Zukunft“.
Der Verlag schreibt zu dem Buch: „Wenige Themen nehmen heute in Politik und Medien ähnlich breiten Raum ein wie Klima - Klimaänderungen - Klimakatastrophen. Meist geht es dabei um mögliche Auswirkungen menschlicher Eingriffe in das Klimasystem. Oft unterschätzt man allerdings das Ausmaß und die Dynamik natürlicher Klimaschwankungen. Rückblickend auf die Erdgeschichte legen Geowissenschaftler im vorliegenden Sachbuch ihr umfangreiches Wissen über das Klima vergangener Zeiten vor. Aus den hinterlassenen Gesteinen, dem Grundwasser und dem Eis großer Gletscher gewinnen sie eine Fülle von Informationen, wie z.B. über Wassertemperaturen ehemaliger Ozeane, die Luftfeuchtigkeit bzw. Trockenheit untergegangener Kontinente oder die Gaszusammensetzung einer früheren Atmosphäre. Dieser Rückblick ist gleichzeitig auch ein Schlüssel für die Zukunft, weil er eine Bewertung der verschiedenen im Klimasystem wirksamen Faktoren erlaubt. Hervorzuheben ist dabei, dass nicht das oft zitierte Kohlendioxid bestimmender Faktor des Klimageschehens ist. Vielmehr treibt die Sonne wie ein Motor die klimawirksamen Prozesse in der Atmosphäre, den Ozeanen und in der Biosphäre an. Zahlreiche Belege aus der Natur sprechen für eine wahre "Achterbahnfahrt" des Klimas durch die Erdgeschichte. Wer mehr zum Thema Klima erfahren möchte, findet in diesem Buch umfassende, auch dem Laien verständliche Informationen. In anregender Form sprechen die Autoren offene Fragen an und vermitteln neue Denkanstöße. Erstmalig wird hier aus der Sicht der Geowissenschaft Stellung zur aktuellen Klimadiskussion bezogen. Mit dem hier vorgelegten, erheblich erweiterten Hintergrundwissen sind viele bisher getroffene Aussagen zum Thema Mensch und Klima höchst kritisch zu bewerten.“ Ende des Zitates
Am 31. August 2017 erschien im Fachblatt Review of Policy Research eine bemerkenswerte Arbeit, in der sich Hannah Rachel Hughes von der Cardiff University und Matthew Paterson von der University of Manchester mit der Zusammensetzung der Autoren der IPCC-Arbeitsgruppe III beschäftigen. Das Resultat der Analyse ist erschreckend: Offenbar kontrolliert eine kleine Gruppe von Autoren und Institutionen den Inhalt der Berichte. Wie robust sind die Klima-Zusammenfassungen also wirklich, wenn eine kleine Clique das Zepter fest in der Hand hält? Hughes und Paterson sehen hier die inhaltliche Ausgewogenheit in Gefahr und stellen die Glaubwürdigkeit der Organisation in Frage. Sie befürchten eine Politisierung der Klimawissenschaften, wobei die nüchterne und ergebnisoffene Darstellung auf der Strecke bleibt.
Der emeritierte Physikprofessor, man beachte das Wort „emeritiert“, (offensichlich fürchtete er in seinem Berufsleben weitreichende Konsequenzen) Harold Lewis tritt aus der Amerikanischen Physikalischen Gesellschaft aus und bezeichnet die menschlich verursachte Erderwärmung als den „größten und erfolgreichsten pseudowissenschaftlichen Betrug, den ich während meines langen Lebens gesehen habe.“ In seinem Rücktrittsschreiben gewährt er tiefe Einblicke in die Machenschaften einer durch eine „Flut aus Geldern …korrumpierten“ Bagage pseudowissenschaftlicher Berufsverbrecher, deren einziges Interesse die Jagd nach Forschungsgeldern und Karrieremöglichkeiten ist.
Der Treibhauseffekt ist seit 1909 als physikalischer Unsinn entlarvt. Sämtliches Geschwätz vom Treibhaus ist als Unfug aufgeflogen. Der Physiker Robert W. Wood hat es widerlegt, weil auch die Physik nichts anderes zulässt. Die Physik kann man nicht austricksen und die sagt, der Treibhauseffekt hat noch nie existiert und es gibt nur eine Physik.
Die Physiker Gerlich/Tscheuschner haben übrigens ebenfalls die Erkenntnisse von Prof. Wood und das "Woodsche Experiment" aus dunkler Vergangenheit wieder ans Licht gebracht und bestätigt, dass CO2 kein Treibhausgas ist und die Behauptung der Medien und der Politiker gegen den 2. Hauptsatz des Thermodynamik Gesetzes verstoßen.
Deshalb ist es wichtig noch einmal festzustellen, das IPCC (Intergovernmental Panel on Climate Change, auch Weltklimarat genannt), ist eine politische Institution, die Berichte zusammenträgt und in den sog. „IPCC Assessment Reports“ veröffentlicht. Es betreibt selbst keine Wissenschaft, sondern hat die Aufgabe, die Ergebnisse der Forschung in den unterschiedlichsten Fachbereichen zusammenzutragen, insbesondere auf dem Gebiet der Klimatologie. Das hat aber nichts mit einer wissenschaftlichen Einrichtung zu tun. Sogenannte Review Editors kontrollieren, ob die Berichte linienkonform sind und auch bleiben. Diese Berichte bilden also die Basis der politischen und „wissenschaftlichen“ Diskussionen über die globale Erwärmung, da andere gesicherte Erkenntnisse totgeschwiegen werden. Wenn also über die Erderwärmung durch CO2 diskutiert wird, ist es zwingend zu erwähnen, ob man gekaufte Behauptungen oder die Erkenntnisse seriöser Wissenschaftler zur Argumentation benutzt.
Dazu ist zu sagen, dass man vor etwa 150 Jahren, als man mit der Aufzeichnung der CO2 Konzentrationen in der Atmosphäre begann, bis heute, der damalige Ausgangswert von 280 ppm auf 419 ppm im Mai 2019 angestiegen ist. Das heißt, in 139 Jahren stieg die CO2 Konzentration um 139 ppm. Um die Größe und Aussagekraft dieser Zahlen zu veranschaulichen, möchte ich darauf hinweisen, was das in Zahlen ausgedrückt bedeutet:
In 100 000 Luftmolekülen sind in 139 Jahren die CO2 Werte von 28 CO2 Molekülen auf 41,9 CO2 Werte angestiegen. Mit diesen CO2 Mengen eine CO2 Schicht aufzubauen, die wie bei den Treibhäusern die Wärme unter einer Glashaube zurückhält, liegt weit jenseits jeder Realität. Wenn es aber in derartigen Treibhäusern ebenso wie in einem in der Sonne geparktem Auto zu heiß wird, braucht man nur die Fenster zu öffnen, um die Temperatur der Umgebungstemperatur wieder anzugleichen. Logische Konsequenz: Ohne geschlossene CO2 Schicht in der Erdatmosphäre auch keine Klimaerwärmung. Siehe Zweiter Hauptsatz der Wärmelehre.
Zusammenfassung: Jeder logisch denkende Mensch wird sofort erkennen, dass diese CO2 Mengen keine entsprechende CO2 Schicht, aufbauen kann. Diese Schicht ist eine unhaltbare Behauptung des IPCC und wurde bis jetzt auch zu keinem Zeitpunkt nachgewiesen. Das bedeutet, dass die Erdatmosphäre wie die Treibhäuser mit Fenstern, offene Systeme sind und nach dem 2. Hauptsatz der Thermodynamik, Erdwärme in das kalte Universum abstrahlt, denn der zweite Hauptsatz der Thermodynamik, auch 2. Hauptsatz der Wärmelehre genannt, macht eine Aussage über die Richtung der Energieübertragung bei Vorgängen in Natur und Technik: Wärme geht niemals von selbst von einem Körper niederer Temperatur zu einem Körper höherer Temperatur über. Wenn man das den Schülern im Unterricht erklären würde, brauchten sie sich nicht zum eigenen Schaden als Helfeshelfer interessierter Kreise missbrauchen lassen. Erschreckend ist bei der ganzen Sachlage, dass offensichtlich auf der ganzen Welt kein Physiklehrer es wagt, den Schülern zu erklären, warum aus physikalischen Gründen 42 CO2 Moleküle unter 100 000 Luftmolekülen keinen Treibhauseffekt erzielen können. Wir haben es folglich mit einem „Friday for Stupids“ zu tun.
Die Riokonferenz zur Nachhaltigkeit von 1992 bereitete den internationalen politischen Boden für den ganzen Unsinn auf Grund wirtschaftlicher Interessen vor, unter aktiver Beteiligung der jetzigen Bundeskanzlerin, der promovierten Physikerin Frau Dr. Merkel, und schon wurde alle Kritik unterdrückt. Ihre Energiegesetzgebung wurde vor allem mit dem „Klimaschutz" begründet und dem Ziel den Atomkraftgegnern den Wind aus den Segeln zu nehmen. Schließlich sollte die konventionelle Energieversorgung nachhaltig zu Gunsten der Atomenergie abgebaut werden. Naturgesetze hin, physikalisches Grundwissen her und so wurde der Treibhauseffekt politisch hoffähig und das wissenschaftliche Establishment schwieg dienstbeflissen. Nach der Nuklearkatastrophe am 11. März 2011 im japanischen Kernkraftwerk Fukushima kam unsere Bundeskanzlerin innerhalb von 3 Tagen zu völlig neuen Erkenntnissen und beschloss spontan den Ausstieg aus der Kernenergie, obwohl erst kurz zuvor die Laufzeit der Kernkraftwerke verlängert worden war. Anstatt einen sinnvollen und geordneten Rückzug aus der Kernkraft, wurde völlig überstürzt die alternative Energiegewinnung angeordnet. Um die dadurch entstehenden Kosten einigermaßen abzudecken, war es notwendig und wichtig die Angst durch das angebliche Treibhausgas CO2 wieder hochzufahren und die öffentlich - rechtlichen Rundfunk- und Fernsehanstalten sorgten für ein entsprechendes Klimabewusstsein in der Bevölkerung, siehe Bericht über Demonstration in Aachen. Hier mussten wieder Polizisten und Polizistinnen, viele davon selber Eltern, ihren Kopf hinhalten, weil ihre Kinder in der Schule nicht gelernt hatten, dass CO2 nicht für die Klimaerwärmung verantwortlich ist.
Die Theorien der Vertreter der Theoretischen Physik über unser Weltbild beruhen auf willkürlichen Annahmen, der Verliebtheit von Mathematikern in die Eleganz und Symmetrie ihrer Formeln, der Fehlinterpretation von Experimenten und dem Ignorieren von Fakten und Naturgesetzen. So postulierte der Mathematiker und Theoretische Physiker Henri Poincaré: „Das Ästhetische ist mehr als das Logische die dominierende Komponente in der mathematischen Kreativität." Paul Dirac, britischer Physiker, Nobelpreisträger und Mitbegründer der Quantenphysik, wurde noch deutlicher: „Es ist wichtiger, dass eine Gleichung schön ist, als dass sie mit dem Experiment übereinstimmt." (12. Heft aus der Reihe: Gegenworte, Hefte für den Disput über Wissen - Martin Aigner: „Die pure Eleganz der Mathematik“).
Das kommt einem Offenbarungseid gleich und zeigt, wie gefährlich Mathematik in falschen Händen sein kann. Willkürlich werden Anfangszustände postuliert und Tatsachen verschwiegen, um Vorhersagen behaupten zu können, die nichts mit der Realität zu tun haben.
Die Ergebnisse der Eiskernbohrungen in der Antarktis und auf Grönland bezeugen, dass Temperaturerhöhungen im Durchschnitt 800 Jahre früher auftraten als der Anstieg der CO2-Konzentrationen in der Luft. (Dr. Davis Evans, Klimawissenschaftler, im „The Australian“ 18. Juli 2008). Der Grund für diese Zeitverzögerung ist die Tatsache, dass sich das Wasser der Weltmeere entsprechend später erwärmt als die Erdatmosphäre. Wenn sich das Wasser schließlich ebenfalls erwärmt, gast es das in ihm gelöste CO2 aus und die CO2 Werte in der Atmosphäre steigen auch nach einem erneuten Absinken der Temperaturen der Erdatmosphäre so lange weiter an, bis sich auch das Wasser der Weltmeere wieder abkühlt und CO2 aus der Atmosphäre wieder im Wasser gelöst wird und die CO2 Werte der Atmosphäre sinken wieder. Dieser Sachverhalt zeigt, dass der CO2-Anstieg als Folge einer Erderwärmung anzusehen ist und nicht umgekehrt. Diese Fakten besagen eigentlich alles über Ursache und Wirkung. Fakten sind aus wissenschaftlicher Sicht aber das Todesurteil selbst der schönsten Theorie. Hinzu kommt, dass diese Fakten unumstritten sind, wie Dr. Evans ausdrücklich versichert.
Wenn die Physiklehrer nicht schweigen, sondern die Schüler seriös unterrichten würden,
Hätten weder Medien noch Politiker eine Chance, dass sie die Bevölkerung weiterhin falsch informieren, um durch eine CO2 – Besteuerung den Bürgern in die Tasche zu greifen, sowie Banken und anderen Profiteuren die Lizenz zum Gelddrucken zu ermöglichen.
CO2 ist lebensnotwendig und nicht für die Erderwärmung verantwortlich.
Dr. Herwig Horst Schmidt
Ende der Abhandlung
************************************************************************************************************
Text zur Homöopathie
Text zur Klimalüge: CO2 ist nicht für die Klimaerwärmung verantwortlich.
Die Klimalüge. Inuit belehren westliche Eliten.
Die amerikanische Webseite »Natural News« berichtete, dass die Inuit (zurzeit die Sammelbezeichnung für die Völker Eskimos, Inupiat, Kalaalit, Yupik) sich im letzten Jahr an die NASA gewandt haben. Sie teilten der US-amerikanischen Raumfahrtbehörde mit, dass der Himmel sich geändert habe, viele Dinge sich gewandelt haben und sie vermuten, dass die Erdachse sich ein wenig verschoben haben könnte. Ihre Warnung verhallte bei der NASA ungehört.
Alle Inuitvölker im Polarkreis machen dieselben Beobachtungen. Sie glauben nicht, dass vom Menschen in die Atmosphäre entlassenes CO2 diese Veränderungen hervorrufen kann. Es geht nämlich nicht nur um Klimaveränderungen. Der Lauf der Sonne, ihre Aufgangspunkte und Untergangspunkte, die Stellung der Sterne und die Winde haben sich leicht, aber bemerkbar verschoben. Die Sonne geht im Winter früher auf und später unter. Früher habe es nur eine Stunde Licht im Mittwinter gegeben, heute sind es zwei. Die Tage werden länger und die Sonneneinstrahlung ist wesentlich höher. Sie beobachten die zunehmenden, schmelzenden Gletscher, die Verbrennungen an den Körpern der Seehunde und die Beschädigungen ihrer Haut. Die Ältesten behaupten, dass die Sonne seit einiger Zeit nicht mehr dort aufgeht, wo sie früher einmal aufging und die Tage wärmer geworden sind und spürbar länger dauern als früher. So ging früher nach der langen Winterpolarnacht die Sonne pünktlich am 13. Januar zum ersten Mal wieder über der grönländischen Stadt Ilulissat auf. Seit 2011 ereignet sich dieser erste Sonnenaufgang im neuen Jahr aber am 11. Januar.
Auch die Sterne und der Mond haben ihre Position am Himmel leicht verändert. Dies alles beeinflusst die Temperaturen, da sind sich die Ältesten der Inuit sicher. Sie haben von ihren Vorfahren wiederum die äußerst feine und aufmerksame Beobachtung der Natur, der Winde, des Himmels, der Sonnenauf- und Untergangspunkte gelernt, weil das für das Überleben dort in der gnadenlosen Eiswüste unabdingbar ist. Die Inuit beobachten all diese feinen Zeichen viel genauer und aufmerksamer und sind unbeeindruckt und unabhängig von einseitigen Medienberichten.
Erdachsverschiebung- die Beobachtung der Inuit - YouTube
https://www.youtube.com/watch?v=37RT2u9sA_Q
12.07.2011 - Hochgeladen von conrebbi
Sowohl die Beobachtungen der Inuit vom Jahreswechsel 2010/2011, als auch die Meldung der ...
Richtlinien für seriösen Journalismus:
Die Informationen müssen durch Darstellung der wesentlichen Materialien der eigenen Meinungsbildung dienen. Sie dürfen dabei nicht durch Weglassen wichtiger Tatsachen, durch Verfälschung oder durch Suggestivmethoden die persönliche Entscheidung zu bestimmen versuchen.
Es ist darauf zu achten, dass gegensätzliche Standpunkte möglichst gleichwertig behandelt werden. Werturteile über Personen und Tatbestände müssen als persönliche oder redaktionelle Meinung zu erkennen sein. Sie haben dem Gebot journalistischer Fairness zu entsprechen.
Die Medien und Politiker lügen nicht, sie manipulieren nur die Menschen und korrigieren die Fakten.
Die Irrlehre von der Klimaerwärmung durch CO2.
So wie die Inquisition wider besseres Wissen darauf bestand, dass sich die Sonne um die Erde zu drehen hat, weil die Kirche nicht zu kontrollierende Auswirkungen für den Glauben fürchtete, so beharrt unsere Regierung ebenfalls wider besseren Wissens im Interesse bestimmter Wirtschaftszweige darauf, dass sich das Klima auf unserem Planeten durch steigenden CO2 – Werte in der Atmosphäre als Folge vermehrter Verbrennung fossiler Energiequellen durch den Menschen erwärmt. Die Vorgehensweise der Bundesregierung gegen die Skeptiker, wie man heute die Ketzer früherer Zeiten nennt, ist zwar nicht so rustikal, dafür aber wesentlich effektiver mit verhängnisvollen Auswirkungen für unangepasste Wissenschaftler, einer breiten Öffentlichkeit und den ganzen Planeten.
Bereits vor 2400 Jahren hatte der griechische Astronom und Mathematiker Aristarchos von Samos (310-230 v.Chr.) darauf hingewiesen, dass die jahreszeitlichen Klimaänderungen auf unserem Planeten allein durch die Neigung der Erdachse auf ihrer Bahn um die Sonne und der dadurch bedingten unterschiedlich starken Sonneneinstrahlung sowie die Lage der Bahnebene der Erde zur Sonne bei deren Umrundung hervorgerufen werden. Bis heute wurde die folgenschwere Erkenntnis dieses Genies immer noch nicht ganz verstanden, obwohl inzwischen unstrittig ist, dass seine Argumentation, die Jahreszeiten seien nur durch die Neigung der Erdachse zur Sonne zu erklären, allgemein anerkannt wird. Aber im Interesse der Politik und bestimmter Lobbyisten hat unser Planet nicht zu wackeln oder die Ebene der Umlaufbahn um die Sonne zu verändern. Basta! Das wäre ja auch noch schöner, wenn die Natur machen könnte was sie will. Wie spottete dereinst Albert Einstein? „Wenn die Fakten nicht zur Theorie passen, ändere die Fakten .....!“
Seit mehr als 100 Jahren gehen einige Forscher davon aus, dass das bei der Verbrennung fossiler Brennstoffe freigesetzt CO2, wie auch andere chemische Verbindungen z. B. Methan und Lachgas (Distickstoffmonoxid), zur Klimaerwärmung beitragen kann. Allerdings besitzen diese chemischen Verbindungen ein deutlich höheres Erwärmungspotential als CO2.
Übersicht über wichtige anthropogene Treibhausgase
CO2 279 ppm 391 ppm
CH4 730 ppm 1803 ppm
N2O 270 ppm 324 ppm
Vorindustrielle Werte Werte von 2011
Der Energiehaushalt der Erde besteht aus einer feinen Bilanz kurzwelliger Sonnenstrahlung, die von der Erdoberfläche absorbiert und langwelliger Infrarotstrahlung, die wieder zum Weltall reflektiert wird. Der Treibhauseffekt soll darauf beruhen, dass ein großer Teil dieser Infrarotstrahlung von Molekülen in der Atmosphäre wie etwa CO2 oder Wasserdampf aufgenommen und wieder zur Erde reflektiert wird. Dabei wird verschwiegen, dass Gase die Eigenschaft haben, ausschließlich elektromagnetische Wellen ganz bestimmter Wellenlängen zu „absorbieren“ und wieder abzustrahlen. Eine Eigenschaft, die man bei der Spektralanalyse zur Identifizierung der Gase nutzt, denn jedes Gas absorbiert andere Wellenlängen oder Wellenlängenbereiche, die charakteristisch für dieses Gas sind. Wenn man die Licht- oder Wärmestrahlung angeben will, die absorbiert wird, nennt man die betroffene Wellenlänge bzw. den Weitenlängenbereiche. Diese sind unabhängig von der Temperatur des Gases. CO2 absorbiert Wärmestrahlung in drei Wellenlängenbereichen. Die Absorptionslinien des CO2 entsprechen den Temperaturen +759°C, +369°C und -80° C, also einem winzigen Ausschnitt des gesamten abgestrahlten Spektrums. Aber selbst diese Abstrahlung wird nur zum Teil auf die Erde reflektiert, da die Moleküle nach allen Seiten abstrahlen.
Im November 1957 hatte der Chemiker Keeling begonnen, mit einem neuen Analyse-Gerät den CO2-Gehalt der Luft kontinuierlich zu messen. Seine Messungen, aus denen sich die berühmte Keeling-Kurve ergab, legten den Grundstein für den Nachweis, dass die CO2-Konzentration in der Luft kontinuierlich ansteigt. Zur gleichen Zeit glaubte man einen Temperaturanstieg der Erdatmosphäre zu beobachten und so schloss man messerscharf, dass dies auf die von Menschen verursachten Emissionen von Treibhausgasen zurückzuführen ist, ohne zu überprüpfen, ob nicht eine zufällige Koinzidenz besteht. Wenn sich z. B. jemand eine Zigarette anzündet und gleicheitig ein Unwetter hereinbricht, so muss diesbezüglich kein Zusammenhang bestehen.
1958 lag der CO2-Gehalt der Luft noch bei 315 ppm. Keeling stellte bei seinen Messungen typische jahreszeitliche Schwankungen fest, die durch die Vegetation bedingt sind. Da es auf der nördlichen Halbkugel größere Landmassen und deshalb mehr Pflanzen gibt, wird im nördlichen Frühjahr mehr CO2 aufgenommen als im nördlichen Herbst, woraus sich das Zickzackmuster der „Atmung“ ergibt. 1960 veröffentlichte Keeling seine ersten Ergebnisse und wies erstmals auf eine leichte, aber kontinuierliche Zunahme der CO2-Konzentration als Folge der gesteigerten Verbrennung fossiler Brennstoffe durch die Industrie hin. Ohne irgendeinen Beweis zu liefern, behaupteten daraufhin interessierte Kreise, dass die Erderwärmung durch einen auf der Zunahme der CO2 Moleküle beruhenden Treibhauseffekt erfolge. Diese Argumentation ist umso erstaunlicher, als in den letzen 150 Jahren die Zahl der CO2 Moleküle von 238 um 122 Moleküle auf 400 unter einer Million anderer Luftmoleküle, einen Anstieg der Temperatur auf unserem Planeten um 1,5 bis 2 Grad bewirkt haben soll. Für die Klimalobbyisten galt bereits der gleichzeitige Anstieg von CO2 Molekülen und der Temperatur als Beweis, dass CO2 für die Klimaerwärmung verantwortlich ist. Ob ein tatsächlicher Zusammenhang zwischen den gemessenen Werten besteht, wurde nicht überprüft bzw. Kritiker einer derartigen Beweisführung mundtot gemacht. Schließlich galt es die Kritiker der Kernenergie zum Schweigen zu bringen.
Zum scheinbaren Beweis bediente man sich zusätlich käuflicher Wissenschaftler, die dank ihrer Abstraktionen, völlig unauffällig für den Laien, von der Wirklichkeit abheben und über Computermodelle, die ja das Ergebnis willkürlicher Vorgaben für die Mathematiker sind, die breite Öffentlichkeit täuschen. Man kann also je nach Vorgaben, auf jedes gewünschte Ergebnis hinrechnen.
Margret Thatcher, von Mai 1979 bis November 1990 Premierministerin des Vereinigten Königreichs, nutzte diese Vorgehesweise, um die Atomkraft durchzusetzen und die Bergbaugewerkschaften in Großbritannien zu zerschlagen. Ferner erklärte sie CO2 zum Klimagift, obwohl es viele andere Gründe gegeben hätte, Kohlekraftwerke abzulehnen. Nitrose Gase, Schwefeloxide, Stickstoffoxide, CO2 und Rußpartikel (Smog) waren damals bereits als Ursache für den sauren Regen, auftretende Atemnot sowie „Schwarze Wäsche“ und das Land Nordrheinwestfalen als „das Land ohne Sonne“ bekannt. Zwischenzeitlich wurden all diese Emissionen durch geeignete Filtertechniken, sowie andere chemische und physikalische Maßnahmen stark reduziert, aber CO2 als Klimakiller ließ sich leicht und erfolgreich vermarkten.
Der Philosoph Professor Dr. Klaus Fischer von der Universität Trierstellte in: „Die politische Konstruktion der Universitätskrise - Siebzehn Thesen zu einer merkwürdigen Diskussion.“ (November 1997, 51. Jahrgang, Heft 584, pp 1003-1011) Folgendes fest.
Seine 7. These lautet: „Das deutsche System der Forschungsförderung ist nicht auf das Erkennen des Außergewöhnlichen, sondern auf die Belohnung des konsensfähigen Mittelmaßes angelegt.“
Die These 15 lautet: „Die Zwänge des „peer- reviewing – Systems“ führen zu einer Konvergenz der Meinungen, die nicht durch Fakten und Überzeugungen, sondern von der Notwendigkeit geleitet wird, Verbündete im Kampf um Forschungsmittel zu suchen.“
Die These 17 spricht die Konsequenzen dieses Fehlverhaltens an: „Unsere Politiker werden es womöglich schaffen, die deutschen Universitäten tatsächlich so zu schädigen, dass diese These von ihrer „Verrottetheit“ nicht nur eine populistische Parole ist: Durch weitere Überlastung mit neuen Aufgaben, durch den Zwang der Verlagerung mit neuen Aufgaben, durch den Zwang der Verlagerung knapper Ressourcen von Forschung und Lehre auf Analyse des eigenen Innenlebens, durch weitere Politisierung der Wirtschaft, durch Mobilisierung von Ressentiments gegen Außenseiter, Innovateure und andere unabhängige Geister, die sich nicht in Zitations- und Begutachtungsnetzwerke einfügen wollen.“ Ende der Zitate
Im gleichen Jahr (am 11. Dezember 1997) wurde in Kyoto ein Abkommen zur Ausgestaltung der Klimarahmenkonvention der vereinten Nationen getroffen, in welchem Zielwerte für den Ausstoß von Treibhausgasen in den Industrieländern vereinbart wurden, da man diese Gase und insbesondere CO2 für die hauptsächliche Ursache der globalen Erderwärmung hielt. Bis Anfang 2011 hatten 191 Staaten sowie die Europäische Union das Kyotoprotokoll ratifiziet.
Bereits am 25. Oktober 1999 stellte der damalige Bundeskanzler Gerhard Schröder in seiner Rede zur Eröfnung der 5. Vertragsstaaten- oder Folgekonferenz der Klimarahmenkonventionen unter anderem fest: „Umweltschutz ist aber kein Luxus. Nur wenn wir die natürlichen Lebensgrundlagen der Menschheit dauerhaft schützen,kann es eine tragfähige und dauerhafte wirtschaftliche Entwicklung geben. Das gilt für das einelne Land genauso wie weltweit. Alles andere wäre ein gefährlicher Irrtum. In keinem Bereich tritt dies deutlicher zutage als bei der Erwärmung der Erdatmosphäre und dem Treibhauseffekt. Kein anderes Umweltproblem ist derart bedrohlich für die gesamte Menschheit. Gerade deshalb müssen wir zu Beginn der 5. Vertragskonferenz in Bonn die Frage stellen: „Wo stehen wir heute im Klimaschutz?“ Ende des Zitates.
Es nützte auch nichts, dass am 13. März 2001 der US-Präsident George W. Bush erklärt hatte: „I oppose the Kyoto Protocol!“, da er nicht an die CO2 – Lüge glaubte. Damit löste er zwar kurzzeitig einigen Wirbel aus, aber interessierten Kreisen gelang es, insbesondere in der Bundesrepublik Deutschland, wieder schnell die Weltöffentlichkeit einzuschläfern. Damals wies Herr Bush auch zu Recht darauf hin, dass CO2 nach dem Luftreinhaltegesetz nicht zu den Luftschadstoffen zählt. Ohne CO2 würden schließlich weder Pflanzen wachsen noch Tiere und Menschen leben. Die teils unsachliche Kritik des jetzigen US-Präsident Trump am Pariser-Klimaabkommen ist aber insofern hilfreich, als sie dazu geführt hat, dass diese Problematik noch einmal weltweit diskutiert wird.
Bereits 2001 wurden von drei deutschen Behörden, nämlich der Bundesanstalt für Geowissenschaften und Rohstoffe in Hannover (eine nachgeordnete Behörde des Bundeswirtschaftsministeriums), dem Institut für Geowissenschaftliche Gemeinschaftsaufgaben und dem Niedersächsischen Landesamt für Boden-forschung, die Erkenntnisse ihrer wissenschaftlichen Mitarbeiter durch die Autoren Ulrich Berner und Hansjörg Streif in Buchform auf 238 Seiten dargelegt und veröffentlicht. Die Wissenschaftler dieser Behörden kamen im Hinblick auf den Zusammenhang zwischen der Zunahme des Treibhausgases CO2 und der Erderwärmung in den letzten 150 Jahre zu der Schlußfolgerung, dass „die beobachteten Temperaturanstiege bzw. -abnahmen ohne Bezug zu CO2 erfolgten.“ Das Buch erschien 2001 im Stuttgarter Fachverlag E. Schweizerbart unter dem Titel „Klimafakten. Der Rückblick - Ein Schlüssel für die Zukunft“.
Der Verlag schreibt zu dem Buch: „Wenige Themen nehmen heute in Politik und Medien ähnlich breiten Raum ein wie Klima - Klimaänderungen - Klimakatastrophen. Meist geht es dabei um mögliche Auswirkungen menschlicher Eingriffe in das Klimasystem. Oft unterschätzt man allerdings das Ausmaß und die Dynamik natürlicher Klimaschwankungen. Rückblickend auf die Erdgeschichte legen Geowissenschaftler im vorliegenden Sachbuch ihr umfangreiches Wissen über das Klima vergangener Zeiten vor. Aus den hinterlassenen Gesteinen, dem Grundwasser und dem Eis großer Gletscher gewinnen sie eine Fülle von Informationen, wie z.B. über Wassertemperaturen ehemaliger Ozeane, die Luftfeuchtigkeit bzw. Trockenheit untergegangener Kontinente oder die Gaszusammensetzung einer früheren Atmosphäre. Dieser Rückblick ist gleichzeitig auch ein Schlüssel für die Zukunft, weil er eine Bewertung der verschiedenen im Klimasystem wirksamen Faktoren erlaubt. Hervorzuheben ist dabei, dass nicht das oft zitierte Kohlendioxid bestimmender Faktor des Klimageschehens ist. Vielmehr treibt die Sonne wie ein Motor die klimawirksamen Prozesse in der Atmosphäre, den Ozeanen und in der Biosphäre an. Zahlreiche Belege aus der Natur sprechen für eine wahre "Achterbahnfahrt" des Klimas durch die Erdgeschichte. Wer mehr zum Thema Klima erfahren möchte, findet in diesem Buch umfassende, auch dem Laien verständliche Informationen. In anregender Form sprechen die Autoren offene Fragen an und vermitteln neue Denkanstöße. Erstmalig wird hier aus der Sicht der Geowissenschaft Stellung zur aktuellen Klimadiskussion bezogen. Mit dem hier vorgelegten, erheblich erweiterten Hintergrundwissen sind viele bisher getroffene Aussagen zum Thema Mensch und Klima höchst kritisch zu bewerten.“
Auch beim 58. Nobel Laureate Treffen in Lindau vom 29.06. - 04.07.2008 wurde durch den Vortrag von Dr. David Evans auf Grund fundierter Forschungsergebnisse der Nachweis erbracht, dass CO2 – nicht für die derzeitige Klimaerwärmung verantwortlich ist, wie interessierte Kreise glaubhaft machen wollen.
In seinem Vortrag „No smoking hot spot“ führte Dr. David Evans damals aus, dass die Ergebnisse der Eiskernbohrungen in der Antarktis und auf Grönland bezeugen, dass Temperaturerhöhungen im Durchschnitt 800 Jahre früher auftraten als der Anstieg des CO2 - Niveaus. Der späte Anstieg der CO2 - Werte beruhe darauf, dass sich die Erdatmosphäre schneller erwärmt, als das Wasser in den Meeren. Wenn sich Wasser erwärmt, wird das im Wasser gelöste CO2 freigesetzt und an die Erdatmosphäre abgegeben. Wenn sich die Atmosphäre zu einem späteren Zeitpunkt wieder abkühlt, kühlt sich entsprechend später das Wasser der Meere wieder ab und CO2 löst sich wieder aus der Erdatmosphäre. Der CO2 - Wert in der Erdatmosphäre sinkt folglich auch. Das sagt eigentlich alles über Ursache und Wirkung!
Die Öffentlichkeit und unsere Politiker kennen offensichtlich nicht die maßgebenden Zusammenhänge und Fakten: Denn keiner der von Dr. Evans erwähnten Punkte ist umstritten. Selbst die Klimaalarmisten stimmen ihnen zu, bezweifeln aber ihre Bedeutung.
Eine offene Diskussion zu diesem Thema wurde in den letzten 18 Jahren zu keinem Zeitpunkt geführt, die Öffentlichkeit wurde gebetsmühlenhaft einseitig von allen Medien und Parteien einseitig informiert und mit Panikmache, statt Durchsetzung gesicherter seriöser und effektiver Maßnahmen, riesige Geldsummen „verbrannt“.
Unwillkürlich fragt man sich nach der Logik, die hinter einer derartigen Ablehnung steckt. Die Argumente der Klimaalarmisten, dass Berechnungen die Klimaerwärmung durch CO2 ergeben, sind keine Beweise, weil die Ergebnisse von den jeweiligen Vorgaben abhängen und wenig über die damaligen Umweltverhältnisse aussagen. Die unterschiedlichsten Wechselwirkungen waren und sind derart komplex, dass sie zu keinem Zeitpunkt erfasst und seriös dargestellt werden können. Sind die Vorgaben jedoch falsch, kann das Ergebnis nicht richtig sein. Die Bohrkerne zeigen zwar eindeutige Ergebnisse, sagen aber nichts über die Ursachen aus.
In der Eröffnungsrunde der 58. Nobel Laureate Treffen in Lindau vom 29.06. - 04.07. äußerte sich Porfessor Giaever (Nobelpreisträger 1973) wie folgt: „Die globale Erwärmung ist zu einer neuen Religion geworden. Alltäglich hören wir von der großen Anzahl von Wissenschaftlern, welche diese unterstützen. Aber nicht die Anzahl ist entscheidend, sondern diejenigen die Recht behalten.“ Ende des Zitates.
Auch die beiden Diplomphysiker der TU Braunschweig, Prof. Dr. G. Gerlich und Dr. R. D. Tscheuschner haben auf 114 Seiten den angeblichen atmosphärischen Treibhauseffekt eindeutig widerlegt, indem sie unter anderem auch nachweisen konnten, dass diese Theorie gegen den zweiten Hauptsatz der Thermodynamik verstößt, was aber von den Medien in Deutschland weitgehend totgeschwiegen wird. Diese beiden Wissenschaftler führen zudem unter anderem an, dass es keine gemeinsamen physikalischen Gesetze zwischen dem Erwärmungsphänomen in einem Glasgewächshaus und dem fiktiven atmosphärischen Treibhauseffekt gibt.
So gibt es immer wieder mutige Wissenschaftler, die riskieren von den Medien und Politikern öffentlich mit unbewiesenen Behauptungen angegriffen zu werden, weil Fakten geleugnet und Naturgesetze ignoriert werden. Übereinstimmungen in der Vorgehensweise der Inquisition im Mittelalter und unserer heutigen Regierung sind keineswegs zufällig, sondern traurige Wirklichkeit. Fakten sind aber aus wissenschaftlicher Sicht das Todesurteil jeder Theorie.
Dennoch hindert das weder die Printmedien, noch die angeblich unabhängigen Rundfunk- und Fernsehanstalten, den Menschen die Erderwärmung weiterhin durch CO2 zu suggerieren, anstatt darauf hinzuweisen, dass der Klimawandel nicht durch den Menschen zu beeinflussen ist.
Jeder interessierte Bürger konnte wiederholt bei den unterschiedlichen Fernsehdokumentationen im Privatfernsehen über die Entstehung von Wüsten, insbesondere der Sahara, lesen, sehen und hören, dass als Ursache für deren Klimawandel eine geringgradige Veränderungen der Neigung der Erdachse zur Sonne bw. eine leichte Veränderung der Bahnebene der Erde um die Sonne angesehen wird, was eine unterschiedlich intensive Sonneneinstrahlung auf unseren Planeten zur Folge hatte. Bei öffentlich-rechtlichen Rundfunk- und Fernsehanstalten habe ich dergleichen noch nie wahrgenommen. Spätsendungen, wenn die arbeitende Bevölkerung ihre verdiente Nachtruhe genießt, will ich aber nicht gänzlich ausschließen. In einem derartigen Fall muss man zwar nicht gleich von „Lügenpresse“ sprechen, aber unter seriösem Journalismus versteht man eigentlich etwas anderes. Auch „Zensur“ ist vielleicht ein zu starkes Wort, aber „gelenkte Information“ dürfte die passende diplomatische Formulierung sein.
Die Behauptungen über die angebliche Versauerung der Weltmeere durch CO2 braucht man ebenfalls nicht ernst zu nehmen. Die Vertreter dieses Horrorszenariums verschweigen nämlich, dass einige 100 Millionen Jahre vor unserer Zeitrechnung sich die damaligen Meereslebewesen vom Kambrium bis zur Kreidezeit, also vor rund 540 bis etwa 65 Millionen Jahren, trotz eines bis zu 20fach höheren CO2-Gehalts bester Gesundheit erfreut haben. Überall auf der Erde beweisen zahllose, teils hunderte von Metern dicke Kalk- und Kreideschichten, dass die Meereslebewesen imstande waren, gesunde und vollständige Kalkskelette auszubilden. Die Geologie beweist dies in Form gut erhaltener Kalkfossilien in nahezu unendlichen Stückzahlen. Rund 80% der gesamten Kohlenstoffvorräte der oberflächennahen Zonen der Erde sind heutzutage in Form von Kalkstein und Dolomit gebunden. Aber das wird alles totgeschwiegen.
Tatsache ist, dass das Klima unseres Planeten nicht durch CO2 beeinflusst wird, sondern durch kosmische Einflüsse, die für die Neigung der Erdachse, der Umlaufebene und die Sonnenaktivität verantwortlich sind.Während die Planeten um die Sonne kreisen, üben sie u.a. auch gegenseitig gravitative Kräfte aufeinander aus, was zur Folge hat, dass nicht nur in den großen Zeiträumen, in denen die Erdachse ihre Neigung und Umlaufebene zur Sonne deutlich und langfristig verändert, anhaltende Klimaveränderungen (wie z.B. die langen Eiszeiten auf unserem Planeten) auftreten, sondern dass bereits kleinere, kurzfristige Schwankungen der Erdachsenneigung und/oder der Erdumlaufbahn ebenfalls zu vorübergehenden Klimaveränderungen, wie die zur Zeit zu beobachtende Klimaerwärmung, führen können.
So lassen sich die Wechsel zwischen den Eiszeiten und Warmphasen der vergangenen ein bis zwei Millionen Jahre auf kleine periodische Schwankungen in der Erdbahn um die Sonne zurückführen, die sich jedoch, da es sich um ein Vielkörperproblem handelt, nicht im Voraus berechnen lassen. In diesem Zusammenhang sei auf die „kurze Eiszeit“ im Mittelalter hingewiesen, die als Folge einer kurzfristigen Neigungsveränderung der Erdachse zur Sonne anzusehen ist und auf die Desertation der Sahara vor etwa 8000 Jahren, die durch eine Veränderung der Bahnebene der Erdumlaufbahn um die Sonne entstanden sein dürfte und deshalb langfristige Auswirkungen das Klima hat.
Übrigens gibt es zwischenzeitlich Spezialkameras, die auch schon industriell genutzt werden, um CO2 sichtbar zu machen. Sogar Atemluft lässt sich nachweisen (19.11.2016; www.spiegel.de; Wissenschaft, Natur, Klimawandel. CO2: Spezialkamera macht Kohlendioxid sichtbar). Wenn diese Kamera auf einen bestimmten Wellenmengenbereich im Infraroten, in dem CO2 Wärmestrahlung absorbiert wird, gerichtet wird, kann man CO2 als dunkle Kontrastwolke vor dem Hintergrund erkennen.
Die Erklärung, aus welchem Grund der CO2 – Anstieg erst etwa 800 Jahre nach einer beginnenden Erderwärmung auftritt, ist die Erkenntnis seriöser Wissenschaftler, die nicht bereit sind, sich dem weltweiten Mainstream unterzuordnen. Dass CO2 im Wasser gebunden wird, kann jeder beim Öffnen einer Mineralwasserflasche erkennen, wenn sich die Gasblasen bilden und unterschiedlich schnell aufsteigen. Nun ist die Lösung von CO2 im Wasser nicht nur von der jeweiligen Temperatur abhängig, sondern auch von den jeweiligen Druckverhältnissen. Wenn sich also die Meere erwärmen, setzen sie gelöstes CO2 in Form von Gasblasen frei. Dieser Vorgang führt aber gleichzeitig wieder zu einer Abkühlung, wie jeder, der schon einmal geschwitzt hat, sich erinnern dürfte. Beim Sinken der Umwelttemperaturen löst sich wieder mehr CO2 im Wasser und der CO2-Wert sinkt wieder. Der gleiche Effekt ist während der unterschiedlichsten Vegetationsphasen zu beobachten. Das ist auch der Grund, weshalb sich die Erde wieder abkühlen konnte, obwohl sich in der Atmosphäre ungleich höhere CO2 Konzentrationen als heute nachweisen ließen.
Wenn sich trotzdem unsere Bundeskanzlerin Merkel, eine promovierte Physikerin, von „Experten“ umgibt, die glauben, sich über Naturgesetze hinwegsetzen zu können, dann machen wir uns nicht nur lächerlich, sondern fallen wieder in das Mittelalter zurück.
Die Befürworter der CO2 - Reduzierung argumentieren hier folgendermaßen: Weil es zu dieser oder jener Zeit weltweite Temperaturerhöhungen gab, muss dieser Temperaturanstieg auf die damals herrschenden CO2-Werte bezogen werden. Man benutzt also Temperatur- und CO2-Werte aus der Vergangenheit zum Beweis der anthropogenen Klimaerwärmung, ohne den Beweis erbracht zu haben, dass ein Zusammenhang zwischen diesen beiden Werten besteht. Schließlich kommt es gerade auf den Temperaturverlauf und seine Übereinstimmung mit dem Kohlendioxidgehalt in der Vergangenheit an. Wenn sich diese angebliche Übereinstimmung in der Vergangenheit nicht zeigt - und sie tut es nicht -, dann bricht die ganze Theorie des vom Menschen gemachten Treibhauseffektes wie ein Kartenhaus in sich zusammen. Schließlich behauptet heute wohl kaum ein Mensch, dass der Geburtenrückgang in Deutschland damit zusammenhängt, dass die Zahl der Störche ebenfalls rückläufig ist.
Zu den Klimaverhältnissen in der Antarktis schreibt das Umweltbundesamt unter:
www.umweltbundesamt.de/themen/.../antarktis/die-antarktis/das-klima-der-antarktis:
„Die sehr niedrigen Temperaturen in der Antarktis gehen im Wesentlichen auf den geringen Eintrag von Strahlungsenergie zurück. Im Südsommer – wenn auf der Nordhalbkugel Winter herrscht – ist der Südpol zur Sonne geneigt und es herrscht 24 Stunden lang Tag. Wegen der Schiefe der Ekliptik, also der Neigung der Erdachse von 23,5° zur Ebene ihrer Umlaufbahn um die Sonne, treffen die Sonnenstrahlen selbst im Südsommer nur sehr flach auf die Oberfläche der Antarktis. Zusätzlich besitzt der Schnee ein starkes Reflektionsvermögen (Albedo), so dass die Sonnenenergie zum größten Teil gar nicht aufgenommen wird und die Wärmeabstrahlung größer als die Sonneneinstrahlung ist (negative Strahlungsbilanz der Antarktis). Selbst im Südsommer bei ganztägiger Sonneneinstrahlung erwärmt sich die Antarktis nicht nennenswert. Im Südwinter (Nordsommer) herrscht am Südpol wegen der Neigung der Erdachse von der Sonne weg 24 Stunden lang Nacht, so dass keine Sonnenstrahlung den Kontinent erwärmt.“ Ende des Zitates.
Es lässt sich also durchaus nachvollziehen, warum das Eis in der Arktis schneller schmilzt als in der Antarktis und man bekommt gleichzeitig eine Vorstellung, welche Bedeutung eine Abweichung der Neigung der Erdachse zur Sonne hat.
Heute weiß man, dass nicht nur die Sonne und die Erde exzentrische Schwerpunkte haben, was allein schon bei der Berechnung der Erdachsenneigung auf ihrer Umlaufbahn um die Sonne Probleme bereitet, nein, auch der Mond und die anderen Planeten wirken auf unsere Erde und letztlich auch auf die Sonne ein. Das führt dazu, dass die Erde auf ihrer Umlaufbahn förmlich um die Sonne eiert. Die Mathematiker haben es folglich mit einem unbewältigten mathematischen Mehrkörperproblem zu tun und können deshalb nur bestätigen, dass, wie bereits erwähnt, die Erdachse und die Bahnebenen sich nicht nur in großen Zyklen, sondern auch permanent unterschiedlich stark in Form von kleineren Abweichungen verändern, sich also quasi chaotisch verhalten. Dies führt zwangsläufig zu unterschiedlich intensiver und unregelmäßiger Sonneneinstrahlung auf unseren Planeten und hat die schon lange bekannten und nachgewiesenen Klimaveränderungen zur Folge.
Diesen Sachverhalt kann jeder leicht überprüfen, wenn er verfolgt, wie sich die Temperatur mit dem jeweiligen Sonnenstand verändert. Aus diesem Grunde ist es zu Mittag am wärmsten, wenn die Sonne am höchsten steht. Die Erde umrundet die Sonne in einer quasi chaotischen Umlaufbahn in unterschiedlicher Entfernung. Da es sich um ein multifaktorielles Problem handelt, lassen sich auch keine hinreichend genauen bzw. längeren Vorhersagen machen.
Am Montag, den 8. Juni 2015 berichtete der General-Anzeiger aus Bonn ausführlich über die Klimaerwärmung und ihre möglichen Ursachen, da Herr Thomas Litt, Professor für Paläobotanik am Steinmann-Institut in Bonn und Leiter des Internationalen Forscherkonsortiums Paleovan, die Ergebnisse seiner aktuellen Forschertätigkeit im Fachmagazin „Quaternary Science Reviews“ in mehreren Artikeln veröffentlicht hatte. Er führte in dem in der Osttürkei liegenden Vansee, der siebenmal so groß wie der Bodensee ist, fünf Jahre lang Erdkernbohrungen durch. Die Auswertungen des Sedimentes in den Bohrkernen ergaben eindeutige Ergebnisse. Das Sediment dieses Sees, das, was allgemein anerkannt ist, wegen seiner Lage und seines Alters die Vorgänge in der Umwelt seit Urzeiten in seinen Sedimentschichten gespeichert hat, „informiert“, vergleichbar den Seiten eines Buches, über alle Veränderungen in der Zeitspanne seines Bestehens. Der lückenlose Kalender umfasst insgesamt sechs Zyklen aus warmen und kalten Perioden und erzählt eine Geschichte der natürlichen Klimaschwankungen, die zeitlich synchron zu den periodischen Schwankungen der Erdbahn um die Sonne verlaufen. Es ist weitgehend unstrittig, dass die CO2-Werte um 122 Moleküle bei 1 000 000 Luftteilchen in den letzten 150 Jahren angestiegen sind. Es ist auch unbestritten, dass dieser Anstieg weitgehend von den Menschen verursacht wurde. Es ist aber keineswegs bewiesen, dass der geringe CO2-Anstieg eine Erderwärmung zwischen 1 und 2 Grad Celsius verursacht hat. Hier handelt es sich vielmehr um ein zufälliges Zusammentreffen zweier Vorgänge, die nichts miteinander zu tun haben, aber so wird es, aus welchen Gründen auch immer, den Leuten eingeredet. Auf Grund der oben beschriebenen Tatsachen sind Erdkernbohrungen ein ideales Klimaarchiv und lassen Rückschlüsse auf die Klimaverhältnisse auf unserem Planeten während mehrerer Jahrhunderttausende zu.
Professor Litt schreibt u. a.: „Die Ergebnisse zeigen, dass das Klima in den vergangenen Hunderttausenden Jahren auf der Nordhalbkugel Achterbahn gefahren ist. Innerhalb weniger Jahrzehnte konnte es kippen und von Eiszeit auf Warmzeit und umgekehrt umschalten.“ Ende des Zitates.
Unsere Bundeskanzlerin, eine promovierte Physikerin, ignoriert nicht nur die Argumente ihrer Kollegen, sondern auch die anderer Wissenschaftszweige, die die gesamte Irrlehre von der Erderwärmung durch CO2 ad absurdum führen. Wenn sich aber eine Bundeskanzlerin, die ja bekanntlich die Richtlinien der Politik bestimmt, über Naturgesetze hinwegsetzt, indem sie nicht dem logischen Denken und dem Sachverstand seriöser Wissenschaftlern, sondern dem Mainstream folgt, um durch Mehrheitsmeinungen, welche von den Medien durch entsprechende Berichterstattungen befeuert werden, bestimmte Interessen durch-zusetzen, werden nicht nur sinnlose Unsummen an Steuergeldern „verbrannt“, dann ist auch die Demokratie in Gefahr, weil auf diese Weise abweichende Meinungen von der bestimmenden Kanzlerinnenmeinung als unbedeutende Spinnereien abgetan werden. Für mich ist unter diesen Bedingungen auch nicht nachvollziehbar, warum Politiker öffentlich einen Amtseid ablegen.
Ende 2015 haben sich die Regierungsvertreter von über 190 Ländern, also fast der gesamten Weltgemeinschaft, auf der internationalen, in Paris stattfindenen Klimaschutzkonferenz erneut darauf geeinigt, alles daran zu setzen, die Erderwärmung durch Drosselung der CO2-Produktion auf höchstens 2 und möglichst auf 1,5 Grad zu begrenzen. Dieses kostspielige globale Abkommen, welches auch von China und der USA (noch unter Obama) ratifiziert wurde, hat zwar keinen Einfluss auf die Klimaerwärmung, führt aber bei seiner Umsetzung in diesen Ländern zwangsläufig zu enormen Fehlinvestitionen, also „verbrannten Steuergeldern“, die an anderer Stelle dringend benötigt werden.
Allgemein erkennbar leben Politiker und ein Großteil ihrer Berater in einer Welt der Kompromisse, des Kuhhandels, der Konsensmeinungen, Meinungsmache und Mehrheitssuche. Jeder versucht seine Position zu verteidigen und zu festigen. Unter diesen Voraussetzungen ist der aktuelle Rundumschlag des US-Präsidenten Trump bezüglich des Klimawandels eine wohltuende Intervention, denn wer alles negiert, schafft nach den Erkenntnissen der Chaosforschung die Chance eine neue Ordnung entstehen zu lassen. In der Fischwirtschaft würde man von einem Hecht im Karpfenteich sprechen. Er ist ein übliches Mittel, die trägen Karpfen in Bewegung zu halten, damit sie Muskelfleisch entwickeln. Besonders im 19. Jahrhundert wurde diese Redewendung viel in der politischen Satire und Karikatur gebraucht und auf verschiedene Herrscherfiguren (Napoleon III., Bismarck u. a.) angewendet.
Die zur globalen Verminderung der CO2 -Emissionen vorgesehenen riesigen Summen sollten, anstatt sie sinnlos zu vergeuden, besser und wirkungsvoll sowohl zur Minderung der durch den unbestrittenen Klimawandel bereits eingetretenen sowie der zukünftigen Schäden und zur weitgehenden Reduzierung von Luftschadstoffen verwandt werden, denn alle Menschen brauchen weltweit dringend saubere Luft, reines Trinkwasser und gesunde Böden und Meere. Es ist erschreckend, wie man seriöse Wissenschaftler wirkungsvoll mundtot macht und ihre vorausschauenden Warnungen missachtet. Außerdem wäre es immens wichtig, so schnell wie möglich umfangreiche bauliche und andere wichtige Maßnahmen zu ergreifen, um gegen die Folgen zukünftiger Naturkatastrophen besser gewappnet zu sein.
Saurer Regen wird durch Verteilung der Schadstoffemissionen in der Atmosphäre infolge von Luft-strömungen häufig in weit entfernten Regionen verbracht. Das bedeutet, dass der Verursacher und der Empfänger von saurem Regen oft verschiedene Staaten sind. Durch die Luftverschmutzung kommt es zur Wasserbelastung und Bodendegradation, bei denen es sinnvoll ist, aufgrund der Gemeinsamkeiten die Ursachen oder Folgen als ein System zu begreifen. So werden Bäche, Flüsse, Seen und Küstenregionen durch den sauren Regen geschädigt. In Schweden etwa waren einzelne Seen so versauert, dass sie ohne jegliches Leben waren. Sie hatten teilweise einen pH-Wert von weniger als 3, waren also in etwa so sauer wie Haushaltsessig. Wie oben berichtet wurde, kann ein derart saurer Regen nicht durch den hohen Ausstoß von Kohlenstoffdioxid entstehen. Verantwortlich für einen pH-Wert des Wassers unter 5,6 müssen andere chemische Verbindungen sein. Die Schadstoffe, die für den sauren Regen verantwortlich sind, sind Stickstoffmonoxid, Stickstoffdioxid, Schwefeldioxid und Phosphorverbindungen.
Diese Verbindungen bilden die stärksten Säuren und vernichten im Wasser und in den geschädigten Böden viele Mikroorganismen, was wiederum eine Verschlechterung der Wasser- und Bodenqualität zur Folge hat. Die oben angeführten Verbindungen kommen zwar auch ohne das Zutun des Menschen in der Natur vor: Z.B. entstehen Stickstoffoxide bei Zersetzungsprozessen im Boden und Schwefeloxide werden von Vulkanen freigesetzt. Diese gasförmigen Oxide reagieren mit den Wassermolekülen in der Luft und bilden so den sauren Regen. Die Hauptmenge dieser Schadstoffe wird jedoch vom Menschen erzeugt und ausgestoßen, vor allem bei der Verbrennung von fossilen Brennstoffen in Kraftwerken, Haushalten und Verkehr, obwohl man auch hier mit geeigneten Maßnahmen Abhilfe schaffen könnte: Der vom Menschen produzierte Rauch besteht aus einem Gemisch unterschiedlichster fester Teilchen in einer gasförmigen Phase und kann zusammen mit Ruß beträchtliche Umwelt- und Gesundheitsschäden bei Menschen, Tieren und Pflanzen verursachen. Es wäre folglich viel sinnvoller diese Umweltgifte zu eliminieren oder wenigstens stark zu reduzieren, da durch sie aktuell ein größerer Schaden verursacht wird, als von dem angeblichen Klimakiller CO2 je zu erwarten ist.
Wasserdampf ist das wichtigste natürliche Treibhausgas. Da der Wassergehalt in der Luft von der Temperatur abhängig ist, nimmt der Gehalt an Wasserdampf in der Atmosphäre mit steigenden Temperaturen zu und verstärkt damit die Auswirkungen anderer Treibhausgase.
Ein Kubikmeter Luft kann bei folgenden Umgebungstemperaturen maximalnachstehend angegebenenGramm Wasser aufnehmen:
0°C ca. 5g Wasser
10°C ca. 9g Wasser
20°C ca. 17g Wasser
30°C ca. 30g Wasser
40°C ca. 50g Wasser
50°C ca. 80g Wasser
60°C ca. 120g Wasser
80°C ca. 300g Wasser
Stark erhöhte Luftschadstoffkonzentrationen als Folge von allen möglichen Emissionen verursachen nicht nur nebelartige Dunstglocken, den sogenannten Smog, sondern führen auch zu erheblichen Gesundheitsschäden. Durch entsprechende Filter sowie chemische und physikalische Trennungsverfahren kann man diese Luftverschmutzung in den Griff bekommen, wenn man nur entsprechende Geldmittel locker macht. Ein Eindrucksvolles Beispiel effektiver Bekämpfungsmaßnahmen sind die Neuen Bundesländer. Wenn man also weltweit derart fahrlässig mit der Reinhaltung der Luft umgeht, werden Millionen von Menschen an den Schadstoffen in der Luft sterben, bevor sie die durch die Folgen einer fiktiven, durch CO2 verursachten Erderwärmung Schaden erleiden.
Doch nach wie vor werden Naturgesetze ignoriert und der in den letzten Jahren ansteigende CO2 - Gehalt der Atmosphäre weiterhin als der „Klimakiller“ dargestellt, dessen „Freispruch“ aus wirtschaftlichen und/oder politischen Interessen für die Regierenden der meisten Länder nicht in Frage kommt, weil sie, wie die meisten Menschen, bedenkenlos den Behauptungen der von dem Establishment und den Lobbyisten geförderten und von den Medien ins öffentliche Rampenlicht gehobenen, wie „Gurus“ auftretenden „Klimaexperten“ mehr Vertrauen schenken, als den auf exakten Untersuchungsergebnissen basierenden Aussagen der zahlreichen seriösen aber „totgeschwiegenen“ Wissenschaftlern. Im Internet sind zahlreiche seriöse Veröffentlichungen von Wissenschaftlern nachzulesen, die nicht bereit sind, dem Mainstream zu folgen, aber von mächtigen Interessensgruppen im günstigsten Fall als „Klimaskeptiker“ disqulifiziert und ins Abseits gestellt werden.
Trotz Fukushima haben auch die japanischen Regierungsvertreter offensichtlich nichts dazu gelernt. So kann man im Internet (unter http://www.spiegel.de/wissenschaft/technik/fuenf-jahre-fukushima-japans-ungenutzte-chance-a-1081070.html. ( geschrieben: Freitag, den 11.03.2016, 11:38 Uhr) den folgenden Beitrag finden: „Zusammengefasst: Umfragen zufolge lehnt die Mehrheit der Japaner den nuklearen Neustart ab. Doch fünf Jahre nach der dreifachen Kernschmelze von Fukushima zeigt die Atomlobby keine Reue. Langfristig will das Land zwar nur noch ein Fünftel des Stroms aus Kernenergie erzeugen. Doch die Atombosse möchten so schnell wie möglich weitere Kernkraftwerke wieder hochfahren, die nach dem Desaster von 2011 zeitweise abgeschaltet worden waren.“ Ende des Zitates.
Da trifft es sich gut, dass gerade in einer derart verfahrenen Situation die Asahi Glass Foundation in Japan den renommierten Blue Planet Prize, kurz vor dem G20 – Gipfel in Hamburg im November dieses Jahres, rein zufällig, den Blue Planet Prize an Hans Joachim Schellnhuber, einen vehementen Vertreter der CO2 – Klimalüge, vergibt, der als PIK-Direktor weitreichende Einflussnahme auf die internationale Klimapolitik hat und u.a. auch unsere Bundeskanzlerin Frau Dr. phil. nat. Angela Merkel berät, welcher politische Entscheidungen offensichtlich ebenfalls wichtiger als Naturgesetze sind. Honi soit qui mal y pense.
Auf der Suche nach Lösungen und Ideen, welche langfristig von direktem oder indirektem gesellschaftlichen Nutzen sind, braucht die Klimapolitik wissenschaftliche Beratung durch unabhängige und neutrale Wissenschaftler. Die Rollen von Wissenschaft und Politik müssen allerdings klar definiert und getrennt bleiben. Das ist aber praktisch unmöglich, da die Politik einerseits die nötigen finanziellen Mittel bereitstellt und verteilt und andererseits die auch „Scientific Community“ genannte Wissenschaftsgemeinde, über ein interessengesteuertes gut funktionsfähiges eigenes weltweites Netzwerk verfügt, in dem auch die Weichen für Karrieren gestellt werden und man mit den Wölfen heulen muss, will man die eigene Protektion innerhalb der Wissenschaften aufbauen.
Doch erfreulicher Weise eröffneten sich im Laufe der Menschheitsgeschichte immer wieder Zeitfenster, die zu entscheidenden Paradigmenwechseln führten. Schließlich blieb unser Planet trotz aller Widerstände auch nicht für alle Zeiten eine flache Scheibe und das Zentrum des Universums. Jedoch brauchte solch ein Vorgang stets Zeit und viele Opfer. In unserer so schnelllebigen Gegenwart wird man nicht von heute auf morgen umdenken. Die Konzerne sind zu einflussreich und die Öffentlichkeit zu passiv und zu gutgläubig. Immerhin dauerte es fast 2500 Jahre, bis die Erkenntnisse des griechischen Astronomen und Mathematikers Aristarchos von Samos, dass die Erde um die Sonne kreist, unser Planet eine kugelförmige Gestalt besitzt und die Jahreszeiten nur durch die Neigung der Erdachse zur Sonne erklärt werden können, allgemein akzeptiert wurden.
Unter den derzeitigen Umständen wird die Menschheit allerdings nicht noch einmal so viel Zeit zum Überlegen haben, da sie sich zuvor selbst eliminieren wird.
©
==============================================================================================================
Kosmologie in der Sackgasse.
Die Theorie wie der Kosmos entstand, wird von dem wissenschaftlichen Establishment mit einem Enthusiasmus verteidigt, der dem blinden Glauben und religiösen Eifer der Kirche im Mittelalter nicht nachsteht. Inkompetenz, Intoleranz und Arroganz der tonangebenden Vertreter einer theoretischen Physik, die an Esoterik erinnert, gehen erbarmungslos gegen Kritiker vor. Der Physiker und Nobelpreisträger Martinus Veltman kam 1961 als junger holländischer Physiker ans Cern. Er beschreibt die Situation der Physiker auf die Frage eines Journalisten der Zeit (DIE ZEIT 23.09.2004 Nr.40), ob es stimmt, dass der Umgang unter Physikern wenig zimperlich ist: „Physiker sind anarchistische Naturen. Man kann sie mit nervösen Rennpferden vor dem Start vergleichen. Sie haben ein ausgeprägtes Gefühl für Konkurrenz. Aber wie überall ist das eine Frage des Charakters. Bei gewissen Leuten muss man vorsichtig sein, was man sagt, sonst erhält man umgehend die Quittung.“
In der Kosmologie gibt es zwei Grundwahrheiten.
1. Die Wissenschaftslobby hat immer Recht
2. Das Universum entstand durch einen Urknall
Wer gegen diese beiden Dogmen verstößt, den trifft die Acht der Wissenschaftslobby, denn es geht um viel Geld und der Urknall, die angeblich stetige Ausdehnung des Universums, die Schwarzen Löcher, die Schwerkraft u.a. lassen sich mit der Allgemeinen Relativitätstheorie mathematisch beschreiben, da die ganze moderne Kosmologie auf den Gleichungen von Einstein fußt. Das besagt aber nicht, dass alles was behauptet wird, weil es auf korrekten mathematischen Vorgehensweisen beruht, auch der Realität entspricht bzw. dass die Ergebnisse der mathematischen Berechnungen verstanden und richtig interpretiert wurden. Die klassische Mechanik und die Elektrodynamik beschreiben makroskopische dynamische Prozesse. Sie versagen jedoch beim Beschreiben der atomaren Phänomene. Während die Relativitätstheorie die Begriffe von Raum und Zeit neu interpretiert, revolutionierte die Quantentheorie unsere Auffassung vom Wissen über die Vorgänge in der Natur. Mit ihr nahmen die Physiker endgültig Abschied von der Absolutheit des Wissens und der Realität. Sie entmündigten die Skeptiker, indem sie behaupteten, dass es den gesunden und kritischen Menschenverstand nicht gibt, da während der Evolution die notwendigen geistigen Entwicklungen des Menschen für den Überlebenskampf nicht notwendig waren und deshalb die Erkenntnisse der Vertreter der Theoretischen Physik nicht verstanden werden. Unwillkürlich stellt sich die Frage, warum dies Physikern trotzdem möglich ist, da unbestritten bleibt, dass Physiker auch zu den Menschen gezählt werden. Fakt ist, dass die Realität die mathematischen Konstruktionen von Vertretern der Theoretischen Physik oft widerlegt. So ist es auf Grund heutiger gesicherter wissenschaftlicher Erkenntnisse eine Tatsache, dass der Kosmos ein zeitloser, sich selbst regenerierender Organismus ist, in dem sich weder Räume krümmen und die Zeit sich nicht dehnen lässt.
Die Quantentheorie besagt, dass man zurzeit subatomare Vorgänge nur mit einer gewissen Wahrscheinlichkeit beschreiben kann. Trotz mancher unrealistischen Behauptungen, die aus der Relativitätstheorie und der Quantentheorie abgeleitet wurden, muss man feststellen, dass bemerkenswerte wissenschaftliche Erfolge auf Grund sehr spezieller Fragestellungen erzielt wurden. Diese mathematischen Operationen dürfen aber nicht über ihren jeweils sehr speziellen Geltungsbereich hinaus, für allgemein gültig erklärt und angewendet werden. Das wissenschaftliche Establishment weigert sich einzugestehen, dass sich die Experten in eine Sackgasse manövriert haben. Man hatte zu Anfang der 20ger Jahre des vorigen Jahrhunderts noch nicht die wissenschaftlich gesicherten Erkenntnisse von heute und interpretierte deshalb richtige mathematische Ergebnisse falsch. Da nur die Physiker eine Chance auf eine wissenschaftliche Karriere bekamen, die einfach kritiklos die Vorgaben übernahmen, entstand die bedauerliche Situation, die heute noch anhält. Die Arroganz, Intoleranz und Borniertheit der „Eliten“ in Schlüsselpositionen von heute verhindern erfolgreich ein Umdenken und entsprechende Korrekturen durchzuführen, indem sie Kritiker in jeder Beziehung behindern und ächten.
Mit der Acht wurde bereits im germanischen Recht das Ausstoßen eines Täters aus der Gemeinschaft bestraft, der gegen ihre Regeln verstieß. Auch das altdeutsche Recht kennt bei schwerem Friedensbruch, und etwas Anderes stellt ja eine kontroverse Argumentation in den Augen der Wissenschaftslobby nicht dar, die Acht. Der Geächtete wurde friedlos, rechtlos und vogelfrei; er verlor den Sippenschutz und sollte von jedermann getötet und von niemandem unterstützt werden. Er verlor auch sein Vermögen; seine Frau wurde Witwe, seine Kinder Waisen. Die Acht kam eigentlich einem Todesurteil gleich. Die Spielregeln bestehen heute noch, sind allerdings effektiver und eleganter optimiert worden.
Die Wissenschaftsgemeinde, auch „Scientific Community“ genannt, hat ein eigenes weltweites Netzwerk, in dem auch die Weichen für Karrieren gestellt werden. Man muss also mit den Wölfen heulen, will man die eigene Protektion innerhalb der Wissenschaften aufbauen. Schließlich kennt man sich, weiß sich gegenseitig einzuschätzen, bespricht sich gegenseitig zu allen Anlässen und gegenüber dem Wissenschaftsbetrieb und den Medien, indem man sich einer eigenen Fachsprache bedient, die für Laien oft ein Buch mit sieben Siegeln darstellt. Perfektioniert wird das ganze System durch das Peer-Reviewing (engl. von Peer, Gleichrangiger und Review, Gutachten). Dieses Verfahren soll eigentlich zur Qualitätssicherung einer wissenschaftlichen Arbeit durch unabhängige Gutachter aus dem gleichen Fachgebiet dienen. Der Nachteil ist, dass die Gutachter ernannt werden und wenn sie nicht „spuren“ keine weiteren Gutachten zugeteilt bekommen. Zudem bleiben sie anonym und können deshalb auch nicht zur Rechenschaft gezogen werden. Auf diese Weise wird durch diese Gutachter der gesamte Wissenschaftsbetrieb überwacht und zensiert, da man auf diese Weise unerwünschte kritische wissenschaftliche Arbeiten nicht zur Veröffentlichung frei gibt, die jeweiligen Autoren kaltstellt, die Steuergelder für Forschungszwecke entsprechend zuteilt und so auch über dieses Verfahren alles im Griff hat. Trotz aller Widerstände, Folter und Verbrennung von sogenannten Ketzern, blieb die Erde im Laufe der Geschichte nicht für alle Zeiten der Mittelpunkt des Universums, um die sich alles zu drehen hatte und so wird auch irgendwann die Menschheit begreifen, dass es paradox ist, dass aus einem unendlich kleinen Volumen von unendlicher Dichte etwas Endliches durch einen endlichen Urknall entstehen kann, das so groß, vielgestaltig und funktionsfähig wie unser Universum ist.
Da man heute keine Angst mehr zu haben braucht, wegen der angeblichen Klimaerwärmung durch CO2 am Scheiterhaufen verbrannt zu werden, habe ich mich entschlossen, auf die Fakes der Kosmologen und Astrophysiker hinzuweisen, wissenschaftlich abgesicherte Fakten zusammenzutragen und im Internet zu veröffentlichen. Ich hoffe, dass, ähnlich wie mit der Erfindung des Buchdruckes im Mittelalter, heute das Internet einer breiten Öffentlichkeit die Möglichkeit bietet, sich nicht von dem wissenschaftlichen Establishment und den gelenkten Informationen durch die Medien manipulieren zu lassen.
Die Erfindung des Buchdruckes durch Gutenberg, der zwischen 1452 und 1454 die erste Bibel druckte und veröffentlichte, ermöglichte dem aufstrebenden Bürgertum an Informationen heranzukommen und diese auch weiter zu verbreiten, die bis dahin in den Klöstern konserviert und zensiert wurden. Zudem waren diese Schriften kaum jemandem zugänglich. Durch den Buchdruck konnten neue technischen Innovationen und die unterschiedlichsten Nachrichten ungleich schneller unter das Volk gebracht werden. Infolge kam auch die Idee des Humanismus erstmals auf. Martin Luther hatte schon Recht, wenn er Empfahl, dem Volk auf’s Maul zu schauen, denn die kollektive Intelligenz, auch Gruppen- oder Schwarmintelligenz genannt, ist ein emergentes Phänomen. Kommunikation und spezifische Handlungen von Individuen können intelligente Verhaltensweisen des betreffenden „Superorganismus“, d. h. der sozialen Gemeinschaft, hervorrufen.
Die Städte errichteten eigene Schulen und Universitäten. Der Klerus begann auf diese Weise seine Bildungshoheit allmählich zu verlieren und immer mehr Menschen fingen damals an, begünstig durch die besseren Informationsmöglichkeiten, aus bereits vorhandenen, aber nur Eingeweihten bekannten Quellen, eigenen Erfahrungen und überprüfbaren Beobachtungen eine Erkenntnis über Gott und die Welt zu suchen. Die menschliche Vernunft und die Betrachtung der Schöpfung, insbesondere die mit den Sinnen wahrnehmbare Welt, bildeten von nun an die Kriterien zur eigenen Meinungsbildung. Dies führte allerdings zu langen erheblichen Meinungsverschiedenheiten zwischen der Obrigkeit und der Kirche einerseits und dem finanziell immer stärker werdenden Bürgertum andererseits.
Das Universum auf einen Blick.
Am 11. Februar 2016 wurde offiziell verkündet, dass es gelungen ist, Gravitationswellen von entfernten Himmelsobjekten zu messen. Mit diesem Befund wurde gleichzeitig nachgewiesen, dass der offiziell geleugnete Äther, ein Medium, das den gesamten Kosmos ausfüllt, doch existiert. Gravitationswellen dehnen und stauchen nämlich nicht die von Einstein propagierte Raumzeit, wie das wissenschaftliche Establishment behauptet, denn in der Realität gibt es weder Raum noch Zeit als etwas Reales. In der speziellen Relativitätstheorie sind Raumkrümmungen und Zeitdilatation angenommene Eigenschaften von Raum und Zeit und keine realen Veränderungen. Die Raumzeit ist lediglich eine falsche Interpretation korrekter mathematischer Ergebnisse. Da man den Äther leugnete, wurde eine mathematische Erklärung konstruiert, die anschaulich sein sollte, die allerdings der Realität widerspricht. Auf Grund heutiger gesicherter Erkenntnisse von Biologen und Medizinern sind Raum und Zeit abstrakte Ordnungsprinzipien, die dem Menschen dazu dienen, die Aufeinanderfolge von Ereignissen zu bestimmen und zu berechnen. Raum und Zeit sind nichts, was für sich allein besteht. Sie sind nichts Stoffliches, sondern ein Modell oder eine Anschauungsform des Gehirns des jeweiligen Lebewesens, um das Objekt oder Subjekt seiner Wahrnehmung in eine bestimmte Ordnung zu bringen und bei höher entwickelten Lebewesen ein System zu entwickeln, das Erfahrung und Berechnungen erst ermöglicht.
Schon in der ältesten schriftlich bezeugten Form der althochdeutschen Sprache in der Zeit etwa von 750 bis 1050 n.Chr., verstand man unter rumi, von dem sich das Wort Raum ableitet, weit und geräumig. In der Mathematik erklärt man den Raum als eine mit einer Struktur versehene Menge, der physikalische Raum wird als Behälter aller Dinge interpretiert und die Kosmologen beschreiben den Weltraum als eine nicht fest eingegrenzte physikalische Ausdehnung. Im allgemeinen Gebrauch versteht man eine in Länge, Breite und Höhe fest eingegrenzte Ausdehnung und berechnet auf diese Weise gleichzeitig ihr Volumen. So viel zur Definition des Raumes.
Die Zeit ist dagegen ein Abgleich der Schnelligkeit einer Veränderung im Vergleich zu einer standardisierten und unveränderlichen Messgröße, z. B. einem Pendel. Dabei sind die jeweilige Länge und das Gleichmaß der Pendelbewegung die bestimmenden Größen. Da die Lichtgeschwindigkeit die limitierende Größe für beschleunigte Körper darstellt, also absolut ist, werden die Vorgänge innerhalb des jeweiligen beschleunigten Systems umso langsamer, je stärker seine Beschleunigung ist. Ein gutes Beispiel ist das GPS. Das Weltraumsegment dieses Systems setzt sich aus ca. 24 Satelliten zusammen, die in sechs Umlaufbahnen so angeordnet sind, dass eine weltweite Überdeckung mit möglichst wenig Satelliten realisiert werden kann. Die Umlaufbahnen befinden sich im Mittel bei 20.230 km über der Erdoberfläche und ein Satellit benötigt ca. 11Stunden und 58 Minuten für eine Erdumrundung. Die relativ hohen Umlaufbahnen bewirken, dass der Sichtbarkeitsbereich (der Teil der Erdoberfläche, von dem eine quasioptische Sicht zum Satelliten möglich ist) ziemlich groß ist. Da die Uhren in den Satelliten im Vergleich zur Bodenstation umso langsamer gehen, je schneller der jeweilige Satellit die Erde umkreist, müssen alle Uhren der Satelliten mit der Zentraluhr der Bodenstation dauernd abgeglichen werden, da eine Zeitdifferenz von nur 1:1000 Sekunde zu einer Ungenauigkeit bei den Messungen von 300 km führen.
Aus biologischer Sicht ist auch das Zwillingsparadoxon eine Fehlinterpretation mathematischer Ergebnisse, da alle Stoffwechselvorgänge in einem Organismus umso langsamer ablaufen, je stärker der jeweilige Organismus beschleunigt wird. Das bedeutet, dass der eine Zwilling sehr schnell unterkühlt und schließlich erfriert, bevor er nach vielen Jahren noch genauso jung aussehend, wie beim Start, allerdings Tod, weil er erfroren, zurückkommt.
Es dehnt sich also nicht die Zeit, sondern die Uhren, wie alles innerhalb des jeweiligen Satelliten, bewegen sich entsprechend langsamer. Hätte Einstein ein geeichtes Inertialsystem, also ein Bezugssystem, in dem sich kräftefreie Körper geradlinig und gleichförmig bewegen festgelegt, hätte er nicht die gesamte Physik auf das Glatteis der Zeitdehnung geführt. Als ein solches System bietet sich z. B. die Hintergrundstrahlung an. Kein Wunder, dass unter diesen Vorgaben für die Astrophysiker von Newtons Gravitationsgesetz auf den ersten Blick nicht mehr viel übrig zu bleiben scheint.
Nach der Allgemeinen Relativitätstheorie ziehen sich Massen nicht nur an, sie krümmen, dehnen und biegen angeblich sogar diesen hypothetischen Raum, die unterschiedlichsten Objekte und Teilchen sowie die Zeit, sodass die Schwerkraft von den Vertretern der theoretischen Physik mathematisch als eines mit Löchern und Trichtern ausgefüllten Universums interpretiert wird. Das hat aber nichts mit der Realität zu tun. Wenn sich z. B. Galaxien voneinander entfernen, kann man diese Relativbewegung wahlweise als "Expansion des Raums" oder als "Bewegung durch den Raum" zu betrachten. Einsteins Erklärung der Gravitation ist ein Musterbeispiel von Fehlinterpretation richtiger mathematischer Ergebnisse, weil man den Äther als Medium bewusst leugnete. Aus der Chaosforschung kennt man das sogenannte Selbstähnlichkeitsprinzip. Selbstähnlichkeit ist die Eigenschaft von Gegenständen, Körpern, Mengen oder geometrischen Objekten, in größeren Maßstäben, d. h. bei Vergrößerung, dieselben oder ähnliche Strukturen aufzuweisen wie im Anfangszustand. Im weiteren Sinne wird der Begriff auch in den Naturwissenschaften verwendet, um grundsätzlich wiederkehrende, in sich selbst verschachtelte Strukturen zu bezeichnen. Man denke nur an die Bilder von Wirbelstürmen oder von scheibenförmigen Galaxien. Siehe auch im Internet unter Kymatik. Das Weltraummedium Äther verhält sich wie Gase in unserer Atmosphäre und die Vorgänge im All sind mit den Vorgängen in unserer Atmosphäre vergleichbar, so dass man das Wissen der Meteorologen 1 : 1 umsetzen kann. Statt gekrümmter Räume, Löcher und Trichter bilden sich Hoch- und Tiefdruckgebiete und wenn sich die Himmelsobjekte gegenseitig beschatten, entsteht zwischen ihnen ein Unterdruck und die jeweiligen Objekte werden durch den sie umgebenden Ätherdruck aufeinander zugeschoben. Siehe Casimir-Effekt zum Nachweis des Ätherdruckes und den Halbkugelversuch von Otto von Guericke zum Nachweis des Luftdruckes. Die Elementarteilchen durchfluten zwar reaktionslos bis auf die Atomkerne die gesamte Materie, werden jedoch von den Quarks der Atomkerne vollständig reflektiert, da die Quarks wie die Schwarzen Löcher so massiv sind, dass sich in ihrem Inneren nichts bewegen kann, weshalb ihre Innentemperatur stets dem absoluten Nullpunkt entspricht. Nach ihrer Reflexion gelangen aber die Ätherteilchen nicht mehr exakt, sondern unterschiedlich stark versetzt zu ihrem Ausgangsbereich zurück. Dadurch entsteht einerseits eine Krängung des Objektes, das schließlich zu einer Rotation des Körpers führt, andererseits entsteht in Bewegungsrichtung vor dem Objekt ein gewisser Unterdruck, da hier jetzt die zurückgekehrten zwischenzeitlich versetzten Ätherteilchen fehlen. Dieser Unterdruck bewirkt, dass sich die Objekte nicht mehr gradlinig fortbewegen können, sondern „abkippen“ und von ihrem Kurs abweichen bis hin zu kreisförmigen bzw. ovalen Bahn um entsprechend größere Himmelskörper einnehmen oder umeinanderkreisen, während sie sich gleichzeitig so lange nähern, bis ein Druckausgleich entsteht oder sie zusammenprallen. Das ist der Grund, warum alle Himmelskörper und Galaxien rotieren und sich als Folge des Druckausgleiches nähern und umeinanderkreisen. Der Astronaut David Scott demonstrierte während seiner Apollo -15 - Mission 1971 auf dem Mond, dass ein Hammer und eine Feder, wenn man beide auf dem luftleeren Mond gleichzeitig fallen lässt, entgegen all unserer Alltagserfahrung, beide gleichzeitig den Boden erreichen. Wie ist das möglich? Der Mond ist eine Kugel. Der Ätherdruck ist auf seiner gesamten Oberfläche gleich. Nimmt man aber eine Feder und einen Hammer, so bilden diese beiden Objekte einen geringen Unterdruck zwischen sich und der Mondoberfläche im Vergleich zum gesamten Druck, der sie umgibt. Sowohl die Atomkerne der Feder, wie die des Hammers bilden also einen geringen Unterdruck zwischen sich und der Mondoberfläche. Auf diese Mondoberfläche wirkt aber auch der Druck der Ätherteilchen von der gegenüberliegenden Mondseite. Da der Mond aber rund ist, werden in der Mitte des Mondes, wo der Durchmesser am Größten ist, eine geringere Teilchenmenge durchkommen, als an seinen Rändern. Aus diesem Grunde fallen alle Objekte grundsätzlich in Richtung Mondzentrum zu Boden, da hier der Unterdruck am Größten ist. Wenn man annimmt, dass die Feder aus 100 Atomen besteht und der Hammer aus 100.000 Atomen, wirken auf alle Atomkerne, sowohl von der Feder, wie von dem Hammer gleichstarke Kräfte ihrem Fall entgegen, da die Atomkerne so weit voneinander Entfernt sind, dass sie sich nicht gegenseitig beschatten. Die Stärke der Pfeile soll die Druckunterschiede verdeutlichen.
Weder Raum noch Zeit können sich kräuseln, Gravitationswellen weiterleiten, sich krümmen, biegen oder dehnen. Raum- und Zeitangaben sind in der Relativitätstheorie von Einstein keine universell gültigen Ordnungsstrukturen, sondern mathematische Strukturen. Hier hat sich Einstein auf Glatteis begeben und seiner Relativitätstheorie einen schlechten Dienst erwiesen. Er geht bei seinen Überlegungen davon aus, dass der räumliche und zeitliche Abstand zweier Ereignisse oder auch deren Gleichzeitigkeit von Beobachtern mit verschiedenen Bewegungszuständen unterschiedlich beurteilt werden. Bewegte Objekte erweisen sich im Vergleich zum Ruhezustand in Bewegungsrichtung als verkürzt und bewegte Uhren als verlangsamt. Da jedoch jeder gleichförmig bewegte Beobachter den Standpunkt vertreten kann, er sei in Ruhe, beruhen diese Beobachtungen auf Gegenseitigkeit, das heißt, zwei relativ zueinander bewegte Beobachter sehen die Uhren des jeweils anderen langsamer gehen. Außerdem sind aus ihrer Sicht die Meterstäbe des jeweils anderen kürzer als ein Meter, wenn sie längs der Bewegungsrichtung ausgerichtet sind. Die Frage, wer die Situation korrekt beschreibt, ist bei diesen Vorgaben prinzipiell nicht zu beantworten und deshalb ist die Argumentation von Einstein irreführend, weil er behauptet, dass es kein allgemeingültiges Inertialsystem gibt. Das Problem lässt sich jedoch lösen, wenn man die Hintergrundstrahlung, die fälschlich als Echo eines fiktiven Urknalls erklärt wird, als Betriebstemperatur des Universums anerkennt. Bereits 1926 hatte der englische Astronom Sir Arthur Stanley Eddington eine Temperatur von 3 Kelvin als Wärmeenergie des gleichmäßig verteilten Lichtes aller Sterne im Kosmos mittels der Boltzmann-Konstante errechnet. Die Boltzmann-Konstante zählt zu den fundamentalen Naturkonstanten; sie ist definiert als Quotient aus Energie E und Temperatur T. Im Gesetz für ideale Gase tritt sie über die nachfolgende Beziehung als Proportionalitätskonstante auf: Die Formulierung: „Gleichmäßig verteiltes Licht aller Sterne im Kosmos“ besagt eindeutig, dass es sich um einen aktuellen Wärmeaustausch zwischen allen Sternen handelt. Eddington soll gesagt haben, dass alle Himmelskörper im Sternenlicht bei 3 Kelvin, also bei etwa -270°C baden. Auf die Idee, dass es sich bei dieser Hintergrundstrahlung um das Echo eines fiktiven Urknalls handeln könnte, kam zunächst niemand, da eine eventuelle Strahlung schon längst in den Weiten des Alls verschwunden wäre, zumal nach dieser Theorie die fiktive Ausdehnung des Universums ungleich langsamer erfolgen soll als die Fluchtgeschwindigkeit der Photonen mit Lichtgeschwindigkeit.Tatsache ist, dass Gravitationswellen wie alle Wellen ein Ausbreitungsmedium benötigen. Auf diese Weise wurde auch gleichzeitig bewiesen, dass es den geleugneten Äther doch gibt. Eine Tatsache, die viele Eliten zum Schwitzen bringen wird, denn damit ist auch die Urknalltheorie widerlegt und die Astrophysiker werden die Geschichte des Universums umschreiben müssen. Das werden auch die Medien, die in ihrer Berichterstattung den Gesetzen der Marktwirtschaft unterliegen, nicht verhindern können. www.wirtschaftslexikon.co/d/zwang-oekonomischer/zwang-oekonomischer.htm. Mit ökonomischen Mitteln ausgeübter Zwang im Gegensatz zur direkten Gewalt. Es ist der Druck, die Unausweichlichkeit, sich den kapitalistischen Gesetzen zu unterwerfen. Dazu gehört vor allem der Zwang, seine Arbeitskraft zu den vom Kapitalismus diktierten Bedingungen zu verkaufen. Die kapitalistische Produktionsweise zwingt die ArbeiterInnen, ihre Arbeitskraft zu verkaufen, wenn sie leben wollen. Was der Buchdruck für die Kirche, das ist das Internet für die Wissenschaftslobby, da zurzeit noch Teile der Bevölkerung ebenso wie im Mittelalter in der Lage sind, sich eine eigene Meinung zu bilden und nicht die Medien, auch sehr zum Ärger vieler Politiker, nicht für sich denken lassen wollen. Nicht ohne Grund wird nicht nur von Feinden der Demokratie öffentlich von einer Lügenpresse gesprochen, obwohl es sich eigentlich um eine weitgehend gelenkte Information der Öffentlichkeit handelt. Auf diese Weise kann man unauffällig die im Grundgesetz garantierte Pressefreiheit garantieren und gleichzeitig unterlaufen. Quarks und Antiquarks bauen zusammen mit der Dunklen Materie sowie den drei verschiedenen Feldern, dem Gravitationsfeld, dem elektrischen Feld und dem Magnetfeld die Materie des gesamten Kosmos auf. Aus welchem Blickwinkel man auch immer die Dinge betrachtet: Immer ist das Große im Kleinen und das Kleine im Großen wieder zu erkennen. Entscheidend für das Verständnis all dieser geschilderten Ereignisse ist das sogenannte Selbstähnlichkeitsprinzip, das die Chaosforschung entdeckte. Es besagt, dass alle Funktionsmechanismen im Universum sich letztlich durch dauerndes Wiederholen einfachster Grundvorgänge und Grundmuster aufbauen. Der Äther ist dagegen das Medium, das die Welt im Innersten zusammenhält. Die Chaosforschung macht es uns Menschen nachvollziehbar, warum die Welt so bunt und vielfältig ist und warum universelle Gesetzmäßigkeiten gelten. Unabhängig von den Vorgaben unserer Eliten, organisiert sich das Universum selbst und funktioniert und reagiert sich selbst nach altbewährten eigenen Gesetzen seit ewigen Zeiten und kein Sterblicher, möge er noch so viele Titel und Macht haben, wird ebenso wenig wie ein auch immer postuliertes „vernunftbegabtes Wesen“ je etwas daran ändern. Aus diesen unumstößlichen Gründen kann man mit dem heutigen gesicherten Wissen das Universum erklären und verstehen, sofern nicht finanzielle und machtpolitische Interessen gemeinsam mit Emotionen und religiösen Überzeugungen das behindern. Der Kosmos ist ein Organsystem und funktioniert wie die ersten Einfachsten Organismen, indem sich einzelne Atome, zu immer komplexeren Molekülen vereinigen und sich so über anorganische Verbindungen zu organischen Molekülverbänden anordneten, um schließlich einen lebenden Organismus zu gestalten, der sich die zum Überleben notwendige Energie eigenständig zu besorgen vermag und sich schließlich zu reproduzieren in der Lage ist. Aus diesem Grunde sind die sogenannten „Schwarzen und Weißen Raucher“ als Ursprung des Lebens anzusehen. Bei der Entstehung der Erde bildet sich eine Atmosphäre, deren Gasbestandteile durch Ausgasungen vom Inneren der Erde her, vor allem durch Vulkanismus, freigesetzt wurde. Die Erdatmosphäre bestand in jener Zeit hauptsächlich aus Kohlendioxid, Stickstoff, Methan, Ammoniak, Schwefelwasserstoff und Wasserdampf, der an Schwebestoffen in der Luft kondensierte und danach abregnete. Es herrschten also absolut lebensfeindliche Bedingungen für Pflanzen und Tiere, wie wir sie heute kennen. Der viele hundert Millionen Jahre andauernde Regen ließ die Ozeane entstehen und hat das Kohlendioxid und den Schwefel aus der Atmosphäre herausgewaschen. Langsam begann sich etwas Sauerstoff durch die Aufspaltung von Wasserdampf (H2O) und Kohlendioxid (CO2) zu bilden. Gleichzeitig spielte und spielt sich noch heute unter Wasser Erstaunliches ab. Einerseits entstehen Lebensformen, für die Sauerstoff tödlich ist, andererseits erschienen kleine winzige blaugrüne Zellen, die sogenannten Cyanobakterien, die die Photosynthese „erfanden“ und Sauerstoff bilden. Sie nutzen die Energie des Sonnenlichts, um aus Wasser und Kohlendioxid Zucker herzustellen. Dieser Sauerstoff war aber Gift für die Organismen, die sich ohne Sauerstoff im Bereich der Schwarzen Smoker im Laufe der Zeit unter relativ gleichbleibenden Bedingungen über Milliarden von Jahren allmählich entwickelt haben. Für diese Organismen wie z.B. Einzeller, Bakterien, Röhrenwürmer, Venusmuscheln, blinde Krabben und Bathymodiolide Miesmuscheln, (selbst einzelne Fische wurden in dieser bis dahin unbekannten einzigartigen Lebewelt gesehen), war Sauerstoff ein tödliches Gift. Ihr Stoffwechsel ermöglichte es ihnen dafür z. B. an heißen Quellen der Tiefsee, bei Temperaturen von bis zu 360 Grad Celsius, die Energie für ihren Stoffwechsel und ihre Vermehrung durch chemische Reaktionen aus anorganischen Verbindungen zu gewinnen. Etwa 1979 wurden erstmals diese sogenannten Black Smoker, die hydrothermalen Quellen am Grund der Tiefsee, die durch Vulkanismus entstehen, entdeckt. Ihre Öffnung ragt aus einer röhren- oder kegelförmigen porösen mineralischen Struktur, dem Schornstein, aus dem eine Sedimentwolke austritt, die aus Metallsulfiden, -oxiden und -sulfaten besteht hervor. Da sich diese Smoker unterhalb von 1000 Metern Tiefe befinden, ist der Druck höher als 100 Kilogramm/cm2. Das bedeutet, dass die Atome so dicht aneinandergepresst werden, dass kein Dampf bzw. Gas freigesetzt werden kann. Gleichzeitig herrschen in diesen Tiefen sowohl weitgehend stabile Makroklimate als auch eine Unzahl von Mikroklimate in den schwammig aufgebauten porösen Wänden der Smoker. Kurz: Es bestehen dauerhaft optimale Voraussetzungen für die Entstehung unterschiedlichster chemischer Verbindungen auf engstem Raum. Durch die moderne Technik ist es möglich geworden, den Stoffwechsel der Organismen in diesen Tiefen zu erforschen. Da ähnliche Formen in fossilen Faunengemeinschaften von Massiv-Sulvid-Lagerstätten gefunden worden sind, welche unter solchen Bedingungen abgelagert wurden, ist es naheliegend, davon auszugehen, dass sich unser Leben an hydrothermalen Quellen entwickelt hat und noch immer entwickelt. Aktiver Vulkanismus und Wasser sind also die „Geburtstshelfer“ für das Leben auf unserem Planeten. Die urtümlichsten aller Organismen, die Archaeen, zählen sozusagen zu den ältesten heute noch nachzuweisenden Wurzeln des Lebens, das vor 3,8 Milliarden Jahren begonnen haben soll. In den letzten Jahren konnte man erstmals nachweisen, dass das von den Smokern erhitzte Wasser mit all seinen Schwebestoffen und Kleinstorganismen nicht nur aus den Tiefen aufsteigt, sondern in geringeren Tiefen, wenn es sich entsprechend abgekühlt hat, flächenartig in Form von umschriebenen Inseln ausbreitet und so anorganisches und organisches Material bzw. unterschiedliche Entwicklungsstufen von Organismen in einer Art Kapsel einschließt. Diese „Inseln“ werden ebenso wie die Larven von Lebewesen, deren Lebensgrundlage durch Zerstörung der Smoker entzogen wurde, von den unterschiedlichsten Meeresströmungen weltweit in die verschiedensten Umweltmilieus verbreitet. So können die einzelnen Organismen an für sie besonders günstige Umweltbedingungen gelangen, denen sie sich entsprechend anpassen. Auf diese Weise ergeben sich für die jeweiligen Lebewesen die unterschiedlichsten Entwicklungsmöglichkeiten. Man könnte diese „schwimmenden Inseln“ somit als einen Prototyp der „Arche Noah“ bezeichnen. Arche leitet sich von dem lateinischen Wort „arca“ = Kasten ab. Diese Befunde aus den letzten Jahren zeigen, dass es sich hier um einen über 3 Milliarden Jahre alten Prozess handelt, welcher noch immer andauert und das Potential besitzt, fortwährend neues Leben zu erschaffen. Doch nach diesem Ausflug in die Evolution zurück zur Quantentheorie. Quantenobjekte, wie Photonen und Elektronen, sind weder klassische Teilchen noch klassische Wellen, sondern umschriebene, unterschiedlich elastische Felder, die sich nach einem Phasenübergang aus den Ätherteilchen gebildet haben. Doch gibt es eine Reihe von Versuchen, die sich mit dem Wellenmodell, andere mit dem Teilchenmodell gut beschreiben lassen. Diese beiden Modelle widersprechen sich, weil die Vorgaben für die Mathematiker unterschiedlich sind und deshalb nicht miteinander verglichen werden können. Der Wellen-Teilchen-Dualismus ist eine schizophrene Interpretation unverstandener mathematischer Operationen und des Doppelspalt-Experimentes. Die Interpretation des Doppelspalt-Experimentes kann nicht richtig sein, da das Interferenzmuster auch dann auftritt, wenn die Photonen oder Atome einzeln, also hintereinander durch eine der beiden Spalten gesendet werden, da in diesem Falle eine Interferenz als Erklärung ausscheidet. Für eine Interferenzerscheinung ist die gegenseitige Beeinflussung von zwei oder mehreren Wellenzügen mit fester Phasenbeziehung untereinander am gleichen Ort (Raumpunkt) zur gleichen Zeit (Zeitpunkt) zwingend. Noch einmal: Interferierende Wellen müssen grundsätzlich eine entsprechende Wellenlänge und eine feste Phasenbeziehung zueinander haben und am gleichen Ort zur gleichen Zeit aufeinander treffen, damit überhaupt Interferenz auftreten kann. Trotz anderer Voraussetzungen erhält man aber das gleiche Ergebnis, wenn die einzelnen Photonen, Elektronen oder Atome einzeln und nacheinander durch den Doppelspalt geschickt werden. Obwohl es bei einer derartigen Versuchsanordnung zu keiner Interferenz kommen kann, baut sich auf einer Fotoplatte, auch wenn genügend einzelne Photonen, Elektronen oder Atome nacheinander auf der Fotoplatte auftrafen, allmählich das gleiche Interferenzmuster auf, wie bei einer normalen Lichtquelle, als wenn alle Atome oder elektromagnetische Felder in Form von Photonen oder Elektronen gleichzeitig durch einen Doppelspalt geschickt werden. Die Erklärung ist einfach. Die Atomkerne sind so klein, dass sie keine Auswirkungen auf das Ergebnis eines Doppelspalt-Experimentes haben. Photonen, Elektronen und Atomhüllen sind alles Felder und keine massiven Teilchen. Beim Doppelspaltexperiment lässt man Wellen, Lichtwellen, durch eine Blende mit zwei schmalen, parallelen Spalten treten. Auf einem Beobachtungsschirm bzw. einer Fotoplatte in einer Distanz zur Blende, die sehr viel größer ist als der Abstand a der beiden Spalte, zeigt sich ein Interferenzmuster. Dieses Muster entsteht durch Beugung der Wellenausbreitung bzw. der Ausbreitung elektromagnetischer Felder am Doppelspalt. Voraussetzung zur Beobachtung des Interferenzmusters ist, dass die Wellenlänge λ kleiner als der Abstand a der beiden Spalte ist. Die kürzeste Wellenlänge für sichtbares Licht beträgt 380 Nanometer für violettes Licht. Der Atomkern ist 20.000 bis 150.000 Mal kleiner als die Atomhülle, beherbergt aber mehr als 99,9 Prozent der Masse des gesamten Atoms. Da 1 Nanometer = 1 Millionstel Millimeter (mm) ist, wird nachvollziehbar, dass der Doppelspalt viel zu breit wäre um ein Interferenzmuster durch die Atomkerne zu ermöglichen, ganz davon abgesehen, dass sich die Atomkerne wie massive Kugeln verhalten und kein Interferenzmuster bilden würden. Wenn Wissenschaftler ein derartiges Experiment mit massiven Kugeln durchführen, bilden sich zwei schmale Streifen direkt hinter jedem der beiden Spalte.
Elektromagnetische Felder verhalten sich im Gegensatz zu massiven Teilchen wie Wellen. Es gibt folglich keinen Wellen-Teilchen-Dualismus, sondern nur falsche Interpretationen von Versuchsergebnissen. Aber schließlich wären die Vertreter der Theoretischen Physik keine theoretischen Physiker, wenn sie für dieses wahrhaft erstaunliche Phänomen keine Erklärung hätten. Ohne jeden Skrupel stellen sie allen Ernstes und einer erschreckenden Borniertheit fest, dass dieses Versuchsergebnis als Interferenz der einzelnen Atome und Felder mit sich selbst zu interpretieren sind. Dass die klassische Physik die Interferenz als eine Überlagerungserscheinung definiert, die auftritt, wenn zwei oder mehr Wellenzüge dasselbe Raumgebiet gleichzeitig durchlaufen, wird schlicht ignoriert. Wenn die Behauptung der Theoretiker stimmen würde, dürfte eigentlich kein Teilchen auf der Fotoplatte ankommen bzw. zu erkennen sein. Bisher hat man auch noch nicht gelesen oder gehört, dass sich ein Atom beim Durchtritt durch einen Spalt selbst vernichtet hat. Die Fotoplatte müsste in diesem Falle schwarz bleiben. Auch hier wagt niemand ernsthaft danach zu fragen und sollte es doch einer riskieren, so wird man ihn mit den bereits so oft bewährten Methoden zum Schweigen bringen. Deshalb spottete schon Einstein: „Wenn die Fakten nicht zur Theorie passen, ändere die Fakten .....!“ Die Quantenobjekte sind nach Überzeugung der Vertreter der theoretischen Physik Teilchen, die immer als ganze Portionen auftreten. Es gibt keine halben Photonen oder viertel Elektronen. In der Realität handelt es sich bei den Photonen, Elektronen und Atomhüllen um umschriebene, plastische elektromagnetische Felder, die durch einen Phasenübergang entstanden sind und nicht um massive Teilchen. Vergleichbar mit einem Wassertropfen, der sowohl als „Teilchen“ auf eine Oberfläche fällt, als auch als Flüssigkeit sich im Wasser auflöst. Das Medium Äther ist ein gasförmiger Stoff, aus dem durch Phasenübergänge, je nach den entsprechenden Rahmenbedingungen, elektromagnetische Felder oder Quarks und Antiquarks, die Atomkerne der Materie, entstehen können. Wenn sich Materie durch den Raum bewegt, treten Reibungskräfte mit dem Medium Äther auf und da Photonen, Elektronen und Atomhüllen lediglich einen anderen Phasenzustand des Mediums Äther darstellen, der nach Überschreiten einer kritischen Dichte der Ätherteilchen entsteht, werden diese elektromagnetischen Felder in Flugrichtung umso stärker komprimiert, also verkürzt, je höher ihre jeweilige Beschleunigung ist. Das Gleiche passiert, wenn man einen Luftballon bei hoher Geschwindigkeit aus dem Fenster eines fahrenden Autos hält. Er wird durch den Luftwiderstand an seiner Frontseite eingedrückt. Bei Erreichen der Lichtgeschwindigkeit entsteht schließlich ein massives Teilchen, vergleichbar mit der Dichte von Schwarzen Löchern. Da sich wegen des Ätherwiderstandes nichts schneller als Licht bewegen kann, sublimiert die Materie wieder zu Ätherteilchen. |
Gemäß der Kopenhagener Interpretation ist der Wahrscheinlichkeitscharakter quantentheoretischer Vorhersagen nicht Ausdruck der Unvollkommenheit der Theorie, sondern des prinzipiell nicht deterministischen Charakters von quantenphysikalischen Naturvorgängen. Kurz: Was ein Physiker nicht wiegen oder messen kann, existiert für ihn nicht, denn er kann nicht damit arbeiten. Das hat aber nichts mit der Realität zu tun. Ein Blinder sieht auch den Kosmos nicht und trotzdem ist der Kosmos vorhanden. Unter Indeterminismus versteht die Kopenhagener Interpretation, dass nicht alle Ereignisse durch Vorbedingungen eindeutig festgelegt sind, es also bestimmte Ereignisse gibt, die nicht eindeutig durch Ursachen determiniert, sondern indeterminiert (unbestimmt) sind. Deshalb werden alle quantenmechanischen Vorgänge nach einer Wahrscheinlichkeitsstatistik berechnet. Das Verhalten eines einzelnen Teilchens kann also nicht berechnet werden und so führte Heisenberg den Begriff der Unschärferelation ein. Das bedeutet, dass man den Ort und den Impuls von Quantenobjekten gleichzeitig nicht beliebig genau bestimmen kann. Das ist aber ein Problem der Physiker. In der Realität reagiert jedes Teilchen entsprechend den jeweiligen Rahmenbedingungen und positioniert sich entsprechend schnell und zielgenau. „Es weiß also sehr genau wo es sich befindet und wie schnell es sich wohin zu bewegen hat.“ Dies Behauptung der Physiker ist z. B. gleichbedeutend mit dem Abschied von der klassischen Bahnvorstellung bei Quantenobjekten, da die Beschreibung einer Bahn die gleichzeitige präzise Kenntnis von Ort und Impuls eines Objekts voraussetzt. Da sich aber die Teilchen nach den Naturgesetzen und nicht nach den Physikern richten, funktioniert die Selbstorganisation der Materie hervorragend.
Die Chaosforschung versucht dagegen von vornherein nicht alle Vorgänge linear zu beschreiben, da in der Natur alle Prozesse nichtlinear ablaufen. Die Chaosforschung oder Chaostheorie bezeichnet ein nicht klar umgrenztes Teilgebiet der Nichtlinearen Dynamik bzw. der Dynamischen Systeme, welches der Mathematischen Physik oder angewandten Mathematik zugeordnet wird. Die Chaosforschung erklärt auch, was Schüler schon lange auf Grund ihrer Unterrichtserfahrungen wussten, wenn sie feststellten: „Chemie ist das was kracht und stinkt, Physik nennt man was nie gelingt.“
Die klassische Mechanik beruht auf den von Isaac Newton Ende des 17. Jahrhunderts gelegten Grundlagen. In der Entwicklung der Physik und der anderen Naturwissenschaften diente die klassische Mechanik als wichtiges Vorbild. Die klassische Mechanik ermöglicht sehr genaue Vorhersagen und Beschreibungen aller mechanischen Vorgänge in Wissenschaft, Technik und Natur, sofern die Geschwindigkeit der Körper gegenüber der Lichtgeschwindigkeit und ihre de Broglie-Wellenlänge gegenüber den Abmessungen des betrachteten Systems vernachlässigt werden können. Die physikalischen Theorien wie Relativitätstheorie und Quantenmechanik, mit denen diese Einschränkungen im 20. Jahrhundert überwunden wurden, fußen einerseits auf der klassischen Mechanik, beruhen aber auch wesentlich auf Konzepten, die mit der klassischen Mechanik nicht mehr vereinbar sind. Typische Anwendungsgebiete der klassischen Mechanik sind Himmelsmechanik, Technische Mechanik, Hydrodynamik, Aerodynamik, Statik und Biomechanik.
Die Newtonschen Gesetze gelten als die Grundlage der klassischen Mechanik, auf der alle weiteren Modelle basieren. Viele alltägliche Phänomene werden durch die klassische Mechanik ausreichend genau beschrieben. Es gibt aber Phänomene, die mit der klassischen Mechanik nicht mehr erklärt oder nicht mehr in Einklang gebracht werden können. In diesen Fällen wird die klassische Mechanik durch entsprechende mathematische Operationen ergänzt und entsprechen zur Begründung von Theorien benutzt, wie z. B. durch die spezielle Relativitätstheorie oder die Quantenmechanik.
Der Urknall ist eine unhaltbare unrealistische mathematische Konstruktion.
Bis Anfang der 30ger Jahre des vorigen Jahrhunderts wurde fast ausschließlich das statische Weltmodell diskutiert. Erst als 1929 Edwin Hubble durch seine astronomischen Messungen weit entfernter Galaxien eine systematische Rotverschiebung in den Spektren beobachtete, die man als Doppler-Effekt wertete, wurde die Expansion des Universums postuliert. Einstein war allerdings mit seiner allgemeinen Relativitätstheorie zu der Überzeugung gelangt, die auch zwischenzeitlich experimentell bestätigt wurde, dass Licht, also Photonen, der Schwerkraft unterliegen. Die Tragweite dieser Tatsache wurde bis heute entweder nicht erkannt oder wird nach bewährter Methode totgeschwiegen. Jedenfalls gilt bis heute offiziell, dass die Rotverschiebung der Spektren allein als Doppler-Effekt zu werten ist und somit die Expansion des Universums beweist.
Dass derartige Rotverschiebungen der Spektren auch durch die Schwerkraft verursacht werden, konnten in den 60ger Jahren des vorigen Jahrhunderts R. V. Pound und G. A. Rebka experimentell beweisen, aber das wird geflissentlich verschwiegen, da dies das Todesurteil für den Urknall bedeutet. Die Photonen verbrauchen auf Ihrem Weg durch die unterschiedlichsten Schwerkraftfelder des Universums Energie, was man an der Rotverschiebung der Spektren nachweisen kann. Sie verlieren ferner Energie durch Stoßprozesse mit „Materiewolken“ und durch Reibungsverluste der Photonen mit den allseits geleugneten Medium (Ätherteilchen). Schließlich sind ja auf der materiellen Ebene der Luftwiderstand und dadurch bedingte Reibungsverluste nicht unbekannt. Jede „Sternschnuppe“, die am Himmel verglüht, bestätigt diesen Sachverhalt.
Reibungsverluste oder ein Compton-Effekt erklären zusätzlich die mit der Entfernung der Objekte zunehmende Rotverschiebung der Spektren, denn je weiter der zurückgelegte Weg, desto größer der Energieverlust. Da braucht man keine völlig unverstandene Dunkle Energie zu erfinden. Die Dunkle Energie wurde als eine Verallgemeinerung der kosmologischen Konstanten eingeführt, um die fehlinterpretierte beschleunigte Expansion des Universums zu erklären. Dieser Sachverhalt erklärt auch, warum bei der Raumsonde Pionier 10 nach dreißig Jahren Flugzeit, wie auch bei anderen Raumsonden im All, eine bisher unerklärliche geringe Abbremsung beobachtet wird. Diese Raumsonden waren nämlich nicht so weit entfernt, wie man im Voraus berechnet hatte. Das ist keineswegs verwunderlich. Es ist zwangsläufig. Dieser Sachverhalt beweist nämlich ebenfalls, dass es den viel geleugneten Äther, die Dunkle Materie, Gravitonen WIMPs oder wie immer man den Urstoff oder das fast alles durchdringende Medium im All bezeichnen will, existiert. Man könnte sogar aus den gewonnenen Daten die Dichte des geleugneten Äthers errechnen. Wie gesagt: Wenn man wollen dürfte!
Photonen ermüden also und lösen sich aus diesem Grunde schließlich auf. Das ist übrigens auch der Grund, warum das sog. Olberssche Paradoxon kein Paradoxon ist, denn uns erreichen nur Bruchteile der Photonen, die von den unterschiedlichsten Himmelskörpern ausgestrahlt werden. Wenn es aber keinen Urknall gab, hätte man sich auch die Suche nach den Higgs-Teilchen ersparen können, denn ohne Urknall braucht man diese Higgs-Teilchen nicht und auch keine kostenintensiven Einrichtungen zu deren Nachweis. Aber man hatte die gutgläubige Öffentlichkeit, die ja schließlich diesen ganzen Unfug bezahlen muss, bereits dermaßen indoktriniert, dass es am 4. Juli 2012 zu einem echten Medienhype kam. Die Weltpresse verkündete in großen Aufmachern, dass die Physiker am Kernforschungszentrum CERN eine wissenschaftliche Sensation feiern. Angeblich hatten sie endlich das lange gesuchte Higgs-Boson gefunden, das anderen Teilchen Masse verleihen soll. So wurde dies wenigstens in allen Medien berichtet. Um dieser fachlich unhaltbaren Behauptung die Krone aufzusetzen, wurde dafür auch noch der Nobelpreis vergeben.
Federico di Trocchio, Professor für Wirtschaftsgeschichte an der Universität von Lecce, stellt in seinem Buch, „Newtons Koffer, Querdenker und ihre Umwege in die Wissenschaft“, Rohwohlt Taschenbuchverlag, 2001, u.a. fest: „Die Anmaßung, im alleinigen Besitz der Wahrheit zu sein, hat das wissenschaftliche Establishment dazu verleitet, auch das Monopol der Wissenschaftsfinanzierung und der Veröffentlichungsmöglichkeiten zu fordern. Der Fall Arp und der noch dramatischere Fall Hillmann, die im III. Kapitel behandelt werden, haben deutlich gezeigt, dass Wissenschaftler mit abweichender Meinung heute riskieren, die Finanzmittel und die für ihre Arbeit erforderlichen Instrumente zu verlieren, ganz zu schweigen von der Möglichkeit, ihre Ideen bekannt zu machen und zu verbreiten. Aber wenn nonkonformistische Wissenschaftler ihre Karriere riskieren, riskiert die westliche Gesellschaft Stagnation oder, schlimmer noch, technologischen Rückschritt.“ An anderer Stelle schreibt Professor di Trocchio: „Im IV. Kapitel habe ich versucht zu zeigen, wie Wissenschaftler in diesem unglücklichen Fall wie in anderen (häufig unsichtbare) Tribunale bildeten, die ebenso, wenn nicht grausamer als die Inquisition waren. Wenn dies richtig ist, bleibt nur der Schluss, dass heute die Intoleranz der Religion durch die Intoleranz der Wissenschaft ersetzt worden ist.“ Ende des Zitates.
Die Lehre der Urknalltheorie beruht auf drei Behauptungen, die unhaltbar sind.
1. der Relativitätstheorie von Albert Einstein, die unter anderem besagen soll, dass das Universum zum Zeitpunkt Null aus einem Punkt unendlicher Dichte hervorgegangen sein muss. Eine paradoxe Situation, da zu diesem Zeitpunkt nach Überzeugung der Astrophysiker die Masse unendlich groß und der Raum unendlich klein gewesen sein soll. Da das mit den geltenden physikalischen Gesetzen nicht zu vereinbaren ist, wird kurz behauptet, dass zu diesem Zeitpunkt unsere physikalischen Gesetze nicht galten. Diese Gesetze traten erst spontan in Kraft, als man mathematisch eine Konstruktion erschuf, die in sich schlüssig und unser heutiges Universum mathematisch zu strukturieren in der Lage war. Wer das nicht glaubt, hat nach Ansicht der Vertreter dieser unhaltbaren Theorien ein evolutionsbedingtes geistiges Defizit.
2. der von Edwin Hubble gemachten Entdeckung der Rotverschiebung der Spektrallinien im Licht weit entfernter Quasare und Galaxien, die als Doppler-Effekt gedeutet und so als Fluchtgeschwindigkeit dieser Objekte interpretiert wird, obwohl experimentell nachgewiesen wurde, dass auch eine gravitativ bedingte Rotverschiebung der Spektren besteht.
3. der Entdeckung einer gleichmäßigen Hintergrundstrahlung im Mikrowellenbereich, die als schwacher Überrest eines fiktiven Urknalls interpretiert wird, obwohl der Entropiesatz besagt, dass der absolute Nullpunkt nicht erreicht werden kann und Sir Eddington bereits 1926 berechnet hatte, dass die „Betriebstemperatur“ des Universums 3 Kelvin beträgt.
Die Fehlinterpretationen von Einsteins Relativitätstheorie und das lineare Denken der Kosmologen bedingt, dass man auf Grund der unterschiedlichen Rotverschiebungen von Spektren der Galaxien auf einen fiktiven Urknall zurückrechnet und ernsthaft behauptet, dass 10-42 Sekunden nach dem Urknall das Universum so groß wie eine Apfelsine und 1032 Grad heiß war. Gleichzeitig wird festgestellt, dass in den ungleich größeren „Schwarzen Löchern“, die in großer Zahl im Universum vorhanden sind, die Materie so stark komprimiert ist, dass sich kein Teilchen in ihnen bewegen kann und folglich die Zeit in ihnen stillsteht. In einem derartigen Zustand kann ein „Schwarze Loch“ nicht mehr weiter schrumpfen, also noch kleiner werden, es kann aber auch nicht strahlen. Hier widerlegen sich die Experten selbst. Übrigens ist auch bis jetzt noch niemand auf die Idee gekommen, dass „Schwarze Löcher“ explodieren könnten.
Trotz der weiter oben beschriebenen gesicherten Ergebnisse traf den seinerzeit allseits als bestens ausgebildeten und als kompetentesten experimentellen Kosmologen anerkannten Halton Arp der Bann der Gurus, als er bei seinen Beobachtungen von Quasaren zu dem Schluss kam, dass Hubbles Gesetz, nach dem man die Entfernung der rätselhaften Himmelskörper auf Grund der Rotverschiebung messen kann, falsch ist. Er hatte Quasare entdeckt, die auf Grund ihrer sehr hohen Rotverschiebung sehr weit entfernt sein mussten neben Galaxien, die unserem Planeten vergleichsweise sehr nahe sind. Dabei hatte er lediglich nachgewiesen, dass die gesicherten Experimente von Rebka und Pound universelle Geltung haben. Mit diesen Ausführungen hatte er aber gegen das Dogma des Urknalls verstoßen. Die Reaktion der modernen Inquisition folgte schließlich 1988. Arp wurde nicht mehr erlaubt, das Teleskop der Mount-Palomar-Sternwarte zu benutzen. Er wurde einfach von seinem Kollegenkreis geächtet.
Man kann noch viele andere Irrlehren aufzählen. Siehe auch Offener Brief von 33 Wissenschaftlern zum Thema Urknall und Behinderung der Forschung durch eine Wissenschaftslobby an die Wissenschaftlerkreise, veröffentlicht im New Scientist (22.-28. Mai, 2004, Seite 20).
„Die Urknalltheorie basiert auf einer großen Anzahl hypothetischer Wesenheiten, auf Dingen, die wir niemals beobachtet haben - Aufblähung, geheimnisvolle Materie und dunkle Energie sind die auffallendsten Beispiele. Ohne diese gäbe es einen fatalen Widerspruch zwischen den Beobachtungen durch die Astronomen und den Vorhersagen der Urknalltheorie.
In keinem anderen Bereich der Physik würde diese stetige Zuflucht in neue hypothetische Objekte als ein Weg akzeptiert werden, um die Lücken zwischen Theorie und Beobachtung zu schließen. Irgendwann müssten ernsthafte Fragen über die Richtigkeit der zugrundeliegenden Urknalltheorie aufgeworfen werden.
Doch die Urknalltheorie kann ohne diese zu recht gepfuschten Faktoren gar nicht überleben. Ohne das hypothetische Inflationsfeld kann mit dem Urknall die fließende isentropische kosmische Hintergrundstrahlung, die man beobachten kann, nicht erklärt werden, weil es keine Möglichkeit gibt für Teile des Universums, die sich nun weit mehr als nur wenige Grade vom Himmel weg befinden, die gleiche Temperatur anzunehmen und somit dieselbe Menge an Mikrowellenstrahlung auszuströmen ………….“ Ende des Zitates.
Woraus besteht das Universum, wie funktioniert es und wie entstand der Mensch?
Wie der Nachweis von Gravitationswellen zeigt, besteht das Universum aus einem gasförmigen, stofflichen Medium, da sich Wellen nur in einem gasförmigen, flüssigen oder festen Medium fortpflanzen können. Der dritte Hauptsatz der Thermodynamik besagt, dass die Entropie eines Körpers am absoluten Temperatur-Nullpunkt (-273.15 °C) Null wird. Physikalisch gesehen ist die Temperatur ein Energie-Mittelwert. Die Temperatur eines Gases ist z. B. proportional zum Mittelwert der Bewegungsenergie der jeweiligen Teilchen; der absolute Nullpunkt ist erreicht, wenn sich die Teilchen überhaupt nicht mehr bewegen.
Dieser absolute Nullpunkt ist aber unstrittig prinzipiell nicht erreichbar. Wäre es anders, würde es den Kosmos nicht geben. Das bedeutet, dass Teilchen, die das Medium (Äther) bilden vorhanden und stets in Bewegung sind. Einige mutige Astrophysiker sprechen von sogenannten WIMPs. (engl. weakly interacting massive particles, schwach wechselwirkende massereiche Teilchen“ oder auch von „Dunkler Materie“.
Vor etwa 2500 Jahren traf bereits Aristoteles (*384 v. Chr. † 322 v. Chr.) eine viel weitergehendere Aussage, die bis heute von der Fachwelt nicht akzeptiert wird, die aber den wahren Sachverhalt in wenigen Worten beschreibt. Er führte den Begriff „hyle prote“ ein, der, in Latein übersetz, als materia prima in die Literatur Eingang gefunden hat und zwar in einem doppelten Sinne. In seiner Abhandlung über die Physik stellt er fest, dass die materia prima das elementare Substrat aller Naturkörper ist, das die Umwandlung in andere Körper durch Phasenübergänge ermöglicht. Da nicht alle Elementarteilchen im Kosmos gleichzeitig symmetrisch schwingen können, bilden sich, vergleichbar mit den Erkenntnissen aus der Wetterkunde, Verdichtungen, Verdünnungen und Verwirbelungen in der Atmosphäre wie in den Weiten des Universums. Unter entsprechenden Rahmenbedingungen können sich die gasförmigen Wassermoleküle, H2O, zu Wasser verflüssigen oder zu festem Eis gefrieren. Das hat wiederum zur Folge, dass sich die unterschiedlichen Himmelskörper in diesem Medium gegenseitig „beschatten“ können, wenn sich diese Körper entsprechend nahekommen, so dass zwischen ihnen ein Unterdruckgebiet entsteht. Damit dieses Unterdruckgebiet wieder ausgeglichen wird, werden diese Objekte durch den sie umgebenden Außendruck so lange aufeinander zugeschoben, bis der Druckausgleich erfolgt ist oder sie kollidieren. Die Gravitationskraft ist also gar keine Anziehungskraft, sondern die Konsequenz eines Druckausgleiches.
Verständlich wird dieser Sachverhalt durch die Erkenntnisse der Chaosforschung. Quasare und Galaxien folgen den jeweiligen Unterdruckregionen (Gravitationsfeldern) und bilden immer größere Galaxienhaufen. Dies lässt sich auch durch statistische Analysen und gesicherte Beobachtungen beweisen, die besagen, dass im Kosmos grundsätzlich die Tendenz zur Haufenbildung von Galaxien besteht, in deren gemeinsamen Zentrum der Unterdruck als Mangel an Elementarteilchen durch die gegenseitige Abschirmung am größten ist. In der Chaosforschung spricht man von einem zentralen Attraktor, ohne ihn jedoch näher zu definieren. Nach meiner Überzeugung sind diese „Attraktoren“ jeweils der gemeinsame Schwerpunkt, also das Gebiet maximalen Unterdrucks, das Zentrum aller dieser, die Galaxienhaufen bildenden Himmelskörper. Je näher sich die einzelnen Galaxien kommen, umso stärker werden sie auf den gemeinsamen Attraktor hin beschleunigt, bis sie schließlich irgendwann in ferner Zukunft beinahe Lichtgeschwindigkeit erreichen. Da sich bei Lichtgeschwindigkeit kein noch so kleines kräftetragendes Teilchen zusätzlich zur Lichtgeschwindigkeit bewegen kann, ist eine Wechselwirkung zwischen den einzelnen Elementarteilchen in der Materie nicht mehr möglich und die Materie, aus denen die Himmelskörper bestehen, löst sich in ihre Grundbausteine, die Elementarteilchen, auf, sie sublimieren. So werden sie wieder zu den das Universum ausfüllenden Ätherteilchen, um sich irgendwann wieder zu verdichten, Schwarze Löcher und schließlich als Quasare wieder Quarks und Antiquarks zu bilden, die Bausteine der Materie. Da Energie, sprich diese Elementarteilchen, weder erzeugt noch vernichtet werden können, sondern nur durch Phasenübergänge den Energiehaushalt und die damit verbundenen Aktivitäten des Universums regulieren, erneuert sich der Kosmos stetig, indem sich Entstehen und Vergehen von Materie in einem Fließgleichgewicht befinden. Das Universum funktioniert folglich wie ein unsterblicher primitiver Organismus und jede Galaxie verhält sich im Kosmos wie eine Zelle in einem Organismus. Deshalb sieht das Universum im ganz großen Maßstab ebenso schwammartig aus, wie in den Knochen von Lebewesen. Dieses „Gewebe“, auch Spongiosa genannt, benötigt wenig Material, stützt, ist elastisch und passt sich durch entsprechenden Umbau den jeweiligen Zug- und Druckkräften an, weshalb sich das Universum sehr plastisch verhalten kann und sich auch optisch dauernd verändert. Es ist also nicht statisch, sondern dynamisch in steter Veränderung.
Wie bereits weiter oben beschrieben, verhält sich das Medium Äther im All wie die Luft in unserer Atmosphäre, sodass man sich die Erkenntnisse der Meteorologen zu Nutze machen kann. Als Folge der willkürlichen Bewegung der Ätherteilchen kommt es zu unterschiedlichen Verdichtungen im Universum, vergleichbar der Bildung von Wolken bis hin zu Wirbelstürmen. Während Wirbelstürme an Kraft verlieren, wenn sie an Land gelangen, weil die Energiezufuhr, die sie über dem Atlantik aufgebaut und so stark gemacht hat unterbrochen wurde, stürzen die großflächigen Verwirbelungen von Ätherteilchen im Kosmos unter der Schwerkraft in sich zusammen, weil als Folge ihrer Ausdehnung nicht mehr genügend Ätherteilchen zur Verfügung stehen, um das System stabil zu halten, geschweige denn weiter zu vergrößern. Auf diese Weise entsteht ein im Zentrum dieser Teilchenformation ein massives Gebilde, das die Physiker als Schwarzes Loch bezeichnen, weil die Schwerkraft so groß ist, dass nicht einmal Photonen entweichen können, also außer einem extrem starken Gravitationsfeld nichts auf ihre Existenz schließen lässt. Innerhalb des Schwarzen Loches kommt es zu Dichteunterschiede, die aus Temperatur- oder Konzentrationsunterschieden resultieren. Das unterschiedliche Volumen gleicher Massen führt dann zu unterschiedlichem statischen Auftrieb, den sogenannten Konvektionsströmen. Der statische Auftrieb ist eine der Schwerkraft entgegengesetzte Kraft in Gasen oder Flüssigkeiten. Er wird durch die Verdrängung des leichteren Mediums durch das dichtere, weil heißere Medium hervorgerufen.
Das massive Zentrum, also das Schwarze Loch, wird von einer von außen nach innen zunehmenden Teilchendichte umgeben. Gravitation und Dichteunterschiede bewirken unterschiedlich schnell ablaufende Umwälzungen (Konvektionsströme) dieses Fluids, dabei kommt es an der Grenzfläche zwischen dem Fluid und dem massiven Kern des Schwarzen Loches als Folge des extremen Druckes und der extrem hohen Temperaturen zu einem Phasenübergang und die Ätherteilchen kristallisieren zu kleinen Partikeln, den Vorstufen späterer Quarks und Antiquarks aus. Gleichzeitig stürzt die Temperatur schlagartig auf den Absoluten Nullpunkt, da sich kein Ätherteilchen innerhalb dieser kristallinen Partikel bewegen kann und bilden so bei dem Erstarren ihren akuten „Konvektionstatus“ ab. Diese Partikel können sich aber wegen der extrem Größe und der hohen Rotation des massiven Kerns im Zentrum des Schwarzen Loches nicht mehr anlagern, werden durch die Corioliskraft zu den beiden Polen der Rotationsachse gepresst und reichern sich dort so lange an, bis sie schließlich durch den entstehenden Überdruck in Form von Jets an beiden Polen in entgegengesetzter Richtung explosionsartig in das All ausgestoßen werden. Auch wenn Tornados auf unserm Planeten eine andere Entstehungsgeschichte haben, so kann man die Abläufe innerhalb eines Jets und eines Tornados vergleichen. Als Hebungsmechanismen für die Jets sind sowohl extreme Druck- und Temperaturunterschiede zwischen dem Überdruck und der Innentemperatur des Quasars und dem Weltraum, sowie die dynamischen Rotationskräfte, die von dem Quasar den Jets mitgegeben werden, anzusehen. Erst diese zusätzlichen Energiemengen ermöglichen ein derart freies Aufsteigen der Quarks in Form der Jets, da die Weltraumsphäre gegenüber den Konvektionsströmen innerhalb der Jets stabil ist. So wie z. B. der Luftschlauch eines Tornados über Wasser auch eine Saugkraft entwickelt und große Wassermengen aufzusaugen vermag, so entsteht durch die Jets ebenfalls zusätzlich ein Sog.
Während des beschriebenen Vorgangs wird den Quarks in den jeweiligen Jets ein dauerhaftes spiegelbildliches Oberflächenprofil aufgeprägt, vergleichbar den Vorgängen in den „Zügen“ (dem Lauf) von Handfeuerwaffen und im Rohr von Geschützen, die dem Projektil einen Drall verleihen und dadurch die Geschossflugbahn stabilisieren. Das Geschoss wird beim Durchqueren des Laufes leicht gequetscht und erhält dadurch ein für den jeweiligen Lauf charakteristisches beständiges Oberflächenmuster.
Durch den gegensätzlichen Spin werden die Quarks dauerhaft zu „Südmonopolen“ und die am Gegenpol zu „Nordmonopolen“. Auf diese Weise entstehen gleichzeitig die Grundbausteine der Materie und der spiegelbildlichen Antimaterie. Die Quarks mit gegensätzlichem Spin verbinden sich in der Akkretionsscheibe des Quasars derart fest zum kleinsten Stabmagneten, dass auf unserem Planeten Quarks immer als Double auftreten, bisher auch in den Größten Teilchenbeschleunigern nicht einzeln nachgewiesen werden konnten und man deshalb lediglich unterschiedlich große, aus Südmonopol und Nordmonopol zusammengesetzte Stabmagneten kennt. Quarks können folglich erst entstehen, wenn ein Schwarze Loch die Zündungsenergie erreicht und zum Quasar wird. Diese Jets werden auf annähernde Lichtgeschwindigkeit beschleunigt und behalten ihre stabile Form dadurch, dass sie die Rotation, die sie vom massiven Kern des Quasars mitbekommen haben, beibehalten. Alle Partikel, deren Masse, Größe und innerer kristallinen Aufbau nicht den künftigen Quarks entsprechen, werden aus diesem Jet ausgeschieden und fallen durch die Schwerkraft zurück, während die Partikel, die die Bedingungen für einen Quark erfüllen den Magnetmantel um den Quasar durchstoßen, an den gegensätzlichen Polen eine Oberfläche erhalten, die sie wie Windräder künftig gegensätzlichen drehen lassen, wenn die Ätherteilchen sie künftig wie unterschiedlich starke Winde rotieren lassen.
Ausrichtung der Urstoffteilchen in den vier Quarks (Innenstruktur) und den vier Antiquarks
Die entsprechenden Quarks und Antiquarks haben die gleiche Innenstruktur. Sie unterscheiden sich lediglich durch ihre entgegengesetzte Drehrichtung, ihren Spin.
+2/3 – 1/3 + 2/3 = e -2/3 + 1/3 – 2/3 = e
+4/6 – 2/6 + 2/3 = e -4/6 + 2/6 – 4/6 = e
Überwiegend elektrisches Feld Überwiegend magnetisches Feld
Drei Quarks und drei Antiquarks bilden je einen kugelförmigen Zusammenschluss mit einem Hohlraum im Zentrum. Die < Pfeile > zeigen, wie ich später darlegen werde, die Ausrichtung der Ätherteilchen in den Konvektionsströmungen zum Zeitpunkt des Phasenüberganges am massiven Rand eines Schwarzen Loches an. Sie entsprechen der „Wicklung“ von Spulen, wie sie bei den Elektromagneten verwendet werden.
Dabei ist unstrittig, dass Quarks nur paarweise als Quark und Antiquark existieren und bisher nicht getrennt werden konnten. Wenn man also statt drei Quarks drei Quarkpaaren einen Atomkern zugesteht, braucht man die Ladung von Quarks in den Atomkernen nicht zu dritteln und auch nicht die Tatsache außer Kraft setzen, dass Quarks auf unserem Planeten nur paarweise existieren. Darüber hinaus braucht man auch keine Naturgesetze außer Kraft zu setzen. Diese Manipulation der Teilchenphysiker zu Gunsten einer Theorie ist erschreckend, zumal Quarks die Bausteine der Materie sind. Hier bestätigt sich wieder einmal die Feststellung von Albert Einstein: „Wenn die Tatsachen nicht mit der Theorie übereinstimmen, umso schlimmer für die Tatsachen.“
Die Quark-Antiquark-Paare, erzeugen die elektromagnetischen Felder im Atomkern, indem sie wie ein Dynamo von den reflektierten Ätherteilchen in Rotation versetzt werden. Da die magnetisch wirkenden Quarkpaare senkrecht zu den elektrischen Quarkpaaren stehen, siehe Abbildung, stehen auch im Makrokosmos die Felder senkrecht aufeinander.
Wenn sich elektrische Ladungen bewegen, rufen sie ein magnetisches Feld hervor, das senkrecht zu den elektrischen Ladungen steht. Bewegte elektrische Ladungen treten nicht nur in stromführenden Leitern auf, sondern auch in den Atomhüllen, die von Elektronen gebildet werden, durch Eigenrotation der Elektronen (Elektronenspin).
Ein magnetisches Feld ruft Kraftwirkungen auf andere bewegte elektrische Ladungen hervor. Der Verlauf magnetischer Feldlinien lässt sich mit Hilfe von Eisenfeilspänen darstellen. Magnetische Feldlinien verlaufen kreisförmig um die sich bewegenden Ladungen; sie sind also im Gegensatz zu den elektrischen Feldern stets geschlossen. Die technische Stromrichtung und die Orientierung der magnetischen Feldlinien sind im Sinne einer Rechtsschraube definiert („rechte Daumenregel“): Rechter Daumen zeigt in Stromrichtung, angewinkelte Finger in Richtung des magnetischen Feldes).
Quasare sind über weite Bereiche der elektromagnetischen Strahlung hell und haben charakteristische Spektren mit sehr breiten Emissionslinien, die in rascher Bewegung befindliche Teilchen anzeigen. Im Zentrum eines Quasars befindet sich, wie bereits beschrieben, ein Schwarzes Loch, das von einem sogenannten Bulg, einem besonders dichten Zentralbereich aus Ätherteilchen (Dunkler Materie), umgeben ist. An den beiden Polen eines Quasars schießen sogenannte Jets strahlenförmig gebündelte Teilchen mit Lichtgeschwindigkeit mehrere Lichtjahre weit in das All. Die leuchtkräftigsten Quasare erreichen auf diese Weise eine Helligkeit, die mehr als das 1014-fache der Sonnenleuchtkraft betragen kann.
Am Ende des Jets verteilen sich die freigesetzten Quarks und Antiquarks, vergleichbar dem Wasser einer Fontaine, nach allen Seiten und folgen den elektromagnetischen Feldlinien zum entgegengesetzten Pol des Quasars. Auf halben Weg treffen sie jedoch im Bereich der Äquatorialebene des Quasars auf die Teilchen des entgegengesetzten Poles und verbinden sich mit ihnen zu vier unterschiedlichen Quark / Antiquarkpaaren. Die Eigenschaften dieser Quarkpaare entsprechen den sogenannten up-Quarks und down-Quarks.
Die Quantenchromodynamik (QCD) ist eine Quantenfeldtheorie mit deren Hilfe Teilchenphysiker die „Starke Wechselwirkung“ zu beschreiben versuchen. Was sie als Farbe bezeichnen, hat nichts mit unserem Farbempfinden zu tun. Der Begriff Farbe wurde von den Experten gewählt, weil ihnen das Wissen über das Verhalten reeller Farben geeignet erschien, das Verständnis der Wechselwirkungen im Mikrouniversums, in diesem Falle der sogenannten „Starken Kernkraft“, zu erleichtern. Nach der Quantenchromodynamik tritt jedes Quark in einer der drei Grundfarben Rot, Gelb oder Blau auf, jedes Antiquark in einer der drei Komplementärfarben. Werden die drei Grundfarben oder die drei Komplementärfarben gemischt, so erhält man weiß. Da Baryonen nach dem Verständnis der Teilchenphysiker aus drei Quarks bestehen sollen, obwohl Quarks auf unserem Planeten immer nur paarweise anzutreffen sind, und Protonen auch zu den Baryonen gezählt werden, wird deshalb behauptet, dass drei Quarks mit den „Farben“ Rot, Gelb, und Blau = Weiß, ein Proton bilden. Und deshalb wird die Wechselwirkung von Quarks und Gluonen, den nach ihrer Ansicht fundamentalen Bausteine der Atomkerne, entsprechend beschrieben und erklärt. „Dicht an der Wahrheit, aber doch daneben“ kann man da nur sagen, da durch die Urknalltheorie und die mathematisch konstruierten Atommodelle der Bezug zur Realität verloren gegangen ist. Während der Urknall blanker Unfug ist, haben sich die unterschiedlichen Atommodelle für bestimmte Problemlösungen bewährt, sie werden aber unbrauchbar, wenn sie verallgemeinert werden und beschreiben nicht die Realität.
In der Realität sind Quarks ebenso wie Photonen farblos. Der Farbeindruck entsteht über chemische Prozesse in sogenannten Rezeptoren in der Netzhaut des Auges, was wiederum zu entsprechenden elektromagnetischen Informationen im Gehirn führt.
Nach der Gegenfarbentheorie von Hering (1834–1918) kann man sich Farbeindrücke wie „gelbliches Blau“ oder „rötliches Grün“ nicht vorstellen, weil keine Farbe zugleich rötlich und grünlich oder gleichzeitig Gelb und Blau sein kann. Die Ursache ist der gegenseitige Ausschluss von Rot + Grün, das zu Gelb wird. Die Wellenlänge von Gelb liegt zwischen den Wellenlängen von Rot und Grün sowie Blau und Gelb, das zu Grün wird.
Die Farbwahrnehmung ist als Teilbereich des Sehens die Fähigkeit, Licht in Abhängigkeit von der Wellenlänge der elektromagnetischen Strahlung verschieden wahrzunehmen. Dabei können unterschiedliche spektrale Zusammensetzungen des Farbreizes zur gleichen Farbwahrnehmung führen, weshalb allein aus der wahrgenommenen Farbe nicht die Zusammensetzung des Farbreizes erschlossen werden kann. Photonen können in den Sehzellen, den Photorezeptoren, eine Umbildung an einem zusammengesetzten Protein des Sehpurpurs bewirken und durch anschließende biochemische Vorgänge elektrische Signale auslösen. Über die Sehnerven, die in der Netzhaut beginnen, werden diese Signale ins Zentralnervensystem geleitet und zu einem Farbeindruck verarbeitet. |
Bei Betrachtung aller Farbtöne erscheinen für die meisten Menschen die vier Farben Rot, Grün, Gelb und Blau als besonders rein. Hering bezeichnete diese Farben als Urfarben. Andere Farbtöne empfindet man immer als Mischung. Beim längeren Betrachten einer Farbfläche und anschließender Betrachtung einer neutralen hellen Fläche entstehen Nachbilder in der jeweiligen Gegenfarbe. Diesen Prozess nennt man Sukzessivkontrast, (lat. succedere = nachfolgen).
Quarks und Antiquarks bilden ein Proton
Wenn man etwa 30 Sekunden genau auf den Protonkern und anschließend auf eine weiße Fläche schaut, sieht man die Gegenfarben.
Diese Nachbilder entstehen bei der Farbwahrnehmung durch die Anpassung des Auges gegenüber bestimmten Lichtreizen der Netzhautrezeptoren. Dabei verbrauchen sich die Pigmente für eine der drei Grundfarben, der das Auge für längere Zeit ausgesetzt ist, so dass die Reaktionen der entsprechenden Nerven immer schwächer werden. Durch diesen Umstand befindet sich das entsprechende Gegenfarbensystem nicht mehr im Gleichgewicht, was zur Folge hat, dass die Gegenfarbe des ursprünglichen Reizes erscheint. Man sieht ein Nachbild des Objekts in Komplementärfarben. Ganz nebenbei. Eine derartige Erscheinung lässt sich übrigens nicht mit der weitverbreiteten Dreifarbentheorie, dem RGB-Farbraum, erklären.
1966 bestätigten endlich neurophysiologische Untersuchungsergebnisse, dass es vier grundlegende Farbempfindungen gibt. Die drei verschiedenen Zapfentypen im Auge, die jeweils für kurz- (blau), mittel- (grün) und langwellige (rot) Lichtstrahlen empfindlich sind, liefern Impulse an die nachgeschalteten neuronalen Farbkanäle. Auf der neuronalen Ebene werden die Farbreize „verschaltet“: Rot und Grün werden subtrahiert, die Differenz wird im Rot-Grün-Kanal weitergeleitet; die Addition von Rot und Grün dagegen ergibt die Empfindung von Gelb; diese Impulse werden vom Blau subtrahiert und im Gelb-Blau-Kanal weitergeleitet. Alle Farben werden außerdem gegeneinander abgewogen und in einem Signal im Schwarz-Weiß-Kanal zusammengefasst. So entstehen die drei Empfindungsdimensionen: 1. Helligkeit, 2. Gelb-Blau-Komponente, 3. Rot-Grün-Komponente, aus denen dann mehrere tausend Farbarten unterschieden werden können. Ein Glück, dass sich die tonangebenden Experten dieses Sachverhaltes nicht bewusst sind, denn sonst müssten wir zwangsläufig in einem fünfdimensionalen Raumzeit-Farbraum leben.
Die Quarks und Antiquarks, die ein Proton bzw. ein Neutron aufbauen, sollte man Yukawa Mesonen nennen, da der Japaner Hideki Yukawa 1935 diese Partikel vorausgesagt und ihre Masse mit etwa 270mal schwerer als ein Elektron erstaunlich genau aufgrund von Berechnungen vorausgesagt hatte. Mesonen (Meson = gr. „das Mittlere“) sind nach offizieller Lehre instabile subatomare Teilchen, die aus einem Quark-Antiquark-Paar aufgebaut sind. Yukawa hatte als Erster einzelne Teilchen nachgewiesen und als Mesonen bezeichnet, weil ihre Masse zwischen der des Elektrons und der eines Atoms liegt. Heute bestätigen zwar die Teilchenphysiker, dass Mesonen nicht zerlegt werden können, begründen dies aber mit der irrigen Ansicht, dass sich Quark und Antiquark nach einer geglückten Trennung sofort mit einem neuen Partner verbinden würden, der aus der Energie erzeugt würde, die man für das Aufbrechen der Mesonen benötigt hatte. Gleichzeitig sprechen sie von virtuellen Mesonen mit einer äußerst kurzen Lebensdauer, weil sie die Mesonen als die „Starke Kraft“ verstehen, die nur auf extrem kurzen Distanzen wirkt. In Wirklichkeit ist die sogenannte Starke Kraft das Ergebnis von Gravitation minus elektromagnetischer Abstoßung der Quarkpaare untereinander. Auch hier wird der entscheidende Fehler begangen, Wirkung und Stoffliches gleichzusetzen. Man muss sich halt alles mühevoll mit unterschiedlichsten Hypothesen zu Recht rücken, damit unhaltbare Behauptungen offiziell verkündet und von einer breiten Öffentlichkeit geglaubt werden.
Die sog. Starke Kraft ist eine Erfindung der Teilchenphysiker, weil sie die Vorgänge in den Atomen nicht verstanden haben und mit ihren zahlreichen Hypothesen in einer Sackgasse gelandet sind. Die Physiker fragten sich nämlich, warum Atomkerne nicht explodieren, wenn sie aus Protonen und Neutronen bestehen, denn die Protonen müssten sich aufgrund ihrer elektromagnetischen Kräfte gegenseitig abstoßen. Schließlich werden Protonen, die sich einem Atomkern nähern, durch die elektrischen Kräfte abgestoßen. Zwingt man allerdings ein Proton sich einem Atomkern bis zu einer Distanz zu nähern, die seinem Durchmesser entspricht, wird das Proton plötzlich mit einer Kraft in den Kern hineingezogen, die etwa hundertmal stärker ist als die abstoßenden elektromagnetischen Kräfte. Also schloss man messerscharf, dass es eine Starke Kraft geben muss, die auf ganz kurze Distanz im Kern wirkt und die elektromagnetische Abstoßung der Teilchen unterdrückt. Auch in diesem Falle ist zu empfehlen, sich an das aus der Chaosforschung bekannte Selbstähnlichkeitsprinzip zu erinnern. Hier spielt sich im subatomaren Bereich ein vergleichbarer Vorgang wie bei den Schwarzen Löchern im Universum ab. Ein extrem starkes Magnetfeld besteht um jeden Atomkern, das ihn gegen alle Materieteilchen abschirmt. Erst wenn das Proton ganz nahe an den Atomkern herangekommen ist, wird, da Neutronen elektrische Felder ignorieren, durch die Magnetkräfte des Atomkerns das ankommende Proton in ein Neutron umgewandelt und kann jetzt problemlos in den Atomkern eindringen. Im Atomkern kann das Neutron umgehend in das permanente Wechselspiel Proton zu Neutron und umgekehrt eingebunden werden. Jedes Quarkpaar und Antiquarkpaar hat einen dauerhaften elektromagnetischen Schutzwall, so dass sich jedes Proton bzw. Neutron wie auf einer nassen Schmierseife innerhalb des Atomkernes scheinbar frei bewegen kann.
Atome und ihre sogenannte Antimaterie
Von Hideki Yukawa wurden 1935, also zu einer Zeit, als man von Quarks noch gar nichts wusste, auf Grund mathematischer Berechnungen Teilchen postuliert, die für die starke Kernkraft verantwortlich sein sollten. Einige Jahre nach ihrer Vorhersage wurden Teilchen in der kosmischen Höhenstrahlung nachgewiesen, die den Berechnungen Yukawas entsprachen. Sie wurden als Mesonen bezeichnet, weil ihre Masse zwischen der eines Elektrons (1) und der eines Protons (1836) liegt. Diese Teilchen haben jedoch einige „Schönheitsfehler“, da sie für Physiker keine fundamentalen Elementarteilchen sind und damit beginnt ein weiteres Problem. Es ist nämlich auffallend, dass Mesonen nur äußerst selten vorkommen und dass sie ausschließlich in der Höhenstrahlung nachgewiesen werden können, also dort, wo eine weitaus geringere Zahl an Atomen vorkommt. Unwillkürlich stellt man sich die Frage, welchen Sinn es wohl macht, dass Teilchen der starken Kernkraft frei beweglich an Orten vorkommen, wo sie gar nicht benötigt werden? Schließlich gehören diese Teilchen, wenn die Theorie stimmt, in den Atomkern. Yukawa wusste allerdings zu seiner Zeit noch nichts von Quarks. Aus weiter oben angeführten Gründen handelt es sich bei den nachgewiesenen Mesonen um vagabundierende Quarks, die, aus welchen Gründen auch immer, keinen Reaktionspartner gefunden haben. Darüber hinaus zeigen die Wechselwirkungen der Quarks untereinander, dass es sich bei der Einschätzung der Bedeutung der Gravitationskräfte in der Mikrophysik um einen schwerwiegenden Fehler mit weitreichenden Folgen handelt. Für meine Feststellung, dass es sich bei den Mesonen um Quarks, also um Elementarteilchen handelt, spricht auch die Tatsache, dass es positiv geladene, negativ geladene und neutrale Elementarteilchen aus der Gruppe der Mesonen gibt.
Die Träger der positiven bzw. negativen Ladung besitzen eine Ruhemasse von 273, während das neutrale Meson eine Ruhemasse von 264 besitzt. Wenn man bedenkt, dass ein Elektron die Ruhemasse 1 und ein Proton die Ruhemasse 1836 hat, so fällt es schwer zu glauben, dass es sich bei den Mesonen um die starke Kernkraft handelt. Es ist vielmehr davon auszugehen, dass durch sie die „starke Kernkraft“ zum Tragen kommt, sie also die Träger der starken Wechselwirkung sind.
Nach gültiger Lehrmeinung ist die Wechselwirkung eine allgemeine Bezeichnung für die gegenseitige Beeinflussung physikalischer Objekte (insbesondere Elementarteilchen). Aus einer Wechselwirkung ergibt sich stets auch ein Energieaustausch. Die Kernkraft ist die starke Wechselwirkung zwischen Kernen und Nukleonen bzw. ihren Unterstrukturen, den Quarks.
Die Quarks bilden durch die Gravitationskräfte, die stabilen Kerne der Atome und sorgen dafür, dass die Atomkerne wegen der positiven Ladung der beiden u-Quarks nicht auseinanderfliegen. Es erscheint deshalb viel wahrscheinlicher, dass es sich bei den Mesonen um u-Quarks und d-Quarks handelt, die von Quasaren erzeugt, als Singles durch das All oder im Halo eines Quasars bzw. Schwarzen Loches vagabundieren und beim Auftreffen auf Materie sofort wechselwirken. Setzt man für jedes positiv geladene u-Quark und Anti-u-Quark die Masse 273 ein, so erhält man für die beiden u-Quark/Anti-u-Quarkpaare die Masse 4 x 273 = 1092 und für das d-Quark und das Anti-d-Quark die Masse 2 x 264 = 528. Die sechs Quarks haben somit gemeinsam die Masse 1620. Zieht man die Masse der sechs Quarks von der Ruhemasse des Protons 1836 ab, so ergibt sich eine Restmasse von 216. Sechs Quarks haben untereinander 12 Bindungsstellen. 216 : 12 = 18.
Das bedeutet, dass die Gluonen, ein Feld aus Ätherteilchen, die Masse 18 pro Bindung haben. Die offizielle Lehrmeinung geht davon aus, dass Gluonen die Träger der starken Kernkraft sind. Diese Teilchen sollen allerdings die Masse Null und den Spin 1 haben. Als freie Quanten wurden die Gluonen bisher noch nicht beobachtet. Da es sich also um „mathematische Gluonen“ handelt, besagt das nichts über ihre realen Eigenschaften. Da die Masse der Gluonen nach den oben durchgeführten einfachen Berechnungen 18 beträgt, bedeutet dies eine extreme Ätherteilchenverdichtung in Form eines Feldes zwischen den einzelnen Quarks. Es handelt sich somit nicht um eine, mit einem besonderen Zustand des Raumes verbundene Fernwirkungserscheinung, sondern schlicht um ein Feld aus Ätherteilchen, das sich zwischen den einzelnen Quarks befindet, wobei das Medium extrem verdichtet ist. Die Masse 18 für ein Gluon, oder wie auch immer man dieses Feld aus Ätherteilchen nennen will, ist auch eine realistische Größenordnung, zumal die auf die Umgebung wirkende Anziehungskraft 100fach stärker sein soll als die elektrische Abstoßung, welche so lange erfolgt, solange der Abstand zwischen Nukleon und Atomkern größer ist als der Durchmesser eines Protons. Ist der Abstand kleiner, wird das Nukleon durch die Gravitationskräfte der Quarks in den Atomkern hineingezogen.
Die derzeit gültige Lehrmeinung besagt, dass sich das Proton, der Atomkern des Wasserstoffs, aus zwei u - Quarks mit der elektrischen Ladung von je +2/3 der Protonenladung und einem d - Quark mit der elektrischen Ladung von je -1/3 der Protonenladung aufbaut. Diese Aussage verstößt nicht nur gegen die Definition, dass jede Ladung ein ganzzahliges Vielfaches der Elementarladung ist (Unteilbarkeit der Elementarladung), sondern auch die Tatsache, dass Quarks auf unserem Planeten nie alleine, sondern grundsätzlich nur als Quark/Antiquarkpaar vorkommen. Einstein spottete nicht zu Unrecht: „Wenn die Fakten nicht mit der Theorie übereinstimmen, ändere die Fakten.“ Gemäß dieser Vorgabe wurde diese mathematische Vorgabe als Sonderheit der Quarks erklärt. Dies ist umso erstaunlicher, als die Quarks die elementare Stufe der Atome und damit der Materie darstellen. Niemand wagt es, diese widersprüchlichen Behauptungen zu hinterfragen, obwohl sie weitreichende Konsequenzen haben. Wenn es richtig ist, dass jede Ladung ein ganzzahliges Vielfaches der Elementarladung ist und wenn Ladungsträger der Elementarladung die Elementarteilchen sind, dann ist es falsch, für die angeblichen 3 Quarks im Proton Ladungen mit 2 x +2/3e und 1 x -1/3e zu postulieren. Eine derartige Behauptung bedeutet, dass man sich über die gesicherte Tatsache hinwegsetzt, dass Quarks grundsätzlich nur zu zweit auf unserem Planeten vorkommen. Wenn die Definition von Elementarladung und Ladung auf alle Elementarteilchen zutrifft, muss sie auch für die Quarks Geltung haben.
Aus meinen bisherigen Ausführungen ergibt sich, dass ein Proton, wie oben bereits dargelegt, aus 6 Quarks besteht. Die Gravitationskraft ist entscheidend dafür verantwortlich, dass die Protonen nicht auseinanderfliegen. Die beschriebene Innenstruktur der Quarks und ihr Spin bewirken die elektromagnetischen Eigenschaften und sind für die Topologie der Quarks innerhalb des Protons verantwortlich. Die Schwerkraft ist es, die die einzelnen Protonen und Neutronen in den schwereren Atomkernen zusammenhält, während die elektromagnetischen Wechselwirkungen die Atomhülle aufbauen sowie Struktur, Umbau und Stabilität von Molekülen bestimmen. Durch die unterschiedliche Ausrichtung der Ätherteilchen in den Quarks entsteht ein Effekt, wie er von der Wicklung bei Magnetspulen bekannt ist. Auch hier wieder das Selbstähnlichkeitsprinzip. So kann jedes einzelne Quark bzw. Antiquark die für seine Gruppe spezifische Ladung aufbauen. Die Ausrichtung der Ätherteilchen parallel oder antiparallel zur Rotationsachse bedeutet, dass die beiden u-Quark /Anti-u-Quarkpaare für die Erzeugung der elektrischen Ladung verantwortlich sind, während das d-Quark / Anti-d-Quark den kleinsten Stabmagneten innerhalb eines Protons bildet.
Die 3 Quarkpaare, die ein Proton aufbauen, bestehen folglich aus 2 u-Quarks, 2 Anti-u-Quarks, 1 d-Quark und 1 Anti-d-Quark. Jedes u-Quark und Anti-u-Quark hat auf Grund seiner Innenstruktur eine doppelt so große und entgegengesetzte Ladung (+2) wie ein d-Quark (-1). Das eine u-Quark/ Anti-u-Quarkpaar hat somit die Ladung +4. Das andere Anti-u-Quark / Quarkpaar hat ebenfalls die Ladung +4. Das d-Quark und das Anti-d-Quark sind aber im Gegensatz zu den u-Quarks und Anti-u-Quarks nicht parallel bzw. antiparallel, sondern senkrecht zur Rotationsachse ausgerichtet. Außerdem ist die Ausrichtung der Ätherteilchen senkrecht zu der Ausrichtung der Urstoffteilchen in den u-Quarks. Die Ladung des d-Quarks ist deshalb -1. Die gleiche Ladung -1 besitzt das Anti-d-Quark. Zusammen haben das d-Quark und das Anti-d-Quark die Ladung -2. Das Proton hat aber laut Definition die Ladung +1.
Drei Quarks und drei Antiquarks bilden drei bisher nicht teilbare Quarkpaare. Man erhält also zwei u-Quark/Anti-u-Quarkpaare, die jeweils die Ladung 4 haben und ein d-Quark/Anti-d-Quarkpaar mit der Ladung -2. Die Ladung eines Protons ist also 4 + 4 - 2 = 6. Da ein Proton aus sechs Quarks besteht, ist die Elementarladung 6/6e = 1e.
4/6e + 4/6e - 2/6e = 6/6e.
Da 6 Quarks ein Proton bilden, muss die Ladung 6e durch 6 geteilt werden, dann erhält man für das Proton die Elementarladung = +1e.
wenn man diese Gleichung durch 2 kürzt, erhält man mit
2/3e + 2/3e - 1/3e = 3/3e = + 1e
die Ladung, die die Experten für ein Proton berechnet haben, da in diesem Falle 3 Quark / Antiquarkpaare ein Proton bilden, muss man 3e durch 3 teilen, um die Elementarladung = +1e zu erhalten.
Nach gültiger Lehrmeinung werden Protonen aus der Kombination (u u d) gebildet, wobei die Spinkombination wegen des Pauli-Prinzips ( ¯ ) = ist. Die Ladung eines Protons errechnet sich aber nach der offiziellen Lehre von lediglich 3 Quarks. Das verstößt zwar gegen den Lehrsatz, dass jede Ladung ein ganzzahliges Vielfaches einer Elementarladung e ist, wird aber durch die Behauptung, dass nur drei Quarks ein Proton bilden aus Symmetriegründen ignoriert. Das ist verwunderlich, da man unter Berücksichtigung der Tatsache, dass Quarks grundsätzlich nur zu zweit vorkommen, nicht gegen den Lehrsatz verstoßen hätte, dass jede Ladung ein ganzzahliges Vielfaches einer Elementarladung e ist und man zu dem gleichen Ergebnis wie ich gekommen wäre.
Gleichung: 2/3e + 2/3e - 1/3e = 4/3e - 1/3e = +3/3e = +1e
Würden also die Physiker ebenfalls davon ausgehen, dass ein Proton aus sechs Quarks besteht, wäre es völlig überflüssig, den Lehrsatz über die Ladung für Quarks außer Kraft zu setzen. Statt Symmetriegründen könnte man ja auch einmal der Logik eine Chance geben und gesicherte Fakten berücksichtigen.
Das Protonmodell erklärt auch, warum die Richtung des elektrischen Feldes und die Magnetfeldrichtung immer senkrecht aufeinander stehen. Zwischen beiden Feldern besteht eine energetische Verknüpfung. Dabei umschlingen sich die Felder gegenseitig. Wird ein elektrisches Feld abgebaut, nimmt also die elektrische Energie ab, nimmt die magnetische Energie zu und baut ein magnetisches Feld auf. Das elektrische Feld und das magnetische Feld werden nie vollständig abgebaut, so dass sich die Oszillationen zwischen zwei Grenzwerten hin und her bewegen. Wie dies z.B. von den Dipolantennen eines Senders bekannt ist. Dieser Vorgang ist, wie alle elementaren Abläufe, umkehrbar und somit ein schönes Beispiel für Oszillationen, Wechselwirkungen und Veränderungen ohne Zeitpfeil. Das von mir entwickelte Quarkmodell und der Aufbau des Protons zeigen auch, warum man Ladungen nicht erzeugen kann. Die in der Natur vorkommenden Ladungen lassen sich grundsätzlich nur trennen. Bei einer Ladungstrennung erhält man immer gleichviel positive und negative Ladungen. Wie oben schematisch dargestellt, gibt es grundsätzlich zwei spiegelbildlich aufgebaute Protonen. Das bedeutet, dass sich auch der Spin ihres jeweiligen Elektrons spiegelbildlich zum Elektron des anderen Protons verhalten muss. Proton und Antiproton (Neutron) erfüllen folglich die Bedingungen von Materie und Antimaterie. Deswegen könnte man bei der Ladung ebenfalls von Ladung und „Antiladung“ (Gegenladung) sprechen, wenn man entgegengesetzte Kräfte beschreiben will, zumal Ladung immer an etwas Stoffliches gebunden ist. Das Wechselwirkungsgesetz wird wie folgt definiert:
Übt ein Körper A auf einen Körper B die Kraft F1 aus, so übt stets auch der Körper B auf den Körper A eine Kraft F2 aus, deren Betrag gleich dem von F1 und deren Richtung entgegengesetzt zu der von F2 ist. F2 bezeichnet man als Gegenkraft (reactio) von F1. Kräfte treten also stets paarweise auf. Zu jeder „actio“ gehört eine „reactio“. Gleichnamige Ladungen stoßen einander ab, ungleichnamige Ladungen ziehen sich an.
Der Aufbau der einzelnen Quarks erklärt, weshalb sich gleiche Ladungen abstoßen und gegensätzliche Ladungen anziehen. Das Wechselwirkungsgesetz macht verständlich, warum es einen halbzahligen Spin gibt. Der halbzahlige Spin bringt zum Ausdruck, dass auf eine „actio“ noch keine „reactio“ erfolgt ist, also bei dem betreffenden System noch eine „Aktionsbereitschaft“ bzw. „Reaktionsbereitschaft“ besteht. Das Wasserstoffatom besteht aus einem Atomkern, dem positiv geladenen Proton und einer Atomhülle, die von einem negativ geladenen Elektron gebildet wird. Da alle Elemente aus Atomen und ihren Antiatomen bestehen, können die Atome und Antiatome Moleküle bilden, wie der Wasserstoff (H2), Chlor (Cl2) oder Sauerstoff (O2). Dies ist nur möglich, wenn ihre jeweiligen Elektronen spiegelbildlich spinnen. Diese Elektronen können aber nur spiegelbildlich spinnen, wenn der Atomkern spiegelbildlich aufgebaut ist. Der Stern-Gerlach-Versuch bestätigt diesen Sachverhalt auf eindrucksvolle Weise.
Der entscheidende Faktor, der die Selbstorganisation der Materie steuert, kann z. Z. von der Physik nicht erklärt werden. Wenn man sich aber den Aufbau des oben beschriebenen Atommodells genau ansieht, so wird verständlich, warum die Ausrichtung der Ätherteilchen in den beiden d-Quarkpaaren (vergleichbar den Wicklungen von Magnetspulen) und ihr Spin für die Selbstorganisation der Materie verantwortlich sind. Atomkerne können sich durch die oben beschriebenen Eigenschaften entsprechend im Raum „orientieren“ und sich folglich auch „organisieren“.
Zusammenfassend ist festzuhalten: Das Elektron des Protons verhält sich spiegelbildlich zu dem Elektron vom Antiproton. Ebenso verhalten sich die Photonen, die von den entsprechenden Elektronen abgestrahlt werden. Auf diese Weise erhält das Proton eine spiegelbildliche Information von dem Elektron des Antiprotons und das Antiproton von dem des Protons. Somit handelt es sich auf der energetischen Ebene um das gleiche Prinzip, das auch auf der materiellen Ebene, z. B. in der Chemie, als Reaktion zwischen positiv und negativ geladenen Atomen, Ionen und Molekülen beschrieben wird und das in der Biochemie als Reaktion zwischen Rezeptor und Ligand bekannt ist. In diesem Sachverhalt ist die Bildung von Racematen ebenso begründet wie die Wirkung der Homöopathie, die im Vergleich zu den chemischen Reaktionen nicht auf der atomaren, sondern bereits auf der energetischen Ebene, also über die elektromagnetischen Felder, zur Wirkung kommt. Durch das bereits von Hahnemann intuitiv erkannte „Gegenbild“ („Spiegelbild“), werden die Störschwingungen, welche die Krankheitssymptome eines Patienten hervorgerufen haben, sofern die Schwingungen des nach dem Ähnlichkeitsprinzip verabreichten Arzneimittels diesen Störschwingungen spiegelbildlich ähneln, durch Interferenz gelöscht.
Die Homöopathie heilt folglich nicht mit unendlichen Verdünnungen, wie „Tumbe Toren“ behaupten, denn wer logisch denken kann, der weiß, dass es „unendliche“ Verdünnungen gar nicht geben kann. Eine physikalische Konstante, die Avogadro - Konstante, gibt nämlich die Teilchenzahl von Atomen eines Elementes oder der Moleküle einer chemischen Verbindung in einer bestimmten Stoffmenge (einem Mol) des jeweiligen Materials an. Entsprechend der Definition der atomaren Masseneinheit beträgt die Masse 6,02214129 x 1023 Atome. Eine größere Verdünnung ist deshalb nicht möglich, weil man nicht etwas, das nicht mehr vorhanden ist, auch nicht weiter verdünnen kann. Wo nichts mehr ist, kann man auch nichts mehr verdünnen. Verdünnungen sind grundsätzlich endlich. Darüber hinaus ist klarzustellen, dass die Homöopathie nicht mit Verdünnungen, sondern mit unterschiedlich hoch potenzierten Arzneimitteln arbeitet.
Weil Hahnemann durchaus erkannte, welch hohe Anforderungen diese neuartige Heilmethode an seine Schüler und Nachfolger stellt, benannte er sein Hauptwerk, welchem er zunächst den Namen „Organon der rationellen Heilkunde“ (Organon bedeutet im Griechischen „Werkzeug“) gegeben hatte, ab der 2. Auflage um, verlieh ihm den Titel „Organon der Heilkunst“ und gab allen, die seine Heilmethode ausüben wollen, den guten Rat: „Macht´s nach, aber macht´s genau nach!“
Um den Wirkungsmechanismus der Homöopathie zu verstehen, muss man sich noch einmal an die Chaosforschung und das Selbstähnlichkeitsprinzip erinnern. Es ist unstrittig, dass unsere Welt dualistisch aufgebaut ist. Es sind die Gegensätze bzw. die Polarität, die alles so funktionieren lässt, wie wir es kennen. Von dieser Realität ausgehend, lässt sich feststellen, dass alle chemischen Reaktionen darauf beruhen, dass sich gleiche Ladungen abstoßen und gegensätzliche Ladungen anziehen. Auf der energetischen Ebene, dem Elektromagnetismus sind es positive und negative elektromagnetische Felder, die sich gegenseitig löschen oder verstärken. Dieser Vorgang wird als Interferenz bezeichnet.
Die Schulmedizin nutzt chemische Verbindungen, sprich Arzneien, die eine der Krankheit entgegegesetzte Wirkung haben, um Leiden zu mindern oder gar zu heilen. Contraria contrariis curantur. Die Krankheit wird mit einem Entgegengesetzten wirkenden Mittel behandelt, z. B. Bluthochdruck mit einem Mittel zur Blutdrucksenkung.
In der Homöopathie gilt „Ähnliches soll durch Ähnliches geheilt werden“ (similia similibus curentur, Hahnemann). Danach solle ein homöopatisches Arzneimittel so ausgewählt werden, dass es an Gesunden ähnliche Symptome hervorrufen könne wie die, an denen der Kranke leidet, wobei auch der „gemüthliche und geistige Charakter“ des Patienten berücksichtigt werden muss. Zur Herstellung der homöopathischen Arzneimittel werden die Ausgangssubstanzen einer sogenannten Potenzierung unterzogen, das heißt, sie werden wiederholt (meist im Verhältnis 1:10 oder 1:100) mit Wasser oder Alkohol verschüttelt oder mit Milchzucker verrieben. Diese Verdünnungen wurde von Hahnemann anfänglich deshalb durchgeführt, weil zahlreiche der von ihm verwendete Stoffe selbst in kleinen Mengen noch zu giftig waren, um sie seinen Patienten verabreichen zu können. Daraufhin machte er an seinen Patienten die erstaunliche Erfahrung, dass sich die Heilwirkung seiner Arzneien, wenn er sie auf jeder Verdünnungsstufe verschüttelte oder verrieb, trotz der durchgeführten Verdünnungen merklich verbesserte. Erst in einer späteren Phase verordnete Hahnemann sogenannte Hochpotenzen, in denen (ab der D23, der sogen. Avogadro´schen Zahl) nicht ein Molekül der Ausgangssubstanz mehr vorhanden ist. Aus heutiger Sicht lassen sich die immer wieder zu beobachtenden Heilungen durch Hochpotenzen nur durch die Weitergabe von arzneispezifischen Informationen in Form von elektromagnetischen Feldern erklären.
An dieser Stelle ist nochmals darauf hinzuweisen, dass zur Zeit Hahnemanns niemand etwas von elektromagnetischen Feldern wusste und Hahnemann, bei dem Versuch, seinen Zeitgenossen die Wirkungsweise seiner neue Heilmethode zu erklären, etwas beschreiben musste, wofür es noch gar keinen Namen gab. Er nahm an, dass durch das besondere Verfahren der Potenzierung oder „Dynamisierung“ eine „im innern Wesen der Arzneien verborgene, geistartige Kraft“ wirksam werde und schreibt in einer Fußnote zum § 11 des Organon: „Auf die beste Art dynamisirter Arzneien kleinste Gabe, worin sich nach angestellter Berechnung nur so wenig Materielles befinden kann, dass dessen Kleinheit vom besten arithmetischen Kopfe nicht mehr gedacht und begriffen werden kann, äußert im geeigneten Krankheits-Falle bei weitem mehr Heilkraft, als große Gaben derselben Arznei in Substanz. Jene feinste Gabe kann daher fast einzig nur die reine, frei enthüllte, geistartige Arznei-Kraft enthalten und nur dynamisch so große Wirkungen vollführen, als von der eingenommenen rohen Arznei-Substanz selbst in großer Gabe, nie erreicht werden konnte.“
Im §_269 S.242 heißt es: „Die homöopathische Heilkunst entwickelt zu ihrem besondern Behufe die innern, geistartigen Arzneikräfte der rohen Substanzen, mittels einer ihr eigenthümlichen, bis zu meiner Zeit unversuchten Behandlung, zu einem, früher unerhörten Grade, wodurch sie sämmtlich erst recht sehr, ja unermeßlich - 'durchdringend' wirksam und hülfreich werden, selbst diejenigen unter ihnen, welche im rohen Zustande nicht die geringste Arzneikraft im menschlichen Körpern äußern. Diese merkwürdige Veränderung in den Eigenschaften der Natur-Körper, durch mechanische Einwirkung auf ihre kleinsten Theile, durch Reiben und Schütteln (während sie mittels Zwischentritts einer indifferenten Substanz, trockner oder flüssiger Art, von einander getrennt sind) entwickelt die latenten, vorher unmerklich, wie schlafend1) in ihnen verborgen gewesenen, dynamischen (§ 11) Kräfte, welche vorzugsweise auf das Lebensprinzip, auf das Befinden des thierischen Lebens Einfluss haben. Man nennt daher diese Bearbeitung derselben Dynamisiren, Potenzieren.“
Offensichtlich hatten aber bereits die Zeitgenossen Hahnemanns Schwierigkeiten, die Bedeutung des Verreibens oder Verschüttelns der Arznei nach jeder durchgeführten Verdünnung zu erkennen. Aus diesem Grund weist Hahnemann noch einmal ausdrücklich und anschaulich in einer Fußnote zu § 269 seines Organon der Heilkünste, S.244 darauf hin, dass Verdünnen und Bearbeiten des Arzneimittels erst zur Entwicklung der Arzneikraft führen. Bei dieser neuen Art der Arzneimittelzubereitung handelt es sich um zwei völlig verschiedene aber untrennbar miteinander gekoppelte Arbeitsvorgänge. Ich zitiere: „Man hört noch täglich die homöopathischen Arznei-Potenzen bloß Verdünnungen nennen, da sie doch das Gegentheil derselben, d.i. wahre Aufschließung der Natur-Stoffe und zu Tage-Förderung und Offenbarung der in ihrem innern Wesen verborgen gelegenen specifischen Arzneikräfte sind, durch Reiben und Schütteln bewirkt, wobei ein zu Hülfe genommenes, unarzneiliches Verdünnungs-Medium bloß als Neben-Bedingung hinzutritt. Verdünnung allein, z.B. die, der Auflösung eines Grans Kochsalz wird schier zu bloßem Wasser; der Gran Kochsalz verschwindet in der Verdünnung mit vielem Wasser und wird nie dadurch zur Kochsalz-Arznei, die sich doch zur bewundernswürdigsten Stärke, durch unsere wohlbereiteten Dynamisationen, erhöht.“ Ende des Zitates.
In seiner Arzneimittellehre (W. Buchmann: „Hahnemanns Reine Arzneimittellehre“, S.34-35). schildert Hahnemann u.a. auch die Wirkung von Arnica (Bergwohlverleih):
„Die spezifische Heilkraft dieses Krautes ist eine Hilfe gegen das allgemeine Übelbefinden, welches von einem schweren Falle, von Stößen, Schlägen, von Quetschungen, Verheben oder vom Überdrehen oder Zerreißen der festen Teile unseres Körpers entsteht. Sie ist daher selbst in den größten Verwundungen durch Kugeln und stumpfe Werkzeuge sehr heilsam - so wie in den Schmerzen und anderem Übelbefinden nach Ausziehen der Zähne und nach anderen chirurgischen Verrichtungen, wobei empfindliche Teile heftig ausgedehnt worden waren, wie nach Einrenkungen der Gelenke, Einrichtungen von Knochenbrüchen usw..In den Befindensänderungen, welche Arnica in gesunden Menschen hervorzubringen pflegt, ist das Übelbefinden von starken Quetschungen und Zerreißungen der Fasern in auffallender Ähnlichkeit homöopathisch enthalten.“ (eigene Anmerkung: homöopathisch = der Krankheit ähnlich). Hahnemann warnt aber auch: „Nur muss man sie“ (eigene Anmerkung: gemeint ist Arnica) „nie in akuten fieberhaften Krankheiten anwenden - und ebensowenig in Durchfällen -, wo man sie immer sehr nachteilig finden wird. Am besten ist die innerliche Anwendung in der Potenz C 30.“ Ende des Zitates.
Eine Arnica-Therapie erfüllt in diesen Fällen, wie Hahnemann selber darlegt, die Bedingungen des Simileprinzips. Empfindet solch ein Patient doch ganz ähnliche Beschwerden oder, um es mit Hahnemanns Worten zu sagen, ein ganz ähnliches „Übelbefinden“, wie das, welches zuvor völlig gesunde Probanden bei Arzneimittelprüfungen mit Arnica an sich beobachten haben. Graduelle Unterschiede, die von der Intensität der Gewalteinwirkung und dem Umfang der Schadeinwirkung abhängen, brauchen bei der Wahl des homöopathischen Mittels nicht berücksichtigt zu werden. Es wird also Ähnliches durch Ähnliches geheilt. Auf eine so einfache Art lassen sich an diesen hinsichtlich ihrer Symptomatik leicht und gut überschaubaren Fällen die Gültigkeit des Simileprinzips oder genauer formuliert das Gesetz: Ähnliches wird durch Ähnliches geheilt und die Wirkung von Hochpotenzen beweisen.
Damit sich jeder interessierte Leser sein eigenes Bild über die deutliche Wirkung homöopathischer Arzneimittel und insbesondere der sog. Hochpotenzen machen kann, empfehle ich, nach einer Gehirnerschütterung, einem Knochenbruch oder nach einfachen Prellungen, Quetschungen oder Zerrungen sowie nach Zahnextraktionen unverzüglich 5 bis 10 Arnica C30 Globuli (Kügelchen) im Mund zergehen zu lassen, um überrascht wahrnehmen zu können, wie die nach derartigen Verletzungen oder Zahnextraktionen üblichen Schwellungen und Blutergüsse ausbleiben oder nur in sehr abgeschwächter Form auftreten. Aus díesem Grund habe ich seit Jahren im Auto und bei Wanderungen immer Arnica C30-Globuli in greifbarer Nähe.
Um jedoch das Ähnlichkeitsprinzip zu gewährleisten und Komplikationen zu vermeiden, sollten Personen mit einer absonderlichen individuellen Blutungsneigung sowie Patienten mit Zahnwurzelvereiterungen oder einem anderen lokalen Infekt im Kopfbereich den Versuch mit Arnica nicht durchführen, da ihre Gesamtsymptomatik ein anderes homöopathisches Mittel zu ihrer Heilung erfordert. Sollte einmal in Folge einer eventuellen, zuvor nicht bekannten Blutungsneigung dennoch eine ungewöhnliche Nachblutung eintreten, empfiehlt sich unverzüglich eine Gabe von 5 Globuli Phosphorus C 30 einzunehmen, welche in den meisten Fällen kleine stark blutende Wunden rasch zu stillen vermag.
Der Erfolg nach einer Arnica-Therapie ist umso eindrucksvoller, je unmittelbarer Arnica nach der Schadeinwirkung eingenommen wird. Ist jedoch nach ein paar Stunden bereits eine erhebliche Schwellung oder ordentlicher Bluterguss entstanden, so wird er sich nach einer Arnica C 30 Gabe immer noch deutlich rascher zurückbilden als ohne eine solche.
Grundsätzlich möchte ich an dieser Stelle Sachunkundige vor weiteren Selbstversuchen warnen. Homöopathisch aufbereitete Substanzen haben zwar keine Nebenwirkungen im Sinne allopathisch wirkender Arzneimittel. Sie können jedoch, wie bereits dargelegt, bei besonders sensiblen Personen durchaus sog. Arzneimittelprüfungssymptome hervorrufen, die sich unter Umständen manifestieren und dann häufig nicht mehr abklingen. Dies gilt besonders für die Anwendung von Hochpotenzen und für zu lange oder zu häufige Verabreichungen dieser Arzneimittel.
Das Komplementaritätsprinzip in der Chemie und der Biologie.
Das Komplementaritätsprinzip beschreibt die Wechselwirkung von zueinander wie Schlüssel und Schloss passenden Teilchen, Atomen und Molekülen. Nach diesem Prinzip erfolgt z.B. die Ausbildung der Desoxyribonukleinsäure, die der Speicherort für das genetischen Material des in allen Lebewesen vorkommenden Biomoleküls und Träger der Erbinformation, also der Gene ist.
In allen Lebewesen haben wir es entweder mit links- oder rechtsdrehenden Molekülen zu tun, während in der anorganischen Natur Racemate, also ein Gemisch aus rechts- und linksdrehenden Molekülen üblich ist. Meinem Atommodell zufolge sind bereits die Protonen, also die Atomkerne des Wasserstoffs, komplementär aufgebaut: 50% der Protonen bestehen aus einem d-Quark / Antiquarkpaar, dessen Urstoffteilchen parallel und 50% aus einem d-Quarkpaar, dessen Urstoffteilchen antiparallel zu ihrer Rotationsachse ausgerichtet sind. Ebenso haben 50% der d-Quark/ Antiquarkpaare einen spiegelbildlichen Spin (Drehrichtung). Wie sonst sollten sich zwei Protonen, die sich ja auf Grund gleicher Ladung abstoßen müssten, zu dem Wasserstoffmolekül H2 verbinden, wenn nicht die beiden Elektronen einen entgegengesetzten Spin hätten, der sich wiederum nur durch den komplementären Aufbau der Protonen erklären lässt, sofern man nicht an das Märchen vom Urknall glaubt. Aber auch der Aufbau aller Atome beruht auf diesem Komplementaritätsprinip. Nach Pauli darf keine „Quantenbahn“ innerhalb einer Schale des Atoms von mehr als zwei Elektronen besetzt sein. Diese Elektronen müssen außerdem einen entgegengesetzten Spin, d.h. sie dürfen nicht die gleiche Drehrichtung haben. Dieses Gesetz wird deshalb auch als „Pauli Prinzip“ oder auch „Ausschließungsprinzip“ bezeichnet. Da die „Ordnungszahlen“ der chemischen Elemente durch die Zahl der Protonen bzw. deren Elektronen bestimmt wird, müssen sich die Atomkerne grundsätzlich aus komplementär aufgebauten Protonen zusammensetzen. Dieser Sachverhalt erklärt auch, warum sich grundsätzlich alle Racemate aus 50% linksdrehenden und 50% rechtsdrehenden Molekülen zusammensetzen. Dieser Tatbestand ist für das Verständnis der nachfolgenden Ausführungen von entscheidender Bedeutung. Nichts Anderes macht ja z.B. die Doppelhelix des Gencodes, wenn sie durch die Basenfolge des einen DNS-Stranges die Basenfolge des komplementären DNS-Stranges bereits vollständig determiniert.
Auch bei der Zellteilung findet eine Reduplikation der beiden Helix-Stränge nach dem gleichen Schema statt. Bei der Transkription wird von einer DNS-Sequenz ausgehend die Messenger-RNA aufgebaut, welche ihrerseits wiederum die Eiweißmoleküle synthetisiert usw. . Wichtig ist darauf hinzuweisen, dass die beiden Stränge selbstähnlich, aber nicht spiegelbildlich sind und das hat zur Folge, dass jeder Strang einen halben, komplementären Menschen entwickeln hilft. Deshalb haben wir eine linke und eine rechte Hand, einen linken und einen rechten Fuß, eine linke und eine rechte Gesichtshälfte, sowie eine linke und rechte Gehirnhälfte.
Der Mensch ist ein Doppelwesen, das durch animalische Verhaltensmuster geprägt ist und als einziges Lebewesen geistige und Vernunft bezogene Leistungen erbringen kann. Wir leben in einer komplementären Welt.
Der Neokortex ist der stammesgeschichtlich jüngste Teil der Großhirnrinde und hat sich erst bei den Säugetieren entwickelt und beim Menschen vorläufig sein derzeitiges Leistungsvermögen erreicht. Er beherbergt alle Erinnerungen, Ziele, Träume, Vorstellungen, Hoffnungen und Befürchtungen. Mit dem Entstehen dieses Teils unseres Gehirns entwickelte sich der entscheidende Unterschied zum Tier und die individuelle Persönlichkeit, das Ich-Bewusstsein.
Das Großhirn besteht aus zwei Hälften, den Hemisphären. Die beiden Gehirnhälften sind durch den Corpus callosum – die Brücke oder den Balken – verbunden: Er sorgt dafür, dass alle Informationen, die von der einen Gehirnhälfte behandelt und bearbeitet werden, auch die andere Gehirnhälfte erreichen. Unzählige Verbindungen gewähren einen perfekt funktionierenden Informationsaustausch. Jede der beiden Gehirnhälften hat unterschiedliche Aufgaben. So steuert die linke Gehirnhälfte motorisch die rechte Körperseite und die rechte Gehirnhälfte die linke Körperseite. Wenn beide Gehirnhälften zusammenarbeiten, ergeben sie ein perfektes Team. Auch fürs Lernen ist dieses „Teamwork“ unverzichtbar.
Der Schlüssel zum Verständnis derartiger morphologischer Anpassungsvorgänge liegt in den Tripels, die den Gen Code aufbauen. Diese Tripels sind gleichzeitig für die dreidimensionale Orientierung der Moleküle notwendig und werden durch die stehenden Wellen der beiden u-Quark/ Antiquarkpaare und eines der beiden d-Quark/Antiquarkpaare aufgebaut. Das ist der Grund, warum der Gen Code der DNS aus den Basen Adenin, Thymin und Cytosin besteht. Interessanterweise kann Cytosin gegen Guanin ausgetauscht werden. Dies entspricht auch dem Sachverhalt, dass es vier verschiedene Quark/ Antiquarkpaare gibt, von denen aber immer nur drei ein Proton aufbauen können. Das bedingt wiederum, dass Adenin (eine Purinbase) und Thymin (eine Pyrimidinbase) von den stehenden Wellen der beiden u-Quark/ Antiquarkpaaren aufgebaut werden, während Guanin (eine Purinbase) und Cytosin (eine Pyrimidinbase) von den stehenden Wellen der beiden d-Quark/ Antiquarkpaaren entsprechend ihrem spiegelbildlichen Spin gebildet werden. Das erklärt auch, warum der Gencode grundsätzlich aus Tripels besteht. Wie im Proton die drei Quark/Antiquarkpaare zunächst die drei Dimensionen bildeten, die zu einem viel späteren Zeitpunkt uns die Vorstellung eines Raumes ermöglichten, so wie die Struktur der Protonen und Neutronen (Antiprotonen, „Antimaterie“) unter entsprechenden Rahmenbedingungen die Entstehung aller uns bekannten Elemente ermöglichte, so sind die Quarks und Antiquarks über die Atomhülle, die sie ja aufgebaut und strukturiert haben und die sie dauerhaft aufrecht erhalten, für die Ausrichtung der jeweiligen Atome beim Aufbau der Moleküle verantwortlich. Die Quarks und Antiquarks sind also auch für die Struktur der Tripels in den Genen ursächlich. Diese Tripels bilden ihrerseits im nächsten Schritt und auf einer höheren Ordnungsebene die dreidimensionalen Moleküle, die einen lebenden Organismus in Form von Zellen und Organen ausmachen. Die Tatsache, dass im Gencode Cytosin durch Guanin ausgetauscht werden kann, hat weittragende Konsequenzen. So wie sich die beiden d-Quark/Antiquarkpaare spiegelbildlich zueinander verhalten, so wird jeder Organismus, bei dem der Gencode der DNS aus den vier Basen Adenin, Thymin, Cytosin und Guanin aufgebaut ist, auch aus zwei Hälften bestehen, die sich spiegelbildlich zueinander verhalten, entsprechend der komplementär angelegten Stränge in der Doppelhelix. Ganz allgemein bekannt ist, dass z.B. die Gesichtshälften eines jeden Menschen sehr ähnlich, aber nicht spiegelbildlich gleich sind. Dies ist die Auswirkung des Austausches von Cytosin und Guanin im Gencode.
Die Abweichungen im Aussehen der Gesichtshälften sind dadurch zu erklären, dass der Austausch der Moleküle auf chemischer Ebene nicht spiegelbildlich sondern komplementär erfolgt, also nur näherungsweise, eben ähnlich. Die vollkommene Symmetrie wird zwar überall in der Natur angestrebt, aber nie erreicht. Dieser Sachverhalt ist die Triebfeder die verhindert, dass es im Kosmos zu einem Stillstand kommt. Und weil das so ist, bleibt alles für alle Zeiten in Bewegung. Da sich jedes Quarkpaar aus einem Quark und seinem entsprechenden Antiquark zusammensetzt, erzeugt jedes Quarkpaar zwei verschiedene Impulse mit unterschiedlicher Spannung. Ein Vorgang, der in der Computertechnik zur Anwendung des Binärcodes führte.
Nach dem Selbstähnlichkeitsprinzip finden wir im Morsealphabet das gleiche Informationsmuster. Was bei den Quarkpaaren die unterschiedlichen Spannungsimpulse, sind im Morsecode Strich-Punkt-Kombinationen. Da die Quarks und Antiquarks in den Atomkernen die Temperatur des absoluten Nullpunktes haben, gibt es bei der „Aufzeichnung“ der Umweltsignale und Umweltinformationen auch kein Rauschen. Es bestehen also optimale Empfangs- und Sendebedingungen bei einem Minimum an Energieaufwand. Die Atomkerne verhalten sich sozusagen wie wechselwarme Tiere. Sie werden erst entsprechend aktiv, wenn die Umgebungstemperatur, also die eigentliche Energiequelle, entsprechend stark ist.
Als Modell bietet sich die Biene an. Die als besonders arbeitsam bekannte Biene wird als wechselwarmes Tier erst aktiv, wenn es für sie ausreichend warm ist. Der Bienenkörper ist in diesem Denkmodell als Atomkern zu verstehen. Die Flügel würden den Elektronen entsprechen. Je wärmer es wird, je mehr Energie also dem Bienenkörper zugeführt wird, umso aktiver wird die Biene und umso frequenter, also energiereicher, der Flügelschlag. Der Bewegungsablauf der Flügel bleibt dabei gleich. Lediglich die Frequenz nimmt zu. So wie die Biene durch ihren Tanz wichtig Informationen an ihre Artgenossinnen weitergibt, die diese Informationen auch verstehen und entsprechend reagieren, so gibt der Atomkern über das oder die Elektronen seine von ihm gespeicherten Informationen über Photonen an andere Atome und Moleküle weiter, die dann ebenfalls entsprechend reagieren und je nach energetischer Situation die Informationen untereinander austauschen und eventuell neue Informationen speichern. Zu welcher Intensität sich derartig Strahlungen aufschaukeln können, zeigen die Pheromone (Sexuallockstoffe weiblicher Insekten), die von den männlichen Geschlechtspartnern noch kilometerweit und unabhängig von der Windrichtung wahrgenommen werden können, da es sich um elektromagnetische Wellen mit laserähnlichen Infrarotkomponenten handelt (Popp, Fritz - A.: Neue Horizonte in der Medizin. Haug-Verlag, Heidelberg 1983). Diese laserähnlichen elektromagnetischen Wellen müssen also von dem Duftmolekül abgestrahlt werden. Derartige Duftmoleküle werden inzwischen synthetisch hergestellt und zur Bekämpfung von schädlichen Insekten eingesetzt. In den Weinanbaugebieten findet man häufig kleine Kunststoffbehältnisse, die diese laserähnlichen Wellen ausstrahlen. Dies geschieht ohne Batterie oder sonstige künstliche Energiezufuhr. Das Molekül verbraucht aber nachweislich Energie, wenn es elektromagnetische Wellen, noch dazu laserähnliche Wellen, abstrahlt. Je wärmer die Witterung, umso intensiver die Abstrahlung, umso aktiver die wechselwarmen Insektenmännchen. So ist die Frage: Wo kommt die Energie her und warum erschöpft sich der „Sender“ nicht in kurzer Zeit, durchaus berechtigt. Hierfür gibt es folgende Erklärung: Wie bereits früher beschrieben, führt jede Temperaturerhöhung zu einer Energieverdichtung (Urstoffteilchen- bzw. Ätherverdichtung) um die Atomkerne, so dass diese vermehrt laserähnliche Wellen abstrahlen können. Das Atom ist ein sich selbst in Dauerbetrieb erhaltender Generator, der die Gravitationskräfte nutzt und in elektromagnetische Kräfte umwandelt.
Die Farbtherapie und die Musiktherapie basieren, meinen Ausführungen zufolge, ebenfalls auf dem gleichen Wirkungsprinzip wie die Homöopathie, wirken jedoch nicht so spezifisch wie diese, sondern beeinflussen, der Bachblütentherapie vergleichbar, mehr allgemeine (sog. archaische) Grundstimmungen. Hier ist wichtig darauf hinzuweisen, dass die Schallwellen über das Ohr in elektromagnetische Schwingungen umgesetzt werden, während Photonen direkt auf das Auge treffen und die elektromagnetischen Impulse über den Sehnerv zum Gehirn weitergeleitet werden.
Auch an dieser Stelle ist wieder an das Alles oder Nichts Gesetz zu erinnern, das für die „tote Materie“ ebenso wie für alle biologischen Systeme gilt. Ob Hertz mit Photonen Elektronen aus Metallplatten „schlagen“ konnte oder nicht, hing ebenso von einem Schwellenwert ab, wie die Steigerung von Enzymaktivitäten bei Bestrahlung mit Photonen (Popp, Fritz-A.: „Biologie des Lichts“, Parey Verlag, 1984, Photonen - Die Sprache der Zellen, S.38 ).
Die Materie erschafft das Leben, das Leben entwickelt den Geist und der Geist lässt uns das Universum verstehen. Nach meiner Überzeugung waren geniale Menschen schon in der vorgeschichtlichen Zeit zu richtigen Lösungsansetzen, offensichtlich allein durch Beobachtung ihrer Umwelt und logisches Denken, gekommen, die jetzt mit den gesicherten wissenschaftlichen Erkenntnissen begründet und bewiesen werden können. Dieser Sachverhalt wird in der chinesischen Philosophie mit dem Yin-Yang-Prinzip, der unlösbaren Verbundenheit von Gegensätzen zu einer Ganzheit, anschaulich, kurz und nachvollziehbar beschrieben, sowie bildlich in Form eines Piktogramms dargestellt. Das Zeichen steht für polar einander entgegengesetzte und dennoch aufeinander bezogene Kräfte oder Prinzipien. Diese erstaunliche Feinabstimmung innerhalb unseres Universums und das empfindliche Gleichgewicht erscheint nicht mehr so erstaunlich, wenn unser Universum mit kausalen Kontakten und physikalischen Gesetzen erklärt wird, die es erlauben oder verbieten durch Wechselwirkungen kosmische Strukturen zu entwickeln, auszubilden, umzubauen oder wieder zu vernichten.
Eine Spruchweisheit aus der indischen Mythologie lautet:
Gott
schläft in den Steinen,
atmet in den Pflanzen,
träumt in den Tieren
und erwacht im Menschen.
Die indische Mythologie beruht weitgehend auf den Vorstellungen des Hinduismus und lässt sich bis auf das 1200 Jahrhundert v.Chr. zurückführen. Der Hinduismus hat seinen Ursprung in Indien. Die Anhänger dieser Weltanschauung werden Hindus genannt. Der heutige Hinduismus ist allerdings das Ergebnis unterschiedlicher Einflüsse, da er in seiner ursprünglichen Form zu abstrakt und für die einfache Bevölkerung zu anspruchsvoll war, schuf man sich im Laufe der Zeit eine Vielzahl von Göttern, die für die unterschiedlichsten Dinge und Erscheinungen verantwortlich waren. Entscheidend ist jedoch die Kernaussage, die durch die drei Gottheiten Brahma, Vishnu und Shiva symbolisiert werden: „Entstehen, Leben, Vergehen und Tod unterliegen einem ständigen Kreislauf.“
Im Sanskrit werden diese drei Götter als Trimurti „drei Formen“ bezeichnet. Die Vorstellung im Hinduismus ist, dass alles Werden und Vergehen im Kosmos, der weder einen Anfang noch ein Ende hat, durch drei elementare kosmische Funktionen, der Erschaffung, der Erhaltung und der Zerstörung bzw. Umformung alles Gegenständlichen, also der Materie, bewirkt wird. Um das abstrakte Verständnis dieses Geschehens zu verbildlichen, personifizierte man diese Vorgänge in Form der Götter Brahma als des Schöpfers, Vishnu als des Erhalters, Shiva als des Zerstörers. Die Trimurti symbolisiert den Ursprung aller göttlichen Wirkungen in einer Einheit, da die drei Aspekte sich gegenseitig bedingen und ergänzen; sie repräsentiert das formlose Brahman und drückt die schöpfenden, erhaltenden und zerstörenden Aspekte dieses höchsten Seienden aus. Der Dritte im Trimurti (Dreifaltigkeit-Bündnis), ist neben den beiden anderen Göttern, dem „Erschaffer“ Brahma und dem „Erhalter“ Vishnu der Gott Shiva – der wohl kraftvollste von allen – und für das Zerstören zuständig, auf dass sich Neues bilden kann. Aus diesem Verständnis entwickelte sich auch der Glaube an die Wiedergeburt, die Reinkarnation, des einzelnen Individuums und damit gleichzeitig eine höchst effektive Manipulation der Gläubigen durch die jeweiligen Religionsführer, ein Sachverhalt, den man auch im christlichen Glauben in Form der Wiederauferstehung ebenso wiederfindet, wie die Dreieinigkeitslehre. Die klassische Dreieinigkeitslehre besagt, dass es nur einen Gott gibt: Vater, Sohn und Heiliger Geist sind gemeinsam dieser Gott. Der Vater ist nicht der Sohn, der Sohn ist nicht der Heilige Geist und der Heilige Geist ist nicht der Vater. Trotzdem sind alle drei derselbe Gott, nämlich Gottvater, Gottsohn und Gottheiliger Geist. Die Hindus gehen davon aus, dass Seher und Heilige in Meditation diese Erkenntnisse gewonnen haben, die in einer jahrtausendalten Tradition überliefert wurden. Nach heutigem Wissensstand wird auf diese Weise der Phasenübergang eines Mediums, das das gesamte Universum erfüllt, in massive Quarks und Antiquarks beschrieben, die wiederum in den Atomkernen die elektromagnetischen Felder erzeugen und in Form von Atomkernen und Atomhüllen die Materie bilden, die sich schließlich zu den Supermassiven Schwarzen Löchern verdichten und ab einer kritischen Größe als Quasare die Quarks als Jets mit annähernder Lichtgeschwindigkeit in das All abblasen.
Die mächtige Wissenschaftslobby benutzt das sogenannte Peer-Review (engl. von Peer, Gleichrangiger und Review, Gutachten), ein Verfahren das eigentlich zur Qualitätssicherung einer wissenschaftlichen Arbeit durch unabhängige Gutachter aus dem gleichen Fachgebiet dienen soll dazu, die Veröffentlichung unerwünschter kritischer oder gar den Gegenbeweis von haltlosen Theorien antretender wissenschaftlicher Arbeiten zu verhindern. Diese Gutachter kennen natürlich die Leute, deren Arbeiten sie bewerten sollen und bleiben aber selbst anonym. Sie können also nicht zur Rechenschaft gezogen werden. Unbequeme Wissenschaftler kann man auf diese Weise elegant und unauffällig „kalt stellen“ und Ihre Existenz ruinieren, ganz davon abgesehen, dass der Öffentlichkeit großer Schaden entstehen kann, weil Forschungsgelder falsch eingesetzt werden. Peer-Review ist deshalb im Wissenschaftsbetrieb von entscheidender Bedeutung, um die Kontrolle über wissenschaftliche Texte zur Veröffentlichung zu behalten und die Vergabe von Forschungsmitteln zu steuern. Es geht also vordergründig gar nicht darum, die Qualität von wissenschaftlichen Publikationen zu gewährleisten, sondern die jeweiligen Fachgebiete zu kontrollieren.
Unter https://de.wikipedia.org/wiki/Irreführende_Werbung kann man folgendes nachlesen: Die Irreführende Werbung — oder genauer: irreführende geschäftliche Handlung — ist ein lauterkeitsrechtlicher Tatbestand, der von den § 5 und § 5a sowie den Nr. 1 – 24 des Anhangs zum Gesetz gegen den unlauteren Wettbewerb erfasst wird.
Bei der Wissenschaftslobby gilt es durch falsche und irreführende Behauptungen die eigenen Pfründe und Positionen zu sichern und zu schützen. Diese Autokraten geben vor, dass sie die Einzigen sind, die die Übersicht und die richtigen Lösungen haben. Ihr autoritär-bestimmender Stil führt zu einsamen Entscheidungen und die breite Öffentlichkeit verhält sich passiv, angepasst und unselbständig. Meinungen, Haltungen und Lösungen werden von der Bevölkerung kritiklos übernommen und die Produktivität und Kreativität Einzelner bleibt auf der Strecke. Wenn dann wider Erwarten Kritik laut wird, werden diese Menschen, die nicht nur in der Lage sind, sich eine eigene Meinung zu bilden, sondern auch noch öffentlich dafür eintreten zu Nestbeschmutzern erklärt und geächtet. Siehe augenblickliche Medienschelte und Umgang mit unerwünschter Kritik.
In der westlichen Welt wird die Ansicht vertreten, dass das Universum vor etwa 13,7 Milliarden Jahren spontan aus einem Punkt durch einen explosionsartigen Vorgang entstanden ist und 10-42 Sekunden danach bereits so groß wie eine Apfelsine und 1032 Grad heiß war. Da eine derartige Behauptung lediglich das Ergebnis von Berechnungen mit entsprechenden Vorgaben ist und sowohl der Relativitätstheorie wie der Quantenphysik widerspricht, wird schlicht offiziell festgestellt, dass zu diesem Zeitpunkt die Gesetze der Physik noch nicht gültig waren, will heißen: „Am Anfang bestand Narrenfreiheit“ und aus diesem Tohuwabohu formten die Mathematiker ein Weltbild, das nichts mit der Realität zu tun hat, da willkürliche Vorgaben für die Berechnungen benutzt wurden. Mit einer derartigen Vorgehensweise kann man auf das jeweils gewünschte Ergebnis hinrechnen. Weitere Probleme bestehen sowohl bei der Relativitätstheorie wie der Quantenphysik dadurch, dass von den Vertretern der theoretischen Physik die mathematischen Operationen über ihren eigentlichen Gültigkeitsbereich hinaus Anwendung finden und die Ergebnisse auf Grund unzureichender naturwissenschaftlicher Fachkenntnisse auch noch falsch interpretiert werden.
Nach der Allgemeinen Relativitätstheorie ziehen sich Massen nicht mehr nur an, sie krümmen, dehnen und biegen angeblich sogar Raum und Zeit, sodass die Schwerkraft sich als logische Folge eines mit Löchern und Trichtern ausgefüllten Universums darstellt. Kein Wunder, dass unter diesen Vorgaben für die Astrophysiker von Newtons Gravitationsgesetz auf den ersten Blick nicht mehr viel übrig zu bleiben scheint.
Bezeichnender Weise blieb es einem Priester, dem belgischen Astrophysiker Abbé Georges Edouard Lemaître vorbehalten, als Erster die Idee von einem Urknall zu veröffentlichen. Seine Arbeit wurde 1927 in den Annales de la Société scientifique de Bruxelles abgedruckt. Damit erschien seine Arbeit, die bereits wesentliche Grundzüge der Expansion des Universums darlegte, zwei Jahre früher als die Arbeiten von Edwin Hubble, dem das Konzept von der Expansion des Universums heute zugeschrieben wird. Allerdings soll bereits 1925 der russische Mathematiker Alexander Alexandrowitsch Friedmann, eine entsprechende Lösung mittels der Einsteinschen Feldgleichungen gefunden haben. Aber erst der gebürtige russische Physiker George Gamow verhalf der Theorie des Urknalls und des sich ausdehnenden Weltalls zu breiter öffentlicher Anerkennung. Egal ob Lemaître, Hubbles, Friedmann, Gamow oder Hawking, sie alle wurden Opfer ihres kanalisierten Denkens und überprüften nicht, inwieweit ihre Theorien überhaupt mit den Erkenntnissen der Wärmelehre und wesentlichen Aussagen der allgemeinen Relativitätstheorie in Einklang zu bringen sind, ja ihnen sogar widersprechen.
Unwillkürlich fragt man sich, wie weit derartig hochintelligenten Menschen von der Realität entfernt sein müssen, um so etwas von sich zu geben, zumal eigentlich jedem klar sein musste, dass Modelle nicht mit Wirklichkeit gleichgesetzt werden dürfen.
Die Urknalltheorie ist ein klassischer Beweis, wie man durch entsprechende Vorgaben die wildesten Theorien aufstellen und mathematisch beweisen kann, wenn man auf Naturgesetze keine Rücksicht nimmt und die Erkenntnisse anderer Fachgebiete nicht kennt bzw. ignoriert.
Auf Grund heutiger Erkenntnisse sind Raum und Zeit abstrakte Ordnungsprinzipien, die dem Menschen dazu dienen, die Aufeinanderfolge von Ereignissen zu bestimmen und zu berechnen. Raum und Zeit sind nichts, was für sich allein besteht. Sie sind nichts Stoffliches, sondern ein Modell oder eine Anschauungsform des Gehirns des jeweiligen Lebewesens, um das Objekt oder Subjekt seiner Wahrnehmung in eine bestimmte Ordnung zu bringen und bei höher entwickelten Lebewesen ein System zu entwickeln, das Erfahrung erst ermöglicht.
Den Gedanken, dass man so nicht seriös wissenschaftlich arbeiten und argumentieren kann und darf, wird noch heute jedem Kritiker zum Verhängnis, da man diese „Lehre“ zum Dogma erklärt hat, wird Skeptikern keine Möglichkeit gegeben diesen Unsinn durch gesicherte wissenschaftliche Erkenntnisse zu widerlegen. Die Medien weigern sich schlicht entsprechende Arbeiten zu veröffentlichen. Professor Gerhard Fröhlich vom Institut für Philosophie und Wissenschaftstheorie der Universität Linz (Österreich) schreibt: „Viele Journale schmücken sich mit einem großen Pool an Gutachtern, de facto wird oft nachweislich nur ein winziger Bruchteil überhaupt eingesetzt: Einige wenige „old boys“ bekommen fast alle Gutachten zugeschanzt und beherrschen so, da oft bei einer Vielzahl von Journalen gleichzeitig tätig, die ganze Disziplin.“ Ende des Zitates.
Aus diesem Grunde können sich aus den gasförmigen Elementarteilchen des Mediums, das auch unter der Bezeichnung „Äther“ Eingang in die Literatur gefunden hat, Verdichtungen bilden, die als „Schwarze Löcher“ im Weltall vagabundieren und aus denen sich schließlich supermassereiche Schwarze Löcher bilden können, deren Masse um viele Zehnerpotenzen schwerer als die stellarer Schwarzen Löchern sind. Supermassereiche Schwarze Löcher sind keine völlig isolierten Objekte, sondern mit dem Zentrum von Galaxien assoziiert und sind als Quasare in Form von aktive Galaktische Kerne (AGN) der Entstehungsort der Quarks, die an den jeweiligen Polen als Quarks und Antiquarks in Form von Jets mit annähernder Lichtgeschwindigkeit „abgeblasen“ werden und sich dadurch voneinander unterscheiden, dass sie einen gegensätzlichen Spin erhalten, vereinen sich in der äquatorialebene der aktiven galaktischen Kerne zu Protonen und Antiprotonen, den Atomkernen des Wasserstoffs. Bei diesem Vorgang werden derart extreme Energiemengen freigesetzt, dass sich in der äquatorialebene des AGN eine hell leuchtende, rotierende Scheibe bildet, die allerdings nicht, wie die Astrophysiker fälschlicher Weise behaupten Materie in Richtung des Zentrums transportiert (akkretiert), sondern im Gegenteil die so entstandene Materie in Form von überwiegend aus Wasserstoff- und Heliumatomen in das All befördert, wo sich die Atome in Form der interstellaren Materie zu Sternen der ersten Generation verdichten und die ersten schwereren Atome bis hin zum Eisen „erbrüten“. Bei diesem Vorgang werden schließlich derart starke Kräfte freigesetzt, dass dieser Stern in Form einer Supernova explodiert und während dieses Vorganges alle anderen uns bekannten Atome bildet, die wir kennen. Wenn die aktiven galaktischen Kerne ausgebrannt sind, erlöschen die Jets und die Galaxien flachen zu Scheiben ab und werden von dem nun wieder zum supermassereichen Schwarzen Loch im Zentrum, „degradiert“ behalten aber ihre Aufgabe durch ihre Schwerkraft alle Sterne in Form einer Galaxie zusammenzuhalten und zu verhindern, in das All abzudriften. Somit ist jede Galaxie eine Welt für sich. Der Entstehungsmechanismus ist aber für alle Galaxien im Universum gleich. Diese Galaxien bilden Galaxienhaufen, in deren Zentrum sich ein gemeinsamer Attraktor befindet. Auf diesen Attraktor bewegen sich alle Galaxien mit zunehmender Geschwindigkeit hin, bis sie im Bereich der Lichtgeschwindigkeit in ihre Elementarteilchen wieder zerfallen, aus denen sie aufgebaut wurden. In ferner Zukunft werden diese Teilchen wieder neue Galaxien aufbauen. Auf diese Weise befindet sich das Universum in einem Fließgleichgewicht und erneuert sich stetig. Da Energie, ein anderes Wort für diese Elementarteilchen, weder erzeugt noch vernichtet werden kann, bildet die Weltraumtemperatur den Motor für ein dauerhaftes Universum ohne Anfang und ohne Ende.
Werner Heisenberg schreibt in „Physik und Philosophie“, 7. Aufl. Stuttgart: Hirzel, 2006, S. 92 - ISBN 3777610240 :
„Die Energie ist tatsächlich der Stoff aus dem alle Elementarteilchen, alle Atome und daher überhaupt alle Dinge gemacht sind, und gleichzeitig ist die Energie auch das - Bewegende - ". Ende des Zitates.
Auch die von den Physikern beschworene „Antimaterie“, die sich beim Zusammentreffen mit der „Materie“ nihilieren soll, gibt es nicht. Paul Dirac, ein britischer Physiker, Nobelpreisträger und Mitbegründer der Quantenphysik, ging bei seinen Berechnungen unter Einbeziehung der speziellen Relativitätstheorie mit ihrer Aussage, dass sich Materie und Energie äquivalent verhalten davon aus, dass Teilchen, sobald sie auf ihre Antiteilchen treffen, sich sofort gegenseitig vernichten. In der Physik heißt dieser Vorgang Paarvernichtung oder Annihilation. Aus der Vernichtung der Teilchen sollen elektromagnetische Vernichtungsstrahlung (Annihilationsstrahlung) hervorgehen. Auch der umgekehrte Vorgang ist nach dieser Theorie möglich: die Paarerzeugung. Dabei soll sich Strahlungsenergie in Materie umwandeln. Das Erstaunliche an diesem Phänomen ist, dass aus Photonen mit Ruhemasse null massebehaftete Teilchen, also Teilchen endlicher Ruhemasse, hervorgehen sollen. So eine Unmöglichkeit schaffen lediglich Vertreter der theoretischen Physik unter missbrauch der Mathematik. Es gilt dabei immer die strenge Einhaltung der Energieerhaltung. Begründet wird dies mit dem Masse-Energie-Äquivalent, E = mc2, das Albert Einstein 1905 in seiner Speziellen Relativitätstheorie (SRT) abgeleitet hatte. Dass die Teilchen angeblich vollständig zerstrahlen und ihre gesamte Masse in Strahlungsenergie übergeht, ist schlicht eine unhaltbare Behauptung, denn neben der Energieerhaltung muss auch die Drehimpulserhaltung beachtet werden und schon entsteht bei diesem Vorgang auch ein Rückstoßkern oder Rückstoßteilchen und keine Rückstoßstrahlung.
Aber nicht genug, dass behauptet wird, dass aus Strahlung Materie entsteht, die Anhänger der theoretischen Physik behaupten allen Ernstes, dass es einen Wellen-Teilchen-Dualismus gibt. Der Welle-Teilchen-Dualismus besagt, dass Materie je nach den Versuchsbedingungen als Welle (Feld) oder Teilchen (Korpuskel) in Erscheinung tritt. Der Dualismus des Lichtes wurde 1905 von A. Einstein mit seiner Erklärung des Photoeffekts durch korpuskulare Materie konstatiert, nachdem über hundert Jahre die Welleninterpretation des Lichtes dominierte. Sie war seit dem Existenznachweis der elektromagnetischen Wellen von H. Hertz unantastbar.
Auch die Quantenphysik ist eine sehr erfolgreiche spezielle Theorie, die man allerdings nicht willkürlich verallgemeinern bzw. interpretieren darf.
In diesem Zusammenhang möchte ich auch auf das Doppelspaltexperiment von Thomas Young hinweisen. Die klassische Physik legte das Doppelspalt-Experiment als Schlüsselexperiment (experimentum crucis) zur Beantwortung der Frage „Welle oder Korpuskel“ fest. Durch einen scheinbar eindeutigen Versuchsaufbau sollte die Frage klar im Sinne der einen oder der anderen Richtung entschieden werden. Das Ergebnis dieses Versuches wurde aber, wie weiter oben beschrieben fehlinterpretiert.
Die einzigen massiven Teilchen der Materie sind die Quarks und Antiquarks, aus denen die Atomkerne bestehen. Das Volumen der Atomkerne, die die Atomhülle bilden, ist um ein zehntausendstel (1/10.000) kleiner als seine Atomhülle. Wenn man einen Atomkern in der Größe eines ein Ein-Centstück in den Mittelpunkt eines Fußballfeldes legen würde, so würde das ganze Fußballfeld in seine Atomhülle hineinpassen. Kein Wunder, dass bei derartigen Größenunterschieden in einem Doppelspalt-Experiment kein Unterschied im Verhalten von elastischen elektromagnetischen Feldern der Photonen und Elektronen einerseits und den elastischen elektromagnetischen Feldern der Atomhüllen andererseits unterschieden werden kann. Ferner möchte ich darauf hinweisen, dass z. B. ein Wassertropfen, wenn er auf einer Wasseroberfläche die gleichen Transversalwellen Wellen erzeugt, wie eine entsprechen große Metallkugel. Im Gegensatz zur Metallkugel löst sich der Wassertropfen aber im Wasser auf, weil Wasser und Wassertropfen den gleichen Aggregatzustand besitzen. Sie sind Flüssig, obwohl sich der Wassertropfen beim Aufprall auf das Wasser wie ein Teilchen verhält.
Trotz einer derartigen Situation werden es immer wieder Vertreter anderer Fachrichtungen wagen, die „unfehlbaren Vertreter“ der Theoretischen Physik auf fachlich unhaltbare Schlussfolgerungen hinzuweisen. Allerdings kann das unter heutigen Bedingungen dauern. Schließlich blieb unser Planet trotz aller Widerstände auch nicht für alle Zeiten eine flache Scheibe und das Zentrum des Universums. Allerdings dauerte es fast 2500 Jahre, bis die Erkenntnisse des griechischen Astronomen und Mathematikers Aristarchos von Samos (310 v. Chr. bis 230 v.Chr.) allgemein akzeptiert wurden, dass die Erde um die Sonne kreist, unser Planet eine kugelförmige Gestalt besitzt und die Jahreszeiten nur durch die Neigung der Erdachse zur Sonne erklärt werden können. Da diese Erdachse nicht stabil ist, weil sich die Schwerkraftverhältnisse zwischen der Erde und den anderen Planeten dauernd unterschiedlich stark und schnell verändern, kommt es zu den unterschiedlichen Klimasituationen, die man im Laufe der Erdgeschichte nachweisen konnte. CO2 führt jedoch nicht zu einer Erderwärmung, wie interessierte Kreise glaubhaft machen wollen. Professor Litt kommt auf Grund seiner Erdkernbohrungen zu dem Schluss.: „Die Ergebnisse zeigen, dass das Klima in den vergangenen Hunderttausenden Jahren auf der Nordhalbkugel Achterbahn gefahren ist. Innerhalb weniger Jahrzehnte konnte es kippen und von Eiszeit auf Warmzeit und umgekehrt umschalten.“ Ende des Zitates.
Der lückenlose Kalender umfasst insgesamt sechs Zyklen aus warmen und kalten Perioden und erzählt eine Geschichte der natürlichen Klimaschwankungen, die zeitlich synchron zu den periodischen Schwankungen der Erdbahn um die Sonne verlaufen. Es ist weitgehend unstrittig, dass die CO2-Werte um 122 Moleküle bei 1 000 000 Luftteilchen in den letzten Jahrzehnten angestiegen sind. Es ist auch unbestritten, dass dieser Anstieg weitgehend von den Menschen verursacht wurde. Es ist aber keineswegs bewiesen, dass der geringe CO2-Anstieg eine Erderwärmung zwischen 1 und 2 Grad Celsius verursacht hat. Hier handelt es sich vielmehr um ein zufälliges Zusammentreffen zweier Vorgänge, die nichts miteinander zu tun haben, nämlich den vermehrten Verbrauch von fossilen Brennstoffen und der unabhängig davon ansteigenden Klimaerwärmung. Schließlich wird niemand ernsthaft behaupten, dass der Geburtenrückgang in Deutschland auf den Rückgang der Storchenpopulation zurückzuführen sei. Man schreckt auch bei der angeblichen Beweisführung der Klimaerwärmung durch CO2 nicht vor psychologischen Methoden zurück, da die Sachargumente fehlen.
Die Ergebnisse der Eiskernbohrungen in der Antarktis und auf Grönland bezeugen, dass Temperaturerhöhungen im Durchschnitt 800 Jahre früher auftraten als der Anstieg der CO2-Konzentrationen in der Luft. (Dr. Davis Evans, Klimawissenschaftler, im „The Australian“ 18. Juli 2008). Dieser Sachverhalt zeigt, dass der CO2-Anstieg als Folge einer Erderwärmung anzusehen ist, wie gerade dargelegt, und nicht umgekehrt. Diese Fakten besagen eigentlich alles über Ursache und Wirkung. Fakten sind aus wissenschaftlicher Sicht aber das Todesurteil selbst der schönsten Theorie. Hinzu kommt, dass diese Ergebnisse unumstritten sind, wie Dr. Evans ausdrücklich versichert. Die Klimaalarmisten sollen ihnen sogar zustimmen, bezweifeln aber ihre Bedeutung. Unwillkürlich fragt man sich nach der Logik, die hinter einer derartigen Ablehnung steckt. Die Argumente, dass Berechnungen die Klimaerwärmung durch CO2 ergeben, sind keine Beweise, weil die Ergebnisse von den jeweiligen Vorgaben abhängen und wenig über die damaligen Umweltverhältnisse aussagen. Die unterschiedlichsten Wechselwirkungen waren und sind derart komplex, dass sie zu keinem Zeitpunkt erfasst und seriös dargestellt werden können. Die Bohrkerne zeigen Ergebnisse, sagen aber nichts über die Ursachen aus. Sind aber die Vorgaben falsch, kann das Ergebnis nicht richtig sein.
Die Intoleranz und Arroganz der Wissenschaftslobby verhindert die kritische Hinterfragung der von den heutigen einflussreichen Kosmologen aufgestellten dogmenhaften Behauptungen. Das hat zur Folge, dass viele Fachgebiete von den verkündeten Lehren besagter Phantasten abhängig sind und so in ihrer wissenschaftlichen Arbeit massiv behindert werden, da jede Diskussion abgeblockt wird, sobald sich zeigt, dass die jeweiligen Erkenntnisse bzw. Befunde nicht mit der offiziellen Lehre der Physik in Einklang stehen. Dies ist z. B. ein großes Problem der sogenannten Außenseiter- oder Alternativmedizin und der Biologen.
Auch die sogenannte Antimaterie ist das Ergebnis einer Fehlinterpretation mathematischer Berechnungsergebnisse. Antimaterie besteht aus Antiteilchen, die sich von normalen Teilchen nur im Vorzeichen unterscheiden, also + „plus“ und - „minus“, die Eigenschaften, wie Masse und Spin sind identisch.
Berechnungen, die von Dirac erstellt wurden ergaben, dass sich elektromagnetische Felder und massive Teilchen gleichsetzte. Unter Einbeziehung der speziellen Relativitätstheorie mit ihrer Aussage, dass sich Materie und Energie äquivalent verhalten, in eine Bewegungsgleichung, glaubte er das Verhalten von Elektronen nahe der Lichtgeschwindigkeit erklären zu können. Er und viele andere waren nun davon überzeugt, dass die Entstehung und Vernichtung von Teilchen ebenso zum Quantenverhalten gehört, wie die Umwandlung von Energie in Materie und umgekehrt.
In der Realität sind Materie und Antimaterie spiegelbildlich aufgebaute Atome und Molekülverbindungen, die für die Wechselwirkungen und damit für die Existenz des Universums unverzichtbar sind. Sie erscheinen uns im täglichen Leben auf Schritt und Tritt in Form von Racematen. Allerdings vernichten sie sich nicht gegenseitig, sondern lösen sich nur bei Erreichen der Lichtgeschwindigkeit auf, da dann keine Kräfte mehr wirken können.
©
***************************************************************************************
ENDE
***************************************************************************************
In Spiegel online, vom 25.05.2014 schreibt Jana Hauschild: Das Internet hat das Lesen verändert, viele hüpfen durch die Texte - neue Gewohnheiten haben sich etabliert.
Sie zitiert aus einem Essay für die Harvard University: „Das Springen von Abschnitt zu Zwischenüberschriften weiter zu Links oder gefetteten Wörtern beunruhigt die US-amerikanische Neurowissenschaftlerin Maryanne Wolf vom Center for Reading and Language Research an der Tufts University. Sie befürchtet, durch das verbreitete Schnelllesen im Internet würde das vertiefte Lesen verlernt. Ihre größte Sorge ist, dass viele neue und auch einige ältere Leser angesichts der digitalen Fülle an unmittelbaren Informationen, die immer weniger intellektuelle Anstrengung erfordern und enthalten, weder die Zeit noch die Motivation haben, die möglichen Bedeutungen von dem, was sie lesen, zu durchdenken".
Meine Erfahrungen bestätigen die Beobachtungen von Frau Wolf. Deshalb versuche ich die zeitlosen Fragen der Menschheit: „Woher komme ich“ und „Wer bin ich“ in Kurzfassung zu formulieren, um einer möglichst breiten Öffentlichkeit den Zugang zu neuen Erkenntnissen zu ermöglichen, da die Medien durch einseitige Berichte und Unterdrücken aktueller gesicherter wissenschaftlicher Erkenntnisse die öffentliche Meinung manipulieren.
Das Universum auf einen Blick.
Am 11.02.2016 wurde offiziell verkündet, dass es gelungen ist, Gravitationswellen entfernter Himmelsobjekte zu messen. Da Gravitationswellen ein Ausbreitungsmedium benötigen, wurde auch gleichzeitig bewiesen, dass es den geleugneten Äther doch gibt. Eine Tatsache, die viele Eliten zum Schwitzen bringen wird, denn damit ist auch die Urknalltheorie widerlegt.
Quarks und Antiquarks bauen zusammen mit der Dunklen Materie sowie den drei verschiedenen Feldern, dem Gravitationsfeld, dem elektrischen Feld und dem Magnetfeld die Materie des gesamten Kosmos auf. Aus welchem Blickwinkel man auch immer die Dinge betrachtet: Immer ist das Große im Kleinen und das Kleine im Großen wieder zu erkennen. Entscheidend für das Verständnis all dieser geschilderten Ereignisse ist das sogenannte Selbstähnlichkeitsprinzip, das die Chaosforschung entdeckte. Es besagt, dass alle Funktionsmechanismen im Universum sich letztlich durch dauerndes Wiederholen einfachster Grundvorgänge und Grundmuster aufbauen und die Welt im Innersten zusammenhalten. Die Chaosforschung macht es uns Menschen nachvollziehbar, warum die Welt so bunt und vielfältig ist und warum universelle Gesetzmäßigkeiten gelten.
Albert Einstein kam auf Grund des Wissensstandes seiner Zeit zu der Überzeugung, dass sich in dem für ihn unbegreiflichen Weltall eine grenzenlose Vernunft offenbart und schloss sich so den Mythen der Menschheitsgeschichte an. Derartige Vorstellungen über den Kosmos werden auch heute noch immer von dem wissenschaftlichen Establishment vertreten, das die aktuellen und gesicherten wissenschaftlichen Erkenntnisse zu unterdrücken, zu kontrollieren und zu verschweigen bemüht ist. Die offiziell angeblich unabhängigen Medien im angeblich freien und aufgeklärten Westen, werden durch die Gesetze des Marktes, Lobbygruppen, dem wissenschaftlichem Establishment und massiver Polit-PR kontrolliert, denn statt um Information, Aufklärung und Meinungsbildung geht es um Quoten, Auflagen, Inkompetenz und Arroganz einzelner einflussreicher Personen in Schlüsselpositionen sowie Klick-Zahlen im Internet, von denen wiederum die Einnahmen von Werbeaufträgen und die Werbungskosten abhängig sind. Kurz, die Funktionen der Inquisition des Mittelalters, auf die man heute voller Abscheu und Unverständnis verweist, werden in unserem „aufgeklärten Zeitalter“ von der Öffentlichkeit stillschweigend durch die Medien übernommen und von diesen erfolgreich durchgeführt. Derartige unerträgliche Missstände werden gerade aktuell, allerdings von einer nicht unproblematischen Seite, zu Recht öffentlich angeprangert und die gelenkte Information der Bevölkerung durch die Medien als Lügenpresse angesprochen. Unwillkürlich stellt sich die Frage, was eigentlich für ein Unterschied zu der Zensur in autoritären Staaten besteht und ob die Selbstverpflichtungserklärung des Deutschen Presserates in Zusammenarbeit mit den Presseverbänden nicht mehr als nur eine irreführende und unverbindliche Absichtserklärung ist.
Woraus besteht das Universum, wie funktioniert es und wie entstand der Mensch?
Wie der Nachweis von Gravitationswellen zeigt, besteht das Universum aus einem gasförmigen, stofflichen Medium, da sich Wellen nur in einem gasförmigen, flüssigen oder festen Medium fortpflanzen können. Der dritte Hauptsatz der Thermodynamik besagt, dass die Entropie eines Körpers am absoluten Temperatur-Nullpunkt (-273.15 °C) Null wird. Das heißt, dass sich nichts bewegen kann und die Zeit stillsteht. Dieser absolute Nullpunkt ist aber unstrittig prinzipiell nicht erreichbar. Wäre es anders, würde es den Kosmos nicht geben. Das bedeutet, dass Teilchen, die das Medium (Äther) bilden vorhanden und stets in Bewegung sind. Einige mutige Astrophysiker sprechen von sogenannten WIMPs. (engl. weakly interacting massive particles „schwach wechselwirkende massereiche Teilchen“ oder auch von „Dunkler Materie“.
Aus heutiger Sicht sind Zeit und Raum abstrakte Ordnungsprinzipien, die dem Menschen dazu dienen, die Aufeinanderfolge von Ereignissen zu bestimmen und zu berechnen. Zeit und Raum sind nichts, was für sich selbst besteht. Sie sind nichts Stoffliches, sondern ein Modell oder eine Anschauungsform des Gehirns des jeweiligen Lebewesens, um das Objekt oder Subjekt seiner Wahrnehmung in eine bestimmte Ordnung zu bringen und bei höher entwickelten Lebewesen ein System zu entwickeln, das Erfahrung erst ermmöglicht. Ein Spontispruch lautet deshalb sehr treffend: "Die Natur hat die Zeit geschaffen, damit nicht alles auf einmal passiert."
Vor etwa 2500 Jahren traf bereits Aristoteles (*384 v. Chr. † 322 v. Chr.) eine viel weitergehende Aussage, die bis heute von der Fachwelt nicht akzeptiert wird, die aber den wahren Sachverhalt in wenigen Worten beschreibt. Er führte den Begriff „hyle prote“ ein, der, in Latein übersetz, als materia prima in die Literatur Eingang gefunden hat und zwar in einem doppelten Sinne. In seiner Abhandlung über die Physik stellt er fest, dass die materia prima das elementare Substrat aller Naturkörper ist, das die Umwandlung in andere Körper durch Phasenübergänge ermöglicht. Da nicht alle Elementarteilchen im Kosmos gleichzeitig symmetrisch schwingen können, bilden sich, vergleichbar mit den Erkenntnissen aus der Wetterkunde, Verdichtungen, Verdünnungen und Verwirbelungen in der Atmosphäre wie in den Weiten des Universums. Das hat wiederum zur Folge, dass sich die unterschiedlichen Himmelskörper in diesem Medium gegenseitig „beschatten“ können, wenn sich diese Körper entsprechend nahe kommen, so dass zwischen ihnen ein Unterdruckgebiet entsteht. Damit dieses Unterdruckgebiet wieder ausgeglichen wird, werden diese Objekte durch den sie umgebenden Außendruck so lange aufeinander zugeschoben, bis der Druckausgleich erfolgt ist oder sie kollidieren. Die Gravitationskraft ist also gar keine Anziehungskraft, sondern die Konsequenz eines Druckausgleiches.
Verständlich wird dieser Sachverhalt durch die Erkenntnisse der Chaosforschung. Quasare und Galaxien folgen den jeweiligen Unterdruckregionen (Gravitationsfeldern) und bilden immer größere Galaxienhaufen. Dies lässt sich auch durch statistische Analysen und gesicherte Beobachtungen beweisen, die besagen, dass im Kosmos grundsätzlich die Tendenz zur Haufenbildung von Galaxien besteht, in deren gemeinsamen Zentrum der Unterdruck als Mangel an Elementarteilchen durch die gegenseitige Abschirmung am größten ist. In der Chaosforschung spricht man von einem zentralen Attraktor, ohne ihn jedoch näher zu definieren. Nach meiner Überzeugung sind diese Attraktoren jeweils der gemeinsame Schwerpunkt, das Gebiet maximalen Unterdrucks, das Zentrum aller dieser, die Galaxienhaufen bildenden Himmelskörper. Je näher sich die einzelnen Galaxien kommen, umso stärker werden sie auf den gemeinsamen Attraktor hin beschleunigt, bis sie schließlich irgendwann in ferner Zukunft beinahe Lichtgeschwindigkeit erreichen. Da sich bei Lichtgeschwindigkeit kein noch so kleines kräftetragendes Teilchen zusätzlich zur Lichtgeschwindigkeit bewegen kann, ist eine Wechselwirkung zwischen den einzelnen Elementarteilchen in der Materie nicht mehr möglich und die Materie, aus denen die Himmelskörper bestehen, löst sich in ihre Grundbausteine, die Elementarteilchen, auf, werden wieder zu dem das Universum ausfüllenden Ätherteilchen, um sich irgendwann wieder zu verdichten, Schwarze Löcher und schließlich als Quasare wieder Quarks und Antiquarks zu bilden, die Bausteine der Materie. Da Energie, sprich diese Elementarteilchen, weder erzeugt noch vernichtet werden können, sondern nur durch Phasenübergänge den Energiehaushalt und die damit verbundenen Aktivitäten des Universums regulieren, erneuert sich der Kosmos stetig, indem sich Entstehen und Vergehen von Materie in einem Fließgleichgewicht befinden. Das Universum funktioniert folglich wie ein unsterblicher primitiver Organismus und jede Galaxie verhält sich im Kosmos wie eine Zelle in einem Organismus. Deshalb sieht das Universum im ganz großen Maßstab ebenso schwammartig aus, wie in den Knochen von Lebewesen. Dieses „Gewebe“, auch Spongiosa genannt, benötigt wenig Material, stützt, ist elastisch und passt sich durch entsprechenden Umbau den jeweiligen Zug- und Druckkräften an, weshalb sich das Universum sehr plastisch verhalten kann und sich auch optisch dauernd verändert. Es ist also nicht statisch, sondern dynamisch in steter Veränderung.
Das Komplementaritätsprinzip in der Chemie und der Biologie.
Das Komplementaritätsprinzip beschreibt die Wechselwirkung von zueinander wie Schlüssel und Schloß passenden Teilchen, Atomen und Molekülen. Nach diesem Prinzip erfolgt z.B. die Ausbildung der Desoxyribonukleinsäure, die der Speicherort für das genetischen Material des in allen Lebewesen vorkommenden Biomoleküls und Träger der Erbinformation, also der Gene ist.
In allen Lebewesen haben wir es entweder mit links- oder rechtsdrehenden Molekülen zu tun, während in der anorganischen Natur Racemate, also ein Gemisch aus rechts- und linksdrehenden Molekülen üblich ist. Meinem Atommodell zufolge sind bereits die Protonen, also die Atomkerne des Wasserstoffs, komplementär aufgebaut: 50% der Protonen bestehen aus einem d-Quark / Antiquarkpaar, dessen Urstoffteilchen parallel und 50% aus einem d-Quarkpaar, dessen Urstoffteilchen antiparallel zu ihrer Rotationsachse ausgerichtet sind. Ebenso haben 50% der d-Quark/ Antiquarkpaare einen spiegelbildlichen Spin (Drehrichtung). Wie sonst sollten sich zwei Protonen, die sich ja auf Grund gleicher Ladung abstoßen müssten, zu dem Wasserstoffmolekül H2 verbinden, wenn nicht die beiden Elektronen einen entgegengesetzten Spin hätten, der sich wiederum nur durch den komplementären Aufbau der Protonen erklären lässt, sofern man nicht an das Märchen vom Urknall glaubt. Aber auch der Aufbau aller Atome beruht auf diesem Komplementaritätsprinip. Nach Pauli darf keine „Quantenbahn“ innerhalb einer Schale des Atoms von mehr als zwei Elektronen besetzt sein. Diese Elektronen müssen außerdem einen entgegengesetzten Spin, d.h. sie dürfen nicht die gleiche Drehrichtung haben. Dieses Gesetz wird deshalb auch als „Pauli Prinzip“ oder auch „Ausschließungsprinzip“ bezeichnet. Da die „Ordnungszahlen“ der chemischen Elemente durch die Zahl der Protonen bzw. deren Elektronen bestimmt wird, müssen sich die Atomkerne grundsätzlich aus komplementär aufgebauten Protonen zusammensetzen. Dieser Sachverhalt erklärt auch, warum sich grundsätzlich alle Racemate aus 50% linksdrehenden und 50% rechtsdrehenden Molekülen zusammensetzen. Dieser Tatbestand ist für das Verständnis der nachfolgenden Ausführungen von entscheidender Bedeutung. Nichts Anderes macht ja z.B. die Doppelhelix des Gencodes, wenn sie durch die Basenfolge des einen DNS-Stranges die Basenfolge des komplementären DNS-Stranges bereits vollständig determiniert.
Auch bei der Zellteilung findet eine Reduplikation der beiden Helix-Stränge nach dem gleichen Schema statt. Bei der Transkription wird von einer DNS-Sequenz ausgehend die Messenger-RNA aufgebaut, welche ihrerseits wiederum die Eiweißmoleküle synthetisiert usw. . Wichtig ist darauf hinzuweisen, dass die beiden Stränge selbstähnlich, aber nicht spiegelbildlich sind und das hat zur Folge, dass jeder Strang einen halben, komplementären Menschen entwickeln hilft. Deshalb haben wir eine linke und eine rechte Hand, einen linken und einen rechten Fuß, eine linke und eine rechte Gesichtshälfte, sowie eine linke und rechte Gehirnhälfte.
Der Mensch ist ein Doppelwesen, das durch animalische Verhaltensmuster geprägt ist und als einziges Lebewesen geistige und Vernunft bezogene Leistungen erbringen kann. Wir leben in einer komplementären Welt.
Der Neokortex ist der stammesgeschichtlich jüngste Teil der Großhirnrinde und hat sich erst bei den Säugetieren entwickelt und beim Menschen vorläufig sein derzeitiges Leistungsvermögen erreicht. Er beherbergt alle Erinnerungen, Ziele, Träume, Vorstellungen, Hoffnungen und Befürchtungen. Mit dem Entstehen dieses Teils unseres Gehirns entwickelte sich der entscheidende Unterschied zum Tier und die individuelle Persönlichkeit, das Ich-Bewusstsein.
Das Großhirn besteht aus zwei Hälften, den Hemisphären. Die beiden Gehirnhälften sind durch den Corpus callosum – die Brücke oder den Balken – verbunden: Er sorgt dafür, dass alle Informationen, die von der einen Gehirnhälfte behandelt und bearbeitet werden, auch die andere Gehirnhälfte erreichen. Unzählige Verbindungen gewähren einen perfekt funktionierenden Informationsaustausch. Jede der beiden Gehirnhälften hat unterschiedliche Aufgaben. So steuert die linke Gehirnhälfte motorisch die rechte Körperseite und die rechte Gehirnhälfte die linke Körperseite. Wenn beide Gehirnhälften zusammenarbeiten, ergeben sie ein perfektes Team. Auch fürs Lernen ist dieses „Teamwork“ unverzichtbar.
Der Schlüssel zum Verständnis derartiger morphologischer Anpassungsvorgänge liegt in den Tripels, die den Gencode aufbauen. Diese Tripels sind gleichzeitig für die dreidimensionale Orientierung der Moleküle notwendig und werden durch die stehenden Wellen der beiden u-Quark/ Antiquarkpaare und eines der beiden d-Quark/Antiquarkpaare aufgebaut. Das ist der Grund, warum der Gencode der DNS aus den Basen Adenin, Thymin und Cytosin besteht. Interessanterweise kann Cytosin gegen Guanin ausgetauscht werden. Dies entspricht auch dem Sachverhalt, dass es vier verschiedene Quark/Antiquarkpaare gibt, von denen aber immer nur drei ein Proton aufbauen können. Das bedingt wiederum, dass Adenin (eine Purinbase) und Thymin (eine Pyrimidinbase) von den stehenden Wellen der beiden u-Quark/ Antiquarkpaaren aufgebaut werden, während Guanin (eine Purinbase) und Cytosin (eine Pyrimidinbase) von den stehenden Wellen der beiden d-Quark/ Antiquarkpaaren entsprechend ihrem spiegelbildlichen Spin gebildet werden. Das erklärt auch, warum der Gencode grundsätzlich aus Tripels besteht. Wie im Proton die drei Quark/Antiquarkpaare zunächst die drei Dimensionen bildeten, die zu einem viel späteren Zeitpunkt uns die Vorstellung eines Raumes ermöglichten, so wie die Struktur der Protonen und Neutronen (Antiprotonen, „Antimaterie“) unter entsprechenden Rahmenbedingungen die Entstehung aller uns bekannten Elemente ermöglichte, so sind die Quarks und Antiquarks über die Atomhülle, die sie ja aufgebaut und strukturiert haben und die sie dauerhaft aufrecht erhalten, für die Ausrichtung der jeweiligen Atome beim Aufbau der Moleküle verantwortlich. Die Quarks und Antiquarks sind also auch für die Struktur der Tripels in den Genen ursächlich. Diese Tripels bilden ihrerseits im nächsten Schritt und auf einer höheren Ordnungsebene die dreidimensionalen Moleküle, die einen lebenden Organismus in Form von Zellen und Organen ausmachen. Die Tatsache, dass im Gencode Cytosin durch Guanin ausgetauscht werden kann, hat weittragende Konsequenzen. So wie sich die beiden d-Quark/Antiquarkpaare spiegelbildlich zueinander verhalten, so wird jeder Organismus, bei dem der Gencode der DNS aus den vier Basen Adenin, Thymin, Cytosin und Guanin aufgebaut ist, auch aus zwei Hälften bestehen, die sich spiegelbildlich zueinander verhalten, entsprechend der komplementär angelegten Stränge in der Doppelhelix. Ganz allgemein bekannt ist, dass z.B. die Gesichtshälften eines jeden Menschen sehr ähnlich, aber nicht spiegelbildlich gleich sind. Dies ist die Auswirkung des Austausches von Cytosin und Guanin im Gencode.
Die Abweichungen im Aussehen der Gesichtshälften sind dadurch zu erklären, dass der Austausch der Moleküle auf chemischer Ebene nicht spiegelbildlich sondern komplementär erfolgt, also nur näherungsweise, eben ähnlich. Die vollkommene Symmetrie wird zwar überall in der Natur angestrebt, aber nie erreicht. Dieser Sachverhalt ist die Triebfeder die verhindert, dass es im Kosmos zu einem Stillstand kommt. Und weil das so ist, bleibt alles für alle Zeiten in Bewegung. Da sich jedes Quarkpaar aus einem Quark und seinem entsprechenden Antiquark zusammensetzt, erzeugt jedes Quarkpaar zwei verschiedene Impulse mit unterschiedlicher Spannung. Ein Vorgang, der in der Computertechnik zur Anwendung des Binärcodes führte.
Nach dem Selbstähnlichkeitsprinzip finden wir im Morsealphabet das gleiche Informationsmuster. Was bei den Quarkpaaren die unterschiedlichen Spannungsimpulse, sind im Morsecode Strich-Punkt-Kombinationen. Da die Quarks und Antiquarks in den Atomkernen die Temperatur des absoluten Nullpunktes haben, gibt es bei der „Aufzeichnung“ der Umweltsignale und Umweltinformationen auch kein Rauschen. Es bestehen also optimale Empfangs- und Sendebedingungen bei einem Minimum an Energieaufwand. Die Atomkerne verhalten sich sozusagen wie wechselwarme Tiere. Sie werden erst entsprechend aktiv, wenn die Umgebungstemperatur, also die eigentliche Energiequelle, entsprechend stark ist.
Als Modell bietet sich die Biene an. Die als besonders arbeitsam bekannte Biene wird als wechselwarmes Tier erst aktiv, wenn es für sie ausreichend warm ist. Der Bienenkörper ist in diesem Denkmodell als Atomkern zu verstehen. Die Flügel würden den Elektronen entsprechen. Je wärmer es wird, je mehr Energie also dem Bienenkörper zugeführt wird, umso aktiver wird die Biene und umso frequenter, also energiereicher, der Flügelschlag. Der Bewegungsablauf der Flügel bleibt dabei gleich. Lediglich die Frequenz nimmt zu. So wie die Biene durch ihren Tanz wichtig Informationen an ihre Artgenossinnen weitergibt, die diese Informationen auch verstehen und entsprechend reagieren, so gibt der Atomkern über das oder die Elektronen seine von ihm gespeicherten Informationen über Photonen an andere Atome und Moleküle weiter, die dann ebenfalls entsprechend reagieren und je nach energetischer Situation die Informationen untereinander austauschen und eventuell neue Informationen speichern. Zu welcher Intensität sich derartig Strahlungen aufschaukeln können, zeigen die Pheromone (Sexuallockstoffe weiblicher Insekten), die von den männlichen Geschlechtspartnern noch kilometerweit und unabhängig von der Windrichtung wahrgenommen werden können, da es sich um elektromagnetische Wellen mit laserähnlichen Infrarotkomponenten handelt (Popp, Fritz - A.: Neue Horizonte in der Medizin. Haug-Verlag, Heidelberg 1983). Diese laserähnlichen elektromagnetischen Wellen müssen also von dem Duftmolekül abgestrahlt werden. Derartige Duftmoleküle werden inzwischen synthetisch hergestellt und zur Bekämpfung von schädlichen Insekten eingesetzt. In den Weinanbaugebieten findet man häufig kleine Kunststoffbehältnisse, die diese laserähnlichen Wellen ausstrahlen. Dies geschieht ohne Batterie oder sonstige künstliche Energiezufuhr. Das Molekül verbraucht aber nachweislich Energie, wenn es elektromagnetische Wellen, noch dazu laserähnliche Wellen, abstrahlt. Je wärmer die Witterung, umso intensiver die Abstrahlung, umso aktiver die wechselwarmen Insektenmännchen. So ist die Frage: Wo kommt die Energie her und warum erschöpft sich der „Sender“ nicht in kurzer Zeit, durchaus berechtigt. Hierfür gibt es folgende Erklärung: Wie bereits früher beschrieben, führt jede Temperaturerhöhung zu einer Energieverdichtung (Urstoffteilchen- bzw. Ätherverdichtung) um die Atomkerne, so dass diese vermehrt laserähnliche Wellen abstrahlen können. Das Atom ist ein sich selbst in Dauerbetrieb erhaltender Generator, der die Gravitationskräfte nutzt und in elektromagnetische Kräfte umwandelt.
Die Farbtherapie und die Musiktherapie basieren, meinen Ausführungen zufolge, ebenfalls auf dem gleichen Wirkungsprinzip wie die Homöopathie, wirken jedoch nicht so spezifisch wie diese, sondern beeinflussen, der Bachblütentherapie vergleichbar, mehr allgemeine (sog. archaische) Grundstimmungen. Hier ist wichtig darauf hinzuweisen, dass die Schallwellen über das Ohr in elektromagnetische Schwingungen umgesetzt werden, während Photonen direkt auf das Auge treffen und die elektromagnetischen Impulse über den Sehnerv zum Gehirn weitergeleitet werden.
Auch an dieser Stelle ist wieder an das Alles oder Nichts Gesetz zu erinnern, das für die „tote Materie“ ebenso wie für alle biologischen Systeme gilt. Ob Hertz mit Photonen Elektronen aus Metallplatten „schlagen“ konnte oder nicht, hing ebenso von einem Schwellenwert ab, wie die Steigerung von Enzymaktivitäten bei Bestrahlung mit Photonen (Popp, Fritz-A.: „Biologie des Lichts“, Parey Verlag, 1984, Photonen - Die Sprache der Zellen, S.38 ).
Eine Callosotomie zieht deutliche Veränderungen der kognitiven Fähigkeiten nach sich. Die Auswirkungen lassen sich mit Hilfe so genannter Split-Brain-Experimente nachweisen. Ein Beispiel: Man lässt einen Patienten mit Callosotomie einen Punkt fixieren. Links daneben steht Tee, rechts eine Tasse. Der Patient muss beantworten, welches Wort er gesehen hat. Er erwähnt nur die Tasse. Muss er jedoch auf das Wort zeigen, welches er gesehen hat, zeigt er nur auf das Wort "Tee" - nicht auf das Wort "Teetasse".
Die Aufgaben der einzelnen Gehirnhälften
Die rechte Gehirnhälfte ist für künstlerische und intuitive Tätigkeiten sowie für die Raumorientierung zuständig. Sie verarbeitet die Informationen ohne Bewertung und ohne Begrenzung. Folgende Begriffe lassen sich ihr zuordnen: kreativ, räumlich, ganzheitlich, unbeschränkte Wahrnehmung, keine Zeitgrenzen, unparteiisch. Ihre Sprache sind die Bilder, die Farben und die Symbole. Zu ihr gehört der Rhythmus, die Musik.
Die linke Gehirnhälfte ist hauptsächlich für unser analytisches Denken und für die verbale Aktivität verantwortlich. Sie verarbeitet Informationen nacheinander und zerlegt sie in kleinste Teilchen. Ihre Begriffe: analytisch, linear, Einzelheiten, überleben, zeitorientiert, Selbstbild, parteiisch, Glaubenssystem. Ihre Sprache ist das gesprochene und geschriebene Wort.
Wenn beide Gehirnhälften harmonisch aufeinander abgestimmt sind, können wir nicht nur kreativ sein, sondern wir meistern gleichzeitig unsere täglichen Routineaufgaben und nehmen darüber hinaus noch andere Möglichkeiten wahr. In dem Moment, in dem beide Gehirnhälften perfekt zusammenarbeiten, ist man sich seiner selbst voll bewusst. Manchmal erlebt man diesen Glücksmoment, aber leider viel zu selten. Da einem in einem Zustand des vollen Bewusstseins ganz andere Gehirnkapazitäten zur Verfügung stehen, als wenn man nur einen Teil unseres Gehirns nutzt, empfiehlt es sich zu überlegen, wie die Zusammenarbeit der beiden Gehirnhälften unterstützt und gefördert werden kann.
Diese unterschiedlichen Erkenntnis- und Vorgehensweisen schließen sich nicht gegenseitig aus, sondern ergänzen sich. Wer bereit ist, etwas für die gute Zusammenarbeit seiner beiden Gehirnhälften zu tun, dem stehen für das Lernen zusätzliche Kapazitäten zur Verfügung. Die Tätigkeit und die Koordination der beiden Gehirnhälften muss ständig angeregt werden, denn ähnlich wie unsere Muskulatur werden sie vom Nichtstun schlapp.
Schon Mark Twain wusste: "Es ist leichter die Menschen zu täuschen, als davon zu überzeugen, dass sie getäuscht worden sind.
Postmathematische Trugschlüsse mit weittragenden Konsequenzen.
Die Erforschung des Universums ist nicht nur eine Angelegenheit der Astronomen, der Astrophysiker und der Mathematiker, sondern auch der Chemiker, Biologen und Mediziner. Die Modelle der Kosmologen sind aber mathematischer Natur und das Ergebnis linearen Denkens. So eine Denkweise kann nicht gut gehen. Wer das Universum verstehen will, muss sich nicht nur guter astronomischer Beobachtungsdaten bedienen, er muss auch die Eigenschaften der Gleichungen kennen und hinterfragen, mit denen man den Kosmos zu beschreiben versucht.
Die physikalische Theorie, die unser Universum beschreibt, geht von Annahmen und nicht von Fakten aus. Auf diese Weise wurde durch die Gleichungen der Allgemeinen Relativitätstheorie und der Quantenmechanik dem Kosmos Eigenschaften zugeschrieben, denen das Universum nach Auffassung des heutigen wissenschaftlichen Establishments, das Universum zu gehorchen hat. But it ain't necessarily so / The tings that you're liable to read in the bible / It ain't necessarily so! (Porgy and Bess)
Man kann erkennen, was die Welt zusammenhält, wenn man die gesicherten wissenschaftlichen Erkenntnisse objektiv zusammenführt. Schon die alten griechischen Philosophen sprachen von dem Kosmos ( κόσμος kósmos = Weltordnung) und gingen ganz selbstverständlich davon aus, dass aus einer Leere nichts entstehen kann und wenn etwas wie das Universum existiert und funktioniert, muss nicht nur etwas Stoffliches vorhanden sein, es müssen auch funktionierende Steuermechanismen von elementarer Bedeutung bestehen, die für die besagte Ordnung sorgen und diese Ordnung auch garantieren.
Das postmathematische Weltbild, das Ende des 19. Jahrhunderts entworfen wurde, beherrscht seit Max Planck, Albert Einstein und Co. unsere heutige Vorstellung vom Universum. Mathematischen Formeln und ihren spekulativen Interpretationen wird mehr geglaubt, als den wissenschaftlich gesicherten Fakten und Erkenntnissen. Alles was zählt, sind die unreflektierten Behauptungen im Internet, die die Vorurteile der Menschen verstärken sollen. Google und Facebook haben Algorithmen entwickelt, die sich nach den bisherigen Suchanfragen und Klicks der Menschen richten. Für viele sind die sozialen Netzwerke bereits die wichtigste Nachrichtenquelle und bestärken den Club der Gleichgesinnten, in denen nur Dinge diskutiert werden, die die jeweilige Sicht der Dinge bestätigen, egal ob sie wahr oder falsch sind.
In der postfaktischen Welt der Mathematiker geht es um die Vermischung von Tatsachen, Schönheit der Formeln und Spekulationen. Wie gefährlich das ist und was dabei herauskommt, zeigen einflussreiche Vertreter der theoretischen Physik. Die Theorien der Vertreter dieser Theoretischen Physik über unser Weltbild beruhen auf willkürlichen Annahmen, der Verliebtheit von Mathematikern in die Eleganz und Symmetrie ihrer Formeln, der Fehlinterpretation von Experimenten und dem Ignorieren von Fakten, Wechselwirkungen und Naturgesetzen.
Auch Albert Einstein und Co. liegen mit ihrer Behauptung, dass es eine Raum-Zeit gibt, die als Folge einer Masseeinwirkung den Raum krümmen solle und so die Gravitation erklärt, falsch. Die Raum-Zeit ist eindeutig eine mathematische Konstruktion. Auf diesen Sachverhalt hatte bereits Leibnitz (1646 bis 1716) hingewiesen. Bei der Zeit handelt es sich um ein abstraktes Ordnungsprinzip, das dem Menschen dazu dient, die Aufeinanderfolge von Ereignissen zu bestimmen. Er widersprach damit der Definition der Zeit durch Newton. Die Definition der Zeit durch Newton setzte sich aber durch, nicht, weil er Recht hatte, sondern weil er zu seiner Zeit die einflussreichen Eliten auf seiner Seite hatte. Heute sind sich Mediziner wie Biologen einig, dass Leibniz genau wusste, wovon er sprach.
Raum und Zeit
Das, was die Allgemeinheit unter Raum versteht, ist die Illusion, die dem jeweiligen Betrachter vermittelt, dass es getrennte Objekte bzw. Abgrenzungen gibt, zwischen denen er vor seinem „geistigen Auge“ Verbindungen herstellen und die man mathematisch beschreiben kann.
Deshalb spielt uns unsere Wahrnehmung (siehe Abbildung) so manchen Streich. Sogenannte Vexierbilder führen zu optischen Täuschungen. Obwohl die Zeichnungen zweidimensional sind, entgleiten die Bilder beim nächsten Wimpernschlag schon dem Auge, sobald ein optischer Eindruck erfasst ist dem Verstand und ergibt einen ganz neuen dreidimensionalen Eindruck. Die Wahrnehmung ist eben nicht immer „wahr“. Diese unterschiedlichen Eindrücke zeigen keine Fehlleistung unseres Gehirns, sondern im Gegenteil dessen Genialität.
Bei längerem Hinschauen kippen die Bilder
Das visuelle System, also das Auge, ist kein physikalisches Lichtmessgerät. Seine Aufgabe besteht darin, das Gesehene in informative Teile zu zerlegen, um dadurch die Objekte in der betreffenden Situation zu erkennen. Die Wahrnehmung ist nämlich das Ergebnis eines Vergleiches mit einer internen Abspeicherung, also unserem Gedächtnis. Diese Wahrnehmung der Welt ändert sich mit gemachten Erfahrungen. Aus diesem Grunde sehen Kinder die Welt mit „anderen Augen“ als die Erwachsenen. Wenn Sie als Kind an einem Ort waren, den sie nach vielen Jahren als Erwachsener wiedersehen, so werden Sie feststellen, dass die Gebäude kleiner und die Wegstrecken viel kürzer sind, als Sie diese in Ihrer Erinnerung haben.
Aus heutiger Sicht sind Zeit und Raum abstrakte Ordnungsprinzipien, die dem Menschen dazu dienen, die Aufeinanderfolge von Ereignissen zu bestimmen. Zeit und Raum sind nichts, was für sich selbst besteht. Sie sind nichts Stoffliches, sondern ein Modell oder eine Anschauungsform des Gehirns des jeweiligen Lebewesens, um das Objekt oder Subjekt seiner Wahrnehmung in eine bestimmte Ordnung zu bringen und bei höher entwickelten Lebewesen ein System zu entwickeln, das Erfahrungen erst ermöglicht. Ein Sponti Spruch lautet deshalb sehr treffend: „Die Natur hat die Zeit geschaffen, damit nicht alles auf einmal passiert!“
Der Mathematiker und Theoretische Physiker Henri Poincaré vertrat die Ansicht: „Das Ästhetische ist mehr als das Logische die dominierende Komponente in der mathematischen Kreativität." Paul Dirac, britischer Physiker, Nobelpreisträger und Mitbegründer der Quantenphysik, wurde noch deutlicher: „Es ist wichtiger, dass eine Gleichung schön ist, als dass sie mit dem Experiment übereinstimmt." (12. Heft aus der Reihe: Gegenworte, Hefte für den Disput über Wissen - Martin Aigner: „Die pure Eleganz der Mathematik“). Das Schlimme an der Geschichte ist, dass durch die unüberlegte Behauptung von Dirac nicht nur der Begriff einer Antimaterie entwickelt wurde, sondern auch die Behauptung aufgestellt wurde, dass sich Materie und Antimaterie gegenseitig vernichten. Aber das ist alles noch nicht genug. Dirac errechnete auch, dass die Entstehung und Vernichtung von sogenannten Teilchen ebenso zum Quantenverhalten gehören, wie die Umwandlung von Energie in Materie und umgekehrt. Auf diese Weise konnte er mathematisch den Quantensprung eines Elektrons auf einen niedrigeren Energiezustand unter gleichzeitiger Emission eines Photons auch als Vernichtung eines Elektrons beschreiben, indem es durch ein neu entstandenes Photon und ein anderes Elektron mit einem geringerem Energiezustand ersetzt wurde. In Wirklichkeit wurde aber kein Teilchen vernichtet, sondern ein elektromagnetisches Feld durch zwei neue unterschiedlich starke Energiefelder ersetzt.
Auch wundert es den interessierten Leser, wie man aus der mathematischen Erkenntnis von Dirac herleiten kann, dass Elektronen durch sogenannte Quantensprünge von einer Bahn auf eine andere gelangen sollen, ohne dabei den Raum zwischen den beiden Bahnen zu durchqueren. Schließlich entsteht ein energieärmeres Elektron auf einer niedrigeren Bahn und ein Photon wird abgestrahlt. Wenn aber etwas neu entsteht, wie Dirac errechnet hatte, dann braucht es auch keinen Raum zwischen einer höheren und einer niedrigeren Elektronenbahn zu durchqueren. Das wird auch exakt durch die Kernaussage der Quantenphysik bestätigt, die besagt, dass Energieverschiebungen in genau definierten Schritten, also gequantelt erfolgen.
Diracs Gleichungen gelten folglich nur für Felder mit gegensätzlichen Ladungen und nicht für die Materie. Wie der Stern-Gerlach-Versuch bestätigt, besteht bei allen Atomen eine „Richtungsquantelung“. Der Grund ist, dass sich nach dem Pauli-Prinzip nur zwei entgegengesetzt rotierende Elektronen auf der gleichen Bahn bewegen können. Die Rotation der jeweiligen Elektronen ist aber von dem atomaren Gefüge abhängig und dieser Aufbau muss zwangsläufig gegensätzlich strukturiert sein. So haben 50% aller Atome einen rechtsläufigen und 50% einen linksläufigen Spin. Insofern kann man also 50% der Atome als Antimaterie bezeichnen und trotzdem existieren wir, allen Physikern zum Trotz. Auch das ist ein Beweis, dass Antiteilchen in Diracs Gleichung Felder sind. Weil das so ist, haben wir in der Chemie Racemate, also spiegelbildlich aufgebaute Moleküle.
Aber der gesunde Menschenverstand wird geleugnet, da man behauptet, dass evolutionsbedingt der menschliche Geist überfordert ist. Das mag bei den tonangebenden Eliten durchaus sein, das ändert aber nichts an der Tatsache, dass nur Fakten und nicht Phantasien unsere Welt erklären können. Nur so lässt sich erklären was die Welt zusammenhält und so funktionieren lässt, wie sie nun einmal funktioniert.
Bleibt bis auf weiteres festzuhalten:
Postmathematik und Wahrheit sind ein Problem in einer postfaktischen Welt.
*************************************************************************************************************************************************
*************************************************************************************************************************************************
Homöopathie: Irrlehre oder Heilkunst.
Viele Menschen fragen sich nach den Heilungserfolgen durch Homöopathie immer wieder: „Warum?“ Hahnemann hat mit seinem epochalen Werk, dem „Organon der Heilkunst“ die Erklärung mit: „Weil!“ gegeben, aber er wird auch nach über 200 Jahren immer noch nicht verstanden, da man an völlig überholten „wissenschaftlichen“ Erkenntnissen festhält.
Nachdem ich mich über 30 Jahre mit den Ausführungen von Hahnemann und den Argumenten der Gegner der Homöopathie beschäftigt habe, möchte ich mit diesem kleinen Buch beweisen: „Indem!“
Aus der Thermodynamik ist bekannt, dass alle Körper, auch sogenannte schwarze Körper, elektromagnetische Strahlung emittieren und absorbieren. Befindet sich der Körper im thermischen Gleichgewicht mit seiner Umgebung, so vollziehen sich Emission und Absorption mit gleicher Geschwindigkeit. Elektromagnetische Strahlung entsteht bei allen Umwandlungsprozessen sowie mechanischen Einwirkungen wie Schütteln und Reiben, sowohl im anorganischen wie im organischen Bereich. Diese dabei abgestrahlten Photonen dienen auch als Informationsträger, man denke nur an die Selbstorganisation der Materie oder an Rundfunk- bzw. Fernsehsendungen, bzw. 3 D - Drucker.
Die Zellen des menschlichen Körpers strahlen Biophotonen aus. Man spricht auch von ultraschwachen Photonen-Emissionen (UPE) mit einer Sichtbarkeit, die 1000mal empfindlicher ist, als die Empfindlichkeit unseres nackten Auges. Obwohl diese Photonen für uns optisch nicht erkennbar sind, gehören diese Lichtteilchen zu dem Bereich des sichtbaren elektromagnetischen Spektrums (380-780 nm) und sind über moderne Instrumentierung nachweisbar. Es sind also Biophotonen, die wir ausstrahlen, mit denen unsere Zellen kommunizieren und die uns so aussehen und funktionieren lassen, wie wir es erleben! Unsere Zellen und unsere Erbsubstanz, die DNA, verwenden diese Biophotonen zum Speichern, zum Kommunizieren, zum Strukturieren und zum Funktionieren, denn, wenn man zum molekularen Niveau unseres Genoms geht, kann die DNA als Quelle der Biophotonen-Emission identifiziert werden. Technisch gesehen ist ein Biophoton, in einem biologischen System ein Lichtquant nicht-thermischen Ursprungs.
In Wirklichkeit steht also in der Hierarchie der Regulation das elektromagnetische Signal an erster Stelle und bestimmt, wie sich Atome zu Molekülen verbinden und ausrichten. Rückkoppelnd setzt die Biomaterie unter anderem biochemische Boten ein. Die sogenannte Allopathie (Biochemie) und die Homöopathie versuchen folglich Heilungsprozesse lediglich über unterschiedliche Phasenzustände zu beeinflussen und so in das Krankheitsgeschehen eines Patienten einzugreifen.
Eine chinesische Erfahrung besagt zwar: „Wer sich schlafend stellt, den kann man nicht wecken!“ das schließt jedoch nicht aus, dass sich eines Tages jemand weigern wird, sich schlafend zu stellen, denn das wissenschaftliche Establishment wird die Ausführungen eines Nobodys ignorieren. Die Bevölkerung weiß aber, dass Nobody perfekt ist. Also wird man irgendwann öffentlich zur Kenntnis nehmen müssen, dass meine Ausführungen richtig sind. Schließlich blieb ja unser Planet auch nicht dauerhaft eine Scheibe, die Erde stand auch nicht für alle Zeiten im Mittelpunkt des Universums und letztlich weigerte sich auch die Sonne für alle Zeiten um die Erde zu kreisen. Warum also sollten Hahnemanns „geistartigen Kräfte“ nicht unser Universum so funktionieren und aussehen lassen, wie wir es kennen, wenn man mittels derartiger „geistartiger Kräfte“ eine entsprechenden Software schreiben und über einen 3-D-Drucker unsere Welt nachbauen kann. Diese „geistartigen Kräfte" werden auch die Eliten über meine Ausführungen aufregen, obwohl sie lediglich eine Information in Form von Zeichen enthalten, die auf Materie, in Form von Papier, geschrieben sind, also als Buchstaben auf Papier, die Alphabeten nicht nur lesen und verstehen können, sondern auch entsprechend reagieren lassen. Es ist also nicht das Papier, sondern es sind die Zeichen auf dem Papier, die eine Information nicht materieller Art, welche die Reaktionen auslösen. Natürlich ließe sich auch der Text meines Buches mit der gleichen Wirkung elektronisch übermitteln, bearbeiten und auch löschen, denn bei den „geistartigen Kräften“ Hahnemanns handelt es sich um elektromagnetische Felder, also keine Materie. Materie ist lediglich Mittel zum Zweck, sie hat über die Quarks elektromagnetische Felder zu erzeugen und Informationen zu speichern, zu senden, zu funktionieren und zu tun, was die „geistartigen Kräfte“ Hahnemanns erlauben bzw. vorgeben. Wie sonst könnte die ganze digitale Technik funktionieren? Aktuell könnte man die „geistartigen Kräften“, von denen Hahnemann spricht, auch mit der Software vergleichen und die Therapie der Allopathen bzw. die Schulmediziner als Reparatur an der Hardware verstehen, die nur durch entsprechende Schaltungen, die wiederum nur die „geistartigen Kräfte“ ermöglichen, Einfluss nehmen kann.
So lange aber Gegner wie Befürworter der Homöopathie schon über zweihundert Jahre die gleichen Argumente gebetsmühlenhaft wiederholen, anstatt im Original nachzulesen, was Hahnemann wirklich geschrieben hat und das mit den aktuellen abgesicherten wissenschaftlichen Erkenntnissen abgleichen, sondern weiterhin mit religiösem Eifer die Konservierung überholten Wissens propagieren, so lange wird die Homöopathie keine wissenschaftliche Anerkennung erfahren, obwohl die Praxis erfolgreich ist, hinkt die Theorie hinterher.
Hahnemann forderte seine Anhänger auf: „Macht’s nach! Aber macht es genau nach!“ Aber die offiziellen Vertreter der Homöopathie haben immer noch nicht begriffen, dass wir das Jahr 2016 schreiben.
Der Sturz unseres Weltbildes.
"Ich denke an manchen Tagen, dass es besser wäre, wenn wir gar keine Religionen mehr hätten.
Alle Religionen und alle Heiligen Schriften bergen ein Gewaltpotential in sich. deshalb brauchen wir
eine sekulare Ethik jenseits aller Religionen.
DALAI LAMA
Seit Jahrtausenden machen sich Menschen Gedanken über den Kosmos sowie die Fragen, wer wir sind, woher wir kommen und was künftig geschehen wird. Die unterschiedlichsten Kulturen auf unserem Planeten entwickelten die verschiedensten Theorien auf Grund von Beobachtungen, Vermutungen und den sich nach ihrer Ansicht daraus ergebenden Konsequenzen.
Heute sind wir in der Lage, wegen der wissenschaftlich gesicherten Erkenntnisse mittels modernster Forschungseinrichtungen und phantastischer Hochleistungsgeräte zu erklären, wie der Kosmos funktioniert und woher wir kommen. Leider verhindert das moderne Establishment die Veröffentlichung der Erkenntnisse, damit das von ihm proklamierte Weltbild nicht als Irrlehre entlarvt wird. Was im Mittelalter die Inquisition versuchte, das erreicht heute die Kontrolle aller Medien in einer heimlichen und fast perfekten Vorgehensweise über die Kontrolle der Medien, doch dazu mehr im Anhang.
„Vor 400 Jahren hat Galileo ein Teleskop auf den Himmel gerichtet. Ich glaube, wir tun heute etwas ähnlich Wichtiges. Wir eröffnen eine neue Ära", sagte Ligo-Direktor David Reitze vor Journalisten, als er am 11.02.2016 den gelungenen Nachweis von Gravitationswellen verkündete.
Wir befinden uns heute vergleichsweise in der gleichen Situation wie Galilei. Das betrifft sowohl die Umstände, wie die Konsequenzen, die sich aus einer richtigen Interpretation der Gravitationswellen für die gesamte Kosmologie ergeben. Auch im Vatikan war man sich damals schon im Klaren, dass Galilei mit seinen Erkenntnissen richtig lag. Man fürchtete aber unabsehbare Konsequenzen für den Glauben, wenn man Galilei nicht zum Schweigen bringen würde. Die Rolle des Vatikans übernimmt heute ungleich perfekter das wissenschaftliche Establishment, das um seine Pfründe und sein Ansehen fürchten muss.
Zur Erläuterung: Wellen sind ein zeitlich und räumlicher periodischer Vorgang, bei dem Energie transportiert wird, ohne dass gleichzeitig ein Massetransport stattfindet. Was sich fortpflanzt, ist allein der Schwingungszustand und damit die Energie, die, periodisch oder wechselnd, als kinetische und potentielle Energie vorliegt. Zur Entstehung einer Welle ist also eine Anzahl schwingungsfähiger Gebilde, (im Kosmos folglich ein Medium) erforderlich, die irgendwie miteinander gekoppelt sind. Ein solches System wird in der Physik als Ausbreitungsmedium einer Welle bezeichnet. Die Gravitationswellen breiten sich in alle Richtungen wie bei einem ins Wasser geworfenen Stein aus. Jede Bewegung eines Objektes oder von Himmelskörpern verursacht Wellen im Medium Äther, was man anschaulich z. B. auch bei Schiffen beobachten kann, wenn sie sich im Wasser vorwärts bewegen. Mit dem Nachweis der Gravitationswellen wurde zweifelsfrei bewiesen, dass das Universum von einem Medium erfüllt ist, das unsere Altvorderen als Äther bezeichneten und der von der sogenannten modernen Physik vehement geleugnet wird. Das ist nicht verwunderlich, denn nach diesem Nachweis des Äthers, muss die Geschichte des Weltalls neu geschrieben werden. Diese ungeheure Frechheit habe ich in dem oben angeführten Buch unternommen, weil zu befürchten ist, dass der Nachweis von Gravitationswellen in Vergessenheit geraten wird, sobald die „Eliten“ in den Schlüsselpositionen erklärt bekommen und verstanden haben, welcher Sprengsatz mit dem Nachweis der Gravitationswellen gezündet wurde. Es ist jedenfalls auffallend, wie schnell es still nach der sensationellen Verkündigung um den Nachweis der Gravitationswellen geworden ist. Die „unabhängigen Medien“ haben überzeugend funktioniert und damit gleichzeitig nachgewiesen, wie man die Bevölkerung erfolgreich manipulieren kann.
Bis heute vertritt das wissenschaftliche Establishment die Auffassung, dass das Universum durch einen sogenannten Urknall entstand ist. Ursache dieser nachweislich falschen Behauptung ist die Tatsache, dass Einstein wie alle späteren einflussreichen Kosmologen die geniale und mathematisch elegante Beschreibung seiner Theorie falsch interpretiert haben, da sie sich stritten, ob das Universum statisch ist oder expandiert, anstatt zu überlegen, worin der Trugschluss in der Interpretation der Berechnungen liegt, denn ein Mathematiker rechnet <Wenn> = <Dann>. Wenn aber die Vorgaben falsch sind, kann das Ergebnis nicht richtig sein. Geht man nämlich bei der Expansionstheorie des Universums in der Zeit zurück, so ist das Volumen des Universums zum Zeitpunkt Null, der sogenannten Singularität, unendlich klein und die Energiemenge unendlich groß. Beides kann aber unmöglich gleichzeitig bestehen. Entsprechende Paradoxa stellte bereits Zenon von Elea vor 2500 Jahren auf. Er war ein Freund und Schüler des Philosophen Parmenides von Elea, der die Einheit, Ewigkeit und Unveränderlichkeit des Seins lehrte. Für ihn waren Denken und Sein identisch. Die Vielheit und das Werden der Dinge beruhten nach seiner Überzeugung auf Sinnestäuschung. Zenon von Elea versuchte die Ansichten seines Lehrmeisters und Freundes mathematisch zu beweisen, obwohl sie der täglichen Erfahrung widersprechen und somit die Vielheit des Seienden ebenso wie die Möglichkeit von Bewegung zu widerlegen. Die Vorgehensweise ist sehr einfach. Man stellt eine Behauptung auf und versucht sie durch geeignete Vorgaben mathematisch zu beweisen. So entwickelte Zenon von Elea eine überaus scharfsinnige und überzeugende Kunst der Beweisführung. Aristoteles bezeichnete Zenon von Elea sogar als Erfinder der Kunst des Argumentierens.
„Zenons Paradoxien“, die eine logische Begründung der Lehre des Parmenides versuchen, wurden berühmt und so mancher Gelehrte befasste sich ernsthaft mit der Lösung dieser Paradoxien. Die bekanntesten sind der Trugschluss von Achilles und der Schildkröte, demzufolge selbst Achilles nicht einmal eine Schildkröte überholen kann, sofern er dieser einen kleinen Vorsprung gibt. Weitere Trugschlüsse sind „das Nicht-ans-Ziel-kommen-Könnens“ (Teilungsparadoxon) und des „Nicht-Weglaufen-Können“ sowie „das Pfeil-Paradoxon“.
Fazit: Das Universum ist weder statisch noch expandiert es. Das Universum ist in dauernder dynamischer Veränderung, wie schon die alten Inder zu berichten wussten. Alles ist ein stetes Werden, Vergehen und neu Entstehen, das durch permanente Phasenübergänge, eine Art dauerndes Recycling, gewährleistet ist. So wie sich gasförmige Wassermoleküle unter entsprechenden Rahmenbedingungen zu Wolken, Regen und Hagel verdichten, so wandelt sich das gasförmige Medium Äther in „viskose“ Felder sowie massive Quarks und Antiquarks um. Diese Felder und Quarks sublimieren unter entsprechenden Rahmenbedingungen wieder zu Äther. Materie und Antimaterie vernichten sich nicht. Diese Interpretation ist eine weitere Folge des falsch verstandenen Doppelspalt-Experimentes, das angeblich einen Wellen-Teilchen-Dualismus beweist, weil das auf einer Projektionsfläche erscheinende Bild als Interferenzmuster interpretiert wird und der Fehlinterpretation von Diracs Berechnungen. Auf der Grundlage seiner Gleichungen sagte Dirac die Existenz des Positron als Antiteilchen zum Elektron voraus. Die Experten schlossen daraus, dass es Antimaterie geben muss, die sich gegenseitig vernichte. Sie übersahen aber, dass Elektronen und Positronen visköse Felder sind, die sich gegenseitig vernichten können, aber keine massiven Quarks und Antiquarks, die sich gegenseitig anziehen und die Atomkerne aufbauen. Felder können sich gegenseitig verstärken, schwächen oder auch löschen. Das ist aber nur dann möglich, wenn Überlagerungserscheinungen von zwei oder mehreren Wellenzügen dieselben Raumpunkte gleichzeitig durchlaufen. Man hat aber zwischenzeitlich nachweisen können, dass das gleiche scheinbare „Interferenzmuster“ auf der Projektionswand entsteht, wenn man entsprechend viele Photonen einzeln und nacheinander durch die Doppelspalten der Trennwand auf eine Fotoplatte sendet. Dieser Sachverhalt schließt Interferenz als Ursache dieses „Interferenzmusters“ aus.
Das Entstehen und Vergehen aller Dinge durch Phasenübergänge erkannte man in Indien bereits vor über 4000 Jahren. Es ist das Grundprinzip des Kosmos. Im Hinduismus ist das Göttliche, die alles umfassende Macht und die allen Dingen und Lebewesen innewohnende Seele. Leider gelangte die ursprüngliche Vermutung im Laufe der Jahrhunderte in Vergessenheit bzw. wurde nicht mehr verstanden und in die Lehre von der Wiedergeburt des Einzelnen umformiert. Auch wurden ganze Heerscharen verschiedenster Göttinnen und Götter kreiert,die für das einfache Volk nicht so abstrakt waren und unter denen sie sich etwas vorstellen konnten, denen man auch opfern kann, um sie bei Laune zu behalten und die man auch um Hilfe anflehen durfte.
Was man im christlichen Abendland unter dem Begriff Gott versteht, ist im Hinduismus Brahman. Aus Brahman entstammen die drei Urgötter. Brahman, Shiva und Vishnu, vergleichbar dem Trinitätsglauben der christlichen Kirchen von Gott-Vater, Gott-Sohn und Gott-Heiliger Geist. Diese in sich widersprüchliche Aussage werden verständlich, wenn man die drei Phasenzustände des Äthers als Allegorien versteht. So gesehen, besteht die Materie und der gesamte Kosmos aus gasförmigen Ätherteilchen, also Brahman, aus den durch Phasenübergang veränderlichen morphogenen Feldern, die eine bestimmte Viskosität besitzen, in Form von Gravitation, elektrischen Feldern und magnetischen Feldern, denen Gott Shiva entsprechen würde.
Brahma ist der Schöpfer des Lebens. Shiva zerstört und erschafft alles. Er ist das Sinnbild für den Kreislauf von Geburt, Tod und Wiedergeburt. Vishnu ist der Gott der Weltordnung. Er bewahrt das Gleichgewicht aller Gegensätze wie Gut und Böse. Gewinnt das Böse auf der Erde Oberhand, steigt er, wie Jesus, als Sohn Gottes, nach dem christlichen Glauben, als Mensch auf die Erde herab und stellt das Gleichgewicht wieder her. Diese Allegorie ist verblüffend und erstaunlich zugleich und bedarf eingehender Studien, denn auch Jesus sprach von Gott-Vater, betrachtete sich selbst als Gott-Sohn und berichtet von Gott-Heiliger Geist. Nach der christlichen Lehre empfängt Maria Jesus durch den Heiligen Geist und das Nicäno-Konstantinopolitanum, stellt fest: „Der Heilige Geist ist Gott, also keine eigenständige Substanz oder Gottheit.“
Die katholische Kirche erklärte die Trinität zum Dogma. „Dogmen im engeren Sinn sind die von der Kirche feierlich (auf Synoden) zur Norm erhobenen Glaubenslehren, ohne deren Anerkennung der Einzelne des ewigen Heils verlustig geht. Die katholische Kirche erklärte die überlieferten Vorstellungen über die Dreieinigkeit zum Dogma. Sie beruft sich dabei auf die göttliche Offenbarung. Darunter wird die Enthüllung von absoluten Wahrheiten durch Gott selbst verstanden, die als der Weisheit letzter Schluss nicht zu hinterfragen sind und von uns Menschen nicht achvollzogen werden können.
Die Formulierung des Dogmas basiert auf dem Athanasianischen Glaubensbekenntnis, benannt nach dem Kirchenvater Athanasius (295-381). Eine noch präzisere Formulierung wurde im 7. Jahrhundert vorgenommen. Dieses athanasianische Glaubensbekenntnis ist bis heute bindend, nicht nur für Katholiken, sondern für alle Protestanten, die der ökumenischen Bewegung zugehörig sein wollen. Es lautet:
"Wer da selig werden will, der muss vor allem den katholischen Glauben festhalten. Jeder, der diesen nicht unversehrt und unverletzt bewahrt, wird ohne Zweifel ewig verloren gehen. Dies aber ist der katholische Glaube:
Wir verehren den einen Gott in der Dreifaltigkeit und die Dreifaltigkeit in der Einheit, ohne Vermischung der Personen und ohne Trennung der Wesenheit.“
Der ursprüngliche Hinduismus hat sich, wie der christliche Glaube, im Laufe der Jahrhunderte in mehrere Glaubensrichtungen gespaltet und so gibt es heute unzählige Götter und Göttinnen. Auf Abbildungen und als Figuren erscheinen die Gottheiten der Hindus als bunte Figuren und Gestalten. Auch hier ist ein Vergleich mit den Heiligen in der katholischen Kirche durchaus naheliegend. Die Reformation lehnte die Heiligenkulte ab, da sie sich nicht von der Bibel her begründen lassen und auch im Widerspruch zu den 10 Geboten stehen. Das Konzil von Trient 1545 - 1563 stellte jedoch fest, dass es gut und nützlich sei, die Heiligen anzurufen, um durch ihre Fürbitte Gottes Wohltaten zu erlangen.
Kommentar zur öffentlichen Diskussion über den Begriff: „Lügenpresse“.
Es gibt keine Pressefreiheit. Der entscheidenden Unterschied in der Berichterstattung zwischen totalitären Staaten und den sogenannten Demokratien ist, dass totalitäre Staaten eine Zensur offiziell zugeben, während in den Demokratien eine geheime und gelenkte Zensur durch mächtige Interessengruppen z. B. aus Politik, Wirtschaft und Wissenschaft durchgeführt, aber bestritten wird. Die öffentlich rechtlichen Rundfunk- und Fernsehanstalten wie ARD und ZDF werden deshalb von den Bürgern finanziert, damit sie unabhängig, objektiv und neutral berichten sollen. Wenn es aber in den Aufsichtsgremien nur so von Politikern wimmelt, entscheiden sich die Journalisten nach dem Motto: „Wessen Brot ich ess‘, dessen Lied ich sing!“. Selbst das Bundesverfassungsgericht hat den ZDF-Fernsehrat Ende 2014 wegen zu vieler politischer Einflussnahme für verfassungswidrig erklärt. Davon hat aber die breite Öffentlichkeit nichts erfahren.
ZDF-Staatsvertrag: Urteil des Bundesverfassungsgerichts am 25.03.2014.
„Der öffentlich-rechtliche Rundfunk soll die im Gemeinwesen vertretenen Meinungen facettenreich widerspiegeln; er darf aber nicht zum Staatsfunk werden, der lediglich die Auffassung von Regierung und Exekutive verbreitet.“ Der mit Zwangsgebühren finanzierte öffentlich-rechtliche Rundfunk bleibt aber weiter fest in der Hand etablierter Politkader und einflussreicher Interessengruppen, die ihn benutzen, um Meinung zu machen, die Bürger zu manipulieren und die eigene Macht zu sichern.
Update 21.5.2014: Spiegel Online berichtet, dass der ZDF-Fernsehrat seine Mitglieder nicht selbst wählt. Sie werden aus Regierungen, Parteien und Verbänden entsandt. Die Arroganz, Ignoranz und Intoleranz liegt also nicht nur zum Teil bei den Entsandten, sondern maßgeblich auch bei den Entsendern. Unwillkürlich fragt man sich unter diesen Umständen, welchen Wert das Grundgesetz noch hat.
An zwei aktuellen Beispielen möchte ich die skandalösen Zustände zeigen. Seit Jahren werden zweistellige Milliardenbeträge zur Bekämpfung der angeblich durch CO2 verursachten Erderwärmung sinnlos ausgegeben. Es ist wissenschaftlich nachgewiesen und völlig unstrittig, dass ein CO2-Anstieg auf unserem Planeten erst etwa 800 Jahre nach einem Temperaturanstieg nachzuweisen ist. Die Ursache ist, dass bei einer Erderwärmung sich die Weltmeere erst langsam erwärmen und dabei vermehrt im Wasser gelöstes CO2 freisetzen. Bei einer späteren Abkühlung der Erdtemperatur kühlt das Meerwasser entsprechend langsamer ab und die CO2-Werte sinken, weil wieder mehr CO2 im Meerwasser gelöst wird. Ein eindeutiger Beweis, dass die Erderwärmung andere Ursachen haben muss, die Behauptung, dass CO2 für die Klimaerwärmung verantwortlich ist, stellt sich als bewusste Desinformation der Bevölkerung dar. Die derzeitige Erderwärmung auf den zunehmenden Verbrauch von fossilen Energieträgern damit zu begründen, dass die CO2-Werte ansteigen, ist genauso unsinnig, wie die Behauptung, dass der Geburtenrückgang in Deutschland auf die sinkende Anzahl der Störche zurückzuführen ist. Von entscheidender Bedeutung für die Umwelt und den Menschen ist dagegen der völlig unnnötig hohe Aussroß von Schwefel- und Stickstoffverbindungen sowie die Reduzierung von Feinstaub. Aber das wird durch eine entsprechende Aufklärun der Bürger durch die Medien verhindert, weil das einflussreichen Interessenten Ihre Einnahmen verringern würde.
Eine andere Vorgehensweise ist bei der jetzigen Diskussion um Glyophosat zu beobachten. In den Medien wird durchweg darüber diskutiert, ob Glyphosat krebserregend ist oder nicht. Die Gefahr für die biologische Vielfalt und insbesondere für die Bienen, wird überhaupt nicht in den Medien angesprochen. Breitbandherbizide wie Glyphosat töten jedoch auf den behandelten Kulturflächen nicht nur diejenigen Pflanzen ab, die Insekten wie Schmetterlingen und Bienen Nahrung bieten, sie beeinträchtigen auch massiv die für die Erhaltung der Bodenqualität wichtigen Kleinstlebewesen. Darüber hinaus können schon sehr kleine Mengen Glyphosat das Erbgut von Menschen und Tieren schädigen. Das angeblich bienenfreundliche Glyphosat lässt Bienen in Massen sterben.
Die Bundesregierung gibt zu (Drucksache 17/4902), dass die Risiken für die biologische Vielfalt immer deutlicher werden: weniger Blühpflanzen, weniger Samen, weniger Bestäuber, weniger Insekten. (Quelle: NABU), trotzdem will die CDU den Einsatz von Glyphosphat bei der EU befürworten. Von der Bundesregierung fordern deshalb Mellifera, der Deutsche Imkerbund und der Deutsche Berufs- und Erwerbsimkerbund, sich für ein EU-Weites Glyphosphatverbot einzusetzen. Man wird abwarten müssen, ob die Massenproteste gegen Glyphosat etwas bewirken werden, oder ob wir der Willkür von finanzstarken und einflussreichen Konzernen hilflos ausgeliefert sind.
Zusammenfassend lässt sich feststellen: Die Medien lügen nicht. Sie passen die Berichterstattung den jeweiligen gewünschten Erfordernissen an, um die Bevölkerung zu manipulieren.
Copyright ©