Startseite

 

Wissenschaftliches versus religiöses Weltbild Teil II

 

 

Gliederung:

 

1. Problemeinführung

 

2. Das religiöse Weltbild

 

3. Die Grenzen des menschlichen Verstandes

    a. Normative Aussagen

    b. Logische Aussagen                  

    c. Faktische, aber metaphysische Aussagen

    d. Empirische, singuläre Aussagen

                  d1. Das Alibi

                  d2. Das Motiv

                  d3. Die Gelegenheit

                  d4. Das Schuldeingeständnis

                  d4. Zeugenaussagen

                  d5. Indizienbeweise

                  d6. Singuläre Aussagen im Bereich der Wissenschaft

 

              e. Generelle Aussagen

                       f.  Effizienz versus Sekundärwirkungen

               

               4. Religiöses Weltbild widerlegt?

 

 

 

 

3e. Generelle Aussagen

 

Wenn wir einmal von den Geschichtswissenschaften absehen, liegt das Hauptaugenmerk wissenschaftlicher Arbeiten auf das Formulieren und Überprüfen genereller Aussagen. Auch hier gilt in noch stärkerem Maße als dies für die singulären Aussagen gilt, dass der menschliche Verstand nur in begrenztem Maße in der Lage ist, solche Aussagen eindeutig zu verifizieren.

 

Mit dem Aufkommen der Aufklärung begann der Siegeszug der modernen Wissenschaft, welche befreit von den Begrenzungen, welche die katholische Kirche dem wissenschaftlichen Erforschen auferlegt hatte, Jahr für Jahr neues Wissen über fast alle Bereiche der Welt angehäuft hat.

 

Zu Beginn der Neuzeit bemühte man sich zunächst im Rahmen des Rationalismus allein durch logische Deduktionen Erkenntnisse zu gewinnen. Es folgte dann der Empirismus, der nicht durch Deduktionen, sondern durch Induktion, also durch Beobachtung und Verallgemeinerung dieser Beobachtungen zu Erkenntnissen zu gelangen versuchte. Man sprach in diesem Zusammenhang auch von Positivismus, um damit anzudeuten, dass sich die Wissenschaft auf die Aufdeckung von Sachzusammenhänge auf das erfahrungsmäßig Gegebene zu beschränken habe und sich wie bereits Bentham erkannt hatte, allein mit dem Sein zu beschäftigen habe und dass deshalb niemals vom Sein unmittelbar auf das Sollen geschlossen werden könne.

 

Schließlich wurde dann im Rahmen des Neopositivismus, auch kritischer Rationalismus genannt, erkannt, dass Gesetze im Sinne allgemeiner Aussagen aufgrund der Begrenzung des menschlichen Verstandes gar nicht endgültig verifiziert werden können. Der menschliche Verstand sei nur in der Lage, bisher als gültig geltende generelle Aussagen zu falsifizieren, nicht aber zu verifizieren.

 

Wenn ich z. B. die aus Beobachtungen gewonnene Aussage formuliere ‚Alle Unternehmer maximieren den Gewinn‘ so kann ich zwar diese Behauptung falsifizieren, wenn es mir gelingt, streng genommen auch nur einen Unternehmer zu beobachten, auf den diese Aussage  nicht zutrifft. Denn wenn ich einen solchen Unternehmer finden kann, dann gilt diese Aussage eben nicht für restlos alle Unternehmer, ich habe ja einen oder auch mehrere Unternehmer gefunden, welche nicht dieser Gesetzmäßigkeit folgen.

 

Wissenschaftlicher Fortschritt verbreitet sich deshalb auch weniger dadurch, dass immer mehr Wissen oder Aussagen angehäuft werden, dass also unser Gebäude von wissenschaftlichen Aussagen immer größer wird, sondern vielmehr dadurch, dass Aussagen, welche bisher für wahr gehalten wurden und von denen einige sogar in einem logischen Widerspruch zueinander standen, ausgemerzt werden, dass also mit anderen Worten zwar vielleicht insgesamt weniger Aussagen als bisher für wahr gehalten werden, dass aber der Wahrheitsgehalt der übrig gebliebenen Aussagen angestiegen ist.

 

Der Grund dafür, dass es gar nicht möglich ist, faktische Zusammenhänge eindeutig zu verifizieren, liegt darin, dass wir unser Wissen nur durch Beobachtung gewinnen können, dass wir aber nicht in der Lage sind, alle Gegenstände einer Aussage auf ihren Wahrheitsgehalt zu überprüfen. Rein theoretisch wäre es vielleicht prinzipiell noch möglich alle Gegenstände, die im Augenblick existieren, in unsere Beobachtung einzubeziehen. Allgemeine Aussagen gelten jedoch unabhängig von Zeit und Raum. Erklären wir eine allgemeine Aussage für allgemeingültig, dann müssten diese Gesetzmäßigkeiten auch in der Vergangenheit gelten. Genau das können wir jedoch im Allgemeinen nicht, wir können nicht davon ausgehen, dass seit Anbeginn der Zeit solche Beobachtungen gemacht wurden und dass – wenn sie gemacht wurden – Aufzeichnungen über diese Beobachtungen angefertigt wurden.

 

Aber selbst dann, wenn wir für die Gegenwart und Vergangenheit solche vollständigen Beobachtungen machen könnten, wissen wir ja nicht und können es auch nicht überprüfen, ob diese Gesetzmäßigkeiten auch in Zukunft Geltung besitzen. Wir wissen also nicht, ob die heute oder in der Vergangenheit entdeckten Zusammenhänge auch für die Zukunft und damit unabhängig von Raum und Zeit Geltung besitzen.

 

De facto können wir immer – auch in der Gegenwart – nur für einen verschwindend kleinen Ausschnitt der zu untersuchenden Objekte Beobachtungen durchführen, sie sind im Wesentlichen auf unsere Zeit beschränkt und zumeist auch auf einige wenige räumliche Bereiche, sodass immer mit der Möglichkeit gerechnet werden muss, dass eine beobachtete Gesetzmäßigkeit nicht allgemein gültig ist, da wir aus praktischen Gründen – vielleicht auch nur deshalb, weil uns die finanziellen Mittel für eine vollständige Überprüfung fehlen – nicht alle Gegenstände beobachten konnten.

 

Aber warum reicht es denn nicht aus, dass wir an wenigen Objekten bestimmte Beobachtungen machen, warum können wir nicht davon ausgehen, dass das, was wir am Einzelfall beobachtet haben, für restlos alle gleichgelagerten Fälle richtig ist. Wenn nämlich tatsächlich exakte Gesetzmäßigkeiten vorliegen, müsste doch eigentlich ein an einem bestimmten Objekt nachgewiesener Zusammenhang für restlos alle gleich gelagerten Fälle gelten und deshalb müsste es doch ausreichen, diesen Zusammenhang an einem Beispiel durch Beobachtung nachgewiesen zu haben.

 

Allerdings steht ja am Beginn einer wissenschaftlichen Untersuchung gar nicht fest, ob es bei den Beobachtungen um exakte Gesetzmäßigkeiten handelt, die an wenigen Beispielen beobachtenden Fälle könnten sich ja rein zufällig ergeben haben. So hat man z. B. festgestellt, dass in Gegenden, in welchen eine überdurchschnittliche Geburtenrate beobachtet werden konnte, auch gleichzeitig überdurchschnittlich viele Störche genistet haben.

 

Daraus konnte aber nicht der Schluss gezogen werden, dass das Märchen, wonach Kinder von Störchen gebracht werden, der Wirklichkeit entspräche. Entweder war dieses Zusammentreffen hoher Geburtenraten und hoher Nistplätze von Störchen wirklich rein zufällig oder aber beide Ziffern korrelieren selbst wiederum mit einer dritten Größe, bei deren Vorliegen sowohl die Geburtenrate wie auch die Zahl der Störche ansteigen.

 

Die Antwort liegt weiterhin darin, dass die faktischen Zusammenhänge in der Realität eben nicht so einfach sind, dass ein bestimmter Vorgang x immer ein bestimmtes Ereignis y zur Folge hat. Wären die realen Vorgänge wirklich so einfach, so könnten wir in der Tat davon ausgehen, dass einige wenige Beobachtungen ausreichen, um eine allgemeine Aussage für verifiziert zu erklären.

 

In Wirklichkeit sind die natürlichen Zusammenhänge sehr komplex, Gesetzmäßigkeiten äußern sich darin, dass ein bestimmtes Ereignis x nur dann ein anderes Ereignis y mit Sicherheit auslöst, wenn gleichzeitig ein ganzer Satz von weiteren Bedingungen z1, z2, … zn vorliegt oder aber auch unter Umständen gerade nicht vorliegt, dass also das Vorliegen eines bestimmten Zustandes z gerade das Auftreten dieser Gesetzmäßigkeit (aus x folgt y) außer Kraft setzt.

 

Wenn wir also nun bei einer Reihe von Beobachtungen feststellen, dass auf das Ereignis x immer (das heißt bei allen Beobachtungen) das Ereignis y ausgelöst wurde, so können wir aus diesen Beobachtungen nicht schließen, dass dies an allen Orten oder zu allen Zeiten der Fall sein wird. Wir müssen ja mit der Möglichkeit rechnen, dass diese Gesetzmäßigkeit nur deshalb beobachtet werden konnte, weil zusätzlich eine Bedingung z gegeben war, die aber nicht bekannt war und  die deshalb auch nicht in den Satz der Bedingungen aufgenommen werden konnte. Wir müssen also damit rechnen, dass in Zukunft einmal oder an anderen Orten diese Gesetzmäßigkeit gar nicht mehr auftritt, weil diese zusätzliche Bedingung dann nicht mehr erfüllt ist.

 

Als Bedingungen für das Auftreten einer allgemeinen Aussage können eben nur die Bedingungen benannt werden, von denen wir zumindest vermuten, dass sie für diese Gesetzmäßigkeit notwendig sind. Umgekehrt müssen wir auch damit rechnen, dass in Zukunft diese Gesetzmäßigkeit deshalb nicht mehr auftritt, weil ein bestimmtes, aber bisher nicht bekanntes Ereignis gerade nicht vorlag, dieses Ereignis aber die zu untersuchende Gesetzmäßigkeit verhindert. Wir müssen also mit anderen Worten davon ausgehen, dass das Auftreten neuer bisher nicht vorhandenen Ereignisse verhindert, dass wie bisher das Ereignis x ein weiteres Ereignis y hervorruft.

 

Dies bedeutet allerdings nicht, dass dann, wenn sich eine bestimmte Gesetzmäßigkeit bisher in tausenden und abertausenden Fällen bewährt hatte, eine einzige oder auch eine geringe Anzahl von Falsifizierungen ausreicht, diese Hypothese vollständig aufzugeben. Die Falsifizierung bedeutet ja nur, dass der in dieser generellen Aussage formulierte Zusammenhang etwas komplizierter ist als ursprünglich unterstellt wurde. Wir haben diese Aussage neu zu formulieren und sie auf bestimmte Zusatzereignisse zu beschränken.

 

 

f. Effizienz versus Sekundärwirkungen

 

Nun sind die Zusammenhänge in Wirklichkeit noch sehr viel komplizierter. Wir hatten bisher unterstellt, dass ein Ereignis x unter der Annahme weiterer Zusatzbedingungen z1, z2,…zn ein bestimmtes anderes Ereignis y auslöst. In Wirklichkeit haben wir jedoch davon auszugehen, dass das Ereignis x zumeist eine Vielzahl von anderen Ereignissen y1, y2,….ym auslöst. Nun haben wir mit folgender Schwierigkeit zu rechnen. Das Entdecken dieser Gesetzmäßigkeit dient oftmals dazu, neue nutzbringende Techniken oder Produkte herzustellen. Wenn jedoch die Einführung einer Technik oder eines Produktes eine Vielzahl von Wirkungen zur Folge hat, dann müssen wir auch damit rechnen, dass von dieser Technik oder diesem Produkt schädliche Einflüsse ausgehen können. Wir haben also zwischen der eigentlichen Zielgröße zu unterschieden, um derentwillen wir diese Innovation durchgeführt haben und den sogenannten negativen Sekundärwirkungen einer Maßnahme.

 

Natürlich sind wir bestrebt, solche Maßnahmen zu ergreifen, bei denen der Erfolg in der Zielgröße sicher ist und bei denen gleichzeitig keine größeren unerwünschten Nebenwirkungen erwartet werden können. Es wäre jedoch völlig illusorisch, wenn wir damit rechnen würden, dass diese beiden Ziele (höchstmögliche Effizienz, sowie vollständige Vermeidung unerwünschter Nebenwirkungen) in der Mehrzahl der Fälle erreicht werden könnte. In Praxi haben wir davon auszugehen, dass ein 100%iger Erfolg überhaupt nicht erreicht werden kann, genauso wenig wie es möglich ist, alle negativen Sekundärwirkungen zu vermeiden.

 

Im Bereich der empirischen Zusammenhänge gibt es im Gegensatz zu den logischen Zusammenhängen kein ‚immer‘ und auch kein ‚niemals‘. Es ist falsch zu behaupten, dass es möglich wäre, Produkte oder Techniken zu entwickeln, welche in restlos allen Fällen positives bewirken, genauso wie es falsch ist, zu behaupten es gäbe Techniken, welche niemals unerwünschte Nebenwirkungen hervorrufen.

 

Es zeugt von Unkenntnis, zu behaupten, dass gewisse Techniken, wie z. B. die Erzeugung von Atomstrom für alle Zeiten im Hinblick auf mögliche unerwünschte Nebenwirkungen unbeherrschbar sind, man kann nur feststellen, dass eventuell diese Technik nach dem heutigen Stand der Wissenschaft als unbeherrschbar eingestuft werden muss.

 

Genauso ist es jedoch völlig unbegründet, wenn man vorgibt, dass andere Techniken z. B. die Erzeugung alternativer Energien völlig ohne Nebenwirkungen sind. Auch hier kann man allenfalls davon sprechen, dass bei dem heutigen Stand unseres Wissens keine gravierenden Nebenwirkungen bekannt sind.

 

Nehmen wir das Beispiel der Produktion von Energie aus Biomasse. Hier wurde vor kurzer Zeit die Befürchtung geäußert, dass bei der Produktion der Biomasse – und zwar aufgrund  extrem hoher Temperaturen – der gefährliche Erreger EHEC entstanden sein könnte. Diese Befürchtung hat sich zwar nicht bestätigt, aber stets ist damit zu rechnen, dass aufgrund der Weiterentwicklung unseres Wissens weitere, bisher für ausgeschlossen gehaltene negative Sekundärwirkungen bekannt werden.

 

Dass es nicht möglich ist, im Bereich empirischer Zusammenhänge einen 100%igen Erfolg zu garantieren, liegt – wie gezeigt – daran, dass ein bestimmtes Ereignis x in aller Regel nur dann ein anderes Ereignis y auslöst, wenn weitere Zusatzbedingungen vorliegen, wobei diese weiteren Zusatzbedingungen eigentlich eher zufällig bekannt werden, es gibt keine Methode, die sicherstellen kann, dass auch restlos alle Zusatzbedingungen erkannt wurden.

 

Dass hingegen niemals ausgeschlossen werden kann, dass keine unerwünschten Nebenwirkungen eintreten, hängt damit zusammen, dass in aller Regel das Auftreten eines Ereignisses x nicht nur ein einziges, sondern eine Vielzahl von anderen Ereignissen hervorruft. Auch hier gibt es keine sichere Methode, festzustellen, ob man alle möglichen bewirkten Ereignisse auch zur Kenntnis genommen hat. Ob ein x ein ym auslöst, kann ja nur dadurch überprüft werden, dass man in einem Experiment das Ereignis x (eventuell künstlich) auslöst und dann überprüft, ob eine andere Größe entsteht oder verändert wird. Dies kann man jedoch nur dann beobachtend überprüfen, wenn man weiß, welche andere Größe denn überhaupt zur Diskussion steht.

 

Entscheidend ist nun, dass das Aufdecken unerwünschter Sekundärwirkungen sehr viel schwieriger ermöglicht werden kann, als das Aufdecken der erwünschten Zielgröße. Der eigentliche Grund für diese Unterschiede liegt darin, dass wir uns bei der Effizienzanalyse und der Analyse möglicher Sekundärwirkungen anderer Überprüfungsmethoden bedienen müssen. Bringen wir zunächst einige Beispiele:

 

Beispiel Nr. 1: Contergan.

 

Erwähnt sei als erstes die Entwicklung des Medikamentes Contergan. Das Medikament Contergan wurde zunächst in der Werbung als der Durchbruch in der Forschung von Schmerz- und Schlafmitteln gefeiert: Mit diesem Medikament sei es schließlich gelungen, eine wirksame Bekämpfung der Schmerzen anzubieten, ein Medikament sei gefunden worden, das im Gegensatz zu den bisherigen Schmerzmitteln ohne gravierende Nebenwirkungen – auch und gerade bei Schwangeren – eingenommen werden könne. Man sprach von einer ‚Schmerzbekämpfung ohne Reue‘.

 

Thalidomid wurde hierbei im Jahre 1957 eingeführt. In Deutschland kam es unter dem Markennamen Contergan auf den Markt. Es handelte sich dabei um ein Hypnotikum beziehungsweise um ein Beruhigungsmittel, das nicht der Klasse der Barbiturate angehörte.

 

Man hielt Thalidomid damals selbst im Falle einer Überdosierung für weitgehend harmlos und deshalb besonders sicher. Es wurde für die Einnahme während der Schwangerschaft nicht nur als geeignet vermarktet, sondern für diese Anwendung sogar empfohlen.

 

Später musste man Missbildungen von Kindern, deren Mütter während der Schwangerschaft Contergan eingenommen haben, auf die Einnahme dieses Medikamentes zurückführen. Thalidomid galt nun als ein Arzneimittel, das bei Einnahme während der Schwangerschaft schwere Missbildungen am Ungeborenen verursachen kann. (Thalidomid-Embryopathie). Diese verheerenden Nebenwirkungen kamen auch für die Wissenschaft vollkommen überraschend.

 

 

Beispiel Nr. 2: Begradigung des Rheins

 

Fahren wir fort mit einem Beispiel aus der Technik-Geschichte. Die Begradigung von Flussläufen, z. B. des Rheins, wurde in der Geschichte Deutschlands als großer Erfolg gefeiert, da Flüsse auf diese Weise befahren werden konnten. Es entstanden auf diese Weise Wasserwege, die Fahrtkosten wurden drastisch reduziert und damit konnte letzten Endes die Produktivität der Volkswirtschaft entscheidend erhöht werden.

 

Erst sehr viel später - und zwar erst etwa hundert Jahre später – wurde man sich der negativen Folgen dieser Begradigung richtig bewusst, die sich in vermehrten und stärkeren Überflutungen und hohen wirtschaftlichen Schäden in Milliardenhöhe niederschlugen. Vor allem bei der Schneeschmelze aber auch bei starken Regenfällen steigt der Wasserpegel an bestimmten kritischen Stellen des Rheins und anderer begradeter Flüsse schnell an. Aufgrund der Begradigung des Rheins erhöhte sich die Geschwindigkeit des Wasserflusses mit der Folge, dass es immer wieder zu Überflutungen kam und weiterhin kommt. Vor der Begradigung des Rheins blieb ein Großteil des zusätzlichen Wassers in zahlreichen Auen und Nebenflussläufen stehen, sodass es auch nur selten zu ernsthaften Überflutungen kam.

 

 

Beispiel Nr. 3: Verkehr

 

Im Straßenverkehr werden jedes Jahr schätzungsweise 1,2 Millionen Menschen getötet und 20 bis 50 Millionen schwer verletzt - die meisten davon in Entwicklungsländern. Rund alle 30 Sekunden stirbt somit irgendwo auf der Welt ein Mensch im Straßenverkehr. Jährlich 1,2 Millionen Verkehrstote und 20 bis 50 Millionen Schwerverletzte lautet also die erschreckende Bilanz der Weltgesundheitsorganisation (WHO). Diese verheerenden Auswirkungen treten kontinuierlich auf und sind auch in Zukunft zu erwarten, obwohl im Bereich der Verkehrswege in den letzten Jahrzehnten vor allem in den hoch entwickelten Ländern durchaus entscheidende Verbesserungen erzielt werden konnten. Das Risiko, im Verkehr einen Unfall zu erleiden, ist somit sehr hoch und auch relativ sicher. Zwar ist weitgehend unbekannt, welchen Verkehrsteilnehmer dieses Risiko befällt, aber dass permanent und in diesem hohen Ausmaß Unfälle mit Schwerstverletzungen und Todesfällen stattfinden, ist in hohem Maße sicher.

 

Der einzelne Teilnehmer nimmt diese Gefahren nicht so ernst, da er im Straßenverkehr immer damit rechnet, dass er selbst durch vorsichtiges Fahren diese Gefahren vermeiden kann, dass er es also selbst in der Hand habe, diese Gefahren abzuwenden. Aber gerade dieser Glaube ist falsch und trügerisch. Bei einem Unfall sind zumeist mehrere Personen betroffen, auch diejenigen, welche sich korrekt verhalten, können aufgrund der Fehler der anderen von den Unfällen betroffen werden.

 

Diese optimistische Meinung ist auch deshalb trügerisch, da ein Verkehrsteilnehmer durchaus in 99% der Augenblicke, in denen er sich im Verkehr befindet, korrekt und umsichtig sein Auto steuern kann, es kann aber trotzdem zu einem von ihm selbst verursachten Unfall kommen, da ein einzelner nur wenige Sekunden andauernder Augenblick der Unaufmerksamkeit ausreichen kann, einen Unfall zu verursachen.

 

Trotz dieser auch im Vergleich zu den tatsächlich bisher festgestellten Gefahren z. B. der atomaren Energieerzeugung enorm hohen Risiken im Verkehrsbereich nehmen die öffentlichen Medien diese Unfälle kaum zur Kenntnis. Wenn diese Unfälle auf die einzelnen Regionen und auf die Zeit verteilt auftreten, sind sie nicht medienwirksam, sie werden allenfalls in kleinen kaum beachteten Rubriken im hinteren Teil der Zeitungen unter Verschiedenem erwähnt. Nur dann, wenn bei einem Flugzeugabsturz oder bei einem Entgleisen eines Zuges eine Vielzahl von Menschen zur gleichen Zeit zu Tode kommt, erreicht dieser Unfall die ersten Seiten einer Zeitung und dort große, sofort bei dem Leser ins Auge springende Schlagzeilen.

 

In viel stärkerem Maße als dies für die Effizienzanalyse gilt, müssen wir davon ausgehen, dass über die Wirkungen, welche als Sekundärwirkungen eingestuft werden, keine ausreichenden theoretischen Erkenntnisse vorliegen, dass also über mögliche Sekundärwirkungen nur spekuliert werden kann, ja dass oftmals das Vorhandensein bestimmter Sekundärwirkungen erst sehr viel später – Jahre, Jahrzehnte oder sogar Jahrhunderte später – bekannt wird.

 

Betrachten wir hierzu zunächst das im Rahmen einer Effizienzanalyse angewandte Verfahren. Es ist Anliegen einer Theorie, über möglichst alle Bestimmungsgründe einer Problemgröße zu unterrichten. So geht die keynesianische Inflationstheorie davon aus, dass allein der Anstieg in der effektiven Nachfrage für Güterpreissteigerungen verantwortlich ist. Da wir die Gesamtnachfrage in Konsum-, Investitions- Staats- und schließlich Exportausgaben untergliedern, haben wir mit dieser Aufzählung auch alle bekannten möglichen Bestimmungsgründe einer Inflation (allerdings nur nach Meinung der Keynesianer) berücksichtigt.

 

Diese angestrebte Vollständigkeit in der Anzahl der Bestimmungsgründe ist im allgemeinen auch möglich, da wir davon ausgehen können, dass dieser Zusammenhang zwischen Bestimmungsgründen und Problemvariablen in relativ kurzer, überschaubarer Zeit stattfindet und deshalb bei einer genauen empirischen Beobachtung auch in der Regel festgestellt werden kann.

 

Anderes gilt im Allgemeinen für das Auftreten von Sekundärwirkungen auf andere Zielgrößen. Hier geht man in der Regel davon aus, dass längere Zeiträume verstreichen, bis die unerwünschten Sekundärwirkungen einer Maßnahme eintreten. Bringen wir das Beispiel einer keynesianischen Beschäftigungspolitik. Die Theorie belehrt uns darüber, dass positive Beschäftigungseffekte schon sehr bald nach Erhöhung der Staatsausgaben festgestellt werden können. Schließlich stellen Staatsausgaben, welche für den Ankauf von Gütern und Dienstleistungen eingesetzt werden, bereits Einkommenssteigerungen dar und verursachen unmittelbar eine Steigerung der Produktion und damit auch der Beschäftigung.

 

Im Rahmen der Inflationstheorie wird allerdings darauf hingewiesen, dass diese Staatsausgabensteigerungen im Allgemeinen auch zu Preissteigerungen führen, dass jedoch der time lag (die Zeitspanne), der (bzw. die) zwischen Ausgabensteigerung und Preissteigerung liegt, wesentlich größer ist als der time lag zwischen Ausgabensteigerung und Beschäftigungszunahme. Die Notenbank senkt in Zeiten der Depression den Zinssatz, diese Verbilligung des Geldes führt zu einer drastischen Erhöhung der umlaufenden Geldmenge, die jedoch zum größten Teil wegen der schlechten Konjunkturaussichten vorwiegend zunächst in Kasse gehalten wird. Erst bei erneutem Anstieg der Konjunktur werden die Gelder für Käufe verwandt, sodass es dann erst verzögert – lange nach Erhöhung der Geldmenge – zu starken Preissteigerungen kommt.

 

Dies ist auch der Grund für die Beliebtheit einer expansiven Beschäftigungspolitik unter den Politikern. Wenn sie mit diesen Maßnahmen kurz vor der Wahl beginnen, können sie hoffen, dass sich die Beschäftigungssteigerungen noch positiv auf die Wahl auswirken werden, dass aber die unerwünschten Preissteigerungen erst nach der Wahl auftreten und deshalb keinen Einfluss auf das Wählerverhalten nehmen werden. Da davon ausgegangen werden kann, dass die Wähler relativ schnell vergessen und da ihr Wahlverhalten allein von den Ereignissen kurz vor der Wahl abhängt, werden die Inflationswirkungen den Politikern auch langfristig nicht angerechnet.

 

Gerade dieser längere Zeitraum des Auftretens von Sekundärwirkungen bringt es nun mit sich, dass wir zwar im Rahmen der Effizienzanalyse über Theorien verfügen, welche möglichst alle bekannten Bestimmungsgründe auflisten, dass es aber keine Theorie gibt, welche alle möglichen Sekundärwirkungen zusammenfasst. Fragen wir nach den Sekundärwirkungen einer expansiven Beschäftigungspolitik, so erfahren wir – wenn überhaupt – über die zu erwartenden Preissteigerungen von der Inflationstheorie, über die Wachstumsauswirkungen von der Wachstumstheorie, über die unerwünschten Verteilungseffekte von der Verteilungstheorie und über die möglichen Fehlallokationen von der Allokationstheorie.

 

Dieses unterschiedliche Verfahren im Rahmen der Effizienz- und Sekundärwirkungsanalyse bringt es nun mit sich, dass der Fortschritt in der Entwicklung von Theorien im Zusammenhang mit den Sekundärwirkungen sehr viel geringer ist als im Zusammenhang mit Effizienzproblemen. Treten nämlich die prognostizierten Wirkungen einer Theorie nicht auf oder sind offensichtlich andere Bestimmungsgründe für das Auftreten einer Problemgröße verantwortlich, so besteht auch ein starker Anreiz, die Theorie zu modifizieren. Im Rahmen der Forschung ergibt sich die Notwendigkeit, eine Theorie solange zu modifizieren, bis schließlich (fast) alle feststellbaren Bestimmungsgründe einer Problemgröße in die Theorie aufgenommen sind.

 

Ganz anders erfolgt der Prozess der Wissensfindung im Zusammenhang mit Sekundärwirkungen. Es gibt kein Verfahren der Falsifikation, wenn wir bisher von der falschen Hypothese ausgegangen sind, dass sich eine expansive Beschäftigungspolitik nur auf die Inflationsrate, nicht aber auf die Allokation negativ auswirkt. Es steht nicht eine Theorie, sondern nur Teile recht unterschiedlicher Theorien auf dem Prüfstand, es fehlt also hier der Anreiz zu überprüfen, ob nicht auch Sekundärwirkungen auf andere Problemgrößen zu befürchten sind. Es ist mehr eine Frage des Zufalls, dass man auf Sekundärwirkungen stößt und dies gilt umso mehr, je weniger solche Zusammenhänge vermutet werden. Aus diesen Gründen dürfte eine Analyse der Sekundärwirkungen in stärkerem Maße als die Effizienzanalyse spekulativer Natur sein.

 

Gerade aus diesen Gründen wurden oftmals bei Einführung neuer Maßnahmen negative Sekundärwirkungen prognostiziert, die dann gar nicht eingetreten sind und andererseits negative Sekundärwirkungen größeren Ausmaßes übersehen, welche erst im Nachhinein – vielleicht sogar erst Jahrzehnte nach der Einführung einer Maßnahme – festgestellt wurden.

 

 

4. Religiöses Weltbild widerlegt?

 

Nachdem wir dargelegt haben, wie denn der Glaubensanspruch der Religionen zu verstehen ist und worin die Grenzen des menschlichen Verstandes liegen, können wir uns der zentralen Frage dieses Artikels zuwenden, inwieweit sich ein religiöses Weltbild, so wie es von den Juden, den Christen und auch den Moslems gelehrt wird, überhaupt in Widerspruch zu den wissenschaftlichen Erkenntnissen über die Entstehung der Welt geraten kann und inwieweit insbesondere das religiöse Weltbild sozusagen aufgrund des wissenschaftlichen Weltbildes widerlegt wurde.

 

Die in der Bibel formulierte Idee, dass letzten Endes die Welt von Gott in sieben Tagen erschaffen wurde, steht in keinem Widerspruch zu der heutigen Auffassung der Naturwissenschaft, dass die Entstehung der Welt, vor allem des Lebens in dieser Welt durch einen Urknall vor Milliarden von Jahren ausgelöst wurde. Dieser biblische Bericht widerspricht auch nicht der heute geltenden wissenschaftlichen Meinung, dass alles Leben zunächst mit einfachen Lebewesen, den Einzellern entstanden ist und dass erst durch eine vielfache Weiterentwicklung schließlich auch der Mensch am Ende dieses Entwicklungsstranges entstand. Der Kern der Aussage hinter dem Schöpfungsbericht besteht vielmehr darin, dass es ein persönlicher Gott war, der die Naturgesetze geschaffen hat, nach denen alles Leben, auch der Mensch auf dieser Erde entstanden ist und dass man den Verlauf der Entwicklung in verschiedene Stufen einteilen kann, welche sinnbildlich den 7 Tagen als Epochen der Schöpfung des Universums entsprechen. Auch entspricht es ja der naturwissenschaftlichen Vorstellung, dass sich der Mensch erst relativ spät entwickelt hat.

 

Auch gilt es zu bedenken, dass die These vom Urknall ja nicht unbedingt bedeutet, dass das Leben schließlich in einem ganz bestimmten Zeitpunkt aus dem Nichts entstanden ist, vielmehr ist eher davon auszugehen, dass Materie, welche vor dem Urknall unstrukturiert war, in komplexe Materie verwandelt wurde, die schließlich auch Leben ermöglichte.

 

Einige Theoretiker bemühen sich deshalb auch, den Urknall durch einen »Big Bounce«, eine Art Umschwung, zu ersetzen. Eine solche Deutung entspräche dann auch sehr viel besser der in der Naturphilosophie lange Zeit beanspruchten Forderung, gemäß derer aus Nichts niemals etwas entstehen und etwas Seiendes niemals absolut verschwinden könne.

 

Der Urknall soll den Anfangspunkt der Entstehung von Materie und Raum und Zeit und eine dauerhafte Ausdehnung des Universums ausgelöst haben. Aus der zu beobachtenden Tatsache, dass sich das Universum ständig ausbreitet, hat man den Schluss gezogen,  dass das Universum früher sehr viel kleiner war, gleichzeitig war es vorher heißer und dichter. Formal führt die Lösung zeitlich rückwärtsgewandt auf einen Zeitpunkt hin, zu dem der Wert des Skalenfaktors verschwindet, also das Universum keine Ausdehnung hatte und die Temperatur und Dichte unendlich groß waren.

 

Der Zeitpunkt, an dem sich dies änderte, wird als „Urknall“ bezeichnet. So gibt es für den Urknall selbst bislang keine akzeptierte Theorie. Verschiedene Zeiträume nach dem Urknall werden als eigenständige Perioden oder Epochen des Universums beschrieben. Wendet man die bekannten physikalischen Gesetze auf die Situation unmittelbar nach dem Urknall an, so ergibt sich, dass der Kosmos in den ersten Sekundenbruchteilen der Expansion mehrere verschiedene extrem kurze Phasen durchlaufen haben muss.

 

Das Universum begann mit einem Zustand, bei dessen Beschreibung die bekannten physikalischen Gesetze versagen. Insbesondere muss man davon ausgehen, dass die Zeit selbst „vor“ der sogenannten Planck-Zeit (der Zeit des Urknalls“) noch nicht ihre Eigenschaften als Kontinuum besaß, so dass Aussagen über einen „Zeitraum“ zwischen einem Zeitpunkt Null und 10−43 s physikalisch bedeutungslos sind. In diesem Sinn hatte die Planck-Ära keine Dauer.

 

Entsprechendes gilt für den Raum. Für Räume mit einer Längenausdehnung von Null bis zur Planck-Länge (1,6•10−35 m) verliert der Raum seine Eigenschaft als Kontinuum. Daher sind Aussagen über die räumliche Ausdehnung für Räume mit Längenausdehnungen von Null bis 10−35 m sinnlos. In diesem Sinn kann für die Dauer der Planck-Ära keine exakte Angabe zum Volumen des Universums gemacht werden. Für eine Beschreibung des Universums in der Planck-Ära ist eine Theorie der Quantengravitation nötig, die derzeit noch nicht existiert. Erst nach dem Ende der Planck-Ära wird das Universum der physikalischen Beschreibung nach derzeitigem Kenntnisstand zugänglich. (Siehe hierzu z. B. die einschlägigen Artikel über die Urknall im Brockhaus oder in der Wikipedia).

 

Woher die unstrukturierte unendlich dichte Masse ohne Ausdehnung in der Planck-Ära kam und vor allem welches Ereignis den Urknall ausgelöst hat, darüber kann die Wissenschaft keine Auskunft geben. Für den menschlichen Verstand ist die Vorstellung, dass unstrukturierte Masse schon immer bestand oder irgendeinmal von selbst entstand und dass sich der Urknall rein zufällig ohne jede Ursache von selbst ausgelöst habe, genauso unbegreiflich, wie der Glaube an einen persönlichen Gott, der schon immer vorhanden war und der durch die Schaffung der Naturgesetze schließlich die Entwicklung der Welt und der Lebewesen ausgelöst hat.

 

Es ist auch schwer zu verstehen, warum durch einen zufälligen Akt heraus eine Entwicklung entstanden sein kann, welche in so starkem Maße eindeutigen Gesetzmäßigkeiten folgt und die bei einer naiven Betrachtung nur als eine bewusst gewollte und von einem persönlichen Wesen herbeigeführte Innovation angesehen werden kann.

 

Nun könnte man zwar darauf hinweisen, dass es gelungen sei, durch rein zufällig eingeführte Begrenzungen graphische Figuren entstehen zu lassen, welche durchaus Gesetzmäßigkeiten zu folgen scheinen. Im Rahmen der Chaostheorie und der fraktalen Geometrie konnte gezeigt werden, dass auch bei rein zufällig gewählten geometrischen Punkten allein durch die Einführung von Begrenzungen wohl geordnete Figuren entstehen, welche sich stets gleichen.

 

Aber damit ist keinesfalls bewiesen, dass aus reinem Zufall allein Gesetzmäßigkeiten entstehen können. Die eigentliche Ursache hierfür könnte ja selbst wiederum darin liegen, dass die beim Urknall entstehende strukturierte Materie solche Gesetzmäßigkeiten bereits in sich trägt und dass nur deshalb scheinbar zufällige Begrenzungen wohlgeordnete Muster erkennen lassen. Leicht wäre es sich ein Spiel auszudenken, bei dem der Spieler zu Beginn eine beliebige Zahl eingeben darf und trotzdem das Spiel immer zu den gleichen Abläufen oder Ergebnissen führt.

 

Schließlich sollte nochmals daran erinnert werden, dass schon aus der oben geschilderten Begrenzung des menschlichen Verstandes, vor allem im Hinblick auf generelle Aussagen niemals davon gesprochen werden kann, dass die vorherrschende Theorie endgültig verifiziert werden konnte. Jede akzeptierte Theorie ist vorläufig in dem Sinne, dass sie zwar mit den heute bekannten Beobachtungen weitgehend in Übereinstimmung gebracht werden kann, dass aber immer damit zu rechnen ist, dass aufgrund zukünftiger Beobachtungen und Erkenntnisse dieses Weltbild selbst wiederum korrigiert und weiterentwickelt werden muss. Es ist also mit größter Wahrscheinlichkeit davon auszugehen, dass es bei der Urknalltheorie nicht bleiben wird, dass auch sie wieder durch eine andere Theorie abgelöst werden wird.

 

Atheisten pflegen in den USA mit Omnibussen durch die Gegend zu fahren, mit Plakaten, auf denen zu lesen ist, dass mit an Sicherheit grenzender Wahrscheinlichkeit kein Gott existiere. Demgegenüber kann man die Aussage setzen, dass gerade diese von den Atheisten verbreitete Meinung mit an Sicherheit grenzender Wahrscheinlichkeit falsch ist, da sie die Grenzen, die jeder wissenschaftlichen Aktivität gesetzt sind, nicht beachtet. Richtig ist nur – dies wird aber heutzutage von ernstzunehmenden Theologen auch nicht bestritten – dass die Existenz Gottes wissenschaftlich nicht bewiesen werden kann. Genauso richtig ist aber auch, dass es keine Möglichkeit gibt, wissenschaftlich exakt nachzuweisen, dass es keinen Gott gibt. Die Leugnung Gottes ist selbst ein Glaubensakt genauso wie die Überzeugung, dass es einen Gott gibt.