Wissenschaft als Mythos
Dieses Werk ist KOSENLOS als epub-Version verfügbar.
{jkefel kefelui=[tabs] title=[Kap. 1]}
1. Wissen, Wissenschaft und Wahrheit
1.1. Auseinandersetzung mit der Wissenschaft
1.2. Einzelnes und Allgemeines
1.3. Lebenswelt und Wissenschaft
1.4. Wissen, Glauben
1.5. Klassisches Wissenschaftskonzept
1.6. Das Streben nach Wissen
1.7. Gesichertes Wissen
1.8 Begründungen
1.9 Wahrheit
1.10 Wissende und Unwissende
Ich möchte mit einem Zitat des Philosophen und Naturforschers Aristoteles beginnen, der wie kein anderer über einen Zeitraum von 2000 Jahren mitbestimmte, was die Menschheit zu wissen glaubte. In seiner berühmten Schrift „Metaphysik“ steht als einleitender Satz „Alle Menschen streben von Natur nach Wissen.“ Aristoteles drückt damit nicht nur eine typische Eigenschaft des Menschen aus, sondern auch die Folge eines Staunens. Erst wenn der Mensch erstaunt darüber ist, dass er sich in einer Welt befindet, die größer, stärker und edler ist als er selbst, regt sich so etwas wie ein Streben nach Wissen. Der Mensch will wissen, wie und warum die Welt ist, wie sie ist. Diese Neugierde oder Wissbegierde war möglicherweise auch Ihr Antrieb, sich mit eher philosophischen Fragen auseinander zu setzen. Um Ihre Neugierde zu stillen, werde ich Ihnen deshalb zu Beginn einen kurzen Überblick über Ziel und Zweck dieses eher ungewöhnlichen intellektuellen Anliegens geben. Sie werden dann rasch erkennen, wie lohnenswert es ist, Zeit und Aufmerksamkeit zu investieren, sich mit ungebräuchlichen Denkweisen auseinander zu setzen.
1.1 Auseinandersetzung mit der Wissenschaft
Es ist nicht nur beabsichtigt, sich mit den konkreten Denkmodellen des radikalen und methodischen Konstruktivismus, der evolutionären und anarchistischen Erkenntnistheorie und des kritischen Rationalismus auseinander zu setzen, sondern wir wollen das so genannte moderne Denken kritisch diskutieren und neue Lösungsansätze entwerfen. Dazu werden Sie nicht direkt zu Beginn mit sehr komplexen Denkweisen konfrontiert, sondern langsam zu ihnen geleitet. Ich werde zwar auf alle genannten Konzeptionen ausführlich Bezug nehmen, aber nicht in dem Sinne, dass ich über jede dieser Denkrichtungen einen kurzen und kritischen Abriss zusammenzustellen beabsichtige, den Sie dann memorieren könnten. Sie sollen nicht nur etwas über die evolutionäre oder anarchistische Erkenntnistheorie lernen, sondern ich möchte Sie zum Erstaunen veranlassen, Sie mit Ungereimtheiten konfrontieren, Sie zum Nachdenken, zur Reflexion zwingen und damit Ihre Vernunft herausfordern. Am Ende sollen Sie erkennen, welche Bedeutung Wissenschaft haben kann, auf welche Weise wir unsere Wirklichkeit erschaffen und welche Bedeutung subjektive und relative Einflüsse auf unsere Meinungen über die Realität haben.
Was können Sie selbst dazu beitragen, die intellektuelle Auseinandersetzung gewinnbringend auf sich wirken zu lassen? Letztlich nichts anderes als dass Sie beginnen über dasjenige nachzudenken, zu reflektieren, was ich Ihnen mitteilen werde - wobei ich Sie sicherlich mit mehr Fragen konfrontiere als mit Antworten und mit mehr Problemen als Lösungen. Sollten Sie es schaffen, dieser Auseinandersetzung bis zum Ende zu folgen, und sollte es mir gelingen, mich halbwegs verständlich auszudrücken und mitzuteilen, dann bin ich mir sicher, dass wir unser Ziel erreichen werden, und uns durch mehr Toleranz, Umsicht und Weitsicht auszeichnen werden, weil wir die Relativität unserer Konstruktionen erkennen und akzeptieren.
Bereits zu Beginn möchte ich einem potentiellen Missverständnis vorbeugen, wenn ich später die wissenschaftliche Methode kritisiere. Als akademischer Chirurg, dessen Tätigkeitsfeld auch die Forschung umfasst, bin ich der wissenschaftlichen Methode verpflichtet. Wer gute Wissenschaft betreiben will, muss auch die wissenschaftliche Methodologie gut beherrschen - genauso, wie ein guter Chirurg die Operationstechniken beherrschen sollte. Deshalb erwarte ich von akademisch tätigen Ärzten, dass sie methodologisch sehr gut geschult sein sollten und halte es für ein Qualitätsmerkmal eines guten Hochschullehrers, wenn er seine ihm anvertrauten Nachwuchswissenschaftler in dieser Hinsicht ausbildet. Ich möchte mich nicht als wissenschaftsfeindlich offenbaren, denn genau das Gegenteil trifft zu. Gerade weil ich den Wert moderner Wissenschaft sehr hoch schätze, betone ich ihre Grenzen.
Nur wer die wissenschaftliche Methode überschätzt, wundert sich über die seltsamen Blüten, die sie manchmal hervorbringt. Nur wer seine Skepsis gegenüber wissenschaftlich gewonnenen Erkenntnissen beibehält, vermag manchmal die Mauer zu erkennen, gegen die er gerade läuft. Wer die wissenschaftliche Methode verabsolutiert und auf alle Lebensbereiche auszudehnen versucht, wird durch einen großen Mangel an Humanität bestraft und seine Wirklichkeit verarmt emotionell und spirituell.
1.2 Einzelnes und Allgemeines
Wenn wir später über Medizin bzw. medizinische Behandlung reden, dann verwende ich den Ausdruck in unproblematischer Weise. Es ist hier jede Behandlung eines kranken Menschen gemeint, wobei ich es unbestimmt lassen werde, was als Krankheit zu gelten hat, weil eine genauere Spezifikation für das weitere Vorgehen nicht notwendig ist.
Bereits zu Beginn möchte ich auf einen grundsätzlichen Konflikt hinweisen, wie er im klinischen Alltag nicht selten in Erscheinung tritt. Es ist der Konflikt zwischen dem erlernten medizinischen Fachwissen, das auf allgemeinen Regeln und Algorithmen beruht, und dem konkreten Individuum, das zu behandeln ist. Auf der einen Seite lernen Ärzte in ihrer Ausbildung Handlungsanweisungen, zum Beispiel wie eine Lungenentzündung diagnostiziert und behandelt wird, welche Erstmaßnahmen sie bei einem schweren Asthmaanfall zu treffen haben oder wie eine bestimmte Operation lege artis ausgeführt wird. Auf der anderen Seite stehen sie aber dem Patienten mit seinen Besonderheiten gegenüber, die häufig eine unkritische Anwendung ihrer erlernten Handlungsanweisung nicht zulässt. Dem klinisch Erfahrenen ist dieser Konflikt in der praktischen Ausübung allgegenwärtig, denn nur selten wird man sein theoretisch erlerntes Wissen unreflektiert anwenden können. Häufiger sind dagegen die Situationen, in denen aufgrund der besonderen Nebenerkrankungen des Patienten, der konkreten Umstände oder der Wechselwirkungen mit anderen Medikamenten, eine einfache Umsetzung der Handlungsanweisung nicht möglich ist.
Eine adäquate Behandlung des Individuums hat unter Berücksichtigung aller relevanten bekannten Faktoren zu erfolgen und setzt einen komplexen Entscheidungsmechanismus in Gang, der sich nicht allein auf vorhandenes Wissen oder Schemata, sondern auch auf Intuition stützt. Das ist einer der Gründe, warum es in der Medizin auch auf die klinische Erfahrung ankommt. Dieses grundsätzliche Spannungsverhältnis zwischen dem Allgemeinen und dem Individuellen, dem Abstrakten und dem Konkreten wird uns wiederholt begegnen und sie sollten unbedingt auf dieses achten.
1.3 Lebenswelt und Wissenschaft
Wenn wir uns auf fremdes Terrain wagen, wenn wir uns mit ungewohnten Gedanken auseinander setzen, dann sollten wir zuerst bestimmen, wo wir uns heimisch bzw. sicher fühlen, von wo aus wir unseren geistigen Vorstoß wagen. Was also ist die Grundlage unseres Denkens? Was erscheint uns sicher und unproblematisch? Von wo können wir unsere geistige Exkursion starten?
Dasjenige, was uns als Nicht-Philosophen als sicher erscheint, ist unsere Lebenswelt, das heißt die Welt in der wir konkret leben. Sie wird von uns als unproblematisch angesehen. Möglicherweise haben Sie sich kürzlich an einem Gegenstand gestoßen. Sie fühlten einen kurzen Schmerz, erkannten als Ursache ihres Schmerzes einen braunen Tisch, gegen den Sie stießen, und Ihre Unaufmerksamkeit. Die Ursache des Schmerzes erscheint Ihnen eindeutig und hinreichend und die Schmerzen als gewiss. Sie würden von allein nicht auf die Idee kommen, Ihre eigene Existenz oder die des Schmerzes anzuzweifeln. Sie würden es wahrscheinlich als philosophische Spinnerei ansehen, wenn wir darüber diskutieren würden, ob der Tisch oder Ihr Schmerz real sind. In unserer alltäglichen Welt gehen wir jedenfalls davon aus, dass unsere Empfindungen gewiss sind und dass sich die Welt nach Regeln verhält, d.h. das ein Tisch eben hart ist und Schmerzen verursacht, wenn man gegen ihn läuft.
Da wir uns an der primären Lebenswelt orientieren und sie als verlässlich akzeptieren, ist sie die Grundlage unserer Anschauungen und Meinungen. Würde ich Sie mit einer Behauptung konfrontieren, die Ihren direkten lebensweltlich fundierten Ansichten widerspräche, so würden sie meiner Behauptung keinesfalls zustimmen. Da unsere Lebenswelt das eigentliche und letzte Fundament ist, dem wir vertrauen, bedarf es einer zusätzlichen Begründung, wenn sich etwas Offensichtliches doch anders verhalten sollte.
Das Wissen über unsere direkt erfahrene Lebenswelt erscheint uns im Grunde als nicht hintergehbar, d.h. dass wir es eigentlich nicht in Frage stellen können, dass wir es nicht bezweifeln können, ohne uns selbst, unser Leben, unsere Welt ebenfalls zu bezweifeln. Die Lebenswelt scheint prima vista die entscheidende Instanz für unser Wissen zu sein, auf der das alltägliche Leben beruht, unser Verständnis der Praxis und der Sprache. Wenn ich versuchen würde, Sie davon zu überzeugen, das dieses Alltagsverständnis eine Täuschung ist und sie dieser nicht immer vertrauen sollen, so würden Sie mich wahrscheinlich verständnislos anschauen - und doch werde ich genau dieses versuchen und Sie damit herausfordern, über Ihre Situation zu reflektieren. Ich werde immer wieder versuchen, Ihnen den Boden jeder vermeintlichen Sicherheit unter den Füßen wegzuziehen. Versuchen Sie sich zu wehren. Suchen Sie nach Auswegen, aber passen Sie auf, dass es keine Holzwege sind.
Wenn wir uns unserer Lebenswelt so sicher sind, wozu benötigen wir noch so etwas wie Wissenschaft? Welche Rolle spielt die Wissenschaft hier? Können wir nicht alles durch die Betrachtung unserer Lebenswelt entscheiden? Gibt es Konflikte zwischen der Lebenswelt und der wissenschaftlichen Welt? Obgleich wir uns in unserer Lebenswelt halbwegs sicher fühlen, obwohl wir ihr weitgehend vertrauen, scheint sie uns doch manchmal zu täuschen. Wir kennen die Phänomene des Irrtums, der optischen Täuschung, der Halluzination, Illusion und Träume. Existieren die Eisberge morgen immer noch? Täuschungen legen es nahe, der Lebenswelt nicht immer blind zu vertrauen, sondern manchmal durch geeignete Verfahren zu überprüfen, ob es sich tatsächlich so verhält, wie wir glauben. Und genau hier kommt die Wissenschaft ins Spiel. Man erwartet von der Wissenschaft, dass sie uns in diesen Situationen hilft, und uns mitteilt, wie die Realität tatsächlich aufgebaut ist, welche Gesetze in ihr gelten, was sie im Innersten zusammenhält. Das ist der Zweck der Wissenschaft.
1.4 Wissen, Glauben, Argumente
Was aber zeichnet das wissenschaftliche Vorgehen aus? Was macht das wissenschaftliche Wissen sicherer? Werfen wir zur Beantwortung dieser Fragen zunächst einen Blick auf die genauere Bestimmung von Wissen und Glauben.
Was heißt es, wenn jemand an etwas glaubt oder etwas weiß? Glauben und Wissen sind Beziehungen zwischen einer Person und Sachverhalten. Wir sagen: Eine Person glaubt bzw. weiß, dass ein bestimmter Sachverhalt besteht. So sagen wir „Hans glaubt, dass es regnet, während Thomas weiß, dass es regnet“. Warum glaubt es Hans nur und warum weiß es Thomas? Was unterscheidet Glauben von Wissen. „Glauben“ meint in diesem Zusammenhang so viel wie „davon überzeugt sein“, d.h. dass Hans davon überzeugt ist, dass es gerade regnet. Wie groß seine Überzeugung ist, wie relativ sicher er in seiner Überzeugung ist, ließe sich theoretisch durch die Angabe einer Wahrscheinlichkeit noch genauer spezifizieren.
Wenn dagegen jemand behauptet, dass er weiß, dass ein bestimmter Sachverhalt besteht, dann gehen wir natürlich auch davon aus, dass er davon überzeugt ist, dass der Sachverhalt besteht bzw. dass es regnet. Wir unterstellen aber zusätzlich, dass der Sachverhalt auch tatsächlich besteht, dass es sich um eine Tatsache handelt. Sagt jemand “Ich weiß, dass es regnet“, dann behauptet er zugleich, dass der Satz „es regnet“ auch wahr ist. Wissen enthält also zwei Komponenten: die subjektive Komponente der Überzeugung wie beim Glauben und die objektive Komponente der Wahrheit. Seit Platon wird Wissen deshalb als wahre und begründete Überzeugung angesehen. Wissen wird offensichtlich durch ihren Bezug zur Wahrheit ausgezeichnet bzw. gerechtfertigt. Ob dieser Bezug auch zutrifft, muss begründet werden. Auf diese wichtige Unterscheidung von Glauben und Wissen sollten wir im Alltag häufiger achten. Nicht selten wird uns ein Glaube als Wissen verkauft.
Der Mensch ist auf der Suche nach Wahrheit, nach Wissen über unsere Welt. Die Resultate unseres Strebens nach Wissen werden in Argumenten, Urteilen, Aussagen, Feststellungen bzw. Behauptungen zum Ausdruck gebracht, die bestimmte Anforderungen erfüllen müssen, damit sie auch für andere Menschen akzeptabel sind:
1. Das Wissen sollte in einer verständlichen Sprache ausgedrückt werden.
2. Das Wissen muss überprüfbar sein.
3. Das Wissen muss begründbar sein.
Wie Sie möglicherweise erkannt haben, sind diese Anforderungen denjenigen ähnlich, die man aufstellen würde, wenn man die Regeln für eine konstruktive Diskussion aufzustellen hätte. Ohne Zweifel sollte man sich um sprachliche Klarheit bemühen. Wer etwas behauptet, dessen Inhalt nicht verständlich ist, oder wer sich so unklar ausdrückt, dass nicht genau gewusst wird, was er meint, der erfüllt nicht die Voraussetzungen, um an einer ernsthaften Diskussion oder einem wissenschaftlichen Gespräch teilzunehmen.
Es ist offensichtlich, dass Sie mit jemandem, der Suaheli, Mandarin oder Portugiesisch spricht, nicht diskutieren können, wenn Sie nicht auch diese Sprache sprechen. Weniger offenkundig ist, dass zwei Diskussionspartner, die beide Deutsch sprechen, sich dennoch nicht verständigen können, weil sie dieselben Begriffe mit unterschiedlichen Bedeutungen verknüpfen. Wenn die Gesprächsteilnehmer nicht die Grundvoraussetzung an eine erfolgreiche Kommunikation mitbringen, - eine gemeinsame Sprache, in der sie sich verständigen können -, dann muss die Diskussion scheitern und man sollte eher auf sie verzichten und seine Zeit mit erfreulicheren Handlungen verbringen.
Eine gemeinsame Sprache zu sprechen, heißt aber nicht nur, Laute von sich zu geben, die der andere verstehen soll. Zu einer gemeinsamen Sprache gehören mehr als gemeinsame akustische Signale. Sie ist auch auf ein gemeinsames intellektuelles Vorverständnis und nicht selten an gemeinsame kulturelle Symbole gebunden. Wenn zwei Gesprächspartner sich in ihrem Gespräch nicht auf solch eine gemeinsame Basis verständigen können, wird die Kommunikation scheitern,- so erstrebenswert sie auch erscheinen mag. Allerdings ist damit nicht ausgeschlossen, dass sie versuchen können, eine solche Basis aufzubauen. Worauf ich hier hinweisen will, ist das gemeinsame Fundament, dass Sie benötigen, wenn Sie Kommunikation erfolgreich betreiben wollen. Ein kommunikativer Akt ist schließlich ein soziales Ereignis, an dem mehrere Menschen teilhaben. Um die Handlung mehrerer Menschen abzustimmen, werden gemeinsam akzeptierte Regeln benötigt.
Als zweite Bedingung wird Überprüfbarkeit gefordert. Wenn jemand eine Behauptung aufstellt, dann muss es auch möglich sein, dass andere diese Behauptung überprüfen können. Wer wiederholt versichert, etwas zu beobachten, was kein anderer zu beobachten vermag, dessen Behauptungen werden wahrscheinlich von den anderen nicht mehr ernst genommen. Wer trotzdem auf seinem nicht überprüfbaren Standpunkt beharrt, der wird von weiterer Kommunikation ausgeschlossen, - und möglicherweise auch psychiatrisch behandelt.
Die Forderung nach intersubjektiver Verständlichkeit und Nachprüfbarkeit ist fundamental für jede ernsthafte Argumentation, wobei die intersubjektive Verständlichkeit grundlegender ist, weil man eine Aussage nur dann überprüfen kann, wenn man ihren Sinn verstanden hat.
Das dritte Merkmal basiert darauf, dass wir von einer Argumentation fordern, dass Argumente gegebenenfalls durch andere Argumente gestützt bzw. gerechtfertigt werden müssen. In einer Argumentation treffen mindestens zwei Personen aufeinander: Jemand, der etwas behauptet, der Proponent, und jemand, der etwas bezweifelt, der Opponent. Das kann man sich folgendermaßen verdeutlichen: Der Proponent behauptet etwas, z.B. dass es regnet. Der Opponent bezweifelt dieses. Daraufhin behauptet der Proponent, dass man nass wird, wenn man vor die Tür tritt, um seine bezweifelte Aussage zu stützen. Dies wird erneut vom Opponenten bezweifelt. Da wir argumentieren, um andere zu überzeugen, ist der Proponent nun erneut aufgefordert, weitere Gründe zur Stützung seiner Behauptung zu nennen, um seinen erhobenen Wahrheitsanspruch einzulösen. Irgendwann wird der Opponent ihm entweder zustimmen oder er wird die Argumentation als unentscheidbar abbrechen oder der Proponent wird einer möglichen Gegenargumentation des Opponenten zustimmen und damit seine ursprüngliche Behauptung aufgeben.
Was hier deutlich wird, ist der Zusammenhang zwischen einer Behauptung und einem Wahrheitsanspruch. Immer dann, wenn Sie ein Urteil fällen und eine Behauptung aufstellen, müssen Sie den erhobenen Wahrheitsanspruch auch einlösen können. Stellen Sie eine Behauptung auf, dessen Wahrheitsanspruch prinzipiell nicht einlösbar ist, so wird man mit Ihnen nicht argumentieren können. Antwortet jemand auf die Frage: “Woher weißt Du das?” indem er sich nur auf (s)eine Autorität, auf göttliche Eingebung, Intuition oder Evidenz beruft, so ist dies heute keine akzeptable Begründung.
1.5 Klassisches Wissenschaftskonzept
Was verstehen Sie eigentlich unter Wissen und Wissenschaft? Könnten Sie ad hoc eine leicht und gut verständliche Definition dieser Begriffe angeben? Wahrscheinlich nicht! Zumindest werden Sie sich ziemlich mühen, um für diese komplexen Begriffe eine halbwegs umfassende Bestimmung angeben zu können. Wir werden einen langsamen und zum Teil auch beschwerlichen Weg bestreiten, um näher zu beleuchten, was es eigentlich mit Wissen und Wissenschaft auf sich hat. Ich gehe dabei von Ihrem unvorbelastetem Verständnis und Ihrer Intuition aus und werde es nicht wagen, Sie mit Definitionen der Wissenschaftstheorie, Wissenschaftswissenschaft, Wissenschaftsgeschichte, Wissenschaftssoziologie usw. zu konfrontieren, denn deren Antworten sind uneinheitlich, komplex, ja zum Teil verworren, wenig produktiv und zum Teil für den Laien unverständlich.
Welche Möglichkeit haben wir, uns an die Bedeutung von Wissen und Wissenschaft heranzutasten? Da die Wurzeln unseres wissenschaftlichen Verständnisses bei den Griechen liegen, werde ich Ihnen das antike Verständnis kurz nahe bringen. Dieser Rekurs in unsere Geistesgeschichte wird nicht unternommen, um Sie mit antiker Kultur zu langweilen. Viele Menschen glauben, dass man sich mit antiken Denkweisen, mit alten, verstaubten Ansichten, nicht fruchtbar auseinander setzen kann - dem ist nicht so, wie Sie rasch erkennen werden. Sie sollten den großen antiken Denkern vielmehr größte Bewunderung entgegenbringen, denn was sie damals zu Stande gebracht haben, ist unseren gegenwärtigen Leistungen ebenbürtig. Ich wüsste spontan im weiten Umfeld niemanden, der es mit Thales, Heraklit, oder Parmenides, geschweige denn mit Platon oder Aristoteles aufnehmen könnte. Da das antike Denken aber dem, was wir heute gesunden Menschenverstand nennen, viel näher kommt als die allgemeine und spezielle Relativitätstheorie, werden wir unsere Intuition zunächst an den Konzepten der Griechen messen.
Den Griechen verdanken wir im weitesten Sinne unsere westliche Kultur. In Kleinasien und Griechenland liegt die Wiege dieses Denkens, der Siegeszug des logischen Denkens gegenüber dem mythischen. Was aber zeichnete das „neue“ logische Denken, die Verstandestätigkeit, aus? Es wäre zu einfach, wenn wir hier auf den Unterschied von Glauben und Wissen verweisen würden. Auch vor dem Übergang zum Logos haben die Menschen etwas gewusst. Sie haben sogar versucht, Prognosen über die Zukunft aufgrund vergangener Erfahrungen abzugeben. Allerdings wurden die Zusammenhänge durch übersinnliche Kräfte erklärt und nicht durch ein systematisches Nachdenken über die Welt.
Thales von Milet, um 625 vor unserer Zeitrechnung geboren, wird nach der griechischen Überlieferung als Erstem zugestanden, allgemeingültige Sätze über die Geometrie aufgestellt und bewiesen zu haben. Thales lebte damals in Milet, einem bedeutenden Handelszentrum in Kleinasien. Er verfügte über wichtige geometrische, astronomische und meteorologische Kenntnisse, die für eine erfolgreiche Seefahrt erforderlich waren und ihm wahrscheinlich bei seinen theoretischen Betrachtungen sehr hilfreich waren.
Thales war der erste, der wissenschaftliche Erklärungen über Naturerscheinungen abgegeben hatte. So griff er bei seinem Erklärungsversuch der wiederkehrenden Überschwemmungen des Nils nicht auf mythische Erklärungsmechanismen zurück, wie es vorher üblich war, sondern er versuchte, sie allein aus Naturregelmäßigkeiten abzuleiten. Er beobachtete, dass der Überschwemmung des Niltals starke Winde aus dem Norden vorangingen und verknüpfte beide Erscheinung ursächlich miteinander. So sollten die Stürme das Wasser des Stromes im Mündungsdelta stauen und durch den Rückstau die Überflutung des Niltals auslösen. Dies neue Art der Vorhersage hatte die Konsequenz, dass dem Ereignis jetzt so etwas wie kausale Notwendigkeit zukam und es nicht mehr von der Willkür eines persönlichen, durch Opfer günstig zu stimmenden Gottes abhing. Heute wissen wir, dass sich Thales irrte, dass seine Erklärung nicht zutrifft: die heftigen Winde sorgen für starke Niederschläge im Quellgebiet des Nils und diese sind für die Überflutung verantwortlich. Nichts desto trotz verknüpfte Thales die beiden Ereignisse korrekt miteinander.
Neben den theoretischen wissenschaftlichen Errungenschaften wurde dem Thales auch in Form einer Anekdote eine gewisse Realitätsferne zugeschrieben, die als Spott darüber gedacht war, dass die theoretischen Betrachtungen der Philosophen nur wenig praktischen Nutzen haben. So heißt es bei Platon: “Wie auch den Thales, o Theodorus, als er, um die Sterne zu beschauen, den Blick nach oben gerichtet, in den Brunnen fiel, eine artige und witzige thrakische Magd soll verspottet haben, dass er, was im Himmel wäre, wohl strebte zu erfahren, was aber vor ihm läge und zu seinen Füßen, ihm unbekannt bliebe.” Die Kluft zwischen anschaulicher Betrachtung der Welt, zwischen der „unpraktischen“ Tätigkeit der Philosophen und dem erfolgreichen Vollzug praktischer Tätigkeiten trat offen zu Tage. Allerdings wird dem Thales auch nachgesagt, dass er sein Wissen ertragreich im Handel umsetzte und reich wurde. Wissen schien sich bereits damals als praktisch wertvoll zu erweisen.
Obwohl von Thales keine Schrift überliefert ist, scheinen wir ihm die ersten geometrischen Weisheiten zu verdanken, die wir in der Schule gelernt haben: Der Kreis wird durch jeden seiner Durchmesser halbiert; die Basiswinkel im gleichschenkligen Dreieck sind gleich; und der Peripheriewinkel im Halbkreis ist ein rechter Winkel. Obwohl bereits in anderen früheren Kulturen allgemeine Rechenvorschriften galten und niedergeschrieben wurden, tauchten zuerst in dieser griechischen Periode allgemeingültige Sätze auf, die mehr abstrakter und theoretischer Natur waren und die zugleich innerhalb eines umfassenderen Satzsystems bewiesen wurden. Erst durch die Realisierung solcher theoretischer Sätze und die Möglichkeit des Beweises, der Argumentation, wurden die Voraussetzungen für den Aufbau einer Wissenschaft geschaffen. Erst indem Sätze durch logische Abhängigkeiten als miteinander verbunden erkannt wurden, wurde so etwas wie eine Theorie geschaffen. Beginnend mit den Vorsokratikern haben die Griechen die Grundlagen für einen axiomatischen Aufbau von Theorien und damit von Wissenschaft geschaffen, die grundlegend für unser westliches Wissenschaftsverständnis wurden. Sie waren dazu in der Lage, weil sie die Fähigkeit zum logischen Schließen entdeckten.
1.6. Das Streben nach Wissen
Wodurch unterscheidet sich der Mensch von anderen Lebewesen? Der Mensch entwickelte sich zu einem sehr wissbegierigen Wesen, das sich gegenüber anderen Lebewesen dadurch auszeichnet, dass es verstehen will, was und warum etwas in seiner Umwelt geschieht. Der Mensch beobachtet also nicht nur die Welt, um darauf adäquat reagieren zu können und sein Überleben sicherzustellen, sondern er versucht darüber hinaus, Theorien über die Zusammenhänge in der Welt zu entwickeln. Erfolgreiche Theorien über die Natur geben dem Menschen somit nicht nur eine Antwort auf die Frage, warum oder wozu ein bestimmter Sachverhalt besteht, sondern sie erlauben ihm zugleich, Vorgänge über ähnliche Sachverhalte vorherzusagen und damit auch praktisch zu nutzen.
Während Thales von Milet als “Ahnherr” der westlichen Philosophie betrachtet werden könnte, könnte Aristoteles als der Gründer der Wissenschaftstheorie gelten. Nach Aristoteles erreicht der Mensch in seinem natürlichen Streben nach Erkenntnis nur in der Wissenschaft sein höchstes Ziel, denn nur sie garantiert, die wahre aus Prinzipien begründete Erkenntnis der Realität.
Wissenschaft hat das Ziel, zu gesichertem Wissen zu gelangen. Dieses gesicherte Wissen muss unterschieden werden von bloßen Annahmen oder Meinungen über die Welt. Annahmen oder Meinungen können revidiert werden und sind immer potentiell einem Irrtum unterlegen, sie sind also fallibel. Als Wissenschaftler sind wir dagegen an Aussagen interessiert, die gesichertes Wissen ausdrücken, die immer wahr bleiben, wenn sie einmal wahr sind. Wenn wir einmal erkannt haben, dass Schnee gefrorenes Wasser ist; wenn wir den Satz des Pythagoras als wahr erkannt haben; oder wenn wir die Metamorphose des Schmetterlings begriffen haben, dann bleiben die Erkenntnisse für immer wahr. Sie beschreiben uns, wie sich die Natur verhält. Diese Aussagen bilden die Realität ab. Ihre Wahrheit ist nicht mehr revidierbar - es sei denn, wir haben uns getäuscht.
Wissenschaft ist bereits bei den Griechen ausgerichtet auf unser Streben nach Wissen über die Realität. Wissenschaft soll uns Wissen vermitteln, das wahr und zugleich begründet ist. Begründen bedeutet bei Aristoteles aber nicht einfach auf empirisch Erfahrenes hinzuweisen. Wer auf einen Baum zeigt und sagt, dass alle Laubbäume im Herbst ihre Blätter abwerfen, der hat damit noch kein begründetes Wissen ausgedrückt, sondern lediglich eine Beobachtung. Nach Aristoteles erlangt der Mensch erst Wissen, wenn er die beobachteten Tatsachen nicht nur erhebt, sondern auch aufgrund einer Theorie durchschaut. Was meint Aristoteles damit? Dadurch, dass ich etwas bei einem oder mehreren Bäumen beobachtet habe, kann ich nicht ableiten, dass es sich bei allen Bäumen und zu allen Zeiten so zu verhalten hat. Die Behauptung, dass alle Laubbäume im Herbst ihre Blätter abwerfen, drückt aber mehr aus als die Zusammenfassung mehrfacher Beobachtungen. Wir drücken damit auch aus, dass die Zusammenhänge allgemeingültig sind und notwendigerweise eintreten. Dieser Anspruch an allgemeine Verbindlichkeit bzw. Notwendigkeit kann aber nicht durch einige Beobachtungen begründet werden, sondern nur durch eine Theorie. Wir benötigen eine Theorie, die begründet, warum die Laubbäume im Winter die Blätter abwerfen.
Unsere Beobachtungen müssen durch eine Theorie in ein sicheres Wissen umgewandelt werden, die die Gründe für den Zusammenhang offen legt. Erst wenn man die Gründe dafür angeben kann, warum es sich so verhalten muss und nicht anders, wird mit dem Wissen etwas Allgemeingültiges und auch Notwendiges behauptet. Der Zusammenhang kann sich dann nicht anders verhalten als behauptet. Die behauptete Sache trifft nicht bloß de facto zu, also aus Zufall, sondern deshalb, weil es sich aus den genannten Gründen so verhalten muss. Das Wissen wird damit universal gültig: was einmal wahr ist, wird auch weiterhin wahr sein.
Die Wissenschaft hat nicht das Interesse, einzelne Ereignisse zu beschreiben. Wissenschaft will mehr, sie will uns die Regeln oder Naturgesetze offenbaren, die in der Realität herrschen. Wissenschaft zielt auf das Erkennen von allgemeinen Zusammenhängen. Sie kann ihr Fundament deshalb nicht allein durch die Wahrnehmung erhalten, die sich ja nur auf einzelne Gegenstände und Ereignisse bezieht. Empirische Beobachtung steht zwar immer am Anfang eines Wissens, aber sie allein führt nicht zu einem begründeten Wissen, dass zugleich eine notwendige Wahrheit ausdrückt. Durch Beobachtung allein wird es kein wissenschaftliches Wissen in diesem Sinne geben, sondern erst wenn die Ursachen, die Gründe für die Sachverhalte bekannt sind. Erst wenn wir die Gründe kennen, dann wissen wir, dass sich die Sache gar nicht anders verhalten kann, wobei die Gründe dasjenige sind, was Warum- oder Wozu-Fragen beantwortet.
Das klassische Wissenschaftskonzept seit den Griechen war also auf die Grundelemente bezogen: Allgemeinheit, Notwendigkeit und Wahrheit. Auch heute erwarten wir von einer Wissenschaft, dass sie uns Kenntnisse vermittelt, die allgemeingültig sind, deren Regeln tatsächlich gelten und auch in Zukunft anwendbar sind, und dass die wissenschaftlichen Aussagen wahr sind, dass sie mit der Realität übereinstimmen.
Allgemeinheit, Notwendigkeit und Wahrheit stehen so in einem innigen Verhältnis zueinander. Für eine Wissenschaft ist es nicht ausreichend, dass lediglich Aussagen über einzelne Gegenstände oder Ereignisse gemacht werden, die vielleicht nur zufällig auftraten und uns somit kein richtiges Bild über die Welt geben, wie sie in Wirklichkeit ist. Wissenschaft unterscheidet sich von diesem ‘einfachen’ Wissen, dem bloßen Meinen über etwas, indem es ein Wissen über das Allgemeine und das Notwendige ist. Erst wenn das Allgemeine in der Natur erkannt wird, dann wird auch das Wesen bzw. das Notwendige der Welt erkannt und wir erlangen ein Wissen über die Realität.
Menschliche Erfahrung ist darauf ausgerichtet, zu erkennen, wie die Welt wirklich ist, was sie im Innersten zusammenhält. Dazu muss der Mensch die einzelnen konkreten Gegenstände daraufhin untersuchen, was sie tatsächlich sind und welchen Regeln und Gesetzmäßigkeiten der Natur sie unterworfen sind. Die Natur systematisch zu enträtseln, ist die Aufgabe der Wissenschaft. Sie soll uns definitives Wissen verschaffen über unsere Welt.
Diese geschilderte Einstellung zur Wissenschaft bzw. zum Wissen hat natürlich erhebliche Konsequenzen. Wenn zum Beispiel Koryphäen wie Aristoteles einmal erkannt zu haben glauben, wie sich die Zusammenhänge erklären lassen, dann wurde damit eindeutig und für immer erklärt, warum oder wozu sich die Dinge so verhalten, wie sie sich verhalten. Dann gibt es aber auch keine Veranlassung mehr, darüber nachzudenken, ob man sich nicht doch geirrt haben könnte. Die Suche nach definitivem Wissen oder der Glaube an definitives Wissen impliziert den unerschütterlichen Glauben an Autoritäten - weniger an Personen als an die Macht der schlüssigen Argumentation, die dann auch über Jahrtausende nicht in Frage gestellt wurde.
1.7 Gesichertes Wissen
Das Wissen schlechthin, das gesicherte Wissen, gilt somit als das Ideal des Wissens. Wodurch gelangen wir aber zu dieser Sicherheit bzw. Gewissheit? Was verstand Aristoteles aber unter gesichertem Wissen? Jedes Wissen besteht klassischerweise aus zwei Grundelementen: Erstens aus dem Wissen über die Prinzipien oder Axiome und zweitens aus dem Beweis anderer Sätze aus diesen Prinzipien oder Axiomen. Jedes Wissen basiert also im Grunde auf dem Prinzip oder Axiom. Dadurch, dass das Prinzip oder Axiom uns als absolut gewiss erscheint, gilt dann auch das abgeleitete Wissen als gesichert. Wir werden uns deshalb auf die Prinzipien oder Axiome konzentrieren müssen, wenn wir erkennen wollen, wodurch uns gesichertes Wissen verfügbar ist.
Wie aber gelangt man zu diesen Prinzipien, Axiomen oder anderen Gewissheiten? Nach Aristoteles gewinnt der Mensch, ausgehend von der Wahrnehmung, über die Erinnerung und die Erfahrung Begriffe unterschiedlicher Allgemeinheitsstufe. Die höchste Stufe der Allgemeinheit sind schließlich die Prinzipien. Bei der Erkennung von Prinzipien greifen drei geistige Vermögen ineinander: die Wahrnehmung, der Verstand und die Induktion.
Die Wahrnehmung liefert uns zunächst die Informationen über den einzelnen Gegenstand, das Einzelne. Die Wahrnehmung bezieht sich dabei maximal auf eine Vielheit von einzelnen Gegenständen. Man kann lediglich viele verschiedene Gegenstände wahrnehmen. Damit bringt man aber noch keine Idee über eine Allgemeinheit hervor. Viele beobachtete rote Gegenstände vermitteln für sich allein noch nicht die Farbe “rot”, viele konkrete Katzen noch nicht den Begriff „Katze“ und viele Quadratzahlen noch nicht den Begriff „Quadratzahl“. Diese allgemeinen Begriffe bringt erst der Verstand hervor, der durch Abstraktion aus dem Gemeinsamen der vielen Gegenstände das Allgemeine, den Begriff schafft. Das Allgemeine darf aber noch nicht mit dem Prinzipiellen gleichgesetzt werden. Prinzipien werden nach Aristoteles durch Induktion gewonnen, wobei bisher verborgen blieb, wie diese Induktion tatsächlich funktionieren soll und wie wir tatsächlich zu den Prinzipien gelangen.
Die Verknüpfung von Wahrnehmung, Verstand und Induktion wollen wir noch einmal anders darstellen. Zu Beginn orientiert sich der Mensch zunächst im Raum seiner Wahrnehmungen, indem er zwischen wahrnehmbaren Gegenständen unterscheidet. Auf diese Weise entwickelt sich Erfahrungswissen als das Wissen über den konkreten Gegenstand, des Besonderen. Der Mensch erkennt einzelne Gegenstände und später das Allgemeine in ihnen durch Abstraktion. Durch die Generalisierungen wird die Erfahrung erweitert, indem nun auch allgemeine Zusammenhänge konstruiert werden. Dieses Wissen umfasst jetzt nicht nur, dass etwas der Fall ist, sondern auch, warum etwas der Fall ist. Dieses Wissen vermittelt uns ein Wissen über die Gründe. Die höchste Stufe ist das Begründungswissen, d.h. es wird eine Theorie aufgestellt und das Wissen in dieser Theorie systematisiert, indem es aus “ersten” Gründen, Prinzipien oder Axiomen abgeleitet wird.
Begründung heißt bei Aristoteles, dass wir eine Erklärung abgeben können, die letztlich von Prinzipien ausgeht, die uns als notwendig und als wahr sicher sind. Die Notwendigkeit und Wahrheit der Prinzipien verleiht dann dem abgeleiteten Wissen ebenfalls Notwendigkeit und Wahrheit. Wenn sich also Sachverhalte aus Prinzipien ableiten und damit begründen lassen, dann gelten sie uns als definitiv sicher. Dieses Wissen wird dann zum Bestandteil der Wissenschaft. Sachverhalte, die sich nicht aus den Prinzipien ableiten lassen, sind im Gegensatz dazu lediglich Annahmen und Meinungen. Sie lassen sich nur in Sätzen ausdrücken, die Wahrscheinliches zum Ausdruck bringen und die im Rahmen einer Dialektik und Rhetorik diskutiert werden können.
Dieses Bild über die Wissenschaft und die Erwartungen, die wir an sie knüpfen, ist sicherlich ein vorläufiges und eines, dass wahrscheinlich viele von Ihnen als intuitiv richtig angeben würden. Der Zweck der Wissenschaft scheint darin zu bestehen, zu definitivem Wissen über die Welt bzw. Realität zu gelangen. Dabei wird angenommen, dass der Wissenschaftsprozess zu einer Akkumulation von Wissen führt und wir immer mehr Informationen darüber erlangen, was ‘die Welt in Wirklichkeit zusammenhält’.
Diese Art des Wissens ist, wenn es korrekt ist, nicht revidierbar, weil es ein Wissen um das Wesen der Dinge und der Natur ist. Wenn wir wissen, wie oder warum es so ist, dann ist es für immer so; wobei Irrtümer natürlich immer denkbar sind. Wenn wir wissen, aus welchen Partikeln sich Gold zusammensetzt und welche chemischen Reaktionen es mit anderen Elementen eingeht, dann ist das eine Erkenntnis über Sachverhalte, die schon immer gegolten haben, und nicht erst seitdem wir diese Erkenntnis haben.
Da jeder Satz, der gestern wahr war, auch noch morgen wahr sein wird, ist jedes zusätzliche Wissen ein Wissenszuwachs. Wissenschaftlicher Fortschritt ist somit kumulativ zu einem Ziel hin: dem Verständnis der Realität. Wir wollen der Wahrheit näher kommen. Demnach kann man Wissenschaft als ein durch Erfahrung wachsendes Ganzes ansehen, dass unser gegenwärtiges Wissen umfasst.
Ich hoffe, dass ich mich bisher verständlich ausgedrückt habe und Sie nun eine ungefähre Ahnung haben, was landläufig unter Wissen und Wissenschaft verstanden und von ihr erwartet wird. Die Ausführungen waren bisher relativ abstrakt und gingen bewusst nicht auf reale Forschungsprozesse ein, denn das wird eines unserer nächsten Themen sein. Darf ich Sie nun fragen, wer von Ihnen diesem allgemeinen Verständnis von Wissen und Wissenschaft zustimmen würde? Alle, die innerlich ihre Zustimmung geben, stehen damit in einer fast 2000jährigen Tradition westlichen Denkens. Sie sollten im weiteren Verlauf der Auseinandersetzung aber sehr sorgfältig aufpassen, denn wir werden diese so vordergründig plausibel erscheinende Vorstellung von Wissenschaft sukzessive demontieren. Ihnen kommt dabei die Aufgabe zu, nach Auswegen zu suchen, um ihre ursprüngliche Ansicht über Wissen und Wissenschaften zu retten.
1.8 Begründungen
Prüfen werden wir zunächst die Forderung, unser Wissen zu begründen. Sie erinnern sich? Wir bestimmten Wissen als wahre und begründete Überzeugung. Diese Forderung nach Begründung bzw. Rechtfertigung von Wissen erscheint uns heutzutage plausibel. Wir nehmen uns das grundsätzliche Recht heraus, alles in Frage zu stellen und über alles eine Rechtfertigung zu verlangen. Da uns gegenwärtig nichts als absolut sicher erscheint, nehmen wir für uns in Anspruch alles zu hinterfragen. Auch wenn diese Einstellung prima vista sinnvoll zu sein scheint und gern als Ausdruck eines kritischen Geistes angesehen wird, mündet sie doch letztlich in ein Trilemma, das auch Münchhausen-Trilemma genannt wird. Was ist ein Trilemma? Nun, Sie werden wissen, was ein Dilemma ist. Man spricht von einem Dilemma, wenn man sich in einer Zwangslage befindet und von zwei, meist unerwünschten Alternativen, eine auswählen muss. Bei einem Trilemma haben sie nun drei Möglichkeiten, die allesamt unerwünscht sind, von denen Sie aber eine auszuwählen haben.

Münchhausentrilemma
Um die Relevanz des Münchhausen-Trilemma zu verstehen, wollen wir unsere Forderung, grundsätzlich alles in Frage stellen zu dürfen und für alles eine Begründung zu verlangen, genauer analysieren. Jede Begründung fußt letztlich auf anderen Argumenten, d.h. wenn wir den Sachverhalt A begründen wollen, dann geben wir andere Sachverhalte zu seiner Stützung an. Wir versuchen den Sachverhalt A auf einen Sachverhalt B zurückzuführen. Allerdings stellt sich hier das Problem, dass man auch den Sachverhalt B in Frage stellen kann, so dass dieser ebenfalls begründet werden muss, z.B. durch den Sachverhalt C, der, wenn ebenfalls bezweifelt, durch A begründet wird. Es ist aber offensichtlich nicht hinreichend, den Sachverhalt C durch den Sachverhalt A zu rechtfertigen, denn dies wäre eine zirkuläre Begründung, die uns nicht zufrieden stellt.
Wollten wir diesem Zirkel entgehen, könnten wir nun noch weitere Argumente anführen, D, E, usw. Da man diese Argumente ebenfalls allesamt wieder in Zweifel ziehen kann, würde dieses zu einer unendlichen Kette von Argumenten führen. Da wir selbst endliche Wesen sind und nicht unendlich lange existieren, ist dieser Weg keine ernsthafte Alternative.
Um eine unendliche oder zirkuläre Argumentationsfolge zu vermeiden, muss die Begründungsfolge irgendwo stehen bleiben. Jede Begründung muss also irgendwann aufhören. Jeder Beweis eines Satzes muss irgendwo beginnen. Dieses Fundament der Begründung muss von einer unerschütterlichen Gewissheit ausgehen, von etwas, das nicht mehr bezweifelt werden kann. Ein Beweis muss demnach aus ersten und unvermittelten Prinzipien ausgehen, die selbst ohne Beweis einleuchtend sind. Sie können nicht selbst erst das Resultat eines Beweises sein, weil sie die Voraussetzung des Beweises sind. Diese Prinzipien sind also Gründe, die selbst nicht mehr begründbar sind. Der Beweis beruht also auf Wissen, das aus sich selbst heraus einleuchtend ist, das selbstevident ist. Es wird unterstellt, dass diese Prinzipien oder Axiome absolut wahr, ausnahmslos gültig, notwendig und durch sich selbst begründet sind.
Diese mehr allgemeine Formulierung kann man sich am Einfachsten durch die Beweisführung in der Mathematik veranschaulichen. Es werden dort Axiome als verbindlich und wahr gesetzt und dann aus diesen Axiomen verschiedene andere Sätze abgeleitet. Unter der Voraussetzung, dass die Axiome wahr sind und die Ableitung logisch korrekt erfolgte, sind dann auch die abgeleiteten Sätze wahr. Begründetes Wissen läge nach diesem Schema dann vor, wenn es gelingt, aus den Prinzipien und Axiomen das Wissen abzuleiten. Diese Gebundenheit der Wissenschaft an die Form des logischen Beweises führte damals auch dazu, dass als wissenschaftliche Vorbilder die reine Mathematik (Arithmetik und Geometrie) und die angewandte Mathematik (Astronomie, Mechanik, Nautik, Optik, Harmonik) galten.
Der Wert der Begründung steht und fällt also damit, ob es uns gelingt, solch ein Prinzip, Ursprung oder Axiom als unerschütterlich ausweisen zu können. Lassen Sie mich an dieser Stelle bereits eins sagen: Ein Großteil der westlichen Denker der letzten Jahrtausende hat sich an diesem Problem die Zähne ausgebissen, und es ist heute allgemeines Gedankengut, dass eine Letztbegründung, die auf solch einem theoretischen Prinzip basiert, nicht möglich ist. Solange man wie Aristoteles an einen unbewegten Beweger oder wie im Mittelalter an Gott glaubte, der das Prinzip verkörpert, galt solch eine Denkweise als unproblematisch. In dem Moment aber, wo kein derartiges unerschütterliches Prinzip mehr zur Verfügung steht, ist eine solche Argumentationsweise nicht mehr zulässig.
Wenn wir aber letztlich für unser Wissen keine definitive Begründung angeben können, dann haben wir ein Problem mit unser Definition von Wissen. Wir müssen offensichtlich das Adjektiv „begründet“ aus unserer Definition streichen. Was bleibt, ist Wissen als „wahre“ Überzeugung. Des weiteren müssen Sie sich damit abfinden, dass Sie nicht alles in Frage stellen können. Sie können nicht alles anzweifeln. Sie können nicht für alles eine Rechtfertigung verlangen. Sie können zwar die Rolle eines methodischen Zweiflers annehmen, aber Sie werden auch dann nicht umhin können, einige Regeln der Kommunikation zu akzeptieren, damit Sie Ihre Rolle des Zweiflers überhaupt ausüben können.
1.9 Wahrheit
Richten wir nun unser Augenmerk auf die zweite Charakterisierung von Wissen, auf das Adjektiv „wahr“. Was bedeutet es, wenn wir sagen, dass etwas wahr ist? Was ist Wahrheit? Das Prädikat „ist wahr“ verwenden wir in verschiedener Weise. Am häufigsten beziehen wir uns auf Aussagen: wir sagen, dass Aussagesätze wie „3 ist kleiner als 5", „der Ball ist rund“ oder „ich trage eine Brille“ wahr sind, wenn sie zutreffen, wenn der beschriebene Sachverhalt der Realität entspricht, wenn es sich um eine Tatsache handelt. Dies ist die häufigste Verwendungsweise von „wahr“ und sie ist auch diejenige, die uns hier interessiert.
Es gibt aber noch zwei weitere Verwendungsweisen des Begriffes “wahr“. Wenn wir uns mit komplexen zum Teil unübersichtlichen Zusammenhängen auseinander setzen, fragen wir gelegentlich “wie verhält es sich nun in Wahrheit?”. Wenn wir vor solch einem Problem stehen, dann geht es uns nicht um die Wahrheit einer einzelnen Aussage, sondern wir wollen wissen, ob wir den gesamten Zusammenhang umfassend dargestellt haben.
Der Begriff „wahr“ wird auch in Bezug auf einzelne Gegenstände verwendet, z.B. wenn wir von einem wahren Diamanten oder wahrem Gold sprechen. In diesem Zusammenhang geht es uns darum, ob der so bezeichnete Gegenstand tatsächlich das ist, als was er zu sein scheint.
Im folgenden werden wir unter Wahrheit ausschließlich die Wahrheit von Aussagen verstehen. Das Prädikat „ist wahr“ trifft dann auf Aussagen zu. Was aber bedeutet es, dass ein Satz wahr ist? Bei Aristoteles heißt es: “Zu sagen, dass das, was ist, nicht ist, oder das, was nicht ist, ist, ist falsch; hingegen (zu sagen), dass das, was ist, ist, oder das, was nicht ist, nicht ist, ist wahr”. Diese etwas komplexe Ausdrucksweise lässt sich auch folgendermaßen zusammenfassen: “Eine Aussage, dass etwas der Fall ist, ist genau dann wahr, wenn es der Fall ist (und falsch, wenn es nicht der Fall ist).“
Diese klassische Auffassung der Wahrheit wird auch Korrespondenztheorie der Wahrheit genannt. Danach ist die Wahrheit die Übereinstimmung bzw. Korrespondenz zwischen dem Sein und dem Denken, der Realität und den beschriebenen Sachverhalten. Wenn wir tagtäglich über Wahrheit sprechen, dann meinen wir Wahrheit in diesem Sinne. Wir sagen, dass ein Satz dann wahr ist, wenn er ausdrückt, was wirklich ist, was in Übereinstimmung mit der Realität ist. Wahrheit bedeutet, dass das, was wir denken oder ausdrücken, in irgendeiner Weise mit der Realität übereinstimmt. Denken und Sein sind eins. Diese Definition der Wahrheit entspricht zwar unserem Alltagsverständnis, sie ist aber mit dem Problem behaftet, dass wir diese Entsprechung zwischen dem gemeinten Gegenstand auf der einen Seite und dem Gegenstand als solchen auf der anderen Seite nicht überprüfen können. Es gibt eine unüberbrückbare prinzipielle Kluft zwischen dem Gegenstand als solchen und dem Denken über ihn. Wie können wir einen konkreten Gegenstand mit einem Gedanken in meinen Kopf vergleichen, was können wir hier als übereinstimmend interpretieren?
Um diese Schwierigkeiten zu umgehen, wurden noch andere Interpretationen diskutiert, was man sinnvollerweise unter „Wahrheit“ verstehen kann. Die sogenannte Redundanztheorie der Wahrheit behauptet schlichtweg, dass das Wort “wahr” überflüssig ist. Es vermittelt keine zusätzliche Bedeutung als die Behauptung des Sachverhaltes selbst.
Gegen diese Interpretation lässt sich aber einwenden, dass damit nicht erklärt wird, was wir meinen, wenn wir eine Behauptung aufstellen. Denn mit der Äußerung einer Aussage behaupten wir doch gerade, dass er eine Tatsache ausdrückt, - die Wahrheit also. Eine Erklärung dessen, was wir mit einem Wahrheitsanspruch meinen, kann uns diese Interpretation offensichtlich nicht vermitteln.
Um die Schwierigkeit der Korrespondenztheorie zu entgehen und ein funktionstüchtiges Wahrheitskriterium zu erhalten, wurde eine Kohärenztheorie aufgestellt, die feststellt, dass ein Satz dann falsch ist, wenn er sich nicht widerspruchslos in die Gesamtheit unserer Meinungen einordnen lässt. Das Wesentliche der Wahrheit besteht danach darin, Teil eines vollkommen abgeschlossenen Systems zu sein. Die Kohärenztheorie behauptet demnach, dass eine Aussage dann wahr ist, wenn sie mit gewissen anderen Aussagen kohärent ist. Hier wird also lediglich die Übereinstimmung zwischen verschiedenen Aussagen gefordert. Diese Übereinstimmung kann dann überprüft werden.
Obgleich wir allgemein akzeptieren würden, dass wahre Sätze miteinander verträglich sein sollten, ist die Kohärenz allein nur ein schwaches Kriterium. Würde man unter Wahrheit ausschließlich Kohärenz verstehen, dann hätte man die Erfahrung bzw. den Realitätsbezug vollständig aus der Definition ausgeschlossen. Wir müssten Wahrheit jedem Märchen, jeder Lüge, und jeder Psychose zuschreiben, solange sie kohärent darstellbar ist.
In der Konsenstheorie wird Wahrheit nicht mit Übereinstimmung von Aussagen definiert wie in der Kohärenztheorie, sondern mit Übereinstimmung von verschiedenen Meinungen. Gemäß der Konsenstheorie ist ein Satz genau dann wahr, wenn er allgemein akzeptiert wird. Diejenigen Sätze, die in einem langfristigen Findungsprozess akzeptiert werden, werden als wahr angesehen. Um aber konsensfähig zu sein, müssen diese Sätze von qualifizierten Personen beurteilt werden. Diese qualifizierten Personen müssen gutwillig, vernünftig, sprachkundig und sachkundig sein. Wenn z.B. eine chemische Aussage auf ihre Wahrheit überprüft werden soll, dann werden natürlich nur sachkundige Chemiker gefragt. Eine Aussage wäre dann wahr, wenn sie bei geeigneter Sprach- und Sachkundigkeit für jeden zustimmungsfähig wäre.
Da Aussagen nicht direkt mit der Realität verglichen werden können, stützt sich die pragmatische Wahrheitstheorie auf die praktischen Konsequenzen einer Aussage. Hier gilt eine Aussage dann als wahr, wenn sie ein gegebenes Problem zu lösen vermag, wenn sie sich praktisch bewährt hat und dem Erkenntnisfortschritt dient. Dieses Kriterium gilt für wissenschaftliche Problemlösungen genauso wie für Problemlösungen im Alltag.
Kehren wir zu unserem Ausgangspunkt zurück. Wir wollten analysieren, was Wahrheit ist. Wir wollten einen Realitätsbezug herstellen, denn es ging uns in unserem ursprünglichen Interesse um die Erkenntnis der Realität, um Wissen. Wahrheit wurde interpretiert als Übereinstimmung zwischen der Realität und unseren Ansichten über die Realität.
Leider können wir nicht sinnvoll behaupten, dass es so etwas wie eine Übereinstimmung zwischen der Realität außer uns und unseren Vorstellungen über die Realität in uns gibt, denn wir wissen eigentlich nicht, was damit gemeint sein könnte. Stellen wir uns einen braunen Stuhl vor, der 2 Meter vor uns steht. Wenn ich behaupte, dass der Stuhl braun ist, dann sage ich doch die Wahrheit, oder? In unserer unvorbelasteten Anschauungsweise bestätigen wir die Wahrheit der Aussage, indem wir auf den braunen Stuhl hinweisen: es scheint eine Art der Übereinstimmung zwischen dem Objekt und der behaupteten Aussage zu geben. Worin besteht aber die Übereinstimmung zwischen der Tatsache und der Aussage? Wie kann etwas in meinem Kopf, meine Vorstellung, meine Gedanken, mit etwas übereinstimmen, dass sich 2 m von mir entfernt befindet. Meine Gedanken haben keine Farbe oder feste Konsistenz. Man kann sich auch nicht auf meine Vorstellung setzen. Die Frage, was man sich unter Übereinstimmung vorzustellen hat, ist unbeantwortbar geblieben. Damit ist aber die plausible Korrespondenztheorie zur Erklärung unbrauchbar. Wir müssen also unsere wissenschaftliche Naivität bezüglich dessen überwinden, was unter Wahrheit zu verstehen ist.
Verzichten wir aber auf die Idee einer Korrespondenztheorie der Wahrheit, dann geht der Realitätsbezug verloren. Wir verlieren bei der Diskussion über die Wahrheit den Bezug zu unserer Außenwelt. Wir bleiben gefangen in unserem Denken und unserer Vorstellungswelt. Wir bleiben beschränkt auf der Seite des Gedachten, in der Welt der Sprache. Wir können uns nur noch mit Konsens, Kohärenz oder unserem praktischen Erfolg behelfen, wenn wir über Wahrheit reden. Dieses sind alles Kriterien, die keinen Realitätsbezug mehr haben.
Bedenken Sie die Konsequenzen unserer Gedankengänge. Philosophisch gesehen, mögen unsere Gedanken plausibel sein, aber was sagt der Wissenschaftler, wenn wir von der Außenwelt völlig absehen und die Wahrheit keinen Bezug mehr zur Außenwelt hat. Der Wissenschaftler will doch die Welt bzw. Realität enträtseln, er will uns Wahrheiten vermitteln. Er unterstellt dabei, dass er das auch kann und dass die Realität selbst aufzeigt, was wahr oder falsch ist. Folgen wir aber unseren Gedanken, dann geht der Bezug zur Realität verloren, weil nicht sinnvoll von einer Übereinstimmung gesprochen werden kann. Somit verliert der Wissenschaftler seinen einmaligen Bezugspunkt. Es ist deshalb auch nicht verwunderlich, dass wir in späteren Kontexten unseren Anspruch aufgeben werden, dass es nur eine einzige Wahrheit gibt. Wir werden später wiederholt darauf zurückkommen, dass es immer mehrere Wahrheiten gibt, je nachdem in welchem Deutungssystem man sich bewegt. Dies wird nicht unerhebliche Konsequenzen für unser Handeln haben, denn wir müssen uns sehr viel toleranter verhalten, wenn wir bezüglich desselben Sachverhaltes mehrere Wahrheiten akzeptieren. Sicherlich eine Denkweise, die Ihnen einiges Kopfzerbrechen machen wird.
Behalten Sie außerdem in Erinnerung, dass es Wahrheit nur dort gibt, wo es Sprache gibt, und Sprache ist ein vom Menschen geschaffenes Produkt. Die Welt ist zwar dort draußen, aber eben auf der anderen Seite. Die Beschreibungen über die Welt, unsere Feststellungen und unser Wissen befinden sich dagegen auf dieser Seite. Da die Welt an sich nicht spricht, sollten wir die Wahrheit auch nicht in der Welt suchen, sondern bei uns.
1.10 Wissende und Unwissende
Doch nun zurück zu unserer Unterscheidung zwischen Glauben und Wissen. Da uns die Wahrheit genauso wie die Begründung verloren gegangen ist, reduziert sich Wissen auf Glauben. Was bleibt, sind lediglich unsere subjektiven und vorläufigen Überzeugungen, Annahmen und Meinungen. Damit verabschieden sich aber alle Ansprüche an ein notwendiges, allgemeingültiges und sicheres Wissen und auch das klassische Wissenschaftskonzept löst sich auf. Der Anspruch auf endgültiges, absolutes und sicheres Wissen wird fallengelassen. Es gibt keine sicheren Erkenntnisse, auf die wir uns als sichere Basis zurückziehen können. Was bleibt sind lediglich Meinungen, die vorläufig, revidierbar und fallibel sind und nach Aristoteles eher etwas mit Rhetorik und Propaganda zu tun haben.
Unser Streben nach gesichertem Wissen ist zwar menschlich verständlich, aber unerfüllbar und anmaßend. Wir sollten uns vor denjenigen hüten, die etwas sicher zu wissen glauben, denn der Wissende weiß nicht, dass er nicht weiß, was er nicht weiß.
{/jkefel} {jkefel title=[Kap. 2]}
2. Rationalismus oder Irrationalismus in der Wissenschaft
2.1 Deduktion, Induktion und Kausalität
2.2 Wissenschaftliche Tätigkeit
2.3 Kritischer Rationalismus
2.4 Wissenschaftstheorie kontra Wissenschaftsgeschichte
In diesem Abschnitt werden wir uns mit der Rationalität der wissenschaftlichen Tätigkeit auseinander setzen. Zuvor werden wir allerdings die Verwendungsweise der Begriffe „Deduktion“, „Induktion“ und „Kausalität“ kurz erklären, um späteren Missverständnissen vorzubeugen.
2.1 Deduktion, Induktion und Kausalität
Wir werden später behaupten, dass ein Satz aus anderen Sätzen deduktiv abgeleitet wurde, oder einfach durch Deduktion. Was meinen wir damit? Einen Satz aus anderen Sätzen deduktiv abzuleiten, heißt, dass der schlussfolgernde Satz nach den Regeln der Logik aus anderen Sätzen abgeleitet wurde. Das klingt sehr abstrakt und soll an zwei einfachen Beispielen erläutert werden. Wir nehmen zwei Sätze, die wir Prämissen nennen. Sie lauten: "Alle Menschen sind sterblich" und "Hansi ist ein Mensch". Aus diesen beiden Prämissen können wir den Satz folgern: "Hansi ist sterblich". Nehmen wir eine bekannte naturwissenschaftliche Erkenntnis wie "Kupfer leitet elektrischen Strom" und zusätzlich eine einzelne Erfahrung wie "das Kabel ist aus Kupfer", dann schließen wir daraus, dass das Kabel auch den elektrischen Strom leitet.
Deduktion hat somit etwas mit logischer Folgerung zu tun. Die Wahrheit des deduktiv abgeleiteten Satzes, die sogenannte Folgerung, hängt von der Wahrheit der Prämissen und der korrekten logischen Folgerung ab. Sind die Prämissen wahr, so ist es auch die Folgerung, weil die logische Schlussfolgerung wahrheitskonservierend ist. In deduktiven Schlüssen erhalten die Folgerungen damit denselben Grad an Gewissheit wie die Prämissen. Wenn wir uns der Prämissen ganz sicher sind und wir durch logische Ableitung eine Folgerung aufstellen können, dann können wir uns der Folgerung genauso sicher sein. Deduktive Schlüsse vermitteln die Sicherheit der Gewissheit aus den Prämissen. Diesem Vorteil der Deduktion steht aber leider der Nachteil gegenüber, dass uns die Deduktion eigentlich keine neuen Erkenntnisse vermittelt, sondern uns lediglich mitteilt, was bereits an Erkenntnissen in den Prämissen enthalten ist.
Von der Deduktion ist die Induktion zu unterscheiden, die für sich in Anspruch nimmt, ebenfalls wahrheitskonservierend und zusätzlich erkenntniserweiternd zu sein. Was verstehen wir unter Induktion, was ist ein induktiver Schluss? Unter Induktion wird der Schritt vom Einzelnen zum Allgemeinen verstanden. Aus der Tatsache, dass wir morgens die Sonne aufgehen sehen, schließen wir, dass sie jeden Morgen aufgehen wird. Nachdem wir Wasser mehrmals auf 100 oC erhitzt haben und es jedes Mal verdampfte, schließen wir daraus, dass es immer so sein wird. Die neue Erkenntnis basiert letztlich nur auf der Beobachtung von einzelnen Ereignissen. Es entsteht im Verstand aber so etwas wie eine Idee, eine Assoziation, die dann als allgemeiner Zusammenhang ausgedrückt wird. Durch Induktion wird demnach das Allgemeine aus dem Einzelnen “erschlossen”. Es werden regelhafte Zusammenhänge aus einzelnen Beobachtungen abgeleitet. Da dieser Schluss aber kein logischer Schluss ist, stellt sich die Frage, wodurch er sich rechtfertigen lässt. Ist es möglich unter Beibehaltung der Wahrheit von Einzelnem auf Allgemeines zu schließen?
Diese Frage muss klar verneint werden. Induktive Schlüsse sind nicht absolut wahrheitskonservierend wie die deduktiven Schlüsse, denn man kann lediglich behaupten, dass bei wahren Prämissen auch eine gewisse Evidenz für die Folgerung besteht bzw. dass wir mit einer gewissen Wahrscheinlichkeit davon ausgehen können, dass die Folgerung auch zutrifft.
Aber worauf beruht diese Evidenz oder Wahrscheinlichkeit? Nach dem englischen Philosophen David Hume basiert diese Evidenz lediglich auf dem, was wir Gewohnheit nennen. Wir sind eben gewohnt, dass auf ein bestimmtes Ereignis E1 immer ein anderes Ereignis E2 zeitlich folgt. Unter der weiteren Annahme der Uniformität und Konstanz der Natur, die wir nach Hume ebenfalls nur unterstellen und niemals beweisen können, wird aus diesen einzelnen Beobachtungen geschlossen, dass E2 immer auf E1 folgt. Eine allgemeine Regel “E2 folgt immer auf E1" beruht demnach sowohl auf einzelnen Beobachtungen als auch auf zusätzlichen Annahmen über die Realität, nämlich auf ihre Konstanz und Uniformität. Da wir aber keine absolute Gewissheit über diese Konstanz haben, kann uns diese Regel auch keine absolute Gewissheit geben. Der induktive Schritt ist deshalb durch Logik allein und auch durch Bezug auf empirisch Gegebenes nicht zu rechtfertigen. Es gibt keine Gewissheit dafür, dass die Zukunft der Vergangenheit gleichen muss.
Wir sind tagtäglich bereit, von einzelnen Ereignissen, die sich ständig unter bestimmten Bedingungen wiederholen, auf einen allgemeinen Zusammenhang zu schließen. Wir glauben dann daran, dass der Zusammenhang tatsächlich besteht. Auch unser kausales Denken begründet sich darauf. Wir gehen im Alltag nämlich immer dann von einem kausalen Zusammenhang aus, wenn auf ein Ereignis A immer in einem zeitlich definierten Rahmen ein Ereignis B eintritt. Diese kausale Relation bzw. Ursache-Wirkung-Beziehung verknüpft das Ereignis A als Ursache mit dem Ereignis B als Wirkung. Die kausale Relation selbst ist aber als solche nicht wahrnehmbar, sondern sie ist lediglich eine Assoziation zwischen den beiden Ereignissen, die durch unseren Verstand quasi ‘zusammengefasst’ werden.
Daran sollten Sie sich erinnern, wenn Sie in Ihren pathophysiologischen Überlegungen im medizinischen Alltag oder der Forschung Kausalität unterstellen. Sie beobachten häufig nur Ihren Patienten oder möglicherweise nur ein Tier in einem Experiment. Sie stellen fest, dass der Patient nach einer Intervention bestimmte Symptome zeigt und führen dieses auf Ihre Intervention zurück. Ob das aber zutrifft oder nicht, bleibt prinzipiell unbeweisbar. Denken Sie daran, dass allein der Akt der Intervention ohne Verum, also der Placeboeffekt, bereits die Symptome auslösen kann. Sie sollten deshalb nicht ausschließen, dass es noch andere Faktoren sind, die möglicherweise viel entscheidender für die Auslösung des Effektes verantwortlich sind, als ihr vermuteter pathophysiologischer Mechanismus.
Durch empirische Beobachtungen lässt sich jedenfalls eine kausale Relation nicht rechtfertigen. Sie ist lediglich etwas, was in unseren Köpfen stattfindet. Es wundert deshalb nicht, dass in der modernen Physik auch Situationen denkbar sind, in der die Wirkung zeitlich vor der Ursache nachweisbar ist - ein Gedanke, der uns intuitiv wenig plausibel erscheint.
Weisen wir noch einmal auf den entscheidenden Punkt hin. Sätze über allgemeine Zusammenhänge können allein durch Beobachtungen nicht gerechtfertigt werden. Beobachtungen werden in Sätzen über einzelne Ereignisse formuliert und drücken so lediglich einzelne Tatsachen aus. Im Vergleich zu deduktiven Schlüssen sind induktive Schlüsse zwar erkenntniserweiternd, aber sie sind nicht wahrheitskonservierend, denn wir könnten uns ja schließlich auch irren. Wir erkaufen uns neues Wissen durch Unwissenheit, wir schaffen Gewissheit durch Ungewissheit.
2.2 Wissenschaftliche Tätigkeit
Nachdem wir uns mehr theoretisch und orientierend mit Begriffen wie „Wissen“, „Wissenschaft“ und „Wahrheit“ beschäftigt haben, wollen wir nun konkreter werden und in unserem näheren Umfeld betrachten, wie wir uns idealerweise eine wissenschaftliche Tätigkeit vorstellen und wie wir diese Begriffe miteinander in Beziehung setzen können.
Welches ist der Ausgangspunkt für eine wissenschaftliche Tätigkeit? Was könnte am Beginn eines wissenschaftlichen Projektes stehen? Es ist wahrscheinlich zunächst die von Aristoteles beschriebene natürliche Neugierde des Menschen, die immer dann unser Interesse weckt, wenn wir eine Diskrepanz zwischen unseren subjektiven Erwartungen und den objektiv eingetretenen Ereignissen bemerken. Solche Diskrepanzen werden häufig ignoriert, aber manchmal auch als problematisch oder zumindest als erklärungsbedürftig angesehen. Wir fangen dann in solchen Situationen an, uns für die Diskrepanz mehr als üblich zu interessieren. Wir nehmen das Objekt unseres Interesses genauer in Augenschein und versuchen, das aufgefallene Problem zu lösen. Wenn wir das Gefühl haben, dass das Problem irgendwie lösbar ist und auch die Mittel zur Lösung des Problems in Aussicht stehen, dann werden die notwendigen Schritte eingeleitet, um ein wissenschaftliches Projekt ins Leben zu rufen.
Zunächst wird ein Studienprotokoll angefertigt, das bestimmte Kriterien erfüllen muss, um als wissenschaftlich tauglich angesehen zu werden. Das Problem wird in diesem Protokoll genauestens beschrieben, so dass auch andere Forscher seine Relevanz erkennen. Aus diesem Problem wird eine konkrete Fragestellung abgeleitet, die durch das Forschungsprojekt bzw. die Studie beantwortet werden soll. Der Zweck der Studie wird genau festgelegt und Hypothesen aufgestellt. Die Hypothesen sind wichtig und müssen präzise formuliert werden, weil mit den Ergebnissen der Studie entschieden werden soll, welche der Hypothesen zutrifft oder nicht. Um Hypothesen bestätigen oder widerlegen zu können, werden Zielkriterien festgelegt und eine Fallzahlberechnung vorgenommen, um eine zwar ausreichende, aber auch nicht zu große Studie zu planen. Durch das Studienprotokoll wird der Versuchsaufbau oder die Versuchsanordnung hinreichend beschrieben und festgelegt, wobei spätere Änderungen bzw. notwendige Anpassungen denkbar sind, um flexibel auf unvorhergesehene Situationen zu reagieren. Sind die notwendigen Ressourcen (Personal, Material, Instrumente) vorhanden, dann wird die Studie durchgeführt - vorausgesetzt die erforderlichen Genehmigungen liegen vor.
Wenn die Ergebnisse vorliegen, werden sie sorgfältig gesammelt und unter Anwendung der geeigneten statistischen Tests analysiert und interpretiert. Es wird dann entschieden, welche Hypothese am ehesten mit den Daten übereinstimmt. Je nachdem, wie die Studienergebnisse ausfallen, können wir uns unterschiedlich verhalten. Entsprechen die neuen Ergebnisse unseren Erwartungen, dann werden sie so schnell wie möglich publiziert - wir wollen schließlich die Ersten sein - und in diesem Fall wurde das medizinische Fachwissen fruchtbar erweitert, das vermeintliche Problem beseitigt oder aufgeklärt.
Entsprechen die Ergebnisse dagegen nicht unseren Erwartungen, sind wir in einer misslichen Lage. Wir können den Versuch als nicht korrekt durchgeführt betrachten und ihn wiederholen, wenn wir immer noch von der Relevanz des Problems überzeugt sind. Wir können aber auch das negative Ergebnis als das ansehen, was es ist, als Widerlegung unserer Erwartungen. Unsere Enttäuschung können wir anderen mitteilen, was nicht immer geschieht, oder für uns behalten. Als letzte Möglichkeit bliebe, die Ergebnisse einfach zu ignorieren, so dass wir uns weder für noch gegen eine der Hypothesen entscheiden müssen. Alle diese Reaktionsweisen auf die ermittelten Ergebnisse sind im Forschungsprozess nachweisbar.
Ihren ersten Kontakt mit solchen methodischen Abläufen werden die meisten von Ihnen erst haben, wenn Sie sich im Rahmen Ihrer Dissertation wissenschaftlich betätigen. Wenn Sie zum Beispiel durch Biometriker oder erfahrene Wissenschaftler über die Grundzüge unserer wissenschaftlichen Tätigkeiten in der Medizin vertraut gemacht werden, dann werden Sie mit ähnlichen Beschreibungen konfrontiert, die sich natürlich im Detail unterscheiden, aber im Grundtenor gleich sind. Die obige Skizzierung der normalen wissenschaftlichen Tätigkeit von der Fragestellung bis zur Interpretation der Ergebnisse erscheinen selbst dem wissenschaftlichen Laien als plausibel, kritisch und konstruktiv. Sie scheinen uns geradezu exemplarisch für gute Wissenschaft zu sein.
Worauf gründen sich nun der hohe Stellenwert und die große Achtung, die wir wissenschaftlichen Erkenntnissen zuschreiben? Die Bedeutung einer wissenschaftlichen Erkenntnis liegt nicht in ihrem Inhalt. Es kommt nicht auf die eigentliche Bedeutung des Faktums oder der Entdeckung an. Der hohe Stellenwert liegt vielmehr darin begründet, dass bestimmte methodische Regeln bei der Erkenntnisgewinnung beachtet wurden. Diese Regeln legen nämlich fest, welche Bedingungen Studien erfüllen müssen, damit die gewonnenen Erkenntnisse als wissenschaftlich fundiertes Wissen akzeptiert werden.
Die wissenschaftliche Tätigkeit scheint offensichtlich darin zu bestehen, dass wir Hypothesen oder Theorien entwerfen und sie experimentell überprüfen. Behauptet zum Beispiel jemand, dass er eine neue Behandlungsmethode für die Neurodermitis gefunden hat, so glauben wir ihm erst, wenn er unter Anwendung der methodischen Regeln in umfangreichen klinische Studien den Nachweis erbracht hat, dass die neue Behandlung tatsächlich besser ist. Die bloße Behauptung oder der Hinweis auf einige Behandlungserfolge erscheinen den meisten Medizinern heute als nicht mehr hinreichend, um eine neue Behandlungsmethode zu empfehlen. Wir sind gewohnt, uns kritisch und rational mit den Ergebnissen wissenschaftlicher Studien auseinander zu setzen.
2.3 Kritischer Rationalismus
Es wundert deshalb auch nicht, dass die wissenschaftliche Methodologie häufig mit dem kritischen Rationalismus assoziiert wird, mit dem ich Sie jetzt vertraut machen möchte. Auf medizinischen Kongressen und in wissenschaftlichen Diskussionsrunden beziehen einige Gesprächsteilnehmer auf die Thesen des kritischen Rationalismus, um sich selbst als kritische, rationale und fortschrittliche Denker darzustellen. Dass der Bezug auf den kritischen Rationalismus, der im Wesentlichen von Sir Karl Popper beeinflusst wurde, in den vielen Situationen schlichtweg falsch ist oder nur ein großes Missverständnis ausdrückt, bleibt den meisten Protagonisten verborgen. Um Sie davor zu bewahren, wollen wir uns kurz mit den grundlegenden Ansichten dieser Denkrichtung auseinander setzen und ihr dann den ihr gebührenden Platz zuweisen.
In erster Näherung können wir unter kritischer Rationalität die Forderung verstehen, dass wir auf der Suche nach Erkenntnis, nach Wissen, kritisch verfahren sollen, um Fehler und Irrtümer zu vermeiden und somit der Wahrheit im Wissenschaftsprozess immer näher zu kommen. Poppers Konzept der wissenschaftlichen Methode erfordert so einen kritischen und rationalen Umgang mit unserem Wissen über die Welt.
Sein wichtigstes Prinzip lautet, dass eine empirisch-wissenschaftliche Theorie so beschaffen sein muss, dass sie an der Erfahrung scheitern können muss. Was meint Popper damit? Nach Popper ist es für eine wissenschaftliche Hypothese konstitutiv, dass sie so aufgebaut ist, dass sie empirisch überprüfbar ist. Man muss sie so formulieren, dass sie durch eine Beobachtung widerlegt werden kann. Popper fordert deshalb, dass mit jeder Theorie auch Bedingungen formuliert werden, die festlegen, unter welchen Bedingungen wir die Theorie für falsifiziert halten, unter welchen Bedingungen die Theorie an der Realität scheitern kann. Wenn es grundsätzlich keine Beobachtungen gibt, die eine bestimmte Theorie als falsch entlarven kann, dann handelt es sich nach Popper nicht um eine wissenschaftliche Theorie, sondern um eine dogmatische Behauptung.
Mit dieser Forderung will Popper sicher stellen, dass keine dogmatische unwiderlegbare Doktrin in den Wissenschaftsprozess Einzug erhält. Für einen kritischen Wissenschaftler ist also nicht entscheidend, dass er seine Zeit damit verbringt, Theorien aufzustellen und sie hartnäckig gegen Widerstände zu verteidigen. Diese intellektuelle Einstellung würde nämlich zwangsläufig zu einer dogmatischen Haltung gegenüber seiner eigenen Meinung führen. Man wäre nur damit beschäftigt seine eigene Theorie zu beweisen und zu stützen. Nach Popper sollten Sie aber genau das Umgekehrte tun. Sie sollten ihre eigene Theorie auf den Prüfstein der empirischen Erfahrung legen und versuchen, ihre eigene Theorie zu widerlegen.
Nach Popper gehört zu einer wissenschaftlichen Theorie, dass angegeben wird, unter welchen Bedingungen die Theorie als falsch entlarvt ist. Man muss also mit jeder Theorie zugleich die Falsifikationskriterien angeben. Dies ist eine sehr wichtige Forderung, an die Sie sich auch in anderen Argumentationszusammenhängen erinnern sollten. Wenn Sie zum Beispiel einen Chirurgen von einer neuen Operationsmethode überzeugen wollen, dann werden sie kontrollierte randomisierte Studien durchführen, um zu beweisen, dass die neue Methode klinisch relevante Vorteile aufweist. Trotzdem kann es sein, dass der Chirurg sich nicht überzeugen lässt und Ihnen vorwirft, dass die Studien nicht repräsentativ sind oder dass die Ergebnisse nicht überzeugend sind. Auch wenn Sie den Chirurgen nicht überzeugen können, können Sie ihn doch argumentativ in die Enge treiben, indem Sie ihn auffordern, mitzuteilen, unter welchen Bedingungen er sich überzeugen ließe. Würde er jetzt antworten, dass es niemals Studien geben könne, die ihn überzeugen werden, dann sollten Sie die Diskussion abbrechen. Sollte er Ihnen dagegen mitteilen, welche Bedingungen erfüllt sein müssen, um ihn zu überzeugen, dann müssen Sie diese realisieren.
In Poppers fundamentalen Werk, der “Logik der Forschung”, formulierte er erstmals die Grundprinzipien seiner Philosophie des Erkenntnisfortschritts, die er später mehrfach modifizierte, um den berechtigten Kritiken zu begegnen. Nach Popper besteht die wissenschaftliche Tätigkeit des Forschers darin, Hypothesen und Theoriensysteme durch Beobachtung und Experiment zu überprüfen. Also getreu der von uns entworfenen groben Skizze über den idealen Ablauf eines wissenschaftlichen Projektes.
Zunächst forderte Popper, dass wir in unserer wissenschaftlichen Argumentation nur Aussagen verwenden sollten, deren Wahrheit wir durch empirische Methoden intersubjektiv feststellen können. Sätze wie „der Baum hat grüne Blätter” oder „Kupfer leitet elektrischen Strom” sind in diesem Sinn unproblematisch, während „Gott ist gerecht“ problematisch erscheint. Es wird grundsätzlich von allen wissenschaftlichen Behauptungen gefordert, dass sie intersubjektiv verifizierbar oder falsifizierbar sein müssen. Was bedeutet das? Das bedeutet letztlich nur, dass wir in die Lage versetzt werden müssen, die behauptete wissenschaftliche Aussage daraufhin zu überprüfen, ob sie wahr oder falsch ist.
Nach Popper müssen wir eine Aussage, die weder aufgrund empirischer Überprüfung noch durch logische Regel bejaht oder verneint werden kann, als unsinnig bzw. unverständlich ablehnen. Der Grund dieser Forderung ist offensichtlich. Wenn wir den Sachverhalt, der mit dem Aussagesatz ausgedrückt wird, nicht überprüfen können, oder wenn keine Wahrheitsbedingungen genannt werden, die festlegen, ob der Satz wahr oder falsch ist, dann können wir streng genommen auch nicht wissen, was gemeint ist bzw. was behauptet wurde. Popper will uns mit dieser Forderung davor bewahren, unüberprüfbare Theorien in die Wissenschaft aufzunehmen. Theorien oder Urteile, die unüberprüfbar sind, haben nur dogmatischen Charakter und nichts in einer kritischen und rationalen Wissenschaft verloren.
Bei dieser Forderung, dass eine wissenschaftliche Aussage verifizierbar oder falsifizierbar sein müsse, sollten Sie einen wichtigen Unterschied zwischen Verifizierbarkeit und Falsifizierbarkeit registrieren. Die Verifikation von Sätzen, bei der wir versuchen, Sätze als wahr zu erkennen, verhält sich irgendwie asymmetrisch zur Falsifikation, d.h. zum Nachweis, dass ein Satz falsch ist. Betrachten wir dazu Sätze über einzelne Ereignisse und Urteile über allgemeine Zusammenhänge etwas genauer. Dazu wählen wir einige einfache Sätze aus wie „Reiher haben pinkfarbene Schnäbel”, „Kupfer leitet elektrischen Strom” oder „Villöse Adenome im Kolon entarten”, die allgemeine Zusammenhänge (Allgemeines) ausdrücken, und „Hans hat rote Haare“, „der Direktor der Firma X fährt einen weißen BMW“ oder „eine Katze hat zwei Schwänze“, die jeweils einen bestimmten Gegenstand genauer spezifizieren (Spezielles).
Wie können wir nun Sätze über Allgemeines verifizieren bzw. falsifizieren. Wollten wir Sätze über Allgemeines verifizieren, und dazu gehören auch unsere wissenschaftlichen Theorien und Hypothesen, dann stoßen wir auf ein grundsätzliches Hindernis. Will man nämlich die Wahrheit von Sätzen wie „Reiher haben pinkfarbene Schnäbel”, „Kupfer leitet elektrischen Strom” oder „Villöse Adenome im Kolon entarten” verifizieren bzw, als zutreffend ausweisen, dann müssen alle Gegenstände im Universum, d.h. alle Reiher, alle kupfernen Gegenstände und alle villösen Kolonadenome daraufhin überprüft werden, ob die Schnäbel pink sind, elektrischen Strom leiten oder entarten. Da für den Menschen aufgrund seines beschränkten Erkenntnisvermögens nicht alle Gegenstände des Universums auf ihre Eigenschaften überprüfbar sind, einschließlich derjenigen, die vergangen sind oder noch entstehen werden, gibt es keine Möglichkeit, Sätze über Allgemeines definitiv zu verifizieren. Wir können Sätze über Allgemeines also nicht verifizieren. Man kann demnach Theorien oder Hypothesen nicht als definitiv wahr ausweisen. Wer behauptet, dass er eine Entdeckung über allgemeine pathophysiologische Zusammenhänge oder ähnliches gemacht hat, der kann seine Behauptung niemals als definitiv wahr ausweisen, weil er immer an die Grenze unseres Erkenntnisvermögens stößt.
Wenn er seine Theorie oder Hypothese nicht verifizieren kann, welcher Ausweg bleibt ihm dann? Nun, er kann sie immer noch falsifizieren. Wenn sich nämlich nur ein einziger Gegenstand findet, der nicht das behauptete Merkmal aufweist, dann ist der Satz falsch. Wenn wir einen Reiher finden, der keinen pinkfarbenen Schnabel hat; einen kupferner Gegenstand, der keinen Strom leitet; oder ein villöses Adenom, das nicht entartet, dann sind die Sätze definitiv falsifiziert. Diese simple Erkenntnis, dass wir Theorien nicht verifizieren aber dafür falsifizieren können, ist der Grund, warum wir uns nach Popper prinzipiell kritisch in der Wissenschaft verhalten müssen. Unsere Theorien sollen immer wieder daraufhin überprüft werden, ob wir nicht doch ein falsifizierendes Beispiel entdecken, dass uns dann vor einem Irrtum bewahren wird.
Allerdings sollten Sie den Unterschied zwischen Falsifikation und Falschheit einer Theorie beachten. Eine Falsifikation impliziert nicht auch Falschheit, denn auch eine richtige Theorie kann falsifiziert werden. Genauso wie auch eine falsche Theorie verifiziert werden kann, wie wir später noch sehen werden.
Wie sollten wir nun konkret vorgehen, um unsere Theorien zu falsifizieren? Wir sollen aus den Theorien einzelne Ereignisse prognostizieren und dann überprüfen, ob sie zutreffen oder nicht. Wenn wir also behaupten, dass alle Schwäne weiß sind, dann sagen wir voraus, dass jeder Schwan, den wir untersuchen, auch weiß ist. Also betrachten wir die einzelnen Schwäne und überprüfen unsere Aussage. Wenn der Schwan weiß ist, fühlen wir uns bestätigt. Aber wir suchen trotzdem noch eine gewisse Zeit weiter, um eventuell doch noch den „nicht-weißen“ Schwan zu finden.
Die Bestätigung einer Theorie aufgrund von richtig vorhergesagten Prognosen, kann nach Popper eine Theorie oder Hypothese immer nur vorläufig stützen. Die Theorie hat sich nach erfolgreicher Überprüfung lediglich bewährt, was nicht bedeutet, dass sie auch der Realität entspricht. Sie kann durch spätere negative Ergebnisse immer wieder umgestoßen werden. Wenn wir also zehn oder hundert weiße Schwäne gefunden haben, dann ist die Aussage nicht endgültig verifiziert, sondern sie hat sich bisher nur bewährt, d.h. sie ist noch nicht falsifiziert.
Natürlich gibt es auch verschiedene Grade der Bewährung, wobei die Strenge der Prüfung und die Anzahl der sich bewährenden Fälle über den Grad der Bewährung entscheidet. Solange eine Theorie also eingehenden und strengen Nachprüfungen standhält, und wenn durch die fortschreitende Entwicklung des Wissens diese Theorie noch nicht als überholt gilt, dann sagen wir, dass sich eine Theorie bewährt hat.
Diese Vorläufigkeit aller Theorien erzwingt quasi die kritische Grundeinstellung des Wissenschaftlers zu den Produkten der Wissenschaft, weil sie alle grundsätzlich revidierbar sind. Dem Wissenschaftler wird in seinem Untersuchungsprozess keine Atempause gelassen, um sich bei irgendeiner absoluten sicheren Erkenntnis auszuruhen. Denn es ist prinzipiell möglich, dass sich selbst die bewährten Theorien in Zukunft als falsch erweisen. Wissenschaft führt also nicht zu einer endgültigen Sicherheit über unsere Welt, sondern lediglich zu bisher bewährten Theorien, die grundsätzlich falsifizierbar bleiben. Wissenschaft produziert kein definitives Wissen, das zu irgend einem Zeitpunkt als absolut wahr und unumstößlich geltend angesehen werden kann, sondern „das Spiel Wissenschaft hat grundsätzlich kein Ende”. Wer aufhört, Theorien kritisch zu hinterfragen, oder aufhört, zu versuchen, sie zu falsifizieren, der hört nach Popper auf, ernsthafte Wissenschaft zu betreiben. Denn der Wissenschaftler weiß nicht, wie die Realität sich verhält, sondern er entwirft zunächst eine Theorie, die er dann überprüft. Im Grund raten Wissenschaftler nur. Wissenschaftler werfen durch ihre vermuteten Theoriensysteme quasi ein Netz aus, um die Realität einzufangen.
Wer seine Gedanken und Vermutungen nicht der Widerlegung aussetzt, der spielt nicht mit in dem Spiel „Wissenschaft“. Der Ehrgeiz eines Wissenschaftlers, recht zu behalten, verrät nach Popper ein Missverständnis: nicht der Besitz von Wissen, von unumstößlichen Wahrheiten macht den Wissenschaftler aus, sondern das rücksichtslos kritische, das unablässige Suchen nach Wahrheit.
Diese kritische Einstellung bedeutet natürlich nicht, dass es sinnvoll ist, grundsätzlich alle Theorien überprüfen zu wollen, was allein aufgrund des Zeitmangels schon nicht geht. Wir werden immer einige Theorien als vorerst zutreffend klassifizieren, auf denen wir dann aufbauen. Kritisch in diesem Sinne zu sein, d.h. zu verstehen, dass es kein definitives Wissen über allgemeine Sachverhalte geben kann, bedeutet auch nicht, dass wir sehr gut bewährte Hypothesen einfach fallen lassen sollten. Wer keine alternative Theorie hat, ist womöglich gut beraten, wenn er zunächst bei seiner alten Theorie bleibt.
Popper unterstellt ebenfalls, dass die Wissenschaft in stetem Fortschritt einem Zustand der Endgültigkeit zustrebt, so dass wir durch eine hinreichend lange wissenschaftliche Forschung und durch die Verwerfung falscher Hypothesen über unsere Welt der Beschreibung der „Realität“ immer näher kommen. Poppers Ansichten implizieren, dass es so etwas wie einen Erkenntnisfortschritt gibt, der dadurch zu Stande kommt, dass wir immer wieder neue und “kühnere” Theorien vorschlagen und entwerfen und sie dann rückhaltlos kritisieren und überprüfen. Die Kritik versucht dabei stets, die Theorie zu widerlegen und nicht sie zu verifizieren. Je strenger die Kritik ist, desto größer ist die Chance, Irrtümer bald zu erkennen. Falsifikation von Theorien bedeutet somit nichts anderes als das Ergebnis eines Zweikampfes zwischen unseren theoretischen Annahmen und den empirischen Beobachtungen.
Diese wichtige Erkenntnis, dass es kein definitives Wissen über die Welt gibt, sondern lediglich ein vorläufiges, ist das entscheidende kritische Element in der Wissenschaftsphilosophie von Karl Popper. Es wird als aussichtslos erachtet, zu definitivem, gesicherten Wissen über die Natur zu gelangen. Popper würde mithin unserem Ergebnis des letzten Abschnittes voll und ganz zustimmen. Die immer währende Gefahr, dass sich eine Theorie doch als falsch herausstellen kann, ist der Antrieb für unsere wissenschaftliche Erkenntnis. Da der Mensch nicht über das Vermögen verfügt, zu definitivem Wissen zu gelangen, bleibt ihm nichts anderes übrig, als sich zu einem kritischen und positiven Geist zu entwickeln, der vom Wunsch besessen ist, trotz seiner Unzulänglichkeit doch so nahe wie möglich an die Wahrheit heranzukommen, indem er durch stetige Verbesserung der Theorien und Überprüfung derselben diesem Ziel immer näher kommt. Dieser Prozess des immer währenden Versuchs und Irrtums von besseren oder neuen Theorien über unsere Welt führt nach Popper dann auf lange Sicht zu Erkenntnissen, wie die Welt tatsächlich ist, sie bringt uns der Erkenntnis der Realität immer näher.
Poppers Argumente scheinen gut fundiert und sind auf den ersten Blick so evident, dass wir schwerlich etwas gegen sie erwidern können. Wie wir am Anfang gesehen haben, wird uns durch die wissenschaftliche Methodologie suggeriert, dass wir genau so vorzugehen haben, wenn wir uns als kritische Wissenschaftler verstehen wollen.
Die wissenschaftliche Entwicklung ist keine zusammenhanglose Abfolge von theoretischen Entwürfen und ihren Widerlegungen, sondern der wissenschaftliche Fortschritt ist eng an Wahrheit gekoppelt. Da der Sinn der wissenschaftlichen Methodologie darin zu bestehen scheint, zu erforschen, wie die Realität tatsächlich aufgebaut ist, ist Popper genötigt einen imaginären Punkt der absoluten “Wahrheitserkennung” anzunehmen, dem sich der wissenschaftliche Erkenntnisfortschritt nähert.
Wissenschaft erweist sich nach Popper als ein dynamischer Prozess, der uns aufgrund einer kritischen Einstellung zu den nur vorläufig akzeptierten Theorien eine Erkenntnis über die Realität vermittelt. Aufgrund des rationalen wissenschaftlichen Vorgehens erschließen wir uns sukzessive die Welt und kommen der Wahrheit immer näher. Die wissenschaftliche Entwicklung scheint in einem allmählichen Zuwachs an Erkenntnissen zu bestehen, der begleitet wird von einer sukzessiven Beseitigung unwissenschaftlichen Ballastes. Es werden während dieses Prozesses des Erkenntniszuwachses einerseits neue Fakten entdeckt und präzisere Instrumente zu ihrer Messung gefunden und andererseits werden entdeckte Gesetzmäßigkeiten in umfassendere Theorien eingebettet. Dabei werden gelegentlich als überholt anzusehende Theorien durch neue ersetzt, wobei die alte Theorie aber nicht als gänzlich falsch anzusehen ist, sondern als Grenzfall der neuen Theorie. Die Verdrängung einer Theorie durch eine andere entspricht Poppers Bild von der allmählichen Annäherung der Wissenschaft an die wahre Verfassung der Natur.
Wahrscheinlich werden sie mir zustimmen, dass uns dieses Konzept des wissenschaftlichen Fortschritts sehr vertraut ist, dass wir die kritische Methode als wünschenswert erstreben. Popper scheint es gelungen zu sein, die wissenschaftliche Tätigkeit als rationales Unternehmen zu konstruieren. Bei genauerem Hinsehen entspricht unsere eingangs beschriebene wissenschaftliche Vorgehensweise ziemlich genau den Popperschen Anforderungen. Lediglich bei der Bewertung der Ergebnisse ist Popper stringenter. Er fordert im Grunde, dass wir unsere Beobachtungen tatsächlich dazu verwenden sollten, unsere Hypothesen zu falsifizieren und die Beobachtungen nicht zu ignorieren, wenn sie uns nicht passen.
2.4 Wissenschaftstheorie kontra Wissenschaftsgeschichte
Nun werden wir dazu übergehen, diesen Glauben an die Rationalität der Wissenschaft ein wenig zu erschüttern, denn leider scheint es sich bei den Ausführungen von Popper mehr um einen Wunsch zu handeln als um eine Beschreibung des tatsächlichen wissenschaftlichen Fortschritts. Wir werden jetzt beginnen, den wissenschaftlichen Fortschritt nicht mehr mit den Augen des Wissenschaftstheoretikers zu betrachten, sondern mit denen des Wissenschaftshistorikers, der uns mitteilen wird, wie sich die Wissenschaften tatsächlich entwickelten. Sollten wir dabei feststellen, dass es deutliche Diskrepanzen zwischen den theoretischen Erwägungen des kritischen Rationalisten und der tatsächlichen wissenschaftlichen Entwicklung gibt, dann stehen wir vor einem Problem. Sollen wir dem Theoretiker glauben oder dem Historiker.
Wissenschaftlicher Fortschritt manifestiert sich in vielfältiger Weise. Im eher bescheidenen Rahmen bei einfachen Entdeckungen, wenn z.B. eine neue Galaxie gefunden, ein neues Medikament zur Behandlung der koronaren Herzkrankheit entwickelt oder ein neues Virus entdeckt wird. Oder im großen Stil, wenn man sich mit Kopernikus und Galilei zum heliozentrischen Weltbild hinwendet, der Blutkreislauf entdeckt wird oder die Quantenphysik formuliert wird. Um dem wissenschaftlichen Fortschritt auf die Spur zu kommen, könnten wir zum Beispiel näher untersuchen, wie es möglich war, dass durch Kopernikus, Galilei und Kepler die Ansichten über unsere Stellung im Universum verändert wurden? Wie haben die damaligen Denker ihre Zeitgenossen von der Richtigkeit ihrer Thesen überzeugt? Wendeten sie die Methoden des kritischen Rationalismus an? Vertrauten Sie der Macht der Argumentation? Falsifizierten sie Theorien?
Folgt man dem kritischen Rationalismus, so testet der kritische Wissenschaftler im wissenschaftlichen Alltag seine Theorien. Treten die prognostizierten Ereignisse nicht ein, so erkennt er diese Theorien als falsifiziert an und sucht nach neuen und besseren Theorien. Irgendwann wird es dann einem Forscher gelingen, eine bessere Theorie zu finden und er wird die übrigen Forscher durch Argumente sowie durch den Hinweis auf wiederholte empirische Bewährung davon überzeugen, dass die neue Theorie der Wahrheit näher kommt als die alte Theorie und dass die neue Theorie zugleich die Probleme der alten Theorie vermeidet. Dieses Fortschrittskonzept des kritischen Rationalismus haben wir schließlich als korrekte Beschreibung des rationellen Erkenntnisfortschritts akzeptiert. Diese plausiblen und wünschenswerten Ansichten über den wissenschaftlichen Prozess werden wir nun auf den Prüfstein der Geschichte legen.
Dazu wenden wir uns den Forschungsergebnissen von Thomas Kuhn zu, einem Wissenschaftshistoriker und Physiker, der historiographisch untersuchte, auf welchen Prinzipien der tatsächliche Fortschritt der Wissenschaft beruhte. Kuhn publizierte 1962 seine revolutionären Thesen in dem Buch “The Structure of Scientific Revolutions”. Dieses Buch ist ein revolutionäres Werk, ein Meilenstein in unserem Verständnis von Wissenschaft. Kuhn‘s Thesen widersprachen damals denen der meisten Wissenschaftstheoretiker und regten eine sehr intensive Diskussion über den wissenschaftlichen Fortschritt an. Da die Argumentation des Buches leicht verständlich ist und Kuhn seine Thesen an vielen historischen Beispielen belegte, kann ich Ihnen nur ans Herz legen, dieses außergewöhnliche Buch zu lesen.
Warum Kuhn’s Thesen so herausfordernd waren, liegt in ihren Konsequenzen. Aufgrund seiner historischen Untersuchungen glaubte Kuhn, belegen zu können, dass die wissenschaftliche Tätigkeit nicht so rational ist, wie Popper sie darstellt. Damit rüttelt er an einem Grundpfeiler moderner Wissenschaftsgläubigkeit. Bisher hatte es nämlich niemand ernsthaft gewagt, an dem rationalen Charakter der Wissenschaft zu zweifeln, wie wir ihn vorher beschrieben haben. Niemand hatte bisher behauptet, dass wissenschaftlicher Fortschritt in Wirklichkeit auf irrationalem Verhalten beruht.
Wie erklärt sich aber, dass ein Wissenschaftshistoriker, der den tatsächlichen wissenschaftlichen Fortschritt des abendländischen Kulturkreises untersuchte, zu einer solchen Einschätzung kommen konnte? Warum haben bisher noch keine anderen Wissenschaftstheoretiker oder Wissenschaftler ähnliche Thesen wie Kuhn aufgestellt? Die letzte Frage ist leicht zu beantworten: kein Wissenschaftler würde zugeben, dass er sich irrational verhält; und der Wissenschaftstheoretiker unterstellt immer schon, dass Wissenschaft ein rationales Unternehmen ist, das er zu rekonstruieren versucht. Beide haben kein Interesse, die wissenschaftlichen Tätigkeiten als irrational darzustellen.
Worauf beruht nun Kuhns andere Bewertung? Kuhn unterscheidet zunächst zwischen zwei Arten von Wissenschaft: der normalen Wissenschaft und der revolutionären Wissenschaft. Beide Arten haben einen unterschiedlichen Zweck, unterliegen anderen Regeln und führen zu unterschiedlichen Ergebnissen.
So gibt es nach Kuhn Perioden in denen eine wissenschaftliche Gemeinschaft eine altehrwürdige Wissenschaftsform und sogar ein ganzes Weltbild aufgibt und zu einem anderen theoretischen Ansatz übergeht, der mit dem vorhergehenden unvereinbar ist. Diese revolutionären Umbrüche oder Prozesse werden z.B. der Kopernikanischen, Darwinschen und Einsteinschen Theorie zugeordnet. Nach Kuhn sind solche bedeutenden Entdeckungen in der Wissenschaft keine bloßen Ergänzungen des bestehenden Wissens, kein einfacher Übergang zwischen zwei Theorien, sondern sie drängen uns zu einem revolutionären Anfang. Da das Alte bei der Aufnahme des Neuen neu bewertet und geordnet werden muss, erzwingen revolutionäre Entdeckungen und Erfindungen, wie die oben genannten Theorien, eine vollständige Neuorientierung der wissenschaftlichen Tätigkeit. Obgleich diese revolutionären Entdeckungen und Erfindungen sicherlich am Aufregendsten sind, weil sie einschneidende Veränderungen bewirken, sind sie eher die Ausnahme im wissenschaftlichen Alltag.
Nach Kuhn können wir die Wissenschaft und die Entwicklung des Wissens nicht richtig verstehen, wenn wir sie nur durch jene Revolutionen betrachten, die zeitweise in ihrer Geschichte vorkommen. Sicherlich sind diese revolutionären Erfindungen und Entdeckungen umwälzend und beeindruckend. Aber sie stellen nicht die gewöhnliche wissenschaftliche Tätigkeit dar. Würden wir uns nur auf das Überprüfen von Theorien als Kennzeichen echter Wissenschaft verlassen, wie es sich Popper vorstellte, so verlieren wir aus dem Auge, was die Wissenschaftler meistens tun, und damit verkennen wir auch die charakteristischen Merkmale der wissenschaftlichen Tätigkeit.
Worin besteht aber im Allgemeinen die Tätigkeit des “gewöhnlichen” Wissenschaftlers? Wie gesagt, wir sprechen hier nicht von den seltenen Ausnahmen eines Galileis, Newtons oder Einsteins, sondern von normalen Wissenschaftlern. Was zeichnet den normalen Wissenschaftler aus? Was ist normale Wissenschaft? Um sich ein vorläufiges Bild über die normale wissenschaftliche Tätigkeit zu machen, sollten Sie auf Ihre eigenen wissenschaftlichen Erfahrungen blicken, die hier zunächst zum Verständnis der Kuhnschen Thesen völlig ausreichen. Wir werden die Tätigkeiten der normalen Wissenschaft später erneut thematisieren und konkretisieren. Welches waren Ihre ersten Erfahrungen mit dem Wissenschaftsprozess? Meistens machen sich die Mediziner im Rahmen ihrer Dissertation mit wissenschaftlichen Methoden vertraut. Dies geschieht aber nicht so, dass vom wissenschaftlichen Nachwuchs erwartet wird, dass er kritisch und konstruktiv die vorhandenen Theorien studiert. Vielmehr wird vom Nachwuchs erwartet, dass er die im Rahmen der Ausbildung erlernten Methoden und Theorien unreflektiert akzeptiert und sie fruchtbar auf ungelöste Probleme anwendet. Man wird ihm in der Regel genau mitteilen, welche Fragestellung mit welchen Mitteln beantwortet werden soll und welche Lösungsmöglichkeiten denkbar sind.
Die akzeptierte umfassende Theorie mit ihrem Hintergrundwissen werden wir mit Kuhn unter den Begriff „Paradigma“ subsumieren. Das Paradigma legt somit fest, was ungelöste Probleme sind, wie sie lösbar sind und welche Lösungen in Erwägung gezogen werden können. Im Gegensatz zu Poppers Annahmen ist der Wissenschaftler nicht frei, über seine Ansichten und Vermutungen zu entscheiden, sondern er muss sich den Regeln des Paradigmas unterwerfen. Obgleich die Zwänge durch diese Vorgaben des Paradigmas vordergründig als beklemmend erscheinen mögen, bildet es doch zugleich das Fundament der wissenschaftlichen Gemeinschaft und die Voraussetzung für eine fruchtbare Kommunikation zwischen den Wissenschaftlern, denn über diese verbindlichen Methoden und Ansichten besteht weitgehender Konsens unter den Wissenschaftlern. Das bedeutet, dass das Paradigma die Standards über die Gewinnung und Bewertung von Erkenntnissen festlegt. Natürlich findet auch schon mal eine Grundlagendiskussion über fundamentale Methoden oder Theorien statt, aber sie bleiben entweder folgenlos oder die Kontroversen über angemessene Problemstellungen und legitime Forschungsmethoden führen dazu, dass sich eine Forschergemeinschaft in verschiedene Schulen zersplittert.
Für den normalen wissenschaftlichen Alltag ist solch ein Paradigma vorteilhaft, weil man sich auf erlernte Theorien und Anschauungen als verbindlich verlassen kann. Dadurch steigt die Geschwindigkeit der Wissenszunahme in der Wissenschaft rasant an, allerdings immer nur in dem Rahmen, der durch das Paradigma festgelegt ist. Durch die normale wissenschaftliche Tätigkeit werden immer mehr Erkenntnisse über die Welt gewonnen und die Exaktheit und der Umfang der erkannten Zusammenhänge dehnen sich immer weiter aus. In diesem Sinne ist die Wissensvermehrung kumulativ.
Erfolgreiche normale Wissenschaft führt deshalb auch nur selten zur Entdeckung völlig neuer Tatsachen oder Theorien. Der Hintergrund der Erwartung und die Reglementierungen der normalen Forschung, festgelegt durch das Paradigma, lassen nämlich das Aufkommen von Neuartigkeiten nicht zu. Der normale Wissenschaftler wird sich deshalb gegen eine neue Theorie oder neue Phänomene wehren, indem er sie ignoriert oder als Störung interpretiert.
Durch die Sicherheit des Paradigmas kann sich der Wissenschaftler jetzt gezielt auf ein definiertes Problem stürzen und versuchen, es mit Scharfsinn zu lösen. Versetzen Sie sich in die Lage des Wissenschaftlers: er hat eine fest umrissene Aufgabe, er soll ein bestimmtes Problem lösen. Er hat eine gut funktionierende Ausrüstung und anerkannte Methoden, um die Lösung zu finden. Auch die Lösungsmöglichkeiten braucht er sich nicht auszudenken, sondern er kann auch hier erwarten, dass sie innerhalb eines festgelegten Rahmens zu finden sind. Der Wissenschaftler ist deshalb auch davon überzeugt, dass er das Rätsel erfolgreich lösen kann, - denn andernfalls würde er es gar nicht erst versuchen. Sollte es ihm aber wider Erwarten doch nicht gelingen, so wird er es mehr als einen Mangel seiner intellektuellen Fähigkeiten auffassen und nicht als eine Schwäche der Theorie oder des Paradigmas. In der Regel wird der normale Wissenschaftler sein Theoriengerüst nicht in Frage stellen.
Welche Rolle spielt das kritische rationale Denken im wissenschaftlichen Alltag, das bei Popper so im Vordergrund stand? Im Grunde genommen keine besonders große. Denn wenn sich die Wissenschaftler erst einmal auf eine gemeinsame wissenschaftliche Grundlage bzw. Paradigma geeinigt haben, dann verabschiedet sich die Kritik und kehrt erst in Perioden der Krise zurück, zu jenen Zeiten also, in denen die Grundlagen wieder in Gefahr sind. Eine Vorbedingung der Beschäftigung des Rätsellösens in der Normalwissenschaft scheint also zu sein, dass alle diejenigen, die in diesem Unternehmen praktizieren, sich über jene Kriterien einig sind, die für die betreffende Gruppe und für eine gewisse Zeit eindeutig festlegen, welche Rätsel von Interesse sind. Dieselben Kriterien bestimmen auch, wann es gelungen ist, ein Rätsel zu lösen. Das Paradigma verheißt somit eine begründete Lösungserwartung, es wird in Aussicht gestellt, dass das zu untersuchende Problem im Prinzip lösbar ist. Es sind praktische Gesichtspunkte wie instrumentelle, personelle und finanzielle Ressourcen, die entscheiden, ob aus der Lösungserwartung eine tatsächliche Lösung wird.
Obgleich das Versagen, das Rätsel lösen zu können, in erster Linie dem Forscher zugesprochen wird, kann der Forscher natürlich auch der Ansicht sein, dass das Versagen tatsächlich ein Versagen der Theorie selber ist. Allerdings ist zu erwarten, dass sich andere Forscher dieser Meinung erst anschließen, wenn das Versagen allzu groß wird und selbst die besten Fachleute das Rätsel nicht zu lösen vermögen. Dann kommt es zu einer Krise und die “öffentliche” Meinung ändert sich bezüglich der Theorie. Das Versagen, dass früher nur als persönliches Versagen galt, wird jetzt plötzlich als ein Versagen der überprüften Theorie angesehen. Die normale Wissenschaft geht jetzt zur außerordentlichen Forschung über. Die Forscher bringen ihre Unzufriedenheit mit dem gegenwärtigen Status ihrer Theorie offen zum Ausdruck und regen dadurch eine erneute Grundlagendiskussion an.
Wie entsteht aber eine neue Theorie bzw. ein neues Paradigma. Das neue Paradigma bildet sich nicht ganz allmählich durch mühevolle, kritische Zusammenarbeit einiger Gelehrter heraus, die durch rationale Argumente das neue Paradigma heraus präparieren, sondern es erscheint urplötzlich, manchmal “mitten in der Nacht” im Geist eines Menschen, der tief in eine Krise verstrickt ist, wobei der Begriff der Krise voraussetzt, dass bei den betreffenden Wissenschaftlern vorher Einmütigkeit über das Paradigma herrschte. Anomalien gibt es nur in Bezug von wohl verankerten Erwartungen an die potentielle Lösung der Rätsel. Es gibt nach Kuhn keine grundlegende theoretische Neuerung in den Naturwissenschaften, der nicht die klare Erkenntnis - oft im größten Teil der Fachwelt - vorausgegangen wäre, dass mit der herrschenden Theorie etwas nicht in Ordnung sei. Eine Krise ist zwar nur ein Weg zur Entdeckung, aber für grundlegende Erfindungen von Theorien ist sie unerlässlich. Dabei geht die alte Theorie nicht einfach in eine neue Theorie über, indem die alte Theorie von der neuen sublimiert wird, sondern der Paradigmenwechsel geht wie ein Gestaltenwandel vor sich - plötzlich und unvermittelt.
Das alte und das neue Paradigma sind miteinander unvergleichbar, sie sind inkommensurabel. Die Wahl zwischen Paradigmata ist die Wahl zwischen verschiedenen Lebensweisen. Man muss sich für die eine oder für die andere entscheiden. Dieser Sachverhalt wird häufig dadurch verschleiert, dass die neue Theorie die gleichen Ausdrücke enthält wie die alte und man so den Eindruck gewinnt, als wenn die beiden Theorien doch irgendwie vergleichbar sind. Bei genauerer Betrachtung kann z.B. die Newtonsche Mechanik nicht als Grenzfall der relativistischen Mechanik angesehen werden, weil die Begriffe des Raumes, der Zeit, der Masse, der Energie usw. in der Relativitätstheorie etwas ganz anderes bedeuten als in der Mechanik von Newton. In der klassischen Mechanik gibt es kein Analogon zu der Einsteinschen Formel “e=m*c2", die Masse mit Energie verknüpft. Beim Übergang vom alten zum neuen Paradigma handelt es sich zugleich um eine Veränderung in der Bedeutung der verwendeten Begriffe, so dass dieser Übergang zwischen den Theorien weder durch Logik noch durch Erfahrungen argumentativ erzwungen werden kann.
Der Übergang von einem Paradigma zum anderen erfolgt stets schlagartig oder überhaupt nicht, es ist kein rationaler Vorgang. Die Wissenschaftler, denen der Sprung in ein neues Paradigma glückte, berichteten nach Kuhn über Erlebnisse, die die Psychologen einen Gestaltwandel nennen. - Es fiel den Wissenschaftlern plötzlich wie Schuppen von den Augen. Nach einem Paradigmenwechsel ist es fast so, als ob die Wissenschaftler auf einen neuen Planeten versetzt werden, wo sie die vertrauten Gegenstände in einem völlig neuen Licht sehen und vorher unbekannte Gegenstände entdecken.
Ein Beispiel Kuhns mag dies erläutern: Wenn jemand einen schweren Gegenstand an einer Schnur befestigt und diesen hin und her schwingt, dann wird dieser Körper nach einer gewissen Zeit zum Stillstand kommen. Aristoteles glaubte, diese Beobachtung folgendermaßen erklären zu können: ein schwerer Körper werde aus sich heraus von einer höheren Lage in einen Zustand der natürlichen Ruhe bewegt, in eine niedrigere Lage. Der schwingende Körper war nichts anderes als ein mit Behinderungen fallender Körper. Er wurde von der Schnur gehalten und konnte erst nach einer beträchtlichen Zeitspanne am niedrigsten Punkt zur Ruhe kommen.
Galilei sah beim Anblick des schwingenden Körpers dagegen ein Pendel, dem es fast gelang, die gleiche Bewegung immer wieder ad infinitum auszuführen. Aufgrund dieser neuen Betrachtungsweise und der hervorragenden mathematischen Ausbildung Galileis entwickelte er eine neue Dynamik. Aus ihr leitete er seine Argumente ab für die Unabhängigkeit von Gewicht und Fallgeschwindigkeit sowie für den Zusammenhang zwischen senkrechter Höhe und Endgeschwindigkeit der Bewegungen auf schiefen Ebenen. Alle diese Naturerscheinungen sah Galilei in einem anderen Licht als Aristoteles, obwohl die Wahrnehmungen die gleichen waren. Obgleich sich die Gegenstände bzw. der Versuchsaufbau nach einem Paradigmenwechsel nicht geändert haben, scheinen die Wissenschaftler doch in verschiedenen Welten zu leben.
Auch bei der Verbreitung der neuen Lehre scheinen irrationale Faktoren zu überwiegen. Die Entscheidungen zwischen den konkurrierenden Theorien erfolgt nämlich nicht durch ein experimentum crucis oder sonstige Beweise á la Popper, sondern diejenigen, welche das neue Paradigma annehmen, taten dies aufgrund von Bekehrungserlebnissen. Deshalb beruht die Verbreitung des neuen Paradigmas auch primär auf dem Bemühen, andere zu bekehren. Die geeigneten Mittel dafür sind nicht rationale Argumente, sondern Überredung und Propaganda.
Der Versuch zwischen Anhängern verschiedener Paradigmen eine rationale Diskussion zu versuchen, scheitert daran, dass es an begrifflicher Klarheit und logischer Exaktheit der Argumentation fehlt. Die Teilnehmer reden entweder aneinander vorbei oder verwenden eine zirkuläre Argumentation, in dem jeder der Wissenschaftler den Nachweis zu erbringen versucht, dass lediglich sein Paradigma den Kriterien genüge, während das Paradigma des anderen dagegen verstößt. Es gibt letztlich bei der Wahl des Paradigmas keine andere Rechtfertigung als die Billigung durch die jeweilige Glaubensgemeinschaft.
Es überrascht deshalb auch nicht, dass die Erfinder neuer Paradigmen meist junge Leute sind, die sich bemühen, das neue Paradigma mit einem quasi-religiösen Eifer zu verbreiten. Die ältere Generation als Anhänger des alten Paradigmas stellt ihnen einen meist nicht unerheblichen Widerstand entgegen, weil sie aufgrund ihrer größeren Kenntnisse und umfangreicheren Erfahrungen das Ausmaß der Schwierigkeiten, mit denen die neue Theorie konfrontiert ist, viel deutlicher erkennen als die sich für das Neue begeisternden jungen Wissenschaftler. Es ist nicht nur altersbedingte Starrheit oder die konservative Bequemlichkeit der älteren Wissenschaftler, die gegen das neue Paradigma sprechen, sondern es gibt meistens gute Gründe, die neue Theorie nicht zu übernehmen. Denn die Schwierigkeiten, die sich für eine neue Theorie auftürmen, sind zu Beginn immer noch sehr viel größer als die Vorteile. Damit steht die größere Rationalität nicht auf der Seite der Verfechter des neuen Paradigmas, sondern auf der Seite der Verteidiger des alten. Meistens ist die neue Theorie auch noch mit neuen, andersartigen, vorher unbekannten Problemen konfrontiert.
Wenn sich aber die älteren Gelehrten, und das sind meistens diejenigen, die über die Verteilung von Ressourcen entscheiden, gegen das neue Paradigma stellen, wodurch wird dieser Widerstand gebrochen? Die Antwort ist biologischer Natur: Neue wissenschaftliche Erkenntnisse pflegen sich nicht in der Weise durchzusetzen, dass die Gegner überzeugt werden, sondern dadurch, dass die Gegner allmählich aussterben bzw. emeritieren.
Fassen wir noch einmal zusammen: Normale Wissenschaftler verrichten ihre Tätigkeit im Rahmen einer bestimmten wissenschaftlichen Tradition, die hier als Paradigma bezeichnet wurde. Bei der außerordentlichen Forschung handelt es sich um ein traditionszerstörendes Ergänzen zu dieser ersten Form der Wissenschaft. Nach Kuhn kann es keine Logik der Forschung, sondern nur eine Psychologie der Forschung geben. Die durch Anomalien auftauchende “Krise” ist ein psychologischer Begriff, sie ist geradezu eine ansteckende Panik. Es gibt eigentlich keinen rationalen Grund für das Auftreten solch einer “Krise”. Wissenschaftler könnten mit den Anomalien auch durch zusätzliche Theorienerweiterungen fertig werden, wie wir später an einem Beispiel von Lakatos sehen werden.
Wenn aber ein neues Paradigma auftaucht, das inkommensurabel, unvergleichbar, mit seinem Vorgänger ist, lässt sich nicht rational entscheiden, ob es “besser” ist. Da jedes Paradigma seine eigenen Maßstäbe enthält, sind die Theorien nicht vergleichbar. Außerdem enthält das neue Paradigma meistens auch eine ihm eigene Rationalität. Da es keine über-paradigmatischen Maßstäbe gibt, ist der Wandel von einer Theorie zur anderen nur eine Sache der Mode und nicht der rationalen Argumente. Die wissenschaftliche Revolution ist demnach irrational, sie ist genaugenommen eine Massenpsychose der Wissenschaftler. Der Wissenschaftler handelt nach Kuhn entweder als bornierter Dogmatiker oder als irrationaler Revolutionär. Die Prinzipien des kritischen Rationalismus scheinen Fiktion zu sein.
{/jkefel} {jkefel title=[Kap. 3]}
3. Vom Irrationalismus zur Anarchie
3.1 Lehre aus der Wissenschaftsgeschichte
3.2 Bedeutung der Ausbildung
3.3 Funktion des Paradigmas
3.4 Der Beginn einer Krise
3.5 Überwindung der Krise
3.6 Anarchistische Erkenntnistheorie
3.7 Die Kopernikanische Wende
3.8 Beobachtung und Theorie
3.9 Anything goes
3.10 Pluralismus statt Monismus
Den letzten Abschnitt beendeten wir mit der Feststellung, dass der Wissenschaftler entweder als bornierter Dogmatiker oder als irrationaler Revolutionär handelt. Der Wandel von einer Theorie zur anderen bzw. der wissenschaftliche Fortschritt scheint lediglich eine Sache der Mode und Bekehrung und nicht rationaler Argumente zu sein. Diese Feststellung ist für einen Wissenschaftsgläubigen sicherlich nicht akzeptabel. Außerdem widerspricht dieses Urteil unserer bewundernden Einstellung gegenüber wissenschaftlichen Erkenntnissen, denn wir zollen der Wissenschaft doch deshalb so viel Hochachtung, weil sie streng rational vorzugehen scheint. Wäre es nicht denkbar, dass Kuhn sich in seiner Analyse der wissenschaftlichen Tätigkeiten täuschte und ihm ein fundamentaler Fehler in der Interpretation wissenschaftlicher Tätigkeiten unterlaufen ist? Um dieser Frage nachzugehen, werden wir uns noch einmal mit Kuhn‘s Thesen auseinander setzen. Sie werden dann wahrscheinlich eher geneigt sein, sich vom kritischen Rationalismus zu verabschieden und sich nach einer akzeptableren Konzeption umzuschauen.
3.1 Lehre aus der Wissenschaftsgeschichte
Bevor wir zu Kuhn‘s Thesen zurückkehren, wäre es sicherlich interessant zu erfahren, warum bisher noch kein anderer Wissenschaftler oder Wissenschaftstheoretiker zu ähnlichen Erkenntnissen gelangte? Warum sind die Erkenntnisse aus der Wissenschaftsgeschichte für uns so überraschend? Der Grund liegt nach Kuhn darin, dass die Wissenschaftsgeschichte bis in die jüngste Vergangenheit immer nur als Nebenprodukt eines Fachbereiches gesehen wurde. Sie wurde in der Regel von einem Spezialisten geschrieben, der zwar selbst auf dem betreffenden Gebiet tätig war, für den aber die Geschichte des eigenen Fachbereiches nur ein Nebenprodukt seiner Lehrtätigkeit ist. Er erblickte in der geschichtlichen Darstellung seines Faches lediglich ein Mittel, um die gegenwärtig akzeptierten Begriffe zu verdeutlichen und die Tradition der wissenschaftlichen Disziplinen festzulegen.
Das Ziel dieser älteren Darstellungen der Wissenschaftsgeschichte, die sich häufig am Anfang der einschlägigen Lehrbücher finden, war nicht die Klärung und Vertiefung des Verständnisses der damaligen Ansichten und Methoden, sondern sie bestand in der Erläuterung der eigenen zeitgenössischen wissenschaftlichen Methoden und Begriffe. Man versuchte, die eigene gegenwärtige Begrifflichkeit in ihrer historischen Entwicklung darzustellen. So wurden die alten Methoden immer im Lichte der neuen Methoden gesehen. Sie erschienen deshalb als minderwertig, als überholt, als Entwicklung einer Reihe wissenschaftlicher Erkenntnisse bis zum Höhepunkt der Erkenntnisse in der Gegenwart.
Wenn wir aber versuchen, die Dynamik des Aristoteles oder die Phlogistonchemie in ihrem historischen Rahmen angemessen zu beurteilen, dann sind die damals gültigen Anschauungen nicht weniger wissenschaftlich als die heutigen. Wollten wir die alten Theorien als Mythen abwerten, dann sollten wir uns auch mit dem Gedanken vertraut machen, dass die von uns gegenwärtig so hoch angesehenen Theorien, wie die Relativitätstheorie oder Quantenmechanik, bald zum Mythos werden könnten. Wir sollten die intellektuellen Leistungen unserer Vorgänger eher mit Hochachtung begegnen, statt sie als minderwertig oder unsinnig zu begreifen.
Diese historisch gesehen inadäquate Betrachtungsweise alter Methoden oder Theorien führte am Ende dazu, dass die Entwicklung der Wissenschaft wie ein kontinuierlicher Vormarsch des Geistes angesehen wurde, als fortschreitende Entschleierung der Naturgeheimnisse durch geschickt angesetzte vernünftige Methoden, zum Beispiel durch die Falsifikation. Diese irrigen historischen Ansichten über die Bedeutung älterer wissenschaftlicher Theorien sind ein Grund dafür, dass unsere Erkenntniszunahme als kumulativer Prozess aufgefasst wird. Nach Kuhn handelt es sich aber bei der Auffassung des rationalen Fortschritts der Wissenschaft lediglich um ein Märchen.
Er fand in seinen historischen Analysen keinen einzigen Prozess, der auch nur die geringste Ähnlichkeit mit der Falsifikationsschablone des kritischen Rationalismus aufwies. Nach Kuhn waren es dagegen ganz andere Mechanismen und Strukturen, die den wissenschaftlichen Fortschritt der letzten Jahrhunderte kennzeichnen.
3.2 Bedeutung der Ausbildung
Wir haben gesehen, dass der normale Wissenschaftler auf seinem Paradigma vertraut, es nicht in Frage stellt und sich hier als bornierter Dogmatiker erweist. Wodurch wird man aber zum bornierten Dogmatiker: Der erste Schritt ist sicherlich die Ausbildung bzw. das Studium. Betrachten Sie dazu Ihre eigene Ausbildung. Sie beginnt nach der Erlangung der Hochschulreife. Sie sind Student und besuchen regelmäßig Vorlesungen, Seminare und Kolloquien. In diesen Lehrveranstaltungen werden Sie nur selten mit kritischer wissenschaftlicher Primärliteratur belastet, sondern Sie lernen nach anerkannten Lehrbüchern, die das Lehrmaterial sorgfältig aufgearbeitet haben. Es sind speziell für Studenten geschriebene Lehrbücher, die die Anforderungen der jeweiligen Ausbildungsrichtlinien erfüllen. Dadurch treten die Studenten nur mit denjenigen wissenschaftlichen Errungenschaften in Kontakt, die von der wissenschaftlichen Gemeinschaft allgemein akzeptiert wurden.
Insbesondere bei den Lehrübungen wird darauf Wert gelegt, dass der Student mit den gängigen Theorien und Modellen vertraut gemacht wird, damit er in Zukunft auch einige Probleme selbständig lösen kann - in theoretischer und experimenteller Hinsicht. Bei der Darstellung der Lehrinhalte wird nur selten die Originalliteratur zitiert oder historische Analysen der Wissenschaftsentwicklung vorgestellt, sondern es wird mehr Wert darauf gelegt, das Lehrmaterial didaktisch einwandfrei den Studenten zu präsentieren. In den Lehrbüchern werden in der Regel weder die Vielfalt ungelöster Probleme noch alternative Lösungsverfahren beschrieben, - natürlich nur um den Studenten nicht zu verwirren. Die Anforderung, die der Student an seine Ausbildung stellt, ist primär darauf ausgerichtet, dass er über alle relevanten Inhalte seines Fachgebietes informiert wird, dass er mit den allgemein akzeptierten Theorien vertraut gemacht wird und ihm so das Rüstzeug mitgegeben wird, in Zukunft selbst im Wissenschaftsprozess erfolgreich mitzuarbeiten.
Da dieses allen Studenten in derselben Weise widerfährt und sie alle nach denselben Richtlinien ausgebildet werden, sie alle dasselbe Hintergrundwissen erhalten und es keinen Anlass gibt, den Lehrinhalten zu misstrauen, werden nur selten kritische Gedanken gegenüber dem Fundament der einzelnen Wissenschaften geäußert, - und wenn es doch geschieht, dann meistens aus Übungsgründen.
Am Ende Ihrer Ausbildung werden Sie eine Prüfung ablegen, mit der Sie dokumentieren können, dass Sie die Grundlagen Ihres Studiums hinreichend verstanden haben, um sich nun weiteren Problemstellungen bzw. der Heilung von Patienten zu widmen. Da die meisten von Ihnen aber auch eine Doktorarbeit schreiben werden, werden Sie irgendwann vielleicht doch mit einer wissenschaftlichen Fragestellung konfrontiert, die Sie mit den erworbenen Mitteln und Kenntnissen beantworten sollen. Sie werden dann in einem Kurzlehrgang mit den für Ihre Belange relevanten Methoden vertraut gemacht. Möglicherweise wird Ihnen auch eine Theorie vorgestellt und mitgeteilt, dass es noch einige wichtige Details der Theorie gibt, die noch nicht hinreichend evaluiert wurden. Es wird Ihnen möglicherweise auch angeboten, sich an einem umfangreichen Forschungsprojekt zu beteiligen, das sich mit diesen Fragen auseinandersetzt.
Welche Konsequenzen hat solch eine unkritische Ausbildung? Warum werden Studenten systematisch zu bornierten Dogmatikern erzogen, die lediglich wiederkäuen, was ihnen die Professoren erzählen? Warum wird von den Studenten erwartet, dass sie ihren kritischen Verstand am Universitätseingang abgeben? Ein wichtiger Grund für diese Art der Ausbildung liegt darin, dass wir so dem Studenten einen raschen Zugang zur wissenschaftlichen Welt verschaffen, wie sie zur Zeit von der wissenschaftlichen Gemeinschaft als Konsens angesehen wird. Das erlernte Wissen wird den Nachwuchs in die Lage versetzen, auf dem Boden der erlernten Theorien und Modelle als Wissenschaftler tätig zu werden. Die Ausbildung ist effizient, weil zugleich Problemlösungsstrategien gelehrt werden, die es dem Nachwuchswissenschaftler erlauben, in analoger Form ähnliche Probleme zu lösen. Letztlich ist die Ausbildung geprägt von der Autorität des erlernten Wissens und einem so genannten konvergenten Denkstil. Beide ermöglichen es dem Studenten, rasch in die Gemeinschaft der wissenschaftlichen Gruppe aufgenommen zu werden und als Mitglied dieser Gruppe erfolgreich zu arbeiten.
Die Nachteile dieser Ausbildungsform liegen auf der Hand. Erstens erhält der Student eine unangemessene Sichtweise über die historischen Errungenschaften. Zweitens erhält der Student keinen Überblick über die gegenwärtige Forschungssituation der Disziplin. Drittens wird durch die gemeinsame Ausbildung ein einheitlicher Denkstil kultiviert und fruchtbare alternative weitgehend eliminiert. Der Student lernt keine kritische Evaluation alternativer und historischer Denkweisen kennen. Er glaubt, dass sich die wissenschaftliche Entwicklung zur gegenwärtig akzeptierten Theorie entwickeln musste.
Auch wenn diese kurze Darstellung sehr vereinfacht wurde, enthält sie doch alle relevanten Faktoren, die für die weitere Untersuchung benötigt werden. Beginnen wir mit uns Hochschullehrern. Wir sind Bestandteil einer wissenschaftlichen Gemeinschaft, die glaubt zu wissen, wie ein bestimmter Ausschnitt der Welt beschaffen ist. Wir bilden Sie in Übereinstimmung mit der gängigen Lehrmeinung aus, z.B. nach den allgemein akzeptierten Theorien der Schulmedizin. Der Pharmakologe glaubt zu wissen, wie die Medikamente im Körper wirken und welchen Gesetzmäßigkeiten sie unterliegen. Der Physiker verfügt über verschiedene Theorien, die als Naturgesetze beschreiben, wie sich physikalische Gegenstände verhalten. Kurzum, die wissenschaftliche Gemeinschaft (Chemiker, Physiker, Biologen, Soziologen usw.) verfügen über akzeptierte Theorien, die sie Ihnen beibringen und an deren Gültigkeit Sie jetzt ebenfalls glauben.
Diese allgemein akzeptierten Theorien, die sowohl das Hintergrundwissen als auch alle methodischen Vorgaben für ihre wissenschaftliche Tätigkeit enthalten, haben wir ein Paradigma genannt. Mit den obigen Ausführungen wurde hoffentlich deutlicher, auf welche Weise das Paradigma bereits bei jungen Leuten den Rahmen absteckt, in dem Sie sich als Wissenschaftler zu bewegen haben.
3.3 Funktion des Paradigmas
Welche Bedeutung hat das Paradigma auf unsere wissenschaftliche Tätigkeit? Was heißt es, einen Rahmen für unser Tun abzustecken? Kuhn behauptet, dass wir dann, wenn wir ein Paradigma akzeptieren, die Welt durch eine spezielle Brille sehen. Wie uns die Welt erscheint, wird durch das Paradigma vorgegeben. Dabei handelt es sich nicht um die berühmte “rosarote Brille”, sondern wir interpretieren die Erscheinungen in unserer Welt in einer bestimmten Hinsicht. Und diese wird durch das Paradigma vorgegeben. Wie dieses funktioniert, werden wir später noch eingehend erläutern.
Für die normale Wissenschaft ist das Paradigma eine notwendige Bedingung, denn das Paradigma definiert, was als akzeptierte Theorie und Methode angesehen wird. Die Aufgabe der normalen Wissenschaft besteht dann darin, das vom Paradigma festgelegte Verständnis unserer Welt weiter zu konkretisieren. Die Welt soll durch die Verfeinerung der Theorie noch besser verständlich und erklärbar werden. In Analogie zur Poppers Paraphrase des Netzes, das wir auswerfen sollen, um die Realität einzufangen, könnten wir jetzt sagen, dass wir versuchen sollen, die Maschen des Netzes immer weiter einzuengen. Dabei soll die zunehmende detaillierte Beschreibung der Welt einerseits ein Höchstmaß an innerer Kohärenz mit dem Paradigma aufweisen und andererseits mit der Realität übereinstimmen.
Die normale Wissenschaft löst diese Anforderungen nach Kuhn dadurch, dass sie Rätsel löst, die durch das Paradigma bzw. die Theorie vorgegeben werden. Es ist nicht “das Ziel der normalen Wissenschaft, neue Phänomene zu finden; und tatsächlich werden die nicht in die Schublade hineinpassenden oft überhaupt nicht gesehen. Normalerweise erheben die Wissenschaftler auch nicht den Anspruch, neue Theorien zu erfinden, und oft genug sind sie intolerant gegenüber den von anderen gefundenen.” Die normale Wissenschaft strebt nicht nach neuen Theorien. Wenn sie erfolgreich durchgeführt wird, kann sie auch keine finden, weil das Neue sich meistens einer unüberwindbaren Erwartungshaltung gegenüber sieht. Das Neue kann sich nicht durchsetzen gegen die Macht des Paradigmas.
Nachdem sich ein Paradigma durchgesetzt hat und seine Überlegenheit gegenüber anderen Paradigmen erfolgverheißend ist, wird der Gegenstandsbereich des Wissenschaftlers eingeschränkt. Er muss jetzt nicht mehr ungezielt nach neuen Erscheinungen suchen oder sich Theorien ausdenken, sondern er kann das Paradigma mit seinem Hintergrundwissen und Methoden dazu einsetzen, sich auf bestimmte, noch ungelöste Probleme zu konzentrieren. Er vertraut auf die Richtigkeit des Paradigmas, dass letztlich sein Arbeitsinstrument ist, und macht es sich zur Aufgabe, ein Teilgebiet der Natur mit einer Genauigkeit und Tiefe zu untersuchen, die ohne ein Paradigma unvorstellbar wäre. Solange er dem Paradigma vertraut, versucht der normale Wissenschaftler lediglich noch offene Rätsel zu lösen, die wiederum zu einer Verfeinerung und zu einer verbreiteteren Anwendung des Paradigmas führen.
Wie können wir uns das konkret vorstellen? Nach Kuhn gibt es im Wesentlichen drei Klassen von Tätigkeiten in der normalen Wissenschaft. Erstens ist es für eine Theorie sehr wichtig, dass die Fakten, die von der Theorie erklärt werden, exakt beschrieben werden. Auf diese Weise kann die Theorie in ihren Auswirkungen besser eingeschätzt werden, sie ist quantitativ besser überprüfbar und erlaubt genauere Vorhersagen. So werden die Position der Sterne und ihre Größe, die spezifischen Gewichte verschiedener Stoffe, ihre elektrische Leitfähigkeit, ihre Siedepunkte und ihre optische Aktivität so genau wie möglich bestimmt, indem neue Instrumente entwickelt und gebaut werden.
Zweitens sollen die Vorhersagen der Theorie mit der Erfahrung verglichen werden. Auf diese Weise wird überprüft werden, ob die Theorie tatsächlich für Prognosen nutzbar gemacht werden kann. Da quantitative Theorien aber nur schwer mit einzelnen Messungen vergleichbar sind, weil die vorhergesagten Ergebnisse immer bis zu einem gewissen Grad von den gemessenen Ergebnissen differieren, ist es erforderlich, sehr exakte Messinstrumente zu konstruieren, um die Theorie im Experiment effektiv zu überprüfen.
Drittens arbeiten die normalen Wissenschaftler auch daran, die Theorie in allen ihren Facetten zu betrachten. Sie hoffen, dass die Theorie dabei auch auf Teile der Natur angewendet werden kann, auf die sie primär gar nicht ausgerichtet war. Auf diese Weise werden neue Naturkonstanten oder andere empirische Gesetzmäßigkeiten entdeckt. Die Aufgabe des normalen Wissenschaftlers besteht also darin, die Welt ordnend zu erfassen und die Genauigkeit und den Umfang dieser Ordnung zu erhöhen. Da sich der Wissenschaftler durch das Paradigma abgesichert fühlt, kann er sich auf geeignete Probleme konzentrieren und mit seinem gesamten Scharfsinn an ihrer Lösung arbeiten.
Andere Probleme, solche, die nicht durch das Paradigma nahegelegt werden, oder sogar solche, die früher einmal wissenschaftlich untersucht wurden, werden als metaphysische Probleme abgelehnt, als Hirngespinste oder als solche, die nicht für so wichtig gehalten werden, als dass man seine Zeit und Ressourcen darauf verschwenden solle.
Die normale Wissenschaft ist geprägt von Reglementierungen durch das Paradigma, die sowohl den Lösungsweg als auch die Zulässigkeit von Lösungen einschränken. Der Forscher muss sich an bestimmte Theorien, Gesetze und Definitionen halten, er muss Apparate und Instrumente in einer bestimmten Weise einsetzen, und er muss sich an die Erklärungsschemata von Experimenten halten. Diese Reglementierungen sind Teil der so genannten disziplinären Matrix, die eine gemeinsame Verpflichtung aller Mitglieder der betreffenden wissenschaftlichen Gemeinschaft ist.
Jede normale Forschung stützt sich nachdrücklich auf eine stabile Übereinstimmung der Auffassungen, die mit der wissenschaftlichen Ausbildung erworben und in dem nachfolgenden Berufsleben verstärkt werden. Das Verfügen über diese disziplinäre Matrix schweißt die Forscher zusammen und bildet aus einer Gruppe eine stabile wissenschaftliche Gemeinschaft.
Die Gemeinschaft zeichnet sich durch einige Gemeinsamkeiten aus: ihre Ausbildung, ihre enge Kommunikation untereinander, ihre gemeinsamen Ziele, ihre Lehrmeinungen. Solche Gemeinschaften stabilisieren sich durch intensive Kommunikation innerhalb der Gruppe und verhältnismäßig einmütige Urteile in Fachfragen. Die Mitglieder der Gemeinschaft haben in der Regel die gleiche Literatur gelesen und die gleichen Lehren aus ihr gezogen. Der Stabilisierung nach Innen entspricht zugleich einer Abgrenzung nach außen, so dass die fachliche Kommunikation über Gruppengrenzen hinweg schwierig ist und oft zu Missverständnissen führt.
3.4 Der Beginn einer Krise
Jedes anspruchsvolle Forschungsproblem stellt den Wissenschaftler irgendwann vor Ungereimtheiten, deren Quellen er nicht immer genau ausmachen kann. In der wissenschaftlichen Praxis stimmen Theorien und Beobachtungen nie völlig überein und aufeinander folgende Beobachtungen führen selten zum gleichen Ergebnis, meistens finden sich kleinere Abweichungen. Die Experimente haben außerdem sowohl theoretische als phänomenologische Nebenprodukte, deren Analyse zusätzliche Forschungsvorhaben erfordern würde. Jede dieser Ungereimtheiten oder der unvollständig erklärbaren Erscheinungen könnte der Ausgangspunkt einer grundlegenden Neuerung in der wissenschaftlichen Theorie oder Methode sein. Doch wer innehalten möchte, um sie eine nach der anderen zu untersuchen, der würde schon mit seinem ersten Forschungsvorhaben nie zu Ende kommen.
Die Wahrnehmung einer Anomalie kennzeichnet möglicherweise den Beginn einer Entdeckung, aber eben nur den Beginn. Wenn überhaupt etwas entdeckt werden soll, dann muss notwendigerweise eine kürzere oder längere Periode folgen, in der sich der Einzelne und oft eine größere Anzahl von Mitgliedern seiner Gruppe um die theoretische Einordnung der Anomalie bemühen. In dieser Periode sind stets weitere Beobachtungen oder Experimente wie auch vielfaches Nachdenken nötig; die Wissenschaftler ändern mehrfach ihre Erwartungen, gewöhnlich auch ihre Anforderungen an die Instrumente, und manchmal auch ihre grundlegenden Theorien. Dass eine unerwartete Entdeckung erst anfängt, wenn etwas nicht stimmt, bedeutet, dass sie erst anfängt, wenn die Wissenschaftler ihre Apparate wie auch das theoretisch fundierte Verhalten der Natur gut kennen. In diesem Sinne haben Entdeckungen durchaus eine innere Geschichte, wie auch eine Vor- und eine Nachgeschichte.
In jeder Wissenschaft gibt es Rätsel bzw. Ungereimtheiten, d.h. es treten Ereignisse ein, die nicht eintreten sollten, oder prognostizierte Ereignisse treten nicht ein. Es gibt immer Diskrepanzen zwischen der Theorie und den Beobachtungen, wobei sich die meisten doch beseitigen lassen. Ungelöste Rätsel können sich aber ihrer Zahl und Bedeutung nach verstärken, um schließlich das Gewicht von relevanten Anomalien zu bekommen. Als relevante Anomalie wird ein Problem angesehen, das von den Wissenschaftlern sowohl aus theoretischen als auch praktischen Gründen für sehr wichtig gehalten wird, aber sich allen Lösungsversuchen widersetzt. Wenn sich solche Anomalien zu häufen beginnen, gerät die normale Wissenschaft in eine Krise, wobei damit zunächst nur die psychische Verfassung der einzelnen Forschergruppen gemeint ist. Widersetzen sich die Anomalien einer befriedigenden Lösung, dann entspringen Gefühle der Unsicherheit und Beunruhigung, die sich unter den Fachleuten verbreiten und vertiefen. Sie haben dann das Vertrauen in die alte Theorie verloren und beginnen Alternativen auszuprobieren.
3.5 Überwindung der Krise
Selbst wenn die Wissenschaftler ihren Glauben an das Paradigma verlieren, werden sie es nicht einfach verwerfen. Es gibt keine Forschung ohne Paradigma. Nach Kuhn’s historischen Studien der wissenschaftlichen Entwicklung hat es bisher keinen Prozess gegeben, der irgendeine Ähnlichkeit mit der methodologischen Schablone der Falsifikation durch unmittelbaren Vergleich mit der Natur hatte. Wenn eine Theorie abgelehnt wurde, dann niemals durch den Vergleich der Theorie mit der Natur, sondern nur mit der Natur und gleichzeitig einer anderen alternativen Theorie. Man vergleicht nicht direkt eine Theorie mit der Natur und entscheidet dann, die Theorie nicht zu verwerfen, sondern man vergleicht mehrere Theorien mit der Natur und entscheidet dann, welche Theorie eher mit der Natur übereinstimmt.
Wie können wir aber verschiedene Theorien oder Paradigmen vergleichen? Gibt es eine rationale Entscheidung zwischen den Alternativen? Kuhn spricht in seinen Abhandlungen nur selten von exakten Experimenten, neutralen Beobachtungen, induktiven Verallgemeinerungen, strengen Prüfungen, empirischen Bestätigungen, Bewährung an der Erfahrung oder Überzeugung durch bessere Argumente - wie wir es erwarten würden, wenn Wissenschaft ein rationaler Prozess ist. Vielmehr verwendet Kuhn Begriffe, die gut geeignet sind, um religiöse Umwälzungen zu beschreiben. Er spricht von Bekehrungserlebnissen, von dem Glauben an etwas, von Inkommensurabilität, von Überredung, Propaganda und Tod. Sind dies lediglich die phantasievollen Gedankengänge eines Historikers, oder hat sich der wissenschaftliche Fortschritt tatsächlich so irrational abgespielt. Warum wurden nicht die einleuchtenden Prinzipien des kritischen Rationalismus eingehalten?
Nach Popper besteht das schöpferische Denken in der Wissenschaft doch darin, dass wir Theorien erfinden und sie dann auf die Probe stellen. Wir versuchen dabei nicht, die Theorie zu beweisen, sondern wir versuchen, sie zu widerlegen. Gehen wir im wissenschaftlichen Alltag aber tatsächlich so vor, wie Popper es beschrieb?
Der Widerspruch zwischen der zu testenden Theorie und der tatsächlichen Erfahrung, der für die Falsifikation verantwortlich ist, schlägt nach Kuhn gerade nicht auf die Theorie, sondern auf den normalen Wissenschaftler zurück, der diese Theorie benutzt. Wenn der Forscher dafür, dass seine Hypothese mit der Empirie nicht in Einklang zu bringen ist, die ihr zugrunde liegende Theorie verantwortlich macht, dann verhält er sich “wie ein schlechter Zimmermann, der seinem Werkzeug die Schuld für das Versagen gibt”. Falsifizierende Erfahrungen diskreditieren immer nur die Geschicklichkeit des Wissenschaftlers, mit den durch “widerspenstige Erfahrungen” erzeugten Schwierigkeiten fertig zu werden. Falsifizierende Beobachtungen sind Ausdruck der Unfähigkeit des Wissenschaftlers und nicht der Theorie.
Die Preisgabe einer Theorie könnte sich in den Zeiten der normalen Wissenschaft nur in einem Berufswechsel des Wissenschaftlers äußern. Er wäre dann eben zu ungeschickt, um die Theorie adäquat anzuwenden und das Rätsel zu lösen. Fassen wir zusammen: Bei Kuhn ist die Normalwissenschaft, die keine echte Überprüfung von Theorien kennt, die eigentliche Wissenschaft; die außergewöhnliche Wissenschaft dagegen, in der ein echtes Überprüfen von Theorien vorkommt, ist anormal. Damit scheinen Kuhn und Popper über verschiedene Tätigkeiten zu sprechen und diese unterschiedlich zu bewerten.
Wie ist es möglich, dass der Wissenschaftstheoretiker, der die Wissenschaft als rationales Unternehmen zu rekonstruieren trachtet, und der Wissenschaftshistoriker, der beschreibt, wie wissenschaftlicher Fortschritt tatsächlich vor sich ging, zu vollständig unterschiedlichen Resultaten gelangen? Für Popper ist die wissenschaftliche Tätigkeit schließlich ein rationaler Prozess, denn es gibt immer gute Gründe etwas anzunehmen oder es zu widerlegen, während dieselbe Tätigkeit für Kuhn irrational zu sein scheint.
Der normale Wissenschaftler scheint die Theorie gegen jede mögliche Widerlegung zu immunisieren, was wir prima vista nicht gutheißen würden. In der außergewöhnlichen Forschung besteht das irrationale Verhalten dagegen darin, dass ein neues Paradigma nicht sorgfältig und systematisch entworfen und verbreitet wird, sondern es wird ohne Dazwischenschalten der Erfahrung, unmittelbar durch einen Kandidaten verdrängt. Wenn beide Theorien nicht miteinander vergleichbar sind, wie können wir dann von einem wissenschaftlichen Fortschritt sprechen? Fortschritt wohin?
3.6 Anarchistische Erkenntnistheorie
Paul Feyerabend, ein Wissenschaftsphilosoph, der zunächst ein Verfechter des kritischen Rationalismus war, ließ sich von den Analysen Kuhn‘s animieren eine anarchistische Erkenntnistheorie zu formulieren, mit der ich Sie jetzt skizzenhaft vertraut machen möchte. Bis jetzt haben wir unterstellt, dass es so etwas wie eine gemeinsame rationale Methode geben muss, die die Wissenschaft lenkt, und dass diese Methode für den Erfolg der Wissenschaft verantwortlich ist. Aus der Wissenschaftsgeschichte lassen sich nach Feyerabend aber zwei andere Schlüsse ziehen:
Erstens kennt die Wissenschaft überhaupt keine „nackten Tatsachen”, die wir zur eindeutigen Falsifikation von Theorien heranziehen können, sondern alle Tatsachen werden bereits auf bestimmte Weise gesehen und sind daher wesentlich ideell gefärbt. In jede Betrachtung von Sachverhalten gehen Ideen, Deutungen, Fehler und anderes mehr ein.
Zweitens gibt es keine einzige Regel oder Methode, so einleuchtend und fest verankert sie in unserem Weltbild auch sein mag, die nicht zu irgendeiner Zeit verletzt worden wäre oder sich möglicherweise in Zukunft als falsch erweisen könnte. So wurde die Verletzung ausgewählter erkenntnistheoretischer Prinzipien in unserer Vergangenheit immer wieder beschrieben. Ja, sie scheint sogar eine Bedingung für den wissenschaftlichen Fortschritt zu sein, denn diese Verletzungen unerschütterlicher Grundsätze sind keine Zufälle und entstehen nicht aus mangelndem Wissen oder vermeidbarer Nachlässigkeit. Es scheint, als ob der Fortschritt der Wissenschaften letztlich nur deshalb stattgefunden hat, weil einige Denker entweder bewusst oder unbewusst diese “selbstverständlichen” methodische Regeln verletzten.
Will jemand den wissenschaftlichen Fortschritt fördern, so scheint es unter bestimmten Umständen sogar sinnvoll zu sein, auch diejenigen Regeln zu missachten, die als “grundlegend” oder “notwendig” für die Wissenschaft schlechthin angesehen werden. Manchmal ist es vielleicht sogar hilfreich, ihr Gegenteil zu befolgen. Feyerabend schlägt vor, kontrainduktiv vorzugehen, d.h. wir sollten besonders diejenigen Theorien einführen und ausbauen, die gut bestätigten Theorien und Tatsachen widersprechen.
Feyerabend gründet seine Ansichten auf der historischen Analyse von drei wichtigen “wissenschaftlichen Revolutionen”: Einstein`s Behandlung der Braun`schen Bewegung, Galilei`s Verteidigung der kopernikanischen Lehre und der Übergang von Homer zur Philosophie der Vorsokratiker.
Während das erste Beispiel zeigt, dass sich die Evidenz gegen eine wohlbegründete akzeptierte Theorie gelegentlich nur mit Hilfe einer anderen Theorie finden lässt, die ihr widerspricht, weist das zweite Beispiel daraufhin, dass größere Übergänge in der Ideengeschichte eine Veränderung von Theorien und ihren Maßstäben nach sich ziehen, wie sie Kuhn beschrieben hat. Das Beispiel Homers belegt nach Feyerabend, wie die Maßstäbe des Rationalismus bei der Geburt des Rationalismus verletzt wurden und der Rationalismus nur zur Welt kam, weil sich seine Väter nicht an ihn hielten.
3.7 Die kopernikanische Wende
Von diesen drei Beispielen wird das Beispiel der Kopernikanischen Wende ausgewählt, weil sich an ihm Feyerabends Skepsis gegen die Regeln der wissenschaftlichen Rationalität am Einfachsten nachvollziehen lässt und weil es zugleich unser Verständnis für einige gegenwärtige Probleme der modernen Naturwissenschaft fördert.
Erinnern Sie sich, was Sie noch aus dem Schulunterricht über den Wechsel vom geozentrischen zum heliozentrischen Weltbild wissen, der allgemein als Kopernikanische Wende bezeichnet wird. Wahrscheinlich sind sie nur wenig mit dem eigentlichen Werk von Kopernikus vertraut? Sie erinnern sich wahrscheinlich eher an die Rolle, die Galilei dabei spielte. Möglicherweise erinnern Sie sich auch nur daran, dass Galilei, der zur damaligen Zeit der bekannteste Verfechter des heliozentrischen Weltbildes war, von der Kirche als Ketzer angeklagt und gezwungen wurde, seine Erkenntnisse zu widerrufen. Galilei wird allgemein als Opfer der Dogmen der Kirche hingestellt, denn die Kirche hatte zu diesem Zeitpunkt ein starkes politisches Interesse, das geozentrische Weltbild und den Aristotelismus zu verteidigen.
Wir werden uns jetzt einer etwas ausführlicheren wissenschaftshistorischen Darstellung von Galileis Argumenten zugunsten des heliozentrischen Weltbildes widmen, wie sie von Feyerabend immer wieder in seinen Schriften beschrieben wird. Unser Ausgangspunkt ist die Frage nach den gesicherten Erkenntnissen über Astronomie und Astrologie bis ins 16. Jahrhundert.
Eudoxus aus Knidos, der von ca. 400 bis 350 vor Christus lebte, hatte es sich zur Aufgabe gemacht, ein geometrisch-mechanisches System aufzustellen, das allen empirischen Beobachtungen gerecht werden sollte. Er konzipierte sein System so, dass sich die Gestirne in Kreisen und mit konstanter Geschwindigkeit um die Erde bewegten. Erst dadurch erfüllten sie nach griechischer Ansicht die Bedingungen an Einfachheit, Ausgewogenheit und Harmonie. Der Fixsternhimmel wurde als Kugelfläche, als Sphäre, aufgefasst, an der die Fixsterne befestigt sind. In anderen Sphären unterhalb der Fixsterne bewegten sich dann die so genannten Wandelsterne, die Planeten Merkur, Venus, Mars, Jupiter und Saturn. Es bedurfte damals unglaublicher Phantasie und Kreativität, durch intellektuelle Kunstgriffe die Bewegungen der Fixsterne, der Planeten, von Sonne und Mond zu erklären. Da es aber deutliche Abweichungen zwischen den Beobachtungen und der Theorie gab, wurde das astronomische System kontinuierlich weiter verbessert, bis es von Ptolemäus im 2. Jahrhundert n. Chr. seine mehr oder weniger endgültige Form annahm. Die wesentliche Neuerung, die Ptolemäus einführte, war die Erkenntnis, dass die Erde nicht mehr der genaue Mittelpunkt der Bewegungen sein konnte. Durch zusätzliche Modifikationen gelang es ihm aber, relativ genaue und zuverlässige astronomische Vorhersagen zu treffen. Insgesamt war das System des Ptolemäus durch die Physik des Aristoteles gut gestützt, es stellte ein relativ zuverlässiges, geschlossenes und quantifizierbares System dar und es war mit der christlichen Ideologie gut verträglich.
Auch ein heliozentrisches Weltbild war bereits von Aristarchos von Samos einige Jahrhunderte vor Christi Geburt propagiert. Es konnte sich aber nicht durchsetzen. Warum aber wurde das “falsche” geozentrische Weltbild akzeptiert und das “richtige” heliozentrische Weltbild in der Antike und im Mittelalter abgelehnt? Wie können wir erklären, dass sich die Philosophen und Wissenschaftler so fundamental irren konnten? Der Grund liegt unter anderem in der Theorie der Erkenntnis und der Wahrnehmung, wie sie von Aristoteles konzipiert und für viele Jahrhunderte als richtig angesehen wurde.
Aristoteles war ein guter Beobachter und ein Denker mit scharfem Verstand. So beruhte seine Erkenntnistheorie im Wesentlichen auf den Grundzügen unseres Alltagsverständnisses über Gegenstände. Danach offenbaren uns Beobachtungen mit dem “gesunden” Auge, wie ein Baum aussieht, welche Eigenschaften er hat und aus welchen Bestandteilen er besteht. Die “natürliche” Beobachtung mit unseren Sinnesorganen stellt unbezweifelbar den entscheidenden Zugang zu Erkenntnissen über die Realität dar. Durch unsere Wahrnehmung von Gegenständen erkennen wir, wie die Realität ist. Wir sehen doch, ob die Blätter grün sind, ein Haus größer als ein anderes ist, und wie sich aus der Kaulquappe ein Frosch entwickelt. Unser Wissen über die Welt beruht auf diesen sicheren empirischen Erfahrungen, sie sind seine sicheren Grundlagen. Die Erkenntnisse des Menschen basieren somit auf der lebensweltlichen Erfahrung des Menschen.
Diese “normale” Wahrnehmung stützt nun die Theorie, dass die Erde unbewegt ist. Es gibt keine direkte Beobachtung durch unsere Sinne und dementsprechend auch keine Empfindung, die nahelegt, dass die Erde sich bewegen könnte. Unser Fixpunkt, unsere Erde, auf der wir mit beiden Füßen stehen, erscheint uns unbeweglich. Die Sonne geht morgens auf einer Seite auf, wandert am Himmel entlang und geht auf der anderen Seite wieder unter. Diese Beobachtung ist sowohl mit dem geozentrischen als auch dem heliozentrischen Weltbild verträglich.
Neben dem Mangel an einer direkten Wahrnehmung der Erddrehung sprachen aber auch rationale Überlegungen gegen das heliozentrische Weltbild. Lassen wir zum Beispiel eine Kugel von einem Turm fallen, so fällt sie senkrecht nach unten. Würden wir einen Pfeil senkrecht nach oben schießen, so fällt er zum Ausgangspunkt zurück. Diese Beobachtungen, des senkrechten Falles von Gegenständen, wurden von Niemandem bestritten und sie sprachen definitiv gegen eine Drehung der Erde.
Würde sich nämlich die Erde drehen, dann muss sich der Pfeil oder die Kugel in einem leichten Bogen bewegen. Da dies aber nicht der Fall ist, wurde das heliozentrische Weltbild als mit den empirischen Erfahrungen unvereinbar abgelehnt. Die Theorie des heliozentrischen Weltbildes wurde demnach durch empirische Beobachtungen sicher falsifiziert.
Der gesunde Menschenverstand und die Beobachtungsgabe veranlassten die Denker der Antike und des Mittelalters, das geozentrische Weltbild zu akzeptieren, weil es in Übereinstimmung mit ihren alltäglichen Beobachtungen stand. Das heliozentrische Weltbild wurde von den wissenschaftlichen Autoritäten aufgrund mangelnder empirischer Evidenz zu Recht abgelehnt. Es gab zwar die eine oder andere Schwierigkeit mit dem geozentrischen Weltbild, aber damit konnte man gut umgehen - genauso gut wie wir zur Zeit mit den Problemen der Relativitätstheorie und Quantenphysik gelernt haben umzugehen.
Galilei versuchte das Kopernikanische System primär gegen das System von Tycho Brahe zu rechtfertigen, das die Erde immer noch im Mittelpunkt wähnte und die Sonne um die Erde kreisen ließ, und nicht gegenüber dem Ptolemäischen System. Das geozentrische System von Brahe war nämlich wie das Kopernikanische System in der Lage, alle wesentlichen astronomischen Fakten hinreichend gut zu erklären.
Wenn alle empirischen Argumente gegen das heliozentrische Weltbild sprachen, wie war es dann möglich, dass sich das heliozentrische Weltbild trotzdem durchsetzte? Welche Änderungen waren eingetreten, welche neuen Fakten traten auf, die jetzt eine empirisch widerlegte Theorie zu bestätigen schienen? Feyerabend versucht in seinen Ausführungen zu belegen, dass alle rationalen Gründe, wie sie von den kritischen Rationalisten beschrieben wurden, auf der Seite der Befürworter des geozentrischen Weltbildes lagen und nicht bei Kopernikus oder Galilei, die ein heliozentrisches Weltbild propagierten.
Es verwundert deshalb auch nicht, dass sich Galilei nicht mit einer rationalen Argumentation durchsetzte, sondern nur weil er zu Mitteln der Propaganda griff und sich psychologischer Tricks bediente. Galilei widerlegte nicht die oben genannten Gegenargumente, sondern er schob sie lediglich beiseite, indem er ein neues Begriffssystem einführte, in dem dann diese Probleme nicht mehr auftauchten oder leichter zu lösen waren. Galilei war gezwungen, Mangels empirischer Beweise auf rhetorische Mittel wie Polemik, Fehldarstellung, Vernebelung und Propaganda zurückzugreifen.
Es mag Sie erstaunen, solche Sätze zu hören, weil wir doch heute wissen, dass Kopernikus und Galilei im Recht waren. Aber Sie dürfen nicht vergessen, dass das die Menschen damals noch nicht ahnen konnten. Man wusste eben noch nicht, dass das heliozentrische Weltbild stimmte, und es gab eindeutige empirische Belege, die gegen die Erdumdrehung sprachen. Es ist schließlich eindeutig, dass die senkrecht abgeschossene Kugel und der Pfeil sich nicht in einem Bogen bewegen. Das hat auch Galilei nicht bestritten.
Wie hat Galilei denn dann seine These stützen können, wenn er zubilligte, dass der Pfeil bzw. die Kugel tatsächlich senkrecht auf den Boden zurückfiel, was bisher als klarer Beweis dafür galt, dass die Erde sich nicht drehte. Galilei behauptete einfach, dass dasjenige, was wir sehen, eben doch nicht der Realität entspricht. Es gab für Galilei nur den Ausweg, den „Realitätsgehalt” dieser Beobachtung zu hinterfragen. Handelt es sich bei der normalen Wahrnehmung möglicherweise um eine Täuschung? Erkennen wir mit unseren Sinnesorganen möglicherweise nicht immer, wie die Realität ist?
Unter der Annahme, dass die Erde sich dreht, müsste die Bewegung einer fallenden Kugel gemischt, also geradlinig und kreisförmig, verlaufen, so dass sie einen kleinen Bogen aufweist. Damit ist aber nicht die beobachtbare Bewegung gemeint, die durch das Gesichtsfeld und das Bezugssystem des Beobachters festgelegt wird, sondern es ist seine Bewegung innerhalb des Sonnensystems, innerhalb des „absoluten” Raumes gemeint. Nur diese Bewegung ist seine „wirkliche” Bewegung und nicht die vom Menschen wahrgenommene. Es wird hier also erstmals eine Trennung zwischen Wahrnehmung und „tatsächlichem” Sachverhalt nahegelegt. Die wirkliche Bewegung ist nicht die beobachtete. Die beobachtete Bewegung ist der senkrechte Fall, aber bezogen auf das Sonnensystem ist es die prognostizierte gemischte Bewegung.
Diese Unterscheidung zwischen der wirklichen und beobachteten Bewegung hatte außergewöhnliche Konsequenzen für das gesamte moderne Denken. Während die Wahrnehmung bzw. Beobachtung bei den Griechen mehr oder weniger ein unerschütterliches Fundament wissenschaftlicher Auseinandersetzung war, entstand nun erstmals eine Kluft zwischen dem beobachteten Sachverhalt und der Realität. Diese Kluft ist bis heute nicht geschlossen worden und ist das ungelöste Hauptproblem der Erkenntnistheorie. Wenn wir nämlich diese Kluft nicht überwinden können, wie können wir uns sicher sein, dass unsere Beobachtung mit der Realität übereinstimmt. Wir stoßen hier auf dasselbe Problem wie bei der Korrespondenztheorie der Wahrheit.
Zurück zu Galileis genialer Argumentation. Wollten wir ernsthaft versuchen, die These von Galilei zu widerlegen, dann hätten wir aufzeigen müssen, dass die „wirkliche” bzw. absolute Bewegung der Kugel tatsächlich senkrecht erfolgt. Wir können aber eine absolute Bewegung nicht erkennen. Wenn wir in einem Zug einen Ball fallen lassen, wird er senkrecht zu Boden fallen - egal, ob der Zug steht oder in konstanter Bewegung ist, weil wir die Bewegungen von Körpern immer nur relativ zueinander wahrnehmen können.
Galilei musste zwangsläufig versuchen, die wahrnehmbare Bewegung als “Täuschung” zu entlarven, damit die fallende Kugel das heliozentrische Weltbild nicht widerlegte. Dabei ging Galilei so vor, dass er zunächst die Erdbewegung behauptete und erst dann untersuchte, welche zusätzlichen Veränderungen vorgenommen werden müssen, um den Widerspruch zu beheben. Die Behebung dieser Schwierigkeiten hätte theoretisch viele Jahre in Anspruch nehmen können. Der Widerspruch hätte sogar Jahrzehnte oder Jahrhunderte bestehen bleiben können.
Rhetorisch ging Galilei dabei sehr geschickt vor. Er erklärte den Unterschied zwischen der beobachteten Bewegung und der wirklichen Bewegung durch eine Analogie. Stellen Sie sich vor, Sie machen eine Seereise. Sie sitzen abends gemütlich in der Kajüte und zünden eine Kerze an. Solange Sie sich in der Kajüte aufhalten, wird sich die Kerze, die auf einem Tisch steht, nicht relativ zum Schiff bzw. Tisch bewegen. Aus einiger Entfernung würden Sie aber sehen können, wie sich die Kerze auf dem Wasser mit der Bewegung des Schiffes auf und ab bewegt. Wenn Sie den Mast heraufklettern und eine Eisenkugel vom Mast fallen lassen würden, dann würde die Kugel senkrecht unter Ihnen aufschlagen. Aus 100 m Entfernung würde man aber eine geringe bogenförmige Bewegung registrieren, weil sich auch das Schiff vorwärts bewegt hat. Es ist demnach der Bezugspunkt, der festlegt, ob die wahrgenommene Bewegung auch der tatsächlichen Bewegung des Gegenstandes entspricht.
Galilei bezog sich auf leicht zu erklärende Beobachtungen mit Schiffen, um die mechanische Bewegung fallender Körper zu vergleichen. Einmal wird die Bewegung beobachtet vom Bezugssystem des Festlandes und ein andermal vom Bezugssystem des fahrenden Schiffes. Das Neue dieser Beschreibung war, dass die Bleikugel trotz der Bewegung des Schiffes an derselben Stelle des Decks unten auftrifft, wo sie auch aufschlagen würde, wenn das Schiff in Ruhe wäre. Dies bedeutet, dass die beobachtbare Bewegung der Kugel keinen Schluss darauf zulässt, welches die absolute, tatsächliche Bewegung der Kugel ist. Galilei hatte somit bereits eine Ahnung von dem, was wir heute als Relativität der Mechanik aufgrund der Trägheitseigenschaften des Körpers bezeichnen würden. Er verfügte aber weder über den Begriff der Trägheit noch über den von Inertialsystemen, wie sie erst später von Newton eingeführt wurden.
Nach Ansicht von Galilei gibt es Bewegungen großen Maßstabs an ungeheuren kosmischen Massen (Sonne/Erde), die in unserer Sinneserfahrung keine Spur hinterlassen, so dass die normalen Wahrnehmungen auch nicht mehr als Prüfung der neuen Theorie gelten können. Wahrnehmung und Erkenntnis treten hier offensichtlich auseinander. Wir scheinen uns also bei der Untersuchung von einigen Sachverhalten nicht mehr allein auf die Wahrnehmung als kritische Instanz verlassen zu können.
Wir müssen uns diese revolutionären Gedanken vor Augen führen: Es wurde behauptet, dass die Beziehung zwischen den Menschen und der Welt nicht so einfach ist, wie sich das der Alltagsverstand vorstellt. Es wurde behauptet, dass der „normale” Verstand sich irren kann, dass es für ihn nicht immer möglich ist, die Gesetze der Welt durch die Wahrnehmung zu erkennen, weil er durch die besonderen Bedingungen seiner Beobachtungsplattform und durch die Eigenschaften seines Sinnesapparates eingeschränkt ist. Welche Herausforderung für den „normalen” wissenschaftlichen Verstand der damaligen Zeit!
Bedenken Sie die Strategie Galileis: Es wurde eine Theorie aufgestellt, die durch die normale Beobachtung widerlegt wurde. Um die Theorie zu stützen, wurde einfach behauptet, dass uns die normale Wahrnehmung nicht die Realität zeigt, wie sie wirklich ist. Wäre so ein Vorgehen nach den heutigen wissenschaftlichen Methoden akzeptabel? Würden wir heute so ein Verfahren nicht als irrational ablehnen?
3.8 Beobachtung und Theorie
Wenn wir uns auf die Argumentation Galileis einlassen, dann müssen wir akzeptieren, dass Beobachtungen erst an Bedeutung gewinnen, nachdem theoretisch angenommene Vorgänge zwischen Welt und Auge eingefügt worden sind. Direkte sinnliche Wahrnehmung ist nicht mehr verlässlich. Wahrnehmung muss erst durch die Theorie interpretiert werden. Diese wiederum ist ungewiss und leitet ihre Evidenz aus der Wahrnehmung ab, die wiederum erst von der Theorie interpretiert werden muss, die wiederum ihre Evidenz von der Theorie ableitet, die wiederum ihre Evidenz von der Wahrnehmung ableitet, die usw. Das heißt letztlich, das die Theorie, die behauptet wird, sich selbst stützt.
Damit muss selbst die Sprache, in der wir unsere Beobachtungen ausdrücken, geändert werden. Zur Prüfung der kopernikanischen Theorie bedarf es offensichtlich einer völlig neuen Weltsicht mit einer neuen Auffassung vom Menschen und seinen Erkenntnisfähigkeiten. Der „Übergang” vom geozentrischen zum heliozentrischen Weltbild ist demnach nicht nur eine Frage der Perspektive, sondern zugleich der Übergang zu einer völlig neuen Betrachtungsweise über die Wahrnehmung und dem Zugang zur Realität, was zusätzlich seinen Ausdruck in der Einführung neuer Begriffe und in der Veränderung der Bedeutung “alter” Begriffe findet. Der Mensch katapultierte sich damit nicht nur aus dem Zentrum des Kosmos, sondern es wurde überhaupt fraglich, ob er die Realität erkennen kann.
3.9 Anything goes
Welche Konsequenzen hat diese wissenschaftshistorische Erkenntnis für unsere Beurteilung des wissenschaftlichen Fortschritts? Es scheint, dass es unklug wäre, Theorien unbeachtet zu lassen, die sich auf den ersten Blick als falsch herausstellen. Das heliozentrische Weltbild von Aristarchos von Samos wurde schließlich erst viele Jahrhunderte nach ihm akzeptiert. Es wäre möglicherweise klüger, zu warten und neue Theorien im Lichte einer neuen Erkenntnistheorie, einer neuen Art der Physik oder Astronomie zu beurteilen. Möglicherweise erfordert die neue Theorie auch die Einführung völlig neuer Prüfungen. Im gegenwärtigen wissenschaftlichen Alltag haben wir statt dessen die Tendenz, den status quo als absoluten Standard zu akzeptieren und triumphierend zu verkünden, dass die neue Theorie nicht mit den Tatsachen und anerkannten Grundsätzen übereinstimme. Ein Galilei hätte heute sicherlich keine Chance gehabt!
Vor welche Aufgabe wurde nun Galilei gestellt? Er versuchte, die Menschen von einem wohldefinierten, gut ausgebauten und empirisch erfolgreichen System wegzulocken und von einer unvollständigen und absurden Hypothese zu überzeugen, die außerdem auch noch einfachen Beobachtungen widersprach. Es ist offensichtlich, dass die Hinwendung zu der neuen Theorie nicht mit Argumenten bewirkt werden konnte, sondern nur mit irrationalen Mitteln, Propaganda und der Berufung auf Vorurteile aller Art. Diese irrationalen Mittel wurden zur Aufrechterhaltung der neuen Theorie benötigt, bis durch neue Hilfswissenschaften, der Astronomie und Optik, diejenigen Tatsachen und Argumente gefunden wurden, die den Glauben an die neue Theorie in solides Wissen verwandelten. Bis zu dieser Ansammlung neuer Fakten können wir lediglich von einem blinden Glauben an die richtige Sache reden.
Der Rat der kritischen Rationalisten, seine Theorien zu prüfen, wäre für Galilei völlig wertlos gewesen, denn er stand einer verwirrenden Anzahl scheinbar fataler Instanzen gegenüber, die er nicht erklären konnte, weil ihm die nötigen Kenntnisse fehlten. Er war gezwungen, sie einfach weg zu erklären, um eine möglicherweise wertvolle Hypothese vor frühzeitiger Auslöschung zu bewahren. Galileis Argumente beruhten auf seiner eigenen fruchtbaren Phantasie, sie sind erfunden.
Erst nachdem der „naive Realismus” des Alltagsverstandes bezüglich der Bewegung durch das Denksystem der Relativität der Bewegung ersetzt worden ist, wurde das heliozentrische Weltbild akzeptabel. Jetzt ist die Erfahrung allerdings nicht mehr die unveränderliche Grundlage unserer Erkenntnis wie in der Aristotelischen Philosophie, sondern die Erfahrung muss erst interpretiert werden. Einer Beobachtungsaussage liegen jetzt zwei psychologische Ereignisse zugrunde: Erstens eine klare und eindeutige Wahrnehmung von Sinnesreizen und zweitens eine Verknüpfung zwischen diesen Sinnesdaten und gewissen Teilen der Sprache, die die Wahrnehmung zum Sprechen bringt. Dies birgt nun eine größere Gefahr des Irrtums in sich. Während wir früher darauf vertrauten, dass eine “richtige” und “unverfälschte” Wahrnehmung uns die Realität zeigt, wie sie ist, akzeptieren wir jetzt, dass das, was uns die Wahrnehmung gibt, nicht unbedingt der Realität entsprechen muss. Erst die Übereinstimmung der einzelnen Erfahrung mit unserem sonstigen Weltbild, mit theoretischen Aspekten und anderen Erfahrungen scheint uns eine gewisse Sicherheit zu geben. Allerdings besteht immer die Gefahr, dass wir unser Weltbild revidieren müssen, dass wir “bessere” Theorien aufstellen und andere Erfahrungen machen.
Die Entwicklung des kopernikanischen Standpunktes von Galilei ist offensichtlich ein lehrreiches Beispiel, um zu beschreiben, wie sich eine wissenschaftliche Revolution tatsächlich abspielte. Danach wird zunächst mit einem starken Glauben begonnen, der der Vernunft und Erfahrung zuwider läuft. Der Glaube breitet sich aus und stützt sich in weiteren Anschauungen, die möglicherweise ebenso unvernünftig oder noch unvernünftiger sind (wie das Trägheitsgesetz oder Fernrohr). Dadurch wird die Forschung in neue Richtungen gelenkt. Neue Instrumente werden entwickelt, die neue Daten bereitstellen, bis genügend unabhängige Argumente für jeden Teil der neuen Theorie bereitgestellt werden.
Galilei war zwar auf der richtigen Spur, aber es war nicht sicher, ob er genügend Überzeugungskraft entfalten konnte, um seine richtige Theorie auch aufrechtzuerhalten. Theorien werden häufig erst klar und „vernünftig”, nachdem inkohärente Bruchstücke über längere Zeit hindurch verwendet worden sind. Auch wenn sich diese Phase als unvernünftig, unsinnig und wenig methodisch charakterisieren lässt, so scheint sie eine unerlässliche Vorbedingung der Klarheit und des empirischen Erfolges einer neuen Theorie zu sein.
Für Feyerabend ist “klar, dass der Gedanke einer festgelegten Methode oder einer feststehenden Theorie der Vernünftigkeit auf einer allzu naiven Anschauung vom Menschen und seinen sozialen Verhältnissen beruht. Wer sich dem reichen, von der Geschichte gelieferten Material zuwendet, und es nicht darauf abgesehen hat, es zu verdünnen, um seine niedrigen Instinkte zu befriedigen, nämlich die Sucht nach geistiger Sicherheit in Form von “Klarheit”, “Präzision”, “Objektivität”, “Wahrheit”, der wird einsehen, dass es nur einen Grundsatz gibt, der sich unter allen Umständen und in allen Stadien der menschlichen Entwicklung vertreten lässt. Es ist der Grundsatz: Anything goes (Mach, was du willst).”
3.10 Pluralismus statt Monismus
Können Sie nach Feyerabends Argumenten der Bestätigung und Bewährung von Theorien gemäß den Konzepten des kritischen Rationalismus noch eine große Bedeutung zusprechen? Kann die Falsifikation von Theorien überhaupt eine entscheidende Rolle im Forscheralltag spielen, oder ist es nicht eher so, dass auch falsifizierte Theorien fröhlich weiterverwendet werden? Selbst die Theorien, die wir heute so sehr bewundern, die Relativitäts- und die Quantentheorie, stehen im Widerspruch mit einigen Tatsachen, - was nicht weiter verwundert, weil es keine Theorie gibt, die mit allen Tatsachen vereinbar ist. Sollte jemand die Forderung erheben, nur solche Theorien zuzulassen, die mit allen anerkannten Tatsachen vereinbar sind, dann bliebe wahrscheinlich keine Theorie übrig.
Nach Feyerabend kann Wissenschaft nur dann erfolgreich weiterbestehen, wenn die plausible Forderung nach Falsifikation fallengelassen wird. Die richtige Methode darf keine Regel enthalten, nach denen wir zwischen Theorien aufgrund von Falsifikationen wählen müssen. Vielmehr müssen ihre Regeln auch die Entscheidung zwischen Theorien ermöglichen, die bereits geprüft und falsifiziert worden sind. Feyerabend empfiehlt, dass wir immer dann, wenn ein Widerspruch zwischen einer neuen und interessanten Theorie und einer Menge wohl bestätigter Daten auftritt, nicht die Theorie aufgeben, sondern sie zur Entdeckung verborgener Grundsätze heranzuziehen, die möglicherweise für den Widerspruch verantwortlich sind.
Feyerabend hatte insgesamt nicht die Absicht, eine Menge allgemein akzeptierter Regeln der wissenschaftlichen Methodologie durch eine andere zu ersetzen, sondern er wollte vielmehr darauf hinweisen, dass alle Methodologien ihre Grenzen haben. Es ist deshalb auch nicht vernünftig, an den Regeln der gegenwärtigen Wissenschaft zu haften, sondern durchaus sinnvoll aus diesen Regeln auszubrechen, um zu erfahren, wohin einen diese Reise trägt.
Um zu neuen Theorien zu gelangen, scheint es aufgrund von Galileis Erfahrungen durchaus sinnvoll, sich mit Methoden auseinander zu setzen, die den gegenwärtig akzeptierten widersprechen. Feyerabend empfiehlt sogar, dass wir “Antiregeln” verfolgen sollten, um die oben genannten Grundsatz einzulösen. Diese “Antiregeln” sollen den bekannten Regeln des wissenschaftlichen Vorgehens entgegen gesetzt werden. Es wäre nach Feyerabend auch nützlich, neue Begriffssysteme zu erfinden, die mit den gegenwärtig besten fundierten Beobachtungsergebnissen in Konflikt stehen, sie sozusagen außer Kraft setzen. Sie sollen die einleuchtenden Grundsätze durcheinander bringen und Wahrnehmungen einführen, die nicht in die bestehende Wahrnehmungswelt passen. Eine alternative Methode wäre zum Beispiel die Kontrainduktion, d.h. wir postulieren, dass je häufiger ein Ereignis in der Vergangenheit unter bestimmten Umständen auftrat, es um so seltener in Zukunft auftreten wird.
Wir sollen eine neue Theorie auch nicht danach auswählen, dass sie konsistent mit akzeptierten Theorien ist, weil dieses Vorgehen in der Regel nur die ältere und nicht die vielleicht bessere Theorie am Leben erhält. Würden Hypothesen aufgestellt, die gut bestätigten Theorien widersprechen, so würden sie uns möglicherweise Daten liefern, die wir auf keine andere Weise erhalten würden. Deshalb ist eine Theorienvielfalt für die Wissenschaft immer fruchtbarer als eine Einförmigkeit, die die kritische Kraft letztlich lähmt. Eine fruchtbarere Methode besteht nach Feyerabend in der Konfrontation des orthodoxen Standpunktes mit möglichst vielen relevanten Tatsachen. Der Ausschluss von Alternativen sollte lediglich eine Sache der Bequemlichkeit sein, weil die Berücksichtigung aller Alternativen Zeit und Arbeitskraft beansprucht, die wir besser anders einsetzen könnten.
Junge Forscher, die wirklich Neues entdecken wollen, sollten also nicht der Pseudorationalität der gegenwärtigen wissenschaftlichen Methodologie folgen, sondern kontrainduktiv vorgehen, inkonsistente Modelle entwickeln und sich wenig um die Gegenargumente des wissenschaftlichen Establishment kümmern.
{/jkefel} {jkefel title=[Kap. 4]}
4. Fortschritt der Wissenschaft
4.1 Entdeckung und Begründung
4.2 Methodischer Pluralismus
4.3 Methodischer Falsifikationismus
4.4 Theoriendynamik
Wie lassen sich nun die unterschiedlichen Auffassungen der Wissenschaftsphilosophen verstehen, die wir bisher vorgestellt haben? Wie können wir einerseits die Wissenschaft als rationales Unternehmen charakterisieren und andererseits die Forderung aufstellen: Mach, was du willst!
4.1 Entdeckung und Begründung
Viele Wissenschaftstheoretiker haben gegenüber Feyerabends Analysen darauf hingewiesen, dass man zwischen dem Kontext der Entdeckung einer Theorie und dem der Begründung unterscheiden müsse. Der Grund für die Unterscheidung ist derjenige, dass die Regeln oder Anforderungen, die an eine adäquate Begründung einer Theorie gestellt werden, sehr hoch sind. Sie sollen schließlich festlegen, ob die Theorie tatsächlich akzeptabel ist. Bezüglich der Entdeckung von neuen Theorien werden dagegen mehr psychologische und soziologische Sachverhalte berücksichtigt, die die Situationen beschreiben, wie jemand eine neue Erfindung oder Entdeckung machte. Die Geschichte der Entdeckung oder Erfindung mag irrational sein und sie braucht keiner anerkannten Methode zu folgen, aber ihre Begründung oder ihre Kritik beginnt erst nach der Entdeckung und muss sich dann in einer wohlgeordneten rationalen Weise vollziehen. Für den Kontext der Rechtfertigung gelten demnach andere Anforderungen als für den der Entdeckung.
Die Darstellung der Galileischen Argumente legt es nach Feyerabend jedoch nahe, die Unterscheidung zwischen einem Entdeckungs- und einem Begründungszusammenhang aufzugeben, weil diese Unterscheidung in der wissenschaftlichen Praxis keine Rolle spielt. Ja, der Versuch, auf der Unterscheidung zu beharren, würde seiner Meinung nach sogar katastrophale Folgen haben, weil sie die Wissenschaft auslöschen würde oder sie nie hätte entstehen lassen. Die Tatsache, dass es Wissenschaft gibt, beweist nämlich, dass diese Regeln der Begründung häufig übertreten wurden, und zwar zugunsten der Verfahren, die wir heute dem Entdeckungszusammenhang zurechnen. Die Grundsätze der Begründung verbieten oft Schritte in der Geschichte der Wissenschaft, die durch psychologische, gesellschaftliche, wirtschaftliche und politische Bedingungen hervorgerufen werden.
4.2 Methodischer Pluralismus
Obwohl Feyerabend zunächst einer von Popper’s Schülern war, glaubt er nicht, dass die Regeln des kritischen Rationalismus mit einer Wissenschaft vereinbar sind, wie wir sie kennen. Feyerabend kritisiert den kritischen Rationalismus und logischen Empirismus, weil seine Grundsätze (nimm Falsifikation ernst, vermehre den Gehalt, vermeide ad-hoc-Hypothesen, sei genau, gründe Theorien auf Messungen, vermeide unklare und schwankende Gedanken, usw.) uns eine falsche Darstellung der historischen Entwicklung der Wissenschaft geben. Er folgert sogar, dass dadurch der Wissenschaftsprozess in der Zukunft behindert werden könnte. Wissenschaft ist viel “schlampiger” und “irrationaler” als die meisten Wissenschaftstheoretiker vermuten.
Die Wissenschaft und ihre rationale Methodologie offenbart nach Feyerabend die Schwäche der so genannten “Vernunftgesetze”. Bei der Entwicklung der Theorien sind Schlampigkeit, Chaos oder Opportunismus weit wichtiger als rationale Methodologie. Abweichungen und Fehler sind Vorbedingungen des Fortschritts. Ohne Chaos keine Erkenntnis und ohne häufiges Abrücken von der Vernunft kein Fortschritt. Zum Teil waren es Vorurteile, Eitelkeit und Leidenschaft, die sich der Vernunft entgegenstellten und zu Entdeckungen führten. Es scheint demnach keine einzige Regel zu geben, die unter allen Umständen gültig bleibt, und keine einzige Instanz, auf die wir uns immer berufen können.
Die Forderung, dass die Wissenschaft nach festen und allgemeinen Regeln betrieben werden soll, ist einerseits wirklichkeitsfern, weil sie die Fähigkeiten des Menschen in ihrer Entwicklung nicht berücksichtigt, und andererseits schädlich für die Menschheit, weil der Versuch, diese Regeln durchzusetzen, zur Erhöhung der fachlichen Fähigkeiten auf Kosten unserer Menschlichkeit führen kann. Außerdem vernachlässigt diese Forderung die komplizierten physikalischen und historischen Bedingungen des wissenschaftlichen Fortschritts. Wissenschaft wird dadurch weniger anpassungsfähig und dogmatischer.
So setzt der Falsifikationismus voraus, dass die Naturgesetze offen zutage lägen und nicht unter erheblichen Störungen erst entdeckt werden müssen. Der Empirismus setzt voraus, dass die Sinneserfahrung uns ein besseres Abbild der Welt gibt als das reine Denken. Die Hochschätzung von Argumentationen setzt voraus, dass die Kunstprodukte der Vernunft zu besseren Ergebnissen führen als das freie Spiel unserer Gefühle. Feyerabend fordert, dass, obgleich solche Voraussetzungen höchst einleuchtend und wahr sein können, wir sie dennoch gelegentlich nachprüfen sollten.
Feyerabend kritisiert in seinen Werken nicht nur die Wissenschaftsphilosophie, sondern er wendet sich gegen jede Art von Regeln, die einen Absolutheitsanspruch stellen. Er ist ein Befürworter des methodischen Pluralismus, weil er nur in einer pluralistischen Gesellschaft die Realisierung des Wohles der Menschheit zu erkennen glaubt. Der anarchistische Ansatz soll deshalb auch nicht nur für die Wissenschaft gelten, sondern ebenso für Mythen, Dogmen der Theologie und Metaphysik, die alle das gemeinsame Ziel haben, nämlich ein allgemein verbindliches Weltbild aufzubauen. Der Anarchismus ist seiner Meinung nach für den inneren Fortschritt der Wissenschaft und für die Entwicklung unserer Kultur notwendig.
Die Skepsis Feyerabends bezüglich der abendländischen Wissenschaft drückt sich auch im Vergleich mit anderen Kulturen aus. Die moderne westliche Wissenschaft hat nach Feyerabend ihre Gegner lediglich überwältigt und nicht überzeugt. Die westliche Wissenschaft kam durch Gewalt ans Ruder und nicht durch Argumente. So sagt er: "Der Aufstieg der modernen Wissenschaft fällt zusammen mit der Unterdrückung von Kolonialvölkern durch westliche Eindringlinge. Die Stämme wurden nicht nur physisch unterdrückt, sie verloren auch ihre geistige Unabhängigkeit und wurden zur Annahme der blutdürstigen Religion der brüderlichen Liebe gezwungen - des Christentums. Die Intelligentesten bekamen eine besondere Belohnung: Sie wurden in die Geheimnisse des westlichen Rationalismus und seines Gipfelpunktes eingeführt -- der westlichen Wissenschaft.“
Es besteht nach Feyerabend heute in der Gesellschaft eine Wissenschaftsgläubigkeit, die es alternativen Zugängen zur Wirklichkeit erschwert, fortzubestehen. Eine faire Chance wird den alternativen Verfahren nur selten eingeräumt. Häufig werden sie verurteilt, ohne dass sie sorgfältig evaluiert werden. So sagt er: „Traditionelle Ideen und Praktiken anderer Völker und Kulturkreise verschwanden nicht, weil die westliche Wissenschaft besser war, sondern weil die europäischen Soldaten die besseren Eroberer waren. Man hat nicht geforscht oder rational verglichen. Man hat lediglich kolonisiert und die Ideen der kolonisierten Nation unterdrückt.”
Es erscheint deshalb nach Feyerabend sinnvoll, mehr Alternativen zuzulassen. Dadurch erhöht sich die Anzahl der Tatsachen und damit auch die Anzahl möglicher Prüfungen. Jede Verminderung von Alternativen verringert dagegen die Zahl der Tatsachen, die die Grenzen der zu untersuchenden Theorie aufzeigen könnten. Für die objektive Erkenntnis brauchen wir viele verschiedene Ideen und eine Methode, die die Vielfalt fördert.
Feyerabend verdammt nicht die Wissenschaft als wesentlichen Bestandteil unserer Kultur, sondern er stellt ihre methodologische Bedeutung in Frage. Er wehrt sich dagegen, dass alle Erfahrung, die nicht in Übereinstimmung mit den akzeptierten wissenschaftlichen Methoden gewonnen wurde, als weniger bedeutsam abqualifiziert wird. Er weist auf die Beschränktheit jeder methodischen Regel hin, selbst die der Rationalität. Er befürchtet, dass das Wohl der Menschheit in Gefahr ist, wenn wir uns ausschließlich den Regeln der wissenschaftlichen Rationalität unterwerfen. Wir sollten nicht nur die wissenschaftliche Rationalität als die Methode zur Erkennung der Welt zulassen. Jeder anderen Methode, sei sie zu Beginn auch noch so zweifelhaft, sollte eine Chance gegeben werden, unsere Erkenntnis zu erweitern. Methodenpluralismus statt Monismus, Toleranz statt blinde Rationalitätsgläubigkeit sind seine Forderungen. Der Mensch sollte, wenn er die Natur wirklich verstehen will, alle Ideen und Methoden berücksichtigen und nicht nur einen kleinen Ausschnitt aus ihnen. Eine Wissenschaft, die von sich behauptet, über die einzig richtige Methode und einzig brauchbaren Ergebnisse zu verfügen, ist pure Ideologie.
4.3 Methodischer Falsifikationismus
Sie können sich natürlich vorstellen, dass die Wissenschaftstheoretiker nach den Veröffentlichungen von Kuhn und Feyerabend nichts unversucht ließen, um die Unterstellung der Irrationalität und des Dogmatismus zu entkräften. Dabei zeichneten sich zwei Lösungsversuche besonders aus, so dass sie hier kurz skizziert werden. Sie können dann am Ende selbst entscheiden, ob es gelungen ist, Ihr Vertrauen in die Wissenschaft als rationales Unternehmen zu restaurieren.
Als erstes werden wir den so genannten methodologischen Falsifikationismus von Imre Lakatos vorstellen. Lakatos ist Wissenschaftstheoretiker, ein Popper Schüler und Anhänger des kritischen Rationalismus. Er nahm die Herausforderung durch die Kuhnschen Thesen an und versuchte die Grundthesen des kritischen Rationalismus mit der Geschichte der Wissenschaft in Einklang zu bringen.
Lakatos akzeptierte, dass die klassische Definition des Wissens als definitiv bewiesenes Wissen fallen gelassen werden muss. Weder durch die Kraft der Vernunft noch durch die Evidenz der Sinne gibt es unfehlbares Wissen. Da sich alles Wissen als prinzipiell fallibel erwies, stellte der kritische Rationalismus die Forderung nach intellektueller Redlichkeit auf. Danach sollen wir nicht versuchen, unsere Theorie fest zu verankern oder durch Beweise zu begründen, sondern wir sollen vielmehr die Bedingungen genau festlegen, unter denen wir gewillt sind, die eigene Position aufzugeben.
Lakatos erläutert zunächst den dogmatischen Falsifikationismus á la Popper, den er von seiner neuen Konzeption, dem methodologischen Falsifikationismus, abzugrenzen wünscht. Der dogmatische Falsifikationismus behauptet, dass alle Theorien gleichermaßen nur Vermutungen und nicht beweisbar, aber dennoch widerlegbar sind. Es wird unterstellt, dass es eine sichere empirische Basis von Tatsachen gibt, die wir zur Widerlegung von Theorien verwenden können. Nach der Widerlegung einer Theorie muss sie bedingungslos verworfen werden. Der Mensch legt also ein System von Theorien vor und die Natur entscheidet über dessen Wahrheit oder Falschheit; der Mensch erfindet ein wissenschaftliches System und dann überprüft er, ob es mit den beobachteten Tatsachen übereinstimmt oder nicht. Die Zunahme des Wissens besteht dann im wiederholten Verwerfen von Theorien aufgrund harter Tatsachen. Die Wissenschaft schreitet fort durch kühne Spekulationen, die nie bewiesen und nicht einmal wahrscheinlich gemacht werden, die wir aber später oft durch harte, endgültige Widerlegung eliminieren.
Der dogmatische Falsifikationismus von Popper ist aber nach Lakatos unhaltbar, weil er auf falschen Annahmen beruht. Es ist nämlich nicht richtig, dass ein Satz durch Beobachtungstatsachen bewiesen wird, denn jede Wahrnehmung ist bereits von irgendwelchen Erwartungen oder Theorien durchsetzt, wie wir bereits bei Galilei festgestellt haben.
Um die weiteren Ausführungen Lakatos zum wissenschaftlichen Fortschritt zu verstehen, soll eine kleine Geschichte von ihm zitiert werden, die exemplarisch die wissenschaftliche Tätigkeit beschreibt, wie sie auftreten kann, wenn eine Theorie mit beobachtbaren Tatsachen im Widerspruch steht. So schreibt Lakatos “Die Geschichte betrifft einen imaginären Fall planetarischer Unart. Ein Physiker in der Zeit vor Einstein nimmt Newtons Mechanik und sein Gravitationsgesetz N sowie die akzeptierten Randbedingungen A und berechnet mit ihrer Hilfe die Bahn eines eben entdeckten kleinen Planeten P. Aber der Planet weicht von der berechneten Bahn ab. Glaubt unser Newtonianer, dass die Abweichung von Newtons Theorie verboten war und dass der Beweis die Theorie N widerlegt? -- Keineswegs. Er nimmt an, dass es einen bisher unbekannten Planeten P* gibt, der die Bahn von P stört. Er berechnet Masse, Bahn etc. dieses hypothetischen Planeten und ersucht einen Experimentalastronomen, seine Hypothese zu überprüfen. Aber der Planet P* ist so klein, dass selbst das größte vorhandene Teleskop ihn nicht beobachten kann: Der Experimentalastronom beantragt einen Forschungszuschuss, um ein noch größeres Teleskop zu bauen. In drei Jahren ist das neue Instrument fertig. Wird der unbekannte Planet P* entdeckt, so feiert man diese Tatsache als einen neuen Sieg der Newtonschen Wissenschaft. -- Aber man findet ihn nicht. Gibt unser Wissenschaftler Newtons Theorie und seine Idee des störenden Planeten auf? -- Nicht im Mindesten! Er mutmaßt nun, dass der gesuchte Planet durch eine kosmische Staubwolke vor unseren Augen verborgen wird. Er berechnet Ort und Eigenschaft dieser Wolke und beantragt ein Forschungsstipendium, um einen Satelliten zur Überprüfung seiner Berechnung abzusenden. Vermögen die Instrumente des Satelliten, (darunter völlig neue, die auf wenig geprüften Theorien beruhen) die Existenz der vermuteten Wolke zu registrieren, dann erblickt er in diesem Ergebnis einen glänzenden Sieg der Newton`schen Wissenschaft. Aber die Wolke wird nicht gefunden. Gibt unser Wissenschaftler Newtons Theorie, seine Idee des störenden Planeten und die der Wolke, die ihn verbirgt, auf? -- Nein! Er schlägt vor, dass es im betreffenden Gebiet des Universums ein magnetisches Feld gibt, das die Instrumente des Satelliten gestört hat. Ein neuer Satellit wird ausgesandt. Wird das magnetische Feld gefunden, so feiern Newtons Anhänger einen sensationellen Sieg. -- Aber das Resultat ist negativ. Gilt dies als eine Widerlegung der Newton`schen Wissenschaft? -- Nein. Man schlägt entweder eine neue, noch spitzfindigere Hilfshypothese vor, oder .... die ganze Geschichte wird in den staubigen Bänden der wissenschaftlichen Annalen begraben, vergessen und nie mehr erwähnt.”
Viele von Ihnen werden sich bei dieser kleinen Geschichte, insbesondere wenn sie selbst Forschung betreiben, sicherlich ein Schmunzeln nicht verkneifen können. Diese Geschichte legt den Schluss nahe, dass selbst eine so hochgeschätzte Theorie wie Newtons Dynamik und Gravitationstheorie durchaus mit beobachteten Sachverhalten im Widerspruch stehen kann, ohne dass wir sie als widerlegt betrachten. Häufig ist es nämlich so, dass nicht nur durch die Theorie allein festgelegt wird, ob ein Ereignis eintritt oder nicht, sondern nur dann, wenn kein anderer Faktor einen zusätzlichen Einfluss geltend macht. Die Interpretation etlicher wissenschaftlicher Theorien enthält häufig solch eine ceteris-paribus Klausel. Unter einer ceteris-paribus-Klausel wird verstanden, dass angenommen wird, dass die Theorie unter bestimmten Umständen gültig ist, die in allen Versuchsanordnungen gleich zu sein hat. Dies bedeutet, dass die Theorien, für sich allein genommen, nie mit einer Beobachtung in Widerspruch stehen müssen. Tritt nämlich das prognostizierte Ereignis nicht ein, so ist nicht die Theorie widerlegt, sondern, da die Theorie zusammen mit dieser Klausel überprüft wurde, kann auch die Klausel allein betroffen sein. Da das Ersetzen der ceteris-paribus Klausel durch eine andere Klausel grundsätzlich gestattet ist, kann die Theorie beibehalten werden, was immer auch das Ergebnis der Prüfung sein mag. Damit bricht der unerbittliche Widerlegungsprozess des dogmatischen Falsifikationismus zusammen, wie das fingierte Beispiel eindrucksvoll zeigen konnte.
Da Falsifikationen für den dogmatischen Falsifikationismus aber endgültig sind, hätte bereits die erste Widerlegung zur Beseitigung von Newtons Theorie führen müssen. Die dargestellte Vorgehensweise wäre demnach unter den Prämissen des kritischen Rationalismus völlig irrational. Schreckt der Wissenschaftler aber vor solch einer kühnen Entscheidung zurück, die Newtonsche Physik als irrig zurückzuweisen, oder er würde sie solange verteidigen, bis ihre Unhaltbarkeit logisch zwingend erwiesen ist, so würde er nie durch Erfahrung eines Besseren belehrt. Er würde immer behaupten, dass der Widerspruch zwischen den experimentellen Ergebnissen und dem Newtonschen System nur ein scheinbarer ist und sich mit Hilfe neuer Ansichten beheben lässt.
Akzeptieren wir die Grundsätze des dogmatischen Falsifikationismus, dann müssen wir feststellen, dass die wichtigsten Theorien, die im Laufe der Wissenschaftsgeschichte jeweils vorgeschlagen wurden, “metaphysisch” waren, dass fast aller Fortschritt nur Scheinfortschritt war, und dass die wissenschaftliche Tätigkeit meistens irrational war. Es würde darauf hinauszulaufen, die ganze Wissenschaft als “irrationale Metaphysik” anzusehen. Wenn wissenschaftliche Theorien weder bewiesen noch wahrscheinlich gemacht, noch widerlegt werden können, dann wäre Wissenschaft nichts als leere Spekulation und es würde keinen Fortschritt der wissenschaftlichen Erkenntnisse geben. Um diese unerwünschte Schlussfolgerung zu vermeiden, entwickelte Lakatos den methodologischen Falsifikationismus, der akzeptiert, dass Wissenschaftler durchaus fehlbare Theorien anwenden, aber nicht als Theorie, die überprüft werden soll, sondern als unproblematisches Hintergrundwissen.
Der methodologische Falsifikationismus benutzt die bisher erfolgreichen Theorien als vorläufiges Hintergrundwissen. Dabei legt die Gemeinschaft der Wissenschaftler willkürlich fest, welches Wissen zunächst akzeptiert werden soll. Der Anspruch des Empirismus, dass wir unsere Theorie auf den sicheren Fels der empirischen Beobachtung bauen sollten, wird gänzlich fallengelassen. Statt dessen besteht die etablierte empirische und theoretische Basis jetzt nur noch aus tragfähigen Pfeilern, die sich von oben her in einen Sumpf senken. Anders als bei Popper ist der methodologische Falsifikationismus eine pragmatische, methodologische Idee, die dem Bedürfnis des Wissenschaftlers gerecht wird, eine falsifizierte Hypothese durch eine bessere zu ersetzen.
Der methodologische Falsifikationismus unterscheidet sich von Popper auch durch die Regeln des Akzeptierens und des Falsifizierens einer Theorie. Für Popper ist eine Theorie bereits akzeptabel, wenn sie sich als experimentell falsifizierbar interpretieren lässt. Für Lakatos ist eine Theorie dagegen nur akzeptabel, wenn sie einen bewährten empirischen Gehaltsüberschuss über ihren Vorgänger besitzt und damit potentiell zur Entdeckung von neuen Tatsachen führt. Wir beurteilen demnach im methodologischen Falsifikationismus eine Reihe von Theorien und nicht nur isolierte Theorien.
Im Gegensatz zu Popper kann kein Experiment und kein Beobachtungssatz zu einer Falsifikation der Theorie führen, sondern dies kann lediglich durch das Auftauchen einer neuen besseren Theorie gelingen. Es ist die Aufeinanderfolge von Theorien und nicht eine einzelne gegebene Theorie, die als wissenschaftlich fortschrittlich bewertet wird und durch eine Kontinuität verbunden wird, die sie zu Forschungsprogrammen verschmelzen lässt. Das Forschungsprogramm enthält zugleich methodologische Regeln, die beschreiben, welche Forschungswege vermieden und welche bevorzugt verfolgt werden sollen.
Ein Forschungsprogramm besteht aus einem “harten Kern” und einem Schutzgürtel von Hilfshypothesen. Für diesen “harten Kern” gilt, dass es verboten ist, ihn zu widerlegen. Es wird deshalb eine Art Schutzgürtel von Hilfshypothesen um den Kern gelegt, der dem Stoß der Überprüfungen standhalten kann und so das Forschungsprogramm vor frühzeitiger Eliminierung zu schützen. Die Widerlegung von einzelnen Hypothesen wird solange nicht als Falschheit des “harten Kerns” angesehen, solange der bewährte empirische Gehalt des Schutzgürtels zunimmt.
Welche Probleme wissenschaftlich bearbeitet werden, welche Probleme für relevant gehalten werden, hängt davon ab, welche Regeln durch die Theorien vorgegeben werden und ob psychologisch beunruhigende Anomalien nachweisbar sind. Häufig werden Anomalien zwar wahrgenommen, aber in der Hoffnung beiseite geschoben, dass sie sich im Rahmen des weiteren Forschungsprogramms in Bewährungen verwandeln werden. Nur in degenerierenden Phasen des Programms werden die Wissenschaftler aktiv gezwungen sein, ihre Aufmerksamkeit auf diese Anomalien zu legen.
Ein einzelnes Experiment, ein experimentum crucis, hat für sich allein keinen entscheidenden Charakter mehr, sondern die Ergebnisse werden je nach dem Stand des theoretischen Wettstreits interpretiert, in den es eingebettet ist. Die Deutung und die Einschätzung des Experimentes kann sich mithin im Laufe der Zeit ändern. Es gibt keine entscheidenden Experimente zugunsten oder gegen eine Theorie mehr. Kein Forschungsprogramm kann mit sofortiger Wirkung gestürzt werden.
Ein Forschungsprogramm wird als erfolgreich angesehen, wenn es zu einer progressiven Problemverschiebung kommt, d.h. jeder Schritt des Forschungsprogramms muss konsequent gehaltvermehrend sein und der Zuwachs an Gehalt sollte sich im Nachhinein bewähren. Es wird nicht verlangt, dass jeder einzelne Schritt sogleich eine neue beobachtbare Tatsache produziert. Ein Forschungsprogramm ist dagegen erfolglos, wenn es zu einer degenerativen Problemverschiebung führt.
Die Kontinuität der Wissenschaft, die Zähigkeit von Theorien und die Rationalität eines gewissen Ausmaßes an Dogmatismus, lassen sich nach Lakatos nur erklären, wenn die Wissenschaft als ein Schlachtfeld von Forschungsprogrammen und nicht von isolierten Theorien aufgefasst wird. Wissenschaftlicher Fortschritt lässt sich nicht dadurch verstehen, dass wir einzelne Brocken unserer Erkenntnis isoliert betrachten.
Im Gegensatz zum dogmatischen Falsifikationismus behaupten Wissenschaftler oft und in völlig rationaler Weise, dass bestimmte experimentelle Ergebnisse nicht zulässig sind oder der Widerspruch zwischen diesen und der Theorie nur ein scheinbarer ist. Ein dogmatisches Prinzip ist hier genauso bedeutend für die Wissenschaft wie die kritische Einstellung. Nur durch die dogmatische Haltung können wir an einer Theorie hinreichend lange festhalten, um zu entdecken, was in ihr steckt. Der Dogmatismus der normalen Wissenschaft verhindert also das Wachstum nicht, solange wir ihn mit einer adäquaten kritischen Einstellung kombinieren.
Der Hauptunterschied zwischen dem methodologischen (Lakatos) und dogmatischen (Popper) Falsifikationismus besteht darin, dass die Kritik in der ersteren nicht so schnell tötet und töten darf, wie Popper es sich ursprünglich vorgestellt hat. Die Widerlegung oder der Nachweis einer Inkonsistenz eliminiert ein Forschungsprogramm nicht. Das Fortschreiten eines Programms ist ein langer und manchmal frustrierender Prozess. Die knospende Erkenntnis muss wie eine seltene Pflanze mit Geduld und Nachsicht behandelt werden. Erfolg wird sich nur durch konstruktive Kritik konkurrierender Forschungsprogramme einstellen und dramatische Ergebnisse werden häufig erst im Nachhinein und aufgrund einer rationalen Rekonstruktion sichtbar.
Es ist jetzt auch gestattet, beliebige Teile des “Leibes” der Wissenschaft zu ersetzen, solange es in progressiver Weise geschieht. Negative Entscheidungsexperimente spielen nur noch eine untergeordnete Rolle. Es ist ebenfalls erlaubt, dass eine Gruppe von Wissenschaftlern konspiriert und so viel Energie in ihr Forschungsprogramm -- den harten Kern -- investiert, solange ihr Programm durch ihren Intellekt und ihr Glück progressiv fortschreitet. Wenn zwei Forschungsgruppen konkurrierende Forschungsprogramme verfolgen und so in Wettstreit treten, dann wird jene mit dem größeren schöpferischen Talent höchstwahrscheinlich erfolgreich sein, es sei denn, sie bewährt sich nicht empirisch. Die Richtung der Wissenschaft wird nicht durch die Welt der Tatsachen bestimmt, die uns umgibt, sondern vor allem durch die schöpferische Phantasie der Wissenschaftler.
Obgleich die Ausführungen von Lakatos sehr instruktiv klingen, verstarb er leider in jungen Jahren bevor er seine Ideen weiter entwickeln konnte. Das Hauptproblem in seinen Ausführungen ist, ein Kriterium zu finden, das darüber entscheidet, zu welchem Zeitpunkt ein Forschungsprogramm aufgegeben wird. Da sich bis heute kein geeignetes Kriterium gefunden hat, blieb Lakatos Ansatz fruchtlos.
4.4 Theoriendynamik
Dem revolutionären Forscher wurde von Kuhn insofern irrationales Verhalten unterstellt, als er die Preisgabe einer Theorie mit der Annahme einer neuen Theorie koppelt und es keine rationalen Argumente zu geben scheint, den Übergang von der einen Theorie zur anderen zu rechtfertigen, weil beide Theorien inkommensurabel sein sollen. Stegmüller behauptet nun, dass Kuhn bezüglich der Theorienverdrängung durch eine Ersatztheorie ein Fehler unterlaufen ist. Der Fehler besteht darin, dass Kuhn einerseits behauptet, dass einander ablösende Theorien unverträglich miteinander sind, und andererseits, dass nicht nur von wissenschaftlichen Umwälzungen sondern von Fortschritt gesprochen wird. Das Sprechen über Erfolg und Fortschritt impliziert aber, dass wir die Theorien doch irgendwie miteinander vergleichen können.
Worin müsste nun aber die Beziehung zwischen der verdrängten und verdrängenden Theorie bestehen, damit der frühere Erfolg der alten und die Überlegenheit der neuen Theorie verständlich werden. Nach Stegmüller muss die verdrängte Theorie auf die Ersatztheorie reduzierbar sein. Obwohl Kuhn bestreitet, dass dieses möglich ist, weist Stegmüller mit Vehemenz und auch Polemik daraufhin, dass dieses durchaus möglich ist.
Die Vergleichbarkeit verschiedener Theorien ist für die weitere Argumentation insofern fundamental, weil hier eine vermeintliche Rationalitätslücke geschlossen wird, die sowohl Kuhn als auch Feyerabend benutzten, um darauf hinzuweisen, dass es nicht Argumente sind, sondern Propaganda ist, die jemanden vom Stellenwert einer neuen Theorie überzeugt. Mit der Erkenntnis, dass die neue Theorie dasselbe und mehr leisten muss als die alte Theorie und damit die alte Theorie auf die neue Theorie reduzierbar sein muss, ist es jetzt nicht mehr notwendig, nach lediglich psychologischen Gründen zu suchen, warum ein Forscher an die neue Theorie glaubt.
Natürlich ist die neue Theorie eine Erfolgsverheißung, die erst noch eingelöst werden muss, aber jetzt sind auch wieder rationale Argumente zugelassen, um jemanden von der neuen Theorie zu überzeugen. Inwieweit auch Propaganda usw. eingesetzt werden kann, um den Siegeszug der neuen Theorie zu beschleunigen, bleibt davon unberührt.
Eine physikalische Theorie ist offensichtlich nicht ein einfaches System von miteinander verknüpften Aussagen, sondern es ist ein Gebilde mit einem starren Zentrum und einer wachsenden und sich ändernden Peripherie. Das Zentrum besteht aus einer komplizierten, relativ stabilen mathematischen Struktur, über die wir erst Klarheit gewinnen, wenn wir ihren dynamischen Lebensweg “von der Wiege bis zur Bahre” verfolgen. Es bedarf der Kreativität des Wissenschaftlers, eine Theorie soweit mit Leben zu füllen, dass sie für systematische Beschreibungen, Erklärungen und Voraussagen verwendet werden kann.
Hoffentlich hat dieser Exkurs in die Dynamik des wissenschaftlichen Fortschritts Ihren Glauben an die Rationalität der Wissenschaft nicht zu sehr erschüttert. Allen Konzepten ist es bis heute nicht gelungen, eine definitive rationale Methodologie zu begründen. Es bleibt weiterhin ungeklärt, bis zu welchem Punkt ein gewisser bornierter Dogmatismus sinnvoll ist und wann es besser wäre sich selbstkritisch zu zeigen. Die Befürchtungen von Feyerabend sind nicht vollkommen von der Hand zu weisen, wie wir auch im weiteren Verlauf wiederholt erkennen werden.
Nachdem wir uns in den ersten Abschnitten von Wissen und Wahrheit verabschiedet haben, scheinen wir auch der Wissenschaft keinen durchgehenden rationalen und kritischen Duktus zusprechen zu können. Wenn Sie mit einem normalen Wissenschaftsverständnis und Wissenschaftsgläubigkeit begonnen haben, dann dürften Sie langsam das Gefühl bekommen, dass wir die fest verankerte Plattform der Wissenschaft sukzessive unter unseren Füßen demontieren. Sie werden eine zunehmende Verunsicherung spüren. Ihre Plattform scheint zu schwanken und zu wanken. Es ist deshalb verständlich, dass Sie nach Gewissheit suchen, um Ihr Fundament wieder zu festigen. Da eine der grundlegenden Gewissheiten unsere Wahrnehmungen zu sein scheinen, denen wir in unserer Lebenswelt unbedingt vertrauen, werden wir uns nun mit unserem Wahrnehmungsvermögen auseinander setzen.
{/jkefel} {jkefel title=[Kap. 5]}
5. Wahrnehmung und Erfahrung
5.1 Sinnliche Erfahrung
5.2 Empirisches Fundament
5.3 Beobachtung und Erfahrung
5.4 Wahrnehmungen
5.5 Erfahrung der Außenwelt
5.6 Niedergang des Empirismus
Nachdem wir erkennen mussten, dass wir über kein definitives Wissen verfügen, dass wir uns keiner Sache absolut gewiss sein können, dass alle unsere Erkenntnisse immer nur vorläufig sind, dass unsere vertraute Realität auf schwankendem Fundament errichtet ist, - also mehr auf Flugsand anstatt auf Fels -, wollen wir nun Zuflucht nehmen zu unserer letzten Hoffnung. Diese Hoffnung ist unsere unmittelbare Erfahrung in der Lebenswelt.
5.1 Sinnliche Erfahrung
Wir sind von klein auf gewohnt, unseren Erfahrungen bzw. Beobachtungen zu vertrauen, denn sie sind letztlich das Fundament unserer Lebenswelt, der Welt in der wir uns befinden, die unsere Realität darstellt. Vielleicht erinnern Sie sich an den Beginn der ersten Vorlesung, wo explizit darauf hingewiesen wurde, dass wir im Allgemeinen unserer Lebenserfahrung vertrauen. Wir sehen in der Regel keinen Anlass, uns nicht unserer Lebenswelt anzuvertrauen. Deshalb sind wir auch bereit, uns bei strittigen Fragen über die Realität auf unsere persönliche Erfahrung als entscheidende Institution zu verlassen. Wenn wir wissen wollen, wie es sich in Wirklichkeit verhält, dann verlassen wir uns auf unsere eigene Wahrnehmung.
Die sinnliche Erfahrung ist so die Basis unseres Wissens. Durch reines Nachdenken allein werden wir keine Wahrheiten über die reale Welt herausfinden, egal wie groß der dabei aufgewendete Scharfsinn ist. Der Bezug auf die Realität, auf unsere Lebenswelt, ist immer gefordert und ist zugleich die Grundlage unserer Erkenntnisse über die Welt. Da Aristoteles als Vertreter der antiken Denkweise und Galilei als der der Neuzeit den Begriffen “Beobachtung”, “Wahrnehmung”, “Erfahrung”, “Erkenntnis” und “Wissen” eine unterschiedliche Bedeutung zusprechen, werden wir uns noch einmal mit ihrer Bedeutung und Verwendungsweise beschäftigen.
Was ist eine Erkenntnis? Was bedeutet es, etwas zu erkennen? In der Regel erläutern wir den grundlegenden Begriff der Erkenntnis dadurch, indem wir darauf hinweisen, dass wir uns Wissen aneignen, wenn wir etwas erkennen. Es scheint also einen sehr engen Zusammenhang von Erkenntnis und Wissen zu geben. Nur wenn jemand etwas weiß, hat er es auch erkannt. Nur wenn jemand etwas erkannt hat, dann weiß er es auch.
Konzentrieren wir uns zunächst auf das Erkennen von einfachen Gegenständen. Wir erkennen nur dann ein Etwas, einen Gegenstand, wenn wir ihn von anderen Gegenständen unterscheiden können. Die Fähigkeit, zu Erkenntnissen und zu Wissen zu gelangen, impliziert demnach die Fähigkeit zur Diskrimination zwischen Gegenständen und Identifikation einzelner Gegenstände. Wir müssen in der Lage sein, einen Gegenstand von anderen Gegenständen zu unterscheiden und ihn aufgrund bestimmter Merkmale zu spezifizieren. Erst durch die Abgrenzung des ausgesuchten Gegenstandes von den anderen können wir eine Unterscheidung vollziehen und wissen, worüber wir sprechen. Unterscheiden, Differenzieren und Spezifizieren sind unabdingbare Voraussetzungen, um die Mannigfaltigkeit der Welt zu strukturieren.
5.2 Empirisches Fundament
Wir gehen in unserem alltäglichen Verständnis davon aus, dass unser gesamtes Wissen in irgendeiner Form auf einem empirischen Fundament beruht. Wenn wir einen Gegenstand sehen und ihn als Stuhl erkennen, dann ist dieses eine unvermittelte und spontane Erkenntnis. Wir wissen, dass wir einen Stuhl sehen, und wir würden dieses Wissen jetzt nicht mehr durch andere Argumente zu begründen versuchen, sondern lediglich auf den Gegenstand verweisen. Dieser direkte Bezug auf unsere Wahrnehmungen gibt uns ein sicheres Gefühl. Wir sind bereit, uns auf dieses Wissen zu verlassen, es bedarf keiner weiteren Begründung mehr. Wir scheinen mit der Wahrnehmung über ein sicheres empirisches Fundament zu verfügen. Wenn ich mit meinem Fuß gegen einen Tisch stoße und starke Schmerzen verspüre, dann werde ich nicht darüber diskutieren, ob es sich um einen harten Gegenstand gehandelt hat oder nicht. Direkte Wahrnehmungen scheinen so mit einer besonderen Autorität ausgestattet zu sein. Sie gelten uns als gewiss.
Gewissheit heißt hier, dass wir nicht glauben, uns zu irren, und dass wir nicht an ihnen zweifeln -- obwohl es theoretisch möglich wäre. Der gesamte Empirismus leitet aus diesem Phänomen seine Berechtigung ab. Solange ein empirisches Fundament als unabdingbar gilt, um unserem Wissen einen bestimmten Grad an Gewissheit zu verleihen und den Realitätsbezug zu garantieren, solange behält der Empirismus seine Bedeutung. Wenn die Gewissheit dieses Fundamentes aber wegfallen würde, dann hätten wir zwar immer noch ein interessantes und komplexes System von Aussagen, aber es wäre haltlos, nicht an der Realität verankert, und würde uns kein tatsächliches Wissen über die Realität geben.
5.3 Beobachtung und Erfahrung
Da die Beobachtungsaussagen das Fundament unserer Erkenntnis bilden, wollen wir nun schauen, wie sie zustande kommen. Einen Stuhl oder Apfel erkennen wir nur dann, wenn wir ihn wahrnehmen. Nur über die Wahrnehmung bzw. Beobachtung gelangen wir zur empirischen Erfahrung. Ist aber die Wahrnehmung oder Beobachtung tatsächlich unabhängig von jeder Theorie? Gibt es theorieunabhängige Beobachtungen? Wir würden diese Fragen gern bejahen, um aufgrund „neutraler“ Beobachtungen über die Richtigkeit oder Falschheit einer Theorie urteilen zu können. Leider scheint es so zu sein, dass alle Beobachtungen bereits in irgendeiner Form mit Theorien verknüpft sind und dass es keine “neutrale” bzw. unparteiische Beobachtung von Gegenständen oder Ereignissen gibt. Alle Beobachtungsaussagen scheinen theoriebeladen zu sein. Wenn das aber tatsächlich zutrifft und es keine „neutrale“ Beobachtung gibt, dann hätte dieses die wenig wünschenswerte Konsequenz, dass wir Theorien nicht mehr durch eine unabhängige bzw. neutrale Institution auf Wahrheit oder Falschheit überprüfen können.
Was verstehen wir unter einer „neutralen“ Beobachtung? Neutrale Beobachtungen sollen sich dadurch auszeichnen, dass sie erklärbar sind, ohne dass wir auf irgendwelche theoretischen Aspekte zurückgreifen müssen. Sie sollen durch den ausschließlichen Hinweis auf Beobachtbares hinreichend bestimmt sein. So könnten wir meinen, dass die Sätze “die Blätter sind grün” oder “bei der Magenspiegelung finden sich mehrere Verletzungen der Magenschleimhaut” Beobachtungen zum Ausdruck bringen, zu dessen Bestätigung nicht auf eine Theorie zurückgegriffen werden muss, denn wir sehen doch, dass die Blätter grün sind und dass sich im Magen Verletzungen befinden. Wollte jemand die Sätze bezweifeln, dann erscheint es ausreichend, auf die besagten Blätter zu zeigen, und wenn diese tatsächlich grün sein sollten, würde der Zweifler die Behauptung bejahen können. Ähnlich verhält es sich mit den deutlich sichtbaren rötlichen Schleimhautveränderungen im Magen.
Bei dem zweiten Beispiel ist schnell erklärt, warum es keine neutrale Beobachtung ist: Um die Behauptung zu überprüfen, müssen wir ein Instrument, ein Gastroskop, verwenden, dessen Gesetzmäßigkeit in die Bewertung der Beobachtung mit eingeht. Ohne eine für wahr akzeptierte Theorie optischer Phänomene können wir nicht sicher sein, dass die Bilder, die auf dem Monitor erscheinen, mit dem korrespondieren, was wir direkt mit den Augen sehen. Änderungen des Kontrastes, Bildverzerrungen und farbliche Veränderungen müssen adäquat ausgeglichen sein.
Obwohl das erste Beispiel eine direkte Beobachtung beschreibt, enthält es ebenfalls einige hypothetische Annahmen, die dann zu Tage treten, wenn wir uns etwas genauer mit der Wahrnehmung auseinander setzen. Wie konstituiert sich eine direkte Beobachtung? Wie stellt sie sicher, das wir den Gegenstand auch adäquat wahrnehmen?
Es stand bereits in der Antike außer Frage, dass unser Tatsachenwissen auf Erfahrung beruht und ihr nicht widersprechen darf. Als empirische Erfahrung wurde dasjenige angesehen, was sich dem Menschen unter alltäglichen Umständen darbot, d.h., sie implizierte das Tageslicht und ein waches Bewusstsein. Wenn keine ungewöhnlichen physikalischen Bedingungen herrschten, wie zum Beispiel bei einer Fata Morgana, dann war die sinnliche Erfahrung eine sichere und vertrauenswürdige Quelle des Wissens. Da die Gelehrten damals glaubten, dass das Universum, der Mikro- und Makrokosmos, harmonisch aufeinander abgestimmt ist, bestand kein Anlass, der Wahrnehmung zu misstrauen. Es wurde allgemein unterstellt, dass die durch die Wahrnehmung vermittelte Erfahrung dem Menschen die Welt so zeigt, wie sie tatsächlich ist. Jede Betrachtung der Welt durch oder vermittels eines Instrumentes implizierte dagegen die Gefahr, die Wahrnehmung zu verzerren, wie an schlecht geschliffenen Linsen oder verformten Spiegeln leicht bewiesen werden kann. Die natürliche Wahrnehmung vermittelt durch unsere Sinnesorgane wurde damals als entscheidende Instanz angesehen, die über die Wahrheit von Aussagen entscheidet.
Galilei konnte später zeigen, dass diese ablehnende Auffassung gegenüber Instrumenten entscheidende Nachteile hat. So sind unsere Sinnesorgane viel zu schwach, um die Jupitermonde, Sonnenflecken oder die Oberfläche des Mondes zu erkennen oder die genaue Position der Planeten und Sterne zu bestimmen, denn erst mit Hilfe von Ferngläsern wurden diese neuen Fakten nachgewiesen. Obgleich die Instrumente zunächst mit großer Skepsis eingesetzt wurden, waren einige im Alltag durchaus gebräuchlich. So hatte sich die Lesebrille als segensreich zur Korrektur der Altersweitsichtigkeit erwiesen. Da die Sehschwäche durch die Brillengläser effektiv ausgeglichen werden konnte, setzte sich zunehmend die Meinung durch, dass die “natürliche” Erfahrung durch unsere bloßen Sinnesorgane doch nicht so optimal und untrüglich ist, wie sie zunächst erschien. Die klassische Auffassung der Erfahrung wurde zunehmend kritisiert: Sie war im Vergleich zu modernen Instrumenten nicht detailliert genug, sie täuscht uns zuweilen und sie war ebenfalls nicht frei von theoretischen Annahmen.
5.4 Wahrnehmungen
Wie aber sieht eine moderne Konzeption der sinnlichen Erfahrung, der Wahrnehmung aus? Sind Wahrnehmungen ausschließlich von unseren Sinnesorganen abhängig, die unseren Organismus mit Informationen über die „Außenwelt” versorgen, oder sind die Wahrnehmungsinhalte auch ein Konstrukt unseres Gehirns. Sehen wir einfach ein Schiff, indem es sich wie bei einer Kamera auf der Netzhaut des Auges widerspiegelt und dann im Gehirn als Bild erscheint, oder ist die Wahrnehmung eines Schiffes eher das Produkt eines komplexen Prozesses des gesamten Gehirns unter minimaler Beteiligung der Sinnesorgane.
Wahrnehmung ist mehr als die bloße Verarbeitung von einfachen Sinnesreizen, denn Denken und Erinnern spielen bei der Wahrnehmung eine genauso bedeutende Rolle wie die Sinnesreize selbst. Bei der Wahrnehmung handelt es sich nicht um eine einfache Abbildung, sondern um eine komplexe und gefilterte Verarbeitung von Informationen in unserem Wahrnehmungssystem. Wir interpretieren die Informationen, die wir von den Sinnesreizen erhalten. Dabei berücksichtigen wir unsere vorherigen Erfahrungen genauso wie den Kontext, in dem wir die Reize spüren.
Die Bedeutung dieser Interaktionen von Reizinformationen und Vorwissen wurde in vielen Untersuchungen überprüft. In einigen Experimenten wurde der Einfluss der Aufmerksamkeit auf die Wahrnehmung untersucht. Dabei wurde derselbe Reiz an die gleiche Stelle der Netzhaut des Auges gesetzt, ohne dass sich die Augen bewegten. Dann wurde die Aufmerksamkeit auf verschiedene Reizantworten gelenkt. Es war deutlich erkennbar, dass die Nervenzellen des visuellen Systems in Abhängigkeit vom Interesse der Person reagieren. Die Aufmerksamkeit hat also einen wesentlichen Einfluss auf die weitere Verarbeitung.
Versuchen Sie sich vorzustellen, wie viele Reize wir von einem Stuhl empfangen, auf dem wir sitzen. Sie werden allesamt vom Gehirn registriert. Aber irgendwie muss das Gehirn sicherstellen, dass diese Reize auch auf ein einzelnes Objekt bezogen werden. Wie schafft das Gehirn diese Synthese? Woher weiß das Gehirn, welche Reize zum selben Objekt gehören und welche nicht? Die Synchronizität der Reize scheint ein wichtiges Kriterium bei der Zuordnung auf ein einzelnes Objekt zu sein. Auf diese Weise können verschiedene Qualitäten auf ein Objekt bezogen werden. Bedenken Sie aber, wie anfällig diese Zuordnung ist, wenn sie ausschließlich auf Synchronizität beruhen würde. Alle gleichzeitig eingehenden Reize, wodurch sie auch immer veranlasst wurden, würden auf einen Gegenstand bezogen.
Wenden wir uns nun der Farbwahrnehmung zu, denn sie ist in unserer alltäglichen Lebenswelt besonders relevant. Die beiden wichtigsten Funktionen der Farbwahrnehmung sind einerseits die Trennung von Wahrnehmungsfeldern und andererseits die der Signalgebung. Farben liefern uns nicht nur einen besseren Kontrast zwischen den Gegenständen, sondern sie weisen auch darauf hin, dass bestimmte Teile eines Gegenstandes zusammengehören. Auf diese Weise bewahren uns die Farben vor Verwirrungen durch Schatten, Spiegelungen oder ungleichmäßige Beleuchtung und helfen uns, unsere Umwelt besser zu strukturieren. Die Farben „weiß“, „schwarz“ und „grau-Schattierungen“ werden achromatische Farben genannt, während „blau“, „rot“, „grün“ und „gelb“ chromatische Farben genannt werden. Man wird es kaum für möglich halten, aber unter Berücksichtigung der Sättigung verschiedener Farben können wir ungefähr 2 Millionen verschiedene Farben unterscheiden, die allesamt durch die Bezeichnungen mit „rot“, „gelb" und „grün““ vollständig beschrieben werden können.
Wie kommt aber eine Farbwahrnehmung zustande? Wann sehen wir etwas als grün? Um eine grüne Farbe zu sehen, ist es nicht erforderlich, dass die Farbreize physikalisch immer dieselben sind. Auch unterschiedliche Spektren können uns farblich als identisch erscheinen, vorausgesetzt sie erregen die Rezeptoren der Retina im gleichen Verhältnis. Das bedeutet letztlich, dass zwei objektiv unterschiedliche Reize, die sich physikalisch deutlich unterscheiden, dennoch dieselbe Antwort auslösen können. In diesem Fall machen wir dieselbe Wahrnehmung, obgleich sie physikalisch unterschiedlich verursacht wird. Daraus folgt, dass wir aus einer bestimmten Farbwahrnehmung nicht sicher auf die Eigenschaften der physikalischen Gegenstände schließen können. Egal, wodurch die Rezeptoren erregt werden, ausschlaggebend ist lediglich, dass die Rezeptoren gleichsinnig stimuliert werden.
Es gibt zwei Theorien, wie die bewusste Farbwahrnehmung zustande kommt. Da wäre einmal die Dreifarbentheorie, nach der jede Farbe einer additiven Farbmischung entspricht. Diese Theorie wurde primär von Helmholtz und Young ausgearbeitet. Ihre Konkurrentin ist die sogenannte Gegenfarbentheorie. Sie beruht auf einer phänomenologischen Beobachtung der Farben und wurde von dem Physiologen Hering präsentiert. Nach jahrzehntelangem Streit scheint sich abzuzeichnen, dass beide Mechanismen zur Farbwahrnehmung beitragen. Offensichtlich ist ein trichromatischer Mechanismus, auf der Rezeptorenebene wirksam, während die Gegenfarbenmechanismen auf der Ebene höherer Neurone wirken.
Auch viele Tiere nehmen Farbe wahr, die sich zum Teil von der menschlichen unterscheidet, weil sie zum Beispiel wie die Tauben über eine pentachromatische Farbwahrnehmung oder wie Katzen und Hunde nur über eine dichromatische Farbwahrnehmung verfügen. Es ist deshalb wahrscheinlich, dass sie ihre Umwelt deutlich anders wahrnehmen als wir.

Scheinbarer Würfel
Wenden wir uns noch kurz der Gestaltpsychologie zu, die von Max Wertheimer aufgestellt wurde. Er behauptete, dass die Wahrnehmung sich nicht ausschließlich aus kleinen elementaren Bausteinen zusammensetzt, sondern dass das Ganze, das wir wahrnehmen, mehr als die Summe seiner Teile ist. Unsere Wahrnehmung wird offensichtlich nicht nur von dem eigentlichen Reizmuster konstituiert. Wir nehmen auch Scheinkonturen wahr, denen kein physikalisches Reizmuster entspricht. Betrachten Sie dazu einen Würfel, der vor den roten Kreisen im Raum schwebt. Unsere Wahrnehmung hängt von der gesamten Konfiguration des Reizmusters ab. Es ist klar, dass die Konturen des Würfels physikalisch überhaupt nicht vorhanden sind und dennoch werden diese Konturen durch die roten Kreise und Linien auf den Kreisen durch unsere Gehirntätigkeit erzeugt. Obgleich es physikalisch nicht existent ist, erscheint es uns real.
Wir verdanken der Gestaltpsychologie einige wichtige Erkenntnisse. Zum Beispiel wird jedes Reizmuster so wahrgenommen, dass die resultierende Struktur so einfach wie möglich ist. Des weiteren werden ähnliche Dinge oder Punkte, die als gerade oder sanft geschwungene Linien gesehen werden, zu zusammengehörenden Gruppen geordnet. Linien gehen tendenziell immer den einfachsten direkten Weg. Dinge, die sich in gleicher Richtung bewegen oder eng beieinander liegen, nehmen wir als zusammengehörig wahr. Diese Leistungen der Gestaltbildung wird nicht von Außen sondern vom Gehirn erbracht und durch das Reizmuster nicht eindeutig nahegelegt.

Kelch oder Gesicht
Betrachten Sie Kippfiguren, bei denen es wesentlich darauf ankommt, zwischen der eigentlichen Figur und dem weniger wichtigen Hintergrund zu unterscheiden. Die bekannte Kippfigur kann entweder als eine weiße Vase oder als zwei schwarze Gesichter gesehen werden. Der Trick bei diesem „Kippen“ besteht darin, festzulegen, was als Hintergrund wahrgenommen wird, denn das wird als ungeformtes Material angesehen. Sobald man die weißen Areale als Figur sieht, nimmt man eine Vase wahr und die schwarzen Areale bleiben ungeformtes Material. Wird das Weiße dagegen zu einem ungeformten Material im Hintergrund, so entstehen die beiden schwarzen Gesichter. Interessanterweise gibt es keine richtige Antwort auf die Frage, was denn nun tatsächlich abgebildet wurde. Insgesamt neigt der Mensch aber dazu, symmetrisch geformte Bereiche eher als Figur wahrzunehmen.
Es ist heute allgemein akzeptiert, dass die Wahrnehmung nicht nur von dem passiven Empfangen von äußeren Reizen abhängt, sondern von der wahrnehmenden Person aktiv beeinflusst wird. Wahrnehmung entspricht mehr einem Konstruktionsprozess. Das Resultat dieses Prozesses, das Konstrukt des Gehirns bzw. der Gegenstand, den wir wahrzunehmen glauben, wird eher danach ausgewählt, wie wahrscheinlich er die Ursache unserer jeweiligen sensorischen Empfindung sein könnte. Wahrnehmung entspricht so gesehen einer Hypothesentestung. Das Sensorium liefert uns Daten und das Gehirn versucht ein hoch wahrscheinliches Modell über den Zustand der äußeren Welt zu liefern. - Zum Glück sind wir bei dieser Hypothesentestung meistens sehr erfolgreich.

Unmögliches Objekt
Ein anderes interessantes Phänomen sind die so genannten unmöglichen Objekte. Es handelt sich dabei um Objekte, die in der dreidimensionalen Welt nicht existieren können. Exemplarisch zeige ich Ihnen eines dieser unmöglichen Objekte. Der Grund für dieses Phänomen liegt darin, dass wir komplexe größere Gegenstände nicht en bloc verarbeiten, sondern das Bild sukzessive visuell abtasten und uns so eine kognitive Landkarte dieses Objektes erstellen. Dabei vergleichen wir die Informationen miteinander, die wir bei der Fixation unterschiedlicher Teile aufnehmen. Bei dieser Abbildung stellen wir fest, dass irgend etwas Seltsames geschehen ist. Wir haben zwar das Reizmuster in seine Komponenten oder Attribute zerlegt, aber wir können es nicht mehr sinnvoll zusammensetzen.
Wir sollten uns immer bewusst sein, dass wir die Realität außer uns nur insofern erkennen können, als wir über Informationen durch unsere Sinnesorgane verfügen. Die direkte Wahrnehmung von Gegenständen über unsere Sinnesrezeptoren erscheint uns zwar verlässlich, aber sie reagieren nur auf bestimmte physikalische Eigenschaften des Gegenstandes. Damit ist jede Wahrnehmung eines Gegenstandes zwangsläufig auf einen definierten Ausschnitt seiner physikalischen und chemischen Eigenschaften beschränkt. Alle anderen Aspekte des Gegenstandes werden ausgeblendet. Bedenken Sie zum Beispiel den geringen Ausschnitt an elektromagnetischen Wellen, den wir mit unseren Augen empfinden können. Bestimmte Wahrnehmungen, wie die des magnetischen Feldes der Erde, die einige Vögel zur Orientierung verwenden, können von uns genauso wenig wahrgenommen werden, wie sehr hohe Schallfrequenzen oder ultraviolette Strahlung. Nur durch die Verwendung von Instrumenten können wir diesen Mangel partiell ausgleichen.
Vom evolutionären Standpunkt aus betrachtet, wäre es für den menschlichen Organismus auch wenig effektiv, wenn der Organismus zu viele Reize verarbeitet. Es ist häufig nur notwendig, wenige relevante Einzelaspekte zu erfassen, um den Gegenstand zu erkennen. Zu viele Detailinformationen wären in gewöhnlichen praktischen Situationen viel zu arbeitsaufwendig und sogar hinderlich. Eine “vollständige” Erkennung eines Gegenstandes wäre unzweckmäßig. Von Seiten des Organismus ist es im Grunde sinnvoll, die Welt nur in dem Maße zu erfassen, wie es für das Überleben notwendig ist. Alle zusätzlichen Informationen mögen von akademischen Interesse sein, sie sind aber nicht unbedingt erforderlich.
Den kurzen Ausflug in die Wahrnehmungsphysiologie und -psychologie haben wir auf uns genommen, um selbst bei diesen für uns so elementaren Ereignissen einerseits auf die Täuschungsmöglichkeiten hinzuweisen und andererseits darauf, dass die Wahrnehmung eines Gegenstandes nicht ein einfaches Abbilden oder Kopieren des Gegenstandes auf unserer Netzhaut ist, die dann so erkannt wird. Wahrnehmung ist ein komplexes interaktives Geschehen, das sich in unserem Gehirn abspielt.
5.5 Erfahrung der Außenwelt
Unsere Meinung über die Realität entsteht offensichtlich in unserem Gehirn. Es erhält zwar von der Umwelt durch die Sinnesorgane die notwendigen Informationen, um eine Wirklichkeit zu konstituieren. Die Erregungen der Sinnesorgane geben aber keine exakten Informationen darüber, wie die Umwelt tatsächlich beschaffen ist. Das Gehirn muss aus den gesammelten weitgehend homogenen Informationen ein kohärentes und verlässliches Bild der Umwelt entwerfen, das nicht unbedingt isomorph zur Realität sein muss.
Wie aber konstituiert sich die Wahrnehmung eines Gegenstandes und damit unsere Welt? Nach Gerhard Roth liegen auf der ersten Stufe des Wahrnehmungsprozesses Elementarereignisse vor, die durch die Reizung der Sinnesrezeptoren hervorgerufen werden. Diese Ereignisse werden dann durch weitere Prozesse im zentralen Nervensystem zu komplexeren Wahrnehmungsinhalten. Die Elementarereignisse, die Sinnesreize, sind die einzigen Informationen, die von außen zu uns gelangen, d.h. alle anderen Inhalte, die wir aufgrund der Einbildungskraft entwickeln, müssen letztlich aus diesen Informationen hergeleitet werden.
Durch Vergleich und Kombination werden vom Gehirn neue Bedeutungen konstruiert und mit den bereits vorhandenen Erfahrungen abgeglichen. Zur optimalen Verarbeitung werden die Produkte kategorial geordnet, denn die Einteilung von Wahrnehmungsinhalten in bestimmte Objekt- oder Prozessgruppen vereinfacht den Wahrnehmungsprozess. Die Erkenntnis des Gegenstandes ist also eine Leistung des gesamten Gehirns, angeregt durch bestimmte Sinneseindrücke. “Während unsere Sinnessysteme vieles ausblenden, was in der Außenwelt passiert, enthält umgekehrt unsere Wahrnehmungswelt auch ihrem Inhalt nach sehr vieles, was keinerlei Entsprechung in der Außenwelt hat.” Im Grunde erzählen uns die modernen Neurowissenschaften nicht mehr, sondern nur genauer, was bereits Aristoteles beschrieben hatte.
Es kommt nicht selten vor, dass wir nur Bruchstücke an Sinnesdaten von dem Gegenstand erhalten und uns doch ein Bild von dem Gegenstand bilden können. So weist Nelson Goodman daraufhin: “Offensichtlich ist das visuelle System unbeirrbar, erfindungsreich und manchmal geradezu ein wenig pervers, wenn es eine Welt nach eigenen Gesichtspunkten aufbaut; die Ergänzung ist geschickt, gewandt und häufig raffiniert.” Halten wir fest, dass manche Erfahrung mehr aus unserem Gedächtnis als vom Gegenstand selbst erzeugt wird. Es ist häufig nur eine definierte kritische Menge an Sinnesdaten notwendig, um gemeinsam mit unseren kognitiven Wissen einen Gegenstand zu erkennen und damit im Grunde zu erzeugen.
Gerhard Roth schrieb: ”Das Gehirn trifft die Unterscheidungen über den Wirklichkeitscharakter erlebter Zustände aufgrund bestimmter Kriterien, von denen keines völlig verlässlich arbeitet. Es tut dies in selbstreferentieller Weise; es hat nur seine eigenen Informationen einschließlich seines Vorwissens zur Verfügung und muss hieraus schließen, womit die Aktivitäten, die in ihm vorgehen, zu tun haben, was sie bedeuten und welche Handlungen es daraufhin in Gang setzen muss.” Die Welt offenbart sich uns also nicht nur durch einzelne und eindeutige Informationen, die als besonders verlässlich gelten, sondern durch die wiederholte kohärente Darstellung des Einzelnen in einem Gesamtkomplex. Durch wiederholte Überprüfung und Anwendung verschiedener Kriterien wird die Kohärenz überprüft und erst danach entschieden, als was etwas gelten soll. Wahrnehmungen sind in diesem Sinn lediglich Annahmen über die Umwelt, die in der weiteren Auseinandersetzung bestätigt werden müssen.
Wahrnehmung kann also nicht als ein einfaches Abbilden des Gegenstandes angesehen werden, wie früher geglaubt wurde, bevor die notwendigen neuroanatomischen und -physiologischen Kenntnisse verfügbar waren. Die Reizung der Sinnesrezeptoren ist zwar notwendig, aber nicht hinreichend zur Wahrnehmung eines Gegenstandes. Erst die zusätzliche Verarbeitung im Zentralnervensystem schafft so etwas wie die Wahrnehmung eines Gegenstandes.
Erinnern Sie sich noch an die Ausführungen über die Wahrheit im ersten Abschnitt? Auch hier mussten wir feststellen, dass Wahrheit sinnvoll nur als Kohärenz, Konsens oder erfolgreiche Pragmatik begriffen werden kann, die sich in unserem Kopf formt. Auch die Wahrheit wurde offensichtlich nicht primär von der Realität geschaffen, sondern ist ein von uns geschaffenes, intellektuelles Produkt, genauso wie unsere Welt der Gegenstände.
Wenn die Wahrnehmung ein aktiver Prozess des Gehirns ist, dann ist nicht mehr gesichert, dass unsere Erfahrung eines Gegenstandes tatsächlich mit dem Gegenstand in der Realität zwangsläufig “übereinstimmt”. Wer garantiert uns, dass wir den Gegenstand auch tatsächlich so wahrnehmen, wie er wirklich ist?
Früher vertraute man den Wahrnehmungen, weil man sie für einfache Abbilder der Realität hielt. Man unterstellte eine durchgehende Harmonie zwischen dem Universum, der Realität und der Wahrnehmung von ihr. Es gab zwar bereits bei den Sophisten skeptische Stimmen, aber die waren eher akademischer Natur. Nun aber müssen wir realisieren, dass es eine unüberbrückbare Kluftt zwischen unserer Erfahrung und der Realität gibt.
Wenn es uns nicht gelingen sollte, die Übereinstimmung zwischen dem Gegenstand in der Realität und der Wahrnehmung des Gegenstandes effektiv zu begründen, dann geht die ursprüngliche Gewissheit der empirischen Erfahrung verloren und wir bleiben in unserer konstruierten hypothetischen Welt gefangen. Wir bleiben im selbstgeschaffenen Gefängnis unseres Denkens, unseres Gehirns, unseres Weltverständnisses gefangen.
5.6 Niedergang des Empirismus
Greifen wir nun den Faden wieder auf bezüglich der „neutralen“ Beobachtung. Wir haben aus der Wahrnehmungsphysiologie gelernt, dass uns im Grunde genommen auch die direkte Wahrnehmung keine Gewissheit über unsere Erkenntnis garantieren kann, weil auch sie bereits auf hypothetischen Annahmen über die Realität beruht. Damit erweist sich so etwas wie eine neutrale Beobachtungsplattform definitiv als Fiktion.
Was ergeben sich daraus für Konsequenzen? Nun, wenn es keine neutrale Beobachtungssprache gibt, sondern immer nur eine bereits “interpretierte” Beobachtungssprache, dann ist es nicht mehr möglich, eine Theorie kritisch zu überprüfen, ohne sich in eine zirkelhafte Argumentation zu verstricken. Wenn die Beobachtungssprache bereits durch die Theorie selbst in wichtigen Teilen festgelegt ist, dann können wir diese Theorie nicht mehr objektiv testen?
Mit der Preisgabe der neutralen intersubjektiven Beobachtungssprache gerät der Empirismus als unsere kritische Erkenntnisgrundlage in Gefahr, ja er verliert im Grunde seine Rechtfertigung als kritisches Element, das uns hilft, zwischen wahr und falsch zu unterscheiden. Wir haben bisher vertrauensvoll unterstellt, dass eine Aussage dann empirisch fundiert und gewiss ist, wenn sie sich entweder aus beobachtbaren Sachverhalten gewinnen lässt, oder mit solchen unmittelbar beobachtbaren Sachverhalten in Konflikt steht. Wie können wir uns auf die Korrektheit des empirisch Gegebenen verlassen oder es sogar zur Beurteilung darüber verwenden, ob eine Theorie zutrifft oder besser ist als eine andere, wenn die Beobachtungssprache nicht neutral ist bezüglich der kritisierten Theorie? Am Beispiel Galileis konnten wir nachvollziehen, welche Bedeutung eine neue Betrachtungsweise des Wahrgenommenen haben kann.
Woran liegt es, dass diese These von der Theorieabhängigkeit der Beobachtung erst in den letzten Jahrzehnten in den Vordergrund rückte? Möglicherweise lag es an der “naiven” Verwendung des Begriffes “beobachtbar”, der früher häufig als “eine Eigenschaft F ist beobachtbar” interpretiert wurde. Das beobachtende Subjekt wurde bewusst aus der wissenschaftlichen Betrachtung ausgeklammert, um einen objektiven Eindruck zu erwecken, um einen subjektunabhängigen Standpunkt zu vertreten. Die gewonnene Erkenntnis sollte so ausschließlich vom Objekt, von der Realität abhängig sein und nicht vom Untersucher. Diese Forderung wird in wissenschaftlichen Experimenten immer erhoben, um den Einfluss des Untersuchers auszuschalten.
Wir müssen aber im Grunde genommen immer hinzufügen, dass die Eigenschaft F immer nur von einer bestimmten Person beobachtbar ist, die die Eigenschaft F als eben diese Eigenschaft interpretiert. Das einstellige Prädikat “F ist beobachtbar” wird so zum zweistelligen Prädikat “F ist für die Person P beobachtbar”. Diese Relativierung ist notwendig, weil bei der Beobachtung sowohl die biologischen Fähigkeiten der Person als auch seine sprachlichen und fachlichen Fähigkeiten berücksichtigt werden müssen, die der Beobachtende in der Vergangenheit erworben hat. Ein Farbenblinder wird zum Beispiel bestimmte Farben nicht wahrnehmen und eine extrem kurzsichtige Person wird entferntere Gegenstände nicht deutlich erkennen können. Ein erfahrener Automechaniker wird nach einem schnellen Blick unter die Motorhaube häufig die Ursache für eine Fehlfunktion des Motors erkennen, während der unerfahrene Autofahrer lediglich einen Motor sehen wird. Ähnlich kann es sich bei Experimental-Physikern verhalten, die sich häufig darüber einig sind, dass in einem Versuchslabor unter bestimmten Messbedingungen eine mikrophysikalische Erscheinung „unmittelbar” beobachtet wurde, -- was nicht bedeutet, dass dies durch direkte Beobachtung eines „normalen” Menschen bestätigt werden kann, der über keine besonderen physikalischen Kenntnisse und Fähigkeiten verfügt.
Im klinischen Alltag wird umgangssprachlich gelegentlich die Weisheit „erkenne, was Du siehst” geäußert, die nahelegt zwischen einer „bloßen” Beobachtung von etwas und der Erkenntnis von einem Gegenstand als ein bestimmtes Etwas zu unterscheiden. Dies ist besonders in operativen Situationen sehr wichtig. Wenn wir unerfahrenen Operateuren assistieren, dann sind wir häufig verwundert, dass der junge Operateur versucht, Strukturen wie Nerven und Gefäße zu durchtrennen, die der Erfahrene schon längst als wichtig erkannt hat. Es kommt nicht nur darauf an, dass wir etwas sehen, sondern dass etwas als etwas erkannt wird. Erkenntnis ist somit keine zweigliedrige Beziehung zwischen einem Subjekt und Objekt (“x erkennt y.”), sondern sie ist dreigliedrig: “x erkennt y als z”.
Wie wir dargestellt haben, gibt es im Grunde genommen keine Beobachtungsdaten, die nicht bereits durch irgendwelche Hypothesen „belastet” sind. Dasjenige, was wir als unmittelbar Gegebenes ansehen, wird von uns bereits immer schon als ein bestimmtes Etwas interpretiert. Selbst die einfachsten Beobachtungssätze wie „der Ball ist rot” oder „die Musik ist laut” sind „theoriebeladen”, weil bereits das korrekte Erlernen und die Verwendung dieser Begriffe voraussetzt, dass wir eine weitgehend allgemein verbindliche Meinung darüber haben müssen, was rot oder laut ist. Bei der Verwendung von Instrumenten zur Erweiterung unserer Sinnestätigkeiten wird dies noch offensichtlicher.
Selbst wenn wir einen engeren Beobachtungsbegriff verwenden wollten, der den Gebrauch von Instrumenten vermeidet oder gar verbietet, um damit dem ursprünglichen Sinn von Beobachtung zurückzugewinnen, könnten wir auf hypothetische Annahmen nicht verzichten. Wer sich nur auf das sinnlich Wahrnehmbare stützen möchte, also auf den Input der normal funktionierenden Sinnesorgane, der sollte berücksichtigen, dass Wahrnehmung keine bloße Rezeption ist, sondern ein komplexer Prozess des Gehirns. Die Annahme einer hypothesenfreien Beobachtung sollte definitiv in das Reich der Illusionen verbannt werden.
Der Grund, warum diese Fiktion so lange kultiviert worden ist, beruht vermutlich auf dem Streben, ein absolut sicheres Fundament unserer Erfahrung durch die Empirie zu gewinnen. Wie wir aber gesehen haben, ist dies eine unerfüllbare Hoffnung, weil es kein absolut sicheres Fundament gibt, wie sich auch im historischen Rückblick erkennen lässt. Zumindest ist jetzt klar ersichtlich, dass der Empirismus allein, die bloße Beziehung auf Beobachtbares, uns keine sichere Erkenntnis vermittelt. Erst in der Interpretation durch das Hintergrundwissen bzw. Paradigma wird festlegt, als was das Beobachtbare angesehen werden soll.
Dieser Mechanismus, dass das Beobachtbare immer schon aus einem bestimmten Blickwinkel gesehen wird, dass es keinen neutralen Standpunkt gibt, scheint für uns Menschen nicht hintergehbar zu sein. Jede vollzogene Wahrnehmung offenbart sich als ein Akt, der eine so genannte Als-Struktur hat. Ein Gegenstand wird immer als ein bestimmtes Etwas wahrgenommen. “Es gibt keine voraussetzungslose Erkenntnis; wir bewegen uns denkend, sprechend oder argumentierend immer im Rahmen von nicht einholbaren Voraussetzungen. Es gibt keine absolute, sondern viele unterschiedliche und unvergleichbare Grundlagen von Erkenntnis.”
{/jkefel} {jkefel title=[Kap. 6]}
6. Begriff und Wirklichkeit
6.1 Die Welt als Ganzes auf dem Prüfstein
6.2 Entwicklung der Wissenschaft
6.3 Von der Beschreibung zur Mathematisierung
6.4 Mathematisierung als kreativer Akt
6.5 Revolutionen der Geistesgeschichte
6.6 Naiver Realismus
Wir beendeten das letzte Kapitel mit der Feststellung, dass jede Beobachtung theoriebeladen ist, d.h., dass sich jede Beobachtung bereits auf bestimmte, meist unausgesprochene Annahmen und Hypothesen stützt, die sich meistens in unserem alltäglichen Leben bewährt haben. Diesen Annahmen vertrauen wir blind, sie sind uns selbstverständlich, und deshalb treten sie in unserem Leben nicht in Erscheinung, - es sei denn, wir thematisieren sie.
Es gibt zwar keine neutrale Beobachtungssprache, aber offensichtlich eine Art Beobachtungssprache, die sich auf Beobachtbares bezieht. Sie ist grundlegend und unentbehrlich für die Mitteilung von Beobachtungsergebnissen und für die Kommunikation zwischen Wissenschaftlern. Es handelt sich um eine verständliche und leicht zu erlernende Sprache, die wir alle als Kinder lernen.
Von der für sich verständlichen Beobachtungssprache wurde früher eine so genannte theoretische Sprache unterschieden, in der die wissenschaftlichen Theorien formuliert werden. In dieser Sprache kommen dann auch Begriffe vor wie “Atom” oder „schwarzes Loch“, die nicht allein dadurch verständlich sind, dass wir auf ein Atom oder schwarzes Loch zeigen, -- was im engeren Sinne auch gar nicht möglich ist--, sondern diese Begriffe gewinnen erst durch die Theorie ihre Bedeutung. Das bedeutet dann aber auch, dass sich die Bedeutung der Begriffe ändert, wenn sich die Theorie ändert. So verknüpften die Griechen andere Vorstellungen mit dem Wort „Atom” als wir es heute tun, nachdem sich die mikrophysikalische Theorie geändert hat. Ohne diese Theorie wäre der Begriff „Atom“ bedeutungslos. Erinnern Sie sich noch an die verschiedenen Atommodelle, die Sie in der Schule lernen mussten.
Grundsätzlich kann in Frage gestellt werden, ob Elektronen oder Quarks tatsächlich existieren. Sie sind möglicherweise nur ein hilfreiches Konstrukt, um unsere physikalischen Ansichten zu artikulieren? Würden Elektronen als selbständige Einheiten in unserer Welt tatsächlich existieren und hätten wir sie einmal richtig benannt, dann dürfte sich der Bezug auf diese kleinen Gegenstände nicht ändern, wenn wir „Elektron“ anders definieren. Wenn ein Elektron aber lediglich ein Konstrukt unseres Verstandes ist, um physikalische Erscheinungen zu erklären, dann könnte sich mit der Bedeutung des Begriffs “Elektron” zugleich auch der Gegenstandsbereich der Theorie ändern, d.h. wir würden mit einer neuen Theorie plötzlich auf andere Gegenstände verweisen -- oder möglicherweise auf gar nichts.
Es wird aus diesem Sachverhalt sofort ersichtlich, warum sich Befürworter verschiedener Theorien untereinander so selten verständigen können, -- geschweige denn rational über ihre Theorien argumentieren. Sie reden möglicherweise über verschiedene Gegenstände, wenn sie dieselben Wörter verwenden. Eine echte Verständigung ist dann unwahrscheinlich.
Der strikte Unterschied zwischen der Beobachtungssprache und der theoretischen Sprache ist weitgehend gegenstandslos geworden, weil sich alle Begriffe in unterschiedlichem Ausmaß als kontextabhängig erwiesen haben, als abhängig von unserem Weltbild. Es wird zunehmend akzeptiert, dass unser konkretes Wissen, beschrieben in Begriffen, irgendwie schon immer Bezug auf unser Gesamtwissen nimmt, auf unsere Erwartungen und Annahmen über die Welt. Sind wir nicht vollständig gefangen in unserer Sicht, wie die Welt zu sein scheint oder zu sein hat?
6.1 Die Welt als Ganzes auf dem Prüfstein
Es scheint keine Möglichkeit zu geben, lediglich einen Einzelaspekt einer Theorie zu testen und zu widerlegen, egal ob es sich um einen Satz oder eine Verknüpfung von Sätzen handelt, weil wir durch eine geeignete Anpassung des Hintergrundwissens, den Zwang zur Widerlegung jederzeit abschwächen können. Damit wird genau das ausgedrückt, was als wissenschaftshistorisches Faktum wiederholt nachgewiesen wurde: obwohl es Fakten gab, die eine Theorie widerlegten, wurde die Theorie beibehalten -- manchmal dadurch, indem andere Teile der Theorie so verändert wurden, dass die Theorie wieder so “leidlich” passte, oder indem die widerstreitenden Fakten einfach ignoriert wurden.
So sagte der amerikanische Philosoph Quine: "In einem Extremfall kann die Theorie aus so festen konditionierten Verbindungen zwischen Sätzen bestehen, dass sie auch den Fehlschlag von ein oder zwei Vorhersagen aushält. Wir befinden uns dann in einer solchen Lage, dass wir das Nichtzutreffen der Vorhersage durch einen Beobachtungsfehler oder als Ergebnis einer unerklärten Störung entschuldigen. Wenn es zum Äußersten kommt, wedelt also der Schwanz mit dem Hund.”
Quine behauptete, dass es auch keine Beobachtungssätze gibt, die wir isoliert ein für alle mal verifizieren könnten, und dass alle empirischen Sätze hinsichtlich ihrer Wahrheit und ihrer Bedeutung voneinander abhängig sind. So heißt es bei Quine: "Die Gesamtheit unseres so genannten Wissens oder Glaubens, angefangen bei den alltäglichen Fragen der Geographie oder der Geschichte bis hin zu den grundlegenden Gesetzen der Atomphysik und sogar der reinen Mathematik und Logik, ist ein von Menschen geflochtenes Netz, das nur an seinen Rändern mit der Erfahrung in Berührung steht. ... Ein Konflikt mit der Erfahrung an der Peripherie führt zu Anpassungen im Inneren des Feldes... Wenn wir eine Aussage neu bewertet haben, müssen wir einige andere neu bewerten, die entweder logisch mit der ersten verknüpft oder selbst Aussagen logischer Zusammenhänge sind. Doch das gesamte Feld ist so sehr durch seine Randbedingungen, die Erfahrung unterdeterminiert, dass wir eine breite Auswahl haben, welche Aussagen wir angesichts einer beliebigen individuellen, dem System zuwider laufenden Erfahrung neu bewerten wollen. Keinerlei bestimmte Erfahrungen sind mit irgendwelchen bestimmten Aussagen im inneren des Feldes auf andere Weise verbunden als indirekt durch Erwägungen des Gleichgewichts für das Gesamtfeld.
...Jede beliebige Aussage kann als wahr aufrechterhalten werden, was da auch kommen mag, wenn wir nur anderweitig in dem System ausreichend drastische Anpassungen vornehmen. Selbst eine Aussage ganz nahe der Peripherie kann angesichts gegenläufiger Erfahrung als wahr aufrechterhalten werden, indem mit Halluzinationen argumentiert wird oder indem gewisse Aussagen jener Art berichtigt werden, die logische Gesetze genannt werden. Umgekehrt ist ebenso keine Aussage unrevidierbar. Die Revision selbst des logischen Gesetzes des ausgeschlossenen Dritten wurde vorgeschlagen, um damit eine Vereinfachung der Quantenmechanik zu erreichen; und worin liegt der grundsätzliche Unterschied zwischen einer solchen Verschiebung und derjenigen mit der Kepler Ptolemäus verdrängte, Einstein Newton und Darwin Aristoteles?”
Geprüft oder getestet wird demnach nicht die einzelne Theorie, sondern das gesamte System. Das System unserer Erkenntnisse, ausgedrückt durch Theorien und Sätze, können wir uns zur Vereinfachung als eine Kugel veranschaulichen. An der Oberfläche befinden sich die Beobachtungssätze, d.h. hier, an der Peripherie, findet die Auseinandersetzung unseres Wissens mit der Außenwelt statt. Zum Kern hin werden die Sätze immer abstrakter und im Zentrum befinden sich unsere logischen Regeln. Werden zum Beispiel neue Beobachtungen gemacht, dann müssen unter Umständen bisherige Aussagen korrigiert werden, die mit den neuen Beobachtungen im Widerspruch stehen, um das gesamte System aufrecht zu erhalten. Die Korrektur erfolgt dabei entweder mehr an der Peripherie oder mehr im Inneren der Theorie. Die Wahrheit, um die es bei der Verifikation eines Satzes geht, ist aber letztlich die des ganzen Systems.
Diese Gedanken basieren auf den Erkenntnissen, dass Beobachtungen immer schon in einer bestimmten Weise theoriebeladen sind und zugleich empirisch unterdeterminiert sind, d.h. die Interpretation der Beobachtung ist nicht eindeutig festgelegt. Das empirische Datum, die Wahrnehmung, ist mit verschiedenen Interpretationen verträglich, die sich möglicherweise sogar widersprechen. Außerdem erscheinen Daten als Daten immer nur in einem bestimmten Interpretationsrahmen, wobei der Standort und das Hintergrundwissen festlegen, welcher Interpretationsrahmen gewählt wird.
Quine spricht auch davon, dass Sätze verschiedene Entfernung von der sinnlichen Peripherie haben, so dass sie dem Wandel mehr oder weniger stark ausgesetzt sind. Aber sowohl die sinnliche Peripherie als auch das logische Zentrum sind schwer zu definieren. Nach Quine sind die Überlegungen eher pragmatischer Natur, die den Menschen bei der Anpassung seiner wissenschaftlichen Erbschaft leiten. Es ist methodisch nicht festgelegt, auf welche Weise die widersprechenden Beobachtungen mit der Sicht über unsere Welt wieder in Einklang gebracht werden können. Es ist denkbar, dass wir sowohl die spezielle Theorie als auch die Hintergrundannahmen ändern.
6.2 Entwicklung der Wissenschaft
Wie können wir uns die interne Entwicklung der Wissenschaften vorstellen? Wie können wir den beschwerlichen Weg zu immer mehr Wissen skizzieren? Es sind sicherlich nicht nur die Entdeckungen von einzelnen Zusammenhängen oder Gegenständen, wie Entdeckungen neuer Fossilien, bisher unbekannter Pflanzen- und Tierarten oder der zufällige experimentelle Nachweis bisher unbekannter Naturphänomene. Sie stehen sicherlich am Anfang der wissenschaftlichen Entwicklung, indem sie das Interesse des Wissenschaftlers auf neue Erscheinungen lenken. Bei der weiteren Forschung stützt sich der Forscher nicht nur auf seine Sinnesorgane, sondern zunehmend auch auf zum Teil sehr komplizierte Apparaturen und Instrumente, die dazu dienen, das sinnliche Unterscheidungsvermögen des Menschen zu schärfen und die Reichweite seiner Sinne beträchtlich zu erhöhen.
Da neue Instrumente erst konstruiert werden müssen, bevor sie verwendet werden können, bleibt der wissenschaftliche Fortschritt zumindest im naturwissenschaftlichen Bereich auch an den technischen Fortschritt gekoppelt. Die sinnvolle Interpretation der Messung setzt außerdem eine allgemeine Theorie des Messverfahrens voraus, die festlegt, wie das Instrument funktioniert. Außerdem muss in der konkreten Situation der Messung auch gesichert sein, dass das Messinstrument tatsächlich korrekt funktioniert.
Quantitative Begriffe, die für die modernen Naturwissenschaften so charakteristisch sind, konnten erst eingeführt werden, nachdem auch eine geeignete Messtechnik entwickelt worden war. Ohne das Thermometer, das Barometer, die Pendeluhr, das Mikroskop und das Teleskop hätte der naturwissenschaftliche Fortschritt im 17. Jahrhundert nicht einsetzen können. Es bedurfte dieser wichtigen Hilfsmittel, um exakte Experimente und genaue Messungen vornehmen zu können, um damit die Voraussagen der Theorien zu überprüfen.
Die Wissenschaftler bleiben aber nicht bei den Entdeckungen einzelner bisher unbekannter Fakten stehen, die uns lediglich eine zunehmende Fülle von einzelnen Daten liefern würde, sondern sie wollen uns auch Einblicke in die Zusammenhänge der Naturereignisse verschaffen, indem sie das Wissen systematisieren und Theorien aufstellen. Wir werden deshalb den Weg von einer einfachen Beschreibung zu einer Mathematisierung der Zusammenhänge etwas genauer betrachten, damit wir die Stärken und Schwächen dieser Quantifizierung erkennen.
Der Wissenschaftler beginnt bei seiner Systematisierung zunächst mit der Aufstellung einfacher qualitativer empirischer Zusammenhänge bzw. Gesetzmäßigkeiten, die wir als elementarste Stufe der Hypothesenbildung ansehen können. Solche empirischen Zusammenhänge wie “Öl schwimmt auf Wasser”, “Gold ist schwerer als Eisen” und “Kupfer leitet Elektrizität” werden induktiv gewonnen. Damit steckt in ihnen bereits eine hypothetische Komponente, weil in ihnen nicht nur über einzelne Beobachtungen berichtet wird, sondern es werden allgemeine Zusammenhänge behauptet. Wir berufen uns zwar auf bisherige Beobachtungen, wenn wir behaupten, dass Gold schwerer ist als Eisen, aber wir behaupten mit den Gesetzmäßigkeiten weit mehr. Wir beanspruchen, dass die in der Vergangenheit gemachten Beobachtungen auch in Zukunft eintreten werden. Diese hypothetische Komponente ist in den empirischen Gesetzmäßigkeiten dadurch impliziert, dass wir in der Vergangenheit beobachtete Regelmäßigkeiten in die Zukunft extrapolieren, und dass wir gleichzeitig keine Sicherheit haben, bei dieser Übertragung keinen Fehler zu begehen.
Der menschliche Forschungsdrang hat sich nicht damit begnügt, lediglich solche einfachen empirischen Gesetze zu formulieren. Diese Gesetzmäßigkeiten wurden zu ganzen Systemen verknüpft, so dass sich komplexe Hierarchien von Gesetzen ausbildeten. Durch die Aufstellung von Hierarchien empirischer Gesetze wurden dann die einzelnen Gesetze in immer größere Zusammenhänge eingefügt, so dass auch scheinbar heterogene Arten von Erscheinungen unter dieselben allgemeinen Gesetze subsumiert werden konnten. Dies hatte den Vorteil, dass sich die Bestätigung von einzelnen Teilen des Systems auch auf die übrigen Teile übertrug. So war es eine der großen Leistungen von Isaac Newton, physikalische Gesetze aufgestellt zu haben, die sowohl für die Himmelsmechanik als auch für alltägliche Vorgänge gelten.
Neben der zunehmenden Systematisierung strebt der Wissenschaftler aber zugleich nach größerer Genauigkeit, indem er die Zusammenhänge mathematisch beschreibt. Auf diese Weise können aus den Gesetzen genauere Prognosen abgeleitet werden, die dann natürlich auch leichter zu überprüfen sind. Außerdem kann durch die mathematische Sprache leichter bewiesen werden, ob die Gesetze für ihren Anwendungsbereich tatsächlich gültig sind. Wie wichtig die Mathematisierung ist, wird an dem Gesetz der Planetenbewegung deutlich. Würde jemand in unserer alltäglichen Sprechweise lediglich behaupten, dass sich die Planeten stets auf elliptischen Bahnen um die Sonne bewegen, so eignet sich diese Feststellung nicht für astronomische Prognosen. Erst mit Hilfe der Kepler`schen Gesetze, die in einer mathematisch-quantitativen Sprache formuliert sind, gelingt es, Mond- und Sonnenfinsternisse für die kommenden Jahrhunderte eindeutig vorauszusagen.
Ein weiterer Schritt besteht in dem Übergang von der Systematisierung zur Theoriebildung. In Theorien werden jetzt theoretische Begriffe verwendet, die wir nicht mehr vollständig empirisch deuten können, ohne dass eine indirekte Interpretation durch die Theorie mitgeliefert wird. So können wir das Fallgesetz von Galilei als empirisches Gesetz alltagssprachlich etwa folgendermaßen formulieren: “ein in der Nähe der Erdoberfläche frei fallender Körper fällt mit einer Beschleunigung, die ungefähr 9.81 m/sek2 beträgt”. Vergleichen wir hierzu die Theorie von Newton, aus der sich das Fallgesetz ebenso wie viele andere Gesetze approximativ ableiten lassen, dann werden wir feststellen, dass die Newtonsche Physik mehr als nur eine einfache Ansammlung von speziellen Gesetzen ist. Wir finden in Newtons Theorie auch theoretische Konstruktionen wie z.B. Kraft und Masse, die wir nur teilweise empirisch deuten können, und zwar nur so, wie es die Theorie nahe legt.
Aus den vorhergehenden Ausführungen sollten Sie aber nicht ableiten, dass sich die geschichtliche Entwicklung der Wissenschaft immer in eine schablonenhafte Darstellung pressen lässt. Es kommt nicht selten vor, dass diese Stadien fließend ineinander übergehen - wobei allerdings die Theorie am Ende der Entwicklung steht.
6.3 Von der Beschreibung zur Mathematisierung
Zur Beschreibung der Natur werden zunächst qualitative Ausdrücke verwendet. Aufgrund der qualitativ vorgenommenen Unterscheidungen wird dann die Einführung komparativer Begriffe nahegelegt. Komparative Begriffe sind ein wichtiger Schritt zur weiteren Metrisierung des fraglichen Gegenstandbereiches. Erst wenn wir in der Lage sind, die untersuchten Eigenschaften der Gegenstände zu messen, wenn wir über adäquate Funktionen verfügen, können wir eine Mathematisierung vornehmen, wie wir sie heute gewohnt sind. Dieser lange Weg von der qualitativen Beschreibung eines Sachverhaltes zu einer mathematisierten Theorie soll am Beispiel der Begriffsentwicklung erläutert werden. Damit wird zugleich verständlich, wie wir selbst bei der Bildung von einfachen Begriffen sowohl von empirischer Erfahrung als auch von Hypothesen über die Natur Gebrauch machen.
Bisher haben wir nicht zwischen klassifikatorischen bzw. qualitativen, komparativen bzw. topologischen, und metrischen bzw. quantitativen Begriffen unterschieden, sondern stillschweigend vorausgesetzt, dass verschiedene Begriffe für verschiedene Zwecke existieren. Welche Begriffe wir verwenden, hängt von unserer Intention ab, denn Begriffe fallen uns nicht einfach zu, wir können sie nicht einfach aus unserer Umwelt „ablesen“. Es ist vielmehr unsere besondere Sicht der Dinge, die die Welt in verschiedene Bereiche gliedert.
Was ist aber damit gemeint, dass wir unsere Welt durch die Verwendung bestimmter Begriffe gliedern? Wenn wir unseren Blick auf einen Teil unserer Welt richten, dann erscheint sie uns in irgendeiner Form strukturiert: in Bäume, Blumen, Tiere, Steine, Flüssigkeiten, Häuser, aber auch in Galaxien, Pulsare, Moleküle, Gene, Neutrinos, Staaten, Familien, usw. Es stellt sich die Frage, ob diese Gliederung in verschiedene Gegenstände eine Eigenschaft unserer Welt ist oder lediglich unserer Sprache? Handelt es sich um eine immanente Struktur der Realität oder lediglich um eine sprachabhängige Unterscheidung? So behaupten wir zum Beispiel, dass die Blätter grün sind, oder dass sich hydrophile und hydrophobe Flüssigkeiten nur schwierig mischen lassen, oder dass bestimmte Medikamente den Blutdruck erhöhen können. Wenn wir uns die Gegenstände anschauen, die wir als Blätter identifiziert haben und ihnen die Eigenschaft zuschreiben, grün zu sein, dann glauben wir zu Recht behaupten zu können: “Die Blätter sind grün.” Gibt es aber auch eine Möglichkeit, auf die Blätter Bezug zu nehmen, ohne die Verwendung einer Sprache? Diese Frage ist schwierig zu beantworten, weil sie wiederum eine Feststellung in einer anderen Sprache erfordern würde. Letztlich ist für uns die Sprache nicht hintergehbar, wenn wir uns auf Meinungen beziehen wollen, die wahrheitsfähig sind, d.h. die ein Wissen ausdrücken. Um zu wissen, was gemeint ist, müssen wir eine Feststellung treffen, die wiederum in einer Sprache formuliert wird, die wiederum festlegt, was gemeint ist, usw. Die Begrifflichkeit einer Sprache legt damit fest, worüber wir sprechen können.
Die Einteilung unserer Begriffe in verschiedene Klassen sagt nichts über die Existenz von bestimmten Dingen aus, sondern sie ist nur ein sprachlicher Unterschied. Es ist deshalb auch nicht erlaubt, zu sagen, dass eine bestimmte Erscheinung eine qualitative oder quantitative Natur hat, sondern lediglich, dass eine bestimmte Erscheinung in quantitativen oder qualitativen Begriffen ausgedrückt wird. Wir Menschen sind es, die unsere Welt gliedern, wenn wir durch die Verwendung von Begriffen auf mögliche Sachverhalte Bezug nehmen und über sie sprechen. Das ist auch einer der Gründe, warum wir immer wieder versuchen, Einsichten über unser Weltverständnis zu erlangen, indem wir Begriffe analysieren. Letztlich legt die Grenze unserer Sprache fest, worüber wir reden können und was wir begreifen können, -- worüber wir Begriffe haben. Die Grenze unserer Sprache ist somit auch die Grenze unserer Erfahrung.
Diese Grenze ist intersubjektiv nicht hintergehbar. Wenn wir etwas ausdrücken wollen, dann muss es in einer Sprache geschehen. Wollten wir etwas behaupten, was sprachlich nicht ausgedrückt werden kann, was wir sprachlich nicht fassen können, so müssten wir uns ein anderes Kommunikationsmedium suchen. Wenn wir weiterhin akzeptieren, dass jemand mit einer Behauptung zugleich die Verpflichtung eingeht, seinen Wahrheitsanspruch auf Verlangen auch einlösen zu können, dann fällt es schwer sich ein besseres Medium vorzustellen als unsere Sprache.
Sprachlich lassen sich zwei Klassen von Ausdrücken unterscheiden: die singulären und die generellen Ausdrücke. Die Funktion der singulären Ausdrücke, von Kennzeichnungen bzw. Beschreibungen, Eigennamen, und deiktischen Ausdrücken besteht darin, den Bezug auf den Gegenstand sicherzustellen, über den etwas ausgesagt werden soll. Wir sollen durch die Verwendung eines singulären Ausdruckes in die Lage versetzt werden, den Gegenstand oder die Gegenstände zu identifizieren, über die gesprochen wird.
Die Funktion der generellen Ausdrücke, von Eigenschaften und Relationen, besteht dagegen darin, etwas über den Gegenstand oder sein Verhältnis zu anderen Gegenständen auszudrücken. Mit einem einfachen Aussagesatz wie “der Ball ist rot” wird behauptet, dass es einen Gegenstand gibt, der als Ball bezeichnet wurde, der die Eigenschaft “rot” hat. Mit “Hans läuft schneller als der Bundeskanzler der Bundesrepublik Deutschland im Juni 1985" wird Bezug genommen auf zwei Gegenstände, einmal auf die Person Hans, die im Kontext des Satzes genauer spezifiziert wird, und auf diejenige Person, die im Juni 1985 Bundeskanzler der Bundesrepublik Deutschland war. Es wird des weiteren festgestellt, dass die eine Person schneller läuft als die andere.
Wir werden uns im Weiteren nur noch mit den generellen Ausdrücken auseinander setzen, weil sie nicht nur auf einen Gegenstand angewendet werden können, sondern auf beliebig viele Gegenstände. Die einfachsten generellen Begriffe sind die qualitativen bzw. klassifikatorischen, durch die wir Gegenstände in verschiedene Klassen einzuteilen. Die Begriffe “rot”, “heiß”, “Tiger” oder “Uran” werden verwendet, um rote Gegenstände von andersfarbigen zu unterscheiden, heiße Gegenstände von kalten, Tiger von anderen Großkatzen und Uran von anderen chemischen Elementen. Dabei wird vorausgesetzt, dass die Begriffe hinreichend genau spezifiziert sind, um eine Trennung bzw. eindeutige Zuordnung der Gegenstände zu einer bestimmten Klasse zu ermöglichen, und dass die Einteilung über alle Gegenstände erschöpfend ist, d.h., dass jeder Gegenstand von Interesse unter eine der begrifflich festgelegten Klassen fällt. Durch Sätze der Form “das Auto ist rot” oder “Eis ist kalt” wird eine einfache Zuordnung des Gegenstandes zu der Klasse der roten oder kalten Gegenstände behauptet. Es handelt sich damit um eine einfache Klassifikation. Entweder der Gegenstand ist rot oder nicht. Entweder der Gegenstand ist kalt oder nicht.
Im Alltag sind die Bedingungen für eine eindeutige Klassenzugehörigkeit der Gegenstände nicht immer gegeben, weil die Begriffe häufig nur vage definiert sind, sie also kein scharfes Abgrenzungskriterium enthalten und sich auch zum Teil überlagern können. Dies ist im alltäglichen Gebrauch unproblematisch, solange sich aufgrund der gelungenen Kommunikation annehmen lässt, dass der Begriffsinhalt zwischen den Kommunikationsteilnehmern hinreichend klar ist. Diese Vagheit ist aber genau dann problematisch, wenn sie in eine wissenschaftliche Diskussion übertragen und nicht vorher beseitigt wird. Eine Kommunikationsstörung -- fruchtlose Argumentationen und gegenseitiges Unverständnis -- ist häufig die Folge.
Welche klassifikatorischen Begriffe in die Sprache eingeführt werden, hängt nicht nur von empirischen Beobachtungen und hypothetischen Annahmen über die Welt ab, sondern auch von Einfachheitsbetrachtungen und der potentiellen Fruchtbarkeit der Begriffe. Wissenschaftler versuchen nämlich ihre Begriffswelt zu strukturieren, indem sie Begriffspyramiden aufbauen, wie wir sie aus der Botanik oder Zoologie kennen. Hier stehen die allgemeinsten Begriffe an der Spitze und der speziellere Begriff ist unter ihm subsumiert d.h. die Information, die der Begriff impliziert, nimmt zur Basis der Pyramide immer mehr zu. Wenn wir sagen, dass es sich bei einem Gegenstand um ein Tier, um einen Vogel, um einen Schwan handelt, dann engen wir den Bezugsrahmen immer mehr ein. Die Klasse der Gegenstände, die unter den darunter stehenden Begriff fallen, wird immer kleiner. Die Angaben werden immer spezifischer und der Informationsgehalt nimmt zu. Mit einem solchen Begriffssystem sind wir durchaus in der Lage eine strukturierte Übersicht über einen bestimmten Gegenstandsbereich zu gewinnen -- vorausgesetzt wir finden geeignete Klassifikationskriterien für jede Stufe.
Da beliebige Begriffspyramiden konstruiert werden könnten, bedarf es einer weiteren Qualifikation, um geeignete Systeme zu finden. Der Forscher ist offensichtlich bestrebt, ein System aufzustellen, aus dem möglichst viele Gesetzmäßigkeiten zu gewinnen sind, denn es soll sich ja als ein wissenschaftlich fruchtbares System erweisen. Außerdem wird er ein System bevorzugen, dass zugleich einfach ist und von wenigen Regeln bestimmt wird. Zusätzlich wird man sich auch von empirischen Beobachtungen leiten lassen müssen, um erfolgreich zu sein.
Klassifikatorische Begriffe sind also dazu geeignet, den Gegenständen bestimmte Qualitäten zuzuordnen. Sie sagen uns, dass ein Gegenstand eine bestimmte Eigenschaft hat, aber nicht, ob er mehr oder weniger von dieser Eigenschaft hat. Dazu sind komparative oder topologische Begriffe geeignet wie “x ist kleiner als y” oder “x ist schneller als y”, die als Relationsbegriffe ein “mehr oder weniger” ausdrücken und uns damit mehr Informationen liefern als reine klassifikatorische Begriffe. Durch komparative Begriffe sind neue Differenzierungen möglich, indem eine Rangordnung oder eine Reihe aufgestellt wird, in der die Gegenstände nach einem Merkmal sortiert werden. Dadurch wird in dem untersuchten Gegenstandsbereich eine Ordnung eingeführt, die später die Einführung quantitativer Begriffe erleichtert.
Komparative Begriffe werden zunächst durch operationale Regeln eingeführt. Ein komparativer Begriff des Gewichtes lässt sich zum Beispiel durch die Begriffe “x ist leichter als y” und “x ist gewichtsgleich mit y” konstituieren. Um einen komparativen Begriff des Gewichtes oder der Temperatur einzuführen, müssen wir demnach wissen, wann ein Gegenstand leichter oder wärmer ist als ein anderer. Dazu wird eine so genannte zweistellige Vorgängerrelation “x ist leichter als y” eingeführt. Außerdem wird eine zweistellige Übereinstimmungsrelation “x ist gewichtsgleich mit y” benötigt, die festlegt, wann zwei Elemente bezüglich der durch den komparativen Begriff festgelegten Ordnung ununterscheidbar sind.
Neben willkürlichen Elementen gehen auch hier empirische Beobachtungen in die Bestimmung der Rangfolge ein, und zwar als experimentelle empirische Befunde. Die komparativen Begriffe lassen sich nämlich nur über geeignete Experimente hinreichend festlegen. Die Gewichtsrelationen lassen sich zum Beispiel nur durch die Verwendung einer einwandfrei funktionierenden Waage oder einer ähnlichen Hilfskonstruktion ermitteln. Wäre die Waage rostig, würde sich ein unsystematischer Fehler einschleichen, der die Rangordnung falsch festlegt. Da die Durchführung von Experimenten aber auch an Hypothesen geknüpft ist, -- nämlich an dem korrekten Funktionieren einer Waage und deren physikalischen Prinzipien -- tritt die innere Verflechtung von Erfahrung, Hypothesenbildung und Begriffsbildung hier offen zu Tage. Eine hypothesenfreie Begriffsbildung erweist sich auch hier als Illusion.
Der Übergang zu metrischen Begriffen ist für den weiteren wissenschaftlichen Fortschritt entscheidend. Unter einem metrischen oder quantitativen Begriff wird eine numerische Funktion verstanden, wobei eine einstellige Funktion nichts anderes als eine Zuordnungsregel ist. Es werden Argumenten Werte zugeordnet. Dem Argument x und einer Funktion f lässt sich somit der Wert f(x) zuordnen. Eine Funktion wird numerische Funktion genannt, wenn der Wertebereich aus Zahlen besteht, wobei der Argumentbereich aber nicht zwangsläufig aus Zahlen bestehen muss. Die Einführung eines metrischen Begriffes für einen Bereich von Objekten wird Metrisierung genannt. Von der Metrisierung muss die Messung unterschieden werden. Eine Messung ist lediglich der empirische Prozess zur Bestimmung einer bestimmten Größe, d.h. Messungen können nur vorgenommen werden, wenn die Metrisierung bereits gelungen ist.
Zur Metrisierung von Begriffen sind empirische Beobachtungen allein nicht hinreichend. Eine Fülle von Einzelbeobachtungen führt niemals zu einer bestimmten effektiven Metrisierung. Erst die Verknüpfung von Erfahrung, von Hypothesen über die natürlichen Abläufe, die in Experimenten überprüft werden, und von Prinzipien der Einfachheit und Fruchtbarkeit erlauben eine Metrisierung. Dieses Zusammenwirken ist nur sinnvoll möglich, wenn der Wissenschaftler in diesen Prozess seine gesamte Erfahrung und Kreativität eingehen lässt. Er muss aufgrund seiner Fähigkeiten und seiner Informationen in der Lage sein, in einem kreativen Akt eine Metrisierung einzuführen.
Metrische Begriffe sind nicht etwas, was sich unserem Verstand aufdrängt, indem wir Gegenstände anschauen. Dies mag für klassifikatorische Begriffe gelten, aber komparative und insbesondere metrische Begriffe bedürfen zu ihrer Einführung eines außergewöhnlichen kreativen Aktes. Sie sind ein Produkt des Menschen und nicht der Welt -- auch wenn die Welt uns nahe legt, gewisse Prinzipien einzuhalten, um in der Anwendung der metrischen Begriffe erfolgreich zu sein. Nicht die Welt an sich wird durch Logik und Mathematik beherrscht, sondern nur derjenige Ausschnitt von ihr, den wir versuchen zu erklären oder zu verstehen. Nur eine interpretierte Welt ist durch unseren Verstand mathematisierbar.
6.4 Mathematisierung als kreativer Akt
Hoffentlich haben die bisherigen Ausführungen hinreichend klargemacht, dass die Einführung von Begriffen durch eine Fülle von empirischen Aspekten, hypothetischen Gesetzmäßigkeiten, Konventionen, Einfachheit- und Fruchtbarkeitsüberlegungen geprägt ist. Erst durch die Beurteilung des Wissenschaftlers, ob die metrischen Begriffe die in sie gesetzten Erwartungen erfüllen, werden sie zu wichtigen Begriffen in unseren wissenschaftlichen Systemen. Quantitäten finden wir zwar nicht als Entitäten in der Welt, aber sie prägen unseren wissenschaftlichen Umgang mit der Welt.
Warum ist die Einführung von quantitativen bzw. metrischen Begriffen aber so wichtig für den Forscher? Warum sind klassifikatorische Begriffe nicht ausreichend? Warum wird eine Mathematisierung der Wissenschaften bzw. ihrer Gesetzmäßigkeiten angestrebt? Die Antwort ist relativ einfach: Metrische Begriffe ermöglichen dem Forscher sein Wissen in einfacher und übersichtlicher Art darzustellen, sehr differenzierte Angaben über unsere Welt zu machen und damit überprüfbare Gesetzmäßigkeiten aufzustellen. Dieses wird an einem einfachen Gedankenexperiment deutlich werden.
Nehmen wir an, ein Forscher würde metrische und komparative Begriffe ablehnen und nur klassifikatorische verwenden. Nehmen wir weiterhin an, dass er an vier Patienten eine pharmakologische Studie vornimmt, um die Verminderung der Körpertemperatur nach Applikation eines fiebersenkenden Medikamentes zu untersuchen. Welche Möglichkeit hätte er nun, das Ergebnis seines Experimentes zu überprüfen? Er müsste für jeden von ihm wahrgenommenen Wärmeunterschied einen neuen klassifikatorischen Begriff einfügen, z.B. “kühl1”, “kühl2", “warm3”, oder “heiß4” o.ä. Dieses wäre sehr unhandlich und würde eine große Anforderung an unser Gedächtnis bedeuten. Insbesondere wenn wir uns noch vorstellen, dass er die Patientenzahl auf 20 erhöhen möchte, um die Wirkung des Medikamentes sicher abschätzen zu können. Damit aber nicht genug. Da er auch keine komparativen Begriffe zulässt, müsste er weitere klassifikatorischen Begriffe einführen, die die anderen Begriffe miteinander in Beziehung setzen und die wir ebenfalls nicht vergessen dürfen: “kühl1 ist kühler als kühl2" oder “warm3 ist kühler als heiß4 aber wärmer als kühl2" usw. Dieses Beispiel mag verdeutlichen, was wir durch die Metrisierung des Temperaturbegriffes und dem Erlernen des Zahlensystems an Wissen ausdrücken können. Es ist offensichtlich, dass sowohl die Fülle der Informationen als auch ihre Präzision mit der Metrisierung zunimmt.
Aus dem Vorhergehenden können wir entnehmen, dass die Formulierung einer Theorie mehr ist als die Zusammenfassung von empirischen Verallgemeinerungen. Durch die Mathematisierung und die Verwendung von metrischen Begriffen erhält die Theorie einen Status, der über die Systematisierung von Beobachtungen weit hinausgeht. Der Erfolg der modernen Naturwissenschaften beruht im Wesentlichen auf der wissenschaftlichen Beschreibung der Natur durch formalisierte Gesetze und der Abbildung der Realität durch mathematische Modelle.
Wenn wir nun komplexe physikalische Theorien betrachten, wie sie seit der Neuzeit mathematisch formuliert wurden, so werden wir keine Regel finden, wie wir diese komplexen Theorien aus den Tatsachen ableiten können. Sie beruhen auf kreativen Festsetzungen unserer Vorstellungskraft, die in einem Stück erfunden wurden, um dann auf die Natur angewendet zu werden. Selbst wenn wir eine bestimmte Menge an Daten (Zahlen) anschauen, muss daraus nicht bereits eine sinnvolle Theorie entspringen. In einer Datenmenge suchen wir meistens nach einem bestimmten Muster, das wir uns ausgedacht haben oder von dem wir glauben, dass es adäquat sein könnte. Erst dadurch, dass wir ein bestimmtes Muster zu finden trachten, strukturieren sich die Daten.
6.5 Revolutionen der Geistesgeschichte
Auch wenn der Wissenschaftler bestrebt ist, die Natur so zu erkennen, wie sie in Wirklichkeit ist, und er im Laufe der letzten Jahrhunderte wiederholt gut bestätigte Theorien aufstellte, so musste er doch immer wieder mit Bestürzung feststellen, dass für sicher gehaltene Theorien falsch sind, da sie nicht mit allen experimentellen Befunden in Einklang gebracht werden konnten. Diese Erschütterungen führten aber nicht immer zu einer Verwerfung der Theorie, sondern die Theorie wurde meistens soweit modifiziert, dass sie dann wieder mit den beobachtbaren Realitäten in Einklang stand. Gelegentlich war es allerdings notwendig, die Theorie als falsch zu akzeptieren, -- nämlich genau dann, wenn die grundlegenden Überzeugungen des Paradigmas nicht mehr im Einklang mit den Beobachtungen standen. Es ging jetzt nicht mehr nur um die Änderung von speziellen Gesetzen und Theorien, sondern um die Wandlung des Paradigmas selbst, der Basis für alle Theorien. Es treten jetzt wissenschaftliche Revolutionen auf.
Wenn wir auf unsere Geschichte zurückblicken, dann werden kleine und große Revolutionen erkennbar, wobei drei große Umbrüche hervortreten. Als erste große wissenschaftliche Revolution kann sicherlich die Entstehung der Wissenschaft selbst angesehen werden. Zwar gab es schon von altersher Wahrsager und Hellseher, die alle für sich den Anspruch erhoben, den zukünftigen Ablauf der Natur zu kennen. Aber es stellte sich immer wieder heraus, dass ihre Voraussagen nicht stimmten und es sich entweder um Phantasten oder um Scharlatane handelte. Erst den so genannten Naturforschern gelang es, verborgene Regelmäßigkeiten im Naturablauf zu entdecken und präzise Voraussagen künftiger Ereignisse zu machen, -- die meistens auch zutrafen.
Die Zielsetzung von Magie und Naturgesetzen ist dabei dieselbe. Beide versuchen die Naturprozesse für den Menschen nutzbar zu machen. Allerdings bestehen zwischen beiden bedeutende Unterschiede: in der naturwissenschaftlichen Betrachtungsweise erfährt sich der Mensch als Bestandteil der Welt, der ebenso den Naturgesetzen unterliegt, wobei durch die Technisierung dann noch eine zusätzliche Versachlichung und Entpersönlichung stattfindet. Nach dem magischen Verständnis der Natur versucht der Mensch dagegen seine Umwelt aktiv nach seinen Wünschen zu gestalten. Der Mensch hält sich für potentiell allmächtig, er glaubt, die beseelte Welt durch sein Wollen beeinflussen zu können.
Ein weiterer revolutionärer Schritt in der geistigen Entwicklung spielte sich zum Beginn der Neuzeit ab. Der Mensch erkannte, dass er nicht im Zentrum eines wohlgeordneten Universums steht, auf dessen Gesetzmäßigkeit er vertrauen konnte. Einmal aus dem Schlummer der Unbekümmertheit gerissen, begann der Mensch nun die Relativität seiner Erfahrungen und seiner Stellung in der Welt zunehmend zu erfahren. Nachdem Descartes systematisch alles angezweifelt hatte, fand er doch sein sicheres Fundament in sich selbst, in seinem Denken. Aus diesem begann er dann mit gesundem Menschenverstand und klarer Urteilskraft, die Umwelt neu zu strukturieren. Der Mensch war weiterhin der auserwählte Beobachter und die empirische Erfahrung wurde zunehmend zum entscheidendem Maßstab der Bestätigung oder Widerlegung einer Theorie, wobei die Erfahrung immer mehr instrumentalisiert wurde. Nicht mehr die „natürliche“ Wahrnehmung von Erscheinungen in der Realität wurde als Entscheidungsinstanz herangezogen, sondern das gezielte Hervorbringen von Erscheinungen in Experimenten. Diese artifiziellen Erscheinungen verdrängten die natürlichen Erscheinungen in der Beurteilung über unsere Welt.
Durch die Darwinsche Evolutionstheorie wurde dann die Einmaligkeit des Menschen erschüttert und durch die Psychoanalyse generell die unabhängige Rationalität des Ich in Frage gestellt. Nachdem durch die moderne Physik auch noch unsere einfach mechanistische Sichtweise einschließlich des klassischen Kausalprinzips verloren ging, war der Mensch verloren. Er fand keinen sicheren Halt mehr, den er sich nicht zugleich erkämpfen und begründen musste. Der Mensch musste akzeptieren, das es keine absolut sichere Erkenntnis und auch keine verlässliche Methode gibt, der wir uns unbedingt anvertrauen können. Wir leben in einer Welt der Konzeptionen, von selbst hervorgebrachten Vorstellungen und Ideen, die wir zu einem Weltbild zusammenstellen.
6.6 Naiver Realismus
Wie können wir uns aber dann noch mit der Realität auseinander setzen. Was ist überhaupt mit “Realität” gemeint? Worauf beziehen wir uns, wenn wir von der Realität sprechen? Um diese Fragen zu beantworten, werden wir zunächst die intuitive Idee des philosophisch nicht vorgebildeten Laien vorstellen, die häufig auch als “naiver” Realismus bezeichnet wird, und dann durch kritische Reflexion belegen, dass diese Position nicht haltbar ist.
Der “naive” Realist glaubt, dass er die Gegenstände als dasjenige erkennt, was und wie sie sind. Er glaubt, dass sich außerhalb seines Bewusstseins, außerhalb seines Gehirns, Gegenstände befinden, die die Realität ausmachen. Die Eigenschaften der Gegenstände und ihre Beziehungen untereinander werden uns danach über die Sinnesorgane vermittelt, so dass wir erkennen können, wie die Gegenstände aussehen, welche Eigenschaften sie haben und wie sie sich untereinander oder uns gegenüber verhalten.
Der naive Realist glaubt, dass es Dinge gibt, die unabhängig von unserem Gebrauch der Sprache existieren und dass er sich durch die Verwendung der singulären und generellen Ausdrücke auf diese Gegenstände bezieht. Dieser unreflektierte Realismus entspricht am ehesten unserem alltäglichen Verständnis im Umgang mit der Realität und es scheint, dass insbesondere der Wissenschaftler ein Realist sein muss, um seiner Tätigkeit einen Sinn zu geben.
Im Grunde beruht der “naive” Realismus auf unserem Vertrauen, das wir der Natur mit allen ihren Sinneseindrücken entgegenbringen. Es macht das Leben der Menschen eben leichter, anzunehmen, dass es eine Realität gibt, die wir erkennen können und die sich nach festen Regeln verhält, auf die wir uns verlassen können. Dadurch können wir im Alltag unser Verhalten vernünftig steuern und Verhaltensweisen entwickeln, die nicht jedes Mal ein erneutes Nachdenken über diese Dinge erfordern. Wir machen die Realität für die Konstanz und Uniformität verantwortlich und nicht uns selbst.
Dieser einfache Realismus wird in dem Moment erschüttert, wenn wir beginnen, über Sachverhalte nachzudenken, die nicht direkt unseren “gesunden” Sinnesorganen gegeben sind. Dann wird unser “unschuldiges” Vertrauen erschüttert und eine Kluft zwischen den Gegenständen und unserer Erfahrung von ihnen aufgerissen. Erinnern sie sich an die Argumente gegen das heliozentrische Weltbild. Wer lediglich an das glaubt, was er sieht und spürt, der beschränkt sich auf ganz elementare Sachverhalte. Verwendet er dagegen Instrumente, die den Einzugsbereich unserer Sinne vergrößern, dann erweitert er zwar seinen Erfahrungshorizont, wie beim Hubble-Teleskop oder Nuklearbeschleuniger, aber die ursprüngliche “Gewissheit” geht verloren. Mit der Erkenntnis, dass auch unsere Erfahrungen theoriegeleitet und unterbestimmt sind, verlor der Empirismus seine sichere Grundlage. Es ist nun nicht mehr möglich, durch ausschließlich empirisch Gegebenes, das mit quasi neutralen Augen gesehen wird, eine Gewissheit zu erlangen.
Der neue instrumentelle Erfahrungsbegriff der Neuzeit führte eine Kluft zwischen dem ein, was wir über ein Objekt zu wissen glauben, und dem, was das Objekt tatsächlich ist. Diese Kluft zwischen der Realität und unserem Denken über sie erscheint unüberbrückbar. Deshalb können wir uns auch keine Korrespondenz zwischen dem Objekt und dem vorgestellten Gegenstand vorstellen. Aristoteles hatte es damals besser, denn bei ihm bestand eine natürliche Identität zwischen dem Gegenstand und dem, wie wir uns den Gegenstand vorstellen. Es bestand noch keine Kluft zwischen dem Wahrgenommenen und dem erkannten Gegenstand. Als aber die Kluft einmal aufbrach, musste die Frage beantwortet werden, wie die Übereinstimmung zwischen dem Vorgestellten und dem Gegenstand als verlässlich angesehen werden kann. Diese Frage ist bisher nicht befriedigend beantwortet worden und es bestehen große Zweifel, ob sie überhaupt beantwortbar ist.
Es scheint also, als ob wir weiterhin in unserer Welt der Vorstellungen gefangen bleiben, nur sie zur Verfügung haben und nur aus ihnen unser Wirklichkeitsempfinden schöpfen können. Jeder Versuch ein unerschütterliches empirisches Fundament für unsere Erkenntnis zu schaffen, ist Illusion. Es gibt keine Möglichkeit, die Objektivität von Erkenntnissen zu garantieren.
Von der Naturwissenschaft wurde früher erwartet, das sie herausfindet, was für Gegenstände es in der Natur gibt. Diesen Gegenständen sollten dann möglichst kleine Schildchen umgehängt werden, in denen ihre Eigenschaften eingraviert sind - wie wir das von einem Museum kennen. In diesem naiven Sinne sollte uns die Wissenschaft einen Spiegel der Natur in unserem Geist verschaffen. Der Erkenntnistheorie ist es aber bisher nicht gelungen, zu beweisen, dass die Kriterien der erfolgreichen Wissenschaften nicht bloß unsere subjektiven Kriterien sind, sondern tatsächlich die objektiven Kriterien der Natur. Ohne diesen Nachweis können wir nicht begründet behaupten, dass wir über eine korrekte Abbildung von der Natur verfügen.
Diese Kluft zwischen unserem Bewusstsein von den Dingen und der Realität ist nicht überbrückbar. Wir bleiben in unserer Gedankenwelt gefangen. Die Realität entpuppt sich als hypothetische Konstruktion, um so etwas wie Wirklichkeit zu konstruieren. Wirklichkeit wird vom Menschen selbst gemacht. Er ist für die Konstruktion verantwortlich. Da er sie verändern kann, muss er auch rechtfertigen, warum er sie so und nicht anders schafft. Diese konstruktivistische Denkweise, der ich mich hier anschließen möchte, hat bedeutende Konsequenzen, mit denen wir uns in den nächsten Abschnitten auseinander setzen werden.
{/jkefel} {jkefel title=[Kap. 7]}
7. Konstruktivismus
7.1 Kybernetik 2. Ordnung
7.2 Ordnung und Chaos
7.3 Triviale und nicht-triviale Maschinen
7.4 Autopoiesis
7.5 Das Gehirn als autopoietisches System
7.6 Konstruktivismus
7.7 Der Irrtum des Naturgesetze
7.8 Vom Sein zum Werden
Wir wollen unsere bisherigen Erkenntnisse zu Beginn noch einmal zusammenfassen und danach mit einer konstruktiven Bewältigung beginnen. Dieser Abschnitt markiert somit einen gewissen Wendepunkt in unserer kritischen Auseinandersetzung mit der Wissenschaft und unserem Wissen.
In unserem alltäglichen Umgang in der Lebenswelt neigen wir dazu, in der Gewissheit von Regelmäßigkeiten zu leben. Wir sind davon überzeugt, dass unsere Wahrnehmungen unbestreitbar sind und dass die darauf beruhenden Überzeugungen absolut stichhaltig sind. Wir unterstellen, das die Dinge so sind, wie sie uns in unserem alltäglichen Umgang erscheinen. Wir verhalten uns wie naive Realisten, die einer einfachen Abbildtheorie vertrauen. Gestützt wird unser Glaube durch den Erfolg unserer alltäglichen Handlungen, die die realistische Konzeption als unverfänglich erscheinen lässt.
Doch bei genauerem Hinschauen ist diese Gewissheit trügerisch. Wir haben uns deshalb auf die Suche nach einer Instanz begeben, die uns helfen sollte, den Täuschungen auf die Spur zu kommen. Wir hofften dabei, in der Wissenschaft die nötige Sicherheit zu finden. Leider wurden wir auch hier nicht fündig. Jedes Mal, wenn wir einen festen Halt zu finden glaubten, wurden wir enttäuscht. Jeder feste Halt, jedes vermeintlich sichere Fundament erwies sich nach einiger Reflexion als unsicher, als nur relativ gültig zu einigen unbewiesenen Annahmen.
Wie können wir mit diesem unsicheren Relativismus umgehen? Woran können wir uns noch festhalten? Auf welchem Fundament stehen wir?
Viele kritische Denker haben die erkenntnistheoretische Misere nicht nur in voller Klarheit erkannt, sondern auch neue Wege zu ihrer Bewältigung gesucht. Einige werden heute dem so genannten radikalen Konstruktivismus zugeordnet. Es handelt sich bei dieser Denkrichtung um ein sehr vielschichtiges Konzept. Um Ihnen einen interessanten Zugang zu dieser Denkrichtung zu ermöglichen, werde ich Sie mit verschiedenen Gedanken einiger Konstruktivisten (z.B. Heinz v. Foerster, Humberto Maturana, Francisco Varela, Ernst von Glaserfeld, Jean Piaget, Paul Watzlawick, Siegfried Schmidt oder Niklas Luhmann) konfrontieren. Obgleich die Ideen, mit denen ich Sie vertraut machen möchte, zunächst als mehr oder weniger unabhängig voneinander erscheinen mögen, werden sie sich im Laufe der weiteren Auseinandersetzung ahnen, wie sie sich zu einem Gesamtgefüge zusammensetzen lassen könnten, das eine interessante Alternative zum pessimistischen Relativismus bietet.
7.1 Kybernetik 2. Ordnung
Beginnen möchte ich mit Heinz v. Foerster, der 1957 an der Universität von Illinois das legendäre Biological Computer Laboratory gründete. In diesem Institut kamen damals viele aufgeschlossene Denker zusammen, die in einem fruchtbaren Gedankenaustausch neue Konzepte zu kybernetischen und kognitiven Zusammenhängen entwickelten. 1973 wurde dort die Kybernetik 2. Ordnung formuliert, eine übergeordnete Kybernetik. Die Kybernetik 1. Ordnung, mit der wir gemeinhin vertraut sind, untersucht die wechselseitige Beziehung von Sachverhalten. Wir beobachten Sachverhalte und versuchen ihre Zusammenhänge zu durchschauen. In der Kybernetik 2. Ordnung werden nicht mehr die Sachverhalte untersucht, sondern es wird die Beobachtung beobachtet. Der Beobachter beobachtet sich selbst oder andere.
Wodurch wurde Foerster veranlasst, sich dieser Betrachtungsweise zuzuwenden? Es war die Erkenntnis, dass es bei jeder Beobachtung einen blinden Fleck gibt, der selbst nicht gesehen wird, wie wir selbst bei unserem Experiment erfahren konnten. Um den blinden Fleck zu sehen, muss man die Beobachtung beobachten. Foerster weist darauf hin, dass alle Sachverhalte immer nur Sachverhalte für einen bestimmten Beobachter sind und dass selbst der gewissenhafteste Beobachter nicht sieht, was er nicht sieht, - nämlich den blinden Fleck. Foerster formulierte das in dem berühmten Satz: Der Beobachter sieht nicht, dass er nicht sieht, was er nicht sieht. Aus dieser Formulierung generierten wir den letzten Satz des ersten Kapitels: Der Wissende weiß nicht, dass er nicht weiß, was er nicht weiß.
Foerster behauptet weiterhin, dass jede Erkenntnistheorie eine Art kybernetische Theorie ist, denn die Probleme eines Anfangs, eines Fundamentes sind seiner Meinung nach nur durch ein zirkuläres Verfahren einlösbar. Es muss nach ihm ein geschlossener Kreis formuliert werden, bei dem die Endbedingungen zugleich die Anfangsbedingungen sind. Dieses methodische Vorgehen bezeichneten wir vorher als problematisch, weil es prima vista wie ein circulus vitiosus, ein Teufelskreis, erscheint, der nichts erläutert oder erklärt. Foerster sucht aber nicht nach einem circulus vitiosus, sondern nach einem circulus creativus, einem schöpferischen Kreis. Es bleibt Ihnen überlassen, später zu entscheiden, ob produktive Rückkopplungsschleifen tatsächlich kreativ sind.
In welchem Widerspruch stehen Foersters Thesen zur konventionellen wissenschaftlichen Denkweise. Die traditionelle Wissenschaft hatte das Ziel, die Welt so zu erkennen, wie sie ist. Sie orientierte sich letztendlich an einer objektiven Beschreibung der Welt, in der es keine subjektiven Anschauungen mehr geben durfte. Es wurde im Grunde ein subjektloses Universum gesucht. Auf diese Art und Weise glaubte man, objektiv zu sein, Täuschungen abzustreifen und Widersprüche zu vermeiden. Diese Vorstellung hatte sich aber nicht aufrecht erhalten können. Es zeigte sich vielmehr, dass die Position und auch die Funktion des Beobachters explizit bei der Interpretation von Beobachtungen zu berücksichtigen sind. Beobachtungen gelten nämlich nicht absolut, sondern immer nur relativ zu einem bestimmten Standpunkt des Beobachters. Alle Erkenntnisse sind immer auf Subjekte bezogen.
Es ist im Grunde eine Binsenweisheit, dass eine Beschreibung von etwas immer jemanden voraussetzt, der es beschreibt bzw. beobachtet. Zudem beeinflussen häufig die Beobachtungen auch das Beobachtete und können so jede Hoffnung des Beobachters zu Nichte machen, sichere subjektunabhängige Vorhersagen treffen zu können. Foersters wichtige, wenn auch nicht neue Erkenntnis war, dass jede Beschreibung des Universums jemanden voraussetzt, der es beschreibt, so dass die subjektive Komponente wesentlicher Bestandteil der Wissenschaft werden muss. In der Wissenschaft wird also eine Theorie der Beobachtung benötigt.
Wenn wir Foersters Erkenntnisse über Beobachtungen in unser Verständnis von Wissenschaft integrieren, dann ändert sich zwangsläufig die Geltung von wissenschaftlichen Argumenten. In unserem laienhaften Verständnis gingen wir bisher davon aus, dass wissenschaftliche Aussagen subjektunabhängig sein sollen. Wissenschaftliche Erkenntnisse haben sich schließlich in ihrem ursprünglichen Verständnis dadurch ausgezeichnet, dass sie objektiv sind, dass sie uns tatsächliches Wissen vermitteln, das nicht von einer subjektiven Meinung abhängig ist. Nun scheinen wir aber aus gutem Grund wieder eine subjektive Komponente einzuführen.
Ein weiterer Grund, den Beobachter in der Beobachtung bisher unberücksichtigt zu lassen, war das Problem der Rekursion, der Selbstbezüglichkeit. Aus Rekursionen können sich nämlich paradoxe Situationen ergeben. Zirkuläre Denkweisen haben wir bereits früher kennen gelernt. Sie sind in der Wissenschaft verboten, weil sie nichts Substantielles zur Begründung beitragen. So erklärt oder begründet der folgende zirkuläre Schluss scheinbar nichts: A impliziert B; B impliziert C; und C impliziert A. Auch der reflexive Fall ist zirkulär: A impliziert B und B impliziert A. Die reinste Form der Zirkularität ist sicherlich die Selbstreferenz: A impliziert A. Denjenigen, die sich früher mit zirkulären Denkweisen oder infiniten Rekursionen auseinandersetzten, wurde ein Denkfehler unterstellt, weil sie sich immer in irgendeiner unlösbaren Sackgasse verirrten.
Ein klassisches Beispiel dafür ist das Paradox des Lügners von Epimenides aus dem 7. Jahrhundert v. Chr. Er behauptete: “Ich bin ein Lügner”. Wie ist dieser Satz zu verstehen? Wenn der Satz zutrifft und sie mir glauben, dass ich ein Lügner bin, dann behaupte ich zugleich, dass ich kein Lügner bin, denn ich lüge ja mit der Behauptung. Wenn ich also lüge und somit kein Lügner bin, dann trifft der Satz zu und ich bin doch ein Lügner. Egal, wie Sie diesen Satz betrachten, er hat keine eindeutige Lösung. Selbstbezügliche Sätze wurden deshalb als unlösbar angesehen. Der Satz ist weder wahr noch falsch und somit nach der klassischen Logik nicht sinnvoll. Da bereits Aristoteles das Prinzip aufstellte, das ein sinnvoller Satz entweder wahr oder falsch zu sein hat, wurden solche Sätze als nicht sinnvoll in das Reich der Irrwege verstoßen.
Betrachten Sie dagegen den Satz: „Dieser Satz hat insgesamt x Buchstaben”, der ebenfalls selbstbezüglich ist. Wenn Sie für die Variable x verschiedene Zahlen einsetzen, wird der Satz bei 45 wahr. Er hat somit eine Lösung bzw. einen Eigenwert. Erst die moderne Kybernetik und Chaostheorie konnte aufzeigen, dass es für einige der infiniten Rekursionen tatsächliche Lösungen und sogar Strategien zur Lösungsfindung gibt. Gesucht werden dabei so genannte Eigenwerte, zu denen die rekursiven Funktionen streben, die sie dann als eine Art Gleichgewicht einzunehmen trachten.
Solche Paradoxa treten aber nicht nur in willkürlich formulierten selbstreferentiellen Sätzen auf, sondern sie wurden von Bertrand Russell und Alfred North Whitehead auch entdeckt, als sie versuchten in ihrem Werk „Principia mathematica“ die Mathematik auf einem streng logischen Kalkül aufzubauen. In diesem Werk formulierten sie die Grundlagen freier Deduktionen, um Zweideutigkeiten, Widersprüche und Unentscheidbarkeiten ein für alle Mal aus den Grundlagen der Mathematik zu verdammen. Bei ihrer Ausarbeitung waren sie aber gezwungen, eine Typentheorie aufzustellen und jede Art der Selbstreferenz zu verbieten, um paradoxe Situationen zu vermeiden. So wiesen sie unter anderem daraufhin, dass man nicht über “die Menge aller Mengen, die sich nicht selbst als Element enthält” sprechen kann, denn auch in diesem Satz ist die Aussage wahr, wenn sie falsch ist, und falsch, wenn sie als wahr gilt.
Der Versuch, die gesamte Mathematik in einem logischen Kalkül zu beweisen, schlug definitiv fehl. Es gelang dem Logiker und Mathematiker Kurt Gödel zu belegen, dass die Konsistenz eines Systems nicht ausschließlich innerhalb desselben Systems bewiesen werden kann. Es gibt immer einige Aussagen in einem System, die nicht bewiesen werden können. Offensichtlich müssen Konsistenz und Vollständigkeit außerhalb des Systems belegt werden. Auch hier stellen wir wieder fest, dass es kein Fundament gibt, dass sich selbst vollständig stützt. Wir müssen für jedes selbst noch so ausgeklügelte System Annahmen unterstellen, die durch das System im Nachhinein nicht gestützt werden können. Eine definitive sichere Verankerung ist deshalb nicht möglich.
7.2 Ordnung und Chaos
Betrachten wir noch einmal eines der Ziele der Wissenschaft. Sie hat sich unter anderem zum Ziel gesetzt, möglichst viele Gesetzmäßigkeiten oder Regelmäßigkeiten zu formulieren, damit Ereignisse vorhersagbar werden. Wonach wir also in der Wissenschaft suchen sind Ordnungen bzw. Regelmäßigkeiten. Wenn wir keine Ordnung in den Dingen oder Ereignissen nachweisen können, wenn sie uns als ungeordnet, als chaotisch erscheinen, dann können wir die weiteren Abläufe nicht vorhersagen, und auch technisch nicht beherrschen. Chaos als Gegenbegriff von Ordnung ist somit der große Störenfried in der Wissenschaft. Wenn etwas regelmäßig oder geordnet ablaufen soll, dann sind chaotische Zustände unerwünscht. Sie stören den regelmäßigen Ablauf und müssen deshalb mit allen Mitteln beseitigt werden. Allerdings bleibt dabei unbestimmt, ob das Problem der Unordnung in den Gegenständen selbst liegt, oder nur daran, das der Mensch die Ordnung nicht erkennt.
Was aber ist Ordnung? Wann sagen wir, dass etwas geordnet ist? Betrachten wir dazu die Zahlenfolgen:
2,4,6,8,10 oder
1,4,9,16,25,36,49,
in der wir sehr leicht erkennen, nach welcher Regel die Reihe aufgestellt wurde. Dadurch, dass wir eine Gesetzmäßigkeit hinter der Zahlenreihe erkennen, halten wir sie für geordnet. Doch betrachten wir nun die Zahlenfolge:
1,4,1,5,9,2,6,5,3,5,8,9.
Hier ist auf den ersten Blick keine Ordnung zu erkennen. Wenn wir aber eine 3 davor schreiben, dann wird deutlich, dass es sich um die Zahl π (3,141592653589) handelt. Sie ist eine irrationale Zahl, d.h. dass es hinter dem Komma niemals zu einer ständigen Wiederholung kommt. Auch diese Zahlenfolge ist streng regelhaft und jede Folgezahl lässt sich nach einem Algorithmus exakt berechnen.
Die Tatsache, dass wir in den Daten keine Regel erkennen, so dass sie uns als zufällig erscheinen, bedeutet also nicht, dass sie tatsächlich ungeordnet sind. Solange wir die Gesetzmäßigkeit noch nicht erkannt haben, besteht immer noch die Chance, dass wir die Regel doch noch erkennen werden.
Ein weiteres Beispiel von Foerster soll dieses noch einmal verdeutlichen. Betrachten Sie die folgenden beiden Reihenfolgen:
A: 1,2,4,8,16,32,64,128
B: 8,3,1,5,9,6,7,4,2
Die Ordnung der ersten Reihe ist offensichtlich. Die der zweiten Reihe ist nicht direkt erkennbar, aber sie sind dennoch regelmäßig angeordnet, nur alphabetisch - acht, drei, eins, fünf, usw. Selbst verworrene Ansammlungen von Objekten sind also potentiell strukturierbar. Wir müssen nur dass Prinzip der Regelmäßigkeit finden. Ordnung ist so eine Eigenschaft des Beobachters und nicht der Dinge. Wenn Sie nur Chaos sehen, dann reicht möglicherweise ihr Verstand oder Phantasie nicht aus, die Ordnung zu finden, die dahinter steckt.
Ordnung ist sicherlich auch schwer definierbar. Eine Definition der Ordnung könnte nach Foerster folgendermaßen lauten: Wenn die Beschreibung der Regelmäßigkeit kurz und die Anordnung (z.B. einer Zahlenfolge) sehr lang ist, dann besitzt die Anordnung offensichtlich eine Menge an Ordnung. Das bedeutet, dass einige wenige Regeln genügen, um die Anordnung zu erzeugen. So kann die Zahlenfolge 0,1,2,3,4,...99 beschrieben werden durch: Jede Folgezahl ist gleich der Vorgängerzahl plus 1.
Unordnung könnte analog dazu definiert werden als: Wenn die Länge der Beschreibung sich der Länge der Anordnung annähert, dann gibt es keine sinnvolle Regelmäßigkeit und wir verstehen offenbar diese Anordnung nicht. Die Beschreibung imitiert bloß die Anordnung. Wenn man zum Beispiel für die Zahlenreihe 8,5,4,9,1,7,6,3,2,0 keine Regel findet, dann bleibt nur die Anforderung: Schreibe 8,5,4,9,1,7,6,3,2,0 auf.
Selbst Zufall und Notwendigkeit sind somit nur der Ausdruck unserer Fähigkeiten, Ereignisse sicher vorherzusagen oder sie nicht vorhersagen zu können. Wenn wir ein Ereignis deduktiv ableiten können, dann tritt es notwendigerweise ein. Wenn wir es nicht induktiv vorhersagen können, dann tritt es zufällig auf.
7.3 Triviale und nicht-triviale Maschinen
Foerster richtete als Kybernetiker sein Augenmerk auch auf die wichtige Unterscheidung von trivialen und nicht-trivialen Maschinen. Da diese Unterscheidung unseren Blick auch für andere komplexe Sachverhalte schärfen wird, wollen wir diese Terminologie übernehmen.

Triviale Maschine
Stellen Sie sich ein beliebiges Gerät vor, das wir der Einfachheit als schwarzen Kasten darstellen. Dieses Gerät hat einen Eingang bzw. Input und einen Ausgang bzw. Output. Wenn zwischen dem Eingang und dem Ausgang eine eineindeutige Beziehung besteht, dann liegt ein triviales Gerät oder eine triviale Maschine vor. Es handelt sich hierbei um ein eindeutig deterministisches System, denn die Beziehung zwischen Input und Output ist ein für alle mal festgelegt. Dadurch wird sichergestellt, dass zu allen Zeiten ein bestimmter Input zu einem bestimmten Output führt. Wenn es sich zum Beispiel bei der Maschine um einen Rechner handelt, der alle Zahlen quadrieren soll, dann führt die Eingabe von 4 zur Ausgabe der Zahl 16 und die Eingabe von 25 zur Ausgabe von 625.
In unserem alltäglichen Umgang mit dem Auto, der Waschmaschine, einem Toaster und sonstigen Geräten gehen wir immer davon aus, dass sie sich als triviale Maschinen erweisen. Wir legen einen Schalter um oder drücken auf einen Knopf und erwarten, dass ein vorhersehbares Ereignis eintritt. In diesem Sinne verhalten sich alle Maschinen trivial. Jede realisierte erfolgreiche Technologie basiert letztlich auf einem trivialen Verhalten der konstruierten Maschine. Jede Art der Abweichung von diesem trivialen Verhalten ist unerwünscht und wird als Störung aufgefasst. Häufig werden die Maschinen so konstruiert, dass kleinere Störungen intern abgefangen werden, damit die erwünschte Wirkung auch tatsächlich eintritt. Triviale Maschinen sind eindeutig vorhersagbar und auch geschichtsunabhängig.
Ohne Zweifel verhalten sich auch triviale Maschinen manchmal nicht-trivial. Wenn wir eines Tages das Auto nicht mehr starten können, dann gehen wir davon aus, dass sich etwas in dem inneren Zustand des Autos verändert hat und einer Reparatur bedarf. Nicht-Trivialität signalisiert Reparaturbedürftigkeit.
Auch Medizinstudenten sind angehalten, sich trivial zu verhalten. Wenn Sie in einer Prüfung abgefragt werden, dann müssen Sie die vorher festgelegten Lösungen wissen, um zu bestehen. Auch hier würde nicht-triviales Verhalten als unpassend aufgefasst.

Nichttriviale Maschine
Was aber sind nicht-triviale Maschinen? Nicht-triviale Maschinen zeichnen sich dadurch aus, dass die Input-Output-Beziehung durch einen zuvor erzeugten Output der Maschine festgelegt wird, weil ein Rückkopplungsmechanismus innerhalb der Maschine existiert. Es kann also geschehen, dass derselbe Input zu unterschiedlichen Outputs führt. Es gibt demnach keine eineindeutige Beziehung zwischen Input und Output.
Betrachten Sie dazu die folgende Abbildung, die nach einer Publikation Foersters angefertigt wurde. Durch die internen Rückkoppelungen über den roten Modulator wird die grüne und blaue Komponente in verschiedene interne Zustände versetzt. Es handelt sich wie eine triviale Maschine um ein deterministisches System, dass wir eindeutig vorhersehen können. Vorausgesetzt wir kennen zusätzlich zum Input die genaue Konstruktion und die internen Zustände der Maschine, dann kennen wir auch den Ausgang. Da die internen Zustände der Maschine von den vorherigen Inputs abhängen, ist eine nicht-triviale Maschine zusätzlich geschichtsabhängig, sie wird von ihrer Vorgeschichte beeinflusst.
Für nicht-triviale Maschinen, wie zum Beispiel unser kognitives System, gilt also, dass eine einmal beobachtete Reaktion auf einen gegebenen Stimulus zu einem späteren Zeitpunkt nicht mehr zwangsläufig auftreten muss. Da wir in den meisten Fällen weder die internen Zustände noch die genaue Konstruktion von nicht-trivialen Maschinen kennen, könnte man versucht sein, die Sequenzen von Input-Output-Paaren zu beobachten, um dann auf dieser Grundlage eine Hypothese über die Arbeitsweise der Maschine aufzustellen. Derjenige, der die Funktionsweise der Maschine nicht kennt, könnte also versuchen, unter Beobachtung aller Paare doch irgendwie auf die Funktionsweise der Maschine zu schließen, um die Arbeitsweise durchsichtig zu machen. Das ist ein beliebtes Vorgehen, sowohl um molekularbiologische Mechanismen als auch kognitive Abläufe wissenschaftlich zu untersuchen.
Ein solcher Versuch mag auf den ersten Blick sinnvoll erscheinen, er ist es aber nicht. Denn man müsste sich der langweiligen Prozedur aussetzen, alle Sequenzen auf eine Regel zu überprüfen. Und man könnte hoffen, solch eine Regel auch zu finden. Die Wahrscheinlichkeit, dass man auf diese Weise erfolgreich ist, ist leider extrem gering, um nicht zu sagen aussichtslos. Selbst wenn wir nur zwei Output-Zustände und vier zweiwertige Input-Zustände in Betracht ziehen, dann gibt es 6*1076 Möglichkeiten. Steigen die Inputzustände auf 16 an, so steigen die Möglichkeiten auf 1600*1070000. Aus diesen Zahlen ist leicht erkennbar, dass nicht-triviale Maschinen prinzipiell nicht durch analytische Verfahren bestimmbar sind. Wir müssen uns andere, kreative Wege einfallen lassen, nicht-triviale Situation zu enträtseln.
7.4 Autopoiesis
Wenden wir uns nun den Biologen und Kognitionswissenschaftlern Humberto Maturana und Francisco Varela zu, die ihre Denkweise auf biologische Erkenntnisse über neurophysiologische Abläufe und kybernetisches Denken gründeten.
Maturana und Varela fragten sich, wodurch ein Lebewesen definiert ist? Nach ihrer biologischen Definition sind Lebewesen dadurch charakterisiert, dass sie sich andauernd selbst erzeugen, sich selbst herstellen und bewahren. Sie sind autopoietisch organisiert. Der Begriff „Autopoiesis“ ist eine Neuschöpfung und aus den griechischen Wörtern „autos“, was so viel wie „selbst“ bedeutet und „poiein“, was „machen“ oder „herstellen“ bedeutet. Lebewesen sind demnach autonome Einheiten, die dazu befähigt sind, sich in ihrer eigenen Struktur zu spezifizieren und zu replizieren. Es ist den Lebewesen eigentümlich, dass sie das Produkt ihrer eigenen Organisation sind. Es gibt keine Trennung zwischen dem Produzenten und dem Produkt. Sein und Tun einer autopoietischen Einheit sind untrennbar miteinander verknüpft.
Autopoietische Systeme sind im Grunde Systeme, die in bestimmter Hinsicht organisiert sein müssen, um zu funktionieren. Sie operieren so, dass sie wichtige eigene Funktionen aufrechterhalten und bestimmte Strukturen konstant halten. Erst durch zirkuläre Operationen erhalten sie sich, stabilisieren sie sich und erscheinen dadurch autonom gegenüber ihrer Umwelt. Würde das System nicht zirkulär funktionieren, so würde es sich stetig zu etwas anderem verändern. Die Zirkularität bewahrt einerseits die Struktur des Systems und erlaubt andererseits sein Verhalten vorherzusagen. Was repliziert wird, kann aber vom System nicht beliebig ausgewählt werden, sondern es muss auch in der gewählten Umwelt funktionieren. Autopoietische Systeme implizieren demnach eine Vergangenheit, sie haben eine Geschichte, eine erfolgreiche Geschichte, denn sonst wären sie nicht existent.
Für das weitere Verständnis ist es wichtig, auf den Unterschied zwischen System und Umwelt zu achten, wobei sich System und Umwelt gegenseitig festlegen. So können beim Menschen unterschiedliche Systeme betrachtet werden; das Lebewesen, der Organismus, die Zelle, das Bewusstsein oder die Gesellschaft. Je nach Wahl des Gesichtspunktes definiert sich dann auch dasjenige, was unter Umwelt verstanden wird.
Lebende Systeme zeichnen sich also dadurch aus, dass sie organisatorisch von der Umwelt abgeschlossen bzw. autonom sind. Sie bewahren sich dadurch ihre Individualität. Allerdings stehen sie im Kontakt mit ihrer Umwelt, denn ihre Integrität können sie nur durch den Austausch von Materie und Energie aufrechterhalten. Sie müssen mit der Umwelt in geeigneter Form interagieren, um ihre eigene Existenz nicht zu gefährden.
In welcher Weise können Umwelt und Systeme miteinander agieren? Wodurch wird der Effekt der Interaktion innerhalb des Systems festgelegt: durch die Umwelt oder durch das System. Wahrscheinlich werden Sie geneigt sein, der Umwelt, der offensichtlichen Ursache, den entscheidenden Effekt zuzusprechen. Wir gehen in unserem naiven Verständnis davon aus, das wir durch eine externe Ursache veranlasst werden in einer bestimmten Weise zu reagieren. Wir glauben, dass die von uns gezeigte Reaktion primär von der Ursache abhängig ist, von unserer Umwelt. Wir fühlen uns deshalb determiniert, gefangen in einer Realität, die festlegt, wie wir zu reagieren haben. Deshalb untersuchen wir auch so sorgfältig die Realität, um zu entdecken, wodurch wir determiniert werden. Diese Sichtweise ist aber falsch!!
Es ist nicht primär die Umwelt, sondern es ist das System, das festlegt, wie es reagiert, welcher Effekt hervorgerufen wird. Betrachten wir hierzu eine Zelle als System. Interagiert zum Beispiel ein bestimmtes Molekül mit der Zellmembran einer Zelle, so ist die Konsequenz dieser Aktion nicht durch die Eigenschaften des Moleküls festgelegt. Es ist vielmehr die spezielle Organisationsstruktur der Zelle und ihrer Zellmembran, die angeregt durch das Molekül eine bestimmte Reaktion hervorruft. Der Aufbau der Zelle legt fest, wie die Zelle auf das Molekül reagiert. Es mag auch andere Moleküle geben, die dieselbe Reaktion hervorrufen und es gibt Zellen, bei denen das Molekül eine andere Reaktion veranlasst.
Man kann somit aus der Reaktion der Zelle weder auf die Struktur des Moleküls schließen noch kann man aus dem Molekül die Reaktion der Zelle vorhersagen, ohne den Reaktionsmechanismus der Zelle zu kennen. Aus den Reaktionen oder Veränderungen innerhalb des Systems kann nicht eindeutig auf die Struktur der Umwelt geschlossen werden und umgekehrt.
Eine Irritation oder Interaktion von außen schreibt also keine definierten Effekte innerhalb des Systems vor. Die Umwelt gibt keine spezifischen Instruktionen an das System, sondern sie löst lediglich einen Effekt aus. Veränderungen in der Umwelt determinieren deshalb auch nicht bestimmte Anpassungen im System. Es gibt zwar so etwas wie eine strukturelle Koppelung zwischen System und Umwelt, aber keine isomorphe Verknüpfung. System und Umwelt bzw. Lebewesen und Milieu sind operational voneinander unabhängig. Es lässt sich lediglich sagen, dass das System/Lebewesen adäquat reagiert oder dass seine Reaktion in der Situation passend ist. Wäre das nicht der Fall, so würde das System aufhören zu existieren.
Transferieren wir diese Mechanismen auf unsere erkenntnistheoretische Situation. Es gibt auch hier eine strikte Trennung zwischen dem Denken und der Realität. Wir können prinzipiell nicht erfahren, wie die Realität tatsächlich beschaffen ist, weil wir in unserem System gefangen sind. Wir brauchen auch nicht genau zu wissen, wie die Realität beschaffen ist, solange wir uns adäquat bzw. passend verhalten. Wir können lediglich in unserem Scheitern erfahren, wie sie nicht ist, denn wenn wir uns nicht adäquat verhalten und unsere Reaktion nicht auf die jeweilige Situation anpassen, dann werden wir von der Natur eines Besseren belehrt oder hören auf zu existieren. Begriffe wie „Realität“ und „Wahrheit“ scheinen sich aufgelöst zu haben und weichen einer „adäquaten Reaktion“, die „passend“ sein muss.
Allerdings ist die strukturelle Kopplung zwischen System und Umwelt wechselseitig aktiv, weil die Veränderung des Systems einerseits die Umwelt beeinflusst, und die Pertuberation oder Irritation durch die Umwelt andererseits auf das System wirkt. Auf dieser wechselseitigen Kopplung beruht die Anpassung des Systems an seine Umwelt.
Wollte jemand die Koppelung von Umwelt und System begreifen bzw. analysieren, so müsste er eine umfassende Position als Beobachter einnehmen. Nur wenn der Beobachter System und Umwelt gleichzeitig mit den Interaktionen erfasst, wird er die strukturelle Kopplung feststellen können. Würde er im System verbleiben, dann könnte er nur die Reaktionen des Systems erfassen, aber nicht die Interaktionen. Auch hier wird wieder deutlich, wie wichtig es ist, die Stellung des Beobachters zu berücksichtigen.
An einem Beispiel von Maturana lässt sich dieses sehr gut verdeutlichen: “Stellen wir uns jemanden vor, der sein ganzes Leben in einem Unterseeboot verbracht hat, ohne es je zu verlassen, und der in dem Umgang damit ausgebildet wurde. Nun sind wir am Strand und sehen, dass das Unterseeboot sich nähert und sanft an der Oberfläche auftaucht. Über Funk sagen wir dann dem Steuermann: “Glückwunsch, du hast alle Riffe vermieden und bist elegant aufgetaucht; du hast das Unterseeboot perfekt manövriert.” Der Steuermann im inneren des Bootes ist jedoch erstaunt: “Was heißt denn “Riffe” und “auftauchen”? Alles, was ich getan habe, war, Hebel zu betätigen und Knöpfe zu drehen und bestimmte Relationen zwischen dem Anzeigen der Geräte beim Betätigen der Hebel und Knöpfe herzustellen - und zwar in einer vorgeschriebenen Reihenfolge, an die ich gewöhnt bin. Ich habe kein “Manöver” durchgeführt, und was soll das Gerede von einem „Unterseeboot”?“
Es ist offensichtlich, dass es für den Fahrer des Unterseebootes lediglich die Anzeigen der Instrumente und ihre Relationen zueinander gibt. Betrachtet man die Situation von “draußen”, so sehen wir zusätzlich Strände, Riffe, die Oberfläche und andere Dinge, die für den Steuermann keine Entitäten sind. Lediglich aufgrund unserer Beobachtungsstufe können wir die Interaktion zwischen System und Umwelt thematisieren.
Der Beobachter, der Umwelt und System gleichzeitig betrachtet, kann feststellen, ob ein funktionierender Organismus diejenigen Strukturveränderungen auswählt, die ihm eine weitere Existenz bzw. weiteres Operieren ermöglichen. Würde der Organismus unpassend reagieren, dann würde er sich selbst auflösen. Für den Beobachter reagiert das System/Organismus so, als wenn er sich auf die veränderten Bedingungen der Umwelt einstellt. Es wirkt als lernendes System. Aus der Sicht des Systems aber, in dem die Umwelt nicht thematisiert werden kann, wirkt es nur als ein kontinuierliches strukturelles Driften, in dem durch die Erhaltung der strukturellen Kopplung der Organismus seine Existenz erhält. Lernen ist letztlich nichts anderes als Ausdruck einer Strukturkopplung zwischen System und Umwelt, um die Verträglichkeit des Systems in der Umwelt aufrechtzuerhalten. Lernt das System nicht, hört es auf zu operieren.
Maturana und Varela übertrugen ihr Konzept auf soziologische Aspekte. Nach ihnen besteht die Bildung eines sozialen Systems in nichts anderem als in der strukturellen Kopplung ihrer Mitglieder durch Kommunikation. Unter Kommunikation wird dabei das gegenseitige Auslösen von koordinierten Verhaltensweisen in einer sozialen Einheit verstanden. Dazu interagieren die einzelnen Organismen rekursiv miteinander und erzeugen so diese soziale Kopplung. Da die Sprache keine Grenzen kennt, ist sie optimal dazu geeignet, um ein Netzwerk sprachlicher Interaktionen aufzubauen, die eine wiederholte Rekursion aufrechterhalten, so dass sich so etwas wie ein “ich” und „der andere“ konstituieren können. Dabei sind beide voneinander abhängig, denn das Ichbewusstsein stellt zwar die operationale Kohärenz oder Selbstbewusstsein des Individuums sicher, aber bei diesem Vorgehen hängt es konstitutiv von der Existenz der anderen Individuen ab.
7.5 Das Gehirn als autopoietisches System
Auch unser Gehirn scheint ein in sich abgeschlossenes System zu sein, das sich reflexiv verhält und nur mit seinen eigenen bewussten und unbewussten Zuständen umgeht. Der Kontakt zur Außenwelt wird zwar durch die Sinnesorgane bzw. Rezeptoren aufrechterhalten, aber diese vermitteln kein physikalisch eindeutiges Abbild der Welt. Wie besonders die Physiologie der Farbwahrnehmung deutlich machte, können wir uns nicht darauf verlassen, dass die Farbe der von uns gesehenen Gegenstände durch die Wellenlänge des abgestrahlten Lichtes festgelegt wird. Auch andere Einflüsse können dieselbe Farbwahrnehmung auslösen.
Dasjenige, was wir wahrnehmen, scheint weniger von den Eigenschaften der Gegenstände zustande zu kommen, als vielmehr durch unsere spezifischen Wahrnehmungsfähigkeiten. Es ist die physiologische Struktur unseres Gehirns, die die Eigenschaften der Gegenstände bestimmt. “Wir sehen nicht den “Raum” der Welt, sondern wir erleben unser visuelles Feld; wir sehen nicht die “Farben” der Welt, sondern wir erleben unseren chromatischen Raum”. Unsere Erfahrung spiegelt keine absolute Welt wider, die uns unbezweifelbare Wahrheiten mitteilt, sondern sie wird durch unsere spezifische neurophysiologische Struktur konfiguriert und durch unsere vorhergehenden Erfahrungen, unserer persönlichen Geschichte beeinflusst.
Unsere Sinnesrezeptoren erfassen dabei nur einen kleinen Bereich der physikalischen und chemischen Eigenschaften und übersetzen ihn in eine „neurophysiologische“ Einheitssprache. Der früher unterstellte direkte Bezug zum Gegenstand in der Welt geht dabei verloren. Was wir wahrnehmen ist deshalb kein einfaches Abbilden von Gegenständen in der Welt, sondern es handelt sich um Interpretationen des Gehirns, das bestimmten Ereignissen eine Bedeutung zuweist. Die Zuweisung der Bedeutung hängt nicht in erster Linie von den äußeren Reizen, sondern vielmehr von der früheren Erfahrung des Individuums und der vererbten Struktur des Wahrnehmungsapparates.
Das Gehirn hat nur einen indirekten Zugang zur Welt. Die geistigen Produkte seiner Tätigkeit sind eine Eigenleistung und basieren auf Differenzierungen, die durch Erfahrungen bzw. Lernen modifizierbar sind. Kriterien zur Bewertung der Wahrnehmung und deren Deutung müssen vom Gehirn selbst entwickelt werden.
Selbst ein erfolgreiches Überleben in der Umwelt erlaubt keinen Schluss darauf, dass die Welt tatsächlich so beschaffen ist, wie wir glauben. Wir reagieren nicht auf den äußeren Gegenstand, auf einen Hund oder Stuhl, sondern nur auf die Erregung unserer Rezeptoren. Da wir in unserem Nervensystem gefangen bleiben, gibt es keine Möglichkeit, zwischen einer äußeren und inneren Umwelt zu unterscheiden. Ich selbst kann nicht entscheiden, ob meine Erlebnisse Halluzinationen sind oder nicht. Diese Differenzierung kann nur ein Anderer vornehmen, der mich beobachtet.
Unmittelbare Wahrnehmung hat für uns keine Bedeutung. Wahrnehmung ist immer schon durch uns interpretiert. Was wirklich ist, wird erst dadurch wirklich, indem wir es herstellen. Wir stehen zu unseren eigenen Wahrnehmungen in der Beziehung wie ein Beobachter sich Gegenstände vorstellt bzw. Ereignisse beobachtet. Jede Feststellung, jede Beschreibung beinhaltet somit eine subjektive Komponente durch denjenigen, der die Feststellung trifft oder den Sachverhalt beschreibt.
7.6 Konstruktivismus
Was macht den „radikalen“ Konstruktivismus so radikal? Was ist das neue an dieser intellektuellen Bewegung? Es ist die Abkehr vom einfachen ontologischen Denken und Hinwendung zum konstruktivistischen Denken. Es wird nicht mehr nach dem Wesen der Gegenstände gefragt. Es soll nicht mehr dasjenige gesucht werden, was die Welt im Innersten zusammenhält, sondern es wird nach dem Wie der Erkenntnis gefragt. Der Erkenntnisvorgang und seine Resultate stehen jetzt im Vordergrund.
Wenn wir einmal akzeptieren, dass wir keinen direkten Zugang zu der Welt haben können, sondern nur insofern wir uns mit ihr kognitiv auseinander setzen, dann wird leicht erkennbar, dass die Grenzen der Kognition auch die Grenzen der Wirklichkeit sind. Wir können nur über Dinge und Ereignisse sprechen, die in irgendeiner Form von uns abhängig sind, mit denen wir interagieren. Wir können die Welt nicht ohne unsere Sprache beschreiben, wir haben keinen anderen Zugang zur Welt als über unsere Kognition. Wir reden zwar über die Wirklichkeit, als ob sie unabhängig von uns existiert. Wir sprechen ihr in unserem naiven Verständnis eine subjektunabhängige Existenz zu. Dieses Verständnis über die Wirklichkeit ist aber irrig. Es gibt keine Möglichkeit zwischen einer subjektunabhängigen Sicht und einer subjektabhängigen zu unterscheiden, weil wir immer auf der Seite des Beobachters stehen. Wenn es aber keine Beobachterunabhängige Beschreibung der Welt gibt, dann macht es auch wenig Sinn danach zu fragen, wie die Gegenstände als solche beschaffen sind.
Wissen und Erkenntnis beziehen sich immer nur auf subjektabhängige Beschreibungen. Nicht das unabänderliche Wesen der Dinge zu erkennen, ist unser Ziel, sondern wie wir in unserer Welt adäquat operieren. Wenn wir anerkennen, das es keinen Archimedischen Punkt der Betrachtung gibt, sondern immer nur unsere jeweils eigenen Bezugspunkte, Deutungen und Interpretationen, dann relativieren wir Begriffe wie Wahrheit und Realität. Aus unserem lebensweltlichen Ansatz, dem wir uns nicht entziehen können, wissen wir, dass wir als Lebewesen immer in sozialen Systemen interagieren. Wenn wir unsere gegenwärtige Wirklichkeit vollständig erfassen wollen, dann müssen wir uns als interagierende, als kommunikative Lebewesen begreifen.
Letztlich stabilisiert sich unsere Wirklichkeit in erfolgreichen kommunikativen Akten. Unsere Wirklichkeit entsteht als permanente Konstruktion im intersubjektiven Spannungsfeld der soziokulturellen Gemeinschaft. Wir erproben intersubjektiv verschiedene Handlungs-, Denk- und Lebensmuster und was letztlich als wirklich erfahren wird, ist das Produkt eines praktischen Prozesses und nicht die theoretische Entscheidung über eine Objektwelt.
Interaktionen zwischen Individuen gehen Kommunikationen zeitlich voraus und setzen sie auch voraus. Dabei unterstellen wir, dass unser Kommunikationspartner ähnlich ausgerichtet ist und ähnliche Interessen hat. Diese Unterstellung ist plausibel aber nicht a priori beweisbar. Diese Unterstellung machen wir bereits kurz nach unserer Geburt, wenn wir in unser kindlichen Entwicklung unsere kognitiven Fähigkeiten entwickeln. Piaget hat eindrucksvoll aufgezeigt, wie Kinder sich Begriffe von Objekten, Raum, Zeit, Bewegung und Kausalität machen. Das Begriffs- und Denksystem, über das wir als Erwachsene verfügen, entwickelt sich im Laufe der Zeit aus einfachen „sinnlichen“ Erfahrungen von Einzelereignissen, die wir später operativ zu immer abstrakteren Strukturen begreifen und zusammenfassen. Die Erfahrungen, die wir als real ansehen, die wir als empirisch erfahren, haben letztlich ihren Grund in einer langjährigen Sozialisation, in der wir intersubjektiv Strategien erlernen, wie wir erfolgreich das Leben bewältigen können und uns unsere Wirklichkeit strukturieren.
Die Welt in der wir leben, ist kein einfaches Abbild von irgend etwas, sondern eine konstruktive Wirklichkeit, die von angeborenen und erworbenen Konzepten und Strukturen aufgebaut wird, die sich als erfolgreich erwiesen haben. Die Wirklichkeit ist somit ein Produkt unserer soziokulturellen Gemeinschaft. Sie wurde interaktiv erzeugt und erprobt. Die Wirklichkeit, wie sie gegenwärtig ist, wurde von uns erschaffen und gewollt. Wir orientieren uns in unserem Leben nicht an unabänderlichen Gesetzen oder Normen, die uns irgendwie objektiv und absolut gegeben erscheinen, sondern wir orientieren uns daran, ob unser Handeln passt, ob es uns nützlich erscheint.
Das Streben nach Erkenntnis ist auch nicht darauf ausgerichtet, die Übereinstimmung mit einer subjektunabhängigen Realität zu erfassen. Es ist vielmehr der Nutzen des Wissens, der als Antrieb für die Suche nach Erkenntnissen gilt. Wissenschaftliches Wissen ist deshalb operationales Wissen. Es ist gekoppelt an bestimmte Tätigkeiten und Handlungen.
7.7 Der Irrtum der Naturgesetze
Bisher gingen wir wie selbstverständlich davon aus, dass unser wissenschaftliches Streben darauf ausgerichtet ist, die Regelmäßigkeiten in der Natur zu entschlüsseln. Wir suchen nach Naturgesetzen, nach festen Regeln, weil sie uns gestatten, sichere Prognosen abgeben zu können. Wir suchen nach trivialen Zusammenhängen. Mit dem Beginn der Neuzeit strebten alle Forscher nicht nur danach, regelhafte Zusammenhänge zu formulieren, sondern sie sollten auch mathematisierbar sein. Obgleich es für jeden offensichtlich ist, dass sich die Wirklichkeit durchgehend dadurch auszeichnet, dass sie unregelmäßig ist und bei genauerem Hinsehen immer kleine Varianten zeigt, wurden Ordnungsstrukturen aufgezeigt und die Modifikationen oder Modulationen als Störung der Ordnung interpretiert.
Galilei, Descartes, Kepler und Newton setzten ihr ganzes Streben danach, einfache mechanische Gesetze hinter der Mannigfaltigkeit der Welt zu entdecken. Aufgrund ihrer Kreativität fanden sie natürlich diese Gesetzmäßigkeiten und postulierten daraufhin, dass unsere Welt gemäß dieser Strukturen tatsächlich geordnet ist. Es kam ihnen gar nicht in den Sinn, dass diese Ordnung nur von ihnen selbst geschaffen wurde. Bestätigt fühlten sie sich durch den Erfolg moderner Technologien. Denn moderne Technik funktioniert nur, wenn strikte Regeln und Gesetze gelten, die in trivialen Maschinen realisiert werden können.
Es ist deshalb nicht sehr verwunderlich, dass wir so sehr auf Regelmäßigkeiten ausgerichtet sind, um unsere Wirklichkeit zu erklären. Leider beruht sie mehr auf Unordnung als auf Ordnung. Komplexe Zusammenhänge, Ereignisse oder Gegenstände wie der Herzrhythmus, die Börse oder das Wetter zeigen fast ausnahmslos ein großes Maß an Unordnung. Selbst zwei miteinander gekoppelte Pendel verhalten sich chaotisch.
Der Weg der neuzeitlichen Wissenschaft, der uns die fortschrittliche gegenwärtige Technologie bescherte, basiert auf Annahmen wie unabänderlichen Gesetzmäßigkeiten und dem Streben nach Gleichmäßigkeit und Gleichgewichten. Auch in unserem Medizinstudium hören wir mehr über das Streben nach Gleichgewichten als nach Ungleichgewichten. Ja, ein Ungleichgewicht wird geradezu mit krank gleichgesetzt. Die Newtonsche Physik ist geprägt von so genannten Inertialsystemen, Trägheitssystemen, die sich lediglich verändern, wenn von außen eine Kraft einwirkt. Ohne Einwirkung einer Kraft gibt es keine Veränderung, der Gegenstand verändert seine Geschwindigkeit nicht, alles bleibt in dem vorhandenen Gleichgewicht.
Weil Naturgesetze gelten, stellten sich die Menschen die Realität als deterministisch strukturiert vor. Sie glaubten, dass jede Wirkung eine spezifische Ursache habe. Man hielt die Welt für eine große komplexe triviale Maschine und fühlte sich durch den technologischen Erfolg bestätigt. Man begann deshalb folgerichtig, die Welt in klar überschaubare begriffliche Einheiten zu zerlegen. Die Mannigfaltigkeit der Welt wurde sprachlich vereinfacht, ja geradezu idealisiert. Oder, wo finden Sie so etwas wie Masse, die in einem Punkt konzentriert ist? Wie stellen Sie sich Atom- bzw. Molekülbewegungen in einer Flüssigkeit vor? Wo treten in einem Organismus laminare Strömungen auf?
Dem Vorteil einer scheinbar klaren Begrifflichkeit, die die Verständlichkeit fördert, steht der Nachteil gegenüber, dass unsere Welt eben doch nicht so klar strukturiert ist und dass sich immer wieder unbegreifliche Übergänge finden.
Die moderne Wissenschaft basiert auf Idealisierungen, die artifizielle Extrakte der Wirklichkeit sind und die Wirklichkeit nicht adäquat repräsentieren. In dieser künstlichen Situation werden dann Bedingungen geschaffen, um bestimmte Erscheinungen in einem Experiment unter kontrollierten Bedingungen hervorzubringen. Wohl wissend, dass diese Erscheinungen sonst nicht auftreten würden. Die Realität des Experimentes ist eine künstliche, die ausschließlich den Sinn hat, kontrollierbare Bedingungen zu garantieren und quantifizierbare Ergebnisse zu liefern.
Wir sind leider allzu leicht bereit, aus diesen wirklichkeitsfernen Experimenten neue Erkenntnisse abzuleiten und praktische Konsequenzen zu ziehen. Ein größerer Skeptizismus wäre hier wünschenswert. Wen wundert es, dass sich viele dieser künstlichen Wissensprodukte nicht in der Welt bewähren, ja dass sie uns möglicherweise einen gefährlichen Irrweg zeigen.
7.8 Vom Sein zum Werden
In der modernen Wissenschaft gelten Unregelmäßigkeiten als störend, weil sie die Reproduzierbarkeit gefährden und im Widerspruch zu idealen Gesetzmäßigkeiten stehen. Wie könnten wir auch unsere Technologien verbessern, wenn wir uns auf den prognostizierten Erfolg nicht verlassen könnten. Für chaotische Zustände ist im Grunde kein Platz.
Warum war es so schwer, mit chaotischen Situationen, mit Unordnung umzugehen? Warum wurde der Ordnung der Vorzug gegeben, obwohl sich die Wirklichkeit eher unordentlich zeigt? Ein Grund mag darin gelegen haben, dass regelmäßige Zusammenhänge sich in Gleichungen formulieren ließen, die analytisch lösbar waren. Will man dagegen komplexe dynamische Sachverhalte in mathematischen Gleichungen abbilden, dann sind diese nur numerisch lösbar, d.h., man muss sie ausrechnen, was einen immensen Rechenaufwand erfordert. Die moderne Chaosforschung war deshalb nicht ohne die Einführung der Computertechnologie möglich.
Während man noch vor einigen Jahrzehnten dem Chaos ein deutliches Unbehagen entgegenbrachte, weil es das Ordnungspostulat stört, wird heute zunehmend akzeptiert, dass eine gewisse Unordnung eher die Regel als die Ausnahme ist. Zugleich wurde auch der Gedanke preisgegeben, dass sich immer alles im Gleichgewicht befinden müsse. Man erkannte, dass das Gleichgewicht weniger bedeutend ist als der Prozess als solcher. Die Wissenschaft veränderte sich so von einer Wissenschaft des Seins zu einer des Werdens.
In der Welt des Seins vertraute man auf unabänderliche Sachverhalte und Gesetzmäßigkeiten. Man richtete das Erkenntnisinteresse darauf aus, das Wesen der Gegenstände zu erkennen, um ein für alle Mal zu wissen, wie es sich tatsächlich verhält. Dabei war eine echte Evolution begrifflich nur dadurch verständlich, indem man ihr zyklische Prozesse zuordnete, die immer wiederkehrten, so dass sich etwas tatsächlich Neues nicht entwickeln konnte. Für eine Wissenschaft des Werdens ist der Prozess dagegen die Regel und die Stabilität der Welt das Problem, wobei man sich die Stabilität dadurch erklärt, dass sie durch Selbstreproduktionsmechanismen aufrechterhalten wird.
Welche Konsequenzen hat nun solch ein konstruktivistischer Ansatz? Wenn von uns akzeptiert wird, dass unsere Wirklichkeit eine Konstruktion ist, dann öffnen sich uns neue Horizonte. Wenn wir nämlich die Welt nicht passiv wahrnehmen, sondern sie bereits in der Wahrnehmung aktiv gestalten, dann entscheiden wir uns für eine bestimmte Wirklichkeit. Wir können aktiv an ihr mitarbeiten. Wir können sie formen. Es ist nicht eine von uns unabhängige Wirklichkeit, die uns zu bestimmten Verhaltensweisen zwingt. Es sind wir selbst, die in freier Selbstbestimmung festlegen, was für uns wertvoll ist. Man kann somit die Verantwortung nicht mehr an andere delegieren, sondern muss sie selbst tragen. Welche Konsequenzen diese Gedanken für unser Miteinander und die wissenschaftliche Tätigkeit haben, werden wir als nächstes diskutieren.
{/jkefel} {jkefel title=[Kap. 8]}
8. Wissenschaft als soziales System
8.1 Die Welt im Labor
8.2 Methodenwahl
8.3 Ursprung des Interesses
8.4 Publikationen
8.5 Wissenschaft als selbstorganisierendes System
8.6 Beeinflussung der Wissenschaft
8.7 Belohnung des Wissenschaftlers
8.8 Wissenschaftliche Autorität
8.9 Wissenschaft als autonomes soziales System
Am Ende des letzten Kapitels wähnten Sie sich möglicherweise gefangen in einer Argumentation, die Ihnen zu abstrakt war. Wir leiteten aus den unlösbaren erkenntnistheoretischen Problemen eine konstruktivistische Position als sinnvolle Alternative ab. Die konstruktivistische Position betonte unsere aktive Rolle und Verantwortung bei der Erschaffung unserer Wirklichkeit, unserer Welt. Statt Statik Dynamik und Prozess. Statt Sein Werden. Akzeptanz von Unordnung und Unregelmäßigkeiten. Dies sind die Prinzipien der neuen Denkrichtung.
Bezogen auf die Wissenschaft gestanden wir einer klaren Begrifflichkeit zwar den Vorteil zu, dass sie die Verständlichkeit fördert, aber wir erwähnten auch den entscheidenden Nachteil, dass die Welt eben doch nicht so klar strukturiert ist, wie es uns von den einzelnen Wissenschaften suggeriert wird. Das wird immer dann sehr deutlich, wenn sich benachbarte Disziplinen über dieselben Erscheinungen äußern müssen. Da die modernen wissenschaftlichen Erkenntnisse auf künstlichen Bedingungen basieren, ist eine gewisse Vorsicht angezeigt, wenn wir die artifiziell erworbenen Kenntnisse auf die Wirklichkeit anwenden wollen.
Da es durchaus vorstellbar ist, dass ich Sie bisher nicht über den konstruktiven Charakter der Erkenntnis habe überzeugen können, werde ich die argumentative Strategie etwas ändern und konkreter werden. Es mag sein, dass Sie immer noch daran glauben, dass es so etwas wie eine objektive bzw. subjektunabhängige Realität gibt, die die Wissenschaft erforschen sollte. Mein nächster Überzeugungsversuch ist einfach! Wenn Sie weiterhin an die edlen Motive der Wissenschaft glauben, dann sollten Sie sich mit den soziologischen Mechanismen vertraut machen, die hinter der wissenschaftlichen Tätigkeit stehen.
Ein sehr bekannter und gut beschriebener empirischer Feldversuch wurde von der Soziologieprofessorin Knorr-Cetina in einem sehr lesenswerten Buch publiziert, das gut geeignet ist, jedem aktiven Wissenschaftler bei Gelegenheit einen unliebsamen Spiegel vorzuhalten.
Knorr-Cetina weist daraufhin, dass dem Kontext der Entdeckung eine große Bedeutung zukommt, wenn man wissenschaftliche Ergebnisse interpretieren möchte. Sie unterzog sich der Mühe und beobachtete nach Einwilligung aller Beteiligten die wissenschaftliche Tätigkeit in einem renommierten High-Tech-Laboratorium in Kalifornien. In diesem Institut wurde unter anderem über Proteinsynthese geforscht. Es handelte sich um ein Institut, das den Forschern die typischen Voraussetzungen und Umgebungsbedingungen moderner wissenschaftlicher Tätigkeit bot - von den ausgezeichneten Ressourcen bis zum Zwang innerhalb einer definierten Zeit eine brauchbare Lösung zu liefern. In diesem soziologischen Forschungsprojekt sollte untersucht werden, wie die wissenschaftliche Tätigkeit als sozialer Akt tatsächlich abläuft und wodurch sie beeinflusst wird.
8.1 Die Welt im Labor
Zunächst sollte bedacht werden, dass die wissenschaftliche Tätigkeit kein kontemplatives Betrachten der Welt ist, sondern sich idealerweise an Experimenten ausrichtet. Dabei vergessen wir häufig, dass natürlich auch der Experimentator als kausale Ursache in das Ergebnis des Experimentes eingeht, denn der untersuchte Ereigniszusammenhang wird künstlich vom Experimentator geschaffen und nicht einfach vorgefunden. Die Welt, die Wirklichkeit oder die Natur ist ja nicht direkt der Gegenstand der wissenschaftlichen Untersuchung. Es sind Modelle eines differenzierten und genau festgelegten Ausschnittes der Wirklichkeit, mehr nicht. Die Welt oder Natur sind deshalb auch nicht im Labor auffindbar.
Was wir im Labor vorfinden sind unsere Modelle, vorstrukturierte artifizielle Situationen, die Erscheinungen hervorbringen, die meistens auch nur unter diesen kontrollierten Laborbedingungen auftreten. Und trotzdem sind wir nicht selten so anmaßend und übertragen die daraus gewonnenen Erkenntnisse direkt auf die Wirklichkeit. - Wir finden ein interessantes Ergebnis eines in vitro oder in vivo Experimentes und schreiben bereits morgen eine therapeutische Empfehlung.
Schauen Sie sich doch einmal in einem Labor oder an Ihrem eigenen Arbeitsplatz um. Betrachten Sie, wie er aufgebaut ist. Es handelt sich meistens um eine Ansammlung mehr oder weniger komplexer Geräte, Instrumente und Apparaturen, die zur Durchführung des Experimentes benötigt werden und speziell für solche Zwecke konstruiert und hergestellt wurden. Selbst die chemischen Substanzen oder Pufferlösungen wurden ausschließlich für Laboratorien nach standardisierten Rezepten gereinigt und produziert. In unserer normalen Umwelt treten diese Stoffe in dieser Reinheit, Konzentration oder Mischung gar nicht auf. So werden z.B. Tiere gezüchtet, die bestimmte genetische oder immunologische Defizite haben, damit der Organismus nicht auf natürliche Art und Weise mit dem applizierten Agens umgehen kann. Dasjenige unserer Alltagswelt, was wir unter Natur oder Realität verstehen, die erkannt und aufgeklärt werden sollte, bleibt meistens außen vor. Die Realität hat keinen Zugang zu den Produktionsstätten wissenschaftlicher Erkenntnisse.
Wie sieht es aber mit der Wahrheit oder Theorien aus, die wir falsifizieren wollten? Auch Wahrheit oder Theorien lassen sich in der normalen wissenschaftlichen Tätigkeit nur selten finden. Der arbeitende Wissenschaftler spricht nicht über Wahrheit oder die richtig erkannte Realität.
Der Wissenschaftler sieht sich in der Regel einem Experiment gegenüber, das funktioniert oder nicht, das bestimmten Erwartungen entspricht oder nicht. Und wenn es nicht funktioniert, dann wird der Forscher seiner eigentlichen kreativen Aufgabe nachkommen: er wird dafür sorgen, dass das Experiment funktioniert. Es ist weniger die Wahrheit, die seine Handlungen lenkt, als vielmehr die Verpflichtung, das begonnene Experiment auch erfolgreich zum Abschluss zu bringen. Erst wenn er sein Experiment erfolgreich beendet hat, kann er die Ergebnisse publizieren und so seine Ressourcen verteidigen. Natürlich werden im Labor auch Hypothesen als Vermutungen formuliert, aber dass ist eher selten der Fall und tritt meistens zu Beginn eines Forschungsprojektes auf. Wenn wir einmal unsere Erwartungen in einem Studienprotokoll formuliert haben, dann werden wir versuchen, diese zu erfüllen - egal wie.
Wissenschaftliche Tätigkeit zeichnet sich dadurch aus, dass sie unter ganz spezifischen Situationen bestimmte Produkte herstellt, die nur eingebettet in dem wissenschaftlichen Kontext verständlich sind und erst daraus ihre Bedeutung erlangen. Das wissenschaftliche Wissen, nach dem unsere Gesellschaft strebt, ist offensichtlich ein Produkt eines streng vorstrukturierten Geschehens, das nur wenig Bezug zu dem hat, was wir ursprünglich Realität genannt haben. Wissenschaft kreiert ihre eigene Wirklichkeit und sie fragt nicht danach, ob sie mit der unsrigen übereinstimmt, ob wir uns für diese Art der Wirklichkeit überhaupt interessieren. Sie ist das Resultat eines Forschungsprozesses und nur aus diesem zu verstehen. Der Forschungsprozess ist zwar auch an die Natur gekoppelt, aber in der tatsächlichen Durchführung mehr von den konkreten Situationen und Interessen der Forscher geleitet.
8.2 Methodenwahl
Innerhalb des Forschungsprozesses werden vom Forscher in vielfacher Weise Entscheidungen abverlangt, die das Experiment und die Ergebnisse entscheidend beeinflussen. Dies gilt offensichtlich für die Wahl der Methoden, aber auch für die der Auswertung. So müssen wir manchmal entscheiden, ob die Daten eher normal verteilt sind oder nicht. Damit legen wir zugleich fest, welche Testverfahren zur Überprüfung als geeignet gelten und welche nicht. Stellen wir uns vor, dass wir eine Ansammlung an Daten haben und jetzt eine geeignete Funktion bzw. Kurve suchen, die zu den Daten passt. Handelt es sich dabei um eine lineare, quadratische oder kubische Funktion? Unterstellen wir für den statistischen Test die Gleichförmigkeit der vermuteten Beziehung über die gesamte Messdimension? Solche Entscheidungen sind Selektionen, die die Ergebnisse und Schlussfolgerungen des Experimentes beeinflussen und nicht von vornherein vorgegeben sind -schon gar nicht von der Natur.
Neben der Wahl der Auswertungsverfahren kann auch die Auswahl eines bestimmten Messverfahrens davon abhängen, welche Verfahren in dem Labor etabliert sind, welche Apparaturen verfügbar sind oder welche Techniken gerade modern sind? Die Auswahl des Messverfahren hat unter Umständen aber einen sehr bedeutsamen Einfluss auf die Ergebnisse, die möglicherweise zu ungenau gemessen werden, so dass der Effekt nicht nachgewiesen wird, oder übergenau bestimmt wird, so dass die Streuung der Ergebnisse zum Problem wird. Deshalb könnte man meinen, dass die Auswahl der Messmethoden von besonderen theoretischen und rationalen Erwägungen abhängig gemacht wird.
Wie aber sieht die Wirklichkeit aus? Zitieren wir hier Knorr-Cetina, die die Methodenwahl in einem High-Tech-Labor sorgfältig dokumentiert: „Fragen wir zum Beispiel, warum ein bestimmtes Messinstrument in einem bestimmten Fall angewendet wird, so reichen die Antworten von „Weil es teuer und selten ist und ich es kennen lernen will“ bis zu „Es kostet einfach weniger Energie“; von „John hat es mir empfohlen und mir gezeigt, wie man damit umgeht“ bis zu „Es stand hier ‘rum, daher war es das einfachste“; von „Was ich ursprünglich wollte, hat nicht funktioniert, daher hab‘ ich was Neues probiert“ bis zu „Man hat mich gebeten, den Apparat zu verwenden, um die Anschaffung zu rechtfertigen“; von „Meiner Erfahrung nach funktioniert das immer“ bis zu einem erstaunten „Was hätte ich denn sonst tun sollen?“.“ Das klingt nicht sehr ermutigend, oder?
Wenn die gefundenen bzw. produzierten Ergebnisse auch von den Entscheidungen des Forschers zugunsten oder gegen eine Messmethode abhängen, dann ist es denkbar, dass alternative Entscheidungen andere Ergebnisse zeigen. So kann die Verwendung eines anderen Tieres, eines anderen immunologischen Kits oder anderer Chemikalien durchaus zu divergierenden Ergebnissen führen. Da alle Produkte der wissenschaftlichen Tätigkeit von solchen Selektionen abhängen, muss der Kontext der Entdeckung bzw. der Kontext der Entstehung von Ergebnissen immer berücksichtigt werden, um die Ergebnisse richtig zu verstehen oder interpretieren zu können. Offensichtlich spielt auch hier das forschende Subjekt eine entscheidende Rolle bei der Produktion von Erkenntnissen. Auch in den soziologischen Studien stehen mehr subjektabhängige Entscheidungen im Vordergrund, als objektive Gegebenheiten. Diese Feststellungen provozieren dann die Frage, worauf die Entscheidungen im Wissenschaftsprozess abzielen? Zielen sie tatsächlich auf die bessere Erkenntnis der Welt oder sind sie darauf ausgerichtet, die eigene wissenschaftliche Reputation zu erhöhen?
8.3 Ursprung des Interesses
In unseren theoretischen Ausführungen haben wir beschrieben, dass wir zuerst ein Problem aufspüren, daraus eine Fragestellung ableiten und dann versuchen, die Frage zu beantworten bzw. das Problem zu lösen. In der Forschung wird dieser Weg natürlich auch gegangen, aber genauso häufig der umgekehrte Weg; d.h. man hat die Lösung und sucht verzweifelt nach dem Problem. Dies mag für Sie seltsam klingen. Stellen Sie sich zum Beispiel ein biochemisches Labor vor, in dem ein Forscher die Vermutung äußert, dass der Stoff x, mit dem er gerade arbeitet, möglicherweise auch noch für andere Zwecke geeignet ist. Er sucht dann solange nach geeigneten Fragestellungen für seinen Stoff, bis er sie gefunden hat. Wenn es dem Forscher dann noch gelingt, seine Vorgesetzten davon zu überzeugen, dass es auch fruchtbar sein könnte, die Forschung auf neue Fragestellungen auszudehnen, dann hat er seine Forschungstätigkeit wieder für einige Zeit gesichert.
Stellen Sie sich vor, Sie haben in der Krebsforschung einen Stoff entdeckt, der in einem Tierexperiment immunmodulierend wirkte und das Zellwachstum hemmte. Sie stufen die Ergebnisse als erfolgversprechend ein und suchen nach geeigneten Problemen und Fragestellungen, um den Stoff weiter zu testen und auf andere Indikationen auszuweiten. Möglicherweise sind Sie mit Ihrem Anliegen bei Ihrem Vorgesetzten erfolgreich und er wird Ihnen zusätzliche Ressourcen bereitstellen. Ist hier die Entscheidung richtig, die Probleme für Ihre Lösung zu suchen? Die Antwort hängt davon ab, ob sie erfolgreich sind. Sind Sie mit dem weiteren Projekt erfolgreich, dann haben Sie Großes vollbracht. Sind Sie es nicht, dann haben Sie möglicherweise über Jahre wertvolle Ressourcen vergeudet und andere vielversprechende Forschungsvorhaben blockiert.
Bedenken Sie auch, wie ein Forscher sein Forschungsfeld auswählt. Er wird es nur selten danach aussuchen, wie wichtig die Fragestellung für die Menschheit ist, sondern eher danach, wie hoch die Wahrscheinlichkeit ist, dass er innerhalb eines definierten Zeitraumes mit den verfügbaren Ressourcen zu interessanten Ergebnissen gelangt. Ist ein Forschungsgebiet nicht aussichtsreich, um wissenschaftliche Lorbeeren zu ernten, dann wird es auch nicht bearbeitet.
8.4 Publikationen
Einige Worte noch zur wissenschaftlichen Publikation. Sollte es Ihnen später einmal gelingen, originelle Ergebnisse zu produzieren, dann werden Sie natürlich versuchen, diese zu publizieren. Was werden Sie in Ihrer Publikation niederschreiben? Nun, Sie können den Lesern nicht die ganze Geschichte Ihrer Entdeckung erzählen. Dazu ist weder Zeit noch Raum in den wissenschaftlichen Magazinen. Sie werden also gezwungen sein, eine bestimmte Erzählweise auszuwählen, die knapp und präzise alle relevanten Informationen strukturiert zusammenfasst. Sie verfassen einen typischen wissenschaftlichen Text, der nach einer kurzen Einleitung die Methode beschreibt und die Ergebnisse berichtet. In der Diskussion ihrer Studie gehen Sie mit Bedacht vor. Sie reflektieren vorsichtig die anderen Koryphäen auf diesem Forschungsgebiet, ohne sie wesentlich zu kritisieren, denn möglicherweise wird einer von ihnen die Arbeit begutachten. Sie ziehen am Ende vorsichtige Schlussfolgerungen, damit Sie sich nicht angreifbar machen. Am Ende Ihrer Ausarbeitung und 20. Fassung sind Sie zufrieden und senden das Manuskript in der Hoffnung ein, dass es in überschaubarer Zeit veröffentlicht wird. Wem aber dient diese Veröffentlichung? Für wen haben Sie diese geschrieben. Sicherlich nicht für die Mehrheit der Wissenschaftler, sondern nur für eine kleine auserwählte Gruppe, die Ihre Arbeit zu würdigen weiß.
Warum erzählt uns das Manuskript nicht die ganze Geschichte? Sollte das Manuskript nicht eine breitere Leserschicht befähigen, sich ein Urteil über die Untersuchung zu machen? Machen Sie ein einfaches Experiment - vorausgesetzt Sie haben Zeit und Geld. Wählen Sie aus einer immunologischen Zeitschrift ein Tierexperiment aus, mit dem sie nicht vertraut sind, und versuchen Sie es zu reproduzieren. Es dürfte eigentlich kein Problem sein, denn die prinzipielle Wiederholbarkeit von Experimenten wird als wissenschaftlich angesehen und die Methode scheint hinreichend beschrieben.
Ich behaupte, dass Ihnen die Reproduktion der Ergebnisse beim ersten Mal sehr wahrscheinlich nicht gelingen wird. Denn obwohl in der Methodik des wissenschaftlichen Artikels alles beschrieben zu sein scheint, was Sie ausführen müssten, um das Experiment erfolgreich zu wiederholen, sind doch wesentliche Teile unerwähnt geblieben. Alle Fehler, die während der Originaluntersuchung aufgetreten sind und erfolgreich beseitigt wurden, wurden im abschließenden Manuskript nicht erwähnt. Jede ad hoc Modifikation in der Entwicklung wurde nicht beschrieben.
Obgleich man das Experiment nach dem Lesen des Manuskriptes nur selten wiederholen kann, - was auch meistens unerwünscht ist und de facto selten getan wird -, gilt diese Art der Beschreibung von Experimenten als hoch wissenschaftlich und wünschenswert. Der Grund liegt darin, dass die eher kryptische Kommunikation zwischen den Wissenschaftlern dadurch sichergestellt ist, indem sie sich gegenseitig beurteilen. Sie verfügen in der Regel aus eigener Erfahrung über das notwendige Wissen, um ähnliche Experimente nachvollziehen zu können und sind mit den Problemen bei der Durchführung und Problembewältigung von Versuchen bestens vertraut. Sie müssen nicht extra darauf hingewiesen werden, dass es eines gut funktionierenden Labors bedarf, das speziell mit den beschriebenen Techniken vertraut ist, um verlässliche Resultate herzustellen. Das ist einer der Gründe, warum die Reputation von Wissenschaftlern oder Institutionen so wichtig ist. Man vertraut ihnen eher und hält ihre Resultate für verlässlich. Jede Art der Fälschung oder Täuschung hätte für diese Reputation verheerende Konsequenzen.
Aus den letzten Ausführungen über die wissenschaftliche Tätigkeit lässt sich erahnen, wie wichtig soziologische Einflüsse auf die Entstehung wissenschaftlicher Erkenntnisse sind. Es wäre deshalb wünschenswert, wenn wir für die wissenschaftliche Tätigkeit als sozialen Prozess eine gute Konzeption hätten.
8.5 Wissenschaft als selbstorganisierendes System
Ein interessantes integratives Konzept der Wissenschaft wurde von Krohn und Küppers ausgearbeitet, dem wir uns jetzt zuwenden wollen. Ihr methodischer Ansatz besteht darin, dass sie Wissenschaft als selbstorganisierenden Prozess verstehen. Dabei nehmen sie Bezug auf die stabilisierenden Prozesse sich selbstorganisierender Systeme und versuchen, die sozialen und kognitiven Forschungsprozesse in ähnlicher Weise zu rekonstruieren.
Krohn und Küppers haben diesen autopoietischen Ansatz für ihr Wissenschaftskonzept gewählt, weil sie glauben, damit am ehesten die realen Interaktionen und sozialen Phänomene beschreiben zu können. Außerdem hat dieser Ansatz einige methodische Vorteile, die nicht unerheblich sind: das System „Wissenschaft“ braucht nämlich nicht in seiner gesamten Komplexität im Detail beschrieben zu werden, sondern es erscheint ausreichend, wenn die Beziehungen zwischen dem System “Wissenschaft” und anderen sozialen Systemen spezifiziert und einige wenige Regeln für den Ablauf innerhalb des Systems vorgegeben werden. Da wir unterstellen, dass in diesem System ähnliche Regeln gelten, wie in anderen selbstorganisierenden Systemen, ist auch zu erwarten, dass sich aus den Fluktuationen im Mikrobereich neue Zustände im Makrobereich entwickeln, die für die weitere Evolution der Wissenschaft verantwortlich sind. Konkret bedeutet dies, dass die individuellen Handlungen der einzelnen Wissenschaftler ein kollektives Handeln bewirken können, das dann selbst wiederum auf das eigene individuelle Handeln zurückwirkt. Durch diese gegenseitige Wechselwirkung können einige der sozialen Erscheinungen in der Wissenschaft gut erklärt werden.
Mit der Auswahl solch eines Ansatzes ist es auch nicht notwendig, bestimmte Regeln des kollektiven Handelns z.B. Rationalitätskriterien oder Gütekriterien für Theorien oder Methoden dem System extern vorzuschreiben, sondern es ist genauso gut denkbar, dass das System diese aus sich selbst heraus entwickelt. Das soziale System “Wissenschaft” legt damit fest, was als rational bewertet wird.
8.5.1 Steuerung der Wissenschaft
Krohn und Küppers haben für ihr Konzept vier grundlegende Ausgangspunkte gewählt. Sie wollen zunächst das von Polanyi aufgestellte Prinzip integrieren, dass die Wissenschaft durch die gegenseitige Kontrolle der Wissenschaftler gesteuert wird. Durch das Wechselspiel der gegenseitigen Koordination zwischen den Forschern werden auf Dauer die Urteile über die Theorien und Forschungsergebnisse abgeglichen und die allgemeine Beachtung der Methodologie sichergestellt. Dieses Prinzip formuliert einen wichtigen sozialen Regulationsmechanismus -- vorausgesetzt, die Wissenschaftler vertrauen einander und kommunizieren in einem “herrschaftsfreien” Diskurs. Wir werden später sehen, dass diese Annahmen in der Realität nicht immer erfüllt sind, sondern dass hier häufiger konkrete Machtverhältnisse die Kommunikation lenken.
Als zweiten Ausgangspunkt wählten Krohn und Küppers die uns mittlerweile geläufige Erkenntnis, dass das wissenschaftliche Wissen “im Kern ungewiss, komplex und unanschaulich” ist. Wird der Wissenschaftler aber aufgefordert, zum Beispiel die Grundlagen der Physik allgemeinverständlich zu vermitteln, dann wird er sie als gewiss, einfach und anschaulich darstellen. Erst durch die Transformation des komplexen Wissens in eine populäre Darstellung wird dem Laien suggeriert, dass er über ein sicheres Fundament verfügt, das er nur den hoch spezialisierten Wissenschaftlern und natürlich dem Einsatz gesellschaftlicher Ressourcen verdankt. Es ist die Rückkoppelung zwischen dem komplexen und unverständlichen Forschungsprozess und der “naiven” Lebenswelt, die auf diese Weise einen entscheidenden Einfluss auf die Begriffsbestimmungen sowohl in unserer Gesellschaft als auch auf die Wissenschaft ausübt. Nicht umsonst stehen die Quantenphysiker vor dem Problem, die statistischen Gesetzmäßigkeiten des Mikrokosmos auf die scheinbar deterministische Struktur der makrophysikalischen Erscheinungen abzubilden. Warum existiert in unser makroskopischen Welt so etwas wie ein Zeitpfeil, der in die Zukunft zeigt? Warum sind aber die Gesetze des Mikrokosmos bezüglich der Zeit unsensibel, warum gibt es dort keine Richtung der Zeit?
Der dritte Ausgangspunkt von Krohn und Küppers ist die wissenschaftspolitische und industrielle Steuerung der Wissenschaft, die aus dem Forschungsprozess nicht mehr wegzudenken ist. Im vierten Ausgangspunkt versuchen sie auch die tatsächlichen Handlungen der einzelnen Wissenschaftler in ihrem Konzept zu berücksichtigen. Es hatte sich nämlich in empirischen Feldstudien gezeigt, dass es weniger die allgemeinen kognitiven Prinzipien sind, die wir vorher ausführlich besprochen haben, die einen Einfluss auf die Tätigkeit des einzelnen Wissenschaftlers ausüben, als vielmehr unrationale und durchaus auch opportunistische Verhaltensweisen.
8.5.2 Was ist Wissenschaft
Ausgehend von diesen vier Positionen haben die Autoren ein integratives Konzept der Wissenschaft als soziales System aufgestellt, dessen Zweck darin besteht, Wissen zu erzeugen. Dieses soziale System konstituiert sich durch Handlungen. Wissenschaft entsteht erst durch Tätigkeiten. Wissen wird erschaffen, konstruiert. Es fällt uns nicht einfach zu.
“Das Wissenschaftssystem ist also nicht durch Überzeugungen (Theorien, Dogmen) bestimmt, sondern durch Handlungen. Wir gehen weiter davon aus, dass diese Handlungen nicht durch eine besondere Methodologie (Forschungslogik) beschrieben werden können. Allein die Absicht der Wissenserzeugung ist ein notwendiger, konstitutiver Bestandteil der wissenschaftlichen Tätigkeit, aber natürlich keine hinreichende Bedingung.... Handeln mit der Absicht der Wissenserzeugung nennen wir Forschung oder Forschungshandeln”.
Wer bestimmt, was überhaupt zum System „Wissenschaft“ gehört? Das System “Wissenschaft” einschließlich seiner Mitglieder, den Wissenschaftlern, legt mit seiner wissenschaftlichen Methodologie selber fest, was als Forschung bezeichnet werden kann. Alle diejenigen Tätigkeiten, die gemäß den Regeln der Wissenschaft vorgenommen werden, sind somit wissenschaftliche. Diese Abgrenzungsleistung zu unwissenschaftlichen Tätigkeiten, die wir auf der theoretischen Ebene als Gütekriterium nicht vornehmen können, weil wir über kein brauchbares Signifikanzkriterium verfügen, wird jetzt durch das soziale System vollbracht.
Die Wissenschaft grenzt andere Disziplinen als sogenannte “Randwissenschaften” einfach aus, wenn sie sich nicht an die gegenwärtig akzeptierten Regeln der wissenschaftlichen Methodologie halten. Dabei wendet sie kein objektives Kriterium an, sondern der Parapsychologie oder der Homöopathie kann der Titel “wissenschaftlich” einfach entzogen werden, wenn die wissenschaftliche Gemeinschaft dieses so entscheidet. Genauso kann einzelnen Personen die Berechtigung abgesprochen werden, kompetent auf einem bestimmten Gebiet zu urteilen. Wenn ein Wissenschaftler wiederholt gegen die Standards aufbegehrt, nicht nachprüfbare Behauptungen aufstellt und auf ihnen beharrt, dann wird er bald von der restlichen wissenschaftlichen Gemeinschaft ignoriert oder als inkompetent von der weiteren Forschung ausgeschlossen. Was nicht bedeutet, dass dieser Wissenschaftler als Außenseiter nicht sogar an Achtung in anderen sozialen Systemen gewinnt.
Diese Abgrenzung zu anderen Ansichten durch die wissenschaftliche Methodologie ist natürlich nicht für alle Zeiten verbindlich, weil sich ja bekanntermaßen auch die Ansichten über die Methoden ändern. Letztlich könnte jede Art der Abgrenzung zwischen der korrekten wissenschaftlichen Methode und der inadäquaten unwissenschaftlichen Methode in Zweifel gezogen werden, weil aufgrund theoretischer Gesichtspunkte keine eindeutige und umfassende Methodologie gerechtfertigt werden kann, die für immer verbindlich entscheidet, was Wissenschaft ist oder was für sie charakteristisch ist. Es sind lediglich gegenwärtig vorgegebene Standards einer wissenschaftlichen Gemeinschaft, die festlegen, was wissenschaftlich fundiert ist und was nicht. Da sich diese Standards aber im Laufe der Zeit ändern können, sollten wir mit einer Ablehnung von “andersartigen” Erkenntnissen vorsichtiger sein. Ein gewissenhaftes Ausloten der anderen Denk- und Sichtweise führt häufig nicht nur zu einem besseren Verständnis der ungewohnten Methode, sondern scheint unerlässlich für den vernünftigen Umgang mit anderen Methoden und Denkweisen.
8.5.3 Organisation der Wissenschaft
Was bedeutet es, wissenschaftliche Tätigkeiten als Handeln zu verstehen. Eine Handlung ist dadurch definiert, dass wir zu ihr auffordern können. Wir können jemanden bitten, etwas zu tun oder zu unterlassen. Handlungen erfordern eine Entscheidung, einen Entschluss, etwas Bestimmtes zu tun. Sie sind auf einen Zweck ausgerichtet, der angestrebt oder erwünscht wird. Eine Handlung gilt als misslungen, wenn sie ihren Zweck verfehlt hat, und als gelungen, wenn sie ihren Zweck erreicht hat. Dadurch, dass Handlungen einen Akt der Entscheidung voraussetzen, unterscheiden sie sich vom bloßen Verhalten. Auch die wissenschaftliche Erfahrung kann als Produkt eines zweckgerichteten Handelns verstanden werden, nämlich als Ergebnis unseres Strebens etwas über die Wirklichkeit zu erfahren. Erst unsere Entscheidung, unser Handeln an diesem Zweck auszurichten, bringt die Erfahrung hervor.
Die Basiselemente des vorgeschlagenen Modells sind Forschungshandlungen der Wissenschaftler. Durch die Interaktionen von Forschern entstehen dann soziale Netzwerke. Verhalten sich die Interaktionen in einem solchen Netzwerk rekursiv, dann bildet sich eine soziale Organisation, die Forschungsgruppe genannt wird.
Wo aber findet die sogenannte Selbstorganisation innerhalb der Forschung statt? Wodurch entwickelt sich so etwas wie eine verbindliche Methodologie? In der Forschungsgruppe, die eine soziale Organisation aus einzelnen Forschern ist, agieren die Wissenschaftler miteinander. Sie sind alle darauf aus, neue Erkenntnisse zu gewinnen und Wissen zu erzeugen. Forschungsgruppen können sich innerhalb eines Großlabors, eines Institutes oder zwischen mehreren Forschungsstätten konstituieren. Wesentlich ist lediglich, dass sie durch die wiederholte Kommunikation und Interaktion gemeinsame emotionale und kognitive Strukturen entwickeln, deren primärer Zweck es ist, die eigene Gruppe zu stabilisieren. Diese gemeinsamen Verhaltensweisen werden dann weitergetragen, tradiert und ausgearbeitet. Neben diesem konservativen sozialen Element ist die gemeinsame Tätigkeit natürlich auch auf die Enträtselung der Natur ausgerichtet.
Es werden demnach nicht nur Strukturen geformt, die ihre Bedeutung innerhalb der Gruppe entfalten können, sondern sie müssen sich auch in der Auseinandersetzung mit der Umwelt bewähren. Die Forschungsgruppe entwickelt dabei so etwas wie eine Gruppenmatrix, bei der es sich im Wesentlichen um gemeinsame Einstellungen, Interessen, Überzeugungen und Absichten handelt, die sich dann in bestimmten Handlungen äußern. Nach Krohn und Küppers setzt sich diese Gruppenmatrix aus einer kognitiven, sozialen, emotionalen und reflexiven Komponente zusammen.
Die kognitive Komponente drückt sich in einem gemeinsamen Denkstil aus, der von der Forschungsgruppe gepflegt wird. Wie wir bereits gesehen haben, entsteht wissenschaftliche Erkenntnis dadurch, dass bestimmte Wahrnehmungen bewusst ignoriert oder vernachlässigt werden und dass andere erfundene bzw. konstruierte Daten, die tatsächlich nicht beobachtet wurden, zu unserem Denken hinzugefügt werden. Zu Erkenntnissen über die Wirklichkeit gelangen wir aber nur dadurch, dass wir auch darüber entscheiden, welches die Objekte unseres Interesses sind.
Die Forschungsgruppe legt einerseits fest, was als Interesse und Hintergrundwissen akzeptiert wird, und andererseits, was prinzipiell als wissenschaftliche Erkenntnis gelten kann. Die Erkenntnis konstituiert sich jetzt als ein Akt, die durch das Gruppenverhalten determiniert wird. Durch die rekursive Interaktion innerhalb der Gruppe werden die Interessengebiete, die Methoden, Verfahren und akzeptierten Theorien festgelegt. Dadurch stabilisiert sich die Gruppe und formiert so etwas wie einen Denkstil. Hat sie einmal bestimmt, was als geeignetes Verfahren zur Überprüfung der Hypothesen oder adäquaten Interpretation der Daten angesehen werden kann, dann ist auch eine Entscheidung zugunsten weiterer zielgerichteter Forschung gefallen und alternative Forschungsmöglichkeiten ausgeschlossen.
Dieser kognitiven Komponente der Forschungsgruppe wird eine soziale Komponente hinzugefügt, die das Gruppenverhalten gegenüber anderen Überzeugungen und Theorien abgrenzt. Die Gruppe wird sich immer darum bemühen, ihre Struktur zu stabilisieren. Sie verhält sich gegenüber Mitgliedern der eigenen Gruppe weitgehend tolerant und ist auch bereit in einem gewissen Rahmen abweichende Meinungen zu integrieren. Gegenüber Nicht-Mitgliedern verhält sie sich dagegen intolerant. Andere Denkweisen werden als unvereinbar mit dem eigenen Denkstil eingestuft. Mit diesem differenzierten Vorgehen gegen Nicht-Mitglieder und Mitglieder stabilisiert sich die Forschungsgruppe, ohne auf eine gewisse Entwicklungsfähigkeit innerhalb der eigenen Reihen zu verzichten.
Als dritte Komponente kommt eine emotionale Verpflichtung der einzelnen Gruppenmitglieder hinzu. Die Überzeugungen und Arbeitsweisen der Gruppe erzeugen ein Gruppengefühl, das als reflexive Komponente die Gruppenidentität soweit stärkt, dass sie sich nach außen geschlossen darstellen kann. Es wird für Nicht-Mitglieder immer schwieriger, der Gruppe beizutreten. Die vierte reflexive Komponente entspricht der Ausbildung einer Gruppenidentität. Jede Handlung geschieht mit Bezug auf die Gruppe, so dass sich in dem Forschungsprozess ein Bild von der Gruppe konstituiert, das über die Zeit konstant bleibt.
Diese vier Komponenten der Forschungsgruppe legen die methodologischen Überzeugungen fest und bestimmen, in welcher Weise sich die Gruppe nach außen präsentiert. Die Konstitution der Forschungsgruppe wird dabei weniger durch “rationale” Methoden erklärt als auf soziopsychologische Mechanismen zurückgeführt. Die beschriebene Gruppenmatrix ist vom Prinzip her konservativ. Die aufgestellten Zielsetzungen und Arbeitsformen sind das Produkt eines sich stabilisierenden Prozesses und werden von sich aus nicht in Frage gestellt.
8.5.4 Entstehung von Erkenntnis
Wie kommt nun das Produkt des Forschungsprozesses zustande, die wissenschaftliche Erkenntnis? Von der Forschungsgruppe werden zwei Entscheidungen gefällt. Einerseits werden bestimmte Verfahren ausgewählt, die Daten erzeugen -- in Studien oder Experimenten. Andererseits werden die erhobenen Daten in bestimmter Weise durch Hypothesen oder Theorien interpretiert. Beide Mechanismen sind konstitutiv für die Erkenntnis. Die Struktur der Erkenntnisoperation wird von Krohn und Küppers als rekursiv, in Form einer zirkulären Vorgehensweise verstanden. Durch die Argumentation leiten wir Theorien her, die durch eine Operationalisierung in praktischen Versuchen umgesetzt werden sollen. Wenn das gelingt, die Operationalisierung also erfolgreich war, dann wird sie zur Erklärung weiterer Argumente herangezogen, um weitere Theorien zu generieren.
Dieser zirkuläre Vorgang besteht aber bei genauerer Betrachtung aus zwei weiteren zirkulären Vorgängen: einem theoretischen und einem praktischen. Da für beide unterschiedliche Vorgänge verschiedene Anforderungen gelten, müssen beide sorgfältig voneinander unterschieden werden.
Betrachten wir zunächst den Kreis, der die theoretische Komponente enthält, in dem über die Wahrheit und Falschheit von Argumenten, von Aussagen, von Hypothesen geurteilt wird. Die Daten aus den Experimenten werden als Informationen bzw. Erklärungen aufgefasst, die in das vorhandene Netzwerk des Wissens integriert und zur Ableitung von Hypothesen verwendet werden. Innerhalb der Argumentation wird dann über die Wahrheit der Hypothesen entschieden.
Der rechte Kreis enthält die praktische Komponente. Sie besteht aus den Handlungen des Wissenschaftlers, wie er seine Hypothese in Experimenten überprüft. Die Bewertungskriterien sind dafür nicht wahr und falsch, sondern erfolgreich und erfolglos. Die Aufgabe des Wissenschaftlers besteht hier darin, den erstrebten Effekt in seinem Experiment zu realisieren. Die Beobachtung der Effekte, die Daten, gehen dann wieder in den theoretischen Kreis ein. Die beiden Kreise sind also durch Erklärungen und Operationalisierungen miteinander verknüpft. Einerseits werden die im Experiment erworbenen Daten zur Erklärung der Hypothese und Theorie verwendet und andererseits werden die Hypothesen dazu verwendet, die Experimente zu fundieren.
Eine Erkenntnis liegt demnach erst dann vor, wenn die Verknüpfung zwischen der Theorie, der Hypothese, und der Praxis, dem Experiment oder der Studie gelungen und reproduzierbar ist. Den Anforderungen an die Theorie werden demnach Verfahren zur Beobachtung und Überprüfung von Experimenten und Studien gegenübergestellt. Ein Experiment oder eine Studie für sich sind niemals wahr oder falsch, sondern lediglich erfolgreich oder erfolglos -- es funktioniert oder es funktioniert nicht, es produziert die erwarteten Daten oder nicht -- nur Behauptungen können wahr oder falsch sein.
Krohn und Küppers sehen in diesem Regelkreis eine wichtige Voraussetzung, um unsere Erkenntnisse auf Kohärenz zu überprüfen und die Forschung zu konstituieren. Der Forschungsprozess thematisiert sich damit selbst, er ist reflexiv, in ihm werden alternative Verfahren und neue Interpretationen wiederholt berücksichtigt. Erst dadurch stabilisiert er sich, bilden sich die adäquaten Verfahren erfolgreich heraus und bewähren sich die Theorien.
8.5.5 Das soziale System Wissenschaft
Das soziale System der einzelnen Gruppe ist eingebettet in andere soziale Systeme, insbesondere in die der anderen Forschergruppen. Dadurch, dass die Gruppen miteinander in Kontakt stehen, bilden sich generalisierte Übereinstimmungen über rationale Qualitäten einer Theorie. Diese Rationalität wird nicht extern vorgegeben als normative Instanz, sondern sie bildet sich als Ergebnis von wiederholten Rückkoppelungen zwischen den Forschergruppen. Die Rationalitätskriterien sind demnach ein Produkt des Forschungsprozesses, in dem Informationen zwischen den einzelnen Forschergruppen hin- und herfließen.
Die Interaktionen mit anderen Forschungsgruppen haben natürlich auch den Zweck, die Existenz der eigenen Gruppe zu sichern, indem sie ihren Einfluss auf die anderen Gruppen und die Umwelt verstärkt. Dieses Handeln mit der Umwelt wird von Krohn und Küppers Wissenschaftshandeln genannt und umfasst die Veröffentlichung von Ergebnissen, die Forschungspolitik und -planung, die Lehre, die Schaffung von Expertenbereichen und die Auseinandersetzung mit der Öffentlichkeit. Die Selbstorganisation der Forschung findet also durch das Forschungshandeln statt, innerhalb der Forschergruppen. Die Selbstorganisation der Wissenschaft als Kulturbereich wird dagegen durch das Wissenschaftshandeln konstituiert, d.h. in der Auseinandersetzung der Forschergruppe mit seiner Umwelt. Wissenschaftshandeln versucht sicher zu stellen, dass die Forschung im Kern autonom bleibt.
Was ist das institutionelle Ziel der Wissenschaft? Es ist die Erweiterung des Wissens, wobei unterstellt wird, dass die Realität prinzipiell erkennbar ist. Wissenschaft strebt somit an, wahre Aussagen über reale Tatbestände und Gesetzmäßigkeiten zu formulieren, die zur Erklärung bzw. Problemlösung herangezogen werden können. Wahrheit gilt mithin als regulative Idee der Forschung, weil wissenschaftliche Aussagen mit einem universellen Wahrheitsanspruch verbunden werden. Alle wissenschaftlichen Handlungen werden an diesem Ziel ausgerichtet und daraufhin bewertet, ob sie erfolgreich sind, um das Ziel zu erreichen.
8.6 Beeinflussung der Wissenschaft
Man unterscheidet zwischen internen und externen Faktoren. Interne Faktoren beeinflussen direkt die wissenschaftlichen Tätigkeiten und damit den Fortschritt der Forschung. Externe Faktoren wirken dagegen von außen auf das soziale System Wissenschaft ein. Obwohl es unterschiedliche Meinungen darüber gibt, welche Faktoren tatsächlich einen signifikanten Einfluss auf die wissenschaftliche Entwicklung haben, wollen wir auf einige kurz eingehen.
Auf die Wissenschaft als soziales System wirken unter anderem:
1. der Ethos des Wissenschaftlers,
2. das Belohnungssystem der Wissenschaft,
3. das Kommunikationssystem, und
4. die Kooperation und der Wettbewerb zwischen Wissenschaftlern.
Diese Faktoren haben einen unterschiedlichen Einfluss auf die Entwicklung der Wissenschaft und ihrer Teildisziplinen. Betrachten wir den Ethos des Wissenschaftlers. Dem Wissenschaftler sollte es idealerweise um Objektivität und Wahrheit gehen und er sollte seine persönlichen Interessen unberücksichtigt lassen. In Wirklichkeit wird dagegen nicht selten verstoßen. Insbesondere in der angewandten Forschung der Industrie werden partikularistische Interessen verfolgt und gelegentlich wichtige Erkenntnisse geheimgehalten. Nicht selten kommt es für Forscher in der Industrie zu einem Konflikt zwischen der Verpflichtung gegenüber dem wissenschaftlichen Ethos und den in der Wirtschaft vorherrschenden Normen. Dies ist nicht weiter überraschend, weil Wissenschaft und Wirtschaft zwei relativ autonome soziale Systeme mit eigenen Zielen und Werten sind, die außerdem auch noch unterschiedlichen Bewertungskriterien ihrer spezifischen Leistungen unterliegen.
Innerhalb der Wissenschaft gibt es einige Werte, die von den Wissenschaftlern zum Teil unterschiedlich interpretiert werden, denen sie sich aber alle irgendwie verpflichtet fühlen: der Objektivität, dem Skeptizismus und der Uneigennützigkeit.
Nach dem objektivistischen Gebot soll sich der Wissenschaftler bei der Bewertung der Forschungsleistungen subjektiver Kriterien enthalten und gegenüber seinen und anderen Untersuchungen unvoreingenommen urteilen. Es sollten universelle Maßstäbe angewendet werden, um den wissenschaftlichen Werten der Objektivität und der Unpersönlichkeit gerecht zu werden. Partikularistische Interessen von einzelnen Forschergruppen sollten unberücksichtigt bleiben. Das Verhalten der Wissenschaftler bliebe so dem Zweck der Wissenschaft verbunden und nicht an persönlichen Vorlieben, Wünschen und Interessen orientiert.
Außerdem wird erwartet, dass der Wissenschaftler sich in einem bestimmten Rahmen skeptisch verhält. Er soll sich durch die generelle Bereitschaft auszeichnen, alle Entdeckungen und Forschungsergebnisse der konstruktiven Kritik zu unterwerfen -- natürlich auch der eigenen, weil nur durch die kritische Analyse der vorliegenden Erkenntnisse der wissenschaftliche Fortschritt gefördert wird.
Als weitere Tugend sollte der Wissenschaftler uneigennützig handeln. Erkenntnisse und Entdeckungen sind nämlich nicht alleiniger persönlicher Besitz des einzelnen Wissenschaftlers, sondern der Besitz aller Menschen. Das Gebot der Uneigennützigkeit ist allein schon deshalb wünschenswert, weil damit das Verfügungsrecht über Entdeckungen in den Besitz der Gesellschaft übergeht.
An dieses Gebot ist zugleich die Forderung nach Veröffentlichung geknüpft, so dass die Geheimhaltung prinzipiell als “schlechtes” Verhalten eingestuft wird. Forschungsergebnisse werden in der akademischen Grundlagenforschung nur deshalb publiziert, um Eigentumsrechte zu sichern oder Reputation zu gewinnen. In der industriellen und militärischen Forschung gelten dagegen die normalen Eigentumsrechte und eine weitgehende Geheimhaltungspflicht.
Diese Forderungen an die moralische Einstellung eines Wissenschaftlers sind natürlich eng verknüpft mit dem Ideal der Wissenschaft als autonome Institution, der es nur um Wissen und Wahrheit geht. Es sind diese Ideale, aufgrund derer die Gesellschaft die Wissenschaft bisher so hoch achtete.
8.7 Belohnung des Wissenschaftlers
Was aber bleibt dem Forscher, wenn er uneigennützig handelt? Was ist sein Motiv zur Forschung? Ist es tatsächlich ausschließlich das Streben nach Erkenntnis, das den Wissenschaftler motiviert, oder erwartet er nicht auch irgendeine Art der Belohnung? Der Forscher erwartet als Belohnung die Anerkennung seiner wissenschaftlichen Leistung durch die wissenschaftliche Gemeinschaft, wenn er originelle Forschungsergebnisse präsentiert. Der Grad der professionellen Anerkennung richtet sich danach, wie unerwartet oder originell die von ihm erzielten Resultate sind -- vorausgesetzt sie werden durch andere bestätigt. Diese Art der Belohnung ist für den Forscher insofern auch erstrebenswert, weil ihm das höhere Ansehen dann verbesserte Arbeitsbedingungen sichert und ihm den Zugang zu Informationen, Forschungseinrichtungen und -mitteln erleichtert. Eine hohe Reputation führt so zunächst zur Verbesserung der eigenen Forschungsbedingungen und verschafft später Zugang zu Machtpositionen in der Wissenschaft, weil die bekannten Forscher auch als Gutachter für andere wissenschaftliche Projekte tätig werden. Sie entscheiden damit über die Zuteilung von Ressourcen und spielen so eine zentrale Rolle im Belohnungssystem. Diese professionelle Wertschätzung durch die wissenschaftliche Gemeinschaft scheint die treibende Kraft für den Wissenschaftler zu sein. Die Reputation ist somit die grundlegende Belohnungsform in der Wissenschaft, die dem Forscher Zugang zu Informationen, Ressourcen und Positionen verschafft.
Durch dieses Belohnungssystem wird die wissenschaftliche Produktivität aber nicht gleichmäßig auf alle Forscher verteilt, sondern es entstehen Eliten und Zentren innerhalb der Wissenschaft durch den so genannten Matthäus-Effekt. Es steht in der Bibel unter 23,30 „Wer hat, dem wird gegeben werden, und er wird Überfluss haben; wer aber nicht hat, dem wird noch genommen werden, was er hat.”
Das Matthäus-Prinzip beschreibt ein grundlegendes soziales Kennzeichen der Wissenschaft: Erfolg führt zu weiterem Erfolg. Dadurch dass der berühmte Wissenschaftler mehr publiziert, werden auch seine Chancen für weitere Veröffentlichungen größer, die wiederum die bereits erhaltene Reputation verstärken. Dieser Mechanismus führt dann zwangsläufig zu einer Akkumulation an Vorteilen bezüglich der Beurteilung neuer Publikationen und Zuteilung von Ressourcen, so dass die wissenschaftliche Produktivität nicht mehr chancengleich verteilt ist und sich Zentren und Eliten bilden. Die Reputation eines Wissenschaftlers hängt nicht nur von der Qualität seiner eigenen Forschung ab, sondern auch davon, ob er einem Zentrum oder einer Elite angehört bzw. an einer Universität oder einem Institut mit einem hohen Ansehen tätig ist.
Wissenschaftler betreiben also Forschung, um professionelle und öffentliche Anerkennung zu erhalten. Einige sind primär nur an Reputation und weniger an einem Erkenntnisfortschritt interessiert. Damit handeln Wissenschaftler zum Teil gegen das Gebot der Uneigennützigkeit, weil sie keineswegs ausschließlich wissenschaftliche Ziele verfolgen, sondern um Gelder, persönlichen Einfluss und Anerkennung kämpfen. Dabei werden sie zunehmend weniger skeptisch, vermeiden Kritik und klammern sich an ihre eigenen Theorien.
Eine Anerkennung durch die wissenschaftliche Gemeinschaft kann erst dann ausgesprochen werden, wenn der Forschungsbeitrag durch Veröffentlichung den anderen Wissenschaftlern zugängig gemacht worden ist. Deshalb ist es wichtig, die Forschungsergebnisse zu publizieren. Die Entscheidung über die Annahme oder Ablehnung neuer Forschungsresultate sind im Wesentlichen an drei Normen orientiert: der Originalität, der Plausibilität und dem wissenschaftlichen Wert.
Die Originalität eines Forschungsergebnisses entspricht dem Grad an Überraschung, den die Mitteilung unter Wissenschaftlern auslöst. Originalität ist für den Fortschritt der Wissenschaft zwar einerseits unverzichtbar, aber andererseits auch problematisch, wenn wesentliche Grundpfeiler des Paradigmas in Frage gestellt werden.
Der Originalität steht deshalb die Plausibilität gegenüber. Es ist weder die Verifikation noch die Falsifikation einer Theorie, die als relevantes Beurteilungskriterium für Entdeckungen und Forschungsergebnisse gilt, wie die kritischen Rationalisten annahmen, sondern es ist die Einschätzung der Plausibilität bzw. Konsistenz mit bisherigen wissenschaftlichen Ergebnissen. Widerlegte Theorien werden de facto weiter verwendet, wenn sie plausibel erscheinen, und bestätigte Gesetze bleiben nicht selten unbeachtet, wenn sie im Lichte des gegenwärtig geltenden Paradigmas nicht plausibel erscheinen. Da die Einschätzung der Plausibilität neuer Erkenntnisse von den akzeptierten Theorien und Methoden abhängt, unterliegt sie wie diese einem steten Wandel. Verändert sich das Paradigma, dann erscheinen die Ergebnisse möglicherweise in einem neuen Licht und werden im Nachhinein akzeptiert oder abgelehnt.
Als dritter wichtiger Faktor zur Beurteilung der Publikation gilt der eigentliche wissenschaftliche Wert, der sich aus der Validität und Reliabilität der Ergebnisse zusammensetzt, die durch die wissenschaftliche Methode festgelegt werden, und aus der Relevanz, die die neuen Ergebnisse in Bezug zum akzeptierten Wissen haben.
Indem die wissenschaftliche Gemeinschaft die Bewertung der Forschungsergebnisse gemeinsam von der Originalität, Plausibilität und dem wissenschaftlichem Wert abhängig macht, kann die Gemeinschaft ein konservatives Element mit einem progressiven verbinden. Einerseits fördert die Gemeinschaft durch die Plausibilität und den wissenschaftlichen Wert eine gewisse Konformität mit den gegenwärtig akzeptierten Anforderungen, und andererseits belohnt sie originelle Abweichungen, die zumindest eine gewisse Modifikation dieser Anschauungen hervorrufen kann. Sie richtet sich damit zwar gegen wissenschaftliche Revolutionen, sie fördert aber “übersichtliche” Veränderungen.
8.8 Wissenschaftliche Autorität
Normale Wissenschaft ist also primär konservativ ausgerichtet, wie es bereits Kuhn’s Analysen nahelegten. Das Paradigma bzw. die kognitiven und methodologischen Normen und Grundannahmen der Wissenschaft zusammen mit den akzeptierten Forschungsergebnissen bilden die gemeinsame Grundlage aller Forschung, in deren Lichte die neuen Erkenntnisse bewertet werden. Eine streng objektive Bewertung aus einem neutralen Blickwinkel gibt es nicht. So ist es auch nicht ungewöhnlich, dass Theorien trotz widersprechender Beobachtungen beibehalten werden und neue Theorien nur deshalb zurückgewiesen werden, weil sie nicht der allgemein akzeptierten Auffassung über die Natur der Dinge entsprechen. Dieses konservative Verhalten hemmt zwar einerseits die Weiterentwicklung, aber sie hat zugleich den Vorteil, dass “verrückte” Forscher mit ihren Ergebnissen abgelehnt werden, dass die Wissenschaft von “Spinnerei” freigehalten wird und dass sie sich somit auch gegen Betrug leichter schützen kann. Diesen Schutz erkauft sie sich aber durch die Hindernisse und Hemmnisse bei der Einführung neuer Methoden und Erkenntnisse.
In den Wissenschaften gibt es eine wissenschaftliche Autorität, die durch eine relativ kleine Gruppe von Wissenschaftlern ausgeübt wird. Sie entscheiden über die Auswahl von Publikationsbeiträgen, über die Vergabe von Stellen und Preisen sowie über die Form und den Inhalt der Lehre. Sie sind häufig als Gutachter tätig, so dass sie neue Untersuchungsrichtungen blockieren oder fördern können, indem sie entsprechenden Forschungsvorhaben finanzielle Mittel gewähren oder die Publikation bestimmter Resultate fördern und ihnen so zum Durchbruch verhelfen. Ihre Entscheidungen über die Annahme oder Ablehnung von Forschungsprojekten prägen die Weiterentwicklung der Wissenschaft. Sie fungieren somit als ein wichtiger sozialer Faktor, der den Fortschritt der Wissenschaft bestimmen kann.
Die wissenschaftliche Autorität wacht natürlich auch über die Tradition, denn die Verbundenheit der Forscher untereinander beruht zum Teil auch auf den gemeinsamen tradierten Erkenntnissen, sie bilden schließlich die Grundlage für die Ausbildung und wissenschaftliche Tätigkeit. Eine weitere wichtige Aufgabe der wissenschaftlichen Autorität besteht darin, Konsens bezüglich der Methodologie und akzeptierten Theorien innerhalb der wissenschaftlichen Disziplinen zu schaffen und aufrecht zu erhalten. Sie wacht einerseits über das Paradigma und sie lässt andererseits dem Wissenschaftler genügend Freiraum, um die tradierten Regeln und die Theorien zu interpretieren, so dass originelle Beiträge überhaupt entstehen können.
Die wissenschaftliche Autorität, die so über die weitere Entwicklung der Wissenschaft entscheidet, ist weder ausschließlich durch ihre Kompetenz legitimiert noch urteilt sie ausschließlich auf Grund wissenschaftlicher Kriterien. Bei ihrer Bewertung spielen selbstverständlich auch soziale und persönliche Faktoren eine Rolle, insbesondere bei der bereits erhaltenen Reputation.
Die Autorität, die durch eine kleine Gruppe von anerkannten Wissenschaftlern repräsentiert wird, entscheidet also über die zu besetzenden Stellen, die Verteilung der Ressourcen und die Reputation. Die ursprüngliche Freiheit der Forschung wird damit zur Freiheit einer kleinen Elite, denn sie allein beansprucht, kompetente Urteile über die weitere Entwicklung der Wissenschaft fällen zu können. Damit beeinflussen sie massiv die Forschung und schränken so die Wahl der Themen und Methoden ein. Da die Ressourcen gegenwärtig zunehmend knapper werden, wächst auch die Konkurrenz unter den Wissenschaftlern. Sie werden zunehmend vom Wohlwollen der Gutachter abhängig und gelegentlich kommt es zu arglistigen Täuschungen.
Auch in jüngster Zeit wurde immer wieder über Betrugsfälle berichtet. Die Gründe für diese Täuschungen sind vielfältig. Der wichtigste ist sicherlich das Streben nach Reputation und Ressourcen. Erleichtert wird der Betrug, weil heutzutage meistens “big science” in größeren Forschungsprojekten stattfindet, in denen sich der Projektleiter auf seine Mitarbeiter verlassen muss. Täuschungen werden dabei nicht immer gleich entdeckt. Aufgrund der zunehmenden Abhängigkeit von finanziellen Unterstützungen wächst zudem der Druck immer neue originelle Ergebnisse zu produzieren, so dass sich einige Wissenschaftler nur dadurch zu helfen wissen, indem sie Ergebnisse fingieren.
Hinzu kommt, dass die Kontrolle nicht in ausreichendem Umfang durchgeführt werden können, weil die Kosten für die Wiederholungen von Experimenten sehr hoch sind. Außerdem ist es auch für andere Wissenschaftler wenig interessant, erfolgreiche Experimente eines Konkurrenten zu wiederholen.
Rein theoretisch genießt der Forscher aber Freiheit und Unabhängigkeit. Auch die Autorität der Wissenschaft ist theoretisch auf alle Wissenschaftler verteilt, denn jeder könnte auf seinem Gebiet grundsätzlich kompetente Urteile fällen. Die gegenseitige Anpassung der Forschungen durch die Methodologie lässt aber eine spontane Ordnung innerhalb der Wissenschaft entstehen, die eine wechselseitige Koordination sicherstellt, wie wir es im Konzept vom Krohn und Küppers kennen gelernt haben. Die gegenseitige Kontrolle durch die Publikationen unterstützt die Aufrechterhaltung der wissenschaftlichen Werte und Methodologie, ohne dass eine institutionelle zentrale Macht entstehen oder eingreifen müsste.
Das Gutachtersystem der angesehenen wissenschaftlichen Zeitschriften ist zwar geeignet, unqualifizierte Manuskripte abzulehnen, aber das bedeutet nicht, dass die Beiträge nicht publiziert werden. Aufgrund der Fülle von wissenschaftlichen Journalen ohne strenges Gutachterwesen werden viele abgelehnte Manuskripte dennoch in gering veränderter oder unveränderter Form publiziert.
8.9 Wissenschaft als autonomes soziales System
Die Wissenschaft beansprucht, eine autonome soziale Institution zu sein, wobei sie ihren Anspruch auf Autonomie daraus ableitet, dass angeblich nur unabhängige Wissenschaftler in der Lage sind, neue Erkenntnisse und Entdeckungen hervorzubringen. Anhänger des Autonomieprinzips glauben, dass die internen Selbstregulationsmechanismen ausreichen, um den Erkenntnisfortschritt zu sichern, und dass externe Einflüsse nur negative Folgen für die Wissenschaftsentwicklung haben.
Allerdings haben wir bereits gesehen, dass die Wissenschaft ein soziales System ist, das nicht isoliert für sich, sondern in Wechselwirkung mit anderen gesellschaftlichen Systemen steht. So lässt sich zwischen dem gesellschaftlichen Interesse an der Wissenschaft und der konsekutiven Zunahme der wissenschaftlichen Aktivität eine positive Beziehung in der angewandten Forschung nachweisen. Eine dauerhafte Entwicklung der Wissenschaft ist wahrscheinlich nur in solchen Gesellschaften möglich, die die kulturellen und die materiellen Voraussetzungen für diese Entwicklung bereitstellen.
Nur wenn die Wissenschaft durch die Gesellschaft anerkannt bleibt und sie von ihr finanziell unterstützt wird, kann sich moderne Forschung weiterentwickeln. Es ist demnach eine primär gesellschaftliche, mithin politische Entscheidung zugunsten der Wissenschaft, die sich auf der Anerkennung und Wertschätzung durch andere gesellschaftliche Institutionen gründet. Nur wenn die Gesellschaft das Gefühl hat, dass die wissenschaftliche Entwicklung mit ihren kulturellen Werten übereinstimmt und die Forschung auch zu praktisch relevanten Lösungsansätzen für gesellschaftliche Probleme führt, wird sie die Wissenschaft weiter fördern. Wenn sich dagegen die Meinung verstärkt, dass die Wissenschaft unfähig ist, bestimmte lebensweltliche Probleme zu lösen, ja sie vielleicht noch verschlimmert, dann wird ihr die weitere Unterstützung in Zukunft zunehmend versagt bleiben.
Warum sollte eine Gesellschaft materielle und personelle Ressourcen für eine Institution zur Verfügung stellen, die anstehende Probleme nicht löst, sondern sie vielleicht noch verschlimmert? Es ist zu erwarten, dass die Verteilung der Ressourcen dann immer weniger den Wissenschaftlern überlassen wird und mehr von professionellen Wissenschaftspolitikern reguliert wird, zumal trotz steigender Forschungsausgaben die Effizienz der Forschung sinkt.
Wissenschaft dient heute nicht länger ausschließlich der intellektuellen Weiterbildung der Gesellschaft, sondern sie wird zunehmend zu einem wichtigen Bestandteil der Technikentwicklung und gilt als bedeutender Wirtschaftsfaktor in den industriellen Gesellschaften. Wissenschaft wird sich in Zukunft vermehrt mit externen Eingriffen auseinander setzen müssen, weil auch Nichtwissenschaftler ein Mitspracherechte bei der Verteilung der Gelder und der gezielten Förderung bestimmter Disziplinen fordern werden, wobei zur Steigerung der Effizienz auch externe Erfolgskontrollen auf der Basis von Wissenschaftsindikatoren (z.B. Impact-Faktoren) zunehmend Bedeutung erlangen werden.
Hoffentlich hat dieser kurze Einblick in soziologische Aspekte der Wissenschaft hinreichend deutlich werden lassen, durch welche komplexen Mechanismen sich so etwas wie wissenschaftliche Erkenntnis entwickelt und etabliert. Niemand von Ihnen sollte deshalb so naiv sein, darauf zu vertrauen, dass ein entscheidendes Experiment bereits den Durchbruch bringt oder andere von ihrer irrigen Meinung überzeugt.
{/jkefel} {jkefel title=[Kap. 9]}
9. Skepsis in der Wissenschaft
9.1 Die Entdeckung des Blutkreislaufs
9.2 Hypothesentestung
9.3 Wahrscheinlichkeit
9.4 Statistische Gesetze
Als Nächstes wollen wir noch einmal an einigen historischen und aktuellen Beispielen verdeutlichen, warum es so wichtig ist, sich kritisch und skeptisch mit wissenschaftlichen Methoden auseinander zu setzen.
9.1 Die Entdeckung des Blutkreislaufes
Haben Sie sich schon einmal gefragt, warum es solange gedauert hat, bis Harvey den Blutkreislauf entdeckte? Ist für uns nicht bei jeder Obduktion evident, wie das Herz funktioniert? Lernen wir nicht bereits sehr früh in der Schule, wie das Herz-Kreislaufsystem funktioniert? Warum dauerte es Jahrtausende, diese offensichtlichen Zusammenhänge zu erkennen, obwohl bereits in der Antike umfangreiche anatomische Studien vorgenommen wurden?
In der Antike und im Mittelalter wurden zugegebenermaßen keine relevanten Hilfsgeräte verwendet und die Naturforscher und Ärzte verließen sich auf die direkte Beobachtung. Da die Ursache einer Krankheit aber nicht unmittelbar beobachtet werden kann, wenn wir einmal von der direkten Verwundung absehen, wurden Theorien aufgestellt, aus denen dann die Krankheit abgeleitet werden konnte. Die Grundlagen der medizinischen Theorie basierten auf den damaligen philosophischen Konzepten über die Zusammenhänge der Natur, auf der Harmonie des Mikro- und Makrokosmos und der Humoralpathologie, die die Grundlage der Medizin war.
Dies veränderte sich nicht bis zur Renaissance. Wahrscheinlich ist Ihnen weitgehend unbekannt, dass im Jahre 1543 gleichzeitig zwei bedeutende Bücher publiziert wurden: Einerseits “De revolutionibus orbium coelestium” von Kopernikus und andererseits “De humani corporis fabrica” von Vesalius. Beide Werke zeichnen sich dadurch aus, dass sie sich nicht an die akzeptierten Methoden hielten, sondern die bisherigen Denkschablonen abstreiften und damit die moderne Wissenschaft einleiteten. Damit ist allerdings nicht gemeint, dass Kopernikus oder Vesalius die Gründer der modernen Naturwissenschaften sind, sondern, dass die Zeit reif dafür war, aus den bekannten wenig fruchtbaren Schemata auszubrechen.
Über Kopernikus und seine Wirkung auf Galilei und die Verbesserung des Kopernikanischen Systems durch Kepler haben wir bereits gesprochen. Um den Stellenwert von Vesalius Werk zu verstehen, ist es allerdings notwendig, den Kenntnisstand der Anatomie bis zu Vesalius kurz zu skizzieren. Für uns besteht heute kein Zweifel, dass ein medizinisches Verständnis der Krankheiten nicht möglich ist, ohne über anatomische Kenntnisse zu verfügen. Wie kommt es aber, dass so viel Zeit benötigt wurde, um das natürliche Bedürfnis nach Wissen über den Menschen auch auf die Anatomie auszudehnen? Schließlich sind wir uns doch unseres eigenen Körpers in irgendeiner Weise bewusst. Wir wissen doch, dass der menschliche Körper aus Teilen zusammengesetzt ist. Warum schritten die Gelehrten nicht zum nächsten logischen Schritt, zur Eröffnung des Körpers, um den menschlichen Organismus zu enträtseln? Die Antwort ist einfach: Es waren primär religiöse Gründe, die systematische Sektionen verhinderten. Der Verstorbene wurde unangetastet gelassen. Statt dessen wurden Tiere seziert und dann durch Analogie auf den menschlichen Organismus geschlossen. Seltsamerweise kamen nur wenige auf die Idee, den menschlichen Körper systematisch untersuchen zu wollen. Selbst Hippokrates scheint diesbezüglich nicht von einem wissenschaftlichen Geist beseelt gewesen zu sein. Er und seine Zeitgenossen interpretierten, reflektierten und entwarfen zwar globale Konzepte vom Menschen und seinen Krankheiten, aber sie interessierten sich nicht für die Anatomie, weil sie darin keinen praktischen Wert sahen.
Die Anatomie erfuhr im 3. Jahrhundert v. Chr. bedeutende Fortschritte in Alexandria durch Herophilos und Erasistratos, die in ihrem Bestreben von den ägyptischen Herrschern unterstützt wurden. Sie gestatteten diesen Forschern, an Hunderten von menschlichen Leichen die Anatomie zu studieren. Die Meinungen über den Aufbau des menschlichen Organismus wurden dann für viele Jahrhunderte von Galen festgelegt, der dem Wissen der Alexandriner nicht mehr sehr viel Wesentliches hinzufügte. An dem weiteren mangelnden Fortschritt lässt sich die Bedeutung erahnen, die eine orientierende Theorie auf die Beobachtungen ausüben kann. Sicherlich waren auch die damaligen Anatomen sehr gute Beobachter, aber sie haben die Zusammenhänge nicht erkennen können, weil sie keinen theoretischen Hintergrund hatten, der sie bei ihren Studien leiten konnte. Die einfache Beobachtung ohne theoretische Anleitung ist blind.
Es vergingen von Erasistratos bis Vesalius 1800 Jahre, in denen die anatomischen Kenntnisse keinerlei Fortschritte aufwiesen. In dieser Zeit wurden die anatomischen Ansichten von Galen immer nur nachgesprochen, ohne dass sich jemand durch eigene Sektionen davon überzeugte, dass sie der Wahrheit entsprachen. Sektionen wurden damals sehr selten vorgenommen, weil die Kirche forderte, dass der menschliche Leichnam respektiert werden müsse, weil der Körper der Tempel der Seele vor dem Tode ist und auf die Stunde der Auferstehung wartet. Seziert wurden deshalb nur hingerichtete Verbrecher, weil sie sich selbst aus der Gemeinschaft der Menschen und der Kirche ausgeschlossen hatten. Insgesamt interessierten sich aber nur wenige Ärzte für anatomische Studien. Die meisten nahmen sie nur innerhalb der medizinischen Lehre vor, um Galens Thesen zu kommentieren und durch praktische Demonstrationen zu ergänzen, -- wobei der Leichnam meistens durch einen Hilfsarbeiter, Chirurgen oder jungen Medizinstudenten seziert wurde.
Andreas Vesalius leitete damals eine Wende ein. Mit 23 Jahren erhielt er 1537 seinen Doktortitel in Padua mit magna cum laude und wurde aufgrund seiner besonderen Fähigkeiten und Interessen zum explicator chirurgiae ernannt. Während seiner Lehre sezierte er selbst und überließ dieses nicht einem Chirurgen, wie sonst üblich. Aufgrund seines Bekanntheitsgrades wurden Vesalius damals die Leichen verurteilter Krimineller überstellt, so dass er seine anatomischen Studien intensivieren konnte. Obwohl er die Anatomie Galens lehrte, erkannte er doch zunehmend, dass es Diskrepanzen zwischen der Lehre Galens und seinen Beobachtungen gab. Bereits 1539 verkündete er, dass Galens Anatomie lediglich auf allgemeinen anatomischen Analogieschlüssen beruhte, dass sie weniger die spezielle menschliche Anatomie aufzeigte und dass sie zudem Fehler aufwies. Er revoltierte somit gegen die weithin akzeptierte Autorität Galens.
Mit 29 Jahren veröffentlichte er sein epochales Werk und leitete damit die moderne Entwicklung der Anatomie ein. Die Verbreitung des Werkes von Vesalius wurde sowohl durch die Buchdruckerkunst gefördert, die eine rasche Verbreitung seiner Lehre ermöglichte, als auch durch die außerordentlich sorgfältigen anatomischen Zeichnungen. Der Durchbruch der Anatomie wurde durch diese beiden Faktoren maßgeblich gefördert. Durch Bücher und Bilder wurde das Wissen schnell weiterverbreitet. Auch die anatomischen Thesen konnten besser kontrolliert werden, weil der menschliche Körper und seine Organe abgebildet wurden. Auch mögliche Mehrdeutigkeiten der Beschreibung konnten durch eine exakte Skizze weitgehend beseitigt werden. Kurz nach der Veröffentlichung seines Werkes beendete Vesalius allerdings seine akademische Karriere.
Vesalius konnte beweisen, dass es nicht gestattet war, von den anatomischen Gegebenheiten bei Tieren auf die des Menschen zu schließen. Er wies wiederholt daraufhin, dass überprüft werden müsse, wie der Mensch tatsächlich aufgebaut ist. Während Galen es für möglich gehalten hatte, dass Beobachtungen, die beim Tier gemacht wurden, auf den Menschen übertragbar sind, und dass wir vom Allgemeinen zum Besonderen schlussfolgern dürfen, konnte Vesalius diese Methode als nicht überall gültig widerlegen. In einem ersten Schritt rückte Vesalius von den alten Lehrmeinungen ab, weil er mehr seinen eigenen Beobachtungen vertraute.
Sein Werk enthält interessanterweise auch nicht nur eine Beschreibung der Anatomie des Menschen, sondern zugleich eine Abbildung der von ihm verwendeten Instrumente und eine Anleitung zur Präparation, so dass jeder seine Entdeckungen selbst nachvollziehen konnte. Mit dem Aufdecken von Irrtümern der alten “Meister” wurde ein zunehmender Zweifel über die Wertigkeit der alten Lehren genährt, der sich bis zum systematischen Zweifel steigerte.
Vesalius hat aber nie versucht, die Medizin des Galen, der offiziellen medizinischen Doktrin, zu kritisieren oder eine alternative Theorie aufzustellen. Er wies lediglich daraufhin, dass bestimmte anatomische Gegebenheiten anders waren, als von Galen beschrieben. Seit Galen war die Medizin davon überzeugt, dass nur die Venen Blut enthielten und dass das Blut durch die Gekrösevenen zur Leber, dem zentralen Organ, transportiert wird, um dann durch die von der Leber ausgehenden Venen im Körper verteilt zu werden. Das Herz war lediglich ein Anhängsel der Leber. Ein wenig Blut gelangt nach den damaligen Vorstellungen auch über die Lungenarterie in die Lunge und ernährt diese, wobei die Luft der Lunge die linke Herzkammer passiert und gemischt mit Blut in die Arterien eindringt.
Vesalius konnte die von Galen beschriebenen Poren in der Herzscheidewand als nicht existent nachweisen. Da Galen aber diese Poren benötigte, um zu erklären, wie das Blut von der rechten Herzkammer in die linke Herzkammer übergeht, hätte Vesalius folgern müssen, dass damit auch das Konzept Galens über eine der wichtigsten Körperfunktionen nicht mehr richtig sein konnte. Diese Schlussfolgerung wurde aber weder von Vesalius noch von seinen Zeitgenossen gezogen. Es wurde weitgehend ignoriert, dass die damaligen Ansichten über die Blutversorgung mit einem entscheidenden Faktum in Widerspruch steht. Heute würden wir sagen: “a beautiful hypothesis killed by an ugly fact”. Nach den Regeln des dogmatischen Falsifikationismus hätten Galens Ansichten über die Blutversorgung sofort als falsch entlarvt werden müssen. Wahrscheinlich war die Zeit aber noch nicht reif für eine solche Entscheidung, zumal es auch noch keine alternative Theorie gab.
Welche Konsequenz hatte damals diese Entwicklung für die Medizin? Es dauerte 85 Jahre von Vesalius Publikation bis zu Harveys Entdeckung des Blutkreislaufes. Erste Zweifel an der alten Theorie des Blutkreislaufes tauchten zwar bereits vor Harvey auf, weil die Lungenarterie viel zu groß erschien, um nur für die Ernährung der Lunge zuständig zu sein. William Harvey, der Anatomieprofessor am Royal College of London, formuliert 1628 in “Exercitatio anatomica de motu cordis et sanguinis in animalibus”, dass das Herz den Mittelpunkt zweier Kreisläufe bildete -- und nicht die Leber. Harvey erkannte richtig, dass die Arterien das Blut in beiden Kreisläufen vom Herzen wegführte und die Venen zum Herzen hin. Allerdings konnte er nicht die Frage beantworten, wie das Blut von den Arterien in die Venen gelangte, so dass seine neue Theorie von vielen Ärzten abgelehnt wurde. Selbst als diese Frage von Malpighi (1661) durch die Entdeckung der Blutkapillaren beantwortet wurde, waren nicht alle Mediziner davon überzeugt, dass Harvey Recht hatte.
Der damals berühmte Riolan und mit ihm die Medizinische Fakultät von Paris widersetzten sich am Heftigsten den Thesen Harveys. 1648 veröffentlichte Riolan in Paris eine Gegendarstellung, die von Harvey 1650 Schritt für Schritt widerlegt wurde. Selbst nachdem Marcello Malpighi 1661 die arterio-venöse Verbindung beschrieb und Richard Lower 1669 die periphere Ausnutzung des Blutes belegte, wurde die neue Theorie von der Fakultät in Paris abgelehnt. Erlauben Sie mir den weiteren Hinweis, dass Ludwig XIV dem Parlament im März 1673 die königlichen Befehle erteilte, dass man die Anatomie des Menschen gemäß des Blutkreislaufes und der neuesten Entdeckungen auf diesem Gebiet zu lehren habe, so dass die medizinische Fakultät ins Lächerliche gezogen wurde.
9.2 Hypothesentestung
Wir werden unsere kritischen und konstruktivistischen Erfahrungen nun auf den Umgang mit der wissenschaftlichen Methodologie anwenden, insofern sie für klinische und experimentelle Forschungen in der Medizin relevant ist. Es ist nicht beabsichtigt, in diesem kurzen Abschnitt eine systematische Einführung in die wissenschaftliche Methodenlehre zu geben, sondern es soll auf den „richtigen“ Umgang mit den wissenschaftlichen Methoden hingewiesen werden. Nur wer sich bewusst ist, auf welchen Annahmen diese Methoden beruhen, der wird die Ergebnisse wissenschaftlicher Studien als das nehmen, was sie sind. Ein einfache Einführung in die Methodologie finden Sie in meinem Buch "Statistik ohne Statistik". Die nachfolgenden Zusammenhänge werden dort detailierter beschrieben.
Wir hatten bereits die Probleme beschrieben, die bei der Metrisierung von Größen auftreten können. Jetzt wollen wir uns mit den Problemen der Messung von diesen Größen auseinander setzen. Es dürfte heute allgemeines Gedankengut sein, dass wir niemals den genauen Wert einer uns interessierenden Größe messen können, weil sich von Messung zu Messung immer gewisse Abweichungen ergeben. Wollte jemand den Hämoglobinspiegel im Blut einer Person bestimmen, so wäre er sicherlich nicht erstaunt, wenn er bei 10 Untersuchungen aus derselben Blutprobe 10 verschiedene Resultate erhält, die sich in geringem Maße unterscheiden. Mit den Methoden der Schätztheorie würden wir den Mittelwert oder Median berechnen und diesen Wert als beste Annäherung an den “tatsächlichen“ Wert der einzelnen Person akzeptieren. In unserem Fall würden wir für die zehn Messungen 13,69±0,11 g/dl erhalten. Die Streuung der Messwerte wird hier als Standardabweichung angegeben und kann als ein Maß für die Ungenauigkeit des Messverfahrens betrachtet werden.
Immer dann, wenn wir eine Messung vornehmen, sollten wir uns daran erinnern, dass sie eine Handlung ist, die zu einem Ergebnis führt. Diese Handlungsergebnisse differieren gering gradig, weil Handlungen nicht perfekt reproduzierbar sind. Wir müssen uns von dem Gedanken befreien, dass wir den so genannten “tatsächlichen” Wert einer Größe, sei es des Hämoglobinspiegels, des Sauerstoffpartialdruckes im Blut oder der Geschwindigkeit eines sich bewegenden Objektes, bestimmen können. Wir sind zwar gewöhnt, darüber zu sprechen, wie groß oder schwer ein Patient ist, und wir unterstellen bei den numerischen Angaben, dass es dafür einen definierten Wert gibt. Dieser Wert ist aber eine Hypothese, ein Produkt des Messvorganges, eine Schätzung. Auch für die Handlung der Messung gilt, dass die Handlung gelingen oder misslingen kann. Es gibt also keine sichere Gewähr für die Messung. Selbst die einfachste Messung kann falsch sein. Deshalb vertrauen wir bei kritischen und wichtigen Daten auch nicht auf eine einzige Messung, sondern wir wiederholen sie. Sollten wir bei wiederholten Messungen zu einem ähnlichen Wert gelangen, der sich innerhalb eines sinnvollen Vertrauensbereiches bewegt, so halten wir die Messung für verlässlich.
Wir wählen also einen bestimmten Wert, der das Ergebnis einer Schätzung ist, nicht deshalb, weil wir mit Sicherheit wissen, dass er nahe beim wahren Wert liegt, sondern wir wählen ihn nur, weil wir gute Gründe zu besitzen glauben. Unsere Gründe sind letztlich statistische Vermutungen über wahre Messwerte, wobei sich diese statistischen Vermutungen ihrerseits auf die faktischen Messwerte stützen. Auch hier zeigt sich ein Schwachpunkt der Popperschen Konzeption des Falsifikationismus von Hypothesen. Danach sollten wir eine Hypothese als falsifiziert betrachten, wenn das vorhergesagte Ereignis nicht eintritt bzw. mit der Hypothese in Widerspruch steht. Nach unseren bisherigen Ausführungen würde dieses die unliebsame Konsequenz haben, dass wir wahrscheinlich alle Hypothesen, die quantitative Begriffe enthalten, als falsifiziert betrachten müssten. Schließlich ist es mehr als unwahrscheinlich, dass wir exakt den Wert messen, den die Theorie uns vorschreibt. Der Wissenschaftler erwartet in praxi auch nicht, dass der gemessene Wert exakt mit dem vorhergesagten übereinstimmt. Es würde dem Wissenschaftler schon reichen, wenn der Wert mit der Vorhersage “im guten Einklang” steht, wobei die geforderte Genauigkeit durch den Kontext spezifiziert wird. Die Bestätigung und Widerlegung einer Theorie aufgrund von numerischen Ergebnissen ist ein sehr komplexer Vorgang, der umfangreiche statistische Kenntnisse voraussetzt.
Noch komplexer wird dieser Sachverhalt, wenn wir nicht nur versuchen, den Hämoglobinwert einer einzelnen Person zu messen, sondern wenn wir ermitteln wollten, wie hoch der Hämoglobinspiegel generell beim gesunden Menschen ist. Um diese Frage definitiv zu beantworten, müsste man alle vermeintlich gesunden Menschen untersuchen. Da wir dazu nicht in der Lage sind und auch nur über begrenzte Ressourcen verfügen, wählen wir in der Regel eine repräsentative Gruppe von Menschen aus und messen deren Werte. Aus den Ergebnissen der Untersuchung berechnen wir dann sogenannte Normalwerte, die uns eine vorläufige Antwort auf die gestellte Frage geben.
Wir sind auch hier aufgrund unserer methodischen Beschränkung lediglich in der Lage, aus den durchgeführten Messungen auf den gesuchten Wert hypothetisch zu schließen. Ein Irrtum ist immer möglich. Wir werden bei den Bestimmungen des Hämoglobinspiegels in unserer Population zwangsläufig auf eine größere Streuung treffen (12,8±1,2 g/dl) als bei der Messung einer einzelnen Person. Außerdem könnten wir die Vermutung haben, dass sich die Werte zwischen den Geschlechtern unterscheiden. So könnten wir nach 1000 Messungen bei Frauen einen Hämoglobinspiegel von 12,1±1,2 g/dl gefunden haben und nach 1000 Messungen bei Männern einen Wert von 13,5±1,1 g/dl. Um unsere Vermutung zu überprüfen, dass der Hämoglobinspiegel bei Männern und Frauen unterschiedlich hoch ist, wenden wir einen statistischen Test an, der uns helfen soll, zwischen zwei Hypothesen zu wählen. Die erste Hypothese H0 lautet: es gibt keinen Unterschied des Hämoglobinspiegels zwischen den beiden Geschlechtern. Da in der ersten Hypothese behauptet wird, dass der Unterschied null und nichtig ist, wird sie Nullhypothese genannt. Die zweite oder alternative Hypothese HA lautet: es gibt einen Unterschied. Wir wählen nun einen geeigneten statistischen Test, um zwischen beiden Hypothese zu wählen.
Da wir uns zwischen H0 und HA entscheiden müssen, können zwei Situationen eintreten:
1. Wir verwerfen die Nullhypothese und nehmen die alternative Hypothese an, weil wir glauben, dass es einen Unterschied gibt.
2. Wir verwerfen die alternative Hypothese und nehmen die Nullhypothese an, weil wir glauben, dass es keinen Unterschied zwischen den Gruppen gibt.
Worauf beruht nun unsere Entscheidung? Es ist sicherlich nicht ausreichend, auf einen kleinen Unterschied zwischen den beiden Gruppen zu verweisen und daraufhin zu behaupten, dass tatsächlich ein Unterschied besteht. Denn es ist unwahrscheinlich, dass die Messwerte völlig übereinstimmen. Wenn also ein Unterschied nachweisbar ist, dann kann er rein zufällig zustande kommen oder durch einen tatsächlichen Unterschied zwischen den Gruppen bedingt sein. Wie wollen wir dass entscheiden? Zum Glück verfügen wir heute über ausgereifte statistische Testverfahren, die uns bei dieser Entscheidung unterstützen. Aber sie garantieren nicht, dass wir uns definitiv richtig entschieden haben. Es kann immer eintreten, dass irrtümlich Falsches akzeptiert wird und irrtümlich Wahres verworfen wird.
Machen wir uns das an einer Vierfeldertafel klar, in der wir die Entscheidung zugunsten einer Hypothese in Beziehung setzen zur Wirklichkeit. Allerdings mit der Einschränkung, dass es keine Möglichkeit gibt, definitiv die Wirklichkeit zu erkennen. Es handelt sich demnach um ein Gedankenexperiment. Der Vierfeldertafel lässt sich entnehmen, dass in beiden Entscheidungen zwei Situationen unproblematisch sind, nämlich wenn wir uns für die richtige Hypothese entschieden haben. Da wir aber die Wirklichkeit nicht mit Sicherheit kennen und auch aufgrund unserer Daten keine sichere Entscheidung treffen können, müssen wir immer in Betracht ziehen, dass wir uns auch falsch entschieden haben.
Jede Entscheidung enthält somit eine Irrtumswahrscheinlichkeit. Wenn wir zum Beispiel die Nullhypothese verwerfen und uns damit für die Alternative entscheiden, dann unterstellen wir einen Unterschied zwischen den Gruppen. Wenn diese Annahme aber nicht zutrifft, dann haben wir einen Fehler begangen, wir haben uns geirrt. Diesen Fehler erster Art können wir nur machen, wenn wir die Nullhypothese verwerfen. Es besteht Übereinkunft darüber, dass der Fehler 1. Art klein gehalten werden soll. Er wurde willkürlich auf 5 Prozent festgesetzt, d.h., dass wir die Nullhypothese zugunsten der Alternativen nur dann ablehnen sollten, wenn die Irrtumswahrscheinlichkeit kleiner als 5 Prozent ist. Ist die Konsequenz aus solch einer Entscheidung gravierend, kann die Grenze sogar auf 1 Prozent festgelegt werden. Dies sind willkürliche Entscheidungen.
Entscheiden wir uns dagegen für die Nullhypothese und verwerfen die Alternative, so können wir einen Fehler 2. Art begehen. Hier geht es eher darum, dass es uns möglicherweise nicht gelungen ist, den Unterschied auch tatsächlich zu entdecken. Der Grund mag in einer zu kleinen Fallzahl oder zu großen Streubreite der Messwerte liegen. Der Fehler 2. Art wird normalerweise auf 20 % beschränkt.
Sie mögen sich vielleicht fragen, warum ich diesen kleinen Kurs in die Statistik wage? Wenn Sie später bei einem Patienten zwischen alternativen Behandlungsverfahren wählen müssen, dann müssen Sie eine eigene rationale Entscheidung fällen. Sie können sich natürlich vollständig auf das Urteil Ihrer Vorgesetzten oder Lehrer verlassen. Auf Dauer wäre das aber kein guter Ratgeber. Sollten Sie sich dagegen entscheiden, eigenständig kritisch und skeptisch zwischen den Verfahren abzuwägen, dann müssen Sie die Prinzipien dieser Wahl verstehen und die potentiellen Irrtümer berücksichtigen. Dadurch werden Sie auf Dauer weniger borniert und dogmatisch und lernen toleranter mit Irrtümern und Fehlern umzugehen. Außerdem ist das Verständnis der Hypothesentestung fundamental, um eine Empfehlung zu verstehen, die auf einer Studie beruht und publiziert wurde. Hier geht es mir um die grundlegenden Gedanken und weniger um die technischen Details.
Betrachten wir deshalb folgendes einfaches Beispiel: Wir haben zwei verschiedene Operationsverfahren, um ein Magenkarzinom zu entfernen. Wir versprechen uns von dem neuen Verfahren B, dass die Patienten im Langzeitverlauf weniger an Gewicht abnehmen. Das Zielkriterium ist das Körpergewicht nach 6 Monaten. Wir haben dazu eine randomisierte Studie an jeweils 10 Patienten in jeder Gruppe durchgeführt und erhalten folgende Ergebnisse: Gruppe A 60±10 kg; Gruppe B 68±10 kg. Von weiteren statistischen Details sehen wir hier ab. Die Ergebnisse zeigen einen Unterschied von 8 kg, den wir für klinisch relevant halten.
Haben wir also einen Grund, die Nullhypothese zu verwerfen und einen Effekt anzunehmen. Nein, wir haben keine Veranlassung dazu. Wenn wir die Ergebnisse mit einem entsprechenden Test überprüfen, werden wir einen p-Wert von 0,3 erhalten, d.h. wir würden uns mit einer Wahrscheinlichkeit von 30 % irren, wenn wir die Nullhypothese verwerfen. Da wir vor der Durchführung der Studie festgelegt haben, dass wir die Nullhypothese nur bei einem Fehler 1. Art von weniger als 5 % verwerfen, entscheiden wir, die Nullhypothese nicht zu verwerfen.
Wir entscheiden uns, die Alternative zu verwerfen. Haben wir aber möglicherweise einen Fehler 2. Art begangen. Genau das ist eher der Fall, weil unsere Patientenzahl viel zu klein ist, um bei dieser Streuung, ein signifikantes Ergebnis zu erhalten. Wenn wir die Studienpopulation auf 60 pro Gruppe heraufsetzen, würden wir bei gleichen Ergebnisse einen p-Wert von 0,001 erhalten. Wir würden uns also allein durch die Zunahme der Patientenzahl für die alternative Hypothese entscheiden, weil wir die Nullhypothese für wenig wahrscheinlich halten.
Wie erklärt sich dieser Sachverhalt, dass wir bei gleichen Ergebnissen und unterschiedlich großen Populationen verschiedene Entscheidungen treffen. Nun, solange wir nur eine kleine Patientengruppe untersuchen, scheint die Differenz in absoluten Einheiten zwar groß, aber wir wissen nicht, ob bei einer Wiederholung des Experimentes derselbe Unterschied herauskäme. Um ein ungefähres Maß zu erhalten, inwieweit wir der gefundenen Differenz von 8 kg vertrauen können, müssten wir den 95-Prozent-Vertrauensbereich berechnen und der würde sehr weit ausfallen und sogar negative Werte enthalten. Wir können uns bei einer geringen Patientenzahl nicht darauf verlassen, dass wir die Ergebnisse reproduzieren können. Anders sieht es aus, wenn wir eine große Patientenzahl in die Studie eingebracht haben. Dann wird der Vertrauensbereich enger und wir sind uns sicherer, dass der Unterschied auch wieder eintreten wird.
9.3 Wahrscheinlichkeit
Ausgehend von diesem einfachen Beispiel wollen wir uns auch kurz mit dem Begriff “Wahrscheinlichkeit” beschäftigen. Welche Bedeutung hat der Begriff “Wahrscheinlichkeit”? Was meinen wir, wenn wir sagen, dass es unwahrscheinlich ist, dass ein bestimmtes Ereignis eintritt. Die Wahrscheinlichkeit ist zumindest keine beobachtbare Eigenschaft von Gegenständen oder Ereignisse, sondern sie ist ein theoretischer Begriff, der nur indirekt mit beobachtbaren Folgen von Ereignissen im Zusammenhang steht, an denen relative Häufigkeiten feststellbar sind.
Was unter Wahrscheinlichkeit mathematisch verstanden wird, ist durch die drei Kolmogoroff-Axiome festgelegt. Sie legen fest, dass die Wahrscheinlichkeit für jedes Ereignis zwischen 0 und 1 liegt, dass das sichere Ereignis die Wahrscheinlichkeit 1 hat und wie Wahrscheinlichkeiten mehrerer Ereignisse berechnet werden können. Mit den Kolmogoroff-Axiomen ist aber noch nicht die Bedeutung von “Wahrscheinlichkeit” spezifiziert, sondern durch sie werden nur einige Bedingungen formuliert, die der Begriff “Wahrscheinlichkeit” erfüllen muss, um sinnvoll anwendbar zu sein. Was aber genau unter “Wahrscheinlichkeit” verstanden werden soll, bedarf einer zusätzlichen Erklärung.
Bei der Interpretation der Wahrscheinlichkeit gibt es die Anhänger eines subjektivistischen und die eines objektivistischen Standpunktes. Vom objektivistischen Standpunkt aus, können wir unter Wahrscheinlichkeit so etwas wie die relative Häufigkeit auffassen. Wenn bestimmte Vorgänge beliebig wiederholbar wären und wir in 12 Vorgängen von 60 Wiederholungen das Ereignis e nachweisen, dann hätte das Ereignis e die relative Häufigkeit 1/5. Aus dieser relativen Häufigkeit würden wir dann auf die Wahrscheinlichkeit für zukünftige Ereignisse schließen. Das Problem liegt in der Spezifizierung „wenn die Vorgänge beliebig wiederholbar wären“. De facto sind Ereignisse nicht beliebig wiederholbar, nicht exakt reproduzierbar, so dass die objektivistische Sichtweise problematisch ist.
Relative Häufigkeiten können zwar für sich in Anspruch nehmen, objektiv nachweisbar zu sein, aber damit sind sie noch keine Wahrscheinlichkeiten, denn Wahrscheinlichkeiten existieren nur in den Köpfen von Personen. Nach Meinung der Subjektivisten ist die Wahrscheinlichkeit kein Merkmal von Ereignissen, sondern sie ist an Personen gebunden und ist ein Ausdruck des Glaubens über die Welt. Das Sprechen von den Versuchsanordnungen, der Unabhängigkeit von Ereignissen, den Zufallsfolgen und von den objektiven Wahrscheinlichkeiten ist für die Verfechter der subjektivistischen Interpretation lediglich nebulöses Geschwätz. Es gibt nach ihnen nur eine wahre Wahrscheinlichkeit, nämlich den Grad, in dem eine Person an etwas glaubt bzw. an etwas zweifelt. Dieser Grad lässt sich messen, indem die Bedingungen untersucht werden, unter denen die Person bereit wäre, auf das Eintreten des Ereignisses zu wetten.
Subjektive Wahrscheinlichkeit oder subjektiver Glaubensgrad einer Person an ein Ereignis E lässt sich als maximaler Wettquotient (operational) definieren, zu dem die Person auf E zu wetten bereit wäre. Wahrscheinlichkeit ist letztlich ein Maß für das Vertrauen einer Person, dass ein bestimmter Sachverhalt besteht bzw. eine Aussage wahr ist. Weil es ein subjektiver Vorgang ist, ist es auch denkbar, dass verschiedene Personen demselben Sachverhalt unterschiedliche Wahrscheinlichkeiten zuordnen.
9.4 Statistische Gesetze
Wir wollen als nächstes die wichtige Unterscheidung zwischen deterministischen und statistischen Gesetzesaussagen oder Regelmäßigkeiten besprechen. Eine deterministische Regel oder Gesetzesaussage setzt Gegenstände oder Ereignisse miteinander in Beziehung, die immer gelten und nicht nur mit einer gewissen Wahrscheinlichkeit. So gehen wir davon aus, dass Kupfer elektrischen Strom leitet. Dies trifft immer zu, wenn es sich um Kupfer handelt und nicht nur in 80 Prozent der Fälle.
Ein Teil unserer routinemäßigen wissenschaftlichen Tätigkeit besteht darin, dass wir diese deterministische Gesetzesannahmen überprüfen, indem wir aus ihnen Voraussagen ableiten, die dann eintreten müssen, wenn die Bedingungen erfüllt sind. Trifft das Vorausgesagte zu, so hat sich die Hypothese über den deterministischen Zusammenhang vorläufig bewährt; trifft es nicht zu, so ist sie empirisch widerlegt bzw. falsifiziert. Deterministische Gesetzesaussagen, die eindeutig festlegen, was sich zu ereignen hat und was nicht, können so effektiv falsifiziert werden. Allerdings gibt es dabei noch eine kleine Schwierigkeit: wollen wir eine Hypothese effektiv falsifizieren, so benötigen wir dazu anerkannte empirische Daten, die dem Vorausgesagten definitiv widersprechen.
Nun haben wir gesehen, dass unsere quantitativen Daten nicht einem exakten Wert entsprechen, sondern eher einer Streuung, und dass auch unsere sonstigen Beobachtungen theoriegeleitet sind. Daher braucht eine falsifizierte deterministische Hypothese nicht unbedingt falsch zu sein; es könnte ja sein, dass die für die Falsifikation benutzten Daten unrichtig waren und im weiteren Verlauf korrigiert werden. Eine Falsifikation kann also rückgängig gemacht werden, nämlich dann, wenn ein begründeter Zweifel an der Richtigkeit der falsifizierenden Daten auftritt. Wir würden in einem solchen Fall also eher die Daten preisgeben als die Hypothese.
Nehmen wir an, wir wollen die Hypothese “alle Beos haben einen gelben Schnabel” überprüfen. Wir besuchen eine Zoohandlung und finden einen Beo, der einen grünen Schnabel hat. Damit wäre unsere Hypothese falsifiziert. Trotzdem könnte in uns das Gefühl verbleiben, dass die falsifizierte Hypothese doch nicht falsch ist. Es wäre denkbar, dass der Vogel im Käfig in Wirklichkeit gar kein Beo ist oder dass ein Spaßvogel den Schnabel des Vogels grün angemalt hat. Solche Möglichkeiten des Irrtums bestehen faktisch immer. Wir würden sie sogar immer dann ernsthaft in Erwägung ziehen, wenn gute Gründe für einen vermeintlichen Irrtum vorgebracht werden. Solange wir aber die Beobachtung selbst nicht bestreiten, dass es sich wirklich um einen Beo mit einem grünen Schnabel handelt, werden wir die Hypothese als falsifiziert ansehen müssen. Sie bleibt definitiv falsch, solange an der Beobachtung festgehalten wird.
Wenn wir eine deterministische Hypothese überprüfen, gibt es offensichtlich nur zwei Entscheidungsmöglichkeiten: Entweder steht das Beobachtungsergebnis mit der Hypothese im Einklang oder es widerspricht ihr.
Seit Newton wurde an die Determiniertheit der Naturereignisse geglaubt. Die Wissenschaftler waren sich sicher, dass sie alle zukünftigen Ereignisse vorhersagen könnten, wenn sie über genügend Information über die Ausgangsbedingungen und die Naturgesetze hätten, weil schließlich alle Vorgänge in der Natur durch die Naturgesetze determiniert sind. Alles hat einen Grund. Jede Wirkung hat ihre Ursache. Erst später erkannten die Wissenschaftler, dass die Vorgänge in der Natur lediglich mit Wahrscheinlichkeiten vorhersagbar sind und dass dazu statistische Hypothesen herangezogen werden müssen. Die Idee einer deterministischen Realität erscheint heute als eine Chimäre, die der Mensch hervorbringt, wenn er die Welt beobachtet und sich mit makrophysikalischen Gegenständen beschäftigt.
Etwas anders verhält sich die Falsifikation bei so genannten statistischen Hypothesen, denn hier gilt dieses epistemologische Entweder-Oder nicht. Die empirische Verwerfung statistischer Gesetzeshypothesen ist relativ zu anerkannten Daten niemals endgültig, sondern prinzipiell provisorisch. Das “prinzipiell provisorisch” ist dabei folgendermaßen zu verstehen: Auch die bisherigen Daten, auf die sich eine solche Verwerfung stützte, könnten in Zukunft wieder rückgängig gemacht werden, weil zusätzliche Daten dies erzwingen.
Das “falsifiziert” bei deterministischen Gesetzmäßigkeiten muss deshalb bei statistischen durch “vorläufig verworfen” ersetzt werden. Eine Verwerfung einer Hypothese bedeutet auch nie eine Falsifikation. Verwerfungen stützen sich auf Plausibilitätsbetrachtungen und sind niemals logisch zwingend, denn auch etwas sehr Unwahrscheinliches könnte sich ereignen. Bei der Überprüfung statistischer Gesetzmäßigkeiten erscheint es deshalb vernünftig, drei Klassen von Beobachtungsresultaten zu unterscheiden: Verwerfung, Annahme und Urteilsenthaltung.
Wie wir bereits gesehen haben, fällt der Begriff der Verwerfung nicht mit dem Begriff der Widerlegung zusammen. Statistische Hypothesen können nicht falsifiziert werden. Es ist auch nicht möglich, definitiv zu entscheiden, welche statistischen Hypothesen auf Grund verfügbarer Daten zu verwerfen sind und welche nicht. Falsifikation bzw. Widerlegung ist etwas Endgültiges, während Verwerfung nichts Definitives, sondern etwas Provisorisches ist.
Eine statistische Hypothese ist genaugenommen weder empirisch falsifizierbar noch verifizierbar, was natürlich nicht impliziert, dass sie überhaupt nicht empirisch überprüfbar ist. Allerdings beinhaltet eine Beurteilung einer statistischen Hypothese immer den Bezug auf eine Klasse von Alternativhypothesen, die mit der zur Diskussion stehenden Hypothese konkurrieren. Die grundlegende theoretische Frage bei der Überprüfung von Hypothesen lautet deshalb: Welche Hypothese aus einer Klasse miteinander rivalisierender Hypothesen ist die am besten gestützte? Wie entscheiden wir zwischen Hypothesen? Wir gehen dabei nicht so vor, dass wir willkürlich herumschauen, welche Hypothese mit den gemessenen Daten übereinstimmt, sondern wir beurteilen die sogenannte Likelihood einer Hypothese. Was ist die Likelihood einer Hypothese? Sie ist die Wahrscheinlichkeit einer Hypothese, die tatsächlichen Beobachtungen zu machen, wenn die angenommene Hypothese zutrifft.
Wir gehen dabei so vor, dass wir in einem ersten Schritt die zur Diskussion stehende Hypothese als richtig ansehen. Dann stellen wir relevante Beobachtungen an und beurteilen die Wahrscheinlichkeit dafür, dass sich das, was sich tatsächlich ereignet hat, unter der fingierten Annahme der Wahrheit der statistischen Hypothese auch ereignen würde. Wir nehmen also die Ergebnisse als das, was sie sind, -- wir stellen die Ergebnisse selbst nicht in Frage -- und bewerten nun diese Daten daraufhin, wie wahrscheinlich sie sind, d.h. unter der Annahme, dass die Hypothese tatsächlich zutrifft. Dasselbe wird auch mit der oder den alternativen Hypothesen gemacht und dann diejenige Hypothese ausgewählt, die die größte Likelihood besitzt. Eine statistische Hypothese kann auf Grund verfügbarer Daten nur im Vergleich zu anderen, mit ihr rivalisierenden statistischen Alternativhypothesen beurteilt werden.
Nach der Likelihood-Testtheorie ist eine Hypothese also nicht bereits dann zu verwerfen, wenn sie eine geringe Likelihood besitzt, sondern erst dann, wenn eine andere Hypothese mit einer größeren Likelihood zur Verfügung steht. Im wissenschaftlichen Alltag wird dagegen gern verstoßen. Hier wird gelegentlich empfohlen: Verwirf eine statistische Hypothese h, wenn sich das, was sich tatsächlich ereignet unter der Annahme der Richtigkeit von h nur selten ereignet! Diese falsche Empfehlung sollte ersetzt werden durch: Verwirf eine Hypothese h nicht bereits dann, wenn das, was sich ereignet hat, unter der Annahme der Richtigkeit von h sehr selten ereignet; sondern verwirf die Hypothese h nur dann, wenn du eine bessere Hypothese hast. Obwohl der Begriff der Likelihood auf isolierte Aussagen angewendet wird, gründet sich jede Aussage über die Stützung von Hypothesen auf den Vergleich von Likelihoods. Nur wenn eine rivalisierende Alternativhypothese vorhanden ist, kann eine Stützungsaussage sinnvoll formuliert werden.
Wenn wir über die Prüfung und Stützung von Theorien sprechen, dann müssen wir nicht nur an die zu testende Hypothese und an die verfügbaren relevanten Beobachtungsdaten denken, sondern wir haben auch noch das Hintergrundwissen in Gestalt akzeptierter statistischer Hypothesen miteinzubeziehen sowie eine Testtheorie bzw. ein System von Verwerfungsregeln. Erst alle vier Komponenten zusammen erlauben uns, ein Urteil darüber zu fällen, ob wir eine Hypothese annehmen sollen oder nicht. Da gegen jede einzelne Komponente Kritik geübt oder deren Berechtigung bezweifelt werden kann, sollten letztendlich alle sorgfältig dokumentiert werden, um nachvollziehen zu können, wodurch die Hypothese gestützt wird. Außerdem haben wir zu berücksichtigen, dass wir zwei Arten von Irrtümern begehen können. Wir können eine wahre Hypothese irrtümlich für falsch halten und eine falsche Hypothese irrtümlich für richtig halten.
Wenn wir uns in unserem wissenschaftlichen Alltag mit statistischen Hypothesen beschäftigen, und dass wird in der überwiegenden Mehrzahl der Fall sein, dann sollten wir daran denken, wie anfällig das statistische Schließen für Fehler ist und dass wir gut beraten sind, unsere Methode sehr sorgfältig und kritisch zu überprüfen. Eine Fortsetzung der Argumente und leichte Einführung in die moderne statistische Methodenlehre finden Sie in meinem Buch "Statistik ohne Statistik".
{/jkefel} {jkefel title=[Kap. 10]}
10. Vernünftige Auswege
10.1 Ausgangspunkt
10.2 Wirklichkeit als Deutungssystem
10.3 Gemeinsame Sichtweisen
10.4 Vernunft
10.5 Vernünftiger Umgang mit Wissenschaft
Im letzten Kapitel möchte ich versuchen, Sie vor der absoluten Verunsicherung zu bewahren und Sie mit Gedanken vertraut machen, die einen Mittelweg einschlagen zwischen Skylla und Charybdis, zwischen absolutistischen, dogmatischen Ansichten einerseits und pessimistischen nihilistischen Ansichten andererseits. Um Ihnen einen sinnvollen Ausweg anzubieten, werden wir unsere Exkursion wie in einem Schnelldurchgang wiederholen und unsere irrigen Ansichten und Meinungen korrigieren.
10.1 Ausgangspunkt
Beginnen wir mit noch einmal an unserem Ausgangspunkt. Was implizieren wir, wenn wir von Wissen reden? Wir haben Wissen dadurch gekennzeichnet, dass wir es als richtige und begründete Überzeugung umschrieben haben. Eine bloße Meinung ist noch kein Wissen, auch dann nicht, wenn sie richtig sein sollte. Erst die Begründung konstituiert Wissen. Wenn jemand weiß, dass etwas der Fall ist, dann ist er davon überzeugt, dass er recht hat, und er kann gute Gründe dafür angeben. Er ist durch diese Gründe zu seiner Überzeugung gelangt. Gute Gründe zu haben, bedeutet aber nicht, dass sie uns absolute Gewissheit geben, sondern nur, dass wir uns relativ sicher sein können. Ein Irrtum ist niemals ausgeschlossen.
Jede Begründung wird irgendwann zu einem pragmatischen Ende kommen müssen, dessen Ende einen guten Grund impliziert. Absolute Begründungen sind nicht realisierbar. In vielen Kontexten erreichen wir eine Situation, wo wir keine weitere Begründung mehr erwarten oder bedürfen.
In den empirischen Wissenschaften wird als gute Begründung für eine Erkenntnis meistens eine Beobachtung angegeben, die zugleich als Überprüfungsinstanz fungiert. Dieser empirische Bezug ist aber weder losgekoppelt von theoretischen Annahmen noch von der subjektiven Stellung des Beobachters. Auch Beobachtungen können uns keine unbedingte Gewissheit geben. Beobachtungen haben als soziale Ereignisse den Vorteil, dass sie uns Gegenstände vermitteln, über die wir eine gemeinsame Erfahrung haben können. Beobachtungen sind das intersubjektive Fundament der Erfahrung, über die wir gemeinsam sprechen können.
Das Vertrauen, das wir Beobachtungen entgegenbringen, beruht prima vista auf unserer Wahrnehmung. Dasjenige, was wir wahr-nehmen, nehmen wir als wahr an, wir akzeptieren es als richtig bzw. adäquat, weil wir glauben, das es direkt unseren Sinnen dargeboten wird. Erst eine genauere Analyse des Wahrnehmungsprozesses offenbarte die verdeckten sozialen und intellektuellen Bedingungen dieses komplexen Prozesses. Eine Tatsache offenbart sich als Resultat einer Tätigkeit.
Es ist zwar die Natur bzw. Umwelt, die uns Informationen mitteilt, aber es ist der Mensch, der diese Informationen strukturiert. Es ist das Erkenntnisvermögen des Menschen, das in die Vielfalt der Natur eine gewisse Ordnung bzw. Struktur projiziert. Die Mannigfaltigkeit der Informationen wird erst durch uns Menschen zu Gegenständen konstituiert und deren Beziehungen werden erst durch uns strukturiert. Damit erleichtern wir den Umgang mit der Komplexität der Natur. Unser Erkenntnisvermögen ist die Voraussetzung, um Gegenstände zu klassifizieren, und sie damit übersichtlicher zusammenzufassen, und um Gesetzmäßigkeiten zu formulieren, aus denen wir Prognosen ableiten können. Unser geistiges Vermögen, Strukturen zu konstituieren und Ähnlichkeiten zu erkennen, ist so eine unabdingbare Voraussetzung, um zu umfassendem Wissen zu gelangen. Dabei bleibt aber zunächst völlig offen, welche der widerstreitende Methoden der Strukturierung als wissenschaftlich oder “besser” angesehen wird. Zunächst muss sie nur erfolgreich und passend auf die Informationen der Umwelt reagieren. Es ist nicht die Natur, die uns eine bestimmte Struktur vorschreibt, sondern es ist der Mensch, der sich eine geeignete Struktur aussucht, die ihm als passend und fruchtbar erscheint.
Nach unserem naiven Verständnis von Wissenschaft gingen wir primär davon aus, dass sich unsere wissenschaftliche Tätigkeit an der Natur ausrichten sollte. Wissenschaft schien darauf ausgerichtet, die Realität zu erkennen und sie nach Regelmäßigkeiten zu erforschen. Indem wir diese Regelmäßigkeiten erkennen, glauben wir, die Natur zu enträtseln, der Wahrheit immer näher zu kommen und zu einem immer besseren Verständnis der Realität zu gelangen. Diese naive Auffassung von der Realität scheint zwar für den Wissenschaftler zunächst unabdingbar, weil er unterstellen muss, dass es so etwas wie eine Realität gibt, die von uns zwar unabhängig, aber grundsätzlich erkennbar ist, aber sie ist trotzdem falsch. Auch der Wissenschaftler muss am Ende akzeptieren, dass er primär an der Herstellung der Wirklichkeit beteiligt ist, die eine konstruktive und kreative Leistung des Menschen ist.
Damit kann sich der Wissenschaftler auch nicht mehr der Verantwortung entziehen. Er kann nicht einfach auf die Natur bzw. Sachzwänge verweisen, wenn Fehlentwicklungen offenbar werden. Es ist immer der einzelne Mensch mit seinen Entscheidungsmöglichkeiten, der sich zu einem bestimmten Umgang mit seiner Umwelt und Konstitution seiner Wirklichkeit bekennt. Diese Verantwortung kann er nicht ablegen oder delegieren.
Die moderne Wissenschaft enthält mathematische Strukturen, die alles bisherige an Systematik und Allgemeinheit übertreffen. Doch um diesen Strukturen zu entsprechen, wurden alle bestehenden Schwierigkeiten bei der Formulierung von Gesetzmäßigkeiten und Theorien beiseite geschoben oder durch ad-hoc Näherungen oder andere approximative Verfahren verdeckt. Während empirische Gesetze nur Tatsachen beschreiben, die regelmäßig ablaufen, werden Theorien aufgestellt, um auch diese Abläufe noch erklären zu können. Die ersteren werden entdeckt, indem wir in den Tatsachen nach ihnen suchen, und die letzteren werden erfunden, um sie uns verständlich zu machen. Die Formulierung von Theorien ist der schwierigste kreative Akt, der vom Menschen Kraft seines Verstandes vollzogen wird. Es ist deshalb auch nicht verwunderlich, dass Theorien quantitative Ergebnisse nicht exakt voraussagen und dass sie zum Teil auch qualitativ unzulänglich sind. Nicht selten lieferte uns die Wissenschaft Theorien von großer Schönheit und großem Scharfsinn, -- die sich leider später als falsch erwiesen.
Vergessen Sie nicht, dass die Durchführung einer wissenschaftlichen Studie eine genuin praktische Tätigkeit ist, die sich nicht von den Zwängen der menschlichen Bedingungen befreien kann. Um den Wissenschaftsprozess zu verstehen, ist es nicht hinreichend, sich lediglich auf Abstraktionsprozesse, logische Verfahren oder Korrelationen zwischen Daten zu beziehen, die nur das Ziel haben, Gesetzmäßigkeiten zu demonstrieren. Da die in den Studien bzw. Experimenten gewonnenen Erkenntnisse lediglich unter den Beschränkungen der Studie bzw. des Experimentes gültig sind, muss die Interpretation in ein ganzheitliches Konzept der Welt eingebettet werden. Erst die gedeuteten Daten geben uns dann einen adäquaten Eindruck über die Wirklichkeit.
In derselben Weise müssen auch die Ergebnisse der Forschung bewertet werden. So sagen uns zwar die empirischen Gesetze, wie die Wirklichkeit sich unserer Meinung nach regelhaft verhält, aber die Gesetze sind keine Eigenschaft der Realität, sondern ein Produkt des menschlichen Verstandes. Wir müssen uns damit abfinden, dass wir nur mit Modellen operieren, die Konstrukte unseres Verstandes sind. Sowohl die Klassifikationen durch Abstraktion als auch die Durchführung von Experimenten und Studien beinhaltet immer die Möglichkeit, dass wir unserer Wirklichkeit zu sehr Gewalt antun, sie verzerren. Begründen können wir diese Annahme aber nicht, weil wir nicht wissen, wie die Realität tatsächlich beschaffen ist. Sollten wir uns irren, werden wir durch die Realität allerdings schnell eines Besseren belehrt. Ist unsere Theorie über eine Erkrankung falsch und dadurch die Therapie inadäquat, wird der Patient nicht geheilt oder er stirbt sogar. Irrt sich der Landwirt bei der Bestellung seiner Getreidefelder oder bei seiner Hühnerzucht, wird er auf dem Feld kein Getreide ernten bzw. keine Eier verkaufen. Der Erfolg unserer wissenschaftlichen Tätigkeit lässt sich sehr häufig in der Praxis ablesen. Die Realität teilt uns nicht mit, wie sie tatsächlich ist, sondern sie teilt uns nur mit, wie sie nicht beschaffen ist, indem wir für unsere Fehler bestraft werden.
10.2 Wirklichkeit als Deutungssystem
Wir haben gesehen, dass die Wirklichkeit, in der wir leben, kein einfaches isomorphes Abbild einer klar strukturierten Außenwelt bzw. Realität ist, sondern immer eine vom Menschen beschriebene Wirklichkeit und als solche immer auf bestimmte Beschreibungssysteme verwiesen ist. Es sind nicht die Gegenstände der Realität als solche, die erkannt werden, sondern es sind immer bereits gedeutete Informationen. Wir erkennen deshalb einen Gegenstand immer als einen bestimmten Gegenstand. Nur innerhalb solcher Deutungssysteme können wir über Wirklichkeit sprechen. Da es mehrere erfolgreiche Deutungssysteme gibt, folgt daraus, dass es auch mehrere “interpretierte” Wirklichkeiten bzw. Welten gibt.
Nachdem Immanuel Kant darauf hinwies, dass die Struktur der Welt nicht durch die Natur als solche vorgegeben ist, sondern durch unser geistiges Vermögen konstituiert wird, werden wir heute noch einen Schritt weiter gehen müssen. Wir können nicht mehr behaupten, dass es nur eine einzige vorgefundene Wirklichkeit bzw. Welt gibt und damit nur eine einzige Wahrheit, sondern es werden vom Menschen mehrere Versionen der Wirklichkeit geschaffen, die zum Teil im Konflikt miteinander stehen.
Diese neue Sichtweise wird wahrscheinlich bei Ihnen auf ein gewisses Unbehagen stoßen. Was können wir damit meinen, dass es nicht nur eine Wirklichkeit und Welt, sondern mehrere Welten geben soll? Nun, die Antwort liegt darin, dass unser Zugang zu jeder Beschreibung der Wirklichkeit an ein bestimmtes Deutungssystem bzw. Paradigma gebunden ist, in dem jeder Gegenstand als ein bestimmtes Etwas interpretiert wird. Da unsere Eindrücke von den Gegenständen unterbestimmt sind, bedürfen sie einer zusätzlichen Interpretation im Lichte des Paradigmas. Wir bleiben somit auf interpretierte Beschreibungssysteme beschränkt, wenn wir über die Wirklichkeit reden. Durch die Struktur und Inhalte der Deutungssysteme ist festgelegt, was in Wirklichkeit überhaupt existieren kann und wie es erkennbar ist -, Deutungssystem bzw. Paradigmen definieren den Horizont unserer Welt, unseres Seins.
Wir sollten akzeptieren, dass es wenig Sinn macht von der einen einzigen Wirklichkeit zu sprechen, die wir enträtseln wollen. Auch die Rede von der Wahrheit ist sinnleer, weil wir über eine ausgezeichnete Wirklichkeit nicht reden können. Der Physiker, der Phänomenalist und der Mediziner leben je in ihrer eigenen Welt. So schrieb der Philosoph Nelson Goodman: „Der Physiker hält seine Welt für die reale, indem er Tilgungen, Ergänzungen, Unregelmäßigkeiten und Betonungen anderer Versionen der Unvollkommenheit der Wahrnehmung, den Dringlichkeiten der Praxis oder der dichterischen Freiheit zuschreibt. Der Phänomenalist betrachtet die Wahrnehmungen als fundamental, die Beschneidungen, Abstraktionen, Vereinfachungen und Verzerrungen anderer Versionen hingegen als Ergebnis von wissenschaftlichen, praktischen oder künstlerischen Interessen. Für den Mann auf der Straße weichen die meisten Versionen der Wissenschaft, der Kunst und der Wahrnehmung auf mancherlei Weise von der vertrauten und dienstbaren Welt ab, die er aus Fragmenten der wissenschaftlichen und künstlerischen Überlieferung und aus seinem eigenen Überlebenskampf zusammen gebastelt hat. Am häufigsten wird in der Tat diese Welt für real gehalten; denn Realität in einer Welt ist - wie der Realismus eines Bildes - größtenteils eine Sache der Gewohnheit.“
Jede Welt oder Wirklichkeit erklärt alles, aber jede erklärt alles anders. Zwischen ihnen besteht zum Teil ein unaufhebbarer Widerstreit, weil es keine gemeinsame Grundlage der Beurteilung gibt. Wahrheit verliert so ihre objektive Bedeutung und wird kontext-abhängig. Der Wahrheitsanspruch wird relativiert auf das jeweilige Deutungssystem. Es gibt jetzt nicht nur eine Wirklichkeit und eine Wahrheit, sondern verschiedene, so dass widerstreitende Behauptungen in verschiedenen Welten wahr sein können. Wahrheit verliert ihren absoluten Stellenwert, sie kann keinen absoluten Geltungsanspruch über die verschiedenen Welten hinweg mehr erheben. Sie ist jetzt relativiert auf das entsprechende Deutungssystem, sie muss sich ebenfalls orientieren. Wahrheit definiert sich selbst als dasjenige, was in dem entsprechenden System wahr sein soll. Wahrheit reduziert sich so auf die Kohärenz der Aussagen in einem logischen und ästhetischen Kontext. Die Aussagen müssen passen und plausibel sein. Damit hat die “wissenschaftliche” Wahrheit ihre Exklusivität verloren, insofern sie beansprucht, uns mitzuteilen, wie die Welt tatsächlich strukturiert ist.
Offensichtlich hat jede Welt-Version, -- definiert durch ihr Deutungssystem --, auch ihr eigenes relatives Fundament bzw. ihren eigenen Bezugsrahmen. Die Wahrheit jeder Aussage ist selbstverständlich nur überprüfbar innerhalb des Interpretationsrahmens, wobei keines der relativen Fundamente universale Gültigkeit beanspruchen kann. Damit wird auch verständlich, warum verschiedene Menschen, die ihren Erkenntnissen unterschiedliche Deutungssysteme zugrunde legen, zu unterschiedlichen Aussagen kommen und ihren Wahrheitsanspruch vehement verteidigen. Wahr zu sein, ist jetzt nur noch ein Merkmal relativ zu einem Interpretationsrahmen, innerhalb einer Weltversion. Das bedeutet allerdings nicht, dass wir beliebige Deutungssysteme einführen können, dass Theorien nicht auch falsch sein können. Innerhalb des Deutungsrahmens werden wir sehr wohl Wahres von Falschem unterscheiden müssen. Schwierig wird es nur, wenn wir die Geltungsansprüche zwischen verschiedenen Systemen klären bzw. ihnen gerecht werden wollen. Hier scheint lediglich ein pragmatischer Ansatz ein intersubjektives Kriterium zu sein, denn das Gelingen oder Misslingen einer Handlung ist von verschiedenen Handelnden interpretierbar.
Diese mehr abstrakten Argumente klingen für sie wahrscheinlich fremdartig. Sie scheinen konsistent aus dem Vorhergehenden abgeleitet und möglicherweise erkennen Sie auch intuitiv, dass die Argumentation korrekt ist. Aber da Ihnen wahrscheinlich kein konkretes Beispiel einfällt, halten Sie die Gedanken für „verdreht“. Es gibt viele Beispiele für die Richtigkeit des Gesagten, die Sie selbst täglich vielfach erleben. Betrachten Sie zum Beispiel die Diskussion von Politikern und selbst von Wissenschaftlern (einschließlich der Gutachter) über Umweltfragen, die allesamt zu völlig unterschiedlichen Meinungen und Empfehlungen kommen. Alle sind gut fundiert und passend. Welche ist die Richtige? Bedenken Sie die Entscheidungen für oder gegen eine spezielle medizinische Therapie bei komplexen Krankheitsbildern. Wenn Sie 5 Ärzte konsultieren, erhalten Sie nicht selten 5 Meinungen, die sich möglicherweise gravierend unterscheiden. Wie steht es mit Aussagen über moralisches Verhalten in verschiedenen Kulturkreisen? Kann man auch hier verbindlich für alle behaupten, dass nur bestimmte Handlungsweisen moralisch gerechtfertigt sind? Wie steht es mit aktuellen Konflikten im Gesundheitswesen? Hier stehen sich politische, wirtschaftliche, soziale und individuelle Gesichtspunkte gegenüber, die jede für sich Rationalität beanspruchen.
Wovon Sie sich verabschieden sollten, ist der zwar berechtigte, aber unsinnige Wunsch, sich an einer ausgezeichneten und definitiven Wahrheit festhalten zu können, der Ihre Entscheidung auf ein sicheres Fundament stellt. Dieses Fundament ist eine Illusion. Lernen Sie, mit unterschiedlichen Wahrheiten fertig zu werden. Akzeptieren Sie die unterschiedlichen Meinungen anderer Menschen, die genauso für sich beanspruchen, richtig zu sein. Lernen Sie einen vernünftigen Umgang mit anderen Meinungen, denn das ist der einzige fruchtbare Weg in unserer pluralistischen Gesellschaft.
Aus unseren Ausführungen lernten wir, dass wir über eine von uns unabhängige Realität nicht sprechen und aus unserer konstruierten Welt nicht ausbrechen können. Wir haben uns mit der Beschränktheit unseres intellektuellen Vermögens abzufinden und müssen darauf verzichten, ewige Prinzipien und Wahrheiten aufzustellen. Wir können uns als Lebewesen lediglich für eine gewisse Zeit der Illusion hingeben, dass wir eine “sichere” Position erworben hätten, so dass es keine Rechtfertigung gibt, intolerant gegenüber andersartigen Auffassungen oder Denkweisen zu sein. Diese intellektuelle Einstellung sollten wir uns insbesondere dann in Erinnerung rufen, wenn wir uns besonders sicher fühlen und glauben, über Erkenntnisse zu verfügen, die “absolut” verlässlich sind und von denen wir niemals abzurücken bereit sind. Wir sollten unser Leben also nicht darauf ausrichten, Strukturen zu entdecken, die auf ewig gesichert sind, sondern wir sollten uns damit abfinden, dass wir nur Justierungen an unserem Bild über die Wirklichkeit vornehmen können. Dieses Schicksal gilt es zu ertragen.
10.3 Gemeinsame Sichtweisen
Wenn es diverse Welten gibt, lassen sie sich ineinander transformieren oder irgendwie aufeinander reduzieren, um unsere ursprüngliche Idee einer einzigen Realität doch nicht aufgeben zu müssen? Diese Frage werden wir wohl verneinen müssen, weil jedes Deutungssysteme einen Ausschließlichkeitsanspruch erhebt und sie vielfach unvergleichlich miteinander sind.
Es gibt keinen archimedischen Punkt, keinen externen Standpunkt, von dem aus wir darüber urteilen können, ob wir die Wirklichkeit so sehen, wie sie tatsächlich ist. Wir können eine Version über unsere Welt nicht dadurch prüfen, dass wir sie mit einer nicht beschriebenen oder nicht wahrgenommenen Welt vergleichen, sondern nur indem wir sie mit anderen Beschreibungen vergleichen. Wir können die Natur immer nur aus der Sicht eines Menschen betrachten, geprägt von dem menschlichen geistigen Vermögen und gefangen in einem Begriffssystem, mit dem wir unsere Meinungen ausdrücken. Wir werden nicht umhin kommen, auch den Anspruch aufzugeben, eine bezugsneutrale Matrix zu finden, die es uns gestattet zu beurteilen, wie die Realität tatsächlich ist.
Die Wahrheit über die Realität zu erfahren, war der Ausgangspunkt unseres wissenschaftlichen Strebens. Wir haben erkennen müssen, dass es diese eine “monistische” Realität nicht gibt, sondern nur verschiedene Welten bzw. Wirklichkeiten in Abhängigkeit von verschiedenen Deutungssystemen als Ausdruck eines Pluralismus. An die Stelle einer einzigen Realität, an die wir uns immer mehr annähern wollten, tritt von nun an ein Pluralismus von Kulturen, Überzeugungen und Beschreibungsformen, denen wir gerecht werden müssen.
Der relativistische Standpunkt, dass es keine absolute Position, keinen archimedischen Punkt gibt, bedeutet aber nicht, dass es nicht einen Standpunkt geben kann, der begründbar ist. Da wir uns endgültig davon verabschiedet haben, absolut letzte Begründungen zu suchen, werden wir uns mit guten und vielfachen Begründungen zufrieden geben müssen. Wir erwarten im Grunde genommen auch keine Letztbegründungen, sondern halten überschaubare Gründe für ausreichend, wenn wir mit den daraus ableitbaren Konsequenzen oder Alternativen einverstanden sind. Es wird jetzt nicht mehr irgendeine Instanz für die Güte der Begründungen verantwortlich gemacht, sondern der Mensch im Kommunikationsprozess. Gute Gründe zeichnen sich dadurch aus, dass sie in einem bestimmten Kontext als hinreichend angesehen werden, was natürlich bedeutet, dass sie in anderen Kontexten oder Kulturbereichen nicht unbedingt auch gelten müssen. Alle Begründungen und Bestimmungen von Sachverhalten sind so letztlich eingebettet in ein System von Relationen, sie unterliegen der Relativität. Sie gelten immer nur in einem bestimmten Rahmen bzw. unter bestimmten Bedingungen.
Die Entscheidung zugunsten eines bestimmten Deutungssystems ist zugleich auch die Verneinung bzw. Ablehnung von anderen. Ausgewählte Deutungssysteme setzen Fakten und schränken die weitere Auswahl ein. Wir grenzen mithin unsere Entwicklungsmöglichkeiten mit der Entscheidung zugunsten eines Systems ein. Mit unserer Wahl konstituieren wir ein Netzwerk von akzeptierten Auffassungen über unsere Welt, die zwar nur relativ hierzu gültig sind, die wir aber als festgefügte Struktur erleben und nur durch weitere Justierungen verändern. Da wir vor Fehlentscheidungen nicht geschützt sind und möglicherweise Deutungssysteme ausgewählt haben, die uns andere, vielleicht sogar bessere Methoden verschließen und uns in selbsterzeugte Probleme verstricken, sollten wir uns als Handlungsmaxime Toleranz und Offenheit zu eigen machen. Wir sollten gegenüber den Justierungen flexibler reagieren, weniger dogmatisch, mehr aufeinander zugehend, aufklärender und neugieriger.
Warum entwickeln wir überhaupt solche Deutungskonzepte, was ist der Ursprung eines Paradigmas? Wir haben bereits früher gesehen, dass Wahrnehmung und Begreifen aufeinander angewiesen sind. Begreifen ohne Wahrnehmung ist zwar leer, aber Wahrnehmung ohne Begreifen ist völlig blind. Wir können zwar Wörter verwenden, die sich auf nichts in der Welt beziehen, aber wir können uns nicht auf eine Welt beziehen oder über sie kommunizieren, ohne Wörter oder andere Symbole zu gebrauchen. Unsere Urteile über Beobachtungen werden nicht direkt durch einfache Sinneseindrücke festgelegt, sondern in einem komplexen Prozess von uns gebildet. Dabei spielt die innere Kohärenz bei der Bewertung des Urteils eine entscheidende Rolle, weil sie zu den anderen für wahr gehaltenen Annahmen unbedingt gewahrt bleiben muss. Erst durch die innere Konsistenz können die Urteile über die gesamten Annahmen über den Aufbau der Welt systematisiert werden - unter einem Paradigma.
Die Entwicklung von Paradigmen beruht also einerseits darauf, dass unsere empirische Erfahrung unterbestimmt ist und einer Interpretation bedarf, und andererseits darauf, dass wir uns nur in einer Sprache sinnvoll auf die Wirklichkeit beziehen können -- wir können unsere Meinungen nur in einer Sprache Ausdruck verleihen. Ohne ein gemeinsames Deutungssystem würde die Kommunikation zwischen Menschen nicht gelingen. Wir akzeptieren das Paradigma, weil wir es zur persönlichen und gemeinsamen Orientierung benötigen - sowohl in theoretischer als auch in praktischer Hinsicht.
Außerdem steigern Paradigmen die Effizienz unserer Tätigkeiten, weil sie bestimmte Sachverhalte nur von einer Seite her beleuchten und damit den Umgang mit der Wirklichkeit vereinfachen. Sie erheben für ihren Anwendungsbereich einen Ausschließlichkeitsanspruch, indem sie nur die eigene Interpretation der Sachverhalte zulassen. Die Beschränkung auf eine Interpretation ist zum Teil wünschenswert, weil ein Forscher, der sich ganz auf eine bestimmte Deutung der Theorie konzentriert, effektiver und produktiver arbeiten kann. Die Ausblendung von störenden anderen Anschauungsweisen ist für den Wissenschaftler hilfreich. Der Wissenschaftler muss bei seinen Studien und Experimenten immer irgendwie selektieren; er muss sowohl sein Interessengebiet abstecken als auch seine Methoden definieren. Erst dann kann er mit den durch das Paradigma bereitgestellten Mitteln und Methoden anfangen, tätig zu werden. Das Paradigma muss sich allerdings als leistungsfähig erweisen, es muss adäquate Mittel zur Verfügung stellen, um neue Erkenntnisse zu erschließen, die sich praktisch umsetzen lassen. Erst wenn einerseits die Kohärenz des Weltbildes gesichert ist und andererseits die Leistungsfähigkeit nachgewiesen wurde, halten wir ein Paradigma für erfolgreich.
Allerdings beinhaltet das Paradigma nicht nur den Kern einer Theorie oder impliziert nur einfache Methoden, sondern es ist ein weitgespanntes Netz von Ansichten und Handlungsempfehlungen. Dieses Netz muss sich vielfach bewähren und steht aufgrund seiner weitverzweigten Ausläufer zwangsläufig mit einigen plausiblen Sachverhalten oder anderen Paradigmen in Widerspruch. Nicht selten werden von anderen Paradigmen sogar bessere Alternativen aufgezeigt oder das eigene Paradigma erweist sich zur Bewältigung wichtiger Probleme als nicht hilfreich. Erst in solchen Konfliktsituationen wird offenbar, welche relative Gültigkeit das Paradigma besitzt - schließlich formuliert es doch nur Rahmenbedingungen, innerhalb derer es gilt und außerhalb derer es nicht gilt. Es ist eine der Aufgaben der Vernunft, diese Rahmenbedingungen des Paradigmas zu ergründen und seine Ansprüche im Verhältnis mit anderen zu klären.
Jedes Paradigma definiert seine eigenen Prinzipien, die zugleich das Paradigma konfigurieren und damit seine eigene Logik festlegen. In diesem Sinne stabilisiert sich das Paradigma selbst. Es benötigt zur Rechtfertigung nur sich selbst. Es muss aber den Nachweis erbringen, in den relevanten Bereichen leistungsfähig zu sein. Ein Paradigma wird nämlich nur dann von uns angenommen, wenn es pragmatisch erfolgreich ist und uns die Welt erschließt. Wenn es nicht hilft, uns in der Welt zu orientieren, dann wird es erfolglos bleiben und sich selbst auslöschen. Es geht also entweder an sich selbst zugrunde oder es wird verdrängt. Es wird nicht durch andere Paradigmen widerlegt, denn Paradigmen können nicht argumentativ “überwunden” werden.
Wir haben erkannt, dass es keine verbindlichen und sicheren Kriterien gibt, die ein Deutungssystem gegenüber einem anderen auszeichnen und dass es mehrere plausible Deutungssystem gibt. Die Konsequenz ist eine pluralistische Welt. Wir leben in einer Welt mit “gültigen” multiplen Beschreibungssystemen. Da jedes Paradigma für sich wahr ist und es mehrere Paradigmen gibt, die zum größten Teil unvergleichlich miteinander sind, sind widersprüchliche Urteile und Handlungsanweisungen nicht ungewöhnlich.
10.4 Vernunft
Wie aber sollen wir uns verhalten, wenn unterschiedliche Paradigmen jeweils für sich beanspruchen, “wahre” Sätze zu formulieren bzw. rationale Handlungen zu begründen? Wie können wir vernünftig zwischen plausiblen und gleichwertigen Alternativen entscheiden? Welche Funktion spielt dabei die Vernunft? Was ist Vernunft? Was verstehen wir unter “vernünftig” oder “rational”?
“Vernunft”, “Vernünftigkeit” und “Rationalität” sind Begriffe, die wir immer dann verwenden, wenn wir glauben, dass etwas mit Bedacht getan werden soll, wenn wir wichtige Entscheidungen treffen oder wichtige Handlungen bewerten. Wir leben in einer Welt voller Imperative, wie: Gebrauche Vernunft! Lebe vernünftig! Richte Dein Leben nach rationalen Prinzipien aus! Bei näherer Betrachtung zeigt sich, dass die Verwendung dieser Begriffe nicht ganz unproblematisch ist, weil sie in den verschiedenen Kontexten unterschiedliche Bedeutungen haben. Wir wollen deshalb eine Begriffsbestimmung versuchen, die einerseits eine konsistente Verwendung der Begriffe zulässt und andererseits sowohl den historischen als auch aktuellen Ansprüchen gerecht wird.
Gibt es eine Abgrenzung zu Vernunft und Rationalität? In unserem alltäglichen Sprachgebrauch unterscheiden wir durchaus zwischen dem, was vernünftig ist, und dem, was bloß als rational bzw. verstandesmäßig angesehen wird. Der Ursprung dieses Unterschiedes lässt sich bis in die Antike zurückverfolgen. Bereits bei Aristoteles wurde mit “nous” (später “intellectus”) das geistige Vermögen bezeichnet, das in der Lage ist, intuitiv die Prinzipien zu erkennen. Prinzipien müssen unmittelbar erfasst werden, weil sie nicht durch eine andere intellektuelle Tätigkeit abgeleitet werden können. Nur durch den Nous gelangt der Mensch zu den nötigen Einsichten, die ihm ein umfassendes Bild vermitteln. Es ist das “höchste” geistige Vermögen des Menschen. Traditionellerweise war die Vernunft auch das Vermögen, um Verschiedenes als Momente der Einheit zu begreifen. Immer dann, wenn Unterschiede oder Widersprüche auftauchten, sollten diese durch Vernunft überwunden werden.
Mit “logos” (später “ratio”) wurde dagegen das “niedere” Vermögen bezeichnet, das schlussfolgert, das aus Begriffen und Sätzen andere Sachverhalte ableiten konnte, das logisch operiert. Nach wiederholtem Bedeutungswechsel der Begriffe in der Geistesgeschichte finden diese Vermögen ihre deutsche Übersetzung in “Verstand” als untergeordnetem und “Vernunft” als übergeordnetem Vermögen.
Die Vernunft ist das höhere Vermögen, weil sie für sich beansprucht, Einsicht in das Ganze nehmen zu können, während der Verstand der Argumentation und Logik verhaftet bleibt. Die Vernunft ist weniger an den einzelnen Erkenntnissen oder ihren logischen Zusammenhängen interessiert, als daran, das Ganze zu überblicken; sie will in der Vielfalt die Einheit hervorbringen, das Gemeinsame betonen, integrieren.
Der Verstand kümmert sich dagegen mehr um Klassifikationen und Diskriminationen. Er versucht Verständlichkeit herzustellen, indem er uns etwas begreiflich macht. Das Einzelne wird als besonderer Fall des Allgemeinen angesehen. Der Verstand blickt vom Allgemeinen auf das Besondere, indem er weitgehend alle Besonderheiten ausklammert. Dadurch ist der Verstand egalisierend und homogenisierend. Er sieht von den spezifischen Besonderheiten des Individuums, des Gegenstandes, des Ereignisses ab. Die unendliche Fülle an Details, an Informationen wird reduziert und in übersichtlichen Begriffen strukturiert und geglättet. Erst durch diese Verstandestätigkeit können wir die einzelnen Vorgänge in der Natur als gesetzesartig begreifen. Der Verstand zielt auf Berechenbarkeit und versucht deshalb die Mathematik zum Kanon der Wissenschaft zu erheben. Der Intention nach versucht der Verstand die Natur zu beherrschen, indem sich die einzelnen Dinge den durch den Verstand konstituierten allgemeinen Ansichten unterzuordnen haben, - damit sie begreiflich und verständlich werden.
Die beschriebene Verstandestätigkeit entspricht demjenigen, was auch unter der kognitiv-instrumentellen Rationalität bekannt ist. Mit ihr verknüpfen wir Kriterien der Effizienz. Sie ist ein mehr technisches Vermögen, das uns hilft, korrekt und systematisch über die Wahrheit von Aussagen zu urteilen und zweckgerichtete Entscheidungen zu fällen. Auch wenn sich diese kognitiv-instrumentelle Rationalität in der Vergangenheit als sehr effektiv erwiesen hat und den technischen und wissenschaftlichen Fortschritt ermöglichte, fehlt es ihr doch an der Fähigkeit, die Frage nach dem Sinn zu beantworten oder uns eine Reflexion auf unsere Ziele zu ermöglichen. Sie ist nicht geeignet, unserem Leben Sinn zu vermitteln oder uns als Orientierungshilfe zu dienen. Würde die Vernunft völlig auf die kognitiv-instrumentelle Rationalität reduziert, dann würde es zur Vorherrschaft der wissenschaftlichen Erkenntnis und Technologie über alle Lebensräume hinweg führen. Wir würden unser Leben nur noch an der technischen Machbarkeit ausrichten und alle anderen Aspekte ausklammern, die unser gegenwärtiges Leben so lebenswert machen.
Was ist Rationalität? Als “rational” bezeichnen wir in der Regel ein Verhalten, das bestimmten Rationalitätskriterien folgt, sich ihnen unterordnet. Sie ist eine Verständigkeit. Nach Habermas ist die Rationalität ein kommunikatives Vermögen, das auf Konsens ausgerichtet ist. Rationalität liegt genau dort vor, wo Argumente begründet werden, wo Geltungsansprüche eingelöst werden. Damit wird Rationalität als kommunikative Instanz bestimmt, sie vollzieht sich nicht mehr durch Reflexion des einzelnen Individuums auf sich selbst, sondern in der erfolgreichen Verständigung zwischen Individuen, sie ist eine Angelegenheit zwischen Menschen. Je nachdem, ob es sich um eine kognitiv-instrumentelle, moralisch-praktische oder ästhetisch-expressive Äußerung handelt, werden auch drei Rationalitäten unterschieden.
Diese Dreiteilung in verschiedene Rationalitäten hat ihren Ursprung in der abendländischen Philosophie, die schon immer zwischen theoretischen, praktischen und ästhetischen Aspekten unterschieden hat. Es war deshalb nur konsequent, wenn den unterschiedlichen Arten der Äußerungen auch verschiedene Rationalitäten zugeordnet wurden. Diese Differenzierung verschiedener Rationalitäten förderte das auseinander Treten der kognitiven Wahrheit, der moralischen Richtigkeit und der ästhetischen Wahrhaftigkeit. Wissenschaft, Moral und Kunst werden als getrennte Bereiche angesehen, die jeweils anderen Rationalitätskriterien unterliegen.
Die verschiedenen Rationalitäten scheinen sich zu spezialisieren und gegenseitig auszugrenzen. So werden in der modernen Entscheidungstheorie durch die kognitiv-instrumentelle Rationalität festgelegt, welches der rationale Weg ist, um einen bestimmten Zweck zu erreichen, aber Fragen des Geschmackes oder moralischer Werte bleiben bei der Auswahl des angestrebten Zieles bewusst unberücksichtigt. Die Vernünftigkeit in der Auswahl des Geschmackes oder moralischer Werte ist nicht durch die kognitiv-instrumentelle Rationalität bewertbar. Beschreibende Sätze über Sachverhalte werden offensichtlich nach anderen Kriterien bewertet als Vorschriften, die festlegen, was moralisch richtig ist.
Die moralisch-praktische Rationalität versucht uns dagegen anzuleiten, wie wir richtig handeln sollen. Sie versucht uns gute Gründe für unsere Handlungen zu geben, die kontextgebunden sind und relativ auf unseren kulturellen Hintergrund interpretiert werden müssen. Sie erfordert Lebenserfahrung, Umsicht und Urteilskraft.
Häufig treten zwischen moralischen und faktischen Ansprüchen auch Widersprüche auf, die unaufhebbar erscheinen. Würden wir versuchen, den Widerspruch dadurch aufzulösen, indem wir uns nur nach moralischen Rationalitätskriterien richten, dann werden wir den faktischen Ansprüchen wahrscheinlich genauso wenig gerecht wie den moralischen, wenn wir nach den Kriterien der instrumentellen Rationalität handeln. Die einzelnen Rationalitäten können uns offensichtlich nicht immer helfen, vernünftige Entscheidungen zu treffen. Es ist in solchen Fällen die Aufgabe der Vernunft, und nicht die der Rationalitäten, aufklärend für Gerechtigkeit zwischen den Ansprüchen der Rationalitäten zu sorgen.
Die Einteilung in verschiedene Rationalitäten erscheint prima vista durchaus gerechtfertigt. Während von einigen Befürwortern behauptet wird, dass es sich um inkompatible Rationalitätstypen handelt, die autonom sind und sich auch klar voneinander unterscheiden, wurde in jüngster Zeit Zweifel an dieser Teilung laut. Welsch hat in seinen Untersuchungen gezeigt, dass alle drei Rationalitäten immer irgendwie miteinander vernetzt sind und ein klare Trennung nicht möglich ist. Es ist deshalb eine Fiktion, anzunehmen, dass sich die unterschiedlichen Typen unabhängig voneinander konstituieren. Sie sind vielmehr eng untereinander verflochten und verweisen aufeinander. Keine der Rationalitäten kann letztlich ohne Bezug auf die andere existieren.
Angenommen, die Rationalitätstypen sind tatsächlich autonom, dann könnte es im Konfliktfall keine angemessene Entscheidung geben, weil es keine Regel oder Ähnliches gäbe, die gemeinsam auf die verschiedenen Rationalitäten anwendbar wäre. Wie sollen wir dann in widersprüchlichen Situationen entscheiden? Wie sollen wir vernünftig handeln? Von einem vernünftigen Vorgehen mit solchen Widersprüchen, wie sie ja tatsächlich immer wieder auftreten, erwarten wir sorgfältige Umsicht sowie Findigkeit in der Problembewältigung. Dazu muss die Vernunft sich auf die sich widersprechenden Positionen einlassen, sie muss ihre Gemeinsamkeiten und Unterschiede kontourieren.
Was zeichnet Vernunft gegenüber der Rationalität oder Verstandestätigkeit aus? Vernunft geht über die jeweils spezifische Rationalität hinaus, sie blickt über den Zaun des Verstandes hinweg, sie ist ein weiterblickendes Vermögen, für das Ganze zuständig und mit Einsicht verknüpft. Vernunft ist einsichtig und weitsichtig. Sie soll das Ganze in Betracht ziehen und den einzelnen Bestandteilen gerecht werden, damit unsere Handlungen nicht an einseitigen Interessen ausgerichtet sind. Vernunft verweist damit auf die Eigenschaft des Menschen zum kritischen Nachdenken und auf die Fähigkeit, mit unterschiedlichen und sich widersprechenden Ansichten umzugehen. Vernunft macht sich stark für alle Beteiligten und versucht ihnen gerecht zu werden. Im Gegensatz zur einzelnen Rationalität, die sich zum Anwalt einer bestimmten Hinsicht gemacht hat und versucht, diese durchzusetzen, ist die Vernunft nicht einseitig ausgelegt. Vernunft soll sämtliche Ansprüche würdigen und gerecht werden, um danach zu einer Entscheidung mit Rücksicht auf diese Ansprüche zu gelangen. Vernunft ist somit ein Vermögen der Klärung, des Nachdenkens. Sie soll uns Rat geben, wo die Rationalitäten versagen. Sie soll uns Sicherheit geben, sie soll uns in unserem Leben die notwendige Orientierung geben.
Einem vordergründigen Missverständnis soll hier gleich vorgebeugt werden. Vernunft und die Rationalitäten sind streng genommen nicht verschiedene Vermögen des Menschen, sondern dasselbe geistige Vermögen, das aber unterschiedlich ausgerichtet ist. Es ist dasselbe Denken, das lediglich verschiedene Funktionen erfüllt. Während die Rationalität Sachverhalte thematisiert, geht es der Vernunft um die Rationalität. Vernunft ist das übergeordnete Vermögen.
Es ist die Aufgabe der Vernunft, die verschiedenen Rationalitäten und Paradigmen zu kritisieren und in ihre berechtigten Schranken zu weisen. Wir haben gesagt, dass die Vernunft auf das Ganze ausgerichtet ist. Was aber ist das Ganze, die Totalität? Sie ist sicherlich nicht ein Gegenstand, den wir wie andere erkennen können. Sie ist vielmehr eine Perspektive, eine Idee, die sich uns aufdrängt, wenn wir über komplexe Sachverhalte nachdenken. Das Ganze zu denken, ist demnach eine subjektive Leistung, die wir vollbringen wollen als Ausdruck des Interesses der Vernunft. Das Ganze kann nun in klassischer Denkweise unter dem Aspekt einer Einheit betrachtet werden, oder sie wird als Vielheit akzeptiert. Heute glauben wir zunehmend weniger daran, dass das Ganze auf einer Einheit beruht, sondern wir sind bereit, die Unterschiede, den Pluralismus, im Gesamtsystem anzuerkennen. Damit ist unsere zunehmende Bereitschaft verknüpft, unsere Weltsicht zu liberalisieren, im Pluralismus zu leben und die mit ihr einhergehenden Konflikte lösen zu wollen. Unter der Leitidee der Gerechtigkeit ist die Vernunft der Ganzheit verpflichtet, aber ohne die Vielheit zu vernachlässigen.
Unser gegenwärtiges partikularistisches Denken ist für das vermittelnde Denken zwischen Paradigmen, Deutungssystemen und Rationalitäten nicht geeignet. Sie gelten als störend. Die heutige Auseinandersetzung mit der Pluralität von Sinnsystemen in der Welt erfordert aber gerade, dass wir uns den verschiedenen Wirklichkeiten stellen. Der Philosoph Welsch schreibt dazu: “Auch diese Vernunft dekretiert nicht, sondern sucht, prüft, wägt ab. Sie agiert situationsbewusst und findig. Sie achtet auf Widerstreite und ist sich der Relativität bewusst. Sie weiß um den Vorletzt-Charakter ihrer Perspektiven und Entscheidungen, den Fließcharakter der Wirklichkeit und den bloß interventionistischen Charakter ihrer Tätigkeit, die unmöglich die Verhältnisse ein für allemal festschreiben kann.“ Eine Vernunft, die uns gestattet zu vermitteln, wäre geradezu eine dringliche Tugend. Sie allein würde es uns nämlich erlauben, uns in unserer Lebenswelt mit der Pluralität von gelingenden Lebensmöglichkeiten zu orientieren.
Während die Rationalität in unserer heutigen Gesellschaft institutionalisiert ist, viele über Rationalität sprechen und glauben, rational zu handeln, bleibt Vernünftigkeit immer noch unter dem Joch der kognitiv-instrumentellen Rationalität gefangen. Dies umso mehr, als Vernünftigkeit sich nicht dadurch offenbart, dass wir lediglich über sie reden. Vernünftigkeit zeigt sich nur, wenn wir sie praktizieren, - was nicht selten ein hohes Maß an Courage voraussetzt. Vernunft ist eine Sache von Individuen, sie ist keine Basis auf den wir nach Belieben zurückgreifen können. Sie ist eine praktische Aufgabe.
10.5 Vernünftiger Umgang mit Wissenschaft
Sicherheit und Stabilität zu finden auf relativen Fundamenten ist die Herausforderung in unserer Welt. Toleranz, Weitsichtigkeit und Umsicht sind einige der Voraussetzungen, um in unserer Gesellschaft mit ihren pluralistischen Anforderungen gerecht zu leben. Wissenschaft ist dabei nur ein Teil unseres Lebens, -- ein wichtigen Teil, aber eben nur ein Teil. Wissenschaftlichen Ansprüchen gerecht zu werden und die kognitiv-instrumentelle Rationalität mit ihrem Absolutheitsanspruch in ihre Schranken zu weisen, ist eine Frage der Klugheit und Angemessenheit. Feyerabends Kritik gegen den wissenschaftlichen Monismus beruht auf solchen Einsichten. Es wäre fatal, die kognitiv-instrumentelle Rationalität als ausschließliches und universelles Instrument zur Gestaltung des menschlichen Lebens einzusetzen.
Wir stellten zu Beginn die Frage, warum wir überhaupt Wissenschaft betreiben? Wir gaben als Antwort, dass der Mensch sich dadurch auszeichnet, dass er ein neugieriges Wesen ist und nach Wissen strebt. Es entspringt unserer Natur, etwas wissen zu wollen, um unsere Erkenntnisse in praktische Fertigkeiten zu transformieren. Zum homo sapiens gesellt sich der homo faber, beide Vermögen entfalten sich im Menschen -- Wissenschaft und Technik zusammen charakterisieren den modernen Menschen und unsere wissenschaftsgestützte technische Kultur. Der Mensch offenbart sich in dieser Welt als ein Wesen, dass sich Wissen verschafft und dieses als technologisches Können einsetzt.
Mit der Explosion des vorhandenen Wissens, das am Ende der Goethe-Zeit einsetzte, weicht die universale wissenschaftliche Bildung allmählich der Spezialisierung. Die Folge ist, dass eine übergeordnete Weltanschauung von den spezialisierten Wissenschaften nicht mehr geliefert werden kann, ohne zugleich den Charakter der Wissenschaftlichkeit zu verlieren. Ein umfassendes Weltbild zu geben, gehört nicht mehr in den Aufgabenbereich der Wissenschaft. Hier muss sie versagen. Getragen von dem Erfolg der empirischen Wissenschaften und der Technologie, fingen die Menschen an, der scheinbaren Allmacht der kognitiv-instrumentellen Rationalität zu vertrauen, sie weitgehend zu verabsolutieren und als Substitut für das fehlende übergeordnete Weltbild anzuerkennen. Es schien, als könnte die Welt durch den Verstand beherrscht werden. Es wurde alles gemessen, was messbar war, und es wurde alles messbar gemacht, was vorher nicht messbar war. Von da an lebt der Mensch in einer Welt, die ihm zwar ein umfangreiches technisches Wissen vermittelt, ohne ihm aber zugleich eine Orientierung geben zu können.
Das bedeutet aber nicht, dass der Mensch sich nur durch diese beiden Eigenschaften bestimmt. Unser Leben erweist sich als Vielfältiger, es ist nicht ausschließlich durch Wissenschaft und Technik festgelegt. Andere Bereiche wie Kunst, Recht oder Wirtschaft haben für manche eine viel größere Bedeutung. Unsere lebensweltlichen Probleme lassen sich deshalb auch nur zum Teil durch wissenschaftlich fundierte Erkenntnisse oder Technologien lösen, die auf der kognitiv-instrumentellen Rationalität beruhen. Moderne Wissenschaft versagt uns nämlich weitgehend jede Art von Sinngebung, sie hilft immer weniger, uns in der Welt zu orientieren.
Da die wissenschaftliche Erkenntnis in einem kognitiven, sozialen und institutionellen Handlungszusammenhang steht, der ausschlaggebend dafür ist, was wissenschaftlich gegenwärtig “in” und “out” ist, was die richtige Problemsicht und was eine befriedigende Erklärung ist, kann die Bedeutung der Forschung nur in ihrer Entstehung, Durchsetzung und Geltung als gesamtgesellschaftliches Projekt verstanden werden. Wissenschaftliche Praxis lässt sich nicht losgelöst von der gesellschaftlichen Praxis adäquat erfassen. Die wissenschaftliche Methode muss immer in Relation auf die existierenden Normen und akzeptierten Verhaltensmuster einer Gesellschaft betrachtet werden. Untersuchungen zur Gentechnik oder Lebensverlängerung werden geprägt von gesellschaftlichen Zwängen. Wissen bleibt bezogen auf einen bestimmten Horizont kognitiver und sozialer Relationen, sie ist eingebettet in einen bestimmten Kontext.
Das von den modernen Wissenschaften bereitgestellte Wissen ist dazu gedacht, uns über die Zusammenhänge in der Natur aufzuklären und uns damit die nötigen Informationen für die technische Entwicklung und Umsetzung zugeben. Es sagt uns, was wir mit der Welt tun können, wie wir über die Natur verfügen können, wie wir unser Wissen anwenden und unsere Effizienz steigern können. Aber es sagt uns nicht, ob es sinnvoll ist. Es vermittelt uns keine Orientierung.
{/jkefelend}