13.06.2018
Was von der Wirklichkeit übrig blieb (Teil 1/2)
Von Florian Friedman
Ausgerechnet aus dem Werk des aufklärerischen Philosophen David Hume entspringt der postmoderne Relativismus – zu dem z.B. das problematische Multikulti-Denken gehört.
In den „Sunan an-Nasa’‘i“, einem der maßgeblichen Texte des Islams, findet sich folgende Formel: „Das schlechteste der Dinge sind die Neuerungen; jede Neuerung ist Ketzerei, jede Ketzerei ist Irrtum, und jeder Irrtum führt in die Hölle.“ 1 Wenige Überzeugungen bergen größeres Potenzial für menschliches Leiden. Ob gesellschaftlicher Wandel, Seuchen oder Kometen mit Kurs auf die Erde: Probleme sind unvermeidbar, doch nur ohne Fortschritt – der hier zur Sünde erklärt wird – bleiben sie auch unlösbar.
I. Kreativität und Kritik
Ultra-konservative Dogmen wie das der „Sunan an-Nasa’i“ bilden in der Geschichte keine Ausnahme. Vom 21. Jahrhundert aus betrachtet ist es leicht, Fortschritt für ein ehernes Gesetz des menschlichen Daseins zu halten. Tatsächlich war für die Gattung Homo aber zweieinhalb Millionen Jahre lang Stillstand die Regel. Beinahe über die gesamte Spanne, die Menschen existieren, änderte sich im Leben der Individuen so wenig, dass es ihnen unmöglich war, überhaupt Fortschritte zu erkennen. Aus Sicht des Einzelnen bestand keine Hoffnung, Traditionen zu überwinden, die seine Existenz – um mit Hobbes zu sprechen – arm, elend und kurz machten.
Unfassbar hoch muss allein die Zahl derer sein, denen enormes Leid schon dadurch erspart geblieben wäre, wenn früher ein auch nur oberflächliches Verständnis davon bestanden hätte, was Krankheitserreger sind und wie diese in den Körper eindringen. Lange erlangten unsere Vorfahren jedoch nahezu keine neuen Erkenntnisse: In der Altsteinzeit etwa wuchs das Wissen darüber, wie Materialien den eigenen Wünschen angepasst werden können, so langsam, dass Werkzeuge aus dieser Epoche sich anhand ihrer Form nicht genauer datieren lassen als auf einen Zeitraum von vielen Jahrtausenden.
„Es spricht einiges dafür, dass der Unterschied zwischen den statischen Gesellschaften der Vergangenheit und den dynamischen Gesellschaften der Gegenwart kultureller Natur ist.“
Vermutlich hatte dieser Stillstand keine biologischen Ursachen. Denn selbst für den überwiegenden Teil der rund 200.000 Jahre, die der anatomisch moderne Mensch existiert, lassen sich keine längeren Perioden schnellen Wissenszuwachses nachweisen. Es spricht demnach einiges dafür, dass der Unterschied zwischen den statischen Gesellschaften der Vergangenheit und den dynamischen Gesellschaften der Gegenwart kultureller Natur ist. Die Fähigkeiten, neues Wissen zu erlangen, waren vorhanden, doch fortschrittsfeindliche Ideen wie jene aus den „Sunan an-Nasa‘’i“ verhinderten noch den kleinsten Wandel. Erst mit der europäischen Aufklärung setzte ein Fortschritt ein, der rasant und dauerhaft genug war, um über viele Generationen von Menschen im Laufe ihres eigenen Lebens wahrgenommen zu werden.2
Zwar fanden zwischenzeitlich regelrechte Wissensexplosionen statt, etwa im antiken Athen oder im Florenz der Renaissance; solche offenen Gesellschaften, die Blüten der Wissenschaft, Kunst und Moral ermöglichten, fielen aber schon nach kurzer Zeit wieder autoritären Weltanschauungen zum Opfer. Ob damals oder heute: Wesentlich sind für offene Gesellschaften zwei Vorstellungen – zum einen ist es die Auffassung, dass Kreativität auch dann zugelassen werden sollte, wenn sie (vermeintlich oder tatsächlich) gegen den sozialen Status Quo gerichtet ist, zum anderen die Einsicht, Kritik sowohl an alten wie an neuen Ideen zu begrüßen.
Eine Garantie dafür, dass sich im Zusammenspiel von Kreativität und Kritik ausschließlich wahre Vorstellungen durchsetzen, gab es zu Zeiten der Aufklärung genauso wenig wie heute. Wir wissen aber, dass Ideen, die auf Tatsachen gründen, in offenen Gesellschaften auf lange Sicht eine deutlich höhere Chance haben, sich gegenüber falschen Vorstellungen durchzusetzen. Was besonders dann zutrifft, wenn sie aus tiefen Einsichten über die Welt hervorgehen. Denn die Nützlichkeit solcher Erkenntnisse ist weitgehend unabhängig von Ort und Zeit: Newtons Gesetze wären im 13. Jahrhundert beim Errichten des Kölner Doms nicht weniger hilfreich gewesen als sie es jetzt beim Bau eines Wolkenkratzers in Shanghai sind. So eisern verankert in der Welt Aristoteles’ Physik auch den meisten Gelehrten erschienen sein mochte, verglichen mit der klassischen Mechanik Newtons stand sie auf losem Sand.
Aristoteles ging davon aus, dass alle Dinge und Phänomene in der Welt sich auf die Elemente Erde, Wasser, Luft und Feuer zurückführen lassen. Weshalb er etwa Bewegung als einen Vorgang interpretierte, der darauf gerichtet ist, die natürliche Harmonie dieser vier Elemente zu wahren. Als falsche Vorstellung über die Welt setzte sich dieser Gedanke gegenüber neuen, näher an der Wirklichkeit liegenden Ideen nicht auf Dauer durch. Näher an einer Wirklichkeit wohlgemerkt, die keine subjektive ist.
„Die Denker der Aufklärung stellten die Subjektivität der Urteile von Göttern und Königen unter die Objektivität von Vernunfturteilen.“
Die Denker der Aufklärung stellten die Subjektivität der Urteile von Göttern und Königen unter die Objektivität von Vernunfturteilen, zu denen sie prinzipiell jeden rationalen Geist befähigt sahen: Menschen wurden als vernünftige Wesen begriffen, die aus sich selbst heraus in der Lage sind, sich der Wahrheit zumindest anzunähern. Was aus diesem Paradigmenwechsel erwuchs, ist überwältigend: Selbst die zuversichtlichsten Geister der Frühen Neuzeit hätten es wohl nicht für möglich gehalten, dass die Menschheit etwa einmal Maschinen konstruieren würde, die in den interstellaren Raum vordringen (Raumsonden), sieben Milliarden Menschen über ein gigantisches Netzwerk kommunizieren lassen (Internet) und Temperaturen erzeugen, die eine Milliarde Mal höher sind als die im Innern der Sonne (Large Hadron Collider im CERN).
Diesem wissenschaftlichen und technischen Siegeszug zum Trotz änderte sich in vielen Bereichen des geistigen Lebens spätestens seit dem 20. Jahrhundert der Blick auf die Fundamente des Fortschritts grundlegend: Es setzte ein Rückzug ins Subjektive ein, dessen Ursprung sich, so paradox es klingen mag, bis in die Aufklärung zurückverfolgen lässt. Denn im Zweifel, den skeptische Denker wie David Hume einerseits Autoritäten und Dogmen gegenüber hegten, lag andererseits auch die Keimzelle dafür, der Vernunft selbst zu misstrauen. Als Hume sich etwa, wie wir weiter unten sehen werden, kritisch mit Schlüssen beschäftigte, die auf Erfahrungen beruhen, rüttelte er gleichsam an den Fundamenten des Fortschritts – ungerechtfertigt und selbstwidersprüchlich zwar, wie wir ebenfalls sehen werden, aber doch mit erheblichen Folgen.
Um sich von alten Dogmen lösen zu können, suchten die Denker der Aufklärung zunächst neue Ankerpunkte der Vernunft, die Objektivität wenn nicht zwingend gewährleisten, so aber doch prinzipiell ermöglichen sollten. In den Naturwissenschaften wurde die Erfahrung zur unerlässlichen Instanz aller Wahrheitsfindung, in den Künsten stellte man das Schöne ins Zentrum ästhetischer Anstrengungen, während die Ethik nicht mehr ins Jenseits blickte, sondern das Glück im Diesseits als eigentlichen Gegenstand entdeckte.
„In ungekannter Heftigkeit fasste der Relativismus zunächst in den Künsten Fuß.“
Verschiedene Meinungen darüber, was wahr, schön oder moralisch richtig ist, gab es zweifellos immer – unabhängig davon, ob diese Urteile in statischen oder dynamischen Gesellschaften gefällt wurden. Erst im 20. Jahrhundert setzte sich aber zuerst in Eliten, dann quer durch alle Schichten und über einen ungewöhnlich weiten Bereich menschlicher Aktivität der Gedanke durch, es sei fraglich, ob sich überhaupt sagen lasse, dass etwas objektiv wahr, schön oder moralisch richtig sein könne. In ungekannter Heftigkeit fasste dieser Relativismus zunächst in den Künsten Fuß.
II. Wege ins Subjektive
„Die heutige Kunstwelt steht alten Standards nicht einmal mehr verächtlich gegenüber – sie sind ihr völlig gleichgültig“, schreibt Sohrab Ahmari in seiner Polemik „The New Philistines“. 3 Der britische Autor wendet sich damit gegen Identitätspolitik in der zeitgenössischen Kunstszene: Ahmari beschreibt ein Milieu, dessen vornehmliches Ziel darin besteht, ausgesuchten Gruppenidentitäten zu huldigen, das von ehemals für zeitlos gehaltenen Anliegen wie Schönheit, formaler Strenge und dem Streben nach Wahrheit aber nichts mehr wissen will. Desinteressiert an traditionellen Standards erzeugt dieses Milieu vor allem Kunst, die Kunst verneint – Produkte eines Aufgebots tausender Raskolnikows, die sich aber nicht mehr wie Dostojewskijs berühmter Nihilist entsetzt von der empfundenen Leere der eigenen modernen Existenz zeigen, sondern nur noch gelangweilt mit den Augen rollen, fragt man sie nach Gründen dafür, warum alte Normen nicht mehr gelten sollten.
Diese Gleichgültigkeit gegenüber Standards ist nicht nur ein Kind des postmodernen Relativismus. Sie lässt sich leicht hundert Jahre zurückverfolgen. 1917 manifestierte sie sich noch als Satire: In diesem Jahr kaufte der französische Künstler Marcel Duchamp in einem Sanitärhandel auf der New Yorker Fifth Avenue ein handelsübliches Porzellan-Urinal. Zurück in seinem Atelier signierte er das eben erstandene Pinkelbecken mit dem Pseudonym „R. MUTT“ und ließ es später, ansonsten unverändert, unter dem Namen „Fountain“ als Beitrag zur Ausstellung der Society of Independent Artists einreichen. Duchamps Urinal wird heute zu den wichtigsten Kunstwerken des 20. Jahrhunderts gezählt – nicht trotz, sondern gerade wegen des Verzichts darauf, in herkömmlichem Sinne schöpferisch zu handeln oder gar Schönheit als etwas zu begreifen, das in der Kunst als objektiver Bezugspunkt taugen könnte.
„In der Kunst scheint man sich fast vollends von der Schönheit als objektivierendem Ankerpunkt abgewandt zu haben.“
Zu den vielen Gegenständen ähnlicher Art, die auf Duchamps „Fountain“ folgten, gehören in einer Plexiglasvitrine präsentierte Staubsauger (Jeff Koons), ein Glas Wasser auf einer Glasablage (Michael Craig-Martin) und mit Kot gefüllte Konservendosen (Piero Manzoni). All diese Objekte verbindet, dass in ihnen nichts mehr von dem erkennbar ist, was Ahmari unter anderem als „Streben nach Wahrheit“ bezeichnet: ein Interesse an den einst noch für zeitlos gehaltenen objektiven Kriterien einer Kunst, die auf mehr als sich selbst oder ihren Produzenten verweist.
Wenn Schönheit in jener Szene, die Ahmari beschreibt, doch noch herangezogen wird, fehlt selten der Hinweis auf die vermeintliche Subjektivität solcher Kriterien. Wie selbstverständlich antwortete zum Beispiel die britische Künstlerin Tracey Emin auf die Frage, was ihr Werk „My Bed“ schön mache: „Weil ich sage, dass es so ist.“ Emins Kunstwerk erschöpft sich in einem ungemachten Bett, neben dem Unterwäsche, Kondome, Hausschuhe und andere Alltagsgegenstände verstreut wurden.
An einer Wirklichkeit, die auch andere zu erfassen in der Lage sind, kann schwerlich interessiert sein, wer sich auf den impliziten Vorwurf, seiner Kunst mangele es an ästhetischer Qualität, umgehend ins Subjektive zurückzieht. In welcher Form Schönheit hier noch objektiv und so für die Diskussion offen sein könnte, ist nicht evident. Ein Rückzug in die eigene (notwendig subjektive) Identität und schließlich, in einem zweiten Schritt, in die (ebenfalls subjektive) Gruppenidentität, ist dann vorgezeichnet.
Während man sich in der Kunst fast vollends von der Schönheit als objektivierendem Ankerpunkt abgewandt zu haben scheint, liegt in der Ethik zwar noch das diesseitige Glück im Fokus, allerdings auch hier aus einem zusehends subjektiveren Blickwinkel. Qualitative Unterschiede zwischen Kulturen lösen sich aus solcher Perspektive auf, ebenso wie der Anspruch, das Beste aus allen Kulturen zu nehmen und es in einer universellen Menschheitskultur zu transzendieren. Vor allem deshalb, weil die Annahme, was gut oder schlecht sei, könne kulturübergreifend beantwortet werden, längst nicht mehr zum Common Sense gehört.
„Beim Multikulturalismus handelt es sich um ein monokulturelles Phänomen: Er tritt hauptsächlich im Westen auf.“
Unverhohlen tritt dies in einer Spielart des Multikulturalismus zutage, die vornehmlich als politisches Programm begriffen wird und so eine Absage an die liberalen Traditionen darstellt. Mit dem Begriff „Multikulturalismus“ ist in diesem Fall mehr gemeint als der De-facto-Zustand moderner Gesellschaften, in denen Beethovens Sinfonien ebenso zum eigenen Leben gehören können wie Yoga-Kurse oder kolumbianische Romane. Wirklich subjektiv gerät die Diskussion erst, wenn Normen und Werte grundsätzlich nicht mehr kulturübergreifend, sondern allein relativ zu einer bestimmten Kultur Gültigkeit besitzen sollen.
Weit über einen De-Facto-Multikulturalismus hinaus geht zum Beispiel der kanadische Philosoph Charles Taylor, der sich gegen einen, wie es bei ihm heißt, differenz-blinden Staat ausspricht. 4 Anstelle eines Staates, der seine Bürger rigoros gleichbehandelt, fordert Taylor, dass Gesellschaften die verschiedenen Interpretationshorizonte kultureller Kollektive berücksichtigen sollen. Gegebenenfalls müssten öffentliche Institutionen sogar ihren Teil dazu beitragen, dass die kulturelle Identität einer bestimmten Bevölkerungsgruppe niemals verloren geht. Taylor hat dies unter anderem dazu gebracht, die in der kanadischen Provinz Québec erlassenen Sprachgesetze zu verteidigen, die in Abhängigkeit der jeweiligen Herkunftskultur eines Kindes festlegen, ob dieses eine französisch- oder eine englischsprachige Schule besuchen darf. Leicht lässt sich unter Taylors Prämissen noch weit Gefährlicheres rechtfertigen.
Bezeichnend ist am philosophisch-politischen Multikulturalismus aber nicht allein, dass er Gesellschaften nach Identitäten stratifiziert, etwas also, das überall auf der Welt und seit frühester Zeit Befürworter fand. Bemerkenswert ist vielmehr nicht zuletzt, dass es sich bei dieser Ausprägung des Multikulturalismus um ein monokulturelles Phänomen handelt: Er tritt hauptsächlich im Westen auf, und zwar gerade dort am virulentesten, wo man meint, auch die Werte der Aufklärung am stärksten verankert zu haben. Verständlicherweise birgt auf politischer und – daraus folgend – juristischer Ebene eine subjektive Perspektive bereits deutlich schneller Stoff für Kontroversen als in den vergleichbar enthobenen Sphären der Kunst.
„Philosophischer Relativismus hat in der Physik seine Spuren hinterlassen.“
Am längsten standgehalten haben der Gleichgültigkeit gegenüber objektiven Kriterien aber nicht Politik oder Justiz, sondern die Naturwissenschaften. Dafür sorgte schon deren enge Verknüpfung mit technologischen Entwicklungen. Ganz zu schweigen davon, dass es in Feldern wie Physik, Chemie oder Biologie fast schon einem begrifflichen Widerspruch gleichkäme, auf eine objektive Wirklichkeit als Prüfstein von Theorien verzichten zu wollen. Dennoch hat auch hier ein philosophischer Relativismus bereits früh seine Spuren hinterlassen – und zwar bemerkenswerterweise an vorderster Front der Physik und annähernd zu einem Zeitpunkt, in dem er auch Einzug in die Kunst hielt.
Zehn Jahre nachdem Duchamp ein Urinal signierte und als Kunstwerk ausgab, stellte Niels Bohr mit der Kopenhagener Deutung eine Interpretation der Quantenmechanik vor, die sich lange – und in gewisser Weise bis heute – als Hindernis für den Wissenszuwachs in der Physik erweisen sollte. Auf den ersten Blick könnten Duchamp und Bohr in ihren Anliegen nicht weiter voneinander entfernt sein. Beide verbindet jedoch mehr, als man zunächst vermuten mag.
Bohr unternahm mit der Kopenhagener Deutung den Versuch, die bahnbrechenden, aber sich widersprechenden quantenmechanischen Theorien Erwin Schrödingers und Werner Heisenbergs zu vereinen. Dazu modifizierte er keinen der unterschiedlichen Ansätze, sondern erklärte schlicht beide zu vollständigen Beschreibungen der physikalischen Realität. Um dies in sich konsistent tun zu können, musste Bohr gleichsam die Möglichkeit leugnen, dass Quantenphänomene objektiv existieren.
„Keine Wirklichkeit ohne Beobachtung“, lautete Bohrs Diktum. Der Kopenhagener Deutung nach sollten nur die Ergebnisse von Beobachtungen als Phänomene gelten, nicht die Quantenereignisse selbst. Damit erklärte er in einem Zug Paradoxien für unerheblich, die bereits in den 1920er-Jahren ein fruchtbares Feld weiterer Forschungen hätten abgeben können. Stattdessen verschrieben die meisten Physiker sich fortan einem Instrumentalismus, der voraussetzte, sich als Forscher damit zufrieden geben zu müssen, dass die Berechnungen stimmten. Dem Interesse für die tieferen Wahrheiten hinter den Kalkulationen lastete jetzt der Beigeschmack naiver Wissenschaft an.
„Angelegt ist die Abkehr vom Objektiven ausgerechnet im Werk Humes, einem herausragenden Geist der Aufklärung.“
Indem man den Beobachtungen ein Primat über die Phänomene an sich gab, wurde das Subjektive dem Objektiven vorgezogen – ein Kernmerkmal naiver Erkenntnissuche aus vorwissenschaftlichen Zeiten, das den ersten Berührungspunkt zwischen Bohr und Duchamp bildet. Will man die weiteren Gemeinsamkeiten im Denken dieser beiden in ihren Zielen eigentlich so verschiedenen Menschen verstehen, empfiehlt sich ein Blick in die Philosophiegeschichte.
III. Humes Zweifel
Angelegt ist die Abkehr vom Objektiven ausgerechnet im Werk Humes, einem herausragenden Geist der Aufklärung und unerschrockenen Verfechter wissenschaftlicher Welterkenntnis. Hume war es, der sich schon früh den Grundbedingungen der Aufklärung zuwendete, die Grenzen der Vernunft auslotete und so – unfreiwillig – einem neuen Obskurantismus den Boden bereitete. 5 Häufig ist als Beleg dafür, dass Hume sich der Vernunft verpflichtet sah, sein Ausspruch herangezogen worden, dass alles den Flammen zu übergeben sei, was weder eine abstrakte Erörterung über Größe oder Zahl enthalte noch eine auf Erfahrung beruhende Diskussion über Tatsachen und Existenz sei. Es könnte gerade diese im Zentrum von Humes skeptischem Denken liegende Dichotomie zwischen analytischen (notwendigen) und synthetischen (kontingenten) Wahrheiten sein, die viele seiner Nachfolger einen Weg einschlagen ließ, der weg vom Objektiven und hin zum Subjektiven führte.
Kant, der Hume zuschrieb, ihn aus seinem „dogmatischen Schlummer“ geweckt zu haben, ist der einflussreichste Philosoph aus dieser Reihe von Nachfolgern. 6 Bezeichnenderweise fanden im Werk des scharfen Religionskritikers Hume aber selbst Gegenaufklärer wie Hamann oder Jacobi Argumente, um ihren Glauben zu rechtfertigen und so das Fundament der anti-rationalistischen deutschen Romantik zu legen. 7 Doch auch vieles von dem, was in den Schriften Schopenhauers, Kierkegaards und selbst Poppers an irrationalen Tendenzen durchscheint, lässt sich auf Humes Skepsis zurückführen. Genauer: auf ein theoretisches Herzstück seiner Philosophie – das sogenannte Induktionsproblem. 8 Es ist dieser durch etliche Lager gehende Einfluss, der Humes Beschäftigung mit den Grenzen der Vernunft heute noch interessant macht.
Hume gelangte über seine Betrachtung der Kausalität zum Induktionsproblem: Nichts in einer Ursache selbst impliziere, so das Argument, mit welcher Wirkung zu rechnen sei. Aufgrund unserer Erfahrungen erwarten wir bestimmte Wirkungen. Es stelle jedoch keinen Widerspruch in sich dar, wenn eine Wirkung eintritt, die nicht unseren Erwartungen entspricht. Ähnliches gilt laut Hume für induktive, also für auf Erfahrungen beruhende, Schlussfolgerungen.
„Die Aussage ‚Alle beobachteten Schwäne sind weiß‘ impliziert nicht zwingend, dass auch alle noch unbeobachteten Schwäne weiß sind.“
Wir wissen, dass Erfahrungen trügerisch sein können. Ein geläufiges Beispiel: Europäer haben unzählige Male weiße Schwäne beobachtet – waren sie dadurch aber gerechtfertigt, mit absoluter Gewissheit zu schließen, dass alle Schwäne weiß sind? Offenbar nicht, denn als europäische Entdecker nach Australien vordrangen, stießen sie dort auf schwarze Schwäne. Bei induktiven Schlüssen scheint anders als bei logisch notwendigen deduktiven Schlüssen keine zwingende Verknüpfung zwischen Prämissen und Konklusion zu bestehen. Der deduktive Schluss „Odette ist ein Vogel“ folgt logisch aus den Aussagen „Odette ist ein Schwan“ und „Alle Schwäne sind Vögel“. Die Aussage „Alle beobachteten Schwäne sind weiß“ impliziert jedoch nicht zwingend, dass auch alle noch unbeobachteten Schwäne weiß sind.
Auf den ersten Blick mag man vermuten, die Lösung dieses Problems könne darin liegen, ein Prinzip zu finden, dass uns darin rechtfertigt, induktiv zu schließen. Für Hume kann ein solches Prinzip nur aus einer von zwei möglichen Kategorien menschlichen Denkens stammen: Vorstellungsbeziehungen oder Tatsachen. 9 Vorstellungsbeziehungen umfassen Aussagen, die von intuitiver oder demonstrativer Gewissheit sind (logische Schlüsse, 2 + 2 = 4 etc.). Sie zeigen sich unabhängig von dem als wahr, was in der Welt der Fall ist. Ihre Negation ist daher laut Hume undenkbar beziehungsweise selbstwidersprüchlich. Eine Aussage, die sich auf Tatsachen bezieht, kann hingegen niemals in einer Weise gewiss sein, wie es auf Aussagen zutrifft, die sich auf Vorstellungsbeziehungen gründen. Ihr Wahrheitswert ist abhängig von dem, was in der Welt der Fall ist (in unserem Beispiel: ob es ausschließlich weiße Schwäne gibt oder nicht).
Da es nach Hume nicht selbstwidersprüchlich ist, anzunehmen, dass es kein Prinzip gibt, das induktive Schlüsse rechtfertigt, kann es sich bei dem gesuchten Prinzip offenbar nicht um etwas aus der Klasse der Vorstellungsbeziehungen handeln. Wir können uns – weil es nicht in sich widersprüchlich ist – vorstellen, dass nicht alle Schwäne weiß sind. Ebenso geht Hume davon aus, es sei vorstellbar, dass ein Prinzip, welches alle induktiven Schlüsse rechtfertigen soll, nicht in jedem Fall gilt – so wie eben irgendwo ein schwarzer Schwan darauf warten könnte, entdeckt zu werden.
„Angesichts der Fragen, die Hume aufwirft, sind zahlreiche Denker zu dem Schluss gelangt, Induktion lasse sich nicht rational rechtfertigen.“
Kommen Vorstellungsbeziehungen aber nicht in Frage, bleiben lediglich Tatsachen als taugliche Kandidaten. Als eine Tatsache unter vielen würde nun zum Beispiel gelten, dass in der Vergangenheit jeden Morgen die Sonne aufgegangen ist (und man deshalb davon ausgehen muss, dass sie es auch an allen weiteren Morgen tut). Doch ein Induktionsprinzip lässt sich auch nicht rechtfertigen, indem man auf diese Kategorie zurückfällt. Denn wenn wir zukünftige induktive Schlüsse auf der Grundlage von Tatsachen rechtfertigen wollen, hieße dies, dass wir sie deshalb als gültig anerkennen, weil sich induktive Schlüsse in der Vergangenheit als korrekt erwiesen haben – ein Zirkelschluss. Es würde vorausgesetzt, was zu beweisen war.
Angesichts der Fragen, die Hume aufwirft, sind zahlreiche Denker zu dem Schluss gelangt, Induktion lasse sich nicht rational rechtfertigen. Bertrand Russell, dem dieser Gedanke als Rationalist und Mitbegründer der analytischen Philosophie wie wenig anderen zuwider gewesen sein muss, sah im Induktionsproblem gar den „Bankrott der Vernünftigkeit des achtzehnten Jahrhunderts“”. 10 Ohne eine Antwort auf Hume bestehe, so Russell, „zwischen geistiger Gesundheit und Geisteskrankheit kein Unterschied“.11 Warum? Weil, wer Humes Argument akzeptiert, zum Beispiel keine rationale Rechtfertigung mehr dafür anbringen kann, dass die Natur weiter ihren geregelten Gang geht. Bildlich ausgedrückt: Das Induktionsproblem stellt selbst unsere Rechtfertigung in Zweifel, rational anzunehmen, dass uns beim nächsten Schritt vor die Tür nicht buchstäblich der Himmel auf den Kopf fällt. Der aus aufklärerischen Überlegungen hervorgegangene Empirismus beißt sich hier in den eigenen Schwanz.
Um Objektivität gewährleisten zu können, waren Sinneserfahrungen als Grundlage aller Erkenntnis gewertet worden. Nach Humes Argument stand man nun aber vor dem Problem, dass Sinneserfahrungen, wenn sie die Basis eines induktiven Schlusses bilden, scheinbar dazu führen, dass die Vernunft gegen sich selbst ins Rennen geht. In seiner ganzen Sprengkraft zeigt sich das Induktionsproblem, bezieht man es auf naturwissenschaftliche Theorien. Warum zum Beispiel sollten Newtons Gesetze absolute Gültigkeit besitzen, wenn sich in der Vergangenheit gezeigt hat, dass Aristoteles falsch lag? Beide Theorien, so die Annahme, beruhen schließlich auf induktiven Folgerungen über die Natur.
„Das Induktionsproblem gerät zu einem Werkzeug, mithilfe dessen der subjektive Blick des Individuums über die objektive Kraft der Vernunft gestellt wird.“
In direkter Reaktion auf Hume führte Kant den Gedanken ein, der menschliche Geist müsse, damit eine Person überhaupt zu sicherem Wissen gelangen kann, die Natur durch Begriffe a priori organisieren – sprich: durch eine Differenzierung der Welt, die unabhängig von Erfahrungen und Wahrnehmungen ist. Hegel gelangte dann im Anschluss an Kant zu der Vorstellung, solche Begriffsschemata beziehungsweise das Denken und moralische Wahrheiten seien historischen Entwicklungen unterworfen. Immerhin lasse sich nicht belegen, dass es sich bei jenen essenziellen Begriffen a priori, die unsere Erfahrung und Moral bedingen, a priori und notwendig um ein starres System handelt. Hegels Einsicht ist zweifellos gut begründbar und war geistesgeschichtlich durchaus wertvoll. Sie bereitete unter anderem aber auch den Boden für eine Reihe von kulturrelativistischen Thesen, die uns in der zeitgenössischen Philosophie als „kulturelle Bezugsrahmen“ (Taylor), „Paradigmen“ (Kuhn) oder „Epistemes“ (Foucault) begegnen.
Ins Wanken geraten über das Induktionsproblem damit nicht allein sämtliche naturwissenschaftlichen Theorien, sondern auch moralische und ästhetische Urteile. Reichlich Munition für Gegner der Aufklärung, die in der Vernunft nicht wie Hume oder Kant ein Mittel zur Befreiung des Individuums sehen, sondern sie für ein Werkzeug der Unterdrückung halten – ein Gedanke, der sich von der deutschen Romantik bis zur Postmoderne zieht. Das Induktionsproblem gerät so zu einem Werkzeug, mithilfe dessen der subjektive Blick des Individuums qua Identität über die objektive Kraft der Vernunft gestellt wird. Was die freiheitlich-rationalistische Tradition, wie sie seit der Aufklärung existiert, in ihr Gegenteil verkehrt.
Leider entpuppt sich diese Umkehr aus psychologischer Sicht für manchen als durchaus angenehme Option. Das Induktionsproblem zeigt sich so als Quell einer ganzen Reihe von Vorstellungen, die aus der Moderne erwachsen sind, nun aber zu deren Verwundbarkeit beitragen.
Das ist der erste Teil eines Artikels: