20.06.2018

Was von der Wirklichkeit übrig blieb (Teil 2/2)

Von Florian Friedman

Titelbild

Foto: Fb78 via Wikimedia Commons / CC BY-SA 2.0

Die Wurzeln der postmodernen Abkehr von der Idee der Objektivität, für die Denker wie Michel Foucault exemplarisch stehen, lassen sich ausgerechnet auf einen Irrtum des Aufklärers David Hume zurückführen.

Das ist der zweite Teil eines Artikels:

Teil 1: Was von der Wirklichkeit übrig blieb (1/2)

Obliegt es nicht mehr Autoritäten, dem Volk zu diktieren, was man für wahr und was für falsch zu halten habe, fällt diese Aufgabe dem Individuum zu. Hierin liegt eine Stärke der westlichen Zivilisation. Die Kehrseite des Individualismus, der daraus erwächst, besteht jedoch in einer neuen Verantwortung, die statt auf das Kollektiv zurückzufallen nun der Person zukommt und diese überfordern kann.

IV. Relativismus: Balsam für die moderne Seele

Der rasante Fortschritt, den die Menschheit seit der industriellen und aktuell seit der digitalen Revolution erlebt, ist manchem zur seelischen Bedrohung geworden. Ein Relativismus, wie einige Denker ihn aus Humes Kritik ableiten, verspricht dem Individuum hier Linderung: Wenn es nach rationalen Standards keine objektiv richtigen oder falschen wissenschaftlichen, ethischen oder ästhetischen Theorien gibt, entfällt auch der Zwang, sich mit bestimmten Aussagen intellektuell auseinanderzusetzen, gegebenenfalls auf Kritik zu antworten oder Fehler einzugestehen. Mangels Alternativen schwimmt das Individuum nur mehr mit dem Strom seiner kollektiven Identität, eingehegt durch die Traditionen seiner Gesellschaft. Ist es gezwungen, dennoch für sich zu urteilen, siegt das Gefühl. Wo aber alle Unterschiede eingeebnet sind, findet die Vernunft keinen Halt mehr.

Die naturwissenschaftliche Revolution führte, wie schon Freud sah, zu einer Reihe von Kränkungen der Menschheit, die in der Lage waren, intellektuellen Fortschritt lange zu behindern. Nachdem der Mensch um 1543 erfahren musste, dass die Erde nicht der Mittelpunkt des Kosmos ist (Kopernikanische Wende), stellte ihn 1859 Darwins Evolutionstheorie unter anderem vor die Erkenntnis, dass er mit dem Affen verwandt ist. 36 Jahre später erklärte Freud ihm, dass ein Großteil seines Denkens und Handelns vom Unterbewussten gesteuert wird. In diese Reihe passt zudem die Erkenntnis der Sozialwissenschaften, dass Menschen sozialisiert und durch ihre Kultur geprägt werden. Was einerseits – falsch verstanden – einen Schritt auf dem Weg in den Kulturrelativismus darstellen kann, andererseits aber auch überhaupt erst die Voraussetzung schafft, sich aus sozialen Zwängen lösen zu können.

Im 20. und 21. Jahrhundert konnten schließlich weitere Einsichten gewonnen werden, von denen zu erwarten ist, dass sie unser Selbstbild vielleicht noch tiefgreifender anrühren. Nur ein Beispiel: Künstliche Intelligenzen übertrumpfen schon jetzt in mancherlei Hinsicht den Menschen. Mit Aussicht auf eine allgemeine künstliche Intelligenz von der Art des menschlichen Geistes bergen sie nie dagewesenes Potenzial, das Individuum zu verunsichern.

„Relativistisch gerüstet lässt sich der Glaube an allerlei Irrationales aufrechterhalten, der in einem objektiveren Weltbild so keinen Platz finden könnte.“

Im subjektiv-relativistischen Denken bietet sich dem Individuum angesichts solcher Umwälzungen eine Zuflucht, die in Aussicht stellt, in ihr ließe sich geistig überwintern, ohne am eigenen Leben oder der eigenen Identität größere Umbauten vornehmen zu müssen. Ohne wirklich den Glauben an jene Wissenschaften aufzugeben, die sein Smartphone ermöglichen, kann der Mensch des 21. Jahrhunderts es sich so in einem geistigen Mittelalter gemütlich machen. Wo alle objektiven Unterschiede auf Bedarf subjektiven Relationen weichen, verliert die kognitive Dissonanz ihre unbehaglichen Züge. Trostreich können Umschiffungen objektiver Kriterien auch sein, weil sie die Einsicht unterlaufen, dass Tatsachen unabhängig davon bestehen, ob Menschen an sie glauben oder nicht. Oder anders gewendet: Als frohe Botschaft verspricht der Subjektivismus, man müsse sich etwas nur ernsthaft genug wünschen, um es Wirklichkeit werden zu lassen. Dass aber die Devise „Anything goes“ logisch auch den Satz „Nothing goes“ impliziert, wird dabei geflissentlich übersehen.

Relativistisch gerüstet lässt sich der Glaube an allerlei Irrationales aufrechterhalten, der in einem objektiveren Weltbild so keinen Platz finden könnte. Dies mag ein althergebrachter Aberglaube an Übernatürliches sein, wie er sich etwa in Religionen, aber auch in Horoskopen und Ähnlichem ausdrückt. Zwar ist in weiten Teilen der westlichen Welt Irrationalität in Form organisiert-religiösen Glaubens auf dem Rückzug. Vor Unvernunft anderer Prägung ist man hier allerdings kaum weniger gefeit als ehedem. So glauben Studien zufolge etwa zwischen 35 bis 50 Prozent der US-amerikanischen Bevölkerung an Geister, UFOs und Telepathie. Tatsächlich ist der Eindruck nicht ganz unbegründet, dass in Sachen Aberglaube der einzige Unterschied zwischen säkularer moderner Welt und tiefreligiöser dritter Welt darin besteht, das erstere (noch) weiß, wie irrational sie sein kann.

Wem der Sinn nach einem intellektuelleren Anstrich steht, der findet im reichen Angebot der Postmoderne allerlei Absurdes nach eigenem Geschmack. Dies illustriert treffend ein Hoax, den sich vor kurzem Peter Boghossian und James Lindsay erlaubten. Die beiden Autoren des US-amerikanischen Magazins „Skeptic“ schafften es unter Pseudonymen und mit einem höchst bizarren Artikel durch die Peer-Review der Fachzeitschrift „Cogent Social Studies“. Ihre irrwitzige These: Beim menschlichen Penis handele es sich nicht so sehr um ein männliches Geschlechtsorgan als vielmehr um ein „schädliches soziales Konstrukt“. Und grotesker noch: Es sei eben diese Form von Geschlechtsorganen, die begrifflich eine Hauptursache des Klimawandels ausmache.

„Berufen können Gender-Theoretiker sich auf zahlreiche Autoren der Postmoderne, Michael Foucault zum Beispiel.“

Falsch liegt, wer dergleichen für einen Unsinn hält, der auf die Elfenbeintürme der Universitäten beschränkt bleibt und keine Auswirkungen auf das Leben von Bankkaufleuten und Bäckern hat: Im US-amerikanischen Staat New York kann ein Unternehmen bereits, wenn es ein Personalpronomen verwendet, das eine angesprochene Person nicht vorzieht, zu einer Geldstrafe von bis zu 250.000 Dollar verurteilt werden. Neben herkömmlichen Pronomen wie „Er“ und „Sie“ umfasst die Liste der zu nutzenden Wörter Dutzende frei erfundene Begriffe wie „Ze“, „Xu“ oder „Hir“, die dann je nach selbst zugeschriebener Geschlechtsidentität des Gegenübers (agender, bigender, gender fluid …) Verwendung finden sollen.

Vorstößen wie diesem liegt die von Boghossian und Lindsay persiflierte Vorstellung zugrunde, das eigene Geschlecht sei nicht primär genetisch vorgegeben, sondern vor allem sozial konstruiert. Kennt man die überwältigenden Gegenbeweise aus der Biologie, lässt sich dieses Urteil ansatzweise stringent eigentlich nur aufrechterhalten, wenn auch die Wahrheit an sich in Frage gestellt wird.

Berufen können Gender-Theoretiker sich dabei auf zahlreiche Autoren der Postmoderne. Michel Foucault zum Beispiel hielt Wahrheit ausschließlich für ein Produkt von sozialen Machtsystemen und Vernunft für die „Sprache des Wahnsinns“. 1 Dieser französische Philosoph, der heute an allen Universitäten von Rang gelehrt wird, wandte sich ausdrücklich gegen „die Idee universeller Notwendigkeiten in der menschlichen Existenz“. 2 Von Objektivität kann nun keine Rede mehr sein, wenn Wahrheit lediglich als System von (gesellschaftlichen und kulturellen) Prozessen gilt, die wiederum mehr oder minder arbiträren Machtverhältnissen gehorchen und eine Realität außerhalb dieser Verhältnisse für den Menschen nicht erkennbar ist. 3 Hier zerbricht die Hoffnung auf die emanzipatorische Kraft der Vernunft und damit auch auf gemeinsame Standards, die uns als Menschen in Wissenschaft, Kunst und Moral verbinden könnten.

„Die meisten Autoren der Postmoderne lehnen die Logik an sich ab.“

Wobei Foucault es als Vertreter der Postmoderne nicht versäumte, solche klaren Aussagen sogleich durch Widersprüche zu vernebeln. Wie die meisten seiner französischen Kollegen, die in den 60er- und 70er-Jahren des vergangenen Jahrhunderts Prominenz erlangten, scheint Foucault geradezu besessen von Widersprüchen. Der Gestus etwa, mit dem er sich in seiner Schrift „Die Ordnung des Diskurses“ dem Thema „Kommentar“ widmet, ist typisch für ein ganzes philosophisches Genre. Dort heißt es: „[Der Kommentar] muss (einem Paradox gehorchend, das er immer verschiebt, aber dem er niemals entrinnt) zum ersten Mal das sagen, was doch schon gesagt worden ist, und muss unablässig das wiederholen, was eigentlich niemals gesagt worden ist.“ 4 Wer nur ein wenig in den Schriften Derridas, Lacans oder Butlers geblättert hat, weiß: Dieser Satz hätte gerade wegen seiner Sinnwidrigkeit auch einen Platz in den Werken dieser zentralen Figuren der Postmoderne finden können.

Nun zählt Widerspruchsfreiheit nicht ohne Grund zu den ehernen Grundsätzen der klassischen Logik, denn aus zwei widersprüchlichen Sätzen lässt sich jede beliebige Aussage ableiten. Umgangssprachlich formuliert: Wer behauptet, Paris sei die Hauptstadt von Frankreich und gleichzeitig das Gegenteil für wahr erklärt, kommt auch nicht an der logischen Folgerung vorbei, dass die Champs-Élysées aus Schwarzwälder Kirschtorten vom Jupiter besteht. Die meisten Autoren der Postmoderne muss derartiges nicht kümmern – sie lehnen die Logik an sich ab. Der Gedanke, dass man mit inkonsistenten Aussagenmengen Beliebiges beweisen kann, mag für sie trotzdem seinen Reiz haben. Anders hielten es bekanntlich die Denker der Aufklärung, die Logik im Besonderen und Vernunft im Allgemeinen zu Schlüsselkonzepten des menschlichen Strebens nach Glück erhoben. Der Aufklärer Voltaire lebte zwar zu früh, um sich auf Vertreter der Postmoderne bezogen zu haben, als er schrieb: „Wer dich veranlassen kann, Absurditäten zu glauben, der kann dich auch veranlassen, Unrecht zu begehen.“ 5 Ganz unwahrscheinlich ist es aber nicht, dass er Ähnliches auch gegenüber manchem Obskurantisten unserer Zeit geäußert hätte.

V. Grenzen des Zweifels

Letztlich sind es bei Humes Skeptizismus und der Postmoderne sehr ähnliche Widersprüche, die beide Ansätze fehlschlagen lassen. Und dies gilt für alle Vorstellungen von kulturellen Bezugsrahmen, Paradigmen und so weiter, wenn diese dazu dienen sollen, Wahrheit, Vernunft oder andere Fundamente des Denkens zu erschüttern. Wer etwa wie Foucault Wahrheit per se leugnen möchte, muss dieses Konzept bereits voraussetzen, um seinem Gegenüber überhaupt einen Grund geben zu können, ihm Glauben zu schenken. In Widersinniges gleicher Art verstrickt sich, wer versucht, Induktion als solche anzuzweifeln.

„Hume bereitete mit seinem Zweifel an induktiven Schlüssen den Boden für den Abgesang auf Vernunft und Objektivität, der zum guten geisteswissenschaftlichen Ton zählt.“

Hume behauptet, es sei kein Selbstwiderspruch, anzunehmen, dass es ein Prinzip, das induktive Schlüsse rechtfertigt, nicht gibt. Oder in anderen Worten: dass die Natur nicht gleichförmig voranschreitet. Doch auf welcher Grundlage beruht diese Behauptung? Selbstverständlich verhält die Welt sich nicht immer unseren Erwartungen entsprechend: Die Erkenntnis, dass es Schwäne gibt, die schwarz sind, ist bei Weitem nicht der einzige Fall, in dem sich ein Schluss, der auf Basis bisheriger Erfahrungen gefällt wurde, als falsch herausgestellt hat. Dies hilft uns unter Humes Prämissen jedoch nicht weiter. Denn wenn wir anführen, eine Negation des Induktionsprinzips stelle keinen Widerspruch dar, schließen wir notwendig induktiv. Als Rechtfertigung für unsere Behauptung bleibt uns nämlich in diesem Fall letztlich allein, anzuführen, dass sich unserer Erfahrung nach induktive Schlüsse bereits als falsch herausgestellt haben. Schlimmer noch als bei dem von Hume kritisierten Zirkelschlusses wird hier nicht bloß vorausgesetzt, was zu beweisen war, sondern es gerät zur Bedingung, was verneint wird.

Wer behauptet, das Induktionsprinzip gelte nicht, muss als Grundlage seines Arguments mindestens ein beobachtetes Ereignis voraussetzen, dass unsere Erwartungen nicht erfüllt hat – etwa die Entdeckung, dass nicht alle Schwäne weiß sind. Denn welcher Grund ließe sich sonst dafür anführen, auszuschließen, dass induktive Schlüsse in gleicher Weise gewiss sind wie Vorstellungsbeziehungen? Auf Basis des beobachteten Ereignisses wird dann auf mindestens ein unbeobachtetes Ereignis geschlossen, im Zuge dessen unsere Erwartungen wiederum nicht erfüllt werden – etwa dass einige Schwäne keine Vögel, sondern verwunschene Prinzessinnen sein könnten (oder eine unendlich große Zahl anderer Prognosen). Dieser Schluss, der dazu dienen soll, induktive Folgerungen in Zweifel zu ziehen, lässt sich unter Humes Bedingungen aber nur rechtfertigen, wenn man die Gültigkeit induktiver Schlüsse bereits akzeptiert. Sprich, wenn man anerkennt, was widerlegt werden sollte. Im Rennen der Vernunft gegen sich selbst geht am Ende – wenig überraschend – die Vernunft als Sieger durchs Ziel.
Hume bereitete mit seinem Zweifel an induktiven Schlüssen den Boden für jenen Abgesang auf Vernunft und Objektivität, der heute in tausend Spielarten der Postmoderne zum guten geisteswissenschaftlichen Ton zählt. Skepsis an induktiven Schlüssen lässt sich zwar bereits seit der Antike nachweisen, etwa bei Sextus Empiricus. Es war jedoch Hume, der einen Zweifel solcher Art erstmals präzise zum Ausdruck brachte und so jene Philosophen prägte, die heute in dieser Frage noch Einfluss ausüben.

„Probleme sind unvermeidbar, und es bedarf des Fortschritts, um sie zu meistern.“

Wie bereits erwähnt, nahm Kant Humes skeptische Philosophie zum Anlass, seine eigenen erkenntnistheoretischen Überlegungen zu vertiefen. Auf diesen baute unter anderem Schopenhauer auf und sah am Ende nur mehr einen vernunftlosen Weltwillen als eigentliches Wesen der Welt. Bei Nietzsche, der Schopenhauer als seinen geistigen Erzieher betrachtete, 6 erscheint jenes Konzept dann in Form des Willens zur Macht, und zwar, anders als bei Schopenhauer, aus explizit erkenntnistheoretischer Perspektive. Wo Nietzsche aber noch an Fakten über Menschen glaubt, die dazu dienen können, ihre Überzeugungen zu erklären, sind solche Sachverhalte für den Nietzsche-Bewunderer Foucault nicht mehr gegeben. Als bloßes Konstrukt gesellschaftlicher beziehungsweise kultureller Diskurse gerät etwas wie das Wesen des Menschen hier zu einem Begriff, der nur für historische oder soziologische Betrachtungen von Interesse ist, aber kein eigentliches Faktum mehr darstellt. Weil Wahrheit für Foucault stets an Machtverhältnisse gebunden ist, die außerhalb von Erkenntnis und Vernunft liegen, kann von einer objektiv fassbaren Realität aus seiner Sicht keine Rede mehr sein.

Es wäre selbstverständlich falsch, Humes skeptische Positionen als alleinige Ursache für die Geringschätzung objektiver Standards verantwortlich zu machen, wie sie sich heute in der postmodernen Philosophie ebenso wie auch in identitätspolitischen Debatten, in aktueller Konzeptkunst oder Teilen der Wissenschaften zeigt. Schon deshalb, weil das Zweifeln konstitutiv für die Aufklärung ist, war abzusehen, dass es sich früher oder später auch gegen die Bedingungen der Aufklärung selbst wendet. Folgendes gilt jedoch damals wie heute gleichermaßen: Logisch zum Verhängnis wird Humes Zweifel nicht anders als neueren skeptischen Positionen, dass man ihn ablehnen müsste, um an ihn zu glauben.

Es liegt auf der Hand, dass eine dergestalt widersprüchliche Haltung keinen guten Nährboden für vernunftgeleitete Gesellschaften abgibt. Wie eingangs bemerkt: Probleme sind unvermeidbar, und es bedarf des Fortschritts, um sie zu meistern. Weil wir uns aber nie vollends sicher sein können, die richtige Lösung für ein Problem gefunden zu haben, sind wir auf offene Gesellschaften angewiesen, in denen eine Kultur objektiver Kritik gepflegt wird. Diese wiederum kann jedoch nur gedeihen, wo die Vernunft sich nicht gegen sich selbst wendet – das heißt unter anderem: wo Wahrheit und Wirklichkeit als etwas verstanden werden, nach dem sich objektiv und erfolgreich streben lässt.

„Es ist eine Minderheit, deren Leben von den Ideen der Aufklärung bestimmt wird – eine Minderheit, die künftig drastisch weiter schrumpfen kann.“

Für den, der wie Voltaire nicht den Glauben mancher Aufklärer an einen zwangsläufig andauernden Fortschritt teilt, ist die Moderne eine fragile Errungenschaft. Sie beruht auf der Übereinkunft, dass Vernunft, Kreativität und Kritik dem Menschen neues Wissen zugänglich machen und ihn so ein objektiv besseres Leben führen lassen. Postmoderne Autoren sind in ihrer Vernunftfeindlichkeit längst nicht die einzigen, denen dieses Verständnis von Fortschritt abgeht. Es fehlte den Kräften, die das antike Athen zurück unter eine autoritäre Herrschaft zwangen, genauso, wie es bei jenen der Fall ist, die heute noch in theokratischen Traditionen wie der „Sunan an-Nasa‘i“ Entwürfe für eine bessere Gesellschaft zu erkennen glauben. Abgehen muss diesen Kräften ein solches Verständnis schon deshalb, weil sie zwei Grundbedingungen vernunftgeleiteter Gesellschaften ablehnen: die Freiheit und damit auch die Verantwortung des Individuums, seine Urteile über die Welt am Maß der Vernunft zu messen und messen zu lassen. Zur Freiheit gehört natürlich auch, diesen Maßstab zu leugnen, nur lässt sich solch eine Position nicht ohne logischen Widerspruch durchhalten, wie weiter oben gezeigt wurde.

Die Kultur der Kreativität und Kritik, die im 18. Jahrhundert ihren Ausgang nahm, bescherte der Welt ein Zeitalter des Fortschritts, das noch immer anhält. Nie hat ein größerer Teil der Menschheit mehr Wohlstand, Frieden und Gesundheit erfahren können als heute: Zu Humes Zeiten wütete noch die Pest in Europa, wurden Sklaven gehandelt und Hungersnöte rafften weite Teile der Bevölkerung dahin (1740–1741 starben schätzungsweise allein in Irland mindestens 38 Prozent der Bevölkerung durch eine Hungersnot). Selbst Anfang der 1980er Jahre lebten noch 44 Prozent der Weltbevölkerung in extremer Armut. Mittlerweile sind es nur noch 11 Prozent. 1950 betrug die Zahl der in Kriegen gefallenen Menschen weltweit über 20 pro 100.000 Einwohner, heute ist diese Zahl kleiner als 1. Und während um 1900 selbst in Europa die Lebenserwartung noch bei Anfang 40 lag, werden Menschen hier mittlerweile im Schnitt 80 Jahre alt.

Möglich bleibt ein Rückfall in eine Ära des Stillstands trotz allem: Laut Freedom-House-Institut leben gegenwärtig nur vier von zehn Menschen in freien Gesellschaften. Noch düsterer klingt der jüngste Bericht der Economist Intelligence Unit, in dem lediglich 19 von 167 Ländern als uneingeschränkte Demokratien eingeschätzt werden (was nur viereinhalb Prozent der Weltbevölkerung entspricht, und wir wissen aus eigener Erfahrung in unserer relativ fortschrittlichen Gesellschaft, die zu den 19 Glücklichen zählt, dass auch bei uns in Sachen Freiheit und Demokratie noch Verbesserungspotenzial besteht und die Errungenschaften der Aufklärung immer wieder aufs Neue gegen ihre Gegner verteidigt werden müssen).

Es ist demnach eine Minderheit, deren Leben von den Ideen der Aufklärung bestimmt wird – eine Minderheit, die künftig drastisch weiter schrumpfen kann, denn das globale Bevölkerungswachstum findet zu einem überwältigenden Teil in Gesellschaften statt, die (noch) nicht so weit entwickelt sind wie diejenigen des Westens und eine wesentlich geringere Dynamik hinsichtlich sozialen Wandels zulassen. Weltanschauungen, die das Subjektive feiern, um die Vernunft leugnen zu können, müssen aus diesem Blickwinkel noch bedrohlicher wirken. Erst recht für den, der weiß, was viele Zeitalter Stillstand für die Menschheit bedeutet haben.