30.05.2018

Transhumanismus – über die Zukunft der menschlichen Existenz

Von Nur Baysal

Titelbild

Foto: Eric Ward via Unsplash / CC0

Der Transhumanismus wird oft mit naivem Technologieoptimismus gleichgesetzt. Dabei übersehen die Kritiker dessen enormes Potential zur Verbesserung unseres Lebens.

Blade Runner 2049, Black Mirror, Altered Carbon und Co.: Viele neue Serien und Filmproduktionen der letzten Jahre zeichnen die Zukunft als einen Ort der technologischen Dystopie. Das Bild ist oft ähnlich strukturiert: Mächtige Autoritäten (wahlweise der Staat oder mächtige Unternehmen) haben durch stark fortgeschrittene Technologien die Möglichkeit, Menschen zu kontrollieren und zu missbrauchen. Dem entgegen steht die heroische Gegenseite, die dem fortschreitenden technologischen Missbrauch des Menschen entgegentritt und wieder die alten Verhältnisse herstellen möchte.

Durch solche Geschichten wurde der Transhumanismus bekannt. Allerdings verbinden nun viele das Konzept des Transhumanismus mit solchen dystopischen Horrorszenarien: Kontrolle des Menschen durch ausufernde Technologie; Chips und Substanzen in unserer Blutlaufbahn, mit denen wir stets geortet werden können; künstliche Intelligenz, die uns dominiert und unsere bisher bekannte Welt zerstört. Und hat es nicht etwas Unethisches, den Menschen immer weiter optimieren zu wollen? Gehört es nicht zur Essenz des Menschseins, unsere Grenzen – inklusive unseres Todes – als natürlich zu akzeptieren?

Als Ausgangspunkt meiner Argumentation verwende ich die folgende, weitläufig akzeptierte Transhumanismus-Definition des Philosophen und Futurologen Max More: „Transhumanismus ist eine von lebensfördernden Prinzipien und Werten geleitete Weltanschauung, die die Fortsetzung und Beschleunigung der Evolution des intelligenten Lebens jenseits seiner gegenwärtigen menschlichen Form und Grenzen mit Hilfe von Wissenschaft und Technologie anstrebt.“

Transhumanismus ist nicht blinder Technologieoptimismus

Es ist berechtigt, sich Sorgen über die Gefahren einer extrem leistungsfähigen künstlichen Intelligenz (KI) zu machen. Und ein solches Szenario ist zeitlich nicht so weit entfernt, wie einige glauben – laut aktuellen Umfragen der meisten bekannten KI-Wissenschaftler wird künstliche Intelligenz mit hoher Wahrscheinlichkeit zwischen 2035 und 2050 das Intelligenzniveau des Menschen erreichen – bezeichnet als Artificial General Intelligence (AGI). Wenn dies eintritt, wird KI nicht nur in einzelnen, engen Bereichen wie Schach oder Go Menschen übertreffen, wie es heute bereits der Fall ist. (Interessanterweise ist dies im Dezember 2017 durch das Computerprogramm AlphaZero erstmalig ohne programmierte Züge geschehen. Die KI hat sich das gesamte Konzept von Schach innerhalb von vier Stunden selbst beigebracht. Diese Art des Selbstlernens mit mehrschichtigen neuronalen Netzen wird als Deep learning bezeichnet.)

„Gerade in der aktuellen Entwicklungsphase kann die positive Ausrichtung von KI noch gesteuert werden.“

Es stellt sich die Frage, ob der Transhumanismus die Gefahren einer Intelligenz übersieht, die der menschlichen nicht nur ebenbürtig ist, sondern sie ab diesem Zeitpunkt durch eine Intelligenzexplosion möglicherweise um Dimensionen übersteigen wird. Dieses Szenario einer Intelligenzexplosion wurde bereits 1965 von dem englischen Mathematiker Irving Good formuliert:

„Lassen Sie uns eine ultraintelligente Maschine als eine Maschine definieren, die bei weitem jegliche intellektuelle Aktivität eines beliebigen Menschen übersteigt, wie intelligent dieser auch sein mag. Da der Entwurf von Maschinen zu diesen intelligenten Aktivitäten gehört, könnte eine ultraintelligente Maschine noch bessere Maschinen konstruieren. Dann gäbe es zweifellos eine Intelligenzexplosion, die die menschliche Intelligenz weit hinter sich ließe. Deshalb ist die erste ultraintelligente Maschine die letzte Erfindung, die der Mensch je machen muss, vorausgesetzt, die Maschine ist fügsam genug, um uns zu sagen, wie man sie unter Kontrolle behält.“

Eine Entität mit so einer gewaltigen Intelligenz kann die Kontrolle über unsere Infrastrukturen, Medien und staatlichen Institutionen übernehmen. Diese Gefahren werden von Transhumanisten wie Nick Bostrom akzeptiert. Bostrom erlangte Bekanntheit durch seine expliziten Beschreibungen der Gefahren einer solchen Super-KI in seinem Buch Superintelligenz: Szenarien einer kommenden Revolution.

Allerdings wäre es voreilig, die Position eines rigiden historischen Determinismus anzunehmen, der zufolge diese Szenarien zwangsläufig eintreten werden und wir daher KI völlig vermeiden sollten. Denn gerade in der aktuellen Entwicklungsphase kann die positive Ausrichtung von KI noch gesteuert werden. Mit seinem Unternehmen Neuralink setzt Elon Musk auf eben diesen Ansatz. Durch die Verbindung von menschlichen Gehirnen mit KI-Systemen soll sichergestellt werden, dass letztere von Menschen kontrolliert werden und gute Absichten haben. (Genaueres kann in diesem Whitepaper nachgelesen werden.)

„Optimierung des menschlichen Körpers durch Medizin und Technologie ist nichts Neues.“

Neben ernstzunehmender Kritik weisen Transhumanisten allerdings auch auf das positive Potential der KI-Technologie hin: Eine fortgeschrittene KI kann uns dabei helfen, bisher unheilbare Krankheiten wie Krebs zu heilen. Darüber hinaus kann diese Technologie nach Auffassung von Transhumanisten nicht nur zur Heilung, sondern auch zur Optimierung des Menschen beitragen. Viele Menschen möchten ihre Intelligenz signifikant erweitern, unfreiwilliges Leid oder ihre Lebensspanne unbegrenzt verlängern. Derartige Ziele der Selbstoptimierung können sich durchaus mit einer gemäßigt-realistischen Sicht auf kommende Technologien verbinden.

Viele Kritiker einer starken Selbstoptimierung durch Technologie weisen direkt oder indirekt darauf hin, dass solche Veränderungen des Menschen schlecht seien, weil sie unnatürlich sind. Das ist häufig eine eher intuitive Argumentation: Die Vorstellung, die Natur des Menschen auf ungeahnte Weise verändern zu können, fühlt sich schlecht an. Menschen sollten nicht die Macht haben, das Produkt von tausenden Jahren Evolution (oder wahlweise bzw. zusätzlich göttlicher Entwicklung) so fundamental zu verändern. Auch intuitive Argumente dieser Art haben ihre Berechtigung, wenn sie auf stichhaltigen Befürchtungen beruhen. Wenn man die Natur des Menschen als etwas Sakrosanktes und Unveränderbares ansieht, könnte man sich durch Szenarien, wie zum Beispiel: „unbegrenzte Lebenserweiterung“, gefährdet fühlen.

Allerdings ignoriert dieses Argument die Tatsache, dass wir den Menschen schon seit langer Zeit über seine natürlichen Grenzen hinaus durch Technologie optimieren. Zum einen gehören dazu medizinische Substanzen, die beispielsweise das Fortschreiten von Diabetes verhindern oder Praktiken wie die Chemotherapie zum Abtöten von Krebszellen. Darüber hinaus sind bereits heute die Körper vieler Menschen nicht vollständig natürlich – Hüftprothesen sind besonders bei älteren Menschen keine Seltenheit mehr und die Zahl von allen möglichen, funktionellen Prothesen hat in der letzten Zeit durch das 3D-Printing stark zugenommen.

Optimierung des menschlichen Körpers durch Medizin und Technologie ist nichts Neues. Bis jetzt haben uns diese Errungenschaften nicht das Menschsein gekostet oder spürbar den Wert der menschlichen Existenz negativ beeinflusst – im Gegenteil. Trotzdem steht es Menschen frei, diese Entwicklungen für sich nicht zu nutzen und in ihrem „natürlichen“ Zustand zu bleiben. Konkret: der Verzicht auf Medikamente gegen Krankheiten wie Diabetes oder HIV oder der Verzicht auf Technologien wie Gelenkprothesen.

„Es wäre falsch, den Menschen die Möglichkeit eines unbegrenzten Lebens zu verwehren.“

Alle diese Errungenschaften wurden bis vor ein paar Jahrzehnten als neuartig oder revolutionär bezeichnet. Heute werden sie von dem Großteil der Menschheit gerne akzeptiert, um physisches Leid zu verringern. Gegner einer weiteren Optimierung des Menschen müssten erfolgreich argumentieren, wieso eine weitere Verbesserung im augenscheinlich bereits existierenden Prozess kontinuierlicher Verbesserungen plötzlich eine große Gefahr für das Menschsein darstellt.

Der Tod ist sinnlos

Von einigen wird die Möglichkeit abgelehnt, das Leben unbegrenzt zu verlängern und damit im Grunde nicht unfreiwillig sterben zu müssen, weil so der menschlichen Existenz ihre tiefere Bedeutung genommen werde. Gerade die Endlichkeit des menschlichen Lebens sei Ansporn und Motivation, um Ziele zu erreichen. Würde all das wegfallen, wären wir verdammt zu einer apathischen Existenz. Ohne konstantes Todesbewusststein (direkt oder indirekt), hätten wir keinen Ansporn, etwas zu erreichen – es wäre ja eine Ewigkeit dafür vorhanden. Gemeinsam mit diesem Argument wird häufig noch eingebracht, dass eine solche Existenz langweilig wäre. Irgendwann würden Dinge und Aktivitäten, die wir mögen, ihren Endzeitpunkt erreichen.

Dieses Argument ist nicht besonders überzeugend. Zu einem großen Teil beruht es auf Selbstprojektion – Befürworter sind sich sicher, dass eine zeitlich unbegrenzte Existenz Langeweile und Apathie für sie bedeuten würde. Aber: Ich bin mir sicher, dass das für mich nicht so wäre. Es gibt eine Vielzahl von Aktivitäten und Interessen, die ich gerne weiter verfolgen würde. Außerdem kamen bereits in den letzten Jahren viele neue Interessen hinzu und ich bin mir sicher, dass sich mein Drang, Neues zu entdecken, nicht erschöpfen wird. Das mag für andere nicht so sein, aber diese sollten ihre Persönlichkeiten nicht als universell gültige menschliche Eigenschaften auf andere projizieren. Ich kann mit Sicherheit behaupten, dass es neben mir einige Menschen gibt, die diese These aus denselben Gründen ablehnen. Daher wäre es falsch, diesen Menschen die Möglichkeit eines unbegrenzten Lebens zu verwehren, nur weil sie mit der Selbstprojektion anderer Menschen kollidiert.

Der Philosoph Ed Regis hat 1990 meine Ansichten dazu prägnant dargestellt:

  • Das normale Leben ist ebenfalls langweilig. So what?
  • Ewiges Leben wird so langweilig oder so interessant sein, wie du es gestaltest.
  • Ist es interessanter, tot zu sein?
  • Falls ewiges Leben langweilig wird, kannst du dich jederzeit umbringen.

„Wir haben die menschliche Existenz schon immer technologisch verbessert.“

Es ist verständlich, dass sich Menschen Rationalisierungen für den Tod überlegen. Bis vor einigen Jahren war die Vorstellung undenkbar, dass wir eventuell nicht sterben müssen. Wenn der eigene Tod ausweglos erscheint, kreieren Menschen normative Rechtfertigungen dafür, um die allgegenwärtige Angst vor dem Tod sanfter erscheinen zu lassen. Da es heute zumindest theoretisch die technologische Möglichkeit dazu gibt (es allerdings noch an der praktischen Umsetzung hapert), ist das weitere Festhalten an einer solchen Glorifizierungen des Todes nicht mehr verständlich. Im Gegenteil: Sie fördert eine Haltung der Hilflosigkeit und Passivität.

Befürworter des Todes sollten sich folgende Frage stellen: Wenn es die Möglichkeit gäbe, den eigenen Tod zu verhindern, schmerzvolles Altern und Krankheiten zu eliminieren und wieder aktiv und energiereich zu werden – würdest du diese Möglichkeit ausschlagen? Würdest du dich lieber Krankheiten und dem Alter aussetzen und möglicherweise schmerzhaft sterben? Ich vermute, die meisten Menschen würden in diesem Fall nicht passiv bleiben.

Diejenigen, die sich dennoch dafür entscheiden, sollten natürlich sterben dürfen. Aber es erscheint mir unethisch, anderen Menschen die Möglichkeit, nicht sterben zu müssen, durch Zwang vorzuenthalten.

Transhumanisten als blinde Technologieoptimisten ohne jegliche Bedenken darzustellen, ist eine Strohmann-Taktik. Viele Transhumanisten haben erhebliche Zeit damit aufgebracht, auf die Gefahren von Technologien wie KI hinzuweisen. Letztendlich haben Transhumanisten das Ziel, bereits existierende Entwicklungen der kontinuierlichen Verbesserung menschlichen Lebens fortzuführen. Damit akzeptieren sie auch Krankheiten wie Krebs oder das Altern selbst nicht als Zwangsläufigkeit, genauso wie HIV oder gebrochene Gelenke in der jüngeren Vergangenheit nicht mehr als zwangsläufig betrachtet wurden.

Transhumanismus ist kein naiver Technologieoptimismus. Wir haben die menschliche Existenz schon immer technologisch verbessert – und der Transhumanismus möchte das in der Geschwindigkeit der aktuellen Technologieentwicklungen weiterführen.

jetzt nicht

Novo ist kostenlos. Unsere Arbeit kostet jedoch nicht nur Zeit, sondern auch Geld. Unterstützen Sie uns jetzt dauerhaft als Förderer oder mit einer Spende!