08.12.2014

Big Data: Der algorithmische Mensch

Essay von Martin Lewis

Durch Konzepte wie Big Data und das „Internet der Dinge“ werden Menschen von Techniknutzern zu Objekten nie gekannter Datensammlung. Wenn unsere Autos und Kühlschränke sich über unsere Köpfe hinweg vernetzen, bedroht das unsere Entscheidungsfreiheit, findet Norman Lewis

In den Nachrichten stößt man ständig darauf: Big Data und das „Internet der Dinge“. Gemeint ist die zunehmende Vernetzung von Computern, Handys und Sensoren in unserer Kleidung oder unserer Umgebung mit dem Ziel der Datensammlung. So gewonnene Informationen sollen analysiert und visualisiert werden, um uns bei der Entscheidungsfindung zu helfen. Angeblich befinden wir uns mit dieser Entwicklung bereits inmitten einer dritten industriellen Revolution.

Die Erwartungen für die Zukunft sind exorbitant. So könnte die weltweit jährlich verarbeitete Datenmenge nach Schätzungen schon 2024 einen Stapel Bücher füllen, der über 4,37 Lichtjahre bis zum Alpha Centauri, dem nächstgelegenen Sternensystem in der Milchstraße, reicht. John Chambers, der Vorstandsvorsitzende von Cisco, rechnet mit einem Billionengeschäft. Die Zahlen mögen nicht bei jedem dieselben sein, doch bei einem sind sich alle einig: Es wird so kommen, es muss so kommen, und es wird einfach traumhaft.

Aber was sollen sie auch sonst sagen. Sie haben ihr Leben der Entwicklung und dem Vertrieb wegweisender Technologien verschrieben. Und sie tun gut daran, die Möglichkeiten dieser Technologien zu betonen. Big Data hat bereits bahnbrechende Errungenschaften hervorgebracht, man denke nur an die Entdeckung des Higgs-Teilchens. Es haben sich auch schon praktische Anwendungen gefunden, etwa werden in Los Angeles durch Ampeln, die das Wetter und den Verkehr beobachten, Staus vermindert. Außerdem können Produktionsketten überwacht und Flüge effizienter geplant werden.

Technologie und Gesellschaft

Zweifelsohne wird diese Entwicklung unser Leben maßgeblich beeinflussen, jedoch sollte man nicht glauben, es wäre alles eitel Sonnenschein. Ein Problem liegt im Weltbild der Technologen, die davon ausgehen, dass alles technologisch vorbestimmt ist bzw. sich aus den Erfindungen selbst ergibt. Das müssen wir ihnen lassen, denn diese Propheten des Silicon Valley sind nun einmal von ihrer Technologie und sich selbst in einer Weise überzeugt, die man bewundern oder nervig finden kann. Aber die Einführung neuer Technologien folgt keinem eigenen, vorgefertigten Weg, sie verläuft immer vor dem Hintergrund gesellschaftlicher, politischer und wirtschaftlicher Bedingungen und Entscheidungen.

„Es liegt an sozialen Bedürfnissen, dass sich milliardenschwere Unternehmen wie Facebook entfalten können.“

Nehmen wir als Paradebeispiel den Umgang junger Menschen mit mobilen Geräten wie Smartphones. Diese Technologie ist nicht so unwiderstehlich, dass junge Leute gar nicht anders können, als ihr zu verfallen. Sie haben sich Mobiltelefone zu eigen gemacht, um sie oft anders anzuwenden als ursprünglich geplant (etwa durch massenhaften SMS-Versand) und damit ihren Bedürfnissen anzupassen. In diesem Fall geht es darum, sich der ständigen Überwachung durch Erwachsene in unserer risikoscheuen Gesellschaft zu entziehen. Internet und mobile Kommunikation schaffen einen begehrten Rückzugsraum, um sich ohne Aufsicht Erwachsener frei miteinander austauschen zu können. Es liegt also nicht an Zaubertechnik, sondern an sozialen Bedürfnissen, dass sich milliardenschwere Unternehmen wie Facebook entfalten können.

Dass es in Facebook heute von Erwachsenen nur so wimmelt, die sich immer mehr wie Kinder aufführen, um dort Selbstbestätigung zu erhalten, sollte uns nicht über den Ursprung der sozialen Netzwerke hinwegtäuschen. Als das Internet entstand, konnte niemand Facebook, nicht einmal Amazon, Google oder E-Bay vorhersehen.

Gesellschaftliche Rahmenbedingungen prägen den Einsatz und die Entwicklung von Technologien. Dabei spielt menschliche Erfahrung eine große Rolle, sowohl technisch betrachtet als auch in einem größeren wirtschaftlichen und kulturellen Rahmen. Es ringen verschiedene Gruppen um Einfluss, um ihre oft gegensätzlichen Interessen zu befriedigen. Hierbei lässt sich ein weniger harmloser Trend beobachten: Die Abwertung der menschlichen Urteilskraft zu Gunsten von Big Data und intelligenten Technologien.

Algorithmischer Fatalismus

Vor 15 Jahren haben dieselben Unternehmen, die heute Big Data und das Internet der Dinge vorantreiben, mit Slogans wie „immer verbunden“ geworben. Auch wenn das stets eher Wunsch als Realität blieb, bedeutete es, dass Menschen Teil eines Netzwerks waren. Doch je schneller die Geräte und je aufnahmefähiger die Speicher werden, desto mehr sind es diese „intelligenten“ Geräte, die sich miteinander verbinden, nicht die Nutzer. Eine scheinbar kleine, aber doch sehr relevante Verschiebung zeichnet sich hier ab. Der Mensch wurde von einem Subjekt, das einem Netzwerk angehört, zu dem Objekt dieses Netzwerkes, ein weiteres Datenpaket im endlosen Strom der Big Data. Er ist damit nur eines von vielen „Dingen“ im Internet der Dinge, das mit anderen vernetzt wird.

In dieser schönen neuen Welt werden Menschen zu passiven Datenströmen. Nicht sie, sondern ihre Daten agieren, die Rollen von Subjekt und Objekt sind umgedreht. Entscheidungen treffen Algorithmen, anders als Menschen fehlerfrei und objektiv, immer perfekt nach einer „Wenn-dann“-Formel. Als ob das nicht genug Grund zur Sorge wäre, sollen uns Big Data-Analysen über bunte Grafiken auch noch nie gekannte Einblicke in unser eigenes Leben offenbaren. Der Algorithmus macht euch frei, meine Brüder und Schwestern!

Lange ist es her, dass Descartes mit „Ich denke, also bin ich“ 1 einen Meilenstein der humanistischen, vernunftorientierten Philosophie gesetzt hat. Heute hört sich das Äquivalent von „cogito ergo sum“ eher so an: „Ich denke schon, dass ich bin, also zumindest habe ich eine App, die Daten über meine Existenz sammelt und analysiert, so dass ich mehr Sinn in meinem Leben finden kann.“

„‚Ich denke schon, dass ich bin, also zumindest habe ich eine App, die Daten über meine Existenz sammelt‘“

Aber Graphen und Analysen über menschliches Verhalten sind noch keine Reflexion über sich selbst. Menschliche Erfahrung vermittelt zwischen Information und Sinn. Informationen oder Daten sind der Rohstoff, ein Fluss an Eindrücken, Sinn und Unsinn, der nur durch Interpretation und Reflexion Bedeutung gewinnt. Diese Transformation ist mehr als das Signal aus dem Rauschen zu filtern, wie Analytiker gerne meinen. Die Umwandlung geschieht durch den Menschen, sie beansprucht Zeit, Geduld und Übung, Kraft und Können und kommt doch nicht ohne Fehler aus. Von Kindheit an verfeinern wir diesen Vorgang – ein Leben lang. Wie erfahren wir auch werden, es gibt – ob zu unserem Schrecken oder unserer Freude – nie eine Erfolgsgarantie. Irren ist menschlich, und so müssen wir immer neu ansetzen und hören wir nie auf, besser zu werden.

Nie werden Experten ein Monopol auf dieses Streben besitzen, denn es handelt es sich um ein zutiefst menschliches und überlebensnotwendiges. Es macht uns zum Menschen. Und diese bewusste Aktivität wäre undenkbar, wenn wir uns dafür nicht in einen privaten Raum zurückziehen könnten, in dem wir experimentieren, Fehler machen, reflektieren, Erkenntnisse gewinnen, Weisheit erlernen und Sinn entwickeln können.

Doch nichts liegt den Hohepriestern der Big Data und des Internets der Dinge ferner. Computer, die auf Grund riesiger Datenmengen nach komplexen „Wenn-dann“-Formeln- Entscheidungen treffen, sollen alle Bereiche unseres Lebens verbessern, sei es Websuche, Marketing, Aktienhandel, Bildung oder Kontrollen aller Art. Amazon-Algorithmen schlagen die nächste Lektüre vor, Dating-Dienste finden den perfekten Lebenspartner und Autos fahren unfallfrei von alleine. Mit anderen Worten: Den Menschen sollen ihre bewussten Entscheidungen abgenommen werden, weil Computer besser wissen, was gut für uns ist.

Es handelt sich um einen algorithmischen Fatalismus, der Computerkraft über die menschliche Subjektivität erhebt. Wenn menschliches Handeln über die von uns zurückgelassenen Datenspuren „objektiv“ messbar wird und unsere Motive von Programmen „entlarvt“ werden, entleert das den freien Willen, die bewussten Entscheidungen und die Sinnsuche von ihrem menschlichen Gehalt. Wir laufen Gefahr, das Präzisionswerkzeug Algorithmus höher zu bewerten als die Entscheidungsfähigkeit des Menschen. Das lässt nicht nur das Menschsein dahinschrumpfen, sondern wirkt sich auch auf das Verhältnis von privatem zu öffentlichem Raum aus: Die Grenze zwischen privat und öffentlich droht zu verschwinden.

„Schubsen“ und der Niedergang des Subjekts

Wie oben angedeutet, ist diese Entwicklung nicht unvermeidlich. Ob wir in einer Gesellschaft landen, in der Computer unser Handeln festlegen, hängt von unseren Entscheidungen über unsere Freiheit und unsere Sehnsüchte ab. Diese Entscheidungen sind keine Zukunftsmusik, sondern müssen hier und jetzt getroffen werden. Die Jünger von Big Data und des Internets der Dinge stehen mit ihrer Haltung nicht alleine. Das Schwinden des Subjekts ist überall im Westen anzutreffen, wie man bei z.B. an Ökologismus und Opferkultur erkennt.

Dies ist bereits tief in westliche Regierungspolitik eingedrungen. Die deutsche Bundesregierung ist dabei, ein Team von Verhaltensforschern zusammenzustellen. Inspiriert von dem Bestseller Nudge (2008) 2 und nach britischem Vorbild, denn dort war bereits 2010 das BIT („Behavioural Insights Team“) gegründet worden, auch als „Nudge Unit“ bekannt. Ziel dieser Teams ist es, die Regierung bei der Politikgestaltung dahingehend zu unterstützen, dass Bürger durch „Schubsen“ in die, nach Meinung der Staates, richtige Richtung gelenkt werden.

„So werden aus uns Pawlowsche Hunde, denen Algorithmen den Pfad der Tugend weisen.“

Erreicht wird diese gezielte Umgehung des bewussten und reflektierten Handelns über bestimmte „Entscheidungsarchitekturen“, also die unterbewusste Entscheidungsbeeinflussung durch suggestive Präsentation der Handlungsalternativen gegenüber den als geistig schwache Masse aufgefassten Bürgern. Zum Beispiel werden zur Bekämpfung von Fettleibigkeit in Schulkantinen gesunde Speisen auf Augenhöhe platziert, weniger gesunde hingegen an schwerer erreichbaren Orten. Oder die Organspende wird zum Standard, indem man sich ab- statt anmelden muss. Der Staat wird so zu einem wohlwollenden Gott, der ein Labyrinth baut, um die armen Sünder ans Ziel zu führen.

Das „Schubsen“ und die Entscheidungsarchitektur können mit intelligenten Häusern, Autos, Fernsehern und Kühlschränken neue Hochzeiten feiern. All unser häusliches, also privates Tun kann mittlerweile durch Sensoren, die unsere Autos, Lampen, Kühlschränke, Fernseher, Musikanlagen und am Körper getragene Geräte verbinden, erfasst, ausgewertet, analysiert und visualisiert werden. Mittels der so gewonnenen Daten kann menschliches Verhalten in die „richtige“ Richtung gelenkt werden. So werden aus uns Pawlowsche Hunde, denen Algorithmen den Pfad der Tugend weisen. Mit der Türschwelle wird auch die Grenze ins Private überschritten, wer auch immer die Macht ausübt, kann die „tumben Massen“ nach seiner Interessenlage beeinflussen.

Aber nochmals: Diese Entwicklung ist nicht alternativlos. Die von uns geschaffenen Maschinen werden niemals die menschliche Subjektivität ersetzen können. Vieles hängt davon ab, welche bewussten politischen, wirtschaftlichen und sozialen Entscheidungen wir heute und in Zukunft treffen. Die Herausforderung besteht darin, sicherzustellen, dass der technologische Fortschritt der Menschheit insgesamt dient statt nur den einseitigen und kurzfristigen Interessen der politischen Eliten und Konzerne. Dabei geht es um unsere gesellschaftlichen Ambitionen wie auch um die Steuerung der Datenproduktionsmittel. Sokrates sagte einmal zum Thema Selbstreflexion: „Das ungeprüfte Leben ist nicht lebenswert.“ Doch umgekehrt gilt auch: Ein Leben unter ständiger prüfender Überwachung, durch das Eindringen von Datenanalysen bis in die letzte Ritze unseres Lebens, ist gar kein richtiges Leben.