23.02.2017

„Ein Algorithmus ist niemandem verantwortlich“

Interview mit Timandra Harkness

Titelbild

Foto: ColossusCloud via Pixabay

Big Data, das Sammeln und Nutzen großer Datenmengen, bringt Chancen mit sich, aber auch Risiken. Autorin Timandra Harkness warnt davor, menschliche Urteile durch die von Computern zu ersetzen.

Marco Visscher: „Big Data“ wird als Sammelbegriff verwendet. Was ist damit eigentlich gemeint?

Timandra Harkness: Dabei handelt es sich um gigantische Datenmengen, die miteinander verbunden werden, und auf deren Grundlage Vorhersagen getroffen werden können. So können Supermärkte zum Beispiel besser vorhersehen, an welchem Frühjahrswochenende auf einmal jeder auf die Idee kommt, wieder mit dem Grillen anzufangen. Das Datensammeln erfolgt durchgängig und automatisch, zum Beispiel bei Einkäufen oder durch den Standort unseres Handys, so dass der ganze Prozess für uns unsichtbar bleibt. Die Verarbeitung basiert oftmals auf künstlicher Intelligenz, also mit lernenden Computern.

Ein Beispiel: Man füttert den Computer mit einem Stapel von tausend Gehirnscans von Menschen, die in ihrem späteren Leben an Alzheimer erkrankt sind, und einem Stapel von tausend Gehirnscans von gesund gebliebenen Menschen. Und danach speist man neue Gehirnscans von Patienten ein, damit der Computer mittels Informationen, die er sich selbst angeeignet hat, dem Arzt angeben kann, wann er besonders aufpassen muss, weil bereits Anzeichen für ein Entstehen von Alzheimer vorliegen.

Das klingt nach einer sehr nützlichen Anwendung.

Ja, es gibt tolle Möglichkeiten. Big Data spielt eine entscheidende Rolle in der wissenschaftlichen Forschung. Man hätte sonst das Higgs-Teilchen nie gefunden. Biomedizinische Informationen über die Bekämpfung oder Prävention von Krankheiten können sich daraus ergeben. Auf zahlreichen Gebieten, von Infrastruktur bis Logistik, kann Big Data frühzeitig auf Probleme aufmerksam machen.

„Das Wesentliche ist für Big Data unsichtbar“

Aber: Es hat auch seine Tücken. Man misst nur, was man messen kann, und so erlangt nur das Wichtigkeit. Bei dem englischen Frühstück, dass ich bei unserem Gespräch gerade vor mir liegen habe – gebackenes Ei, Wurst, Bohnen –, kann man allerlei messen: von der Kalorienzahl bis hin zum höheren Risiko, durch das Fleisch an einer bestimmten Krebsart zu erkranken. Das ist sicher interessant, aber viel interessantere Aspekte lassen sich gar nicht messen: Aus Daten lässt sich nicht ablesen, dass mich dieses Frühstück an meine Jugend erinnert, oder wie es mich freut, dass jemand in diesem Hotel das Frühstück für mich gemacht hat und ich gleich nicht abwaschen brauche. Big Data legt nahe, dass es ein vollständiges Bild unseres Lebens zeichnen kann, aber manche Dinge lassen sich nun einmal nicht beziffern. Das Wesentliche in unserem Leben ist für Big Data unsichtbar.

Dann haben Sie vermutlich auch Zweifel an der „Quantified-Self“-Bewegung von Leuten, die an ihrer Entwicklung arbeiten, indem sie Daten über sich selbst sammeln.

Ja, diese Leute vergessen offenbar, was das „Selbst“ ist. Unser Ich besteht nicht aus lauter Einsen und Nullen. Man kann das eigene Ich nicht in einer Datenbank speichern. Das Ich meint die autonome Person, die für etwas Interesse zeigt, über Reflexionsvermögen verfügt, nachdenken, interpretieren und Entscheidungen treffen kann. Dieser subjektive Teil fällt komplett aus dem Rahmen der Daten, die man sammeln und in einen Algorithmus stopfen kann. Wie ein Betrunkener seinen verlorenen Schlüsselbund unterm Laternenpfahl sucht, weil es dort hell ist, so starren wir blind auf die Daten.

Aber die Big-Data-Anhänger und -Liebhaber behaupten doch gar nicht, dass sie unsere ganze Persönlichkeit abbilden können?

Das vielleicht nicht, aber die Wertschätzung für alles Messbare ist so verführerisch, dass wir Gefahr laufen zu übersehen, was im Leben das wirklich Wichtige und Interessante ist. Wir sehen Menschen nicht mehr als Individuen, sondern als wandelnde Datenbanken, die sich dem Durchschnitt der Gruppen, der sie angehören, offenbar annähern müssen. Wir drohen den Blick dafür zu verlieren, dass wir alle über die Möglichkeit verfügen, eigene Entscheidungen zu treffen und dass wir anders sind als andere.

„Daten berücksichtigen nicht, dass man sich verändern kann“

Weil Big Data per Definition auf der Vergangenheit beruht, bestätigt es Stereotypen. Daten beziehen sich immer auf bereits Geschehenes, auf das wahrscheinlichste Ergebnis und auf den Durchschnitt von Gruppen vergleichbarer Personen. Sie zeigen nicht, wozu jemand fähig ist oder was in der Zukunft möglich sein wird. Daten berücksichtigen nicht, dass man sich verändern kann.

Wo wird das zum Problem?

Zum Beispiel bei Bewerbungen. Immer mehr Unternehmen lassen Bewerber durch einen Algorithmus analysieren. Dies geschieht natürlich auf Grundlage ihres Lebenslaufs, aber man schaut auch nach öffentlich zugänglichen Informationen wie ihrer Postleitzahl oder ihren Profilen in den Sozialen Medien. Wer also in einem Viertel wohnt, dessen Einwohner überdurchschnittlich oft arbeitslos, niedrig gebildet oder krank sind, dessen Chancen auf Arbeit sinken. Gleiches gilt, wenn einen ein Freund bei Facebook in einem Partyfoto markiert hat, wo man zuviel getrunken oder einen Joint geraucht hatte. Führt das nicht nur zu einer endlosen Fortsetzung subtiler Diskriminierung auf ganz vielen Ebenen?

Sind Daten nicht neutral und objektiv?

In der Praxis ist das nicht der Fall. Das ist auch nur logisch. Wenn ein Computer sich durch Daten aus der Vergangenheit schlau gemacht hat, überrascht es nicht, dass der Algorithmus alle bestehenden Vorurteile widerspiegelt. Das sehen wir zum Beispiel, wenn Big Data bei der Kriminalitätsbekämpfung eingesetzt wird.

„Big Data in der Justiz kann zu groben Ungerechtigkeiten führen“

Nutzen Polizei und Gericht denn Big Data?

Ja, das tritt immer häufiger auf. Dahinter steckt eine lobenswerte Idee. In den USA wurde man sich bewusst, dass zu viele Personen im Gefängnis landen, davon überproportional viele Schwarze. Die amerikanische Polizei verwendet mittlerweile eine Software, mittels derer man vorhersehen will, wo Kriminalität am häufigsten auftritt oder man Personen im Auge behält, die eine Kriminalitätsneigung entwickeln könnten. Zur Unterstützung von Gerichten erfolgt Risikoabschätzung durch Algorithmen. Das soll der Voreingenommenheit der Richter etwas entgegensetzen, kann aber zu groben Ungerechtigkeiten führen.

So wurde ein 19-jähriger Mann aus Virginia des Geschlechtsverkehrs mit einem 14-jährigen Mädchen schuldig gesprochen. Es war einvernehmlicher Sex, aber wegen ihrer Minderjährigkeit verboten. Nach Urteil des Computers bestand bei dem Verurteilten eine hohe Rückfallgefahr und er wurde zu anderthalb Jahren Haft verurteilt. Tatsächlich wurde er aufgrund von Zusammenhängen schuldig gesprochen, von Faktoren, auf die er keinen direkten Einfluss hat, wie seinem Alter, seinem Bildungsniveau, seinem familiären Hintergrund, ob er eine Arbeit hatte oder nicht. Wenn man in der langen Datenreihe etwas verändert, etwa sein Alter auf 36 hoch setzt, kommt ein anderes Ergebnis raus und er hätte nicht ins Gefängnis gemusst. Wie kann das gerecht sein? Es dreht sich nur um statistische Korrelationen. Wäre nachwiesen, dass Liebhaber von Hot Dogs häufiger kriminell werden, dann müsste man diese Hot-Dog-Liebhaber auch härter bestrafen. Das ist eine absurde Logik.

Der Computer gibt doch nur Ratschläge und trifft keine Entscheidungen.

Das stimmt. Aber man muss schon starke Schultern haben, wenn man die Risikoabschätzung des Computers ignoriert. Man stelle sich vor: Jemand, den man als Kriminalbeamter nicht verdächtigen will, stellt sich hinterher doch als schuldig heraus; oder: Jemand, den man als Richter hat laufen lassen, wird rückfällig.

„Big Data dient als Vorwand, keine Verantwortung mehr zu übernehmen“

Was wäre zu tun?

Wichtig ist, dass wir Zugang zu den Daten und Algorithmen erhalten, die den Entscheidungen zugrunde liegen. In einem Gerichtsprozess oder bei unserer Gesundheit ist das sogar von essentieller Bedeutung. Man muss jeden Schritt nachvollziehen können, der zu einer Entscheidung geführt hat.

Angeklagten wird verunmöglicht, in Berufung zu gehen, wenn die Daten einer Risikoabschätzung einem Unternehmen gehören, das die Einsichtnahme verweigert. Das ist skandalös. Es hat doch nichts mit Gerechtigkeit zu tun, wenn man keine Einsicht in die richterliche Entscheidungsfindung nehmen kann? Einen Richter kann man zur Verantwortung ziehen und ihn fragen, warum er ein bestimmtes Urteil gefällt hat. Ein Algorithmus hingegen ist niemandem verantwortlich. Und dass ist meiner Meinung nach ein Schlüssel für die Popularität von Big Data: Nicht weil es so schlau wäre, sondern weil wir uns selbst kaum noch zutrauen, Entscheidungen zu treffen und Urteile zu fällen.

Also weichen wir auf die Autorität von Computern aus?

Ganz genau. Wir denken anscheinend: Uff, das ist höhere Mathematik, kompliziert und teuer, dann wird das schon exakt und zuverlässig sein. In Wirklichkeit misstrauen wir dem eigenen Urteil und dem anderer und laufen nur allzu gerne vor unserer Verantwortung weg. Big Data dient vor allem als Vorwand, keine Verantwortung mehr zu übernehmen. Ich finde es äußerst gefährlich, wenn jemand vor seiner Verantwortung, vor dem Treffen von Entscheidungen und Entschlüssen, wegrennt.