09.04.2018

Paper-Wahn und Dutzendware

Von Stephan Gemke

Titelbild

Foto: Gkenius via Pixabay / CC0

Wissenschaftliche Publikationen werden zunehmend weniger als Bücher verfasst, sondern in Form überteuerter Artikel, bei denen Qualität und die Einzelleistung des Forschers auf der Strecke bleiben.

Die Wissenschaft heißt Wissenschaft, weil sie Wissen schafft. So lautet der beliebte Rechtfertigungstenor von Forschern, wenn Sinn und Unsinn ihrer Arbeit zur Debatte stehen. Und ja, was hat sie leiden müssen in den letzten Jahren, diese Wissenschaft: zahlreiche gerügte oder sogar aberkannte Doktorgrade, Studienabschlüsse und vor allem gute Noten als inflationäre Massenware, abstruse Betreuungsverhältnisse zwischen Nachwuchs- und etablierten Forschern, untaugliche Modelle (z.B. in den Wirtschaftswissenschaften) usw.

Und leider ist ein Ende dieser negativen Schlagzeilen nicht abzusehen. Denn es gibt einen Aspekt, der außerhalb des Wissenschaftskosmos bislang kaum bekannt ist, aber erheblich Sprengstoff in sich birgt. Es geht um die Publikationsform der wissenschaftlichen Arbeit. Darüber, wie und von wem die Arbeiten geschrieben und veröffentlicht werden und welche negativen Auswirkungen dies mit sich bringt. Dies beinhaltet sowohl die Arbeitsweise und Verpackung der wissenschaftlichen Arbeit als auch deren Veröffentlichung und Verwertung.

Bücher vs. Paper

Forschungsergebnisse kann man auf zwei Wegen publizieren: als Buch oder als Artikel. Ersteres bedeutet in diesem Zusammenhang eine Monographie. Ausgehend von konkreten Forschungsfragen finden sich darin auf zumeist 150 bis 400 Seiten eine thematische Literaturanalyse, eine eigene Studie und die kritische Würdigung der neuen Erkenntnisse. Diese so aufbereiten Forschungen haben Sachbuch-Charakter und sind durchaus in städtischen Büchereien und natürlich in den Bibliotheken von Universitäten und Hochschulen ausleihbar oder bei Buchhändlern zu erwerben. Jeder kann an diese Arbeiten herankommen, wenn er denn will – und im Bereich der Ausleihe auf fast kostenlosem Wege.

Nur gibt es die Buchform immer weniger, stattdessen dominiert die zweite Veröffentlichungsform, der wissenschaftliche Artikel, gerne auch Paper genannt. Der Zugang zu ihnen ist schwieriger. Das fängt schon damit an, dass die Spezialsuchmaschine Google Scholar wissenschaftsfremden Personen unbekannter ist als die Bibliotheksausleihe und oft nur auf sehr kurze Zusammenfassungen, sog. Abstracts, verlinkt. Zwar konnten wissenschaftliche Erkenntnisse nie die breite Masse erreichen, was bislang primär thematische und sprachliche  1 Gründe hatte. Mit den Papers sind aber auch technologische und vor allem finanzielle Zugangshürden hinzugekommen.

„Nicht die Journals an sich sind interessant, sondern nur die einzelnen Artikel darin.“

Die zumeist um die 20 Seiten langen Artikel (inklusive Quellenverzeichnis) sind in Fachzeitschriften, sog. Journals, abgedruckt, die in keiner städtischen Bibliothek ausliegen und die man auch nicht in Magazinständern der Buchläden finden kann. Diese Journals sind selbst an Lehrstühlen oft nicht physisch vorhanden, sondern nahezu ausschließlich online zu beziehen. Auch sind nicht die Journals an sich interessant, sondern nur die einzelnen Artikel darin. Die entsprechenden Portale und Datenbanken im Internet (z.B. ScienceDirect, EBSCOhost) sind ganz auf diese Artikel ausgerichtet und funktionieren ähnlich wie Online-Shops oder Videoportale, die ja auch primär der Auffindbarkeit von einzelnen Kleidungsstücken und Clips dienen – unabhängig von Marken und Sendern.

Die Journals, von denen es abertausende gibt, befinden sich größtenteils in der Hand internationaler Verlage wie John Wiley & Sons, Elsevier, Taylor & Francis oder Springer. Auf diese Wissenschaftsverlage konzentriert sich einer Untersuchung zufolge der überwiegende Teil aller weltweiten Veröffentlichungen und über sämtliche Fachbereiche hinweg. Mit solch einer Marktmacht im Hintergrund lässt sich natürlich prächtig verdienen. Denn der Inhalt wird nicht vom Verlag produziert, ja, noch nicht mal lektoriert. Bezahlt werden die Wissenschaftler für ihre Beiträge oder in ihrer Tätigkeit als Herausgeber und Gutachter ebenfalls nicht. Die Gehälter der Professoren und anderen Wissenschaftler sowie deren Ausstattung übernehmen zudem die Hochschulen (also der Staat). Kostenseitig ergibt dies traumhafte Verhältnisse für die Verlage.

Denn während andere Portale, die von durch Nutzer bereitgestellten Inhalten profitieren, wenigstens eine kleine Pauschale oder einen Anteil der Werbeeinnahmen weitergeben oder zumindest den Content kostenlos konsumierbar machen, verlangen die Wissenschaftsverlage von ihren Lesern (und das sind vor allem die Autoren selbst) eine Nutzungsgebühr. Die Bibliotheken der wissenschaftlichen Einrichtungen zahlen also eine jährliche Lizenzgebühr an die Verlage, so dass ihr Lehr- und Forschungspersonal sowie ihre Studenten Zugriff auf die Artikel erhalten, die sie zuvor selbst dort eingereicht hatten.

Wer über keinen solchen Zugang verfügt, muss tief in die Tasche greifen: So sind auf ScienceDirect.com lediglich 250.000 von über 14 Millionen Artikeln gratis erhältlich, was eine äußerst geringe Quote von 1,7 Prozent ergibt. Wobei diese Artikel auch nicht wirklich gratis sind, schließlich verlangt Elsevier vom Autor bzw. von dessen Forschungseinrichtung/Bibliothek eine drei- bis vierstellige sogenannte Open Access Fee, damit die Artikel dem Leser kostenlos angeboten werden können.

„Die Forschungseinrichtungen bezahlen doppelt: einerseits die Erstellung der Inhalte, andererseits auch deren Konsum.“

Alternativ können Sie natürlich auch für mehrere tausend US-Dollar ein Abonnement abschließen – pro Journal natürlich. Oder aber Sie kaufen nur einzelne Artikel. Bei Springer, die zehn Millionen wissenschaftliche Dokumente im Angebot haben, kostet ein einzelner Artikel wahnwitzige 41,59 Euro. Also zahlen die Forschungseinrichtungen doppelt: Einerseits finanzieren sie die Erstellung der Inhalte, andererseits auch deren Konsum. Ein einzigartiger Zustand im gesamten Mediengeschäft; wer auf der Suche nach der eierlegenden Wollmilchsau ist, wird hier fündig.

Insbesondere Elsevier ist seit den 2000er-Jahren aufgrund seiner rigiden Preispolitik immer wieder in die Schusslinie geraten. Regelmäßige Boykotte von amerikanischen wie deutschen Universitäten und Aufrufe, die Mitarbeit und Artikeleinreichungen bei Journals der Elsevier-Gruppe zu beenden, sind Versuche, dem Geschäftsgebaren von Elsevier Einhalt zu gebieten. Über 80 verschiedene deutsche Forschungsstätten (z.B. RWTH Aachen, HHL Leipzig, die Leibniz-Institute oder die Bayerische Staatsbibliothek) haben ihre Verträge mit Elsevier bereits zum Ende des Jahres 2016 gekündigt oder planen dies bis 2018. Auch an der Universität Göttingen stehen den Studenten und Dozenten von 440 Zeitschriften des Elsevier-Verlages keine Volltexte mehr zur Verfügung. Man stört sich insbesondere an den hohen Gewinnmargen von über 30 Prozenten, die Elsevier und Co. auf Kosten der Einrichtungen und ihres Forschungspersonals erzielen.

Quantität statt Qualität

Bislang waren die Proteste immer nur vorübergehend, weil die Forscher letztlich doch auf die Verlage angewiesen bleiben. Denn Forscher bzw. deren Forschungseinrichtungen müssen ihrer Reputation und ihrer Drittmittel wegen regelmäßig publizieren und zwar in möglichst top-gerankten Journalen. Konferenzbeiträge oder die Veröffentlichung in universitätseigenen Periodika sind allenfalls nettes Beiwerk, aber auf gar keinen Fall Ausdruck von wissenschaftlichem Erfolg und Renommee. Wer etwas gelten möchte in der Forschungsgemeinschaft, der hat nicht nur auf zahlreiche Veröffentlichungen in Top-Journals zu verweisen, sondern ebenfalls auf eine hohe Zitationsrate (nach Hirsch-Index): Wessen Artikel noch zahlreich zitiert werden, und dies im Idealfall vor allem in wieder anderen top-veröffentlichten Artikeln von Top-Autoren in Top-Journals, der gehört zur Crème de la Crème der Wissenschaft und bekommt bei seinen zukünftigen Projekten jede erdenkliche Unterstützung.

Eine solch dermaßen große Perversion der Arbeitsleistung ist mir aus keiner anderen Branche bekannt: Forschungseinrichtungen bezahlen zunächst ihr Personal, damit sie überhaupt arbeiten. Und bezahlen dann ein zweites Mal für die Ergebnisse dieser Arbeit. Sie müssen immer zahlen, während sich die Verlage leistungslos dumm und dämlich verdienen. Versuche, diesen Teufelskreis zu durchbrechen, scheitern, weil das Forscherpersonal seinen Status verliert, wenn die Arbeitsergebnisse nicht mehr wie bislang extern veröffentlicht werden. Und ohne Status weniger Drittmittel und ohne Drittmittel fehlt das nötige Geld für die Forschungsarbeit.

„Das Ranking eines Journals und die Zitationsquote eines Autors sind nur fadenscheinige Qualitätsmerkmale.“

Also schreiben die Professoren, Post-Docs und Doktoranden weiter fleißig Paper – vorzugsweise in den Magazinen der großen Verlage, um Karriere zu machen, und als „netten“ Nebeneffekt zementieren sie deren Marktstellung und die Kommerzialisierung der Wissenschaft. Je mehr Artikel, desto besser. Denn jede Veröffentlichung und jede Zitation zählt und hilft in Sachen Entlohnung und Verteilungsschlüssel von Fördergeldern. Dass dabei Quantität mit inhaltlicher Qualität nicht immer einhergeht, wird hingenommen. Dass oberflächige Empfehlungen als praktische Relevanz fungieren – auch.

Ebenso egal ist es dann leider, dass das Ranking des Journals und die Zitationsquote des Autors nur fadenscheinige Qualitätsmerkmale sind. Es ist ja nicht so, dass diese Journals eine millionenhafte Auflage hätten bzw. die Artikel millionenfach aufgerufen und zitiert würden und auch außerhalb der Wissenschaftsszene Aufmerksamkeit fänden. Mit Glück schaffen es einzelne Artikel nach einigen Jahren bzw. zumeist erst nach Jahrzehnten auf einige hundert bzw. tausend Zitierungen in anderen Wissenschaftsartikeln. Dass sie aber nicht nur zitiert, sondern auch gelesen und verstanden werden, ist höchst zweifelhaft. Einer Studie zufolge sollen höchstens ein Fünftel bis ein Viertel der zitierten Artikel gelesen worden sein. Auch werden vielfach Artikel zitiert, weil dies andere Forscher aus der jeweiligen Disziplin auch schon taten oder weil es sich einfach so gehört oder weil der Doktorvater seine Doktoranden darum bittet. Das als Zitierkartell bezeichnete Prinzip „Zitierst du mich, dann zitier’ ich dich“ ist übliche Praxis.

Im Endeffekt läuft alles auf eine schädliche Selbstreferenzialität hinaus: auf ein System, das sich ständig selbst reproduziert. Und zwar in immer granulareren Themenbereichen und Netzwerken, die sich nur noch um sich selbst drehen, aber nie eine darüber hinausgehende Bedeutung entfalten können. Wissenschaftliches Publizieren nach diesem Schema läuft auf die Gleichung hinaus, dass man zwar Wissen schafft, welches aber immer kleinteiliger und somit irrelevanter wird und auch immer weniger Verbreitung findet. Nahezu ungelesenes Wissen ist aber unnötiges Wissen. Da ist es auch völlig egal, in welchem Journal (ob A-, B- oder C-Journal) publiziert wurde. Ungelesen bleibt ungelesen.

„Überhaupt halte ich mindestens die Hälfte aller Veröffentlichungen über alle Disziplinen hinweg für unnötig.“

Das Renommee eines Forschers und den Nutzen seiner Forschung an bibliometrische Kennzahlen wie ein Journalranking oder die Zitationshäufigkeit zu knüpfen, ist ein absoluter Irrweg – selbst wenn man noch weitere Kennzahlen wie die Anzahl an Lesern, Klicks, Downloads, Links und das Vorkommen in der Publikumspresse berücksichtigen würde. Denn all diese „manipulierbaren“ Faktoren spiegeln nur die „Einschaltquote“ wieder, lassen aber kaum Rückschlüsse auf die Zustimmung, die wissenschaftliche Qualität, den Erkenntnisgewinn und die praktische Relevanz zu. Sowohl der Impact Factor  2 als auch der Hirsch-Index sind alles andere als perfekte Kennzahlen und zu Recht Gegenstand von Kritik.

Ersterer lasse sich leicht manipulieren und zudem nur mangelhaft vergleichen. Nobelpreisträger wie Randy Schekman (Physiologie/Medizin) sowie diverse Fachgesellschaften und Forschungsgemeinschaften halten den Impact Factor daher auch für ein durchweg ungeeignetes Bewertungsinstrument. 3 Auch am Hirsch-Index scheiden sich die Geister: Zitationen seien nämlich kein reiner Ausdruck von Relevanz, sondern eher von der Popularität. Auch werde die Publikationsanzahl und damit auch die Zugehörigkeitsdauer von Forschern in der Forschungsgemeinschaft zu sehr betont. Ferner lasse man Buchrezensionen außer Acht und zudem banne der Hirsch-Index nicht die Manipulationsgefahr durch Selbstreferenzierungen und Zitationskartelle. 4

Was den gesellschaftlichen Nutzen angeht, sind anwendungsorientierte Bereiche, wie es z.B. bei Biologen oder Ingenieuren der Fall ist, im Vorteil. Aber auch z.B. juristische Kommentare, medizinische Versuchsreihen, meteorologische Aufzeichnungen, psychologische Experimente, historische Aufarbeitungen oder die Entwicklung von Systematiken und Modellen für betriebliche Anwendungen bewirken einen gesellschaftlichen Nutzen. Hingegen ist so etwas wie die Entdeckung der x-fachen Moderatorvariable in der Abhängigkeit von wie auch immer definierter Unternehmenskultur zum ebenso verschiedenartig definierten Unternehmenserfolg in der Stahlbranche zwischen 1980 und 2000 meiner Meinung nach in keiner Weise förderungswürdig. Überhaupt halte ich mindestens die Hälfte aller Veröffentlichungen über alle Disziplinen hinweg für unnötig.

Die Einzelleistung geht verloren

Schaut man auf die Autorenschaft eines Artikels, beinhaltet sie in den allermeisten Fällen mehrere Autoren. Man nennt dies Ko-Autorenschaft. Bei Doktoranden steht der Doktorvater auf jeden Fall mit drauf, gerne ergänzt um weitere Lehrstuhlkollegen oder Ko-Referenten des Doktoranden. Der Doktorand erhofft sich dadurch eine Veröffentlichung in höhergerankten Journals, die bei alleiniger Autorenschaft unwahrscheinlicher wäre. Die anderen „Mitverfasser“ profitieren, weil sie eine weitere Veröffentlichung in ihrer Vita vermerken können – auch wenn sie selbst gar nichts oder nur sehr wenig zum Artikel beigetragen haben.

„Es wird über alles geschrieben, auch wenn die Erkenntnis noch so klein ist.“

Auch kenne ich Fälle, bei denen sich von z.B. Wirtschaftsinstituten Datensätze und Statistiken besorgt werden, statt sie selbst zu erheben. Das an sich ist jetzt nicht so sonderlich kritikwürdig, es bekommt aber ein Gschmäckle im folgenden Fall: Da wird der Statistiker des Wirtschaftsinstituts mit der Auswertung dieser Daten beauftragt und im Gegenzug kommt er als Mitautor auf das Paper. Für den Statistiker lohnt sich das, denn wenn er Karriere machen will, muss er Veröffentlichungen vorweisen können. Der universitäre Lehrstuhl wiederum hat den Vorteil, dass er Studiendaten weder selbst erheben noch auswerten muss. Der Lehrstuhl-Mitarbeiter hat lediglich die Einleitung und den Schlussteil zu formulieren, ggf. schreibt er auch noch im Studienteil mit. Der Doktorand oder der Post-Doc können sich dann ebenfalls Mitautor nennen, haben sie doch die benötigte Literatur hinzugefügt. Der oder die Professoren kommen qua Amt ebenfalls mit in die Autorenschaft.

Ein, zwei, ja mitunter auch drei bis vier Paper sind schneller geschrieben als eine Monographie. Man hat ja jeweils nur um die 20 Seiten Platz, muss die verfügbaren Informationen stark selektieren und gewichten, und da es auf die Anzahl ankommt, zerkleinert und verteilt man seine einmalig ausgewerteten Daten auf mehrere Artikel. Es wäre ja töricht, alle Erkenntnis direkt auf einen Schlag zu veröffentlichen. Aus alledem formt sich nun eine gegen unendlich tendierende Flut an Artikeln (allein ca. 24 Millionen Beiträge bei Springer und Elsevier), die man kaum noch überblicken kann. Es wird über alles geschrieben, auch wenn die Erkenntnis noch so klein ist. Es ist eine regelrechte Lawine, unter der man begraben wird und die auch nicht mehr sonderlich lesenswert ist, weil der Erkenntnisgewinn oder die Relevanz stark nachlassen. Die Informationsüberfrachtung ist eine Systemfolge, denn für mehr Artikel braucht es mehr Wissenschaftler und vice versa. Das alles bedingt und verstärkt sich gegenseitig. Die Wissenschaft ist eine Raupe Nimmersatt.

Zudem gilt: Wenn es immer mehr gibt, steigert sich die Wahrnehmungsschwelle und sinkt die Bedeutung. Je mehr Inhalteersteller es gibt, desto weniger findet der Einzelne Gehör oder kann etwas wirklich Prägendes beifügen. Damit aber ein Mindestmaß an Wahrnehmung gegeben bleibt, werden weitere Schwellen nach unten hin angepasst, z.B. die Voraussetzungen für Auszeichnungen oder die Anforderungen, um in ein Journal zu gelangen. Ko-Autorenschaften, Mehrfachpublikationen desselben Inhalts in anderen Formaten, Gründungen von eigenen Mini-Verlagen, Sonderbeilagen u.ä. sind weitere Ansätze. Und ehe man sich versieht, hat sich eine intransparente Spirale nach unten entwickelt, in der man sich selbst überhöht.

„Freigeister mit eigener Themenfindung und eigenen Herangehensweisen sind zunehmend unerwünscht.“

Zur Selbstreferenzialität kommt noch die Selbstbeschränkung hinzu. Thematische wie formelle Vorgaben, also zum inhaltlichen wie seitenbezogenen Umfang, schränken jeden Forscher in seinem Wissensdurst ein. Man würde gerne noch diesen und jenen Aspekt mitaufgreifen, darf und kann aber nicht, weil es nicht erwünscht ist. Dies ist umso mehr der Fall, je weniger das Thema oder z.B. auch das Studiensample vom Forscher selbst bestimmt werden kann. Es ist gängige Praxis, dass Doktoranden nur Erfüllungsgehilfen für ihre Promotionsbetreuer sind. Der Professor bestimmt das Thema, den Umfang und gerne auch die Methodik, und daran hat man sich zu halten. Schließlich weiß er ganz genau, durch welches Thema und welche Herangehensweise man in welchem Journal veröffentlicht werden kann, auf was potentielle Ko-Autoren Wert legen, so dass er entsprechend profitiert. Das kann man gerne Teamwork nennen, wenn es „Toll ein anderer macht’s“ bedeutet. Freigeister mit eigener Themenfindung und eigenen Herangehensweisen sind zunehmend unerwünscht. Doch genau die braucht es ja, die Forschung lebt von ihnen und macht sie erst praxisrelevant.

Was also tun?

Dass Handbücher, Sammelbände und Monographien (denen man auch kritisch gegenüber sein muss) nahezu abgeschafft sind, halte ich für den falschen Weg. Nicht nur aufgrund des pervertierten Veröffentlichkeitssystems, sondern weil es dann nur noch heißt: Tunnelblick statt Weitwinkel-Objektiv. Es ist nämlich so viel schwerer, eine mehrere hundert Seiten lange Monographie zu verfassen, der es an Reflexion, Erkenntnisgewinn und Nützlichkeit mangelt, als gleiches auf 20 Seiten zu tun. Die der Kurzfassung wissenschaftlicher Erkenntnis zugrunde liegenden Ziele, wie mehr Prägnanz, Übersicht und Flexibilität, begrüße ich, doch müssen sie auf anderem Wege erreichbar sein, denn mit dem bisherigen Weg inkl. resultierendem Artikelzwang entfernt man sich zusehends davon.

Um zumindest eine Veränderung im Kleinen zu bewirken 5, folgende Vorschläge:

  • Handbücher und Monographien wieder zu schätzen und vermehrt zu publizieren, damit die Informationsüberfrachtung durch Chronologie, Einordnung und Bewertung etwas händelbarer wird.
  • Forschungsgelder anders kanalisieren, d.h. mehr Gelder für anwendungsbezogene Forschung und vor allem eine Herunterstufung oder sogar Rücknahme bibliometrischer Kennzahlen in der Genehmigung und Evaluierung von Forschungsanträgen und den Antragstellern.
  • Aufbau einer gemeinsamen Verwertungsplattform, auf der die staatlichen Universitäten, Fachhochschulen und sonstigen Forschungseinrichtungen in Deutschland ihre Artikel verpflichtend einstellen müssten. Die durch eine auf Rezipientenseite erhobene Jahresgebühr von z.B. 12 Euro entstehenden Gewinne würden dann anteilig an die inhaltegenerierenden Einrichtungen ausgeschüttet.

Zum Schluss möchte ich festhalten, dass forschungsbasierte Bildung zu Recht ein öffentliches Gut ist und soweit wie möglich auch bleiben sollte. Wir sehen ja gerade die negativen Konsequenzen aus der rein profitoptimierten Vermarktung wissenschaftlichen Outputs. Der selbstzerstörenden Tendenz jeden Marktgeschehens wohnen glücklicherweise auch selbstheilende Kräfte inne, die ich hiermit zu beschwören versuche.

jetzt nicht

Novo ist kostenlos. Unsere Arbeit kostet jedoch nicht nur Zeit, sondern auch Geld. Unterstützen Sie uns jetzt dauerhaft als Förderer oder mit einer Spende!