ZBW MediaTalk

Open Science ist auf dem Weg in die Praxis. Dies ist allerdings kein Selbstläufer; es gibt noch einige Herausforderungen. Dr. Georg Schütte, Staatssekretär des Bundesministeriums für Bildung und Forschung (BMBF), betonte im Rahmen der Eröffnung der diesjährigen Open Science Conference, dass die Open Science Community strategisch, schnell und relevant genug sein muss, um das Thema voranzubringen. Prof. Dr.-Ing. Matthias Kleiner, Präsident der Leibniz-Gemeinschaft, hob in seiner Eröffnungsrede am zweiten Tag hervor, dass Open Science erstens dazu dienen könne, verlorenes Vertrauen der Zivilgesellschaft in die Wissenschaft zurückzugewinnen und zweitens eine Möglichkeit sei, die Qualität in der Forschung zu verbessern.

Vor diesem Hintergrund fand die fünfte Tagung des Leibniz-Forschungsverbund Science 2.0 mit einer Mischung aus Vorträgen, einer Paneldiskussion sowie einer Poster-Session vom 13. bis 14. März 2018 zum zweiten Mal in Berlin statt. Unter den 200 Teilnehmerinnen und Teilnehmern aus 35 Ländern waren viele Akteure des Wissenschaftssystems, wie Forschende, wissenschaftspolitische Entscheider sowie Vertreter von Forschungsinfrastrukturen. Wie im Vorjahr war die Open Science Conference bereits nach wenigen Wochen ausverkauft und hat sich somit zu einer zentralen Tagung zum Thema in Europa entwickelt.

Open Science ist in den Communities angekommen

Neben einer wachsenden Zahl an Forschenden, die sich mit Open-Science-Praktiken und -Werkzeugen auseinandersetzen, werden zunehmend übergeordnete Strukturen zur Förderung von Open Science geschaffen. Viele Projekte und Initiativen, unterstützt durch entsprechende Förderprogramme, wurden in den letzten Jahren gestartet, um eine offenere Praxis im wissenschaftlichen Alltag zu fördern. Die Herausforderung ist groß, den kulturellen Wandel in einem auf Reputation ausgerichteten Wissenschaftssystem in der Breite herbeizuführen.

Manche Forschungscommunities haben für sich bereits Open-Science-Normen definiert, um mit ihnen beispielsweise ihr fachspezifisches Replikationsproblem zu meistern. Dr. Felix Schönbrodt (LMU München) gab in seinem Vortrag einen kleinen Einblick in die Psychologie. Er betonte, dass Open Science der selbstverständliche Weg sei, um im Sinne guter wissenschaftlicher Praxis zu forschen. Grundlage seien eine Infrastruktur und auf den wissenschaftlichen Workflow ausgerichtete (einfach zu benutzende) Werkzeuge. Auf deren Basis könnten Communities Open-Science-Normen definieren und diese durch Anreizstrukturen fördern beziehungsweise durch entsprechende Policies einfordern.

Bei einem psychologischen Journal zeigte sich etwa, dass ein Open Data Badge den Anteil bereitgestellter Forschungsdaten zu einer Publikation signifikant erhöht hat. An der LMU München gibt es zudem in der Fakultät für Psychologie und Pädagogik seit Jahren einen Passus in Berufungsverfahren, der von den Bewerberinnen und Bewerbern eine Stellungnahme zu offenen Praktiken verlangt.

Dr. Emily Sena (University of Edinburgh) gab in ihrem Vortrag einen Einblick in die medizinische Community, insbesondere in die präklinische Forschung. Sie verwies auf die starke Verzerrung wissenschaftlicher Ergebnisse, besonders durch den Fokus auf positive Effekte und die Nichtveröffentlichung neutraler oder negativer Effekte. Dadurch werden viele Ergebnisse und Vorstudien nie berücksichtigt, was beispielsweise zu einer nachweisbaren Fehleinschätzung der Wirksamkeit von neuartigen Behandlungen führen kann. Zudem seien viele Studien nicht replizierbar, häufig aufgrund fehlender Forschungsdaten.

Das Problem sei bekannt und Open-Science-Praktiken können diese lösen. Sena zeigte anhand zahlreicher Werkzeuge, wie man schon heute mit dem Publizieren von Daten oder der Voranmeldung der Methodik (preregistration) vor der Durchführung der entsprechenden Studie diesen Problemen begegnen kann.

Forschende brauchen mehr Unterstützung

Immer mehr Forschende sind bereit, Open Science zu praktizieren, oft fehlt es aber noch an Wissen und struktureller Unterstützung. In vielen Vorträgen wurde angesprochen, dass Open Science häufig noch nicht verstanden wird und noch stärkerer Erklärung bedarf. Prof. Wolfram Horstmann (SUB Göttingen) betonte in seinem Vortrag, dass es 90 Minuten brauche, um Open Science in ihrer Komplexität zu erklären. Wie solle man denn dann Forschende von Open Science überzeugen? Braucht es den “Elevator Pitch” für Open Science?

Horstmann stellte einen Bezug zu Open Access her mit der Frage, was für Lehren daraus für Open Science gezogen werden können. Open Access hat 25 Jahre benötigt, um in der Breite umgesetzt zu werden. Für Open Science wäre das dann 2035? Und wenn Open Access das Problem des Zugangs zu wissenschaftlicher Literatur löse, welches Problem löst schließlich Open Science?

Open Science fängt lokal bei den Forschenden an, und bei ihnen muss man frühzeitig ansetzen. Der kulturelle Wandel wird immer wieder als das größte Problem angesprochen. Daher ist es wichtig, Open Science früh in der wissenschaftlichen Ausbildung zu verankern. Zudem fehlt es Forschenden an Orientierung. Denn mittlerweile gibt es zahlreiche Projekte, Werkzeuge und Initiativen, die einen Überblick erschweren. Eine hilfreiche Initiative in diesem Zusammenhang ist das EU-Projekt OpenAIRE, das von Natalia Manola (Universität Athens & Athena) in ihrem Vortrag vorgestellt wurde.

OpenAIRE ist eine groß angelegte, europäische Initiative, um Open Science zu fördern. Neben einer Infrastruktur und Services gibt es 34 nationale Helpdesks, an die sich nicht nur Forschende wenden können. Über so genannte “Train-the-Trainer”-Programme (etwa im Kontext von Forschungsdatenmanagement) gibt es beispielsweise die Bestrebung, Open-Science-Multiplikatoren auf verschiedenen Ebenen auszubilden. Bei allen Bestrebungen geht es aber nicht um eine Universallösung, sondern um eine an die Bedürfnisse angepasste Lösung im Sinne von “Open Science as a Service”.

FAIR Data in die Praxis

Ein wesentlicher Schwerpunkt der Tagung lag auf Forschungsdaten. Ein Großteil der heutzutage erzeugten Forschungsdaten unterliegt immer noch keinem professionellen Forschungsdatenmanagement beziehungsweise ist nicht in Repositories abgelegt und kann so nicht von anderen Forschenden genutzt werden. Da ein offener Zugang nicht immer möglich ist (beispielsweise bei personenbezogenen Daten), haben sich die FAIR-Prinzipien (findable, accessible, interoperable, re-usable) als konzeptioneller Rahmen für den “fairen” Zugang zu Forschungsdaten etabliert. Die FAIR-Prinzipien sowie deren praktische Umsetzung war deshalb das Thema in zahlreichen Vorträgen und in der Paneldiskussion, bei der sich herauskristallisierte, dass Open Data und FAIR Data zwei sich ergänzende Konzepte sind.

Sarah Jones (DCC) hob in ihrem Vortrag hervor, dass ein professionelles Forschungsdatenmanagement Voraussetzung ist, um anschließend über FAIR Data und Open Data nachzudenken und setzte damit auf die Erkenntnisse der Paneldiskussion auf. So müssten beide Konzepte voneinander abgegrenzt werden. Open Data strebt, streng ausgelegt, eine Offenlegung möglichst aller Forschungsdaten an. Wohingegen die FAIR-Prinzipien berücksichtigen, dass nicht alle Daten öffentlich zugänglich sein können (zum Beispiel Privatsphäre, industrienahe Forschung). Trotzdem ist eine Kombination von Open Data und FAIR sinnvoll.

Um das Forschungsdatenmanagement zu fördern beziehungsweise zu fordern, ist dies beispielsweise in EU-Anträgen Pflicht, so Dr. Jean-Claude Burgelman (European Commission) in seinem Vortrag über den aktuellen Stand zur European Open Science Cloud (EOSC). Alle Daten sollen dabei gemäß den FAIR-Prinzipien per Default offen zugänglich sein, wobei jederzeit ein “opt out” mit entsprechender Begründung möglich ist. Um die Umsetzung der FAIR-Prinzipien voranzubringen, gäbe es auf EU-Ebene eine “FAIR Data expert group”, die in diesem Jahr noch entsprechende Empfehlungen im Kontext der EOSC veröffentlichen wird.

Dr. Juan Bicarregui (Science & Technology Facilities Council) ergänzte den Stand zur Implementierung der EOSC mit einem Vortrag zum EOSCpilot.

Auf Ebene der EU-Mitgliedsstaaten gibt es die GO-FAIR-Initiative, die Prof. Karel Luyben (National Coordinator for Open Science Netherlands) in seinem Vortrag vorstellte.

Im Rahmen dieser Initiative wurden unter anderem entsprechende “Support Offices” in den Niederlanden und in Deutschland geschaffen. Mit ihnen soll der Aufbau der EOSC unterstützt werden, aber auch ein globales Netzwerk aufgebaut und Kollaborationen im Kontext von FAIR Data gefördert werden. Ziel ist die Entwicklung eines weltweiten “Internet of FAIR Data and Services”.

Die Konferenzbeiträge zeigten, dass noch viele Herausforderungen in der Umsetzung beziehungsweise konkreten Implementierung der FAIR-Prinzipien warten. Dr. Simon Hodson (CODATA, EC FAIR Data expert group) betonte in einem Vortrag, dass das “Interoperable” (I) und “Re-usable (R) die größten Baustellen seien. Maschinen müssen die Daten und Informationen automatisiert erfassen und verarbeiten können. Dort sei eine Kooperation mit den Communities sinnvoll, die sich um die Archivierung von Forschungsdaten kümmern.

In weiteren Vorträgen wurde gezeigt, wie professionelles Datenmanagement schon heute funktioniert. Robert Jones (CERN) zeigte dies in seinem Vortrag über das CERN, in dem durch die Experimente im Teilchenbeschleuniger riesige Datenmengen erzeugt und verarbeitet werden.

Stefan Bender (Deutsche Bundesbank) zeigte in seinem Vortrag wie das Datenmanagement für Mikrodaten in der Bundesbank in Deutschland funktioniert, in dem der Zugriff auf diese oft sensiblen Daten strengen Richtlinien unterliegt.

Fazit: Open Science muss weiter operationalisiert werden

Prof. Klaus Tochtermann (ZBW, Chair der Tagung) bilanzierte, dass die Open Science Conference einen guten Einblick gegeben hat, wie Open Science Teil des Wissenschaftsalltags geworden ist. Es hat sich gezeigt, dass dadurch die Qualität wissenschaftlicher Ergebnisse erhöht werden kann. Der Fortschritt ist in vielen Communities sichtbar. Darüber hinaus hatte bereits die Open Science Conference 2017 verdeutlicht, dass die FAIR-Prinzipien in der wissenschaftspolitischen Debatte Akzeptanz gefunden haben.

Dieses Jahr zeigte sich, dass nun viele Anstrengungen unternommen werden, die FAIR-Prinzipien zu konkretisieren und damit zu operationalisieren. Ein bedeutender nächster Schritt wird also sein, die Akzeptanz von Open Science und konkret FAIR Data in den wissenschaftlichen Communities weiter zu erhöhen und Hilfestellungen zur Entwicklung konkreter Praktiken anzubieten. Dies bedeutet nicht automatisch, dass die Forschenden selbst alle Aspekte durchdringen müssen. Vielmehr müssten die nötigen Rahmenbedingungen (etwa in Form von Data Scientists) geschaffen werden. Dabei ist es wichtig, von den Erfahrungen in bestehenden Communities zu lernen.

Um diesen Diskurs über die Operationalisierung von Open Science weiter zu unterstützen, findet nächstes Jahr die Open Science Conference 2019 wieder in Berlin statt: 19. – 20. März 2019 #osc2019

Weitere Infos:

Fehlende deutsche Übersetzung

Next Post