
Barcamp Open Science 2025: Von Bedrohungen hin zur kollektiven Resilienz
Der Schutz von Forschung und die Absicherung von Wissensinfrastrukturen vor politischen, digitalen und strukturellen Bedrohungen gehörten zu den Themen des diesjährigen Barcamp Open Science in Berlin. Weitere Sessions drehten sich beispielsweise um Schattenbibliotheken, die unzureichende Nutzung von Infrastrukturen für das Forschungsdatenmanagement und die Frage, ob Projekte zum Datenmanagement, wie EOSC und NFDI, den Diskurs über Open Science „gentrifiziert” haben. Darüber unternahmen die Teilnehmenden interessante Gedankenexperimente und teilten ihre Erfolgsgeschichten im Bereich Open Science.
von Susann Auer, Julien Colomb, Maaike Duine, Lambert Heller, Ilona Lipp, Tilo Mathes, Daniel Nüst, Guido Scherp, Katharina B. Schmitt und Christopher Schwarzkopf
Das Barcamp Open Science 2025 brachte vielfältige engagierte Köpfe zusammen, um aktuelle Entwicklungen und Herausforderungen von Open Science zu diskutieren. Wie wichtig die Zusammenarbeit und Bündelung von Kräften als Antwort auf die aktuellen Bedrohungen für offenes Wissen ist wurde von Nina Leseberg, Bereichsleiterin Communities & Engagement bei Wikimedia, in ihrer Begrüßungsrede zum 11. Barcamp Open Science betont. Am 18. Juni 2025 kamen 45 Teilnehmende aus ganz Deutschland und darüber hinaus in den Räumlichkeiten von Wikimedia in Berlin zusammen. Ziel war es, sich (besser) kennenzulernen, inspirierende Ideen auszutauschen und neue Perspektiven rund um Open Science zu gewinnen.
In seinem Impulsvortrag „On the Value of Being Unorthodox: Resilience in a Time of Hostility against Arts and Sciences” sprach Henrik Schönemann (Humboldt-Universität zu Berlin) ebenfalls über die aktuellen Bedrohungen für die Wissenschaft im Allgemeinen und für Open Science im Besonderen. Henrik beleuchtete vor allem die jüngsten Entwicklungen in den USA. Er begann mit einigen düsteren Beobachtungen und Prognosen, wie die Wissenschaft nicht nur durch staatliche Angriffe auf bestimmte Forschungsthemen oder durch Kürzungen und Einschränkungen der Fördermittel bedroht ist, sondern auch durch Cyberangriffe und (Natur-) Katastrophen. Er führte weiter aus, wie heimtückische Akteure versuchen, die Prinzipien und Konzepte von Open Science zu untergraben. Ein Beispiel dafür ist die kürzlich erlassene Verordnung „Restoring gold standard science” des Weißen Hauses, in der Open-Science-Praktiken kontraproduktiv angewendet und die Wissenschaft politisiert wird.
Glücklicherweise war Henriks Vortrag nicht ausschließlich düster. Projekte, wie das Data Rescue Project, und Initiativen, wie Safeguarding Research & Culture zur Rettung von Daten und zum Schutz der Forschung, werden ins Leben gerufen, was die Widerstandsfähigkeit der Open-Science-Communities zeigt. Oder, wie Henrik sagte: Darin besteht der Wert, unorthodox zu sein! Henriks Folien finden Sie hier.
Gedankenexperiment: Argumente sammeln gegen
Open Science (um daraus zu lernen)
von Ilona Lipp
Viele von uns bewegen sich in einer Blase von Open-Science-Befürwortenden, und direkte Debatten mit Kritiker:innen sind selten. Das Ziel dieser Session war es, einen Schritt zurückzutreten und unsere eigenen Überzeugungen und Agenda zu hinterfragen. Ein solcher Perspektivwechsel kann dazu beitragen, potenzielle Risiken und unbeabsichtigte Folgen von Open Science aufzudecken und so Prioritäten zu setzen und Umsetzungsstrategien zu verbessern.
Wir begannen mit einem Gedankenspiel: Jede:r Teilnehmende dachte sich ein Argument gegen die Umsetzung oder Förderung von Open Science aus. Auf der Grundlage von Gemeinsamkeiten wurden in Gruppen, „Horrorszenarien” darüber entwickelt, was alles schiefgehen könnte. Dazu gehörten eine totale Informationsüberflutung und mangelnde Qualitätskontrolle, gefälschte Forschungsergebnisse, die die wissenschaftliche Gemeinschaft zerstören, mächtige Einzelpersonen, die entscheiden, was als Wissenschaft gilt, die Nutzung von Open Data für die Entwicklung automatisierter Waffen und der Zusammenbruch von Innovationen, weil alle Ressourcen in die Umsetzung von Open Science fließen.
Anschließend identifizierte jede Gruppe ein realistisches Problem auf der Grundlage ihres Horrorszenarios: Nachwuchsforschende, die überwiegend mit Datenmanagement beschäftigt sind; das Potenzial für eine doppelte Nutzung von Open Data und Software; mangelnde Motivation und Ressourcen für eine effektive Umsetzung von Open Science; hohe Eintrittsbarrieren für die digitale Forschung und die wachsende Abhängigkeit von großen kommerziellen Verlagen; sowie die überwältigende Menge an offenen Veröffentlichungen, die es schwierig macht, qualitativ hochwertige Arbeiten zu identifizieren.
Die Gruppen brainstormten kurz Strategien zur Risikominderung. Zu den Vorschlägen gehörten eine verstärkte Unterstützung für Nachwuchsforschende, Änderungen in der Forschungsbewertung und die Entwicklung barrierefreier, von der Community kontrollierter Tools und Schulungen. Eine weitere Diskussion dieser Strategien wäre sinnvoll, vielleicht beim nächsten Barcamp?
Open Science auf die Landkarte bringen:
Raumbezogene Metadaten in der wissenschaftlichen Kommunikation
von Daniel Nüst
Georäumliche Metadaten haben das Potenzial, Wissen aus verschiedenen Disziplinen miteinander zu verknüpfen. Stellen Sie sich vor, Sie könnten fragen: Welche Gebiete wurden im Rahmen einer Messkampagne für eine Forschungsarbeit erfasst? Wo wurden die Teilnehmenden einer sozialwissenschaftlichen Studie befragt? Die derzeitige Infrastruktur für wissenschaftliche Veröffentlichungen unterstützt diese Art von Metadaten jedoch nicht. Forschungsbeiträge sind selten so mit geografischen Informationen verknüpft, dass sie einfach genutzt oder durchsucht werden können.
In dieser Barcamp-Session wurde das Potenzial von georäumlichen Metadaten betrachtet. Der Initiator der Session, Daniel, stellte geoMetadata, ein OJS, und OPTIMAP, eine Recherchewebsite vor. Ausgehend davon schlugen die Teilnehmenden Ideen vor, wie beispielsweise die Verwendung großer Sprachmodelle zur Extraktion von Ortsangaben aus Texten und das Abrufen von Koordinaten aus verknüpften Datensätzen, da die Unterstützung von Forschenden bei der Erstellung von Metadaten als entscheidend angesehen wurde. Eine automatische Befüllung von OPTIMAP ist entscheidend, um für georäumliche Metadaten zu argumentieren. Neue Interaktionsparadigmen, wie das Kritzeln auf einer interaktiven Karte, wurden spontan erfunden. Die Gruppe diskutierte Möglichkeiten, die Karte zu füllen, unter anderem mit zitierten physischen Proben oder Datensätzen mit bekannten Standorten und der Extraktion von Ortsnamen aus Tags, Schlüsselwörtern oder Volltexten.
Kartierte Artikel könnten besonders für Disziplinen einen großen Nutzen bieten, die normalerweise nicht in Karten oder Koordinaten denken, da sie neue und überraschende Forschungszusammenhänge aufzeigen können. Geometadaten können neue Anwendungsfälle ermöglichen, wie zum Beispiel die Suche nach Citizen-Science-Projekten anhand der Standorte von Nutzenden. Sie können auch als Grundlage für die Metawissenschaften dienen, die Forschungsgerechtigkeit mithilfe eines globalen, gut verständlichen, eindeutigen, unumstrittenen und sprachunabhängigen Referenzrahmens fördert.
Daniel bedankt sich bei allen Teilnehmenden für ihre durchdachten Fragen und Ideen. Die Diskussion hat gezeigt, dass nutzungsfreundliche Tools zum Teilen und Erkunden von raumbezogenen Metadaten benötigt werden. Die Session hat bestätigt, dass das Kernkonzept zwar breite Unterstützung findet, aber klare Leistungsversprechen und Praxisbeispiele benötigt, um Communities und Fachbereiche außerhalb des traditionellen Geodatenbereichs zu erreichen.
(Einen ausführlichen Bericht finden Sie hier.)
Offene Infrastruktur für das Forschungsdatenmanagement:
Das Rückgrat von Open Science errichten
von Tilo Mathes
Diese Session befasste sich mit der unzureichenden Nutzung von Infrastrukturen für das Forschungsdatenmanagement (RDM) und Herausforderungen bei deren Nachhaltigkeit. Trotz der Verfügbarkeit von Open-Source-Lösungen zur Verbesserung der FAIRness von Daten (Findability, Accessibility, Interoperability, Reusability) bevorzugen Forschende aufgrund praktischer und kultureller Barrieren oft vertraute, proprietäre, aber suboptimale Tools.
Zentrale Diskussionspunkte:
- Herausforderungen bei der Einführung: Forschende sehen sich mit steilen Lernkurven, Umstellungskosten und mangelnder Integration in Arbeitsabläufen konfrontiert. Netzwerkeffekte beeinflussen die Einführung, da Tools eher genutzt werden, wenn auch die Kolleg:innen sie verwenden. Ältere Forschende lehnen Veränderungen aufgrund festgefahrener Gewohnheiten und Vorstellungen von Dateneigentum möglicherweise ab und werben gegenüber jüngeren Kolleg:innen, die einer Einführung offener gegenüber stehen könnten, nicht für die Nutzung FAIRer Tools
- Anreize und Motivation: Veröffentlichungsanreize sind nach wie vor die stärksten Motivatoren. Datenjournale werden stärker wertgeschätzt als Repositorien wie Zenodo, obwohl beide Daten zitierfähig machen. Erfolgsgeschichten und Berichte über die Vorteile von RDM-Tools können einen kulturellen Wandel vorantreiben.
- Nachhaltigkeit: Viele Open-Source-RDM-Tools, die ursprünglich durch Drittmittel finanziert wurden, haben Schwierigkeiten mit der laufenden Finanzierung der Wartung. Nachhaltige Modelle umfassen die Entwicklung modularer Tools, die bestehende Plattformen erweitern, die Integration in Ökosysteme und die Förderung einer speziellen Wartungsfinanzierung durch politische Maßnahmen oder unabhängige Geldgebende.
- Empfehlungen: Führungskräfte in Organisationen als Zielgruppe wählen und die schrittweise Einführung unterstützen. Den Fokus auf Nutzungsfreundlichkeit, bestehende Lösungen und Workflow-Erweiterungen legen, anstatt neue Lösungen vorzustellen. Politische Unterstützung von oben und den Aufbau von Communities von unten fördern.
Fazit: Technische Lösungen allein reichen nicht aus. Die flächendeckende Einführung von FAIRen Datenpraktiken erfordert eine gemeinsame Bewältigung praktischer, kultureller, Anreiz- und Nachhaltigkeitsherausforderungen. Die Session befasste sich erneut mit anhaltenden Problemen, tauschte Erfahrungen aus und betonte die Bedeutung eines kontinuierlichen Dialogs und schrittweisen Fortschritts.
Erfolgsgeschichten aus der Open-Science-Praxis
von Susann Auer
In dieser Session sammelten wir nun schon das dritte Jahr in Folge Erfolgsgeschichten von Menschen, denen die Arbeit im Sinne von Open Science geholfen hat und greifbare und messbare Vorteile gebracht hat. Die Idee hinter dieser Sammlung von Geschichten ist es, Erfahrungsberichte, Anekdoten und Beispiele aus der Praxis zu sammeln, die zeigen, wie die Aneignung von Open-Science-Kompetenzen die Karriere von Menschen vorantreibt und ihnen neue Möglichkeiten eröffnet. Sie können diese Beispiele gerne als Inspiration nutzen, um Skeptiker:innen zu überzeugen und Ihre Kolleg:innen für Open Science zu begeistern!
Here are some success examples that were shared in 2025 by the audience:
- Karriereförderung: Als Linguist:in in offenen Communities wie the Carpentries, Programmierkenntnisse zu erlernen, erhöht die Beschäftigungsfähigkeit innerhalb und außerhalb der Wissenschaft erheblich.
- Die Übernahme eines Mindsets des Teilens und der weltweiten Zusammenarbeit mithilfe sozialer Plattformen unterstützte Individuen, ihre Karriere voranzutreiben; sie verschaffte der Institution Prestige und brachte dem Individuum das Vertrauen von Vorgesetzten, was zu mehr Freiheit bei der Arbeit führte.
- Entwicklung der MERIT-App durch QUEST Berlin als hilfreiches Tool für die verantwortungsbewusste Bewertung von Forschenden durch Institutionen im Rahmen von Personalgewinnung und Berufungskommissionen; erleichtert es, Personen zu belohnen und einzustellen, die im Bereich Open Science aktiv sind.
- Offenheit der Forschung und mit R entwickelte Tools als Motor für schnellere Innovationen und mehr Forschungsideen: Aufgrund der Offenheit dieser Ressourcen können neue Forschungsideen viel schneller entstehen, Forschungsfelder sich schneller entwickeln und innovativ sein.
- Citizen-Science-Projekte, die Kommunikationsstrategien beinhalten, die Bürger:innen fragen: Wie können wir Ihnen helfen, was brauchen Sie? Es wurden zwei Beispiele vorgestellt, bei denen dieser Ansatz dazu führte, dass Schüler:innen befähigt wurden, ihre eigene Umfrage zu erstellen beziehungsweise eine Gemeinschaft befähigt wurde, aktiv Wasser zu sparen, da die Menschen nun besser verstehen, welche schädlichen Auswirkungen die Wasserverschwendung sonst hat.
Fazit: Diese Session war eine wunderbare Mischung von Menschen verschiedener Karrierestufen und mit unterschiedlichen Hintergründen, die an sehr unterschiedlichen Projekten in verschiedenen Bereichen arbeiten. Der rote Faden in diesem Jahr war, dass Offenheit der Schlüssel ist. Offenheit ermöglicht Freiheit – die Freiheit, sich auszuwählen, was man als Nächstes lernen oder bearbeiten möchte, ein besseres Verständnis komplexer Themen und schnellere kreative Lösungen für komplexe Probleme. Die Personen, die in diesem Jahr ihre Geschichten geteilt haben und die alle eine Open-Science-Denkweise vertreten, scheinen mehr Zufriedenheit aus ihrer Arbeit zu ziehen und glauben, dass sie aufgrund ihrer spezifischen Fähigkeiten von einer besseren Beschäftigungsfähigkeit profitieren können.
Wie man Projekte dokumentiert, um die Zusammenarbeit zu erleichtern
von Julien Colomb
In dieser Session ging es darum, was eine gute Dokumentation ausmacht. Die meisten Teilnehmenden hatten Erfahrung in der Entwicklung von Open-Source-Software. Wir diskutierten zunächst Tools und Formate für die Dokumentation, von Whiteboards für Brainstorming bis hin zu Code-Kommentaren – die Dokumentation kann verschiedene Formen annehmen. In Anbetracht der Tatsache, dass in vielen Fällen jede Dokumentation besser ist als gar keine, diskutierten wir, wie Checklisten als ein erster Einstiegspunkt verwendet werden können.
Zwei interessante Punkte, die ich nicht erwartet hatte, kamen während der Diskussion zur Sprache. Erstens sprachen wir über die Notwendigkeit einer besseren Nutzungserfahrung von Software und die Notwendigkeit einer besseren Dokumentation der entsprechenden Designentscheidungen im Software-Frontend (oder in der Hardware-Schnittstelle). Zweitens sprachen wir über Informationen, die nicht in die Dokumentation aufgenommen werden, und wie wichtig es ist, einen Blick auf frühere „inoffizielle” Kommunikation zu werfen, um ein Gefühl für die Community zu bekommen. Daher scheint es wichtig, einen Ort für diese Art der Kommunikation zu haben (Mattermost, Zulip, …) und in der Dokumentation darzustellen, wie man hier Zugang bekommt.
EOSC & NFDI – Gentrifizierung von Open Science?
von Julien Colomb
Wie zentrale Datenmanagementprojekte den Diskurs über Open Science „gentrifiziert” haben, wurde in dieser Session diskutiert. Zwar haben diese Projekte zu einer Professionalisierung des Bereichs geführt (und Open-Science-Enthusiast:innen die Möglichkeit gegeben, einen Job zu finden), aber sie haben auch die Atmosphäre in der Community verändert. Wir haben uns gefragt, inwiefern dies unsere eigene Beziehung zu Open Science verändert hat, ob der Bereich „Open Data“ im Vergleich zu anderen Themen nicht zu stark gewachsen ist und was wir dagegen tun können, insbesondere in einer Zeit, in der KI so populär geworden ist. Wir waren recht gespalten zwischen denen, die die diese Entwicklungen positiv betrachten, und denen, die ein wenig nostalgisch auf frühere Zeiten zurückblickten.
Zu Beginn der Bewegung waren Open-Science-Veranstaltungen selten und umfassten alle Aspekte von Open Science (Open Access, Open Data, Open Code, Inklusion und Gleichberechtigung, Open Education usw., wie wir in den um 2013 für den Open-Science-MOOC geplanten Modulen sehen können). Heutzutage gibt es für bestimmte Themen wie Open Access eigene Konferenzen, sodass sie beim Barcamp Open Science nicht mehr vorkommen. Es scheint, dass die diesjährigen Barcamp-Teilnehmenden hauptsächlich im Bereich Forschungsdatenmanagement tätig sind, vor allem weil dort mit Programmen wie European Open Science Cloud (EOSC) und Nationale Forschungsdateninfrastruktur (NFDI) Geld zur Verfügung stehen.
Dies scheint die Atmosphäre der Open-Science-Veranstaltungen zu verändern, von denen einige zu Open-Data-/Datenmanagement-Veranstaltungen werden, bei denen die Aspekte „Wissenschaft” und „Community” in den Hintergrund treten (jedoch im Titel stehen bleiben). Angesichts der Angriffe auf DEI (Diversity, Equity und Inclusion), also Vielfalt, Gerechtigkeit und Inklusion in den USA haben wir sowohl beobachtet, dass einige Programme ihre DEI-Positionen aufgegeben haben, während andere sie verstärkt haben (vor allem Programme außerhalb der USA). Wird die soziale Komponente der Bewegung wieder in Open-Science-Veranstaltungen zurückkehren oder werden sie eigene Veranstaltungen benötigen?
Öffnung von KI-Daten
von Katharina B. Schmitt
Das Thema dieser Session waren die Herausforderungen, die sich für die Wissenschaft im Zusammenhang mit der Veröffentlichung von KI-Modellen und -Systemen ergeben. Das EU-KI-Recht sieht vor, dass Forschung vom Geltungsbereich des Gesetzes ausgenommen ist, wenn die geschaffene KI nur für interne Forschungszwecke verwendet wird, aber es gibt keine Regelung für die Verwendung nach der Veröffentlichung. Die Frage, was mit den Daten (den KI-Modellen) nach ihrer Veröffentlichung geschieht, lässt die Forschenden vorerst im Unklaren: Sollen sie von vornherein als kommerzielle Modelle behandelt werden oder sind sie weiterhin nur Forschungsergebnisse?
In der Session tauschten wir uns darüber aus, wie KI derzeit in verschiedenen Forschungseinrichtungen gehandhabt wird und welche Ansätze für die Veröffentlichung von KI-Daten möglich wären. Wir diskutierten die übermäßige Sammlung von Daten durch Scraping und die Angst, die Kontrolle über die eigenen veröffentlichten Forschungsdaten zu verlieren.
Zu den abschließenden Punkten zählte, sich rechtlichen Rat zur Erstellung von KI-Daten und Modellen einzuholen. Die Veröffentlichung von KI-Modellen mit Metadaten und transparenten Beschreibungen unter Lizenzen. Ein Bedarf an Repositorien, die auch die Veröffentlichung von KI-Modellen unterstützen.
Schattenbibliotheken – laufende Zusammenarbeit im Bildungsbereich, spannende nächste Schritte und drängende neue Fragen
von Lambert Heller
Ausgangspunkt dieser Session war eine neue Bildungsressource über Schattenbibliotheken, dieses Poster (leider vorerst nur auf Deutsch verfügbar). Es entstand aus der letztjährigen Barcamp-Session zum gleichen Thema. Im Anschluss daran traf sich eine Kerngruppe von vier Kolleg:innen aus ganz Deutschland fast jeden Monat virtuell und entwickelte schließlich das Poster, das im Anschluss für die offizielle Poster-Session der BiblioCon 2025 angenommen wurde. Einige OSciBar-Sessions führen zu längerer Bindung und Struktur, als wir manchmal erwarten würden! 😉
Zunächst stellte Lambert kurz den Ansatz des Posters und einige seiner wichtigsten Aussagen vor. Sowohl der Umfang als auch die Nutzung von Schattenbibliotheken weltweit sind viel höher als die meisten vermuten würden – mehr als eine Milliarde Artikel werden pro Jahr von Sci-Hub heruntergeladen –, selbst wenn man automatisierte Massen-Downloads einkalkuliert, denn sie stammen von 80 Millionen verschiedenen IP-Adressen.
Außerdem gibt es viele verschiedene Hürden, wie mit der Nutzung dieser illegalen Websites umgangen wird, viel mehr als nur die direkte Vermeidung der Zahlung – siehe die Zusammenfassung auf dem Poster.
Die acht Session-Teilnehmenden einigten sich auf folgende Zielsetzung für diese Session:
- Welche interessanten Fragen zu Schattenbibliotheken können wir (noch) nicht beantworten?
- Da die Arbeit an dem Poster nach der Sommerpause 2025 fortgesetzt wird: Wer ist bereit, einen Beitrag zu leisten, etwa Fehler auszubügeln, Referenzen hinzuzufügen (vielleicht sogar eine Zotero-Gruppenbibliothek?), einfachere Sprache und Übersetzungen für eine Website-Version des Beitrags, neue und beantwortete Forschungsfragen auf einer entsprechenden Wikiversity-Seite zu verfolgen usw.?
- Das Ergebnis: Die Hälfte der Barcamp-Teilnehmenden hat sich spontan bereit erklärt, Beiträge zu leisten, super!
Das vielleicht Faszinierendste kam von OSciBar-Teilnehmer Henrik Schönemann, der sofort ein Codeberg-Git-Repositorium des Posters eingerichtet hat, um Übersetzungen und andere Fälle der Anreicherung oder Wiederverwendung zu unterstützen. Wir sind mehr als dankbar, was für eine nette Geste. Vielen Dank, Henrik!!
Was die Forschungsfragen betrifft, die während der Barcamp-Session aufgekommen sind – so würden sie hier den Rahmen sprengen. Wir werden dazu bald einen weiteren Artikel in einem anderen Blog veröffentlichen – bitte bleiben Sie dran!
Offenheit allein reicht nicht
In seinen abschließenden Bemerkungen betonte Christopher Schwarzkopf vom Team „Marginalisiertes Wissen” von Wikimedia Deutschland, dass Offenheit allein nicht ausreicht, wenn wir die in unseren Wissenssystemen verankerten Ausgrenzungen nicht angehen. Open Science müsse aktiv daran arbeiten, marginalisierte Stimmen zu verstärken, Wissensstrukturen zu dekolonisieren und diejenigen zu schützen, die trotz Widrigkeiten die Wahrheit sagen. Er erinnerte die Teilnehmenden daran, dass die Mission von Wikimedia auf der Idee basiert, dass Wissen ein öffentliches Gut ist – und dass Wissensgerechtigkeit bedeutet, zu fragen, wessen Wissen zählt, wessen Stimmen gehört werden und wer noch immer ausgeschlossen ist. Echter Fortschritt hin zu Open Science erfordert gemeinsame Anstrengungen: Brücken zwischen Disziplinen und Communities bauen, ausschließende Normen hinterfragen und sicherstellen, dass Wissenschaft kein Silo ist, sondern Teil eines gemeinsam genutzten und zugänglichen Gemeinguts.
Das könnte Sie auch interessieren – Blogbeiträge zum Thema “Open Science Barcamp“.
Dr Susann Auer ist Pflanzenwissenschaftlerin an der TU Dresden und gibt Workshops zur Reproduzierbarkeit in der Forschung im Rahmen der Community-getriebenen Initiative Reproducibility for Everyone. Sie ist Mitglied des Lenkungsausschusses des German Reproducibility Network (GRN), das sich für mehr Vertrauenswürdigkeit und Transparenz in der Wissenschaft einsetzt. Sie ist auf LinkedIn und Mastodon zu finden.
Julien Colomb ist ehemaliger Neurogenetiker (10 Jahre Forschung zu Gedächtnis und Verhalten von Fruchtfliegen). Er nutzt sein Interesse an Open Science und arbeitet an reproduzierbarer Datenanalyse und Forschungsdatenmanagement. Er beschäftigt sich mit technischen und sozialen Möglichkeiten zur Umsetzung der FAIR- und Open-Data-Prinzipien im Labor-Workflow und mit der Förderung der Zusammenarbeit zwischen Forschenden, insbesondere durch die GIN-Tonic-Projekte. Zuletzt wechselte er an die TU Berlin, um sich dort in Vollzeit mit FAIR, Open-Source-Forschungshardware und lokalen, urbanen Fertigungsprojekten zu beschäftigen. Hier kann er sein Interesse an Projektmanagement in kollaborativen Forschungsprojekten und sozialen Fragen unter Verwendung datenwissenschaftlicher Techniken verbinden. Sie finden ihn auf Mastodon.
Maaike Duine arbeitet im Open Research Office Berlin am Projekt BUA Open Science Magnifiers, in dem sie gemeinsam mit verschiedenen Communities Open-Science-Indikatoren und Visualisierungen für die Überwachung von Open Science entwickelt.
Als Sozialwissenschaftler und wissenschaftlicher Bibliothekar gründete Lambert Heller 2013 das Open Science Lab (OSL) an der TIB – Leibniz-Informationszentrum für Wissenschaft und Technologie. Mit NFDI4culture, Open Research Information und vertraglich oder durch Fördermittel finanzierten Projekten unterstützt das OSL Communities in Wissenschaft und Kultur bei der Einführung offener digitaler Tools und Praktiken. Er ist auch auf LinkedIn und Mastodon zu finden.
Ilona Lipp ist Open Science Officer an der Universität Leipzig und freiberufliche Trainerin und Coach, die Wissenschaftler:innen dabei unterstützt, sich im akademischen Bereich zurechtzufinden und ihre Forschungspraktiken zu optimieren. Sie können sie über LinkedIn kontaktieren.
Tilo Mathes arbeitet derzeit als Produktmanager und Open-Source-Leiter bei ResearchSpace, in dem er das Team bei der Entwicklung der Forschungsdatenmanagement-Lösung RSpace und der damit verbundenen Open-Source-Community unterstützt. Sie finden ihn auf LinkedIn, Bluesky und Mastodon.
Daniel Nüst ist Forschungssoftwareentwickler und Postdoktorand am Lehrstuhl für Geoinformatik der TU Dresden. Er entwickelt Tools und Infrastrukturen für FAIR, offene und reproduzierbare geowissenschaftliche Forschung und setzt sich in den Projekten NFDI4Earth, KOMET und CODECHECK für Open Science ein. Sie finden ihn auch auf ORCID.
Guido Scherp ist Leiter der Abteilung „Open-Science-Transfer“ bei der ZBW – Leibniz-Informationszentrum Wirtschaft. Er ist auch auf LinkedIn und Mastodon zu finden.
Katharina B. Schmitt ist Arbeitspsychologin und Data Steward. Sie arbeitet als Forschungsdatenmanagerin am Leibniz-Institut für Agrartechnik und Bioökonomie (ATB) in Potsdam. Ihre Arbeit umfasst die Entwicklung von Datenmanagement-Tools und Richtlinien für den konformen Umgang mit Daten, mit besonderem Schwerpunkt auf FAIR-Daten und Open Science. Sie ist Mitglied des AI Awareness Teams des ATB. Sie können sie über LinkedIn kontaktieren.
Christopher Schwarzkopf ist Projektmanager für marginalisiertes Wissen bei Wikimedia Deutschland. Sie finden ihn auf LinkedIn.
Fotos: Bettina Ausserhofer©
View Comments

Gollum-Effekt schadet der Forschung: Warum Open Science zur Lösung beitragen könnte
Besitzdenken und Territorialverhalten von Forschenden behindern Zusammenarbeit und...