4 Open Science
4.1 Folien
4.2 Transkript
Das folgende Transkript wurde auf Basis der Aufzeichnung der Vorlesung erstellt. Die vollständigen Aufzeichnungen inklusive der Bildschirminhalte sind in Blackboard🔒 verfügbar. Die Tonspur wurde zuerst mit Hilfe der Werkzeuge des Oral-History.Digital Projekts wörtlich transkribiert. Die wörtliche Transkription wurde in Kombination mit den Vorlesungsfolien mithilfe von Sprachmodellen (v. a. Claude Sonnet 4.5 und GPT 5.2) zu einem übersichtlichen Transkript zusammengefasst. Im Anschluss wurde das Transkript von einer studentischen Hilfskraft überprüft, geglättet und ggf. angepasst. In diesem Prozess kann es an verschiedenen Stellen zu Fehlern kommen. Im Zweifel gilt das gesprochene Wort, und auch beim Vortrag mache ich Fehler.
Ich stelle das Transkript hier als experimentelles, ergänzendes Material zur Dokumentation der Vorlesung zur Verfügung. Noch bin ich mir unsicher, ob es eine sinnvolle Ergänzung ist und behalte mir vor, es weiter zu bearbeiten oder zu löschen.
Open Science
Open Science wird als Antwort auf konkrete Krisen und Probleme in der empirischen Forschung (Auslöser in der Psychologie, später auch andere Wissenschaften übertragen) eingeführt. Die Grundidee: Viele publizierte Befunde erweisen sich als nicht robust oder gar falsch, und offene, transparente Verfahren sollen helfen, Wissenschaft überprüfbarer und verlässlicher zu machen (z.B. Daten, Materialien, Analysen, Entscheidungswege).
Einstieg: Was verstehen Studierende unter Open Science?
Genannte Punkte aus dem Plenum:
- Open-Source-Software: Programme, deren Quellcode frei zugänglich ist und von allen verändert und weiterentwickelt werden kann.
- Transparenz und Einsehbarkeit: Forschungsprozesse und -ergebnisse sollen nachvollziehbar und überprüfbar sein.
- Open Access: Wissenschaftliche Publikationen sollen frei zugänglich sein, gerade wenn sie mit öffentlichen Mitteln finanziert wurden.
- Erkenntnisvermittlung: Wissen soll nicht im „Elfenbeinturm“ verbleiben, sondern in die Gesellschaft zurückwirken.
Diese Vorstellungen greifen bereits zentrale Elemente der später vorgestellten UNESCO-Definition von Open Science und der konkreten Open-Science-Praktiken auf.
Auslöser: „Feeling the Future“ – ein Beispiel aus der Psychologie
Ein zentraler Auslöser für die Open-Science-Bewegung im Bereich Psychologie ist das Paper „Feeling the Future“ von Daryl Bem (2011). Darin werden mehrere Experimente vorgestellt, die angeblich zeigen, dass Menschen zukünftige Ereignisse vorhersagen können (Precognition).
Ein exemplarisches Experiment („Precognitive Detection of Erotic Stimuli“):
- Versuchspersonen sehen zwei virtuelle Vorhänge auf einem Bildschirm und sollen „gefühlt“ entscheiden, hinter welchem ein erotisches Bild erscheinen wird.
- Wichtig: Die Position des Bildes wird erst nach der Entscheidung per Zufallsgenerator festgelegt. Zum Zeitpunkt der Entscheidung steht also noch gar nicht fest, wo das Bild sein wird.
- Ergebnis: Bei erotischen Bildern lag die Trefferrate signifikant über 50%, also über dem Zufallsniveau, bei nicht-erotischen Bildern blieb sie dagegen auf Zufallsniveau.
Folgen für das Feld:
- Das Paper erschien in einer renommierten Fachzeitschrift und entsprach den damaligen methodischen Standards.
- Die Ergebnisse widersprechen grundlegenden Vorstellungen über Zeit und Kausalität. Das führte zu zwei möglichen Schlussfolgerungen:
- Entweder: Precognition existiert wirklich und sollte replizierbar sein.
- Oder: Precognition existiert nicht, dann müssen die methodischen Standards unzureichend sein.
- Entweder: Precognition existiert wirklich und sollte replizierbar sein.
- Replikationsversuche fanden keinen Effekt; Fachzeitschriften lehnten Replikationsstudien jedoch sogar ohne Review ab („wir publizieren keine Replikationen“).
Das Beispiel macht sichtbar: Selbst methodisch scheinbar „saubere“ Studien können zu unglaubwürdigen Ergebnissen führen, und das Publikationssystem kann spektakuläre Befunde gegenüber Replikationen bevorzugen.
Replikationskrise und geringe Robustheit von Befunden
Im Anschluss werden breitere Replikationsprojekte vorgestellt, insbesondere die „Open Science Collaboration“, die 100 wichtige psychologische Studien erneut testete.
Wichtige Befunde:
- Nur 39 von 100 Studien konnten erfolgreich repliziert werden, also eine Replikationsrate von knapp 40%.
- Die durchschnittliche Effektstärke in Replikationsstudien war etwa nur halb so groß wie in den Originalstudien.
Das deutet auf systematische Verzerrungen im Publikations- und Forschungsprozess hin: Es werden zu viele starke Effekte berichtet, die sich nicht stabil wiederfinden lassen.
Gründe für fehlerhafte oder verzerrte Forschung
Die Vorlesung nennt vier verbreitete Erklärungen, warum viele publizierte Ergebnisse unzuverlässig sind:
- Betrug
- Fragwürdige Forschungspraktiken (QRPs)
- Fehler
- Publikationsbias
1. Betrug: Der Fall Diederik Stapel
„Betrug“ bezeichnet bewusstes Fälschen oder Erfinden von Daten und Studien. Ein prominenter Fall ist der Sozialpsychologe Diederik Stapel.
Charakteristika des Falls:
- Ehemaliger Professor für Sozialpsychologie in Tilburg, sehr produktiv, viele Publikationen, prestigeträchtige Positionen (u.a. Dekan).
- 2011 Entlassung wegen systematischer Datenfälschung und erfundener Studien.
- Bislang zahlreiche Retractions (rückgezogene Artikel); auch seine Doktorand*innen waren betroffen, da ihre Arbeiten auf gefälschten Daten beruhten.
Stapel beschreibt in seiner Autobiografie sehr plastisch, wie er Daten „erfand“:
- Er saß abends zu Hause, schrieb sich zunächst auf, welche Effekte und Muster er „braucht“, und tippte dann fiktive Daten in Tabellen, die passende Resultate erzeugen sollten.
- Wenn erste Analysen nicht das gewünschte Muster zeigten, änderte er einzelne Werte so lange, bis das Ergebnis „logisch“ und „elegant“ aussah.
Betrug ist extrem, aber vermutlich nicht der Hauptgrund der Krise; er zeigt jedoch, dass reine Vertrauensstrukturen ausgenutzt werden können, wenn es keine Transparenz und Nachprüfbarkeit gibt.
2. Fragwürdige Forschungspraktiken (QRPs)
QRPs („Questionable Research Practices“) sind Praktiken, die formell oft nicht als Betrug gelten, aber statistische Ergebnisse systematisch verzerren. Sie bewegen sich in einem „Graubereich“, in dem Forschende ihre Ergebnisse lenken können.
Beispiele für QRPs:
- P-Hacking: Analyse der Daten mit dem expliziten oder impliziten Ziel, einen signifikanten p‑Wert (meist < 0,05) zu erhalten.
- Viele Variablen erheben, aber nur über die „funktionierenden“ berichten.
- Unterschiedliche Datenaufbereitungen ausprobieren (Ausreißer ausschließen, verschiedene Operationalisierungen testen).
- Viele verschiedene Analysen berechnen, Zwischenauswertungen machen und die Studie beenden, sobald Signifikanz erreicht ist.
- Selektiv nur die signifikanten Ergebnisse berichten.
- Viele Variablen erheben, aber nur über die „funktionierenden“ berichten.
- HARKing („Hypothesizing After Results are Known“): Hypothesen werden erst nach der Datenanalyse formuliert, aber so präsentiert, als hätten sie vorher schon bestanden.
- Dadurch entstehen sehr „runde“, scheinbar widerspruchsfreie Ergebnisse
- Logisch problematisch: Eigentlich sollen Hypothesen vor der Datenerhebung aus Theorien abgeleitet und dann getestet werden.
- Psychologisch plausibel: Forschende glauben oft im Nachhinein wirklich, sie hätten die Hypothese „immer schon so“ gehabt.
- Dadurch entstehen sehr „runde“, scheinbar widerspruchsfreie Ergebnisse
Empirische Hinweise zu QRPs in der Kommunikationswissenschaft:
Eine Befragung unter quantitativen Kommunikationsforscher:innen erhob, welche QRPs sie selbst schon genutzt haben und wie akzeptabel sie diese finden. Viele geben an, bestimmte QRPs „nie“ zu praktizieren, gleichzeitig wird aber vermutet, dass ein großer Anteil des Feldes sie schon verwendet hat (bei manchen Praktiken schätzen Befragte, dass über die Hälfte der Kolleg:innen diese mindestens einmal eingesetzt haben). Insgesamt werden QRPs nicht durchweg „verteufelt“, sondern oft mittig auf einer Akzeptabilitätsskala eingeordnet, was die Grauzone und Selbstrechtfertigung verdeutlicht.
QRPs können bewusst zu Signifikanz „hinbiegen“, aber oft entstehen sie auch aus fester Überzeugung, dass eine Hypothese „eigentlich wahr“ sei (Confirmation Bias), und aus Ausbildungstraditionen, in denen besonders signifikante Ergebnisse eher als „Analyse-Skill“ statt als Problem vermittelt wurden.
3. Fehler
Fehler sind unbeabsichtigte falsche Schritte in Datenerhebung, -management, Analyse oder Berichterstattung. Sie passieren zwangsläufig, werden aber asymmetrisch entdeckt und korrigiert.
Typische Fehlerquellen:
- Technische Fehler bei Datenmanagement oder Kodierung.
- Rechenfehler oder falsch gerundete p‑Werte.
- Falsche Übertragung von Ergebnissen in Tabellen oder Texte.
Eine Studie zur Berichterstattung von p‑Werten in der Kommunikationswissenschaft zeigt:
- p‑Werte werden häufig zugunsten der Hypothese „falsch“ berichtet, z.B. knapp nicht-signifikante Werte werden als signifikant dargestellt.
- Erklärung: Fehler, die der Hypothese widersprechen, werden eher entdeckt (weil sie „stören“) und korrigiert, während Fehler, die zur Hypothese passen, weniger stark hinterfragt werden.
Fehler sind damit nicht per se böswillig, tragen aber systematisch zu überoptimistischen Befunden bei.
4. Publikationsbias
Publikationsbias entsteht dadurch, dass Studien mit signifikanten Ergebnissen deutlich bessere Chancen haben, in Fachzeitschriften veröffentlicht zu werden als nicht-signifikante Studien.
Mechanismen:
- Herausgeber*innen und Reviewer*innen bevorzugen „positive“ Ergebnisse, weil sie als interessanter und „neu“ gelten.
- Forschende selbst reichen Nullbefunde oft gar nicht erst ein, weil sie deren Publikationschancen als gering einschätzen (File-Drawer-Problem).
- Replikationsstudien ohne signifikante Effekte haben besonders schlechte Chancen, akzeptiert zu werden.
Konsequenz:
- In der publizierten Literatur entsteht ein Bild, in dem Effekte stärker und stabiler erscheinen, als sie tatsächlich sind.
- Auch wenn jede einzelne Studie „ehrlich“ ist, führt das selektive Publizieren dazu, dass Meta-Analysen Effekte überschätzen und Nicht-Effekte unsichtbar bleiben.
Dieses Zusammenspiel von Betrug, QRPs, Fehlern und Publikationsbias erklärt, warum viele Befunde nicht repliziert werden können und warum Replikationsstudien oft schwächere Effekte zeigen.
Open Science als Umsetzung wissenschaftlicher Grundprinzipien
Open Science wird nicht nur als Krisenreaktion verstanden, sondern auch als Rückbesinnung auf grundlegende wissenschaftliche Prinzipien. Ein historischer Bezugspunkt ist die Royal Society mit dem Motto nullius in verba („Nimm niemandes Wort einfach so“).
Kernidee:
- Wissenschaft grenzt sich von Autoritätsgläubigkeit (Kirche, König, Institutionen) dadurch ab, dass sie ihre Aussagen mit überprüfbarer Evidenz begründet.
- Ergebnisse sollen nicht „geglaubt“, sondern überprüft werden können (show me, don’t tell me).
- Voraussetzung dafür sind Transparenz und Veröffentlichung möglichst vieler Elemente des Forschungsprozesses (Daten, Methoden, Analysen).
Open Science im engeren Sinne versucht, genau diese Nachvollziehbarkeit praktisch umzusetzen und strukturell zu verankern.
Praktiken der Open Science
Im weiten Sinn umfasst Open Science laut UNESCO viele Dimensionen: offene Wissensbestände, offene Infrastrukturen, Beteiligung der Gesellschaft und Bürger*innen („Citizen Science“) sowie offene Kommunikationskanäle zwischen Wissenschaft und Öffentlichkeit. In der Vorlesung wird jedoch vor allem eine engere, empirisch ausgerichtete Definition verwendet.
- Eng gefasst: Open Science meint für empirische Studien die möglichst vollständige Offenlegung von Inhalt und Prozess der Evidenzproduktion.
- Definition (Munafò et al. 2017, übertragen auf Kommunikationswissenschaft): Open Science bedeutet, den Forschungsprozess – von Hypothesen über Design, Datenerhebung, Daten und Analysen – so transparent zu machen, dass andere ihn nachvollziehen und ggf. reproduzieren können; „open“ wäre damit eigentlich redundant, weil Transparenz ein wissenschaftliches Ideal ist.
Open Science Agenda in der Kommunikationswissenschaft
Ein Artikel von Dienlin et al. („An Agenda for Open Science in Communication“) formuliert konkrete Vorschläge, wie Open Science im Fach verankert werden kann. Wichtige Punkte sind:
- Mehr Daten, Materialien und Analysesoftware/-code veröffentlichen.
- Präregistrierungen und Registered Reports einführen und nutzen.
- Replikationsstudien durchführen und publizieren.
- Nachwuchs in Open-Science-Skills ausbilden.
- Journals sollen Leitlinien für transparente Berichterstattung umsetzen und Open-Science-Praktiken sichtbar machen (z.B. Badges).
- Anreizstrukturen (Incentives) schaffen, damit sich aufwendige Offenheitspraktiken auch in Karrieren auszahlen.
Besonders wichtige Praktiken in der Kommunikationswissenschaft:
- Präregistrierung
- Registered Reports
- Veröffentlichung von Daten und Materialien
Die Agenda zielt darauf, Transparenz zu erhöhen, Reproduzierbarkeit zu verbessern und die Wissensbasis des Fachs belastbarer zu machen.
Präregistrierung
Präregistrierung bedeutet, dass Forschende ihre Hypothesen, das Studiendesign und den Analyseplan vor der Datenerhebung (oder zumindest vor der Einsicht in die Daten) öffentlich oder nachvollziehbar festhalten.
Zweck:
- Verhindern, dass Hypothesen nachträglich an Ergebnisse angepasst werden (HARKing).
- Einschränken von P-Hacking, weil Analysen vorab geplant werden sollen.
- Klar trennen zwischen konfirmatorischer Forschung (Test vorab formulierter Hypothesen) und explorativer Forschung (Hypothesis-generating).
Elemente einer guten Präregistrierung:
- Konkrete Hypothesen bzw. Forschungsfragen.
- Exakte Definition der abhängigen und unabhängigen Variablen und der Messinstrumente.
- Beschreibung des Designs (z.B. Experiment mit bestimmten Bedingungen, Stichprobengröße, Poweranalyse).
- Vorab festgelegte Ausschlusskriterien (z.B. Umgang mit Ausreißern, fehlenden Daten).
- Geplanter Analyseweg (z.B. verwendete statistische Modelle, zusätzliche Kontrollvariablen).
Technische Umsetzung:
- Einfache Dienste wie „AsPredicted“ erlauben schlanke Präregistrierungen mit Standardfeldern.
- OSF-Registries bieten umfangreiche Vorlagen für verschiedene Studiendesigns.
- Ein wichtiger Punkt ist der Zeitstempel: Die Plattform dokumentiert, dass die Anmeldung vor der Datenerhebung erfolgt ist (ggf. zunächst „privat“ und erst später öffentlich).
In der Vorlesung wird ein konkreter Artikel aus der Kommunikationswissenschaft gezeigt, der präregistriert wurde: Die Autor*innen beschreiben darin die Hypothesen zu Effekten von Sexismus in Social-Media-Debatten auf die Beteiligung von Frauen, das Experimentdesign sowie Details zur geplanten Auswertung. Das Beispiel illustriert, wie transparent sich konfirmatorische Analysen planen lassen.
Registered Reports
Registered Reports gehen einen Schritt weiter und verändern den Publikationsprozess selbst.
Prinzip:
- Forschende reichen nicht erst nach der Studie einen vollständigen Artikel ein, sondern schon vor der Datenerhebung eine Art „Proto-Artikel“ → Theorieteil, Hypothesen, Design, geplante Analysen.
- Diese „Stage‑1“-Version wird begutachtet. Gutachter:innen und Herausgeber:innen entscheiden, ob die Studie prinzipiell publiziert werden soll – ohne die Ergebnisse zu kennen.
- Bei positiver Entscheidung verpflichten sich die Zeitschrift und Autor*innen dazu, die Studie nach Durchführung zu veröffentlichen, sofern das Protokoll eingehalten wird und die Studie sauber durchgeführt wurde, unabhängig davon, ob signifikante Ergebnisse vorliegen.
Vorteile:
- Reduziert Publikationsbias, weil Nullbefunde ebenso publiziert werden wie signifikante Ergebnisse.
- Stärkt die Qualität der Studienplanung, da Design und Analyseplan vorab kritisch diskutiert und verbessert werden.
- Schafft klare Trennung zwischen vorab geplanten und post-hoc Explorationsschritten.
Im Fach Kommunikationswissenschaft gibt es bisher nur wenige Registered Reports, sie gelten aber als besonders starke Form konfirmatorischer Evidenz, weil sie die Einflussmöglichkeiten von QRPs und Publikationsbias stark reduzieren.
Veröffentlichung von Daten
Die Veröffentlichung von Daten ist eine zentrale Säule von Open Science. Gemeint ist nicht nur, Daten „auf Anfrage“ bereitzustellen, sondern sie tatsächlich in Repositorien abzulegen und dauerhaft zugänglich zu machen.
Ziele:
- Reanalyse und Reproduktion von Ergebnissen ermöglichen.
- Sekundäranalysen, Meta-Analysen und neue Forschungsfragen mit bestehenden Daten erleichtern.
- Qualität der Analysen erhöhen, weil andere Fehler entdeckt und aufgezeigt werden können.
Wichtige Punkte:
- Idealerweise werden Daten in verschiedenen Stufen geteilt: von Rohdaten (soweit rechtlich möglich) bis zu bereinigten Analysedatensätzen.
- Personenschutz und Datenschutz setzen Grenzen: Nicht alle Daten dürfen oder können veröffentlicht werden, insbesondere sensible personenbezogene Informationen.
- In manchen Feldern (z.B. politische Wissenschaft, Sozialwissenschaften) existieren etablierte Datenarchive wie GESIS, Dataverse oder spezialisierte Repositorien.
Problem „Data available upon request“:
- Eine Studie („Data is not available upon request“) zeigt, dass nur ein Bruchteil der Autor*innen, die angeben, dass die Daten „auf Anfrage“ verfügbar seien, diese tatsächlich herausgeben.
- Daraus folgt: „Upon request“ reicht nicht aus, wenn man Reproduzierbarkeit ernst nimmt; Daten sollten aktiv deponiert werden.
Veröffentlichung von Materialien
Neben Daten sollen auch alle Materialien geteilt werden, die für die Durchführung und das Verständnis einer Studie relevant sind.
Dazu gehören u.a.:
- Planungsdokumente: Vorstudien, Poweranalysen, detaillierte Designspezifikationen.
- Erhebungsmaterialien: Fragebögen, Stimuli, Versuchspläne, Rekrutierungstexte.
- Analysematerialien: Skripte für Datenaufbereitung und Statistik (z.B. R-Code), Codebooks, Dokumentation der Variablen.
Nutzen:
- Andere können nachvollziehen, was genau gemessen und wie etwas operationalisiert wurde.
- Fragebögen, Stimuli und Code können in anderen Projekten genutzt oder angepasst werden.
- Erlaubt detailliert zu prüfen, ob Analysen sauber und angemessen durchgeführt wurden.
In der Beispielstudie wurden alle Stimuli, Fragebögen und Analyseskripte auf OSF bereitgestellt, sodass Leser:innen nachvollziehen können, wie das Experiment im Detail aussah und wie die berichteten Effekte berechnet wurden.
OSF und Open-Science-Badges
Das Open Science Framework (OSF) dient als zentrale Infrastruktur:
- Projekte können dort Daten, Materialien, Präregistrierungen und Dokumentationen bündeln.
- Registrierungen erhalten einen Zeitstempel und können auf „öffentlich“ geschaltet werden.
Viele Journals markieren Open-Science-Praktiken zudem mit sogenannten Open-Science-Badges auf der Titelseite von Artikeln:
- Badge für Open Data: Daten sind frei zugänglich.
- Badge für Open Materials: Materialien und Stimuli sind frei zugänglich.
- Badge für Preregistration: Es existiert eine (valide) Präregistrierung.
Diese Badges dienen als sichtbares Signal für Leser:innen und als Anreiz für Autor*innen, entsprechende Praktiken umzusetzen – auch wenn sie keine Garantie für hohe Qualität sind (schlechte Studien können ebenfalls „offen“ sein, was aber immerhin überprüfbar wird).
Kritik an Open Science
Einer der grundlegendsten Hinweise: Auch wenn eine Studie alle Open-Science-Kriterien erfüllt, ist sie nicht automatisch qualitativ hochwertig.
- Offenheit ist eine notwendige, aber keine hinreichende Bedingung für gute Forschung.
- Minimalcommitments: Forschende sammeln Badges, indem sie Minimalanforderungen erfüllen, ohne dass sich die tatsächliche Qualität erhöht.
- Sobald es Kennzahlen gibt (Anzahl der Präregistrierungen, Badges), entstehen Anreize, diese „zu optimieren“, statt inhaltlich bessere Studien zu machen.
→ “Open-Science-Washing
Die Gegenposition lautet: Auch schlechte offene Forschung ist besser überprüfbar als schlechte nicht-offene Forschung, weil Probleme sichtbarer werden.
Fehlende Evidenz für die Wirksamkeit von Open-Science-Praktiken
Ein kritischer Punkt ist, dass viele Open-Science-Praktiken selbst noch nicht hinreichend empirisch geprüft sind.
In dem diskutierten Special Issue im Journal of Communication wird argumentiert, dass Open Science in der Kommunikationswissenschaft selbst Gegenstand empirischer Forschung werden muss.
Replizierbarkeit in der Kommunikationswissenschaft: Kontextabhängigkeit
Ein spezifischer Kritikpunkt für die Kommunikationswissenschaft betrifft die Übertragbarkeit des Replikationsideals.
Herausforderungen:
- Digitale Kommunikationsumgebungen (z.B. Social Media) verändern sich sehr schnell; Plattformen, Nutzerverhalten und Algorithmen wandeln sich.
- Effekte, die in einer bestimmten Medienumgebung gemessen wurden, müssen nicht in späteren Umgebungen auftreten – auch wenn die Studie korrekt durchgeführt wurde.
Daraus entsteht die Frage, ob Replizierbarkeit in allen Bereichen der Kommunikationswissenschaft das zentrale Qualitätskriterium sein kann, oder ob stärker kontextsensibles und historisches Arbeiten nötig ist.
Marginalisierung durch Open Science?
Ein immer wieder diskutierter Konflikt ist der zwischen Transparenz und Datenschutz bzw. dem Schutz der untersuchten Personen. Daraus ableitend betrifft ein weiterer Kritikstrang die Frage, ob Open-Science-Praktiken bestimmte Themen, Populationen und Forschende systematisch benachteiligen.
Argumente:
- Offene Daten erhöhen das Risiko, dass Personen (direkt oder indirekt) re-identifizierbar werden, insbesondere bei sensiblen Themen oder kleinen Gruppen.
- Forschung mit marginalisierten Gruppen oder in Kontexten mit hohen Schutzanforderungen kann Daten oft nicht offen legen, ohne Risiken für Teilnehmende zu erzeugen.
- Wenn Offenheit (z.B. offene Daten) als notwendige Bedingung für „gute“ Wissenschaft etabliert wird, könnten solche Projekte abgewertet oder in Journals benachteiligt werden.
- Open Science, wie im „Mainstream“ praktiziert, folgt häufig einer westlichen, kapitalistischen Logik: Daten werden als Ressource behandelt, die in standardisierten Repositorien abgelegt und weiterverwertet wird; strukturelle Macht- und Ungleichheitsverhältnisse bleiben oft unreflektiert.
Diese Kritik fordert:
- Open Science muss kontextsensibel und inklusiv gedacht werden.
- Offenheit darf kein starres Kriterium sein, das Forschung mit vulnerablen Gruppen ausgrenzt.
- Diskutiert werden sollten auch alternative Formen von „Offenheit“, z.B. partizipative Forschung, Rückkopplung von Ergebnissen an Betroffene, und kollektive Aushandlung von Datenzugängen.