Digitale Technik- und Wissenskulturen
NFDI4Memory - Task Area 1: Datenqualität
Historisch orientierte Sammlungs- und Forschungseinrichtungen bewahren und erzeugen Forschungsdaten. Deren Qualität ist eine zentrale Voraussetzung für ihre nachhaltige und zukunftsweisende Nutzung. Deshalb werden die Qualitätssicherung und das Management historischer Forschungsdaten deutschlandweit bewertet und gefördert.
Inhalt
4Memory/Nationale Forschungsdaten Infrastruktur (NFDI) – Task Area 1: Datenqualität
Gefördert von
DFG - Deutsche Forschungsgemeinschaft
- Digitale Technik- und Wissenskulturen
Bearbeitet von
Peggy Große
Koordinatorin NFDI4Memory
Georg Hohmann
Leitung
Dr. Mario Kliewer
Wiss. Mitarbeiter NFDI4Memory und OSIRIS
Projektbeschreibung
Historisch orientierte Sammlungs- und Forschungseinrichtungen bewahren und erzeugen immer mehr Forschungsdaten. Dabei ist Datenqualität eine zentrale Voraussetzung für ihre nachhaltige und zukunftsweisende Nutzung. Um diese zu gewährleisten, engagiert sich das Deutsche Museum in Kooperation mit dem Herder-Institut für historische Ostmitteleuropaforschung in der Task Area 1: Data Quality des NFDI4Memory-Konsortiums.
Weitere Projektbeschreibung
Der Ausgangspunkt ist die Bewertung des Status quo, die es ermöglicht, allgemeine Leitlinien und Verfahren zur Verbesserung eines nachhaltigen Qualitätsmanagements zu entwickeln. Aufbauend darauf folgen eine Analyse der Datenanforderungen und die Bewertung von Maßnahmen zur Verbesserung und Sicherung der Qualität von Forschungsdaten. Dabei werden vor allem auch ethische Fragen über die FAIR- und CARE-Prinzipien berücksichtigt, mit der Absicht, diese zu einem integralen Bestandteil der Datenqualitätsanalyse zu machen. Auf Basis der Analyseergebnisse wird dann ein Messsystem für die Qualität historischer Forschungsdaten entwickelt, das verschiedene Qualitätsniveaus unterscheidet, die Bewertungskriterien für die Datenqualität zusammenfasst und ihre Anwendung erleichtert. In enger Zusammenarbeit mit internationalen Gremien und Ausschüssen setzt eine Expertengruppe anschließend die bisherigen Ergebnisse in Empfehlungen, Katalogen und Richtlinien für die Erstellung, Bewertung und zukünftige Zertifizierung von Forschungsdaten um. Zudem soll die Hürde der zeitaufwändigen Datenaufbereitung durch effiziente Arbeitsabläufe und ein Konzept zur Arbeitsteilung durch redaktionelle Prozesse innerhalb eines (organisatorischen) Rahmens, der auf bestehende institutionelle Rahmenbedingungen anwendbar ist, deutlich gesenkt werden. Zuletzt werden die entwickelten Leitlinien und Empfehlungen für Aktivitäten für Datenqualitätsschulungen oder Workshops operationalisiert, die in ständigem Dialog mit der Gemeinschaft zu einer Verbreitung und Umsetzung von Maßnahmen zur Steigerung der Datenqualität führen.