Benötigt wird eine beherzte politische Steuerung, die Modernisierung in der Breite und in der Tiefe einfordert, eKompetenzen stärkt, Kooperation ermutigt, Experimente zulässt, rechtliche Hürden beseitigt.1)Popp 2019.
Dies schrieb Thomas Popp (Amtschef der Sächsischen Staatskanzlei und Beauftragter für Informationstechnologie (CIO) des Freistaates Sachsen) in einem Gastbeitrag des Blogs eGovernment Computing im August 2019, in dem er seine Gedanken zu den Herausforderungen der Digitalisierung in Staat und Verwaltung darlegte. Insgesamt kann das Phänomen und die Wirkungsweise der Digitalisierung auf unsere Gesellschaft mit dem Akronym VUCA gut zusammengefasst und verdeutlicht werden: VUCA steht für die englischen Begriffe Volatility, Uncertainty, Complexity und Ambiguity.2)Vgl. Welpe / Brosi / Schwarzmüller 2018: 20. Dieses Akronym beschreibt die Einlfussfaktoren, mit denen Forschungseinrichtungen bei der digitalen Transformation konfrontiert sind. Mit Volatilität ist die hohe Frequenz von Veränderungen in der Arbeitswelt gemeint, auf die reagiert werden muss. Sie geht mit dem Gefühl einher die Informationsflut nicht mehr ausreichend beherrschen und keine validen Entscheidungen mehr treffen zu können, was wiederum in einer starken subjektiven Wahrnehmung von Instabilität und damit Unsicherheit resultiert. Dieses Problem wird verstärkt durch die Komplexität der Verflechtung von Informationen und Prozessen. Die damit einhergehende Zunahme von Unklarheiten wird über den Begriff der Ambiguität ausgedrückt.3)Vgl. Lawrence 2013: 5. Aufgrund des rasanten Wandels in der Technologie, der sich in den Arbeitsweisen niederschlägt, aber auch der voranschreitenden Globalisierung, gilt auch für die Forschung, dass die Komplexität zunimmt und dabei Veränderungsdruck auf die Forschungseinrichtungen ausübt.4)Vgl. IBM 2010: 14–16.
Dies bedeutet, dass Hochschulen und außeruniversitäre Forschungseinrichtungen vor den gleichen oder sehr ähnlichen Fragestellungen in Bezug auf den digitalen Transformationsprozess stehen wie alle anderen Bereiche der Gesellschaft auch. Sie sind insbesondere aufgefordert, Strukturen und Services für die durch die Open Science Bewegung veränderten Ansprüche an die gute wissenschaftliche Praxis hinsichtlich der Forschungsintegrität und der ‑ökonomie bereitzustellen, um die Forschenden bei der Umsetzung eines qualitätsgesicherten Forschungsdatenmanagements (FDM) zu unterstützen. Derzeitig ist das FDM oftmals von unzureichenden Kompetenzen, unklaren Zuständigkeiten sowie der fehlenden Integration in Studien- oder Weiterbildungsangebote gekennzeichnet. Tatsächlich scheint es so, dass sich das derzeitige Wissen über FDM und somit den adäquaten Umgang mit Forschungsdaten ausschließlich auf den Datenlebenszyklus5)Eine prominente Variante für die Veranschaulichung des FDM-Prozesses liefert beispielsweise das DCC Curation Lifecycle Model. Vgl. Higgins 2008. beschränkt. Neben dieser eher technischen Sicht auf den FDM-Prozess besteht derzeitig keine explizite Beschreibung der Rahmenbedingungen, unter denen dieser Prozess stattfinden sollte, um möglichst effizient und effektiv von den Wissenschaftler*innen in den Forschungsprozess integriert werden zu können. Dies ist eigentlich nicht weiter überraschend, da Forschungsinstitutionen, insbesondere deren Infrastruktureinrichtungen, in den vergangenen Jahren mehr oder minder ad hoc vor diese Aufgaben gestellt wurden und verschiedene praktische Wege gefunden haben, erste FDM-Services bereitzustellen. Es war die Reaktion darauf, dass im Rahmen der Open Science- und FAIR Data-Bewegung Qualitätskriterien formuliert wurden,6)Vgl. DFG 2013; Wilkinson / Dumontier / Aalbersberg u. a. 2016. die man zunächst durch die Bereitstellung der fehlenden technischen Infrastruktur erfüllen wollte. Bei dieser eher technischen Betrachtung wurde jedoch außer Acht gelassen, dass es sich bei einer Vielzahl von FDM-Aktivitäten keineswegs um rein technische Prozesse handelt, sondern vielmehr um Informationsverarbeitungsprozesse, die die unterschiedlichen Beteiligten an einer FDM-Aktivität zusammenbringen muss. Weil das Zeitalter der Digitalisierung durch Komplexität gekennzeichnet ist, die zu einer feingranularen Spezialisierung von Einzelnen geführt hat, ist oftmals die Zusammenarbeit von unterschiedlichen Fachleuten notwendig und sinnvoll, um adäquate digitale Services bereitzustellen.7)Vgl. Welpe / Brosi / Schwarzmüller 2018: 67–68. Deshalb müssen neben der Implementierung entsprechender Technologien insbesondere die Organisationsstrukturen angepasst werden, welche alle am FDM Beteiligten aus den verschiedenen Abteilungen der Forschungseinrichtung, aber auch externe FDM-Dienstleistungseinrichtungen in Beziehung bringen und produktiv zusammenwirken lassen. Dabei ist es wichtig, die zwischen ihnen bestehenden Kommunikations- und Weisungsbeziehungen festzulegen, um Verantwortlichkeiten für die einzelnen Aufgaben im FDM-Prozess zu definieren und somit eine optimale Bereitstellung von FDM-Services für die Forschenden zu gewährleisten.
Hier setzt das BMBF-geförderte Projekt „Prozessorientierte Entwicklung von Managementinstrumenten für Forschungsdaten im Lebenszyklus“ (PODMAN) an, welches an der Universität Trier und dem Leibniz-Zentrum für Psychologische Information und Dokumentation (ZPID) durchgeführt wurde. Ziel des PODMAN-Projektes war die Entwicklung eines Referenzmodells und eines zugehörigen prozessorientierten Benchmarking-Verfahrens zur Implementierung des FDMs an Hochschulen und außeruniversitären Forschungseinrichtungen. Damit widmete sich PODMAN der Beantwortung der Frage, wie die Forschung den oben geschilderten Herausforderungen der Open Sciences Bewegung erfolgreich begegnen kann. Durch die Anwendung der im Projekt entwickelten Managementinstrumente werden Hochschulen und außeruniversitäre Forschungseinrichtungen dazu befähigt, eine optimale Informationsarchitektur für das FDM zu etablieren, die es den Forschenden ermöglicht, ihre Forschungsdaten vom Rohdiamanten in der Planungsphase über den gesamten Forschungsprozess hinweg zum funkelnden Schmuckstück zu schleifen, der noch lange für weitere Forschungsprojekte verwendet werden kann. Dementsprechend lautet der Name des im PODMAN-Projekt entworfenen Modells „DIAMANT“: Designing an Information Architecture for Data Management Technologies.8)Vgl. Blask / Förster / Lemaire 2019: 92–93.
Der vorliegende Text skizziert im ersten Kapitel die für die Entwicklung des DIAMANT-Modells zugrunde gelegten Konzepte. Eine konkrete Beschreibung des FDM-Referenzprozesses, welcher die Grundlage für die Implementierung und Weiterentwicklung entsprechender FDM-Infrastrukturen und ‑Service-Angebote bildet, wird im zweiten Kapitel ausgeführt. Das FDM-Referenzmodell dient dazu, ein besseres Verständnis für den FDM-Prozess zu erlangen, hinsichtlich der durchzuführenden Prozessschritte, der beteiligten Akteure und ihres konkreten Zusammenwirkens. Im dritten Kapitel wird auf der Grundlage des FDM-Referenzprozesses die Kompetenzmatrix erläutert, die darlegt, welche Kompetenzen in einem bestimmten FDM-Prozessschritt notwendig sind. Diese beiden Instrumente, der FDM-Referenzprozess und die Kompetenzmatrix, dienen in Kapitel vier als Grundlage, um den IST-Zustand einer institutionellen FDM-Servicelandschaft zu analysieren und die SOLL-Zustände zu definieren, um so schrittweise optimierte Bedingungen sowohl für die Forschenden als auch die FDM-Serviceeinrichtungen zu schaffen. Dieser IST– / SOLL-Abgleich ist gleichzeitig ein Verfahren, um einen FDM-Servicekatalog zu entwickeln und fortzuschreiben, der nach einem einheitlichen Schema die FDM-Services verzeichnet, die Verantwortlichen (Ansprechpartner*innen) benennt und den Leistungsumfang beschreibt. Das Kapitel fünf erläutert abschließend Aspekte, die v. a. zur Optimierung der Informationsverarbeitungsprozesse und der Kooperation aller Beteiligten bei der Bereitstellung und Nutzung der FDM-Services notwendig sind.
Anmerkungen
↑1 | Popp 2019. |
---|---|
↑2 | Vgl. Welpe / Brosi / Schwarzmüller 2018: 20. |
↑3 | Vgl. Lawrence 2013: 5. |
↑4 | Vgl. IBM 2010: 14–16. |
↑5 | Eine prominente Variante für die Veranschaulichung des FDM-Prozesses liefert beispielsweise das DCC Curation Lifecycle Model. Vgl. Higgins 2008. |
↑6 | Vgl. DFG 2013; Wilkinson / Dumontier / Aalbersberg u. a. 2016. |
↑7 | Vgl. Welpe / Brosi / Schwarzmüller 2018: 67–68. |
↑8 | Vgl. Blask / Förster / Lemaire 2019: 92–93. |