Zum Hauptinhalt

Ergebnisse, Präsentationen und Abstracts der 8| KSWD

Am 2. und 3. März 2020 fand in Berlin die 8. Konferenz für Sozial- und Wirtschaftsdaten statt. Hier finden Sie die Ergebnisse.

Download

2. März 2020

Plenarvortrag 1: Evidenzbasierte Wirtschaftspolitik

Prof. Dr. Claudia Buch – Deutsche Bundesbank

Abstract
Eine evidenzbasierte Politik kann dazu beitragen, politische Entscheidungen auf eine bessere Grundlage zu stellen. Empirische Evidenz soll jedoch die politische Entscheidung nicht vorwegnehmen. Vielmehr soll sie Basis eines besser informierten Entscheidungsprozesses sein. Einer stärker evidenzbasierten Politik fällt es leichter, öffentliche Gelder effektiv einzusetzen und sicherzustellen, dass gewünschte Politikziele erreicht werden.

Die Akzeptanz für evidenzbasierte Politik kann bspw. durch eine Struktur für Evaluierungen gestärkt werden. Diesbezüglich orientiert sich die Deutsche Bundesbank im Rahmen der makroprudenziellen Aufsicht an einem strukturierten Politikzyklus. Dieser besteht aus der Definition eines Ziels, dem Aufzeigen von Maßnahmen zur Zielerreichung, ex-ante Evaluierungen als Entscheidungsgrundlage sowie ex-post Evaluierungen zur Überprüfung, ob das Ziel einer Maßnahme unter Berücksichtigung von Nebenwirkungen erreicht wurde. Die Erkenntnisse helfen anschließend, die Regulierung und den Einsatz von Maßnahmen zu verbessern. Denn bei der Einführung von Reformen und Maßnahmen besteht grundsätzlich Unsicherheit darüber, ob alle Risiken identifiziert und die relevanten Wirkungskanäle ex-ante vollständig erfasst wurden.

International sind ebenfalls wichtige Weichenstellungen erfolgt. So hat der Finanzstabilitätsrat (FSB) ein Rahmenwerk für die Evaluierung von Finanzmarktreformen erstellt. Auf Basis dieses Rahmenwerks überprüft der FSB die Auswirkungen der Finanzmarktreformen, die als Reaktion auf die Finanzkrise beschlossen und umgesetzt wurden. Der FSB hat inzwischen drei Evaluierungen abgeschlossen. Aktuell überprüft der FSB, ob die G20-Finanzmarktreformen die Too-big-to-fail-Problematik im Bankensektor eingedämmt haben.

Plenarvortrag 2: Vision einer NFDI im Lichte der ersten Ausschreibungsrunde

Prof. Dr. Stefan Liebig – Freie Universität Berlin; DIW Berlin; Sozio-ökonomisches Panel (SOEP); Rat für Informationsinfrastrukturen (RfII)

Download der Präsentation


Abstract
Mit seinem Positionspapier „Leistung aus Vielfalt“ hat der Rat für Informationsinfrastrukturen 2016 Empfehlungen zu Strukturen, Prozessen und Finanzierung des Forschungsdatenmanagements veröffentlicht. Die Gründung einer Nationalen Forschungsdateninfrastruktur (NFDI) war die zentrale Empfehlung um zu einem koordinierten deutschlandweiten System von Forschungsdateninfrastrukturen zu kommen. Die Gemeinsame Wissenschaftskonferenz hat mit dem Abschluss einer Bund-Länder-Vereinbarung Ende 2018 den Startschuss für den Aufbau eines derartigen kooperativen Netzwerks gegeben. Dabei werden in einem wissenschaftsgeleiteten und von der Deutschen Forschungsgemeinschaft (DFG) koordinierten Verfahren in drei aufeinander folgenden Auswahlrunden jeweils neue Konsortien in die NFDI aufgenommen. Ziel ist eine Gesamtstruktur  aus ca. 30 Konsortien, die die wissenschaftlichen Domänen in Deutschland abdecken und bedarfsgerechte Datendienste organisieren. Die erste Auswahlrunde startete Anfang 2019, die Entscheidung wird für Juni 2020 erwartet.

Der von der DFG entwickelte Auswahlprozess weist eine Reihe innovativer Elemente auf und hat im Wissenschaftssystem eine spürbare Dynamik der Vernetzung erzeugt. Ob damit auch die ursprüngliche Vision einer NFDI erreicht wird, lässt sich zu diesem Zeitpunkt nicht beurteilen. Mit diesem Vortrag soll zunächst der bisherige Prozess im Lichte der ursprünglichen Empfehlungen des RfII beleuchtet und die Handlungsfelder diskutiert werden, die für die am Ende ausgewählten Konsortien und das daraus entstehende Netzwerk wichtig sind.

Plenarvortrag 3: Communities gestalten mit – Einbindungsmöglichkeiten zur künftigen Entwicklung der Forschungsdateninfrastrukturen

Prof. Regina T. Riphahn, Ph.D.

Download der Präsentation


Abstract
Der RatSWD hat sich dafür stark gemacht, dass die Sozial-, Verhaltens-, Bildungs- und Wirtschaftswissenschaften mit der Beantragung von KonsortSWD einen Platz innerhalb der Nationalen Forschungsdateninfrastruktur (NFDI) einnehmen. Damit sollen eine Stärkung, Erweiterung und Vertiefung unserer bestehenden Forschungsdateninfrastrukturen einhergehen.

Die Beteiligung der Fachcommunities sowie die Nutzendeinbindung bilden die Basis für die Arbeit des Konsortiums bei der Entwicklung und Implementierung von Services der Forschungsdateninfrastruktur. Der kontinuierliche und strukturierte Dialog mit Nutzendengruppen stellt die Identifizierung der Bedarfe von Forschenden und deren Adressierung im Konsortium sicher. Der regelmäßige kritische Austausch mit Fachgesellschaften, Fachinformationsdiensten und Bibliotheken als Bindeglieder zu den Forschenden, aber auch der unmittelbare Kontakt zwischen Forschenden und Forschungsdatenzentren soll Bedarfe der Nutzenden aufdecken, die dann in der Arbeit von KonsortSWD berücksichtigt werden können. Das Ziel ist, kontinuierlich die Nutzendenorientierung des Konsortiums zu verbessern. Dieser Austausch leistet einen Beitrag dazu, die Kultur des Datenteilens zu etablieren.

Die entwickelten Services erleichtern das Management und die Nachnutzung von Daten über den gesamten Datenlebenszyklus hinweg. Sie fördern damit unmittelbar die Forschung in den Sozial-, Verhaltens-, Bildungs- und Wirtschaftswissenschaften – und das auf anwendungsorientierte Art und Weise.

Überblick zur 8| KSWD

Dr. Mathias Bug – Leiter der Geschäftsstelle des RatSWD

Download der Präsentation

Session A: Zum Stand der Evidenzbasierung deutscher Politik

Prof. Dr. Monika Schnitzer – Ludwig-Maximilians-Universität München

Paneldiskussion mit:

  • Prof. Dr. Thomas K. Bauer – Ruhr-Universität Bochum; Leibniz-Institut für Wirtschaftsforschung (RWI)
  • Dr. Andrea M. Schneider – Bundeskanzleramt 
  • Florian Spengler– Nationaler Normenkontrollrat
  • Michael Vollert – Bundesministerium für Arbeit und Soziales


Abstract
Gesellschaft braucht Daten – nicht zuletzt, um politische Prozesse und Maßnahmen zu überprüfen und weiterzuentwickeln. Im Sinne eines Qualitätsmanagements der Politik und vor dem Hintergrund demokratischer Legitimation und Verantwortung spielt die Evidenzbasierung neuer Vorhaben und die Evaluierung umgesetzter Politikmaßnahmen eine zunehmend wichtigere Rolle. Internationale Erfahrungen und Initiativen sind Beleg hierfür.

In Deutschland verankerten die Staatssekretäre deutscher Bundesministerien im Jahr 2013 Anforderungen für Evaluationen durch einen Beschluss: Wesentliche Regelungsvorhaben, mit hohem finanziellen Aufwand, besonderer politischer Bedeutung oder Unsicherheit über die Wirkung sind nach 3-5 Jahren zu evaluieren. „Wesentlich“ sind Maßnahmen von mehr als 1 Mio. Euro Erfüllungsaufwand bzw. über 100.000 Stunden anfallenden Personaleinsatzes durch die Maßnahme pro Jahr. Evaluierungen sollen den Zusammenhang zwischen Ziel und Zweck von Regelungen und tatsächlich erzielter Wirkung und Kosten feststellen. Evaluierungskriterien sind die Erreichung der Ziele einer Regelung, Abschätzung von Nebenfolgen, Akzeptanz und Praktikabilität, sowie Verhältnismäßigkeit einer Regelung. Das jeweilige Ressort bestimmt Ziel, Art, Tiefe und Umfang der Evaluierung. Die Ressorts leiten die Evaluierungsberichte an den nationalen Normenkontrollrat und den Koordinator der Bundesregierung im Bundeskanzleramt weiter. Der Beschluss der Staatssekretäre wurde von der Bundesregierung im Arbeitsprogramm „Bessere Rechtsetzung und Bürokratieabbau 2018“ bestätigt. Mit diesem Programm sollen die Evaluationsverfahren weiterentwickelt werden.

Dieses Panel beleuchtet den Stand der Umsetzung von verschiedenen Seiten. Vertreterinnen und Vertreter von Bundeskanzleramt und Normenkontrollrat berichten über die Möglichkeiten und Herausforderungen einer Harmonisierung der Verfahren. Aus den Ressorts werden verschiedene Formen der Herangehensweise dargestellt und ein Bericht aus den Wirtschaftsforschungsinstituten der Leibniz Gemeinschaft ergänzt, wie die Wissenschaft die Ressorts bei der Bewältigung dieser Aufgaben unterstützen kann.

Ergebnis
Eine Einbettung von Evidenzbasierung spiele, so der Tenor dieser Session, in allen Gesetzgebungsverfahren eine zunehmende Rolle. Dabei werde nicht nur ex ante, also im Vorhinein versucht abzuschätzen, welche Folgen eine Gesetzgebung hat, sondern auch ex post der Output untersucht. Hierzu sei es erforderlich, dass die Frage, anhand welcher Kriterien ein Erfolg von Gesetzen überprüft werden kann, von Anfang an mitbedacht wird. „An sich muss zum Beginn der Evaluation bekannt sein, welche Daten erforderlich sind“, so Professor Bauer von der Ruhr Universität Bochum. Juristen müssten hierzu verstärkt auch methodisch-empirisch geschult werden. Wolle man Evaluation und Evidenzbasierung in der Politik als neues Ausbildungsfach in der Lehre der Universitäten etablieren, wäre es allerdings notwendig, hier auch eine Selbstreflexivität einzuweben: Man sollte auch nach der Evidenz der evidenzbasierten Politik fragen. Andrea Schneider vom Bundeskanzleramt, forderte ein Mehr an Dialog und Übersetzungsleistung zwischen Verwaltung, Politik und Wissenschaft und auch verbesserte Anreizstrukturen für die Wissenschaft, Evaluationen und Politikberatung durchzuführen.

Insgesamt wurde in Frage gestellt, ob eine umfangreiche Evaluation immer möglich sei: Teilweise seien Umsetzungszeiten sehr kurz, Vorgaben änderten sich beispielsweise bei längeren Vorhaben, während derer sich Regierungskonstellationen ändern, und die Kosten für die Evaluationen selbst dürften nicht unterschätzt werden. Zeit und Geld seien damit entscheidende Rahmengrößen. Allein die Evaluation der Arbeitsmarktpolitik habe rund 10 Millionen Euro gekostet, so Michael Vollert, Referatsleiter im Bundesministerium für Arbeit. Eine solche Evaluation ließe sich nur für Leuchtturmprojekte realisieren.

Schwierig sei es auch, darauf wies Florian Spengler von Seiten des Normenkontrollrats hin, konkrete Evaluationsvorgaben in die Gesetzesentwürfe einzuflechten, da jede Gesetzesänderung ohnehin einem enormen Abstimmungsbedarf unterliegen. Schnell entstehe die Sorge bei den Ministerien, dass ein Gesetz durch Evaluation in Frage gestellt werden könne und dadurch ein mühsam ausgehandelter Kompromiss obsolet werden könne.

Hervorgehoben wurde in der Session, dass Evaluation allerdings nicht die politische Entscheidung ersetzen dürfe. Die Werteentscheidungen, welche Ziele gesetzt und überprüft werden sollen, bliebe Sache der Politik.

Session B: Braucht die Wissenschaft noch Zufallsstichproben? Möglichkeiten und Grenzen alternativer Stichprobenverfahren

Prof. Dr. Jürgen SchuppStellv. Vorsitzender RatSWD; Freie Universität Berlin; Sozio-ökonomisches Panel (SOEP)
Prof. Dr. Mark TrappmannOtto-Friedrich-Universität Bamberg; Institut für Arbeitsmarkt- und Berufsforschung (IAB)

Es sprechen:

  • Janina MützeCivey
  • Prof. Dr. Rainer Schnell – Universität Duisburg-Essen
    Download der Präsentation
  • Thorsten Thierhoffforsa


Abstract

In den letzten Jahren haben im Bereich der Markt- und Sozialforschung neben traditionellen zufallsbasierten Stichprobenverfahren vor allem sog. Non-Probability-Stichproben enorm an Bedeutung gewonnen. In der Statistik bestand an der Notwendigkeit der Verwendung von Zufallsstichproben (mit bekannten Auswahlwahrscheinlichkeiten) zur Schätzung von gesellschaftlichen Merkmalen sehr lange kein Zweifel. Besonders die zurückgehende Bereitschaft der Bevölkerung an der stetig steigenden Zahl an Umfragen teilzunehmen, hat dies aber nicht allein in Deutschland geändert.

Vor allem Online-Erhebungen nutzen zunehmend neben Zufallsstichproben auch Non-Probability-Stichproben. Hier rekrutieren sich die Teilnehmenden selbst für die Studien. Die Auswahlwahrscheinlichkeiten aus der Grundgesamtheit bleiben dabei unbekannt. Diese Stichproben werden mithilfe statistischer Verfahren gewichtet und so an bekannte Randverteilungen der Grundgesamtheit angepasst. Um die Ergebnisse auf die Grundgesamtheit verallgemeinern zu können, wird angenommen, dass – gegeben die zur Gewichtung verwendeten Variablen – die Teilnahme nicht mit den inhaltlich interessierenden Variablen der Surveys korreliert ist. Konfidenzintervalle, die Aufschluss über die Unsicherheit der Schätzung auf Basis der Stichprobe geben, lassen sich im klassischen Sinne auf Basis solcher Stichproben nicht bestimmen. Diese Session führt anhand dreier Vorträge in die derzeitige Praxis von Non-Probability Stichproben ein und diskutiert die Möglichkeiten wie auch Grenzen solcher Verfahren.

Ergebnis
In den vergangenen Jahren sind einerseits die Kosten für Erhebungen auf Basis von Zufallsstichproben gestiegen, auf der anderen Seite sinkt die Teilnahmebereitschaft an Befragungen. Wohl auch deshalb hat in den letzten Jahren die Verbreitung von Non-Probability-Stichproben als schnelle und preisgünstige Alternative zugenommen. In Session B wurde engagiert und kontrovers über die Verwendung solcher Verfahren für Forschungszwecke diskutiert.

Da bei Non-Probability-Stichproben die Teilnahmewahrscheinlichkeit der Untersuchungseinheiten nicht bestimmbar ist (da das Sample keine zufällige Stichprobe der abzubildenden Grundgesamtheit darstellt), lassen sich statistische Verfahren zur Schlussfolgerung von der Stichprobe auf die Grundgesamtheit nicht anwenden. Empirische Studien zeigen zudem, dass Non-Probability-Stichproben zwar in manchen Fällen eine ähnliche Präzision aufweisen wie Zufallsstichproben, in anderen Fällen aber weit daneben liegen.

Es herrschte deswegen Einigkeit darüber, dass es systematischer Forschung dazu bedarf, ob und in welchen Fällen neue Erhebungsmethoden auch für die Wissenschaft genutzt werden können. Die Kombination von Zufalls- und Non-Probability-Stichproben wurden als ein möglicher Ansatz für zukünftige wissenschaftliche Studien diskutiert. Es wurde betont, dass die Kosten für qualitativ hochwertige empirische Forschung transparent gemacht werden sollten. Die Güte der Forschung, auf deren Basis auch politische Entscheidungen getroffen werden, sollte nicht unter einem Preiskampf leiden. Die eingangs gestellte Frage wurde indes eindeutig mit „ja“ beantwortet – auch in Zukunft wird es Zufallsstichproben für die Wissenschaft geben müssen, wenngleich die seit Jahren sinkende Teilnahmebereitschaft in der Bevölkerung zu wachsenden Bemühungen hinsichtlich geeigneter Gewichtungsmodelle führt.

Session C: Justiz- und Innenpolitik gestalten –Potentiale der Kriminal- und Strafrechtspflegestatistik nutzen und erhöhen

Prof. Dr. Monika Jungbauer-Gans – Leibniz Universität Hannover; Deutsches Zentrum für Hochschul- und Wissenschaftsforschung (DZHW)
Dr. Andreas Daniel – Deutsches Zentrum für Hochschul- und Wissenschaftsforschung (DZHW)

Paneldiskussion mit:

  • Dr. Christoph BirkelBundeskriminalamt
  • Susanne Bunke – Bundesministerium der Justiz und für Verbraucherschutz
  • Prof. Dr. Wolfgang HeinzUniversität Konstanz
  • Prof. Dr. Dietrich OberwittlerMax-Planck-Institut für ausländisches und internationales Strafrecht; Universität Freiburg
  • Prof. Dr. Daniela PollichHochschule für Polizei und öffentliche Verwaltung Nordrhein-Westfalen


Abstract

Die Arbeitsgruppe „Weiterentwicklung der Kriminal- und Strafrechtspflegestatistik“ des Rats für Sozial- und Wirtschaftsdaten hat zur Verbesserung der amtlichen Kriminalitäts- und Justizstatistiken und zu einem verstetigten Viktimisierungssurvey Vorschläge veröffentlicht. Gleichzeitig hat die Bundesregierung dazu konkrete Ziele in ihrem Koalitionsvertrag formuliert. Einen Gesetzentwurf hat der Deutsche Bundestag in diesem Zusammenhang bereits 2019 diskutiert. Ziel des Entwurfes ist die Durchführung von statistikbegleitenden, bundesweit repräsentativen, an wissenschaftlichen Standards orientierten Befragungen zur Aufhellung des sog. Dunkelfeldes der Kriminalität. Für eine evidenzbasierte Sicherheitspolitik sollen darüber hinaus die Kriminal- und Strafrechtspflegestatistiken optimiert und für Verlaufsanalysen wie auch grundsätzlich zur wissenschaftlichen Nutzung zugänglich werden.

Die Podiumsdiskussion behandelt den Mehrwert von Registerdaten im Zusammenspiel mit Viktimisierungssurveys. Darauf aufbauend sollen die Weiterentwicklungen der Kriminal- und Strafrechtspflegestatistik und die Analysemöglichkeiten für die Forschung im Mittelpunkt stehen. In der kriminologischen Forschung gibt es noch große Defizite in Fragen des Forschungsdatenmanagements und der Sekundärdatennutzung z.B. bezüglich des Datenzugangs über ein Forschungsdatenzentrum (FDZ). Im Austausch zwischen Wissenschaft, polizeilicher und justizieller (Register-)Datenproduktion sollen in der Paneldiskussion mögliche gemeinsame Wege entstehen.

Ergebnis
Generell gibt es nicht nur in der Wissenschaft, sondern auch in der Politik ein starkes Interesse an den Statistiken im Kriminal- und Justizbereich. Das zeigen viele parlamentarische Fragen zu diesem Thema. Diese können wegen fehlender Daten teilweise aber nicht beantwortet werden. Der Koalitionsvertrag und die sich abzeichnenden Ergebnisse der Bund-Länder AG zur Ausarbeitung einer gesetzlichen Grundlage für die Erfassung einer Personenstatistik in der Strafrechtspflege sind Rahmenbedingungen, die eine gute Gelegenheit zur Optimierung der Strafrechtspflegestatistik bieten. Die veröffentlichten Empfehlungen des RatSWD sind für die Arbeit der Bund-Länder AG daher sehr hilfreich. Das Panel ist sich einig, dass sowohl die Polizeiliche Kriminalstatistik (PKS) als auch regelmäßig durchgeführten Viktimisierungssurveys, trotz ihrer jeweiligen Limitationen, einen wichtigen Beitrag zum besseren Verständnis der Kriminalitätslage in Deutschland leisten. Die beiden Datenquellen ergänzen sich gegenseitig. Die weitere Diskussion lässt sich folgendermaßen zusammenfassen:
1) Während sich die wissenschaftliche Seite für eine umfassende Reform der Kriminal- und Strafrechtspflegestatistik ausspricht, die z.B. verlaufsstatistische Analysen von PKS und Justizstatistik erlaubt, verweisen die Vertretenden der statistikerhebenden Behörden darauf, dass kleinere Reformen zunächst eine realistischere Chance auf Umsetzung hätten.
2) Es wird diskutiert, wie die Forschung in die Ausarbeitung des nunmehr vom Bundeskriminalamt durchgeführten bundesweiten Viktimisierungssurveys stärker eingebunden werden könnte. Eine diskutierte Variante stellt die Einrichtung eines wissenschaftlichen Beirats dar. Es wird zudem darauf verwiesen, dass bezüglich des Aufbaus von wissenschaftlicher Expertise in den Sicherheitsbehörden in den vergangenen Jahren bereits sehr viel erreicht wurde.
3) Die Verfügbarmachung der Daten der PKS in einem Forschungsdatenzentrum werden erörtert. Ein Forschungsdatenzentrum beim BKA stellt sich als eine Möglichkeit dar. Aus Sicht des BKAs wäre es alternativ auch denkbar, dass die Daten dem Statistischen Bundesamt übergeben werden, wie dies bei den Justizstatistiken bereits teilweise der Fall ist. Für die Nachnutzung der Viktimisierungssurveys hingegen, würden sich etablierte Repositorien für sozialwissenschaftliche Forschungsdaten (wie z.B. das GESIS Datenarchiv) anbieten.
4) Die Neuauflage und Verstetigung eines Periodischen Sicherheitsberichts wird von wissenschaftlicher Seite als besonders wünschenswert erachtet. Für eine Neuauflage, wenn auch in reduzierter Form, bestehen konkrete Pläne, wohingegen eine Verstetigung weiterhin unklar bleibt.

Session D: Forschungsdateninfrastruktur: die Rolle der Fachinformationsdienste

Olaf Siegert – Leibniz-Informationszentrum Wirtschaft (ZBW)

Es sprechen:


Abstract

„Offene Wissenschaft“ (Open Science) fordert Forschende heraus. Sie setzt eine nachhaltige Sicherung und Bereitstellung qualitätsgesicherter Forschungsdaten voraus, damit diese auffindbar, zugänglich, verknüpfbar und nachnutzbar sind. Ein umfassendes Forschungsdatenmanagement spielt dabei eine zentrale Rolle. Es umfasst mindestens die Qualitätssicherung, die nachvollziehbare Dokumentation des gesamten Datenlebenszyklus von der Erhebung bis zur Auswertung sowie die Berücksichtigung von Datenschutzbestimmungen.

Hochschulen und Bibliotheken spielen hier als Gatekeeper und Schnittstelle zwischen Datennutzenden und -anbietenden eine zentrale Rolle beim Zugang zu Forschungsdaten. Die Fachinformationsdienste (FID) nehmen sich dabei verstärkt Herausforderungen im Zusammenhang mit Daten sowie dem Zugang zu ihnen an und strukturieren den Austausch zu Bedarfen zwischen den Hochschulen (und ihren Bibliotheken) und den Wissenschaftscommunities. In dieser Session stellen die im Bereich der Disziplinen des RatSWD einschlägigen FID ihr Engagement im Bereich Forschungsdaten und Forschungsdatenmanagement vor. Im Anschluss an die Kurzvorträge werden die Herangehensweisen diskutiert und gemeinsam Kopplungsmöglichkeiten z. B. mit dem Angebot der Forschungsdatenzentren (FDZ) und dem Engagement des RatSWD entwickelt.

Ergebnis
„Broker“, „Vermittler“, „Koordinator“, „Berater“ – in diesen Funktionen unterstützen die Fachinformationsdienste (FID) Wissenschaftlerinnen und Wissenschaftler ihrer Fachdisziplinen und ermöglichen ihnen über Suchräume den Zugriff auf Literatur und teilweise auch auf Forschungsdaten. In den Vorträgen und der anschließenden Diskussion in dieser Session kam diese Gemeinsamkeit stark zum Tragen. Fachspezifische Beratungen, Workshops, regelmäßige Trainings und die Kenntnis der Fachlandschaft und der technologischen Entwicklung gehören danach zum Kern der Arbeit der FID. Allerdings wurde bei den Vorträgen auch deutlich, dass die Kernaufgaben der FIDs eben im Bereich der Literaturversorgung liegen und das Thema Forschungsdatenmanagement zumeist als Zusatzaufgabe miterledigt wird.

Je nach Ressourcenausstattung des jeweiligen FIDs und nach den Rahmenbedingungen im fachdisziplinären Kontext zeigten sich zudem auch Differenzen, was im Bereich Forschungsdatenmanagement jeweils angeboten werden kann: Während bei einigen FIDs hier der Anspruch besteht, den Forschungsprozess schon von Beginn an zu begleiten, sehen sich andere eher am Ende eines Forschungsprozesses und knüpfen hiermit an die klassischen Aufgaben der Bibliotheken an. So sieht etwa Ralf Depping (Universität Köln) für den FID Soziologie „Veröffentlichungen als Kerngeschäft der Fachinformationsdienste“ und sieht sich am Ende des Forschungsprozesses, während z.B. das FID Bildungsforschung Wissenschaftlerinnen und Wissenschaftler schon zum Beginn der Forschung hinsichtlich des Datenmanagements berät. Sabine Imeri (Humboldt-Universität zu Berlin) vom FID Sozial- und Kulturanthropologie wies darauf hin, dass es in ihrer Fachdisziplin gerade um noch nicht veröffentlichte Daten und deren Aufbereitung und Archivierung geht. Viele dieser qualitativen Daten könnten zwar nicht veröffentlicht werden, sollten aber trotzdem nachnutzbar sein, so Imeri.

Mehrfach betonten die Teilnehmenden der Session die Notwendigkeit von Standardisierungen im Bereich Forschungsdaten. Dazu wurden zentrale Vorgaben, etwa zu Formaten, Metadaten und die Entwicklung von – auch interdisziplinären – Schnittstellen gewünscht. Auch Kooperationen, etwa im Hinblick auf Storage und die langzeitliche Verfügbarmachung von Daten, sei dies mit fachübergreifenden oder fachbezogenen Standards, wurden als eine Lösung thematisiert.

Session E: Apps und Wearables: Chancen und Herausforderungen für die Wissenschaft

Prof. Dr. Michael Eid – Freie Universität Berlin
Download der Präsentation

Es sprechen:

  • Dr. Sebastian Bähr – Institut für Arbeitsmarkt- und Berufsforschung (IAB)
    Download der Präsentation
  • Prof. Dr. Ulrich W. Ebner-Priemer – Karlsruher Institut für Technologie (KIT)
  • Stefan Dittrich – Fachlicher Projektleiter für den Zensus 2021 am Statistischen Bundesamt (Destatis)


Abstract

Neue Informationstechnologien sind bei Datenerhebungen in den Sozial-, Verhaltens- und Wirtschaftswissenschaften nicht mehr wegzudenken. Dazu zählen Datenerfassungen anhand von Wearables (Sensoren außerhalb von Smartphones, die z. B. physiologische Maße und Aktivitäten erheben), Mobile Sensing (z. B. Erfassung von Ort, Bewegung, Geräuschen, Licht, Smartphone-Nutzung mittels Smartphone-Sensoren), die Erfassung des selbstberichteten Erlebens mittels Smartphone-Fragebogen, oder auch das Ambient Monitoring (in die Umwelt integrierte Sensoren, die z. B. Bewegung, Ton und Bilder erfassen). Klassische Primärdaten werden zudem immer öfter durch weitere Daten aus Sensoren oder Applikationen der Geräte oder Paradaten ergänzt.

Für die Wissenschaft eröffnen sich durch diese neuen Informationstechnologien ungeahnte methodische Perspektiven wie die weitreichende Erfassung sozialer Umfelder und Interaktionen. Allerdings ergeben sich durch diese Technologien auch besondere Herausforderungen für wissenschaftliche Standards in Bezug auf die Datenqualität sowie für Datenschutz und Forschungsethik, mit denen sich eine Arbeitsgruppe des RatSWD beschäftigt und hieraus Empfehlungen abgeleitet hat. Die Session behandelt innovative Forschungsprojekte aus Soziologie, und Psychologie, die Daten mit neuen Informationstechnologien erhoben und analysiert haben. Darüber hinaus werden die Empfehlungen des RatSWD vorgestellt.

Ergebnis
Die vorgestellten Studien sammeln passive Smartphone Daten (App Nutzung, Sensor Daten etc.) und senden kurze Fragebögen an die Teilnehmenden in bestimmten Situationen, die z. B. durch Georeferenzen charakterisiert werden können. Inhaltlich soll die IAB Smart Studie z.B. Antworten auf Fragen zu Arbeitslosigkeit und neuen Formen der Arbeit z. B. Homeoffice geben. Weiterhin werden die Möglichkeiten neuer IT in klinischen psychologischen Studien vorgestellt. Diskutiert wird, wie die Responserate in Studien, die neue IT verwenden, erhöht werden kann. Vorgeschlagen wird, dass kleine Studien mit etablierten Panels kooperieren könnten. Generell sind vertrauensbildende Maßnahmen bei Studien mit neuer IT sinnvoll. Bereits zu Beginn solcher Projekte ist einzuplanen, dass solche Maßnahmen kosten- und zeitintensiv sein können. Bei klinischen Studien ist die Teilnahmerate dagegen meist kein Problem, da viele Studienteilnehmende ein starkes Interesse an der Verbesserung der Therapien haben.

Ein weiters Diskussionsthema ist die datenschutzkonforme Sekundärnutzung von Sensordaten. Die vorgestellten Studien haben hierfür noch keine definitiven Lösungen entwickelt, arbeiten aber an Konzepten zur Vergröberung der Daten. Hinterfragt wird weiterhin, inwieweit die Datenerhebung mit neuer IT für wissenschaftliche Zwecke überhaupt geeignet ist, da Forschende nicht die Kontrolle über die Nutzung der Geräte und ihrer Algorithmen haben. Der Output 6.6 des RatSWD  gib zu diesen relevanten Fragen Empfehlungen. Es wird generell darauf hingewiesen, dass Apps und Wearables nicht zur Beantwortung aller Forschungsfragen geeignet sind. Auch müssen die Theorie und das Studiendesign klar sein, da sonst durch die große Masse an erhobener Daten Fehlinterpretationen entstehen können. Sensoren bieten zusammenfassend eine weitere technische Möglichkeit Daten zu sammeln, sie ersetzen aber nicht etablierte Datenerhebungsverfahren.

Session F: Registerdaten für die Wissenschaft

Prof. Dr. Ulrike Rockmann – Freie Universität Berlin; Senatsverwaltung für Inneres und Sport Berlin

Paneldiskussion mit:

  • Dr. Alexander Dix – Europäische Akademie für Informationsfreiheit und Datenschutz e.V.
    Download der Präsentation
  • Eric Schulte Nordholt – Statistics Netherlands (CBS)
    Download der Präsentation
  • Prof. Dr. Harald Oberhofer – Wirtschaftsuniversität Wien; Österreichisches Institut für Wirtschaftsforschung
    Download der Präsentation
  • Dr. Walter Radermacher – Generaldirektor von Eurostat 2008–2016, Präsident des Statistischen Bundesamtes 2006–2008


Abstract

Spätestens seit dem Zensus 2011 und der Veröffentlichung des Berichts des Normenkontrollrates über die deutsche Registerlandschaft ist klar, dass Deutschland konzeptionell an einer zukunftstauglichen Verwaltungsdaten-Infrastruktur arbeiten und seine Verwaltungsregister verbessern muss. Auch die Aktivitäten rund um eGovernment und die Pläne der EU ab 2024 in 10-jährigen Zeitraum vergleichbare Daten über die Bevölkerung zwischen zwei Zählungen zu erheben, verdeutlichen dies. Die Möglichkeiten zum Datenaustausch und der Vernetzung von Registern rücken dabei unweigerlich in den Fokus.

Was bedeuten diese Entwicklungen für die Qualitätssicherung und die Passgenauigkeit von Definitionen für unterschiedliche Verwendungen? Wie kann die Nach-Nutzbarkeit über den primären Erhebungszweck hinaus für die amtliche Statistik und damit auch die Verfügbarkeit der Daten für die Wissenschaft sichergestellt werden? Diese Fragen, sowie die Rechte und Pflichten, die in anderen europäischen Ländern bereits gesetzlich verankert sind, werden in dieser Session diskutiert.

Ergebnis
Im Vergleich zu anderen Ländern, beispielsweise den Niederlanden und Österreich, sind für Forschende die Möglichkeiten des Zugriffs auf Registerdaten in Deutschland sehr begrenzt. Dieses ist auch dadurch bedingt, dass in Deutschland nur vergleichsweise wenige Registerdatenquellen in der amtlichen Statistik genutzt werden und somit nicht durch die Forschungsdatenzentren der amtlichen Statistik zu den Forschenden gelangen. In Österreich ist darüber hinaus aktuell eine Gesetzgrundlage geschaffen worden, die Forschenden grundsätzlich den Zugang zu Verwaltungsdaten unabhängig von ihrer Nutzung in der amtlichen Statistik ermöglicht. Insbesondere in Zeiten, in denen Surveys sinkende Teilnahmequoten verzeichnen, scheint es sinnvoll, das Potenzial von Daten, die in administrativen Prozessen anfallen, für Forschungszwecke zu erschließen – als Grundlage zur Stichprobenziehung und als Informationsbasis, die viele Bereiche abdeckt.

Betont wurde auch, dass gezielte Öffentlichkeitsarbeit (z. B. in Form von Zeitungsartikeln und Interviews) die Akzeptanz für den Zugriff der Wissenschaft auf Registerdaten stärken kann. In Bezug auf Zensus-Erhebung wurde hervorgehoben, dass diese mit einer multiple-source-mixed-mode-Architektur durchgeführt werden sollte – also auf Basis vieler Datenquellen. Genutzt werden können qualitätsgesicherte administrative Daten ergänzt durch Surveys. Insbesondere in Zeiten starker Veränderungen bliebe so die Informationsgrundlage im Zeitverlauf aussagekräftiger und zeitnah an aktuelle Themen anpassbar. Als wichtig wurde in diesem Zusammenhang auch die externe wissenschaftliche Begleitung der Erhebungen der amtlichen Statistik hervorgehoben.

Gustav von Schmoller-Vorlesung

Wie kann und sollte die Wissenschaft Daten gegenüber der Gesellschaft zum Sprechen bringen?      

Laudator:
Prof. Dr. Richard Hauser – Johann-Wolfgang-Goethe-Universität Frankfurt am Main
Download Laudatio

Ehrung:
Prof. Dr. Dr. h.c. Gert G. Wagner – Max Planck Institut für Bildungsforschung (MPIB); Sozio-ökonomisches Panel (SOEP); Alexander von Humboldt Institut für Internet und Gesellschaft (HIIG); Deutsche Akademie der Technikwissenschaften (acatech)
Download der Präsentation

Abstract
Daten dienen nicht unmittelbar der Gesellschaft. Sie müssen u. a. von der Wissenschaft genutzt und zum Sprechen gebracht werden. Die Wissenschaft spricht freilich eine eigene Sprache, ja sogar ganz verschiedene hochspezialisierte Sprachen. Wenn die Wissenschaft mit der Gesellschaft spricht, ist eine eigene Sprache oder sind unter Umständen sogar verschiedene Sprachen notwendig, je nachdem ob die Wissenschaft mit Profis oder Laien spricht. Der Vortrag setzt sich mit diesen Feldern auseinander und betont insbesondere, was die Wissenschaft nicht (ver)sprechen sollte.

Bekanntgabe der Wahlergebnisse

für die Berufungsvorschläge der wissenschaftlichen Mitglieder des RatSWD in der 7. Berufungsperiode
Prof. Dr. Ulrike Rockmann

Download der Wahlergebnisse

3. März 2020

Plenarvortrag 4: Scores, Ratings, Indikatoren. Über die Datafizierung der Gesellschaft

Prof. Dr. Steffen Mau – Humboldt-Universität zu Berlin

Abstract
Der Vortrag beschäftigt sich mit den neuen Trends der metrischen Erfassung und Bewertung der Gesellschaft, wie sie sich etwa in Formen von Ratings, Scorings und der Selbstvermessung finden lassen. Die Quantifizierung des Sozialen bleibt dabei nicht einfach nur eine spezifische Beschreibungsform der Gesellschaft, sondern stellt zum Teil eine Realität sui generis her. Sie konkurriert dabei mit wissenschaftlichen Beschreibungsformen, die ebenso Indikatoren und Daten nutzen, die sie allerdings selbst erheben.

Der Vortrag wirft daher die Frage auf, was die fortschreitende Datafizierung für die Gesellschaft bedeutet. Zunächst verändert sie unsere alltagsweltlich geprägten Vorstellungen von Wertigkeit und gesellschaftlichem Status. Zudem entsteht aus der quantifizierenden Vermessung des Sozialen eine Ausbreitung, wenn nicht gar Universalisierung von Wettbewerb. Wir können nun in vielen Aspekten unserer sozialen Existenz, in denen dies vorher nicht explizit möglich war, anhand von Mehr-oder-Weniger- oder Besser-oder-Schlechter-Vergleichen anderen gegenübergestellt werden.

Daraus ergibt sich ein Trend in Richtung einer verstärkten gesellschaftlichen Hierarchisierung, weil Rangdarstellungen, auf Differenzerzeugung ausgelegte Bewertungsformen und Zahlen, Tabellen und Grafiken letztlich qualitative Unterschiede in quantitative Ungleichheiten transformieren. Die datafizierte Gesellschaft beobachtet und etabliert fortwährend Differenzen zwischen Individuen, die als Ungleichheiten ausgebildet werden und sich mit ganz konkreten Vor- und Nachteilen verbinden.

Session G: FAIRer Datenzugang für die Sozial- und Wirtschaftswissenschaften

Prof. Stefan Bender – Deutschen Bundesbank

Paneldiskussion mit:

  • Prof. Dr. Joachim Gassen – Humboldt-Universität zu Berlin; TRR 266 „Accounting for Transparency“
  • Prof. Dr. Iris Pigeot – Leibniz-Institut für Präventionsforschung und Epidemiologie – BIPS; Universität Bremen
  • Dr. Pascal Siegers – GESIS – Leibniz-Institut für Sozialwissenschaften
  • Prof. Dr. Klaus Tochtermann – Leibniz-Informationszentrum Wirtschaft (ZBW)


Abstract

Die FAIR-Prinzipien formulieren Grundsätze für eine nachhaltige Wiederverwendbarkeit von Daten. FAIR steht für Auffindbarkeit (Findability), Zugänglichkeit (Accessibility), Interoperabilität (Interoperability) und Nachnutzbarkeit (Re-usability) von Daten und Metadaten. Die Anwendung der Grundsätze gewährleistet den interdisziplinären und internationalen Zugang zu Daten und ihre Nutzung. Viele Disziplinen setzen die FAIR-Prinzipien bereits um und häufig wird die Umsetzung auch von Drittmittelgebern verlangt. Die FAIR-Prinzipien sind somit zum internationalen Standard geworden.

In dieser Session werden die Umsetzungsmöglichkeiten der FAIR-Prinzipien in den Sozial- und Wirtschaftswissenschaften diskutiert. Die Herausforderung ist hier, dass viele der verwendeten Mikrodaten sensibel sind und oft nur durch (akkreditierte) Forschungsdatenzentren zur Verfügung gestellt werden können. Zudem wird in der Session aufgezeigt, wie, die FAIR-Prinzipien die Nachvollzieh- und Reproduzierbarkeit von Forschungsergebnissen in den Sozial- und Wirtschaftswissenschaften erhöhen und einen notwendigen Kulturwandel stimulieren können. Dieser Kulturwandel betrifft speziell das Teilen (Sharing) von Informationen, Daten und Ergebnissen.

Ergebnis
Vier zentrale Leitfragen strukturierten die Paneldiskussion. Den Einstieg machte die Frage, nach dem bereits erreichten FAIRness-Level in den vertretenen Disziplinen. Nach Ansicht von Iris Pigeot leisten die Forschungsdatenzentren (FDZ) zwar bereits einen wichtigen Beitrag in den Sozial- und Wirtschaftswissenschaften, in den Gesundheitswissenschaften und bei kleinen Forschungsprojekten ist dieser Standard in der Breite aber meistens noch nicht gegeben.

Darauf aufbauend wurde die Frage erörtert, welche geeigneten Schritte nötig sind, um FAIRer zu werden. Pascal Siegers schlägt vor, dass Metadatenstandards die Granularität der Daten beschreiben und domänenspezifische Definitionen beinhalten sollten. Weiterhin sollen Institutionen transparente data policies haben und remote access Verfahren für die Datennutzung anbieten. Die Datensätze sollten offen zugängliche Methodenberichte flankieren, die spezifizieren, wie Daten erhoben wurden und welche Schritte z. B. zur Anonymisierung durchgeführt wurden. Für die maschinelle Lesbarkeit von Daten müssten Schnittstellen geschaffen werden mit maschinenlesbaren Zugangsprotokollen und gemeinsamen Austauschformaten. Forschungsprojekte sollten Ressourcen für das Forschungsdatenmanagement in ihrer Projektplanung berücksichtigen. Daten müssen außerdem beworben werden, um die Nachnutzbarkeit zu erhöhen.

Die dritte Leitfrage fokussierte auf konkrete Schritte zur Erhöhung der Reproduzierbarkeit von Forschungsergebnissen. Klaus Tochtermann betonte hierbei, dass das „R“ in FAIR für „reusability“ und nicht für „Reproduzierbarkeit“ steht, die über das Einhalten der FAIR Prinzipien hinausgeht. Zur Reproduzierbarkeit werden neben Forschungsdaten auch die Codes und Softwareversionen benötigt und das Studiendesign müsste zusätzlich (möglichst vor der Datenerhebung) veröffentlicht werden (z. B. über registered reports). Damit könnte einem möglichen publication bias hin zur Publikation von vornehmlich hoch signifikanten Ergebnissen entgegengewirkt werden. In der Diskussion wird klar, dass anzustrebende Datenreviews neben Gutachtenden auch die technische Infrastruktur, Algorithmen und Schnittstellen zur Kontrolle der Daten erfordern.

Mit Blick in die Zukunft schloss das Panel mit der Frage, ob ein Kulturwandel hin zu FAIRen Daten zu verzeichnen ist und wie dieser voranzutreiben wäre. Joachim Gassen verzeichnet einen eher langsamen Kulturwandel hin zum Teilen von Daten. Insbesondere in den Wirtschaftswissenschaften steht die Kommerzialisierung von Daten dem FAIRen Umgang mit ihnen entgegen. In der Diskussion werden einige Hinderungsgründe genannt. So fürchte der wissenschaftliche Nachwuchs Ideendiebstahl und das wissenschaftliche System setze wenig Karriereanreize, Zeit und Mühe in die Aufbereitung und Zurverfügungstellung von Daten zu setzen. Hier müsste mit transparenten Tenure-Tracks entgegengewirkt werden. Zudem sollte Forschenden bewusstwerden, dass Daten und Messmethoden oft erst nach einigen Jahren nachgenutzt werden. Die Diskussion fokussiert auch auf die Frage, warum erhebende Institute ihre Daten oft noch nicht teilen. Hier wird beispielsweise die Befürchtung laut, dass die Institute Reputationsverluste erleiden könnten, sollte es in der Nachnutzung zu Datenschutzverstößen kommen. Es herrscht jedoch Einigkeit, dass der Kulturwandel vor allem von der Wissenschaft selbst getragen werden muss. Die Bemühungen der NFDI könnten helfen, das Teilen von Daten – auch über Disziplinen hinweg – zu befördern. Auch muss die NFDI und ihre Entwicklung anhand von noch zu bildenden Indikatoren, wie Data Set Impact Faktoren oder Added Value of Services bewertet werden.

Session H: Forschung zu Digitalisierung: Datenoutput für die Wissenschaft

Prof. Dr. Thomas K. Bauer – Ruhr-Universität Bochum; Leibniz-Institut für Wirtschaftsforschung

Es sprechen:

  • Dr. Fabian Flöck – GESIS – Leibniz-Institut für Sozialwissenschaften
    Präsentation
  • Prof. Dr. Manfred Hauswirth – Weizenbaum-Institut für die vernetzte Gesellschaft; Fraunhofer FOKUS
    Präsentation
  • Dr. Claudia Kramer – KIT-Bibliothek und Constanze Scherz – Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)
    Präsentation
  • Dr. Roland A. Stürz – Bayerisches Forschungsinstitut für digitale Transformation (bidt)
    Präsentation


Abstract

Im Zentrum der Session steht die Forschung zu den Wechselwirkungen zwischen Digitalisierung und Gesellschaft. Im neuen sich noch etablierenden Forschungsfeld sollen darauf fokussierte Institute Dynamiken, Mechanismen und Implikationen der Digitalisierung besser verstehen helfen und Handlungsoptionen für Politik, Wirtschaft und Gesellschaft aufzeigen.

Die methodische Bandbreite in der Datenerhebung ist dabei sehr hoch. Mit neuen innovativen Datenarten und Analysemethoden wird interdisziplinär gearbeitet. Beispielhaft stellen qualitative oder quantitative Befragungen, die Analyse von Webcontent und -nutzung (ggf. mit Hilfe Künstlicher Intelligenz) und die Forschung zu Bewertungs-Methoden (wie z. B. Scoring, Rating, Indikatoren) völlig unterschiedliche Anforderungen an ein Forschungsdatenmanagement.

Die Ansätze tragen dazu bei, gesellschaftliche Digitalisierungsprozesse aus verschiedenen Perspektiven zu verstehen und zu gestalten. Gleichzeitig entstehen gesellschaftlich wertvolle Datensammlungen, von denen die gesamte Wissenschaftscommunity durch ein strukturiertes und für die Datennachnutzung offenes Forschungsdatenmanagement profitieren könnte. Die Session soll Wege dazu aufzeigen und Forschenden die Möglichkeit geben, ihre Wünsche gegenüber „Internetinstituten“ zu kommunizieren.

Ergebnis
In der Session wurden insbesondere Probleme thematisiert, die sich aus einer Forschung ergeben, die vermehrt auf Big-Data und die Nachnutzung digitalisierter Daten setzt. Professor Hauswirth vom Weizenbaum Institut sah die rechtlichen und ethischen Grundlagen des Teilens als zentrale Problematik und wies dabei auch auf das Spannungsfeld zwischen Zentralisierung und Dezentralisierung hin: Je zentraler eine Speicherung realisiert würde, desto größere Datenschutzprobleme ergäben sich. Anonymisierungsverfahren gewinnen deshalb an Bedeutung.
Auf Interesse stieß in dieser Hinsicht ein durch Roland Stürz vorgestelltes Konsortialprojekt des Bayerischen Forschungsinstituts für Digitale Transformation: Dieses untersucht mit „Differential Privacy“ ein neues Verfahren zur Anonymisierung von Daten. Während klassische Anonymisierungsmethoden Personen und nicht ihre Eigenschaften unkenntlich machen, implementiert „Differential Privacy“ z. B. ein „Rauschen“ in die Merkmale von Personen.

Zusätzliche rechtliche Probleme ergeben sich bei der Nutzung von „Fangdaten“, die beispielsweise aus sozialen Netzwerken gescraped werden. Hier, so erläuterte etwa Fabian Flöck von GESIS, gäbe es neben dem Datenschutz auch weitere Fragen zur Rechtslage und zur Datenqualität. So dürften nach Nutzungsbedingungen der Anbieter, wie etwa Twitter, Daten teilweise nicht auf Seiten der Forschenden gespeichert werden; hier ergäben sich Schwierigkeiten, den Anforderungen nach langfristiger Speicherung und Reproduzierbarkeit im Sinne einer guten wissenschaftlichen Praxis gerecht zu werden. Datengenerierung, -aufbereitung, und -umfang eines Anbieters könnten sich zudem rapide und kaum nachvollziehbar ändern. Ein weiteres Problem stelle die Standardisierung dar: Häufig handele es sich um sehr große Datensätze in diversen Formaten, was die Datenaufbereitung aufwendig macht. Auch die Durchsuchbarkeit von Daten erfordere ein hohes Maß an Standardisierung.

Der Aufwand für Datenaufbereitung, der auch Anonymisierungen umfasst, wurde insgesamt als Problem gesehen. Dieser sollte auch bei der Antragstellung stärker an Zuwendungsgeber kommuniziert und bei der Höhe der zu beantragenden Fördergelder eingepreist werden.
Insgesamt entwickeln die im Panel vertretenen Einrichtungen eigenständige Angebote für das Forschungsdatenmanagement und für die – auch externe – Nachnutzung der Forschungsdaten. Die konsistente Umsetzung des Forschungsdatenmanagements über den gesamten Datenlebenszyklus – also bereits vor der Datenerhebung – wird dabei derzeit unterschiedlich stark berücksichtigt. Ein transparentes und gut definiertes Forschungsdatenmanagement sah das Panel jedoch als wesentlich an, um die Nutzung von Daten in der Wissenschaft zu optimieren.

Session I: Remote Access zu amtlichen Mikrodaten – Europäische Einblicke

Dr. Heike Wirth – GESIS – Leibniz-Institut für Sozialwissenschaften
Präsentation

Es sprechen:

  • Ruben Dood – Statistics Netherlands (CBS)
    Präsentation
  • Prof. Christina Gathmann, Ph.D. – Universität Heidelberg
    Präsentation
  • Dana Müller – Institut für Arbeitsmarkt- und Berufsforschung (IAB)
    Präsentation
  • Markus Wanamo – Statistics Finland
    Präsentation


Abstract

Amtliche Mikrodaten, ob von den statistischen Ämtern oder den Sozialversicherungsträgern[1], sind eine wichtige Datenquelle für die empirische Sozial- und Wirtschaftsforschung. In den letzten 15 Jahren wurde die Erschließung dieser Daten für die wissenschaftliche Forschung sukzessive über sogenannte Forschungsdatenzentren (FDZ) vorangetrieben. Allerdings kann ein großer Teil dieses Mikrodatenbestands bislang nicht vollumfänglich am Arbeitsplatz der Forschenden, sondern nur in Einrichtungen der FDZ genutzt werden. Diese Zugangswege binden sowohl bei der Forschung wie auch in den FDZ Ressourcen, die an anderer Stelle besser genutzt werden könnten.

Deshalb ist es an der Zeit, über eine Modernisierung des Datenzugangs in Deutschland nachzudenken, mit dem Ziel den Datenzugang sowohl aus der Perspektive der Forschung als auch der Datenproduzenten effizienter zu gestalten. Vorbilder könnten die statistischen Ämter der nordischen Länder oder auch der Niederlande sein, die schon seit geraumer Zeit die rechtlichen und technischen Voraussetzungen geschaffen haben, um ihre Daten für die Forschenden im eigenen Land an deren Arbeitsplatz über Remote Access zugänglich zu machen. In der Session soll nach einer kurzen Skizzierung der Situation in Deutschland am Beispiel von Dänemark und Finnland die derzeitige Praxis des Remote Access in den nordischen Ländern skizziert und diskutiert werden. Im dritten Beitrag soll der potenzielle Nutzen eines Remote Access aus Sicht der Forschung dargestellt werden. Der vierte Beitrag diskutiert den potenziellen Nutzen aus der Sicht eines FDZ.

[1] Noch stellen nicht alle Sozialversicherungsträger ihre Daten für Forschungsvorhaben zur Verfügung. Wenn wir hier und im Folgenden von Sozialversicherungsträger sprechen, beziehen wir uns daher ausschließlich auf die Bundesagentur für Arbeit (BA) und die Deutsche Rentenversicherung Bund (RV).

Ergebnis
In Session I wurden die Möglichkeiten für den Zugang zu amtlichen Mikrodaten mithilfe von Remote Access beleuchtet und diskutiert. Sowohl in den Niederlanden als auch in Finnland können sensible Daten der amtlichen Statistik zu Forschungszwecken über Remote Access (Remote Desktop Verfahren) genutzt werden. Die Grundlage hierfür ist – wie in vielen anderen europäischen Ländern auch – ein sogenanntes ‚Vertrauensmodell‘, d.h. die amtliche Statistik setzt auf die vertragliche Verpflichtung der Forschenden auf Geheimhaltung und sieht erhebliche Sanktionen bei Verstößen vor. Ähnliche Rahmenbedingungen gelten auch in Deutschland. Allerdings gewähren die o.a. Länder Forschenden unter diesen Bedingungen die Möglichkeiten des Remote Access während in Deutschland aufgrund der Vorgaben im Bundesstatistikgesetz nur eine Nutzung der Daten vor Ort (on-site) möglich ist. Die mit diesem beschränkten Datenzugang einhergehenden Nachteile für die deutsche Forschung wurden in dem Beitrag von Professor Gathmann skizziert. Zukunftsgerichtet wurde in dem Beitrag von Dana Müller dargestellt, wie die aktuell schon sehr forschungsfreundlichen Datenzugangsmöglichkeiten des FDZ IAB zukünftig in Richtung eines echten Remote Desktop Verfahrens ausgebaut werden könnten. In Hinblick auf den Zeitrahmen verbleiben jedoch erhebliche Unsicherheiten, da nicht nur die gesetzlichen Grundlagen einer eingehenden Prüfung unterzogen werden müssen, sondern auch ganz erhebliche finanzielle Investitionen (im Sinne von technischen und personellen Ressourcen) vonnöten sind, um einen effizienten und datenschutzgemäßen Remote Access zu etablieren.

Plenarvortrag 5: Registerdaten und Big Data: Eine Bestandsaufnahme von Forschungslücken

Prof. Dr. Frauke Kreuter – Universität Mannheim; Institut für Arbeitsmarkt- und Berufsforschung (IAB); University of Maryland
Präsentation

Abstract
Das Zusammenführen von Daten aus verschiedenen Quellen wird für die Sozialwissenschaften von entscheidender Bedeutung sein, um die Datenflut voll auszunutzen, die sich aus der zunehmenden Digitalisierung der Gesellschaft ergibt. Derzeit gibt es viele Versuche, einzelne Big-Data-Quellen von teils fragwürdiger Qualität zu verwenden. Die spannendsten Projekte beruhen auf einer Kombination verschiedener Daten, von denen einige noch mit herkömmlichen Modi erfasst wurden. Dieser Vortrag wird einige Ansätze aufzeigen und einen Rahmen bieten, mit dem Sozialwissenschaftlerinnen und Sozialwissenschaftler über die Schaffung neuer Datenprodukte nachdenken können.

Ein wichtiges Element in diesem Bestreben ist die Achtung der Privatsphäre der Menschen. Auch wenn verschiedene Kulturen unterschiedliche Normen für die Erfassung bestimmter Datenarten für bestimmte Zwecke haben, lässt sich das Konzept der kontextbezogenen Integrität weiträumig anwenden.

Der rote Faden dieses Vortrags ist das Aufzeichnen von Forschungsmöglichkeiten, die sich in der neuen Datenlandschaft ergeben. Eine entsprechende Daten- und Datenverarbeitungs-Infrastruktur ist dabei unverzichtbar.