Montag, 12. November 2018

Big Data – Status quo eines grossen Versprechens

Dr. Heinz Nauer, SAGW, Redaktor

Es ist noch nicht lange her, da war „Big Data“ das grosse Versprechen für die Zukunft. Mittlerweile machen sich Skeptiker einen Spass daraus, lange Liste mit gescheiterten Big Data-Initiativen zu erstellen. Immer wieder gerne zitiert wird der Psychologe Dan Ariely, der Big Data mit Teenage-Sex verglich: Jeder spricht davon, aber niemand weiss wirklich, wie es geht. Und die Website Tylervigen.com hat aus Daten Grafiken zusammengestellt, die sich zwar zufällig gleich verhalten, aber eigentlich nichts miteinander zu tun haben: beispielsweise die Scheidungsrate im amerikanischen Bundesstaat Maine und der dortige Konsum von Margarine (Korrelation über 99%). Die Unterscheidung zwischen zufälligen Korrelationen und Kausalitäten bleibt eine der vornehmsten und schwierigsten Aufgaben im Umgang mit Daten, auch im Zeitalter von Big Data.

Und wie gehen die Sozialwissenschaften im Jahr 2018 mit Big Data um? Wo liegen die Chancen, wo die Herausforderungen? Diese Fragen stellte eine Tagung der SAGW, die am 09. November in Bern stattfand. Ob Politik- oder Kommunikationswissenschaften, Psychologie oder Soziologie – die Probleme und Herausforderungen sind weitgehend dieselben.

Hier eine Auswahl von vier Aspekten, die an der Tagung diskutiert wurden:

1. Kompetenzen
Der Sozialwissenschaftler, der mit grossen Datenmengen arbeitet, muss verstehen, wie Daten entstehen, für welche Forschungsfragen sich deren Auswertung eignet, wie die Daten erhoben, analysiert, langfristig archiviert und kuratiert werden können. Vor allem die ersten beiden Punkte seien in der sozialwissenschaftlichen Forschung und Lehre noch zu wenig etabliert, sagte Frauke Kreuter, Professorin für Statistik an der Universität Mannheim.

2. Kooperation

Sozialwissenschaftler, die sich mit Data Science beschäftigen, Statistiker und Computer Science-Spezialisten müssen voneinander lernen und so etwas wie eine gemeinsame Sprache entwickeln. Es gehe dabei nicht nur um die nackten Daten, sondern um eine verstärkte Zusammenarbeit aller Akteure auch auf methodologischer Ebene, sagte Georges-Simon Ulrich, Direktor des Bundesamts für Statistik. In diesem Zusammenhang gelte es auch die Ausbildung der Studierenden neu zu denken, so Rainer Diaz-Bone, Soziologe an der Universität Luzern.

3. Datenqualität

Es genügt nicht, einfach viele Daten zu haben. Die Qualität der Daten ist entscheidend. Häufig erheben Forschende ihre Daten nicht mehr selbst, sondern schöpfen sie aus dem digitalen Datenstrom. Die Qualität solcher Daten zu beurteilen und sie nachträglich in analytische Formen und Kategorien zu bringen, ist herausfordernd, aber wichtig. Ohne Vertrauen in die Daten sind keine Aussagen möglich, betonte Diego Kuonen, Gründer von Statoo Consulting und Professor für Data Science an der Universität Genf.

4. Zugänglichkeit
Die grössten Datenmengen befinden sich heute im Besitz von einer Handvoll privaten Playern: Apple, Amazon, Google, Facebook und Microsoft, in den USA auch „The big five“ genannt. Der Forschung stehen diese Daten nicht oder nicht in genügender Qualität zur Verfügung. Und der Zugang zu Daten aus der öffentlichen Verwaltung und Administration oder aus dem Gesundheitswesen ist durch den Datenschutz eingeschränkt. „Nur open geht natürlich nicht“, sagte Georg Lutz, Direktor des Schweizer Kompetenzzentrum für Sozialwissenschaften FORS, „aber es wäre dumm, diese vorhandenen Daten nicht wissenschaftlich zu nutzen.“

Das Big-Data-Versprechen und die Realität
Wie steht es also um das Versprechen von Big Data in den Sozialwissenschaften in der Schweiz? In einzelnen Bereichen haben sich neue datengetriebene Methoden etabliert. Zu nennen ist etwa die statistische Auswertung von grossen digitalen Textmengen („text as data“). Im Grossen und Ganzen aber wurde das Versprechen von Big Data noch nicht eingelöst, so Lucas Leeman, Politologe und Mitgründer des Digital Democracy Lab an der Universität Zürich. Es besteht jedenfalls nach wie vor viel Potenzial für neue Forschungsfragen, betonte Frauke Kreuter. So könnten vermehrt grosse Datenmengen aus verschiedenen Quellen in grosse Korpora zusammengeführt und mit herkömmlichen Methoden kombiniert werden. Das würde es erlauben, „stärker in Raum und Zeit hineinzoomen als das früher möglich war“, wie es Kreuter formulierte.

Das Tagungsprogramm und weitere Informationen finden Sie hier: http://www.sagw.ch/de/sagw/veranstaltungen/vst-2018-sagw/bigdata.htmlhttp://www.sagw.ch/de/sagw/veranstaltungen/vst-2018-sagw/bigdata.html

Lesen Sie zum Thema auch «Big Data für die Sozialforschung nutzen», ein Gastkommentar in der Neuen Zürcher Zeitung von Peter Farago, Präsident des Rates für Sozialwissenschaften in der SAGW und früherer Direktor des FORS:  https://www.nzz.ch/meinung/big-data-fuer-die-sozialforschung-ld.1424590



Keine Kommentare: