Die digitale Sammlungsforschung stellt im Bereich der Digital Humanities einen Sonderfall dar. Die Artefakte des kulturellen Erbes sind originäre Einzelstücke und werden in ihrer Materialität, Kontextualität und Provenienz untersucht. Dies stellt Digitalisierungsbestrebungen einerseits vor große Herausforderungen, andererseits sind es auch gerade die Virtualisierungs- und Verknüpfungsmechanismen digitaler Methoden, die neue Blicke auf Zusammenhänge unseres kulturellen Erbes zulassen. Häufig zielen digitale Methoden dabei auf die Analyse von standardisiert erfassten Metadaten ab, die je nach Sammlungskontext (Gallerie, Bibliothek, Archiv, Museum) divergieren. Die in den DH etablierten Methoden der Volltextanalyse können erst zum Einsatz kommen, wenn Scans einer OCR unterzogen wurden. Eine spezifisch digitale Sammlungsforschung stellt somit den Sammlungsbegriff selbst sowie seinen epistemischen Mehrwert vor Herausforderungen und Möglichkeiten: Wie ist die Beziehung zwischen nicht-digitalen Sammlungsobjekten und ihrer digitalen Erfassung in Form von Metadaten oder digitaler Reproduktion? Kann man noch von Sammlungen sprechen, wenn Objekte nicht mehr ortsgebunden sowie permanent verfügbar sind und Teil beliebig vieler Sammlungen gleichzeitig sein können? Entsteht ein neues Verständnis von Sammlungen, wenn sich multimodale Bestände sichtbar aufeinander beziehen können und damit die originäre Gegensätzlichkeit ihrer Objekte im Sinne einer Medienkonvergenz im Digitalen überwindbar erscheint?  Wie kann der Sammlungsbegriff nutzbar gemacht werden, wenn es um Fragen der Bewertung expansiver Mengen von digitalen Forschungsdaten geht? Das Seminar wird vor diesem Hintergrund beispielhaft Einblicke in digital arbeitende Projekte des Forschungsverbunds Marbach Weimar Wolfenbüttel (MWW) geben sowie in Methoden der Metadatenanalyse und -transformation, Markup-Sprachen und X-Technologien, Bibliotheksrekonstruktion und sowie Sammlungserschließung einführen. Geplant ist zudem (wenn pandemiebedingt möglich) eine Exkursion zu den physischen Sammlungen der Klassik Stiftung Weimar.



Die Statistik gibt Forscherinnen und Forschern wertvolle datenanalytische Werkzeuge an die Hand, die wesentlich den grundlegenden Charakter von Wissenschaft und Erkenntnisgewinn beeinflussen.  Statistik bietet die Möglichkeit, mathematische, theoretische und abstrakte Modelle oder Annahmen mittels empirisch nachgewiesener realer Effekte zu validieren.

Das Modul Statistik für die Digital Humanities lehrt Studierende des Fachs Digital Humanities diese grundsätzlichen Methoden mit einem Fokus auf die typischen Aufgaben und Probleme, die sich in dem sehr heterogenen geisteswissenschaftlich orientierten Fachbereich ergeben. Dadurch werden Studierenden bereits frühzeitig die Fähigkeiten vermittelt, einerseits Datenanalysen kritisch zu hinterfragen und andererseits die eigene Forschungsarbeit kompetent und mit der nötigen Objektivität zu strukturieren.

Angelegt ist der Kurs als fakultätsinterne Schlüsselqualifikation, in Absprache mit den jeweiligen Studiengangsverantwortlichen kann der Kurs aber auch flexibel angerechnet werden. Bestätigt wurde bisher die Anrechenbarkeit als Kernmodul in B.Sc. Digital Humanities.

Neben einem grundlegenden Überblick über das Fach werden Methoden der Datenexploration und Visualisierung gelehrt und geübt. Weiterhin werden die Prinzipien empirischer, stichprobenbasierter Experimente sowie statistischer Testverfahren vermittelt und Verfahren zur Datenanalyse, bspw. Prädiktion oder Berechnung von Regression und Korrelation, beigebracht.

Youtube-Playlist für die Vorlesung:
https://www.youtube.com/watch?list=PLFiTehFSd4iNMUp03S7aAwBvrR-yY9AFB

Öffentliche Materialien (inkl. den Vorlesungsvideos) per Uniserver:
http://www.informatik.uni-leipzig.de/~jtiepmar/lehre/statdh20/