Hier geht es zur Umfrage „Exploring Researchers‘ Needs for Access to Library Materials Abroad“
]]>Das ursprünglich handschriftlich geführte Kopenhagener Beerdigungsregister liegt nun für den gesamten Zeitraum 1861-1940 digital vor. In der Datenbank des Stadtarchivs kann u. a. nach Namen und Adressen recherchiert werden.
Neues aus dem Nationalarchiv
Neues aus dem Arkivverket
Eine aktualisierte Version der Volkszählung von 1865 wurde im Digitalarkivet veröffentlicht.
Publicera, die nationale Plattform für öffentlich zugängliche schwedische wissenschaftliche Zeitschriften, ist seit ihrem Start im Sommer 2021 stetig gewachsen und enthält inzwischen 20 Zeitschriften. 2023 sind folgende Zeitschriften hinzugekommen: META, Nordisk tidskrift för socioonomastik, Språk och stil, Stockholm Intellectual Property Law Review, Sömn och Hälsa, und Utbildning & Lärande.
Neun wertvolle Meeresatlanten aus der Zeit zwischen 1695 und 1850 werden der Forschung und der Öffentlichkeit zugänglich gemacht. Sie sind eine Schenkung aus der Kartensammlung des Finanziers Björn Carlson (1935 – 2021) an die Nationalbibliothek, die Universitätsbibliothek Lund und die Universitätsbibliothek Göteborg und umfassen kartografische Werke schwedischer, russischer und französischer Autoren, welche die Ostsee auf unterschiedliche Weise darstellen. Das älteste Objekt ist der Seeatlas von Petter Gedda aus dem Jahr 1695 und das jüngste ist ein englischer Kompositatlas aus der Mitte des 19. Jahrhunderts, der von der britischen Admiralität erstellt wurde.
Eine weitere Schenkung für ihre maritime Sammlung erhielt Anfang dieses Jahres die Universitätsbibliothek Göteborg in Form der Bibliothek von Esbjörn Hillberg, dem Gründer und langjährigen Vorsitzenden der schwedischen Leuchtturmgesellschaft. Das Material umfasst etwa 40 Regalmeter schwedischer und internationaler Literatur vom 17. Jahrhundert bis zur Gegenwart. Neben fiktiven Darstellungen enthält die Sammlung Literatur zu Technik und Betrieb von Leuchttürmen sowie zum Leben von Leuchtturmwärtern. Das Material wird derzeit katalogisiert, um es über den Nationalbibliothekskatalog LIBRIS durchsuchbar zu machen.
Die 2011 lancierte Datenbank des Svenskt Hällristnings Forsknings Arkiv wurde in Zusammenarbeit mit Göteborgs forskningsinfrastruktur för digital humaniora vid Göteborgs universitet überarbeitet und verfügt über eine Reihe neuer Funktionen, wie beispielsweise eine Kartensuche. Die Informationen in der Datenbank wurden mit Fornsök verknüpft, dem Suchdienst des Riksantikvarieämbetet..
Svensk Television SVT hat begonnen, die, unter Mitwirkung zahlreicher Historiker*innen und Archäologen*innen erstellte, umfangreiche Dokumentarserie Historien om Sverige zu senden. In zehn Episoden werden Ereignisse und Menschen dargestellt, die Schweden verändert haben, von der Eiszeit bis heute. Die Serie ist über SVT Play streambar.
Ausblick
Ab Herbst 2024 werden Archivdokumente der Kungliga Vitterhetsakademien und des Riksantikvarieämbetets, welchedie Geschichte der beiden Institutionen vom frühen 17. bis zum späten 19. Jahrhundert wiederspiegeln, digitalisiert und sollen ab 2026 im Portal Manuscripta der Nationalbibliothek veröffentlicht werden.
]]>Von Sven M. Kraus, Ingrid M. Heiene, Balduin Landolt, Elisabeth Magin
Die vorliegende Reihe von Blogposts ist das Ergebnis eines Workshops »Advancing Digital Humanities in Old Norse Studies« , der vom 03. bis 05. Juli 2019 am Nordeuropa-Institut der Humboldt-Universität zu Berlin stattfand. Organisiert von Sven Kraus wurde der Workshop großzügig gefördert von der derzeitigen Inhaberin der Henrik-Steffens-Gastprofessur, Prof. Dr. Marie-Theres Federhofer.
Anlass des Workshops war das Bedürfnis, sich für das Aufgleisen eigener Projekte mit anderen Forschenden austauschen zu können. An dem Workshop nahmen fünf Nachwuchsforschende (Sven M. Kraus, Ingrid M. Heiene, Balduin Landolt, Elisabeth Magin und Jade J. Sandstedt) mit Projekten aus den Fachbereichen Runologie/Archäologie, diachrone generative Syntaxforschung, korpusbasierte historische Phonologie, stilometrische Handschriftenkunde und mittelalterliche Kulturgeschichte teil. Im Laufe der drei Workshoptage wurden methodologische Probleme innerhalb und außerhalb der eigenen Projekte identifiziert und hierfür Lösungsansätze entwickelt.
Ziel der vorliegenden Blogpostreihe »Digital Humanities« mit ihren fünf Beiträgen zu Fachdisziplinen, Methodenbewusstsein, Transparenz, Nachhaltigkeit und Best practices ist es, diese Lösungsvorschläge zu sammeln und damit best practices für die Arbeit mit digitalen Werkzeugen und Methoden in den Geisteswissenschaften vorzuschlagen. Diese sollen es anderen Wissenschaftler_innen erleichtern, künftige Forschungsprojekte von Anfang an methodisch stringent zu konzipieren.
Hier sind die best practices als Quintessenz der vorherigen Beiträge zu finden.
Unsere Vorschläge für best practices entspringen den drei Prinzipien, die in dieser Blogpostreihe behandelt wurden: Erstens, dass Methoden und theoretische Werkzeuge wie Begriffe und Definitionen wohlüberlegt und wohlbegründet sind und klar und konsequent benutzt werden; zweitens, dass man in der Darstellung immer Überprüfbarkeit und Transparenz sichert; drittens, dass man die Nachhaltigkeit und die weitere Nutzbarkeit der Daten ermöglicht.
FRAGE NACH DER FRAGE Man sollte sich stets im Klaren darüber sein, dass jede Repräsentation von augenscheinlich objektiven Daten eine Art Interpretation ist und dass einer Interpretation immer theoretische Voraussetzungen zugrunde liegen; das heißt, eine objektiv scheinende Darstellung ist immer eine Antwort auf eine (vielleicht nicht ausgesprochene) Frage. So weit wie möglich sollte sichtbar gemacht werden, welche Frage dies ist.
(1) Abwägung der Möglichkeiten und Grenzen der Technologie
Man soll sich die Vor- und Nachteile der Technologien für die gewählte Fragestellung bewusst machen. Die Anforderungen der Fragestellung müssen die Wahl der technologischen Lösungen und Werkzeuge steuern, um sicherzustellen, dass eine adäquate Methode verwendet wird.
(2) Klare Definition von Begriffen und Methoden
Dass man seine Begriffe klar definieren sowie seine Vorgangsweise/Methode klar vorlegen und begründen muss, gilt auch, wenn die Methode digitale Werkzeuge involviert. Vor allem vor dem Hintergrund der Reproduzierbarkeit und der Überprüfbarkeit der Ergebnisse ist dies unbedingt erforderlich.
(3) Interne Konsequenz, logischer und salienter Aufbau
Gerade weil die große Stärke von digitalen Ressourcen darin besteht, dass das Material durchsuchbar ist, ist es wichtig, dass die benutzten Begriffe und Kategorien konsequent angewendet werden und gut definiert sind. Hierbei ist auch das Verhältnis zwischen Begriffen und Kategorien zu reflektieren.
(4) Verfügbarkeit von Primärquellen gewährleisten
Selbst eine Zeichnung oder ein Faksimilie ist eine Interpretation der Grunddaten. Nach Möglichkeit ist die einfache Zugänglichkeit der Primärquelle in Form von Digitalisaten sicherzustellen.
(5) Unterscheidung zwischen abstrakten und konkreten Entitäten
Im Begriffsapparat muss klar definiert werden, welche Entitäten konkret sind (geschriebene Wörter, die mit einem Leerzeichen getrennt sind; die Länge eines Gegenstandes in cm gemessen) und welche abstrakt sind (prosodische Wörter, die man aus einem geschriebenen Text herausliest; Beurteilung von metrischer Länge). Das Verhältnis der analytischen Ebenen zueinander sowie die Rohdaten der jeweiligen Ebenen müssen transparent und zugänglich sein.
(6) Ambiguitäten abbilden
Die Geisteswissenschaften beschäftigen sich häufig mit Mehrdeutigkeit. Digitale Systeme fordern dagegen prinzipiell Eindeutigkeit der Daten. Diese ist problematisch, da hierdurch eine Illusion objektiver Eindeutigkeit erzeugt wird. Die Ambiguität der Primärquellen sollte in digitalen Darstellungen nicht verloren gehen.
(7) Sichtbarmachen von bekannten Unbekannten
Der digitale Verlust — die Dinge, die nicht erfasst sind oder nicht erfasst werden können — soll, wenn es nicht vermieden werden kann, sichtbar gemacht werden. Dazu gehören auch bekannte Desiderata und Leerstellen.
(8) Zugänglichkeit
Forschungsdaten sollten nach Möglichkeit immer öffentlich gemacht werden.
(9) Institutionelle Sicherheit/Langzeitarchivierung
Im Sinne der Nachhaltigkeit der Daten sollte deren langfristige Nutzbarkeit bereits in den Anfangsphasen der Planung berücksichtigt werden. Daten und Datenbestände sollten nicht von einzelnen Stellen oder Personen abhängig sein.
(10) Referenz- und Zitierbarkeit sicherstellen
Um die Weiternutzung der Forschungsdaten zu gewährleisten, muss ihre Zitierfähigkeit und Referenzierbarkeit sichergestellt werden. Dies schließt auch die Offenlegung und Überprüfbarkeit der Forschungsdaten selbst mit ein.
(11) Werkzeug- und Plattformunabhängigkeit
Die Übertragbarkeit der Daten in andere Dateiformate ist vor diesem Hintergrund unabdinglich. Es sollte daher sichergestellt werden, dass allgemein gängige Dateiformate wenigstens als Export verfügbar sind.
Teil 1: Wissenschaftliche Prinzipien in den Digital Humanities: Digital Humanities und die Fachdisziplinen
Teil 2: Wissenschaftliche Prinzipien in den Digital Humanities: Methodenbewusstsein
Teil 3: Wissenschaftliche Prinzipien in den Digital Humanities: Transparenz in den Digital Humanities
Teil 4: Wissenschaftliche Prinzipien in den Digital Humanities: Nachhaltigkeit in den Digital Humanities
Teil 5: Wissenschaftliche Prinzipien in den Digital Humanities: Best practices
Elisabeth Maria Magin, PhD war bis 2021 Doktorandin an der University of Nottingham mit Anbindung an der Universität Bergen, wo die Runeninschriften gelagert sind, welche die Grundlage für ihre runologische Datenbank bilden. In ihrer Doktorarbeit hat sie untersucht, wie SQL-basierte Datenbanken dazu genutzt werden können, größere Korpora von Runeninschriften im Hinblick auf die soziale Identität der Runenritzer zu analysieren.
Ingrid M. F. Heiene ist Doktorandin an der NTNU – Technisch-Naturwissenschaftliche Universität Norwegens, und untersucht Entwicklungen in Nominalphrasensyntax, Kasusmorphologie und Bestimmtheitsmorphologie in mittelnorwegischen Diplomen aus einem generativen Standpunkt.
Balduin Landolt studierte in Basel und Reykjavik Skandinavistik und Germanistik, derzeit plant er ein Doktorat zur digitalen Erschließung komplexer handschriftlicher Textüberlieferungen. Daneben arbeitet er als Software Developer beim Data and Service Center for the Humanities (DaSCH) in Basel.
Sven Kraus studierte Skandinavistik und European Studies an der Humboldt-Universität zu Berlin, der Universität Bergen und der Europa-Universität Viadrina Frankfurt (Oder). Seit September 2019 promoviert er in Basel zu Übersetzung und Kulturtransfer im Nordwesteuropa des 13. Jahrhunderts und verbindet dabei philologische Betrachtungsweisen mit experimentellen Ansätzen der Digital Humanities.
]]>Von Sven M. Kraus, Ingrid M. Heiene, Balduin Landolt, Elisabeth Magin
Die vorliegende Reihe von Blogposts ist das Ergebnis eines Workshops »Advancing Digital Humanities in Old Norse Studies«, der vom 03. bis 05. Juli 2019 am Nordeuropa-Institut der Humboldt-Universität zu Berlin stattfand. Organisiert von Sven Kraus wurde der Workshop großzügig gefördert von der derzeitigen Inhaberin der Henrik-Steffens-Gastprofessur, Prof. Dr. Marie-Theres Federhofer.
Anlass des Workshops war das Bedürfnis, sich für das Aufgleisen eigener Projekte mit anderen Forschenden austauschen zu können. An dem Workshop nahmen fünf Nachwuchsforschende (Sven M. Kraus, Ingrid M. Heiene, Balduin Landolt, Elisabeth Magin und Jade J. Sandstedt) mit Projekten aus den Fachbereichen Runologie/Archäologie, diachrone generative Syntaxforschung, korpusbasierte historische Phonologie, stilometrische Handschriftenkunde und mittelalterliche Kulturgeschichte teil. Im Laufe der drei Workshoptage wurden methodologische Probleme innerhalb und außerhalb der eigenen Projekte identifiziert und hierfür Lösungsansätze entwickelt.
Ziel der vorliegenden Blogpostreihe »Digital Humanities« mit ihren fünf Beiträgen zu Fachdisziplinen, Methodenbewusstsein, Transparenz, Nachhaltigkeit und Best practices ist es, diese Lösungsvorschläge zu sammeln und damit best practices für die Arbeit mit digitalen Werkzeugen und Methoden in den Geisteswissenschaften vorzuschlagen. Diese sollen es anderen Wissenschaftler_innen erleichtern, künftige Forschungsprojekte von Anfang an methodisch stringent zu konzipieren.
Wir fordern einen kritisch-reflektierenden Umgang mit den Werkzeugen und Methoden der Digital Humanities, denn auch für diese gelten die Grundsätze der Wissenschaftlichkeit. Daher haben wir zwölf Prinzipien zusammengestellt, die unserer Meinung nach die Wahrung wissenschaftlicher Grundsätze in den Digital Humanities sicherstellen und eine angemessen kritische Auseinandersetzung ermöglichen. Diese verstehen wir nicht als vollständiges Kompendium, sondern vielmehr als Vorschlag und Debattenbeitrag in der derzeit stattfindenden Etablierung der Digital Humanities in den bestehenden Fachkulturen. In den Posts dieser Reihe (verlinkte Titel für die Teile 1,3, 4 5. Einfügen) sind diese Prinzipien inklusive Begründung aufgeführt. In knapp zusammengefasster Form sind sie noch einmal unter »Best practices « zu finden.
Nachvollziehbarkeit von Schlussfolgerungen und Reproduzierbarkeit von Resultaten ist in allen Wissenschaften grundlegend. Um die Reproduzierbarkeit einer Studie zu ermöglichen, ist es notwendig, die Forschungsdaten zugänglich zu machen. Dies wirft die Frage auf, wie, wo und in welcher Form die Daten sinnvollerweise publiziert werden. Entscheidend ist, dass dies von Anfang an nachhaltig angelegt ist, im Sinne der sustainability wie auch der reusability. Langfristige Verwendbarkeit der Daten muss hierbei die Prämisse sein. Allerdings reicht für eine nachhaltige Anlage von Daten die reine Speicherung nicht aus, sie müssen auch weiterhin abrufbar und interpretierbar sein. Die Daten im Hintergrund nützen wenig, solange keine Schnittstelle existiert, über die sie verfügbar sind.
SPEICHERUNG UND REUSABILITY VON ANFANG AN MITDENKEN In erster Linie ist es zentral, während der Laufzeit des Projektes selbst Zugriff auf und Kontrolle über die Daten zu haben. Die Langzeitarchivierung und der Fortbestand der Daten können aber besser garantiert werden, wenn der Unterhalt in institutioneller Hand ist. Hier können etwa Universitätsbibliotheken oder universitäre Datenzentren entsprechende Infrastruktur bieten. Bei öffentlich finanzierten Projekten ist open data inzwischen meist ohnehin eine Auflage, ebenso wie das Entwerfen eines Datenmanagementplans vor Projektbeginn. Dies sollte als Chance verstanden werden, von Anfang an über die in den beiden vorhergehenden Blogposts (Methodenbewusstsein, Transparenz) besprochenen Anforderungen wie auch den Weiterbestand der Daten nach Projektende nachzudenken, da beides oft Hand in Hand geht. Ein einmal gewähltes Datenmodell umzustrukturieren, um es besser für andere zugänglich zu machen, ist oft sehr arbeitsintensiv und kaum praktikabel.
Die Struktur und Form der Daten muss natürlich in erster Linie dem eigenen Projekt entsprechend sinnvoll sein. Im Sinne der Wiederverwertbarkeit der Daten sollte aber angestrebt werden, sich an gängigen Standards zu orientieren und ein möglichst flexibles Datensystem zu wählen. Dieses sollte es idealerweise ermöglichen, nicht nur die eigene Forschungsfrage zu beantworten, sondern auch für andere Fragestellungen nutzbar sein. Eingehende Dokumentation ermöglicht anderen Forschenden eine fundierte Entscheidung, ob Daten und Datenstruktur für ihre Forschung verwertbar sind, dies schließt Metadaten mit ein; für Interoperabilität mit anderen Systemen ist sie unumgänglich.
STANDARDS FÜR ZITIERBARKEIT Wenn die Datensammlung nach der Veröffentlichung noch Veränderungen unterliegt, muss auf jeden Fall eine Form der Versionierung implementiert werden, einerseits zur Qualitätssicherung, andererseits um die Referenzierung und Zitation auch älterer Versionen zu ermöglichen. Die verschiedenen Versionen des Datensatzes, idealerweise sogar die Versionen jedes Datenpunktes, müssen über PIDs (Persistent Identifiers) eindeutig referenzierbar sein. Deshalb sollte bei der Organisation und Ablage von Daten so weit wie möglich auf etablierte Strukturen zurückgegriffen werden: Hier wäre etwa an Zusammenschlüsse wie DARIAH oder RDA ebenso zu denken wie an das Forschungsdatenmanagement der eigenen Hochschule. Um solche Infrastrukturen nicht neu aufbauen zu müssen, lohnt sich der Rückgriff auf etablierte Systeme; so können Daten beispielsweise in einem öffentlichen Git-Repositorium – z.B. auf GitHub – einfach geteilt, versioniert und referenziert werden.
VERWALTUNG Handelt es sich bei den Daten hingegen etwa um ein Korpus, das auch nach Abschluss des eigenen Projekts – etwa von anderen Forschenden oder Institutionen – weiter angereichert werden soll, muss geklärt werden, wer die Daten weiter verwaltet und kuratiert. Anderen Forschenden direkten Schreibzugriff zu gewähren, kann aus Qualitätssicherungsgründen problematisch sein, da nicht garantiert werden kann, dass diese mit der Struktur und Aufbereitung der Daten ausreichend vertraut sind. Die Daten selbst zu kuratieren kann eine langfristige Verpflichtung darstellen und viel Arbeitsaufwand zur Folge haben. Bei institutioneller Anbindung ist fraglich, ob die Institution die Kompetenzen und Ressourcen hat, die Daten zu kuratieren. Auch hier sollte jedoch die Zusammenarbeit mit den Institutionen im Vordergrund stehen, um eine bessere Sichtbarkeit der Forschungsdaten zu gewährleisten. Dies beinhaltet auch, nicht frei zur Verfügung stehende Daten an geeigneter Stelle bekannt zu machen.
LESBARKEIT Ferner ist eine plattform- und softwareunabhängige Form und Präsentation der Daten anzustreben. Idealerweise bietet ein System eine menschenlesbare Web-Oberfläche, einen Export in standardisierten Datenformaten (z.B. TEI XML, csv, txt) und eine API (Application Programming Interface)für direkten programmatischen Zugriff auf die Daten.
Die nachhaltigste Möglichkeit, eine langfristige Verfügbarkeit von Projektdaten inklusive des Codes sicherzustellen, ist, diese von vornherein unter einer Open-Source-Lizenz, wie bswp. Creative Commons, zu veröffentlichen. Dadurch wird die Funktionsweise nachvollziehbar und eine Weiterentwicklung durch Dritte möglich. Eine solche kontinuierliche Nutzung, Adaption und Weiterentwicklung ist der beste Garant für eine langfristige Nutzbarkeit und Verfügbarkeit und sollte daher unbedingt angestrebt werden.
PROBLEME UND MÖGLICHKEITEN GROSSER KORPORA Ein Trend, der in den Digital Humanities zu beobachten ist und dem auch wir uns nicht entziehen können, ist das Streben nach immer größeren Datensätzen. Häufig werden Fragestellungen so konzipiert, dass sie nur mittels enormer Datensätze zu beantworten sind. Hierin verbergen sich zwei Herausforderungen. Zum einen ist es sehr zeit- und arbeitsaufwändig, qualitativ hochwertige Forschungsdaten zu erzeugen. Zum anderen entstehen so immer wieder Korpora, die angelegt wurden, um ein ganzes Feld abzubilden, jedoch uneinheitliche Nomenklaturen verwenden, auch wenn sie sich zum Teil an dieselben Standards halten.
Was bisher fehlt, ist ein eindeutiger Standard für Nomenklaturen, welcher universell anwendbar und verständlich ist. Man denke hierbei an die Werkverzeichnisse, wie sie aus den Musikwissenschaften bekannt sind. Hier wurde ein eindeutiger Standard geschaffen, der umfassend verbreitet ist. Ein ähnlicher Standard, der eine eindeutige Identifikation einzelner Artefakte und Referenzen darauf ermöglicht, fehlt derzeit nicht nur für die Projekte der beteiligten Autor_innen, sondern unserer Meinung nach auch in weiten Teilen der jeweiligen Forschungsfelder.
Hierbei kommt den universitären Institutionen, bspw. den Universitätsbibliotheken, eine tragende Rolle zu. Solche Institutionen verfügen über die Expertise und Infrastruktur, Standards mit zu entwickeln und zu verwalten. Es sollte unserer Meinung nach insbesondere die Zusammenarbeit zwischen einzelnen Fachmilieus, Projekten und den Universitätsbibliotheken intensiviert werden, um sicherzustellen, dass Projektdaten der Geisteswissenschaften langfristig verfügbar bleiben. Im Laufe dieses Prozesses hätten die Bibliotheken die Möglichkeit, auf die Ausformung der Forschungsdaten in der Gestalt einzuwirken, dass eine möglichst universell verwendbare Nomenklatur eingehalten wird.
Einige Bibliotheken und Universitäten haben hier bereits Strukturen etabliert, andere müssen sie erst noch aufbauen. Wir jedenfalls sind der Meinung, dass es maßgeblich von der Zusammenarbeit mit den Bibliotheken in Fragen der Standardisierung und Langzeitverfügbarkeit abhängt, ob das Experiment Digital Humanities zukunftsfähig ist.
Teil 1: Wissenschaftliche Prinzipien in den Digital Humanities: Digital Humanities und die Fachdisziplinen
Teil 2: Wissenschaftliche Prinzipien in den Digital Humanities: Methodenbewusstsein
Teil 3: Wissenschaftliche Prinzipien in den Digital Humanities: Transparenz in den Digital Humanities
Teil 4: Wissenschaftliche Prinzipien in den Digital Humanities: Nachhaltigkeit in den Digital Humanities
Teil 5: Wissenschaftliche Prinzipien in den Digital Humanities: Best practices
Elisabeth Maria Magin, PhD war bis 2021 Doktorandin an der University of Nottingham mit Anbindung an der Universität Bergen, wo die Runeninschriften gelagert sind, welche die Grundlage für ihre runologische Datenbank bilden. In ihrer Doktorarbeit hat sie untersucht, wie SQL-basierte Datenbanken dazu genutzt werden können, größere Korpora von Runeninschriften im Hinblick auf die soziale Identität der Runenritzer zu analysieren.
Ingrid M. F. Heiene ist Doktorandin an der NTNU – Technisch-Naturwissenschaftliche Universität Norwegens, und untersucht Entwicklungen in Nominalphrasensyntax, Kasusmorphologie und Bestimmtheitsmorphologie in mittelnorwegischen Diplomen aus einem generativen Standpunkt.
Balduin Landolt studierte in Basel und Reykjavik Skandinavistik und Germanistik, derzeit plant er ein Doktorat zur digitalen Erschließung komplexer handschriftlicher Textüberlieferungen. Daneben arbeitet er als Software Developer beim Data and Service Center for the Humanities (DaSCH) in Basel.
Sven Kraus studierte Skandinavistik und European Studies an der Humboldt-Universität zu Berlin, der Universität Bergen und der Europa-Universität Viadrina Frankfurt (Oder). Seit September 2019 promoviert er in Basel zu Übersetzung und Kulturtransfer im Nordwesteuropa des 13. Jahrhunderts und verbindet dabei philologische Betrachtungsweisen mit experimentellen Ansätzen der Digital Humanities.
]]>Von Sven M. Kraus, Ingrid M. Heiene, Balduin Landolt, Elisabeth Magin
Die vorliegende Reihe von Blogposts ist das Ergebnis eines Workshops »Advancing Digital Humanities in Old Norse Studies« , der vom 03. bis 05. Juli 2019 am Nordeuropa-Institut der Humboldt-Universität zu Berlin stattfand. Organisiert von Sven Kraus wurde der Workshop großzügig gefördert von der derzeitigen Inhaberin der Henrik-Steffens-Gastprofessur, Prof. Dr. Marie-Theres Federhofer.
Anlass des Workshops war das Bedürfnis, sich für das Aufgleisen eigener Projekte mit anderen Forschenden austauschen zu können. An dem Workshop nahmen fünf Nachwuchsforschende (Sven M. Kraus, Ingrid M. Heiene, Balduin Landolt, Elisabeth Magin und Jade J. Sandstedt) mit Projekten aus den Fachbereichen Runologie/Archäologie, diachrone generative Syntaxforschung, korpusbasierte historische Phonologie, stilometrische Handschriftenkunde und mittelalterliche Kulturgeschichte teil. Im Laufe der drei Workshoptage wurden methodologische Probleme innerhalb und außerhalb der eigenen Projekte identifiziert und hierfür Lösungsansätze entwickelt.
Ziel der vorliegenden Blogpostreihe »Digital Humanities« mit ihren fünf Beiträgen zu Fachdisziplinen, Methodenbewusstsein, Transparenz, Nachhaltigkeit und Best practices ist es, diese Lösungsvorschläge zu sammeln und damit best practices für die Arbeit mit digitalen Werkzeugen und Methoden in den Geisteswissenschaften vorzuschlagen. Diese sollen es anderen Wissenschaftler_innen erleichtern, künftige Forschungsprojekte von Anfang an methodisch stringent zu konzipieren.
Wie in den zwei vorgehenden Teilen dieser Blogpostreihe unterstrichen worden ist, ist Ambiguität ein essenzieller Bestandteil geisteswissenschaftlicher Forschung und oft Ausgangspunkt der Fragestellung. Eine Zeichensequenz aus einem Manuskript kann oft auf verschiedene Weisen normalisiert, oder eine Abkürzung in mehrere unterschiedliche Wörter aufgelöst werden. Eine Möglichkeit, mit dieser Ambiguität umzugehen, setzt eine vorhergehende Analyse der konkreten Stelle voraus, mit einer abschließenden Entscheidung, welcher Deutung man sich selbst als Forschende anschließt. Dieser Prozess ist jedoch sehr zeitaufwendig und hat einen weiteren Nachteil, da das fertige Produkt, die Datensammlung, suggerieren kann, die darin enthaltene Auflösung sei die einzig mögliche. Auf diese Art und Weise wird eine Objektivität vorgetäuscht, die so nicht existiert.
MEHRDEUTIGKEITSVERLUST VERMEIDEN Solches Vorgehen verunmöglicht die Untersuchung von Mehrdeutigkeiten. Dass dies nicht schon lange weitgehend problematisiert worden ist, mag daher rühren, dass systematische Datensammlungen zuerst in den Naturwissenschaften weite Verbreitung fanden, wo die Eindeutigkeit von Daten den Normalfall darstellt. Diese Herangehensweise an Daten und deren Dimensionen ist für die Geisteswissenschaften allerdings nicht immer zielführend und Eindeutigkeit nicht immer überhaupt wünschenswert: Alle unsere Daten sind naturgemäß von einem gewissen Grad an Subjektivität geprägt, der ihnen auch dann zu eigen bleibt, wenn sie in eine Datensammlung eingehen. Dies sehen wir keineswegs als Nachteil, ganz im Gegenteil, solange dies von Beginn an klargestellt wird.
Linguistik, Literaturwissenschaft, Runologie und Archäologie sind Disziplinen, in denen verschiedene mögliche Interpretationen von immenser Bedeutung für die wissenschaftliche Auseinandersetzung mit Artefakten sind, von unterschiedlichen Klassifizierungen gar nicht zu reden. Wir sind der Meinung, dass es daher wissenschaftlich nicht nur vertretbar, sondern sogar notwendig ist, diese unterschiedlichen Interpretationen auch in Datensammlungen abzubilden.
Eine solche Vorgehensweise verlangt selbstverständlich eine andere Art von technischer Umsetzung als die Beschränkung auf eine einzige Interpretation. Noch wichtiger verlangt sie eine klare Vorstellung von der Art der Daten, mit denen man arbeitet. Es muss ein explizites Bewusstsein dafür vorhanden sein, dass alle Daten in der Sammlung Interpretationen sind, was auch dementsprechend dokumentiert werden muss. Dies ist technologisch beispielsweise dadurch machbar, dass in der Datenstruktur selbst Raum nicht nur für konkurrierende Deutungen, sondern auch Literaturangaben reserviert wird. Dieser Vorgang, wie auch der Einbezug von unterschiedlichen Deutungen, entspricht traditioneller geisteswissenschaftlicher Vorgehensweise. Wir sehen keinen Grund, weshalb man dieser Tradition nicht auch in Bezug auf Datensammlungen treu bleiben kann. Eine künstlich verknappte Datensammlung ist nur von beschränktem Mehrwert.
NACHVOLLZIEHBARKEIT Transparenz und Nachvollziehbarkeit von Schlussfolgerungen sind für jede Art von wissenschaftlicher Arbeit zwingend und erforderlich und in allen Disziplinen Standard. Es sollte daher offensichtlich sein, warum Quellenangaben für Primärquellen und verschiedene Interpretationen auch in eine Datensammlung, ob als SQL-Datenbank oder XML-Datei, gehören. Wenn digitale Werkzeuge verwendet werden, muss jedoch zusätzlich auch die Methode der Datensammlung und -strukturierung dokumentiert werden. Für andere Forschende muss klar nachvollziehbar und verständlich sein, wie Datenaufnahme und -modellierung gehandhabt wurden. Weiterhin muss klar definiert sein, welche Art von Daten unter welchen Begriffen zusammengefasst worden ist und wie diese Begriffe definiert worden sind. Ebenso müssen sämtliche Änderungen am Datenmodell dokumentiert werden, vor allem wenn diese tiefgreifenden Veränderungen des bisherigen Modells darstellen, beispielsweise indem Versionsnummern vergeben werden.
Nicht zuletzt sollte auch die Wahl des Werkzeugs auf fachlicher Ebene begründbar sein. Um bei dem in den vorgehenden Posts genannten Beispiel zu bleiben: SQL und XML sind beide als Werkzeuge legitim (für eine Einführung in XML s. »Introduction to XML« in Digital Humanities Workbench: https://www2.fgw.vu.nl/werkbanken/dighum/tools/xml/xml-introduction.php (Stand: 16.08.2021). Für eine Einführung in SQL s. Ramsay, 2004: http://digitalhumanities.org:3030/companion/view?docId=blackwell/9781405103213/9781405103213.xml&chunk.id=ss1-3-3&toc.id=0&brand=9781405103213_brand (Stand: 16.08.2021)). Sie unterscheiden sich aber grundlegend in ihrer Funktionsweise. Die Entscheidung, das eine Werkzeug dem anderen vorzuziehen, sollte nicht auf der Basis getroffen werden, womit man vertrauter ist, sondern welches Werkzeug die entsprechenden Funktionen bietet, um die Forschungsfrage beantworten zu können. So sind beispielsweise für Forschungsfragen, die einen hohen Anteil statistischer Berechnungen erfordern, SQL-Datenbanken weit besser geeignet, während XML sehr viel mehr Freiheiten in Bezug auf Datenstrukturen bietet. Diesbezügliche Überlegungen mit Hinblick auf die Forschungsfrage ebenso offenzulegen wie die Primär- und Sekundärquellen, sollte allgemeiner Standard sein. Nur auf diese Art und Weise kann gewährleistet werden, dass man der Art der Daten und der Forschungsfrage gerecht wird, während die gründliche Dokumentation (in naturwissenschaftlichen Fächern bereits Standard) anderen Forschern sowohl ermöglicht, die Ergebnisse zu reproduzieren, als auch, mit den Daten weitere Forschung zu betreiben. Hierbei sollten Open Source und Open Access der Maßstab sein: Nicht nur die Daten, sondern auch der Code sollten einsehbar sein, da es sich auch dabei um einen Teil der Forschung handelt.
Die Möglichkeit, Ergebnisse zu reproduzieren (oder Interpretationen über eine Argumentationskette nachzuvollziehen), ist eine der wichtigsten Voraussetzungen für wissenschaftliches Arbeiten, und die Dokumentation von Methode, Vorgehensweise und konkreter Umsetzung auch von technischen Werkzeugen wie Datenbanken ist daher wichtig. Doch für vollständige Transparenz sollten auch die Daten selbst nach Abschluss einer wissenschaftlichen Arbeit zugänglich gemacht werden. Wie dies bewerkstelligt werden kann, wird im nächsten Teil (4) besprochen.
Teil 1: Wissenschaftliche Prinzipien in den Digital Humanities: Digital Humanities und die Fachdisziplinen
Teil 2: Wissenschaftliche Prinzipien in den Digital Humanities: Methodenbewusstsein
Teil 3: Wissenschaftliche Prinzipien in den Digital Humanities: Transparenz in den Digital Humanities
Teil 4: Wissenschaftliche Prinzipien in den Digital Humanities: Nachhaltigkeit in den Digital Humanities
Teil 5: Wissenschaftliche Prinzipien in den Digital Humanities: Best practices
Elisabeth Maria Magin, PhD war bis 2021 Doktorandin an der University of Nottingham mit Anbindung an der Universität Bergen, wo die Runeninschriften gelagert sind, welche die Grundlage für ihre runologische Datenbank bilden. In ihrer Doktorarbeit hat sie untersucht, wie SQL-basierte Datenbanken dazu genutzt werden können, größere Korpora von Runeninschriften im Hinblick auf die soziale Identität der Runenritzer zu analysieren.
Ingrid M. F. Heiene ist Doktorandin an der NTNU – Technisch-Naturwissenschaftliche Universität Norwegens, und untersucht Entwicklungen in Nominalphrasensyntax, Kasusmorphologie und Bestimmtheitsmorphologie in mittelnorwegischen Diplomen aus einem generativen Standpunkt.
Balduin Landolt studierte in Basel und Reykjavik Skandinavistik und Germanistik, derzeit plant er ein Doktorat zur digitalen Erschließung komplexer handschriftlicher Textüberlieferungen. Daneben arbeitet er als Software Developer beim Data and Service Center for the Humanities (DaSCH) in Basel.
Sven Kraus studierte Skandinavistik und European Studies an der Humboldt-Universität zu Berlin, der Universität Bergen und der Europa-Universität Viadrina Frankfurt (Oder). Seit September 2019 promoviert er in Basel zu Übersetzung und Kulturtransfer im Nordwesteuropa des 13. Jahrhunderts und verbindet dabei philologische Betrachtungsweisen mit experimentellen Ansätzen der Digital Humanities.
]]>Von Sven M. Kraus, Ingrid M. Heiene, Balduin Landolt, Elisabeth Magin
Die vorliegende Reihe von Blogposts ist das Ergebnis eines Workshops »Advancing Digital Humanities in Old Norse Studies« , der vom 03. bis 05. Juli 2019 am Nordeuropa-Institut der Humboldt-Universität zu Berlin stattfand. Organisiert von Sven Kraus wurde der Workshop großzügig gefördert von der derzeitigen Inhaberin der Henrik-Steffens-Gastprofessur, Prof. Dr. Marie-Theres Federhofer.
Anlass des Workshops war das Bedürfnis, sich für das Aufgleisen eigener Projekte mit anderen Forschenden austauschen zu können. An dem Workshop nahmen fünf Nachwuchsforschende (Sven M. Kraus, Ingrid M. Heiene, Balduin Landolt, Elisabeth Magin und Jade J. Sandstedt) mit Projekten aus den Fachbereichen Runologie/Archäologie, diachrone generative Syntaxforschung, korpusbasierte historische Phonologie, stilometrische Handschriftenkunde und mittelalterliche Kulturgeschichte teil. Im Laufe der drei Workshoptage wurden methodologische Probleme innerhalb und außerhalb der eigenen Projekte identifiziert und hierfür Lösungsansätze entwickelt.
Ziel der vorliegenden Blogpostreihe »Digital Humanities« mit ihren fünf Beiträgen zu Fachdisziplinen, Methodenbewusstsein, Transparenz, Nachhaltigkeit und Best practices ist es, diese Lösungsvorschläge zu sammeln und damit best practices für die Arbeit mit digitalen Werkzeugen und Methoden in den Geisteswissenschaften vorzuschlagen. Diese sollen es anderen Wissenschaftler_innen erleichtern, künftige Forschungsprojekte von Anfang an methodisch stringent zu konzipieren.
Am Anfang einer jeden Studie steht eine Forschungsfrage und eine daran angeschlossene methodologische Vorüberlegung. In unserer Erfahrung haben wir jedoch festgestellt, dass die grundlegende Reflexion der Wahl der Methode und deren Wechselwirkung mit der Forschungsfrage sowie deren Eignung in den Digital Humanities einer gewissen Schwankungsbreite unterliegt. Es fehlt an manchen Stellen ein Bewusstsein dafür, dass die Digital Humanities kein methodenfreier Raum sind. So werden häufig digitale Werkzeuge und Methoden herangezogen, bevor deren Nutzen im konkreten Fall bewertet wurde.
DIGITAL ≠ BESSER Der Einsatz digitaler Mittel alleine schafft keinen Mehrwert in sich, daher ist dieser in die herkömmliche Methodenüberlegung einzubeziehen. Hierbei sollte vor allem die Frage gestellt werden: Arbeitet man um der Daten willen oder lässt man die Daten für sich arbeiten? Es sollte sichergestellt sein, dass der Einsatz von Datenbanken, Annotationen oder digitalen Corpora letztendlich nicht zu einem vermeidbaren Mehraufwand ohne nennenswerten Erkenntnisgewinn führt.
DAS RICHTIGE WERKZEUG FÜR DIE AUFGABE Es ist ebenso in die methodische Reflexion einzubeziehen, welche Technologien zur Verfügung stehen und welche Vor- und Nachteile diese mit sich bringen. Während in der Editionsphilologie bspw. Annotationen und Publikationen in XML ein anerkannter Standard sind, gibt es andere Herangehensweisen wie z.B. SQL-Datenbanken, die für andere Fragestellungen besser geeignet sind. Vor allem zur Darstellung komplexer Strukturen, Beziehungsgeflechte und Netzwerke sind solche Datenbanken u.U. besser geeignet als XML.
Die Wahl der richtigen Technologie ist nicht unerheblich. Um im Beispiel zu bleiben: XML und SQL repräsentieren gänzlich unterschiedliche Herangehensweisen an die Modellierung und Strukturierung von Daten. Für Forschungsfragen, die einen hohen Anteil statistischer Berechnungen erfordern, sind SQL-Datenbanken weit besser geeignet, während XML sehr viel mehr Freiheiten in Bezug auf Datenstrukturen bietet. Dies führt letztlich zu unterschiedlichen konzeptuellen Darstellungen des Forschungsgegenstandes und hat damit direkte Auswirkungen auf die Forschungsfrage bzw. deren Beantwortung. Frage und Methode beeinflussen sich für gewöhnlich wechselseitig. Jedoch sollten die Grenzen einer Technologie nicht die Forschungsfrage deformieren. Die Entscheidung, das eine Werkzeug dem anderen vorzuziehen, sollte nicht auf der Basis getroffen werden, womit man vertrauter ist, sondern welches Werkzeug die entsprechenden Funktionen bietet, um die Forschungsfrage beantworten zu können. Eine Reflexion dieses Verhältnisses ist also unbedingt geboten, vor allem, weil sie nicht immer selbstverständlich scheint.
DER FORSCHUNGSGEGENSTAND VS. SEINE DIGITALE REPRÄSENTATION Auch die konkrete Strukturierung der Forschungsdaten sollte kein positivistisches Unterfangen sein und sollte ebenso kritisch betrachtet werden wie der Forschungsgegenstand selbst. Die methodisch-theoretischen Überlegungen, welche einer jeden Studie zu Grunde liegen, sind in gleicher Weise auf die Modellierung der Forschungsdaten auszudehnen und anzuwenden. Es muss also reflektiert werden, in welcher Form die Forschungsdaten den Forschungsgegenstand möglichst adäquat repräsentieren. Hierbei ist zunächst eine wichtige Unterscheidung zu machen: Es ist zwischen der abstrakten Struktur der Informationen und deren Inhalt zu trennen. Diese Trennung beinhaltet auch die konzeptionelle Trennung zwischen dem Forschungsgegenstand selbst und dessen digitaler Repräsentanz. Für eine stringente Umsetzung der Repräsentanz eines Forschungsgegenstandes ist die konsequente Anwendung und Dokumentation der Terminologie unerlässlich. Idealerweise wird auf eine etablierte und geeignete Ontologie zurückgegriffen, wie z.B. CIDOC CRM und deren Derivate. Hierbei ist der Kohärenz der digitalen Repräsentation Vorrang vor einer linearen Abbildung des Forschungsgegenstandes zu geben. Sollen beispielsweise die Wörter eines Textes erfasst und eindeutig identifiziert werden, ist zwischen den Wörtern auf der Seite und den Wörtern im Computer zu unterscheiden. Die Integrität des gewählten Modus der Zuordnung hat unbedingten Vorrang: Stellt sich so heraus, dass ein Wort in einer Transkription nicht beachtet wurde und wird dieses später hinzugefügt, darf keinesfalls die ID der umliegenden Wörter geändert werden. Vielmehr muss das nun eingeschobene Wort eine ID aus der fortlaufenden Reihe erhalten, da sonst alle Verweise auf nachfolgende Wörter nicht mehr korrekt sind und ggf. ebenfalls händisch korrigiert werden müssen. Dies ist nicht nur zeitaufwändig und fehleranfällig, es erschwert auch die Zitierbarkeit des betreffenden Corpus erheblich.
Ein praktisches Beispiel dazu aus einem der Projekte der Workshopteilnehmer_innen: Die physische Realität vieler Runeninschriften sieht so aus, dass Teile der Inschrift entweder in unterschiedliche Bestandteile z.B. einer Brosche, oder, im Falle einer Runeninschrift auf Holz oder Knochen, in eine oder mehrere Seiten des physischen Objektes geritzt worden sind. Diese physische Realität sollte in einer Datenbank abgebildet werden. Dies kann beispielsweise folgendermaßen aussehen:
Wie in der Abbildung zu sehen ist, ist jeder der vier Seiten der Inschrift (a-d, Feld tlitobside) jeweils ein eigener primary key (tlitid) zugeteilt worden. Dass es sich dabei um vier Seiten derselben Inschrift handelt, wird über den Inhalt des Feldes insid klar, das für alle vier tlitids denselben Wert anzeigt. Das Feld transliteration gibt die jeweilige Lesung der Runen auf der betreffenden Seite in lateinischen Buchstaben wieder, während das letzte Feld, tlitobside, die in der Runologie übliche Nummerierung unterschiedlicher Seiten eines physischen Objektes mit lateinischen Kleinbuchstaben beinhaltet. Auf diese Art und Weise kann, wenn in der Datenbank unterschiedliche Lesungen enthalten sind, ein direkter Vergleich angestellt werden, welcher Forscher welche Seite der Inschrift wie transliteriert hat. Wie die primary keys zeigen, sind die Seiten b bis d erst später als eigene Einträge hinzugefügt worden; ursprünglich waren alle vier Seiten unter tlit665 zusammengefasste. Dies führte zu erheblichen Problemen in der Arbeit mit der Datenbank, und es zeigte sich, dass die Abbildung der physischen Realität (eine Inschrift, vier Seiten) der ursprünglichen Struktur vorzuziehen ist. Da die Zugehörigkeit zu einer Inschrift sowie die Lesereihenfolge der vier Seiten durch die Felder insid/tlitobside angegeben wird, ist es auch irrelevant, dass die tlits nicht fortlaufend nummeriert sind.
AMBIGUITÄT IN 0 UND 1 Des Weiteren ist auf dieser Grundlage zu reflektieren, wie ein Computer mit Ambiguitäten umgeht. Da Computersysteme auf binärer Basis operieren, sind sie darauf in erster Linie nicht ausgerichtet. Es ist also Aufgabe der Geisteswissenschaften, sich die Ambiguität, welche ein elementarer Bestandteil geisteswissenschaftlichen Denkens und Arbeitens ist, zu bewahren. Ein unreflektierter Einsatz von Datenbanksystemen u.ä. läuft Gefahr, Ambiguität zu Gunsten von Strukturen zu opfern. Es ist also unerlässlich, in die Überlegungen zur Datenmodellierung mit einzubeziehen, wie sich Ambiguität abbilden, reflektieren und für das Erkenntnisinteresse nutzen lässt.
Methodenbewusstsein in den Digital Humanities erfordert, dass man sich sowohl der Begrenzungen als auch der Möglichkeiten der verschiedenen Technologien bewusst ist und dass man darüber reflektiert, wie das gewählte Werkzeug oder die gewählte Struktur auf die Forschungsfrage und ihre Beantwortung(en) einwirkt. Zur Frage, wie man mit Ambiguitäten in einem bis in seine kleinsten Bausteine eindeutigen Format umgeht, und wie man sie bewahrt – oder nicht bewahrt –, werden wir im nächsten Blogpost über Transparenz in den Digital Humanities zurückkehren.
Teil 1: Wissenschaftliche Prinzipien in den Digital Humanities: Digital Humanities und die Fachdisziplinen
Teil 2: Wissenschaftliche Prinzipien in den Digital Humanities: Methodenbewusstsein
Teil 3: Wissenschaftliche Prinzipien in den Digital Humanities: Transparenz in den Digital Humanities
Teil 4: Wissenschaftliche Prinzipien in den Digital Humanities: Nachhaltigkeit in den Digital Humanities
Teil 5: Wissenschaftliche Prinzipien in den Digital Humanities: Best practices
Elisabeth Maria Magin, PhD war bis 2021 Doktorandin an der University of Nottingham mit Anbindung an der Universität Bergen, wo die Runeninschriften gelagert sind, welche die Grundlage für ihre runologische Datenbank bilden. In ihrer Doktorarbeit hat sie untersucht, wie SQL-basierte Datenbanken dazu genutzt werden können, größere Korpora von Runeninschriften im Hinblick auf die soziale Identität der Runenritzer zu analysieren.
Ingrid M. F. Heiene ist Doktorandin an der NTNU – Technisch-Naturwissenschaftliche Universität Norwegens, und untersucht Entwicklungen in Nominalphrasensyntax, Kasusmorphologie und Bestimmtheitsmorphologie in mittelnorwegischen Diplomen aus einem generativen Standpunkt.
Balduin Landolt studierte in Basel und Reykjavik Skandinavistik und Germanistik, derzeit plant er ein Doktorat zur digitalen Erschließung komplexer handschriftlicher Textüberlieferungen. Daneben arbeitet er als Software Developer beim Data and Service Center for the Humanities (DaSCH) in Basel.
Sven Kraus studierte Skandinavistik und European Studies an der Humboldt-Universität zu Berlin, der Universität Bergen und der Europa-Universität Viadrina Frankfurt (Oder). Seit September 2019 promoviert er in Basel zu Übersetzung und Kulturtransfer im Nordwesteuropa des 13. Jahrhunderts und verbindet dabei philologische Betrachtungsweisen mit experimentellen Ansätzen der Digital Humanities.
]]>Von Sven M. Kraus, Ingrid M. Heiene, Balduin Landolt, Elisabeth Magin
Die vorliegende Reihe von Blogposts ist das Ergebnis eines Workshops »Advancing Digital Humanities in Old Norse Studies« , der vom 03. bis 05. Juli 2019 am Nordeuropa-Institut der Humboldt-Universität zu Berlin stattfand. Organisiert von Sven Kraus wurde der Workshop großzügig gefördert von der derzeitigen Inhaberin der Henrik-Steffens-Gastprofessur, Prof. Dr. Marie-Theres Federhofer.
Anlass des Workshops war das Bedürfnis, sich für das Aufgleisen eigener Projekte mit anderen Forschenden austauschen zu können. An dem Workshop nahmen fünf Nachwuchsforschende (Sven M. Kraus, Ingrid M. Heiene, Balduin Landolt, Elisabeth Magin und Jade J. Sandstedt) mit Projekten aus den Fachbereichen Runologie/Archäologie, diachrone generative Syntaxforschung, korpusbasierte historische Phonologie, stilometrische Handschriftenkunde und mittelalterliche Kulturgeschichte teil. Im Laufe der drei Workshoptage wurden methodologische Probleme innerhalb und außerhalb der eigenen Projekte identifiziert und hierfür Lösungsansätze entwickelt.
Ziel der vorliegenden Blogpostreihe »Digital Humanities« mit ihren fünf Beiträgen zu Fachdisziplinen, Methodenbewusstsein, Transparenz, Nachhaltigkeit und Best practices ist es, diese Lösungsvorschläge zu sammeln und damit best practices für die Arbeit mit digitalen Werkzeugen und Methoden in den Geisteswissenschaften vorzuschlagen. Diese sollen es anderen Wissenschaftler_innen erleichtern, künftige Forschungsprojekte von Anfang an methodisch stringent zu konzipieren.
KOMMUNIKATIONS-/VERTRAUENSMANGEL Während unseres Workshops im Juli 2019 trat deutlich zutage, dass es an Kommunikation zwischen der relativ jungen Disziplin der Digital Humanities und den älteren, etablierten Fachdisziplinen häufig noch mangelt. Gleichzeitig ist in einigen Fällen auch eine gewisse Voreingenommenheit der Fachdisziplinen gegenüber den Digital Humanities feststellbar, die häufig nur als technische Spielerei wahrgenommen werden. Beides kann wiederum zu einer unreflektierten Verwendung von Methoden und Werkzeugen der Digital Humanities führen, weil diese nicht als Werkzeuge begriffen werden. Deren Benutzung gilt es zu erlernen, wie auch der Methodenkanon der Fachdisziplin erlernt werden muss, andernfalls wird das wissenschaftliche Potenzial nicht ausgeschöpft.
Ausgehend von unseren eigenen Erfahrungen haben wir festgestellt, dass auf Seiten der Fachdisziplinen nicht selten Unsicherheit herrscht, was Digital Humanities überhaupt sind und welchen Mehrwert sie innerhalb der Forschung in der Fachdisziplin darstellen können. Hiervon nehmen wir uns selbst nicht aus. Dies kann sich in einer gewissen Skepsis bis hin zu kompletter Ablehnung den Arbeitsmethoden und Werkzeugen der Digital Humanities gegenüber ausdrücken, aber auch in einer allzu vorschnellen Adaption derselben, die in Kontrast zu den Prinzipien wissenschaftlichen Arbeitens steht. Wir vermissen hier vor allem einen kritisch-reflektierenden Umgang mit den Arbeitsmitteln der Digital Humanities. Hierzu zählt nicht zuletzt der Begriff selbst, der in den vergangenen Jahren zunehmend präsent und gleichzeitig immer schwieriger zu definieren wurde. Daher haben wir uns im Rahmen des Workshops zunächst eingehend mit der Frage befasst, was man eigentlich unter Digital Humanities versteht und wieso wir es für ein sinnvolles Begriffskonzept halten.
WAS SIND DIGITAL HUMANITIES? Der Status der Digital Humanities ist eine merkwürdige Zwischenposition zwischen Fach, Methode, Hilfswissenschaft, Querschnittsbereich und Arbeitsparadigma; gleichzeitig müssen, mit dem Aufkommen von eigenen Studiengängen, die Digital Humanities institutionell als eigenständiges Fach verstanden werden. Zu diesem Anspruch können sie allerdings kaum aufleben, da prinzipiell alle Geistes- und Sozialwissenschaften als Digital Humanities praktiziert werden können; in diesem Sinne sind sie also eher ein Arbeitsparadigma, das von den traditionellen Fächern implementiert werden kann.
HILFSWISSENSCHAFT Immer wieder werden die Digital Humanities als Hilfswissenschaft oder als Fachinformatik abgetan. Dies ist problematisch, da es den Anspruch und die Möglichkeit dieses Paradigmas verkennt, selbst Erkenntnis generieren zu können. Zugleich steht allerdings fest, dass auch Fragen etwa der Dateninfrastruktur und der Datenarchivierung, die durchaus hilfswissenschaftlicher Natur sind, in das Arbeitsfeld der Digital Humanities fallen. Gerade dieser Status ermöglicht zwar ein bisher ungekanntes Maß an Interdisziplinarität, führt aber auch bisweilen dazu, dass der teilweise etablierte, teilweise sich etablierende Methodenkanon der Digital Humanities nur unzureichend vermittelt und reflektiert wird.
MODEBEGRIFF Ferner ist Digital Humanities derzeit ein Modebegriff, der in vielen Projekten relativ unreflektiert verwendet wird. Dies birgt das Risiko, dass Tools und Methoden ebenso unreflektiert eingesetzt werden. Schließlich entstammen viele Methoden der Digital Humanities der Informatik oder anderen naturwissenschaftlichen Disziplinen, und ihre Anwendung auf geisteswissenschaftliche Daten ist noch experimentell. Besondere Beachtung sollte vor diesem Hintergrund die Tatsache finden, dass eine Anwendung digitaler Methoden auch eine Anpassung an Datenstrukturen bedeutet. (Die Frage der Datenstruktur ist derart fundamental, dass sie in dem folgenden Blogpost über Transparenz die Hauptrolle spielt).
Dieses Methodenproblem ist insofern ironisch, da diejenigen, welche die Digital Humanities schufen, ein außerordentlich hohes Methodenbewusstsein an den Tag legten. Aus diesen frühen Arbeiten hat sich eine stetig steigende Zahl zunehmend einfacher zu benutzender Tools für die Forschung entwickelt, wodurch das Bewusstsein für deren genaue Funktionsweise und die damit einhergehenden Implikationen wieder vermehrt in den Hintergrund treten (vgl. Flanders/Jannidis 2018, S. 4). Dies führt letztendlich zu einer methodologischen Schwebe unter Teilen des wissenschaftlichen Nachwuchses.
Damit etwas als Digital Humanities qualifiziert, reicht es nicht aus, dass mit digitalen Werkzeugen gearbeitet wird – jedes Textverarbeitungsprogramm ist an sich auch ein digitales Werkzeug –, vielmehr müssen digitale Methoden und Werkzeuge in einer Weise zum Einsatz kommen, die gegenüber der analogen Arbeitsweise einen Erkenntnismehrwert oder eine neue Perspektive auf das Material bietet. Der Einsatz digitaler Hilfsmittel ausschließlich zur Effizienzsteigerung kann für viele Projekte interessant sein, macht diese aber noch nicht zu Digital Humanities-Projekten.
Wo die Digital Humanities anfangen und wo sie aufhören, kann und soll an dieser Stelle nicht abschließend beantwortet werden. Wir sind uns jedoch einig, dass es sich um einen Paradigmenwechsel des Denkens und Arbeitens in den Geisteswissenschaften handelt, deren volle Tragweite noch nicht endgültig bestimmt ist.
HERAUSFORDERUNG FÜR NACHWUCHSFORSCHENDE Das nötige Methodenbewusstsein sowie ein umfangreicheres Wissen um die eingesetzten Technologien zu erwerben, bleibt Nachwuchsforschenden in ihren Projekten allerdings häufig selbst überlassen. So kommt es nicht selten vor, dass auch Lehrenden, die Projekte von Nachwuchsforschenden mit hohem Digital Humanities-Anteil gezielt fördern, dennoch die Methodenkompetenz in diesem Bereich fehlt. Im besten Falle kann dies durch eine koordinierte Betreuung kompensiert werden, sodass das jeweilige Projekt sowohl fachlich-inhaltlich als auch methodologisch-technologisch optimal entwickelt werden kann. Die Erfahrung hat jedoch gezeigt, dass dies bei weitem nicht immer der Fall ist. Häufig stehen die Nachwuchsforschenden mit einem der beiden Aspekte alleine da; in der Regel ist dies der methodisch-technologische Anteil. Da hierdurch vor allem jungen Forschenden ein hohes Maß an Eigeninitiative abverlangt wird, soll das Ergebnis unseres Workshops und Erfahrungsaustausches auch eine Hilfestellung bieten.
Wie eingangs erwähnt, vermissen wir hauptsächlich einen kritisch-reflektierenden Umgang mit den Werkzeugen und Methoden der Digital Humanities, denn auch für diese gelten die Grundsätze der Wissenschaftlichkeit. Daher haben wir zwölf Prinzipien zusammengestellt, die unserer Meinung nach die Wahrung wissenschaftlicher Grundsätze in den Digital Humanities sicherstellen und eine angemessen kritische Auseinandersetzung ermöglichen. Diese verstehen wir nicht als vollständiges Kompendium, sondern vielmehr als Vorschlag und Debattenbeitrag in der derzeit stattfindenden Etablierung der Digital Humanities in den bestehenden Fachkulturen. In knapp zusammengefasster Form sind die Prinzipien unter »Best practices« zu finden; weiteres über ihre Begründung haben wir unter den drei Sammelbegriffen Methodenbewusstsein, Transparenz und Nachhaltigkeit erörtert.
Teil 1: Wissenschaftliche Prinzipien in den Digital Humanities: Digital Humanities und die Fachdisziplinen
Teil 2: Wissenschaftliche Prinzipien in den Digital Humanities: Methodenbewusstsein
Teil 3: Wissenschaftliche Prinzipien in den Digital Humanities: Transparenz in den Digital Humanities
Teil 4: Wissenschaftliche Prinzipien in den Digital Humanities: Nachhaltigkeit in den Digital Humanities
Teil 5: Wissenschaftliche Prinzipien in den Digital Humanities: Best practices
Elisabeth Maria Magin, PhD war bis 2021 Doktorandin an der University of Nottingham mit Anbindung an der Universität Bergen, wo die Runeninschriften gelagert sind, welche die Grundlage für ihre runologische Datenbank bilden. In ihrer Doktorarbeit hat sie untersucht, wie SQL-basierte Datenbanken dazu genutzt werden können, größere Korpora von Runeninschriften im Hinblick auf die soziale Identität der Runenritzer zu analysieren.
Ingrid M. F. Heiene ist Doktorandin an der NTNU – Technisch-Naturwissenschaftliche Universität Norwegens, und untersucht Entwicklungen in Nominalphrasensyntax, Kasusmorphologie und Bestimmtheitsmorphologie in mittelnorwegischen Diplomen aus einem generativen Standpunkt.
Balduin Landolt studierte in Basel und Reykjavik Skandinavistik und Germanistik, derzeit plant er ein Doktorat zur digitalen Erschließung komplexer handschriftlicher Textüberlieferungen. Daneben arbeitet er als Software Developer beim Data and Service Center for the Humanities (DaSCH) in Basel.
Sven Kraus studierte Skandinavistik und European Studies an der Humboldt-Universität zu Berlin, der Universität Bergen und der Europa-Universität Viadrina Frankfurt (Oder). Seit September 2019 promoviert er in Basel zu Übersetzung und Kulturtransfer im Nordwesteuropa des 13. Jahrhunderts und verbindet dabei philologische Betrachtungsweisen mit experimentellen Ansätzen der Digital Humanities.
]]>In Zusammenarbeit mit dem Schulmuseum Sønderjylland plant die Slægtsforskernes Bibliotek die Digitalisierung von 20.000 schulhistorischen Schriften (v. a. Jahrbüchern) aus der Sammlung von Danmarks Pædagogiske Bibliotek, die aus Bildungseinrichtungen wie beispielsweise Lateinschulen, Realschulen, Gymnasien, Lehrerseminaren und Hochschulen stammen und einen Zeitraum von 1800-2000 umfassen. Die Fachbibliothek für Familienforschung, welche derzeit eine Volltextrecherche in ca. 8000 Titeln anbietet, wird die schulhistorischen Digitalisate auf der Seite Danskernes Historie Online zugänglich machen.
Das dänische Filmzentrale Danmark på film hat eine Reihe von kurzen Filmen digitalisiert, die sich thematisch mit den Epidemien (Diphtherie, Tuberkulose und Polio) beschäftigen, die sich in Dänemark in den 1940er und 1950er Jahren ausbreiteten.
Die Kopenhagener Beerdigungsregister für den Zeitraum 1861-1912 wurden digitalisiert und können z. B. nach Namen und Adresse in der Datenbank des Stadtarchivs recherchiert werden. Das Digitalisierungsprojekt wird für den Zeitraum 1912-1940 fortgeführt.
Auf der Plattform MOOChub stehen Lernenden über 290 kostenlose Online-Kurse verschiedener Anbieter aus Deutschland und Österreich zur Verfügung. Dort findet man auch Kurse zu dänisch-deutschen Kulturlandschaften und deutsch-dänischer Kunstgeschichte.
Zur Ausgrabungsstätte in Gjellestad, wo 2018 neben einem spektakulären Schiffsgrab aus der Wikingerzeit weitere Grabhügel sowie Bauten entdeckt wurden, ist unter Beteiligung der Høgskole i Østfold, ist eine animierte Darstellung erschienen.
Als Ergebnis des Projekts Evighetsrunor des Zentralamts für Denkmalpflege (Riksantikvarieämbetet) und des Instituts für nordische Sprachen in Uppsala wurde die digitale Forschungsplattform Runor lanciert, die umfassende Informationen über bekannte und registrierte Runen und Runeninschriften in Schweden, Nordeuropa und dem übrigen Europa enthält. Neben den digitalisierten Bänden von Sveriges runinskrifter und der Samnordisk runtextdatabas wurde auch bisher schwer zugängliches sowie neu erschlossenes Quellenmaterial berücksichtigt. Einen allgemeineren Einstieg zum Thema bietet die Seite Runskolan.
Auf der Plattform Sveriges historia wird interaktives Unterrichtsmaterial für Schüler der 4.-9. Klassen gratis bereitgestellt, das digitales Quellenmaterial von 17 Museen enthält.
Die finnische Nationalbibliothek plant die Digitalisierung von allen Tageszeitungen, die auf schwedisch erschienen sind. Ab 2024 sollen dann 6 Mio. Zeitungsseiten aus den Jahren vor 1950 digital frei ins Netz gestellt werden. Die neueren Ausgaben sind bereits in Archiven sowie den sogenannten „friexemplarsbibliotek“ digital zugänglich.
Im Varanger Museum werden Bestände aus dem Themengebiet der kvensk-nordfinnischen Geschichte und Kultur (u. a. Vardø fiskersamvirkelag arkiv, 1946-1985) verzeichnet, digitalisiert und ab Ende 2021 im Digitalarkivet zugänglich gemacht.
Unter Beteiligung der Universitäten Oslo und Bergen plant die Universitätsbibliothek Bergen die Digitalisierung von kulturhistorischen Quellen (zunächst: folkeeventyr, sagn, ballader, trosforestillinger, folkemedisinske tradisjoner og mat- og håndverkstradisjoner) verschiedener Archive (Etnofolkloristisk arkiv ved Universitetet i Bergen (UiB), Norsk Folkeminnesamling ved Institutt for kulturstudier og orientalske språk (UiO), Norsk etnologisk gransking ved Norsk Folkemuseum), das in naher Zukunft im Digitalarchiv samla.no online gehen soll.
]]>Die Nationalbibliothek folgt in ihrer 2006 begonnenen Digitalisierungspolitik den wichtigsten Empfehlungen, welche als Minimalanforderungen für digitalisiertes Kulturerbe von einer Expertengruppe ausgearbeitet wurden: Lokalisierbarkeit der digitalen Bestände, Qualitätsstandards für die Erstellung digitaler Materialien, umfassende Beschreibung durch Metadaten, Sicherung der Langzeitarchivierung sowie angemessene Präsentation. ((Åpen og samordnet tilgang til kulturarven. Anbefalinger for en vellykket tilstedeværelse i den digitale kulturelle verden. Rapport. [Offener und geordneter Zugang zum Kulturerbe. Empfehlungen für eine geglückte Präsenz in der digitalen kulturellen Welt. Bericht.] Oslo 2011 (= ABM-skrift; 66), S. 52–61)) Zudem wurde eine eigene Digitalisierungsstrategie für das Bibliothekswesen ausgearbeitet, in der die Zugänglichkeit des kulturellen Erbes ebenfalls hervorgehoben wird: „Der Einsatz der Nationalbibliothek auf dem digitalen Gebiet wird auf Sicht dazu führen können, dass der gewöhnliche Nutzer auf seinem eigenen PC direkten Zugang zu großen Teilen des norwegischen Kulturerbes haben kann.“ ((Stortingsmelding 23 (2008–2009): Bibliotek. Kunnskapsallmenning, møtestad og kulturarena i ei digital tid. Oslo 2009, S. 53. Im Netz einzusehen unter http://www.regjeringen.no/nn/dep/kud/dokument/proposisjonar-og-meldingar/stortingsmeldingar/2008-2009/stmeld-nr-23-2008-2009-.html?id=555516 (zuletzt abgerufen am 6.3.2014) [„Nasjonalbibliotekets satsingar på det digitale området vil på sikt kunne føre til at den vanlege brukaren kan ha direkte tilgjenge på sin eigen PC til store delar av den norske kulturarven.“].)) In einem eigenen Strategiepapier stellt sich die Nationalbibliothek als diejenige Einrichtung vor, die in Norwegen Richtung und Tempo für kulturelle Digitalisierungsvorhaben vorgibt, welche landesweite Standards etabliert und im Mittelpunkt eines ganzen Netzwerkes von Kooperationspartnern steht. Norwegische Bücher und Medien aller Art seit dem Mittelalter sollen nach und nach frei zugänglich werden und die Langzeitarchivierungsstrategie wird sehr ambitioniert mit einer 1000jährigen Perspektive versehen. Das Selbstbewusstsein, hier an der Spitze der Entwicklung zu stehen, ist sehr ausgeprägt: „Some European countries have also started digitizing parts of their national cultural treasures, but so far no other national library has plans to digitize their entire holdings. We are thus the first National Library in Europe to take on this huge challenge, not only for the preservation of materials for posterity, but also to make as much content as possible available on the web.“ ((Jingru Høivik: „Mobile Digital Library in The National Library of Norway.“ In: Library Hi Tech News 28 (2011:2), S. 1–8, hier: S. 1.)) Wie weit die Ausweitung von Nutzungsmöglichkeiten der digitalen Sammlungen bereits gedacht wird, zeigt die recht frühe Orientierung auf die Nutzung von mobilen Endgeräten wie Smartphones und die Entwicklung einer mobilen Version der Webpräsenz für die digitalen Sammlungen. ((Ebd., S. 3–8.)) Darüber hinaus wird an der Nationalbibliothek auch Forschung betrieben, von der man für weitere Schritte bei der Bewahrung digitaler Materialien zu profitieren hofft, beispielsweise ein Projekt zur Archivierung von Meldungen auf dem Kurznachrichtendienst Twitter: „How can institutions like the National Library of Norway preserve new media content like Twitter for future research and documentation?“ lautet hier das Erkenntnisinteresse. Der Autor verweist ausdrücklich auf die Aufgabe der Nationalbibliothek zur Bewahrung des kulturellen Erbes, zu welchem letztlich in der digitalen Welt auch Nachrichten auf Twitter gehören: „Twitter is a relevant part of our culture, and thus should be regarded cultural heritage. Preserved tweets might provide an insight into our culture for future generations.“ ((Yngvil Beyer: „Using DiscoverText for Large Scale Twitter Harvesting.“ In: Microform & Digitization Review 41 (2012:3–4), S. 121–125.))
Die zentrale Stellung der Nationalbibliothek wurde weiter gestärkt, als der wichtigste Konkurrent (auch um die öffentlichen Gelder), das staatliche Zentrum für Archive, Bibliotheken und Museen [ABM-utvikling] 2010 aufgelöst und Teile seiner Aufgaben an die Nationalbibliothek sowie an den Norwegischen Kulturrat übertragen wurden. Zudem machten sich auch kritische Stimmen bemerkbar, die einen Mangel an kritischer Diskussion über das Vorgehen namentlich der Direktorin der Nationalbibliothek Vigids Moe Skarstein beklagen und problematisieren, dass gewissermaßen durch die Hintertür eine zu wenig hinterfragte kulturelle Deutungshoheit etabliert worden sei. ((Vgl. etwa Marianne Takle: Det nasjonale i Nasjonalbiblioteket. Oslo 2009.)) Es würden hohe Summen für die umfassende Digitalisierung ausgegeben, ohne nach möglichen Nutzungsszenarios zu fragen und ohne die Interessen der Leserinnen und Leser einzubeziehen. Zudem wurde die Forderung laut, Artefakte aus allen Bereichen des kulturellen Erbes einer gemeinsamen Auswahl und Prioritätensetzung zu unterziehen. ((Tord Høivik: „Den digitale kulturarven: skal digitaliseringen styres av tilbud eller etterspørsel?“ In: Bibliotekforum 32 (2007:7), S. 10–11, hier: S. 10.))
Als Fazit der Artikelserie kann man festhalten: Norwegen ist ganz klar Vorreiterland auf dem Gebiet der Digitalisierung von kulturellem Erbe. Besonders bemerkenswert sind dabei Tempo und Umfang der Maßnahmen. Dies ruft wie gesehen auch Kritiker auf den Plan: Autoren und Verlage haben Bücher aus dem digitalen Bücherregal der Nationalbibliothek zurückgezogen (aus Angst vor Gewinneinbußen). Zudem ist Geschwindigkeit bei der sorgfältigen Aufbereitung von historischen Materialien für deren Digitalisierung eben nicht Trumpf. In Norwegen sind die zentralen Akteure allerdings von jeher in einer starken Position, und Regierung sowie Parlament haben im Rahmen der Digitalisierungsstrategien entschieden, diese weiter zu stärken und ihnen die notwendigen Mittel zur Verfügung zu stellen – und nicht etwa externen Dienstleistern aus der freien Wirtschaft. Die Institutionen selbst wiederum haben aus ihrem Auftrag weit mehr gemacht, als ihnen der Staat aufgetragen hat. Insbesondere die Nationalbibliothek hat von sich aus weitere Mittel und Personalkapazitäten für die Digitalisierungsvorhaben reallokiert. Sie nutzt ihre Vorhaben auf dem digitalen Feld für eine weitreichende Imagekampagne, die neben der eigenen Institution auch dem gesamten Land zu einer Reputation als innovative, progressive Nation gereichen soll. Somit sind die Digitalisierungsstrategien für das kulturelle Erbe auch Werbung im Ausland und ein neues Element, das sich aber in eine bestehende Tradition einreiht: Norwegen als Vorbildland, welches sich für die guten Dinge einsetzt und damit der Welt ein Beispiel gibt. Dies ist auf den Gebieten der Wohlfahrtsstaatspolitik ebenso wie der Entwicklungspolitik bereits ein etabliertes Muster. Fortschrittlichkeit wird durch die Offenheit für neue Technologien signalisiert, die für gesellschaftlich wertvolle Zwecke eingesetzt wird. Die kritischen Stimmen sind zwar da, aber sie sind nicht laut und sie sind wenige – in einem Land mit einer stärker ausgeprägten Konsens- statt Konfliktkultur.
]]>Working with digital materials and tools requires much reflection and careful planning. Each project is unique, but there are still good reasons to know some basic things. Since all of us now work with computers, in practice this applies to everyone involved in any kind of research. Considering the fact that today we potentially have more digital sources than any other type of material, and that the historians of the future will primarily have digital sources for reconstructing or understanding our own age, this is an urgent area of concern also for cultural heritage institutions like archives, libraries and museums.
In an international context Digital Humanities (DH) is already a large and growing field, and in both Finland and Sweden work based on advanced technological solutions is underway. One such project is “Zacharias Topelius Skrifter” (The Collected Writings of Zacharias Topelius) and another is “Litteraturbanken” (The Swedish Literature Bank, see also the contribution here on NordicHistoryBlog). In English there is by now an extensive, partly quite specialized literature on Digital Humanities, but in Swedish there are not even more general works that introduce the topic.
The purpose of our project “Historia i en digital värld” (History in a digital world) is to write an elementary book that can meet this need, and that also touches upon some of the epistemological and general methodological issues raised by „the digital turn“. We mainly focus on historical research and questions about preservation of sources used for such research, but large parts of the book should be relevant also for humanities in a broader sense. Our aim is to put together a publication, ideally both digital and printed, that is equivalent to a short monograph (perhaps around 60,000–80,000 words). The primary goal is to provide a broad and brief overview, but on a number of specific points it will also contain more extensive and slightly more technical treatments of topics such as TEI (Text Encoding Initiative) markup, GIS (Geographic Information System) technology etc. A large number of links and references will lead the reader to more specialized literature and external digital resources for deeper coverage or real-world examples of the phenomena that we discuss.
During the initial phase, which began on 15 May 2013 and is expected to end in early January 2014, the main text as well as the specially commissioned in-depth articles are published in weekly instalments on the website http://digihist.se, where each new section is announced in a brief blog post. This process of writing in public makes it possible for anyone who is interested to comment on the work in the form of questions, critique or other suggestions. The original publication plan outlines eight chapters divided into c. 30 sections and about ten in-depth articles, but as we write through the chapters and sections merge or new ones get added the plan is revised, and there is a page where one can always see an up-to-date publication schedule with links to those chapters and sections that have already been made available. In the second phase all of the comments we have received will be worked into the manuscript of the finished book, which we hope to be able to publish by the end of 2014 at the latest.
Kenneth Nyberg is Associate Professor of History at the University of Gothenburg (Göteborg) · webpage: http://kennethnyberg.org · Twitter: @ksnyberg
Jessica Parland-von Essen is Adjunct Professor of History at the University of Helsinki (Helsingfors) and Executive Director at Brages Pressarkiv · webpage: http://www.bragespressarkiv.fi/ · Twitter: @jpve
]]>