Sonderband 3 der ZfdG erschienen!

Abb.: Screenshot des 3. Sonderbandes der ZfdG, der die Beiträge unseres Workshops enthält

Und da ist er endlich! Der 3. Sonderband der Zeitschrift für digitale Geisteswissenschaften ist erschienen und versammelt die Beiträge unseres Workshops „Neue Forschungsgegenstände und Methoden? Wie Digitalität die Geisteswissenschaften verändert“, der am 23./24. März 2017 stattfand.

Im Zentrum des von Sybille Krämer und Martin Huber herausgegebenen Bandes stehen Fragen nach den grundlegenden Veränderungen, die digitale Forschungsstrukturen mit sich bringen: Wie verändert die Digitalisierung Forschungsgegenstände, Forschung und Selbstverständnisse in den Geisteswissenschaften? Welchen Mehrwert verspricht die digitale Aufbereitung und Analyse des Materials? Wie kann das ‚Neue‘ an Forschungsergebnissen, die allein mit digitalen Verfahren zu gewinnen sind, beschrieben und erklärt werden? Beiträgerinnen und Beiträger aus der Geschichtswissenschaft, Philosophie, Medienwissenschaft, Soziologie, Kunstwissenschaft, Archäologie, Wissenschaftsgeschichte, Zeitschriftenforschung, Kunst- und Literaturwissenschaft untersuchen anhand von konkreten Beispielen, wie sich der digitale Wandel auf das Wissen und die Forschungsgegenstände der einzelnen Disziplinen auswirkt.

Autorinnen und Autoren des vollwertig open access veröffentlichten Bandes sind:
Arianna Borrelli, Klaus-Georg Deck, Frank Fischer, Ana Marija Grbanovic, Eva Gredel, Stefan Heßbrüggen-Walter, Anouk Hoffmeister, Séverine Marguin, Maria Männig, Arndt Niebisch, Madleen Podewski, Cornelia Schendzielorz, Jens Schröter, Friederike Schruhl, Charlotte Schubert, Peer Trilcke.

Martin Huber / Sybille Krämer (Hg.):
Wie Digitalität die Geisteswissenschaften verändert: Neue Forschungsgegenstände und Methoden. Sonderband 3.
In: Zeitschrift für digitale Geisteswissenschaften. Wolfenbüttel 2018.
DOI: 10.17175/sb003.
http://www.zfdg.de/sonderband/3
DFG Projektnummer: 287972711

 

 

Getagged mit: , ,

Der Stachel des Digitalen

Soeben erschienen: Digital Classics Online Bd. 4,1 (2018) mit einem Beitrag von Prof. Dr. Sybille Krämer.  Der Beitrag mit dem Titel „Der ‚Stachel des Digitalen‘ – ein Anreiz zur Selbstreflexion in den Geisteswissenschaften? Ein philosophischer Kommentar zu den Digital Humanities in neun Thesen“ flankiert die Eröffnungs-Keynote, die Sybille Krämer auf der diesjährigen DHd in Köln gehalten hat.

Zum E-Journal geht´s hier.
Die Videoaufzeichnung der Keynote finden Sie hier.

Getagged mit: ,

Alles im Fluss auf der dhd2018

„Alles ist im Fluss – Ressourcen und Rezensionen in den Digital Humanities“ lautete der Titel eines Panels, das das Institut für Dokumentologie und Editorik (IDE) auf der Jahreskonferenz der Digital Humanities im deutschsprachigen Raum (dhd2018) organisiert hatte. Dazu verfügbar ist nun eine Panel-Nachlese.

Getagged mit: , ,

Berliner DH-Bericht 2016/17

 

Die Geschäftsstelle des Interdisziplinären Forschungsverbundes Digital Humanities in Berlin (if|DH|b, www.ifdhberlin.de) erstellt jährlich einen Berliner DH-Bericht, der einen Überblick über aktuelle Entwicklungen in Forschung, Lehre und nachhaltiger Bereitstellung digitaler geisteswissenschaftlicher Forschungsdaten gibt und Transparenz für die Berliner Digital Humanities Community schafft. Der Bericht für den Zeitraum 12/2016-12/2017 ist nun veröffentlicht und hier zu finden.

Getagged mit: ,

Verfügbarkeit von Forschungsdaten

Die DHd-Arbeitsgruppe Datenzentren im Verband DHd („Digital Humanities im deutschsprachigen Raum“) hat sein Grundsatzpapier zur Sicherung der langfristigen Verfügbarkeit von Forschungsdaten veröffentlicht. In dem Papier, das Potenziale und Perspektiven geisteswissenschaftlicher Datenzentren sowie die Arbeitsfelder der AG Datenzentren in den Blick nimmt, heißt es u.a.:

„Obwohl Konzepte z.B. zur Langzeitarchivierung seit den 1990er Jahren entwickelt werden und andere wissenschaftliche Fachgemeinschaften bereits erfolgreich globale Einrichtungen für das Datenmanagement oder sogar explizite Datenzentren aufgebaut haben und nachhaltig betreiben, erfüllen die meisten bestehenden Angebote die sich abzeichnende breite Anforderungspalette geisteswissenschaftlicher digitaler Forschung noch nicht vollständig.“

Die AG beschreibt in ihrem Positionpapier daher die speziellen Gegebenheiten in den Geisteswissenschaften und leitet daraus Anforderungen an sowie spezifische Aufgaben von geisteswissenschaftlichen Datenzentren ab. 

Das Grundsatzpapier steht unter http://doi.org/10.5281/zenodo.1134760 als PDF-Version zum Download bereit. Zudem findet ein Panel der AG Datenzentren auf der diesjährigen DHd in Köln statt.

 

Getagged mit:

Vortrag zum Rhythmicalizer

Im Rahmen des DH-Kolloquiums an der BBAW findet am Freitag, den 2. Februar 2018, 17 Uhr s.t. bis 19 Uhr, ein Vortrag zum an dieser Stelle bereits vorgestellten Rhythmicalizer statt.
Burkhard Meyer-Sickendiek und Hussein Hussein (beide FU Berlin) werden über „Rhythmicalizer. Ein digitales Werkzeug zur Prosodieerkennung in Hörgedichten“ referieren. Der Vortrag gibt zunächst einen Einblick in die digitale Prosodie-Analyse mit Hilfe mehrerer Standardtools. Die kombinierten Tools werden zur manuellen bzw. teilautomatischen Klassifikation der akustischen bzw. textuellen Merkmale der Gedichte der Internetplattform Lyrikline genutzt. Im Beitrag wird dann diskutiert, wie mit Hilfe von Deep-Learning-Toolkits diese manuelle bzw. teilautomatische Klassifikation in eine automatische Klassifikation überführt werden kann. Insbesondere konzentriert sich der Vortrag auf mögliche Anwendungen mit begrenzten Datensätzen und die Handhabung schwieriger Probleme im Rahmen des Verstärkungslernens.

Ausführliche Informationen zum Vortrag finden Sie auf der Website des if|DH|Berlin.
Die Veranstaltung findet im Raum 230 der Berlin-Brandenburgischen Akademie der Wissenschaften, Jägerstr. 22/23, 10117 Berlin statt.
Da die Teilnehmerzahl begrenzt ist, möchten wird um Anmeldung per E-Mail unter DH-Kolloquium@bbaw.de gebeten.

Getagged mit: ,

Rhythmicalizer. Ein digitales Werkzeug zur Klassifikation von Hörgedichten

Gastbeitrag von PD Dr. Burkhard Meyer-Sickendiek (FU Berlin), Dr. Hussein Hussein (FU Berlin) und Dr. Timo Baumann (Carnegie Mellon University Pittsburgh)

Unser Projekt wird vom Januar 2017 bis zum April 2020 von der Volkswagenstiftung gefördert. Insgesamt gingen im Rahmen der Ausschreibung „Interaktion qualitativ-hermeneutischer Verfahren und Digital Humanities: ‚Mixed Methods‘ in den Geisteswissenschaften?“ 101 Anträge bei der VolkswagenStiftung ein, neun Projekte wurden bewilligt. Ziel der Ausschreibung war es, Möglichkeiten auszuloten, wie neue Verfahren der Digital Humanities mit den bisherigen, im weitesten Sinne „qualitativ-hermeneutischen“ Ansätzen kombiniert werden können. Wir gehen dabei von der folgenden Fragestellung aus:

Mindestens 80% der modernen und postmodernen Gedichte haben weder einen Reim noch ein festes Metrum wie etwa den Jambus oder Trochäus. Aber heißt dies, dass sie von rhythmischen Strukturen gänzlich frei sind? Die US-amerikanische Theorie der freien Versprosodie behauptet das Gegenteil: Moderne Dichter wie Whitman, die Imagisten, die Beatpoeten oder die heutigen Slam-Poeten hätten die klassischen metrischen Versformen durch eine neue Prosodie ersetzt, die von Prosarhythmen, Alltagssprache oder Musikstilen wie Jazz oder HipHop geprägt ist. Unser Projekt will diese Theorie auf der Grundlage einer digitalen Musteranalyse überprüfen. Zu diesem Zweck untersuchen wir das wichtigste Internetportal für internationale Hörgedichte: das Berliner Portal lyrikline.org.

In Anlehnung an die sehr effektive Prosodieerkennung aktueller Sprachtechnologien verwenden wir einschlägige Methoden wie prosodische Phrasierung, spoken document Analyse und Disfluenzmodellierung zur digitalen Analyse rhythmischer Muster jenseits der metrischen Klassiker (Jambus, Trochäus). Diese Muster bestimmen wir zunächst manuell, und überführen sie dann in eine digitale Mustererkennung auf der Grundlage maschinellen bzw. tiefen Lernens. Dazu haben wir eine Methode (bzw. langfristig eine Software) zur digitalen Prosodieerkennung und formalen Korpusanalyse eigenrhythmischer Gedichte entwickelt, welche auf der Kombination mehrerer Standarttools wie Part-Of-Speech-Taggern, Text-to-Speech-Toolkits, Wavesurfern, Speech-Recognition Toolkits, das TOBI-Toolset für die Extraktion der phrasal tones, pitch accents and breaks, sowie den Rhythmus-Erkenner Sonic Visualizer zur Extraktion von lokaler Sprechgeschwindigkeit.

Unser Ziel ist die Entwicklung einer Methode und einer Software zur digitalen Prosodieerkennung und formalen Korpusanalyse (post-)moderner Hörgedichte. Traditionelle Verslehren verwendeten metrische Muster wie etwa den Pentameter oder den Hexameter zur Identifikation literarischer Genres wie der Elegie oder literaturgeschichtlicher Einflüsse wie dem der griechischen Lyrik auf die deutsche Lyrik des 18. Jahrhunderts. Ebenso wird unsere Analyse rhythmischer Muster es künftig ermöglichen, poetische Formen eigenrhythmischer Lyrik oder den literarischen Einfluss der US-amerikanischen free verse prosody auf die deutschsprachige Lyrik der (Post-)Moderne präzise zu erfassen. In den nächsten Jahren sollen die Forschungsergebnisse unseres interdisziplinär entwickelten Toolsets auf lyrikline.org platziert werden, um so für die universitäre Lehre und Forschung nachhaltig nutzbar zu sein.

Siehe auch:

http://www.geisteswissenschaften.fu-berlin.de/v/rhythmicalizer/index.html

Getagged mit: , ,

Digitale Transformation(en)

Der interdisziplinäre Forschungsverbundes Digital Humanities in Berlin (if|DH|b) organisiert in Zusammenarbeit mit dem Institut für Geschichtswissenschaften, Historische Fachinformatik der Humboldt-Universität zu Berlin im kommenden Wintersemester 2017/2018 eine Ringvorlesung zur digitalen Transformation der Geisteswissenschaften. Im Zentrum der insgesamt 15 Vorträge (Oktober 2017 bis Februar 2018) stehen dabei vor allem praxisbezogene Einblicke und Überlegungen zu den Auswirkungen der Digitalisierung auf die Forschungs-, Publikations-, Vermittlungs- und Kommunikationsprozesse der unterschiedlichen Disziplinen.

Jeweils dienstags von 18 bis 20 Uhr kommen u.a. Franco Moretti, Patrick Sahle, Heike Neuroth und Susan Schreibman zu Wort. Die Veranstaltung findet wechselweise in der Humboldt-Universität zu Berlin und der Berlin-Brandenburgischen Akademie der Wissenschaften statt.
Eine Anmeldung ist für die Termine an der Humboldt-Universität nicht notwendig; für die Termine an der Berlin-Brandenburgischen Akademie der Wissenschaften (BBAW) wird um Anmeldung unter info(at)ifdhberlin.de oder kschroeder(at)bbaw.de gebeten.

Eine Übersicht der Einzeltermine finden Sie hier.
Nähere Infos zur Ringvorlesung „Digital Humanities: Die digitale Transformation der Geisteswissenschaften“ gibt es hier.

 

Getagged mit: , ,

Netzwerk Zeitschrift

Das Zentrum für Literatur- und Kulturforschung Berlin veranstaltet am 13. und 14.7. 2017 gemeinsam mit dem Forschungsverbund Marbach Weimar Wolfenbüttel einen Workshop zum Thema „Zeitschriften als Netzwerke. Perspektiven digitaler Erforschung und Darstellung“.

Der Workshop diskutiert die Möglichkeiten der Erforschung und Darstellung von intellektuellen Netzwerken am Beispiel von Zeitschriften. Anhand von Fallstudien wird diskutiert, mit welchen Fragestellungen solche Netzwerke erforscht werden können, welche Instrumente und Hilfsmittel dabei zur Anwendung kommen und wie die Ergebnisse solcher Forschung dargestellt werden können. Besonderes Gewicht liegt dabei auf der Verbindung von klassisch hermeneutischen Verfahren mit solchen der Digital Humanities: mit Distant Reading, mit datenbankgestützter Analyse und Darstellung der Ergebnisse. Mit der Frage nach Netzwerken soll dabei der digitalen Erfassung und Bereitstellung von Zeitschriften ein dezidiert forschungsorientierter Zugang zur Seite gestellt werden.

Zum Programm in Berlin gehören u.a. Vorträge wie Netzwerkpolitiken. Online-Zeitschriften zwischen Teilhabe und Profilierung“ (Constanze Baum, Wolfenbüttel), Die intellektuellen und publizistischen Netzwerke der Zeitschrift Die Kreatur (1926-1930)“ (Enrico Rosso, Potsdam) sowie ein Roundtable-Gespräch zu künftigen Projekten.

Zeit: 13./14.7.2017
Ort: ZfL, Schützenstr. 18, 10117 Berlin, 3. Etage
Nähere Infos sowie das gesamte Programm: hier

 

Getagged mit: , ,

forTEXT – Routinen, Ressourcen und Tools

Im Februar 2017 ist an der Universität Hamburg das DFG-geförderte Projekt „forTEXT“ gestartet. Unter der Leitung von Prof. Dr. Jan Christoph Meister arbeiten Jan Horstmann M.A.,  Janina Jacke M.A. (beide Literaturwissenschaft) und Marco Petris (Informatik) an der Entwicklung einer digitalen Arbeitsumgebung für Geisteswissenschaftler. Eine weitere Entwicklerstelle (50 % TV-L 13) ist derzeit noch nicht besetzt.

Ziel des Vorhabens forTEXT sind Aufbau und nachhaltige Bereitstellung einer virtuellen Forschungsumgebung für zwei grundlegende heuristische Verfahrensschritte philologischer Texterschließung: die kollaborative Text-­Annotation und ­-Analyse. Im Sinne des sogenannten ‚hermeneutic markup‘ (Piez 2010) sollen beide Methoden dabei so unterstützt werden, dass der hermeneutischen Praxis non­deterministischer, diskursiver Bedeutungszuschreibungen Rechnung getragen wird.

 

Der hermeneutische Zirkel in der traditionellen Literaturwissenschaft

 

Der hermeneutische Zirkel in den
digitalen Geisteswissenschaften

 

forTEXT eröffnet damit vor allen Dingen traditioneller arbeitenden Philolog*innen einen direkten, niedrigschwelligen und funktionalen Zugang zu digitalen Methoden. Damit wird ein zentrales methodologisches Desiderat eingelöst, das bei der Unterstützung geisteswissenschaftlicher Verfahren mit informations­technologischen Mitteln bislang kaum Beachtung erfahren hat, für die Akzeptanz digitaler Verfahren und Plattformen in den Philologien und anderen textorientierten Geisteswissenschaften jedoch von zentraler Bedeutung ist.

Konkret wird forTEXT folgende Dienste anbieten:

  • eine komplexe Empfehlungsfunktion (d. h. abgestimmt auf individuelle geisteswissenschaftliche Use-Cases schlägt die Funktion Routinen, Ressourcen und Tools zur digitalen Unterstützung der jeweiligen Arbeitsschritte vor),
  • eine umfassende Sammlung von Informationen über Routinen/Methoden/best practices (z. B. Topic Modeling, named entity recognition, Stilometrie, Netzwerkanalysen, taxonomiebasiertes kollaboratives Annotieren, etc.),
  • eine Übersicht über Ressourcen (digitale Korpora und Textsammlungen, Tagsets, annotierte Editionen) sowie die Implementierung vereinfachter Import- und Exportfunktionen,
  • ein Verzeichnis von existierenden Tools, welche die aufgeführten Routinen unterstützen, sowie die Bereitstellung von neuen intuitiveren Nutzeroberflächen für die konkrete Anwendung und Kombination ausgewählter Funktionalitäten.

Der Fortschritt des Projektes kann auf der forTEXT-Homepage fortext.net verfolgt werden. Im Rahmen des forTEXT-Projektes wird zudem die an der Universität Hamburg entwickelte webbasierte Annotations- und Analyseplattform CATMA konzeptionell fortgeführt und optimiert.

Außerdem arbeitet forTEXT eng mit dem an der Universität Hamburg angesiedelten Projekt 3DH zusammen. Die dort entwickelten interaktiven Möglichkeiten der Text- und Datenvisualisierung werden ebenfalls Eingang in die forTEXT-Arbeitsumgebung finden.

Update: Mittlerweile ist auch die zweite Entwicklerstelle besetzt. Christian Bruck (Informatik) ist nun ebenfalls Teil des forText-Teams (Stand: September 2017).

Getagged mit: , ,
Top