Zeitgemäßes Lernen und Lehren

Shrimp

 

Ein Gespräch mit Projektleiter Dr. Sebastian Herrmann über das digitale Lernmedium „Shrimp“

Social Hypertext Reader & Interactive Mapping Platform – kurz SHRIMP – ist der Titel eines Lehr-Lern-Experiments, das im Wintersemester 2015/16 am Institut für Amerikanistik der Universität Leipzig begonnen wurde: Das Lehrmaterial eines Seminars wird als Social Hypertext umgesetzt und über eine digitale Online-Platform in das Lehrangebot integriert.

Die Plattform will ein zeitgemäßes Medium sein, das einen individuellen, kreativen Leseprozess ermöglicht und gemeinschaftliches Lernen fördert. Es soll die Hochschullehre besonders in den Geisteswissenschaften bereichern.

1. SHRIMP wird von Ihnen und Ihrem Team als „Lehr-Lern-Experiment“ bezeichnet. Was genau muss man sich darunter vorstellen? Warum muss es SHRIMP geben?

SHRIMP ist ein Lehr-Lern-Experiment, weil sich beide ‘Seiten’ auf etwas Neues einlassen: die Studierenden müssen sich von der linearen Form lösen, in der sie normalerweise ihre Seminarinhalte angeboten bekommen, und sie müssen mit den social-media Möglichkeiten von SHRIMP spielen: liken, diskutieren, annotieren. Und die Lehrenden müssen sich auch davon lösen, dass die Studierenden die Sitzung vorbereiten, indem sie von vorne nach hinten alle genau den gleichen Text lesen. Bei diesen Umstellungen lernen alle Beteiligten sehr viel — über die Inhalte des Seminars, aber auch über die (eigenen) Lesestrategien, darüber, was einen selbst und die anderen in der Seminargruppe interessiert, und sogar darüber, wie die Linearität von Texten (und von Gedankengängen) funktioniert.

SHRIMP muss es geben, weil unsere Studierenden eine enorme Kompetenz im Umgang mit nichtlinearen, fluiden Textformen und mit dem gemeinsamen social-media-artigen Lesen mitbringen; eine Kompetenz, die wir gerade in der Studienanfangsphase nutzen wollen und sollten! Weiterlesen ›

Getagged mit: , ,

Rhythm detector: A digital tool to identify free verse prosody

Gastbeitrag von PD Dr. Burkhard Meyer-Sickendiek

Mindestens 80% der modernen und postmodernen Gedichte haben weder einen Reim noch ein festes Metrum wie etwa den Jambus oder Trochäus. Aber heißt dies, dass sie von rhythmischen Strukturen gänzlich frei sind? Die US-amerikanische Theorie der freien Versprosodie behauptet das Gegenteil: Moderne Dichter wie Whitman, die Imagisten, die Beatpoeten oder die heutigen Slam-Poeten hätten die klassischen metrischen Versformen durch eine neue Prosodie ersetzt, die von Prosarhythmen, Alltagssprache oder Musikstilen wie Jazz oder HipHop geprägt ist. Unser Projekt will diese Theorie auf der Grundlage einer digitalen Musteranalyse überprüfen.

Zu diesem Zweck untersuchen wir vier der bedeutendsten Internetseiten für eingelesene Gedichte deutscher und amerikanischer Lyriker. In Anlehnung an die sehr effektive Prosodieerkennung aktueller Sprachtechnologien wird unser Projekt einschlägige Methoden wie phrase break prediction, prosodische Phrasierung, spoken document Analyse und Disfluenzmodellierung zur digitalen Analyse rhythmischer Muster verwenden. In einem ersten Schritt wird das philologische Teilprojekt durch den Abgleich von textueller und stimmlicher Prosodie spezifische rhythmische Muster bestimmen. Das digitale Teilprojekt entwickelt daraus eine digitale Muster(wieder-)erkennung auf der Grundlage maschinellen Lernens.

Unser Ziel ist die Entwicklung einer Methode und einer Software zur digitalen Prosodieerkennung und formalen Korpusanalyse eigenrhythmischer Gedichte. Traditionelle Verslehren verwendeten metrische Muster wie etwa den Pentameter oder den Hexameter zur Identifikation literarischer Genres wie der Elegie oder literaturgeschichtlicher Einflüsse wie dem der griechischen Lyrik auf die deutsche Lyrik des 18. Jahrhunderts. Ebenso wird unsere Analyse rhythmischer Muster es künftig ermöglichen, poetische Formen eigenrhythmischer Lyrik oder den literarischen Einfluss der US-amerikanischen free verse prosody auf die deutschsprachige Lyrik der (Post-)Moderne präzise zu erfassen. Langfristig soll unser interdisziplinär entwickeltes Tool auf lyrikline.org platziert werden, um so für die universitäre Lehre und Forschung nachhaltig nutzbar zu sein.

Weitere Informationen erhalten Sie unter: www.rhythmicalizer.net
Ein Paper der Projektgruppe finden Sie hier: Large-scale Analysis of Spoken Free-verse Poetry (Baumann/Meyer-Sickendiek)

Kontakt:
Timo Baumann
Department of Informatics
Universität Hamburg
baumann@informatik.uni-hamburg.de

Burkhard Meyer-Sickendiek
Department of Literary Studies
Freie Universität Berlin
bumesi@zedat.fu-berlin.de

 

 

 
Getagged mit: , ,

QuaDramA – Quantitative Drama Analytics.

 

An der Universität Stuttgart ist 2017 ein Forschungsprojekt zur quantitativen Dramenanalyse gestartet: QuaDramA – Quantitative Drama Analytics. Ziel des Projektes von Dr. Nils Reiter (Institut für Maschinelle Sprachverarbeitung) und Dr. Marcus Willand (Institut für Literaturwissenschaft) ist zum einen die Entwicklung neuer Methoden zur Analyse dramatischer Texte und zum anderen die Untersuchung dramenhistorischer Entwicklungen. Kern ist dabei die Komplementierung von strukturellen Informationen in Dramen (Einteilung in Akte, Szenen etc.) mit einer computerlinguistisch unterstützten Analyse der Figurenrede(n).

Das Projekt wird in Zukunft von der VW-Stiftung im Rahmen der Mixed-Methods-Förderung unterstützt und erlaubt es uns, zwei Doktorandenstellen (65%, TV-L 13) auszuschreiben. Bewerbungshinweise finden Sie hier.

Projektvorhaben:
In QuaDramA erarbeiten wir die Möglichkeiten der skalierbaren Analyse dramatischer Texte, wobei wir insbesondere verschiedene Aspekte der dramatischen Figur fokussieren. Unser Korpus besteht aus über 600 digitalisierten deutschsprachigen Dramen, insbesondere aus der Zeit zwischen 1740 und 1920. Auf diesem Korpus verbinden wir Strukturanalysen mit der computergestützten Inhaltsanalyse dramatischer Figurenrede. Diese Verbindung beider Analyseformen erlaubt es uns, computerlinguistische tools der natürlichen Sprachverarbeitung (NLP) für die spezifische Domäne dramatischer Texte zu adaptieren. Struktur und Inhalt auf diese Weise analytisch zu integrieren ist nicht trivial, da sehr unterschiedliche Informationstypen in Abhängigkeit von einander systematisch analysiert werden müssen, um für eine differenzierte Textinterpretation fruchtbar gemacht werden zu können. Die empirischen Funde der Analysen werden neben der Einzeltext-Interpretation auch literaturhistorisch eingebunden. Dabei sind drei Aspekte der dramatischen Figur von zentraler Bedeutung:

  1. Figurentypen: Was sind Figurentypen (zärtlicher Vater/Intrigant/Narr) und von welchen Textmerkmalen werden sie konstituiert? Ist es möglich, Figurentypen automatisiert anhand dieser Merkmale zu identifizieren? Wie entwickeln sich einzelne Typen im Verlauf der deutschen Dramengeschichte.
  2. Figureninteraktion: Wie interagieren Figuren (und Figurentypen) mit anderen Figuren (und Figurentypen)? Worauf basieren ihre Beziehungen (Emotionen, Familie, soziale Zwänge) und wie verändert sich dies historisch? Gibt es prototypische Beziehungsmuster zwischen bestimmten Figurentypen (in spezifischen historischen Konstellationen)?
  3. Figurenentwicklung: Wie entwickeln sich dramatische Figuren und Figurentypen im Verlauf der Handlung eines Einzeltextes? Verändern sie ihre Position in Bezug auf den dramatischen Konflikt (Dynamik/Statik) und wenn ja, wie?

Weitere Informationen, Publikationen, Vorträge, unser Korpus und Code finden Sie auf unserer Projektseite: https://quadrama.github.io/

 

 

Getagged mit: , ,

Wissen in Netzwerken und durch Netzwerke

 

Die im Wintersemester 2014/15  an der Universität Leipzig  begründete Vortragsreihe „Theorie und Methodik“ soll den Begriff „Digital Humanities“ mit Inhalten füllen, indem Fragen ihrer Theorie und Methodik einer breiteren wissenschaftlichen Öffentlichkeit vorgestellt werden. Dabei soll auch darüber reflektiert werden, wo die traditionellen Grenzen zwischen Disziplinen wie z. B. Sprachwissenschaft, Literaturwissenschaft und Kulturwissenschaft nur „gewollte“ Grenzen sind, die sich letztendlich als hinderlich erweisen, und ob nicht gerade die Digitalen Geisteswissenschaften aufgerufen sind, eine Theorie zu entwickeln, die die gemeinsamen Grundlagen und Methoden in den Fokus nimmt.

Die Veranstalter laden am 17.01.2017 zu folgenden Vorträgen ein:

17:15-18:30 – Anne Baillot (Centre Marc Bloch, Berlin): Zirkulation von Briefen, Zirkulation in Briefen. Romantische Korrespondenzen edieren heißt Geschichte (neu)schreiben

und

18:30-19:45 – Vera Hildenbrandt (Universität Trier, Trier Center for Digital Humanities): „Man verliert ein Volk und erhält weitverstreute Freunde“. Soziale Netze deutschsprachiger Intellektueller im Exil

 

Nähere Informationen finden Sie auch im Veranstaltungsflyer sowie auf der Website.

Getagged mit: , ,

Berliner DH-Bericht

Die Geschäftsstelle des Interdisziplinären Forschungsverbundes Digital Humanities in Berlin (if|DH|b) erstellt jährlich einen Berliner DH-Bericht, der einen Überblick über aktuelle
Entwicklungen in Forschung, Lehre und nachhaltiger Bereitstellung digitaler geisteswissenschaftlicher Forschungsdaten gibt und Transparenz für die Berliner Digital-Humanities-Community schafft.
 
Der if|DH|b wurde von der Berliner Senatsverwaltung für Wirtschaft, Technologie und Forschung für zunächst drei Jahre bis zum 30. Juni 2016 gefördert. Nach erfolgreicher Evaluierung im Frühjahr 2016 wird die Förderung des Verbundes für weitere zwei Jahre vom 1. Oktober 2016 bis 30. September 2018 fortgesetzt. Während in der ersten Förderphase eine berlinweite einrichtungsübergreifende Plattform für die Digital Humanities initiiert und eingerichtet wurde, dient die zweite Phase der Entwicklung tragfähiger Konzepte in den DH-Bereichen „Nachhaltige Forschungsdaten“ und „Lehre und Weiterbildung“ am Standort. Das Forum „Forschung“ wird in diese beiden Bereiche integriert.
 
Der nun vorliegende Berliner DH-Jahresbericht 2015/2016 informiert über die Arbeiten zum Abschluss der ersten Förderphase des if|DH|b und gibt einen Ausblick auf die geplanten Aktivitäten der zweiten Förderphase (10/2016–09/2018).
 
 
Getagged mit: , ,

WikiLibrary Barcamp 2016

(c) WikiLibrary Barcamp 2016

(c) WikiLibrary Barcamp 2016

Am 3. Dezember 2016 findet in der Sächsischen Landesbibliothek – Staats- und Universitätsbibliothek Dresden (SLUB) das WikiLibrary Barcamp 2016 „Bibliotheken im Netz – Digitale Allmende“ zum Thema Wikipedia und Bibliotheken statt. Veranstaltet wird das Barcamp von Wikimedia Deutschland e. V., der SLUB Dresden und der Kampagne Netzwerk Bibliothek des Deutschen Bibliotheksverbands e. V. (dbv).
Das Barcamp möchte die Begegnung zwischen Bibliothekarinnen und Bibliothekaren und Wikipedia-Aktiven fördern. Teilnehmende sind im Sinne der Idee der Barcamps eingeladen, ihre Ideen zum Motto „Bibliotheken im Netz – Digitale Allmende“ einzubringen und Projekte vorzustellen. In Input-Vorträgen & Diskussionsrunden, Workshops oder Poster-Sessions werden Ideen, Vorschläge und Fragen zum Thema Bibliotheken im Netz – Digitale Almende!? behandelt.

Näheres zum Programmablauf auf der WikiLibrary-Seite.

Weiterlesen ›

Getagged mit: ,

CfP: „Digitale Literaturwissenschaft“

Im Auftrag der Deutschen Forschungsgemeinschaft findet vom 9. bis 13. Oktober 2017 in der Villa Vigoni ein internationales literaturwissenschaftliches Symposion zum Thema „Digitale Literaturwissenschaft“ statt. Es folgt organisatorisch dem Muster der Germanistischen Symposien der DFG, wie sie seit den 1970er Jahren durchgeführt wurden. Die Konferenzsprachen sind Englisch und Deutsch, wobei alle Teilnehmer in der Lage sein sollten, Beiträge in beiden Sprachen zu lesen und der Diskussion in beiden Sprachen zu folgen.

Das internationale literaturwissenschaftliche DFG-Symposium findet unter Leitung der Kuratoren Prof. Dr. Fotis Jannidis (Universität Würzburg), Prof. Dr. Simone Winko (Universität Göttingen), Prof. Dr. Andrea Rapp (TU Darmstadt), Prof. Dr. Jan Christoph (Universität Hamburg), Dr. Thomas Stäcker (Herzog August Bibliothek Wolffenbüttel) statt.

Weiterlesen ›

Getagged mit: , ,

CfP: Stilistik und Stilometrie in der Romania

Call for Papers zum XXXV. Romanistentag in Zürich, 08.-12.10.2017, Sektion 7

Theorien von Autorschaft und Stil in Bewegung. Stilistik und Stilometrie in der Romania
Sektionsleitung: Nanette Rißler-Pipka (Siegen / Eichstätt)  Kontakt: rissler@romanistik.uni-siegen.de / nanette.rissler-pipka@ku.de

Zwischen dem Verdikt vom Tod des Autors (Barthes 1968) und der folgenden Re-definition des Autorbegriffs (Foucault, Genette, Eco, etc.) liegt die Notwendigkeit literaturgeschichtlicher
Klassifikation von Autoren, Stilen und Epochen auf der einen Seite und linguistischer Beschreibung von Sprachstilen auf der anderen Seite. Im Literatursystem hat sich die Bedeutung des „Autors“ zurecht in einem Geflecht von Produktionsbedingungen, Text, Leser, Performanz, Diskurs, Medien, Distribution und Rezeption relativiert. Erst in Folge der Digitalisierung von Texten, Büchern oder Artefakten sowie der Plagiatsdiskussion an Universitäten ist Autorschaft zumindest im Bereich des wissenschaftlichen Schreibens und digitalen Publizierens wieder ein Thema. Weiterlesen ›

Getagged mit: , ,

Digitale Editionen und Auszeichnungssprachen

unbenannt

Der Münchener Arbeitskreis für digitale Geistes- und Sozialwissenschaften veranstaltet am 21. und 22. November 2016 an der Bayerischen Akademie der Wissenschaften einen Workshop zum Thema: „Digitale Editionen und Auszeichnungssprachen“. Interessierte können sich unter digitalisierung@badw.de anmelden.

Die Veranstalter (Dr. Eckhart Arnold, Bayerische Akademie der Wissenschaften, Referatsleiter Digital Humanities; Prof. Dr. Mark Sven Hengerer, Ludwig-Maximilians-Universität München, Professur ‚Geschichte Westeuropas in der Frühen Neuzeit‘; Julian Schulz M.A., Ludwig-Maximilians-Universität München, IT-Gruppe Geisteswissenschaften) über den Workshop:

In den geisteswissenschaftlichen Fächern sind wissenschaftliche Texteditionen nicht nur ein Forschungsprodukt, sie bilden auch die Grundlage der darauf aufbauenden Forschung. Die Anforderungen, die an wissenschaftliche Editionen gestellt werden, variieren jedoch von Fach zu Fach. Ein Beispiel: Historiker bevorzugen eher normalisierte Texte mit vereinheitlichter Interpunktion und Rechtschreibung, während für Sprachwissenschaftler umgekehrt durch die Normalisierung des Textes entscheidende Informationen verloren gehen. Mit Hilfe digitaler Methoden ist es möglich, im Rahmen ein- und desselben Editionsprojektes die Bedürfnisse unterschiedlicher Zielgruppen besser zu bedienen. Der Workshop soll dazu dienen, sich über die Chancen auszutauschen, die digitale Methoden in dieser Hinsicht bieten, aktuelle Editionstechnologien kennen zu lernen und die institutionellen Voraussetzungen digitaler Editionsprojekte zu diskutieren. Im Hinblick auf den „Digitalen Campus Bayern“ sollen dabei auch die sich daraus ergebenden Anforderungen an die Lehre und Ausbildung thematisiert werden.

Nähere Informationen zum Workshop und dem geplanten Programm sind unter dhmuc verfügbar.

Getagged mit: , ,

Verlängerte Deadline!

Die Deadline für unseren Digitalitäts-Workshop im März 2017 an der Universität Bayreuth wurde verlängert.

Alle Interessierten können sich nun noch bis zum 6. November 2016 bewerben. Bitte schicken Sie dazu eine Mail mit einer Projektskizze (max. 1000 Wörter) sowie einem CV an: digitalitaet.dfg@uni-bayreuth.de.

Nähere Informationen zum Workshop „Neue Forschungsgegenstände und Methoden? Wie Digitalität die Geisteswissenschaften verändert“ finden Sie hier.

Wir sind gespannt auf Ihre Bewerbung!

Getagged mit: , ,
Top